1

Klimazwiebel: Umfrage für Skeptiker!

Vor diesem Hintergrund ist ein neues Umfrageprojekt entstanden, das sich ausschließlich an Skeptiker richtet. Die Befragung ist hier zu erreichen und noch bis zum 11. Oktober freigeschaltet.

Wenn schon einer der bekanntesten deutschen Klimaforscher, also Hans von Storch, und seine Mitautoren bei der Klimazwiebel wissen wollen, wie wir Skeptiker wirklich ticken, dann sollten wir diese Chance auch wahrnehmen. Ich bitte daher um rege Beteiligung.

Peter Heller Science Sceptical

ÄHNLICHE BEITRÄGE (BETA):




Speicher für elektrische Energie, Vision vs Realität! „Um den deutschlandweiten Ausgleich einer typischen sechstägigen Windflaute zu überbrücken, müsste man zuvor den Starnberger See (3 km3 Volumen) auf das Niveau der Zugspitze pumpen“

Aufgrund des EEG geförderten massiven Ausbaus der Wind- und Sonnenstromerzeugung deren Nennleistung bereits in den Mindestlastbereich der E.on Regelzone hinein wächst, ergeben sich einerseits erheblich höhere Stromerzeugungskosten durch schlechtere effektive Ausnutzung dieser Erzeugungseinheiten und andererseits als infolge dessen immer öfter negative Stromhandelspreise an der Strombörse.

 

Die für die Netzregelung eingesetzten Pumpspeicherkraftwerke reichen bereits heute nicht mehr aus, so dass vermehrt fossil befeuerte Kraftwerke als Regelkraftwerke eingesetzt werden müssen: „Um den deutschlandweiten Ausgleich einer typischen sechstägigen Windflaute zu überbrücken, müsste man zuvor den Starnberger See (3 km3 Volumen) auf das Niveau der Zugspitze pumpen (20 TWh).

Von den technisch möglichen großen Stromspeichern, die da sind: Druckluft-, Pump- oder Wasserstoffspeicher könnte aus heutiger Sicht nur die chemische Energiespeicherung durch Wasserelektrolyse auf indirektem Weg ausreichende Kapazität bieten. Hierbei müsste überschüssiger Wind- oder Sonnenstrom benutzt werden, um Wasser elektrolytisch in seine Hauptbestandteile Sauerstoff und Wasserstoff zu zerlegen. Ohne EEG – Förderung würden Energieversorger ihren Kapitalgebern gegenüber betriebswirtschaftlich begründet keine Windkraft- oder Photovoltaikanlagen zur Stromerzeugung einsetzen können, sondern den vorhandenen Kraftwerkspark optimieren und durch neue Kraftwerke, auch Kernkraftwerke ergänzen. Auch Regelenergie ist mit konventionellen Kraftwerken – etwa Gasturbinen – günstiger bereitzustellen, als mit Wasserstoff als Basis für die Spitzenstrombereitstellung über Brennstoffzellen.

Zum Verhalten in der Öffentlichkeit zum Zeitgeist, oder wie man auch sagt, zum Mainstream, hatte sich schon vor über 125 Jahren der damalige Reichskanzler Otto von Bismarck sehr trefflich geäußert:

 „Die Wahrheit hat es gegen die Lüge immer schwer, wenn die Öffentlichkeit die Lüge glauben will.“ 

Das ist wohl auch heute noch so, denn:

Ingenieure suchen Wahrheiten, Politiker suchen Mehrheiten. 

Prof. Dr. Alt Aachen

Siehe auch pdf Anhang

Anmerkung der Redaktion: Zur Kapazität von Pumpspeicherwerken – hier Goldisthal (Zitat aus (1)):

Allerdings sind die Verluste bei diesem Verfahren groß (ca. 20 %), die Kosten entsprechend hoch und die Anforderungen an die Topologie dieser Pumpspeicherwerke nur in sehr wenigen Fällen erfüllbar. Das größte deutsche Pumpspeicherwerk Goldisthal in Thüringen, eines der größten in Europa, hat eine Leistung von stattlichen 1060 MW und liefert seine Energie über maximale 8 h von 8480 MWh. Dann ist das Speicherbecken leer, und muß wieder über viele lange Stunden vollgepumpt werden. Die Planungszeit betrug 30 Jahre, die Bauzeit 11 Jahre. Es kostete ca. 600 Mio €. Wollte man nur den Leistungsausfall von vier windstillenTagen überbrücken, die in Deutschland – lt. Dr. Roland Hamelmann von der FH Lübeck – recht typisch sind, dann benötigte man dafür 257 solcher Speicherkraftwerke. Die Investition allein dafür betrüge dann ca. 144 Mrd €. Vielleicht ginge es auch mit etwas weniger Pumpspeicherwerken, je nach dem wie schnell das Wasser wieder hochgepumpt werden kann. Wie auch immer es bleibt eine wahrhaft teure, extrem kostspielige Lösung. Vom erheblichen Flächenverbrauch ganz zu schweigen. Als Standardlösung scheidet dieses Verfahren also aus.

(1) Die Klimahysterie – was ist dran (Michael Limburg)

Related Files




Die Renaissance der Kernenergie in der Welt!

Die zunehmende Aktivität bei den Neubauten zeigt sich an der zunehmenden Anzahl der in Bau befindlichen Kernkraftwerke: Das waren

Ende 2007                        29 KKW’s in Bau.

Ende 2008                         43 KKW’s in Bau

Ende 2009                         56 KKW’s in Bau

Weiterhin waren Ende 2009 80 KKW’s in konkreter Planung, 130 in beabsichtigter Planung.

Die Ende 2009 in Bau befindlichen Kernkraftwerke befinden sich in Finnland (1), Frankreich (1), Russland (10), Ukraine (2), Slowakei (2), Bulgarien (2), Iran (1), Pakistan (1), Argentinien (1), USA (1), Indien (5), China (20), Japan (1), Taiwan (2), Südkorea (6).

Europa

Frankreich: In Flamanville ist ein KKW (EPR) in Bau, ein zweiter Neubau ist in Planung.

Finnland: In Olkiluoto ist ein KKW in Bau (EPR von AREVA), 2 weitere KKW’s in Planung.

Schweden: Hatte 1980 den Ausstieg bis 2010 beschlossen. Barsebäck 1 + 2 (in der Nähe von Malmö + Kopenhagen) wurden stillgelegt (1999, 2005) aus Rücksichtnahme auf die dänischen Nachbarn, aber ausgeglichen durch Leistungserhöhungen der anderen KKW’s. Das Neubauverbot wurde von schwedischen Parlament aufgehoben, bis zu 10 neue KKW’s erlaubt das neue Gesetz.

Italien: Hatte nach Tschernobyl nach einer Volksabstimmung seine drei Kernkraftwerke still gelegt, dann jahrelang den Ersatzstrom aus französischen KKW’s bezogen. Jetzt wurde durch Parlamentsbeschluss mit überwältigender Mehrheit der Wiedereinstieg beschlossen. Es sollen 4 neue KKW’s gebaut werden und Italien will sich an Kernkraftwerken im Ausland beteiligen.

Tschechien: Die rechtlichen Hindernisse für zwei weitere Kraftwerksblöcke Temelin 3 + 4 wurden beseitigt, die Ausschreibung ist bereits erfolgt. Temelin versorgt schon jahrelang das Ausstiegsland Österreich mit KKW-Strom, das sind ca. 500kWh pro Bürger im Jahr (ca. 10% des gesamten österreichischen Strom oder ca. 30% des in den Haushalten verbrauchten Stroms). Eine österreichische Klage vor dem Europäischen Gerichtshof gegen Temelin ist gescheitert.

Polen: Hat bisher kein KKW, Neubauten von 4 Kraftwerksblöcken sind geplant. Verschiedene Regionen Polens bewerben sich als Standort, ein Standort bei Danzig wurde festgelegt. Zusammenarbeit mit Frankreich ist vereinbart.

Schweiz: In der Vergangenheit wurde in mehreren Volksabstimmungen von den Bürgern der Ausstieg aus der Kernkraft abgelehnt. Die Gründe waren: Unabhängigkeit bewahren, volkswirtschaftlichen Schaden abwenden, Kernenergie ist CO2-frei. Seit eine Stromlücke droht, werden die Bürger durch vielfältige Information systematisch auf die Notwendigkeit von Neubauten vorbereitet. Die Neubauten werden an den bestehenden Standorten geplant, dort große Zustimmung unter der Bevölkerung. Alle bestehenden KKW’s haben unbefristete Betriebsbewilligung.

Belgien: Die Regierung hat einen früheren Beschluss von 2002, der die Laufzeit der 3 älteren KKW’s auf 40 Jahre beschränkte, aufgehoben und deren Laufzeit um weitere 10 Jahre (auf insges. 50 Jahre) verlängert. Damit wurde das in Belgien bestehende Gesetz, das auch den Ausstieg bis 2025 festlegte, in wesentlichen Teilen außer Kraft gesetzt.

Niederlande: Ein Ausstiegsbeschluss wurde zurück genommen, die Laufzeit des bestehenden KKW’s wurde um 30 Jahre verlängert. Das Verfahren zum Neubau eines zweiten Blockes in Borssele läuft.

Spanien: Laufzeitverlängerung um 10 Jahre von einem Block, Leistungserhöhungen bei bestehenden KKW’s. Damit wurde dem grundsätzlichen Bekenntnis Spaniens zu einem Ausstieg (das aber nicht per Gesetz fixiert ist) durch tatsächliches Handeln widersprochen.

Großbritannien: 10 potenzielle Standorte genehmigt, 4 große Blöcke an 2 Standorten in Planung

Russland: Am 16.6.2010 begannen die Russen mit den Bauarbeiten am zwei großen Kernkraftwerksblöcken in Kaliningrad (1200MW), dem früheren Königsberg. 2016 bzw. 2018 sollen sie fertig sein und Strom für den Export produzieren (nach Deutschland?). Laufzeitverlängerungen bei bestehende KKW’s um 15 Jahre bis 2025 genehmigt. 10 KKW’s in Bau.

Ungarn: 2 weitere Blöcke sind in Paks in Planung.

Slowakei: Im Rahmen des EU-Beitritts musste ein (oder 2?) KKW stillgelegt werden, es werden in früherer Zeit begonnene – aber unterbrochene – Neubauten fortgeführt.

Bulgarien: 2 KKW’s sind in Betrieb, 2 KKW’s sind in Bau.

Slowenien: ein zweiter Block ist in Krsko in Planung.

Rumänien: Planung für 2 neue Kernkraftwerksblöcke angelaufen.

Weißrußland: Bisher ohne KKW, plant 2 Neubauten, Vertrag mit Russland geschlossen.

Armenien: Der Ersatz des bestehenden KKW’s durch eine neue größere Anlage beschlossen.

Naher Osten

Emirate: Die Emirate haben 4 KKW’s in Korea bestellt für 20 Mrd. US$.

Jordanien: Plant den Bau von 4 KKW’s zur Stromerzeugung und Meerwasserentsalzung, dazu sind weitreichende Verträge mit Russland geschlossen worden.

Türkei: Hat bisher kein KKW, Neubauten von 4 Kraftwerksblöcken sind geplant, es wurden Verträge mit Russland geschlossen.

Amerika

USA: Für 59 der 104 KKW’s wurde die Betriebserlaubnis auf 60 Jahre erweitert. Bei den Behörden sind 18 Neubauanträge (COL = kombinierte Bau- und Betriebsbewilligungen) eingegangen für insgesamt 28 Kraftwerksblöcke (5 davon sind inzwischen vorläufig zurückgestellt). Mit dem Bau eines neuen Werkes für Reaktor-Schwerkomponenten wurde begonnen. Unter der Bevölkerung besteht seit Jahren eine überwiegende Zustimmung zur Kernkraft, die je nach Fragestellung 60 bis 80% beträgt.

Kanada: Laufzeitverlängerungen zwischen 10 und 30 Jahren genehmigt. Regierung beauftragt Energieversorger zu Neubauten.

Brasilien: Genehmigung zur Fertigstellung von ANGRA 3 ist erteilt.

Argentinien: Hat ein neues Kernenergiegesetz mit großer Mehrheit verabschiedet, welches Neubauten und Laufzeitverlängerungen um 30 Jahre erlaubt.

Fernost

Hier liegt das Schwergewicht bei den Kernkraftwerksneubauten, denn wirtschaftlicher Aufschwung ist untrennbar mit zunehmendem Stromverbrauch verknüpft (Ungekehrt erfolgt abnehmender Stromverbrauch nur bei Zusammenbruch der Wirtschaft, wie in den Jahren nach der deutschen Einheit durch den Niedergang der Wirtschaft in den neuen Bundesländern zu sehen war).

Insbesondere zu erwähnen sind China (die meisten Neubauten), Südkorea (steigt ein in den Export von KKW’s), Indien (betreibt 4 große Forschungszentren und entwickelt Brüter und Hochtemperaturreaktor). Auch steigen Staaten ein, die bisher keine KKW’s betreiben, zu nennen ist Vietnam.

Und wie geht es weiter?

Mit der Kernkraft geht es auf der ganzen Welt voran. Nur Deutschland steht abseits, der Ausstiegsbeschluss von Rot-Grün wurde von Schwarz-Gelb nicht aufgehoben, sondern seine Durchführung nur aufgeschoben. Unsere Nachbarn mit gesetzmäßig festgelegtem Ausstiegsbeschluss Italien, Schweden, Belgien, Niederlande waren realistischer, sie haben ihre früheren Entscheidungen als falsch erkannt und rückgängig gemacht.

Nur Österreich und Dänemark, die keine Kernkraftwerke betreiben, halten weiterhin an ihren politischen Entscheidungen gegen die Kernenergie fest.

Laufzeitverlängerungen, Neubauten und Neubauplanungen gibt es rund um Deutschland bei den näheren Nachbarn: Schweden, Niederlande, Belgien, Frankreich, Schweiz, Slowenien, Tschechien, Slowakei, Polen, Rußland. Alle diese Nachbarn machen ihre Planungen sicherlich auch in Hinblick auf das Verhalten Deutschlands, denn der Verkauf von Strom an ein reiches Land verspricht ein langfristiges gutes Geschäft (solange der Käufer noch zahlungskräftig ist).

In Deutschland werden die Lichter so schnell nicht ausgehen, dazu trägt auch der Bau der Ostseepipeline bei. Wenn beide Röhren fertig sind, wird die Kapazität nahezu ausreichend sein zum Ersatz sämtlicher deutscher Kernkraftwerke. Rußland baut Kernkraftwerke im eigenen Land, damit es Erdgas für den Export spart und so Devisen einnehmen kann. Erdgas gilt als saubere Energiequelle, die Kraftwerke sind schnell und billig zu bauen. Es gibt keinen (organisierten) Widerstand gegen Neubau von Erdgaskraftwerken. So wurden in den letzten 8 Jahren 11 Gaskraftwerke bei uns fertig gestellt, 1 Kohlekraftwerk und ein Kohle/Gas Kombikraftwerk. Mit seinem Gaslieferungen und dem in Bau befindlichen Kernkraftwerk in Königsberg dehnt Russland in aller Stille seine Macht nach Westen aus.

Der „revolutionäre Schritt Deutschlands hin zum Zeitalter der Erneuerbaren Energien“ (O-Ton Merkel) erzeugt angesichts der Entwicklung auf der Welt Unbehagen beim deutschen Bürger. Die fossilen Energiequellen reichen einige Jahrhunderte, die Quellen der Kernspaltungsenergie Uran und Thorium jedoch sehr viele Jahrtausende. Die Erneuerbaren Energien reichen nach menschlichem Ermessen zwar unendlich lange, ohne andere Quellen und heutigen Wohlstand angenommen allerdings nur für ca. 5% unserer Bürger. Was machen wir dann mit den anderen 95%? Wer soll die Subventionen verdienen?

Die Sonnenstaaten im nahen Osten haben verstanden, was zu tun ist: nicht Solarstrom, sondern Kernkraftstrom ist die Zukunft. Wann wird man das in Deutschlands Führungsetage begreifen?

Dr. Lutz Niemann, Stand Sept. 2010

Lesen Sie dazu auch die interessante Analyse vonr. Dr. Günther Keil & Dr. J. Wahl: "Der Siegeszug der Kernkraft" als pdf Dateianlage

Related Files




Wer nicht mitbetet, wird zum Sarrazin gemacht! Die Offensive der Diskurspolizei

Die Empörten, die Thilo Sarrazin zum „Rassisten“, „Eugeniker“ und in ihren schrillsten Tönen sogar zum „Nazi“ stempeln wollten, breiteten sich zwar wochenlang auf allen Kanälen aus, hatten aber nur teilweise Erfolg. Sie konnten den unliebsamen Kritiker in den elitären Kreisen des „politischen Berlin“ zum Paria erklären. Die meisten Bürger erkannten jedoch, dass da ein Bote für die Nachricht hingerichtet werden sollte. Sarrazins Statistiken kommen der Realität ganz offenbar näher, als die beschönigende Rhetorik derer, die ihn zur Unperson abstempeln wollen.

Der spröde Finanzpolitiker hat viele falsche Freunde und seinen Job verloren, wird aber von umso mehr Menschen für seinen Mut geschätzt. Trotz immensen Aufwands an Papier und Sendezeit errangen die Möchtegern-Zensoren also nur ein Patt. Doch der Teilsieg genügte ihnen offenbar, sich an der eigenen Macht zu berauschen. Kaum ist es etwas ruhiger um Sarrazin geworden, hat die deutsche Diskurspolizei das Feuer auf die nächsten Delinquenten eröffnet. Im Bundestag wurde die offizielle Klimapolitik angezweifelt. Und das darf keinesfalls toleriert werden.

Nun hatten zwei den Mut zu sagen, was sie wirklich darüber denken: Paul Friedhoff, wirtschaftspolitischer Sprecher der FDP, und Marie-Luise Dött, umweltpolitische Sprecherin der CDU. Das war für die Hüter der reinen Lehre ein Tabubruch. Herrmann Ott, Klimapolitiker der Grünen, forderte die CDU im Kasernenhofton auf, sich von Dött zu distanzieren. Sie spreche mit „notorischen Klimawandelleugnern“ und sei eine „peinliche Witzfigur“.

Zwei sich liberal nennende Zeitungen machten sich zum Sprachrohr des grünen Sprechverbots. Sie fanden es skandalös, dass die Ketzer behauptet hätten, Kohlendioxid sei gut. Im Biologieunterricht lernt man, dass dieses Gas neben Sonnenlicht und Wasser die Grundlage allen Lebens darstellt. Darf man das nicht mehr gut finden?

Und was machte Dötts Partei, die Union? Sie sprang – wie gewohnt – über das Stöckchen, das die Grünen ihr hinhielten. Man gab sich mächtig empört und drohte der Parlamentarierin, dies werde nicht ohne Folgen bleiben. So entsorgt man in einem Rutsch alle Tatsachen und Forschungsergebnisse, die in der offiziellen Klimapolitik störend wirken. Der Meeresspiegel steigt kaum, die Globaltemperatur stagniert, Wirbelstürme nehmen nicht zu: Alles egal, wir glauben an die Klimakatastrophe. Wer nicht mitbetet, wird zum Sarrazin gemacht.

Von Maxeiner & Miersch Lesen Sie den ganzen Beitrag im Forum "Die Welt" vom 24.9.10  

Mail an die Autoren der Welt: forum@welt.de

Dazu die Antwort eines der Hauptverleumders Dr. Hermann Ott MdB Grüne. ( hermann.ott@bundestag.de) ehemals Wuppertal Institut als Leserbrief an "Die Welt" vom 28.9.10:

Es  kommt nicht überraschend. ·Die deutliche Kritik, die ich mit anderen Kollegen im Deutschen Bundestag an den Aussagen von Marie-Luise Dött, der umweltpolitischen Sprecherin der CDU-Fraktion, geäußert habe, wird nun zu einem Thema der Meinungsfreiheit gemacht; Als ob irgendjemand Frau Dött davon abhalten würde, ihre Meinung zum Klimawandel öffentlich kundzutun und den Klimaschutz als einr "Ersatzreligion" zu bezeichnen. Als ob irgendjemand der FDP verbitten würde, Veranstaltungen mir Klimawandelskeptikern durchzuführen. Aber: Wer seine Meinung öffentlich äußert, muss es auch ertragen, wenn man anderer Meinung ist. Kritik und Widerspruch sind keine Einschränkung der Meinungsfreiheit, sondern Ausdruck derselben. Beim Klimawandel gilt wie überall sonst: Ein jeder hat das Recht auf seine eigene Meinung, aber niemand hat das Recht auf eigene Fakten. Kein Klimawissenschaftler bestreitet die Realität des Klimawandels – und nur ein winziger Promillesatz der Wissenschaftler stellt den Menschen als Ursache des Klimawandels infrage. Die Klimawissenschaft ist deshalb eben gerade keine Ersatzrcligion, weil hier nicht der Glaube zählt; sondem nur die wissenschaftlich überprüfbaren Fakten. Wie  in jeder Wissenschaft gibt es Diskussionen bezüglich der Details. Doch an der Grundannahme zweifelt niemand. Die Bekämpfung des Klimawandels bietet große Chancen, aber sie wird auch Verlierer haben. Dazu gehören. insbesondere die fossilen Industriestrukturen des vergangenen Jahrhunderts. Es ist deshalb nicht überraschend, dass Klimawandelleugner wie der von der FDP eingeladene Fred Singer (der übrigens in früheren Jahren – von der Tabakindustrie bezahlt – die Schädlichkeit des Rauchens bestritten hat) nun von genau diesen Industrien bezahlt wird. Nur weil es solche Leute wie Singer gibt, die sicb von der fossilen Energieindustrie bezahlen lassen, um am menschengemachten Klimawandel zu zweifeln, gibt es überhaupt eine Debatte in den Feuilletons über den Klimawandel. In der Wissenschaft gibt es keine. Ähnlich wie bel Kreationisten (die die Evolution leugnen) lässt sich mit sogenannten Klimaskeptikern kaum diskutieren: In Wahrheit handelt es sich bei ihnen um die Anhänger einer Ersatzreligion. Diese sollen nun zu Märtyrern der Meinungsfreiheit verklärt werden.

Dr. Hermann Ott, MdB (Grüne), Berlin

LB an "Die Welt" vom 28.9.1




Erklärung des Europäischen Instituts für Klima und Energie (EIKE) zur beabsichtigten Verabschiedung des Energiekonzeptes der Bunderregierung !

Erklärung des Europäischen Instituts für Klima und Energie (EIKE) zur beabsichtigten Verabschiedung des Energiekonzeptes der Bundesregierung

26.09.201

I Grundsätze des Energiekonzepts

 „Die Sicherstellung einer zuverlässigen, wirtschaftlichen und umweltverträglichen Energieversorgung ist eine der größten Herausforderungen des 21. Jahrhunderts“ wird im Energiekonzept (EK) festgestellt (EK, S.3). Diese Aussage steht im eklatanten Widerspruch zu den im Energiekonzept enthaltenen Vorschlägen zur Entwicklung der Energieversorgung in Deutschland. Dieser Widerspruch wird in der Erklärung von EIKE behandelt.

Zunächst wird auf den Sinn eines solchen Energiekonzepts eingegangen. Er wird von der Bundesregierung damit begründet, dass es einen Klimawandel gibt, den wir Menschen mit einer falschen Energiegewinnung und als Folge davon durch zu hohe CO2-Emissionen verursachen. Dieses CO2 soll eine ‚Erderwärmung’ bewirken, die unsere Existenz gefährdet. Um diese Gefahr abzuwenden, müssen wir unsere Energiegewinnung hin zu weniger CO2-Emissionen abändern.

II Klimawandel als Motor – Glaube statt Fakten

Das Konzept eines anthropogen verursachten Klimawandels wurde von Maurice Strong, dem Generalsekretär des ‚Erdgipfels’ in Rio de Janeiro, zusammen mit einigen Gleichgesinnten initiiert. Strong fühlt(e) sich dem richtigen Gedanken des Umweltschutzes verpflichtet. Da er und seine Mitstreiter aber offensichtlich weder geologische noch klimatologische Grundkenntnisse besaßen, wählten sie als Instrument für die notwendigen Bemühungen um unsere Umwelt den Begriff ,Klimawandel’ aus, weil er durch vom Menschen emittiertes CO2 angeblich die Erderwärmung verursacht. Um dieses CO2 zu reduzieren und damit den ‚Planeten vor dem Ruin zu retten’, sollten – so die Aussage von Strong – die Industrieländer kollabieren.

Selbstverständlich können – und müssen – wir unsere Einflüsse auf die Umwelt minimieren und wir müssen mit unseren Energieressourcen sparsam umgehen – nicht zuletzt der Kosten wegen. Die sich seit der Entstehung der Erde ständig ändernden Klimate – von polar bis tropisch – können wir jedoch nicht steuern oder gar ändern. Ständiger Klimawandel ist Normalität, und konstante Klimate sind unmöglich, so etwas gab es noch nie in der Erdgeschichte. Es kam daher, wie es nach aller paläoklimatologischen Erfahrung kommen musste: die zugrunde gelegte globale Erwärmung blieb aus. An den vom sog. Weltklimarat (IPCC) trotzdem angeordneten Klimawandel wurde mit Hilfe der Medien und der Politik jedoch zunehmend geglaubt, und inzwischen hat dieser Glaube quasi-religiöse Formen angenommen.

Am 28. September will die Bundesregierung ihr Energiekonzept verabschieden. Es basiert tatsächlich – und immer noch – auf der Annahme, dass es global wärmer wird und dass wir Menschen diese Erwärmung mit unseren CO2-Emissionen verursachen.

Inzwischen ist lange klar, dass die Fakten den Glauben widerlegen: Mit dem Ausklingen der Kleinen Eiszeit ab 1700 haben sich die Temperaturen global – von weiteren Abkühlungs- und Erwärmungsperioden unterbrochen – insgesamt wieder erholt. Sieht man sich Langzeit-Thermometerdaten verlässlicher Wetterstationen wie Hohenpeissenberg, Prag, Wien, München und Paris an, dann sieht man einen Temperaturabfall im 19. Jahrhundert, der von einem etwa gleichgroßen Anstieg im 20. Jahrhundert abgelöst wurde, alles absolut gewöhnliche und natur-normale 100-Jahres-Ereignisse. Da es im 20. Jahrhundert weltweit inzwischen ausreichend viele Messstationen gab, wurde deutlich, dass der Anstieg in diesem Jahrhundert nur für die Nordhemisphäre, nicht aber für den Süden der Erde zutraf, der sich in großen Teilen sogar abgekühlt hat. Letzteres wäre im Falle einer CO2-induzierten globalen Erwärmung nicht möglich gewesen. Globalweit ist im 20. Jahrhundert im Gegensatz zur ,konventionellen Weisheit’ keine Erwärmung nachweisbar, wie es sogar der medienbekannte Klimaforscher Prof. Schellnhuber vom Potsdamer Institut für Klimafolgenforschung (PIK) fachlich unmissverständlich, aber in bemerkenswertem Gegensatz zu seinen medialen Klimaktastrophen-Verlautbarungen bestätigt [1].

Eine Rückerwärmung nach der Kleinen Eiszeit ist insgesamt alles, was vorgefallen ist. Darüber sollten wir uns freuen, denn die Lebensumstände waren bis ins 19. Jahrhundert hinein eher durch Hunger geprägt als durch Überfluss. Das alles beweisen die Fakten. Sie beweisen auch, dass CO2 die rezente Erwärmung nicht verursacht haben kann. Bis heute ist kein ,anthropogener Fußabdruck’ in Klimavorgängen auffindbar, weder in Extremwetterereignissen, wie Tornados, Starkniederschlägen, Dürren usw. noch in ungewöhnlichen Meeresspiegelanstiegen. Dies bestätigt nicht nur die gesamte meteorologische Fachliteratur sondern sogar das IPCC selber im umfangreichen Abschnitt 2.7 seines wissenschaftlichen Berichts von 2001, in dem  einer vermuteten Zunahme von Extremwetterereignissen nachgegangen wird.

Ein maßgebender Zusammenhang von zunehmenden anthropogenen CO2 und Globaltemperaturen sowie Auswirkungen auf Klimaparameter konnte bis heute auch physikalisch nicht nachgewiesen werden. CO2 ist nach dem Wasserdampf das zweitstärkste Treibhausgas, und nach heutigem Stand der Atmosphärenphysik erzeugt eine theoretische Verdoppelung der atmosphärischen CO2-Konzentration eine globale Temperaturzunahme von etwa 1 °C – man spricht von „Klimasensitivität des CO2. Dieser Wert ist unbedenklich, denn zur CO2-Verdoppelung müsste die Menschheit schon alle fossilen Brennstoffe verfeuern, deren sie habhaft werden kann, und davon ist nicht auszugehen. Die von ökoideologisch interessierten Kreisen kolportierten 2 °C (oder sogar noch mehr) sind dagegen Fiktion, diesen Wert gibt es in der Fachliteratur nicht. Im Gegenteil, selbst der vorgenannte Konsens von 1 °C ist ein noch zu hoher Wert, wie es die jüngeren Facharbeiten von international hoch-renommierten US-Klimaforschergruppen nachweisen [2], [3], [4]. Diese Facharbeiten sind bis heute unwiderlegt geblieben, was nicht verwundert, denn sie beruhen auf Messungen – im Gegensatz zu den Verlautbarungen der Klima-Warner, die sich nur auf fiktive Klima-Computer-Modelle berufen können.

In diesem Zusammenhang ist auf den deutlichen Unterschied zwischen den wissenschaftlichen Berichten des IPCC und seinen Berichten für Politiker zu erinnern. Die Inhalte der Berichte für Politiker werden zuvor mit den betroffenen Regierungen abgesprochen, so dass der Begriff ,seriös’ oder gar ,wissenschaftlich’ hier nicht am Platz ist.  Ferner sind zunehmende Manipulationen von Daten auch in dem wissenschaftlichen IPCC-Bericht vom Jahre 2007 zu nennen. Die politisch gezielten Prognosen des IPCC beruhen daher jetzt auf Daten, die zu einem erheblichen Teil manipuliert wurden. Wenige Wochen vor dem Klimagipfel in Kopenhagen wurde das bekannt. Die New York Times verlieh infolgedessen diesem Wissenschaftsskandal unverzüglich das Prädikat ,ClimateGate’.

In Deutschland wurde das 2 °C – Ziel von der Fachwelt als „unsinnig“ erklärt, u. a. von den Präsidenten des Geoforschungszentrums Potsdam, des Alfred-Wegener-Instituts in Bremerhaven und des  Senckenberg-Museums Frankfurt/Main als eines unserer größten und wichtigsten Naturkundemuseen. Trotz ClimateGate und trotz Unsinnigkeit ist das 2°C – Ziel unverändert die Grundlage des regierungsamtlichen Energiekonzeptes, das so beschlossen werden soll – mit unübersehbaren Kosten für die deutschen Verbraucher und die deutsche Wirtschaft.

Das Energiekonzept der Bundesregierung beruht daher auf Prognosen, für die es keine belastungsfähigen Beweise gibt und die man deshalb glauben muss. Die Prognosen haben sich schon jetzt weitgehend als falsch erwiesen, so dass ein solcher Glaube kein Vertrauen verdient. Dieser Zweifel wird durch die Erfahrung verstärkt, dass es immer schon Advokaten-Wissenschaftler gegeben hat, die ihrem Dienstherrn, seinem Projekt und dem eigenen Nutzen mehr gedient haben als der Wahrheit.

In diesem Zusammenhang muss schlussendlich nachdrücklich auf das von den Medien hartnäckig kolportierte Missverständnis aufmerksam gemacht werden, dass die politische IPCC-Meinung der mehrheitlichen Auffassung aller Klimaexperten weltweit entspräche. Das genaue Gegenteil ist der Fall! Unzählige Manifeste und Petitionen von Klimaforschern und fachnahen Naturwissenschaftlern (Heidelberg, Leipzig, Oregon (USA), Kanada, US-Senat usw.) sind zwar im Internet incl. den Namen der inzwischen zu Zehntausenden zählenden Unterzeichner (Fachwissenschaftler!) einsehbar, werden aber von Medien und Politik konsequent ausgeblendet. Meinungsmehrheit ist zwar niemals ein endgültiges Urteil über die Richtigkeit einer physikalischen Hypothese, aber die politischen Entscheidungsträger sollten zur Kenntnis nehmen, dass die am IPCC-Prozess beteiligten Wissenschaftler gegenüber ihren Fachkollegen als sog. ,Klimaskeptikern’ eine Minderheit darstellen, die nur mit UN- und medialer Unterstützung als angebliche Mehrheit ,verkauft’ werden kann. 

Wir haben den Artikel 17 des Deutschen Grundgesetzes (wer kennt ihn eigentlich?) ernst genommen und uns mit unseren Bedenken an die Regierenden gewandt. Die Fakten wurden dem Bundeskanzleramt und den relevanten Ministerien mehrfach mit der Bitte zugesandt, uns eine faire und objektive Diskussion mit den Befürwortern eines anthropogen Klimawandels zu ermöglichen, denn wann immer diese zusammen mit uns eingeladen wurden, haben sie eine Beteiligung vermieden. Weder das Bundeskanzleramt selbst noch die Ministerien haben die Möglichkeit zu einer Diskussion gegeben. Ein Offener Brief an die Bundeskanzlerin, in dem eine entsprechende Bitte vorgetragen wurde und den inzwischen über 400 qualifizierte Bürger unterschrieben haben, von denen 90 Personen mit relevanten  Berufen zum Wissenschaftsbereich gehören, wurde bis heute nicht beantwortet. Dafür können unzählige Menschen in mehreren Ländern den Brief in ihren Muttersprachen lesen. Die vom Bürger geforderte aktive Mitarbeit im Staat ist wohl doch nicht ernst gemeint, und über ein demokratisches und transparentes Regierungshandeln gibt es offensichtlich unterschiedliche Vorstellungen. Auf die Eingaben hin beschränkten sich die Antworten auf den stereotypen, lapidaren Hinweis, dass sich die amtliche Klimapolitik ausschließlich am 2 °C – Ziel orientiert. In den Veranstaltungen der Öffentlich-Rechtlichen Fernsehanstalten konnten die gegensätzlichen Ausfassungen ebenfalls nicht vorgebracht oder geklärt werden, denn von Beckmann über Illner bis Will wurden fast ausschließlich Befürworter der Hypothese von einer gefährlichen globalen Erwärmung eingeladen.

Wer Entscheidungen zu treffen hat, prüft Alternativen; schon bei kleinen Anschaffungen ist das üblich. Bei wesentlichen Entscheidungen über die zukünftige Klimapolitik und die Energieversorgung sollte es zwingend sein, die Grundlagen sorgfältig zu prüfen. Das ist nicht geschehen, sondern wurde von amtlicher Seite verweigert. Daher besteht nun die Gefahr, dass ein Energiekonzept verabschiedet wird, welches irrational auf Glauben basiert und jene Fakten unberücksichtigt lässt, die die Dogmen dieses Glaubens an einen vom Menschen verursachten Klimawandel widerlegen. Zu Beginn des 21. Jahrhunderts und mitten in einer von Wissenschaft und Technik geprägten realen Welt wird damit ein Regierungshandeln praktiziert, das methodisch noch dem Mittelalter angehört.

III Bedingungen der Stromgewinnung

Politiker von ‚Bündnis 90 Die Grünen’ haben schon das Goldene Zeitalter der unbegrenzten Energieversorgung vorausgesagt  (O-Ton Eveline Lemke, Landes­vorstandssprecherin der Grünen in Rheinland-Pfalz): „Mit den ‚Er­neuerbaren’ haben wir den Strom dann praktisch umsonst“.

Leider haben auch bei der Stromgewinnung die Götter vor den Erfolg den Schweiß gesetzt, und deshalb ist zunächst die Feststellung erforderlich, dass es nach dem Gesetz von der Erhaltung der Energie tatsächlich keine erneuerbare oder regenerative Energie gibt. Unser Hauptenergielieferant ist die Sonne, und wenn wir sie nutzen wollen, müssen wir ihre Energie umwandeln – egal, ob sie in der geologischen Vergangenheit auf der Erde als Gas, Öl oder Kohle gespeichert wurde, oder ob sie täglich frisch eintrifft. Die Umwandlung erfordert technische Prozesse, und dafür sind Installationen und folglich Investitionen erforderlich. Der Aufwand für die Installation je Kilowatt Leistung ist leider um ein Vielfaches größer, wenn ,frische’ Sonnenenergie (oder Windenergie) in Strom umgewandelt werden soll, als dies bei fossilen Energieträgern oder gar der Kernenergie der Fall ist. Bei der Erzeugung von elektrischem Strom als physikalisch-technischem Prozess gelten keine Glaubensinhalte sondern feststehende Bedingungen: Ergiebigkeit, Verfügbarkeit und Wirtschaftlichkeit. Wie man am günstigsten den Strom produziert, das Lebensblut der Wirtschaft und die Existenzbedingung für immer mehr Menschen, ist folglich keine Glaubenssache sondern eine technische Rechenaufgabe.

Die Ergiebigkeit der Erneuerbaren Energien wird durch deren Energiedichte bestimmt. Dies bedeutet für die Praxis, dass die – verglichen mit Gas, Kohle, Kernkraft – viel zu geringe Energiedichte von Wind und Sonneneinstrahlung den Aufwand  bei der Stromerzeugung mit Windrädern oder Photovoltaik wirtschaftlich unbrauchbar macht. So entspricht die Leistung eines Kernkraftwerks vielen 100 km Windrädern im deutschen Binnengebiet hintereinander. Aber selbst das gilt noch nicht einmal in Gänze, weil das Leistungsangebot von Windrädern unstetig  erfolgt und daher für den praktischen Bedarf von Industrie und Verbrauchern weitgehend wertlos ist. Die Verfügbarkeit der Erneuerbaren ist begrenzt: Wind oder Photovoltaik erzeugen bei Windstille und Dunkelheit keinen Strom, weshalb eine mindestens 100-fach größere Speicherkapazität benötigt wird als wir sie gegenwärtig für den Betrieb der konventionellen Kraftwerke brauchen und installiert haben.

Diese unabdingbaren Faktoren sind weltweit bestens bekannt, und deshalb plant und baut man – bzw. behält man – in den anderen Ländern Wasserkraft-, Kohle- und Kernkraftwerke. Die sehr viel teurere Stromerzeugung aus den Erneuerbaren Energien ist erst dann als weltweiter Standard denkbar, wenn alle fossilen Brennstoffe und Kernbrennstoffe verbraucht sein werden. Mit Uran- und Thorium-Vorräten für viele tausend Jahre ist davon allerdings nicht auszugehen, wobei hinzukommt, dass der Kernbrennstoff Uran sogar im Meerwasser enthalten ist und (z.Zt. noch mit etwa 5 – 10 fach höheren Kosten als aus Minen) herausfiltert werden kann.

IV Die Widersprüche des Energiekonzeptes

„Zuverlässig, wirtschaftlich und umweltverträglich“ soll die Energieversorgung sein. Dass sie physikalisch-technischen Bedingungen unterliegt, die die Stromgewinnung bestimmen, wird im Energiekonzept leider nicht erwähnt, ist aber der entscheidende Punkt.

Zuverlässigkeit

Die Zuverlässigkeit der Versorgung ist erheblich eingeschränkt, weil

  • Die durch den wachsenden Anteil an Wind- und Solarstrom benötigte Speicherkapazi­tät nicht vorhanden ist und (s. unter V) auch praktisch niemals verfügbar sein kann;

  • Der Bedarf von Importstrom völlig ungeklärt ist, denn es fehlt die Abstimmung

1)  mit den Herkunftsländern und

2)  mit anderen Ländern, die ebenfalls Strom importieren müssen;

  • Der Import von „nachhaltigen Bioenergieträgern“ (EK, S.11) ebenso ungeklärt ist, denn:

1)    es fehlt ebenfalls die Abstimmung mit den Herkunfts- und potentiellen Konkurrenz­ländern;

2)    es ist mindestens zweifelhaft, ob der transozeanische Transport von nachhaltigen Bio­energieträgern nicht mehr Energie erfordert als ihre Verstromung einbringt; schließlich und grundsätzlich sollte aber ….

3)    …. die Stromgewinnung aus nachhaltigen  Bioenergieträgern verboten werden, weil

a)  landwirtschaftliche Produkte und die dafür benötigten Ackerflächen für die Er­nährung der zunehmendem Weltbevölkerung dringend benötigt werden, und

b) forstwirtschaftliche Produkte in den Herkunftsländern die Waldrodung verstär­ken; bei der Formulierung des Energiekonzeptes wusste man offenbar nichts von Hungerrevolten beispielsweise in Chiapas/Mexiko, die Menschenmassen gegen die Entscheidung US-amerikanischer Farmer demonstrieren ließ, ihren Mais nicht mehr ihnen für die Herstellung von Tortillas zu verkaufen, sondern wegen des größeren Gewinns daraus Biosprit herstellen zu lassen.

Wirtschaftlichkeit

Die Wirtschaftlichkeit der Erneuerbaren ist deutlich kleiner, denn wegen der geringeren Ergiebigkeit und der zeitlich begrenzten Verfügbarkeit ist die Stromerzeugung aus Wind oder Photovoltaik unabänderlich teurer. Das ist bekannt, denn nach dem EEG werden diese Gewinnungsarten mit sehr vielen Milliarden von den Verbrauchern zwangsweise subventioniert. Die bisher noch ungelöste Problematik der Stromspeicherung wird den Strom aus erneuerbaren Energien zusätzlich mit sehr großen Kosten belasten – vorausgesetzt, es ließe sich überhaupt eine technische Lösung erdenken und in die Praxis umsetzen.  

Wir leben vom Verkauf unserer Produkte auf dem Weltmarkt, und das gelingt nur, solange sie nicht wesentlich teurer sind als die unserer Konkurrenten. Wenn der Strom bis 2050 bei uns tatsächlich nur noch aus den Erneuerbaren Energien produziert werden soll, werden wir für den Weltmarkt bedeutungslos. Was das für unsere Arbeitsplätze und für unseren Lebensstandard bedeutet, sollte jedem Entscheidungsträger klar sein. 

Umweltverträglichkeit

Das Landschaftsbild Deutschlands hat sich in den letzten Jahrzehnten durch die Einrichtung der Windparks drastisch verändert, der dadurch benötige Landschaftsverbrauch und die Landschaftsschädigungen waren enorm, und sie werden weiter steigen. Die zusätzlich erforderlichen elektrischen Leitungsnetze, die für die Nutzung der Erneuerbaren Energien erforderlich sind, werden das Landschaftsbild weiter beeinträchtigen und den Landschaftsverbrauch vergrößern.

Die Wahrscheinlichkeit von Tankerhavarien mit unabsehbaren ökologischen Schäden in der dichtbefahrenen Nord- und Ostsee nimmt durch den geplanten massenhaften Bau von Offshore-Windenergieanlagen zu. Die vermutlich sehr schädlichen Auswirkungen von Offshore-Windparks auf die Vogelwelt und auf Meerestiere, z. B. Schweinswale, sind noch völlig unbekannt.

Das Energiekonzept sieht vor, die Stromgewinnung aus Biomasse erheblich zu verstärken. Das impliziert noch größere Monokulturen bei uns, Importe von Biomasse aus Übersee mit der Folge von weiteren Waldrodungen. Weder bei uns noch in den Exportländern dürfte sich das als umweltverträglich herausstellen. Außerdem muss man fragen, in welchem Umfang es bei weiterem Bevölkerungswachstum und dementsprechenden Mehrbedarf an Nahrungsmittel vertretbar ist, Agrarflächen für die Herstellung von Energierohstoffen zu benutzen. Im Sinne eines angeblich ökologisch determinierten Energiekonzeptes kann es dies nicht sein.

Stromspeicherung – ein ungelöstes Problem

Das schon angedeutete, aber im Detail noch zu erläuternde Problem ist die zwingend erforderliche, aber großtechnisch noch völlig ungelöste Speicherfrage von elektrischer Energie. Dieses Problem entsteht unvermeidbar, weil auch bei Ausfall der Erneuerbaren infolge von Windflaute bzw. Bewölkung dennoch die Stromversorgung unseres Landes aufrechterhalten bleiben muss. Die Speicherfrage ist weder in Deutschland noch irgendwo in Europa gelöst. In Anbetracht der Dimension des Problems muss sie sogar als unlösbar bewertet werden.

Pumpspeicherwerke (PSW) sind die einzig bekannte Einrichtung, um die zwingend erforderliche Frequenz- und Spannungskonstanz zu gewährleisten. Pumpspeicherkraftwerke sind technisch sehr aufwendig, ihr Bau erfordert bestimmte topographischen Gegebenheiten, nämlich Gebirge, die einerseits viele hundert Meter tiefe Täler, andererseits aber auch ausgedehnte Hochflächen zum Bau der Oberbecken aufweisen müssen. Das größte deutsche Pumpspeicherwerk ist Goldisthal in Thüringen. Mit einem anfangs gefüllten Oberbecken kann es 8 Stunden lang 1000 Megawatt liefern, dann ist es leer. Seine Planungs- und Bauzeit betrug 30 Jahre, die reine Bauzeit 11 Jahre; die Kosten beliefen sich auf 0,6 Milliarden €.

Gegenwärtig verfügt Deutschland in allen seinen PSW über eine installierte Leistung von ca. 6400 Megawatt (MW). Große PSW haben eine installierte Leistung von ca. 1000 MW. Keiner kann heute genau sagen, welche Leistung zusätzlich installiert werden muss, um den Bedarf zu decken, wenn der Strom vollständig aus Erneuerbaren Energien kommt, denn das hängt davon ab, wieviel Tage Windflaute und Sonnenbedeckung man riskieren will, ohne dass die deutsche Stromversorgung kollabiert. Nimmt man vernünftigerweise 20 Tage an, werden 140 mal mehr Leistung an PSW erforderlich als heute vorhanden sind. In Konsequenz des Energiekonzepts der Bundesregierung sind daher rund 700 neue PSW der Größe von Goldisthal in Thüringen zu bauen, was dem Begriff des Wahnsinns gleichgesetzt werden kann. Der Bau neuer Speicherbecken ist in Deutschland gar nicht möglich, weil schon die topographischen Voraussetzungen dazu fehlen. Von den astronomisch hohen Kosten braucht man dann nicht zu sprechen. Es ist nicht zu erwarten, dass Österreich, die Schweiz oder Norwegen bereit sind, für deutsche Windenergieanlagen ihre Hochgebirgstäler als Pumpspeicher-Becken zur Verfügung zu stellen. Andere Möglichkeiten der Stromspeicherung im erforderlichen Maßstab gibt es nicht.

VI Kosten 

Alle für die künftige Energieversorgung vorgeschlagenen Technologien – erneuerbare Energien, CCS, Energiespeicher, Fernleitungen – erfordern ernorme Investitionen, die nur aufgebracht werden können, wenn entweder Neuverschuldungen des Staates für Fördermaßnahmen vorgenommen werden oder Abstriche bei sonstigen Ausgaben (Infrastruktur, Bildung, Wissenschaft, Kultur, Entwicklungshilfe etc.) gemacht werden. Zu starken Kostenerhöhungen wird auch die weitere Ausdehnung des Handels mit Kohlendioxid-Emissionsrechten führen, ohne dass dadurch weltweit die Summe der CO2-Emissionen verringert wird. 

Investitionskosten für Wind- und Solarenergie-Anlagen sind pro elektrische Leistungseinheit deutlich höher als für konventionelle Kraftwerke. Hinzu kommt die naturbedingt geringere Ausnutzung der installierten Leistungen, was insgesamt zu weiter ansteigenden  Erzeugungskosten gegenüber konventionellen und nuklearen Kraftwerken führt. Die folgenden Zahlen belegen es: moderne Braunkohlenkraftwerke oder Kernkraftwerke liefern Strom für ca. 3 Ct/kWh, Wind für ca. 8 – 15 Ct/kWh und Photovoltaik für ca. 40 Ct/kWh. Es ist unverständlich, dass die einzige unsubventioniert nutzbare Primärenergiequelle Deutschlands, die Braunkohle, im Energiekonzept der Bundesrepublik nicht erwähnt wird.

Die vorgeschlagene Abtrennung und anschließende unterirdische Deponierung von CO2 bewirkt infolge der dadurch bedingten massiven Reduzierung im Wirkungsgrad der Kraftwerke einen entsprechenden Mehrverbrauch an Kohle. Nach Angaben der Deutschen Physikalischen Gesellschaft ist mit um 50 bis 130 Prozent erhöhten Anlagekosten gegenüber herkömmlichen Kraftwerken zu rechnen [5]. Hinzu kommen bei der CCS-Technik die potentiellen Gefahren aus den CO2-Einlagerungen. Es ist hochriskant, in unseren dichtbesiedelten Gegenden unterirdische CO2-Speicher anzulegen, die für immer dicht bleiben müssen: anders als bei radioaktiven Stoffen nehmen die vom eingepressten CO2 ausgehenden Gefahren nicht mit der Zeit ab.

Das von den Verfechtern der Erneuerbaren immer wieder ins Feld geführte Argument von neuen Arbeitsplätzen in den einschlägigen Industrien von Windrädern und Photozellen geht fehl. Diese Arbeitsplätze gehen auf der anderen Seite vermehrt durch Kaufkraftverlust infolge immer weiter steigender Strompreise verloren. Die im Energiekonzept für erforderlich gehaltene Erhöhung der Energiepreise führt daher insgesamt zum Verlust von Arbeitsplätzen.   

VII Anteil Deutschlands

Die im Energiekonzept beabsichtigten Maßnahmen sind größtenteils nicht erforderlich, wenn man auf der Grundlage gesicherter Fakten entscheidet. Wenn man jedoch bei der gegenwärtigen Entscheidungsgrundlage bleibt, und Maßnahmen durchführen will, weil man an unsere Urheberschaft einer gefährlichen globalweiten Erwärmung glaubt, sollte man sich vorher darüber im klaren sein, wie groß die Wirkung unseres Anteiles überhaupt sein kann, den wir mit unseren Maßnahmen erreichen können – und die unvorstellbar große Kosten erfordern. Es wurde bereits vielfach nachgewiesen, dass er praktisch bedeutungslos ist. Wenn Deutschland seinen Verpflichtungen gemäß EU-Beschluss zur Verringerung von CO2-Emissionen nachkommt, wird sich dies gemäß einer noch nicht einmal in der unterstellten Höhe nachgewiesenen Wirkung des CO2 um 0,0007 °C auf die Globaltemperatur bis zum Jahre 2020 auswirken. Das von den meisten Ländern der Erde in sachgemäßer Beurteilung der Fakten nicht ernst genommene Kyoto-Protokoll würde – ebenfalls die vermutlich viel zu hohe Einschätzungen des IPCC vorausgesetzt  – der Welt bis zum Jahre 2100 etwa 0,1 °C globaler Erwärmung ersparen.

Dieser Zusammenhang ist so gut wie allen Fachleuten bekannt, die die Regierungen dieser Welt beraten, weshalb weiterhin Kohle- und Kernkraftwerke gebaut werden. Dagegen beschreitet Deutschland, wie schon mehrfach in seiner Geschichte, einen verhängnisvollen Sonderweg, den kein anderes Volk in dieser Konsequenz mitgehen will – und wird. In Erinnerung an die Folgen unserer Sonderwege und in Anbetracht der wirtschaftlichen Folgen dieses Konzeptes muss man fragen: Darf man dem deutschen Volk derartige Lasten aufbürden, die nur auf ideologischen Dogmen beruhen? Und wie verträgt sich ein solches Regierungshandeln mit dem vor dem Bundestag per Eid geleisteten Gelöbnis, dem Wohl des Deutschen Volkes zu dienen, seinen Nutzen zu mehren und Schaden abzuwenden?

Prof. Dr. Friedrich-Karl Ewert, Dipl.-Geologe, EIKE

Prof. Dr. Horst-Joachim Lüdecke, Dipl.-Physiker, EIKE (Pressesprecher)

Dr.rer.oec, Ing. Dietmar Ufer, EIKE

Quellennachweise

[1] J.F. Eichner, E. Koscielny-Bunde, A. Bunde, and H.-J. Schellnhuber, Power-law persistence and trends in the atmosphere: A detailed study of long temperature records, Phys. Rev. E 68, 046133 (2003)

[2]  Lindzen, R., Y.-S. Choi, On the determination of climate feedbacks from ERBE data, Geophys. Res. Lett., 36, L16705, doi: 10.1029GL039628 (200), s. s Lindzen_1.pdf

[3]  Lindzen, R., Y.-S. Choi, On the observational determination of climate sensitivity and its implications, submitted to Journ. of Geophys. Research, Feb. 12 (2010), s. Lindzen_2.pdf

[4]  Paltridge, G., Arking, A., and Pook, M., Trends in middle- and upper-level tropospheric humidity from NCEP reanalysis data, Theor. Appl. Climatol., 98:351-359, DOI 10.1007/s00704-009-0117 (2009), s. Platridge.pdf

[5] Deutsche Physikalische Gesellschaft: „Elektrizität: Schlüssel zu einem nachhaltigen und klimaverträglichen Energiesystem“ Juni 2010

 Weiterführende Links:

Falsche Prioritäten: Das Energiekonzept der Bundesregierung!

Das schwarz-gelbe Energiekonzept: Kernenergie als Brücke ins Nichts!

Nachtrag: Am Wochenende hat der BDEW eine neue Plattform freigeschaltet (Motto "Energie ist nicht schwarz-weiß"), auf der das Thema breit diskutiert werden soll. 

Bitte diskutieren Sie auch dort mit: www.energiedebatte.com  

 

Related Files




Die Lebensqualität der Ärmsten der Welt kann stärker, schneller, billiger und sicherer durch Anpassung voran getrieben werden als durch Technologien, die zu einem Null-CO2-Ausstoß führen.

Vor ein paar Tagen erschien bei Tom Nelson ein Link zu einem Blog mit einem Beitrag von Mr. Bill Gates mit dem Titel: „Leseempfehlung zum Klimawandel“ [Recommended Reading on Climate Change], in dem er behauptet, dass das Risiko einer „ernsten Erwärmung“ durch den anthropogen verursachten Klimawandel groß genug ist, um Aktionen [dagegen] zu rechtfertigen. Mr. Gates fügt hinzu:

„Ich stimme dem zu, besonders weil eine sogar nur moderate Erwärmung schon zu massiven Hungersnöten und anderen sehr negativen Effekten unter den ärmsten 2 Milliarden Menschen auf der Welt führen könnte. Dies ist einer der Gründe, warum ich ein immer größeres Interesse an neuen Energietechnologien habe, die uns zu einer Null–Emission von Kohlendioxid führen könnten. Wie ich schon bei TED [?] sagte, ist es mein Traum, derartige Technologien zu entwickeln, die billiger sind als Kohle oder Öl. Dann würden selbst Klimaskeptiker diese übernehmen, und viel mehr der ärmsten Menschen der Welt würden davon profitieren und zu einer besseren Lebensqualität finden, was nur durch eine sichere Energieversorgung möglich ist.“

Seit vielen Jahren war ich sehr beeindruckt von Mr. Gates’ Wunsch und seinen Bemühungen, die Lebensqualität der ärmsten Menschen der Welt zu verbessern,  und dass er buchstäblich sein Geld dorthin steckt, wo es gebraucht wird, aber seine Feststellung, dass „selbst eine moderate Erwärmung zu massiven Hungersnöten und anderen sehr negativen Effekten unter den ärmsten 2 Milliarden Menschen auf der Welt führen könnte“, ist fundamental falsch. Und es gibt viel bessere und effektivere Methoden, ihre Lebensqualität zu verbessern als Geld für die Entwicklung von Null–Emissionen von Kohlendioxid zu verschwenden.

Um diese Ansichten klar zu machen, wollte ich eine Antwort auf Mr. Gates’ Beitrag posten, was mir aber nicht gelang; weder auf direktem Weg noch durch das allgemeine Eingabeformular auf seiner Website. Also habe ich beschlossen, Mr. Gates einen offenen Brief zu schreiben, um ihn von meinen Gedanken in Kenntnis zu setzen. Ich danke Mr. Watts, dass er diesen Brief in seinem unschätzbaren Blog veröffentlicht hat. Der Brief lautet wie folgt:

——————————–

Sehr geehrter Herr Gates,

schon lange habe ich Ihren Scharfsinn bewundert, mit dem Sie versuchen, einige der wirklich wichtigen Probleme der Welt anzugehen (wie z. B. Malaria und Hunger) als sich den jüngsten Modethemen zu widmen (wie z. B. der globalen Erwärmung). Aber nach der Lektüre Ihres Beitrags „Leseempfehlung zum Klimawandel“ auf der Site

http://www.thegatesnotes.com/Learning/article.aspx?ID=127,

auf den Mitteilungen von Gates, fürchte ich, dass meine Bewunderung voreilig gewesen sein könnte.

Zunächst einmal ist die analytische Basis für Ihre Bemerkung „selbst eine moderate Erwärmung könnte zu massiven Hungersnöten und anderen sehr negativen Effekten unter den ärmsten 2 Milliarden Menschen auf der Welt führen“ schwach, um es milde auszudrücken. Nahezu alle Analysen über künftige Auswirkungen der globalen Erwärmung pfropfen das hypothetische Klima von morgen (oftmals für die Jahre 2100 und 2200) auf die Welt von gestern auf (am häufigsten mit der Basis im Jahre 1990). Das heißt, sie nehmen an, dass die Fähigkeit zukünftiger Generationen, mit der Klimaänderung zu leben oder sich daran anzupassen (auch bekannt als „Anpassungsfähigkeit“), sich von den Umständen in 1990 kaum verändern dürfte!

Im Besonderen versagen sie dabei, in Erwägung zu ziehen, dass zukünftige Generationen, besonders in den heutigen Entwicklungsländern, viel wohlhabender sein dürften als im Basisjahr 1990, das den Szenarien des IPCC zugrunde liegt. Tatsache ist, wie man in Abbildung 1 erkennt, dass selbst unter dem wärmsten Szenario des IPCC ein normaler Bewohner eines Entwicklungslandes im Jahre 2100 mehr als doppelt so wohlhabend sein wird wie ein durchschnittlicher Bewohner der USA im Jahre 2006, selbst wenn man die Reduzierung des GDP [Bruttoinlandsprodukt] pro Kopf vollständig für den Verlust von GDP durch die globale Erwärmung verantwortlich macht. Daher dürfte die Anpassungsfähigkeit der Entwicklungsländer im Jahre 2100 die heutige Anpassungsfähigkeit der USA weit übertreffen.

 

Abbildung 1: Gesamtes GDP pro Kopf 1990 bis 2200 unter Berücksichtigung der Verluste infolge der globalen Erwärmung für vier wesentliche Emissions- und Klimaszenarien des IPCC. Für die Jahre 2100 und 2200 wurden die Szenarien vom wärmsten (A1FI) links bis zum kühlsten (B1) rechts sortiert. Die mittlere globale Temperaturzunahme für die einzelnen Szenarien wird wie folgt angegeben: 4°C für A1FI, 3,3°C für A2, 2,4°C für B2 und 2,1°C für B1. Der Vollständigkeit halber: im Jahre 2006 betrug das GDP pro Kopf $19 300 in industrialisierten Staaten; $30 000 in den USA und $1 500 in Entwicklungsländern.

Quelle:  Goklany, Discounting the Future, Regulation 32: 36-40 (Spring 2009).

Und die Abbildung 1 berücksichtigt nicht einmal profane Weiterentwicklungen von Technologien, die während der nächsten 100 Jahre die Anpassungsfähigkeit weiter erhöhen dürften. (Man sollte keinerlei Vertrauen in Analysen haben, die nur von einem geringen oder gar keinem technologischen Fortschritt ausgehen). Zum Beispiel die Analysen der Erzeugung von Nahrungsmitteln und des Hungers ignorieren das Zukunftspotential von genetisch veränderten Anpflanzungen und Fortschritten in der Agrokultur (the analyses of food production and hunger ignore the future potential of genetically-modified crops and precision agriculture) um den Hunger zu reduzieren, egal wie. Diese Technologien sollten im Jahre 2100 (oder 2200) nicht nur wesentlich fortschrittlicher sein als heute, sondern auch viel erschwinglicher, selbst für Entwicklungsländer, weil sie dann wohlhabender und die Technologien viel kosteneffektiver sein werden.

Weil zukünftige Fortschritte der Anpassungsfähigkeit weitgehend ignoriert werden, sind die Auswirkungen in der Zukunft in jedem Falle grob übertrieben, einschließlich aller Ergebnisse, die behaupten, dass es zu einer “Massenhungersnot” selbst bei einer „moderaten Erwärmung“ kommen wird.

Zweitens, selbst wenn jemand diese mangelhaften Analysen heranzieht, die die globale Erwärmung erheblich übertreiben, findet man, dass der Beitrag der globalen Erwärmung zu grundlegenden Problemen wie eine Zunahme der Hungertoten, Malaria und Extremereignisse in absehbarer Zukunft relativ klein sind, jedenfalls im Vergleich zu den Beiträgen von Faktoren, die nichts mit dem Klimawandel zu tun haben. (Link: the contribution of global warming to major problems like cumulative mortality from hunger, malaria and extreme events should be relatively small through the foreseeable future)

 

Abbildung 2: Todesfälle im Jahre 2085 durch Hunger, Malaria und Extremereignisse mit und ohne globale Erwärmung (GW). Nur die höheren Schätzwerte der Todesrate infolge der globalen Erwärmung werden gezeigt. Die mittlere globale Temperaturzunahme von 1990 bis 2085 für jedes Szebario ist unter dem jeweiligen Balken vermerkt.

Quelle: Goklany, Global public health: Global warming in perspective, Journal of American Physicians and Surgeons 14 (3): 69-75 (2009).

Abbildung 2 zeigt auch, dass selbst bei einer hypothetischen Eliminierung der globalen Erwärmung die Todesrate im Jahre 2085 um höchstens 13% sinken würde (unter dem wärmsten A1FI–Szenario). Andererseits gibt es anwendbare Annäherungen [original: adaptive approaches], die zu 100% die Todesrate betreffen (einschließlich des Beitrages der globalen Erwärmung zu diesem Problem).

Die erste solche Annäherung ist die Brennpunktanpassung (focused adaptation), das heißt, die angewendeten Maßnahmen konzentrieren sich darauf, die Anfälligkeit für klimasensitive Bedrohungen zu reduzieren. Der Hintergedanke dieser Brennpunktanpassung ist, dass die Technologien, Praktiken und Systeme, die die Probleme durch, sagen wir, Malaria oder Hunger durch nicht mit der globalen Erwärmung verknüpfte Gründe reduzieren, auch helfen würden, die Probleme durch Hunger und Malaria infolge der globalen Erwärmung zu reduzieren. Sie auch “Climate Change and Malaria”.

Die zweite anwendbare Annäherung besteht darin, Barrieren aus dem Weg zu räumen und eine umfassende wirtschaftliche Entwicklung (broad economic development) zu fördern. Dies würde die Verwundbarkeit durch fast alle Probleme reduzieren, ob sie nun mit dem Klima zusammenhängen oder nicht. Dass diese Annäherung funktioniert, wird durch die Tatsache belegt, dass wohlhabendere Staaten eine niedrigere  Sterberate (im Verhältnis zum Alter) haben, unabhängig von den Gründen (und damit auch eine höhere Lebenserwartung).

Das grundsätzliche Prinzip hinter diesen anwendbaren Annäherungen liegt darin, dass die globale Erwärmung schon bestehende Probleme eher verschärft, als dass neue Probleme entstehen. Wenn wir die Anfälligkeit zum zugrunde liegenden Problem – man denke an Malaria, Hunger oder Extremereignisse – reduzieren oder lösen, würden wir auch die Verwundbarkeit durch den Beitrag der globalen Erwärmung zu diesem Problem reduzieren.

Wie Tabelle 1 zeigt, würde das menschliche Wohlbefinden durch diese beiden Annäherungen jeweils viel kosteneffektiver gesteigert werden können als durch eine Begrenzung der globalen Erwärmung (Link: human well-being would be advanced lot more cost-effectively through either of the two adaptive approaches)

Tabelle 1: Vergleich von Kosten und Nutzen der Verbesserung der menschlichen Gesundheit durch Reduzierung (Abschwächung) der Emissionen, Brennpunktanpassung und umfassende wirtschaftliche Entwicklung. MDG’s = Entwicklungsziele des Milleniums [Millenium Development Goals MDG]. Einträge in rot kennzeichnen eine Verschlechterung der menschlichen Gesundheit oder einer intakten Umwelt.

Quelle: Goklany, Is Climate Change the “Defining Challenge of Our Age”? Energy & Environment 20(3): 279-302 (2009).

Also, wenn Sie Fortschritte beim Wohlergehen der ärmsten Länder erzielen wollen, können sie das besser, sicherer und billiger durch angepasste Annäherungen erreichen als durch Technologien mit einem Null-CO2-Ausstoß. Solche Annäherungen werden das Wohlbefinden auch schneller steigern, da das [künstliche] Zügeln der Erwärmung unvermeidlich wegen der Trägheit des Klimasystems ein langsamer Prozess ist.

Ich entnehme Ihrem Blogbeitrag auch Ihre Zustimmung, dass die Lebensqualität von einer sicheren Energieversorgung abhängt. Wenn das so ist, würde ich dafür plädieren, dass der zunehmende Energieverbrauch eine viel höhere Priorität haben sollte als die Verfügbarkeit dieser Energie durch Technologien mit einem Null-CO2-Ausstoß zu entwickeln.

Zum Abschluss dieses Briefes habe ich eine Reihe von Artikeln zur Klimaänderung aufgelistet, die man auf jeden Fall lesen sollte, um die Punkte, die ich hier angesprochen habe, zu verstehen und die das Gesagte belegen.

Freundliche Grüße

Gastbeitrag von Dr. Indur Goklany auf Watts Up With That

Übersetzt von Chris Frey

Website: http://goklany.org; E-mail: igoklany@verizon.net

*Tom Nelson Link zu einem Blog mit einem Beitrag von Mr. Bill Gates mit dem Titel: „Leseempfehlung zum Klimawandel“ [Recommended Reading on Climate Change],

————————————————————

Literaturhinweise (in denen die in diesem Brief geäußerten Gedanken ausführlicher behandelt werden)

1. Deaths and Death Rates from Extreme Weather Events: 1900-2008. Journal of American Physicians and Surgeons 14 (4): 102-09 (2009).

2. Climate change is not the biggest health threat. Lancet 374: 973-75 (2009).
3. Global public health: Global warming in perspective. Journal of American Physicians and Surgeons 14 (3): 69-75 (2009).
4. Discounting the Future, Regulation 32: 36-40 (Spring 2009).
5. Is Climate Change the “Defining Challenge of Our Age”? Energy & Environment 20(3): 279-302 (2009).
6. What to Do about Global Warming, Policy Analysis, Number 609, Cato Institute, Washington, DC, 5 February 2008.




Die Studien und Berichte des IPCC haben nichts mit Klimaänderung zu tun

Hier sieht man, wie sie ihre Studie abgrenzen

.„Das United Nations Framework Convention on Climate Change (UNFCCC) definiert Klimaänderung in Artikel 1 als: ‘eine Änderung des Klimas, die direkt oder indirekt menschlichen Aktivitäten zugeordnet werden kann und die den Zustand der globalen Atmosphäre verändert, und zwar zusätzlich zur natürlichen Variabilität des Klimas, wie sie über geeignete Zeiträume beobachtet wird.‘ Das UNFCC macht also einen Unterschied zwischen der Klimaänderung aufgrund menschlicher Aktivitäten und der Variabilität durch natürliche Gründe.“

Das Problem dabei ist, dass sich nicht abschätzen last, wie groß der menschliche Anteil an der Klimaänderung wirklich ist, wenn man die Größenordnung der natürlich verursachten Änderungen nicht kennt – und die kennen wir nicht.

Alles, was sie getan haben, ist, dass sie ihre Berichte im Gegensatz zur üblichen wissenschaftlichen Praxis der Öffentlichkeit als solide Wissenschaft präsentiert haben. Das IPCC hat nichts getan, um Behauptungen entgegen zu treten, dass die Wissenschaft sich einig ist [is settled]. Die Wissenschaft ist sich nicht einig [is not settled], weil sie nie angefangen hat, oder, schlimmer noch, verzerrt wurde.

Die Wissensexplosion der letzten 200 Jahre zwang traditionelle Wissenschaftszweige, sich in immer kleinere Teilbereiche aufzuspalten. Die [wissenschaftlichen] Akademien lösten sich immer mehr von der realen Welt und verlagerten sich von breit angelegten Bereichen der Naturwissenschaft im 19. Jahrhundert durch das Hinzukommen von Geisteswissenschaften im frühen 20. Jahrhundert hin zu eng definierten Abteilungen. Innerhalb dieser speziellen Gebiete verengten sich die Brennpunkte sogar noch weiter, da die Informationsflut immer umfangreicher wurde, aber das Verstehen löste sich noch weiter von der Realität. Das Diktum in [wissenschaftlichen] Instituten und Vereinigungen war, dass Verallgemeinerungen ein Zeichen von Dummheit und Spezialisierungen ein Zeichen von Genialität seien.

Ab den siebziger Jahren tauchten Probleme auf, als diese Entwicklung immer weniger funktionierte – es passte nicht mehr zur Gesellschaft. Die Akademien reagierten darauf mit wachsenden interdisziplinären Abteilungen von allem und jedem, mit Studien von der Kindheitsentwicklung bis zu Umweltproblemen. Systemanalysen entwickelten sich, um dabei zu helfen, die verschiedenen komplexen Segmente zu verknüpfen.

Klimatologie ist eine universelle Disziplin in diesem Zeitalter der Spezialisierung.

Klimatologie ist eine universelle Disziplin in diesem Zeitalter der Spezialisierung. Das Klima ist ein mittlerer Zustand des Wetters in einer Region oder über bestimmte Zeiträume, und Wetter ist das Ergebnis einer Vielfalt von Faktoren und eines der am meisten komplexen Systeme in der Natur. Das Wetter, das Sie im Freien erleben, schließt alles ein, von der kosmischen Strahlung bis zur geothermischen Erwärmung der Ozeane und fast alles dazwischen. Abbildung 1 zeigt ein Systemdiagramm eines Bruchteils dieser Komplexität.


Abbildung 1: Systemdiagramm der Komplexität des Wetters.
Quelle: Nach Briggs, Smithson und Ball.

Das IPCC behauptet, dass das anthropogene CO2, das einen winzig kleinen Teil der “atmosphärischen Zusammenstellung [Atmospheric Composition] darstellt, zu 90 Prozent für alle Klimaänderungen seit 1950 verantwortlich ist.

Standard wissenschaftlicher Methoden ist es, auf Grund von Annahmen Hypothesen zu formulieren. Das IPCC stellte die These auf, dass anthropogen produziertes CO2 zu einer globalen Erwärmung führt, bekannt unter dem Begriff Anthropogenic Global Warming AGW. Zugrunde liegende Prämissen sind, dass CO2 ein Treibhaushttp://images.intellitxt.com/ast/adTypes/mag-glass_10x10.gifgas ist, dass die Abstrahlung von Wärme in den Weltraum behindert; dass eine Zunahme des CO2 eine Zunahme der Temperatur zur Folge hat; und dass das CO2 durch menschliche Aktivitäten zunimmt. Normalerweise agieren alle Wissenschaftler zunächst als Skeptiker, um die Hypothese zu überprüfen. In diesem Falle wurden sie jedoch rasch marginalisiert, und wie es Richard Lindzen formulierte, der Konsens wurde hergestellt, bevor die Forschung überhaupt begonnen hatte.

Außerdem fordert die wissenschaftliche Methodik darüber hinaus, zu versuchen nachzuweisen, dass die Theorie falsch ist. Karl Popper erklärt: „Man kann all das zusammenfassen, indem man sagt, dass der wissenschaftliche Status einer Theorie falsifizierbar, widerlegbar oder überprüfbar ist“. Das IPCC arbeitet verbissen daran, die Theorie zu beweisen, aber, wie Popper anmerkt, „es ist einfach, für nahezu jede Theorie Bestätigungen zu finden, wenn man nur danach sucht“. Das IPCC und die Unterstützer ihrer Scharade verbringen ihre Zeit damit, Bestätigungen zu finden. Sie fälschten sogar Beweise wie z. B. die Sache mit den schmelzenden Gletschern des Himalayas.

Jede Vorhersage oder Projektion, wie das IPCC diese ausweichend nennt, war falsch

Zu zwei wesentlichen Änderungen kam es seit 1988, als das IPCC ins Leben gerufen wurde. Erstens, ein paar, dann aber immer mehr Wissenschaftler haben ihre Rolle gespielt und die Hypothese mit beachtlichem Erfolg als falsch erkannt. Zweitens, die Arbeit des  IPCC versagte bei dem wirklichen Anliegen der Wissenschaft, nämlich der Fähigkeit zur Vorhersage. Jede Vorhersage oder Projektion, wie das IPCC diese ausweichend nennt, war falsch.

Das CO2 stellt jeden Beweis zur Verfügung, um zu zeigen, was an der Wissenschaft des IPCC nicht stimmt. Normale Wissenschaft stellt die Annahmen in Frage, aber das IPCC arbeitete daran, die Annahme zu beweisen, nämlich dass das CO2 zur globalen Erwärmung und letztlich zur Klimaänderung führt. CO2 wird als Treibhausgas angesehen, aber es macht nur 4 Prozent aller Treibhausgase aus, und der menschliche Anteil am CO“ ist nur ein Bruchteil. Eine bizarre Behauptung ist, dass die jährliche Zunahme des CO2 [ausschließlich] durch den Menschen verursacht wird. Dies legt fälschlich den Schluss nahe, dass die Menge der natürlichen Quellen konstant ist.

Diese Tabelle zeigt Abschätzungen der CO2-Emissionen und deren Aufnahme in der Atmosphäre. Man beachte die „Anthropogenen Emissionen“ von 9.5 Gigatonnen (Äqivalant)Kohlenstoff pro Jahr (GT C p.a.). Dies wird vom IPCC aus den Angaben der individuellen Nationen berechnet. Es sind fragwürdige Daten, weil es keine Möglichkeit gibt herauszufinden, wie viel Wald oder andere Treibstoffe verbrannt werden. Außerdem wird ein erklecklicher Anteil des menschlichen CO2 durch menschliche Anpflanzungen gar nicht erst freigesetzt. Wie auch immer, man beachte, dass die Menge geringer ist als die Fehlergrenze zweier natürlicher Emittenten, nämlich der “Ozeane” und des “Untergrundes” und dicht bei einem dritten liegt, „Menschen und Tiere“.

Der stärkste Beweis gegen das CO2 ist die Annahme, dass seine Zunahme davon in der Atmosphäre eine Zunahme der Temperatur zur Folge hat. Diese Annahme ist falsch. In jeder Aufzeichnung jedweder Zeitperioden in der Vergangenheit ging die Zunahme der Temperatur einer Zunahme des CO2 voraus.

Das Scheitern einer wesentlichen Annahme verlangt nach einer kompletten Überarbeitung der Hypothese. Die Computermodelle des IPCC nehmen nun aber immer noch an, dass die Zunahme des CO2 zur Temperaturzunahme führt. Daher ist es nicht überraschend, dass ihre Projektionen unrichtig sind. Sie verengen das Problem, indem sie viele wesentliche natürliche Ursachen für Wettererscheinungen sowie astronomische, solare und atmosphärische Veränderungen auslassen. Letzteres [es müsste aber eigentlich ‚Ersteres‘ heißen, oder? A. d. Übers.] schließt das Scheitern ein, mit allen Formen von Wasser und Wasserdampf in der Atmosphäre umzugehen, besonders mit Wolken.

Das Vorgehen des IPCC ist die Antithese der Wissenschaft. Sie haben einen Grund vorbestimmt und wollen es durch eine sehr enge Definition des Begriffes Klimaänderung beweisen, indem sie die Auswahl der Variablen begrenzen, Daten manipulieren und jede Bemühung, die Hypothese zu falsifizieren, ablehnen. Es handelt sich ohne jede Frage um den größten Betrug der Geschichte, weil all dies absichtlich geschieht.

von Prof. Dr. Tim Ball

Quelle: Canada Free Press

Übersetzt von Chris Frey für EIKE. Alle Einschübe in eckigen Klammern wie üblich vom Übersetzer. Alle anderen Hervorhebungen, auch Farbgebung in grün, im Original!

Timothy Francis Ball is a Canadian environmental consultant and former professor of geography at the University of Winnipeg, where he specialized in the relation of climate to human settlement.[1][2][3][4][5] Ball disputes that humans have a significant impact on climate change.[6] He heads the Natural Resources Stewardship Project and is on the Scientific Advisory Board of Friends of Science, organizations that reject the likelihood of human-caused global warming.[2]




Falsche Prioritäten: Das Energiekonzept der Bundesregierung!

Die ersten Eckpunkte zum neuen Energiekonzept der Bundesregierung liegen vor. Das Papier beschreibt die Zielstellung und deutet die auf dieser basierenden Maßnahmen an. In einer wenig aussagekräftigen Art und Weise, denn die ökonomischen und sozialen Folgen bleiben ausgeklammert. Das Eckpunkte-Papier ist kaum mehr als ein Marketing-Pamphlet. Man kann aus diesem Text lernen, wie die Bundesregierung plant, ihre Vorstellungen in der breiten Öffentlichkeit darzustellen, zu kommunizieren. Man kann etwas über die angedachten Sprachregelungen erfahren und wenig bis nichts über die Zukunft.Das Eckpunkte-Papier basiert auf einem Gutachten, in dem verschiedene Zielszenarien für die Zukunft unserer Energieversorgung durchgerechnet wurden. Dieses enthält also die eigentlich wichtigen Details. Den Gutachtern wurden dabei sehr enge Leitplanken von der Bundesregierung vorgegeben. Die geplante Reduzierung von Treibhausgasemissionen (-40% bis 2020, -85% bis 2050, jeweils gegenüber 1990) und der geplante Anteil der NIEs (1) am Primärenergieverbrauch von 50% in 2050 wurden festgeschrieben. Andere denkbare Zukünfte wurden nicht berechnet und berücksichtigt. Variiert wurde in den 5 betrachteten Szenarien lediglich die Laufzeitverlängerung von Kernkraftwerken (0 (keine Änderung am bestehenden Ausstiegsgesetz im Referenzszenario), 4, 12, 20 und 28 Jahre).

Was kann man aus dem Energiegutachten lernen?

Szenarien sind keine Prognosen. Es werden keine Zukunftsbilder erstellt, denen man eine gewisse Eintrittswahrscheinlichkeit zuordnen kann. Als sogenannte “Zielszenarien” dienen die Berechnungen allein der Charakterisierung einer Zukunft, in der die gesteckten Ziele sicher erreicht wurden. Man kann dem Gutachten daher entnehmen, wie Deutschland in 2050 aussehen wird

  • wenn die Emissionen entsprechend der Vorgaben gesenkt und
  • der Anteil der NIEs am Primärenergieverbrauch entsprechend gesteigert und
  • keine weiteren bahnbrechenden technischen Innovationen entwickelt werden (also die in 2050 verfügbaren Technologien zur Energieerzeugung und -umwandlung dieselben sind, wie heute).

Und das ist bei weitem ausreichend, um die Energiepolitik der Bundesregierung als geleitet von falschen Prioritäten zu entlarven.

Deutschland im Jahr 2050

Die allen kalkulierten Szenarien gemeinsamen Eckdaten sind die folgenden:

  • Um die Zielstellungen zu erreichen, muß der Primärenergieverbrauch gegenüber 1990 halbiert werden. Dies kann nur gelingen, wenn Maßnahmen ergriffen werden, die die Energieeffizienz um etwa 2,5% pro Jahr steigern. In den letzten 20 Jahren konnten etwa 1,9% pro Jahr realisiert werden. Dieser Wert wird auch im Referenzszenario ohne Laufzeitverlängerung angesetzt und führt zu einem Rückgang des Primärenergieverbrauches um etwa 34%. 
  • Um die Zielstellungen zu erreichen, muß der Bedarf an elektrischem Strom um etwa 30%  gegenüber 2008 sinken (von etwa 635 TWh auf etwa 450 TWh). Gleichzeitig wird Deutschland vom Stromexporteur zum Stromimporteur. Während 2008 noch der gesamte Bedarf im Inland produziert werden konnte (und zusätzlich etwa 20 TWh ins Ausland verkauft wurden), können im Jahr 2050 nur noch etwa 350 TWh bereitgestellt werden. Etwa 100 TWh sind zuzukaufen.

Die Zielstellung wird also einerseits mit der Verringerung der Abhängigkeit von Importen von Primärenergieträgern begründet, andererseits aber schafft sie eine Abhängigkeit von Stromimporten, die weiter nicht thematisiert wird.

Den Hauptanteil an der Senkung von Primärenergie- und Stromverbrauch haben in allen Szenarien die privaten Haushalte zu tragen. Hierzu werden Zwangsmaßnahmen erforderlich sein (Wärmedämmung, Änderung des Mobilitätsverhaltens), die erhebliche Kosten verursachen. Diese werden im Anhang des Gutachtens auch detailliert dargestellt. Die Mehrkosten pro Haushalt belaufen sich auf hohe dreistellige bis niedrige vierstellige Beträge pro Jahr, je nach Szenario und betrachteter Maßnahme (5 bis 10% Mehrkosten pro Jahr für Miete, 200 bis 400 Euro Mehrkosten pro Jahr für Mobilität).

Desweiteren: Zwar sinkt der Primärenergieverbrauch in Deutschland seit 1990, der Stromverbrauch aber steigt leicht an. Die Szenarien erfordern also insbesondere für letzteren eine radikale Trendumkehr.

Aber das ist noch nicht alles:

  • Die NIEs müssen im Jahr 2050 etwa 3.000 bis 3.500 PJ an Primärenergie liefern (gegenüber etwa 1.200 PJ im Jahr 2008). Ungefähr 60% dieser Menge entfallen auf die Nutzung von Biomasse, 20% auf die Nutzung von Windenergie (On- wie Offshore) und die restlichen 20% entfallen auf Solarthermie, Geothermie, Photovoltaik, Wasserkraft sowie Müllverbrennung und Deponiegase (in der Reihenfolge ihrer Bedeutung). Gegenüber 2008 müssen die Biomassekapazitäten also mehr als verdoppelt und die Windenergienutzung sogar mehr als verdreifacht werden. Den stärksten Ausbau erfährt die Geothermie (Faktor 130), aber auf niedrigem absoluten Niveau.
  • Neben dem endgültigen Ausstieg aus der Kernenergie nach Ablauf der Laufzeitverlängerung beschreiben die Szenarien – von vielen Kommentatoren unbemerkt – auch den Ausstieg aus der Verstromung von Braunkohle.
  • Hinsichtlich der sozioökonomischen Parameter gleichen sich alle Szenarien weitgehend. Das Bruttoinlandsprodukt steigt bis 2050 im Schnitt um real 0,8% pro Jahr, die realen (also inflationsbereinigten) Preise für Heizöl und Benzin steigen um 1 bis 1,5% pro Jahr, bei Gas sind es 0,7% und die Strompreise bleiben weitgehend unverändert. Auch hinsichtlich der Beschäftigungseffekte ähneln sich die Szenarien. Es ist aber zu konstatieren: Je länger die Kernkraftwerke laufen, desto günstiger werden die Szenarien in ihren sozioökonomischen Auswirkungen.

Bezüglich der Reduzierung von Treibhausgasemissionen zeigt sich ein klares Bild: Die Zielstellung von -85% bis 2050 kann nur erreicht werden, wenn die Laufzeiten um mindestens 4 Jahre verlängert werden. Das Referenzszenario ohne Laufzeitverlängerung erbringt nur eine Reduktion um etwa 30%.

Zeitgeistkonforme Beschränkung

Die Bundesregierung hat wesentliche Vorfestlegungen getroffen, sie beschränkt sich in ihrem Handeln auf die Leitplanken “Emissionsreduzierung”, “Ausbau der NIEs” und “Ausstieg aus der Kernenergie (und weitgehend auch der Braunkohle) bis spätestens 2050?. Zukünfte, in denen man auf einen weiteren subventionierten Ausbau der NIEs verzichtet, in denen möglicherweise sogar neue Kernkraftwerke der vierten Generation in Deutschland gebaut werden, in denen fossile Energieträger am Weltmarkt preiswert und in ausreichender Menge zur Verfügung stehen, in denen vielleicht neue Technologien ganz andere Verfahren der Energieumwandlung ermöglichen oder in denen ganz einfach nur der Strombedarf steigt, werden aus der Entscheidungsfindung ausgeklammert. Es ist also nicht möglich, die Szenarien und die aus ihnen abgeleiteten Maßnahmen wirklich einzuordnen und zu vergleichen.

Man darf daher weiterhin vermuten: Wir werden immer mehr Elektrizität benötigen und mit Kohle, Öl, Erdgas und Uran (resp. Thorium) könnten die Energiekosten (und die Belastungen für die privaten Haushalte) trotzdem deutlich sinken, das BIP stärker steigen, sich die Industrieproduktion und die Beschäftigung besser entwickeln. Und auch die Umwelt könnte profitieren, wenn sie nicht dem enormen Flächenverbrauch durch Windenergie und Biomasse ausgesetzt wird, den die Zukunftswelten der Bundesregierung erfordern.

Die Beschränkung auf die oben dargestellten Zukünfte ist vielleicht auch dem Druck der veröffentlichten Meinung geschuldet, die landauf landab die NIEs als die alleinseligmachende Zukunft und den mutmaßlich anthropogenen Klimawandel als die zentrale Herausforderung ansieht. Die Bundesregierung ist dadurch offenbar der Überzeugung, in ihrem Handlungsspielraum so weit eingeschränkt zu sein, daß Alternativen nicht einmal mehr bedacht werden dürfen. Denn schließlich ist das Mobilisierungspotential der politischen Gegner so gering wie möglich zu halten.

In Wahrheit arbeitet sie daher nicht an einem neuen Energiekonzept (denn dessen Eckpfeiler stehen schon lange fest), sondern nur an einer Kommunikationsstrategie. Das Ziel, Energiekosten zu senken, hat sie offensichtlich aufgegeben. Stattdessen spricht sie in ihren Eckpunkten nur mehr von “Wirtschaftlichkeit” im Sinne von “Bezahlbarkeit”. Und natürlich werden wir im reichen Deutschland auch gleichbleibende oder steigende Preise “bezahlen” können.

Eine Alternative für die Welt, Produkte und Konzepte für einen globalen Markt, erzeugen wir auf diese Weise aber genau nicht. Unser Wohlstand basiert wesentlich auf unserer Fähigkeit, Rohstoffe einzukaufen, diese zu nützlichen Produkten zu veredeln und letztere zu einem entsprechenden Preis wieder zu exportieren. Die Bundesregierung verzichtet nun nicht nur auf diese Möglichkeit im Falle der veredelten Energie “Elektrizität”, von der wir in Zukunft beachtliche Mengen im Ausland zukaufen müssen. Sie eliminiert auch unsere technische Kompetenz in den Feldern “Kernenergie” und “Braunkohleverstromung”. Märkte für Anwendungen, die bald nicht mehr von deutschen Herstellern mit deutschen Produkten bedient werden können.   

Der zweite entscheidende Punkt im neuen Energiekonzept ist die fundamentale Neudefinition des Begriffes “Verfügbarkeit”. Bislang ist insbesondere unsere Stromversorgung darauf ausgerichtet, das Angebot an die Nachfrage anzupassen. Man bekommt so viel Strom wie man braucht, wann immer man will. Das Energiekonzept der Bundesregierung allerdings erfordert eine Ausrichtung des Bedarfs am Angebot. Man hat sich als Verbraucher in Zukunft danach zu richten, wann denn der Energieversorger Strom im Angebot hat – und wann nicht. Ein System von sogenannten “intelligenten Zählern” mit Fernüberwachung und ferngesteuerten Haushaltsgeräten und ebenso ferngesteuerter Aufladung von Elektromobilen soll diese Verhaltensänderung erzwingen.

Das Energiekonzept der Bundesregierung kommt den Bürger also erstens teuer zu stehen (für Zwangsmaßnahmen der Wärmedämmung, für Subventionen und wohl auch für neue Energiesteuern). Und zweitens führt es zu Einschränkungen seiner Freiheit. Es ist geschehen, was man befürchten durfte: Freiheit und Wohlstand werden einmal mehr nur als nachgeordnete Ziele verfolgt, die sich dem Vorrang der Senkung von Treibhausgasemissionen zur nicht nachweisbaren Vermeidung vermuteter Klimarisiken unterzuordnen haben.

Dies kann man als verhängnisvoll bezeichnen. Bleiben wir höflich und sprechen bis auf weiteres zunächst nur von der Setzung falscher Prioritäten…    

(1) Gemäß einem Vorschlag von Heinz Horeis in der aktuellen Novo können die sogenannten “erneuerbaren Energieen” auch als “Neue Ineffiziente Energiequellen” oder kurz “NIEs” bezeichnet werden. Ich werde mich in Zukunft an diese Sprachregelung halten.

mit Dank an Peter Heller Science Sceptical 

* Wie die Welt heute berichtet soll es keinen Sanierungszwang geben. Wer die Mogelpackung zur Kürzung der Solarzwangsabgaben allerdigns kennt, wird auch dieser Versicherung einer auf "Klimaschutz" um jeden Preis fixierten Regierung wenig Glauben schenken.

Hier die Email-Adressen einiger der Hauptverantworlichen: norbert.roettgen@wk.bundestag.de; volker.kauder@bundestag. de; michael.fuchs@bundestag.de; thomas.bareiss@bundestag.de

Die Eckpunkte zum neuen Energiekonzept der Bundesregierung fINDEN Sie Hier. Das Papier

ÄHNLICHE BEITRÄGE (BETA):




Das Buch, aus dem das IPCC abgeschrieben hat!

Bei dem Mann, der diesen Prozess anführte, handelte es sich um einen Professor der Epidemiologie namens Anthony McMichael. Einer Biographie [bio] aus dem Jahre 2001 zufolge schlossen seine Forschungsinteressen geistige Gesundheit, berufsbezogene Krankheiten, ein Zusammenhang zwischen Diäten und Krebs sowie epidemische (Krankheiten) auf Grund von Umweltbedingungen ein. In den späten achtziger Jahren war er Mitautor [co-authored] eines „Bestseller-Leitfadens [bestselling guide] hin zu einem gesünderen Lebensstil“, in dem es um Ernährung und physikalische Fitness ging. Hier das Original (. 29-page PDF of the chapter)

Der Biographie [bio] zufolge hat McMichael erst „in den neunziger Jahren“ ein „starkes Interesse“ an den Risiken in Verbindung mit globalen Umweltveränderungen gefunden. Warum aber hat das IPCC in den frühen neunziger Jahren aus allen Experten der ganzen Welt, die sich mit dem Thema Klimaänderung und menschliche Gesundheit befasst hatten, ausgerechnet McMichael als Referenz ausgesucht?

 

Den Weg freischaufeln

Ich denke, dass es zum größten Teil mit einem anderen Buch von McMichael zusammenhängt – das im Jahre 1993 mit dem Titel „Planetary Overload: Global Environmental Change and the Health of the Human Species erschien [etwa: Der überfrachtete Planet: Globale Umweltveränderungen und die Gesundheit der Spezies Mensch]. Die zentrale These dieses Buches lautet, dass menschliche Aktivitäten das Ökosystem des Planeten unterminieren. Ton, Sprache und Analysen gleichen Hunderten anderer Umwelttraktate, die während der letzten Dekaden veröffentlicht wurden.

McMichael erklärt [declares], dass „die Menschen nicht unabhängig von der Natur leben oder sich von dem großen Netz des Lebens entfernen können“. Er sorgt sich [frets], dass wir zu weit entfernt sind „vom Rhythmus natürlicher Systeme“. Er nennt [speaks] die Degradierung der Umwelt ein „bisher nicht da gewesenes moralisches Problem“ und sagt [says], dass die Menschen in reichen Ländern einem verschwenderischen, „ökologisch verdrehten Lebensstil“ folgen.

Seine Sprache ist nicht die vorsichtige Ausdrucksweise leidenschaftsloser Wissenschaftler. Schon 1993 sagte [say] er nicht, dass es Sorgen gäbe, dass Kohlendioxid „verschiedene natürliche Kreisläufe der Biosphäre unterbrechen könnte“, sondern er verkündete vertrauensselig, dass es so sein würde. Wie eine lange Reihe anderer Denker der Ökonomie [original: eco thinkers] glaubt auch er [believes], dass die Herausforderungen der Umwelt „eine Neubewertung sozialer Grundwerte en gros“ erforderten.

McMichaels Argumente in seinem Buch Planetary Overload basieren auf einem Greenpeace Bericht über globale Erwärmung. In seinem Buch zitiert er häufig und immer wieder Artikel aus Publikationen, die nicht wissenschaftlich begutachtet worden waren, wie z. B. New Scientist und Scientific American. Mit anderen Worten, McMichaels ist ein Umweltschützer, dessen täglicher Job zufällig die Untersuchung der öffentlichen Gesundheit einschließt. Er hat für die meisten Themen, um die es in seinem Buch geht, keinerlei Expertenwissen.

Natürlich ist er von seinen persönlichen Meinungen überzeugt. Aber war er die beste Wahl, um führend an einem Kapitel des IPCC-Berichtes mitzuwirken? Oder anders gefragt: Falls jemand ganz bewusst und beflissentlich den Weg freimachen will, um sicherzustellen, dass eine bestimmte Perspektive das erste Kapitel über Gesundheit in der Klimabibel dominiert –  würde jemand, der ähnliche Ansichten vertritt wie McMichaels, nicht der perfekte Kandidat dafür sein?

Es gibt eine direkte Verbindung zwischen dem, was die UN 1995 in ihrer Klimabibel der Welt verkündeten und dem, was McMichaels schon 1993 in seinem Buch geschrieben hatte. Obwohl sein Buch Planetary Overload nicht in der Liste der 182 Literaturhinweise [182 references] am Ende des Gesundheitskapitels auftaucht, wurden ganze Absätze in der Klimabibel direkt daraus abgeschrieben. Folgende Beispiele belegen das:

1993 in McMichaels Buch, Seite 150:

Sandstürme in Kansas (USA) und dem Sudan wurden begleitet von zunehmenden und immer öfter auch tödlichen Fällen von Bronchitis und Asthma.

Bericht der Arbeitsgruppe 2 in der Klimabibel von 1995, Seite 578:

Sandstürme in Kansas (USA) und dem Sudan wurden begleitet von zunehmenden Fällen von Bronchitis und Asthma. 

1993 in McMichaels Buch, Seite 155:

Beispielsweise gibt es in Ägypten die Tendenz, dass Wasserschnecken ihre Infektionen durch Schistosomen [Pärchenegel, ein Parasit] in den Wintermonaten verlieren (Januar bis März). Steigt die Temperatur jedoch wieder, könnten diese Schnecken die Schistosomiasis das ganze Jahr über verbreiten, was die ohnehin schon weit verbreitete Plage durch Parasiten im ländlichen Ägypten weiter verstärken wird.

Bericht der Arbeitsgruppe 2 in der Klimabibel von 1995, Seite 578:
Beispielsweise gibt es in Ägypten die Tendenz, dass Wasserschnecken ihre Infektionen durch Schistosomen [Pärchenegel, ein Parasit] im Winter verlieren, aber wenn die Temperatur wieder steigt, könnten diese Schnecken die Schistosomiasis das ganze Jahr über verbreiten.

1993 in McMichaels Buch, Seite 155:

Arbovirale Infektionen [wie z. B. Tollwut] umfassen ein großes klinisches Spektrum und reichen von mild verlaufenden fiebrigen Erkrankungen oder subklinischen Infektionen bis hin zu solchen, die schwere, oft tödlich verlaufende Hirnhautentzündungen oder hämorrhagischem Fieber [eine Krankheit, die Blutungen fördert] verursachen. Unter geeigneten Umweltbedingungen kann eine arbovirale Krankheit von einem lokalen Herd epidemische Ausmaße annehmen – sehr ähnlich dem kürzlichen Ausbruch von Cholera…

Bericht der Arbeitsgruppe 2 in der Klimabibel von 1995, Seite 575:

Arbovirale Infektionen [wie z. B. Tollwut] umfassen ein großes  klinisches Spektrum und reichen von mild verlaufenden fiebrigen Erkrankungen oder subklinischen Infektionen bis hin zu solchen, die schwere, oft tödlich verlaufende Hirnhautentzündungen oder hämorrhagischem Fieber [eine Krankheit, die Blutungen fördert] verursachen. Unter geeigneten Umweltbedingungen kann eine arbovirale Krankheit von einem lokalen Herd oder durch einen Ausbruch in zuvor nicht betroffenen Gebieten epidemische Ausmaße annehmen.

1993 in McMichaels Buch, Seite 154:

In Ostafrika würde eine relative geringe Erwärmung im Winter zu einer Ausweitung der Malariagebiete ‚aufwärts‘ führen und die großen urbanen Ansiedlungen im Hochland einschließen, die im Moment wegen der zu niedrigen Temperatur noch nicht von den Malariamücken erreicht werden können – z. B. Nairobi (Kenia) und Harare (Zimbabwe). Tatsächlich würden solche dicht bewohnten Gebiete, die gegenwärtig noch gerade außerhalb der Reichweite der Malariamücke liegen, insgesamt einen frühen Beweis für eine Verbreitung dieser Krankheit aufgrund von Klimaänderungen liefern.

Bericht der Arbeitsgruppe 2 in der Klimabibel von 1995, Seite 574:

Daher liegt die Vorhersage nahe, dass eine relativ geringe Erwärmung im Winter in Ostafrika zu einer Ausbreitung der wärmeliebenden Malariamücken führen könnte mit der Folge, dass sich die Malaria über die bisherige Grenze von 2500 m ü. NN ausdehnen könnte und damit große urbane Ansiedlungen im Hochland erreichen würde, z. B. Nairobi in Kenia und Harare in Zimbabwe. Tatsächlich würden solche dicht bewohnten Gebiete, die gegenwärtig noch gerade außerhalb der Reichweite der Malariamücke liegen, insgesamt einen frühen Beweis für eine Verbreitung dieser Krankheit aufgrund von Klimaänderungen liefern. 

1993 in McMichaels Buch, Seite 165:

Schon jetzt gibt es in Afrika über 100 Millionen Menschen mit unsicherer Nahrungsgrundlage, viele davon in der ariden Sahelzone, die von etwa 35 Millionen Menschen bewohnt wird.

Bericht der Arbeitsgruppe 2 in der Klimabibel von 1995, Seite 577:

Schon jetzt gibt es in Afrika über 100 Millionen Menschen mit unsicherer Nahrungsgrundlage, viele davon in der ariden Sahelzone.


1993 in McMichaels Buch, Seite 166:

Ein Anstieg der Temperatur könnte auch signifikante Auswirkungen auf Wachstum und Gesundheit von Tieren auf Bauernhöfen haben. Junge Tiere halten große Temperaturänderungen nicht so gut aus wie erwachsene Tiere.

Bericht der Arbeitsgruppe 2 in der Klimabibel von 1995, Seite 577:

Ein Anstieg der Temperatur könnte auch signifikante Auswirkungen auf Wachstum und Gesundheit von Tieren auf Bauernhöfen haben; junge Tiere halten große Temperaturänderungen nicht so gut aus wie erwachsene Tiere.

1993 in McMichaels Buch, Seite 166:

Mit Rücksicht auf die Auswirkungen auf alle Lebensformen hat die Umweltschutz–Agentur in den USA [U.S. Environmental Protection Agency] viele Infektionskrankheiten identifiziert [es folgt eine Aufzählung diverser Tierkrankheiten] – die rapide zunehmen könnten infolge von Klimaänderungen.

Bericht der Arbeitsgruppe 2 in der Klimabibel von 1995, Seite 577:

Zum Beispiel hat die Umweltschutz–Agentur in den USA [U.S. Environmental Protection Agency] viele Infektionskrankheiten identifiziert [es folgt die gleiche (!) Aufzählung diverser Tierkrankheiten] – die übermäßig zunehmen könnten infolge von Klimaänderungen. 

1993 in McMichaels Buch, Seite 187:

Das UNEP sagt voraus, dass eine durchschnittliche Abnahme des Ozons um 10% (wie es sie in mittleren und hohen Breiten während der letzten Jahre gegeben hatte), falls sie global über drei oder vier Jahrzehnte auftritt, mindestens zu 300 000 zusätzlichen Fällen pro Jahr von schwarzem Hautkrebs sowie 4500 weitere Fälle bösartiger Melanome führten könnte – möglicherweise können sich diese Fälle auch verdoppeln.

Bericht der Arbeitsgruppe 2 in der Klimabibel von 1995, Seite 578:

Das UN – Umweltprogramm sagt voraus, dass eine durchschnittliche Abnahme des Ozons um 10% (wie es sie in mittleren und hohen Breiten während der letzten Jahre gegeben hatte), falls sie global über mehrere Jahrzehnte auftritt, zu etwa 250 000 zusätzlichen Fällen pro Jahr von schwarzem Hautkrebs führten könnte.

 

Soweit diese Beispiele. Es erscheint unwahrscheinlich, dass eine gutgläubige, vertrauensvolle Begutachtung der wissenschaftlichen Literatur vor dem Abfassen signifikanter Passagen des ersten Kapitels des IPCC bzgl. der Gesundheit stattgefunden hat. Vielmehr haben in die Klimabibel klammheimlich zahlreiche Meinungen Eingang gefunden, die ein paar Jahre früher von der gleichen Person geschrieben worden waren, die auch dieses Kapitel im IPCC–Bericht verfasst hat.

Dann haben die Medien der Welt verkündet [told the world], dass die Feststellungen des IPCC hinsichtlich des Zusammenhanges zwischen der globalen Erwärmung und Krankheiten wie Malaria die wohl überlegte, übereinstimmende Überzeugung Tausender Experten seien.

Link:  http://nofrakkingconsensus.wordpress.com/2010/09/03/the-book-the-ipcc-plagiarized/

Hervorhebung des letzten Absatzes (Fettdruck) durch den Übersetzer. Alle anderen Hervorhebungen weiter oben [mit Ausnahme der Einschübe in eckigen Klammern] im Original.

 

Kommentar des Übersetzers:

Die ausgewählten Beispiele des Autors dieser Zusammenstellung (dessen Name leider nicht genannt wird), hat hier sicher nur die eklatantesten Fälle herausgesucht, die aber mehr als hinreichend belegen, dass im entsprechenden Bericht des IPCC aus dem Jahre 1995 weite Passagen tatsächlich einfach abgeschrieben worden waren – und zwar durch McMichaels höchstselbst. Vielfach hat man sich nicht einmal die Mühe gemacht, auch nur so zu tun, als handelte es sich um einen völlig neuen Text, stimmen doch die abgeschriebenen Passagen vielfach bis zu den Satzzeichen und den genannten Zahlen überein. 

Die Palette  zur Erstellung der  IPCC-„Konsens“berichte erweitert sich also um eine weitere Facette – abschreiben! Wer kann eigentlich eine Organisation, die auf derartig betrügerische Weise agiert, noch ernst nehmen? Antwort: Alle, die sich nur an die Informationen der Mainstream–Medien halten…!

Man weiß nicht, wie viel Geld McMichaels für sein Buch bekommen hat, für das Abschreiben daraus für den IPCC aber sicher sehr viel.

Für EIKE übersetzt und kommentiert von Chris Frey




Ernst-Georg Beck ist tot!

Ernst Georg Becks wichtige Publikationen finden Sie hier

Einen guten, sein Werk würdigenden Beitrag von Edgar Gärtner finden Sie hier in eigentümlich frei 

Climategate: Ernst Georg Beck ist nicht mehr

 (bitte anklicken)

Der Beitrag von E. Gärtner wurde ins Englische übersetzt und von Benny Peiser auf dem Blog von Anthony Watts gestellt:

Hier!

Bewegend, die Kommentare vieler ernsthafter Wissenschaftler und an Wissenschaft Interessierter

Literatur

Ernst Georg Beck: 180 Years of Accurate CO2-Gas-Analysis of Air by Chemical Methods (Short Version), in: Energy & Environment Volume 18 No. 2/2007

Internet

Ernst Georg Beck: Klimaforschung – Anspruch und Wirklichkeit. Vortrag, Berlin 2007

www.biokurs.de

Klimaskeptiker bringt Forscher ins Schwitzen




FTD bläst zur Hexenjagd auf Parlamentarier und verunglimpft ehrliche Wissenschaftler! Eine andere Meinung zu haben reicht zum diffamieren!

An die Financial Times Deutschland

Herr Chefredakteur Steffen Theyssen; An das Büro Berlin Herrn Andreas Theyssen

Betrifft: Artikel über Klimarevisionisten;  Weiler; den 20.9.2010

Sehr geehrter Herr Theyssen,

Immer öfter frage ich mich, ob die einfachsten Regeln des Journalismus nicht mehr gelten, oder ob heutzutage jeder schreiben darf, der seine Überzeugungen loswerden will. Über 40 Jahre habe ich in diesem Beruf gearbeitet, ihn mit Leidenschaft ausgeübt, aber zunehmend schäme ich mich für viele, die ich eigentlich Kollegen nennen sollte.

Der Artikel, oder ist es ein Kommentar, ein Feature oder eine Satire von Timo Pache über die „Klimarevisionisten“ ist so ein übles Machwerk.

Der schmierigste Satz lautet: „Medien deckten vor Jahren auf, dass Singer einer Allianz von Wissenschaftlern und Beratern nahestand, die Klimakampagnen für die US-Ölindustrie entwarf. Laut Newsweek sollte die Gruppe Journalisten und Politiker beeinflussen. Was daraus wurde, ist unbekannt“. Offensichtlich reicht es bei der FTD aus, ein einmal in die Welt gesetztes diffamierendes Gerücht zu übernehmen, wenn es nur in die eigene Denkrichtung passt. Vor 4 Jahren habe ich ein Interview mit Prof. Singer für Report München gemacht. Danach waren in etlichen Zeitungen ähnliche Behauptungen zu lesen. Zusätzlich wird dann immer noch angeführt, er habe auch für die Tabakindustrie und gegen das Rauchverbot für entsprechende Zahlungen Gutachten gemacht. Die Quelle damals: Prof. Rahmstorf, der sich auf Berichte amerikanischer Wissenschaftler berief, die sich „concerned scientists“ nennen.

Angeregt vom Justitiar des BR habe ich dann versucht die Quellen dieser Informationen, ihre Namen und die dazu gehörenden Organisationen in den USA ausfindig zu machen. Aber da gab es immer nur anonyme Beschuldigungen. Prof. Singer darauf angesprochen, erklärte, dass er schon mehrfach gegen Wikipedia vorgegangen sei, um diese Behauptungen zu verbieten oder ihren Ursprung herauszufinden. Nach seinen Recherchen führte die über PR-Organisationen nach Kanada, wo sie sich verlief. Fest steht: Es gibt nicht einen einzigen Vorgang der beweist, dass Prof. Singer für die Tabakindustrie oder für die Ölindustrie- meistens wird sogar noch Exxon direkt genannt – gearbeitet oder ein Gutachten gemacht hat.

Timo Pache ihr Autor sollte sich, wenn er nur ein Funken Anstand hat, bei Prof. Singer entschuldigen. Schlimm genug, dass eine Zeitung, die einen gewissen journalistischen Anspruch erhebt, überhaupt solche Formulierungen übernimmt, wie „ ..Medien deckten auf… sollte beeinflussen… was daraus geworden ist, ist unbekannt“. Das sind Methoden mit denen Menschen in ein mieses Licht gerückt werden sollen, damit das, was sie zu sagen haben, nicht mehr ernst genommen werden kann.

Der Schreiber Timo Pache hat offensichtlich nichts verstanden, von dem was an diesem Abend gesagt wurde. Die Beiträge widersprachen so eindeutig dem Klima-Mainstream, dass es wohl seine Aufnahmefähigkeiten überfordert hat. Ganz sicher hat er sich aber mit dem Thema Klimawandel und seinen Ursachen bisher nicht oder nur sehr einseitig beschäftigt. Alles was an diesem besagten Abend nicht in sein feste Vorstellungswelt passte, hat er offensichtlich verdrängt. Sonst hätte er gehört, wie Prof. Christ, ehemaliger VDI-Präsident und ZF-Vorstand dass der VDI in seiner Zeitschrift einen Beitrag veröffentlichen sollte, der eine Plattform forderte, damit die IPCC-Vertreter mit den Wissenschaftlern die anderen Forschungsergebnisse veröffentlichen, diskutieren und ihre unterschiedlichen Daten überprüfen könnten. Erstaunlicherweise machte ein VDI-Sprecher eine solche Plattform davon abhängig, dass Prof. Schellnhuber vom PIK dem überhaupt zustimmt. Es kamen noch weitere Beispiele zur Sprache, die zeigten, dass die Anhänger der menschengemachten Erwärmung jede Debatte ablehnen und wissenschaftliche Arbeiten unterschlagen. Genau das ist ja auch der Vorwurf an das CRU (Climate Research Unit der Universität East Anglia) in Norwich, dem führenden IPCC Klimainstitut.

An dem Abend wurde auch darüber gesprochen, wie die Wirtschaft und die Bevölkerung durch die Energiepolitik in Deutschland belastet wird und ob dies noch in einer Relation zu anderen Nationen steht. Darüber hat der FTD-Kollege Matthias Ruch einen sehr guten Artikel in Ihrer Zeitung geschrieben. Nur gut, dass den Timo Pache nicht redigieren durfte.

Über die wirklich substantiellen Themen des Abends wurde also nicht geschrieben. Dafür wurde dieser Gedankenaustausch zu einem „merkwürdigen Abend“ stilisiert, die erzkonservative Tea-Party in den USA als Vergleich herangezogen und schließlich Frau Dött als Heuchlerin dargestellt. Ja, sie hat die Klimahysterie als Ersatzreligion bezeichnet. Damit ist sie sicher nicht alleine. In Großbritannien heißen sie schon lange die „believers“. Ich möchte hier die vielen Gründe nicht aufzählen, die es geraten lassen, die Klimawandeldebatte ohne Scheuklappen zu betrachten und einmal die journalistischen Maßstäbe anzuwenden, die da auch heißen: Wem schadet und wem nutzt die von Berlin eingeschlagene Klimapolitik? 

Diese Gelegenheit zu nutzen, Frau Dött politisch aufs Schaffott zu führen, zeigt nur, dass der Schreiber sich vielleicht auf dem Intrigenmarkt der Berliner Parlamentsmeile auskennt, von Sachfragen aber nur im Mainstream mitschwimmen kann. Aber davon existieren viele Leichtgewichte. Frau Dött hat zu keiner Zeit die Namen Röttgen oder Merkel genannt. Sie hat aber ausgedrückt, was sehr viele Parlamentarier nicht nur in der FDP, CDU und SPD denken und unter vier Augen auch sagen.  Nicht alle sind so unabhängig wie Helmut Schmidt, der keinen Hehl daraus macht, dass er diese Subventionsorgien für wirtschaftlichen Unfug hält. So nebenbei- können Sie sich überhaupt vorstellen, dass Frau Dött damit verärgerte CDU-Wähler an die Partei bindet- CDU-Wähler, die über das unsoziale und marktwirftschaftsfeindliche EEG erbost sind? Das hat überhaupt nichts mit Klimawandel zu tun.

Was und wie die FTD Frau Dött niedermacht, hat noch einen gefährlichen Nebeneffekt. Die Abgeordneten werden nicht nur durch den Druck in der Partei auf Linie gebracht, sondern auch noch von der parteihörigen Presse. Ich habe hohen Respekt vor jedem Abgeordneten, der seine Unabhängigkeit deutlich macht, zeigt dass er eigenständig denken kann und trotzdem in einer Fraktion mitarbeitet und dort dann Mehrheitsentscheidungen mitträgt. Herzlichen Glückwunsch für ihre Intrige gegen Frau Dött, denn sie haben ihr Ziel ja erreicht. Über die FTD wurde wieder einmal geredet. Die Vernichtungswelle ist angelaufen: „Ein Sprecher der CDU distanziert sich von ihr“ und die Opposition fordert ihren Rücktritt. Sind Sie jetzt zufrieden?

Hochachtungsvoll

Günter Ederer

Weiterführende Links

http://www.novo-argumente.com/magazin.php/novo_notizen/artikel/000720#kommentare

http://cdu-politik.de/2010/09/18/klimaschutz-ist-ersatzreligion/

http://www.zeit.de/politik/deutschland/2010-09/klimawandel-cdu-doett




Kernforschungszentrum Jülich 1967:Kernforscher leiten GAU ein. Keiner hat´s bemerkt!

„Technik und künftige Einsatzmöglichkeiten nuklearer Hochtemperaturreaktoren.“

In der Zeitschrift „Fusion“ Heft 1; 2010 ist der hochinteressanten Beitrag aus dem Jahre 1990 von Prof. Dr. Rudolf Schulten „Alte und neue Wege der Kerntechnik“ nochmals abgedruckt worden, und es reizt mich, heute, nach mehr als 20 Jahren einen Vortrag zu halten, in dem ich, ich nehme bewusst das Ergebnis vorneweg, nachweisen kann, dass die Hochtemperaturreaktortechnik heute noch immer aktuell ist, und mit an Sicherheit grenzender Wahrscheinlichkeit bald den Nachweis erbringen wird, dass die Gedanken und Überlegungen, die Prof. Dr. Schulten als junger Ingenieur in den 50iger Jahren hatte, richtig und zukunftweisend sind und sein werden.

Als junger Ingenieur hat mich damals die Aufgabe gereizt, an dem von Prof. Schulten erdachte Reaktorkonzept mit dem AVR-Reaktor in Jülich in leitender Funktion als Hauptabteilungsleiter für die gesamte Technik mitarbeiten zu können, und so den Bau des Reaktors, alle Prüfungen und die Inbetriebnahme bis zur Übergabe an den Kunden verantwortlich zu leiten. Diesen Reiz habe ich bis heute nicht verloren, und daher freut es mich, diesen Vortrag  halten zu können.

Hier zunächst noch einmal die Grundüberlegungen aus Sicht der seinerzeitigen Energiepolitik.

Die Energiepolitik nach dem Kriege,  also zur Zeit des Wiederaufbaus der Deutschen Wirtschaft basierte auf:

1.)  Möglichst preiswerter, also billiger Stromversorgung für Industrie und Haushalten. Teure, überhöhte Strompreise sind unsozial, sie behindern das Wachstum der Volkswirtschaft insgesamt.

2.)  Versorgungssicherheit.

3.)   Energiepolitisch optimaler Einsatz der vorhandenen Brennstoffe und deren Ressourcen bei der Strom-und Energieerzeugung, sowie in Haushalten und Verkehr.

Hierzu standen zur Verfügung:

–       Die festen Brennstoffe, also Stein- und Braunkohle;

–       Die flüssigen Brennstoffe Erdöl und Erdgas.

Alle diese Primärenergien waren und sind geeignet zur Erzeugung elektrischer Energie in Kraftwerken. Für Haushalte und Verkehr  sind auch heute noch  nur die flüssigen Brennstoffe technisch vernünftig und wirtschaftlich einsetzbar.

Daher galt es als Ziel, zur Stromerzeugung primär Stein- und Braunkohlen einzusetzen, die „Edelenergien“ Öl und Gas sollten nur in besonderen Fällen, also falls wirtschaftlich von großem Nutzen, auch in Großkraftwerken eingesetzt werden.

Zur damaligen Zeit war es Stand der „Erkenntnisse“, dass alle diese Brennstoffe nur für einen begrenzten Zeitraum zur Verfügung stehen würden, man rechnete damals bis zur Jahrtausendwende. Dies hat sich als zu pessimistisch herausgestellt. Heute weiß noch niemand, wie lange, vor allem bei dem stetig steigenden Energieverbrauch und der ständig steigenden Weltbevölkerung, diese Energiereserven tatsächlich ausreichen werden. Fakt ist aber weiterhin, dass sie begrenzt sind und dadurch stetig teurer werden. Dies bedarf sicher keiner weiteren Diskussion. Wir in Deutschland sind eines der Öl- und Erdgas ärmsten Länder. Nur die Kohle ist noch vorhanden.

Um  dieser zu erwartenden weltweiten Energieklemme frühzeitig gegenzusteuern und im Endeffekt zu vermeiden, wurden schon ab den 50iger Jahre weltweit Kernkraftwerke entwickelt und gebaut.

Diese Problematik existiert auch heute noch, nur dass neben den Kernkraftwerken die sogenannten „erneuerbaren Energien“, also Windkraft und Solartechnik als Alternativen angesehen werden. Doch dazu später noch einigen Worte.

In dieser Zeit hatte Prof. Dr. Schulten bereits die Idee, Hochtemperaturreaktoren zu bauen, wobei er neben dem U235, das in der Natur relativ begrenzt vorkommt, vor allem auch Thorium als nuklearen Brennstoff zu erbrüten und dann als U233 zu verbrennen.

Seine Überlegungen zur technischen Lösung basierten auf folgenden  verfahrenstechnischen Grundlagen:

–       Kugelförmige Brennelemente wegen ihrer überlegenen Strömungs-und Wärmeübertragungseigenschaften. Sie können während des laufenden Betriebes des Reaktors umgewälzt, ausgewechselt, ihr Abbrand gemessen und abgezogen und gelagert werden;

–       Graphit als Hauptwerkstoff für Brennelemente und die Reaktoreinbauten, das dieser Werkstoff als Moderator der Neutronenstrahlung dient und für besonders hohe Betriebstemperaturen geeignet ist;

–       Helium als Kühlmittel wegen seiner besonders hohen Wärmeübergangszahlen;

–       Ein integriertes, in sich geschlossenes Primärkreis Reaktorkonzept zur Erzielung höchster Sicherheit;

–       Uran 235 und Thorium 232 als Brennstoffe, mit dem Ziel, mit dem Uran 233 neuen Brennstoff zu erbrüten;

–       Hohe Betriebstemperaturen zur Stromerzeugung mit höchsten thermodynamischen Wirkungsgraden zur optimalen Ausnutzung des nuklearen Brennstoffs;

–       Möglichkeit,  mittels Kernbrennstoffen wegen der möglichen hohen Gastemperaturen in verfahrenstechnischen und  chemischen Prozessen durch Vergasung von Kohlen, Braunkohlen, Torf und weiteren Biomassen flüssige Brennstoffe für Haushalte und Verkehr zu produzieren;

–       Der inhärenten Sicherheit des Reaktors, da ein „GAU“ auch bei komplettem Ausfall der Kühlung nicht eintreten kann.

Es waren geradezu visionäre Überlegungen, die zum Erfolg dieser Technik führen, denn alle vorgenannten Überlegungen sind auch heute noch, also nach 60 Jahren, uneingeschränkt gültig. Prof. Schulten war auf seinem Gebiet ein Vordenker, der eigentlich nur mit Wernher von Braun vergleichbar ist. Die in Deutschland durch geführte Entwicklung ist ein großer Erfolg, auch wenn „Umweltschützer“ das nicht anerkennen wollen und Politiker das noch nicht erkannt haben. Ende der 90iger Jahre bei Stilllegung des AVR und des THTR auf politischen Druck, hatte Deutschland in dieser Technik eine weltweit führende Position, ja fast eine Monopol.

An die Ingenieurtechnik stellte die Umsetzung dieser Ideen extreme Anforderungen.  Eines der größten Probleme stellte das He-Gas dar.

He ist ein sehr dünnes und trockenes Gas, das zuvor in diesem Umfang noch nie eingesetzt war.  Alle Komponenten des Reaktors mussten ohne jegliches Vorbild und ohne vorliegende Erfahrungen neu konstruiert  werden. Sie wurden in Versuchsanlagen unter normalen Bedingungen erprobt. Die meisten versagten dann beim Einbau in den Reaktor bei Betrieb unter He-Bedingungen. Dies führt zwangsläufig zu ständigen Terminverzögerungen und Kostenerhöhungen. Als Führungskraft war der Druck enorm. Man hielt mir von oberster Stelle einmal vor:“Sie bauen alles 2x“, meine Antwort war nur kurz, „ja, das ist richtig, aber nichts dreimal“. Erproben und Prüfen bis zur endgültigen Sicherheit, dass alle Probleme erkannt und gelöst seien, ist die entscheidende technische Grundlage für  erfolgreiche Entwicklungen. So habe ich auch einmal unwirsch gesagt, was soll ich denn machen, Kosten vermeiden, Termine einhalten oder eine Anlage bauen, die läuft, beides geht nicht. Ich war noch jung genug, um mich durchsetzen zu können.  Es würde hier zu weit führen, alle technischen Probleme zu erläutern und die Lösungen aufzuzeigen. Dennoch kam uns Ingenieuren eine Entwicklung, man kann fast sagen, die  alles entscheidende, zu Gute. Die fortlaufende Entwicklung der Brennelemente mit den sogenannten „Coated Particles“.

Ohne diese Entwicklung in großartiger internationaler Zusammenarbeit wäre der Erfolg des AVR erheblich schwieriger geworden. Die neuen gepressten Graphitkugeln mit eingelagerten Uran wurden, und das soll besonders erwähnt werden, entwickelt in Zusammenarbeit von

–       Dem AVR in D;

–       Dem parallel laufenden Dragon Projekt in GB;

–       Der Gulf General Atomic in den USA;

–       Der KFA Jülich;

–       Der KFA Grenobel in F;

–       Dem österreichischen Kernforschungszentrum Seibersdorf;

–       Dem Reaktorzentrum Petten in NL;

–       Der UKAEA in GB;

–       Union Carbide Corp. In den USA:

–       Der Nukem zusammen mit der Hobeg;

Diese großartige, wohl einmalige internationale Zusammenarbeit wurde maßgeblich mitfinanziert durch das Bundesforschungsministerium, das einen entscheidenden Beitrag leistete.

Der Erfolg dieser Entwicklung lässt sich am besten darstellen, wenn man die ursprüngliche Auslegung des Kühlkreislaufes, also des Heliums im AVR Reaktor betrachtet. Die Radioaktivität wurde anfänglich mit 10^7 Curie ermittelt.  Die dann tatsächlich später gemessene  Radioaktivität betrug nur noch 360 Curie.

Der AVR erreichte die erste Kritikalität am 28.8.1966. Nach erfolgreicher Durchführung aller Testläufe mit den verschiedenen Komponenten und der erfolgreichen Durchführung aller nuklear-physikalischen Messungen zur Überprüfung der Berechnungen konnte der Reaktor den Betrieb aufnehmen. Am 18.12.1966 wurde die Dampfturbogruppe erstmals aufs Netz geschaltet, mit einer Leistung von 6 MW.

Danach war die Anlage bis zum 31.12.1988 in Betrieb. Die Abschaltung erfolgte allein aus politischen Gründen. Es bestanden weder technische  und schon gar nicht sicherheitstechnischen Bedenken. Auch eine sicherheitstechnische Nachrüstung war nicht erforderliche, da  in den 22 Betriebsjahren keine nicht lösbaren Probleme aufgetreten sind  und/oder nennenswerte technische Verbesserungen nicht erforderlich  waren. Alles war von Anfang an bestens durchdacht.

Ein Ereignis ist aber von herausragender Bedeutung. Wir erprobten den „GAU“, den größten anzunehmenden Unfall, der dann zu erwarten ist, wenn die Brennelemente nicht mehr gekühlt werden und alle Sicherheitsvorrichtungen versagen. Wir erprobten also die von Schulten erdachte inhärente Sicherheit des Reaktorkonzeptes, das den Eintritt eines „GAU“ ausschließt. Dieses spannende Experiment fand unter Ausschluss der Öffentlichkeit statt und wurde kaum beachtet.  Der Reaktor wurde auf volle Betriebsleistung von 15 MWel und der vorgegebenen Betriebstemperatur von 850 °C hochgefahren, dann wurden alle Sicherheitseinrichtungen blockiert, die Kühlgasgebläse abgeschaltet. Wie vorberechnet wurde der Reaktor in einigen Tagen von selbst kalt, durch Abfuhr der Restwärme des Cores nach außen.

Dies war der erste GAU in einem Kernkraftwerk weltweit, niemand hat davon etwas gemerkt, keine Strahlung drang nach außen und das Betriebspersonal konnte unbehelligt in der Warte den Ablauf dieses Experimentes beobachten. Dieser Versuch wurde 1979 wiederholt, diesmal aber mit detaillierten Aufzeichnungen und Messungen des gesamten Ablaufs.

„Tschernobyl“ war später, es war also nicht der erste „GAU“. Die schrecklichen Nachwirkungen    dieser Katastrophe einer völlig anderen Reaktorkonstruktion belasten bis heute die Diskussion zur Sicherheit von Kernkraftwerken.

Der HTR ist bis heute das einzige Reaktorkonzept, bei dem ein solcher Unfall aus nuklear-physikalischen Gründen ausgeschlossen ist. Dass man dies in der Politik und der öffentlichen Meinung praktisch totschweigt, ist jedem Fachmann unverständlich.

Wenn wir von Störungen sprechen, so soll hier eine gravierende Störung erwähnt werden. Der Dampferzeuger galt als kritisches Element, da bei einer Undichtigkeit Wasser in das Helium eindringen konnte, was eine totale Abschaltung des Betriebes erfordert hätte. Mehrere hunderttausend Schweißnähte wurde bei der Erstellung überprüft, alle verfügbaren Prüfverfahren wurden eingesetzt, sogar neu entwickelt, alle Prüfungen und Druckproben verliefen ohne Beanstandung. Selbstverständlich wurden in vielen Berechnungen, Studien und Untersuchungen die Auswirkungen eines solchen Wassereinbruchs in das System berechnet. Alle zeigten, daß eine nuklear bedenkliche Störung nicht eintreten kann. Tatsächlich ist diese Störung dann auch eingetreten.  Ein sicherheitstechnisches Problem bestand nicht. Nach der 7-stufigen Internationalen-Bewertungsskala für Störungen und Störfälle in kerntechnischen Anlagen ist sie in die Kategorie 1“Störung“ einzuordnen. Betrieblich gesehen negativ war die lange Stillstandszeit von mehreren Monaten zur Behebung des Schadens.

Alle anderen Komponenten arbeiteten praktisch einwandfrei. Verschleißteile und kleinere Mängel konnten zum Teil während des laufenden Betriebes durch Einsatz unserer speziell für solche Fälle entwickelten Ausbautechnik behoben werden, ohne dass eine unzulässig hohe Bestrahlung des Personals eintreten konnte,

Der Betrieb des AVR war eine wohl für eine Erstausführung einmalige Erfolgsgeschichte. Es ist kein einziger „Strahlenunfall“ vorgekommen. In 22 Betriebsjahren ist kein Mitarbeiter einer zu hohen Strahlendosis ausgesetzt gewesen. Die Abgabe von radioaktiven Stoffen an die Atmosphäre war gering, in keinem einzigen Fall ist es zu einer Überschreitung der zulässigen Dosen gekommen. Alle, natürlich nicht 100% vermeidbaren Betriebs- „Störungen“, mit Ausnahme der des Dampferzeugers können nach der Bewertungsskale mit „0“ – keine oder sehr geringe sicherheitstechnische Bedeutung- bewertet werden.

Die Zeitausnutzung, also die Zeit in der der Reaktor in 22 Jahren in Betrieb war, lag bei   66,4%. Da es sich um einen Versuchsreaktor handelte, vor allem auch zur Erprobung verschiedener Brennelemente im Rahmen des vorerwähnten Entwicklungsprogramms, ist hierin die Abschaltzeit für diese Arbeiten enthalten. Die höchste Betriebsverfügbarkeit wurde 1976 erreicht, mit einem Wert von 92%. Es wird zwar keine internationale Statistik geführt, aber dies war für eine völlig neu entwickelte Technik sicher ein Weltrekord.

Schon 1966 wurde das Grundkonzept für den Nachfolgereaktor erarbeitet. Die Leistung wurde mit 300 MWel festgelegt. Sicher war es ein enormer Leistungssprung von einem Versuchsreaktor mit einer Leistung von 15 MWel –ohne vorliegende Betriebserfahrungen- gleich  einen Demonstrationsreaktor mit dieser Größe zu bauen. Aber nach Abwägen aller Pro- und Contra- Argumente war diese Entscheidung sehr mutig aber auch heute noch richtig.

Gegenüber der AVR-Technik mussten  wesentliche konstruktive Änderungen durchgeführt werden:

–       Anstelle des Stahldruckbehälters wurde ein Spannbetondruckbehälter vorgesehen. Eine weltweit völlige Neukonstruktion;

–       Auf ein druckfestes Containment konnte wegen der geringen Aktivität des Heliums verzichtet werde. Es wurde nur eine drucklose Stahlummantelung vorgesehen.

–       Das Helium-Kühlgas musste den Reaktor von oben nach unten durchströmen, weil wegen der höheren Leistung die BE sich sonst in der oberen Schicht abgehoben hätten;

–       Bei der BE-Abzugsvorrichtung wurde eine neue Konstruktion eingebaut;

Nachdem dieses Konzept in der Planung bereits weit fortgeschritten war, stellten unsere Reaktorphysiker fest, dass der  Durchmessers des Kugelbettes so groß war, dass es nicht mehr möglich war, die Abschalt-und Regelstäbe im äußeren Graphitreflektor mechanisch praktisch beanspruchungslos zu führen. Dadurch konnte der Reaktor nicht mehr vollständig abgefahren werden. In einer großen Runde mit allen beteiligten Vorständen wurde diese extrem schwierige Situation besprochen. Nachdem sicher war, dass ein Schaden mit Gefährdung des Betriebspersonals und vor allem der Umgebung nicht eintreten konnte, wurde entschieden, die Abschaltstäbe direkt in das Kugelbett einzufahren. Dies führte zu einer sehr schwierigen Konstruktion dieser Stäbe und der Gefahr der Zerstörung der Brennelemente. Es wurde erkannt, dass ein Reaktor dieser Größe gebaut werden musste, um feststellen zu können, ob diese Konstruktion technisch überhaupt realisierbar war. Eine Alternative wäre ein Ringcore gewesen, doch hier erschien, ohne Kenntnis des langjährigen Betriebsverhaltens der Graphiteinbauten im AVR, das konstruktive Risiko noch größer zu sein. Nach Stilllegung des AVR, also 23 Jahre später, hat sich dies als Irrtum erwiesen, denn die Graphiteinbauten waren nach 22 Betriebsjahren praktisch wie neu. Kein einziger Block hatte sich auch nur um 1mm verschoben  Die Entscheidung fiel –leider-  zu Gunsten der Abschaltstäbe mit Einfahren in das Kugelbett aus.  Die Betriebserfahrungen mit dem Demonstrationsreaktor sollten abgewartet werden, um später eine endgültige Entscheidung treffen zu können.

Leider sind dann die befürchteten Schwierigkeiten bei der Inbetriebnahme tatsächlich eingetreten. Die hierdurch bedingten Schwierigkeiten beim Betrieb des Reaktors wurden beherrscht. Der Reaktor war immerhin drei Jahre in Betrieb. Ein Vergleich der Bruchraten zwischen AVR und THTR veranschaulicht die Problematik. Die Bruchrate pro umgewälzten BE lag beim AVR bei 0,0092 %, beim THTR bei 0,6%. Diese war natürlich viel zu hoch. Alleinige Ursachen waren die Abschaltstäbe und die neue Abzugsvorrichtung.

Alle anderen Komponenten arbeiteten einwandfrei. Der THTR war 3 Jahre mit 16.000 h in Betrieb. Diese Betriebszeit war ausreichen,  um alle Erkenntnisse und Erfahrungen zum Bau weiterer Reaktoren zu erhalten. Besonders wichtig war das Ergebnis, dass die Dampferzeugung mit höchsten thermodynamischen Wirkungsgraden einschließlich der Zwischenüberhitzung problemlos funktionierte.  Die  Betriebsergebnisse beim An- und Abfahren der Anlage und im Regelbetrieb waren voll vergleichbar mit denen konventioneller Kraftwerke. Es trat auch, wie beim AVR,  keine einzige sicherheitstechnisch relevante  Störung auf. Das Betriebspersonal wurde trotz der eingetretenen Probleme nicht unzulässig hoch belastet.

Zusammengefasst  nachfolgend  die wesentlichen Ergebnisse und Erfahrungen mit dem THTR-300:

–       HTR-Kraftwerken können im elektrischen Verbundnetz nach Vorgabe der Lastverteilung eingesetzt werden, das Regelverhalten, auch zur Frequenzhaltung, ist einwandfrei;

–       Beim Stillstand, bei Reparaturen selbst am offenen Primärteil wurde das Personal nie unzulässig hoch strahlenbelastet;

–       Durch den eingetretenen Kugelbruch stieg die Aktivität des Primärgase Helium nicht an, die coated particles sind so klein und hart, dass sie nicht zerbrechen können.

–       Alle neu konstruierten Komponenten und die gesamte Anlage, mit Ausnahme der vorbeschriebenen Probleme mit zu hohem Kugelbruch, arbeiteten einwandfrei;

–       Es wurde der zweifelsfreie Nachweis erbracht, dass die Sicherheitstechnik  so weit entwickelt ist, dass keine Gefahr für das Bedienungspersonal und die Bevölkerung besteht. Im schlimmsten überhaupt denkbaren Störfall ist, wegen der sehr geringen radioaktiven Belastung des Heliums  eine Evakuierung der Bevölkerung nicht erforderlich.

Trotz der kurzen Betriebszeit hat der Demonstrationsreaktor alle Erkenntnisse und Erfahrungen erbracht, um neue HTR-Kraftwerke sicher bauen zu können.

In der Öffentlichkeit ist es kaum bekannt, dass der stillgelegte Reaktor den Nachweis erbringt, dass der Spannbetonbehälter das sicherste Endlager für strahlende Komponenten ist. Sicherer geht es ingenieurtechnisch nicht. Außerhalb des Spannbetonbehälters ist keine Strahlung mehr messbar. Ein schönes Restaurant auf dem Dach gebaut, mit herrlichem Blick in das Münsterland, wäre sicher eine prima Endlösung.

Das Ergebnis aus den zusammengefassten Betriebserfahrungen mit dem AVR und dem THTR zeigt, dass es ohne weitere Entwicklungen möglich ist, diese Technik großtechnisch anzuwenden.

Das Ergebnis meiner eigenen konstruktiven Überlegungen möchte ich nachfolgend  kurz erläutern.

Bei einem zukünftigen Hochtemperaturreaktor ist die Maximierung der  Sicherheit das mit Abstand wichtigste aller Kriterien. Weiter soll von Anfang an die Frage der Endlagerung nach Stilllegung einer solchen Anlage mit geplant werden. Ich möchte diese Technologie als integriertes Konzept als eine in sich geschlossene Nukleare Hochtemperaturtechnologie /NHTT/  bezeichnen und verstanden wissen. 

Die  folgenden konstruktiven Grundlagen  sind  Kernstück dieser Technik:

–       Erdbebensicherheit nach Stärke 6, also für unsere Regionen die höchstdenkbare Erdbebensicherheit.

Diese ist zu erreichen durch ein großflächiges, starkes Betonfundamentes. Hierbei entsteht eine große Grundfläche, die den Aufbau eines stabilen, nach außen gasdicht abgeschlossenen Betonunterbaus ermöglicht.  In den Räumen unterhalb des eigentlichen Reaktors sollen alle Tätigkeiten ausgeführt werden, die mit einer Strahlenbelastung verbunden sein könnten. So bspw. Ausführung von Reparaturen an Komponenten, deren Dekontamination und eventueller Endlagerung in abgeschlossenen Räumen. Ferner das Endlager für abgebrannte Brennelemente. Ziel soll es sein, dass kein Bauelement, das einer Bestrahlung ausgesetzt war, das Betriebsgelände verlassen muss.  Daher sind keine „Castor-Transporte“ zu anderen nuklearen Lagern erforderlich. Dass dies problemlos möglich ist, zeigen die Erfahrungen mit dem THTR-300.

–       Ein Kernschmelzen, also ein „GAU“, ist nuklear-physikalisch ausgeschlossen;

–       Die kugelförmigen Brennelemente haben sich als die besten Brennelemente erwiesen. Die Spaltprodukte werden bereits im Kern der „Coated Particles“ mit einem Durchmesser von nur 0,5mm  durch hochgasdichte Hüllen aus PyC und SiC weitgehend zurückgehalten. Diese Hüllen stellen die erste Barriere zur Verhinderung des Austritts von Spaltprodukten in das He-Kühlgas dar. Dadurch wird dieses nur gering belastet. Die kugelförmigen BE haben weiter gegenüber allen anderen Konstruktionen den Vorteil, dass sie sehr kompakt und leicht handhabbar sind. Daher ist der erforderliche Raum zu einer Zwischen- oder Endlagerung auch bei vielen Betriebsjahren sehr gering und kann problemlos im „Betonunterbau“ untergebracht werden.

–       Der Spannbetonbehälter hat sich als berstsicher  erwiesen, er ist damit die wichtige 2. Sicherheitsbarriere gegen Austritt von Radioaktivität.

–       Ein druckloses Containment um die gesamte Anlage stellt die 3. Barriere dar. Das Volumen ist so groß, dass das gesamte He-Primärgas im Kühlkreislauf dort aufgefangen werden könnte, ohne dass etwas nach außen dringen kann.

–       Anstelle eines zentralen Brennelementabzugs mit einem zentralen Kugelhaufencore wird ein Ringcore mit mehreren Abzugsvorrichtungen gebaut. Es ermöglicht bei gleichem Grundkonzept den Bau von Anlagen bis zu den höchsten Leistungen bei optimalem Durchlauf der BE. Die Abschalt- und Regelstäbe werden praktisch beanspruchungslos in die Graphitreflektoren eingebaut.

–       Ein doppelter He/He-Kreislauf verhindert die Übertragung von Spaltprodukten, auch von Graphitstaub, nach außen.  Der Primärteil des Reaktors ist so  auch sicher gegen „Fremdmedieneinbruch“ von außen.

–       Dieses Konzept ermöglicht  eine einfache Kontrolle über den Verbleib des nuklearen Materials.

–       Die 5-6m dicken Wände aus vorgespanntem Beton des Druckbehälters sind sicher gegen jede Art von terroristischer Bedrohung und auch gegen Flugzeugabstürze. Sie halten selbst gezielten Raketenangriffen stand.

Diese sicherheitstechnischen Vorteile können in diesem Umfang von keinem derzeit bekannten Kernkraftwerk erreicht werden und  werden auch nicht zu erreichen sein.

Nun  noch eine zusammenfassende, kurze Beurteilung der Wirtschaftlichkeit der NHT-Technologie:

–       Die kugelförmigen Brennelemente sind die nuklear sichersten, betrieblich am einfachsten zu handhabende und wegen ihres geringen Volumens am sichersten end-zu-lagernden Brennelemente. Sie ermöglichen zudem einen  BE-Wechsel bei laufendem Betrieb, also ohne Abschaltung der Anlage. Dies ist aus wirtschaftlich-betrieblicher Sicht ein enormer Vorteil.

–       Die hohen Primärgastemperaturen ermöglichen höchste thermodynamische Wirkungsgrade, daher beste Ausnutzung des nuklearen Brennstoffs.

–       Die Hochtemperaturwärme kann neben zur Stromerzeugung in den verschiedensten verfahrenstechnischen Prozessen, bspw. zur Erzeugung flüssiger oder gasförmiger Brennstoffen genutzt werden.

–       Der Einsatz von Thorium 232 ermöglicht das „Erbrüten“ des spaltbaren Urans 233 als neuem Brennstoff. Daher reichen die vorhanden Uranreserven aus U235 in Verbindung mit Thorium 232 auf unabsehbare Zeiten aus.

Zum Abschluss aber noch ein Wort zur Frage des CO2 in der Atmosphäre. Ohne CO2 ist der Planet Erde unbewohnbar. Wer  behauptet, CO2  sei ein „Schadgas“ oder „Schmutzgas“ und strebt gar ein „0-CO2 Ziel“ für den Planeten Erde an, zeigt ein unfassbares Maß an minimalsten, elementarsten Schulkenntnissen, er hat einen hohen Mangel an Allgemeinbildung.  Ein wissenschaftlich exakter Nachweis dass CO2 einen Einfluss auf das Klima unseres Planeten Erde hat, existiert nicht, im Gegenteil, das Klima unseres Planeten Erde ändert sich auch ohne den Menschen seit Jahrtausenden. Die Natur, nicht der Mensch, oder auch das Weltall mit Sonne, Mond  und Sternen bestimmen unser Klima. Prof. Dr. S. Fred Singer hat dies umfassend in seinem Buch. „Die Natur, nicht menschliche Aktivität, bestimmt das Klima“ dargestellt. Mit Ausnahme der BRD und einiger EU Staaten handeln alle Staaten weltweit danach, vor allem auch die USA und China. Der für Kraftwerke vorgesehene CO2-Emissioinshandel ist daher völliger Unsinn. Auch die KKW – Betreiber sollten die CO2-Freiheit ihrer Stromerzeugung nicht mehr als Vorteil herausstellen, sondern allein die wirtschaftliche Überlegenheit  dieser Technik. In allen Kernkraftwerken   wird der Strom um den  Faktor 6-30 niedriger erzeugt, als dies in den Anlagen mit „erneuerbaren Energien“ auch auf Dauer möglich ist.  Die Kosten der elektrischen Energie  haben einen entscheidenden Anteil auf die Kostenbelastung der Bevölkerung, hohe Stromkosten sind in höchstem Maße unsozial. Vor allem aber  die energieintensive Industrie, in der heute noch Millionen von sicheren Arbeitsplätzen vorhanden, sind wird gegenüber der ausländischen Konkurrenz entscheidende Nachteile haben. Ihre Schwächung, wenn nicht gar Vernichtung in Deutschland, durch die hohen Kosten der „erneuerbaren Energien“ führt mit Sicherheit zu einer entscheidenden Schwächung unserer Wirtschaft in allen Bereichen und damit zur Unfinanzierbarkeit unserer sozialen Einrichtungen. Nur ein „Energiemix“ aus möglichst billigen Produktionsanlagen ist ein volkswirtschaftlich vernünftiger Energiemix. Dies war, wie eingangs erläutert,  in den Nachkriegsjahren richtig und ist es auch heute noch. Herr Dr. Großmann hat dies in einer Leserzuschrift in der FAZ vom 19.Juli 2010 wie folgt beschrieben: „Es geht um knallharte Industriepolitik“. Wer dies nicht erkennt und danach handelt,  versündigt sich an der Deutschen Wirtschaft.

Wie absurd die Bestrebungen von Regierung und Opposition sind, eine weltweite „Führerschaft“ bei „erneuerbaren Energien“ zur CO2-Vermeidung und damit zum „Klimaschutz“ anzustreben, soll folgende simple Rechnung, die als Leserzuschrift von mir am 14.Januar 2010 in der FAZ erschienen ist, und mir enorme Zustimmung gebracht hat, zeigen. Wenn in der BRD überhaupt kein anthropogenes CO2 mehr erzeugt wird, wenn also Deutschland auf der Welt nicht mehr existieren würde, hat dies einen Einfluss von 0,00004712% auf die Gesamtproduktion von CO2  unseres Planeten. Wer dennoch dieses Ziel verfolgt, muss einem geradezu unglaublichen Größenwahn erlegen sein.

  

Vortrag von Dr.-Ing. Urban Cleve

Nachsatz:

Wer die ausführlichen Begründungen und eine Vertiefung meines vorliegenden Vortrages lesen möchte, kann dies im Internet tun:

1.)  www.buerger-fuer-technik.de; Kerntechnik 2009 und 2010;

2.)  www.eike-klima-energie.eu/news-anzeige/umwelt-klima-energie

3.)  Bei  www.eike-klima-energie.eu  und www.buerger-fuer-technik.de

 findet man weitere umfassende Beiträge zum Thema CO2 von tausenden von Wissenschaftlern aus aller Welt, die leider von deutschen Politikern noch nicht verstanden oder gelesen werden. Es lohnt sich, diese Webseiten einmal aufzurufen.

4.)  Prof. Dr. S. Fred Singer.“ Die Natur, nicht menschliche Aktivität, bestimmt unser Klima”.

     




Der Klima-Schwindel! Wie uns der öko-industrielle Komplex abzockt: Zitat: „Ob C02 oder nicht, ist mir egal, hat mir ein Topmanager gesagt, da will ich dabei sein.“

Die Filmemacher reisten an die Brennpunkte des Geschehens: zur 2. Internationalen Klimakonferenz nach Berlin und zum UN-Klimagipfel nach Kopenhagen. Sie trafen sich mit kritischen Wissenschaftlern und Journalisten, um der allgemeinen Hysterie mit Fakten zu begegnen. Günter Ederer, der mit seinen Enthüllungsreportagen im deutschen Fernsehen schon häufig für Aufsehen sorgte, weist dem selbsternannten Klimapapst Al Gore offensichtliche Propagandalügen nach. Doch wer sind die Hintermänner dieser Kampagne und die Profiteure dieses Milliardengeschäftes? Dr. Wolfgang Thüne, ehemaliger ZDF-Wetterexperte, rehabilitiert den vermeintlichen Klimakiller CO2 und widerlegt die These von der globalen Klimakatastrophe. Dr. Bruno Bandulet, Herausgeber des Informationsdienstes “GOLD & MONEY INTELLIGENCE”, deckt die wahren Absichten der “Klimaretter” auf. Professor S. Fred Singer, renommierter Physiker aus den USA, fordert eine lückenlose Aufklärung des “Climategate”-Skandals. Lord Christopher Monckton, langjähriger Berater der britischen Premierministerin Margaret Thatcher, analysiert die Thesen des UN-Klimarates IPCC bis ins kleinste Detail – und kommt dabei zu verblüffenden Ergebnissen.

Der Journalist Ronald Gläser hat ihn sich angesehen: Wir bringen Auszüge aus seiner Kritik in "Eigentümlich Frei" (Printausgabe S 71). Beziehen können Sie die DVD z.B hier

Der Klimaschwindel; Frei von Gebühren 

Dokumentarfilm auf DVD  von Ronald Gläser 

Das Märchen vom durch den Menschen gemachten Klimawandcl könnte aus Tausendundeiner Nacht stammen, so leicht ist es als wilde Phantasie erkennbar. Inzwischen sind daher auch viele gute Bücher darüber geschrieben worden. Filme im Widerspruch zu Al Gores Machwerk "Eine unbequeme Wahrheit" gibt es dagegen kaum. Mit "Der Klimaschwindcl" liegt nun endlich auch ein Video vor, das die Geschichte "von den aussterbenden Eisbären, den abschmelzenden Polen und dem ansteigenden Meeresspiegel als dreiste Lüge einer kleinen Ökomafia entlarvt. 

Der Wirtschaftsjournalist Günter Ederer fasst deren Motivation so zusammen: "Für die Linken ist die Klimakatastrophe die Möglichkeit vorzuführen., dass die industrialisierte kapitalistische Welt endgültig am Ende angekommenist und abgeschafft gehört." Für große Teile der "Rechten" aber sei es eine Möglichkeit, Subventionen abzugreifen. "Ob C02 oder nicht, ist mir egal, hat mir ein Topmanager gesagt, da will ich dabei sein." ….

…So ist das bei einem Film, der "garantiert nicht aus TVGebühren finanziert ist", wie es in der Eigenwerbung heillt. Es gab bislang noch keine liberalen Untergrundfilmer in Deutschand, die Enthüllungsstreifen im Stile von "Lose Change" produzierten ohne Aussicht auf nennenswerte Umsatzerlöse. Mit "Der Klimaschwindel " ist jetzt ein vielversprechender Anfang gemacht. 




Das Institut für Umweltphysik der Universität Heidelberg (iup) kommentiert ein Interview der Badischen Neuesten Nachrichten (BNN) mit EIKE-Pressesprecher Prof. Horst-Joachim Lüdecke

Ein wenig unglücklich formuliert erscheint uns insbesondere schon der erste Satz der Presseerklärung, in der implizit darüber Klage geführt wird, dass die BNN einem AGW-Gegner eine öffentlich Plattform „gewährt“ habe. Diese Formulierung lässt eine fragwürdige Auffassung von Presse- und Meinungsfreiheit vermuten, wobei wir davon ausgehen, dass dies dem iup nicht einmal auffiel. Die Pressemitteilung ist eine Mischung von Rechtfertigung (vor wem eigentlich?) und unnötiger Distanzierung zum Interview, denn es besteht kein Zusammenhang zwischen dem iup und Prof. Lüdecke. Sie enthält aber auch die altbekannte, übliche Mischung der Verfechter von einer menschgemachten Erwärmungshypothese (AGW), zusammengerührt aus Halbwahrheiten, Falschaussagen und komplettem Ausblenden der mehrheitlichen Gegenstimmen aus dem Lager der Forscher-Kollegen mit anderer Auffassung. 

Der mündige Leser soll sich aber selber informieren und urteilen. Zu diesem Zweck liegt das Interview „Interview_BNN.pdf“, die Presseerklärung des iup „Presseerklärung_iup.pdf“ sowie ein offenes Schreiben von EIKE-Pressesprecher an den Autor der Presseerklärung Prof. Aeschbach-Hertig und den Leiter des iup, Prof. Platt als „Erwiderung_lü.pdf“ bei. Wir wünschen viel Spaß beim lesen.

Michael Limburg EIKE

Related Files




Meereis: beschleunigte Abnahme, oder stabile Verhältnisse am Nordpol?

Die Jahre 2008 und 2009 zeigten in Folge leichte Zuwächse. Das Septemberminimum fiel nicht mehr ganz so niedrig wie im Jahre 2007 aus. Der September 2010 reiht sich dort nahtlos ein. Das Septemberminimum 2010 liegt genau zwischen dem der Jahre 2008 und 2009, weist also “nur” die dritt geringste Ausdehnung seit 1979 auf. Ein beschleunigter Rückgang ist nicht zu erkennen. Hier ein Überblick über die saisonalen Eiszyklen der letzten Jahre (Quelle: IJIS):

Alles im allen also kein Grund zur Sorge. So meint man. Das ZDF-Mittagsmagazin sieht das allerdings anders und berichtete in seiner Sendung vom 13.09. über einen sich beschleunigenden Klimawandel. Zu Wort kamen der Experte Prof. Lars Kaleschke und eine Expertin von Greenpeace. Beide sprechen von Effekten die das Abschmelzen verstärken. Wie z.B. einem verringerten Rückstrahlungsvermögen der Eisoberfläche infolge der Eisschmelze und warmem Wasser, welches von unten am Meereis nagt. Eingeblendet werden kalbende Gletscher und große Gletscherabbrüche in Grönland. Die Situation sei dramatisch. So wird es vermittelt.

Professor Lars Kaleschke vom “Klimacampus” der Universität Hamburg erklärte ebenfalls am Montag bei einer Pressekonferenz des Alfred-Wegener-Institus in Bremerhaven: “Wir haben es mit einer Beschleunigung der Abnahme zu tun. Das finde ich bedenklich.”

Und auch die Tagesschau vom 13.09. stimmt in das Klagelied, in den Abgesang, um das Meereises am Nordpol mit ein. Prof. Kaleschke erklärt: “In diesem Jahr ist das Eis in der Arktis wieder dramatisch zurückgegangen, wir haben jetzt im August (aktuell haben wir allerdings September) den zweit geringsten Wert seit Beginn der Aufzeichnungen zu verzeichnen.”

Wie sieht die Entwicklung der letzten Jahre tatsächlich aus?

Die folgende Abbildung zeigt die Entwicklung des arktischen Meereises seit Sommer 2002. Eingezeichnet sind die Tagesmittelwerte (die schwarze Linie) und ein gleitender Jahresmittelwert (die rote Linie) der Meereisausdehnung.

Zu erkennen ist, seit 2007 hat sich der Abschmelzvorgang flächenmäßig stabilisiert. Der Gleitende Jahresmittelwert liegt seither über 10 Millionen Quadratkilometer. Ein beschleunigter Rückgang ist aktuell nicht in Sicht.

Wie sieht es am Südpol aus?

Um ein zusammenhängendes, sprich globales Bild zu erhalten, lohnt es sich auch einen Blick auf das Meereis am Südpol zu werfen. Das Eis dort zeigt seit dem Beginn der Satellitenaufzeichnungen im Jahr 1979, im Gegensatz zur Arktis, leichte Zuwächse. Entsprechend der vorherigen Abbildung wird hier die Entwicklung des antarktischen Meereises seit Sommer 2002 gezeigt.

Auch dort besteht kein Grund zur Panik. Ganz im Gegenteil. An der Neumayer-Station in der Antarktis wurde erst neulich ein neuer Kälterekord gemessen. Zum ersten Mal seit dem Bestehen der deutschen Antarktisstation Neumayer fiel die Temperatur am 8. Juli 2010 unter die -50°C-Marke und erreichte -50.2°C. Der bisherige Kälterekord vom Juni 2008 wurde somit um 1.4°C unterschritten.

Die Anomalien 
Zuletzt werfen wir noch einen Blick auf die Flächen-Anomalien zum Meereis. (Quelle: UNI Hamburg). Die eingezeichneten Linien zeigen die Abweichungen zum langjährigen, saisonalen Mittelwert in der Arktis und Antarktis. Die Arktis (die rote Linie) zeigt seit dem Negativrekord von 2007 eine leichte “Erholung”. Zeitweise werden sogar positive/ überdurchschnittliche Werte erreicht. Die Antarktis (die blaue Linie) liegt größtenteils im positiven/ überdurchschnittlichen Bereich, bereitet also keinen Grund zur Sorge.

Datenquellen:

Arktis

Antarktis

Gastautor Mike Krüger, zuerst erschienen am 14.9.10 in Readers Edition

Anmerkung der Redaktion:  "Lüge und Betrug sind integrale Bestandteile des Forschens"! Hubert MARKL bei der EXPO am 13. Jul. 1999

Bitte lesen Sie zur Meereisente auch die Anmerkungen von Dr. Hüttner im Anhang

Related Files