1

Schneller Reaktor BN-800 wird erstmals angefahren

In den kommenden Wochen wird der Reaktorbehälter des BN-800 mit flüssigem Natrium gefüllt; später folgt die Beladung mit Kernbrennstoff. Anschließend wird der Reaktor kritisch; das heißt, er baut eine selbsterhaltende Kettenreaktion auf.

 

Modell des BN 800 Reaktors

Auch wenn sich dieser Vorgang noch bis Ende 2014 hinziehen dürfte, ist der Betreiber damit seiner Zeit voraus, denn die Brennelementfertigung war ursprünglich erst für 2015 geplant [5].

Plutonium-Brenner

 

Blick in den Reaktorbehälter des BN-800 (Quelle: Atom Info)

Der BN-800 im KKW Beloyarsk ist als Schneller Brenner ausgeführt. Anders als ein Schneller Brüter verbraucht er mehr Plutonium, als er erzeugt. Dieses Mehr an Plutonium stammt in diesem Fall aus russischen Militärbeständen, ist waffenfähig und wird in Form von MOX-Brennelementen in den BN-800 eingebracht. Der neue Reaktor wird also nicht nur Strom erzeugen, sondern durch die Nutzung des Plutoniums als Brennstoff auch zur nuklearen Abrüstung beitragen. Bis zu drei Tonnen waffenfähiges Plutonium kann der BN-800 pro Jahr auf das Niveau üblicher gebrauchter Brennelemente abbauen.

Gewöhnliche Leichtwasserreaktoren, wie sie in Deutschland und auch fast überall sonst auf der Welt betrieben werden, nutzen weniger als ein Prozent des in der Natur vorkommenden Urans. Der Rest verbleibt zum einen als abgereichtertes Urans, zum anderen in Form gebrauchter Brennelemente. Schnelle Reaktoren wie der BN-800 hingegen verwerten das Uran fast vollständig, brauchen für dieselbe Strommenge nur einen Bruchteil des Brennstoffs und hinterlassen entsprechend weniger Abfall.

Nicht nur das: Schnelle Reaktoren können die hochradioaktiven und langlebigen Abfälle aus Leichtwasserreaktoren nach Wiederaufarbeitung als Brennstoff nutzen. Das ist mit dem BN-800 im Prinzip ebenfalls möglich, auch wenn das nicht geplant ist. Die Anlage soll die technische Funktionstüchtigkeit und die Wirtschaftlichkeit von BN-Reaktoren demonstrieren, und sie bekräftigt den Willen Russlands, die langfristige Kernkraftstrategie des Landes auf Schnelle Reaktoren umzustellen [12].

Betrieb bei Normaldruck

Wenn oben das Wort Reaktorbehälter steht und nicht Reaktordruckbehälter, so ist das durchaus korrekt. Anders als bei einem wassergekühlten Reaktor steht der BN-800 nämlich nicht unter Überdruck. Vielmehr ist der Reaktorbehälter im Grunde nichts weiter als ein mit Natrium gefüllter großer Topf, in dem sich außerdem Reaktorkern, Pumpen, Wärmetauscher und so weiter befinden. Das alles steht unter normalem atmosphärischen Druck, was die möglichen Folgen bei Schäden im Primärsystem reduziert. Möglich macht das der Siedepunkt von Natrium, der mit 890 ℃ deutlich über dem von Wasser liegt.

Längsschnitt des BN-800-Reaktorbehälters. Die Bezeichnung “reactor pressure vessel” mag gewohnt sein, ist aber nicht korrekt. (Quelle: [3])

Der Primärkreis befindet sich vollständig im Reaktorbehälter. Das darin enthaltene Natrium wird im Reaktorkern erhitzt und gibt die Wärme über Wärmetauscher an den Sekundärkreis weiter. Dieser enthält ebenfalls Natrium, das zu den Dampferzeugern des Tertiärkreises geleitet wird. Der dort erzeugte Wasserdampf schließlich treibt Turbinen und Generatoren (Turbosatz) an, die den Strom erzeugen.

Hohe Betriebstemperatur bringt hohe Effizienz

Während gängige Leichtwasserreaktoren auf eine Dampftemperatur von maximal etwa 300 ℃ beschränkt sind, erreicht der BN-800 durch die Flüssigmetallkühlung mit 490 ℃ eine weit höhere Temperatur. Diese ermöglicht eine höhere Effizienz des Turbosatzes und verbessert die effektive Brennstoffausbeute weiter. Für die 864 MW elektrischer Leistung des BN-800 ist eine thermische Leistung von vergleichsweise geringen 2.100 MW ausreichend. Bei einem Leichtwasserreaktor wäre für dieselbe elektrische Leistung eine thermische Leistung von etwa 2.900 MW nötig. Die geringere thermische Leistung des BN-800 führt auch zu einer entsprechend geringeren Nachzerfallswärme.

Schematische Übersicht der BN-800-Anlage (Quelle: [3])

Sicherheitsaspekte beim BN-800

Der BN-800 hat durch inzwischen über 30 Jahre Betriebserfahrung mit dem Vorläufermodell BN-600 eine Reihe von Verbesserungen erfahren (siehe [2], S. 3). Inhärente Sicherheit sollen allerdings erst die Nachfolger BN-1200 und BN-1800 bieten. Im folgenden stellen wir einige Sicherheitseigenschaften des BN-800 vor.

PROLIFERATION

Der Brennstoff des BN-800 besteht zu großen Teilen aus waffenfähigem Plutonium, welches relativ leicht chemisch abgetrennt werden könnte. Ein einziges frisches Brennelement enthält bis zu gut 5 kg Plutonium und damit bereits theoretisch genug, um eine Kernwaffe zu bauen. Das ist allerdings nicht unmittelbar ein Problem des BN-800, denn das Plutonium ist ja ohnehin bereits vorhanden. Der BN-800 wurde vielmehr explizit dazu gebaut, die Menge zu reduzieren.

PRIMÄRLECKAGEN

Mehr oder weniger große Leckagen im Primärsystem können theoretisch durch interne Ereignisse oder externe Einwirkungen auftreten, für die ein Kernreaktor natürlich ausgelegt sein muss. Interne Ereignisse sind beispielsweise ein länger andauernder Ausfall der Kühlung, etwa durch einen vollständigen Stromausfall (Station Blackout). Das kann durch eine fehlende Nachwärmeabfuhr zu einer Überhitzung des Primärkreises mit oder ohne Kernschmelze führen. Externe Einwirkungen sind beispielsweise Erdbeben, Flugzeugabstürze, Wetterextreme oder Terrorangriffe. Unter welchen Bedingungen und in welchem Umfang solche Leckagen auftreten können und wie gut die damit einhergehenden Probleme beherrscht werden, hängt vom Anlagendesign ab.

Brüche in Rohren, Pumpen oder anderen Komponenten des Primärkreises führen zu keinem Kühlmittelverlust, da der Primärkreis des BN-800 ja wie erwähnt vollständig im Reaktorbehälter steckt. Dieser ist zudem von einem Sicherheitsbehälter (Containment) umgeben, der wiederum von einem Stahlbetonmantel eingeschlossen ist. Solange nicht auch das Containment beschädigt wird, ist ein Primärleck kein auslegungsüberschreitender Störfall.

NATRIUMBRÄNDE

Die meisten Menschen haben bei natriumgekühlten Reaktoren Bedenken wegen der Verwendung von Natrium als Kühlmittel. Man kennt das aus dem Chemieunterricht: Natrium beginnt bei Kontakt mit Sauerstoff oder Wasser zu brennen. Damit dies nicht geschieht, trennt Argon das Natrium im Primärkreis vom Sauerstoff in der Luft. Argon ist ein Edelgas, das nicht mit Natrium reagiert. Wasser ist im Primärkreis oder in dessen Nähe ohnehin nicht vorhanden.

Im Sekundärkreis ist die Wahrscheinlichkeit für einen Natriumbrand höher, da das Natrium in den Dampferzeugern seine Wärme an das zu erhitzende Wasser im Tertiärkreis abgibt. Daher gibt es in den Dampferzeugern Sicherheitssysteme, die im Fall eines Kontakts zwischen Natrium und Wasser die betroffene Komponente abschotten. Das Natrium des Sekundärkreises ist nicht radioaktiv, was Gegenmaßnahmen und Reparatur vereinfacht. Ein sekundäres Natriumleck kann zu keinem schweren Unfall führen, da die drei Sekundärkreisläufe komplett unabhängig voneinander und redundant ausgeführt sind. Übrigens ist der Druck im Sekundärkreis leicht höher als der im Primärkreis, um bei Undichtigkeiten den Übertritt radioaktiven Natriums aus dem Primärkreis in den Sekundärkreis zu verhindern.

Natriumbrände, insbesondere solche im nicht radioaktiven Sekundärkreis, werden in der Regel überschätzt. Beim BN-600 traten in den ersten Betriebsjahren über zwei Dutzend Natriumbrände auf, von denen keiner zu einer Katastrophe führte. Alle Schäden ließen sich reparieren und der Reaktor wieder in Betrieb nehmen. Seit 20 Jahren läuft der BN-600 ohne weiteren Natriumbrand.

Gestaffelte Sicherheitsebenen des BN-800 gegen radioaktive Freisetzungen (Quelle: [3])

KERNSCHMELZE

Im Gegensatz zu Leichtwasserreaktoren haben natriumgekühlte Schnelle Reaktoren (Sodium-Cooled Fast Reactor, SFR) prinzipiell keinen negativen oder sogar einen leicht positiven Void-Koeffizienten. Sollte das Natrium sieden und es zur Dampfblasenbildung kommen, würde das die Reaktivität erhöhen und dadurch die Kerntemperatur weiter ansteigen. Auch ein Schmelzen der Brennelementhüllrohre kann die Reaktivität erhöhen. Bei einem Störfall mit prompter Überkritikalität durch einen Steuerungsfehler bricht die Reaktivität erst zusammen, wenn die Kernstruktur etwa durch eine Teilkernschmelze zerstört oder verändert wird. Im Gegensatz zu Leichtwasserreaktoren sind SFR daher gegenüber solchen Transientenstörfällen nicht ohne weitere Maßnamen inhärent sicher. Die schlechte Nachricht: Eine (Teil) Kernschmelze ist wahrscheinlicher als beim Leichtwasserreaktor.

Es gibt aber auch eine gute Nachricht: Durch den hohen Siedepunkt des Natriums kommt es bei einer Kernschmelze nicht zwangsläufig zu einem Kühlmittelverlust. Die Kühlung kann aufrechterhalten werden, und damit läuft die Kernschmelze völlig anders ab und ist besser beherrschbar als in einem Leichtwasserreaktor.

Das Unfallszenario Kernschmelze ist beim BN-800 nicht auslegungsüberschreitend, also kein schwerer Unfall. [7] geht sehr genau auf mögliche Transientenstörfälle und Temperaturkoeffizenten beim BN-800 ein. Es gab bereits mehrere Kernschmelzen oder Teilkernschmelzen in SFR, auch eine Teilkernschmelze (Hüllrohrschäden) im Vorgängerreaktor BN-600. Allerdings wurden bei keiner davon jemals größere Mengen an Radioaktivität freigesetzt. Und nicht nur das: Die Reaktoren konnten sogar repariert und wieder in Betrieb genommen werden. Bei natriumgekühlten Reaktoren verliert das Wort Kernschmelze seinen Schrecken.

Um eine Rekritikalität des geschmolzenen Kernbrennstoffs (Corium) und ein Durchschmelzen des Reaktorbehälters zu verhindern, besitzt der BN-800 einen Core Catcher. Dieser Kernfänger macht das Szenario eines schweren Unfalls praktisch unmöglich.

AUSFALL DER HAUPTWÄRMESENKE

Ein weiteres Störfallszenario ist ähnlich wie bei Leichtwasserreaktoren der Ausfall der Hauptwärmesenke. Der Primärkreis kann dadurch prinzipiell nach einiger Zeit überhitzen, was zu einem Versagen des Reaktorbehälters und damit zu einem Primärleck führen kann. Um das zu verhindern, kann die Nachzerfallswärme des BN-800 über den sekundären Natriumkreis mittels Radiatoren direkt an die Luft abgegeben werden. Beim BN-600 wurde ein solches System erst nachträglich eingebaut. Dies ist jedoch ein aktives System, das die Verfügbarkeit elektrischer Energie und das Funktionieren wenigstens einer der drei sekundären Kühlmittelpumpen voraussetzt. Erst für den BN-1200 ist eine direkte, passive Luftkühlung des Primärkreises vorgesehen, die auch ohne Strom funktioniert. Die sekundären Natriumpumpen sind dann zur Notkühlung nicht mehr zwingend erforderlich.

Zum »Ausgleich« ist der Reaktorbehälter des BN-800 in Relation zur Leistung größer als beim BN-1200, hat eine höhere Wärmekapazität und kann daher im Notfall mehr Wärme aufnehmen. Laut [3] beträgt der Temperaturanstieg durch die Nachzerfallswärme 30 ℃ pro Stunde. Dies sei genügend Zeit, um Gegenmaßnahmen einzuleiten, etwa Anlieferung und Einsatz mobiler Notstromgeneratoren. Die Notstromversorgung befindet sich auf dem Stand der Technik, wurde nach dem Unfall in Fukushima-Daiichi nochmals überarbeitet und macht das Szenario eines kompletten, über mehrere Stunden andauernden Stromausfalls sehr unwahrscheinlich.

EINWIRKUNGEN VON AUSSEN

Der Reaktorbehälter und der Sicherheitsbehälter befinden sich in einer Reaktorgrube aus Stahlbeton, die auch einen Stahlbetondeckel besitzt. Die sicherheitsrelevanten Komponenten sind dadurch gegen verschiedene äußere Einwirkungen geschützt (siehe [3], S. 16 – 17):

♦  Erdbeben mit Horizontalbeschleunigungen bis zum 0,1fachen der Erdbeschleunigung

  Druckwelle einer Explosion bis zu einem Druck von 10 kPa

  Winddruck von bis zu 44 m/s in einer Höhe von 10 m

  Schneelast von 0,2 kPa

  Absturz eines kleineren Passagierflugzeugs von 5,7 t bei einer Absturzgeschwindigkeit von 360 km/h

Radioaktive Freisetzungen

Die radiologischen Freisetzungen beim Normalbetrieb des BN-800 lassen sich anhand der Erfahrungen mit älteren BN-Reaktoren wie dem BN-600 oder dem BN-350 nach oben abschätzen. Beim BN-800 liegen sie aufgrund von Verbesserungen jedenfalls unter diesen Werten. Konkret bedeutet dies eine Exposition von durchweg 0,0002 Millisievert (mSv) pro Jahr in 3 km Abstand vom Kraftwerk [3]. Selbst bei Störfällen bleiben die zeitweise erhöhten Freisetzungen unterhalb von 0,1 mSv pro Jahr. Zum Vergleich: Die deutsche Strahlenschutzverordnung erlaubt für die allgemeine Bevölkerung eine Exposition von 1 mSv pro Jahr; für beruflich strahlenexponierte Personen sind es 20 mSv pro Jahr.

Bei Unfällen, die die Auslegung des Reaktors nicht überschreiten, liegt die Strahlungsexposition in 3 km Abstand laut [3] ebenfalls unterhalb von 0,1 mSv pro Jahr.

Auslegungsüberschreitende Unfälle können eine Exposition von maximal 23 mSv pro Jahr hervorrufen. Da der Grenzwert für eine Evakuierung der Bevölkerung außerhalb der 3-km-Zone bei 500 mSv pro Jahr liegt, kommt [3] zu dem Schluss, dass kein Evakuierungsplan erforderlich sei.

Fazit

Insgesamt ist der BN-800 zweifellos eine gut durchdachte und sichere Anlage, auch wenn der Schutz gegen Flugzeugabstürze besser sein könnte. Der Nachfolger des BN-800, der BN-1200, wird weitere Verbesserungen des Sicherheitsniveaus bringen.

Quellen

[1] Начался физпуск БН-800! (First criticality of the BN-800 started!), Rosatom, 2013-12-25, https://www.facebook.com/photo.php?fbid=679673262073497&set=a.235888116452016.61246.233828576657970&type=1

[2] Новый энергоблок БН-800 Белоярской АЭС выйдет на полную мощность к концу 2014 года (New Beloyarsk BN-800 reaches full capacity by the end of 2014), Rosatom, 2013-12-25,http://www.rosatom.ru/journalist/announces/e826d7804250c6d887c6f722a8040f57

[3] BN-800 NPP, Joint Stock Company St. Petersburg Research and Design Institute ATOMENERGOPROEKT (JSC SPbAEP), 2011,http://www.spbaep.ru/wps/wcm/connect/spb_aep/site/resources/6d77898047832831a7a9ef9e1277e356/BN-800_2011_EN_site.pdf

[4] Beloyarsk 4 (BN-800) im Power Reactor Information System (PRIS) der IAEA,http://www.iaea.org/PRIS/CountryStatistics/ReactorDetails.aspx?current=451

[5] »Auch Benzin ist brennbar«, Interview mit Sergey Boyarkin, 2013-08-28,http://www.heise.de/tr/artikel/Auch-Benzin-ist-brennbar-1941081.html

[6] BN-1200, Advanced Reactor Information System (ARIS), IAEA,https://aris.iaea.org/PDF/BN-1200.pdf

[7] Transient and accident analysis of a BN-800 type LMFR with near zero void effect – Final report on an international benchmark programme supported by the International Atomic Energy Agency and the European Commission 1994-1998, http://www-pub.iaea.org/MTCD/publications/PDF/te_1139_prn.pdf

[8] Core Design and Fuel Cycle of Advanced Fast Reactor With Sodium Coolant, V.M. Poplavsky, A.M. Tsiboulia, Yu.S. Khomyakov, V.I. Matveev, V.A. Eliseev, A.G. Tsikunov (SSC RF − IPPE, Russia), B.A. Vasiliev, S.B. Belov, M.R. Farakshin (OKBM, Russia),
International Conference on Fast Reactors and Related Fuel Cycles (FR09) – Challenges and Opportunities, December 7 – 11, 2009, Kyoto, Japan, http://www-pub.iaea.org/mtcd/meetings/PDFplus/2009/cn176/cn176_Presentations/parallel_session_1.1/01-05.Khomyakov.pdf

[9] Overview of SFR in Russia, Second Joint GIF – IAEA/INPRO Workshop on Safety Aspects of Sodium-Cooled Fast Reactors, 30 November – 1 December 2011,http://www.iaea.org/INPRO/cooperation/Second_IAEA-GIF_WS_on_SFRs/presentations/T1-Russia.pdf

[10] Sodium-Cooled Fast Reactors: Current Status and Proposals for the Second Workshop, Y.М. Аshurko, State Scientific Center of the Russian Federation – Institute for Physics and Power Engineering (SSC RF – IPPE), Оbninsk, Russian Federation, 5th GIF/INPRO Interface Meeting, IAEA HQs, Vienna, Austria, 3 – 4 March 2011,http://www.iaea.org/INPRO/cooperation/5th_GIF_Meeting/RF.pdf

[11] Fuels for advanced sodium cooled fast reactors in Russia: state –of-art and prospects, L. M. Zabudko, V.M. Poplavsky, I.A. Shkaboura, M.V. Skupov, F.V. Bychkov, V.A. Kisly, F.N. Kryukov, B.A. Vasiliev, International Conference on Fast Reactors and Related Fuel Cycles (FR09), 7-11 December 2009, Kyoto, Japan, http://www-pub.iaea.org/mtcd/meetings/PDFplus/2009/cn176/cn176_Presentations/plenary_session_5/INV-02.Zabudko.pdf

[12] Russia speeds up nuclear investment, World Nuclear News, 2012-11-22,http://www.world-nuclear-news.org/NP_Russia_speeds_up_nuclear_investment_2211121.html

[13] Neue russische Kernreaktoren sollen Atommüll vernichten, Nuklearia, 2013-11-23,http://nuklearia.de/2013/11/23/neue-russische-kernreaktoren-sollen-atommuell-vernichten/

[14] Beloyarsk 4 criticality soon, World Nuclear News, 2013-12-30, http://www.world-nuclear-news.org/NN-Beloyarsk-4-criticality-soon-3012131.html

[15] Development of physical conceptions of fast reactors, Y.S. Khomyakov, V.I. Matveev, A.V. Moiseev, International Conference on Fast Reactors and Related Fuel Cycles: Safe Technologies and Sustainable Scenarios (FR13), Paris, France, 4 – 7 March 2013,http://www.iaea.org/NuclearPower/Downloadable/Meetings/2013/2013-03-04-03-07-CF-NPTD/T1.1/T1.1khomiakov.pdf

Dieser Eintrag wurde zuerst veröffentlicht in  Nuklearia  und wurde dort von BN-800ReaktortypenSchneller Reaktor übernommen




Weltregierung und Öko-Diktatur: Wer steckt hinter dem Klimaschwindel ?

Der Beweis: Es ist seit dem vorletzten Jahrhundert etwas wärmer geworden auf der Erde. Nicht der jetzt vor seinem Rücktritt stehende Vorsitzende des IPCC, der indische Eisenbahningenieur Rajendra Pachauri, ist der Oberguru dieser eigenartigen Wissenschaftsdisziplin, sondern der deutsche Physiker Hans Joachim Schellnhuber. Er ist der Chef des 1991 von ihm mitbegründeten Potsdam-Instituts für Klimafolgenforschung (PIK). Was steckt eigentlich wirklich dahinter ?

Das PIK-Institut, das heute über 300 Mitarbeiter zählt, gilt als wichtigste »Denk-fabrik« für die so genannte Klimapolitik der UNO. Hier entwickelte Schellnhuber die im Jahre 2009 auf dem »Klimagipfel« von Kopenhagen angenommene Forderung, den Anstieg der Durchschnittstemperatur über den Landmassen der Erde auf maximal zwei Grad Celsius zu begrenzen. Andernfalls droht angeblich die Klimakatastrophe. Als einziger Wissenschaftler der Welt durfte Schellnhuber am 15. Februar 2013 auf einer Sondersitzung des Weltsicherheitsrates der UN über den Klimawandel berichten. Was aber ist Klimafolgenforschung eigentlich ?

Die ehrliche Antwort: Wir wissen es im Grunde bis heute nicht. Mit Wetter und Klima hatte der 1950 in Ortenburg (Bayern) geborene Schellnhuber jedenfalls während seines Studiums an der Universität Regensburg nichts zu tun. Er studierte Physik und Mathematik und promovierte über ein theoretisches Thema der Festkörperphysik. Als Post-Doktorand beschäftigte er sich danach an der University of California in Santa Barbara mit komplexen Systemen und der Chaostheorie. 1985 habilitierte er sich an der Universität Oldenburg. Dort wurde er 1989 Professor für Theoretische Physik am Institut für Chemie und Biologie des Meeres (ICBM). In dieser Position kam er nun nicht umhin, sich auch mit Klimaveränderungen an der Nordseeküste zu beschäftigen, was ihn in den Augen der Wissenschaftsbürokraten im Bundesministerium für Forschung und Technologie für die Stelle des Gründungsdirektors des PIK qualifizierte.

Im Jahre 1992 wurde Schellnhuber in den neunköpfigen »Wissenschaftlichen Beirat der Bundesregierung Globale Umweltveränderungen« (WBGU) berufen und wurde Vorsitzender dieses Gremiums. 1995 forderte Schellnhuber im Namen des WBGU erstmals öffentlich die Ausrichtung der Politik am Ziel, die globale Erwärmung auf zwei Grad gegenüber dem vorindustriellen Niveau zu begrenzen. Diese Forderung wurde bald sowohl von der Bundesregierung als auch von der EU übernommen und fand Ende 2009 Eingang in den »Copenhagen Accord« der Vereinten Nationen.

Posten für den Lobbyisten

Im Jahr 2007 wurde Schellnhuber während der G8-Präsidentschaft Angela Merkels zum Chefberater der Bundesregierung in Sachen Klimawandel ernannt. Seit jenem Jahr berät Schellnhuber im Sinne des Zwei-Grad-Ziels auch Jose Manuel Barroso, den Präsidenten der EU-Kommission. Außerdem wurde er Mitglied des Climate Change Advisory Board der Deutschen Bank, die ihren Kunden in Europa Investitionen in sogenannte Erneuerbare Energien empfiehlt, während sie ihren Kunden in Asien Investitionen in australische Kohleminen nahelegt. Um seinen Aufstieg zum »Klimapapst« zu unterstreichen, wurde Schellnhuber mit Auszeichnungen überhäuft. Im Jahre 2004 verlieh ihm die britische Königin den Titel »Commander of the Most Excellent Order of the British Empire (CBE)«. Die Abkürzung CBE prangt seither auf Schellnhubers Visitenkarte. Da konnte die Deutsche Bundesstiftung Umwelt nicht nachstehen. Sie verlieh Schellnhuber im Jahre 2007 den Deutschen Umweltpreis. Im Jahre 2011 erhielt Schellnhuber das Verdienstkreuz.

Für einige Misstöne sorgte jedoch im gleichen Jahr das Hauptgutachten des WBGU unter dem Titel »Welt im Wandel. Gesellschaftsvertrag für eine Große Transforma-tion«, das die Handschrift Schellnhubers trägt. Darin heißt es: »Der fossilnukleare Metabolismus der Industriegesellschaft hat keine Zukunft.« Dringend nötig sei deshalb ein »neuer globaler Gesellschaftsvertrag«, das heißt eine Weltrevolution durch eine umfassende »Global-Governance-Architektur« (Weltregierung). »Die bisherigen großen Transformationen der Menschheit waren weitgehend ungesteuerte Ergebnisse evolutionären Wandels. Die historisch einmalige Herausforderung der nun anstehenden Transformation zur klimaverträglichen Gesellschaft besteht darin, einen umfassenden Umbau aus Einsicht, Umsicht und Voraussicht voranzutreiben«, heißt es in der Zusammenfassung des Gutachtens. Deutlicher kann man die Öko-Diktatur durch einen »gestaltenden (Welt-)Staat« kaum umschreiben. Selbst die Frankfurter Allgemeine sah darin die Beschreibung einer »herzlichen Öko-Diktatur« durch einen kleinen Kreis Erleuchteter, die vorgeben, im Auftrag der ganzen Menschheit zu handeln. Kein Wunder, dass das von Philipp Rösler (FDP) geleitete Bundeswirtschaftsministerium sich zunächst dagegen sperrte, Schellnhuber erneut zum Vorsitzenden des WBGU zu nominieren. Doch wie so oft besann sich Rösler schon nach wenigen Tagen anders und stimmte im Mai 2013 der Verlängerung der Amtszeit Schellnhubers bis Oktober 2016 zu.[1] Das Zwei-Grad-Ziel der Klimapolitik wird also wohl auch von der neuen Bundesregierung nicht in Frage gestellt werden. Wie kam Schellnhuber überhaupt zu dieser eingängigen Formel ?  In unzähligen Konferenz- und Fernsehauftritten erweckte er den Eindruck, es handele sich dabei um das Ergebnis jahrelanger geduldiger Analysen von Wetterdaten. Dem ist aber beileibe nicht so. In den dickleibigen Berichten des IPCC findet sich keine logische Ableitung des Zwei-Grad-Ziels. Die Frankfurter Allgemeine hat im Dezember 2009 darauf hingewiesen, dass die Zwei-Grad-Marke aus einer Grafik von 1977 (!) stammt, mit der der Umweltökonom William D. Nordhaus eine Modellannahme illustrieren wollte. Er hatte angenommen, die Durchschnittstemperatur auf der Erde solle die bisherige Bandbreite der Temperaturen im jüngsten Erdzeitalter nicht überschreiten.

Hier werden Äpfel mit Birnen verglichen

Das Zwei-Grad-Limit kam also, ähnlich wie die Drei-Prozent-Grenze der Staatsverschuldung im Maastricht-Vertrag der EU, eher zufällig in die Diskussion. Doch Schellnhuber vergleicht die Zwei-Grad-Erhöhung der Durchschnittstemperatur der Erdoberfläche mit Fieber beim Menschen. So gelingt ihm unter der Hand die Vermischung von sachlichen Feststellungen mit normativen Aussagen. Denn die Erhöhung der Körpertemperatur von 37 auf 39 Grad ist beim Menschen ein negatives Signal. Gilt das auch für einen gleich großen Temperatursprung auf der Erde ?  Höchstwahrscheinlich nicht, denn er entspricht gerade mal dem durchschnittlichen Temperaturunterschied zwischen Kopenhagen und Wien.

 

Das Talent zu herumeierndem Geschwätz ist die Mindestanforderung, um im politischen Betrieb Karriere zu machen oder Steuergelder für ein zweifelhaftes, pseudowissenschaftliches Institut locker zu machen

Die Süddeutsche Zeitung: Plattform für groben Klima-Unsinn des PIK-Professors Stefan Rahmstorf

Redaktion

Kopp.Online, 25.09.2013 – Die Klima-Verlautbarungen von Stefan Rahmstorf, Professor am Potsdamer Institut für Klimafolgenforschung (PIK) und der Süddeutschen Zeitung (SZ) sorgen bei fachkundigeren Zeitgenossen schon lange für anhaltenden Humor. Diese beiden Qualitäts-Leuchttürme in Sachen Klimaberichterstattung zusammen bieten dann natürlich besondere Leckerbissen an kuriosen Verdrehungen, reinen Erfindungen und grün-rotem Klimakatastrophen-Klamauk. Genießen Sie einfach den Quatsch, vermutlich und leider wird er uns nicht mehr allzu lange geboten !

Der betreffende Artikel der Süddeutschen Zeitung erschien am 19. September 2013 unter dem Titel »Die fünf großen Klima-Irrtümer, ein Gastbeitrag von Stefan Rahmstorf« (hier). Wir greifen nur einige Kernaussagen von Rahmstorf heraus, denn die von ihm geäußerten Fragwürdigkeiten und Kuriositäten kann man unmöglich in ihrer Gänze kommentieren, die Tastatur sträubt sich. Greifen wir daher nur den gröbsten sachlichen Unsinn heraus. Rahmstorf schreibt beispielsweise über den Inhalt des zu erwartenden neuen IPCC-Reports:

Er wird uns mit unzähligen Messdaten wieder einmal klar vor Augen führen: Die Erde heizt sich immer weiter auf, die Eismassen schmelzen, der Meeresspiegel steigt, bestimmte Extremereignisse werden häufiger oder heftiger. Hauptursache ist der durch uns verursachte Anstieg der Treibhausgase in der Lufthülle unserer Erde.

An diesen Behauptungen ist buchstäblich JEDES Wort sachlich falsch. Im Einzelnen:

1.  Die Erde heizt sich keineswegs immer weiter auf. Seit 15 Jahren ist zumindest Stillstand. Da dies inzwischen fast schon jedem aufgeweckten Schulkind bekannt ist – nur nicht Rahmstorf – verzichten wir auf nähere Erläuterungen und zitieren nur hier, hier und hier.

2.  Die Eismassen (welche und wo ?) schmelzen keineswegs überall. Diese Aussage von Rahmstorf ist unzutreffend. In der Antarktis nehmen die Eismassen zu, am Nordpol dagegen ab, wobei sich all diese Vorgänge im bekannten klimahistorischen Normalbereich bewegen. Nebenbei angemerkt: Die arktische Meereisbedeckung erreichte in diesem Sommer ein Langzeitmaximum (hier, hier, hier). Denn zwischendurch erholte sich das Meereis der Arktis mal soeben und nahm um glatte 60 Prozent gegenüber dem Vorjahr zu. Das hatte sogar die Berliner BZ bemerkt, nur Rahmstorf nicht.

3.  Der Meeresspiegel steigt seit Ende der letzten Kaltzeit, ein Zusammenhang mit anthropogenen Treibhausgasemissionen ist nicht nachweisbar (hier, hier).

4.  Extremwetter werden nicht heftiger, hier kennt Rahmstorf noch nicht einmal den Extremwetterbericht des IPCC selbst (hier), der nichts über Extremwetterzunahmen berichtet, sondern solche nur in Zukunft VERMUTET. Nun ja, Rahmstorf wird den Bericht wohl kennen, es sei erlaubt, in diesem Zusammenhang an das hübsche Bonmot Mark Twains zu erinnern: »Man sollte die Tatsachen kennen, bevor man sie nach Belieben verdreht.«

5.  Absoluter Höhepunkt der von Rahmstorf vorgebrachten Fragwürdigkeiten und Erfindungen ist dann seine letzte Aussage von der Schuld des Menschen an einem gefährlichen Klimawandel infolge des Emittierens von Treibhausgasen. Nun ist in der Tat der Mensch an vielem schuld: So etwa weltweit an der Rodung von Tropenwäldern, der Verschmutzung und Leerfischung der Weltmeere, an der Verminderung der biologischen Artenvielfalt, aber insbesondere auch hierzulande an der Verspargelung von Kulturlandschaften mit Vögel- und Fledermaus-mordenden Windradungetümen, an der Schädigung der Äckerboden-Biovielfalt durch Energiemaismonokulturen und an der durch Energiepflanzen bedingten Nahrungsverteuerung in Ländern der Dritten Welt usw. usw. usw.

Die der Fachliteratur zu entnehmenden Klima-FAKTEN geben freilich KEINE Schuld des Menschen an irgendeiner Klimaänderung in irgendeiner Klimazone unserer Erde her. Definitiv nicht, es tut uns ja für den PIK-Professor schrecklich leid. Bis heute ist keine begutachtete Fachveröffentlichung bekannt, die einen Zusammenhang von anthropogenen Treibhausgasemissionen und bodennahen Erdtemperaturen beweiskräftig nachweisen kann. Die Korrelation von CO2-Anstieg und Globaltemperaturen ist miserabel schlecht, um es zurückhaltend auszudrücken. Auf der anderen Seite gibt es jede Menge begutachteter Fachpublikationen, die das Gegenteil von Rahmstorfs kurioser Behauptung belegen [3]-[10].

Zu Punkt 1 und 5 ist vielleicht noch anzumerken, dass in Proxy-Temperaturreihen bereits der letzten 2000 Jahre mehrfach Temperatursprünge (erwärmende, aber auch abkühlende) auffindbar sind, die allen Sprüngen bzw. Veränderungen des 20. Jahrhunderts an Stärke und Geschwindigkeit zumindest gleichkamen bzw. diese sogar übertrafen. So zu sehen beispielsweise in der Temperaturreihe von Christiansen/Ljungqvist [1], aber auch in der Stalagmitenreihe von Augusto Mangini [2]. Wenn man noch weiter als 2000 Jahre zurück geht, wird es sogar noch wesentlich heftiger (Ende der Weichsel-Kaltzeit).

Rahmstorf – die Süddeutsche zeigt ein Nahfoto seines Blicks, der vielleicht den einen oder anderen Psychologen nachdenklich werden lässt – teilt seine Argumentation in fünf Punkte auf. Punkt 2 bis 5 sind unter sachlichen Kriterien nichts anderes als herumeierndes Geschwätz. Jede Bestätigung seitens seriöser Fachliteratur fehlt für diese eigenartigen, zum Teil abstrusen Behauptungen und Erfindungen. EIKE ist bereits früher in zahlreichen News auf derartige »Argumente« der Klima-Alarmisten eingegangen und hat sie sachlich richtig gestellt. Es lohnt daher nicht mehr, auf diesen sachlichen Quatsch nochmal im Einzelnen zurückzukommen, der Leser braucht nur im EIKE-Archiv (s. EIKE-Suchfunktion) nachzusehen.

Wirklich interessant ist eigentlich nur die wohl beliebteste Unsinnsbehauptung von einem »97-Prozent-Konsens« aller Klimaforscher. 97 Prozent seien angeblich der Meinung Rahmstorfs bzw. des IPCC. Der Leser möge sich hier, hier und hier informieren. Diese drei Zitate sind keineswegs vollständig, mehr Artikel zum »Konsens« findet man mithilfe der EIKE-Suchfunktion. Man muss schon ein dickes Brett vor dem Kopf haben, um die besagten 97 Prozent woanders als unter der Rubrik »Faschingswitze« abzulegen.

Was können wir aus dem Artikel der Süddeutschen Zeitung und aus Rahmstorfs Bemühungen eigentlich lernen ?  Rahmstorf und die SZ belehren uns über den unvermeidbaren Klima-Untergang der Welt, dem wir nur entkommen können, wenn wir uns kasteien, also kein Auto mehr fahren, statt Fleisch Brennnesseln verzehren, unsere Wohnungen nicht mehr mit fossilen Brennstoffen heizen (CO2-freier Strom aus Kernkraftwerken darf es paradoxerweise auch nicht sein) usw. usw.

Mit anderen Worten »zurück in die Steinzeit« !  Unverkennbar wird es einsamer um Klima-Mönche, politische Klima-Rattenfänger und Medien, die ihrem gesetzlichen Auftrag nach faktengerechter Berichterstattung nicht nachkommen wollen. Immer weniger Zeitgenossen nehmen das nicht enden wollende Klimakatastrophen-Gelabere überhaupt noch ernst. Das wird natürlich von den einschlägigen Protagonisten der Klimakatastrophe bemerkt – daher ihre permanente Erhöhung von Lautstärke und Frequenz sowie die Erniedrigung des Qualitätsniveaus.

Ob es etwas nützt ?  Man darf es füglich bezweifeln. Schlussendlich darf man natürlich auch einmal fragen, was die ernsthaften Klimaforscher – doch, doch, liebe Leser, die gibt es tatsächlich, das grün-rote Propagandablatt SZ beliebt es freilich, diese schweigende Mehrheit nicht zur Kenntnis zu nehmen – über ihren Kollegen Rahmstorf denken. Sehr wahrscheinlich gibt es in der kollegialen Beurteilung von Rahmstorf WIRKLICH einen 97-Prozent-Konsens. Welchen Konsens, lassen wir besser in freundlicher Unklarheit zurück. Wir wollen schließlich höflich gegen die Leuchten der aktuellen deutschen Klimaforschung, insbesondere die des PIK sein.

Fußnoten:

[1] B. Christiansen und F.C. Ljungqvist: »The extra-tropical Northern Hemisphere temperature in the last two millenia: reconstruction of low-frequency variability«, Clim. Past. 8. 765-786, 2012

[2] A. Mangini, C. Spötl, P. Verdes: »Reconstruction of temperature in the Central Alps during the past 2000 yr from a d18O stalagmite record«, Earth and Planetary Science Letters 235, 741-751, 2005

[3] R.S. Lindzen und Y-S. Choi: »On the Observational Determination of Climate Sensitivity and Its Implications«, Asia-Pacific J. Atmos. Sci. 47(4), 377-390 (2011)

[4] R.P. Allen: »Combining satellite data and models to estimate cloud radiative effect at the surface and the atmosphere«, Meteorol. Appl. 18, 324-333 (2011)

[5] R.W. Spencer und W.D. Braswell: »On the Misdiagnosis of Surface Temperature Feedbacks from Variations in Earth’s Radiant Energy Balance«, Remote Sensing 3(8) (2011)

[6] R.W. Spencer und W.D. Braswell: »On the diagnosis of radiative feedback in the presence of unknown radiative forcing«, Journal of Geophysical Research, Vol. 115 (2010)

[7] G. Paltridge et al.: »Trends in middle- and upper-level tropospheric humidity from NCEP reanalysis data«, Theor. Appl. Climatol. 98 (2009)

[8] M. Beenstock, Y. Reingewertz und N. Paldor: »Polynomial cointegration tests of anthropogenic impact on global warming«, Earth Syst. Dynam. 3, 173-188 (2012)

[9] H. Harde: »How much CO2 really contributes to global warming? Spectroscopic studies and modelling of the influence of  H2O, CO2 and CH4 on our climate«, Geophysical Research Abstracts, Vol. 13, EGU2011-4505-1 (2011), http://meetingorganizer.copernicus.org/EGU2011/EGU2011-4505-1.pdf

[10] F. Miskolczi: »The stable stationary value of the Earth’s global average atmospheric Planck-weighted greenhouse-gas optical thickness«, E&E, 21, No. 4 (2010)


[1]     Wer hatte Rösler da an den Ohren gezogen ?   Big Money, vertreten durch die Deutsche Bank ???




Fehlende Rechenschaftspflicht umwölkt die Debatte zur Klimaänderung

Bild rechts: John Spooner.

Eigentlich sollten Journalisten allen Behauptungen gegenüber, zu welchem Thema auch immer, skeptisch sein, aber dieser Skeptizismus fehlt normalerweise, wenn es um Klima geht.

Das IPCC hatte von Anfang an die Aufgabe, „neueste wissenschaftliche Veröffentlichungen aus aller Welt, die für die Einschätzung des Risikos eines von Menschen verursachten Klimawandels von Belang sind, auszuwerten und Optionen zur Anpassung und Eindämmung zu analysieren“.

Das IPCC konzentriert sich also nur auf einen ganz speziellen Bereich – den Nachweis eines menschlichen Einflusses auf das Klima. Es war und ist nicht befugt, andere Gründe für Klimaänderungen zu untersuchen. In den IPCC-Zustandsberichten wird behauptet, dass der menschliche Einfluss signifikant ist. Aber wenn man näher hinschaut, erkennt man, dass die Behauptungen auf Ergebnissen von Klimamodellen basieren, die dem Eingeständnis des IPCC selbst zufolge falsch sind; dass das IPCC oftmals eine Sicherheit vorgaukelt, die aus den Daten nicht hervorgeht, und – wie Klimagate gezeigt hat – dass eine Clique von Wissenschaftlern in der Vergangenheit versucht hat, Kontrolle über das in diesen Berichten genannte Material zu erlangen.

Was als wissenschaftlicher Bericht daherkommt, wird zu einem politischen Instrument, weil eine Kerngruppe von IPCC-Unterstützern die Summary for Policymakers entwirft. Die Regierungsvertreter diskutieren und verhandeln darüber, wobei bisweilen die Wortwahl in jedem einzelnen Satz Gegenstand hitziger Debatten ist. Die wissenschaftliche Komponente des Berichtes wird dann so zurechtgebogen, dass sie zur politischen Linie der Regierungen passt.

Würde man die IPCC-Berichte als genau das akzeptieren, was sie sind – nämlich übertriebene Wissenschaft mit einem gehörigen Schuss Politik – wäre das Thema erledigt. Unglücklicherweise wollen uns zahlreiche Institutionen aktiv glauben machen, dass die Berichte durch und durch wissenschaftlich, akkurat und vollständig sind.

An vorderster Front derjenigen, die dem IPCC ein weiter gefasstes Aufgabengebiet unterstellen als es hat, ist das United Nations Framework Convention on Climate Change (UNFCCC). Auf dem Gründungstreffen im Jahre 1992 erklärte das UNFCCC, dass anthropogene CO2-Emissionen eine signifikante und gefährliche Klimaänderung verursachen. Dieses Statement hat keinerlei Faktenbasis. Es war Aufgabe des IPCC zu bestimmen, ob das korrekt war. Das hat es seit 1992 nicht getan, und trotz gegenteiliger Versicherungen hat es bisher keine glaubwürdigen Beweise zur Unterstützung dieser Behauptung vorbringen können.

Die Betrügerei des UNFCCC setzt sich fort, und zwar in den jährlichen Konferenzen, auf denen versucht wird, die Länder zur Reduktion von CO2-Emissionen zu zwingen, und das trotz des Fehlens irgendeines klaren Beweises, der solche Aktivitäten rechtfertigt. Jede Konferenz wird begleitet von einem publicity blitz [dieses Wortspiel im Original spricht für sich! A. d. Übers.] vor, während und nach der Konferenz, wobei jedes Mal die Ergebnisse des IPCC und die Angabe, wie sicher diese Ergebnisse sind, erheblich übertrieben werden. Es wird auch der politische Einfluss auf die Berichte überwacht und fälschlich vorgegeben, dass die Bandbreite der Untersuchungen des IPCC weit über dessen Mandat hinausgeht. Der oberste Sekretär der UNFCCC wird vom UN-Generalsekretär ernannt und ist diesem Rechenschaft schuldig. Dies impliziert, dass die Betrügereien des UNFCCC von obersten Stellen in den UN abgesegnet werden.

Eine noch höhere Instanz, bei der man sich beschweren könnte, gibt es nicht.

Nicht weit hinter dem UNFCCC folgen Institutionen der Regierung wie etwa das Department of Climate Change und die jetzt privatisierte Climate Commission, die leidenschaftlich die IPCC-Einsichten verbreiten. In manchen Fällen wurden diese Institutionen allein zu diesem Zweck gegründet, und in den meisten Fällen sollen sie die Politik der Regierung unterstützen. Genau wie das UNFCCC behaupten diese Institutionen fälschlich, dass das IPCC alle Aspekte der Klimawissenschaft abdeckt.

Als Nächstes kommen die Umweltorganisationen wie Greenpeace und der WWF, außerdem die Industrie erneuerbarer Energie, die eigennützige Motive haben und die IPCC-Ansichten weiter verbreiten, wobei sie implizit vorgeben, dass das IPCC die ultimative Autorität für sämtliche Klimabelange ist.

Wir sollten auch nicht die Wissenschaftler vergessen, die sich öffentlich hinter das IPCC stellen. Einer großen Anzahl von Menschen ein spezifisches Motiv zu unterstellen ist sinnlos, aber darunter sind wahrscheinlich auch Leute, die bestimmten Levels des Glaubens angehören und natürlich Leute, deren Einkommen und Reputation von der Vertretung der IPCC-Positionen abhängen.

Die Öffentlichkeit würde von den Äußerungen all der oben Genannten kaum Notiz nehmen, gäbe es da nicht die Mainstream-Medien. Journalisten sollten eigentlich skeptisch hinsichtlich aller Behauptungen zu jedwedem Thema sein, aber dieser Skeptizismus fehlt normalerweise, wenn es um das Thema Klima geht. Aus welchen Gründen auch immer scheinen die Journalisten unwillig zu sein, die Daten zu hinterfragen und die Ergebnisse nachzuvollziehen; oder auch die Vorhersagen zu verfolgen, um zu sehen, ob diese korrekt sind. Die Stille zu all diesen Dingen impliziert stillschweigend und fälschlich, dass die IPCC-Ansichten korrekt sind und es eine Autorität hinsichtlich aller Belange des Klimas ist.

In Wirklichkeit ist das IPCC im Endeffekt kaum mehr als eine von den UN gesponserte Lobbygruppe, gegründet nur zu dem Zweck, die Linie der „vom Menschen verursachten Erwärmung“ zu verfolgen. Ohne andere gleichartige Organisationen zur Untersuchung anderer potentieller Gründe für Klimaänderungen wird nur die Stimme des IPCC gehört. Aber die Stimme des IPCC wird aus dem Zusammenhang gerissen und gehört, ohne die notwendigen Fehler zu benennen; sie wird mittels des UNFCCC und anderer verzerrt, die implizieren, dass das IPCC die einzige wissenschaftliche Autorität in Klimafragen ist.

Natürlich unterstützen die Vertreter eigennütziger Interessen das IPCC, darunter Regierungen, Politiker, Regierungsagenturen, „grüne“ Gruppen und viele Wissenschaftler. Ultimativ sind es aber die nicht nachfragenden Medien, oder vielleicht Medien, die nicht einräumen wollen, dass die UN und seine Agenturen möglicherweise unehrlich sind oder unrecht haben, die der Öffentlichkeit das IPCC als ein unfehlbares Medium verkaufen.

John McLean

Anmerkung der Redaktion:

Den hier aufgeführten IPCC Machenschaften hat sich bisher als einzige investigative Journalistin weltweit unsere Autorin Donna Laframboise angenommen. Ihr Buch darüber ist auch auf Deutsch erschienen. Sie können es z.b. hier erwerben.

John McLean ist der Autor von drei wissenschaftlich begutachteten Studien zum Klima und Experten-Begutachter des jüngsten IPCC-Berichtes. Er ist auch ein Analyst von Klimadaten und Mitglied der International Climate Science Coalition ICSC.

Read more: http://www.brisbanetimes.com.au/comment/lack-of-accountability-clouding-the-climate-change-debate-20140102-307ja.html#ixzz2pcUrKz1Z

Link: http://www.brisbanetimes.com.au/comment/lack-of-accountability-clouding-the-climate-change-debate-20140102-307ja.html

Übersetzt von Chris Frey EIKE




Überbevölkerung: Die Täuschung hinter der Täuschung der globalen Erwärmung

„Der allgemeine Feind der Menschheit ist der Mensch. Auf der Suche nach einem neuen, uns einigenden Feind kam uns der Gedanke, dass Verschmutzung, die Bedrohung durch die globalen Erwärmung,  Wasserknappheit, Hungersnöte und dergleichen diese Rolle einnehmen könnten. All diese Gefahren haben ihren Ursprung in menschlicher Einmischung, und man kann sie nur überwinden durch verändertes Verhalten. Der wirkliche Feind ist demnach die Menschheit selbst“.

Sie glauben, dass all diese Probleme dem Menschen geschuldet sind, aber durch technologische Fortschritte einer wachsenden Bevölkerung abgemildert werden. Verändertes Verhalten bedeutet im Grunde, was Thomas Malthus mit seinem Gedanken in die Welt gesetzt hat, dass die Welt überbevölkert ist. Er glaubte, dass Wohltätigkeit und Hilfe für die Armen eine Hauptursache des Problems sei, und dass es notwendig sei, die Bevölkerung durch Regeln und Vorschriften zu reduzieren. Die Bemühungen des TCOR gipfelten in den politischen Aktivitäten der Konferenz von Rio 1992, die von Maurice Strong (einem TCOR-Mitglied) unter dem Umweltprogramm der UN (UNEP) organisiert worden ist.

Die Hypothesen und Objektiven wurden zur Hauptstruktur der Agenda 21, dem Masterplan für das 21. Jahrhundert. Der Bedrohung durch die globale Erwärmung wurde in Rio Rechnung getragen mit der Gründung des UNFCCC (United Nations Framework Convention on Climate Change) und der Schaffung des IPCC. Dessen Aufgabe war es ausschließlich, Beweise dafür zu finden, dass menschliches CO2 ein Beitrag des allgemeinen Feindes sei.

Das IPCC war dabei sehr erfolgreich. Trotz aller Enthüllungen über korrumpierte Wissenschaft und ihrer gescheiterten Vorhersagen (Projektionen) steht CO2 immer noch im Mittelpunkt der Aufmerksamkeit hinsichtlich Energie und Umwelt. Beispielsweise wird auf zahlreichen Websites der Regierung der CO2-Ausstoß neuer und gebrauchter Autos aufgelistet. Autobauer arbeiten daran, Autos mit immer geringerem CO2-Ausstoß zu bauen und damit zu werben, und sei es auch nur zu dem Zweck, möglichst grün dazustehen. Die Autoindustrie, welche die Wissenschaftler in ihren Reihen hat, die es besser wissen, hat sich hinsichtlich CO2 kollektiv den Öko-Schikanen unterworfen. Damit stehen sie nicht allein. Sie kommen damit durch, weil sie die unnötigen Kosten an eine umnebelte Bevölkerung weiterreichen, die „nur im Sinn hat, das Richtige zu tun“.

Der TCOR übertrug Malthus’ Behauptung auf einen Wettlauf auf alle Ressourcen bis zu deren Erschöpfung, der bereits im Gange sei. Sowohl Malthus als auch der COR glauben, dass die Begrenzung der Bevölkerung obligatorisch sei. Darwin hatte eine Ausgabe des Essay on Population bei sich und äußerte sich zu dessen Einfluss auf seine Evolutionstheorie in seinem Journal Beagle im September 1838. Die Saat der Verzerrung bzgl. Überbevölkerung wurde durch Darwins Akzeptanz der Malthus’schen Behauptungen gelegt.

In der von Paul Johnson erstellten Biographie von Charles Darwin wird der Widerspruch zwischen Darwins wissenschaftlichen Methoden und seine Akzeptanz der Malthus’schen Thesen kommentiert:

Malthus’ Ziel war es, Wohltätigkeit abzuschaffen und die bestehenden Armen-Gesetze zu reformieren, welche seinen Worten zufolge die Hilflosen ermutigen und so das Problem verschlimmern. Das war nicht Darwins Problem. Was ihn berührte, war der Kontrast zwischen der geometrischen Progression (Brüten) und der arithmetischen Progression (Nahrungsmittel). Er war kein Mathematiker und hat die Logik hinter Malthus‘ Einlassungen nie hinterfragt … tatsächlich war Malthus‘ Gesetz Unsinn. Er hat es nie bewiesen. Er hat es in den Raum gestellt. Das Fehlen auch nur eines kleinsten Beweises in seinem gesamten Werk war augenfällig. Warum ist Darwin das nicht aufgefallen? Ein Mysterium. Malthus’ einziger „Beweis” war die Bevölkerungszunahme in den USA.

Es gab keinen einzigen Punkt, an dem Malthus’ geometrischen/arithmetischen Regeln sich mit den bekannten Fakten trafen. Und er hatte keinerlei Grund, von den hohen Raten des amerikanischen Bevölkerungszuwachses auf einen stetigen Verdoppelungs-Effekt alle 25 Jahre zu schließen.

Er schluckte den Malthusianismus, weil es zu seinen emotionalen Bedürfnissen passte, er hat keine Tests durchgeführt und nicht den Skeptizismus an den Tag gelegt, den ein Wissenschaftler haben sollte. Es war eine seltene Abweichung von der Disziplin seines Fachgebietes. Aber es war eine sehr bedeutende.

Darwins Zustimmung zu Malthus gaben dessen Ideen eine Glaubwürdigkeit, die sie nicht verdient hatten. Seitdem hat die Malthus’sche Behauptung die Wissenschaft dominiert, ebenso wie die Sozialwissenschaft und zuletzt die Umweltbewegung. Selbst heute noch glauben viele, die die Falschheit der globalen Erwärmung durch die Menschen erkannt haben, dass Überbevölkerung ein echtes Problem ist.

In allen TCOR-Aktivitäten stand die Überbevölkerung im Mittelpunkt. Drei Bücher waren für diese Botschaft wesentlich, nämlich The Population Bomb (1968) und Ecoscience: Population, Resources and Environment (1977) von Paul Ehrlich, wobei er Letzteres zusammen mit Obamas Wissenschafts-Zaren John Holdren geschrieben hat. Außerdem Limits to Growth von Meadowes et al., veröffentlicht 1972. Darin war das Vorgehen des IPCC mittels Computervorhersagen (Projektionen) vermutet worden. Darin heißt es:

Falls sich die gegenwärtigen Wachstumstrends hinsichtlich Weltbevölkerung, Industrialisierung, Verschmutzung, Nahrungsmittelerzeugung und Ausbeutung von Ressourcen unverändert fortsetzen, werden die Grenzen des Wachstums auf diesem Planeten irgendwann während der nächsten 100 Jahre erreicht sein.

Auf der Website des COR heißt es:

Sie haben ein Computermodell erstellt, das die Beziehungen zwischen verschiedenen globalen Entwicklungen einbezieht und Simulationen für alternative Szenarien entwickelt. Teil der Modellierung waren die unterschiedlichen Mengen der möglicherweise erschließbaren Ressourcen, unterschiedliche Niveaus der landwirtschaftlichen Produktivität, Geburtenkontrolle und Umweltschutz.

Man schätzte die gegenwärtig verfügbaren Mengen einer Ressource, bestimmte die Verbrauchsrate und fügte eine steigende Nachfrage wegen zunehmender Industrialisierung und Bevölkerung hinzu und kam mit einfachen linearen Trendanalysen zu dem Ergebnis, dass die Welt dem Untergang geweiht ist.

Der Wirtschaftsexperte Julian Simon stellte den TCOR und die Hypothesen von Ehrlich in Frage.

Ehrlich hatte behauptet: „Wenn ich ein Zocker [gambler] wäre, würde ich sogar wetten, dass England im Jahr 2000 nicht mehr existieren würde“. Simon betrachtete diese Behauptung als zu dumm, um sich überhaupt damit zu befassen. Er reagierte mit einem „öffentlichen Angebot von 10000 Dollar … für meine Annahme, dass die Kosten von nicht von der Regierung kontrollierten Rohstoffen (einschließlich Getreide und Öl) langfristig nicht steigen werden“.

Simon schlug vor:

„Sie können Ihre eigenen Modalitäten festlegen: wählen Sie irgendeinen Rohstoff – Kupfer, Zinn, was auch immer – und wählen Sie irgendein Datum in der Zukunft, irgendein Datum, das über ein Jahr in der Zukunft liegt, und ich wette, dass der Preis dieses Gutes an jenem Datum niedriger sein wird als derzeit“.

John Holdren wählte die Materialien und den Zeitpunkt. Simon hat die Wette gewonnen.

Der globalen Erwärmung liegt der Gedanke zugrunde, dass sich das CO2 wegen zunehmender Industrialisierung und wachsender Bevölkerung bis auf schädliche Niveaus anreichern würde. Die politische Manipulation der Klimawissenschaft wurde mit Entwicklung und Kontrolle der Bevölkerung auf vielfache Weise verbunden. Hierzu gibt es einen Kommentar von Senator Tim Wirth aus einem PBS interview. Man hatte ihn gefragt: „Welches Ereignis Ende der achtziger Jahre hat Ihrer Ansicht nach zum Höhenflug des Themas globale Erwärmung geführt?“ Er erwiderte:

Ich glaube, dass es Ende der achtziger Jahre eine ganze Reihe von Ereignissen gegeben hat. Erstens gab es da den (NASA-Wissenschaftler) James Hansen 1988 … Wir hatten ein weitreichendes Gesetz eingebracht, und zwar ein Gesetz zur Klimaänderung mit 18 Punkten; darunter Bevölkerung, Konservierung – und auch Kernkraft. Es enthielt alles, was wir uns in Bezug auf die Klimaänderung vorstellen konnten … Und dann folgte die Reihe von Anhörungen, in denen Jim Hansen der Star-Zeuge war.

In Wikipedia liest man über Wirth:

Im State Department arbeitete er mit Vizepräsident Al Gore an globalen Umwelt- und Bevölkerungsthemen und unterstützte die Ansicht der Regierung zur globalen Erwärmung. Als Unterstützer des Kyoto-Protokolls verkündete Wirth den Einsatz der USA für gesetzlich bindende Grenzen von Treibhausgas-Emissionen.

Gore war 1988 bei der Hansen”-Anhörung der Vorsitzende und stand im Mittelpunkt der These, dass die Bevölkerung die Grundlage aller anderen Probleme sei. Er führte die US-Delegation bei der International Conference on Population and Development im September 1994 in Kairo.

Diese Konferenz war eine Fortentwicklung der Konferenz 1992 von Rio, auf der die Bevölkerung mit allen anderen vermeintlichen Problemen in Zusammenhang gebracht worden waren.

Die explizite Integration der Bevölkerung in wirtschaftliche Entwicklungsstrategien wird sowohl das Tempo der nachhaltigen Entwicklung und der Erleichterungen erhöhen und zum Erreichen von Bevölkerungs-Objektiven beitragen sowie zu einer Verbesserung der Lebensumstände.

Dieses Thema stand im Mittelpunkt der Rio+20-Konferenz im Juni 2012 und war dazu gedacht, der Rio-Konferenz des Jahres 1992 neuen Schwung zu verleihen.

Die Zahlen

Die Welt ist nicht überbevölkert. Jener Trugschluss zieht sich durch die gesamte Umweltforschung, die Politik und die Planungen, einschließlich der globalen Erwärmung und jüngst der Klimaänderung. Wie also sehen die Fakten hinsichtlich der Weltbevölkerung aus?

Das Zensus-Büro der USA gibt eine laufende Schätzung der Weltbevölkerung. Am 15. Februar 2012 wurden 6.994.551.619 Menschen vermutet. Am 30. Oktober 2011 ist Behauptungen der UN zufolge die 7-Milliarden-Grenze gerissen worden; der Unterschied beträgt 5.448.381. Das ist mehr als die Bevölkerung von 129 Ländern der 242 Länder, die von Wikipedia genannt werden. Der Unterschied bestätigt, dass die meisten statistischen Angaben hierzu grobe Schätzungen sind, vor allem jene der UN, die sich auf individuelle Mitgliedsländer stützen, obwohl es von dort keinen genauen Zensus gibt.

Die Bevölkerungsdichte ist ein bedeutenderer Parameter. Die meisten Menschen konzentrieren sich in küstennahen Gebieten und Flussmündungen, die etwa 5 Prozent der Landfläche ausmachen. Man vergleiche die Bevölkerung in Kanada, dem zweitgrößten Land der Welt mit etwa 35,3 Millionen Einwohnern geschätzt im Jahre 2013 mit Kalifornien mit einer geschätzten Bevölkerung von 37,3 Millionen Menschen (2010). Einige illustrieren die Bedeutungslosigkeit der Dichte, indem sie jeden in ein bekanntes Gebiet stellen. Zum Beispiel, dividiert man die Fläche von Texas, umgerechnet knapp 700.000 km² durch die Weltbevölkerung im Jahre 2012, 6.994.551.619 Menschen, kommt man auf eine Fläche von knapp 100 m² pro Person. Wenn man alle Menschen in ein Gebiet presst, ist das etwas anderes als die Möglichkeit, dort zu leben. Der größte Teil der Welt ist nicht von Menschen bewohnt.

Bevölkerungs-Geographen trennen das bewohnte Gebiet von den nicht bewohnten Gebieten. Die Verteilung in beiden ändert sich mit der Zeit infolge sich ändernder Technologie, Kommunikationsmöglichkeiten und der Kapazität zur Erzeugung von Nahrungsmitteln. Viele dieser Änderungen haben mit Klimakontrolle zu tun. Der Gebrauch von Feuer und Kleidung erlaubte das Überleben in kälteren Gebieten, während Bewässerung die Ansiedlung in ariden Gebieten möglich machte. Moderne Umweltschützer würden am liebsten alle diese evolutionären Fortschritte wieder abschaffen.

Ironischerweise ist das irrige Problem die Lösung

Das alles klingt nur zu vertraut bei der Ausbeutung der Wissenschaft für eine politische und persönliche Agenda. Aber es gibt eine sogar noch größere Tragödie, weil die Entwicklung, die TCOR und IPCC verdammen, tatsächlich die Lösung ist.

Alle Bevölkerungsvorhersagen von Ehrlich und Anderen waren falsch, aber wichtiger und auch verdammenswerter war, dass sie eine andere Entwicklung ignorierten, die man schon 1929 entdeckt hatte und die sich im gleichen Zeitraum wie die Malthus’schen Behauptungen entfaltete. Bekannt ist dies unter der Bezeichnung Demographic Transition [etwa: Demographischer Übergang].

Sie zeigt, was auch Statistiken bestätigen, dass die Bevölkerung mit zunehmender Industrialisierung und Wirtschaftswachstum abnimmt. In entwickelten Ländern ist dies so dramatisch, dass die Bevölkerungspyramide inzwischen in Schieflage geraten ist. Es gibt nicht mehr genügend junge Menschen gibt, um die massiven Sozialprogramme für die Älteren zu finanzieren. Einige Länder umgehen dieses Problem durch Einwanderung, was aber schlicht und ergreifend zu anderen Problemen führt. In Ländern, die die Zuwanderung nicht zulassen oder stark beschränken wie z. B. Japan gibt es ganz andere Probleme. Solche Länder bieten Anreize, mehr als zwei Kinder zu bekommen, so wie es Präsident Putin in Russland verkündet hat. China hat drakonische und unmenschliche Maßnahmen ergriffen, um die Ein-Kind-Politik durchzusetzen. Die Ironie liegt darin (obwohl daran nichts komisch ist), dass sie jetzt die größten Erzeuger von CO2 und des größten Wirtschaftswachstums sind. Wenn sie einfach nur den demographischen Übergang studiert und den Dingen einfach ihren Lauf gelassen hätten, dann hätten die schon eingetretenen und noch zu erwartenden Tragödien vermieden werden können.

Die Welt ist nicht überbevölkert. Malthus wartete mit dem Gedanken auf, dass die Bevölkerung irgendwann nicht mehr ausreichend mit Nahrung versorgt werden könnte. Die gegenwärtige Erzeugung von Nahrungsmittel würde Schätzungen zufolge 25 Milliarden Menschen ernähren, Tendenz wachsend. Der Punkt ist, dass in den Entwicklungsländern etwa 60 Prozent der Nahrungsmittel niemals auf dem Esstisch landen. In entwickelten Ländern liegt dieser Prozentsatz bei 30%, hauptsächlich durch Möglichkeiten der Kühlung. In ihrer blinden Begeisterung haben die gleichen Leute, die für das IPCC-Fiasko verantwortlich waren, die technologische Lösung dieses Problems bekämpft – bessere und billigere Kühlung. Das Thema CFC/Ozon wurde künstlich geschaffen, um CFCs zu verbannen und eine globale Kontrolle durch das Montreal-Protokoll einzuführen. Genau wie das Kyoto-Protokoll handelte es sich dabei um eine massive, teure, unnötige Lösung für ein nicht existierendes Problem.

TCOR und später die Agenda 21 des UNEP haben die Malthus’sche Denkweise zur Überbevölkerung übernommen und auf alle Ressourcen ausgeweitet. Sie ist inzwischen zur Grundsatzlehre aller Politiker und der gesamten Politik geworden. Das IPCC wurde ins Leben gerufen, um die Verantwortung für die globale Erwärmung oder jüngst der Klimaänderung dem menschlichen CO2 in die Schuhe zu schieben, und zwar CO2 von einer industrialisierten zunehmenden Bevölkerung. Beide gingen sie von falschen Hypothesen aus, haben manipulierte Daten und Wissenschaft benutzt, die sie in Computermodelle eingaben, die wenig überraschend falsch waren. Das Ergebnis ist, dass der Trugschluss der globalen Erwärmung infolge menschlichen CO2 ein Unterbereich des Trugschlusses der Überbevölkerung ist.

Link: http://wattsupwiththat.com/2014/01/05/overpopulation-the-fallacy-behind-the-fallacy-of-global-warming/

Übersetzt von Chris Frey EIKE




Auch 2014 wird sich das Wetter nicht nach unseren Wünschen richten!

So war Bundeskanzlerin Angela Merkel gut beraten, in ihrer Neujahrsansprache sich jeglicher Andeutung über den Verlauf des Wetters 2014 zu enthalten. Sie hob zwar die hohe Bedeutung der „Energiewende“ hervor, sagte aber mit keiner Andeutung, dass deren wahrer Endzweck die Stabilisierung des „Globalklimas“ und die Disziplinierung des „Klimawandels“ ist. Sollen die vielen Milliarden, die in die Energiewende investiert wurden und werden, am Ende doch wieder sinnlos verschwinden, ohne dass das Wetter davon die geringste Notiz nimmt? Wer sich das Klima „untertan“ machen will, muss zuerst sich das Wetter „untertan“ machen. Ist es diese Erkenntnis, die die Kanzlerin so mutlos erscheinen ließ? Ihrer Ansprache fehlte irgendwie die belebende Kraft, das mitreißende Feuer.

 

Zur Ermutigung trotz vieler Rückschläge weiterhin auf „wissenschaftlicher“ Basis das Klima zu „schützen“ hier eine Bedienungsanleitung des Physikers Vince Ebert

Bei der Ansprache für das Jahr 2013 hatte sie noch zu Beginn Adolph Kolping (1813-1865) zitiert: „Wer Mut zeigt, macht Mut!“ Am Ende bemühte sie den griechischen Philosophen Demokrit mit dem Satz: „Mut steht am Anfang des Handelns, Glück am Ende!“ Ist ihr vielleicht die Feststellung des bekannten amerikanischen Physikers Harald Lewis zu Herzen gegangen, der ohne Umschweif frei und offen sein Urteil fällte: „Die Erderwärmung ist der größte und erfolgreichste pseudowissenschaftliche Betrug der Neuzeit!“

Man kann dies in noch verständlicherer Form sagen, dass der Betrug schon mit der Wortwahl „Erderwärmung“ beginnt. Kein Körper kann sich aus eigner Kraft erwärmen. Keine Suppe wird von alleine heiß, keine Herdplatte von alleine glühend. Erst muss das Wasser im Heizkessel erhitzt werden und in die Heizkörper gepumpt werden, bevor diese ein Zimmer erwärmen. Das jeder Körper in Abhängigkeit seiner Temperatur Wärme abgibt, kühlt er sich ab, wenn er nicht mehr beheizt wird. Dieses erleben wir tagtäglich bei Sonnenuntergang. Dreht sich die Erde aus dem Lichtkegel des Heizstrahlers Sonne heraus, wird es Nacht, dann kühlt sich die Erde ab. Den Eindruck mit dem Wort „Erderwärmung“ zu erwecken, dass sich die Erde erwärmen könnte, ist irreführend. Sagt dies ein Physiker, dann ist es Betru

Teurer Abenteuerurlaub auf Eisbrechern zur Antarktis

Das Wetter ist immer für Überraschungen gut, wo auch immer auf dem Erdenrund. Kaum war Weihnachten vorbei, da suchte ein gigantischer Blizzard die USA heim. Aber auch eine Reise in den südlichen Sommer kann vom Wetter überrascht werden. Nachdem sich drei Eisbrecher aus Russland, China und Australien zum Jahreswechsel 2013/2014 vor der Antarktis trotz rasanter „Erderwärmung“ mitten im Hochsommer der Südhemisphäre im Packeis festgefahren haben und nun nach erster Rettung sehnlichst auf ihre Befreiung durch einen amerikanischen Eisbrecher warten, ist es schon interessant nachzulesen, was für Pläne 1963, also genau vor 50 Jahren, geschmiedet wurden. Damals herrschte noch Optimismus!

1963 wurde darüber spekuliert, die Antarktis mit einem Atomreaktor am Meeresgrund, in 3200 Meter Tiefe, zu erwärmen. „Eine Zentralheizung für die Antarktis“: Unter dieser Überschrift berichtete das populäre Technik-Magazin „Hobby“ (Nr. 5/1963, S. 33-38), dass solche Pläne keineswegs utopisch seien. „Nicht nur die amerikanische Marine hat im Hinblick auf eventuelle Unterwasserstützpunkte bereits ihr Interesse an dem Reaktor bekundet, sondern auch die Meeresforscher. Sie wollen damit die „Meereswüsten“ – große fischarme Gebiete in den Ozeanen – fruchtbar machen. Ein versenkter Reaktor würde nämlich durch die Erwärmung des Meerwassers in seiner unmittelbaren Umgebung eine Vertikalströmung bewirken. Diese würde zahlreiche Mineralstoffe vom Meeresboden an die sonnendurchflutete Oberfläche spülen. Dadurch müsste sich das Plankton sprunghaft vermehren, was zahlreiche Fischarten anlocken würde. Ein neues Fischfanggebiet wäre damit geschaffen.“

Bei allen Einwänden gegen ein solches Vorhaben, der Gedanke ist korrekt und orientiert sich am „Archimedischen Prinzip“. Erwärmtes Wasser steigt auf an die „sonnendurchflutete Oberfläche“. Heute versucht man die „Klimapause“ dadurch zu erklären, dass sich an der Oberfläche von der Sonne erwärmtes Wasser in der Tiefe des Meeres verstecke, um eines Tages wie Phönix aus der Asche emporzusteigen und die „Klimaerwärmung“ verstärkt fortzusetzen.

Ja, hätte man diese Pläne damals weiter verfolgt, der Antarktis-Tourismus mit Eisbrechern für zahlungskräftige Naturfreunde würde wohl in voller Blüte stehen. Noch eine andere Idee stand damals hoch im Kurs: „Atombomben gegen Hurrikane?“ In „Hobby“ (Nr.15/1961, S. 72-78) schrieb Ernst Behrendt zweifelnd: „Ein Hurrikan enthält so viel Energie wie sie etwa 300.000 Atombomben darstellen. Die Frage, ob man einer Naturgewalt mit der Kraft von zigtausend Atombomben begegnen könne, beschäftigt die amerikanischen Meteorologen schon lange.“ Aber selbst die amerikanischen Meteorologen sahen wohl bald ein, dass der Mensch energetisch ein Zwerg ist und der Natur nicht das Wasser reichen kann.

Das Ziel wurde sang- und klanglos aufgegeben.

„Das Prinzip Hoffnung“ von Ernst Bloch und die geplante Energiewende

Auch einer der bedeutendsten utopischen Enzyklopädisten, der Philosoph Ernst Bloch (1885-1977) träumte von den wundersamen Effekten einer Nuklearheizung für die Atmosphäre. In seinem Werk „Das Prinzip Hoffnung“ (1973, S. 774f) schwärmte er voller Enthusiasmus: „Wie die Kettenreaktionen auf der Sonne uns Wärme, Licht und Leben bringen, so schafft die Atomenergie, in anderer Maschinerie als der der Bombe, in der blauen Atmosphäre des Friedens aus Wüste Fruchtland, aus Eis Frühling. Einige hundert Pfund Uranium und Thorium würden ausreichen, die Sahara und die Wüste Gobi verschwinden zu lassen, Sibirien und Nordkanada, Grönland und die Antarktis zur Riviera zu verwandeln. Sie würden ausreichen, um der Menschheit die Energie, die sonst in Millionen von Arbeitsstunden gewonnen werden müsste, in schmalen Büchsen, hochkonzentriert zum Gebrauch fertig darzubieten.“ Es war kühl und jeder Mensch der mittleren und nördlichen Breiten sehnte sich nach Sonne und Wärme.

Wer an solche Pläne, mögen sie auch konkret utopisch gewesen sein, erinnert, sündigt der bereits gegen das Gebot der politischen Korrektheit? Ernst Bloch als marxistischer Philosoph glaubte an die These, dass der Fortschritt ein Geschichtsgesetz und der Marxismus Wissenschaft ist. Daraus leitete er folgerichtig die Aussage ab, dass die „Fahne des Verstandes“ rot ist (Bloch AOP339). Indirekt sprach er damit allen, die nicht „rot“ sind und nicht marxistisch denken, den Verstand ab.

Jedenfalls, mit der „Energiewende“ und der abrupten Abkehr von der friedlichen Nutzung der Kernenergie hat sich ja die Bundesregierung indirekt und unausgesprochen vom Fortschritt verabschiedet. Doch wie will sie ohne hinreichende Energie die Energiewende herbeiführen, zumal sie sich damit in die totale Abhängigkeit zur Natur begibt? Es ist allein die Natur, es ist das Wetter, das uns letztendlich die Energie zur Verfügung stellt, die es erlaubt, elektrische Energie zu gewinnen. Das hinfälligste Beispiel ist der Wind. Die in bewegter Luft steckende Energie kann ja nur dann genutzt und in Strom verwandelt werden, wenn der Wind entsprechend weht. Doch ob und wie stark er weht, das liegt nicht in der Macht des Menschen! Es ist wiederum die Sonne, die über Temperaturgegensätze Druckgegensätze erzeugt und die Luft in Bewegung setzt.

Die Energiewende ist ganz auf das „Prinzip Hoffnung“ angewiesen. Doch diese Hoffnung ist die jährlich wieder neu aufflammende Hoffnung auf weiße Weihnacht!

Es ist Etikettenschwindel, beim Wind von einer regenerativen Energie zu sprechen. Der Mensch erneuert den Wind nicht, regeneriert keinen sich abgeschwächt habenden Luftdruckgradienten, der die Bewegung der Luft antreibt. Elektrischer Strom mittels Wind ist bestenfalls eine additive Energie und das in der Regel nur für rund 1500 Stunden eines Jahres. Ein Jahr hat aber 8760 Stunden, so dass das politische Versprechen einer kontinuierlichen Stromversorgung ein auf einem Selbstbetrug aufbauender gesellschaftlicher Betrug ist.

Dies gilt gleichermaßen für die Sonne, die im astronomischen Idealfall ohne Wolken am Himmel 4380 Stunden im Jahr scheint. Im Mittel sind von den täglich 24 Stunden 12 Stunden Tag und 12 Stunden Nacht. Doch mit Wolken liegt in unseren Breiten die jährliche Zahl an Sonnenstunden zwischen 1500 und 2000 Stunden. Zusammen könnten Wind und Sonne im Idealfall etwa 3500 Stunden pro Jahr Strom liefern, doch was passiert in den restlichen 5260 Stunden des Jahres? Wäre es nicht sinnvoll, zur Förderung der Kontemplation den Strom einfach abzustellen und sich der nachhaltigen Muße hinzugeben? Die Industriegesellschaft soll ja ohnehin abgeschafft, transformiert und in eine Lustgesellschaft verwandelt werden.

Betreibt die Bundesregierung bewusst eine schleichende Verlangsamung, eine Entschleunigung unseres Lebens? In diesem Sinne wünsche ich Ihnen, verehrte Leser, Gesundheit, Glück und Wohlergehen! Genießen Sie die Mobilität, bevor uns allen CO2-Fußabdruck daran hindert.

Oppenheim, im  Januar 2014

Dipl.-Met. Dr. phil. Wolfgang Thüne




Realitäts-Check: China bringt massive neue Kohle-Kapazität auf den Weg

Zwar sind Bemühungen im Gange, den Anteil von Kohle am Energiemix des Landes abnehmen zu lassen, doch wird die Gesamtmenge des billigen und reichlich vorhandenen Treibstoffs trotzdem immer noch steigen.

Von Reuters zusammengestellten Daten zufolge hat die National Development and Reform Commission (NDRC), die oberste Planungsbehörde Chinas, im vorigen Jahr den Bau 15 neuer großräumiger Kohleminen genehmigt, mit einer jährlichen Kapazität von 101,3 Millionen Tonnen.

„Angesichts des Umstandes, dass der Gesamt-Energieverbrauch Chinas immer noch gleichlaufend mit der Wirtschaft wächst, wird auch die Kohleproduktion weiterhin wachsen“, sagte Helen Lau, eine leitende Analystin bei UOB Kay Hian in Hongkong. „Während China versucht, andere Energiequellen wie Wasser- und Kernkraft zu fördern, erwarten wir ein jährliches Wachstum der Kohleproduktion um 2 bis 3 Prozent pro Jahr während der nächsten fünf Jahre“.

Die chinesische Kohleproduktion von 3,66 Milliarden Tonnen Ende 2012 macht offiziellen Daten zufolge schon jetzt fast die Hälfte der globalen Gesamtmenge aus. Diese Zahl marginalisiert die Produktionsraten von jeweils etwa über 1 Milliarde Tonnen in Europa und den USA.

Große Teile der neuen Kapazitäten liegen in Regionen wie der Inneren Mongolei und Shaanxi, was eine Strategie reflektiert, kleine Mienen an Stellen wie bei Peking zu schließen und den Output in einer Reihe riesiger „Kohleindustrie-Basen“ zu konsolidieren, die thermische Energie über das Netz auf den Markt bringen.

Während der Output aus solchen Basen zunimmt, hat China über 100 Millionen Tonnen alter Kapazitäten im letzten Jahrzehnt geschlossen, aber Kritiker sagen, dass die Einrichtung neuer Minen die Anzahl der geschlossenen Mienen weit übertrifft und dass diese Politik die Umweltprobleme Chinas anderswohin verlagert.

„Trotz des Drucks durch den Klimawandel, Wasserknappheit und anderer Umweltprobleme weitet sich die Kohleindustrie in Nordwest-China weiter erheblich aus“, sagte Deng Ping, ein Greenpeace-Campaigner in Peking. „Das Ausmaß dieser Kohlebasen wird nirgendwo sonst in der Welt erreicht, mit Tagebau, Kohlekraftwerken und Chemiewerken in Kombination“.

Die neuen Projekte umfassen eine Gesamtinvestition von 54,1 Milliarden Yuan (8,9 Milliarden Dollar). Im Jahre 2012 hat die Regierung vier Kohleprojekte mit einer jährlichen Kapazität von 16,6 Millionen Tonnen genehmigt zu Investitionen in Höhe von 7,8 Milliarden Yuan.

Die Liste der Genehmigungen enthält nicht alle Minen, die 2013 eingerichtet worden sind, wobei viele kleinere Projekte unter der Aufsicht lokaler Regierungen und nicht der Zentralregierung stehen. Den im Dezember erlassenen Vorschriften zufolge brauchen Kohlemienen mit einer Erzeugung über 1,2 Millionen Tonnen pro Jahr eine Genehmigung aus Peking. Alle kleineren Projekte werden lokalen Regierungen zur Genehmigung überlassen.

Die NDRC braucht Monate, um Genehmigungen für neue Mienen auszusprechen, so dass andere Projekte im vierten Quartal in Betrieb gegangen sein können. Eine 46-Millionen-Tonnen-Miene wurde im Dezember genehmigt, doch muss NDRC noch Details bekannt geben.

Ein Sprecher des NDRC war für eine Stellungnahme nicht zu erreichen.

Problem Smog

Angesichts der Smog-Probleme der großen Städte im vorigen Jahr hat die Regierung versprochen, seine Abhängigkeit von Kohle zu reduzieren, die eine wesentliche Quelle von Luft-, Boden- und Wasserverschmutzung ebenso wie klimaerwärmenden Emissionen ist. Sie hat Richtlinien vorgegeben, den Bergbau in bewohnten Gebieten zurückzufahren, die Qualität zu verbessern und Überkapazitäten abzubauen.

Aber Kohle ist billiger als alle Alternativen, und China ist zugleich der größte Erzeuger und Verbraucher. Sie ist auch viel zuverlässiger als schwankende Energiequellen wie Wasser- oder Windkraft.

Im Fünf-Jahres-Plan von 2011 bis 2015 wird vorgegeben, dass rund 860 Millionen Tonnen neuer Kohlekapazität in Betrieb genommen werden, ebenso wie zusätzlich 300 Gigawatt Kohlestrom, das ist die doppelte Kapazität von Deutschland.

Während Peking im September angekündigt hat, den Anteil von Kohle in seinem primären Energiemix auf „unter 65 Prozent“ bis zum Jahr 2017 drücken zu wollen, das wäre ein Rückgang von 66,8 Prozent im Jahre 2012, wird der absolute Verbrauch dennoch steigen, wobei die Gesamt-Nachfrage nach Energie um 4,3 Prozent pro Jahr zunehmen soll während des Zeitraumes von 2011 bis 2015.

„Das Ersetzen von Kohle ist nicht so schnell vonstatten gegangen wie erwartet, und andere Energiequellen sind nicht nur teuer, sondern bringen auch eine Menge technischer und umweltlicher Probleme mit sich“, sagte Lau von UOB. Im Energieplan der Regierung 2011 bis 2015 wird die Kohlekapazität mit 4,1 Milliarden Tonnen bis zum Jahr 2015 angesetzt, aber Lau zufolge könnte sie noch viel höher ausfallen. „Wir schätzen, dass die chinesische gesamt-Kohleerzeugung bis 2015 auf 4,7 Milliarden Tonnen steigen wird – ich glaube, dass die Zahl der Regierung eine massive Unterschätzung ist“.

($1 = 6,0506 Chinese yuan)

Link: http://www.thegwpf.org/reality-check-china-approves-massive-coal-capacity/

Übersetzt von Chris Frey EIKE




Globale Erwärmung = weniger Schnee … Globale Erwärmung = mehr Schnee

Ob weniger Schnee, ob mehr Schnee : Der "Schuldige" ist stets die "Globale Erwärmung", wie eine Medien-Übersicht zeigt !

(1)   Globale Erwärmung "bedeutet" weniger Schnee

Ein seltenes und begeisterndes Ereignis: „Die Wahrscheinlichkeit, dass irgendwelche Niederschläge als Schnee und nicht als Regen fallen, wird abnehmen, und jede Schneedecke auf dem Boden wird immer schneller schmelzen. Schaut man auf die USA, hat das IPCC in eindeutiger Weise davor gewarnt, dass die ungehinderte globale Erwärmung zu einer verringerten Schneedecke in den Westlichen Bergen führen wird, was wiederum kritische Auswirkungen auf unsere Wasserversorgung hat“. – Senatorin Barbara Boxer 2009.

Dr. David Viner zufolge, einem leitenden Forschungswissenschaftler an der CRU der University of East Anglia, wird winterlicher Schneefall innerhalb weniger Jahre „zu einem sehr seltenen und begeisternden Ereignis. Kinder werden nicht mehr wissen, was Schnee ist“.

Gores Behauptung, dass „Schnee mit der globalen Erwärmung konsistent ist, steht im Widerspruch zu seinem Oscar-prämiierten Film „eine unbequeme Wahrheit“ aus dem Jahr 2006: Nicht ein einziges Mal hat Gore darin vor Rekordkälte und zunehmenden Schneefällen als Konsequenz der vom Menschen verursachten globalen Erwärmung gewarnt. Vielmehr hat er darin das Fehlen von Schnee als „Beweis“ für diese Erwärmung auf den Schild gehoben.

„Er merkte auch an, dass die optimistischsten Klimamodelle für die zweite Hälfte dieses Jahrhunderts annehmen, dass 30% bis 70% der Schneedecke verschwinden wird. Inzwischen, was Wunder, haben wir hier Menschen, die in unsere Büros kommen, weil sie Mitarbeiter der Tourismus-Branche sind und über Einbußen der Freizeit-Industrie in diesem Lande klagen“. – Barbara Boxer, 29. Oktober 2007 im Senat.

1 Fuß [ca. 30 cm] weniger Schnee im Winter? Das Climate Change Forum von Michigan beleuchtet dramatische Änderungen: Der winterliche Schneefall könnte im Mittel bis zu 1 Fuß bis zum Jahr 2100 abnehmen, wenn in wärmeren Wintern mehr Niederschlag als Regen fällt.

CTB [?]: Weniger Schnee, kleinere Gletscher, dünneres Eis

Greenpeace: Weniger Schnee, kleinere Gletscher, dünneres Eis

(Natürlich mache ich mich über sie lustig, aber sie wissen nicht, wo ich wohne. – RB[?])

Dünnere Schneedecke

Barbara Boxer im Jahre 2009: „Schaut man auf die USA, hat das IPCC in eindeutiger Weise davor gewarnt, dass die ungehinderte globale Erwärmung zu einer verringerten Schneedecke in den Westlichen Bergen führen wird, was wiederum kritische Auswirkungen auf unsere Wasserversorgung hat“.

Trends der Schneedecke in Nordamerika im Zeitmaßstab von Jahrzehnten und Jahrhunderten in Atmosphäre-Ozean-gekoppelten allgemeinen Zirkulationsmodellen

Unser Ergebnis, dass diese Modelle eine signifikante Abnahme der Ausbreitung von Schnee in Nordamerika während des 21. Jahrhunderts vorhersagen, ist eindeutig, und zwar in der Weise, dass alle verfügbaren Modelle für zwei unterschiedliche, aber jeweils realistische Emissionsszenarien in der Zukunft dies zeigen. Kein Modell nimmt eine solche Abnahme für das unrealistische COMMIT-Szenario an.

„Mit steigender Temperatur steigt auch die Wahrscheinlichkeit, dass Niederschlag eher als Regen denn als Schnee fällt, vor allem im Herbst und im Frühjahr zu Beginn bzw. am Ende der Wintersportsaison. Derartige Änderungen wird es an vielen Orten geben, vor allem auf dem Festland in mittleren und hohen Breiten der Nordhemisphäre. Das führt zu zunehmenden Regenfällen und abnehmenden Schneedecken“. (IPCC)

Globale Erwärmung verringert Schneefall in Wintersportgebieten

Die schwer unter Druck stehende Industrie für Wintersport und Freizeit könnte während der kommenden Jahre vor einem ernsten Problem stehen, falls europäische Forscher richtig liegen: weniger Schnee infolge der globalen Klimaänderung.

IPCC IV: Kürzere Schnee-Saisons und geringere Höhe der Schneedecke

Sehr wahrscheinlich werden in vielen Gebieten von Nordamerika die Schnee-Saisons kürzer und die Höhe der Schneedecke abnehmen, außer im nördlichsten Teil Kanadas, wo die maximale Höhe der Schneedecke vermutlich zunehmen wird.

…Kinder werden einfach nicht mehr wissen, was Schnee ist…

Wärmere Welt: Weniger Schnee

Eine der vielen Folgen der Erwärmung: Aride Gebiete werden weiter austrocknen. Und einiges von dem Wasser, das dort trotzdem noch fällt, kommt im falschen Aggregatzustand (Regen anstatt Schnee) oder zur falschen Zeit.

Globale Erwärmung: Verkürzte Wintersportsaisons

Die Klimaänderungs-Expertin Dr. Penny Whetton vom CSIRO sagt, dass sich die Schneebedeckung der Berge in Australien bis zum Jahr 2020 um 54% verringern könnte. „Die Wahrscheinlichkeit, dass irgendwelche Niederschläge als Schnee anstatt Regen fallen, wird abnehmen, und jedweder Schnee am Boden wird schneller schmelzen“, sagte sie.

Erwärmung: Wintersportgebiete durch Schneemangel bedroht

Genau wie diejenigen, die sich auf das Große Barriere-Riff verlassen, sieht sich die Wintersportindustrie in Australien an vorderster Front der Opfer der globalen Erwärmung. Ein CSIRO-Bericht aus dem Jahr 2003, teilweise finanziert von der Wintersportindustrie, kam zu dem Ergebnis, dass die Gebiete ein Viertel ihres Schnees innerhalb von 15 Jahren verlieren könnten und die Hälfte bis 2050. Im schlimmsten Falle kommt es zu einem Verlust von 96 Prozent zur Mitte des Jahrhunderts.

Globale Erwärmung bedeutet weniger Schnee

4. Oktober 2006: Die globale Erwärmung wird zu wesentlichen Änderungen des Klimas im Nordosten der USA führen, falls die Treibhausgas-Emissionen nicht reduziert werden. Das haben Wissenschaftler heute verlauten lassen. Wärmere jährliche Temperaturen, weniger Schnee, häufigere Dürren und extremere Regenstürme sind zu erwarten, wenn sich der gegenwärtige Erwärmungstrend fortsetzt. Dies betonen Wissenschaftler in einer neuen Studie, und die Zeit, um solche Klimaänderungen zu verhindern, läuft davon.

Globale Erwärmung: weniger Schnee

Der Gedanke, dass es im Zuge der globalen Erwärmung mehr Regen und weniger Schnee geben wird, geht bis zum Jahr 1999 zurück. Damals hatte ein Forscher an der University of California gesagt: „Es wird zu viel Wasser zur falschen Zeit geben und zu wenig, wenn wir es brauchen“.

Demokraten [USA-Partei]: Weniger Schnee = globale Erwärmung

Weniger Schnee ist das, was die Modelle infolge der Erwärmung annehmen.

Schneefälle sind einfach etwas aus der Vergangenheit – The Independent/Umwelt

Schlitten, Schneemänner und –bälle sowie die Begeisterung, durch das weiße Zeug zu gehen, sind allesamt ein kleiner werdender Teil der britischen Kultur, wenn wärmere Winter – welche Wissenschaftler der globalen Klimaänderung zuordnen – nicht nur zu weniger Weißen Weihnachten, sondern auch zu schneeärmeren Wintermonaten Januar und Februar führen werden.

(2)  Globale Erwärmung "bedeutet" mehr Schnee

„Falls sich das Klima weiter erwärmt, sollten wir ein paar Jahrzehnte lang eine Zunahme starker Schneefallereignisse erwarten“.

Globale Erwärmung bedeutet mehr Schneestürme

„Schwere Schneestürme sind nicht inkonsistent mit einem sich erwärmenden Planeten“, sagte der ‚Wissenschaftler‘ Jeff Masters auf einer Konferenz mit Reportern und Kollegen, die von der Vereinigung besorgter ‚Wissenschaftler‘ [Union of Concerned ‚Scientists‘] abgehalten worden ist.

John Christy, Klimatologe des Staates Alabama und Autor der Studie sagte, dass die Schneemenge in den Bergen während der letzten 50 Jahre nicht abgenommen hat, also während einer Periode, als Treibhausgase vermeintlich zu einer Verstärkung der Auswirkungen der globalen Erwärmung geführt haben sollten.

Schneestürme: Ein weiteres Zeichen der Klimaänderung – TIME

Eine Theorie lautet, dass eine wärmere Arktis tatsächlich zu kälteren und schneereicheren Wintern in den nördlichen und mittleren Breiten führen könnte.

Blizzard an der Ostküste hängt mit Klimaänderung zusammen – TIME

Seien Sie jetzt wachsam – dies könnte ein Fall sein, bei dem Politiker die Fakten verzerren. Es gibt einige Beweise, dass die Klimaänderung in Wirklichkeit zu mehr solchen Schneestürmen führen könnte, selbst in einer wärmer werdenden Welt.

Ein sich erwärmender Planet kann mehr Schnee bedeuten – NPR

Klimawissenschaftler sagen, dass sie ein Einzelereignis des Wetters nicht dem Klimawandel zuordnen können. Folglich, sagen sie, sind der Hurrikan Kathrina und die Wärmeperiode zur Zeit der Winterolympiade in Vancouver kein Beweis, dass die Klimaänderung im Gange ist. Genauso sind die Schneestürme im Osten und Süden kein Beweis, dass sie nicht im Gange ist.

Zieht euch warm an, es ist die globale Erwärmung – New York Times

Blizzard: Zeichen der globalen Erwärmung

Aber während Schneewehen immer mehr die Zufahrt zu Ihrem Haus blockieren, sieht das kaum nach einer sich gefährlich erwärmenden Welt aus. Aber es bedeutet auch nicht, dass die Klimaänderung ein Mythos ist (nur eine verdammte Lüge)

Wissenschaftler: Schnee ist konsistent mit globaler Erwärmung

UK mag in den Fängen des kältesten Winters seit 30 Jahren stecken und gegen eine bis zu 30 cm hohe Schneedecke an einigen Stellen kämpfen, aber das extreme Wetter ist vollständig konsistent mit der globalen Erwärmung. Das behaupten Wissenschaftler.

Wissenschaftler: Globale Erwärmung bedeutet mehr Schneestürme

„Wenn sich das Klima weiterhin erwärmt, sollten wir einige Jahrzehnte lang zunehmende Starkschneefall-Ereignisse erwarten, bis das Klima so warm wird, dass wir einen Punkt überschreiten, in dem es zu warm wird für starke Schneefälle“.

Dr. Kaku: Globale Erwärmung = mehr Schnee

Dr. Kaku stimmt auch diesem Ergebnis zu: „Ja. Es scheint den gesunden Menschenverstand zu verletzen, aber die Erwärmung der Erde bedeutet auch, dass im Mittel mehr Feuchtigkeit aus der Karibik und dem Golf von Mexiko in die Atmosphäre gelangt. Das führt zu mehr Niederschlag und eventuell auch zu mehr Schnee“.

Ziehen Sie sich warm an, es herrscht globale Erwärmung – NYTimes.com

Während der letzten Wochen hat die Kälte in Polen 66 Todesopfer gefordert; in Seattle hat es schon lange vor der Wintersonnenwende geschneit; in Minneapolis hat es so stark geschneit, dass das Dach des Metrodomes [eine Sportarena] eingestürzt ist; und die Blizzards der letzten Woche haben die am meisten angeflogenen Flughäfen Europas, nämlich London und Frankfurt, tagelang lahmgelegt, so dass Reisende gestrandet sind. Schnee und Rekordkälte haben den östlichen Teil der USA überschwemmt, und mehr davon ist in der Vorhersage.

Al Gore: Globale Erwärmung = starker Schneefall

„Wie sich zeigt, hat sich die wissenschaftliche Gemeinschaft dieser speziellen Frage schon seit einiger Zeit angenommen, und sie sagen, dass eine Zunahme starker Schneefälle vollständig konsistent mit dem ist, was sie als Konsequenz der vom Menschen verursachten globalen Erwärmung vorhergesagt haben“, schrieb Al Gore. Unglücklicherweise für ihn und andere, die behauptet haben, dass der Schnee dieses Winters ein Nebenergebnis der globalen Erwärmung ist, haben deren eigene Agenturen gesagt, dass die Klimaänderung zu weniger Schnee führt.

Ja, die globale Erwärmung kann mehr Schnee bedeuten

Tatsächlich haben Wissenschaftler schon seit mindestens zwei Jahrzehnten davor gewarnt, dass die globale Erwärmung Schneestürme schlimmer machen könnte. Schnee hat zwei einfache Zutaten: Feuchtigkeit und Kälte. Wärmere Luft nimmt wie ein Schwamm mehr Feuchtigkeit auf, bis sie auf Kaltluft trifft. Fallen die Temperatur dann in den Frostbereich, führt viel Feuchtigkeit zu viel Schnee.

So wie dieser Schnee da draußen sieht die globale Erwärmung aus: Ungewöhnlich kalte Winter könnten Sie glauben machen, dass die Wissenschaftler falsch liegen. Aber die Daten zeigen eine  ernüchternde Wahrheit…

(3)  KEINE ÄNDERUNG

…nämlich keine Beweise dafür, dass sich überhaupt irgendetwas geändert hat als Folge der Klimaänderung…

Schneefall in der Sierra seit 130 Jahren unverändert

Einer jüngst veröffentlichten Studie zufolge haben sich Schneefälle in der Sierra Nevada seit 130 Jahren nicht verändert, und es zeigen sich auch keine Beweise, dass sich überhaupt irgendetwas geändert hat als Folge der Klimaänderung.

4 der 5 schneereichsten Winter der Nordhemisphäre ereigneten sich während der letzten 6 Jahre.

Link: http://icecap.us/index.php/go/joes-blog vom 31.12.2013

Link zum Original, auf das sich ICECAP bezieht: http://www.progressivedisorder.com/Snowfall1.shtml




Neues vom Nordatlantik: Das natürliche “Day after Tomorrow“- Szenario?

An anderer Stelle hatten wir hier bereits über solche Hinweise berichtet (siehe “Mojib Latif hatte Recht: Wohl keine Erwärmung in den nächsten Jahren“). Warum ist das so interessant? Schauen wir auf die globale Verteilung der Wärme besonders in den Weltmeeren fällt die bedeutende Rolle des Nordatlantiks sofort ins Auge:

Bild 1:  Aktuelle Temperaturverteilung der Weltmeere, Quelle: NOAA.

Der Transport von wärmeren Wässern bis hinauf zu 70 Grad Nord passiert ausschließlich zwischen Europa und Kanada, die in den Tropen erwärmten Wassermassen strömen polwärts ( meridional) und beeinflussen so die Temperaturen von großen Teilen Eurasiens und auch der Ostküste Amerikas. Mit verantwortlich dafür ist die AMOC, die sehr große Wärmemengen bewegt. Ein Bestandteil des atlantischen  Wärmetransports ist der Golfstrom, sein Anteil hat sich nur wenig geändert, da er vom Passatwind bestimmt wird. Hier geht es um die Thermohaline Zirkulation (durch Temperatur- und Dichteunterschiede angetrieben), bei der also eine recht schnelle Schwächung beobachtet wird. Im „Nature Geosience“ Artikel ist besonders diese Abbildung zu beachten:

Bild 2: Beobachtungen und Modellsimulationen aus Nature.

Sie zeigt im Teil b oben den beobachteten Rückgang in der Transportleistung  seit 2004 um ca. 20% und im Diagramm darunter die Dichte des Meerwassers in der Labradorsee in der Tiefe zwischen 1000 und 2500 m. Die Autoren Jon Robson, Ed Hawkins u.a. ermittelten, dass diese Messwerte der Dichte dem Verlauf der AMOC voreilen und der Abwärtstrend  der Dichte immer noch anhält, also auch zukünftig mit einem weiteren Nachlassen der AMOC gerechnet werden muss. In einer Arbeit aus 2011 des Co- Autors Ed Hawkins kommt eine mögliche Bistabilität der AMOC zur Sprache, was bedeutet: von einem bestimmten Stadiums des Abschwächens des Stromes könnte ein relativ abrupter Wechsel zu einem gänzlichen Versiegen erfolgen.

Vergleichen Sie bitte das Bild 2 (b oben) mit dem Bild 3: gegenwärtig werden ca. 16 Sievert (Sv) Wasserstrom gemessen und der Triggerpunkt ( rote Kurve in Bild 3) in den Zustand „Aus“ liegt eben da, bei etwa 16 Sv! Wer den Film „The day after tomorrow“ gesehen hat wird sich gewiss erinnern: Alles begann mit Beobachtungen einer kollabierenden AMOC! So etwas ist also real möglich, wie wir heute wissen. Was danach im Film folgte war Action- Kino pur und hat mit den zu erwartenden Folgen einer reduzierten AMOC nicht so viel zu tun: Europa (und die Nordhalbkugel) werden nicht vereisen, wir werden auch in keinem Falle die harschen Temperaturen Alaskas testen, davor bewahrt uns der immer noch ausgleichende Atlantik westlich von uns. Aber ungemütlicher könnte es schon werden, fehlte die Wärme, die die AMOC mit sich bringt.

Und ein zweiter Aspekt ist zu beachten: In einer sehr aktuellen Arbeit zum gleichen Sachverhalt kommen die Autoren um David Smeed zu der Folgerung:

„…suggesting that this decrease represents decadal variability in the AMOC system rather than a response to climate change.”

Die Abschwächung der AMOC ist nicht auf den Klimawandel zurückzuführen, sie ist eher Ausdruck ihrer dekadischen Variabilität. Alle Modelle des IPCC zeigen nur eine sehr geringe Abschwächung der AMOC in den folgenden Jahren, in keinem Falle einen so deutlichen Rückgang wie beobachtet. Der IPCC kam in seinem jüngsten Sachstandsbericht sogar zu der Einschätzung, dass sich die AMOC gar nicht abgeschwächt hat:“ While the AMOC weakening in 2009/2010 was large, it subsequently rebounded and with the large year-to-year changes no trend is detected in the updated time-series.“ (Quelle, S. 29).

Wie soll man das verstehen? Im Gegensatz zu den Aussagen des IPCC im September 2013 kommen Arbeiten zu dem Thema zu einem völlig anderen Schluss: Die AMOC hat sich sehr wohl signifikant reduziert! Da wird ein Phänomen des Klimas beobachtet, das NICHT auf den menschgemachten Klimawandel zurückzuführen ist und sich NICHT mit den Modellen deckt und die Beobachtung wird zunächst einmal negiert? Noch ein Reizwort ist aufgetreten: Dekadische Schwankungen in der Wärmedistribution des nördlichen Atlantiks und deren Auswirkungen auf das globale Klima.

Das kommt nicht vor in den Modellen des IPCC und würde die Trendsteigung der globalen Temperaturen seit Beginn der ausgeprägten Wirkung von Treibhausgasen auf etwa 1K/ Jahrhundert begrenzen.  Wie lange müssen wir noch warten, bis der IPCC endlich  multidekadische Schwankungen akzeptiert, wie sie schon hier und einigen anderen Arbeiten gezeigt wurden?

Die Zeit ist reif um sie zu berücksichtigen; mit der Einbeziehung von ozeanischen Langzeitentwicklungen über mehrere Jahrzehnte würden wohl auch die Klimamodelle realistischer werden in ihren Zukunftsprognosen. Daran sollten alle ein Interesse haben, wenn es um Forschung als Grundlage für  verantwortungsvolle politische Entscheidungen im Zusammenhang mit dem Klimawandel  geht. Und solche wünschen wir uns sehr.

Der Beitrag erschien zuerst im Blog "Die kalte Sonne" hier

 ================================================

Anmerkungen Redaktion EIKE :

Der Wärme-Transport der AMOC von den tropischen und subtropischen Breiten hin in die gemäßigten sowie in die arktischen Breiten erfolgt sehr wesentlich (nicht ausschließlich) durch den Golfstrom, wie auch in Anlage 1 (PDF zum Download) ausführlich dargestellt wird:

"In den Abbildungen 3 und 5 ist erkennbar, daß der Golfstrom nach dem Einschwenken in die gemäßigten Breiten nun von den Stürmen des Westwind-Gürtels in östlicher Richtung weiter getrieben wird. Dabei fächert der Golfstrom auf (Abb. 3). Der Hauptstrom geht an Irland, Schottland und Skandinavien vorbei bis in Barents-See, und sorgt entlang seiner Bahn ganzjährig für eisfreie Häfen. Ein kräftiger Seitenarm schwenkt in die Biskaya und den Englischen Kanal. Ein anderer Arm zweigt ab in die Irminger See, und zum Teil sogar weiter zwischen Grönland und Island hindurch nach Norden."

Nun wird seit Jahrzehnten immer wieder darüber spekuliert, ob es zu einem Zusammenbruch des Golfstromes und insgesamt zu einem "Versiegen" des o.a. Wärme-Transportes kommen kann. Dazu wird a.o.a.O. (PDF-Anlage 1) ausgeführt:

" AGW: Kollabiert der Golfstrom ?

Im Zusammenhang mit der seit etwa 150 Jahren gemessenen mäßigen Erderwärmung von einem Dreiviertel Grad werden nun immer wieder Horror-Meldungen durch die Medien gejagt – z.B. derart, daß es zu einem Kollaps des Golfstromes und damit zu einer "Europäischen Eiszeit" kommen könne.

Dabei werden häufig zunächst drei Aspekte außer Acht gelassen:

(1) Schwingungen und Veränderungen (auch) des Golfstroms gehören zur Normalität der globalen Zirkulationen;

(2) Selbst in den Warmzeiten unserer aktuellen Klima-Periode (Holozän) hat es keine solche Kollapse gegeben, obwohl z.B. die Temperaturen während der Optima des Holozäns (4000-8000 vor heute), der Römer (um 2000 v.h.) und des Mittelalters (um 1000 v.h.) phasenweise höher lagen als heute;

(3) Es gibt zwar auch in den letzte Jahrzehnten "Pendelungen" im Golfstroms bezüglich Strömungs- und Temperatur-Änderungen, aber keinerlei Anzeichen für dramatische Veränderungen oder gar Umbrüche."

Dieses alles wird a.a.O. (PDF-Anlage 1) ausführlich erläutert und begründet. Als wohl prominentester Fachwissenschaftler, der sich mit den Phänomenen der Meeresströmungen beschäftigt hat, darf C. Wunsch gelten (hier), speziell zum Golfstrom (hier), alle seine Veröffentlichungen (hier).

Daher ist auch die folgende Anmerkung in dem Aufsatz von BOSSE & VAHRENHOLT (PDF-Anlage 2) mit großen Unsicherheiten verbunden, was ja durch die dort verwendeten Konjunktive auch zum Ausdruck gebracht wird :

"In einer Arbeit aus 2011 des Co- Autors Ed Hawkins kommt eine mögliche Bistabilität der AMOC zur Sprache, was bedeutet: von einem bestimmten Stadiums des Abschwächens des Stromes könnte ein relativ abrupter Wechsel zu einem gänzlichen Versiegen erfolgen."

        Klaus-Eckart Puls & Horst-Joachim Lüdecke

=================================================

Der Artikel ist als PDF in Anlage 2 hier verfügbar zum Download.

Related Files




Jede Strahlung ist schädlich! Stimmt das wirklich? Die LNT Hypothese

LNT or not LNT, that is the Question

Prof. Dr. Klaus Becker

ZUSAMMENFASSUNG

Der Autor prüft kritisch Grundlagen und Auswirkungen der LNT-Hypothese und kommt unter anderem zu dem Schluss, dass die extremen Kosten zur Dosisreduzierung im Niedrigdosis-Bereich selbst bei Akzeptanz der LNT-Hypothese in einem hohen Missverhältnis zu rein hypothetischen und allenfalls marginalen Gesundheitsfolgen stehen. Er fordert deshalb einen baldigen Paradigmenwechsel im Strahlenschutz.

Paradigmenwechsel im Strahlenschutz?

Die Bewertung von Gesundheitsrisiken durch Strahlenexpositionen im Bereich von weniger als etwa 100 mSv ist für eine breitere Akzeptanz der Strahlennutzung auf allen Gebieten einschließlich Kernenergie von erheblicher Bedeutung. Hierzu findet im Zusammenhang mit Berichten und Empfehlungen renommierter Institutionen wie ICRP und BEIR sowie kritischen Stellungnahmen dazu seitens der französischen Akademien der Wissenschaften etc. inzwischen auch hierzulande eine grundsätzliche Diskussion um einen erforderlichen Paradigmenwechsel statt – weg von der LNT(Linear No Threshold)-Hypothese und der daraus abgeleiteten Kollektivdosis und hin zu einem strahlenbiologisch sinnvolleren Konzept. Erkenntnisse über grundsätzliche Unterschiede in der biologischen Wirkung niedriger und höherer Dosen, aber auch die fortgeschriebene Beurteilung der radiologischen Folgen des Tschernobyl-Unfalles vermitteln dazu anregende Einsichten.

Nicht nur in der StrahlenschutzPRAXIS (z. B. [1, 2]), sondern auch in anderen Fachzeitschriften [3, 4, 5] hat in den letzten Jahren u. a. der Verfasser auf die weltweite Kontroverse zu den Risikoannahmen für niedrige und niedrigste Strahlendosen aufmerksam gemacht. Auf Grund neuerer Erkenntnisse findet dieses Thema zunehmend auch in Deutschland Interesse. So fand z. B. im April 2006 in Theuern ein Workshop zur LNT- und Kollektivdosis-Problematik statt [6] und auch die 4. Biophysikalische Arbeitstagung in Bad Schlema vom 22. Bis 24. 9. 2006 befasst sich mit dieser Thematik. Dies mag eine kurze Darstellung einiger neuer Entwicklungen rechtfertigen.

Wahrnehmung und Kosten des Niedrigdosis-Risikos

Zur Definition niedriger und niedrigster Strahlendosen gibt es noch keinen formellen internationalen Konsens. Die meisten Autoren sprechen bei weniger als 100–200 mSv, das heißt unterhalb der Schwelle nachweisbarer negativer Gesundheitseffekte, von niedrigen und unterhalb 10–20 mSv von niedrigsten Dosen. So werden in einer wichtigen Erklärung der französischen Akademien der Wissenschaften und Medizin zur Bewertung von Niedrigdosen [7] konservativ < 100 mSv als Niedrigdosen angenommen. Leider ist eine rein sachliche Risikodefinition, etwa als Produkt aus Schadensgröße und Eintrittswahrscheinlichkeit, infolge einer Vielzahl komplizierender Faktoren hier nur bedingt anwendbar. Es gibt deshalb Modelle zur Quantifizierung des „gefühlten Risikos“ [8] unter Berücksichtigung von

·       Risikokontrolle (durch den Einzelnen kontrollierbar oder nicht),

·       Nutzen (Risiko verursacht Nutzen für den Einzelnen oder nicht),

·       Freiwilligkeit (Risiko freiwillig oder unfreiwillig),

·       Schweregrad (von kleineren bekannten Risiken bis zu katastrophalen Ereignissen),

·       Manifestierung (sofortige oder verzögerte Wirkung),

·       Ursache (natürliche oder „künstliche“ Risikoquelle) etc.

Unter anderem stellt sich in diesem Zusammenhang die Frage nach der Möglichkeit einer monetären Bewertung von Gesundheitsschäden. So kommt man in einem der zahlreichen Vergleiche von Risikominderungs-Kosten [9] zu dem Schluss, dass die Anwendung der derzeitigen US-Strahlenemissions-Vorschriften für Kernkraftwerke für ein Jahr zusätzlicher statistischer Lebenserwartung etwa 100 Mio. USD kostet. Bei der Radionuklid-Emission durch ein NRC-genehmigtes Kernkraftwerk auf der Basis der derzeit „offiziellen“ Annahmen zum Strahlenrisiko liegen diese Kosten mit 1.200 USD noch erheblich höher. Zum Vergleich: Bei Verbreiterung der Landstraßen um 60 cm läge dieser Wert bei etwa USD 0,12.

Selbst wenn man die LNT-Hypothese für richtig halt, bleibt das Risiko niedriger Dosen für die Volksgesundheit nach allen strahlenbiologischen Erkenntnissen vernachlässigbar, das Risiko für die Volkswirtschaft hingegen nicht. So errechnet sich ohne natürliche und medizinische Strahlenquellen für den Aufwand zur Vermeidung eines hypothetischen „Strahlentoten“ in der Nuklearindustrie ein monetärer Wert zwischen etwa 2 und 10 Mio. USD (bis zu 40 Mio. USD), mit einem Mittelwert in England um 4 Mio. USD [10] (übrigens sinkt mit zunehmendem Alter die „Willingness to Pay“). Solche Summen sind recht hoch für die Hälfte der Menschheit mit weniger als 700 USD Jahreseinkommen, wo 4 Mio. USD mindestens 5.700 Jahreseinkommen entsprechen. Daraus ergeben sich unter anderem interessante ethische Fragen. Oder wie es kürzlich formuliert wurde [8]: „Welche Denkweise konnte zu solch einer Ungleichheit und ungeheuerlichen (engl. „eregrious“) Verschwendung von Ressourcen führen?“

Die LNT-Kontroverse

Mehrere Expertengremien wie ICRP, NCRP und BEIR haben sich kürzlich zur kanzerogenen Wirkung niedriger Dosen geäußert. Besondere Beachtung fand der Entwurf ICRP 2005. In diesen Entwürfen finden sich zwar vorsichtige Einschränkungen hinsichtlich der wissenschaftlichen Belastbarkeit der LNT-Hypothese und der daraus durch Multiplikation niedrigster Dosiswerte mit großen Bevölkerungszahlen abgeleiteten Risiken. So heißt es in dem Entwurf ICRP 2005, dass die „Kollektivdosis nicht als solche benutzt werden sollte, um Entscheidungen zu treffen. Für Entscheidungen ist eine hohe Dosis für wenige Personen nicht äquivalent mit einer niedrigen Dosis für viele Personen …“ sowie die vage Bemerkung, dass „die Beziehung zwischen Dosis und gesundheitlicher Wirkung komplex ist“.

Trotzdem wird aber letztlich entschieden, dass die Mittelung der absorbierten Dosis nur unter der Annahme von LNT möglich ist, da alle Einheiten im Strahlenschutz auf dieser Hypothese basieren.

ICRP konzidiert, dass diese Empfehlungen „nicht allein auf der Basis wissenschaftlicher Konzepte“ beruhen, sondern auf „weltweiten Entscheidungen von Regierungen, Gerichten und Volksbefragungen“ [1]. Hier mischen sich eindeutig wissenschaftlich begründbare Sachfragen mit den fluktuierenden Stimmungslagen der „political correctness“ [5]. Dies wird auch besonders deutlich in der zunehmenden Tendenz, hinausgehend über die bisher übliche Praxis künftig auch alle anderen tierischen und pflanzlichen Spezies in Strahlenschutzbetrachtungen einzubeziehen, und ICRP gründete ein neues Komitee für solche und andere „ethische“ Fragen.

Zur uneingeschränkten Benutzung des Kollektiv-Dosis-Dogmas wurden schon häufig Bedenken geäußert, unter anderem seitens der SSK vor fast zwei Jahrzehnten [24]. Das hat aber keinesfalls bewirkt, bei Rückbau- und Sanierungsmaßnahmen nicht 0,01 mSv/Jahr, das heißt ca. 0,4 % der mittleren natürlichen Exposition, als Freigabegrenze zu praktizieren.

Die Meinung der Fachwelt

Wie voraussehbar, gibt es zunehmend Bedenken gegen LNT und Kollektivdosis in den Grenzwertfestlegungen der Regelsetzer. Diese haben sich unter anderem in einer Serie von zweijährlichen internationalen Kongressen zum Thema „Wirkung niedriger und sehr niedriger Dosen ionisierender Strahlung auf die menschliche Gesundheit“ (Versailles 1999, Dublin 2001, Teheran 2003, Hamilton/Kanada 2005, Varanisi 2006), über die zum Teil auch in der StrahlenschutzPRAXIS berichtet wurde, und in speziellen Fachzeitschriften wie „Internat. J. Nonlinearity“ und „Internat. J. Low Dose“ artikuliert. Die Bemühungen der Strahlenbiologen konzentrieren sich besonders auf Apoptose, Bystander-Effekte, genomische Instabilität, strahleninduzierte Reparaturmechanismen etc. nicht nur auf zellulärer Ebene, sondern auch in größeren Strukturen wie Organen und dem Gesamtorganismus.

Als Ursachen dafür, dass trotz der Bemühungen von Roger Clarke et al. kaum grundsätzliche Verbesserungen der alten Empfehlungen erfolgten, werden unter anderem die bekannte behördliche Lethargie hinsichtlich der Änderung obsoleter Vorschriften, politische Interessen und Einflussnahmen in manchen Ländern, und ökonomische Interessen seitens der Kreise, die von der Erhaltung der Radiophobie recht gut leben, vermutet. Dies hat auch innerhalb der ICRP und anderen Gremien schon zu erheblichen Kontroversen geführt. Im Internet waren bereits Ende 2004 über 200 überwiegend kritische Kommentare gegen den Entwurf ICRP 2005 zu finden. Der substanziellste ist der inzwischen auch in englischer Sprache vorliegende Bericht Nr. 2 der französischen Akademien [7, 11], in dem auf der Basis von 306 vorwiegend neueren Literaturhinweisen die Gültigkeit der LNT-Hypothese in Frage gestellt wird.

Ein anderes Beispiel ist ein Brief des Direktors des Office of Science des U.S. Energieministeriums vom 15. 7. 2005 an den Präsidenten der National Academy of Sciences, in dem es unter anderem heißt: „Es ist bekannt, dass auf dem molekularen, zellularen und Gewebe- bzw. Gesamtorganismus-Level Reparaturmechanismen existieren, die geschädigte Zellen eliminieren und die Krebsentstehung unterdrücken. Neuere Studien belegen, dass die Wirkungsweise sehr niedriger Dosen grundsätzlich anders ist als die hoher Dosen.“

Als Hinweis auf die Meinung der Strahlenschutzfachleute in den USA kann auch eine (derzeit noch unvollständige) Meinungsumfrage eines Strahlenschutz-Informationssystems dienen [12]. Von den Teilnehmern aus unterschiedlichen Bereichen des Strahlenschutzes sprachen sich nur 12 % für die Beibehaltung der LNT-Hypothese aus, jeweils etwa 40 % votierten für eine Schwellenbeziehung bzw. Hormesis und 7 % für eine sublineare quadratische Dosis-Wirkungs-Beziehung.

Strahlenbiologische Erklärung der Hormesis

Die Hormesis, die als Folge der Überlagerung von Schadens- und Defensivmechanismen im Organismus zu einer zunächst J-förmigen Dosis-Wirkungs-Beziehung und einem Schwellenwert um 100–200 mGy führt, ist in letzter Zeit besonders durch die Arbeiten von L. Feinendegen et al. [13] strahlenbiologisch zwingend erklärt und von vielen Seiten experimentell bestätigt worden, nachdem sie zunächst in der Fachwelt unter dem Eindruck des primären DNA-Schadens mit einer gewissen Skepsis betrachtet worden war. Inzwischen hat sie jedoch auch in der Strahlenbiologie einen Platz gefunden, den sie auf anderen Gebieten wie Pharmakologie und Toxikologie längst erlangte.

Deshalb wurde kürzlich von E. L. Calabrese von der University of Massachusetts eine International Hormesis Society mit einer eigenen Fachzeitschrift gegründet. Es ist seit langem für alle erdenklichen Umweltnoxen bekannt, dass eine lineare Dosis-Wirkungs-Beziehung eine seltene Ausnahme und keinesfalls die Regel darstellt und kleine Dosen in den meisten Fällen zunächst biopositive Effekte auslösen [23]. Strahlenwirkungen stellen hier keine Ausnahme dar [14].

Kritik an den Grundlagen regulativer Maßnahmen

Die Berichte und Empfehlungen der Vertreter des Strahlenschutz-Establishments als Grundlagen regulativer Maßnahmen wurden auch aus anderen Gründen kritisiert. Unter anderem wird auf die fehlende demokratische Legitimation dieser sich weitgehend aus sich selbst heraus regenerierenden Gruppen mit vielen personellen Überschneidungen zwischen den nationalen und internationalen Gremien hingewiesen. Die hochentwickelte Kunst des selektiven Zitierens stößt ebenfalls nicht überall auf Verständnis: Befunde und Autoren, die dem offiziösen LNT-Dogma widersprechen, werden nur selten und/oder abwertend zitiert, und es gibt begründete Vorwürfe hinsichtlich des Umganges mit epidemiologischen und statistischen Ergebnissen durch Auslassungen, Modifikation bzw. zielführende Interpretation unsicherer Befunde, die dann als Beweis für die LNT-Hypothese interpretiert werden. Außerdem bleibt es nationalen Behörden freigestellt, die ohnehin recht restriktiven Empfehlungen der ICRP noch weiter zu verschärfen. Der Entwurf eines deutschen „Radonschutzgesetzes“ bietet dafür ein anschauliches Beispiel [15].

So ist beispielsweise eine neuere Arbeit von E. Cardis et al. zum Krebsrisiko von Beschäftigten in der Nuklearindustrie in die Kritik geraten. Dazu heißt es in einer kürzlichen Stellungnahme des AKS des FS [16] unter anderem: „Solche Rechnungen sind außerordentlich problematisch. Sie setzen unmittelbar voraus, dass das LNT-Konzept Gültigkeit hat. Nahezu alle hypothetischen Todesfälle werden für einen Dosisbereich berechnet, für den eine Risikoerhöhung nicht nachgewiesen ist … so kann leicht ein grob verzerrter und suggestiv tendenziöser Eindruck vermittelt werden.“

Tschernobyl-Folgen

Als Hauptargumente gegen die Kernenergienutzung werden vor allem genannt: (a) Hypothetisch angenommene, jedoch nicht nachweisbare Schäden durch niedrige Strahlendosen; (b) die wegen politischer Behinderung immer noch „ungelöste“ Entsorgungsfrage; und (c) der Tschernobyl-Unfall als bisher einziger Unfall in einem kommerziell genutzten KKW, bei dem tatsächlich Strahlentote zu beklagen waren. In allen Fällen handelt es sich letztlich um die Bewertung von Niedrigstdosen. Trotz der hinreichend bekannten Fakten [17–19] wurden als Strahlenopfer von Tschernobyl in den vergangenen nahezu zwei Jahrzehnten nicht nur in Medien und Politik immer wieder unsinnig überhöhte Zahlen genannt. Hinweise (auch des Verfassers) auf die tatsächlichen Zahlen wurden selbst im Kollegenkreis oft als unangemessene Verharmlosung angezweifelt.

Zur vorläufig abschließenden Klärung dieser Frage fand zu dem Thema „Chernobyl: Looking Back to Go Forward“ im September 2005 in Wien eine interessante Tagung statt. Die Ergebnisse liegen als überaus lesenswerte Zusammenfassung [20] vor. Die umfassendste Untersuchung eines technischen Unfalles, die je durchgeführt wurde (andere Bezeichnungen wie Katastrophe, Tragödie oder Desaster werden von Fachleuten nur selten benutzt), wurden im allgemeinen Konsens der anwesenden Experten vom Konferenzpräsidenten Burt Bennett (RERF Hiroshima) dahin gehend zusammengefasst, dass es sich um ein Niedrigdosis-Ereignis handelte ohne weitreichende radiologische Folgen. Nachweisbare Erhöhungen der Leukämierate, anderer Krebsformen (außer dem praktisch hundertprozentig heilbaren kindlichen Schilddrüsenkrebs), von genetischen Defekten usw. wurden nicht festgestellt und sind auch nicht zu erwarten. Belegt sind ca. 43 vermutlich hauptsächlich strahlungsbedingte Todesfälle, darunter 29 als Folge des akuten Strahlensyndroms und neun als Folge der erhöhten Schilddrüsenkrebs-Inzidenz unter Kindern (wovon u. a. zwei nicht behandelt und bei einem die Medikamente nicht verabreicht wurden).

Damit liegt die Todeszahl, um ein Beispiel aus einem anderen Bereich der Energiewirtschaft zu wählen, unter einem Durchschnittstag im globalen (60 Tote) [21] bzw. wenigen Tagen im chinesischen Steinkohlebergbau (2004 über 6.000 namentlich bekannte Tote). Andere Vergleiche, z. B. mit erheblichen und z. T. sachlich unbegründeten Strahlenexpositionen in der medizinischen Strahlendiagnostik, die in Deutschland im Jahr nach dem Unfall zehnfach höher lagen als die kollektive Zusatzdosis durch Tschernobyl [22], sind bekannt. Selbst wenn man mögliche Sekundarkarzinome bei den Schilddrüsenfallen etc. berücksichtigt, durfte die Gesamtzahl der „Strahlentoten“ in der betroffenen Bevölkerung im zweistelligen Bereich liegen. Der Grund für eine deutlich verminderte Lebenserwartung unter den Männern und eine Vielzahl sozialer und ökonomischer Probleme ist, und auch darüber bestand voller Konsens, an ganz anderer Stelle zu suchen: Die soziale Verwahrlosung zeigt sich unter anderem im hohen Zigaretten- und Alkoholkonsum, ungesunder Ernährung, Arbeitslosigkeit und einer depressiv-initiativlosen Grundeinstellung.

Trotzdem fand sich in den Presseberichten über die Konferenz die nicht nachvollziehbare Zahl von ca. 4.000 „möglichen Todesopfern“. Auch andere Zahlen wurden mit dreistelliger Genauigkeit gehandelt von möglicherweise noch zu erwartenden, wenn auch grundsätzlich nicht nachweisbaren „Strahlenopfern“ in einer Population mit Millionen normalerweise zu erwartenden Krebsfällen. Diese Zahlen, von E. Cardis und F. Mettler mittels LNT-/Kollektivdosis-Hypothese errechnet, wurden bei den in Wien versammelten Fachleuten als „just politics“ bewertet.

Außerdem wurde mehrfach darauf hingewiesen, dass sich Hochdosis-Kurzzeitwerte von Hiroshima-Nagasaki-Überlebenden keinesfalls auf die Niedrigdosis-Langzeiteffekte im Tschernobyl-Umfeld übertragen lassen. Offen blieb die Frage, weshalb die relativ geringen Strahlenwirkungen des Tschernobyl-Unfalles eine solche nachhaltige publizistische Breitenwirkung erzielen konnten. Allerdings gibt es inzwischen eine „Tschernobyl-Industrie“ in Ost und West, die von der wirtschaftlichen Auswertung des Unfalles gut lebt. Hinzu kommen politisch-ideologische Interessengruppen, die den Unfall als Anti-Kernenergieargument instrumentalisieren.

Fazit

Zusammenfassend kann man feststellen, dass auf der Basis der in diesem Beitrag nur verkürzt dargestellten neueren Entwicklungen

·       die hohen Kosten zur Dosisreduzierung im Niedrigdosis-Bereich selbst bei Akzeptanz der LNT-Hypothese in einem extremen Missverhältnis zu rein hypothetischen und allenfalls marginalen Gesundheitsfolgen stehen;

·       durch neue wissenschaftliche Erkenntnisse belegt ist, dass sich Hochdosis-Dosisleistungs-Effekte nicht auf die biologische Wirkung niedriger und niedrigster Dosen extrapolieren lassen; und

·       die überaus konservative LNT-Hypothese vielfach zur Behinderung von Strahlennutzung in Medizin, Forschung, Technik und Kernenergie instrumentalisiert wurde.

Aus diesen und Gründen wissenschaftlicher Korrektheit und intellektueller Redlichkeit ist ein baldiger Paradigmenwechsel im Strahlenschutz erforderlich.

Literatur

[1] Becker, K.: Niedrigdosiseffekte und kein Ende. In: StrahlenschutzPRAXIS 4/2005, S. 87–90. Und: Quo vadis, Strahlenschutz? atw 51/1, 2006, S. 41–45.

[2] Becker, K.: ICRP 2005 – Much ado about nothing? StrahlenschutzPRAXIS 3/2004, S. 56–57.

[3] Becker, K.: Ursachen, Folgen und Therapie des Radiophobie-Syndroms. atw 50/2, 2004.

[4] Becker, K.: Reflections on Public Acceptance of Nuclear Energy and the Low Dose Issue. atw 46/1, 2001, S. 54–58.

[5] Becker, K.: Low Dose Regulations – from Science to Political Correctness. Internat. J. Low Dose, im Druck.

[6] LNT-Modell und Kollektivdosis – Neue Erkenntnisse und Kritik der Konzepte. 43. Radiometr. Seminar, Theuren, Kontakt: H. v. Philipsborn, Tel.++49/941/ 9 43-33 16.

[7] Académie des Sciences – Académie Nationale de Médicine, Tubiana M., et al. (Ed.): Dose-effect relationships and estimation of the cancerogenic effects of low doses of ionizing radiation. Nucleon, Paris 2005, ISBN 2-84332-018-6.

[8] Sandquist G. M.: Quantifying the perceived risk associated with nuclear energy issues. Int. J. Nucl. Energy Science and Technology 1/1, 2002, S. 61–67.

[9] Tengs, T. O., et al.: Five hundred life saving interventions and their cost-effectivness. Risk Anal. 15, 1995, S. 369–390.

[10] Jackson, D., et al.: A risk related value of spend for saving a statistical life. Proceed 7th Internal Symp. of the Society for Radiolog. Protect., U.K. 2005, in press.

[11] Authors of French Study rebut BEIR VII. Nucl. News 76, Nov. 2005.

[12] Karam, A.: Persönliche Mitteilung. August 2005.

[13] Feinendegen, L. E./Neumann, R. D.: Physics Must Join With Biology in Better Assessing Risk from Low-dose Irradiation. Radiat. Protect. Dos., in press.

[14] Calabrese, J. E./Baldwin, L. A.: Radiation hormesis: Its historical foundation as a biological hypothesis. Human & Experiment, Toxicology 19, 2000, S. 41–75.

[15] Becker, K.: Das Radonschutzgesetz – Ein neuer deutscher Weltrekord? StrahlenschutzPRAXIS 1/2005, S. 65–69.

[16] Breckow, J.: Cardis-Studienkommentar 5 des AKS. StrahlenschutzPRAXIS 4/2005, S. 126–128. Und: Müller et al.: Chernobyl – Looking Back to go Forward. Konferenzbericht, StrahlenschutzPRAXIS 4/2005, S. 80–82.

[17] UNSCEAR 2000: Report to the General Assembly, Sources and Effects of Ionizing Radiation, Vol. II. Annex J: Exposures and Effects of the Chernobyl Accident. United Nations 2000, S. 453–566.

[18] Becker, K.: Zehn Jahre danach: Das Erbe von Tschernobyl. Elektrizitätswirtschaft 95/3, S. 94–96.

[19] Informationskreis Kernenergie: Der Reaktorunfall in Tschernobyl. 2004, ISBN 3-926956-48-8.

[20] Chernobyl Legacy: Health, Environmental and Socioeconomic Aspects, and Recommendations to the Governments of Belarus, the Russian Federation and Ukraine. The Chernobyl Forum, IAEA/PI/A.87/05- 28601, erhältlich von info@iaea.org.

[21] Nuclear Reactions. IAEA Bulletin 47/1, 16. 10. 2005, S. 57.

[22] Regulla, D. F./Eder H.: Patient Exposure in Medical X-ray Imaging in Europe. Radiat. Protect. Dos. 114/1–3, 2005, S. 11–25.

[23] Calabrese, E. J.: Paradigm lost, paradigm found: The re-emergence of hormesis as a fundamental dose response model on the toxicological sciences. Environment. Pollution 2005, im Druck.

[24] Kaul, A., et al. Health Phys. 53, 1987, S. 9–10.

Aus der STRAHLENSCHUTZPRAXIS 2/2006, Seite 44 bis 48

Anmerkung der Redaktion

Herr Prof. Becker ist einer der ganz großen in Deutschland, die sich im Bereich der Wir-kungen von ionisierender Strahlung wissenschaftlich betätigt haben. Sein Bericht erschien 2006 in der Fachzeitschrift „StrahlenschutzPRAXIS“. Für einen Bericht ähn-lichen Inhalts erhielt Prof. Becker internationale Anerkennung durch den Preis der European Nuclear Society für die beste Publikation des Jahres 1998. 

Prof. Becker erhielt für einen Aufsatz mit ähnlichem Inhalt in Nuclear Europe Worldscan 1998 in London den Preis der European Nuclear Society für die beste Publikation des Jahres 1998.

Prof. Dr. Klaus Becker, geb. 1933, Studium der Chemie an der FU Berlin, Diplom 1957, Promotion TU München 1961, Leiter der Dosimetriegruppe der KFA Jülich 1959–1967, Leiter der Sektion „Angewandte Dosimetrieforschung“, ORNL, Oak Ridge, 1967–1975, 1975–1997 Geschäftsführer im DIN und Sekretär des TC 85 der ISO, seit 1996 Vizepräsident (Europa) von „Radiation, Science and Health“. Internationale Herausgeber- und Beraterfunktionen, u. a. für IAEA, EU, WHO und bilateral in ca. 20 Ländern. Etwa 350 Publikationen, Bücher und Patente zu Festkörperdosimetrie, Personen und Umgebungsüberwachung, Strahlenschutznormung sowie über grundsätzliche Fragen der Strahlenrisiko-Bewertung.




Globale Abkühlung: Steht eine Eiszeit bevor?

Kritiker vergleichen den Vorfall mit der Klimaänderungs-Bewegung selbst: stecken geblieben in der Verleugnung der Tatsache, dass sich das Klima nicht erwärmt, sondern deutlich kälter zu werden scheint.

Das Klima ändert sich, aber nicht in der Weise, wie es der Haufen der Klimaänderungspropheten vorhergesagt hat. Die Natur hat sich über die Vorhersagen zur globalen Erwärmung einfach hinweg gesetzt. Wer also sind die wirklichen Klimaleugner?

Das Eis dehnt sich nicht nur am Südpol, sondern auch in vielen Gebieten um den Nordpol aus. Und die kältesten arktischen Temperaturen seit Jahrzehnten haben sich über Nordamerika ausgebreitet.

Das hat Greenpeace jedoch nicht davon abgehalten, Kinder zu ängstigen, und zwar mit einem Video eines schwitzenden, mitgenommenen Weihnachtsmanns, der damit droht, Weihnachten abzusagen, weil der Nordpol schmilzt.

Globale Abkühlung

Die Tatsache, dass das arktische Eis zunimmt, könnte eine Nachricht sein, die nicht so gut ist wie man meinen könnte. Es gibt Anzeichen, dass die Erde in eine sehr unfreundliche Periode der Abkühlung tritt. Die Sonnenfleckenaktivität verharrt auf niedrigem Niveau. „Die Sonne hat sich während der letzten, fast 15 Jahre sehr ungewöhnlich verhalten“, sagte Jens Pedersen, leitender Wissenschaftler an der Technischen Universität Dänemark.

Pedersen sagte weiter, dass die Sonne kürzlich ihr solares Maximum erreicht habe und dass es eine starke Sonnenfleckenaktivität geben müsste, aber das ist nicht der Fall. „Wir müssen 100 Jahre zurück gehen, um ein ähnlich schwaches solares Maximum zu finden wie das Derzeitige“, sagte er in einem Interview mit NBC News. „Und das letzte solare Minimum … man muss 200 Jahre zurück gehen, um eines zu finden, dass ähnlich schwach ausgeprägt war“.

Das letzte Mal, als die Sonne ähnlich ruhig war, litten Nordamerika und Europa unter einem Klimaereignis vom 17. bis zum 19. Jahrhundert, das unter der Bezeichnung „kleine Eiszeit“ bekannt ist. Damals war die Themse in London regelmäßig zugefroren, und in Nordamerika gab es schlimme Winter. Es gab Missernten und Hungersnöte.

Verschleierung der Beweise

Pedersen zufolge wissen die Klimawissenschaftler, dass die Erde vor 15 Jahren aufgehört hat, sich weiter zu erwärmen. Aber das IPCC, für das Pedersen als Experten-Gutachter fungiert, hat jüngst einen Bericht seiner eigenen Wissenschaftler verschwinden lassen, in dem die Klimamodelle der UN als falsch nachgewiesen worden waren. „Im Einzelnen war einer der Aspekte, warum die globale Erwärmung seit 15 Jahren aufgehört hat, und Klimawissenschaftler sagen ganz offen, dass die Klimamodelle nicht zu dem Klima passen, das wir beobachten“, sagte Pedersen.

Aber Politiker haben dieses peinliche, ungelegen kommende Ergebnis aus der Endversion einfach gestrichen. Es ist so, als sei die vermeintliche Gefahr durch die Klimaänderung stimmen muss, weil sie jetzt zu wichtig ist. Das wurde zu einer politischen Bewegung, eine goldene Eier legende Gans für Klimawissenschaftler und Umweltgruppen – und eine Möglichkeit für die Führer der Welt, Wirtschaft und Volk zu kontrollieren.

„Es ist eine politische Agenda”, sagte Dan Gainor, Vizepräsident der Abteilung für Wirtschaft und Kultur am Media Research Center. „Wenn man sieht, welche Möglichkeiten sich der Regierung durch die Klimaänderung eröffnen, erhält sie Zugang zu jedem einzelnen Aspekt unseres Lebens“.

Ein Fall von Klimatismus

Steve Goreham, Autor des Buches The Mad, Mad, Mad World of Climatism, nennt das „Klimatismus”.

„Es ist eine Ideologie, und es ist ein Glaube, dass anthropogene Treibhausgase das Erdklima zerstören”, erklärte Goreham. „Aber es wurde zu einem Weg für globale Änderungen auf der ganzen Welt hinsichtlich der Übernahme grüner Ökonomie und Elektroautos sowie überall das Aufstellen von Windturbinen und Vorschriften für Glühlampen“.

Und dabei spielt es keine Rolle, in welchem Ausmaß die Klimaänderungs-Propheten daneben liegen. Der Oberadvokat für die globale Erwärmung Al Gore behauptete, dass das gesamte arktische Eis bis jetzt geschmolzen sein würde – aber in Wirklichkeit dehnt es sich aus.

Andere sagten eine Verknappung von Nahrungsmitteln und überschwemmte Küstenstriche voraus. Hurrikan Sandy und Taifun Haiyan sollten vermeintlich die Folge der Klimaänderung sein. Das ignoriert jedoch die Tatsache, dass es die schlimmsten tropischen Zyklone in den sechziger Jahren gegeben hatte.

Nichtsdestotrotz marschiert die Agenda der Klimaänderung immer weiter voran. Schon jetzt gibt die Welt mindestens 250 Milliarden Dollar pro Jahr in dieser Hinsicht aus, und Umweltaktivisten wollen immer noch mehr. Die Aktivisten verlangen von den entwickelten Ländern etwas, das sie „Klimagerechtigkeit“ nennen. „Was sie aber wirklich wollen ist die Versenkung von Billionen Dollar darin, irgendwo zwischen 1 und 3 Prozent des globalen BIP“, sagte Gainor.

Werden die Armen den Löwen vorgeworfen?

Skeptiker hinsichtlich der Klimaänderung wurden zensiert und mit Holocaust-Leugnern, ja sogar mit Kinderschändern verglichen. Aber was man bei all den Bemühungen, die Welt vor der Erwärmung zu retten, vergisst, sind die Auswirkungen dieser Bemühungen auf die Armen.

Goreham zufolge haben über eine Milliarde Menschen keinen Zugang zu elektrischem Strom, und fast noch einmal so viele kämpfen mit einer unzuverlässigen Stromversorgung. Billiger Strom aus Kohle könnte ein Rettungsanker für die Armen der Welt sein.

Aber die reichen Nationen der Erde wollen ihnen das nicht gönnen, und das alles im Namen der Rettung des Planeten vor einer Krise, die immer mehr zunehmenden Beweisen zufolge gar nicht existiert.

Link: http://www.cbn.com/cbnnews/healthscience/2014/January/Cover-Up-Mounting-Evidence-Belies-Global-Warming/

Übersetzt von Chris Frey EIKE




‚Kohle-Rausch‘ erfasst Europa – und lässt grüne Träume auf Eis liegen

Es war eine schwarze Weihnachtszeit für grüne Denker, hat doch Deutschland, weltführend bzgl. der Installation von Solarpaneelen auf Dächern und stolzer Vorreiter der Revolution erneuerbarer Energie, bestätigt, rasch zur Kohle zurückzukehren. Nach den Ausstieg aus der Kernkraft steigen die deutschen CO2-Emissionen wieder, wenn das Land lautstark fordert, einige der schmutzigsten Braunkohleminen wieder zu öffnen, die seit der Wiedervereinigung geschlossen worden waren.

China hat derweil im vorigen Jahr die zusätzliche Kohleproduktion von über 100 Millionen Tonnen genehmigt, und man hat dort Pläne, bis 2105 weitere 860 Millionen Tonnen zu erzeugen. Sogar noch ernüchternder ist der International Energy Agency IEA zufolge, dass Indien im nächsten Jahrzehnt China bzgl. des Hauptnachfragenden nach Kohle überholen wird. In seinen im vorigen Monat veröffentlichten mittelfristigen Aussichten sagte die IEA, dass die steigende Nachfrage eine „unendliche Geschichte“ sei. Kurz gesagt, „die Kohle-Nachfrage hat sich im Jahr 2012 wieder einmal mit dem größten Wachstum aller fossilen Treibstoffe hervorgetan“.

Trotz der steigenden Nachfrage verfügt die Welt über Kohle im Überfluss mit der Folge, dass Kohle vielerorts durch die niedrigeren Preise Gas den Rang abgelaufen hat, welches als eine sauberere Energiequelle angesehen wird. Die Zahlen bestätigen, dass der grüne Traum der immer knapper werdenden fossilen Treibstoffe weit von der Realität entfernt ist.

Für die australischen Politiker, die derzeit vor harten Entscheidungen stehen, wie man mit den Subventionen für Erneuerbare verfahren und mit dem pflichtgemäßen Ziel erneuerbarer Energie umgehen soll, ist die Story hinter den Zahlen in den Schlagzeilen noch wichtiger.

Seit vielen Jahren ist auf den globalen Energiemärkten eine strukturelle Übergangsphase zu beobachten, die weit reichende soziale, ökonomische und umweltliche Auswirkungen hat. Länder wie Deutschland, die sich am lautesten zur Abschwächung des Klimawandels bekannt haben, berichten über zunehmende CO2-Emissionen und steigende Energiekosten.

Die USA – von Umwelt-Aktivisten als zu langsam auf die Herausforderung des Klimawandels reagierend verlacht – haben ihre CO2-Emissionen deutlich reduziert bei gleichzeitig fallenden Energiepreisen. Das führte zu einem dringend erwünschten Wiederaufleben der Industrie.

Die Divergenz ist zum größten Teil darauf zurückzuführen, dass Europa mit generösen öffentlichen Subventionen kopfüber in die Erneuerbaren gesprungen ist, während man sich gleichzeitig in den USA neuen Technologien gewidmet hat, um riesige Ressourcen unkonventionellen Öls und Gases zu erschließen. In Zahlen laut IEA: im Jahre 2012 haben die USA nur ein Drittel der Subventionen wie Europa für Erneuerbare aufgebracht, 21 Milliarden Dollar im Vergleich zu 57 Milliarden Dollar.

Das alles addiert sich zu der Ironie, dass die aus Europa in Richtung USA losgetretenen Kampagnen wegen der Weigerung der USA, das Kyoto-Protokoll zu unterzeichnen, dazu geführt haben, dass die CO2-Emissionen dort gesunken sind.

Das EU-Flaggschiff hinsichtlich der Klima-Reaktionen, der Markt der Kohlenstoff-Zertifikate, ist durch Kontroversen, Korruptionsvorwürfe und einen totalen Preisverfall kollabiert.

Inzwischen haben es neue technische Innovationen den USA ermöglicht, seinen Kohlenstoff-Fußabdruck gründlich zu reduzieren, ungeachtet der großen Umweltkontroversen hinsichtlich der Anwendung hydraulischen Brechens oder Fracking, um die unkonventionellen Ressourcen zu erschließen.

Vor dem Hintergrund der globalen Finanzkrise ist das Auseinanderdriften sogar noch bedeutsamer.

Die Bedeutung der derzeit stattfindenden Veränderungen auf den Energiemärkten wurde durch die geschäftsführende Direktorin der IEA Maria van der Hoeven umrissen, als sie die Weltenergie-Aussichten im November veröffentlichte. Sie sagte, dass ein gestiegener Anteil des Exportes energieintensiver Güter aus den USA „ein klares Anzeichen für die Verbindung zwischen relativ niedrigen Energiepreisen und den industriellen Aussichten sind. Korrespondierend dazu verringert sich der Anteil der Europäischen Union und Japans im Vergleich zum gegenwärtigen Niveau“.

Für Entscheidungsträger, die versuchen, Wirtschafts-, Energie- und Umweltaspekte aufeinander abzustimmen, ist es Frau van der Hoeven zufolge unabdingbar, dass sie sich der Dynamik der Vorgänge im Herzen des heutigen Energiemarktes voll bewusst sind.

Und diese Dynamik ist ein Beweis für das harte Feilschen um Umweltprobleme, wenn gleichzeitig Erneuerbare in den Markt gezwungen werden und die kohlenstofffreie Kernkraft daraus entfernt wird. Für Politiker in Deutschland und Japan ist dies inzwischen zu einem ernsten Problem geworden.

Die deutschen Politiker haben sich dem öffentlichen Druck nach der Fukushima-Havarie infolge des Tsunamis gebeugt, die immer noch nicht völlig unter Kontrolle ist. Die deutsche Wettbewerbsfähigkeit hinsichtlich Energie wurde noch weiter eingeschränkt durch das europaweite Zögern bei der Erschließung unkonventionellen Gases.

In der Folge steigen die deutschen Kohlenstoff-Emissionen, ebenso wie die Energiekosten. Die Stromverbraucher revoltieren, und industrielle Großverbraucher treffen harte Entscheidungen, ihre Produktionsstätten in Gebiete mit niedrigeren Energiepreisen zu verlagern – einschließlich der USA.

Vergangene Woche haben sich die Medien auf den sich in Europa ausbildenden „Kohle-Rausch“ konzentriert.

Deutschland wird 10 neue Kohlekraftwerke bauen, öffnet praktisch jeden Monat neue Kohlemienen und – was die Aktivisten der Klimaänderungen am meisten besorgt – wendet sich zunehmend der Braunkohle zu, also der am wenigsten effizienten und schmutzigsten Form von Kohle.

Bloomberg berichtet: „Von Deutschland über Tschechien bis nach Polen wird der Braunkohle-Tagebau ausgeweitet. Alarmiert durch Strompreise, die doppelt so hoch sind wie in den USA, genehmigen die Politiker den Ausbau der Kohlemienen, die während der letzten zwei Jahrzehnte zurückgefahren worden sind“.

Die IEA sagt voraus, dass die weltweite Nachfrage nach Braunkohle bis zum Jahr 2020 bis zu 5,4 Prozent steigen wird.

Jedoch sagt niemand, dass das das Ende des Weges der Erneuerbaren ist.

Tatsächlich geht die EIA davon aus, dass der Anteil der Erneuerbaren an der Gesamt-Energieerzeugung von 20 Prozent 2011 auf 31 Prozent 2035 steigen wird.

In China wird die größte absolute Zunahme der Energieerzeugung aus Erneuerbaren angenommen, mehr als in der EU, den USA und Japan zusammen.

Aber damit die Vorhersage der EIA eintrifft, müssen die globalen Subventionen von 101 Milliarden Dollar 2012 auf 220 Milliarden Dollar 2035 steigen.

Erneuerbare geraten also sowohl finanziell als auch technologisch unter Druck.

Neue Batterien-Technologien zur Massenspeicherung – kritisch für die Erneuerbaren – machen Fortschritte. Nature berichtete diese Woche von einem Durchbruch bei „Flow Technology“-Batterien, die mit billigen, jederzeit verfügbaren Chemikalien betrieben werden können, um große Mengen erneuerbarer Energie zu speichern als Backup.

Aber selbst mit Strafzahlungen für Kohlendioxid-Emissionen sind die Kosten für diese Speicherung um ein Vielfaches höher als die Erzeugungskosten mit Kohle.

Das Ausmaß der „Zappeligkeit” der Erneuerbaren – und des Problems, dass damit für Politiker und Endverbraucher einhergeht – wurde in der Zeitung Die Welt beschrieben. Ihr zufolge ist die Stromerzeugung in Deutschland durch Wind und Solar Anfang Dezember effektiv zum Erliegen gekommen. „Mehr als 23000 Windturbinen standen still“, hieß es dort, „eine Million Photovoltaik-Anlagen haben ihre Arbeit komplett eingestellt. Eine ganze Woche lang mussten Kohle-, Kern- und Gaskraftwerke schätzungsweise 95 Prozent des Bedarfs in Deutschland decken“.

Die Zeiten der Windstille sind die Kehrseite der triumphierenden Statements der Erneuerbare-Energie-Unternehmen, hinausposaunt zu Zeiten, in denen die Erzeugung Spitzenwerte infolge geeigneter Wetterbedingungen zeigen.

Dies ist ein Hauptgrund, warum die politische Unterstützung für Erneuerbare zu erodieren beginnt. Es gibt Hinweise darauf, dass europaweit Druck ausgeübt wird, wobei die Europäische Kommission sich darauf vorbereitet, ein Ende der Subventionen für Wind und Solar bis zum Ende dieses Jahrzehnts anzuordnen.

Der britischen Zeitung The Telegraph zufolge bereitet sich die Kommission, die den europäischen Einzelmarkt überschaut, darauf vor zu verkünden, dass Wind- und Solarindustrie an Land ausgereift sind und vom Steuerzahler keine Unterstützung mehr brauchen.

Auch breitet sich Frustration aus angesichts des kostspieligen Scheiterns der viele Milliarden Dollar schweren Offshore-Windparks, die einst aufdringlich als die Zukunft der Erneuerbaren angepriesen worden waren.

Die sich abzeichnenden Ereignisse in Europa und den USA sind von besonderem Interesse für die australischen Politiker inmitten einer Neuausrichtung der Klima- und Energiepolitik.

Im Vergleich zu den tektonischen Verschiebungen im globalen Maßstab sitzt Australien auf der Spitze eines Umkehrpunktes. Einige mächtige Stimmen werden laut, die sagen, dass Australien den seit Langem bestehenden natürlichen Vorteil billiger Energie verspielt habe – und nicht genug tut, die Position einer Energie-Supermacht der Zukunft zu erlangen. Der heimische Industriepreis für Strom beträgt etwa 20 Cent pro Kilowattstunde und ist damit mehr als doppelt so hoch wie in den USA.

Der führende Berater von Tony Abbott Maurice Newman hat die fehlgeleitete Politik bzgl. der Klimaänderung für den Niedergang heimischer Produktion verantwortlich gemacht. Der Premierminister stellte sich diese Woche hinter Aufrufe einer gründlichen Untersuchung, ob Windparks gesundheitliche Auswirkungen auf Anwohner haben.

Das alles fügt sich zusammen zum schlimmsten Alptraum für die Eerneuerbare-Energien-Unternehmen.

GWPF bietet einen Link zur vollständigen Story bei The Australian, die jedoch paywalled ist. Der Link: http://www.theaustralian.com.au/news/features/green-dream-on-ice-as-coal-frenzy-grips-europe-and-renewables-lose-their-attraction/story-e6frg6z6-1226799246334#

Link zum Original dieser Übersetzung: http://www.thegwpf.org/green-dream-ice-coal-frenzy-grips-europe/

Übersetzt von Chris Frey EIKE, Januar 2014




AR5: Heimlich, still und leise verabschiedet sich das IPCC von seinen Vorhersagen der globalen Erwärmung

Die offiziellen Projektionen der globalen Erwärmung sind abgestürzt, seit Dr. James Hansen vom GISS dem US-Kongress im Juni 1988 gesagt hat, dass sich die Welt bis zum Jahr 2050 alle 20 Jahre um 1,0°C erwärmen wird (Abbildung 1), was eine Erwärmung von 6°C bis zum Jahr 2100 bedeuten würde.

Abbildung 1: Projizierte globale Erwärmung von 1988 bis 2019 bei drei angenommenen Szenarien (oben) und von 1988 bis 2060 bei Szenario A (unten). Grundlage: Hansens Aussage vor dem US-Kongress in jenem Juni, dass Szenario A sein Business-as-usual sei. Der Trend von 1988 bis 2050 unter diesem Szenario (Pfeile) läge etwa bei 0,5°C pro Dekade.

[Bisherige Projektionen des IPCC]: 1990 (Seite xi) projizierte Erwärmung bis 2100 0,2°C-0,5°C pro Dekade. 1995 (S. 6) 0,1°C bis 0,35°C pro Dekade. 2001 (S. 8) 0,13°C-0,43°C pro Jahrzehnt bis 2050. 2007: (S. 13, Tabelle SPM 3) 0,11°C-0,64°C pro Jahrzehnt bis 2100.

Abbildung 2: Kurzfristige Erwärmungs-Projektionen (2005 bis 2050) relativ zu 1986 bis 2005 basierend auf 42 Modellen (farbig) im Vergleich zu Beobachtungen (schwarz). In der zweiten Version des IPCC-Berichtes 2013 war eine globale Erwärmung von 0,4°C bis 1,0°C projiziert worden (rote Pfeile), äquivalent mit +0,13°C bis 0,33°C pro Jahrzehnt. In der Endversion sind es nur noch 0,4°C bis 0,7°C über 30 Jahre (grüne Pfeile), äquivalent zu nur 0,10 bis 0,23°C pro Jahrzehnt. Basis des Diagramms IPCC (2013), Abbildung 11.25a)

In der zweiten Version (2013; Abbildung 11.33) waren noch 0,13°C bis 0,33°C pro Dekade bis zum Jahr 2050 projiziert worden. Allerdings hat man diesen Betrag in der Endversion auf 0,10°C bis 0,23°C pro Dekade zurückgefahren (Abb. 2), wobei das IPCC eher von einem Wert im unteren Bereich dieser revidierten Bandbreite ausgeht.

Die projizierte Bandbreite in der zweiten Version war konsistent mit den Modellen, aber die überarbeitete Bandbreite in der Endversion lag am unteren Ende der Modellprojektionen (Abb. 3). Implizit bedeutet das, dass auch das IPCC nicht mehr davon ausgeht, dass die Modelle die Erwärmung akkurat vorhersagen.

Das IPCC sagt:

„Ohne große Vulkanausbrüche – welche eine signifikante, aber vorübergehende Abkühlung auslösen würden – und unter der Annahme fehlender signifikanter Änderungen der Solarstrahlung ist es alles in allem wahrscheinlich (Wahrscheinlichkeit >66%), dass die globale Temperaturanomalie der Periode 2016 bis 2035 um 0,3°C bis 0,7°C wärmer ausfallen wird als die Periode 1986 bis 2005 (IPCC 2013, S. 11-52).

Abbildung 3: Oben: Modellprojektionen der globalen Erwärmung bis zum Zeitraum 2016 bis 2035 verglichen mit 1986 bis 2005 – Intervall von 0,4 K bis 1,0 K, äquivalent mit 0,13 K bis 0,33 K pro Dekade (zwischen den grau gepunkteten Linien, basierend auf IPCC 2. Entwurf, Abb. 11.33c). Unten: Das überarbeitete Intervall aus der Endversion von 0,3 K bis 0,7 K über 30 Jahre oder 0,10K bis 0,233* K pro Dekade, sichtbar an der unteren Grenze der Modellprojektionen (IPCC 2013, Abb. 11.25c). Diese implizite Zurückweisung der Modellvorhersagen ist bis jetzt nicht bemerkt oder zur Kenntnis genommen worden. Begutachter der zweiten Version wurden nicht konsultiert hinsichtlich dieser Änderungen bei den kurzfristigen Prognosen, obwohl viele dieser Begutachter genau dafür plädiert hatten.

[*Im Original steht hier der Wert 2,33, aber da gehe ich von einem Schreibfehler aus. A. d. Übers.]

Die explizite Hinwendung des IPCC zu seinen eigenen „Experten-Abschätzungen“ und weg von den Modellprojektionen stellt einen signifikanten Rückzieher dar. Allerdings könnte selbst diese verringerte Schätzung von 0,13°C pro Dekade noch im oberen Bereich liegen. Den Beobachtungen zufolge hatte die Erwärmung seit 1950 unter 0,11°C pro Dekade gelegen (HadCRUT4 2013, Abbildung 4):

Abbildung 4: globale mittlere Temperaturanomalien und Trend kleinster Quadrate 0,11°C pro Dekade, Januar 1950 bis November 2013 (Basis: HadCRUT4-Daten).

Das ist aber nicht alles. Trotz einer Rekord-Zunahme der CO2-Konzentration gab es seit fast 13 Jahren keine globale Erwärmung mehr (Mittel der Datensätze GISS, HadCRUT4, NCDC, RSS, & UAH) Abbildung 5 bzw. seit über 17 Jahren laut Satellitenbeobachtungen (RSS 2013) Abbildung 6, außerdem keine Erwärmung, die aus der Kombination von Messungen, [räumlicher] Abdeckung und Verzerrungen seit 18 Jahren (HadCRUT4 2013) Abbildung 7 hervorgeht.

Abbildung 5: Monatliche globale Anomalien am Boden oder in der unteren Troposphäre (dunkelblau) sowie Kleinste-Quadrate-Lineare-Regressions-Trend (hellblau: Mittel aus Datensätzen von GISS, HadCRUT4, NCDC, RSS und UAH), Januar 2001 bis November 2013. Es zeigt sich keine globale Erwärmung seit fast 13 Jahren, unbeschadet fortgesetzter rapider Zunahme der atmosphärischen CO2-Konzentration (grau).

Abbildung 6: Trotz einer fast linearen Zunahme der CO2-Konzentration um 2 μatm pro Jahr (NOAA 2013, grau) war der Kleinste-Quadrate-Lineare-Regressions-Trend (hellblau) aus den monatlichen RSS-Satellitendaten der globalen Anomalien der unteren Troposphäre (dunkelblau) Null seit 17 Jahren und 3 Monaten (207 Monate).

Abbildung 7: Monatliche globale Temperaturanomalien und Trend aus den HadCRUT4-Daten von Februar 1996 bis November 2013. Sie zeigen einen linearen Trend, der vollständig in der Bandbreite der kombinierten Messungen liegt und damit von diesen nicht unterscheidbar ist.

Angesichts der wachsenden Divergenz zwischen Modellen und Beobachtungen ist ein direkter Vergleich zwischen den jetzt vom IPCC reduzierten Erwartungen bzgl. der globalen Erwärmung und der beobachteten Temperaturänderung seit 2005 angebracht, ist dies doch ein Indikator für die Brauchbarkeit der Modelle hinsichtlich ihrer Projektionen der globalen Erwärmung.

Abbildung 8 zeigt einen solchen Vergleich, basierend auf den herabgestuften Projektionen des IPCC 2013 (Abb. 11.25a: siehe Abbildung 2 oben). In den neun Jahren seit 2005 ist es zu einer Abweichung von 0,15°C gekommen.

Abbildung 8: Orange Fläche: Modellprojektionen der Erwärmung, Januar 2005 bis November 2013 im Intervall 1,33 (1,0; 2,33)°C pro Jahrhundert (IPCC 2013, Abbildung 11.25a). Die mittlere Schätzung der zweiten Version ist die hohe Schätzung der Endversion; die ehemalige niedrige Schätzung ist jetzt die zentrale Schätzung. Dicke rote Trendlinie: zentrale Projektion einer Erwärmung um 0,12 K während des Zeitraumes von 107 Monaten, äquivalent zu 1,33°C pro Jahrhundert. Graue Kurve und Trendlinie: monatliche Anomalien der CO2-Konzentration (NOAA 2013) und 18 μatm-Trend (198 μatm pro Jahrhundert), welcher einen Antrieb von 0,24 W/m² verursachte (oder 0,35 W/m² einschließlich anderer anthropogenen Antriebe). Von der projizierten Erwärmung um 0,21°C als Folge dieses Antriebs ist die Hälfte bereits eingetreten. Dicke hellblaue Trendlinie: Globale Abkühlung von 0,03°C (0,3°C pro Jahrhundert; Mittel aus 5 Datensätzen). Während des gesamten Zeitraumes haben die Modelle die Erwärmung um 0,15°C übertrieben (1,6°C pro Jahrhundert).

Es kommen immer mehr Beweise zusammen, dass die Modelle und als Konsequenz das IPCC die globale Erwärmung überschätzt haben. Trotzdem hat weder diese falsch aufgefasste Organisation noch irgendeine ihrer nicht denkenden Anhänger irgendeine Art von schlechtem gewissen oder Reue gezeigt. Stattdessen bestehen sie weiterhin darauf, dass die Pause der Erwärmung nur vorübergehend ist, obwohl sie keine Erklärung für den Grund haben; oder sie machen bestimmte Aerosole dafür verantwortlich, ihren get-out-of-jail-free fudge-factor; oder sie tun so, als gehe die Erwärmung ohne Abschwächung weiter, wobei sie, die Wärme, sich lediglich in den Tiefen der Ozeane versteckt hätte, was wir für sie, das IPCC, bequemerweise nicht messen können, oder dass das System Erde – Atmosphäre ein Fieber hat, getrieben durch eine Zunahme des Wärmegehaltes in der Größenordnung von vier Atombomben in jeder Sekunde.

Was sie nicht zu tolerieren bereit sind, trotz der gemessenen Beweise in der realen Welt, ist die wachsende Wahrscheinlichkeit, dass sie und ihre so wertvollen Modelle das Klima so gründlich missverstanden haben, dass die globale Erwärmung ganz einfach nicht einmal annähernd so verläuft, wie sie es ihren übertriebenen Modellraten so vertrauensvoll entnommen haben.

Man unterschätze nicht die Bedeutung dieses IPCC-Rückzugs, obwohl er verstohlen vonstatten geht und sich kein einziger Hinweis darauf in der Summary for Policymakers findet – dem einzigen Teil der letzten Zustandsbeschreibung, den faule Politiker und uninteressierte Journalisten vielleicht zu Gesicht bekommen.

Abbildung 9: Fünf Projektionen der globalen Erwärmung von 1990 bis 2050, verglichen mit den linearen Trends zweier Datensätze mit Messungen. Die IPCC-Projektionen sind Schätzungen des mittleren Bereiches. Der Trend (grün) der monatlichen Temperaturanomalien im HadCRUT4-Datensatz reflektiert eine beobachtete Erwärmung von 0,11 K pro Dekade seit 1950. Der Trend (dunkelgrün) der RSS-Satellitendaten reflektiert den Null-Trend, der nunmehr seit 17 Jahren andauert. Beide beobachteten Trends sind bis zum Jahr 2050 extrapoliert.

Falls Ihnen irgendjemand noch einmal weismachen sollte, dass die Wissenschaft settled ist, wie es das inzwischen gestrichene Klimakommissariat in Australien in seinem letzten, vom Steuerzahler finanzierten Propagandablättchen getan hat, dann verweisen Sie auf Abbildung 9 und stellen zwei Fragen.

Erstens, zeigen Sie auf die rot markierte Zone Projektionen und fragen Sie, über welchen Bereich der sehr großen Bandbreite der offiziellen Projektionen die Wissenschaft settled ist.

Zweitens, zeigen Sie auf die grüne Zone Beobachtungen und fragen Sie, warum das reale Klima sich so beharrlich weigert, der settled Wissenschaft zu folgen.

Dann lehnen Sie sich zurück und lauschen dem zunehmend demoralisierten und zerrissenen Gewäsch der Offiziellen. Der Unsinn wickelt sich ab, und das Spiel ist aus.

References

GISS, 2013, Monthly global mean surface temperature anomalies, 1880-2013, from http://data.giss.nasa.gov/gistemp/tabledata_v3/GLB.Ts+dSST.txt.

HadCRUT4, 2013, Monthly global mean surface temperature anomalies, from www.metoffice.gov.uk/hadobs/hadcrut4/data/current/time_series/HadCRUT.4.2.0.0.monthly_ns_avg.txt.

Hansen, J., I., Fung, A. Lacis, D. Rind, S. Lebedeff, R. Ruedy, and G. Russell, 1988, Global climate changes as forecast by Goddard Institute for Space Studies Three-Dimensional Model. J. Geophys. Res. 93 (D8): 9341-9364.

IPCC, 1990, Climate Change – The IPCC Assessment (1990): Report prepared for Intergovernmental Panel on Climate Change by Working Group I, J.T. Houghton, G.J. Jenkins and J.J. Ephraums (eds.), Cambridge University Press, Cambridge, Great Britain, New York, NY, USA and Melbourne, Australia, 410 pp.

IPCC, 1995, Climate Change 1995 – The Science of Climate Change: Contribution of WG1 to the Second Assessment Report, J.T. Houghton, L.G. Meira Filho, B.A. Callander, N. Harris, A. Kattenberg, and K. Maskell (eds.), Cambridge University Press, Cambridge, Great Britain, New York, NY, USA and Melbourne, Australia.

IPCC, 2001, Climate Change 2001: The Scientific Basis. Contribution of Working Group I to the Third Assessment Report of the Intergovernmental Panel on Climate Change [Houghton, J.T., Y. Ding, D.J. Griggs, M. Noguer, P.J. van der Linden, X. Dai, K. Maskell and C.A. Johnson (eds.)]. Cambridge University Press, Cambridge, United Kingdom, and New York, NY, USA, 881 pp.

IPCC, 2007, Climate Change 2007: The Physical Science Basis. Contribution of Working Group I to the Fourth Assessment Report of the Intergovernmental Panel on Climate Change, 2007 [Solomon, S., D. Qin, M. Manning, Z. Chen, M. Marquis, K.B. Avery, M. Tignor and H.L. Miller (eds.)], Cambridge University Press, Cambridge, United Kingdom, and New York, NY, USA.

IPCC, 2013, Climate Change 2013: The Physical Science Basis. Contribution of Working Group I to the Fifth Assessment Report of the Intergovernmental Panel on Climate Change [Stocker, T.F., D. Qin, G.-K Plattner, M. Tignor, S.K. Allen, J. Boschung, A. Nauels, Y. Xia, V. Bex, and P.M. Midgley (eds.)], Cambridge University Press, Cambridge, United Kingdom, and New York, NY, USA.

NCDC, 2013, Monthly global mean surface temperature anomalies, 1880-2013, from ftp://ftp.ncdc.noaa.gov/pub/data/anomalies/monthly.land_ocean.90S.90N.df_1901-2000mean.dat.

NOAA, 2013, Monthly mean atmospheric CO2 concentration anomalies, 1958-2013, from ftp://ftp.cmdl.noaa.gov/ccg/co2/trends/co2_mm_mlo.txt.

RSS, Inc., 2013, Global mean lower-troposphere temperature anomalies, 1979-2013, remss.com/data/msu/monthly_time_series/RSS_Monthly_MSU_AMSU_Channel_TLT_Anomalies_Land_and_Ocean_v03_3.txt.

UAH, 2013, Satellite MSU monthly global mean lower-troposphere temperature anomalies: vortex.nsstc.uah.edu/data/msu/t2lt/uahncdc.lt.

Link: http://wattsupwiththat.com/2014/01/01/ipcc-silently-slashes-its-global-warming-predictions-in-the-ar5-final-draft/

Übersetzt von Chris Frey EIKE




China stellt Klimakonsens in Frage

Während die CAS eine Plattform für Diskussionen zum Thema Klima anbietet, stimmt sie selbst den NIPCC-Ergebnissen nicht auf jeden Fall zu – stehen doch diese Ergebnisse im Gegensatz zu denen des IPCC. Vielmehr demonstriert die CAS eine anerkennenswerte Bereitschaft, eine offene Diskussion über wissenschaftliche Fragen zu ermutigen. Es ist wohl das erste Mal überhaupt. Keine solche Diskussion wurde bislang durch die Royal Society in UK oder der US Academy of Sciences zugelassen.

Allerdings scheint es innerhalb der CAS eine Meinungsgruppe zu geben, die den NIPCC-Ergebnissen folgt. Gezeigt hat das ein Workshop am 15. Juni in Peking. Ihm folgte ein Symposium im September, auf dem ganz klar die Ansichten des IPCC unterstützt wurden. Ich hoffe, dass die interne wissenschaftliche Debatte es der CAS ermöglichen wird, eine überarbeitete Meinung zu gewinnen, ob AGW eine Gefahr für das menschliche Wohlbefinden ist, wie es von den Alarmisten behauptet wird. (Einige bohrende Fragen folgen weiter unten).

Aber es geht hier um mehr als nur um eine Debatte zum Thema Klimawissenschaft. Viele persönliche Faktoren kommen ins Spiel, so wie es bei Wissenschaftlern überall der Fall ist. Ist ein Wissenschaftler erst einmal ein Rädchen im Getriebe des IPCC, wird er normalerweise an vielen Workshops und Symposien während des Jahres teilnehmen, üblicherweise an exotischen Orten (Bali, Cancun, Marrakesch) und in Erster-Klasse-Hotels wohnen. Es gibt auch die Kameradschaft, Teil einer internationalen wissenschaftlichen Forschung zu sein, interessante Kontakte herzustellen und wissenschaftliche und persönliche Freundschaften einzugehen. Und dann gibt es da noch ein gewisses Prestige, oftmals reflektiert durch professionelles Karriere machen, durch Gehaltssteigerungen und Auszeichnungen – und nicht zu vergessen lukrative Forschungszuwendungen durch willfährige Regierungsagenturen und großzügige private Spender (darunter oftmals auch Big Oil!).

Und schließlich gibt es da dieses Gefühl, dass die wissenschaftlichen Bemühungen dabei helfen, wichtige politische Maßnahmen festzulegen, die „das Klima retten“ und das menschliche Wohlbefinden steigern. Zumindest scheint das derzeit die in Europa und den USA vorherrschende Meinung zu sein. Aber es wäre übereilt zu sagen, dass diese idealistische Hoffnung auch zutrifft. Man kann sich einfach nicht vorstellen, dass wichtige Entscheidungen bzgl. der Zukunft ökonomischen Wachstums und der nationalen Entwicklung in China durch rein wissenschaftliche Meinungen in Geiselhaft genommen werden. Wenn überhaupt, dann tendiert die nationale Politik dazu, der vermeintlichen Gefahr von AGW konservativ und skeptisch gegenüber zu treten. In China werden solche Entscheidungen möglicherweise durch die National Development and Reform Commission getroffen, in deren Bereich auch die internationalen Verhandlungen bzgl. des Kyoto-Protokolls fallen (um Treibhausgase zu reduzieren). China war gegen Kyoto – und die USA haben anders als andere OECD-Nationen das Protokoll niemals ratifiziert.

Als Unterstützung für diese Ansicht kann man das Übereinkommen zwischen Präsident Obama und dem chinesischen Präsidenten bei ihrem jüngsten Treffen in Hawaii betrachten. Dabei ging es um die Reduktion der Emissionen von Fluorchlorkohlenwasserstoffen (HFC), die in Kühlschränken anstelle von CFCs eingesetzt werden. Ihr Kommuniqué sagte nichts zu Kohlendioxid, dem wichtigsten Treibhausgas, das durch die Energieerzeugung aus fossilen Treibstoffen resultiert und für ökonomisches Wachstum unabdingbar ist.

Als Gegenbeispiel kann man natürlich die jüngst verkündete Klimapolitik von Präsdient Obama anführen, die von der Angst vor AGW getrieben scheint – oder, wahrscheinlicher, durch die Angst, die politische Unterstützung der Alarmisten zu verlieren. Obwohl diese nur einen kleinen Teil der US-Bevölkerung stellen, finden sich unter den Alarmisten ein großer Teil der Medien und anderer einflussreicher Meinungsbildender. Mr. Obama hat etwas versprochen, das in einen „Krieg gegen die Kohle“ mündet, der reichlichst und billigst vorhandenen Quelle zur Stromerzeugung. Aber alles deutet darauf hin, dass die Politik des Weißen Hauses politisch motiviert und nicht von der Wissenschaft getrieben ist. Ein guter Indikator für die wirklichen Motive ist die Möglichkeit, dass Obama gegen die Keystone-XL-Pipeline sein Veto einlegen wird. Durch diese Pipeline sollen kanadische Ölsande zu texanischen Raffinerien transportiert werden. Wie jeder erkennt, wäre ein solches Veto nichts weiter als eine Beruhigungspille für die Umweltaktivisten, da es kaum die Entscheidung der kanadischen Regierung beeinflussen dürfte, das Öl aus den Sanden zu extrahieren.

Andererseits hat China gerade verlauten lassen, dass es versuchsweise einen Zertifikate-Handel einführen möchte. Aber ich habe den Verdacht, dass dies nicht einfach darauf abzielt, die CO2-Emissionen zu reduzieren, sondern dazu dienen soll, die Effizienz alter Kohlekraftwerke zu steigern, die derzeit nur 11% beträgt.

Zum Vergleich, die meisten US-Kraftwerke haben eine Effizienz von mindestens 35% – d. h. 35% der durch die Kohleverbrennung entstandenen Wärme werden in nutzbaren Strom umgewandelt. Die „super-kritischen“ Kohlekraftwerke, die jetzt gebaut werden, kommen auf eine Effizienz bis 55%. Dies bedeutet, dass China Kohlekraftwerke bauen kann, die fünfmal soviel Strom erzeugen können (mit der gleichen Menge Treibstoff) wie die derzeit laufenden älteren Typen – mit Sicherheit ein lohnenswertes Ziel. Aber das wird kaum etwas für das globale Klima tun, wenn überhaupt, und sollte nicht als Klimapolitik bezeichnet werden.

Einige Fragen an das IPCC:

Wie oben schon angesprochen, plant die CAS im September ein Symposium in Peking, um die Pro-IPCC-Argumente zu sammeln und zu versuchen, ihre Regierung davon zu überzeugen, dass die Menschen einen wichtigen Beitrag zur globalen Erwärmung leisten. Im Vorfeld dieses Symposiums würde man den Organisatoren gerne folgende Fragen stellen:

1. Können Sie erklären, warum es während der letzten 15 Jahre keine signifikante Erwärmung gegeben hat – trotz einer rapiden Zunahme des atmosphärischen CO2-Gehaltes?

2. Kann jemand erklären, warum die tropischen Atmosphäre zwischen 1979 und 2000 keine Erwärmung gezeigt hat (abgesehen von dem einjährigen Temperatursprung im Jahre 1998, der einem Super-El Niño geschuldet war) und dann wieder zwischen 2002 und 2012 – während die Modelle vorhersagen, dass sich die Atmosphäre schneller erwärmen soll als die Oberfläche?

3. Kann jemand erklären, warum es in der Antarktis immer kälter wird und das Meereis um die Antarktis stetig weiter zunimmt – während doch die Modelle eine besonders starke Erwärmung in höheren Breiten annehmen?

4. Warum gibt es einen so starken Unterschied der Temperaturtrends zwischen der nördlichen und der südlichen Hemisphäre – was von den Klimamodellen nicht gezeigt wird?

5. Es gibt auch eine schreiende Diskrepanz zwischen der beobachteten und der modellierten  Breitenabhängigkeit bzgl. Wolken und Niederschlag. Wie kommt das?

6. Kann jemand die Ursachen der starken Erwärmung zwischen 1910 und 1940 erklären? Sie ist höchstwahrscheinlich nicht anthropogenen Ursprungs, war doch das Niveau von Treibhausgasen vor dem 2. Weltkrieg ziemlich niedrig.

7. Können gegenwärtige Klimamodelle die beobachteten multidekadischen Oszillationen in Pazifik und Atlantik abbilden?

8. Und schließlich, kann jemand die Existenz der so genannten Kleinen Eiszeit erklären zwischen 1400 und 1800 sowie das offensichtliche Zusammenfallen extremer Kälte mit niedrigen Sonnenflecken-Zahlen?

Es ist eindeutig, dass die Klimamodelle nicht erklären können, was tatsächlich beobachtet wird. Dabei ist es ein Prinzip der Wissenschaft, dass Beobachtungen immer vor allem anderen stehen müssen. Die Modelle sind durch aktuelle Beobachtungen nicht bestätigt worden und sollten daher nicht für Vorhersagen für die Zukunft herangezogen werden. Im jüngsten IPCC-Bericht wird behauptet, dass Modelle und Beobachtungen übereinstimmen, aber diese Behauptungen sind eindeutig sehr fragwürdig.

Die chinesische Akademie der Wissenschaften hat einen wichtigen Schritt unternommen zu versuchen, für eine rationale Klimapolitik essentielle Fragen zu beantworten. Die Welt wird diese Pionier-Bemühungen sicher mit großem Interesse verfolgen

Ein kurzes Wort zu Kohlendioxid: Es ist ein geruchloser, ungiftiger natürlicher Bestandteil der Erdatmosphäre. Als grundlegendes Nahrungsmittel für alle Pflanzen ist es absolut unabdingbar als Basis allen Lebens auf unserem Planeten. CO2 sollte nicht „Verschmutzer“ genannt werden. In der geologischen Vergangenheit lag das Niveau bis zu zehnmal höher als heute; tatsächlich entwickelten sich unsere Haupternten bestens bei einem bis zu fünfmal höheren CO2-Niveau. China ist derzeit der größte CO2-Emittent und leistet damit einen bedeutenden Beitrag zu zunehmenden landwirtschaftlichen Erträgen, zu einer Zeit, wenn ein großer Teil der Weltbevölkerung nach wie vor hungert. Die Welt sollte China dankbar sein.

S. Fred Singer ist emeritierter Professor an der University of Virginia und Direktor des Science&Environmental Policy Project SEPP. Seine Spezialgebiete sind Atmosphären- und Weltraumphysik. Als Experte für Fernerkundung und Satelliten arbeitete er als Gründungsdirektor des US Weather Satellite Service und jüngst als Vizevorsitzender des US National Advisory Committee on Oceans & Atmosphere. Er ist leitendes Mitglied des Heartland Institute und des Independent Institute sowie gewähltes Mitglied zahlreicher wissenschaftlicher Gesellschaften. Er war Mitautor des NYT-Bestsellers „Unstoppable Global Warming: Every 1500 Jahre“. Im Jahre 2007 gründete er das NIPCC und war seitdem dessen Vorsitzender. Das NIPCC veröffentlichte zahlreiche wissenschaftliche Studien (Siehe www.NIPCCreport.org) Seine letzten Arbeiten finden sich  hier und auch bei Google Scholar.

Link: http://www.americanthinker.com/2013/07/china_questions_climate_consensus.html  

Übersetzt von Chris Frey EIKE




Top-Ökonom Hans-Werner Sinn: „Energiewende (führt) ins Nichts“ Teil 2

Wegen seiner falschen  Einschätzung der Klimafrage, versteift er sich auf die Kernkraft, als einzige Energiequelle, welche die CO2-freie Elektroenergie bereitzustellen gestattet. „Um sich nicht am Klima zu versündigen“ wie er in seiner Zusammenfassung hervorhebt!  Dass Kernkraft „CO2-frei“ produziert  ist richtig, doch stimmt es genauso, dass die mit CO2-Ausstoß verbundene Elektroenergie keinerlei Einfluss auf das Wettergeschehen und damit auf das Klima hat.

Sehen Sie hier den Vortrag von Prof.  Sinn und die fundierte Kritik an seinen Fehlbewertungen, die aber an der richtigen Schlußfolgerung, bezüglich der absurden EEG-Gesetzgebung nichts ändern.

Die Klimakatastrophe – oder können Korrelationen lügen?

Sinn behauptet am Beginn seines Vortrages dass es „zweifelsfrei“ bewiesen wäre, dass das anthropogene CO2 das Weltklima beeinflussen würde, in diesem Fall die globale Mitteltemperatur gefährlich nach oben verschöbe. Als Beweis für diesen „zweifelsfreie“ Feststellung, zeigt er den sehr synchronen Verlauf  über lange Zeiträume von Temperaturwerten und CO2 Konzentration, wie man sie  aus der Untersuchung von  Eisbohrkernen gewinnen kann. Für den einfachen Zuhörer, zumal, wenn von einem bekannten Professor – wenn auch aus dem  fachfremden Gebiet der Ökonomie- vorgetragen, erhalten diese Aussagen das Gewicht von Tatsachen. Allerdings kann man mit gleicher „Zweifelsfreiheit“ behaupten, dass „nachweislich“ die Störche die Babys brächten. Denn deren Populationskurven, sowohl die der Störche über der Zeit, wie auch der Geburten über derselben Zeit, zumindest in unserem Lande, zeigen einen ähnlich synchronen (eng korrelierten) Verlauf. Sie nehmen beide ab. Danach wäre in Anwendung der  H.W. Sinn´schen Beweisführung der zweifelsfreie Beweis erbracht dass die Störche die Babys bringen. Wir wissen alle, dass dem nicht so ist. Und Prof. Sinn weiß das sicher auch, ebenso wie er mit Sicherheit weiß, dass eine vorhandene Korrelation zwischen zwei Prozessgrößen im besten Fall ein Hinweis auf eine bestehende Ursache-Wirkungsbeziehung sein kann, aber den Nachweis dieser  in keinem Fall ersetzt. Warum er diese wichtige unumstrittene Tatsache nicht nur völlig ausgelassen hat, sondern durch das Adjektiv „zweifelsfrei“ sogar noch verstärkend ins Gegenteil verkehrt hat, bleibt unerklärlich. Einem Ökonomieprofessor der sich tagtäglich mit Ökometrie und deren mathematischen Methoden herumschlägt, hätte solch ein dicker Fehler einfach nicht passieren dürfen. Auch deswegen nicht, weil Prof. Sinn viele Male – auch von EIKE (siehe Anhang)- auf diese Situation hingewiesen wurde.

Abb. 1 Temperatur und CO2 Konzentrationsverlauf der letzten 450.000 Jahre im Bohrloch der Antarktis : Zunächst steigt die Temperatur, ca. 500 bis 800 Jahre später CO2 !

Aber es kommt noch schlimmer. Eben die von H.W. Sinn angeführten Eisbohrkern-Proxies zeigen bei höherer Auflösung immer wieder, dass die CO2-Konzentrationsänderung der Temperaturänderung nacheilt. Im Schnitt um ca. 800 Jahre. Und im Gegensatz zur nur postulierten Treibhauswirkung des CO2, gibt es dafür auch einen wohlbekannten physikalischen Prozess. Nämlich die altbekannte und völlig unbestrittene Tatsache, dass warmes Wasser weniger CO2 lösen kann, als kaltes Wasser. Dieser „Sprudeleffekt“ kann jeden Tag aufs Neue von jedem Interessierten ohne großen Aufwand überprüft werden, z.B. im Mineralwasser. Dass Sinn ihn nicht kennt, oder nicht für nötig erachtet ihn zu erwähnen, verwundert.

Wie lange bleibt CO2 in der Atmosphäre ?

Im letzten Teil seines Vortrages behauptet Sinn, dass sich das anthropogene CO2 in der Atmosphäre anreichere, und dort erst nach ca. 300 Jahren wieder in den Kreislauf zurückkehre. Nun, das sind die Behauptungen, die auch das IPCC verbreitet, um die Anreicherungstheorie und damit den Einfluss der Minimengen, die das fossil erzeugte CO2 ausmachen, in die richtige Größenordnung zu bringen. Doch auch diese Behauptung ist seit langem widerlegt. Andere Wissenschaftler, die sich ohne „der Mensch ist schuld am Klimawandel“-Brille mit der Frage nach der Verweilzeit des CO2 in der Atmosphäre beschäftigen, kommen zu ganz anderen, wesentlich kürzen Zeiten. Peter Dietze berechnete, gut begründet, nur knapp 40-50 Jahre. Fred Goldberg[1],[2] vom schwedischen Polarinstitut, Tom Segalstad[3] von der Uni-Oslo und auch Robert H. Essenhigh[4] von der Ohio State University, sowie der viel zu früh verstorbene Ernst Georg Beck, ermitteln nur rd. 5 bis 7 jedenfalls deutlich kleiner < 10 Jahre.

Bedeutung bekommt diese Aussage zur Dauer der Verweilzeit, weil sie das Argument von H-W. Sinn ad Absurdum führt, dass sich das anthropogen erzeugte CO2 in der Atmosphäre dauerhaft anreichere. Er benutzt es aber, um den Zuhörern klar zu machen, dass der Einsatz von fossilen Energieträgern zur „Versündigung am Klima“ führe. Welch absurder aber trotzdem weithin akzeptierter Gedanke!

Obwohl dies nur ein Nebenaspekt in der Klimadebatte ist, zeigt er doch deutlich, dass zumindest in der Klimafrage Prof. Sinn nicht auf der wissenschaftlichen Höhe der Zeit ist. Seine Aussagen sind in diesem Zusammenhang einfach falsch.

Ähnlich sieht es aus, wenn man seine Betrachtungen zur notwendigen Verfügbarkeit von elektrischer Energie anschaut. Prof. Sinn geht von mindestens 99 % aus, und unterstellt auch, dass Windenergie eine Grundlast von ca. 1/7 der im Jahre 2011 installierten effektiven Leistung von rund 7 GW zu liefern im Stande sei. Beides ist nicht haltbar, weil viel zu optimistisch, wie der Elektrotechnik Professor Helmut Alt ihm in seinem Brief, den Sie im Anhang finden, nachweist.

Trotzdem ist Prof. Sinn Dank zusagen für seinen mutigen Vortrag mit der, bezüglich der „Energiewende in Nichts“, richtigen Konsequenz, die längst hätte Allgemeingut an deutschen Universitäten und Hochschulen hätte sein müssen.


[1] Goldberg: Studies of the temperature anomalies during the last 25 years show a close relationship with the varying increase rates of CO2 in the atmosphere. This close relationship strongly indicates that ocean temperatures and the solubility of CO2 in seawater controls the amount of CO2 being absorbed or released by the oceans. Engelbeen in einer mail an Goldberg: True, be it that the rate of increase/decrease is about 10 ppmv/°C for long-term trends and about 4 ppmv/°C for short term changes (like the Pinatubo or El Niño)

[2] Goldberg: During 1991-1992, a global cooling due to the volcanic eruption of Pinatubo was recorded. The same periodshowed the smallest increase of CO2 concentration in the atmosphere during the last 27 years. During 1991 and 1992 the total CO2 increase was 1,46 ppmv which corresponds to 3 Gton C. During the same period the human emission of CO2 was approx 12,5 Gton C. Where did the other 9,5 Gton C plus the emissions from Pinatubo go? They have gone into the oceans due to the cooling of the water surface corresponding to the natural forces securing an equilibrium between CO2 in the atmosphere and in the oceans. (Chapter 1.) dt, Bate, R. (Ed.): “Global Warming: The Continuing Debate“, European Science and Environment Forum (ESEF), Cambridge, England (ISBN 0-9527734-2-2), pages 184-219, 1998.

[3] Segalstad, Tom: Carbon cycle modelling and the residence time of natural and anthropogenic atmospheric CO2: on the construction of the „Greenhouse Effect Global Warming“ dogma. http://folk.uio.no/tomvs/esef/ESEF3VO2.htmund hier im Interview: http://www.financialpost.com/story.html?id=433b593b-6637-4a42-970b-bdef8947fa4e. „The IPCC needs a lesson in geology to avoid making fundamental mistakes,“ he says. „Most leading geologists, throughout the world, know that the IPCC’s view of Earth processes are implausible if not impossible.“ und „Until recently, the world of science was near-unanimous that CO2 couldn’t stay in the atmosphere for more than about five to 10 years because of the oceans‘ near-limitless ability to absorb CO2.“

[4] Potential Dependence of Global Warming on the Residence Time (RT) in the Atmosphere of Anthropogenically Sourced Carbon Dioxide Robert H. Essenhigh*

Related Files




Die fatale Unterwerfung unter eine vermutete Linearität

Mathematisch wird das zu

∆T = lambda ∆F

wobei T die globale Mitteltemperatur ist, F ist der Gesamtantrieb an der Obergrenze der Atmosphäre TOA und lambda wird „Klimasensitivität“ genannt.

Mit andere Worten, die Idee ist, dass die Änderung der Temperatur eine lineare Funktion der Änderung des Antriebs an der TOA ist. Ich selbst bezweifle das stark, denn ich glaube nicht, dass die Welt so einfach gestrickt ist. Aber die Hypothese der Linearität macht die Berechnungen so einfach, dass die Leute es einfach nicht fertigbringen, sich davon zu lösen.

Nun wissen die Leute natürlich, dass das nicht wirklich linear ist, aber wenn ich darauf hinweise, kommt oftmals die Behauptung, dass es im interessierenden Bereich nahe genug an Linearität ist, dass wir Linearität annehmen können mit einem kleinen Fehler.

Um zu sehen, ob die Beziehungen wirklich linear sind, dachte ich mir, die CERES-Satellitendaten zu nutzen, um die Temperatur T und den Antrieb an der TOA F zu vergleichen. Diese Graphik zeigt Abbildung 1:

Abbildung 1: Festland allein, Antrieb F (Strahlungs-Ungleichgewicht an der TOA) und Temperatur T auf einem Gitternetz 1° mal 1°. Man beachte, dass zwischen 50°S und 65°S kaum Festland vorhanden ist. Der Gesamtantrieb an der TOA wird berechnet als einfallende Sonnenstrahlung minus langwellige Ausstrahlung.

Wie man sehen kann, gibt es überall eine Beziehung zwischen Antrieb an der TOA und der Temperatur, also alles andere als linear. Bei den niedrigsten Temperaturen sind sie umgekehrt korreliert. In der Mitte gibt es einen klaren Trend … aber dann, bei den höchsten Temperaturen, entkoppeln sie sich voneinander, und es gibt praktisch keine Korrelation mehr.

Über den Ozeanen ist die Lage irgendwie einfacher, obwohl wir auch dort große Variationen finden:

Abbildung 2: Ozean allein, Gesamtantrieb F gegen Temperatur T in einem Gitternetz 1° mal 1°. Die Farben indizieren die Breite.

Während die Änderungen nicht so extrem sind wie auf dem Festland, ist die Beziehung auch hier alles andere als linear. Im Besonderen beachte man, wie sich die Daten am oberen Ende der Karte mit zunehmendem Antrieb immer mehr nach rechts neigen. Das ist ein klarer Hinweis, dass die Klimasensitivität bei steigender Temperatur abnimmt. Man braucht mehr und immer mehr Energie, um die Temperatur ein weiteres Grad steigen zu lassen, und daher verläuft die Kurve oben rechts praktisch flach.

Am wärmsten Ende gibt es eine ziemlich starke Grenze der Oberflächentemperatur des Ozeans, die gerade etwas über 30°C liegt. (im Vorübergehen: Ich bemerke, dass es auch eine ziemlich starke Grenze der Oberflächentemperatur über dem Festland gibt, und zwar etwa auf dem gleichen Niveau um 30°C. Komischerweise wird diese Landtemperatur erreicht bei jährlichen mittleren Ungleichgewichten der Strahlung an der TOA, die von -50 W/m² bis +50 W/m² reicht).

Was ich oben gezeigt habe, sind die jährlichen Mittelwerte. Zusätzlich zu diesen sind wir jedoch auch an lambda interessiert, also an der Klimasensitivität, die diese Abbildungen nicht zeigen. Dem IPCC zufolge liegt die Gleichgewichts-Klimasensitivität irgendwo im Bereich 1,5°C bis 4,5°C bei jeder Verdoppelung des CO2-Gehaltes. Nun gibt es aber viele Arten der Sensitivität, darunter monatliche, dekadische und Gleichgewichts-Klimasensitivitäten.

Monatliche Sensitivität

Die monatliche Klimasensitivität tritt ein, wenn das Antriebs-Ungleichgewicht an der TOA in einer gegebenen Gitterzelle von 1° mal 1° von – sagen wir – plus 50 W/m² (Energie hinzugefügt) in einem Monat auf minus 50 W/m² im nächsten Monat sinkt (Energieverlust) Natürlich führt dies zu einem korrespondierenden Unterschied der Temperatur dieser beiden Monate. Die monatliche Klimasensitivität sagt, wie stark sich die Temperatur ändert bei einer gegebenen Änderung des Antriebs an der TOA.

Aber das Festland und die Ozeane können sich nicht augenblicklich ändern. Es gibt eine Verzögerung bei diesem Prozess. Daher ist die monatliche Klimasensitivität die kleinste der drei, weil die Temperatur keine Zeit hatte, sich zu ändern. Abbildung 3 zeigt die monatlichen Klimasensitivitäten, basierend auf den monatlichen CERES-Daten.

Abbildung 3: Die monatliche Klimasensitivität

Wie man erwarten kann, ändern sich die Ozeantemperaturen bei einer gegebenen Änderung des Antriebs weniger stark als die Landtemperaturen. Das liegt an der größeren Wärmemenge [thermal mass] der Ozeane über alle Zeiträume zusammen mit der größeren spezifischen Wärme von Wasser im Vergleich zu Erde und der größeren Verdunstung über den Ozeanen.

Dekadische Sensitivität

Die dekadische Sensitivität, auch Transient Climate response TCR genannt [?], ist die Änderung, die wir im Zeitraum von Jahrzehnten erkennen. Da die Temperaturänderung umso geringer ist, je länger die Verzögerung ist, können wir die Größe der Verzögerung benutzen, um die TCR aus der monatlichen Klimareaktion zu berechnen. Die Verzögerung über Land mittelt sich zu 0,85 Monaten und über den Ozeanen zu länger als 2,0 Monaten. Für das Festland gilt, dass die TCR im Mittel 1,6 mal so groß ist wie die monatliche Klimasensitivität. Die ozeanische Anpassung der TCR ist natürlich größer, weil die Verzögerung länger ist. Die ozeanische TCR ist im Mittel 2,8 mal größer als die monatliche Ozean-Klimasensitivität.

[Im Anhang führt Eschenbach diese Berechnung durch. Interessierte halten sich bitte an das Original, weil ich diesen Anhang nicht mit übersetzt habe. A. d. Übers.]

Abbildung 4 zeigt, was passiert, wenn wir die Informationen aus der Verzögerung zusammen mit der monatlichen Klimasensitivität betrachten. Sie zeigt für jedes Gitterquadrat die dekadische Klimasensitivität oder die TCR. Ausgedrückt wird das Ganze in Grad C bei einer Verdoppelung des CO2-Gehaltes (was das Gleiche ist wie Grad pro Zunahme des Antriebs um 3,7 W/m²). Die in Abbildung 4 gezeigte TCR enthält auch die Anpassungen für die Verzögerung auf einer Basis von Gitterzelle für Gitterzelle.

 

Abbildung 4: Transient Climate Response TCR. Sie wird berechnet aus der monatlichen Klimasensitivität für jedes Gitterquadrat und multipliziert mit dem für dieses Gitterquadrat berechneten Verzögerungsfaktor.

Es gibt einige interessante Dinge in der Abbildung 3. Eine davon ist: wenn man einmal die Verzögerung in Betracht zieht, verschwindet Einiges des Unterschieds der Klimasensitivität zwischen Festland und Ozean, und einiges davon ist verändert. Vor allem zeigt sich dies in der Südhemisphäre; man vergleiche Südafrika oder Australien in den Abbildungen 3 und 4.

Außerdem, wie man auch hier wieder sieht, regiert das Wasser. Entfernen wir den Effekt der Verzögerung, treten die trockeneren Gebiete klar hervor, und das sind auch die Stellen mit der größten Sensitivität auf Änderungen des Strahlungsantriebs an der TOA. Das ist verständlich, weil kaum Wasser für die Verdunstung zur Verfügung steht. Daher sorgt die meiste Energie für die Erwärmung des Systems. Nassere tropische Gebiete andererseits reagieren viel ähnlicher dem Ozean mit weniger Sensitivität hinsichtlich einer gegebenen Änderung des TCR-Antriebs.

Gleichgewichts-Sensitivität

Die Gleichgewichts-Sensitivität ECS, die langfristigste Art der Sensitivität, ist das, was theoretisch passieren würde, wenn einmal die verschiedenen Wärmereservoire ihre Gleichgewichts-Temperatur erreicht haben. Der Studie von Otto mit aktuellen Beobachtungen zufolge lag die ECR [ECS? Schreibfehler des Autors?]  gleichbleibend bei etwa 130% der TCR. Andererseits zeigt die Studie von Forster, dass die untersuchten 19 Klimamodelle eine ECR [ECS?], die von 110% bis 240% der TCR reichte mit einem Mittelwert bei 180%.

Damit kann man jetzt die globale mittlere Sensitivität berechnen. Falls wir die Modell-Prozentwerte zur Schätzung der ECS aus der TCR verwenden, ergibt dies ein ECS von 0.14 * 1.1 bis 0.14 *2.4. Dies impliziert eine Gleichgewichts-Klimasensitivität im Bereich 0,2 bis 0,3°C pro CO2-Verdoppelung, mit einem wahrscheinlichsten Wert (der Modelle) von 0,25°C pro Verdoppelung. Falls wir die 130%-Schätzung der Studie von Otto verwenden, bekommen wir ein sehr ähnliches Ergebnis, nämlich 0, 14 * 1.3 = 0.2 °C pro Verdoppelung.

Das ist klein genug, um im Rauschen unseres besonders rauschstarken Klimasystem verloren zu gehen.

Eine abschließende Bemerkung zu Linearität. Man erinnere sich, wir begannen mit der Behauptung, dass die Änderung der Temperatur gleich ist der Änderung des Antriebs multipliziert mit einer Konstante, die man „Klimasensitivität“ nennt. Mathematisch wird das zu

∆T = lambda ∆F

Ich habe lange gedacht, dass dies eine total ungeeignete Repräsentation ist, teils weil ich sage, dass lambda selbst, die Klimasensitivität, keine Konstante ist. Stattdessen ist es eine Funktion von T. Allerdings können wir wie gewöhnlich nicht von Linearität ausgehen … wir können keine Linearität in irgendeiner Form annehmen. Abbildung 5 zeigt die TCR (die dekadische Klimasensitivität) im Vergleich zur Temperatur.

 

Abbildung 5: Transient Climate Response im Vergleich zur mittleren jährlichen Temperatur, nur Festland. Man beachte, dass TCR nur selten unter Null sinkt. Die größte Reaktion gibt es in der Antarktis (dunkelrot).

Hier sehen wir die Entkoppelung der Temperatur und der TCR bei den höchsten Temperaturwerten. Man beachte auch, wie wenige Gitterquadrate wärmer als 30°C sind. Wie man sehen kann, während es eindeutig bei steigender Temperatur einen Abfall der TCR (Sensitivität) gibt, ist die Beziehung alles andere als linear. Und schaut man auf die Ozean-Daten, wird es noch eigenartiger. Abbildung 6 zeigt die gleiche Relation wie Abbildung 5. Man beachte die unterschiedliche Skalierung sowohl in X- als auch in Y-Richtung.

Abbildung 6: Wie in Abbildung 5, jedoch nur für den Ozean. Man beachte, dass sich die Skalierung von Abbildung 5 unterscheidet.

Ich liebe dieses Klimasystem – endlos komplex. Die Ozeane zeigen eine gänzlich andere Verteilung als das Festland. Erstens, die TCR der globalen Ozeane beträgt fast durchweg weniger als ein Zehntelgrad Celsius pro CO2-Verdoppelung (globales Mittel = 0.08°C/2xCO2). Und im Gegensatz zu meinen Erwartungen gibt es unter etwa 20°C kaum Anzeichen irgendeines Rückgangs der TCR mit der Temperatur, wie wir in Abbildung 5 für das Festland gesehen haben. Und über 25°C gibt es einen klaren und raschen Abfall in einer Reihe von Gebieten (einschließlich des pazifischen „Warm-Pools“), die negative Klimareaktionen zeigen.

Im Vorübergehen bemerke ich auch, dass die im offenen Ozean beobachtete 30°C-Grenze an einem Punkt eintritt, an dem die TCR = 0 ist …

Was schließe ich aus all dem? Nun, so genau weiß ich gar nicht, was das alles bedeutet. Einige Dinge sind aber eindeutig. Meine erste Schlussfolgerung lautet, dass der Gedanke, die Temperatur sei eine lineare Funktion des Antriebs, nicht durch die Beobachtungen gestützt wird. Die Relation ist weit entfernt davon, linear zu sein und kann nicht einfach approximiert werden.

Weiter. Die Schätzungen der ECS aus dieser auf Beobachtungen basierenden Studie zeigen eine Bandbreite von 0,2°C bis 0,5°C pro CO2-Verdoppelung. Das liegt weit unter der Schätzung des IPCC … was aber soll man andererseits von der Arbeit von Regierungen erwarten?

Und schließlich, die Entkoppelung der Variablen am warmen Ende des Spektrums der Gitterquadrate ist ein klares Zeichen dafür, dass ein aktives Temperatur-Regulierungssystem aktiv ist.

Unter dem  Strich: Das Klima ist nicht linear und war es niemals… und die Unterwerfung unter das fatale Lockmittel einer vermuteten Linearität hat das Gebiet der Klimawissenschaft um Jahrzehnte zurückgeworfen.

Link: http://wattsupwiththat.com/2013/12/18/the-fatal-lure-of-assumed-linearity/

Übersetzt von Chris Frey EIKE