1

Das Wort zum Sonntag- heute Show: Beten für die Energiewende

 Die heute Show über die Energiewende:

Die heute Show über die Energiewende; übersetzt und bei youtube eingespielt von niederländischen Kollegen. Selten hat sich ein Satz eines amtierenden Bundesministers und langjährigem Hauptverantwortlichen für die Energiewende, so schnell bewahrheitet wie der von Bundeswirtschaftsminister (SPD) Sigmar Gabriel:

“Für die meisten anderen Länder in Europa sind wir sowieso Bekloppte.”

……nicht nur für diese, meint die Redaktion




Die Ressourcen der Welt gehen nicht zu Ende

Bild rechts: Wir verfügen über vermutete Vorräte von Tellur von einer Million Jahre, einem seltenen, in Solarpaneelen Verwendung findenden Element.

„Wir verbrauchen 50% mehr Ressourcen als die Erde neu erzeugen kann, und wenn wir diesen unseren Weg nicht ändern, wird diese Zahl rasch steigen – bis 2030 werden selbst zwei Planeten nicht ausreichen“, sagt Jim Leape, Generaldirektor des WWF International.

Aber hier kommt ein eigenartiges Stückchen Menschheitsgeschichte: Wir durchbrechen derartige Grenzen wieder und immer wieder. Schließlich – wie der saudi-arabische Ölminister einst sagte – ist die Steinzeit nicht wegen Mangels an Steinen zu Ende gegangen. Ökologen nennen dies eine „Nischen-Konstruktion“ – dass Menschen (und tatsächlich auch einige andere Tiere) für sich selbst neue Möglichkeiten finden können, indem sie ihre Habitate auf irgendeine Art produktiver machen. Landwirtschaft ist das klassische Beispiel einer Nischen-Konstruktion: Wir haben aufgehört, uns auf die Reichhaltigkeit der Natur zu verlassen und diese ersetzt durch eine künstliche und viel größere Reichhaltigkeit.

Ökonomen nennen das gleiche Phänomen Innovation. Was sie hinsichtlich der Ökologen frustriert ist die Tendenz von letzteren, in Begriffen wie statische Grenzen zu denken. Ökologen scheinen nicht sehen zu können, dass wenn das Walöl zur Neige geht, Petroleum entdeckt wurde, oder dass wenn die Ernten zurückgehen Dünger ins Spiel kommt. Oder wenn Fiberglas erfunden wird, geht die Kupfer-Nachfrage zurück.

Diese Frustration beruht auf herzlicher Gegenseitigkeit. Ökologen denken, dass Ökonomen einer Art abergläubischer Zauberei anhängen, genannt „Märkte“ oder „Preise“, um zu vermeiden, mit den Grenzen des Wachstums konfrontiert zu werden. Der einfachste Weg, auf einer Konferenz von Ökologen die Lacher auf seine Seite zu ziehen ist es, einen schmutzigen Witz über Ökonomen zu reißen.

Ich habe unter beiden Gruppen gelebt. Ich studierte viele verschiedene Formen von Ökologie in akademischen Vorlesungen über sieben Jahre und habe anschließend acht Jahre lang für das Magazin Economist gearbeitet. Als ich noch Ökologe war (im akademischen und nicht politischen Sinn des Wortes, jedoch auch mit Anti-Kernkraft-Aufklebern auf meinem Auto), war ich ein starker Verfechter des Kapazitäts-Grenzen-Standpunktes – dass es Grenzen des Wachstums gab. Heutzutage neige ich der Ansicht zu, dass es keine Grenzen gibt, weil wir neue Wege erfinden können, mehr mit weniger zu erreichen.

Diese Nicht-Übereinstimmung geht vielen gegenwärtigen politischen Themen bis ins Herz und erklärt viel, warum Menschen mit der Umweltpolitik nicht übereinstimmen. In der Klimadebatte beispielsweise sehen Pessimisten eine Grenze der atmosphärischen Kapazität, mit zusätzlichem Kohlendioxid ohne rapide Erwärmung fertig zu werden. Daher würde eine fortgesetzte Zunahme der Emissionen, falls sich das wirtschaftliche Wachstum fortsetzt, die Erwärmung eventuell bis auf gefährliche Raten vorantreiben. Aber Optimisten sehen, dass wirtschaftliches Wachstum zu technologischen Änderungen führt, die zu weniger Verbrauch von kohlenstoffbasierter Energie führen. Dies würde die Erwärmung beenden, lange bevor sie schädliche Auswirkungen entfaltet.

Es ist zum Beispiel auffällig, dass die jüngste Vorhersage des IPCC von einem Temperaturanstieg von 3,7°C bis 4,8°C verglichen mit dem vorindustriellen Niveau bis zum Jahr 2100 ausgeht, basierte diese Vorhersage doch auf vielen Hypothesen: kaum technologische Änderungen, ein Ende der Bevölkerungs-Zuwachsrate in 50 Jahren, (nur) eine Verdreifachung des Pro-Kopf-Einkommens und kaum Verbesserungen der Effizienz der Wirtschaft. Im Grunde würde dies bedeuten, dass auf einer Welt, die der heutigen sehr ähnlich ist, aber mit viel mehr Menschen, die viel mehr Öl und Kohle verbrennen, die Emissionen zunehmen werden. Die meisten Ökonomen erwarten eine fünf- bis zehnfache Zunahme des Einkommens, gewaltige Änderungen im Bereich Technologie und ein Ende des Bevölkerungswachstums bis zum Jahr 2100: Nicht so viel mehr Menschen brauchen viel weniger Kohlenstoff.

Im Jahre 1679 hat der große holländische Mikroskopiker Antonie van Leeuwenhoek geschätzt, dass die Welt 13,4 Milliarden Menschen ernähren könnte, eine Bevölkerungszahl, von der die meisten Demographen annehmen, dass wir sie nie erreichen werden. Seitdem schwankten die Schätzungen zwischen 1 Milliarde und 100 Milliarden ohne Anzeichen, dass man sich auf eine einheitliche Zahl einigen könnte.

Ökonomen weisen darauf hin, dass wir die Produktivität auf jedem Hektar Land immer weiter verbessern durch die Anwendung von Dünger, Mechanisierung, Pestiziden und  Bewässerung. Weitere Innovationen werden die Grenze immer weiter hinausschieben. Jesse Ausubel von der Rockefeller University berechnet, dass die benötigte Landfläche zur Produktion einer gegebenen Menge Nahrung um 65% zurückgegangen ist, und zwar weltweit während der letzten 50 Jahre.

Ökologen wenden ein, dass diese Innovationen von nicht erneuerbaren Ressourcen abhängen wie Öl und Gas, oder Erneuerbaren, die schneller aufgebraucht werden als sie neu entstehen können, wie etwa Grundwasser. Daher kann das gegenwärtige Ernteniveau nicht gehalten, geschweige denn verbessert werden.

In seinem letzten Buch, „The View from Lazy Point” [etwa: „der träge Standpunkt“] hat der Ökologe Carl Safina geschätzt: falls jedermann den Lebensstandard von Amerikanern hätte, würden wir 2,5 Erden brauchen, weil die landwirtschaftliche Fläche einfach nicht genug Nahrungsmittel für mehr als 2,5 Milliarden Menschen bei jenem Verbrauchsniveau erzeugen könne. Der emeritierte Harvard-Professor E. O. Wilson, einer der Patriarchen der Ökologie, glaubt, dass die Landwirte der Welt nur dann genug Nahrung für 10 Milliarden Menschen produzieren können, wenn wir alle Vegetarier werden.

Ökonomen erwidern: da große Teile der Welt, vor allem in Afrika, immer noch keinen Zugang zu Dünger und moderner Landwirtschaft haben, gibt es keinen Grund zu glauben, dass der Rückgang des globalen Landverbrauchs für eine gegebene Menge von Nahrungsmitteln in nächster Zeit zum Stillstand kommen würde. Tatsächlich kam Ausubel zusammen mit seinen Kollegen Iddo Wernick und Paul Waggoner zu der verblüffenden Schlussfolgerung, dass wir dafür im Jahre 2050 weniger Ackerland brauchen als im Jahr 2000 – selbst unter großzügigen Annahmen hinsichtlich Bevölkerungswachstum und zunehmendem Wohlstand, der zu einer größeren Nachfrage nach Fleisch und anderen Luxusgütern führt, und mit engen Annahmen über die zukünftigen globalen Ernteverbesserungen.

Aber die Intensivierung von Ernteerträgen hängt doch sicher von Dingen ab, die zu Ende gehen könnten? Wasser zum Beispiel, limitiert doch dessen Verknappung die Erzeugung von Nahrungsmitteln in vielen Gebieten. Schätzungen des Wasserverbrauchs bis zum Jahr 2000 aus den sechziger und siebziger Jahren erwiesen sich als erheblich übertrieben: Die Welt brauchte nur halb so viel Wasser als die Experten 30 Jahre zuvor projiziert hatten.

Grund hierfür war die verbesserte Wirtschaftlichkeit des Wasserverbrauchs durch neue Bewässerungs-Techniken. Einige Länder, wie Israel und Zypern, haben den Wasserverbrauch durch Bewässerung reduziert durch den Gebrauch von Tropf-Bewässerung. Man kombiniere diese Verbesserungen  mit der solar angetriebenen Entsalzung von Meerwasser weltweit, und es ist sehr unwahrscheinlich, dass  mangelnde Frischwassermengen die menschliche Bevölkerung in Grenzen halten.

Im Bestseller „Limits of Growth”, veröffentlicht im Jahre 1972 vom Club of Rome heißt es, dass wir bis jetzt in vielfacher Hinsicht an Grenzen gestoßen sein würden, indem Metalle, Treibstoffe, Mineralien und Raum allesamt zur Neige gehen würden. Warum ist es dazu nicht gekommen? Mit einem Wort: Technologie: Bessere Bergbau-Technik, sparsamerer Materialverbrauch und – falls Knappheit zu höheren Preisen führt – Ersatz durch billigere Materialien. Wir verwenden heute bis zu 100 mal dünnere Goldplatinen in Computern als vor 40 Jahren. Der Stahlgehalt von Autos und Gebäuden geht immer weiter zurück.

Bis vor etwa 10 Jahren konnte man vernünftigerweise erwarten, dass Erdgas nach wenigen Jahrzehnten ausgehen würde und Öl kurz danach. Falls das geschehen sollte, würden landwirtschaftliche Erträge abstürzen, und die Erde stünde vor einem schweren Dilemma: Alle restlichen Wälder abholzen zur Produktion von Nahrungsmitteln oder verhungern.

Aber dank Fracking und der Schiefer-Revolution sind Peak Oil und Peak Gas verschoben worden. Eines Tages werden sie zur Neige gehen, aber nur in dem Sinne, dass man eines Tages dem Atlantik entrinnen würde, wenn man mit einem Ruderboot von einem Hafen in Irland aus nach Westen fährt. Genauso wahrscheinlich wie dass man aufhört zu rudern lange bevor man in Neufundland landet, ist es, dass wir billigen Ersatz für fossile Treibstoffe finden lange, bevor sie zur Neige gehen.

Der Ökonom und Metallhändler Tim Worstall nennt das Beispiel Tellur, eine Schlüsselzutat für einige Arten von Solarpaneelen. Tellur ist eines der seltensten Elemente in der Erdkruste – ein Atom auf eine Milliarde. Wird es demnächst zur Neige gehen? Mr. Worstall schätzt, dass es davon 120 Millionen Tonnen gibt oder eine Versorgung für eine Million Jahre insgesamt. Es ist ausreichend konzentriert in den Abfällen der Kupfer-Raffinierung, Kupfer-Schlamm genannt, so dass es der Ausbeutung noch eine lange Zeit wert ist. Eines Tages wird es auch recycelt werden, wenn alte Solarpaneele zu neuen umgebaut werden.

Oder nehmen wir Phosphor, ein für die landwirtschaftliche Fruchtbarkeit unabdingbares Element. Die ergiebigsten Phosphatminen wie z. B. auf der Insel Nauru im Südpazifik sind praktisch erschöpft. Bedeutet das, dass es der Welt bald verloren geht? Nein: es gibt ausgedehnte Lagerstätten geringerer Dichte, und falls wir eines Tages verzweifelt danach suchen – alle Phosphoratome; die man im Boden eingebracht hat während der letzten Jahrhunderte sind immer noch da, besonders im Schlamm von Flussmündungen. Es geht lediglich um die Konzentration.

Im Jahre 1972 präsentierte der Ökologe Paul Ehrlich von der Stanford University eine einfache Formel mit der Bezeichnung IPAT, der zufolge der Einfluss der Menschheit gleich war der Bevölkerung multipliziert mit Überfluss und nochmals multipliziert mit Technologie. Mit anderen Worten, die der Erde zugefügten Schäden werden immer schlimmer, je mehr Menschen es gibt, je reicher sie werden und je mehr Technologie sie haben.

Viele Ökologen folgen immer noch dieser Doktrin, welche in der Ökologie inzwischen den Status einer Heiligen Schrift erlangt hat. Aber die letzten 40 Jahre waren dieser Doktrin nicht freundlich gesonnen. In vielfacher Hinsicht haben mehr Wohlstand und neue Technologien zu einem geringeren menschlichen Einfluss auf den Planeten geführt und nicht zu einem stärkeren. Reichere Menschen mit neuen Technologien brauchen nicht mehr Feuerholz aus Naturwäldern sammeln; stattdessen verwenden sie Strom und Vieh aus der Landwirtschaft – was für beides zu geringerem Landverbrauch führt. Im Jahre 2006 hat Ausubel berechnet, dass kein Land mit einem BIP über 4600 Dollar einen Rückgang der Wälder verzeichnet (sowohl hinsichtlich Dichte als auch Fläche).

Haiti ist zu 98% entwaldet und erscheint auf Satellitenbildern praktisch braun, jedenfalls im Vergleich zu seinem grünen, reich bewaldeten Nachbar, der Dominikanischen Republik. Der Unterschied hat seine Ursache in der Armut Haitis, so dass die Bewohner von Holzkohle für ihre Häuser und die Industrie abhängig sind, während die Dominikanische Republik wohlhabend genug ist, fossile Treibstoffe zu verwenden. Propangas zum Kochen ist extra subventioniert, um die Leute davon abzuhalten, die Wälder zu roden.

Teil des Problems ist, dass das Wort „Verbrauch“ auf beiden Seiten unterschiedliche Dinge meint. Ökologen verwenden den Begriff mit der Bedeutung „eine Ressource aufbrauchen“; Ökonomen meinen aber „Der Erwerb von Gütern und Serviceleistungen durch die Öffentlichkeit“ (Beide Definitionen stammen aus dem Oxford Dictionary).

Aber wie ist es gemeint, wenn Wasser, Tellur oder Phosphor „aufgebraucht werden“, wenn damit erzeugte Produkte von der Öffentlichkeit gekauft werden? Sie existieren immer noch, entweder in den Objekten selbst oder in der Umwelt. Wasser geht durch Entwässerung zurück an die Umwelt und kann wiederverwendet werden. Phosphor wird recycelt durch Kompost. Tellur befindet sich in Solarpaneelen, die recycelt werden können. Der Ökonom Thomas Sowell schrieb in seinem 1980 erschienenen Buch „Knowledge and Decisions“: „Obwohl wir hier lose von ‚Produktion‘ sprechen – der Mensch kann Materie weder erzeugen noch vernichten, sondern nur transformieren“.

Vorausgesetzt, dass Innovation zu immer noch mehr Produktivität führt, wie rechtfertigen Ökologen dann die Behauptung, dass wir schon jetzt der planetarischen Bank viel zu viel entnehmen und mindestens einen weiteren Planeten brauchen, um einen mit den USA vergleichbaren Lebensstandard für 10 Milliarden Menschen zu sichern?

Man untersuche die Berechnungen einer Gruppe mit der Bezeichnung Global Footprint Network – eine von Mathis Wackernagel in Oakland gegründete Denkfabrik und unterstützt von über 70 internationalen Umweltorganisationen – und es wird klar. Die Gruppe nimmt an, dass die zur Verfolgung höherer Ernteerträge verbrannten fossilen Treibstoffe in Zukunft kompensiert werden müssen durch das Pflanzen von Bäumen in einer Größenordnung, dass diese das emittierte Kohlendioxid aufnehmen können. Eine weit verbreitete Messung des „ökologischen Fußabdrucks“ geht einfach davon aus, dass 54% der notwendigen Ackerfläche der „Kohlenstoff-Aufnahme“ zugeführt werden sollte.

Aber was ist, wenn das Pflanzen von Bäumen nicht der einzige Weg ist, Kohlendioxid aufzunehmen? Oder falls die Bäume schneller wachsen, wenn sie bewässert und gedüngt werden, so dass man weniger von ihnen braucht? Oder falls wir Emissionen reduzieren, wie es die USA jüngst vorgemacht haben durch das Ersetzen von Kohle durch Gas bei der Stromerzeugung? Oder falls wir eine gewisse Zunahme der Emissionen tolerieren (die übrigens zu einer Steigerung der Ernteerträgen führen)? Jeder einzelne dieser Faktoren könnte einen großes Stück der behaupteten Über-Ausbeutung kompensieren und uns das Vertrauen der Erde zurückbringen.

Helmut Haberl von der Universität in Klagenfurt ist ein seltenes Beispiel eines Ökologen, der Ökonomie ernst nimmt. Er weist darauf hin, dass seine Mit-Ökologen die „menschliche Aneignung einer Gesamt-Primärproduktion – das heißt der Prozentsatz der grünen Vegetation der Erde, der gegessen wird oder dessen Wachstum wir oder unsere Haustiere verhindern – als einen Indikator für ökologische Grenzen des Wachstums verwenden. Einige Ökologen haben begonnen zu sagen, dass wir die Hälfte oder sogar mehr aller Grünpflanzen auf dem Planet verbrauchen.

Das stimmt nicht, sagt Dr. Haberl, und zwar aus vielen Gründen. Erstens, die verbrauchte Menge ist immer noch ziemlich niedrig: etwa 14,2% werden von uns und unseren Haustieren verspeist, und das Wachstum von zusätzlichen 9,6% wird verhindert durch Ziegen und Gebäude, jedenfalls seinen Schätzungen zufolge. Zweitens, das meiste wirtschaftliche Wachstum ereignet sich ohne einen stärkeren Verbrauch von Biomasse. Tatsächlich geht der Verbrauch normalerweise zurück, wenn sich ein Land industrialisiert und die Ernten zunehmen – als Folge einer landwirtschaftlichen Intensivierung anstatt eines Umpflügens von immer mehr Landfläche.

Und schließlich, menschliche Aktivitäten lassen die Ausbreitung grüner Vegetation in natürlichen Ökosystemen zunehmen. Von Ernten aufgenommener Dünger wird durch Wildvögel und Tiere in Wälder und Flüsse getragen, wo es für eine Stärkung der Wildnis-Vegetation sorgt (manchmal sogar zu viel davon, was zu Algenblüten im Wasser führt). An Orten wie dem Nildelta beispielsweise sind wilde Ökosysteme produktiver als sie es ohne menschliche Eingriffe wären, trotz der Tatsache, dass viel Landfläche zum Anbau menschlicher Nahrungsmittel genutzt wird.

Falls ich einen Wunsch frei hätte für die Umwelt der Erde, dann wäre es der, dass die beiden Lager zusammenkommen – ein großes Pow Wow [= Bezeichnung für ein großes indianisches Fest] von Ökologen und Ökonomen. Ich würde ihnen nur eine simple Frage stellen und sie daran hindern, den Raum zu verlassen, bevor sie diese beantwortet haben: Wie kann Innovation der Umwelt helfen?

Mr. Ridley is the author of "The Rational Optimist" and a member of the British House of Lords.

Link: http://online.wsj.com/news/articles/SB10001424052702304279904579517862612287156?mg=reno64-wsj

Übersetzt von Chris Frey EIKE




Tausend Jahre Dürregeschichte der USA: …

Im Sommer 2012 schlug in den USA eine heftige Dürre zu. Der Focus griff das Thema damals auf und sprach mit dem Greenpeace-„Experten“ Karsten Smid über die Dürre. Der Untertitel des Beitrags gibt zunächst Hoffnung:

Dürren gab es schon immer in den USA oder Südeuropa.

Sollte Greenpeace wirklich seine Hausaufgaben gemacht haben und den historischen Dürrekontext endlich in die Argumentation aufgenommen haben? Leider nein. Gleich im ersten Satz des Beitrags enttäuschen der Focus und Greenpeace:

Dürren gab es schon immer in den USA oder Südeuropa. Nicht aber so oft.

Das ist nachweislich falsch. Im gestrigen Beitrag analysierten wir die US-Dürregeschichte der letzten 100 Jahre, in der keine Anstieg der Dürrehäufigkeit zu erkennen ist. Focus und Greenpeace liegen falsch. Vermutlich wissen sie dies sogar und hoffen, dass es die Leser nicht merken. Dazu passt auch die klimareligiöse Wortwahl im Haupttitel des Beitrags:

,,Die Prophezeiungen bewahrheiten sich“

Was sagt die seriöse Wissenschaft dazu? Als das US-Dürrejahr 2012 vorbei war, veröffentlichten Cook et al. im Journal auf Climate eine Studie, die man dem Focus gerne als Lektüre empfehlen würde. Die Forscher zeigen in ihrem Artikel, dass es während der Mittelalterlichen Wärmeperiode in den südlichen USA gehäuft zu Mega-Dürren gekommen ist, die sich über mehrere Jahrzehnte hinzogen. Hier die Kurzfassung:

Regionale Dürren treten in Nordamerika immer wieder auf, aber Dürren, die sich über den gesamten Kontinent und viele Gebiete erstrecken einschließlich der Dürre des Jahres 2012, sind relativ zu Einzelereignissen selten. Hier wird der aus Baumringen abgeleitete nordamerikanische Dürre-Atlas verwendet, um die Variabilität von Dürren in vier Regionen im vorigen Jahrtausend zu untersuchen mit dem Schwerpunkt auf pan-kontinentalen Dürren. Während der Mittelalterlichen Klima-Anomalie (MCA) gab es in den Ebenen des Mittleren Westens (CP), im Südwesten (SW) und Südosten (SE) trockenere Bedingungen und ein gehäuftes Auftreten von Dürren. Dem gegenüber gab es im Nordwesten (NW) viele verstärkte Regenzeiten [Pluviale]. Eine verstärkte MCA-Aridität im SW und in den CP manifestierte sich als multidekadische Mega-Dürre. Mega-Dürren in diesen Regionen unterschieden sich merklich hinsichtlich Timing und Dauer. Dies zeigt, dass sie regionale Ereignisse repräsentieren, beeinflusst durch lokale Dynamik und nicht so sehr durch ein einheitliches Phänomen im kontinentalen Maßstab. Es gibt keinen Trend im Auftreten von pan-kontinentalen Dürren, die definiert sind als gleichzeitige Dürren in drei oder mehr Regionen. Dürren in SW+CP+SE sind am häufigsten. Sie kommen in 12% aller Jahre vor und erreichten hinsichtlich des Auftretens im 12. und 13. Jahrhundert ein Maximum. Bezieht man noch drei andere Regionen mit ein, kommt es in 8% aller Jahre zu Dürren. Positive Werte des Southern Oscillation Index SOI (La Niña-Bedingungen) stehen in Beziehung zu Dürren in SW+CP+SE sowie in SW+CP+NW. Dürren in CP+NW+SE hingegen sind verbunden mit positiven Werten der Pacific Decadal Oscillation PDO und der Atlantic Decadal Oscillation AMO. Während relativ seltene pan-kontinentale Dürren in Paläo-Aufzeichnungen erkennbar und mit definierten Zuständen der Klima-Variabilität verbunden sind, implizieren sie das Potential für jahreszeitliche Vorhersagbarkeit. Unter der Annahme stabiler Dürre-Querverbindungen werden diese Ereignisse ein wichtiges Feature des zukünftigen Hydroklimas in Nordamerika bleiben, möglicherweise in ihrer Intensität im Gleichschritt mit anderen erwarteten Folgen für das Hydroklima infolge eines zunehmenden Antriebs durch Treibhausgase.

Das Fachmagazin Nature fand die Studie so interessant, dass auch sie über die Arbeit im Konkurrenzblatt berichtete.

Eine weitere Studie zur nordamerikanischen Dürregeschichte erschien Mitte 2013 in PNAS von Asmerom et al. Interessanterweise beschreiben diese Autoren eine langanhaltende Mega-Dürre, die sich über drei Jahrhunderte in der Kleinen Eiszeit abspielte. Yemane Asmerom und Kollegen sehen einen Zusammenhang mit der geringen Sonnenaktivität zu dieser Zeit, die den Monsun verändert habe. Hier die Kurzfassung:

Das Klima des späten Holozäns im westlichen Nordamerika war gekennzeichnet durch Perioden verstärkter Aridität, Mega-Dürren genannt. Diese Dürren standen in Zusammenhang mit niedrigen Wassertemperaturen im östlichen tropischen Pazifik. Hier zeigen wir sowohl die kurz- als auch die langfristige Variabilität des Klimas während der letzte 1500 Jahre, abgeleitet aus der jährlichen Bandbreite und stabiler Isotopen-Daten. Viele Mega-Dürren treten hervor, einschließlich eine über mehrere Jahrhunderte, und zwar etwa von 1350 bis 1650, hiernach als Super-Dürre bezeichnet. Sie war gerade in der kältesten Phase der Kleinen Eiszeit aufgetreten. Synchronizität zwischen dem südwestlichen Nordamerika, dem Niederschlag im chinesischen und westafrikanischen Monsun zeigt, dass die Mega-Dürren der Größenordnung nach hemisphärisch aufgetreten waren. Die Stärke des nordhemisphärischen Monsuns während des vorigen Jahrtausends ist positiv korreliert mit der Temperatur der Nordhemisphäre und der Wassertemperatur im Nordatlantik. Die Mega-Dürren traten bei einer Wassertemperatur und bei einer Temperatur der Nordhemisphäre auf, die kälter als im Mittel waren. Außerdem korrelieren die Mega-Dürren einschließlich der Super-Dürre mit Minima der solaren Einstrahlung. Dies zeigt, dass der solare Antrieb der Wasser- und der atmosphärischen Temperaturen Variationen der Stärke von Monsunen auf der Nordhemisphäre auslösen kann. Unsere Ergebnisse scheinen zu belegen, dass stärkere (nassere) nordhemisphärische Monsune mit zunehmender Erwärmung auftreten.

Im März 2013 war in den Geophysical Research Letters zudem eine Arbeit von Griffin et al. erschienen, in der anhand von Baumringen die Dürreentwicklung in den südwestlichen USA untersucht wurde. Ähnlich wie Asmerom et al. fanden auch Daniel Griffin und sein Team in den letzten 5 Jahrhunderten etliche Dürreperioden, die sich jeweils über mehrere Jahrzehnte hinzogen. Sowohl der sommerliche Monsunregen als auch der Winterniederschlag war damals zurückgegangen, schreiben die Autoren. Die historischen Dürren aus der Kleinen Eiszeit waren dabei heftiger als sämtliche Dürren der heutigen modernen Mess-Ära. Hier die Kurzfassung der Arbeit (siehe auch dazugehörige Pressemitteilung):

Der nordamerikanische Monsun ist ein wesentlicher Brennpunkt moderner und paläoklimatischer Forschung, aber über zwischenjährliche Änderungen bzw. solchen von Jahrzehnt zu Jahrzehnt der Monsun-Feuchtigkeit, also über die Variabilität in vorinstrumenteller Zeit ist wenig bekannt. Diese Studie basiert auf einem neuen Netzwerk von Baumring-Chronologien und zeigt eine 470-jährige Rekonstruktion des Monsun-Niederschlags (Juni bis August) standardisiert für das südwestliche Nordamerika. Ein Vergleich mit einer unabhängigen Rekonstruktion während der kalten Jahreszeit (Oktober bis April) hinsichtlich standardisierter Niederschlagsmengen zeigt, dass dekadische Dürren im Südwesten während der letzten fünf Jahrhunderte nicht nur durch Niederschlagsdefizite während der kalten Jahreszeit charakterisiert waren, sondern auch durch eine gleichzeitige Abschwächung des Sommermonsuns. In der Vergangenheit identifizierte Monsun-Dürren waren stärker und persistenter als zu jeder Zeit in der Instrumenten-Ära. Die Relation zwischen Winter- und Sommerniederschlag ist schwach und zeitlich nicht stabil. Jahre mit jahreszeitlichen Niederschlagsanomalien mit entgegengesetztem Vorzeichen traten, wie schon in anderen Studien erwähnt, ungewöhnlich häufig von Mitte bis Ende des 20. Jahrhunderts auf.

Einige Monate später publizierte dieselbe Forschergruppe im Fachblatt Climatic Change eine weitere Dürrestudie, die sich diesmal auf das nordöstliche Arizona beschränkte. Das Autorenteam um Faulstich et al. 2013 zeigte erneut, dass die Dürren aus der vorindustriellen Phase um einiges schlimmer ausfielen als in den letzten Jahrzehnten. Die Dürre des letzten Jahrzehnts im Reservat der Hopi und Navajo Indianer muss aus wissenschaftlicher Sicht in diesem langfristigen Kontext gesehen werden, sagen die Autoren. Hier die Kurzfassung der Arbeit:

Seit über einem Jahrzehnt haben die Hopi- und die Navajo-Indianer im Nordosten Arizonas die Auswirkungen persistenter Dürrebedingungen gespürt. Schwere Trockenzeiten haben natürliche Ökosysteme auf kritische Weise beeinflusst, ebenso Wasservorräte und die regionalen Lebensgrundlagen einschließlich von Ackerbau und Viehzucht auf Trockenland. Die Dürreplanungen sowie das Management der Ressourcen in der Region basieren größtenteils auf Aufzeichnungen während der Instrumenten-Ära, in der es nur eine begrenzte Anzahl schwerer, nachhaltiger Dürren gab. In dieser Studie bietet ein neues Netzwerk feuchte-sensitiver Baumring-Chronologien die Basis für eine Evaluierung längerzeitlicher temporärer Variabilität des Niederschlags im Gebiet Four Corners [mehr zum Gebiet Four Corners siehe hier]. Mittels Analysen der Jungholz- und Altholz-Komponenten innerhalb jedes Jahresringes waren wir in der Lage, separate, Jahrhunderte lange Rekonstruktionen des Niederschlags sowohl in der warmen als auch in der kalten Jahreszeit zu erstellen. Diese Proxy-Aufzeichnungen bieten neue Einsichten in die jahreszeitlichen Charakteristiken von Dürren und zeigen, dass es während der Instrumenten-Ära nicht möglich war, die Variabilität des Niederschlags während der letzten 400 Jahre angemessen zu repräsentieren. Durch die Methode der Verwendung zweier unterschiedlicher Analysen identifizieren wir Dürreereignisse im Jahre und Jahrzehnte langen Maßstab, die schlimmer waren als in der modernen Ära. Außerdem zeigen die Rekonstruktionen, dass viele der historisch signifikanten Dürren in der Vergangenheit (z. B. die Pueblo-Dürre im 17. Jahrhundert) nicht nur Winterphänomene waren, sondern auch über den Sommer hinweg andauerten. Indem wir diese Proxy-Aufzeichnungen mit historischen Dokumenten verglichen, waren wir auch in der Lage, die Rekonstruktionen unabhängig zu evaluieren und die sozio-ökonomische und umweltliche Bedeutung der Klima-Anomalien in der Vergangenheit für die Stämme im nordöstlichen Arizona besser zu verstehen.

Stöbern wir weiter in der umfangreichen Literatur zur nordamerikanischen Dürrehistorie, die den deutschen Medienvertretern offenbar gänzlich unbekannt ist. Im Jahr 2012 erschien in den Environmental Research Letters eine Dürrstudie von Pederson et al., in der das Geschehen für den Südosten der USA für die vergangenen 400 Jahre auf Basis von Baumringen rekonstruiert wird. Auch diese Gruppe fand lang anhaltende Dürren während der Kleinen Eiszeit, wobei das späte 20. und frühe 21. Jahrhundert zu den feuchtesten Episoden der letzten vier Jahrhunderte gehörten. Hier die Kurzfassung der Arbeit:

Die Intensität der Dürre im humiden Südosten der USA von 2006 bis 2009 hat viele städtische Gebiete nur mit Wasservorräten über 60 bis 120 Tage zurück gelassen. Um die Dürre-Variabilität dieses Gebietes in eine langzeitliche Perspektive einzubinden, wird ein dichtes und diverse Bäume umfassendes Netzwerk von Baumringdaten verwendet – einschließlich der ersten Aufzeichnungen im Apalachicola-Chattahoochee-Flint River-Becken – um Dürren von 1665 bis 2010 zu rekonstruieren. Das Netzwerk erfasst bis zu 58,1% der jährlichen Varianz von Dürren in der warmen Jahreszeit während des 20. Jahrhunderts und umfasst auch nasse Zeiten zur Mitte und zum Ende des 20. Jahrhunderts. Die Rekonstruktion zeigt, dass die gegenwärtigen Dürren während der letzten 346 Jahre keine Ausnahme sind. Tatsächlich war es zwischen 1696 und 1820 häufiger zu deutlich längeren Dürren gekommen. Unsere Ergebnisse zeigen, dass der Zeitraum, in dem lokale und staatliche Entscheidungen zur Wasserversorgung entwickelt worden waren, während der Instrumenten-Ära zu den nassesten Zeiten seit mindestens 1665 gehört. Angesichts des fortgesetzten Wachstums und der daraus folgenden industriellen, landwirtschaftlichen und städtischen Entwicklung im gesamten Südosten zeigen die Resultate des Paläo-Hydroklimas, dass die Bedrohung durch Wasser betreffende Konflikte in der Region das Potential hat, während der folgenden Jahrzehnte intensiver zu werden.

Weiter geht‘s mit Woodhouse et al. 2013 im Fachblatt Water Resources Research. Mithilfe von Baumringen wird in dieser Arbeit die Dürregeschichte des Rio Grande Beckens in den südlichen USA rekonstruiert. Wiederum werden langanhaltende Dürren aus der Kleinen Eiszeit berichtet. Die Autoren zeigen, dass die Dürre der letzten 12 Jahre im Rio Grande Becken Neumexikos in diesem historischen Kontext keineswegs ungewöhnlich sei. Hier die Kurzfassung der Arbeit:

Landwirtschaft und Viehzucht in semiariden Gebieten hängt oftmals von lokalem Niederschlag während der Wachstumsphase und von Abflüssen aus entfernt liegenden natürlichen Reservoiren ab. Wo Schneedecke und Speicherung wichtig sind, führen diese Bedingungen zu Verwundbarkeit während einer Dürre über mehrere Jahreszeiten. Das Becken des unteren Rio Grande in New Mexico, das hier für eine Fallstudie herangezogen wurde, litt während der letzten 12 Jahre unter Dürre-Bedingungen, charakterisiert sowohl durch geringen sommerlichen Monsun-Niederschlag und durch reduzierten Oberflächen-Wasserabfluss aus dem oberen Rio Grande. Um diese Dürre in einen langzeitlichen Zusammenhang zu stellen, evaluieren wir die Ko-Variabilität der lokalen warmen Jahreszeit und dem Hydroklima der kalten Jahreszeit sowohl in moderner Zeit als auch während vergangener Jahrhunderte. Wir beziehen uns auf ein jüngst entwickeltes Netzwerk von Baumringdaten, das es uns erlaubt, die Variationen des Niederschlags während der warmen Jahreszeit in der vorinstrumentellen Ära im Südwesten abzuschätzen. Sowohl instrumentelle als auch paläoklimatische Daten zeigen, dass ein geringer Abfluss, gefolgt von einem trockenen Monsun, nicht ungewöhnlich ist, obwohl im gesamten Zeitraum der Rekonstruktion (1659 bis 2008) Jahre mit trockenen bzw. nassen Bedingungen in beiden Jahreszeiten nicht signifikant öfter aufgetreten sind als mit entgegengesetztem Vorzeichen. Niedrige Abflüsse mit einem nachfolgenden trockenen Monsun traten am häufigsten in den siebziger und achtziger Jahren des 18. Jahrhunderts auf. Andere der Aufmerksamkeit würdige Perioden mit Dürren in beiden Jahreszeiten gab es in den sechziger Jahren des 17. Jahrhunderts und in den fünfziger Jahren des vorigen Jahrhunderts. Die jüngste Dürre scheint noch nicht ungewöhnlich ernst zu sein, weder im instrumentellen noch im paläoklimatischen Zusammenhang.

Anhand von Seensedimenten untersuchten Lascu et al. 2012 die Dürren der letzten 1000 Jahre in Minnesota. Die Arbeit erschien in Palaeogeography, Palaeoclimatology, Palaeoecology. Ioan Lascu und Kollegen fanden eine Reihe von Dürrephasen, die schwerste und langanhaltendste davon während der späten Kleinen Eiszeit. Hier die Kurzfassung der Arbeit:

Dürren sind wiederkehrende Ereignisse in Sediment-Aufzeichnungen an Präriewäldern in den nördlichen USA. Es ist daher wichtig, die Dauer dieser Ereignisse zu verstehen ebenso wie ihre Schwere und die Konsequenzen jenseits der Instrumenten-Aufzeichnungen seit 100 Jahren. Die bestehenden Dürre-Aufzeichnungen können vervollständigt werden mit zusätzlichen Proxys, die klar die Wechselwirkungen dokumentieren zwischen externen Faktoren und der Umgebung der Ablagerungen. Hier versuchen wir, die Dürre-Historie des Deming-Sees während des vorigen Jahrtausends zu rekonstruieren, einem kleinen See in den Wäldern Minnesotas, und zwar mittels Sediment-Magnetismus. Im Einzelnen ermöglicht es uns dieses Vorgehen, die Wechselwirkungen zu erforschen zwischen dem See und der Umgebung; und auch die Hypothese zu testen, dass Perioden moderater Aridität zu einem abnehmenden Sediment-Transport aus dem Einzugsgebiet zum See führen als Konsequenz reduzierter Erosion und dem reduzierten Abfluss über Land. Übereinstimmend dazu fanden wir heraus, dass die Massenanteile organischer, im See gewachsener Materie und biogenische magnetische Partikel während trockener Perioden zunehmen relativ zu biotopfremden Anteilen. Wir identifizieren viele Perioden von Trockenheit am Deming-See, die konsistent sind mit bestehenden regionalen Dürre-Rekonstruktionen. Die längste Dürreperiode trat zum Ende der Kleinen Eiszeit auf, was zeigt, dass die zweite Hälfte dieser Kaltzeit trockener war als ursprünglich gedacht.

Nun zu Booth et al. 2012 im Fachblatt Ecology der Ecological Society of America. Die Autoren gingen der Frage nach, wie sich die Mittelalterliche Wärmperiode auf das Dürregeschehen an den Großen Seen Nordamerikas auswirkte. Robert Booth und Kollege fanden für diese Zeit signifikante Dürreepisoden, die damals massive ökologische Schäden in der Region anrichteten. Hier die Kurzfassung der Arbeit:

Die Klimavariabilität, vor allem die Häufigkeit von Extremereignissen, wird wahrscheinlich während der nächsten Jahrzehnte zunehmen mit kaum verstandenen Konsequenzen für terrestrische Ökosysteme. Hydroklimatische Variationen der Mittelalterlichen Klimaanomalie (MCA) bieten die Gelegenheit, ökologische Auswirkungen der derzeitigen Klimavariabilität zu studieren in Größenordnungen und Zeiträumen, die vergleichbar mit den Erwartungen für die kommenden Jahrhunderte sind. Wir untersuchten die Auswirkung der MCA auf Wälder in dem humiden Gebiet der westlichen Großen Seen unter Verwendung von Proxy-Aufzeichnungen der Vegetation, von Bränden und dem Hydroklima. Die multidekadische Variabilität der Feuchtigkeit während der MCA war verbunden mit einem weit verbreiteten Rückgang der Buchen. Räumliche Verteilungen von Dürren und Änderungen des Waldes waren stimmig mit einem Rückgang der Buchen-Population nur in den Gebieten, in denen Proxy-Klimadaten zeigten, dass es während der MCA zu schweren Dürren gekommen war. Das Auftreten weit verbreiteter, dürre-induzierter ökologischer Änderungen im Gebiet der Großen Seen zeigt, dass Ökosysteme in humiden Gebieten anfällig für rapide Änderungen von Dürren in Größenordnung und Häufigkeit sind.

Laird et al. untersuchten die Mittelalterliche Wärmeperiode in Ontario. Das Paper erschien 2012 in Global Change Biology. Kathleen Laird und Kollegen fanden für diese Zeit 900-1400 n. Chr. schwere und langanhaltende Dürreserien. Hier die Kurzfassung der Arbeit:

Veränderungen der effektiven Feuchtigkeit in der Größenordnung von mehreren Jahrzehnten bis zu einem Jahrhundert während der letzten beiden Jahrtausende wurden abgeleitet aus Sediment-Aufzeichnungen aus sechs Seen in einem Gebiet von etwa 250 km in Nordwest-Ontario. Dies ist die erste regionale Anwendung einer Technik, entwickelt zur Rekonstruktion von Dürren aus der Abflussmenge aus den Seen. Dieses regionale Netzwerk von Proxy-Aufzeichnungen zu Dürren basiert auf individuellen Kalibrierungs-Modellen innerhalb der Seen, entwickelt unter Verwendung der Ablagerungen von Kieselalgen. … Die Analyse der Kieselalgen-Ablagerungen in den Sedimenten zeigte die Verschiebung der ökologischen Grenze zwischen verschiedenen Ablagerungen. … Diese Änderungen hängen  großenteils von klimagetriebenen Einflüssen ab und können eine sensitive Aufzeichnung vergangener Dürren sein. Unsere Sedimentaufzeichnungen aus den Seen zeigen zwei Perioden mit synchronen Signalen, was auf einen allgemeinen großräumigen Klimaantrieb hinweist. Die erste ist eine Periode verlängerter Aridität während der MCA von 900 bis 1400). Die Dokumentation der Aridität im gesamten Gebiet erstreckt sich über die bekannte räumliche Ausdehnung der MCA-Mega-Dürre in ein Gebiet, das historisch bislang nicht Schauplatz extremer Dürren wie im zentralen und westlichen Nordamerika war. Die zweite synchrone Periode ist das jüngste Signal der letzten 100 Jahre, die eine Änderung hin zu mehr effektiver Feuchtigkeit zeigt, dass mit einem anthropogenen Antrieb auf das Klima zusammenhängen könnte. Dieses Vorgehen hat das Potential, regionale Lücken zu füllen, wo zuvor die Methoden relativ ungenau waren. Durch das Auffüllen regionaler Lücken bekommt man ein besseres Verständnis räumlicher Verteilungen von Dürren in der Vergangenheit. Damit kann man Sensitivität und Realismus der Klimamodell-Projektionen zukünftiger Klimaänderungen abschätzen. Diese Art Daten ist besonders wichtig für die Validierung einer hohen räumlichen Auflösung regionaler Klimamodelle.

Steinman et al. untersuchten die Dürregeschichte der nordwestlichen USA an der Pazifikküste für die vergangenen 1500 Jahre mithilfe von Isotopen in Seensedimenten. Die Studie erschien 2012 in PNAS, zudem gibt es eine Pressemitteilung. Fazit: Die Mittelalterliche Wärmeperiode war feucht, während sich die Dürren während der Kleinen Eiszeit häuften. Zudem zeigten die Autoren einige Diskrepanzen mit Daten aus Baumringen aus der gleichen Region auf, denen nachgegangen werden sollte. Hier die Kurzfassung der Arbeit (siehe auch Beitrag auf Terra Daily):

Multiple paläoklimatische Proxies sind erforderlich, um vergangene hydroklimatische Bedingungen zuverlässig abzuschätzen. Gegenwärtig basieren Schätzungen der Dürre-Variabilität während der letzten mehreren tausend Jahre weitestgehend auf Baumringdaten. Wir haben eine 1500 Jahre umfassende Aufzeichnung winterlicher Niederschläge im Nordwesten am Pazifik erzeugt mittels einer physikalischen modellbasierten Analyse von Sauerstoff-Isotopen in See-Sedimenten. Unsere Ergebnisse zeigen, dass während der MCA der Nordwesten am Pazifik außerordentlich viel Niederschlag im Winter abbekommen hatte und dass die Bedingungen während der Kleinen Eiszeit deutlich trockener waren. Dies steht im Gegensatz zu hydroklimatischen Anomalien in den Wüsten im Südwesten und ist konsistent mit der Klimadynamik, die im Zusammenhang steht mit der El Niño Southern Oscillation (ENSO) und der pazifischen dekadischen Oszillation (PDO). Diese Ergebnisse passen irgendwie nicht zu Dürreaufzeichnungen aus Baumringen. Das bedeutet, dass Unterschiede der jahreszeitlichen Sensitivität zwischen den beiden Proxys ein vollständigeres Verständnis des Klimasystems erlauben und wahrscheinliche Missverhältnisse der Klimatrends in Zeiträumen von Jahrhunderten zeigen.

Zwei Jahre später ergänzen Steinman et al. 2014 in den Geophysical Research Letters ihre Ergebnisse und erhärten die bereits zuvor geäußerte Schlussfolgerung: Die Mittelalterliche Wärmeperiode war in den nordwestlichen USA feucht, während die Kleine Eiszeit trocken ausfiel. Hier die Kurzfassung der Arbeit:

Die Rekonstruktion der Variabilität des Hydroklimas im Zeitraum von Jahrhunderten während des späten Holozäns ist besonders wichtig, um die großräumigen Verteilungen von Dürren und ihrer Beziehung zur Klimadynamik zu verstehen. Wir präsentieren Aufzeichnungen von Sauerstoffisotopen in Sedimenten aus 10 Seen, die die letzten beiden Jahrtausende umfassen ebenso wie Klimamodell-Simulationen. Sie zeigen, dass die Kleine Eiszeit relativ zur Mittelalterlichen Klimaanomalie trocken war, und zwar in weiten Gebieten des Nordwestens am Pazifik. Diese Verteilung ist konsistent mit beobachteten Verbindungen zwischen der ENSO, der Northern Annular Mode [?] und Dürren ebenso wie mit auf Proxys basierenden Rekonstruktionen der Ozean-Atmosphäre-Variationen des Atlantiks und des Pazifiks während der letzten 1000 Jahre. Die große Amplitude im Maßstab eines Jahrhunderts durch die Daten aus den Seen zeigt, dass das regionale Hydroklima charakterisiert wird durch längerzeitliche Verschiebungen der ENSO-artigen Dynamik und dass ein besseres Verständnis der zeitlichen Beziehung zwischen externen Antrieben und Dürren notwendig ist, um zukünftige hydroklimatische Bedingungen im westlichen Nordamerika zu projizieren.

Link: http://www.kaltesonne.de/?p=18032

Anmerkung: Dieser Text war zuerst auf der “Kalten Sonne” hier erschienen, jedoch mit den Zitaten im Original. Dieser Text wurde hier übernommen, jedoch mit den Originalausschnitten in deutscher Übersetzung.

Zitate übersetzt von Chris Frey EIKE




Warren Buffet: Windparks sind nutzlos, und ich investiere nur der Steuervorteile wegen

Bild rechts: Die richtige Reihenfolge?

Der Ausschnitt bei der GWPF lautet folgendermaßen:

„Hinsichtlich Windenergie bekommen wir Steuervorteile, falls wir eine Menge Windparks errichten. Das ist der einzige Grund, sie überhaupt zu errichten. Sie sind ohne diese Steuervorteile völlig sinnlos!“

Investoren haben jüngst ihre jährliche Wallfahrt nach Omaha angetreten, um Warren Buffets Meinung zu Märkten und der Welt zu hören. Eine Überraschung ist, dass der leitende Direktor von Berkshire Hathaway die berühmte Buffet-Regel der Besteuerung übernommen zu haben scheint, wenn es um sein eigenes Unternehmen geht.

Mancher wird sich vielleicht an die originale Buffet-Regel erinnern, die Präsident Obama als Teil seiner Kampagne zur Wiederwahl angeboten hatte, nämlich für die Reichen eine minimale Steuerrate von 30% einzuführen. Mr. Buffet hat den Gedanken aus tiefstem Herzen übernommen, und Mr. Obama kramte St. Warren hervor als eine Schlagt-Die-Reichen-Keule, um Mitt Romney in zahllosen Reden aufzumischen.

Daher war es faszinierend zu hören, wie Mr. Buffet erklärte, dass seine wirkliche Steuerregel lautet, so wenig wie möglich zu zahlen, sowohl als Privatmann als auch auf der Ebene der Unternehmen. „Ich werde keinen Cent Steuern als Individuum mehr zahlen als ich dem Staat schulde, und ich werde auch keinen Cent Steuern mehr von meinen Unternehmen zahlen, als ich schulde. Und das ist sehr einfach“, sagte Mr. Buffet dem Magazin Fortune. „In meinem Falle habe ich einmal angeboten, mich irgendwelchen freiwilligen Zahlungen irgendeines Senators anzuschließen, und ich habe angeboten, jede freiwillige Zahlung des republikanischen Senators Mitch McConnell zu verdreifachen, aber sie haben mich nie darauf angesprochen“.

Der Milliardär war sogar noch deutlicher hinsichtlich seines Zieles, die Steuerzahlungen seines Unternehmens zu reduzieren. „Ich werde alles tun, das vom Gesetz abgedeckt ist, um die Steuerrate von Berkshire zu reduzieren“, sagte er. „Zum Beispiel: Hinsichtlich Windenergie bekommen wir Steuervorteile, falls wir eine Menge Windparks errichten. Das ist der einzige Grund, sie überhaupt zu errichten. Sie sind ohne diese Steuervorteile völlig sinnlos!“

Full story im WSJ (paywalled)

Link: http://www.thegwpf.org/warren-buffett-wind-farms-are-useless-i-only-invest-for-tax-credit/

Übersetzt von Chris Frey EIKE




Klimaforscher wetteifern mit dem „Lügenbaron“ Münchhausen

Der GDCh-Klimaexperte Prof. Dr. Reinhard Zellner forderte eine bessere Anpassung an den Klimawandel: „Bereits das heutige Klima hält Klimaextreme, also Starkniederschläge, Überschwemmungen, Dürren, Stürme, Kälte- und Hitzeperioden bereit, die schon jetzt eine deutlich bessere Anpassung erforderlich machen.“ Was für eine wissenschaftlich nachhaltige Aussage, doch sollte man von einem Naturwissenschaftler erwarten können, dass er Wetter von dem statistischen Konstrukt „Klima“ unterscheiden kann.

Der Mensch als Anpassungs- und Überlebenskünstler

Verdichtet man das Alter der Erde auf einen 24-Stunden-Tag, dann entsprechen 1 Million Jahre etwa 19 Sekunden. Geht man davon aus, dass der ‚homo sapiens‘ circa 200.000 Jahre alt ist, so entspricht das einer Zeit von 3,8 Sekunden. Der Mensch fand eine Welt vor, deren Wetter ebenso wechselhaft und unbeständig war wie heute, für viel Gesprächsstoff sorgte und ihn zwang sich ihm anzupassen. Das ist die Glanzleistung unsere Vorfahren, die es sogar geschafft haben, sich über die ganze Erde auszubreiten und in allen „Klimazonen“ anzusiedeln. Auch heute muss der Mensch das Wetter so nehmen, wie es kommt. Ändern kann er im Großen und Ganzen daran nichts! Was soll also die hohle Phrase „bessere Anpassung“?

Wenn Bundesumweltministerin Barbara Hendricks am 31. März 2014 ernsthaft empfiehlt, die Räume weniger zu beheizen und aus Klimaschutzgründen „kühler zu wohnen“, da der Klimawandel das Risiko für Krieg und Hungersnot vergrößere, dann mag Sie sich politisch korrekt verhalten. Sie kann ja eine „klimaschonende Lebensweise“ führen, aber ist diese auch wetterschonend? Auf das Wetter braucht der Mensch keine Rücksicht zu nehmen, es braucht keine Schonung, denn es erhält täglich ein Übermaß von Arbeitsenergie von der Sonne. Wie viele Mal in der Menschheitsgeschichte hat es schon größere und kleinere Klimaschwankungen gegeben, ohne das ein UN-Bericht die ungemein törichte Aussage traf: „Klimawandel gefährdet Milliarden Menschen“. Diese Art Politik mit dem „Knüppel der Angst“ ist überreizt und verfängt nicht mehr!

Wissenschaftlicher Streit über „pausierende Erderwärmung“

Doch kaum hatte der Weltklimarat die „Pause der Erderwärmung“ eingestanden und sich der nicht zu leugnenden Realität angepasst, da fragte wohl aus Profilneurose in einem Anflug von Übereifer Michel Jarraud, Chef der Weltorganisation für Meteorologie (WMO),: „Welcher Stillstand“? Als „Herr über die Wetterdaten“ präsentierte er eine Graphik, die einen leichten Anstieg der Globaltemperatur in den vergangenen 16 Jahren zeigte. Da kann man nur mit Winston Churchill empfehlen: Glaube keiner Statistik, die du nicht selbst gefälscht hast.

Aber nun zu Carl Friedrich von Münchhausen, dem „Lügenbaron“ (1720-1797), der sich am Schopf selbst aus dem Wasser zog. Daran wurde erinnert, wer am 5. Mai 2014 die Presse-Mitteilung (EIKE berichtete hier) des Potsdam-Instituts für Klimafolgenforschung „Entkorken der Ost-Antarktis führt zu Anstieg es Meeresspiegel“. Es ist schon erstaunlich, was das PIK schreibt: “ Das Abschmelzen bereits einer kleinen Menge Eis an der ostantarktischen Küste könnte eine große Wirkung haben – nämlich dass große Eismassen unaufhaltsam jahrtausendelang in den Ozean fließen und damit den Meeresspiegel um 300 bis 4000 Zentimeter ansteigen lassen.“ Sind Sie zu einem Eiszapfen erstarrt bei dieser Meldung, die natürlich im Konjunktiv erscheint und auf Computersimulationen beruht?“

Dieses sonderbare Phänomen wird wie folgt erklärt: „Das Wilkes-Becken der Ost-Antarktis ist wie eine gekippte Flasche; wenn der Korken gezogen wird, dann entleert sie sich“. Ein wahrlich hübscher Vergleich, doch wer zieht den Korken und wer lässt das Eis in der Flasche schmilzen? Levermann als Leitautor des Meeresspiegel-Kapitels fügt hinzu: „Wir haben vermutlich bislang die Stabilität der Ost-Antarktis überschätzt. Wenn die Hälfte dieses Eisverlustes aus der Korken-Region käme, würde das unaufhaltsame Abfließen der Eismassen beginnen.“ Dem „käme, würde“ fügen die PIK-Autoren zum Trost hinzu: „In den Simulationen dauert das vollständige Ausströmen aller Eismassen aus der betroffenen Region in der Ost-Antarktis fünftausend bis zehntausend Jahre.“ Sie brauchen also nicht darauf zu warten, zumal eine kleine Programmieranweisung dieses Gespenst schnellstens wieder beseitigen könnte und kann.

Zur Beruhigung: Bei den numerischen Computermodellen werden Szenarien nach dem Motto wenn, dann durchgespielt und berechnet. Hier kann der Phantasie gemäß den politischen Rahmenbedingungen freier Lauf gelassen werden. Die Berechnungen beruhen nicht auf Messungen in der real existierenden Welt, sondern auf fiktiven Annahmen.

Mit dem „Paternoster“ durch die Sperre Tropopause in die Stratosphäre

Am 3. April 2014 ließ das Alfred-Wegener-Institut für Polarforschung in Bremerhaven (AWI) verlauten: „Wie ein riesiger Fahrstuhl in die Stratosphäre“. Stolz verkündete man, über dem tropischen Westpazifik ein „natürliches, unsichtbares Loch von mehreren tausend Kilometer Ausdehnung“ in der Tropopause, „die den Transport der meisten natürlichen und menschgemachten Stoffe in die Stratosphäre verhindert“ entdeckt zu haben. Wie in einem „riesigen Fahrstuhl gelangen viele chemische Verbindungen aus bodennahen Luftschichten ungehindert durch die so genannte „Waschmittelschicht“ oder „OH-Schicht“ der Atmosphäre in die Stratosphäre. Sei in Bodennähe kein Ozon da, werde die OH-Bildung unterdrückt und es entstehe ein „OH-Loch“. Weiter zur Erklärung: Das OH-Molekül werde als Waschmittel der Atmosphäre bezeichnet. Es baue die chemischen Substanzen ab. Daher könne kein Stoff in die Stratosphäre aufsteigen. Habe sich so ein OH-Loch gebildet, dann habe das verheerende Auswirkungen auf das Klima.

Bei dem nicht näher umrissenen „tropische Westpazifik“ muss es sich um das Seegebiet zwischen Japan und Papua Neu Guinea handeln. Nach der Erfolgsstory mit dem „Ozon-Loch“ hat man eine neuartige „natürliche Waschmittelschicht“, die ausgerechnet über dem tropischen Westpazifik ein „OH-Loch“ hat, so dass aller bodennaher Dreck mangels Ozon ungewaschen in die Stratosphäre aufsteigen kann, um dann sein Unwesen zu treiben, sich insbesondere verheerend auf das Klima auszuwirken. Statt froh zu sein, im Westpazifik ein troposphärisch besonders reines Seegebiet gefunden zu haben, wird hier eine Gefahr für das „Globalklima“ konstruiert, die gar nicht existieren kann. Warum soll ausgerechnet hier die Tropopause als dynamische Sperrschicht ein „Loch“ haben?

Warum soll ausgerechnet über dem Westpazifik die Erdanziehungskraft oder Schwerkraft nicht funktionieren, so dass wie in einem riesigen „natürlichen Fahrstuhl“ die bodennahe Luft gegen die Gravitationskraft gen Himmel aufsteigen kann? Dabei gibt es über dem warmen tropischen Westpazifik genügend Thermik und Konvektion, insbesondere in der innertropischen Konvergenzzone, so dass es solcher abstruser OH-Loch-Konstruktionen gar nicht bedurfte. Doch die Klimaexperten scheinen so von ihrer Arbeit an immer neuen Katastrophenszenarien fasziniert zu sein, dass sie kaum mehr verifizieren, was für einen „Schwachsinn“ sie produzieren. Aber sie fühlen sich im „Weltklimarat“ (IPCC) in bester Gesellschaft, der zudem unter dem Schutzschirm der Vereinten Nationen (UNO) steht. „Schwachsinn“ ist summarisch die Bewertung des 5. IPCC-Berichts durch Leslie Woodcock, der Chemische Thermodynamik in Manchester lehrte.

Währenddessen treibt die Klimaschutz-Manie immer neue Blüten. Aus der Steiermark kam die Meldung, dass „Murau die erste CO2-neutrale Brauerei Europas“ sei. Die Hansestadt Bremen verkündete voller Stolz, dass eine Firma „klimaneutrale Altkleider-Container“ herstelle. Im Rahmen einer „Welt-Wald-Klima-Initiative“ pflanze man 8,8 Bäume pro Behälter und kompensiere damit den CO2-‚Fußabdruck‘. Die Tat ist zwar lobenswert, doch was daran „klimaneutral“ sein soll, das bleibt ein Rätsel. In Wiesbaden hat sich eine Umzugsfirma einen „Corporate Carbon Footprint“ erstellen lassen und wirbt nunmehr mit dem Angebot „klimaneutraler Umzüge“.

Zum 270. Todestag von Anders Celsius

Anders Celsius wurde am 27. November 1701 in Schweden geboren. Er starb am 25. April 1744 an Tuberkulose. Er ist bekannt geworden durch seine Temperaturskala. Dass Körper sich bei Erwärmung ausdehnen, war in der Antike bekannt, aber erstmals machte sich 1592 Galileo Galilei (1564-1641) daran, die Ausdehnung zu nutzen, um die Temperatur des Körpers zu messen. Dieses Prinzip nutzte Evangelista Torricelli (1608-1647) aus und baute das erste Quecksilber-Barometer zur Luftdruckmessung. Nachdem zuerst Daniel Gabriel Fahrenheit (1686-1736) im Jahre 1714 die noch heute in den USA gültige Fahrenheit-Skala entwickelt hatte, kam Celsius 1741 auf die Idee, eine T-Skala von null Grad (kochendes Wasser) bis einhundert Grad (gefrierendes Wasser) zu entwickeln. Dabei war er so genial, dabei auch den Luftdruck zu berücksichtigen. Dieser nimmt mit der Höhe ab und mit ihm auch der Siedepunkt. Wer in 4000 Meter Höhe ganze 10 Minuten ein Ei gekocht hat und dieses köpft, merkt, welch große Rolle der Luftdruck spielt. Das Ei ist keineswegs hart, sondern noch flüssig, weil der Siedepunkt bei 70° und nicht 100° Celsius liegt. Nach dem frühen Tod von Anders Celsius wurden dann die Fixpunkte getauscht. Es entstand die heutige Celsius-Skala mit O°C als Gefrierpunkt und 100°C als Siedepunkt.

Nicht nur feste und flüssige Körper dehnen sich bei Erwärmung aus und ziehen sich bei Abkühlung zusammen. Dies geschieht auch mit der Luft, die als Gasgemisch die Erde umgibt. Deren Ausdehnung beträgt 1/273 pro 1 Grad Erwärmung. Bei Erwärmung um 273 Grad verdoppelt sich ein Luftvolumen. Wird durch die Sonne der Boden erwärmt, so überträgt sich diese Erwärmung durch molekulare Leitung auf die Luft, die sich ausdehnt, spezifisch leichter wird und damit thermischen Auftrieb erhält. Statt Thermik sagt man auch Konvektion. Durch die bei der Ausdehnung zu leistende Arbeit wird der Luft Wärmeenergie entzogen, sie kühlt sich um 1 Grad pro 100 Meter Aufstieg ab. Ist der Taupunkt der Luft erreicht, dann kondensiert der Wasserdampf in ihr, es bilden sich Wolken ganz unterschiedlicher Mächtigkeit, von kleinen Schönwetterwolken bis zu mächtigen Gewitterwolken.

Damit soll nur angedeutet sein: Wer von Klima spricht, kommt am Wetter nicht vorbei. Es ist das Wetter, von dem Klima abgeleitet wird. Das Wetter macht das Klima! Wer dies verinnerlicht, wird ermessen, wie unsinnig der Ausdruck „klimaneutral“ ist.

Neues Schauermärchen aus dem Potsdam-Institut für Klimafolgenforschung

Am 6. Mai 2014 kam aus dem PIK die Meldung: „Brennpunkte des Klimawandels in Afrika: Unsicherheiten nutzbar machen“. War Sigmund Freud der Wortführer? „Unsicherheiten nutzbar machen?“ Das heißt im Klartext: Geschäfte mit der Angst machen! Und so stand es dann auch in der PM: „Wo mehrere Folgen des Klimawandels zeitgleich spürbar werden – Dürren oder Überflutungen, Missernten oder Schäden in Ökosystemen – entstehen in gewissen Teilen Afrikas Brennpunkte des Risikos“. Auch hier wieder ein logischer Fehler! Wenn mehrere Folgen zeitgleich spürbar sein sollen, dann müssen sie auch zeitgleich eintreten, aber wie ist das möglich? „Dürren oder Überflutungen“? Das „oder“ ist falsch! Aber merken tut das kein Experte, obgleich noch einmal betont wird, dass „gerade das gleichzeitige Eintreten mehrerer Klimafolgen die Verwundbarkeit erhöht“. Doch diese Art Wahrscheinlichkeit ist so unwahrscheinlich wie das Ereignis, dass Ostern und Weihnachten auf einen Tag fallen!

Oppenheim, im Mai 2014

Dipl.-Met. Dr. phil. Wolfgang Thüne




Pro & Kontra Treibhauseffekt: Austausch von Argumenten – Spencer versus Postma

Roy Spencer: Skeptische Argumente, die nichts taugen – und deren Widerlegung von Joseph E. Postma

In Roy Spencers Beitrag „Skeptical Arguments that Don’t Hold Water” geht es durchweg um die Verteidigung der Grundlage für Alarm. Jeder einzelne Punkt in seinen Argumenten verteidigt die Grundlage des Alarms, und jeder könnte direkt aus einer alarmistischen Quelle stammen – von Leuten wie Gavin Schmidt oder Michael Mann.

Gehen wir also durch seine Spitzfindigkeiten [Zitate Spencers sind kursiv]:

1.Es gibt keinen Treibhauseffekt. Die Infrarotstrahlung des Himmels kann gemessen werden und erreicht ein Niveau von etwa 300 W/m², was kaum ignoriert werden kann; der Ausschluss dieser Strahlung würde die numerische Wettervorhersage total unmöglich machen; und würde zu SEHR kalten Nächten führen, falls sie nicht existieren würde; und sie kann leicht  mit einem IR-Thermometer gemessen werden, das gegen den Himmel gerichtet wird… Bitte aufhören mit dem „kein-Treibhaus-Zeug“! Es lässt uns Skeptiker schlecht aussehen. Ich habe darauf viele Male in meinen Beiträgen hingewiesen.

Roy, eine kältere Wärmequelle heizt eine wärmere Wärmequelle nicht noch weiter auf. Und die Luft bleibt über Nacht warm wegen ihrer großen thermischen Masse und derjenigen des Bodens. Das sind Grundlagen der Physik… Dinge kühlen sich nicht augenblicklich ab. Und es ist eine einfache Berechnung, die man dazu durchführen kann. Empirische Daten zeigen, dass die Strahlung der kälteren Atmosphäre nicht die wärmere Oberfläche erwärmt. Grund hierfür sind die Gesetze der Thermodynamik – Kälte wärmt Wärme nicht noch weiter auf. Ein IR-Thermometer funktioniert mit den Prinzipien eines Differentials – falls das Ziel kälter ist, ist das Volt-Differential auf der Thermosäule negativ, und die resultierende Kurve ist so kalibriert, dass sie daraus eine Temperatur macht. Kälte wärmt Wärme nicht noch weiter auf. Es spielt keine Rolle, ob Sie das ansprechen oder nicht – Kälte transportiert keine Wärme zur Wärme.

2.Der Treibhauseffekt verletzt den 2. Hauptsatz der Thermodynamik

Dieser zweite Hauptsatz kann auf vielfache Weise ausgedrückt werden, aber einer davon ist, dass der Gesamt-Energiefluss von höherer zu tieferer Temperatur erfolgen muss. Dies wird durch den Treibhauseffekt nicht verletzt. Die scheinbare Verletzung des 2. Hauptsatzes scheint man auf die Tatsache zurückzuführen, dass alle Körper IR-Strahlung emittieren … einschließlich kälterer Körper zu wärmeren Körpern. Aber der GESAMT-Fluss thermischer Strahlung geht immer noch von einem wärmeren zu einem kälteren Körper. Selbst falls man nicht glaubt, dass es einen Fluss in beide Richtungen gibt und dieser nur in eine Richtung geht … die Flussrate hängt von der Temperatur der beiden Körper ab, und eine Änderung der Temperatur des kühleren Körpers wird die Abkühlungsrate (und damit die Temperatur) des wärmeren Körpers ändern. Also kann sehr wohl ein kühlerer Körper einen wärmeren Körper immer noch wärmer machen … wie das Ankleiden jedes Mal aufs Neue beweist.

Das ist klassische Sophisterei. Ein „Energie-Fluss in beide Richtungen” führt zu einem Ein-Weg-Fluss von Wärme allein, wobei Wärme nur in eine Richtung geht, nämlich von warm nach kalt. Das Kalte erwärmt das Warme nicht, während das Warme das Kalte aufwärmt. Nur Wärme fließt von warm nach kalt mit dem Gleichgewicht des Energieflusses. Das Differential zwischen hohen und niedrigen Temperaturen bestimmt die Intensität oder Rate des Wärme-Flusses, und dies bestimmt, wie schnell sich die Temperatur des kalten Objektes ändert. Wenn sich das kältere Objekt erwärmt, führt dies nicht dazu, dass sich auch das wärmere Objekt erwärmt. Das kalte und das warme Objekt erreichen irgendwann ein Gleichgewicht, und die Energie fließt dann durch das kalte Objekt zu seinen anderen Extremitäten. Ankleiden fängt die Luft zwischen Haut und Kleidung ein, und diese Luft erwärmt sich dann durch die Haut, und man fühlt sich wärmer. Die Kleidung ist nicht verantwortlich für die Erzeugung der Wärme und führt dem Körper auch keine zusätzliche Wärme zu. Der Backofen wird nicht heißer, nur weil der Puter darin gebraten wird.

3.CO2 kann keine Erwärmung auslösen, da CO2 infrarote Strahlung schneller emittiert als es sie absorbiert.

Nein. Wenn ein CO2-Molekül ein IR-Photon absorbiert, ist der mittlere freie Weg innerhalb der Atmosphäre so kurz, dass das Molekül seine Energie an umgebende Moleküle weitergibt, bevor es (im Mittel) ein IR-Photon emittieren kann in seinem vorübergehend angeregten Zustand. Wichtig ist auch die Tatsache, dass die Rate, mit der ein CO2-Molekül IR absorbiert, meist unabhängig von der Temperatur ist, aber die Rate, mit der es IR emittiert nimmt stark mit der Temperatur zu. Es ist nicht erforderlich, dass eine Luftschicht genauso viel IR emittiert wie absorbiert … tatsächlich sind im Allgemeinen die Raten der IR-Emission und –Absorption ziemlich ungleich.

CO2 kann keine Erwärmung verursachen, weil es keine Wärmequelle ist. Nur Wärmequellen können kältere Objekte aufwärmen.

4.CO2 kühlt die Atmosphäre und erwärmt sie nicht.

Das ist etwas subtiler, weil der Gesamteffekt von Treibhausgasen darin besteht, die obere Atmosphäre abzukühlen und die untere Atmosphäre zu erwärmen, verglichen mit dem Zustand ohne Treibhausgase. Da jeder IR-Absorber auch ein IR-Emittent ist, kann ein CO2-Molekül sowohl kühlen als auch wärmen, weil es IR-Photonen sowohl absorbiert als auch emittiert.

Falls CO2 Strahlungsenergie emittiert, wie Sie behaupten, bedeutet das, dass es ein hohes Emissionsvermögen besitzt. 99% der Atmosphäre, Stickstoff und Sauerstoff, haben wenig oder gar kein Emissionsvermögen. Da die Temperatur umgekehrt proportional zum Emissionsvermögen für einen gegebenen erforderlichen Strahlungsfluss ist, dann sind Sauerstoff und Stickstoff wärmer als CO2. Die Atmosphäre bleibt über Nacht warm, weil Stickstoff und Sauerstoff ihre Wärme nicht abbauen können. CO2 kann Wärme abbauen.

5.Zusätzlich in die Atmosphäre gelangendes CO2 hat keine Auswirkungen, weil die Absorptionsbänder von CO2 bereits zu 100% gesättigt sind.

Erstens sind sie das nicht, und zwar wegen der Druckausbreitung [pressure broadening – ?]. Zweitens, selbst wenn die Atmosphäre zu 100% undurchlässig wäre, spielt das keine Rolle.

Es gibt tatsächlich einen Effekt. Zusätzliches CO2 in der Atmosphäre versorgt Pflanzen mit ihrem fundamentalen natürlichen organischen Nährstoff. In echten Treibhäusern reichern wir die Luft mit CO2 an bis zum vierfachen Niveau der Luft außerhalb, weil die Pflanzen dies am liebsten haben. Es lässt sie am besten wachsen und die meisten Nahrungsmittel erzeugen. Mehr CO2 in der Luft ist ein Segen für das Leben. Und was die spektrale Absorption betrifft – diese findet nur statt, wenn man ein kaltes Gas vor einer wärmeren Quelle hat. Dies beweist, dass CO2 die Oberfläche nicht erwärmen kann.

6.Wärme in der unteren Atmosphäre gibt es wegen des Temperaturgradienten/adiabatischen Drucks.

Nein, der Temperaturgradient beschreibt, wie sich die Temperatur eines Luftpakets ändert durch adiabatische Ausdehnung/Kompression, wenn es steigt oder absinkt. Dies erklärt, wie sich die Temperatur während konvektiver Umlagerungen ändert, aber nicht, welchen Wert die absolute Temperatur hat. Die Erklärung der absoluten Temperatur ist eine Frage des Energie-Haushaltes. Man kann keine physikalisch basierte Gleichung schreiben, um die mittlere Temperatur in irgendeiner Höhe zu erhalten ohne Verwendung des Energie-Haushaltes. Falls adiabatische Kompression die Temperatur erklärt, warum liegt dann die atmosphärische Temperatur im 100-hPa-Niveau fast genau bei den Werten des 1-hPa-Niveraus trotz des 100-fach höheren Luftdrucks?

Die Formel des Temperaturgradienten zeigt genau, dass die Untergrenze der Atmosphäre wärmer sein muss als die Obergrenze. Man braucht kein Logik-Genie, um zu verstehen, dass die mittlere numerische Temperatur weder an der Unter- noch an der Obergrenze, sondern in der Mitte der Atmosphäre zu finden ist. Folglich muss es an der Untergrenze der Atmosphäre wärmer sein als das numerische Mittel der Atmosphäre, und es ist nur das Mittel, dass mit den mittleren Energie-Gleichgewichten korrespondiert. Der Temperaturgradient spezifiziert tatsächlich, dass die untere Atmosphäre wärmer sein muss als das Mittel. Das ist grundlegende Mathematik. Und, Roy, dass die Temperatur über der Troposphäre wieder zu steigen beginnt, wo das nicht-ideale Plasma-Verhalten des Gases übernimmt, ist wohlbekannt und hat absolut nichts zu tun mit den adiabatischen Prozessen in der unteren Atmosphäre mit „idealem Gas“ und jenen Gleichungen. Sie fangen an, wie Gavin Schmidt zu klingen – den ich eigentlich mag.

7.Erwärmung sorgt für steigenden CO2-Gehalt, nicht umgekehrt.

Die Steigerungsrate von atmosphärischem CO2 in der Atmosphäre liegt gegenwärtig bei 2 ppm pro Jahr, also bei einer Rate, die höher ist denn je in dem 300.000 Jahre umfassenden Eisbohrkern aus Wostok. Und wir wissen, dass die Rate durch die Verbrennung fossiler Treibstoffe CO2 200 mal so stark steigt. Wo also ist der 100 mal so starke Anstieg der Temperatur, der diesen CO2-Anstieg hervorrufen soll? Kommt, Leute, denkt nach! Aber keine Sorge … CO2 ist das Lebenselixier … wollen wir mehr davon begrüßen!

In allen geologischen Aufzeichnungen der Vergangenheit ging tatsächlich die Erwärmung einer CO2-Zunahme voraus und hat diese folglich wahrscheinlich ausgelöst. Seltsam, dass Sie um diese Tatsache herumreden und sie nicht erwähnen wollen … wo sie doch ein „Skeptiker“ und so sein wollen.

8.Die IPCC-Modelle gelten für eine flache Erde.

Ich habe keine Ahnung, woher dieser kleine Fetzen Fehlinformation stammt. Klimamodelle sprechen eine sphärische, rotierende Erde an mit einem Tag-Nacht-Zyklus der solaren Einstrahlung und der atmosphärischen Coriolis-Kraft. Ja, man kann von den globalen Energieflüssen ein Mittel bilden und diese in einem Flacherde-Cartoon zeigen, wie z. B. das Kiehl-Trenberth-Diagramm der Energiebilanz, das ein nützliches Bildungsinstrument ist, aber ich hoffe, dass die meisten des Denkens fähigen Menschen unterscheiden können zwischen einer Handvoll von Mittelwerten der globalen Mittelwerte und einem voll ausgereiften 3D-Klimamodell.

Die Treibhausmodelle werden mit einer flachen Erde erzeugt, und folglich fehlt ihnen jede aktuelle Physik, die irgendetwas zur Realität aussagt. Diese Flacherde-Modelle sind die einzige Möglichkeit, das Treibhauseffekt-Narrativ zu erzeugen. Die Kiehl-Trenberth’sche Energiebilanz ist kein nützliches Instrument, hat es doch nichts, aber auch gar nichts mit der Realität zu tun … weil es auf einer flachen Erde basiert. Ein Flacherde-Cartoon, woher das Treibhauseffekt-Narrativ stammt, hat nichts mit der Realität zu tun, weil die Erde nicht flach ist. Verstehen Sie den Unterschied wirklich nicht? Es ist ein fundamentaler mathematischer, physikalischer, geometrischer Unterschied des Energieflusses.

So etwas wie eine globale mittlere Temperatur gibt es nicht.

Wirklich? Gibt es eine Mitteltemperatur des Wassers, das eine Badewanne füllt? Oder einen Raum in Ihrem Haus? Nun können wir uns darüber streiten, wie man ein solches Mittel bildet (räumlich? Oder nach Masse gewichtet?), aber man kann einen Mittelwert berechnen, und man kann ihn mit der Zeit verfolgen und sehen, ob er sich ändert. Dies ist nur dann nutzlos, falls die Beispielmenge nicht ausreicht, eine realistische Änderung mit der Zeit zu verfolgen. Nur weil wir die mittlere Temperatur der Erdoberfläche nicht genauer kennen als auf 1°C genau, heißt das noch lange nicht, dass wir Änderungen des Mittelwertes mit der Zeit nicht verfolgen können. Wir haben niemals genau gewusst, wie viele Einwohner die USA haben, aber wir haben nützliche Schätzungen, wie sich die Anzahl während der letzten 50 bis 100 Jahre erhöht hat. Warum ist „Temperatur“ so wichtig? Weil es die thermische IR-Emission in Wechselwirkung mit der Temperatur ist, die das Klimasystem stabilisiert … je wärmer es wird, umso mehr Energie wird in den Weltraum abgestrahlt.

Eine Badewanne voll Wasser hat allgemein eine isotrope Temperatur (überall die gleiche Temperatur), und so – ja, es hat eine fühlbare mittlere Temperatur. Das Gleiche gilt für einen Raum. Das ist nichts im Vergleich zur Erde oder jedem anderen Objekt, das überhaupt Temperatur-Variationen aufweist. Temperatur spielt inhärent qualitativ nur eine Rolle bei dem spezifischen Messort [Original:  Temperature is an intrinsic quality of matter that corresponds only with the specific place of measurement.] Der numerische Wert eines Mittels kann verwendet werden, um Änderungen zu dokumentieren, aber er korrespondiert mit keiner tatsächlichen Physik, die in irgendeinem spezifischen Gebiet auftreten könnte. Die Erde kann nur dann vermehrt Energie in den Weltraum abstrahlen, wenn sie von der Sonne mehr Energie erhält.

10.Die Erde ist kein Schwarzkörper.

Nun, das hat ja auch niemand gesagt. Im Breitband-IR ist sie angenähert ein Schwarzkörper mit einem mittleren Emissionsvermögen von etwa 0,95. Aber ob ein Klimamodell den Wert 0,95 oder 1,0 für das Oberflächen-Emissionsvermögen verwendet, ändert nicht die Schlussfolgerungen, die wir hinsichtlich der Sensitivität des Klimasystems bzgl. zunehmendem CO2 ziehen.

Die einzige atmosphärische Sensitivität bzgl. CO2, die hinsichtlich der Temperatur von Belang ist, ist der Grad, mit dem CO2 die Sensitivität ändern könnte. Das ist eine High-School-Gleichung. Es gibt bislang keinen einzigen Beweis, dass das Erdklima hinsichtlich CO2 sensitiv ist, außer dem, dass es das Pflanzenwachstum fördert. Das Einzige, was das CO2 tun könnte ist, die Sensitivität der Atmosphäre zunehmen zu lassen und so der Atmosphäre zu helfen, sich abzukühlen, da das Emissionsvermögen der Atmosphäre schon jetzt nicht existent ist, machen doch Sauerstoff und Stickstoff schon 99% der Atmosphäre aus.

Link: http://tinyurl.com/qfhhnu2  

Und jetzt die Liste mit Spencers Top-Argumenten:

Die Top Ten der guten Skeptiker-Argumente

Roy W. Spencer, Ph.D.

Ein Freund hatte mir vorgeschlagen, der Liste mit den Top Ten der schlechten Argumente gegen die globale Erwärmung (oben) eine Liste mit den Top Ten der guten Argumente folgen zu lassen. Diese stehen nicht in einer bestimmten Reihenfolge, und ich könnte auch etwas Wichtiges übersehen haben.

Ich habe es vermieden, spezifische alternative kausale Mechanismen der natürlichen Klimaänderung zu nennen, weil ich sie individuell als spekulativ ansehe. Aber als Ganzes repräsentieren sie eine Klasse von Unbekannten, die nicht einfach unter den Teppich gekehrt werden kann, nur weil wir sie nicht kennen.

Aus irgendwelchen Gründen enden sie alle eher als Frage denn als Statements.

1.Keine Erwärmung in jüngster Zeit. Falls die Wissenschaft der globalen Erwärmung so „settled“ ist, warum hat dann die globale Erwärmung vor 15 Jahren aufgehört (jedenfalls in den meisten Temperatur-Datensätzen) im Gegensatz zu allen „Konsens“-Vorhersagen?

2.Natürlich oder vom Menschen verursacht? Falls wir nicht wissen, wie viel der Erwärmung längerfristig (sagen wir der letzten 50 Jahre) natürlichen Ursprungs ist, wie können wir dann wissen, wie viel davon menschlichen Ursprungs ist?

3.IPCC, Politik und Glauben. Warum bedarf es einer politischen Institution (dem IPCC), um uns zu sagen, was die Wissenschaftler „glauben“? Und seit wann haben sich die „Glauben“ der Wissenschaftler in Beweise verwandelt? Und seit wann wird wissenschaftliche Wahrheit durch Abstimmung berechnet? Vor allem dann, wenn die Abstimmenden ausschließlich aus der Partei der AGW-Gläubigen stammen?

4.Klimamodelle können nicht einmal die Vergangenheit abbilden. Warum haben die Klima-Modellierer, die die Antwort bereits kennen, immer noch nicht erklären können, warum es während der letzten über 30 Jahre keinen signifikanten Temperaturanstieg gegeben hatte? Mit anderen Worten, wie vermasselt man eine ‚Nachhersage‘?

5.Aber wir sollen den Modellvorhersagen glauben? Warum sollten wir den Modellvorhersagen für die Zukunft glauben, wenn sie nicht einmal die Vergangenheit erklären können?

6.Die Modellierer lügen hinsichtlich ihrer „Physik”. Warum bestehen die Modellierer darauf, dass ihre Modelle auf etablierter Physik basieren, dann aber die Tatsache verschleiern, dass die starke Erwärmung, die ihre Modelle erzeugen, tatsächlich auf einem sehr ungewissen Drehen an einem „Schummel-Faktor“ beruht?

7.Ist Erwärmung etwas Schlechtes? Wer hat entschieden, dass eine geringe Erwärmung auf jeden Fall etwas Schlimmes ist?

8.Ist CO2 etwas Schlechtes? Wie ist es dazu gekommen, dass das Kohlendioxid, unabdingbar für das Leben auf der Erde und nur 4 Teile in 10.000 Teilen unserer Atmosphäre ausmachend, als eine Art gefährliches Gas gebrandmarkt worden ist?

9.Sehen wir so dumm aus? Wie können Wissenschaftler erwarten, ernst genommen zu werden, wenn ihre „Theorie“ sowohl durch Überschwemmungen ALS AUCH Dürren unterstützt wird? Zu viel Schnee UND zu wenig Schnee?

10.Selektive Pseudo-Erklärungen. Wie können Wissenschaftler behaupten, dass die Mittelalterliche Warmzeit (die hunderte Jahre lang gedauert hatte), nur ein regionaler Wimpernschlag war, und gleichzeitig behaupten, dass das Einzelereignis der Hitzewelle des Sommers 2003 in Europa globale Bedeutung hat?

Zusatzpunkt: Wie kommt es, dass jede spätere Modifikation/Anpassung der globalen Thermometer-Daten zu immer mehr Erwärmung führt? Wie sieht es da aus? Entweder wird die Gegenwart wärmer gemacht als sie ist, oder die Vergangenheit wird kälter gemacht. Beides führt mit der Zeit zu einem verstärkten Erwärmungstrend. Und keine der Anpassungen trägt dem Städtischen Wärmeinseleffekt UHI Rechnung, der wahrscheinlich in fast allen Thermometerdaten existiert – weil bislang niemand einen guten Weg kennt, dies zu tun [Schade, dass sich angelsächsische Wissenschaftler nie die Mühe machen müssen, eine Fremdsprache zu lernen. Die Arbeiten von Kowatsch, Leistenschneider et al. jedenfalls müssen Spencer unbekannt sein. Aber vielleicht sollte ich die mal ins Englische übersetzen? A. d. Übers.] 

Anmerkung [des Autors!]: Ich habe darüber nachgedacht, warum meine „schlechten Argumente“ als Statements, meine „guten Argumente“ dagegen als Frage daherkommen. Ich glaube, es liegt daran, dass die schlechten Argumente (die ich zu widerlegen versuchte) immer als Tatsachen dargestellt zu werden scheinen, in die die Gläubigen absolutes Vertrauen zu haben scheinen. Im Gegensatz dazu werden die „guten Argumente“ als Fragen formuliert wegen der inhärenten Ungewissheit des gesamten Themas globale Erwärmung … Das IPCC stellt so Vieles als Tatsachen dar, obwohl es normalerweise alternative Erklärungen gibt, die das IPCC gar nicht anspricht.

Link: http://www.drroyspencer.com/2014/05/top-ten-good-skeptical-arguments/

Übersetzt und bearbeitet von Chris Frey EIKE




Eingabe eines Kleinaktionärs zur E.ON HV am 30.4.2014

Prof. Dr.-Ing. Helmut Alt 52078 Aachen, den 29.04.2014 Eichelhäherweg 6 

Eingabe zur E.ON HV am 30.4.2014

Sehr geehrter Herr Wenning, sehr geehrte Damen und Herren im Aufsichtsrat und Vorstand.

als Kleinaktionär der E.ON SE möchte ich fragen, warum nicht deutlicher die Ursache der Misere der sehr angespannten Geschäftsentwicklung der E.ON SE in den Medien thematisiert und die Gründe für alle einsichtig erläutert werden. Triviales Wissen ist, dass auch beliebig viele Wind- und So­laranlagen eine verlässliche und bezahlbare Stromerzeugung nicht leisten können, da Null mal "be­liebig" immer noch Null bleibt, es keine bezahlbaren Stromspeicher gibt und auch absehbar nicht geben kann. Wohl wird der Betrieb aller konventionellen Kraftwerke durch den gesetzlichen Vorrang der sehr teuren Stromerzeugung in regenerativen Anlagen immer unwirtschaftlicher.

Dass unsere Wirtschaft im globalen Wettbewerb – ebenso die Kunden – noch lange diese ineffiziente Kapitalverwendung zur subventionierten, nur fluktuierend verfügbaren, Stromerzeugung aus Sonnen­energie und Windkraft, zusätzlich zu dem unverändert notwendigen konventionellen Kraft­werksmix – in welchem Mixverhältnis auch immer – verkraften kann, ist sehr unwahrscheinlich.

Fluktuierend erzeugter Strom hat eben leider nur den Wert der ersparten Kosten in den ohnehin notwendigen Kraftwerken. Das ist deutlich unter 2 ctlkWh, meist sogar deutlich unter 1 ctlkWh.

Insbesondere sollte den Presseberichten: "E.ON habe den Übergang zu mehr Wind- und Sonnen­strom verschlafen" energisch widersprochen werden.

So ein Unsinn, soll E.ON (oder auch RWE, Vattenfall und EnBW) denn auch auf diesen ver­hängnisvollen Subventionszug aufgesprungen sein und zu Lasten aller Stromverbraucher auch noch die bereits von unserer Bundeskanzlerin beim Handelsblattdinner im April 2013 als unvernünftig und änderungsnotwendig benannte Steigerung der Sonnen- und Windleistung noch weiter befeuert haben?

Eben auch noch als Subventionsprofiteurer zu Lasten aller Bürger?

Bitte klären Sie doch endlich in einer Großanzeige in allen Medien die Bürger und Stromkunden über die wirkliche Lage in unserem Land auf, etwa so, wie das Prof. Werner Sinn als einziger der auf die­sem Gebiet besonders renommierten Wissenschaftler bisher getan hat: "Energiewende ins Nichts".

Video von SAT1: Sigmar Gabriel nimmt am 17.4.2014 in Kassel bei SMA Stellung zur

Energiewende:http://www.1730live.de/sigmar-gabriel-nimmt-in-kassel-stellung-zur-energiewende/

Wörtliche Zitate aus seiner Rede zur EEG-Reform:

"Die Wahrheit ist, dass die Energiewende kurz vor dem Scheitern steht."

"Die Wahrheit ist, dass wir auf allen Feldern die Komplexität der Energiewende unterschätzt haben."

"Für die meisten anderen Länder in Europa sind wir sowieso Bekloppte."

J{efmut Alt




Umfrage des mdr: Sollte Deutschland weiterhin auf Braunkohle als wichtigen Energieträger setzen?




Deutsche Physikalische Gesellschaft (DPG) verbreitetet öffentlich Unsinn in Bezug auf die Erwärmungspause beim Klimawandel!

EIKE hat diese Pressemitteilung sowie die Beiträge in PHYSIK Konkret der Frau Johanna Stachel zum Anlass genommen um sie mit Schreiben vom 3. April 2014 aufzufordern entweder Belege für diese falsche und weitere Behauptungen zu liefern oder aber davon Abstand zu nehmen . Eine Antwort steht bis heute aus.

Hier der offene Brief vom 3.4.14 im Wortlaut:

Frau Professor  Dr. Johanna Stachel

Präsidentin  Deutsche Physikalische Gesellschaft e. V.

Hauptstraße 5

53604 Bad Honnef

Betrifft: „Physik Konkret“, Nr. 19, „Klimawandel: Erwärmungspause ja oder nein?

Sehr geehrte Frau Stachel,

Sie haben in „Physik Konkret“, Nr. 19 vom 19.3.2014 den Beitrag  „Klimawandel: Erwärmungspause ja oder nein?“ verfasst und dabei die Warnung ausgesprochen „Wir warnen vor der Auffassung, dass der Klimawandel zum Stillstand gekommen sei, die globale Erwärmung schreitet ungehindert fort“. Im ersten Satz Ihres Beitrags schreiben Sie dann „Anthropogene Emissionen von Treibhausgasen, vor allem CO2, haben seit Beginn der Industrialisierung einen nachweisbaren Beitrag zur globalen Erwärmung geleistet“. Diese Aussage ist sachlich falsch. Es gibt bis heute keine begutachtete Fachveröffentlichung, in der ein solcher Nachweis geführt wird, wobei wir „Nachweise“ durch Klimamodelle ausschließen. Die natürlichen Temperaturfluktationen übersteigen den anthropogenen Beitrag bei weitem. Vermutlich ist Ihnen auch unbekannt, dass weltweit ein Viertel aller das 20. Jahrhundert abdeckenden Temperaturreihen Abkühlung und keine Erwärmung zeigen [1], [2]. Wie ferner ein Papier [3] mit zwei der hier Unterzeichnenden als Autoren zeigt (erschienen im Climate of the Past der Europäischen Geophysikalischen Union), bestimmt der de-Vries-Sonnenzyklus die Klimageschichte der letzten 250 Jahre, ein Einfluss des anthropogenen CO2 konnte nicht aufgefunden werden.

In Ihrer „Warnung“ ist dann sachlich alles falsch. Kein vernünftiger Mensch behauptet, der Klimawandel sei zum Stillstand gekommen. Klimawandel gibt es seitdem die Erde sich dreht, Klimastillstand gab es noch nie. Ihrem „die globale Erwärmung schreitet ungehindert fort“ widersprechen im Übrigen alle meteorologischen Messungen weltweit. Der aktuelle Stillstand fing spätestens mit dem El Nino Jahr 1998 an, er existiert somit bereits seit rd. 16 Jahren. Im Rest Ihres Beitrags ziehen Sie dann einen sachlich grob unzulässigen Schluss, wenn Sie sagen „Ingesamt zeigen die Messungen, insbesondere im Ozean an, dass die Erwärmung der Erde im Ganzen ungebremst weitergeht“. Welche Messungen meinen Sie? Uns sind keine bekannt. Die Autoren Yair Rosenthal et al. schreiben zu „insbesondere im Ozean“ im Abstract ihrer Veröffentlichung „Pacific Ocean Heat Content During the Past 10,000 Years“, Science, 342, 2013 (das Papier ist frei in Google Scholar als pdf herunterladbar):

Abstract: Observed increases in ocean heat content (OHC) and temperature are robust indicators of global warming during the past several decades. We used high-resolution proxy records from sediment cores to extend these observations in the Pacific 10,000 years beyond the instrumental record. We show that water masses linked to North Pacific and Antarctic intermediate waters were warmer by 2.1 ± 0.4°C and 1.5 ± 0.4°C, respectively, during the middle Holocene Thermal Maximum than over the past century. Both water masses were ~0.9°C warmer during the Medieval Warm period than during the Little Ice Age and ~0.65° warmer than in recent decades. Although documented changes in global surface temperatures during the Holocene and Common era are relatively small, the concomitant changes in OHC are large.

Erwärmungsphasen im Ozean (als „large“ bezeichnet) kamen bereits mehrfach ohne jedwedes anthropogene Zutun in der Klimageschichte vor und übten dabei nur wenig Einfluss auf die bodennahe Lufttemperatur aus. Wir fragen Sie daher, wie Sie zu Ihrer Schlussfolgerung eines „ungebremsten“ weiteren Anstiegs kommen. Die Klimahistorie der Erde widerspricht. Immer gab es Umkehr nach Erwärmung wie auch nach Abkühlung – auf allen Zeitskalen. Wenn dies nicht mehr der Fall sein sollte, geht konsequenterweise die Welt unter, was nicht so schnell zu erwarten ist.

Leider ist Ihr hier kritisierter Beitrag in „Physik Konkret“ kein Einzelfall. Das Bemühen der DPG, dem politischen Zeitgeist zu dienen, wird immer deutlicher. So erfüllte der von den Autoren A. Bachem und C. Buchal im Dezemberheft des „Physik-Journals“ (PJ) verfasste Artikel „Energiewende – Quo Vadis“ wenigstens noch fachliche Ansprüche, wenn auch die Folgerungen der Autoren „Die Erfolgsgeschichte von Solar- und Windenergie muss sich fortsetzen“ nur noch mit Humor zu nehmen ist. Welche Erfolgsgeschichte meinen die Autoren, leben sie wirklich im heutigen Energiewende-Deutschland oder denken sie an erfolgreiche Mitteleinwerbungen für ihre Institute? Der im Februar-Heft des PJ, S. 21 (2014) erschienene Propaganda-Artikel für die Photovoltaik (PV) überschreitet schließlich alle Grenzen. Hier kam im sonst hochwertigen PJ der wirtschaftliche Interessenvertreter Dr. W. Hoffmann zu Wort. Den sachlichen Inhalt seines Beitrags übergehen wir besser mit freundlicher Nachsicht. Ganz offensichtlich haben sich Ökoideologen und Profiteure in der DPG durchgesetzt. Dass die PV als mit Abstand kostspieligste Methode der elektrischen Energieerzeugung mit ihrer unstetigen Stromlieferung für eine Industrienation völlig ungeeignet ist (allenfalls in Entwicklungsländern mit hoher Insolation mag sie eine Nische finden), braucht nicht näher erläutert zu werden – nur noch ein Zitat von Dr. Großmann, ehemals Vorstandsvorsitzender RWE AG: „Photovoltaik in Deutschland ist genauso wenig sinnvoll, wie Ananas in Alaska zu züchten“. Stellvertretend erinnern wir an den Vortrag von Prof. Hans-Werner Sinn „Energiewende ins Nichts“ vom 16.12.2013 in der Münchner Ludwig-Maximilian-Universität vor hohem politischem und wissenschaftlichem Publikum. Die Grenzen zur unfreiwilligen Komik überschreitet W. Hoffmann im PJ schließlich mit seinem Schlussplädoyer für die PV “Damit verbunden ist die Hoffnung, dass diese Einsichten auch in der Finanzwelt Fuß fassen und die Geldströme in die entsprechende Richtung lenken“ – ein absoluter Tiefpunkt für die DPG!

Sehr geehrte Frau Stachel, „Audiatur et altera pars!“ sollte auch die Politik der DPG beachten. Sachkritiker der kostspieligen industriezerstörenden Klima-Hysterie und der volks- und betriebswirtschaftlich unsinnigen Energiewende kommen im PJ und bei der DPG aber nicht mehr zu Wort, Fachartikel über die zivile Nutzung der Kernenergie, von China vehement ausgebaut, werden im PJ nicht mehr gedruckt,. Wir möchten angesichts dieser Entwicklung unsererseits eine Warnung aussprechen: Die Führung der DPG hat eine besondere Verpflichtung zu wissenschaftlicher Objektivität und politischer Unabhängigkeit. Dem vorgeblichen Klimakonsens, der Energiewende oder gar dem politischen Zeitgeist unkritisch zu folgen, kann nur zu solchen Zuständen führen, wie wir sie schon aus der „deutschen Physik“ eines P. Lennartz und J. Stark kannten. Möchten Sie, sehr geehrte Frau Stachel, riskieren, dieses dunkle Kapitel deutscher Wissenschaftsgeschichte durch unkritische Veröffentlichungen ungeprüfter Behauptungen und durch PJ-Propaganda für fragwürdige Interessenvertreter zu wiederholen? 

Mit freundlichen Grüßen

                                 

Prof. Dr. Dieter Ameling (Stahlmetallurge)    Prof. Dr. Friedrich-Karl Ewert (Geologe)

Michael Limburg (Dipl.-Ing.)                 Prof. Dr. Horst-Joachim Lüdecke (Physiker)        

Klaus Eckhart Puls (Dipl. Meteorologe)  Prof. Dr. Carl-Otto Weiss (Physiker)

Literaturnachweise

[1] R. Rohde et al.: Berleley Earth temperature Averaging Process, Geoinformatics & Geostatistics: An Overview (2013)

[2] H.-J. Lüdecke, R. Link, F.-K. Ewert: How Natural is the Recent Centennial Warming? An Analysis of 2249 Surface Temperature Records, Int. J. Mod. Phys. C, Vol. 22, No. 10 (2011)

[3] H.-J. Lüdecke, A. Hempelmann, and C.O. Weiss: Multi-periodic climate dynamics: spectral analysis of long-term instrumental and proxy temperature records, Clim. Past. 9, 447-452 (2013)

Related Files




Prominente Klima-Wissenschaftler werden Skeptiker: Bengtsson und Zellner

Er wird Mitglied der Organisation „The Global Warming Policy Foundation“, deren Direktor der Sozialwissenschaftler Dr. Benny Peiser ist. Somit wird Bengtsson nach wie vor ein Verfechter der Hypothese  vom Treibhauseffekt bleiben.

Doch skeptisch war Bengtsson schon immer. So auch bereits 2004 als ich das erst Mal mit ihm telefonierte. Meine Notiz über das Gespräch diente damals der Vorbereitung einer Sitzung des FDP Bundesfachausschusses Umweltpolitik in Berlin. Der Inhalt ist nach wie vor aktuell. Daher füge ich den Text im Wortlaut ein:

„Beim Internet Studium der neusten wissenschaftlichen Modellrechnungen der Klimaforschung der „National Center for Atmospheric Research“ (NCAR), dessen Arbeit praktisch vollständig im Internet verfügbar ist, habe ich mich für ein spezielles Meeting interessiert, bei dem die zwei aktuellsten Modelle miteinander verglichen wurden:

CCM3 (das aktuelle amerikanische) und

ECHAM4.5 (das aktuellste europäische).

Folgender Titel einer Powerpoint Präsentation sprang mir ins Auge: “Comparing the Greenhouse Sensitivities of CCM3 and ECHAM4.5” von Ed Schneider (George Mason U), Ben Cash und Lennart Bengtsson (MPI Hamburg, Reading U.). Der dritte Autor ist mir als emeritierter Direktor und Vorgänger von Prof. Graßl namentlich bekannt.

Die letzte Zeile dieser PPT lautet wie folgt:

„We are probably approaching this problem in the wrong way, but at least we’re doing something. Maybe our mistakes will suggest a better approach.“

So viel Selbstzweifel veranlassten mich, Kontakt zur Professor Bengtsson aufzunehmen. Im Telefonat mit ihm ergab sich folgendes:

Die globalen Modelle (GM) passen zur Zeit bei keinem Klimamodell mit einigen lokalen Modellen (LM) zusammen. Lokal wird es in Nordamerika und in der Südhemisphäre klimatisch (d. h. über einen Zeitraum länger als 10 Jahre) kälter, in Westeuropa und der Arktis wird es wärmer. Die Abkühlung passt nicht zum CO2-Effekt. Die Erwärmung in Westeuropa und der Arktis aber überraschend passt auch nicht, weil es hier kälter werden sollte, weil der gemessene Aerosolgehalt hier so hoch ist und abkühlend wirkt, dass der den Effekt der CO2-Zunahme deutlich überkompensieren sollte.

Soweit die wissenschaftlichen Fakten aus dem Telefonat.

Prof. Bengtsson ist ein absoluter Verfechter der CO2-Hypothese. Die beobachteten Klimaänderungen sind für ihn nur Ausdruck der derzeitigen natürlichen Klimaschwankungen. Über einen Zeitraum von 100 Jahren werde sich der CO2 Effekt in wenigen Graden Temperaturerhöhung auswirken. Wie viele Grade das dann nach 100 Jahren sein werden, kann kein Modell berechnen, weil alle Modelle viel zu ungenau seien.

Die urbanen Wärmeinseln hält er nicht relevant für das globale Klima. Über eine Tag-Nacht-Dynamik der Wolkenbedeckung weiß er nichts. Die Wolken, der alles entscheidende Unsicherheitsfaktor.

Die amerikanische Klimaforschung ist für Prof. Bengtsson weitweit mit Abstand führend. Den Impuls der Bush Administration, Unsicherheiten der Klimamodelle zu problematisieren und Mittel für die Verbesserung des Standes der Wissenschaft auszugeben, hält er für richtig.

Schweden, sein Heimatland, betrachtet er etwas spöttisch:

Schweden habe nicht mehr den geringsten Zweifel an der CO2-Hypothese und stellt dafür auch keine Mittel mehr bereit. Bengtsson muss daher in Deutschland, England und USA arbeiten.“

Seinen Satz im aktuellen SPON Interview:

„Ich halte es für essentiell, dass es Gesellschaftsbereiche gibt, wo kein Konsens erzwungen wird. Gerade in einem Gebiet, das so unvollständig verstanden ist wie das Klimasystem, ist ein Konsens sinnlos.“

sollten alle Medien beherzigen. Sie sollten daher verstärkt jene Wissenschaftler zu Wort kommen lassen, die in ihren papers auch mit Peer Review zeigen, dass es keinen Treibhauseffekt der Atmosphäre gibt. Denn auch Naturwissenschaftler, außerhalb der Meteorologie, befassen sich mit dem, worauf es bei der Temperaturbildung an der Erdoberfläche ankommt und was vollständig verstanden wird. Nämlich mit den vertikalen Energieflüssen im System Sonne (6000°C), Erdoberfläche (15°C), Atmosphäre (-18°C) und Weltall (-271°C).

Auch Reinhard Zellner scheint ins Lager der Skeptiker zu wechseln.

Reinhard Zellner war zusammen mit Christian-Dietrich Schönwiese Hauptgutachter der Enquete Kommission des Deutschen Bundestages zum Schutz der Erdatmosphäre. [BT DRS 11/8030] Auch Zellner ist nach wei vor ein Anhänger der Hypothese vom  Treibhauseffekt. Sein Interview im Mai Heft der „Nachrichten aus der Chemie“, der Mitgliederzeitschrift der Gesellschaft Deutscher Chemiker, wird ein Interview mit ihm abgedruckt. Es springt freilich der Medienschaffenden nicht so ins Auge, wie das SPON Interview mit Bengtsson.

Dafür sind dort wissenschaftliche Aussagen gemacht worden, die die CO2 Debatte nachhaltig beeinflussen sollten. Hier ein Auszug aus dem längeren Interview:

„Nachrichten:

Typisch ist der Einwand, dass der Treibhauseffekt nicht nachzuweisen sei.

Zellner:

Das stimmt, es gibt kein Laborexperiment, das die Erwärmung durch Infrarotabsorption des CO2 direkt nachweist.

Das System Atmosphäre kann aufgrund seines Temperatur- und Druckgradienten in einem stationären Experiment gar nicht reproduziert werden.“

[Nachr. Chem. 2014, 62, 513 -515] (Für private Zwecke kann das vollständige Interview als pdf Datei beim Autor angefordert werden.)

Dr. Gerhard Stehlik, Hanau (www.gerhard-stehlik.de)

Ergänzung der Redaktion

(mit Dank an Frau H. Thiele, die diesen Bericht von 2005 ausgrub)

Aus einem Bericht über

 

Das Klima fuhr schon immer Achterbahn

Vortragstagung zum Klimawandel der Veranstalter: Friedrich-Naumann-Stiftung und Rudolf v. Bennigsen-Stiftung, 15.05.2004 Göttingen vom 18-5-4, Bericht von Helga Meyer

Auszug:

Prof. Dr. Reinhard Zellner, Physiko-Chemiker, der mit seinem Sachverständigenkreis aus Pro und Contra-Meinungen das Bundesministerium für Bildung und Forschung berät, räumte ein, dass das Kyotoprotokoll ein reines Politikum sei, welches  die Nationen verpflichten soll, ihre klimarelevanten Gase zu verringern. Es werde aber genau wie der CO2- Emissionshandel keinen Einfluß auf das Klima haben .Ein grundsätzliches Umsteuern sei aus seiner Sicht zwar notwendig aber aus sozio- ökonomischen Gründen weltweit gar nicht machbar.

Den ganzen Bericht können Sie als pdf Dokument im Anhang herunter laden

Weiterführende Links:

Marcel Crok mit Lennart Bengtsson über das Interview mit GWPF

Lennart Bengtsson: “The whole concept behind IPCC is basically wrong”

Peter Heller von Science Sceptical :

Der Fall Bengtsson

Basler Zeitung

Er weiss, dass er wenig weiss

Related Files




Wir bleiben am Leben, obwohl unsere Gene einiges aushalten müssen – Teil III

Wären die Menschen böse oder dumm genug, einen Atomkrieg zu entfesseln, gäbe es erheblich schlimmere Dinge, über die man sich Sorgen machen müsste als Strahlung, und zwar sowohl während als auch nach einem solchen Krieg. Die Atombomben des 2. Weltkriegs haben ihre Opfer in genau der gleichen Weise getötet wie andere Bomben. Das Feuer-Bombardement japanischer Städte tötete mehr Menschen und hinterließ eine noch größere Zahl mit schwersten Verbrennungen und großen Schmerzen für immer. Im Jahre 1994 tötete eine simple Machete über eine halbe Million Menschen in Ruanda. Im Vergleich zu fehlenden Gliedmaßen und schrecklichen Verbrennungen waren die Auswirkungen von Strahlen auf die meisten Überlebenden banal. Wir werden später sehen, dass das Krebsrisiko durch Wurst größer ist als das bei einem Überlebenden der Atombombenabwürfe. Die gestiegene Krebsrate in den Überlebenden gab diesen eine mittlere Reduktion der Lebenszeit um etwa zwei Monate (hier) und hatte keinerlei langzeitliche Auswirkungen auf spätere Generationen.

Wenn man zwei Ursachen von Krebs miteinander vergleichen will, zählt man gewöhnlich aufgetretene Fälle oder vielleicht Todesfälle. Etwas, dass Millionen Krebstote zur Folge hat, ist schlimmer als etwas, dass nur 1000 Krebstote fordert. Sich auf das Leiden eines einzelnen Menschen unter diesen tausend zu konzentrieren kann zu einer grausamen, ungerechten und unmoralischen Bereitstellung von Ressourcen weg von Vielen und hin zu Wenigen führen.

Peter, Paul und Mary und die Hymne gegen Kernkraft

Dreißig Jahre des Brandmarkens hat den geringen Anteil von Strahlung an Krankheitsursachen weit über deren Bedeutung hinausgehoben. Die meisten unserer politischen Leithammel einschließlich Bill Clinton, der im Jahre 1994 das US-Programm zur Entwicklung des Integral Fast Reactor IFR vom Tisch gewischt hat, sind in einer Umgebung aufgewachsen, die Strahlung als Gift ansieht. Nunmehr seit Jahrzehnten wurde als die Hymne der Anti-Kernkraft-Bewegung das Lied Power von Peter,_Paul_and_Mary betrachtet einschließlich der vielen Cover-Versionen (eine davon hier bei youtube.com). Es hat einen ironischen Refrain:

Just give me the restless power of the wind

Give me the comforting glow of a wood fire

But please take all of your atomic poison power away.

[etwa:

Gib mir die pausenlose Kraft des Windes / Gib mir das komfortable Glühen eines Holzfeuers / Aber bitte nimm alles atomare Gift hinweg]

Poetischer Wohlklang ist keine Entschuldigung dafür, Unsinn an die vorderste Front zu rücken.

Holzfeuer sind tödlich. Kochfeuer, hauptsächlich aus Holz, manchmal auch getrockneter Dung von Vieh, töten jährlich eine halbe Million Kinder und weitere 3 Millionen Erwachsene (hier). Holzfeuer ist sicher natürlichen Ursprungs. Eine natürliche giftige Suppe von hässlichen natürlichen Chemikalien.

 

Quelle

Es verursacht COPD … chronische obstruktive Lungenkrankheiten (hier) bei Erwachsenen, und diese Störung führt zu Infektionen, die Kinder ohne Zugang zu medizinischer Hilfe wie in der Ersten Welt töten. Holzrauch ist nicht nur tödlich, sondern Holz ist auch ein Karzinogen der 1. Klasse; genau wie ionisierende Strahlung. „1. Klasse“ bedeutet einfach, dass es vielfach bei Erwachsenen nachgewiesen ist.

Quelle. Weder Holzstaub, Holzrauch oder Strahlung ist ein existenzielles Risiko für die Menschheit, aber Holzrauch ist im Allgemeinen anders als Strahlung für Individuen ziemlich tödlich.

Und dann gibt es da die Holzindustrie. Das ist eine der gefährlicheren auf diesem Planeten. In den achtziger Jahren, als die Anti-Kernkraft-Hymne in den USA und Australien auf und ab gespielt worden ist, sind allein in den USA 1492 Holzarbeiter ums Leben gekommen (hier) … und Zehntausende waren gesundheitlich beeinträchtigt. Die Anzahl zu Tode gekommener Holzarbeiter hat sich in den USA seitdem halbiert, aber die Todesrate ist immer noch eine der höchsten aller Industrien und liegt bei 70 Todesopfern pro Jahr pro 100.000 Arbeiter (hier). Ist das viel? Bei Verkehrsunfällen sterben pro Jahr unter 100.000 Menschen in Australien 6; in den achtziger Jahren waren es noch 20. Die Todesrate durch Lungenkrebs in den USA liegt bei 30 pro 100.000 Menschen pro Jahr. Holz ist tatsächlich etwas Wunderbares, aber Herstellung und Gebrauch sind tödlich und giftig.

Andererseits steht Kernkraft wie bereits erwähnt für saubere Luft, was sie zu etwas macht, dem man sehr dankbar sein muss, hat sie doch 1,8 Millionen Fehlgeburten seit den siebziger Jahren verhindert (hier). Minenarbeit unter Tage hat die Kumpel in den fünfziger Jahren radioaktivem Radongas ausgesetzt und ihr Lungenkrebs-Risiko höher werden lassen als bei Rauchern (hier und hier), aber moderne Technik macht den Uran-Bergbau zu einem der sichersten aller Bergbau-Tätigkeiten. Einfacher gesagt, Todesfälle sind ziemlich ungewöhnlich (hier), und Strahlendosen sind messbar und daher leicht zu kontrollieren. Wie misst man Holzrauch oder das Einatmen von Staub oder die Aufnahme von Staub durch Kinder, deren Mütter mit Holz kochen? … Man weiß erst, dass die Dosis zu hoch war, wenn das Kind krank wird.

Peter,Paul und Mary haben sich getrennt. Die Anti-Kernkraft-Hymne hat eine wunderbare Melodie, aber der Text ist verwirrender Plunder und Ballast*, und in dem Lied triumphiert Rhythmus über Vernunft.

[*Unübersetzbares  Wortspiel: „addled flotsam and jetsam“]

Also müssen wir jetzt drei Jahrzehnte eines zu Herzen gehenden, aber grob irreführenden Markenzeichens zurückdrehen. Man stelle sich mal vor, wie unterschiedlich es auf dem Planeten während der letzten 23 Jahre zugegangen wäre, falls jedes Land auf ihm wie Frankreich Strom mit Emissionen von lediglich 80 g CO2/kWh erzeugt hätte anstatt des globalen Mittels von 570… mit den stärksten Emissionen in „Anti-Kernkraft-Australien“  mit 850 g CO2/kWh.

Dies hätte geschehen können, wenn Peter, Paul und Mary doch bloß geschrieben hätten:

Please spare me the transitory power of the wind

Give me that Cherenkov_glow  of a fission fire

And please take all your kiddie killing wood smoke away.

(Ich glaube, das muss nicht übersetzt werden. C. F.)

 

Quelle

Um nun den Bereich von Protestsongs von Strahlungsexperten auf andere Experten auszuweiten, müssen wir mehr Details über Krebs erfahren.

Was Experten über Krebs wissen

Anfangen wollen wir mit zwei grundlegenden Tatsachen:

● Das Überleben einer Atomexplosion und der Empfang einer großen Dosis Strahlung stellt ein viel geringeres Krebsrisiko dar als ein karzinogener Lebensstil – Rauchen, Verzehr von reichlich rotem und verarbeitetem Fleisch, Übergewicht, keine Bewegung, um nur einige wesentliche Gründe für Krebs zu nennen. Auch die Körpergröße gehört dazu, was vielleicht überraschend ist, aber ich gehe später noch darauf ein.

● Das Leben auf strahlenverseuchtem Land nach so etwas wie Tschernobyl sowie der Verzehr von Nahrungsmitteln aus verstrahlten Gebieten birgt ebenfalls nachweislich ein viel geringeres Krebsrisiko als Krebs aufgrund mancher Lebensgewohnheiten.

Für einen Protestsongs hörenden Laien sind diese beiden Tatsachen sowohl erstaunlich als auch gefühlsmäßig falsch: „Das kann nicht stimmen!“ wäre die absehbare Antwort. Aber ein Experte würde eher antworten: „Ja, natürlich … weiß das nicht jeder?“ Nein, das weiß nicht jeder.

Was wissen Experten, das wir nicht wissen?

Beginnen wollen wir mit dem Vergleich dessen, was Experten über die Überlebenden der Atombomben im 2. Weltkrieg wissen im Vergleich zu Menschen in Australien (oder den USA oder UK) mit dem entsprechenden Lebensstil. Das Krebsrisiko der Überlebenden von Hiroshima und Nagasaki ist ausführlich untersucht worden.  Es hat um etwa 11 Prozent zugenommen. Die Experten wissen das, aber wir anderen müssen da nachschauen. Aber natürlich tun wir das nicht, und selbst wenn wir es täten, hätten wir noch lange keine Vergleichsmöglichkeit. Ist eine Zunahme um 11 Prozent eine starke Zunahme?

Nein! Die Krebsrate in Australien beispielsweise liegt um ganze 50 Prozent höher als die in Japan (hier; allerdings scheint dieser Link nicht zu funktionieren). Standardisiert man die Zahlen hinsichtlich der unterschiedlichen Altersstruktur, kommt man auf 314 Krebsfälle pro 100.000 Menschen pro Jahr, in Japan sind es 201. Aber selbst diese 11 Prozent Zunahme unter den Überlebenden der Bomben sind irreführend, weil es ein Mittelwert ist, der künstlich nach oben getrieben wird durch die wenigen Überlebenden, die massiven Strahlendosen ausgesetzt waren, was die Zunahme viel größer ausfallen ließ. Die überwältigende Mehrheit aller Überlebenden erlebte lediglich eine Zunahme der Rate um 2 Prozent. Die wenigen Überlebenden, die die allgemeine Zahl so nach oben getrieben haben mit ihrer Zunahme des Risikos um 60 Prozent, wurden von einer kurzen, aber massiven Welle von Strahlung betroffen, die etwa 300.000 mal so hoch war wie die Hintergrundstrahlung, aber selbst diese massive Dosis hat ihr Krebsrisiko  nur um einen Bruchteil desjenigen in Australien zunehmen lassen.

Die anderen Krebsarten sind Leukämien. Sie machen etwa 2 bis 3 Prozent aller Krebsfälle aus, so dass sie selbst bei einer Verdoppelung der Zahlen die obige Analyse nicht widerlegen. Aber sie verdoppeln sich nicht. Leukämie hat bei den Überlebenden um 6 Prozent zugenommen (hier), aber eine Verdoppelung der Rate bei den Wenigen, die massive Dosen abbekommen hatten, hat das Mittel auf 46 Prozent steigen lassen … aber das ist immer noch weniger als bei einem Leben im australischen Lebensstil.

Andererseits hatte der Unfall von Tschernobyl keinerlei Auswirkungen auf die Krebsrate mit Ausnahme einiger Fälle von Schilddrüsenkrebs. Auch dies ist Experten wohlbekannt. Wenn es um das allgemeine Krebsrisiko in verstrahlten Gebieten geht oder um den Verzehr von Nahrungsmitteln aus solchen Gebieten, müssen wir lediglich in die nationalen Krebsregister schauen, um zu sehen, was passiert ist. Krebsregister sind sehr einfache Dinge. Man bekommt die Diagnose Krebs, das wird aufgezeichnet und die Zahlen addiert. Dann entstehen einige einfache und transparente Statistiken daraus. Während der letzten 25 Jahre gab es in der Ukraine sowie in Russland und Weißrussland etwa 14 Millionen Krebsfälle. Legt man die australische Rate zugrunde, wären es 20 Millionen. Wie machen sich 6000 Fälle von Schilddrüsenkrebs mit etwa 15 Toten gegen die 6 Millionen eines extravaganten Lebensstils aus?

Krebs durch den Lebensstil ist immer ein viel höheres Risiko als Atombomben und Reaktorunfälle.

Anti-Kernkraft-Guru Helen Caldicott „warnt“ vor dem Krebsrisiko beim Verzehr türkischer Aprikosen (hier bei youtube), weil die Türkei durch den Fallout von Tschernobyl betroffen war. Krebsexperten andererseits wissen, dass die Krebsrate in der Türkei (hier, aber auch dieser Link scheint nicht zu gehen) weniger als halb so groß ist wie in Australien oder den USA. Im Jahre 2008 gab es in der Türkei 95.000 neue Krebsfälle bei einer Bevölkerung von 73 Millionen. Zum Vergleich: In Australien mit 22 Millionen Einwohnern waren es 107.000 neue Krebsfälle Wenn das mehr nach einem Drittel als der Hälfte aussieht, dann deshalb, weil die Experten solche Raten justieren, um der unterschiedlichen Altersstruktur in der Türkei Rechnung zu tragen.

Die Anti-Kernkraft-Bewegung ist stolz darauf, Angst machende Geschichten darüber zu verbreiten, was Strahlung bei unserer DNA anrichtet. Experten wissen, dass alles und jedes unter der Sonne einschließlich dieser selbst der DNA zusetzen. Das Umherwerfen mit technischem Jargon und das Verbreiten von Angst sind kein Ersatz für harte Daten zu realen Auswirkungen. Betrachtet man diese, befindet sich das nukleare Risiko fast am Ende jeder Risikotabelle. Es ist ihrer Natur nach ähnlich und sehr viel geringer als das Risiko von Unfällen in der Arbeit, beim Sport oder beim Renovieren der Wohnung. Und außerdem wird es drastisch in den Schatten gestellt durch 1,8 Millionen verhinderte Fehlgeburten infolge saubererer Luft.

Wenn die Menschen mit dem Narrativ „Strahlung ist Gift“ aufwachsen, dann ist es einfach unglaublich zu erfahren, dass das Überleben einer Atombombe viel weniger karzinogen ist als beispielsweise der häufige Verzehr von Würsten (hier), aber genauso ist es. Krebsexperten wie der in Teil II erwähnte Robert Gale verstehen das, aber Nicht-Experten finden das so erstaunlich, dass sie es nicht glauben. Darum soll hier noch etwas näher erläutert werden, was es ist, das dem Wissen der Experten nach den Unterschied ausmacht.

DNA-Schäden sind nicht Krebs

Man erinnere sich noch einmal an Teil I, in dem wir die Frage stellten, ob es eine Strahlungs-Untergrenze gibt, unterhalb der keine DNA-Schäden oder Mutationen möglich sind. Als wir diese Frage zum ersten Mal gestellt hatten, haben die meisten Wissenschaftler geraten, dass die Frage gleichbedeutend war mit der Frage, ob es eine Strahlungsdosis gibt, unterhalb der man keinen Krebs bekommt.

Sie lagen falsch.

Bei Menschen mit dem Laron-Syndrom kommt es zu vielen Mutationen und anderen DNA-Schäden, aber sie bekommen keinen Krebs. Sie sind einfach Beispiel für ein allgemeineres Prinzip, nämlich dass das Wachstum von Krebsgeschwüren Teamarbeit ist, das unter Anderem die richtige Menge an Mutationen erfordert sowie die Ausbreitung der Geschwüre, während die normalen Checks wirkungslos gemacht werden. Krebs ist nicht einfach wie ein Stock im Rad eines Fahrrades, sondern eine kooperierende und sich entwickelnde Gemeinschaft von Mutanten, die normale Prozesse im Körper dazu nutzen, ihre eigenen schändlichen Gelüste zu befriedigen. Da gibt es sehr viele DNA-Schäden, aber keinen Krebs.

Andererseits, Menschen, bei denen die Krebsrate weit höher liegt als alles, was selbst ein ärmlicher Lebensstil erzeugen kann, tragen Mutationen in sich, die die effiziente Heilung von DNA-Schäden verhindern. Das ist das Problem von Angelina Jolie. Es ist nicht so, dass ihre Mutation zusätzliche DNA-Schäden hervorruft; überhaupt nicht. Ihr Problem ist, dass die BRCA1-Mutation mehr der Mutationskraft hinter normalen DNA-Schäden freisetzt. Ein normales (nicht mutiertes) BRCA1-Gen ist Teil des genetischen Superteams zur Bekämpfung von Problemen, das normale Schäden repariert. Man behalte dabei im Gedächtnis, dass eine siebenfache Strahlung von Hiroshima-Bomben jeden Tag  normale Schäden auslöst. Wenn also nur ein Mitglied dieses Reparatur-Teams durchdreht, ist man in Schwierigkeiten. Menschen, die unter dem Bloom-Syndrom leiden, haben sogar noch weniger Reparatur-Kapazität.

 

Quelle des Bildes. Zwergenwuchs und Laron-Syndrom schützen vor Krebs.

Treffen mit dem Krebs-Team

Was bedeutet die Aussage, dass eine Zelle zu einer Krebs-Zelle geworden ist? In der Regel bedeutet es, dass die Zelle sich selbst sehr oft reproduziert hat und sie sich alle in einer großen Masse zusammengeklumpt haben. Falls der Krebs in Ihrem Darmtrakt sitzt, kann dieser Klumpen den Darm stark verengen oder vollständig blockieren.

Normale Zellen tun das nicht. Wenn eine normale Zelle zu einer Krebs-Zelle wird, muss sie ihre Lebensweise fundamental ändern (hier). Normale Zellen klumpen nicht zusammen wegen der Mechanismen, die sie zu ihren Nachbarn auf Abstand halten. Diese Mechanismen müssen ausgeschaltet werden. Normale Zellen sind begrenzt hinsichtlich der Anzahl von Teilungen und Reproduktionen. Die Mechanismen hinter dieser Begrenzung müssen ausgeschaltet werden. Normale Zellen zerstören sich im Falle der Schädigung selbst. Auch dieser Mechanismus muss ausgeschaltet werden.

Das sind nur einige von vielleicht einem Dutzend Gründen, warum Krebs-Zellen so anders sind. Die zellulären Änderungen, die gebraucht werden, um eine normale Zelle in eine Krebs-Zelle zu transformieren, erfolgen meist durch Mutation, also Gen-Veränderungen. Aber natürlich nicht irgendwelche Gene. Weniger als 1 Prozent aller Gene sind involviert in die Änderungen, die eine Zelle zu einem Tumor werden lassen. Und innerhalb dieses einen Prozents haben Forscher sogar noch weniger gefunden, das besonders wichtig ist, um den Zellen die vielen Features zu vermitteln, die es ihr ermöglichen, zu einem Tumor zu werden.

Aber es gibt einen großen offensichtlichen Unterschied zwischen Strahlung und viralen oder chemischen Karzinogenen, wie man sie in Zigaretten, Diesel-Abgasen, Holzstaub, Ruß, rotem Fleisch usw. findet.

Worin besteht der Unterschied? Strahlung ist ein „equal opportunity“-Mutator [?].

Was heißt das? Wenn radioaktive Partikel oder Wellen auf eine Zelle treffen, haben sie physikalisch keine Möglichkeit, bestimmte Gene zu berühren. Sie schwirren umher, ziemlich zufällig. Dieses Herumschwirren erzeugt schädigende Nebenprodukte, aber auch diese konzentrieren sich nicht auf einen bestimmten Brennpunkt, weil die gleichen Nebenprodukte auch durch andere, normale Prozesse entstehen, und nichts ist involviert, das man mit gezielter Bosheit verwechseln könnte. Dies bedeutet, dass die meisten Strahlungsschäden in Genen oder anderen Strukturen auftreten, die für die Entstehung von Krebs irrelevant sind. Eines der Nebenprodukte beispielsweise von Strahlung, die auf das Wasser in der Zelle trifft (eine Zelle besteht zum allergrößten Teil aus Wasser) ist Wasserstoff-Peroxid. Das ist ein normales Nebenprodukt, welches DSBs [?] verursachen kann, und es gibt viele natürliche und einfachere Wege, die von Wasserstoff-Peroxid ausgelösten Schäden an der DNA zu vervielfältigen als eine große Strahlendosis abzubekommen. Eine davon sahen wir in Teil 1.

Jetzt vergleiche man dies mit einem Krebs auslösenden Virus. Zuerst: Was macht dieses Virus zu einem Krebsauslöser anstatt einfach nur einen Nieser auszulösen? Ein krebserzeugendes Virus kann ganz bestimmte Bereiche der Zelle treffen. Es kann sogar gezielt einen oder mehrere Gene treffen, die bei der Krebsentstehung involviert sind. Zum Beispiel kann ein Virus sehr spezielle Ziele befallen wie zum Beispiel ein sehr spezielles einzelnes Gen (mit der Bezeichnung p53). Dieses Gen unterdrückt Krebs, weshalb man ihm den illustrativen Titel The Guardian of the Genome verliehen hat. Es ist eines der Gene, das von Tabakrauch betroffen wird. Es würde eine außerordentlich hohe Dosis oder größtes Pech bedeuten, wenn Strahlung dieses Gen p53 treffen würde. Es ist dieses Fehlen der Spezialisierung auf bestimmte Ziele, dass Strahlung in karzinogener Hinsicht zu einem Schwächling macht.

Chemische Karzinogene können sich auch gezielt spezielle, Tumore unterdrückende Gene aussuchen. Während sich beispielsweise die Anti-Kernkraft-Bewegung auf Dinge konzentriert hat, die bei einem Kernkraftwerk schief gehen können, emittieren Kohlekraftwerke normalerweise eifrig verschmutzende Chrom- und Nickelanteile, die andere Tumore unterdrückende Gene angreifen können (hier), sowie Arsen, welches sich das magische p53-Gen vornehmen kann. Nickel und Arsen aus den Emissionen von Kohlekraftwerken kann von Bäumen aufgenommen werden und endet in Holzrauch, der sich in den Lungen von Jung und Alt ablagert.

Aber wir müssen den Unterschied quantifizieren, den Spezialisierung machen kann.

In einer Studie aus dem Jahr 2012 haben Forscher Mäuse mit einer Strahlendosis von 4 Gray [?] bestrahlt. Das ist eine massive Dosis. Sie ist etwa 20 mal stärker als der Mittelwert von Strahlung, dem die Überlebenden von Hiroshima ausgesetzt waren. Es ist gerade unterhalb der Dosis, die die Maus getötet hätte.

Und siehe da, die Maus bekam Krebs – allerdings erst nach 77 Wochen. Das ist wirklich eine lange Zeit in einem Mäuseleben und entspricht etwa 40 bis 50 Jahren menschlicher Lebenszeit. Und wie zuvor schon erwähnt sind Mäuse viel anfälliger für Krebs als Menschen. Andererseits, man gebe Mäusen eine große Dosis der karzinogenen Chemikalie PhIP (hier), und sie werden innerhalb nur weniger Wochen in voller Stärke an Krebs erkranken. Das ist der Unterschied zwischen zufälligem Herumballern und gezielten Attentaten. Ja, Strahlung kann Krebs verursachen, aber hinsichtlich der Effizienz nur mit der Note 6 minus.

Was ist PhIP und warum füttern die Menschen Mäuse damit? PhIP ist eines der vielen Molekülarten, die man in allen Arten von Fleisch findet, das bei hoher Temperatur verarbeitet wird, also z. B. auf einem Gartengrill. Darunter ist eine Gruppe, welche bei Mäusen bei massiven Dosen Krebs erregen kann … ähnlich wie bei Strahlung, aber wesentlich effizienter. Gibt es eine sichere Dosis? Natürlich nicht! Gibt es eine absolut sichere Distanz, die man in jedem Jahr mit dem Auto fahren kann? Natürlich nicht! Aber einige Fahrweisen bergen nur ein sehr geringes Risiko.

Ist PhIP ein Hoch-Risiko-Karzinogen … soll heißen, bewirkt es sehr oft die Entstehung von Krebs? Das ist keineswegs sicher, aber man findet Warnungen vor dem Grillen von Fleisch bei hoher Temperatur, und zwar im Kleingedruckten der meisten offiziellen Literatur zur Verhinderung von Krebs. Die im oben erwähnten Versuch verwendeten Dosen waren wie gesagt massiv und viel zu groß, um daraus irgendeine Relevanz für den Menschen abzuleiten. Ich wette auf Häm-Eisen [?] als primäre Ursache für Darmkrebs, aber es gibt viele mögliche Verdächtige.

Und was ist, wenn man [körperlich] groß ist? Warum stand dies in der Liste der Risikofaktoren für Darm- (und Brust-)Krebs? Nicht die Körpergröße selbst, sondern einige der für die Körpergröße zuständigen Faktoren sind gefährlich (hier). Im Einzelnen haben sich in großen Menschen viel mehr Zellteilungen ereignet, stimuliert von Wachstumshormonen, und das bedeutet ein größeres Potential für DNA-Schäden. Der statistische Zusammenhang ist eindeutig, und Experten haben auch eine ungefähre Vorstellung hinsichtlich der Ursachen, aber eine detaillierte Erklärung wird es wohl erst in einigen Jahren geben.

Man beachte genau, was ich hier tue. Ich versuche nicht zu beweisen, dass Tschernobyl allein nur eine minimale Auswirkung auf Krebs hatte. Das ist einfach eine bestätigte Tatsache. Alles, was ich versuchen will zu erreichen ist ein wenig mehr Verständnis dafür, warum dies für Experten keineswegs überraschend kommt. Immer wenn Fakten nicht eingängig sind, ist es einfach, verschleiernde Theorien zu verbreiten. Wenn man einmal verstanden hat, warum Experten nicht viel von Tschernobyl erwartet hatten, versteht man auch, warum es nichts weiter zu berichten gab.

Ein neuer Mitspieler

Zum Schluss möchte ich noch etwas behandeln, das schon in Teil II angesprochen worden ist … Epigenetik [?].

Das Verständnis für Krebs ist zu dessen Behandlung unabdingbar. Es ist schwierig, mit dieser Ansicht nicht überein zu stimmen, aber die erstaunliche Zunahme des Wissens hierzu während der letzten 20 Jahre hat nicht zu einer ähnlichen Verbesserung der Behandlungserfolge geführt. Wie es so üblich ist, hat man einmal einen fundamentalen Mechanismus erkannt, zeigt sich darunter  ein weiterer noch unbekannter Mechanismus, der womöglich noch komplexer ist. Eine der jüngsten Ebenen in dieser Hinsicht ist Epigenetik. Die Gene in unserer DNA sind nicht unser Bauplan wie man ursprünglich gedacht hatte. Stattdessen sind sie lediglich ein Bauplan für eine Reihe von Werkzeugen. Die gesamte biologische Software, die kontrolliert, wie und wann diese Werkzeuge zur Anwendung kommen, liegt möglicherweise in der DNA, aber nicht in den Genen. Und die erste von vielleicht mehreren Ebenen dieser Software ist die epigenetische Ebene. Diese Ebene legt die Mechanismen fest, die die Aktivierung jedes Gens in jeder Zelle kontrollieren.

 

Mehr

Auf Folgendes sollte man sich konzentrieren:

Einige Menschen tragen DNA-Mutationen in sich, die sie sehr wahrscheinlich Darmkrebs bekommen lassen, und zwar auf die gleiche Weise, mit der BRCA1-Mutationen Frauen anfällig für Brustkrebs machen. Wie BRCA1-Mutationen schalten auch diese Mutationen Gene aus, die für die Reparatur von Schäden an der DNA zuständig sind; und alles, was dem DNA-Reparatursystem in die Quere kommt, sorgt für Probleme. Diese Darmkrebs-Mutationen sind für 5 bis 10 Prozent aller Fälle von Darmkrebs verantwortlich. Darum liegt das Niveau von Darmkrebs-Erkrankungen in Ländern ohne die normalen westlichen Risikofaktoren wie rotes und gegrilltes Fleisch, Fettleibigkeit, Alkohol, wenig Bewegung usw. so niedrig.

Aber epigenetische Mechanismen können Gene genauso effektiv ausschalten wie Mutationen, aber sie tun es, ohne die DNA-Sequenz zu verändern. Epigenetische Mechanismen werden kontrolliert durch triviale Dinge wie das, was man isst, wie viele Sorgen man hat und vielleicht auch noch ein paar Dinge, die wir nicht kennen – noch nicht.

Wenn also Krebs durch epigenetische Änderungen gesteuert wird, kann es wie durch eine Mutation verursachter Krebs aussehen, aber wenn die Ärzte nach einer solchen suchen, finden sie keine. Es wird während der kommenden Jahrzehnte sehr viel Neues zu Epigenetik geben, aber man sollte keine Wunder erwarten.

Aber Epigenetik liegt im Zentrum dessen, wie unser Lebensstil sich auf unsere Gesundheit auswirkt. Darum wird sie wohl unsere Ansicht von uns selbst fundamental ändern. Zum Beispiel hat die Epigenetik alle Argumente zerstört, die etwa so klingen: „Wir haben etwas schon hunderte Jahre lang getan, es ist in unseren Genen, es stand nicht genügend Zeit für genetische Änderungen zur Verfügung, also liegt dieses etwas in unserer Natur“. Für „etwas“ kann man viele Verhaltensweisen einsetzen: Gewalt, Frauen vergewaltigen, Fleisch essen, Monogamie, heterosexuell sein. Die Epigenetik zeigt, dass das Argument auf falsche Voraussetzungen beruht. Die Epigenetik erlaubt die Modifizierung der Art und Weise, wie die DNA-Reparatur-Werkzeuge eingesetzt werden, schon innerhalb von Tagen und Wochen. Wenn eine Katze ihr Junges im Babystadium nicht ausreichend ableckt, kommt es zu semi-permanenten nachteiligen genetischen Veränderungen, die nicht nur ein Leben lang andauern können, sondern mittels der Gene auch an folgende Generationen weitergegeben werden können. Mehr als nur ein paar Kätzchen haben gelitten, um diesen Tatbestand zu beweisen, und es gibt sehr gute Gründe anzunehmen, dass es bei Menschen genauso ist [vielleicht kann sogar der Übersetzer davon ein Lied singen, wenn man „Ablecken“ durch „Zuwendung“ ersetzt!]

Falls das [zärtliche] Ablecken eines Kätzchens Aktivierungs-Anweisungen in den Genen verändern kann, die das zukünftige Katzenleben betreffen, was ist dann mit der Strahlung durch einen Nuklearunfall – wie etwa von Cäsium-137? Eine vor kurzem erschienene Studie kommt zu dem Ergebnis, dass selbst riesige Dosen von Gammastrahlung durch Cäsium-137 nicht die Wirkung von Zärtlichkeiten der Katzenmutter aufwiegen können. Strahlung hatte keine Auswirkungen auf genetische Aktivierungs-Anweisungen.

Abschließende Bemerkungen

[Im ersten der drei Absätze erwähnt der Autor zunächst den IPCC-Bericht Nr. 5 sowie alle Schrecken, die dort projiziert werden. Leider scheint er das zu glauben, ohne das ihm klar wird, dass nun er davon geängstigt wird, weil er zu wenig darüber weiß, also genau das, was er uns unterstellt, die wir viel zu wenig von Strahlung wissen {siehe hierzu den letzten Absatz}. Er schlägt dann aber den Bogen zu den Erneuerbaren und prangert die Unlogik entsprechender Kreise an. A. d. Übers.]

Gegenwärtig agieren viele Umweltgruppen so, als ob die Risiken in Verbindung mit Nuklear-Unfällen genauso groß sind wie die [vermeintlichen, A. d. Übers.] Risiken in Verbindung mit der Klimaänderung. Sie scheinen sich … voll auf die Technologie der Erneuerbaren Energie zu stürzen: Wind und Sonne. Andererseits wollen viele nicht einsehen, dass die einzige Technologie, die die Abhängigkeit von Öl und Kohle erfolgreich bekämpft, wie sich während der Ölkrise des Jahres 1970 gezeigt hat, die Kernkraft ist.

Es ist meine Überzeugung, dass der Hauptgrund für diese Irrationalität darin zu suchen ist, dass die Öffentlichkeit allgemein und die meisten Umweltaktivisten im Besonderen nichts über die Dinge wissen, die sie ängstigen. Darum ängstigen sie sie. Diese Reihe hat versucht, dieses Defizit zu beheben. Während die allgemeine Öffentlichkeit weder Zeit noch Lust hat, die Details zu durchforsten, um rationale Energie-Entscheidungen zu treffen, ist es die Pflicht unserer politischen und umweltlichen Meinungsmacher genau dies zu tun. Sie müssen die Wissenschaft in Betracht ziehen und dann der wachsenden Liste von Personen beitreten, die glauben, das Anti-Kernkraft = Anti-Zukunft ist. So einfach ist das.

Link: http://bravenewclimate.com/2013/11/15/stayin-alive-gene-pool-p3/

Übersetzt von Chris Frey EIKE




Neues vom Panikchester des PIK: Entkorken der Ost-Antarktis führt zu Anstieg des Meeresspiegels

Zwei besonders schöne Sätze ind dieser Modell-Geschichte aus 1001 Nacht:

Ein Abschmelzen von  Eis an der Küste könnte diesen relativ kleinen Korken verschwinden lassen – und damit einen Meeresspiegelanstieg von 300 bis 400 Zentimetern verursachen. „Der vollständige Meeresspiegelanstieg wäre letztlich bis zu 80 mal größer als der durch das anfängliche Abschmelzen des Eiskorkens“,

und etwas später

In den Simulationen dauert das vollständige Ausströmen aller Eismassen aus der betroffenen Region in der Ost-Antarktis fünftausend bis zehntausend Jahre.

Simulanten unter sich. Es ist aber sehr wahrscheinlich, dass unsere Mainstream-Journalisten diese Feinheiten nicht mal bemerken und nicht darauf kommentierend eingehen werden. Sonst würden sie diesen Bericht bestenfalls im Feuilleton unter „Fiction“ bringen, nicht aber auf der Wissenschaftsseite. Doch berichtet wird schon fleißig – Hier und hier und hier.

Werden Zweifel angemeldet, z.B. darüber, dass jemand sich vorgibt zu wissen, was die Antarktis in 5000 bis 10.000 Jahren an Eis verliert? Nirgends!

Hier die Pressemitteilung im Wortlaut

05.05.2014 – Das Abschmelzen bereits einer kleinen Menge Eis an der ostantarktischen Küste könnte eine große Wirkung haben – nämlich dass große Eismassen unaufhaltsam jahrtausendelang in den Ozean fließen und damit den Meeresspiegel ansteigen lassen. Dies zeigt eine jetzt von Wissenschaftlern des Potsdam-Instituts für Klimafolgenforschung (PIK) veröffentlichte Studie in Nature Climate Change. Die Ergebnisse beruhen auf Computersimulationen des antarktischen Eisflusses mit verbesserten Daten zum Untergrund der Antarktis.

„Das Wilkes-Becken der Ost-Antarktis ist wie eine gekippte Flasche“, erklärt Leitautor Matthias Mengel, „wenn der Korken gezogen wird, entleert sie sich.“ Das Becken bildet das größte marine Landeis-Gebiet in der Region. Derzeit hält ein Eisstück an der Küste die dahinter liegenden Eismassen zurück: eben wie ein Korken, der den Inhalt einer Flasche zurückhält. Ein Abschmelzen von  Eis an der Küste könnte diesen relativ kleinen Korken verschwinden lassen – und damit einen Meeresspiegelanstieg von 300 bis 400 Zentimetern verursachen. „Der vollständige Meeresspiegelanstieg wäre letztlich bis zu 80 mal größer als der durch das anfängliche Abschmelzen des Eiskorkens“, sagt Ko-Autor Anders Levermann. „Bislang galt nur die Westantarktis als instabil, aber jetzt wissen wir, dass ihr zehnmal größeres Gegenstück im Osten möglicherweise auch in Gefahr ist“, sagt Levermann, der die Forschung zu globalen Anpassungs-Strategien am PIK leitet und einer der Leitautoren des Meeresspiegelkapitels im aktuellen Sachstandsbericht des Weltklimarates (IPCC) ist. Dieser Bericht, der Ende September veröffentlicht wurde, sieht einen Beitrag der Antarktis zum globalen Meeresspiegelanstieg von bis zu 16 Zentimetern innerhalb unseres Jahrhunderts. „Wenn die Hälfte dieses Eisverlustes aus der Korken-Region käme, würde das unaufhaltsame Abfließen der Eismassen beginnen. Wir haben vermutlich bislang die Stabilität der Ost-Antarktis überschätzt“, so Levermann. Treibhausgas-Ausstoß könnte das Eis unkontrollierbar schmelzen lassen  Ein Abschmelzen würde die Aufsetzlinie des Eises landeinwärts verlagern – das ist der Bereich, in dem das kontinentale Eis in Kontakt mit dem Wasser tritt und schließlich beginnt, als Eisschelf an der Meeresoberfläche aufzuschwimmen. Der felsige Untergrund unter dem Eis bildet ein riesiges, zum Landesinneren hin abfallendes Tal. Wenn die Aufsetzlinie von ihrer derzeitigen Position am Kamm in das Tal zurückweicht, wird die dem Meer zugewandte Eis-Kante höher. Mehr Eis wird dann in den Ozean geschoben, bis es schließlich abbricht und schmilzt. Und je wärmer es wird, desto schneller geschieht dies.  In den Simulationen dauert das vollständige Ausströmen aller Eismassen aus der betroffenen Region in der Ost-Antarktis fünftausend bis zehntausend Jahre. Wenn diese Entwicklung jedoch erst einmal begonnen hat, wird sich das Auslaufen unaufhaltsam fortsetzen, bis das gesamte Becken leergelaufen ist; selbst wenn die Klimaerwärmung aufhören sollte. „Das ist das grundlegende Problem hier“, sagt Matthias Mengel. „Indem wir mehr und mehr Treibhausgase ausstoßen, lösen wir möglicherweise heute Reaktionen aus, die wir in Zukunft dann nicht mehr stoppen können.“ Ein so erheblicher Meeresspiegelanstieg würde das Gesicht unseres Planeten verändern – er wäre mit großer Wahrscheinlichkeit ein erhebliches Risiko für Küstenstädte von Dublin bis Mumbai, von Tokio bis New York.  Artikel: Mengel, M., Levermann, A. (2014): Ice plug prevents irreversible discharge from East Antarctica. Nature Climate Change (online) [DOI: 10.1038/NCLIMATE2226] Weblink zum Artikel:www.nature.com/nclimate/journal/vaop/ncurrent/full/nclimate2226.html




Gorleben- Offizielle vorläufige Sicherheitsanalyse ergibt: Gorleben ist geeignet

Frau Dr. Barbara Hendricks, die neue Ministerin des Bundesministeriums für Umwelt Naturschutz Bau und Reaktorsicherheit, sagte in der RHEINISCH POST vom 21.12.2013 „Wir beginnen jetzt nach strengen wissenschaftlichen Kriterien die Suche nach einem bestmöglichen Endlagerstandort … Für sie als überzeugte Christin sei es immer ‚gotteslästerlich‘ gewesen, dass Menschen dachten, sie könnten etwas für Millionen Jahre garantieren …“ . Die Existenz natürlicher Kernreaktoren und natürlicher Endlager (OKLO) (2*) ist ihr anscheinend nicht  bekannt.

Anlass

In einer gemeinsamen Erklärung von Bundesminister Röttgen und dem Präsidenten des BfS König wurde im November 2010 die Erstellung einer vorläufigen Sicherheitsanalyse für den Standort Gorleben (VSG) angekündigt: „Das Moratorium würde zum 1. Oktober 2010 wieder aufgehoben. Mit der Wiederaufnahme der Erkundungsarbeiten solle endlich Klarheit geschaffen werden … eine ergebnisoffene Erkundung muss die Eignung oder Nichteignung des Salzstocks Gorleben umfassend begründen. Sollte sich der Salzstock als ungeeignet erweisen, müssen wir neue Wege finden …“ Bei der Gesellschaft für Anlagen- und Reaktorsicherheit (GRS) wurde deshalb diese vorläufige Sicherheitsanalyse für Gorleben (SVG) in Auftrag gegeben, die alle bisherigen Untersuchungen analysieren und zusammenfassen soll (H. Fuchs; 2013) (3*). Der Ergebnisbericht der GRS zur „Vorläufige Sicherheitsanalyse für den Standort“ Gorleben (VSG) liegt inzwischen vor (GRS-290; 2012) (4*).

Hauptziele

Als die drei Hauptziele des Auftrags an die GRS werden genannt:

♦„Gestützt auf die Ergebnisse von Analysen zur Integrität der Salzstruktur Gorleben und einer radiologischen Konsequenzanalyse … sollte eine vorläufige Eignungsaussage zum Standort Gorleben  abgeleitet werden  …Dabei wäre nachvollziehbar darzulegen gewesen, ob … am Standort Gorleben wärme entwickelnde radioaktive Abfälle sicher eingelagert werden könnten, oder ob jetzt schon Fakten vorliegen, die gegen eine Eignung sprechen.

  „Da die sicherheitliche Beurteilung eines Endlagersystems nicht alleine auf der Basis der Standorteigenschaften erfolgen kann … sollten Endlagerkonzepte entwickelt werden, welche, soweit dies während der Laufzeit des Vorhabens VSG möglich ist, optimiert werden.

  „Weiterhin sollte der aus heutiger Sicht erforderliche FuE-Bedarf identifiziert und systematisch zusammengestellt werden.“

Erhellend ist jedoch die politische Wende, die allerdings an der fachlichen Aussage der vorläufigen Sicherheitsaussage nichts verändert: Zur Amtszeit von Herrn Minister Altmaier wurde auf Wunsch des BMU am 21.08.2012 im Rahmen eines Änderungsvertrages zu diesem Vorhaben vereinbart: „Auf eine dezidierte vorläufige Eignungsprognose für den Standort Gorleben zu verzichten“. Dies erklärt, dass die ursprünglichen Ziele im Endbericht nun im Konjunktiv geschrieben wurden. Die Wissenschaftler haben sich an diesen politischen Aufruf jedoch nur begrenzt gehalten.

Vorgehensweise

Die „Vorläufige Sicherheitsanalyse Gorleben“ zeichnet sich dadurch aus, dass die seit Mitte der 1990er Jahre erarbeiteten Einzelergebnisse der Endlagerforschung bezüglich des lang zeitigen Einschlusses radioaktiver Abfälle in Salzstöcken und die bisherigen Erkundungsergebnisse zum Standort Gorleben für die durchzuführende Langzeitsicherheitsanalyse zusammengeführt wurden. Die Beteiligung vieler Wissenschaftseinrichtungen, die über Jahrzehnte langes Knowhow zu allen endlagerrelevanten Aspekten verfügen, und deren direkte interdisziplinäre Zusammenarbeit unter wissenschaftlicher Führung eines Steering Committee hat sich bewährt. Für eine interne Qualitätsprüfung war der Einbezug von Wissenschaftseinrichtungen wie z. B. Universitäten, die nicht in aktuelle Endlagerprojekte involviert sind und die daher prädestiniert waren, Methodik und Datenlagen im Vorhaben VSG kritisch zu hinterfragen.

Ergebnis

Es ist ein umfassender Bericht, der nicht nur die bisherigen Ergebnisse der Untersuchungen von Gorleben in fünfzehn einzelnen Arbeitspaketen zusammenführt und ausführlich bewertet, sondern auch eine Anzahl von Vorschlägen aufzeigt, welche Untersuchungen und Analysen noch durchzuführen sind, um eine endgültige Sicherheitsanalyse für eine Planfeststellung zu erstellen. K.O. -Kriterien zum Gesamtprojekt Gorleben sind weder in den fünfzehn Arbeitspaketen noch in dem Gesamtbericht zu finden. 

Der Bericht zeigt die Komplexität der Erstellung einer Langzeitsicherheitsanalyse eines Standortes für ein Endlager. Diese Komplexität macht es politischen und ideologischen Gegnern leicht, mit einfachen Sprüchen sachliche Argumente nicht zur Kenntnis zu nehmen und diese Sprüche in Parteien, Bürgerforen, Netzwerken etc. aber auch mit Hilfe der Presse zu verbreiten. Hier ist es die  Aufgabe der Wissenschaft, über die Wirklichkeit Klarheit zu schaffen. Denn wenn Gegner der Endlagerung die Aufmerksamkeit der Massen suchen, produzieren sie statt Aufklärung Schattenwahrheiten, die sich über Jahrzehnte wie Mehltau auf alle Sektoren von Staat, Wirtschaft und Gesellschaft legt. Und dies führte zu nicht gerechtfertigten Vorurteilen, Massenbefindlichkeiten und gefühlten Risiken und festigen oder auch verstärken Befindlichkeiten – ein leider vermutlich nicht zu ändernder Grundmangel der Demokratie: „In einer Demokratie wird der gewählt, der sich dem Publikum angenehm macht. Das ist einer der schweren Geburtsfehler jeder Demokratie …“ Das hat schon Helmut Schmidt erkannt. 

Für zukünftig zu erwartende Schadensersatzforderungen sind der Bericht  „International Group Gorleben“ (2001) (5*) sowie die „Vorläufige Sicherheitsanalyse Gorleben (VSG)“ der GRS wichtig, denn in beiden gibt es keine Hinweise zu den wissenschaftlichen sowie technischen Ergebnissen, die einer Eignungshöffigkeit von Gorleben widersprechen. Die Verzögerungen sind somit ausschließlich eine Folge der Politik. Die Furcht vor diesem Sachverhalt dürfte wohl der Grund für die schwammige Aussage von Bundesumweltministerin Dr. Hendricks sein (Zeit online, Newsticker, 10. April 2014): „… sie hält ein Ausscheiden des Salzstocks Gorleben aus der Suche nach einem Atommüll-Endlager für möglich. Sie könne es sich ’sehr gut vorstellen‘, dass Gorleben nach wissenschaftlichen Kriterien nicht weiter in Frage komme. Eine ‚politische Vorfestlegung‘ gegen Gorleben könne es aber nicht geben, betonte sie. Gorleben müsse genauso untersucht werden wie alle anderen denkbaren Standorte“.( ???)

Transparenz

Bei der Endlagerung geht es um Transparenz und Glaubwürdigkeit. Und um diesen Ansprüchen gerecht zu werden, habe ich davon Abstand genommen, selbst eine zusammenfassende Bewertung der Ergebnisse einzelner Arbeitspakete zu erstellen. Dies  würde den Rahmen dieses Berichtes sprengen. Für interessierte Laien und möglicherweise auch für die Presse möchte ich die Wissenschaftler selbst sprechen lassen, indem ich die Ergebnisse (Fazite) zu ihren Arbeitspaketen mit Angabe der Seitenzahl im ANHANG aufliste. So kann der interessierte Leser schnell die Themen, die ihn besonders interessieren, identifizieren und die wissenschaftliche Begründung dazu anhand der Originaltexte schnell finden.  Die Auswahl der aufgeführten Arbeitspakete ist beliebig.

Zukunft

            Jede Berichterstattung über Gorleben, sei sie von Politikern, selbsternannten Fachleuten, Zeitgeist-Journalisten, NGOs, Bürgerforen, sogenannten „Gutmenschen“ und vielen mehr – siehe negativ-Beispiel „Hans Brakhagen (6*) – sollte sich in Zukunft an den nachvollziehbaren Ergebnissen der Wissenschaftler messen lassen. Damit würde sich die immer wieder gebetsmühlenartig geforderte Transparenz für die Bürger beträchtlich erhöhen.

Der Bericht zeigt aber auch, dass die Suche nach zwei zusätzlichen Standorten  für die Endlagerung von wärme entwickelnden radioaktiven Abfällen und deren Erkundung und Bewertung – man verpflichtet sich ja, den besten zu finden –  in nicht Salinaren Formationen bedeutend schwieriger sein wird als bei Gorleben (N. Deisenroth & R. Kokorsch, 2011, S.14ff ) (7*). Beispielhaft sind hier einige der bedeutendsten Nachteile zu nennen: Insbesondere bei Tongesteinen aber auch bei Graniten müssen wegen der geforderten niederen Inaktivierungstemperaturen der Endlagerbehälter bedeutend größere Erkundungs- und später Einlagerungsbereiche untersucht werden, um einen geforderten mineralischen und tektonischen Homogenbereich in der gewählten Gesteinsformation abzugrenzen (z.B. ca. 3 Quadratkilometer im Salz bzw. 10 bis 15 Quadratkilometer bei Ton und Granit). Denn von den physikalischen Eigenschaften der Tongesteine werden vor allem die Wärmeleitfähigkeit und die Temperaturbelastung sowie die Hohlraumstabilität als gering bis sehr gering eingestuft. Auch dürfen keine Erkenntnisse vorliegen, welche die Einhaltung der geowissenschaftlichen Mindestanforderungen zur Gebirgsdurchlässigkeit, Mächtigkeit und Ausdehnung des einschlusswirksamen Gebirgsbereiches für lange Zeiträume erscheinen lässt. Die Mächtigkeit der deutschen Tonsteinvorkommen erlaubt z.B. für Bohrlocheinlagerung nur Bohrlängen von max. 50 Metern. Die bergmännische Auffahrung und Unterhaltung der Einlagerungsräume im Tongestein, das Stahl- oder Betonausbau erfordert, ist deutlich aufwendiger als  im Steinsalz etc. etc.

Vom Umweltministerium wird gefordert :Wir beginnen jetzt nach strengen wissenschaftlichen Kriterien die Suche nach einem bestmöglichen Endlagerstandort ..“, Deshalb ist es notwendig, für den Vergleich zwischen dem heute bestehenden hohen Erkenntnisstand von Gorleben, für die zwei neuen Standorte zumindest den Erkenntnisstand zu erarbeiten, der heute bei Gorleben erreicht ist. Dies wird Jahrzehnte dauern, die Kosten werden sich auf zweistellige Milliardenbeträge belaufen, wenn es ohne Bürgerproteste abläuft. Sind Bürgerproteste wie beispielsweise bei dem Bau der Stromautobahn von Norden nach Süden als Folge der sogenannten Energiewende zu erwarten, wird alles noch viel teurer werden und das nur, weil in Deutschland Ideologie vor Vernunft und Wissen steht (H. Fuchs & R. Kamradek, 2013) (8*). Der finanzielle Aufwand für diesen Weg ist – ohne die mehrstelligen Milliarden Beträge für die Suche nach neuen Standorten auf der grünen Wiese – an den Kostenprognosen der Energiewende absehbar (F.A.Z vom 21. Februar): Stand 2004: 2,3 Milliarden Euro, Stand 2014: 23,6 Milliarden und das mit rasant steigendem Kohleverbrauch und beträchtlich weniger Landschaft- und Klimaschutz.

Erinnert die heutige Situation nicht an das Mittelalter, als der Naturwissenschaftler Nikolaus Kopernikus ohne Erfolg lebenslang gegen den Glauben der Kirche argumentierte, die Erde sei der Mittelpunkt des Universums.

Die Finnen sind heute schon weiter (F.A.Z vom 22. April: „Bis zur nächsten Eiszeit“)! Sie haben begonnen, einen Standort für ein sicheres – nicht das sicherste – Endlager zu untersuchen.

(1*)       GRS-VSG Bericht: GRS 290

            GRS ist eine gemeinnützige technisch-wissenschaftliche Forschungs- und    Sachverständigenorganisation. Sie verfügt über interdisziplinäres Wissen,fortschrittliche Methoden         und qualifizierte Daten, um die Sicherheit technischer Anlagen zu bewerten und weiterzuentwickeln.          Sie gehört zu 46 % der          Bundesrepublik Deutschland und zu 46 % den Technischen Überwachungs- Vereinen (TÜV) und dem Germanischen Lloyd.            Jeweils 4 % der Anteile der GRS haben das Land Nordrhein-Westfalen und der Freistaat Bayern inne.

(2*)       OKLO: „Der natürliche Reaktor von Oklo“ G.Ries, SciLogs online, 2011,

(3*)       H.Fuchs, Gorleben, das Endlagersuchgesetz, NovoArgumente online,2013

(4*)       GRS-290 (PDF 10.07 MB) oder, ISBN 978-3-939355-66-3

(5*)       International Expert Group Gorleben, 2001: , „Repository Project Gorleben – Evaluation of the    Present Situation, online 31.07.2013.

(6*)       Hans Brakhage: www.hans-brakhage.de/belgaraths-turmzimmer/asse-gorleben-html

(7*)       N. Deisenroth & R. Kokorsch, „Vergleich der Salzstöcke Asse und Gorleben hinsichtlich ihrer           Eignung für die Endlagerung radioaktiver Abfälle“ in der Zeitschrift GEZÄHEKISTE, Heft 7,          Nr.1; 2011.

(8*)       H.Fuchs & R. Kamradek, „Die German Angst“, Bookshouse Verlag, 2013

Anhang zur Bewertung 

            Kapitel 5 Umsetzung des Sicherheits- und Nachweiskonzept im Vorhaben VSG S.77 bis S. 256

            Fazit S.103, M

            „Zusammenfassend ist festzustellen, dass keine grundsätzlichen Zweifel an der technischen Umsetzbarkeit der im Vorhaben entwickelten  Auffahrungs- und Einlagerungskonzepte bestehen …“ 

            Fazit S.110, M1

            „… dass die Maßnahme M1 bei der Auslegung der Grubengebäude auf konzeptioneller Basis umgesetzt wurde. Die Anzahl, Längen und Querschnitte der Einlagerungsstrecken bzw. Einlagerungsbohrlöchern ergeben sich aus der Anzahl der und den Abmessungen der Behälter … In zukünftigen Optimierungen können sicherheitstechnische Zielsetzungen von Bedeutung sein …“

            Fazit S.118, M10

            „… dass die geforderte Maßnahme M10 konzeptionell insgesamt umgesetzt und auch in der Realität betriebstechnisch mit heutiger Bergbautechnik umsetzbar ist .“ 

            Fazit S.126 M12, M15

            „… dass die Forderung, die sich aus den Maßnahmen M12 und M15 ableiten, im Vorhaben  VSG auf konzeptioneller Basis für den Fall der Strecken-und Bohrlochlagerung umgesetzt wurden …“ 

            Fazit S.131  M13 M14

            „… dass das Hauptsalz im Kernbereich des Salzstocks und damit auch in der Umgebung des Einlagerungsbereiches auf Grund der geologischen Entwicklungsgeschichte durch eine halokinetisch bedingte intensive Deformation und daraus resultierende Homogenisierung gekennzeichnet ist. Gleichzeitig weist es einen hohen Rekristallisationsgrad und die Abwesenheit von hydraulischen Klüften, Störungen oder makroskopischen Lösungsvorkommen auf …

„Die Erfüllung der mit der Maßnahme M2 verbundenen Anforderungen an die Eigenschaften der geologischen Barriere kann daher unter der grundlegenden Annahme im Vorhaben VSG, dass die im Erkundungsbereich 1 erzielten Erkundungsergebnisse auf nicht erkundete Hauptsalzpartien übertragen werden können, grundsätzlich als gegeben angesehen werden …“ 

            Fazit S.137, M13, M14

            „Die im Vorhaben VSG durchgeführte Endlagerplanung sieht den Einlagerungsbereich der Streckenlagerung auf der 870-m-Sohle vor. Auch das Prinzip der Bohrlochlagerung (Variante C) sieht das Niveau der Überfahrungsstrecken, von denen aus die Bohrlöcher beladen werden, auf einer Teufe von 870m vor. Durch die Endlagerplanung ist gewährleistet, dass große Mächtigkeiten der Salzbarriere zu den Seiten sowie nach oben zum Salzspiegel vorhanden sind …“

            Fazit S.138 M14

            „Für die nächste eine Million Jahre ist davon auszugehen, dass aufgrund der geringen verbliebenen Mengen mobilisierbaren Hauptsalzes im Bereich der Zechstein-Basis und unter dem Einfluss des rezenten Hauptspannungsfeldes keine erneute massive Salzeinwanderung in die Struktur mit entscheidenden Änderungen der geologischen Standortverhältnisse stattfinden …“

            Fazit S.170, M6, M7, M8, M16

            „… dass die Maßnahme M7 zwar durch das im Vorhaben VSG entwickelten Verschlusskonzept auf konzeptioneller Basis formal umgesetzt wurde und erfolgversprechend erscheint. Trotz umfangreicher Untersuchungen in der Vergangenheit fehlt jedoch noch ein fundiertes Prozessverständnis bezüglich der erreichbaren Endporosität und zur Geschwindigkeit der Salzgruskompaktion bei geringer Feuchtigkeitszugabe unter realen Endlagerbedingungen. Es gelten diesbezüglich die gleichen Vorbehalte, die im Zusammenhang mit der Umsetzbarkeit der Maßnahmen M6, M8, und M16 dargestellt wurden …“ 

            Fazit S. 229 Einschluss der Nuklide

            „Aufgrund der großräumigen Integrität der an das Endlagerbergwerk angrenzenden Bereiche der geologischen Barriere, der Integrität der Verschlussbauwerke über ihre Funktionsdauer sowie der Einschlusseigenschaften des kompaktierten Versatzes kann für den Standort ein einschlusswirksamer Gebirgsbereich in Lage und Grenze ausgewiesen werden …

            Kapitel 6  Zusammenfassung der Ergebnisse S. 257 bis S.312

            Kapitel 6.1 Grundlegende Annahmen  S. 257 „… Ein Großteil der im Vorhaben VSG erzielten Ergebnisse und die nachfolgenden Ausführungen stehen unter dem Vorbehalt, dass die Ergebnisse zukünftiger Erkundungs- bzw. Forschungsarbeiten bestätigen, dass die  nachfolgend aufgelisteten grundlegenden Annahmen zutreffen…“ 

            Kapitel 6.2 Umsetzung der Sicherheitsanforderungen des BMU im Vorhaben VSG 

            Kapitel 6.2.1 Anforderungen an die Endlagerauslegung

            Fazit S.267

            „… Zusammenfassend ist folgendes festzustellen: Die Sicherheitsanforderungen des BMU an die Endlagerauslegung können generell auf der für eine vorläufige Sicherheitsanalyse typischen konzeptuellen Ebene als erfüllt bzw. in Zukunft als erfüllbar angesehen werden. …“  

            Kapitel 6.2.2 Anforderungen an die Nachweisführung

            Fazit: S.288

            „Aus den im vorangegangenen dargelegten Gründen wird davon ausgegangen, dass die Anforderungen an die langzeitsicherheitsgerichteten Nachweise, soweit diese den dauerhaften Einschluss der aus den Abfällen stammenden Radionuklide betreffen, auf konzeptioneller Basis umgesetzt wurden …

             …. Die zusammenfassenden Aussagen am Ende des Kapitels 6.2.1 zum FuE-Bedarf bei den im Vorhaben VSG projektierten Verschlussprojekten und zum langfristigen Kompaktionsverhalten von Salzgrusversatz gelten hier gleichermaßen, ebenso wie die Einschränkungen zur Durchführung von Optimierungsmaßnahmen im Vorhaben VSG …“ 

            Kapitel 6.2.3 Anforderungen an Qualität, Dauerhaftigkeit und Robustheit des         Einschlussvermögens des einschlusswirksamen Gebirgsbereiches

            Fazit: S. 301

            „Zusammenfassend wird festgestellt, dass einer zukünftigen potenziellen Beeinträchtigung des Einschlussvermögens des einschlusswirksamen Gebirgsbereichs durch natürliche Ereignisse und Prozesse planerisch Rechnung getragen wird. Gegen kurzfristige Ereignisse wie Erdbeben … wurden die Verschlussbauwerke ausgelegt.  Den Auswirkungen durch Subrosion, Erosion, Diapirismus sowie Klimaveränderungen wurde durch … eine ausreichende Teufenlage der Einlagerungsbereiche begegnet …“

            Fazit: S. 312

            „… Bezogen auf die Endlagerung von wärmenentwickelnden radioaktiven Abfälle können unter den in Kapitel 6.1 angeführten Vorbehalte sowohl die projektierten Endlagersystemen als auch die hiermit verbundenen Sicherheitsaussagen als robust angesehen werden. Für das Freisetzungsverhalten gasförmiger Radionuklide gilt dies vorbehaltlich der Modell- Prozess- und Datenungewissheiten nur, wenn Behälter unterstellt werden, die über etwa 500 Jahre gasdicht sind. … Die im Vorhaben VSG entwickelten Endlagerkonzepte werden einschließlich der Rückholungskonzepte als realisierbar angesehen…“ 

            Zusammenfassung der im Anhang der Synthese genannten geowissenschaftlichen         Standortbeschreibungen. Bericht zum Arbeitspakete 13 (S. 379 – 424).

            In diesen Anhang wird die Geologie im Zusammenhang mit der zukünftigen geologischen Entwicklungsgeschichte des Endlagers genau beschrieben. Ein Inhaltsverzeichnis zu diesem Anhang ist allerdings nicht zu finden. Deshalb ist für den interessierten Leser diese Themengliederung angeführt:

            A.1 : Schichtenfolge und Lagerungsverhältnisse im Deck- und Nebengebirge: A1.1: Prä-salinarer Untergrund; A1.2: Zechstein; A1.3: Trias bis Oberkreide; A1.4: Tertiär A1.5: Quartär;

            A.2 : Hydrogeologie:  A2.1 Hydrologischer Bau des Deckgebirges; A2.2: Das Süß-/ Salzwassersystem; A2.3: Grundwasserbewegung im Süßwasserkörper; A2.4: Grundwasserbewegung im Salzwasserkörper: 

            A.3 : Geologie des Salzstocks Gorleben:  A3.1: Entwicklungsgeschichte der Salzstruktur Gorleben-Rambo; A3.2: Hutgestein des Salzstocks Gorleben; A3.3: Salzspiegel; A3.4: Subrosion; A3.5: Stratigraphie und Lithologie; A3.6: Klüfte und Störungen im Salinargestein; A3.7: Lösungsvorkommen im Salinargestein; A3.8: Kohlenwasserstoff- und Gasvorkommen im Salinargestein; A3.9: 

            A.4 : Geologische Langzeitprognose: 4.1: Ableitung der zukünftigen Rahmenentwicklung; 4.2: Wahrscheinliche zukünftige geologische Entwicklung am Standort Gorleben; 4.3: Überregionale Entwicklungen; 4.4 Kaltzeitliche Entwicklungen; 4.5: Wenig wahrscheinliche oder auszuschließende Entwicklungen des geologischen Systems am Standort Gorleben. Literaturverzeichnis.

***

Was sagte Hans Magnus Enzensberger noch vor kurzem: „Der Schlaf der Vernunft wird bis zu dem Tag anhalten, an dem die Mehrheit der Einwohner unseres Landes am eigenen Leib erfährt, was ihnen widerfahren ist. Vielleicht werden sie sich die Augen reiben und fragen, warum sie die Zeit, zu der Gegenwehr noch möglich gewesen wäre, verschlafen haben:“

Helmut Fuchs

——————————————-

Der Autor ist auch – zusammen mit Rolf Kamradek – Autor des Politthriller „Die German Angst“ 

 

Näheres zu Dr. Helmut Fuchs finden durch googeln unter „helmut.fuchs.geologe“




Was das Schlachten einer Giraffe und ein Freihandelsabkommen gemeinsam haben

von Lorenz Teufel und Hans-Dieter Radecke

„Natur, rot an Zahn und Klaue.“ Die Zeile stammt von Alfred Lord Tennyson. Er spielt hier auf die unheilbare Hoffnung des Menschen an, „dass Gott Liebe wärʼ / Und Liebe das Gesetz, auf das die Schöpfung baue.“ Unheilbar ist sie nach Tennyson, weil seine Mitmenschen trotz gegenteiliger Erfahrungen daran festhielten, selbst dann „wenn die Natur auch, rot an Zahn und Klaue / Vor Raublust, dieses Credo niederschrie.“
Der Glaube an eine gütige Mutter Natur ist gerade heute wieder allgegenwärtig und trägt nicht selten die Züge religiöser Verblendung. Nachhaltig, gerecht und innovativ ist sie. Mit sanfter ruhiger Hand hält sie alles in der Balance, sorgt in einem perfekten Gleichgewichtssystem uneigennützig für alle ihre Geschöpfe und bringt dabei einen Gleichklang aus Schönheit, Harmonie und erhabener Perfektion hervor. Werden wir mit ihren blutigen Zähnen und Klauen konfrontiert, reagieren wir mit sentimentalem Unverständnis. „Der Sentimentale“, meinte einst Oscar Wilde, „ist einer, der in allen Dingen lächerlich hohe Werte sieht und von nichts den Marktpreis kennt.“

Häufig genug geht dieses naive Naturverständnis bereits so weit, dass Naturkatastrophen gar nicht mehr der Natur selbst zugeschrieben, sondern gänzlich „der Menschheit“ angelastet werden. Lawinen sind dann nur noch die zwangsläufige Folge von Naturraubbau; Stürme, Trockenheiten, Überschwemmungen und Erdbeben sind durch unseren verantwortungslosen CO2-Ausstoß verursacht; Tsunamis werden durch geheime militärische Experimente oder ganz allgemein durch die menschliche Hybris ausgelöst. Da ist es dann nur noch ein Roth-grünes Handumdrehen, und 16 000 japanische Tsunamitote mutieren zu Opfern eines Reaktorunfalls. Niemand hat diesen Naturkitsch besser und kürzer zum Ausdruck gebracht als Herbert Grönemeyer: „Die Erde ist freundlich / Warum wir eigentlich nicht?”

Als vor einigen Wochen in einem dänischen Zoo die Giraffe Marius öffentlich geschlachtet und danach an die Raubtiere verfüttert wurde, brach ein weltweiter Sturm der Entrüstung über die Verantwortlichen herein. Meinungsstarke aber geistesschwache Online-Petitionen wurden gestartet, der Zoodirektor bedroht. Die blutige Fratze der ach so gerechten Natur wollte niemand sehen. Über 90 Prozent aller jemals existierenden Arten hat die angeblich doch so nachhaltige „Mutter Natur“ ausgerottet.

Ähnliche Empörungsstürme brechen bezeichnenderweise los, wenn die Marktwirtschaft ihre von Freiheit verzerrte Fratze erhebt. „Eigentlich“ wird die Marktwirtschaft ja von der Mehrheit aller Deutschen geliebt und geschätzt. Quer durch alle Parteien wird sie hochgelobt und anerkannt. Selbst Stalin-Verehrerin Wagenknecht bekommt feuchte Augen, wenn sie uneigennützig ihre Vollendung fordert. Allerdings ist hier die Rede von einer ganz bestimmten Art von Marktwirtschaft. Sozial, gerecht, nachhaltig, innovativ und moralisch muss sie sein, Arbeitsplätze soll sie schaffen und sichern. Und statt bloß quantitativen Besitz für den Einzelnen, muss sie qualitativen und genfreien Wohlstand für jeden erzeugen. Alles Mögliche darf sie sein, nur allzu frei, das darf sie nicht sein. Denn dann wird sie zum „Morallehrer“.

Besonders deutlich wird die Abscheu gegen diese ungeliebte Seite des Marktes angesichts des bevorstehenden Freihandelsabkommens mit den USA und der Entscheidung des EU-Ministerrates, gentechnisch veränderten Mais NICHT zu verbieten. Da geht ein Gespenst um in Deutschland – das Gespenst des rücksichtslos selektierenden freien Marktes. Ein Massensterben europäischer Filmkulturen stehe uns bevor, warnen Subventionscineasten und Kulturnationalisten. Verordnungsschützer und Regelhüter sehen unkalkulierbare Risiken für unmündige Verbraucher und unsere unbefleckte Genflora voraus, fürchten gar um die letzten Biotope staatlicher Gouvernantenwillkür. Am Ende könne selbst die Wim-Wenders-Förderungsfauna in ernste Gefahr geraten. „Ihr habt nichts zu gewinnen als Freiheit“, schallt es aus allen Subventionspalästen – „aber unser Niveau zu verlieren.“

In seiner sentimentalen Einfalt gleicht dieses Wunschbild vom sozialen Markt auf verblüffende Weise dem romantischen Zerrbild von der Natur. Auch hier finden wir die selben geistlosen Versatzstücke einer romantischen heile-heile-Gänschen-Weltsicht. So wie auf der einen Seite der maßlos konsumierende Mensch für die Katastrophen in einer eigentlich gütigen Natur verantwortlich ist, so ist es in der eigentlich perfekten Welt der sozialen Markwirtschaft die böse Kapitalistin (Bänkerin, Hedgefondsmanagerin), die die heile Welt durch ihre unmäßige Gier in ein Armenhaus verwandelt. Analysiert man es zu Ende, dann gibt es natürlich keinen Zweifel, dass die Kapitalistinnen letztendlich auch für Naturkatastrophen und Artensterben verantwortlich sind. Wer sonst?

Als Charles Darwin vor mehr als 150 Jahren über seiner Evolutionstheorie brütete, sah er sich einem Problem gegenüber. Seine Theorie der natürlichen Selektion basierte auf einem radikalen Individualismus. Nach seiner Ansicht wirkte die Selektion nämlich nicht zum Wohl von Arten, sondern ausschließlich zum Wohl von Individuen und ihres Fortpflanzungserfolges. Damit stand sie im krassen Gegensatz zu den gottgefälligen Ideen seiner Zeitgenossen über eine gütige Schöpfung, die sich liebevoll um jede Spezies sorgt und kümmert. Wenn es aber so war, wie Darwin glaubte, wie konnte dann ein nur auf das Wohl des Einzelnen gerichteter Mechanismus zu so komplexen sozialen Strukturen und artübergreifenden Beziehungen führen, wie er sie überall in der Natur vorfand?

Die Lösung seines Problems fand er unter anderem in Adam Smiths Wirtschaftstheorie des „laissez-faire“. Durch geniale Ideenübertragung gelang es Darwin, die Perfektion und Stabilität der Naturprozesse aus seiner rein individualistischen Selektionstheorie heraus plausibel zu machen. Für den schottischen Philosophen Smith war klar, dass der Wettbewerb von Unternehmen (Arten), von denen jedes die Freiheit besitzt, nach dem eigenen Nutzen (Fortpflanzung) zu streben, dazu führen würde, dass weniger fähige Konkurrenten vom Markt gedrängt würden. Zwischen den jeweils Erfolgreichsten könnte sich ein Gleichgewicht bilden, wodurch eine geordnetes Wirtschafts- (Öko)system entstünde. Smith drückte es so aus: „Jeder glaubt nur sein eigenes Interesse zu verfolgen, tatsächlich erfährt so aber indirekt auch das Gesamtwohl der Volkswirtschaft die beste Förderung. Der einzelne wird hierbei von einer unsichtbaren Hand geleitet, um ein Ziel zu verfolgen, das er keineswegs intendiert hat.“

Heute werden weder Darwins Selektionstheorie noch Adams Wirtschaftstheorie von Wissenschaftlern als uneingeschränkt richtig erachtet. Beide Theorien haben Erweiterungen und Veränderungen (Populationsgenetik, Spieltheorie etc.) erfahren. Vielen von uns ist auch klar, dass „Natur“ und „Markt“ nur abstrakte Begriffshülsen sind, deren Inhalt und Bedeutung ganz wesentlich von den jeweils favorisierten menschlichen Norm- und Wertesystemen abhängen. Wer in der „Natur“ nur einen unschuldigen Hort des Heils sieht, den man mit allen Mitteln vor dem Zugriff des gierigen Menschen schützen muss, projiziert damit seine eigenen Wert- und Wahnvorstellungen ebenso nach außen, wie derjenige, der in ihr nur die Blaupause für seinen perversen Kampf gegen alles „Schwache“ und „Unvollkommene“ sieht.

Ein objektives Ding namens „Natur“ mit klar definierten Grenzen und Eigenschaften gibt es ebenso wenig, wie es „den Markt“ gibt. „Dem Markt“ vorzuwerfen, er bringe aus sich heraus keine Moral hervor und sei deshalb auf äußere Moralquellen angewiesen, ist deshalb in etwa so sinnvoll, wie „der Mathematik“ oder „der Zeit“ vorzuwerfen, sie seien lieblos. Selbstverständlich produzieren Drogen- oder Gemüsemärkte keine Moral, das tun aber Religionen, Ideologien oder Gebote auch nicht. Die einzige Moralquelle, die wir kennen, ist der Mensch, der seine Moralvorstellungen auf abstrakte Entitäten wie Götter oder Gebote projiziert. „Der Markt“ ist eine Abstraktion, er ist so gut oder schlecht oder frei, wie die Menschen, die ihn durch Regeln und Handlungen konstituieren.

Die Bilder und Vorstellungen, die wir uns vom Markt oder der Natur machen, sagen uns damit etwas über unsere Ideologien und Wertesysteme. Wer in der Natur nur ein armes und wehrloses Opfer des Menschen sieht, für den ist es ein Leichtes, daraus das Recht abzuleiten, soweit in das Leben eines jeden einzelnen Menschen einzugreifen, bis ihm jede Möglichkeit genommen ist, „die Natur“ zu schädigen. Und wer im „Kapitalismus“ nur ein ungerechtes amoralisches Raubtier mit blutigen Klauen sieht, für den ist es eine selbstverständliche Pflicht, „den Markt“ soweit in Fesseln zu legen, bis er nur noch Gleichheitsmoral nach Plan produziert und jedem Menschen die Freiheit genommen ist, „ungerechten“ Reichtum anzuhäufen.

Wer wie Jürgen Habermas „den Kapitalismus“ zähmen will, der muss sich darüber klar sein, dass es hier nicht darum geht, ein abstraktes Etwas zu bändigen. Hier geht es schlicht darum, Menschen durch staatliche Gewalt zu zähmen, sie am Handeln zu hindern und ihre Freiheit einzuschränken. Denn „der Kapitalismus“ stellt die Freiheit des Individuums ins Zentrum aller wirtschaftlichen Aktivitäten – und damit die Quintessenz der Aufklärung. „Der Markt“ mag ein abstraktes Konstrukt sein, aber seine konkreten Regeln betreffen uns alle real. Jede Regulierung des freien Austausches von Waren und Dienstleistungen ist ein konkreter Eingriff in unser Leben. Und dabei spielt es nur eine untergeordnete Rolle, ob wir Anbieter oder Kunden sind, denn die meisten von uns sind beides. Wir kaufen Waren und Dienstleistungen und bieten unsere Talente und Arbeitszeit an. Das bedeutet nun nicht, dass „der Markt“ keine Regeln braucht, ganz im Gegenteil, ein Markt braucht Regeln, sonst ist er kein Markt, und „ungeregelter Kapitalismus“ ist ein Widerspruch in sich. Doch diese Regeln sollten den freien Austausch von Waren und Dienstleistungen sichern und ihn nicht durch staatliche Gewalt in ideologische Bahnen zwingen oder gar unmöglich machen. Moralische Marktfeindlichkeit mit dem Ziel der Schaffung einer „gerechten“ Gesellschaft führt überall hin, nur nicht zu einer „humaneren“ Welt.

Nach einer Emnid Umfrage fordern 83 Prozent aller Deutschen, dass sich die Bundeskanzlerin für noch strengere Klimaschutzziele einsetzen soll. DREIUNDACHZIG Prozent aller Deutschen wünschen sich also, der Staat solle sich noch mehr als er das ohnehin schon tut, in das Leben eines jeden Bürgers einmischen, um „das Klima“ zu retten, das nach fast übereinstimmender Meinung vom Menschen bedroht wird. Das Ganze trägt Züge eines religiösen Wahns. Im sogenannten Klimaschutz“ gehen die beiden beschriebenen Ideologien von „Markt“ und „Natur“ eine fast perfekte Symbiose ein. Wer glaubt, hier gehe es nur um die Verschärfung einiger Grenzwerte, der irrt sich gewaltig. Hier nimmt sich der Staat das Recht heraus, seinen Bürgern vorzuschreiben, was sie kaufen, was sie produzieren und was sie verkaufen müssen. Der grüne Umweltsenator in Bremen plant gar das Grundrecht auf die Unverletzlichkeit der Wohnung „einzuschränken“, damit „Blockwarte“ ohne Gerichtsbeschluss überprüfen können, ob jemand mit Strom heizt. Um es klar zu sagen, wer so etwas tut, missbraucht das staatliche Gewaltmonopol und tritt die Freiheit seiner Bürger mit Füßen.

Hier wird Adams „unsichtbare Hand“ durch Ideologie ersetzt. „Der Markt“ soll durch Zwang in eine bestimmte Richtung gelenkt werden, um festgelegte Vorgaben (für Elektroautos, Ökostrom, CO2-Ausstoß, Frauen und Löhne) zu erreichen. Kennzeichen eines freien Marktes hingegen ist es, dass jeder Akteur in Freiheit und eigener Verantwortung seine jeweiligen Interessen verfolgen kann. Das führt dann dazu, dass Marktentwicklungen zwar nicht vorhersehbar sind, aber durch das Wirken der Freiheit auf vielfache Weise das Gemeinwohl fördern. Erfolgreiche freie Unternehmer zeichnet es nämlich aus, dass sie etwas anbieten, was die Kunden wirklich haben wollen. Nur wer sich Gedanken darüber macht, was seine Mitmenschen brauchen, sich wünschen oder in Zukunft für ihr Glück und Wohlbefinden benötigen werden, wird am freien Markt erfolgreich sein. Denn im Gegensatz zur Staatsgewalt hat keine „Kapitalistin“ die Macht, ihre Kunden zum Kauf bestimmter Produkte (oder TV-Programme) zu zwingen. Sie muss den Kunden durch Qualität und Preis für sich gewinnen. Henry Ford, George Westinghouse und Walt Disney waren nicht erfolgreich, weil sie selbstlos zu Planerfüllungsgehilfen und Subventionsschmarotzern degenerierten, sondern weil sie aus Eigeninteresse ihren Mitmenschen gute und preiswerte Offerten machten. Mut zur Innovation, Kreativität und Risikobereitschaft sind die entscheidenden Merkmale eines produktiven Marktes – nicht Gesetze, die dem Bürger bestimmte Quoten, Produkte und Dienstleistungen aufzwingen.

Doch mit rationalen Argumenten und Erfahrungswerten ist hier, wie bei fast jeder religiösen Gemeinschaft, wenig bis nichts auszurichten. Wer davon überzeugt ist, uneigennützig und selbstlos zum Wohl der Menschheit und der Schöpfung zu handeln, dem ist mit Vernunft nicht beizukommen. So wie sich die Ideologen der sozialen Planwirtschaft nicht durch die Tatsache kurieren lassen, dass sämtliche derartigen Versuche zum Leid von Millionen Menschen jämmerlich gescheitert sind – jüngstes Beispiel ist Venezuela, wo eines der ölreichsten Länder in einem Sumpf aus Verbrechen und Korruption versinkt – so lassen sich die sogenannten Natur- und Klimaschützer weder durch das menschliche Leid, das durch die Palmölproduktion verursacht wird, noch durch die Tatsache zum nachdenken bringen, dass im eigennützigen freien Markt der USA Energiepreise und CO2-Ausstoß sinken, während sie in unserer selbstlosen Planwirtschaft munter steigen.

Selbstlos und uneigennützig fordert deshalb Wim Wenders, seine Subventionen nicht durch ein Freihandelsabkommen zu gefährden; selbstlos und uneigennützig verschandeln deshalb Wind- und Solarfirmen ganze Landstriche, ehe sie in Insolvenz gehen; selbstlos und uneigennützig muss die Kanzlerin deshalb um das diabolische amerikanische Frackinggas betteln. Wir jedoch, „wir sind nicht bereit, von irgendjemandem anzunehmen, dass es ihm an Selbstsucht mangelt.“ (Adam Smith) Und dennoch vertrauen wir darauf, dass der Mensch vernünftig ist, und Freiheit das Gesetz, auf das der Fortschritt baut, selbst dann, wenn der Gutmensch auch, rot an Faust und Fahne, vor Dummheit dieses Credo niederschreit.

Die Autoren sind Physiker und haben gemeinsam das Buch “Was zu zweifeln war. Die Lüge von der objektiven Wissenschaft” verfasst.

Zuerst veröffentlich auf ACHGUT hier 




Es gibt keine CO2-Erwärmung – Seit 1998 bewegen uns wieder auf eine kleine Eiszeit zu

Die folgende Grafik beginnt 850 n.Chr., also nach der Teilung des Frankenreiches und reicht bis etwa 1920.

Abb. 1: In der mittelalterlichen Warmperiode waren die Temperaturen im Mittel 2- 4°C höher als heute, Island und Grönland wurden im 9. Jahrhundert durch die Wikinger besiedelt, das Packeis zog sich weiter nördlich zurück und in England und Dänemark wurde Wein angebaut. In Island wuchsen Eichen und selbst in Grönland baute man Weizen und Gerste an.

Um 1300 wohnten mehr als 3000 Menschen an der Westküste Grönlands. (Schaefer, 1997.) Das sollte sich bald ändern: 1492 stellte der Papst fest, dass seit 80 Jahren kein Bischof mehr wegen Eis Grönland hätte besuchen können. Seit damals waren die europäischen Siedler wegen der Kälte wohl nach Neufundland weiter gewandert.

In der beginnenden kleinen Eiszeit war es im Mittel ca. 1- 3°C kälter als heute. Die Wikinger-Kolonie in Grönland war ausgestorben, die Themse in England war im Winter oftmals für lange Zeit im Jahr zugefroren genau so wie die holländischen Kanäle.

Aus der Grafik der Abb1 erkennen wir auch, dass die Kleine Eiszeit etwa 1850 zu Ende ging, seitdem wurde es wieder wärmer. Ab 1900 gab es in Deutschland wieder angenehmere Temperaturen, welche zu höheren Ernteerträgen führte und die großen Hunger-Auswanderungswellen aus der Mitte Europas fanden ein Ende.

Doch wie entwickelten sich ab 1900 die Temperaturen weiter in Deutschland? Seit 1881 führt der Deutsche Wetterdienst in Offenbach (DWD) seine –wie er sagt- zuverlässigen Temperaturaufzeichnungen. Und diese zeigen zunächst mal was Erfreuliches. Die Temperaturaufzeichnungen beweisen, dass trotz einiger kühlerer Jahre die Temperaturen im Schnitt auch nach 1900 weiter gestiegen sind. Die durchgängige Trendlinie geht ab 1900 weiter nach oben bis etwa zum Jahr 1998. Dieses Jahr 1998 war seit den regelmäßigen Temperaturaufzeichnungen weltweit das wärmste Jahr, in Deutschland war es das Jahr 2000. Seitdem sinken die Temperaturen wieder leicht.

Abb.2. Sie ist eine Ergänzung von Abb1 um weitere 90 Jahre bis in die aktuelle Zeit. Man sieht deutlich, dass die Temperaturen seit 1998 wieder abwärts gehen. Die Trendlinie für die deutschen Temperaturaufzeichnungen fällt aber schon seit 1997, obwohl Kohlendioxid auch in den letzten 17 Jahren weiter ansteigend war.

Abb.3. Nach einer Phase der Wiedererwärmung nach der kleinen Eiszeit fallen die Temperaturen in den letzten 17 Jahren wieder, obwohl der CO2-anstieg in der Atmosphäre sich fortsetzt. Im Jahre 2013 liegt er bei 380 ppm oder 0,038%. Steigende CO2-werte, aber fallende Temperaturen??

Somit steht aber auch fest, dass wir Normalbürger ständig belogen werden. Nirgendwo zeichnet sich das Bild einer sich fortsetzenden beängstigten Erwärmung ab, die laut den Märchen und abstrusen Behauptungen des Weltklimarates, aber auch des PIK Potsdam in absehbarer Zeit zum Hitzetod der Erde führen sollen.

Anhand der Temperaturdaten des DWD lässt sich lediglich feststellen, dass

1) die Temperaturen von 1850 an langsam gestiegen sind und nun wieder eine kleine Abkühlungsphase einsetzt. Und:

2) Dass es trotz der Abkühlungsphase seit 1998 immer noch wärmer als vor etwa 120 Jahren ist. Das zeigt die Abbildung2. So begründet auch der DWD stets die Klimaerwärmung und bietet solche Diagramme wie Abb4 an.

Abb.4: Trotz der Abkühlung in diesem Jahrtausend sind die gemessenen Temperaturen immer noch höher als vor 120 Jahren. Für die Betrachtung eines längeren Zeitraumes geben wir also dem DWD zunächst mal recht, zumal wir für unsere Betrachtungen dieselben DWD-Werte verwenden.

Doch ist es wirklich wärmer geworden? Sind die Temperaturen derzeit wirklich höher als vor 120 Jahren. Im folgenden soll gezeigt werden, dass man diese anhand von Abb4 vorschnell getroffene Aussage einer genaueren Betrachtung unterziehen muss.

Der Wärmeinseleffekt -WI-

Die letzten 150 Jahre unterscheiden sich grundlegend von anderen Epochen der Menschheitsgeschichte. In dieser Zeit hat sich die Bevölkerung von knapp einer Milliarde auf über 7 Milliarden vergrößert. Großräumige Naturlandschaften wurden umgestaltet, Sumpfgebiete und Feuchtwiesen trockengelegt, ein Großteil der Naturflächen wurden versiegelt und betoniert. Die Städte sind ausgeufert und einstige Naturräume sind zu großen zusammenhängenden Wohn- Arbeits- und Industrieflächen mit betoniertem Straßenbau zusammengewachsen, was die kühlend wirkende Verdunstung vermindert. Schließlich ist der Energiehunger der Menschheit in diesen letzten 150 Jahren ins Unermessliche gestiegen. Dieser Wärmeeintrag durch Energieverbrauch (Abwärme der Kraftwerke, Maschinen, Verbrennungsmotoren, Heizungen und Klimaanlagen) erfolgt vor allem in dicht besiedelten Gebieten. Neuerdings führt in Deutschland auch der massive Ausbau der Wind- und Solarenergiegewinnung zu Erwärmungseffekten auch in der freien Landschaft, denn die großen Windparks bremsen den kühlend wirkenden Wind, und die dunklen Solarpaneele wandeln nur etwa 10% der eintreffenden Sonnenstrahlung in Elektroenergie um, heizen sich aber wegen ihrer dunklen Oberflächen und der fehlenden Verdunstung wesentlich stärker als gewachsener Boden auf.

All diese Veränderungen bewirkten letztlich einen Wärmeeintrag in die einstige Naturflächen, der sich derzeit immer noch ungebremst fortsetzt. Täglich werden in Deutschland 108 ha Natur versiegelt und betoniert, was zur weiteren Erwärmung in den großräumigen, neu vom Menschen geschaffenen Flächen beiträgt. Dazu kommt, dass die Klimastationen, die sich vor 150 Jahren bei Forsthäusern am Waldrand, bei unbeheizten Klöstern oder bei wissenschaftlichen Instituten am Stadtrand befanden, heute nahezu alle in den von Menschenhand geschaffenen Wärmezonen oder gar neben den Landebahnen von Flughäfen stehen.

In der Gruppe Kowatsch/Leistenschneider/Kämpfe stellten wir uns die Frage, was würden die Messstationen an Temperaturen tatsächlich gemessen haben, wenn sich Deutschland in den letzten 123 Jahren nicht verändert hätte und wie wäre der Temperaturverlauf der Abbildung 4, wenn auch die Messstationen noch am gleichen Ort sich befinden würden wie vor 123 Jahren?

Der Physiker Raimund Leitenschneider hat durch seine statistisch vergleichende Methode herausgefunden, dass diese menschengemachte Wärmeinselerwärmung für Deutschland etwa 1,2 Grad beträgt mit einem Unsicherheitsbereich von +/- 0,5Grad.

Im folgenden Schaubild 5 soll dies gezeigt werden.

Abb. 5 Die rote Kurve entspricht der Abb4. Sie ist nach den Originaldaten des DWD gezeichnet.

Die blaue Kurve ist die WI-bereinigte Kurve. So würde der Temperaturverlauf in Deutschland aussehen, wenn sich die Welt nach 1850 nicht, bzw. nur wenig verändert hätte. Bei weniger als 40 Mio Einwohnern in der Fläche des heutigen Deutschlands, bei gleicher Lebensweise, gleichem Aussehen der Landschaft, dem geringen Energieverbrauch und die Messstationen an denselben Standorten wie 1891, dann hätte der DWD für das Jahr 2013 nur etwa 7,5 C ermittelt.

Auch viele Indizien und Beobachtungen sprechen für die Richtigkeit dieser 1,2 Grad menschengemachter Wärmeinselanteil für Deutschland. Hier sollen einige genannt werden:

Die Temperaturen in der freien Fläche Deutschlands, weitab von allen Wärmeinseln, zeigen in der Natur ein anderes Bild. In einem FFH-Schutzgebiet im Frankenbachtal im Ostalbkreis, fern aller Ansiedlungen und Wärmeinseln, zeigen die Maibeobachtungen den kümmerlichen Blattaustrieb verschiedener Sträucher. Die Vegetation der Bäume nimmt die tatsächlichen Maitemperaturen wahr und diese sind in Deutschland nach einer sechzehnjährigen Abkühlungsphase wieder so tief wie vor mindestens 50 Jahren, als der Betrachter erstmalig dort war. Aber selbst in den stark WI- beeinflussten Städten hat sich die Vegetationsentwicklung in den vergangenen 25 Jahren nicht bei allen Pflanzen einfach verfrüht, wie das folgende Beispiel verdeutlicht. STEFAN KÄMPFE führt als ehrenamtlicher Mitarbeiter der floristischen Kartierung in Thüringen auch phänologische Beobachtungen in Weimar durch. Dabei zeigte sich, dass sich nicht alle phänologischen Phasen verfrüht haben. Zwar treten Holunderblüte und Holunderreife (Beginn des Frühsommers beziehungsweise des Frühherbstes) heute etwa 9 Tage eher ein, als um 1990. Bei der Apfelblüte (Beginn des Vollfrühlings) gab es aber nur eine minimale Verfrühung um weniger als 2 Tage, während sich der Beginn des Erstfrühlings (Laubaustrieb der Wildstachelbeere) um etwa 11 Tage verspätet hat. Die folgende Abbildung 6 zeigt den Grund für diese gegenläufige Entwicklung:

Abb. 6: Die Hauptursache für die gegenläufige Vegetationsentwicklung in Weimar (verspäteter Erstfrühling- Austrieb der Wildstachelbeere, Mitte unten- Hellgrün, und der verfrühten Holunderblüte- Frühsommerbeginn- dunkelblau, oberste Kurve) ist im unterschiedlichen Trendverhalten der Lufttemperaturen zu suchen. Denn während die Wintertemperaturen, welche den Beginn des Erstfrühlings ganz wesentlich bestimmen, leicht gefallen sind, stiegen die Frühlingstemperaturen,  besonders aber die des April, welche den Beginn der Holunderblüte maßgeblich beeinflussen, deutlich an. Diese Temperaturänderungen beruhen hauptsächlich auf Änderungen in den Häufigkeitsverhältnissen der Großwetterlagen (weniger milde Westwetterlagen im Winter, mehr erwärmend wirkende Süd- und Südwestlagen im Frühling) sowie einer längeren Sonnenscheindauer im Frühling- für einen CO2- Einfluss auf diese Temperaturänderungen fehlen die Hinweise.

Wir möchten betonen: Die vom Deutschen Wetterdienst DWD veröffentlichten Temperaturreihen sind richtig ermittelt. Sie gelten jedoch nur für die vom Menschen großflächig geschaffenen Zivilisationsflächen, eben dort, wo auch die Messstationen stehen. Und hauptsächlich dort gibt es die Erwärmung seit 1900 tatsächlich. Bei Temperaturvergleichen mit früher dürfen jedoch nicht direkt die einzelnen Temperaturen in Relation gesetzt werden, denn die Thermometer messen die vom Menschen in die Landschaft eingebrachte Wärme automatisch mit.                                                                                                              Aus der blauen, dem WI-bereinigten Temperaturverlauf der Abb. 5 erkennen wir: Nach einer 16jährigen Abkühlungsphase wären wir wieder bei Temperaturen um 1900 angekommen, wenn sich Deutschland in diesem Zeitraum nicht verändert hätte und die Messstationen auch noch an den damaligen Plätzen stehen würden. Und im Vergleich zur Abbildung 1 muss man leider feststellen: wir befinden uns nur knapp über der Durchschnittslinie der Abb1, also im Bereich des kleinen roten Bereiches am Ende des Zeitraumes bis 1920. Ohne WI- Anteil, hätte es seit 1900 gar keine Erwärmung gegeben.                                                                                                                         Eine Klimastation mit möglichst wenig Umgebungsänderungen müsste das bestätigen. Leider gibt es in Deutschland keine Station mehr, in deren weiten Umgebung sich nichts oder nur wenig verändert hat. Auch die Station auf der Zugspitze ist seit über 60 Jahren durch den wachsenden Tourismus stark WI- beeinflusst. Doch in den USA wurden wir fündig. Glücklicherweise gibt es die Dale Enterprise Station, eine Temperatur-Messstation, bei der sich nur wenig in der weiten Umgebung verändert hat, die also fast keinen WI hat.

Abb.7: Die Überraschung ist groß, denn die vom IPCC, dem selbst ernannten Weltklimarat behauptete schlimme globale Erwärmung ist bei dieser Station auf dem Lande überhaupt nicht erkennbar. (Obwohl auch diese Station einen geringen WI-effekt haben dürfte)  Nur zu Beginn der ersten 20 Jahre der Messreihe von 1880 bis 1900 zeigt sich ein leichter Temperaturanstieg, da wir damals aus der kleinen Eiszeit kamen, welche 1850 zu Ende ging. Und seit 1998 ist deutlich der Temperaturrückgang erkennbar, da er durch keinen oder nur durch einen geringen WI-effekt abgebremst wird. Auch auf dieser kleinen Farm in Virginia ist man wieder auf dem Stand von 1900 angekommen.  http://sppiblog.org/news/contribution-of-ushnc-and-giss-bias-in-long-term-temperature-records-for-a-well-sited-rural-weather-station

Zusammenfassung

1)Ab 1850 wurde es wieder wärmer auf der Erde wie die Abbildungen 1 und 2 zeigen. Die kleine Eiszeit ging zu Ende. Und diese Wiedererwärmung hat bestimmt nichts mit CO2 zu tun, sondern mit der Sonne und der kosmischen Strahlung und all den anderen Faktoren, die die Temperaturen bestimmen.

2) Aufgrund des beginnenden Bevölkerungswachstums entstanden allmählich auf der Erde großflächige Wärmezonen, in welchen nun die Messstationen stehen. Täglich werden allein in der Dritten Welt 50 km2 Regenwald gerodet, bei uns 108 ha überbaut. Das alles trägt zur weiteren Erwärmung bei.

3) Die Thermometer messen diese Wärmeinselwärme automatisch mit. Die WI-bereinigte Temperaturkurve beweist, dass es in den letzten 120 Jahren bzw. seit 1900 keine großen Temperaturänderungen gegeben hätte. Wir liegen nach der Abkühlung seit 1998 in der freien Fläche, wo der WI weniger wirkt, wieder bei den Temperaturen von 1900 und damit nur knapp über den Temperaturen zu Ende der kleinen Eiszeit.

4) Die Warnungen des Weltklimarates vor einer Hitzekatastrophe, verursacht durch CO2 sind die reinsten Märchen. Sie entbehren jeder wissenschaftlichen Grundlage. Dafür fehlt nicht nur der Versuchsbeweis, auch die Theorie ist falsch. Außerdem gibt es keinerlei technische Anwendungen zu diesem behaupteten CO2-Erwärmungseffekt

5) Die leicht steigende Trendlinie 1900 bis 2013 wie aus der Abb3 ersichtlich ist kein Beweis für den behaupteten anthropogenen CO2-Treibhauseffekt. Es handelt sich um den WI-effekt. Allerdings ist dieser WI-effekt auch menschengemacht.

Fazit:

Es wird höchste Zeit, den Umwelt- und Naturschutz anstelle eines fragwürdigen, wissenschaftlich nicht konsensfähigen Klimaschutzes weltweit in den Mittelpunkt des Handelns zu stellen. Saubere Luft, sauberes Wasser, ein intaktes Ökosystem kommen den Menschen heute und zukünftig zugute. Natur- und Umweltschutz ist deshalb ein konsensfähiges Ziel aller Völker.

Wie ideologisch vermessen können einige Leute nur sein, indem sie der Natur ein „2-Grad-Ziel“ vorgeben wollen? Wir sind doch alle froh, dass die Temperaturen aus der kleinen Eiszeit herausgefunden haben. Wenn schon ein Ziel, dann wäre das warme Mittelalter erstrebenswert. (siehe Abb1)

Es ist endlich an der Zeit, dass wir damit aufhören, Kohlendioxid zu verteufeln. CO2 ist für die Erde ein lebensnotwendiges Gas, genauso wichtig wie Wasser und Sauerstoff. Ohne CO2 wäre die Erde kahl wie der Mond. Mit derzeit 0,038% CO2 haben wir nicht zuviel Kohlendioxid in der Luft, sondern eher zu wenig. CO2 wirkt auf die Pflanzen wie ein Dünger. Mehr CO2 wäre angesichts des Hungers in der Welt erstrebenswert.

Abb.8: Die Graphik verdeutlicht den geringen Anteil von Kohlendioxid in der Luft. Von diesem bereits sehr geringen Anteil stammt der allergrößte Anteil aus natürlichen Prozessen und damit nicht von den Menschen. Auch aus dieser Grafik ist erkennbar, dass wir einer großen Verdummungspropaganda ausgesetzt sind, die nur auf unser Geld abzielt.

Endergebnis: Die Erwärmung der letzten 110 Jahre war keine globale Erwärmung, sondern nur eine lokale Erwärmung in den von den Menschen neu geschaffenen Wärmeflächen. Dort stehen auch die Messstationen.

Es gibt keine globale CO2-Erwärmung und die angebliche Klimakatastrophe durch anthropogenes Kohlendioxid ist ein Geschäftsmodell.

Es soll zum Abschluss nicht unerwähnt bleiben, dass eine CO2-Einsparung, verbunden mit einer Optimierung von technischen Prozessen selbstverständlich sinnvoll ist, allerdings lediglich aus Gründen des Umweltschutzes und der Ressourcenschonung. Alles andere, was sich in der heutigen gigantischen Umverteilungs- und Besteuerungsmanie eines quasi religiösen Klimawahns äußert, hat keinerlei legitime Daseinsberechtigung.

Josef Kowatsch, Hüttlingen

Stefan Kämpfe, Weimar