1

Fukushima — ein Zwischenbericht

…da warn´s nur noch drei

Anfang August ging die Meldung um die Welt, daß über 90% der Brennelemente (1166 von 1331 abgebrannten Brennelementen) aus dem Lagerbecken des Blocks 4 geborgen und abtransportiert sind. Man erwartet bis Ende des Jahres die vollständige Räumung. Wir erinnern uns: Zum Zeitpunkt der Naturkatastrophe war der Block 4 für einen planmäßigen Brennelementewechsel außer Betrieb. All seine Brennelemente waren nicht mehr im Reaktordruckgefäß, sondern bereits im zugehörigen Lagerbecken. Dieses Lagerbecken wurde infolge der Wasserstoffexplosion mit Trümmern der "Reaktorhalle" zugeschüttet. Kein schöner Anblick und überdies vermeidbar, wenn man eine übliche "Betonhülle" um das Kernkraftwerk gebaut hätte. Um es auch unserer — von der japanischen Industriegesellschaft so enttäuschten — Kanzlerin und ihren Jüngern aus CD(S)U und FDP noch einmal klar und deutlich zu sagen: Ein solcher Schadensverlauf ist in einem Kernkraftwerk in Deutschland technisch ausgeschlossen. Jedes Kernkraftwerk in Deutschland (und fast alle auf der Welt) haben eine Stahlbetonhülle, die einer solch kleinen Explosion locker stand hält. Kein Reaktor in Deutschland ist mit einem anderen Block über eine gemeinsame Lüftungsanlage verbunden. Insofern hätte es in einem deutschen Kernkraftwerk (und in fast allen auf der Welt) gar kein explosives Gas geben können. Selten kann ein Ingenieur eine so eindeutige Aussage treffen.

An diesem Unfall sieht man, welch robuste Konstruktion ein Siedewasserreaktor an sich ist. Selbst eine schwere Explosion mit Einsturz der Reaktorhalle führt zu praktisch keiner Freisetzung von Radioaktivität in die Umwelt. Jeder moderne Reaktor hat darüber hinaus noch beträchtliche weitere Sicherheitsreserven. Dies ist auch der Grund, warum nur diese Reaktoren in Fukushima bei dem Tsunami und dem vorausgehenden Erdbeben kaputt gegangen sind. Es war nicht ohne Grund geplant, sie einige Monate später still zu legen. Eine bittere Lektion, die Japan aber angenommen hat: Alle Reaktoren befinden sich immer noch in einer umfangreichen Überprüfung. Es ist absehbar, daß einige nie mehr wieder in Betrieb gehen werden.

Wenn alle Brennelemente aus dem Block 4 ausgeräumt sind, ist das Kapitel faktisch abgeschlossen: Es verbleibt eine technische Ruine, die man auch als Denkmal stehen lassen könnte. So lange man sie nicht betritt, ist sie genauso ungefährlich, wie ein "Bankpalast" aus Granit. Der japanischen Gemütslage entsprechend, wird man aber eher nicht innehalten, sondern nicht eher ruhen, bis man das Grundstück in eine Rasenfläche verwandelt hat.

Die Problemruinen

Weiterhin problematisch sind die ersten drei Reaktoren des Kraftwerks. Sie waren zum Zeitpunkt des Erdbebens in Betrieb und sind durch den Ausfall der erforderlichen Nachkühlung zerstört worden. Bisher ergibt sich immer noch kein eindeutiges Bild: Die Strahlung in unmittelbarer Nähe der Reaktoren ist noch so stark, daß man keine Menschen zur Untersuchung einsetzen kann und will. Japan ist nicht Russland. Bisher hat man sich nur mit Robotern versucht zu nähern. Dies ist aber schwieriger, als es den Anschein hat. Man hat ein extrem schwieriges Einsatzgebiet, das überdies noch durch Trümmer versperrt ist. Zum großen Teil steht es auch noch unter Wasser. Solange man aber keinen genauen Überblick hat, kann man auch keinen Bergungsplan ausarbeiten. Hier ist noch von jahrelanger Arbeit auszugehen. Sie vollzieht sich auf mehreren parallelen und sich ergänzenden Ebenen.

Jedes mal, wenn man an ein unüberwindlich scheinendes Hindernis gelangt, muß man sich erst neue Spezialvorrichtungen und modifizierte Roboter entwickeln, bauen und testen. Inzwischen arbeitet man weltweit (insbesondere mit den USA und Großbritannien) zusammen, die bereits über umfangreiche Erfahrungen aus dem Abbruch ihrer militärischen Anlagen verfügen. Hier wird eine beträchtliches technisches Wissen entwickelt, das weit über das Niveau von "Windmühlen" und "Sonnenkollektoren" hinausgeht. Die deutsche Industrie wird das dank ihrer Verweigerungshaltung in einigen Jahren noch auf ganz anderen Gebieten bitter zu spüren bekommen.

Zur Zeit scheut Japan jedenfalls keine Kosten und Mühen. Als ein Beispiel mag die Myonen-Analyse dienen. Myonen sind Elementarteilchen, die z. B. in großen Mengen durch die kosmische Strahlung in der oberen Erdatmosphäre gebildet werden. Diese Myonen treffen zu Tausenden, jede Minute auf jeden Quadratmeter unserer Erdoberfläche (Anmerkung: Wann demonstriert Greenpeace endlich gegen diese unverantwortliche Strahlenbelastung? Vorschlag: Gottesstrahlen in Köln hunderte male stärker, als die Strahlenbelastung aus Fukushima). Ein großer Teil dieser Strahlung durchdringt auch massive Bauwerke. Allerdings werden die Teilchen abhängig von der lokalen Dichte gestreut. Mißt man nun die "Flugbahnen" der Myonen vor dem zu untersuchenden Objekt und nach der Durchdringung, so erhält man ein sehr genaues Bild der Zusammensetzung. Ganz ähnlich einer Röntgenaufnahme: Die dichteren Knochen zeichnen sich deutlich von sonstigem Gewebe ab. Da nun Uran und Plutonium eine — auch gegenüber allen Baustoffen, wie Stahl, Beton usw. — außergewöhnlich hohe Dichte besitzen, erwartet man ein ziemlich genaues Bild der Uranverteilung in den Unglücksreaktoren. Erst dann kann man sinnvoll und risikolos Löcher für Kameras etc. bohren, um sich ein abschließendes Bild zu machen.

Ein weiterer Weg ist die Analyse durch "nachrechnen" des Unfallablaufes. Solche Rechnungen sind allerdings mit erheblichen Unsicherheiten versehen, da man nicht über ausreichende Messwerte über die tatsächlichen Zustände während des Unglücks verfügt. Sie sind solange nur als grobe Abschätzungen zu werten, solange man keine "Aufnahmen" der tatsächlichen Brennelement-Reste vorliegen hat. Allerdings läßt sich die Aussagefähigkeit der Berechnungen Schritt für Schritt mit jeder neu gewonnenen Messung verbessern. Es verwundert daher nicht, daß die Ergebnisse verschiedener Institutionen noch recht weit auseinanderliegen: Man glaubt bisher, daß der gesamte Brennstoff des ersten Reaktors (ca. 77 to) damals aufgeschmolzen und weitestgehend aus dem Reaktordruckbehälter ausgelaufen ist und sich unterhalb in der Reaktorkammer gesammelt hat. Bei den Blöcken 2 und 3 gehen die Rechenergebnisse noch weiter auseinander. Hier glaubt man, daß mindestens noch ein Drittel (von je 107 to) sich in den Druckbehältern befindet.

Der Dauerbrenner Abwasser

Seit dem Unglück steht die Belastung des Grundwassers und etwaige Belastungen des Meerwassers im Vordergrund. Das Kraftwerk steht an einer Hanglage. Schon immer sind große Regenwassermengen unterirdisch um das Kraftwerk geflossen. Der Grundwasserspiegel war so hoch, daß alle unterirdischen Kanäle und Keller im Grundwasser stehen. Während des Betriebs hat man durch Entwässerung den Grundwasserspiegel ständig abgesenkt gehalten. Dieses Drainagesystem ist aber durch den Tsunami und das Erdbeben zerstört worden. Folglich stieg der Wasserstand an und die Gebäude schwammen auf und soffen ab. Da die technischen Anlagen ebenfalls undicht wurden, mischte sich das austretende radioaktiv belastete Kühlwasser ständig mit dem Grundwasser im Kellerbereich. Die bekannten Probleme entstanden. Inzwischen hat man oberhalb des Kraftwerks eine Speerwand errichtet um den Grundwasserstrom einzudämmen. Vor dieser Sperrzone wird durch Brunnen das Grundwasser entzogen. Dies ist eine Technik, wie man sie bei vielen Baustellen weltweit anwendet. Das abgepumpte Wasser wird um das Kraftwerk herum geleitet. Am 2. Mai wurden zum ersten mal 561 m^3 Wasser in Anwesenheit von Journalisten und Fischern ins Meer geleitet. Voller Stolz verkündete man, daß die Grenzwerte für die Einleitung ins Meer auf 1/10 (tatsächlich gemessene Werte weniger als 1/100) der Grenzwerte für Trinkwasser festgesetzt wurden. An der gesamten Uferlänge vor dem Kraftwerk hat man eine Sperrmauer errichtet, die 30 m tief unter den Meeresboden bis in eine wasserundurchlässige Bodenschicht reicht. Vor dieser Sperrmauer wird das angeströmte Grundwasser ständig abgepumpt. Durch diese Maßnahmen kann praktisch kein radioaktives Wasser mehr in das Meer gelangen. Durch die Sanierung des zerstörten Abwassersystems auf dem Gelände, ist es gelungen den Grundwasserspiegel wieder auf das alte Niveau abzusenken. Damit kann nicht mehr so viel Grundwasser in die unterirdischen Kellerräume eindringen und sich dort mit einem Teil des Kühlwassers vermischen. Dies hat zu einer Verringerung der zu lagernden radioaktiven Wässer um etwa die Hälfte geführt. Um längerfristig praktisch den gesamten Zustrom zu stoppen, hat man seit Juni begonnen das Kraftwerk unterirdisch komplett einzufrieren. Diese Arbeiten werden sich noch bis weit ins nächste Jahr hinziehen. Sind die "Eiswände" fertig, kann das Grundwasser unkontaminiert um die Ruine herum fließen. Bis März sollen über 1550 Bohrungen 30 bis 35 m tief abgesenkt, und mit Kühlflüssigkeit gefüllten Rohrleitungen ausgestattet werden. Diese werden dann mit Kühlflüssigkeit von -30°C ständig durchströmt. Geplante Kosten: Mehr als 300 Millionen US-Dollar.

Die Roboter

Block 2 war nicht von der Wasserstoffexplosion zerstört und wäre somit zugänglich. Gerade weil er aber immer noch "gut verschlossen" ist, ist er innerlich stark kontaminiert. Japanische Arbeitsschutzvorschriften sind streng, weshalb vor einem Betreten durch Menschen nur Roboter zum Einsatz kommen. Es sind mehrere Modelle aus aller Welt im Einsatz, die für die Reinigungsarbeiten in Japan modifiziert und umgebaut wurden. Die Roboter sind nicht nur mit "Wischern" und "Staubsaugern" ausgerüstet, sondern auch mit Dutzenden Kameras und Messinstrumenten. Sie werden von einer neu errichteten Zentrale aus ferngesteuert. Vordringliche Aufgabe ist die Reinigung der Anlage bis zur Schleuse des Containment. Es wird noch einige Wochen dauern, bis Arbeiter gefahrlos zu der Schleusentür vordringen können. Nächster Schritt wird dann sein, die Schleuse zu öffnen und (ebenfalls mit Robotern) bis zum Reaktordruckgefäß vorzudringen.

Bei allen Abbrucharbeiten in USA, UK und Japan nimmt der Robotereinsatz in letzter Zeit rapide zu. Dies liegt nicht nur an den Entwicklungsfortschritten auf diesem Gebiet, sondern vor allem auch an dem Preisverfall. Arbeiten, die noch vor zehn Jahren utopisch anmuteten, sind heute Routine geworden. Man "taucht" heute genauso selbstverständlich in Kernreaktoren, wie in Ölförderanlagen tausende Meter tief im Meer. Die Energietechnik — nicht zu verwechseln mit Windmühlen, Biogasanlagen und Sonnenkollektoren — ist auch weiterhin der Antrieb der Automatisierungs- und Regelungstechnik. Wer sich aus ihr  zurückzieht, verschwindet kurz über lang ganz aus dem Kreis der Industrienationen (Morgenthau-Plan 2.0 ?).

Die volkswirtschaftlichen Kosten

Der betriebswirtschaftliche und volkswirtschaftliche Schaden durch das Unglück von Fukushima ist riesig. Für Japan ist es um so bitterer, daß er vollständig vermeidbar gewesen wäre, wenn man auf die Fachleute gehört hätte. Allein zwei Geologen sind unter Protest aus Sicherheitsgremien zurückgetreten, weil sie vor einem möglichen Tsunami in der bekannten Höhe gewarnt hatten. Es scheint ein besonderes Phänomen unserer Zeit — und ganz besonders in Deutschland — zu sein, die Warnungen und Ratschläge von Fachleuten zu ignorieren. Wohlgemerkt Fachleute, die sich durch einschlägige Ausbildung und jahrelange Erfahrung ausweisen. Nicht zu verwechseln mit ernannten "Experten", die meist weder eine Fachausbildung noch praktische Kenntnisse besitzen, diese Defizite aber durch "Festigkeit im Rechten-Glauben" ersetzen. Diese Hohepriester der Ignoranz in Parteien und Betroffenheitsorganisationen sind nicht weniger gefährlich als Voodoo-Priester in Afrika.

Der in Japan entstandene Schaden durch Ignoranz vollzieht sich auf zwei unterschiedlichen Ebenen: Die Kosten für die Aufräumarbeiten und die Entschädigung für die Evakuierten treffen den Betreiber Tepco mit tödlicher Wucht. Die Kosten durch steigende Energiepreise treffen alle Japaner und sind in ihren Auswirkungen noch nicht endgültig absehbar. Japan und Deutschland werden noch für zig Generationen von Wissenschaftlern genug Stoff für die Frage liefern: Wie und warum haben sich zwei Nationen freiwillig und sehenden Auges durch eine falsche Energiepolitik ruiniert?

Die Kosten für die Aufräum- und Dekontaminierungsarbeiten werden inzwischen auf über 100 Milliarden US-Dollar geschätzt. Glücklicherweise gilt hier, daß die Kosten für Tepco die Gehälter für zahlreiche Japaner sind. Allerdings muß die Frage erlaubt sein, ob viele Japaner nicht sinnvolleres zu tun hätten, als Grenzwerte unterhalb der vorhandenen Strahlung anzustreben.

Viel bedenklicher — aber anscheinend nicht so offensichtlich — ist der volkswirtschaftliche Schaden. Die japanischen Energieversorger haben jährliche Mehrkosten von 35 Milliarden US-Dollar durch den Einkauf zusätzlicher fossiler Brennstoffe. Dies ist rausgeschmissenes Geld, da man täglich die abgeschalteten — und längst überprüften und für sicher befundenen — Kernkraftwerke wieder hochfahren könnte. Inzwischen importieren die Stromerzeuger jährlich für 80 Milliarden US-Dollar Kohle und LNG (verflüssigtes Erdgas). Japan ist der größte Importeur für LNG (90 Mio to jährlich) und der zweitgrößte Importeur für Kohle (190 Mio to jährlich, stark steigend) und der drittgrößte Importeur für Öl weltweit (4,7 Millionen barrel pro Tag). Sind die jährlichen Ausgaben hierfür schon imposant (289 Milliarden US-Dollar in 2012), so ist langfristig das Verhältnis zum Bruttosozialprodukt entscheidend: Es ist inzwischen doppelt so hoch wie in China (wobei das Bruttosozialprodukt in China schneller steigt, als der Energieverbrauch) und fast vier mal so hoch, wie in den USA (dort nimmt die Eigenproduktion ständig zu). Eine solche Schere ist für einen Industriestandort langfristig nicht tragbar. Es gibt also keinen anderen Weg, als zurück in die Kernenergie. "Wind und Sonne" sind bei diesen Größenordnungen nichts anderes als Spielerei (in 2012: 92% fossil, 6% Wasserkraft; 2010: 15% Kernenergie).

Strahlenbelastung

Die UNSCEAR (United Nations Scientific Committee on the Effects of Atomic Radiation) ist auch in ihrem neuesten Untersuchungsbericht zu dem Schluß gekommen, daß weder eine erhöhte Rate an Krebserkrankungen noch an Erbschäden in Japan feststellbar ist. Es wird ausdrücklich betont, daß die Strahlenbelastung durch die schnelle und großzügige Evakuierung viel zu gering ist um Folgeschäden auszulösen. Im Mittel sind die Menschen im Raum Fukushima mit 10 mSv über ihr gesamtes Leben zusätzlich belastet, während allein die Hintergrundstrahlung in Japan rund 170 mSv über ein Menschenalter beträgt. Es sind überhaupt nur Schädigungen feststellbar, wenn kurzfristig eine Strahlenbelastung von über 100 mSv vorgelegen hat. Deshalb befinden sich 160 Mitarbeiter in einem Langzeit-Überwachungs-Programm. Bisher konnten auch in dieser Gruppe keine Veränderungen festgestellt werden.

Parallel läuft ein Überwachungsprogramm von 360 000 Kindern auf Veränderungen der Schilddrüse (Anmerkung: Gerade bei Kindern und Jugendlichen kann die Anreicherung von Jod-131 zu Wucherungen in der Schilddrüse führen.) Die dabei festgestellten Fälle, sind eher auf die genaueren Untersuchungsmethoden als durch eine Strahlenbelastung zurückzuführen. Eine Vergleichsgruppe unbelasteter Kinder ist nicht vorhanden. Interessant wird eher die Zahl der "Krebstoten" nach Abschluss dieser Studie sein. Erfahrungsgemäß wird sie geringer als der japanische Durchschnitt werden, da durch die begleitende Überwachung "Krebs" früher erkannt und besser behandelt werden kann.

Ein, zumindest zwiespältiges, Ergebnis brachten die Evakuierungen mit sich: Innerhalb kurzer Zeit wurden 78 000 Menschen aus dem 20km-Radius ausgesiedelt. Weitere Menschen wurden aus dem 20 bis 30 km Radius in Schutzräume untergebracht.

Strahlenphobie tötet

In dem 20km-Radius um das Kraftwerk befanden sich acht Krankenhäuser und 17 Pflegeheime, in denen sich zum Zeitpunkt des Unglücks 1240 Patienten bzw. 940 Pflegefälle befanden.

Unmittelbar nach dem Tsunami wurde eine Evakuierung im 2km-Radius angeordnet. Am nächsten Morgen wurde der Radius auf 10 km ausgeweitet. Am Nachmittag ordnete die Regierung eine Ausweitung auf 20km an. Am Abend des zweiten Tags nach dem Tsunami stellte man fest, daß sich noch 840 Patienten in den Krankenhäusern und Pflegeheimen befanden. Die Regierung ordnete noch am späten Abend eine Notevakuierung an. Am folgenden Morgen begannen völlig panische und chaotische Transporte: Schwerkranke wurden ohne Begleitung durch medizinisches Personal in normale Fahrzeuge verfrachtet. Bettlägerige Patienten wurden teilweise schwer verletzt, weil sie während der Fahrt von den Sitzen rutschten. 27 Patienten mit Nierenversagen und Schlaganfällen wurden auf einen Transport ins 100km entfernte Iwaki verschickt. Zehn verstarben noch auf dem Transport. Insgesamt sollen 50 Patienten während oder kurz nach der Evakuierung verstorben sein. Todesursachen: Unterkühlung, Dehydration und drastische Verschlimmerung der vorhandenen medizinischen Probleme.

Das alles geschah, weil (einige) Menschen völlig absurde Vorstellungen von der Wirkung ionisierender Strahlung haben. Über Jahrzehnte systematisch aufgehetzt von Betroffenheits-Organisationen vom Schlage Greenpeace. Organisationen und Einzelpersonen ("Atomexperte"), die es zu ihrem persönlichen Geschäftsmodell gemacht haben, andere Menschen in Furcht und Schrecken zu versetzen. Wir sind es den Opfern schuldig, diesem Treiben wesentlich entschiedener entgegenzutreten. Das sind nicht die netten-jungen-Leute-die-immer-die-Waale-schützen, sondern straff geführte Unternehmen mit Millionenumsätzen. Aufklärung beginnt immer im persönlichen Umfeld. Jede Spende weniger, bereitet dem Spuk ein baldiges Ende. Wenn sich das Geschäftsmodell "Strahlenangst" erledigt hat, werden sich diese Typen schneller als gedacht lukrativeren Tätigkeiten zuwenden.

Dr. Klaus-Dieter Humpich

Der Beitrag erschien zuerst bei Nukeklaus hier




Sommer 2014 in Deutschland: Ungewöhnlich nass und schwül, zu heiß oder doch eher normal?

Anhand amtlicher Messwerte zeigt sich: Der Sommer 2014 war zwar deutlich zu nass, wies aber bei weitem nicht überall rekordverdächtige Niederschlagsmengen auf. Trotz des vielen Regens erreichte die Sonnenscheindauer im Juni/Juli vielerorts ihr langjähriges Mittel oder überschritt es sogar leicht, und der Juni fiel in den meisten Gebieten sogar zu trocken aus. Ein geringfügig zu warmer Juni, ein angenehm warmer Juli und ein zu kalter August bescherten uns einen insgesamt fast temperaturnormalen Sommer. Der Nordosten Deutschlands bekam mehr Wärme ab als der Südwesten, was neben der Nässe als Besonderheit auffiel. Bliebe noch zu klären, wie sich die Sommertemperaturen in naher Zukunft entwickeln könnten.

Bild rechts: Zeitiger Herbst- Kühle sorgte schon Mitte August 2014 stellenweise für den Beginn der Laubfärbung. Quelle: lubera.com

Doch nun der Reihe nach: Anfang Juni trat zu Pfingsten eine erste Hitzewelle auf, danach setzte sich jedoch zunehmend wechselhaftes, kühles Wetter mit Höchsttemperaturen teils unter 20°C und gelegentlichen, aber meist wenig ergiebigen Niederschlägen durch. Erst Anfang Juli gab es eine erneute Hitzewelle, doch schnell kamen heftige Regenfälle und Gewitter auf, und in Südwestdeutschland kühlte es sich vorübergehend auf herbstliche Temperaturen ab. Bis zum 10. August dominierte dann eine schwül- warme Witterung, dabei war es im Nordosten und an den Küsten am freundlichsten und am trockensten. Nach dem 10. August beendete sehr windiges, überall wechselhaftes und oft herbstlich kühles Wetter den Hochsommer vorfristig. Nach diesem kurzen Rückblick wollen wir einmal die häufigsten, immer wieder geäußerten Behauptungen über den Sommer 2014 kritisch beleuchten.

Erste Behauptung: „Der Sommer war extrem nass und völlig verregnet.“

Die erste Grafik zeigt den Verlauf der sommerlichen Niederschlagssummen an der Station Potsdam (Datenquelle: PIK) seit 1893. Der Wert für 2014 ist geschätzt, weil zu Redaktionsschluss dieses Beitrages zwar die Juni- und Juliwerte vorlagen, aber der Augustwert noch fehlte. Zur Sicherheit wurde der August- Wert reichlich unter Berücksichtigung der bis zum 26. August vorliegenden Werte geschätzt:

Grafik 1: Der sehr regenreiche Sommer 2014 gehörte in Potsdam mit etwa 270 mm nicht zu den 15 nassesten Sommern seit 1893 (Roter Pfeil). Es gab aber auch niederschlagsreichere Orte, beispielsweise Erfurt (etwa 400 mm), doch liegen für diese Stationen meist keine über 100- jährigen Messreihen vor, was eine Langfristbetrachtung erschwert (in Thüringen fielen jedoch in fernerer Vergangenheit die Sommer 1910, 1924, 1926, 1927, 1954, 1956 und 1966 ebenfalls sehr nass aus).

In Potsdam schien außerdem die Sonne im Juli mit etwa 278 Stunden und im Juni mit über 230 Stunden überdurchschnittlich lange. Der August fiel meist etwas zu sonnenscheinarm aus, so dass der Sommer insgesamt sein Sonnenschein- Soll gut erfüllte, im Nordosten auch übererfüllte, nur der Südwesten war stellenweise zu sonnenscheinarm. Ein „verregneter“ Sommer wäre viel sonnenscheinärmer; so etwa 1927, 1954, 1955 und 1956, die auch allesamt sehr nass waren und daher als „verregnet“ gelten können. An den Küsten zeigte sich das Tourismusgewerbe mit dem Sommer 2014 sehr zufrieden, und auch die meisten Schwimmbäder wurden zumindest zwischen Anfang Juli und Mitte August gut besucht, im Süden war meist schon Anfang des Monats Schluss. So meldete die Stadt Aalen Ende August für diesen Sommer 30% weniger Besucher im Vergleich zum Schnitt der letzten 10 Jahre.

Zweite Behauptung: „Im Sommer 2014 gab es ungewöhnlich viele Gewitter. Das ist eine mögliche, erste Folge des Klimawandels, weil die Atmosphäre immer mehr Energie enthält.“

Anhand der Gewittertage wird klar, dass nur der Juli in diesem Sommer sehr gewitterreich war. In Potsdam gewitterte es an 12 Juli- Tagen, fast doppelt so häufig, wie im langjährigen Mittel von 6,3 Tagen. Der Rekord von 16 Tagen (Juli 1914) bleibt aber unerreicht. Der Juni traf mit 6 Tagen praktisch das langjährige Mittel von 5,7 Tagen, und auch der August, dessen Werte noch nicht vorliegen, verlief eher durchschnittlich. Besonders interessant ist jedoch die langfristige Entwicklung der Häufigkeit der sommerlichen Gewittertage (zweite Grafik):

Grafik 2: Eine Zunahme der Häufigkeit von Gewittertagen im Sommer ist nicht erkennbar- im Gegenteil!

Der Sommer 2014 wird sich mit etwa 20 bis 26 Gewittertagen in Potsdam knapp hinter der Spitzengruppe einordnen. Diese Werte lassen sich nicht einfach auf ganz Deutschland übertragen. Sie zeigen aber, dass der Sommer 2014 nicht rekordverdächtig gewitterreich war. Bisher fehlt außerdem eine langfristige Gewitterzunahme, die auf einen „Klimawandel“ hindeuten könnte.

Dritte Behauptung: „Die geradezu monsunartigen Starkregenfälle bei der großen Schwüle des Sommers 2014 sind ein Hinweis, dass unsere Sommer immer heißer und feuchter werden.“

Diese Behauptung gehört eindeutig unter die Rubrik „Wie’s gerade passt!“, denn vor noch gar nicht langer Zeit, so im heißen, trockenen Sommer 2003 und im heißen Juli 2006, wurde stets behauptet, es werde „wegen des Klimawandels“ immer heißere und trockenere Sommer geben. Was tatsächlich mit den Niederschlägen und den Sommertemperaturen in Potsdam geschah, zeigt die dritte Grafik:

Grafik 3: Niederschlag (blau, unten), Sommermittel der Lufttemperatur für Potsdam (gelblich) und die AMO- Werte (eine Schwankung der Wassertemperaturen im Nordatlantik (grün, ganz oben). Beim Niederschlag ist keine langfristige Zunahme erkennbar, wohl aber bei den Lufttemperatur- und AMO- Werten, die außerdem einer fünfzig- bis siebzigjährigen Rhythmik unterliegen und um das Jahr 2000 ihr Maximum hatten. Das Ende des etwa 210- jährigen Hauptsonnenzyklus im Jahr 2003, nach welchem ein Rückgang der Temperaturwerte einsetzte, wurde markiert (roter Pfeil und rotes Kreuz).

Eine Abbildung aus der Arbeit von Christian-D. Schönwiese & Silke Trömel „Langzeitänderungen des Niederschlags in Deutschland“, Quelle http://www.climateservice-center.de/imperia/md/content/csc/warnsignalklima/Warnsignal_Klima_Kap3.1_3.1.6_ Scho__nwiese.pdf. bei der aus allen Deutschen Stationen ein „Deutschland- Mittel“ für den Sommer (J, J, A) errechnet wurde, zeigt folgenden Niederschlagstrend:

Grafik 4: Bislang ist deutschlandweit kein eindeutiger Trend einer sommerlichen Niederschlagszunahme oder -abnahme zu erkennen.

Also fehlen eindeutige Anzeichen für immer feuchtere Sommer. Leider wird das von den Medien ebenso wenig zur Kenntnis genommen wie die Tatsache, dass einzelne, heiße Sommer oder Sommermonate kein Hinweis auf den „Klimawandel“ sind. Die wohl schönste journalistische Stilblüte stammt von der ARD aus dem Hitze- Juli 2006, als ein Nachrichtensprecher am 20. Juli ankündigte: „Zur Hitze bringt das Erste einen Brennpunkt gleich nach der Tagesschau.“ Völlig unsinnigerweise sprach man damals auch vom „Sahara- Sommer“, ohne sich darüber im Klaren zu sein, dass in der Sahara um über 10°C höhere Juli- Mittel auftreten, als im deutschen Rekord- Juli- von 2006 mit seinen nur 22°C! Siehe „DIE WELT“ vom 20.07.2006 unter http://www.welt.de/vermischtes/article230960/Sahara-Sommer-Hitzerekord-in-Sachsen-Anhalt.html .

Und zum Sommer 2014 sei noch angemerkt, dass die schwüle, gewittrige Phase mit kurzen Unterbrechungen nur knappe 6 Wochen, nämlich vom 4. Juli bis zum 10. August, dauerte. Momentan ist das sommerliche Temperaturniveau noch recht hoch, aber mit der weiter nachlassenden Sonnenaktivität und fallenden AMO- Werten (die aktuelle AMO- Warmphase geht ihrem Ende entgegen) werden sich auch die deutschen Sommer eher etwas abkühlen. Wir sind schon gespannt darauf, wie der irgendwann kommende, nächste kühle Sommer im Sinne des „Klimawandels“ interpretiert wird!

Vierte Behauptung: „Die Klimaerwärmung nimmt weiter zu. Grund ist die Zunahme des Treibhausgases Kohlendioxid.“

Wem von den EIKE-Lesern noch nicht bekannt war, dass die Jahrestemperaturen Deutschlands bereits vor der Jahrtausendwende einen abnehmenden Trend genommen haben, dem sei folgende Grafik nochmals in Erinnerung gerufen:

Grafik 5: Richtig ist: Die CO2 Konzentrationen nehmen weiter zu (kleine eingeblendete Grafik links unten), trotzdem sind die Jahrestemperaturen seit 1997 im Sinken. Somit nimmt die Klimaerwärmung nicht weiter zu, denn seit 17 Jahren wird es kälter. Diese Grafik zeigt deutlich, dass mehr CO2 keinesfalls zu einer weiteren Erwärmung führt. (Alle Temperaturangaben sind Originalwerte des Deutschen Wetterdienstes in Offenbach)

In früheren Artikeln haben wir – Leistenschneider, Kämpfe, Kowatsch- berichtet, dass die Wintertemperaturen den anderen Jahreszeiten vorauseilen. Denn bereits seit 25 Jahren haben die drei Wintermonate einen fallenden Temperaturtrend. Siehe http://www.eike-klima-energie.eu/news-cache/die-winter-werden-in-deutschland-seit-einem-vierteljahrhundert-deutlich-kaelter/ Wie verhalten sich nun die drei Sommermonate Juni/Juli/August? Fangen wir bei den Temperaturbetrachtungen im Folgenden mit den einzelnen Monaten im Vergleich zum Jahresschnitt an und enden dann mit der Gesamtbetrachtung der drei Monate.

Dass der Übergang zum sommerlichen Abkühlungstrend auch bereits begonnen hat, wollen wir im Folgenden näher beleuchten.

Der Monat Juni- der erste Sommermonat

1998 war weltweit das wärmste Jahr und in Deutschland war es das Jahr 2000. Betrachten wir den ersten Sommermonat Juni seit 1998, dann stellen wir fest, dass mit 16,5°C zu 16,1°C kein großer Unterschied erkennbar ist. Dieser Juni 2014 war lediglich etwas kälter als der Juni 1998. Der deutlich wärmste Juni liegt 11 Jahre zurück und war im Jahre 2003. Davor und danach blieben die Juni-Temperaturen etwa gleich. Die Trendlinie für den Juni ist trotzdem leicht fallend in diesem Zeitraum, da 2003 noch zur ersten Hälfte der Grafik zählt.

Grafik 6: Der Juni zeigt eine leicht fallende Trendlinie, obwohl die CO2-Konzentration über den ganzen Zeitraum gestiegen ist.

Der Hochsommermonat Juli – wird immer noch wärmer

Die meisten Menschen verbinden den Juli mit dem eigentlichen Sommer. Und da werden sie vom Gefühl nicht getäuscht. Die Jahreshitzerekorde, also der wärmste Tag des Jahres eines Ortes, liegen überwiegend im Juli. Auch im Juli 2014 wurden bei vielen Klimastationen in den Städten neue Wärmerekorde erzielt. Der Monat Juli hat sich in Deutschland in den letzten Jahren zum eigentlichen Hochsommermonat entwickelt.

Grafik 7: Im Gegensatz zum Juni ist die lineare Trendlinie beim Juli immer noch steigend. Der wärmste Juli in diesem Zeitraum seit 1998 war auch nicht 2003, sondern der Juli 2006.

Auch der Juli 2014 war mit seinem Gesamtschnitt von 19,2°C der heißeste Monat des Jahres. Vor allem in den Städten gab es neue Temperaturrekorde, was natürlich nicht auf steigende CO2- Gehalte zurückzuführen ist. Nur zufällig ähnelt die Entwicklung der Juli- Temperaturen denen der CO2- Konzentration (Schein- oder Nonsens- Korrelation). Dass der Juli vor allem in den Städten noch wärmer wird, ist eher auf die zunehmende Ausuferung der Bebauung zurückzuführen, siehe unsere Beiträge bei EIKE zum zunehmenden flächenhaften Wärmeinseleffekt, unter anderem beim EIKE hier oder hier.

Unsere Aussagen zur überwiegend nur in den Städten erfolgenden Erwärmung wurden auch durch neueste Veröffentlichungen in den USA bestätigt: hier bei WUWT.

Vor allem werden die Frischluftschneisen der Städte bereits außerhalb verbaut, so dass beispielsweise das Isartal, welches München bislang stets zuverlässig auch im Sommer aus den Alpen mit kühlender Luft versorgt hat, die Landeshauptstadt Bayerns immer weniger erreicht und die nächtliche Abkühlung bereits vor den Toren Münchens aufgezehrt ist.

Der August – deutlich fallende Temperaturtendenz.

Der Monat August passt sich deutlich der fallenden Jahrestendenz, siehe lineare Trendlinie bei Grafik 5, an und übertrifft diese sogar. Vor allem die zweite Monatshälfte zeigt mittlerweile deutlich den Übergang in den Herbst, oftmals beginnt schon die Laubfärbung. So auch in Weimar 2014, als sich um den 20. August schon die ersten Ebereschen oder der Wilde Wein zu färben begannen und bei empfindlicher Morgenkühle zwischen 4 und 7°C die ersten Passanten eine Mütze trugen. Die kleine, in den Grafiken 8a und b eingeblendete Entwicklung der C02-Konzentationen von Stefan Kämpfe zeigt für den August deutlich die gegenläufige Korrelation von CO2 und Augusttemperaturen und beweist einmal mehr, dass Kohlendioxid keinen oder fast keinen Einfluss auf die Temperaturen in Deutschland und auch global, hat.

Grafik 8a: Die Augustmonate zeigen eine deutlich fallende Temperaturtendenz im Gegensatz zur steigenden CO2-Kurve (siehe eingeblendete kleine Grafik). Der August ist seit einigen Jahren nicht mehr der wärmste Monat des Jahres.

Bemerkenswert ist aber, dass die Abkühlungstendenz nicht erst kurz vor der Jahrtausendwende beginnt, sondern ähnlich wie die der Wintertemperaturen bereits vor 25 Jahren eingesetzt hat. Der Sommermonat August wird also seit 25 Jahren bereits kälter. Das zeigt uns die nächste Grafik 8b:

Grafik 8b: Der Monat August hat bereits seit 25 Jahren eine fallende Trendlinie. In der 2.ten Augusthälfte kündigt sich oftmals bereits der Herbst mit kalten Nächten an. Der August 2014 war geradezu ein Beweis dieser Tendenz. (Wir gehen davon aus, dass die vorläufigen 16C vom August 14 noch nach unten korrigiert werden.)

Aufgrund dieser Grafiken, alle basierend auf den Daten des Deutschen Wetterdienstes (DWD) in Offenbach, ergibt sich für den Sommer in Deutschland eine einfache Grundaussage:

  1. Der Monat Juni zeigt ein leichte Tendenz zu kälter

  2. Der Monat Juli hat immer noch eine deutlich steigende Temperaturtrendlinie

  3. Der August hat eine fallende Trendlinie schon seit 25 Jahren.

Auch durch das Temperaturverhalten der drei Sommermonate wird also das immer noch propagierte Märchen von der ewigen Klimaerwärmung aufgrund zunehmender anthropogener CO2-Konzentration nicht bestätigt.

In der Zusammenschau aller drei Sommermonate zur Jahreszeit Sommer ergibt sich für Deutschland:

Der Sommer in Deutschland zeigt keinen signifikanten Temperaturtrend. Die lineare Trendlinie ist nahezu ausgeglichen. Der wärmste Sommer war im Jahre 2003. An der polynomischen Trendlinie ist aber zu erahnen, dass auch der sommerliche Abkühlungstrend bereits begonnen hat. In der freien Fläche, weitab der Wärmezonen der menschlichen Ansiedlungen, ist dies bereits Fakt. Wenn man berücksichtigt, dass die Sonne, der wesentliche Taktgeber des Klimas, immer inaktiver wird (der gegenwärtige Sonnenfleckenzyklus Nr. 24 ist der schwächste seit fast 200 Jahren), so ist bei der von den meisten Astrophysikern prognostizierten solaren Inaktivität eher eine mehr oder weniger deutliche Abkühlung aller Jahreszeiten in Deutschland zu erwarten. Näheres zur Sonnenaktivität unter anderem in dem aktuellen EIKE- Beitrag „Ist es doch die Sonne?“ unter http://www.eike-klima-energie.eu/news-cache/ist-es-doch-die-sonne/ Freilich sind solche Vorhersagen immer mit großen Unsicherheiten behaftet, und selbst wenn es sich abkühlen sollte, so wird es auch in Zukunft noch heiße Sommer geben, wenngleich seltener, als in der jüngsten Vergangenheit.

In der letzten Grafik sind die Temperaturen der drei Sommermonate zur Jahreszeit „Sommer“ zusammengefasst.

Grafik 9: Die polynomische Trendlinie zeigt, dass auch der Sommer –ähnlich wie die Gesamtjahre in Grafik 5 – allmählich in eine Abkühlungsphase übergeht. In den unbebauten, naturnahen Flächen Deutschlands, außerhalb der Wärmeinseln der Bebauung, ist diese Abkühlungsphase bereits deutlicher zu beobachten.

Gesamtergebnis: Der Sommer 2014 in Deutschland war eher normal, er zeigte allerdings mit der deutlichen Abkühlung ab Mitte August schon verfrüht herbstliche Züge.

Josef Kowatsch, Hüttlingen

Stefan Kämpfe, Weimar




Deutschlands teures Vabanquespiel mit Erneuerbarer Energie

Auf der Stromautobahn, wie sie offiziell genannt wird, werden keine Audis oder BMWs fahren, sondern Hochspannungsstrom über Hunderte Kilometer durch Aluminium- und Stahlkabel, die sich von der Nordsee bis zu Deutschlands wichtigstem Industriegebiet im Süden erstreckt.

Das Projekt ist der Dreh- und Angelpunkt der deutschen Energiewende, einem Billionen Euro teuren Mammutplan, dem Land bis zur Mitte dieses Jahrhunderts den Verbrauch von Kernkraft und fossilen Treibstoffen abzugewöhnen. Er steht in der heimischen Prioritätenliste von Kanzlerin Angela Merkel an oberster Stelle.

Aber viele Unternehmen, Ökonomen und selbst die Nachbarn Deutschlands befürchten, dass die enormen Kosten, ein bis vor kurzem reibungslos funktionierendes System auszutauschen, die industrielle Basis des Landes unterminieren wird und sich negativ auf die gesamte Wirtschaft Europas auswirkt. Der Rückgang des deutschen BIP im zweiten Quartal dieses Jahres um 0,6%, über den wir kürzlich berichtet haben, verpasste dem Wachstum in der Eurozone einen Dämpfer und hinterließ einen stagnierenden Verlauf im Quartal. 

Die mittleren Strompreise für Unternehmen sind während der letzten fünf Jahre in die Höhe geschnellt, und zwar wegen der Kosten, die als Teil der Regierungs-Subventionen an die Erzeuger erneuerbarer Energie an die Kunden weitergereicht worden sind. Die Preise liegen jetzt mehr als doppelt so hoch wie in den USA. „Die deutsche Industrie wird allmählich ihre Wettbewerbsfähigkeit verlieren, falls dieser Trend nicht bald umgekehrt wird“, sagte Kurt Bock, leitender Direktor von BASF SE, dem weltgrößten Chemieunternehmen.

Weiterlesen bei Wallstreet Journal Deutschland hier




Ein aufreibendes Klima

Bild rechts: Der Wissenschaftler Murry Salby argumentiert, dass ein Schlüsselfaktor hinter steigenden Temperaturen der Wärmeaustausch zwischen Atmosphäre und Ozean ist. Bild: Edward Frazer/Corbis

Und doch weisen hoch ausgezeichnete Wissenschaftler einschließlich des Physik-Nobelpreis-Gewinners Ivar Giaever zurück, was unter der Bezeichnung „Klimakonsens“ bekannt ist. Giaever ist aus der American Physical Society ausgetreten aus Protest gegen das Statement dieses Vereins, dass die Beweise für die globale Erwärmung „unwiderlegbar“ seien und dass die Regierungen sofort handeln müssten, um die Treibhausgas-Emissionen zu reduzieren. Sechzehn angesehene Wissenschaftler unterzeichneten im Jahr 2012 einen Artikel im Wall Street Journal, in dem sie argumentierten, dass die Durchführung drastischer Maßnahmen, um die Weltwirtschaft zu „dekarbonisieren“, durch die beobachteten wissenschaftlichen Beweise nicht gerechtfertigt war – zumal dieser Vorgang erhebliche Auswirkungen auf das Wirtschaftswachstum und die Lebensqualität haben würde, vor allem in Entwicklungsländern. Und genau wie Giaever stellten sie einen Klimakonsens in Abrede – und auch das unwissenschaftliche Abwürgen von Untersuchungen und die Marginalisierung von Abweichlern als „Ketzer“. Erst vor kurzem hat sich der berühmte Klimawissenschaftler Lennart Bengtsson von seinem Posten in einer klimaskeptischen Denkfabrik zurückgezogen, nachdem er hunderte wütender E-Mails von anderen Wissenschaftlern bekommen hatte. Er bezeichnete den Druck als „nahezu untragbar“.

Ein anderer Abweichler, der amerikanische Atmosphärenphysiker Murry Salby, hat eine grundlegende Analyse durchgeführt, die wesentliche Hypothesen der AGW-Sichtweise unterminiert. Seine Arbeit und deren Aufnahme illustrieren, wie wenig „settled“ die Klimawissenschaft bleibt – und wie bestimmt AGW-Befürworter einen Konsens erzwingen wollen zu einer der großen Fragen unserer Zeit.

Im April 2013 wollte Salby nach einer Vortragsreise seiner Arbeiten durch Europa vom Pariser Flughafen Charles de Gaulle nach Australien zurückfliegen, wo er ein Professor der Klimawissenschaft an der Macquarie University war. Er musste zu seinem Verdruss erfahren, dass die Universität sein nicht ersetzbares Rückflugticket annulliert hatte. Während Salby also in Paris gestrandet war, hat man bei Macquarie rasch ein Verfahren wegen Fehlverhaltens gegen ihn eingeleitet, das schnell zu seinem Rauswurf führte. Die Universität behauptete, dass sie Salby nicht wegen seiner Ansichten zum Klima gekündigt hatte, sondern weil er nicht „seine akademischen Verpflichtungen erfüllt hatte einschließlich seines Lehrauftrags“, und weil er „gegen die Universitätsordnung verstoßen hatte hinsichtlich seiner Reise und dem Gebrauch von Mitteln der Universität“.

Salby und seine Unterstützer können die Behauptungen der Hochschule kaum glauben. Salbys Gegner verweisen auf Berichte einer Untersuchung durch die National Science Foundation NSF gegen ihn mit dem Vorwurf ethischer Ungehörigkeit – Behauptungen, die auf einem Anti-Klimaskeptiker-Blog aufgetaucht waren, zusammen mit Gerichtspapieren in Bezug auf seine Scheidung. Salby lag tatsächlich im Konflikt mit der NSF – die Organisation verbot ihm für drei Jahre die Annahme von Forschungsgeldern, obwohl er als Dozent in Australien dazu gar nicht berechtigt war – und mit der University of Colorado, wo er zuvor gelehrt hatte und in einem Jahrzehnte langen Disput mit einem anderen Akademiker lag. Einmal hat die NSF das Verschwinden von 100.000 Dollar Forschungsgelder für Salby untersucht, die nach der Untersuchung an Salbys Gruppe zurückgeflossen waren. Wie auch immer, bei all diesen Dingen ging es um bürokratisches Klein-Klein. Sie haben keinen Bezug zu seiner Wissenschaft. Und Salby hatte sich als Wissenschaftler hohe Verdienste erworben. Er war ursprünglich Ausbilder als Luft- und Raumfahrtingenieur, bevor er zur Atmosphärenphysik wechselte und eine hoch geachtete Karriere durchlief. Er lehrte an der Georgia Tech, Princeton, Hebrew und Stockholm Universities, bevor er an die University of Colorado wechselte. Und er war involviert als Begutachter in den ersten beiden IPCC-Zustandsberichten.

Ende der neunziger Jahre begann Salby ein Projekt mit dem Ziel der Analyse von Änderungen des atmosphärischen Ozons. Seine Forschungen ergaben Beweise für eine systematische Erholung des Ozons, was die Wissenschaft hinter dem Montreal-Protokoll von 1987 validierte, dem zufolge spezielle Schritte unternommen werden sollten, Ozon zerstörende Gase zu verbannen. Mit der Vorbereitung zum Verfassen eines Lehrbuches für Studenten mit dem Titel Physics of the Atmosphere and Climate, das später von Cambridge University Press veröffentlicht worden und von einem Begutachter als „unerreicht in Breite, Tiefe und Klarheit“ gelobt worden ist, hat Salby dann eine methodische Untersuchung von AGW durchgeführt. Deren Ergebnis hat ihn „absolut überrascht“.

Die meisten AGW-Diskussionen drehen sich um die klimatischen Auswirkungen eines steigenden Gehalts von Kohlendioxid in der Atmosphäre. Wie es dorthin überhaupt gekommen war – die Hypothese ging davon aus, dass die Zunahme zum allergrößten Teil durch menschliche Aktivitäten ausgelöst worden ist – wird oft als gegeben hingenommen. Und doch glaubte Salby, dass er klare Beweise dafür entdeckt hatte, dass dies nicht der Fall war, und seine Europareise diente dazu, diesen Fall öffentlich vorzutragen.

Das IPCC schätzt, dass die Menschen seit der Industriellen Revolution 365 Milliarden Tonnen Kohlenstoff durch das verbrennen fossiler Treibstoffe in die Atmosphäre eingebracht haben. Jährliche Emissionen einschließlich jener aus Entwaldung und Zementproduktion, betragen weniger als 9 Milliarden Tonnen. Und doch enthält der natürliche Kohlenstoffzyklus einen jährlichen Austausch von Kohlenstoff zwischen der Atmosphäre, dem Festland und dem Ozean, der viele Male größer ist als Emissionen durch menschliche Aktivitäten. Das IPCC schätzt, dass 118,7 Milliarden Kohlenstoff pro Jahr aus dem Festland und 78,4 Milliarden Tonnen aus den Ozeanen emittiert werden. Folglich beträgt der menschliche Beitrag von 9 Milliarden Tonnen pro Jahr weniger als 5% der Gesamt-Emissionen. Die AGW-Hypothese ebenso wie die davon abhängigen politischen Maßnahmen zur Klimaänderung gehen davon aus, dass die 5% menschlicher Beitrag die Gesamtänderung der CO2-Menge in der Atmosphäre treibt – und dass die anderen 95% aus natürlichen Emissionen ausgeglichen werden durch Absorption des atmosphärischen CO2 durch natürliche Prozesse. Alles in allem erklärte das IPCC in seinem 4. Zustandsbericht 2007: „Es ist bekannt, dass die Zunahme des atmosphärischen CO2-Gehaltes menschlichen Aktivitäten geschuldet ist“.

Salby verficht den Standpunkt, dass die IPCC-Behauptung nicht durch Beobachtungen gestützt wird. Das Verständnis der Wissenschaftler hinsichtlich der komplexen Klimadynamik ist unterentwickelt, nicht zuletzt weil die Wärmekapazität der Ozeane 1000 mal größer ist als die der Atmosphäre und relevante physikalische Beobachtungen der Ozeane so selten sind. Solange dieser Umstand nicht beseitigt ist, kann die Wissenschaft nicht ,settled‘ sein. Salby zufolge zeigen die Beweise in Wirklichkeit, dass die AGW zugrunde liegende Kausalität umgekehrt werden sollte. Anstatt dass ein steigender CO2-Gehalt in der Atmosphäre einen globalen Temperaturanstieg auslöst, steigen die Temperaturen zuerst – und sind die Ursache für die große Mehrheit der Änderungen der Gesamtemissionen von CO2, wobei Änderungen der Feuchtebedingungen im Erdboden für den Rest sorgen. Außerdem erklären diese beiden Faktoren Änderungen der Gesamt-Methanemissionen, dem zweitwichtigsten „menschlichen“ Treibhausgas. Hinsichtlich der Gründe für einen globalen Temperaturanstieg sagt Salby, dass einer der wichtigsten, die Temperatur beeinflussenden Faktoren der Wärmeaustausch zwischen Atmosphäre und Ozean ist.

Warum ist sich das IPCC so sicher, dass die 5 % menschlicher Beitrag verantwortlich sind für die jährliche Zunahme des CO2-Niveaus? Ohne andere mögliche Hypothesen auch nur in Erwägung zu ziehen argumentiert das IPCC, dass das Verhältnis von schweren zu leichten Kohlenstoffatomen in der Atmosphäre „sich in einer Art und Weise verändert hat, dass man die Zunahme des Kohlenstoffs fossilen Treibstoffen zuordnen kann“ – wobei leichter Kohlenstoff steigt. Fossile Treibstoffe wurden natürlich aus Pflanzen und Tieren gebildet, die vor hunderten Millionen Jahren lebten; das IPCC führt aus, dass CO2-Emissionen aus der Verbrennung fossiler Treibstoffe den Anteil schwerer Kohlenstoffatome in der Atmosphäre verringert, seit Pflanzen dazu tendieren, mehr leichten als schweren Kohlenstoff zu absorbieren. Aber Salby verweist auf viel größere natürliche Prozesse wie Emissionen aus der Verrottung von Pflanzen, die ebenfalls den Anteil schweren Kohlenstoffs reduzieren. Die Temperatur beeinflusst stark die Rate mikrobakterieller Aktivitäten, die bei diesen natürlichen Prozessen inhärent sind, und Salby schreibt, dass der Anteil von schwerem Kohlenstoff an den Emissionen zurückgeht, immer wenn es warm ist. Noch einmal, die Temperatur ist der wahrscheinlichere Grund für beobachtete atmosphärischen Änderungen, und nicht deren Auswirkungen.

Außerdem präsentiert Salby Satellitenbeobachtungen, die zeigen, dass sich die höchstens CO2-Niveaus nicht über industrialisierten Gebieten finden, sondern über dünn besiedelten und nicht industrialisierten Gebieten wie z. B. dem Amazonas. Und falls die menschlichen Emissionen hinter dem steigenden Niveau des CO2 stecken, argumentiert er, dann sollte die jährliche Änderung des CO2-Gehaltes die Haupt-Verbrennungsgebiete fossiler Treibstoffe abbilden – wobei die natürlichen CO2-Emissionen herausgefiltert werden durch Senken auf dem Festland und dem Ozean. Aber die jährlichen CO2-Änderungen folgen nicht den jährlichen CO2-Emissionen durch Verbrennung fossiler Treibstoffe, wie die Abbildung zeigt. Darin erkennt man, dass dass eine jährliche Zunahme von 1 ppm in etwa äquivalent ist mit einer jährlichen Wachstumsrate von 0,25%.

Während es von 1972 bis 1993 zu einer Zunahme der Emissionen aus fossilen Treibstoffen um 30% gekommen war, gab es keine Zunahme der jährlichen Gesamt-Emission – das heißt, natürliche plus menschliche Emissionen, weniger Re-Absorption in Kohlenstoff-Senken. Diese Daten, beobachtet Salby, sind inkonsistent mit der Behauptung des IPCC hinsichtlich der Gewissheit bzgl. des Menschen als Ursache des steigenden CO2-Niveaus in der Atmosphäre. Fast zwei Jahrzehnte lang hat sich das IPCC abgemüht, die große Variabilität der Gesamt-CO2-Emissionen von Jahr zu Jahr zu erklären (die gezackte untere Linie in der Abbildung). Verschiedene Gründe sind angeführt worden für die Verlangsamung der CO2-Zunahme, „aber keiner davon erklärt ausreichend dieses ungewöhnliche Verhalten des Kohlenstoff-Kreislaufes“, gibt das IPCC in seinem 3. Zustandsbericht zu.

Das IPCC fällt in seiner Unfähigkeit, die natürlichen Änderungen der CO2-Emissionen zu erklären, zurück auf seine Hypothese einer starken natürlichen Tendenz hin zu einem Gleichgewicht: mit der Zeit gleichen sich Emissionen und Absorptionen aus, was den Menschen als Verantwortlichen für das Ungleichgewicht in der Natur zurücklässt. Aber, wie Salby beobachtet, postuliert das IPCC diese Tendenz bloß ohne sie zu zeigen. Das Vertrauen des IPCC in die Zuordnung der Erwärmung zu menschlichen Aktivitäten ist folglich höchst fragwürdig – besonders, weil die Lufttemperaturen während der letzten eineinhalb Jahrzehnte nicht gestiegen sind, selbst trotz des stetig zunehmenden CO2-Gehaltes. Weiter: während die gemessene globale Temperatur im vorigen Jahrhundert nur um weniger als 1°C gestiegen ist, erfolgte dies nicht als stetige Erwärmung. Fast die gesamte Erwärmung im 20. Jahrhundert erfolgte in vier Jahrzehnten – ein Teil in den Jahren zwischen den Weltkriegen und ein Teil in den achtziger und neunziger Jahren – weniger als ein Drittel der gesamten Temperaturaufzeichnung.

Ginge es nicht um die Implikationen für AGW, wären Salbys Forschungen zum Kohlenstoff-Kreislauf ein Segen für die in Schwierigkeiten steckenden Bemühungen des IPCC, die Variabilität von Jahr zu Jahr der CO2-Emissionen zu erklären. Seine Arbeit bietet ein kohärentes Bild der Änderungen der Gesamtemissionen, wo die Änderungen eng Vorgaben einer Kombination von Temperatur und Bodenfeuchtigkeit folgen – was sowohl die niedrigen Gesamtemissionen Anfang der neunziger Jahre und den Spitzenwert im Jahre 1998 erklären kann. Salby betont auch, dass die Temperatur allein zum großen Teil verantwortlich sein kann für den Anstieg des atmosphärischen CO2 in der ersten Hälfte des 20. Jahrhunderts, wobei die Daten der Bodenfeuchtigkeit unzureichend sind. Die Gesamt-Methan-Emissionen folgen den natürlichen Bedingungen an der Oberfläche sogar noch enger.

Ein weiterer Punkt im Falle des IPCC war die Behauptung aufgrund von Aufzeichnungen des CO2-Gehaltes in Eisbohrkernen, dass das gegenwärtige CO2-Niveau beispiellos ist. Aber hier, stellt Salby fest, war die Lösung des im Eis eingeschlossenen CO2 – was zuvor ignoriert worden war – ein Vorgang, der das Bild prähistorischer Änderungen des atmosphärischen CO2-Gehaltes radikal verändert hat. Selbst eine nur geringe Lösung würde bedeuten, dass derartige Änderungen bis jetzt signifikant unterschätzt worden sind – und es würde auch implizieren, dass jüngste Änderungen des CO2-Gehaltes eben nicht beispiellos sind. Falls Salby recht hat, ist die unmissverständliche Behauptung des IPCC, dass das gegenwärtige CO2-Niveau das höchste seit mindestens 800.000 Jahren ist, nicht mehr haltbar.

Tatsächlich weist der jüngste IPCC-Bericht 2013 in die von Salby vorgegebene Richtung. Die Eisbohrkern-Aufzeichnungen des atmosphärischen CO2 zeigen „interessante Variationen“, heißt es darin, die mit klimainduzierten Änderungen des Kohlenstoff-Kreislaufes erklärt werden können. Der Bericht räumt auch zögernd ein, dass die 15-jährige Stagnation der CO2-Zunahme seit 1940 „möglicherweise“ verursacht worden ist durch leicht sinkende Temperaturen auf dem Festland der Nordhemisphäre.

Salby hat nicht im luftleeren Raum gearbeitet. Der schwedische Klimawissenschaftler Pehr Björnbom hat sein Ergebnis nachvollzogen, dass die Temperatur der Treiber von CO2-Emissionen ist. Der Geowissenschaftler Prof. Ole Humlum von der University of Oslo veröffentlichte im Jahre 2012 eine wegweisende Studie, in der er zeigte, dass Änderungen des CO2-Gehaltes Temperaturänderungen folgen, was den gleichen Effekt von Ursache und Wirkung zeigt. Richard Lindzen, ein Atmosphären-Physiker am MIT glaubt, dass Salby recht hat hinsichtlich des Unvermögens des IPCC, die Auswirkungen der Lösung im Eis aus Proxy-CO2-Aufzeichnungen zu evaluieren sowie hinsichtlich anderer Quellen leichten Kohlenstoffes als die Verbrennung fossiler Treibstoffe. Salby ist ein „ernsthafter Wissenschaftler“, dessen Argumente es verdient haben, angehört zu werden, sagt Lindzen. Fritz Vahrenholt, ehemals Direktor eines großen Erneuerbare-Energien-Unternehmens und gleichzeitig einer der führenden Klimaskeptiker Deutschlands, fand Salbys Analyse, dass CO2-Änderungen den Temperaturänderungen hinterher hinken, überzeugend. „Murry Salby öffnete eine Tür für mehr Untersuchungen und weitere wissenschaftliche Arbeit“, sagt Vahrenholt.

Wird die wissenschaftliche Gemeinschaft den von Salby aufgeworfenen Fragen nachgehen? Vahrenholt hat seine Zweifel. „AGW-Vertreter nehmen nicht an Diskussionen teil, in denen ihre orthodoxe Sichtweise herausgefordert wird“, beklagt er sich. Ein Weg, Untersuchungen zu blockieren, ist es sicherzustellen, dass Studien von Klimawissenschaftlern mit abweichenden Standpunkten nicht in der begutachteten Literatur erscheinen – ein Problem, mit dem Lindzen und Bengtsson konfrontiert waren. Tatsächlich ist das auch Salby widerfahren. Er reichte dem Journal of the Atmospheric Sciences eine Studie ein. Man fand keine Fehler – ein Begutachter nannte das „absolut erstaunlich“ – doch forderte das Journal eine kleine Überarbeitung. Bevor Salby die überarbeitete Studie zur Veröffentlichung erneut einreichen konnte, ist der Herausgeber eines anderen Journals, Remote Sensing zurückgetreten wegen der Veröffentlichung einer Studie, die von der IPCC-Position abgewichen war, und zwar mit der erbärmlichen Begründung: „Aus rein formaler Sicht gab es keine Fehler im Begutachtungs-Prozess. Aber so, wie die Dinge jetzt stehen, hat das Redakteursteam unabsichtlich drei Begutachter gewählt, die möglicherweise einige der skeptischen Ansichten der Autoren teilen“. Kurz danach hat Salby einen Brief erhalten, in dem seine überarbeitete Studie abgelehnt wurde aufgrund der Behauptung eines zweiten Begutachters, der im Widerspruch zum ersten Begutachter behauptet hatte, dass seine Studie nichts Neues zeige und dass alles darin bereits von den IPCC-Berichten abgedeckt war.

Salbys vorherige Ergebnisse führten ihn zu einer erweiterten Studie, in der er unter Anderem berechnete, dass die beobachtete Beziehung zwischen der globalen Temperatur und CO2 fundamental von der in den Modellen beschriebenen Beziehung abweicht. Seine Bemühungen zur Veröffentlichung der Studie endeten, zumindest vorläufig, mit seinem Rauswurf aus seiner akademischen Position bei Macquarie. Bis jetzt sind Salbys Klimaanalysen nur in vorläufiger Form in seinem begutachteten Buch erschienen, dass von Cambridge University Press veröffentlicht worden ist.

Es war keine Überraschung, dass auch danach der Konsens-Standpunkt zum Kohlenstoff-Kreislauf war, dass menschliche CO2-Emissionen „fast mit Sicherheit“ der dominante Faktor hinsichtlich der gegenwärtigen CO2-Konzentration seien. In einer Aktualisierung des Katechismus‘ zur globalen Erwärmung, durchgeführt in Zusammenarbeit von der National Academy of Sciences und der Royal Society, erklärten die beiden Gesellschaften: „Die fortgesetzten Emissionen dieser Gase werden zu einer weiteren Klimaänderung führen einschließlich einer substantiellen Zunahme der globalen mittleren Temperatur“.

Falls sie den Standards der wissenschaftlichen Revolution vor drei Jahrhunderten gefolgt wären, hätten die Akademien derartige definitive Behauptungen nicht aufstellen können. Der Astronom und Philosoph John Herschel forderte im 19.Jahrhundert, dass der Wissenschaftler die Rolle eines Antagonisten gegen seine eigenen Theorien einnehmen sollte; die Güte einer Theorie wurde ausschließlich belegt durch das Standhalten gegen solche Angriffe. Einstein begrüßte Versuche, die Theorie der Allgemeinen Relativität zu widerlegen: „Auch noch so viele Experimente können niemals beweisen, dass ich recht habe; aber ein einziges Experiment kann mich widerlegen“, sagte er einmal. Der Philosoph Karl Popper begründete dies einmal: Wir können in der Wissenschaft nicht sicher sein, was die Wahrheit ist, aber wir können in Erfahrung bringen, was falsch ist. Man nähert sich der Wahrheit nur durch Widerlegung dessen, was als falsch apostrophiert wird. Popper begründete das Prinzip der Falsifizierbarkeit, was die wissenschaftliche Theorie von den Pseudowissenschaften von Freud und Marx absetzte. Deren Jünger fanden Erhärtungen, wo auch immer sie hinschauten.

Das IPCC und andere führende wissenschaftliche Institutionen [ist das IPCC überhaupt eine solche? Anm. d. Übers.] scheinen ebenfalls einer vorwissenschaftlichen Denkweise anzuhängen: „Suche, und du wirst finden!“. Die Formulierungen „konsistent mit“ und „viele Beweislinien“ ziehen sich durch alle IPCC-Berichte. Der 5. Zustandsbericht, veröffentlicht 2013, zog sich ein wenig zurück aus der in früheren Berichten kolportierten Gewissheit, dass der menschliche Beitrag ausschlaggebend für den Gesamt-CO2-Gehalt war. Jetzt drückte das IPCC ein „sehr hohes Niveau von Sicherheit“ aus, das, so sagt es, „auf vielen Beweislinien basiert, die konsistent sind“ mit dieser Behauptung. Konsistenz mit einem Vorschlag ist Wissenschaft in schwacher Form – schließlich ist der Umstand, dass der Mond die Erde umkreist, konsistent mit der prä-kopernikanischen Astronomie – und eine Sache der Pseudowissenschaften, die Popper Anfang des 20. Jahrhunderts in Wien gefunden hatte. Zusätzlich zum Trachten nach Sicherheit gebenden Beweisen übernehmen die AGW-ler oftmals das wissenschaftliche Äquivalent von frage nicht, sage nichts, wenn es um Lücken in den wissenschaftlichen Erkenntnissen geht – vor allem, wenn es um jene Lücken geht, die, wenn man sie ausfüllt, ihre Position absehbar falsifizieren können. Das Paper der National Academy/Royal Society aus dem Jahr 2014 ignoriert vollständig die Frage der Variabilität der Gesamt-CO2-Emission von Jahr zu Jahr. Anstatt diese einer Überprüfung als Antagonisten á la Herschel zu unterziehen, wurden das IPCC und die nationalen Wissenschafts-Akademien zu dessen Cheerleaders.

Das National Academy/Royal Society-Paper besteht darauf, dass „die Klimaänderung eine der grundlegenden Themen unserer Zeit ist. Es ist auf der Grundlage vieler Beweislinien jetzt sicherer als je zuvor, dass die Menschen das Klima der Erde verändern … Allerdings ist wegen der Natur der Wissenschaft nicht jedes einzelne Detail jemals total settled oder absolut sicher“. Hinsichtlich des Kohlenstoff-Kreislaufes ist dies eine ernste Fehlinterpretation: Diese ist kein Detail, sondern fundamental für die wissenschaftliche Grundlage von AGW. Die Implikationen für AGW durch Salbys Analyse, falls diese Bestand hat, sind enorm: Falls AGW bedeutet, dass menschliche CO2-Emissionen signifikant die globalen Temperaturen verändern; oder stärker, dass sie die Entwicklung der globalen Temperatur steuern; oder noch stärker, dass sie die Temperaturen dazu bringen, katastrophal zuzunehmen, dann ist AGW durch das beobachtete Verhalten falsifiziert.

Sein 5. Zustandsbericht 2013 war des IPCC letzte große Chance, vor der Klimakonferenz in Paris im Dezember 2015 Abkündigungen zu machen. Trotz des leichten Rückzugs von der Position der menschlichen Rolle hinsichtlich des zunehmenden CO2 hat das IPCC sein Niveau von Sicherheit hinsichtlich der menschlichen Verantwortung der Temperaturzunahme noch angehoben – von 90 Prozent in früheren Berichten auf 95 Prozent jetzt, obwohl diese Zunahme großenteils das Ergebnis einer Änderung der Definition war. Die Autoren des Berichtes haben nichts dazu gesagt, warum es während der letzten Jahre keine Erwärmung gegeben hatte, und zwar mit der Begründung, dass zu diesem Thema noch nicht genug veröffentlicht worden sei. Dieser Mangel sollte für niemanden überraschend kommen, der mit dem Zustand der Klimawissenschaft vertraut ist.

Aufrichtige wissenschaftliche Untersuchungen werden degradiert, wenn die Wissenschaft politisiert wird. Die Standards, die seit der wissenschaftlichen Revolution in Kraft waren, stehen im Konflikt mit der notwendigen Befürwortung politischer Maßnahmen, und AGW wäre als Grundlage politischer Programme erledigt, falls das Vertrauen in den wissenschaftlichen Konsens unterminiert werden würde. Wenn dessen Befürworter rigorosen Falsifizierungs-Tests ausweichen, zeigt dies die Schwäche von AGW als Wissenschaft. Als akademischer Kritiker der Wissenschaft, auf der AGW beruht, kann Murry Salby vorerst zum Schweigen gebracht worden sein. Das beobachtete Verhalten der Natur, aus dem er seine Analyse ableitete, kann aber nicht so einfach beiseite geschoben werden.

Rupert Darwall is the author of The Age of Global Warming: A History, published by Quartet (2013).

Link: http://www.city-journal.org/2014/24_3_global-warming.html

Übersetzt von Chris Frey EIKE




Blackout gefällig?

Münsterland als Vorbote

Der letzte größere Blackout in Deutschland geschah am 28. November 2005 im Münsterland. Ein heftiger Schneefall brach über diese Gegend herein, der nasse Schnee klebte an den Stromleitungen und Masten, bis diese schließlich unter diesem Gewicht zusammenkrachten. In der Folge knickten weitere Masten unter der Schneelast, sodass ein großer Landstrich mit 250.000 Bewohnern ohne Strom war. Der Verkehr kam sofort zum Erliegen, aber auch die vielen Kühe dieser ländlichen Gegend konnten nicht zur gewohnten Zeit gemolken werden, was einen besonderen Stress für diese Tiere bedeutete. Das Technische Hilfswerk musste mit Notstromaggregaten ausrücken, um die Melkmaschinen in Gang zu setzen.
Wegen der umfangreichen Störungen im Verteilnetz, dauerte es über eine Woche, bis die Gegend wieder vollständig mit Strom versorgt werden konnte. Für Deutschland war ein so langer Stromausfall über lange Zeit eine Ausnahme. Der Schaden hielt sich jedoch in Grenzen, weil viel nachbarschaftliche Hilfe gewährt wurde und die umliegenden größeren Städte von diesem Blackout verschont blieben. 

Planspiele der Bundesregierung

Der Münsteraner Blackout war für die Bundesregierung der Anlass, ein Expertengremium darüber beraten zu lassen, was so alles bei einem wirklich großräumigen Stromausfall passieren könnte. 
Im Folgenden werden die Erkenntnisse dieser Fachleute stichpunktartig zusammengefasst:
– Die Festnetztelefone fallen sofort aus, die Mobiltelefone einige Tage später.
– Fernseher und Radio fallen sofort aus, sofern nicht batteriebetrieben.
– Alle Internetverbindungen sind gestört, weil die Router ausfallen.
– Der Schienenverkehr bricht sofort zusammen; Passagiere müssen aus Tunnels geborgen werden.
– Die Schranken der Tiefgaragen blockieren.
– Die Tankstellen fallen aus, da Pumpen nicht betriebsbereit.
– Alle Fahrstühle und Rolltreppen kommen abrupt zum Stillstand.
– Die gesamte Beleuchtung einschließlich der nächtlichen Straßenlaternen fällt aus.
– Alle Heizungen und Klimaanlagen fallen aus.
– Alle Industrie- und Handwerksbetriebe müssen die Arbeit einstellen.
– Das Trinkwasser fällt aus, weil die Pumpen ohne Strom sind.
– Die Abwasseranlage- und Toiletten funktionieren nicht mehr.
– Milchvieh, Schweine und Geflügel sind schon nach wenigen Stunden extrem gefährdet.
– Die Geschäfte müssen schließen, da Ladenkassen nicht funktionieren. 
– Die Lebensmittelversorgung bricht mangels Nachschub zusammen.
– Die Bankfilialen bleiben geschlossen, da die Geldautomaten nicht funktionieren. 
– In den Krankenhäusern kommen die OP- und Dialysestationen in große Schwierigkeiten.
– Die Polizei kann mangels Mobilität ihre Aufgaben nicht mehr erledigen.
– Die Kriminalität nimmt rasch zu.
– etc. etc. etc.
Die oben genannten Experten haben auch die volkswirtschaftlichen Kosten eines Blackouts berechnet. Sie kommen auf 10 Euro pro nicht gelieferter Kilowattstunde. Dazu ein Rechenbeispiel:
Nehmen wir an, im Spätherbst passiere in Deutschland flächendeckender Stromausfall. Zu dieser Jahreszeit würden etwa 70 Gigawatt, entsprechend 70 Millionen Kilowatt Leistung ausfallen. Dann gilt für 1Stunde Stromausfall folgende Rechnung: 70 Millionen kWh mal 10 Euro = 700 Millionen Euro. Für 10 Stunden wären wir bereits bei 7 Milliarden Euro angelangt; in einer knappen Woche bei 70 Milliarden Euro. Wahnsinnige volkswirtschaftliche Kosten!

Ursachen und deren Behebung

Sieht man von menschlichem Versagen ab, so können Blackouts vor allem als Folge eines Spannungskollapses passieren oder aus Netzüberlastung. Ersteres ist denkbar, wenn große Energiemengen über weite Entfernungen transportiert werden müssen. Dabei kann die Spannung auf unzulässig niedrige Werte fallen, sofern nicht ausreichend Blindleistung vorhanden ist. Das Absinken der Spannung lässt bei unverminderten Leistungsbedarf den Strom weiter ansteigen, was zu einer Spirale nach unten führt, falls nicht umgehend Verbraucher abgeschaltet werden. Die Überlastung kann eintreten, wenn beispielsweise im Norden Deutschlands viel Windstrom eingespeist wird, bei insgesamt niedrigem Verbrauch.
Nach einem Blackout – sofern keine Leitungsschäden vorhanden sind – gibt es meist noch Netzteile die unter Spannung stehen. An sie wird, Stück für Stück, das restliche Netz vorsichtig zugeschaltet. Sollte kein Netzabschnitt mehr unter Spannung stehen, so müssen Kraftwerke für eine schnelle Stromproduktion in Anspruch genommen werden. Häufig benutzt man "schwarzstartfähige" Kraftwerke, das sind Gasturbinen oder Wasserkraftwerke, die besondere Ausrüstungen dafür besitzen.
Bei der Restrukturierung eines Stromnetzes sind die regenerativen Erzeugungseinheiten, also Wind- und Sonnenstrom meist nicht hilfreich. Wegen ihrer volatilen Einspeisung liefern sie keinen kalkulierbaren Beitrag zum Netzaufbau. Das unkontrollierte Zuschalten von Erzeugungsleistung kann die Frequenz in einer instabilen Netzinsel erheblich beeinflussen. Wenn die dadurch verursachte Erhöhung der Frequenz die zulässigen Grenzen überschreitet, so resultieren daraus wieder 

Über den Autor

Willy Marth,, promovierte in Physik an der Technischen Hochschule in München und erhielt anschliessend ein Diplom in Betriebswirtschaft der Universität München. Ein Post-Doc-Aufenthalt in den USA vervollständigte seine Ausbildung. Am „Atomei“ FRM in Garching war er für den Aufbau der Bestrahlungseinrichtungen verantwortlich, am FR 2 in Karlsruhe für die Durchführung der Reaktorexperimente. Als Projektleiter wirkte er bei den beiden natriumgekühlten Kernkraftwerken KNK I und II, sowie bei der Entwicklung des Schnellen Brüter SNR 300 in Kalkar. Beim europäischen Brüter EFR war er als Executive Director zuständig für die gesamte Forschung an 12 Forschungszentren in Deutschland, Frankreich und Grossbritannien. Im Jahr 1994 wurde er als Finanzchef für verschiedene Stilllegungsprojekte berufen. Dabei handelte es sich um vier Reaktoren und Kernkraftwerke sowie um die Wiederaufarbeitungsanlage Karlsruhe, wo er für ein Jahresbudget von 300 Millionen Euro verantwortlich war.

Der Beitrag erschien zuerst hier auf dem Blog des Autors




Australisches Wetteramt der Manipulation von Temperaturaufzeichnungen angeklagt

Dr. Marohasy hat die Rohdaten von Dutzenden Messorten in ganz Australien analysiert und diese mit den neuen Daten des BOM verglichen, die eine fortschreitende Erwärmung zeigen. In vielen Fällen, sagt Dr. Marohasy, wurden die Temperaturtrends verändert, nämlich von gleichbleibend bis leicht kühler werdend hin zu einer dramatischen Erwärmung über 100 Jahre.

Das BOM hat die Behauptungen von Dr. Marohasy zurückgewiesen und gesagt, dass die Agentur mit den besten Verfahren der Welt und einem begutachteten Prozess die physikalischen Temperaturaufzeichnungen modifiziert hat, die an Wetterstationen im ganzen Land aufgezeichnet worden waren. Es sagte weiter, die Daten einer Auswahl von Wetterstationen wurden einem Prozess unterzogen, der unter der Bezeichnung „Homogenisierung“ bekannt ist, um Anomalien zu korrigieren. Es sei „sehr unwahrscheinlich“, dass die Homogenisierung der Daten Auswirkungen auf die empirischen Aussichten gehabt habe.

In einer Erklärung des BOM an The Weekend Australian heißt es: Die große Mehrheit der wissenschaftlichen Literatur stützt nicht die Ansicht, dass die Homogenisierung von Daten „die physikalische Wahrhaftigkeit in irgendeinem Klima-Datensatz verringert“.

Die historischen Daten sind aus einer großen Vielfalt von Gründen homogenisiert worden, die nicht mit Klima in Zusammenhang stehen. Darunter sind der gewählte Instrumententyp, Wahl der Kalibrierung oder unmittelbare Umgebung und genauer Ort. „Alle diese Elemente sind im Verlauf von 100 Jahren Gegenstand von Änderungen, und derartige nicht mit dem Klima in Zusammenhang stehende Änderungen müssen berücksichtigt werden, um aus den Daten eine verlässliche Analyse und das Monitoring von Trends zu ermöglichen“, sagte das BOM.

In Betracht gezogen wurden auch Temperaturaufzeichnungen benachbarter Stationen. Die Bearbeitung der Klimaaufzeichnung erforderte „sehr viel Sorgfalt und Verständnis für die Bedeutung wissenschaftlicher Integrität“.

Dr. Marohasy hat gesagt, dass sie Beispiele gefunden habe, bei denen es keine Änderungen hinsichtlich der Ausstattung mit Instrumenten oder der Umgebung und keine Inkonsistenzen mit benachbarten Stationen gegeben habe. Aber trotzdem wiesen diese Stationen nach der Homogenisierung eine dramatische Trendänderung hin zu Erwärmung auf.

Sie führte als Beispiel die Station Amberley in Queensland an. Dort resultierte die Homogenisierung in einer Änderung des Temperaturtrends von Abkühlung zu dramatischer Erwärmung.

Sie berechnete, dass die Homogenisierung in Amberley aus einem Abkühlungstrend von 1°C pro Jahrhundert einen Erwärmungstrend von 2,5°C gemacht habe. Und dies, obwohl es an dieser Station keinerlei Änderungen der Örtlichkeit oder der Instrumentierung gegeben hatte.

Full story

Link: http://www.thegwpf.org/australian-met-office-accused-of-manipulating-temperature-records/

Übersetzt von Chris Frey EIKE

Anmerkung der Redaktion:

Zu den potentiellen Folgen einer starken Homogenisierung wie sie in diesem Falle anscheinend vorliegt siehe auch diesen Bericht 




Was war tödlich in Fukushima?

In Übereinstimmung mit Three Miles Island, scheint es in Fukushima keine von Strahlung verursachte Todesfälle gegeben zu haben; sogar in Tchernobyl war die nachweisbare Todesrate durch Strahlung klein gegenüber Ereignissen in Bophal oder dem Banqiao Dammbruch.

Was die humanitäre Misere in Fukushima verursachte, war die Reaktion – nicht die vorsorgliche Evakuierung, sondern was folgte und ironischerweise, auch was vorherging. Das einzige andere Gebiet, das gesperrt wurde wegen menschlicher Aktivitäten, ist Tchernobyl. Daraus folgt für den Laien, dass die Strahlung in diesen Sperrzonen ein höheres Risiko darstellt, als jede andere menschengemachte Bedrohung auf dem Planeten.

Die öffentliche Wahrnehmung von radioaktiver Strahlung ist sehr komplex. Es gibt keine generelle Angst vor ionisierender Strahlung – das zeigt sich z.B. in Gebieten mit hoher Radon Konzentration. Die vielen Beispiele von Todesfällen, die durch unachtsamen Umgang mit radioaktivem Material im medizinischen Bereich vorkamen, scheinen nicht von Radiophobie begleitet zu sein ebenso nicht der Mord an Alexander Litvinenko in London 2008. Klar ist, das es etwas gibt in der Kommunikation von Strahlung, die von zivilen nuklearen Aktivitäten stammt, das ein Bündel von Ängsten geschaffen hat, die es in anderen Kontexten nicht gibt.

Auf einem Meeting des Japan Atomic Industrial Forum (JAIF) früher in diesem Jahr, beklagte ein Sprecher, dass die Japanische Öffentlichkeit nicht bemerkt hat, dass menschengemachte radioaktive Strahlung dieselbe ist wie die natürliche Strahlung überall um uns herum. Eine riesige Anstrengung erforderte die Korrektur dieses Missverständnisses, um so Kernenergie akzeptabler zu machen.

Aber gut, was weiß der gut informierte Japaner (oder schließlich, welche unbestreitbaren Fakten sind in der Öffentlichkeit verbreitet)?

Zuerst und vor allem wurden ca. 100.000 Menschen evakuiert aus einer 20km Zone um Fukushima Daiichi und es wurde ihnen nicht erlaubt (außer einigen Hundert erst vor kurzem) in ihre Häuser zurückzukehren über einen Zeitraum von über drei Jahren, was unsägliches Leid verursacht hat. In vielen Gebieten der Sperrzone ist die Strahlung (aus allen Quellen) niedriger, als 5mSv pro Jahr, mit einer radioaktiven Niederschlagdosis von unter 1mSv pro Jahr.

  Klar ist, das es etwas gibt in der Kommunikation von Strahlung, die von zivilen nuklearen Aktivitäten stammt, das ein Bündel von Ängsten geschaffen hat, die es in anderen Kontexten nicht gibt.

Zweitens gibt es Gebiete wie Ramsar in Iran (durchschnittlich 130mSv/a) und Guarapari in Brasilien (Spitzenwerte am Strand in der Größenordnung von 350mSv/a), die nicht evakuiert werden. Es gibt sogar bestimmte Gebiete in Japan (z.B. die Insel Kyushu) wo die natürliche Dosis höher ist, als in einigen Teilen der Sperrzone.

Was kann der gut informierte Japaner damit anfangen? Es scheint drei mögliche Erklärungen zu geben.

1.     Entweder sind die Behörden irrsinnig (oder kaltschnäuzig), so viele Leben aufs Spiel zu setzen und solch riesige Schäden aus unvertretbaren Gründen zu verursachen.

2.     Die Behörden lügen einfach über die Höhe der Kontamination in der Sperrzone.

3.     Menschengemachte radioaktive Strahlung ist signifikant gefährlicher als natürliche Strahlung, sodass Vergleiche bedeutungslos sind.

Angenommen die Japanische Regierung und die nukleare Industrie sind erfolgreich bei der Überzeugung der Menschen, dass ihr (sensibles) Verständnis der indiskutablen offensichtlichen Fakten (Option 3) nicht korrekt ist. Die Fakten werden sich nicht ändern, sodass ein neues Verständnis erforderlich ist. Es ist nicht sofort offensichtlich, dass ein Umschwenken zur Option 1 (die wahre Option) oder 2 das Zutrauen der Bevölkerung zur Industrie oder zum Konzept der Kernenergie verbessern würde.

Ironischerweise ist verdächtig, dass die irrationale Aussperrung zur Annahme führte, die Menschen beschwichtigen zu können. Aber in Wirklichkeit gibt es einen nachweisbaren aber meist unsichtbaren Mythos, dass man auf Nummer sicher gehen muss beim Strahlenschutz. Jede Aktion, die nicht auf Gesundheitsfürsorge begründet ist – will sagen Aussperrung aus einem Gebiet, das sicherer als das Leben in London oder Tokio mit all der dortigen Luftverschmutzung ist – macht mehr Schaden, als Nutzen.

Man kann sicher argumentieren, dass eine übertriebene Vernarrtheit in die Reduzierung der Strahlendosis, weit entfernt von einer Minimierung des schädlichen Einflusses auf Menschen, das eigentliche Kernproblem ist. Möglicherweise ist die Schlüsselfrage – wie schützen wir die Menschen nicht vor radioaktiver Strahlung, sondern vor den Einflüssen des Strahlenschutzes?

Malcolm Grimston ist ein Erfahrenes Forschungsmitglied am Imperial College Centre for Energy Policy and Technology. Er wird an einem Forum über Strahlenschutz am WNA Symposium in London, am 10. – 12. September 2014 teilnehmen.

Die Übersetzung besorgte Rolf Pietsch

Anmerkung der Redaktion. Einige Leser mögen einwenden, dass bei einer so großen Zahl von Evakuierten eine ähnliche Todesrate durch natürliche Todesfälle zu erwarten gewesen sei. Jedoch muss diesem Einwand entgegengehalten werden, dass der durch die erzeugte panische Angst und die dann folgende Evakuierung mit dem drohenden und realen Verlust sämtlicher materieller wie seelischer Werte, der dadurch erzeugte Stress unmittelbar diese Entwicklung der Sterblichkeitsrate deutlich beschleunigt haben muss. Deshalb ist die Argumentation des Autors durchaus nachvollziehbar.

    




Die ökologischen Leistungen des Kulturpflanzenbaus und der Renaturierungsflächen

Demgegenüber werden die Leistungen der Kulturpflanzen – unter anderem streckenweise auch durch die Bio-Ideologie – herabgewürdigt. Der Kulturpflanzenbau ist aber ebenso „Natur“ wie jeder andere Biotop.

Der Kulturpflanzenbau erbringt durch die Optimierung der Wachstumsbedingungen einschließlich der Minimierung des Schädlingseinflusses nicht nur eine für den Menschen lebensnotwendige maximale biologische Stoff- und Energieproduktion, sondern zugleich standortabhängig  mit die höchsten ökologischen Leistungen: Die ökologischen Leistungen des Kulturpflanzenbaus sind in erster Linie die Bindung von atmosphärischem Kohlendioxyd (CO2) als „Rohstoff“ der Photosynthese, die Freisetzung von Sauerstoff in die Atmosphäre, die Transpiration von Wasser zur Aufrechterhaltung der Luftfeuchtigkeit und des Wasserkreislaufes (Transpiration, Kondensation, Niederschlag) sowie die Aufnahme, Akkumulation und Einbindung von Mineralstoffen. Gegenstand dieses Beitrages sind die CO2-Bindung und Sauerstoffemission.

CO2-Kreisläufe – das Lebenselixier

Das Leben auf der Erde und damit die Existenz der menschlichen Gesellschaft begründet sich auf die produktiven CO2-Kreisläufe: Unter Nutzung der Sonnenenergie wird das atmosphärische CO2 mit Wasser zu Kohlenhydraten assimiliert und der überschüssige Sauerstoff in die Atmosphäre abgegeben. Die produktive Nutzung der synthetisierten Biomasse als Nahrungs- und Futtermittel oder zur Rohstoff- und Energiegewinnung (Vergärung, Verbrennung) und sonstige Umsetzungen der Biomasse führen letztendlich wiederum zur Freisetzung von CO2 und Wasser, wodurch sich der CO2- und Wasserkreislauf schließt. Diese Kreisläufe sind ökologisch notwendig zur permanenten Regeneration der Atmosphäre, sind diesbezüglich ent- und nicht belastend, d.h. sie sind unabhängig vom Umfang klimaneutral. Klimarelevant wäre, wenn man CO2 eine noch nicht hinreichend bewiesene „Treibhausgaswirkung“  zuschreibt, hingegen nur die Verbrennung fossilen Kohlenstoffs in Form von Kohle, Torf, Erdöl und Erdgas.

Kohlenstoffbindung (CO2)

Da Pflanzen Kohlenstoff fast ausschließlich nur über atmosphärisches  CO2 aufnehmen und in Kohlenhydraten und diversen Kohlenstoffgerüsten anderer Pflanzenbestandteile (Eiweißmoleküle u.a. kohlenstoffhaltige Verbindungen) verbauen, können der Kohlenstoffgehalt bzw. die akkumulierten Kohlenstoffmengen in CO2-Äquivalente (1 g Kohlenstoff = 3,67 g CO2-Äquivalente) umgerechnet und bilanziert werden.

Desweiteren kennzeichnen die Bruttoenergieerträge der Kulturen das Leistungspotential an regenerativer Energie. Dieses kann durch Umrechnung in Benzin-Äquivalente auf CO2- und Energiebasis veranschaulicht werden.

Eine Übersicht der positiv klimarelevanten Leistungsfähigkeit landwirtschaftlicher Kulturen in der Kohlenstoffbindung (Kohlendioxydäquivalente – t/ha), Energieproduktion (GJ/ha) und Sauerstoffemission (t bzw. m3/ha) vermittelt Tabelle 1.

Tabelle 1: Kohlenstoffbindungskapazität, Energieproduktion und Sauerstoffproduktion landwirtschaftlicher Kulturen (brutto)

Kohlendioxydbindungskapazität landwirtschaftlicher Kulturen

Fruchtart

Ertrag/ha

 

Kohlendioxyd-Äquivalente

 

 

Hauptprodukt

Koppelprodukt

Hauptprodukt

 

Koppelprodukt  

Benzin-CO2

 

Korn/Frucht

Stroh/Blatt

Korn/Frucht

Stroh/Blatt

gesamt

Äquivalente

 

dt/ha

dt/ha

t/ha

t/ha

t/ha

l/ha

Weizen

100

40

14,0

6,0

20,0

8483

 

60

40

8,4

6,0

14,4

6104

Raps

40

30

6,5

4,5

11,1

4695

Kartoffeln

500

 

16,9

0,0

16,9

7182

 

400

 

13,6

0,0

13,6

5745

Zuckerrüben

600

180

22,2

4,4

26,6

11266

Mais

600

 

30,3

0,0

30,3

12827

Weidelgras

600

 

18,6

0,0

18,6

7886

– Energieproduktion landwirtschaftlicher Kulturen (brutto)

Fruchtart

Ertrag/ha

 

Energie

 

 

 

Hauptprodukt

Koppelprodukt

Hauptprodukt

Koppelprodukt

Benzin-Energie

 

Korn/Frucht

Stroh/Blatt

Korn/Frucht

Stroh/Blatt

gesamt

Äquivalente

 

dt/ha

dt/ha

GJ/ha

GJ/ha

GJ/ha

l/ha

Rel.1) %

Weizen

100

40

161

60

221

5129

60

 

60

40

96

60

156

3635

60

Raps

40

30

101

45

147

3413

73

Kartoffeln

500

 

181

0

181

4220

59

 

400

 

145

0

145

3376

59

Zuckerrüben

600

180

223

44

268

6222

55

Mais

600

 

347

0

347

8077

63

Weidelgras

600

 

199

0

199

4621

59

1)Benzin-Energie-Äquivalente in % der Benzin-CO2-Äquivalente

– Sauerstoffproduktion landwirtschaftlicher Kulturen (brutto)

Fruchtart

Ertrag/ha

 

 

 

 

 

Hauptprodukt

Koppelprodukt

Glukose-

Sauerstoff

 

 

 

Korn/Frucht

Stroh/Blatt

Äquivalente

brutto

Atmung

Emission2)

 

dt/ha

dt/ha

t/ha

t/ha

m3/ha

kg O2/ha

Rel. %

kg/m3 O2/ha

Weizen

100

40

13,61

14,57

10201

7260

49,8

7307/5117

 

60

40

9,80

10,48

7340

5172

49,3

5310/3718

Raps

40

30

7,53

8,06

5646

3732

46,3

4330/3032

Kartoffeln

500

 

11,53

12,33

8636

6450

52,3

5882/4119

 

400

 

9,22

9,87

6909

5160

52,3

4706/3295

Zuckerrüben

600

180

18,08

19,34

13547

10080

52,1

9265/6488

Mais

600

 

20,58

22,03

15424

11520

52,3

10506/7357

Weidelgras

600

 

12,66

13,54

9483

6480

47,9

7062/4945

2) Umrechnung in m3 =1,428 kg O2/ m3

So bindet Mais mit einem Ertrag von 600 dt/ha ca. 30 t CO2-Äquivalente/ha, Zuckerrüben bei 600 dt/ha ca. 27 t CO2-Äquivalente/ha, Getreide bei  60 – 100 dt/ha ca. 14 – 20 t CO2-Äquivalente/ha!

Energieproduktion

Desgleichen offenbaren die Bruttoenergieerträge der Landwirtschaftlichen Hochleistungskulturen

das enorme Potential zur Gewinnung nachwachsender Energieträger. Auch hier stehen Mais (347 GJ/ha) und Zuckerrüben (268 GJ/ha bzw. ohne Blatt 223 GJ/ha) an der Spitze, Energieerträge die selbst bei hohen Erträgen mit Getreide (221 GJ/ha bzw. ohne Stroh 161 GJ/ha) und Kartoffeln (181 GJ/ha) nur etwa zu 2/3 erreicht werden können.

Die Relationen zu fossilen Energieträgern vermitteln die Benzinäquivalente, berechnet nach CO2- (2,36 kg CO2/l Benzin) und Energieäquivalenz (43 MJ/l Benzin). So kompensiert 1 ha Getreide die Verbrennung von 6100 – 8500 l Benzin, 1 ha Maisganzpflanze 12.800 l Benzin auf CO2-Basis bzw. auf Energiebasis nur 3640 – 5130 l Benzin je  ha Getreide und 8.100 l Benzin je ha Maisganzpflanze. Die Differenz zwischen CO2- und Energieäquivalenz ist durch die chemische Zusammensetzung (Kohlenstoffgehalt) bedingt. Die Energieäquivalenz liegt zwischen 55 % bei Zuckerrüben und 73 % der CO2-Äquivalenz bei Raps und bezeugt den niedrigeren Energiegehalt der Bioprodukte gegenüber den reinen Kohlenwasserstoffen.

Sauerstoffemission

Die Reproduktion von Biomasse erfolgt durch Aufnahme von atmosphärischem Kohlendioxyd und Wasser gemäß der allgemeinen Assimilationsformel

6 CO2 (264 g)+ 6 H2O(108 g)  à C6H12O6 (180 g)+ 6O2 (192 g),

d.h. aus 264 g CO2 und 108 g H2O werden unter Nutzung von Sonnenergie  180 g Glukose erzeugt und 192 g Sauerstoff freigesetzt. Gravimetrisch gesehen wird mehr Sauerstoff (107 %) freigesetzt als Glukose synthetisiert!

Auf der Basis dieser Beziehungen lassen sich aus den in den Pflanzen akkumulierten Kohlenstoffmengen die Menge an Glukose-Äquivalenten (40 % C), die für die Biomasseproduktion synthetisiert werden mussten, als auch die total freigesetzte Menge an Sauerstoff modellmäßig berechnen: Je 1 g Kohlenstoff sind dies 180/72 =2,5 g Glukose-Äquivalente bzw. 192/72 = 2,67 g bzw. = 1,87 l Sauerstoff. Diese Werte korrespondieren selbstverständlich mit den CO2-Bindungsäquivalenten und liegen zwischen 7,53 t/ha beim Raps und 20,58 t/ha beim Mais, 9,80 bis 13,61 T/ha bei Getreide. Diese im Vergleich zur produzierten Biomasse  höheren Werte erklären sich daraus, dass der aufgenommene Kohlenstoff zu anderen Substraten mit wesentlich höherem C-Gehalt verbaut wurde. Der Kohlenstoffgehalt der Pflanzen liegt zwischen 43% bei kohlenhydratreichen und 49 % fettreichen Pflanzen wesentlich höher als bei Glukose (Zucker) mit 40 % C in der Trockensubstanz.

Die totale Freisetzung an Sauerstoff beläuft sich – gravimetrisch 7 % höher als CO2-Äquivalente – auf  8,06 t/ha bzw. 5646 m3O2/ha beim Raps bzw. entsprechend  22,03 t/ha bzw. 15424 m3/ha beim Mais. Diese Sauerstoffmengen kennzeichnen das theoretisch maximale Sauerstoffemissionspotential, das nur mit Licht (Sonnenstrahlung) als Energielieferant  generiert werden kann.. Davon ist der Bedarf der lebenden Pflanzen an Sauerstoff für die Atmung zur Energiegewinnung (ATP) für die pflanzlichen Prozesse (Aufrechterhaltung der Potentiale) abzusetzen. Dieser Energiebedarf ist sowohl bei Lichteinstrahlung (tagsüber), wo der bei der Assimilation freigesetzte Sauerstoff verfügbar ist, als auch bei Dunkelheit (nachts) durch Sauerstoffaufnahme aus der Luft zu decken.

Es fehlt offensichtlich an systematischen Messungen des Sauerstoffbedarfs lebender (grüner) Pflanzen, da quantitative Angaben nicht recherchiert werden konnten. Sicher ist, dass der Sauerstoffbedarf der Pflanzen von verschiedenen externen und internen Faktoren abhängig ist. Lediglich Messungen an Wasserpflanzen wurden zitiert. In Anlehnung an diese Messungen wurde als  Größenordnung  für die vorliegenden Berechnungen ein Bedarf von 12 g/ kg Trockenmasse und Tag angenommen. Für diese Modellrechnung wurden zur Berücksichtigung des Wachstums 50 % der erzeugten Mengen an Trockensubstanz und 100 Vegetationstage unterstellt.

Die Ergebnisse dieser Modellrechnung zeigen, dass die Atmung einen Umfang von 3732 kgO2/ha bei Raps und 11 520 kgO2/ha bei Maisganzpflanzen, etwa 50 % der errechneten totalen Sauerstofffreisetzung, hat. Dementsprechend errechnet sich eine Sauerstoffemission  von 4330 kg O2/ha  bzw. 3032 m3 O2/ha bei Raps und 10506 kg O2/ha bzw.7357m3 O2/ha  (1,428 kg/m3 ) bei Maisganzpflanzen. Möglicherweise ist der Sauerstoffbedarf für die Atmung zu hoch angesetzt; ein Anteil von 20-30 % dürfte wahrscheinlicher sein. Diese Angaben sind bei Vorlage neuer Messergebnisse zu präzisieren.

Ungeachtet dessen, dass es sich bezüglich des Sauerstoffbedarfs um grobe Schätzwerte handelt, belegen die Modellrechnungen, dass die landwirtschaftliche Hochleistungskulturen mit Ihren hohen für produktive Zwecke nutzbaren CO2-Bindungskapazitäten und die mit der Stoffproduktion verbundenen hohen Sauerstoffemissionen den größten Beitrag zur Stabilität der Luftzusammensetzung und zum Erhalt des Klimas, d.h. insgesamt zum Umweltschutz leisten. Ihre ökologische Bilanz ist uneingeschränkt positiv.

Der forcierte Anbau landwirtschaftlicher Hochleistungskulturen und die Aufforstung aller übrigen Standorte haben demzufolge im Kampf gegen den Klimawandel eine tragende Bedeutung.

Moore und renaturierte Niedermoorstandorte versus Kulturgrasbau

In diesem Kontext ist auch die maßlose Überschätzung der ökologischen Leistungen von „intakten“ und wiedervernässten meliorierten („renaturierten“) Mooren, wie sie von den „Moorschützern“ mit Medienverstärkung suggeriert wird, kritisch zu hinterfragen. Ist die die Aussage, Moore sind Kohlenstoffsenken, berechtigt oder eine Zwecklüge?

Unsere fossilen Moore waren entstehungsgeschichtlich einst „Kohlenstoffsenken“. Sie sind nacheiszeitlich unter völlig anderen ökologischen Bedingungen entstanden. Hohe Feuchtigkeit, Wärme und hohe CO2-Konzentrationen in der Atmosphäre bewirkten einen extrem hohen Anfall  an Biomasse, die nicht mehr durch Verrottung umgesetzt werden konnte. Die dadurch entstandenen Biomasseablagerungen (Kissen“ ) führten durch Inkohlung, d.h. durch Reduzierung des organisch gebundenen Kohlenstoff s zu amorphem Kohlenstoff,  zu den heutigen fossilen Moorkohlenstofflagerstätten (Torf). Demgegenüber kann unter unseren ökologischen Bedingungen amorpher Moorkohlenstoff mangels der dazu notwendigen Redox-Potentiale nicht generiert werden.

Hierzulande sind „intakte Moore“ und wiedervernässte Renaturierungsflächen (Flachwasserseen) natürliche „Biogasreaktoren“  mit in relativ  geringen Mengen anfallenden nachwachsenden Rohstoffen (Biomasse) und einer Morastablagerung der unvergärbaren kieselsäure- und ligninhaltigen Zellwandbestandteile (Gärungsrückstände). Das gebildete Methan (Biogas) entweicht als „Treibhausgas“ mit einer gegenüber CO2 23-fachen klimaschädigenden Wirkung kontraproduktiv in die Atmosphäre. Wie sieht die ökologische Bewertung der Moorstandorte im Vergleich zum Kulturgrasbau (Grünlandnutzung) auf meliorierten und wasserstandsregulierten  Niedermoorstandorten aus?

Eine Antwort geben die Ergebnisse von Modellrechnungen mit unterschiedlichen Erträgen bzw. unterschiedlichem Anfall  an Biomasse auf den Moorstandorten in Tabelle 2.

Der Kulturgrasanbau auf meliorierten wasserstandsregulierten Niedermoorflächen bindet ertragsabhängig zwischen 12,4 bis 24,8 t CO2-Äquivalente/ha in der erzeugten Biomasse, die ein Biogaserzeugungspotential  von 2100 bis 4250 m3 Methan/ha verkörpert, und  emittiert  als willkommene ökologisch bedeutsame Sekundärleistung der Assimilation 3.300 bis 6.500 m3 Sauerstoff/ha in die Atmosphäre. Als  ökologische Kohlenstoffbilanz stehen je ha + 6.300 bis +12.650 m3produktiv nutzbare CO2-Äquivalente auf der Habenseite zu buche.

Tabelle 2: Ökologische Bilanz der Moor-/Renaturierungsstandorte im Vergleich zu melioriertem Grasland

Fruchtart

Ertrag

Kohlendioxyd-bindung

Sauerstoff

Methan

Ökologische

C-Bilanz

Frischmasse

CO2 Äquivalente

Emission

(netto)

atmo-sphärische Wirkung

CO2-Äquiva-lente

dt/ha

t/ha

m3/ha

m3/ha

m3/ha

m3/ha

m3/ha

Melioriertes Grasland

 

Potential

Wiesengras

400

12,408

6318

3297

2120

0

+6318

650

20,163

10266

5358

3444

0

+10266

800

24,816

12635

6594

4239

0

+12635

Renaturierungsflächen und Moore

Emission

Minderwertige

50

1,485

756

378

253

5829

-5073

Gräser

100

2,970

1512

757

507

11658

-10146

Binsen/Seggen

200

5,940

3024

1514

1014

23316

-20292

300

8,910

4537

2271

1521

34975

-30438

Die Renaturierungsflächen hingegen weisen laut Modellrechnung bei einem Anfall an Biomasse von 50 bis 300 dt/ha zunächst eine Kohlenstoffbindung von 1,5 bis 8,9 t CO2-Äquivalenten aus, die jedoch nicht produktiv genutzt werden kann. Die Biomasse verfällt der anaeroben Vergärung  anheim. Laut „Richtwerte für die Gasausbeuten“ in „Gasausbeute in landwirtschaftlichen Biogasanlagen“. KTBL-Heft 88, 2. überarbeitete Auflage, 2010, S. 18-19, Herausgeber: Kuratorium für Technik und Bauwesen in der Landwirtschaft e.V. (KTBL), Darmstadt, kann mit einer Methanemission von 320 Normlitern (0°C und 1013 mbar) je kg organischer (aschefreier) Trockensubstanz (oTS), d.h. im Modell mit 250 bis 1500 Nl Methan/ha, gerechnet werden. Diese entweicht mit einem Wirkungsfaktor von 23 l CO2-Äquivalenten/ l Methan in die Atmosphäre und entspricht einer atmosphärischen Wirkung von 5.800 bis 35.000 m3 CO2-Äquivalenten. Dies führt ungeachtet der C-Bindung und Sauerstoffemission bei der Bildung der Biomasse zu einer negativen ökologischen C-Bilanz, im Modell linear zum Biomasseanfall ansteigend von -5000 bis – 30.500 m3 CO2-Äquivalenten/ha, = -101,46 m3CO2-Äquivalente/dt Biomasseertrag. Moore sind keine Kohlenstoffsenken und die Renaturierung (Wiedervernässung) von meliorierten Niedermoorflächen ist gegenüber dem Kulturgrasanbau (Grünlandnutzung) sowohl ökologisch als auch ökonomisch, wie z.B. im Hinblick auf regenerative Energieerzeugung, ein Desaster, das die Politik zu verantworten hat. Auf Mecklenburg-Vorpomrnern bezogen wurden mit mehr als 40 Millionen Steuergeldern aus EU- und Landesmitteln mit der Renaturierung von bisher 30.000 ha ein Potential für regenerative Energiegewinnung von 105 Millionen m3 Methan vernichtet und ein ökologischer Schaden von etwa 300 bis 600 Millionen m3 CO2-Äquivalenten angerichtet.

Diese Fehlorientierung in der Umweltpolitik ist ebenfalls von den wissenschaftlichen Einrichtungen, die für Moorschutz verantwortlich zeichnen und die exorbitant hohen CO2-Emissionen meliorierter Grünlandflächen (siehe „Die Folgen einer Fiktion, BZ 30, 2013) propagieren, zu verantworten.

Es hat niemand etwas einzuwenden gegen Moore als flächenbegrenzte Naturschutzgebiete in angemessenen Größenordnungen, wie wir sie früher Jahrzehnte lang hatten. Eine weitere Vernichtung von Kulturlandschaft und landwirtschaftlicher Nutzfläche durch Renaturierung (Wiedervernässung) von z.B. 70.000 ha, wie sie u.a. das Landwirtschaftsministerium Mecklenburg-Vorpommerns  vorsieht, ist kulturgeschichtlicher Frevel und ökonomischer sowie ökologischer Schaden; sie muss untersagt werden. Die allgemeine Erkenntnis lautet:

Das dichtbesiedelte und an Nutzfläche relativ arme Deutschland im Besonderen und die Welt im Allgemeinen brauchen weder“ intakte“ noch „renaturierte“ Moore.

Dr. agr. Arthur Chudy

Warsow 11

17154 Neukalen

arthur.chudy@t-online.de

Tel.: 039956 20590

Lebensraum Peenetal  e.V.




Lager: Die Achillesferse von Windturbinen

Zu jener Zeit gab es online kaum eine Bestätigung, die diesen verstörenden Kommentar bestätigten – aber die Beweise scheinen zu akkumulieren, dass Lager ein ernstes Problem für die Windindustrie sind.

Siemens nennt schadhafte Lager als teilweisen Grund für einen substantiellen Rückgang des Profits hier. In einer Ankündigung zur Eröffnung eines neuen Siemens-Forschungslabors (hier) heißt es: „Das Brande-Testzentrum würde die wesentlichen Teile ihrer Windturbinen evaluieren; Teile wie z. B. die Haupt-Lager…“ (ein Versuch, Direct-Drive-Turbinen [?] herzustellen, um die Lager zu entlasten).

„Genauer, es ist typisch, dass die Läger innerhalb der Getriebe nicht funktionieren (hier) und das Getriebe belasten, aber das ist eine andere Geschichte, die ein andermal erzählt werden soll“ (hier). „Im Sommer 2010 entschied Siemens, die Lager der Rotorblätter  an allen 25 Turbinen zu verändern, als eine vorsorgliche Maßnahme, nachdem man in anderen Windparks Korrosion an eben diesen Lagern entdeckt hatte…“.

Natürlich gibt es auch ein Video über eine Windturbinen-Katastrophe:

Video: Brand einer Windturbine bei Ardrossan 12. August 2011

Es zeigt sich, dass die Industrie versucht, das Ausmaß der Feuergefährlichkeit von Windturbinen zu verschleiern hier.

All dies wirft eine interessante Frage auf: Wie viel unseres Geldes will die Regierung verschwenden, um den Traum von Windkraft am Laufen zu halten? Falls die Kosten weit größer sind als von der Industrie eingeräumt, wie lange wird die Windindustrie dann noch diese versteckten, zusätzlichen Kosten tragen, bevor sie versucht, die Kosten auf den Steuerzahler umzulegen oder die Windtechnologie insgesamt aufzugeben? (hier).

Link: http://wattsupwiththat.com/2014/08/26/bearings-the-achilles-heel-of-wind-turbines/

Übersetzt von Chris Frey




Der Klimawandel in Russland! Sind die IPCC Methoden zur Berechnung der russischen Mitteltemperatur korrekt?

Am 18. Mai 2010 hielt Andrei Illiaronow vom Institut für ökonomische Analyse IEA in Moskau einen Fach-Vortrag zur Qualität der Methoden zur Berechnung der russischen Mitteltemperatur für die vergangenen 160 Jahre. Der Ort, an dem der Vortrag gehalten wurde, war mit Bedacht gewählt. Es trug ihn anlässlich der 4. Internationalen Klimakonferenz in Chicago vor. Sie wurde, wie die 3 Vorgängerkonferenzen und die 5 Nachfolgekonferenzen vom Heartland Institute veranstaltet.  Ca. 100 Teilnehmer der ca. 650 anwesenden Wissenschaftler folgten diesem Vortrag, darunter der Autor dieser Zeilen.

Video des Vortrages von A, illaronov am 18.Mai 2010 auf der Heartland Klimakonferenz in Chicago.

Der Inhalt des Vortrages hatte es in sich, trotzdem wurde er kaum beachtet. Das sei hiermit nachgeholt.

Andrei Illiaronow hatte es zusammen mit seiner Ko-Autorin Natalia Pivovarova unternommen, die Zeitreihe der mittleren Temperaturanomalie für ganz Russland nachzubilden. Dazu wurden die frei zugänglichen Daten des Russian Institute of Hydro Meteorological Information/World Data Center (WDC) verwendet, sie können hier abgerufen werden. Insgesamt werden in dieser Datenbank die Datensätze von 476 russischen Wetterstationen bereitgestellt.

Eine der für die Temperaturberechnung des IPCC verantwortliche Stelle, die Climate Research Unit der Universität von East Anglia in England, unter Leitung von Prof. Phil Jones hat ihrerseits nur 121 der verfügbaren Datensätze für die Bestimmung der mittleren Welttemperatur, bekannt unter dem Namen HADCRUT 3, veröffentlichten Analyse  verwendet. Die Auswahlkriterien dafür sind nicht ganz klar. Doch die Berechnungsmethode ist im Detail[1] festgelegt. Man gibt jedoch an, dass diese russische Untermenge eine statistisch gleichverteilte Auswahl[2] darstellt.  Abbildung 1 zeigt die Lage der 476 Stationen, Abbildung 2 die Lage der von der CRU verwendeten 121 Stationen. 

Der IPCC Bericht von 2007 berichtet von einem Anstieg der globalen Mittel-Temperatur von 1907 bis 2008 nach dieser Methode [3] von +0,74 K. Er wurde nach dieser Methode ermittelt. Die für Russland gewählte Untermenge von 121 Stationen zeigt für den genannten Zeitraum einen Anstieg von 1,29 K

Soweit so bekannt, so weit so gut.

Oder doch nicht? Was z.B. ergibt sich, wenn die Zahl der Stationen zur Berechnung des Mittelwertes der Anomalie weiter verringert wird. Gibt es dann einen unteren Grenzwert, wo die Kurven auseinander laufen? Oder müssen die Stationen bestimmte Eigenschaften besitzen, um repräsentativ zu sein?

Um diese Fragen zu beantworten, reduzierten die Autoren, die zur Berechnung verwendete Zahl der Stationen weiter. Von anfangs 476 auf (IPCC) 121.

Abbildung 1: Anzahl und Lage der 476 russischen Wetterstationen, sie decken einen wesentlichen Teil des russischen Territoriums ab. Der Schwerpunkt liegt im europäischen Teil Russland

Abbildung 2: Anzahl und Lage der von der CRU verwendeten 121 russischen Wetterstationen, auch sie decken einen wesentlichen Teil des russischen Territoriums ab. Der Schwerpunkt liegt nicht mehr im europäischen Teil Russland

Abbildung 3: Anzahl und Lage der verbleibenden 12 russischen Wetterstationen.sie decken nur einen sehr geringen Teil des russischen Territoriums ab. Falls man überhaupt von Schwerpunkten sprechen kann, liegen dieser wieder im europäischen Teil Russland mit 7 Stationen (25 % der Landmasse) während ein zweiter, mit nur 5 Stationen, im asiatischen Teil (75 % der Landmasse) sitzt. Von einer Abdeckung der Landfläche Russlands kann keine Rede mehr sein.

Russland bedeckt immerhin mit rd. 17,1 x 10^6 km2 etwa 11.5 % der weltweiten Landmasse. Der Anteil der russischen Stationen ist also für das globale Ergebnis sehr bedeutend. Auch deswegen unternahmen die Autoren Illiaronow et al den folgenden Vergleich. Sie fragten sich, wie viele Stationen es eigentlich bedürfe, um die ermittelte Zeitreihe abzubilden.

Das Ergebnis der Reduzierung ist mehr als verblüffend.

Abbildung 3: Temperaturanomalie der russischen Wetterstationen gebildet aus allen 476 (gelb) bzw. 121 (lila) Temperaturdatensätzen, die von der CRU ausgewählt wurden. Die Übereinstimmung beider ist erwartungsgemäß gut, beide Kurven verlaufen fast identisch. 

Dann reduzierten sie die Zahl der Datensätze weiter, auf 37, um dann zuletzt auf nur noch 12 (hier abgebildet) um dann bei nur noch 4 Stationen (deren Zeitreihe wird nur im Vortrag gezeigt)  zu landen.

 Abbildung 4: Temperaturanomalien der russischen Wetterstationen gebildet aus allen 476 (dunkel lila) bzw. 121 (rot-lila) Temperaturdatensätzen, die von der CRU ausgewählt wurden, sowie 37 (blau) und 12 (hell lila) Datensätzen russischer Stationen.  Wie zu erkennen, gibt es keine nennenswerten Unterschiede zwischen allen 4 Zeitreihen. Sie liegen nur an manchen Stellen bei max 0,15 K. 

Das ist mehr als überraschend. Die Übereinstimmung ist frappant eng. Denn sie würde bedeuten, dass sich die mittlere Anomalie der Temperatur Russlands völlig unabhängig von der Zahl der Mess-Stationen, aber auch von der Qualität der verwendeten Datensätzen, gleichförmig, fast identisch, bestimmen ließe. Die vielfältigen Fehler der Messungen treten nicht in Erscheinung. Die verbliebenen Unterschiede liegen allesamt im Bereich der Unsicherheit. Sie sind also statistisch nicht signifikant.

Und das über mehr als 40 Breitengrade hinweg, mit Berg und Tal, ewigen Flächen und endlosen, wenn auch häufig vereisten Küsten im Nordatlantik und im Pazifik, auf der riesigen Landmasse des  russischen Landes, welches sich 9000 km weit von Ost nach West und 4000 km von Nord nach Süd über die eurasische Landmasse, d.h. über 2 Kontinente erstreckt.

Die verbliebenen 12 Stationen und ihre Position, der Beginn ihrer Messungen und die Häufigkeit ihrer lokalen Umsetzung, sowie deren aktueller Bevölkerung  sind in Abb. 5 dargestellt. Vielleicht, so dachten wohl die Autoren, lässt sich daraus ergründen, warum diese Stationen fast exakt dasselbe Ergebnis abliefern, wie die zuvor gemittelten 476 oder 121 Stationen

Abbildung 5: Tabelle der 12 „Wunderstationen“ die ausreichen, den Anstieg der mittleren Temperaturanomalie auf 1/10 K genau zu zeigen.  Ihre größten Gemeinsamkeiten sind die hohe Bevölkerungszahl (Dichte), wie auch ihre lange Beobachtungszeit. Ihre mittlere derzeitige Bevölkerungszahl liegt bei 655.000. Davon nur 4 unter 25.000.

Die Autoren stellten sich daher die Frage, worin sich die 12 (zuletzt waren es nur noch 4; siehe Vortrag) bestimmenden Stationen letztlich von den anderen unterscheiden. Sie stellten fest, dass sowohl die letzten 12, als auch die im Vortrag erwähnten vier verbleibenden Stationen, die sind, deren Aufzeichnungsdauer am längsten verfügbar ist.  Die Tabelle zeigt die Lage und den Beginn der Aufzeichnungen dieser zwölf Stationen. Zu den letzten vier (aus den 12) gehören die Stationen von St. Petersburg (seit 1743) mit 4,581 Mio Einwohnern, Archangelsk (seit 1813) mit 356 Tausend Einwohnern, Astrachan (seit 1837) mit 499 Tausend Einwohnern und als Ausreißer Yeniseysk (seit 1871) mit nur 19.000 Einwohnern.

8 der 12 Stationen  liegen zudem in sehr dicht bevölkerten urbanen Zentren, deren mittlere Bevölkerungszahl bei > 655.000 Einwohnern liegt.  Nur 4 (der 12) haben gleich oder weniger als 25 Tausend Einwohner. Von den verbliebenen 4 sogar nur 1  Yeniseysk mit nur 19.000 Einwohnern

Deshalb verglichen die Autoren, neben vielen anderen Vergleichen (siehe ppt Kopie des Vortrags) die Temperaturentwicklung der 10 am dünnsten besiedelten  Wetterstationen mit denen der 10 am dichtesten besiedelten Gebiete.

Abbildung 6: Differenztemperaturentwicklung der Anomalien der Mitteltemperaturen von 10 Stationen mit der geringsten Bevölkerungsdichte zu den 10 Stationen mit der höchsten Bevölkerungsdichte. In beiden Kollektiven wurden die Änderung der Mitteltemperatur von 1897-1906 zu der von 1997-2006 errechnet. Dann beide Mittelwerte miteinander verglichen. Die Differenz liegt bei 1,35 K. Also nur rd 0.06 K  über dem von CRU ermittelten Temperaturanstiegs für Russland von 1,29 K. Somit statistisch identisch.

Die Differenz der 10 Stationen mit größter Erwärmung zu den 10 Stationen mit schwächster Erwärmung beträgt 1,35 K.

Der Unterschied ist deutlich.

Die 10 am dichtesten besiedelten Messorte tragen also mit etwas mehr als 100 % zur insgesamt berechneten durchschnittlichen Erwärmung für ganz Russland von 1,29 K bei. Die restlichen 111 (121 – 10) senken den mittleren Anstieg nur um 0,06 K. Das bedeutet, dass man die Erwärmung dieser Stationen sehr wahrscheinlich ganz oder überwiegend auf die Wirkung des Urban Heat Island (UHI) Effekt zurückzuführen muss, denn die 10 Stationen mit geringster Population haben auch die geringste Erwärmung und zeigen daher diesen starken Anstieg nicht.  Da diese Methode auf alle Datensätze, nicht nur die russischensondern weltweit angewendet wurde, ist mit hoher Wahrscheinlichkeit anzunehmen, dass die verwendete Methode nach Phil Jones von der CRU, so gut wie ausschließlich, nur den UHI Effekt erfasst. 

Oder anders ausgedrückt: Man hat mit der Methode CRU des Phil Jones[4] wohl ein gutes Proxy für die Zunahme der Bevölkerungsdichte über die Bestimmung der lokalen Mitteltemperatur gefunden, aber (zumindest) nicht die reale russische Mitteltemperaturentwicklung bestimmt. Deren Anstieg, legt man stattdessen die Daten der (fast) ruralen Stationen  zugrunde, dürfte im Mittel für die letzten 100 Jahre bei ± 0 K liegen,.

Dieses verblüffende Resultat veranlasste dann auch die Autoren zu folgenden vorsichtigen Feststellungen: 

It means that for calculating the Russian and then, therefore, Global temperature averages: 

· the temperature time-series collected from 97,5% Russian weather stations are excessive,

· the measurements made at the weather stations established after 1872 are unnecessary,

· the quality of data at all those stations doesn’t matter.

Zu deutsch (Anmerkungen in Kursiv von mir):

das bedeutet, dass für die Berechnung der russischen und dann damit die globalen Temperatur-Mittelwerte:

·      die Temperatur-Zeit-Reihen, die von (den restlichen!) 97,5% russischen Wetterstationen gesammelt wurden, (in Bezug auf die Auswertung) überschüssig sind,

·      die Messungen der Wetterstationen, die nach 1872 gegründet wurden, dazu unnötig (für die Bestimmung der russischen Mittelwerte) sind,

·      die Qualität der Daten all dieser Stationen keine Rolle spielt. (denn sie ist offenbar für die Bestimmung der russischen Mittelwerte völlig unerheblich)

Mir scheint aber, dass es noch eine andere Möglichkeit gibt, warum die vier oder zwölf finalen Datensätze die anderen 464 (476 – 12) oder auch 109 (IPCC) so offensichtlich markant dominieren, bzw. glatt überschreiben, oder anders ausgedrückt, warum das Signal der Vielen gegenüber dem Signal der Wenigen einfach verschwindet.

Keiner der verfügbaren Datensätze ist in seiner ursprünglichen, seiner Roh-Form abrufbar. Alle diese Datensätze sind von den Meteorologen aus z.T. sehr guten Gründen zuvor bearbeitet worden.  Denn sie mussten Ausreißer, dh. Werte, die aus Gründen die evtl. einem defekten Thermometer oder einer Stationsumsetzung oder einem anderen nicht meteorologischen Grund zuzuordnen wären, und deshalb unplausibel scheinen, herausfischen (auch mittels automatisierter statistischer Methoden, wie Winsorizing oder Trimming). Zudem mussten sie lange und kurze Leerzeiten innerhalb der Zeitreihen künstlich auffüllen, oder ganze Leerstellen künstlich ersetzen. Derartige Probleme sind in der Meteorologie seit langem bekannt, ebenso wie das Verfahren zu ihrer Minimierung dazu. Auch ist bekannt, dass es nicht unproblematisch ist. Man nennt es Homogenisierung,  d.h. auf Deutsch und ist erfreulich klar: Gleichmacherei. 

Doch mit der Methode Jones hat diese universelle, seit Beginn der Wissenschaft von der Meteorologie eingesetzte Methode der Homogenisierung, wohl ihre überraschenden Grenzen gefunden.

Jetzt wird auch klar, warum die Anomalienbildung samt Homogenisierung auf John´sche Art anscheinend für die Bestimmung der Temperatur des Planeten nichts taugt. Sie führt offensichtlich zu falschen Ergebnissen. 

Deswegen empfiehlt es sich vielleicht,  wieder zur zu Fuß Methode nach Prof. K.H. Ewert zurückzukehren, der in mühsamer Kleinarbeit, die absoluten Werte der Zeitreihen von jetzt ca. 1500 Wetterstationen weltweit verglichen und ihre Erwärmungs- und Abkühlungstendenzen bestimmt hat. Darüber demnächst mehr

Die ausschließliche Verwendung der CRU Methode der Gruppe um P. Jones kann – trotz der durch sie erzielten kräftigen Vergrößerung durch ausschließliche Betrachtung der Änderung durch die Bildung von (kleinen) Anomalien aus (großen) Absolutwerten- evtl. auch der Grund dafür sein, warum sich ein von den Alarmisten vermutetes Signal der Treibhausgase in den Beobachtungen partout nicht finden lässt. Wenn 12 (oder sogar 4) von 121 oder 476 Stationen, mit ihren vom UHI völlig dominierten Werten ausreichen, um die vermeintliche Temperaturanomalie für ganz Russland abzubilden, bleibt für eventuelle und zudem nur hypothetische andere Treiber (forcings), wie dem des CO2, kein Platz mehr übrig.

Bei der Bestimmung der Absolutwerte der Temperaturzeitreihen nach der Methode Ewert findet sich das CO2 Signal übrigens auch nicht.

Das bedeutet letztendlich ganz klar , dass dieses postulierte Signal entweder nicht existiert oder zu schwach ist, um eine erkennbare Wirkung zu haben.


[1] The basic methodology for calculation of the global temperature is described in:

Jones, P.D., M. New, D.E. Parker, S. Martin, and I.G. Rigor. 1999. Surface air temperature and its changes over the past 150 years.

Reviews of Geophysics 37: 173-199.

http://www.agu.org/journals/rg/v037/i002/1999RG900002/1999RG900002.pdf

[2] CRU: The data subset will consist of a network of individual stations that has been designated by the World Meteorological Organization for use in climate monitoring. The subset of stations is evenly distributed across the globe and provides a fair representation of changes in mean temperature on a global scale over land

[3] Russia’s Assessment Report 2008, pp. 9, 36:http://climate2008.igce.ru/

[4] Unter anderem in „Assessment of urbanization effects in time series of surface air temperature over land“ von Jones et al erschienen 1990 in Nature wie auch in späteren Veröffentlichungen versuchen die Autoren zwar den UHI zu bestimmen und ihn dann als systematischen Fehler  zu korrigieren. Danach stieg dieser Effekt schleichend von 0 (1900) auf  0,05 °C  (1990) an.  Damit sei dieser viel zu gering, so argumentieren sie, um signifikant zu sein. Außerdem tendiere er seit 1990 wieder gegen 0. Er sei also zu klein, um überhaupt beobachtet zu werden.

Related Files




Solarkraftwerk in der Wüste verbrennt Vögel…und Erdgas…und viel Geld

Falsch, aber der Reihe nach.

In der kalifornischen Mojave-Wüste, etwa 50 Kilometer südlich von Las Vegas, liegt das Ivanpah-Solar-Kraftwerk. Die im Februar dieses Jahres in Betrieb genommene Anlage fokussiert mithilfe von Spiegeln Sonnenlicht auf 3 Solartürme, wodurch in diesen Wasserdampf erzeugt wird, mit dem Dampfturbinen zur Erzeugung von elektrischem Strom angetrieben werden. Mit einer Nennleistung von 392 MW ist die Anlage das weltweit größte solarthermische Kraftwerk. Allerdings ist diese Zahl nicht mit der Nennleistung konventioneller Kraftwerke zu vergleichen, schließlich kann das Solarkraftwerk nur dann Strom produzieren, wenn die Sonne scheint. Und die Produktion ist, dem Sonnenverlauf folgend, in den Mittagsstunden deutlich höher als morgens oder abends. Die Jahresproduktion der drei Generatoren wird mit 1.080 GWh angegeben. Das entspricht knapp 2.800 Vollaststunden, also weniger als dem Wert, den ein Offshore-Windkraftwerk üblicherweise erzielt.

Bild rechts: Bild von Aioannides [GFDL  oder CC-BY-SA-3.0], via Wikimedia Commons

Wenig Leistung für sehr viel Geld

Herausragend sind bei dem Vorzeige-Projekt nicht nur die Größe und Nennleistung, sondern auch die Baukosten mit 2,18 Milliarden US-Dollar. Das sind 5,5 Milliarden Dollar pro Gigawatt. Zum Vergleich: Ein Gaskraftwerk kostet mit ca. einer Milliarde Dollar pro Gigawatt Nennleistung weniger als ein Fünftel. Wenn man mit einbezieht dass ein Gaskraftwerk bei gleicher Nennleistung übers Jahr gerechnet mehr als die dreifache Strommenge produzieren kann,

Man erkennt also recht deutlich, wirtschaftlich ist so ein Solarkraftwerk nicht. Aber wer denkt schon an den schnöden Mammon, wenn es darum geht, die Umwelt zu schützen und fossile Ressourcen zu schonen.

Umweltschutz? Fragen Sie die Vögel

Wobei – das mit dem Umweltschutz relativiert sich bereits, wenn man den enormen Flächenverbrauch einer solchen Anlage mit dem für konventionelle Kraftwerke vergleicht. Und man darf kein ausgesprochener Vogelfreund sein. Es hat sich im Betrieb nämlich recht schnell herausgestellt, dass gebündeltes Sonnenlicht zur Erzeugung von Wasserdampf auch stark genug ist, um Vögel im Flug zu grillen. Und diese scheinen von der Solaranlage regelrecht angezogen zu werden, weil das helle Licht der Spiegel Insekten anzieht. Die Vögel, die mit versengten Flügeln zu Boden stürzen, haben bei den Angestellten der Anlage den Beinahmen “Streamers” bekommen. Wegen der Rauchfahnen, die sie beim Absturz hinter sich herziehen. (Eindrucksvolle Bilder der Verbrennungen gibt es u.a. hier).

Schätzungen über die Anzahl der Vögel, die jedes Jahr dadurch ihr Leben  für die vermeintlich gute Sache lassen gehen weit auseinander. Die Betreiber gehen von etwa 1.000 Tieren aus, Umweltschützer befürchten bis zu 28.000. Auf so viele tote Vögel pro Fläche oder pro erzeugter Megawattstunde kommen sonst allerhöchstens Windparks in direkter Nähe von Vogelschutzgebieten.

Erdgas als Backup

Auch bei der Ressourcenschonung ist nicht alles heile Öko-Welt. Sollte die Sonne einmal nicht ausreichend scheinen, ist bei dem Ivanpah-Kraftwerk ein Backup vorgesehen, bei dem die fehlende Sonnenleistung durch das Verbrennen von Erdgas ergänzt wird. Und so wie es aussieht, hat man von Seiten der Betreiber die Kraft der Sonne doch ein wenig überschätzt. Um diesen Fehler auszugleichen hat Bright Source Energy, die Betreiberfirma, bei der kalifornischen Regierung jetzt beantragt, mehr Erdgas zum Heizen verwenden zu dürfen. Dadurch entstünden zusätzliche CO2-Emissionen in Höhe von 95.000 Tonnen pro Jahr. Insgesamt würden dann 35 Prozent des Stroms nicht aus Sonnenenergie, sondern aus Erdgas gewonnen.

Wenn man jetzt noch in Betracht zieht, dass der Wirkungsgrad der Anlage bei schlechten 28,7% liegt, also weniger als der Hälfte eines modernen Gas- und Dampf-Kraftwerks, wird schnell deutlich, dass dieses grüne Vorzeigeprojekt in der Wüste in Kalifornien vor allem eins ist, Eine Ressourcen und Geld verschwendende grüne Augenwischerei.

Titelbild von Aioannides [GFDL  oder CC-BY-SA-3.0], via Wikimedia Commons

Nachtrag: Wirschaftlichkeitsbetrachtung

Das Solar-Kraftwerk hat 2,018 Mrd. US-Dollar gekostet. Bei einem Abschreibungszeitraum von 20 Jahren und 3% angenommen Zinsen ergeben sich damit Kapitalkosten in Höhe von 135 Mio. Dollar pro Jahr. Wartung und Betrieb schlagen mit 67 Dollar pro Kilowatt Nennleistung und Jahr zu Buche, macht also weitere 26,3 Mio. Dollar.

Wie oben gesehen müssen für den Regelbetrieb 35 Prozent des Stroms mit Gas erzeugt werden. Bei einem Wirkungsgrad von 28 Prozent werden dazu 1.080 GWh * 35 % geteilt durch den Wirkungsgrad von 28 %, also 1.350 GWh Erdgas benötigt. In Kalifornien kostet die MWh Erdgas zur Zeit etwa 18 Euro (hier und hier). Die jährliche Gasrechnung beträgt also 25,3 Mio. US-Dollar. Das ergibt jährliche Gesamtkosten in Höhe von gut 186 Mio. US-Dollar. Wenn man annimmt dass der Betreiber auch noch etwas verdienen möchte und eine Gewinnmarge von 8 % zugrunde legt, kommt man auf 201,5 Mio US-Dollar Gesamtkosten für 1.080 Gigawattstunden Strom. Daraus errechnen sich:

Gestehungskosten in Höhe von 18,6 US-Cent oder 14,2 Euro-Cent pro kWh

Macht man gleiche Rechnung für ein Gaskraftwerk (GUD-Kraftwerk) auf, ergibt sich bei gleichen Rahmenbedingungen:

Kosten Kraftwerk: 390 Mio. $
Zinsen + Tilgung: 26,4 Mio. $ p.a.
Betrieb und Wartung: 7,1 Mio$ p.a.
Gaskosten ( 60 % Wirkungsgrad): 98 Mi. $ p.a.
MWh p.a. (8.000 Vollaststunden): 3.136.000

Gestehungskosten inkl. 8% Marge: 3,4 US-Cent oder 2,6 Euro-Cent pro kWh

Interessant ist dabei auch ein Vergleich der CO2-Emissionen, denn um deren Reduktion soll es ja vor allem gehen. Das “saubere” Solarkraftwerk verbraucht pro kWh Strom 1,25 kWh Gas. Das GUD-Kraftwerk benötigt für die gleiche Strommenge 1,67 kWh Gas. So gesehen stellt das “Solarkraftwerk lediglich ein ineffizientes Gaskraftwerk mit teurer Solarunterstützung dar.

Eine kWh Gas erzeugt etwa 200 g CO2 Emissionen. Pro GWh Strom den man mit dem Solarkraftwerk erzeugt fallen somit 1,25 mal 200 Tonnen = 250 Tonnen CO2 an. Ein GUD-Kraftwerk emittiert für die gleiche Strommenge 1,67 mal 200, also 334 Tonnen CO2.

Eine GWh Strom aus dem Solarkraftwerk kostet 186.000 US-Dollar, aus dem GUD-Kraftwerk 34.000 US-Dollar. Die Kostendifferenz von 152.000 bei einer CO2 Einsparung von 84 Tonnen CO2 entspricht Kosten von 1.800 US-Dollar pro eingesparter Tonne CO2. Das sind gut 1360 Euro, also in etwa so viel wie eine Tonne CO2-Vermeidungdurch Photovoltaik im Jahr 2004 in Deutschland beim Rekordhoch der Einspeisevergütung von 54 Cent pro kWh gekostet hat.

ÄHNLICHE BEITRÄGE (AUTOMATISCH GENERIERT):

⇒  Hybridkraftwerke: Energievernichtung im Namen der „Energiewende“

  Windenergie – Klimaschutz vs. Umweltschutz

  Steht das Windrad still…

Mit Dank übernommen von ScienceSceptical wo dieser Beitrag zuerst erschien




Hans-Joachim Schellnhuber hofft auf Klima-Gandhis, die unpopuläre Klimaschutzmaßnahmen gegen den Volkswillen durchknüppeln

Noch im Wahlkampf erwähnte US-Präsident Barack Obama den Klimawandel mit kaum einer Silbe, jetzt allerdings dreht der Parteigenosse von Al Gore kräftig auf. Obama will das Klima retten und verliest hierzu fleißig Erklärungen und lässt Papiere erstellen. Nun kam jedoch heraus, dass Obamas neuestes Klimapapier auf einem Entwurf basiert, der von drei Aktivisten verfasst ist.

Die Mail Online berichtete am 7. Juli 2014:

Enthüllt: wie es Umweltaktivisten erlaubt wurde, Präsident Obamas Energiepolitik zu beeinflussen:

Ein Aktivisten-Trio des Natural Resources Defense Council schrieb einen 110 Seiten starken Entwurf, der zu Obamas jüngstem Plan zur globalen Erwärmung wurde.

Zwei Rechtsanwälte und ein Student eines Berkeley-Programms, das eine ,nachhaltige Umwelt und eine gerechte Gesellschaft‘ befürwortete, haben das Dokument im Jahre 2010 eigenhändig geschrieben.

Der Vorgang wurde als Rache gesehen gegen die zweite Bush-Administration, weil diese es Energieerzeugern erlaubt hatte, das Weiße Haus in geheimen Treffen zu beraten.

Der leitende wissenschaftliche Autor des Dokuments hilft jetzt dabei, einen Super-PAC bzgl. der globalen Erwärmung laufen zu lassen, betrieben von dem Milliardär Tom Steyer.

Weiterlesen auf dailymail.co.uk.

———————————————————-

Der Reggae- und Hip Hop-Musiker Pierre Baigorry (Peter Fox, SEEED) sprach kürzlich mit Hans-Joachim Schellnhuber über den Klimawandel. Schellnhuber macht einen regelrecht geknickten Eindruck. Die Demokratie würde die Umsetzung seiner Klimaschutzvisionen verhindern. Ein Systemwechsel müsste her. Außerdem vermisst er bei Angela Merkel Größe. Er deutet an, sie würde nur auf Wählerstimmen schielen und hätte daher den tugendhaften Klimapfad verlassen. Es spricht viel dafür, dass er mittlerweile von der Kanzlerin abserviert worden ist. Noch vor etlichen Jahren in ihrer Phase als “Klimakanzlerin” hatte sie intensiv auf Schellnhuber gesetzt. Möglicherweise hat sie mittlerweile bemerkt, dass sich Schellnhuber mit seinen extremen Thesen weit vom Mainstream entfernt hat und auch vor antidemokratischen Maßnahmen zur Verwirklichung seines alarmistischen Klimaalbtraums nicht zurückschreckt.

Pierre Gosselin hat das Interview detailliert analysiert (Übernahme aus dem Notrickszone-Blog):

Der ernüchterte Schellnhuber vergleicht die globale Erwärmung mit einem Asteroiden-Einschlag im 21. Jahrhundert … und beklagt sich, dass niemand zuhört

Wenn es um Fortschritte der grünen Bewegung und der Großen Transformation geht, scheint der Potsdamer Professor ernüchtert und demoralisiert. Egal was man vom deutschen Gottvater des Klima-Alarmismus‘ denken könnte – es ist immer faszinierend, Hans-Joachim Schellnhuber zu beobachten, der niemals um Kommentare verlegen ist, die es wert sind zitiert zu werden. Er ist der Professor, der einst behauptet hatte, dass sich die globale Temperatur linear mit dem CO2-Gehalt verändert habe. Er sagte auch, dass der Planet mit 9 Milliarden Menschen explodieren würde. Und auch, dass eine Bevölkerung von 1 Milliarde ein akzeptables Niveau wäre.

Wie ein „Asteroiden-Einschlag in Zeitlupe“ am jüngsten Tag

Bereits an der Zeitmarke 0:14 sagte er nach der Feststellung, welches unglaubliche Privileg es sei, am PIK zu arbeiten, Folgendes:

Eines Tages öffneten sich unsere Augen: „Oh! Ich forsche jetzt an Aspekten des größten Problems, dem die Menschheit im 21. Jahrhundert gegenübersteht. Und diese Überzeugung hat sich gefestigt. Ja, dies ist das größte Problem des 21. Jahrhunderts“.

An der Zeitmarke 1:12 trägt Schellnhuber spektakulär dick auf, als es um den Ernst der Lage bzgl. der globalen Erwärmung ging. Er verglich es mit einem sich der Erde nähernden Asteroid, der schließlich auf der Erde einschlagen werde.

„Ich vergleiche es mit einem Asteroiden, der in Zeitlupe mit der Erde kollidiert, ja. Falls Wissenschaftler sagen, dass sich ein Asteroid auf Kollisionskurs mit der Erde befindet und wir 20 Jahre Zeit haben, ein Verteidigungssystem zu errichten, würden wir vermutlich mit allen Kräften, die wir haben, anfangen, ein solches zu bilden, und es wäre uns egal, ob es 50 Milliarden oder eintausend Milliarden kosten würde. Aber wenn ich sage, dass sich ein Asteroid nähert, und dass dieser Asteroid die Bezeichnung ,globale Erwärmung‘ trägt, der Einschlag aber erst in über 100 Jahren erfolgt, sagt jeder ,na und?‘ … Die Menschheit hat 20 oder 30 Jahre harter Planung vor sich“.

Hier müsste man eine Umfrage unter Wissenschaftlern durchführen und diesen die Frage vorlegen: „Glauben Sie, dass die globale Erwärmung genauso ernst ist wie ein erderschütternder Asteroiden-Einschlag?“ Ich bezweifle stark, dass viele Wissenschaftler Schellnhubers Paranoia des Weltuntergangs teilen.

Demokratie als Hindernis

Zu der Frage, ob die Politiker genug tun, sagt Schellnhuber, dass diese sich langsam bewegen, sagt aber auch, dass neue Verfahren, Dinge zu tun, oftmals viel Zeit brauchen, bis sie wirken. Sind sie aber erst einmal zu 20% oder 30% aktiviert, ist ein Tipping Point erreicht, und nichts kann den Übergang zum neuen System noch stoppen. Als Beispiel führt er an der Zeitmarke 3:42 schadenfroh die Tatsache an, dass das Preissystem der großen Energieerzeuger in Deutschland kollabiert ist.

„Noch vor zehn Jahren war das unvorstellbar … plötzlich hat sich dieses kleine Einspeise-Gesetz ausgewirkt. Es war lediglich ein Spielzeug grüner Politiker“.

Schellnhuber setzt seinen Optimismus in eine Systemänderung und nicht in politischen Fortschritt. Er sieht langsame politische Bewegung und Kompromisse als Hindernisse des Fortschritts. Nun ist es keine Überraschung, dass Schellnhuber niemals ein Fan von Demokratie und unabhängig denkenden Bürgern war. An der Zeitmarke 4:44 antwortet der Professor auf die Frage, was man als Individuum tun kann: „Wir brauchen soziale Kräfte, die nach Gerechtigkeit streben … Klimaänderung ist etwas zutiefst Ungerechtes, ja … Kräfte, die auf Werten basieren, die Bewahrung der Schöpfung – falls ich religiös sein möchte, und so weiter. Anderenfalls werden wir nicht in der Lage sein, den politischen Druck aufzubauen“.

Konferenzen: die „frustrierendsten und ermüdendsten Ereignisse“ der Welt

Prof. Schellnhuber ist eindeutig frustriert darüber, dass die Klimapolitik stecken geblieben ist, und sagt, dass die UN-Klimakonferenzen wahrscheinlich die frustrierendsten und ermüdendsten Ereignisse der Welt“ seien. Später können Zuschauer des Interviews selbst die Art von Unsinn erkennen, zu dem es kommt, wenn ein Klimaprofessor und ein Reggae-Sänger sich über Wirtschaft austauschen. Schellnhuber glaubt, dass Entzug eine effektive Strategie sein könnte, falls es denn möglich wäre, Investoren davon zu überzeugen, dass Öl, Gas und Kohle gefährlich für den Planeten sind. Schellnhuber scheint sich nicht bewusst zu sein, dass Investitionen in Windparks und Solaranlagen bereits gescheitert sind.

Langsam beginnt man zu erkennen, dass sich Prof. Schellnhuber auf einem anderen Planeten befindet (auf einem, der kurz vor einem Asteroiden-Einschlag steht und auf dem erneuerbare Energie funktioniert). Seine Lösung, um die Dinge in Gang zu bringen: Man bringe die Bevölkerung dazu, so zu denken wie er, und nur dann werden sie in grüne Energie investieren. Dann macht er den „inneren Schweinehund“ der Bevölkerung dafür verantwortlich, nicht das Richtige zu tun, und sagt: „Vielleicht brauchen wir Vorschriften, Gesetze … Zwang“.

Resigniert und frustriert wird Schellnhuber von Merkel geschmäht

Zum Ende des Interviews, bei der Zeitmarke 10:20, bis zu der sich Schellnhuber abgearbeitet hat, zeigt er eine Kombination von Frust und Resignation … als ob es für die menschliche Bevölkerung hoffnungslos ist. An der Zeitmarke 10:34 denkt Schellnhuber darüber nach, dass hoffentlich Präsident Obama noch einmal gewählt werde könnte und dass „Merkel nicht ein viertes Mal antritt“. Hier bestätigt Schellnhuber de facto, was so Mancher schon zu vermuten begonnen hat: Merkel hört nicht mehr auf ihn und die Potsdamer Wissenschaftler. Die einzige Hoffnung für die Klimabewegung ist es, fasst Schellnhuber zusammen, dass von irgendwoher eine starke Führung kommt. „Ein paar Gandhis wären nicht schlecht“.

Die Warmisten werden immer mehr demoralisiert.

Link: http://www.kaltesonne.de/?p=19675

Übersetzt von Chris Frey EIKE




Regeneration der Schiefer-Revolution

Reuters berichtet:

Bohrlöcher, die erst vor drei Jahren geschlossen worden waren, werden jetzt erneut gefrackt. Das ist die jüngste Innovation der durch Technologie angeschobenen Schieferöl-Revolution. Hydraulisches Brechen schlug auf die globalen Energiemärkte durch, stieg doch die gesamte Rohöl-Erzeugung in den USA auf ein 25-Jahres-Hoch. Diese Technik jedoch geriet in Schwierigkeiten durch einen raschen Rückgang des Öl- und Gas-Outputs. …

Die Verwendung kleinster Plastikkügelchen, bekannt als Ablenkmedium, die mit hoher Geschwindigkeit zusammen mit Wasser in die alten Bohrlöcher gepumpt werden, von denen die meisten drei bis fünf Jahre alt sind, blockieren einige der älteren Frakturen (die kanadische Firma Encana Corp.). „Der dahinter stehende Gedanke ist, dass das Ablenkmedium in die Frakturen eindringen wird mit dem geringstmöglichen Druck. Es umgeht Frakturen mit höherem Druck und erhöht den Druck im gesamten Bohrloch, so dass der Output zunimmt“, sagte David Martinez , der leitende Manager der Haynesville-Entwicklung.

Es ist ein verbreiteter, aber sehr ernster Fehler, die Zukunft aufgrund der heutigen Erkenntnisse vorherzusagen. In diesem Falle könnten sich alle diejenigen, die das baldige Ende der Schiefer-Revolution vorhergesagt haben, an ihren Worten verschlucken. Das Tempo technologischer Änderungen steigert sich immer mehr und führt zu einer Renaissance vieler Möglichkeiten. Wir erleben dies hautnah in der Welt der Energie, wo noch vor einem Jahrzehnt aus als für immer unzugänglich angesehenen Quellen plötzlich Öl und Gas sprudelte. Es ist ein Fehler zu glauben, dass es keine weiteren Durchbrüche hinsichtlich Fracking und horizontalem Bohren geben wird.

Link: http://www.the-american-interest.com/blog/2014/08/20/refracking-ready-to-rejuvenate-shale-revolution/

Übersetzt von Chris Frey EIKE




Was ist gefährlicher? Kernkraft, Windenergie oder Stauseen? Wie grüne Propaganda die Wahrnehmung verzerrt!

Die alles entscheidende Errungenschaft der Menschwerdung verdanken wir der Überwindung tief in unserer Psyche verwurzelter Urängste. Nur dadurch gelang es unseren Vorfahren, sich eine Kraft zunutze zu machen, die sonst kein anderes Lebewesen beherrschen kann, nämlich die des Feuers. Nicht der Werkzeug- oder der Waffengebrauch unterscheidet uns von allen anderen Tieren, sondern die Zähmung des Feuers. Den Gebrauch von Werkzeugen kann man bei Säugetieren wie Affen oder Seeottern und auch bei mehreren Vogelarten beobachten, und Tiere sind darüber hinaus sogar imstande, Werkzeug gezielt herzustellen. Von Schimpansen ist zudem bekannt, dass sie Knüppel auch als Waffen verwenden.

Der Gebrauch des Feuers ist dagegen einzigartig. Für Landsäugetiere ist Feuer (Bild 1) eine elementare Gefahr, vor der sie sich instinktiv fürchten, weil sie Schmerzen und Tod bedeutet. Auch der Mensch hat es erst spät in seiner Entwicklungsgeschichte – vor vermutlich 1,5 bis 2 Mio. Jahren – geschafft, diese Furcht zu überwinden und das Feuer zu nutzen. Dies ermöglichte Verbesserungen bei der Nahrungsmittelzubereitung sowie Schutz vor Dunkelheit, Kälte und Raubtieren. Später lernte man, es für die Herstellung von Keramiken und schließlich Metallen dienstbar zu machen. Bis zum nächsten entscheidenden Schritt der Menschheit auf dem Weg zu unserer heutigen Hochzivilisation sollten allerdings nochmals etliche Jahrtausende vergehen: Erst vor rund 300 Jahren gelang es, die durch das Feuer freigesetzte thermische Energie durch die Dampfmaschine nutzbar zu machen. Dampf und später Benzin, Diesel sowie Elektrizität ermöglichten es uns, die Beschränkung auf die eigene Muskelkraft sowie auf die Leistung von Zugtieren zu überwinden.

 

Bild 1 : Feuer ist eine elementare, tödliche Gefahr. Es bedurfte langer Zeit, bis der Mensch imstande war, seine Urängste zu überwinden und sich das Feuer nutzbar zu machen

Abwägung von Risiko und Nutzen

Zugleich musste der Mensch jedoch auch lernen, die mit dem Feuer verknüpften Risiken einzuschätzen und damit umzugehen. Der Umgang mit Feuer birgt unvermeidlicherweise erhebliche Gefahren. Archäologen finden im Untergrund von so gut wie jeder länger besiedelten Stadt Brandschichten, Zeugnisse von oft verheerenden Feuersbrünsten, die in den meist dicht besiedelten Städten zahlreiche Opfer forderten. Verlässliche Zahlen werden sich wohl nie ermitteln lassen. Man kann jedoch mit einer gewissen Berechtigung annehmen, dass die Zahl der Menschen, die im Lauf der Geschichte durch Feuer ums Leben kamen, im mehrstelligen Millionenbereich angesiedelt sein dürfte.

Dennoch hat sich unsere Spezies von solchen Ereignissen nicht abschrecken lassen, sondern gelernt, Risiko und Nutzen beim Gebrauch des Feuers einzuschätzen und damit umzugehen. Vor- und Nachteile wurden nüchtern und ohne Panik gegeneinander abgewogen und der Schluss gezogen, dass die Vorteile des Gebrauchs von Feuer so groß waren, dass man bereit war, die damit einhergehenden Risiken einschließlich teils sehr herber Verluste an Gütern und Menschenleben in Kauf zu nehmen. Über all die Jahrtausende menschlicher Zivilisation hinweg wurden neue Gebäude auch nach den verheerendsten Feuersbrünsten sofort wieder mit Feuerstelle, Kamin oder Herd ausgestattet. Zahllose Redewendungen belegen, dass die Begriffe „Heim“ und „Herd“ in unserer Vorstellung oft eine Einheit bilden.

Kein Fortschritt ohne Risiko…

Jede unserer Errungenschaften birgt sowohl Nutzen als auch Risiken. Dieser elementare Zusammenhang der Zivilisation gilt für so gut wie jede unserer Aktivitäten, seien es Bergbau, Medizin, Seefahrt, Luftfahrt oder auch das Auto, das weltweit ebenfalls millionenfache Opfer forderte und immer noch fordert, Bild 2. Es ist ein Kennzeichen des modernen Menschen, dass er imstande ist, im Umgang mit solchen Technologien emotional begründete Ängste zu überwinden und beide Aspekte mit wissenschaftlicher Nüchternheit zu beurteilen. Wer das nicht tut, sondern eine Technologie aufgrund emotionaler Vorurteile pauschal ablehnt, reagiert im Prinzip nicht viel anders als ein Affe, der kreischend vor einem Feuer reißaus nimmt.

Bild 2: Seit 1950 hat der Straβenverkehr allein in Deutschland mehr als 670000 Menschenleben gefordert. Dennoch benutzen wir täglich das Auto

beispielsweise bei Stauseen

Zum Umgang mit den Risiken der modernen Zivilisation gehört, dass sie im Alltag kaum noch wahrgenommen werden. Man setzt sich ins Auto oder ins Flugzeug, besteigt ein Fahrrad, ein Schiff oder einen Lift und verschwendet im Normalfall gar keinen Gedanken an die Gefahren, denen man sich damit aussetzt. Das damit verbundene allgemeine Lebensrisiko bzw. das Berufsrisiko wird mit größter Selbstverständlichkeit akzeptiert und spielt in den Gedanken keine wesentliche Rolle, selbst wenn man Tag für Tag mit dem Auto an Unfällen vorbeifährt.

Ein Beispiel für Risiken, die faktisch überhaupt nicht mehr als solche wahrgenommen werden, sind Talsperren. In Deutschland hat es in diesem Bereich seit Jahrzehnten keine Katastrophen mehr gegeben. Da das menschliche Gedächtnis kurz ist, wie die Neubesiedlung von Vulkanflanken schon bald nach dem Ende von Ausbrüchen zeigt, spazieren und wandern Tag für Tag zahllose Zeitgenossen um Talsperren, über ihre Krone hinweg und auch in den unterhalb gelegenen Tälern, ohne sich im geringsten bewusst zu machen, welch ungeheure zerstörerische Energie in den aufgestauten Wassermassen über ihren Köpfen (Bild 3) schlummert.

 

Bild 3: Stauseeunfälle haben im Laufe der Geschichte mindestens 70000 Menschenleben ausgelöscht

Stauseeunglücke haben mindestens 70000 Menschenleben gefordert

Die älteste bekannte Staudammkatastrophe ereignete sich laut einer Aufstellung in Wikipedia [WIST] bereits vor rund 4500 Jahren in Ägypten. Der Staudamm Sadd-el-Kafara hatte beachtliche Ausmaße: 113 m Kronenlänge, 14 m Höhe und ein Fassungsvermögen von 465000 m³. Er wurde noch während der Bauzeit von einer unerwarteten Flut zerstört. Über die Zahl der Opfer ist nichts bekannt, doch war die Katastrophe offensichtlich so verheerend, dass in Ägypten danach rund 800 Jahre lang niemand mehr ein solches Vorhaben in Angriff nahm. Die nächste Staudammkatastrophe, zu der Opferzahlen erwähnt werden, ereignete sich erst rund 3000 Jahre später in China und forderte mindestens 10000 Tote.

Zählt man die in obigem Wikipedia-Beitrag aufgelisteten Vorfälle und die entsprechenden Angaben zu Todesfällen zusammen, so ergeben sich je nach Zählweise Opferzahlen zwischen 70000 und mehr als 100000. Zwar ereigneten sich die meisten und die folgenschwersten dieser Unglücke im 20. Jahrhundert, doch gibt es immerhin 23 Vorfälle aus dem 21. Jahrhundert, davon sechs in hoch entwickelten Staaten: USA, Europäische Union, Japan. Staudämme wie die von Speicherwasserkraftwerken bergen auch heute noch erhebliche Risiken. Im Bewusstsein der Bevölkerung werden diese jedoch ignoriert. Und das ungeachtet der Tatsache, dass beispielsweise die Bewohner des Zillertals in Österreich unterhalb von drei Staumauern leben. Der Bruch auch nur einer Mauer – beispielsweise durch einen Terrorakt oder ein Erdbeben – würden vermutlich zehntausende Menschenleben kosten. Stauseen sind noch gefährlicher als die Stromerzeugung aus Kohlekraftwerken [TODE].

Auch Windanlagen sind Todesfallen

Besonders wirksam ist offensichtlich der ideologische Schleier, den die Windkraft-Lobby mit tatkräftiger Mithilfe ihrer zahlreichen Sympathisanten in den Medien über die in Wahrheit gar nicht so unerheblichen Gefahren der Windenergie für Leib und Leben geworfen hat. Zwar gibt es immer mal wieder Meldungen über Feuer oder den Absturz eines Rotorblatts [FIR1, FIR2, FIR3, FTO1, FTO2], doch werden selbst schwere Personenschäden oder gar Todesfälle so selbstverständlich hingenommen, dass darüber meist nur auf lokaler Ebene berichtet wird. Insgesamt hat sich daher in der Öffentlichkeit der Eindruck etabliert, als sei die Windkraftbranche auch diesbezüglich besonders „menschenfreundlich“.

Auch eine Schnellsuche im Internet mit Suchbegriffen wie „Wind Unfall“ fördert vordergründig zumeist lediglich Einzelmeldungen zutage, wobei nur selten Todesfälle gemeldet werden. Eine deutsche Website, die sich explizit des Themas Windrad-Unfälle annimmt [WIUN], ist lediglich ein Torso ohne großen Nutzen, weil sie offensichtlich schon kurz nach dem Beginn der Recherche nicht mehr weitergeführt wurde. Auch bei Wikipedia findet man – kaum verwunderlich angesichts der bekannten Dominanz grüner Ideologen in diesem Medium – nur eine sehr unvollständige Auflistung ohne Erwähnung von Todesfällen [WIKI].

Erst im englischsprachigen Netz finden sich realistischere Informationen. Eine Website, die sich auf dieses Thema spezialisiert hat [TOFI], erwähnt eine Meldung des „Daily Telegraph“ vom 11. Dez. 2011, wonach „RenewableUK“ bestätigt habe, dass es allein in Großbritannien in den letzten fünf Jahren 1500 Vorfälle und Unfälle mit Windturbinen gegeben habe. Hervorzuheben ist eine sehr ausführliche Dokumentation [UNFA], welche für den Zeitraum von 1975 bis zum 30.9.2009 insgesamt 674 Einzelereignisse auflistet, die sehr sorgfältig nach Merkmalen zugeordnet, beschrieben und mit Quellenangaben dokumentiert sind. Leider befindet sich das Material hinter einer Bezahlschranke, zudem wurde die Auflistung ab Oktober 2009 nicht mehr fortgeführt. Für den Berichtszeitraum sind jedoch immerhin 60 Todesfälle im Zusammenhang mit Windenergieanlagen dokumentiert. Vergleicht man dies mit anderen Zahlenangaben – z.B. den 1500 Unfällen innerhalb von fünf Jahren allein in Großbritannien –, so erscheint es gerechtfertigt, die Zahl der weltweit seit 1975 aufgetretenen Todesfälle mit einem Faktor von mindestens 5, eher jedoch 10 anzusetzen. Beispielsweise sind aus China, dem Land mit der der weltweit höchsten Zahl installierter Windenergieanlagen [WICI], keine Zahlenwerke über Unfälle oder Todesfälle bekannt. Und dass dort nichts passiert wäre, erscheint kaum glaubhaft. Es darf daher angenommen werden, dass die Windenergie im Zeitraum von 1975 bis heute mindestens 300 und möglicherweise sogar bereits über 600 Menschenleben gefordert hat. Das Saubermann-Image der Branche bricht damit in sich zusammen und erweist sich als nichts anderes denn als geschickt angelegtes Täuschungsmanöver.

Und die Risiken der Kernkraft?

Im Unterschied zu so gut wie allen anderen vom Menschen eingesetzten Technologien empfindet die Mehrzahl unserer Bevölkerung Kernenergie als Bedrohung von nahezu apokalyptischen Ausmaßen. Man fürchtet sich vor Strahlung, Verseuchung der Landschaft und Abfällen, welche angeblich die Zukunft unserer Nachfahren noch in Millionen von Jahren bedrohen. Dabei werden die Realitäten schlicht nicht mehr wahrgenommen, denn zivil genutzte Kernenergie ist mit weitem Abstand die sicherste heute genutzte Großtechnologie.

Bei der Beurteilung von Kernkraftrisiken muss zwischen ziviler und militärischer Technologie unterschieden werden. Insbesondere in den Anfangsjahren gab es bei militärisch ausgerichteten Anlagen sowie in kerntechnischen Laboren mehrfache Unfälle mit Todesfolge, teilweise auch infolge der Einwirkung von Strahlung in hohen Dosen. Anders sieht es dagegen bei zivilen Kernkraftwerken westlicher Bauart (Bild 4) aus: In diesen gab es bis heute keine Todesfälle durch Strahlung [NIEM].

 

Bild 4: In Kernkraftwerken westlicher Bauart gab es bis heute keinen Toten durch Strahlung

Bei der Nutzung der Kernenergie gab es bisher weltweit drei große Vorkommnisse, die in die Kategorie Größter Anzunehmender Unfall (GAU) eingestuft werden: Three Mile Island (Harrisburg, USA) im Jahre 1979, Tschernobyl (damalige UdSSR) im Jahre 1986 und Fukushima (Japan) 2011. Direkte Todesfälle durch Verstrahlung gab es lediglich beim Unfall in Tschernobyl, wo rund 60 Todesopfer zu beklagen waren [NIEM]. Abweichend hiervon kann man in den Medien teils viel höhere Zahlen finden, in der Regel als Ergebnis theoretischer Berechnungen zu den Folgen des Entweichens von Strahlung in die Umgebung. Diesen Angaben sollte man jedoch aus mehreren Gründen mit großem Misstrauen begegnen: Die für solche Analysen meist verwendete und seit langem umstrittene LNT-Methode (Linear No Threshhold) ist nämlich falsch [GEGN]. Würde man sie akzeptieren, dann müsste man auch die Risiken anderer Technologien wie dem Fliegen, dem Umgang mit Kaliumsalzen oder Phosphatdünger [APFE] wie auch der Arbeit in sogenannten Radon-Heilbädern völlig neu bewerten. Schon das Fliegen würde bei Anwendung dieser Theorie jährlich 100 Deutschen den Krebstod bescheren [NIEM]. Allein für die letzten 40 Jahre käme man damit auf 4000 zusätzliche Tote als Folge einer Aktivität, die aus unserem alltägliche Leben nicht mehr wegzudenken wäre. Man vergleiche dies mit bisher Null Strahlenopfern in westlichen Kernkraftwerken.

Das Märchen von der nuklearen Langzeitverseuchung

Eine der besonders wirksamen Lügen der EE-Lobbyisten ist die von der angeblich Millionen Jahre dauernden Umweltverseuchung, die wir nach dem Betrieb von Kernkraftwerken unseren Nachkommen hinterlassen würden. Zugleich wird jedoch alles getan, um die Errichtung eines Endlagers zu hintertreiben, indem man jeden praxistauglichen Schritt in diese Richtung durch Großdemonstrationen verhindert und zugleich in der Politik sowie in den staatlichen Gremien, in denen grüne Schranzen inzwischen gut dotierte Staatspöstchen haben, jede sinnvolle Entwicklung blockiert. Der Grund für diese Panikmache ist klar, denn ein funktionierendes Endlager würde ihr Lügengebäude in sich zusammenbrechen lassen.

Besonders interessant ist in diesem Zusammenhang, dass die deutschen Qualitätsmedien es bisher geschafft haben, der Öffentlichkeit vorzuenthalten, dass es bestens durchdachte Endlagerkonzepte bereits bei zwei europäischen Nachbarländern gibt, und zwar in Schweden (Bild 5) sowie in Finnland [ENDL]. Obwohl die dortigen Kommunikationsabteilungen sehr auskunftsfreudig sind und gerne alles zeigen und erklären, scheinen es deutsche Fernsehteams bisher kaum für nötig gefunden zu haben, dort unvoreingenommen vorbeizuschauen. Diesbezüglich vernimmt man von den Medien meist lediglich dröhnendes Schweigen.

Bild 5. Gesamtansicht des im schwedischen Forsmark geplanten Endlagers für hoch radioaktive Brennelemente (Grafik: SKB)

Diese seit Jahrzehnten fast flächendeckend betriebene grüne Propaganda hat dazu geführt, dass in unserer Bevölkerung schon bei der Erwähnung des Themas „Kernenergie“ panikartige Abwehrreaktionen einsetzen. Deutschland scheint bereit, aus Angst vor einem fiktiven Strahlentod in den energetischen Selbstmord namens „Energiewende“ zu marschieren. Manchmal kann man sich des Eindrucks nicht erwehren, dass man bei uns den Homo Sapiens in Käfige gesteckt hat, während die Affen frei herumlaufen. Es ist dringend Zeit, zu dem ruhigen Abwägen von Vorteil und Risiko zurückzufinden, der das eigentliche Kennzeichen unserer Zivilisation ist.

Fred F. Mueller

Quellen

[APFE] http://www.eike-klima-energie.eu/energie-anzeige/moegen-sie-aepfel-mit-erhoehter-radioaktivitaet/

[FIR1] http://www.wind-watch.org/video-germanfire.php

[FIR2] http://www.youtube.com/watch?v=54YOaQixRUo

[FIR3] http://www.youtube.com/watch?v=eQrtXx3aJdM

[ENDL]http://www.eike-klima-energie.eu/climategate-anzeige/wenn-blinde-nicht-sehen-wollen-ausgereifte-nuklear-endlagerung-direkt-beim-nachbarn/

[FTO1] http://www.epaw.org/multimedia.php?lang=en&article=a19

[FTO2] http://www.rtlnieuws.nl/nieuws/binnenland/monteur-overleden-bij-brand-windmolen-ooltgensplaat

[GEGN] http://www.ncbi.nlm.nih.gov/pmc/articles/PMC3526330/?report=classic  16.7.2013

[INGD] http://www.ingenieur.de/Fachbereiche/Windenergie/Unterschaetzte-Gefahr-Jeden-Monat-geraten-zehn-Windturbinen-in-Brand

[NIEM] http://www.buerger-fuer-technik.de/body_wie_viele_menschenleben____.html

[TODE] http://www.tagesspiegel.de/wissen/stromerzeugung-opfer-der-energie/3986380.html  3.8.2013

[TOFI] http://turbinesonfire.org/

[UNFA] http://de.scribd.com/doc/23856814/Wind-Turbine-Accidents

[WICI] http://www.wiwo.de/unternehmen/energiepolitik-china-ist-neuer-windenergie-weltmeister-seite-all/5260202-all.html

[WIKI] http://de.wikipedia.org/wiki/Liste_von_Unf%C3%A4llen_an_Windkraftanlagen_in_Deutschland_und_%C3%96sterreich

[WIST] http://de.wikipedia.org/wiki/Liste_von_Stauanlagenunf%C3%A4llen

[WIUN] http://docs.wind-watch.org/unfalldatei_2006.html




Schlosspark von Sanssouci – klimatisch bedroht?

von Walter Fett

Park Sanssouci  –  klimatisch bedroht?          

     Damals und heute  –  ein Vergleich

     Während seiner Regierungszeit legte Friedrich der Große, also der „Alte Fritz“, den Park von Sanssouci an. Im Verlaufe seines 18. Jahrhunderts legte – bei niedrigstem CO2-Gehalt der Luft – die grob gemittelte Temperatur um weniger als ein Grad zu. Dieses können wir aus der erfreulich weit zurückreichenden Beobachtungsreihe von Berlin-Dahlem schließen (siehe Abb.), nur 20 km von Sanssouci abgelegen. Es ist nicht bekannt, dass in der Zeit des Heranwachsens des Parks der Temperaturanstieg – direkt oder indirekt – sich besonders schädlich ausgewirkt hat.

 Abbildung 1: Die Grafik zeigt die Temperaturkurve von Berlin-Dahlem wie sie vom Meteorologischen Institut der freien Universität dem Verfasser zur Verfügung gestellt wurde. Die Aufzeichnungen in Dahlem selbst reichen jedoch nicht solange zurück, da die Messstation in Berlin mehrfach umgezogen wurde. Das ist in der Meteorologie durchaus üblicher, wenn auch unerwünschter Vorgang. Berlin-Dahlem steht also als Synonym für Berlin

   Ein ähnliches Schicksal könnte man nun auch zwei Jahrhunderte später erwarten. Da erlebte ein „Fritzchen Müller“ eine vergleichbare Temperaturerhöhung. Auch erreichte die Temperatur nicht mehr als nur das damalige Niveau. Man könnte daher meinen, dass das Schicksal der Parknatur dem damaligen – letztlich eher harmlosen – in etwa gleichen müsste. Abgesehen davon, dass angesichts des inzwischen wesentlich höheren CO2-Gehalts sogar mit einer Wachstumsförderung zu rechnen ist.

     Wie seinerzeit nach dem Temperatur-Maximum die Umkehr zu einer Abkühlung erfolgte, erleben wir auch jetzt seit anderthalb Dutzend Jahren, dass die weltweite Temperatur nicht mehr zunimmt. Warum also sollte man sich um den Park besonders sorgen? Warum sollte es diesmal dem Park schlechter ergehen?

     Ungeachtet dieser Entwicklung hält es die Stiftung für Preußische Schlösser und Gärten (SPSG) für geboten, wegen der „zu erwartenden Probleme“(?) eine dreitägige internationale Fachtagung „Historische Gärten im Klimawandel“ unter der apokalyptisch klingenden Ankündigung „Sanssouci in Klimanot“ zu veranstalten (siehe Text-Beilage). Nichts gegen generelle Untersuchungen über die Klimaabhängigkeit – auch die eines Parks. Jedoch das jedwede – und eventuell nicht unwillkommene – zeitgemäße Herhalten einer Klimadramatik erscheint uns doch bedenklich, – es sei denn, man hätte letztlich eine vorläufige Beruhigung der Öffentlichkeit im Auge, also dann sich schon treffender zumindest im Sinne einer Fragestellung geäußert, wie: „Sanssouci in Klimanot ? “.

Einladung der Schlösser- und Parkverwaltung zur Klimaveanstaltung siehe auch lesbares pdf im Anhang

Ergänzende Anmerkung der Redaktion:

 Der abgebildete Temperaturverlauf deutet einen ungefähren 200-Jahresrhytmus an. Dieser steht zumindest nicht im Widerspruch zu dem aus der Astrophysik bekannten 208-Jahres-Suess / Vries-Zyklus der Sonnenaktivität. Mithin lassen beide Verläufe eine derzeitige Wende erwarten." 

Related Files