1

Sich verschiebende Energietrends stumpfen Russlands Erdgas-Waffe ab

Bild rechts: Der russische Pipeline-Alptraum

Russland deckt über die Hälfte des Erdgasbedarfs der Ukraine, und seit 2006 hat Russland zweimal die Lieferungen gekürzt, und zwar wegen Streits über Politik, Preise und verspätete Zahlungen. Diese Lieferkürzungen bekamen auch viele Länder in Europa zu spüren, die von Pipelines abhängig sind, die durch die Ukraine laufen.

Aber Veränderungen des globalen Erdgashandels haben Moskaus Waffe abgestumpft, was den russischen Pipeline-Monopolisten Gazprom gezwungen hat, weltweit die Preise zu reduzieren und der Ukraine etwas mehr Spielraum für Verhandlungen einzuräumen.

Der Schiefergas-Boom in den USA hat Gas exportierende Länder gezwungen, sich nach anderen Abnehmern umzusehen. In Europa, wo man bereits Terminals zur Bearbeitung von Flüssiggas baut, wird man die eigene abnehmende Erzeugung durch Lieferungen aus Ländern wie Qatar aufstocken. Und im Jahre 2012 hat Statoil in Norwegen mehr Gas an andere europäische Nationen verkauft als Gazprom.

„Seit den russischen Lieferbeschränkungen der Jahre 2006 und 2009 hat sich das Rad total gedreht“, sagte Anders Aslund, ein Mitglied am Peterson Institute of International Economics, der Russland, die Ukraine und Kirgistan beraten hat. Aslund weiter: „Es gab einmal eine Zeit, in der die Ukraine und Deutschland den Kampf um die größten Gazprom-Lieferungen untereinander ausfochten. Heute steht Gazprom vor der Herausforderung, überhaupt auf dem ukrainischen Markt präsent zu bleiben“.

Im Dezember hatte Gazprom verlauten lassen, dass es der Ukraine preislich einen Rabatt einräumen würde mit einer Preissenkung von 11,5 Dollar pro 1000 Kubikfuß auf 8,10 Dollar. Aber das brachte die Ukraine nur auf eine Linie mit den Preisen die in anderen Teilen Europas bezahlt wurden. Gazprom sagte, es würde die Preise in jedem Quartal überprüfen, was bedeutet, dass Ende März eine Neufestsetzung erfolgen könnte.

Während veraltete Fabriken und Minen aus der Sowjet-Ära inzwischen effizienter geworden oder außer Betrieb gegangen sind, ist der heimische Gasverbrauch der Ukraine während der letzten fünf Jahre um fast 40 Prozent zurückgegangen. Der Sberbank Investment Research zufolge hat dies die Importe aus Russland halbiert.

Der heimische Verbrauch könnte noch weiter zurückgehen, falls die Ukraine die generösen Subventionen für Erdgas beschneidet, obwohl nur so wenige Haushalte ihre Rechnungen bezahlen, dass dies kaum ins Gewicht fallen könnte. „Die Leute werden vom Nichtbezahlen der niedrigeren Preise zum Nichtbezahlen der höheren Preise übergehen“, sagte Thane Gustafson, leitender Direktor von Russian Energy der Beratungsfirma IHS CERA.

Die Gas-Subventionen und Strafzahlungen liegen im Mittelpunkt der wirtschaftlichen Probleme der Ukraine und der Spannungen mit Moskau. Selbst wenn die heimischen Verbraucher alles bezahlen würden, würde der staatliche Gaskonzern der Ukraine Naftogaz Geld durch diese Verkäufe verlieren. Dies trägt zu den Zahlungsschwierigkeiten an Gazprom bei. Gazprom hat am 3. Februar gesagt, dass Naftogaz ihr 3,3 Milliarden Dollar schuldet für Lieferungen während der vorangegangen 13 Monate. Die Verluste von Naftogaz werden weiter wachsen, da es das Gas in der heimischen, unter Druck stehenden Währung verkauft, während die Einkäufe in Dollar abgerechnet werden.

„Ein ineffizienter und undurchsichtiger Energiesektor belastet weiterhin schwer die öffentlichen Finanzen und die Wirtschaft“, sagte der International Monetary Fund unter Verweis auf die Energiesubventionen, die im Jahre 2012 7,5% des BIP der Ukraine ausmachten. „Die sehr niedrigen Tarife für heimisches Gas und Fernheizung decken nur einen Bruchteil der ökonomischen Kosten und befeuern eine der höchsten Gasverbrauchsraten in Europa“, sagte der IMF im Dezember.

Langfristig könnte die Ukraine die heimische Erzeugung aber stark ankurbeln. Ende des vorigen Jahres unterzeichnete das Land Schiefergas-Abkommen mit Chevron und Royal Dutch Shell. Jede dieser Firmen wird 350 Millionen Dollar investieren im Rahmen von 5-Jahres-Programmen sowie 10 Milliarden Dollar für die Entwicklung im westlichen Teil des Landes. Allerdings hat Chevron, dessen Block 1,6 Millionen Acres ausmacht [fast 6500 km²], verlauten lassen, dass die Bohrungen noch nicht begonnen haben. Die Firma muss immer noch mit seinem Vertragspartner, dem zumeist staatseigenen Unternehmen Nadra Oles’ka, einige Details klären, sagte der Sprecher von Chevron Kent Robertson.

Die jetzt abgesetzte Regierung hat auch mit einer von Exxon Mobil geleiteten Gruppe verhandelt, die im Schwarzen Meer nach Öl und Gas suchen will. Im Januar, als sich Protestierende auf dem zentralen Platz in Kiew drängten, ist der Vizepräsident von Exxon Mobil für Europa, Kevin Biddle, in die Stadt gereist, um Verhandlungen aufzunehmen.

Inzwischen hat der Aufruhr der letzten zwei Wochen die Gas-Strategie der Ukraine noch konfuser gemacht. „Es gibt derzeit keine Regierung und keine Agenturen, mit denen man verhandeln kann“, sagte Simon Pirani, leitendes Forschungsmitglied am Oxford Institute for Energy Studies. „Wie hoch dies jetzt auf der Prioritätenliste steht, kann man nur raten“.

„Wir haben weiter Hoffnung, dass Verhandlungen … zu geeigneter Zeit wieder aufgenommen werden können”, sagte der Sprecher von Exxon Mobil Patrick McGinn.

Selbst wenn die Geschäfte mit ausländischen Unternehmen Fortschritte machen, muss die Ukraine immer noch etwa die Hälfte seines Gasbedarfs importieren, was bedeutet, dass die Beziehungen zu Gazprom wichtig bleiben.

Während der vergangenen Jahre hat Russland seine Preise für Erdgas an die Rohölpreise angepasst, aber angesichts steigender Gasvorräte und steigender Rohölpreise haben die Verbraucher Widerstand geleistet. Im Jahre 2012 haben viele industrielle Verbraucher und Kraftwerke in Europa zu Kohle gewechselt, und Russland hat zugestimmt, neu zu verhandeln. Die Verbindung zwischen Gas- und Ölpreisen hat etwa die Hälfte der russischen Gasverkäufe gefährdet. Gazprom hat auch zugestimmt, Klauseln in den Verträgen zu eliminieren, denen zufolge Länder wie Deutschland russisches Gas nur mit der Zustimmung von Gazprom weiter verkaufen dürfen.

Als Folge musste die Ukraine mehr zahlen als die Kunden von Gazprom in Deutschland, und im vorigen Jahr importierte die Ukraine kleine Mengen Erdgas aus Deutschland und Ungarn durch Pipelines in der Slowakei und Polen, sagen Experten. Deutschland kauft sein Gas aus verschiedenen Ländern, aber umgeleitetes russisches Gas hat im Endeffekt anderes russisches Gas untergraben.

„Die Ukraine hat ihren Verbrauch russischen Gases reduziert, was sie weniger verwundbar macht. Auch die kälteste Zeit des Winters ist vorbei. Und es gibt noch eine gewisse Menge Gas in den Speichern“, sagte ein leitender Beamter der Obama-Administration. Allerdings wollte dieser wegen der Sensitivität anonym bleiben. „Die Ukraine befindet sich immer noch in einer prekären Lage“, fügte er hinzu, „obwohl die Lage sich sehr von der im Jahre 2009 unterscheidet“.

Link: http://www.washingtonpost.com/business/economy/shifting-energy-trends-blunt-russias-natural-gas-weapon/2014/02/28/7d090062-9ef7-11e3-a050-dc3322a94fa7_story.html

Übersetzt von Chris Frey EIKE




EIKE News können jetzt „geliked“ und geteilt werden!

Bei Aktivierung der beiden Schaltknöpfe öffnet sich die Facebookseite und Sie können auch dort kommentieren und teilen. Falls Sie bei FB gelistet sind und Freunde ebenfalls "gefällt mir" aktivieren, wird auf Ihrer Seite (und nur dort) das Ergebnis angezeigt. Wir bedanken uns bei unserem Web-Programmierer und dem aufmerksamen Leser für diese Idee unsere News weiter zu verbreiten und damit die Reichweite noch mehr zu vergrößern!

Die Redaktion




97% der Bilder sind 1000 Klimaworte wert

Ein kürzlich auf dem Guardian-Blog erschienener Artikel von Ketan Joshi beschreibt wieder einmal die Aussage „eines gut etablierten wissenschaftlichen Konsens‘ zum Einfluss menschlicher Aktivitäten auf die Klimaänderung“. Unvermeidlich findet sich auch ein Link zur diskreditierten Studie von Cook et al., die so tut, als gebe es einen „Konsens von 97%“ hinsichtlich des Menschen als Hauptursache der globalen Erwärmung seit 1950. Unerklärlicherweise fehlt aber ein Link zu der nachfolgenden Studie von Legates et al. (2013), die zeigte, dass Cook et al. nur 0,5% der 11.944 Abstracts untersucht hatten, in denen der „Konsens“ nach ihrer Definition eindeutig beschrieben wird.

Die gute Nachricht (von Mr. Joshi natürlich als schlechte Nachricht gewertet) lautet: „Die jüngste Umfrage unter der australischen Öffentlichkeit zum Thema anthropogene globale Erwärmung, also die CSIRO’s fourth annual survey of Australian attitudes to climate change, zeigt, dass 39% aller Australier eine menschliche Rolle bei der globalen Erwärmung verneinen, weitere 8% glauben, dass sich das Klima überhaupt nicht ändert, und 6% sind sich unsicher, wohin es sich ändert“.

Unter dem Strich: Trotz Jahrzehnte langer unablässiger Propaganda sind über die Hälfte der Befragten nicht in den vorgestellten (und imaginären) „97%-Konsens“ eingelullt worden.

Noch mehr gute Nachrichten: „Wir fragen nach der Rangordnung von 16 sozialen Themen hinsichtlich ihrer Bedeutung, und die Klimaänderung stand an drittletzter Stelle. Man muss schon sehr hart suchen, um irgendeine andere Form wissenschaftlicher Leugnung (da ist dieses hassenswerte Wort wieder) mit so signifikanten Auswirkungen auf die Prioritäten der Australier zu finden“.

Mr. Joshi fährt fort mit einer Graphik von Cook, den er unterhaltsam beschreibt als einen „Kommunikationsexperten der Klimawissenschaft“, der vorgibt zu zeigen, dass der wirkliche Konsens 97% beträgt, während die Öffentlichkeit denkt, dass nur 55% aller Wissenschaftler hinsichtlich der globalen Erwärmung übereinstimmen.

Die Beschwörung eines Konsens’ ist kein guter Weg, wissenschaftliche Argumente zu untermauern. Es ist der logische Trugschluss des argumentum ad populum, also der Behauptung, dass etwas wahr ist, nur weil es der vorherrschenden Meinung entspricht. Aber es reicht, um ein mittleres „legendäres“ Nachrichtenjournal zum Narren zu halten, indem es weiter denkt, dass die Parteilinie – trotz des Vulkans an Beweisen aus der realen Welt – vielleicht doch richtig ist.

Das Problem ist, dass Graphiken wie die von Cook effektive Wege sind, Falschheiten so darzustellen, als seien es Wahrheiten. Nun, jetzt ist es an der Zeit, es ihnen mit gleicher Münze heimzuzahlen, indem man Graphiken als effektiven Weg benutzt, ihre Falschheiten bloßzustellen und die Wahrheiten der Wissenschaft zu illustrieren. Ich stelle ein Buch mit Graphiken und anderen Bildern zusammen, mit einwandfreien Quellenangaben und genauen Zeichnungen. Sie zeigen die Wahrheit auf eine Art und Weise, dass sie nicht missachtet oder geleugnet werden kann.

Hier ist eine genaue Graphik hinsichtlich des Konsens’, wie er möglicherweise aus den von Cook veröffentlichten Datensätzen hervorgeht:

Es scheint etwas Anstößiges dabei zu sein, wenn man die Wahrheit mittels farbenfrohen Graphiken verbreitet, anstatt sich auf die obskuren, unscharfen Graphiken zu verlassen, die in den meisten wissenschaftlichen Journalen die Norm sind.

Weiter beklagt sich Mr. Joshi: „Cook nennt dies die ‚Konsens-Lücke’. Es ist genau das Ergebnis, das durch systematische Bemühungen zu erwarten ist, die öffentliche Meinung von Ergebnissen der Wissenschaft fernzuhalten. Wahrscheinlich hat sich diese Lücke aufgetan durch die Bemühungen konservativer Kommentatoren in den Medien, die unablässig Zweifel verbreiten“.

Es ist auch das, was man erwarten würde, wenn man von einem wachsenden Bewusstsein bei den Menschen ausgeht außer den unüberzeugbaren Ignoranten, dass meine Graphik der Wahrheit entspricht. Vom „Konsens“ weiß man, dass er 0,5% beträgt, nicht 97%.

Leser bei WUWT sind eingeladen, den Spaß zu verfolgen. Lassen Sie mich über Kommentare wissen, welches Ihr Lieblingsbild ist. Die Besten finden den Weg in mein Buch.

Fußnote: Es gilt die Eschenbach-Regel. Wenn man mit dem, was ich hier gesagt habe, hausieren geht, sei man bitte kein Klimanazi (© Roy Spencer, MMXIV [2014]). Man zitiere mich bitte korrekt anstatt zu wiederholen, was ich gesagt habe, um dem Reichspropagandaamt* zu folgen.

[*dieses Wort steht so kursiv auch im Original]

Link: http://wattsupwiththat.com/2014/02/26/97-of-pictures-are-worth-1000-climate-words/#more-103864

Übersetzt von Chris Frey EIKE




Wind-Nation Dänemark lässt kritische Bürger ausspähen und analysieren

Die dänische Windkraftbranche beklagt, dass es immer schwieriger wird, Akzeptanz für ihre Projekte bei der Bevölkerung vor Ort zu finden. 

Dank des Forschungsministeriums wurde die mit öffentlichen Geldern finanzierte, interdisziplinäre Studie ins Leben gerufen, die von Wissenschaftlern dreier Universitäten aus Dänemark, Irland und England und den Interessenvertretern der Windindustrie unterstützt wird. Der Austausch unter den Organisationen der Windkraftgegner zu Themen wie z.B. Windparkbetrug, Artenschutz, Schlafstörungen und Nina Pierpont, Ärztin aus dem Staat New York, die das Windturbinensyndrom erforscht hat, eine Erkrankung,verursacht durch tieffrequenten Schall, unter der nach jüngsten Untersuchungen aus Schweden 30% der Anwohner von Windenergieanlagen leiden, wurde gezielt untersucht. 

Dazu wurden die Verbindungen von 323 Webseiten national und international agierender Gegenwindorganisationen und Verbände ausgespäht und analysiert. 

Allein im kleinen Dänemark gibt es mittlerweile 200 Bürgerinitiativen und Vereine, weltweit sind es Tausende Gruppen und Verbände mit teils Hunderten angeschlossener Initiativen. 

Am heutigen Freitag veröffentlichen Webseiten von Windkraftgegnern weltweit eine Grafik der Studie 2050, um ihre gute Vernetzung zu bestätigen und deutlich zu machen, dass mit ihnen gerechnet werden muss. Die Bevölkerung hat ein demokratisches Recht auf Transparenz und Mitsprache – weltweit. Bewahrung der Natur mit ihrer Artenvielfalt, der Landschaft und die Gesundheit der Menschen ist das gemeinsame Ziel dieser globalen Bewegung. 

Vestas sorgt außerdem für einen Skandal, indem es weiterhin verbreitet, dass es keine schädlichen Auswirkungen von Infra-und niederfrequentem Schall gibt, trotz einer jetzt aufgetauchten Vestas-PPP aus dem Jahre 2004, aus der ganz andere Dinge hervorgehen: 

http://windwahn.de/index.php/krankheit-56/allgemein/skandal-in-der-sauberen-windkraftbranche 

Info zur Studie (Englisch): 

http://vbn.aau.dk/en/projects/wind2050–multidisciplinary-study-on-local-acceptance-and-development-of-wind-power-projects%287e1a4c51-69df-4440-84ba-aee841b92c23%29.html 

JR epaw-d 

Jutta Reichardt 

Neuendorf-Sachsenbande 

Sprecherin der EPAW für Deutschland 

www.windwahn.de 

www.epaw.org 

Bitte unterstützen Sie diese Petition (ID-Nr. 49690, siehe Anlage) beim Deutschen Bundestag um im § 35 BauGB das "Priveligiertes Recht" abzuschaffen (die Ratte zu vernichten).

2500 Personen unterstützen bereits die parallel gestartete Online-Petition

siehe

https://www.openpetition.de/petition/online/35-baugb-abschaffung-privilegierte-bauvorhaben-von-windenergieanlagen-im-aussenbereich

Anmerkung der Redaktion:

Irgendwie passt diese Meldung dazu.

<borsen.dk/nyheder/politik/artikel/1/277873/energiminister_klar_til_at_skrotte_havmoeller.html>

Der Dänische Energieminister plant, künftig Offshore- Windenergie -Projekte zu kippen

Die Windenergie ist keine heilige Kuh mehr. Klima-und Energieminister Rasmus Petersen (R) will den Preis für die bei Off-Shore- Windkraftanlagen erzeugte elektrische Leistung reduzieren . Ansonsten ist der Minister auch bereit, zukünftige Projekte fallen zu lassen, schreibt Jyllands-Posten .

"Ich bin darüber unglücklich, dass der Preis für Strom aus dem Offshore-Windpark Anholt so hoch ist. Ich denke, dass es zu viel ist 1,05 Kronen pro Kilowattstunde ( kWh) zu zahlen ", sagte er der Zeitung .

Neue Projekte können gestoppt werden

Der aktuelle Marktpreis für Strom beträgt DKK 0,25 (*). Das bedeutet, dass die Offshore-Windpark Anholt jährlich Unternehmen und dänischen Stromkunden 1,3 Milliarden DKK für grünen Strom kosten wird .

Der Minister sagte, so Jyllands-Posten , dass er bereit ist, die zwei großen  – Offshore-Windturbinenprojekte Horns Rev 3 und Kriegers Flak mit einer Gesamtleistung von 1000 MW zu kippen.

Zum Vergleich: Die Offshore-Windpark Anholt hat eine Kapazität von 400 MW und ist der größte dänische Offshore-Windpark .

* Wenn das der Preis pro kWh ist, dann ist Dänemark ein Paradies für Stromkunden. Evtl. ist das der Preis für 1/10 kWh? Wer weiß Näheres?




Das Spiel für Erneuerbare ist aus

[*Unübersetzbares Wortspiel: The green energy crisis in Europe is now fracturing, or rather fracking, the green movement]

Anfang dieses Jahres jedoch hat er dem Präsidenten der Liberaldemokraten Tim Farron gesagt, dass er auch der Ansicht ist, dass die vom Menschen verursachte Klimaänderung durch kohlenstoffbasierte Energieerzeugung die Ursache der jüngsten „destruktiven“ Regenstürme in UK sei.

Aber dann wiederum hat er einer Gruppe von Tories gesagt, dass er sich darauf konzentrieren wolle, all das „grüne Kroppzeug“ loszuwerden. Dies stand in einer Antwort auf das Versprechen von Ed Milliband, die Energiepreise einzufrieren. Das also ist Ihre Koalitionsregierung – erzählen Sie den Hinterbänklern Ihrer Partei, dass sie die Nase voll haben von exzessiven Subventionen für gigantische Windturbinen offshore, und sagen Sie gleichzeitig den Kollegen der Liberaldemokraten, dass Sie „die grünste Regierung jemals“ haben.

Angela Merkel scheint ihre Koalitionsregierungen in Deutschland ohne einen solchen Eindruck hastig improvisierter – und widersprüchlicher – politischer Abenteuer zu führen; und die sture deutsche Kanzlerin wurde mehr als einmal von Camerons Flatter-Entscheidungen [Cameron’s student-essay-crisis style of decision-making]  auf die Palme gebracht.

Andererseits ist es besser, überhaupt keinen Plan zu haben als einen schlechten Plan, der mit eiserner Konsistenz durchgezogen wird. Denn es ist Deutschlands Energiepolitik, die die wirkliche Katastrophe ist – oder, wie es ein ehemaliger EU-Kommissar vor zwei Wochen auf einem Treffen ausgedrückt hat, dem ich beiwohnte: „Es ist die dümmste Politik, die jemals von einer deutschen Nachkriegsregierung durchgeführt wurde – es sei denn, man beabsichtigt, Deutschlands sauer verdiente Wettbewerbsfähigkeit zu zerschlagen“.

Vor einigen Tagen hat die Europäische Kommission verspätet die Selbstzerstörung eingeräumt, die durch die Politik bzgl. der erneuerbaren Energie droht; und sie ist davon abgerückt, auf verbindliche Ziele in jedem der 28 Mitgliedsstaaten zu bestehen.

Die größte Volkswirtschaft Europas hat die ganze Idiotie der bestehenden Politik enthüllt. Durch die massive Subventionierung von Erneuerbaren – etwa 17 Milliarden Pfund allein im vorigen Jahr – hat Deutschland einem Editorial des ‚Spiegel‘ zufolge „andere Kraftwerke aus dem Markt gedrängt. Nur billige Kohle kann noch im Preiswettbewerb mithalten … Das ganze kranke System zum Voranbringen erneuerbarer Energie stellt sicher, dass mit jedem neuen Solarpaneel auf den Dächern und jeder zusätzlichen Windturbine automatisch mehr Kohle verbrannt und mehr CO2 in die Atmosphäre freigesetzt wird“. [Hervorhebung vom Übersetzer]

Tatsächlich basierte Merkels „kranke” Politik und da vor allem ihre Entscheidung, die Kernkraft zu verbannen, die einzige bedeutende Energiequelle ohne CO2-Emissionen, teilweise auf einer Notlage der heimischen Parteipolitik. Getreu der Cameron’schen Empfehlung „vote blue, go green“, war Merkel darauf getrimmt, vor der Wahl in Deutschland im vorigen Jahr die Partei der Grünen zu neutralisieren, einen mächtigen politischen Gegner. Das hat auch funktioniert, aber wie die Zeitung ‚Die Welt‘ schrieb: „Es ist der deutsche Steuerzahler, der jetzt die Kosten für diesen politischen Erfolg zu tragen hat“.

Tatsächlich ist es aber zunehmend nicht der Steuerzahler, dem diese gewaltigen Kosten in Rechnung gestellt werden, sondern die deutsche Industrie. Die Europäische Kommission bereitet eine Klage vor gegen die mehr als 4000 Subventionen in Deutschland für erneuerbare Energie, teilweise mit der Begründung, dass derartige Geschenke niemals dazu gedacht waren, „ausgewachsenen“ Industrien zugute zu kommen: Kaum ist es zu glauben, aber die größte Einzelquelle erneuerbarer Energie in Europa ist das Verbrennen von Holz.

Im Übrigen hat man sich die Windkraft schon über 2000 Jahre lang zunutze gemacht. Der Wind wurde zur Energieerzeugung genutzt, bevor die drastisch produktiveren fossilen Treibstoffe aufkamen: Dieser Durchbruch (bekannt unter der Bezeichnung industrielle Revolution) führte dazu, dass Millionen Menschen zu Wohlstand kamen.

Im modernen Deutschland trägt die Industrie eine viel mächtigere politische Last als der normale Verbraucher: Falls die Industrie den vollen Marktpreis für die benötigte Energie zahlen müsste – inzwischen mehr als doppelt so viel wie die Rivalen in Amerika zahlen müssen – würde sie sich einfach davon machen. Der indische Stahlmagnat Lakshmi Mittal hat kaum übertrieben, als er jüngst sagte: „Wenn die EU nicht Maßnahmen ergreift … könnte sie die produzierende Industrie zerstören, die das Rückgrat der europäischen Wirtschaft ist“.

Und wirklich, erforderlich sind nicht Maßnahmen Brüssels, sondern machtvolle Untätigkeit: das heißt, man muss die katastrophale „grüne Politik“ aufgeben und zulassen, dass die europäische Industrie ihre Energie zum günstigst möglichen Preis bezieht.

Die Krise in Europa – die vor nichts weniger steht als der kompletten Deindustrialisierung – zerbricht jetzt die grüne Bewegung hier. Lord Deben, der darauf besteht, dass „niemand enthusiastischer hinsichtlich Erneuerbarer als er selbst“ sein könne, hat sich unmissverständlich hinter den Gedanken gestellt, dass UK jetzt damit anfangen sollte, seine riesigen und bislang unangetasteten Schiefergasvorräte auszubeuten. Er sagte dem Guardian, dass alle, die gegen das Öl- und Gas-Fracking sind, „unvernünftige Extremisten seien … sehr nahe an einer Art Trotzki’scher Politik“.

Der geschäftsführende Direktor von Greenpeace UK John Sauven erwiderte darauf: „Unsere Gruppe unterstützt ihn in vielen Dingen, aber er macht Fehler. Sein vehementes Eintreten für Fracking ist gleichbedeutend mit einem noch größeren Fehler, als er seiner Tochter mitten in der BSE-Krise einen Hamburger verabreichte … er wäre besser dran, wenn er sich viel stärker für Energieeffizienz und Erneuerbare einsetzen würde. Das ist der einzig sichere Weg, Arbeitsplätze zu sichern sowie für grünes Wachstum und stabile Stromrechnungen in der Zukunft“. Natürlich: Arbeitsplätze in China und Amerika.

Und Sauvens Erwähnung des berühmten Momentes mit dem Hamburger dient der Selbstverteidigung. Die Tochter, die diesen Hamburger genüsslich verspeist hatte, ist nach wie vor bei bester Gesundheit. Der Einzige, der jetzt ziemlich dumm dasteht, ist der leitende Wissenschaftler der Regierung, der im Jahre 1996 gewarnt hat, dass eine halbe Million Briten innerhalb weniger Jahre sterben könnten durch die menschliche Variante der Kreutzfeld-Jakob-Krankheit (vCJD).

Ein anderer Berater der Regierung, nämlich Prof. Richard Lacey, hat dies als „die Zeitbombe des 20. Jahrhunderts beschrieben, gleichbedeutend mit der Beulenpest“. Für das Protokoll: 177 Briten sind an vCJD gestorben.

Die schrecklichen Schauermärchen von Greenpeace hinsichtlich der Konsequenzen für unseren Planeten und unser Wohlergehen durch anthropogene CO2-Emissionen erinnern nur zu deutlich an Prof. Laceys Aussage, dass bis zum Jahr 2016 eine halbe Million Briten getötet werden würden durch die Ansteckung von kranken Wiederkäuern.

Der vollständige Kommentar steht hier (paywalled)

Link: http://www.thegwpf.org/dominic-lawson-games-renewable-energy/

Übersetzt von Chris Frey EIKE




Das Rätsel der Eiszeiten – Teil III – Hays, Imbrie & Shackleton

Diese Studien sind ziemlich überholt, und viele neue Informationen sind seit deren Erscheinen ans Licht gekommen. Und natürlich sind seitdem tausende paper zum Thema Eiszeiten geschrieben worden. Warum also der Blick auf ältere Arbeiten? Weil es hilft, einen Zusammenhang herzustellen. Es handelt sich um „oft zitierte“ oder grundlegende paper, aber das Verständnis der Eiszeiten ist so komplex, dass es möglicherweise einfacher ist, mit einer ältere Sicht zu beginnen. Zumindest hilft es mir, meine Gedanken zu ordnen. Wann immer ich versuche, ein Klimaproblem zu verstehen, endet dies normalerweise mit dem Versuch, einige der früher oft zitierten Studien zu verstehen. Die meisten nachfolgenden Studien stützen sich nämlich darauf, ohne die Inhalte noch einmal zu wiederholen.

Die Arbeit "Variations in the Earth’s Orbit: Pacemaker of the Ice Ages von J.D. Hays, J. Imbrie, N.J. Shackleton (1976)" wird in vielen von mir gelesenen Arbeiten der jüngeren Zeit erwähnt, Google Scholar zufolge ist sie in 2656 folgenden paper als Referenz genannt worden. In der Klimawissenschaft ist das sehr viel.

Seit mehr als einem Jahrhundert sind die Gründe für die Fluktuationen der Eisschilde des Pleistozäns ein faszinierendes und ungelöstes wissenschaftliches Mysterium. Das große Interesse daran hat eine Anzahl möglicher Erklärungen hervorgebracht. Eine Gruppe von Theorien betrachtet Faktoren außerhalb des Klimasystems einschließlich Variationen des solaren Outputs oder der Sonnenenergie, die, beeinflusst durch interstellaren Staub, die Erde erreicht; die jahreszeit- und breitenabhängige Verteilung der einfallenden Strahlung infolge Änderungen der Orbitalgeometrie der Erde; den atmosphärischen Gehalt an vulkanischem Staub sowie das Magnetfeld der Erde. Andere Theorien basieren auf internen Elementen des Klimas, die lange genug andauern, um Fluktuationen im Zeitmaßstab von 10.000 bis 1.000.000 Jahren hervorzurufen. Diese Einflussfaktoren schließen auch Ausdehnung und Schrumpfung von Eisschilden ein, die Veränderungen des Meereises um die Antarktis, die Eisbedeckung des Arktischen Ozeans, den Austausch von Kohlendioxid zwischen Atmosphäre und Ozeanen und die Tiefenzirkulationen in den Ozeanen.

Außerdem wurde geltend gemacht, dass das Klima als ein fast intransitives System zwischen verschiedenen Stadien in angemessenen Zeiträumen ohne jede Einmischung äußerer Antriebe oder einer internen Zeitkonstanten pendeln kann. Dieser letzte Gedanke wurde von Lorenz 1968 aufgeworfen und zwar in der Studie, die wir in Teil II beleuchtet haben.

Die Autoren Hays et al. merken an, frühere Arbeiten hätten Beweise erbracht, dass orbitale Änderungen bei Klimaänderungen eine Rolle spielen. Sie verfassen dann einen interessanten Kommentar, der, wie wir sehen werden, in den 38 Jahren seit Erscheinen dieser Studie seine Gültigkeit nicht verloren hat:

Das erste Problem ist die Unsicherheit bei der Identifizierung derjenigen Anteile im Strahlungshaushalt, die für Klimaänderungen kritisch sind. Die Abhängigkeit von Breite und Jahreszeit wird als höchst bedeutsam angesehen; erheblich unterschiedliche Klimaaufzeichnungen können mit den gleichen astronomischen Daten vorhergesagt werden. Milankovitch folgte den Ansichten von Köppen und Wegener, dass die Verteilung der sommerlichen Einstrahlung um 65°N kritisch für das Anwachsen oder Schrumpfen von Eisschilden sei. Kukla wies auf Schwächen dieser Argumentation hin und meinte, dass die kritische Zeit die Monate September und Oktober in beiden Hemisphären seien. Als Folge würden die Zeiten der letzten Zwischeneiszeit auf der Basis dieser Verläufe auf vor 80.000 bis 180.000 Jahren geschätzt.

Das andere Problem zu jener Zeit bestand im Fehlen von Qualitätsdaten über die Eis- und Zwischeneiszeiten:

Das zweite und kritischere Problem beim Testen der Orbitaltheorie war die Unsicherheit der geologischen Chronologie. Bis vor kurzem hat die Ungenauigkeit der Datierungsmethoden die Zeitspanne begrenzt, in der ein aussagekräftiger Test für die letzten 150.000 Jahre durchgeführt werden konnte.

Sie wendet sich dann einigen jüngeren Studien zu, die Daten von besserer Qualität zu den letzten paar einhunderttausend Jahren der Temperaturgeschichte aufweisen. Übrigens ist Hays Professor der Geologie, Imbrie Professor der Ozeanographie und Shackleton forschte zu jener Zeit über das Quartär (Anm. der Redaktion: Das Quartär ist der jüngste Zeitabschnitt der Erdgeschichte einschließlich des Holozäns und damit der Gegenwart.) und ist jetzt Professor auf diesem Gebiet.

Kurze Einführung in Orbitalparameter, die wichtig sein können

Änderungen der orbitalen Geometrie der Erde sind genau das, was wir in einem späteren Artikel näher beleuchten wollen, möglicherweise in Teil IV. Sie haben nämlich Änderungen der solaren Einstrahlung zur Folge. Als Einführung zu dieser Problematik sind drei Parameter maßgebend, die variabel sind und mit Klimaänderungen in Verbindung stehen:

1. Exzentrizität e (wie sehr nähert sich der Erdorbit einer Kreislinie an) – gegenwärtiger Wert 0,0167.

2. Ekliptik ε (die Neigung der Erdachse) – gegenwärtig 23,439°

3. Präzession ω (wie nahe befindet sich die Erde im Juni oder Dezember an der Sonne) – gegenwärtig erreicht die Erde ihren sonnennächsten Punkt am 3. Januar.

Zum ersten Punkt: Die Exzentrizität, ist der einzige Parameter, der die Gesamtmenge der solaren Einstrahlung an der Obergrenze der Atmosphäre in einem bestimmten Jahr verändert. Man beachte, dass eine konstante Einstrahlung an dieser Obergrenze variabel sein kann, falls mehr oder weniger dieser Solarstrahlung durch variable Eisschilde infolge veränderter Ekliptik reflektiert wird.

Zum zweiten Punkt: Die Ekliptik oder Neigung beeinflusst den Unterschied der Einstrahlung an der Obergrenze der Atmosphäre (Anm. der Redaktion: TOA = top of atmosphere) zwischen Sommer und Winter. Somit werden die Jahreszeiten, genauer, die Stärken der Jahreszeiten beeinflusst.

Zum dritten Punkt: Die Präzession beeinflusst die Strahlungsmenge zu verschiedenen Zeiten des Jahres (moderiert durch die Exzentrizität). Wenn die Umlaufbahn der Erde um die Sonne ein perfekter Kreis wäre, würde dieser Einfluss verschwinden. Befindet sich die Erde im Juni/Juli in größter Nähe zur Sonne, ist der Sommer der Nordhemisphäre stärker und derjenige der Südhemisphäre schwächer, im Winter ist es umgekehrt.

Die Exzentrizität beeinflusst also die totale TOA-Einstrahlung, während Ekliptik und Präzession deren Verteilung nach Jahreszeit und Breite verändern. Allerdings hängen die Variationen der TOA-Einstrahlung von e² ab, so dass ihre Gesamtvariation dort über einen sehr langen Zeitraum lediglich 0,1% betragen hat. Diese Variation ist sehr gering. Dennoch ist in den Eisbohrkerndaten die Exzentrizität das stärkste „orbitale Signal“. Dieser Widerspruch ist ein Problem, das bislang nicht einmal die Befürworter dieser Theorie als gelöst ansehen.

Zu den letzten Klimata der Zwischeneiszeiten heißt es bei vielen Autoren, einschließlich George J. Kukla, Wallace S. Broecker, John Imbrie, Nicholas J. Shackleton:

Am Ende der letzten Zwischeneiszeit (Warmzeit) vor etwa 100.000 Jahren bewegte sich die Erde ähnlich wie heute in eine ausgeprägt kältere Phase. Gletscher wuchsen, der Meeresspiegel sank und Wüsten dehnten sich aus. Der gleiche Übergang erfolgte auch viele Male früher, verbunden mit periodischen Veränderungen des Erdorbits um die Sonne. Der Mechanismus dieser Änderung, das wichtigste Puzzleteil der Klimatologie, ist bislang nicht aufgefunden.

Sediment-Bohrkerne

Unsere geologischen Daten umfassen Messungen von drei klimasensitiven Parametern in zwei Bohrkernen aus Sedimenten der Tiefsee. Diese Bohrkerne stammen aus einem Gebiet, in dem sich, wie frühere Arbeiten gezeigt haben, Sedimente schnell genug ablagern, um Informationen in der hier interessierenden Frequenz  zu liefern. Messungen des Sauerstoffisotopenverhältnisses δ18O (Anm. der Redaktion: das Isotopenverhältnis 18O zu 16O, bezeichnet als δ18O, ist proportional zur lokalen Umgebungstemperatur), machen es möglich, diese Bohrkerndaten mit anderen weltweit zu vergleichen und so sicherzustellen, dass sich die untersuchten Sedimente ohne signifikante Pausen und mit Raten abgelagert haben, die keine wesentlichen Fluktuationen zeigen…

…Aus vielen hundert Bohrkernen, die stratigraphisch durch das CLIMAP-Projekt untersucht worden sind, haben wir die beiden ausgesucht, deren Fundort und Eigenschaften zum Testen der Orbital-Hypothese ideal sind. Am wichtigsten aber: sie enthalten eine Klimaaufzeichnung, die kontinuierlich und lang genug ist, um statistisch brauchbar zu sein (450.000 Jahre) und sich durch Akkumulationsraten auszeichnet, die schnell genug sind (>3 cm pro Jahrtausend), um noch klimatische Fluktuationen mit Perioden deutlich unter 20.000 Jahren zeitlich  aufzulösen.

Die Bohrkerne stammen aus dem südlichen Indischen Ozean. Interessant an ihnen ist, dass von jeder Stelle 3 unterschiedliche Parameter ausgewertet werden konnten, einschließlich von δ18O Werten, die ein Maßstab für die globalen Eisschilde und die Temperaturen an den Stellen der Ozeane sein müssten, von wo die Bohrkerne herstammen.

Hays, Imbrie & Shackleton (1976)

Über die Datierung der Bohrkerne wurde viel diskutiert. Im Wesentlichen erlauben andere Informationen einige Abänderungen der Datierung, wobei die Arbeitshypothese lautet, dass innerhalb dieser Änderungen die Akkumulation der Sedimente mit konstanter Rate erfolgte.

Zwar ist einheitliche Sedimentierung ein Ideal, von dem es unwahrscheinlich ist, dass es überall vorherrscht. Dass die gleichen Charakteristika der Sauerstoffisotope in allen Bohrkernen gleichermaßen zu finden sind, zeigt aber, dass es keine substantiellen Zungen mit Abweichungen geben kann. Die frappierende Ähnlichkeit der Bohrkerne aus weit entfernten Gebieten zeigt zudem, dass es keine großen Verzerrungen der Akkumulationsraten geben kann.

Spektralanalyse

Der Schlüsselabschnitt der Analyse von Hays et al. ist die Spektralanalyse der Daten, die  mit einer Spektralanalyse der „astronomischen Antriebe“ verglichen wird. Die Autoren sagen:

…wir postulieren ein einzelnes Strahlungs-Klimasystem, welches orbitale Inputs in klimatische Outputs verwandelt. Daher haben wir nicht die Verpflichtung, den physikalischen Mechanismus der Klimareaktion zu identifizieren und können das Verhalten des Systems modellfrei spezifizieren. Die Dynamik unseres Modells liegt lediglich durch die Annahme fest, es sei ein zeitinvariantes, lineares System – was heißt, dass sein Zeitverhalten als lineare Differentialgleichung mit konstanten Koeffizienten beschrieben wird. Die Frequenzantwort eines solchen Systems ist bekannt: Frequenzen im Output passen zu denen im Input, aber ihre Amplituden werden bei unterschiedlichen Frequenzen moduliert. Daher können wir erwarten, sie in paläoklimatischen Spektren zu finden, egal welche Frequenzen die orbitalen Signale haben (außer Frequenzen, die zu stark gedämpft werden)…. Meine „Übersetzung“: wir wollen das orbitale Spektrum mit dem historischen Spektrum vergleichen, ohne zu versuchen, eine Theorie zu formulieren, und abwarten, wie der Vergleich der beiden Spektren aussieht.

Die orbitalen Effekte:

Bildunterschrift: Hochauflösende Spektren von orbitalen und strahlungsbedingter Variationen während der letzten 468.000 Jahre. Die Varianz (als Prozentteil der Gesamtvarianz pro Einheit auf dem Frequenzband) ist geplottet als Funktion der Frequenz (Zyklen pro eintausend Jahre). Die Pfeile geben die gewichtete mittlere Zykluslängen an (in tausenderjahren). (A) Spektren der Schiefe und der Präzession (B) Spektrum der winterlichen Einstrahlung bei 55°S. (C) Spektrum der sommerlichen Einstrahlung bei 60°N. Alle Daten von Vernekar (39)

From Hays et al (1976)

Die historischen Daten:

Bildunterschrift: Hochauflösende Spektren klimatischer Variationen in Ts, δ18O und Prozentanteil von C. Die Varianz (als Prozentanteil der Gesamtvarianz pro Einheit auf dem Frequenzband) ist geplottet als Funktion der Frequenz (Zyklus von tausenderjahren). (A) Spektren für den Bohrkern RC11-120 wurden für das SIMPLEX-Modell berechnet. (B) Spektren des Bohrkerns E49-18 wurden für das SIMPLEX-Modell berechnet. (C) Spektren der gemeinsamen Aufzeichnung wurden berechnet für das ELBOW-Modell.

From Hays et al (1976)

Wir haben auch Spektren für zwei Zeitreihen aufgezeichneter Variationen der Einstrahlung (ihre Abbildung 4, unsere Abbildung 2) berechnet, eine für 55°S, die andere für 60°N. Die drei dominanten Zyklen in diesen Spektren (41.000; 23.000 und 19.000 Jahre) korrespondieren mit jenen, die in den Spektren der Ekliptik und der Präzession gefunden wurden. Obwohl dieses Ergebnis zu erwarten war, unterstreicht es zwei wichtige Punkte. Erstens: Strahlungsspektren sind charakterisiert durch Peaks, welche die Einflüsse von Ekliptik und Präzession, aber nicht der Exzentrizität wiederspiegeln.

Zweitens: Die relative Bedeutung der Strahlungskomponenten infolge Ekliptik und Präzession variiert mit der geographischen Breite und der Jahreszeit.

Zur Interpretation der historischen Spektren sagen Hays et al.:

Nichtsdestotrotz sind fünf der sechs untersuchten Spektren charakterisiert durch drei diskrete Peaks, die die gleiche Frequenzverteilung wiedergeben. Es sind die Perioden von 87.000 bis 119.000 Jahren, mit a bezeichnet; 37.000 bis 47.000 Jahre mit b; und 21.000 bis 24.000 Jahre mit c. Dies legt nahe, dass die b und c Peaks die Ekliptik und Präzession reflektieren.

Man beachte dagegen, dass der Hauptpeak des Frequenzspektrums bei 100.000 Jahren liegt.

Es gibt viel Diskussion in der Hays et al. Studie über ihre Datenanalyse. Um hierzu mehr zu erfahren, sollte man ihr paper lesen. Die Details sind für das Verständnis hier aber vielleicht nicht so wichtig. Die Autoren folgern:

Im Frequenzbereich von 10.000 bis 100.000 Zyklen pro Jahr konzentriert sich der klimatische Anteil auf drei getrennte Peaks bei 23.000, 42.000 und etwa 100.000 Jahren. Diese Peaks korrelieren mit den dominanten Perioden des Umlaufes der Erde um die Sonne und enthalten jeweils 10, 25 und 50% der Klimavarianz.

Die Llimakomponente von 42.000 Jahren hat die gleiche Periode wie Variation der Ekliptik und hat eine  konstante Phasenbeziehung mit ihr.

Der 23.000 Jahreanteil der Klimavarianz zeigt die gleichen Perioden (etwa 23.000 und 19.000 Jahre) wie der quasi-periodische Präzessionsindex.

Die dominante Klimakomponente von 100.000 Jahren hat eine mittlere Periode nahe der orbitalen Exzentrizität und ist auch mit dieser in Phase. Anders als die Korrelationen zwischen Klimavariationen und höheren Frequenzen orbitaler Umläufe (welche mit der Hypothese erklärt werden können, dass das Klimasystem linear auf den orbitalen Antrieb reagiert) erfordert eine Erklärung der Korrelationen zwischen Klima und Exzentrizität möglicherweise eine Hypothese der Nicht-Linearität.

Wir folgern daraus, dass Änderungen der orbitalen Geometrie der Erde der fundamentale Grund für Eiszeiten im Quartär sind.

Es sah also alles recht gut für die Erklärungen der Eiszeiten im Jahre 1975 aus.

Diejenigen, die etwas über jüngere Evaluierungen der Spektralanalyse des Vergleichs zwischen Temperaturgeschichte und Orbitalantrieb wissen wollen, mögen in Studien von Carl Wunsch 2003, 2004 und 2005 nachschauen, z. B. The spectral description of climate change including the 100 ky energyClimate Dynamics (2003).

Einige Jahre später

Ein paar Kommentare von Imbrie & Imbrie (1980:

Seit den Arbeiten von Croll und Milankovitch zielten viele Forschungen auf die zentrale Frage der astronomischen Theorie der Eiszeiten: Verursachen Änderungen der orbitalen Geometrie Klimaänderungen, die geologisch erkennbar sind?

…Einerseits haben Klimatologen das Problem theoretisch attackiert, indem sie die Grenzwertbedingungen der Energiebilanzmodelle adjustiert und dann die Stärke der berechneten Reaktion beobachtet haben. Betrachtet man diese numerischen Experimente mehr oder weniger als einen Test der astronomischen Theorie, wirft das offene Fragen auf, weil die verwendeten Modelle ungetestete Parametrisierungen wichtiger physikalischer Prozesse enthalten. Die Arbeit mit frühen Modellen zeigte, dass die Klimareaktion auf orbitale Änderungen zu klein war, um die Eiszeiten des Pleistozäns zu erklären. Aber Experimente mit einer neuen Generation von Modellen zeigen, dass orbitale Variationen ausreichen, um wesentliche Änderungen der Eisschilde in der Nordhemisphäre zu erklären.

… Im Jahre 1968 haben Broecker et al. (34, 35) darauf hingewiesen, dass der Verlauf der sommerlichen Insolation bei 45°N viel besser zu den paläoklimatischen Aufzeichnungen der letzten 150.000 Jahre passt als der Verlauf bei 65°N, wie er von Milankovitch ausgewählt worden ist.

Gegenwärtiger Status: Dies heißt jetzt nicht, dass alle wichtigen Fragen beantwortet sind. Tatsächlich ist es ein Ziel dieses Artikels, zur Lösung eines der verbleibenden wesentlichen Probleme beizutragen: nämlich Ursprung und Verlauf des Klimazyklus‘ von 100.000 Jahren.

Zumindest während der letzten 600.000 Jahre werden fast alle Klimaaufzeichnungen von Komponenten in einem engen Frequenzbereich dominiert, dessen Zentrum in der Nähe des 100.000-Jahres-Zyklus‘ liegt. Und doch wird eine Klima-Antwort bei dieser Frequenz nicht von der Milankovitch-Version der astronomischen Theorie vorhergesagt – oder von irgendeiner anderen Version als linearer Response-Theorie.

…Ein anderes Problem besteht darin, dass die meisten veröffentlichten Klima-Aufzeichnungen, die älter als 600.000 Jahre sind, keinen 100.000-Jahres-Zyklus zeigen…

Ziel unserer Modellierungsbemühungen war es, die Klimareaktion auf orbitale Variationen während der letzten 500.000 Jahre zu simulieren. Das sich ergebende Modell kann vier wichtige Aspekte nicht wiedergeben. Es kann den 100.000-Jahre Einfluss nicht wiedergeben; der 23.000- und 19.000-Einfluss ist dagegen zu stark; es wird zu viel 413.000-Einfluss produziert und das Modell passt nicht zu den Daten des letzten 413.000-Jahres-Minimums der Exzentrizität, als Werte von e (Exzentrizität) niedrig waren und die Amplitude der 100.000-Exzentrizität deutlich reduziert war.

Die Existenz eines instabilen Fixpunktes macht das Tuning zu einer extrem kniffligen Aufgabe. Zum Beispiel schreibt Weermann, dass die Änderung eines Parameters um weniger als 1% der physikalisch zulässigen Bandbreite den Unterschied zwischen einer Eiszeit und einer Zwischeneiszeit in einem Teil des experimentellen Modelllaufes ausmacht.

Dies wäre ein gutes Beispiel für Lorenz’ Konzept eines fast intransitiven Systems (eines, dessen Charakteristiken über lange, jedoch begrenzte Zeitintervalle stark von den Anfangsbedingungen abhängt).

Noch einmal taucht der „Geist“ von Lorenz auf. In späteren Artikeln werden wir sehen: auch mit viel komplizierteren Modellen ist es nicht einfach, eine Eiszeit zu erzeugen oder eine Eiszeit in eine Zwischeneiszeit (Warmzeit) übergehen zu lassen.

Link: http://scienceofdoom.com/2013/10/13/ghosts-of-climates-past-part-three-hays-imbrie-shackleton/

Die bisherigen Teile:

Teil I und II: http://www.eike-klima-energie.eu/climategate-anzeige/das-raetsel-der-eiszeiten-teil-i-und-ii/




Olympianachlese: Warum der Winter 2013/14 keinen Siegerpreis verdient hat

Bild rechts: Temperaturtreiber Föhn: Föhnwolken im milden Winter 2013/14 über Thüringen. Foto: Stefan Kämpfe

Nach fünf relativ kalten und teilweise sehr schneereichen Wintern durften wir uns diesmal über einen milden Winter freuen, der in Westdeutschland nahezu schneefrei war. Nur Nordostdeutschland hatte Ende Januar unter einer knapp zweiwöchigen Kältewelle mit Schnee zu leiden. Dass dieser insgesamt sehr milde Winter kein Menetekel einer „katastrophalen Erderwärmung“ sein konnte, zeigt ein Blick in andere Regionen. Zuerst schneite es im Dezember im Nahen Osten; sogar in Kairo. Danach wurde Nordamerika von einer Serie äußerst heftiger Kältewellen geplagt, und schließlich versanken zur Monatswende Januar/Februar Norditalien, Teile der Alpen und Südostpolen sowie im Februar dann auch noch Japan und Madeira in den Schneemassen; in Slowenien lähmte Anfang Februar gefrierender Regen fast das ganze Land. Der „Meteorologische Winter“, bestehend aus Dezember 2013, Januar und Februar 2014, erreichte ein Deutschland- Mittel von 3,3°C. Höchste Zeit also, als Nachtrag zur Winterolympiade den Sieger in unserer Disziplin „wärmster Winter aller Zeiten“ zu küren.

Dazu wollen wir möglichst weit in die Vergangenheit zurückgehen. Zunächst schauen wir uns die bei Wikipedia verfügbare und bis zum Winter 1760/61 zurückreichende Zeitreihe der Lufttemperatur in Deutschland an. Die Abbildung 1 zeigt- chronologisch geordnet- die 30 wärmsten Winter:

Abb.1: Nach dieser Reihe geht die Goldmedaille an den Winter 2006/07, gefolgt von 1974/75 und 1989/90, die gemeinsam Zweiter wurden. Der Winter 2013/14, welcher noch nicht in dieser Tabelle enthalten ist, landet auf Platz 4 (ein exaktes Ranking ist schwierig, da die Werte dieser Reihe mit größeren Ungenauigkeiten behaftet sind und häufig im Web geändert werden).

Man sieht, dass, dass 7 der 10 mildesten Winter in den vergangenen 40 Jahren aufgetreten sind, während auf die vorangehenden mehr als 210 Jahre nur 3 entfallen. Nun könnte man daraus vorschnell schließen, dass die „katastrophale Erwärmung“ schon eingetreten sei. Aber ähnlich wie bei einer „echten“ Olympiade sind die Ergebnisse zweifelhaft- oft wurden Medaillen aberkannt, weil sich herausstellte, dass Doping oder unerlaubte Hilfsmittel im Spiel waren. Das „Doping“ fast aller Messreihen ist der Wärmeinseleffekt infolge der zunehmenden Verstädterung und Entwässerung unserer Landschaft, welcher sich im 20. Jahrhundert, besonders aber nach 1950, enorm beschleunigte. Verstärkt wurde dieses „Temperaturdoping“ noch dadurch, dass in den letzten 30 Jahren viele Messstationen an Flughäfen verlagert wurden, wo Beton, Asphalt und die heißen Abgase der Jets besonders stark wärmen.

Bei einer realistischen WI- Bereinigung, die gegenwärtig etwa 1,2K betragen müsste, hätte sich der Winter 2013/14 daher nur zwischen den Plätzen 10 und 20 eingereiht, und auch die meisten anderen neuzeitlichen Winter wären in der Rangfolge deutlich abgerutscht.

 Auch ansonsten herrschte keine Chancengleichheit, denn im 18. Jahrhundert standen nur ganz wenige Stationen zur Errechnung des Deutschland- Mittels zur Verfügung, und die Genauigkeit der Messungen war damals geringer. Es mussten  also qualitativ und quantitativ sehr unterschiedliche Datensätze zur Erstellung dieser Zeitenreihe verwendet werden. Und der Zeitraum bis 1761 ist zwar lang; aber vielleicht nicht lang genug, um den wahren Sieger zu ermitteln. Deshalb gingen wir noch ein paar Jahrzehnte weiter zurück, was uns die Reihe von Berlin- Tempelhof ermöglicht (Abbildung 2):

Abb.2: Zumindest in Berlin geht die Goldmedaille an den schon über 250 Jahre (!) zurückliegenden Winter von 1755/56 mit stolzen 5,1°C. Knapp dahinter folgen zwei Winter mit je 4,9°C; aber die Silbermedaille gebührt dem Winter 1763/64, denn der von 2006/07 profitierte ja viel stärker von der durch die Verstädterung ausgelösten Erwärmung (diese Reihe ist ebenfalls nicht WI- bereinigt). Und der hier noch nicht enthaltene Winter 2013/14 muss sich mit einer Platzierung etwa zwischen 10 und 15 begnügenbei einer WI- Bereinigung von etwa 1,2K wäre er gar nicht unter die ersten 30 gekommen– aber nach dem olympischen Geist zählt ja allein die Teilnahme!

In leichter Abwandlung eines Schlagertextes von Wolfgang Petry gilt für den Winter 2013/14: „Bronze, Silber und Gold, hat er nicht geholt!“. Auch bei dieser Reihe erfolgte die Wertung unter dem Vorbehalt der größeren Ungenauigkeit der älteren Messwerte. Ein Blick in die relativ zuverlässige Reihe aus Zentralengland zeigt jedoch, dass dort die Winter 1755/56 und 1763/64 ebenfalls sehr mild verlaufen sind, wenngleich sich in England aufgrund der anderen geografischen Lage eine zu Berlin mehr oder weniger abweichende Rangfolge der wärmsten Winter ergeben hat. In Zentralengland siegte der Winter 1868/69 mit knapp 6,8°C vor 1833/34 mit etwas über 6,5°C, und 1988/89 errang mit genau 6,5°C Bronze.

Nun ergibt sich die Frage, warum dieser Winter so sehr mild ausfallen konnte. Auch der Deutsche Wetterdienst gibt diesen Winter mit 3,3 C als den viertmildesten seit 1882 an. (Siehe DWD vom 27. Februar 2014). Das wollen wir nun versuchen zu erklären.

Guten Beobachtern ist sicher aufgefallen, dass der Wind fast ausschließlich aus Süd bis West kam und dabei milde atlantische Luft, zeitweise auch subtropische Mittelmeerluft, nach Deutschland strömte, die sich bei den relativ hohen Windgeschwindigkeiten kaum abkühlte und sich häufig bis zum Boden durch setzte (die sonst im Winter nicht seltenen Inversionen mit bodennah kalter Luft waren selten, weil das hierfür erforderliche schwachwindige Hochdruckwetter fast völlig fehlte). Im Lee der Alpen und der Mittelgebirge verstärkte häufiger Föhn diesen Effekt noch. Außerdem zeigt ein Blick in die Vergangenheit, dass ein enger, positiver Zusammenhang zwischen der Häufigkeit der Westwetterlagen und den Wintertemperaturen besteht:

Abb.3: Die Wintertemperaturen in Potsdam (blau) sind bevorzugt dann höher gewesen, wenn es im betreffenden Winter eine Häufung von Großwetterlagen mit westlichem Strömungsanteil gab (violette Kurve). Zur Atlantischen Mehrzehnjährigen Oszillation (AMO, grün) besteht ein inverser Zusammenhang, weil bei höheren Wassertemperaturen offenbar mehr kalte Nord- und Ostlagen im Winter auftreten. Die Sonnenscheindauer, welche während der letzten knapp 120 Jahre bei leichten Schwankungen im Winter als der einzigen Jahreszeit leicht abnahm, beeinflusst das Temperaturverhalten in der kalten Jahreszeit nur wenig- die Wintersonne hat einfach zu wenig Kraft und zu wenig Zeit, um eine wesentliche Erwärmung zu bewirken. Quelle der Originaldaten: PIK Potsdam

Den allgemeinen Zusammenhang zwischen AMO, NAO (Nordatlantischer Oszillation), der Häufigkeit der „Westwetterlagen im engeren Sinne“ und den Wintertemperaturen in Deutschland zeigt die Abbildung 4, wobei aber anzumerken ist, dass sich der Winter 2013/14 durch nur leicht übernormale NAO-Werte und gehäuft auftretende Süd- und Südwestlagen von den übrigen sehr milden Wintern unterschied:

Abb.4: Das Deutschland- Wintermittel der Lufttemperaturen (°C Deutschland, hellblau) ähnelt in seinem Verlauf dem NAO- Index (schwarz) und der Häufigkeit der am stärksten erwärmend wirkenden Westlagen im engeren Sinne (WA + WZ, violett), während zur AMO (grün) ein eher inverser Verlauf besteht.

Warum blieb ausgerechnet in diesem Winter trotz der noch immer positiven AMO- Phase (relativ hohe atlantische Wassertemperaturen) die Häufung kalter Nord- bis Ostwetterlagen zugunsten der milden, südlichen bis südwestlichen Luftströmungen aus? Infolgedessen war in Südwestdeutschland praktisch kein Schnee zu sehen.

Der Blick auf eine für diesen Winter typische Wetterlage zeigt die Ursache:

Abb. 5: Die Wetterlage vom 08. Februar 2014, 07 Uhr MEZ, (Quelle: DWD) zeigt ein bei nur etwa 55°Nord liegendes Orkantief dicht westlich von Irland. Das „normale“ Island- Tief, welches häufig im Zusammenspiel mit dem Azorenhoch mildes Wetter bis nach Deutschland bringt, war also im Winter 2013/14 oft deutlich südwärts verschoben und bescherte Großbritannien eine Serie schwerer Stürme mit Überschwemmungen, während Mitteleuropa auf der Vorderseite dieser Tiefs genau noch soviel Süd- und Westwind „abbekam“, dass eine dauerhafte Bildung bodennaher Kaltluft verhindert wurde, wobei schwere Stürme in Deutschland selten blieben. Dass diese Tiefs nicht, wie sonst üblich, weiter nach Osten zogen und so zumindest zeitweise hierzulande eine nördliche Strömung ermöglicht hätten, lag an einem oft starken, blockierenden „Russland- Hoch“, welches hinsichtlich seiner Intensität und Position zwischen Nordwestrussland, der nördlichen Ukraine und Westsibirien (dort war es am 8. Februar anzutreffen) hin und her schwankte.

Eine Verkettung glücklicher meteorologischer Umstände hat Deutschland also diesmal vor längerer Kälte bewahrt, obwohl die Luftdruckverteilung im Winter 2013/14 durchaus das für kältere Winter typische Muster bei (noch) relativ hohen Atlantiktemperaturen mit einer südlicheren Lage der Frontalzone und der Tiefdruckgebiete sowie besonders kräftigen Kältehochs über Osteuropa, aufwies. Diese großräumige und sehr stabile Wetterlage war mit einer länger andauernden Verstärkung der Strahlströme verbunden. Man vermutet, dass diese Zirkulationsstörung durch übernormale Ozeantemperaturen im Bereich des tropischen Westpazifiks entstand.

Aber nur dort waren die Ozeantemperaturen höher als normal, während der Ostpazifik weitgehend normale Temperaturen aufwies (La Niña- ähnliche Bedingungen nur im Westpazifik). Außerdem ist auch ein Zirkulationseinfluss der höheren Atmosphärenschichten (besonders der Stratosphäre in 10 bis 50 km Höhe) wahrscheinlich. Ein dort stark ausgeprägter Polarwirbel verstärkte den Strahlstrom über dem Nordatlantik. Der Polarwirbel wurde durch eine ausgeprägte Westwindphase der stratosphärischen Quasi-Biennial Oscillation gesteuert (QBO, ein quasi-zweijähriger periodischer Wechsel zwischen Ost- und Westwind in der tropischen Stratosphäre).

Interessant ist eine weitere Tatsache: Der sehr milde Winter 2013/14 in Mitteleuropa konnte den seit einem Vierteljahrhundert beobachteten leichten Rückgang der Wintertemperaturen in Deutschland nicht stoppen (folgende Abbildung 6). Zwar sind Zukunftsprognosen mit großen Unsicherheiten behaftet, doch ist bei dem erwarteten tendenziellen weiteren Rückgang der Sonnenaktivität bis mindestens zur Mitte des 21. Jahrhunderts eher mit stagnierenden oder gar leicht fallenden Temperaturen zu rechnen, so dass trotz der Unwägbarkeit vieler Einflussfaktoren der für Mitteleuropa typische Wechsel zwischen milden und kalten Wintern insgesamt andauern und die bislang erwartete Erwärmung, einhergehend mit immer schneeärmeren oder kürzeren, wärmeren Wintern, vermutlich weiterhin ausbleiben wird.  

Abb 6: Obwohl der Winter 2014 mit 3,3 C sehr mild war, ist die Temperaturtrendlinie weiterhin fallend. Der diesjährige Winter scheint leider nur eine wohltuende Ausnahme in Mitteleuropa gewesen zu sein. (gezeichnet nach den Daten des DWD).

Fazit dieser etwas außergewöhnlichen Winterolympiade: Sehr milde Winter gab es schon immer- sogar schon vor mehr als 200 Jahren, also inmitten der Kleinen Eiszeit. Diese sehr weit zurückliegenden Winter waren teilweise noch milder als die sehr milden Winter der 1970er bis 2000er Jahre, auch wenn die Rangfolge je nach Region und Qualität der Daten unterschiedlich ausfallen kann. Der Winter 2013/14 ist vor diesem Hintergrund zwar als sehr mild, jedoch keinesfalls als extrem mild oder gar als rekordverdächtig mild, einzustufen. Die ständig geäußerten Befürchtungen mancher Klimaforscher, es werde immer wärmer, erweisen sich bei einem Blick in die weitere Vergangenheit und bei gründlicher Betrachtung der wirklich klimarelevanten Einflussfaktoren, als nicht zutreffend.

Trotz des sehr milden vergangenen Winters sind die Wintertemperaturen in Deutschland und auch in Zentralengland während der vergangenen 25 Jahre leicht, unter Berücksichtigung des Wärmeinseleffektes sogar deutlich, gefallen.   

 Stefan Kämpfe, Weimar.

Josef Kowatsch, Hüttlingen       

————————————-

Eingestellt von Chris Frey, der auf einen Artikel von Hans-Dieter Schmidt hinweisen möchte, der zum gleichen Thema kürzlich hier beim EIKE erschienen ist. Er bestätigt die hier vorliegenden Ergebnisse voll und ganz, und zwar aus einer ganz anderen Richtung:

http://www.eike-klima-energie.eu/climategate-anzeige/der-milde-winter-in-mitteleuropa-klimawandel/




Alarmruf von über 100 Industrie-Chefs- Über 4 Mio Arbeitsplätze durch EU Klima- und Energiepolitik bereits verloren

„Diese Initiative, die über 1 Million direkte Arbeitsplätze aus verschiedenen Bereichen und Ländern in ganz Europa repräsentiert, ist außerordentlich”, erklärt Fernand Felziger, der Präsident von IFIEC Europa. „Man kann sich dies nur durch den Ernst der Krise erklären, die die produzierende Industrie in allen 28 EU-Ländern betrifft“.

Die Analyse der Energiepreise und –kosten in Europa, die am 22. Januar von DG Energy veröffentlicht worden ist, bestätigt: Die Industrie in der EU leidet unter einem erheblichen Nachteil der Gesamtkosten für Klima und Energie gegenüber den Konkurrenten in anderen Teilen der Welt. Derartig hohe Preisdisparitäten wie z. B. mit den USA (die Energiepreise liegen hier 2 bis 3 mal so hoch wie dort) führen zu signifikanten Änderungen der wirtschaftlichen Struktur und haben weit reichende Auswirkungen auf Investitionen, Produktion und Handel.

Der Produktionssektor der EU ist in stetigen Rückgang in den letzten 20 Jahren und nun einen Anteil von nur 15 Prozent der Wirtschaftsleistung. Inzwischen sind nach den neuesten Zahlen der Europäischen Kommission 4 Millionen Arbeitsplätze im produzierenden Gewerbe in Europa seit 2008 verloren gegangen.(1)

Können wir etwas dagegen tun? „Ja, weil es geregelte Preise sind (Subventionen für Erneuerbare, Steuern, Kosten für das Stromnetz usw.). Diese Regelungen sind mit ein Hauptgrund für die sich immer mehr erweiternde Preislücke“, antwortet Peter Claes, Vizepräsident von IFIEC Europa. „Und diese Kosten sind Abgaben; das Ergebnis politischer Maßnahmen und nicht von Marktbewegungen“.

„Diese immer weiter steigenden Abgaben erzeugen eine beispiellose Belastung für die produzierende Industrie, die diese Kosten nicht an ihre Endverbraucher weiterreichen kann“, erklärt Philippe Darmayan, der leitende Direktor von Aperam, dem global führenden Hersteller von rostfreiem Stahl und ein Energie-Großverbraucher. Es gibt keine andere Lösung als die vollständige Streichung dieser Kosten. „Aber die Industrie bietet auch Lösungen an“, fügt Claes hinzu, „zum Beispiel durch freiwilliges Handeln“.

„Unglücklicherweise ist die Lage bzgl. Erdgas noch komplexer, liegt doch die grundsätzliche Lösung in den Händen unserer externen Versorger. Die Implementierung des internen Energiemarktes und die Diversifizierung unserer Versorgung einschließlich heimischer Erzeugung sind eine absolute Notwendigkeit“, sagt Steinar Solheim, der IFIEC-Vorsitzende für Gas.

„Der Rat muss den Weg bereiten hin zu wettbewerbsfähiger und sicherer Energie. Das hat oberste Priorität für die energieintensiven Industrien in Europa“, betont Hubert Mandery, Generaldirektor des European Chemical Industry Council (Cefic).

Die klimapolitischen Maßnahmen der EU spielen für die Zukunft der das Manifesto unterzeichnenden Unternehmen wirklich eine Rolle. Hier liegt eine weitere Ursache der zunehmenden Kostennachteile bzgl. anderer Regionen. „Die EU muss der Industrie ein klares Signal senden, dass hoch effiziente industrielle Produktion willkommen ist und ermutigt werden muss, in der EU zu wachsen, auch in Zukunft“, sagt Volker Schwich, Präsident des VIK, der deutschen Mitgliedsgesellschaft im IFIEC.

„Wir brauchen dringend konkrete Maßnahmen, die es der produzierenden Industrie in Europa erlauben zu wachsen“, folgert der Präsident des IFIEC. Wird der bevorstehende EU-Gipfel mit echten Lösungen aufwarten? 137 Direktoren und viele andere hoffen verzweifelt darauf.

IFIEC Europa repräsentiert energieintensive industrielle Verbraucher, für die Energie eine wesentliche Komponente der Herstellungskosten ist, die direkt die Wettbewerbsfähigkeit betreffen.

Zur Verdeutlichung des Problems möge diese Abbildung beitragen:

Und es wäre fatal, wenn es so enden würde:

Kontakt: Director of Coordination Lars Jope, mobile: +49 172 26 99 063, email: jope@ifieceurope.org  Avenue Louise 250/80, B-1050 Brussels, web: www.ifieceurope.org, aisbl NI 436 343 513

Link: https://3c.web.de/mail/client/dereferrer?redirectUrl=http%3A%2F%2Fwww.ifieceurope.org%2Fdocs%2F20140227+IE_Press+Release_Manifesto.pdf

Übersetzt von Chris Frey EIKE

(1) Quelle: http://euobserver.com/news/123305 




Über den globalen Erwärmungs-Stillstand seit 1998

Diese Annahmen stehen seit 15 Jahren im Widerspruch zur Klimarealität. Seit 1998 gibt es keine globale Erwärmung mehr. Der Anstieg der Globaltemperatur (bis 1998) ist zum Stillstand gekommen bzw. in einen negativen Trend, in eine Abkühlung, übergegangen. Im gleichen Zeitraum (1998-2013) ist jedoch der CO2-Gehalt der Luft um rund 30 ppm auf über 395 ppm angestiegen.

In Abb.1 wird der Widerspruch zwischen aktueller Klimaentwicklung und den Klimamodellaussagen bezüglich einer ständig fortschreitenden Erwärmung deutlich.

Damit erhebt sich die Frage: Warum steigt die globale Temperatur seit 1998 nicht, d.h. warum ist der starke CO2-Anstieg wirkungslos? Aus Gründen der Logik folgt sodann zwangsläufig: War die Erwärmung der 1980er/1990er Jahre (bzw. seit 1850) tatsächlich  anthropogen verursacht oder war auch die Erwärmung nach 1850 im wesentlichen die Folge natürlicher Klimaprozesse?

Anhand einer neuen Modellstudie, veröffentlicht in der renommierten Fachzeitschrift „nature“(Aug. 2013) haben Yu Kosaka und Shang-Ping Xie die fehlende globale Erwärmung seit 1998 mit der pazifischen dekadischen Oszillation (PDO) erklärt, also durch einen natürlichen Klimaprozess. Auch konnte ihr Modell von der globalen Erwärmung von 0,68 °C im Zeitraum 1975-1998 rund 60% (0,4°C) durch den Einbezug der PDO erklären. Dieses Modellergebnis ist somit in guter Übereinstimmung mit den  empirischen Analysen in Bezug auf den fundamentalen Einfluss der natürlichen Klimaprozesse auf den Klimawandel. Dieser, in den früheren BWK-Beiträgen dargelegte Sachverhalt (s.Literatur) wird durch die nachfolgenden Betrachtungen weiter untermauert. 

In Abb.2 sind die Jahresanomalien der Sea Surface Temperature (SST) des tropischen Pazifiks wiedergegeben. Die Klimatrendkurve zeigt eine multi-dekadische Schwingung mit einer Erwärmung des El Nino-/La Nina-Gebiets von den 1970er bis in die 1990er Jahre und – trotz mehrerer El Nino-Ereignisse – eine deutliche Abkühlung nach 1998.

In Abb.3 sind die jährlichen Anomaliewerte der Globaltemperatur, also die Abweichung vom globalen Mittelwert von 14°C, wiedergegeben. Zum einen sind – wie in Abb.1 – die globale Erwärmung bis 1998 und der aktuelle Abkühlungstrend zu erkennen. Zum anderen ist offensichtlich, dass die Trendkurven von Abb.2 und Abb.3 grundsätzlich synchron verlaufen. Zu bedenken ist beim Vergleich der Anomalien von Ozean- und Lufttemperatur, dass der thermische Übergang von dem  Wärmespeicher Ozean an die Atmosphäre phasenverzögert erfolgt. Diesem Umstand wird bei der Korrelationsanalyse durch gleitende dekadische Mittelwerte Rechnung getragen.

Für den Erwärmungszeitraum 1970-1998 berechnet sich ein Korrelationskoeffizient von +0,83 zwischen der SST des tropischen Pazifiks und der globalen Temperatur. Damit können zwei Drittel der Varianz der globalen Erwärmung durch den El Nino-/La Nina-Einfluss  in diesem Zeitraum  erklärt werden. Für den aktuellen globalen Temperaturtrend ergibt sicheine Korrelation von +0,80 für 2002-2013; die erklärte Varianz beträgt 64%.

Damit stellt sich die grundsätzliche Frage nach dem Klimaantrieb für das thermische Verhalten des tropischen Pazifiks. Bei kurzfristiger, im Mittel 12-18-monatiger, Betrachtung bestimmt der Wechsel von ENSO-Warmphasen (El Nino) und ENSO- Kaltphasen (La Nina) das ozeanische/atmosphärische Temperaturverhalten. Auf der Klimaskala, also dem langfristigen Einfluss von ENSO auf die Globaltemperatur, ist hingegen die zeitliche thermische Bilanz von El Nino zu La Nina der wesentliche Faktor. In Abb.2 wird die thermische Bilanz durch die Trendkurve wiedergegeben. Der negativen thermischen Bilanz der 1970er Jahre folgten eine positive in den 1980er/1990er Jahren  und dieser aktuell wieder eine negative thermische Bilanz.

Welcher primäre Klimaantrieb vermag dieses langfristige thermische Verhalten des tropischen Pazifiks und damit seinen Beitrag zur Klimavariabilität zu erklären? Der CO2-Anstieg scheidet als Erklärung aus, denn der CO2-Effekt kann nur Erwärmungen, nicht aber Temperaturkonstanz oder gar Abkühlungen erklären.

Der Ozean selber ist im Klimasystem der Erde ein interner, ein sekundärer Klimafaktor. Er trägt zur globalen und regionalen Variabilität des Klimas bei, indem er gespeicherte Wärmeenergie wieder abgibt bzw. durch Strömungen Wärme horizontal und vertikal transportiert und so das regionale Klimageschehen beeinflusst, d.h. zur Klimavariabilität beiträgt ohne die primäre Ursache des Klimawandels zu sein.    

Aufgrund der früheren empirischen Analysen zum Klimawandel seit der Kleinen Eiszeit sowie den Analysen zum ENSO-Verhalten (BWK SO 18/10 und SO 05/12)) ist davon auszugehen, dass der integrale (direkte und indirekte) solare Einfluss auch auf der dekadischen Klimaskala der primäre, originäre Einflussfaktor ist. Gerade in den Tropen mit ihrer hohen positiven Strahlungsbilanz, dem daraus resultierenden großen Transport fühlbarer und latenter Wärme vom Ozean in die Atmosphäre sowie der hohen Variabilität der UV-Strahlung in der Stratosphäre muss sich jede Änderung des solaren Klimaantriebs nachhaltig in unserem Klimasystem auswirken. Dem Ozean kommt dabei neben dem unmittelbaren Einfluss auch ein mittelbarer, langzeitlicher Einfluss zu, indem im Ozean dynamisch-thermische Zirkulationsprozesse auf der multi-dekadischen Klimaskala ablaufen (Abb.2).

Außerdem kommt es über die Einflüsse auf die Hadley- bzw. Brewer-Dobson-Zirkulation zu Auswirkungen auf die gesamte „Allgemeine Atmosphärische Zirkulation“ und damit auf das globale sowie regionale Klimaverhalten.

In Abb.4 ist die solare Aktivität anhand der mittleren Sonnenfleckenzahl je Sonnenfleckenzyklus seit dem 20. SF-Zyklus wiedergegeben. Von einer mittleren Sonnenfleckenzahl von 59 im 20. SF- Zyklus erfolgte eine rapide Zunahme auf rund 80 Sonnenflecken  in den SF-Zyklen 21 und 22. Danach setzte ein sprunghafter solarer Aktivitätsrückgang ein auf 52 Sonnenflecken im 23. und 40 im aktuellen 24. SF-Zyklus. (Zwar ist letzterer erst zur Hälfte vorüber, doch wird sich wegen des symmetrischen Verlaufs der Sonnenfleckenzahl in einem Zyklus am mittleren Wert wenig ändern). Das bedeutet: Die Sonne ist in kurzer Zeit von einer hoch-aktiven Phase in eine extrem  inaktive Phase übergegangen. Damit ist das ozeanische/atmospärische Temperaturverhalten ab 1970 wie seit Jahrhunderten (Abb.5, Abb.6) auf der Klimaskala in Übereinstimmung mit den Änderungen der solaren Aktivität.

 

Schlussbetrachtung / Schlussfolgerung

Die solare Aktivität und damit der integrale solare Einfluss auf den Klimawandel hat von den 1970er Jahren zu den 1980er/1990er Jahren deutlich zugenommen. Mit dem 23. SF-Zyklus setzte dann ein drastischer Rückgang der Sonnenaktivität bis auf eine mittlere Sonnenfleckenzahl von 40  im aktuellen 24. SF-Zyklus ein. Ein derartiger Einbruch der solaren Aktivität ist zum letzten Mal vor 200 Jahren im solaren „Dalton-Minimum“ aufgetreten (Abb.5).

Verbunden mit dieser „ruhigen Sonne“ war, wie der synchrone Verlauf von solarer Aktivität und Klimatemperatur (Abb.6) zeigt, nach der Erwärmung im 18.Jahrhundert eine dramatische Klimaabkühlung im 19. Jahrhundert. Die Folgen der ausgedehnten Kälteperiode waren Missernten, Hungersnöte und Seuchen in Mitteleuropa sowie die große Auswanderungswelle in die USA.

Die derzeit geringe solare Aktivität bzw. der rapide Übergang von der„aktiven“ zur„ruhigen“ Sonne ist unzweifelhaft vergleichbar mit dem Dalton-Minimum und entspricht der rund 200-jährigen solaren Schwingung der solaren Aktivität des „de-Vries Zyklus“ (Trendlinie in Abb.5). Da der Klimawandel, wie Abb.6 zeigt, seit über 300 Jahren, also seit der mit dem solaren Maunder-Minimum (1645-1715) verbundenen Kleinen Eiszeit, nachweislich synchron zur Sonnenaktivität verlaufen ist, muss mit hoher Wahrscheinlichkeit damit gerechnet werden, dass sich der aktuelle  globale Abkühlungstrend in den kommenden Jahrzehnten grundsätzlich fortsetzen wird. Die Sonne ist offensichtlich auf dem Weg in ein „Grand Minimum“ mit allen Konsequenzen für die globale/regionale Klimaentwicklung. 

In dieses Bild passt, dass 2013 die arktische Eisbedeckung wieder deutlich zugenommen hat und dass die Ausdehnung des antarktischen Meereises einen Rekordwert erreicht hat (NASA).

Erst wenn gemäß der 200-jährigen Schwingung voraussichtlich nach der Mitte des 21.Jahrhunderts die Sonnenaktivität langfristig wieder zunimmt, ist auch wieder mit einer nachhaltigen globalen Temperaturerholung aus der bevorstehenden klimatischen Talsohle zu rechnen.

Die Beobachtungsdaten von über 300 Jahren sprechen eine eindeutige Sprache: Die „launige Sonne“ ist es, die als primärer Klimaantrieb über das grundsätzliche Ausmaß sowohl von Abkühlungen als auch von Erwärmungen entscheidet. Die Klimahypothese von der Dominanz des anthropogenen Klimaeinflusses gehört unverzüglich auf den Prüfstand. Der anthropogene CO2-Einfluss auf das Klimaverhalten wird von den Klimamodellen und den unkritischen Medien weit überschätzt, wie nicht zuletzt die aktuelle Klimaentwicklung deutlich macht.

F a z i t :

Anstelle eines in Relation zu den dominierenden natürlichen Klimaprozessen ineffektiven CO2- Klimaschutzes sollten alle Anstrengungen dem Umweltschutz gelten. Saubere Luft und sauberes Wasser, unbelastete Ozeane und Böden sowie ein intaktes Ökosystem gehören zu den Grundrechten des Menschen. Ein stabiles Klima hat es von Natur aus nie gegeben und wird es auch in Zukunft nicht geben. Dem Menschen obliegt es, wie zu allen Zeiten, seine Lebensbedingungen der natürlichen Klima-Varibilität mit optimalen Anpassungsstrategien zu begegnen. Wie die Klimageschichte lehrt, sind dabei Kälteperioden in ihren Auswirkungen wesentlich problematischer als Wärmeperioden.

P.S. CCNet 23/01/14: “NASA & NOAA confirm global temperature standstill continues-Scientists baffled as sun falls to a century low.”

L i t e r a t u r 

– Brohan, P., J.J. Kennedy, I. Haris, S.F.B. Tett and P.D. Jones: Uncertainty estimates in regional and global  observed temperature changes: a new dataset from 1850. J. Geophysical Research, 111, D12106,  doi:10.1029/2005JD006548 — pdf

– BMBF  Herausforderung Klimawandel“. 2004: http://www.bmbf.de/pub/klimawandel.pdf

– Claußnitzer, A. Das Maunder-Minimum. Eine Modellstudie mit dem „Freie Universität Berlin ClimateMiddle Atmosphere Model“ (FUB-CMAM). Diplomarbeit. 2003

– Cubasch, U. Variabilität der Sonne und Klimaschwankungen. Max-Planck-Forschung. Das Wissenschaftsmagazin der Max-Planck-Gesellschaft (2001)

– Eddy, J.A. „The Maunder Minimum“. Science 192. 1976

– EIKE: www.eike-klima-energie.eu

– Hennig, R. Katalog bemerkenswerter Witterungsereignisse –von den alten Zeiten bis zum Jahre 1800. Abh. Kgl. Preuß. Met.Inst.Bd.II/4 .1904

– Hoyt, D. V. and Schatten, K. H.: The role of the sun in climate change. New York-Oxford, Oxford University Press. 1997

– Jones, P.D., New, M., Parker, D.E., Martin, S. and Rigor, I.G., 1999: Surface air temperature and its variations over the last 150 years. Reviews of Geophysics 37, 173-199.

– Labitzke,K. and H. van Loon: The signal of the 11-years sunspot cycle in the upper troposphere-lower Stratosphere. 1997

– Labitzke, K. On the solar cycle – QBO – relationship. J.A.A., special issue 67, 45-54. 2005

– Landscheidt, T. Solar oscillations, sunspot cycles, and climatic change. In: McCormac, B. M., Hsg.: Weather and climate responses to solar variations. Boulder, Ass. Univ. Press (1983) 

– Malberg,H. und G. Bökens: Änderungen im im Druck-/Geopotential- und Temperaturgefäl le zwischen Subtropen und Subpolarregion im atlantischen Bereich im Zeitraum 1960-90. Z.f.Meteor. N.F. (1993) 

– Malberg, H.  Beiträge des Instituts für Meteorologie der Freien Universität Berlin/Berliner Wetterkarte: Über den Klimawandel in Mitteleuropa seit 1850 und sein Zusammenhang mit der Sonnenaktivität. SO 17/02 

– Die globale Erwärmung seit 1860 und ihr Zusammenhang mit der Sonnenaktivität. SO 27/02

– Die nord- und südhemisphärische Erwärmung seit 1860 und ihr Zusammenhang mit der Sonnenaktivität. SO 10/03

– Der solare Einfluss auf das mitteleuropäische und globale Klima seit 1778 bzw. 1850. SO 01/07 (2007) – In Memoriam Prof. Richard Scherhag.

– Über den dominierenden solaren Einfluss auf den Klimawandel seit 1701. SO 27/07

– El Nino, Vulkane und die globale Erwärmung seit 1980. SO 34/07

– El Niño und der CO2-Anstieg sowie die globale Erwärmung bei  C11/09O2-Verdopplung. SO 02/08

– Die unruhige Sonne und der Klimawandel. SO 20/08

– Über die kritische Grenze zwischen unruhiger und ruhiger Sonne und ihre Bedeutung für den Klimawandel. SO 03/09

– La Nina – El Nino und der solare Einfluss – Der Klimawandel 1950-2008. SO 11/09

– Über das Stadtklima und den Klimawandel in Deutschland seit 1780. SO 18/09

– Langfristiger Klimawandel auf der globalen, lokalen und regionalen Klimaskala und seine primäre Ursache:Zukunft braucht Herkunft. SO 29/09 (2009)

– Der solare Einfluss auf den Klimawandel in Westeuropa seit 1672. SO 37/09 (2009)

– Rekonstruktion des Klimawandels seit 1860 bzw. 1672 aufgrund solarer Aktivitätsänderungen, SO 11/10

  – Kurzperiodische und dekadische Klimavariabilität im Zeitraum 1980-2009. SO18/10 (2010)

– Über scheinbare und tatsächliche Klimaerwärmung seit 1850. SO 26/10 (2010)

– Analyse des solaren Effekts und des langfristigen Klimawandels seit 1680 sowie des gegenwärtigen  kurzperiodischen Klimaverhaltens SO 09/11 (2011)

– Über sprunghafte Anstiege von CO2 und globaler Temperatur –SO 05/12 (2012)

– Fakten zum Klimawandel seit der Kleinen Eiszeit –SO 01/13 (2013)

– Klimawandel in Deutschland und Sonnenaktivität seit 1761- SO 05/13 (2013)

– Malberg, H. Klimawandel und Klimadiskussion unter der Lupe. Z. f. Nachhaltigkeit 5. 2007

– Malberg, H. Klimawandel und Klimadebatte auf dem Prüfstand. Verh. Ges.Erdkunde zu Berlin. 2007

– Malberg, H. Der solare Einfluss auf den Klimawandel. Jahrbuch der Freunde und Förderer der TU Bergakademie Freiberg, 2010

– Matthes, K., Y. Kuroda, K. Kodera, U. Langematz: Transfer of the solar signal from the stratosphere to the troposphere: Northern winter. J. Geophys. Res., 111.2005

– Matthes, K., U. Langematz, L. L. Gray, K. Kodera   Improved 11- year solar signal in the Freie Universität Berlin climate middle atmosphere model. J. Geophys. Res., 109. 2003 

– Negendank, J.W. Gehen wir einer neuen Kaltzeit entgegen? Klimaänderungen und Klimaschutz.TU-Cottbus.2007  

– Pelz, J. Die Berliner Jahresmitteltemperaturen von 1701 bis 1996, Beilage Berl. Wetterkarte, 06/1997

– Scafetta; N. and B.J. West: Is Climate Sensitive to Solar Variability. Physics today. (2008)

– Scherhag, R. Die gegenwärtige Abkühlung der Arktis. Beilage Berliner Wetterkarte SO31/1970

– Svensmark, H. Cosmic rays and earth‘s climate. Space Science Rev. 93 (2000)

– Svensmark, H. Cosmic Climatlogy – A new theory emerges. A&G, Vol. 48 (2007)

– Svensmark, H., Friis-Christensen, E. Reply to Lockwood and Fröhlich – The persistent role of the Sun in Climate forcing. Danish Nat.Space Center. Scientific Report 3/07 (2007)

– Wehry, W. Einige Anmerkungen zu meteorologischen Messungen und Datenreihen. Beiträge BWK SO 22/09

– Winkler, P. Revision and necessary correction of the long-term  temperature series of Hohenpeissenberg, 1781–2006- Theor. Appl. Climatol. 75 (2009)

Daten

Den Temperaturdaten von Basel und Wien liegen die Klimareihen von F. Baur zugrunde, die im Rahmen der „Berliner Wetterkarte“ fortgeführt wurden.

Die Temperaturdaten von Prag wurden der Internet-Veröffentlichung www.wetterzentrale .de/Klima/ entnommen, erweitert durch Werte, die von der Station Prag direkt zur Verfügung gestellt wurden.

Die Central England Temperatures (CET) basieren auf den Werten des Climatic Research Unit, UK. (www.cru.uea.ac.uk/cru/data)

Die Temperaturreihe von Berlin entspricht den von J. Pelz auf Berlin-Dahlem reduzierten Werten ab 1701.

Die globalen Temperaturdaten basieren auf den Werten des Climatic Research Unit, UK. (www.cru.uea.ac.uk/cru/data)

Die Sonnenfleckenzahlen ab 1749 entstammen den Veröffentlichungen von NOAA

(ftp:/ftp.ngdc.noaa.gov/STP/SOLAR_Data/Sunspot­_Numbers/Monthly/)

Die Sonnenfleckenzahlen vor 1749 wurden verschiednen Quellen entnommen (u.a.Waldheimer,M.:The sunspot activityin the years 1610-1960 (Zürich 1961), Schove, D.J.:Snspot cycles (Hutchinson Stroudsburg 1983), Schönwiese,C.D. Klimatologie (UTB 1994)

===================================================

Anmerkung EIKE-Redaktion :

Der Aufsatz ist erschienen in "Beiträge zur Berliner Wetterkarte" 08/14 ; SO 03//14 ; 28.01.2014 ; ISSN 0177-3984;   http://www.Berliner-Wetterkarte.de      Nachdruck hier mit Genehmigung des Autors ;




Bekenntnisse eines ‚Greenpeace-Aussteigers‘ zum Thema Klimaänderung vor dem US-Senat

Statement von Patrick Moore, Ph.D., vor dem Environment and Public Works Committee des US-Senats

25. Februar 2014

Übernahme natürlicher Ressourcen: Schutz von Ökosystemen und Ökonomien

Sehr geehrte Herren, vielen Dank, dass Sie mir Gelegenheit geben, in der heutigen Anhörung zu sprechen.

Im Jahre 1971 bin ich als PhD-Student der Ökologie einer Aktivistengruppe im Keller einer Kirche in Vancouver beigetreten. Ich segelte auf einem kleinen Boot über den Pazifik, um gegen den Test der Wasserstoffbombe in Alaska zu protestieren. Wir wurden zu Greenpeace.

Nach 15 Jahren im Vorstand musste ich Greenpeace verlassen, als die Organisation einen scharfen politischen Schwenk nach links vornahm und damit anfing, einer Politik zu folgen, die ich aus meiner wissenschaftlichen Perspektive nicht mittragen konnte. Die Klimaänderung war zu jener Zeit, als ich Greenpeace verließ, noch kein Thema, doch ist es das heute mit Sicherheit.

Es gibt keinen wissenschaftlichen Beweis, dass menschliche Emissionen von Kohlendioxid der vorherrschende Grund für die geringe Erwärmung der Erdatmosphäre während der letzten 100 Jahre sind. Falls es einen solchen Beweis gäbe, wäre er längst offensichtlich gemacht worden. Kein tatsächlicher Beweis, wie ihn die Wissenschaft versteht, existiert.

Das IPCC stellt fest: „Es ist extrem wahrscheinlich, dass menschliche Einflüsse der vorherrschende Grund der seit Mitte des 20. Jahrhundert beobachteten Erwärmung sind“ (Hervorhebung von Watts).

„Extrem wahrscheinlich” ist kein wissenschaftlicher Terminus, sondern eher eine Beurteilung wie vor Gericht. Das IPCC definiert „extrem wahrscheinlich“ als eine „Wahrscheinlichkeit von 95% bis 100%“. Schaut man aber genauer hin, wird schnell klar, dass es sich hierbei nicht um das Ergebnis einer mathematischen Berechnung oder einer statistischen Analyse handelt. Sie wurden „eingeführt“ als ein Konstrukt innerhalb der IPCC-Berichte, um eine „Experten-Beurteilung“ auszudrücken, wie sie von den IPCC-Autoren festgelegt wird.

Diese Beurteilungen basieren nahezu vollständig auf den Ergebnissen komplizierter Computermodelle, die dazu gedacht sind, die Zukunft des globalen Klimas vorherzusagen. Wie von vielen Lesern bereits bemerkt, darunter Dr. Freeman Dyson vom Princeton Institute for Advanced Studies, ist ein Computermodell keine Kristallkugel. Wir mögen sie für kompliziert halten, aber wir können die Zukunft mit einem Computermodell nicht besser vorhersagen als mit einer Kristallkugel, dem Werfen von Knochen oder durch Gebete zu den Göttern.

Der vielleicht einfachste Weg, den Trugschluss der „extremen Gewissheit“ aufzudecken, ist der Blick auf historische Aufzeichnungen. Hinsichtlich dieser Aufzeichnungen haben wir tatsächlich ein gewisses Maß an Gewissheit verglichen mit den Vorhersagen für die Zukunft. Als sich vor über 500 Millionen Jahren das moderne Leben entwickelte, lag der CO2-Gehalt 10 mal höher als heute, und doch blühte das Leben zu jener Zeit. Es gibt eine gewisse Korrelation, aber wenig Beweise, um eine direkte kausale Beziehung zwischen der Temperatur und dem CO2 im Verlauf der Jahrtausende zu stützen. Die Tatsache, dass wir sowohl höhere Temperaturen als auch eine Eiszeit zu einer Zeit hatten, als die CO2-Emissionen 10 mal höher lagen als heute, widerspricht fundamental der Gewissheit, dass menschliche CO2-Emissionen der Hauptgrund einer globalen Erwärmung sind.

Heute stecken wir immer noch fest in etwas, das im Wesentlichen die Eiszeit des Pleistozän ist mit einer mittleren globalen Temperatur von 14,5°C. Dieser Wert steht gegen einen Tiefstwert von 12°C in Perioden maximaler Vereisung während dieser Eiszeit und einem Mittel von 22°C während der Treibhauszeiten vor dieser Eiszeit, wobei die Warmzeit vor der jüngsten Eiszeit viel länger dauerte als diese. Während der Treibhauszeiten gab es an beiden Polen kein Eis, und von Pol zu Pol herrschte durchweg tropisches oder subtropisches Klima. Noch vor 5 Millionen Jahren waren die arktischen Inseln Kanadas komplett bewaldet. Verglichen mit der Historie des Lebens auf der Erde leben wir heute in einer ungewöhnlich kalten Periode, und es gibt keinerlei Gründe für die Annahme, dass ein wärmeres Klima etwas anderes wäre als von Vorteil für die Menschheit und die Mehrheit anderer Spezies. Es gibt reichlich Gründe für die Annahme, dass eine plötzliche Abkühlung des Klimas katastrophale Folgen für die menschliche Zivilisation zeitigen würde.

Nähert man sich immer weiter dem heutigen Datum, ist es aufschlussreich, die globalen Temperaturaufzeichnungen der letzten 130 Jahre zu betrachten. Das IPCC behauptet, dass die Menschen der dominante Grund für die Erwärmung „seit Mitte des 20. Jahrhunderts“ seien, also seit 1950. Von 1910 bis 1940 nahm die globale Temperatur um 0,5°C zu. Dann gab es 30 Jahre lang einen „Stillstand“ bis 1970. Diesem folgte eine Erwärmung um 0,57°C während des 30-jährigen Zeitraumes von 1970 bis 2000. Seitdem gab es keine Erwärmung mehr, vielleicht sogar eine leichte Abkühlung der mittleren globalen Temperatur. Dies allein reicht schon aus, den Computermodellen die Validität abzusprechen, haben doch die CO2-Emissionen während dieser Zeit stetig zugenommen.

Der Temperaturanstieg von 1910 bis 1940 war mit dem Anstieg zwischen 1970 und 2000 nahezu identisch. Trotzdem hat das IPCC den Anstieg von 1910 bis 1940 nicht dem „menschlichen Einfluss“ zugeordnet. Das IPCC steht fest zu seinem Glauben, dass ausschließlich der Einfluss menschlicher Emissionen zur Erwärmung „seit Mitte des 20. Jahrhunderts“ geführt habe. Warum glaubt das IPCC, dass für eine nahezu identische Temperaturzunahme nach 1950 hauptsächlich „menschlichen Einflüssen“ geschuldet ist, wenn es keine Erklärung für den gleichen Anstieg von 1910 bis 1940 hat?

Es ist wichtig, hinsichtlich der düsteren Prognosen bzgl. einer Erwärmung um 2°C zu erkennen, dass Menschen eine tropische Spezies sind. Die Menschheit entwickelte sich am Äquator in einem Klima, in dem Frostwetter nicht existierte. Man könnte sagen, dass Frost und Eis Feinde des Lebens sind, außer für die relativ wenigen Spezies, die Anpassungen an Frosttemperaturen während dieser pleistozänen Eiszeit entwickelt haben. Es ist „extrem wahrscheinlich“, dass höhere Temperaturen als heute viel besser wären als niedrigere.

Ich weiß wohl, dass meine Aussagen den Spekulationen über unser Klima diametral entgegenstehen. Allerdings bin ich zuversichtlich, dass die Geschichte mir recht geben wird, sowohl hinsichtlich der Sinnlosigkeit, sich auf Computermodelle zu verlassen, um die Zukunft vorherzusagen, als auch hinsichtlich der Tatsache, dass höhere Temperaturen für die meisten Spezies besser sind als niedrigere.

Falls wir wünschen, die natürliche Biodiversität und das menschliche Wohlergehen zu behalten, sollten wir simultan für eine Erwärmung und eine Abkühlung planen mit der Erkenntnis im Hinterkopf, dass eine Abkühlung der schädlichere der beiden Trends wäre. Wir wissen nicht, ob sich der gegenwärtige Stillstand der Temperatur noch einige Zeit fortsetzt, oder ob es in naher Zukunft wärmer oder kälter wird. Was wir mit „extremer Sicherheit“ wissen ist, dass sich das Klima immer ändert, wenn auch mit Unterbrechungen, und dass wir mit unserem begrenzten Wissen nicht in der Lage sind vorherzusagen, welchen Weg die Temperatur als Nächstes einschlägt.

Danke für die Gelegenheit, meine Ansichten zu diesem wichtigen Thema zu äußern.

Im Anhang finden Sie das Kapitel zur Klimaänderung aus meinem Buch „Confessions of a Greenpeace Dropout: The Making of a Sensible Environmentalist“ [etwa: Bekenntnisse eines Greenpeace-Aussteigers: Der Werdegang eines vernünftigen Umweltaktivisten]. Vielleicht könnte man diesen Anhang dem Protokoll beifügen.

—-

Dieses Kapitel steht als PDF hier: 22514HearingWitnessTestimonyMoore

—-

Aktualisierung:  Dr. Moore fügt den folgenden Kommentar hinzu:

Patrick Moore (@EcoSenseNow)

Es ist schön, all die positiven und informativen Kommentare zu lesen. Es schmerzt mich, den Eintrag bei Wikipedia zu sehen, der angeblich von mir stammen soll, in Wirklichkeit aber von meinen Feinden geschrieben worden ist; und er ist sehr schwer zu ändern, weil es die Herausgeber nicht mögen, wenn Leute ihre eigene Biographie einstellen. Ich traue Wiki nur hinsichtlich nichtpolitischer Einträge, zum Beispiel Boron.

Für eine dokumentarische Beschreibung der Gründung von Greenpeace siehe http://www.beattystreetpublishing.com/who-are-the-founders-of-greenpeace-2/.

Ich habe meine Aussage und drei diese unterstützende Graphiken ins Internet gestellt. Das kann man sich hier ansehen: https://www.dropbox.com/sh/s65ljwrbuetrrny/PadEn_XjT7.

OK, ihr Klimakrieger, es ist an der Zeit für eine ernsthafte Diskussion, um Fakten von Meinungen zu trennen, Fakten von Einflüsterungen und Fakten von Vorhersagen. Es ist zu hoffen, dass ein normaler Neuntklässler in der Lage ist, diese Unterscheidungen vorzunehmen.

Falls man meinen gesamten Text zum Thema Klima lesen will, schaue man auf das letzte Kapitel in meinem Buch, dass bei Amazon als E-Buch oder gedruckt hier zu finden ist.

Link: http://wattsupwiththat.com/2014/02/26/confessions-of-a-greenpeace-droput-to-the-u-s-senate-on-climate-change/

Übersetzt von Chris Frey EIKE




Die unheimlichen Wirkungen des unhörbaren Infraschalls von Windkraftanlagen

Mit der Zunahme des Lärms in den Industrieländern erkannte man, dass hörbarer Schall den ganzen menschlichen Organismus schädigen kann. In den Ohren umgewandelte Schallimpulse führen zu einer Dauerreizung des Gehirns, werden als Nervenstimuli in den Körper weitergeleitet und können dort besonders an den sensiblen inneren Organen Gesundheitsstörungen begünstigen oder bestehende Leiden verschlechtern. Als besonders störanfällig erweist sich das Schlafverhalten, hier konnte durch eine Untersuchung bereits ab

32 dB (A) ein Störverhalten an der Körpermotorik nachgewiesen werden. Erst in der jüngsten Vergangenheit begannen Mediziner, die Aufmerksamkeit auch auf den unhörbaren tieffrequenten Schallbereich, hier als Infra- und Tieffrequenzschall (ILFN, infra- and low frequency noise) bezeichnet, auszudehnen. Dabei erwiesen sich die aus dem hörbaren Schallbereich abgeleiteten Feststellungen wie, der Schall müsse eine Hör- oder Wahrnehmbarkeits-Schwelle überschreiten, um eine Schädigung auszulösen, als nicht zutreffend.

Die Ansicht, dass ILFN erst oberhalb einer Wahrnehmungsschwelle Schäden bewirken würde, kann heute als überholt gelten und ist widerlegt worden. In neueren wissenschaftlichen Untersuchungen konnte gezeigt werden, dass durch ILFN deutlich unterhalb der Wahrnehmungsschwelle beeinträchtigende Nervenstimuli über das Innenohr und das Gleichgewichtsorgan direkt auf das Gehirn und andere Körperorgane einwirken können. Gesundheitliche Beschwerden und chronische Erkrankungen entstehen dabei durch die Summation andauernder unterschwelliger Schallreize, deren gesundheitliche Auswirkungen hier als Windturbinen-Syndrom (WTS) bezeichnet werden.

Windkraftanlagen (WKA) sind Energiewandler, von denen der größere Teil der Windkraft in Rotationsenergie und ein bedeutender Teil in Schall, mit einem hohen Infraschallanteil, umgewandelt wird. Die Lärmkomponente entsteht überwiegend an den Rotorblättern. Durch die Größe und Elastizität der Blätter, die langsame Drehzahl und die Eigenfrequenz der Rotorblätter von ca.
1 – 20 Hz werden bedeutende Mengen von unhörbarem Tieffrequenz- und Infraschall von < 20 Hz emittiert. Dabei gilt die Regel, je größer die Blätter, umso höher der Infraschallanteil. Je windschwächer ein Gebiet, wie Süddeutschland, umso größere WKA werden aus Gründen der Energieeffizienz erstellt.

Die Rotorblätter der WKA gehören gegenwärtig zu den größten und effektivsten Infraschallerzeugern, die es in der Industrie gibt. Daneben gibt es weitere natürliche und technische Quellen für Infraschall. Zu Ersteren zählen Vulkanausbrüche, Erdbeben, Donner, zu Letzteren Gebläse, große Stanzen, Vibratoren, große Motoren u.a.

Die gültigen deutschen Vorschriften zur  Messung und Bewertung von Schall stützen sich auf die TA Lärm zum Bundesimmisionsschutzgesetz und die DIN 45680 – Beurteilung tieffrequenter Geräuschemissionen. Gemessen wird mit dem A-Filter. Durch dieses Filter wird der Schalldruckpegel mit tiefer werdender Frequenz um einen zunehmenden Betrag reduziert, Frequenzen unterhalb 20 Hz werden gar nicht registriert. Daraus folgt, dass der größte Teil des tieffrequenten Lärms nicht und der Infraschall überhaupt nicht erfaßt werden.

Das veranlaßt die deutschen Behörden zu der irreführenden Feststellung WKA würden so geringe IS- Schallmengen emittieren „wie das Blätterrauschen im Wald“ (wörtlich – LUBW auf einer Veranstaltung in Malsch).

Maßgebliche Forscher halten die A- Filterung des Schalls für völlig ungeeignet für die gesundheitliche Bewertung von ILFN.

International gibt es zahlreiche Forschergruppen, speziell in den englisch sprechenden und den skandinavischen Ländern, die die  gesundheitliche Wirkung von unterschwelligem ILFN untersucht haben. Sie kommen übereinstimmend  zu dem Ergebnis, dass unhörbarer ILFN durch die Summation unterschwelliger Effekte zu Gesundheitsbeeinträchtigung und –schäden führt.

Wegen ihrer besonderen Bedeutung für die medizinische Infraschallforschung werden im Rahmen dieses Vortrag  die Ergebnisse der Arbeiten von PIERPONT und SALT vorgestellt. Beiden Forschern ist es gelungen, jeweils auf ihrem Arbeitsgebiet eine plausible Erklärung zu den durch ILFN ausgelösten physiologischen Reaktionen und der Gesundheits-Symptomatik, darzulegen.

Einen eindrucksvollen Bericht zum Windturbinen-Syndrom gibt die amerikanische Medizinerin Dr. NINA PIERPONT in ihrem Buch „Wind-Turbine-Syndrome – A Report on a natural Experiment“.

PIERPONT untersuchte über 4 Jahre in Form einer Fall-/Kontrollstudie mit statistischer Sicherung der Ergebnisse 10 Familien mit 38 Personen, die in der Nähe (innerhalb von 3 km) von WKA
(1,5 – 3 MW) wohnten, die nach 2004 errichtet wurden. Sie stellte bei diesen Personen Krankheitssymptome fest, die konsistent von Person zu Person waren, weshalb Sie die Bezeichnung Wind Turbinen Syndrom als gerechtfertigt ansah. Die Symptome des WTS traten erst auf, nachdem die WKA in Betrieb genommen worden waren, sie verschwanden, wenn die Familien ihre Häuser verließen, und traten erneut auf, sobald die Familien wieder in ihre Häuser zurückkehrten. 9 der 10 Familien haben ihre Häuser wegen der Beschwerden für immer verlassen.

Ergebnisse ihrer Studie:

1.     Alle Probanden litten unter Schlafstörungen, verbunden mit nächtlicher Angst, Herzrasen und nächtlichem Harndrang.

2.     Die Hälfte der Personen hatte Kopfschmerzen während der Einwirkung.

3.     Auffallend viele litten unter Tinnitus während der Einwirkung.

4.     Mehrheitlich litten die Erwachsenen der Studie unter Symptomen wie:

a.     inneres Pochen, Zittern, Vibrieren

b.     Nervosität, Unruhe, Angst, das Bedürfnis zu fliehen

c.     Schwitzen, schneller Herzschlag, Übelkeit.

5.     Fast alle Probanden litten unter Konzentrations- und Gedächtnisstörungen, hinzu kam der teilweise Verlust von kognitiven Fähigkeiten, z. B. nachlassende Leistungen von Kindern in der Schule.

6.     Bei den meisten Personen, Erwachsenen oder Kindern, kam es zu erhöhter Reizbarkeit oder Zornanfällen.

7.     Ein weiteres Kernsymptom war nachlassende Motivation und Aktivität, verbunden mit bleierner Müdigkeit, vielleicht auch als Zeichen des Schlafmangels.

Das innerliche Zittern, Pochen oder Pulsieren und der damit verbundene Komplex von Nervosität, Angst, Alarm, Reizbarkeit, Herzrasen, Übelkeit und Schlafstörungen stellen den Beschwerdekomplex dar, den sie als Windturbinen Syndrom, bezeichnet.

Etwa zwei Drittel der Erwachsenen (14 von 21) wiesen Symptome des WTS auf. Bei 7 von 10 an der Studie teilnehmenden Kindern und Teenagern, welche die Schule besuchten (Alter 5 – 17), war ein Nachlassen in der schulischen Leistung im Vergleich zum Zeitraum vor der Exposition zu verzeichnen, hingegen trat eine beachtenswerte Verbesserung ein, nachdem die Familien von den WKA weggezogen waren.

Die Schlüsselrolle für das Verständnis des WTS spielt das Otolithenorgan, ein Bestandteil des Gleichgewichtsorgans. Amerikanische Forscher konnten 2008 nachweisen, dass das Vestibulärsystem des Menschen eine sehr hohe Sensitivität für Vibrationen und niedrige Frequenzen hat. Bei ihren Untersuchungen leiteten sie Vibrationen von 100 Hz direkt über die Schädelknochen (Mastoid) ins Innenohr und leiteten elektrische Potenziale von den Augenmuskeln ab. Es zeigte sich, dass, wenn die Intensität des eingeleiteten Schalls bereits so niedrig war, dass er nicht mehr gehört wurde, immer noch Potenziale abgeleitet werden konnten. Eine Vestibulärreaktion konnte noch bei 3 % der Intensität gemessen werden, die erforderlich war, um den Ton zu hören. Das bedeutet, dass das menschliche Vestibulärorgan für knochengeleiteten Schall deutlich empfindlicher ist als die inneren Haarzellen des Innenohrs.

Eine Kernaussage ihres Berichtes lautet:

Die übliche Vorstellung, dass ein Laut, der zu schwach ist, um gehört zu werden, keine physiologischen Reaktionen auslösen kann, bestätigt sich damit nicht!

Sie stellte fest – die von ILFN ausgelösten Symptome sind neurologischer und nicht psychologischer Natur und damit nicht eingebildet. Die Betroffenen haben keinen Einfluss darauf, wie ihr Organismus auf den niederfrequenten Schall reagiert, es handelt sich um neurologisch-physiologische Reaktionen, die nicht dem bewussten Willen unterliegen.

Professor ALEC SALT, Physiologe und Wissenschaftler  an der Washington University in St. Louis, USA,

untersuchte die Wirkung von Infraschall auf das Innenohr. Er beschreibt: Weil die inneren Haarzellen (IHC, inner hair cells) nicht die Deckmembranen der Bogengänge der Schnecke berühren, sind sie empfindlich für schnelle Bewegungsveränderungen durch die hörbaren Frequenzen. Als Resultat davon verlieren die IHC rasch ihre Empfindlichkeit, wenn die stimulierende Frequenz verlangsamt wird, was bedeutet, dass tiefe Frequenzen zunehmend schlechter oder gar nicht gehört werden. Die äußeren Haarzellen in der Schnecke (OHC, outer hair cells) sind, anders als die inneren Haarzellen, fest mit der Basalmembran verbunden, dadurch ist auch bei langsamen Schwingungen eine große Auslenkung, d. h. ein großer Stimulus möglich.

Eine Überprüfung von G-bewerteten Geräuschpegeln (erfasst das Frequenzspektrum < 100 Hz) von WKA ergab für ILFN bereits ab ca. 60 dB (G) eine Stimulation der OHC. Das deutet darauf hin, dass über die Schallpegel der meisten WKA eine unhörbare permanente Stimulation des Innenohrs erfolgt.

Prof. SALT vermerkt hierzu: „Die Reaktion des Ohrs auf Infraschall kann enorm sein – über 4 Mal stärker als auf die lautesten hörbaren Geräusche. Das Ohr wird durch permanente niederfrequente Geräusche und durch Infraschall ständig überreizt. Ich bin mehr denn je davon überzeugt, dass die langfristige Belastung durch niederfrequenten Schall wirklich gefährlich ist.

Was für die gesundheitliche Bewertung von Infraschall ausschlaggebend ist, ist Prof. SALTS Entdeckung, dass die äußeren Haarzellen im  Innenohr auf unterschwelligen Infraschall ansprechen und als Reaktion Signale an das Gehirn sendet. Die gesundheitlichen Folgen dieser Störimpulse sind Missempfindungen und Beeinträchtigungen der Gesundheit, die als vibroacustic desease (VAD) in der medizinischen Literatur, beschrieben werden.

Zu der großen Bedeutung, die die Art der Schallmessung an WKA für die gesundheitliche Relevanz hat, führt Prof. SALT Folgendes aus: „Der ausgewiesene Lärmpegel ist maßgeblich abhängig davon, wie der Schall gewertet wird. Die A-gewichteten Schallpegelmessungen unterdrücken besonders die für die gesundheitlichen Auswirkungen des WTS relevanten niedrigen Frequenzen, was unter dem Strich die Aussagekraft A-bewerteter Messungen entwertet. Die Windradindustrie benutzt weiter die dB (A)-Gewichtung, vermutlich um zu suggerieren, dass sich keine wirksamen Schallleistungspegel im niederfrequenten Bereich nachweisen lassen“.

Professor Salt zieht aus seinen Untersuchungen folgende Schlussfolgerungen:

·       Das Innenohr ist empfindlich für Infraschall unterhalb der Wahrnehmungsschwelle.

·       Ab 60 dB (G) werden die äußeren Haarzellen angeregt und senden Nervenimpulse aus.

·       Das Konzept „Was man nicht hören kann, schadet auch nicht.“ ist ungültig.

·       A-gewichtete Schallmessungen von WKA sind nicht repräsentativ für die Frage, ob dieser Schall das Gehör beeinflussen kann.

Die Ergebnisse der Forschungen von Prof. Salt sind interessant und wertvoll, weil sie der Behauptung kategorisch widersprechen, der Infraschall von Windkraftanlagen sei ohne Bedeutung für die Gesundheit des Menschen, da dieser, so diese Behauptung, unterhalb der Hörschwelle der meisten Menschen liege. Im Gegenteil – das Ohr zeigt physiologische Reaktion auf niederfrequenten Lärm in Pegelbereichen, wie sie von Windkraftanlagen emittiert werden, selbst wenn dieser Lärm nicht gehört werden kann.

Obwohl die komplexen physiologischen Reaktionen des Innenohres (und des Gleichgewichtsorgans) auf  Infraschall wissenschaftlich noch nicht ganz verstanden werden, rechtfertigen ja erfordern, die bisher vorliegenden Erkenntnisse und die weltweit vorliegenden zahlreichen Fallbeschreibungen von Betroffenen, die am WTS bzw. VAD Syndrom leiden, ein unverzügliches Handeln im Sinne eines vorbeugenden Gesundheitsschutzes.

Der nächtliche Umgebungslärm im hörbaren und, wie wir jetzt wissen, im unhörbaren Infraschallbereich wirkt sich negativ auf den Schlaf auf. Längerfristiger Schlafverlust oder Schlafstörungen stellen ein Gesundheitsrisiko dar. Die Lärmexposition erhöht die Produktion der Stresshormone, erhöht den Blutdruck und das allgemeine Risiko von Herz-Kreislauf-Erkrankungen. Der ungestörte Nachtschlaf ist deshalb ein guter Indikator für einen ausreichenden Schutz vor den Schallemissionen der WKA.

Welche Konsequenzen lassen sich für den Gesundheitsschutz aus diesen Ergebnissen zu ziehen?

Gegenwärtig gibt es nur eine Möglichkeit, um Gesundheitsschäden durch WKA zu begrenzen, und die besteht darin, dass der Mindestabstand zwischen den Windkraftanlagen und der Wohnbebauung ausreichend groß sein sollte damit Beeinträchtigungen oder Schäden der Gesundheit oder schwerwiegende Belästigungen sowie Störungen des Nachtschlafes mit ausreichender Sicherheit ausgeschlossen werden können.

Die zurzeit in Deutschland geltenden Mindestabstände von 700 – 1000 m und für Außengehöfte von nur 400 m sind eindeutig zu gering, um die Anwohner vor Gesundheitsbeeinträchtigungen und schwerwiegenden Belästigungen zu bewahren.

International werden Mindestabstände von 2,5 -18,00 km vorgeschlagen.

Da eine große Anzahl von Neuanlagen geplant ist, sollte in Deutschland rasch gehandelt und die bisherigen deutlich zu geringen Mindestabstände vergrößert werden.

Beispielhaft ist die Entscheidung der Ministerpräsidenten von Bayern und Sachsen, die in ihren Ländern größere Mindestabstände einsetzen wollen. Als Richtschnur soll das Zehnfache der Anlagenhöhe gelten, für ein 200 m Windrad sind das 2000m Abstand. In den Koalitionverhandlungen zum EEG ist ein Vorschlag zur Flexibilisierung der Abstände zur Bebauung enthalten.

Aus pragmatischen Erwägungen wird auch vorgeschlagen, auf die englischen Mindestabstände zurückzugreifen, die für eine WKA von 150 m Nabenhöhe und höher mindestens 3.000 m betragen und für jede weitere WKA zu vergrößern sind.

Abschließend das Zitat eines Polikers der mit seltener Klarheit das Dilemma erkannte, das sich aus dem ungezügelten Ausbau der Windkraft ergeben hat:

Oskar Lafontaine:

„Es sind neue Argumente aufgetaucht, die den Ausbau absurd erscheinen lassen.



Erstens: Trotz des ungesteuerten Ausbaus hat die Windkraft 2012 einen Anteil von nur
1,3 Prozent der Primärenergie erbracht.



Zweitens: Durch die Netzstruktur und den Kraftwerkspark führt der Zubau von Windkraftanlagen
zu einem erhöhten CO-Ausstoß. Weil sich Gaskraftwerke nicht mehr rechnen, werden alte
Braunkohlekraftwerke zugeschaltet.



Drittens: Aufgrund des Erneuerbare-Energien-Gesetzes erhöht jeder Zubau den Strompreis
für die Verbraucher. Also sage ich: Der Stopp des Ausbaus ist jetzt die richtige Antwort“.



„Es ist doch pervers, wenn man, um die Umwelt zu schützen, den CO-Ausstoß steigert und die Landschaft zerstört. „

Zitat aus Saarbrücker Zeitung

Dr. med. Bernhard Voigt, Facharzt für Arbeitsmedizin Gaggenau -Freiolsheim; dr.b.voigt@t-online.de

Literaturverzeichnis:

1.     Pierpont N., MD, PhD, Wind Turbine Syndrome – A Report on a natural Experiment,

Santa Fe / New Mexico, K-Selected Books, 2009

2.     Salt A.N., Hullar T.E., Responses of the Ear to Low Frequency Sounds, Infrasound and Wind Turbines, Hearing Research 2010; 268: 12-21

3.     Salt A.N., Kaltenbach J.A., Infrasound from Wind Turbines could Affect Humans, Bulletin of Science, Technology & Society 31, 296-302, 2011

4.     Salt A.N., Lichtenhan J.T., Gill R.M., Hartsock J.J. Large endolymphatic potentials from low-frequency and infrasonic tones in the guinea pig, J. Acoust Soc. Am. 2013, 133: 1561-1571

5.     Salt A.N., Lichtenhan J.T., Perception-based protection from low-frequency sounds may not be enough, Proceedings of InterNoise 2012, New Yourk, 2012

6.     Salt A.N., Lichtenhan J.T., Responses of the Inner Ear to Infrasound, Proceedings oft he Fourth International Meeting on Wind Turbine Noise, Rome Italy April 2011

7.     Bill: Wind turbines (Minimum Distances from Residential Premises) link: http://www.publications.parliament.uk/pa/ld201011/ldbills/017/11017.1-i.html, orderd to be Printed, 14th May 2012

Über den Autor

Facharzt für Arbeitshygiene, ab 1983 Ärztlicher Leiter des Instituts für Arbeits- und Sozialhygiene in Karlsruhe bis 1998.

Ab 1985 Lehrauftrag an der Uni in Karlsruhe, Vorlesungstätigkeit u. a. zur Hygiene der Umwelt, also zu umweltrelevanten Einflüssen wie Schadstoffen und Lärm auf die menschliche Gesundheit und Leistungsfähigkeit, bis 1996.

Seitdem selbständige arbeitsmedizinische Tätigkeit unter besonderer Berücksichtigung von die Gesundheit beeinflussenden Umweltfaktoren,  zahlreiche

Stellungnahmen und Gutachten hierzu.

Seit Sommer 2012 wissenschaftliche Beschäftigung mit den gesundheitlichen Auswirkungen von Windkraftanlagen, speziell durch Infraschall. Seitdem eine Reihe von Veröffentlichungen im Internet und Vorträge dazu. Medizinischer Berater des „Landesverbandes der baden-württembergischen Bürgerinitiativen gegen Windkraftanlagen in Natur-und Kulturlandschaften i.G.“ (lvbw-bi-wka.de).