1

Klimaerwärmung durch Kohlendioxid?

Im weiteren Verlauf des Textes lautet es: „Erstmals sehen wir in der Natur die Verstärkung des Treibhauseffektes“ und im Hamburger Max-Plank-Institut für Meteorologie wird noch jubelnd hinzugefügt, dass jetzt endlich auch die Größenordnung des anthropogenen Einflusses sichtbar geworden ist.

Das Ganze geht alles auf neueste Rückstrahlungsmessungen zurück, die kürzlich in einem Aufsatz der Zeitschrift „Nature“ (Details dazu hier und hierveröffentlicht worden sind. Aber hat denn überhaupt keiner der Interpreten gemerkt, dass durch diese Messungen genau das Gegenteil des oben Gesagten bewiesen wurde, nämlich nichts anderes als das, was seriöse Klimakritiker immer schon über den anthropogenen Treibhauseffekt ausgesagt haben.

Die von „Nature“  bekanntgegebene Zahl für die CO2-bedingte Zunahme der Rückstrahlung  von 0,2 Watt/m2 pro Jahrzehnt ist  doch in Wirklichkeit nicht mehr als eine Lappalie. Wie soll sich davor eigentlich die Erde erschrecken, wenn auf den umlaufenden Äquatorboden zur Mittagszeit ständig 1367 Watt pro Quadratmeter niederprasseln. Die wechselnden Abweichungen von diesem als „Solarkonstante“ bezeichneten Mittelwert sind sogar deutlich größer als die o.g. 0,2 Watt/m2.

Laut dem sog. Weltklimarat IPCC beträgt die Rückstrahlungszunahme im Falle einer Verdoppelung des CO2-Gehalts genau 3,7 Watt/m2, was inzwischen durch neutrale Gegenprüfung mehrfach bestätigt wurde. Im letzten Jahrzehnt hat sich der CO2-Gehalt der Atmosphäre um ca. 20 ppm erhöht (Millionstel Volumenanteile). Z.Z. liegt er bei 400 ppm. Hieraus kann schon jeder Oberschüler ermitteln, dass sich daraus ein Rückstrahlungszuwachs  von ca. 0,2 Watt/m2 ergibt, was durch die o.g. Messungen nur noch nachtäglich bestätigt wird.

Auch die dadurch bedingte globale Temperaturerhöhung kann recht genau mit einer auch vom IPCC benutzten Formel errechnet werden, die sich aus dem Strahlungsgesetz von Stefan-Boltzmann widerspruchsfrei ableiten lässt.

dT = mittlere Globaltemperatur x Rückstrahlungszuwachs / mittlere Erdabstrahlung x 4

dT = 288 K x 0,2 Watt/m2 : 240 Watt/m2 x 4 = 0,06 K = 0,06°C

In „Nature“ ist ausdrücklich vermerkt, dass die gemessene Differenz der Rückstrahlung von 0,2 Watt/m2 sich nur auf wolkenfreie Zonen der Erde bezieht. Bei 40% durchschnittlicher Wolkenbedeckung und einer 30%-igen Überlappung des CO2-Absorptionsspektrums durch den allgegenwärtigen Wasserdampf ist der oben errechnete Temperaturwert daher noch von 0,06°C auf 0,03°C zu reduzieren. Es handelt sich hier also in Wirklichkeit um einen kaum messbaren Effekt, der auch zusammen mit einer fiktiven Wasserdampfrückkoppelung nichts Dramatisches bewirken kann, womit die immer schon überflüssig gewesene Energiewende endgültig ad absurdum geführt ist. Dass der Focus alle oben beschriebenen Fehlinterpretationen völlig unkritisch weitergegeben hat, ist mehr als bedauernswert und sollte daher dringend einer Korrektur unterzogen werden.    

Dr. rer.nat. Siegfried Dittrich  




Europa fährt Subventionen für Grüne Energie zurück

Das bulgarische Parlament hat Vorzugspreise für neue Anlagen zur Erzeugung erneuerbarer Energie gestrichen, kämpft doch das Land gegen Defizite im Energiesektor. Außerdem will man den Rechnungen für die Verbraucher einen Deckel aufdrücken. Die hohen Energiepreise haben zu so starken Protesten geführt, dass die Regierung im Februar 2013 aus dem Amt gefegt worden ist.

Wind- und Photovoltaik-Parks sind im Jahre 2011 wie Pilze aus dem Boden geschossen, nachdem Bulgarien großzügige Subventionen für erneuerbare Energie eingeführt hatte, garantiert für 20 Jahre und mit der Verpflichtung, dass alle damit erzeugte Energie auch abgenommen werden muss. Aber die Anreize lagen schwer auf den Energiekosten des ärmsten Landes in der Europäischen Union, welches sein Ziel eines Anteils von 16% der erneuerbaren Energie bereits im Jahre 2013 erreicht hatte.

Die gewährten Anreize bleiben nur für bereits in Betrieb befindliche Wind- und Solarkraftwerke in Kraft.

Die Überarbeitungen des Energiegesetzes, vom Parlament abgesegnet, enthielten auch den Umstand, dass der Versorger für öffentliche Energie NEK nicht verpflichtet sein wird, Energie zu Vorzugspreisen zu kaufen von Heizkraftwerken, die ihre Energieeffizienz nicht nachweisen können.

Der Boom erneuerbarer Energie, Anreize für parallel Energie erzeugende Kraftwerke und hohe Kosten der langfristigen Energieabnahme-Verpflichtungen haben das Defizit von NEK auf 3,3 Milliarden Levs (1,65 Milliarden Euro) in die Höhe schnellen lassen. Dies ließ das Energieministerium verlauten.

Full story

Italien streicht rückwirkend Solar-Subventionen

Die European Photovoltaik Industry Association EPIA hat vor einigen Tagen ein Statement mit der Warnung veröffentlicht, dass neue, vom italienischen Senat im vorigen Monat genehmigte Gesetze einst garantierte Solar-Einspeisetarife (FiT) streichen. Dies wird nicht nur die PV-Industrie des Landes treffen, sondern auch das Image von Europa als einer Region, in der sich Investitionen rechnen.

Das Gesetzesdekret von Italien, übernommen am 7. August, führt signifikante rückwirkende FiT-Streichungen ein sowie neue Steuern für selbst verbrauchten Strom. Die Gesetzgebung wird rückwirkend die Art und Weise modifizieren, mit der FiTs vom 1. Januar an für bestehende PV-Installationen gezahlt werden. Besitzer von PV-Systemen, denen man unter dem Conto-Energia-Mechanismus 20 Jahre lang FiTs garantiert hatte, werden sich jetzt entscheiden müssen zwischen drei Optionen, die zu einer Beschneidung von zuvor garantierten Raten führen.

Investoren in Grüne Energie erleiden massive Verluste und klagen erneut dagegen

Der Solar-, Wasserkraft- und Windsektor erfuhr einen gewaltigen Boom, nachdem viele europäische Länder wohlwollende Einspeisetarife (FiTs) eingeführt hatten, die den Erzeugern erneuerbarer Energie über dem Marktniveau liegende Preise garantierten und Verbrauchern Subventionen zur Verfügung stellten, die Einrichtungen für erneuerbare Energie in ihren Häusern installierten. Diese Anreize wurden großzügig gewährt, um den Ländern zu helfen, ihre EU-Ziele bzgl. erneuerbarer Energie zu erreichen. Mit großzügigen und langfristigen, von Regierungen versprochenen FiTs flossen die Investitionen reichlich. Allerdings war der Bedarf erheblich unterschätzt worden, was zu einer substantiellen Verteuerung der Energiepreise für die Verbraucher führte, als die FiT-Kosten durchgereicht wurden. Außerdem führte dies zu stetig wachsenden Defiziten des Energiebudgets vieler Regierungen.

Angesichts des Zurückfahrens der FiTs seitens der Regierungen sowie deren Scheitern bei anderen regierungsamtlichen Garantien mussten die Investoren im Sektor der erneuerbaren Energien hinnehmen, wie ihre Investitionen dezimiert oder zumindest substantiell reduziert wurden. Viele haben sich inzwischen schon an Schlichtungsstellen gewandt in einem Versuch, für ihre Investitionen entschädigt zu werden. Tatsächlich war es zu 23% aller bekannten Schiedsverfahren im Jahre 2013 gekommen als Folge von Maßnahmen hinsichtlich erneuerbarer Energie, die von Spanien und der Tschechischen Republik übernommen worden waren. Alle Klagen sind gegenwärtig in der Schwebe, und noch mehr Klagen werden erwartet.

Bemerkung des Übersetzers hierzu: War nicht schon vor Jahren zu lesen, dass sich entsprechende Fachanwälte in Erwartung vieler diesbezüglicher Klagen die Hände gerieben haben?

Full post

Link: http://www.thegwpf.com/europe-rolls-back-green-energy-subsidies/

Übersetzt von Chris Frey EIKE




Bemerkungen zum Winter 2014/15 Europa-Atlantik-Ostteil Nordamerika

Schon bei der Proklamation des Jahres 2014 als “das wärmste jemals” seitens der NASA und anderer politischer oder von politischen Zuwendungen abhängiger Organisationen hatten ja nicht nur die Autoren des o. g. Beitrags auf die Unregelmäßigkeiten dieser Behauptung hingewiesen. Es war eine ungewöhnlich hohe Zahl von Tagen mit einer Südwest-Wetterlage, die das Jahr 2014 in Deutschland in der Tat zu einem der wärmsten Jahre gemacht haben, aber ebenso wie weltweit nicht zum wärmsten jemals, wie inzwischen auch die NASA mit zusammen gebissenen Zähnen einräumen musste.

Im krassen Gegensatz zum Medienecho dieser Behauptungen vor allem hierzulande steht ein anderes Ereignis in einem anderen Teil der Welt, und zwar mit weit gravierenderen Folgen als die milde Witterung bei uns. Der gesamte östliche und zentrale Teil der USA bis hinunter zum Golf von Mexiko erlebte zum zweiten Mal hintereinander einen katastrophalen Eiswinter mit schweren Ernteschäden und wirtschaftlichen Folgen. Besonders der vergangene Februar war in vielen Gebieten im Osten der USA wirklich der kälteste jemals, also seit Beginn von Aufzeichnungen in Reihen, die 50 bis 100 Jahre lang sind. Eine gute Zusammenfassung der Verhältnisse in den USA findet sich hier. Aus diesem Artikel stammt auch die folgende Tabelle, die hier beispielhaft gezeigt werden soll:

Zu dieser Tabelle: Zu beachten ist, dass alle Angaben in Grad Fahrenheit gegeben sind. Man muss die Zahlen durch 1,8 dividieren, um auf Celsius-Grade zu kommen. Aber das ist nicht der wesentliche Punkt. In der Spalte ganz rechts steht die Differenz des neuen Rekordwertes im Vergleich zum bisherigen Rekord. Die Größe dieser Differenz ist wirklich erschreckend, aus einem Grunde, den ich am Ende anspreche.

Und was vernahm man nun in den Medien hierzulande? Dröhnendes Schweigen – was sonst? Wie soll man das nennen? Ist das nun Zensur oder nicht? Lediglich als der Bürgermeister der Stadt New York, aber auch andere Brüder im Geiste aus der Politik, einen gewaltigen Blizzard verkündeten, gab es hierzulande mediales Getöse. Als dieser Sturm aber wie von meinen US-Kollegen erwartet, was sie aber nicht laut sagen durften (!!) deutlich schwächer ausgefallen war, gab es in unseren Medien wieder Schweigen. Merkwürdige Zeiten, die unselige Erinnerungen wecken.

Zusammenhänge der Winterwitterung auf der Nordhemisphäre

Betrachtet man die Anomaliegebiete im großräumigen Maßstab, fallen wie erwähnt der milde Winter in Mitteleuropa bis weit nach Osteuropa hinein sowie die extreme Kälte in der Osthälfte der USA auf. Im Westen der USA, namentlich in Kalifornien, schlossen sich große Gebiete an, die unter einer schon seit Längerem andauernden Dürre leiden. Die Niederschlagsarmut dürfte sich auch weit auf den Pazifik hinaus erstreckt haben, aber über Ozeanen von einer „Dürre“ zu sprechen ist wohl doch fehl am Platze.

In Ostasien und dem Ostteil Sibiriens schlossen sich dann wieder weite Gebiete mit extremer Kälte an. Extrem auch für diese Gebiete, allerdings ist es dort natürlich immer sehr kalt, und ich weiß nicht, ob es ins Gewicht fällt, ob die Temperatur -50°C oder -60°C beträgt.

Wie auch immer, es zeigt sich eine klare Wellenzahl drei: drei große Tröge (kalt) und drei große Hochkeile (warm) rund um den Nordpol. Am Besten spiegelt sich so etwas im 300-hPa-Niveau. Bekanntlich ist ja der mäandrierende Jet Stream die Summe mehrerer Wellenzahlen, die alle eine unterschiedliche Amplitude und Varianz (= Anteil der Einzelwelle am Gesamt-Wellenspektrum) haben.

Eine solche Wellenzahl drei war also ganz offensichtlich im Winter 2014/15 auf der Nordhemisphäre vorherrschend. Der Theorie nach ROSSBY zufolge haben diese sog. Langen Wellen klimatologisch eine statistisch bevorzugte Position, die der Orographie der Nordhemisphäre folgt. So liegt der Hochkeil der Wellenzahl drei im klimatologischen Mittel vor der Westküste Amerikas über dem Pazifik. Der nächste Hochkeil befindet sich dann 130 Längengrade weiter östlich, also über Mitteleuropa und dem östlichen Mitteleuropa. Dazwischen liegt jeweils ein langwelliger Trog. Auf diese Weise lässt sich ziemlich einfach die Witterungs-(!)Verteilung auf der Nordhemisphäre beschreiben.

Diese sog. Klimatologischen langen Wellen (im Winter bis zur Wellenzahl vier, im Sommer fünf) ändern sich immer mal wieder, wie ja alles im ständigen Wandel begriffen ist (Wetter, Witterung und Klima). Lange Wellen verlagern sich auch nicht, sondern bleiben immer mehr oder weniger stationär – es sei denn, die Wellenzahl ändert sich. Das alles sind grob vereinfachte Ableitungen aus der ROSSBY-Theorie. Näheres dazu gibt es hier.

Aus dieser Quelle stammt auch die folgende Abbildung:

Sie zeigt die langen Wellen mit der Wellenzahl drei in ihrer mittleren klimatologischen Position. Im vergangenen Winter war diese Konfiguration um einige Längengrade nach Osten verschoben.

Interessanterweise ist nun die Änderung eines Langwellen-Regimes nicht gleichmäßig über das Jahr verteilt, sondern es gibt hierbei statistisch bevorzugte Zeiten. Die größte Signifikanz weist der Zeitraum Anfang Juli („Siebenschläfer-Regel“) und Anfang Dezember auf, wobei ein Wellenregime, das sich bis spätestens zum 10. Dezember eingestellt hat, in der Regel bis weit in das meteorologische Frühjahr hinein gehalten wird (mein Freund Chris Frey hat das mal so ausgedrückt: „Anfang Dezember wird der Winter gebacken“).

Die milde Witterung bei uns, die Dürre in Kalifornien und die extreme Kälte im Ostteil der USA sind also dem Wellenregiment dieses Winters geschuldet, das wie zu erwarten war den ganzen Winter über gehalten wurde mit kleineren Schwankungen. Daran ist weder etwas Aufregendes, noch hat das irgendwas mit dem Klimawandel zu tun.

Noch einmal zurück zur Arbeit von Kämpfe und Kowatsch (2015): Am Ende des Beitrags findet sich eine Tabelle, in der die Langfristvorhersagen des Winters bewertet werden, die im Herbst vorigen Jahres abgegeben worden waren. M. E. hat sich Kämpfe dabei zu schlecht beurteilt, denn im Gegensatz zum Autor dieses Beitrags hat er den eher milden Winter erwartet. Warum habe ich diesen Winter kälter erwartet?

Nun, das Wellenregiment dieses Winters hat sich sehr spät eingestellt. An sich ist eine starke und milde Westlage Anfang Dezember fast ein Garant für einen milden Winter bei uns, aber Anfang Dezember 2014 gab es diese Westlage noch nicht. Als sich dann aber in der Ersten Dezemberdekade die ersten Mega-Orkanwirbel auf dem Atlantik bildeten (was im Vorjahr 2013 bereits im September angefangen hatte!) war dies ein Hinweis, dass sich bei uns dauerhaft kalte Witterung wohl nicht einstellen würde. Das allein ist aber noch kein Hinweis, denn am 15 Dezember 1986 hat sich im Seegebiet zwischen Island und Grönland der stärkste, im vorigen Jahrhundert bekannte Orkanwirbel jemals entwickelt mit einem Kerndruck unter 920 hPa! Dennoch gab es bekanntlich 1986/87 in Mitteleuropa einen sehr kalten Winter. Irgendetwas war also damals anders, und zwar etwas sehr Augenfälliges. Ich bekenne, dass ich dies zu Beginn des vergangenen Winters übersehen hatte.

Kalte oder sehr kalte Witterung kann sich bei uns nur bei Ost- oder Nordostlagen einstellen. Dazu ist aber außerdem noch das Vorhandensein eines Kaltluftkörpers über Nordosteuropa erforderlich. Im Dezember 1986 war dieser ausgeprägt vorhanden, während er im Dezember 2014 vollständig fehlte und sich auch bis heute nie eingestellt hatte. Das sollen die folgenden Abbildungen zeigen:

Das Datum stimmt zwar nicht ganz auf den Tag genau, aber in beiden Fällen findet sich auf dem Atlantik ein Orkanwirbel. Man erkennt sehr gut den Kaltluftkörper im Dezember 1986 über Nordosteuropa, der sogar deutlich stärker ausgeprägt war als sein Pendant im Osten Amerikas. Bodennah waren damals dort Temperaturwerte zwischen -20°C und -40°C vorherrschend.

Ganz anders im Dezember 2014: Ein Kaltluftkörper über Nordosteuropa ist nicht einmal rudimentär vorhanden. Dagegen weist die Wetterlage über dem Atlantik Ähnlichkeiten auf.

Fazit bis hier: Aus statistisch-synoptischer Sicht war aufgrund der Strömungsverhältnisse Anfang/Mitte Dezember 2014 kein kalter Winter zu erwarten. Dies gilt auch generell: Sollte sich bis spätestens Mitte Dezember über Nordosteuropa kein ausgeprägter Kaltluftkörper gebildet haben, ist dies statistisch gesehen den ganzen Winter über nicht zu erwarten. Es gibt natürlich Ausreißer dergestalt, dass sich im Januar doch noch ein solcher bildet, aber dieser Fall tritt so selten auf, dass die Aussage signifikant ist. Mit etwas größerer Streuung gilt das auch umgekehrt: Ist ein solcher Kaltluftkörper über Nordosteuropa vorhanden und auch stärker ausgeprägt als sein Pendant am Westatlantik, sind im Winter zumindest einige längere handfeste Kältewellen zu erwarten.

Wobei wir bei einem Punkt sind, der mir als einzigem zu denken gibt: Kältewellen im Osten der USA gibt es immer wieder. Auch ich habe in den siebziger Jahren im US-Bundesstaat Pennsylvania solche Winter erlebt. Aber: Es ist die Intensität der diesmaligen Kältewelle dort, die mich beunruhigt! Sollte sich das nächste Mal wieder ein Kaltmuster für Mitteleuropa einstellen (und das wird mit Sicherheit in naher Zukunft wie üblich wieder der Fall sein, zumal eine die Wellenzahl drei begünstigende Warmphase der NAO in die Kaltphase wechseln dürfte), so dürften auch bei uns die Kälterekorde purzeln – mit allen gravierenden Folgen für Wirtschaft und Gesellschaft – also für uns alle!

Und wer weiß? Vielleicht schon im nächsten Jahr im Zuge des (zugegebenermaßen unwissenschaftlichen) Al-Gore-Effektes? Schließlich findet Anfang Dezember das nächste große Klima-Konferenz-Spektakel in Paris statt…

Dipl.-Met. Hans-Dieter Schmidt

Nachwort: In den USA ist das Zufrieren der Großen Seen ebenfalls ein großes Thema. Die Eisbedeckung und -dicke ist noch stärker als vor einem Jahr; auch die Niagara-Fälle sind weitgehend eingefroren. Das ist aber keine Folge noch extremerer Kälte, sondern dem Umstand geschuldet, dass die sommerliche Erwärmung der Seen im Jahre 2014 erst mit großer Verzögerung erfolgen konnte, weil erst im Juni (!) das letzte Eis des Vorwinters verschwunden war. Die Wassertemperatur der Seen lag also eingangs des Winters 2014 deutlich niedriger als eingangs des Vorwinters.




Reaktortypen in Europa – Teil5, ESBWR

Geschichte

Bereits nach dem Reaktorunglück von TMI in Harrisburg begann man in den USA das Genehmigungsverfahren für einen stark vereinfachten Reaktor, den SBWR (Simplified Boiling Water Reactor). Nachdem man über eine halbe Milliarde Dollar Entwicklungs- und Genehmigungskosten investiert hatte, mußte man erkennen, daß dieser Reaktor mit 670 MWel schlicht zu klein und damit unverkäuflich war. Im nächsten Schritt legte man mehr Wert auf die “Wirtschaftlichkeit (Economic)” und erhöhte die Leistung auf 1600 MWel. Ein weiteres Jahrzehnt mit unzähligen Prüfungen verging. Seit letztem Jahr liegen endlich alle Genehmigungen für den Typ vor. Es fehlt nur noch ein Kunde mit einem konkreten Bauauftrag. Inzwischen gibt es auch dazu Verhandlungen in USA, Polen und Indien. Wie immer, wird der “mutige Investor” gesucht, der bereit ist, in eine neue Technik (first of a kind) zu investieren. Dabei ist die Technik alles andere als revolutionär, sondern im Gegenteil strikt evolutionär. Man hat Schritt für Schritt auf in der Praxis bewährte Bauteile zurückgegriffen. Dies sei nur am Rande bemerkt, für all die Erfinder, die immer nach revolutionären Konzepten schreien. Erfinden und in allen Details den Nachweis der Funktionstüchtigkeit erbringen, sind zwei völlig verschiedene Dinge. Zumindest der Nachweis der Funktionstüchtigkeit – nach den Maßstäben der Kerntechnik – erfordert Jahrzehnte und verschlingt somit immense Summen. Vergleichbares gibt es nur in der zivilen Luftfahrt. Auch dort sind revolutionäre Flugzeugentwürfe nur etwas für Universitäten und Medien.

Anforderungen

Alle bisherigen Erfahrungen mit Kernkraftwerken – insbesondere die Unglücke in Harrisburg, Tschernobyl und Fukushima – haben zu folgenden Anforderungen für einen sicheren und wirtschaftlichen Betrieb geführt:

·       Je weniger Bauteile man hat, je weniger kann kaputt gehen (Schaden) und je weniger muß gewartet und überwacht werden (Wirtschaftlichkeit).

·       Je einfacher (“kiss = keep it simple stupid”) das Kraftwerk ist, je einfacher ist es auch zu bedienen – dies gilt für die Automatik, wie auch für das Personal.

·       Je mehr man auf Naturkräfte (Schwerkraft, Speicherung etc.) bei der Sicherheitstechnik setzt, um so sicherer ist ihre Verfügbarkeit im Ernstfall.

·       Je unabhängiger man von äußeren Einflüssen ist (Netzanschluss, Kühlwasser etc.), je weniger können solche “Einwirkungen von außen” (Tsunami, Wirbelsturm, aber auch Flugzeugabsturz, Terror etc.) zu Schäden beim Kraftwerk führen.

·       Je passiver die Sicherheitsketten sind, je weniger muß man sich auf eine hohe Bereitschaft des Schichtpersonals verlassen. Gerade in Ausnahmesituationen (Erdbeben mit Tsunami) brauchen Menschen Zeit sich darauf umzustellen.

·       Wenn man bewußt von dem Versagen aller Sicherheitssysteme ausgeht und offensiv solche Ereignisse durchspielt, kann man trotzdem die Schäden für die Umwelt noch weiter mindern.

Nur die konsequente Umsetzung der vorausgehenden Punkte hat zu der gewaltigen Steigerung der Sicherheit beim ESBWR geführt. Hatte die “Fukushima-Generation” noch eine Wahrscheinlichkeit von einer Kernschmelze in 100.000 Betriebsjahren, so liegt diese Wahrscheinlichkeit beim ESBWR bei etwa einer Kernschmelze in 170.000.000 Betriebsjahren. Spätestens nach den Ereignissen von Tschernobyl und Fukushima legt man großen Wert auf die Freisetzung von Radioaktivität nach dem Versagen aller Sicherheitseinrichtungen (z. B. Beschädigung des Containment etc.). Man kann durch geeignete Maßnahmen auch in einem solchen schweren – und unwahrscheinlichen – Unfall, die Freisetzung von radioaktiven Stoffen erheblich verringern. Simulationen für Standorte in USA haben ergeben, daß selbst in Betrachtungszeiträumen von einer Milliarde Jahren (berücksichtigt die geringe Wahrscheinlichkeit der Ereignisse) in einer Entfernung von 800 m (!) keine Dosen über 1 Sv auftreten würden. Natürlich können solche Berechnungen “Atomkraftgegner” nicht überzeugen. Sie halten auch nach Tschernobyl und Fukushima tapfer an ihrem Glauben von Millionen-Tote-für-zehntausende-Jahre-unbewohnbar fest. Was soll’s, es gibt auch heute noch Menschen, die an Hexen glauben.

Der Naturumlauf

Die Idee einen Siedewasserreaktor ohne Umwälzpumpen zu bauen, ist keinesfalls neu. Allerdings waren die ursprünglichen Modelle, wie z. B. Dodewaard (183 MWth) und Humboldt Bay (165 MWth) geradezu winzig gegenüber einem ESBWR (4500 MWth). Gleichwohl haben sie in den Jahrzehnten ihres Betriebs wertvolle Erkenntnisse und Messreihen geliefert, die als Referenz für die Auslegungsprogramme des ESBWR dienen. Dodewaard war von 1969 bis 1997 am Netz und hat trotz seiner bescheidenen Leistung von 55 MWel fast 11000 GWhel Strom produziert.

Wenn man einen Reaktor mit Naturumlauf bauen will, muß man die treibende Kraft der Umwälzpumpen durch einen Kamineffekt ersetzen: Es steht nur die Dichtedifferenz zwischen kaltem Abwärtsstrom und dampfhaltigem Aufwärtsstrom zur Verfügung. Um überhaupt genug Druck erzeugen zu können, damit man die Reibung in den Bauteilen überwinden kann, ist eine erhebliche Bauhöhe erforderlich. Genau das war aber in den Anfangsjahren das Problem. Man konnte solch große Druckgefäße – zumindest wirtschaftlich – nicht herstellen. Es bot sich deshalb an, besser Umwälzpumpen zu verwenden. Heute haben sich die Verhältnisse umgekehrt. Es gelang praktisch das im ABWR verwendete Druckgefäß auch im ESBWR zu verwenden. Es mußte allerdings für den Kamin oberhalb des Reaktorkerns, von 21,7 auf 27,6 m verlängert werden. Solch schlanke Behälter haben Vor- und Nachteile. Für die Gebäudehöhe und den Erdbebenschutz ist eine solche Länge eher nachteilig. Allerdings ergibt sich auch ein sehr großes Wasservolumen, was sich positiv bei Störfällen auswirkt.

Der Kern des ESBWR ist gegenüber dem ABWR größer (1590 gegenüber 1350 Brennelemente) und flacher (3,0m gegenüber 3,7m aktive Brennstablänge). Dies ist auf die höhere Leistung (4500 gegenüber 3926 MWth) und die anderen thermohydraulischen Bedingungen zurückzuführen. Wegen der höheren Anzahl der Brennelemente erhöht sich auch die Anzahl der Regelstäbe (269 gegenüber 205). Diesem Mehraufwand ist die Einsparung von zehn internen Umwälzpumpen gegen zu rechnen.

Der Rechenaufwand

Einfach anmutende, natürliche Systeme, sind meist wesentlich schwieriger zu beschreiben, als technische Systeme. Technische Anlagen, wie z.B. Pumpen, können definierte Randbedingungen schaffen, die eine Berechnung oft stark vereinfachen. Nur auf Naturkräfte beruhende Systeme sind die hohe Schule der Simulation. Schnell stößt man bei der notwendigen räumlichen und zeitlichen Auflösung an die Grenzen heutiger Rechner. Hinzu kommt hier eine sehr große Anzahl von Gleichungen, da die Thermohydraulik und die Neutronenphysik sich sehr stark gegenseitig beeinflussen.

Man muß es eigentlich nicht besonders erwähnen, hier hat man es mit einer Genehmigungsbehörde zu tun und bewegt sich nicht als freischaffender Künstler in der Welt von Klimamodellen oder Wirtschaftsprognosen. Hier muß man nicht nur sein Programm offen legen, sondern auch noch nachweisen, daß es richtig rechnet. Dazu müssen zahlreiche Messreihen an 1:1 Modellen nachgerechnet werden, um Unterprogramme (z. B. Druckverlust in einem Brennelement) zu testen. Ist diese Hürde – zur Zufriedenheit der Genehmigungsbehörde – erfolgreich genommen, geht es daran, Versuche an bereits gebauten Reaktoren nachzurechnen. Erst wenn der Genehmigungsbehörde kein Testfall mehr einfällt, ist das Programm zugelassen. So etwas kann dauern, schließlich arbeitet die Behörde im Stundenlohn für einen Stundensatz von 280 US-Dollar. So viel zum Thema: Junge Unternehmen entwickeln einen innovativen Reaktor. Die alten Zeiten eines Admiral Hyman G. Rickover, für den der Reaktor der USS Nautilus noch mit Rechenschieber, Bleistift und ganz viel Hirn ausgelegt wurde, sind lange vergangen.

Allein die Anpassung des vorhandenen Programms an die Besonderheiten des ESBWR soll bei GE mehr als 100 Mann-Jahre gedauert haben. Erst dann konnten für alle möglichen geforderten Zustände, die Leistungen, Durchflüsse, Dampfzustände und Dampfanteile, Blasenkoeffizienten, die Leistungsdichte und -verteilung, sowie die Stabilität (z.B. Xenon-Schwingungen) nachgewiesen werden.

Führt man sich diesen Aufwand vor Augen, wird einsichtig, warum die Entwicklung evolutionär verläuft. Man hat versucht, soviel wie möglich vom ABWR beim ESBWR weiter zu verwenden. Nicht einmal ein Verbund von internationalen Konzernen, aus GE, Hitachi und Toshiba kann es sich heute noch erlauben, die Entwicklung eines kommerziellen Reaktors mit einem weißen Blatt Papier zu beginnen. Ob das nun gut oder eher schlecht ist, mag jeder für sich selbst entscheiden.

Die Notkühlung

Nach dem Unglück in Fukushima sind zwei Ereignisse in den Mittelpunkt der Sicherheitsüberlegungen gerückt:

1.     Der Verlust der Hauptwärmesenke. In Fukushima wurden durch die Flutwelle die Kühlwasserpumpen und Einlaufbauwerke zerstört. Damit ging die Fähigkeit zur Abfuhr der Nachzerfallswärme verloren. Für sich genommen, schon ein wesentlicher Schritt zur Kernschmelze.

2.     Verlust (nahezu) jeglicher Stromversorgung. Durch die Schnellabschaltung infolge der Erdstöße war die Eigenversorgung weg, durch die großräumigen Verwüstungen durch die Naturkatastrophe, die Stromversorgung über das Netz und durch die Flutwelle wurden die Schaltanlagen und Notstromdiesel zerstört.

Wie hätte sich nun ein ESBWR in einer solchen Ausnahmesituation verhalten? Er verfügt über eine zusätzliche Wärmesenke für den Notfall, die vollständig unabhängig vom normalen Kühlwassersystem funktioniert: Die Außenluft. Der Auslegungsphilosophie folgend, sich nur auf Naturkräfte zu verlassen, handelt es sich dabei um offene “Schwimmbecken” oberhalb des Sicherheitsbehälters. Das Volumen ist so bemessen, daß es für mindestens 72 Stunden reicht. Die Temperatur ist – unabhängig von den Umweltbedingungen – durch die Verdampfung auf maximal 100 °C begrenzt. Es kann jederzeit – auch von außen durch die Feuerwehr – aus verschiedenen Tanks nachgefüllt werden.

Das nur mit der Schwerkraft betriebene Notkühlsystem ECCS (Emergency Core Cooling System) besteht aus vier voneinander unabhängigen Zügen. In jeweils einem “Schwimmbecken” oberhalb des Sicherheitsbehälters befindet sich zwei Kondensatoren. Diese bestehen aus je zwei übereinander angeordneten Sammlern, die durch zahlreiche dünne Rohre verbunden sind. Von dem Reaktordruckgefäß steigt eine Leitung zu den Sammlern auf. Im Kondensator kühlt sich das entweichende Dampf/Wassergemisch ab und strömt über den (kalten) Rücklauf wieder dem Reaktordruckgefäß zu. Es entsteht ein natürlicher Kreislauf, der sich selbst antreibt. Im Normalbetrieb ist die “warme” Dampfleitung stets offen. Jede “kalte” Rückleitung ist durch je zwei parallele Ventile verschlossen. Aus Gründen der Diversität ist ein Ventil elektrohydraulisch und das jeweils andere pneumatisch über einen Druckgasspeicher betrieben. Die Ventile befinden sich in einer “fail-safe” Stellung: Während des Betriebs werden sie durch die Kraft der Hydraulik oder des Gases geschlossen gehalten. Geht der Druck weg – aus welchen Gründen auch immer, gewollt oder nicht – geben die Ventile den Weg frei. Wegen der Redundanz, reicht ein Ventil aus, um den gesamten Strom durchzulassen. Da die Kondensatoren und die Rückleitung vollständig mit “kaltem” Wasser gefüllt sind, rauscht dieses Wasser infolge der Schwerkraft in den Reaktordruckbehälter und der Kondensator saugt dadurch ein “warmes” Gas- und Dampfgemisch aus dem Reaktorgefäß nach. Ein Naturumlauf ist entfacht. Dieser läuft solange, wie der Kern Nachzerfallswärme produziert und die Außenluft diese Wärme abnimmt.

Wenn das nukleare System irgendwo ein Leck hat, würde irgendwann der Kern trocken fallen. Das entweichende Wasser muß sofort ersetzt werden. Zu diesem Zweck gibt es innerhalb des Sicherheitsbehälters große Wassertanks. Damit aber das Wasser in freiem Fall nachströmen kann, muß zuerst der Druck im System abgebaut werden. Hierfür gibt es 8 Sicherheitsventile, 10 Abblaseventile (die zeitweilig durch pneumatische Antriebe geöffnet werden können) und 8 Druckentlastungsventile unmittelbar am Reaktordruckgefäß. Letztere enthalten verschweißte Membranen, durch die sie dauerhaft dicht und wartungsfrei sind. Wenn sie öffnen müssen, “durchschneidet” ein Kolben die Dichtung. Dieser Kolben wird durch Gas, welches pyrotechnisch in einem Gasgenerator erzeugt wird, bewegt. Es ist das gleiche Prinzip, wie bei einem “Airbag” im Auto – ein sehr kleiner “Signalstrom” reicht zur Zündung aus und erzeugt über die “Sprengkraft” eine sehr große Gasmenge. Diese Ventile sind so gebaut, daß sie den Weg vollständig frei geben, nicht verstopfen können und sich nicht wieder schließen lassen.

Der Energieabbau und die Kühlung geschieht in mehreren miteinander verknüpften Schritten:

1.     Aus den diversen Abblaseventilen strömt (zumindest am Anfang) ein Dampfstrahl mit hoher Energie und Geschwindigkeit. Dieser wird feinverteilt in Wasserbecken eingeblasen. Diese sog. Kondensationskammern befinden sich unten im Sicherheitsbehälter.

2.     Durch die Kondensation fällt der Dampf in sich zusammen und bildet wieder Wasser. Die Verdampfungswärme geht dabei an das Wasser der Kondensationskammer über. Würde man das Wasser nicht kühlen, wäre irgendwann Schluß damit. Der Zeitraum hängt von der Nachzerfallswärme und dem Wasservolumen ab.

3.     Das Wasser in den Kondensationskammern kann auf verschiedenen Wegen gekühlt werden. Der wichtigste Weg ist über die weiter oben beschriebenen Kondensatoren.

4.     Damit der Reaktorkern stets sicher gekühlt ist, sind die Wasservolumina in den Kondensationskammern und Speichern so bemessen, daß der Kern auch dann unter Wasser bleibt, wenn sich das Wasser im Sicherheitsbehälter ausbreitet. Dieser Zustand kann auch absichtlich herbeigeführt werden.

5.     Um eine Kettenreaktion sicher und dauerhaft zu verhindern, wird zusätzlich aus Speichern borhaltiges (Neutronengift) Wasser eingesprüht.

Der “Supergau”

Im Gegensatz zu den Anfängen der Kernkraftwerkstechnik, diskutiert man schon heute im Zulassungsverfahren ganz offensiv das Versagen aller Sicherheitseinrichtungen: Einerseits setzt man sich dabei mit den Auswirkungen der dadurch freigesetzten Radioaktivität auf die Umgebung auseinander und andererseits beschäftigt man sich mit Möglichkeiten diese Auswirkungen trotzdem abzumildern.

Ein typischer Fall ist das Versagen des Sicherheitsbehälters. Man versucht alles erdenkliche zu tun, dies zu verhindern, beschäftigt sich aber trotzdem mit diesem Ereignis. Ein Schritt diesen Unfall abzumildern, ist die gesteuerte Ableitung über Filter und den Abgaskamin. Durch die Kaminhöhe verdünnt sich die Abgaswolke beträchtlich. Durch das Vorschalten von geeigneten Filtern kann die Schadstoffmenge zusätzlich gemindert werden.

Ähnlich verhält es sich mit dem Kern: Durch redundante, passive Kühlsysteme versucht man den Brennstoff und die Spaltprodukte im Reaktordruckgefäß zu halten. Trotzdem untersucht man auch ein Versagen des Druckbehälters. Wie Fukushima gezeigt hat, ist auch beim Versagen der Notkühlung nicht mit einem “China Syndrom” (Hollywood Phantasie, nach der sich der schmelzende Kern immer weiter in den Untergrund frisst) zu rechnen. Trotzdem geht man von einem Schmelzen des Stahlbehälters, wie bei einem Hochofenabstich aus. Die Grube des Reaktorgefässes ist deshalb als “feuerfester Fußboden” (BiMAC, Basemat Internal Melt Arrest and Coolability device) ausgeführt. Unterhalb einer feuerfesten Schicht befindet sich ein Rohrleitungssystem, welches – quasi wie bei einer Fußbodenheizung – diese Schicht kühlt. Dieser “Fußboden” ist bezüglich seiner Konstruktion und Leistung für den 4-fachen Kerninhalt ausgelegt. Zusätzlich könnte die Grube mit dem im Sicherheitsbehälter vorhandenem Wasser vollständig geflutet werden, um die Spaltprodukte größtenteils darin zurückzuhalten.

Leistungsregelung

Normalerweise geschieht die Leistungsregelung bei Siedewasserreaktoren über die Steuerstäbe und die Umwälzpumpen. Die Steuerstäbe dienen nur zum Anfahren und bis etwa 50% der Auslegungsleistung. Im Bereich oberhalb 60% wird die Leistung nur noch über die Umwälzpumpen durchgeführt. Die Steuerstäbe dienen dann nur noch zur Kompensation des Abbrands.

Beim ESBWR kann der Reaktor durch langsames ziehen der Steuerstäbe auf Temperatur gebracht werden. Da im Siedebereich Temperatur und Druck miteinander gekoppelt sind, steigt auch der Druck im nuklearen System entsprechend an. Würde man keinen Dampf entnehmen, würde der Druck im “Kessel” immer weiter ansteigen, bis die Sicherheitsventile ansprechen. Natürlich wird so bald wie möglich Dampf entnommen, um die Turbine und das gesamte nukleare System damit aufzuwärmen. Wenn man aber Dampf entnimmt, muß die gleiche Menge durch Speisewasser ersetzt werden. Das Speisewasser wird im Betriebszustand auf 216°C vorgewärmt. Dies geschieht in sechs Stufen. Man entnimmt dazu, an bestimmten Stellen der Turbine, eine gewisse Menge Dampf. Dies ist sinnvoll, da der jeweils entnommene Dampf bereits Arbeit geleistet hat und sich somit der Wirkungsgrad verbessert. Man nennt diese Strategie “Carnotisierung”.

Der ESBWR hat gegenüber einem normalen Siedewasserreaktor (z. B. ABWR) eine siebte Vorwärmstufe, die mit frischem Dampf aus dem Reaktor beheizt wird. Normalerweise wird sie deshalb umgangen. Wenn man beispielsweise mit dieser Stufe die Speisewassertemperatur auf 252°C erhöht, geht die Leistung des Reaktors – bei gleicher Position der Steuerstäbe – auf 85% zurück. Umgekehrt könnte man die Steuerstäbe etwa so weit einfahren, daß nur noch rund 50% der Auslegungsleistung erzeugt wird. Würde man nun die Speisewassertemperatur auf 180°C absenken, würde sich wieder die ursprüngliche Leistung einstellen. Es ergibt sich somit im Bereich zwischen 50% bis 100% Leistung ein umfangreiches Feld, in dem sich die Leistung durch Kombination von Steuerstabstellungen und Speisewassertemperatur regeln läßt.

Die physikalische Ursache ist bei allen Siedewasserreaktoren die Abhängigkeit der Abbremsung der Neutronen von der Dichte des Moderators. Bei Reaktoren mit Umwälzpumpen wird die Dichte durch “ausspülen” von Dampfblasen aus den Brennelementen erhöht, bei Naturumlauf durch das Absenken der mittleren Temperatur.

Wegen seiner Leistung von 1600 MWel dürfte dieser Reaktor eher in der Grundlast eingesetzt werden. Gleichwohl ist ein täglicher Lastfolgebetrieb vorgesehen und genehmigt. So sind z. B. die Steuerstäbe für eine Betriebsdauer von 10 Jahren bei täglichem Lastwechsel zugelassen. Idealerweise fährt man mit diesem Reaktor aber mit konstant volle Leistung. Wegen seiner Stabilität und seiner passiven Notkühlung ist er sogar für den Betrieb durch nur einen Bediener konstruiert und zugelassen!

Ausblick

Im nächsten Teil werden die Schwerwasserreaktoren vorgestellt. Es ist bereits beschlossen, einen weiteren solchen Reaktor, in Kooperation mit China, in Rumänien zu errichten.

Dr. Ing. Klaus Dieter Humpich; übernommen von Blog des Autors hier 




Die Winter in den USA und ihre Propheten

Ohne Rücksicht auf „seriöse“ Aussagen über die bevorstehende Klimaerwärmung – als Folge der wachsenden Emissionen des „Klimakillers“ Kohlendioxid – verzeichnen die Meteorologen immer wieder extrem harte Winter, speziell an der Ostküste Nordamerikas.

So brachte der Winter 2003/2004 eisige Kälte, heftige Schneefälle und Stürme, was im gesamten Osten der USA nicht nur ein Verkehrschaos auslöste, sondern 38 Menschen den Tod brachte. Öffentliche Gebäude mussten geschlossen werden, Tausende Haushalte waren zeitweise ohne Strom. (Leipziger Volkszeitung, 28.01.2004)

Im Winter 2005/2006 meldete New York mit 68 Zentimeter die höchste Schneehöhe seit Beginn der Wetteraufzeichnungen 1869. Der bisherige Rekord von 1947 wurde damit um einen Zentimeter überboten. Viele Schneeschuhläufer bevölkerten die Straßen der Stadt. 14 Bundesstaaten waren unter einer mächtigen Schneedecke, teils mehr als 70 Zentimeter dick, verborgen. Dazu kamen heftige Stürme und Gewitter.  Die Stromversorgung brach in Hunderttausenden Haushalten zusammen, der Flugverkehr musste stark eingeschränkt werden. (Frankfurter Allgemeine Zeitung, 14.02.2006)

Der darauf folgende Winter 2006/2007 war nicht weniger heftig: Ein Schneechaos im Nordosten der USA führte zu wenigstens 13 Toten. Das Zentrum Washingtons glich einem Skigebiet. Stürme führten zu teils drei Meter hohen Schneeverwehungen. Viele Schulen mussten geschlossen werden. Im Mittleren Westen und im Nordosten waren etwa 300.000 Menschen ohne Strom. Die Temperaturen fielen auf bis zu minus 17 °C. Fast 3000 Flüge fielen aus, teils musste der private Autoverkehr verboten werden. (Leipziger Volkszeitung, 15.02.2007 und 16.02.2007)

Dann endlich kam die „Erlösung“! Eine Studie von Barry Lynn und Leonard Druyan von der Columbia University und vom Goddard-Institut für Raumstudien der Nasa verkündete im Mai 2007, dass es in Zukunft an der amerikanischen Ostküste deutlich wärmer wird. Demnach dürften die durchschnittlichen Temperaturen ab etwa 2080 um sechs Grad höher als heute liegen, östlich des Mississippi sollen die Durchschnittstemperaturen dann bei 33 bis 36 °C liegen. Die Computermodelle der Klimaforscher versprechen, dass Kälteeinbrüche wie in der Vergangenheit wohl nicht mehr eintreten werden. (Frankfurter Allgemeine Zeitung, 12.05.2007)

Leider ignoriert das Wetter diese Prophezeiungen völlig, denn schon im Winter 2008/2009 forderten Eisregen und Schnee vom Norden bis in den Süden der USA 23 Todesopfer. Wieder kam es zu einem Verkehrschaos, rund 1,3 Millionen Privathaushalte und Geschäftskunden waren von der Stromversorgung abgeschnitten. (Leipziger Volkszeitung, 29. Januar 2009 und 02.02.2009; Frankfurter Allgemeine Zeitung, 30.01.2009)

Schon der Winter 2009/2010 schlug wieder zu: Bei einem massiven Wintereinbruch starben 16 Menschen, zumeist infolge des herrschenden Chaos auf den Straßen. Im Mittleren Westen mussten Regierungsgebäude, Schulen und Universitäten geschlossen werden. Dort lag eine fast ein Meter dicke Schneedecke. In Washington lagen bis zu 60 Zentimeter Schnee. Im Central Park in Man­hattan tummelten sich Skiläufer. Zu den Schneemassen kamen heftige Winterstürme, deren Stärke als außergewöhnlich eingeschätzt wurde. Flughäfen, darunter auch die von New York, mussten geschlossen werden. Die Temperaturen fielen bis auf minus 34 °C. In Dallas im eher warmen Texas wurde die erste weiße Weihnacht seit 80 Jahren registriert. Der bisherige Schneehöhen-Rekord in Oklaho­ma City, er stammt aus dem Jahr 1914, betrug sechs Zentimeter; Weihnachten 2009 wurde er mit 36 Zentimetern gebrochen. (Leipziger Volkszeitung, 11.12.2009 und 21.12.2009; Frankfurter Allgemeine Zeitung, 28.12.2009)

Im Winter 2013/2014 erlebte Nordamerika eine der schlimmsten Kältewellen der vergangenen Jahrzehnte mit bis zu minus 30 °C. Eisige Stürme führten zu gefühlten Temperaturen von bis zu minus 50 °C. Von den extremen Minustemperatu­ren waren mindestens 20 US-Bundes­staaten, vor allem im Mittleren Westen und im Nordosten betroffen. Auch den wärmeverwöhnten Südstaaten brachte die Kältewelle Schnee. In Minnesota mussten – erstmals wieder seit 1997 – zeitweise Schulen geschlossen werden. In New Orleans wurde den Notstand ausgerufen. Insgesamt gab es in den USA 24 Kälteopfer. Rund eine halbe Million Haushalte der USA waren zeitweilig von der Energieversorgung abgeschnitten. Tausende Flüge wurden gestrichen. In New York gab es innerhalb von sechs Wochen sechs Winterstürme. Sogar das UN-Hauptquartier schloss zeitweilig. Anfang Januar 2014 waren die Niagarafälle fast komplett zugefroren, was zuletzt 1936 geschehen war. Die Kältewelle im Dezember 2013 und Januar 2014 erfasste 240 Millionen US-Bürger. Man rechnet mit Schäden in Höhe von fünf Milliarden Dollar. (Leipziger Volkszeitung, 08.01.2014 und 15./16.02.2014; Frankfurter Allgemeine Zeitung, 06.01.2014 und 29.01.2014; Bild, 10.01.2014)

Auch im darauffolgenden Winter 2014/2015, dem bisher letzten, wurde Nordamerika von der Kältepeitsche nicht verschont. Im Februar 2015 wurden 180 Millionen Amerikaner von Neuengland bis Florida von der Kältewelle, verbunden mit riesigen Schneemassen, erfasst. Mit minus 17 °C meldete New York den kältesten 20. Februar seit Beginn der Wetteraufzeichnungen. Die Niagarafälle waren wieder teilweise gefroren. (Leipziger Volkszeitung, 21./22.02.2015)

Das alles wären noch vor einem halben Jahrhundert Meldungen gewesen, die man zwar mit Bedauern für die Betroffenen zur Kenntnis nimmt, aber anschließend wieder vergisst. Heute jedoch, im „Zeitalter der Klimaerwärmung“, die zudem noch angeblich vom Menschen selbst verursacht wird, erstaunen solche Nachrichten über extreme Kälteeinbrüche doch, zumal sie immer wieder auch vermeintlich sonnenverwöhnte Regionen betreffen. Neben den Südstaaten der USA sind das beispielsweise auch Mittelmeer-Anrainer.

Die Winterentwicklung der letzten Jahre in den USA erscheint unter dem Eindruck „wissenschaftlicher“ Aussagen über eine bevorstehende, sogar sehr starke, Erwärmung besonders brisant. Unmittelbar nach mehreren extrem kalten Wintern wurden von US-Wissenschaftlern Temperaturanstiege im Mittel von sechs Grad „versprochen“. Diese Aussage war – (klima-)politisch völlig korrekt – in erster Linie als Warnung vor der bevorstehenden überaus schädlichen Aufheizung der Welt, als Drohung, gedacht. Angesichts der vorausgegangenen außergewöhnlich kalten Winter wurde sie von den Menschen ganz im Gegenteil bestimmt als Hoffnungsschimmer gesehen.

Diese sechs Grad Erwärmung sollen allerdings erst nach etwa einem Dreivierteljahrhundert eintreten – dann wenn die Propheten mit Sicherheit nicht mehr für ihre Falschaussagen zur Verantwortung gezogen werden können. Aber sollte man nicht doch schon im ersten Jahrzehnt nach der „Heils-Versprechung“ wenigstens kleine Anzeichen einer Erwärmung erkennen können? Man kann es nicht! Bis jetzt hält sich das Wetter nicht an die „wissenschaftlichen“ Offenbarungen! Es ist aber noch viel Zeit bis 2080! Da können in den USA noch viele eisige Winter kommen, die dann – auf wundersame Weise – zu einer Erwärmung um sechs Grad hochgerechnet werden.

Anerkennen sollte man jedoch, dass die Forscher ihre Wahrsagungen an eine Bedingung geknüpft haben: An der USA-Ostküste wird es wärmer, „sollte sich der weithin beobachtete Klimawandel fortsetzen“ (FAZ 12.05.07). Wurde vergessen, dass sich der Klimawandel seit Milliarden Jahren pausenlos fortsetzt? Wenn die Herren aber einen „weithin beobachteten Klimawandel“ sehen, der – vom IPCC-verordnet – nur in Richtung Erwärmung verlaufen darf, dann haben sie wohl die letzten Winter in ihrer Heimat verschlafen. Der gewünschte Klimawandel setzte sich bisher nicht fort – das zeigen die Extremwinter der dem Orakel folgenden Jahre! Wieder einmal konnte ein vernichtendes Urteil über die „wissenschaftlichen“ Klimavorhersagen gefällt werden! 

„Es gibt zwei Arten von Leuten, die die  Zukunft  vorhersagen: jene, die nichts wissen, und jene, die nicht wissen, dass sie nichts wissen.“

John Kenneth Galbraith, Harvard-Ökonom (1908-2006)




Petroleum: Ein wunderbares und viel geschmähtes Material

Im vorigen Jahr hat das IPCC die Welt aufgefordert, eine „nahe-Null-Emissionen“-Wirtschaft bis zum Jahr 2100 anzustreben. Präsident Obama hat damit gedroht, sein Veto gegen die Keystone XL-Pipeline einzulegen [was er inzwischen getan hat. Anm. d. Übers.] Der Aktivist Bill McKibben hat nationale Bemühungen auf den Weg gebracht, Universitäten und Colleges zu überreden, finanzielle Anteile an Ölunternehmen aufzugeben. Diese Bemühungen zielen auf die Ölindustrie, um den Verbrauch von Petroleum in der Gesellschaft zu eliminieren.

Aber haben Sie jemals damit aufgehört zu überlegen, was Produkte aus Petroleum für die Menschen tun, für jeden einzelnen Menschen jeden Tag?

Damals im Jahre 1620 brauchten die 120 Passagiere und Besatzungsmitglieder der Mayflower 25 Tage, um von England auf den Kontinent zu reisen, der später Amerika werden sollte. Zwei Passagiere starben auf der Reise. Heute bewältigt ein Jumbo Jet mit mehr als 300 Passagieren die gleiche Strecke sicher in weniger als sieben Stunden. Jeden Tag transportieren 25.000 kommerzielle Flüge 9 Millionen Passagiere über eine Strecke von zusammen 10 Milliarden Meilen, alle angetrieben durch Flugbenzin aus Petroleum.

Ende des 19. Jahrhunderts wurden Pferdefuhrwerke zum bevorzugten Transportmittel in großen Städten. Im Jahre 1890 unternahm ein normaler New Yorker Bürger 297 Pferdekutschen-Reisen pro Jahr. Die 200.000 Pferde in New York hinterließen drei bis sechs Millionen Pfund Pferdeäpfel in den Ställen und auf den Straßen – jeden Tag. Als die „pferdelosen Fuhrwerke“ diesem Übelstand und den Gerüchen der Pferdefuhrwerke ein Ende setzten, betrachteten Viele das Auto als eine Verschmutzungen verhindernde Erfindung. Heute treibt Benzin aus Petroleum jeden Tag über eine Milliarde Automobile weltweit an.

In historischen Zeiten wurden Handelsgüter zwischen Gesellschaften mit Kamelen, Planwagen und Segelschiffen transportiert. Während der Handel im gesamten historischen Zeitraum stetig gewachsen ist, erreichte der Wert der gesamten Weltexporte im Jahre 1900 nur etwa 10 Milliarden Dollar pro Jahr, gemessen am heutigen Wert des Dollars. Seit 1900 sind die Weltexporte explodiert und haben im Jahre 2013 um das 1800-fache zugenommen auf eine Gesamtsumme von 18 Billionen Dollar pro Jahr. Jeden Tag werden über 100 Millionen Tonnen Frachtgut mittels Schiffen, Bahnen, Lastwagen und Flugzeugen bewegt, von denen über 90% mit Treibstoffen aus Petroleum unterwegs sind.

Im Jahre 1809 hatte der französische Imperator Napoleon Bonaparte ein Problem. Als seine Armeen durch Europa marschierten, verdarben die Nahrungsmittelvorräte für sein Truppen sehr schnell. Er setzte eine Belohnung von 12.000 Francs aus für denjenigen, der dieses Problem lösen konnte. Dies führte zu der Erfindung sterilisierter Nahrungsmittel in Konservendosen. Davor wurden Nahrungsmittel verpackt in Tierhäuten, Glas, Papier, Metallgefäßen und Holzkisten. Heute bietet Plastik aus Petroleum und anderen Kohlenwasserstoffen sichere, bequeme und billige Verpackungsmöglichkeiten für Nahrungsmittel und andere Produkte. Mehr als zwei Millionen Plastikflaschen und 1,3 Millionen Plastiktüten werden global jeden Tag benutzt [was heutzutage wegen menschlicher Nachlässigkeit und Bequemlichkeit bekanntlich zu anderen Problemen führt, die der Autor leider nicht angesprochen hat. Anm. d. Übers.]

Jeden Tag werden weltweit eine halbe Million chirurgische Eingriffe an Patienten vorgenommen. Plastik aus Öl und Erdgas spielt eine wesentliche Rolle in der modernen Medizin. Tausende Produkte wie Einwegartikel, Chirurgen-Handschuhe, Medikamente, Hüftimplantate und Herzklappen, Verbandsmaterial und viele Teile der Laborausrüstung bestehen aus Plastik, hergestellt aus Petroleum und anderen Kohlenwasserstoffen.

Heute leben wir in einem goldenen Zeitalter billiger Energie. Nur 200 Jahre zuvor wurde durch das Verbrennen von Holz sowie durch menschliche und tierische Muskelkraft über 90% der benötigten Energie erzeugt. Seit dem Jahr 1800 hat sich der globale Energieverbrauch um das 26-fache erhöht. Heute stellt Petroleum über 30% der Weltenergie zur Verfügung, und über 80% stammen aus Kohle, Erdgas und Öl.

Seit dem Jahr 1800 ist das globale BIP um einen Faktor 10 gestiegen, die Lebenserwartung der Menschen hat sich mehr als verdoppelt, und die Kindersterblichkeit ist um einen Faktor sechs gesunken. Seit 1950 hat sich die Ausbildungszeit der Weltbevölkerung mehr als verdoppelt. In unserem goldenen Zeitalter von Energie aus Kohlenwasserstoffen sind die Menschen wohlhabender, gesünder, besser ausgebildet und erfreuen sich einer größeren Vielfalt von Produkten und Freizeit als zu irgendeiner Zeit in der Geschichte.

Trotz der Klimawarnungen seitens der Obama-Administration und der UN gibt es keinerlei Beweise, dass Kohlendioxid-Emissionen von der Petroleum-Industrie auch nur einen einzigen Menschen auf der Erde geschädigt haben. Ältere Bürger ziehen weiterhin in die südlichen [US-]Staaten und missachten damit vollständig die blödsinnigen Behauptungen der US-Regierung, dass warme Klimate „gefährlich“ sind.

Satellitendaten zeigen, dass die globale Temperatur während der letzten 18 Jahre flach verlaufen ist; dass Stürme weder stärker noch häufiger sind als früher und dass sich die globale Ausdehnung des Meereises im Rahmen des 30-jährigen Mittels bewegt. Außerdem zeigen Satelliten, dass die Vegetation der Welt während der letzten 20 Jahre zugenommen hat, genährt durch den steigenden atmosphärischen CO2-Gehalt. Und die heutige Eisbärpopulation ist doppelt so hoch wie im Jahre 1960.

Auch gibt es keinerlei Beweise, dass Petroleum die Verschmutzung der Umwelt auf der Erde zunehmen lässt. Heute nehmen Luft- und Wasserverschmutzung in allen großen Industrieländern immer mehr ab. Nationen mit dem höchsten Energie- und Petroleumverbrauch haben die beste Luft- und Wasserqualität sowie die besten Verfahren hinsichtlich der Verarbeitung von Abfall. Trends zeigen, dass Entwicklungsländer mit steigenden nationalen Einkommen ebenfalls abnehmende Verschmutzungs-Niveaus erreichen werden.

Wir können uns wirklich glücklich schätzen, in einem goldenen Zeitalter der Energie leben, angetrieben durch Petroleum.

Steve Goreham is Executive Director of the Climate Science Coalition of America and author of the book The Mad, Mad, Mad World of Climatism: Mankind and Climate Change Mania.

Link: http://icecap.us/index.php/go/joes-blog vom 18. Februar 2015, übernommen von Communities Digital News

Übersetzt von Chris Frey EIKE




Im Gedenken an Mr. Spock: Der Abkühlungskonsens der 60-70er Jahre: In Search of…The Coming Ice Age

Im Angesicht der kalten Winter der 1960er und 1970er Jahre sind die Medien in eine “Eiszeithysterie” verfallen.

In der TV-Dokumentation „In Search of…” (welche wöchentlich von 1976-1982 ausgestrahlt wurde, durch die Sendung führe u.a. Leonard Nimoy) wurde u.a. über eine drohende Eiszeit berichtet.

Hier die Dokumentation mit Leonard Nimoy: The Coming Ice Age: An inquiry into whether the dramatic weather changes in America’s northern states mean that a new ice age is approaching. Original broadcast: May 1978.

Aber in Wirklichkeit hat es diese “Eiszeithysterie” ja nie gegeben? Zumindest wenn es nach den Klimaschützern geht.

Wir erinnern uns?

In der obigen Dokumentation kamen einige Klimawissenschaftler zu Wort. U.a. Prof. Dr. H. Stephen Schneider. „Klimatologe“ an der Stanford University, USA. Bis zu seinem Tod im Jahre 2010 war Schneider einer der bekanntesten Vertreter, der vehement vor einer drohenden Klimaerwärmung, ausgelöst durch den Menschen warnte. In den 1970er Jahren warnte er hingegen noch vor einer drohenden Eiszeit.

Es wurde spekuliert durch den Einsatz von Atombomben, oder durch eine dunkle Bestäubung das Polareis zum Schmelzen zu bringen und somit eine drohende Eiszeit abzuwenden.

Rasool und Schneider prognostizierten 1971 in der renommierten Fachzeitschrift SCIENCE für den Fall, dass sich die globalen Aerosolemissionen vervierfachen würden, ein Absinken der globalen Durchschnittstemperatur um bis zu 3,5 °C und warnten davor, dass dies eine Eiszeit auslösen könnte.

S. I. Rasool und S. H. Schneider: Atmospheric Carbon Dioxide and Aerosols: Effects of Large Increases on Global Climate. In: Science. Band 173 (3992), 1971, S. 138-141. doi:10.1126/science.173.3992.138

Eine weitere Arbeit zum Thema Aerosole und den Auswirkungen auf die Globaltemperatur, an welcher Scheider beteiligt war, findet sich hier:

R. J. Charlson, Halstead Harrison, Georg Witt, S. I. Rasool, and S. H. Schneider. Aerosol Concentrations: Effect on Planetary Temperatures: Science 7 January 1972: Vol. 175. no. 4017, pp. 95 – 96. DOI: 10.1126/science.175.4017.95-a

Stephen Schneider wechselte schließlich die Seite und war Leitautor in der Working Group II (TAR) des IPCC Weltklimaberichtes der UN von 2001.

Eine weitere TV-Dokumentation dieser Zeit, welche sich mit einer drohenden Eiszeit auseinandersetzt, wurde unter dem Titel “THE WEATHER MACHINE” ausgestrahlt.

“The Weather Machine” BBC 1974

Zu Wort kommt George Kukla, ein in der Tschechei geborener „Klimatologe“. Er ist emeritierter Professor für Klimatologie an der Columbia University und Forscher am Lamont-Doherty Earth Observatory.

Schon in der 1970er Jahren, in welchen die Scheebedeckung der Nordhalbkugel und damit die Reflektion der einfallenden Sonneneinstrahlung deutlich zunahm, vertrat Kukla eine Abkühlungsthese und wurde vielfach in der Presse zitiert.

Sieh z.B.

New York Times, 21 Mai 1975

Newsweek, 28 April 1975

George Kukla sagt heute:

The only thing to worry about global warming is the damage that can be done by worrying. Why are some scientists worried? Perhaps because they feel that to stop worrying may mean to stop being paid.”

Das Einzige, worüber man sich bei der globalen Erwärmung Sorgen machen sollte ist der Schaden, welcher durch die Sorge angerichtet werden kann. Warum sind einige Wissenschaftler besorgt? Vielleicht weil sie spüren, dass das Ende der Besorgnis ein Ende der Bezahlung bedeuten kann.“

Veröffentlichungen u.a.

G. Kukla, R.K. Matthews and J.M. Mitchell, Jr., The end of the present interglacial. Quaternary Research 2 (1972), pp. 261–269

Kukla, G. J., and R. K. Matthews, 1972, “When will the present interglacial end?,” Science, 178:190-191

Kukla, G.J. and H.J. Kukla, 1974: Increased surface albedo in the Northern Hemisphere. Science, 183, 709-714.

G. J. Kukla et al.: New data on climatic trends. In: Nature 270, 1977, 573–580. doi:10.1038/270573a0

Im Januar 1972 kamen Kukla und Matthews zu einer Konferenz in der Brown University in Providence/ Rode Island zusammen. Teilgenommen haben die damaligen “Topforscher” aus Europa und Amerika. Diskussionsthema war “The Present Interglacial, How and When will it End?” (“Die aktuelle Warmzeit, wie und wann wird sie enden?”). Die Schlussfolgerungen wurden in den zwei oben genannten Veröffentlichungen von 1972 zusammengefasst.

Die Hauptergebnisse der Konferenz teilen Kukla und Matthews dem Büro des US-Präsidenten Nixon im folgenden Schreiben vom 3. Dezember 1972 mit:

In dem Schreiben warnen Sie vor einer drohenden Eiszeit und deren Auswirkungen.

Sehr geehrter Mr. Präsident:

In Bewusstsein, Ihrer tiefen Besorgnis über die Zukunft der Welt, fühlen wir uns verpflichtet, Sie über die Ergebnisse der wissenschaftlichen Konferenz zu informieren, die hier vor kurzem stattgefunden hat. Die Konferenz befasste sich mit den bisherigen und zukünftigen Veränderungen des Klimas, teilgenommen haben 42 Top-Forscher aus Amerika und Europa. Anliegend fügen wir die Schlussfolgerungen, welche bereits in SCIENCE erschienen sind und in Kürze in QUATERNARY RESEARCH erscheinen werden, bei.

Das wichtigste Ergebnis des Treffens war, dass eine globale Verschlechterung des Klimas, von der Größenordnung größer als alle bisher von den zivilisierten Menschheit erlebten, eine sehr reale Möglichkeit ist, die wohlmöglich sehr schnell eintreten kann.

Die Kühlung ist natürlichen Ursprungs und fällt in den Rang von Prozessen, welche die letzte Eiszeit verursacht haben. Dies ist ein überraschendes Ergebnis, welches vor allem auf die jüngsten Studien von Tiefsee-Sedimenten hervorgeht.

Die vorliegenden Daten erlauben bisher keine exakte Vorhersage bzgl. des Eintretens der vorhergesagten Entwicklung, noch eine Beurteilung der Beeinträchtigungen auf die Menschheit, durch den natürlichen Trend. Es kann jedoch nicht ausgeschlossen werden, dass die Abkühlung, welche gerade auf der Nordhalbkugel im Gange ist, der Beginn der erwarteten Klimaumstellung ist. Die aktuelle Rate der Abkühlung scheint schnell genug von statten zu gehen, um eiszeitliche Temperaturen innerhalb eines Jahrhunderts mit sich zu bringen, bei Fortsetzung der gegenwärtigen Geschwindigkeit.

Die praktischen Konsequenzen, die sich daraus für die existierenden sozialen Systeme ergeben, sind unter anderem:

(1) Eine deutlich gesenkte Nahrungsmittelproduktion aufgrund der kürzeren Vegetationsperioden und einer veränderten Niederschlagsverteilung in den wichtigsten Getreideerzeugungsgebieten der Welt, mit Osteuropa und Zentralasien die als erste betroffen sein werden.

(2) Eine erhöhte Häufigkeit und ein stärkeres Auftreten von extremen Wetterereignissen und -anomalien, wie Überschwemmungen, Schneestürme, Tote durch Frostperioden, etc. …”

Die Folgen

Das Schreiben erregte reichlich Aufsehen.

Angesichts der „Getreidekrise” im Jahre 1972 und zahlreicher Wetterkapriolen, welche später auf den El Niño von 1972-1973 zurückgeführt wurden, herrschte eine kollektive Angstsituation, auch im Weißen Haus.

Das Weiße Haus nahm die Angelegenheit sehr ernst und leitete das Kukla-Matthews-Schreiben an das Amt für internationale wissenschaftliche und technische Angelegenheiten des State Departments weiter. (Bureau of International Scientific and Technological Affairs of the State Department). Das wiederum leitete das Schreiben an die höchst beauftragte, ressortübergreifende Stelle, das Interdepartmental Committee for Atmospheric Sciences (ICAS) weiter, um die Angelegenheit „zu überprüfen und geeignete Maßnahmen” einleiten zu können. Das ICAS stellte daraufhin ein Ad-hoc-Gremium zusammen, um auf das Schreiben zu antworten. Darin vertreten waren Dr. David M. Hirschfield ((Chair) Department of Agriculture), Mr. Joseph O. Fletcher (National Science Foundation), Dr. J. Murray Mitchell, Jr. (National Oceanic and Atmospheric Administration), Col. John S. Perry (Department of Defense).

Das folgende Jahr war ein besonders arbeitsreiches, da das Gremium Rat von Experten auf dem Gebiet einholte. Letztendlich kam man zu dem Schluss, dass das Thema von so einer übergeordneten Bedeutung ist, dass man ein nationales Klimaprogramm ins Leben rufen sollte, was dann letztendlich auch geschah.

Damit sollte klar geworden sein, dass das Thema einer drohenden Eiszeit in den frühen 1970er Jahren nicht nur von medialen, sondern auch politischem Interesse war.

Das Thema einer drohenden Abkühlung war auch für die CIA von Bedeutung. Einer der Hauptprotagonisten war dabei Reid Bryson.

Bryson ging davon aus, dass Schmutzpartikel und die steigende Luftverschmutzung für die beobachtet Abkühlung seit dem zweiten Weltkrieg verantwortlich sind und das diese Effekte für eine weitere Abkühlung sogen könnten.

Veröffentlichungen u.a.

Bryson, Reid, A; Kutzbach, John E. (1968). Air pollution. Washington: Association of American Geographers. ASIN B0006BWL46.

James T. Peterson and Reid A. Bryson, Science, 4 October 1968. “Atmospheric Aerosols: Increased Concentrations during the Last Decade”

Bryson, Reid A. (1974). “A Perspective on Climatic Change.” Science 184: 753-60.

Bryson, Reid A., and W.M. Wendland (1975). “Climatic Effects of Atmospheric Pollution.” In The Changing Global Environment, edited by S.Fred Singer, pp. 139-47. Boston: Reidel.

Bryson, Reid A., and W.M. Wendland (1975). “Climatic Effects of Atmospheric Pollution.” In Global Effects of Environmental Pollution, edited by S. F. Singer, pp 130-38

Bryson, Reid A., and Thomas J. Murray (1977). Climates of Hunger: Mankind and the World’s Changing Weather. Madison: University of Wisconsin Press.

Schon 1974 hatte die CIA die Regierung darauf aufmerksam gemacht, dass ein Klima-Umschlag stattfinde, der „bereits zu großen Wirtschaftsproblemen auf der ganzen Welt geführt hat“.

So glaubt der amerikanische Klimatologe Reid Bryson von der University of Wisconsin, auf dessen Studien sich die CIA stützte, dass sich auf der gesamten nördlichen Halbkugel das Klima immer mehr abkühle. In ihrem Report warnten die Geheimdienstler vor durch Wetterumschwünge hervorgerufene Energie- und Nahrungsmittelkrisen, die ihrerseits zu politischen Krisen führen könnten.

Angesichts der „Getreidekrise“ im Jahre 1972 herrschte nach etlichen Wetter bedingten Missernten in den sechziger Jahren eine kollektive Angstsituation. Die Nachrichten und Schlagzeilen in den Medien häuften sich und es kam zu einer Nachrichtendichte, die den amerikanischen Geheimdienst CIA veranlasste, den vielen wilden Spekulationen nach den Ursachen dieser Wetterkapriolen nachzugehen und die führenden Klimatologen um Auskunft und Rat zu ersuchen.

Anfang der siebziger Jahre kam die CIA zu dem Ergebnis, dass die Veränderungen des Klimas „vielleicht die größte Herausforderung (seien), der sich Amerika in den kommenden Jahres ausgesetzt sehen wird“. Aus der Angst heraus, dass die USA ihre Vormachtstellung als Getreideexporteur durch Missernten verlieren könnten, gab der CIA mehrere Studien über das Klima der Welt, die wahrscheinlich zu erwartenden Veränderungen und deren vermutliche Auswirkungen auf Amerika und die übrige Welt in Auftrag.

Politischer Sieger unter den diversen Studien war die Wiskonsin-Studie, die unter der Leitung von Professor Reid Bryson entstand. Sie sagte vorher, „dass die Erde zu dem Klimasystem zurückkehrt, das von Beginn des 17. Jahrhunderts bis zur Mitte des 19. Jahrhunderts geherrscht hat und üblicherweise die neoborale oder „Kleine Eiszeit“ genannt wird.“ In dieser Zeit lebte Nordeuropa überwiegend in der Dämmerung ständigen Winters. Schlechte Ernährung hatte große Epidemien in Europa, Russland, Indien und Afrika zur Folge, während die Iberische Halbinsel, Italien und Griechenland blühten. Professor Brysons Gedankengang lautet so: „Bis etwa 1940 wurde die Welt wärmer; Mitte der vierziger Jahre setzte dann eine entgegen gesetzte Entwicklung ein, da sich die Polarluft nach Süden ausdehnte und sich die nördliche Halbkugel abkühlte. Prof. Bryson glaubte, dass die 3 Hauptfaktoren dabei sind: vulkanische Asche, vom Menschen erzeugter Staub und Kohlendioxid.“ Er glaubte, dass die Chancen für einen beschleunigten Abkühlungstrend hoch sind, wie übrigens viele Klimaforscher seiner Zeit (z.B. Prof. George Kukla).

Die nachrichtendienstlich relevanten Ergebnisse des CIA wurden 1977 in den USA unter dem Titel “The Weather Conspiracy”, “Die Wetter Verschwörung” publiziert. 1978 erschien dieses Buch in Deutschland von einem Impact-Team unter dem Titel “Der Klima-Schock” veröffentlicht. Auf der Titelseite liest man: “Die nächste Eiszeit steht kurz bevor. Der Bedarf an Heizenergie wird unerfüllbar. Große Teile der Erde werden unzugänglich. Der Hunger wird größer.”

In einer TV-Diskussion von 2007 bezog Bryson, der 2008 verstorben ist, noch einmal eindrücklich Stellung.

Kommen wir auf weitere Arbeiten und Protagonisten dieser Zeit zu sprechen, die eine drohende Eiszeit, bzw. einen Abkühlungstrend diskutieren.

Murray J. Mitchell veröffentlichte im Jahr 1963 die erste up-to-date Temperatur-Rekonstruktion und zeigte, dass ein globaler Abkühlungs-Trend in den 1940er Jahren begonnen hatte. Mitchell verwendete Daten von fast 200 Wetterstationen, zusammengestellt unter dem World Weather Records Projekt unter der Schirmherrschaft der Weltorganisation für Meteorologie (World Meteorological Organization). Damit berechnete er die durchschnittlichen Temperaturen für verschiedene geographische Breitenbereiche. Seine Analyse zeigte, dass die globalen Temperaturen seit den 1880er Jahren, dem Beginn seiner Aufzeichnung, relativ stetig zugenommen hatten bis etwa um das Jahr 1940. Ab etwa 1940 setzte dann eine stetige multidekaden Abkühlung ein (Mitchell 1963). In den frühen 1970er Jahren, als Mitchell den Stand seiner Arbeit aktualisierte (Mitchell 1972), war die Ansicht über den globalen Abkühlungstrend allgemein akzeptiert, wenn auch wenig verstanden.

Mitchell, J.M., Jr., 1963: On the world-wide pattern of secular temperature change. In: Changes of Climate. Proceedings of the Rome Symposium Organized by UNESCO and the World Meteorological Organization, 1961.

Oder

Robert A. McCormick und John H. Ludwig: Climate Modification by Atmospheric Aerosols. In: Science 156 (3780), 1967, S. 1358-1359. doi:10.1126/science.156.3780.1358

McCormick und Ludwig kamen in dieser Studie von 1967 zu dem Schluss, dass die anthropogenen Aerosolemissionen die Albedo erhöhten und dadurch die Abkühlung verursacht hätten.

G. Yamamoto, and M. Tanaka, “Increase of global albedo due to air pollution,” J. Atmos. Sci. 29, 1405–1412 (1972).

Zu einen ähnlichen Schluss kamen Yamamoto und Tanaka in ihrer Studie von 1972.

Zu dem Thema Aerosole und Klima existieren etliche Studien aus dieser Zeit.

Die entscheidende Frage war, ob sich der Cooling-Trend fortsetzen würde, oder sich langfristig gesehen die angenommene “Treibhauswirkung” des CO2 durchsetzen würde.

Bzgl. der Wirkung der Aerosole prognostizierten Rasool und Schneider 1971 für den Fall, dass sich die globalen Aerosolemissionen vervierfachen würden, ein Absinken der globalen Durchschnittstemperatur um bis zu 3,5 °C und warnten davor, dass dies eine Eiszeit auslösen könnte. Zu einem ähnlichen Ergebnis kamen Yamamoto und Tanaka in ihrer Studie von 1972.

Bzgl. der Treibhauswirkung des CO2 wurde i.d.R. auf die Studie von Syukuro Manabe und Richard T. Wetherald aus dem Jahre 1967 zurückgegriffen.

Syukuro Manabe and Richard T. Wetherald, Thermal Equilibrium of the Atmosphere with a Given Distribution of Relative Humidity, Journal of the Atmospheric Sciences 1967

Hiernach ergab sich für eine CO2-Verdoppelung (bei gleichbleibender Luftfeutigkeit) eine Temperatuerhöhung von 2°C. Einige Autoren gingen davon aus, dass die Aeorosole weiterhin der dominierende Faktor bleiben würden (oder werden würden), andere gingen davon aus, dass irgendwann (in Laufe von Jahrzehnten) die Treibhauswirkung des CO2 überwiegen könnte. So schreibt Carl Sagan (der “Schöpfungsvater” der Treibhaustheorie auf der Venus, (Sagan, C., The Radiative Balance of Venus, Tech Rep. JPL No. 32-34, 1960.)) beispielsweise zum Einfluss des CO2 in “Earth and Mars: Evolution of Atmospheres and Surface Temperatures” von 1972:

Major variations in the CO2 abundance will have only minor greenhouse effects because the strongest bands are nearly saturated. A change in the present CO2 abundance by a factor of 2 will produce directly a 2 ° variation in surface temperature”

Große Schwankungen in der CO2-Menge haben nur eine geringfügig Auswirkung auf den Treibhauseffekt, da die stärksten Absorptions-Banden (des CO2) nahezu gesättigt sind. Eine Änderung der derzeitigen CO2-Menge um den Faktor 2 bewirkt unmittelbar eine 2 ° Veränderung der Oberflächentemperatur.”

Aber auch Sagan war zwiegespaltener Meinung. In der Wissenschaft Serie Cosmos von 1980: A Personal Voyage, warnte der Physiker Carl Sagan vor einer katastrophalen Abkühlung durch das Verbrennen und den Kahlschlag der Wälder. Er postulierte, dass die erhöhte Albedo der Erdoberfläche zu einer neuen Eiszeit führen könnte.

Sagan, C., O. B. Toon, and J. B. Pollack, 1979: Anthropogenic albedo changes and the Earth’s climate. Science, 206, 1363-1368.

Aus der ganzen Debatte sollte letztendlich eines ersichtlich geworden sein, nämlich welche Bedeutung damals den Aerosolen beigemessen wurde (bis zu -3,5°C Abkühlung) und welche dem CO2 (bis zu +2°C Erwärmung).

Mein Fazit: Wie die Klimadebatte der vergangenen und heutigen Tage zeigt, gab es zu keiner Zeit einen wissenschaftlichen Konsens. Die Protagonisten haben im Laufe der Zeit ihre Meinungen geändert, oder auch nicht, einige sind von uns gegangen und neue sind hinzugekommen. Das vorherrschende Medien- und Meinungbild wurde vorwiegend durch aktuelle Wetterereignisse wie Kälteeinbrüche und Hitzewellen geprägt. Mr. Spock würde sagen: “Lebe lang und in Frieden”. 

Artikel zuerst erschienen bei Science Skeptical hier




Der Marsch in den grünen Energie-Kannibalismus

Für eine Industrienation mit einer hoch entwickelten Hightech-Industrie ist das Vorhaben „Energiewende“ geradezu atemberaubend. Der Blick auf Bild 1 (siehe Abb. rechts oben) zeigt, in welchem Umfang sich Deutschland früher bei der Sicherstellung einer zuverlässigen Stromerzeugung auf fossile und nukleare Verfahren gestützt hatte. Alle ans deutsche Stromnetz angebundenen Kraftwerke waren ausnahmslos bedarfsgerecht regelbar und hoch zuverlässig. „Erneuerbare“ Energieerzeugung in Form von Wasserkraft wurde bereits seit dem späten 19. Jahrhundert ausgebaut, doch sind in Deutschland aufgrund des Mangels an geeigneten Standorten die diesbezüglichen Möglichkeiten bereits seit den 60er Jahren des letzten Jahrhunderts weitgehend ausgereizt.

Bild 1 (rechts oben): Im Jahre 1990 befanden sich am deutschen Netz nahezu ausschließlich bedarfsgerecht regelbare und hoch zuverlässige Kraftwerke. Der Anteil der Wasserkraft lag bei rund 3,6 %

Ganz anders präsentierte sich der Status der Stromversorgung im Jahre 2014 nach etwa zwei Jahrzehnten massiver „grüner“ Einflussnahme auf die Energiepolitik, Bild 2. Vor allem im Gefolge der Ereignisse in Fukushima wurde die Gelegenheit genutzt, das Schicksal der Kernkraft endgültig zu besiegeln. Innerhalb weniger Monate wurden rund die Hälfte der noch verbliebenen Einheiten stillgelegt und für den Rest die gestaffelte vorzeitige Stilllegung bis zum Jahr 2022 festgelegt. Auf der anderen Seite hatte man seit den frühen 90ern und insbesondere ab 2000 den Ausbau der Energieerzeugung aus Wind, Sonne, Biomasse und Müllverbrennung so massiv gefördert, dass ihr Anteil – zusammen mit Wasserkraft – im Jahr 2014 einen Anteil von 25,8 % der gesamten Stromproduktion erreichte. Wichtigste Treiber dieser radikalen Transformation waren hohe, über 20 Jahre garantierte finanzielle Fördermaßnahmen sowie eine begleitende Gesetzgebung, welche die Netzbetreiber zwang, den gesamten von diesen privilegierten Einheiten erzeugten Strom – ungeachtet der aktuellen Situation am Markt – abzunehmen bzw. zu vergüten. Aufgrund der Überflutung der Strommärkte mit diesem subventionierten „grünen“ Strom brachen die Preise an den Strombörsen massiv ein. In der Folge wurden fossil befeuerte Kraftwerke mehr und mehr aus dem Markt gedrängt, während überschüssige Strommengen per Dumping zu negativen Preisen bei europäischen Nachbarländern entsorgt wurden, was massive Nachteile für die dortigen Stromproduzenten zur Folge hatte.

Bild 2. Nach etwas mehr als zwei Jahrzehnten „grüner“ Energiepolitik liegt der Anteil der „Stotterstrom“-Erzeuger Wind und Fotovoltaik bei inzwischen 14,4 %

Sinnloser Kapazitätsaufbau

Entscheidende Nachteile der dominierenden „erneuerbaren“ Energiequellen Wind und Fotovoltaik sind ihre systembedingte Unzuverlässigkeit im Verein mit ihren miserablen Nutzungsgraden von lediglich 17,4 % bei Wind- und 8,3 % bei Solarstrom. Das hat zur Folge, dass man, um die Produktion einer vorgegebenen Strommenge sicherzustellen, enorme Überkapazitäten aufbauen muss. Dies wiederum führt je nach Wetterlage zu riesigen Schwankungen der jeweils produzierten Strommengen. Deutschland wird daher gezwungen, ein doppeltes Stromversorgungssystem vorzuhalten: Einerseits grotesk überdimensionierte Kapazitäten an Wind- und Solarenergieanlagen und andererseits zusätzlich einen kompletten Satz fossil befeuerter Kraftwerke, die einspringen, wenn die „erneuerbaren“ wegen ungünstiger Wetterlage mal wieder schwächeln. Zu letzteren gesellen sich, zumindest noch für einige Jahre, die wenigen noch in Betrieb befindlichen Kernkraftwerke. Die Schwankungsbreite des „Stotterstroms“ aus den „erneuerbaren“ Quellen ist bekanntlich enorm: Bei einer installierten Nominalkapazität von rund 75.000 MW lieferten beide Quellen zusammen im Jahre 2014 im Minimum gerade mal 29 MW (!), während sie im Maximum 38.000 MW ins Netz pumpten. Da die „Energiewende“ für die Zukunft vor allem auf Wind- und Solaranlagen nebst ein wenig Wasserkraft setzt, hat der inzwischen erfolgte massive Aufbau entsprechender Kapazitäten bereits jetzt dazu geführt, dass beim Zusammentreffen niedrigen Verbrauchs und hoher Einspeisung von „erneuerbar“ erzeugtem Strom erheblichen Überkapazitäten im Netz auftreten können, Bild 3.

Bild 3. Kombinierte Kapazität „erneuerbarer“ Energieerzeuger im Jahre 2014. Die Balken für minimalen und maximalen Strombedarf (Mitte und rechts) kennzeichnen die typischen Grenzwerte der Gesamtabnahme im Netz je nach Wochentag und Tageszeit 

Ein genauerer Blick auf den Balken links im Bild 3 zeigt, dass die aufsummierte Kapazität aller „EE-Stromerzeuger“ inzwischen bereits rund 87.000 MW erreicht, was in etwa dem maximalen zu erwartenden Strombedarf im Netz entspricht. Zusätzlich ist noch zu berücksichtigen, dass zur Sicherstellung der Netzstabilität weiterhin zu jedem Zeitpunkt fossil befeuerte Kraftwerke mit einer Kapazität von rund 28.000 MW ins Netz einspeisen müssen. Rechnet man beides zusammen, so ist leicht zu erkennen, dass an Tagen mit schwacher Nachfrage und günstigen Bedingungen für Solar- und Windstromerzeugung das Risiko einer Überproduktion mit entsprechenden Konsequenzen für die Netzstabilität eintreten kann. Diese Gefahr wächst mit jeder neu hinzukommenden „erneuerbaren“ Anlage. Dabei beträgt die Zubaurate bereits jetzt 5.000 – 6.000 MW pro Jahr. Die Situation wird noch dadurch verschärft, dass die vorhandenen Pumpspeicherkapazitäten nicht annähernd ausreichen, um bei Überproduktion nennenswerte Mengen des zuviel erzeugten Stroms „wegzupuffern“, während zugleich Nachbarländer mit der Installation von Abwehrsystemen begonnen haben, um deutsche Dumpingattacken auf ihre Netze abzuwehren.

Der EE-Stromkannibalismus hat bereits begonnen…

Als Folge dieser Entwicklung bekommen wir jetzt allmählich Situationen im Netz, bei denen die Überproduktion aus „erneuerbaren“ Stromquellen so überhandnimmt, dass letztere sich gegenseitig den Platz im Netz streitig machen. Fossil befeuerte Kraftwerke sind durch den Preisverfall an den Börsen aufgrund des Überangebots subventionierten Stroms aus Wind- und Sonnenkraftwerken bereits so existenziell gefährdet, dass die Bundesregierung Stilllegungen inzwischen per Gesetz verhindert, selbst wenn die Betreiber Verluste einfahren. Inzwischen beginnen aber auch „klassische erneuerbare“ Sektoren wie z.B. Wasserkraftwerke ernsthaft unter diesem Konkurrenzdruck zu leiden, weil sie nicht nur preislich unter Druck geraten, sondern im Gegensatz zu Wind- und Sonnenkraftwerken keinen Einspeisevorrang genießen. Und dabei wird es diese Betreiber wenig trösten, dass mit dem forcierten weiteren Ausbau der per „Erneuerbarem Energiegesetz“ geförderten Stromerzeuger der Überlebenskampf jeder gegen jeden über kurz oder lang selbst bei dieser Gruppe einsetzen wird. Bereits heute werden die Betreiber von Kraft-Wärme-Kopplungsanlagen – auch eine eigentlich von der Politik gewünschte und geförderte Spezies – zeitweilig aufgefordert, wegen eines gerade herrschenden Überangebots von „Grünstrom“ ihre Anlagen zu drosseln.

Unter den „reinrassigen“ EEG-Anlagenkategorien dürften die Biomassekraftwerke die am stärksten gefährdete Gruppe darstellen. Grund hierfür ist die Tatsache, dass sie Lebensmittel wie Mais für die Stromerzeugung einsetzen. Diese „Strom-statt-Teller“-Philosophie schwächt ihre Akzeptanz unter ethischen Gesichtspunkten: Schließlich sehen wir derzeit einen stetig anschwellenden Flüchtlingsstrom von Menschen, die nicht zuletzt aufgrund des in ihren Ländern herrschenden Hungers und der dadurch ausgelösten Kriege ihr Leben riskieren, um das gelobte Land Europa zu erreichen. Daher liegt es nahe zu vermuten, dass die „Brotverheizer“ zu den ersten Opfern im künftigen Bruderkrieg der „neuen erneuerbaren“ Stromerzeuger untereinander gehören dürften. Doch auch nach dem Ausschalten dieser Konkurrenz wird den danach noch übrigen Hätschelkindern grüner Energiepolitik wohl nichts anderes übrigbleiben, als untereinander auszukämpfen, wem von ihnen bei zunehmender Überflutung der Netze mit „grünem“ Strom der Vorrang gebührt.

…und wird sich noch verschärfen

Normalerweise sollte man annehmen, dass eine mit solchen Tatsachen konfrontierte Regierung das Projekt „Energiewende“ an diesem Punkt stoppt, um zunächst abzuwarten, bis technisch wie wirtschaftlich vertretbare Technologien für die Speicherung großer Mengen zeitweiliger Strom-Überproduktion für den Ausgleich von Mangelsituationen die Entwicklung geworden sind. Doch für solche Technologien geeignete Ansätze konnten bisher trotz aller Bemühungen und des Einsatzes großer finanzieller Mittel nirgends ausfindig gemacht werden. Alle bisher vorgeschlagenen Systeme sind ungeeignet, weil sie entweder zu teuer sind oder ihre Wirkungsgrade jenseits von Gut und Böse liegen. Doch leider mangelt es deutschen Spitzenpolitikern – wie die Geschichte leidvoll bewiesen hat – öfters an der Fähigkeit zu erkennen, wann man sich so verrannt hat, dass man besser aufgeben sollte. Genau das erleben wir aktuell mit der Energiewende: Obwohl uns dieses Projekt insgesamt bereits mindestens 500 Mrd. € gekostet hat, bestehen alle maßgeblichen politischen Fraktionen eisern darauf, weiterhin gutes Geld hinter schlechtem herzuwerfen. Vermutlich bleibt ihnen nichts anderes übrig, weil sie ihr politisches Schicksal bereits zu sehr mit der Energiewende verknüpft haben, so dass das Eingeständnis eines Scheiterns einem politischen Selbstmord gleichkäme. Vermutlich deshalb hat die regierende Große Koalition lieber eine Augen-zu-und-durch-Haltung eingenommen und die Gangart auf dem Weg zu den 80 % „erneuerbarer“ Stromproduktion gegenüber den Zielen der vorherigen Regierung sogar nochmals beschleunigt.  

Unter Berücksichtigung der derzeit erkennbaren Hauptentwicklungsrichtungen der künftigen EE-Politik kann man begründete Mutmaßungen über die wahrscheinlichste künftige Aufteilung der Stromerzeugungsverfahren anstellen, siehe Bild 4. Da bisher erst knapp 26 % Gesamtanteil an der Erzeugung erreicht wurden und der Biomasseanteil von etwa 7 % vermutlich von der Politik früher oder später fallengelassen und durch Wind- und Sonnenkraft ersetzt wird dürfte, kann man sich leicht ausrechnen, welche gigantische Aufgabe noch vor uns liegen dürfte. 

Bild 4. Das offizielle Ziel der Bundesregierung ist ein Anteil von 80 % “erneuerbarer” Energien an der Stromerzeugung bis zum Jahre 2050. Die wahrscheinlichste Aufteilung der entsprechenden Technologien mit 67,5 % Wind, 8,1 % Fotovoltaik und 4,4 % „sonstigen“ lässt erahnen, welch ungeheure Aufgaben und Ausgaben noch auf uns zukommen werden

Spannung vor dem großen Finale

Die Umrisse der realen Risiken, die auf die deutsche Stromerzeugungsinfrastruktur zukommen werden, lassen sich klarer erkennen, wenn man sich den Aufbau nomineller Kapazitäten im Bereich Wind und Solar im Verlauf der letzten 5 Jahre im Vergleich zu dem bis 2050 voraussichtlich noch erforderlichen Zubau ansieht, Bild 5. Wenn man dann noch bedenkt, dass uns der derzeit erreichte Stand bereits rund 500 Mrd. € an bisher geleisteten und künftig noch fälligen Zahlungen gekostet hat, dann bekommt man eine Vorstellung davon, was da in den nächsten Jahrzehnten noch alles auf uns zukommen wird.

Bild 5. Allein schon der bis 2014 erfolgte Aufbau an Wind- und Solarkapazität (zuzüglich ca. 8.100 MW Biomassekraftwerke) hat den deutschen Verbraucher bisher bereits mit 500 Mrd. € belastet

Abgesehen von den geradezu ungeheuerlichen Kosten kommt dazu noch der oben bereits angesprochene Kannibalismus-Aspekt, der sich mit dem weiteren Ausbau noch zu ungeahnten Dimensionen auswachsen wird. Um dies zu verdeutlichen, braucht man sich nur vor Augen zu führen, dass im Jahre 2014 die kombinierte Kapazität an Wind- und Solarkraftwerken bei ca. 73.000 MW lag. In der Spitze lieferten diese eine Leistung von zusammen 38.000 MW ins Netz. Da im Jahr 2050 eine Gesamtkapazität von rund 376.000 MW installiert sein dürfte, könnten diese zusammen in der Spitze 196.000 MW in ein Netz einspeisen, das je nach Lastsituation nur zwischen 40.000 und 90.000 MW aufnehmen kann. Die von den „erneuerbaren“ Kraftwerken angebotene und nicht verwertbare Mehrleistung läge somit zwischen 106.000 und 156.000 MW. In solchen Situationen dürfte der Konkurrenzsituation zwischen den beiden Hauptfraktionen der „erneuerbaren“ Stromerzeugungstechnologien richtig interessant werden. Werden erboste Windbarone mit schweren Ackergeräten über Solarplantagen herfallen? Oder werden Solarkönige die Sprengung von Windenergieanlagen in Erwägung ziehen? Oder wird es ein chaotisches „jeder gegen jeden“ geben? Es werden noch Wetten entgegengenommen….

Fred F. Mueller




Stromexport = Strommüll ?

Aber wie ist das möglich, wo doch die Experten nach dem schlagartigen Abschalten von acht Atomkraftwerken im Jahr 2011 unisono prophezeiten, dass wir in Zukunft viele Jahre auf Stromimport aus Frankreich angewiesen sein würden, weil die Windräder und Sonnenkollektoren eben nicht so viel Elektrizität hergeben. Nun, die Experten haben sich, wieder mal, geirrt. Volle 34 Terawattstunden (TWh) an Strom hat Deutschland im Jahr 2014 exportiert, die Importe bereits gegengerechnet. Dieser Exportüberschuss sind stattliche 6,5 Prozent des inländischen Jahresverbrauchs von ca. 520 TWh. Dabei sollte man noch wissen, dass eine Terawattstunde einer Milliarde Kilowattstunden entspricht. Also einer ziemlich großen Nummer!

Und genauso bemerkenswert ist, dass der deutsche Stromexportüberschuß seit dem Schicksalsjahr 2011 (Fukushima) kontinuierlich angestiegen ist und in den kommenden Jahren, mit hoher Wahrscheinlichkeit, noch weiter steigen wird. Und, dass wir (Steuerzahler) jedoch an diesen Exportgeschäften nichts verdienen, sondern möglicherweise noch draufzahlen werden. Und, dass wir deshalb unsere nationalen Klimaziele nicht erreichen werden.

Wie konnte so ein volkswirtschaftliches Chaos entstehen? Und wer ist dafür verantwortlich? Nun, ich versuche die Ursachen aufzudröseln, mit einen Schuss Ironie, gelegentlich.

Am Anfang war das EEG

Um zu den Ursachen für die gegenwärtige unbefriedigende Energiesituation vorzudringen, müssen wir uns schlappe 15 Jahre zurückbegeben. Jürgen Trittin, der Grüne, war zu jener Zeit in der Form seines Lebens. Als Bundesumweltminister in Schröders rot-grüner Koalition befand er sich an der Schaltstelle für eine neue "ökologische" Energiepolitik. Er nahm die Stromkonzerne in den Schraubstock, indem er sie zur mittelfristigen Aufgabe ihrer Atomkraftwerke zwang und er komponierte im Jahr 2000 eigenhändig das sogenannte Erneuerbare-Energien-Gesetz, abgekürzt EEG, welches vor allem den Ausbau der Windräder, der Sonnenkollektoren und die Vermaisung der Landschaft – pardon, ich meinte natürlich die Nutzung der Biomasse zur Stromerzeugung – vorsah. Und alles sollte ganz, ganz schnell gehen, deshalb erhielten die Ökofreaks hohe Subventionen für ihre Stromanlagen. Die Photovoltaik-Leute, beispielsweise, satte 57 Cent pro (intermittierend) erzeugter Kilowattstunde.

Doch das hastig zusammengestrickte EEG hatte einige Webfehler. Neben den viel zu hohen Fördersätzen gestattete es den Mini-Stromerzeugern die allzeitige und bevorzugte Einspeisung in das Stromnetz. Die Energieversorgungsunternehmen (EVU) müssen heute noch jede Kilowattstunde Strom von Wind, Sonne und Biomasse abnehmen – beziehungsweise honorieren, falls ihr Stromnetz die Aufnahme nicht zulässt. Der Ausbau der sogenannten Erneuerbaren Energien vollzog sich im Rekordtempo: die installierte Kapazität für Wind liegt heute bei 35.000 Megawatt (MW), für Solar gar bei 38.000 MW und für Biomasse bei 8.000 MW. Zum Vergleich: Deutschland benötigt im Schnitt eine Stromerzeugungskapazität von etwa 50 bis 80.000 MW.

Die Regeln der Strombörse

Für uns Verbraucher hat Strom im allgemeinen einen festen Preis, nicht aber für die Stromhändler. Diese kaufen ihre Stromquantitäten rechtzeitig u. a. an der Leipziger Strombörse ein, denn dort bieten ihn die vier großen Energieversorgungsunternehmen (RWE, E.ON, EnBW und Vattenfall) oder die vielen kleineren Stadtwerke an, welche den Strom an ihren Kraftwerken erzeugen. Angebot und Nachfrage bestimmen den Preis, den die Börse zuweilen stündlich festlegt. Die wichtigste Kostenart für diese Stromerzeuger sind die Brennstoffkosten, also für Uran, Kohle und Gas. Dabei sind die – ungefähren – Stromerzeugungskosten bei einem Kernkraftwerk 2 bis 3 Cent, bei einem Kohlekraftwerk 3 bis 6 Cent und bei einem Gaskraftwerk 6 bis 10 Cent. Kann ein Kraftwerk seine Brennstoffkosten nicht mehr an der Börse refinanzieren, dann wird es (normalerweise) aus betriebswirtschaftlichen Gründen abgeschaltet und nach einiger Zeit sogar stillgelegt. Sonne und Wind haben in dieser Beziehung einen Vorteil, weil sie "formal" keine Brennstoffkosten haben. "Die Sonne schickt keine Rechnung" besagt ein nur vordergründig schlauer Spruch. Man müsste hinzufügen: "Die Sonne produziert auch keinen Strom", aber diese defätistischen Aussage ging in der bisherigen Ökoeuphorie mancher Deutscher unter.  Wie sieht nun das Stromerzeugungsmanagement bei einem Stromkonzern – wie dem RWE – aus, der Kernkraftwerke, Kohlekraftwerke (Stein- und Braunkohle) sowie Gaskraftwerke betreibt und daneben Sonnen- und Windstrom aufnehmen muss? Nun, normalerweise decken Atom und Braunkohle die erforderliche Grundlast ab, Steinkohle die Mittellast und die Gaskraftwerke, welche man schnell an- und abschalten kann, werden – neben den Pumpspeichern – für die mittägliche Spitzenlast benötigt. Aber das funktioniert neuerdings nicht mehr so, denn die Wind- und Solaranlagen haben die wendigen Gaskraftwerke aus dem Markt gedrängt. Sie dürfen als erste einspeisen. Das sieht man gut am Beispiel des 11. Mai 2014 in der unten platzierten Grafik. Dies war ein Sonntag, an dem wenig Strom gebraucht wurde, an dem aber gleichzeitig der Wind kräftig wehte und die Sonne am wolkenlosen Himmel viel PV-Strom produzierte. Dieser regenerative Strom musste, gemäß EEG, bevorzugt ins Netz aufgenommen werden.

Siehe Bild oben rechts

Das Diagramm veranschaulicht die Situation am genannten Sonntag: Wind und Sonne zusammen erbrachten zeitweise allein schon fast 40.000 Megawatt an Strom. Das Angebot auf dem Strommarkt überstieg die Nachfrage bereits am Vormittag so weit, dass der Strom an der Börse "wertlos" wurde. Sein Preis fiel auf Null. Am frühen Nachmittag war darüber hinaus so viel Strom im Netz, dass die deutschen Produzenten Geld bezahlen mussten, um ihn loszuwerden. Der "negative Strompreis" sank auf 60 Euro pro Megawattstunde, entsprechend 6 Cent pro Kilowattstunde. In der ersten Jahreshälfte 2014 gab es bereits an 71 Stunden negative Strompreise. In wenigen Jahren, nach dem weiteren Ausbau der Wind- und Sonnenenergie, können es tausend Stunden im Jahr und noch mehr werden.

Problematische Kohlekraftwerke

Und was machen die Kohlekraftwerke, insbesondere jene, die Braunkohle verfeuern? (Die Kernkraftwerke lassen wir mal außen vor, da sie in wenigen Jahren sowieso abgeschaltet sein werden.) Sie werden nicht zurückgefahren, sondern produzieren kräftig weiter. Denn lieber verkaufen die Erzeuger ihren eigentlich überflüssigen Kohlestrom zehn Stunden lang (tagsüber) zu negativen Strompreisen, als ihre Braukohlekraftwerke abzuschalten. Warum? Nun, diese fossilen Kraftwerke sind darauf ausgelegt, ohne Unterbrechung zu laufen. Selbst ihre Leistung nur zu drosseln wäre schon zu teuer. Muss nämlich ein Kraftwerk aus irgend einem Grund vom Netz, so bezahlt der Betreiber später allein für den Dieselkraftstoff einen fünf- oder gar sechsstelligen Betrag, um dieses Kraftwerk wieder sicher auf Betriebstemperaturen von über 500 Grad zu bringen. Außerdem vertragen diese Art von Kraftwerken das häufige An- und Abschalten aus Materialgründen nicht gut. Ein weiterer Grund für den fortgesetzten Betrieb der Kohlekraftwerke ist die Sicherstellung der Netzstabilität. Weil der erzeugte Strom sich aber nicht speichern lässt, muss er irgendwo hin. Und dafür gibt es Interessenten. Die Holländer, beispielsweise, nehmen ihn recht gerne um ihre Glashäuser zu heizen – und weil er nicht nur kostenfrei ist, sondern seine Abnahme noch gut bezahlt wird. Dafür legen unsere schlauen Nachbarn sogar gerne einige ihrer Gaskraftwerke still. Mittlerweile verhökern sie den Strom sogar weiter nach England, die Schweiz und Italien. Ein ähnlicher Sekundärmarkt hat sich bei unserem östlichen Nachbarn, den Polen, herausgebildet.

Im Klartext: der exportierte Strom ist heutzutage schon häufig Überschussstrom, für den es in Deutschland keine Abnehmer gibt und den man deshalb – unter erheblicher Zuzahlung – in ausländische Netze einspeisen muss. Er ist vergleichbar mit Müll, den man zur Entsorgung (kostenpflichtig) ins Ausland bringt.

In unserem Fall ist es – man verzeihe das harte Wort – Strommüll.

Fazit

Der im Vorjahr 2014 ins Ausland exportierte Strom von 34 Milliarden Kilowattstunden ist kein Nachweis für unsere wirtschaftliche Potenz. Er ist vielmehr der Beweis dafür, dass mit der nach Fukushima hastig eingeläuteten Energiewende etwas furchtbar schiefgelaufen ist. Das EEG mit seiner radikalen Bevorzugung von Wind- und Sonnenstrom hat die Gaskraftwerke aus Kostengründen aus dem Markt gedrängt. Die Braunkohlekraftwerke hingegen, mit ihrer hohen CO2-Fracht, müssen die Grundlast erbringen, insbesondere, wenn die Kernkraftwerke im Jahr 2022 insgesamt abgeschaltet sein werden. 

Unsere Energiezukunft wird also folgendermaßen aussehen:
Sonne und Wind erbringen die Spitzenlast, die Kohle die Grundlast. Reguliert wird die Strommenge, indem man über die nationalen Grenzen hinweg den Überschussstrom exportiert – und dafür noch bezahlt.

Dr.Ing Willy Marth 

Der Beitrag wurde vom Blog des Autors übernommen 

Über den Autor: 

Willy Marth, geboren 1933 im Fichtelgebirge, promovierte in Physik an der Technischen Hochschule in München und erhielt anschliessend ein Diplom in Betriebswirtschaft der Universität München. Ein Post-Doc-Aufenthalt in den USA vervollständigte seine Ausbildung. Am „Atomei“ FRM in Garching war er für den Aufbau der Bestrahlungseinrichtungen verantwortlich, am FR 2 in Karlsruhe für die Durchführung der Reaktorexperimente. Als Projektleiter wirkte er bei den beiden natriumgekühlten Kernkraftwerken KNK I und II, sowie bei der Entwicklung des Schnellen Brüter SNR 300 in Kalkar. Beim europäischen Brüter EFR war er als Executive Director zuständig für die gesamte Forschung an 12 Forschungszentren in Deutschland, Frankreich und Grossbritannien. Im Jahr 1994 wurde er als Finanzchef für verschiedene Stilllegungsprojekte berufen. Dabei handelte es sich um vier Reaktoren und Kernkraftwerke sowie um die Wiederaufarbeitungsanlage Karlsruhe, wo er für ein Jahresbudget von 300 Millionen Euro verantwortlich war.




Wärmebilanz der Erde und globale Temperaturänderung

….Die beobachteten Abweichungen von einer stetig durch verstärkte Sonneneinstrahlung steigenden Temperatur in den Jahren 1945 bis 1975 sind auf eine stärkere Wolkenbildung durch die in den Jahren 1945 bis 1963 über die Kernwaffenversuche künstlich in die Atmosphäre eingebrachten radioaktiven Kondensationskeime  zurückzuführen. Die Stagnation der Temperatur ab 1998hat ihre Ursache in der seit 1998 nachlassenden Sonnenaktivität..

Von 1900 bis 1998 stieg die solare Einstrahlung um 1,3 W/m², seit 1998 hat sie nachgelassen und Werte erreich, die denen vom Anfang des 20. Jahrhunderts entsprechen. Der Abfall der Globaltemperatur in den nächsten Jahren ist vorhersehbar

 Haupttext

Die Erdoberfläche von 511 Millionen km² ist zu ca.75% von Wasser bedeckt. Der Rest sind 3% Polareiskappen und 22% Landmassen, bestehend aus 8% Wald, 8% Ackerfläche und 5% Industrie- und Besiedelungsfläche.

Dank der enormen Wassermenge in den Ozeanen der Erde und der hohen Wärmekapazität des Meerwassers stellen Änderungen der dort akkumulierten Wärmeenergie die Hauptkomponente der Wärmeenergiebilanz der Erde dar.

Wenn von der Klimaänderung gesprochen wird, wird auf die Darstellung der  sog. Temperaturanomalien Bezug genommen, die u.a. vom ICCP veröffentlicht wird. Dabei handelt es sich um Jahresmittelwerte, die ihrerseits auf einen Mittelwert über ein definiertes Zeitintervall bezogen werden. ( z. B. 1961-1990). In der folgenden Abb.1 ist der Verlauf der Temperaturanomalien dargestellt: 

Abb.1: NASA Angaben über die Anomalie der globalen Jahresmitteltemperaturen. ( nach data.giss.nasa.gov/gistemp/station_data/ ) Siehe Bild rechts 

Gemessen werden diese Temperaturen von ca. 35.000 meteorologischen Stationen, die über die Erde verteilt sind, wobei die größere Häufigkeit der Messstationen auf der nördlichen Halbkugel der Erde liegt.

Die Ozeane spielen auf Grund ihrer großen Oberfläche und ihrer großen Wärmekapazität die Schlüsselrolle in der Klimagestaltung der Erde. Sie enthalten 97% des gesamten Wassers des Planeten und sind die Quelle von 86% des auf der Erdoberfläche verdampfenden Wassers. 78% des globalen Niederschlags erfolgt über den Ozeanen und nur 22% erfolgt über den Landmassen.

Die Reaktion der Erdatmosphäre auf Störungen des Wärmehaushalts wird damit im Wesentlichen vom Temperaturverhalten  des Ozeans mit seiner Oberfläche von ca. 400 Millionen km², seinem Wasserinhalt von ca.1,3 Trillionen m³ und der Wechselwirkung mit der Atmosphäre bestimmt.

Die, die Erdatmosphäre bildende Luft ist ein kompressibles Gas und hat auf Meereshöhe eine Dichte von  1,29 kg/m3. Ca. 50% der Luftmasse der Atmosphäre liegen zwischen 5500m Höhe und  dem Meeresspiegel.

Die Gesamtmasse der Lufthülle beträgt ML = 5,14* 1018kg und der daraus resultierende Luftdruck auf Meereshöhe beträgt 1013 hPa.

Die  Hauptbestandteile der Erdatmosphäre sind Stickstoff N2 zu 78 %, Sauerstoff O2 zu 21%, Argon Ar zu 0,9 %, Kohlendioxid, CO2 zu 0,038 % und Wasserdampf,  H2 O. Während  sich die Zusammensetzung der Luft bezüglich N2, O2, Ar und CO2 erst in großer Höhe ändert, ist die Wasserdampfkonzentration stark von der Temperatur  und der Höhe abhängig, s. Abb. 2.

Abb. 2: Wasserdampfgehalt in Abhängigkeit von der Höhe

( J. Langeheine, Energiepolitik in Deutschland, das Geschäft mit der Angst, Athene Media Verlag, ISBN 978-3-86992-054-2) 

Wird mit Wasser gesättigte Luft von  20°C, die  ca.17g Wasser /m³ als Wasserdampf enthält, z. B. in eine Höhe von 5000m transportiert, verliert sie 16g Wasser/m³. Dieser Wasserdampf  kondensiert und fällt unter bestimmten Bedingungen als Niederschlag zurück auf die Erde.

90 % des Wassergehaltes der Atmosphäre  verteilen sich auf die ersten 5500 Höhenmeter .Damit spielen sich die Wetterprozesse im Wesentlichen in einem Höhenbereich bis ca. 5500 m ab. Die Integration über die Höhe bis 11000m ergibt eine absolute Wassermenge in der Atmosphäre von ca.  MW = 1,3 ∙ 1016kg und entspricht einem kondensierten Volumen von 1,3∙ 1013m³. In den Ozeanen befindet sich dagegen mit ca. 1,3∙ 1018 m³ etwa 100.000  mal mehr Wasser als in der Atmosphäre.

In reiner Luft ( ohne fremde Teilchen ) kann die relative Feuchtigkeit bis zu 800 % erreichen, ohne dass Kondensation eintritt. In der Realität kondensiert der Wasserdampf jedoch bei Werten wenige Prozent unterhalb oder oberhalb von 100 %, abhängig von der Natur und Konzentration der Kondensationskeime in der Luft. Als Kondensationskeime  für die Wolkenbildung dienen Aerosolpartikel aus Bestandteilen der Erdoberfläche und hochenergetische ionenbildende Strahlung.  Besonders aktiv sind radioaktive Stäube bzw. Radon- Zerfallsprodukte, deren Anreicherung in Wolkentropfen im Vergleich zu der umgebenden Luft ( B.I. Styra et all. Tellus XVIII (1966, 2) auf  ihre Mitwirkung bei der Entstehung der Kondensationskeime schließen lässt.

Die Unterscheidung der Wolken erfolgt u.a. nach der Höhe der Wolkenuntergrenze in hohe, mittlere und tiefe Wolken.

Hohe Wolken, die sich im allgemeine oberhalb 6000m bilden und etwa 13-14% der Wolkenbedeckung ausmachen, bestehen aus Eiskristallen.

Mittlere Wolken, die in Höhen zwischen 2000 und 5000 m entstehen und etwa 20% der Wolkenbedeckung ausmachen, bestehen aus Wassertropfen.

Tiefe Wolken bestehen ebenfalls aus Wassertropfen befinden sich in Höhen bis zu 2000m. Sie machen etwa 28-30% der Wolkenbedeckung aus.  

Hohe und mittlere oder tiefe Wolken können gleichzeitig auftreten, jedoch sind für  den Niederschlag im Wesentlichen die mittleren und tiefen Wolken verantwortlich.

Abb.3. Wolkenbedeckung und Wassergehalt der Atmosphäre von 1983 bis 2010

( www.climate-4you.com /images/CloudCover Low Level Observations Since1983 gif)

In der Abb.3 ist der zeitliche Verlauf des Wassergehalts der Atmosphäre sowie der Verlauf der Bewölkung von 1983 bis 2010 dargestellt. Die Abb. 4  zeigt die Abweichung der jährlichen Niederschlagsmenge vom langjährigen Mittelwert. Aus dem Vergleich der beiden Darstellungen 3 und 4 ist ein Anstieg der mittleren Bewölkung und ein Abfall der tiefen Bewölkung in den Jahren ab 1998 zu erkennen, verbunden mit einem Ansteigen der Niederschlagsrate. Die Gesamtbewölkung mit mittleren und tiefen Wolken bleibt jedoch weitgehend konstant bei 48%. Trotz Niederschlag ändert sich der Wassergehalt der Atmosphäre nur wenig, jedoch ab 1998 ist ein sprunghafter Abfall auf 24 mm (s. nachfolgende Ausführungen) zu sehen. Gleichzeitig steigt die mittlere Bewölkung von ca. 20 auf 23 % und die tiefe Bewölkung sinkt von 28 auf 25%.

Seit dieser Zeigt stagniert auch die globale Erwärmung.

Abb. 4: Abweichung des globalen Niederschlags über Landflächen vom Mittelwert für die Jahre 1900 bis 2010

(Image credit: NOAA‘s National Climatic Data Center.)

Ein Vergleich der Abb.4 mit der Abbildung 1 zeigt, dass eine Stagnation der globalen Temperaturanomalie in den Perioden hohen Niederschlags auftritt. Sowohl in den Perioden zwischen 1945 bis 1980 als auch ab 1998 bis 2010 ist eine deutlich positive Abweichung der Niederschlagsmenge zu beobachten.

Wolken und Niederschlag sind das Bindeglied der Atmosphäre zum Ozean.

Die Wassermenge der Ozeane, Verteilt auf ihre Fläche ergibt eine durchschnittliche Tiefe von 3800m. Doch die tieferen Schichten des Ozeans beteiligen sich kaum an den Temperaturänderungen der Oberfläche. Ab einer bestimmten Tiefe, der sog. Thermoklinen gleicht sich die Oberflächentemperatur der Tiefentemperatur an.

Die Abbildung 5 zeigt die Zunahme des Wärmeinhalts des Ozeans von 1970 bis 2005 um ca. 1,6∙ 1023  J .

Im gleichen Zeitraum stieg die Oberflächentemperatur um  0,4°C. Daraus berechnet sich die  Lage der durchschnittlichen Thermoklinen bei einer Tiefe von ca. 300m. In dieser Wassertiefe sind ca. 1/13 der Wassermassen des Ozeans betroffen und erfordern für die Aufheizung um 1K ca. 4∙ 1023  J.

 

Abb.5 Veränderung des Wärmeinhalts der Ozeane

http://www.nodc.noaa.gov/OC5/3M_HEAT_CONTENT/ 

Die in der Atmosphäre enthaltene Wassermenge entspricht einem kondensierten Volumen von 1,3∙ 1013 m³. Verteilt man das Wasservolumen der Atmosphäre auf die Erdoberfläche von  511∙ 106 km 2, so erhält man eine Wassersäule von ca.25 mm, s. Abb. 3. Mit der Verdampfungswärme von 2257 kJ/kg Wasser, die zur Überführung des Wassers vom flüssigen in den dampfförmigen Zustand erforderlich ist, ergibt sich eine gesamte im Wasserdampf der Erde enthaltene latente Wärme von ca. 3∙ 1022 Joule, entsprechend 3∙ 104 EJ.

Die mittlere Verdunstungs-, bzw. Niederschlagsrate beträgt etwa 1000 mm Wassersäule pro Jahr. ( Baumgartner und Reichel 1975 ). Das bedeutet, dass der Zyklus  Verdampfung- Kondensation pro Jahr ca. 40 mal abläuft.

Nach dieser Abschätzung verdunsten so alljährlich 520.000Km³ Wasser von der Erdoberfläche. Die genaueren Zahlen liegen bei 505.000 km³, davon 434.000 km³ über den Ozeanen und 71.000 km³ über dem Land. Die in der Bilanz fehlende Menge von ca. 36.000 km³ wird den Ozeanen durch die Flüsse wieder zugeführt.

Mit der Verdunstungswärme von 2257 kJ/kg ergibt sich daraus eine Wärmemenge von 9,8∙ 1023 J/a, die den Ozeanen jährlich entzogen wird und eine Wärmemenge von 1,6∙ 1023 J/a , die von den Landflächen kommt, insgesamt also eine Wärmemenge von 11,4∙ 1023 J/a oder 1,14 ∙106 EJ pro Jahr. Diese werden im Gleichgewichtszustand wieder durch die Sonneneinstrahlung ausgeglichen.

Eine Abweichung der jährlichen Niederschlagsrate um 1% ( 10mm pro Jahr ) verändert diese Energiemenge für die Ozeane um ca. 1∙ 1022 J/a. daraus lässt sich eine Veränderung der Wärmeabstrahlungsleistung von  0,86W/m²  Ozeane errechnen.

Die unter Berücksichtigung der  Niederschlags- und Temperaturentwicklung berechnetet  Energiebilanz für den Zeitraum zwischen 1900 und 1998 ergibt nun folgendes Ergebnis:

-Zwischen 1900 und 1945 wurde dem Ozean eine Energiemenge von 1,6∙ 1023  J  zugeführt, die sich aus der geringeren Niederschlagsrate (im Mittel -1,2%) von ca. 570 mm  entsprechend ca. 5,7∙ 1023  J,  einer auf Grund der Temperaturerhöhung  des Ozeans  gestiegenen Wärmeabstrahlung von ca. 5,6∙ 1023  J und einer bis 1945 um ca.0,6 W/m² , gestiegenen Wärmeinstrahlung ( ca. 1,6∙ 1023  J) durch erhöhte Sonneneinstrahlung zusammensetzt. Der Anstieg der Wärmeeinstrahlung betrug pro Jahr ca. 0,013W/m².

-In der Zeit zwischen 1945 und 1980 stieg diese zusätzliche Sonneneinstrahlung  auf  0,93W/m². In dieser Zeit fielen 350mm mehr Niederschlag als im statistischen Mittel, d.h. im Durchschnitt jedes Jahr 1% mehr als normal. Das führte bis 1970 als die weiter steigende Wärmeinstrahlung den Wert des Wärmeverlustes durch die gestiegenen Niederschläge erreichte, zu  einem Temperaturrückgang. Ab diesem  Zeitpunkt überwog der Einfluss der gestiegenen Sonneneinstrahlung und die Temperatur stieg wieder.

-Im Zeitraum 1980 bis 1998 ist wieder eine unterdurchschnittliche Niederschlagsmenge von ca.  1%  in jedem Jahr zu verzeichnen, Im gleichen Zeitraum stieg die solare Einstrahlung auf  1,3W/m², was zu einer Temperaturerhöhung im Jahr 1998 um 0,55 K führte.

-Ab 1998 bis 2010 setzt  ein um 1,5% stärkerer Niederschlag ein. Eine Stagnation weiterer Temperaturerhöhung ab 1998 war die Folge.

Die Energiebilanzen der einzelnen Zeitabschnitte führen zu dem Ergebnis, dass die effektive solare Einstrahlung von 1900 bis 1998  um ca. 1,3 W/m² gestiegen sein muss. Dieses Ergebnis wird auch durch die nachfolgenden Überlegungen zu Albedoveränderungen  und Wolkenbildungsprozessen bestätigt.

Streuung und Reflektion der von der Sonne auf die Erdoberfläche treffenden Strahlung führt zu einer durchschnittlichen Albedo von 30%. Albedo ist der Betrag der Rückstreuung und Reflektion der Sonneneinstrahlung durch Atmosphäre, Wolken und Erdoberfläche, er kommt dem Wärmehaushalt der Erde nicht zugute.

Stärkere Bewölkung führt zu höheren Albedo-Werten, geringere zu niedrigeren Werten, letztere verbunden mit der dann höheren Einstrahlung auf die Erdoberfläche.

Die folgenden Abbildungen 6 und 7 zeigen die Messungen des Erdalbedos der Jahre 1985 bis 2010 im Vergleich zu der weltweiten Wolkenbedeckung  von 1983 bis 2010

Abb.6 Veränderung der Erdalbedo nach (Palle, E, et all 2004) http://www.iac.es/galeria/epalle/reprints/Palle_etal_Science_2004.pdf

 Abb.7 Weltweite Wolkenbedeckung ab 1983

( www.climate-4you.com /images/CloudCover Low Level Observations Since1983 gif)

Ca. 5% Änderung der gesamten Wolkenbedeckung haben nach diesen Ergebnissen eine Änderung der Erdalbedo um ca. 6% von 30 auf  28,2% zur Folge. Das bedeutet, dass jedes Prozent einer Änderung der Wolkenbedeckung eine Albedoänderung von 1,2 % bewirkt. Die solare Einstrahlung ändert sich damit um ca. +/-1,4 W/m² von 239,4 auf 240,8 W/m² bzw. 238 W/m² bei einer Änderung der Wolkenbedeckung um +/- 1%.

Nach  der Theorie von Svensmark ist die durch kosmische Strahlung verstärkte Ionenbildung für die Entstehung von zusätzlichen tiefen Wolken verantwortlich.

Abb. 8: Kosmische Strahlung und Bewölkung nach Svensmark

Marsh & Svensmark 2003 (DOI: 10.1029/2001JD001264. )

20 % Variation bzgl. der kosmischen Strahlung bedeuten danach 2% Variation in der Wolkenbedeckung.

Die kosmische Strahlung ist eine hochenergetische Teilchenstrahlung, die von der Sonne, der Milchstraße und von fernen Galaxien kommt.

Die Intensität der kosmischen Strahlung, die die Erdatmosphäre erreicht, ist abhängig von der durch die Sonnenaktivität  hervorgerufenen Störung bzw. Abschirmung des Erdmagnetfeldes.

Der Geomagnetische  Index, der sog. aa-Index, ist ein Maß für diese Störung und damit ein Maß für  die Abschirmwirkung  des Erdfeldes gegenüber kosmischer Einstrahlung.  Der aa- Index wird in nT angegeben. Sein Verlauf seit 1860 ist in der folgenden Abbildung 9 wiedergegeben, aus der erkennbar ist, dass der geomagnetische Index von einem Tiefpunkt, der um das Jahr 1900 lag, bis ca. 2000 ständig gestiegen ist.

 Abb.9: Geomagnetischer Index

[http://www.ngdc.noaa.gov/stp/geomag/aastar.html]

Zwischen kosmischer Einstrahlung CR und aa- Index besteht nach Palle der aus der folgenden Abb.10  ableitbare Zusammenhang: 

CR = 5000- 45 < aa> .

Abb 10.  The influence of cosmic rays on terrestrial low clouds and global warming
in the years 1984-1993

E. Palle Bago and C. J. Butler: Astronomy & Geophysics, August 2000. Vol 41, Issue 4, pp.18-22.

1900 lag der aa-Index bei 14nT  und stieg bis zum Jahr 1990 auf ca.30nT.

Damit ist die kosmische Einstrahlung von einem Wert von 4370 im Jahr 1900 auf  3650 im Jahr 1990 gesunken, und die Wolkenbedeckung mit tiefen Wolken verringerte sich bei Verwendung der Ergebnisse  von Svensmark um 2%.

Da die Wolkenbedeckung tiefer Wolken etwa 50% der  gesamten Wolkenbedeckung ausmacht, kann von einem Abfall der gesamten Wolkenbedeckung bis 1990 um ca. 1% ausgegangen werden, was eine zusätzliche solare Einstrahlung von ca.1,4  W/m² bis 1990 bedeutet.

Die von 1900 bis 1998 gestiegene Sonnenaktivität ist die alleinige Ursache für die Erhöhung der Globaltemperatur, die nur durch Perioden hohen Niederschlages in den Jahren 1945 bis 1970 unterbrochen wurde.

Seit dem Jahr 1998 geht die Sonnenfleckenaktivität deutlich zurück und erreicht mit dem Zyklus 24 Werte, die denen um 1900 entsprechen. Die kosmische Einstrahlung steigt und führt zu verstärkten Niederschlägen.

In den kommenden Jahren ist mit einem aa Index von ca. 15nT  zu rechnen, mit entsprechendem Anstieg der kosmischen Einstrahlung, höherer Wolkenbildung und absinkender Globaltemperatur.

Die verstärkte Niederschlagsmenge im Zeitraum 1945 bis 1970 ist auf eine zusätzliche Quelle ionisierender Strahlung zurückzuführen, deren Ursprung in den Kernwaffenversuchen der Zeitperiode 1945 bis 1963 zu suchen sind. Luftverschmutzungen scheiden als Ursache für diesen Zeitraum aus.

Riesige Mengen radioaktiver Stäube und fein verteilter Materie wurden durch die Explosionen  bis in die Stratosphäre geschleudert, verteilten sich mit den Luftströmungen weltweit und bildeten eine ständige Quelle von ionisierendem Mikrostaub für die Entstehung von Kondensationskeimen in der Troposphäre.

Zwischen 1951  und 1963  stieg z. B. der Strontiumgehalt in der Stratosphäre ständig an mit entsprechenden Auswirkungen auf das Wettergeschehen und nahm  ab 1963 nach dem  Atom-Versuchstop langsam bis 1974 wieder ab.

Erst ab dem Jahr 1974 ist diese Quelle radioaktiver Strahlung versiegt und kommt für Wolkenbildung nicht mehr in Frage.

Zwischen 1945 und 1974, wird die Wolkenbildung also von zusätzlicher radioaktiver Einstrahlung beeinflusst, die aus den Atomversuchen stammt, ein indirekter Beweis für die Theorie von Svensmark. Erst ab dieser Zeit setzt  sich der Einfluss der fallenden kosmischen Strahlung wieder als Klimafaktor durch und der Temperaturanstieg geht entsprechend der gestiegenen Sonneneinstrahlung weiter.

Ab 1998 sinkt der aa- Index und erreicht 2010 Werte um 15, wie sie Anfang des 19. Jahrhunderts herrschten. Die kosmische Einstrahlung und damit die Wolkenbedeckung steigen seit dieser Zeit.  Die solare Zusatzeinstrahlung sinkt auf Werte, die Anfang des 20sten Jahrhundert herrschten. Das führt  zu einem Rückgang der globalen Temperatur.  Wann diese Entwicklung zum Stillstand kommt hängt allein vom Verlauf der solaren Aktivität ab.

(Eine ausführlichere Darstellung kann als pdf – Datei geladen werden) 

Related Files




Winter 2014/15 in Deutschland: Erneut zu mild – warum?

Bild rechts: Winter im Flachland, teilweise schneearm, im Hintergrund die Schwäbische Alb Foto: Kowatsch

Ein wichtiges Indiz für den Charakter eines Winters ist die Anzahl der Tage mit einer Schneedecke von mindestens 1 cm Höhe. Diese lässt sich nach den Aufzeichnungen der Station Potsdam bis 1893/94 zurückverfolgen. Da Schnee mitunter schon im Oktober und noch im April fallen kann, ist es sinnvoll, die „saisonalen“ Schneedeckentage zu betrachten, wobei eine Saison immer vom 1. Oktober bis zum 30. April des Folgejahres dauert:

Abb.1: Die Anzahl der Schneedeckentage blieb – bei enormen Schwankungen – langfristig nahezu unverändert, von zunehmender Schneearmut keine Spur. Der im Tiefland eher schneearme Winter 2014/15 ist hier noch nicht enthalten; allerdings wird er deutlich mehr Schneedeckentage aufweisen, als der extrem schneearme Winter 1974/75. (Datenquelle: PIK).

Betrachtet man nur den „meteorologischen“ Winter, so ist ebenfalls fast kein langfristiger Trend erkennbar. Allerdings gibt es periodische Schwankungen (Abbildung 2):

Abb.2: In den 1910er bis 30er Jahren sowie um die „Jahrtausendwende“ gab es etwas weniger Schneedeckentage, dafür aber tendenziell feuchtere, mildere Winter (Datenquelle: PIK).

Großmaßstäblich (gesamte Nordhalbkugel) liegen verlässliche Daten zur Schneebedeckung erst seit 1967 vor. Seit dieser Zeit schwankte die Schneebedeckung der Nordhemisphäre stark, ohne jedoch insgesamt abzunehmen:

Abb. 3: Seit 1967 ist keine Abnahme der im Winter mit Schnee bedeckten Fläche auf der Nordhalbkugel festzustellen (Quelle: Amerikanischer Wetterdienst NOAA).

Wintertemperaturen in Deutschland – Keine Erwärmung, sondern Abkühlung.

Im Folgenden verwenden wir die gleichen Betrachtungszeiträume wie in früheren Arbeiten. Nur, aus damals 25 und15 Jahren rückwärtiger Betrachtung wurden nun 28 und 18 Jahre. Eigentlich müsste man bei Temperaturbetrachtungen über 25 Jahre hinaus bereits eine Wärmeinselbereinigung vornehmen, darauf wollen wir jedoch verzichten, weil die Ergebnisse auch so schon eindeutig genug sind. Trotzdem sei hier erwähnt, dass aufgrund der ständigen und wärmenden Landschaftsveränderung durch den Menschen -, täglich werden etwa 108 ha in Deutschland überbaut – die von Menschenhand erzeugten Wärmezonen um die Messstationen herum sich ständig erweitern. Und die Thermometer messen diese schleichende Zusatzwärme automatisch mit.

Der Winter 2015 wird vom Deutschen Wetterdienst aktuell mit 1,8 Grad angegeben. Das sei der zweite „zu milde Winter“ in Folge. Was aber uns Menschen nicht gesagt wird: Über einen längeren Zeitraum sind die Wintertemperaturen gesunken, es wurde kälter. Das zeigt die nächste Abbildung 4. Alle Daten sind Originaldaten des Deutschen Wetterdienstes in Offenbach.

Abb. 4: Seit fast 3 Jahrzehnten fallen in Deutschland die Wintertemperaturen. Daran können auch die letzten zwei milden Winter nichts ändern.

Ergebnis: Trotz der ständig vorhergesagten angeblichen „Erderwärmung“, die sich als erstes bei der Jahreszeit Winter zeigen sollte, verhalten sich die deutschen Wintertemperaturen keinesfalls nach den Erwärmungsvorhersagen der selbst ernannten Klimafolgenforscher. Die Wintertrendlinie ist fallend und nicht steigend. Es müssten nun einige milde Winter folgen, damit die Trendlinie ausgeglichen wird.

Eine kurze Begriffserläuterung sei nun hier gestattet. Klimaforscher beschäftigen sich mit der Temperaturentwicklung wie sie tatsächlich ist, eben mal rauf und mal runter. Denn Klimawandel gibt es über längere Zeiträume immer. Klimafolgenforscher hingegen glauben an die CO2-menschengemachte ständige Weitererwärmung. Oft ist dieser Glaube wie beim Weltklimarat bereits in der Satzung so festgeschrieben. Abkühlungsphasen zwischendurch werden einfach ignoriert oder Messdaten sogar verfälscht. Einzelfakten oft ohne Zeit-Grafiken im Sinne einer ständigen Weitererwärmung herausgestellt, um utopische Vorhersagen zu treffen.

Doch nun zurück zu den Winterbetrachtungen. Die Winterwerte der obigen Graphik sind die Originalwerte des Deutschen Wetterdienstes. Sie sind wie schon erwähnt, noch nicht wärmeinselbereinigt. Trotzdem ist die Trendlinie fallend. Mit einer WI-Bereinigung wäre die Trendlinie sogar deutlich fallender, was nichts anderes heißt, als dass die Winter in Deutschland entgegen den Vorhersagen kälter wurden. Aussagen, welche die Erwärmungsgläubigen und Klimafolgenforscher so nie treffen würden. Zur Beurteilung reichen ihnen die letzten 2 Winter – die etwas milder ausfielen – als Beweis einer sich ständig fortsetzenden Erwärmung. Ohne irgendwelche Temperaturgrafiken wird in den Medien dann so erzählt, also wäre dies die Regel. Siehe hier in der Südwestpresse, Artikel vom 17.Feburuar 2015: http://www.schwaebische-post.de/ueberregional/blick/10419990/ Dem Leser wird durch den Inhalt des Artikels der falsche Eindruck vermittelt, als wären die Wintertemperaturen ganz nach den Vorhersagen immer weiter gestiegen.

Als nächstes betrachten wir die Einzelmonate: Der Winter 2015 besteht meteorologisch aus den drei Wintermonaten Dezember 2014 sowie Januar und Februar 2015. Betrachten wir nun diese drei Wintermonate über denselben Zeitraum, dann ergibt sich ein leicht unterschiedliches Bild.

Beginnen wollen wir mit dem Dezember:

Abb. 5a: Der Monat Dezember zeigt nach den Originaldaten des Deutschen Wetterdienstes ebenfalls ein leichtes Kälter werden an. Insgesamt sind die Daten fast ausgeglichen, nur der Kältedezember 2010 zieht die Trendlinie am Schluss leicht nach unten. Bereits ein weiterer milder Dezember 2015 würde einen Ausgleich herbeiführen.

Ergebnis Dezember: Die Dezember der letzten 30 Jahre wurden unmerklich kälter, sie sind jedoch fast ausgeglichen. Von einer vorhergesagten Klimaerwärmung ist jedoch weit und breit keine Spur. Die Daten sind ebenfalls nicht wärmeinselbereinigt, was nichts anderes bedeutet als dass in der freien Fläche Deutschlands weitab der Wärmeinseln, die Dezembermonate spürbar kälter wurden.

Betrachten wir nun zum Vergleich den Hochwintermonat Januar

Abb. 5b: Der Monat Januar ist deutlich kälter geworden, trotz der zwei letzten milden Januar-Jahre.

Erg. Die Januartrendlinie ähnelt im Verlauf der Trendlinie der Abb. 4 über den Gesamtwinter. Klimaerwärmung- wo? Nirgendwo. Die vorhergesagte Wintererwärmung existiert nur in den Computern des Geschäftsmodelles Klimaerwärmung.

Der Monat Februar

Abb. 5c: Der Februar ist etwas wärmer als der Januar – die Trendlinie verläuft weiter oben auf der Skala- aber der Trendlinienverlauf ist stärker fallend als die fallende Januartrendlinie.

Ergebnis: Aus den Februartemperaturen lässt sich überhaupt kein verfrühter Frühlingsbeginn ablesen. Dieser Februar 2015 lag vollkommen im Mittelfeld der letzten drei Jahrzehnte und laut DWD-Daten war er kälter als der Februar 1988, dem Beginn unseres Zeitraumes. Beim Betrachten unserer Grafiken sollte nun auch den Förstern und Waldbauern klar werden, warum sie keine wärmeliebenden Bäume anpflanzen dürfen. Ein zunehmendes Waldsterben aufgrund einer sich verstärkenden Klimaerwärmung, wie noch in den Waldschadensberichten Ende des Jahres 2014 reihenweise von den Umweltministern der einzelnen Bundesländer behauptet wurde, gibt es einfach nicht. Und in der freien Fläche des Landes, weitab der städtischen Wärmeinseln, wo die Wälder nun mal stehen, erst recht nicht. Dort sind die realen Temperaturen noch tiefer und die Trendlinie noch stärker fallend als die Grafiken vorgeben.

Gesamtergebnis: Der Winter in Deutschland geht seiner eigenen Wege. Ihm ist es egal, was Weltklimarat oder PIK Potsdam über die Medien in den letzten 20 Jahren vorhergesagt haben. Die drei Wintermonate richten sich nicht nach deren Erwärmungsgeschrei. Erwärmung- wo? Jedenfalls nicht bei den drei Wintermonaten und nicht in Deutschland.

Das Wort „Klimawandel“ wird stets im Sinne von Wärmer werden gebraucht. Doch durch eine Anzahl neuer politischer Verordnungen wie der Winterreifenpflicht und der Pflicht zur Energieeinsparung durch Kältedämmung bei Neubauten und bei Althausrenovierungen hat die Politik längst auf das Kälter werden reagiert. Und dieses Jahr müssen per Gesetz alle alten Heizungen ausgetauscht werden. Man verkündet und erwartet hohe Einsparungen beim Heizöl und Erdgas Das sind alles Maßnahmen gegen das Kälter werden und nicht gegen eine Erwärmung. Aber eine Vorhersage stimmt: In all dieser Zeit sind die Kohlendioxid-Konzentrationen, die nach Meinung der Treibhausgläubigen die Erwärmung bewirken sollten, natürlich weiter gestiegen. Darüber gibt die folgende Grafik Auskunft: 

Abb.6: Anstieg der Kohlendioxidkonzentration in der Luft, gemessen am Mouna Loa. Letztes Jahr sollen bereits kurzfristig Konzentrationen von 400 ppm gemessen worden sein. 400ppm wären 0,04%CO2-Anteil in der Luft. (ppm = parts per million). Trotz der fast geradlinig steigenden CO2- Werte (grüne Linie), sind die Wintertemperaturen, hier am Beispiel der DWD- Station Flughafen Erfurt/Weimar (alter Name: Erfurt- Bindersleben) dargestellt in blau), merklich gefallen.

Fast könnte man meinen, dass mit einem zunehmenden CO2- Gehalt in der Atmosphäre die Temperaturen immer kälter werden, dass es also so etwas wie einen umgekehrten Treibhauseffekt geben müsse. Allerdings wirken zahlreiche, kaum zu quantifizierende Einflüsse auf die Wintertemperaturen (einige, wichtige werden im weiteren Text noch erörtert). Mehr CO2 kühlt, wäre daher nur eine mögliche Schlussfolgerung aus den Grafiken 4 bis 6. Den Eindruck gewinnt man umso mehr, je mehr man in die Gegenwart kommt und kürzere Zeiträume betrachtet, das zeigt die nächste Grafik 7.

Abb. 7: Die Februartemperaturen sind vor allem seit der Jahrtausendwende besonders gefallen. Auch in diesem Winter war der Februar wieder der kälteste der drei Wintermonate.

Fazit: Wo ist die Klimaerwärmung, die wir seit gut einem Jahrzehnt massiv in Deutschland bekämpfen müssen? Vor allem die Wintermonate sollten wärmer geworden sein. Kein Schnee mehr im Flachland und Wintersport nur im Hochgebirge, hat man uns angedroht. Das waren die Vorhersagen kurz vor und um die Jahrtausendwende. Keine einzige dieser Temperaturgrafiken, die alle nach den Originaldaten des Deutschen Wetterdienstes gezeichnet sind, kann diese Panikmeldungen, angeblich hervorgerufen durch den „Klimakiller CO2“, bestätigen. Es waren also lediglich Vorhersagen aus der Kategorie neue Deutsche Märchen. Noch schlimmer ist aber, dass den Deutschen diese Wahrheit der Temperaturabnahme erfolgreich verheimlicht wird. Keine einzige unserer Grafiken wird in den Medien abgebildet. Und die Daten der Grafiken sind noch nicht einmal wärmeinselbereinigt, sonst wären die Abkühlungstrendlinien noch stärker fallend. Das ist die traurige Wahrheit, die eigentlich eine handfeste Lüge ab unserem Volk darstellt. Das angebliche Unwort „Lügenpresse“ ist beim Klima absolut treffend für die deutschen Medien. Es gibt nur wenige rühmliche Ausnahmen.

Die Bevölkerung wird von den Erwärmungsverkündern der Geldmaschine „menschengemachte CO2-Klimaerwärmung“ weiterhin gezielt über die Medien belogen. Wie unsere Geschichte zeigt, eignen sich Deutsche aber auch besonders gut für derartige Betrügereien, weil Deutsche weniger hinterfragen, dafür umso häufiger gutgläubig sind. Was die Propaganda des Alltags von sich gibt, das wird gerade bei den Deutschen gerne geglaubt und ungeprüft weiter gegeben. Bei so einem oberflächlichen Verhalten ist letztlich die Demokratie in Deutschland in Gefahr. Laut Beamtengesetz hätte jeder Lehrer, vor allem jeder Schulleiter die Pflicht, gegen solche Machenschaften von Falschbehauptungen vorzugehen. Doch davon ist die Realität in den Schulen und all den anderen Behörden weit entfernt.

Und in England? In Zentralengland zeigt sich ein ähnliches Bild; hier ist seit vollen 30 Jahren kein Anstieg, sondern ein geringer (nicht signifikanter) Rückgang der Wintertemperaturen festzustellen:

Abb. 8: In Zentralengland ist schon über eine ganze klimatisch relevante Periode (volle 30 Jahre) kein Anstieg, sondern ein geringer Rückgang der Wintertemperaturen zu verzeichnen.

Nun ergibt sich die Frage, warum dieser Winter 2014/15 in Deutschland insgesamt mild ausfiel, und welche Faktoren die Wintertemperaturen beeinflussen. Wir können nicht alle Ursachen und Einflussfaktoren beleuchten und konzentrieren uns auf die wichtigsten.

Besonders zwischen Mitte Dezember und Mitte Januar wehte der Wind mit nur kurzen Unterbrechungen fast ausschließlich aus West bis Südwest. Er führte milde atlantische Luftmassen nach Deutschland, die sich bei den relativ hohen Windgeschwindigkeiten kaum abkühlten und sich häufig bis zum Boden durch setzten (die im Winter häufigen Inversionen mit bodennah kalter Luft gab es über längere Zeit nur im Februar, ansonsten fehlte das hierfür erforderliche schwachwindige Hochdruckwetter meist). Vom noch milderen Winter 2013/14 unterschied sich der von 2014/15 aber vor allem durch das viel seltenere Auftreten der südlichen Strömungskomponente. Offenbar sind es vor allem jedoch westliche Luftströmungen, welche im Winter erwärmend wirken. Den allgemeinen, recht engen Zusammenhang zwischen Westströmungen und Wintertemperaturen veranschaulicht die Abbildung 9:

Abb. 9: Das Deutschland- Wintermittel der Lufttemperaturen (°C Deutschland, blau, unten) ähnelt in seinem Verlauf der Häufigkeit der am stärksten erwärmend wirkenden Großwetterlagen mit westlichem Strömungsanteil (W, SW und NW, violett).

Als die Westströmung Anfang und Ende Dezember sowie nach Mitte Januar teilweise oder gänzlich fehlte, kühlte es sich sofort deutlich ab. Allerdings hatten Nord- und Ostsee die Wärme des Jahres 2014 gespeichert und milderten die Kälte, so dass die von Nordströmungen dominierten kurzen Abschnitte keine sehr strengen Fröste brachten. Man erkennt in der Abbildung 3 eine etwa 60ig- bis 80ig- jährige Schwankung mit auffälligen Maxima um 1915 und 1990. Ursache hierfür ist die sogenannte NAO („Nordatlantische Oszillation“), ein Maß für das Luftdruckgefälle zwischen dem südlichen Westeuropa (Portugal bis Azoren) und dem nördlichen Westeuropa (Island). Bei hohen, positiven NAO- Werten steht einem kräftigen „Azorenhoch“ ein kräftiges „Islandtief“ gegenüber, und es entwickelt sich eine lebhafte Westströmung, die sich öfters bis nach Mitteleuropa durchsetzen kann. Sind Azorenhoch und Islandtief schwächer oder fehlen ganz, so stellen sich in Mitteleuropa mehr oder weniger kalte Nord- bis Ostlagen, Zentrallagen oder im Winter nicht immer zu milde Südlagen ein- es ist dann also mit erhöhter Wahrscheinlichkeit kälter, als bei „Westwetter“.

Der Blick auf zwei für diesen Winter typische Wetterlagen zeigt die gegensätzlichen Verhältnisse:

Abb. 10: Am 28. Dezember 2014 (Quelle: UKMO, links) reichte ein Hoch bis nach Island. Das „normale“ Island- Tief, welches häufig im Zusammenspiel mit dem Azorenhoch“ mildes Westwetter bringt, fehlte. Dafür lag ein Tief im nördlichen Mittelmeerraum. Die von dieser Konstellation erzeugte Kältewelle dauerte nur kurz und machte schon bald der rechts dargestellten Situation Platz. Zwischen einem kräftigen „Azorenhoch“ und tiefem Luftdruck über dem Nordmeer strömte am 09. Januar 2015 milde Luft nach Mitteleuropa.

Die Abbildung 11 verdeutlicht, dass die NAO in den milden Phasen Mitte Dezember und Mitte Januar stark positive Werte aufwies:

Abb.11: Verlauf der NAO in den vergangenen Monaten. Insgesamt überwogen im Winter 2014/15 positive NAO- Werte; die 2 deutlichsten Positiv- Phasen Mitte Dezember und Mitte Januar passen genau zu den mildesten Witterungsabschnitten. Die kältesten Perioden des Winters (Ende Dezember sowie Monatswechsel Januar/Februar) fielen in Phasen mit geringeren, teils sogar negativen NAO- Werten.

Bei der Frage, was die NAO und damit die Westlagenhäufigkeit steuern könnte, stößt man neben globalen Ursachen wie El Nino und anderen Telekonnektionen, auf welche hier nicht eingegangen wird, unweigerlich auf die AMO und das Verhalten des arktischen Meereises. Die AMO („Atlantische Mehrzehnjährige Oszillation) ist ein Maß für die Wassertemperaturschwankungen im zentralen Nordatlantik. Sie schwankt in einem etwa 50ig- bis 80ig- jährigen Zyklus; wobei das letzte Maximum in den 2000er Jahren lag; aktuell scheint diese positive AMO- Phase zu enden. Weil sich die Häufigkeit der westlichen Lagen aber tendenziell spiegelbildlich zu den AMO- Werten verhält, wird die aktuelle leichte Häufigkeitszunahme der Westlagen nach ihrem Minimum der frühen 2000er Jahre plausibel. Mehr über den interessanten Zusammenhang zwischen AMO, Großwetterlagen und Deutschland- Temperaturen unter http://www.eike-klima-energie.eu/news-cache/im-takt-der-amo-und-der-nao-1-das-haeufigkeitsverhalten-der-grosswetterlagenund-dessen-auswirkungen-auf-die-deutschland-temperaturen/ und http://www.eike-klima-energie.eu/news-cache/im-takt-der-amo-und-der-nao-2-das-haeufigkeitsverhalten-der-grosswetterlagenund-dessen-auswirkungen-auf-die-deutschland-temperaturen/ sowie http://www.eike-klima-energie.eu/news-cache/im-takt-der-amo-und-der-nao-3-das-haeufigkeitsverhalten-der-grosswetterlagen-und-dessen-auswirkungen-auf-die-deutschland-temperaturen/

Die Abbildung 12 illustriert den recht eindrucksvollen, inversen Zusammenhang zwischen AMO und „Westwetter“ im Winter:

Abb.12: Während der AMO- Positivphasen (spätes 19. Jahrhundert, kurz vor der Mitte des 20. Jahrhunderts und späte 1990er bis frühe 2000er Jahre) gab es im Winter tendenziell etwas weniger westliche Lagen in Mitteleuropa.

Bei AMO- Warmphasen wird mehr Wärme in die Arktis eingetragen. Die minimalen Eisausdehnungen und die geringere Westlagenhäufigkeit der 2000er Jahre „passen“ recht gut zum AMO- Maximum. Genaueres Zahlenmaterial zur Eisausdehnung liegt leider erst seit 1979 vor (Einführung der flächendeckenden, satellitengestützten Überwachung). Zumindest in diesem relativ kurzen Zeitraum von 35 Jahren bestand ein deutlicher Zusammenhang zwischen der AMO und der Fläche des winterlichen Arktis- Meereises:

Abb. 13: Mit steigenden AMO- Werten nahm die von Meereis bedeckte Fläche deutlich ab.

Es gibt deutliche Hinweise, dass dieser Zusammenhang auch langfristig besteht; so wurde in den 1930er Jahren, also während der letzten AMO- Positivphase, ebenfalls ein Meereisrückgang sowie vor allem ein starkes Abschmelzen der Grönland- Gletscher beobachtet. Näheres dazu unter http://www.eike-klima-energie.eu/climategate-anzeige/fotos-aus-den-dreissiger-jahren-groenland-gletscher-haben-sich-damals-schneller-zurueck-gezogen-als-heute/ Als mit den kalten Winter 2009/10 und 2012/13 die Vertreter der „globalen Erwärmung“ in arge Erklärungsnöte gerieten, wurde eiligst die Mär vom „schmelzenden Arktiseis, welches die großräumige normale Zirkulation stören und somit Winterkälte in den gemäßigten Breiten begünstigen sollte“, in die Welt gesetzt. Besonders die immer geringere Eisausdehnung am Ende des Spätsommers (September) sollte kalte Winter verursachen; in der Realität der Graphik 14 zeigt sich jedoch kein Zusammenhang:

Abb. 14: Die Ausdehnung des arktischen Meereises im September hat keinerlei Einfluss auf die Wintertemperaturen in Deutschland. Auch bei Betrachtung anderer Zeiträume (Herbsteisbedeckung zu Winter oder im Direktvergleich Wintereis zu Wintertemperaturen) ergibt sich kein Zusammenhang.

Die tägliche Meereisbedeckung der Nordhalbkugel kann man hier abrufen: http://ocean.dmi.dk/arctic/icecover.uk.php Eigentlich sollte der Nordpol doch ab Mitte 2013 eisfrei sein? War da nicht eine Vorhersage, unter anderem vom Ober- Alarmisten Al Gore? Näheres zu dieser Fehlprognose bei http://info.kopp-verlag.de/hintergruende/enthuellungen/alex-newman/al-gore-sagte-voraus-2-13-sei-die-arktis-voellig-eisfrei-stattdessen-ist-die-eisschicht-um-die-ha.html

Trotzdem hat das komplizierte und noch weiter zu erforschende Zusammenspiel zwischen Meeresströmungen, AMO, Meereis und Großwetterlagen mit hoher Wahrscheinlichkeit großen Einfluss auf Wetter, Witterung und Klima in Mitteleuropa, wobei es aber keine einfachen Erklärungen gibt. Ist mehr Eis vorhanden, so ist die Arktis kälter; es besteht dann ein höheres Temperaturgefälle zwischen niederen und höheren Breiten, was die Entstehung von Westlagen tendenziell begünstigen könnte. Allerdings spielen dabei auch andere Einflussgrößen, besonders die Sonnenaktivität, eine wesentliche Rolle. Auch könnte die Meereisbedeckung die Häufigkeit nördlicher Luftströmungen im Winter über Mitteleuropa beeinflussen (wegen des geringen Betrachtungszeitraumes ist der gefundene Zusammenhang jedoch relativ unsicher):

Abb.15: Mäßiger, negativer Zusammenhang zwischen arktischer Meereisbedeckung und der Häufigkeit nördlicher Luftströmungen in Mitteleuropa. Bei geringerer Eisbedeckung scheint die Häufigkeit nördlicher Strömungen im Winter zuzunehmen; die große Streuung verbietet jedoch sichere Aussagen.

Ob ein gefundener deutlicher Zusammenhang zwischen arktischer Meereisbedeckung und den Deutschland- Lufttemperaturen (weniger Eisfläche, mehr Wärme) im Frühling, besonders im April, mehr als nur eine „Scheinkorrelation“ ist, muss noch untersucht werden. Denn seit 1979 nahm auch die Globalstrahlung in Deutschland zu, vor allem im April, welche einen viel dominanteren Einfluss auf die Frühlingstemperaturen hat, als das weit entfernte Arktiseis.

Zusammenfassung und Ausblick

Häufige Westwetterlagen im Dezember und Januar hatten einen relativ milden Winter zur Folge. Die wieder leicht fallenden Wassertemperaturen im zentralen Nordatlantik (Ende der AMO- Positivphase) verursachten diesmal und vermutlich in auch naher Zukunft eine leichte Zunahme westlicher Luftströmungen.Es sind also natürliche, sehr komplexe Ursachen, auf welche dieser relativ milde Winter zurückzuführen ist. Die nach dem Warmjahr 2014 sehr hohen Wassertemperaturen der Nord- und Ostsee begünstigten die milde Witterung zusätzlich. Langfristig schwanken die Wintertemperaturen periodisch. Die Anzahl der Schneedeckentage blieb trotz dieser periodischen Schwankungen langfristig unverändert; die oftmals geäußerte Befürchtung einer „katastrophalen, unumkehrbaren Klimaerwärmung“ lässt sich anhand dieser Fakten nicht bestätigen.

Abschließend soll noch eine Bewertung der für den Ablauf dieses Winters getroffenen Temperaturprognosen (Bezugsbasis: CLINO- Werte 1981 bis 2010) erfolgen. Um eine objektive Bewertung zu gewährleisten, wurden nur Prognosen untersucht, die spätestens eine Woche nach Beginn des meteorologischen Winters (Anfang Dezember) vorlagen. Die Bilanz fällt ernüchternd aus. Von 7 untersuchten Prognosen waren 2 völlig mangelhaft, 3 ungenügend, und selbst die 2 halbwegs zutreffenden kamen wegen der sehr allgemein formulierter Aussagen nicht über die Schulnote 4 hinaus. Angesichts dieses bescheidenen Ergebnisses schon für nur wenige Monate im Voraus stellt sich die Frage nach der Sinnhaftigkeit der langfristigen Klimaprognosen. Die folgende Tabelle mit den 7 Prognosen ist eine kleine Premiere. Denn während bislang vor dem Winter die meisten Prognosen mit viel Getöse verkündet, aber kaum hinterfragt wurden, kann hier jedermann die Ergebnisse kritisch betrachten.

Stefan Kämpfe, unabhängiger Natur- und Klimaforscher

Josef Kowatsch, unabhängiger Natur- und Klimaforscher

Aktualisierung: Im anhängenden PDF können alle Graphiken eingesehen werden. Auch die Tabelle am Schluss des Artikels ist dort gut leserlich!

Aktualisierung 2: Im mdr hat Wettermoderator Thomas Globig Teile dieser Graphiken gezeigt:

http://www.mdr.de/mediathek/fernsehen/video255968_boxIndex-1_zc-51f8dc33_zs-2d7967f4.html

PDF:

Related Files




Transformation der Weltwirtschaft toppt die UN-Klima-Agenda

Anfang Februar hat eine hochrangige UN-„Klimawandel“-Funktionärin offiziell verkündet, dass die Organisation aktiv daran arbeitet, die gesamte Weltwirtschaft „absichtlich zu transformieren“. Sie ist auch nicht das einzige Mitglied der UN-Klimaelite, das diese Priorität einräumt. Es bestehen kaum Zweifel daran, dass dies von Anfang an das Endziel des erfundenen Klima-Alarms war.

Auf einer Pressekonferenz hat die oberste Sekretärin des United Nations Framework Convention on Climate Change (UNFCCC) Christiana Figueres (unten) erklärt: „Dies ist wahrscheinlich die schwierigste Aufgabe, die wir uns je selbst gestellt haben. Sie zielt darauf ab, das Modell der wirtschaftlichen Entwicklung zu transformieren, zum ersten Mal in der Geschichte der Menschheit“.

Unter Bezug auf einen sog. „Lima-Entwurf“ eines internationalen Vertrages, der auf dem Klimagipfel in Paris Ende dieses Jahres übernommen werden soll, wies Figueres darauf hin, dass es „zusätzlich zu dem Vertrag gegenwärtig Aktionen bzgl. des Klimawandels im Gange sind, von jetzt an bis zum Jahr 2020, und zwar die Finanzierungs-Pakete und die sog. ,Intended National Determined Conditions’ (INDCs).” [etwa: beabsichtigte national festgesetzte Bedingungen]

Sie beschrieb INDCs als „Aktionen, die Länder unter einem globalen Übereinkommen ab dem Jahr 2020 durchzuführen beabsichtigen und die vor Beginn der Konferenz umrissen werden müssen“. Unter den wesentlichen Gebilden, die „ihre Karten bereits aufgedeckt haben“, sind die USA, die Europäische Union und China.

Ja, unglücklicherweise hat Präsident wirklich seine Karten offengelegt – und er hat eindeutig kein Gewinnerblatt auf der Hand. Sei jüngstes Übereinkommen mit Chinas Staatschef Xi Jinping opfert in naher Zukunft die Energiesicherheit und das wirtschaftliche Wohlergehen in den USA vagen und fernen Versprechungen.

Hinsichtlich der Formulierungen des Einverständnisses stimmt Xi Jinping zu, mindestens 20% der chinesischen Energieerzeugung auf nichtfossile Treibstoffe umwandeln „zu wollen“ und den Spitzenausstoß fossiler CO2-Emissionen im Jahre 2030 zu erreichen … von welchem Zeitpunkt an die Emissionen sinken sollen. Zufälligerweise erfolgt diese Hinwendung zu nichtfossilen Treibstoffen prinzipiell von Kohle zu Kernkraft – nicht zu Windmühlen und Sonnenstrahlen – und ist etwas, das man dort schon seit Längerem vorhatte.

Im Gegenzug dieser Nicht-Zugeständnisse versprach unser Chefunterhändler, dass die USA bis zum Jahr 2025 ihre CO2-Emissionen um bis zu 28% unter die des Jahres 2005 drücken wollen. Das wäre eine Verdoppelung des jährlichen Reduktionszieles, dass er für die Vorschriften-Agenda der EPA im Jahre 2009 gesetzt hatte.

Figueres empfahl eine „Notwendigkeit, maximale Ambitionen hinsichtlich kollektiver INDCs zu erreichen, weil das, was wir die ganze Zeit tun müssen, die Schließung der Lücke ist zwischen dem, wo wir laut der Wissenschaft enden sollen und dem, wo wir derzeit tatsächlich stehen … Aber der Punkt lautet, werden wir am Endziel sein? Ich würde mit ,ja‘ antworten“.

Was Figueres den Teilnehmern der Brüsseler Pressekonferenz über die primäre UN-Agenda gesagt hat, ist schließlich überhaupt nichts Neues. Wie der IPCC-Funktionär Ottmar Edenhofer (unten), der als Vizevorsitzender einer der wichtigsten IPCC-Arbeitsgruppen fungierte, offen in einer deutschen Publikation im November 2010 feststellte: „Wir müssen uns von der Illusion verabschieden, dass Klimapolitik Umweltpolitik ist. Stattdessen geht es in der Klimawandel-Politik darum, dass wir de facto das Weltvermögen umverteilen“ [Rückübersetzung aus dem Englischen].

Auf dem ersten Weltklimagipfel der UN (1992) in Rio de Janeiro hat der ehemalige US-Senator Timothy Wirth (Demokratische Partei Colorado), der damals die Clinton-Gore-Administration als US-Unterstaatssekretär für globale Angelegenheiten vertrat, argumentiert, dass schlechte Wissenschaft sich nicht in vorgefasste politische Agenden einmischen sollte.

Vor dem Auditorium führte er aus: „Wir müssen das Pferd ,Globale Erwärmung‘ reiten. Selbst wenn die Theorie der globalen Erwärmung falsch ist, tun wir doch das Richtige hinsichtlich Wirtschafts- und Umweltpolitik“. (Wirth ist derzeit Leiter der UN-Foundation, die sich dafür stark macht, hunderte Milliarden Dollar der US-Steuerzahler an unterentwickelte Länder zu geben, um diesen zu helfen, den Klimawandel zu bekämpfen).

Sogar noch früher hat im Jahre 1988 die kanadische Umweltministerin Christine Stewart Herausgebern und Reportern des Calgary Herald gesagt: „Egal ob die Wissenschaft der globalen Erwärmung durchweg künstlicher Natur ist … Klimawandel bietet die größte Gelegenheit, Gerechtigkeit und Gleichheit in die Welt zu bringen“.

Bei seinem Rückzug aus der American Physical Society aus Protest gegen die Haltung der Organisation zur alarmistischen globalen Erwärmung hat Physik-Nobelpreisträger Ivar Giaever (unten) diese als „Pseudowissenschaft“ bezeichnet. Er nutzte auch die Gelegenheit, die Nobel-Komitees zu verhöhnen, die Al Gore und dem IPCC den Friedensnobelpreis verliehen hatten unter Charakterisierung des „Klimawandels“ als eine neue Religion.


Die finale Erkenntnis lautet, dass nahezu alles dieses Unsinns des Klimaalarms auf spekulativen Theorien basiert, auf unzuverlässigen Daten und nachgewiesenermaßen falschen Modellvorhersagen. Und welche erlösenden Lösungen werden dringend gefordert?

Wir müssen den UN massenhaft Geld zur Umverteilung überlassen; den Verbrauch fossiler Treibstoffe einstellen zugunsten schwer subventionierter, aber kraftloser, unzuverlässiger und kostspieliger „freier“ und „erneuerbarer“ Alternativen; wir müssen die Regierungsmacht wachsen lassen, die Vorschriften verschärfen und die Säckel kapitalistisch orientierter politischer Kampagnen füllen.

Bei nichts davon geht es wirklich darum, den Planeten vor dem vom Menschen verursachten Klimawandel zu schützen. Ging es niemals.

Link: http://www.cfact.org/2015/02/23/world-economy-transformation-tops-un-climate-agenda/

Übersetzt von Chris Frey EIKE