1

Spitzen-Ingenieure bei Google: Erneuerbare Energie FUNKTIONIERT EINFACH NICHT!

Beide Männer sind PhDs bei Stanford. Ross Koningstein hat im Bereich Raumfahrt als Ingenieur gearbeitet, David Fork im Bereich angewandte Physik. Bei beiden handelt es sich nicht um irgendwelche Kerle, die in Websites oder Datenanalysen herumfuchteln oder andere „Technologien“ dieser Art vollführen, sondern um wirkliche Ingenieure, die schwierige mathematische und physikalische Probleme verstehen und selbst in diesem angesehenen Unternehmen sehr weit oben stehen. Das Duo war bei Google beschäftigt am RE<C-Projekt, bei dem es darum ging, die Technologie der Erneuerbaren bis zu einem Punkt zu verbessern, an dem damit billigere Energie erzeugt werden kann als mit Kohle.

RE<C ist gescheitert, und Google hat das Projekt nach vier Jahren beendet. Jetzt haben Koningstein und Fork die Ergebnisse erklärt, zu denen sie nach einer langen Periode der Anwendung ihrer bemerkenswerten technologischen Erfahrung auf Erneuerbare gekommen waren, und zwar in einem Artikel im IEEE Spectrum.

Die beiden Männer schreiben:

Zu Beginn des Projektes RE<C haben wir noch die Haltung vieler unentwegter Umweltaktivisten geteilt: Wir fühlten, dass mit ständigen Verbesserungen der heutigen Technologie Erneuerbarer unsere Gesellschaft einer katastrophalen Klimaänderung entgehen kann. Wir wissen jetzt, dass dies eine falsche Hoffnung ist…

Die Technologie Erneuerbarer kann einfach nicht funktionieren: wir brauchen einen total anderen Ansatz.

Man sollte erwähnen, dass RE<C nicht auf konventionelle Erneuerbare wie Solar, Windparks, Gezeiten- und Wasserkraftwerke usw. beschränkt war. Man forschte intensiv auch nach radikaleren Vorstellungen wie Solar- und Geothermie, sich „selbst aufbauende“ Windtürme und so weiter und so fort. Es gibt diesbezüglich keine Endstation für Gläubige an Erneuerbare.

Koningstein und Fork stehen nicht allein. Immer wenn sich jemand mit grundlegenden Kenntnissen in Mathematik und Physik mit dem Gedanken einer vollständig von Erneuerbaren angetriebenen zivilisierten Zukunft der Menschheit befasst und dabei offen für alles ist, kommt er gewöhnlich zu dem Ergebnis, dass dies einfach nicht machbar ist. Die bloße Erzeugung des relativ kleinen Anteils unseres Energieverbrauchs, den wir in Form von Strom konsumieren, ist schon jetzt eine unüberwindlich schwierige Aufgabe für Erneuerbare: Die Erzeugung großer Mengen zusätzlicher Energie, die wir heute auf der Grundlage fossiler Treibstoffe erzeugen, ist nicht einmal ansatzweise plausibel.

Selbst wenn man alle Transporte, Industrien, Heizungen und so weiter auf Strom umstellen sollte, würde so viel erneuerbare Erzeugung und Speicherausrüstung gebraucht, dass sich ganz neue Anforderungen für Stahl, Beton, Kupfer, Glas, Kohlefasern, Neodym, Verschiffung usw. usw. ergeben würden. All diese Dinge erfordern ungeheure Mengen Energie bei der Herstellung: weit entfernt vom Erreichen massiver Energieeinsparungen, was implizit in vielen Plänen bzgl. einer Erneuerbaren-Zukunft enthalten ist, würden wir viel mehr Energie brauchen, was noch größere Windparks bedeuten würde – und auch viel mehr Rohstoffe und Energie, um diese herzustellen und zu warten, und so weiter. Die Größenordnung des Gebildes wäre so gewaltig, wie es die menschliche Rasse noch nie angegangen ist.

In Wirklichkeit würde Energie lange vor Erreichen dieses Stadiums horrend teuer werden – das heißt, dass alles horrend teuer werden würde (schon das gegenwärtige Erneuerbaren-Niveau von weniger als 1% in UK hat die Kosten deutlich in die Höhe getrieben; hier). Dies wiederum hätte zur Folge, dass jeder verarmen und das wirtschaftliche Wachstum zum Stillstand kommen würde (die ehrlicheren unter den grünen Hardlinern geben dies auch offen zu). Dies jedoch bedeutet, dass so teure Luxusbedingungen wie wohlhabende Staaten und Pensionäre, ein angemessenes Gesundheitswesen (man achte auf jene Pandemie!), vernünftige öffentliche Dienstleistungen, bezahlbare erzeugte Güter und deren Transport, gesunde persönliche Hygiene, Weltraum-Programme (man achte auf den Meteor!) etc etc alle aufgegeben werden müssten – nichts von diesen Dingen ist ohne wirtschaftliches Wachstum nachhaltig.

Niemand möchte das. Und doch – unerschütterliche Ingenieure wie Koningstein und Fork sowie viele andere bleiben davon überzeugt, dass die Gefahren einer auf Kohlenstoff basierenden Erwärmung real und massiv sind. Tatsächlich beziehen sich die beiden immer wieder auf den NASA-Wissenschaftler [NASA boffin] James Hansen, der mehr oder weniger der Daddy der modernen Ängste bzgl. der globalen Erwärmung ist. Sie sagen wie er, dass wir unsere Kohlenstoffemissionen nicht nur deutlich zurückfahren, sondern auf nahe Null reduzieren müssen (und außerdem eine Menge CO2 aus der Luft holen müssen durch solche Mittel wie das Anpflanzen von Wäldern).

Wie also kann das erreicht werden?

Koningstein und Fork sagen, dass die einzige Hoffnung der Menschheit ein neues Verfahren der Energieerzeugung ist, welches Energie zur Verfügung stellen kann – idealerweise „regelbar“ (d. h. sie kann wahlweise an- und ausgeschaltet werden) und/oder „kleinräumig“, wobei die Energie nahe den Orten erzeugt wird, wo sie gebraucht wird) – zu Kosten, die unter denen von Kohle oder Gas liegen. Sie schreiben:

Gebraucht werden Null-Kohlenstoff-Energiequellen, die so billig sind, dass die Betreiber von Kraftwerken und Industrieunternehmen gleichermaßen eine wirtschaftliche Rationale haben, auf diese Energieerzeugung innerhalb der nächsten 40 Jahre umzustellen…

Stufenweise Verbesserungen bestehender Technologien ist nicht genug: wir brauchen etwas wirklich Neues.

Unglücklicherweise wissen die beiden Männer nicht, wie so etwas aussehen könnte, oder sie sagen es nicht. James Hansen jedoch sagt es: Kernkraft.

Derzeit ist Kernkraft natürlich nicht billig genug, um eine starke wirtschaftliche Rationale zu bieten. Das liegt daran, dass deren Kosten enorm in die Höhe getrieben worden sind, als sie sonst wären, und zwar durch die Einführung lähmend hoher Gesundheits- und Sicherheitsstandards. Bei den bislang drei „Katastrophen“ – Three Mile Island, Tschernobyl und Fukushima beträgt die wissenschaftlich verifizierte Todesrate aller drei Unfälle Null, 56 und Null: Eine Bilanz, um die sie andere Energie-Industrien einschließlich Erneuerbarer nur beneiden können*).

Die Kosten für Kernkraft wurden auch künstlich in die Höhe getrieben durch das Nicht-Problem des „Abfalls“. In UK zum Beispiel (hier) muss jedweder „Kernkraft-Abfall höherer Aktivität“ teuer in einer sicheren speziellen Einrichtung gelagert werden und kann nur dann – vielleicht – endgültig entsorgt werden, wenn sich eine extrem teure geologische Formation findet. Nicht weniger als 99,7% dieses „Abfalls“ sind tatsächlich bereits mittelschwer aktiv, was bedeutet, dass es de facto überhaupt nicht radioaktiv ist: Man kann theoretisch eine halbe Tonne normalen Dreck in solchen „mittelaktiven Kernkraft-Abfall“ verwandeln, wenn man eine vollständig legale Armbanduhr mit Leuchtziffern darin begräbt. (Wenn man das innerhalb einer lizensierten Kernkraft-Einrichtug tut, würde dieser Dreck lächerlicherweise zu teurem „Abfall“ werden).

Der verbleibende Rest von 0,003 von „Kernkraft-Abfall“ ist tatsächlich gefährlich, kann aber fast vollständig in Treibstoff recycelt und erneut verwendet werden. Abfall muss also wirklich kein Thema sein.

Es kann keinen Zweifel daran geben: Falls Kernkraft genauso gefährlich wäre pro Einheit erzeugter Energie wie beispielsweise die Gasindustrie* – geschweige denn das furchtbar gefährliche Kohlegeschäft – wäre es wirklich zu billig zu messen und das Problem der Herren Koningstein und Fork wäre für sie bereits vor Jahrzehnten gelöst worden: niemand mit Zugang zu Uran würde sich heute noch mit fossilen Treibstoffen abgeben außer für ganz bestimmte Zwecke – und es gäbe keinen Grund, warum „Sorgenkinder“-Nationen nicht sicher versorgt werden können (hier). Würde uns das Uran ausgehen? Nicht vor dem Jahr 5000 (hier)!

Billige Energie löst außerdem viel mehr Probleme als lediglich Kohlenstoff-Emissionen. Falls Energie billig ist, ist es auch Frischwasser (Tatsache ist, dass wir bereits an diesem Punkt sind, wenngleich viele Menschen es ablehnen, das zuzugeben und es bevorzugen, Frischwasser als eine Art seltene und begrenzte Ressource hinzustellen). Falls Frischwasser billig ist, wäre ein großer Teil des Planeten noch besser bewohnbar oder erträglich als es bei teurer Energie der Fall ist: und das ist wirklich ein Spielregel-Veränderer für die menschliche Rasse.

Und als vorteilhafter Nebenaspekt würden wir jetzt schon über sichere Raumschiffe verfügen, die in vernünftigen Zeiträumen angemessene Mengen nützlichen Zeugs zu vernünftigen Preisen transportieren könnten. Wir wären in der Lage, dauerhafte Basen auf anderen Planeten zu errichten – zum Beispiel um Uran abzubauen, sollten wir je an den Punkt kommen, an dem die irdischen Uranvorräte zur Neige gehen.

Selbst wenn man nicht absolut von der drohenden Gefahr einer durch Kohlenstoff angetriebenen Erwärmung überzeugt ist – die Tatsache dass wir aus unserem freien Willen heraus entschieden haben, billige und reichlich verfügbare Energie samt sämtlicher dadurch bewirkten Wunder nicht zu erlangen – das ist eine schlimme menschliche Tragödie. Niemand weiß, wie viel Not durch eine Klimaänderung in der Zukunft ausgelöst werden kann, aber man kann mit Sicherheit sagen, dass sehr viel Elend dem Fehlen billiger Energie, Wasser, Nahrung und dem Wohnen in angenehmen Gebieten geschuldet ist während der letzten über 60 Jahre.

Wie auch immer, die Wahrheit ist, dass die neue Technologie, von der Koningstein und Fork träumen, bereits existiert – aber sie wurde uns gestohlen durch närrische Befürchtungen, in vielen Fällen aufgebläht durch unehrliche Aktivisten. Selbst wenn jemand mit einem anderen Weg der Erzeugung schrecklich billiger Energie aufwarten würde, gibt es keine Garantie, dass die ignoranten Angstschürer der Welt diesen Weg nicht unterdrücken würden. Es gäbe fast mit Sicherheit eine mächtige Anwendung in Waffen, genauso wie in Kernkraft; wir reden hier schließlich über Energie.

Koningstein und Fork glauben, dass die Antwort auf die Kohlenstoff-Bedrohung eine Neuverteilung der R&D-Finanzierung ist, um Hochrisiko-Technologien ausfindig zu machen. Aber Tatsache ist, dass es möglicherweise sinnvoller ist, Geld dafür auszugeben sicherzustellen, dass die Menschen nicht das Wahlalter erreichen, ohne grundlegende Mathematik und Tatsachen über Risiko und Energie zu verstehen.

Man müsste dieses Geld nicht von R&D nehmen. Man könnte stattdessen einige der gewaltigen und weiter wachsenden Geldsummen (hier) in andere Dinge stecken, die gegenwärtig in die Anschaffung geringer Mengen lächerlich teurer erneuerbarer Energie fließen.

Alles in allem und egal, wie das große Umfeld aussieht: Es obliegt jetzt den besten und untadeligsten Umwelt-Autoritäten zu erkennen, dass erneuerbare Energie niemals das propagierte Ziel erreichen wird. Folglich – egal wo, was und wie – kann keinerlei Sinn darin stecken, damit weiterzumachen.

Nichts davon ist natürlich neu. Diese Realitäten wurden absichtlich von der regierenden Klasse in UK und anderen viele Jahre lang ignoriert. Aber die britischen/amerikanischen Regierungsklassen haben sich so fatal den Erneuerbaren verschrieben, dass sie oftmals willens zu sein scheinen, auf Google zu hören, selbst dann, wenn sie auf niemanden sonst hören.

So, und vielleicht hat jetzt dieser Beitrag einige Auswirkungen.

Fußnote

*Die Explosion der Gasbohrstelle Piper Alpha im Jahre 1988 hat allein so viele Todesopfer gefordert wie die Kernkraft-Industrie in ihrer gesamten Geschichte. Bizarrerweise hat aber keine Nation den Gasverbrauch eingeschränkt.

Link: http://www.theregister.co.uk/2014/11/21/renewable_energy_simply_wont_work_google_renewables_engineers/

Übersetzt von Chris Frey EIKE




Versauerung der Ozeane? Geo-chemisch unmöglich !

Voraussetzung:  Zusammensetzung des Magmas, der Gesteine, der Sedimente

Die Befürworter eines angeblich durch die anthropogenen Emissionen von CO2 ver­ur­sachten Kli­mawandels bekräftigen ihr Modell (Projekt), das schon auf falschen Annahmen beruht, zusätzlich mit einer Versau­erung der Ozeane. Das Argument hat Karriere machen kön­nen, weil ihren Benut­zern entweder die geo-che­mischen Grund­kenntnisse fehlen oder ihr Zweck ihre Mittel hei­ligt. Die Fakten beweisen jedoch, dass eine Versauerung der Oze­ane durch den Eintrag von CO2 aus der Atmosphäre grundsätzlich nicht möglich ist – die geo-chemischen Voraussetzungen sorgen für ein Übergewicht der basischen Komponen­ten, denn 96,1% der Gesteine der Erdkruste bestehen aus den folgenden acht 8 Elemen­ten, mit Natrium und Ka­lium als Alkali- und Kalzium und Magnesium als Erdalkali-Metalle (Anteile in Gewichtspro­zent):

49,4% Sauerstoff (O)                   

25,8% Silizium (Si)                 

  7,5% Aluminium (Al)                             

  4,7% Eisen (Fe)                                                    

  3,4% Kalzium (Ca)

  2,6% Natrium (Na)   

  2,4% Kalium (K)                   

  2,0% Magnesium (Mg)

Diese Zusammensetzung lässt erkennen, dass die Gesteine überwie­gend aus Silika­ten beste­hen. Je nach den verfügbaren Elementen haben sich meh­rere Gruppen von Sili­kat­mineralen gebildet. Sie bestehen aus ihrer negativ gelade­nen Anionenfamilie (Si­xOy) und den positiv geladenen Kationen Al, Fe, Ca, Na, K und Mg. Ein Ver­treter der Feld­spate ist z.B. der Albit (Na3AlSi3O8), ein Ver­treter der Olivine ist der Fayalith  (Ca2SiO4).

Etwa die Hälfte der Kationen gehört zu den Alkali- und Erdalkalimetallen, und beide Grup­pen sind starke Basenbildner, besonders die Alkalimetalle Kalium und Natrium. Starke Säurebild­ner haben dagegen nur einen sehr kleinen Anteil – zum Beispiel be­trägt er für Chlor nur 0,2% .

Sobald Gesteine an der Oberfläche liegen, verwittern sie. Der dabei entstehende Ge­steins­schutt wird über die Erosion der Flüsse als Kies oder Sand oder Ton in die Meere transportiert und dort abgelagert. Der Gesteinsschutt enthält auch lösliche Minerale. Vom Niederschlags­wasser werden sie aufgelöst und gelangen – oft mit Zwischenstatio­nen im Grundwasser – schließlich über die Flüsse ebenfalls in die Meere.

Verwitterung, Erosion, Transport und Sedimentation sind kontinuierliche Prozesse. Je­des Jahr wer­den weltweit zig Milliarden Tonnen als Schwebfracht oder Geröll oder in gelöster Form flussab­wärts transportiert. Allein beim Mississippi sind es jährlich 341 Mio. Tonnen Schweb­fracht, 130 Tonnen Lösungsfracht und 40 Mio. Tonnen Sand und Geröll. 

In den Ozeanen bilden sich je nach Stoffangebot neue Verbindungen, beispielsweise die Kar­bonate mit der aus CO2 entstandenen Kohlensäure. Ob sie sedimentieren oder gelöst bleiben, richtet sich nach ihrer Löslichkeit:

  • Die Löslichkeit von Kalzium­karbonat (CaCO3 – Kalk) ist mit 0,014 g/l klein, so dass es als chemisches Sediment ausfällt. Deshalb ist in der geologi­schen Vergangenheit sehr viel Kalk entstanden.
  • Die Lös­lich­keit von Natrium­karbonat (Na2CO3 – Soda) ist mit 217 g/l groß, so dass es bei dem durchschnittlichen Salzgehalt des Meerwassers von 35 g/l immer in Lö­sung bleibt.  Die Lösung aus starker Nat­ronlauge und schwacher Kohlensäure ist ba­sisch, hat also einen pH*)-Wert  > 7.

*)     pH-Wert ist ein Maß für den sauren oder basischen Charakter einer wässrigen Lösung. pH-Werte   1 bis 7 kennzeichnen eine saure Lösung, pH-Werte 7  bis 14 eine basische.

 

pH-Wert der Ozeane

Der pH-Wert soll sich in den letzten Jahrzehnten von ca. 8,2 auf 8,1 erniedrigt haben. Diese Ab­nahme wird von den Befürwortern des Klimawan­dels als Zunahme der Versaue­rung ver­standen. Das ist doppelt falsch, denn einmal setzt das vor­aus, dass schon vorher eine Versaue­rung vorgele­gen hat, und zum ande­ren beginnt das saure Milieu erst bei pH < 7. Die Absen­kung von 8,2 nach 8,1 zeigt le­diglich eine geringe Abnahme der Alkalini­tät an, und damit außerdem die Tatsache, dass der pH-Wert der Meere  nicht konstant ist sondern veränderbar. 

Die zeitlichen und regionalen Schwankungen des pH-Wertes werden durch geogene Faktoren ver­ursacht, die nicht beeinflussbar sind:

  • Die Zusammensetzung und die Menge der von den Flüssen angelieferten Ver­witte­rungs­pro­dukte ändern sich, und damit auch die Menge der in Lösung angelieferten Al­kali- und Erd­alkali-Ionen.
  • Mit den Eis- und Warmzeiten variieren die globalen Temperaturen – beide schaf­fen im Meer­wasser jeweils eigene CO2-Kon­zentrationen.
  • Die Biosphäre der Ozeane, die Meeresströmungen und der untermeerische Vulka­nis­mus än­dern sich ebenfalls.

Wegen der Vormacht der basi­schen Elemente bleibt das Meerwasser trotz der Änderun­gen zwangsläufig immer im alkalischen Bereich, also oberhalb von pH = 7. Die Änderun­gen er­folgen zeitlich und regional unterschiedlich. Keiner kann wissen, wie viel höher oder niedri­ger die örtli­chen pH-Werte früher waren bzw. künftig sein werden.

CO2 in der Atmosphäre 

In der Politik und in der veröffentlichten Klimadiskussion wird dem CO2 soviel Beachtung und Wichtigkeit zugemessen, dass der Laie annehmen muss, sein Anteil an der Luft sei groß; selbst Abiturienten schätzen ihn schon mal auf 20%. Das Gegenteil ist der Fall, denn sein Anteil ist win­zig – CO2 ist ein Spurengas. Die Luft besteht zu ca. 78% aus Stickstoff (N), ca. 21% aus Sauerstoff (O), 0,9% aus Argon (Ar), und einem Rest von 0,05%, aus Gasen, an de­nen CO2 mit –  gegenwärtig – 0,04% beteiligt ist. In Diskussionen zum Klimawandel wird sein Anteil meist in ‚ppm’ angegeben, was ‚parts per million’ bedeutet – 0,04% sind 400 ppm.  

CO2 im Meer

CO2 ist im Wasser löslich. Die Löslichkeit wächst mit steigendem Druck und mit abnehmen­der Temperatur – sich erwärmendes Wasser gibt CO2 an die Atmosphäre ab, sich abkühlendes Wasser nimmt CO2 aus der Atmosphäre auf.. Je nach Wirksamkeit der korrigierenden Fakto­ren kann die im Wasser gelöste CO2-Menge seinen pH-Wert in geringem Maße beeinflussen.

Eine kurze Modellrechnung zeigt, dass zumindest die anthropogenen Emissionen keine Ver­änderung des pH-Wertes in den Ozeanen bewirkt haben, wenn er sich denn wirklich um den angeblichen Betrag von 0,1 zur sauren Seite hin verschoben haben sollte. Das ist jedoch unsi­cher, denn die Strömungen im Meer und die dadurch verursachten Durchmischungen beein­trächtigen die Zuverlässigkeit der Messwerte. Es würde bedeuten, dass allein durch den letz­ten Anstieg des CO2 in der Atmosphäre die H-Ionenkonzentration der Meere um ca. 30% zu­genommen hätte. Diese Zahl ergibt sich durch die logarithmische Definition des pH-Wertes

Von den menschengemachten CO2-Emissionen verbleiben vermutlich ca. 50% in der Atmo­sphäre, was pro Jahr zu einem Anstieg von knapp 2 ppm führt. Der Rest wird zu etwa glei­chen Teilen von den Ozeanen und der Biosphäre aufgenommen. Es gelangt also jährlich nicht mehr als 1 ppm CO2 in die Meere. Für die Auflösung des CO2-Eintrages steht mit dem Volu­men der Ozeane ein sehr großer Speicher zur Verfügung. Etwa das 50-fache der in der Luft befindlichen Menge soll sich z.Z. im Wasser befinden. Dies wären bei dem jetzigen CO2-Ge­halt der Luft von 400 ppm etwa 20000 ppm im Meer. Das ist noch nicht alles an CO2, denn zusätzlich treten ständig neue CO2-Mengen aus den CO2-emittierenden Schloten am Boden der Ozeane hinzu. Umgekehrt verbrauchen Algen und alle ande­ren Arten des Phyto-Planktons große Mengen von CO2 zu ihrer Ernährung, was die CO2-Verfüg­barkeit reduziert.

Auf der alkalischen Seite liefern die Flüsse große Mengen an alkali- und erdalka­lireicher Lö­sungs­fracht, und außerdem gibt es aus den unterseeischen Vulkanen die Aus­flüsse von Magma, die ebenfalls geschmolzene Alkali- und Erdalkalimetalle enthalten. Es sind also in großer Menge starke Basenbildner vorhanden, die schließlich die im Meerwasser vorhande­nen H-Ionen neutrali­sieren, und die wegen ihrer stärkeren Alkalinität die saueren Kompo­nenten domi­nie­ren und pH-Werte >7 erzeugen. 

Wer die biologischen, chemischen und physikalischen Grundla­gen berücksichtigt, weiß, dass der zuvor genannte Eintrag von 1 ppm pro Jahr keine Ver­sauerung verursachen kann. Oder kann sich irgend jemand vorstellen, dass in letzter Zeit der Eintrag von 1 ppm pro Jahr gegen­über der gewaltigen Menge an bereits vorhandenem CO2 eine Zunahme der H-Ionenkon­zentration um 30% bewirkt haben soll?

CO2 als biogener Gesteinsbildner

Die wichtige Funktion des im Meerwasser gelösten CO2 als Gesteinsbildner blieb hier unbe­achtet, denn sie wurde bereits in früheren Berichten behandelt, die im EIKE-Archiv zu fin­den sind.  Hier soll der Hinweis reichen, dass während der Hunderte von Millionen Jahren der CO2-Gehalt der At­mosphäre phasenweise sehr viel höher war als heute, was auch immer ei­nen höheren CO2-Gehalt der Ozeane bedingt hat. Der Entwicklung der Biosphäre hat das ge­nützt, beispielsweise mit dem wiederholten Wachstum von gewaltigen Korallenriffen schon vor 400 bis 380 Millionen Jahren in den Meeren der Devon-Zeit; der CO2-Gehalt der Atmo­sphäre betrug damals 2200 ppm – im Ver­gleich zu 400 ppm heute. Diese Riffe bilden die ‚Massenkalke’, die vielerorts in den deutschen Mittelgebirgen vorhanden sind – und für die Gewinnung von Kalk abgebaut werden.

Zusammenfassung

Ausschlaggebend für die stabile Alkalinität des Meerwassers ist folglich die grund­legende Tatsa­che, dass das Magma und die dann daraus entstehenden gesteinsbil­denden Mine­rale als Kationen der Silikate außer Eisen und Aluminium die stark basischen Alkali- und Erd­alkali-Elemente enthalten. Auch sie gelangen in gelöster Form ständig über die Flüsse in die Oze­ane. Die von ihnen bewirkte Alkalinität ist stärker als die Wir­kung der im Meer­was­ser gelös­ten zumeist schwachen Säuren, so dass ein ba­sischer pH-Wert resul­tiert. So­wohl die CO2-Übertritte aus der Atmosphäre in die Ozeane als auch das aus den (Mini-Vul­kan-)Schloten am Meeresboden auf­steigende CO2 sind zu schwach, als dass sie gegen die Menge der starken Basenbildner eine Versauerung der Ozeane er­reichen könn­ten. Die CO2-Lieferanten der Meere haben aber eine intensiv wachsende Biosphäre ermöglicht, die auch große Kalkstein-Vorkommen und Kohlenwasserstoff-Lagerstätten entstehen ließ.

Das Mo­dell einer Versauerung der Ozeane durch hö­here CO2-Konzentrationen der Atmo­sphäre wi­derspricht den naturgegebenen Fakten und sollte auf­gegeben werden.

Der Aufsatz kann auch als pdf aus dem Anhang herunter geladen werden

Related Files




BDEW und VKU stehen hinter den klimapolitischen Zielen der Bundesregierung und dem Umbau der Energiewirtschaft. –Opportunisten aller Länder vereinigt euch

Viele Mitbürger, die den Irrsinn der Energiewende erkennen und ihr aus guten Gründen ablehnend bis kopfschüttelnd gegenüber stehen, haben sich immer mal wieder gefragt, warum die betroffenen Unternehmen, ob als Erzeuger oder Verbraucher, dieser nur ideologisch begründeten Zerstörung ihrer Geschäftsmodelle von Staats wegen, in der Regel tatenlos zu sehen. Ja, oft noch schlimmer, sogar Beifall  klatschend, aber immer nach Subventionen gierend, mitmachen. 

Der Strom wird dramatisch teurer,  hunderttausende von hoch wertschöpfenden Jobs werden vernichtet und die Unternehmen und ihre Verbände tun wenig bis nichts um dieser Entwicklung entgegen zu treten. Warum?

Das Motiv ist Gier! Wie schon der Begründer des Sowjetreiches Wladimir Iljitsch Uljanow genannt Lenin klar erkannte ist sie das Motiv für dieses Verhalten. Und er kleidete diese Erkenntnis in die Worte:


„..Die Kapitalisten werden uns auch noch den Strick verkaufen, an dem wir sie aufhängen werden“.

Auf heute und die Energiewender übertragen heißt das:

Die Energiewende ist so konstruiert, dass sie bei den Gutmenschen Wohlgefühl und bei den finanzstarken Bürgern und Unternehmen schieren Opportunismus, verbunden mit Gier, erzeugt. 

Dazu ein besonders krasses Beispiel aus dieser Woche.

Wie erinnerlich, schlug jüngst Bundeswirtschaftsminister Gabriel den von den Grünen aller Parteien schon lange geforderten Einstieg in den Ausstieg aus der Kohleverstromung vor. Dies sollte mittels Absenkung der stromerzeugungsbedingten CO2 Emissionen um 22 Mio t bis 2020 geschehen. Was die Schließung diverser Kohlkraftwerke bedeutet. Großzügig will der Minister den Betreibern überlassen welche Kraftwerke das sein sollen, um "die ihnen auferlegte" Mengenreduktion zu erreichen – wie es souverän und hochherrschaftlich im Bürokratendeutsch des Originaltextes heißt. EIKE berichtete hier darüber. Nur um selber tags darauf dem rot-grünen schwedischen Ministerpräsidenten händeringend zu bitten, den Staats-Konzern Vattenfall daran zu hindern, die besonders CO2 intensive Braunkohleverstromung doch bitte hierzulande nicht einzustellen. Denn deren Strom würde hier dringendst gebraucht. Treffend überschreibt daher der Mediendienst "Deutsche Wirtschaftsnachrichten" seine unglaubliche Story dazu: Die Energie-Wende wird zum Fiasko für Deutschland

Die betroffenen Erzeuger mitsamt ihren Verbandsvertretern vom Bund deutscher Energie- und Wasserunternehmen (BDEW), geleitet von der Merkel-Vertrauten Hildegard Müller, und dem Verband kommunaler Unternehmen (VKU) waren dann zum Befehlsempfang -Dialog genannt- am 24. Nov. ins BMWi zum Minister geladen. Sie gelobten dort prompt Gehorsam mit schnellstmöglichem Vollzug:

Und so liest es sich dann in der eilends verbreiteten Presserklärung (hier) vom selben Tage (Auszüge, Hervorhebungen von mir):

Die Energiebranche hat im heutigen Gespräch im Bundeswirtschaftsministerium ihre Bereitschaft erklärt, die Gespräche über die Zukunftsfähigkeit des deutschen Kraftwerkparks und über die Erreichung des Energieeffizienz-Ziels sowie des nationalen Klimaschutzziels kurzfristig, konstruktiv und ergebnisoffen fortzuführen. BDEW und VKU stehen hinter den klimapolitischen Zielen der Bundesregierung und dem Umbau der Energiewirtschaft. ….dies gilt auch für die von Bundeswirtschaftsminister Gabriel vorgeschlagenen zusätzlichen 22 Millionen Tonnen CO2 und das 2020-Ziel..

Um dann jedoch sofort die Gelder einzufordern, die ihnen ein Überleben nach der opportunistischen Anpassung ermöglichen soll, d.h sie fordern offen Staatsknete vom Steuerzahler, kleiden das aber in gewundene, die Medien und Verbraucher erfolgreich irreführende, Worthülsen.

Denn, so heißt es weiter

„…die Branche hat deutlich gemacht, dass die gegenwärtig äußerst schwierige Lage im deutschen Kraftwerkspark ohne den notwendigen Gesamtrahmen keinen Spielraum für weitere einseitige Vorleistungen der Kraftwerksbetreiber zulasse.

Weil bei Verweigerung des geforderten "notwendigen Gesamtrahmen" die versteckte Drohung enthalten ist, evtl. doch die Gerichte wegen der angekündigten Enteignung anzurufen und man damit vielleicht unbotmäßig erscheinen könnte, wird verbal erneut Kotau geübt, jedoch verbunden mit einem „frechen“ Aber

„..Die Teilnehmer des Gesprächs haben gegenüber Bundesminister Gabriel ihre Bereitschaft geäußert, an einem klimafreundlichen Umbau des Kraftwerksparks, der auf wettbewerblichen Maßnahmen basiert, mitzuwirken. Sie haben ebenfalls auf die bedeutende Rolle der KWK für Effizienzsteigerungen und Klimaschutz hingewiesen und eine entsprechende Novellierung des KWK-Gesetzes eingefordert. Umfassende Reformvorschläge des Marktdesigns liegen seitens der Energiewirtschaft vor.

Das ist – hübsch in schillernde Worthülsen verpackt- eine knallharte Forderung nach Entschädigung.  Dabei stehen die Forderung nach Novellierung des KWK-Gesetzes und das so nett harmlos liberal wirkende Wort vom „Marktdesign“ schlicht für klare Planwirtschaft, wobei die größtenteils, wegen des Vorrangs der „Erneuerbaren“ oft nutzlos herumstehenden Kraftwerke, voll bezahlt werden müssen, um allein im Bereitschaftsfall, dann geringe Mengen, aber eben bedarfsgerecht, den dringend erforderlichen Strom zu liefern. Die Wirkung dieser Forderungen ist: Auf die schon ohnehin immensen Kosten der „Erneuerbaren“ kommen noch weitere immense Kosten dieser planwirtschaftlichen Lösung hinzu.  Denn für die Bereitstellung des lebensnotwendigen Stroms dürfen wir doppelt und dreifach zahlen. Obwohl einmal reichen würde, wie im Rest der Welt 

Doch das stört keinen dieser Verbandsvertreter, es ist Opportunismus pur!

Immerhin meldet sich auf der Verbraucherseite gelegentlich der BDI zu Wort und berichtet – wenn auch ziemlich verhalten – über die zehntausende von Jobs vernichtende Wirkung der jüngsten Vorschläge aus dem Bundeswirtschaftsministerium zur Abschaltung von Kohlekraftwerken.  Aber selbst dieses Argument beeindruckt kaum jemanden. „Klimaschutz“ und „Energiewende“ haben absoluten Vorrang

Sein viel kleineres Pendant, der Verband stromintensiver Industrien (VKI) [1] geht erst gar nicht so weit, obwohl er es besser wissen und können müsste. Er lobhudelt stattdessen bei jeder passenden und unpassenden Gelegenheit der Regierungspolitik für den „Klimachutz“ mittels Vernichtung konventioneller Stromerzeugungskapazitäten.

So liest man in einer Presserklärung des Verbandes vom November vorigen Jahres:

Essen, 13. November 2013 – Die Welt ruft in Warschau nach erweitertem Klimaschutz, CO2 spielt dabei die entscheidende Rolle. Eine „globale Chance“ hat dabei nur effizienter Klimaschutz, der möglichst viel CO2 zu niedrigsten Kosten mindert. „Deshalb heißt das Gebot der Stunde: grünes Licht für eine Politik mit niedrigen CO2-Minderungskosten, frei von nationalen Befindlichkeiten“, so Dr. Annette Loske, Hauptgeschäftsführerin der Interessenvertretung großer industrieller und gewerblicher Energiekunden“

… und weiter

Der Klimaschutz gebietet es, die Vorfahrt für besonders teure CO2-Vermeidungsmaßnahmen einzuschränken. Denn wer CO2 besonders teuer vermeidet, verhindert, dass mit dem Geld viel mehr erreicht werden könnte: „Vorfahrt für kostengünstige CO2-Minderungsmaßnahmen und damit Unterstützung von Stromerzeugungskonzepten in KWK-Anlagen“, so formuliert der VIK seine Erwartung an die Politik.“

D.h. im Klartext, die anderen Teilnehmer am Wirtschaftsgeschehen, insbesondere die Verbraucher, sollen für den uneingeschränkt akzeptierten „Klimaschutz“ so kräftig wie nötig zu Kasse gebeten werden, nur die eigene Klientel, die ja ...effizienten Klimaschutz, der möglichst viel CO2 zu niedrigsten Kosten mindert, liefern kann, benötigt starke Subventionierung von uns allen. z.B für die von Verbandsmitgliedern angebotene Kraftwärmekopplung (KWK).

Und so singen alle im Chor der Klimaschutzjünger und Energiewender mit und halten dabei gierig die Hand auf. Orchestriert von einer verblendeten Kanzlerin und ihren willigen Vollstreckern und deren vorauseilendem Gehorsam. Darauf ist Verlass. Und deshalb hilft auch die Erkenntnis eine ehemals wichtigen Unions-Politikers nichts, der feststellte:

„Ich habe mit Angela Merkel oft über die Energiewende gestritten. Sie ist da stur bis zum ideologischen Starrsinn.“

Das wird auch so bleiben, weil es kaum Widerstand gibt. Denn für die Verbände gilt; wenn das Geld eben nicht mehr relativ unbequem und gegen (wenn auch geringe) Konkurrenz am Markt erwirtschaftet werden kann, weil dieser Markt aus ideologischen Gründen verschwinden soll, dann muss der Umsatz samt Gewinn eben durch Staatsintervention direkt vom Steuerzahler und /oder  Verbraucher kommen. Gern auch per Zwang.

Wie so oft in unserer oft dunklen Geschichte des letzten Jahrhunderts, sind die Deutschen bis zum bitteren Ende gründlich und verneigen sich opportunistisch vor jeder noch so kruden Ideologie. Wenn dann auch noch die Kasse stimmt oder stimmend gemacht wird, dann macht die Wirtschaft eben sehr gerne mit.

Auch wenn heute schon sicher ist,  dass irgendwann in nächster Zukunft eintreten wird, was ein anderer führender Unionspolitiker prophezeite: 

„Mit der Energiewende ist es wie mit einem Fuhrwerk, das in eine Sackgasse fährt. Da braucht man nicht hinterherzulaufen, denn das kommt genau dort wieder heraus, wo es eingebogen ist. Von Unterhaltungswert ist nur das Wendemanöver.“

Dieses Wendemanöver wird bald vollzogen werden müssen, denn gegen Naturgesetze kann niemand Politk machen – Lyssenko und J.W. Stalin lassen grüßen. Doch dass das Wendemanöver dann Unterhaltungswert haben wird, glauben wohl auch nur Zyniker. 


[1] Eigenes Statement des VKI: Der VIK ist seit 65 Jahren die Interessenvertretung von Industrieunternehmen mit hohem Energiebedarf aller Branchen, wie etwa Aluminium, Chemie, Glas, Papier, Stahl oder Zement. Er berät seine Mitglieder in allen Energie- und energierelevanten Umweltfragen. Im VIK haben sich 80 Prozent des industriellen Energieeinsatzes und rund 90 Prozent der versorgerunabhängigen Stromerzeugung in Deutschland zusammen geschlossen.




Klimawunschdenken scheitert an der Wetterwirklichkeit!

Die UN-Klimagipfel-Konferenzen werden nach ganz bestimmten Ritualen zelebriert und folgen einer wohl durchdachten Aufmerksamkeits-Dramaturgie. Um die Menschheit insgesamt emotional auf die Tragödie „Klimakatastrophe“ einzustimmen, müssen die Klimaregisseure als Produzenten des „Zeitgeistes“ ein Untergangsszenario entwickeln, das alle Menschen gleichermaßen anspricht, aufrüttelt und betroffen macht. Klima-Opfer und Klima-Täter müssen eins werden, sich schuldig fühlen und zur Sühne bereit sein. Die Welt wird eigens dazu in ein globales Theater verwandelt, auf dessen Bühne das Stück „Klima-Apokalypse“ aufgeführt wird. Da es sich um keine Uraufführung handelt, müssen die „Klimaexperten“ wie die Filmproduzenten sich stets neue Reize ausdenken, um das Publikum in einen Zustand permanenter Angststarre zu überführen. Die Angst muss so überwältigend „wirklichkeitsnah“ sein, damit eigenes Denken ausgeschaltet wird und man sich bedingungslos seinen „Klimarettern“ ausliefert.

Die Vorbereitung gleicht einem Trommelwirbel, der das Publikum fasziniert von den Sesseln reißt.  Bereits im Vorfeld muss für eine entsprechende Stimmung, für ein „Gänsehaut-Feeling“, gesorgt werden, wie es in der modischen Wettersprache heißt. Daher versammelte sich der Weltklimarat IPCC höchstpersönlich am 2. November 2014 in Kopenhagen, damit dem Lima-Gipfel das Scheitern des Kopenhagen-Gipfels 2009 erspart bliebe. Doch was inszenierte IPCC? Die Angst vor der Zukunft und die Sucht nach dem Augenblick, dem Erhalt des Ist-Zustandes nach dem Motto: Wenn wir wollen, das alles bleibt, wie es ist, dann ist es nötig, dass alles sich ändert! Sind wir zur Änderung nicht bereit, dann drohen schwerwiegende, unumkehrbare Folgen. „Alles, was wir brauchen, ist der Wille zur Veränderung“, so der IPCC-Vorsitzende Rajendra Pachauri, denn „wir haben die Mittel, um den Klimawandel zu begrenzen“.

Wie immer wurden die Medien als Nachrichtentransportvehikel eingespannt. Die Medien erfuhren nichts Neues, sondern nur die Synthese aus drei vorausgegangenen Klimaberichten. Unkritisch verbreiteten sie alles, was ihnen erzählt wurde. Selbst die Neue Zürcher Zeitung  schrieb am 2. November 2014 zu den bereits beobachtbaren Auswirkungen: „Treibhausgase legten sich wie eine Glasglocke über die Atmosphäre und verhinderten, dass die Erde Wärme ins All abgibt“. Danach dürfte es jetzt, wo wegen der Vegetationsruhe und der Heizperiode der CO2-Gehalt der Luft steigt, bei nächtlichem Aufklaren keinen Bodenfrost mehr geben.  Es dürfte auch keine berührungslosen Temperaturmessungen der Erdoberfläche mittels Wärmebildkameras von Satelliten mehr geben. Doch nichts dergleichen wurde und wird beobachtet! Müssen Journalisten nicht morgens nach klarer Herbstnacht das Eis von ihren Autos abkratzen? Macht sie das nicht stutzig oder haben sie beheizte Tiefgaragen? Wenn nicht sollten sie die Mahnung des SPIEGEL-Chefredakteurs und WELT-Herausgebers Stefan Aust beherzigen, der bei der Verleihung des „Georg-August-Zinn-Preis“ durch die hessische SPD sagte: „Journalismus muss offizielle Versionen hinterfragen, ohne sich dabei in Verschwörungstheorie zu verlieren. Dabei ist Hartnäckigkeit gefragt.“

Doch davon ist in der medialen Wirklichkeit nichts zu spüren. Wenn es um die „Klimapolitik“ geht, sind die Journalisten kritikunfähig. Alles, was an Klimamärchen und Klimadrohungen von den Vereinten Nationen, der Weltbank oder Forschungsinstituten in die Welt hinausposaunt wird, wird wie „Wahrheiten“ behandelt und unkritisch verbreitet. Investigativ-Journalismus scheint es nur zu geben, wenn zur „Jagd auf Personen“ geblasen wird und es um das Aufdecken und Aufspüren von deren  Fehlverhalten geht.

Auch die Weltbank mischt sich aktiv in die Klimapolitik ein!

Kaum hatte sich der durch den Weltklimarat erzeugte Sturm im Medienwald gelegt, da meldete sich die Weltbank zu Wort. Doch diese dachte nicht selbst, sondern ließ denken. Die Denkfabrik war das Potsdam-Institut für Klimafolgenforschung. Es schreib in einer Pressemitteilung „Der neuen Normalität ins Auge sehen“ am 23. November 2014: „Wetterextreme wie Hitzewellen, die bislang ungewöhnliche Ereignisse waren, könnten bald die neue Normalität sein.“

Das PIK war so auf das sommerliche Lima konzentriert, dass es vergaß, dass wir auf der nördlichen Hemisphäre dem Winter entgegen gehen. Wenn „Wetterextreme wie Hitzewellen“ bald die neue Normalität seien, dann gelte dies auch für „Wetterextreme wie Kältewellen“. Dieser Umkehrschluss ist wohl erlaubt. So wird ja auch die Zunahme von Hochwassern wie Dürren stets in einem Atemzug genannt. Und prompt zeigte das Wetter, dass es autonom ist und sich einen Dreck um das Klimagerede kümmert. Doch was hatte das PIK der Weltbank zu bieten? Es war eine Summe von Uralt-Klamotten, im neuen Sprachgewand. Eine gewisse dialektische Kunstfertigkeit kann man dem PIK nicht abstreiten. Da lesen wir: „Die Folgen für die verschiedenen Regionen sind extrem unterschiedlich, … kaum eine Region ist von den Folgen des Klimawandels ausgenommen und das Risiko für die Menschen ist dort am größten, wo mehrere Klimafolgen zusammenwirken.“ Sind Sie nun schlauer?

Doch das PIK zieht noch einen Erkenntnis-Joker aus dem Ärmel: „Risiko-Analyse: Klimafolgen treffen vor allem die Armen der Welt“. Wieder eine nichtssagende Floskel ohne jedweden konkreten Hinweis, wo überall die „Armen der Welt“ wohnen. Diese gibt es nämlich überall, auch in den Industriestaaten. Doch da gibt es keine Armen mehr, nur noch das Prekariat! Und so ruft auch der Direktor des PIK, Hans Joachim Schellnhuber aus: „Dem Klimawandel zu begegnen ist eine Frage der Vernunft, aber auch eine Frage der Gerechtigkeit.“ Welcher Vernunft? Hätten unsere Vorfahren auf den Klimawandel gewartet, um ihm zu begegnen, sie wären längst ausgestorben. Nein, sie passten sich dem Wetterwandel an, soweit es ging. Sie handelten in der Reihenfolge „Sinne – Verstand – Vernunft“. Sie waren lebenstaugliche Pragmatiker, keine idealistischen Theoretiker, und haben sich den natürlichen Randbedingungen, die durch das Wetter bestimmt wurden, geschickt angepasst, wo auch immer sie auf der Welt lebten. Das Wetter kennt keine „Gerechtigkeit“, keine „Gleichheit“, sondern eine in stetem Wandel begriffene Vielfalt! Es gehorcht der „Natur“ und diese wiederum gehorcht nicht dem „Menschen“!

Das Wetter fragte auch nicht den „mächtigsten Mann“ der Welt, den amerikanischen Präsidenten Barack Obama, ob es so früh rund um die Großen Seen einen Wintereinbruch inszenieren und Teile der USA unter meterhohen Schneemassen begraben dürfe. Machen wir ein kleines Rechenspiel und nehmen wir an, dass rund um den Bundesstaat Michigan eine Fläche von 500 000 km2 mit einer Schneedecke von nur 50 cm bedeckt worden sei. Wie viel Energie müsste aufgebracht werden, diesen Schnee zu schmelzen und was würde das kosten?

Nun zur Berechnung: 50 cm Schnee auf einer Fläche von 500 000 km2ergeben 250 Milliarden m3 Schnee. Bei einem mittleren Gewicht von 0,2 kg für Frischschnee ergibt sich ein Gesamtgewicht von 50 Billionen Kilogramm. Zum Schmelzen von 1 kg Schnee sind 80 Kcal notwendig. Für das Schmelzen des gesamten  Schnees sind 4000 Billionen Kcal nötig. Dem entspricht eine Energie von 4,8 Billionen Kilowattstunden. Nehmen wir nun an, der Preis für eine Kilowattstunde Strom betrage 25 Cent, also 1 € für 4 Kilowattstunden. Man müsste also insgesamt 1,2 Billionen EURO aufbringen, nur um den Schnee „weg zu heizen“. Zum Vergleich: Der Bundeshaushalt 2014 beträgt knapp 300 Milliarden €. Doch das macht das Wetter ganz kostenfrei. Doch dieser Wohltat sind wir uns nicht bewusst! Die Leistungen des Wetters sind nicht bezahlbar und deswegen ist es auch nicht machbar.

Und nun gehen wir noch einen Schritt weiter. Der Schnee fällt ja vom Himmel. Er muss aber zuerst dorthin hochgehoben werden. Das geht nur über die Verdunstung. Und zur Verdunstung von 1 kg Wasser  benötigt man 600 Kalorien. Die Verdunstung benötigt das 7,5-fache an Energie, welche das Schmelzen erfordert. Und nun rechnen Sie mal aus, was die Verdunstung kostet! Das aber wäre eine Aufgabe für die Weltbank, um deren Großmannssucht zu dämpfen. Könnte die Menschheit die Energie aufbringen, um pro Quadratmeter der 510 Millionen km2 Erdoberfläche pro Jahr 1000 Liter zu verdunsten? Und könnte sie diese astronomischen Summen auch bezahlen?

„Grüner Klimafonds“ – Geld zum Kampf gegen den Klimawandel?

Angesichts der soeben vorgestellten Zahlen grenzt es schon an bodenlose Einfalt und Torheit, stolz seitens der Politik zu verkünden, dass 10 Milliarden US-Dollar (knapp 8 Milliarden €) bei einer Geberkonferenz in Berlin für den Grünen Klimafonds (GCF) zusammengekommen sind, um ab 1. Januar 2015 dem Klimawandel Einhalt zu gebieten. Mit diesem Geld soll der „GCF“ Projekte finanzieren, mit denen der Klimawandel verlangsamt werden soll. Sollen damit Beruhigungspillen gekauft werden, um über eine Verlangsamung des Klimawandels das Wetter einzuschläfern und so Wetterextreme zu verringern? Deutschland hat für diesen Klimafonds Zuschüsse in Höhe von 750 Millionen Euro zugesagt, wie die Allgemeine Zeitung Mainz am 21. November 2014 („Geld im Kampf gegen den Klimawandel“) berichtet.

Aus allen Ecken klingen die Klima-Gebetsmühlen. So klagt der Chef des in Bonn ansässigen UN-Umweltprogramms UNEP, Achim Steiner: „Andauernde Emissionen von Treibhausgasen werden zu einem noch wärmeren Klima führen und dem verheerenden Effekt des Klimawandels verschlimmern.“ An Klimarettern mangelt es nicht. Hier glaubt jeder, sich mit Nichts qualifizieren zu können, wenn er nur laut medienwirksam ruft: „Ich will mehr!“ Genauso machten es die sieben Ministerinnen und Minister für Umwelt und Energie der Länder Nordrhein-Westfalen, Schleswig-Holstein, Niedersachsen, Bremen, Baden-Württemberg, Rheinland-Pfalz und Hessen. Sie glaubten „Klimaschutz-Lücken“ im Aktionsprogramm Klimaschutz 2020 und im Nationalen Aktionsplan Energieeffizienz entdeckt zu haben und fordern die Bundesregierung auf, beide Entwürfe, die am 3. Dezember 2014 im Bundeskabinett verabschiedet werden sollen, mit noch „wirkungsvolleren Maßnahmen“ auszustatten.

Bei Licht betrachtet sind alles nur hohle Phrasen und leere Worte, die nichts am Wetter und seinem Wandel ändern werden. Es ist ein politischer Schaukampf, bei dem Jeder Jeden mit wohl klingenden Phrasen übertrumpfen will, um als besserer Klimaschützer da zu stehen. Den Gipfel an klimapopulistischem Verhalten erklomm Bundesumweltministerin Barbara Hendricks mit ihrer Kampagne „Zusammen ist es Klimaschutz“, die sie ausgerechnet am 11. November 2014 vorstellte und mit einem Etat von 1,5 Millionen Euro ausstattete. Ihre zentrale Botschaft an die „junge, internetaffine Jugend“ ist: „Klimaschutz braucht alle. Jeder kann seinen Beitrag leisten. Schon ganz einfache Dinge können helfen. Getreu der Devise: Zusammen ist es Klimaschutz.“

Barbara Hendricks Verhalten entspricht dem, was Herrmann Lübbe bereits 1987 in seinem Buch „Politischer Moralismus – Der Triumph der Gesinnung über die Urteilskraft“ beschrieb. Er konstatierte, dass die Neigung zum „Öko-Terror“ wächst.  War diese Neigung damals noch auf die „Grünen“ beschränkt, so hat sie heute alle Parteien infiziert, so dass diese zwar konkurrierend aber doch gemeinsam an der Zunahme des „Öko-Terrors“ arbeiten, zu Lasten aller Bürger, denn diese sind schicksalshaft in das Parteiensystem eingebunden.  Noch triumphiert die Gesinnung, der Wille zum Klimaschutz, über die Urteilskraft, die sich dem Verstand gehorchend der Übermacht des Wetters beugt und in dem wirksamen Schutz vor dem Wetter und seinen Unbilden den wirksamsten Lebensschutz sieht.

Richten wir in Zukunft unsere Klimawünsche an das Wetter. Vielleicht erbarmt es sich unser!

Empfehlung von Professor Dr. Hans Joachim Schellnhuber an COP20!

Zum am 1. Dezember beginnenden UN-Weltklimagipfel in Lima gab das PIK am 28. November 2014 folgende Empfehlung ihres Chefs heraus: „Zwei große Herausforderungen bestimmen das 21. Jahrhundert – die Gefahr katastrophalen Klimawandels und die unerträgliche Kluft zwischen den Reichen und den Armen der Welt. Diese größten Herausforderungen für den Frieden sind eng miteinander verbunden. Klimafolgen wie zunehmend verheerende Wetterextreme, regionale Wasserknappheit oder Missernten treffen jene am härtesten, die am wenigsten Mittel haben, dies alles zu bewältigen. Ohne ein Mehr an globaler Gerechtigkeit kann der Klimawandel nicht eingedämmt werden; und umgekehrt kann ohne die Reduktion der Treibhausgase keine Gerechtigkeit geschaffen werden. Die Stabilisierung des Klimas und die Bekämpfung der Armut sind im Wesentlichen ein und dasselbe.“

O heilige Einfalt! Glaubt der Chef des PIK, dass ohne CO2-Emissionen die Wüsten und Halbwüsten dieser Erde verschwinden und bei Temperaturen von überall 15 Grad überall 1000 mm Regen niedergehen? Da zitiere ich lieber die Genesis, 8:22: „So lange die Erde steht, soll nicht aufhören Saat und Ernte, Frost und Hitze, Sommer und Winter, Tag und Nacht.“ Unsere Vorfahren waren klug, sich an diesen Randbedingungen zu orientieren!

Oppenheim, im November 2014              Diplom-Meteorologe Dr. phil. Wolfgang Thüne




HAUS & GRUNDEIGENTUM Hannover: größte klimaskeptische Veranstaltung in Deutschland mit über 1.200 Besuchern

Bild rechts: Vorsitzender Rainer Beckmann glaubt nicht an eine menschengemachte Klimakatastrophe.


Eigentlich war es ja "nur" eine Mitgliederversammlung vom Verein Haus- und Grundeigentum Hannover.Doch durch den eingeladenen Referenten Prof. Vahrenholt und seinem Thema „Die Klimakatastrophe findet nicht statt“, wurde es faktisch eine klimaskeptische Veranstaltung. Der Veranstaltungsort war der repräsentative Kuppelsaal im Congress Centrum. In seinen Eingangsworten schlug der Vorsitzende Rainer Beckmann einen eindeutigen Kurs ein. 
War früher warmes Wetter ein Grund zur Freude, so würde dies heute als Menetekel einer kommenden Klimakatastrophe angesehen. Dabei wäre es die meiste Zeit der letzten 11.000 Jahre wärmer als heute gewesen. Warmzeiten hätten sich immer gut für die Entwicklung der Menschheit ausgewirkt. Es gäbe viele Wissenschaftler, die nicht an eine menschengemachte Klimakatastrophe glauben würden.

Prof. Vahrenholt schilderte eindrucksvoll viele Geschehnisse und Fakten zur Energiewende, die für die allermeisten Zuhörer völlig neu waren. So beschrieb er bspw. die großen wirtschaftlichen Belastungen, sowie die umweltschädlichen Auswirkungen der Erneuerbaren Energien und den Imageverlust Deutschlands im Ausland. Er zeigte, dass es sich langsam herumsprechen würde, das die Energiewende nicht funktioniert.
Weiter führte er aus, dass die Rolle der Sonne durch den Klimarat weit unterschätzt wird. Diese hätte in der Zeit steigender Erwärmung im 20. Jahrhundert ihre größte Aktivität seit mehr als 1.000 Jahren gehabt. Seit dem geht ihre Aktivität zurück und auch die globalen Temperaturen steigen seit 17 Jahren nicht mehr an. Das können die Wissenschaftler des Klimarates nicht erklären. Mit der Sonne und Meeresphänomenen ließe sich das jedoch gut begründen. Daher könne von einer menschengemachten Klimakatastrophe keine Rede sein.

Über 1.200 Anwesende hörten aufmerksam zu und klatschten stark Beifall, wie auch die Hannoversche Allgemeine Zeitung (HAZ) in einem Artikel vermerkte.
Auch bekannte Stadtpolitiker waren anwesend und hörten aufmerksam zu, wie man einzelnen Gesprächen entnehmen konnte.

Die Initiative KlimaKontroverse.de aus Hannover-Linden war mit einem Stand vertreten. Überraschend viele Besucher waren an Flyern und Gesprächen interessiert.

Prof. Vahrenholt (2. v. links) und Ratsmitglied Kurt Fischer (im Bild rechts, CDU) zusammen mit Mitgliedern der KlimaKontroverse.de.
Kurt Fischer tritt seit Jahren in hannovers Lokalpolitik für die klimaskeptische Sichtweise ein.

In Hannover gewinnt die klimaskeptische Sichtweise derzeit an Beachtung. So titelte das klimaschutzorientierte hannovermagazin Stadtkind in seiner Oktoberausgabe 2014 resignierend "die klimaskeptiker haben gewonnen herzlichen glückwunsch!"

27.11.2014
Klaus Öllerer




Neue AWI-Studie warnt: Klimamodelle unterschätzen natürliche Schwankungen der Meeresoberflächentemperaturen um den Faktor 50

Potsdam/Bremerhaven, den 10. November 2014. Das Klima der Erde scheint in den letzten 7000 Jahren sehr viel unbeständiger gewesen zu sein als bisher gedacht. Diese Schlussfolgerung legt eine neue Studie nahe, die im Lauf dieser Woche im US-amerikanischen Wissenschaftsmagazin „Proceedings of the National Academy of Sciences“ (PNAS) veröffentlicht wird. Wissenschaftler vom Potsdamer Alfred-Wegener-Institut, Helmholtz-Zentrum für Polar- und Meeresforschung, und der Harvard University zeigen darin, dass die aus Klimaarchiven rekonstruierten Meeresoberflächentemperaturen auf langen Zeitskalen erheblich stärker variieren als von Klimamodellen berechnet. Konsequenz: entweder liefern gängige Klimaarchive ungenaue Temperatursignale oder die getesteten Modelle unterschätzen die regionalen Klimaschwankungen in der jüngeren Erdgeschichte.

Wer die Klimageschichte rekonstruieren will, muss natürliche Archive studieren, denn der Mensch hat den Planeten erst seit erdgeschichtlich kurzer Zeit vermessen. Reale Messwerte von Meerestemperaturen gibt es erst seit ungefähr 150 Jahren. Für die Zeiträume davor sind Wissenschaftler auf sogenannte „Proxies“ angewiesen – Indikatoren, die indirekte Rückschlüsse auf Klimadaten früherer Zeiten erlauben. Solche Klimaarchive beziehen sich in der Regel auf räumlich begrenzte Gebiete und unterscheiden sich in ihrer zeitlichen Auflösung. Außerdem zeigen sie mitunter ein erhebliches Hintergrundrauschen.

„In unserer Untersuchung interessierte uns nicht, wie warm das Klima zum Zeitpunkt X in einer bestimmten Region gewesen sein mag. Wir wollten rückblickend analysieren, wie stark das regionale Klima über Jahrzehnte bis Jahrtausende zeitlich variiert“, erläutert Dr. Thomas Laepple vom Alfred-Wegener-Institut. „Eine unserer größten Herausforderungen bestand deshalb darin, verschiedene Messdaten und Klimaarchive aus einer Vielzahl von Regionen untereinander vergleichbar zu machen und das natürliche Rauschen herauszufiltern, das die Aussagekraft mancher Klimaarchive stark verfälscht.“

Laepple und sein Kollege Peter Huybers von der Harvard University verglichen Daten aus Temperaturmessungen, Korallen und Sedimentkernen, die aus vielen verschiedenen Meeresregionen der Erde stammen. Klimadaten aus heutigen Korallen reichen maximal 400 Jahre in die Vergangenheit zurück. Sie erlauben Rückschlüsse auf Temperaturänderungen im Lauf von Jahrzehnten oder Jahrhunderten. Meeressedimente können sehr viel ältere Informationen enthalten, erreichen in der Regel aber nur eine Auflösung über Jahrhunderte und Jahrtausende. Durch verschiedene Eich- und Filterprozesse gelang es den beiden Forschern, eine Vielzahl verfügbarer Daten aus Temperaturmessungen und Klimaarchiven so zu kombinieren, dass sie die rekonstruierten Meeresoberflächentemperaturen an verschiedenen Orten der Welt über einen Zeitraum von 7000 Jahren auf unterschiedlichen Zeitskalen miteinander vergleichen konnten.

„Wir haben zunächst einmal festgestellt, dass die natürlichen Schwankungen der Meerestemperaturen überraschend groß sind und um so stärker waren, je länger die analysierten Zeiträume sind“, so ein erstes Fazit der beiden Wissenschaftler. In einem zweiten Schritt haben sie dann rund 20 Klimamodelle in mehr als 100 Testläufen untersucht um festzustellen, wie gut die Modelle diese Temperaturschwankungen simulieren können. Ergebnis: Über Zeiträume von Jahren und Jahrzehnten stimmten Mess- bzw. Klimaarchivdaten und Modellläufe recht gut überein. Doch je länger die Zeitskalen, desto größer wurde die Diskrepanz – am stärksten in tropischen Meeresregionen. Auf tausendjähriger Zeitskala unterschätzten gängige Klimamodelle die aus den Klimaarchiven rekonstruierten Schwankungen der Meeresoberflächentemperaturen um den Faktor 50.

„Theoretisch gibt es nun zwei denkbare Erklärungen“, so Thomas Laepple. „Entweder liefern die Klimaarchive keine verlässlichen Temperaturdaten, oder die Klimamodelle unterschätzen die Variabilität des Klimas. Vielleicht stimmt auch beides ein bisschen.“ Da das Ergebnis auf mehreren unabhängigen Klimaarchiven und Korrekturmethoden beruht, glaubt Laepple, dass das Problem eher bei den Modellen liegt.

„Wir müssen die Vorhersagen, wie stark das Klima regional schwanken kann, wahrscheinlich korrigieren“, ist Thomas Laepple aufgrund seiner Forschungsergebnisse überzeugt. „Angesichts der enormen Mengen von Treibhausgasen, die in die Atmosphäre abgegeben werden, können wir uns sicher sein, dass es global wärmer wird. Aber die Bandbreite von Veränderungen, auf die wir zusteuern, ist wahrscheinlich wesentlich größer, als wir sie uns derzeit vorstellen.“ Denn die natürlichen Schwankungen, die den Trend zur Erwärmung überlagern, zeigen immer in beide Richtungen: Temperaturen können in einer bestimmten Region im Zeitraum von Jahrzehnten oder einem Jahrhundert weniger oder stärker steigen als Klimamodelle es derzeit im globalen Mittel prognostizieren.

Weil es sich hierbei um eine zentrale Frage für die Prognose künftiger Klimabedingungen auf der Erde handelt, leitet der Potsdamer Physiker seit etwa einem Jahr eine eigene Forschungsgruppe, die sich schwerpunktmäßig mit diesem Thema beschäftigt. Sie trägt den Namen „ECUS – Estimating climate variability by quantifying proxy uncertainty and synthesizing information across archives“.

„Wir stecken“, so Laepple, „mitten in einem Experiment, das sich nicht zurückdrehen lässt, das wir aber immer noch zu grob verstehen, um auf längeren Zeitskalen regional eindeutige Aussagen zu finden. Leider müssen wir mit dieser Unsicherheit wohl noch eine Weile leben.“

Zur Publikation:
Die Studie erscheint in der Woche ab dem 10. November 2014 (46. Kalenderwoche) unter folgendem Titel in der Online „Early Edition“ des Fachmagazins Proceedings of the National Academy of Sciences (PNAS):
Thomas Laepple und Peter Huybers: Ocean surface temperature variability: Large model–data differences at decadal and longer periods. DOI: 10.1073/pnas.1412077111 (Link: www.pnas.org/cgi/doi/10.1073/pnas.1412077111 or in the online early edition unterhttp://www.pnas.org/content/early/recent)

————-

Siehe auch dazugehöriger Artikel “Unterschätzte Temperaturschwankungen: Korallen und Sedimentfunde als Prüfstein für Klimamodelle” von Sven Titz in der Neuen Zürcher Zeitung.

Übernommen von Die kalte Sonne 




EIKE 8. IKEK Bildungsbedingungen der Kohlenwasserstoffe und Hydraulic Fracturing verlängern ihre Verfügbarkeit

Interessant war im kurzen Schlussteil die Beantwortung der immer wieder gestellten Frage nach einem evtl. nicht biotischen Ursprung von Öl und Gas. Gemäß Ewert ist dies auszuschließen, zumindest Öl und Gas in Schiefergestein können nur synergenetisch entstanden sein.

Video vom Vortrag Prof. Ewert zum Thema Fracking anlässlich der 8. IKEK am 16.10.14 in Frankfurt/Main




„Erneuerbare“ Energie – Solar- und Windenergie: Kapitalkosten und Effektivität im Vergleich

Die entsprechenden Daten zeigt diese Tabelle:

Alles in allem zeigen diese Zahlen, dass diese drei westlichen Nationen in einer Größenordnung von mindestens 500 Milliarden Dollar allein an Kapitalkosten aufgebracht haben (konservativ geschätzt und nur die primären Kapitalkosten), nur um Strom erzeugende Kapazitäten mittels Erneuerbarer zu schaffen.

Nominell sollte diese proklamierte Erzeugungskapazität von ~153 GW etwa 26% ihrer Gesamt-Stromerzeugung ausmachen, wenn es voll effektiv wäre. Weil es jedoch einen unvermeidlichen Kapazitätsfaktor von rund 20% gibt, der für alle Erneuerbaren gilt, ergibt sich als tatsächliche kumulative Energie aus diesen erneuerbaren Quellen lediglich 5% der Gesamt-Stromerzeugung für diese Nationen.

Für Solarenergie gilt, dass die Kosten etwa 34 mal so hoch sind wie die vergleichbare Erzeugung durch Gas, aber 9 mal weniger effektiv.

Bei Windkraft sind es nur etwa 12 mal so hohe Kosten und 4 mal geringer effektiv.

Der gleiche Gesamt-Strom-Output könnte mittels konventioneller Erdgaserzeugung für etwa 31 Milliarden Dollar oder einem Sechzehntel der tatsächlichen Kapitalkosten erzielt werden. Wäre konventionelle Gaserzeugungs-Technologie genutzt worden, hätten die gesamten ~31 GW Erzeugungskapazität eine sichere und ununterbrochene Stromerzeugung gewährleistet, wann und wo sie gebraucht wird.

Die folgenden Berechnungen stellen konservative Schätzungen der Kapitalkosten für die Installation Erneuerbarer dar. Sie diskontieren vollständig die hauptsächlichen zusätzlichen Kosten von:

● stützender Backup-Erzeugung,

● Anbindung an das Netz aus abgelegenen Orten

● die großen Differenzen der Kosten fortgesetzter Wartung.

Angesichts dessen, dass alle Technologien hinsichtlich erneuerbarer Energie nur mit Unterstützung üppiger Subventionen seitens der Regierung [= der Steuerzahler] sowie Markteingriffen und Marktmanipulationen realisierbar sind – kann dies ein verantwortungsvoller Umgang mit öffentlichen Fonds oder ein guter Grund für steigende Energiekosten sein, und zwar für Individuen und die Industrie in der westlichen Welt gleichermaßen?

Folgende Datenquellen für die USA, Deutschland und UK wurden begutachtet:

USA: Verfügbare Daten 2000 bis 2012

http://www.nrel.gov/docs/fy14osti/60197.pdf

Deutschland: Daten verfügbar von 1990 bis 2013

http://en.wikipedia.org/wiki/Wind_power_in_Germany

http://en.wikipedia.org/wiki/Solar_power_in_Germany

UK: Daten Verfügbar von 2008 bis 2013

http://en.wikipedia.org/wiki/Wind_power_in_the_United_Kingdom

http://en.wikipedia.org/wiki/Solar_power_in_the_United_Kingdom

Anmerkung: Diese Datenquellen wurden verwendet, weil sie normalerweise grün orientiert sind und weil es daher unwahrscheinlich ist, dass sie von den Befürwortern der anthropogenen globalen Erwärmung in Frage gestellt werden.

Diese oben gelisteten Daten stellen installierte „Nennwert“-Kapazitäten zur Verfügung, gemessen in Megawatt (MW), und Energie-Output gemessen das ganze Jahr über in Gesamt-Gigawattstunden (GWh). Folglich sind es keine direkt vergleichbaren Werte, da die Nennleistung in Megawatt und der tatsächlich erzielte Output angegeben sind. Für diesen Vergleich wurden die jährlichen Gigawattstunden hin zu äquivalenten Megawatt revidiert, für alle 8760 Stunden im Jahr, wie es Prof. David MacKay in „Sustainable Energy – without the hot air” auf Seite 334 angeführt hat.

Obwohl hierdurch die unvorhersagbaren und variablen Effekte der Periodizität und der Nicht-Verfügbarkeit, die für erneuerbare Energiequellen charakteristisch sind, eliminiert werden, ergibt sich ein konservativ vergleichbarer Wert des aktuellen Energie-Outputs, der folglich potentiell verfügbar ist.

Damit kann man die Kapazitätsfaktoren berechnen in Relation zu Erneuerbaren-Technologien in jeder Nation. Die folgende Graphik zeigt die Historie von Installationen erneuerbarer Energie (Solar und Wind zusammen) sowie den Fortschritt Jahr für Jahr hinsichtlich des tatsächlich erzeugten Stromes.

Die Energy Information Association EIA stellt die Informationen bzgl. Kapitalkosten in US-Dollar für die USA zur Verfügung. Diese Kapitalkosten werden für vergleichbare Ziele benutzt, berücksichtigen aber nicht Währungsschwankungen und andere lokale Finanzfaktoren.

http://www.eia.gov/forecasts/capitalcost/pdf/updated_capcost.pdf

Die EIA USA veröffentlicht umfassende Informationen zu den Kapitalkosten alternierender Stromerzeugungs-Technologien, und zwar in Tabelle 1 ihres Berichtes 2013. Aus dieser vollständigen Liste betrachten diese Anmerkungen drei Technologien:

● Photovoltaik in großem Maßstab: dies ist die wirtschaftlichste aller PV-Technologien mit rund 3,8 Milliarden pro GW.

● Kombiniert Wind 18-20: zusammengeführte Onshore 80% und Offshore 20% Wind bei rund 3,0 Milliarden Dollar pro GW

● Kombinierter fortschrittlicher Erdgas-Zyklus: die teuerste technische Option beträgt etwa 1,0 Milliarden Dollar pro GW.

„Kapitalkosten über Nacht“ (als ob eine Installation zur Stromerzeugung über Nacht errichtet wurde), ist die Standard-Vergleichszahl für Kapitalkosten in der Energieindustrie. Die hier verwendeten speziellen Kapitalkosten über Nacht enthalten:

● Zivile und strukturelle Kosten

● Mechanische Ausrüstung, Transport und Installation

● Elektrische und anderweitige Instrumentierung und Kontrolle

● Projizierte indirekte Kosten

● Kosten anderer Eigentümer: Design-Studien, gesetzliche Abgaben, Versicherungskosten, Eigentumssteuern und lokale Anbindung an das Netz.

Nicht enthalten in diesen Kapitalkosten über Nacht sind im Einzelnen:

● Bereitstellung von Backup-Stromversorgung, „verfügbare Reserve“ [spinning reserve], wenn erneuerbare Energie nicht verfügbar ist.

● Treibstoffkosten für die tatsächliche Erzeugung und die verfügbare Reserve

● Kosten für Zugangswege zu abgelegenen Stellen

● Erweiterte elektrische Verbindungen zum Netz

● Wartung

● Finanzierung usw.

Diese aus ,Kapitalkosten über Nacht‘ ausgeschlossenen zusätzlichen Kosten für erneuerbare Energie bedeuten, dass deren Nutzung möglicherweise bedeutend weniger ökonomisch ist als die in diesen Tabellen gezeigten Vergleiche. Zusätzlich zu diesen Vergleichen werden die EIA-Daten genannt in US-Dollar. Diese Ergebnisse dienen vornehmlich vergleichenden Zwecken und nehmen nicht für sich in Anspruch, präzise Angaben zu den tatsächlichen Ausgaben in den verschiedenen Nationen und durch Regierungen zu zeigen. Allerdings zeigen sie deutlich die Größenordnung der involvierten Kapitalsummen.

Sie erlauben auch die Berechnung vergleichender Zahlen zwischen der Erzeugung erneuerbarer Energie und der Standard-Stromerzeugung mit Gas. Die Ergebnisse für die individuellen Nationen in tabellarischer Form unter Verwendung der EIA-Daten zu ,Kapitalkosten über Nacht‘ folgen hier: Die Ergebnisse der Erzeugung erneuerbaren Stromes in jedem Land werden graphisch gezeigt:

In den USA ist Solarenergie noch vergleichsweise erfolgreich, weil sie hauptsächlich in südlichen Breiten installiert ist, aber in Deutschland ist es ernsthaft schwierig, in Solar zu investieren, ist es doch doppelt so teuer wie in den USA und nur halb so effektiv. Solarenergie in UK ist wiederum ist 55 mal teurer und halb so effektiv wie in Deutschland. Glücklicherweise trägt Solarerzeugung in UK nur etwa 25% zum Energiemix bei. Windenergie ist in den USA nur zu 26% so effektiv wie Gasstrom und etwa 11 mal teurer als dieser. In Deutschland ist Windenergie 50% teurer und substantiell weniger effektiv als in den USA. Windenergie in UK ist ebenfalls etwa 11 mal so teuer, ähnlich wie in den USA, aber wegen der Windbedingungen effektiver als in Deutschland.

Außerdem gibt es auch eine große Diskrepanz in den von der EIA genannten Wartungskosten. Im Vergleich zu einem Standard-Gaskraftwerk sieht der Vergleich der Wartungskosten so aus:

  • Photovoltaics                     times ~1.6

  • Onshore Wind-Power        times ~2.6

  • Offshore Wind Power        times ~4.9

  • Combined Wind  80 – 20    times ~4.0

  • Coal (without CCS)            times ~1.9   (included for reference)

  • Nuclear                              times ~6.1   (included for reference)

Auch gibt es bedeutende zu beantwortende Fragen über die Lebensdauer und die Widerstandsfähigkeit der Wind- und Solartechnologien: Dies ist besonders problematisch für Offshore-Windparks.

http://notrickszone.com/2014/09/11/spiegel-germanys-large-scale-offshore-windpark-dream-morphs-into-an-engineering-and-cost-nightmare/

Eine zusätzliche detailliertere Analyse könnte sehr gut zu dem Ergebnis kommen, dass trotz der praktisch kostenlosen Energie bei der Entwicklung, Herstellung und Installation sowohl von Solar- als auch von Windenergie größere Mengen CO2 emittiert werden. Die tatsächlichen Einsparungen der CO2-Emissionen halten sich daher vielleicht während der installierten Lebensdauer sehr in Grenzen.

http://sunweber.blogspot.fr/2014/11/prove-this-wrong.htm

Sporadische Natur und Nicht-Verfügbarkeit

Allerdings gibt es immer noch ein weiteres fundamentales Problem mit allen Quellen erneuerbarer Energie. Ihr Stromoutput ist sporadisch und nicht immer verfügbar. Ihr Stromoutput kann nicht auf die Stromnachfrage reagieren, falls und wenn der Strom gebraucht wird. Die Energie wird dem Netz in planloser Manier zugeführt, abhängig vom Wetter. Diesen Effekt kann man dem Diagramm unten entnehmen, das den Stromoutput in Deutschland in einer Woche im August 2014 zeigt, einer optimalen Periode für jedweden Solarenergie-Input. Strom war mit Sicherheit nicht immer verfügbar, als es erforderlich war.

http://notrickszone.com/2014/07/21/germanys-habitually-awol-green-energy-installed-windsolar-often-delivers-less-than-1-of-rated-capacity/

http://www.agora-energiewende.org/service/recent-electricity-data/stromerzeugung-und-verbrauch/

http://www.ukpowergeneration.info

Solarenergie variiert unvermeidlich abhängig von der Tageszeit, dem Wetterverlauf und natürlich auch grundlegend im Laufe der Jahreszeiten. Solarenergie ist am effektivsten in äquatornäheren Breiten und kann in Nordeuropa nicht ernsthaft effektiv sein. Im obigen Beispiel der Augustwoche 2014 variierte der Windkraft-Input zwischen 15,5 GW und 0,18 GW, und der solare Beitrag variierte von Null bis etwa 15 GW. Folglich ergab sich durch diese Variabilität der erneuerbaren Energie kombiniert mit der „Pflicht der Erneuerbaren“, die laut Gesetz falls verfügbar bevorzugt zu nutzen ist, eine Nachfrage nach konventioneller Erzeugung zwischen ~23 GW und ~47 GW während dieser Zeit. Die massive Zuwendung Deutschlands zu Solarenergie kann kurzzeitig in den Mittagsstunden an sonnigen Sommertagen etwa 20% der landesweiten Stromnachfrage decken, aber zu Zeiten maximaler Stromnachfrage an Winterabenden ist der solare Energieinput logischerweise Null. Aber gleichzeitig ist der Windkraft-Output genauso variabel wie in den Sommermonaten.

http://theenergycollective.com/robertwilson190/456961/reality-check-germany-does-not-get-half-its-energy-solar

In Deutschland ist die Sonneneinstrahlung und die Bewölkungsverteilung ähnlich wie in Alaska, und in UK, das sogar noch nördlicher liegt, ist die Solarausbeute noch schlechter. Stromerzeugung durch Windturbinen ist genauso flatterhaft wie in der Woche im Juli 2014, in der die Stromerzeugung aus Wind in ganz Deutschland viele Tage lang nahe Null lag. Ein stabiles Hochdruckgebiet mit geringem Wind in ganz Nordeuropa ist ein normales Ereignis in den Wintermonaten, wenn der Strombedarf am höchsten ist. Im Gegenzug kann der Output erneuerbarer Energie in anderen Jahreszeiten weit über die Nachfrage hinausgehen und muss teuer und unproduktiv entsorgt werden. Dies ist vor allem deswegen so, weil es keine Lösung hinsichtlich Stromspeicherung im industriellen Maßstab gibt. Aus diesem Grunde taucht das Wort „nominell“ immer wieder in diesen Noten auf in Relation zur Nennleistung erneuerbarer Energiequellen.

Unter dem Strich: diese drei Nationen haben sich massiven Investitionen in erneuerbare Energie verschrieben. Konservativen Schätzungen zufolge summieren sich diese Investitionen auf 500 Milliarden Dollar oder etwa 2,2% des kombinierten jährlichen BIP.

Diese Investitionen haben „nominell“ zu etwa 31 GW Erzeugungskapazität geführt bei einer installierten Nennleistung von etwa 150 GW. Dies ist „nominell“ etwa ein Viertel der gesamten installierten Nennleistung.

Aber diese nominellen 31 GW Output erneuerbarer Energie sind nur etwa 5,4% der insgesamt installierten Nennleistung von etwa 570 GW. Selbst diese 31 GW Erzeugung durch Erneuerbare ist nicht wirklich so zu gebrauchen, wie man sich das wünscht, und zwar wegen der Unregelmäßigkeiten und der Nicht-Verfügbarkeit.

Link: http://wattsupwiththat.com/2014/11/21/renewable-energy-solar-and-wind-power-capital-costs-and-effectiveness-compared/

Übersetzt von Chris Frey EIKE




Fakten, welche die Klimapolitik beachten sollte

von Ulrich Wolff Dipl. Physiker

Das „Intergovernmental Panel on Climate Change (IPCC)“, der sog. Weltklimarat, begründet seine Empfehlungen an die Staatsregierungen der Welt zur Klimapolitik

mit den Ergebnissen von Modellrechnungen. In Abb 1 werden solche Ergebnisse für den Beobachtungszeitraum von 1983 bis 2013 mit dem tatsächlichen Verlauf verglichen. Die fehlende Übereinstimmung wird folgend hinterfragt.

Abb.1  Klimamodelle im Vergleich zur Beobachtung.

1.  Die aktuelle Klimapolitik

Seit es Menschen gibt, war das tägliche Wetter eine überlebenswichtige Vorgabe der Natur, deren Beeinflussung  allenfalls übernatürlichen Autoritäten zustand. Grundlage einer „Klimapolitik“ war stets die erforderliche Anpassung an und Vorsorge für seine ständigen Veränderungen.

Erst in der zweiten Hälfte des vorigen Jahrhunderts führte die auch in der Politik erfolgreich angewandte Methode der „Angst auf Objektsuche“ findige Politiker zur Idee, die Verantwortung für Veränderungen künftig auf menschliches Handeln zu übertragen.

Das Wetter selbst, wie auch seine Statistik der Vergangenheit, mit der das „Klima“ unterschiedlicher „Klimate“ auf der Erde definiert und beschrieben wird, sind dazu als Messlatte einer Bedrohung grundsätzlich ungeeignet, weil meist Veränderungen in gleicher Richtung an einem Ort vorteilhaft, an einem anderen nachteilig sind. Erst mit der Erfindung eines Weltklimas können global die Urängste vor dem Unbekannten, vor  Veränderungen jeder Art erreicht werden. Der Anstieg weder spürbarer noch kaum prüfbarer Jahresmittelwerte für die Temperatur über der Oberfläche der Erdkruste und der Pegelstände der Weltmeere wird sofort als Gefahr verstanden. Dabei war doch z. B. in Deutschland der Anstieg der Temperatur seit der kleinen Eiszeit im Mittelalter ein Segen und seine Fortsetzung würde so manche Vorteile bringen.

Als konkrete Basis und Ausgangspunkt für das Angstobjekt „anthropogener Klimawandel“ dient ein winziger Ausschnitt aus der Klimageschichte, nämlich nur die Periode von 150 Jahren nach dem Beginn der Industrialisierung. Die mittlere Temperatur war während dieses Zeitraums um 0.7 – 0.8 ℃, die Pegelstände der Weltmeere um etwa 20 cm und der CO2 Gehalt in der Atmosphäre um 0,01 Vol.% über den Ausgangswert von 0,03 Vol.% hinaus angestiegen.

Die Parole: „Die Nutzung fossiler Brennstoffe sei die alleinige Ursache dieser in Zukunft dramatisch zunehmenden Veränderungen“. Nur mit den zeitlichen Scheuklappen von 150 Jahren ließ sich diese These gut verkaufen, denn  diese mittlere Temperatur war z. B. seit dem Ende der letzten Eiszeit vor 15.000 Jahren um etwa 5 ℃ und die Meeresspiegel sogar um 120 m angestiegen, ohne dass irgend jemand fossile Brennstoffe verwendet hätte. Assimilation hatte den CO2 Gehalt in der Atmosphäre in der Erdgeschichte sogar von mindestens 25% auf die zu Beginn der Industrialisierung noch existierenden 0,03 Vol.% verringert. Zur Zeit der Saurier waren es sogar mehr als 0,1 Vol.%.

Zur Einführung des neuen Angstobjektes „Klimawandel“ in die Realpolitik der Staaten wurde im Jahr 1988  vom „United Nations Environment Programme (UNEP)“ und der „World Meteorological Organization (WMO)“ das „Intergovernmental Panel on Climate Change (IPCC)“, der sog. Weltklimarat, installiert. Dieses IPCC soll seither der Welt als Vorgabe für die Politik einen klaren wissenschaftlichen Einblick in den gegenwärtigen Stand der Kenntnisse zur künftigen Klimaänderung verschaffen.

Die Wetterkunde nutzt für ihre Prognosen von Veränderungen in Erdkruste und Atmosphäre komplexe mathematische Modelle auf der Grundlage der Erfahrung aus Beobachtung, Messung und Experiment. Damit gelingt inzwischen die Vorhersage der wahrscheinlichen Veränderungen des Wetters für höchstens eine Woche.

Das zur Autorität erklärte IPCC setzt dagegen auf die Ergebnisse vergleichsweise stark vereinfachter mathematischer Modelle, die monokausal als Folge einer Fortsetzung der Nutzung fossiler Brennstoffe einen Anstieg der mittleren Temperatur über der Oberfläche der Erdkruste von einigen ℃ und der Meeresspiegel um einige Meter prognostizieren. Die globale Nutzung fossiler Brennstoffe sei daher drastisch zu reduzieren, um einen Anstieg der Temperatur auf 2 ℃ zu begrenzen. Dieser Ansatz wird im folgenden Abschnitt hinterfragt.

Die Reaktionen der Staatsregierungen auf diese Forderung des IPCC unterscheiden sich stark. Sie reichen von Ablehnen, Ignorieren, Lippenbekenntnis bis hin zu drastischen politischen Eingriffen in den Energiemarkt, wie das insbesondere Deutschland  – fast im Alleingang – vorführt.

Im Jahr 2014, 26 Jahre nach der Geburt des politischen Angstobjektes „anthropogener Klimawandel“, ist festzuhalten:

Der CO2 Gehalt der Atmosphäre steigt ungebremst weiter und folgt damit vermutlich zum Teil der globalen – und auch in Deutschland – weiter steigenden CO2 Freisetzung. Die mittlere Temperatur in Bodennähe (und auch darüber) über der Oberfläche der Erdkruste ändert sich dagegen seit etwa 18 Jahren nicht mehr.

Wie in Abb. 1 gezeigt, erfassen die Modelle, auf die sich das IPCC exklusiv stützt, diesen klaren Sachverhalt nicht.

Die deutschen Politiker, die ihr Handeln zwar mit ihrem Mandat für die Abwehr von Schäden für die menschliche Gesellschaft begründen, reagieren bisher nicht: „Weil Ihnen und ihren Institutionen der erforderliche Sachverstand fehle, würde man den Empfehlungen des IPCC weiterhin folgen.“

2.        Missverständnisse zur Erderwärmung

Die obere Erdkruste umfasst anteilig  29% Festland und 71% Ozeane mit einer mittleren Wassertiefe von ≈3800m. Lokale Wassertemperaturen bewegen sich  in diesem Volumen zwischen -2℃  und +30℃. An der Oberfläche des kleineren Festlandanteils variieren die Temperaturen dagegen zwischen -90℃ und +60℃. Der geschätzte Mittelwert der Temperaturen über der gesamten Oberfläche der Erdkruste liegt im mehrjährigen Mittel gegenwärtig bei knapp 15℃. (Eine genaue Bestimmung ist nicht möglich, weil dazu die Messmittel fehlen. Über Modellbetrachtungen (hic!) kommt man auf Werte zwischen 12.8ºC to 14.4ºC[1])

Ohne die  Absorption und langjährige Speicherung absorbierter Solarstrahlung, also allein gespeist von Erdwärme, würde diese Temperatur nur -240℃ betragen.

Der Energiefluss der Sonne erreicht die rotierende Erde im Jahresmittel mit einer Intensität von etwa 360 W/m2 an der Oberfläche ihrer Atmosphäre. Davon wird etwa ein Drittel ohne Wirkung direkt in den Weltraum umgeleitet. Gegenwärtig werden daher etwa 240 W/m2 von der Materie zunächst absorbiert, überwiegend in Wärme gewandelt, durchfließen Erdkruste und Atmosphäre und werden entsprechend verzögert als Wärmestrahlung ebenfalls in den Weltraum emittiert. Nur wenn die Energiebilanz der Erde bei diesem Vorgang nicht ausgeglichen ist, ändert sich der Energieinhalt von Erdkruste und/oder Atmosphäre. Das kann – mit entsprechender Verzögerung – sowohl Temperaturen, Eismengen und Meeresspiegel verändern. Diese Erwärmung um ≈255℃ lässt Ozeane und Atmosphäre entstehen. 

Zur Größe der Temperatur, die sich in der oberen Erdkruste einstellt, liefert der atmosphärische Treibhauseffekt einen signifikanten Beitrag. Seine Wirkung verzögert die Durchleitung der Solarenergie durch ihre flüssige und feste Materie zusätzlich.

Die Existenz eines atmosphärischen Treibhauseffektes wurde schon sehr früh richtig erkannt. Die Ursachen seiner Wirkung werden seither diskutiert. Eine Quantifizierung seines signifikanten Beitrages zur Erwärmung ist bisher nicht gelungen. Vermutet wird nur, dass dadurch die mittlere Temperatur über der Oberfläche der Erdkruste um erheblich mehr als nur um 33℃ angehoben wird. In diesem Beitrag wird der Versuch unternommen zu zeigen, dass es vermutlich erheblich mehr sein müsste. [2]

Fakt ist, dass Wolken ständig 60 bis 70% der Erdoberfläche vom Weltraum trennen. Die Projektion der Wasser und/oder Eispartikel in sichtbaren Wolken auf eine Kugelfläche bildet eine geschlossene Schicht flüssiger und/oder fester Materie. Jedes einzelne Partikel emittiert an seiner Oberfläche kontinuierlich Wärmestrahlung in den Raumwinkel von 4π, die gesamte Wolke also jeweils etwa hälftig in Richtung Weltraum und als Gegenstrahlung in Richtung Erdkruste.

Der Energiefluss zu den Partikeln der Wolken umfasst Absorption von Wärmestrahlung aus allen Richtungen, Kondensation, Konvektion und Wärmeleitung.

Eine Reihe von Indizien machen es sehr wahrscheinlich, dass auch an wolkenfreien Teilen der Atmosphäre existierende teils sehr geringe „Feuchte“ in Form sehr kleiner Eispartikel mit dann entsprechend großer Oberfläche ein dort vermutetes Fenster für Wärmestrahlung schließt.( https://de.scribd.com/doc/144664169/Treibhauseffekte)

Es ist offenbar feste und flüssige Materie, die in der Troposphäre[3] eine Wärmesenke entstehen lässt, von der sowohl die Emission in den Weltraum als auch eine Gegenstrahlung etwa gleicher Intensität zur Erdkruste ausgeht und so den atmosphärischen Treibhauseffekt entstehen lässt.

Bleibt die Frage nach dem tatsächlichen Einfluss der mehr als zweiatomigen Spurengase in der Atmosphäre, denen vom IPCC die Ursache für die Entstehung des atmosphärischen Treibhauseffektes zugeordnet wird.

Diese Gasmoleküle sind keine Kontinuumsstrahler. Sie absorbieren und emittieren Wärmestrahlung lediglich an diskreten Wellenlängen.

Sie erhalten und verlieren zudem kinetische Energie durch Stoß, sodass auch Spontanemission erfolgen kann.

Ihre Konzentration in der Troposphäre nimmt – gegenläufig zur Häufigkeit von Aerosolen – mit zunehmender Höhe ab.

Solche Gasmoleküle sind im Volumen der Troposphäre orts- und zeitabhängig mehr oder weniger mit den genannten Aerosolen gemischt.

Mehr als zweiatomige Spurengase interagieren daher sowohl mit Strahlungsflüssen, die von flüssiger und fester Materie an der Oberfläche als auch von den Partikeln in und außerhalb der Wolken emittiert werden.

Von  mehr als zweiatomigen Gasen absorbierte Strahlung wird dem Strahlungsfluss selektiv Energie an diskreten Wellenlängen entzogen, wenn einer Emission folgend eine Absorption in Aerosolen erfolgt. Die absorbierte Energie wird von dort ebenfalls wieder in den Raumwinkel von 4π emittiert, so dass sich zwar das Spektrum entsprechend ändert, nicht jedoch Intensität und Richtung der Strahlungsflüsse. Dieser Effekt wird durch Messung erfasst.

Auch eine Berechnung solcher Veränderung der Spektren von IR Strahlungsflüssen muss gelingen, wenn die Absorption der Gase mit Hilfe der umfangreichen  HITRAN Dateien korrekt erfasst wird.

Die Wirkung eines durch Wasser und Eis geschlossenen Fensters für Wärmestrahlung, die den atmosphärischen Treibhauseffekt erzeugt, kann jedoch an einem solchen, unvollständigen Modell, das Aerosole nicht erfasst, nicht erkannt werden.

Unabhängig von der Größe ihrer Konzentration in der Atmosphäre kann die Interaktion von mehr als zweiatomigen Gasen die Wirkung des atmosphärischen Treibhauseffektes nicht verändern. Von diesen Gasen kann daher nur in einer  Atmosphäre, die nahezu keine Aerosole enthält, eine energetisch wirksame Gegenstrahlung wesentlich geringerer Intensität emittiert werden.[4]

Ein solcher Zustand wurde zum Zweck der Prüfung von Berechnungsverfahren – lokal begrenzt – „am trockensten Ort der Erde“ gefunden und konnte zum Nachweis einer unter diesen Bedingungen von CO2 ausgehenden energetisch wirksamen Gegenstrahlung benutzt werden.

Die Abb. 2 zeigt das Ergebnis von Messung und Berechnung des Spektrums.

Abb. 2.  Spektrum der Gegenstrahlung aus sehr trockener Luft.

Fazit: Der fehlende Einfluss der mehr als zweiatomigen Gase auf die Größe des atmosphärischen Treibhauseffektes erklärt das Versagen der allein auf ihre Wirkung begrenzten Modellrechnungen. Die vom IPCC vertretenen Prognosen zum Anstieg von Temperatur und Meeresspiegel haben daher keine naturwissenschaftliche Grundlage.

3.        Klimageschichte und Ausblick

Der Ablauf der Klimageschehnisse der Vergangenheit kann mit Hilfe einer Reihe von sog. Klimaarchiven rekonstruiert werden. Dazu gehören u. a. Baumringanalyse, die Untersuchung von Ablagerungen in Seen und Ozeanen), Eisbohrkernen u. a. mehr. Eine solche Rekonstruktion der letzten 500 Millionen Jahre zeigt die Abb.3.

Abb.3. Abweichung der mittleren Temperatur an der Erdoberfläche vom Durchschnitt der      Jahre 1960 – 1990 in ℃.

Auch während dieser 500 Millionen Jahre ist kein Einfluss des CO2 Gehaltes der Atmosphäre auf Temperaturen zu erkennen:

Obwohl die Atmosphäre vor 300 Millionen Jahren noch etwa 8% CO2 enthielt, kam es zu einer Eiszeit. In den folgenden 250 Millionen Jahren stieg die Temperatur um 16℃ während der CO2 Gehalt im gleichen Zeitraum auf etwa 0,05% abnahm. Danach wurde ein Absinken der Temperatur um 16℃ von einer Abnahme der CO2 Konzentration um 0,02 – 0,03% begleitet.

Dieser Sachverhalt allein stellt die am rechten Bildrand als rote Punkte eingetragenen mit dem IPCC Modell erstellten Prognosen einer zukünftigen Erwärmung infrage.

Auffällig ist die ungewöhnlich lange Dauer der gegenwärtigen warmen Periode von etwa 10.000 Jahren, die sich in Abb. 4 im Vergleich zur Dauer der vorlaufenden warmen Perioden noch deutlicher abhebt.

Die Abb. 4 macht deutlich, dass der Anstieg der CO2 Konzentration in der Atmosphäre, die Entgasung, verzögert dem Anstieg der Wassertemperatur folgt. Aus gleichem Grund kann das durch die Nutzung fossiler Brennstoffe freigesetztes CO2 auch nur verzögert im Wasser der Ozeane in Lösung gehen.

Abb. 4. Temperaturverlauf und CO2 Konzentration der letzten 460.000 Jahren in der Antarktis.

Sowohl für den Übergang in eine Eiszeit vor etwa 2 Millionen Jahren als auch für die fast regelmäßigen Wechsel zwischen kurzen warmen und langen kalten Abschnitten sind die Ursachen nicht bekannt.

Daher ist es auch nicht möglich, Prognosen abzugeben. Die Temperaturen können ansteigen, weiter auf dem gegenwärtigen Niveau verharren, oder in den Übergang zu einer neuen kalten Periode absinken. Es gilt eine alte Bauernweisheit:

„Kräht der Hahn auf dem Mist, ändert sich das Wetter – oder es bleibt wie es ist!“


[1] Im SPM des IPCC AR4 (Fig SPM 3) wird für  1850 ein Wert von 13,65 °C gezeigt und für 2000 ein Wert von 14,4°C. Jones et al. vermuten die „wahre Globaltemperatur„ bei 14,0 °C auf der Südhalbkugel bei 13,4 °C und auf der Nordhalbkugel bei 14,6°C. [Jones, 1999]. Das Goddard Institute of Space Science (GISS) umgeht die Bestimmung der Mitteltemperatur aus Messwerten und verweist nur auf Modelle. Dazu schreibt man auf seiner Fragen und Antwortseite[2] unter den Titel „The Elusive Absolute Surface Air Temperature (SAT)“ in deutsch:“ Die schwer fassbare absolute Oberflächentemperatur“…For the global mean, the most trusted models produce a value of roughly 14 Celsius, i.e. 57.2 F, but it may easily be anywhere between 56 and 58 F (12.8ºC to 14.4ºC ) and regionally, let alone locally, the situation is even worse.

[2]Zur Berechnung dieser Differenz von 33℃ mit Hilfe des Stefan-Boltzmann Gesetzes wird der Wert für das Jahresmittel des mittleren Energieflusses in den Weltraum von  240 W/m2 benutzt. Tatsächlich handelt es sich jedoch um eine komplexe orts- und zeitabhängige Verteilung. Da die lokale Emissionstemperatur mit der 4. Potenz vom lokalen Energiefluss abhängt resultiert ein wesentlich größerer Wert als 33℃ für die Wirkung des atmosphärischen Treibhauseffektes.

[3] Die Troposphäre als untere Schicht der Atmosphäre reicht in hohen geographischen Breiten bis in eine Höhe von ca. 8 km, in Äquatornähe bis 15 km. Über der Erdoberfläche nimmt die Temperatur durchschnittlich um 0,5 – 0,7 °C pro 100 m Höhe ab. An der Oberkante der Troposphäre, der Tropopause, herrschen den Globus umfassend Temperaturen knapp unter -50℃ °C, die in der Stratosphäre darüber wieder ansteigen.

[4]https://de.scribd.com/doc/242156102/Der-Traum-vom-anthropogenen-Treibhauseffekt-docx


[ML1]Warum




Europaparlamentarier Roger Helmer widerspricht der Klima-Doktrin

Wir in der UKIP, der United Kingdom Independence Party, sind der Ansicht, dass die Klima-Abschwächung gemäß2  des Kyoto-Protokolls möglicherweise unnötig, mit Sicherheit belanglos und ruinös teuer ist.

Unnötig, weil die dem Klima-Alarmismus zugrunde liegende Wissenschaft höchst spekulativ ist. Seit fast zwei Jahrzehnten gibt es keine globale Erwärmung mehr. Die dieser Erwartung zugrunde liegenden Computermodelle haben mit ihren Prognosen wiederholt kläglich versagt. Es gibt eine lebhafte wissenschaftliche Debatte über die Sensitivität des Klimasystems hinsichtlich des atmosphärischen CO2, die alles andere als „settled“ ist. Das IPCC nennt gerne eine Zahl von 3°C Erwärmung pro Verdoppelung des CO2-Gehaltes. Viele Wissenschaftler glauben jedoch mit Blick auf den derzeitigen Temperaturtrend, dass ein Wert von 1°C wesentlich näher an der Marke liegt. Die IPCC-Zahl ist abhängig von heroischen Schätzungen positiver Rückkopplungen. Aber es gibt positive und negative Rückkopplungen, und viele Wissenschaftler kommen zu dem Ergebnis, dass die Gesamtbilanz negativ sein könnte.

Belanglos: Dafür gibt es viele Gründe. Dem Vernehmen nach gibt es 1200 neue Kohlekraftwerke in der globalen Pipeline (einschließlich – vielleicht überraschend – über 20 in Deutschland). Die globalen Emissionen werden zunehmen, egal was wir tun. Der jüngste Rückgang der US-Emissionen basiert auf dem Wechsel von Kohle zu Gas – nicht auf Maßnahmen zur Klima-Abschwächung oder Erneuerbaren. Die Chinesen haben beschlossen, dass ihre Emissionen um das Jahr 2030 ihren Höhepunkt erreichen – oder mit anderen Worten, sie haben alles auf die lange Bank geschoben. Und überhaupt, bis zum Jahr 2030 wird der demographische Rückgang begonnen haben, so dass die Emissionen sowieso zurückgehen. Und niemand stellt die Unzulänglichkeiten in Rechnung, die sich hinsichtlich der Verbrennung fossiler Treibstoffe als Backup für die ständig wechselnden Erneuerbaren ergeben.

Ruinös teuer: Man hat behauptet, dass die Erneuerbaren irgendwann wettbewerbsfähig werden, wenn die Preise für fossile Treibstoffe immer weiter steigen. Aber stattdessen sinken sie. Der ehemalige Industriekommissar Antonio Tajani sagte, dass wir in der EU hinsichtlich der Energiepreise „ein industrielles Massaker“ anrichten. Wir vertreiben energieintensive Industrien, vernichten deren Arbeitsplätze und vertreiben Investitionen. Und wir zwingen Haushalte und Pensionäre in die Energiearmut. Wir schädigen unsere Wirtschaft mit dem Export sowohl von Arbeitsplätzen als auch von Emissionen.

Wir haben Klimagipfel kommen und gehen sehen: Sie enttäuschten jedes Mal. In einem Anfall, Hoffnung über die Erfahrungen zu stellen, sprechen die Unterhändler über ihre Erwartungen hinsichtlich eines Erfolgs der Konferenzen in Lima und Paris. Ich sage erstens vorher, dass sie erneut enttäuscht werden, und zweitens, selbst wenn sie ein Abkommen zu Papier bringen, wird es mit der Lieferung grandios scheitern.

Britische Wähler und die britische Industrie (und ich wage mal zu behaupten, die Wähler und die Industrie auf dem Kontinent ebenso), ächzen schon jetzt unter den Energiekosten, und zwar unter den massiven Voraus-Investitionen in einen nutzlosen Versuch, hoch spekulative Probleme in einer fernen Zukunft abzuschwächen, unter Verlusten von Arbeitsplätzen und der Schließung von Unternehmen. Und zusätzlich zu all dem erwartet man von uns jetzt, dass wir in einen massiven Fonds einzahlen, um Entwicklungsländern bei Problemen zu helfen, die noch gar nicht aufgetreten sind und die möglicherweise niemals auftreten werden.

Wie also ist die Haltung der UKIP hierzu? Wir sollten die Ereignisse registrieren, auf die Daten schauen und die Wissenschaft im Licht der aktuellen Klimatrends überdenken. Und dann sollten wir moderate Summen zur Anpassung investieren, falls und wenn sie gebraucht werden. Das ist besser als Multimilliarden schwere Investitionen im Voraus für Lösungen, die man gar nicht braucht und womöglich nie brauchen wird. Zukünftige Generationen werden mit Erstaunen und ungläubig zurückblicken auf die ungeheure Verschwendung von Ressourcen, ausgelöst durch den Klimaalarmismus im 21. Jahrhundert.

Roger Helmer ist Mitglied des Europaparlaments. Er ist außerdem Leiter der 24-köpfigen UKIP-Delegation im Europaparlament – der größten britischen Delegation, und außerdem noch energiepolitischer Sprecher seiner Partei.

Link: http://www.americanthinker.com/articles/2014/11/a_member_of_the_european_parliament_dissents_on_climate.html

Übersetzt von Chris Frey EIKE




Das Rätsel der Eiszeiten XIII – Terminator II

Redaktionelle Vorbemerkung: dieser Teil ist ungewöhnlich lang und enthält einige Bildunterschriften sowie eine ganze Reihe von Anmerkungen, die wir der Einfachheit halber im Englischen belassen haben. Leider hat Typo3 zwar die schöne Möglichkeit Textstellen im Entwurf hoch bzw. tiefer zu stellen, also beispielsweise das Sauerstoffisotop 18 mit hochgestellter 18 zu schreiben, das ist beim Abspeichern aber sofort wieder weg (vielleicht kennt ja ein Leser den Trick, wie’s trotzdem geht). Leider bleibt es bisher also beim unschönen 18O, CO2 usw. Nun zum SOD – Text:

Im einem vorigen Teil Eleven – End of the Last Ice age haben wir die Abfolge der Ereignisse betrachtet, die zum Ende der jüngsten Eiszeit geführt haben – Termination I.

Der Zeitpunkt dieses Ereignisses lag vor 17.500 bis 18.000 Jahren (Anmerkung 1). Wir haben auch gesehen, dass die „zunehmende solare Einstrahlung“ dies nicht erklären kann. Mit Hilfe von Illustration habe ich einige Plots in Pop Quiz: End of An Ice Age erstellt – alle aus den letzten 100 Jahren und habe die Leser aufgefordert herauszufinden, welcher Plot zu Termination I passt.

Aber diese einfache Graphik der Einstrahlung auf 65°N am 1. Juli bringt das Problem für die „klassische Version“ der „Milankovitch-Theorie“ auf den Punkt (siehe Part Six – “Hypotheses Abound). Einfach gesagt, falls die Sonneneinstrahlung vor 18.000 Jahren zum Ende der Eiszeit führte, warum hat die gleiche oder eine sogar noch höhere Einstrahlung  vor 100.000, 80.000 oder 60.000 bis 30.000 Jahren nicht zu einem früheren Ende der Eiszeit geführt hatte:

Figure 1

Und eine visuellere Demonstration der Sonneneinstrahlung mit der Zeit siehe man bei den Hövmoller-Plots in den comments of Part Eleven nach. Das andere Problem für die Milankovitch-Theorie als Ursache für das Ende der Eiszeit ist die Tatsache, dass die Temperaturen auf der südlichen Hemisphäre vor den globalen Temperaturen gestiegen sind. Der Süden hat also die Welt aus der Eiszeit geführt. Das ist schwer zu erklären, falls das Schmelzen der Eisschilde auf der Nordhemisphäre der Grund für das Ende der Eiszeit sein sollten. Man schaue dazu noch einmal Eleven – End of the Last Ice age an. Soweit unser kurzer Rückblick auf Termination I (T-I). Jetzt also Termination II (T-II). Dies ist das Ende der vorletzten Eiszeit.

Die traditionelle Milankovitch-Theorie sagt aus, dass der Höhepunkt der Sonneneinstrahlung in hohen Breiten vor rund 127.000 Jahren der Auslöser für eine massive Deglaziation war, die jene frühere Eiszeit beendet hatte. Die gut bekannte SPECMAP-Datierung des Meeresspiegels/Eisvolumen mit der Zeit legt den Zeitpunkt für T-II vor 128.000 Jahren ±3000 Jahre fest. Alles in Ordnung. Oder doch nicht?

Welche Grundlage hat die SPECMAP-Datierung?

Die am meisten verwendeten und am besten bekannten Aufzeichnungen bzgl. Eiszeiten stammen aus Ozean-Sedimenten. Diese waren die ersten langzeitlichen Klimaaufzeichnungen, die hunderttausende Jahre zurückreichen. Wie funktionieren sie, und was messen Sie?

Sauerstoff existiert in Form einiger unterschiedlicher stabiler Isotope. Das häufigste dieser Isotope ist 16O, gefolgt von 18O, jedoch mit einem deutlich kleineren Anteil. Wasser existiert ebenfalls in Gestalt dieser beiden Isotope und das bequeme Verhalten zu verdunsten und als Niederschlag als H218O mit unterschiedlichen Raten im Vergleich zu H216O zu fallen. Die Messungen werden dargestellt als das Verhältnis (oder delta oder δ) als δ18O in parts per thousand.

Die Reise des aus den Ozeanen verdunsteten Wasserdampfes gefolgt von Niederschlag, erzeugt eine Maßzahl des Start-Verhältnisses der Isotope ebenso wie die lokale Temperatur des Niederschlags. Das komplexe Endergebnis dieser unterschiedlichen Prozess-Raten ist, dass in der Tiefsee benthic foraminifera 18O aus der Tiefsee aufnehmen, und dieses δ18O steht dann meistens in einem Verhältnis zum globalen Eisvolumen. Die daraus resultierenden Tiefsee-Sedimente sind daher eine Zeitreihe des Eisvolumens. Allerdings sind die Raten der Sedimentation keine exakte Wissenschaft und auch nicht zeitlich konstant.

Als Ergebnis viel sorgfältiger Arbeit durch zahlreiche Forscher über viele Jahrzehnte ergab sich eine Studie von Hays, Imbrie & Shackleton (1976). Dies zeigte, dass Änderungen des Eisvolumens mit orbitaler Häufigkeit von Präzession und Schiefe erfolgen (etwa alle 20.000 und alle 40.000 Jahre). Aber es gibt sogar ein noch stärkeres Signal – den Beginn und das Ende von Eiszeiten – etwa alle 100.000 Jahre. Dies fällt grob zusammen mit Änderungen der Exzentrizität des Erdorbits. Jedoch hat niemand eine (brauchbare) Theorie, die diesen Umstand mit Beginn und Ende von Eiszeiten in Verbindung bringt.

Nun gibt uns das klare Signal von Schiefe und Präzession in den Aufzeichnungen die Option, die Aufzeichnung so zu tunen, dass die Spitzenwerte in der Aufzeichnung zu den orbitalen Häufigkeiten von Präzession und Schiefe passen. Wir haben die Tuning-Methode in einigen Kommentaren zu Teil IX zu einem ähnlichen, aber viel späteren Datensatz diskutiert – den LR04. Die Methode ist nicht falsch, aber wir können das Timing der Schlüsselereignisse nicht bestätigen. Glücklicherweise gibt es inzwischen einige neue Verfahren.

Datierung von Eisbohrkernen

Es waren begeisternde Zeiten der letzten mehr als zwanzig Jahre in der Klimawissenschaft für Leute, die dicke warme Kleidung tragen und „alles hinter sich lassen“ wollen.

Viele Eisbohrkerne stammen aus Grönland und der Antarktis. Aus Grönland gibt es eine Reihe, die 123.000 Jahre zurück reicht (NGRIP). Aus der Antarktis gibt es eine Reihe, die 800.000 Jahre zurück reicht (EDC bzw. „Dome C“). Aus der Antarktis stammt auch der Wostok-Eisbohrkern, der etwa 400.000 Jahre zurück reicht und einen aus Dronning Maud Land (bzw. DML oder EDML), der eine etwas höhere Auflösung hat, aber nur 150.000 Jahre zurück reicht.

Was messen diese Eisbohrkerne, und wie wird die Datierung vorgenommen? Die Eisbohrkerne messen die Temperatur zur Zeit der Ablagerung als Schnee mittels der oben diskutierten δ18O-Messung (Anmerkung 2), welche in diesem Fall nicht eine Maßzahl für das globale Eisvolumen, sondern für die Lufttemperatur ist. Das in Bläschen eingeschlossene Gas in den Bohrkernen gibt uns die CO2 und CH4-Konzentrationen. Wir können auch Staubablagerungen und alle möglichen anderen Inhalte messen.

Das erste Problem ist nun, dass das Gas „jünger“ ist als das Eis, weil es sich noch so lange bewegt, bis der Schnee genügend komprimiert ist. Also brauchen wir ein Modell, um dies zu simulieren, und es gibt einige Unsicherheiten über den zeitlichen Unterschied zwischen Eis und Gas. Das zweite Problem ist das der Datierung. Zu Beginn können wir jährliche Schichten ablesen. Nach einer ausreichenden Zeit (einige Jahrzehnte bis tausende von Jahren) können diese Schichten nicht mehr voneinander unterschieden werden, stattdessen kann man nur noch Modelle der Physik über Eisflüsse heranziehen. Dann kam es zu einigen günstigen Zeitmarken wie den 10Be-Ereignissen (hier) vor etwa 50.000 Jahren. Nachdem die Physik von Eisflüssen und externe Ereignisse nicht mehr ausreicht, werden die Daten durch anderweite Methoden weiter justiert, ebenso wie Bohrkerne aus der Tiefsee.

Höhlen, Korallen und genaue Terminierung via Radiometrie

Weder Bohrkerne aus der Tiefsee noch aus Eis bieten viel Gelegenheit einer Radiometrischen Datierung. Aber Höhlen und Korallen tun dies sehr wohl.

Für Neulinge hinsichtlich von Datierungs-Verfahren: hat man eine Substanz A, die sich in Substanz B mit einer „Halbwertszeit“ auflöst, die genau bekannt ist, und wenn man genau weiß, wie viel von Substanz A und Substanz B zu Beginn vorhanden war (d. h. keine Möglichkeit des Eindringens zusätzlicher Mengen der Substanzen A oder B in das, was wir messen wollen), dann kann man sehr genau das Alter berechnen, in der sich die Substanz gebildet hat. Im Grunde läuft alles darauf hinaus, wie der Ablagerungsprozess funktioniert. Die Datierung mittels Uran-Thorium war erfolgreich bei Kalkablagerungen im Gestein.

Man nehme also eine lange Reihe, kontinuierlicher Ablagerungen, messe das δ18O (und 13C) an einer Menge Punkten entlang dieser Reihe. Dann nehme man eine Anzahl von Beispielen und berechne das Alter entlang der Reihe mittels Radiometrie. Das, was genau in den Bohrkernen gemessen wird, ist kompliziert, aber ich werde erheblich vereinfachen und einfach behaupten, dass es nur um zwei Problempunkte geht:

1. Die tatsächliche Menge der Ablagerung, wenn während extremer Vereisung nicht viel Wasser zur Verfügung steht, um diese Ablagerungen hervorzubringen.

2. Die Variation von δ18O (and 13C), die in erster Linie von der lokalen Lufttemperatur abhängt.

Für an mehr Details Interessierte empfehle ich McDermott 2004. Einige relevante Auszüge finden sich unten in Anmerkung 3.

Korallen bieten die Möglichkeit, via radiometrischer Datierung genaue Daten zum Meeresspiegel zu bekommen. Die wichtigste Variable, die man kennen muss, sind Absenkungen und Hebungen der Erdkruste. Die genaue Datierung von Höhlen und Korallen war während der letzten 20 Jahre eine Wachstumsindustrie mit einigen interessanten Ergebnissen.

T-II

Winograd et al. (1992) analysierten die Höhle Devils Hole [= Teufelsloch”] in Nevada (DH-11):

Der zeitliche Verlauf von δ18O in Devils Hole (Abbildung 2) zeigt klar die Sägezahn-Verteilung der maritimen δ18O-Aufzeichnungen, die interpretiert worden sind als die Folge von Ausdehnung und Rückzug der nordhemisphärischen Eisschilde. Aber was war die Ursache für die δ18O-Variationen in DH-11 in Abbildung 2? Man nimmt an, dass die δ18O-Variationen im atmosphärischen Niederschlag – in erster Näherung – Änderungen der mittleren Temperatur im Winter und im Frühjahr reflektieren.

Fig. 2, Bildinschrift: Variationen der δ18O-Werte entlang des 36 cm langen Bohrkerns DH-11. Jeder Punkt repräsentiert ein Stück Kalkspat, das auf δ18O-Werte analysiert worden ist; die Zeitpunkte wurden auf die δ18O-Daten übertragen durch Interpolation zwischen 21 MS-Intervallen datiert nach Uran-Reihen in Intervallen. Die Verteilung der MS-Alter entlang des Bohrkerns wird markiert durch vertikale Linien unter dem oberen Rand; Fehlerbalken () durch horizintale Linien. Die Präzision der δ18O-Daten () beträgt 0,07 pro mil dargestellt relativ zu VSMOW in einem Maßstab normalisiert zu δ18O von SLAP = -55,5 pro mil. Aus Winograd et al 1992

Termination II ereignet sich bei 140±3 (2σ) ka in der DH-11-Reihe, bei 140± 15 ka in der Wostok-Reihe (14) und bei 128 ± 3 ka in der SPECMAP-Reihe (13). (Die Unsicherheit in der DH-11-Reihe liegt in den 2σ-Unsicherheiten der MS-Datierungen via Uran; andere Datierungen und Unsicherheiten stammen aus den angegebenen Quellen). Termination III ereignete sich bei etwa 253 +/- 3 (2σ) ka in der DH-11-Reihe und bei etwa 244 +/- 3 ka in der SPECMAP-Reihe. Diese Unterschiede sind Minimum-Werte.

Sie vergleichen die sommerliche Einstrahlung bei 65°N mit SPECMAP, Devils Hole und dem Wostok-Bohrkern in einer einfachen Graphik:

Figure.3, Bildinschrift: Vergleich der maritimen SPECMAP und DH-11 δ18O-Reihen, des antarktischen Eisschildes δD-Aufzeichnung aus Wostok und Einstrahlung im Juni auf 60°N im mittleren und späten Pleistozän. Alle Aufzeichnungen wurden normalisiert in Einheiten der Standardabweichung über die Länge der gezeigten Aufzeichnung. Zeitskalen sind wie in den genannten Quellen. Durchgezogene vertikale Linien repräsentieren Terminationen (das heißt, näherungsweise Mittelpunkte der Deglaziationen) in den Kurven von DH-11 und Wostok. Gestrichelte vertikale Linien sind Terminationen in der SPECMAP-Aufzeichnung. Römische Zahlen stehen für Terminationen nach Broecker und Van Donk. Die Zahlen am oberen Rand repräsentieren die Zeit zwischen den Terminationen in den DH-11- und Wostok-Aufzeichnungen. Kurze gestrichelte und strichpunktierte Linien werden im Text beschrieben. Zeitpunkte von Terminationen (und von anderen interessierenden Ereignissen) in der DH-11-Kurve sind Minimum-Werte wegen der Verweilzeit des Grundwassers im Ash-Meadow-Becken (siehe Text). Nach Winograd et al 1992

Natürlich war nicht jeder glücklich mit diesen neuen Informationen, und wer weiß schon, wofür die Isotopen-Messungen wirklich ein Proxy waren?

Slowey, Henderson & Curry 1996

Einige Jahre später, im Jahre 1996 haben Slowey, Henderson & Curry (nicht die berühmte Judith) über ihre Forschung Folgendes gesagt: Unsere Daten implizieren ein Timing und eine Dauer in Übereinstimmung mit der maritimen Chronologie. Die ursprüngliche U-Th-Datierung der maritimen δ18O-Aufzeichnungen stützt die Theorie, dass orbitale Variationen ein fundamentaler Grund für die Klimaänderung im Pleistozän waren.

Henderson & Slowey 2000

Dann, im Jahr 2000, kamen die gleichen Henderson & Slowey (ohne Curry) mit:

Milankovitch vermutete, dass die sommerliche Einstrahlung in mittleren Breiten der Nordhemisphäre direkt die Klimazyklen der Eiszeit verursacht hätten. Dies würde implizieren, dass Zeiten mit einem Zusammenbruch der Eisschilde korrespondieren sollten mit Spitzen der nordhemisphärischen Juni-Einstrahlung.

Aber die vorletzte Deglaziation hat sich als dem widersprechend erwiesen, weil die Juni-Einstrahlung vor 127.000 Jahren ihren Spitzenwert erreicht hatte, während viele Aufzeichnungen des Klimas der Vergangenheit zeigen, dass es bereits 15.000 Jahre früher Änderungen gegeben haben könnte. Es gibt eine eindeutige Signatur der vorletzten Deglaziation in den maritimen Aufzeichnungen der Sauerstoff-Isotope. Aber die Datierung dieses Ereignisses, das signifikant vor der 14C-Altersbandbreite liegt, war nicht möglich.

Hier datieren wir die vorletzte Deglaziation mittels einer Aufzeichnung von den Bahamas mit einer neuen U-Th-Isochronen-Methode. Nach den erforderlichen Korrekturen für eine a-recoil mobility von 234U und 230Th und einer kleinen Alterskorrektur wegen der Sediment-Durchmischung wird der Mittelpunkt der vorletzten Deglaziation bestimmt als vor 135.000 ± 2.500 Jahren. Dieses Alter ist konsistent mit einigen auf Korallen basierenden Schätzungen des Meeresspiegels, aber es ist schwierig, dies mit der Juni-Einstrahlung der Nordhemisphäre abzugleichen als Auslöser der Eiszeit-Zyklen.

Zhao, Xia & Collerson (2001)

Hoch präzise 230Th-238U-Altersbestimmungen aus einem Stalagmiten aus der Newdegate-Höhle im südlichen Tasmanien sagen aus: Das schnellste Stalagmiten-Wachstum erfolgte zwischen vor 129.200 ± 1600 Jahren und 122.100 ± 2000 Jahren († 61,5 mm pro 1000 Jahre). Dies fällt zusammen mit einer Zeit produktiven Korallenwachstums in Westaustralien (vor 128.000 bis 122.000 Jahren). Dies ist die erste hoch aufgelöste kontinentale Aufzeichnung der Südhemisphäre, die verglichen und korreliert werden kann mit den maritimen Aufzeichnungen. Eine derartige Korrelation zeigt, dass das Auftreten des Meeresspiegels während der Zwischeneiszeit und der Beginn höchster Regenmengen auf dem Festland synchron erfolgte. Die Stalagmiten-Wachstumsrate zwischen vor 129.200 und 142.200 Jahren († 5,9 mm pro 1000 Jahre) lag niedriger als im Zeitraum vor 1452.200 und 154.500 Jahren († 18,7 mm pro 1000 Jahre). Dies impliziert trockenere Bedingungen während der vorletzten Deglaziation trotz steigender Temperatur und steigendem Meeresspiegel.

Diese asymmetrische Verteilung der Niederschlagsmenge wird verursacht durch breitenabhängige Bewegungen subtropischer Hochdruckgebiete und einer damit verbundenen Westwind-Zirkulation als Reaktion auf den Temperaturgegensatz zwischen Äquator und Polen. Sowohl maritime als auch kontinentale Aufzeichnungen in Australien zeigen, dass das Einstrahlungsmaximum im Zeitraum zwischen vor 126.000 und 128.000 Jahren auf 65°N direkt verantwortlich war für die Aufrechterhaltung der vollen zwischeneiszeitlichen Bedingungen, obwohl unklar bleibt, welche Auslöser die vorletzte Deglaziation (vor † 142.000 Jahren) hatte.

Bildinschrift: Höhen und initiale 230U/238U-Aktivitäts-Verhältnisse für Unterbeispiele des Stalagmiten NEW-B aus der Newdegate-Höhle. Offene Quadrate mit Fehlerbalken und schwarze Punkte repräsentieren jeweils Höhen und initiale 230U/238U-Aktivitäts-Verhältnisse. Die Anpassungslinie durch die offenen Quadrate zeigt eine Wachstumshistorie für NEW-B in fünf Phasen, einschließlich der Zeitspanne und Wachstumsrate für jede Phase in Klammern. Aus Zhao et al 2001

Gallup, Cheng, Taylor & Edwards (2002)

Funde innerhalb der letzten Zwischeneiszeit-Terrasse auf Barbados enthalten Korallen, die während der vorletzten Deglaziation gewachsen sind, oder Termination II. Wir verwendeten kombinierte Datierungen mit 230 Th und 231Pa, um zu bestimmen, dass sie vor 135.800 ± 800 Jahren gewachsen sind. Dies zeigt , dass der Meeresspiegel zu jener Zeit um 18 ± 3 Meter unter dem Niveau von heute lag. Dies wiederum zeigt, dass der Meeresspiegel bis auf 20% seines Spitzenwertes während der letzten Zwischeneiszeit vor 136.000 Jahren gestiegen ist. Dies ist ein Widerspruch zu den Vorhersagen der Milankovitch-Theorie.

Abbildung 2B fasst die Aufzeichnung der Höhe des Meeresspiegels zusammen, wie er sich aus den neuen Daten ergibt. Am wichtigsten: unsere Aufzeichnung enthält auch Korallen, die die Höhe des Meeresspiegels direkt während T-II zeigen. Dem zufolge ereignete sich der meiste Anstieg (ca. 80%) während dieser Zeit vor 135.000 Jahren. Das ist grob konsistent mit frühen Verschiebungen von δ18O, gefunden auf den Bahamas und in Devils Hole und mit frühen (vor 134.000 Jahren) Korallen der letzten Zwischeneiszeit aus Hawaii. All diese stellen das Timing von Termination II in der SPECMAP-Aufzeichnung in Frage.

Figure 5, Bildinschrift: Abbildung 2 (A): Juni-Einstrahlung auf 65°N. Die durchgezogenen vertikalen grauen Linien sind eine Referenz zu Spitzenwerten der Einstrahlung, und die gepunkteten vertikalen Linie repräsentiert eine Referenz für die halbe Höhe des Spitzenwertes im Zeitraum zwischen vor 140.000 und 130.000 Jahren. (B) Höhe des Meeresspiegels, rekonstruiert mit Korallen von Barbados mit übereinstimmenden 230Th und 231Pa-Zeitaltern aus dieser Studie (Dreiecke mit Beschriftung) und von (12) (Kreise). Die alle drei Kriterien erfüllenden Beispiele (siehe Text) sind in gelb; das Beispiel in blau erfüllt zwei Kriterien. (C) δ18O-Aufzeichnungen in Ablagerungen von SPECMAP (dicke Linie) und von Devils Hole (dünne Linie). (D) Wostok-Aufzeichnungen des atmosphärischen δ18O (blau), atmosphärische CO2-Konzentration (schwarz) und Temperatur aus Deuterium-Messungen (rot). Aus Gallup et al 2002

Natürlich ist für die vielköpfige Hydra noch nicht alles verloren (siehe auch Anhang 4): Die Milankovitch-Theorie in ihrer einfachsten Form kann T-II zwar nicht erklären. Wie auch Termination I. Allerdings ist es aber zumindest immer noch plausibel, dass Antrieb durch Insolation eine Rolle beim Timing von T-II gespielt hat. Da Deglaziationen beginnen müssen, während sich die Erde in einem Eiszeit-Zustand befindet, ist es nützlich, Faktoren zu betrachten, die eine Deglaziation während eines eiszeitlichen Maximums auslösen können. Darunter sind (i) Meereis schneidet eine Feuchtigkeitsquelle für die Eisschilde ab; (ii) isostatische Depression kontinentaler Krusten und (iii) hohe sommerliche Einstrahlung auf der Südhemisphäre durch Auswirkungen auf die atmosphärische CO2-Konzentration.

Yuan et al 2004 präsentieren gegenteilige Beweise:

Datierungen mit Thorium-230 und Sauerstoffisotopen von Stalagmiten aus der Dongge-Höhle in China zeigen den asiatischen Monsun und den Niederschlag in niedrigen Breiten währewnd der letzten 160.000 Jahre. Zahlreiche abrupte Änderungen der 18O/16O-Werte resultieren aus Änderungen des tropischen und subtropischen Niederschlags, getrieben von Einstrahlung und Zirkulationsverschiebungen im Zeitmaßstab von Jahrtausenden.

Der Letzte zwischeneiszeitliche Monsun dauerte 9700 ± 1100 Jahre und begann mit einem abrupten Abfall (weniger als 200 Jahre) der 18O/16O-Werte vor 129.300 ± 900 Jahren. Er endete mit einem abrupten Anstieg (weniger als 300 Jahre) dieser Werte vor 119.600 ± 600 Jahren. Der Beginn fällt zusammen mit einem Anstieg der Einstrahlung und dauerte während der gesamten zwischeneiszeitlichen vollumfänglichen Bedingungen. Dies zeigt, dass die Einstrahlung den finalen Anstieg bis hin zu vollständigen zwischeneiszeitlichen Bedingungen ausgelöst hat.

Aber sie kommentieren auch: Obwohl das Timing von Monsun-Termination II konsistent ist mit dem Einstrahlungs-Antrieb auf der Nordhemisphäre, sind nicht alle Klimaänderungen zu dieser Zeit konsistent mit solch einem Mechanismus.

Figure 6

Der Meeresspiegel war offensichtlich bis auf ein Niveau von 21 Metern unter dem heutigen Niveau gestiegen, und zwar schon vor 135.000 Jahren (27 & Gallup et al. 2002), was dem größten Teil der Einstrahlungs-Zunahme voraus lief. Die halbe Strecke von T-II aus maritimen Sauerstoffisotopen wurde datiert auf einen Zeitpunkt vor 135.000 ± 2500 Jahren (Henderson & Slowey 2000).

Auf Funde in Höhlen basierende Beweise aus den Alpen zeigen Temperaturen nahe dem heutigen Niveau vor 135 ± 1200 Jahren (31). Die Halbe Höhe des δ18O-Anstiegs in Devils Hole (vor 142.000 ± 3000 Jahren) läuft ebenfalls dem größten Teil des Einstrahlungs-Anstiegs voraus (20). Eine Zunahme der antarktischen Temperatur und des atmopsphärischen CO2 (32) um die Zeit von Termination II scheint zu Zeiten begonnen zu haben, die von einigen wenigen bis zu vielen Jahrtausenden vor dem größten Teil der Einstrahlungs-Zunahme reichen (4, 32, 33).

Drysdale et al 2009

Es wird verbreitet angenommen, dass Variationen der Intensität der Einstrahlung in hohen nördlichen Breiten, hauptsächlich durch die Präzession der Äquinoktien, das Timing der Eiszeit-Terminationen des späten Pleistozäns gesteuert haben. Allerdungs wurde jüngst darauf hingewiesen, dass Änderungen der Schiefe der Ekliptik ein wichtigerer Mechanismus dafür sein könnte. Wir präsentieren eine neue, auf Stalagmiten basierende maritime Chronologie des Nordatlantik, die zeigt, dass die vorletzte glaziale Termination (Termination II) vor 141.000 ± 2500 Jahren vor heute stattgefunden hat. Das ist zu früh, um mit der sommerlichen Einstrahlung auf der Nordhemisphäre erklärt werden zu können, ist aber konsistent mit Änderungen der Schiefe der Erde. Unsere Aufzeichnung zeigt, dass die Terminationen I und II durch drei Erdachsenschiefe-Zyklen voneinander getrennt sind und dass sie in nahezu identischen Phasen der Schiefe begannen.

Für Leser, die bis hier durchgehalten haben, ist das inzwischen Standard. Aber die Drysdale-Studie ist in zweierlei Hinsicht interessant: wegen ihrer Datierungsmethode und ihres „ein Ergebnis in einer Reihe“, was zu einer Theorie mit Beweisen passt (Mehr Text aus der Studie habe ich in Anmerkung 5 extrahiert). Schauen wir zuerst auf die Datierungs-Methode:

Was sie getan haben war im Grunde, die Bohrkerne aus der Tiefsee, die das globale Eisvolumen zeigen (aber sie haben keine unabhängige Datierung), mit genauen radiometrisch datierten Höhlenablagerungen zusammenzubringen. Wie haben sie es gemacht? Es ist kompliziert, beruht aber auf dem Zueinanderbringen der δ18O – Werte in beiden Aufzeichnungen. Der Versuch einer absoluten Datierung für existierende Tiefsee-Bohrkerne ergibt sehr interessante Ergebnisse, falls er konsistent ist.


 Figure 7, auf die Übersetzung des Bildinhalts wurde verzichtet und dafür auf das englische Original verwiesen.

Der Zusammenhang zwischen Corchia δ18O und Wassertemperaturen vor der Iberischen halbinsel während T-II (Abbildung 2) ist bemerkenswert. Obwohl die Mechanismen, die die δ18O-Variationen in den Höhlenablagerungen steuern, komplex sind, glauben wir, dass Corchia δ18O hauptsächlich durch Variationen der Regenmenge getrieben wird – als Reaktion auf Änderungen der regionalen Wassertemperatur. Frühere Studien von Corchia zeigen, dass das δ18O sensitive ist gegenüber vergangenen Änderungen der nordatlantischen Zirkulation sowohl im orbitalen als auch im Millenium-Zeitmaßstab. Dabei nimmt δ18O während kälterer Phasen zu und während wärmerer Phasen ab.

Figure 8, von Drysdal et al. 2009, Bildinschrift im Original belassen.

Und jetzt zur Hypothese:

Figure 9, von Drysdale et al. 2009

Wir finden, dass die Stärke der norhemisphärischen Sommer-Insolation nicht sehr wahrscheinlich die treibende Kraft für Termination II war. Die Intensitäten waren nahe am Minimum zum Startzeitunkt von T-II und ein verzögerter Response zu dem vorangegangenen Insolations-Peak um ~148.000 ka ist wegen seiner kleinen Amplitude unwahrsheinlich (Fig. 3A). Das ist ein Argument gegen die SPECMAP Kurve als verlässlicher Zeit-Spiegel durch T-II, wenn man den Zeitabstand von ~8 ka für den T-II Mittelpunkt (8) mit unserem Record vergleicht. Ein viel stärkeres Argument ist mit der Erdachsenschiefe als dem verantwortlichen Mechanismus gegeben.Auf der Basis unserer Ergebnisse (Fig. 3B) beginnen sowohl T-I als auch T-IImit derselben Phase der Erdachsenneigung und die Periode von beiden ist exakt die gleiche wie die 3 Erdachsen Zyklen (~123 ka).

EPICA 2006

Here is my plot of the Dronning Maud Land ice core (DML) on EDC3 timescale from EPICA 2006 (data downloaded from the Nature website):

Figure 10, Daten von Epica

Die zahlreichen antarktischen und grönländischen Eisbohrkerndaten unterliegen immer noch zahlreichen Datierungsverbesserungen, daher habe ich die letzten Arbeiten nicht berücksichtigt. Ich dachte nur, es wäre gut das Eisbohrkernthema zu vertiefen. Der Wert δ18O ist ein temperaturproxy. Auf diser Zeitskala begannen die lokalen temperaturen um 138.000 Jahre BP anzusteige

Zusammenfassung

Neue Daten zu T-II aus den letzten 20 Jahren radiometrischer Zeitermittelung und aus verschiedenen Stellen zeigen, dass T-II ungefähr 140.000 Jahre BP begann. Als nächsten Bild nun die Insolationskurve bei 65ºN über die letzten 180 kyrs zusammen mit den besten Daten der Eiszeitenden, die um ungefähr 121 bis 125 kyrs auseinanderliegen:

Figure 11

Wir lernten ein paper mit unterschiedlicher Evidenz für den Start von T-II kennen – Yuan et al. (see note 6). Alle Evidenz einschließlich Datierung des Meeresanstiegs, spricht für T-II Start um 140.000 Jahre BP. Dies bedeutet, dass die Zeit zwischen den Eiszeitenden ungefähr 122.000 Jahre beträgt!

Noch als Ergänzung, weil Winograd et al, 1992 T-III um etwa 253 kyrs berechneten: Dies bedeutet für die Zeit zwischen T-III und T-II um die 113.000 Jahre, also genau fünf einschlägige Erdschiefen-Zyklen!

References

A Pliocene-Pleistocene stack of 57 globally distributed benthic D18O records, Lorraine E. Lisiecki & Maureen E. Raymo, Paleoceanography (2005) – free paper

Continuous 500,000-Year Climate Record from Vein Calcite in Devils Hole, Nevada, Winograd, Coplen, Landwehr, Riggs, Ludwig, Szabo, Kolesar & Revesz, Science (1992) – paywall, but might be available with a free Science registration

Palaeo-climate reconstruction from stable isotope variations in speleothems: a review, Frank McDermott, Quaternary Science Reviews 23 (2004) – free paper

Direct U-Th dating of marine sediments from the two most recent interglacial periods, NC Slowey, GM Henderson & WB Curry, Nature (1996)

Evidence from U-Th dating against northern hemisphere forcing of the penultimate deglaciation, GM Henderson & NC Slowey, Nature (2000)

Timing and duration of the last interglacial inferred from high resolution U-series chronology of stalagmite growth in Southern Hemisphere, J Zhao, Q Xia & K Collerson, Earth and Planetary Science Letters (2001)

Direct determination of the timing of sea level change during Termination II, CD Gallup, H Cheng, FW Taylor & RL Edwards, Science (2002)

Timing, Duration, and Transitions of the Last Interglacial Asian Monsoon, Yuan, Cheng, Edwards, Dykoski, Kelly, Zhang, Qing, Lin, Wang, Wu, Dorale, An & Cai, Science (2004)

Evidence for Obliquity Forcing of Glacial Termination II, Drysdale, Hellstrom, Zanchetta, Fallick, Sánchez Goñi, Couchoud, McDonald, Maas, Lohmann & Isola, Science (2009)

One-to-one coupling of glacial climate variability in Greenland and Antarctica, EPICA Community Members, Nature (2006)

Millennial- and orbital-scale changes in the East Asian monsoon over the past 224,000 years, Wang, Cheng, Edwards, Kong, Shao, Chen, Wu, Jiang, Wang & An, Nature (2008)

Notes

Note 1 – In common ice age convention, the date of a termination is the midpoint of the sea level rise from the last glacial maximum to the peak interglacial condition. This can be confusing for newcomers.

Note 2 – The alternative method used on some of the ice cores is δD, which works on the same basis – water with the hydrogen isotope Deuterium evaporates and condenses at different rates to “regular” water.

Note 3 – A few interesting highlights from McDermott 2004:

2. Oxygen isotopes in precipitation

As discussed above, d18O in cave drip-waters reflect

(i) the d18O of precipitation (d18Op) and

(ii) in arid/semi- arid regions, evaporative processes that modify d18Op at the surface prior to infiltration and in the upper part of the vadose zone.

The present-day pattern of spatial and seasonal variations in d18Op is well documented (Rozanski et al., 1982, 1993; Gat, 1996) and is a consequence of several so-called ‘‘effects’’ (e.g. latitude, altitude, distance from the sea, amount of precipitation, surface air temperature).

On centennial to millennial timescales, factors other than mean annual air temperature may cause temporal variations in d18Op (e.g. McDermott et al., 1999 for a discussion). These include:

(i) changes in the d18O of the ocean surface due to changes in continental ice volume that accompany glaciations and deglaciations;

(ii) changes in the temperature difference between the ocean surface temperature in the vapour source area and the air temperature at the site of interest;

(iii) long-term shifts in moisture sources or storm tracks;

(iv) changes in the proportion of precipitation which has been derived from non-oceanic sources, i.e. recycled from continental surface waters (Koster et al., 1993); and

(v) the so-called ‘‘amount’’ effect.

As a result of these ambiguities there has been a shift from the expectation that speleothem d18Oct might provide quantitative temperature estimates to the more attainable goal of providing precise chronological control on the timing of major first-order shifts in d18Op, that can be interpreted in terms of changes in atmospheric circulation patterns (e.g. Burns et al., 2001; McDermott et al., 2001; Wang et al., 2001), changes in the d18O of oceanic vapour sources (e.g. Bar Matthews et al., 1999) or first-order climate changes such as D/O events during the last glacial (e.g. Spo.tl and Mangini, 2002; Genty et al., 2003)..

4.1. Isotope stage 6 and the penultimate deglaciation

Speleothem records from Late Pleistocene mid- to high-latitude sites are discussed first, because these are likely to be sensitive to glacial–interglacial transitions, and they illustrate an important feature of speleothems, namely that calcite deposition slows down or ceases during glacials. Fig. 1 is a compilation of approximately 750 TIMS U-series speleothem dates that have been published during the past decade, plotted against the latitude of the relevant cave site.

The absence of speleothem deposition in the mid- to high latitudes of the Northern Hemisphere during isotope stage 2 is striking, consistent with results from previous compilations based on less precise alpha-spectrometric dates (e.g. Gordon et al., 1989; Baker et al., 1993; Hercmann, 2000). By contrast, speleothem deposition appears to have been essentially continuous through the glacial periods at lower latitudes in the Northern Hemisphere (Fig. 1)..

..A comparison of the DH-11 [Devils Hole] record with the Vostok (Antarctica) ice-core deuterium record and the SPEC- MAP record that largely reflects Northern Hemisphere ice volume (Fig. 2) indicates that both clearly record the first-order glacial–interglacial transitions.

Note 4 – Note the reference to Milankovitch theory “explaining” Termination I. This appears to be the point that insolation was at least rising as Termination began, rather than falling. It’s not demonstrated or proven in any way in the paper that Termination I was caused by high latitude northern insolation, it is an illustration of the way the “widely-accepted point of view” usually gets a thumbs up. You can see the same point in the quotation from the Zhao paper. It’s the case with almost every paper.

If it’s impossible to disprove a theory with any counter evidence then it fails the test of being a theory.

Note 5 – More from Drysdale et al 2009:

During the Late Pleistocene, the period of glacial-to-interglacial transitions (or terminations) has increased relative to the Early Pleistocene [~100 thousand years (ky) versus 40 ky]. A coherent explanation for this shift still eludes paleoclimatologists. Although many different models have been proposed, the most widely accepted one invokes changes in the intensity of high-latitude Northern Hemisphere summer insolation (NHSI). These changes are driven largely by the precession of the equinoxes, which produces relatively large seasonal and hemispheric insolation intensity anomalies as the month of perihelion shifts through its ~23-ky cycle.

Recently, a convincing case has been made for obliquity control of Late Pleistocene terminations, which is a feasible hypothesis because of the relatively large and persistent increases in total summer energy reaching the high latitudes of both hemispheres during times of maximum Earth tilt. Indeed, the obliquity period has been found to be an important spectral component in methane (CH4) and paleotemperature records from Antarctic ice cores.

Testing the obliquity and other orbital-forcing models requires precise chronologies through terminations, which are best recorded by oxygen isotope ratios of benthic foraminifera (d18Ob) in deep-sea sediments (1, 8).

Although affected by deep-water temperature (Tdw) and composition (d18Odw) variations triggered by changes in circulation patterns (9), d18Ob signatures remain the most robust measure of global ice-volume changes through terminations. Unfortunately, dating of marine sediment records beyond the limits of radiocarbon methods has long proved difficult, and only Termination I [T-I, ~18 to 9 thousand years ago (ka)] has a reliable independent chronology.

Most marine chronologies for earlier terminations rely on the SPECMAP orbital template (8) with its a priori assumptions of insolation forcing and built-in phase lags between orbital trigger and ice-sheet response. Although SPECMAP and other orbital-based age models serve many important purposes in paleoceanography, their ability to test climate- forcing hypotheses is limited because they are not independent of the hypotheses being tested. Consequently, the inability to accurately date the benthic record of earlier terminations constitutes perhaps the single greatest obstacle to unraveling the problem of Late Pleistocene glaciations..

..

Obliquity is clearly very important during the Early Pleistocene, and recently a compelling argument was advanced that Late Pleistocene terminations are also forced by obliquity but that they bridge multiple obliquity cycles. Under this model, predominantly obliquity-driven total summer energy is considered more important in forcing terminations than the classical precession-based peak summer insolation model, primarily because the length of summer decreases as the Earth moves closer to the Sun. Hence, increased insolation intensity resulting from precession is offset by the shorter summer duration, with virtually no net effect on total summer energy in the high latitudes. By contrast, larger angles of Earth tilt lead to more positive degree days in both hemispheres at high latitudes, which can have a more profound effect on the total summer energy received and can act essentially independently from a given precession phase. The effect of obliquity on total summer energy is more persistent at large tilt angles, lasting up to 10 ky, because of the relatively long period of obliquity. Lastly, in a given year the influence of maximum obliquity persists for the whole summer, whereas at maximum precession early summer positive insolation anomalies are cancelled out by late summer negative anomalies, limiting the effect of precession over the whole summer.

Although the precise three-cycle offset between T-I and T-II in our radiometric chronology and the phase relationships shown in Fig. 3 together argue strongly for obliquity forcing, the question remains whether obliquity changes alone are responsible.

Recent work invoked an “insolation-canon,” whereby terminations are Southern Hemisphere–led but only triggered at times when insolation in both hemispheres is increasing simultaneously, with SHSI approaching maximum and NHSI just beyond a minimum. However, it is not clear that relatively low values of NHSI (at times of high SHSI) should play a role in deglaciation. An alternative is an insolation canon involving SHSI and obliquity.

Note 6 – There are a number of papers based on Dongge and Hulu caves in China that have similar data and conclusions but I am still trying to understand them. They attempt to tease out the relationship between δ18O and the monsoonal conditions and it’s involved. These papers include: Kelly et al 2006, High resolution characterization of the Asian Monsoon between 146,000 and 99,000 years B.P. from Dongge Cave, China and global correlation of events surrounding Termination II; Wang et al 2008, Millennial- and orbital-scale changes in the East Asian monsoon over the past 224,000 years.

Link: http://scienceofdoom.com/2014/01/23/ghosts-of-climates-past-thirteen-terminator-ii/

Teil I und II: http://www.eike-klima-energie.eu/climategate-anzeige/das-raetsel-der-eiszeiten-teil-i-und-ii/

Teil III: http://www.eike-klima-energie.eu/climategate-anzeige/das-raetsel-der-eiszeiten-teil-iii-hays-imbrie-shackleton/

Teil IV: http://www.eike-klima-energie.eu/climategate-anzeige/das-raetsel-der-eiszeiten-teil-iv-umlaufbahnen-jahreszeiten-und-mehr/

Teil V: http://www.eike-klima-energie.eu/klima-anzeige/das-raetsel-der-eiszeiten-teil-v-aenderungen-der-ekliptik-und-der-praezession/

Teil VI: http://www.eike-klima-energie.eu/klima-anzeige/das-raetsel-der-eiszeiten-teil-vi-hypothesen-im-ueberfluss/

Teil VII: http://www.eike-klima-energie.eu/klima-anzeige/das-raetsel-der-eiszeiten-teil-7-global-circulation-models-i/

Teil VIII: http://www.eike-klima-energie.eu/klima-anzeige/das-raetsel-der-eiszeiten-teil-8-global-circulation-models-ii/

Teil IX: http://www.eike-klima-energie.eu/klima-anzeige/das-raetsel-der-eiszeiten-teil-9-global-circulation-models-iii/

Teil X: http://www.eike-klima-energie.eu/klima-anzeige/das-raetsel-der-eiszeiten-teil-10-global-circulation-models-iv/

Teil XI: http://www.eike-klima-energie.eu/klima-anzeige/das-raetsel-der-eiszeiten-teil-xi-das-ende-der-letzten-eiszeit/

Teil XII: http://www.eike-klima-energie.eu/klima-anzeige/das-raetsel-der-eiszeiten-teil-xii-gcm-v-wie-enden-eiszeiten/





Grüne Energiepolitik: Je sinnloser, desto lieber – Geothermie – allzu oft nur die Gier nach Subventionen

Am 8. Dezember 2006 ereignete sich in der Region Basel ein Erdbeben der Stärke 3,4. Dieses richtete zwar keine größeren Schäden an, war aber dennoch deutlich zu spüren und löste in der Bevölkerung Unruhe aus. Die Versicherung musste 9 Mio. CHF für Gebäudeschäden erstatten. Und am 20. Juli 2013 kam es in St. Gallen zu einem Erdbeben der Stärke 3,5. In dessen Folge wurden insgesamt 120 Meldungen über kleinere Schäden bis hin zu Rissen in Häusern eingereicht. Gemeinsamkeit beider Ereignisse war die Auslösung der Beben durch Geothermieprojekte. Bei dem Basler Projekt hatte die Angelegenheit sogar ein Strafverfahren gegen den Chef der Bohrfirma zur Folge.

Die Alpen (Bild rechts) wurden durch den Anprall der afrikanischen auf die europäische Platte aufgetürmt. Diese auch heute noch andauernde tektonische Bewegung kann äußerst starke Erdbeben auslösen

Die Technologie

Das Problem war in beiden Fällen, dass – wie z.B. auch in den meisten Regionen Deutschlands – der Wärmestrom aus dem Erdinneren keine allzu großen Energiemengen transportiert und man daher sehr tief bohren muss, um überhaupt für die Stromerzeugung nutzbare Temperaturen zu erhalten. Bei den Bohrungen in der Schweiz waren dies Tiefen von über 4.000 m. In Basel war das Ziel trockenes, mehr als hundert Grad heißes Gestein. In dieses wird im ersten Projektstadium Wasser unter großem Druck hineingepumpt. Dadurch bilden sich Risse, die allmählich ein Warmwasser-Reservoir entstehen lassen. Bei diesem Aufbrechen des Gesteins werden im Untergrund Schockwellen ausgelöst, die als sogenannte Mikrobeben an der Oberfläche registriert werden. Das gestattet es, den Fortschritt der Arbeiten zu verfolgen. In St. Gallen wurde dagegen versucht, eine Wasserader mit ausreichend hoher Temperatur anzuzapfen. In beiden Fällen hatte man jedoch keine ausreichende Kenntnis der Verhältnisse im Untergrund.

Unverantwortbare Risiken…

Das Problem ist, dass man sich am Nordrand der Alpen und insbesondere im Bereich des oberen Rheingrabens bei Basel in einer stark erdbebengefährdeten Region befindet. Ursache ist der Zusammenprall des afrikanischen und des europäischen Kontinents, der unter anderem dazu geführt hat, dass die Alpen aufgeschoben wurden. Dieser geologische Vorgang dauert immer noch an und bewirkt den Aufbau hoher Spannungen im Untergrund, die sich von Zeit zu Zeit in Erdbeben entladen. Gerade im Raum Basel, wo es im Verlauf der letzten 2000 Jahren zu zwei äußerst heftigen Erdbeben gekommen ist, besteht das Risiko, dass man durch ein künstliches Kleinbeben ein größeres Beben auslösen kann. Prof. Domenico Giardini vom Institut für Seismologie und Geodynamik der ETH Zürich hält dies für realistisch: „Dieser Brute-Force Ansatz ist attraktiv und simpel. Der Nachteil ist: Er kann Erdbeben auslösen. Und zwar auch größere, nicht nur jene kleinen, die die Bohrung und das Erweitern des Reservoirs begleiten“ [RIBE].

mit möglicherweise katastrophalen Folgen

Und im Raum Basel geht es um Auswirkungen, die nahezu jede andere in dieser Region denkbare Naturkatastrophe übertreffen würden: „Das Basler Erdbeben bezeichnet eine Serie von gewaltigen Erdstößen, die Basel ab dem Nachmittag des Lukastages (18. Oktober) des Jahres 1356 in Trümmer legten. Die Intensität des Erdbebens wird nach den Schäden auf Stufe X der Modifizierten Mercalliskala geschätzt” [WI35]. Erdbeben dieser Stufe werden als „vernichtend“ bezeichnet. Prof. Donat Fäh, Leiter des Bereichs für Risiko- und Gefahrenbeurteilung des Schweizerischen Erdbebendienstes (SED) an der ETH Zürich, betont dass dort, wo historisch Beben aufgetreten sind, diese wieder kommen werden. Das gelte auch für Basel, das am südlichen Ende des Rheingrabens liegt. Diese Zone ist auch heute noch tektonisch aktiv, weil sich Erdplatten gegeneinander verschieben und dabei verhaken, wodurch Spannungen aufgebaut werden. Wenn dann irgendwann eine größere Schwachstelle bricht, gibt es „einen kräftigen Ruck – wie anno 1356“, so der Wissenschaftler und warnt: „Ein Beben derselben Stärke (wäre) für das heutige Basel verheerend. Das Ereignis von 1356 ist vergleichbar mit dem katastrophalen Erdbeben, das 1995 Kobe getroffen hat.…Ein solches Beben würde heute in der Region Basel 1.000 bis 20.000 Tote (fordern)….Allein (die) Gebäudeschäden würden bei rund 50 Milliarden Franken liegen“ [FAEH]. Zusätzliches Unheil könnten nach Ansicht von Dr. Mayer-Rosa, früherer Chef des Schweizerischen Erdbebendienstes (SED), auch die zahlreichen Wehre am Hochrhein und der Staudamm des Schluchsees im benachbarten Schwarzwald anrichten. Würden sie bersten, dann könnte es zu einer Flutwelle kommen, die ganze Hafenanlagen, Benzintanklager oder Pharmafirmen wegspült und letzte Fluchtwege abschneidet. Zudem käme es zu verheerenden Sekundärwirkungen auf die andern Rheinanliegerstaaten: „Wenn beispielsweise Sandoz wegschwimmt, dann ist in Amsterdam der Teufel los“ [ONLI].

Grob fahrlässiges Verhalten

Während Wissenschaftlern also schon lange klar war, welche Risiken mit solchen Vorhaben verbunden waren, gab man beim Baseler Projekt erst nach dem Unfall eine umfassende Risikoanalyse in Auftrag [BAZO, NZZ]. Das Ergebnis ist im Prinzip eine Ohrfeige für die Verantwortlichen. Das von sechs Firmen aufgrund der Auswertung von Messdaten und Modellanalysen erstellte seismische Gutachten schlussfolgert, dass bei diesem Projekt die Gefahr von Erdbeben und Gebäudeschäden zu groß sei. Die zu erwartenden Sachschäden – im Raum stehen Summen bis zu weit mehr als 600 Mio. CHF – seien „gemäß dem Maßstab der Störfallverordnung hinsichtlich der Häufigkeit des Auftretens und der Schadenssumme als nicht akzeptabel zu beurteilen“ [RIBE].

Auch in St. Gallen, wo man trotz des Erdbebens zunächst weitergemacht hatte, musste man am 14.5.2014 den Abbruch des Projekts bekanntgeben [STG2]. Die in der Tiefe gefundene Heißwassermenge ist für ein Kraftwerk viel zu klein. Hinzu kommen das Risiko weiterer Erbeben und das finanzielle Risiko für die Stadt. Prof. Stefan Wiemer, seit 2013 Leiter des SED, schreibt in einem Fazit, der Untergrund bleibe voller Überraschungen und die dort herrschenden tektonischen Vorspannungen ließen sich vor einer Bohrung nicht verlässlich abschätzen. „Änderungen der Spannungsverhältnisse im Untergrund durch menschliche Eingriffe können Erdbeben auslösen. Das ist sogar oftmals gewollt, denn Mikrobeben erhöhen die Durchlässigkeit des Gesteins und damit auch die Wirtschaftlichkeit eines Geothermie-Projektes. Doch mit solchen Eingriffen ausreichend kleine Beben zu erzeugen und gleichzeitig Schäden an der Erdoberfläche sicher auszuschliessen ist eine Kunst, die wir bislang noch nicht verlässlich beherrschen. In der dichtbesiedelten Schweiz sollte man daher einen Sicherheitsabstand von grösseren aktiven Verwerfungen einhalten“ [WIEM]. Was der Wissenschaftler damit durch die Blume ausdrückt, kann man auf gut Deutsch auch so formulieren: Auch die Verantwortlichen der Stadt St. Gallen haben sich bei der Verfolgung ihrer „Vision einer erneuerbaren Energiezukunft“ fahrlässig verhalten.

Gigantische Investitionen

Für jemanden, der gewohnt ist, bei Wirtschaftsprojekten Kosten und Nutzen gegeneinander abzuwägen, ist die Hartnäckigkeit, mit der sowohl in Deutschland als auch in der Schweiz immer neue Geothermieprojekte vorangetrieben werden [WIGE], schwer nachzuvollziehen. In beiden Ländern ist das Temperaturniveau im Untergrund fast flächendeckend niedrig. Bei derartigen Niederenthalpie-Lagerstätten muss man in der Regel sehr tief bohren, um überhaupt den für die Elektrizitätserzeugung erforderlichen Grenzwert von 100 °C zu überschreiten. Für eine Abschätzung der Kosten eines Projekts, das die Gewinnung sowohl von Wärme als auch von elektrischer Energie zum Ziel hat, kann man die für Basel und St. Gallen bewilligten Budgets als Maßstab nehmen. In beiden Städten waren jeweils 80 Mio. CHF angesetzt, zusammen also 160 Mio. Rechnet man dies zum gegenwärtigen Kurs von etwa 1,2 zu 1 in € um, so liegen die Kosten für ein solches Projekt bei rund 67 Mio. €. Bei 26 in Deutschland angesetzten Projekten geht es demnach um Investitionen in einer Größenordnung von bis zu 1,5 Mrd. €. Was zu der Frage führt, was mit diesen Investitionen letztlich erreicht werden könnte.

Von den 26 deutschen Projekten liefern derzeit acht Strom mit einer Leistung von insgesamt rund 27 MW. Bei weiteren zehn Projekten ist eine Stromerzeugung aus den verschiedensten Gründen hinfällig oder zumindest sehr fragwürdig. Somit verbleiben noch acht Projekte, bei denen eine Stromerzeugung im Bereich des Möglichen liegt. Setzt man für jedes dieser Projekte eine Stromerzeugungskapazität von durchschnittlich 5 MW an, so kämen zu den 27 MW maximal weitere 40 MW hinzu. Das Gesamt-Erzeugungspotenzial läge damit bei rund 67 MW – dem „Gegenwert“ von 22 Windenergieanlagen.

Das Niederbringen einer Tiefbohrung – hier ein Bohrturm für eine Gasbohrung in Norddeutschland – verschlingt zweistellige Millionenbeträge

Gier frisst Hirn

Geht man von einem Nutzungsgrad von 90 % aus, so würden die Anlagen pro Jahr rund 530.000 MWh an elektrischer Energie erzeugen. Bei einem aktuellen Börsenstrompreis von 30 €/MWh entspräche dies Einnahmen von jährlich rund 16 Mio. €. Da auch noch Betriebs- und Unterhaltskosten zu berücksichtigen wären, ist eine Wirtschaftlichkeit im Prinzip ausgeschlossen. Solche Projekte rechnen sich nur, weil z.B. in Deutschland das EEG (Fassung vom Jan. 2012) Vergütungen von 250 €/MWh vorsieht. Das ist rund das Achtfache dessen, was der Strom an der Börse wert ist. Bei bestimmten Projekten steigt dieser Satz sogar auf 300 €/MWh. Hinzu kommen diverse sehr substanzielle „Marktanreizprogramme“ des Bundesministeriums für Umwelt (BMU). Unter diesen Voraussetzungen lässt sich natürlich Geld verdienen, allerdings auf Kosten der Allgemeinheit, der diese Kosten aufgebürdet werden. Bei Wikipedia wird dies auf sehr elegante Weise umschrieben: „Unter den gegenwärtigen politischen Rahmenbedingungen (Erneuerbare-Energien-Gesetz) ist eine Wirtschaftlichkeit bei größeren Geothermieanlagen auch in Deutschland in vielen Gebieten, wie zum Beispiel in Oberbayern, Oberrheingraben und Norddeutsches Becken, erreichbar“. Verschwiegen wird dabei, dass der Beitrag der Geothermie zum Strombedarf Deutschlands mit geschätzten 0,08 % so verschwindend gering ist, dass diese Technologie in den Jahresstatistiken der Arbeitsgemeinschaft Energiebilanzen inzwischen gar nicht mehr aufgeführt wird.

Vor allem ist den Verantwortlichen vorzuwerfen, dass sie in ihrer Gier nach Subventionen die erheblichen Risiken und Schäden missachten, die der Allgemeinheit bei diesen Bohrprojekten in teils dicht besiedelten Gebieten aufgebürdet werden. Ein Blick auf die Gesamthistorie der Geothermiebohrungen in Deutschland und der Schweiz liest sich wie ein Drehbuch für eine Galaausgabe der Sendung „Pleiten, Pech und Pannen“. Im bereits erwähnten Wikipedia-Artikel werden in Deutschland und der Schweiz insgesamt 13 Bohrprojekte aufgeführt, bei denen es zu mehr oder weniger erheblichen geologischen Störungen mit entsprechenden Auswirkungen auf Gebäude kam. Die Liste umfasst diverse Erdbeben, massive Zerstörungen an der Gebäudesubstanz durch aufquellende Gesteinsschichten (wie in der historischen Altstadt von Staufen) oder durch absinkende Grundwasserschichten. In Baden-Württemberg wurden deshalb regional bereits Beschränkungen für solche Projekte ausgesprochen. Auf Bundesebene haben jedoch bisher Eigentum, Gesundheit und Leben der Bevölkerung hinter den noblen Ambitionen der EEG-Profiteure zurückzustehen.

Politik ohne Verstand

Die Frage, warum man Projekte, die für jeden mit gesundem Menschenverstand so offensichtlich sinnlos sind, mit solch horrenden Summen fördert, wird vermutlich kommenden Generationen von Soziologen und Politologen Stoff für umfassende Analysen liefern. In beiden betroffenen Ländern ist die Politik derart darauf fixiert, selbst noch so utopische „grüne“ Visionen zu verfolgen, dass man so gut wie jeden Unsinn genehmigt und gefördert bekommt, wenn nur die richtigen Etiketten draufgeklebt werden. Bei diesem üblen Spiel steht auch die Wissenschaft unter Druck, denn wer mit seinen Projekten von öffentlichen Geldern anhängig ist, wird es in der Regel vermeiden, sich das Wohlwollen maßgeblicher Geldgeber zu verscherzen.

Dennoch gibt es Wissenschaftler mit Rückgrat, die dankenswerter Weise Klartext reden und dabei auch auf Zusammenhänge verweisen, auf die weder die Politik noch die allgemeine Öffentlichkeit ihr Augenmerk richten. Dazu gehört auch Prof. Domenico Giardini, der in einem Beitrag der Zeitschrift „Energie-Perspektiven“ zum Baseler Projekt wie folgt zitiert wird: „Für Giardini ist klar, dass es im Vorfeld keine ausreichende Risikoanalyse gab. Die Industrie habe ein zu rosiges Bild gemalt und berücksichtigte in einer erdbebengefährdeten Region wie Basel die lokalen Gegebenheiten nicht ausreichend“ [RIBE]. Ausserdem steht dort zu den ungeklärten rechtlichen Folgen folgender bemerkenswerte Absatz: „Die Versicherung der Bohrfirma hatte in der Folge des Bebens mehrere Millionen Euro für zahlreiche kleinere Gebäudeschäden bezahlt, da es sich um ein vom Menschen ausgelöstes Ereignis handelte. Dies, so Giardini, „eröffnet natürlich schwierige Fragen…wie wollen wir ein Erdbeben in Basel mit der Magnitude 5,5, sagen wir mal in 30 Jahren, behandeln? Können wir nachweisen, ob es natürlichen Ursprungs war oder nicht? Wer würde für die Schäden aufkommen?“ [RIBE].

Quellen

[BAZO] http://bazonline.ch/basel/stadt/Erdbebenrisiko-deutlich-zu-gross-fuer-Geothermie-in-Basel/story/12803210  abgerufen am 25.7.2013

[FAEH] http://www.schulelaupen.ch/Erdbeben/erbeben%20basel1.pdf   abgerufen am 25.7.2013

[NZZ] http://www.nzz.ch/aktuell/startseite/teures-erdwaerme-fiasko-endgueltig-gestoppt-1.4169323

[ONLI] http://www.onlinereports.ch/Gesellschaft.112+M5dfbe3584c0.0.html   abgerufen am 25.7.2013

[RIBE] http://www.ipp.mpg.de/ippcms/ep/ausgaben/ep201001/0110_geothermie.html  abgerufen am 25.7.2013

[RKIP] http://www.science-skeptical.de/energieerzeugung/solarkraftwerk-in-der-wueste-verbrennt-voegel-und-erdgas-und-viel-geld/0012425/

[STG2] http://www.tagesanzeiger.ch/schweiz/standard/St-Gallen-stoppt-GeothermieProjekt/story/21827912

[WI35] http://de.wikipedia.org/wiki/Basler_Erdbeben_1356   abgerufen am 25.7.2013

[WIEM] https://www.ethz.ch/en/news-and-events/zukunftsblog/archiv/2014/02/geothermie-st-gallen.html

[WIGE] http://de.wikipedia.org/wiki/Geothermie   abgerufen am 13.9.2014




EIKE 8. IKEK Klimafakten – Was wurde gemessen? von Prof. Dr. Friedrich-Karl Ewert:

Nur fiktive Klimamodelle, die noch nicht einmal die Klimavergangenheit oder die Eintrittszeitpunkte des ENSO (El Nino) wiederzugeben in der Lage sind, können hierüber etwas aussagen.

Video des Vortrages über die Untersuchung über 1000 einzelner Temperaturganglinien weltweit und ihre Verläufe.

Prof. Ewert bittet um diese Ergänzung:

Post scriptum:

Nach dem Vortrag wurde mir gesagt, ich hätte bei manchen meiner Zahlen die Kommastelle nicht immer korrekt in Übereinstimmung mit den gezeigten Foliendaten genannt. Bevor jemand beim Anschauen darüber stolpert, möchte ich mich dafür entschuldigen. In diesen Fällen gilt nicht das gesprochene sonders das geschriebene Wort auf den Folien.

Warum passierte der Fehler? Ist wohl das erste Mal und mir nicht erklärlich. Vielleicht den örtlichen Umständen geschuldet und/oder dem Alter: der achte Runde steht kurz bevor. Pardon also! Soll nicht wieder vorkommen.

Friedrich-Karl Ewert




Winter werden nicht nur in Österreich kälter, sondern auch in Deutschland

Bild rechts: Winter im Schwäbischen Wald.       Foto: J.Kowatsch

Dabei hätte man lediglich zuvor bei EIKE nachsehen müssen. Denn die österreichischen Temperaturen verhalten sich ähnlich wie die deutschen. Seit der Jahrtausendwende sinken die Jahrestemperaturen, die Winter werden aber schon seit fast 30 Jahren kälter. In mehreren Arbeiten haben wir – Leistenschneider, Kowatsch, Kämpfe – bereits darauf hingewiesen, dass die Wintertemperaturen den Sommertemperaturen um gut ein Jahrzehnt vorauseilen. http://www.eike-klima-energie.eu/news-cache/winter-werden-in-deutschland-seit-einem-vierteljahrhundert-deutlich-kaelter/

Dem Leser soll als Ergänzung nochmals in Anlehnung zu den österreichischen Studien der deutsche Verlauf der Wintertemperaturen in Erinnerung gerufen werden. Wir haben dieselben zwei Ergebnisse bereits veröffentlicht wie auch in der österreichischen Studie nun beschrieben wird.

Abb1: Seit Mitte der 80er Jahre werden die Winter wieder kälter, obwohl der C02-gehalt steigt, der zunehmende C02-Ausstoß konnte das Kälter werden nicht verhindern. Seine immer wieder behauptete Treibhaus-Wirkung kann also nicht besonders groß sein, falls es ihn überhaupt gibt.

Betrachten wir längere Zeiträume, z.B. die gesamten Wintertemperaturaufzeichnungen in Deutschland, seitdem es diese gibt und vom DWD zuverlässig geführt werden, also seit 1882, so stellen wir eine leichte Erwärmung fest.

Abb2: Seit 1882 sind die Winter, also die drei Wintermonate Dezember/Januar/Februar wärmer geworden. Die Trendlinie zeigt etwa 1 Grad Erwärmung über die letzten 132 Jahre

Die Gründe für dieses Wärmer werden sind hauptsächlich eine Folge der Wärmeinselentwicklung in Deutschland. Deutschland hat sich in diesem Zeitraum vollkommen verändert. Aus den damaligen noch viel kleineren und wenigen Wärmeinseln sind heute großflächige oft zusammenhängende Wärmezonen entstanden. Und die Messstationen stehen 2014 an anderen Orten wie vor 130 Jahren. Forsthäuser am Waldrand, unbeheizte Klöster und dergleichen gibt es nicht mehr. Die Messstationen, oftmals unter gleichem Namen sind in die Wärmeinseln verlegt worden, wo die Menschen wohnen und dort wird im Winter kräftig geheizt. Und auch die Wetterstationen an den Landebahnen unserer Flugplätze, im Wirkungsbereich der heißen Triebwerksabgasen hat es vor 130 Jahren nicht gegeben. Alle Häuser werden gleichmäßig beheizt, und nicht nur in zwei oder drei Räume wie noch vor 50 Jahren, Das gilt für Deutschland genauso wie für Österreich. Und die Thermometer der Wetterstationen messen diese menschengemachte Zusatzwärme einfach mit.

Da der EIKE-Artikel über die Salzburger Winter keine Grafiken enthält, können zur Veranschaulichung die EIKE-Leser aus Österreich unsere beiden Grafiken benutzen. Und den Skiliftbetreibern sei empfohlen, öfters bei EIKE die Wahrheit über die Temperaturänderungen auf der Erde nachzulesen. Große Unterschiede im Temperaturverlauf, vor allem bezüglich der Trendlinien über längere Zeiträume wird es zwischen den beiden Ländern wohl kaum geben.

Josef Kowatsch, Hüttlingen.




Kohle-Stillleger Gabriel – …als Bettvorleger gelandet

Was war da passiert? Macht Gabriel nun den Drehofer, nach altem Vorbild von Konrad Adenauer, der gesagt haben soll: „Was interessiert mich mein Geschwätz von gestern?“. Denn Gabriel sagte lt. Welt vom 16.11.14 Ein Kohleausstieg zeitgleich zum Atomausstieg sei wirtschaftlicher Selbstmord und mit ihm nicht zu machen. Das „Klimaziel sei auch ohne Kohleausstieg zu erreichen zitiert sinngemäss noch am 16.11.14 das Nachrichten-Portal von Web.de

Oder meint er evtl. nicht nur sein Geschwätz von gestern sondern auch das von heute? Das wäre ja morgen von gestern.

Oder hat er Druck von der Klimakanzlerin bekommen, die beim bald anstehenden G7 Vorsitz den „Klimaschutz“ wieder  als oberste Priorität behandeln will, und 2015 beim xten „UN-Klimagipfel“ in Paris nicht als Sprechblasen-Puppe, die ihre Zusagen nicht hält, da stehen will?

Oder haben ihm Greenpeace und Co doch mehr imponiert, als er es öffentlich zugeben wollte?

Wir wissen es nicht! Doch die wahrscheinlichste Variante ist, dass in Gabriels Ministerium die Rechte nicht weiß, was die Linke tut, oder umgekehrt. Oder anders ausgedrückt, der Apparat des Ministeriums, der die Gesetzes-Vorlage erarbeiten muss, den schnellen Volten des Ministers nicht folgen kann oder mag. Denn so eine Vorlage entsteht nicht über Nacht, wohl aber die Meinungsänderungen des Sigmar Gabriel.

Man kann es auch so ausdrücken, der ehemalige Pop-Beauftragte seiner Partei, dann Umweltminister unter Rot- Schwarz, mit sehr großem Anteil an der jetzigen Malaise, dann Parteivorsitzender der SPD, dann zusätzlich wieder Minister – diesmal für Wirtschaft- und gleichzeitig Vizekanzler  der großen Koalition, hat seinen Laden einfach nicht mehr im Griff.

Das ist bei der völlig verfahrenen, aber zu 100 % selbst verschuldeten Situation, die die Politik der Energiewende herbeigeführt hat, auch völlig verständlich. Unverständlich, aber vor allem unakzeptabel ist jedoch, dass die Akteure immer wieder ein sinnlos teures Unterfangen durch weitere sinnlos teure Unterfangen „retten“ wollen.

Denn was wird passieren, wenn die Vorlage das Kabinett am 3. Dezember  passiert und Anfang 2015 im Gesetzblatt steht?

1.     Die Versorger werden gegen die daraus folgende Enteignung  mit großer Erfolgsaussicht klagen, der Steuerzahler wird dann die Milliarden zu zahlen haben.  Z.B. hat die bereits sehr gebeutelte EnBW erst im Mai 2014 ein für 1,3 Milliarden Euro gebautes Kohlekraftwerk in Karlsruhe in Betrieb Beschreibung: http://images.intellitxt.com/ast/adTypes/icon1.png genommen.

2.     Die fehlenden Strommengen werden teuer importiert werden müssen, sofern sie jemand zur richtigen Zeit anbietet. Oder wir sitzen im Dunkeln. Dann verbleibt die damit verbundene Wertschöpfung im Ausland. Die Folge ist,

3.     Dass zehntausende hochwertschöpfender Arbeitsplätze in der Kraftwerksbranche und deren Zulieferern abgebaut werden müssen (1)

Daran ändert sich auch nichts, wenn statt der stillzulegenden Kohlekraftwerke Gaskraftwerke hierzulande errichtet werden. Díe haben zwar pro erzeugter kWh nur etwa halb so viel CO2 Ausstoß sind aber in der Stromerzeugung 2-3 x so teuer. Und rechnen sich für die Betreiber erst recht nicht.

4.     Dass bedeutet, das weitere zig Milliarden Euro vom Verbraucher zusätzlich aufzubringen sind, um die Versorger zu veranlassen, unrentable Gaskraftwerke auch dann vorzuhalten und zu betreiben, wenn deren Strom wg. der Vorrangeinspeisung nicht gebraucht wird. Denn die nur  zeitweise und ungeplant anfallende Riesenmenge an „Erneuerbarem“  Strom (es sind inzwischen fast 83 GW an Leistung der EE Anlagen installiert) wird dann ins Netz gedrückt. Die Zahl der Haushalte, die ihren Strom nicht mehr bezahlen können steigt schnell weiter an.

5.     Last but not least wird auch der letzte Verantwortliche in den Führungsetagen der Grundstoff- und auch Chemieindustrie, wie auch in vielen anderen Wirtschaftsbetrieben mit hohem Energieeinsatz, beschließen seinen Betrieb zu retten und mit ihm ins Ausland zu gehen. Der Exodus gut bezahlter, hoch wertschöpfender Arbeitsplätze wird zur Lawine anschwellen. Der Verbraucher zahlt also mehrfach. Erst für den teuren Strom und dann mit dem Verlust seines Arbeitsplatzes.

Dass die Gewerkschaften sich bisher kaum durchringen konnten dagegen massiv zu protestieren ist bezeichnend. Doch erst wenn der letzte Arbeitsplatz verloren ist, werden sie feststellen, dass Ideologie und Staatsgläubigkeit, verbunden mit politischer Korrektheit, keinen einzigen satt macht. Ob diese Erkenntnis dann noch nützt?

(1) http://www.welt.de/wirtschaft/article134653345/Kohleausstieg-koennte-Zehntausende-Jobs-kosten.html

Ergänzung: Hier noch zwei Zitate zum Thema: (aus A. Wendts Buch "Der grüne Blackout")

Ausspruch eines ehemals führenden Unionspolitikers  

„Ich habe mit Angela Merkel oft über die Energiewende gestritten. Sie ist da stur bis zum ideologischen Starrsinn.“

oder das hier

Ein Vorsitzender einer großen, einflussreichen Organisation, der öfters sowohl mit Angela Merkel als auch mit Sigmar Gabriel und etlichen Abgeordneten spricht:

„Die Parteien in Berlin unterscheiden sich bei der Energiewende nur durch die Grade ihres Irrsinns.“