1

EIKE wünscht allen Lesern ein besinnliches Weihnachtsfest und einen Fortgang des „game changings“ im Neuen Jahr.

Selten war die Ermahnung von Abraham Lincoln an seine Politikerkollegen so zutreffend wie im „Wendejahr“ 2016:

„Du kannst einige Menschen für lange Zeit für dumm verkaufen, Du kannst viel Menschen für kurze Zeit für dumm verkaufen, aber Du kannst nicht alle Menschen für lange Zeit für dumm verkaufen“.

Diese Zeit des für „dumm Verkaufens“ neigt sich nun dem Ende.

Ob es Aufstieg der verächtlich so genannten populistischen Parteien in Europa ist, sei es die Wahl von Donald Trump zum US Präsidenten, gegen das Establishment und völlig unerwartet von Medien und Demoskopen, sei es der Brexit, sei es das klare Nein der Italiener zur Änderung ihrer Verfassung oder sei es die Fastwahl des Norbert Hofer zum österreichischem Bundespräsidenten. All dies zeigt, dass es immer mehr Menschen satt haben, für dumm gehalten und gegen ihre eigenen Interessen benutzt und instrumentalisiert zu werden.

Deshalb kann man 2016 getrost als „Wendejahr“ bezeichnen. Denn es zeichnet sich ab, dass sich diese Wende im kommenden Jahr fortsetzen könnte. In wichtigen Ländern Europas gibt es weichenstellende Wahlen, in den USA nimmt die gewählte Regierung Trump ihre Arbeit auf. Viele der Ankündigungen Donald Trumps in der Sache oder in Bezug auf Personen sprechen für ein „Nicht weiter so“ oder „Nicht noch mehr vom Untauglichen“. Für viele, die sich so bequem politisch, medial und finanziell im steuer- und subventions- gespeisten links-grünen Gesinnungs-Biotop eingerichtet haben, klingen dies deshalb wie bedrohlicher Donnerhall.

Hoffen wir, dass es so weitergeht.

Auch in den für die Entwicklung dieses Landes, ebenso wie der ganzen Welt, so wichtigen Klima- und Energiefragen.

Arbeiten wir weiter daran, dass die Vernunft in unsere Welt dahin zurückkehrt, wo sie schon immer hingehörte:

An die Macht.

Wir hegen daher die begründete Hoffnung, dass endlich der Anfang vom Ende des Irrsinns „Klimaschutz“, der Anfang vom Ende des Irrsinns der Energiewende eingeleitet werden wird. Dass es wieder Vorfahrt für Ehrlichkeit in Natur- und Ingenieurwissenschaften geben wird. Und das die Freiheit der Wissenschaft nicht länger eine leere Worthülse bleibt. Wir hoffen auf ein Zurück zu Vernunft und Augenmaß, auf ein Zurück zu den Idealen und Werten der Aufklärung. Wenigstens auf einen Beginn.

In diesem Sinne wünschen wir allen Lesern und Unterstützern „Frohe Weihnachten und ein gutes und erfolgreiches Neues Jahr“.

 




Neues vom Wissen­schaftlichen Beirat Globale Umwelt: Neue Erbschafts­steuer: denn Oma war Klimasünder

Und deshalb sollen sie jetzt im Rahmen eines großen „Gerechtigkeitsprojekts“ zur Kasse gebeten werden. Denn während andernorts die Menschen in Armut und Unschuld lebten, fuhren unsere Eltern mit dem Volkswagen-Käfer in den Italie-Uurlaub. Oder kauften sich später womöglich einen Daimler.

Da unsere Altvorderen aber nicht mehr da sind, um für ihr frevelhaftes Tun abgestraft zu werden, sollen jetzt die Erben ran. Neun deutsche Professoren, sie bilden den „Wissenschaftlichen Beirat der Bundesregierung Globale Umweltveränderungen“ (WBGU) fordern in ihrem aktuellen Gutachten eine originelle Erbschaftssteuer, so etwas wie eine Klimaschuld-Abgabe auf geerbtes Vermögen. Es es sei „ethisch geboten, Vermögen nicht allein privat an die eigenen Nachkommen zu transferieren, sondern sie zur Gestaltung einer gemeinsamen Zukunft zu nutzen“.

Der (WBGU) ist seit Jahren für steile Thesen und Empfehlungen bekannt. Eines der bekanntesten Mitglieder des Beirates ist Hans Joachim Schellnhuber, Direktor des Potsdam Institutes für Klimafolgen-Forschung, der zeitweise mit dem Titel „Klimaberater der Kanzlerin“ geschmückt wurde. Schon vor 5 Jahren verlangten er und seine Autoritäten nichts weniger als einen „Gesellschaftsvertrag für eine Große Transformation“ und wollten den „fossilnuklearen Metabolismus“ (Stoffwechsel) der Industriegesellschaft beenden und eine „klimaverträgliche Weltgesellschaft“ schaffen. Daraus ist bisher nix geworden.

Dennoch können die Herrschaften nicht davon ablassen, ihre totalitären Vorstellungen der Bundesregierung in Form eines Gutachtens zu überreichen. Im kommenden Sommer findet in Hamburg der G20-Gipfel statt und die deutschen Geistesgrößen empfehlen den teilnehmenden Ländern regulatorische „Top-Down-Strategien“, also eine Art gut gemeinter Verbotskultur von oben herab. Andreas Mihm kommentiert das im Wirtschaftsteil der FAZ: „Autorität und autoritär sind nicht nur sprachlich näher beieinander als man denkt“.

Übernommen von ACHGUT Hier




E-Mobile, Autos für Dummies?! Das 1×1 der Elektromobilität

Der Energieinhalt von Benzin und Dieselkraftstoff liegt bei 10 kWh/l. Kleinwagen haben ein Tankvolumen um 40 Liter. Damit kommt man bis zu 800 km weit. Ein 40-l-Tank enthält 400 kWh. Der Wirkungsgrad eines modernen Verbrennungsmotors im praktischen Betrieb liegt bei 30%. Gesteht man dem Elektromotor einschließlich der Verluste im Umrichter und dem Lade-Entlade-Wirkungsgrad des Akkus dagegen großzügige 90% zu, so ergibt sich ein rundes Verhältnis von 1:3 zwischen Verbrenner und E-Mobil. Ein Elektroauto müsste also 133 kWh elektrischer Energie mit sich führen, um die gleiche Fahrleistung und Reichweite aufzuweisen und somit das mit einem Verbrennungsmotor getriebene Fahrzeug vollumfänglich ersetzen zu können.

Das entspricht etwa 220 herkömmlicher Autobatterien/ Starter-Batterien mit 50 Ah und einer Masse von zusammen 3 Tonnen. Mit dem Gewicht erhöht sich aber der Energie-Bedarf des Fahrzeugs entsprechend und der Hund beißt sich so in den eigenen Schwanz.

Mit modernen Lithium-Akkus sieht es nicht besser aus. Der Renault Zoe kommt mit einer 22-kWh-Batterie daher. Die Reichweite beträgt bei kalten Temperaturen nur 100 km. Also in etwa nur 1/8 der Reichweite eines vergleichbaren Verbrenners. Der Akku wiegt allerdings rund 300 kg. Man benötigt 6 dieser Akkus mit knapp 2 Tonnen Gesamtgewicht, um auf die 133 kWh zu kommen. Mit dem Gewicht erhöht sich auch hier der Energie-Bedarf des Fahrzeugs und der Hund beißt sich wieder in den eigenen Schwanz.

Der Vergleich: Das Leergewicht eines alten Renault Twingos beträgt um die 1.000 kg, während das Leergewicht eines neuen Renault Zoe mit 1.500 kg mal eben 500 kg mehr betragt. Man kutschiert also schwere Batterien mit sich umher. Bei E-Fahrzeugen gilt, umso weiter man mit dem E-Mobil kommen will, umso mehr Akkus muss man zuladen. Die Zuladung erhöht wiederum den Energie-Bedarf des Fahrzeugs und damit reduziert sich wiederum die Reichweite des E-Mobils. Eine Spirale ohne Ende.

Im praktischen Test habe ich das mal mit meinen E-Quadrokopter ausprobiert. Ein 700 mAh LiPo-Akku mit ca. 19 g reicht für ca. 10 Minuten Flugzeit. Ein 2.000 mAh LiPo-Akku mit ca. 45g Gewicht reicht auch nur für ca. 10 Minuten Flugzeit. Der leistungsfähigere Akku bringt also aufgrund des Mehrgewichtes nichts.

Das Fazit: E-Mobile sind ein teuer Spaß, die allenfalls für den Nahverkehr und Stadtverkehr geeignet sind, aber nicht für lange Strecken und ausdauernde Leistungen.

Der Beitrag erschien zuerst bei Science Sceptical hier




Elektroauto-Verehrung und -Subventionierung – eine Politiker-Krankheit

Den neuen Startschuss gab kein Geringerer als Barack Obama während seiner Wahlkampagne im August 2008. Er forderte, dass bis zum Jahre 2015 eine Million Hybrid- und Elektroautos (merken Sie was ?) über die Straßen der U.S.A. rollen sollten. Seither ist dort eine sehr erhebliche Summe an Dollars – die Zeitschrift Scientific American spricht von „Milliarden“ – an staatlicher Förderung ausgegeben worden: An Steuervergünstigungen (7.500 US$ beim Kauf) ; 2,4 Mrd. US$ für Batterie-F&E; 115 Mio US$ für Ladestationen…(Es kommt einem sehr bekannt vor – siehe unten die Beschreibung des deutschen „Nationalen Entwicklungsplans Elektromobilität“.)

Dieses Ziel der US-Administration wurde weit verfehlt.

Deutschland folgt: Mit dem Nationalen Entwicklungsplan Elektromobilität (Lit.6)

Dieser Regierungsplan vom August 2009 nennt als Ziele: Forschung und Entwicklung, aber dann auch Marktvorbereitung und Markteinführung – also Planwirtschaft, anstatt die Entwicklung dieses Wirtschaftsbereichs dem Markt zu überlassen. Die gleiche Planwirtschaft, die die gesamte Energiewendepolitik kennzeichnet.

Interessante Aussagen im Plan: (Anmerkungen kursiv)

–  „In Verbindung mit erneuerbaren Energien leistet sie (die E-Mobilität) einen bedeutenden Beitrag zur Umsetzung der Klimaschutzziele der Bundesregierung. 

    Bewertung: Das bedeutet: Wind- und Solarstrom sollen die E-Autos antreiben, was leider nicht funktioniert, weil deren Stromerzeugung unzuverlässig ist und speziell nachts kaum im Netz existiert. Es sei denn, man zwingt die E-Auto-Besitzer zur Installierung sog. Smart Meter für ihre private Ladestation, mit denen man den Strom durch den Versorger abschalten kann, wenn nur der böse Braunkohlestrom im Netz ist – und ihn wieder anschaltet, wenn Petrus etwas Wind wehen lässt. 

–   „Fahrzeuge in das Stromnetz integrieren“. „Die intelligente Nutzung der Batterien von E-Fahrzeugen als Stromspeicher bietet die Möglichkeit, die Gesamteffizienz der Stromversorgung zu erhöhen. Das geschieht über eine verbesserte Abnahme von Erzeugungsspitzen (die es in der konventionellen Stromversorgung gar nicht gibt), Annäherung von Erzeugungs- und Lastkurven (was eine konventionelle Stromversorgung routinemäßig erledigt) sowie perspektivisch auch die Bereitstellung von Regelenergie (die in einer konventionellen Stromversorgung kaum benötigt wird). 

Bewertung: Das durch die Energiewende angerichtete Elend bei der Stromversorgung (massive Netzstörungen durch Windstromspitzen und Flautenlöcher, Ruinierung der Spitzenlast-Gaskraftwerke und auch der Pumpspeicherkraftwerke) soll jetzt durch Heranziehung der noch arglosen Käufer von E-Autos etwas abgemildert werden. 

–   Ein verblüffend ehrlicher Satz ergänzt diese Absichtserklärungen:

    „Die damit verbundene Reduzierung der Batterielebensdauer ist dem gegenüberzustellen.“

    Bewertung: Es ist zu hoffen, dass die E-Auto-Besitzer diese Falle rechtzeitig erkennen

    (s.u. den Abschnitt „E-Autos als Hilfsspeicher für das Stromnetz ?“).

–   Eine weitere sehr zutreffende Feststellung fand ihren etwas versteckten Platz im Plan:

    „Der Mangel an Naturwissenschaftlern, Ingenieuren und technischen Fachkräften droht zur vielleicht größten Wachstumsbremse für die E-Mobilität zu werden.“ 

    Bewertung: Das Wörtchen „vielleicht“ ist zu streichen. Prof. Endres, einer der wenigen in Deutschland noch tätigen Fachleute der Physikalischen Chemie, von dem im vorliegenden Artikel  ausführliche Stellungnahmen enthalten sind, schrieb dazu in Lit.2 

       „Forschungsgeld für die physikalische Chemie: Polit-Saison-bedingt.

       Die politische Blamage in den 1990er Jahren hatte leider für die Forscher  fatale Folgen, denn in der Folge wurde die Elektrochemie an den deutschen Hochschulen faktisch abgewickelt; es gab keine Forschungsgelder mehr für Batterien, höchstens vereinzelt, und in der Szene der physikalischen Chemie wurden Elektrochemiker milde belächelt.

       Dann kam ca. 2007/2008 das Thema wieder hoch, dieses Mal begründet mit der „Klimakatastrophe“  und der Endlichkeit der Ressourcen. Diesmal wurde das politische Ziel ausgegeben, gleich eine Million Elektroautos bis 2020 auf die Straßen zu bringen (Manfred Kanther lässt grüßen). Im April 2015 platzte auch diese Politblase, denn auf eine präzise parlamentarische Anfrage vermied die wenig amüsierte Regierung die nochmalige Erwähnung oder gar Bestätigung dieses Ziels. 

        Zwar gibt es wieder einige Batterieforscher, aber diese sind wegen der geringen Forschungsmittel in gegenseitiger Konkurrenz, der erhebliche technologische Rückstand zum Ausland konnte auch noch nicht aufgeholt werden. Erfahren die Politiker aber vom selbst verschuldeten und kaum aufzuholenden Rückstand, werden sie die Finanzierung vermutlich wieder einstellen, das könnte man auch Grundlagenforschung nach der Methode des politischen Schweinezyklus nennen.

        Für neue Ideen, die einen langen Atem erfordern, fehlt Politikern meistens der Mut; lieber   werden wohl die alten Fehler schnell vergessen.

        Die Musik der Batterieforschung spielt sowieso längst in Asien und jetzt auch vermehrt in den USA.“ (Ende des Zitats) 

–    Ohne die unausweichlichen Konsequenzen dieses von den Autoren des Nationalen Plans selbst erkannten Riesenproblems zu begreifen, haben sie der kaum noch existierenden Forschung und Entwicklung in der Physikalischen Chemie eine Reihe von Anforderungen an die zu erbringenden Ergebnisse verordnet:

     o  Kostenziel: 300 – 500 €/kWh  (heute 1000 – 1200 €/kWh)

     o  Energiedichte-Ziel: 200 Wh/kg bis 2015 (das ist der Faktor 2 gegenüber Li-Ionenbatterien im Jahre 2009). Langfristig 1000 Wh/kg.

     o  Lebensdauer und Zyklenfestigkeit: 10 – 15 Jahre, d.h. 3000 – 5000 Ladezyklen.

     Bewertung: So denken Planwirtschaftler. Sie verordnen der viele Jahre vernachlässigten Forschung die tollsten Ergebnisse. Das ist nur noch tragikomisch.

Angela Merkel wünscht sich die Million

Bei der Konferenz „Elektromobilität bewegt die Welt“ am 27.5.2013 mit Vertretern aus Wissenschaft, Industrie und Politik erklärte Merkel: „Ziel der Bundesregierung ist es, dass bis 2020 eine Million Elektrofahrzeuge auf unseren Straßen im Einsatz sind. Bis 2030 könnten es auch 6 Millionen Fahrzeuge sein“. Und noch am 27.5.2013 verkündete sie auf der von der Regierung organisierten Konferenz „Elektromobilität weltweit“: „Das ist machbar.“

Damit übernahm sie Obamas großes Ziel, allerdings für ein viel kleineres Land und ohne die geringste Chance, bei der Entwicklung neuer und sehr viel besserer Batterien – also bei der für E-Autos alles entscheidenden Technologie – noch eine Rolle spielen zu können (s.o.). Aber politische Visionen haben keine Obergrenze und eine Million bringt ja viel mehr PR als mickrige 50.000.    

„Der neue und alte Elektroauto-Hype (Zitat von Prof. Frank Endres, Lit.2)

Es scheint eine Gesetzmäßigkeit zu sein, dass die deutschen Politiker in regelmäßigen Abständen meinen, dass sie jetzt in den Automobilmarkt eingreifen müssen, um einer vermeintlich überlegenen Antriebstechnik zu ihrem verdienten Durchbruch zu verhelfen, der ihr von der verstockten Kundschaft verwehrt wird.

Elektrofahrzeuge sind ja in der Tat sehr leise und, so lange die Batterie genügend Ladung hat, entspannt und angenehm zu fahren. Aber eine Reichweite von 60 km im Winter bei einem bald

30.000 € teuren Kleinwagen ist nicht wirklich ein Kaufanreiz, dazu kommt die Alterung von Batterien, und ein schneller Rückgang der Preise ist bei ihnen nicht zu erwarten.

Das Problem der Elektrofahrzeuge liegt somit bei den Batterien – wie schon immer. Die deutsche Politik hat schon einmal den großen Durchbruch verkündet. Zwischen 1992 und 1995 führte die damalige Regierung – begeistert  befürwortet durch Forschungsminister Heinz Riesenhuber und die heutige Bundeskanzlerin Angela Merkel, damals Umweltministerin, – einen großen Feldtest für Elektroautos auf Rügen durch. Und der damalige Innenminister Manfred Kanther gab das Ziel aus, dass mindestens 10 Prozent aller neu zugelassenen KFZ im Jahre 2000 Elektroautos sein sollten. Nicht allzu überraschend kam es etwas anders.“ (Lit.2)

 

Und abermals das Elektroauto – diesmal für den Klimaschutz

Dass die derzeitige Regierung – wie auch schon Regierungen vor ihr – trotzdem wieder einmal das Elektroauto exhumiert, ist nicht weiter verwunderlich.  Man kann folgende Gründe finden:

Ø  Mit dem sogenannten Klimaschutz glaubt man ein neues und stichhaltiges Argument für E-Mobilität zu haben. Dazu gehört der Glaube an große CO2-Einsparungen  durch den Elektroantrieb – was sich als ein Irrglaube herausstellt (s.u.).

Ø  Politiker sind zunehmend beratungsresistent und empfinden Sachargumente als kleinkarierte Quengelei und lästige Ablenkung von ihren Plänen zur Beglückung der Wähler.

Ø  Die Ministerien, die eigentlich auch die Aufgabe haben, die Regierung von unsinnigen Plänen abzubringen, sind mittlerweile in allen mittleren und oberen Etagen mit Parteibuch-Karrieristen und Mitläufern besetzt, von denen nur Vorschläge für Gesetze und Verordnungen erzeugt werden, die eine Unterstützung der Ideen „derer da oben“ bewirken sollen. 

Bisher glaubte man, dass die Regierung deshalb auf die massive Einführung von Elektroautos setzt, weil sie damit etwas für den „Klimaschutz“ tun will.  Es wird schließlich fest angenommen, dass E-Autos weniger CO2 produzieren als Benzin- oder Diesel-PKW. Dass mit dieser Annahme etwas nicht stimmt, ergaben bereits einfache Vergleichsmessungen, aus denen hervorging, dass Otto- oder Dieselmotoren kleinerer Leistung schon jetzt nicht mehr CO2 emittieren als die E-Autos. 

Aber diese Bilanz wird für die Elektroautos noch schlechter; dafür hat die Regierung bereits gesorgt:

Weil die E-Autos weit überwiegend tagsüber genutzt werden, erfolgt die Aufladung ihrer Batterien nachts in der eigenen Garage. Niemand wird stundenlange Wartezeiten an öffentlichen Aufladestellen in Kauf nehmen. Nachts ist leider absolut kein Solarstrom im Netz – und ob sich etwas Windstrom im Strommix befindet, entscheidet das Wetter. Man kann den Erzeugungs-Diagrammen der gesamten installierten Windkraft entnehmen, dass  im Durchschnitt der Nächte etwa 10% des Stroms aus der Steckdose von Windrädern erzeugt wird – der „Rest“ von 90% besteht überwiegend aus  Braunkohlestrom – und bis 2022 auch noch aus Kernkraftstrom. Und weil die restliche Kernkraft ab 2022 per Gesetz abgeschaltet wird, bestehen die 90% des Auflade-Nachtstroms danach nur noch aus Braunkohlestrom. Damit sind die Elektroautos dazu verurteilt, die CO2-Emissionen Deutschlands weiter zu erhöhen. Diese Bilanz wird mit jedem abgeschalteten Kernkraftwerk schlechter.

Und sie wird nochmals schlechter durch die von der EU beschlossene mehrfache Anrechenbarkeit von E-Auto-Verkäufen auf den für die Hersteller attraktiven und dann von Strafzahlungen befreiten Verkauf von mehr großen PKW und SUV’s (s.u.).

Von „Klimaschutz“ kann bei Elektroautos also keine Rede sein

Das Bündel schwerwiegender Nachteile hat eine Ursache: Die Batterien

Die Angebote der Industrie an E-Autos überzeugten bisher nur wenige Kunden, was nicht weiter verwundert, wenn man die hohen Preise, das hohe Gewicht, die kläglichen Reichweiten – die im Winter nochmals abnehmen -, die langen Ladezeiten und die begrenzte Lebensdauer der extrem teuren Batterien betrachtet. Autofahrer sind nicht dumm und es spricht für sie, dass sie sich auch nicht für dumm verkaufen lassen. (Lit.4) 

Weiter aus dem Beitrag von Prof. Endres (Lit.2):

„Die weitgehend auf Erinnerungsschwäche beruhende neue Begeisterung von Politikern für das alte Thema ignoriert weiterhin das Fehlen zuverlässiger und kostengünstiger Antriebsbatterien. Das ist seit etwa 100 Jahren der Fall, als mit der Erfindung des Automobils sofort auch der Elektroantrieb Anwendung fand. Nach einigen Jahren hängte der Verbrennungsmotor, der seine Energie aus den  flüssigen Kohlenwasserstoffen holt,  den E-Antrieb hoffnungslos ab. Seither arbeiten Generationen von Experten der physikalischen Chemie an der Verbesserung der Akkumulatoren. Alternativ versucht man den Menschen einzureden, dass sie eh kein Auto bräuchten, das mehr als 100 km Reichweite hat. Sie sollen für längere Strecken schließlich die Bahn nutzen.

Lebensdauer, Alterung und Betriebssicherheit von Batterien

Alle Batterien unterliegen unvermeidbar einer zyklischen (gemäß der Zahl der Lade/Entladezyklen) und kalendarischen Alterung. In den letzten Jahren waren Lithiumionen-Batterien in aller Munde. Lithium ist jedoch ein sehr reaktives und auch nicht sehr häufiges Metall, das mit jedem bekannten Elektrolyten chemisch reagiert.  Solche Batterien sind daher nicht dauerhaft stabil. Lässt man eine Lithiumionenbatterie mehrere Jahre liegen, bläht sie sich im Laufe der Zeit wegen der Alterung auf. Wird sie dann stark belastet, kann sie zu brennen beginnen. Auch beim wiederholten Laden/Entladen leidet die Batterie – ihre Materialien werden durch mechanischen Stress während der zyklischen Belastung immer mehr zerstört. 

Wir haben post-mortem-Analysen von Batterien, die gebrannt hatten, durchgeführt und konnten sehen, dass sich in den Batterien sog. „hotspots“ bildeten, die schließlich derart viel Wärme erzeugten, dass die Batterie in einen instabilen Überhitzungszustand geriet. 

Bei Zink-Luft-Akkumulatoren nimmt die dort verwendete Kalilauge Kohlenstoffdioxid aus der Luft auf; hier altert also der Elektrolyt, und neue Konzepte sind erforderlich. 

Wegen der kalendarischen Alterung liegt die maximale Lebensdauer bei 6 Jahren, aber auch nur 3 Jahre Lebensdauer können vorkommen.

Und ein gänzlich neues Batteriekonzept ist so schnell nicht zu erwarten.

Die Energiedichte

In der Frage der erreichbaren Energiedichte schlägt leider die Thermodynamik unbarmherzig zu. Die elektrochemische Spannungsreihe erlaubt maximal 6 Volt für ein Elektrodenpaar; das wäre dann aber eine (hochgefährliche) Lithium/Fluor-Batterie, deren technische Umsetzung und Verwendung kaum vorstellbar sind. Voll geladene Lithiumionen-Akkus heutiger Bauart haben bei einer Einzelzelle eine Spannung von 4,2 Volt. Mehr ist schwer zu erreichen, weil man noch keine Elektrolyte gefunden hat, die für sog. „5-Volt-Batterien“ geeignet sind. Es ergibt sich wegen des spezifischen Gewichts der Batteriematerialien derzeit eine maximale Energiedichte von 0,3 kWh/kg; technisch erreichen kann man heute nicht mehr als 0,15 kWh/kg.

Kohlenwasserstoffe enthalten dagegen rund 12 kWh/kg, wovon ein guter Dieselmotor ca. 5 kWh in mechanische Energie umsetzt.

Wirkungsgrad-bereinigt schneiden Kohlenwasserstoffe bezüglich der Energiedichte also mindestens 30-mal besser ab als Li-Ionen-Akkumulatoren.

Energiedichten von 1 – 5 kWh/kg sind nur mit Metall-Luft-Batterien denkbar. Relativ leicht herstellbare Zink/Luft-Batterien erreichen schon bis zu 0,5 kWh/kg, aber die oben beschriebene Alterung des Elektrolyten ist das zentrale Problem. Neue Konzepte sind in der Erforschung; mit einem Markteinsatz ist frühestens in 5 Jahren zu rechnen – und da am ehesten aus US-amerikanischer Fertigung.

Lithium-Luft-Batterien wurden als die Lösung aller Probleme angepriesen, und man sprach von bis zu 15 kWh/kg, was aber eine höchst unseriöse Zahl ist, da sie nur auf das Lithium alleine bezogen wurde und die andere Elektrode, der Elektrolyt, das Gehäuse usw. nicht berücksichtigt wurden. Im Labor erreichen Lithium/Luft-Batterien 1 kWh/kg, sie altern aber rasch, und eine Lösung für dieses Problem erscheint in weiter Ferne. Ein Einsatz ist frühestens in 20 Jahren zu erwarten, falls überhaupt.

Mit Unterstützung des BMBF arbeitet unser Institut an der TU Clausthal grundlegend an Aluminium/Luft und Silizium/Luft-Batterien. Die denkbaren Energiedichten liegen bei 1 – 4 kWh/kg, aber das ist Grundlagenforschung und ebenfalls weit von einer kommerziellen Nutzung entfernt.

Vielleicht können Lithium/Schwefel-Batterien als Nächstes vermarktet werden. Im Labor erreichen sie schon 1 kWh/kg. Sie altern aber schnell und die nutzbare Energiedichte liegt bei ca. 0,3 kWh/kg, was im Vergleich zu Lithiumionenbatterien immerhin um einen Faktor 2 besser wäre.

Ich rechne eher mit einer langsamen Evolution im Batteriesektor als mit einer schnellen Revolution.

Die Kosten

Wirklich gute Lithiumionen-Akkus, wie sie z.B. im Modellflug verwendet werden, kosten zwischen 1.000 und 1.500 €/kWh und selbst die „billigen“, wie sie in Elektroautos genutzt werden, kosten heute 500 €/kWh. Auf die immer einmal wieder ins Feld geführten 100 – 200 €/kWh werden wir m.E. noch ein wenig warten müssen, und bei der angepriesenen Speicherbatterie eines Elektroautoherstellers mit ca. 300 €/kWh muss man die Langzeitqualität abwarten.

Das Fazit der näheren Betrachtung der elektrochemischen Batteriearten, die mindestens  eine gewisse Entwicklungsreife aufweisen, als mögliche Speicher zur großtechnischen Netzstabilisierung lautet somit „nicht langzeitbeständig“ und „unbezahlbar“.

(Ende des Zitats von Prof. Endres)

Feuer !

Akkus, die brennen können, gab es bei den braven, schweren Bleiakkus, die  in unseren nichtelektrifizierten Autos immer noch treu ihre Dienste verrichten, niemals. Seit den Lithium-Ionen-Batterien – eine große Erfolgsgeschichte – hat sich das geändert. Als erstes gingen Laptops reihenweise in Flammen auf. Dann traf es auch mehrfach Autos, die mit diesen Stromspeichern angefüllt waren: So verabschiedete sich am 4.1.2016 ein Tesla Modell S an einer norwegischen Ladestation in einer spektakulären Flammenshow. Der Brand konnte nicht gelöscht werden.

Aber die Alarmnachrichten berücksichtigen nicht, dass inzwischen Hunderte von Millionen Li-Ionenbatterien in Gebrauch sind und diese Unfälle daher immer noch selten sind. Benzin- und Dieselautos brennen durchaus häufiger als E-Autos – weshalb es sogar Konferenzen dazu gibt: So die „3. Internationale Konferenz über Feuer in Fahrzeugen“, die am 1. Oktober 2014 in Berlin stattfand.

Aber neue Gefahren rufen immer neue Gegenmaßnahmen hervor, weshalb die Internationale Zivilluftfahrt-Organisation ICAO Anfang ab April 2016 die Mitnahme aller Geräte mit Lithium-Ionen-Akkus im aufgegebenen Fluggepäck verboten hat. Ebenso dürften aber auch gefüllte Benzinkanister verboten sein.

Je näher man den physikalischen Grenzen in der Batterietechnik kommt, desto kritischer scheint es für die Benutzer zu werden. Ob deshalb die Hoffnungen auf Batterietechnologien mit wesentlich höheren Energiedichten so ihr Ende finden, wird sich zeigen.

Mein persönlicher Albtraum ist allerdings die Wasserstoff-Tankstelle in der Nähe.

E-Autos als Hilfsspeicher für das Stromnetz ?

Eine Idee, die schon länger und immer wieder einmal in die hoffnungslose Diskussion über die im Stromnetz zum Ausgleich der gefährlichen Windstromschwankungen erforderlichen Speicher (die es nicht gibt und auch niemals geben kann) geworfen wird, ist die Benutzung von E-Autos als Hilfsspeicher für das Netz.

Die in den Garagen stehenden und am Ladekabel hängenden PKW sollten nach diesen Vorstellungen vom Stromversorgungs-Unternehmen mit einer Fernwirktechnik ansteuerbar gemacht werden, damit man sie bei Bedarf entweder als Stromlieferanten in das Netz oder auch zur Aufnahme von Leistungsspitzen der wetterabhängigen Ökostromerzeuger  benutzen kann.

Im Nationalen Entwicklungsplan Elektromobilität, der oben behandelt wurde, ist diese Idee ganz deutlich als politische Absicht enthalten.

Anscheinend hat bei den Verfassern niemand nachgerechnet, weil das bei der Energiewende als unfair gilt.

Jedenfalls erzeugt schon eine Bierdeckel-Kalkulation einiges Kopfschütteln, denn die geringe Kapazität der Antriebsbatterien von ca. 25 kWh, von der nur ein kleinerer Teil wirklich für Lade-Entlade-Vorgänge zur Verfügung stünde, ergibt nur eine bescheidene und uninteressante Gesamt-Speicherkapazität. Hinzu kommt erschwerend, dass die E-Auto-Besitzer genau wissen, dass viele zusätzliche Lade-Entlade-Zyklen die ohnehin schon geringe Batterielebensdauer drastisch verkürzen – siehe die Ausführungen von F. Endres, aber sogar auch der im Text des Plans schamhaft versteckte Hinweis auf dieses Problem.     Wenn die teure Batterie dann ein Jahr früher den Geist aufgibt, als es sowieso schon droht, wird sich wohl niemand darauf einlassen. Und die zwangsweise Installierung von Smart Metern bei den E-Auto-Besitzern traut sich die Regierung nicht anzuordnen – noch nicht.

Diese Idee ist also sinnlos, aber teuer, weshalb sie zur Energiewende passt – deshalb wird sie gewiss verwirklicht. Noch nicht mit Zwang, aber mit weiteren Subventionen.

Wie die Industrie gezwungen wurde, E-PKW zu entwickeln

Zu den Methoden, eine offenkundig unattraktive Technik dennoch in den Markt zu bringen, gehört die Ausübung von wirtschaftlichem Druck auf die Hersteller. Das hat die EU sehr wirksam erledigt (s.u.). Nun also bieten die großen Automobilhersteller unter erheblicher Selbstverleugnung gequält begeistert etliche E-Mobile an. Wegen der sehr teuren Technik zu unvermeidlich saftigen Preisen, an  denen dennoch nichts verdient werden kann.

Dass die renitenten Autofahrer aber trotzdem und immer noch auf die regierungsamtliche E-Auto-Begeisterung nur mit Kaufverweigerung reagierten, verstört die Politiker sehr. 

Es ist das Verdienst des Heidelberger Umwelt- und Prognoseinstituts UPI, mit seinem im August 2015 veröffentlichten Bericht Nr. 79 mit dem Titel „Ist die staatliche Förderung von Elektro- und Hybridautos sinnvoll ?“ (Lit. 1) Licht in diese seltsame Aktivität gebracht zu haben.

Das Geheimnis dieser teuren Aktivität ist die Flottengrenzwertregelung der EU, in der die Elektroautos trotz ihrer Emissionen, die mit ihrer Stromversorgung zusammenhängen, juristisch als „Null-Emissionsfahrzeuge“ definiert sind.  Die von den Herstellern sehr erwünschte Folge: Fügen sie E-Autos  ihrer PKW-Palette hinzu, dann sinkt der Durchschnitt der Emissionen der ganzen Flotte zwar überhaupt nicht, sehr wohl aber in der EU-Statistik. Hersteller können daher mit den verkauften Elektro- und Plug-In-Hybridautos hohe, über dem Grenzwert liegende Emissionen bei großen PKW rechnerisch kompensieren – und ersparen sich Strafzahlungen.

Dass sich die Hersteller aus EU-fernen Ländern kreativ weitere Statistik-Tricks zur Schönung ihres Flottenverbrauchs ausgedacht haben, wird unten im Abschnitt „Irreführende Fahrzeugstatistik..“ beschrieben. 

Die Folgen der „Kompensationslösung“ in der Praxis

– „Ein Elektroauto ermöglicht im Durchschnitt ca. 5 großen PKW mit über dem Grenzwert liegenden CO2-Emissionen die rechnerische Einhaltung des Grenzwerts.

– Die Automobilindustrie kann 2013-2015 und 2020-2022 E-PKW als „Super-Credits“ definieren: Dann zählen Elektroautos mehrfach. Ein E-PKW kompensiert dann auf dem Papier die CO2-Grenzwertüberschreitungen von 7 bis 10 großen PKW.

– Ein E-Auto erspart den Herstellern pro ca. 5 Geländewagen oder SUV Strafzahlungen wegen CO2-Grenzwertüberschreitung in Höhe von z.Zt. 10.000 Euro.

– Dieselben Regelungen gelten bei Plug-In-Hybrid-PKW; die CO2-Kompensationen sind etwa halb so stark wie bei reinen E-Autos.

Elektro- und Plug-In-Hybridautos führen deshalb entgegen der allgemeinen Meinung nicht zu einer Minderung, sondern zu einer Erhöhung der CO2-Emissionen. Ein neu verkauftes Elektroauto ermöglicht mehreren großen PKW über die Laufzeit gerechnet über dem CO2-Grenzwert liegende Emissionen von ca. 50 Tonnen CO2 ohne Strafzahlungen.“

„Rebound-Effekte“ – wenn gute Absichten ins Leere gehen

Die UPI-Forscher haben weitere Auswirkungen des Einsatzes von E-Autos eingehend betrachtet, und zwar die sog. Rebound-Effekte. Damit werden Nebenwirkungen oder Rückkopplungseffekte einer Maßnahme bezeichnet, die letztlich zum Gegenteil des ursprünglichen mit der Maßnahme Beabsichtigten führen.

Bekanntes Beispiel dafür: Die Anschaffung stromsparender Geräte im Haushalt (z.B. Energiesparlampen) macht eine stärkere Nutzung von Strom attraktiv, weil man ja nun durch das Stromsparen neuen Spielraum für den Verbrauch gewonnen hat. Die Stromkunden verwenden die erzielten Einsparungen zur Erhöhung ihrer Wohnqualität und ihres Komforts; die Ziele der Politiker sind nicht die ihren.

Zu den Rebound-Effekten bei E-Autos sagen die UPI-Experten:

– „Da E-Autos häufig als Zweit-oder Dritt-Wagen angeschafft werden, erhöhen sie die Gesamtzahl der Autos. Das verschärft den Ressourcen- und Flächenverbrauch des Straßenverkehrs und das Stellplatzproblem in den Städten.“

– „Obwohl in der Anschaffung teurer als normale PKW, liegen E-Autos in den Betriebskosten niedriger. Außerdem meint man, besonders umweltfreundlich unterwegs zu sein. Das führt zu einer recht drastischen Verkehrsverlagerung vom öffentlichen zum Individualverkehr:

In Norwegen, dem Land mit besonders vielen Elektro-PKW, nutzten 23% der Bürger den ÖPNV für Fahrten zur Arbeit vor dem Kauf eines E-Autos; nach dem Kauf eines E-Autos waren es nur noch 4%.  Weil der Strom in Norwegen fast ausschließlich mit Wasserkraft erzeugt wird, gibt es bezogen auf die Art der genutzten  Energie keinen Unterschied zwischen dem ÖPNV (elektrische Bahnen) und E-Autos. Einen anderen Unterschied aber gab es: Mehr Straßenverkehr und Parkplatzknappheit. (Lit.1 und 3).

Eine Umfrage des DLR-Instituts für Verkehrsforschung im Jahre 2014 zum gleichen Thema ergab identische Zahlen für Deutschland.(Lit.1) 

– „Wenn der Plan der Bundesregierung, bis 2020 eine Million Elektrofahrzeuge auf die Straßen zu bringen, realisiert werden würde, dann würde die von der EU vorgesehene Absenkung des Grenzwerts von heute 130 auf 95 g CO2/km  im Jahr 2020 durch die beschriebenen Kompensationsmöglichkeiten einer Million E-Autos fast vollständig unwirksam gemacht. Es gäbe die damit geplante Absenkung nicht.“ (Lit.1)

Auf diese Weise konterkariert die EU ihre CO2-Absenkungspolitik durch eigene Maßnahmen. 

Es ist allerdings nicht zu erwarten, dass der Plan der Regierung aufgehen wird, denn sie hat dabei die Physik gegen sich: UPI: „Die Speicherung von Strom erfordert auch bei modernen Akkus eine um mehr als das 10-fache höhere Masse des Speichers als die Energiespeicherung mit flüssigen Treibstoffen. Deshalb gibt es einen Markterfolg nur bei E-Bikes und Pedelecs, da bei diesen wegen ihrer viel kleineren Masse, der geringeren benötigten Reichweite und der integrierten Muskelkraft die zu speichernde Strommenge viel kleiner ist.

Elektromobilität ist daher wie schon bisher nur beim schienengebundenen öffentlichen Verkehr sinnvoll.“(Lit.1)

Wenn alles nichts mehr nützt: Subventionen verteilen

Als dieser Artikel im Oktober 2015 in einer ersten Fassung geschrieben wurde (Lit.4), lautete der Schlußsatz:

„Es ist zu befürchten, dass die Regierung bei weiter anhaltender Ablehnung der Kunden in ihrer bekannten Methode, Fehler nicht zu beheben, sondern sie mit mehr Geld zuzukleistern, dem Wunsch der Automobilindustrie nach Kaufpreis-Subventionen nachgeben wird. Es wäre die logische Konsequenz in Befolgung des bereits angetretenen Marsches in die staatliche Planwirtschaft.“ 

Genau das ist nun erfolgt. Die Regierung beschloss eine Subvention – den „Umweltbonus“ (s.u.) – für den Kauf von Elektroautos,  Hybrid-Elektro-PKW und auch Brennstoffzellen-Fahrzeugen. 

Irreführende Fahrzeugstatistik: Fast jedes zweite Elektroauto in Deutschland verschwindet spurlos

Das war der Titel eines Artikels von Nils-Viktor Sorge in SPIEGEL Online am 12.4.2016. (Lit.5)

Das Kraftfahrzeug-Bundesamt (KBA) hatte gemeldet: In 2015 hätte die Zulassung reiner Batteriefahrzeuge um 45% zugenommen – auf 12.363 Exemplare in diesem einen Jahr. Der SPIEGEL bemerkte aber Ungereimtheiten in dieser Aussage: Im Vergleich zum 1.1.2015 erhöhte sich die Zahl der in D. länger als nur kurzfristig zugelassenen Batterieautos lediglich um 6554 Autos. Mit den vom KBA angegebenen zusätzlichen 12.363 Stück hätten es insgesamt 31.311 in D. zugelassene Batterieautos sein müssen – aber es waren in Wahrheit nur 25.502 Stück.

Fast jedem zweiten neu zugelassenen E-Auto steht also ein anderes gegenüber, das nahezu spurlos aus der Statistik verschwindet.

Ironisch bemerkt der Autor, dass es bei diesem Tempo bis zum Jahr 2168 dauern würde, bis die Merkel‘sche Million erreicht wäre.

Das KBA lehnte es ab, gegenüber der Presse seine Statistik nicht erläutern.

Die SPIEGEL-Leute fanden aber eine Erklärung für dieses Wunder. Es ist eine übliche Praxis für ausländische Hersteller – z.B. wie beim in Deutschland beliebten KIA Soul EV – ihre nach Deutschland importierten Elektroautos auch hier zuzulassen, sie aber anschließend wieder in Drittländer zu exportieren. Zweck dieser Kurzzeitzulassungen ist es, die CO2-Flottenbilanz des Herstellers in der EU zu schönen. Auch der Autoexperte Dudenhöffer meint, dass Exporte eine der wahrscheinlichsten Ursachen für den nur schleppend steigenden E-Auto-Absatz in Deutschland sind. Kurt Sigl, Präsident des Bundesverbandes Elektromobilität erklärte mit Blick auf die „verschwundenen“ Autos: „Die gehen alle ins Ausland“. Zum Absatz in Deutschland meinte er, dass dieser mittlerweile faktisch rückläufig sei.

Autor Sorge meint zu dieser Statistik-Ente: „Damit gerät das offizielle Ziel der Bundesregierung noch mehr zur Lachnummer als ohnehin.“

Der Artikel schließt mit der Aussage, dass die Industrie verzweifelt auf staatliche Kaufanreize hoffe.

Ihre Bitten wurden inzwischen erhört – siehe unten:  „Der Umweltbonus“.

Ist die Zukunftstechnik Elektroauto bereits ein Auslaufmodell ?

Dass die Brennstoffzellen-Autos hinzu kamen ist offenbar eine Reaktion auf die Entscheidung von Toyota, in Anbetracht der vielen prinzipiellen Probleme der Batterie-E-Autos künftig auf die Brennstoffzelle (BSZ) zu setzen. Dadurch wird man das Reichweiten- und das Ladezeitproblem der Batterieautos los, handelt sich aber große Schwierigkeiten bei der Reife dieser Technik und angesichts noch viel höherer Kosten ein.  Auf jeden Fall ist dieser Schritt des weltgrößten Automobilherstellers ein klares Signal für das absehbare Ende der Batterie-Elektroautos, für die die Deutschen jetzt ein Subventionsprogramm auflegen.

Was den Zeitraum für das Erreichen der Marktreife der Brennstoffzellen-PKW anbelangt, kann der Autor dieser Zeilen aus seinen ersten Erfahrungen beim Eintritt in das Bundesministerium für Forschung und Technologie im Jahre 1972 berichten: Als erstes bekam ich einen Aktenstapel mit laufenden Förderungsprojekten zur weiteren Bearbeitung auf den Tisch. Es waren Entwicklungsprojekte für Brennstoffzellen. Seitdem sind 44 Jahre weiterer Entwicklung ins Land gegangen – und auf die Produktion zuverlässiger und bezahlbarer BSZ werden wir noch lange warten dürfen.

Politiker denken in Legislaturperioden. In diesen 4-Jahres-Etappen verkünden sie sehr gerne Visionen für neue Technologien (die oft schon ziemlich alt sind) und können sich die wahren Zeiträume der Entwicklung bis zur Marktreife nicht im Entferntesten vorstellen. Bei den BSZ sind es schon mehr als 12 Legislaturperioden….Eine besondere Anwendung gibt es aber bereits: In den neuen U-Booten.

Der „Umweltbonus“

So nennt die Bundesregierung ihre neue Subvention. Dass E-Autos der Umwelt eher schaden als nützen, wurde bereits erläutert. In dem Förderungs-Infoblatt des Bundesamts für Wirtschaft und Ausfuhrkontrolle (BAFA) steht dazu immerhin ein verräterischer Satz: „Der Bundesanteil am Umweltbonus beträgt für ein reines Batteriefahrzeug bzw. ein Brennstoffzellenfahrzeug (keine lokale CO2-Emission) 2000 Euro…..“  Damit wird zugegeben, dass die Emissionen nur an einen anderen Ort verlagert werden.

Weitere Einzelheiten: Hybrid-E-Fahrzeuge sollen 1.500 € bekommen; die Automobilhersteller sollen mindestens den gleichen Anteil vom Listenpreis als Nachlass gewähren – und „der Netto-Listenpreis des Basismodells darf 60.000 € netto nicht überschreiten“ (!).

Das könnte man fast eine Sozialklausel nennen.

Man findet noch eine weitere interessante Zahl im BAFA-Infoblatt: Es werde damit auch eine „Stärkung der Nachfrage nach umweltschonenden Elektrofahrzeugen um mindestens 300.000 Fahrzeuge geleistet“.  So lange ist es ja nicht her, dass Frau Merkel 1 Million E-Autos in Deutschland sehen konnte. Aber was ist schon ein Faktor 3,3 in der Politik ? 

Immerhin gab es wenigstens einige Kritik und es dauerte etwas, bis alle Kabinettsmitglieder zugestimmt hatten. Dies wäre eine Chance für den Finanzminister gewesen, eine unsinnige Ausgabe zu verhindern. Aber er ließ schon viele andere Gelegenheiten dazu verstreichen.

Es gab auch einige Kritik in der Presse: Man konstatierte, dass auch diese Subvention nichts an den immer noch viel zu hohen Kosten dieser Fahrzeuge ändere; von den übrigen zahlreichen Nachteilen, an denen sich auch nichts ändert, ganz abgesehen.  Als einzigen Effekt würde man damit die Anschaffung von Zweit- oder Drittwagen durch Wohlhabende subventionieren, die sich mit etwas Öko-Image schmücken möchten. Also etwas Öko-Deko für Reiche auf Kosten des „kleinen Mannes“.

Insofern eine zum Grundprinzip der Energiewende gut passende Maßnahme.

Quellen:

Lit.1: D. Teufel, S. Arnold, P. Bauer, T.Schwarz: „Ist die staatliche Förderung von Elektro- und Hybridautos sinnvoll ?“, UPI-Bericht Nr. 79 vom August 2015,

www.upi-institut.de/upi79_elektroautos.pdf 

Lit.2: Frank Endres: „Batterien: Physikalische und ökonomische Grenzen“, aus G. Keil, F. Endres, H. Klinkert, M. Limburg, B. Reimer und H. Stirnberg :„Energiepolitisches Manifest 2 – Argumente für die Beendigung der Energiewende“, Juli 2015, Kap. 2.14, S.115, www.eike-klima-energie.eu/uploads/media/Manifest_2-_Fassg_3-35_1_02.pdf

Lit.3: Bjart Holtsmark, Statistics Norway und Anders Skonhoft, Dept. Of Economics, Norw. University of Science and Technology, Trondheim

Lit.4: Günter Keil:  „Der Elektroauto Bluff“: 

www.ageu-die-realisten.com/archives/date/2015/10

Lit.5: Nils-Viktor Sorge: „Irreführende Fahrzeugstatistik: Fast jedes zweite Elektroauto in Deutschland verschwindet spurlos“, SPIEGEL Online vom 12.4.2016;

www.spiegel.de/auto/aktuell/elektroautos-jedes-zweite-auto-verschwindet-aus-der-statistik-a-1086729.html

Lit.6: Bundesregierung: „Nationaler Entwicklungsplan Elektromobilität“, August 2009;

www.bundesregierung.de/webs/Breg/DE/Themen/Energiewende/Mobilitaet/podcast/_node.html

Sankt Augustin, 14.8.2016

                                            




Über die Wahrscheinlichkeit der jüngsten Rekordwärme

Vor kurzem in Nature veröffentlich:

The Likelihood of Recent Record Warmth
[Die Wahrscheinlichkeit der jüngsten Rekordwärme]

Autoren: M.E. Mann, S. Rahmstorf, B.A. Steinman, M. Tingley, and S.K. Miller

Zusammenfassung aus Nature, o.g. Link

2014 war nominell das wärmste Jahr der Aufzeichnung sowohl für den Globus als auch der Nordhalbkugel, basierend auf historischen Aufzeichnungen der letzten anderthalb Jahrhunderte (1), (2). Es war der jüngste in einer letzten Serie von Temperaturen Rekorden der letzten fünfzehn Jahre. Die Presse berichtet von Chancen wie eins zu 650 Millionen, dass die beobachteten Temperatur-aufzeichnungen auch in der Abwesenheit der von Menschen verursachten globalen Erwärmung auftreten würden. Ungeachtet der Frage, wie wahrscheinlich die beobachteten Temperaturaufzeichnungen sowohl mit als auch ohne Einfluss des Menschen gewesen sein könnten, ist das als eigene Frage interessant. Hier versuchen wir diese Frage mit einem semi-empirischen Ansatz anzugehen, die die neuesten (CMIP53) Klimamodellsimulationen mit Beobachtungen der globalen und hemisphärischen Temperatur kombiniert. Wir fanden, dass einzelne Rekordjahre und die beobachteten Rekord-Temperaturen in Abwesenheit vom Menschen verursachten Klimawandel extrem unwahrscheinlich stattgefunden haben könnten, wenn auch bei weitem nicht so unwahrscheinlich, wie nach den Presseberichten vorgeschlagen. Dieselben Rekordtemperaturen können im Gegensatz dazu sehr wahrscheinlich in Gegenwart von anthropogenem Klima stattgefunden haben.

Die Abhandlung wird einige mediale Aufmerksamkeit bekommen, hier sind zwei Artikel die die Bandbreite anzeigen:

Die Rekorde von heißen Jahren sind mit ziemlicher Sicherheit durch von Menschen gemachter Erwärmung verursacht

Die neue von Prof. Mann gemachte Studie zur Erderwärmung ist eine „wissenschaftlich wertlose Abhandlung“

Judith Curry: Mein Kommentar wurde für den Examiner Artikel erbeten:

Die Analyse von Mann et al. beschönigt 3 große Streitigkeiten in der Klimaforschung:

a) Fehler und Unsicherheiten in der Temperaturaufzeichnung, um den Rekord der Oberflächentemperaturen in Einklang zu bringen (die eine gewisse Erwärmung in den letzten Jahrzehnten zeigen) gegen den globalen Datensatz der Satelliten (die im Wesentlichen keine Erwärmung für die letzten 18 Jahre zeigen).

b) Die Klimamodelle, die deutlich zu heiß laufen. Für die letzten zehn Jahre waren die globalen durchschnittlichen Oberflächentemperaturen an der Unterseite des Toleranzbandes von Klimamodell – Simulationen gewesen. Selbst das sehr warme Jahr 2015 (anomal warm aufgrund eines sehr starken El Nino) ist kühler als die Vorhersage des Multi-Modell-Ensembles.

c) Wie die vom Menschen verursachte Klimavariabilität aus natürlichen Klimaschwankungen zu trennen ist, bleibt ein herausforderndes und ungelöstes Problem. Mann et al. verwendet die Methode von Steinmann et al. um die Zwangs Variabilität (zB. CO2, Sonne, Vulkane) abzuleiten, als Berechnung der internen Variabilität (zB. von Meereszirkulationen) als Rest. In der Tat, das von Steinmann et al verwendete Multi-Modell-Ensemble geht davon aus, dass alle jüngste Erwärmung durch CO2 angetrieben wurde. Meine Kollegen, angeführt von Sergey Kravtsov, veröffentlichten vor kurzem eine Abhandlung in Science; [siehe auch diesen blog post] und argumentieren, dass die Methode von Steinman et al. fehlerhaft ist und zu einer erheblichen Unterschätzung führt, der internen Variabilität der in großem Maßstab multi-dekadischen Ozean Schwingungen.

Die globalen Temperaturen haben sich insgesamt schon seit mehr als 200 Jahren erhöht. Menschliche verursachte CO2-Emissionen können eine erhebliche Menge dieser Erwärmung vor 1950 nicht erklären. Worauf die jüngsten Schwankungen der globalen Temperatur zu zuschreiben ist, ist weiterhin ein mit erheblichen Unsicherheiten behaftetes Problem. Die Arbeitsberichte des IPCC kommen zu dem Schluss: "mehr als die Hälfte" der Erwärmung seit 1950 wird durch den Menschen verursacht, mehr als die Hälfte Implizieren> 50% [wer weiß, was das tatsächlich bedeutet, siehe meine Meinungsverschiedenheiten mit Gavin]. Diese Einschätzung räumt Unsicherheiten in den Klimamodellen ein, die feststellen, dass seit 1950 alle Erwärmung durch den Menschen verursacht wird. Die Mann et al. Abhandlung geht von der Annahme aus, dass alle Erwärmung durch den Menschen verursacht wurde, nach unserem aktuellen Wissensstand ist das eine ungerechtfertigte Annahme.

Ein weiterer Kommentar, zu technisch, um ihn an den Examiner zu senden:

d) Die Verwendung des Multimodell-Ensemble auf diese Weise ist aus einer statistischen Perspektive einfach unangemessen. Siehe mein früheren Post: Wie sollen wir ein Ensemble von Klimamodelle deuten? Auszüge:

Wie sollen wir Angesichts der Unzulänglichkeiten der gegenwärtigen Klimamodelle, die Multi-Modell-Ensemble-Simulationen des Klimas im 21. Jahrhunderts interpretieren, die in den IPCC-Berichten verwendet werden? Dieses Ensemble-von-Gelegenheiten, besteht aus Modellen mit allgemein ähnlichen Strukturen, aber unterschiedlichen Parametern an Auswahl und Kalibrierung. McWilliams (2007) und Parker (2010) argumentieren, dass die derzeitigen Klimamodell Ensembles nicht darauf ausgelegt sind, gegenständliche Unsicherheit auf gründliche oder strategische Weise darzustellen.

Stainforth et al. (2007) argumentieren, dass Modell Unzulänglichkeiten und eine unzureichende Anzahl von Simulationen im Ensemble sinnvolle Wahrscheinlichkeitsverteilungen von der Frequenz [Häufigkeit / Dichte] der Modellergebnisse des zukünftigen Klimas erzeugen. Bei Stainforth et al. heißt es: "Bei gegebenen, nichtlinearen Modellen, die unter den gegenwärtigen Bedingungen große systematische Fehler haben, wurde keine Verbindung bezüglich der Verteilung der Modellzustände unter veränderten Bedingungen zu entscheidungsrelevanten Wahrscheinlichkeitsverteilungen auch nur annähernd feststellt. . . Darüber hinaus sind sie irreführend, weil die Schlussfolgerungen, in der Regel in Form von PDF-Dateien, viel mehr Vertrauen implizieren als die zugrunde liegenden Annahmen rechtfertigen."

[Hinweis des Übersetzers: Das Thema der Klimasimulationen gehört nicht zu meiner Expertise. Einige unter den Lesern können das bestimmt besser. Hier der Originaltext zu vorstehender Übersetzung:

Given nonlinear models with large systematic errors under current conditions, no connection has been even remotely established for relating the distribution of model states under altered conditions to decision-relevant probability distributions. . . Furthermore, they are liable to be misleading because the conclusions, usually in the form of PDFs, imply much greater confidence than the underlying assumptions justify.”]

Kommentar Nic Lewis:

Ich bat Nic Lewis um seinen Kommentar zu der Abhandlung, er schickte ein paar schnelle Anfangsüberlegungen dazu, die überarbeitete Version ist unten eingearbeitet:

  Hallo Judy, Es ist eine Abhandlung, die sehr wenig wissenschaftlichen Wert hat,   auch wenn sie zu 100% korrekt wäre. Ich habe einige besondere Bemerkungen:

1. Sie sagen: "Es ist angemessen, ein stationäres, stochastisches Zeitreihenmodell zu definieren, mit Parametern aus dem Rest der Serie geschätzt." Dies ist eine nicht unterstützte Behauptung. Im Gegenteil, diese Methode mit Restgrößen zwischen den aufgezeichneten und den im Modell simulierten Temperaturänderungen die interne Variabilität zu schätzen, ist unzureichend; der beobachtete Datensatz ist zu kurz um die interne Variabilität vollständig abzutasten und es gibt nur eine Instanz davon. Darüber hinaus sind die Modellparameter und ihre Antriebskräfte sehr wahrscheinlich aufeinander abgestimmt, so dass Modellsimulationen von historischen Zeiten die beobachteten Temperaturänderungen sehr gut treffen (zB. durch stark negative Einflüsse der Aerosole im dritten Viertel des 20. Jahrhunderts, um eine bessere Übereinstimmung mit dem „großen Pause" zu erreichen). Dadurch werden die Restgrößen künstlich reduziert. Schätzungen, die auf Testläufen über lange Perioden und nicht angetriebenen AOGCM [Atmosphere-Ocean General Circulation Model, gefunden hier] beruhen, routinemäßig zur Erkennung und Zuordnung von Studien durchgeführt, sind ein viel weniger unbefriedigendes Verfahren, allerdings bei weitem nicht perfekt.

2. Der bessere Weg anthropogene Antriebe von natürlichen Klimaänderungen und von internen Variabilitäten zu trennen ist es, einen Nachweis und eine Zuordnungsanalyse der Multimodelle durchzuführen und Rasterdaten zu verwenden und nicht nur globale oder der nördlichen Hemisphäre. Zwei gründlichere neuere Studien, die es so machten, wurden im IPCC AR5 Bericht verwendet, um ihre anthropogenen Aussagen [Zuordnung] zu erreichen. Diese Studie hat keine vergleichbare Komplexität und ermöglicht keine Aussagen stärker als in AR5 [bereits] gemacht wurden.

3. Sie sagen, dass eine Langzeitkorrelation (Langzeitspeicher) des Rauschens [noise process] nicht unterstützt wird: "Einige Forscher haben argumentiert, dass das Klima Rauschen erster Ordnung ein nichtstationäres Verhalten aufweisen könnte, dh. so genannte „Langzeit-Abhängigkeit". Analysen von modernen und Paläoklima Beobachtungen unterstützen jedoch den Schluss, dass es nur das anthropogene Klimawandel Signal ist, das nicht-stationäres Verhalten erster Ordnung zeigt, mit klimatischen Störgrößen am besten durch ein stationary noise model [stationäres Modell der Störgrößen(?); A.D.] beschrieben wird. Wir haben dennoch den zusätzlichen Fall von (3) „des anhaltenden“ roten Rauschens berücksichtigt, wobei das Rauschmodell die Roh – Beobachtungsreihe trifft."

[Rotes Rauschen: Leistungsdichte umgekehrt proportional zum Quadrat der Frequenz (~ 1/f^2)]

Drei Probleme gibt es:

a) Die "Analyse" die sie zitieren, ist ein redaktioneller Kommentar von Michael Mann.

b) Langzeitkorrelation betrifft im Allgemeinen NICHT das nicht-stationäre Verhalten erster Ordnung. Ein klassischer Fall von Langzeit-Abhängigkeit ist ein fraktionelles Differenzmodell, welches nicht-stationärer erster Ordnung ist unter der Bedingung, dass der Differenzparameter kleiner als 0,5 ist.

Ein solches Modell wird als eine physikalisch plausible, einfache Ein-Parameter-adjustierbare Charakterisierung der internen Klimaviariabilität betrachtet, genau wie das autoregressive Modell mit Abhängigkeit im Kurzfrist-Zeitraum, das sie verwenden (AR 1). … Imbers et al. fanden heraus, dass beide Modelle zu der internen Variabilität des Klimas angemessen im GMST über die historische Zeitperiode passten, dass jedoch im Modell mit der langfristigen Abhängigkeit die Unsicherheitsbereiche größer waren.

c) Das „anhaltende“ roten Rauschen Modell hat überhaupt keine Langzeitkorrelation (es ist ein AR (1) -Modell mit einem unterschiedlich geschätzten Autokorrelationsparameter), es bietet es wenig oder gar keine Prüfung der Auswirkungen der wahren internen Variabilität bei Langzeit Beziehungen.

4. Nichts in dieser Studie betrachtet die Wahrscheinlichkeit, dass die hohen, letzten aufgezeichneten Temperaturen den Fall ergeben haben, wo es eine anthropogene Komponente gibt, aber diese ist weniger stark als von den CMIP5 Modellen simuliert, d.h. weil sie zu sensitiv sind. Darüber hinaus haben einfache Modelle eine geringere Empfindlichkeit gegenüber Antrieben von Treibhausgasen, aber auch weniger Aerosol-Kühlung, als in den meisten CMIP5 Modellen und können eine genauso gute oder bessere Übereinstimmung mit den historischen Aufzeichnungen als das CMIP5 Multimodell bieten – besser, wenn bekannte, natürliche Multidekade Variabilität (AMO) berücksichtigt wird. Das ist / diese sind wirklich die Schlüsselfragen – ist die ganze Erwärmung über [den Zeitraum] der historischen Periode anthropogenen; und unter der Annahme, sie ist es auch, kann sie durch Modelle berücksichtigt werden, die weniger empfindlich auf steigende Konzentration von Treibhausgasen reagieren? Nur wenige ernsthafte Menschen behaupten in diesen Tagen, das kein Teil der Erwärmung in der historischen Periode eine anthropogene Ursache hat, was alles ist, was Manns Verfahren versuchen kann auszuschließen.

5. Ich denke, dass ihre Erweiterung der CMIP5 auf historische Simulationen 2005-2014 höchst fragwürdig ist. Sie sagen, "Wir haben die CMIP5 Serie bis 2014 erstreckt, die durch Referenz 13 bereitgestellten Schätzungen genutzt (Hintergrundinformationen)." Das heißt, ich glaube, dass sie die CMIP5 Modell Temperaturtrends nach 2005 reduzieren, um angeblich niedrigere [Temperaturen] als die tatsächlichen zu erzwingen. In der Simulation bezieht er sich stattdessen auf Referenz 12. Weder Ref. 12 noch Ref. 13 scheinen solche Schätzungen zu erzeugen. Ref 14, die in ihrer Referenzliste den Titel eines anderen Berichtes trägt (der korrekte Titel ist "Die Vereinbarkeit von Erwärmungstrends“) ist sehr wahrscheinlich falsch in der Schlussfolgerung, dass die Antriebe in CMIP5 Modellen in den letzten zehn Jahren oder so überschätzt wurden. Sie berücksichtigten nur Antriebe, von denen sie dachten, sie würden in den Modellen positiv geändert. Die Frage wurde in einer neueren Arbeit korrekt untersucht, Outen et al 2015, die alle Antriebe berücksichtigten und feststellten, dass es "keinen Beweis gibt, dass Fehler bei der Erklärung der Pause eine bedeutende Rolle spielen" – sie fanden einen vernachlässigbaren Unterschied, wenn sie die letzten Beobachtungs-Schätzungen substituieren mit diejenigen, die in einem CMIP5 Modell verwendet werden.

6. Sie verwenden modellierte SST (TOS) [Sea surface temperature] [Temperature over surface] eher als Lufttemperatur (TAS) in 2m Höhe über dem Ozean. Im Prinzip ist dies sinnvoll, wenn es mit HadCRUT4 und alte Versionen von GISTEMP verglichen wird, aber nicht mit der neuesten Version von GISTEMP oder mit den neuen NOAA (Karl et al – MLOST?) Aufzeichnungen, da es die SST anpasst um, mit der oberflächennahen Lufttemperatur zu übereinstimmen auf einer dekadischen und multidekadischen Zeitskala.

Ich hoffe das hilft Dir, Nic

Fazit, Judith Curry 

Die Abhandlung von Mann et al. produziert sicherlich eine schlagkräftige Titelzeile und es ist eine Herausforderung, die Probleme mit der Abhandlung an die Öffentlichkeit zu kommunizieren.

Wie ich es sehe, ist diese Arbeit eine riesige Übung im Zirkelschluss:

1. Nehmen Sie an, die globalen Oberflächentemperatur Schätzungen sind zutreffend; dann ignorieren sie die Unterschiede mit den durch atmosphärische Satelliten gemessenen Temperaturen.

2. Nehmen Sie an, dass CMIP5 Multimodell Ensemble kann verwendet werden, um Wahrscheinlichkeiten genau darzustellen.

3. Nehmen Sie an, die CMIP5 Modelle simulieren eine ausreichend interne Variabilität

4. Nehmen Sie an, externe Daten über Antriebe sind ausreichend sicher,

5. Nehmen Sie an, dass die Klimamodelle im Wesentlichen 100% der jüngsten Erwärmung durch CO2 korrekt erklären,

Damit die Mann et al. Analyse funktioniert, muss man ihm jede dieser fünf Annahmen abkaufen; jede davon ist fraglich, in unterschiedlichem Ausmaß.

Erschienen auf Judith Curry am 26. Januar 2016

Übersetzt durch Andreas Demmig

http://judithcurry.com/2016/01/26/on-the-likelihood-of-recent-record-warmth/




Windmühlen und Sonnenstrahlen lassen das Licht ausgehen

Und nach allem, was der Präsident selbst einmal gesagt hat: "Das ist nicht die amerikanische Art. Das ist kein Fortschritt. Das ist keine Innovation. Das ist Rendite-Optimierung und der Versuch, alte Formen der Geschäftstätigkeit schützen und den Weg in die Zukunft zu blockieren."

Natürlich referierte er nicht über die vielen Milliarden von Dollar für die Vetternwirtschaft der kapitalistischen Regierung und den Wohltätigkeitsorganisationen für Wind- und Solarenergie. Nein, seine Botschaft war an diejenigen gerichtet, die es wagen, seine Entschlossenheit, fossile Energie durch anämische, unzuverlässige und teure Alternativen zu ersetzen, zu kritisieren.

Quelle: CFACT

Dementsprechend kündigte er und seine gehorsam begeisterte EPA im August noch eine Multimilliarden-Verpflichtung für Versorgungsunternehmen an. Diese werden gezwungen, bis zum Jahr 2030 etwa 28% aller US-elektrischer Energie aus erneuerbaren Quellen zu liefern.

Doch während Wind- und Solar kombiniert weniger als 5% des gesamten US-Stromes im Jahr 2013 lieferten, erhielt jeder von ihnen mehr als 50-mal mehr an Subventionen als Kohle und Erdgas zusammen.

Die Reduzierung der sogenannten „Carbon Verschmutzung" (richtiger als Pflanzennahrung bekannt) wird für die Stromverbraucher sehr teuer werden, mit unverhältnismäßigen Belastungen bei wirtschaftlich benachteiligten Bewohnern der kälteren nördlichen Staaten.

Standard & Poors [Rating Agentur und Finanzservice] projektiert, dass bis 2020 Vierzig bis Fünfundsiebzig Gigawatt (75.000 Megawatt) an Kohlestromerzeugung abgeschaltet werden. Die Anlagenbetreiber im größten Stromnetz Amerikas, dem Mid-Atlantic [New York bis runter Washington D.C. und angrenzende Bundesstaaten], planen, 11.578 MW an verfügbarer Ausgangsleistung bis 2015 zu beseitigen.

Das ist genug, um mehr als 9 Millionen Haushalte [wirklich] zu versorgen.

Kohlekraftwerke, die möglicherweise durch Erdgasanlagen ersetzt werden, bringen nicht annähernd die Differenz [an fehlender Leistung]. Midcontinent Independent System Operator, Inc. [lokaler Energielieferant], die das Netzwerk von Manitoba bis Louisiana verwaltet, erwarten einen Leistungsausfall von etwa 2.000 MW bis zum Jahr 2016, mit zunehmendem Defizit nach dem Umbau.

BNP in New York [französische Großbank in NY seit 1800] schätzt, dass Erdgas zusammen mit einigen erneuerbaren Energien nur etwa 4.000 MW liefern können, rund 20.000 MW Kohleenergie werden dann bis Ende 2015 verloren gehen.

Wo soll der Ersatz an Energie nun herkommen? Betrachten wir Wind, zum Beispiel:

Ein Bericht von 2013 des New York Independent Systems Operator (NYISO) [lokaler Energie Lieferant…~ Stadtwerke] schätzt, dass die ersten 15 Windparks [im Bundesstaat] New York im Jahr 2010 nur 60% des Äquivalents eines einzigen 450-MW-GuD-Kombikraftwerk produziert haben, eines Kraftwerks, dass mit nur etwa einem Viertel der Investitionskosten gebaut werden kann.

Die Qualität dieser Energie ist alles andere als ein Schnäppchen. Im Gegensatz zu Kohle- und Erdgaskraftwerke, die bei Bedarf zuverlässig Strom liefern – einschließlich zu Nachfrage-Spitzenzeiten – produzieren Windkraftanlagen Strom nur zeitweise als variable von täglichen und saisonalen Wetterbedingungen, völlig unabhängig von der aktuellen Nachfrage.

Bildquelle: CFACTS Fireplace

Der unbeständige Lieferungstrend begünstigt kältere Nachtzeiten anstatt heiße Sommer Nachmittage, wenn am meisten [Energie] benötigt wird.

Die eigentliche Kick ist, dass Wind hat keinen wirklichen "Kapazitätswert“ hat [ist nicht grundlastfähig – Demmig]. Sporadische Energieoutputs benötigen Unterstützung durch ein "Schattenkraftwerk", nur so ist es Versorgungsunternehmen möglich, die Energielieferung nach Bedarf auszugleichen, wenn die Windverhältnisse nicht optimal sind . . . was sie die meiste Zeit nicht sind.

Wir [- nicht die Eike Leser – Demmig] neigen dazu, nicht wissen zu wollen, dass diese "Back-up Reserven", die der gesamten Windleistung entsprechen, wahrscheinlich von Kohle oder Erdgas erzeugt werden, welche von anti-fossilen Aktivisten gerne gehasst werden.

Solarenergie, wie Wind, ist eine natürliche, kostenlose Energiequelle – vorausgesetzt, dass öffentliche Zuschüsse und Kunden für hochpreisigen Strom zur Deckung der Kosten vorhanden sind. Und wie bei Wind, gibt es auch bei Solarenergie nicht genügend geeignete Standorte, insbesondere in der Nähe von Stadtgebieten, wo die Energie notwendig gebraucht wird, um einen nationalen Unterschied in der [CO2 freien] Versorgung auszumachen.

Auch stellt die Zuverlässigkeit von Windkraft ein großes Problem bezüglich dar, um den höchsten Anforderungen gerecht zu werden. Sollten "clean" und "frei erneuerbare" Quellen nicht umweltfreundlich sein?

Bildquelle: CFACT:  Paul Driessen

Paul Driessen, Senior Politischer Analyst für den Non-Profit-Verein: Committee For a Constructive Tomorrow, stellt fest, dass nur eine 550-Meilen lange Pipeline an der Atlantikküste mit  ca. 18,6 qkm benötigt wird, die mit Wiesen bepflanzt werden können, im Vergleich zu erforderlich 1923 qkm, um die gleiche Menge an Energie durch 46.000 Windenergieanlagen mit monströsen Vogel-und Fledermaus-Häckselmesser zu erzeugen.

Los Angeles hat sich vor kurzem geweigert, Solarstrom von einem relativ kleinen 10,3 qkm Projekt in der Mojave-Wüste zu kaufen, aufgrund nachteiliger Einflüsse auf die Wüstenschildkröten und Dickhornschafe.

Zusammen mit diesen Vögeln, Fledermäusen, Schildkröten und Schafen, sollten wir uns vielleicht um einige andere gefährdete Opfer des Obama-EPA-Kriegs gegen fossile Brennstoffe kümmern.

Jene armen menschlichen Geschöpfe, die ihre Steuerzahlungen zur Subvention von Obamascars [Wortspiel: Subventions-E-Autos] nicht aufladen können, wenn die Sonne nicht scheint und der Wind nicht weht in der Nacht . . . oder wenn ihr blauer Himmel in Erwartung zur Rettung des Planeten bedeckt ist.

Erschienen auf CFACT am 14. September 2015

Übersetzt durch Andreas Demmig

http://www.cfact.org/2015/09/14/windmills-and-sunbeams-wont-keep-the-lights-on/

Dieser Artikel erschien auch auf Newsmax

http://www.newsmax.com/LarryBell/Climate-Change-Global-Warming/2015/09/14/id/691443/#ixzz3lkTTU970

Ergänzung durch den Übersetzer:

Vor kurzen fand ich einen älteren Beitrag von 2011; dessen Inhalt ich unseren Lesern gekürzt mitteilen möchte:

Amerikas schlimmstes Windkraft Projekt

Wind-Energie-Befürworter geben zu, dass sie viel Schönreden müssen, um die wirklich Informierten zu überzeugen.

Robert Bryce

 “The more people know about the wind-energy business, the less they like it.”

„Je mehr die Menschen über Windenergie wissen, desto weniger mögen sie es.“

Sie meinen, dieser Satz stammt von einem Gegner der Erneuerbaren?

Nein, stammt er nicht. Stattdessen ist es das eher erstaunliche Eingeständnis eines Kommunikationsstrategen bei einem Seminar der Amerikanischen Vereinigung für erneuerbare Energien: „Kommunikationsstrategien für die Branche der erneuerbaren Energien."

Justin Rolfe-Redding, Doktorand aus dem Center for Climate Change Communication an der George Mason University, diskutierte Möglichkeiten für Befürworter der Windenergie – um ihre Botschaft an die Öffentlichkeit zu bringen. Rolfe-Redding sagte, dass die Abfrage Daten zeigten, dass "nach dem Lesen der Argumente für und gegen Wind, der Wind an Unterstützung verlor." Er fuhr fort zu sagen, dass die Bedenken hinsichtlich Kosten der Windenergie und ihre Wirkung auf den Wert der Immobilien die "Ängste um den Klimawandel unter den Befragten verdrängt“.

Die erstaunlichste Sache, aus Rolfe-Redding Mund kommend – ja, hörte ich ihn es selbst sagen: "Die Dinge, über die die Leute ausgebildet sind, sind ein echtes Defizit für uns." Nach den Briefings über das Für und Wider von Wind, sagte Rolfe-Redding, "Die Begeisterung für Wind hat abgenommen. Das ist eine beunruhigende Feststellung. Die Lösung für diese Probleme, ist es, die Argumente gegen Wind so viel wie möglich zu schwächen“. Er schlug vor, die "Inokulationstheorie" [inoculation = impfen] zu nutzen und den Leuten zu sagen, dass "Wind eine saubere Energiequelle ist und Arbeitsplätze schafft. …es ist eine Investition in die Zukunft." Einwände sollten abgeschwächt werden: „ Die Preise gehen täglich nach unten“

Bild: Demmig

Es ist bemerkenswert, wie ähnlich die Argumente sind, die von Windenergie Befürworter hervorgehoben werden, zu denen, mit denen die Obama-Regierung ihre Unterstützung für Solyndra rechtfertigt, des inzwischen bankrotten Solarunternehmen, das eine 529 Millionen $ Kreditgarantie des Bundes erhielt. Aber in gewisser Weise ist die staatliche Unterstützung für die Shepherds Flat viel schlimmer als das, was mit Solyndra passiert.

[Shepherds Flat ist der größte Windpark der Erde mit 845MW Nennleistung; Gesamt Investition 1,9 Mrd. $]

Erschienen auf National Review Online am 12. Oktober 2011

Übersetzt durch Andreas Demmig

Gefunden auf STT, Beitrag vom 22. Febr. 2014

http://stopthesethings.com/2014/02/22/us-renewable-guru-commits-heresy-once-the-facts-are-known-support-for-fans-plummets/




Die grüne Fata Morgana – und Irreführung

Es spielt keine Rolle, dass die vorhergesagten Katastrophen nicht passieren. Es gab keine Erwärmung in 19 Jahren, keine Hurrikane der Kategorie 3-5 erreichten die Küste der US nach den Aufzeichnungen der letzten 9-1 / 2 Jahren, tatsächlich geschahen keine der hochgespielten Klimakatastrophen in der realen Welt, außerhalb der Welt der Panikmacher. Natürlich unterstützen die armen Ländern den Vertrag, vor allem, weil es rund 100 Milliarden Dollar pro Jahr für Anpassung, Minderung und Ausgleichsgeld von den FRCs [Formerly Rich Countries] verspricht: Den Früher reichen Ländern, die ihre eigene Arbeitsplatzbeschaffung, das Wirtschaftswachstum und den Lebensstandard im Namen der Stabilisierung des ständig schwankenden Erdklimas gefesselt haben.

Jedes Geld, das übertragen wird, endet in den Taschen der herrschenden Eliten. Arme Familien erhalten wenig oder gar kein Geld – und ihnen wird gesagt, ihre Träume von einem besseren Leben, muss auf Arbeitsplätze und den Lebensstandard begrenzt werden, der durch Sonnenkollektoren auf ihren Hütten und ein paar Windkraftanlagen in der Nähe von ihren Dörfern unterstützt wird, [bzw. werden kann.]

Einfach gesagt, die Regelungen der Musk-Obama-Papst-Klimakrise werden die Menschheit noch in Jahrzehnten vor übertriebenen und fabrizierten Klimakatastrophen retten – durch Verarmung von Milliarden und Morgen dem töten von Millionen.

Für den Katechismus der Klimakatastrophen-Koalition ist die Hauptsache, dass wir an die hysterischen Behauptungen und Computermodelle glauben – und die endlos erneuerbaren Energie Mandate und Subventionen unterstützen.

Musk und seine Tesla und Solarcity Unternehmen haben bereits 4,9 Mrd.$ an Steuerzahler finanzierten Subventionen eingesteckt und sogar die langfristige Profitabilität hat die Almosen noch nicht beendet. Jetzt behauptet er, das kleine "blaue Quadrat" auf einer Karte, repräsentiert das "sehr wenig" Land benötigt wird,  um alle fossilen Brennstoffe zur Stromerzeugung in den USA „loszuwerden“ und eine nicht vorhandene Klimakatastrophe zu verhindern. Er betont: Wir müssen nur Sonnenkollektoren auf dem Dach mit an der Wand montierten Akkus verknüpfen – etwa bloße 160 Millionen Tesla Powerwalls [alle 6 bis 8 Jahre zu erneuern, der Übersetzer] – um die Notwendigkeit von Kohle und Erdgas zur Stromerzeugung in den Vereinigten Staaten zu beseitigen.

Schwachsinn (aus dem Futtertrog der politischen Schweinefarmen). Wie diese sorgfältige und umfassende Analyse zeigt – auch ohne Berücksichtigung des monumentalen Strombedarfs der erforderlich wäre, um Amerikas Fahrzeuge zu elektrischen Batterie-Versionen zu konvertieren – würde die Bereitstellung der heutigen Grundlast und Spitzenlast eine 29,3 Milliarden Quadratmeter große Solaranlage erforderlich machen. Unter der Annahme, das Sonnenlicht ist täglich und übers ganze Jahr vorhanden, wären das 29.333 Quadratkilometer aktiver Solar-Panel-Oberfläche: 7,2 Millionen Hektar – oder fast ganz Maryland und Delaware! [Fläche entspricht Brandenburg]

Die Analyse ist technisch, weitab der Fähigkeit der meisten Wähler, Journalisten, Politiker und Regulierungsbehörden, um es vollständig zu verstehen. Lesen Sie es trotzdem, wenn auch nur, um die Ungeheuerlichkeit zu verstehen was alles erforderlich ist, für Finanzierung, Rohstoffe, Bergbau, Produktion und Elektrizität von etwa 40 Millionen Paneelen pro Jahr, Akkus und Wechselrichter (Solar DC auf 120 / 240 VAC) [sinnvoll gekürzt, der Übersetzter]

Es ist klar, dass wir es mit einer beispiellosen grünen Fata Morgana und Irreführung zu tun haben. Es wird den durchschnittlichen Verkaufspreis von den 8-9 Cent pro kWh in auf Kohle- und Gas angewiesene Staaten hochtreiben auf die 15-17 Cent pro kWh wie in Kalifornien, Connecticut und New York – oder sogar die 36-40 Cent in Deutschland und Dänemark, wo nicht-subventionierte Preise 70-80 Cent pro kWh ausmachen! [die Zahlen die mir geläufig sind, sind NOCH etwas niedriger, der Übersetzer] Die Auswirkungen dieser Preise auf die Arbeitsplätze der Menschen, den Lebensstandard, Gesundheit und Wohlergehen wären verheerend. Aber Musk und seine "sauberen" Energie Freunde ignorieren das.

Musk hat einen [BS] Bachelor of Science in Physik – und hält offensichtlich einen fortgeschrittenen BS Grad in Lobbyarbeit und Schwindel-Artistik über Klimakatastrophen und Lösungen für erneuerbare Energien, beauftragt von Regierungsverordnungen und durch endlose Milliardensubventionen finanziert. Er hat zahlreiche persönliche Besuche in Amtsstuben der Legislative in Sacramento und Washington gemacht, um mehr solcher Systeme zu fördern und stimmt seine Bemühungen ab mit denen von Eric Schmidt, Nat Simons, Tom Steyer, Al Gore und den Mitgliedern des Clean Tech Syndicate: elf geheimnisvolle Familien mit einem Gesamtvermögen von über 60 Milliarden US-Dollar, die durch Steuerzahler und Verbraucher noch reicher werden wollen.

Sie gehen davon aus (Nachfrage), dass gefälschte Klima Katastrophen ihnen weiterhin Milliarden von Klima-Geld-Subventionen aus Washington und den Landeshauptstädten bringt, zusammen mit mehr Ausnahmen bei vom Aussterben bedrohten Arten und den Umweltschutzgesetzen und Verordnungen, die bei fossilen Brennstoff Projekten mit aller Macht angewendet werden.

Googles Wissenschaftler haben schließlich eingestanden, dass die bestehenden und kurzfristigen verfügbaren erneuerbaren Energietechnologien einfach nicht wie beworben funktionieren und ihre politischen oder Klima Versprechungen nicht erfüllen können. Die Technologien sind "all hat, no cattle“ [Phrase, „Windei“ erscheint mir treffend]. Allerdings sind die Klimakrise und Clean-Tech Industrie fest entschlossen, es voranzutreiben – mit unserem Geld, sie riskieren wenig ihres eigenen [Geldes] und sie bekommen es von uns erstattet, wenn ihre Investitionen scheitern.

Google und NRG [Großer Energieversorger, EE] wollen jetzt einen 539-Millionen$ Zuschuss des Bundes, um das 1,6 Milliarden US-Dollar Darlehen der Steuerzahler abzulösen, für die Vogel-Röstanlage, genannt Ivanpah Concentrated Solar Power in Kalifornien, weil es nicht funktioniert und viel Erdgas braucht, um seinen Wasserspeicher heiß zu halten, so dass es die staatlichen Standards für erneuerbare Energien nicht erfüllt.

Auch andere Obama "Greenbacks" [Ausdruck für die grünen Dollarscheine] Energie "Investitionen" sind in roter Tinte ertrunken, die Steuerzahler bleiben zurück, um die Rechnung zu bezahlen: Solyndra, Abound Solar, Solar Trust, Ener1, Beacon Power, et cetera, et cetera, et cetera.

Dennoch betreibt Musk Lobbyarbeit für sein SB-350 Projekt, das fordert, dass 50% des kalifornischen Stroms über "Erneuerbare" Quellen, wie Wind, Solar, Biokraftstoffe und heiße Luft von Politikern erzeugt werden. Inzwischen geben die Familie von Google Vorstand Eric Schmidt und Unternehmensstiftungen Millionen an alarmierende Klimawissenschaftler, wie die ultra-grüne Energy Foundation und tollwütigen Anti-Fracking Gruppen wie der World Wildlife Fund und Natural Resources Defense Council [NRDC]. NRDC bekommt auch von der EPA [US-Umweltministerium] Millionen, um die Agenda der anti-fossilen Brennstoffe des Ministeriums zu fördern und sitzen mit 33 ihrer Mitarbeiter in 21 "beratenden" Ausschüssen der EPA.

Schmidt und Warren Buffett unterstützen auch die geheimnistuerische, weit-links stehende Tides Foundation, die Millionen an Oppositionsgruppen gegen Kohle und Hydraulic Fracturing gegeben hat, gegen die Keystone-XL- und Sandpiper Pipeline-Projekte [Pipelines statt LKW] und unzählige andere arbeitsplatzschaffende Kohlenwasserstoff-Programme. Der kanadische Forscher Cory Morning beschreibt Tides genau als "magische, Geld-Versenkmaschine von epischen Proportionen."

Der Milliardär Nat Simons und seine Sea Foundation spenden jährlich zig Millionen zur Förderung und Lobbyarbeit für "erneuerbare" Energiepolitik, Mandate und Subventionen; Investitionen in Wind-, Solar- und Biokraftstoffunternehmen; Unterstützung von Umweltschutz Interessengruppen; und einen Beitrag für Demokratische Politiker, um die Vetternwirtschaft der von Konzernen bestimmten Arrangements aufrechtzuerhalten. Simons, seine Frau und seine verschiedenen Wladimir Putin Kumpane (via Klein, Ltd. und der schattenhaften Bermuda Wakefield Quin Kanzlei) sind die einzigen Beitragszahler für Sea Change.

Wir wettern oft gegen die Dritte-Welt-Korruption. Unsere amerikanische (und europäische) Umwelt Korruption ist einfach subtiler und anspruchsvoller. Es wird Betrug und Diebstahl legalisiert – ein massiver Vermögenstransfer von Armen und Verbrauchern und Steuerzahler der Mittelschicht zu Milliardären, die noch mehr Milliarden dank brillant gestalteter Panikmache Kampagnen einstecken. Und vergessen wir nicht, Al Gore, Mike Mann, Tom Steyer, James Hansen und all die anderen, die ebenfalls von dieser Regelung immens profitieren – und die ständige Verunglimpfung von Wissenschaftlern, die die Mantras der Klimakatastrophe in Frage stellen.

Interessengruppen [der Originale Ausdruck „pressure groups“ trifft es einfach besser, der Übersetzer] und herrschende Eliten argumentieren, dass Erdöl und Erdgas zu Ende geht. Der Trick funktioniert nicht mehr. Während fossile Brennstoffe schließlich endlich sind, hat fracking uns riesige neue Vorräte von Erdöl gegeben – und riesige Kohle-, Öl- und Gasvorkommen sind durch Dekret der Regierung tabu gestellt. Wir haben mindestens ein Jahrhundert [Zeit], alternative Energiequellen zu entwickeln, die wirklich funktionieren – die echte Arbeitsplätze, tatsächliche Erträge, niedrigere Energiepreise und wahren Wohlstand schaffen – ohne die Mandate, Subventionen, Täuschungen, Betrug und Korruption, die das Markenzeichen der "grünen" Energie Systeme darstellen.

Kein Wunder, dass die "Clean Tech Crowd“ anti-Kohlenwasserstoff und Klimachaos Kampagnen finanziert. Aber trotz des verspäteten Rettungsversuchs des Papstes wird die Pseudo-Wissenschaft der "gefährlichen, vom Menschen verursachte globale Erwärmung" langsam der Klima Realität erliegen. Und jeder neue UN-Klimavertrag wird scheitern, wenn die armen Nationen realisieren, dass die versprochenen hundert Milliarden im Jahr nicht zustande kommen.

Die noch verarmten Nationen sollten nicht tun, was die reichen Länder jetzt tun, jetzt wo sie reich sind. Sie sollten das tun, was die reichen Länder getan haben, um reich zu werden.

___________

Paul Driessen ist Senior Politik Analyst für das Committee For A Constructive Tomorrow (www.CFACT.org), Autor von Eco-Imperialism: Green power – Black death, [Grüner Strom – schwarzer Tod] and Coautor von Cracking Big Green: Saving the world from the Save-the-Earth money machine. [Knackt das große Grün -: Rettung der Welt vor der Rettet-die-Erde Geldmaschine.

Tom Tamarkin ist Gründer und Geschäftsführer der USCL Corporation und der Interessengruppe Fusionsenergie http://www.fusion4freedom.us und http://www.fuelRfuture.com. Er gilt als Erfinder der intelligenten Zähler der Versorgungswirtschaft und gewährt und meldet Patente in diesem Bereich an.

Erschienen auf WUWT am 10.Juli 2015

Übersetzt durch Andreas Demmig

http://wattsupwiththat.com/2015/07/10/the-green-mirage-and-con-job/




Obamas Erneuerbare Energie Fantasien

Die EPA kam in Konflikt mit dem Gesetz, erst eine Kosten-Nutzen-Analyse durchzuführen, bevor sie Maßnahmen ergreifen, um die Quecksilberemissionen aus Kohlekraftwerken zu reduzieren. Auch für das Ziel des Präsidenten gibt es keine objektive Kosten-Nutzen-Analyse, die die erneuerbaren Energien rechtfertigen könnte.

Kürzlich erklärte Bill Gates in einem Interview mit der Financial Times [1] warum aktuelle erneuerbare Energien Technologien sind, die in eine Sackgasse führen. Sie sind unzuverlässig. Batteriespeicher sind unzureichend. [Die Erzeugung der Energie aus] Wind- und Sonne hängt vom Wetter ab. Die Kosten für die Dekarbonisierung mit der heutigen Technologie sind "jenseits von astronomisch", schloss Herr Gates.

Google-Ingenieure kamen im Vorjahr zu einem ähnlichen Ergebnis. Nach sieben Jahren der Untersuchung, fanden sie keine Möglichkeit, die Kosten der erneuerbaren Energien im konkurrenzfähig mit Kohle zu bekommen. "Leider", berichteten die Ingenieure, "die meisten der heutigen sauberen Quellen können keine Energie erzeugen die verteilt und planbar ist", dh. Strom, der schnell auf- und abgeregelt werden kann. "Sonnenkollektoren, zum Beispiel, können auf jedes Dach gestellt werden, erzeugen aber keinen Strom, wenn die Sonne nicht scheint."

Wenn Herr Obama seinen Willen bekommt, wird die US den steinigen Weg abwärts gehen, den die Europäische Union bereits gegangen ist. Im Jahr 2007 verabschiedete die EU das Ziel 20% des Energieverbrauchs aus erneuerbaren Energiequellen bis zum Jahr 2020. Europa ist daher etwa ein Jahrzehnt vor den USA bei der Erfüllung einer [noch] größeren Herausforderung, Ziel der EU ist 20% der Gesamtenergie, nicht nur Strom. Um zu sehen, wie die US dann aussehen könnte, ist Europa ein guter Ort, um anzufangen.

Deutschland beschloss das erste Gesetz für Erneuerbare Energien im Jahr 1991 und hat bereits rund 400 Mrd. € für die sogenannte Energiewende ausgegeben. Der Bundesumweltminister hat eine Summe bis zu 1.000 Mrd. € bis zum Ende der 2030er Jahre geschätzt. Bei einer Wirtschaft, die fast fünf Mal so groß wie Deutschland ist und fast sieben Mal so viel Strom erzeugt (bei einem weniger anspruchsvollem Ziel der  Erneuerbaren), bedeutet dies Kosten zur Erfüllung von Obamas Versprechen in der Größenordnung von 2.000 Mrd. $.

Es gibt auch andere, indirekte Kosten zu berücksichtigen. Deutschland ist weltweit der zweitgrößte Exporteur von Waren, hinter China und vor den USA, aber hohe und steigende Energiekosten treiben deutsche Unternehmen, neue Kapazitäten in Übersee zu suchen.

BASF, die weltweit die größten zusammenhängenden Chemieanlagen betreibt, verlagert mehr Produktion nach Amerika. "Bei solch einem großen Unterschied der Energiepreise ist die Entscheidung klar, dass das Geld nun dorthin fließt," sagte ein BASF Vorstand bei einem Treffen der EU- Industrieminister im letzten Jahr. BASF hat Werke in Malaysia sowie Louisiana eröffnet.

Befürworter [und Profiteure; der Übersetzer] der erneuerbaren Energien wie die Deutsche Bank gehen davon aus, dass Strom aus Solaranlagen in der nicht allzu fernen Zukunft das gleiche kosten wird, wie Strom aus dem Netz (sogenannte Netzparität). Aber keiner behauptet, dass Solar dieses ohne Subventionen tun kann. Und wie Deutschland, Großbritannien und andere europäischen Ländern dabei sind herauszufinden, sind offene Subventionen nur ein Teil der Kosten der erneuerbaren Energien.

Am schädlichsten ist die Wirkung der erneuerbaren Einspeisungen auf die Kraftwerke, die [unbedingt] erforderlich sind, um die Stabilität des Stromnetzes und das Gleichgewicht von Angebot und Nachfrage zu gewährleisten. Selbst ein bescheidener Anteil von Wind- und Solarstrom verhindert, das Gas- und Kohlekraftwerke ihre Fixkosten decken können. Dies hat zu der vorgeschlagenen Schließung von Irsching in Bayern geführt, eines der neuesten und effizientesten Gaskraftwerke in Deutschland. Wenn konventionelle Kapazität nicht auch subventioniert wird, werden irgendwann die Lichter beginnen auszugehen. Europäische Politiker haben keine Antwort auf das Problem, das sie geschaffen haben und es ist eine sichere Wette, die EPA auch nicht.

Eine unbeabsichtigte Folge des Fracking-Booms ist die Verschiebung von Kohle durch Erdgas -ein billiger und effektiver Weg, um Kohlendioxid-Emissionen zu senken. Eine Studie in 2104 von Brookings Institution schätzt, dass wenn Kohle[-kraftwerke] durch moderne GuD-Gasturbinen ersetzt werden, damit 2,6-mal mehr Kohlendioxid-Emissionen als bei Verwendung von Windenergie reduziert werden und es reduziert viermal mehr Emissionen als Solarenergie.

Denn, die Erzeugung von Elektrizität ist bei der niedrigen Energiedichte der wetterabhängigen Technologie sehr ineffizient. Es erfordert sehr viel mehr Anlagen und Land, um eine äquivalente Menge an Energie zu ernten als bei fossilen Brennstoffen. Und dabei sind die Investitionen in fossile Kapazitäten nicht mitgezählt, um die back-up-Leistung bereitzustellen, wenn der Wind nicht weht oder die Sonne nicht scheint.

Es gibt keine rationale Begründung für die politischen Maßnahmen zur Förderung erneuerbarer Energien. Im Jahr 1972 schrieb Umweltschützer Guru EF Schumacher “Small Is Beautiful” [Klein ist Wunderbar], als sein Vorbild nannte er buddhistische Ökonomie, die er in Burma entdeckt hatte. Eine Zivilisation, die auf nachwachsenden Rohstoffen aufbaut, so behauptete er, wäre besser als eine auf nicht erneuerbaren Ressourcen. "Der ersteren tragen das Zeichen des Lebens", schrieb Schumacher, "während die letzteren das Zeichen des Todes tragen."

Obamas Ziel der Erneuerbaren ist ein Triumph für Schumachers buddhistische Ökonomie – die zu Armut führt und bei Armut bleibt. Es erzeugt keine Arbeitsplätze, Wachstum und Wohlstand.

Mr. Darwall ist der Author von “The Age of Global Warming: A History (Quartet, 2013). [Das Zeitalter der Globalen Erwärmung: Ein Historie, Link recherchiert]

Erschienen auf The Wall Street Journal am 5. Juli 2015

Übersetzt durch Andreas Demmig

http://www.wsj.com/articles/obamas-renewable-energy-fantasy-1436104555

Hinweis des Übersetzers: Die Websuche nach diesem Titel in Englisch, führt zu vielen Informationen „beider Seiten“, auf Deutsch kommt hauptsächlich Wikipedia, mit den üblichen alarmistischen Behauptungen, „Google“ ist ausgeglichener als „Bing“.

Für Sie dabei gefunden: "Grün ist das neue Rot"

[1] Financial Times  : „Gates to double investment in renewables energy projects“ am 25.Juni 2015.

Offenbar sind diese Zugriffe nur eine begrenzte Zeit kostenlos verfügbar, bei diesem Link war ich wohl nicht schnell genug. Berichtet wird darüber auf The Register.

 Gesehen habe ich vorher:

Financial Times: „Q&A: Robots, Uber and the role of the goverment“ ebenfalls vom 25. Juni 2015, in dem Bill Gates interviewt wird. Nur eine kleine Passage betraf den Klimawandel:

 

 Auschnittskopie des o.g. Interviews der Financial Times mit Bill Gates.

FT: Reden wir ein wenig darüber, wie wir den Klimawandel am besten bekämpfen können.

BG: Die Leute sind ein wenig in die Irre geführt. Sie nehmen so etwas wie Solar-PV-und meinen, wenn die Sonne scheint, ersetzt die Energie des Tages die Kohlenwasserstoffe. Das ist völlig uninteressant, weil Sie immer noch ihre Wohnungen in der Nacht wärmen wollen. Bei diesem System dreht sich alles um Zuverlässigkeit. Sie können den Bedarf an Tagesenergie auf Null fahren und Sie wollen immer noch Energieversorgungsunternehmen, die fossile Kraftwerke in der Nacht betreiben.




Klimawandel: Wissenschaftler warnen skeptische Abgeordnete vor der Untersuchung von Beweisen des menschlichen Einflusses

Der Brief wurde von Professor Ove Hoegh-Guldberg, University of Queensland Global Change Institute [1] [2] geschickt und von 12 anderen, darunter Professor Will Steffen von der Australian National University und Professor Lesley Hughes von der Macquarie University – unterzeichnet.

Dr. Jensen und Chris Back unterstützten einen Antrag auf der Ratssitzung der Bundesliberalen im vergangenen Monat, die eine parlamentarische Untersuchung aufrufen, um die Beweise für den Klimawandel zu prüfen, bevor die Regierung die Emissionsziele bis 2020 unterschreibt. Der Antrag wurde schließlich an den politischen Ausschuss der Partei gegeben, um einer möglicherweise schädlichen öffentlichen Debatte auszuweichen.

Die Bundesregierung erwartet, ihre Emissionsziele für die Zeit nach 2020 vor dem 20. Juli bekannt zu geben.

Obwohl der Antrag an einen Ausschuss überwiesen wurde, sagten die 13 Wissenschaftler, dass sie eine Zusammenfassung des jüngsten IPCC Berichtes verteilen wollten, um skeptische Abgeordnete von dem dringenden Handlungsbedarf zu überzeugen.

"[Der IPCC] spricht über die Tatsache, dass wir sehr ernste Auswirkungen erleben werden, wenn die globale Durchschnittstemperatur über 2 Grad Celsius ansteigt“ sagte Professor Hoegh-Guldberg. "Wir werden Auswirkungen auf die Ökosysteme sehen, wir werden Auswirkungen auf die Fischerei sehen, wir werden Auswirkungen auf die Landwirtschaft sehen und wir werden Auswirkungen auf die Menschen und die Gesundheit und so weiter sehen." [3]

Dr. Jensen: Die im UN-Bericht enthaltenen Modelle „übertreiben“ den Erwärmungstrend

Dr. Jensen, [Mitglied des Parlaments] ein ausgebildeter Physiker, zweifelt einige Modelle und Vorhersagen des IPCC an – vor allem über die globale Temperatur.

"Die Modelle haben sich tatsächlich als recht mies in Bezug auf die Vorhersage von globalen Durchschnittstemperatur-Trends erwiesen. Zum Beispiel in den letzten fünfzehn Jahren ist die globale Durchschnittstemperatur nicht gestiegen, etwas was die Mehrheit der Modelle nicht projiziert. Mehr als 97 Prozent der Modelle, die in die technischen Berichte des IPCC einflossen, haben entweder übertrieben oder den erwarteten Erwärmungstrend deutlich überschätzt."

 

Quelle: WUWT, Eric Worral, 07.Juli 2015, s.u.

Aber Professor Hoegh-Guldberg sagte, das sei eine kurzfristige Perspektive:

"Wenn man sich die Literatur ansieht, gab es keine Pause. Es gibt eine zufällige Variabilität um das Aufwärtssignal der Temperatur. Es ist wie beim Aktienmarkt. Man sieht, dass es auf und ab geht, aber es wird einen Trend haben – dieser Trend ist das, was wir beobachten. [Es macht] nichts, ob es über einen Zeitraum von 10 Jahren nach oben oder unten geht – es ist ein langfristiges Signal."

Mindestens 10 Abgeordnete teilen die skeptischen Ansichten [von Dr.] Jensen.

Dr. Jensen sagte, er sei nicht allein innerhalb der Partei und dass es "mindestens" 10 Abgeordnete gibt, die seine Ansicht teilen, dass die Regierung Emissionsreduktionen nicht unterzeichnen sollte, ohne eine parlamentarische Untersuchung.

Er und Chris Back würden die Information akzeptieren, würden aber nicht belehrt werden wollen.

"Als eine Person mit wissenschaftlichem Hintergrund, bin ich immer interessiert, die Ansichten einer Reihe von Menschen über das gesamte Spektrum zu hören. Insofern bin ich glücklich, mich mit ihnen zu treffen – aber ich hoffe, dass sie den Wunsch verstehen, umfassendere Beratung einzuholen ", sagte Chris Back.

"Ich würde von Ihnen erwarten, dass sie als Wissenschaftler erkennen, dass eine Person wie ich sich weiterhin einer breiten Palette von Perspektiven zu allen Aspekten bedient. Es ist von zentraler Bedeutung für die Wissenschaft."

Professor Hoegh-Guldberg sagte: „Es wäre wichtig “Experten“ zu hören, jeder hat eine Meinung, aber das ist nicht Wissenschaft“.

Erschienen auf ABC Net News am 07.Juli 2015

Übersetzt durch Andreas Demmig

http://www.abc.net.au/news/2015-07-07/scientists-warn-climate-sceptic-mps-not-to-waste-time-on-inquiry/6599754

Hinweis: Ursprünglich kam ich durch WUWT auf dieses Thema, wo dieser Bericht in kurzer Form erschien, am 07.Juli 2015, Autor Eric Worrall, der Textpassagen nahezu wörtlich übernommen hatte. Er fügte aber obige Grafik hinzu.

http://wattsupwiththat.com/2015/07/07/aussie-climate-scientists-please-dont-examine-our-work/

[1] Professor Ove Hoegh-Guldberg wird in seiner Biographie als „deeply-motivated“ beschrieben, die dringendsten und ernsthaftesten Herausforderungen für die Menschheit weltweit anzugehen, darunter Klimawandel und saubere Energie [der Übersetzer]

[2] Für Antony Watts ist Professor Ove Hoegh-Guldberg ebenfalls kein unbeschriebenes Blatt.

Er störte einen Auftritt von Watts in Brisbaine, Oz report – Footy at least has rules, [Wortspiel Oz = Märchen: die fantastische Welt von Oz – wenigstens Fußball hat Regeln].

Auf dieser Vortragsreise von Antony Watts durch Australien muss es „Heiß hergegangen sein“. Hier dazu ein kurzer Ausschnitt der Beschreibung des Auftritts von Professor Hoegh-Guldberg:

Das Seltsame ist, wenn Professor Ove Hoegh-Guldberg einfach zu Beginn darum gebeten hätte, eine Erklärung abzugeben (wie es ein professioneller Wissenschaftler normalerweise tut), hätte Professor Carter (der den Vorsitz der Sitzung führt) es gerne so getan, und ich hätte meine Zustimmung gegeben, auch wenn er mich und Dr. Carter bereits im Voraus "Lügner" genannt hatte. Er hatte noch nicht einmal die Präsentation gesehen. Sein Verhalten und konstante Entführung des Mikrofons irritierte mich schließlich genug, um rufen "Hey, gehen Sie und mieten Sie sich Ihre eigene Halle!". Ove ignorierte mich und fuhr fort.

Antony Watts

[3] Gegenstellungnahme zu den Thesen von Professor Ove Hoegh-Guldberg: Complaints against Professor Ove Hoegh-Guldberg [Klagen über Prof….]




Deutschlands Traum von Windkraft wird ein andauernder Alptraum

Die Deutschen forcierten Windkraft härter und schneller als alle anderen – und die Rache folgt in den Kosten dafür. Die Zuschüsse wurden kolossal, die Auswirkungen auf den Strommarkt chaotisch und – im Gegensatz zum Umwelt Zweck der Politik – steigen die CO2-Emissionen schneller: Wenn "Rettet den Planeten“ – wie uns immer wieder gesagt wird – die Verringerung der von Menschen verursachten Emissionen eines geruchlosen, farblosen und natürlich vorkommenden Spurengas ist, welches für alles Leben auf der Erde essential ist – dann ist die deutsche Energie- / Umweltpolitik offensichtlich gescheitert (siehe unseren Beitrag hier [übersetzter Titel: Lehren aus Deutschlands Windkraft Desaster).

Rund 800.000 deutsche Haushalte wurden vom Netz getrennt – Opfer von dem, was euphemistisch als "Energiearmut" bezeichnet wird. Als Reaktion darauf haben Deutsche ihre Äxte gegriffen und ihre Wälder durchstreift, um das Gefühl der Sicherheit ihrer Energieversorgung zu verbessern [Holz zum Heizen und Kochen, der Übersetzer] – obwohl Förster offenbar der Ansicht sind, dass diese Selbsthilfe-Maßnahmen nichts anderes als eklatanter Holzdiebstahl sind (siehe unseren Beitrag hier) [übersetzter Titel: Kosten für Wind schickt Deutschland zurück in die Steinzeit]

Deutsche Hersteller – und andere energieintensive Branchen – die mit steigenden Energiekosten konfrontiert sind, orientieren sich in Richtung USA – wo die Strompreise nur 1/3 der in Deutschland sind (siehe unsere Beiträge hier und hier und hier). Und der "grüne" Traum von Tausenden von Arbeitsplätzen in der Windindustrie ist genau das geworden: nur ein Traum (siehe unseren Beitrag hier).

Als Reaktion auf das Ansteigen gesundheitlicher Beschwerden haben deutsche Mediziner einen endgültigen Stopp des Baus von Windparks genannt, um ihre Mitbürger zu schützen; und zur Abwendung medizinischer Kunstfehler:

German Medicos Demand Moratorium on New Wind Farms

[Beitrag STT: Deutsche Mediziner fordern Moratorium für neue Windparks]

Nun, abgesehen von unnötigen Schäden durch Windparks, werden die Deutschen durch unangreifbare Fakten geweckt, dass Windenergie [und Photovoltaik – der Übersetzer] nicht nur wahnsinnig teuer ist, sie ist auch völlig sinnlos als Energiequelle. Hier ein paar der letzten Stücke aus Deutschland, Details aus dem Umfang der Katastrophe und der brodelnden Feindschaft gegen Windenergie.


Der Wahnsinn von Deutschlands Energiesozialismus

Deutschlands Energierevolution wird mehr und mehr absurder. Nach Kernkraft und Gas, ist es nun Kohleenergie die abgeschafft werden soll. Der Wahnsinn erreicht neue Dimensionen.

Wolfram Weimer, Handelsblatt, 1.Mai 2015

[Recherche des Übersetzers:

Der Direktzugriff des Links funktioniert nicht (?). Daher „Handelsblatt Archiv 1.Mai 2015, dann nach unten scrollen: What´s Right? Mehr Erhard wagen anklicken, dann in diesem Beitrag Seite 2 anklicken: Einmal ordentlich durchlüften bitte]

Vor dreißig Jahren wäre er sicherlich als "Master Architekt des Sozialismus" oder "Chef Aktivist der sozialistischen Arbeit" ausgezeichnet worden – östlich der Elbe. Sigmar Gabriel wird alles tun, um wieder eine umfassende Planwirtschaft in Deutschland zu re-etablieren: die grüne Energiewende stößt das Tor zum Energie Sozialismus weit auf.

Sein neuester Coup: Der deutsche Steinkohlenbergbau soll einem nationalen Klimaregime unterworfen werden und sieht bürokratische CO2-Tonnen Planung und willkürliche Sonderabgaben vor. Die deutsche Wirtschaft, die Kohleländer Nordrhein-Westfalen und Brandenburg, und die Gewerkschaften laufen Sturm. Verdi-Chef Frank Bsirske sieht bis zu 100.000 Arbeitsplätze in Gefahr und ruft zu Massen-demonstrationen auf. Der unglückliche RWE-Chef Peter Terium warnt verzweifelt: "Die Abgabe würde die sofortige Einstellung für einen Großteil der Braunkohlegruben und Kohlekraftwerke bedeuten." Und der Christdemokrat Armin Laschet warnt: "Mit seiner speziellen Steuer auf Kohle löscht der Minister für Wirtschaft die letzte subventionsfreie, wirtschaftliche und Import-unabhängige inländische Energiequelle aus dem deutschen Strommarkt".

In der Tat ist der neue Kohle-Plan nur ein weiterer Schritt im großen sozialistischen Masterplan, mit dem Sigmar Gabriel ganz Deutschland überrollt. Schon eine ganze Republik von Ökostrom Räten etabliert bestimmte Plan-Preise für Solar- und Wind. Die Kameraden produzieren beliebige Mengen an Energie, die Bevölkerung zahlt Zwangsabgaben, Angebot und Nachfrage sind ausgesetzt und Parteipolitik bestimmt die Zahlen zur Planerfüllung. In diesem Öko-Sozialismus, erhält jeder, der Strom aus erneuerbaren Quellen produziert, eine national festgelegte "Energie Einspeisevergütung" (das Wort klingt, als ob es aus Ost-Berlin kommt). Das hat so viel mit freien Marktpreisen für Strom zu tun, wie [damals] Stasi-Chef Erich Mielke mit der Reisefreiheit – nichts.

Was einst als eine ins Leben gerufene – gut gemeinte – grüne Energierevolution begann, hat sich zu einem riesigen VEB mutiert [dh. DDR-Staatsunternehmen]. In Gabriels System ist Stromerzeugung nicht mehr durch die Nachfrage bestimmt – wie in der Marktwirtschaft üblich – Es sind die Subventions Milliarden. Produziert wird was die Einspeisetarife für Wind- und Solarenergie teuer ermöglichen, nicht, was die Öffentlichkeit und die Wirtschaft benötigt – billige Energie. Im nationalen Energiesystems Gabriels gibt es eine ideologische Unterscheidung zwischen "guter" (grün) und "böser" (traditionell) Energie. Daher werden auch profitable Gaskraftwerke abgeschaltet – wie zufällig das modernste Gaskraftwerk Europas in Irsching. Stattdessen werden neue Förderprojekte an das Netz gebunden, ohne die erforderliche Netzwerkkapazität und ohne die notwendige Speichertechnologie. Für diese intermittierenden Kraftwerke haben Kohlekraftwerke als Backups zu laufen, die damit wiederum viel mehr CO2 emittieren, was nun auch noch extra besteuert wird. Es fühlt sich an wie ein sozialistischer Selbstläufer: Diese Energiewende kann nicht gestoppt werden.

Umweltzerstörung

Die Öko-Garantiepreise führen bereits zu allerlei klassischen Merkmalen der Planwirtschaft, die alle von den Sowjetblock Volkswirtschaften gut bekannt sind: Unrentable Überkapazitäten, zum Beispiel. Inzwischen wurden 1,4 Millionen Photovoltaik-Module im eher schattigen Deutschland installiert.

Kein anderes Land der Welt hat ein so gewaltiges und gänzlich unrentables Kontingent aufgebaut. Mit rund 25.000 Windenergieanlagen sowie Tausenden von Biogasanlagen sind wir Weltmarktführer [in Deutschland]. Wie in den Fünfjahresplänen der sozialistischen Deutschen Demokratischen Republik sind Quoten, Mengen und Zeitziele von zentralen Ministerien vorgeschrieben.

Die neue Öko-Planwirtschaft verschlingt riesige Subventionen in Milliardenhöhe, nicht weniger als 22 Mrd. Euro insgesamt  an EEG Einspeisevergütung pro Jahr – und auch nach mehr als zehn Jahren Dauersubventionen ist Strom aus erneuerbaren Energien immer noch teurer als die von Kohle, Öl, Kernenergie und Gas. Anstatt den Subventionssozialismus zu kündigen, treibt jedoch eine parasitäre Mischung aus Finanzierungsexperten, Investoren, Anlagenhersteller und Subventionsverteiler die Industrie weiterhin voran.

Sie haben einen Öko-Industrie-Komplex geschaffen, der nicht nur perfekte Lobbyarbeit in Berlin betreibt, sondern auch das Land mit Windmühlen ruiniert und mit kollektiven Geld schröpft, denn obendrauf räumt die Kreditanstalt für Wiederaufbau (Kreditanstalt für Wiederaufbau) der grünen Lobby subventionierte Kredite ein, um sicherzustellen, dass die Planwirtschaft auch finanziell abgerundet wird.

Das verquere System ist so teuer, dass nur ein sehr reiches Land wie Deutschland sich dieses Großexperiment leisten kann. Rund 100 Milliarden Euro hat dieser Subventions-Sozialismus bereits verbrannt. Derzeit kostet die grüne Energieabgabe 56 Millionen Euro täglich. Der expandierende Öko-Sozialismus hat die Energieversorger in Kombinate der Bundesnetzagentur verwandelt. Diese Agentur legt fest, welche Preise für die Stromübertragung in Rechnung gestellt werden, erlaubt Subventionen und autorisierte Erträge aus Investitionen. Die Industriestrompreise sind die zweithöchsten in Europa, daher verabschieden sich energieintensive Unternehmen allmählich von Gabriels Energie-Sozialismus.

Die Tatsache, dass der kolossale Bau von Windkraftanlagen und Solaranlagen auch dramatische Landschaftsverschandelung verursacht, ist die traurige Ironie dieser grünen Geschichte. Eine Reise durch Gabriels Deutschland ist jetzt wie ein grüner Tunnel des Schreckens, eine Achterbahnfahrt durch weite Spuren der Zerstörung der Natur, ein Subventionsgrab mit Turbinen [WKAs] und Platten gefüllt.

Deshalb – eher noch als die Kohle aus dem Markt zu drängen – muss die grüne Kommando- und Kontrollwirtschaft grundlegend reformiert werden. Es hat sich die größte Zuschuss-Abzocke der jüngsten Geschichte in Bewegung gesetzt und die Umwelt beschädigt. Es belastet die Wirtschaft und zwingt alle Verbraucher unter steigenden Strompreisen zu leiden. Die schlimmsten Verzerrungen des Marktes müssen von immer mehr neuen Regelungen ausgeglichen werden. Auf diese Weise rechtfertigt eine staatliche Intervention die nächste. In Deutschland ist der "real existierende Sozialismus" seit 1989 Geschichte, Gott sei Dank. Der Energie basierende Gabriel-Sozialismus ist jedoch auf dem Vormarsch.

Übersetzung und Zusammenstellung Phillip Mueller

Deutschlands „Traum“ von Windkraft erreicht eine neue „Realität“ …
Quelle STT

Wirtschaftswoche, 24 April 2015

[Recherchen des Übersetzers: die WW ist eine Wochenzeitung, zum 24.04.15 gibt es keine Ausgabe; hier alternativ Wirtschaftswoche 20.April 2015 (kostenpflichtig).

Vielleicht ein Schreibfehler? Daher hier Handelsblatt, 24 April 2015

Ein Teil von dem, was Deutsche auf die Barrikaden treibt, ist das, was die Windindustrie ihren geliebten Städten und Landschaften antut (für eine bildliche Darstellung der ästhetischen Zerstörung – schauen Sie hier) [Landschaften: Vorher – nachher – sehenswert traurig, der Übersetzer]

Und die Deutschen nehmen nicht mehr klaglos hin, was die Windindustrie auftischt: sie werden wütender und sind von Tag zu Tag besser organisiert.

Germany’s Anti-Wind Energy Elements Morph Into A Massive Network Of Protest Groups… Call Wind Energy “A Lie”

[Deutschlands Anti-Wind Elemente verwandeln sich in ein massives Netzwerk von Protestgruppen. „Sie nennen die Windenergie: Eine Lüge“]
Der Widerstand gegen die grüne- Abfallenergie wächst in Deutschland.

Am 4.Mai 2015 wurde in den Braunschweiger Nachrichten ein Kommentar von der Spitze einer deutschen Windprotestorganisation, Dr. Thomas Carl Stiller abgedruckt: „Der Wahnsinn mit den Windrädern", Der Originalbeitrag in den BZ ist kostenpflichtig, ein Kommentar hier zu lesen: „Energiewende funktioniert so nicht

Mit Unterstützung von K.E. Puls, Europäisches Institut für Klima und Energie (EIKE) wurde das dann für die Leser von  NoTricksZone, ins Englische übersetzt und am 4.Juni 2015 veröffentlich.

 

Ab hier Hinweis des Übersetzers:

Für unsere deutschen Leser verzichte ich natürlich auf eine Rückübersetzung und habe die Zeitungskopie digital nur etwas vergrößert.

Der Link zu NoTricksZone ist auf der Eike Seite rechts ständig zu finden.

Beitrag erschienen auf StopTheseThings am 11.Juni 2015

Übersetzt durch Andreas Demmig

http://stopthesethings.com/2015/06/11/germanys-wind-power-dream-becomes-a-living-nightmare/




1.500 Unfälle und Störungen in britischen Windparks

Fast jeden Tag ein Unfall; Bildquelle: Helmut Kuntz, Eike Beitrag vom 15.06.2015

[Hinweis Übersetzer:  Ich habe die Bildfreigabe des Originals noch nicht bekommen , man sieht jedoch auch nur viele WKAs.]

Die Zahlen – von RenewableUK, [Handelsgruppe Erneuerbare Energien] veröffentlicht – beinhalten viere Tote und weitere 300 Verletzungen von Arbeitnehmern.

Das Ausmaß der Vorfälle – fast einer pro Tag – wurde bekannt, nach der Veröffentlichung der dramatischen Bilder: Eine Windkraftanlage, die in ein Feld in der Nähe einer Straße abgestürzt war und eine weitere [WKA Generator] die in Flammen explodierte, verursacht von Winden die mit 150 mph letzte Woche Schottland und Nordengland gebeutelt haben.

Charles Anglin, Direktor für Kommunikation der RenewableUK, betonte, dass die Zwischenfälle der vergangenen Woche von "Wetterkapriolen" verursacht wurden. Die Organisation sagte, dass kein Mitbürger jemals als Folge eines Unfalls einer Windkraftanlage verletzt worden wäre.

Ein Dossier von Zwischenfällen, zusammengestellt von einer Opponenten Gruppe zu Windparks umfasst Fälle, in denen Flügel, jeweils mit einem Gewicht von bis zu 14 Tonnen, abscherten und zu Boden stürzten.

Anwohner in der Nähe eines Windparks haben berichtet, Zuflucht suchend in ihren Häusern, dass Eisbrocken von den Flügeln einer 123m hohen Turbine geworfen wurden (nahe von Peterborough, Cambridgeshire).

Ein Hersteller von Windenergieanlagen hatte zugelassen, dass eines ihrer Modelle einen Defekt hatte – eine fehlerhaftes Bremssystem, wodurch die Blätter wegfliegen könnten – was bei Hunderten von WKA dazu führte, das diese im September auf Anordnung von HSE [Health and Safety Executive, Organisation für Arbeitsschutz, erste Hilfe usw] abgeschaltet werden mussten.

Das Unternehmen, Proven Energy Ltd, mit Sitz in Schottland, ging kurz danach in Konkurs.

Flügel, an kleineren inländischen Windkraftanlagen angeschlossen, haben sich auch abgelöst und Gebäude getroffen – in einem Fall durchdrangen sie das Dach eines Bürocontainers. Umweltschützer beanstanden, dass die Vorfälle zeigen, dass "einige Teile des Landes zu windig für Turbinen sind". Die meisten Anlagen werden automatisch heruntergefahren, wenn die Windgeschwindigkeit über 56 mph steigt weil sie bei dieser Geschwindigkeit unsicher werden können.

Im September flog der Flügel einer Windkraftanlage auf das Dach eines neuen Parkplatzes des Lister Krankenhauses in Stevenage, Hertfordshire, das Auto eines Mitarbeiters wurde getroffen.

Letztes Jahr war ein Windpark mit 140 Anlagen nahe Glasgow zeitweise abgeschaltet, weil ein 14t schwerer Glasfiberflügel bei heftigem Wind abbrach und am Fuß seines Turmes einschlug.

Vor zwei Jahren krachte ein 15m Anlage auf den Schulhof einer Schule, Insel Raasay vor der Küste von Schottland, und noch im selben Jahr brach ein Flügel einer 60m hohen Windkraftanlage der Universität Sheffield in Rotherham bei starkem Wind, woraufhin eine Untersuchung beim Hersteller veranlasst wurde.

Die Vorfälle wurden vom Caithness WindFarm Informationsforum zusammengestellt. Dieses setzt sich gegen Windkraft in Schottland ein und veröffentlicht Unfälle – abgesichert durch Medienberichte – auf ihrer Website.

RenewableUK sagte, die Todesfälle wurden im Jahr 2009 und 2010 registriert. Ein Wartungsarbeiter in Schottland ‚verhedderte‘ sich mit der Antriebswelle einer Turbine, während die anderen drei Todesfälle während der Bauphase von Onshore- und Offshore-Windparks stattfanden.

Chris Streatfeild, RenewableUK’s Direktor für Sicherheit sagte: " Kein Mitbürger war jemals verletzt oder geschädigt worden, nach den Berichten die wir erhalten haben. Das Risiko für die Öffentlichkeit ist eins-zu–einer Million. Sie werden eher durch einen Blitz getroffen als durch ein Windkraftwerk“.

Herr Streatfeild erklärte, dass RenewableUK 1.500 Vorfälle in den vergangenen fünf Jahren aufgezeichnet hat, viele davon sehr geringfügig. Davon, rund 18 Prozent – oder fast 300 Zwischenfälle – haben zu einer Verletzung geführt, in der Regel wieder sehr geringfügig. Die Planung und Sicherheitsregeln für Windkraftanlagen beinhalten immer einen bestimmten Mindestabstand zu Straßen und Häusern, um die Gefahr für die Öffentlichkeit weiter zu reduzieren. Er sagte, die Anzahl der Brände und strukturellen Zusammenbrüche betrug nur ein "Handvoll".

Herr Anglin, sagte letzte Woche, dass Windparks eine "ausgezeichnete Gesundheits- und Sicherheitsbilanz" haben und fügte hinzu: "In Stresssituationen kann jede Energieanlage Störungen entwickeln, das gilt für Gas, Kernkraft, Öl und gilt auch für Wind"

Die HSE-Organisation sagte letzte Woche, es sei "extrem schwierig", ein "vollständiges Bild der gemeldeten Vorfälle bei Windparks" zu erstellen, weil Unfälle dieser Industrieanlagen nicht aufgezeichnet werden.

Nach HSE zeigen ihre Zahlen drei tödliche Unfälle zwischen 2007/08 und 2009/10 und insgesamt 53 schwere oder gefährliche Zwischenfällen in der gleichen Zeitspanne. Der HSE-Sprecher erläuterte, Windkraftanlagen werden als Maschinen anstatt als Bauwerke oder Konstruktionen eingestuft und dass es keine Verpflichtung gibt, mechanische Fehler zu melden.

Angela Kelly, Vorsitzende des Country Guardian [vergleichbar: Naturschützer], ein nationales Netzwerk von Windpark Gegnern: "Seit Jahren sind uns Unfälle auf Windparks bekannt, aber die neuen Zahlen, die von der Handelsorganisation der [Wind-] Branche selbst veröffentlich wurden, sind besonders alarmierend. Die Entwickler scheinen die Tatsache, dass einige Teile des Landes zu windig für Turbinen sind, ignoriert zu haben."

Erschienen auf THE TELEGRAPH, am 11.Dez 2011

Übersetzt durch Andreas Demmig

http://www.telegraph.co.uk/news/uknews/8948363/1500-accidents-and-incidents-on-UK-wind-farms.html

Unfälle mit Windkraftanlagen

Da obiger Artikel bereits etwas älter ist, hier für Sie aktuellere Zahlen vom Caithness Windfarm Informationsforum.

[Caithness ist eine traditionelle Grafschaft an der Nordostspitze Schottlands mit über 25.000 Einwohnern und der historischen Hauptstadt Wick, Quelle Wikipedia.org]

Das CWIF hat es sich zur Aufgabe gemacht, gegen Windkraftanlagen zu kämpfen.

CWIF ist Mitglied im World Council for Nature und European Platform Against Windfarms

Einleitende Worte von einem CWIF Unterstützer nach der Entscheidung für den  Windpark Stroupster im Jahr 2010:

Ich fühle mich wie ein anderes etwas von uns – Caithness ist gestorben. Es ist ganz unglaublich, dass dies so weit voran und jetzt so schnell ging. Die Leute werden eines Tages aufwachen und sagen " Wer ließ das geschehen?"

CWIF kann sicherlich stolz sein und sagen: "Wir haben unser Bestes gegeben und gekämpft mit allem, was wir hatten und uns vorstellen konnten".

CWIF bittet darum, keine Grafiken zu kopieren, da ihre Webseite der Unfallstatistik regelmäßig aktualisiert wird.

Zu Unterstützung unserer Leser möchte ich einige Erläuterungen von letztgenannter Webseite auszugsweise übersetzen:

Der Trend ist wie erwartet, je mehr WKAs gebaut werden, umso mehr Unfälle passieren (2011, 2012, 2103 jährlich mehr als 160 Unfälle)

Die HSE –Organisation verfügt nicht über eine Datenbank über die Ausfälle von Windenergieanlagen, auf der sie Urteile über die Zuverlässigkeit und Risikobewertungen für Windkraftanlagen stützen kann, siehe Studie.pdf der HSE .

Das ist, weil die Windindustrie "Vertraulichkeit der gemeldeten Vorfälle“ garantiert. Keine andere Energiebranche arbeitet mit solcher Geheimhaltung in Bezug auf Vorfälle. Auch die Windindustrie sollte jedoch nicht anders sein und je früher RenewableUK seine Datenbank zur Verfügung stellt, für HSE und die Öffentlichkeit, desto besser. Die Wahrheit ist da draußen, aber RenewableUK mag es nicht zuzugeben.

Einige Länder werden schließlich akzeptieren, dass industrielle Windkraftanlagen erhebliche Gesundheits- und Sicherheitsrisiko darstellen können. Die schottische Regierung hat vorgeschlagen, den Mindestabstand zwischen Windparks und den Kommunen von 2 km auf 2,5 km zu erhöhen, obwohl in Wirklichkeit der aktuelle 2 km Abstand oft schmählich im Planungsprozess ignoriert wird. [Deutschland 900m]

Unsere Daten zeigen deutlich, dass Flügelversagen der häufigste Unfall bei Windkraftanlagen ist, dicht gefolgt von Feuer. Dies ist in Übereinstimmung mit GCube, dem größten Anbieter von Versicherungen für erneuerbare Energiesysteme. Im Juni 2015 wurde in der Windindustrie eigenen Publikation "Windpower Monthly" ein Artikel veröffentlicht, der bestätigt, dass "Jährliche Flügel-Ausfälle auf rund 3.800 geschätzt werden", basierend auf GCube Informationen. – Ende der Übersetzung

Diese obigen Zahlen sind nur auf UK bezogen. Links in fett markiert.

Für Deutschland habe ich keine amtliche Statistik gefunden. Dagegen versuchen Bürgerinitiativen und Windkraftgegner Listen aus Medienberichten zu führen.

Zusammengestellt von Andreas Demmig




Das neue Kernkraftwerk in Groß-Britannien – Hinkley Point C

Die Geschichte

Großbritannien (GB) ist die Mutter der sog. "Strom-Markt-Liberalisierung" in Europa. Traditionell gab es Gebietsmonopole, in denen "Energieversorger" tätig waren. Als Ausgleich für ihr Monopol, mußten sie ihre Tarife durch eine staatliche Aufsicht kontrollieren und genehmigen lassen. Nach der "Liberalisierung" sollte elektrische Energie  — wie andere Wirtschaftsgüter auch — zwischen Erzeugern und Verbrauchern gehandelt werden. Eine "Strombörse" sollte hierfür der zentrale Marktplatz sein. So weit, so schlecht. Märkte kann man nicht verordnen, sondern Märkte ergeben sich und müssen sich frei organisieren können. Heute steht man in GB vor einem Scherbenhaufen. Böse Zungen behaupten, daß das heutige Theater um Hinkley Point nur das zwangsläufige Ergebnis für eine seit 30 Jahren nicht vorhandene Energiepolitik sei. Eine sicherlich nicht ganz falsche Feststellung. Noch treffender könnte man sagen, ein bischen Planwirtschaft geht genauso wenig, wie ein bischen schwanger. Um auch weiterhin seinen politischen Einfluß geltend machen zu können, hat man ganz schnell ein prinzipielles "Marktversagen" in der Form einer von Menschen verursachen "Klimakatastrophe" konstruiert. Früher gab es eine "Aufsichtsbehörde" mit klar definierter Verantwortung und Aufgabenstellung. Heute ist die Elektrizitätswirtschaft zu einem Tummelplatz für Laiendarsteller und skrupellose Geschäftemacher verkommen. Im Ergebnis, haben sich immer mehr seriöse Investoren aus diesem Sektor zurückgezogen. Dafür wurden immer mehr Kräfte aus dem dunklen Reich der "Gesellschaftsveränderer" magisch angezogen. Wie konnte es dazu kommen?

Am Anfang und am Ende steht das Atom

In GB gab es zwar nie eine der deutschen "Anti-Atomkraft-Bewegung" vergleichbare Strömung in der Bevölkerung, gleichwohl erkannten auch dort Politiker das Potential für eine "Gesellschaftsveränderung". Man versuchte deshalb den Sektor Kernenergie möglichst lange aus der "Strom-Markt-Liberalisierung" heraus zu halten. Letztendlich wurde auch er "privatisiert". Die Kernkraftwerke wurden komplett an die staatliche französische EDF verkauft. Von einem Staatskonzern Unternehmertum zu erwarten, dürfte ungefähr genauso erfolgreich sein, wie die Übertragung eines Schnapsgeschäftes an einen Alkoholiker. Parallel wurden die "Alternativenergien" massiv bevorzugt. Mit dem Ergebnis, daß man auch bald keinen Dummen mehr finden konnte, der gewillt war, in fossile Kraftwerke zu investieren. Nun steht man vor einem Scherbenhaufen: Rund ein Drittel aller Kraftwerke müssen in den nächsten Jahren aus Altersschwäche vom Netz gehen. Dies führt zu einer Versorgungslücke von wahrscheinlich 60 GW. Eine volkswirtschaftliche Herausforderung, wie in einem Schwellenland. Die Zeit wird knapp. Längst hat man gemerkt, daß Windenergie ohne konventionelle Kraftwerke gar nicht funktionieren kann. Da helfen auch noch so hohe Investitionen nicht weiter. Den Weg über den Neubau von Kohlekraftwerken traut man sich nicht zu gehen, hat man doch erst mit großem politischen Aufwand die "Klimakatastrophe" erschaffen. Der einst erträumte Weg über "flexible und umweltfreundliche Gaskraftwerke" ist bei der benötigten Stückzahl auch nicht realistisch. Zumindest das Handelsdefizit würde explodieren und das Pfund ruinieren. Man kann es drehen und wenden wie man will, aber zum Schluß landet man wieder bei der (ungeliebten) Kernenergie.

Weisse Salbe oder Reform

Solange man an dem "Einspeisevorrang" für Windenergie fest hält, wird man keinen Investor für konventionelle Kraftwerke finden. Jedes zusätzliche Windrad drückt die Preise für Strom an der Börse weiter in den Keller und senkt zusätzlich die Auslastung der konventionellen Kraftwerke. Würde man die Einspeisung begrenzen — wenn der Wind einmal zufällig kräftig weht — wären die Windmüller aber über Nacht pleite. Dies wäre zwar die volkswirtschaftlich sinnvollste Lösung, ist aber (zur Zeit noch nicht) politisch durchsetzbar. Deshalb handelt man lieber nach dem alten Grundsatz: Erst einmal die Probleme schaffen, die man anschließend vorgibt zu lösen: In Deutschland nennt man das "Kapazitätsmärkte", in GB "Contracts for Difference CfD". Zwar ist beides durchaus nicht das Selbe, dient aber dem gleichen Zweck. Es dient dazu, die Kosten für ein zusätzliches System für die Zeiten der Dunkel-Flaute nicht dem Verursacher (Windmüller), sondern dem Verbraucher aufs Auge zu drücken. Noch einmal in aller Deutlichkeit: Würde man den "Erneuerbaren" abverlangen, zu jedem Zeitpunkt den erforderlichen Anteil an der Netzleistung bereitzustellen, wäre der Traum von der "Energiewende" über Nacht beendet. Es würden sich nämlich die wahren Kosten für jeden ersichtlich zeigen. Jeder Windmüller müßte entweder auf eigene Kosten Speicher bauen oder Notstromaggregate errichten oder Ersatzleistung bei anderen Kraftwerken zu kaufen. Wenn er keinen Strom liefern kann, weil das Netz voll ist (Starkwind) bekommt er auch kein Geld. Alles Selbstverständlichkeiten, die für jedes konventionelle Kraftwerk gültig sind. Ein "Kapazitätsmarkt" wäre nicht notwendig oder würde sich von selbst ergeben — ganz nach Standort des Betrachters.

Windenergie ist nicht gleichwertig zu Kernenergie

Der Strom aus der Steckdose ist ein homogenes Gut im wirtschaftlichen Sinne. Es ist physikalisch in engen Grenzen (Frequenz, Spannung) immer gleich. Egal ob heute oder morgen oder in Berlin oder am Bodensee. Genauso wie Dieselkraftstoff, bei dem es auch egal ist, wo man tankt. Zu diesem homogenen Wirtschaftsgut wird die elektrische Energie aber noch nicht durch die Erzeugung, sondern erst durch das Netz (Netz nicht nur im Sinne von Drähten, sondern einschließlich Schaltanlagen, Transformatoren, Frequenzregler etc.). Ganz anders als beim Dieselkraftstoff. Der bleibt immer gleich, egal ob er frisch aus der Raffinerie kommt oder aus einem Lagertank. Damit ergibt sich wirtschaftlich ein grundlegender Unterschied: Diesel kann man lagern, bis die Preise günstiger sind (Arbitrage). Elektrische Energie muß man in dem Moment verkaufen, wo sie entsteht (z. B. Windbö). Andersherum gilt genauso: Der aktuelle Strompreis kann noch so hoch sein, wenn Flaute ist, hat man nichts davon. Genauso wenig nutzt es, wenn der Sturm in der Nordsee tobt, man aber mangels Leitungen den Strom nicht nach Bayern transportieren kann.

Letztendlich muß der Verbraucher immer alle Kosten tragen. Für einen Vergleich unterschiedlicher Erzeuger ist aber eine richtige Zuordnung der Kosten sehr wohl nötig, will man nicht Äpfel und Birnen gleich setzen. Ein einfaches Beispiel mag das verdeutlichen: Bei einem Kernkraftwerk werden die Schaltanlagen und Anschlußleitungen bis zum "relevanten Anschlußpunkt" den Baukosten des Kraftwerks zugeschlagen, weil sie als sicherheitsrelevant gelten. Bei Windkraftanlagen ist das genau andersherum, um die Windenergie künstlich günstig zu rechnen. Hier schmarotzt der Anlagenbetreiber von der Allgemeinheit. Insofern sind Investitionskosten ohne genaue Kenntnisse der Verhältnisse nicht unmittelbar gegenüber zu stellen. Begriffe wie "Netzparität", sind nichts weiter als Irreführung der Verbraucher.

Entspricht 16 nun 34 oder nicht?

Die Baukosten für zwei EPR-Blöcke mit zusammen 3 200 MW werden mit 16 Milliarden Pfund angegeben. Dies ist für sich schon ein stolzer Preis. Verwundern kann das jedoch nicht, da die Vergabe ohne Konkurrenz erfolgt. Dies ist nur politisch zu erklären: Der Segen aus Brüssel war sicherlich nur mit massiver Unterstützung von Frankreich möglich. Dürfte dieser Preis Realität werden, dürfte sich der EPR und Areva als sein Hersteller auf dem Weltmarkt erledigt haben. Er wäre schlichtweg nicht konkurrenzfähig. Wie eigenartig das Vergabeverfahren verlaufen ist, erkennt man schon daran, daß der Angebotspreis kurz vor Abgabe noch einmal um zwei Milliarden erhöht worden ist. Dies wurde mit einem zusätzlichen Erwerb eines Grundstückes und den Ausbildungskosten für die Betriebsmannschaft begründet. Vielleicht platzt das ganze Geschäft noch, weil Areva vorher die Luft ausgeht. Vielleicht ist Hinkley Point auch der Einstieg der Chinesen in das europäische Geschäft mit Kernkraftwerken. EDF hat ohnehin nur eine Beteiligung zwischen 45 bis 50% geplant. China General Nuclear und China National Nuclear Corporation sind schon lange als Partner vorgesehen.

Welche Kosten nun die wirklichen Kosten sind, ist so alt wie die Kerntechnik. Die Baukosten werden mit rund 16 Milliarden Pfund angegeben. Genauer gesagt sind dies die "Über-Nacht-Kosten". Nun beträgt aber die geplante Zeit bis zur Inbetriebnahme etwa 10 Jahre. In dieser Zeit müssen alle Ausgaben über Kredite finanziert werden. Einschließlich der Finanzierungskosten soll das hier etwa 24,5 Milliarden Pfund ergeben. Weitere rund 10 Milliarden Pfund sollen auf die Rückstellungen für "Atommüll" und die Abbruchkosten für das Kraftwerk entfallen. So ergibt sich die Zahl von 43 Milliarden Euro, die durch die Presselandschaft geistert. Man sollte dabei nicht vergessen, daß dies alles nur kalkulatorische Kosten zur Rechtfertigung des vertraglich vereinbarten "strike price" von 92,50 Pfund pro MWh sind. 

Es ging hier um ein "Beihilfeverfahren", in dem die Kosten möglichst hoch angesetzt werden müssen, um das gewollte Ergebnis zu erhalten. Deutlich wird das an der erfolgreichen "Subventionskürzung" bei der Finanzierung um über eine Milliarde Pfund, die Almunia stolz verkündet hat. Um was geht es genau dabei? Die Finanzierung eines Kernkraftwerks ist mit erheblichen, nicht kalkulierbaren — weil staatlich verursachten — Risiken verbunden. Man kann erst die Kredite zurückbezahlen, wenn man Strom liefern kann. Der Zeitpunkt ist aber unbestimmt, da laufend die Anforderungen der Behörden verändert werden können. Dieses (unkalkulierbare) Risiko, lassen sich die Banken mit erheblichen Zinsaufschlägen vergüten. Aus diesem Gedanken wurde die staatliche Bürgschaft (bis zur Inbetriebnahme) erschaffen. Durch diese Bürgschaft ist der Kredit einer Staatsanleihe gleichwertig. Allerdings kostet eine Bürgschaft immer Gebühren. Der Staat subventioniert hier nicht, sondern kassiert im Gegenteil ab! Zahlen muß — wie immer — der Verbraucher. Für Hinkley Point ist eine Bürgschaft über 10 Milliarden Pfund bzw. 65% der auflaufenden Kosten vorgesehen. Man setzt nun einen fiktiven Zinssatz mit Bürgschaft in Relation zu einem durchschnittlichen Zinssatz für Kredite und hat flugs eine — freilich rein theoretische — Subvention.

Es ging hier auch mehr um die grundsätzliche Absegnung eines Verfahrens. Eine solche Anleihe kann sehr langfristig angelegt werden und dürfte sich zu einem Renner für die Versicherungswirtschaft, Pensionskassen usw. im Zeitalter der niedrigen Zinsen erweisen. Dies war übrigens der Gedanke, der hinter der Erschaffung von Desertec, dem Projekt Strom aus der Sahara, stand. Nur hatten die energiewirtschaftlichen Laien der Münchener Rück auf das falsche Produkt gesetzt. Trotzdem ist die Idee Geld wert. Hier schlummert ein europaweites, gigantisches Infrastrukturprogramm. In diesem Sinne ist auch das chinesische Interesse kein Zufall. Man sucht auch dort händeringend langfristige, sichere und lukrative Anlagemöglichkeiten für die gigantischen Devisenreserven. Kapital gibt es genug, man muß nur die ideologischen Bedenken über Bord werfen.

Ist CfD gleich EEG oder doch nicht?

Um die Antwort vorweg zu nehmen: Das Hinkley Point Modell ist eher eine Abkehr vom deutschen EEG-Modell und eine Rückwärtsbesinnung auf die gute alte Zeit der Energieversorger mit genehmigungspflichtigen Preisen. Insofern hinkt auch hier der Vergleich mit der Förderung von Windenergie.

Nach dem EEG-Modell wird ein einmal beschlossener Energiepreis für die gesamte Laufzeit gewährt. Egal, wie hoch die erzielbaren Preise sind. Selbst wenn eine Entsorgungsgebühr für den erzeugten Strom an der Börse entrichtet werden muß (negative Energiepreise). Die Subvention wird jährlich als Zuschlag auf alle verbrauchten Kilowattstunden umgelegt. Das System ist rein an der Erzeugung orientiert. Je mehr Windstrom erzeugt wird, um so mehr drückt das auf die Börsenpreise und um so höher werden die Subventionen. Langfristig müssen sich die konventionellen Kraftwerke nicht nur ihre eigenen Kosten, sondern auch die Entsorgungsgebühren für Wind und Sonne in den Zeiten der Dunkel-Flaute zurückholen. Dies wird zu extremen Preisschwankungen an der Börse führen. Nicht einmal "Kapazitätsmärkte" können dagegen etwas ausrichten.

Beim "strike price" wird ebenfalls ein Preis festgelegt (hier die 92,50 Pfund/MWh auf der Basis 2012), der langfristig gezahlt wird. Immer wenn die an der Börse erzielbaren Preise geringer sind, wird die Differenz draufgelegt. Sind die erzielten Preise jedoch höher, muß diese Differenz zurückbezahlt werden. In der reinen Lehre, sollte es hierfür ein Bankkonto mit Zinsen geben, dessen Kredite durch den Staat (wegen der dann niedrigen Zinsen) verbürgt werden sollten. Dies war angeblich nicht "beihilfekonform" und soll jetzt über kontinuierliche Umlagen bzw. Vergütungen bei den Stromrechnungen erfolgen. Hier liegt der entscheidende Unterschied zum EEG-Modell: Ein Kernkraftwerk kann immer Strom liefern, wenn es der Betreiber will — eine Windmühle nur, wenn die Natur es will. Kernkraftwerke können die hohen Börsenpreise bei "Spitzenlast" in der Dunkel-Flaute voll mitnehmen. "Kapazitätsmärkte" lassen sich so mit dem CfD-Modell elegant umschiffen. Die Kostentransparenz ist größer.

Die Preisaufsicht ist wieder zurück

In der Zeit der Gebietsmonopole, mußten sich die Energieversorger die Preise für die Endverbraucher genehmigen lassen. Ein Modell, welches noch in vielen Teilen der Welt praktiziert wird. Später glaubte man dies, durch den freien Handel einer Börse ersetzen zu können. Leider ist dieser "freie Handel" nie wirklich frei gewesen. Insofern hat es auch nie eine transparente und marktkonforme Preisfindung gegeben. Es war nur ein Alibi für eine Planwirtschaft.

Der von Brüssel genehmigte Preis ist nicht mehr auf ewig festgeschrieben, sondern plötzlich anerkannt veränderlich und bedarf somit einer Kontrolle. Er ist — klassisch, wie eine Preisgleitklausel — mit der allgemeinen Inflationsrate indexiert. Es ist ausdrücklich festgehalten, daß bei geringeren Baukosten als angesetzt, der "strike price" angepaßt werden muß. Das gleiche gilt, wenn der Gewinn höher als vorgesehen ausfällt. Beides wohl eher fromme Wünsche, handelt es sich doch beim Bauherrn und Betreiber um staatliche Unternehmen. Zumindest die "hauseigene Gewerkschaft der EDF" wird eher für das 15. und 16. Monatsgehalt streiken, bevor es dem Kunden auch nur einen Cent Preissenkung zugesteht. Man darf gespannt sein, mit welchen Befugnissen die Preisaufsicht ausgestattet werden wird.

Brüssel hat das ursprünglich auf 35 Jahre begrenzte Modell auf die voraussichtlich Lebensdauer von 60 Jahren ausgedehnt. Man will damit verhindern, daß das dann weitestgehend abgeschriebene Kraftwerk zu einer Gewinnexplosion bei dem Betreiber führt. Auch in dem erweiterten Zeitraum, müssen zusätzliche Gewinne zwischen Betreiber und Kunden aufgeteilt werden. Allerdings kehrt man mit diesem Ansatz nahezu vollständig zu dem Modell regulierter Märkte zurück. Eigentlich sollten an einer Börse die Preise durch Angebot und Nachfrage gefunden werden. Der Gewinn sollte dabei der Lohn für das eingegangene unternehmerische Risiko sein. Was unterscheidet das CfD-Modell eigentlich noch von einer rein öffentlichen Energieversorgung?

Nachwort

Man mag ja zur Kernenergie stehen wie man will. Nur was sind die Alternativen? Wenn man die gleiche elektrische Energie (3,2 GW, Arbeitsausnutzung ca. 90%) z. B. mit Sonnenenergie erzeugen wollte, müßte man rund 30 GW (Arbeitsausnutzung ca. 10%) Photovoltaik installieren. Trotzdem bleibt es in der Nacht dunkel — und die Nächte sind im Winterhalbjahr in GB verdammt lang. Im Gegensatz würden 30 GW an einem sonnigen Sonntag das Netz in GB förmlich explodieren lassen. Wollte man diese Leistung auf dem Festland entsorgen, müßte man erst gigantische Netzkupplungen durch den Ärmelkanal bauen.

Windkraftanlagen auf dem Festland erscheinen manchen als die kostengünstigste Lösung. Bei den Windverhältnissen in GB müßte man für die gleiche Energiemenge ungefähr 10 GW bauen und zusätzlich Gaskraftwerke mit etwa 3 GW für die Zeiten mit schwachem Wind. Das ergibt eine Kette von fast 1000 km Windkraftanlagen an der Küste. Wohlgemerkt, nur als Ersatz für dieses eine Kernkraftwerk Hinkley Point!

Oder auch gern einmal anders herum: Der Offshore-Windpark  London Array — Paradebeispiel deutscher Energieversorger — hat eine Grundfläche von etwa 100 km^2 bei einer Leistung von 0,63 GW. Weil ja der Wind auf dem Meer immer so schön weht (denkt die Landratte) geht man dort von einer Arbeitsausnutzung von 40% aus. Mit anderen Worten, dieses Wunderwerk grüner Baukunst, produziert weniger als 1/10 der elektrischen Energie eines Kernkraftwerkes.

Übernommen von NUKEKLAUS hier




Die fatale Unterwerfung unter eine vermutete Linearität

Mathematisch wird das zu

∆T = lambda ∆F

wobei T die globale Mitteltemperatur ist, F ist der Gesamtantrieb an der Obergrenze der Atmosphäre TOA und lambda wird „Klimasensitivität“ genannt.

Mit andere Worten, die Idee ist, dass die Änderung der Temperatur eine lineare Funktion der Änderung des Antriebs an der TOA ist. Ich selbst bezweifle das stark, denn ich glaube nicht, dass die Welt so einfach gestrickt ist. Aber die Hypothese der Linearität macht die Berechnungen so einfach, dass die Leute es einfach nicht fertigbringen, sich davon zu lösen.

Nun wissen die Leute natürlich, dass das nicht wirklich linear ist, aber wenn ich darauf hinweise, kommt oftmals die Behauptung, dass es im interessierenden Bereich nahe genug an Linearität ist, dass wir Linearität annehmen können mit einem kleinen Fehler.

Um zu sehen, ob die Beziehungen wirklich linear sind, dachte ich mir, die CERES-Satellitendaten zu nutzen, um die Temperatur T und den Antrieb an der TOA F zu vergleichen. Diese Graphik zeigt Abbildung 1:

Abbildung 1: Festland allein, Antrieb F (Strahlungs-Ungleichgewicht an der TOA) und Temperatur T auf einem Gitternetz 1° mal 1°. Man beachte, dass zwischen 50°S und 65°S kaum Festland vorhanden ist. Der Gesamtantrieb an der TOA wird berechnet als einfallende Sonnenstrahlung minus langwellige Ausstrahlung.

Wie man sehen kann, gibt es überall eine Beziehung zwischen Antrieb an der TOA und der Temperatur, also alles andere als linear. Bei den niedrigsten Temperaturen sind sie umgekehrt korreliert. In der Mitte gibt es einen klaren Trend … aber dann, bei den höchsten Temperaturen, entkoppeln sie sich voneinander, und es gibt praktisch keine Korrelation mehr.

Über den Ozeanen ist die Lage irgendwie einfacher, obwohl wir auch dort große Variationen finden:

Abbildung 2: Ozean allein, Gesamtantrieb F gegen Temperatur T in einem Gitternetz 1° mal 1°. Die Farben indizieren die Breite.

Während die Änderungen nicht so extrem sind wie auf dem Festland, ist die Beziehung auch hier alles andere als linear. Im Besonderen beachte man, wie sich die Daten am oberen Ende der Karte mit zunehmendem Antrieb immer mehr nach rechts neigen. Das ist ein klarer Hinweis, dass die Klimasensitivität bei steigender Temperatur abnimmt. Man braucht mehr und immer mehr Energie, um die Temperatur ein weiteres Grad steigen zu lassen, und daher verläuft die Kurve oben rechts praktisch flach.

Am wärmsten Ende gibt es eine ziemlich starke Grenze der Oberflächentemperatur des Ozeans, die gerade etwas über 30°C liegt. (im Vorübergehen: Ich bemerke, dass es auch eine ziemlich starke Grenze der Oberflächentemperatur über dem Festland gibt, und zwar etwa auf dem gleichen Niveau um 30°C. Komischerweise wird diese Landtemperatur erreicht bei jährlichen mittleren Ungleichgewichten der Strahlung an der TOA, die von -50 W/m² bis +50 W/m² reicht).

Was ich oben gezeigt habe, sind die jährlichen Mittelwerte. Zusätzlich zu diesen sind wir jedoch auch an lambda interessiert, also an der Klimasensitivität, die diese Abbildungen nicht zeigen. Dem IPCC zufolge liegt die Gleichgewichts-Klimasensitivität irgendwo im Bereich 1,5°C bis 4,5°C bei jeder Verdoppelung des CO2-Gehaltes. Nun gibt es aber viele Arten der Sensitivität, darunter monatliche, dekadische und Gleichgewichts-Klimasensitivitäten.

Monatliche Sensitivität

Die monatliche Klimasensitivität tritt ein, wenn das Antriebs-Ungleichgewicht an der TOA in einer gegebenen Gitterzelle von 1° mal 1° von – sagen wir – plus 50 W/m² (Energie hinzugefügt) in einem Monat auf minus 50 W/m² im nächsten Monat sinkt (Energieverlust) Natürlich führt dies zu einem korrespondierenden Unterschied der Temperatur dieser beiden Monate. Die monatliche Klimasensitivität sagt, wie stark sich die Temperatur ändert bei einer gegebenen Änderung des Antriebs an der TOA.

Aber das Festland und die Ozeane können sich nicht augenblicklich ändern. Es gibt eine Verzögerung bei diesem Prozess. Daher ist die monatliche Klimasensitivität die kleinste der drei, weil die Temperatur keine Zeit hatte, sich zu ändern. Abbildung 3 zeigt die monatlichen Klimasensitivitäten, basierend auf den monatlichen CERES-Daten.

Abbildung 3: Die monatliche Klimasensitivität

Wie man erwarten kann, ändern sich die Ozeantemperaturen bei einer gegebenen Änderung des Antriebs weniger stark als die Landtemperaturen. Das liegt an der größeren Wärmemenge [thermal mass] der Ozeane über alle Zeiträume zusammen mit der größeren spezifischen Wärme von Wasser im Vergleich zu Erde und der größeren Verdunstung über den Ozeanen.

Dekadische Sensitivität

Die dekadische Sensitivität, auch Transient Climate response TCR genannt [?], ist die Änderung, die wir im Zeitraum von Jahrzehnten erkennen. Da die Temperaturänderung umso geringer ist, je länger die Verzögerung ist, können wir die Größe der Verzögerung benutzen, um die TCR aus der monatlichen Klimareaktion zu berechnen. Die Verzögerung über Land mittelt sich zu 0,85 Monaten und über den Ozeanen zu länger als 2,0 Monaten. Für das Festland gilt, dass die TCR im Mittel 1,6 mal so groß ist wie die monatliche Klimasensitivität. Die ozeanische Anpassung der TCR ist natürlich größer, weil die Verzögerung länger ist. Die ozeanische TCR ist im Mittel 2,8 mal größer als die monatliche Ozean-Klimasensitivität.

[Im Anhang führt Eschenbach diese Berechnung durch. Interessierte halten sich bitte an das Original, weil ich diesen Anhang nicht mit übersetzt habe. A. d. Übers.]

Abbildung 4 zeigt, was passiert, wenn wir die Informationen aus der Verzögerung zusammen mit der monatlichen Klimasensitivität betrachten. Sie zeigt für jedes Gitterquadrat die dekadische Klimasensitivität oder die TCR. Ausgedrückt wird das Ganze in Grad C bei einer Verdoppelung des CO2-Gehaltes (was das Gleiche ist wie Grad pro Zunahme des Antriebs um 3,7 W/m²). Die in Abbildung 4 gezeigte TCR enthält auch die Anpassungen für die Verzögerung auf einer Basis von Gitterzelle für Gitterzelle.

 

Abbildung 4: Transient Climate Response TCR. Sie wird berechnet aus der monatlichen Klimasensitivität für jedes Gitterquadrat und multipliziert mit dem für dieses Gitterquadrat berechneten Verzögerungsfaktor.

Es gibt einige interessante Dinge in der Abbildung 3. Eine davon ist: wenn man einmal die Verzögerung in Betracht zieht, verschwindet Einiges des Unterschieds der Klimasensitivität zwischen Festland und Ozean, und einiges davon ist verändert. Vor allem zeigt sich dies in der Südhemisphäre; man vergleiche Südafrika oder Australien in den Abbildungen 3 und 4.

Außerdem, wie man auch hier wieder sieht, regiert das Wasser. Entfernen wir den Effekt der Verzögerung, treten die trockeneren Gebiete klar hervor, und das sind auch die Stellen mit der größten Sensitivität auf Änderungen des Strahlungsantriebs an der TOA. Das ist verständlich, weil kaum Wasser für die Verdunstung zur Verfügung steht. Daher sorgt die meiste Energie für die Erwärmung des Systems. Nassere tropische Gebiete andererseits reagieren viel ähnlicher dem Ozean mit weniger Sensitivität hinsichtlich einer gegebenen Änderung des TCR-Antriebs.

Gleichgewichts-Sensitivität

Die Gleichgewichts-Sensitivität ECS, die langfristigste Art der Sensitivität, ist das, was theoretisch passieren würde, wenn einmal die verschiedenen Wärmereservoire ihre Gleichgewichts-Temperatur erreicht haben. Der Studie von Otto mit aktuellen Beobachtungen zufolge lag die ECR [ECS? Schreibfehler des Autors?]  gleichbleibend bei etwa 130% der TCR. Andererseits zeigt die Studie von Forster, dass die untersuchten 19 Klimamodelle eine ECR [ECS?], die von 110% bis 240% der TCR reichte mit einem Mittelwert bei 180%.

Damit kann man jetzt die globale mittlere Sensitivität berechnen. Falls wir die Modell-Prozentwerte zur Schätzung der ECS aus der TCR verwenden, ergibt dies ein ECS von 0.14 * 1.1 bis 0.14 *2.4. Dies impliziert eine Gleichgewichts-Klimasensitivität im Bereich 0,2 bis 0,3°C pro CO2-Verdoppelung, mit einem wahrscheinlichsten Wert (der Modelle) von 0,25°C pro Verdoppelung. Falls wir die 130%-Schätzung der Studie von Otto verwenden, bekommen wir ein sehr ähnliches Ergebnis, nämlich 0, 14 * 1.3 = 0.2 °C pro Verdoppelung.

Das ist klein genug, um im Rauschen unseres besonders rauschstarken Klimasystem verloren zu gehen.

Eine abschließende Bemerkung zu Linearität. Man erinnere sich, wir begannen mit der Behauptung, dass die Änderung der Temperatur gleich ist der Änderung des Antriebs multipliziert mit einer Konstante, die man „Klimasensitivität“ nennt. Mathematisch wird das zu

∆T = lambda ∆F

Ich habe lange gedacht, dass dies eine total ungeeignete Repräsentation ist, teils weil ich sage, dass lambda selbst, die Klimasensitivität, keine Konstante ist. Stattdessen ist es eine Funktion von T. Allerdings können wir wie gewöhnlich nicht von Linearität ausgehen … wir können keine Linearität in irgendeiner Form annehmen. Abbildung 5 zeigt die TCR (die dekadische Klimasensitivität) im Vergleich zur Temperatur.

 

Abbildung 5: Transient Climate Response im Vergleich zur mittleren jährlichen Temperatur, nur Festland. Man beachte, dass TCR nur selten unter Null sinkt. Die größte Reaktion gibt es in der Antarktis (dunkelrot).

Hier sehen wir die Entkoppelung der Temperatur und der TCR bei den höchsten Temperaturwerten. Man beachte auch, wie wenige Gitterquadrate wärmer als 30°C sind. Wie man sehen kann, während es eindeutig bei steigender Temperatur einen Abfall der TCR (Sensitivität) gibt, ist die Beziehung alles andere als linear. Und schaut man auf die Ozean-Daten, wird es noch eigenartiger. Abbildung 6 zeigt die gleiche Relation wie Abbildung 5. Man beachte die unterschiedliche Skalierung sowohl in X- als auch in Y-Richtung.

Abbildung 6: Wie in Abbildung 5, jedoch nur für den Ozean. Man beachte, dass sich die Skalierung von Abbildung 5 unterscheidet.

Ich liebe dieses Klimasystem – endlos komplex. Die Ozeane zeigen eine gänzlich andere Verteilung als das Festland. Erstens, die TCR der globalen Ozeane beträgt fast durchweg weniger als ein Zehntelgrad Celsius pro CO2-Verdoppelung (globales Mittel = 0.08°C/2xCO2). Und im Gegensatz zu meinen Erwartungen gibt es unter etwa 20°C kaum Anzeichen irgendeines Rückgangs der TCR mit der Temperatur, wie wir in Abbildung 5 für das Festland gesehen haben. Und über 25°C gibt es einen klaren und raschen Abfall in einer Reihe von Gebieten (einschließlich des pazifischen „Warm-Pools“), die negative Klimareaktionen zeigen.

Im Vorübergehen bemerke ich auch, dass die im offenen Ozean beobachtete 30°C-Grenze an einem Punkt eintritt, an dem die TCR = 0 ist …

Was schließe ich aus all dem? Nun, so genau weiß ich gar nicht, was das alles bedeutet. Einige Dinge sind aber eindeutig. Meine erste Schlussfolgerung lautet, dass der Gedanke, die Temperatur sei eine lineare Funktion des Antriebs, nicht durch die Beobachtungen gestützt wird. Die Relation ist weit entfernt davon, linear zu sein und kann nicht einfach approximiert werden.

Weiter. Die Schätzungen der ECS aus dieser auf Beobachtungen basierenden Studie zeigen eine Bandbreite von 0,2°C bis 0,5°C pro CO2-Verdoppelung. Das liegt weit unter der Schätzung des IPCC … was aber soll man andererseits von der Arbeit von Regierungen erwarten?

Und schließlich, die Entkoppelung der Variablen am warmen Ende des Spektrums der Gitterquadrate ist ein klares Zeichen dafür, dass ein aktives Temperatur-Regulierungssystem aktiv ist.

Unter dem  Strich: Das Klima ist nicht linear und war es niemals… und die Unterwerfung unter das fatale Lockmittel einer vermuteten Linearität hat das Gebiet der Klimawissenschaft um Jahrzehnte zurückgeworfen.

Link: http://wattsupwiththat.com/2013/12/18/the-fatal-lure-of-assumed-linearity/

Übersetzt von Chris Frey EIKE




Ein IPCC-Insider: Der IPCC-Konsens zum Klimawandel war erlogen!

"Behauptungen wie z. B.:  ’2500 der weltbesten Wissenschaftler haben sich auf einen Konsensus geeinigt, dass die menschliche Tätigkeit einen signifikanten Einfluss auf das Klima ausübt’ sind unaufrichtig".

So steht es unmissverständlich in dem Papier und auch, dass dies den "IPCC angreifbar für externe Kritik" machte. 

Hulme, Professor für Klimawandel bei der Schule für Umweltwissenschaften an der UNIVERSITY OF EAST ANGLIA –  der Universität mit dem Klimagate-Stigma — ist Gründungsdirektor des TYNDALL CENTRE FOR CLIMATE CHANGE RESEARCH und einer der bekanntesten englischen Klimatologen. Unter seinen vielfältigen Rollen im Klimawandel-Establishment war auch die eines koordinierenden IPCC-Leitautors für das Kapitel ‘CLIMATE SCENARIO DEVELOPMENT’ im dritten Auswertebericht (TAR) und die eines Ko-Autors einiger anderer Kapitel.

Hulmes Darstellung der IPCC-Übertreibung von der Anzahl der Wissenschaftler, die dessen Behauptung vom menschengemachten Klimawandel unterstützten, findet man auf den Seiten 10 und 11 seines Papiers (hier)

Lawrence Solomon ist Direktor von ENERGY PROBE und Autor von: The Deniers.

Den Originalartikel finden Sie hier.

Die Übersetzung besorgte dankenswerterweise Helmut Jäger EIKE




Salzbergwerk „Asse“ ein Desaster – für wen eigentlich?

Im stillgelegten Salzbergwerk "Asse" bei Woifenbüttel wurden über Jahrzehnte, nachdem es dort kommerziell nichts mehr auszubeuten gab, Versuche zur Endlagerung von schwach- und mittelradioaktivem Abfall gemacht. Nun wurde die Offentlichkeit durch Fernsehberichte und Zeitungsartikel aufgeschreckt: ,,Asse stürzt ein", "Asse säuft ab", Asse verseucht das Grundwasser radioaktiv", "Asse als Endlager ungeeignet", "Asse – ein Atomdesaster" lauteten die Schlagzeilen und ich sagte, das will ich selbst sehen. Hier die Ergebnisse: 

> "Asse stürzt ein" – Falsch! Salzbergwerke wie die "Asse" können nicht einfach einstürzen. Salz verhält sich geologisch nämlich wie Knetmasse ("Viskoplastizität"), die verschoben werden kann, ohne dabei einzustürzen 

> "Asse säuft ab" – Falsch! Die Kaverne des Wassereintritts befindet sich in 658 m Tiefe. Die Flüssigkeit ist gesättigte Salzlauge. Es wird gesammelt und einmal pro Woche, nach "Freimessung zur Unbedenklichkeit" mit einem Tankwagen in die 100 Kilometer entfernte Grube "Maria Glück‘ gefahren. In Norddeutschland werden ausgebeutete Salzbergwerke oft durch Fluten mit Wasser still gelegt. Das Wasser macht sie geologisch stabil. Anfangs löst das Wasser noch etwas Salz auf, bis es gesättigt ist. Danach ist die gesättigte Lauge sogar weniger kompressibel als das etwas poröse Salzgestein. 

> "Asse verseucht das Grundwasser radioaktiv" – Falsch!

Das ist völlig absurd. Es wurde der bergmännische Begriff "Grundwasser" (Wasser am Grunde des Bergwerkes), mit dem hydrologischen Begriff "Grundwasser" verwechselt. Das hydrologische Grundwasser gehört nach EU Wasserrahmenrichtlinie zum Oberflächenwasser eines Flussbassins, nicht aber Tiefenwasser 638 m unter der Erde. 

> "Asse als Endlager ungeeignet" Falsch!

Der Abraum wurde nicht oberirdisch auf Halde gefahren, sondern unter Tage belassen, indem die ausgeräumten rechteckigen Kavernen ( 60x40x20 Meter) größtenteils gleich wieder mit Abraum verfüllt wurden. Um die "Bergmechanik" und die Eignung zur Endlagerung zu untersuchen, wurden dreizehn leere Kavernen mit radioaktivem Abfall gefüllt, eine in 490 Meter Tiefe mit mittelaktivem und zwölf in 7~ Meter Tiefe mit schwachaktivem. Alles wurde in 125000 Fässern von jeweils 200 Litern Inhalt angeliefert. Einmal stürzte eine Ladung Fässer vom Transporffahrzeug. Ein Teil davon platzte auf. Das kontaminierte Material hatte eine Radioaktivität von maximal 8000 Becquerel Cs-137/kg. Er war noch nicht einmal schwachaktiv, weil damals die Untergrenze für schwachaktiven Abfall bei 10000 Becquerel/kg lag. Heute liegt sie bei 1000 Becquerel/kg. Seinerzeit brauchte die Asse GmbH keine Genehmigung, um das Unfallmaterial in 1000 Meter Tiefe beim Wiederauffüllen der Forschungsstrecken zu verfüllen. 

> "Asse- ein Atomdesaster" – Falsch!

Die Kaverne mi t dem höchsten Dosiswert wurde genau beobachtet. Eine Schautafel zeigt den Verlauf ihrer Dosiswerte in den vergangenen Jahrzehnten. Sie nahmen erst jahrelang stark ab. Danach fielen sie viele Jahre linear ab und waren damit für die Zukunft voraus berechenbar. Deshalb wurden die Messungen eingestellt. Eine andere Kaverne wurde nur teilverfüllt und durch ein Eisengitter gesichert, damit Besucher noch etwas sehen und eigene Messungen machen können. Einmal hat ein Besucher mit seinem eigenen hochempfindlichen Geigerzähler tatsächlich vor dem Eisengitter erhöhte radioaktive Strahlung gemessen. 

Es zeigte sich aber, dass die Strahlung von Kobaltspuren (Co-60) im Eisengitter stammte. Hinter dem Gitter war nur die extrem schwache Strahlung (des K-40) vom Füllmaterial zu messen. Bezüglich der Grenzwerte sollte man wissen: Der deutsche Grenzwert für Milch mit der wissenschaftlichen Bewertung "absolut unbedenklich" ist 500 Becquerel Cs-137/l. Rheumapatienten im Wannenbad in Bad Schlema legen sich in Badewasser mit 2000 Becquerel Ra-222/l. Demgegenüber sind 8000 Becquerel Cs-137/kg Salzmasse noch nicht einmal radiotherapeutisch nutzbar, weil niemand einfach so ein paar Gramm Salz mit dem Löffel essen würde. Übrigens, kann jedermann, Kleinkinder und Schwangere ausgenommen, nach Anmeldung bei "Info Asse" in das Bergwerk einfahren, seine eigenen Messgeräte mitnehmen und sich vor Ort kundig machen. Um mit den Worten von Jacques Delors, französischer Sozialist und dreifacher Präsident der Europäischen Union, zu enden: "Angstmachen ist ein Verbrechen an der Demokratie." 

Dr. Gerhard Stehlik 

 

 

Related Files