1

Globaler Kohleverbrauch steigt schneller als der Verbrauch jeder anderen Energieform

Als Master des Baillol College der Oxford University in der zweiten Hälfte des 19. Jahrhunderts hat Benjamin Jowett einst einen umstrittenen Vorstoß unternommen bzgl. einer Abstimmung unter den Herren von Baillol – und war zornig über das Ergebnis. „Die Abstimmung war 22 zu 1. Ich sehe, wir sind in einer Sackgasse“.

Jowett war dazu verpflichtet worden sicherzustellen, dass empirische Fakten nicht dem Ergebnis widersprechen, das er sich wünschte.

Bezüglich der Kohleindustrie wischen Umwelt-Campaigner und deren Erfüllungsgehilfen in den Medien emsig alle Fakten vom Tisch, die nicht zu ihrer Argumentation passen.

„Das Ende der Kohle“ lautete kürzlich die Schlagzeile einer „Analyse“ von Four Corners hinsichtlich des Kohlesektors. Dabei handelte es sich um Episode 14 in der 3. Serie der Kritik von Four Corners an der Bergbau-Industrie.

Konsistent mit der etablierten Praxis war die Schlussfolgerung des Pamphletes vorbestimmt und das Narrativ dem entsprechend arrangiert.

Fakten waren nur sehr wenig, Wunschdenken hingegen sehr viel zu finden. Ein Vertrauter der Rockefeller Foundation, der Aktivistengruppen fördert und im Jahre 2011 beteiligt war an der Entwicklung einer Anti-Kohle-Strategie in Australien, wurde als objektiver Beobachter auserkoren.

Folgerichtig kam die Veröffentlichung der [übersetzt] ,statistischen Übersicht über die Weltenergie‘ von BP vor ein paar Tagen genau zur richtigen Zeit. Obwohl BP kein Freund der Kohle ist, bietet der Bericht eine objektive Analyse der Entwicklungen bzgl. der globalen Energie [= des globalen Energieverbrauchs].

Wir wollen einmal einige der Behauptungen der Anti-Kohle-Kreuzzügler mit einigen objektiven Tatsachen testen:

Zunächst wird behauptet, dass Kohle eine auslaufende Energiequelle ist und dessen Verbrauch zu Ende gehen wird. Unsinn! Dem BP-Bericht zufolge ist in den zehn Jahren von 2005 bis 2014 der Kohleverbrauch um 968 Millionen Tonnen Öl-Äquivalent gestiegen, 4 mal stärker als Erneuerbare; 2,8 mal stärker als Öl und 50% mehr als Gas. Dies kann kaum als eine Grundlage für die Beerdigung der Kohle angesehen werden.

Zweitens, Investoren verabschieden sich nicht von der Kohle. Ja doch, einige Universitäten und einige Funds haben sich entschlossen, einige ihrer Anteile an fossilen Treibstoffen zu veräußern. Das ist ihr gutes Recht. Aber die überwältigende Mehrheit hat das nicht getan und auch Anteile an Kohle nicht aufgeben. Sicher sind die Preise der Anteile von Kohleunternehmen jüngst gefallen, im Wesentlichen aber aufgrund einer Überversorgung. Das Gleiche passiert mit den Anteilspreisen von Ölunternehmen und Getreideerzeugern, wenn die Preise in jenen Sektoren fallen.

Der empirische Beweis zeigt, dass das Interesse an dem Bereich seitens Kreditgeber und Investoren stark bleibt. Eine der Anti-Kohle-Bewegung zugehörige Gruppe, Bankwatch, hat sich darüber beklagt, dass die globale Finanzierung des Kohlebergbaus im Jahre 2014 um 66 Milliarden Dollar gestiegen ist. Im Jahre 2013 waren es 55 Milliarden Dollar, und im Vergleich zum Jahr 2005 betrug die Zunahme 360 Prozent.

Die dritte Behauptung lautet, dass erneuerbare Energie in der Lage ist, fossile Treibstoffe einschließlich Kohle zu ersetzen.

Unwahrscheinlich! Hätte sich die Welt im Jahre 2014 auf erneuerbare Energie wie Wind, Solar und Biomasse verlassen, hätte sie gerade mal 9 Tage lang Wärme, Licht und künstliche Pferdestärken gehabt.

Viertens, die Campaigner behaupten, dass Kohle in einer Welt mit geringen Emissionen keine Zukunft hätte. Falsch! Neue Erzeugungs-Technologien beschneiden die CO2-Emissionen von Kohlekraftwerken bis zu 40 Prozent. Diese hoch effizienten Kraftwerke mit geringen Emissionen werden in China, Japan und anderen Ländern Asiens gebaut. Und das erste große CCS-Kohlekraftwerk in Kanada hat seine CO2-Emissionen gar um 90% gesenkt. Das IPCC hat geschätzt, dass die Kosten zum Erreichen der globalen Reduktionsziele 138% höher liegen ohne die Entwicklung von CCS.

Die Campaigner behaupten auch, dass Nationen mit hohem Verbrauch sich von der Kohle abwenden. Aber die International Energy Agency IEA sagt voraus, dass China zusätzlich 450 Gigawatt Kohleenergie während der nächsten 25 Jahre nutzen wird. Das sind 40% mehr als die gesamte Kohleflotte der USA. Die IEA: „China wird noch viele Jahre lang der Kohle-Riese sein“.

Das nach Energie hungernde Indien weitet seinen Kohleverbrauch ebenfalls aus, und man erwartet, dass das Land im nächsten Jahrzehnt zum größten Kohleimporteur weltweit wird. Die Anti-Kohle-Kreuzzügler sind verwirrt, wenn es um Indien geht, wo es übrigens immer noch 300 Millionen Menschen gibt, die keinen Zugang zu elektrischem Strom haben.

Die intellektuellen Gehirnakrobaten werden zum größten Teil getrieben durch ihre Opposition zum Adani-Projekt im Galilee-Becken, von wo qualitativ hochwertige Kohle nach Indien exportiert wird. [Das Galilee-Becken (englisch Galilee Basin) ist ein geomorphologisches Becken im australischen Bundesstaat Queensland. Quelle]

Zuerst haben die Campaigner argumentiert, dass Indiens Energiebedarf durch erneuerbare Energie gedeckt werden kann. Wirklich? Wind, Solar und Biomasse deckten im Jahre 2014 gerade mal 2 Prozent des Energiebedarfs in Indien. Das ist der Energiebedarf Indiens für etwa eine Woche.

Full post (paywalled)

Link: http://www.thegwpf.com/global-coal-use-growing-faster-than-any-other-energy/

Übersetzt von Chris Frey EIKE

Bemerkung des Übersetzers: Leider wird der Beitrag etwas abgewertet durch den Umstand, dass die Autoren CO2 offenbar als Gefahrenstoff einstufen.




Die Bildzeitung erklärt die Klimakatastrophe

Bild rechts: aus BILD Bundesausgabe, 13. Juni 2015

Es wird behauptet, dass die „Durchschnitts-Temperatur“ in Deutschland bis 2050 um ein Grad steigen wird. Konkret: Von 10,3 °C auf 11,3 °C. 10,3 °C ist die Durchschnittstemperatur des Jahres 2014. Von der aus wurde die „Prognose“ bis 2050 „errechnet“, indem man zu diesem Wert 1 Grad addierte.

Wäre eine solche Temperatur-Prophezeiung schon im Jahr 2010 vorgenommen worden (Jahresdurchschnittstemperatur 7,8 °C), dann würde es im Jahr 2050 in Deutschland – Latifs Prophezeiungen für bare Münze genommen – nur rund 8,8 °C warm sein, also deutlich kälter als in allen Jahren seit 1998!

Aber das sagte der größte Klimaexperte Deutschland (GRÖKLIMEX) Latif in seiner Lieblings-Postille BILD: „Es wird deutlich wärmer als heute sein.“ (s. Grafik von Josef Kowatsch!) – Wer von den Lesern erklärt sich bereit, im Jahr 2050 M. Latif an seine Versprechungen zu erinnern?

Fakt ist, dass seit 1998 die Deutschlandtemperaturen im Trend wieder leicht fallen und keinesfalls steigen, die angenehme Erwärmung ab 1980 ging kurz vor der Jahrtausendwende zu Ende und der fallende Trend wird sich 2015 fortsetzen. Bei der Grafik handelt es sich um die Originalangaben des Deutschen Wetterdienstes. Womit Latif seine Märchen einer weiteren Erwärmung begründet, ist sein Geheimnis.

Aufgrund der starken Schwankungsbreite der jährlichen Durchschnittstemperaturen ist ein einzelnes Jahr als Startpunkt für eine solche Projektion ungeeignet. Hätte man beispielsweise das Kaltjahr 1996 als Startpunkt der Prognose gewählt, so wären nach dieser Methode 36 Jahre später, also 2032, erst 8,2°C zu erwarten; bis 2050 müsste es dann in nur 18 Jahren einen Anstieg um 3,1K geben, wenn die 11,3°C erreicht werden sollen.

Schon das Jahr 2015 wird aber wieder deutlich kühler ausfallen- realistisch sind für dieses Jahr wohl Deutschland- Werte um 9°C plus/minus 0,5°C. Nähme man also 2015 als „Startpunkt“, würde man 2051 bei etwa 10°C landen, das sind 1,3K weniger, als noch 2014 vorhergesagt.

Latif stützt sich auf „Klimamodelle“, die davon ausgehen, dass ein Erwärmungseffekt durch CO2 eintritt. Der „Erwärmungseffekt“ von CO2 ist jedoch bereits heute weitgehend gesättigt:

Bei heutigen CO2- Werten um 400ppm bewirken gleich große CO2- Anstiege praktisch keine Temperaturerhöhungen mehr, denn die 2 schmalen Absorptionsbanden dieses (für die Photosynthese und damit für das ganze Leben auf der Erde notwendigen) Spurengases sind bereits gesättigt. Genauere Untersuchungen der vergangenen Temperaturentwicklung zeigen außerdem, dass in der Vergangenheit immer erst die Temperaturen und dann die CO2- Konzentrationen gestiegen sind. In den 1990er Jahren waren die Analysemethoden von Proxydaten, beispielsweise aus Eisbohrkernen, noch nicht genau genug, um zu erkennen, dass Temperatur- und CO2- Anstieg zeitlich nacheinander erfolgen, so dass man fälschlicherweise von einem Temperaturanstieg durch CO2- Zunahme ausging. Doch auch über lange Zeiträume der Erdgeschichte zeigte sich kein eindeutiger Zusammenhang von CO2- Konzentration (schwarze Kurve) und der Temperatur (blau):

Und wie sieht der Zusammenhang von Deutschland- Temperaturen und der Entwicklung der Co2- Konzentration in den letzten 20 Jahren aus?

Trotz des „Rekordjahres“ 2014 stagnieren die Temperaturen in Deutschland seit 1997, die Trendlinie verläuft flach. Aber während dieser mittlerweile 18 Jahre der Stagnation stiegen die CO2- Konzentrationen stetig an.

Die wesentlichen Ursachen der Temperaturentwicklung sind in Deutschland nicht die CO2- Konzentration, sondern die Sonnenscheindauer und die Häufigkeitsverhältnisse der Großwetterlagen (mehr Großwetterlagen mit Südanteil wirken, ebenso wie eine höhere Sonnenscheindauer, erwärmend). Das erklärt auch den Rekord der Jahresmitteltemperatur 2014, denn noch nie hat es seit Aufzeichnungsbeginn derart viele Wetterlagen mit südlichem Strömungsanteil gegeben. Der bei längerfristiger Betrachtungsweise (hier: ab 1981) noch erkennbare Temperaturanstieg in Deutschland lässt sich plausibel mit der Zunahme der südlichen Wetterlagen und der Zunahme der Sonnenscheindauer erklären:

Sonnenscheindauer (gelb), Häufigkeit der südlichen Großwetterlagen (rot) und Jahrestemperaturen (violett) stiegen seit 1981 an; allerdings deutet sich seit Ende der 1990er Jahre eine Trendumkehr an. Man erkennt außerdem, dass es 2014 einen neuen Rekord bei der Häufigkeit der Lagen mit Südanteil gab, mit 134 Tagen so viele, wie noch nie seit Aufzeichnungsbeginn im Jahr 1881. Außerdem sollte man bei Rückwärtsbetrachtungen über 20 Jahre hinaus unbedingt den jährlich zunehmenden Wärmeinseleffekt bei den deutschen Messstationen berücksichtigen. Ein Teil der Erwärmung geht auch auf diesen WI-effekt und auf die Umstellung der deutschen Messstationen zurück.

WI-bereinigt fällt die Erwärmung seit 1981 wesentlich geringer aus:

Da in Deutschland täglich 1,1 km2 überbaut und durch Menschenhand wärmend verändert werden gilt bei direkten Vergleichen die blaue Trendlinie ab 1981. Auch diese wärmeinselbereinigte Temperaturen sind immer noch leicht ansteigend, was auf die in diesem Artikel genannten zusätzlichen Gründe zurück zu führen ist.

Eine weitere, wesentliche Ursache für die Temperaturentwicklung ist die Sonnenaktivität; sie hat unter anderem auch Einfluss auf die Wolkenbedeckung, die Sonnenscheindauer und das Verhalten der Großwetterlagen. H. MALBERG wies in zahlreichen Arbeiten, die unter anderem in der Fachzeitschrift „BERLINER WETTERKARTE“ veröffentlicht wurden, nach, dass die Sonnenaktivität der wichtigste Treiber der Temperaturentwicklung ist. Stellvertretend dafür folgende 2 Abbildungen:

Beide Abbildungen müssen im Zusammenhang betrachtet werden. Weisen die blauen Säulen (obere Abbildung) nach oben, so gab es mehr Sonnenflecken als im Durchschnitt, die Sonne war aktiver. Die roten Säulen in der unteren Abbildung zeigen die Temperaturverhältnisse für Europa in Form von Abweichungen (Anomalien). Man achte auf den engen Zusammenhang- bei aktiverer Sonne war es wärmer. Die sehr hohe Sonnenaktivität in der 2. Hälfte des 20. Jahrhunderts (rechts oben) hatte übernormal hohe Temperaturen zur Folge (rote Säulen weisen aufwärts) zur Folge. Alle Astrophysiker sind sich aber einig, dass die Sonnenaktivität nun stark nachlässt; schon der aktuelle Sonnenfleckenzyklus ist der schwächste seit etwa 200 Jahren, was auch die Stagnation der Lufttemperaturen erklärt. Bis mindestens etwa 2040, vermutlich länger, soll die Sonnenaktivität weiter abnehmen (folgende Abbildung):

Ob es deswegen gleich zu einer neuen „kleinen Eiszeit“ kommt, bleibt fraglich, dennoch ist eine weitere Stagnation, vielleicht auch ein leichter Rückgang der Temperaturen, sowohl global als auch in Deutschland, aufgrund dieser Zusammenhänge durchaus nicht unwahrscheinlich.

Abschließend noch eine Kurzbetrachtung zu den angeblich gehäuft auftretenden Unwettern. Statistiken aus verschiedensten Ländern, auch aus Deutschland, zeigen, dass es bislang keine Zunahme von Unwettern und den durch sie verursachten Schäden gab:

Seit 1950 haben die durch Tornados verursachten Schäden in den USA- bei enormer Schwankungsbreite- insgesamt leicht abgenommen:

Und die Häufigkeit tropischer Stürme und Zyklonen nahm seit 1971 sogar leicht ab:

Auch in Australien zeigt sich eine Abnahme von Tropenstürmen:

Und in Deutschland? Keinesfalls mehr Unwetter oder mehr Starkregen- an den folgenden zwei Beispielen der Station Potsdam (Datenquelle: PIK) zeigt sich, dass die Anzahl der Gewittertage im Sommer langfristig abnahm. Selbiges gilt auch für das Niederschlagsverhalten- weder wurden die Sommer immer nasser, was mehr Überschwemmungen bedeuten würde, noch immer trockener:

Zusammenfassung:

Herr Latif hat die sprichwörtliche Regel „Prognosen sind schwierig- besonders wenn sie die Zukunft betreffen“ mal wieder grob missachtet. Aus folgenden Gründen sind seine Aussagen unseriös:

1. Langfristprognosen scheitern immer wieder an der Realität, man schaue sich nur einmal die düsteren Prognosen des „Club of Rome“ aus den 1970er Jahren und die viel erfreulichere Realität an.

2. Wenn man schon Prognosen erstellt, so muss man diese von einem Durchschnittswert aus starten, nicht von einem (weil zufällig gerade besonders gut passenden) Einzelwert, wie dem „Warmjahr“ 2014.

3. Die auf der CO2- Erwärmungswirkung basierenden „Klimamodelle“ überschätzen die weitgehend ausgereizte, weil weitgehend gesättigte CO2- Erwärmungswirkung deutlich. In der Realität zeigt sich seit nunmehr über 18 Jahren kein Temperaturanstieg trotz stetig steigender CO2- Werte. Andere, wichtige Einflussfaktoren wie etwa die Sonnenaktivität sowie negative Rückkopplungen, werden nicht oder nur unzureichend in den Projektionen berücksichtigt.

4. Es zeigt sich in der Realität bislang keine Zunahme von Naturkatastrophen. Der Eindruck, es gebe mehr Extreme oder mehr Katastrophen, resultiert auch aus der Tatsache, dass es viel mehr Beobachtungsmöglichkeiten gibt (Satelliten, Handy- Kameras) und viel mehr Menschen in den schon immer gefährdeten Bereichen leben.

Stefan Kämpfe, unabhängiger Natur- und Klimaforscher

Josef Kowatsch, unabhängiger Natur-und Klimaforscher.




Elektro-Energiespeicherung, Notwendigkeit, Status und Kosten. Teil 3 (Abschluss)

Teil 3

1 Pumpspeicher

1.1 Allgemeine Betrachtung

Niedersachsen-Studie 2014[1]

Für einen wirtschaftlichen Betrieb wird meist von einer Mindestfallhöhe von 200 m ausgegangen. Durch ihre kurze Anfahrdauer von ca. ein bis zwei Minuten bis Volllast können PSW sowohl zur Bereitstellung von Regelenergie (zur Aufrechterhaltung der Netzstabilität) als auch zur Speicherung von Energie verwendet werden. Dennoch zählen Pumpspeicherwerke mit einem Wirkungsgrad von ca. 80 %  zu den großtechnischen Speichertechnologien mit dem höchsten Wirkungsgrad.

Trotz der guten Expertise braucht man Pumpspeichersysteme eigentlich nicht weiter zu betrachten.

Grund: Sie sind in Deutschland nicht im Entferntesten im erforderlichen Maß ausbaubar, in den Alpen ebenso wenig und dass es die Norweger für uns bei sich zulassen würden, kann sich auch als Illussion herausstellen.

Im VCI Zwischenbericht 2013[7] steht zum Thema Norwegen

In öffentlichen Diskussionen wird empfohlen, transnationale Kooperationen z.B. mit den Alpenländern oder Skandinavien anzustreben. Bevor diese Speicherkapazitäten jedoch genutzt werden könnten, wäre zuvor ein erheblicher Ausbau der Stromnetze auf der Höchstspannungsebene erforderlich. Dabei sind allerdings die technischen Grenzen der Stromübertragung und der Stromaufnahme zu beachten 

Auch auf der Kraftwerksseite wäre im Ausland eine entsprechende Ausbau notwendig, da die elektrische Leistung der in Norwegen installierten Wasserkraftwerke weniger als 30 GW beträgt, die fast vollständig von Norwegen selbst benötigt wird, so dass die Nutzungsmöglichkeiten für Deutschland entsprechend eingeschränkt sind. Außerdem zeigen die Diskussionen – beispielsweise in Norwegen, dass bei einem weiteren Ausbau mit erheblichem politischem Widerstand zu rechnen sein dürfte. 

 

Forschungsstand

Forschung ist nicht mehr erforderlich, da weder Kosten noch Wirkungsgrad signifikant verbessert werden können.

Bild Wirkungsgrad, Quelle Niedersachsen-Studie 2014[1]

1.2 Pumpspeicher Speicherkosten

Hartmann et al.[24] listet:

Stromspeicherkosten für ein als Tagesspeicher ausgelegtes Pumpspeicherwerk:

       9 ct/kWh bei Strombezugskosten von 4,8 ct/kWh

       Eigene Zufügung: ca. 19,25 ct/kWh mit Strombezugskosten von 13 ct/kWh

 

Kosten Speicherkraftwerk als „saisonaler Speicher“. Da die Kosten der Speicherbecken je nach örtlichen Gegebenheiten stark variieren können, wird für saisonale Speicher von spezifischen

Stromspeicherkosten in einem Bereich von:

·       11 bis 28 €ct/kWh mit Strombezugskosten von 4,8 ct/kWh ausgegangen.

       Eigene Zufügung: ca. 21,2 bis 38 ct/kWh mit Strombezugskosten von 13 ct/kWh

 

Fazit

Dieser billigste aller Speicher erhöht den Strompreis deutlich. Bei ungünstiger Betriebsart kann er selbst bei heutigen EEG-Einspeisekosten diese fast verdoppeln. Wird der Ökostrom billiger, erhöht sich der Speicher-Kostenanteil. Vergleicht man die Kosten des aus Pumpspeichern zurück gespeisten Ökostroms mit den Abgabepreisen konventioneller Kraftwerke, sieht man deutlich die Verteuerungen.

 

2 Druckluftspeicher

2.1 Allgemeine Betrachtung

Niedersachsen-Studie 2014[1]

Der Wirkungsgrad eines Druckluftspeichers liegt bei einem diabaten System zwischen
 42 bis 54 %. Bei einem adiabaten Druckluftspeicher kann der Wirkungsgrad auf bis zu 70 % erhöht werden. Beide Systeme werden typischerweise als Kurzzeitspeicher ausgelegt und betrieben.

Anm.: Da beim adiabaten Speicher die Wärme mit hohen Temperaturen von 600 … 800 ºC zwischengespeichert werden muss, funktioniert dies nur bei Kurzzeitspeicherung.

 

POTENZIALE

Niedersachsen-Studie 2014[1]. Salzvorkommen, die sich zur Nutzung als Kavernenspeicher eignen, sind überwiegend in Nord- und Mitteldeutschland gelegen… Eine erste Potenzialabschätzung nennt für die gesamte Speicherkapazität (v. a. in Salzstöcken in Norddeutschland) einen Wert von etwa 3,5 TWh.

Hartmann et al. 2012 [24]. Durch die Verbesserungen des Wirkungsgrades und die Einsparungen durch den vermiedenen Einsatz von Erdgas in der Turbine wird die adiabate Druckluftspeichertechnologie als zukünftige Alternative zu herkömmliche Pumpspeicherwerken gesehen.

 

Forschungsstand

 

TAB 2012[21], STAND DER TECHNIK, ENTWICKLUNGSPERSPEKTIVEN

Ein konventionelles CAES mit 321 MW Leistung, mit einer Speicherkapazität ausreichend für einen maximal zweistündigen Volllastbetrieb, wird seit 1978 in Elsfleth-Huntorf (Niedersachsen) von E.ON betrieben.

Adiabate CAES (AA-CAES) befinden sich in einem frühen Entwicklungsstadium, da geeignete Wärmespeicher (benötigte Kapazität etwa 1.200 MWh (thermisch) bei 600 °C) noch nicht verfügbar sind und der Kompressor- bzw. der Turbinenstrang noch einer substanziellen Weiterentwicklung bedürfen.

2.2 Druckluftspeicher Speicherkosten

Hartmann et al.[24] listet:

Die Kostenabschätzung bezieht sich dabei auf den Stand heute (2010) für die diabate Druckluftspeichertechnik und auf das Jahr 2030 für die adiabaten Druckluftspeicher.

Aktuell verfügbare diabate Druckspeicher (Wirkungsgrad 42 .. 54 %)

Stromspeicherkosten für Druckluftspeicher im Tagesspeicherbetrieb:

       Stromspeicherkosten ca. 13 €ct/kWh mit Strombezugskosten von 4,8 €ct/kWh

·       Eigene Zufügung: ca. 19,25 €ct/kWh mit Strombezugskosten von 13 €ct/kWh

 

Stromspeicherkosten für Druckluftspeicher im saisonalen Betriebe:

·       Stromspeicherkosten zu 14 €ct/kWh ohne Strombezugskosten

·       28 €ct/kWh mit Strombezugskosten 4,8 C / kWh

·       Eigene Zufügung: ca. 46,5 €ct/kWh mit Strombezugskosten von 13 €ct/kWh

Im Jahr 2030 für adiabate Druckspeicher (Wirkungsgrad 70 %)

Stromspeicherkosten für Druckluftspeicher im Tagesspeicherbetrieb:

·       12 €ct/kWh mit Strombezugskosten 4,8 C / kWh

·       Eigene Zufügung:  ca. 23,5 €ct/kWh mit Strombezugskosten von 13 €ct/kWh

Stromspeicherkosten für Druckluftspeicher im saisonalen Betriebe:

·       21 €ct/kWh mit Strombezugskosten. 4,8 C / kWh

·       Eigene Zufügung:  ca. 32,5 €ct/kWh mit Strombezugskosten von 13 €ct/kWh

 

Fazit

Auch diese hoffnungsvolle Groß-Speichertechnologie erhöht den Ökostrompreis erheblich. Mindestens führt sie zur Verdopplung und falls der Ökostrom-Bezugspreis einmal in die Nähe von früherem Kraftwerksstrom kommen sollte, zur Vervielfachung.

 

 

3 Wasserstoffspeicher

3.1.1 Allgemeine Betrachtung

Niedersachsen-Studie

Niedersachsen-Studie 2014[1]. Bei einem Einsatz als Langfristspeicher hingegen stellen Wasserstoffspeicher die klar vorteilhafteste Technologie dar. Soll in Zukunft Strom im großen Maßstab über längere Zeit (in Langfristspeichern) gespeichert werden, so geht trotz der unbestritten vorhandenen Nachteile (niedriger Wirkungsgrad und hoher leistungsspezifischer Investitionsaufwand) auch unter ökonomischen Gesichtspunkten kein Weg an Wasserstoffspeichern vorbei.

 

Speicherverfahren (P2P)

Zur Gas-Speicherung mit Rückverstromung verwendet man die folgenden Hauptverfahren:

·       Strom > Wasserstoff > Strom (P2H2). Der Wasserstoff wird in Kavernen gespeichert. Pfad 1

·       Strom > Wasserstoff > Methanisierung > Strom (P2G). Das Methan kann im öffentlichen Gasnetz gespeichert werden. Pfad3

In der Niedersachsen-Studie 2014[1] werden alle Wasserstoff-Speicherarten beschrieben. In dieser Darstellung beschränken wir uns auf den Wasserstoff-Speicher mit direkter Rückverstromung.

 

Forschungsstand

Niedersachsen-Studie 2014[1]. Der typische Leistungsbereich liegt bei der derzeit einzig kommerziell betriebenen Anlage von Audi bei 6 MW. Es wird davon ausgegangen, dass in Zukunft Speicher mit bis zu 300 MW Leistung realisierbar sind.

 

TAB 2012[21]. Die Rückverstromung von reinem Wasserstoff in Gasturbinen ist bislang noch nicht möglich, eine Beimischung von etwa 50 bis 60 % Erdgas ist erforderlich. An der Entwicklung geeigneter Gasturbinen wird derzeit gearbeitet, ab etwa 2017 könnten diese zur Verfügung stehen. Ein zweites wichtiges Feld für Forschung und Entwicklung ist die Steigerung der Effizienz des Elektrolyseurs.

 

Wirkungsgrade

 

·       In Hartmann et al. 2012[24] ist der Wirkungsgrad der Gesamtkette einer Wasserstoffverstromung (P2H2) mit aktuell 42 %, Zukunft 45 % angegeben.

·       Niedersachsen-Studie 2014[1]. Der Wirkungsgrad mit Methanisierung (P2P) ist mit aktuell  21,3 %, in der Zukunft 36 %  angegeben.

 

3.2 Wasserstoffspeicher Speicherkosten

Speicherkosten für Verfahren ohne Methanisierung. Basisquelle: Hartmann et al. 2012[24] 

Stand heute

Tagesausgleich-Betrieb

·       Stromeinspeisungskosten von ca. 26 €ct/kWh mit Strombezugskosten von
 4,8 €ct/kWh

·       Eigene Zufügung: ca. 46 €ct/kWh mit Strombezugskosten von 13 €ct/kWh

 

Saisonal-Betrieb

·       Stromeinspeisungskosten von ca. 27 €ct/kWh mit Strombezugskosten von
 4,8  €ct/kWh

·       Eigene Zufügung: ca. 47 €ct/kWh mit Strombezugskosten von 13 €ct/kWh

 

Stand Zukunft

Tagesausgleich-Betrieb

·       Stromeinspeisungskosten von 19 €ct/kWh mit Strombezugskosten von 4,8  €ct/kWh

·       Eigene Zufügung: ca. 33 €ct/kWh mit Strombezugskosten von 13 €ct/kWh

 

Saisonal-Betrieb

·       Stromeinspeisungskosten von 20 €ct/kWh mit Strombezugskosten von 4,8  €ct/kWh

·       Eigene Zufügung: ca. 33 €ct/kWh mit Strombezugskosten von 13 €ct/kWh

 

Fazit

Auch das hoffnungsvolle Wasserstoff- Speichern erhöht den Ökostrompreis erheblich. Mindestens führt es zur Verdopplung und falls der Ökostrom-Bezugspreis einmal in die Nähe von früherem Kraftwerksstrom kommen sollte, zur Vervielfachung.

 

3.3 Wasserstoff mit Methanisierung, Speicherkosten

Speicherkosten. Basisquelle: Niedersachsen-Studie 2014[1].  

Stand Zukunft

Tagesausgleich-Betrieb

·       Stromeinspeisungskosten von 28 €ct/kWh mit Strombezugskosten von 4,8  €ct/kWh

Saisonal-Betrieb

·       Stromeinspeisungskosten von 29 €ct/kWh mit Strombezugskosten von 4,8  €ct/kWh

Ergänzungsinfo

Um zu zeigen, wie erheblich sich die Kostenangaben unterscheiden, Informativ noch eine Kostenangabe, leider ohne nachvollziehbare Detaillierung aus Schnurbein 2012[9]: „Die Speicherung überschüssigen EE-Stroms durch synthetisches Methan“.

Hinweis.: In den folgenden Kostenangaben sind Strom-Bezugskosten von ca. 12 c / kWh eingerechnet.

Schnurbein 2012[9]. Das „System SNG“ als Langzeitspeicher für überschüssigen EE-Strom würde bei einer Kapazität von 44 GW und einem Stromoutput zwischen 12,3 und 31,7 TWh – das wären 2-5 % des deutschen Strombedarfs – jährliche Mehrkosten zwischen 25,1 und 28,1 Mrd. € verursachen. Auf die Kilowattstunde SNG-Strom gerechnet ergäben sich für den Verbraucher Mehrkosten zwischen 79 und 228 ct/kWh – zuzüglich Steuern. Somit wäre SNG-Strom um den Faktor 10-20 teurer als Strom aus Erdgas.

 

4 Batteriespeicher

4.1 Allgemeine Betrachtung

In der Niedersachsen-Studie[1] werden Batteriespeicher gar nicht gelistet, da sie als Mengenspeicher viel zu teuer wären.

4.2 Mobile Li-Ionen Batteriespeicher (E-Car) Speicherkosten

Hartmann et al. 2012[24] weist die folgenden Kosten für mobile Li-Ionen-Batteriespeicher aus. Als Investitionskosten sind darin aber nur die reinen Batteriekosten berücksichtigt. Denn man nimmt ja an, dass das E-Auto ein Fahrzeug ist –  aber immer, wenn es das Stromnetz „benötigt“ als Stromsenke oder –Lieferant an der Steckdose hängt -. 

Kosten für die Speicherung in mobilen Li-Ionen Batterien [24]:

Stand heute

Tagesspeicherbetrieb

·       Stromeinspeisungskosten von 37 €ct/kWh mit Strombezugskosten von
 4,8 €ct/kWh

Saisonal

·       Stromspeicherkosten: 2.270 €ct/kWh

·       Stromeinspeisungskosten von 2.275 €ct/kWh mit Strombezugskosten von
 4,8 €ct/kWh

 

Zukunft

Tagesspeicherbetrieb

·       Stromeinspeisungskosten auf 19 €ct/kWh mit Strombezugskosten von
 4,8 €ct/kWh

Saisonal

·       Stromeinspeisungskosten 948 €ct/kWh mit Strombezugskosten von
 4,8 €ct/kWh

 

Akkuspeicher für kleine Solaranlagen

In Energie GmbH 2014[10] ist das folgende Bild  (Abbildung 4) mit Kostendarstellungen für kleine Speichereinheiten für Solar-Selbstversorger enthalten. Beachten, dass die Speicherkosten nicht die Kosten des zurückgelieferten Stromes beinhalten, dieser ist zuzurechnen.

 

Bild 13.1

Diese Angaben in Energie GmbH 2014[10] gehen aber davon aus, dass innerhalb von 25 Jahren Akku und Wechselrichter nur 1 x ausgetauscht werden müssen (Seite 19). Das ist aber realitätsfremd.

Die Studie sagt dazu (Seite 38):

[10]„An dieser Stelle sei darauf hingewiesen, dass die Ermittlung der Speicherkosten und der Wirtschaftlichkeitsvergleich auf Annahmen und Prognosen beruhen, die in der Realität so nicht eintreffen müssen.“

Aber selbst mit dieser Annahme kommt die Analyse zu dem Schluss (Seite 22):

Energie GmbH 2014[10].„Die Untersuchung hat gezeigt, dass bei einem Kalkulationszinssatz von 3,5 % keines der analysierten Produkte Speicherkosten unter den haushaltstypischen Strombezugskosten aufweist“.

Anmerkung des Verf.: Das sind aber die hohen Stromkosten des Endkunden, nicht die Nettosätze des EEG-Stromes.

.

In Pettinger 2013[23] werden für einen 7 kWh Lithium-Ionen Speicher (passend zu privaten 10 kW PV-Anlagen) reine Speicherkosten ohne Stromkosten von 25 ct / kWh angegeben.

 

Kostenfazit

Es scheint realistisch, bei Akkusystemen von Kosten im Bereich 0,3 bis 1 EUR / kWh für den zurückgespeisten Strom auszugehen.

 

Forschungsstand

In F. Endres 2015[8] ist der Stand der Batterieforschung gut dargestellt. Es lohnt sich, das Interview zu lesen. Man kann dann die vielen, oft sehr euphorischen Publizierungen besser einordnen. Auch Heller 2013[22] ist zum Thema realistische Betrachtung der  Verbesserungsmöglichkeiten von Akkus lesenswert.

 

 

5 Zusammenfassung Stromspeicher

Was sagt die Niedersachsen-Studie

Niedersachsen-Studie 2014[1]. In einem Ausblick für das Jahr 2030 wurden Annahmen getroffen, wie sich die Kennwerte der unterschiedlichen Speichersysteme entwickeln könnten. Diese sind detailliert im entsprechenden Kapitel dargestellt. Als Ergebnis kann festgehalten werden, dass auch 2030 PSW (Anm.: Pumpspeicher-Kraftwerk), gefolgt von AA-CAES (Anm.: Druckluftspeicher)  für die Kurz- und Mittelfristspeicherung die kostengünstigste Speichertechnologie ist. Anders als heute schließt jedoch auch in diesen Speicherszenarien der Wasserstoffspeicher auf und verringert den Abstand zu PSW und AA-CAES. Das Bild dreht sich bei einem Einsatz als LFS (Anm.: Langzeitspeicherung). Hier ist 2030 der Wasserstoffspeicher in allen Pfaden die deutlich günstigste Technologie. PSW sind um den Faktor 3 bis 4 teurer.

Zusammenfassend kann folgendes für die Zukunft festgehalten werden: Kommt es zu den dargestellten technologischen Weiterentwicklungen, so stellen Wasserstoffspeicher im Jahr 2030 die günstigste der untersuchten Speichertechnologien dar.

Für Ökostrom-bedingte Mehreinspeisung  ist in jedem Fall das „Wegwerfen“ des Stromes die weitaus und auch in Zukunft billigste Lösung.

Für eine Grundlastbereitstellung aus Zwischenspeicherung verdoppelt sich selbst bei der billigsten Speichertechnologie mindestens der Preis für den zurückgelieferten Strom. Ab dann wird es nur teurer.

Man erkennt gut, warum früher niemand auf die Idee kam, Strom in großem Maßstab zwischenzuspeichern.

Der Forschungsstand ist bei den verschiedenen Verfahren sehr unterschiedlich. Im Wesentlichen konzentriert er sich auf die Machbarkeit  für Volumensverwendung. Die erzielbaren Verbesserungen sind allerdings schon heute gut quantifizierbar (diese chemischen Verfahren haben nirgends – wie Computer alle paar Jahre – einen Quantensprung an Performanceverbesserung, sondern sind froh, in Jahrzehnten  wenige % zu erreichen).

Wer Interesse hat, sich auch über hier nicht gelistete Speichersysteme zu informieren, findet in F. Endres 2015[ 8] eine Übersicht.

 

Ausblick

Dass sich Speicher derzeit und auch in Zukunft nicht lohnen, wird die Politik nicht ruhen lassen. Weil chemische Speicher auch mit viel Forschung nicht wirklich billiger werden (können), wird man EEG-üblich ein Subventionsmodell kreieren unter dem Slogan  „Mehrwert ist zu vergüten“ und den Strombezieher bezahlen lassen. Wie Lösungen dazu aussehen, kann man in  FENES, OTH 2013[5] und BE e.V.  A. Hauer6] schon nachlesen: 

FENES, OTH 2013[5]

 

BE e.V.  A. Hauer[6].

Steigende Preise der CO2-Zetifikate würden die Wirtschaftlichkeit von Energiespeichern unterstützen!

 

 

 

6 Quellen für Teil 1 – 3

[1]

Niedersachsen-Studie 2014. Innovationszentrum Niedersachsen GmbH, Juli 2014. Studie 7983P01/FICHT-12919463-v19:“Erstellung eines Entwicklungskonzeptes Energiespeicher in Niedersachsen“

 

[3]

 Stellungnahme BUND 2010. BUND, 27. August 2010: „Stellungnahme zur Frage der Stromspeicherung im Rahmen der Netzintegration von Strom aus erneuerbaren Energien“

 

[4]

Bölkow-Studie 2010. Ludwig_Bölkow_Systemtechnik GmbH (LBST), 22. April 2010: „Energiespeicher in Stromversorgungssystemen mit hohem Anteil Erneuerbarer Energien“

 

[5]

FENES, OTH 2013. Regensburg 05.11.13: „Energiespeicher für die Energiewende Zusatzkosten vs. Zusatznutzen? Ringvorlesung Kraftakt Energiewende II“

 

[6]

BE e.V.  A. Hauer. Bundesverband Energiespeicher e.V., Andreas Hauer: „Energiespeicher Technologien und Anwendungen“

 

[7]

VCI Zwischenbericht 2013. Ein Zwischenbericht des Verbands der Chemischen Industrie (VCI), 8.Oktober 2013:  „Zukunft der Energiespeicher“

 

[8]

F. Endres 2015. TU Clausthal 13.04.2015, Interview mit Prof. Dr. rer. nat. Frank Endres, Institut für Elektrochemie: „Hintergründe zur Energiewende Batterien ohne Power und Windanlagen mit Gesundheitsgefahren“

http://www.deutscherarbeitgeberverband.de/aktuelles/2015_04_13_dav_aktuelles_interview_energiewende.html

 

[9]

Schnurbein 2012. Vladimir von Schnurbein: „Die Speicherung überschüssigen EE-Stroms durch synthetisches Methan.“

ENERGIEWIRTSCHAFTLICHE TAGESFRAGEN 62. Jg. (2012) Heft 9

 

[10]

Energie GmbH 2014. Leipziger Institut für Energie GmbH, 29. Januar 2014: Kurzexpertise „Wirtschaftlichkeit Batteriespeicher Berechnung der Speicherkosten und Darstellung der Wirtschaftlichkeit ausgewählter Batterie- Speichersysteme“

 

[11]

Fachausschuss erneuerbare Energien 2010. Fachausschuss ForschungsVerbund Erneuerbare Energien, Juni 2010: „Nachhaltiges Energiesystem 2050  Eine Vision für ein nachhaltiges Energiekonzept auf Basis von Energieeffizienz und 100% erneuerbaren Energien“

 

 

[14]

BMUB 2004. BMUB, 30.07.2004 Mitteilung Nr. 231/04: Erneuerbare-Energien-Gesetz tritt in Kraft

http://www.bmub.bund.de/presse/pressemitteilungen/pm/artikel/erneuerbare-energien-gesetz-tritt-in-kraft/

 

[15]

Ahlborn 2013. Dr. – Ing. Detlef Ahlborn 2. Juli 2013: „Wie viele Windräder braucht das Land?“

 

[16]

Ahlborn. Blog Vernunftkraft. Dr. – Ing. Detlef Ahlborn, „Windkraft-Verfügbarkeit“

 

[17]

Agora Energiewende Agorameter: Stromerzeugung und Energieverbrauch

http://www.agora-energiewende.de/service/aktuelle-stromdaten/?tx_agoragraphs_agoragraphs%5BinitialGraph%5D=powerGeneration&tx_agoragraphs_agoragraphs%5Bcontroller%5D=Graph

 

[18]

ScienceScepticalBlog 2013. ScienceScepticalBlog, 25. März 2013: Fred F. Mueller „Aufwind nur für den Strompreis? Deutschlands Energiewende und die Realität“

http://www.science-skeptical.de/energieerzeugung/aufwind-nur-fur-den-strompreis-deutschlands-energiewende-und-die-realitat/009573/

 

[19]

BmBF. Bundesministerium für Bildung und Forschung: „Energietechnologien für die Zukunft,  Netze und Speicher“.

http://www.bmbf.de/de/16753.php

 

[20]

NABU 2011. NABU Schleswig-Holstein  5. September 2011.  Agrargasanlagen und Maisanbau. Eine kritische Umweltbilanz

 

[21]

TAB 2012. TAB Arbeitsbericht Nr. 147, April 2012: „Endbericht zum Monitoring: Regenerative Energieträger zur Sicherung der Grundlast in der Stromversorgung“

 

[22]

Heller 2013. science-skepticalm Peter Heller, 24. November 2013: „Technikfeindlichkeit am Beispiel Elektromobilität“

 

[23]

Pettinger 2013. Hochschule Landshut 12.08.2013. Prof. Dr. Karl-Heinz Pettinger: „ Batteriespeicherung für Heimanwendungen“

 

[24]

Hartmann et al. 2012. Stuttgart, 2012: „Stromspeicherpotenziale für Deutschland“

 

[25]

WIKIPEDIA: Erneuerbare-Energien-Gesetz

http://de.wikipedia.org/wiki/Erneuerbare-Energien-Gesetz

 

[26]

science-skeptical 2014.  science-skeptical Blog, 19. Dezember 2014  Artikel: „Ein Fazit zu den Erneuerbaren Energien – Produktion 2014 und ein Blick in die Zukunft“.

Ein Fazit zu den „Erneuerbaren Energien“ – Produktion 2014 und ein Blick in die Zukunft

 

[27]

EIKE 2015. EIKE Blogbeitrag, 07.03.2015: „Münchner Stadtwerke mal wieder – Burn, burn, Bürgergeld“

http://www.eike-klima-energie.eu/news-cache/muenchner-stadtwerke-mal-wieder-burn-burn-buergergeld/

 

 




Ansichten eines IT-Experten zur Klima-Modellierung

Computer sind erstaunlich, bemerkenswert und unglaublich nützlich, aber sie können nicht zaubern. Als ein IT-Experte mit über 25 Jahren kommerzieller Erfahrung; als jemand, der einen großen Teil fast jeden Tages meines Lebens mit Computer-Software gearbeitet hat, möchte ich einige meiner Einsichten bzgl. dieses bemerkenswerten Werkzeuges beschreiben – und ich werde erklären, warum mich meine Erfahrung mit Computern skeptisch gemacht hat hinsichtlich Behauptungen über die Genauigkeit und Effizienz der Klima-Modellierung.

Zuallererst und am Wichtigsten: Computermodelle werden zutiefst beeinflusst durch die Hypothesen des Software-Entwicklers. Die Kreation von Software ist ein artistisches Unterfangen; es fühlt sich an wie die Einbettung eines Teils von sich selber in eine Maschine. [Das gilt mit anderen Assoziationen genauso für einen Schriftsteller! Anm. d. Übersetzers]. Deine Überlegungen, deine Gedanken, verstärkt durch die Macht einer Maschine, die zur Befriedigung deiner Bedürfnisse gebaut worden ist – es ist eine unheimliche Sensation, seine intellektuelle Reichweite sich entfalten zu fühlen mit Hilfe einer Maschine.

Aber dieser Akt der Kreation ist auch eine Restriktion – es ist sehr schwierig, eine Software zu kreieren, die ein vollkommen unerwartetes Ergebnis zeitigt. Mehr als alles andere ist Software ein Spiegel der Meinungen des Kreierenden. Es kann dabei helfen, ein paar Details zu klären, aber solange man nicht freiwillig und mit viel Erfahrung eine Maschine kreiert, die echt innovieren kann, werden Computer selten mit Überraschungen aufwarten. Sie tun einfach das, was man ihnen sagt, das sie tun sollen.

Wenn ich also Wissenschaftler und Politiker behaupten höre, dass ihre Argumente gültig sind infolge eines von ihnen kreierten Computermodells, lässt es mich erschauern. In meinen Experten-Ohren ist alles, was sie sagen, dass sie ihre Meinung in eine Maschine eingebettet haben, welche dann die Antwort lieferte, die sie haben wollten. Sie können genauso gut sagen, sie hätten ihre Meinung in ein Word-Dokument geschrieben und dann gedruckt – sehen Sie, hier ist der Beweis, ein bedrucktes Blatt Papier…

Mein zweiter Gedanke ist, dass es sehr leicht ist, von seiner eigenen Illusion gekapert zu werden; dass eine Reflektion von einem selbst mehr bedeutet als es tut.

Falls die Leute die Grenzen von Computern nicht verstehen; falls sie nicht verstehen, dass das, was sie wirklich sehen, nichts weiter ist als eine Reflektion von ihnen selbst, können sie einen übertriebenen Sinn des Wertes gewinnen, den der Computer für ihre Bemühungen darstellt. Mehr als einmal habe ich dies erlebt beim Aufbau eines Unternehmens. Der Computer widerspricht fast niemals den Forschern, die die Software entwickeln – oder anderen, die damit beauftragt worden sind, die Software zu schreiben nach den Spezifikationen der Forscher. Falls man immer eine positive Bestärkung seiner Ansichten erfährt, ist das wie ein Schmeicheln – es ist sehr, sehr verführerisch, Schmeichelei für echte Unterstützung zu halten. Dies ist meiner Vermutung nach zumindest teilweise das, was den Klimaforschern passiert ist, die sich auf Computer verlassen. Die Computer sagen ihnen fast immer, dass sie recht haben – weil sie den Computern gesagt haben, was diese sagen sollen. Aber man vergisst nur allzu leicht, dass all jene positive Bestärkungen nichts weiter sind als eine Reflektion ihrer eigenen Ansichten.

[Ist es aber hier nicht viel mehr die Vorgabe einer politischen Ideologie, die hier maßgeblich war? Anm. d. Übers.]

Bill McKibben erhält andauernd Versicherungen von Personen, die absolut davon überzeugt sind, dass ihre Theorien richtig sind – aber falls meine Theorie richtig ist, dass das, was falsch gelaufen korrekt ist, wurde diesen Personen, die diese Versicherungen abgaben, durch das ultimative Echo vor Augen geführt, wie sehr sie sich getäuscht haben. Ihre Computer-Simulationen weichen kaum einmal von ihren vorgefassten Schlussfolgerungen ab – weil das Ergebnis ihrer Simulationen einfach eine Reflektion ihrer vorgefassten Meinungen ist.

Eines Tages, vielleicht schon eines baldigen Tages, werden Computer die Grenzen, die wir setzen, überwinden. Forscher wie Kenneth Stanley oder Alex Wissner-Gross investieren ihre bedeutenden intellektuellen Bemühungen in das Auffinden von Wegen, die Grenzen zu schlagen, die Software-Entwickler ihren Kreationen auferlegen.

Sie werden Erfolg haben. Selbst nach 50 Jahren wachsen die Hardware-Möglichkeiten von Computern exponentiell und verdoppeln sich alle 18 Monate. Damit setzen sie einen geometrischen Anstieg von Computer-Macht frei – Macht, um sogar noch ambitioniertere Versuche durchzuführen, um eine echte künstliche Intelligenz zu erzeugen. Die technologische Singularität – eine Vorhersage der zufolge Computer bald die menschliche Intelligenz ausstechen und die Gesellschaft auf eine Weise transformieren, die ultimativ jenseits unserer derzeitigen Fähigkeit liegen, was wir verstehen – könnte lediglich wenige Jahrzehnte in der Zukunft liegen. Während der kommenden Jahre dürften wir geblendet sein von einer Reihe sogar noch eindrucksvollerer technologischer Wunder. Probleme, die heute noch unüberwindlich scheinen – Verlängerung der menschlichen Lebensdauer, die Konstruktion von Robotern, die simple Haushaltstätigkeiten ausführen können, die Heilung gegenwärtig unheilbarer Krankheiten, vielleicht sogar die Erzeugung eines zuverlässigen Klimamodells [aber nur, wenn man wirklich ALLE relevanten natürlichen Klimabeiträge einbringt, womit wieder die Ideologie ins Spiel kommt; Anm. d. Übers.] – werden während der nächsten paar Jahrzehnte wie Kegel vor unsere Füße zu fallen beginnen.

Aber jener Tag, jenes Zeitalter der Wunder; das Zeitalter, in dem Computer einfach aufhören, nur Maschinen zu sein und unsere Freunde und Partner werden, vielleicht sogar ein Teils von uns selbst werden durch neurale Implantate – perfektes Gedächtnis, sofortiges Verständnis jeder ausländischen Sprache, sofortige Nennung des Namens eines jeden, mit dem man spricht – jener Tag ist noch nicht gekommen. Derzeit sind Computer einfach Maschinen, die genau das tun, was man ihnen sagt – nichts weiter. Darum bin ich zutiefst skeptisch gegenüber Behauptungen, dass Computermodelle, entwickelt von Menschen, die glauben die Antwort schon zu wissen; die starke vorgefasste Ansichten hinsichtlich des Ergebnisses haben, dass sie sehen wollen (hier), das Klima wirklich genau modellieren zu können.

Link: http://wattsupwiththat.com/2015/06/07/an-it-experts-view-on-computer-modelling/

Übersetzt von Chris Frey EIKE

Anmerkung des Übersetzers: Hier werden ausschließlich die Grenzen von Computern und Modellen angesprochen. Jedes einzelne Wort kann man wohl unterstreichen. ABER – wie schon hier und da in der Übersetzung angemerkt: Es wird völlig außer acht gelassen, dass die Modellierung hier ABSICHTLICH nur einer Ideologie folgen darf, bei der die Möglichkeiten, die Computer heute schon bieten, nicht einmal ansatzweise ausgeschöpft werden DÜRFEN!




Neun Fragen zum Klimaschutz

Das Vorhaben einer kompletten Dekarbonisierung mit der Konsequenz einer ebenso kompletten Deindustrialisierung Deutschlands kann eigentlich nicht ernst gemeint sein. Immerhin verrät das Jahreszeitziel 2100, um was es vermutlich wirklich geht: Die bislang überaus erfolgreiche Angstfiktion “Klimawandel“ soll mit jedem Mittel für weiteren politischen Gebrauch erhalten bleiben. Dass der Plan nicht Realität wird, ist freilich sicher. Schließlich gibt es noch andere als deutsche Europäer. Und die werden den Dekarbonierungsplan von A. Merkel und F. Hollande nicht widerstandslos hinnehmen.

Alle früheren, erfolgreichen Herrscher wussten es schon immer: Nur mit Angst oder Krieg lassen sich Völker wirkungsvoll still stellen. Droh-Fiktionen wie hier der “anthropogene Klimawandel“ oder das absurde 2 °C Ziel, von dem renommierte Klimawissenschaftler bereits von „Verarschung“ sprechen (Zitat Prof. von Storch), benötigen noch nicht einmal einen Realitätsbezug. Je abartiger, umso größer ist seine politische Wirkung. Dieses Phänomen fehlgeleiteten menschlichen Verstandes ist Religionspropheten, Psychologen und Soziologen bestens bekannt.

Immerhin erzeugen wir in Deutschland aktuell rund 85% der Primärenergie aus fossilen Brennstoffen, und hierzulande soll der Dekarbonierungsplan auch noch ohne die Kernenergie auskommen. Mit Sonnen- und Windstrom gibt es weder Heizung noch Industrieproduktion. Diese schlichten, bereits jedem Grundschüler eingängigen Fakten haben aber gegen politisch geschickt propagierte Angst wenig Chancen. Man darf gespannt sein, wo wie und wann sich der Widerstand der EU-Bürger gegen den Dekarbonisierungs-Plan regt, wenn nur die Kosten solcher Aktionen bekannt werden.  EU-Nationen, in denen die letzte Dikatur noch nicht so lange zurückliegt, werden vermutlich zuerst Widerstand leisten.

Zumindest in Deutschland wird es aber keine ernsthaften Auseinandersetzungen geben, Konsens, Glauben und Gehorsam der jeweiligen Obrigkeit gegenüber stehen über allem. Man braucht zu diesem Thema nur unsere Geschichte zu konsultieren. Allein weil bis 2100 noch einige Generationen ins Land gehen werden, politische Absichtserklärungen immer kürzere Halbwertszeiten haben und die heutigen G7-Akteure die Realisierung ihre Schnapsidee allein aus biologischen Gründen nicht bis zum Ende aktiv mitgestalten können, wird aus dem Dekarbonisierungsplan wohl nichts werden.

Zahlreiche Rätsel verbleiben dennoch: was treibt die ehemals wertekonservative Regierungspartei CDU dazu, sich inzwischen Marktprinzipien ähnlich denen der DDR, UdSSR, Nordkoreas oder Kubas zu verschreiben? Wo bleiben die Parlamentarier, die dies nicht gutheißen? Warum wehren sich die betroffenen Industriezweige von Grundstoffen, Energie und weiter als Folge der Autoproduktion so wenig? Wieso begreift die Gewerkschaftsbasis nicht, dass es ihr an den Kragen geht und zerlegt mit massivem Protest die Dekarbonisierungsaktion? Und schlussendlich: Warum überlässt man das ohnehin unvermeidbare Auslaufen der fossilen Energieträger infolge ihrer zu erwartenden Preissteigerungen nicht einfach dem freien Markt und einer ebenso freien Energie-Forschung ohne alle Subventionen?

Bisher war freier Markt, freier Güteraustausch und Verzicht auf wettbewerbsverzerrende Subventionen stets jeder diktatorischen Planwirtschaft haushoch überlegen. Eingreifen des Staates ist nur beim Naturschutz nötig. Aber Klimaschutz ist kein Naturschutz, er ist ideologisch und das genaue Gegenteil von Naturschutz (naturzerstörende Windräder beweisen es).

Es ist angesichts eines sich zunehmend klimabesessener gebärdenden Deutschlands vielleicht nicht ganz verkehrt, immer wieder an die fehlenden Sachgrundlagen der Aktion „Klimaschutz““ zu erinnern. Für den Laien ist diese Aktion nämlich längst undurchschaubar. Er ist seit Jahren einem Trommelfeuer von politisch und medial geförderten Klimaängsten und Falschaussagen in Zeitungen und Fernsehen ausgesetzt und hat weder Zeit noch Muße sich über die Klimafakten zuverlässig zu informieren. Mit den „Neun Fragen zum Klimaschutz“ soll diesem Mangel abgeholfen werden. Die Fragen und Antworten sind kurz und (hoffentlich) so einfach, dass sie jedermann versteht. Weiterführende Quellen werden angegeben. Und schließlich veröffentlicht EIKE fast täglich interessante Berichte zum Thema in seiner Klimarubrik. Die „Neun Fragen zum Klimaschutz“ sind als kurz gefasste Informationsquelle in Diskussionen und als Verteiler an Freunde und Bekannte gedacht, mit denen man über das Klima-Thema diskutiert.  Zu diesem Zweck ist auch das pdf beigefügt.

                    Neun Fragen zum Klimaschutz

Zusammenfassung

Klimaschutz ist ein neuer deutscher Glaubenskanon, dem sich inzwischen auch die Kirchen angeschlossen haben. Die Medien und fast alle politischen Parteien erklären “Klimaschutz“ zur Staatsraison. Diese Entwicklung hat Konsequenzen: Die deutsche Energiewende zerstört zunehmend Landschaften und Wohlstand. Ökoideologie in Medien, Erziehung, Technik, Wissenschaft und Wirtschaft spaltet die Gesellschaft, wie es der zunehmende Widerstand der Bevölkerung gegen die “Kathedralen“ des neuen Glaubens (naturschädigende Windräder) zeigt. Angesichts dieser im weltweiten Vergleich einzigartigen Vorgänge werden Fragen nach Sinn, Nutzen und Zweck des Klimaglaubens unvermeidbar. Leitlinie ist dabei die Aufklärung, welche sinnvolles Handeln nur auf Basis naturwissenschaftlicher Fakten gelten lässt.

Beträchtliche Klimaschwankungen sind stete Begleiter der Erdgeschichte.

Seit Beginn der Industrialisierung bis 1998 ist es um weniger als 1 °C wärmer geworden, und seit 1998 stagniert die Erdtemperatur. Ein Zusammenhang (Korrelation) mit angestiegenem CO2 ist nicht festzustellen.

Kein Klimamodell hat die bisherige Stagnation vorhergesagt, stattdessen werden ständig neue Erwärmungen vorhergesagt, von 2, 4, 6, .. °C !?

Ob menschgemachtes CO$_2$ überhaupt einen Klimaeinfluss ausübt, konnte bis heute wissenschaftlich nicht belegt werden.

Es gibt nach 150 Jahren geringer Erwärmung keine über das natürliche Auftreten hinausgehenden Katastrophensignale von Stürmen, Hurrikanen, Tornados, Extremniederschlägen, Dürren, Gletscherschmelzen, Meeresspiegelanstiegen,… Genau dies sagt auch der Report AR5 2013/2014 des Intergovernmental Panel on Climate Change (IPCC).

“Klima“ ist von Natur aus ein hochdynamischer Prozess und mit keinem Mittel stabil zu halten. “Klimaschutz“ vermittelt eine Illusion und ist nur ein politisches Konstrukt. Dazu sagt Prof. Heinz Miller, AWI-Vize-Direktor: “Wer von Klimaschutz redet, weckt Illusionen. Klima lässt sich nicht schützen und auf einer Wunschtemperatur stabilisieren. Es hat sich auch ohne Einwirkungen des Menschen oft drastisch verändert. Schlagworte wie “Klimakollaps“ oder “Klimakatastrophe“ sind irreführend. Klima kann nicht kollabieren, die Natur kennt keine Katastrophen‘‚.

“Klimaschutz“ ist das Gegenteil von Naturschutz. Dies zeigt bereits die Pest der sich ausbreitenden Windradungetüme, welche Landschaften zerstören, Flugtiere töten und Menschen durch Infraschall gesundheitlich schädigen.

1. Frage: was ist Klima, was “Klimaschutz“?

Klima ist nicht mit Wetter zu verwechseln. Es ist das mindestens 30-jährige statistische Mittel von Wetterparametern wie Temperaturen, Niederschlägen, Anzahl von Extremwetterereignissen u.w.m. [1]. Es gibt kein “Klima“ schlechthin und auch kein Globalklima, nur Klimazonen von polar bis tropisch. Wie das Wetter wandelt sich auch das Klima jeder Erdklimazone naturgesetzlich unaufhörlich und kann infolgedessen nicht geschützt werden. Man müsste dazu mit dem Schutz des Wetters beginnen.  Der Begriff “Klimaschutz“ ist sachlich unsinnig und nur ein Mittel der politischen Agitation. Ohne ständigen Klimawandel hätte es kein Leben auf der Erde gegeben, er war ein wichtiger Faktor der biologischen Evolution. Klimawandel kann für die Menschen gleichermaßen schädlich oder günstig sein, wie es die Klimavergangenheit belegt (s. Frage 3). Die im historischen Klimavergleich moderate globale Erwärmung des 20. Jahrhunderts war für die Menschheit vorteilhaft und keineswegs gefährlich.

2. Frage: was ist “anthropogene globale Erwärmung“?

Anthropogene globale Erwärmung ist ein theoretisch vermuteter, bis heute nicht nachweisbarer Erwärmungseffekt infolge von CO2-Emissionen aus Elektrizitäts- und Wärme-Erzeugung, Industrie, Transport u.w.m. Die Konzentration des Treibhausgases CO2 in der Erdatmosphäre hat sich seit Beginn der Industrialisierung (~1850) von 0,028% auf heute 0,04% erhöht, das sind 12 Moleküle mehr in 100.000 Luftmolekülen über grob 150 Jahre. Der hypothetische Erwärmungseffekt wird als AGW (Anthropogenic Global Warming) bezeichnet. Seine Nichtnachweisbarkeit beruht auf seiner zu geringen Stärke, natürliche Temperaturfluktuationen überdecken ihn. Weil Medien und Politik immer wieder sachlich falsch behaupten, die AGW sei gefährlich hoch und würde sogar das “Klima“ schädigen, muss betont werden, dass es bis heute keine begutachtete Klima-Fachpublikation gibt, die eine maßgebende AGW an Hand von Messwerten nachweist. Alle entsprechenden Behauptungen basieren auf Klimamodellen, die willkürliche, das Ergebnis bereits bestimmende Annahmen enthalten. Eine Modellbildung von Klima als einem Geschehen mit buchstäblich unzähligen (meist unbekannten) maßgebenden Einflussgrößen ist vermutlich für immer unmöglich.

Entscheidender Begriff der AGW ist die Klimasensitivität des CO2 als die globale Erwärmung infolge einer hypothetischen Verdoppelung der atmosphärischen CO2-Konzentration. Sie ist mit extrem hohen Unsicherheiten belegt und praktisch unbekannt [2]. Alle politischen Maßnahmen, die eine gefährliche globale Erwärmung voraussetzen, beruhen somit auf einem unbekannten Zahlenwert.

3. Frage: ist das  heutige “Klima“ extrem?

Zur Antwort muss man das Klima vor Beginn der Industrialisierung (~1850) mit dem Klima danach vergleichen. Nur falls nach 1850 die Zahl von Extremwetterereignisse angestiegen wäre, Gletscherschmelzen nie zuvor bekannte Ausmaße erreicht hätten und ungewöhnliche Temperatursteigerungen aufgetreten wären, müsste mit hoher Wahrscheinlichkeit von einer Verantwortung des Menschen ausgegangen werden, wobei aber immer auch natürliche Ursachen in Frage kämen. Die Antworten aus Fachliteratur, meteorologischen Messungen der weltweiten Messtationen und sogar vom IPCC [3] auf diese Fragen liegen freilich bereits vor:

Es gibt keine Art von Klimaereignissen nach 1850, die nicht mehrfach in mindestens gleicher, oft aber größerer Stärke und Geschwindigkeit vor 1850 auftraten.

Unsere Klimavergangenheit bietet bekannte Beispiele: So konnten die Römer bei viel wärmeren Klima als heute ganz Europa sandalenbeschuht erobern. In ihrer reichen Militärliteratur findet sich anlässlich von Alpenüberquerungen nirgendwo ein Erwähnung von Gletschern. Die folgende Klimaverschlechterung führte zu Völkerwanderungen und dem Untergang Roms. Um etwa 1100 n.Chr. waren in den heißen Sommern der mittelalterlichen Warmzeit die großen deutschen Flüsse fast
vollständig ausgetrocknet. Deshalb konnte das Fundament der berühmten Regensburger Steinbrücke in der trockenen Donau gebaut werden, und zu Köln am Rhein überquerten die Leute den Fluss trockenen Fußes [5]. In der sogenannten “kleinen Eiszeit“ um Mitte bis Ende des 17. Jahrhunderts war dann die Ostsee regelmäßig über viele Monate komplett zugefroren, schwedische Truppen überquerten sie mehrfach mit schweren Planwagen und Kanonen. Grönland (grünes Land) war umgekehrt vor 8000 Jahren 2,5 °C wärmer als heute [4], ohne dass der Grönlandgletscher kollabierte oder “Knuth“ ausstarb. Den Menschen haben Klimaänderungen stets bei Klimaabkühlung in Form von Missernten und Hungersnöten zugesetzt. Warmzeiten waren dagegen umgekehrt regelmäßige Auslöser kultureller Höhepunkte. Kaltzeiten hingegen sind, wie eine neue Studie wieder einmal belegt, die Ursache von Hunger und Elend. Die Mortalitätsrate in Kaltzeiten ist 20 x höher als in Warmzeiten.

4. Frage: gibt es eine menschgemachte Klimagefahr?

Der Zahlenwert der bereits erwähnten Klimasensitivität des CO2 ist nicht direkt messbar. Er kann nur aus theoretischen Rechnungen im Bereich zwischen 0,5 °C bis etwa 1,2 °C angegeben werden [6, 7]. Werte bis 2 °C werden als unbedenklich
angesehen. Nur Klimamodelle mit dem hypothetischen Konstrukt der Wasserdampfrückkoppelung können Werte über 4 °C hinaus begründen. Dieses Konstrukt ist in der Klima-Natur nicht nachweisbar [9]. Darüber hinaus treffen die Modellierer auf eine bemerkenswerte Lösungsmannigfaltigkeit bei solchen Modellen und sind nicht in der Lage, alle diese Lösungen physikalisch zu verstehen.

Die ab den 1970-er Jahren eingesetzten Klimamodelle, zweifellos wertvolle Forschungsinstrumente für Detailfragen, konnten noch nie zuverlässige Globalaussagen machen. Diese unbehebbaren Nachteile teilen Klimamodelle mit den ihnen verwandten Wettermodellen. Bekanntlich ist eine verlässliche Wettervorhersage über einige Tage bis maximal 2 Wochen hinaus grundsätzlich unmöglich. Auch die modernsten Klimamodelle versagen bereits bei der Erklärung der Klimavergangenheit, können nicht einmal den nächsten El Nino berechnen und fordern eine Erwärmung in mehreren km Höhe über den Tropen (Hot Spot), die bis heute nicht messbar war. Die Prophezeihung des bekanntesten deutschen Klimamodellieres Prof. M. Latif vom Jahre 2000, es würde in Deutschland des anthropogenen CO2 wegen keine Winter mit Schnee mehr geben, ist vielen von uns noch Warnung vor Klimamodellvorhersagen [8].

Für Klimamodelle gilt die Richard Feynman, einem der bedeutendsten Physiker des 20. Jh. zugeschriebene sinngemäße Feststellung über physikalische Modelle bzw. Theorien:

Egal, wie bedeutend der Mensch ist, der ein theoretisches Modell vorstellt, egal, wie elegant es ist, egal wie plausibel es klingt, egal wer es unterstützt, wenn es nicht durch Beobachtungen und Messungen bestätigt wird, dann ist es falsch“.

Unter diesem Kriterium eindeutig falsche Modelle prägen die politische Klimaschutz-Agenda der EU und insbesondere Deutschlands. Gemäß dem heutigen wissenschaftlichen Stand ist zu konstatieren, dass eine menschgemachte Klimagefahr nicht nachweisbar ist.

5. Frage: gibt es einen wissenschaftlichen Klima-Konsens?

Nein! Unzählige Klimaforscher und fachnahe Naturwissenschaftler, darunter auch die beiden ehemaligen Physik-Nobelpreisträger Robert Laughlin und Ivar Giaever, kritisieren öffentlich die Hypothese von einer Klimaschädigung durch den Menschen. Dies belegt, dass diese Hypothese wissenschaftlich zumindest umstritten ist. Darüber wurde in den deutschen Medien noch nie berichtet. Seit Beginn der Klimaschutz-Bewegung gab es unzählige entsprechende Deklarationen und -Petitionen, die niemals bei Politik oder Medien Erwähnung oder gar Gehör fanden [10].

6. Frage: ist CO2 (Kohlendioxid) schädlich?

Atmosphärisches CO2 von heute 0,04% Konzentration (und damit nur ein Spurengas der Atmosphäre) ist Hauptbestandteil der Photosynthese [11] und für die Existenz von Pflanzen, Tieren und Menschen unabdingbar. Ohne CO2 gäbe es uns nicht. Der vom industrialisierten Menschen verursachte Anstieg von 0,028% im Jahre 1850 auf den heutigen Wert hat den globalen Pflanzenwuchs gefördert und die Nahrungsernten weltweit verbessert [12]. Tritt es bei extrem hoher Konzentration wie z.B. bei Vulkaneruptionen in großen Mengen aus, ist es tödlich erstickend, denn CO2 ist schwerer als Luft und verdrängt den zum atmen nötigen Sauerstoff. Das CO2 in unserer Atmosphäre ist allerdings infolge seiner extrem geringen Konzentration bis weit über 15 km Höhe homogen verteilt und sammelt sich nicht am Boden an. Der weitere Anstieg von CO2 in der Atmosphäre ist auf Grund endlicher Reserven an Kohle begrenzt. So gibt die Bundesanstalt für Geowissenschaften und Rohstoffe die weltweiten Kohlereserven mit 1300 GtC an. Der CO2-Gehalt der Luft kann daher somit auch bei Verbrennen aller fossiler Reserven höchstens auf 0,06% bis 0,08% ansteigen [13].

7. Frage: wie relevant ist deutsche CO2-Vermeidung global?

Die CO2-Emissionen von Deutschland haben einen globalen Anteil von ~2%. Einsparungen von diesen 2% sind dann praktisch ein Nichts. Eine simple Dreisatzrechnung zeigt die globale Wirkung Deutschlands, falls gemäß Sigmar Gabriel unsere Kohlekraftwerke zukünftig jährlich 3,7 Millionen Tonnen CO2 weniger ausstoßen. Diese Einsparung verringert den aktuellen jährlichen globalen CO2-Ausstoß von 34 Milliarden Tonnen, der 2 ppm atmosphärisches CO2 mehr bewirkt, um den Anteil 0,0001 also um 0,0002 ppm. Das IPCC gibt für 400 ppm mehr CO2 (fiktiv hohe) 3 °C zusätzliche globale Erwärmung an, so dass Gabriels Plan gemäß IPCC zu einer um 0,0000015 °C geringeren globalen Erwärmung führt. Den CO2-Hauptverursachern Indien und China sind die Verrücktheiten deutscher CO2-Vermeidung fremd. Kohleverbrennung ist für sie überlebenswichtig, und sie gaben daher dem Klimaschutzdruck des Westens noch nie nach. Aber auch Australien scheint den Dreisatz zu beherrschen, denn hier ist bei weiterhin voll laufenden Kohlekraftwerken “Klimaschutz“ inzwischen abgesagt.

8. Frage: wer profitiert vom Klimaschutz?

Durch ökoideologische Netzwerke, mithelfende Gesetzgebung und Mittelumverteilung entstand in Deutschland ein öko-industrieller Komplex, der mit den Regeln des freien Markts unvereinbar ist. Die Energiewende wird mit der unabdingbaren Notwendigkeit von “Klimaschutz“ begründet. Sie hat Kohorten von Profiteuren wie Pilze aus dem Boden schießen lassen, von der Windradindustrie über Ökoberatungsunternehmen für Kommunen, private Subventionsprofiteure von Solardachstrom bis hin zu Emissions-Zertifikatebetrügern und nicht zuletzt dem deutschen Fiskus mit seiner CO2-Besteuerung (Besteuerung der Luft).

Politik und Wendeprofiteure schufen eine kaum noch auflösbare Verfilzung gegenseitiger Abhängigkeiten. Das Bündnis 90/Die Grünen brauchen die Fiktionen “Klimaschutz“ und das Angstgespenst der Kernenergie unabdingbar zum überleben. Profitierende Advokaten-Klimaforscher [14] missbrauchen, unter Verletzung ihres Amtseids und von der Politik mit Wohlwollen gefördert, ihre beamteten Positionen zur Verbreitung totalitärer Ökoideologien. Ihre anzählig weit überwiegenden integeren Kollegen ducken sich weg, um keinen beruflichen Schaden zu erleiden. “Klimaschutz“ und Energiewende werden infolgedessen wohl erst dann beerdigt werden, wenn der stetig ansteigende volkswirtschaftliche Schaden in die totale Katastrophe geführt hat.

Schlussendlich sind noch die ganz großen, global agierenden Profiteure zu nennen, welche “Klimaschutz“ durch hohe finanzielle Unterstützung vorantrieben, um ihn später in lukrativen Geschäftsmodellen zu nutzen – stellvertretend die US-Großfinanz mit zugehörigen Banken und Versicherungsgesellschaften [19].

9. Frage: welches sind die Ursprünge des Klimaglaubens?

Die ab Mitte des 20. Jahrhunderts aufkommenden Umweltbewegungen sowie die Berichte des Club of Rome (1972, 1974) verstärkten massive Ängste, wie sie bereits Thomas Robert Malthus (1766-1834) anfachte. Die exponentielle Zunahme der Weltbevölkerung würde zwangsläufig zur katastrophalen Nahrungs- und Ressourcenknappheit führen. All dies hat sich bis heute als falsch erwiesen, selbst die Anzahl der Weltbevölkerung zeigt erste Anzeichen eines zukünftigen Stillstands.
Ressourcen sind keine Mengen sondern die technische Innovationsfähigkeit der Menschheit, bisher jedes Ressourcenproblem durch neue Technologien lösen zu können.

Als die Ressourcen-Bedrohung ihre Schrecken verlor, wurde die menschgemachte Klimaschädigung zur neuen Weltbedrohung, nun mit den deutschen Medien als ersten Vertretern. Insbesondere das deutsche Gutmenschentum kümmert sich nun um ein vermutetes zukünftiges Problem mit technischen Lösungen von gestern und erträumten Erfindungen von übermorgen. TV-Bilder aus aller Welt zeigen heute in
Echtzeit die entferntesten Zyklone, Überschwemmungen und Dürren. Diese natürlichen Ereignisse, die in vorindustrieller Zeit oft häufiger und stärker auftraten, werden dem ahnungslosen Zuschauer als AGW-Folgen untergeschoben. Mit TV-Bildern von kondensiertem Wasserdampf aus Kraftwerkskühltürmen wird unsichtbares CO2 suggeriert und schließlich als “Klimakiller“ verteufelt.

Der Klimaschutz-Glaube fordert eine übergeordnete Institution als Weltregierung, also totalitäre Planwirtschaft [17]. Schon Albert Camus erkannte den Totalitarismus als “Politik der Massenmobilisierung für unerreichbare Ziele“. Klimaschutz ist das ideale unerreichbare Ziel! Unsere aktuelle Kanzlerin A. Merkel als Vorsitzende einer ehemals freien, wertekonservativen Partei folgt mit ihrer Aussage “Die globale Erwärmung ist die größte Herausforderung des 20. Jahrhunderts“ dem Totalitarismus, denn sie widerspricht damit den Klimafakten.

Die Verspargelung unserer Landschaften mit Windrädern belegt den blinden Klimaschutzglauben. Windräder sparen kein CO2 ein (mit ihrer Verbreitung haben sich die CO2-Emissionen Deutschlands sogar erhöht), ihr Strom ist um ein Vielfaches teuer als aus Kohle, Uran, Gas. Der Windstromfluktuation wegen sind kostspielige Gaskraftwerke zum Fluktuationsausgleich erforderlich. Nur der Bruchteil von aktuell
~17% der installierten Windstromleistung steht zur Verfügung, weil der Wind meist zu schwach oder gar nicht bläst. Windradanrainer werden durch die dramatischen Wertverluste ihrer Häuser zwangsenteignet und durch Infraschall gesundheitlich geschädigt. Windräder töten Fledermäuse und Greifvögel zu Hekatomben. All dies
ist bestens bekannt, und dennoch werden Windräder von fast allen deutschen Volksvertretern in blinder Gläubigkeit über die Klimaschutzwirkung dieser Anlagen begrüßt und propagiert.

Blinder Glaube und Rückwärtsgewandheit greifen aber nicht nur hier. Statt in attraktive Zukunftsfelder zu investieren, werden heute schon ganze Bereiche von der Gentechnik bis zur Kernenergie einfach ausgeblendet, so als würden sie gar nicht existieren. Unsere Kinder und Enkel werden die Leidtragenden dieses neuen Ökoglaubens sein.

Der Beginn eines europaweiten Ökototalitarismus ist an der 20%-Agenda der EU ablesbar, welche gesetzlich erzwingt, dass bis 2020 alle Industrieunternehmen der EU ihren Energieverbrauch um 20% einschränken müssen. Verbraucher erkennen es inzwischen an nicht mehr erhältlichen Glühlampen, Staubsaugern usw. Für Industrie, Arbeitsplätze und unseren Wohlstand sind die EU-20%-Agenda und ihre kommenden Steigerungen buchstäblich tödlich. Kaufmännisch sinnvolle Energieeinsparung könnten ebenso gut durch Steueranreize unter Beibehaltung des freien Marktes und der Eigenentscheidung des Bürgers erreicht werden. Die EU und die deutsche Regierung wollen aber den Planungsstaat. Dazu kommt die Unverfrorenheit, den uneingeschränkt notwendigen Naturschutz mit Klimaschutz gleichzusetzen. Allein Windräder zeigen es bereits:

Klimaschutz ist das genaue Gegenteil von Naturschutz.

Bereits Kinder werden in Deutschland zu “Ökobotschaftern“ erzogen. Die Botschaft der Plant-for-the-planet Organisation, Kinder sollen Bäume pflanzen, ist zweifellos begrüßenswert, falls es denn beim Bäumepflanzen bliebe. Schließlich wollen wir alle Naturschutz. Sie ist aber keineswegs harmlos, weil diese Organisation weiter schreibt[16]:

“Bei einer Plant-for-the-Planet Akademie wirst du selbst zum Botschafter für Klimagerechtigkeit. Hier erfährst du alles Wichtige zum Thema Klimakrise und globale
Gerechtigkeit. Und du lernst, selber Vorträge zu halten und Pflanzpartys zu organisieren“
.

Diese missbräuchliche Instrumentalisierung jugendlicher Naturbegeisterung für
ökoideologische Zwecke unterscheidet sich nicht mehr von der politischen Indoktrinierung Jugendlicher in den zwei überwundenen Diktaturen. Man tausche lediglich “Klimagerechtigkeit“ gegen “den neuen Menschen in der DDR“ aus.

Fazit

Die Klimaschutzbewegung widerspricht den naturwissenschaftlichen Fakten. Von wissenschaftlichem Konsens über eine angebliche Klimagefährlichkeit des anthropogenen CO2 kann keine Rede sein. Bevor nicht ein sachfundierter Nachweis über den Einfluss des anthropogenen CO2 auf Klimaparameter erbracht werden kann, gebietet alle Vernunft, die kostspieligen CO2-Vermeidungsmaßnahmen einzustellen. Die militanten Vertreter von Klimaschutzmaßnahmen streben eine planwirtschaftlich-totalitäre Politik an, wie beispielsweise eine “große Transformation“ [17]. Seine politischen Bestrebungen, Agenden und Auswirkungen  verweisen “Klimaschutz“ in die Reihe gefährlicher totalitärer Ideologien.

Zum Autor [18].

Quellenangaben

[1] Weltmeteorologieorganisation, http://tinyurl.com/pwv9535

[2] Die Information findet sich in der unscheinbaren Fußnote Nr. 16 im IPCC-Bericht für Politiker, Abschnitt D.2, http://tinyurl.com/qdkxh68

[3] IPCC Climate Change 2001, the sientific basis, Chapter 02, Abschnitt 2.7, S. 155, http://www.grida.no/publications/other/ipcc_tar/ und im IPCC         Extremwetterbericht (2012)  http://www.ipcc-wg2.gov/SREX/

[4] S. Lecavalier et al., Quaternary Science Rev. 63, 73-82 (2013)

[5] J. Reichholf, Eine kurze Naturgeschichte des letzten Jahrtausends, Fischer Taschenbuch

[6] H. Harde, Open Journal of Atmospheric and Climate Change (2014), http://tinyurl.com/p9ac6xg

[7] IPCC-Berichte (scientific basis), www.ipcc.ch

[8] http://tinyurl.com/cl8vdog

[9] R.S. Lindzen and Y-S. Choi, J. Atmos. Sci. 47, 377-390 (2011), ttp://tinyurl.com/3mbresk

[10] http://tinyurl.com/y9jraf
http://tinyurl.com/4zerb5f
en.wikipedia.org/wiki/Oregon_Petition

http://en.wikipedia.org/wiki/Heidelberg_Appeal
http://en.wikipedia.org/wiki/Leipzig_Declaration
http://tinyurl.com/6oqu3m
http://canadafreepress.com/index.php/article/9764                                                http://tinyurl.com/ygdmzq
http://tinyurl.com/yf58y39                                                                                  http://tinyurl.com/ylgvjgy                                                                                    http://tinyurl.com/bv8n2tl

[11] de.wikipedia.org/wiki/Photosynthese

[12] B.A. Kimball: Agronomy Journal, Vol. 75, No. 5 (1982),
http://tinyurl.com/9h6or3f                                                                                    sowie R.B. Myneni: letters to nature, 386 (1997) http://tinyurl.com/9u3sgo7

[13] H.-J. Lüdecke, Energie und Klima, expert-Verlag (2013)

[14] Klimaforscher, die weniger an objektiven Forschungsergebnissen sondern vielmehr an ihrer ideologischen  Instrumentalisierung interessiert sind.

[15] Rupert Darwall, The age of global warming, Quartet (2013)

[16] http://www.plant-for-the-planet.org/de/mitmachen/akademien

[17] http://tinyurl.com/pojcq3h

[18] http://de.wikipedia.org/wiki/Horst-Joachim_Lüdecke

[19] http://tinyurl.com/o3l562y

Related Files




Elektro-Energiespeicherung, Notwendigkeit, Status und Kosten. Teil 2

Teil 2

1 Speicher für Elektroenergie

Hinweis: Im ScienceScepticalBlog erschien 2013 ein Artikel[18]:

 „Aufwind nur für den Strompreis? Deutschlands Energiewende und die Realität“.

Er beschreibt ebenfalls unser Thema, ist auch heute noch aktuell und empfehlenswert. 

Diese Ausarbeitung behandelt ausschließlich Speicher mit Rückverstromung, sonst wäre sie zu lang (und zu aufwendig) geworden. In diesem Kapitel wird gelistet, welche Speichertechnologien zur Lösung brauchbar sind. Als Basis dienen dazu im Wesentlichen die Studien „Erstellung eines Entwicklungskonzeptes Energiespeicher in Niedersachsen“[1] und Hartmann et al[24]. Die „Niedersachsen-Studie 2014“[1] dient als Vorlage für die Niedersächsische Landesregierung. Man kann davon ausgehen, dass das darin über Speichertechnologien Beschriebene aktueller Wissenstand ist.

 

1.1 Im Großmaßstab sinnvolle Speichertechnologien

Die Niedersachsen-Studie 2014[1] schreibt:

In dieser Studie werden Technologien analysiert, die Potenzial für die mechanische und chemische Energiespeicherung im Netzmaßstab aufweisen. Im Rahmen der Studie werden folgende konventionellen Speichertechnologien detailliert betrachtet:

·       Pumpspeicherwerk (PSW)

·       Druckluftspeicher (AA-CAES)

·       Wasserstoffspeicher (H2-Speicher)

Bei einem Einsatz als Kurzfrist- und Mittelfristspeicher sind Pumpspeicherwerke heute nach wie vor die günstigste Technologie, dicht gefolgt von adiabaten Druckluftspeichern. Als Langfristspeicher sind adiabate Druckluftspeicher heute die wirtschaftlich vorteilhafteste Speichertechnologie.

Wasserstoffspeicher sind heute aus ökonomischer Sicht (noch) nicht konkurrenzfähig. Die direkte Speicherung von Wasserstoff in Kavernen ist vorteilhafter als die Einspeisung von Wasserstoff bzw. E-Methan (methanisierter Wasserstoff) in das Erdgasnetz.

Ausblick 2030:

Auch zukünftig (selbst bei optimistischen Annahmen bezüglich der technischen Entwicklung der Wasserstoffspeicher) sind beim Einsatz als Kurz- und Mittelfristspeicher Pumpspeicher und adiabate Druckluftspeicher die günstigere Technologie. Bei einem Einsatz als Langfristspeicher hingegen stellen Wasserstoffspeicher die klar vorteilhafteste Technologie dar. Soll in Zukunft Strom im großen Maßstab über längere Zeit (in Langfristspeichern) gespeichert werden, so geht trotz der unbestritten vorhandenen Nachteile (niedriger Wirkungsgrad und hoher leistungsspezifischer Investitionsaufwand) auch unter ökonomischen Gesichtspunkten kein Weg an Wasserstoffspeichern vorbei. 

Auf der Regierungsseite steht es so:

 

BmBF[19], Netze und Speicher

Um den Strombedarf auch künftig zuverlässig decken zu können, müssen diese Leistungsschwankungen ausgeglichen werden. Hier setzen die Speichertechnologien an: Der in Spitzenzeiten erzeugte, aber nicht verbrauchte Strom wird gespeichert, so dass er nicht verloren geht. Vielversprechende Ansätze der derzeitigen Forschung an dauerhaften Energiespeichern sind zum Beispiel elektrische Speicher wie Lithium-Ionen-Batterien, stoffliche Speicher, bei denen die Energie zum Beispiel durch die Erzeugung von Wasserstoff oder Methan gespeichert wird, oder thermische Speicher, etwa in Verbindung mit der Solarthermie.

 

Der BUND schreibt, BUND 2010[3]

 

Stellungnahme zur Frage der Stromspeicherung 2010:

Sinnvoll ist ein Konzept, das vorrangig auf kleinere lokale, dezentrale Speicherung z.B. auf Batteriebasis20 sowie mit Biomasse-KWK setzt mit einer kurzfristigen regionalen Zwischenspeicherung auf der Basis Druckluft/Pumpspeicher und überregionalen Langfristspeicherung mit Pumpspeichern/ Wasserstoff oder Methan verbindet.21 Hierzu sind Systemstudien zur Optimierung der Speicherstrategien durchzuführen.

 

Wir stellen fest

Man ist sich bei den Groß-Speichertechnologien in etwa einig.

Damit hört diese aber schon auf. Von den in der Niedersachsen-Studie genannten, drei Haupttechnologien wird auf der Regierungsseite nur eine erwähnt. Die zwei auf der Regierungsseite zusätzlich genannten, werden in der Niedersachsen-Studie für einen großtechnischen Einsatz nicht einmal der Betrachtung Wert gehalten.

Der BUND sieht zusätzlich Biogas als sinnvoll an. Dabei hat der NABU in seiner Studie
NABU 2011[20] „Agrargasanlagen und Maisanbau“ dargestellt, dass Agrargasanlagen vom Wirkungsrad her schlichtweg ein Desaster sind und zusätzlich massivste Umweltprobleme verursachen.

BE e.V.  A. Hauer[6]. Die o.g. Autoren gehen von einem benötigten Einsatz an konventioneller Energie von 60 – 106 % aus, d.h. bei langen Transportwegen kann der Betrieb der Anlage sogar mehr Energie verbrauchen als Strom ins Netz eingespeist wird.

 

2 Kosten der Elektroenergie- Speicherung

Vor den im Teil 3 kommenden Zahlen zu einzelnen Speichertechnologien anbei eine Übersicht zur Rentabilität von Speichersystemen. Beim Sichten der Literatur musste der Verfasser feststellen, dass dies enorm schwierig und nur ansatzweise möglich ist. Kosten scheinen beim Umsetzen des EEG wirklich keine Rolle zu spielen, weshalb sie fast nirgends angegeben werden.

 

2.1 Basisinfo Stromspeicher

Stromspeicher rechnen sich nicht

Niedersachsen-Studie 2014[1]

… Im heutigen Strommarkt ist es schwierig, Investitionen in großtechnische Speicher zu rechtfertigen. Die Wirtschaftlichkeit ist bei den derzeitigen Strompreisen und den Erlösen aus dem Regelenergiemarkt nicht oder nur äußerst schwer darstellbar. Ein Anreiz zum Bau von Speichern müsste durch eine Änderung der energiewirtschaftlichen Rahmenbedingungen geschaffen werden.

Was sagt das: So lange es noch erlaubt ist, Strom durch bewährte, aber eben „dreckige“ und nicht-ökokonforme Kraftwerke zu erzeugen (Ökokirchen-Neusprech), lohnen sich Stromspeicher nicht. Es wäre nach wie vor billiger, überflüssigen Ökostrom nicht einzuspeisen (obwohl der nicht eingespeiste Strom als „Strom-Verhinderungsprämie“ durchs EEG voll bezahlt wird) oder ans Ausland zu verschenken.         

Dass das nicht-Einspeisen von Ökostrom eine zukunftsfähige Lösung wäre, ist nicht nur die Meinung des Verfassers. Auch andere sind schon darauf gekommen:

TAB 2012[21].Bei starken Stromerzeugungsspitzen scheint eher die Abregelung der Stromerzeugung die sinnvollste Alternative zu sein. Diese Abregelung würde voraussichtlich in nicht unerheblichen Umfang erfolgen.  So könnte es nach Abschätzungen des Energie-Forschungszentrums Niedersachsen (efzn) notwendig werden, bis 2017 rund 35 TWh Strom aus erneuerbarer Energieerzeugung abzuregeln.

Die Niedersachsen-Studie 2014[1] weiß aber (den EEG-typischen) Rat. Man müsste doch nur ein weiteres Subventionsfass aufmachen. 

Zum EEG-Glück bietet einfaches Abwarten jedoch auch eine Lösung. Durch die zwangsweise Abschaltung von immer mehr konventionellen Kraftwerken muss die daraus bisher billig und problemlos generierte Grundlast in Zukunft zwangsweise aus Speichersystemen sichergestellt werden. Man kommt einfach nicht mehr daran vorbei – und die Kosten spielen automatisch keine Rolle mehr. 

Anm.: Im Ökosinn sind das natürlich keine Kosten. Denn die Speicher helfen ja mit, den Ökostrom weiter auszubauen. Und der ist nun mal erforderlich, um die Welt zu retten. Also sparen sie indirekt das teuflische CO2 ein. Eine Verrechnung mit CO2-Zertifikaten liegt da nah, FENES, OTH 2013[5] BE e.V.  A. Hauer[6]. Wenn eine Tonne CO2 erst einmal wie geplant 20 EUR kostet, wird der Zertifikate-Kosten-Einspareffekt höher. Dann kosten auch die Speicher auf einmal nichts, sondern erwirtschaften CO2-Zertifikate-Verrechnungs-Gewinne – und die EEG-Welt ist wieder in Ordnung -.

Und bevor der Verbraucher so viel bezahlen muss, wie in [8] dargestellt, wird die Politik doch wohl einlenken? Aber man sollte sich nicht sicher sein – die Welt vor etwas retten zu wollen, hat Deutschland bisher immer konsequent durchgezogen – und immer bitter bezahlt.        

Kommentar eines kritisch eingestellten Energie-Fachmannes zur Strom-Speicherung.

 

F. Endres 2015[8]. In Deutschland werden ca. 30 GW Grundlast benötigt, um diese Bedingung zu erfüllen. Weder Windkraft- noch Solaranlagen können rund um die Uhr eine konstante Grundlast liefern, von der Phasensynchronität ganz zu schweigen. Will man dieses Ziel erreichen, muss man das Netz so umbauen, dass Speicher zwischen 20 und 100 TWh vorhanden sind.

Wenn man in Deutschland alle Möglichkeiten, Pumpspeicherkraftwerke zu bauen, nutzt, erreicht man vielleicht 0,15 TWh an Speicherkapazität, das ist natürlich viel zu wenig. Es bleiben dann nur noch chemische und elektrochemische Speicher übrig, die in der Größenordnung bis 100 TWh sogar denkbar sind.

Das ist technisch alles vorstellbar, nur wird der dann zu zahlende Strompreis alleine aufgrund der Alterung der Anlagen oder chemischen Verbindungen irgendwo zwischen 1 und 2 EUR pro kWh liegen. Ich erwarte, dass in einem solchen Szenario auch Batterien (Akkus) für die Netzstabilität erforderlich sind, weil die Elektrolyseanlagen ein stabiles Netz benötigen. In jedem dieser Szenarien werden die wiederkehrenden Kapitalkosten (wegen Alterung) den Strompreis auf weit über 1 EUR/kWh treiben – das wäre unvermeidbar. Der Traum vom kostenlosen Strom, wenn erst einmal genügend Windkraft- und Solaranlagen aufgestellt sind, wird für unabsehbare Zeit ein Traum bleiben.

Wie immer, gibt es auch gegensätzliche Ergebnisse

Osthessen News vom 02.06.2015, Artikel: „Energiewende kann nur mit den Menschen vor Ort gelingen!“. Hans-Josef FELL* über Ausstieg, Umstieg und Wirtschaftsmächte bei einem Vortrag vor der Energiegenossenschaft Vogelsberg eG, als Redner zu ihrer Generalversammlung.

 

Auszug: Die Energiewende werde als zu teuer in Misskredit gebracht, anderslautende wissenschaftliche Berechnungen kämen kaum zum Zuge, bedauerte der Politiker, der seit Jahrzehnten als Streiter für die Energiewende unterwegs ist. „Ohne Ökostrom wäre in Deutschland der Strompreis um 11 Mrd. Euro teurer“, legte Fell dar, Windenergie und Solarstrom seien heute diejenigen Energien mit den niedrigsten Stromerzeugungskosten.

 

*Der grüne Ex-MdB ist heute Präsident der Energy Watch Group und Botschafter für 100% Erneuerbare Energien.

 

Zur Erinnerung anbei Herrn Trittins (damals Umweltminister)  Vorhersage:

 

BMUB Berlin, 30.07.2004 Mitteilung Nr. 231/04 2004[14]:

"Es bleibt dabei, dass die Förderung erneuerbarer Energien einen durchschnittlichen Haushalt nur rund 1 Euro im Monat kostet – so viel wie eine Kugel Eis."

 

3 Basisinfo Einspeisekosten Ökostrom

Um Rechnen zu können, muss man die EEG-Vergütungen wissen. Diese verändern sich durch immer neue Regulierungsänderungen laufend, sind aber (langsam) abnehmend. Aktuell kann man mit den folgenden Werten Kostenabschätzungen durchführen.

Quelle Schnurbein 2012[9], Tabelle 1

Diese Darstellung deckt sich in etwa mit dem bei WIKIPEDIA Erneuerbare-Energien-Gesetz

angegebenen 13 ct/kWh Mittelwert.

3.1 Vorab-Übersicht Strom-Speicherkosten

Übersicht Speichertechnologien

Hartmann et al. 2012[24]. Es zeigt sich, dass vor allem Pump- und Druckluftspeicher geringe Kosten im Tagespeicherbetrieb und Wasserstoff-, Druckluft- und Power-to-Gas Speicher (P2P) die niedrigsten Kosten im saisonalen Betrieb aufweisen. Die Kosten der mobilen Batteriespeicher liegen dagegen deutlich höher als die der anderen Speichertechnologien.

 

Übersicht Speicherkosten der verschiedenen Speichertechnologien

Anbei eine globale Übersicht aus Hartmann et al. 2012[24]. Beachten, dass es die Nettokosten der Speicherung sind, also ohne Strombezugskosten. Mobile Batteriespeicher (E-Autos als Backup) sind am teuersten.

Bild 8.1

 

3.2 Erklärung zur Preisbasis bei der Berechnung von Speicherkosten (in Teil3)

In den folgenden Detailausführungen sind die Speicherkosten als Vollkosten der vom Speicher in das Netz zurückgespeisten Elektroenergie angegeben. Benannt werden diese als Rückspeisekosten, bzw. Stromeinspeisungskosten.

 

Diese Vollkosten beinhalten

·       Bezugs-Kosten für den in den Speicher eingespeisten Strom incl. der aufgrund der Wirkungsgradverluste zusätzlich einzuspeichernden Strommenge.

·       Kosten der Stromspeicherung

 

Bezugskosten

 

Bei den Kostenangaben mit Strombezug aus Hartmann et al. 2012[24] ist dieser Bezug immer mit 4,8 ct/kWh bepreist, da für den zu speichernden Strom ein Mischpreis angenommen wurde. Jedoch  repräsentiert dieser Wert ungefähr auch die in ferner Zukunft mögliche EEG-Vergütung und auch grob den Maximal-Abgabepreis für konventionellen Kraftwerksstrom.

Aktuell und noch für längere Zeit liegt die mittlere, reguläre EEG-Vergütung jedoch bei ca. 13 ct/kWh. Es wurde deshalb versucht, die Speicherkosten auch mit diesem Strom-Bezugspreis anzugeben. Leider sind die Kosten mit Strombezug nicht einfach zu berechnen. Die zugefügten, eigenen Abschätzungen mit 13 ct/kWh sind deshalb nur grobe Hochschätzungen.

 

Warum werden Bezugskosten eingerechnet

Beim EEG gibt es keinen „geschenkten“ Strom (siehe dazu auch Schnurbein 2012[9], Kapitel Strombilanz).

Unabhängig davon, was dieser auf irgend einem Spotmarkt kostet oder ob er verschenkt wird, oder erst gar nicht eingespeist – der Stromkunde hat immer die EEG-Einspeisevergütung dafür zu bezahlen. Diese stellt damit in allen Fällen den Wert eines vom Ökokraftwerk eingespeisten Strom genau dar und gilt sowohl für Strom aus Spitzeneinsppeisung, wie auch für Grundlaststrom.

Der Betreiber eines Stromspeichers bekommt also niemals wirklich Strom geschenkt, selbst wenn er dafür nichts bezahlt. In vielen Publikationen wird der Einpeisestrom jedoch mit keinen oder sehr geringen Kosten angesetzt, um die Speicherkosten zu „retuschieren“.

 

Weiter geht es dann im Teil 3

 

4 Quellen für Teil 1 – 3

[1]

Niedersachsen-Studie 2014. Innovationszentrum Niedersachsen GmbH, Juli 2014. Studie 7983P01/FICHT-12919463-v19:“Erstellung eines Entwicklungskonzeptes Energiespeicher in Niedersachsen“

 

[3]

 Stellungnahme BUND 2010. BUND, 27. August 2010: „Stellungnahme zur Frage der Stromspeicherung im Rahmen der Netzintegration von Strom aus erneuerbaren Energien“

 

[4]

Bölkow-Studie 2010. Ludwig_Bölkow_Systemtechnik GmbH (LBST), 22. April 2010: „Energiespeicher in Stromversorgungssystemen mit hohem Anteil Erneuerbarer Energien“

 

[5]

FENES, OTH 2013. Regensburg 05.11.13: „Energiespeicher für die Energiewende Zusatzkosten vs. Zusatznutzen? Ringvorlesung Kraftakt Energiewende II“

 

[6]

BE e.V.  A. Hauer. Bundesverband Energiespeicher e.V., Andreas Hauer: „Energiespeicher Technologien und Anwendungen“

 

[7]

VCI Zwischenbericht 2013. Ein Zwischenbericht des Verbands der Chemischen Industrie (VCI), 8.Oktober 2013:  „Zukunft der Energiespeicher“

 

[8]

F. Endres 2015. TU Clausthal 13.04.2015, Interview mit Prof. Dr. rer. nat. Frank Endres, Institut für Elektrochemie: „Hintergründe zur Energiewende Batterien ohne Power und Windanlagen mit Gesundheitsgefahren“

http://www.deutscherarbeitgeberverband.de/aktuelles/2015_04_13_dav_aktuelles_interview_energiewende.html

 

[9]

Schnurbein 2012. Vladimir von Schnurbein: „Die Speicherung überschüssigen EE-Stroms durch synthetisches Methan.“

ENERGIEWIRTSCHAFTLICHE TAGESFRAGEN 62. Jg. (2012) Heft 9

 

[10]

Energie GmbH 2014. Leipziger Institut für Energie GmbH, 29. Januar 2014: Kurzexpertise „Wirtschaftlichkeit Batteriespeicher Berechnung der Speicherkosten und Darstellung der Wirtschaftlichkeit ausgewählter Batterie- Speichersysteme“

 

[11]

Fachausschuss erneuerbare Energien 2010. Fachausschuss ForschungsVerbund Erneuerbare Energien, Juni 2010: „Nachhaltiges Energiesystem 2050  Eine Vision für ein nachhaltiges Energiekonzept auf Basis von Energieeffizienz und 100% erneuerbaren Energien“

 

[14]

BMUB 2004. BMUB, 30.07.2004 Mitteilung Nr. 231/04: Erneuerbare-Energien-Gesetz tritt in Kraft

http://www.bmub.bund.de/presse/pressemitteilungen/pm/artikel/erneuerbare-energien-gesetz-tritt-in-kraft/

 

[15]

Ahlborn 2013. Dr. – Ing. Detlef Ahlborn 2. Juli 2013: „Wie viele Windräder braucht das Land?“

 

[16]

Ahlborn. Blog Vernunftkraft. Dr. – Ing. Detlef Ahlborn, „Windkraft-Verfügbarkeit“

 

[17]

Agora Energiewende Agorameter: Stromerzeugung und Energieverbrauch

http://www.agora-energiewende.de/service/aktuelle-stromdaten/?tx_agoragraphs_agoragraphs%5BinitialGraph%5D=powerGeneration&tx_agoragraphs_agoragraphs%5Bcontroller%5D=Graph

 

[18]

ScienceScepticalBlog 2013. ScienceScepticalBlog, 25. März 2013: Fred F. Mueller „Aufwind nur für den Strompreis? Deutschlands Energiewende und die Realität“

http://www.science-skeptical.de/energieerzeugung/aufwind-nur-fur-den-strompreis-deutschlands-energiewende-und-die-realitat/009573/

 

[19]

BmBF. Bundesministerium für Bildung und Forschung: „Energietechnologien für die Zukunft,  Netze und Speicher“.

http://www.bmbf.de/de/16753.php

 

[20]

NABU 2011. NABU Schleswig-Holstein  5. September 2011.  Agrargasanlagen und Maisanbau. Eine kritische Umweltbilanz

 

[21]

TAB 2012. TAB Arbeitsbericht Nr. 147, April 2012: „Endbericht zum Monitoring: Regenerative Energieträger zur Sicherung der Grundlast in der Stromversorgung“

 

[22]

Heller 2013. science-skepticalm Peter Heller, 24. November 2013: „Technikfeindlichkeit am Beispiel Elektromobilität“

 

[23]

Pettinger 2013. Hochschule Landshut 12.08.2013. Prof. Dr. Karl-Heinz Pettinger: „ Batteriespeicherung für Heimanwendungen“

 

[24]

Hartmann et al. 2012. Stuttgart, 2012: „Stromspeicherpotenziale für Deutschland“

 

[25]

WIKIPEDIA: Erneuerbare-Energien-Gesetz

http://de.wikipedia.org/wiki/Erneuerbare-Energien-Gesetz

 

[26]

science-skeptical 2014.  science-skeptical Blog, 19. Dezember 2014  Artikel: „Ein Fazit zu den Erneuerbaren Energien – Produktion 2014 und ein Blick in die Zukunft“.

Ein Fazit zu den „Erneuerbaren Energien“ – Produktion 2014 und ein Blick in die Zukunft

 

[27]

EIKE 2015. EIKE Blogbeitrag, 07.03.2015: „Münchner Stadtwerke mal wieder – Burn, burn, Bürgergeld“

http://www.eike-klima-energie.eu/news-cache/muenchner-stadtwerke-mal-wieder-burn-burn-buergergeld/

 




US-Bundestaaten ziehen sich aus Förderung erneuerbarer Energie zurück

*[State and Federal Legislators: Das bezieht sich auf die USA, und vor langen Erklärungen gehe ich davon aus, dass die geneigte Leserschaft weiß, was damit gemeint ist. Anm. d. Übers.]

Wind in Oklahoma

Im American Spectator vom 30. April informiert Noon die Öffentlichkeit, die zuvor der erneuerbaren Energie zugeneigt war, dass man noch einmal über diese nachdenken sollte angesichts von Problemen mit der Zuverlässigkeit und der in den Himmel schießenden Energiekosten. Beispielsweise hieß es in einem Bericht im Oktober 2014 bei Enid News in Oklahoma mit dem Titel [übersetzt] „Sorgen wegen Wind? Ein Jahrzehnt nach der Begeisterung für Windparks werden die Staaten nachdenklich“:

Vor einem Jahrzehnt begrüßten die Staaten die Entwickler von Windenergie mit offenen Armen, waren sie doch der Vision einer leuchtenden Zukunft für eine Industrie verfallen, die billigen Strom anbieten würde, ebenso wie neue Arbeitsplätze und stetige Einkommen für große Landbesitzer, vor allem in ländlichen Gebieten mit nur wenigen anderen ökonomischen Perspektiven. Um sicherzustellen, diese Gelegenheit nicht zu verpassen, versprachen die Gesetzgeber, wenige oder gar keine Vorschriften zu erlassen sowie großzügige Steuernachlässe. Aber jetzt, wo Windräder in vielen Gebieten des windigen Herzlandes der Nation herumstehen, fürchten einige Führer in Oklahoma und anderen Staaten, dass ihre Bemühungen zu erfolgreich waren und eine Industrie angezogen haben, die riesige Subventionen abschöpft, häufige Klagen anstrengt und seine mächtige Lobby dazu ausnutzt, jedweden Reformen zu widerstehen.

Aber es ist nicht nur die Windenergie, die in Ungnade gefallen ist. Auch bei Solarenergie und Biotreibstoffen sowie Subventionen dafür wird jetzt nochmals genau hingeschaut. Und es ist nicht nur Oklahoma, das seine Energie-Prioritäten überdenkt – andere Staaten und auch die Bundesregierung machen das auch.

Erneuerbare sind nicht mehr OK

Fast ein Drittel der 29 Staaten und der District of Columbia [die Hauptstadt Washington], die Förderungen erneuerbarer Energie in Kraft gesetzt hatten, manchmal in Kombination mit Subventionen, überdenken ihre Hinwendung zu erneuerbarer Energie. In Oklahoma allein wurden etwa 30 Gesetze mit Bezug auf die Windindustrie im Jahr 2015 eingebracht, einschließlich zumindest eines Gesetzes, dass die Steuernachlässe aufs Korn nimmt. Am 16. April stimmte das Parlament von Oklahoma mit 78 zu 3 für die Streichung der Steuernachlässe für Windenergie. Der Senat begutachtet ein Begleitgesetz, dessen Annahme ebenfalls erwartet wird und von der republikanischen Gouverneurin Mary Fallin unterzeichnet wird.

Der erste Staat, der seine Förderung Erneuerbarer überdachte, war Ohio. Im Juni 2014 hat Gouverneur John Kasich Gesetze unterzeichnet, die den RPS [vermutlich Renewable Power Standard] des Staates für zwei Jahre aussetzt. Anfang 2015 hat der Staat West Virginia als Erster seinen RPS aufgehoben. Und das mit einstimmiger Unterstützung im Senat und einer Abstimmung von 95 zu 4 im Parlament. In die gleichen Fußstapfen trat der Bundesstaat Texas im März und beendete seinen RPS. Im Parlament wird dafür breite Zustimmung und danach die Unterschrift von Gouverneur Greg Abbott erwartet.

Es wird erwartet, dass die Beendigung von RPS in Texas auch die Solarindustrie beeinflussen wird. Charlie Hemmeline, geschäftsführender Direktor der Texas Solar Power Association stellt fest: „Zunehmende Unsicherheit bzgl. unserer Industrie lässt die Geschäftskosten im Staat steigen“.

Der Gouverneur von Kansas hat mit dem Parlament und dem Senat sowie der Windindustrie einen Kompromiss ausgehandelt, die es dem Staat erlauben würde, aus seiner Förderung der Erneuerbaren auszusteigen. Im Gegenzug würde keine neue Steuer für die Erzeuger von Windenergie eingeführt. Die Windindustrie hatte befürchtet, dass die Steuer für sie schädlicher wäre als die Förderung helfen würde. North Carolina und Michigan haben Gesetze zur Neubewertung der staatlichen Politik zugunsten Erneuerbarer in Kraft gesetzt, während New Mexico und Colorado jeweils Gesetze erlassen haben, RPS einzufrieren oder ganz zu eliminieren. In einer Kammer wurden diese Gesetze bereits durchgewunken, in der anderen hängen sie derzeit noch fest.

Die Unterstützung der Steuerzahler für die Windenergie verliert im Kongress ebenfalls an Boden, was durch die Tatsache belegt wird, dass die Senatorin Heidi Heitkamp im März vergeblich versucht hatte, Unterstützung für eine Gesetzesänderung zu erhalten, welche die Steuernachlässe für die Windenergie-Erzeugung um weitere fünf Jahre verlängert hätte. So wie es jetzt aussieht, sind diese Steuernachlässe Ende 2014 ausgelaufen.

Unterstützung für Äthanol schwindet

Die Förderung von Äthanol, bekannt als Erneuerbarer Treibstoff-Standard [RFS], verliert ebenfalls seinen Glanz. Mit Verweis auf die hohen Kosten haben die SenatorInnen Dianne Feinstein und Pat Toomey am 16. Januar 2015 das „Corn Ethanol Mandate Elimination Act of 2015“* auf den Weg gebracht.

[Etwa: „Gesetz zur Aufhebung der Unterstützung für die Äthanolgewinnung aus Mais“]

Hawaii, wo es eine eigene einmalige Äthanol-Förderung gibt, überdenkt man ebenfalls die Unterstützung für diesen teuren und umweltschädlichen Treibstoff. KHON [eine Fernsehstation] berichtet: „Neun Jahre, nachdem den Autofahrern in Hawaii eine wesentlichen Veränderung an der Benzinpumpe aufgezwungen worden ist, bezeichnen Viele dieses jetzt als ein gescheitertes Experiment und wollen es beseitigt haben“.

Sowohl in Hawaii als auch bei der Bundesregierung suchen Gesetzgeber nach fortschrittlichen Biotreibstoffen, die nicht zu einer Erhöhung der Preise für Nahrungsmittel führen. Allerdings hat die EPA – beauftragt mit der Einführung von RFS – wiederholt auf Biotreibstoff-Forderungen verzichtet oder diese reduziert, weil die Industrie trotz der Investition von über 126 Milliarden Dollar seit 2003 bislang nicht in der Lage war, kommerziell erfolgreiche Mengen von Biotreibstoff herzustellen.

Noon schließt ihren Artikel mit einer Referenz an einen Bericht von Watchdog.org mit dem Titel [übersetzt] „warum es für die Wirtschaft gut ist, die Förderung erneuerbarer Energie zu streichen“. Darin heißt es: „Die beste Politik für die Staaten ist es, die Entscheidungen bzgl. des Energieverbrauchs den Verbrauchern im Markt zu überlassen anstatt diese einer Gesetzgebung zu unterziehen“.

H. Sterling Burnett, Ph.D., (hsburnett@heartland.org) is the managing editor of Environment & Climate News.

Link: http://news.heartland.org/newspaper-article/2015/05/28/states-backing-away-renewable-power-mandates

Übersetzt von Chris Frey EIKE




Klimaforscher kritisieren Regierungsstudie, die die „Pause“ in der Erwärmung löscht

Bild rechts: Schiffe korrekter als Bojen zur Temperaturerfassung? Bild: © Andreas Demmig

Einige Klimaforscher bestreiten die neue Behauptung: „Während ich mir sicher bin, dass diese jüngste Analyse der NOAA als politisch nützlich für die Obama-Regierung betrachtet wird, sehe ich es als nicht besonders nützlichen Beitrag zum wissenschaftlichen Verständnis von dem, was vor sich geht,“ schrieb Judith Curry, eine Professorin der Klimawissenschaft an der Georgia Tech, in einer Reaktion auf die Studie.

In einem Interview bei FoxNews.com sagte Curry, dass die nachjustierten Daten nicht den anderen unabhängigen Messungen der Temperatur entsprechen. „Der neue NOAA-Datensatz stimmt nicht überein mit einem UK-Datensatz, der im Allgemeinen als Goldstandard für die Datensätze der globalen Oberflächentemperatur angesehen wird. Auch steht der neue Datensatz im Widerspruch zu ARGO-Bojen und Satelliten-Analysen.“

Die NOAA Studie, von einem Forscherteam unter Leitung von Tom Karl, Direktor der Agentur National Climatic Data Center erstellt, fand den größten Teil seines neuen Erwärmungstrends durch Veränderungen der letzten Messungen der Meerestemperaturen.

Globale Meerestemperaturen sind geschätzt, sowohl durch Tausende von Handelsschiffen, die die Temperatur des Wassers beim Ansaugen für ihre Motoren aufzeichnen und von Tausenden von Bojen – schwimmende Einrichtungen, die für Jahre im Wasser bleiben.

Die Bojen tendieren in der Regel dazu, kühlere Temperaturwerte als die Schiffe zu erfassen, wahrscheinlich weil die Schiffsmotoren das Wasser erwärmen. Währenddessen wurden Bojen in den letzten Jahren immer häufiger. Das Ergebnis, sagt Tom Karl, dass selbst wenn die Weltmeere sich erwärmen, können die unbereinigten Daten es nicht zeigen, weil immer mehr Bojen anstatt [der Messungen] von Schiffen verwendet werden. So justierte das Karl-Team die Daten der Bojen, damit sie mit den Schiffsdaten übereinstimmen. Sie haben ihre Arbeit auch doppelt überprüft, indem sichergestellt wird, dass die neu eingestellten Ablesungen der Bojen den Aufnahmen nächtlicher Lufttemperaturen von Schiffen entsprechen.

Die Studie kam letzte Woche heraus, und es blieb keine Zeit für die unabhängige Überprüfung der Einstellungen durch skeptische Wissenschaftler. Aber einige stellen die Frage, um wie viel die justierten Daten gegenüber anderen unabhängigen Messungen variieren.

Erstens, es stimmt nicht mit den Messwerten von mehr als 3.000 „ARGO-Bojen“ überein, die speziell darauf ausgelegt sind, im Meer zu schwimmen und die Temperatur zu messen. Einige Wissenschaftler sehen ihre Daten [die der Bojen] als die zuverlässigsten an.

Die ARGO-Boje Daten zeigen kaum eine Erwärmung der Oberflächentemperatur, seit sie im Jahr 2003 eingeführt wurden. Aber das Karl-Team nutzte sie nicht in ihrer Analyse mit der Begründung, dass die Bojen mehrere Probleme hätten, darunter fehlende Messungen in der Nähe der Arktis.

In einer E-Mail an FoxNews.com schrieb Karl, dass die Messungen der ARGO-Bojen seinen Daten (natürlich nach der Korrektur der systematischen Offsets) hinzugefügt werden könnten, „…wenn wissenschaftliche Methoden gefunden werden, um diese beiden Arten der Temperaturerfassung in Übereinstimmung zu bringen … … Dies ist Teil des kumulativen und fortschrittlichen wissenschaftlichen Prozesses.“

Karls Studie kollidiert auch mit Satellitenmessungen. Seit 1979 wird durch NOAA-Satelliten die Temperatur der Atmosphäre der Erde geschätzt. Sie zeigen fast keine Erwärmung in den letzten Jahren und stimmen mit den Oberflächendaten eng überein – vor den Anpassungen durch Karl.

Die Satellitendaten werden durch zwei getrennte Gruppen von Forschern zusammengestellt, deren Ergebnisse eng beieinander sind. Zu einem Team, das diese Daten sammelt, gehören auch die Klima-Professoren John Christy und Roy Spencer an der Universität von Alabama in Huntsville, beide stellen Karls Daten in Frage.

„Die Studie ist ein weiteres Beispiel dafür, dass Sie jede Antwort, die Sie wollen bekommen, wenn die Datenfehler der Thermometer größer sind als das globale Erwärmungssignal, nach dem sie suchen“, sagte Spencer gegenüber FoxNews.com. „Wir glauben, dass die Satellitenmessungen seit 1979 ein stabiles Maß der globalen Temperaturen bieten, und die beiden Satelliten-Forschungsgruppen finden praktisch die gleiche Pause der globalen Temperaturen für die letzten 18 Jahre“.

Karl meinte, auch die Satellitendaten haben Probleme, darunter auch „Bahnabweichungen, Tagesstichproben, Gerätekalibrierung der Zieltemperaturen und mehr.“

Spencer sagte, er stimmt den meisten dieser Punkte zu, aber diese sind weniger problematisch als die Daten von Tausenden von Schiffen und Bojen. Er fügte hinzu, dass eine Gruppe von Satelliten Temperaturen zu jedem Zeitpunkt überwachen und dass sie verwendet werden, um sich gegenseitig zu überprüfen.

Skeptiker sagen, es gibt noch mehr Messungen, einschließlich derjenigen Daten von Ballonen, die mit den vorhandenen Daten besser übereinstimmen als die von Karl neu adjustierten Daten. Sie merken auch an, dass selbst mit Karls Anpassungen der Erwärmungstrend der letzten 17 Jahre unter dem liegt, was die UN-Modelle vorausgesagt hatten.

Einige Klimaforscher applaudieren Karls Anpassungen und sagen, dieses entlarvt den Gedanken, dass die Erderwärmung gestoppt wäre. „[Dieses] weist darauf hin, wie klein und zerbrechlich diese Vorstellung war:“ sagt Peter Frumhoff, Direktor für Wissenschaft und Politik der Vereinigung der besorgten Wissenschaftler, zu FoxNews.com. Auf die Frage nach dem Widerspruch mit den Satellitendaten, sagte er, er vertraue der neuen Studie.

„Ich vertraue dem Prozess des legitimen wissenschaftlichen Peer-Review, dem diese Studie unterzogen wurde, sowie der Sorgfalt der Autoren gegenüber ihrer angesehenen Arbeit „, und fügte hinzu, dass „die gekünstelte Debatte über einen so genannten Stillstand der Erwärmung eine unglückliche Ablenkung vom sinnvollen Dialog darüber war, wie das allgemein anerkannte, ernste Problem des Klimawandels am besten anzugehen ist. “

Aber Skeptiker sagen, Karls justierte Daten ist der Ausreißer, der mit allem anderen in Konflikt steht. „Betrachten Sie mich als nicht überzeugt“, schrieb Curry.

Erschienen auf FoxNews.com am 10. Juni, 2015.
[Das Video im Original bezieht sich nicht direkt auf diesen Beitrag, s.u.]

http://www.foxnews.com/science/2015/06/10/climate-scientists-criticize-government-paper-that-erases-pause-in-warming/?intcmp=latestnews

Übersetzt durch Andreas Demmig

Anmerkung des Übersetzers:

Es gibt also (mindestens) vier voneinander unabhängige Verfahren, die Temperatur des Meeres zu erfassen, drei davon liegen in ihren Messwerten eng beieinander. Da die Datensätze der drei nicht das gewünschte Ergebnis zeigen, werden diese kurzerhand manipuliert oder für ungültig erklärt – Wie groß muss wohl die Verzweiflung der „Klimawissenschaftler“ sein, wenn zu solchen Maßnahmen gegriffen wird?

Auf der Original Seite ist ein Video Interview von FoxNews.com gezeigt, Thema: Obama tackles climate change with new EPA rules
[Obama geht gegen den Klimawandel mit neuen Umweltbestimmungen vor] mit Bradley Blakeman [ehemaliger Assistent von George W. Bush] und seinem Gegenspieler Joe Lestingi (politischer Stratege der Chadderon Group, Agentur für Kampagnen und Strategie).

Für mich ist das der übliche Austausch: Diese neuen Regeln schaden uns, der Ökonomie und bringen für’s Klima gar nichts. Dagegen der Hinweis auf die Zukunft, unsere Kinder und die Führerschaft, der die anderen folgen sollen.

Joe Lestingi will die Ölförderung mit Kanada (Bakken Shale Field, hier auf Eike) einstellen.

Blakeman hält die Aktionen von Präsident Obama für „Kabuki Theater“ (eine Form des traditionellen japanischen Drama mit … übertriebenen Gesten und Körperbewegungen, um Gefühle auszudrücken, Info Google)




Können wir eine Aussage darüber machen, ob sich die Ozeane erwärmen?

Die seinerzeitigen Behauptungen zur Genauigkeit, welche heute immer noch unverändert im Raum stehen, kann man in Abbildung 1a (unten) erkennen. Sie stammt aus einer Studie mit dem Titel „Observed changes in top-of-the-atmosphere radiation and upper-ocean heating consistent within uncertainty“ von Norman G.Loeb et al. 2012, paywalled hier, im Folgenden Loeb2012 genannt:


Abbildung 1: Dies ist Abbildung 1(a) aus Loeb2012. Original-Bildunterschrift: a: jährliche gemittelte Erwärmungsraten in den oberen Schichten der Ozeane, berechnet aus Daten von Pacific Marine Environmental Laboratory/Jet Propulsion Laboratory/Joint Institute for Marine and Atmospheric Research (PMEL/JPL/JIMAR), NODC und Hadley, 0–700 m

Ich möchte mich für die Qualität dieser Graphik entschuldigen, aber leider liegt das Dokument hinter einer Zahlschranke. Das ist schon o. k., mich interessierten auch nur deren Fehlerschätzungen.

Wie man sieht, zeigt Loeb2012 die ozeanischen Erwärmungsraten in Watt pro Quadratmeter für jedes Jahr. Alle drei Gruppen nennen die gleiche Fehler-Größenordnung. Der Fehler in den frühsten Daten beträgt etwa 1 W/m². Allerdings beginnt die Größe der Fehler abzunehmen, als die Bojen im Jahre 2006 online gingen. Am Ende ihrer Aufzeichnungen zeigen alle drei Gruppen Fehler deutlich unter einem halben Watt pro Quadratmeter.

Abbildung 2: Dies ist Abbildung 3(a) aus Loeb2012. In schwarz ist die zur Speicherung verfügbare Wärme dargestellt, abgeleitet aus den CERES-Satellitendaten. In blau sind die Erwärmungsraten bis 1800 m dargestellt und in rot die Erwärmungsraten bis 700 m. Original-Unterschrift: a: globales jährliches Mittel (Juli bis Juni) des Gesamt-TOA-Flusses aus CERES-Beobachtungen sowie die ozeanischen Erwärmungsraten 0 bis 700 sowie 0 bis 1800 m von PMEL/JPL/JIMAR.

Hier erkennt man, dass der Fehler am Ende ihres Datensatzes für die Schicht bis zu einer Tiefe von 1800 Metern ebenfalls unter einem halben Watt pro Quadratmeter lag.

Aber welche Temperaturänderung repräsentiert ein Fehler von einem halben Watt pro Quadratmeter? Meine Faustregel ist einfach.

Ein Watt pro Quadratmeter wärmt einen Kubikmeter Wasser während eines Jahres um 8°C.

(Ja, ich weiß; tatsächlich sind es 8,15°C, aber ich tätige viele allgemeine Berechnungen, so dass ein geringer Fehler-Prozentsatz in Ordnung geht für eine leichtere Berechnung und Speicherung). Das bedeutet, ein halbes Watt pro Quadratmeter schafft in einem Jahr eine Erwärmung von 4°C der gleichen Wassermenge.

Für eine 1800 Meter tiefe Wasserschicht sagt also Loeb2012, dass der Standardfehler ihrer Temperaturmessungen 4°C/1800 m beträgt – macht zwei Tausendstel Grad (0,002°C). Für die dünnere 700 Meter tiefe Schicht – für die der Antriebsfehler der Gleiche, aber die Masse kleiner ist, ergibt sich der gleiche Fehler in W/m² von 4°C/700, was einem alarmierenden Temperaturfehler von 6 Tausendstel Grad (0,006°C) gleichkommt.

Ich sagte zu jener Zeit, dass diese behauptete Genauigkeit um 5 Tausendstel Grad … nun … höchst unwahrscheinlich ist.

Jo Nova weist darauf hin, dass komischerweise die Studie im Jahre 2007 geschrieben worden ist, aber seinerzeit bis heute kaum Aufmerksamkeit erregt hat. Ich hätte sie sicher auch nicht gelesen, als ich meinen o. g. Beitrag geschrieben habe. Die folgenden Abschnitte aus ihrer Studie sind interessant:

Abstract

Wendet man OCCAM auf die typische ARGO-Messdichte an, kommt man zu dem Ergebnis, dass außerhalb der westlichen Begrenzung die monatliche gespeicherte Wärme in der durchmischten Schicht im subtropischen Nordatlantik einen Stichproben-Fehler von 10 bis 20 W/m² aufweist, wenn man über ein Gebiet 10 X 10 mittelt. Dieser Fehler reduziert sich zu weniger als 10 W/m², wenn man die jahreszeitliche Wärmespeicherung berücksichtigt. Fehler dieser Größenordnung zeigen, dass der ARGO-Datensatz interessant ist für die Untersuchung der Variabilität in der durchmischten Schicht in mehrere Jahre langen Zeitmaßstäben. Allerdings erhöht sich der erwartete Stichproben-Fehler auf über 50 W/m² im Gebiet des Golfstromes und nördlich von 40°N, was den Gebrauch von ARGO in diesen Gebieten einschränkt.

Und:

Unsere Analyse von Zufalls-Stichproben von Temperaturfeldern mittels des OCCAM-Modells hat gezeigt, dass das ARGO-Projekt im subtropischen Nordatlantik Temperaturdaten mit einer räumlichen und zeitlichen Auflösung zeigt, dass Ergebnisse einer Stichproben-Unsicherheit bei der Wärmespeicherung in der durchmischten Schicht in einer Größenordnung von 10 bis 20 W/m² liegt. Der Fehler wird kleiner, wenn die betrachtete Periode länger wird und man jahreszeitliche (jährliche) Zeitmaßstäbe nimmt; Reduktion auf 7 ± 1,5 W/m². Innerhalb des Golfstromes und subpolarer Gebiete sind die Stichproben-Fehler viel größer, weshalb der ARGO-Datensatz in diesen Gebieten weniger nützlich ist bei der Untersuchung der Variabilität der Wärmespeicherung in der durchmischten Schicht.

Wieder wollte ich ihre Einheit W/m² in eine Temperaturänderung konvertieren. Das Problem, das ich mit diesen in vielen Studien verwendeten Einheiten habe ist, dass „7 ± 1,5 W/m²“ mir einfach nicht viel sagt. Außerdem messen die ARGO-Bojen nicht W/m², sie messen Temperaturen und konvertieren sie zu W/m². Meine Frage bei der Lektüre der Studie lautete also: um welchen Betrag wird ihr genannter Fehler von „7 W/m²“ die Temperatur der „durchmischten Schicht“ des Nordatlantiks während eines Jahres ändern? Und was meinen sie überhaupt mit durchmischter Schicht?

Nun, sie haben sich ein merkwürdiges Element zum messen ausgesucht. Die „durchmischte Schicht“ ist die oberste Schicht des Ozeans, die sowohl vom Wind als auch dem nächtlichen Umkippen der Ozeane durchmischt wird. Im Klima-Zusammenhang ist dies interessant, weil es sich um den Teil des Ozeans handelt, der auf die sich ändernden Lufttemperaturen darüber reagiert. Die Schicht kann numerisch auf mehrere Arten definiert werden. Im Wesentlichen ist es die Schicht von der Oberfläche bis hinab zur „Thermokline“, also dem Punkt, an dem der Ozean anfängt, sich rasch mit zunehmender Tiefe abzukühlen. Jayne Doucette vom Woods Hole Oceanographic Institute hat eine wunderbare Zeichnung der meisten Dinge angefertigt, die in die durchmischte Schicht eingehen (Aus unbekannten Gründen hat sie eine der wichtigsten Zirkulationen, nämlich das nächtliche Umkippen des oberen Ozeans, weggelassen).

Abbildung 3: Die durchmischte Schicht. Sie zeigt verschiedene physische und biologische Prozesse, die in dieser Schicht ablaufen.

Der Studie zufolge lautet die von ihnen gewählte Definition, dass die durchmischte Schicht bis zu der Tiefe reicht, in der der Ozean um 0,2°C kühler ist als die Temperatur in einer Tiefe von zehn Metern. In Ordnung, kein Problem, das ist eine der Standard-Definitionen … aber wie tief reicht die durchmischte Schicht?

Nun, das Problem ist, dass die Tiefe der durchmischten Schicht sowohl nach Örtlichkeit als auch nach Jahreszeit variiert. Abbildung 4 zeigt typische Variationen in der Tiefe der durchmischten Schicht an einer einzigen Stelle pro Monat.

Abbildung 4: Typische Variationen der Tiefe der durchmischten Schicht pro Monat. Tut mir leid, die Stelle für diese Graphik ist nicht bekannt. Hinsichtlich des Temperaturniveaus tippe ich mal auf den Nordatlantik. In jedem Falle ist sie vollständig repräsentativ für die Spezies.

Man erkennt, dass sich die Temperatur bis hinunter zur Thermokline fast gar nicht ändert und danach rasch zurück geht.

Allerdings konnte ich nirgendwo eine Angabe zur mittleren Tiefe der durchmischten Schicht finden. Stattdessen habe ich daher den monatlichen Klimatologie-Datensatz 2°X2° Tiefe der durchmischten Schicht heruntergeladen mit der Bezeichnung „mld_DT02_c1m_reg2.0_Global.nc”. Daraus habe ich das gebietsgewichtete Mittel der Tiefe der durchmischten Schicht entnommen. Es stellte sich heraus, dass die mittleren Tiefen der durchmischten Schicht global etwas unter 60 Metern liegt. Der gesamte Prozess der Berechnungen und des Schreibens des Code nahm eine halbe Stunde in Anspruch … für Interessierte ist der Code beigefügt [im Original!]

Dann habe ich ihren 2°X2°-Datensatz auf ein 1°X1°-Netz umgerechnet, was natürlich hinsichtlich des Mittelwertes die gleiche Antwort lieferte. Aber damit konnte ich meine gewöhnlichen Graphikverfahren verwenden, um die Tiefe darzustellen.

Abbildung 5: Mittlere Tiefe der durchmischten Schicht rund um den Globus. Grüne und blaue Gebiete zeigen tiefer durchmischte Schichten.

Ich liebe die Klimawissenschaft wirklich, weil ich niemals weiß, was ich in Erfahrung bringen muss, um meine Forschungen durchzuführen. Dieses Mal war es die Erkundung der Tiefe der durchmischten Schicht. Wie man sich vorstellen kann, mischen die höchsten Wellen in den stürmischsten Gebieten der Ozeane diesen bis zu größter Tiefe durch, gezeigt in grün und blau. Man erkennt auch das Abbild des El Nino/La Nina entlang des Äquators vor der Küste Ecuadors. Dort blasen die Passatwinde das warme Oberflächenwasser nach Westen und belassen die Thermokline näher an der Oberfläche. So viel kann man daraus lernen … aber ich schweife ab. Ich konnte sehen, dass eine Anzahl seichter Gebiete im Nordatlantik besteht, die zur Durchführung der ARGO-Studie herangezogen wurde. Also berechnete ich die mittlere Tiefe der durchmischten Schicht im Nordatlantik (5°N-65°N, 0°W-90°W). Es ergab sich eine Zahl von 53 Metern, etwa sieben Meter höher als das globale Mittel.

Betrachten wir noch einmal die Faustregel:

Ein Watt pro Quadratmeter über ein Jahr erwärmt einen Kubikmeter Meerwasser um etwa acht Grad.

Berechnet man die Faustregel mit einer Tiefe von 53 Metern, erwärmt ein W/m² über ein Jahr 53 Kubikmeter Wasser (Tiefe der durchmischten Schicht) um etwa 8/53 = 0,15°C. Allerdings geben sie den jährlichen Fehler mit sieben W/m² an (siehe deren obiges Zitat). Dies bedeutet, dass Hadfield2007 sagen, dass die ARGO-Bojen nur die mittlere jährliche Temperatur der durchmischten Schicht im Nordatlantik bestimmen können mit einer Genauigkeit von plus/minus 1°C…

Nun, das scheint mir vernünftig. Es ist sehr, sehr schwierig, die mittlere Temperatur eines stark in Bewegung befindlichen Wasserkörpers genau zu messen, wenn es sich um den Nordatlantik oder irgendeinen anderen Ozean.

So weit, so gut. Jetzt kommt der schwierige Teil. Wir wissen, dass ARGO die Temperatur der durchmischten Schicht im Nordatlantik messen kann mit einem Fehler von ±1°C. Da erhebt sich jetzt folgende Frage: Falls wir den gesamten Ozean mit der gleichen Dichte von Messpunkten wie bei ARGO im Nordatlantik messen könnten, welcher Fehler würde dem finalen Mittelwert innewohnen?

Die Antwort hierauf ruht auf einer seltsamen Tatsache – unter der Annahme, dass die Fehler symmetrisch sind, würde der Fehler des Mittels einer Reihe von Temperaturmessungen, von denen jede seinen eigenen inhärenten Fehler enthält, kleiner sein als der Mittelwert der individuellen Fehler. Falls die Fehler alle gleich – sagen wir – E sind, dann errechnet sich die Größenordnung des Fehlers bei einer Mittelung von N Werten, von denen jeder einzelne den Fehler E aufweist mit

sqrt(N)/N

Beispiel: wenn man 100 Werte mittelt, von denen jeder einzelne den Fehler E aufweist, beträgt der Fehler ein Zehntel E (sqrt(100)/100).

Falls die 118 Fehler andererseits nicht alle gleich sind, dann wird durch sqrt(N)/N nicht der Fehler E angegeben, sondern

sqrt(E^2 + SD^2)

wobei SD die Standardabweichung der Fehler ist.

Jetzt wollen wir für einen Moment annehmen, dass der globale Ozean mit der gleichen Messdichte vermessen wird wie der Nordatlantik in der Studie. Dem ist nicht so, aber ignorieren wir das mal für einen Moment. Betrachtet man die 700 Meter tiefe Schicht, müssen wir bestimmen, wie viel größer das Volumen als das Volumen der durchmischten Schicht im Nordatlantik ist. Folgende Antwort schält sich heraus: der globale Ozean bis zu einer Tiefe von 700 Metern hat 118 mal das Volumen des NA bis 700 m.

Während wir den mittleren Fehler kennen (7 W/m² = 1°C), kennen wir unglücklicherweise nicht die Standardabweichung jener Fehler. Allerdings sagen sie, dass es viele Gebiete mit größeren Fehlern gibt. Falls wir also etwas wie eine Standardabweichung von 3,5 W/m² = 0,5°C annehmen, ist dies vermutlich ein konservativer Wert, der gut und gern auch größer sein kann.

Alles in allem: FALLS wir dir durchmischte Schicht des Nordatlantiks messen können mit einem mittleren Fehler von 1°C und einer Fehler-Standardabweichung von 0,5°C, dann sollten wir in der Lage sein, mit der gleichen Dichte von Messungen den globalen Ozean zu erfassen mit

sqrt(118)/118 * sqrt( 1^2 + 0.5^2 ) = 0.1°C

Jetzt zurück zu Loeb2012, der einen Fehler von irgendwo bei 0,005°C geltend machte … was um einen Faktor 20 zu optimistisch erscheint.

Und meine Vermutung ist: unterschätzt man den tatsächlichen Fehler um einen Faktor 20, ist dies der beste Fall [best case]. Ich sage dies, weil sie bereits gesagt haben, dass der zu erwartende Stichproben-Fehler auf über 50 W/m² im Gebiet des Golfstromes und nördlich von 40°N steigt“. Also gilt ihre Schätzung nicht einmal für den gesamten Nordatlantik.

Ich rede auch vom Best Case, weil dies nahelegt, dass a) die Fehler symmetrisch sind und b) alle Teile des Ozeans mit der gleichen Frequenz wie die oberen 53 Meter des Mittelmeeres erfasst werden. Ich bezweifle, dass irgendetwas davon stimmt, was die Unsicherheit sogar noch größer machen würde.

In jedem Falle bin ich froh, dass wieder einmal die Mainstream-Wissenschaft die interessante Arbeit verifiziert, die hier bei WUWT geleistet wird. Falls Sie sich fragen, was das alles bedeutet, betrachten Sie Abbildung 1 und bedenken Sie, dass die Fehlerbalken in Wirklichkeit zwanzig mal größer sind … dann ist es eindeutig, dass wir nichts darüber sagen können, ob sich die Ozeane erwärmen, abkühlen oder keines von beiden der Fall ist.

Link: http://wattsupwiththat.com/2015/06/06/can-we-tell-if-the-oceans-are-warming/

Übersetzt von Chris Frey EIKE




Elektro-Energiespeicherung, Notwendigkeit, Status und Kosten. Teil 1

1 Vorspann

April 2015. In einem Interview zur Energiewende erklärte der Energieexperte der IHK Nürnberg sinngemäß, welches Erfolgsmodell das EEG darstellt und dass abschließend nur noch das Speicherproblem gelöst werden  muss  – dies aber kein (wirkliches) Problem sei – noch ein bisschen Forschen und es klappt:

„.. zum Einen müssen die Speichermöglichkeiten durch Forschung und Entwicklung marktfähig gemacht werden, und zwar in großem Stil.“ 

Was der Experte da erzählte, hat der interviewenden Redakteurin gut gefallen. Dass der Experte  „vergessen“ hat, weiter zu erzählen und über die Kosten zu informieren, ist ihr nicht aufgefallen – Sie hat auch nicht danach gefragt -. Der IHK-Energieexperte ist mit dieser Ansicht – dass Speicher mit „noch ein bisschen Forschung“ gelöst sind – nicht alleine. Die bekannte Expertin C. Kemfert berichtete in einem Interview am 2.3.2015, Titel: „Kohlestrom schadet der Energiewende“, das gleiche.

Für mich war es ein Anlass, selbst nachzusehen wie der Status zur Speicherung von Elektroenergie ist. Was die Nachschau ergeben hat (und auch Fundstellen für weiterführende Publizierungen dazu) habe ich für EIKE in dieser Publizierung zusammengefasst.

2 Der EEG-Traum

Bevor die Energiespeicher behandelt werden, der unvermeidbare Überblick zum EEG. Denn ohne die Geschichte versteht man die Zukunft nicht (mehr). 

Vorwärts immer, rückwärts nimmer – der Slogan einer zusammengebrochenen Welt ist wieder-auferstanden. 

Stellungnahme BUND 2010[3]. 100 % Strom aus erneuerbaren Energien ist möglich und nötig. Hierzu ist ein Systemwechsel weg von Kohle und Atom hin zu Energieeffizienz und Erneuerbaren erforderlich. Eine Umstellung weg von Kohle und Atom zu einer vollständigen Versorgung durch erneuerbare Energien ist machbar.

Der BUND fordert eine klare politische Systementscheidung, in Deutschland aber auch in ganz Europa, dass die Weichen klar und unverrückbar auf das Ziel 100% erneuerbare Energie gerichtet werden.8 Aktuelle Planungen für neue Stromleitungen oder Stromspeicher müssen geprüft werden, ob diese für den Ausbau der erneuerbaren Energien nützlich sind.

Fachausschuss erneuerbare Energien 2010[11]. Neue Technologien werden zur Verfügung stehen, die ein Energieversorgungssystem, das auf 100% erneuerbare Energien aufbaut, versorgungssicher und kostengünstig realisierbar machen. Diese Einschätzung stimmt insoweit mit der Einschätzung der Regierungsparteien überein, die im Koalitionsvertrag das Ziel formuliert haben, „dass die erneuerbaren Energien den Hauptteil an der Energieversorgung übernehmen.“

Erneuerbare Energien haben das größte energetische und technische Potenzial aller bekannten Energiequellen. Sie sind umwelt- und klimafreundlich, global einsetzbar, in wenigen Jahren die kostengünstigsten Energiequellen und sie genießen eine außerordentlich hohe gesellschaftliche Akzeptanz. Die erneuerbaren Energien sind heimische Energiequellen und können die Nutzung von Kohle, Erdöl, Erdgas und nuklearen Energien im Strom- und Wärmemarkt schrittweise reduzieren und langfristig vollständig und dauerhaft ersetzen. Sie reduzieren damit die Abhängigkeit von Energieimporten, erhöhen die Energiewertschöpfung im Land und schaffen Arbeitsplätze.

 

Bild 2.1 Ausbauplan der erneuerbaren Energien in Deutschland. Quelle: Fachausschuss erneuerbare Energien 2010[11]

Bezüglich der Kosten ist man sich sicher. Experten belegen: nach 2015 wird der Ökostrom billiger:

Fachausschuss erneuerbare Energien 2010[11]. Betrachtet man den Verlauf der Differenzkosten (Abb. 1)] über die Jahre, so zeigt sich, dass die erneuerbaren Energien insgesamt mehr Kosten einsparen, als an Vorleistungen bis zum Erreichen des Break-Even- Punkts erbracht werden müssen. Dies bedeutet, dass der Ausbau der Nutzung der erneuerbaren Energien nicht nur im Sinne einer zukunftsorientierten Energiepolitik sondern auch ökonomisch sinnvoll ist. Bei einer jahresspezifischen Betrachtung wird das Maximum der Mehrkosten aber bereits im Jahr 2015 mit einer Summe von rund 17 Mrd. Euro erreicht.

 

Bild 2.2

3 Die nachhaltig ergänzte Naturlandschaft

Eine Landschaft gilt seitdem nur noch als nachhaltig, wenn sie wie in den nachfolgenden Bildern gezeigt aussieht. Damit diese „Nachhaltigkeits-Nachrüstung für naturbelassene Landschaften“ möglich ist, wurden von verschiedenen NGOs (von denen einige solche Bebauungen weiter unterstützen) mit viel Bürgerbeteiligung über Jahrzehnte Wald und Wiesen sorgfältig geschützt. Hoffentlich finden  nachfolgende Generationen auch Gefallen an solchen Landschaften, sonst entstehen einmal enorme Kosten für Re-Naturierungsmaßnahmen. Denn um die Ökostrom-Ausbauziele zu erreichen, muss massiv weiter zugebaut  werden.

Eine Abschätzung zeigt, wie viele Windräder in Deutschland benötigt werden:

Ahlborn 2013[15]. Zur Erzeugung von 25 Prozent des Strombedarfs sind 66.667 moderne Windräder erforderlich. Bei einer Anordnung in Windparks verteilen sich diese auf die gesamte Fläche von Deutschland … im Abstand von durchschnittlich 7,3km.

 

Bild 2.3 Windparklandschaft Dahl-Paderborn

 

Bild 2.4  Windkraftpark Nissenhörn Schleswig-Holstein

 

Bild 2.5 lt. Leser Heinzow: Dithmarschen mit der Meldorfer Bucht. 

Es gibt Uneinsichtige: In Oberbayern findet praktisch keine solche Nachhaltigkeitsverschönerung statt. Fast könnte man annehmen, die Bevölkerung wäre dagegen. Vielleicht fehlt aber nur das Geld dazu, oder es streicht einfach kein Wind über die vielen Bergrücken. Diese Gegend läuft damit Gefahr, dass sie in Zukunft wegen diesem Mangel keiner mehr ansehen will.

4 Die Auswirkungen des EEG

4.1 EEG-Vergütungssätze

Die Historie und der aktuelle Stand mit Zukunftsdaten sind vollständig bei WIKIPEDIA Erneuerbare-Energien-Gesetz[25]  hinterlegt. Anbei deshalb nur eine kurze Übersicht.

Zuerst einmal die nicht allen bekannte Tatsache, dass ein Ökostrom- Lieferant auch den Strom vergütet bekommt, den er liefern könnte, aus irgend einem Grund (in der Regel Netzüberlast) aber nicht liefern darf. Dazu kommt die Vorrangeinspeisung für Ökostrom. Ein Netzbetreiber muss zuerst allen verfügbaren Ökostrom abnehmen und darf nur eine dann noch bestehende Differenz zum wahren Bedarf aus konventionellen Kraftwerken beziehen.

WIKIPEDIA Erneuerbare-Energien-Gesetz[25]

Kann Strom produziert aber nicht eingespeist werden, etwa weil der Netzbetreiber den Anlagenbetreiber aufgrund mangelnder Netzkapazitäten oder Netzüberlastung ferngesteuert herunterfährt, steht dem Anlagenbetreiber seit dem EEG 2009 eine Entschädigung zu, die sich gewöhnlich an der sonst zu zahlenden EEG-Vergütung orientiert.

Die Einspeise-Vergütungssätze

Solche sind in ellenlangen Tabellen und Reduzierungsangaben gelistet. Anbei deshalb nur eine ungefähre Angabe, was ein aktuell neu einspeisender Öko-Energielieferant für Direkteinspeisung ungefähr bekommt. Alle Angaben sind WIKIPEDIA Erneuerbare-Energien-Gesetz[25] entnommen.

Windkraft onshore

Anfangsvergütung: 8,9 ct / kWh (mindert sich dann jährlich bis zur Grundvergütung)

Grundvergütung: 4,95 ct / kWh

Windkraft offshore

In den ersten zwölf Jahren beträgt die Anfangsvergütung für Strom aus Offshore-Windkraftanlagen  13 Cent/kWh. Nach dem Zeitraum der Anfangsvergütung (12 respektive 8 Jahre), werden pro kWh 3,5 Cent/kWh vergütet.

Photovoltaik

Die Vergütungssätze für Photovoltaik betrugen schon einmal 48,1 …45,7 ct/kWh. Zum Glück für den Geldbeutel des Stromkunden wurden diese Sätze deutlich reduziert.

Vergütungssätze für neu angeschaltete Solaranlagen

Hinweis. Dazu kommt eine monatliche Degression 0,25% bei späterer Zuschaltung (Minderung der für 20 Jahre garantierten Vergütung für Neuanlagen). Die Zahlen bedeuten wieder ct/kWh.

 

Tabelle der aktuellen Vergütung für neu einspeisende Solaranlagen

4.2 Gesamtvergütungen

Spalten:

Spalte 2: Einspeisemengen von EEG-Strom (in GWh)

Spalte 3: Einspeisemengen-Verteilung von EEG-Strom (% – Anteile)

Spalte 4: Vergütungszahlungen an Betreiber mit EEG-Umlage in 2011 (in Mio. €)

Spalte 5: Vergütungszahlungen-Verteilung an Betreiber mit EEG-Umlage in 2011  (% – Anteile)

Spalte 6: Mittlere Vergütungssätze im Jahr 2015 (ct/kWh). Unterste Zeile (13 ct/kWh) ist der Mittelwert.

Spalte 7: Für 2017 prognostizierte EEG-Stromeinspeisung (in GWh/a). Anm.: Verdopplung zu 2011  

Tabelle Elektroenergie-Einspeisekosten konventioneller Kraftwerke bis ca. 2008, Quelle WIKIPEDIA.

Fazit

In 2015 vergütet man für Ökostrom einen mittleren Netto-Einspeisepreis von 13 ct / kWh. Dazu kommen  noch Kosten für den Umbau / Erweiterung der Strom-Infrastruktur und die Speicher.

Dem gegenüber kostete der Bezug aus konventionellen Kraftwerken  mit maximal 4,5 ct / kWh früher erheblich weniger.

  

Tabelle Elektroenergie-Einspeisekosten konventioneller Kraftwerke bis ca. 2008, Quelle WIKIPEDIA.

Ein lokaler Energieversorger, der damit wirbt, fast nur noch Ökostrom zu beziehen, informiert damit lediglich, dass er den Strom für den 3 – 4fachen Preis (gegenüber dem aus konventionellen Kraftwerken) einkauft mit der Begründung, er würde damit vorsorglich die Welt vor irgend etwas retten. Dabei zwingt ihn das EEG nicht dazu.

Mit den sinkenden EEG-Vergütungssätzen lohnt sich die Direkt-Einspeisung in vielen Fällen schon heute nicht mehr, sondern nur noch der Eigenverbrauch. Als Konsequenz müssen die Versorger für diese „Eigenverbraucher“ die Infrastruktur vorhalten, denn praktisch keiner kappt wirklich auch seinen Hausanschluss, um nicht auch weiterhin noch Strom auch vom Versorger beziehen zu können. Für diese Bevorratung bekommen sie aber nichts (Anm.: Die EEG-Reform 2014 änderte dies, so dass in Zukunft auch Eigenverbrauch mit einer EEG-Umlage versehen ist. Die Umsetzung ist aber aktuell noch ausgesetzt). Bezahlen müssen das die Restkunden.

Das trifft nicht nur private Anlagen, sondern auch die regionaler Versorger. Einige haben ihre hohen Rücklagen (welche eigentlich den Kunden gehören, in der Regel aber den Städten für Quersubventionierungen überwiesen wurden) massiv in Ökoenergie investiert und schreiben nun Verluste. Eine Listung ist in einem Artikel auf EIKE 2015[27] „Münchner Stadtwerke mal wieder – Burn, burn, Bürgergeld“, nachlesbar.

Allerdings, das EEG ist ja eine Quelle neuer Innovationen und neuer Geschäftsfelder zur Lösung von Problemen, die man selber schuf und es deshalb bisher nicht gab.

Mein Versorger wirbt aktuell in großen Anzeigen „WARUM ES SICH LOHNT, SEINEN EIGENEN ÖKOSTROM ZU PRODUZIEREN.“

„…wie die Sonne auch Hauseigentümer wieder strahlen lässt“

„So wichtig die Energieende auch ist, Verbraucher spüren deren Auswirkungen vor allem auf ihrer Stromrechnung. Da ist es nur verständlich, dass sich Privatleute fragen, wie sie mit gutem Gewissen ihren Beitrag leisten und sich dabei auch ein Stück weit unabhängig machen können. Viele führen diese Überlegungen auf ihr Dach – um Solarstrom zu gewinnen. Doch mehrfache Gesetzesänderungen trugen dazu bei, dass die Vergütung von Solarstrom kontinuierlich gesunken ist.

Da hilft nur eines, den Strom selbst zu verbrauchen. Die N-Energie hat deshalb mit „N-ENERGIE SOLARSTROM“ ein neues, attraktives Produkt entwickelt. …. Ziel ist es, für Eigentümer Optionen zu schaffen, die sie weitgehend von den steigenden Energiepreisen entkoppeln können.

… Solarspeicherakkus. Mit diesen praktischen Stromreservoiren kann der tagsüber gewonnene Strom  gespeichert und nach Sonnenuntergang selbst genutzt werden.

Das ist, als wenn mein Einkaufsmarkt werben würde:

Lieber Kunde, wir haben unsere Obsttheke vollkommen auf Bio umgestellt. Leider wächst aufgrund der Bio-Mangeldüngung nur noch die Hälfte und davon ist noch ein erheblicher Teil wegen Schädlingsbefall selbst an Biofanatiker nicht verkaufbar. Es ist für Sie deshalb sehr teuer geworden. Wieder konventionelles Obst anzubieten, verbietet aber unser Ökoglauben.

Wir haben für Sie als Lösung jedoch ein attraktives Produktspektrum entwickelt. Sie können von uns Mini-Obstgarteneinheiten für Wohnzimmer und Balkon kaufen oder leasen und sogar von unseren Gärtnern pflegen lassen. Damit ziehen sie ihr eigenes Obst, werden von unserem teuren immer unabhängiger und das, ohne selbst etwas tun zu müssen. Wenn Sie dafür Umbaumaßnahmen benötigen, helfen wir selbstverständlich mit einem Förderkredit. Für die Jahreszeiten, in denen die Eigenernte nicht ausreicht, verleasen wir Ihnen zudem einen Eigenobst-Lagerplatz mit Schutzgasbegasung zur langen Haltbarkeit.

Sollte dies wider Erwarten nicht funktionieren, können Sie selbstverständlich auch das Obst bei  uns weiter kaufen. Da dessen Umsatz zurückgeht, wird es es allerdings immer teurer.

Gut, auch sonst ist der Versorger kreativ, das Geld seiner Kunden vorsorglich zum Schutz vor dem Klimawandel auszugeben, siehe: N-Energie Das CO2-Minderungsprogramm 2015[28]

„Wie in den vergangenen Jahren stellt die N-ERGIE auch 2015 Fördergelder in Höhe von 800.000 Euro zur Verfügung.

Das Programm war in den vergangenen Jahren sehr erfolgreich: Allein 2014 wurden mehr als

3.500 Maßnahmen umgesetzt, die dafür sorgten, dass ca. 6.000 Tonnen weniger Kohlendioxid

in die Atmosphäre gelangten. Doch jeder Beitrag ist wertvoll. Er ist Teil der globalen Anstrengungen, die Folgen  der Erderwärmung in den Griff zu bekommen.“

Wie wertvoll dieser Beitrag ist, kann man leicht ausrechnen. Ich verwende die Daten aus dem Blogbeitrag „CO2-Rechenstunde“:

1.000.000 t CO2 „verursachen“ nach IPCC-Forcing eine Temperaturerhöhung von 0,001 ° C

Die für 800.000 EUR eingesparten 6.000 t CO2 retten die Welt somit jährlich vor 0,000006 ° C. Hoffentlich bemerkt sie diese gute Tat auf Kosten der eigenen Kunden. Man kann über den Unterschied zwischen Wert- und Sinnvoll also streiten.

Anbei zu diesem Thema ein Auszug aus: FAZ Lomborg[29]

Makroökonomische Modelle weisen zudem darauf hin, dass der wirtschaftliche Verlust durch Erneuerbare wesentlich größer sein könnte als einfach nur deren Mehrkosten, da erhöhte Produktionskosten alle anderen Branchen schwächen und das Wachstum drosseln. Der Durchschnitt aller großen Modelle deutet darauf hin, dass die derzeitige Klimapolitik Deutschland bis 2020 jährlich 43 Milliarden Euro kostet. 

Für all diese Milliarden erreicht Deutschland sehr wenig Nutzen für das Klima. Die veranschlagten 100 Milliarden Euro für Solaranlagen sollen in den kommenden 20 Jahren die CO2-Emissionen jährlich um schätzungsweise 12,8 Megatonnen (Mt) senken. Wird diese Rechnung in einem Standard-Klimamodell durchgeführt, ist das Ergebnis eine verschwindend geringe Temperatursenkung von weniger als 0,0001 Grad Celsius bis zum Jahr 2100.

Anders gesagt: Die 100 Milliarden Euro, die Deutschland in Subventionen für Solaranlagen steckt, werden die Erderwärmung bis zum Ende des Jahrhunderts um 37 Stunden verzögern.

Sämtliche Anstrengungen, die Deutschland zur Förderung der erneuerbaren Energien unternimmt, werden geschätzt zu einer Senkung der Emissionen um jährlich 148 Megatonnen führen. Im Standard-Klimamodell führt die gesamte Förderung der nächsten 20 Jahre zu einer Reduktion um gerade einmal 0,001 Grad Celsius bis zum Ende des Jahrhunderts oder einer Hinauszögerung des Temperaturanstiegs bis zum Jahr 2100 um weniger als 18 Tage. Es sollte kaum verwundern, dass eine derart teure Klimapolitik, die so wenig Auswirkung auf das Klima hat, für die restliche Welt kaum nachvollziehbar ist.

5 Die Wende fliegt den Wendern um die Ohren

Warum Speicher immer dringlicher erforderlich werden, wurde auch auf EIKE oft berichtet und beim BmBF[19] kann man es auch amtlich nachlesen. Deshalb anbei nur eine Übersicht.

In den folgenden zwei Bildern ist aufgezeigt, wie die Situation aussieht. Im ersten Bild der installierten und zukünftigen Ökoleistung sieht man zudem deutlich, wie das Energiesystem in eine hoffnungslose Überproduktion „gefahren“ wird.

 

Bild 4.1 Aus FENES, OTH 2013[5]

 

Bild 4.2  Aus Bölkow-Studie 2010[4]

Eine Darstellung aus science-skeptical 2014[26] zeigt den Unterschied zwischen installierter- und eingespeister Ökoenergie-Leistung.

Bild 4.4


 
 Die Leitungen und sonstige Infrastruktur muss für die installierte Leistung bemessen werden (sie könnte ja einmal kommen]. Geliefert wird aber nur der „mickrige“ Zappelstrom. Für den Ökostrom müssen also bildlich gesprochen mehrspurige Autobahnen für selten durchgeführte Urlaubsfahrten gebaut werden, obwohl ein Feldweg für die gesamte, sonstige Verkehrsbelastung ausreichen würde.

Auf Agora Energiewende[17] kann man sich Einspeiseganglinien der verschiedenen Erzeugerarten für unterschiedliche Zeiträume anklicken und dann ansehen.

 

Bild 4.5 Windkraft – Einspeise-Verlauf innerhalb einer Woche

 

Bild 4.6 Stromverbrauch und Windkraft – Einspeise-Verlauf innerhalb eines Jahreszeitraums.

In der aussagekräftigeren Häufigkeitsdarstellung sah das für Solar und Wind (für 2012) so aus:

 

 Bild 4.7, Quelle Ahlborn[16]

Einspeisequalität

Mit dieser Einspeise-Fluktuation lässt sich nicht im Ansatz eine stabile Stromversorgung bereitstellen. Um es trotzdem zu erreichen, ist es unabdingbar, den „Zappelstrom“ der Erneuerbaren über verschiedene Zeiträume zu speichern. Anm.: Für eine umfangreichere Beschreibung dazu siehe science-skeptical 2014[26].

Dieses Problem der exzessiven Speicherung von Elektroenergie gab es vor der Energiewende praktisch nicht. Es ist erst durch die Energiewende entstanden – weshalb es aktuell keine Stromspeicher im erforderlichen Maßstab gibt. Und das Problem wird von zwei Seiten her immer größer:

·       Mit dem Ausbau der regenerativen Energien – Diese erzeugen immer mehr Einspeisespitzen

·       Mit dem Abschalten konventioneller Kraftwerke – Deren bisherige Grundlasteinspeisungen müssen durch Zwischenspeicherung generiert werden

Weiter geht es dann im Teil 2

6 Quellen für Teil 1 – 3

[1]

Niedersachsen-Studie 2014. Innovationszentrum Niedersachsen GmbH, Juli 2014. Studie 7983P01/FICHT-12919463-v19:“Erstellung eines Entwicklungskonzeptes Energiespeicher in Niedersachsen“ 

[3]

 Stellungnahme BUND 2010. BUND, 27. August 2010: „Stellungnahme zur Frage der Stromspeicherung im Rahmen der Netzintegration von Strom aus erneuerbaren Energien“

[4]

Bölkow-Studie 2010. Ludwig_Bölkow_Systemtechnik GmbH [LBST], 22. April 2010: „Energiespeicher in Stromversorgungssystemen mit hohem Anteil Erneuerbarer Energien“

[5]

FENES, OTH 2013. Regensburg 05.11.13: „Energiespeicher für die Energiewende Zusatzkosten vs. Zusatznutzen? Ringvorlesung Kraftakt Energiewende II“

[6]

BE e.V.  A. Hauer. Bundesverband Energiespeicher e.V., Andreas Hauer: „Energiespeicher Technologien und Anwendungen“

[7]

VCI Zwischenbericht 2013. Ein Zwischenbericht des Verbands der Chemischen Industrie (VCI), 8.Oktober 2013:  „Zukunft der Energiespeicher“

[8]

F. Endres 2015. TU Clausthal 13.04.2015, Interview mit Prof. Dr. rer. nat. Frank Endres, Institut für Elektrochemie: „Hintergründe zur Energiewende Batterien ohne Power und Windanlagen mit Gesundheitsgefahren“

http://www.deutscherarbeitgeberverband.de/aktuelles/2015_04_13_dav_aktuelles_interview_energiewende.html

[9]

Schnurbein 2012. Vladimir von Schnurbein: „Die Speicherung überschüssigen EE-Stroms durch synthetisches Methan.“

ENERGIEWIRTSCHAFTLICHE TAGESFRAGEN 62. Jg. (2012) Heft 9 

[10]

Energie GmbH 2014. Leipziger Institut für Energie GmbH, 29. Januar 2014: Kurzexpertise „Wirtschaftlichkeit Batteriespeicher Berechnung der Speicherkosten und Darstellung der Wirtschaftlichkeit ausgewählter Batterie- Speichersysteme“

[11]

Fachausschuss erneuerbare Energien 2010. Fachausschuss ForschungsVerbund Erneuerbare Energien, Juni 2010: „Nachhaltiges Energiesystem 2050  Eine Vision für ein nachhaltiges Energiekonzept auf Basis von Energieeffizienz und 100% erneuerbaren Energien“

[14]

BMUB 2004. BMUB, 30.07.2004 Mitteilung Nr. 231/04: Erneuerbare-Energien-Gesetz tritt in Kraft

http://www.bmub.bund.de/presse/pressemitteilungen/pm/artikel/erneuerbare-energien-gesetz-tritt-in-kraft/

[15]

Ahlborn 2013. Dr. – Ing. Detlef Ahlborn 2. Juli 2013: „Wie viele Windräder braucht das Land?“

[16]

Ahlborn. Blog Vernunftkraft. Dr. – Ing. Detlef Ahlborn, „Windkraft-Verfügbarkeit“

[17]

Agora Energiewende Agorameter: Stromerzeugung und Energieverbrauch

http://www.agora-energiewende.de/service/aktuelle-stromdaten/?tx_agoragraphs_agoragraphs%5BinitialGraph%5D=powerGeneration&tx_agoragraphs_agoragraphs%5Bcontroller%5D=Graph

[18]

ScienceScepticalBlog 2013. ScienceScepticalBlog, 25. März 2013: Fred F. Mueller „Aufwind nur für den Strompreis? Deutschlands Energiewende und die Realität“

http://www.science-skeptical.de/energieerzeugung/aufwind-nur-fur-den-strompreis-deutschlands-energiewende-und-die-realitat/009573/

[19]

BmBF. Bundesministerium für Bildung und Forschung: „Energietechnologien für die Zukunft,  Netze und Speicher“.

http://www.bmbf.de/de/16753.php 

[20]

NABU 2011. NABU Schleswig-Holstein  5. September 2011.  Agrargasanlagen und Maisanbau. Eine kritische Umweltbilanz

[21]

TAB 2012. TAB Arbeitsbericht Nr. 147, April 2012: „Endbericht zum Monitoring: Regenerative Energieträger zur Sicherung der Grundlast in der Stromversorgung“

[22]

Heller 2013. science-skepticalm Peter Heller, 24. November 2013: „Technikfeindlichkeit am Beispiel Elektromobilität 

[23]

Pettinger 2013. Hochschule Landshut 12.08.2013. Prof. Dr. Karl-Heinz Pettinger: „ Batteriespeicherung für Heimanwendungen“

[24]

Hartmann et al. 2012. Stuttgart, 2012: „Stromspeicherpotenziale für Deutschland“ 

[25]

WIKIPEDIA: Erneuerbare-Energien-Gesetz

http://de.wikipedia.org/wiki/Erneuerbare-Energien-Gesetz

[26]

science-skeptical 2014.  science-skeptical Blog, 19. Dezember 2014  Artikel: „Ein Fazit zu den Erneuerbaren Energien – Produktion 2014 und ein Blick in die Zukunft“.

Ein Fazit zu den „Erneuerbaren Energien“ – Produktion 2014 und ein Blick in die Zukunft

[27]

EIKE 2015. EIKE Blogbeitrag, 07.03.2015: „Münchner Stadtwerke mal wieder – Burn, burn, Bürgergeld“

http://www.eike-klima-energie.eu/news-cache/muenchner-stadtwerke-mal-wieder-burn-burn-buergergeld/

[28]

N-Energie. Das CO2-Minderungsprogramm 2015 für Kunden der N-ERGIE.

https://www.n-ergie.de/static-resources/content/resources/doc/CO2_Minderungsprogramm2015.pdf

[29]

FAZ Lomborg. FAZ 15.05.2015, Björn Lomborg, Gastbeitrag „Deutschlands gescheiterte Klimapolitik“

http://www.faz.net/aktuell/wirtschaft/energiepolitik/bjoern-lomborg-ueber-klimawandel-und-gescheiterte-klimapolitik-13580487-p3.html




Offener Brief an Tom Karl vom NOAA/NCEI bzgl. seiner „den Stillstand zerschlagenden“ Daten

Von: Bob Tisdale – unabhängiger Forscher

An: Tom Karl – Direktor NOAA/NCEI

Hallo Tom,

ich schreibe an Sie mit Bezug auf die jüngste Studie, von der Sie der Leitautor waren. Bei der Studie handelt es sich natürlich um Karl et al. (2015) Possible artifacts of data biases in the recent global surface warming hiatus (paywalled.) Darin wurden die Auswirkungen auf den kürzlichen Stillstand des Temperaturanstiegs der noch nicht implementierten Änderungen im globalen Festlands- und ozeanischen NOAA/NCEI-Datensatz präsentiert. Die Änderungen des Teiles der Ozeantemperaturen (the NOAA ERSST.v4 sea surface temperature reconstruction), nicht der Teil der Festlandstemperaturen, spielten bei Ihren Ergebnissen die größere Rolle. Die Änderungen jener Temperaturdaten der Meeresoberfläche werden durch die Studien gestützt:

● Huang et al. (2015) Extended Reconstructed Sea Surface Temperature version 4 (ERSST.v4), Part I. Upgrades and Intercomparisons und

● Liu et al. (2015) Extended Reconstructed Sea Surface Temperature version 4 (ERSST.v4): Part II. Parametric and Structural Uncertainty Estimates.

Absicht dieses Briefes ist es zu zeigen, wann und wie sich die neuen NOAA-Daten der Meeresoberfläche während des Stillstands von den Daten der nächtlichen maritimen Temperatur unterscheiden, auf denen sie basieren und welche verwendet werden für Bias-Adjustierungen während des Datenzeitraumes.

Abbildung 1 ist Abbildung 3 im Beitrag dieses Wochenendes More Curiosities about NOAA’s New “Pause Busting” Sea Surface Temperature Dataset. Die neuen NOAA ERSST.v4-Daten der Wassertemperatur zwischen 60°N und 60°S zeigen eine merklich höhere Erwärmungsrate während des Stillstands als die UKMO HadNMAT2-Daten, welche als Referenz für die Bias-Adjustierungen in Ihren neuen ERSST.v4-Daten herangezogen worden waren.

Von Januar 1998 bis Dezember 2010, dem letzten Monat der HadNMAT2-Daten, hat sich die Erwärmungsrate bei den neuen NOAA ERSST.v4-Daten gegenüber den Referenzdaten von HadNMAT2 im Wesentlichen verdoppelt. Mit anderen Worten, die HadNMAT2-Daten stützen Ihre Behauptungen hinsichtlich eines in Wirklichkeit nicht existierenden Stillstandes nicht.

Nun könnte man versucht sein zu behaupten, dass die höhere Erwärmungsrate der NOAA-ERSST.v4-Daten durch die wachsende Zahl auf Bojen basierender im Vergleich zu von Schiffen gewonnenen Daten verursacht ist. Diese Logik ist natürlich Unsinn (1), weil die HadNMAT2-Daten nicht durch den Bojen-Schiffe-Bias beeinflusst werden. Dies ist auch der Grund, warum NOAA die HadNMAT2-Daten von Anfang an als Referenz herangezogen hat. (2), weil die beiden Datensätze exakt die gleiche Erwärmungsrate zeigen während der meisten Zeit des von Abbildung 1 abgedeckten Zeitraumes. Das heißt, die Trends der beiden Datensätze sind gleich von Juli 1998 bis Dezember 2007, während eines Zeitraumes also, in dem Bojen ausgebracht worden und zur dominanten in situ-Quelle von Temperaturdaten der Ozeanoberfläche geworden sind. Siehe Abbildung 2:

Man beachte jene Magnitude der Trends während jenes Zeitraumes. Damals im Jahre 2008 haben nur wenige Menschen über die Verlangsamung der globalen Erwärmung diskutiert.

In Wirklichkeit basieren die in Abbildung 1 gezeigten Trendunterschiede auf Reaktionen von ENSO-Ereignissen. Man erkennt in Abbildung 1, dass die nächtlichen maritimen Daten der Lufttemperatur (HadNMAT2) stärker auf den El Niño von 1997/98 reagieren und als Folge davon auch stärker zurückgehen während des Übergangs zu La Niña 1998-2001. Wir konnten diese Reaktion der HadNMAT2-Daten erwarten, weil sie nicht ausgefüllt [infilled?] waren, während die größere räumliche Abdeckung der ERSST.v4-Daten dazu tendiert, die Volatilität als Folge von ENSO zu unterdrücken. Man kann die zusätzliche Volatilität der HadNMAT2-Daten in der gesamten Abbildung 2 erkennen. Am anderen Ende des Graphen in Abbildung 1 erkennt man, wie die neuen NOAA ERSST.v4-Daten der Wassertemperatur stärker auf den 2009/10-El Niño reagieren … oder noch wahrscheinlicher, sie sind unnötigerweise nach oben adjustiert worden. Die zusätzliche Auswirkung auf die Daten der Wassertemperatur nach dem El Niño von 2009/10 ist, gelinde gesagt, merkwürdig.

Wie ist dieses ungewöhnliche Verhalten zu erklären, Tom? Kann es vielleicht sein, dass die von Ihnen für die Bias-Adjustierungen gewählte Lowess-Filterung [?] die Ursache ist anstatt die lineare Glättung vorzunehmen wie von Ihnen in den ERSST.v3b-Daten zuvor angewendet? Die unterstützende Studie für die neuen NOAA-Daten der Wassertemperatur, also Huang et al. (2015), stellt hinsichtlich der Filterung fest, wie sie in Abbildung 5 gezeigt wird (Fettdruck von mir):

Die monatlichen Anpassungs-Koeffizienten [fitting coefficients] (graue Linien) werden in Abb. 5 gezeigt, welche alles in allem zur fünften Hypothese passen, dass die Verzerrungen nur sehr langsam mit der Zeit variieren. Um potentiellen Spuren von hoch frequentem Rauschen aus den Anpassungs-Koeffizienten herauszufiltern, wurde ein linear angepasster Koeffizient verwendet bei den ERSST.v3b-Daten (Smith und Reynolds 2002). Nachfolgende wiederholte ERSST.v3b-Analysen haben die wahrscheinliche Existenz einer substantiellen multidekadischen Bias-Variabilität beleuchtet während der gesamten Aufzeichnung (z. B. Kennedy et al. 2011) anstatt einfach die Variabilität während des Übergangs von hauptsächlichen Eimer-Messungen zu ERI-Messungen Anfang der vierziger Jahre. Auf die ERSST.v4-Daten wurde eine Lowess-Filterung angewendet (Cleveland 1981; Abbildung 5), was Bias-Adjustierungen während der gesamten Aufzeichnung erlaubte. Ein Filter-Koeffizient von 0,1 wird an Lowess angebracht, welcher äquivalent ist mit einem Low-Pass-Filter [?] von 16 Jahren, und welcher die Low-Frequency-Natur der erforderlichen Bias-Adjustierung repräsentiert. Grund für die Filterung ist es, die Bias-Adjustierung glatter zu machen, so dass er konsistent ist mit der Hypothese, eine klimatologische SST2NMAT-Verteilung anzubringen. Allerdings betonen wir, dass höher frequente Änderungen der SST-Verzerrungen fast mit Sicherheit existieren, wie von Thompson et al. (2008), Kennedy et al. (2011) und Hirahara et al. (2014) gezeigt. Kürzere Zeitfenster oder der Gebrauch jährlich gemittelter Daten wären aufgrund ihrer Konstruktion stärker rauschend, weil die Schätzung zu jedem gegebenen Punkt auf kleineren Stichproben basieren würde, und es ist nicht klar, an welchem Punkt dies zu einem Risiko wird, das an Randwert-Rauschen anzupassen, oder ob es sich um ein systematisches Bias-Signal handelt. Der Vorzug liegt auf einer robusten Schätzung der multidekadischen Komponente der Bias-Adjustierungen mittels Verwendung eines Koeffizienten von 0,1. Dies könnte jedoch auf Kosten genau porträtierter Verzerrungen zu Zeiten schneller Übergänge gehen (z. B. der Zeitraum 2. Weltkrieg).

Und wie oben illustriert und diskutiert, könnte die von Ihnen gewählte Filterung auch „auf Kosten genau porträtierter Verzerrungen zu Zeiten schneller Übergänge gehen“ als Folge starker jährlicher Durchdringungen von El Nino-Ereignissen während des Stillstands? Irgendwie scheint es so, als seien die Bias-Adjustierungen Bojen – Schiffe unnötig vorgenommen worden in Ihrem neuen Wassertemperatur-Datensatz nach 2007.

I look forward to your reply.

Zum Schluss

Judith Curry hat jüngst in einem Beitrag hier darüber gesprochen, dass die Ergebnisse Ihrer jüngsten Studie Karl et al. (2015) auf Methoden der Rosinenpickerei basieren:

Diese neue Studie ist vor allem interessant im Zusammenhang mit der Studie von Karl et al., in der der Stillstand ,verschwindet‘. Ich vermute, dass die wesentliche Botschaft für die Öffentlichkeit lautet, dass die Daten wirklich, wirklich unsicher sind und es viel Gelegenheit für Wissenschaftler gibt, Methoden herauszupicken, um die gewünschten Ergebnisse zu bekommen.

Ich tendiere dazu, dem zuzustimmen. Die Ergebnisse der auf die frühere Version der NOAA-Daten der Wassertemperatur angewandten statistischen Methoden (ERSST.v3b) hatte nicht die von der NOAA gewünschten Ergebnisse erbracht. Daher wurden die NOAA/NCEI-Daten unter Ihrer Leitung gemischt und mit entsprechenden Methoden behandelt, bis die von Ihnen gewünschten Ergebnisse vorlagen (ERSST.v4).

Ich freue mich auf Ihre Antwort.

Sincerely,

Bob Tisdale

Link: http://wattsupwiththat.com/2015/06/11/open-letter-to-tom-karl-of-noaancei-regarding-hiatus-busting-data/

Übersetzt von Chris Frey EIKE, der mal wieder an die Grenzen seines Wissens geführt worden ist.




Klimapolitik als matriarchalische Kontrolle Big Brother ist eigentlich eine Matrone

Kein Zweifel: Wir leben im ehemals christlich und daher individualistisch geprägten Westen längst im Anfangsstadium einer mehr oder weniger „sanften“ Diktatur, die ihren Namen nicht nennt. Die von George Orwell in seiner Dystopie „1984“ geschilderte Schreckensvision eines totalitären Polizeistaates wird durch neue Überwachungstechniken wie die automatische Gesichtserkennung, die Vorratsspeicherung von Telefon- und Internet-Verbindungsdaten, die mathematische Decodierung verschlüsselter Kommunikation und das automatische Erstellen von Bewegungsprofilen schon heute weit übertroffen. Ganz zu schweigen von der Möglichkeit der Fernsteuerung des Rest-Privatlebens der Bevölkerung durch Gebäudedämm-Vorschriften, Smartmeter und Smartgrids bei der Stromversorgung und so weiter. Die bereits vorbereitete Abschaffung des Bargeldes wird die Möglichkeiten totaler Kontrolle der Untertanen einer im Verborgenen operierenden Machtelite noch abrunden.

Orwells virtuellen „Big Brother“ darf man sich aber nicht als Patriarchen nach dem Vorbild eines weise vorsorgenden römischen Pater familias vorstellen. Es handelt sich dabei eher um eine herrschsüchtige, kastrierende, sich überall einmischende Matrone. Der ausufernde Wohlfahrtsstaat sei ein matriarchalisches Herrschaftssystem, behauptet der linke französische Philosoph Jean-Claude Michéa in seinem im vergangenen Jahr endlich auch auf deutsch erschienen Essay „Das Reich des kleineren Übels“. Schade, dass er ihn vor der Übersetzung nicht aktualisiert hat. Angela Merkels aktuelle Versuche einer bemutternden Volkspädagogik mithilfe von „Nudging“ (Anstupsen) böten reichlich Belege für seine Behauptung. Paradebeispiel für die Verhaltenslenkung von Individuen durch „Nudging“ ist das Aufmalen einer Fliege in Urinalen, was Männer veranlasst, beim Pinkeln darauf zu zielen und dadurch weniger zu kleckern. Das ist allerdings nur der eher harmlose, wenn nicht lächerliche Teil des Ansinnens.

Viel bedenklicher sind emotionale Erpressungsmethoden, wie sie zurzeit vor allem in der Klimapolitik üblich sind. Die Individuen sollen ihre Wünsche aufgeben und sich dem fabrizierten Konsens über die Notwendigkeit der Bekämpfung des von dienstbaren „Experten“ als gefährlich erklärten Klimawandels anschließen. Andernfalls droht ihnen soziale Ausgrenzung und wirtschaftlicher Ruin. Unter der heimtückischen matriarchalischen Kontrolle müsse das Subjekt sich fast unvermeidlich selbst die Schuld an seinem Undank und seiner moralischen Verkommenheit geben, schreibt Michéa. Der von der Matrone über eine masochistische, den Vater ausschließende Beziehung instrumentalisierte Selbsthass ist bekanntlich eine Ausdrucksform enttäuschter Selbstliebe. Der Narzissmus, eine durch elterliche Erziehungsfehler verursachte Reifestörung, hat nach einem kürzlich in der „Frankfurter Allgemeinen Sonntagszeitung“ erschienen Beitrag von Francesco Giammarco in den letzten Jahrzehnten deutlich zugenommen. (Wichtigster Indikator dafür sind ausgefallene Vornamen, die Eltern ihren Kindern ´geben.) Der amerikanische Historiker Christopher Lasch sprach schon gegen Ende der 1970er Jahre von der Ausbreitung einer dekadenten „Kultur des Narzissmus“. Deren Hauptursache sah er in der Infantilisierung der Menschen durch die „Segnungen“ des modernen Wohlfahrtsstaates.

Jean-Claude Michéa merkt übrigens an, dass inzwischen auch viele männliche Politiker und Manager den matriarchalischen Führungsstil beherrschen. Die unsichtbare Hand der matriarchalischen Kontrolle sei eben viel schwerer auszumachen als die sichtbare patriarchalische Unterdrückung. Deshalb habe sie sich durchgesetzt. „Es steht außer Frage“, schreibt Michéa, „dass die politische Kontrolle der totalitären Gesellschaften (im Unterschied zu der in klassischen Diktaturen) im Wesentlichen eine mütterliche ist.“  Darum geht es im Grunde bei der anlässlich des G7-Gipfels von Elmau von etlichen Journalisten-Kollegen beobachteten „Merkelisierung“ des Westens.

Der matriarchalische Führungsstil kennt keine festen Regeln. Er arbeitet, je nach Situation, wahlweise mit Verlockungen oder mit hinterhältiger, wenn nicht hinterfotziger Erpressung durch die Androhung von Liebesentzug. Worauf es ihm ankommt, ist das sture Verfolgen eines einmal von „Experten“ zum „Konsens“ erklärten fiktiven politischen Ziels um des Machterhalts willen. Diese Rolle spielen das ominöse „2-Grad-Ziel“ und die vollständige „Dekarbonisierung“ der Wirtschaft in der Klimapolitik. Wer sich diesem Ziel nicht unterordnet und sich als „Skeptiker“ zu erkennen gibt, wird als unmoralisch gebrandmarkt und gesellschaftlich isoliert. Die Klimapolitik verspricht der von innerer Leere geplagten Generation von Narzissten satte Gewinne und moralisches Ansehen durch Zukunftsinvestitionen in „erneuerbare“ Energien. Den Skeptikern hingegen droht der Ruin. Das scheint das Geheimnis des Medienerfolges unserer „Klimakanzlerin“ zu sein. Sie kann sich auf die Wirksamkeit dieses Führungsstils verlassen, weil Narzissmus nur in seltenen Ausnahmefällen als heilbar gilt.




Faktencheck: UN-Klimagespräche treten trotz G7-Forderungen auf der Stelle

Bild rechts: Die Führer der reichsten Länder der Welt haben irgendwelchen dringenden oder bindenden Klimazielen am 7. Juni 2015 auf Schloss Elmau ,Good Bye‘ gesagt. Bild: Matthias Lohse / pixelio.de

Von der GWPF:

G7-Führer vertagen das Ziel Dekarbonisierung auf das Ende dieses Jahrhunderts

Rufe der Gruppe der Sieben (G7) nach drastischer Reduktion von Kohlenstoffemissionen in der Welt haben wenig dazu beigetragen, die UN-Klimagespräche in Bonn zu befeuern, wo sich über den schneckengleichen Prozess Frustration breit macht. Die Gespräche gehen der Planung zufolge am kommenden Freitag (12.6.) zu Ende. Sie hatten die Aufgabe, einen Textentwurf für die Klimakonferenz in Paris zu formulieren, auf der ein globales Abkommen geschlossen werden muss. Aber nach einer Woche zähem Ringen wurden magere fünf Prozent aus einem ausufernden, fast 90 Seiten umfassenden Entwurf hinaus frisiert, hauptsächlich durch das Entfernen krasser Duplikationen, sagten Delegierte. — Agence France-Press, 9. Juni 2015

In einer gemeinsamen Erklärung des G7-Gipfels haben die Führer der reichsten Länder der Welt nach einem globalen Ausstieg aus fossilen Treibstoffen gerufen. Das klingt großartig, aber unglücklicherweise sprachen sie nur von einem sehr laxen Zeitmaßstab – „im Verlauf dieses Jahrhunderts“. Die Führer wollen auch „ihren Beitrag leisten, um langfristig zu einer globale Low-Carbon-Ökonomie zu kommen“, obwohl sie keinerlei gesteigerte Ambitionen erkennen ließen, in ihren eigenen Ländern die Emissionen zu drosseln. – Eric Holthaus, Slate, 8. Juni 2015

Bereits im Jahre 2009 auf dem L’Aquila-Gipfel proklamierten die G8 eine ähnliche Ankündigung. Wie hat diese den Klimagipfel in Kopenhagen beeinflusst? Zusammengefasst: G7 wiederholten in der Sprache von UNFCCC und IPCC ihre Versprechungen, bis zum Jahre 2099 kohlenstoffneutral zu werden. — Oliver Geden, 8 Juni 2015

Die Gewerkschaft GMB hat eine Eckpfeiler-Vereinbarung mit der Fracking-Industrie geschlossen mit dem Ziel, die Ausbeutung von Schiefergas und -öl in UK zu beschleunigen und die lokalen Versorgungsketten zu fördern, wenn sich dieser Bereich entwickelt. Mit einem Akt, der Umweltgruppen erzürnen dürfte, hat GMB ein Abkommen [a joint charter] mit UK Oil and Gas (UKOOG) geschlossen, welche geltend macht, dass Gas von „grundlegender Bedeutung“ für britische Industrien und Haushalte ist und weiterhin eine Schlüsselrolle im UK-Energiemix einnehmen wird. Gary Smith, der nationale Geschäftsführer von GMB [national secretary], sagte, dass Gas eine Angelegenheit der nationalen Sicherheit ist. „Unsere Wohnungen und große Teile der britischen Industrie brauchen Gas; jedwedes Bestehen auf dem Gegenteil ist nicht die reale Welt“, sagte er in einem Statement. — Jessica Shankleman, BusinessGreen, 9. Juni 2015

Die Verrückten haben ihr Asyl verlassen und die Gesamtheit dieses schönen Kontinent übernommen. Sie führen Importtarife auf billige chinesische Solarzellen ein. Und dies, wenn gleichzeitig große Teile der Politik gerade dem Gedanken verschreiben, dass wir billige Energie brauchen, um unsere gesamte Spezies davor zu bewahren, uns selbst zu kochen. Wir geben auch Hunderte Milliarden aus, um derartige billige Erneuerbare Wirklichkeit werden zu lassen. Wenn also jemand an die Tür klopft und fragt, ob wir etwas Billiges kaufen wollen, lautet unsere Antwort, ihn für dessen Kühnheit zu besteuern? Ernsthaft, Leute, wie sind wir zu einem ganzen Kontinent gekommen, der Wiege der modernen Zivilisation, und übernehmen eine solche geisteskranke Politik? — Tim Worstall, Forbes, 7. Juni 2015

Faktencheck: UN-Klimagespräche treten auf der Stelle trotz der G7-Ergebnisse

Agence France-Press, 9. Juni 2015

Forderungen der Gruppe der 7 (G7) an die Welt, die Kohlenstoffemissionen zu drosseln, haben kaum dazu beigetragen, die UN-Klimagespräche in Bonn voranzubringen, wo sich Frustration über den schneckengleichen Prozess breitmacht.

Gruppen von Ländern sprachen sich für größere Bemühungen aus, einen Entwurfstext für den nächsten Klimapakt zustande zu bringen, der auf der Konferenz in Paris allgemein übernommen werden soll. „Wir machen uns große Sorgen hinsichtlich des Fortschritts der Verhandlungen“, sagte Amjad Abdulla von den Malediven, der für die Alliance of Small Island States (AOSIS) sprach, die gegenüber dem Klimawandel sehr exponiert seien.

„Wir haben nicht den großen Sprung nach vorn getan, den wir brauchen“, sagte er auf einer Sitzung für eine Bestandsaufnahme. „Es gibt eindeutig eine dringende Notwendigkeit, substantielleren Fortschritt zu machen mit größerem Tempo als in der vorigen Woche“, sagte Nozipho Mxakatoc­Diseko aus Südafrika im Namen der so genannten G77 und China-Gruppe der Entwicklungsländer.

Mit dem bis Freitag anberaumten, 11-tägigen Bonner Gesprächen sollte ein Entwurfstext für die UN-Konferenz vom 30. November bis 11. Dezember in Paris erarbeitet werden, wo ein globales Abkommen erzielt werden muss.

Das finale Dokument soll den Willen von 195 Nationen festklopfen, den Klimawandel zurückzudrehen, Verpflichtungen gegen Treibhausgase einzugehen und Hilfe zur Verfügung zu stellen für Ökonomien ab 2020.

Aber nach einer Woche zähem Ringen wurden magere fünf Prozent aus einem ausufernden, fast 90 Seiten umfassenden Entwurf hinaus frisiert, hauptsächlich durch das Entfernen krasser Duplikationen, sagten Delegierte. Und es gab wenige ernsthafte Gespräche über die vielen dornigen Themen, die noch verbleiben.

Full story

Bis auf Weiteres vertagt: G7-Führer verschieben das Ziel der Dekarbonisierung auf das Ende dieses Jahrhunderts – Slate, 8. Juni 2015

Eric Holthaus

In einer gemeinsamen Erklärung des G7-Gipfels haben die Führer der reichsten Länder der Welt einen globalen Ausstieg aus fossilen Treibstoffen verlangt. Das klingt großartig, aber unglücklicherweise sprachen sie nur von einem sehr laxen Zeitmaßstab – „im Verlauf dieses Jahrhunderts“.

Die Führer wollen auch „ihren Beitrag leisten, um langfristig zu einer globale Low-Carbon-Ökonomie zu kommen“, obwohl sie keinerlei gesteigerte Ambitionen erkennen ließen, in ihren eigenen Ländern die Emissionen zu drosseln. Berichte vom zweitägigen Treffen in Deutschland zeigten, dass über schärfere Statements nachgedacht worden sei (hier) einschließlich eines Rufes nach Dekarbonisierung der G7-Ökonomien bis zum Jahr 2050. Diese Statements wurden jedoch ultimativ gestoppt, wahrscheinlich aufgrund von Druck durch Kanada und Japan (hier).

Obwohl das heutige Statement markig daherkommt, ist der Schwerpunkt im sehr langfristigen Bereich enttäuschend. Das G7-Treffen war eine Schauveranstaltung für Kanzlerin Angela Merkel, die ihren Anspruch auf die Führerschaft im Vorlauf der Verhandlungen im Dezember festigen wollte, wenn sich die Führer der Welt in Paris treffen. Man erwartet, dass sie dort das erste globale Klimaabkommen jemals unterzeichnen. Erwartungen hinsichtlich eines ambitionierten Ergebnisses in Paris sind während der letzten Monate immer weiter gesunken (hier), und das jetzige G7-Statement hilft da nicht viel.

Full story

G7 Business As Usual: Plus Ça Change, plus C’est La même Chose
Oliver Geden, 8. Juni 2015
German policy wonk Oliver Geden sums up the lame G7 climate statement in two tweets.
Oliver Geden ‏@Oliver_Geden
Bereits im Jahre 2009 haben die G8 in L’Aquila Ähnliches verkündet. Wie hat das den Kopenhagener Klima-Gipfel beeinflusst?

65. Wir bestätigen nochmals die Wichtigkeit der Arbeit des IPCC und vor allem seines 4. Zustandsberichtes, welcher den umfassendsten Überblick über den Zustand der Wissenschaft enthält. Wir erkennen die breite wissenschaftliche Ansicht, dass die Zunahme der globalen mittleren Temperatur verglichen mit dem vorindustriellen Level nicht über 2°C liegen sollte. Weil dieser globalen Herausforderung nur mit einer globalen Reaktion begegnet werden kann, erneuern wir unsere Bereitschaft, mit allen Ländern das gemeinsame Ziel der Reduktion globaler Emissionen um 50% bis zum Jahr 2050 zu erreichen. Dies in der Erkenntnis, dass dies impliziert, dass die globalen Emissionen so bald wie möglich ihren höchsten Wert erreichen und danach abnehmen sollten. Als Teil hiervon unterstützen wir das Ziel der entwickelten Länder, die Emissionen von Treibhausgasen im Ganzen um 80% oder mehr bis 2050 reduzieren sollten im Vergleich zu 1990 oder späteren Jahren. Konsistent mit dieser ambitionierten langfristigen Objektive werden wir wesentliche Gesamt- und individuelle Reduktionen vornehmen, wobei wir beachten, dass sich Grundlinien ändern können und die Bemühungen vergleichbar sein müssen. Genauso müssen sich große entwickelnde Ökonomien quantifizierbare Maßnahmen ergreifen, um kollektiv Emissionen signifikant zu reduzieren.

Oliver Geden ‏@Oliver_Geden
to sum up: #G7 repeating #UNFCCC + #IPCC language and promising to go carbon neutral by 2099
https://www.g7germany.de/Content/DE/_Anlagen/G8_G20/2015-06-08-g7-abschluss-eng.pdf?__blob=publicationFile&v=5 …
Der Vertrag sollte Transparenz und Zuverlässigkeit stärken einschließlich bindender Regeln, um auf dem Weg zu bleiben, Ziele zu erreichen, die mit der Zeit immer ambitionierter werden sollten. Dies sollte es allen Ländern ermöglichen, einer Low-Carbon- und belastbare Gangart einzuschlagen, die dem globalen Ziel dient, die globale Erwärmung unter 2°C zu halten.

Mit diesem Ziel sowie den jüngsten Ergebnissen des IPCC im Hinterkopf empfehlen wir, dass tiefe Einschnitte bei den globalen Treibhausgasemissionen vorgenommen werden mit einer Dekarbonisierung der globalen Wirtschaft im Verlauf dieses Jahrhunderts. Außerdem unterstützen wir … die jüngste Empfehlung des IPCC für Reduktionen um 40% bis 70% bis zum Jahr 2050 im Vergleich zu 2010, wobei wir uns klar sind, dass dies nur global geschafft werden kann. Wir verpflichten uns, unseren Beitrag zur Erreichung einer Low-Carbon-Wirtschaft einschließlich der Entwicklung und Innovation neuer Technologien für eine Transformation des Energiesektors bis 2050 zu leisten, und wir laden alle Länder ein, uns bei diesem Unterfangen zu unterstützen. Hierfür verpflichten wir uns auch, langfristige Low-Carbon-Strategien zu entwickeln.

Link: http://wattsupwiththat.com/2015/06/09/reality-check-un-climate-talks-stall-despite-g7-posturing/

Übersetzt von Chris Frey EIKE




Video 3 Essener Klimagespräch: Das Klima wird praktisch nur durch zwei natürliche Zyklen bestimmt – CO2 spielt keine Rolle

Herr Weiss zeigte in seinem Vortrag, dass Spektralanalyse und Rekonstruktion historischer Temperaturen aus Proxy-Temperaturdaten der letzten 2500 Jahre nur periodische Komponenten zeigen. Das schließt insbesondere einen wesentlichen Einfluss des (nichtperiodischen) CO2 Anstiegs in der Atmosphäre seit Beginn der Industrialisierung aus.

Video des Votrags von Prof. C.O. Weiss anlässlich des EIKE Essener Klimagespräches am 13. März 2015

Er belegt auch, wie die Temperatur der letzten 300 Jahre von nur 2 Zyklen bestimmt wird. Langfristig dominierend ist der ~200 Jahre Zyklus als der bekannte De Vries Zyklus der Sonnenaktivität. Diesem überlagert ist die bekannte, kurzfristigere irdische AMO/PDO- Oszillation mit ~65 Jahren Periode. Der zyklische Charakter des
Klimas erlaubt als Voraussage Abkühlung bis ca. 2080. Hier finden Sie das paper das Herr Weiss vorstellt.

&nb




Das „2°-Klima-Z i e l“ – Ein politisches Konstrukt !

Einführung von Michael Limburg

Die G7 Staaten, die ihrerseits nur 19 % der globalen – technisch erzeugten, versteht sich-  CO2 Emissionen weltweit besteuern, haben auf ihrem Gipfel in Schloss Elmau das 2 ° Ziel "beschlossen". Um es zu erreichen haben sie auch "beschlossen", bis zum Ende des Jahrhunderts die Dekarbonisierung der weltweiten Wirtschaft herbei geführt zu haben. Mit dem Zwischenschritt der Senkung der weltweiten CO2 Emissionen am oberen Ende der vom IPCC geforderten 40-70 % bis 2050.

Um die wahnwitzige Vermessenheit dieser "Beschlüsse" zu begreifen, stelle man sich Kaiser Wilhelm und seine, mit ihm damals leider im 1. Weltkrieg zerstrittenen, Anverwandten in Russland und Großbritannien vor. Diese hätten evtl. unterstützt durch die damaligen Weltmächte Frankreich, die USA und das Osmanische Reich bis zum Jahre 2000 ähnlich weitsichtige "Beschlüsse" gefasst.

Was wäre wohl inzwischen daraus geworden?

Nichts! Nicht mal die meisten der beschlussfassenden Staaten gibt es noch, wie z.B. das Deutsche Reich, das osmanische ebenso wenig wie kuk Österreich, das russische Zarenreich. Großbritannien und auch Frankreich – wie auch Deutschland- sind zu kleinen Mittelmächten geschrumpft, Österreich sogar zur Minimacht und die Großmacht Russland zur größeren Mittelmacht. Lediglich die USA haben an Macht und Bedeutung zugelegt. Kaum eine der vielen technischen und sonstigen Erfindungen die heute unser Leben bestimmen und erleichtern war damals bekannt, bzw. hatte irgendjemand auf der Agenda. Hätten Sie einen Physiker im Jahre 1915 gesagt, dass ein Fünftel der US-Stromerzeugung heute durch Kernspaltung innerhalb 75 Jahre erzeugt werden würde, hätten sie gesagt: "Was ist ein Kern oder Kernspaltung?" stellt zu Recht der Autor Michael Levi fest. Und diese Beispiele sind Legion.

Doch eines ist sicher: Kaiser Wilhelm wäre ausgelacht worden und hätte wohl schon früher abdanken müssen. Heute indes fällt es keinem der sonst so spitzmäuligen Journalisten, trotz umfangreichster medialer Berichterstattung und unendlicher begeisterter Kommentierung auf, welchen Unsinn die G7 Regierungschefs da von sich gaben. Nur Axel Bojanowski von SPON muckte etwas auf und beschrieb nur das  2 ° Ziel als Humbug. Welche Humbug das ist haben wir zuletzt am 19.1.15 hier auf EIKE dokumentiert, der Aktualität wegen bringen wir den Beitrag erneut.

================================================================================================

Klaus-Eckart Puls

Das "2°-Klima-Ziel“ – Ein politisches Konstrukt !

Der Natur eine "Erwärmungs-Schranke" von 2 Grad vorzuschreiben ist ein Kunst-Stück’chen, das im Land der Dichter & Denker der WBGU [1] 1996/97 erfunden hat. Der WBGU erwirkte auch, daß diese willkürliche "2°-Marke" in Richtlinien der EU aufgenommen wurde, schließlich 2007 sogar in die EU-Energie-Strategie. Danach erreichte diese Zahl auch die UN-Klimakonferenzen (COP’s), erstmals in Kopenhagen 2009. Dagegen hat der Klimarat IPCC die 2° stets nur im Rahmen von vielen Emissions-Szenarien diskutiert, jedoch nie(!) als "Ziel-Vorstellung" akzeptiert. Das ist schlüssig, weil kein wissenschaftlich gesicherter Zusammenhang zwischen CO2-Emissionen und Temperaturen existiert. Gegenteilige Behauptungen beruhen auf Modell-Annahmen. Die 2° sind eine Lottozahl.

H i s t o r i e

Bereits in den 70er Jahren wurde eine "2°-Marke" bei historischen Klima-Betrachtungen erwähnt [2]:

"William D. Nordhaus (Yale University), einer der weltweit führende Klima-Ökonomen, führte im Jahr 1975 erstmals die 2°C-Marke als kritische Grenze der Erderwärmung an. Er begründete dies mit Hilfe des normalen Bereichs langfristiger Klima-Änderungen der letzten Hunderttausende von Jahren. In diesem Zeitraum seien Schwankungen von ± 5 °C aufgetreten."

Diese damalige Überlegung hatte noch keinen Bezug zur derzeitigen AGW-Katastrophen-Debatte, denn zu dem Zeitpunkt (1975) befanden wir uns mitten drin in einer Phase zweier Jahrzehnte globaler Abkühlung [3], die auch in den Medien drastisch reflektiert wurden [4]:

"Kommt eine neue Eiszeit ?Katastrophe auf Raten …".

In neuerer Zeit war es dann der nach seine Gründung 1992 zunehmend ideologisierte und alarmistische "Wissenschaftliche Beirat der Bundesregierung Globale Umwelt-Veränderungen"  (WBGU), der im Rahmen der seinerzeit beginnenden  CO2-Klima-Hysterie schon frühzeitig über irgendwelche "zu regulierenden Temperatur-Ziele" bei der Klima-Erwärmung philosophiert hat, wobei man dort 1995 zunächst findet [5]:

"Aus der Analyse der ökologisch und ökonomisch vermutlich noch tragbaren Belastungen durch Klimaänderungen wird zunächst ein "Toleranzfenster" für die zulässigen Klimaentwicklungen festgelegt. Ökologische Grenzen ergeben sich dabei aus der Maximaltemperatur und den Temperaturgradienten, an die sich die Biosphäre noch anpassen kann."

A.a.O. ist jedoch selbst im Kapitel "A.1.1. Tolerierbare Belastung für Natur und Gesellschaft" das <2°-Ziel> noch nicht auffindbar. Lediglich einer Graphik (Abb.A1 a.a.O.) ist ein "Tolerierbarer Akzeptanzbereich für ein Temperaturfenster“ zu entnehmen : 1,3 Grad zwischen To ("derzeitige mittlere globale Temperatur 15,3°C")  und Tmax ("Tolerierbarer Akzeptanz-Bereich 16.6°C").

Das <2°-Ziel> wird dann beim WBGU erstmals 1997 ausdrücklich dokumentiert  [6]:

"Eine Erwärmung um mehr als 2°C (bezogen auf den vorindustriellen Wert) bzw. eine Erwärmungsrate von mehr als 0,2°C pro Dekade kennzeichnen demnach Klima-Änderungen, die in keinem Fall als tolerierbar angesehen werden."

Diese <2°> tauchen dann weiterhin auf in all den zahlreichen WBGU-Folgeberichten [7]. Diese umfassen Tausende und Abertausende Seiten – mit Anhängen, Erläuterungen, Hunderten von Graphiken und Tabellen. Der Aufwand an Zeit und Geld war und ist gigantisch. Ob all das wohl jemals jemand durch gelesen hat ? Der Autor hier hat es versucht, auf der Suche nach der "Erfindung" des <2°-Zieles> : Gähnende Langeweile und Erschöpfung breiten sich aus, denn neben den naturwissenschaftlichen Betrachtungen und daraus "abgeleiteten" Spekulationen und Horror-Szenarien für eine trotz alledem ungewisse  Klima-Zukunft enthalten die WBGU-Papiere  auch zahlreiche philosophische, religiöse ("Schöpfungsbewahrung") und nahezu esoterischen Passagen.

Jedoch  –  das ist nicht Thema dieses Aufsatzes hier.

Sehr bald schon hat sich dann die Politik dieser naturwissenschaftlich u.E. aberwitzigen und absurden Zahl bemächtigt, allen voran die "Klima-Rettungs-Oberlehrer" Deutschland und EU [8] :

"Die Europäische Union propagiert das 2-Grad-Ziel in ihrer Klimapolitik bereits seit dem Jahre 1996 und hat es im Jahre 2007 in den Mittelpunkt der ersten europäischen Energiestrategie gerückt."

Eine darüber hinaus gehende, politische Protokollierung erfolgte im Juli 2009 auf dem G-8-Gipfel in L’Aquila [9] :

“L’Aquila – Die großen Industriestaaten sind sich im Klimaschutz zumindest ein wenig näher gekommen: Auf dem G-8-Gipfel im italienischen L’Aquila haben sich die USA, Kanada, Japan, Deutschland, Großbritannien, Italien, Frankreich und Russland zu dem Ziel bekannt, den globalen Temperaturanstieg im Vergleich zum Beginn des Industriezeitalters auf zwei Grad Celsius zu begrenzen.“

Ganz anders beim Klimarat, wo in den IPCC-Berichten zunächst bis 2009 die "2-Grad-Marke" als ZIEL nicht erwähnt wird [10]:

"Im 4. IPCC-Sachstands-Bericht findet sich … keinerlei eindeutige Bezugsnahme auf eine Zielmarke von 2 Grad Celsius"

Das wird bestätigt in einer ausführlichen Analyse von Deutsches Institut für Internationale Politik und Sicherheit Berlin: Abkehr vom 2-Grad-Ziel [11] :

"Schon der jüngste IPCC-Report (Anm.: hier 2009) legt sich hinsichtlich einer Interpretation des in Artikel 2 UNFCCC genannten Stabilisierungsziels keineswegs fest, nicht auf eine spezifische Zielkategorie, erst recht nicht auf konkrete Höchstwerte. Der 4. Sachstandsbericht diskutiert vielmehr ergebnisoffen die Vor- und Nachteile für sechs mögliche Zielkategorien, …".

Ähnlich verhält es sich auch weiterhin im jüngsten IPCC-Bericht 2014.

Die "2°-Marke" wird dort zwar erstmals im SPM des AR5 im Jahre 2014 erwähnt [12] :

"Scenarios without additional efforts to constrain emissions (“baseline scenarios”) lead to pathways ranging between RCP6.0 and RCP8.5. RCP2.6 is representative of a scenario that aims to keep global warming likely below 2°C above preindustrial temperatures (Figure SPM.5.a+b)."

J e d o c h :

Der dazu angeführte Bezug ist wiederum, wie schon in den Vorberichten, lediglich eine Abbildung (Fig. SPM.5.a+b" ; vgl. Abbildung). Auch diese enthält das <2°-Szenario> wiederum nur als eines von sechs, wie schon in den w.o.a. IPCC-AR’s von 2001 und 2009 !

             

                        Fig. SPM.5 (IPCC 2014; http://tinyurl.com/nlf2gbe)

Folglich:

Das IPCC führt die "2-Grad-Debatte" nur als eine Möglichkeit von vielen; sehr viel zurückhaltender, als das bei den "Ober-Alarmisten" in Deutschland und bei der EU getan wird, wo die <2-Grad-Modell-Variante> zum <2-Grad-Ziel> mutiert wurde.

Bemerkenswert auch, daß selbst die ohnehin sehr alarmistischen jährlichen UNO-Klimakonferenzen (COP’s seit 1995) das <2-Grad-Ziel> nicht erfunden haben, sondern offensichtlich erst dem politischen Mainstream in Deutschland und EU – zunächst zögerlich(!) – ab 2009 folgten [8] :

"Jedoch wurde es von den 194 Teilnehmerstaaten der 15. UN-Klimakonferenz in Kopenhagen im Jahre 2009 lediglich zur Kenntnis genommen und ist somit nicht als rechtlich bindendes Ziel anerkannt."

Erst ab 2010 gab es dann bei den UN-COP’s kein Halten mehr [13]:

"2009 wurde das Ziel im Abschlußdokument der UN-Klimakonferenz in Kopenhagen aufgegriffen und auf der UN-Klimakonferenz in Cancún (Mexiko) im Dezember 2010 erstmals offiziell akzeptiert."

Das beinhaltet jedoch keinerlei völkerrechtliche Anerkennung oder gar Festschreibung, was jüngst 2014 auch wieder beim Deutschen Bundestag nachzulesen war [14]:

"Der Forscher (Anm.: H.-J. Schellnhuber) forderte daher im Namen des WBGU, das Zwei-Grad-Ziel rechtsverbindlich zu verankern. Bisher sei dieser 2010 in Cancun getroffene Beschluß in keiner Weise völkerrechtlich abgesichert."

Bei alledem:

Die rein politisch dominierten jährlichen UN-Klima-Konferenzen (COP 1-20 ; Berlin 1995 … Lima 2014) dürfen nicht verwechselt werden mit den IPCC-Konferenzen, auf denen die nur alle 5-7 Jahre erscheinenden Klimarat-Reports präsentiert werden.

Während auf den UN-COP’s seit einigen Jahren das <2°-Ziel> nun plakativ propagiert wird, spielt in den IPCC- Berichten und diesbezüglichen Konferenzen diese <2-Grad-Marke> keine hervor gehobene Rolle, sondern erscheint nur  als ein Szenario von vielen. Zumindest das darf man dem sonst eher alarmistischen Klimarat IPCC zu Gute halten.

Das ist wissenschaftlich auch folgerichtig, denn in einem Arbeitspapier des Deutschen Instituts für Internationale Politik und Sicherheit Berlin werden nochmals die vielen Unsicherheiten von Modellen und Klimafolgen klar gestellt [11] :

"In der erkennbaren Tendenz zur Vereindeutigung der Ursache-Wirkungs-Ketten wird auf Seiten von Klimapolitik und Medienöffentlichkeit zumeist ausgeblendet, daß nicht nur Aussagen über die konkreten Folgen eines Temperaturanstiegs um 2 Grad mit einem hohen Maß an Unsicherheit behaftet sind. Auch die Schätzungen über das Ausmaß des Zusammenhangs der atmosphärischen Konzentration von Treibhausgasen und dem Anstieg der globalen Durchschnittstemperatur weisen eine sehr hohe Bandbreite auf, die sich zudem von Klimamodell zu Klimamodell deutlich unterscheiden können."

Die weiter oben differenzierte Diskussion zu den IPCC-Szenarien verdeutlicht das im Detail.

W a r u m  ausgerechnet "genau" 2 Grad ?

Es gibt Tausende von Artikeln, Publikationen, Medien-Aufsätzen aller Art über diese Zahl.

J e d o c h :

Eine wissenschaftlich abgeleitete quantifizierbare Berechnung und Begründung zu dieser "ausgewählten" Zahl existiert nirgendwo !

Stattdessen wird drumrum geredet, philosophiert, schwadroniert, geplappert, geschwätzt … und über allerlei Minderungs-Quoten von CO2 und der anderen Treibhaus-Gase spekuliert und geschwafelt, um ein solches <2-Grad-Ziel> zu erreichen. Eine wissenschaftlich auch nur halbwegs überzeugende Berechnung für ausgerechnet diese Zahl gibt es nicht, und kann es auch aus physikalischen Gründen gar nicht geben! Auch beim IPCC ist es stets nur ein Szenario von vielen.

Es wird hier nicht als lohnenswert erachtet, einzelne Zitate aus der unüberschaubaren <2-Grad-Ziel-Debatte> heraus zu greifen und zu diskutieren und zu kommentieren. Jeder kann sich selbst im WEB von all diesem Durcheinander und Unfug ein Bild machen.

Man kann diese <2-Grad-Lotto-Zahl> durch eine "x-beliebige" andere Zahl ersetzen, gegebenenfalls nach oben oder unten nahezu beliebig verschieben, mit Komma-Stellen versehen oder auch nicht. Die zu Tausenden auffindbaren "Behauptungen und Erläuterungen" dazu passen zu allem – und letztlich zu NICHTS!

F a z i t :

Es handelt sich um eine politische und ideologische Zahl,
die wissenschaftlich absurd und nicht begründbar ist !

So kann es nicht Wunder nehmen, daß es dazu eine Fülle von kritischen Publikationen und Kommentaren seriöser Wissenschaftler gibt, die sogar bis in die "Alarmisten-Szene" hinein reichen.

Einige Beispiele seien in Folgendem aufgeführt :

"Internationaler Konsens" : Kritik und auch Spott für das <2-Grad-Ziel>

()  Prof. Horst Malberg (eh. Dir. d. Inst.f.Meteorologie, FU Berlin) [15] :

"Wie ideologisch vermessen muß man sein, um der Natur ein „2-Grad-Ziel“ vorzugeben. Der dominierende solare Einfluss auf unser Klima in Verbindung mit dem thermischen Gedächtnis des Ozeans wird sich auch dann nicht ändern, wenn sich der Mensch als Zauberlehrling versucht."  

()  Prof. Hans von Storch (Dir.Inst.f.Küstenf. HH) [16] :

“Politik darf sich nicht hinter angeblich wissenschaftlichen Notwendigkeiten verstecken – solche Notwendigkeiten gibt es nicht in der Klimapolitik, auch nicht das Ziel der Begrenzung der Erwärmung auf 2 Grad relativ zum vorindustriellen Zustand.“

()  Prof. Martin Claußen (Max-Planck-Institut für Meteorologie in Hamburg) [17]:

"Das Ziel, die Erderwärmung auf zwei Grad gegenüber dem vorindustriellen Zeitalter zu begrenzen, sei politisch begründet, aber nicht wissenschaftlich; allenfalls Wissenschaftler, die die Nähe zur Politik suchten, sähen dies anders. Was Claußen meint: Wissenschaftler, die apokalyptische Horrorszenarien entwerfen, erlangen Schlagzeilen. Und Wissenschaftlern mit kurzem Draht zur Politik winken Drittmittel.“

()  Prof. Reinhard Hüttl (Direktor GFZ Potsdam) [18]:

"Wie wir gesehen haben, besteht das System Erde aus einer Vielzahl von Teilsystemen. Das Klima ist eine der Schnittstellen, auf die Prozesse in Atmosphäre, Hydrosphäre, Geosphäre, Biosphäre und Anthroposphäre einwirken. Unsere Forschungen geben uns ständig neue und überraschende Einsichten in diese Prozesse und ihre verzweigten Wechselwirkungen, und wir sind immer noch weit davon entfernt, sie vollständig zu verstehen.

Vor diesem Hintergrund erscheint die Annahme, wir könnten die aktuelle Entwicklung durch Reduktion der vom Menschen verursachten Treibhausgasemissionen bis 2050 auf zwei Grad begrenzen, als fragwürdig. Eine tatsächliche Erreichbarkeit dieses Zwei-Grad-Ziels läßt sich wissenschaftlich nicht begründen, dafür sind im Gesamtsystem Erde zu viele Variablen im Spiel, und auch der Teilkomplex Klima selbst besitzt eine hohe Eigendynamik."

()  Prof. Claus Leggewie (Dir.Kulturwiss.Inst.Essen) u. Prof. Reinhard Leinfelder (FU Berlin) [19]:

Die Zwei-Grad-Leitplanke ist im politischen Jargon zum Zwei-Grad-Ziel mutiert … wer dann einen (Anm.: "einen bestimmten“) Temperaturanstieg als Leitplanke setzt, bleibt zwar Wissenschaftler. Er wird dabei aber zwangläufig politisch, und somit Partei eines Interessenkonfliktes.“

()  Nahezu vernichtend für das <2-Grad-Ziel> ist die Kritik von drei DirektorenInnen namhafter Wissenschafts-Institute [20] in einem sehr ausführlichen Interview in der FAZ [21]:

Drei große deutsche Geo-Insitute stellen sich quer zur internationalen Klimapolitik. Statt nur über Temperaturen und Emissionen sollte über ein Erdsystem-Management verhandelt werden, sagen die drei Direktoren. In Kürze soll das auf der gemeinsamen Konferenz „Klima im System Erde" in Berlin besprochen werden. Im Gespräch erläutern sie ihre Motive.“

MOSBRUGGER: "Wir wissen zu wenig, um sagen zu können, wo die Schwellenwerte für die wichtigsten Klimaelemente liegen. Das Problem, vor dem wir stehen, ist viel komplizierter als nur ein Klimawandel. Wir müssen das gesamte System in Betracht ziehen."

….

HÜTTL: "Das Klima ist dynamisch. Im Laufe der Erdgeschichte gab es immer wieder dramatische Veränderungen, die weit über eine solche Grenze von plusminus zwei Grad hinausgingen. Und das war allein auf natürliche Faktoren zurückzuführen."

……..

HÜTTL: "Wärmephasen waren nicht immer katastrophal. Sie haben auch zur Artenvielfalt beigetragen. Oder schauen Sie sich die Entwicklung vom Homo sapiens seit der letzten Warmphase vor 150 000 Jahren an. Unsere Spezies hat in dieser Zeit den Klimawandel gemeistert. Wir sind außergewöhnlich anpassungsfähig. Nur haben wir zuletzt eben eine glückliche Situation mit relativ stabilem Klima gehabt. Daher kommt sicher auch die Forderung nach der Zwei-Grad-Grenze. Das ist politisch wünschenswert, aber aus geowissenschaftlicher Sicht nicht haltbar."

…………

MOSBRUGGER: "Jetzt ausschließlich auf Emissionsreduktionen zu setzen, ist unklug. Wir müssen uns darauf einzustellen, daß sich das System immer verändert."

…………

LOCHTE: "Die Auflösung der Modelle ist nicht perfekt. Je weiter man in die Vergangenheit zurückrechnet, um so problematischer wird das. Das gilt auch für Hochrechnungen in die Zukunft."

…………..

HÜTTL: "Aus geowissenschaftlicher Sicht wird deutlich, daß wir grundsätzliche Zusammenhänge noch nicht verstehen."

……….

HÜTTL: "Die Politik konzentriert sich derzeit fast ausschließlich auf die Kohlendioxid-Reduktion. Wir wissen aber, daß das System Erde komplex ist. Es gibt natürliche Effekte, die wir so nicht einfach kontrollieren können, wie wir uns das vorgestellt haben."

…………..

MOSBRUGGER: "Es ist kein Erdsystem-Management, wenn man sich nur auf einen Parameter fokussiert."

…..

D a s  war und ist "starker Tobak" für die "2-Grad-Alarmisten" – und zwar von kompetenter Stelle !

Und das ausgerechnet  v o r  dem UNO-Klima-Gipfel in Kopenhagen im Dezember 2009.

So ist es nicht verwunderlich, daß es einen "Alarmisten-Aufschrei" gab [22]:

 “Merkel will am Klimagipfel teilnehmen und so ihr politisches Gewicht in die Waagschale werfen. Da kommt es höchst ungelegen, wenn Forscher die Sinnhaftigkeit des 2-Grad-Limits anzweifeln. Genau das aber taten drei führende deutsche Geowissenschaftler“.

… u.w.a.a.O. im FOCUS

“Dem widersprechen vier namhafte Klimaforscher um den Fachbereichsleiter Peter Lemke vom Bremerhavener Alfred-Wegener-Institut. Das Interview löse großes Befremden aus, schreiben sie in einem Kommunique.“

Nahezu pikant dabei ist es, daß sich Peter Lemke (AWI) gegen seine eigene Chefin artikulierte.

D a n n  passierte  d a s  [23]:

"Der Kopenhagener Klimagipfel ist vollständig gescheitert: Der von 30 Ländern erstellte Entwurf einer Abschluß-Erklärung wurde in der Vollversammlung vorgestellt – und unter wütenden Protesten zerrissen."

Danach zeigte selbst die "Klima-Kanzlerin" Angela Merkel Wirkung [24]:

"Doch ausgerechnet jetzt vollzieht Kanzlerin Angela Merkel eine Wende in der Klimapolitik.

Noch im Dezember sagte sie: ‚Wenn es uns nicht gelingt, die Erwärmung auf zwei Grad zu begrenzen, dann werden die Kosten für die eintretenden Schäden um ein Vielfaches höher sein als das, was wir mit einer Änderung unserer Lebensweise jetzt erreichen können.‘

Nun gilt: Merkel wird international nicht mehr versuchen, das Zwei-Grad-Ziel vertraglich durchzusetzen, also mit rechtlich verbindlichen Werten für die Reduktion von Treibhausgasen zu versehen. Sie will sich nicht wieder eine Abfuhr holen, weil sie erkannt hat, daß wichtige Länder auch beim nächsten Mal nicht mitziehen werden. Das wurde ihr vor zwei Wochen bei Nukleargipfel in Washington von chinesischen Präsidenten Hu Jintao und vom indischen Premier-Minister Mammohan Singh bestätigt. Deutschland muß nun die Grenzen seines Einflusses einsehen. Die Klimapolitik war ein Versuch, auf der großen Bühne eine Führungsrolle zu spielen. Doch die anderen sind nicht gefolgt. …

Der Kollaps von Kopenhagen hat Merkel nachhaltig verstört …. So eine Demütigung hatte sie selten erlebt … Merkel läßt im Kreis ihrer höherrangigen Kollegen erkennen, daß sie von europäischen Alleingängen nichts mehr hält“.

Wenige Monate später – im April 2010 –  reibt man sich dann die Augen, denn einige der deutschen "Ober-Alarmisten" scheinen in Kopenhagen nicht dabei gewesen zu sein, sondern auf einem ganz anderen Kongreß, wenn man vom PIK-Chef H.-J. Schellnhuber et al. in der ZEIT  [25] liest:

 “2 Grad und nicht mehr ;  Der Kopenhagen-Accord richtet die internationale Klimapolitik zum ersten Mal an einer konkreten Zahl aus.“

Nur:  D i e s e n  “2°-Accord“ gab es dort in Kopenhagen nicht, und es gibt ihn bis heute nicht, wie alle folgenden UNO-Konferenzen gezeigt haben – bis zur "COP Lima 2014" !

D a s   belegen die weiter oben dargelegten Aussagen von namhaften Naturwissenschaftlern, von denen man wohl niemanden den "bösen Klima-Skeptikern" zuordnen kann. 

Sogar innerhalb der alarmistischen Wissenschafts-Diskussion gibt es allmählich ernst zu nehmende Analysen, die sich kritisch mit dem <2-Grad-Ziel> auseinander setzen. Dazu gehört ein im WEB publiziertes 20-seitiges Arbeitspapier von Deutsches Institut für Internationale Politik und Sicherheit Berlin mit dem bemerkenswerten Titel "Abkehr vom 2-Grad-Ziel" [11].

Bevor wir hier einige u.E. beachtenswerte Überlegungen daraus zitieren, sei angemerkt: Es handelt sich um eine bezüglich der CO2-Klima-Katastrophen-Hypothese vollkommen im IPCC-Mainstream gehaltene Arbeit :

"Die hier angestellten Überlegungen dürfen keinesfalls als Plädoyer für eine spezifische Variante der Re-Formulierung des derzeit zentralen klimapolitischen Globalziels mißverstanden werden."

Dennoch präsentieren die Autoren innerhalb des AGW-Mainstreams selten zu lesende naturwissenschaftliche Wahrheiten:

"Das 2-Grad-Ziel … fungiert als zentraler Referenzpunkt der Klimadebatte, mit der bemerkenswerten Besonderheit, daß (Klima-)Politiker durchgängig darauf verweisen, es handele sich dabei um ein wissenschaftlich abgesichertes oder gar von der Wissenschaft vorgegebenes Ziel, während Klimaforschern bewußt ist, daß das 2-Grad-Ziel genuin politischer Natur ist." [a.a.O.: Fußnote 2 auf S.3].

…und weiter a.a.O. zum "2°-Ziel" :

"Aktiv treten für eine solche Leitplanke jedoch nur Teile der scientific community ein. Während das „Intergovernmental Panel on Climate Change“ (IPCC) in seinen viel beachteten Sachstandsberichten auf ein Plädoyer für das 2-Grad-Ziel verzichtet, tritt etwa der „Wissenschaftliche Beirat der Bundesregierung Globale Umweltveränderungen“ (WBGU) bereits seit Mitte der1990er Jahre für eine solche Zielbestimmung ein."

"Der 2-Grad-Konsens ist innerhalb der Klimapolitik inzwischen derart stabil, daß die Konstruktionsmodi dieser Schranke kaum noch Gegenstand einer öffentlichen Thematisierung sind, geschweige denn einmal kritisch diskutiert werden würden."

…u.w.a.a.O.:

"Wissenschaftlich ist der Versuch, eine eindeutige Grenze zwischen gefährlichem und ungefährlichem Temperaturanstieg zu ziehen, unhaltbar – das wird selbst von denjenigen Klimaforschern, die das 2-Grad-Ziel politisch unterstützen, nicht bestritten. Vorhersagen darüber, welche globale Durchschnittstemperatur in einigen Dekaden gerade noch „sicher“sein wird, lassen sich nicht zuverlässig treffen". 

U.a.a.O. zu "Globaltemperatur" :

"So ist im klimapolitischen Diskurs kaum präsent, daß eine "globale Durchschnitts-Temperatur“ selbstverständlich nicht existiert, daß es sich dabei um ein – wenn auch nützliches – wissenschaftliches Konstrukt handelt."

"Bei der „Herstellung“ der globalen Durchschnittstemperatur müssen die Werte von Tausenden über den Globus verteilten Meßstationen sinnvoll zueinander in Beziehung gesetzt werden. Dementsprechend wird nicht einfach der nominelle Durchschnittswert der gemessenen Temperaturen ermittelt, sondern vielfach eine theoriegeleitete Anpassung dieser Meßwerte vorgenommen, um verfälschende Faktoren zu nivellieren, etwa die regional ungleiche Verteilung der Meßpunkte oder die zunehmende Besiedlung der Umgebung von Meßstationen (Trenberth et al. 2007)."  

….womit der kaum irgendwo herausgerechnete Wärme-Insel-Effekt angesprochen wird, der zu einer Verfälschung der berechneten Global-Temperatur hin zu höheren(!) Werten führt.

Schließlich soll hier den Lesern eine glossierende Betrachtung des Wissenschafts-Journalisten Dirk Maxeiner zum "2°-Ziel" nicht vorenthalten werden [26]:

"Eine Politik, die nicht in der Lage ist, die Krankenkassenbeiträge zu stabilisieren, gibt nun vor, die Welttemperatur in 100 Jahren um 2 Grad regulieren zu können. Und das Schöne dabei: Man kann mit dem sogenannten Klimaschutz alles rechtfertigen, jedes Verbot, jeder Steuererhöhung. Kurz: Man kann die Menschen auf einen Horizont niedriger Erwartungen einstimmen. Also auf etwas, was man ohnehin für geboten hält. Während die Menschen die Stabilisierung der Gesundheitskosten innerhalb einer Wahlperiode überprüfen können, ist eine Erfolgskontrolle beim Klimaschutz – wenn überhaupt – erst in 100 Jahren möglich. Eine beruhigende Aussicht für jeden Politiker, der wiedergewählt werden will."

Der in allen "Lagern" anerkannte und geachtete Mathematiker und Klimaforscher Hans von STORCH, einer der Pioniere der ersten Klima-Modelle beim Max-Planck-Institut in Hamburg, bringt es auf den Punkt – kurz & klipp & klar [27] :

            “Zwei Grad ist eine politische,

                   eine sinnlose Zahl.

          Ich halte das für Verarschung“ !

Danke  –  d a s   genügt !

Klaus-Eckart Puls

==================================================================

N a c h t r a g  :

Der ganze "2-Grad-Unfug" hatte im Januar 2015 wieder mal einen Gipfelpunkt im SPIEGEL-ol. erreicht [28]:

"Studie zur Klimaerwärmung: Diese Brennstoffe müssen im Boden bleiben :

Wenn die globale Erwärmung unter zwei Grad bleiben soll, dürfen 80 Prozent der Kohlevorkommen nicht gefördert werden – das haben britische Forscher errechnet. Auch die Produktion von Öl und Gas müßte eingeschränkt werden."

Dazu werden dann wieder einmal ellenlang all die untauglichen, geheuchelten, verlogenen, wirtschafts-feindlichen, dümmlichen …. Thesen zur Welt-Klima-Rettung ausgebreitet !

==================================================================

Q u e l l e n :

[1] Wissenschaftlicher Beirat der Bundesregierung Globale Umweltveränderungen, Gründung 1992

[2] http://www.kwis-rlp.de/index.php?id=7584

[3] http://www.cru.uea.ac.uk/documents/421974/1301877/Info+sheet+%231.pdf/52a8dd1d-8c4d-49f7-b799-6448fff27150

[4] DER SPIEGEL, 33 (12.08.1974), S.38-48

[5] Szenario zur Ableitung globaler CO2-Reduktionsziele und Umsetzungsstrategien, S.29 :

http://www.wbgu.de/fileadmin/templates/dateien/veroeffentlichungen/sondergutachten/sn1995/wbgu_sn1995.pdf

[6]http://www.wbgu.de/fileadmin/templates/dateien/veroeffentlichungen/sondergutachten/sn1997/wbgu_sn1997.pdf  ; S.15

[7]http://de.wikipedia.org/wiki/Wissenschaftlicher_Beirat_der_Bundesregierung_Globale_Umweltver%C3%A4nderungen#cite_note-26

[8] http://www.kwis-rlp.de/index.php?id=7584

[9] http://www.spiegel.de/politik/ausland/0,1518,635136,00.html

[10] http://www.swp-berlin.org/fileadmin/contents/products/arbeitspapiere/Arbeitspapier_2_Grad_Ziel_formatiert_final_KS.pdf ; Mai 2010, Fußnote 2 auf S.3

[11] Deutsches Institut für Internationale Politik und Sicherheit Berlin; Forschungsgruppe EU-Integration; Stiftung Wissenschaft und Politik; Oliver Geden: Abkehr vom 2-Grad-Ziel; Skizze einer klimapolitischen Akzentverschiebung; Mai 2010; http://tinyurl.com/m5n9mvm

[12] http://ipcc.ch/pdf/assessment-report/ar5/syr/SYR_AR5_SPMcorr1.pdf

[13] http://wiki.bildungsserver.de/klimawandel/index.php/2-Grad-Ziel

[14] Deutscher Bundestag: Umwelt, Naturschutz, Bau und Reaktorsicherheit/Fachgespräch – 03.12.2014; http://www.bundestag.de/presse/hib/2014_12/-/343954 und  http://tinyurl.com/lwe9k6w

[15] Beitr. z. Berliner Wetterkarte, 28.9.2010, 58/10, SO 26/10, http://www.Berliner-Wetterkarte.de

[16] Hans von Storch: Die Nachhaltigkeit der Klimaforschung; Hannover Messe, 23.4.2010; 10-min-Statement; Seite 1, http://www.hvonstorch.de/klima/pdf/Hannover%20Messe.pdf

[17] FAZ, 12.02.2010, Eine Ungewisse Welt, Klimaimperative und Klimakonjunktive, Eine Schadensbesichtigung nach Kopenhagen

[18] Hüttl, R. F. J., Ein Planet voller Überraschungen, Spektrum Akademischer Verlag (2011), S. 8/10

[19] FAZ, 21.04.2010, S. N2

[20] Karin Lochte, Direktorin am Alfred-Wegener-Institut für Polar- und Meeresforschung; Reinhard Hüttl, Direktor am Deutschen Geoforschungs-Zentrum GFZ in Potsdam; Volker Mosbrugger, Direktor am Senckenberg-Forschungsinstitut und Museum in Frankfurt

[21] FAZ, 28.10.2009: “Ein Limit von zwei Grad Erwärmung ist praktisch Unsinn“

[22] FOCUS, 48/2009, 23.11.09, S.60

[23] http://www.spiegel.de/wissenschaft/natur/gipfel-in-kopenhagen-plenum-zerfetzt-kompromiss-papier-a-668086.html  ; 19.12.2009

[24] DER SPIEGEL, 17/2010, Schlacht bergauf, S.34-36 ; http://www.spiegel.de/spiegel/print/d-70228760.html

[25] DIE ZEIT,15.04.2010, S.30; H.-J. Schellnhuber, C. Leggewie und R. Schubert : Zwei Grad und nicht mehr;

[26] D. Maxeiner, Hurra, wir retten die Welt", WJS-Verlag, 2007, S.103

[27] DIE ZEIT, 20.08.2009, S.29

[28] http://www.spiegel.de/wissenschaft/natur/klima-wieviel-kohle-erdgas-und-erdoel-darf-noch-gefoerdert-werden-a-1011767.html ; 08.01.2015

==================================================

Anmerkung der EIKE-Redaktion:

Der vorstehende Aufsatz ist hier als Anhang (PDF) zum Download verfügbar

===================================================

Lesen Sie auch dazu die Erläuterungen von Prof. K.F. Ewert zum 2 ° Ziel hier

Related Files