1

Die erfreuliche Nachricht: Sehr gute Getreideernte 2016 in Thüringen- wo bleiben die negativen Folgen des angeblichen „Klimawandels“?

Trotz sehr wechselhafter Witterung und zeitweise dunkler Wolken zur Ernte: 2016 gab es in Thüringen eine sehr gute Getreideernte. Foto: Stefan Kämpfe

Als vorläufige Zahlen wurden für den Winterweizen 84,5 dt/ha und für Getreide insgesamt 80,4 dt/ha angegeben. Diese Zahlen können sich noch geringfügig ändern, doch könnte das bisherige Rekordergebnis von 2014 sogar noch knapp übertroffen worden sein. Irgendwie weigert sich also die Realität beharrlich, den düsteren Szenarien der „Klimafolgenforscher“, welche uns schon seit Jahrzehnten Missernten infolge des „Klimawandels“ ankündigen, zu folgen. Die folgenden zwei Grafiken zeigen uns, worauf (außer dem technologischen Fortschritt) diese erfreuliche Entwicklung zurückzuführen ist:

Anmerkung: Leider sind Werte für Thüringen erst seit 1991 verfügbar, so dass die Signifikanz nur mäßig ausfällt. Doch der positive Zusammenhang von CO2 und Pflanzenwachstum ist seit langem bekannt und war, bevor CO2 als „klimaschädlich“ in Ungnade fiel, sogar Lehrstoff im Biologie- Unterricht. Ohne CO2 gäbe es keine Photosynthese und kein Leben, wie wir es heute kennen! Trotz häufiger Trockenheit und zeitweise starkem Schädlingsaufkommen wurden diese Rekordergebnisse, von denen man in der DDR der 1980er Jahre nicht einmal zu träumen wagte, auch dank mehr CO2 in der Atmosphäre erreicht. Man braucht keine hellseherischen Fähigkeiten, um weitere Rekordernten vorherzusehen. Denn die CO2- Konzentration steigt weiter, ist aber heute mit gut 400ppm noch weit vom Optimum für unsere Kulturpflanzen (ca. 1200ppm) entfernt. Nach den Ertragsgesetzen ist CO2 noch immer ein Minimum- Faktor, dessen Zunahme stark ertragssteigern wirkt. Auch die Anbautechnik wird sich weiter verbessern. Bliebe noch anzumerken, dass auch die wenigen Winzer und die Obstbauern Thüringens einer guten Ernte 2016 entgegensehen. Und man ahnt es schon: Auch ein Mehr an Wärme würde nicht schaden- im Gegenteil, denn fast alle unsere Nutzpflanzen entstammen südlicheren Breiten.

Also Ernte gut, alles gut? Nicht ganz. Denn fallende Preise für Agrarerzeugnisse trüben die Stimmung. Während die „Energiewende“ die Erzeugungskosten in die Höhe treibt, entfiel durch das „Russland- Embargo“ ein Markt mit fast 100 Millionen Verbrauchern, was die Betriebe Ostdeutschlands besonders hart trifft. Russland baut nun seine eigenen Produktionskapazitäten massiv aus. Sollte irgendwann endlich Vernunft einkehren und das Embargo aufgehoben werden, so dürfte es trotzdem schwer werden, diesen wichtigen Markt zurückzugewinnen.

Die Originalmeldung zur Erntebilanz, welche von vielen Medien stark verkürzt übernommen wurde, finden Sie hier

http://www.bauernzeitung.de/agrarticker-ost/thueringen/bisher-bestes-ergebnis/

Stefan Kämpfe, Diplom- Agraringenieur, unabhängiger Natur- und Klimaforscher.




Neue Studie von Greenpeace Energy: Stromversorgung stabiler ohne Atomkraftwerke

Bild rechts: Der Jahresbericht 2015 der Bundesnetzagentur preist an:

Vielfältige Maßnahmen für ein Ziel – Energiewende

Klimaretter.Info  vom 05. September 2016:

[1] Stromversorgung stabiler ohne AKW

Vor fünfeinhalb Jahren hat Deutschland den Atomausstieg beschlossen – dennoch kann die Stromversorgung stabil und sicher gewährleistet werden. Das geht aus einer Studie des Beratungsunternehmens Energy Brainpool hervor, die jetzt anlässlich der "Halbzeit" der für 2022 geplanten Abschaltung der letzten AKW veröffentlicht wurde.
… Die Behauptung der europäischen AKW-Lobby, die Atomkraft garantiere eine besonders stabile Stromversorgung, sei falsch, schlussfolgerte Auftraggeber Greenpeace Energy aus den Ergebnissen der Studie. Diese zeige außerdem, dass die Kohlekraftwerke, die derzeit als Reserve für abgeschaltete Reaktoren betrieben werden, nach und nach ersetzt werden könnten.

Ministerien sind auch nicht unabhängig (und nicht klüger), deshalb erschien auch dort eine ähnliche Meldung:
[3] Bundesministerium für Wirtschaft und Energie: Versorgungsqualität in Deutschland steigt

Ein solcher Erfolg des EEG wäre eine räuige Umkehr vom bisherigen Kritiker zum Befürworter und ein Gläschen Champagner wert – wenn die Studie das EEG analysiert hätte und damit eine Aussage darüber geben würde.
So aber ist die Studie, welche Greenpeace Energy verfassen lies, wieder ein Bilderbuch-Beleg, wie man Fakten in das Gegenteil drehen lässt und Wichtiges weg lässt, um eine gewünschte Aussage zu erhalten.

Die Greenpeace Energy Studie

Studie energy brainpool:  [2] BISHERIGE AUSWIRKUNGEN DES KERNKRAFTAUSSTIEGS AUF DIE VERSORGUNGSSICHERHEIT Kurzanalyse im Auftrag von Greenpeace Energy eG

[2] Ziel der Studie
Vor diesem Hintergrund soll im Folgenden der deutsche Kernenergieausstieg bei gleichzeitigem Ausbau der erneuerbaren Stromerzeugung mit Blick auf die Versorgungssicherheit analysiert werden.

[2] … Bei konventionellen Kraftwerken können bestimmte Wettereignisse die Versorgungssituation verschärfen. So mussten in den heißen Sommern 2006 und 2007 Kraftwerke gedrosselt oder gänzlich abgeschaltet werden, um die Flusstemperaturen durch das Kühlwasser nicht über die zulässigen Grenzwerte ansteigen zu lassen. Niedrige Pegelstände von Flüssen führten bei Kohlekraftwerken im Dezember 2015 zu Versorgungsengpässen, weil die Kraftwerke nicht mehr per Schiff mit Kohle beliefert werden konnten.
Windkraft kann nach Zahlen des BMWi eine gesicherte Leistung von 7 Prozent der installierten Leistung beisteuern; mit anderen Worten existiert bei der Windkraft ein überregionaler Ausgleichseffekt: An Land oder auf See weht auch zum Zeitpunkt der Jahreshöchstlast genug Wind für 7 Prozent Einspeisung. Je größer das Gebiet ist, das für die Windkraft betrachtet wird, desto größer ist der Beitrag zur gesicherten Leistung. Bei einer gesamteuropäischen Betrachtung geht das BMWi etwa von 14 Prozent aus.

[2] … In den Folgejahren der Energiewende wird der Zubau von erneuerbaren Energien voraussichtlich zu großen Anteilen auf Wind- und Photovoltaikanlagen basieren. Um dann in einem auf erneuerbaren Energien basierenden Energiesystem weiterhin ein hohes Maß an Versorgungssicherheit zu gewährleisten, ist die Nutzung von Flexibilitätsoptionen (vgl. Energy Brainpool/Fraunhofer IWES, 2015) nötig. Flexibilitätsoptionen wie kurzfristige Speicher (z. B. Batterien) und langfristige Speicher (z. B. Power-to-Gas) können auf der Erzeugungsseite zur Erhöhung der Versorgungssicherheit beitragen. Darüber hinaus kommt der Flexibilisierung der Nachfrageseite (z. B. durch DSM) eine besondere Bedeutung zu. Denn mit DSM kann auf Basis (betriebs-)wirtschaftlicher Erwägungen die Jahreshöchstlast reduziert werden. Hierzu sind weitere Anpassungen an den Rahmenbedingungen des Strommarktes nötig (vgl. Energy Brainpool/Fraunhofer IWES, 2015), die sich mit dem Strommarktgesetz teilweise in der Umsetzung befinden.

Diskussion der Studie

Der SAIDI Wert

Die Überschrift der Meldungen lautet: Stromversorgung stabiler ohne AKW
Bezogen wird diese Aussage alleine auf den SAIDI Wert, der die Versorgungsqualität als Kennziffer ausweist. Betrachtet wird in der Studie nicht zufällig erst der Zeitraum vom Jahr 2006 an. Vorher gibt es nämlich keine Daten zum SAID – Index [3] für Deutschland. Trotzdem wird dieser Index wird als Basis für die euphorische Aussage genommen. Ob das Netz vorher nicht stabiler war, weiss also niemand. Und ob er beim aktuellen Erzeugermix überhaupt eine Aussage liefern kann, ist recht unwahrscheinlich. Jedenfalls liegt nach dieser Bewertung Deutschland in Europa erst an vierter Stelle bezüglich der Versorgungssicherheit.

Das Bild aus der Studie zeigt zudem:
-Vor dem Atomausstieg Anfang 2011, von 2006 – 2010 verbesserte sich der SAID-Index um -30,8 %
-Nach dem Atomausstieg von 2011 – 2014 verbesserte er sich nur noch um -17,6 %

Man hätte also auch texten können:
Seit Beginn des Atomausstiegs beträgt die Verbesserung der Netzqualität nur noch die Hälfte.
Damit soll gezeigt werden, dass dieser Index über den Zustand und Zukunft der EEG-Versorgung überhaupt nichts aussagt.

 

Bild 1 [2] SAIDI Wert Deutschland

[3] SAIDI Wert
Jochen Homann, Präsident der BNetzA, erläutert: "Das ist der niedrigste Wert seit Beginn der systematischen Erfassung der Stromversorgungsqualität durch die Bundesnetzagentur im Jahr 2006. Diese Verbesserung der Versorgungsqualität liegt vor allem daran, dass das Jahr 2014 nur wenige Extremwetterereignisse aufwies. Ein maßgeblicher Einfluss der Energiewende und der steigenden dezentralen Erzeugungsleistung auf die Versorgungsqualität ist auch weiterhin nicht erkennbar."
SAIDI-Wert: Es werden weder geplante Unterbrechungen noch Unterbrechungen aufgrund höherer Gewalt, wie etwa Naturkatastrophen, berücksichtigt. In die Berechnung fließen nur ungeplante Unterbrechungen ein, die auf atmosphärische Einwirkungen, Einwirkungen Dritter, Zuständigkeit des Netzbetreibers und aus anderen Netzen rückwirkende Störungen zurückzuführen sind. Die Unterbrechung muss zudem länger als drei Minuten dauern.

Deutschland liegt damit in Europa an vierter Stelle hinter Luxemburg, Dänemark, Schweiz
[4] Figure 4: Total SAIDI (planned and unplanned, including exceptional events)

Stabiler ohne AKW

Die Presseinformation suggeriert, es würde keine AKW-Versorgung mehr geben. Dabei hat die AKW-Einspeisung nur wie folgt abgenommen:
-seit 1990: 40 %
-seit 2000: 46 % (Höchststand der AKW-Einspeisung)
-seit 2007: 34,7 %

Es werden also immer noch 65,3 % AKW-Strom (bezogen auf 2006) eingespeist. Von „ohne AKW“ kann also keine Rede sein. Erst im Text wird darauf hingewiesen „ … anlässlich der Halbzeit … „.

Die Pressemeldung suggeriert weiter, dass dies ein Beleg für die Verbesserung der Stabilität trotz Ökostrom wäre.
Bild 2 zeigt, dass der komplette Grundlastanteil weiterhin von konventionellen Kraftwerken geleistet wird (Einspeiseanteil ca. 74 %). Anmerkung: Wasserkraft wird als konventionell bewertet, da diese bereits vor der EEG-Wende vorhanden war.

Bild 2 Bruttostromerzeugung in Deutschland 1990–2015 Quelle WIKIPEDIA. Anm.: Der Ökostromanteil ist durch vom Autor zugefügten, zwei weissen, gestrichelten Linien gekennzeichnet.

Noch deutlicher sieht man es anhand der AGORA-Datengrafiken. Bild 3 zeigt, was die konventionellen Kraftwerke leisten (müssen), Bild 4 zeigt, was Ökostrom als un-planbaren „Zappelstrom“ liefert und anrichtet.

 

Bild 3 Stromverbrauch Deutschland und Stromerzeugung konventionelle Kraftwerke (inkl. Kernkraft) und Wasserkraft vom 01.01.2016 – 05.09.2016. Quelle: AGORA

Bild 4 Stromverbrauch Deutschland und Öko-Stromerzeugung (ohne Wasserkraft) vom 01.01.2016 – 05.09.2016. Quelle: AGORA

Eine Studie welche behauptet, der SAIDI-Wert hätte sich durch die Verringerung der AKW-Einspeisung verbessert, kann man damit einfach als eine „Lügenpostille“ bezeichnen. Dass die Versorgungsgüte so gut ist, liegt einzig an:

-der herausragenden Qualität der konventionellen Kraftwerke und des Netzes,
-das man immer noch parallel die komplette Leistung mittels konventioneller Kraftwerke vorhält und diese nicht wie gefordert abgeschaltet hat,
-dass man im Notfall die Ökostrom-Einspeisung einfach kappt oder (so lange das noch geht) an das Ausland verschleudert:
Muttertag war EEG-Geschenktag auf Kosten der nicht privilegierten Stromkunden

  

Probleme wurden gelistet, aber nicht in die Bewertung einbezogen

In der Studie hört die Bewertung nicht zufällig mit dem aktuellen Zustand auf. Denn dass die Unstabilität erst kommen wird, wenn die konventionelle Grundlastversorgung durch politischen Zwang abgeschaltet wird, erkennt sie genau, führt es aber nicht aus.

Studie: [2]In den Folgejahren der Energiewende wird der Zubau von erneuerbaren Energien voraussichtlich zu großen Anteilen auf Wind- und Photovoltaikanlagen basieren. Um dann in einem auf erneuerbaren Energien basierenden Energiesystem weiterhin ein hohes Maß an Versorgungssicherheit zu gewährleisten, ist die Nutzung von Flexibilitätsoptionen (vgl. Energy Brainpool/Fraunhofer IWES, 2015) nötig. Flexibilitätsoptionen wie kurzfristige Speicher (z. B. Batterien) und langfristige Speicher (z. B. Power-to-Gas) können auf der Erzeugungsseite zur Erhöhung der Versorgungssicherheit beitragen. Darüber hinaus kommt der Flexibilisierung der Nachfrageseite (z. B. durch DSM) eine besondere Bedeutung zu.

Anstelle einer seriösen Bewertung fabuliert sie Lösungen, welche aktuell nicht entfernt in Sicht sind. Da können  Klimaretter.Info und Greenpeace Energy noch so frei weg unseriöse Luftschlösser malen, es geht nicht, bzw. nur mit extremen Zusatz-Kosten. Wie unser SPD Wirtschaftsminister jüngst verkündet hat, ist dies allerdings auch das Ziel seiner Partei:
Science Sceptical Blog: Wohlfahrt statt Wohlstand – Gabriels Aufbruch in die Energiearmut
Sofern die politische Landschaft in Berlin erhalten bleibt, mag sich dieser Aspekt der  Studie also bewahrheiten. Jedoch nicht mit der Überschrift „der Strom würde stabiler“, sondern der wenige, verfügbare Strom wird so teuer, dass er nur noch an Vermögende als stabiles Kontingent geliefert wird.

Warum das EEG-Netz (noch) nicht zusammen bricht, wurde ebenfalls nur gelistet, aber nicht in die Bewertung einbezogen 

Studie: [2] Die untersuchten Indikatoren zeigen, dass ein hohes Niveau an Versorgungssicherheit während des Kernenergieausstiegs bei gleichzeitigem Ausbau der Stromerzeugung aus erneuerbaren Energien aufrechterhalten wurde. Allerdings waren dafür weitere Maßnahmen nötig. Solche Maßnahmen sind insbesondere
der Ausbau, die Verstärkung und die intelligente Steuerung (smart grid) des Stromnetzes auf Übertragungs- und Verteilnetzebene wie auch das operative Verhalten der Stromerzeuger und Stromverbraucher,
das sich beispielsweise in einer Stärkung des kurzfristigen Stromhandels oder in der Anpassung des
Stromverbrauchs an das Dargebot erneuerbarer Energien (demand side management) abzeichnet. Wie
genau diese Maßnahmen im Einzelnen zur Erhaltung der Versorgungssicherheit beitrugen und welchen
konkreten Anteil sie daran hatten, bedarf weiterer Untersuchungen.

Eine seriöse Studie hätte etwas mehr dazu sagen müssen, wie die Netzstabilität trotz der hohen Ökostrom-Einspeiseschwankungen erhalten wird und vor allem dies auch in die Bewertung mit einbeziehen müssen. Der wesentliche Teil (wie komplettes, konventionelles Backup an Versorgung) wurde bereits in einem vorher gehenden Kapitel angesprochen, doch es kommen weitere dazu:

-Inzwischen werden die unteren Spannungsebenen teuer mit geregelten Trafos ausgerüstet, um die Spannungspegel (noch) in den zulässigen Grenzen zu halten, was nur funktioniert, wenn genügend Verbraucher vorhanden sind.
EIKE: Die neuen Energien im Jahr 2015 und im Jahr 2050 für Dummies, Teil 2 intelligente Versorgungsnetze
-Es müssen immer mehr Netzeingriffe erfolgen, um es stabil zu halten (Bild 5).

 

Bild 5 Netzeingriffe von 02.042013 bis 31.08.2016, MWh / Netzeingriff (linke Achse MWh), Anzahl Netzeingriffe (rechte Achse Anzahl). Zeitraster jeweils von April – April. Grafik vom Autor anhand der Daten von: Netztransparenz.de, Redispatch-Maßnahmen, erstellt

Bundesnetzagentur, 3. Quartalsbericht 2015 zu Netz- und Systemsicherheitsmaßnahmen:

Gegenüber dem Jahr 2014 hat sich die Redispatchgesamtmenge im Jahr 2015 damit mehr als verdreifacht. Diese Entwicklung schlägt sich ebenfalls in den Kosten nieder. Durch eine erste Abschätzung der ÜNB wurden die Kosten der Redispatchanforderungen (ohne Countertrading) auf rund 402,5 Mio. Euro taxiert. Im Jahr 2014 betrugen die Kosten noch rund 185,4 Mio. Euro. Redispatchmaßnahmen wurden in allen Regelzonen, insbesondere aber von TenneT und 50Hertz, ergriffen.

 

Bild 5.1 Bild der Redispatchmaßnahmen nach Stunden. Quelle: Bundesnetzagentur: Redispatch

Weiter fabuliert die Studie von einer Grundlastfähigkeit des Windstromes:

[2] Windkraft kann nach Zahlen des BMWi eine gesicherte Leistung von 7 Prozent der installierten Leistung beisteuern; mit anderen Worten existiert bei der Windkraft ein überregionaler Ausgleichseffekt: An Land oder auf See weht auch

zum Zeitpunkt der Jahreshöchstlast genug Wind für 7 Prozent Einspeisung. Je größer das Gebiet ist, das
für die Windkraft betrachtet wird, desto größer ist der Beitrag zur gesicherten Leistung. Bei einer gesamteuropäischen Betrachtung geht das BMWi etwa von 14 Prozent aus.

Dass Windkraft nicht grundlastfähig ist, wurde auf EIKE schon mehrmals, auch vom Autor dargelegt:
Ein EEG-Märchen wird zum Öko-Dogma – Offshore Windkraft sei grundlastfähig 

Dazu der Bereitstellungsverlauf Offshore Windkraft im Jahr 2015 (Bild 6). Die Einspeisung kann fast auf 0 fallen. Natürlich ist es bei onshore-Anlagen etwas besser. Jedoch gibt es die Leitungen von der Nordsee in den Süden nicht in ausreichendem Maß. und selbst wenn, entständen dadurch Verluste in erheblicher Größenordnung, welche die geringfügigen „pseudo-Grundlastfähigkeiten“ zur Makulatur machen würden. Auch wird in der Studie nicht erwähnt, dass es Ziel des EEG-Netzes ist, auf regionale Verteilnetze zu reduzieren, womit der „überregionale Ausgleichseffekt“ sowieso unmöglich wird.

Bild 6 Energie-Bereitstellung Windkraft onshore im Jahr 2015. Quelle AGORA

Kohlekraftwerke, die derzeit als Reserve für abgeschaltete Reaktoren betrieben werden, könnten nach und nach ersetzt werden.

In der Mitteilung von Klimaretter.Info steht: [1] Diese (Studie) zeige außerdem, dass die Kohlekraftwerke, die derzeit als Reserve für abgeschaltete Reaktoren betrieben werden, nach und nach ersetzt werden könnten.

In der Studie ist darüber allerdings nichts zu finden. Dort stehen nur beispielhaft Hoffnungen und Forderungen wie:

[2] Der weiteren Flexibilisierung des Strommarkts durch die konsequente Etablierung des Demand-SideManagements, durch kurzfristige Speicher (z. B. Batterien) und langfristige Speicher (z. B. Power-to-Gas) kommt dabei eine Schlüsselrolle bei der Anpassung des Stromsystems auf hohe Anteile erneuerbarer Energien bei einem gleichzeitig hohen Niveau an Versorgungssicherheit zu. Parallel zur Flexibilisierung des Energiesystems muss das Stromnetz, das ursprünglich auf große und zentrale Erzeugungsanlagen ausgerichtet war, auf eine zunehmend kleinteiligere und dezentrale erneuerbare Erzeugungsstruktur mit einer anderen geographischen Verteilung angepasst werden.
Wenn dieser Umbau des Energiesystems marktwirtschaftlich gelingen soll und dabei Synergien eines gemeinsamen europäischen Binnenmarktes genutzt werden sollen, müssen auch die regulatorischen Rahmenbedingungen auf nationaler und europäischer Ebene entsprechend angepasst werden.

Aus solchen vagen Fabulierungen abzuleiten: „ … könnten nach und nach ersetzt werden … „ ist typisch für Professorin C. Kemfert: Eine Professorin klärt den VDI auf, wie das EEG „wirklich“ funktioniert
Man hat keine Lösung (wie es die Studie selbst sagt), aber viele Ideen. C. Kemfert erklärt die Ideen einfach zu Lösungen. Dafür wird sie allseits hofiert, denn es ist genau das, was die Politik hören will.
Allerdings ist die Bundesregierung wohl nicht so optimistisch, wie ihre Energieberater(-innen). Sie rechnet wohl bald mit ersten Blackouts, wie ihr jüngster Aufruf zur privaten Bevorratung zeigt.

Fazit

Es ist immer wieder erschütternd, wie dick und unverblümt in Studien Behauptungen aufgestellt werden, die bewusster Irreführung gleich kommen. Und es ist noch erschütternder, dass angebliche Fachpersonen bis zu Regierungeberater(-innen) solches unterstützen und befürworten.

Man bekommt mit unserer Klima- und EEG-hysterischen Umweltministerin, Frau Hendricks langsam Mitleid. Wie soll diese Person mit erkennbar wenig Ahnung zu ihren Aufgabengebieten, aber einem unerschütterlichen Ökoglauben die richtige Information bekommen, wenn ihre Berater(-innen) sie darüber falsch, bzw. nur ideologisch gefiltert informieren.
Denn dass Frau Hendricks ab und zu bei EIKE vorbei sieht und sich die Information dort kostenlos holt, ist eher unwahrscheinlich (was nichts kostet, kann nichts Wert sein).

Quellen

[1]
Klimaretter.Info 05. September 2016: Stromversorgung stabiler ohne AKW
http://www.klimaretter.info/energie/nachricht/21867-stromversorgung-stabiler-ohne-akw

[2]
energy brainpool: BISHERIGE AUSWIRKUNGEN DES KERNKRAFTAUSSTIEGS AUF DIE VERSORGUNGSSICHERHEIT
Kurzanalyse im Auftrag von Greenpeace Energy eG
http://www.greenpeace-energy.de/fileadmin/docs/pressematerial/Hinkley_Point/2016-08-30_Energy-Brainpool_Kurzstudie_Kernenergieausstieg-und-Versorgungssicherheit_Greenpeace-Energy_3.Entwurf.pdf

[3]
Bundesministerium für Wirtschaft und Energie: Versorgungsqualität in Deutschland steigt
https://www.bmwi-energiewende.de/EWD/Redaktion/Newsletter/2015/16/Meldung/infografik-versorgungsqualitaet.html

[4]
CEER Benchmarking Report 5.2 on the Continuity of Electricity Supply Data update Ref: C14-EQS-62-03 12 February 2015




Virtual Reality im Berliner Tagessspiegel – Umweltredakteurin Dagmar Dehmer behauptet, dass die AfD „den Klimawandel nicht mal als Realität anerkennt“

Der Berliner Tagesspiegel ist seit jeher die Lieblingslektüre von Berlins Bürgerlichen. Doch sie haben entweder nicht bemerkt, dass das ehemals liberale Blatt sich im letzten Jahrzehnt zu einem Sturmgeschütz der grün-linken Bewegung gewandelt hat, oder sie haben selber nach ihrem Marsch durch die Institutionen samt Umzug in die höheren Gefilde des Berufsbeamtentums diese Wandlung als Beleg für ihre immer noch 68er  Ideale herbeigeführt. Und, da wie wir wissen, dass ein Großteil der Journalisten nach links oder grün – eigentlich zu beiden- tendieren, sind manch von ihnen auch beim Tagesspiegel gelandet.

Sei es wie es sei, in diesem Milieu wirkt seit vielen Jahren die Journalistin Dagmar Dehmer und verantwortet in dieser Eigenschaft stark grün eingefärbte Umweltartikel. Das ist ihr gutes Recht und hilfreich ist dabei sicher, dass Frau Dehmer bis 1993 Co-Landesvorsitzende der Grünen in Baden-Württemberg war.

Man kann ihr auch kaum verübeln, dass sie ihre grüne Gesinnung lieber über die Medien in die Öffentlichkeit bringt,  als das Haifischbecken mit anderen Parteifreunden dazu zu nutzen.

Auf der  Website  der Online Ausgabe der Zeit, für die sie auch schreibt, erfahren wir, dass Ihre Leidenschaft Umweltthemen, dem Klimawandel und Afrika gilt.

Update 14.9.16:Abb. 1

Das Rätsel ist gelöst! Der fleißige Rechercheur Rainer Hoffmann konnte nach vermutlich langen auch nächtelangen Fernsehrecherchen klären, wie Frau Dagmar Dehmer auf ihre verwunderliche Behauptung kam, dass die AfD den Klimawandel nicht als Realität anerkenne, obwohl im Programm, dass sie auch zitiert, wortwörtlich und für jeden mit klarem Kopf verständlich, das genaue Gegen zu lesen ist. Die Erklärung: Sie hat vermutlich den ZDF Kinderkanal geschaut und dann dort abgeschrieben. Evtl. möglich ist aber auch, dass Frau Dehmer den Text dort selber geschrieben hat, passt er doch so gut in ihr Weltbild.

All das kann man gut finden, oder auch nicht, aber es wäre kein Anlass über Frau Dehmer hier einen kleinen Artikel zu schreiben.

Doch mit ihrem Artikel über die Aufweichung der Klimaziele im „Klimaschutzplan 2050“ der Bundesumweltministerin, der nur in der Printausgabe des Tagessspiegel vom 8. September erschien, ist das anders. Denn darin hat sie einmal mehr bewiesen, dass ihr Glauben vor Realität geht.

„…dass die AfD „den Klimawandel nicht mal als Realität anerkennt“. 

Das war, bisher jedenfalls für jeden guten Journalisten absolut verboten, man denke nur an Rudolf Augsteins legendäres Gebot an seine Redakteure: „Schreiben was ist!“ oder an den Hanns-Joachim Friedrich (fälschlich) zugeschriebene Satz: Ein (guter) Journalist macht sich mit keiner Sache gemein… auch nicht mit einer guten“

Frau Dehmer hält sich leider nicht daran (ebenso wenig wie die Spiegelredakteure von heute, möchte man hinzufügen) und mutiert damit flugs von der Journalistin zur Propagandistin.

Was war geschehen?

Ihr Artikel in der Printausgabe des Berliner Tagesspiegel vom 8.9,16 beschäftigt sie sich mit dem Klimaschutzplan 2050 der Bundesregierung, der jetzt in die Ressortabstimmung geht. Er trägt die Überschrift: „Text mit Lücken“ und den Untertitel: “Der Klimaschutzplan 2050 geht ohne Zeitpläne und ohne konkrete Vorgaben in die Ressortabstimmung – aus Angst vor der AfD“.

Soweit so klar, und wie ich hinzufügen möchte, soweit so gut. Im Text übernimmt Frau Dehmer dann die Positionen von Greenpeace, Naturschutzbund,  den Grünen und Linken, die sie als Beleg anführt und mit ihnen bedauert, dass im Klimaschutzplan 2050 fast jeder Zeitplan und andere konkrete Zahlen – wie der Zeitpunkt des Kohleausstiegs – herausgestrichen wurden.

Auch das mag sie zwar ärgern, ist aber immer noch im Rahmen normaler journalistischer Tätigkeit zu sehen. Auch die von ihr in der Überschrift geäußerte Vermutung, dass all das aus „Angst vor der AfD“ passierte kann man als Meinungsäußerung unbeanstandet lassen.  Es stimmt vielleicht ja auch. Dass sie die AfD nicht leiden kann, mag man ihr auch nachsehen, nicht aber, dass sie dann, im Bestreben die AfD unbedingt als ein bisschen blöd, im besten Fall als unseriös erscheinen zu lassen, den Halb-Satz einfließen lässt: „…dass die AfD „den Klimawandel nicht mal als Realität anerkennt“.

…Sie haben den Satz vermutlich verbrochen

Da das ganz eindeutig falsch ist, und da ich Frau Dehmer schon früher mal persönlich begegnet war und zudem dachte, dass das so nicht  stehen bleiben sollte, schrieb ich ihr am 9.9.16 um 9:55 Uhr  die folgende freundliche Email (in den folgenden Mails habe ich kleine Schreibfehler korrigiert.)

Liebe Frau Dehmer,

ich habe Sie ja schon anlässlich der Podiumsdiskussion beim Bundesanstalt für politische Bildung (Faktencheck hier  als eine Journalistin erlebt, die ihre Phantasie gern auch mal über die Fakten stellt. In Ihrem Artikel "Der Klimaschutzplan 2050 geht ohne Zeitplan..“ behaupten Sie wahrheitswidrig, dass die AfD „den Klimawandel nicht mal als Realität anerkennt“. Würden Sie bitte so freundlich sein und dies mit Quellenangabe belegen?. 

Im AfD Grundsatzprogramm (hier) steht in der ersten Zeile des betreffenden Abschnittes (Seite 61) das genaue Gegenteil Ihrer Behauptung: "Das Klima wandelt sich, solange die Erde existiert.“ 

Ich verbleibe mit freundlichen Grüßen

Ihr

Michael Limburg

Vizepräsident EIKE (Europäisches Institut für Klima und Energie)

Tel: +49-(0)33201-31132

http://www.eike-klima-energie.eu/

Wenige Stunden (um 16.01 Uhr) später kam die uneinsichtige und – wie ich finde- etwas kesse Antwort:

Sehr geehrter Herr Limburg,

ich habe keine Ahnung, wie Sie folgenden Absatz aus dem AfD-Grundsatzprogramm, Seite 79, zu interpretieren gedenken. Aber er deckt eindeutig meinen Satz in meinem Text.

"Das Klima wandelt sich, solange die Erde existiert. Die Klimaschutzpolitik beruht auf hypothetischen Klima-Modellen basierend auf  computergestützten Simulationen des IPCC („Weltklimarat“). Kohlendioxid (CO2) ist kein Schadstoff, sondern ein unverzichtbarer Bestandteil allen Lebens."

Da Sie diese Sätze vermutlich verbrochen haben, dürfen sie Ihnen bekannt vorkommen.

Weiter viel Spaß bei der AfD,

Dagmar Dehmer

Da es sich meiner Meinung nach nicht um eine literarische Interpretation eines dichterischen Textes, sondern um eine klare Fehlinformation der Leser handelt, konnte ich das nicht so stehen lassen und schrieb ihr etwas förmlicher am selben Tag um 22.29 Uhr zurück:

Sehr geehrte Frau Dehmer,

Sie weichen wie erwartet aus. 

Fakt ist, an keiner Stelle des Programms der AfD ist Ihre Behauptung  auch nur im Ansatz hinein zu „interpretieren“: dass die AfD „den Klimawandel nicht mal als Realität anerkennt“

Das Gegenteil ist richtig. So steht es im ersten Satz klar und deutlich.

Dass Sie keine Ahnung haben geben Sie ja nun selbst zu, aber dass Sie es trotzdem für richtig halten Ihren Lesern statt Fakten ihre „Interpretationen“ aufzutischen, spricht nicht für einen Journalismus nach dem Verständnis von Hajo Friedrich und Rudolf Augstein: "Berichten was ist!“ Es ist reine Propaganda.

Im Übrigen gibt es an dem von Ihnen jetzt korrekt zitierten Sätzen aus dem Programm nichts zu „interpretieren“. Die sprechen klar und deutlich aus „was ist“. 

Sollten Sie anderer Meinung sein, dann belegen Sie diese bitte mit Fakten, wie schon in der ersten Mail gefordert.

Ich freue mich darauf

und verbleibe mit freundlichen Grüßen

Ihr

Michael Limburg

Vizepräsident EIKE (Europäisches Institut für Klima und Energie)

Tel: +49-(0)33201-31132

http://www.eike-klima-energie.eu/

Auch diesmal ließ die Antwort nicht lange auf sich warten, jedoch statt Einsicht zu zeigen schrieb sie am selben Tag um 22:44

Sehr geehrter Herr Limburg,

da Ihre Interpretation der Klimafakten mit der Realität nichts zu tun hat, werde ich mich nicht auf Ihre Spielchen einlassen.

Damit beende ich dieses Gespräch.

Mit freundlichem Gruss,

Dagmar Dehmer

Nun, das war  zwar keine Antwort auf meine Mail, aber in der Sache nun wirklich eindeutig und falsch. Frau Dehmer nimmt ihre Phantasie für die Realität und blendet die Realität selber völlig aus. Sie zieht ihre Virtual Reality vor. Aber, auch das zeigt die Mail, sie weiß auch nicht mehr weiter und versucht sich aus der Affäre zu ziehen, in dem sie das Gespräch abbricht.

Wer nichts weiß, muss alles glauben.

Das wiederum wollte ich ihr nicht erlauben und sandte ihr am nächsten Morgen um 8:34 die folgende Mail:

Sehr geehrte Frau Dehmer,

das ist neu:

Sie glauben wirklich, dass die Sätze "Das Klima wandelt sich, solange die Erde existiert. Die Klimaschutzpolitik beruht auf hypothetischen Klima-Modellen basierend auf  computergestützten Simulationen des IPCC („Weltklimarat“). Kohlendioxid (CO2) ist kein Schadstoff, sondern ein unverzichtbarer Bestandteil allen Lebens.“ nichts mit der Realität zu tun haben? 

Dann leben Sie – ich kann es nicht anders ausdrücken- in einer Traumwelt,  wie sie die Klimamodelle(1) herbeiphantasieren, anders kann ich mir Ihre Äußerung nicht erklären, 

Und, was Sie als „Spielchen“ bezeichnen ist nichts weiter als guter wissenschaftlicher Brauch und sollte besonders bei Journalisten zum Standard gehören, nämlich Behauptungen nicht ungeprüft zu übernehmen sondern sie eindeutig  mit Quellen zu belegen und Phantasiewelten von der Realität zu trennen.

Ich hatte gehofft, dass wir uns wenigstens auf diese Grundsätze verständigen könnten.

In diesem Sinne wüsche ich Ihnen ein schönes Wochenende

und 

verbleibe mit freundlichen Grüßen aus London, wo ich bis gestern an einer Klimakonferenz mit vielen hochkarätigen Wissenschaftlern teilnehmen durfte. Hätte Ihnen auch gefallen.

Ihr

Michael Limburg

Vizepräsident EIKE (Europäisches Institut für Klima und Energie)

Tel: +49-(0)33201-31132

http://www.eike-klima-energie.eu/

(1) Nicht dass Modelle der Wirklichkeit in der Wissenschaft grundsätzlich zu verwerfen sind, im Gegenteil, nur für das chaotische Klimasystem dass zu seiner Modellierung Millionen von ineinander greifenden und von einander abhängigen Differentialgleichung bedarf, deren Randbedingungen z.T. völlig unbekannt sind und nur grob (und damit oft falsch) geschätzt werden können,, taugen sie nunmal erwiesenermaßen nicht .

Eigentlich hätte ich noch hinzufügen sollen, dass auch in der Wolle gefärbte Alarmisten unter den Klimawissenschaftlern wie z.B. die PIK Leute gar nicht anders könnten, als jeden der zitierten Sätze aus dem AfD Programm ihre Zustimmung zu geben, wollten sie nicht völlig ihre wissenschaftliche Reputation  verlieren. Aber leider fiel mir das erst zu spät ein.

Eine Antwort auf diese Mail steht bisher aus und ich erwarte eigentlich auch keine mehr.

Hat sie sich doch nicht nur journalistisch blamiert, in dem sie, und wie ich meine vorsätzlich, Unwahrheiten verbreitet, und, wenn sie dabei erwischt wird, dies kess leugnet, sondern auch deswegen, weil sie die unbequeme Realität einfach ausblendet.

Beides zusammen, die bewusst unwahre Darstellung eines eindeutigen und simpel klaren Sachverhaltes, bei gleichzeitigem völligem Ausblenden der Realität, sind klare Erkennungsmerkmale einer Propagandistin.

Aber nicht einer von denen, die Ihnen wertlose Parfums oder andere Sachen im Kaufhaus andreht, sondern von der Sorte, die Ihnen  ihre Weltanschauung verkaufen möchten.

Bei solchen Leuten ist Hopfen und Malz verloren.

Eigentlich hätte ich das vorher wissen müssen, denn bereits lange vor der peinlichen Erfahrung mit ihr bei der Podiumsdiskussion im Hause der Bundeszentrale für politische Bildung hatte ich vor Jahren schon erhellende Mailwechsel zum selben Thema mit ihr.

Beim Stöbern im Archiv ist mir eine davon in die Hände gefallen, ich möchte sie Ihnen nicht vorenthalten

Von Michael Limburg Dipl. Ing.  vom 18.7.2012 um 13:22 Uhr

An: Dagmar Dehmer Blindkopie: Michael Limburg Dipl. Ing.

Ihr Artikel im Gegenwind: Kommentare; bei Bei EIKE nachlesen

Liebe Frau Dehmer,

da ich nicht weiß ob Sie die Kommentare zu Ihrem Artikel "im Gegenwind" verfolgen, hier mein Kommentar auf Ihre Anmerkungen zu EIKE und unserer "Satisfaktionsfähigkeit".

Liebe Frau Dehmer,

wie multiverus schon richtig bemerkte leugnet niemand bei EIKE den Klimawandel. Sie haben leider immer noch nicht verstanden, das Klima & Wandel zwei Seiten derselben Münze sind. Das gibt es solange die Welt eine Atmosphäre hat. Allerdings sollte man schon differenzieren ob wenige zehntel Grad Änderung schon Klimawandel bedeuten.

Doch darum geht es nicht. Es geht einzig um die Behauptung, das das anthropogene CO2 wäre für den geringen Temperaturanstieg der letzten 50 Jahre verantwortlich und würde bei weiterem Anstieg für eine Klimakatastrophe sorgen. Dafür fehlt bis heute jeder Beweis. Noch ärger: das CO2 steigt mit 2 ppm/Jahr und die globale Mitteltemperatur (was immer das sein soll) stagniert, bzw. fällt seit knapp 15 Jahren. Obwohl die Beziehung doch ganz linear sein sollte, mehr CO2 mehr Temperatur, so hat es Schellenhuber vor einiger Zeit laut und öffentlich verkündet. Auch gibt es weder mehr Tornados (http://wattsupwiththat.com/2012/07/16/tornado-season-statistics-update-remarkably-quiet/) noch Dürren, noch Hitzewellen noch Überschwemmungen als früher. 

Das alles lässt sich leicht recherchieren. Sie tun es aber nicht. Ein Kollege von Ihnen sagte einmal treffend: Ein Journalist, der nicht recherchiert ist ein Propagandist. Recht hat er. Leider weigern Sie sich – wie man aus Ihrer Bemerkung entnehmen muss- zu recherchieren, deswegen merken Sie auch nicht, wie sehr Sie daneben liegen. Marie v. Ebner Eschenbach sagte dazu treffend: Wer nichts weiß, muss alles glauben. Auch das trifft leider auf Sie zu. Dabei wäre es so einfach das zu ändern. Leider bin ich ziemlich sicher, dass Sie so weiter machen werden. Sei es drum. Trotzdem muss es mal gesagt werden. 

mfG

Michael Limburg EIKE

Eine Antwort darauf konnte ich in meinem Archiv nicht finden. Vermutlich gibt es keine. Eins zeigen die Mails m.M.n. ganz klar, wer ideologisch so verbohrt ist wie Frau Dehmer ist für die Realität immun. Die Engländer haben dafür ein passendes Sprichwort: Dont´t bother me with facts, my opinon stands!

Ob der Tagesspiegel weiß welche Propagandistin bei ihm schreibt.? Vermutlich ja!




Fritz Vahrenholt: Eingeständnis von Fehlern in der Energiepolitik hätte unabsehbare Folgen für das derzeitige politische Establishment

Deutschlands Energiepolitik benötigt eine Korrektur

Mit seinem derzeitigen Dekarbonisierungs-Plan zielt Berlin darauf ab, den Anteil der erneuerbaren Energien an der Gesamtenergieabgabe in Deutschland bis 2050 auf 80 Prozent zu erhöhen. Kein anderes Land der Welt fährt einen solch radikalen Kurs, der mit Sicherheit dazu führen wird, dass die Strompreise explodieren und auf ein bisher noch nie gesehenes Niveau ansteigen.

[…]

Die Akteure in der Solar-, Wind- und Biogasbranche sind zu den Nutznießern der Freigiebigkeit der Regierung geworden, und zwar in Form von zweistelligen Renditen auf ihre Investitionen aufgrund der staatlich garantierten Festpreise für die Energie, die sie erzeugen werden – und das mehr als 20 Jahre lang. Diese Erträge werden von den Stromverbrauchern finanziert, auch den Unterprivilegierten, die sich diese Kosten nicht leisten können.

[…]

Wenn ein Hochgeschwindigkeitszug einen Bahnhof verlässt, wenn ein Stahlwerk befeuert wird oder die Lichter in einem Stadion angehen, wird durch den Frequenzabfall im Stromnetz automatisch ein Kraftwerks-Generator aktiviert. Solar und Windkraft können solche sekundären Reserven nicht zuverlässig liefern. Es hat nichts mit ihrer Liebe zur Kohle zu tun, dass die Deutsche Energieagentur und die vier Netzbetreiber die Kohlekraftwerke in Betrieb lassen. Sie wissen, dass ohne diese Einrichtungen das Stromnetz zusammenbrechen könnte. Die technische Realität ist so, dass ein Minimum von 20 Prozent der Stromnachfrage durch herkömmliche Dampfturbinen-Generatoren erzeugt werden muss, um das System sicher zu halten.

Es ist höchste Zeit, dass die Bundesregierung anerkennt, dass es keinen Sinn macht, noch mehr Windkraftanlagen, etwa in die Ostseeregion zwischen Rostock und Stralsund, hinzuzufügen. Während der dort häufigen Perioden mit hohem Windaufkommen füllt sich das örtliche Netz schnell mit Strom und für jede Windturbine, die an das System angeschlossen wird, müsste eine andere heruntergefahren werden – während man ihre Betreiber selbstverständlich weiterbezahlt.

[…]

Die politischen Entscheidungsträger versuchen, den aktuellen Kurs in die wirtschaftliche Katastrophe fortzusetzen. Die Angst vor einer CO2-induzierten Klimakatastrophe ist spürbar. Politisch würde eine ernsthafte Abkehr von der Energiewende als undenkbar angesehen werden: Das liefe auf das Eingeständnis eines strategischen Fehlers hinaus, mit unabsehbaren Folgen für das derzeitige politische Establishment.

Ganzen Artikel auf Geopolitical Intelligence Services lesen.

Übernommen von Die Kalte Sonne hier

Prof. Dr. Fritz Vahrenholt, geb. 1949, ist Professor im Fachbereich Chemie an der Universität Hamburg. 1984 wurde er Staatsrat der Hamburger Umweltbehörde, von 1991 bis 1997 war er Umweltsenator von Hamburg, danach Vorstand der Deutschen Shell AG, verantwortlich u.a. für Erneuerbare Energien und Chemie; 2001 bis 2007 Vorstandsvorsitzender des Windkraftanlagenherstellers REpower Systems. Von 2008 bis 2012 war er Geschäftsführer der RWE Innogy, der für Erneuerbare Energien zuständige RWE Tochtergesellschaft. Seit 2012 ist er Alleinvorstand der Deutschen Wildtierstiftung. Vahrenholt war Mitglied im Rat für nachhaltige Entwicklung unter Kanzler Schröder und Kanzlerin Merkel und ist Mitglied des Senats der Fraunhofer- Gesellschaft und Mitglied der Deutschen Akademie der Technikwissenschaften Acatech in Berlin. 1978 erschien sein Bestseller Seveso ist überall, 1983 die Lage der Nation.




Radio Eriwan: Ist die Versorgung mit EEG-Strom möglich? Im Prinzip ja, sofern sie auf den Strom verzichten

Selbst-organisationsfähige Smart Grids

Eine technische Zeitschrift berichtete Anfang des Jahres 2015, wie man intelligenten Netzen die Intelligenz beibringt: Man macht sie lernfähig. Einer bisher beim EEG nicht in Erscheinung getretenen Abteilung für Dynamik und Selbstorganisation der Max Plank Gesellschaft ist dieser innovative Durchbruch gelungen.

smarterworld.de 02.02.2015: Smart Grids: Selbstorganisierte intelligente Netze

Bislang glaubte man, dass zum Erhalt der Stromversorgungssicherheit in der Energiewende Versorger Energie-Verbräuche und Angebote zentral erheben und abgleichen müssten. Forscher der Max-Planck-Gesellschaft halten mit Smart Metern ausgestattete Smart Grids dagegen prinzipiell für selbstorganisationsfähig .

Laut einer Studie des Max-Planck-Instituts für Dynamik und Selbstorganisation können Smart-Meter mit angeschlossenen, steuerbaren Verbrauchern das Stromangebot sowie die Nachfrage durch Industrie und private Haushalte in einem selbstorganisierten Prozess bis zu einem gewissen Grad aufeinander abstimmen. Die Forscher berücksichtigten dabei auch, ob Strom in Speichern wie etwa in Batterien zur Verfügung steht oder ob es darin freie Speicherkapazitäten gibt.

Durch Smart Meter, die es Versorgern erlauben, Stromproduktion und Lasten zentral abzugleichen, könnten Smart Grids aber in einem gewissen Rahmen »selbstorganisierend« werden. Forscher des Max-Planck-Instituts für Dynamik und Selbstorganisation zeigten, dass Smart Meter die Stromnachfrage dezentral und selbstorganisiert mit dem Stromangebot abstimmen können.

Man kann jede Banalität durch umständliche Beschreibung und Verweis auf Studien „in den Himmel heben“ und Laien wie auch Redakteure beeindrucken. Im Kern handelt es sich schlussendlich aber um ein ganz einfaches, technisches Rezept:

Man erweitere jedes Smart Grid (elektronischer Zähler) um ein Schütz zum Zu- und Abschalten von Verbrauchern und ergänze die Software um die einfachste Regelungsfunktion eines P-Reglers und einen 50 Hz-Zähler. Damit lässt sich dann die folgende Funktion ausführen:
Weicht die Netzfrequenz zu weit ab (Kennzeichen für Netz-Überlast, bzw. zu wenig Energie im Netz), schaltet das Smart Grid die Verbraucher rigoros vom Netz, kommt die Frequenz wieder in den zulässigen Bereich zurück (Kennzeichen, es ist wieder genügend Strom verfügbar), schalte es die Verbraucher wieder zu. Bei dieser primitiven Art der „Regelung“ ist natürlich keine Kommunikation erforderlich, womit Hacker keine Chance mehr haben. Anm.: Diese Idee hat der Autor auch schon aufgegriffen: [3] Kann man bald per App Deutschland „den Saft“ abdrehen

Wenn diese einfache Technik nicht ein Skeptiker, sondern ein EEG-überzeugter Redakteur (anhand der Pressemitteilung) beschreibt, liest es sich positiver, da die vielen Vorteile präzise hervor gehoben werden:

[1] Durch Smart Meter, die es Versorgern erlauben, Stromproduktion und Lasten zentral abzugleichen, könnten Smart Grids aber in einem gewissen Rahmen »selbstorganisierend« werden. Forscher des Max-Planck-Instituts für Dynamik und Selbstorganisation zeigten, dass Smart Meter die Stromnachfrage dezentral und selbstorganisiert mit dem Stromangebot abstimmen können. Eine zentrale Stelle, die zum Abgleich von Stromverbrauch und Angebot bislang für nötig gehalten wird, würde damit bis zu einem gewissen Grad überflüssig. Zudem glaubt Physiker Benjamin Schäfer vom Max-Planck-Institut (MPI) für Dynamik und Selbstorganisation in Göttingen, dass zentral organisierte Datensammlungen und darauf basierende Entscheidungen in Smart Grids gefährlich sind: »Eine solche zentrale Steuerung ist ein potenzielles Angriffsziel für Hacker«, so Schäfer.

Zusammen mit der Firma Easy Smart Grid aus Karlsruhe haben die Forscher des MPI untersucht, ob eine zentrale Smart Grid Struktur, in der wichtige Entscheidungen hierarchisch Top-down getroffen werden, überhaupt notwendig ist. Easy Smart Grid entwickelt Systeme für Netzwerktopologien, in denen die Erzeugung weitgehend dezentral in kleineren Einheiten stattfindet und Strom den Weg – Bottom-up – von der Verteilnetzebene in die Mittelspannung findet, statt – Top-down – von »oben« (dem Kraftwerk) nach »unten« in die Verteilnetze.

Es braucht etwas Zeit, bis die Kerninformation – dass nur Ab- und Zugeschaltet wird und das Verbraucher auch stören könnte – erwähnt wird:

[1] Voraussetzung für das Funktionieren eines selbstorganisierten Smart Grids ist allerdings, dass immer genügend Smart Meter mit angeschlossenen, steuerbaren elektrischen Verbrauchern existieren, die aktiviert oder abgeschaltet werden können. Zu der Bereitschaft der Nutzer, ein Abschalten ihrer Verbraucher an nebeligen, windstillen Wintertagen zu machen, trifft das MPI keine Aussagen.

Alleine an der Sprache erkennt jeder Laie, wie meilenweit ein moderner EEG-P-Regler, von den banalen bisherigen Ausführungen innovativ entfernt sein muss.

Und selbst verständlich lässt sich diese Innovation noch optimieren, wenn weiter geforscht werden darf:

[1] Lohnend für die weitere Forschung wäre: Das »Selbstorganisationspotential« eines Smart Grids in verschiedenen Szenarien mit nachvollziehbaren Variablen zu quantifizieren.

Der Autor fasst das Ergebnis dieser bahn-brechenden Lösung zusammen:

Modernste Forschung fand heraus: Das EEG-Netz kann ganz einfach ausgeführt werden, wenn festgelegt wird:
Strom gibt es nur, wenn welcher da ist.
Da Bürger dies (noch) nicht akzeptieren und die Information des Bürgers über das Verhalten bei Netz-Abschaltung und –Wiederkehr zu umständlich ist sowie das komplett-Abschalten zu sehr an Energie-Armut in Dritte-Welt-Ländern erinnert wird empfohlen, die dem Bürger fehlende Anpassung in Smart Grids zu verlagern. Mit entsprechender Unterstützung durch die Medien sowie auferlegter Kosten für die Nachrüstung mit Smart-Grid und von Lastabwurf-Schaltungen im Haus wird sich der Bürger dann überzeugen lassen, dass zeitweise und unplanbar fehlender Strom dank (banaler) Lastabwurftechnik eine innovative Eigenschaft moderner EEG-Netze einer modernen Welt geworden ist.

Im Kern liefert diese Studie allerdings eine geradezu geniale Lösung der EEG-Problematik:
Akzeptiere, dass das EEG ungeeignet ist. Versuche nicht, es zu verbessern, sondern automatisiere das Unvermeidbare: das Abschalten der Energie für den Bürger.

Damit hat sie große Chance, verwendet zu werden.

Quellen

[1]
smarterworld.de 02.02.2015: Smart Grids: Im Prinzip möglich: Selbstorganisierte intelligente Netze
http://www.smarterworld.de/smart-energy/smart-grid/artikel/116603/1/

[2]
Max Plank Gesellschaft 27. Januar 2015:  Smart-Grid – einfach selbstorganisiert

[3]
EIKE 31.08.2016: Kann man bald per App Deutschland „den Saft“ abdrehen

http://www.eike-klima-energie.eu/news-cache/kann-man-bald-per-app-deutschland-den-saft-abdrehen/




„Klimaforschung“ – eine Spielvariante der Zukunftsforschung – Was ist „Zukunftsforschung“, was kann sie leisten?

„Klimaforschung“ – eine Spielvariante der Zukunftsforschung

Was ist „Zukunftsforschung“, was kann sie leisten?

Schon zu Anfang stellte der Mensch fest, dass er in die Rhythmen der Natur eingebunden ist, sich ihnen anpassen muss! Die Stern- und Kalenderforschung standen am Anfang aller Forschung wie deren Zusammenhang mit dem jährlichen Wetterablauf und dessen Einfluss auf das Pflanzenwachstum. Die „Bauernregeln“ bis hin zum „Hundertjährigen Kalender“ seien ein Hinweis.

Wenngleich seit jeher „das Morgen“ den Menschen ob seiner Neugier interessierte, so waren seine Möglichkeiten, in die Zukunft zu schauen, eher begrenzt und beschränkten sich auf Horoskope und Wahrsagerei. Die „Zukunftsforschung“ ist neuesten Datums, konnte sich aber nicht etablieren, weil der „Zufall“ nicht berechenbar ist. Wikipedia definiert sie als die „systematische und kritische wissenschaftliche Untersuchung von Fragen möglicher zukünftiger Entwicklungen“, beschränkt auf den „technischen, wirtschaftlichen wie sozialen Bereich“. Der natürliche Bereich ist ausgeschlossen und dazu gehört zweifelsohne das Wetter. Es ist ein „Sorgenkind“, weil es sich jedweder exakten räumlichen wie zeitlichen Vorhersage entzieht und daher zu den „chaotischen Naturvorgängen“ zählt.

Die „Zukunftsforschung“ entstand im Jahr 1943 in den USA. Ihr Begründer war Ossip K. Flechtheim (1909-1998), der an Horkheimers Institut für Sozialforschung der Columbia University in New York arbeitete. Er konstruierte die „Futurologie“ als „Synthese aus Ideologie und Utopie“ und machte klar, dass kein Anspruch auf „Wissenschaftlichkeit“ erhoben wird. Dieses ehrliche Bekenntnis wurde jedoch bald Opfer politischer Hybris, die seit je „Allmachtsansprüche“ hegt und pflegt. Zum Hauptzweck wurde die Erarbeitung gesellschaftlicher wie politisch-spekulativer Trends und Zielprojektionen, um über beliebig konstruierte „Zukunftsentwürfe“ soziale Ängste wie Stimmungen erzeugen und manipulativ politisch instrumentalisieren zu können. Die Politik fand nur zu leicht willfährige Helfer in den Wissenschaften.

Von der Zukunftsforschung illegal in die „Klimaforschung“

Mit der „Futurologie“ befassten sich in Deutschland vornehmlich zwei Physiker. Wilhelm Fucks (1902-1990) beschäftigte sich unter anderem mit der zukünftigen Entwicklung der globalen Machtverhältnisse und schrieb 1965 sein berühmtes Buch „Formeln zur Macht“. Er leitete das „Institut für mathematisch-empirische Sozialforschung“ in Aachen. Karl Steinbuch (1917-2005) gilt als „Haupttheoretiker der informierten bzw. falsch programmierten Gesellschaft“. Seine Bücher waren 1966 „Die informierte Gesellschaft“, 1968 „Falsch programmiert“, 1973 „Kurskorrektur“. Von Steinbuch stammt der Satz: „Das menschliche Gehirn ist nicht geschaffen, rationale Prozesse zu veranstalten, sondern das Überleben des Organismus zu bewirken.“ Und was ist leichter, als eine heile Welt im „Klimagleichgewicht“ zu versprechen?

Die Beschäftigung mit der Zukunft erfordert eine strenge Unterscheidung zwischen tatsächlichem Wissen und Glaube, Abschätzung und Vermutung, Extrapolation und Spekulation. Schon Platon und Kant bemühten sich diesbezüglich um Differenzierung. Von Platon stammen das Liniengleichnis, das Sonnengleichnis und das Höhlengleichnis. Die Höhle versinnbildlicht die Welt. Sir Francis Bacon (1561-1626) verglich klug die Schattenbilder mit menschlichen Vorurteilen, mit irrigen Vorstellungen. Jeder Mensch habe seine eigene Höhle, die das Licht der Natur bricht und verdirbt. Das erinnert schon an die heutige „Neuropsychoanalyse“, die das „narrative Selbst“ erforscht und der Frage nachgeht, wie unbewusste neuropsychische Prozesse unser Denken, Fühlen und Handeln steuern. Man sucht nach „verborgenen Determinanten“, nach den unbewussten Prozessen, die außerhalb der willentlichen Kontrolle der Betroffenen ablaufen und unser Verhalten lenken. Wenn wir aufgrund der Hirnstruktur auch nicht selbst die unbewussten Vorgänge in uns kontrollieren können, so könnten wir mutig unseren Handlungsspielraum erweitern, indem wir uns von selbst auferlegten Denkverboten befreien. Und davon gibt es in der modernen Medienlandschaft eine Unmenge.

Jedes Verstehen setzt eine Konstruktion unseres Geistes dar und führt uns an unsere kognitive Leistungsfähigkeit bei dem Bemühen, Bedeutung und Sinn bei den ständigen Veränderungen durch äußere Einflüsse zu erfassen. Leichtfertig überlassen wir der Politik die „Konstruktion“ der Welt. Irgendwo ist jeder in Strukturen eingebunden nach dem Motto „Ich bin vernetzt, darum bin ich!“ So ein „Netz“ ist wie ein Spinnengewebe, dem nur mit ganz gewaltigen Anstrengungen zu entrinnen ist. Gelingt der Befreiungsakt, ist man sofort der Kälte sozialer Einsamkeit ausgesetzt als Strafe für nicht konformes Verhalten. „Querdenker“ droht der mediale Pranger. Der uns ständig beobachtende, uns verfolgende und über uns thronende „Zeitgeist“ ist sehr wachsam und unerbittlich. Er signalisiert uns, wenn wir im „Abseits“ stehen und pfeift uns öffentlich zurück.

Wie man eine Zukunft konstruiert und diese aus einer fiktiven Vorstellung in die reale Welt projiziert, erleben wir auf internationaler Ebene in der „Klimaforschung“, in der „Klimapolitik“ mit dem aussichtslosen Bemühen, das Klima zu schützen und damit den Klimawandel zu stoppen. Klimaexperten haben ein „mathematisches Objekt“ geschaffen, dessen Existenz erst durch seine Konstruktion begründet wird.  Die „Globaltemperatur“ ist solch ein „Objekt“. Sie ist eine abgeleitete abstrakte Größe, ein Konstrukt ohne Existenz. Das Wetter ist ein realer Naturvorgang. Dagegen ist „Klima“ nicht existent und wird nur durch seine Konstruktion begründet. „Klima“ wurde vom Menschen definiert und diese Definition kann jederzeit mehrheitlich verändert werden. „Klima“ ist Menschenwerk, so gesehen „menschengemacht“. Dies lernte man in der Schule im Fach Geographie bei der Besprechung der „Klimakarten“ in den Schulatlanten. Das „Azorenhoch“ im Juli wie das „Islandtief“ sind menschengemachte statistische Scheingebilde, die keinerlei Bewegung zeigen. Sie sind ortsfest im Gegensatz zu den ständig ziehenden und vergänglichen Hoch- und Tiefdruckgebieten. Die Klimakarten sind „Dauerkarten“ im Vergleich zu den sich täglich verändernden Wetterkarten.

Neben der realen Wetterwelt mit ihren Überraschungen und Fehlprognosen ist eine „Klimawelt“ konstruiert werden, deren Existenz mit Hilfe von Computermodellen und Simulationen nur vorgetäuscht wird, die aber dennoch auf der politisch-sozialen Ebene eine starke „Wirkmacht“ auf uns ausübt, so dass viele Menschen fest daran glauben, den „Klimawandel“ spüren, sogar sehen können und sich ängstigen. Ich gehöre nicht zu den begnadeten Wesen, die den Unterschied zwischen den „Globaltemperaturen“ von 14,85°C im Jahr 2015 und der von 14,84°C im Jahr 2014 am eigenen Leib spüren.

Das „Globalklima“ ist ein abstraktes Konstrukt aus Sonnen- und Höhlengleichnis

Mit seinem „Liniengleichnis“ zeigte Platon auf, wie wir über „Abbilder“, die sinnlich wahrnehmbaren Dinge und „mathematische Konstrukte“ zu unseren Ideen gelangen. Mit dem „Sonnengleichnis“ versuchte Platon, das Gute gleichnishaft zu veranschaulichen. So wie die Sonne im Bereich des Sichtbaren als Quelle allen Lebens die alles beherrschende Macht ist, so herrscht in der geistigen Welt das „Gute“ als Quelle von Wahrheit und Wissen. Im „Höhlengleichnis“ versinnbildlicht Platon die Welt als Höhle. Schattenbilder beherrschen unsere Vorstellungen, obgleich wir längst im Weltall Raumstationen und Satelliten positioniert haben, von denen wir die Erdkugel von außerhalb der „Höhle“ direkt im Lichtkegel der Sonne sehen können.

Exemplarisch für die blinde Rückständigkeit der weltbesten Klimaexperten, die in den als Schiedsgericht fungierenden Weltklimarat IPCC der UNO entsendet wurden, sei gezeigt, wie diese die Erde sehen. Wie von Platon beschrieben, sehen sie in der finsteren Höhle die Erde auf der Projektionsfläche als dunklen kreisrunden Schatten als Scheibe mit der Fläche πr2. Sie fehlinterpretieren diese Beobachtung und sagen, dass die Erde als „Querschnittsfläche“ von der Sonne beschienen werde. Niemand erhebt Widerspruch. Dann fällt den Experten ein, dass die Erde eine Kugel ist, deren Oberfläche der 4-fachen der Kreisfläche entspricht. Nun machen sie folgende simple mathematische Berechnung. Sie nehmen die „Solarkonstante“ von S = 1368 Watt/m2 und teilen diese durch 4. Damit verteilen die Experten die auf die Erdscheibe eingestrahlte Sonnenenergie rechnerisch gleichmäßig über die Erde und erhalten eine Bestrahlung der Erdkugel von S = 342 Watt/m2. So verschwindet die frei im Weltall ihre Bahnen ziehende Erde in der kalt gerechneten „hohlen“ Sonne, die wie eine Hülle um die Erde gewickelt ist. Wer hier nicht massiv Widerspruch erhebt und den Experten glaubt, ist ihnen ausgeliefert!

Die Erde ist ein Himmelskörper, der täglich um seine eigene Achse rotiert und sich jährlich um die Sonne dreht. Im Wechsel der Tageszeiten wie der Jahreszeiten wird die Erdoberfläche unterschiedlich bestrahlt und erwärmt. Alles Leben auf der Erde richtet sich danach. Wer die Erde in eine Hohlraumsonne steckt, nimmt die Wirklichkeit nicht wahr, lebt in einer irrealen „Umwelt“. Dem Zwang ihrer Logik folgend nehmen die Klimaexperten die Stefan-Boltzmann-Gleichung S = σ T4, um die Temperatur der Erde in Kelvin (°Celsius + 273) zu berechnen. T bestimmt S und umgekehrt. Diese Gleichung wurde für einen „idealen schwarzen Körper“ entwickelt. Der „schwarze Körper“, der zugleich optimaler Empfänger wie Sender von elektromagnetischer Strahlung ist, wurde 1860 von Gustav Kirchhoff (1824-1887) als „idealisierte thermische Strahlungsquelle“ definiert. Die Idealisierung besteht darin, dass solch ein „Körper“ alle auf ihn treffenden elektromagnetischen Strahlen aller Wellenlängen vollständig absorbiert, sich optimal erwärmt. Seine eigene Wärmestrahlung emittiert er auch vollständig, wobei sie nach Intensität und spektraler Verteilung nur von seiner absoluten Temperatur abhängt. Solch ein Körper erwärmt sich schneller als alle anderen Körper, kühlt sich aber auch schneller als die anderen ab.

Da es solch einen „idealen schwarzen Körper“ in der Natur nicht gibt, ebenso wie sein Gegenteil, einen „idealen weißen Körper“, konstruierte Josef Stefan (1835-1893) eine „Kiste“, die dem Konzept des „Schwarzkörperstrahlers“ am nächsten kommt. Er baute einen geschlossenen „Hohlraum“, dessen Wände beheizt und mit Reglern auf konstante Temperaturen eingestellt werden konnten. Sodann bohrte er ein kleines Loch in eine Wand des Hohlraums und maß die austretende Strahlung. Es zeigte sich, dass die Wellenlänge der Strahlung mit der Beheizung oder Abkühlung der Wände kürzer oder länger war. Stefan entwickelte daraus eine einfache „Gesetzmäßigkeit“, die von Ludwig Boltzmann (1844-1906) theoretisch bestätigt wurde. So erhielt die Gleichung zwei „Väter“, die Stefan-Boltzmann-Gleichung. Diese Gleichung beschreibt nur den Einfluss der Strahlung auf die Temperatur eines Körpers, sonst nichts! Sie besagt, dass mit Variation der Strahlung die absolute Temperatur des Körpers mit der 4. Potenz steigt oder fällt. Das erklärt, warum die rot glühende Herdplatte bei Abschalten des Stromes so schnell schwarz wird. Ebenso schnell, wegen die Temperatur mit der 4. Potenz in die Gleichung eingeht, kühlt die rot glühende Lava eines Vulkans ab, verfestigt sich und wird schwarz. Daher sinkt zum Abend die Temperatur erst rasch und mit der Abkühlung in der Nacht immer langsamer.

Indem die Klimaexperten die Stefan-Boltzmann-Gleichung S = σ T4 zur Berechnung einer theoretischen „Strahlungsgleichgewichtstemperatur“ zwischen Sonne und Erde nehmen, zeigen sie, dass sie nicht nur selbst in der „Höhle“ Platons stecken, sondern auch die Erde in einen „Hohlraum“ einsperren, deren Temperatur man einfach regeln kann. Doch dazu bedarf es keinerlei „Treibhausgase“, keines „Treibhauseffektes“. Der Mensch wird zum „Regler“ der Natur, denn die Temperatur reagiert auf die Strahlung und bestimmt die Strahlung. Bei der Berechnung der Körpertemperatur kommt keine Atmosphäre vor. Die Berechnung gilt nur für den Fall, dass alle Strahlung auch absorbiert wird. Das geht nur im „Hohlraum“! Trotzdem bauen die Experten in die Gleichung eine „Albedo“ von 0,3 ein und reduzieren die „Solarkonstante“ um 30 Prozent.. Sie ziehen also von den 342 Watt/m2 30 Prozent ab und erhalten einen Wert S = 240 Watt/m2. Diesen Wert geben sie in die Stefan-Boltzmann-Gleichung ein und erhalten für T einen Wert von 255 Kelvin oder -18° Celsius. Wer sich auf dieses Rechenspielchen einlässt, ist dem Zwang der „Logik“ der Klimaexperten verfallen.

Diesen Wert von -18° Celsius deklarieren die Klimaexperten zu der „Normaltemperatur“ der Erde. Diese Temperatur sei die „Strahlungsgleichgewichtstemperatur“ einer Erde ohne „Treibhausgase“. Bei optimaler Einstrahlung der Sonne hätte die Erde nur eine Temperatur von -18°C, sie wäre eine „Eiskugel“, auf der ein Leben nicht möglich wäre. Nun wird der „natürliche Treibhauseffekt“, den es in der Natur nicht gibt und nicht geben kann, erfunden. Der theoretischen Phantasietemperatur von -18°C stellen sie eine nicht minder theoretische „Globaltemperatur“ von +15°C entgegen und erklären die Differenz von 33°C zum „natürlichen Treibhauseffekt“. Er ist der Hauptfeiler der „Klimapolitik“ und mit ihm steht und fällt das ganze Kunstgebilde. Aber die „Lüge“ wird gut kaschiert mit der Behauptung, dass es „ihm“ zu verdanken sei, dass die Erde ein „grüner Planet“ ist und eine lebenstaugliche Temperatur von +15°C hat. Dies sei dem Kohlenstoffdioxid CO2 zu verdanken. Nein! Das CO2 hat nichts mit den variierenden Lufttemperaturen zu tun. Seine lebenswichtige Bedeutung steckt in der Fotosynthesegleichung. Ohne CO2 und auch ohne H2O und ohne Sonnenstrahlung (hv) gäbe es keine grünen Pflanzen, gäbe es keine Nahrung und keinen Sauerstoff für die Tiere wie uns Menschen. 

Bei einer gleichmäßigen Oberflächentemperatur von -18°C strahlt die Erde gemäß der Stefan-Boltzmann-Gleichung 240 W/m2 ab, bei +15°C sind es 390 W/m2. Wo kommen diese 150 W/m2 her? Die Erde muss nämlich mit 390 W/m2 bestrahlt werden, um eine Temperatur von 15°C zu haben. Da eine Selbsterwärmung eines Körpers nicht erklärt werden kann, erfinden die Experten eine „Gegenstrahlung“. Wer diese jedoch nachts bei klarem Himmel messen will, hat Pech. Ausgerechnet bei klarem Himmel, wenn die „Treibhausgase“ ungehindert die Erde erwärmen könnten, wird es kalt und kälter, bis am Morgen wieder die Sonne aufgeht und den Erdboden erwärmt. Auch hier wird die Natur auf den Kopf gestellt. Jeder Körper, ob warm oder kalt, strahlt ab einer Temperatur größer O Kelvin oder -273°C  Wärme ab, immer. Die Intensität steigt mit der 4. Potenz der absoluten Temperatur. Kein Körper kann sich mit der ihm eigenen inneren Energie erwärmen, selbst dann nicht, wenn die von ihm abgestrahlte Energie von den „Treibhausgasen“ zu 100 Prozent an ihn zurückgestrahlt würde. Für die Erde bedeutet dies: Sie muss von außen erwärmt werden, von der Sonne. Alles Leben beginnt mit dem „Es werde Licht!“ Das Leben auf der Erde verdankt seine Existenz der Strahlkraft der Sonne, keineswegs den „Treibhausgasen“. Sie bestimmt die Temperaturen und deswegen folgen auch die Zugvögel, die Schwalben und Störche, der Sonne. Während jetzt das „Leben“ auf der Nordhemisphäre zum Winter hin langsam „erstarrt“, blüht es zum Sommer auf der Südhemisphäre auf. Woher wissen die Störche, wann es bei uns Frühling wird und sie wieder zurückkommen können?

Die Behauptung der Existenz eines „natürlichen Treibhauseffektes“ von 33°C ist eine Schutzbehauptung. Schlimmer, sie ist ein Phantasieprodukt, der größte physikalische Schwindel der Neuzeit. Der „Treibhauseffekt“ ist ein Schwindel, der aus einer intellektuellen Notlage geboren wurde, in die man sich selbst als „Höhlenbewohner“ hinein manövriert hatte und aus dem Schattenwurf der Erde irrigerweise schloss, diese sei eine „Scheibe“. Wie eine Kugel bestrahlt wird, das kann jeder an einem Fußball mit Hilfe einer Taschenlampe  überprüfen oder anhand eines Satellitenfotos von der Erde aus dem Weltraum. Alle Satellitenfotos zeigen zwar auf eine Fläche projiziert einen Kreis, aber dieser überdeckt flächenmäßig 180 Grad des Erdumfangs ab, also die doppelte Kreisfläche, die Halbkugel 2πr2. Bei der 24-stündigen Rotation der Erde um sich selbst wird immer eine Erdhälfte von der Sonne beschienen. Am Äquator sind das 12 Stunden Tag und 12 Stunden Nacht. Die Erde ist nicht wie eine Tomate oder ein Apfel in der Mitte aufgeschnitten und hält ihre Querschnittsfläche der Sonne entgegen. Auf dieser primitiven Annahme beruht das ganze Konstrukt der Erde als „Treibhaus“.

Wenn man auf diesem Expertenniveau verharrt und nur mal die Korrektur macht, dass die Erde nicht als „Querschnittsfläche“ sondern als „Halbkugel“ bestrahlt wird, man also die „Solarkonstante“ durch 2 und nicht durch 4 teilt, dann erhält man 684 Watt/m2 und nach Abzug der Albedo von 0,3 einen Wert von 480 Watt/m2 statt 240 W/m2. Der Treibhauseffekt kehrt sich in einen Kühleffekt um und damit nähern wir uns dem, was Isaac Newton (1643-1727) bereits um 1666 experimentell gefunden hatte. Alle Körper kühlen sich ab. Die Geschwindigkeit hängt dabei von der Differenz zwischen der Körper- und seiner Umgebungstemperatur ab. Das „Newton’sche Abkühlungsgesetz“ wollen die Klimaexperten nicht kennen oder ignorieren es in der Hoffnung, dass es nicht auffällt. Newton formulierte sein Gesetz, lange bevor 1791 Pierre Prévost (1751-1839) zeigte, dass alle Körper Wärme ausstrahlen, egal ob warm oder kalt.

Mögen die Klimaexperten „Newton’s Abkühlungsgesetz“ unterschlagen, es leistet gute Dienste in der Gerichtsmedizin bei der Rückberechnung des Mordzeitpunktes anhand der Abkühlungsgeschwindigkeit von Leichen. Man benötigt die Umgebungstemperatur und zu zwei Zeiten die Leichentemperatur, um anhand des Abkühlungsgesetzes die Zeit zu berechnen, die vom Mord bis zur ersten Temperaturmessung verstrichen ist. Schauen Sie bei „Google“ nach unter „Alibi zur Mordzeit“!

Das Potsdam-Institut für Klimafolgenforschung und die Landwirtschaft!

Durch seine Pressemitteilungen gibt das PIK regelmäßig Einblicke in sein Innenleben wie seine Gedankenwelt. Am 24. August 2016 hieß es: „Landwirtschaft im Klimawandel: Freier Handel könnte ökonomische Verluste ausgleichen“. Die PM beginnt: „Rund um den Globus stellt der Klimawandel ein Risiko für die landwirtschaftliche Produktivität dar und könnte Nahrungsmittelpreise hochtreiben“. Dies zeige eine neue Studie, die nichts anderes sagt, was die Menschheit aus Erfahrung seit Urzeiten weiß. Doch dann wird es amüsant: „Die Landwirtschaft ist sehr anfällig für Klimaveränderungen – schon ein kleiner Anstieg der globalen Mitteltemperatur kann Konsequenzen haben für regionale Ernten“. Wie ist man bloß auf diese erleuchtende Eingebung gekommen? „Die Wissenschaftler kombinierten für ihre Studie 19 verschiedene Klimaprojektionen mit Simulationen zu landwirtschaftlichen Erträgen“.

Das hört sich äußerst beeindruckend an und strapaziert die kognitive Leistungsfähigkeit der meisten Menschen. Sie reagieren wie Tiere im Scheinwerferlicht und lassen sich durch eine vermutete Intelligenz blenden. Dabei ist es nichts als numerische Routine, das Spielen und Variieren von Computermodellen, die alles simulieren, nur nicht die Realität und das zukünftige Klima. Laut der von der Weltorganisation für Meteorologie international festgelegten Definition von Klima lassen sich Klimawerte nur lokal berechnen. Zugrunde gelegt werden die Wetterdaten von 30 Jahren. 30 Jahre muss man das Wetter ertragen, bevor man die Wettervergangenheit zu „Klima“ verarbeitet. Überall auf der Welt gibt es Wetter, extrem unterschiedliches Wetter, aber weder ein einheitliches „Globalwetter“ noch ein „Gobalklima“, von dem man ohnehin nur die „Globaltemperatur“ kennt.

Wie kommt das PIK zur Annahme, ein „kleiner Anstieg der globalen Mitteltemperatur“ hätte gravierende Konsequenzen „für regionale Ernten“. Lebt man dort nur noch in Modellwelten und sieht die Wirklichkeit nicht mehr? Jeder Gemüsebauer oder Landwirt könnte den PIK-Experten erklären, dass der Ertrag und die Qualität einer Ernte vom Wetter abhängen, wobei die Pflanzen die unterschiedlichsten Ansprüche an das ihnen optimale Wetter stellen. Etliche Faktoren wirken auf die Kulturpflanzen, nicht nur die Temperatur. Was nützen die angenehmsten Temperaturen, wenn es an Regen mangelt, es zu viel Regen gibt oder Hagel einen Weinberg entlaubt?

Den saisonalen landwirtschaftlichen Nutzpflanzen ist die globale Mitteltemperatur wie das „Globalklima“ völlig wurscht. Haben die PIK-Klimaexperten noch nie in einen Klimaatlas geschaut und festgestellt, dass es auf der Erde eine große Vielfalt sehr unterschiedlicher Klimata gibt. Selbst in einer Weinbauregion wie Rheinhessen ist nicht überall der Anbau von Wein klug und ratsam. Da empfiehlt sich ein genaues Studium der Topographie, der Inklination und Exposition einer Lage. Eine optimale Bestrahlung ist wichtig für hohe Oechsle-Grade. Das Wachstum von Pflanzen wird vom Wetter in der Zeit zwischen Saat und Ernte, der Vegetationsperiode, bestimmt. Diese beginnt für die Pflanzen der mittleren Breiten etwa März/April und endet etwa September/Oktober. Was interessieren die Rüben die Temperaturen im Winter? Wer die Wachstumsperiode verlängern und die Pflanzen vor Spätfrösten schützen will, betreibt Unterglasgartenbau, nutzt Gewächshäuser oder breitet im Frühjahr Folien über die Gemüsefelder aus. Salat, Kohl, Spargel, Sommergerste, Winterweizen, Kartoffeln, Zuckerrüben, alle Pflanzen haben spezielle Ansprüche, was den Wetterablauf während des Sommerhalbjahres betrifft. Es ist absoluter Unsinn, „klimabezogene Schäden“ durch eine Rechengröße wie die „Globaltemperatur“ herbei zu fantasieren. Nirgendwo auf dem weiten Erdenrund berechnen Pflanzen die „Globaltemperatur“, um ihr Wachstum danach auszurichten.

Das Potsdam-Institut für Klimafolgenforschung und die „Biodiversität“

Am 29. August 2016 überraschte das Potsdam-Institut mit der sensationellen Meldung „Amazonaswald: Biodiversität kann Klimarisiken mindern“. Es heißt: „Wald mit einer großen Vielfalt kann besser auf Klimastress reagieren. Erstmals konnten Forscher dies jetzt für das Amazonas-Gebiet in umfassenden Computer-Simulationen, die den Artenreichtum von Bäumen dort mit einberechnen, zeigen. Biodiversität kann demnach ein wirksames Mittel sein, Klimarisiken abzumildern, und sollte nicht im Naturschutzkontext betrachtet werden.“

Ich zitiere weiter: „Die Vielfalt der Eigenschaften all der verschiedenen Pflanzen in den Wäldern des Amazonas könnte diesem helfen, sich auf ein gewisses Maß von Klimaveränderung einzustellen – manche der vorherrschenden Bäume würden absterben und andere Arten würden ihren Platz einnehmen, die mit den zukünftigen klimatischen Bedingungen besser zurecht kommen.“ Und dann die „Erkenntnis“: „Biodiversität erweist sich hier als ein Muss, nicht als hübsches Beiwerk. Sie kann funktional sein für das langfristige Überleben der großen Biomasse-Reservoirs unserer Erde, zu denen auch die Wälder der Amazonas-Region gehören.“ Seit 1992 gibt es das PIK! Jetzt nach 25 Jahren entdeckt man plötzlich die „Biodiversität“ und legt ungewollt die Lunte an das „Globalklima“. Es ist dieser Befehl „think global“, der den Blick nicht nur auf die Wettervielfalt sondern auch auf die Schönheit und Vielfalt der Natur versperrt.

Es heißt dann weiter: „Nie zuvor ist dieses Kräftespiel so genau und umfassend in eine biogeochemische Simulation von Vegetation und Klimawandel eingebaut worden, dies ist ein wichtiger Schritt vorwärts für die noch bessere Modellierung des Erdsystems.“ „Wir haben hieran mehrere Jahre gearbeitet. Bekannt war, dass Biodiversität bedeutsam ist für die Produktivität eines Ökosystems und für das Speichern von Biomasse. Aber bislang konnte dies im großen Maßstab nicht quantitativ gezeigt werden. Wir freuen uns, dass wir hier auf der Grundlage früherer Forschung eine Lücke schließen können.“ Zum Schluss der Satz: „Trotz der ermutigenden Ergebnisse zum funktionalen Wert der Biodiversität bleibt der Regenwald des Amazonas leider einer der Brennpunkte unseres Planeten, der nach einer raschen Verringerung des CO2-Ausstoßes verlangt.“

Exakt dies verlangt der „Regenwald“ nicht, denn er weiß, dass für ihn das CO2 zum Leben und Wachstum unverzichtbar ist. Er braucht vor allem H2O, dann CO2 und eine ganzjährige Vegetationsperiode. Mögen sich die PIK-Wissenschaftler freuen ob ihrer Simulationskünste. Was sie der Welt an „Weisheiten“ propagieren, ist für die Natur eine Selbstverständlichkeit. Die Biodiversität hat die Natur praktiziert und perfektioniert, lange bevor der neunmalkluge Mensch sich Gedanken darüber machte, wie die Natur funktioniert und sich den unterschiedlichsten Wetterbedingungen auf der Erde optimal anpasst. Im Grunde ist es eine Frechheit, was das PIK mit dieser Studie propagiert. Die Natur braucht das PIK nicht, um zu wissen, wie sie sich optimal an die variierenden erdgeschichtlichen Randbedingungen anpasst. Die Vegetation Skandinaviens während der Eem-Warmzeit vor etwa 120 000 Jahren musste der Weichsel-Eiszeit gewichen, um   nach deren Ende vor etwa 12 000 Jahren sofort wieder zurückzukehren und auf dem Wege der natürlichen Sukzession eine Artenvielfalt ohnegleichen zu schaffen. Die Natur bedarf uns Menschen nicht dazu.

Die Biodiversität mit den unterschiedlichsten Ökosystemen ist eine Leistung der Natur und hängt ab von der Strahlung, den Niederschlägen und den Temperaturen, die wesentlich das Wetter bestimmen. Wer jedoch von der „einen Welt“ mit der „einen Temperatur“ und dem „einen Globalklima“ träumt, sieht diese Vielfalt und Schönheit nicht. Doch soweit ist man im PIK nicht. Wer behauptet, dass „Biodiversität Klimarisiken mindern kann“, sieht die Wahrheit nicht. Die „Biodiversität“, die Mannigfaltigkeit von Flora und Fauna ist eine aktive Anpassungsreaktion der Natur auf die Wettervielfalt, auf die wechselnden Wetterregime. Die „Biodiversität“ mindert die Wetterrisiken nicht und damit auch nicht die „Klimarisiken“!

Wann wird die so gerühmte „Qualitätsforschung“ des Potsdam-Instituts von neutraler Stelle einer Evaluation unterzogen? Der Ruf der „Wissenschaft“ insgesamt steht auf dem Spiel. Wie will das PIK die Zukunft vorhersagen, wenn es nicht einmal die Vergangenheit in ihren Abläufen begriffen hat und halbwegs logisch erklären kann?




Endlagerfinanzierung: Hop oder Top?

Mit der politischen Verschiebung der Endlagerplanung für Wärme entwickelnde hochradioaktive Abfälle auf den Sankt-Nimmerleins-Tag geriet schlagartig die Finanzierbarkeit der Endlagerkosten ins Blickfeld der Politiker. Solange die vom Bund betriebene Endlagerplanung Gorleben Bestand hatte, war die Finanzierung durch die Endlagervorausleistungsverordnung eindeutig geregelt und bis zum heutigen Tag allem Anschein nach auch gesichert. Die Kosten haben die Abfallverursacher zu tragen, die für  Planung und Errichtung eines Endlagers wie auch für die Stilllegung ihrer Kernkraftwerke bereits erhebliche finanzielle Rückstellungen gebildet haben. Die Endlagerkosten waren hinreichend kalkulierbar, die Zeitvorstellung bis zur Fertigstellung des Endlagers einigermaßen überschaubar, wenn durchaus auch mit Unwägbarkeiten verbunden. Sachlich fachlich war die Salzstockerkundung auf gutem Wege.

Mit dem am 1. Januar 2014 in Kraft getretenen Standortauswahlgesetz (StandAG) änderten sich die Aussichten auf die Realisierung eines Endlagers grundlegend. Die Erkundung des Salzstockes Gorleben wurde eingestellt, das Erkundungsbergwerk bleibt zwar bergmännisch auf unbestimmte Zeit erhalten, die Endlagerplanung Gorleben aber wurde in Gänze ad acta gelegt. Eine aussichtsreiche Realisierung eines Endlagers wurde allein zwecks Beendigung parteipolitischer Querelen um Gorleben aufgegeben. Das Gesetz fordert, mit der Standortsuche von Null an zu beginnen, bundesweit, ergebnisoffen, keine Vorauswahl des Endlagergesteins. Neben dem einst mit recht favorisierten Salzgestein sollen auch Ton und Kristallin (Granit) in die Untersuchung mit einbezogen werden. Die im Gesetz genannten Zeitpläne für Standortauswahl und Endlagererrichtung sind jedoch in hohem Maße unrealistisch. Um etliche Jahrzehnte wird sich die Bereitstellung des Endlagers gegenüber der ursprünglichen Planung verschieben. Für die Abfallverursacher fallen dadurch erhebliche zusätzliche Kosten für deutlich längere Zwischenlagerung der Abfälle und vor allem durch die neue Standortsuche und der Erkundung vermutlich sogar  mehrerer Standorte an. 

Im Jahr 2022 soll das letzte Kernkraftwerk in Deutschland vom Netz gehen. Erst etliche Jahrzehnte später soll – wenn überhaupt – ein Endlager zur Verfügung stehen. Da stellt sich zu Recht die Frage, ob unter dem Gesichtspunkt Unternehmensbestand oder -änderung oder gar Insolvenz die Abfallverursacher (überwiegend Kernkraftwerksbetreiber) in diesem unüberschaubar langen Zeitraum zur Kostenübernahme belangt werden können. Nach dem vollzogenen Ausstieg werden aus dem Betrieb von Kernkraftwerken jedenfalls keine finanziellen Rückstellungen mehr zu erwirtschaften sein. Vor diesem Hintergrund hat die Bundesregierung die Einsetzung einer „Kommission zur Überprüfung der  Finanzierung des Kernenergieausstiegs (KFK)“ beschlossen1. Im Einsetzungsbeschluss vom 14. Oktober 2015 heißt es: 

„Die Kommission soll im Auftrag der Bundesregierung prüfen, wie die Sicherstellung der Finanzierung von Stilllegung und Rückbau der Kernkraftwerke sowie Entsorgung der radioaktiven Abfälle so ausgestaltet werden kann, dass die Unternehmen auch langfristig wirtschaftlich in der Lage sind, ihre Verpflichtungen aus dem Atombereich zu erfüllen.“

„Es ist erklärtes Ziel der Bundesregierung, in Deutschland die Sicherheit des Restbetriebs der Kernkraftwerke, ihre Stilllegung und ihren Rückbau sowie die Zwischen- und Endlagerung der radioaktiven Abfälle in technischer wie in finanzieller Hinsicht auch langfristig zu gewährleisten. Dabei geht die Bundesregierung von dem Grundsatz aus, dass die Kosten von den Verursachern getragen werden.“ 

Auch ein kritischer Betrachter des Abschlussberichtes muss der Kommission eine sachgerechte und problembewusste Analyse der künftigen Finanzsituation der Entsorgungskosten bescheinigen. Im Ergebnis sieht sie die Notwendigkeit, „die finanzielle Sicherung der nuklearen Entsorgung vom wirtschaftlichen Schicksal der Betreiber langfristig zu entkoppeln.“ Nach Auffassung der Kommission soll daher „künftig derjenige die finanzielle Sicherungspflicht haben, der auch die Pflicht zur Handlung in der Kette der nuklearen Entsorgung hat. Soweit dieses nicht (mehr) die Verursacher sind, müssen die dafür notwendigen Mittel dem Staat zur Sicherung übertragen werden.“ 3

So plädiert die Kommission dafür, die Aufgabe der Zwischenlagerung nuklearer Abfälle einschließlich der dafür erforderlichen Mittel sowie die für Auswahl, Bau, Betrieb und Stilllegung der nuklearen Endlager erforderlichen Mittel dem Staat zu übertragen. Ferner soll der Staat künftig für die Transporte aus den Zwischenlagern in das entsprechende Endlager und im Falle der bestrahlten Brennelemente und Wiederaufarbeitungsabfälle für die ggf. notwendige Herstellung HAW-Endlager-gängiger Gebinde5 zuständig sein. Sie schlägt vor, die bisherigen Rückstellungen in Höhe von 17,2 Milliarden Euro unmittelbar – und bis spätestens zum Ende des Leistungsbetriebs 2022 einen Risikoaufschlag von rund 35 % auf den Barwert der übertragenen Rückstellungen in einen öffentlich-rechtlichen Fonds zu überführen. Gegen eine vollständige Einzahlung von demnach 23,3 Milliarden Euro würden die Risiken für Zwischen- und Endlagerung auf den Staat übergehen.

Stilllegung und Rückbau der Kernkraftwerke, die Verpackung von bestrahlten Brennelementen und radioaktiven Abfällen aus der Wiederaufarbeitung sowie die Verpackung von sonstigen radioaktiven Abfällen während des Rückbaus inklusiver ihrer Finanzsicherung verbleiben unverändert bei den Unternehmen. Dafür sollen ihnen nach Ansicht der Kommission Rückstellungen von 21,3 Milliarden belassen werden.

In ihrer zahlenmäßigen Empfehlung zur Finanzierung der Entsorgung stützt sich die Kommission maßgeblich auf Berechnungen der Wirtschaftsprüfungsgesellschaft Warth & Klein Grant Thorton2, die im Auftrag des Bundesministeriums für Wirtschaft und Energie (BMWi)  die zukünftigen nuklearen Entsorgungsverpflichtungen zu bewerten hatte. 

Interessanterweise erklärte das BMWi anlässlich der Veröffentlichung des Warth & Klein – Gutachtens unter anderem, dass die betroffenen Unternehmen die Kosten bei der Rückstellungsbildung (bislang) vollständig abgebildet und sich dabei an die einschlägigen Regeln gehalten hätten. Die Vermögenswerte der Unternehmen würden in Summe die Finanzierung des Rückbaus der Kernkraftwerke und der Entsorgung der radioaktiven Abfälle abdecken. Dies war in der Vergangenheit von Politikern nicht selten infrage gestellt worden. 

Die von den Kernkraftwerksbetreibern bis in 2014 gebildeten Rückstellungen für sämtliche ihrer Entsorgungsverpflichtungen betrugen 38,3 Milliarden Euro 3,4. Dazu heißt es im KFK –   Abschlussbericht: „Die Betreiber kalkulieren mit einer durchschnittlichen jährlichen Inflationsrate von 1,6 %. Nukleare Kostensteigerungen werden von den Betreibern mit jährlich zusätzlichen 1,97 % veranschlagt.  Unter diesen Annahmen werden die von den Betreibern zu tragenden Kosten auf 169,8 Milliarden Euro in den jeweils aktuellen Preisen bis zum Jahre 2099 (!) geschätzt. Wird dieser Betrag, mit einem Faktor von 4,58 % pro Jahr abgezinst, so ergibt sich der Rückstellungsbetrag von  38,3 Milliarden Euro.“ 

Die umfassenden Gesamtkosten beziffert die Kommission in Preisen von 2014 auf 48,8 Milliarden Euro. 

Der KFK – Abschlussbericht liegt dem BMWi zur Prüfung vor. Klärung der Rechtsform der Kommissionsvorschläge steht an. Diverse Änderungen am Atomgesetz und einschlägiger Verordnungen sind erforderlich. Die betroffenen Unternehmen haben bislang mit differenzierter Kritik reagiert. Die Zahlung diverser Risikozuschläge ginge über ihre wirtschaftliche Leistungsfähigkeit hinaus. 

Kommentar

Auf nahezu jeder Seite des KFK – Berichtes, zum Teil sogar mehrfach, findet sich der Begriff „Risiko“. Was nicht verwunderlich ist. Die Kommissionsvorschläge enthalten Konfliktstoff. Trotz noch so kompetenter Unterstützung durch hinzugezogene Fachleute können die Kostenangaben angesichts vieler Unwägbarkeiten insbesondere für einen Jahrzehnte – Zeitraum im Voraus nicht mit der im Grunde genommen erforderlichen Verlässlichkeit ermittelt werden, sondern sind vielmehr Ergebnis von Abwägungen und Einschätzungen. Kommt es zu dem öffentlich-rechtlichen Fonds, dann erhält der Staat zwar die auf dem Preisniveau 2014 kalkulierten Mittel, muss aber das Risiko unvorhersehbarer Kosten und außerordentlicher Kostensteigerungen tragen, die über den Fonds hinausgehen. Dass dies der Fall sein kann, ist keineswegs abwegig. Denn weder gibt es einen Endlagerstandort, die erneute Suche hat nicht einmal begonnen, zudem ist völlig offen, welches Endlagergestein Salz, Ton oder Granit infrage kommt und schon gar nicht kann es ein auf das Endlager ausgerichtetes Endlagerkonzept geben. Für die Endlagerung abgebrannter Brennelement mit einem bedeutenden Kernbrennstoffgehalt an Uran und Plutonium gibt es weltweit kein Vorbild. Hiermit wird Neuland beschritten. Ohne die Ernsthaftigkeit der Kommissionsbemühungen infrage zu stellen, ist es gleichwohl unmöglich, für die Zwischen- und Endlagerung auch nur annähernd realistische Kosten zu ermitteln, die zudem erst in 50 oder noch mehr Jahrzehnten anfallen werden. Auch drängt sich die Frage auf, ob jemals bei öffentlich-rechtlichen Bauvorhaben die Kostenkalkulation eingehalten wurde.

Natürlich sind auch Kosten weiterer Verzögerungen, wie sie bislang bei der Endlagerplanung Gorleben, man muss schon sagen, praktiziert wurden,  nicht mehr auf die Abfallverursacher abzuwälzen. Wer die Historie um den Standort Gorleben miterlebt hat und wer das inzwischen 34 Jahre dauernde Genehmigungsverfahren für das Endlager Konrad zur Aufnahme (nur) schwach –und mittelradioaktiver Abfälle verfolgt hat, dem fällt es nicht schwer, sich auszumalen wie viele Hindernisse einer erneuten Standortsuche und einem neuen, noch anspruchsvolleren Genehmigungsverfahren  mit Klagen, Bürgerprotesten und auch neuem politischen Unwillen im Wege stehen werden, die sich kostentreibend auswirken werden.

Einkalkulierte Verzinsungen der Mittel und angenommene Inflationsrate sind ebenfalls in dem in Betracht zu ziehenden Zeitraum mit erheblicher Unsicherheit behaftet. Im letzten Jahrhundert gab es immerhin zwei Geldentwertungen. Nun sind die damaligen politischen Verhältnisse nicht mit den heutigen zu vergleichen. Aber in 50 und mehr Jahren kann noch vieles geschehen, was heute undenkbar ist. 

23,2 Milliarden Euro auf der hohen Kante (Fonds) schaffen in Zeiten knapper Etatmittel politische Begehrlichkeiten. Beispiele, bei denen der Staat Kapitalbildungen zweckentfremdet eingesetzt hat, sind bekannt. Sollte es im Fall des Endlagerfonds wieder der Fall sein, ist letzten Endes der Steuerzahler der Dumme. 

Der KFK-Bericht weist nichts darüber aus, wie mit den bereits für die Salzstockerkundung in Gorleben von den Abfallverursachern gezahlten 1,6 Milliarden Euro verfahren wird, solange die Eignungshöffigkeit des Salzstockes zum Zweck der Endlagerung nicht widerlegt worden ist. Die Beendigung der Erkundung war ein ausschließlich politischer Akt, wofür nicht die Unternehmen belangt werden können. Die Aufwendungen für das Bergwerk steigen zudem weiter, da es in einem sicheren Zustand erhalten werden soll. 

Die von den Unternehmen gebildeten Rückstellungen liegen nicht auf der Bank. Sie stecken – was rechtlich zulässig ist – in Investitionen von Kraftwerksanlagen, Kabeltrassen, Gas-Rohrleitungen und dergleichen. Die Rückstellungen sind demzufolge nicht „von heute auf morgen“ verfügbar. Ihre Verfügbarkeit war auf das bisherige Entsorgungskonzept – Endlagerung im Salzstock Gorleben – zeitlich und kostenmäßig abgestimmt. Eine vorzeitige Kapitalisierung der Rückstellungen würde zu enormen Wirtschaftlichen und finanziellen Belastungen der Unternehmen führen und ihre ohnehin schon stark angeschlagene Konkurrenzfähigkeit und Wirtschaftlichkeit weiter gefährden. 

Die „Verpackung von Brennelementen“ bleibt in der Verantwortung der Unternehmen. Der Bericht sagt aber nichts darüber aus, welche Art von Verpackung gemeint ist. Vermutlich die Aufbewahrung der abgebrannten Brennelemente in den so genannten Transport- und Lagerbehältern wie zum Beispiel Castor-Behälter.

Eine Verpackung im Hinblick auf die spätere Endlagerung macht keinen Sinn, weil die Voraussetzungen dafür nicht bekannt sind. Diese läge dann aber auch, wie von der Kommission vorgeschlagen, in der Verantwortung des Staates. In diesem Zusammenhang sei angemerkt: Bereits vor etlichen Jahren wurde im Rahmen der Endlagerplanung Gorleben die Umladetechnik der Brennelemente in Polluxbehälter entwickelt. Die hierfür vorgesehene so genannte Pilot-Konditionierungsanlage steht („eingemottet“) in Gorleben, in unmittelbarer Nähe des einstmals vorgesehenen Endlagers. Gegenwärtig ist völlig offen, welche endlagerbezogene Verpackung zum Einsatz kommt. Eine direkte Endlagerung der Brennelemente in Castorbehältern ist auszuschließen. Auch hier steht dem Staat unternehmerische Nukleartätigkeit bevor. 

In den abgebrannten (ausgedienten) Brennelementen sind von dem ursprünglich eingesetzten Kernbrennstoff noch rund 95 % Mengenanteile an wieder verwendbarem Uran und etwa 1 % Plutonium vorhanden, das während der Einsatzzeit der Brennelemente im Reaktor aus Uran-238 gebildet („erbrütet“) worden ist. Der Energieinhalt der rezyklierbaren Kernbrennstoffe, die in 35 Tonnen Schwermetall abgebrannter Brennelemente enthalten sind, entspricht etwa dem von 1 Million Tonnen Steinkohle. Dies war auch der Grund, abgebrannte Brennelemente der Wiederaufarbeitung zuzuführen, bis ihr Transport zu den Wiederaufarbeitungsanlagen in Frankreich und Großbritannien im Jahre 2001 atomrechtlich untersagt worden ist. Im Entsorgungsprogramm der Bundesregierung aus dem Jahr 2015 wird davon ausgegangen, dass bis zur Beendigung des Kernkraftwerksbetriebes in 2022 insgesamt etwa 10.500 Tonnen Schwermetall in Form abgebrannter Brennelemente aus den Leistungsreaktoren anfallen, die endgelagert werden müssen. Rein rechnerisch der Energieinhalt von 300 Millionen Tonnen Steinkohle!

Wer will heute im Jahre 2016 mit Sicherheit behaupten, dass dieses Energiepotential an abgebrannten Brennelementen in 2050 plus X Jahrzehnte tatsächlich vergraben wird? Oder wird vielleicht (und hoffentlich) inzwischen eine (Politiker-)Generation heranwachsen, die für die Endlagerung der Brennelemente überhaupt kein Verständnis aufbringt, weil man um jede Energiequelle verlegen ist?  

Oder, wer will ausschließen, dass in dieser Zeit die Entwicklung der Transmutation bereits so weit fortgeschritten ist, um die Kernbrennstoffe und Transurane in den Brennelementen in deutlich weniger langlebige Elemente zu überführen und somit das Gefährdungspotential an radioaktiven Stoffen in den abgebrannten Brennelementen drastisch zu verringern? 

Oder, wer will ausschließen, dass sich eine viel spätere Bundesregierung einem Export der abgebrannten Brennelemente öffnet, weil eine schadlose Verwertung beim Empfängerstaat  sicher nachgewiesen werden kann? 

Die Entwicklung der Kernenergie und deren Anwendung schreiten weltweit unaufhörlich voran, selbst in Staaten, in denen man es bislang nicht vermutet hat. Dabei werden sich Entwicklungen ergeben und neue Wege sich einstellen, von denen man heute noch nichts ahnt. Wenn dem aber so ist, wird man auch über die Endlagerung in der zweiten Hälfte dieses Jahrhunderts zu anderen Beschlüssen kommen. Diese Überlegungen sprechen nicht gegen die Endlagerung, denn die wird für die Wärme entwickelnden verglasten Abfälle aus der Wiederaufarbeitung, die auch in Castor-Behälter aufbewahrt und zwischengelagert werden, unumgänglich sein. Aber konzeptionell werden sich in den folgenden Jahrzehnten noch andere Varianten und Überlegungen einstellen, als jene, von denen man heute ausgeht. 

Um es nochmals deutlich zu sagen: Die von der Kommission angestellten Überlegungen erstrecken sich über eine Zeitspanne bis ans Ende dieses Jahrhunderts. Ursächlich dafür ist das Standortauswahlgesetz. Dieses Gesetz aber wird Politikern noch über viele Parlamentsperioden hinweg reichlich Gelegenheit geben, eine nach ihrer Meinung geeignetere Lösung der Endlagerfrage anzustreben, aber auch Kritikern das zwischenzeitlich Erreichte wieder in Frage zu stellen und zu attackieren. Mit dem Gesetz kommt man, gewollt oder nicht, dem Ausstieg aus der untertägigen Endlagerung näher.

1. www.bmwi.de/DE/Presse/pressemitteilungen,did=764862.html.  Quelle auch des Abschlussberichtes der Kommission vom 27. April 2016 

2. Warth & Klein Grant Thornton AG Wirtschaftsprüfungsgesellschaft, Gutachtliche

Stellungnahme zur Bewertung der Rückstellungen im Kernenergiebereich,

09.10.2015

3. Abschlussbericht der KFK „Verantwortung und Sicherheit – Ein neuer Entsorgungskonsens, 27.04.2016 Hier

4. Klaus Tägder „Wer trägt die Kosten der nuklearen Entsorgung?“ , 21.10.2015

www.ageu-die-realisten.com/archives/category/endlagerung

5. HAW steht für „high active waste“. Gemeint ist das Endlager für Wärme entwickelnde, also hochradioaktive Abfälle.




Hat die barbusige Dame um 1830 gegen den Klimawandel gekämpft? Eine ganz aktuelle Studie legt es nahe

Nun erscheint es sehr gewagt, deshalb das Bild der damaligen Julirevolution so umzudeuten. Aber nicht weniger gewagt – doch ein Beispiel, dass für Fördergeld jedes gewünschte Ergebnis möglich wird – ist, was die Studie angeblich herausgefunden hat.

Bild rechts: Eugène Delacroix: Die Freiheit führt das Volk (1830). Quelle: WIKIPEDIA: Julirevolution von 1830

Freie Universität Berlin Nr. 283/2016 vom 24.08.2016: Der Klimawandel begann schon vor 180 Jahren

Industrielle Revolution trug bereits spürbar zur Erderwärmung bei, zeigt eine Studie
Der Klimawandel hat schon vor 180 Jahren begonnen und somit viel früher als bisher vermutet. Das fand jetzt ein internationales Forscherteam heraus. Um den frühesten Zeitpunkt der Erderwärmung festzustellen, untersuchten die Wissenschaftlerinnen und Wissenschaftler auf der nördlichen und der südlichen Erdhalbkugel sowohl zu Land als auch in den Ozeanen sogenannte natürliche Klimaarchive der vergangenen 500 Jahre, also tropische Korallen, Sedimentkerne, Stalagmiten, Baumringe und Eiskerne. Darüber hinaus analysierten sie Modelle über die Klimaentwicklung von mehreren Tausend Jahren. „Die Untersuchungen zeigen, dass schon die frühe Erderwärmung in Zusammenhang mit der steigenden Konzentration von Treibhausgasen als Folge der industriellen Revolution steht“, sagt Dr. Jens Zinke, Paläontologe an der Freien Universität Berlin und Ko-Autor der Studie, die in der Fachzeitschrift Nature erschienen ist.
Die Untersuchung zeigt, dass die Erwärmung in den 1830er Jahren zuerst in der Arktis und in den tropischen Ozeanen begann, gefolgt von Europa, Asien und Nord-Amerika. Die Erwärmung großer Teile der Südhemisphäre erfolgte scheinbar erst bis zu 50 Jahre später. Die Ursachen dafür könnten nach Einschätzung der Wissenschaftler in den regional sehr unterschiedlichen Ozeanströmungen liegen: Die warmen Wassermassen werden auf natürliche Weise nach Norden abtransportiert und damit weg von der Antarktis. Für genauere Aussagen, etwa zur Erwärmung der Antarktis, sei die Datenlage jedoch noch zu unsicher.

Die Studie [5] will also herausgefunden haben:

Dass der Klimawandel bereits um 1830 begann, weil
-bereits kleinste Änderungen des CO2-Gehaltes (hier +15 ppm
[6]) signifikante, nachweisbare Auswirkungen auf die Temperatur hätten.

Bild 1 CO2 Emission durch menschlichen Einfluss (Bild vom Autor ergänzt). Quelle http://joannenova.com.au/page/2/

Daten: Das Forcing von 1 ppm beträgt 0,0075 °C [7] (mit dem hohen IPCC-Forcing). 15 ppm erhöhen die Temperatur somit um 0,1125 °C, realistisch ca. 66 … 33 % davon, also 0,04 … 0,08 °C. Die Forcing-Temperaturdifferenz beträgt damit weniger, als eine sorgfältig geeichte elektronische Temperatur-Messstation mit einem Messfehler von +-0,2  °C überhaupt detektieren kann. Und diese Änderung welche man heute mit modernsten Messmethoden nicht signifikant ermitteln kann, will man für die Jahre um 1830 rückwirkend weltweit detektiert haben.

Natürlich wäre damit auch ein Problem behoben, welches sich zeigt wenn man versucht, durch Googeln den Beginn dieser möglichen Katastrophe zu finden. Eine bisher weit verteilte Zeitspanne ließe sich nun fast das Jahr genau definieren.

WIKIPEDIA: Als globale Erwärmung bezeichnet man den Anstieg der Durchschnittstemperatur der erdnahen Atmosphäre und der Meere seit der Industrialisierung in den letzten 50 bis 150 Jahren.

Aus dem bisherigen Text lässt sich schon herauslesen, was der Autor von dieser Studie hält: Nichts, außer dem Beleg, wie weit sich die Klimawissenschaft weltweit (es war ein internationales Forscherteam beteiligt) von jeglicher Seriosität entfernt hat.

Und damit ist er nicht alleine:
WUWT: New climate reconstruction study claims humans have been causing warming since the onset of the Industrial Revolution  From the ignoring natural variation with confirmation bias department
A new paper published in
Nature purports to find a connection between mid-nineteenth century warming and the beginning of the industrial revolution. And, since no correlation is too small to be a causation, this is now enough proof that man has been causing warming for as long as we can remember!
Interestingly enough, the reconstructions used show a connection between tropical oceanic warming and northern hemisphere continental warming…but not a “synchronous” warming trend in the southern hemisphere. According to the abstract, this is problematic for the researchers, since, you guessed it, the model simulations don’t match. The conclusion? Instrument records must be inadequate.
In fairness, it’s probably an accurate statement to suggest that nineteenth century instrument records are insufficient to tease out an anthropogenic signal from the noise of natural variability, especially in the southern hemisphere. What’s instructive about the conclusion, though, is the forthright admission of bias towards believing the models over instrument records.

Und auch JoNova: Experts “surprised” to discover what skeptics have known for years: world has been warming for 200 years

Anbei die Begründung (die nicht von der bei WUWT abweicht, sondern lediglich ergänzt und plausibilisiert):

Leider kostet die Studie wieder Geld, aber an die wichtigsten Daten kommt man über das Summary und einige Publizierungen.
Die Studie auf NATURE: [5] Early onset of industrial-era warming across the oceans and continents

Zuerst die Darstellung, wie der Verlauf der Globaltemperatur von Deutschland aussieht (Bild 2).

In diesem hoch-technologisierten Land verweilen die 30-Jahresmittel über einen Zeitraum von 1779 – 1924, also 145 Jahre in einem Toleranzband, welches mit 95 % Signifikanz keinen Unterschied belegen lässt. Von 1812 – 1872, also über 60 Jahre ist überhaupt kein Unterschied feststellbar, da die Mittelwertkurve den 1830er Wert schneidet.

 

Bild 2 Globaltemperatur Deutschland (DWD-Daten)

Trotzdem behauptet die Studie, es wäre gelungen für die Welt-Globaltemperatur! den Jahreszeitpunkt zu bestimmen. Begründung: Die damaligen Thermometermesswerte sind zu ungenau, deshalb gelang es mit Proxis.

Wie Proxiverläufe aussehen und wie problematisch sie zu werten sind, wurde in zwei Artikel bereits gezeigt:
-[3] Die Problematik der Temperaturrekonstruktion Eine beispielhafte Sichtung dazu anhand des Projektes PAGES 2k
-[2] Rekonstruierte Temperaturverläufe der vergangenen zwei Jahrtausende. Eine Literatursichtung von 1990 bis ganz aktuell

Das Ergebnis dieser Rekonstruktionen war die damit wissenschaftlich fundierte Erkenntnis (für den Autor), dass Proxis so katastrophal ungenau sind, dass sich damit nichts zum aktuellen Klimawandel mit ausreichender Genauigkeit belegen lässt.

Die Darstellung des Temperatuverlaufs der Nordhemisphere im letzten IPCC-Bericht AR5 zeigt Bild 3. Daraus bitte versuchen, die Temperatur um das Jahr 1800 … 1900 so genau zu bestimmen, dass das Jahr des Klimawandel-Beginns genannt werden kann. Wem das gelingt, Gratulation.

 

Bild 3 Temperaturverläufe verschiedener Rekonstruktionen der Nordhemisphäre. Quelle: IPCC AR4 2007: Figure 1

An der neuen Studie mit den ganz genauen Proxis hat das PAGES 2K-Team mit-gearbeitet. Proxikurven des PAGES 2K-Projektes sehen beispielhaft wie folgt aus (alle Proxis Nordamerika in einem Bild):

Bild 4 Alle Proxis Arctic NAmericaTR des Projekt PAGES 2k Datensatzes. Quelle: Active viewer for the Pages 2K Proxis

Man versuche daraus zu ermitteln, in welchem Jahr des 19.Jahrhunderts der Klimawandel genau begonnen hat. Zur Erinnerung, dabei handelt es sich um die neuesten und besten Proxis!

Wenn viele Proxis ungenau sind, muss man nur die genauen nehmen. Dass das nicht gelingen kann, wurde in:
[3]Die Problematik der Temperaturrekonstruktion Eine beispielhafte Sichtung dazu anhand des Projektes PAGES 2k bereits gezeigt. Man weiss einfach nicht, welche Proxis genau und welche ungenau sind. Zudem muss man jedem Proxi erst kalibrieren. Dazu benötigt man aber einen genauen Kalibrierwert. Und wenn schon die Thermometerdaten zu ungenau sein sollen, wie soll es dann möglich sein, genauere Daten zu bekommen?
Trotzdem behauptet die Studie, dass dies möglich wäre. Bild 5 zeigt Proxi-Rekonstruktionen daraus, aus denen man das Jahr 1830 als „Startjahr“ ermittelt hat.

Bild 5 [5] Temperaturproxis aus der Studie

Die Lösung des Proxiproblems  soll sein, Simulationen zu verwenden und damit die nicht genau genug bekannten Temperaturen rückwirkend zu berechnen. Weshalb dies gelingen sollte, wo man zum Kalibrieren der Simulationen erst einmal genaue Temperaturen benötigt (die man aber nicht hat) und die Simulationen in allen (dem Autor bekannten) Darstellungen nicht einmal die aktuellen Temperaturen simulieren können:

EIKE 07.02.2016: [4] Der Himmel fällt uns auf den Kopf und ohne die Glaskugel im Computer würden wir es nie erfahren

… ist nicht nur dem Autor ein Rätsel:
kaltesonne 7. Oktober 2014: Stimmungsumschwung in Sachen Klimamodelle: Das Vertrauen der Fachwelt schwindet

Fazit

Warum erscheint eine solche, aller wissenschaftlichen Seriosität widersprechende Studie? Der Autor hat eine Vermutung (also eine persönliche, durch nichts belegbare These). Publiziert wurde mit der Studie die Information:
[8] … Das Klima reagiere somit schon auf sehr geringe Mengen an Treibhausgasen, folgern sie im Fachjournal "Nature".

Im Klartext heißt die Botschaft: Alles mit dem CO2 ist noch viel, viel schlimmer, als bisher angenommen!

Diese „Erkenntnis“, erscheint genau zu dem Zeitpunkt, an dem die Politik die Unterschriften zum Klimavertrag rechtfertigen muss. Das wird kein Zufall sein.

Ergänzend kommt eventuell auch noch dazu, dass das PAGES 2K-Projekt für die Auftraggeber das falsche Ergebnis abgeliefert hat. Nachdem die Daten dieses Projektes für jeden einsehbar sind, ist offensichtlich geworden, dass die Temperaturrekonstruktion von M. E. Mann und anderen nicht haltbar sind, die Temperaturverläufe auf jeden Fall anders verliefen und genaue Rekonstruktionen mit der erforderlichen Genauigkeit anhand von Proxis nicht möglich werden (wie am Anfang schon dargestellt).
Aufgabe war aber, die M.E. Mann „Hockeystickkurve“ zu betätigen. Vielleicht haben die Geldgeber nun dem Forscherteam eine „Last Order“ gestellt: Bringt endlich ein politisch verwertbares Ergebnis zustande, oder es wird der Geldhahn zugedreht.

Wie das IPCC die vergangenen Temperaturverläufe rekonstruiert hat, zeigt Bild 6. Darin sieht man deutlich, dass der Klimawandel lange vor 1830, nämlich irgendwo zwischen 1450 … 1650 begonnen hat [3][2]. Das durfte die Studie aber sicher nicht untersuchen.

 

Bild 6[1] Historischer Klimaverlauf. Quelle: AR5 von 2013, Figure 5.7 (Bildausschnitt), vom Autor ergänzt

Quellen

[1]

IPCC AR5 WG1, 2013. Climate Change 2013, The Physical Science Basis

[2]
EIKE 26.03.2016: Rekonstruierte Temperaturverläufe der vergangenen zwei Jahrtausende. Eine Literatursichtung von 1990 bis ganz aktuell
http://www.eike-klima-energie.eu/news-cache/rekonstruierte-temperaturverlaeufe-der-vergangenen-zwei-jahrtausende-eine-literatursichtung-von-1990-bis-ganz-aktuell/

[3]
EIKE 11.05.2016: Die Problematik der Temperaturrekonstruktion Eine beispielhafte Sichtung dazu anhand des Projektes PAGES 2k
http://www.eike-klima-energie.eu/news-cache/die-problematik-der-temperaturrekonstruktion-eine-beispielhafte-sichtung-dazu-anhand-des-projektes-pages-2k/

[4]
EIKE 07.02.2016: Der Himmel fällt uns auf den Kopf und ohne die Glaskugel im Computer würden wir es nie erfahren

Rezension: UBA Studie 24/2015 Die Vulnerabilität Deutschlands gegenüber dem Klimawandel
http://www.eike-klima-energie.eu/news-cache/der-himmel-faellt-uns-auf-den-kopf-und-ohne-die-glaskugel-im-computer-wuerden-wir-es-nie-erfahren/

[5]
NATURE 25.August 2016: Early onset of industrial-era warming across the oceans and continents
http://www.nature.com/nature/journal/v536/n7617/full/nature19082.html#t

[6]
Australian National University: HUMANS HAVE CAUSED CLIMATE CHANGE FOR 180 YEARS Frequently asked questions

[7]
EIKE 11.06.2015: Mit CO2-Reduzierung retten wir die Welt – Einige Rechenspiele (nicht nur) für regnerische Nachmittage

http://www.eike-klima-energie.eu/klima-anzeige/mit-co2-reduzierung-retten-wir-die-welt-einige-rechenspiele-nicht-nur-fuer-regnerische-nachmittage/

[8]
Hamburger Abendblatt 25.08.2016: Studie: Klimawandel begann früher
http://www.abendblatt.de/ratgeber/wissen/article208123675/Studie-Klimawandel




Klimawandel oder heisse Luft?

Unser Klima gehorcht einem hochkomplexen, von der Natur vorgezeichneten Wirkungssystem. Antriebsmotor dieses Klimasystems ist die Sonne. Ein so kompliziertes Gefüge kann nicht statisch sein. Es unterliegt permanent natürlichen Schwankungen. Neuerdings besteht jedoch der begründete Verdacht, dass auch der Mensch ein Störfaktor im Klimasystem ist, indem er Treibhausgase wie CO2 in die Atmosphäre entlässt und so das natürliche Strahlungsgleichgewicht verschiebt. Die Heizwirkung der Sonne nimmt zu. Ab diesem Punkt scheiden sich die wissenschaftlichen Geister tiefgründig und unversöhnlich.

Der selbsternannte Klimarealist glaubt zu wissen, dass anthropogenes CO2 das Klima zum Kippen bringt. Es führt unweigerlich und gnadenlos zur Klimakatastrophe. Die als Klimaskeptiker abgetanen Gegner dieser Auffassung behaupten dagegen, dass CO2 nur ein marginaler Antrieb des Klimawandels ist. Eventuell auch gar keiner, denn sein Signal lässt sich nciht in den Messwerten finden. Die ohnehin geringfügige aktuelle Klimaerwärmung sei zum überwiegenden Teil auf natürliche Ursachen zurückzuführen.

Der besorgte Klimalaie wird dabei jedoch vollkommen allein gelassen. Das vorliegende Buch unternimmt deshalb den schwierigen Versuch, durch Vermittlung von allgemein verständlichem fachlichem Klimawissen die Nebelschwaden aus Dichtung und Wahrheit kompromisslos zu lüften. Es gibt klares Rüstzeug an die Hand, wie unqualifiziertes Klimageschwätz schonungslos entlarvt werden kann. Dem Leser eröffnet es auf diese Weise eine völlig neue klimatologische Blickrichtung und Orientierung. Klimaangst wird nahtlos und systematisch in fundiertes Wissen überführt.

zu bestellen z.B. hier




Kurioses vom „Klimaschutz“: Eine Wurstfirma gibt die Fleischverarbeitung auf, um das Klima zu schützen!

Was der Autoindustrie gesetzlich erzwungen noch bevorsteht, macht der größte deutsche Wursthersteller – Rügenwalder Mühle – freiwillig: Er verzichtet auf seine bisherige Produktbasis und stellt zunehmend vegetarische Wurst her. Die Begründung des Inhabers (Zeitungszitat):
[1] … eines Tages könne die Firma womöglich gar keine Fleischprodukte mehr anbieten. Für vegetarische Kost sprächen aber ökologische Gründe. „Mir geht es um den Klimawandel“, sagte er. Die CO2-Bilanz eines Steaks sei riesig. "So wird es nicht weitergehen auf diesem Planeten", zeigte sich Rauffus überzeugt. 

Da kann man nur vorschlagen, Herr Rauffus (Inhaber der Firma) sollte um über die Pflanzennahrung CO2 und Hintergründe zum ominösen Klimawandel etwas besser Bescheid zu wissen, mal bei EIKE vorbeisehen. Es würde den Wissens-Horizont bestimmt erweitern, um wirklich wichtige Probleme dieses Planeten sehen zu können.

Quellen

[1]

DerStandard.at 27. August 2016:  Deutscher Wurstriese wird immer vegetarischer
http://derstandard.at/2000043445352/Deutscher-Wurstriese-wird-immer-vegetarischer

Anmerkung der Redaktion

Mit dieser Glosse hat unser Autor Dipl. Ing. Helmut Kuntz den 150. Beitrag innerhalb eines guten Jahres veröffentlicht. Immer mit Sachverstand, oft auch mit Augenzwinkern und humorvoller Ironie geschrieben, sofern die traurigen Fakten überhaupt noch Humor erlaubten, ist Herr Kuntz zu unserem fleißigsten Autor avanciert. Grund genug ihm einmal herzlich dafür zu danken und unseren Lesern zur Nachahmung  zu empfehlen. 




Bundesverband der Industrie (BDI) ist komplett zu den Klimaalarmisten übergelaufen: Nach der Devise – If you cant beat them join them

Man stelle sich folgende Situation vor: Ein sehr erfolgreicher Unternehmer, sozial  eingestellt, seine Mitarbeiter großzügig entlohnend, überdies im Lande alle geforderten Steuern und Abgaben gern evtl. manchmal sicher auch zögerlich, entrichtend und der zudem Bewunderer und großzügiger Förderer einer intakten Umwelt ist, wird von zwei seiner Assistenten gebeten, an einem Konzept mitzuwirken, dass, wenn auch in Schritten, die völlige Stilllegung  seines Unternehmens vorsieht. Und nicht nur das, er solle auch – als Vorbild für seine weltweiten Konkurrenten, die später sicherlich nachzögen, das wäre in einem Weltvertrag gerade beschlossen worden- schon mal mit einer umfangreichen Teilstilllegung anfangen. Darüber wolle man jetzt einen Aufruf schreiben, an dem er mitwirken solle, in welchem die ganze Welt dazu aufgefordert wird, es ihm gleich zu tun.

Begründet würde dieser Vorschlag, dass man sicher sei, dass  in etwa 100 Jahren durch seine Unternehmen und deren Aktivitäten die Umwelt so leiden würde, dass niemand mehr für ihn arbeiten wolle oder könne. Das hätten nun  mal wissenschaftliche Studien, welche die Zukunft auf merkwürdige Weise vorhersehen könnten, gezeigt. Diese dürften auch von niemandem angezweifelt werden, denn sowohl die Wissenschaft, als auch die Regierung hätten ihre Richtigkeit bestätigt. 

Was würde der Unternehmer tun? Würde er die beiden – von ihm zudem fürstlich bezahlten Assistenten, die bis dahin für ihn in die Sterne geguckt, oder  sich um den Hofgarten gekümmert haben- sofort zum Teufel schicken, oder würde er von ihnen zunächst mal Beweise verlangen?  Um sie dann, wenn sie nichts vorweisen können, zum Teufel zu schicken? 

Sicherlich würde jeder, der noch einen Rest Verstand besitzt, vermuten, dass der Unternehmer eines von beiden täte.

Doch das ist nicht das, was die Interessenvertretung der deutschen Industrie, verkörpert durch ein Mitglied der Geschäftsführung des Bundesverbandes der deutschen Industrie (BDI) tut.  Sie willigt in dieses, für alle höchst schädliche Ansinnen ein und leiht dem Aufruf ihre Stimme und damit Gewicht.

Der BDI fordert den Untergang weiter Teile seiner Mitglieder hierzulande

Denn nun ist es amtlich. Auch der BDI schlägt sich uneingeschränkt auf die Seite derjenigen, die  weite Teile der Industrie in diesem Land über die Dekarbonisierung zerstören wollen. Anders ist der am 1. September nur in der Printausgabe der Wochenzeitung „Die Zeit“ erschienene Aufruf „Gebt dem Schmutz einen Preis“ (hier hinter Bezahlschranke) nicht zu verstehen. Als Autoren werden genannt: Holger Lösch; Mitglied der Hauptgeschäftsführung des  BDI, Christoph Bals, politischer Geschäftsführer von Germanwatch und Otmar Edenhofer, Stellvertretender Chef des notorischen Potsdam Institut für Klimafolgenforschung (PIK) und Leiter des Mercator Research Institute on Global Commons and Climate Change (MCC) gGmbH. 

Im Untertitel des Aufrufes schreiben die Autoren:

Der Ausstoß von CO2 muss kosten. Ein Aufruf von Germanwatch, dem BDI und der Wissenschaft ..

Und weiter (Hervorhebungen von mir)

Wie lässt sich Klimaschutz in Industrie-, Schwellen- und  Entwicklungsländern finanzieren? Diese Frage wird ein zentrales Thema für die Welt­wirtschaft, deren 20 wichtigste Mächte am Wochenende beim G-20-Gipfel im chinesi­schen Hangzhou aufeinandertreffen. Und die Antwort darauf liegt auf der Hand: Das beste Instrument für einen ökologisch wirksamen und ökonomisch vertretbaren Klimaschutz wäre ein international abgestimmtes Preissystem für den Ausstoß von Kohlendioxid (CO2)…

….Der Bundesverband der Deut­schen Industrie, Germanwatch und das Mercator Research Institute on Global Commons and Climate Change (MCC) stellen einen ge­meinsamen Vorstoß von Industrie, Zivilgesellschaft und Wissenschaft vor. 

Wir wollen zeigen, dass sich der scheinbar unversöhnliche Konflikt zwischen Klimaschutz, Wachstum und Wettbewerbsfähigkeit über­winden lässt: durch internationale CO2-Preise.

.. Wir fordern: Die deutsche Präsi­dentschaft muss nach der Grundsatz­einigung des Pariser Klimagipfels nun die Chance nutzen, in der G 20 weiter gehende Absprachen voranzutreiben…. 

In den kommenden beiden Jahrzehnten müssen Industrie-, Schwellen- und Entwicklungsländer Abermilliarden Dollar in den Aufbau und Ausbau von klimaverträglicher Infrastruktur stecken. Für manche geht es vor allem um allgemeinen Zugang zu sauberem Wasser und Strom. Für andere um bessere Verkehrs- und Energieinfrastruktur. Wir meinen: Die Politik kann und muss eindeutige Signale für globalen Klimaschutz setzen – durch weltweit abgestimmte Preise für den Ausstoß von CO2. 

Diese Preise sind gleich doppelt sinnvoll. Sie lenken erstens Investitionen. Und zweitens erzeugen sie Einnahmen, um den gigantischen Infrastrukturbedarf zu finanzieren.

.. Weltweite COz-Preise würden In­vestitionen in Richtung Klimaschutz lenken und Innovationen anstoßen, die Emissionen weiter senken. Zudem würden sie Ländern mit weniger entwickelten Steuersystemen die Chance eröffnen, künftige Infrastrukturmaß­nahmen zu finanzieren – und das sogar schon mit einem zunächst moderaten CO2-Preis. Deutsch­land sollte seine Führungsrolle in der G 20 nutzen, um mehr Investitionen in den Klimaschutz an­zuregen. Der ideale Startpunkt wäre Hangzhou.

Damit lassen die Autoren die Katze aus dem Sack. Es geht ihnen allein um die „Generierung“ von „Abermilliarden Dollar“ also „ Einnahmen, um den gigantischen Infrastrukturbedarf zu finanzieren“.

Zitat von O. Edenhofer in der NZZ anlässlich der Klimakonferenz von Cancun (Details siehe oben rechts) 

Diese sollen – nach Abzug der unvermeidlichen und viel Macht verleihenden Umverteilungskosten vorzugsweise via UN-Behörden-  von den jetzt schon gebeutelten Verbrauchern der Industrieländer aufgebracht werden und den „Ländern mit weniger entwickelten Steuersystemen“ zugute kommen. 

Scheute man sich in der Überschrift schon nicht davor, dass für unser aller Überleben unverzichtbare – aber sonst völlig harmlose Gas CO2 sowie ungiftige, unsichtbare und nur in Mikromengen  von rd. 4 Molekülen auf 10.000 Moleküle Luft, in „Schmutz“  umzubenennen, so bezeichnet man auch noch die vielen, vielen unter Korruption, Nepotismus und verbrecherischen Regimen leidenden Drittweltstaaten plötzlich vornehm als „Länder mit weniger entwickelten Steuersystemen“.  Und fordert dazu auf in diese Länder „Abermilliarden Dollar“ zu leiten.

BDI Holger Lösch – Mitglied der Hauptgeschäftsführung- ist mit von der Partie

Und der BDI stimmt nicht nur zu, sondern stellt auch noch einen der Autoren dieser Schrift. Und, da nichts, aber auch gar nichts von den Unterstellungen, in Bezug auf die merkwürdige Forderung zum „Klimaschutz “, die im Aufruf als Weltübel genannt wurde  jemals bewiesen wurde, sondern ausschließlich in der Glaubenswelt der Autoren begründet ist, lohnt es sich einmal zu überprüfen, wie es denn um die naturwissenschaftliche Kompetenz der Autoren bestellt ist.

Eines kann man vorab schon mal feststellen: keiner der drei hat naturwissenschaftliche  Kompetenzen, weder allgemein, noch in engeren klimawissenschaftlich relevanten Fächern, wie Geologie, Geographie, Meteorologie oder Physik, Ingenieurwissenschaften oder Chemie. Damit erinnert das Trio fatal an die berüchtigte Ethik-Kommission, die den unverantwortlichen „Atomausstieg“ begründen half, und ebenfalls frei von jeder Sachkenntnis war, und viele andere Gremien dieser Art, die im Rahmen des System Merkel über die Köpfe gewählter Abgeordneter hinwegregieren.

Keiner der Autoren verfügt über naturwissenschaftliche Kompetenz – aber alle über eigensüchtige Motive

BDI Holger Lösch

Über den BDI Mann Holger Lösch findet man, dass er von 1983 bis 1992 ein Studium der Politikwissenschaft, Geschichte und Germanistik an der Ludwig-Maximilians-Universität in München absolvierte. Ob er diese Studien mit einem Magister abgeschlossen hat, erfahren wir nicht.

Wir erfahren nur, dass er schon während seines Studiums „was mit Medien“ machte und als Journalist und Redakteur beim Bayerischen Rundfunk im Bereich Fernsehen zu arbeiten begann. Es dort sogar  bis zum die Leiter der Zentralen Programmkoordination schaffte.  2001 wechselte er zur Schörghuber Unternehmensgruppe in München und hat sich dort bis zum Geschäftsführer  Unternehmensentwicklung, Kommunikation und Customer Relation Management der Arabella Hotel-Holding, München hochgearbeitet.

Seit 2008 ist er beim BDI zunächst als Leiter Bereich Kommunikation und Marketing, ab 2009 als Mitglied der Geschäftsleitung und seit Juli 2011 als Mitglied der Hauptgeschäftsführung angestellt. 

Er gehört also eindeutig der Zunft, die viele, zwar etwas abfällig aber nicht ganz falsch, als die schwatzende Zunft bezeichnen, und darf, wie so viele im Lande, als solcher zu allen wichtigen Angelegenheiten dieser Welt seine zwar von jeglicher Sachkenntnis völlig ungetrübte, aber sicher geschliffen formulierte wichtige Meinung äußern.   

Soviel zum Sachverstand des BDI Vertreters 

Christoph Bals von German Watch e.V

Auch bei Christoph Bals von German Watch e.V. sieht es nicht besser aus.

Er wirkt dort als Politischer Geschäftsführer [Policy Director],  gehört außerdem zu dessen Gründungsmitglied (1991). ). Auch Bals ist kein Atmosphärenphysiker, sondern studierte nach eigenen Angaben Theologie (Diplom), Volkswirtschaft und Philosophie in München, Belfast, Erfurt und Bamberg. Sein bisheriger beruflicher Werdegang läßt sich am besten mit „Weltrettung als Beruf“ im Sinne von „gut gemeint ist nicht gut gemacht“ beschreiben. Außerdem ist er professioneller Vereinsmeier: Denn er fungiert neben seiner aufopferungsvollen Rolle für Germanwatch  auch noch als Mitglied in folgenden Steuerungs- und Beratungsgremien: Sprecherrat der klima-allianz deutschland, Vorstand der Stiftung Zukunftsfähigkeit, Vorstand der Renewables Grid Initiative (RGI), Vorstand der Munich Climate Insurance Initiative (MCII) und im Integritätsbeirat von atmosfair.  Selbstverständlich heißt die Munich Climate Insurance Initiative (Überraschung!) nicht nur so, denn die Münchner Rück ist hier der aktivste Part. Deren Selbst-Darstellung liest sich so:

Die MCII ist eine gemeinnützige Initiative, die sich aus Versicherern, Wissenschaftlern und Vertretern von Nichtregierungsorganisationen (NGOs) zusammen setzt. Sitz der Initiative ist das Institut für Umwelt und menschliche Sicherheit der Universität der Vereinten Nationen (UNU-EHS). Die MCII bietet ein Forum, um die Versicherungsexpertise zum Thema Klimawandel zu bündeln.

Und weiter

Den Vorstandsvorsitz der Munich Climate Insurance Initiative hat Peter Höppe, Leiter Geo Risks Research bei Munich Re. Thomas Loster, Geschäftsführer der Münchener Rück Stiftung, ist Mitglied des Vorstands.

Wie gut es da passt, dass der Versicherer Munich Re, der auf Milliarden Versicherungsprämien für Versicherungen gegen den Klimawandel hinarbeitet, Geschäft ist schließlich Geschäft, gleich auch noch den Vorstandsvorsitzenden dieser illustren Truppe stellt.  Und die Zuarbeit vor allem aber den Zugang zu allen wichtigen Regierungsvertretern, wie auch NGO´s besorgt ihm dann Vorstandskollege Herr Bals  von Germanwatch. Der fehlte nämlich auf keiner wichtigen Klimaveranstaltung und kennt daher Hinz und Kunz. Da er auch noch ein Projekt vom Bundesministerium für Bildung- und Forschung betreut, das er zusammen mit dem PIK und dem Wuppertal Institut bearbeitet, schließt sich der Kreis zu Otmar Edenhofer. 

Auch bei Christoph Bals sucht man Sachverstand vergeblich, den besitzt er nicht, dafür aber umso mehr Erfahrung im Strippenziehen, Lobbyismus und Kampagnenorganisation. Und die lässt sich Germanwatch e.v. fürstlich bezahlen.

So weist der Finanzbericht 2014 Personalausgaben in Höhe von immerhin rd. 1,65 Mio € (von rd. 3 Mio Gesamtausgaben) aus,  bestehend aus Löhnen & Gehältern, sozial Abgaben und Fremdhonoraren (rd. 400.000 €)). Bei gegenwärtig ca. 45 Mitarbeitern, davon ca. 4-5 die ihr „soziales Jahr“ dort verbringen und incl. Geschäftsführung und Praktikanten, wurden für jeden Beschäftigen rd. 36.700 € im Jahr ausgegeben. Wenn man die Sozial-jährigen abzieht sind es schon stolze 41.000 €. Im Durchschnitt!

Bei nur.  73.375 € Einnahmen aus Mitgliedsbeiträgen (EIKE hat aber leider noch sehr viel weniger und keine bezahlten Projekte) kann man die Erschließung externer Finanzquellen zur Deckung dieser und dazu noch von Projekten nur als sehr, sehr erfolgreich bezeichnen.

Dagegen ist das reine Spendenaufkommen relativ gering, denn es flossen nur rd. 205.000 €.

Denn im letzten ausgewiesenen Finanzbericht sind Einnahmen von  über 2 Mio € für Projektarbeit im „ideellen“ Bereich ausgewiesen. Diese stammen überwiegend von der allen schon bekannten Mercator Stiftung, der European Climate Foundation, die auch vom Megaspekulanten George Soros großzügig finanziert wird und vielen staatlichen und halbstaatlichen Stellen. Man schafft sich als Regierung eben seine NGO´s selber.

Otmar Edenhofer

Und auch beim dritten im Bunde, dem Multitalent, Multifunktionär, Ex Jesuiten und heutigen Volkswirtschaftsprofessor Otmar Edenhofer wird man in Bezug auf naturwissenschaftlichen Sachverstand nicht fündig. Dafür umso mehr im Bereich der Gesellschaftsbeeinflussung mittels diverser Gremien, denen Edenhofer oft leitend angehört und die häufig auch von der schon erwähnten Mercatorstiftung gefördert werden.  Seine jüngst erklommene Position ist die des Direktors des Mercator Research Institute on Global Commons and Climate Change (MCC), einer gemeinsamen Gründung der Stiftung Mercator und des Potsdam Instituts für Klimafolgenforschung (PIK). 

Würde man alle seine früheren und heutigen Ämter aufführen, würde das den Rahmen dieses Beitrages bei weitem sprengen. Hier nur soviel, wie man es auf der Website seines neuen Instituts findet:

Er ist Lehrstuhlinhaber für die Ökonomie des Klimawandels an der Technischen Universität Berlin und stellvertretender Direktor sowie Chefökonom am Potsdam-Institut für Klimafolgenforschung. Dort leitet er den Forschungsbereich III – Nachhaltige Lösungsstrategien, dessen Forschung sich auf das Gebiet der Ökonomie der Klimastabilisierung konzentriert. Von 2008 bis 2015 war er einer der Vorsitzenden der Arbeitsgruppe III des Weltklimarates des IPCC, dem 2007 der Friedensnobelpreis verliehen wurde. Er hat Beiträge sowohl in Science, PNAS, Nature Climate Change und in führenden umwelt-, energie- und ressourcenökonomischen Zeitschriften veröffentlicht und zahlreiche Bücher verfasst. Als aktives Mitglied unterstützt er die Forschungsunion, die Themengruppe Klima, Energie und Umwelt der Nationalen Akademie der Wissenschaften Leopoldina und berät die Weltbank als Mitglied im Beirat der "Green Growth Knowledge Platform". Seit 2013 ist er Ko-Vorsitzender der neu ins Leben gerufenen Energy Platform des European Council of Academies of Applied Sciences, Technologies and Engineering (Euro-CASE).  Aufgrund seiner herausragenden wissenschaftlichen Leistungen wurde Ottmar Edenhofer im Januar 2015 zum Mitglied der Deutschen Akademie der Technikwissenschaften acatech gewählt.

Also, irgendeinen Sachverstand kann man ihm sicher nicht absprechen, nur dort wo es in diesem Fall allein ankommt. besitzt er keinen. Nämlich den physikalisch naturwissenschaftlichen Grundlagen des Klimawandels. Dafür umso mehr im Lobbyismus, Strippenziehen und damit Propagandaarbeit. Dazu ist er voll qualifiziert.  

Volkswirte, Theologen und Kommunkationsexperten sagen uns wo es langgeht.

Damit steht fest, das ein diplomierter Theologe, und einer der "was mit Medien" studiert und erfolgreich angewendet hat sowie ein habilitierter Volkswirt, das für alles Leben auf der Welt notwendige unverzichtbare CO2 zu "Schmutz" degradieren, und durch die Besteuerung der Luft zum Atmen Abermilliarden abgreifen (generieren) wollen, die sie dann korrupten Regimen zu Lasten der fleißigen Bürger der entwickelten Länder überlassen möchten. Und das alles begründet, mit der schlichten Behauptung, dass damit die Welt nicht wärmer würde.

Und die ehemals seriöse Wochenzeitung "Die Zeit" bietet ihnen dazu das Podium.Verkehrte Welt? Nein, bittere Realität!

Von Theologen, erwartet man, dass der Glaube ihr Lebensinhalt ist, ein Kommunikationsexperte zeigt ihm, wie er seinen Glauben am Besten den Gläubigen vermittelt. Doch was macht ein Volkswirt in dieser Runde? Viele trauen den Volkswirten zwar vieles zu, jedoch alle etwas verschiedenes. Deswegen gibt es so viele Witze über die Volkswirte. Einer geht so:   

Man sagt, dass Christoph Columbus der erste Volkswirt  gewesen sei. Warum?

  • ♦ Als er die Segel setzte, um Amerika zu entdecken, wusste er nicht wohin er segelte.
  • Als er ankam, wusste er nicht, wo er war.
  • Und all das hat er mit staatlichen Mitteln finanziert.

Im Gegensatz zum "Aufruf" hatte jedoch der Zufallsfund von Columbus sehr positive Folgen, zumindest für die Wirtschaft der Europäer. Doch nicht mal darin hat der erste Volkswirt Columbus würdige Nachfolger gefunden. Einer von Ihnen schreibt jetzt Aufrufe in "Die Zeit".




Speicher – keine Lösung für die Energiewende in Sicht?

…Lassen Sie mich ein paar der Missverständnisse ausräumen und dann anhand der wichtigsten Anwendungsfelder von Stromspeichern erläutern, warum wir meines Erachtens fast überall noch mehrere Jahrzehnte von ihrem großtechnischen Einsatz entfernt sind – wenn dieser denn jemals kommt.

Erstens: Stromspeicher produzieren nichts und verdienen per se kein Geld. Speicher optimieren ein Energieversorgungssystem an anderer Stelle. Ob die Optimierung durch Speicher bspw. zur Erhöhung der Versorgungssicherheit volkswirtschaftlich sinnvoll ist, hängt davon ab, ob die nächstbesten Lösungen teurer sind oder nicht. So waren die Pumpspeicherkraftwerke in Deutschland jahrzehntelang Gelddruckmaschinen für die Energieversorger, weil die Bereitstellung von Spitzenlaststrom durch andere Kraftwerke noch teurer war.  Und die Preisunterschiede beim Strom zwischen Nacht und Mittagsspitze waren so groß, dass mit der Differenz gute Gewinne erwirtschaftet werden konnten. (Pumpspeicherkraftwerke pumpen mit "überschüssigem" Strom Wasser von einem Talsee hoch zu einem Bergsee. Wenn Strom benötigt wird, wird Wasser über Turbinen wieder heruntergelassen. Die Seen werden in der Regel künstlich angelegt. Dass Pumpspeicherkraftwerke heutzutage kein Geld mehr verdienen können, werden wir weiter unten noch diskutieren.)

Zweitens hängt die Wirtschaftlichkeit von Stromspeichern empfindlich vom Anspruch an sie ab. Um sich zu Hause in den Sommermonaten mithilfe einer Photovoltaikanlage und einem Speicher für einige Zeit vom Stromnetz abkoppeln zu können, reicht ein Speicher mit wenigen Kilowattstunden an Kapazität. PV-Anlage und Speicher kosten zusammen einen deutlich fünfstelligen Betrag, der sich derzeit noch nicht rechnet, dennoch aber von manchen innovativ gesinnten Hausbesitzern ausgegeben wird. Würde man sich aber das ganze Jahr vom Stromnetz unabhängig machen wollen, benötigte man mehrere Tausend kWh an Speichern für einen Gegenwert einer Villa im Grünen. Die Kosten für Speicher schnellen also exponentiell in die Höhe, wenn man von 30% Selbstversorgung aus Wind- bzw. Solarkraftwerken auf vollständige Autarkie kommen möchte und überfordern uns wirtschaftlich und technisch. Dies gilt sowohl für einzelne Hausbesitzer als auch für die gesamte Volkswirtschaft.

Daraus folgt übrigens unmittelbar, dass es keinen profitablen Pfad zu einer Vollversorgung Deutschlands mit speicherüberbrückten Wind- und Solarkraftwerken geben wird. Solange thermische Kraftwerke benötigt werden, um sonnen- und windarme Zeiten zu überbrücken, wird es sich vorbehaltlich massiver staatlicher Eingriffe nicht rechnen, zusätzliche Speicher zu bauen, die um die gleichen Produktionsstunden konkurrieren.

Drittens kommt es bei Stromspeichern stark auf ihren Wirkungsgrad an. Da man Strom in nennenswerten Mengen nicht direkt speichern kann, muss man die elektrische Energie in Lageenergie (wie beim Pumpspeicherkraftwerk) oder chemische Energie (Batterien und Gase) umwandeln und bei Bedarf wieder zurück in elektrische Energie. Dies gelingt nie vollständig, sondern bei jeder Umwandlung von Energie in eine andere Form fallen Verluste an – mal mehr, mal weniger. Am Ende zählt der Gesamtwirkungsgrad, also wie viele Kilowattstunden am Ende herauskommen pro eingesetzter Kilowattstunde an Energie. Zuvor sind Verluste aus Umwandlung einer Energieform in die andere, ggf. Verdichtung und Kühlung, Transport und Lagerung abzuziehen. Bei guten Batterien und modernen Pumpspeicherkraftwerken liegt man im Gesamtwirkungsgrad bei über 80 Prozent, ein guter Wert. Bei allen mir bekannten Power-to-Gas-Technologien (P2G, d.i. die Umwandlung von elektrischer in chemisch gebundene Energie) liegt der Gesamtwirkungsgrad für die Wiederverstromung aber bei 10-20 Prozent je nach Technologie, wenn man ehrlich rechnet. Dies zeigt die enorme Herausforderung, vor denen die Ingenieure stehen, um P2G-Technologien für die Stromwirtschaft nutzbar zu machen.

Viertens sind vor einer technischen und wirtschaftlichen Planung eines Speichereinsatzes viele Daten zu den wahrscheinlichen Einsatzbedingungen zu erheben. Manche dieser Daten werden schwer verfügbar sein. Wenn Stromspeicher aber elektrische Energie so puffern sollen, dass sie immer ausreichend zur Verfügung steht, sollte ein genaues Verständnis des Lastverhaltens und des wetterbedingten Produktionsprofils von Wind- und Solarkraftwerken bereitstehen, bevor investiert und gebaut wird. Die raum-zeitlichen Eigenschaften der Witterung auf einer Zeitskala von Tagen bis Monaten und für kontinentale Gebiete wurden aber bislang noch nie systematisch untersucht, obwohl dies für die Planung der Energiewende mit Wind, Sonne und Speichern notwendig gewesen wäre. Solche Analysen werden in der Meteorologie jetzt erst begonnen, von einem hinreichenden theoretischen Verständnis der Wirtschaftlichkeit von Stromspeichern sind wir aber noch weit entfernt. Dies gilt sowohl für die volkswirtschaftliche Betrachtung ganzer Energienetze als auch für einzelne Insellösungen wie einsam gelegene Hotelanlagen.

Als gescheitert darf man beispielsweise ein Experiment auf der kanarischen Insel El Hierro betrachten.  Dort wurden bis Frühjahr 2015 Wind-, Solar- und Speicherkraftwerke errichtet, um sich von der Stromproduktion aus Dieselaggregaten komplett unabhängig zu machen und die gesamte Insel mit Strom zu versorgen. Dies gelang nicht einmal ansatzweise, nach einem Jahr stammten zwei Drittel des Stroms aus Diesel und er kostete durchschnittlich mehr als einen Euro je Kilowattstunde. Der Hauptgrund für dieses grandiose Scheitern ist, dass es auch auf den Kanaren lange windarme und bewölkte Perioden gab, die in der Planung nicht berücksichtigt wurden.

Wenn man heute über den Einsatz von Stromspeichern nachdenkt, sollten diese vier Missverständnisse berücksichtigt werden. Was bedeutet das nun für die sechs typischen Anwendungsfälle von Speichern?

Der Einsatz von Speichern in mobilen Kleingeräten vom Mobiltelefon bis zum Roboter-Rasenmäher ist technisch gut verstanden, weniger kostenkritisch und soll daher hier nicht weiter betrachtet werden. Ein neuer Anwendungsfall für Speicher ist die dezentrale Stromnetzstabilisierung mit Batteriespeichern. Dies ist ein Anwendungsfall, den es vor wenigen Jahren noch nicht gab, was ein wenig erläuterungsbedürftig ist. Um ein Stromnetz stabil zu betreiben, muss neben der Spannung auch Frequenz und Phase kontrolliert werden. Die Elektrotechniker sprechen von bereitzustellendem "Blindstrom". Weil Generatoren von Großkraftwerken große rotierende Massen haben, können kleine Instabilitäten in Phase und Frequenz durch die Trägheit der rotierenden Massen ausgeglichen werden, ein Stromnetz mit Großkraftwerken ist also in Teilen selbstregulierend. Erst die Abschaltung von Großkraftwerken zu Gunsten von kleinen, dezentralen Stromerzeugungskapazitäten hat es erforderlich gemacht, an vielen Stellen das Stromnetz auf zu stabilisieren. Beispielsweise wurde das stillgelegte Kernkraftwerk Biblis zu einer großen Schwungmasse umgebaut. Daneben gibt es viele Projekte, um dezentral Blindstrom über Batteriesysteme bereitzustellen. Ökonomisch wäre es angezeigt, die Verursacher der Netzinstabilitäten, also die Eigentümer von Wind- und Solaranlagen, an diesen Kosten angemessen zu beteiligen, statt sie über Netzentgelte zu sozialisieren….

Weiterlesen beim Deutschen Arbeitgeber Verband hier 




Klima-Monatsrückschau August 2016

Nachdem der Juli bereits dargestellt wurde „der Juli 2016 war im Mittel wieder zu warm“ folgt anbei eine Übersicht zum August.

Unsere Umweltministerin in Berlin ist überzeugt, den Klimawandel täglich spüren zu können. Spüren kann sie ihn also höchsten während ca. 1/4 des Jahres, während der restlichen 3/4 des Jahres „spürt“ sie ihre Überzeugung.

 

Bild 1 Temperaturverlauf der Jahreszeiten Deutschland von 1750 … Aug. 2016. Quelle WIKIPEDIA: Zeitreihe der Lufttemperatur in Deutschland

Der August selbst liegt gerade noch über dem 30-Jahres Mittelwert. Der 95 % Vertrauensbereich des Mittelwertes (n=30; t-Verteilung) liegt im Vertrauensbereich vom Anfang des 19. Jahrhunderts. Streng statistisch hatten wir damit einen August-Mittelwert, welcher sich signifikant nicht vom Mittelwert um 1807 unterscheidet. Der Verlauf selbst gibt nicht entfernt zu einer Erwärmungshysterie Anlass. Ein Klimawandel mit explodierenden Temperaturen ist im Augustverlauf jedenfalls nicht zu entdecken.

 Bild 2 Temperaturverlauf August Deutschland von 1750 … 2016., ergänzt um den 30-Jahres Mittelwert (braun) und den
95 % Vertrauensbereich des Mittelwertes (rot gestrichelte Linien), berechnet aus der n=30 Referenzperiode.
Quelle WIKIPEDIA: Zeitreihe der Lufttemperatur in Deutschland

Sichtung von Experten-Aussagen

Immer neu erschütternd ist es, die Aussagen sogenannter – von den Medien hoffierten – Klimaexperten und gar Klimawissenschaftlern zu sichten. Wenn jemand den Klimawandel bejaht, darf er jeden Unsinn reden – denn niemand (außer z.B. auf EIKE) will es bemerken.

Es wird immer extremer

Beispiel: Klimaexperte Dr. Gunther Tiersch
WAZ 07.07.2016: Das Wetter wird immer extremer
Ist das Wetter extremer geworden oder kommt das dem Laien nur so vor?
Dr. Gunther Tiersch: Ich muss schon sagen, dass es extremer geworden ist. Von sehr warm geht es jetzt sehr schnell wieder zu relativ kühl, ob das jetzt im Frühjahr, im Sommer oder im Herbst ist. Wir haben zuletzt relativ milde Winter erlebt, die haben in Deutschland zugenommen, und in diesem Frühjahr gab es viele Gewitter und Starkregen. Solche Wetterlagen waren früher nicht in dem Maße üblich. Müssen wir uns in Zukunft auf häufigere Extremwetter wie Dauerregen und Hitzewellen einstellen?
In den Klimavorausberechnungen für die nächsten Jahrzehnte ist es ein eindeutiger Trend, dass die Extreme immer weiter zunehmen. Wir sind in einem Klimawandel, daran gibt es gar nichts zu rütteln. Die Auswirkungen sind wahrscheinlich stärker, als das bislang jemand vermutet hat, und darauf müssen wir uns einstellen.

Beispiel: Ein Experte des DWD
BR 31.08.2016: Sommer 2016 Sommer 2016 – ein Hinweis auf den Klimawandel?
"Ein einzelner Sommer macht noch keinen Klimawandel", sagt Uwe Kirsche vom DWD. Starke Niederschläge und Hitzewellen habe es auch früher schon gegeben. Rückblickend könne es in einigen Jahren allerdings durchaus heißen: "Das waren klare Signale für den Klimawandel." Dieser werde sich den Klimaforschern zufolge in ausgeprägteren Hitzewellen und häufigeren Unwettern zeigen, mit extrem starken Niederschlägen wie in Simbach am Inn Anfang Juni.

Wie es damit wirklich aussieht, zeigt das folgende Bild mit den Abweichungen der Augusttemperaturen vom Mittelwert.

Der aktuelle Temperaturwert liegt nahe 0, also der minimal möglichsten Abweichung und die „Ausschläge“ werden auf keinen Fall höher, sondern in allen Zeiträumen niedriger.

 

Bild 3 Monat August ab ca. 1780, prozentuale Abweichung vom 30-Jahre Mittelwert. Diese nehmen ab und nicht zu

Das Unwetter in Simbach muss weiterhin als Beleg für immer extremere, bzw. wie der Experte vom DWD sagte, „extrem starke“ Niederschläge herhalten. Dabei könnte man schon erwarten, dass nach Monaten wirklich jeder sich so bezeichnende Wetterkasper beim DWD die Stationsdaten Simbach hätte einsehen können. Bild 3.2 zeigt die Niederschläge seit 1981 (beim DWD abgerufen am 01.09.2016). Der Ausschlag am 32.05.2016 in Simbach ist deutlich, aber bei Weitem nicht extrem. Was niemand der „Experten“ gerne zugibt erkennt man ebenfalls: Die Temperaturdifferenz an jenem unseligen Tag war absolut unspektakulär (roter Pfeil im Bild 5). Nichts mit: „höhere Temperaturextreme = mehr Starkregen“. Deshalb bleibt der Autor bei seinen Darstellungen, dass die Ursache der Überschwemmung behördliches Versagen (Bruch eines vollkommen ungeeigneten, niemals als Damm geplanten Talübergangs durch Verstopfung) war, siehe: EIKE 09.06.2016: An den Unwettern ist der Mensch eher nicht schuld – aber ganz sicher an deren Folgen

Auch die Temperatur bei Simbach ändert sich kaum. Seit 1981 (weiter zurück geht die Temperaturreihe leider nicht) sind nur minimalste Unterschiede erkennbar (Bild 4). Schon gar nicht wird es immer extremer und heißer. Nun könnten die zunehmenden Extreme in den kurzzeitigen Temperaturdifferenzen liegen. Aber die Auswertung in Bild 5 zeigt auch dazu nur in den letzten Jahren einen ganz kleinen Anstieg über die bisherigen, seit Beginn der Messreihe gleich gebliebenen Mittelwert-Maxima.

Es zeigen sich damit exemplarische Beispiele für Aussagen, welche klar den wirklichen Daten widersprechen. Bei Herrn Dr. Tiersch klingt es an, woher sein Wissen stammt: „ … in Klimavorausberechnungen … „ steht es eben so. Statt in den Computer, einmal aus dem Fenster zu sehen, ist für einen „Experten“ nicht mehr standesgemäß. Danach könnte man ja keine Interviews mit dem gewünschten Inhalt mehr geben.

 

Bild 3.2 Niederschlagsdaten in Tagesauflösung von 1981 – 8.2016 der Station Simbach, DWD Stations-ID 4706

Bild 4 Tagestemperaturen von 1981 – 8.2016 der Station Simbach, DWD Stations-ID 4706

 

Bild 5 Absolute Differenz der Tagestemperatur zum Vortag von 1981 – 08.2016 der Station Simbach, DWD Stations-ID 4706. Blaue Linie: Jahresmittelwert der Tagesdifferenz (rechte Skala). Der rote Pfeil zeigt die Tagesdifferenz am 31.05.2015, dem Tag des großen Unwetters mit 6,8 Grad (0,9; 4; 6,8; 0,9 Grad Tagesdifferenzen)

Einem Professor darf man aber wohl glauben

Herr Professor Lesch entrückt wohl immer weiter in die Sphären eines Klimapropheten und Weltretters, wie man an seinem neuen Buch: Lesch, Harald / Kamphausen, Klaus: “Die Menschheit schafft sich ab” erkennen kann.

Wohl deshalb hat er es sich nicht nehmen lassen, die ignorierenden Aussagen der AfD zum Klimawandel zu zerpflücken und darüber eine Videoreportage drehen zu lassen: Lesch youtube-Video: Das AfD-Programm wissenschaftlich geprüft. Eine vernichtende Kritik an einer darin gebrachten Darstellungen, dass der Hopfen in Deutschland wegen des Klimawandels aussterben würde, erfolgte bereits: Wenn der Hopfen nicht stirbt, stirbt dann der Klimawandel?

Doch Prof. Lesch berichtete in seinem Klima-Rettungseifer noch mehr, was eine Nachschau lohnt. Er behauptete, die AfD würde mit ihrem Beharren auf den Hiatus fast so etwas machen, wozu man in Bayern „bescheissen“ sagt. Ersichtlich genussvoll zeigt er dazu im Video nach und nach Temperaturbilder mit dem in seinen Augen nicht vorhandenen Hiatus, bis er beim letzten landet (Bild 7), in dem die Erde geradezu vor „Temperaturschmerz“ in die Überhitzung springt.

 

Bild 6 Prof. Lesch zeigt eine Darstellungen wie sie von der AfD verwendet wird mit dem „Hiatus“ (Wärmestillstand)

 

Bild 7 Prof. Lesch zeigt die wirklichen –aktuellen Daten der Nasa mit einer drastischen „Überhitzung“

Jedoch passiert Herrn Prof. Lesch das Gleiche wie der AfD. Seine Daten sind veraltet, genau genommen (bewusst?) in zu grober Auflösung. Man kann die Daten nämlich auch in Monatsauflösung auf der NASA-Homepage darstellen lassen und dann sehen sie wie in Bild 8 (Screenshot von der NASA-Homepage-Darstellung) aus. 

Und siehe da: Die aktuelle Temperatur bestätigt eher die Aussage der AfD nach einem Temperaturstillstand. Und dass die Natur wegen des CO2 solche kurzen „Schmerzenssprünge“ machen würde, glaubt sowieso kein vernünftiger Klimafachmann: Es sind atlantische Zyklen.

Ein schönes Beispiel, wie schnell man beim sich ständig und verblüffend stark ändernden Klima „falsche“ Daten zeigt (ist dem Autor auch schon passiert). Hier liegt es aber an der zeitlichen Auflösung. Und dass man da erst einmal nachsehen (oder die Daten zeigen) sollte, bevor man öffentlich in einem Video anklagt, müsste Prof Lesch, der nicht irgendein Privatmann, sondern Klima-Fachberater der Bayerischen Umweltministerin ist, wissen.  
Anm. zu den Giss-Bildern: Zum Zeitpunkt der Editierung waren die Giss-Daten noch nicht mit dem Augustwert aktualisiert, deshalb der Stand Juli 2016.

Bild 8 NASA giss Datensatz Stationsmessungen bis Juli 2016 in Monatsauflösung (Monthly Mean Global Surface Temperature) Vom Autor ergänzt

 

Bild 9 NASA giss Datensatz Stationsmessungen Sommer bis Juli 2016 in Jahresauflösung (August 2016 von der NASA noch nicht eingepflegt)

Nachtrag

Nach dem Abgeben des Beitrags erschien eine Sommerrückschau auf Klimaretter.Info. Im Wesentlichen ist es die Darstellung des DWD. Vielleicht deshalb, weil eine eigene Interpretation der Daten als Regierungsberater(-in) für Klima gegenüber Frau Hendricks „not amused“ wäre.

Klimaretter.Info: Deutscher Sommer um 1,5 Grad wärmer

Demnach lag die Durchschnittstemperatur mehr als 1,5 Grad über dem langjährigen Mittel von 16,3 Grad Celsius in den Sommern zwischen 1961 und 1990. 

Wie sich das im Detail darstellt, ist mit dem folgenden Bild gezeigt.

Bild 10 Detailansicht Sommertemperaturen Deutschland von 1750 – 2016. Grafik vom Autor anhand der DWD-Daten erstellt.

 [3] Global gesehen war der vergangene Juli der wärmste seit Beginn der Messungen 1880.

Die Daten zeigt Bild 11. Was man nicht so deutlich erkennt:

Seit 1998, also 16 Jahren hat sich die Juli-Welttemperatur danach um +0,14 °C erhöht. Das ist eine nicht messbare Erhöhung.
Anm.: Eine sorgfältig kalibrierte elektronische Messstation hat einen Messfehler von +-0,2 Grad. 0,14 °C über die gesamte Welt sind damit nicht im Entferntesten messtechnisch nachweisbar.

Darstellungen wie im Bild 11 sind nicht sehr hilfreich. Wie die Verhältnisse Mittelwert / Temperaturausschläge eines Monats wirklich aussehen, zeigt Bild 12 (mit den gleichen Daten) besser. Eine Abweichung von vielleicht (nicht messbaren) +0,14 °C in 16 Jahren ist bei den wirklichen Temperaturspannen eines Monatsmittels nicht bemerkbar (Anm.: Die Temperaturspanne der Tagestemperatur beträgt in Deutschland typisch 30 °C)

 

Bild 11: GISS Datensatz der globalen Temperatur-Anomalie Monat Juli (°C). Grafik vom Autor aus den Daten erstellt.

Bild 12 zeigt auch, dass sich der Juli in Deutschland seit 1780 (da beginnt der 30-Jahre Mittelwert) um ca. 1 °C erhöht hat. Von einem alarmistischen Anstieg demnach keine Spur.

Bild 12 Temperaturverlauf Monat Juli Deutschland (dunkelblau) und GISS weltweit (rot, GISS-Daten auf Endwert Deutschland normiert)

[3] Durch den Klimawandel wird Starkregen in Deutschland künftig häufiger vorkommen. Der Deutsche Wetterdienst geht davon aus, dass Starkregenereignisse in den kommenden Jahrzehnten um bis zu 50 Prozent zunehmen werden.

Dass die Starkregen „starke Regen“, aber nichts Außergewöhnliches waren, wurde bereits am Anfang dargestellt (Bild 3). Siehe dazu auch: Die Niederschlagsentwicklung in Deutschland und weltweit zeigt keinen Klimawandel-Einfluss

Und dass von den Simulationen wenig zu halten ist und gerade Niederschläge nicht wirklich simuliert werden können, wurde bereits in:

Klimamodelle rekonstruieren Niederschlagsentwicklungen nur mit gröbsten Fehlern   

Der Himmel fällt uns auf den Kopf und ohne die Glaskugel im Computer würden wir es nie erfahren

Rezension: UBA Studie 24/2015 Die Vulnerabilität Deutschlands gegenüber dem Klimawandel gezeigt.

Fazit

Mit dem Sommer 2016 lässt sich abhängig vom gewünschten Ergebnis eine Entwarnung, wahlweise aber auch Klimaalarm vermitteln.

Bei Klimaretter.Info, der Informationsseite von C. Kemfert (Klimaberaterin von Frau Hendricks) erkennt man sofort, welche Tendenz gewünscht ist, siehe dazu auch: Der Unterschied in der Klimawandel-Berichterstattung

Quellen

[1]
EIKE 18.08.2016: Im Klimawandel nichts Neues, der Juli 2016 war im Mittel wieder zu warm
http://www.eike-klima-energie.eu/news-cache/im-klimawandel-nichts-neues-der-juli-2016-war-im-mittel-wieder-zu-warm/

[2]
Deutscher Wetterdienst DWD: Deutschlandwetter im August 2016 Datum 30.08.2016
http://www.dwd.de/DE/presse/pressemitteilungen/DE/2016/20160830_deutschlandwetter_august_news.html
[3]

Klimaretter.Info 03. September 2016: Deutscher Sommer um 1,5 Grad wärmer
http://www.klimaretter.info/umwelt/nachricht/21861-sommer-in-deutschland-um-1-5-grad-waermer




Abkommen von Paris: Ein Blankoscheck für CO2-Emissionen durch China und Indien

Dies ist das Ergebnis einer neuen Studie von Prof. Dr. jur. David Campbell (Lancaster University Law School), die heute von der GWPF veröffentlicht worden ist.

Während der letzten 25 Jahre ist die Klimawandel-Internationale damit gescheitert, ein Programm zur Reduktion der globalen Emissionen zustande zu bringen. Tatsächlich garantiert dieses Programm [von Paris] eine Erlaubnis für große Emittenten wie China und Indien, so viel zu emittieren, wie es ihnen passt. Daher waren globale Emissions-Reduktionen immer unmöglich, und seit 1992 haben die globalen Emissionen auch enorm zugenommen [zum Glück! Anm. d. Übers.].

Tatsächlich enthält das Paris-Abkommen eine kategorische Klausel, der zufolge Länder wie China und Indien nicht verpflichtet sind, irgendwelche Reduktionen vorzunehmen.

Die UK-Regierung schlägt vor, mit der Dekarbonisierung fortzufahren, obwohl die einseitige Dekarbonisierung von UK komplett sinnlos und damit total irrational ist.

Die ganze Studie steht hier (pdf).

Link: http://www.thegwpf.org/paris-agreement-a-blank-cheque-for-co2-emissions-by-developing-nations/

Übersetzt von Chris Frey EIKE




Wir sind in brennender Sorge … um unser Land

Dies betrifft vor allem: Das Allgemeinwohl, die Demokratie, die Menschenwürde und die Meinungsfreiheit, den Sozialstaat und den Rechtsstaat in seiner Grundstruktur, bei der Beurteilung der Rechtmäßigkeit des Geschäftsbereichs der Windkraftprofiteure, den Rechtsstaat als Bürgerschutz und das Gewaltenteilungsprinzip bzw. den Föderalismus.

Absolut unerträgliche Wohn- und Lebensumstände der Anwohner von so genannten Windparks und Monsterwindrädern: Unerträgliche Qualen und Leiden der Windrad-Anwohner; gesundheitliche Schäden, wirtschaftliche Schäden für die Anwohner, welche nicht mehr als pure Bagatelle hinnehmbar sind. Landschafts- und Naturzerstörung in einem exzessivem, noch nie da gewesenen und nahezu irreversiblen Ausmaß. Volkswirtschaftliche Schäden durch einseitige Kaufkraftabschöpfung und Verteuerung der Produktion. Finanzierung und Erforschung von sicheren, alternativen und auf dem neusten Stand der Technik befindlichen alternativen Stromversorgungsmöglichkeiten. Dieser Gesichtspunkt blieb mindestens über 15 Jahre auf der Strecke. Eine Orientierung am Allgemeinwohlinteresse sieht jedenfalls völlig anders aus. Erst recht können viele auch nicht die Gefahren für unsere freiheitliche Demokratie und den Rechtsstaat erkennen, wenn das Profitstreben einzelner zum Allgemeinwohl erklärt wird. Damit ist auch das Niederlassungsrecht eingeschränkt und das Recht auf körperliche Unversehrtheit ist in erheblichem Ausmaß verletzt. Außerdem wird durch die EEG-Umlage und deren Modalitäten und das konkrete Verhalten der Windkraftprofiteure das Menschenrecht auf die Möglichkeit zur Führung eines menschenwürdigen Lebens eklatant in Frage gestellt.

Meinungsfreiheit: Wenn die Medien ihrer Kontrollfunktion nicht mehr nachkommen und sich zu einem Propagandainstrument der Windkraftlobby umfunktionieren lassen, wenn der Staatsbürger Angst hat, seine freie Meinung zu äußern, sind hier zwei wichtige Grundrechte in Frage gestellt.

Ganze Landstriche unter der Knute der Windkraftgeschäftemacher, Korruption und Rechtsbeugung durch Bürgermeister und Gemeinderäte einerseits, Bürgermeister und Kommunalparlamentsvertreter, die andererseits dem massiven Auftreten der Vertreter der Windkraftprofiteure hilflos ausgeliefert sind, eine Lobbyarbeit in den regionalen und bundesweiten Parlamenten, die es so in diesem Ausmaß in der BRD bisher noch nicht gab:  Alle diese angeführten Gesichtspunkte schränken den Rechtsstaat grundstrukturell ein oder stellen ihn damit gänzlich in Frage.

Die meisten Geschäftspraktiken der Windkraftprofiteure sind hinterfragen: Seriöse und einigermaßen an ethischen Grundwerten orientierte Geschäftspraktiken sehen jedenfalls anders aus.

Die Undurchschaubarkeit der gesetzlichen Bestimmungen, die es "normalen" Bürgern unmöglich macht gerichtlich Erfolge zu erzielen, wertlose Gutachten, die von den Windkraftprofiteuren selber in Auftrag gegeben und bezahlt werden, stellen den Rechtsstaat in seiner Grundfunktion als Bürgerschutz in Frage.

Es war innerhalb des fünfzehnjährigem exzessivem Ausbaus der Windkraft immer wieder festzustellen, dass zwar einerseits viele Landratsämter mit Drohungen und Einschüchterungsversuchen gegenüber "renitenten" Gemeinden schnell bei der Hand waren, andererseits aber diese Landratsämter im Zusammenhang mit Genehmigungsverfahren selber recht lasch bei der Überprüfung von Genehmigungsvoraussetzungen agierten.

So kann es nicht weiter gehen, wenn Menschenrechte, die Freiheit, die Demokratie, der Rechtsstaat und das Gewaltenteilungsprinzip verletzt bzw. in Frage gestellt werden und gefährdet sind durch den mittlerweile eingetretenen Wildwuchs an Macht, Arroganz und Einflussmöglichkeiten auf Seiten der Windkraftprofiteure.

Wenn aber die Zielsetzung so weit auseinanderklafft zur praktischen Umsetzung: pures Chaos – Wildweststrukturen – und ein möglicher Erfolg überhaupt nicht, auch nur ansatzweise, absehbar ist, aber andererseits derart hohe Opfer/Kosten verursachen und wichtige Verfassungsprinzipien in Frage gestellt werden, dann ist dieses Vorhaben "Energiewende" in seiner praktischen Durchführung nicht nur fragwürdig, sondern auch verwerflich … und letztlich – staatsschädigend.

Die unermessliche Gier der Windkraftgeschäftemacher erschüttert jedenfalls, unsere Wirtschaft, unsere Gesellschaft und unseren Staat in seinen verfassungsmäßigen Grundfesten.

Dies ist eine Textzusammenfassung. Der vollständige Text kann gelesen werden unter: goo.gl/9fl50H