1

Kleine Energierückschau 2016, oder: Was ist Zappelstrom

Erneuerbare Energien sind die wichtigste Stromquelle in Deutschland …

und ihr Ausbau eine zentrale Säule der Energiewende. So meldet es unser zuständiges Ministerium.

Bild 1 Windpark. Bildquelle: Wattenrat, Homepage

Bundesministerium für Wirtschaft und Energie: Erneuerbare Energien
Wie das Ministerium darauf kommt, nachdem die „Erneuerbaren Energien“ gerade einmal 29 % Anteil am Strom liefern, davon die alleine weiter ausbaufähigen, Wind und Solar gerade einmal 15, 8 % (Wind 11,9 %, Solar 5,9 %) bleibt dessen Geheimnis. Aber damit ist auch nicht die Wirklichkeit, sondern der Wunsch gemeint.

Wie es die ersten zwei Bilder zeigen, reicht jedoch schon dieser Ausbau, um unsere Natur großflächig und rücksichtslos nicht nur verschandeln, sondern regelrecht kaputt machen. Für „Klimaretter“ ist es allerdings der ersehnte Umbau Deutschlands zur Energie-Erntelandschaft.

Bild 2 Bruttostromerzeugung in Deutschland 2016 in TWh, regenerativer Anteil; Stand: März 2017. Quelle Homepage Bundesministerium für Wirtschaft und Energie © AG Energiebilanzen

Und leider liefern das EEG nur „Zappelstrom“

Der Agora-Viewer bietet bezüglich der Elektroenergie sicher die schönsten Übersichtsgrafiken. Daraus der Verlauf des letzten Jahres. Herrlich sieht man den Zappelstrom der Erneuerbaren und die gewaltige Versorgungslücke, welche die konventionellen Kraftwerke stemmen müssen. Bild 3 zeigt die „Erneuerbaren“ mit dem Sockel, welchen Wasserkraft und Biomasse bilden. Wichtig ist jedoch Bild 4, denn es stellt den 15,8 %-Anteil von Wind gesamt und Solar ohne Biogas und Wasserkraft dar. Nachdem Biogas und Wasserkraft in Deutschland nicht weiter ausbaufähig sind, müssen diese beiden Quellen jeden weiteren EEG-Ausbau alleine „stemmen“.
Die große, stark schwankende Differenz zwischen benötigtem Strom und wirklich bereitgestelltem, und was das für Konsequenzen hat, ist in [1] [3] erklärt, vor allem auch in der Artikelreihe: EIKE 24.01.2016: [4] Die neuen Energien erklärt für Dummies Teil 3: Zeitreise ins Jahr 2050 des EEG Eine Energiewende ist nicht planbar
und in diesem Artikel deshalb nicht das (Haupt-)Thema.

Bild 3 Ganglinie von Stromverbrauch und EEG-Einspeisung im Jahr 2016. Quelle: Agora-Viewer

Bild 4 Ganglinie von Stromverbrauch und Einspeisung Windkraft gesamt + Solar im Jahr 2016. Quelle: Agora-Viewer

Zappelstrom“, erklärt für Dummies

Die wirklich angebotene Leistung im Verhältnis zur maximalen Leistung

Das folgende Bild 5 zeigt das Histogramm der Leistung von Solar und Windkraft gesamt im Jahr 2016. Bezug ist die maximale, im Jahresverlauf wirklich angebotene Leistung, also nicht die weit höhere, installierte.

Bild 5 Solar und Windkraft. Histogramm der Anzahl Jahrestage 2016, klassifiziert nach % der übers Jahr kurzfristig gelieferten Maximalleistung. Grafik vom Autor anhand der Daten von Agora erstellt

Wem Histogramme nicht so geläufig sind, anbei die Tabellierung dazu:

Bild 6 Tabellierung der Daten von Bild 5

Was sagen diese Daten von Wind und Solar – immer bezogen auf das Gesamtjahr 2016 mit 365 Normtagen:
-Über 18 Tage betrug die verfügbare Leistung im Maximum 5 %
-Über 63 Tage (also 2 Monate) betrug die verfügbare Leistung im Maximum 10 %
-Über 221 Tage (also 7,4 Monate) betrug die verfügbare Leistung im Maximum 30 %
-Über 308 Tage (also 9 Monate) betrug die verfügbare Leistung im Maximum 50 %

Die wirklich angebotene Leistung im Verhältnis zur installierten Leistung

Wer sich etwas mit Netzausbau auskennt weiss, dass die Übertragungssysteme nicht nach der zufällig in einem Jahr erreichten, maximalen Leistung, sondern nach der laut den technischen Angaben spezifizierten, installierten Leistung auszulegen sind. Würde man dies nicht beachten, wäre das Ergebnis das Gleiche wie bei einem Moped, dem der Bastelfilius einen Motorradmotor einbaut, um damit auf der Autobahn solche zu erschrecken, um sich alsbald (sofern er noch Glück hat) im Krankenhaus wiederzufinden, da das Fahrgestell und Reifen für diese Geschwindigkeit nicht gebaut waren.
Unter diesem Gesichtspunkt wird die schon vorher sehr ungünstige Verteilung der wirklich verfügbaren Energie (Bild 6) zum wahren Desaster, wie es Bild 7 und die zugehörige Tabelle zeigen.

Bild 7 Solar und Windkraft. Histogramm der Anzahl Jahrestage 2016, klassifiziert nach % der installierten Leistung. Grafik vom Autor anhand der Daten von Agora erstellt

Bild 8 Tabellierung der Daten von Bild 7

Was sagen diese Daten von Wind und Solar – immer bezogen auf das Gesamtjahr 2016 mit 365 Normtagen:
-Über das gesamte Jahr wurden als Maximum ca. 6 Stunden lang 55 % der installierten Leistung erreicht,
-während 9 Monaten betrug die angebotene Leistung nicht über 20 % der installierten.
Schlimmer kann man sich eine Energielieferung nicht vorstellen.

Damit nicht jemand meint, das wäre zu schlecht dargestellt, weil die wichtigen EEG-Träger Biomasse und Wasserkraft fehlen, die Grafik für das EEG gesamt noch anbei. Da die Letztgenannten so etwas wie eine Grundlast bieten, verschiebt sich die Verteilung nur leicht nach rechts.

Bild 9 EEG gesamt (Solar, Windkraft, Biomasse, Wasserkraft). Histogramm der Anzahl Jahrestage 2016, klassifiziert nach % der installierten EEG-Gesamt-Leistung. Grafik vom Autor anhand der Daten von Agora erstellt

Die Bewertung durch politische Führungskräfte, welche sich zutrauen, über Deutschlands Energiesystem zu entschieden

Wenn man die Agora-Bilder und die Verteilungen dazu ansieht, wird erst richtig klar, welches (Un-)Wissen hinter Aussagen politischer Führungskräfte steckt, die sich damit aber zutrauen, über Deutschlands Energiesystem zu diskutieren und zu bestimmen:
EIKE 15.08.2017: Cem Özdemir versucht sich in Energie
Sprecher: Kritiker sagen: Dann geht in Deutschland entweder das Licht aus, oder der Strom wird viel teurer. Sehen Sie das auch so?
C. Özdemir: Ach wissen Sie, wir kennen die Argumente. Die Argumente sind ja nicht ganz neu. Im Spitzenlastbereich, also nicht im Normallastbereich. Dann wenn der Energieverbrauch am Höchsten in Deutschland ist, ungefähr mittags zwischen 11 und 12, verbrauchen wir ungefähr 80 Gigabyte. Wir produzieren aber ungefähr 140 Gigabyte. Das heißt, das anderthalb-Fache dessen haben wir immer noch übrig, was wir brauchen. Selbst wenn wir die sieben ältesten Meiler abschalten würden, hätten wir immer noch mehr Strom als wir selbst im Spitzenlastbereich gebrauchen.

Für Personen, welche ebenfalls mit der Energie etwas auf Kriegsfuß stehen, es aber zugeben, anbei nochmals die Daten zur Aussage von Herrn Özdemir:
Anstelle der genannten, „mittags regelmäßigen“ 140 Gigabyte (gemeint waren von Herrn Özdemir natürlich Gigawatt), lieferten alle EEG-Lieferanten zusammen als absolutes Maximum am 08.02.2016:
-Einmal 54,2 GW (anstelle der angeblich regelmäßigen 140 GW)
-Der Anteil Wind und Solar betrug daran: 46,24 GW, also von den seitens Herrn Özdemir angegebenen nur 1/3tel (immer daran denken, alleine diese sind weiter ausbaufähig).
-Während des ganzen Jahres gab es nur für ca. 6 Stunden 67 % vom benötigten Bedarf, anstelle Herrn Özdemirs gemeldeter „sicherer“ Überlieferung von + 50 % (gesamt 150 %) zu jeder Mittagszeit,
-den Rest des Jahres, wie die Tabellen zeigen, dann über viele Monate nur zwischen 15 … 30 % davon.

Nicht nur Laien in der Politik fühlen sich bemüßigt, Energiekonzepte zu erdichten. Parteien ernennen auch gerne Mitglieder zu Fachpersonen, ohne deren Kompetenz abzufragen, geschweige zu prüfen. Als Beispiel die Sprecherin der Bundestagsfraktion Bündnis 90/Grüne für Klimapolitik und Mitglied im Ausschusses für Wirtschaft und Energie, welcher zuständig ist für: alle Aspekte der Energiewende und die damit verbundenen Fragen des Klimaschutzes sowie für das Thema Energieeinsparung … Schwerpunkte der Energieberatungen werden die Neuregelung des Erneuerbare-Energien-Gesetzes (EEG), der Netzausbau und die Energieeffizienz sein.
GRÜNE Annalena Baerbock (Studium: Politikwissenschaft und Öffentliches Recht):
[1] … „Am Kohleausstieg führt kein Weg vorbei. Nicht nur aufgrund unserer klimapolitischen Verpflichtungen, sondern auch wegen des bevorstehenden Desasters am Strommarkt, wenn wir so weitermachen wie bisher. Es mangelt weder an erneuerbaren Energien noch an der Entwicklung von Speichern und Netzen. Es mangelt an der Bereitschaft, aus der Kohle auszusteigen. Deshalb kommen wir bei der Energiewende nicht richtig voran.“
Der Vorteil ist, dass man die vollkommene Unkenntnis dieser „Fachdame“ alleine anhand der Aussagen sofort bemerkt.

Die (versprochenen) Lösungen

Es gibt jedoch auch die „Wissenschaftlichen“, welche aus verschiedensten Gründen das gleiche tun, es aber so „belegen“, dass es nicht jeder bemerkt.
DIE BUNDESREGIERUNG, 13. Januar 2015: Erneuerbare Energien und stabile Netze
2050 werden Windparks, Solar- und Biogasanlagen mindestens 80 Prozent unseres Stroms erzeugen. Das führt zu Problemen beim Stromnetz. Es muss stabil sein, auch wenn der Strom weite Strecken zurücklegen muss. Im Rahmen der neuen Hightech-Strategie, arbeitet die Forschung an Lösungen – Zukunftsaufgabe „Nachhaltiges Wirtschaften und Energie“.
… Dass erneuerbare Energien den deutschen Strombedarf komplett decken können, wurde bereits 2007 mit dem Vorgängerprojekt Kombikraftwerk 1 nachgewiesen …In dem anschließenden Forschungsprojekt Kombikraftwerk 2 ging es vor allem um die Netzstabilität und die Sicherheit unserer Energieversorgung bei einer rein regenerativen Stromerzeugung

Mit unseren Empfehlungen ist alles erreichbar, wenn die Kosten, die Nachteile und dass es die Lösungen noch gar nicht gibt, nicht berücksichtigt werden muss.

DIE BUNDESREGIERUNG, 13. Januar 2015: Erneuerbare Energien und stabile Netze
… Die Forscher stellten fest: Die heutige Versorgungsqualität ist auch mit einer intelligenten Kombination aus erneuerbaren Energien, Speichern und Backupkraftwerken mit erneuerbarem Gas erreichbar.
… Die Regulierung des Stromverbrauchs, also ein realistisches Lastmanagementpotenzial, wurde im Modell berücksichtigt. Dies reiche aber allein nicht aus, um Erzeugung und Verbrauch in Einklang zu bringen, so das Ergebnis im Projekt. Der Bau von Energiespeichern ist für die 100 Prozent erneuerbare Stromversorgung notwendig. Die Forscher empfehlen deshalb, neuartige Speichertechnologien wie Power-to-Gas weiter zu erforschen und zu entwickeln.

Bild 10 Aktuelle Kosten des Netz(Problem)Managements (ca. 1 Milliarde EUR / pa) Quelle: R. Schuster

Zu dieser Information fragt man sich, ob die „Fachpersonen“ in unserer Bundesregierung die Untertanen bewusst desinformieren. Denn dass sie so dumm sind, die Problematik der zitierten Analysen und ihrer „Information“ dazu nicht zu durchschauen, kann man sich (bei den Gehältern) nicht vorstellen.

Das „moderne Lastmanagement“ bedeutet nichts anderes, als Verbraucher in Zukunft konsequent wegzuschalten wenn der Strom fehlt:
EIKE 02.11.2016: Verwundert, weil ihr Stadtteil dank EEG zeitweise keinen Strom bekommt? Auf unserer Homepage wurde doch darüber informiert!
Man kennt dieses Verfahren von Ländern, welche früher noch als unterentwickelt bezeichnet werden durften. Nur wurde es früher nicht als „intelligent“, sondern als notgedrungen und nachteilig bezeichnet. Seit dem neuen GRÜNSPRECH hat sich das gedreht und diese Länder sind uns in der Energieversorgungs-Entwicklung voraus. So weit, dass diese bestimmt noch vor uns den großen EEG-Sprung nach Vorne schaffen.

Kofi Annan, Vorwort im APP Bericht 2015: [2] … Africa has enormous potential for cleaner energy – natural gas and hydro, solar, wind and geothermal power – and should seek ways to move past the damaging energy systems that have brought the world to the brink of catastrophe.
Von google grob übersetzt: … Afrika hat ein enormes Potenzial für sauberere Energie – Erdgas und Wasserkraft, Solar-, Wind- und Geothermie – und sollte nach Wegen suchen, an den schädlichen Energiesystemen vorbei zu kommen, die die Welt an den Rand der Katastrophe gebracht haben …

Die Speicher – wie es in den Studien richtig erkannt wurde – gibt es nicht. Es bedeutet natürlich nicht, dass es sie nicht irgendwann geben kann. Dann muss man sich aber auch klar sein, was zum Beispiel Powert to Gas mit Rückverstromung bei 70 … 60 % Umwandlungsverlusten kostet:
EIKE 18.06.2015: Elektro-Energiespeicherung, Notwendigkeit, Status und Kosten. Teil 3 (Abschluss)
an dem im Großmaßstab dann kein Weg vorbei führt, da es sich trotzdem immer noch um das billigste, realisierbare, Groß-Speicherverfahren handelt.

Aber solche „Speichellecker“ liebt unsere Politikkaste. Und die „…Lecker“ leben gut davon. Denn die Fördermittel sprudeln zuhauf, seitdem es im EEG immer mehr (selbst erzeugte) Probleme im Großmaßstab zu lösen gibt.

100 % EEG-Stromversorgung

Im Artikel:
EIKE 11. September 2017: [1] Die GRÜNEN: Es mangelt weder an erneuerbaren Energien noch an der Entwicklung von Speichern und Netzen
wurden Details dazu ausgeführt. Daraus (Bild 10) die hochgerechneten Ganglinien bei 100 % EEG-Versorgung. Die Grafik zeigt, was es bedeutet, wenn in einer Studie steht, dass alles (von der Politik Gewünschte) machbar sei, jedoch empfohlen wird, ein paar kleine Probleme noch zu lösen, wofür bitte Forschungsgelder bereitzustellen sind:

DIE BUNDESREGIERUNG, 13. Januar 2015: Erneuerbare Energien und stabile Netze… Die Forscher stellten fest: Die heutige Versorgungsqualität ist auch mit einer intelligenten Kombination aus erneuerbaren Energien, Speichern und Backupkraftwerken mit erneuerbarem Gas erreichbar … Dies reiche aber allein nicht aus, um Erzeugung und Verbrauch in Einklang zu bringen …Die Forscher empfehlen deshalb … weiter zu erforschen und zu entwickeln
Es bedeutet nichts anderes, als: Dann fliegt uns das gesamte Energiesystem um die Ohren. Schuld sind wir aber nicht, denn bereits in unseren Simulationen konnten wir das erkennen und haben deshalb ja Empfehlungen ausgesprochen.

Bild 11 [1] EEG-Einspeisung linear hochgerechnet, so dass EEG-Jahreseinspeisung = Verbrauch + Powert to GAS Speicherverluste. Rot: EEG-Einspeisung, Braun: Strombedarf. Datenquelle: Agora

Wenn der Bund so dilettantisch agiert, könnte eine Partei in Bayern vielleicht besser sein?

Leser könnten den Eindruck gewinnen, der Autor würde vielleicht (beim Klima und EEG) „nur“ die GRÜNEN nicht leiden. Das stimmt so nicht. Die GRÜNEN bieten lediglich die konstantesten, extremsten und oft auch ulkigsten Beispiele (welche nur noch Frau Hendricks manchmal zu toppen schafft).
Auch die anderen Parteien sind davor jedoch nicht gefeit. Nehmen wir beispielhaft die CSU. Was vor über zwei Jahren darüber geschrieben wurde,:
[5] EIKE 02.07.2015: Der Wind bläst stetig– die Sonne steht still – wenn mein starker Arm es will oder warum gehen in Bayern die Lichter (noch) nicht aus
… Unser Weg führt geradewegs in den Abgrund – etwas mulmig ist uns dabei schon – aber über den Weg wird nicht diskutiert …
gilt heute immer noch.

Bild 12 Integrierte Lösung des EEG-Problems aus einem wissenschaftlichen Vortrag [6]
Denn die CSU-Umweltministerin Bayerns steht den GRÜNEN und Frau Hendricks an bedingungsloser Klimahysterie in nichts nach. Die einzige Frage welche sich bei Ihr beim Autor stellt ist: Glaubt sie das wirklich, oder ist sie eine reine, automatische Sprechpuppe dazu? Er ist sich da nicht sicher.
[7] “Wir denken Klimapolitik global, regional und lokal”
… Nach der Ankündigung des amerikanischen Präsidenten aus dem Pariser Klimaschutzabkommen auszutreten, ist für die Bayerische Umweltministerin Ulrike Scharf klar, dass Bayern zu seinem Wort stehe und Klimapolitik global, regional und vor allen Dingen auch lokal gedacht werden muss. “Wir bekommen mit den Energieagenturen ein wirklich gewichtiges Mitglied zu unserer Klima-Allianz-Familie hinzu und unsere Stimme erhält damit eine neue Tatkraft”, begrüßte die Ministerin den Landesverband der regionalen Energieagenturen im Bund der Klimaallianz Bayern…
Als Fachreferenten waren keine geringeren als Martin Bentele (Verband proHolz Bayern) und Prof. Dr. Harald Lesch (LMU München) eingeladen. Beide zeigten eindrucksvoll die Umwelt- und Klimaentwicklungen der letzten Jahrzehnte auf und verwiesen auf die Notwendigkeit einer raschen Umsetzung der Energiewende mit einer enormen Reduzierung der Treibhausgasemissionen.

Quellen

[1] EIKE 11. September 2017: Die GRÜNEN: Es mangelt weder an erneuerbaren Energien noch an der Entwicklung von Speichern und Netzen

[2] KLIMARETTER.INFO, 05. Juni 2015: Bericht fordert mehr Strom für Afrika

[3] EIKE 03.09.2017: Fake News von dpa: Offshore Windkraft produziert so viel Leistung wie vier sehr große, konventionelle Kernkraftwerke

[4] EIKE 24.01.2016: Die neuen Energien erklärt für Dummies Teil 3: Zeitreise ins Jahr 2050 des EEG Eine Energiewende ist nicht planbar

[5] EIKE 02.07.2015: Der Wind bläst stetig– die Sonne steht still – wenn mein starker Arm es will oder warum gehen in Bayern die Lichter (noch) nicht aus

[6] Prof. Dr.-Ing. Michael Sterner et al. 2013: Ringvorlesung Kraftakt Energiewende II

[7] Regensburger Energieagentur, 26 / 06 / 2017: Bayerische Energieagenturen treten der Bayerischen Klima-Allianz bei




Ist die arktische Eisbedeckung halb voll oder halb leer?

Glücklicherweise werden die Bürger über dieses Meereis-Schmelze-Wendeereignis von den dafür zuständigen Forschern immer pünktlich informiert und so geschah es auch dieses Jahr durch das AWI.
innovations report 14.09.2017 und [2]: Arktisches Meereis erneut stark abgeschmolzen
… Mit einem Minimum von rund 4,7 Millionen Quadratkilometern setzt sich in der Arktis der Trend zum Rückgang des Meereises fort
In diesem September ist die Fläche des arktischen Meereises auf eine Größe von etwa 4,7 Millionen Quadratkilometern abgeschmolzen. Dies stellten Wissenschaftler des Alfred-Wegener-Instituts sowie der Universitäten Bremen und Hamburg fest. … Die Nordost-Passage war für Schiffe ohne Unterstützung von Eisbrechern befahrbar.
Das Meereis der Arktis gilt als kritisches Element im Klimageschehen und als Frühwarnsystem für die globale Erwärmung. Aus diesem Grund ist das Septemberminimum ein wichtiger Indikator für Klimaänderungen. Trotz eines besonders warmen Winters erreicht das Meereis in diesen Tagen zwar kein neues Rekordminimum, der Eisverlust ist dennoch massiv. „Wir befinden uns mit dem diesjährigen Wert weiterhin auf einem sehr niedrigen Niveau.

Die Homepage der Klimaberaterin informierte selbstverständlich auch darüber:
KLIMARETTER.INFO, 14. September 2017: Forschung Eisverlust in der Arktis ist „massiv“

Halb voll oder halb leer – es hängt vom Standpunkt ab

Die Nachschau der Arktis-Meereisdaten zeigt eigentlich ein beruhigendes Bild. Gegenüber dem bisherigen Sommerminimum von 2012 (gestrichelte Linie) ist das diesjährige Minimum bei Weitem nicht so stark ausgefallen.

Bild 1 Arktisches Meereis, Stand 13. September 2017 (blaue Linie), Wert: 4,636 Mio. km². Minimum 17. Sept 2012 (gestrichelte Linie) Wert: 3,387 Mio. km2. Quelle: NSIDC

Im zeitlichen Verlauf des Sommerminimums seit den Satellitenaufzeichnungen sieht man es noch deutlicher. Der Stand 2017 ist höher, als der vom Jahr 2008. Al Gores Behauptung, die Arktis wäre im Sommer 2013 eisfrei, hat sich auch danach bisher nicht bestätigt.

Bild 2 Arktis, Meereisausdehnungs-Sommer-Minimum seit 1979. Stand 14. September 2017. Vom Autor ergänzt. Quelle: DMI

Für manche ist es vielleicht interessant, dass die Arktis-Sommertemperatur seit dem Jahr 1958 (Beginn der Datenreihe) praktisch gleich geblieben ist. Im folgenden Bild wurden dazu der Arktis-Temperaturverlauf vom Jahr 2017 über den vom Jahr 1958 gelegt. Man sieht: Die Arktis wurde bisher nur im Winter wärmer. Im Sommer hat sich seit dem Beginn der Messreihe nichts verändert.

Bild 3 Temperaturverlauf Arktis 1958 und 2017, Stand 14.09.2017 vom Autor übereinander kopiert. Quelle: DMU

Was zeigen diese Bilder? Das AWI hätte in seiner Pressemitteilung [2] anstelle:
Arktisches Meereis erneut stark abgeschmolzen“,
alternativ melden können:
Arktisches Sommereis-Minimum hat sich die letzten Jahre stabilisiert und das Sommereis nimmt zur“.

Wie man weiss, ist eine solch positive Meldung zum sich stetig wandelnden Klima in Deutschland nicht denkbar. Dazu ist die Forschung viel zu sehr mit einer angeblich schlimmen, zerstörerischen Form „AGW-Klimawandel“ verknüpft, deutlicher ausgedrückt: Von einer hoffentlich nicht endenden AGW-Klimawandel-Hysterie abhängig.

Das AWI hat sich geradezu aufgebläht und darf seine Forschungsflotte dank hoher, stetiger Förderung aus Berlin ausbauen.
WIKIPEDIA: AWI
Das AWI wurde 1980 im Zuge des deutschen Beitritts zum Antarktisvertrag gegründet. Anfangs wurde nur eine Handvoll Mitarbeiter beschäftigt, während das AWI heute 920 Forscher, Techniker und Verwaltungsangestellte an den unterschiedlichen Standorten einsetzt
.

Zudem ist das AWI stark beim IPCC involviert: [3]Die Mitarbeiterinnen und Mitarbeiter des AWI und des IfM-GEOMAR haben sich im Rahmen des IPCC (International Panel on Climate Change) als (Leit-)Autorinnen und Autoren und durch Gutachtertätigkeit wie auch innerhalb des IPY (International Polar Year) | 28 engagiert…
Das parallel beteiligte CEN macht gar kein Hehl daraus, wo seine Schwerpunkte liegen – jedenfalls nicht in der neutralen Forschung. Auch diese Mitarbeiter wollen ihr Arbeitsleben lang bezahlt werden:

Das Centrum für Erdsystemforschung und Nachhaltigkeit, kurz CEN, ist ein zentrales Forschungszentrum der Universität Hamburg und Teil des Netzwerks KlimaCampus Hamburg.
Beteiligt sind Ozeanographen, Meteorologen, Meeresbiologen, Geophysiker, Geologen, Bodenkundler, Geographen, Biogeochemiker, Wirtschafts- und Sozialwissenschaftler, Historiker sowie Friedens- und Sicherheitsforscher. Sie alle beschäftigen sich mit Klima-, Umwelt- und Erdsystemforschung.
Das CEN fördert die Konzeption und Durchführung von Forschungsvorhaben und unterstützt seine Mitglieder bei der Einwerbung von Drittmitteln.
Außerdem koordiniert das CEN aktuell den Antrag der Hamburger Klimaforschung im Rahmen der Exzellenzstrategie des Bundes und der Länder.

Wie waren die Vorhersagen zum Sommereis?

Einfach gesagt: Katastrophal. Grund war das sehr geringe Wintereis (im Bild 1 deutlich zu sehen). Entsprechend überschlugen sich „Fachleute“ und Medien mit Apokalypsen.

Wetterkanal, 8. Januar 2017: Arktiseis auf Rekordtiefstand
… Wenn es so durch den restlichen Winter weiter geht, ist kein allzu großes Polster für den arktischen Sommer vorhanden. Einige Wissenschaftler erwarten, dass in naher Zukunft das arktische Meereis im Sommer ganz abtauen könnte.
DER TAGESSPIEGEL 26.03.2017: Der Arktis geht das Eis aus
Forscher warnen: Noch nie war am Ende des Winters die zugefrorene Fläche so klein. Es ist der dritte Rekord-Tiefststand in Folge … Für die Eisbedeckung in dem nun einsetzenden Sommerzyklus sind dies schlechte Voraussetzungen … Eine Modellberechnung der Universität Washington ergab, dass das Eisklumpen in der Arktis in diesem Jahr ungewöhnlich gering ist. Das bedeutet, dass das Meereis in der Arktis wieder sehr anfällig ist für die sommerlichen Temperaturen und die Stürme in der Nordpolregion ist.

Das wirkliche Ergebnis der Natur zeigt, dass auch das Arktiseis nicht so einfach „Schwarz-Weiss“ „denkt“.

Was nicht linear funktioniert, funktioniert dann vielleicht parabolisch. Hauptsache, es führt zu „sicheren“ Vorhersagen. Anbei Bilder, was dabei herauskommt und wie „adaptiv“ sie geführt werden.

Meereisvolumen-Vorhersagen. Die parabolische, rote Ausgleichslinie endet im Jahr 2011; 2015; 2022. Quelle: Arctic Sea Ice Blog

Bild 5 Meereisvolumen-Vorhersage. Vom Autor darüber kopiert der aktuelle Verlauf Meereisausdehnung Stand Sept. 2017.

Das kann nicht stimmen. Es gelang dieses Jahr doch erstmals einem großen Schiff, ohne Eisbrecher die Nordostpassage zu durchfahren

Als der Papst von seiner Südamerikareise zurückflog, wüteten gerade die Hurrikans in der Karibik und um Florida. Ein Anlass für den Papst, noch im Flugzeug in einem Interview seine spezielle Kenntnis über den Klimawandel zu äußern. Man könnte über sein Interview fast einen eigenen Artikel schreiben, anbei soll aber nur eine Angabe aufgegriffen werden.
KATHOLISCHES, 11. September 2017: Papst Franziskus über den Klimawandel: „Der Mensch ist ein Tier und dumm“
Fragesteller: … Gibt es eine moralische Verantwortung der politischen Führer, die eine Zusammenarbeit mit anderen Staaten zur Kontrolle der Treibhausgase ablehnen, weil sie bestreiten, daß dieser Wandel ein Werk des Menschen ist?
Papst Franziskus: … Wer das leugnet, muß zu den Wissenschaftlern gehen und sie fragen: Sie sprechen sehr klar und präzise.
Am vergangenen Tag, als die Nachricht jenes russischen Schiffes veröffentlicht wurde, das von Norwegen bis Japan, bis Taipei, fuhr mit einem Nordpol ohne Eis, veröffentlichte eine Universität eine andere Nachricht, die besagt: „Wir haben nur drei Jahre, um umzukehren, andernfalls werden die Folgen schrecklich sein.“

Nordpol ohne Eis“? Ein Papst muss wohl nicht alles so genau beschreiben und Al Gore als Klimapapst hat es ja für das Jahr 2013 vorhergesagt. Dass es bei Weitem noch nicht eingetroffen ist, muss ein Kirchenpapst wohl noch nicht wissen. Doch welche Fahrt eines russischen Schiffes hat der Papst gemeint, um sein „Wissen“ über den bereits erfolgten „Eintritt“ des AGW-Klimawandel zusätzlich zu belegen? Wohl die Fahrt, welche auch in der AWI-Pressemitteilung [2] erwähnt ist.
Es lohnt sich, Details darüber nachzusehen.
WIKIPEDIA hilft nicht viel, weist aber darauf hin, um welches russische Schiff es sich handelte. Sonderbar ist, dass dort steht: „ohne Hilfe eines Eisbrechers“, allerdings mit dem Zusatz: „speziell dafür gebauter …“.

WIKIPEDIA: Nordostpassage
Die erste Gesamtdurchfahrt, mit einer
Überwinterung, gelang Adolf Erik Nordenskiöld 1878/79. Erst 53 Jahre später (1932) gelang dem Eisbrecher Alexander Sibirjakow die erste Durchfahrt ohne Überwinterung. Daraufhin richtete die Sowjetunion die Hauptverwaltung Nördlicher Seeweg ein. Im Sommer 1940 drang der deutsche Hilfskreuzer Komet mit Hilfe russischer Eisbrecher durch die Nordmeerpassage in sein Operationsgebiet im Pazifik vor. In den 1950er und 1960er Jahren wurde der Seeverkehr durch Anlage der Häfen Dikson, Tiksi, Pewek und Prowidenija systematisch ausgebaut und die Schifffahrtsperiode durch den Einsatz leistungsfähiger Eisbrecher verlängert.
Ein speziell dafür gebauter und nach
Christophe de Margerie benannter Flüssiggastanker durchfuhr im Sommer 2017 erstmals die Nordostpassage ohne Hilfe eines Eisbrechers.

Schnell fündig wird man beim weiteren recherchieren: Das Schiff, welches ohne Eisbrecher fuhr, ist selbst als hochklassiger Eisbrecher zum Lastentransport gebaut. Naheliegend, dass es keinen zusätzlichen benötigte. Auf die AWI-Pressemeldung [2] wirft dies allerdings einen großen Schatten, man fühlt sich irgendwie bewusst be…
BBC, 24 August 2017: First tanker crosses northern sea route without ice breaker
The Christophe de Margerie is the world’s first and, at present, only ice-breaking LNG carrier.
The ship is the first of a new fleet specially constructed to sail through ice all year round
The ship, which features a lightweight steel reinforced hull, is the largest commercial ship to receive Arc7 certification, which means it is capable of travelling through ice up to 2.1m thick.

Deutsche Schifffahrts-Zeitung, 10. Mai 2017: Eisbrechender LNG-Tanker in Hamburg
Bei dem mit 128.806 BRZ vermessenen Schiff (IMO 9737187) handelt es sich um den ersten eisbrechenden LNG-Tanker dieser Größenordnung. Der 299 Meter und 50 Meter breite Neubau verfügt über die höchste Eisklasse ARC-7 und kann mit seinem verstärkten Rumpf bis zu 2,1 Meter dicke Schollen brechen.

Nun stellt sich die Frage: Hat der Papst so oberflächlich gegoogelt, oder sind es seine Klimaberater? Oder hat er sich einfach auf die AWI-Pressemitteilung verlassen [2], ohne zu wissen, wie in Deutschland grundsätzlich zu diesem Thema „informiert“ wird? Wenn alles, was dieser Papst (Einschränkung: Zum Klimawandel) meint zu wissen, so (un-)fundiert ist und auf Glauben und Hörensagen beruht, dann ….

Ein kleines Randthema wirft der Verweis des Papstes auf das Alte Testament auf. Nachdem der Autor schon einmal über den anscheinend übersehenen Einfluss einer transzendentalen Macht zum Klima geschrieben hat,
EIKE 22.07.2016 : [4] Wurde ein Klimawandel-Einfluss bisher übersehen? Was ist, wenn Gott anstelle von CO2 das Klima lenkt?
wollte er natürlich wissen, auf welchen Aktions-Hintergrund sich die vom Papst angegebene Psalmenstelle im Alten Testament bezieht und ob damit wirklich eine Verbindung zur Klimakritik herstellbar ist.

Papst Franziskus: Mir fällt ein Satz aus dem Alten Testament ein, ich glaube in den Psalmen: Der Mensch ist dumm, ein Dickkopf, der nicht sieht. Das einzige Tier der Schöpfung, das den Fuß auf das gleiche Loch stellt, ist der Mensch. Das Pferd u.a. tun das nicht.
Der Autor hat in der Bibel bisher noch nirgendwo eine Textstelle finden können, welche dem Mensch das Lenken des Klimas oder Wetters auch nur im Ansatz zugesteht. Als AGW-klimawandelkritisch eingestellte Person wäre es jedoch schon wichtig, eventuelle Prophetensprüche dazu zu kennen, auch wenn das Alte Testament für Christen nicht mehr gilt (sofern die Kirche auf die durchgängig grausamen, allen heutigen Humanregeln widersprechenden Inhalte angesprochen wird), jedoch als Gottes Wort notwendig bleibt, weil es sonst keinen Jesus geben könnte.

Er hat sich die Mühe gemacht, in den 150 Psalmen nachzusehen. Er fand jedoch nirgendwo eine Textstelle, auf die das Papstzitat zutreffen könnte. Aber vielleicht kennt sich jemand im Blog besser aus und kann helfen.

Quellen

[1] EIKE 09.04.2017: Klima-Lügendetektor: Wer der Bildzeitung sagt, Eisbären würden nicht durch den Klimawandel sterben, ist ein schlimmer Demagoge
[2] AWI 14. September 2017, Gemeinsame Presseerklärung des Alfred-Wegener-Instituts, Helmholtz-Zentrum für Polar- und Meeresforschung (AWI), der Universität Bremen und des Centrum für Erdsystemforschung und Nachhaltigkeit (CEN) der Universität Hamburg: Meereisminimum 2017 Arktisches Meereis erneut stark abgeschmolzen

[3] Wissenschaftsrat Drs. 10330-10 Lübeck 12 11 2010

[4] EIKE 22.07.2016 : Wurde ein Klimawandel-Einfluss bisher übersehen? Was ist, wenn Gott anstelle von CO2 das Klima lenkt?




Reiche Länder hinsicht­lich Extrem­wetter belastbarer

Während durch Naturkatastrophen immer noch Tausende Menschen weltweit jährlich ums Leben kommen, fordern diese Katastrophen ihre Opfer ungleichmäßig. Während eines typischen Jahres mögen in Europa Hunderte Menschen in Europa und den USA sterben infolge Überschwemmungen, Hurrikane und Erdbeben. Die gleichen Ereignisse töten in jedem Jahr Tausende Menschen in Asien, in Süd- und Mittelamerika sowie auf kleinen Inselnationen.

Warum ist das so unterschiedlich? Erdbeben und Hurrikane sind in Entwicklungsländern nicht stärker als in den entwickelten Ländern. Und Überschwemmungen in Europa und den USA richten Schäden in Milliardenhöhe an, fordern aber nur relativ wenige Menschenleben. Im Gegensatz dazu ertrinken in Asien in jedem Jahr Tausende bei Überschwemmungen. Es ist nicht das unterschiedliche Klima, das sich in Entwicklungsländern viel schlimmer auswirkt als in industrialisierten Ländern, sondern vielmehr der Unterschied des Wohlstands.

Eigentumsrechte und die Marktökonomie, gestützt durch starke, aber begrenzte Regierungs-Institutionen neben verstreuten Selbsthilfe-Netzwerken auf ehrenamtlicher Basis haben einen Wohlstand geschaffen, der vorher unvorstellbar war. Dieser Wohlstand wurde gestützt und hat noch weiter zugenommen durch die Entwicklung moderner Infrastruktur: Starke Strukturen, die widerstandsfähig sind gegen Katastrophen sowie Baumaterialien, Verfahren und Standards; außerdem Technologien wie Frühwarnsysteme und Notfallpläne, moderne medizinische Versorgung und Einrichtungen. Jedes einzelne dieser Elemente macht industrialisierte Gesellschaften noch widerstandsfähiger.

Bereits im Jahre 1900 war Galveston eine relativ große, moderne Stadt. Und doch forderte der Große Galveston-Hurrikan (der Kategorie 4) über 8000 Todesopfer. Im Gegensatz dazu forderte der Hurrikan Ike im Jahre 2008 lediglich 84 Todesopfer, und trotz all des Geredes über Hurrikan Harvey (Kategorie 5) forderte dieser lediglich 70 Todesopfer in den 23 am stärksten betroffenen Landkreisen (counties). Entlang der Küste von Texas leben heute Millionen mehr Menschen als im Jahre 1900, aber die heutige Generation ist viel wohlhabender als die Generation damals.

So tödlich der Hurrikan Katrina im Jahre 2005 auch war, der über 1200 Todesopfer forderte, verblasst dies im Vergleich mit den 300.000 bis 500.000 Todesopfern in Bangladesh durch den großen Bhola-Zyklon im Jahre 1970 oder die 138.000 Todesopfer in Myanmar durch den Zyklon Nargis im Jahre 2008.

Obwohl Erdbeben schwer zu vergleichen sind bzgl. Magnitude und Örtlichkeit sind Unterschiede der Mortalität über Örtlichkeiten und Zeit hinweg immer noch aussagekräftig. Das Große San Francisco-Erdbeben mitsamt des nachfolgenden Großbrandes forderte 700 bis 3000 Todesopfer. Zum Vergleich, das Erdbeben der Stärke 6,9 in der San Francisco Bay im Jahre 1989 forderte nur 67 Menschenleben. Im Jahre 1989 lebten in San Francisco drastisch mehr Menschen als im Jahre 1904. Aber die modernen Einwohner waren viel wohlhabender, und die Infrastruktur und das Energiesystem ihrer Stadt war entsprechend viel besser, so dass weniger Menschenleben zu beklagen waren.

So verheerend das Erdbeben sowie der dadurch ausgelöste Tsunami vom 11. März 2011 mit der Stärke 8,9 in Japan auch war, wobei 20.000 Menschen ums Leben kamen oder seitdem vermisst sind, verblasst dies doch im Vergleich mit den 230.000 Menschen, die in und um Port-au-Prince in Haiti durch ein Erdbeben der Stärke 7,0 am 12. Januar 2010 starben; oder die hunderttausende Todesopfer und Vermissten in Asien, nachdem ein Erdbeben der Stärke 9,2 am 26. Dezember 2004 Tsunamis in der gesamten Region auslöste, oder auch die 142.800 Todesopfer in Tokio im September 1923 durch das Große Kanto-Erdbeben. Das heutige Japan ist wohlhabender als das heutige Haiti, wohlhabender als die Gebiete Asiens, welche 2004 durch Erdbeben und Tsunamis verwüstet worden sind – und wohlhabender als das Japan des Jahres 1923.

Trotz der Tatsache, dass Taiwan um 600% dichter besiedelt ist als die Türkei, hat das Erdbeben der Stärke 7,6 vom 21. September 1999 dort etwa 2500 Menschen getötet. Zum Vergleich, ein Erdbeben der Stärke 7,4 in der Türkei am 17. August 1999, also gerade mal einen Monat zuvor, tötete über 17.000 Menschen in nur zwei Städten. Im Jahre 1999 war das Pro-Kopf-Einkommen in Taiwan mehr als doppelt so hoch wie in der Türkei.

Wohlhabendere Gesellschaften sind einfach widerstandsfähiger als arme Gesellschaften. Gemeinden in wohlhabenderen Ländern haben eine bessere Infrastruktur und sind allgemein besser auf Naturkatastrophen vorbereitet und auch viele schneller und effektiver in der Lage, nach dem Ereignis tätig zu werden als vergleichbare ärmere Gemeinden.

Fossile Treibstoffe sind der entscheidende Faktor bei der Erzeugung von Wohlstand. Björn Lomborg und Roy Spencer, PhD, haben geschrieben, dass die Restriktionen bzgl. fossiler Treibstoffe in dem Pariser Klima-Abkommen 100 Billionen Dollar an Wohlstand vernichten werden in diesem Jahrhundert – und das, um eine „nicht messbare Reduktion der Erwärmung“ zu erreichen. Weiter sagt Spencer, dass diese Wohlstands-Vernichtung/-Verhinderung „zu Millionen (vermeidbarer) Todesfälle führen wird infolge Armut und aller damit einher gehenden Probleme … Armut tötet Millionen. Soweit wir wissen, haben menschliche CO2-Emissionen bislang kein einziges Todesopfer gefordert. Tatsächlich wurden vielmehr Millionen Menschenleben gerettet und Wohlstand gefördert“.

Der Verbrauch fossiler Treibstoffe seitens der Menschen hat das Klima nicht verschlechtert und es gefährlicher für die menschliche Gesundheit oder den Wohlstand gemacht. Im Gegenteil, der Verbrauch von Öl, Kohle und Erdgas hat die Welt positiv verändert, was es Milliarden gestattet, freier, gesünder, wohlhabender und länger zu leben als die große Mehrheit der mächtigsten Völker in der menschlichen Historie.

Historische Könige kontrollierten Armeen und unsägliche Reichtümer. Ich habe ein Auto, einen Mikrowellen-Ofen, ein WC und sauberes Trinkwasser; ich kann fast alle Früchte oder Gemüsesorten essen ohne Rücksicht auf die Jahreszeit; ich kann in wenigen stunden um die Welt reisen. Alle Reichtümer und Macht, welche die historischen Eroberer angehäuft haben, könnten nichts davon kaufen, und alles wurde ermöglicht durch den Verbrauch fossiler Treibstoffe.

Der Aufstieg aus Armut und Not erfolgte nicht unter einer Tyrannei oder unter Feudalismus, sondern unter dem Kapitalismus. Er war nicht getrieben von Tierdung, tierischer Kraft oder Windmühlen, sondern er war getrieben durch fossile Treibstoffe und die durch diese angetriebenen Technologien. Die heutigen Armen verdienen die Chance, so zu leben wie ich und nicht so wie unsere Vorfahren Jahrtausende lang, die sich in ihrer Armut quälten und ständig von Krankheiten und Mangelernährung bedroht waren. Nur fossile Treibstoffe können sie vor diesem Schicksal bewahren.

Quellen: The SpectatorScience and Environmental Policy ProjectJournal of American Physicians and Surgeons; BBCWunderground: Tropical CyclonesWunderground: U.S. Hurricanes; und Dr. Roy Spencer




HADCRU Energie und Temperatur

Um die Größenordnung des Treibhauseffektes zu berechnen, wird die einfallende und ausgehende Strahlung üblicherweise verglichen mit den Strahlungsemissionen der Erde mit ihrer gemittelten Temperatur von 14°C bis 15°C. Diese geht auf den Datensatz der absoluten Temperatur der HADCRU-Version 4 1961 bis 1990 zurück. Mittels der Planck-Funktion oder des ähnlichen Stefan-Boltzmann-Gesetzes (siehe Gleichung 1) kann die von der Erde emittierte Strahlung aus deren Temperatur T berechnet werden unter der Annahme, dass sich die Erde wie ein Schwarzkörper verhält. Normalerweise wird die Strahlungsberechnung durchgeführt unter der Annahme einer Emissivität (e) von 1. Dies bedeutet, dass die Erde ein perfekter Schwarzkörper ist, der genauso viel Energie emittiert wie er empfängt. Das verwendete Gebiet beträgt 1 Quadratmeter, so dass das Ergebnis in Watt/m² vorliegt. Mittels dieser Annahmen ergibt die Berechnung, dass die Erde etwa 390 W/m² emittiert bei einer Temperatur von 288 K (Kiehl and Trenberth, 1997).

Gleichung 1 (Quelle)

Wenn er auf diese Weise berechnet wird, zeigt der Treibhauseffekt (GHE) ein Ungleichgewicht von 390 – 239 = 151 W/m². Kiehl und Trenberth 1997 berechneten einen ähnlichen Gesamtantrieb von 155 W/m² mittels des gleichen Verfahrens. Die GHE-Berechnung erfolgt unter vielen Annahmen, von denen nicht die Geringste die Annahme ist, dass die Erde eine Emissivität von 1 aufweist und ein Schwarzkörper ist. Aber hier wollen wir das Problem der Verwendung einer globalen mittleren Temperatur T der Erde in Betracht ziehen, welche eine rotierende Kugel ist, wobei zu jeder Zeit nur die Hälfte dieser Sphäre der Sonne zugewandt ist.

Ein spezifisches Problem ist, dass die Erde eben keine gleichmäßige globale Temperatur aufweist. Falls man diese mit 288 K annimmt, dann wird es Stellen auf dem Planeten geben, welche genau diese Temperatur aufweisen, und diese Stellen werden in etwa 390 W/m² emittieren. Aber auf dem allergrößten Teil des Planeten wird die Temperatur eine andere sein und Energie proportional zu T4 emittieren. Das Mittel der Temperatur zur vierten Potenz ist nicht das gleiche wie das Mittel von T4. Dies ist einfache Hochschul-Algebra, und wie groß wird die Differenz dadurch wohl sein?

Um dies zu beantworten, wenden wir uns jetzt der Version 4 des globalen Temperatur-Datensatzes der Hadley Climate Research Unit (HADCRU) zu. Wir ziehen deren Version 4 mit der Referenzperiode 1961 bis 1990 heran sowie deren Temperaturanomalie-Datensatz von 1850 bis 2017. Die Konstruktion der Referenzperiode und der Anomalie-Datensätze wird von Jones et al. (2012) beschrieben. Da die Reihen der Temperaturanomalien Anomalien jeder Reihe im Vergleich zur Periode 1961 bis 1990 sind, sollten wir in der Lage sein, die Referenztemperatur der Reihen zu nutzen, um die Anomalien in absolute  Temperaturwerte umzuwandeln. In beiden Fällen handelt es sich um Datensätze mit Gitterpunkten von 5° zu 5°. Anomalien werden für jede Station berechnet, um Probleme wegen der unterschiedlichen Seehöhen zu vermeiden. Das wird vor dem Anbringen des Gitternetzes gemacht. Addiert man folglich die Referenztemperatur zu der Anomalie, erhält man nicht die Original-Messungen. Auf der Website von HADCRU heißt es dazu:

Festlandsstationen befinden sich in unterschiedlichen Höhen (bezogen auf NN), und verschiedene Länder messen mittlere monatliche Temperaturen mittels verschiedener Verfahren und Formeln. Um Verzerrungen aufgrund dieser Probleme zu vermeiden, werden die monatlichen mittleren Temperaturen reduziert auf Anomalien hinsichtlich der Referenzperiode mit der besten Abdeckung (1961 bis 1990). Für die herangezogenen Stationen muss ein Mittelwert der Referenzperiode berechnet werden. Weil die Messreihe vieler Stationen von 1961 bis 1990 nicht vollständig sind, kamen verschiedene Verfahren zur Anwendung, um Mittelwerte 1961 bis 1990 aus benachbarten Stationen oder anderen Datenquellen zu erhalten (mehr dazu bei Jones et al., 2012). Über den Ozeanen, wo Beobachtungen allgemein von mobilen Plattformen erfolgen, ist es unmöglich, lange Temperaturreihen für bestimmte feste Punkte zu erhalten. Allerdings kann man historische Daten extrapolieren, um räumlich vollständige Referenzwerte (Mittelwerte 1961 bis 1990) zu erstellen, so dass individuelle Beobachtungen verglichen werden können mit dem lokalen Normalwert für den gegebenen Tag des Jahres (Weiteres dazu bei Kennedy et al., 2011).

Es ist möglich, absolute Temperaturreihen für jedes gewählte Gebiet zu erhalten mittels Daten des absoluten Datensatzes und diese dann zum regionalen Mittel zu addieren, welches aus den genetzten [gridded] Daten berechnet worden ist. Falls beispielsweise ein regionales Mittel angefordert wird, sollten die Nutzer eine regionale Zeitreihe mittlerer Anomalien berechnen und dann die Werte im absoluten Datensatz für das gleiche Gebiet mitteln und diesen Wert schließlich zu jedem Wert in der Zeitreihe addieren. Man addiere NICHT die absoluten Werte zu jeder Gitterbox in jedem monatlichen Bereich, um danach großräumige Mittelwerte zu berechnen.

Übrigens ist dieses NICHT ( Im Original „NOT“, Anmerkung des Übersetzers) auf der Website selbst in Großbuchstaben zu finden, das habe ich nicht verändert. Ich hatte vor, die Gitter-Temperatur 1961 bis 1990 zu der Gitter-Anomalie zu addieren und eine angenäherte tatsächliche Temperatur zu erhalten, aber sie sagen, man solle das „NICHT“ tun. Warum sagt man dem Leser, dass man die absoluten gemittelten Referenz-Temperaturen zu den gemittelten Anomalien addieren kann, und sagt ihn danach explizit, nicht die absolute Gitter-Temperatur zu einer Gitter-Anomalie zu addieren? Jede Anomalie-Reihe muss auf ihr eigenes Mittel 1961 bis 1990 bezogen werden. Warum spielt es dann eine Rolle, dass wir die Anomalien und dann die Referenztemperaturen separat mitteln, bevor man beide addiert? Also war natürlich das Erste, was ich machte, die absoluten Gitterwerte 1961 bis 1990 zu den Anomalie-Gitterwerten zu addieren, und zwar für die gesamte Erde von 1880 bis 2016, also genau das, was ich laut Instruktion „NICHT“ tun sollte. Das absolute Temperaturgitter ist vollständig ohne fehlende Werte. Die Jahr-für-Jahr-Gitter weisen viele fehlende Werte auf, und die gleichen Gitterquadrate sind nicht in jedem Jahr gleich belegt. Es stellt sich heraus, dass dies genau das Problem ist, auf welches HADCRU mit diesem Zitat hinweist.

Abbildung 1 zeigt die globalen mittleren Temperaturen von 1880 bis 2016, berechnet nach den Vorgaben vom HADCRU. Zuerst habe ich die Anomalien eines jeden Jahres gemittelt und gewichtet nach dem Kosinus der Breite, weil es sich um ein 5° X 5°-Gitter handelt und die Fläche jedes Gitterquadrates vom Äquator zu den Polen mit dem Kosinus der Breite abnimmt. Dann habe ich die globale Mitteltemperatur 1961 bis 1990 zur mittleren Anomalie addiert. Während das Referenztemperatur-Gitter vollständig mit absoluten Temperaturen angefüllt ist, ist dies bei den jährlichen Anomalie-Gittern nicht der Fall. Außerdem wechseln die vollständig abgedeckten Gitterquadrate von Jahr zu Jahr. Dieses Verfahren vermischt eine Berechnung eines vollständig ausgefüllten Gitterquadrates mit einer Berechnung eines Gitterquadrates mit nur wenigen Werten.

Abbildung 1: Mittelung der Anomalien mit nachfolgender Addition zur mittleren globalen Temperatur 1961 bis 1990.

Wenn man das so macht, wie man uns explizit sagt es nicht zu machen, erhalten wir Abbildung 2. Darin addierte ich die geeignete absolute Gitterquadrat-Mitteltemperatur zu jedem abgedeckten Gitterquadrat für jedes Jahr, um ein Netz mit absoluten Temperaturen zu erhalten und dieses dann zu mitteln unter Nichtbeachtung der Gitterquadrate ohne Werte. In diesem Prozess passt das Gitter der absoluten Temperaturen zum Anomalie-Gitter.

Abbildung 2: Umwandlung jeder Gitterzelle in tatsächlich Temperatur mit nachfolgender Mittelung

Der Unterschied zwischen den Abbildungen 1 und 2 wird am augenfälligsten vor dem Jahr 1950. Nach 1950 ist der untere Plot ein paar Zehntelgrad niedriger, aber der Trend ist der gleiche. Mit perfekten Daten sollten beide Plots gleich sein. Jede Zeitreihe wird konvertiert in eine Anomalie unter Verwendung der eigenen Daten 1961 bis 1990. Multiple Reihen in jedem Gitterquadrat werden zusammengeführt mittels direkter Mittelwerte [straight averages]. Aber – die Daten sind eben nicht perfekt. Gitterquadrate weisen in einem Jahr viele Messungen auf, in anderen gar keine. Vor 1950 ging die Abdeckung auf der Nordhemisphäre nie über 40% hinaus, auf der Südhemisphäre nie über 20%. Angesichts der großen Differenz zwischen den Abbildungen 1 und 2 ist nicht klar, ob die Daten vor 1950 robust sind. Oder klarer ausgedrückt, die Daten vor 1950 sind nicht robust. Ebenfalls ist unklar, warum die Periode 1950 bis 2016 in Abbildung 2 um 0,2°C bis 0,3°C kühler ist als in Abbildung 1. Ich kratze mich immer noch am Kopf ob dieses Phänomens.

Das HADCRU-Verfahren zur Berechnung globaler Temperaturen

Das Verfahren zur Berechnung der Gitterquadrat-Temperaturen von HADCRU Version 4 wird auf deren Website so beschrieben:

Dies bedeutet, dass es 100 Angaben für jedes Gitterquadrat gibt, um die möglichen Annahmen abzuklopfen, welche in der Struktur der verschiedenen Komponenten des Fehlers involviert sind (siehe die Diskussion bei Morice et al., 2012). Alle 100 Angaben sind auf der Site des Hadley Centers verfügbar, aber wir haben hier das Ensemble-Mittel gewählt. Für die genetzten Daten ist dies das Ensemble-Mittel, separat berechnet für jede Gitterzelle und für jeden Zeitschritt der 100 Angaben. Für die hemisphärischen und globalen Mittelwerte ist dies wiederum der Median für die 100 Angaben. Der Median der genetzten Reihen wird nicht den Median der hemisphärischen und globalen Mittelwerte erzeugen, aber die Differenzen werden klein sein.

Folglich ist die globale Mitteltemperatur nach HADCRU Version 4 nicht ein wahres Mittel. Stattdessen ist es der Median-Wert der 100 statistischen Angaben für jede mit Messungen abgedeckte Gitterzelle und beide Hemisphären. Jede Temperaturmessung enthält Fehler und ist dadurch unsicher (Details dazu z.B. hier und hier). Das von HADCRU erzeugte 5° X 5°-Gitternetz enthält für ein Kalenderjahr mit 12 Monaten 31.104 Gitterzellen. Die meisten davon weisen keine Werte auf. Abbildung 3 zeigt die Anzahl dieser Zellen mit Null (ohne Werte) Jahr für Jahr von 1880 bis 2016.

Abbildung 3. Datenquelle

Wie man sieht, gibt es aus den meisten Zellen keine Daten, nicht einmal während der letzten Jahre. In Abbildung 4 erkennt man die Verteilung der Gitterquadrate mit Messpunkten. Die Zellen mit adäquaten Daten sind gefärbt, jene mit unzureichenden Daten bleiben weiß. Die Abdeckung auf der Nordhemisphäre von 1960 bis 1990 liegt bei nahe 50%, die Abdeckung auf der Südhemisphäre im gleichen Zeitraum geht nie über 25% hinaus.

Abbildung 4. Quelle: Jones, et al., 2012

Die Daten sind also spärlich, und die meisten Daten stammen von der Nordhemisphäre und hier vom Festland. An beiden Polen gibt es kaum Daten. Also hat HADCRU zwei Probleme: erstens die Mess-Ungenauigkeit und zweitens, wie man mit der spärlichen und ungleichmäßigen Verteilung der Daten umgeht. Der Mess-Ungenauigkeit wird begegnet, indem gefordert wird, dass jede Gitterzelle eine ausreichende Anzahl von Stationen enthält, die über das betrachtete Jahr Meldungen absetzen. Da der Referenzzeitraum die Jahre 1961 bis 1990 sind, sind auch ausreichend Messungen über diesen Zeitraum erforderlich. Allgemein wird verlangt, dass die Stationen mindestens 14 Jahre lang Daten liefern zwischen 1961 und 1990. Stationen außerhalb von fünf Standardabweichungen des Netzes werden aussortiert [Stations that fall outside five standard deviations of the grid mean are excluded].

Die monatlichen Netze sind nicht umrissen, um die fehlenden Netz-Werte zu ergänzen, wie man erwarten könnte. Ist die mittlere Temperatur für jede Gitterzelle erst einmal mit ausreichend Daten berechnet, werden die durch Meldungen repräsentierten Gitterzellen Kosinus-gewichtet und gemittelt. Siehe Gleichung 9 in Morice, et al., 2012. Das Gebiet variiert so wie der Kosinus der Breite, also werden die Gitterzellen hiermit gewichtet. Die gewichteten Gitterwerte werden für jede Hemisphäre aufsummiert, und aus diesen Ergebnissen der beiden Hemisphären wird eine globale mittlere Temperatur gemittelt. Jahreszeitliche und jährliche Mittel sind aus monatlichen Gitterwerten abgeleitet.

Die meisten mit Messpunkten gefüllten Gitterzellen befinden sich auf dem Festland, weil wir hier leben; und doch sind 71% er Erdoberfläche von Ozeanen bedeckt. Gegenwärtig ist das kein Problem, weil wir Satellitenmessungen der Wassertemperatur und der Lufttemperatur über der Wasseroberfläche haben. Zusätzlich gibt es Netz aus ARGO-Bojen, welches hoch qualitative Ozeantemperaturen liefert. Aber historisch war das ein großes Problem, weil alle Messungen ausschließlich von Schiffen kommen mussten (die ich überdies zu ca. 90 % auf die Hauptschifffahrtslinien beschränkten..Anm. der Redaktion). Der entscheidende HADSST3-Datensatz für die Abschätzung der Ozeantemperatur wird beschrieben von Morice, et al., 2012. Eine ausführlichere Beschreibung der Probleme bei der Abschätzung historischer Wassertemperaturen in ozeanischen Gitterzellen gibt es bei Farmer, et al., 1989. Die Daten vor 1979 stammen aus dem in Schiffe einströmenden Kühlwasser, Treibbojen und Eimermessungen von Wasser neben den Schiffe. Diese Quellen sind mobil und anfällig für Fehler. Die Durchmischungs-Schicht der Ozeane ist im Mittel 59 Meter dick (JAMSTEC MILA GPV data). Mehr zu den JAMSTEC- Wassertemperaturdaten gibt es hier. Die Durchmischungsschicht der Ozeane ist diejenige Schicht, die sich zumeist im Gleichgewicht mit der Atmosphäre befindet. Diese Schicht weist 22,7 mal die Wärmekapazität der gesamten Atmosphäre auf und bewirkt einen merklichen Einfluss auf die Temperaturen der Atmosphäre. Sie wird auch beeinflusst durch die kühleren, tieferen Ozeanschichten, welche sie durch Aufwallen und Absinken beeinflussen können (hier).

Meine Berechnungen

Ich begann mit den Referenztemperaturdaten der Periode 1961 bis 1990, „Absolut“ genannt und hier zu finden. Dies ist eine Reihe von 5° X 5° globale Temperaturgitter für den Referenzzeitraum. Anders als die Anomalie-Datensätze sind diese Netze vollständig mit Meldungen besetzt und enthalten keine Null-Werte. Wie der Absolut-Datensatz besetzt war, wird erklärt von Jones, et al., 2012. Abbildung 5 zeigt die Karte des mittleren Absolut-Temperaturnetzes.

Abbildung 5: Karte der „Absolut“-Daten (Datenquelle: HADCRU)

Ich wendete das gleiche Verfahren an wie HADCRU. Zuerst las ich das Absolut-Netz, es enthält eine Anordnung, welche dimensioniert ist mit 72 Längengrad-Segmenten (5°), 36 Breitengrad-Segmenten und 12 Monaten oder ein Jahr. Als nächstes unterteilte ich das globale Anomalie-Netz von HADCRU4 Jahr für Jahr, mittelte die Zellen mit Messungen und addierte dann das mittlere Absolut der Temperatur von 1961 bis 1990 zur mittleren Anomalie. Die Ergebnisse zeigt Abbildung 1. Wie oben beschrieben, habe ich auch einige Zeit aufgewendet, genau das zu tun, was NICHT zu tun auf der HADCRU-Website empfohlen worden ist. Dieses Ergebnis zeigt Abbildung 2.

Die HADCRU-Daten reichen zurück bis zum Jahr 1850, aber es gibt kaum globale Daten vor 1880, und viele davon stammen aus der offenen Atmosphäre. Schutzfolien zur Abschirmung der Thermometer vor direktem Sonnenlicht waren bis 1880 kaum in Gebrauch, was die Qualität der frühen Daten beeinträchtigte. Also zog ich nur die Daten von 1880 bis 2016 heran.

Das Überraschende an der Graphik in Abbildung 2 ist, dass die Temperaturen von 1890 bis 1950 höher lagen als jede andere Temperatur seitdem. Man betrachte Abbildung 3 bzgl. der Anzahl von Null-Werten. Es gibt insgesamt 31.104 Zellen, die maximale mit Messungen angefüllte Zahl beträgt rund 11.209 im Jahre 1969 oder 35%. Abbildung 6 ist invers die Abbildung 3 und zeigt die Anzahl der mit Messungen gefüllten Zellen für jedes Jahr.

Abbildung 6.

Geht die höhere Temperatur von 1890 bis 1950 in Abbildung 2 nur auf die geringe Zahl von Messungen enthaltenden Zellen zurück? Oder liegt es an der ungleichen Verteilung dieser Zellen? Es gibt einen plötzlichen Sprung der Anzahl mit Messungen belegter Zellen um das Jahr 1950, welcher zusammenfällt mit einem anomalen Temperaturabfall – was ist der Grund dafür? Geht es auf einen Rechenfehler in meinen Berechnungen zurück? Falls mir tatsächlich ein Fehler unterlaufen ist (was immer möglich ist), dann bin ich sicher, dass jemand den Fehler finden und mir mitteilen wird. Ich habe meine Berechnungen wieder und immer wieder überprüft und halte sie für korrekt. Ich habe die einschlägigen Studien gelesen und kann keine Erklärung für diese Anomalien finden. Alle Daten und der R-Code können hier heruntergeladen werden. Erfahrene R-Nutzer werden keine Probleme haben, die zip-Datei enthält den Code sowie alle eingehenden Datensätze und eine tabellarische Zusammenfassung des Outputs.

Energie und Temperatur

Ausschlaggebender Grund für diese Studie war es zu erkennen, welchen Unterschied die rechenbetonte Sequenz bei der Berechnung der Energie-Emissionen von der Erde ausmacht. Das heißt, nehmen wir die vierte Potenz einer mittleren Temperatur, wie es Kiehl und Trenberth 1997 gemacht haben? Oder nehmen wir jede Temperatur einer Gitterzelle zur vierten Potenz und mitteln dann die Stefan-Boltzmann (SB)-Energiegleichung aus Gleichung 1? Das Mittel der HADCRU-Temperaturen des Jahres 2016 beträgt 15,1°C. Die mit dieser Temperatur (288 K) berechneten SB-Energieemissionen sind die 391 W/m², welche allgemein in der Literatur genannt werden. Falls wir die SB-Emissionen aller belegten HADCRU-Gitterzellen für das Jahr 2016 berechnen und diese nach Gebiet gewichtet mitteln, erhalten wir 379 W/m². Dies ist eine geringe Differenz, solange wir nicht diese Differenz vergleichen mit der geschätzten Differenz, welche zunehmendes CO2 haben könnte. Im IPCC-Zustandsbericht 5 zeigt Abbildung SPM.5 (hier in der dritten Abbildung), dass die Gesamtauswirkung der menschlichen CO2-Emissionen seit 1750 2,29 W/m² ausmachten, also viel weniger als die Differenz zwischen den beiden Berechnungen der Emissionen der Erde.

Der Vergleich wird noch schlechter, wenn wir ihn im zeitlichen Verlauf betrachten. Abbildung 7 zeigt die Berechnung der Energie-Emissionen bei einer globalen mittleren Temperatur oder (Mean T)4. Abbildung 8 zeigt die Berechnung durchgeführt für jede einzelne Gitterzelle in jeder mit Messungen belegten Zelle mit nachfolgender Mittelung oder (Mean T4).

Abbildung 7

Abbildung 8

Es scheint wahrscheinlich, dass die Differenzen von 1880 bis 1950 bezogen sind auf die Anzahl Messungen enthaltender Zellen sowie deren Verteilung, aber dies ist zum jetzigen Zeitpunkt Spekulation. Man muss sich Fragen stellen hinsichtlich der Genauigkeit dieser Daten. Der Vergleich seit 1950 ist O.K. außer für die algebraische Differenz, die sich ergibt, wenn man erst die Temperatur mittelt und dann den Mittelwert zur vierten Potenz erhebt, oder wenn man erst jede Temperatur zur vierten Potenz nimmt und dann die Energie mittelt. Von 1950 bis 2014 beträgt diese Differenz im Mittel 13 W/m².

Diskussion und Schlussfolgerungen

Ich stelle die von HADCRU getroffene Wahl nicht in Frage, 100 statistische Realisationen jeder Gitterzelle zu erzeugen und dann den mittleren Gesamtwert heranzuziehen, gewichtet nach dem Kosinus der Breite, als die mittlere Temperatur für jede Hemisphäre und dann die Hemisphären zu kombinieren. Das ist ein vernünftiges Verfahren, aber warum unterscheidet sich dieses Ergebnis von einem direkten gewichteten Mittel der mit Messungen belegten Gitterzellen? Meiner Ansicht nach sollte jedwedes statistische Ergebnis zu dem einfachen statistischen Ergebnis passen, oder die Differenz muss erklärt werden. Der Vergleich zwischen den beiden Verfahren für den Zeitraum 1950 bis 2016 ist O.K., obwohl das HADCRU-Verfahren zu einer verdächtig höheren Temperatur führt. Ich vermute, dass die Daten von 1950 bis 2016 viel robuster sind als die Daten davor. Ich würde jedwede Schlussfolgerung bezweifeln, welche von früheren Daten abhängig ist.

Deren geforderte Berechnung ist ein wenig verstörend. Es verlangt die Mittelung in einem kaum belegten Anomalie-Netz, dann die Mittelung eines vollständig belegten absoluten Temperatur-Netzes mit nachfolgender Summierung der beiden Mittelwerte. Dann instruiert man uns explizit, nicht die gleiche Belegung von Gitterzellen (Anomalie und Absolut) zu wählen, diese zu summieren und zu mitteln. Und doch summiert Letzteres Äpfel und Äpfel.

Schließlich ist es sehr klar, dass die Anwendung der SB-Gleichung zur Berechnung der Energie-Emissionen der Erde mit einer geschätzten globalen Mitteltemperatur falsch ist. So wurden die Emissionen in Abbildung 7 berechnet. Wenn wir die SB-Emissionen berechnen aus jeder belegten HADCRU-Gitterzelle und dann das Ergebnis mitteln, was laut Grundlagen-Algebra der richtige Weg ist, erhalten wir das Ergebnis in Abbildung 8. Vergleicht man beide Ergebnisse, zeigt sich, dass es erhebliche Probleme mit den Daten vor 1950 gibt. Ist dies die Anzahl der Null-Gitterzellen? Ist es die räumliche Verteilung belegter Gitterzellen? Ist es ein Problem der geschätzten Wassertemperaturen? Oder vielleicht ein anderer Komplex von Problemen? Schwer zu sagen, aber es ist schwierig, den früheren Daten zu vertrauen.

Wir versuchen, die Auswirkungen von steigendem CO2 zu bestimmen. Dies führt zu einem geschätzten „Forcing“ von etwa 2 W/m². Auch wollen wir wissen, ob die Temperatur während der letzten 140 Jahre um 1°C gestiegen ist Sind diese Daten genau genug, um sogar diese Auswirkungen aufzulösen? Das scheint mir nicht eindeutig.

Der R-Code und die Daten zur Erstellung der Abbildungen in diesem Beitrag können hier heruntergeladen werden.

Link: https://wattsupwiththat.com/2017/09/09/hadcru-power-and-temperature/

Übersetzt von Chris Frey EIKE




Dumm gelaufen: Husum – Windkraft zerzaust Windkraft-Messe.

 Diese Veranstaltung brachte der Kleinstadt und Kreisstadt Nordfrieslands, Schleswig-Holstein, in den vergangenen Jahren überregionale, ja internationale Aufmerksamkeit. Stadt von Welt! Dieser lukrative Zweck heiligt allhier allemal den Glauben an den CO2-Götzen. Was sonst? Was wäre Husum heute ohne den Windmühlenzirkus? Den Touristen wieder wie früher nur Krabbenbrötchen und Theodor Storm (sic!), den großen Sohn der Stadt, anbieten, dessen hiesige Erlebnisse in allen Ecken der Stadt an zahlreichen Gedenktafeln nachzulesen sind? Wieder nur graue Stadt am Meer sein? Da sei das IPCC, der „Weltklimarat“, vor! Dieser macht’s mit seinen unbewiesenen und unbeweisbaren, dafür aber schwer ideologisierten Klimapanik-Dogmen möglich, daß Husums provinzielles Grau in mondänes Tiefblau getaucht wird, etwa mit einem Flaggenspalier entlang der Einfallstraße, der Bundesstraße B 200. Flatternde Tücher, die den teuren und unberechenbaren Flatterstrom der Windenergie kaum trefflicher repräsentieren könnten.

Aber in die vollen gehauen: Begleitend zur Messe gibt es ein „Windwanderer-Festival“ mit Live-Musik, Eintritt frei, „wetterunabhängig“ in verschiedenen Lokalitäten rund um den Hafen, gleich am Abend des Eröffnungstages. Möge die feierfreudige Jugend ohne Umschweife tänzelnd aufs Parkett des richtigen Klima-Fühlens und Wind-Handelns gebracht werden. Sei Windwanderer, junger Freund, der Weg des Windes wird dich reich machen. Wenn du selbst Windmühlenbesitzer oder Windhändler bist, natürlich. Anderenfalls wirst du einfach nur zu denen gehören, die gesetzlich erzwungen Windstrom kaufen und immer höhere Strompreise zahlen müssen. Und die subventionierenden Steuermittel gleich dazu.

Die Windbegeisterung ist freilich auch in der Nordseefischerstadt Husum nicht uneingeschränkt. Am zweiten Tag der Windmühlenmesse war es den Husumer Masters of Wind („Wir können Wind. Schon immer.“) dann doch ein wenig zu viel, denn Sturmtief „Sebastian“ schaute als ausgewiesener Fachmann neugierig vorbei, um sich die Storm-Gedenktafeln benebst der „windigen“ Geschäfte von wahnsinnig erfolgreichen Steuergeld- und Energieeinspeisungs-Nutznießern einmal aus der Nähe anzusehen – und zeigte ihnen mal so richtig, was eine Windharfe ist. Da pfiff es nicht nur in die Räder und Hallenzelte, sondern auch in die profitbeschwerte Büx: Man entschied, die Hallen erstmal zu räumen und später, bei günstigerem Wind, weiterzutraden. „Heute hat sich in Husum wieder gezeigt: Mit Wind in jeder Form können wir umgehen“, erklärt selbstbewußtPeter Becker, Geschäftsführer der Messe Husum & Congress. Er fährt fort: „Sturmtief Sebastian hat gestern einiges durcheinander gewirbelt, dennoch lief die Räumung der Hallen geordnet ab. Dafür möchte ich mich herzlich bei den Besuchern sowie Ausstellern und nicht zu letztlich bei der Feuerwehr für Ihre Unterstützung bedanken – wenn es ernst wird, hält die Windbranche zusammen.“

Zuviel Wind und zuwenig Wind, das sind Luftbewegungen, die die Luftikusse des Windmühlengewerbes zur Pflege ihres Goldrausches routiniert ausblenden. Für sie gibt es nur den genau richtigen Wind, und das ist der, der die Segel ihres wirtschaftlichen Fortkommens bläht. Um die anderen vier Winde sollen sich die Zahlesel kümmern, die der Gesetzgeber zum Glück in großer Zahl bereitgestellt hat. Etwa die, welche die Negativstrompreise finanzieren, wenn überschüssiger Windstrom zur Entlastung der Netze ans Ausland verschenkt werden muß – gegen Zahlung barer Münze ans Ausland versteht sich, damit es das in deutscher Netz-Not dargebrachte Geschenk auch in seine Netze hereinnimmt.

Vernunft? Markt? Augenmaß? Realismus? Pustekuchen. Möge dieser jämmerliche gesellschaftliche Darmwind des klimatisch-eingebildeten Weltrettertums und seiner einhergehenden planwirtschaftlich kranken, verzerrenden Begleiterscheinungen recht bald abgehen!

„Husum Storm“ wäre doch auch ein schöner Name für eine Messe. Würde genausogut auf die blauen Flatterfahnen passen. An einer Lobby in Berlin für ein paar diesbezügliche Subventiönchen ließe sich ja basteln.

Karikatur aus dem Jahre 2017.




Fake News über Hurrikan Irma von FAZ, FOCUS, Deutschlandfunk, … bis hin zu Levermann (PIK) und M. Latif

Zunächst ein kleiner Auszug des von den Medien und den Experten A. Levermann (Mitarbeiter des Potsdamer Instituts für Klimafolgenforschung) und M. Latif verzapften sachlichen Unsinns hier, hier, hier, hier, hier, … Die Liste läßt sich beliebig fortsetzen. Allgemeiner Tenor: Irma sei der stärkste je gemessene Wirbelsturm gewesen, alles würde immer schlimmer werden und natürlich sei die anthropogene Erwärmung zumindest mitschuldig. Nebenbei: M. Latif’s fragwürdige Verlautbarungen haben bereits Tradition. So sagte Latif in 2000 voraus, dass es infolge Klimaerwärmung in Deutschland keine Winter mit Schnee mehr geben würde (hier).

Wirklich? Beginnen wir mit Irma. Wie stark war er? Der Hurrikan-Forscher P. Klotzbach vom Department for Atmospheric Science an der Colorado State University (hier) hat als erster Einwände angemeldet. Er kennt US-Hurrikane aus seiner beruflichen Tätigkeit aus dem EffEff. Hier die Tabelle

Quelle: WUWT (hier). Das Stärke-Kriterium ist der beim Übergang des Hurrikans auf das Festland gemessene Luftdruck im Auge des Hurrkans (s. Spalte 5 der Tabelle) – je kleiner der Druck umso stärker der Wirbelsturm.

EIKE hat bereits schon einmal über das „Problem“ der Stärkenmessung und des historischen Verlaufs von Wirbelsturmhäufigkeiten berichtet (hier, hier). Es ist also bereits genug darüber bei EIKE zu diesem Thema geschrieben und vor allem auch mit den zugehörigen Statistiken aus der Fachliteratur belegt worden. Warum trotzdem diese Fakten von den sog. Qualitätsmedien nicht zur Kenntnis genommen werden, kann mit fehlender Information nicht mehr erklärt werden. Sachlich begründeten Widerspruch zu den beiden EIKE-Veröffentlichungen gab es nicht. Seriöse Sachdiskussionen sind heute offensichtlich nicht mehr in Mode, Desinformation auf allen Kanälen ist angesagt.

Journalisten haben von den Themen Klima und Energie nicht den blassesten Schimmer. Ist auch nachvollziehbar. Einen investigativen Qualitätsjournalismus (Beispiele ehemaliger SPIEGEL und ehemalige FAZ), der ohne Rücksichten ordentlich recherchierte und berichtete, gibt es nicht mehr. Journalist wird man heute mit der richtigen grünlinken Gesinnung. Studium eines Sozialberufs reicht. Ordentliche Recherche? Ist unnötig, zu teuer und macht zu viel Arbeit. Bei dieser Verflachung eines für unsere Demokratie so wichtigen Berufs dürfen wir uns nicht wundern, dass das Aufdrängen von  Meinungen heute das „Berichten was ist“ ersetzt hat. Die deutschen Medien haben sich den Zuständen der ehemaligen DDR angeglichen – von wenigen Ausnahmen abgesehen. Die Quittungen erhalten die großen Zeitungen inzwischen in Form von dramatisch fallenden Verkaufszahlen, und dabei ist nicht das Internet der Hauptschuldige. Aber auch die Nachrichtensendungen von ARD und ZDF tun sich viele Zeitgenossen inzwischen nicht mehr an

Aber zurück zu unserem Thema der Extremwirbelstürme! Viel interessanter als der Medienunsinn über die jüngsten US-Hurrikane sind folgende Fragen:

1. Welches sind die Kriterien, die zu einem Orkan über warmen Meerwasser führen?

2. Was sind die Gründe dafür, dass einige Orkane wieder verschwinden, andere aber sich in erstaunlich kurzer Zeit und mit unvorstellbarer Wucht zu extremen Wirbelstürmen entwicklen?

3. Wie ist der heutige Stand der Vorhersagen und Modelle von Extremwirbelstürmen und wie gut kann man ihren zerstörerischen Weg überhaupt vorhersagen?

Obwohl als einzige verlässliche Zeugen nur die Fachliteratur gelten darf, sei ausnahmsweise auch einmal eine gute mediale Information zitiert. Der französische Sender TV5 Monde Europe (per Satellit neben France 24 auch mit deutschem Reciever zu empfangen) zeichnet sich gelegentlich durch sehr gute Wissenschaftsdokumentationen aus. Eine solche Sendung über Physik und Erforschung von Extremwirbelstürmen wurde vor wenigen Tagen ausgestrahlt. Nach meiner Erinnerung könnte der Titel „Au coeur des cataclysmes“ o.ä. gelautet haben. Die Sendung war fachlich einwandfrei, das mit Extremwettern in den Medien fälschlich oft verbundene „menschgemacht“ kam mit keinem Wort vor. Man erhielt einen detaillierten Einblick über den Stand und die Methoden der aktuellen Hurrikan-Forschung in den USA mit Hilfe unzähliger Interviews von Hurrikan-Fachleuten.

Die wichtigsten Punkte der Sendung zusammengefasst:

1) Die vielen Interviews von Hurrikan-Forschern lieferten interessante Insider-Informationen, die in der Fachliteratur verständlicherweise nicht thematisiert werden.

2) Als einziges notwendiges, aber keineswegs hinreichendes Kriterium für das Entstehen eines schweren Sturms über dem Atlantik wurden mindestens 26,5 °C warmes Oberflächenwasser genannt. Die restlichen Kriterien liegen dagegen völlig im Dunkeln. Es wurde die Vermutung zitiert, dass von Afrika kommende Passatwinde eine maßgebende Rolle beim Anwachsen des Sturms zu einem Hurrikan spielen könnten.

3) Über die näheren Ursachen der Entwicklung des Sturms zu einem Hurrikan herrscht so gut wie komplette Unkenntnis. Im Normalfall verflacht der Sturm wieder. Es kommt aber auch vor, dass er innerhalb der extrem kurzen Zeit von ca. 10 Stunden bis zur höchsten Hurrikan-Kategorie anwachsen kann.

4) Man versucht zur Zeit Modelle zu entwickeln, welche den Entstehungsverlauf von Sturm zu Hurrikan vorhersagen können. Aus den Interviews der Forscher ging aber nicht der Eindruck großer Hoffnung hervor, dass diese Modelle in voraussehbarer Zukunft vernünftige Ergebnisse liefern könnten (das lässt nebenbei auch einige Erkenntnisse über die Qualität von Klimamodellen zu).

5) Im Gegensatz zur Entwicklung eines Hurrikans macht man infolge immer besseren Monitorings mit Hilfe von mobilen Messfahrzeugen, mit Flugzeugen, die ins Auge des Hurrikans fliegen und Messkapseln abwerfen etc. laufend Fortschritte in der Bestimmung der zu erwartenden Trajektorie eines Hurrikans.

Der heutige Stand der Hurrikan-Forschung ist also alles andere als ermutigend. Nebenbei zu TV5: wer sich tolle Wissenschaftssendungen von diesem Sender erhofft, darf nicht zuviel erwarten. Die hier beschriebene Sendung war ein immer mal wieder vorkommender Einzelfall von sehr guter und interessanter Information. Der Klimakatastrophen-Klamauk ist in Frankreich zumindest genauso schlimm wie bei uns.

Nun zur Fachliteratur. Was sagt die Statistik zur Entstehung von Wirbelstürmen?

1) Zur Häufigkeits- und Intensitätsfrage gibt der schon (hier) genannte EIKE-Beitrag hinreichend Auskunft. Interessant sind auch die Fachveröffentlichungen (hier, hier), in denen belegt wird, dass historische Zunahmen von Extremstürmen oft schlicht ihren Grund darin hatten, dass die Erfassung dieser Stürme früher zu lückenhaft war.

2) Über die weiter zurück liegende Entwicklung von Hurrikanen ab dem römischen Imperium bis zum Mittelalter mit Blick auf die heutige Situation findet sich Interessantes in der folgenden Fachpublikation (hier).

3) Was die Ursachen des Auftretens von Extremstürmen angeht, hat dankenswerterweise insbesondere die „Kalte Sonne“ (hier) zwei ausführliche Artikel mit Angabe der zugehörigen Quellen verfasst (hier, hier). Der erste Artikel zeigt, dass offenbar ein Zusammenhang zwischen Sonnenaktivität und Hurrikan-Häufigkeit betsteht. Der zweite Artikel der „Kalten Sonne“ berichtet über verschiedene Fachpublikationen.. Eine zeigte, dass eine Antikorrelation von aktueller Hurrikan-Häufigkeit und -Intensität besteht. Eine weitere fand heraus, dass während der mittelalterlichen Warmzeit die Hurrikan-Häufigkeit an der US-Atlantikküste besonders hoch war. Und eine Dritte schließlich belegte, dass die Häufigkeit von Hurrikanen eng an Ozeanzyklen und den El Nino gekoppelt ist.

Die Forschung ist auf dem Gebiet der Extremstürme schreitet also „stürmisch“ voran. Wie so oft, kann aber von einem echten Durchbruch noch lange nicht gesprochen werden. Schlussendlich und in gegebenem Zusammenhang der immer wieder versuchten Verknüpfung von Extremwettern und menschgemachten CO2-Emissionen sei daran erinnert, dass bis heute

1. .. ein anthropogener Einfluss auf Extremwetter-Ereignisse nicht aufzufinden ist [3].

2. .. es keine begutachtete Fachpublikation gibt, die stringent nachweist, dass MENSCHGEMACHTES CO2 zu einer globalen Erwärmung geführt hat. Genauer: Es gibt keinen Nachweis, dass CO2-ÄNDERUNGEN globale Temperaturänderungen verursachen. Alle entsprechenden Fachpublikationen müssen dazu fiktive Theorien oder Modelle bemühen. Der gemäß IPCC-Aussage unbekannte(!) [1] Wert der Klimasensitivität (= globale Erwärmung bei JEDER Verdoppelung der CO2-Konzentration) nähert sich völlig unbedeutenden ~0,6 °C an. Dies belegen unzählige Fachpublikationen über die letzten Jahre [2]. Der UMGEKEHRTE Zusammenhang ist dagegen gesichert. Temperaturen führen das CO2, weil warmes Meerwasser CO2 ausgast und kaltes Meerwasser es bindet [4].

Jeder Fachexperte, der daher die Vermeidung von 2 °C bzw. heute 1,5 °C globaler Erwärmung mit Hilfe von CO2-Einsparungen fordert, widerspricht der Fachliteratur und sogar dem IPCC und täuscht die Öffentlichkeit über den heutigen wissenschaftlichen Stand.

 

Quellen:

[1] Jüngster IPCC-Bericht für Politiker (2013) (hier). Zu finden auf S. 16 die entsprechende Fußnote zur Klimasensitivität, sie ist lt. offizieller Aussage des IPCC „unbekannt“. Das PIK weiß es anscheinend „besser“.

[2] F. Gervais, Anthropogenic warming challenged by 60-year cycle, Earth-Science Review 155 (2016), 129-135, insbesondere folgendes Bild aus dieser Arbeit

[3] Tropische Stürme und Hurrikane [IPCC 2013, AR5, WG1, Kapitel 2.6, Seite 216]:No robust trends in annual numbers of tropical storms, hurricanes and major hurricanes counts have been identified over the past 100 years in the North Atlantic basin.”

Tropische Zyklone [IPCC 2013, AR5, WG1, Kapitel 2.6, Seite 216]: “Current datasets indicate no significant observed trends in global tropical cyclone frequency over the past century and it remains uncertain whether any reported long-term increases in tropical cyclone frequency are robust, after accounting for past changes in observing capabilities.”

Außer-tropischeZyklone [IPCC 2013, AR5, WG1, Kapitel 2.6, Seite 220]: “In summary, confidence in large scale changes in the intensity of extreme extratropical cyclones since 1900 is low. There is also low confidence for a clear trend in storminess proxies over the last century due to inconsistencies between studies or lack of long-term data in some parts of the world (particularly in the SH). Likewise, confidence in trends in extreme winds is low, owing to quality and consistency issues with analysed data.”

Dürren [IPCC 2013, AR5, WGI, Technical Summery, Seite 50]: ”There is low confidence in a global-scale observed trend in drought or dryness (lack of rainfall), owing to lack of direct observations, dependencies of inferred trends on the index choice and geographical inconsistencies in the trends.”

sowie in [IPCC 2013, AR5, WGI, Kapitel 2.6, Seite 215]:In summary, the current assessment concludes that there is not enough evidence at present to suggest more than low confidence in a global scale observed trend in drought ordryness (lack of rainfall) since the middle of the 20th century, owing to lack of direct observations, geographical inconsistencies in the trends, and dependencies of inferred trends on the index choice. Based on updated studies, AR4 conclusions regarding global increasing trends in drought since the 1970s were probably overstated. However, it is likely that the frequency and intensity of drought has increased in the Mediterranean and West Africa and decreased in central North America and north-west Australia since 1950.”

Überflutungen [IPCC 2013, AR5, WGI, Technical Summery, Seite 112]: ”There continues to be a lack of evidence and thus low confidence regarding the sign of trend in the magnitude and/or frequency of floods on a global scale over the instrumental record.”

Hagel und Gewitter [IPCC 2013, AR5, WGI, Kapitel 2.6, Seite 216]: “In summary, there is low confidence in observed trends in small-scale severe weather phenomena such as hail and thunderstorms because of historical data inhomogeneities and inadequacies in monitoring systems.”

Und schließlich fasst IPCC zusammen [IPCC 2013, AR5, WGI, Kapitel 2.6, Seite 219]: “There is limited evidence of changes in extremes associated with other climate variables since the mid-20th century.”

[4] Caillon et al., Timing of atmospheric CO2 and Antarctic temperature changes across termination III, Science, 229 (2003), 1728-1731, hierin insbesondere fogende Fig. 4. aus dieser Publikation.




DREI Hurrikan-Fake News im ZDF „MORGENMAGAZIN“ am 11.09.2017

Am 11.09.2017 im ZDF „Morgenmagazin“ konnte der so angekündigte „Klimaphysiker“ Anders Levermann (PIK POTSDAM) seine Propaganda mit Hurrikan-Klimawandel-Alarmismus wiedermal vollends unter die TV-Zuschauer bringen, weil Dunja Hayali 1. schlecht vorbereitet war und 2. auch vollends auf der Welle des Hurrikan-Alarmismus „mitgeritten“ ist. Die drei wichtigsten Informationen über die drei Hurrikane Irma, José und Katia waren definitiv FALSCH, was in folgendem Kurz-Video dokumentiert wird:

Anmerkung der EIKE Redaktion: Video mit den vielen Falschbehauptungen innerhalb weniger Minuten von Dunja Halaly, Anders Levermann (PIK)  und dem Papst. Die Macher von Klimamanifest von Heiligenroth verwenden in diesem Zusammenhang den Begriff „Lüge“. Dem schließen wir uns nicht an. Denn Lüge setzt den Vorsatz voraus, wider besseres Wissen die Unwahrheit zu sagen. Bei den meisten der gezeigten Personen kann man „Besseres Wissen“ ausschließen, bei Herrn Levermann eigentlich nicht. Und  doch sollte man ihm nicht das Lügen unterstellen, denn er blendet offensichtlich das Wissen aus, dass zum Zeitpunkt des Interviews bereits bekannt war. Er glaubt daher vermutlich korrekt berichtet zu haben. Wer aber als Wissenschaftler  Fakten ausblendet oder auch nur nicht zur Kenntnis nimmt, handelt als Gläubiger und nicht als Wissenschaftler

Nachfolgend auch die wichtigen Nachweis-Screenshots, warum die Behauptungen von im ZDF „MORGENMAGAZIN“ falsch und damit unwahr gewesen sind:

1.
Mit diesem Vorwurf auf Twitter konfrontiert, meinte Dunja Hayali allen Ernstes:

über dem atlantik! stimmt nicht?

Es stellte sich dann heraus, dass Dunja Hayali bei der Definition von „ATLANTIK“ wohl getrickst hatte, womöglich auf „Empfehlung“ von Anders Levermann. Es wurde einfach der GOLF VON MEXIKO und die KARIBIK aus der Definition „Atlantik“ entfernt, damit nun folgende Propaganda über den Hurrikan IRMA u.a. auch auf WIKIPEDIA behauptet werden kann:
Heftig !! So konstruiert der Klima-Fanatismus neue Superlative, indem alte, wichtige Kriterien aus der Vergangenheit für diesen Superlativ entfernt werden und einfach neue Kriterien für einen neuen Superlativ definiert werden. Aber trotzdem wird vorgegaukelt, der Höchstwert/Superlativ der Vergangenheit wäre mit dem aktuellen Superlativ vergleichbar, was in Wahrheit gar nicht stimmt. Denn die Kriterien wurden verändert. Die „Fussnote [5]“ bei WIKIPEDIA weist einen „Forcaster Brown“ für diese Trickserei aus, der behauptet:

This makes Irma the strongest hurricane in the Atlantic
basin outside of the Caribbean Sea and Gulf of Mexico in the NHC records.

Aber trotzdem bleibt es dabei: Dunja Hayali lag am 11.09.2017 mit ihrer Behauptung falsch, weil sie den gesamten Atlantik gemeint hatte und den Atlantik nicht genauer spezifiziert hatte.

2.
Eine ganz dreiste Unwahrheit kam dann von Anders Levermann, weil er unzweifelhaft beim Zuschauer den Eindruck vermittelt hat, der Hurrikan José würde die gleiche Flugbahn wie Hurrikan Irma nehmen, was ebenfalls nicht stimmte. Hurrikan José bog unmittelbar vor den Kleinen Antillen-Inseln nach Nordwesten ab und verschonte (nahezu) alle Inseln, die Hurrikan Irma kurz vorher bereits verwüstet hatte. Sie können sich die Flugbahnen von Hurrikan IRMA und auch von Hurrikan JOSÉ per Grafik-Animationen noch nachträglich im Internet anschauen. Eindeutig dokumentiert: Anders Levermann hatte daher 11.09.2017 im ZDF „MORGENMAGAZIN“ die Unwahrheit gesagt. Ob wider besseres Wissen, oder weil er Glauben für Wissen hielt, wissen wir nicht. Und auch noch am 12.09.2017 dümpelt der Hurrikan José ziemlich zielos im Atlantik im Osten der den Bahamas und südwestlich der Bermudas im unbewohnten Atlantik:

3.
Ebenfalls eine dreiste Unwahrheit von Anders Levermann, denn ihm kann unterstellt werden, dass er gewusst haben muss, dass sich der Hurrikan Katia bereits am Samstag, 09.09.2017 aufgelöst hatte, was auch eine Grafik-Animation belegt.

Aber wie das obige Kurz-Video ebenfalls andeutet, scheinen auch diese drei Hurrikan-Fake News den Segen vom Papst zu haben. Halleluja.




Weltklimarat IPCC vor der Pleite?

Das jährliche Budget des Weltklimarates IPCC beträgt rund sechs Millionen Dollar, schwankt aber von Jahr zu Jahr. Rund 44 Prozent des Geldes steuerten bisher die USA bei, teils auch als Folge der schlechten Zahlungsmoral der Mitglieder. Einige Länder sind ihren Verpflichtungen nicht nachgekommen. Nun will auch US-Präsident Donald Trump den Beitrag der USA zusammenstreichen.

Die finanzielle Lage des Weltklimarats habe sich in den letzten Jahren besorgniserregend verschlechtert. Der IPCC benötigt neues Geld. Als mögliche neue Einnahmequellen sieht der IPCC das Crowdfunding sowie gemeinnützige Stiftungen. Also spenden Sie.

Übernommen von ScienceSceptical hier

Anmerkung der EIKE Redaktion:

Eine gute Nachricht! Hier die Tondatei (mit Dank an R. Hoffmann) des Schweizer Rundfunks, die darob sehr verwundert und wohl auch verärgert sind. Die Schweiz will ihren Beitrag erhöhen, vermutlich wird D den Rest übernehmen. Peanuts!




Werden Hurrikane immer heftiger?

Ein kurzer Blick in die offiziellen Wetterdaten, die jeder aus dem Internet herauskopieren kann und 15 Minuten Excel genügen, um Klarheit zu schaffen:

Was wir sehen, verwundert: seit 50 Jahren nimmt die Stärke der atlantischen Hurrikane ab anstatt zu. Die offiziellen US-Statistiken belegen es. Ja, vor 12 Jahren, so um 2005 herum, da gab es eine schlimme Häufung, aber dann war erstmal wieder für lange Jahre Ruhe.

Häufigkeit Nordatlantischer Wirbelstürme, Grafik Fritz Schmitz

Die Medien behaupten aber das Gegenteil, alles würde immer schlimmer. Das ist Fake News Nummer 1 – hiermit widerlegt durch eine total simple Auswertung der Originaldaten.

Und im gleichen Atemzug hören wir von den Medien Fake News Nummer 2: „Der Klimawandel ist schuld daran“. Also  die Erderwärmung. Aber auch die wird von den renommiertesten Wissenschaftlern anhand offizieller Messungen der Erdtemperatur bezweifelt, denn seit 1998 ist die Erdtemperatur nicht mehr gestiegen. Wie z.B. die NASA seit rund 20 Jahren gemessen hat. Auch diese Daten sind veröffentlicht, werden aber von unseren Medien ängstlich verschwiegen.

Obendrein wird konstant behauptet, der Mensch sei an der Klimaerwärmung schuld – das ist Fake News Nummer 3. Seien wir ehrlich: wenn schon die Hurrikane nachlassen und wenn es realiter gar keine Erwärmung gibt, wie – Gott im Himmel – soll der Mensch an diesem nicht real existierenden Hurrikan-Trend schuld sein?

Fazit: Offenbar werden wir belogen. Kurz vor der Wahl ist das verständlich, aber es ist ein schlimmes Zeichen für den Zustand unserer Mediendemokratie. Für die Medien gilt: „Only bad news are good news“, und die Politik erliegt immer der Versuchung, sich mit den Medien zu verbünden und sich als Retter der bedrohten Welt zu präsentieren. Nicht zu vergessen ist natürlich auch der massive Einfluss der Klima-Lobby, die im trauten Dreiklang mitposaunt.

 




Die Brennelementesteuer – Chronik eines Versagens

Diese umgangssprachlich so bezeichnete Steuer (amtlich heißt sie „Kernbrennstoffsteuer“) sollte durch Abgaben auf Brennelemente in Kernkraftwerken die Staatseinnahmen erhöhen. Sie wurde von 2011 bis 2016 erhoben. 2017 musste das eingenommene Geld nach einem Urteil des Bundesverfassungsgerichts wieder zurückgezahlt werden.

Das Gesetz war Ergebnis der 2010 ausgehandelten Laufzeitverlängerung für Kernkraftwerke unter CDU/FDP-Regie und zielte darauf ab, die damals satten Gewinne der Betreiber zugunsten der Staatskasse anzuzapfen. Sind die Laufzeiten länger, soll der Staat auch etwas davon haben, so das Kalkül. Obwohl Verfassungsrechtler frühzeitig warnten, ging im Oktober 2010 das Gesetz wie geschmiert durch den Bundestag.

Im Juni 2017 erklärte das Bundesverfassungsgericht das Gesetz für verfassungswidrig. Der Spruch in Karlsruhe ließ an Deutlichkeit nichts zu wünschen übrig. Die Kernbrennstoffsteuer sei eben keine Verbrauchssteuer, nicht der Strom würde besteuert, sondern ein Teil der Produktionsmittel. Dafür habe der Bund aber keine Gesetzgebungskompetenz. Es gibt eben in Deutschland kein freies Steuererfindungsrecht – bis zur Bananenrepublik ist es noch ein Stück Weg. Die Steuer sei „von Anfang an mit erheblichen finanzverfassungsrechtlichen Unsicherheiten“ belastet gewesen. Deswegen werde das Gesetz rückwirkend und vollständig für nichtig erklärt.

 

Nehmen und Geben

Die Rückzahlung beträgt inklusive Zinsen über sieben Milliarden Euro. Wie kam dieses offenbar nicht hieb- und stichfeste Gesetz durch den Bundestag?

In der Wahlperiode 2013-2017 sitzen im Bundestag mehr als 80 Juristen, 2010 werden es kaum weniger gewesen sein. Wären Sie Spitzenkräfte ihrer Branche, würden sie wohl an anderer Stelle mehr leisten, mehr bewirken – und mehr verdienen. Vermutlich greifen vor allem jene Juristen nach einem Mandat, die in ihrem Fachgebiet nicht die hellsten Kerzen auf dem Leuchter sind.

Sollte der Wissenschaftliche Dienst des Bundestages beteiligt gewesen sein, steht auch dieser in zweifelhaftem Licht. Sollte er nicht beteiligt gewesen sein – warum wurde er nicht gefragt? Bei der Vorratsdatenspeicherung wies dieser schon auf das absehbare Scheitern vor dem Europäischen Gerichtshof hin (der Spruch des Bundesverfassungsgerichts steht noch aus). Auch der von der Regierung erfundene „Bundestrojaner“ ist in Teilen verfassungswidrig, zum „Netzwerkdurch-setzungsgesetz“ gibt es noch kein Urteil.

Offenbar werden Gesetze nach dem Try-and-Error-Prinzip erlassen. Kaum einem Arbeitnehmer würde man solche Arbeitsweise durchgehen lassen.

Der Vorgang um die Brennelementesteuer gäbe Regierung und Opposition, also den Einheitsparteien der Energiewende, jeden Anlass, kritische Rückschau zu halten. Natürlich auch und vor allem der Kanzlerin. Wer jetzt von ihr eine bedauernde Äußerung erwartet hätte, vielleicht sogar einen Ansatz von Selbstkritik, wurde enttäuscht. Wer im tiefen Bewusstsein allseits beklatschter Alternativlosigkeiten regiert, lässt sich von einem solchen Fauxpas nicht aus der Ruhe bringen. So erschöpfte sich ihre Reaktion in dem Satz: „Die schwarze Null ist nicht gefährdet.“

So leicht kann man ungestraft darüber hinweggehen, wenn man ein paar Steuermilliarden verzinst wieder rausrücken muss. Sanktionen sind in diesen Sphären ausgeschlossen. Es geht ja nicht um den eigentumsrechtlichen Status eines Pfandbons, der von einer Supermarktkassiererin verletzt wird, sondern um die „Gemeinschaftsaufgabe“ Energiewende, wo unsere Regierungen seit 20 Jahren mit wenig Erfolg eine Lernkurve absolvieren und alle Fehler unter eine autobahnbreite Toleranzgrenze fallen.

Auch beim so genannten „Atom-Moratorium“ gab es regierungsseitig juristischen Pfusch. Um Handlungsfähigkeit zu demonstrieren, gab der Bund am 14. März 2011 die Weisung (später nannte sie das eine Bitte) zur Abschaltung an die betroffenen Länder, die sieben ältesten Kernkraftwerksblöcke für drei Monate abzuschalten. Der Bundestag wurde übergangen. Die Kraftwerke in Japan und Deutschland seien technisch vergleichbar. Damit läge auch ein gleichwertiges Risiko vor, so die hessische Umweltministerin Puttrich (CDU). Nur die Gefahr eines Tsunami ließ sich nicht konstruieren.

 

Äußerste Tsunami-Vorsorge

Für den damaligen Umweltminister Röttgen (CDU) war dies ein „Gebot äußerster Vorsorge“ und eine „Gefahrenabwehr“. Warum sich die Gefahrenlage geändert hatte, weiß bis heute niemand, aber das Argument „äußerste Vorsorge“ ist multipel verwendbar, wenn man an den Diesel, beliebige Emissionen oder tägliche Lebensrisiken denkt. Damit kann eine Regierung buchstäblich alles reglementieren.

Merkel und Röttgen beriefen sich auf den Paragrafen 19 des Atomgesetzes, was wiederum für viele Verfassungsrechtler nicht stichhaltig war. Der ehemalige Präsident des Bundesverfassungsgerichts Hans-Jürgen Papier nannte die Stilllegung der älteren Meiler „illegale Maßnahmen“.

Als sich die rechtlichen Zweifel mehrten und RWE klagte, wollte Angela Merkel für die Abschaltung von Biblis nicht verantwortlich gewesen sein, obwohl diese Maßnahme aufgrund eines Beschlusses der Bundesregierung zustande kam.

„Da kann nicht der Bund den Hut aufhaben nach der Rechtslage“, sagte sie vor einem Untersuchungsausschuss des Hessischen Landtags. Nach Merkels Darstellung haben der hessische Ministerpräsident Volker Bouffier und die damalige Umweltministerin Puttrich in alleiniger Verantwortung gehandelt, als sie dem Biblis-Betreiber RWE die Abschaltverfügung zustellten. Bouffier vertrat dagegen den Standpunkt, eine Weisung der Bundesregierung ausgeführt zu haben, denn Berlin habe den Bundesländern vorgegeben, dass und wie die Atomkraftwerke abzuschalten seien. Außerdem soll ihm die Kanzlerin versprochen haben, der Bund werde das Land „nicht im Regen stehen lassen“, falls es zu Klagen der KKW-Betreiber komme. Aber an eine derartige Zusage konnte oder wollte Merkel sich nicht erinnern. Sie meinte, der Vollzug der Stilllegung sei Sache der Länder gewesen. Somit habe Hessen auch Rechtsfehler zu verantworten. Der Schwarze Peter wurde munter hin und her geschoben, in der Hoffnung, die Gerichte würden die Schadensersatzforderung von RWE abweisen.

 

Schaden und Ersatz

Das Bundesverwaltungsgericht in Leipzig bestätigte aber das Urteil des Kasseler Verwaltungsgerichtshofs zu den Schadenersatzforderungen des Betreibers RWE betreffend das KKW Biblis. 235 Millionen Euro wurden RWE zugestanden.

2016 kam dann das Bundesverfassungsgericht in Karlsruhe zu dem grundsätzlichen Schluss, die Stromkonzerne hätten Anspruch auf eine „angemessene“ Entschädigung wegen des beschleunigten Atomausstiegs. Kritiker hatten die Begründung des Moratoriums mit „Gefahrenabwehr“ als wenig überzeugend bezeichnet. Die Ereignisse in Japan mit einem Seebeben und einem folgenden Tsunami seien ja kaum auf Deutschland übertragbar.

Bevor der Streit zwischen Hessen und dem Bund in eine Schlammschlacht überging, lösten RWE und Co das Problem auf andere Weise. Die Energiekonzerne zogen insgesamt 20 Klagen rund um den Atomausstieg gegen die Bundesrepublik zurück und vereinbarten eine Einmalzahlung von 23 Milliarden Euro für die Endlagerung. Damit haben alle Seiten Rechtssicherheit und alle weiteren schwer kalkulierbaren weil politisch maximierten Folgekosten der Endlagerung fallen dem Staat und seinen treuen Steuerzahlern zu.

Natürlich war dieses Moratorium zur Sofortabschaltung vom 14. März 2011 ohne praktischen Sinn. Es galt aber, sich als handlungsfähige, entschlossene und ihre Bürger schützende Regierung darzustellen und der zu diesem Zeitpunkt deutlichen Erwartungshaltung des kernkraftkritischen Teils der Bevölkerung zu entsprechen.

Deutsche Politik besteht zu einem immer größer werdenden Teil daraus, „Zeichen zu setzen“ und der Zeitpunkt war von einiger Brisanz. Am 20. März 2011 standen Landtagswahlen in Sachsen-Anhalt an, am 27. März in Baden-Württemberg und Rheinland-Pfalz. Eine über 30 Jahre gepflegte Atomangst in der Bevölkerung konnte nun dazu führen, dass Mehrheiten der CDU schmelzen und die Kanzlerin Machtverlust erleidet. Zwar ließ sich nicht vermeiden, dass in Stuttgart ein grüner Landesfürst den Thron bestieg, aber immerhin ein Katholik, der heute die Kanzlerin in seine Gebete einschließt. Ein über Parteigrenzen hinweg relativ seltener Vorgang.

Auch der Interessenlage der CDU-Bundestagsabgeordneten und insbesondere der Juristen unter ihnen dürfte dieser Kurs entsprochen haben. Wozu sich für arrogante Großkonzerne zum Helden machen und das Mandat bei nächsten Wahlen gefährden? Bisher kam der Strom immer aus der Dose und die schwer abzuschätzenden Kosten des Atomausstiegs zahlen andere. Abgeordnete wollen in der Regel wiedergewählt werden und nicht auf den freien Arbeitsmarkt, in den rauen Wind der Realitäten.

Blicken wir erwartungsvoll den nächsten Erzeugnissen bundespolitischer Gesetzesproduktion entgegen. Sie sichern Beschäftigung für Anwälte und Gerichte. Die Brennelemente strahlen indes steuerfrei weiter – wo auch immer.




Doch nicht menschengemacht!

Alex Reichmuth (Red. WELTWOCHE)*

Letzte Woche konnte das SRF einen seiner Lieblingsexperten im Studio begrüssen: Andreas Fischlin. Der Klimaforscher der ETH Zürich lieferte im «10 vor 10»-Gespräch zuverlässig das Erwartete. Er bestätigte, dass an den jüngsten Natur- und Wetterkatastrophen der Mensch schuld sei. Hurrikan über Houston? «Der Klimawandel spielt hier hinein.» Bergsturz im Bergell? «Eindeutig auf den menschengemachten Klimawandel zurück­zuführen.» Waldbrände in Südeuropa? «Kommen in Zukunft viel häufiger vor.»

Kein Wort aber verlor man beim Schweizer Fernsehen, so wenig wie in anderen Schweizer Medien, über eine Studie, die vor kurzem im Fachjournal Geo Res J publiziert worden ist. ­Dabei lässt das Resultat, zu dem australische Forscher gekommen sind, aufhorchen: Die ­Erwärmung der Erde um etwa ein Grad Celsius seit Mitte des 19. Jahrhunderts habe weit­gehend natürliche Ursachen.

Stalagmiten als Datenträger

Grundlage der Studie der Biologin Jennifer ­Marohasy und des Chemikers John Abbot ­waren Temperaturreihen für die vergangenen 2000 Jahre, die sich auf sogenannte Proxy-­Daten abstützen. Solche Daten lassen sich aus Baumringen, Eisbohrkernen, Stalagmiten oder Korallen gewinnen. Mittels Proxy-Daten kann man auf das Klima zu Zeiten schliessen, als es noch keine zuverlässigen meteorologischen Messungen gab. Marohasy und Abbot haben sechs Proxy-Temperaturreihen, die die letzten 2000 Jahre abbilden, einem neuartigen Computerverfahren unterworfen. Dieses beruht auf einer Art künstlichem neuronalem Netzwerk, das fähig ist, in Zeitreihen Regelmässigkeiten zu erkennen und daraus die künftige Entwicklung abzuschätzen. Die beiden Forscher haben dieses Verfahren schon früher mit Erfolg angewandt, etwa um Regenmengen in Australien vorherzusagen.

Bei den Temperaturreihen interessierte ­Marohasy und Abbot nun, wie sich diese ohne den CO2-Ausstoss des Menschen mutmasslich entwickelt hätten. Entsprechend fütterten sie ihre Computer nur mit den Proxy-Daten bis zum Jahr 1830, als die Verfeuerung fossiler Brennstoffe im grossen Stil begann. Die Programme suchten also nach periodischen Mustern in dem Teil der Reihen, der sicher nicht durch den CO2-Ausstoss beeinflusst ist. Es er­gaben sich unter anderem Schwankungen im Rhythmus von etwa sechzig Jahren um einige Zehntelgrade. Und es zeigte sich ein stärkeres, langfristiges Auf und Ab: Nach einer Erwärmungsphase bis etwa 1200, als es mindestens so warm war wie heute, sank die Temperatur um rund ein Grad, bis sie ab 1650 tendenziell wieder anstieg.

Aus den eruierten Regelmässigkeiten schätzte das Verfahren den weiteren, sozusagen natürlichen Verlauf der Reihen ab. Anschliessend verglichen die Forscher die Prognosen mit dem tatsächlichen Verlauf der Temperaturreihen ab 1830. Es zeigten sich nur geringe Abweichungen, im Schnitt lediglich um 0,1 Grad. Die Welt­temperatur wäre demnach auch ohne Einfluss des Menschen um 0,6 bis 1 Grad gestiegen. Maro­hasy und Abbot folgerten, dass die Erwärmungswirkung durch zusätzliches CO2 in der Atmosphäre viel geringer sein müsse, als andere Klimaforscher behaupten.

Seit Jahren verkündet aber ein Zirkel tonangebender Wissenschaftler, am Haupteinfluss des Menschen an der Erderwärmung gebe es keine Zweifel mehr.

Die Reaktionen auf die Studie von Marohasy und Abbot fielen harsch aus: Es handle sich um «junk science», also um wertlose Wissenschaft, schrieb die linksliberale britische Zeitung The Guardian. Im Artikel kamen prominente Klimaforscher zu Wort, die Marohasy und Abbot eine Reihe gravierender metho­discher Fehler vorwarfen – etwa, dass die Proxy-Datenreihen willkürlich ausgewählt und die Berechnungen falsch interpretiert worden seien. Auch bei Pro Clim, einem Zusammenschluss von Schweizer Klimawissenschaftlern, hält man nichts von der Studie. Die verwendeten Zeitreihen seien grösstenteils nur lokal und nicht global bedeutend, schreibt Pro Clim auf Anfrage der Weltwoche. Zudem weise die Studie eine Reihe von «groben Fehlern» auf.

Seriöses Fachmagazin

Das Geo Res  J, in dem die Studie ­erschienen ist, ist allerdings ein ­seriöses Fachmagazin. Es wird von Elsevier herausgegeben, einem der führenden Wissenschaftsverlage der Welt. Die Studie hatte vor der Publikation eine kritische Begutachtung durch unabhängige Wissenschaftler bestanden. Die Fachgutachter hätten im Rahmen dieser peer review keine Fehler in der Studie entdeckt, bestätigte der Herausgeber des Magazins gegenüber dem Guardian.

Sicher muss die Qualität wissenschaftlicher Ergebnisse immer hinterfragt werden. Doch was die heftige Kritik an der Studie in Geo Res  J betrifft, kommt der Verdacht auf, dass diese auch andere Gründe hat als rein fachliche: Die Autoren Jennifer Marohasy und John Abbot ­gehören nämlich zu den Forschern, die nicht an die These des menschengemachten Klimawandels glauben – und das auch offen sagen. «Die wissenschaftlichen Fakten sind alles andere als klar», schrieb Marohasy in einem Internetkommentar – in Anspielung auf die Behauptung, kein ernsthafter Forscher könne mehr an der Verantwortung des Menschen an der Erderwärmung zweifeln. «Vielmehr sind die grund­legenden physikalischen Mechanismen [des Klimas, Anm. d. Red.] komplex und noch kaum geklärt», so die Biologin weiter.

Klar ist, dass die Studie von Marohasy und Abbot alleine keinen Beweis darstellt, dass die Erderwärmung nicht doch massgeblich vom CO2-Ausstoss angetrieben ist. Die beiden Forscher haben mit einer neuartigen Art der Datenberechnung gearbeitet, deren Aussagekraft ­diskutabel ist. Grundsätzlich ist die Bedeutung von Computerberechnungen zum Klima ­immer davon abhängig, welche Wirkung von chemischen Substanzen man annimmt, welche physikalischen Zusammenhänge man zugrunde legt und welche Qualität die eingespeisten ­Daten haben.

Man muss aber wissen, dass sich die tonangebenden Wissenschaftler bei ihren Warnungen vor einer weiteren ­Erwärmung praktisch ausschliesslich auf Computerberechnungen abstützen, die Kritiker seit langem als unbrauchbar bezeichnen. Diese Kritik ist nicht einfach nur böse Propaganda, denn es wurden in der Tat schon krasse Fehler hochdekorierter Klimawissenschaftler belegt.

Die bekannteste solcher Fehlleistungen ist wohl die sogenannte Hockeyschläger-Kurve des amerikanischen Klimaforschers Michael Mann, die auf Computerberechnungen beruht. Sie zeigte eine Welttemperatur, die während ­vieler Jahrhunderte praktisch unverändert blieb, um dann im 19. Jahrhundert plötzlich steil anzusteigen. Der Weltklimarat bildete die Kurve in seinem dritten Sachstandsbericht von 2001 an zentraler Stelle ab, um so vor einer Klimakatastrophe zu warnen. Später wies der kanadische Bergbauspezialist Steve McIntyre nach, dass die statistischen Verfahren von Michael Mann mathematisch untauglich sind. Damit hatte ein Hobbyforscher einen der höchstdekorierten Klimaforscher der Welt ­widerlegt.

Die Ergebnisse von Jennifer Marohasy und John Abbot stehen nicht so quer, wie man meinen könnte. Wissenschaftliche Resultate, die den Einfluss des Menschen auf das Klima als weit geringer als angenommen zeigen, sind keine Seltenheit. Sie kommen manchmal sogar aus der Schweiz:

So stellte das Weltstrahlungszentrum (PMOD/WRC) in Davos fest, dass die Strahlkraft der Sonne seit 1950 überdurchschnittlich hoch ist, in den kommenden Jahrzehnten aber wohl stark abnehmen wird. Die Abkühlungswirkung könne durchaus ein halbes Grad betragen, sagte PMOD/WRC-Leiter Werner Schmutz im letzten März gegenüber SRF. Ein halbes Grad wäre immerhin die Hälfte des ­Temperaturanstiegs, den man seit Beginn der Industrialisierung verzeichnet hat.

Dass das Schweizer Fernsehen Schmutz zu Wort kommen liess, dürfte damit zu tun haben, dass dieser sich sofort zum menschengemachten Klimawandel bekannte: «Die Sonne rettet uns nicht, die Sonne könnte uns höchstens ­etwas Zeit geben.»

Auch Galileo Galilei liess man einst erst laufen, nachdem er der Be­deutung der Sonne abgeschworen hatte.

=================================================================

)* Anmerkung der EIKE-Redaktion :  Dieser Artikel ist zuerst erschienen in WELTWOCHE Zürich :

Doch nicht menschgemacht | Die Weltwoche, Nr. 36/2017 | 07. September 2017

http://www.weltwoche.ch/

EIKE dankt der Redaktion der WELTWOCHE und dem Autor Alex Reichmuth für die Gestattung des ungekürzten Nachdrucks.

=================================================================




Ein Blick in die Zukunft: Evakuierung von Florida mit E-Autos? Ein Albtraum!

Wir haben hier schon viel über die aktuelle Hurricane-Saison berichtet. Während die Alarmisten auch diese – ohne jedes Zögern- dem menschgemachten Klimawandel in die Schuhe schieben, sagten wir Realisten dass da nichts dran wäre.

Doch egal wer letztendlich recht behalten wird, eines ist so sicher wie das Amen in der Kirche: Sie werden weiterhin jedes Mal im Spätsommer – Herbst über die tropische Inselwelt im Golf von Mexico, und die südliche Landmasse der Vereinigten Staaten von Amerika hinweg fegen, mal stärker mal schwächer, und oft Unheil und Tod bringen.

Je besser die Frühwarnsysteme werden, und je mobiler die Menschen dort bleiben, desto weniger Opfer werden sie fordern.

Und nun stellen wir uns vor, dass die Grünen aller Parteien in ihrem vorgeblichen Wunsch nach Klimarettung, nicht nur bei uns, sondern auch in den USA auf breiter Front die E-Mobilität eingeführt hätten, wenn nicht freiwillig als Dritt- oder Viertauto betuchter Familien, dann zwanghaft. Auf jeden Fall als individuelles Massentransportmittel.

Denn das bedeuten ja im Kern die bereits eingeführten – Norwegen, UK bald Frankreich-  oder noch kommenden Verbrenner-Verbote wie von Deutschland und der EU-geplant. Evtl. dann auch in den USA, falls Hillary oder ein linker Nachfolger sich zur Wahl stellen und gewinnen würde. Ein Verbrennerverbot wäre dann auch dort denkbar.

Und nun zurück zur Hurricane Saisons. Stellen wir uns vor, E-Mobile hätten bereits einen großen Anteil an der Autoflotte und ein starker landfallender Wirbelsturm wie Harvey oder jetzt Irma würden eine großvolumige Evakuierung erzwingen.

Es wäre eine entsetzliche Vorstellung. Millionen Menschen, auf engstem Raum auf der Autobahn zusammengefercht. Die langsamsten , besser, die massenweise mangels Ladung stehen gebliebenen, bestimmten das Fahrtempo. Es wäre im Nu Null!

Dann wären diese Millionen von Menschen den Naturgewalten völlig hilf— und schutzlos ausgeliefert. Millionen von Toten und Abermillionen von Verletzten wären die Folge.

Informatiker Hadmut Danisch hat diesen Zustand mal ein wenig durchgerechnet:

Zitat

Überlegen wir mal:

Unterstellen wir, dass der Tankfüllstand zufällig gleichverteilt ist, dürften die meisten PKW in der Regel einen im Durchschnitt halb vollen Tank haben, vor so einer Katastrophe mit Ansage vielleicht auch besser aufgetankt. Man könnte also mit jedem funktionsfähigen Auto, das herumsteht, im Mittel so ungefähr 250 bis 400 Kilometer fahren. Florida ist etwa 800 Kilometer lang, für viele Bewohner (wohnen ja nicht alle ganz unten) mit einem spritsparenden Auto (ich weiß, USA…) käme man also mit quasi einer Tankfüllung und autark (von den Staus mal abgesehen) aus Florida heraus nach Norden.

Selbst wenn der Füllstand nicht reicht: Energie durch Benzin und Diesel ist mit wenig Aufwand portabel, kann mit Tanklastwagen transportiert und leicht umgefüllt werden, man kann da immer etwas improvisieren oder bestehende Tankstellen behelfsmäßig – notfalls durch das Militär – wieder auffüllen und im Notbetrieb mit Generator betreiben. …

Was aber ist mit Elektroautos?

Da kann man nicht einfach so geladene Akkus durch die Gegend fahren. Die Reichweiten sind mäßig, damit kommt man im Mittel dann vielleicht 100 bis 200 Kilometer (und das auch eher nicht vollgeladen), dann müssen die lange laden und dafür brauchen die enorme Infrastruktur. ..und – möchte man hinzufügen- auch nur, wenn man nicht im Stau stecken bleibt, wie das aktuelle Bild oben zeigt. Dann geht nichts mehr!

Stellt Euch vor, ganz Florida hängt seine Elektroautos zum laden an das Stromnetz. Völlig egal, ist eh zusammengebrochen. Zitaten

Aber selbst diese Horrorannahme ist noch zu optimistisch, denn bereits bei ersten Landberührungen der Wirbelstürme brechen dort regelmäßig die Stromnetze auf breiter Front zusammen. Wie man gerade jetzt den Nachrichten wieder entnehmen kann. Am 10.9.17  um ca. 14:00 Ortszeit, so meldet das ZDF waren bereits 1 Mio Haushalte ohne Strom.

Und dann? Chaos, Unheil, und hunderttausend bis millionenfacher Tod sind die unausweichlichen Folgen. Schöne neue Klimaschutz und E-Mobiiltätszukunft! Aber dann bleibt man wenigstens im vielleicht selbstfahrenden E-Mobil stecken.

Die unvermeidlichen Beschwichtiger werden nun einwenden, dass sich bis dahin die Bewohner sturmfeste Behausungen gebaut hätten und die Infrastruktur sich auch darauf eingestellt hätte, ebenso wie die Battterieladung dann nur wenige Minuten statt heute Stunden dauern würde.

Wer das glaubt, möge sich die zerstörten Häuser der vielen Inselbewohner der Region ansehen, die auch nach 100 Jahren leidvoller Wirbelsturmerfahrung immer noch nur aus Holz und Pappe evtl. auch mit Rigips gebaut werden. Und dass Mutter Natur die elektrochemische Spannungsreihe der Metalle mit ihren Elektrolyten verändern würde, ist eigentlich auch nicht zu erwarten. Diese und die mit der Ladung unvermeidlich verbundenen elektro-chemischen Prozesse und ihre Folgen begrenzen die Ladezeit. Und die werden sich nur in kleinen Schritten und letztendlich unwesentlich verbessern lassen. Nicht durch das Wunschdenken der grünen Weltretter.




“Clean coal” bereits auf dem Vormarsch?

 Die Energiesituation im Süden der USA

Auch in den USA stehen die Energieversorger vor ähnlichen politischen Problemen wie in Deutschland: Die sog. “Erneuerbaren Energien” wurden auch dort mit Subventionen in den Markt gedrückt und zerstören nicht nur die vorhandene Infrastruktur, sondern schmälern vor allen Dingen auch die Ertragskraft der Unternehmen. Allerdings agiert man dort wesentlich flexibler. Obwohl z. B. Texas bessere Voraussetzungen für “Alternative Energien” mitbringt als Deutschland, setzt man dort nicht nur auf die Karten Wind und Sonne. Texas ist doppelt so groß wie Deutschland, hat aber nur rund 21 Millionen Einwohner, die sich überwiegend in wenigen Großräumen konzentrieren. Anders als in Deutschland, gibt es genug unbesiedeltes Land, in dem “Windparks” die Einwohner weit weniger belästigen. Außerdem liegt es auf der Breite der Sahara und es mangelt daher nicht an Wind und Sonnenschein. Obwohl die Bedingungen – verglichen mit Deutschland – ideal erscheinen, kommt es auch dort zu den bekannten Problemen im Netz. Man setzt daher weiterhin auf fossile Kraftwerke und Kernenergie. Wind und Sonne sieht man nur als “Additive Energien” mit eingeschränktem Nutzen. Bisher waren sie wegen hoher Subventionen und besonderen Privilegien lediglich für Anleger attraktiv. Anders als in Deutschland, ist man sich aber auch regierungsseitig (insbesondere auf der Ebene des Bundesstaates Texas) der Konsequenzen hoher Strompreise bewußt. Langfristig bleibt nur Kohle und Kernenergie übrig. Texas hat zwar Öl und Erdgas im Überfluß, beide Energieträger sind aber – wegen der hohen Weltmarktpreise – viel zu wertvoll geworden, um sie in Kraftwerken zu verfeuern. Sinnigerweise steigt der Gasexport ins Nachbarland Mexico ständig an, da dort die verstaatlichte Ölindustrie unfähig ist, die Produktion bei steigender Nachfrage auch nur zu halten. Gleichzeitig findet ein enormer Ausbau der Gasverflüssigungsanlagen an der Golfküste statt. Hiermit hat man neben Asien und Mittelamerika vor allem Europa als Absatzgebiet im Auge.

Heute ist bereits der Brennstoff Kohle an der Golfküste wieder billiger als Erdgas. Die Produktionskosten in den Tagebauen des Powder River Basin (im Bundesstaat Wyoming und Montana) sind so gering, daß selbst die Transportkosten über tausende Kilometer nicht ins Gewicht fallen. Nachdem die obamaschen “Klimaerlasse” von Trump wieder außer Kraft gesetzt wurden, rollen täglich bereits wieder über 60 Ganzzüge (meist jeweils über 100 Waggons mit 10.000 to Kohle pro Zug) in alle Regionen der USA.

Schwierig bleibt nach wie vor die Situation der Kernenergie im Süden der USA. Die nach wie vor existierende Unsicherheit über die zu erwartende Bauzeit eines Neubaues, führen zu seit Jahrzehnten andauernden Planungen ohne Aussicht auf kurzfristige Umsetzung. Für ein privates EVU ist ein solches Risiko einfach nicht zu stemmen. Staatliche Förderung von Wind und Sonne auf Kosten des Steuerzahlers bei gleichzeitig privatwirtschaftlicher Kernenergie, geht einfach nicht zusammen. Dies ist und bleibt eine doppelte Benachteiligung.

Abgas als Wertstoff

In dieser durch die Politik geschaffenen Situation der “Klimarettung” suchen die Energieversorger Hände ringend nach neuen Einnahmequellen. NRG Energy hat den Entschluß gefaßt, aus dem Abfall der Stromproduktion einen Wertstoff und ein Produkt zu machen. Der Wertstoff ist überkritisches Kohlenstoffdioxid. Das Produkt ist Erdöl.

Wenn man das CO2 aus dem Abgas abscheidet und es auf über 70 bar verdichtet, gelangt es bei Umgebungstemperatur in seinen überkritischen Zustand: Es ist flüssig, bleibt aber ähnlich dünnflüssig wie ein Gas. Es dringt damit auch in feinste Poren ein. Zusätzlich sind organische Stoffe besonders gut in ihm löslich. Beste Voraussetzungen für EOR (Enhanced Oil Recovery).

Wenn sich aus einem Ölfeld kein Öl mehr hochpumpen läßt, – es umgangssprachlich erschöpft ist – befinden sich trotzdem noch etwa 40 bis 60 % der ursprünglichen Ölmenge in ihm gefangen. Dieses Restöl herauszulösen, ist das Gebiet des EOR. Je nach Vorkommen, gibt es unterschiedliche Verfahren zu unterschiedlichen (hohen) Kosten. Ein Favorit ist das Fluten mit überkritischem CO2. Mit diesem Verfahren lassen sich rund weitere 20 Prozentpunkte der ursprünglichen Ölmenge gewinnen. Dies sind gewaltige “neue Ölvorkommen”, wenn man die weltweite Anzahl bereits versiegter Quellen in Rechnung stellt. Wie alles, ist dies eine Frage der Kosten. Auf der Habenseite steht der aktuelle Ölpreis. Auf der Sollseite die Kosten für Gewinnung und Transport des überkritischen CO2. Die Differenz muß noch die zusätzlich anfallenden Kosten decken, was dann allerdings übrig bleibt, ist Gewinn.

Welche Felder eignen sich besonders?

Ein Ölfeld besteht nicht nur aus gebohrten Löchern. Es erfordert auch eine erhebliche oberirdische Infrastruktur: Rohrleitungen, Stromversorgung, Straßen, Pumpstationen, Aufbereitungs- und Tankanlagen etc. All diese Anlagen sind bereits in der Phase der konventionellen Förderung vorhanden und abgeschrieben worden. Die Zusatzinvestitionen für eine Flutung mit überkritischem CO2 halten sich in Grenzen – wenn man genug CO2 an Ort und Stelle zur Verfügung hat. Aus Erfahrung (natürliche CO2 Lagerstätten in der Nähe) weiß man, daß EOR ein hoch profitables Geschäft ist.

In dem hier beschriebenen Fall des Ölfelds West Ranch gelang auf Anhieb eine Steigerung von nur noch 300 auf 4000 barrel pro Tag. Man geht nach optimaler Einstellung von einer Förderung von 15.000 barrel pro Tag aus. Über die Jahre – auch bei einem Ölpreis von 50 USD/barrel – ein hübsches Sümmchen an zusätzlichen Einnahmen für die Ölgesellschaft JX Nippon. Man geht von 60 Millionen barrel aus, die aus diesem Feld zusätzlich durch diese Methode gewonnen werden können.

Das Ölfeld West Ranch liegt 130 km westlich vom Kraftwerk. Für den Transport des CO2 mußte eine unterirdische Pipeline mit einem Durchmesser von fast 40 cm verlegt werden.

Die Abgaswäsche

Die Gewinnung von CO2 aus dem Abgas erscheint auf den ersten Blick nicht gerade als die eleganteste Lösung. In dem Abgas sind nur 11,5 % Kohlenstoffdioxid enthalten. Man muß daher überwiegend totes Material in der Form von Stickstoff und Restsauerstoff durch die gesamte Anlage schleppen. Andererseits kann man ein bestehendes Kraftwerk als Quelle nutzen und greift praktisch nicht in dessen Betrieb ein.

Der Aufwand für die Gewinnung hängt nicht nur von der Eingangskonzentration, sondern auch vom Restgehalt an CO2 ab. Da es sich bei diesem Projekt nicht um “Klimatologie” handelt, sondern es um die Produktion eines Wertstoffes geht, wäscht man in dieser Anlage nur etwa 90 % des enthaltenen CO2 aus. Dies spielt auch deshalb keine Rolle, weil man mit dieser Anlage nur einen Teilstrom der Rauchgase verarbeiten kann. Die gewonnenen 1,6 Millionen Tonnen CO2jährlich, entsprechen etwa einer elektrischen Leistung von 240 MW des Blocks von 650 MW.

Es ist auch kein Zufall, daß man die Anlage an einem Block mit Kohlenstaubfeuerung und nicht an die erdgasbefeuerten Kombiblöcke angeschlossen hat. Bei Kombikraftwerken ergibt sich wegen des notwendigen Luftüberschusses im Abgas nur eine Konzentration von etwa 8,5 %. Die CO2-Gewinnung wird eine Domäne der Kohlekraftwerke bleiben.

Das Verfahren

Als Waschverfahren wurde der Kansai Mitsubishi Carbon Dioxide Recovery Process (KM CDR Process, eine Handelsmarke) ausgewählt. Im ersten Teilschritt werden die Abgase in einem 36 m hohen Turm gekühlt, entfeuchtet und entschwefelt. Dieser Block enthält – anders als in Deutschland üblich – keine Rauchgasentschwefelung, sondern verfeuert lediglich schwefelarme Kohle. Die Kühlung ist notwendig, da die Waschung beträchtliche Wärmemengen freisetzt.

Das Herzstück der Anlage ist ein 110 m hoher rechteckiger, mit Füllkörpern gefüllter Turm. In ihm wird das Abgas mit der Waschflüssigkeit in Kontakt gebracht. Nach Abscheidung der Waschflüssigkeit werden die gewaschenen Abgase in die Umgebung entlassen.

In einer dritten Verfahrensstufe wird die Waschflüssigkeit durch auskochen mit Dampf wieder regeneriert. Das ausgetriebene CO2 wird verdichtet und so verflüssigt.

Der Eigenbedarf

Eine solche verfahrenstechnische Anlage braucht beträchtliche elektrische Energie zum Antrieb der Verdichter, Pumpen etc. und Dampf zum Austreiben des CO2. Umgerechnet würde der zusätzliche Eigenbedarf die elketrische Nettoleistung des Kraftwerks um 20 bis 30 % verringern. Da das Kraftwerk gebraucht wird, eine inakzeptable Situation. Man hat deshalb eine eigene, kleine, ergdasbefeuerte Kombianlage mit 70 MWel zur Versorgung der Waschanlage gebaut. Da die Anlage gar nicht so viel Strom benötigt, wird mehr als die Hälfte ihrer Leistung zusätzlich ins Netz eingespeist.

Das Risiko

Die Anlage – obwohl die erste ihrer Art – wurde termingerecht, zu den vereinbarten Preisen und ohne Unfälle fertiggestellt. Deshalb die Preisverleihung. Wie geht so etwas?

  • Man hat die neue Anlage bewußt hinter einem seit Jahren funktionierenden Kraftwerk gebaut: Möglichst keine Probleme für die Altanlage schaffen und mit definierten und zuverlässigen Eingangsdaten arbeiten können.
  • Auswahl eines erprobten chemischen Verfahrens. Es gibt bereits über 80 Anlagen in Raffinerien etc.
  • Vorab Bau einer kleinen Prototypenanlage, die sich längere Zeit in einem anderen Kohlekraftwerk bewähren konnte.
  • Kein Größenwahn. Bewußte Beschränkung auf die zehnfache Leistung des Prototyps, um die Auslegungsberechnungen absichern zu können. (Deshalb die Begrenzung auf einen 240 MWel entsprechenden Teilstrom.)
  • Einbeziehung und Beteiligung des Verfahrenstechnikers (Mitsubishi), eines erfahrenen Anlagenbauers (Kiewit) und des Verbrauchers (JX Nippon mit Hilcorp).
  • Keine – in Deutschland so geliebte – Team-Bildung (Toll ein anderer macht’s), sondern einer hat den Hut auf. Einer mit natürlicher Autorität durch ausgewiesene Fachkompetenz und Erfahrung, der die Mittel bekommt, die er für nötig hält.
  • Genaue Planung und Abstimmung zwischen allen Beteiligten bevor es auf der Baustelle losgeht.

Der Mitnahmeeffekt

Für das Projekt wurde ein gemeinsames Unternehmen aus Energieversorger (NRG Energy) und Verbraucher (JX Nippon Oil&Gas) gegründet. Einerseits wurde damit das Risiko der Investition auf mehrere Schultern verteilt und andererseits verschiedene Fördertöpfe erschlossen. Es konnten japanische Banken gewonnen werden, die gegen das Pfand von 15 Millionen barrel Öl günstigere Kredite bereitstellten. Die Lieferung von Anlagenkomponenten konnte über subventionierte Exportkredite erfolgen. Das DOE steuerte 190 Millionen USD Subventionen aus diversen “Klimaschutzprogrammen” bei.

Mit einer Investition von einer Milliarde USD können zusätzlich 60 Millionen barrel Erdöl gewonnen werden. Mögen weltweit auf vielen entölten Feldern die Bedingungen nicht so ideal sein, erscheint diese Methode trotzdem vielversprechend. Wird jetzt – wenigstens im Nachhinein – manchem klar, warum die einschlägig Verdächtigen sofort ihre Kampftruppen auf die Straße geschickt haben, als auch nur von “CO2-Abscheidung” in Deutschland geredet wurde? Macht nichts, der Fortschritt läßt sich nicht aufhalten, nun machen eben Japaner und Amerikaner das Geschäft. Solange Renten, Hartz IV etc. noch reichlich sprudeln, brauchen wir eh keine Arbeitsplätze in diesem Land. Hat halt nix mit Nix zu tun, wie einmal eine Politikerin treffend in einem anderem Zusammenhang twitterte.

Übernommen von NUKE-Klaus hier




Der „neue Generationenvertrag“ des Herrn Schellnhuber

Die Leipziger Volkszeitung vom 9. Sept. 2017 schreibt unter „zur Person“: Hans-Joachim Schellnhuber (67), Direktor des renommierten Potsdamer-Instituts für Klimafolgenforschung, hat zwei Wochen vor der Bundestagswahl kritisiert, dass der Klimawandel im Wahlkampf kaum eine Rolle spielt. „Es gibt da eine Mauer des Schweigens und Verdrängens„, sagte Schellnhuber, der auch die Bundesregierung in Fragen des Klimawandels berät. Er verwies auf eine Studie, nach der Deutschland sein Klimaziel 2020 noch deutlicher verpassen wird als erwartet. Gemeinsam mit anderen Prominenten fordert er deshalb einen neuen Generationenvertrag, der den Abschied von fossilen Brennstoffen wie Kohle und Öl bis 2040 vorsieht.

Unser Kommentar dazu:

  1. Am Renommee des Potsdamer-Instituts für Klimafolgenforschung (PIK) darf man füglich zweifeln. Hier konzentrieren sich die Klima-Alarmisten Deutschlands mit zum Teil aberwitzigen Vorstellungen. Stellvertretendes Beispiel dafür bietet Prof. Edenhofer vom PIK mit seiner Aussage im NZZ-Interview vom 14.11.2010 (hier) „…Wir verteilen durch die Klimapolitik de facto das Weltvermögen um. Dass die Besitzer von Kohle und Öl davon nicht begeistert sind, liegt auf der Hand. Man muss sich von der Illusion freimachen, dass internationale Klimapolitik Umweltpolitik ist. Das hat mit Umweltpolitik, mit Problemen wie Waldsterben oder Ozonloch, fast nichts mehr zu tun.“  Über den Geisteszustand von Leuten, die solch einen sachlichen Schwachsinn von sich geben, erübrigt sich jeder Kommentar.
  2. Was meint die Leipziger Volkszeitung mit „Prominenten“? Schlagersänger, Schauspieler, Politiker oder dergleichen Prominente mehr?
  3. Der Abschied von fossilen Brennstoffen bis 2040 ist reine Phantasterei von Spinnern.
  4. Noch ein „Generationenvertrag“ hat ebensowenig etwas mit Demokratie zu tun wie alle vorherigen Generationenverträge und er bewirkt ebenso wenig wie diese.
  5. Dass der Klimawandel (gemeint ist menschgemachter Klimwandel) im Wahlkampf keine Rolle spielt, bedauern wir und befinden uns hier ausnahmsweise in Übereinstimmung mit Schellnhuber. Jedes Klima in jeder Klimazone unserer Erde, von polar bis tropisch, hat sich seit ihrem Bestehen stets geändert. Konstantes oder ein auf bestimmte Werte reduziertes Klima herstellen zu wollen (also Klimaschutz) ist demente Hybris. Dies gehört tatsächlich in diesen Wahlkampf. Denn der sog. Klimaschutz, überflüssiger als ein Kropf, kostet unsere Volkswirtschaft und damit jeden von uns bereits heute ein Vermögen.
  6. Dass der angeblich menschgemachte Klimawandel keine Rolle im Wahlkampf spielt, liegt im Übrigen nicht an bösen Mächten („Mauer des Schweigens“ oder dergl. Unsinn) und auch nicht an EIKE, sondern die Medien tragen hierfür die Verantwortung. Infolge kompletter sachlicher Inkompetenz und Totalverweigerung jeder Sachrecherche (kaum ein Journalist kennt sich infolgedessen in diesem Thema aus und hat hier jemals Brauchbares von sich gegeben) hat der jahrzehntelange Klima-Unsinn in Zeitungen und Fernsehen bewirkt, dass Bürger mit klarem Verstand sich von den Medienberichten zu diesem Thema längst angewidert abgewendet haben. Zur sachlichen Desinformation über das Thema „Klimawandel“ hat insbesondere das PIK einen maßgebenden Beitrag geleistet.



In Kenia kostet Ökostrom im Inselnetz heute schon so viel, wie bei uns in der Zukunft

Zwar hat sich durch die „Bescheidenheit“ der „keine Rechnung“ stellenden Sonnen- und Windstrom-Bürgerlieferungen der Strompreis deutlich erhöht, doch sollen auch daran die bösen Versorgerkonzerne schuld sein, welche den keine Rechnungen stellenden Ökostrom penetrant blockieren und dazu sogar die Leitungen mit ihrem konventionellen Strom „verstopfen“ [10].

Bild 1 Strompreisentwicklung Deutschland seit 1970

Vorstände lokaler (meist teilkommunaler) Versorger unterstützen dies [7], da es ihnen „Ehre“ und vor allem höhere Gehälter einbringt und der (unwichtige) Kunde damit beim Strombezug nicht mehr so leicht ausbüchsen kann. Die Industrie – und die sie beratenden Institute [9] – unterstützen es ebenfalls, da der dazu erforderliche Umbau der Stromversorgung für den Verkauf der erforderlichen Produkte wirkt, als hätten Terroristen (in Wirklichkeit natürlich rechtschaffende, von Energie allerdings keine Ahnung habende Politiker*innen [14] [8]) die deutsche Stromversorgung zerstört, welche nun neu aufzubauen ist.

Zwar sind bisher alle Inselnetzversuche kläglich an den Kosten gescheitert (Insel el Hierro, Pellworm in der Nordsee), doch EEG-Enthusiasten (und Lieferanten) ficht das nicht an. Visionen, mit denen sich viel Geld verdienen lässt, sterben nicht so schnell, vor allem wenn sie eine Ideologie befriedigen.
Wer bereits heute wissen will, was beim Strompreis passiert, wenn Bürger für ihre Mit-Bürger bürgernahen Strom direkt liefern, kann die Auswirkungen in Kenia schon heute sehen.

Strom dank Sonnenstrahlen in Kenia

Badische Zeitung: [1] Ein Unternehmen bringt mit deutscher Hilfe Elektrizität in abgelegene Regionen Kenias
Bei einem Pilotprojekt in der weitläufigen Masai Mara liefern Solarkollektoren in Talek, 250 Kilometer entfernt von Nairobi, den Strom, Batterien aus Nordrhein-Westfalen und ein Dieselgenerator für die Nachtstunden vervollständigen die Anlage. Das ist notwendig, weil die Spitzenlast abends zwischen 19 und 22 Uhr anfällt. Am Äquator aber ist die Sonne das ganze Jahr über um 18 Uhr verschwunden. „Aktuell haben wir 72 Kunden, davon sind 45 Geschäftskunden“, sagt George Ndubi von Powergen. Die Firma betreibt die Anlage. „Weil etliche der Kunden den Strom weiterverkaufen, sind es sogar 200 Abnehmer.“ Ausgelegt ist die Anlage für 300 Kunden.

Strom in „Bürgerhand“ – und eine einzige kWh kostet 0,7 EUR für Bürger mit 1,8 EUR Tageseinkommen

[1] … 130 000 Euro hat die GIZ für den Bau der Pilotanlage bereitgestellt, der Bezirk Naurok hat das Gelände beigesteuert und die Arbeiter für den Bau der Anlage, auch die Welthungerhilfe hat das Vorhaben unterstützt. Aus den Einnahmen werden Fonds gespeist, die für ähnliche Solaranlagen eingesetzt werden sollen. Das Projekt soll zeigen, dass solche Solar-Hybrid-Dorfstromanlagen nachhaltig und rentabel von privaten Firmen betrieben werden können, ganz im Sinne der G-20-Afrika-Initiative der Bundesregierung, die den Privatsektor stärker in die Entwicklungsarbeit einbinden will.
Deshalb ist der Strom alles andere als billig. Die Gebühr für den Anschluss an das Netz liegt bei umgerechnet 100 Euro, die Kilowattstunde Strom kostet 70 Schilling, etwa
60 Euro-Cent (Anmerkung: Im Bericht der Tageszeitung des Autors zu diesem Thema waren es 70 Cent). Damit sollen Investitions- und Betriebskosten abgedeckt und Rücklagen ermöglicht werden.

Wie will die GIZ weiter helfen?
Fünf weitere Anlagen sind derzeit im Bezirk Naurok geplant, im Norden von Kenia insgesamt 20. Die GIZ wird Bau und Betrieb privaten Betreibern überlassen, berät aber beim Bau der jetzt geplanten Anlagen.

Natürlich macht man das auch in Kenia völlig uneigennützig, denn man verdient auch dort gut daran:
GVEP International, developing Energy Enterprises in East Africa, booklet 2012: … Seiner Frau wurde vom Kenya Women’s Finance Trust ein Kredit von 200 Euro gewährt, den er nutzte, um ein 40 W Panel und eine Solarbatterie von 50 Ah zu kaufen. Durch diese Maßnahmen konnte er sein monatliches Einkommen von 20 Euro/Monat auf 72 Euro/Monat steigern und er brauchte nur 10 Monate, um seinen Kredit zurückzubezahlen …

Damit müsste ein Drittel der Kenianer über 30 % ihres Einkommens für eine einzige, tägliche kWh bezahlen

[1] … In Kenia lebt immer noch ein Drittel der 48 Millionen Kenianer in absoluter Armut und damit von weniger als 200 Schilling am Tag. Das sind rund 1,80 Euro.

Der Weg zur lokalen Versorgung führt zur Preisexplosion

In einer kleinen Sichtung hat der Autor den Energiepreis bei lokaler Versorgung abgeschätzt [10] und einen Gestehungspreis von 60 ct / KWh ermittelt – nicht anders, als die Gestehungskosten in Kenia, denen ja westliche Firmen zu westlichen Preisen die Anlagen liefern wollen [2]:
klimaretter.info: Afrika soll elektrifiziert werden – mit dem deutschen Mittelstand. Das jedenfalls ist die Vision des Afrika-Vereins der deutschen Wirtschaft

Wie die Einspeisesätze in Kenia (Bild 2) zeigen, liegt es auch dort nicht so sehr an den Solarmodulen, sondern ist – wie in [10] gezeigt, eine Folge wenn man auch Grundlast liefern muss und damit die Speicherkosten dazu kommen. Ob die Lieferung der Grundlast „modern“ durch Akkus geschieht oder „veraltet“ durch Dieselgeneratoren, scheint sich dabei auf die Zusatzkosten nicht wesentlich auszuwirken.
Anmerkung: lt. [11] kostet die kWh Strom aus Dieselgeneratoren 0,2 EUR.

Die kenianische Regierung ist unwillig und will bezahlbaren Strom erzeugen

Es mag Sinn machen, in nicht erschließbaren Gegenden übergangsweise Strom für ein Handy zu 60 … 70 Cent / kWh an die Ärmsten zu liefern und noch eine LED-Birne zu versorgen. Bei diesem Energiepreis in Afrika eine auch nur im Ansatz moderne Infrastruktur zu ermöglichen, dürfte aber eine Illusion bleiben. Die kenianische Regierung hat das erkannt.

[1] Was tut die Regierung?
Die Regierung in Nairobi will allerdings lieber die Stromproduktion aus Kohle und Gas langfristig vorantreiben und denkt sogar an ein Atomkraftwerk. Derzeit kommen je 35 Prozent des Stroms aus Geothermie und Wasserkraft, daneben werden viele Dieselgeneratoren genutzt. Wind und Solar spielen eine untergeordnete Rolle – obwohl die Sonneneinstrahlung in Kenia doppelt so stark ist wie in Deutschland.

Bild 2 Aufteilung der Stromerzeugung in Kenia [3]
Bild 3 Erzeugungsabhängige Stromgestehungskosten in Kenia [2]
In mehreren Studien sind Gestehungskosten und Einspeisetarife gelistet.

Bild 4 Einspeisetarife für Ökostromerzeuger in Kenia [3]
Bild 5 Verbraucherpreise in Kenia (Auszug) [2]
Natürlich sind die Preise der Tabelle Bild 5 auch mit Subventionen versehen. Trotzdem geben sie einen Anhaltspunkt, welchen Unterschied die Möglichkeit, von einem Großversorger zu beziehen im Preis ausmacht.

Öko-Ideologie gegen lokale Vernunft

Obwohl alleine schon die Kosten zeigen, welches der bessere Weg wäre, wird der ideologische gegangen. Obwohl in der Geschichte fast alle ideologisch angeordneten, „großen Sprünge nach vorn“ schief gegangen sind und teils ganze Völker an den Rand des Untergangs brachten, wird ein solcher Weg wieder verordnet.

Kofi Annan, Vorwort im APP Bericht 2015: [13] … Africa has enormous potential for cleaner energy – natural gas and hydro, solar, wind and geothermal power – and should seek ways to move past the damaging energy systems that have brought the world to the brink of catastrophe.
Von google grob übersetzt: … Afrika hat ein enormes Potenzial für sauberere Energie – Erdgas und Wasserkraft, Solar-, Wind- und Geothermie – und sollte nach Wegen suchen, an den schädlichen Energiesystemen vorbei zu kommen, die die Welt an den Rand der Katastrophe gebracht haben …

Was für das Klima schädlich ist, weiß man in Deutschland auch und deshalb wird die Vision von K. Annan durch Deutschland unterstützt. Ein Land, welches sich drei Mal in der jüngeren Geschichte durch die „Vorreiterrolle“, teils auch „Supermacht“-gelüste in die Pleite getrieben hat, weiß, wie man das anderen Nationen beibringt:
Bundesministerium für wirtschaftliche Zusammenarbeit und Entwicklung: [6] Hoffnung und Chance: Afrika überspringt das Kohlezeitalter
Das BMZ unterstützt den massiven Ausbau der dezentralen Versorgung, damit Afrika das Kohlezeitalter überspringen kann. Es liegt damit auf der Linie von Kofi Annan, der als Vorsitzender des Africa Progress Panel 2015 sagte: „Ich glaube, dass die Zeit für Afrika gekommen ist, die globale Vorreiterrolle als erste kohlenstofffreie Supermacht einzunehmen.“

Dabei ist es nur Ideologie in Reinkultur. Und nach dieser soll nun das Energiesystem in Afrika aufgebaut werden. Umfangreich thematisiert wurde es in einer Kolumne auf Novo Argumente:
Novo Argumente für den Fortschritt, Thilo Spahl, 25.04.2016: [14] Energie für Afrika
… Den Ärmsten ist doch schon enorm geholfen, wenn sie nachts etwas Licht aus sauberen Solarlampen bekommen. Nein. Afrika braucht billige Energie im großen Maßstab – egal aus welcher Quelle …

Bei uns wird der gleiche Weg verfolgt

Die Geschichte erinnert etwas an die EEG-Parallele in Deutschland und gibt eine Vorahnung, wie die Preisgestaltung in nicht allzu ferner Zukunft in Deutschland aussehen wird, wenn sich die Visionen zu lokalen Inselnetzen durchsetzen sollten.

Nachtrag

In einigen Projekten wird in Inselnetzen mittels Solarstrom der Dieselverbrauch der Grundlastgeneratoren verringert (hybride Mini-Grids aus Diesel plus Wind und/oder PV). Dazu kommen Off-Grid-Anwendungen mit kleinen Solaranlagen (z. B. Solarleuchten, solare Heimsysteme) für die Bereitstellung grundlegender Energiedienstleistungen wie Beleuchtung und Handy-Ladeeinrichtungen für die Landbevölkerung, die nicht über einen Netzzugang verfügt.
Das mag eine wirkliche Unterstützung und auch nachhaltige Maßnahme sein. Dies sind aber nicht die wesentlichen, vom Westen forcierten Ökostrom-Projekte.
Schon gar nicht kann dies jedoch ein Vorbild für Deutschland sein, welches (bisher) über ein vollständiges Versorgungsnetz verfügt und mit der Auflösung den umgekehrten Weg einschlägt.

Kenia ist für afrikanische Verhältnisse schon ein entwickeltes Land. Die Strompreise in anderen afrikanischen Ländern sind für die dort noch ärmere Bevölkerung wesentlich höher.
In Hargeisa (Hauptstadt des seit 1991 de facto unabhängigen Somaliland) zahlt man pro kWh einen US-Dollar, Straßenhändler müssen für Kleinmengen zur Standbeleuchtung bis zu 10 US$ / kWh bezahlen (und haben keinen Ausschalter für die Lampe) [11] [12]:
Das gibt den GRÜNEN recht, die überzeugt sind, bei uns die Energie drastisch verteuern zu müssen. Und es zeigt auch, wie leicht es möglich ist, wenn man die Infrastruktur dazu zerstört.

Quellen

[1] Badische Zeitung, 24.07.2017: Strom dank Sonnenstrahlen

[2] AHK Kenia, Riverside Drive, Nairobi, 12.07.2013: Zielmarktanalyse Kenia Solar PV & Windkraft

[3] AHK Foliensatz, Oktober 2016: Hybride Inselnetze in Kenia Zielmarktanalyse

[4] EIKE 18.05.2017: Rechnerisch lohnt sich die solare Eigenversorgung nicht – so lange unser Versorgungsnetz stabil ist. Doch das wird sich ja ändern

[5] EIKE 15.06.2017: Fake News: Diesmal Klimaretter und Stadtwerke: Die Stromspeicherung kostet vielleicht ein oder zwei Cent

[6] BMZ: Fallstudie Kenia: Erneuerbare Energien Solarkraftwerke gegen die ländliche Armut

[7] EIKE 06.02.2016: Nachgefragt: Ein lokaler Versorger bricht die Macht der Stromgiganten

[8] EIKE 18.10.2016: Landkreis könnte energieautark werden: Wie eine lokale Politikerin dank ausreichendem Nichtwissen das Trassenproblem in Bayern löst

[9] Klimaretter.info, 29. Juni 2015: „Keine Eile beim Netzausbau

[10] klimaretter.info, 15. September 2009: Die Hälfte der Kraftwerke wird überflüssig

[11] IASS Potsdam: IASS STUDY Die Zukunft der Energieversorgung in Afrika

[12] Afrika.Info, 29.04.2013: Somaliland: Strompreise auf Spitzenniveau

[13] KLIMARETTER.INFO, 05. Juni 2015: Bericht fordert mehr Strom für Afrika

[14] APP: Africa Progress Report (APR) 2015

[15] Novo Argumente für den Fortschritt, Thilo Spahl, 25.04.2016: Energie für Afrika

[16] EIKE: Cem Özdemir versucht sich in Energie