1

Roda Verheyen II: Familie auf Langeoog verklagt EU für mehr Klimaschutz

von Michael Krüger,

Eine Familie von der Nordsee-Insel Langeoog hat die Europäische Union verklagt, damit der Staatenverbund mehr für den Klimaschutz tut.

Mit ihr fordern neun weitere Familien aus Europa, Kenia und Fidschi vor dem Gericht der Europäischen Union einen besseren Schutz ihrer Grundrechte, wie die Umwelt- und Entwicklungsorganisation Germanwatch am Donnerstag mitteilte. Ein Urteil wird 2019 erwartet.

Die klagende Familie Recktenwald wohnt seit vier Generationen auf der ostfriesischen Insel Langeoog. Sie sieht ihre Heimat und ihr als Familienbetrieb geführtes Hotel und Restaurant durch den steigenden Meeresspiegel bedroht. Was ist dran, an dieser Behauptung? Dem möchte ich nachgehen.

Zur Siedlungsgeschichte an der deutschen Nordseeküste

Vor 2.000 Jahren lebten die Stämme der Chauken auf Erdhügeln, wie aus den Chroniken der Römer hervorgeht. Die Chauken gehörten nach Tacitus zur Gruppe der von der Nordseeküste stammenden Ingaevonen.

Chauken

77 n. Chr. beschrieb der römische Chronist Plinius das Volk, das auf künstlich aufgeworfenen Erdhügeln im Küstenbereich, den Warften lebte, wie folgt:

„… Gesehen haben wir im Norden die Völkerschaften der Chauken, die die größeren und die kleineren heißen. In großartiger Bewegung ergießt sich dort zweimal im Zeitraum eines jeden Tages und einer jeden Nacht das Meer über eine unendliche Fläche und offenbart einen ewigen Streit der Natur in einer Gegend, in der es zweifelhaft ist, ob sie zum Land oder zum Meer gehört. Dort bewohnt ein beklagenswertes Volk hohe Erdhügel, die mit den Händen nach dem Maß der höchsten Flut errichtet sind. In ihren erbauten Hütten gleichen sie Seefahrern, wenn das Wasser das sie umgebende Land bedeckt, und Schiffbrüchigen, wenn es zurückgewichen ist und ihre Hütten gleich gestrandeten Schiffen allein dort liegen. Von ihren Hütten aus machen sie Jagd auf zurückgebliebene Fische. Ihnen ist es nicht vergönnt, Vieh zu halten wie ihre Nachbarn, ja nicht einmal mit wilden Tieren zu kämpfen, da jedes Buschwerk fehlt. Aus Schilfgras und Binsen flechten sie Stricke, um Netze für die Fischerei daraus zu machen. Und indem sie den mit den Händen ergriffenen Schlamm mehr im Winde als in der Sonne trocknen, erwärmen sie ihre Speise und die vom Nordwind erstarrten Glieder durch Erde.“ [Gekocht und geheizt wurde also mit Torf.] „Zum Trinken dient ihnen nur Regenwasser, das im Vorhof des Hauses in Gruben gesammelt wird …“

– Plinius: Naturalis historia XVI 1, 2–4

deichbau1

Um das Jahr 1100 kamen holländische Siedler an die deutsche Nordseeküste und machten das Land urbar. Deiche wurden gebaut und das Deichhinterland entwässert. Die Holländer wollten ihre überbevölkerte Heimat verlassen und beabsichtigten das Ödland zu entwässern und zu bewirtschaften, denn es handelte sich um fruchtbaren Marschenboden, den die Frühjahrs- und Herbsthochwasser herangeschwemmt hatten. Unsere Vorfahren mussten sich immer wieder den klimatischen Begebenheiten anpassen und mit Unwettern kämpfen. Aus dieser Zeit stammt auch der Spruch „Deichen oder weichen“.

Immer wieder wurde die norddeutsche Küste von verheerenden Fluten heimgesucht, wie die Erste Marcellusflut von 1219, die Zweite Marcellusflut, Erste Mandränke von 1362, die Burchardiflut, Zweite Mandränke von 1634. Seit 1634 (der Burchardiflut oder Zweite Grote Mandränke) sind keine größeren Landverluste mehr an der deutschen Nordseeküste aufgetreten. Im Gegenteil, man hat durch eingedeichte Polder das früher verschlungene Land dem Meere z. T. wieder abgerungen. Die Holländer leisteten dabei Pionierarbeit. Die Landverluste und die Küstenentwicklung der letzten Jahrhunderte an der deutschen Nordseeküste zeigen die folgenden Abbildungen.

sturmfluten3

ostfriesland-1595-heute2

Früher lagen Orte wie Jever und Carolinensiel direkt an der friesischen/ ostfriesischen Nordseeküste und wurden als Häfen genutzt. Heute liegen diese Orte Dank Landgewinnung, Deichbau und Entwässerung einige Kilometer im Landesinneren. An der nordfriesischen Küste wurde ebenfalls Land dem Meer abgerungen.

D0088_1_deutsch_D1-1_Web300RGB

Nach der Burchardiflut von 1634 kam es vermehrt zum Bau Oktroyierter Köge. Bekannte Köge sind beispielsweise:

Köge im Kreis Dithmarschen
Christianskoog
Delver Koog
Dieksanderkoog (ehemals Adolf-Hitler-Koog)
Friedrichsgabekoog
Friedrichskoog
Hedwigenkoog
Kaiser-Wilhelm-Koog
Karolinenkoog
Kronprinzenkoog
Neufelderkoog
Preiler Koog
Speicherkoog in der Meldorfer Bucht
Wesselburenerkoog
Westerkoog

Köge im Kreis Nordfriesland
Augustenkoog
Beltringharder Koog
Hauke-Haien-Koog (nach der Hauptfigur der Novelle Der Schimmelreiter von Theodor Storm benannt)
Friedrich-Wilhelm-Lübke-Koog – 1954 letzter zur Besiedlung eingedeichter Koog Schleswig-Holsteins.
Gotteskoog
Tümlauer-Koog (ehemals Hermann-Göring-Koog)
Norderheverkoog (ehemals Horst-Wessel-Koog)
Uelvesbüllerkoog (Gemeinde Uelvesbüll)
Bottschlotter Koog (Gemeinde Dagebüll)
Kleiseerkoog (Gemeinde Galmsbüll)
Herrenkoog
Köge der früheren Insel Nordstrand
Elisabeth-Sophien-Koog
Alter Koog
Osterkoog
Trendermarschkoog
Neukoog
Morsumkoog
Pohnshalligkoog
Köge der Gemeinde Reußenköge
Cecilienkoog
Desmerciereskoog
Louisen-Reußen-Koog
Reußenkoog
Sönke-Nissen-Koog
Sophien-Magdalenen-Koog

Köge im Kreis Pinneberg
Hetlinger Neuerkoog

Die wechselhafte Geschichte der ostfriesischen Inseln

Inselverlagerung

Die ostfriesischen Inseln wie Langeoog sind einer stetigen Verlagerung durch die Gezeitenströme unterlegen. Im Westen der Inseln wird Land weggespült und im Osten neues Land/ Sand angespült. Dadurch wandern die Inseln von West nach Ost. Ganze Orte gingen so auf den Inseln verloren und mussten neu aufgebaut werden. Der Westturm von Wangerooge wurde um 1600 an der Ostküste der Insel erbaut. 1793 stand er in der Inselmitte. Vor dem ersten Weltkrieg befand er sich im Westen bereits im Wasser.

norderney

Die Insel Juist wurde gar in zwei Teile geteilt. Im Verlauf der Petriflut 1651 trennte der sog. Hammer-Durchbruch die Insel in zwei Teile. Erst 1877 wurde der Durchbruch im Süden und 1927 bis 1932 im Norden durch Dünenbaumaßnahmen geschlossen. Zwischen den beiden Dünenketten entstand der ca. 30 ha große ausgesüßte Hammersee. Auch die Insel Langeoog war betroffen. Es ist zu lesen, dass die Petriflut am 22. Februar 1651 zu einem Durchbruch der Insel geführt haben soll. Die Weihnachtsflut von 1717 riss die Insel in der Nähe des Großen Schlopp (Grote Sloop; Sloop bezeichnet dabei einen linienhaften Dünendurchbruch) gar in zwei Teile. Die Kirche und das Pfarrhaus wurden dabei zerstört, das zu diesem Zeitpunkt wieder im Westteil der Insel befindliche Dorf beschädigt. Bis auf vier Familien verließen daraufhin die Bewohner die Insel. Nach einer weiteren schweren Sturmflut wurde die Insel im Jahr 1721 komplett verlassen. Und auch die Entstehunggeschichte von Norderney ist nicht weniger spektakulär. Die sog. „Zweite Marcellusflut“ von 1362 hat nach jetzigem Stand der Forschung die Insel Buise in zwei Teile zerbrochen. Der östliche Teil erhielt den Namen „Osterende“ und wurde stetig größer, während Buise selbst immer kleiner wurde und nach der Petriflut von 1651 in der Nordsee verschwand. Osterende wurde 1550 in einem Rechnungsbuch der Gräfin Anna erstmals unter dem Namen „Nordernye-Oog“ (Nordens neues Auge, später: „Norderney“) erwähnt. Solche Durchbrüche, Inselverluste und Inselverlagerungen treten heute nicht mehr auf, Dank Küstenschutz.

 

Karte_Insel_Juist

Durch die Gezeitenströme unterliegt die norddeutsche Küste aber einen stetigen Wandel. An einer Stelle verschwinden Land und Inseln, an anderer Stelle entsteht neues Land und neue Inseln. Das ist bis heute zu beobachten. Die Kachelotplate ist eine Sandbank bei Juist, die gerade zur Insel wird. Die sogenannte Kachelotplate war schon 1840 in einer Landkarte der Region eingezeichnet, doch erst 2006 wurde eindeutig klar, dass bei dieser Sandbank fünf Kilometer südwestlich von Juist und drei Kilometer westlich von Memmert enorm was im Gange ist. Schon vor 35 Jahren hatte sich auf der Plate soviel Sand aufgetürmt, dass selbst bei mittlerem Tidehochwasser immer noch eine Spitze davon zu sehen war. 2004 betrug diese Fläche dann schon stolze 230 Hektar und zwei Jahre später konnte Kachelot (leitet sich vom französischen Wort “cachalot” = Pottwal ab) schon 2,5 Meter hohe Dünen mit Grasbewuchs vorweisen. Die derzeit 150 Hektar große Kachelotplate westlich von Juist unterliegt weiterhin ständigen Veränderungen: Aufgrund der seit 2001 zu beobachtenden Ostwärtsverlagerung ist es nur eine Frage der Zeit, bis sich die Kachelotplate mit der Insel Memmert verbindet.

113113

Auch der aktuelle Meeresspiegelanstieg an der deutsche Nordseeküste ist alles andere als dramatisch, wie der Pegel von Norderney zeigt. Dort ist ein Meeresspiegelanstieg von ca. 25 cm in den letzten 100 Jahren zu verzeichnen, der sich nicht beschleunigt hat. Auch die Anzahl der Sturmfluten und schweren Sturmfluten hat in den letzten 100 Jahr nicht zugenommen.

Auch die Anzahl der Sturmfluten und schweren Sturmfluten hat in den letzten 100 Jahr nicht zugenommen.

Pegel-Norderney

Sturmfluten

Im Angesicht der letzten 2.000 Jahre, dem modernen Küstenschutz und dem aktuellen Meeresspiegelanstieg ist die Sorge der Familie Recktenwald also völlig unbegründet.

Der Beitrag erschien zuerst bei Science Sceptical hier

Auch Die kalte Sonne nimmt sich dieser dreisten Tatsachenverdrehung an und zitiert zunächst die Ehefrau der beiden Kläger

ZEIT ONLINE: Frau Recktenwald, warum beteiligen Sie sich an der Klage?

Maike Recktenwald: Wir nehmen den Klimawandel besonders wahr, weil wir hier mit der Natur leben. Wir wohnen hundert Meter vom Strand entfernt und der Meeresspiegel steigt. Auch wenn wir das noch nicht sehen können, so ist das doch eine langfristige Bedrohung für unser Dorf. Schon jetzt merken wir den Unterschied beim Wetter: Im vergangenen Winter hatten wir sehr viel Niederschlag und extrem viel Westwind. Normalerweise haben wir in den Wintermonaten Ostwind. Der Westwind drückte das Regenwasser in die deutsche Bucht hinein. Normalerweise leiten die Deichschleusen das Regenwasser über das Entwässerungssystem von der Insel ab. Dieses Mal aber war das System voll ausgelastet, beinahe ist das Regenwasser ungefiltert in die Süßwasserbrunnen gelaufen. Dann hätten wir auf der Insel keine Trinkwasserversorgung mehr gehabt. Das könnte man jetzt als Sonderfall abtun. Ich bin mir sicher: Es ist eine Folge des Klimawandels. Wenn der Meeresspiegel weiter steigt, ist die Entwässerung der ostfriesischen Inseln in hundert Jahren gar nicht mehr möglich. Dazu gibt es inzwischen Messungen.

Um dann die Behauptungen von Frau Rektenwald Stück für Stück auseinander zu nehmen




Deja Vu: Es lief doch so gut mit der Ethikkommission! Modell für die Kohleausstiegskommission.

Kohleausstiegskommission – Ergebnis schon klar!

Vorgestern, am 29.05.2018 wurde der Beschluss der Zusammensetzung der Kohleausstiegskommission ) euphemistisch „Kohlekommission“ genannt) erneut vertagt. Trotzdem sickerte die geplante Besetzungsliste bereits durch.

Link: https://www.lr-online.de/lausitz/cottbus/chaos-um-kohlekommission-zwei-lausitzer-sollen-rein_aid-23139137

Geplant lt. LR online:

Vorsitz:

Ronald Pofalla – Kommentar: Sozialpädagoge, Rechtsanwalt, CDU, Ex-Bundeskanleramt, Vorstand Deutsche Bahn

Matthias Platzeck – Kommentar: Kyberniter, Grüne, SPD, Landesminister, Ex-MP Brandenburg

Stanislaw Tillich – Kommentar: Konstruktionsingenieur, Unternehmer, CDU, Landesminister, Ex-MP Sachsen

Barbara Praetorius – Kommentar: Volkswirtin und Politikwissenschaftlerin, für schnellen Ausstieg aus „dreckiger“ Braunkohle, ehemals AGORA Energiewende

Mitglieder:

1 Prof. Dr. Jutta Allmendinger – FU Berlin – Kommentar: Soziologin, Gerechtigkeitsforscherin

2 Antje Grothus – Bürgerinitiative „Buirer für Buir“ – kein Kommentar

3 Christine Herntier – Sprecherin Lausitzrunde – Kommentar: Spremberger Bürgermeisterin, Diplomökonomin

4 Martin Kaiser – Geschäftsführer Greenpeace – kein Kommentar

5 Stefan Kapferer – Bundesverband Energie- und Wasserwirtschaft – Kommentar: Verwaltungswissenschaftler, FDP

6 Prof Dieter Kempf – Präsident Bundesverband der Deutschen Industrie – Kommentar: Diplom-Kaufmann, umfangreiche Führungspositionen in der Wirtschaft

7 Stefan Körzell – Deutscher Gewerkschaftsbund – Kommentar: Gewerkschaftslaufbahn, SPD, Fan der Energiewende, aber sozial verträglich und gerecht

8 Ingo Kramer – Bundesvereinigung der Deutschen Arbeitgeberverbände – Kommentar: Wirtschaftsingenieur, Geschäftsführer Familienunternehmen, FDP

9 Michael Kreuzberg – Landrat Rhein Erft Kreis – Kommentar: Sozialwissenschaflter, Germanistiker, Lehrer, CDU

10 Felix Matthes – Ökoinstitut – Kommentar: Studium E-Technik, Promotion Politik, Protagonist frühen Kohleausstiegs

11 Claudia Nemat- Telekom – Kommentar: Studium Physik, Philosophie und Mathematik, Lehrtätigkeit, Mc Kinsey, Telekom, Fan der Smart Grids

12 Kai Niebert – Universität Zürich – Kommentar: Studium Biologie, Chemie. Politik, Nachhaltigkeitswissenschaflter, Ausstiegsfan

13 Annekatrin Niebuhr – Uni Kiel – Kommentar: Volkswirtschaftlerin, Forschung im Bereich regionale Wachstumsstrukturen

14 Reiner Priggen -Landesverband EEG NRW – deutscher Politiker der Partei Bündnis 90/Die Grünen.

15 Katherina Reiche – Verband kommunaler Unternehmen – Kommentar: Diplom-Chemikerin, Ex-CDU-MDL, StaatssekretätinUmwelt, Realpolitikerin

16 Gunda Röstel – Geschäftsführerrin Stadtentwässerung Dresden – Kommentar: Sonderschulpädagogin, Vorstand Grüne, Vorstandsmitglied EnBW, BDEW, Realpolitikerin

17 Andreas Scheidt – Verdi – Kommentar: Elektriker, Leitstandsfahrer, Gewerkschafter, fordert sozial Verträglichen Umgang mit dem Ausstieg

18 Hans Joachim Schellnhuber – Potsdam-Institut für Klimafolgenforschung – kein Kommentar

19 Eric Schweitzer – Deutscher Industrie und Handelskammertag – Kommentar: Politologe, Vorstand Alba Group, fordert ökonomisch vertretbare Energiewende und echte Konkurrenz

20 Michael Vassiliadis – IG Bergbau, Chemie, Energie – Chemielaborant, SPD, Gewerkschaftler

21 Ralf Wehrspohn – Fraunhofer Institut für Mikrostruktur von Werkstoffen – Kommentar: Physiker, Forscher, Photovoltaik, Materialeffezienz

22 Hubert Weigner – BUND – kein Kommentar

23 Hannelore Wodtke – „Grüne Zukunft Welzow“ – kein Kommentar

Eine; sicherlich durchaus wenig objektive; Einschätzung der Zusammensetzung der Kommission, selbst wenn sich hier und da noch etwas ändert, zeigt ein zu erwartendes Ergebnis von

11 Stimmen für den schnellen bis direkten Kohleausstieg.  Hierzu Zitat Barbara Praetorius: „Kohle im Stromsektor, aber auch Öl und Gas im Verkehr und in der Wärmeversorgung müssen ersetzt werden. Die Perspektive lautet Elektromobilität und mehr Wärmepumpen, beides betrieben mit Strom aus Erneuerbaren Energien. Technisch ist das unbestritten möglich. Aber um die fossilen Energien zu ersetzen, müssen auch mehr Wind- und Sonnenstromanlagen gebaut und Braunkohlegruben geschlossen werden.“

8 Stimmen für ein Ja, aber nur wenn der Wandel sozialverträglich gestaltet wird. Hierzu Zitat Andreas Scheidt, Verdi: „Ein vorzeitiger Ausstieg aus der Kohleverstromung muss eine verbindliche Übereinkunft beinhalten, dass diese Beschäftigten keinerlei materielle Einbußen erleiden, wenn ihr Arbeitsplatz aufgrund von politischen Entscheidungen verloren geht.“

7 Stimmen für einen ökonomisch und sozial planbaren Ausstieg. Zitat Christine Herntier: „Deutschland ist ein wirtschaftlich sehr erfolgreiches Land, das auch über einen breit aufgestellten und innovativen Dienstleistungssektor verfügt. Doch die Grundlage für Dienstleistungen ist die industrielle Wertschöpfung. Und deren Voraussetzung wiederum ist bezahlbare und zuverlässig verfügbare Energie.“

Die Zusammensetzung der Kommission lässt also ein Ergebnis im Sinne der grünen Kanzlerin erwarten: „Wir schaffen das“; mit einer Prognose meinerseits mit 2030 als Datum zum kompletten Ausstieg, koste es, was es wolle. Die Berücksichtigung von NGO’s und Bürgerinitiativen für den direkten Ausstieg (Buirer für Buir, Grüne Zukunft Welzow) aus der Braunkohle bei gleichzeitigem Ignorieren des anderen Seite (Pro Lausitz, Unser Revier; die sich ebenfalls um einen Platz in der Kommission beworben hatten) zeigt diese Zielrichtung.

Gleichzeitig wird damit die grüne Kompetenz der GroKo gestärkt, um ähnlich wie beim Kernenergieausstieg Grünen und Linken den Wind aus den Segeln zu nehmen.

Der Schaden für die deutsche Wirtschaft wird irreparabel anwachsen.




Environ­ment Florida führt Wähler bzgl. Kosten für Erneuer­bare in den Irre

Auf dem Menüpunkt „100% Erneuerbare Energie“ auf der Website von Environment Florida argumentiert die Gruppe mit einem ökonomischen Argument für mehr erneuerbare Energie: „In vielen [US-]Staaten ist Windenergie inzwischen billiger als Gas oder Kohle“. Damit soll eindeutig impliziert werden, dass wenn die Menschen gelegentlich diesen Passus lesen sich nicht die Zeit nehmen, die Behauptung näher zu prüfen, dass dieser Umstand auch in Florida zu Buche schlagen würde. Die Behauptung der Gruppe beruht jedoch weder auf Fakten noch ist sie auf Florida anwendbar.

Erstens ist Windenergie ganz allgemein viel teurer als Energie aus Kohle oder Erdgas. Aus genau diesem Grunde setzen sich die Windenergie-Aktivisten so vehement dafür ein, die Subventionen der Steuerzahler abzustauben und dass per Gesetz verordnet wird, dass ein bestimmter Prozentsatz der Stromerzeugung in jedem Staat aus erneuerbaren Quellen stammt. Falls Windenergie wirklich billiger wäre als Energie aus Kohle und Erdgas – oder zumindest im Kosten-Wettbewerb mithalten könnte – wären diese Subventionen und Vorschriften nicht erforderlich. Falls und wenn Windenergie billiger als Kohle oder Erdgas ist, bräuchte die Windenergie-Industrie nicht die Regierung, um die Verbraucher dazu zu bringen oder zu zwingen, Windenergie zu kaufen. Ein guter Vergleich und eine Dokumentation zwischen Wind- und Solarenergie einerseits sowie Kohle und Erdgas andererseits gibt es hier bei der links der Mitte stehenden Brookings Institution.

Zweitens ist Windenergie gerade in Florida besonders unökonomisch. Das Potential von Windenergie variiert erheblich in den USA. Die besten Orte für die Erzeugung von Windenergie befinden sich in Kammlagen von Mittelgebirgen und in großen Hochebenen, wo es häufig windig ist, stetig und ziemlich stark. Jeder Bewohner von Florida weiß, dass genau diese Bedingungen in Florida nicht erfüllt sind. Von der Energy Information Agency EIA gibt es eine aussagekräftige Karte des Potentials von Windenergie. Darin zeigt sich Florida als einer der Staaten, in denen es am schwierigsten und unökonomischsten ist, Windenergie zu erzeugen. Damit ist die Aussage von Environment Florida an die Bewohner des Staates, dass „Windenergie in vielen Staaten inzwischen billiger als als Gas oder Kohle“ vollkommen irrelevant für diesen US-Staat. Noch schlimmer: Viele Bewohner Floridas werden zu der irrigen Ansicht gebracht, dass wenn Windenergie anderswo billig ist, dieses auch in Florida so ist.

Drittens, Environment Florida liefert keine angemessene Dokumentation zur Untermauerung seiner Behauptung, dass Windenergie in einigen Staaten billiger ist als Kohle oder Erdgas. Stattdessen wird nur die Hypothese aufgestellt, verbunden mit einem Link zu einem Online-Artikel im The Atlantik. In diesem Artikel wird jedoch lediglich behauptet, dass „Windenergie in vielen Teilen der Welt wettbewerbsfähig ist mit fossile Treibstoffe verbrennenden Kraftwerken“. Dies ist weit entfernt von der Behauptung, dass Windenergie in vielen Staaten billiger ist als Kohle und Erdgas. Beispielsweise ist „wettbewerbsfähig“ nicht das Gleiche wie „billiger“. Wettbewerbsfähig heißt nichts weiter, als dass nach subjektiver Meinung eines Einzelnen keinen großen Preisunterschied zwischen beiden gibt. Ebenso ist der Terminus „in vielen Teilen der Welt“ nicht das Gleiche wie „in vielen Staaten“. Dies gilt besonders vor dem Hintergrund, dass die reichlichen Ressourcen an Kohle und Erdgas in den USA dafür sorgen, dass die Strompreise in den USA viel billiger sind als in den meisten anderen Ländern. In Dänemark und Deutschland beispielsweise liegen die Strompreise drei mal so hoch wie in den USA – beide Nationen haben konzertierte Maßnahmen ergriffen, das meiste ihres Stromes mit Windenergie zu erzeugen (hier).

Viertens, selbst wenn Windenergie in einigen Staaten wirklich billiger wäre als Kohle oder Erdgas, so erzeugt doch kein Staat die gesamte – oder auch nur den größten Teil – Energie mittels Windturbinen. Windenergie mag wettbewerbsfähig sein in einigen wenigen Staaten, in denen die Bedingungen ideal zur Erzeugung von Windenergie sind. Allerdings wird der Versuch, zu 100% Energie durch Wind zu erzeugen – oder auch nur annähernd 100% – selbst in jenen Staaten zu viel höheren Windenergiepreisen führen, weil die Windkraft-Unternehmen nicht mehr in der Lage sein werden, hinsichtlich der wenigen Stellen mit idealen Windenergie-Bedingungen Rosinenpickerei zu betreiben.

Fünftens, Behauptungen, dass Windenergie von den Kosten her mit Kohle und Erdgas wettbewerbsmäßig mithalten kann, berücksichtigen die retail cost von Windenergie erst nach Erhalt der substantiellen und unverhältnismäßigen Subventionen (siehe hier) im Vergleich zu Kohle und Erdgas. In Wirklichkeit zahlen die Verbraucher den Preis für Windenergie direkt mit ihren Stromrechnungen plus die Kosten der viel höheren Subventionen für Windenergie im Gestalt von Steuern. Der retail price von Windenergie gleicht nur zu einem kleinen Teil die Kosten der Windenergie aus, welche die Verbraucher zahlen, wobei die unverhältnismäßig hohen Steuersubventionen einen weiteren wichtigen Kostenfaktor darstellen.

Sechstens, Befürworter von Windenergie versuchen oftmals, die Erzeugungskosten allein mit den Erzeugungskosten von Kohle und Erdgas zu vergleichen. Allerdings sind Ausrüstung und Errichtung von Windturbinen pro Einheit erzeugter Energie viel höher als die gleichen Kosten bei Kohle- und Gaskraftwerken. Indem die viel höheren Ausrüstungs- und Installationskosten von Windturbinen ignoriert werden und man einfach nur über die Kosten der Energieerzeugung nach dem Aufbau redet, versuchen die Windkraft-Apologeten, die Aufmerksamkeit von den tatsächlichen Gesamtkosten abzulenken.

Siebentens, Kohle- und Gaskraftwerke können fast überall gebaut werden. Sie können in der Nähe von Städten gebaut werden, welche die meiste Energie verbrauchen, und erfordern auch nicht oder nur in sehr geringem Umfang den Bau von Überlandleitungen. Windenergie dagegen wird selten in großer, ökonomischer Menge in der Nähe von Städten erzeugt. In Kammlagen oder Hochebenen liegen nur sehr wenige große Städte. Dies bedeutet, dass für die meisten neuen Windenergie-Projekte die Konstruktion langer und sehr teurer Überlandleitungen erforderlich ist, um den Strom dahin zu leiten, wo er gebraucht wird. So werden für die 780 Meilen lange Rock Island Clean Line, die gegenwärtig durch die Staaten Iowa, Illinois und Indiana gezogen wird, 3 Milliarden Dollar veranschlagt, oder fast 4 Millionen Dollar pro Meile (hier). Windenergie-Aktivisten beziehen die sehr hohen Kosten für den Bau von Überlandleitungen nur sehr selten ein, wenn sie ihre Kostenvergleiche anstellen.

Achtens, Windenergie ist wechselhaft und benötigt konventionelle Energie, um bei Bedarf jederzeit die Nachfrage decken zu können, wenn der Wind entweder gar nicht oder nicht mit der richtigen Geschwindigkeit weht. Damit müsse konventionelle Kraftwerke am Laufen gehalten werden, ohne jedoch Strom zu liefern, wenn Wind weht. Ebenso ist es erforderlich, diese Kraftwerke ständig hoch und herunter zu fahren, um der Veränderlichkeit der Windgeschwindigkeit Rechnung zu tragen. Jeder einzelne dieser Faktoren belastet die konventionelle Energieerzeugung, was diese Energie deutlich teurer macht als es sonst der Fall wäre. Wichtig hierbei wäre bei einem Vergleich der Kosten von Windenergie und konventioneller Energie, diese Zusatzkosten der konventionellen Energie herauszurechnen, und man müsste sie den Kosten der Windenergie hinzufügen.

Alles in allem, Environment Florida suggeriert, dass es in einem Artikel im The Atlantic heißt, dass Windenergie in einigen Staaten billiger ist als Energie aus Kohle und Erdgas. Tatsächlich findet sich in dem Artikel aber keine solche Behauptung. Und selbst wenn The Atlantic eine solche Behauptung aufgestellt hätte, existieren die Umstände zum Erreichen einer Kostengleichheit von Windenergie mit Kohle und Gas einfach nicht. Im besonderen ist das der Fall bei vielen versteckten Kosten der Windenergie, die nicht auf den Rechnungen für Verbraucher auftauchen und auch nicht in den Beteuerungen der Windenergie-Apologeten. Stattdessen bestätigen seriöse Kostenvergleiche, wie sie von der Brookings Institution veröffentlicht werden, dass Windenergie erheblich teurer bleibt als fossile Energie. Wäre dem nicht so, würden Windkraft-Befürworter den Subventionen der Steuerzahler und gesetzliche Vorschriften für die Verbraucher, Windenergie zu kaufen, nicht so viel Bedeutung beimessen.

Glücklicherweise für die Floridaner hält die von Erdgas dominierte Energieerzeugung in Florida die Preise niedrig und verursacht nur geringe Herausforderungen für die Umwelt. Erdgas emittiert nur einen Bruchteil der traditionellen Verschmutzer der Kohleenergie und nur halb so viel Kohlendioxid. Als Folge hiervon und trotz des dem subtropischen Klima geschuldeten Gebrauchs von Air Conditioners werden die Pro-Person-Emissionen der Bewohner Floridas nur noch von 11 anderen Staaten unterboten (hier). Außerdem vermeidet der Erdgasverbrauch Floridas den gewaltigen Landverbrauch, den umweltlich verheerenden Abbau ,seltener Erden‘ für den Bau von Windturbinen, und die ungeheuren Todesraten von Vögeln und Fledermäusen durch die Turbinen.

Environment Florida mag den Bewohnern Floridas die Segnungen von Windenergie nahebringen, aber die Fakten sagen eindeutig, dass sie mit ökonomisch giftigem Stoff handeln.

Link: http://www.cfact.org/2018/05/26/environment-florida-misleads-voters-on-renewable-energy-costs/

Übersetzt von Chris Frey EIKE




Plutonium Vernichtung in den USA! Notbremse gezogen?

Die Vorgeschichte

Bereits vor dem Zusammenbruch der Sowjetunion setzte ein gewaltiges Abrüstungsprogramm zwischen den USA und Russland ein. Letztendlich wurden im Rahmen des ersten Vertrages zur Verringerung strategischer Waffen (START I) tausende Raketen und Sprengköpfe auf beiden Seiten vernichtet. Damit saß jeder der beiden Vertragspartner auf zig Tonnen waffengrädigem Materials, aus dem man zehntausende von neuen Sprengköpfen hätte bauen können. Im Zeitalter des aufkeimenden Terrorismus eine äußerst unbehagliche Situation, zumal die Sowjetunion in Auflösung begriffen war.

Die Mengen an hochangereichertem Uran stellten nur ein kleines Problem dar: Sie wurden mit abgereichertem Uran auf die Gehalte für Brennstoff verschnitten und nach und nach in Kernkraftwerken zur Stromerzeugung verbraucht. Gleichwohl waren die Mengen so gewaltig, daß für Jahre der Markt für Natururan nahezu zusammenbrach. Für sich genommen schon ein gewaltiger Schaden für die Uranbergwerke.

Ganz anders verhielt es sich mit dem Plutonium. Jeder der beiden Vertragspartner verfügte nun über einen Überschuß von 34 to waffengrädigem Plutoniums, der irgendwie aus der Welt geschafft werden mußte. Um zu verstehen, warum das gar nicht so einfach ist, muß man sich etwas näher mit Plutonium beschäftigen.

Das besondere Plutonium

Plutonium ist ein chemisches Element mit der Ordnungszahl 94 (94 Protonen im Kern), welches faktisch nicht in der Natur vorkommt. Es kann zwar in verschiedene chemische Verbindungen mit verschiedenen chemischen Eigenschaften überführt werden, nicht aber auf chemischen Wegen wieder aus der Welt geschafft werden. Es kommt in zahlreichen Isotopen (unterschiedliche Anzahl von Neutronen im Kern) — von Pu236 bis Pu244 — mit jeweils eigener Halbwertszeit und eigenem Einfangquerschnitt für Neutronen vor. Die einzige Möglichkeit es wieder aus der Welt zu schaffen, ist es mittels Neutronen zu spalten oder wenigstens in andere Isotopen um zu formen.

Schon in den Anfängen der Entwicklung von Kernwaffen hat man erkannt, daß Pu239ein idealer Kandidat für den Bau von Kernwaffen ist. Es ist recht einfach und preiswert in „speziellen Reaktoren“ in beliebigen Mengen aus Natururan herstellbar und es besitzt ein Optimum aus „Lebensdauer“ und Einfangquerschnitt im auftretenden Energiespektrum einer Kernexplosion.

Jede Kernwaffe altert durch spontane Zerfälle. Je kürzer die Halbwertszeit des Materials ist, desto schneller ist die Kernwaffe unbrauchbar. Jeder Kern, der schon zerfallen ist, steht für die Kettenreaktion im Ernstfall nicht mehr zur Verfügung. Dies ist leicht einsichtig. Jeder Spontanzerfall löst aber eine ganze Kette weiterer radioaktiver Produkte aus. Jedes Glied hat eigene, energieabhängige Einfangquerschnitte. Vereinfachend gesagt, viele verbrauchen nur Neutronen, die für eine Kettenreaktion nicht mehr zur Verfügung stehen können. Im Extremfall bricht die „Explosion“ sehr schnell in sich zusammen.

Der Zweck einer Kernwaffe ist Zerstörung (Druckwelle, Feuerball und Strahlung). Dafür braucht man eine hohe Leistung (Energie pro Zeiteinheit). Mit einfachen Worten: Man muß möglichst viele Kerne (ungefähr 200 MeV pro Spaltung) in nahezu „Null Sekunden“ spalten. Das Geheimnis des Bombenbaues liegt nun in der Beherrschung der Kettenreaktion: Mit jeder Spaltung werden weitere Neutronen frei, die von Generation zu Generation (jeweils etwa Verdoppelung) immer noch mehr Kerne spalten könnten — wenn sie nicht parasitär weggefangen werden oder den Ort des Geschehens einfach mit hoher Geschwindigkeit verlassen würden ohne überhaupt jemals einem spaltbaren Kern begegnet zu sein. Insbesondere für diesen „Verlust von Neutronen durch Austritt“ ist die schnelle Ausdehnung des Spaltmaterials durch die entstehende Hitze verantwortlich.

Waffengrädiges- oder Reaktorplutonium?

Von „Atomkraftgegnern“ wird immer wieder behauptet, man könne auch aus Reaktorplutonium „Bomben bauen“. Man möchte damit Plutonium aus der Wiederaufbereitung von Brennelementen aus Leichtwasserreaktoren gefährlicher erscheinen lassen, als es in Wirklichkeit ist. Bestenfalls steckt dahinter Wortklauberei. Natürlich kann man mit großem Aufwand unter Laborbedingungen auch mit Reaktorplutonium eine Kettenreaktion auslösen — bloß bringt man damit keine Fensterscheibe zum wackeln. Deshalb ist auch noch keiner so bescheuert gewesen, mit gewaltigem Aufwand eine „Atombombe“ aus Reaktorplutonium zu bauen, die trotzdem nur einem Knallfrosch gleicht, wenn er mit geringstem Aufwand aus Natururan waffengrädiges Plutonium erzeugen kann.

Damit ist auch ein Weg aufgezeigt, wie man „altes Bombenplutonium“ dauerhaft und sicher beseitigen kann. Setzt man es als Brennstoff in Leistungsreaktoren ein, wird dadurch ein erheblicher Teil der Ursprungsmenge „verbrannt“ und gleichzeitig der Rest durch die Bildung von anderen Isotopen verdorben. Denn nicht jeder Kern Pu239 wird durch das Einfangen eines Neutrons gespalten, sondern wird teilweise bloß in ein anderes Isotop (Pu240, Pu241 usw.) umgewandelt. Man kann das mit dem vergällen von trinkbarem Alkohol vergleichen: Der Zusatz von geringen Mengen ähnlicher Stoffe macht aus einer großen Menge Genussmittel einen für Menschen giftigen Industriealkohol. Der Trick ist der Gleiche: Der Aufwand zur Trennung wäre um ein vielfaches höher, als die erneute Herstellung von Trinkalkohol.

Grundsätzlich kann man „überschüssiges Bombenplutonium“ in schnellen Reaktoren oder in konventionellen Leichtwasserreaktoren einsetzen. Effektiver ist der von Rußland eingeschlagene Weg der Herstellung von Brennstoff für einen natriumgekühlten Reaktor mit schnellen Neutronen: Man kann größere Anteile (schnelle Reaktoren über 20%, LW bis rund 8%) verwenden. Dies vereinfacht schon mal die notwendige Überwachung bei der Produktion. Durch eine angepaßte Fahrweise (nicht die Energieerzeugung steht im Vordergrund, sondern die Erzeugung ungeeigneter Isotope) kann man recht schnell große Mengen Plutonium für eine Waffenproduktion dauerhaft unbrauchbar machen. So gibt es beispielsweise ein Konzept — bestehend aus zwei PRISM-Reaktoren — innerhalb von nur zwei Jahren alle Überschussbestände in Großbritannien für eine Waffenproduktion unbrauchbar zu machen. Elektrische Energie könnten diese Reaktoren mit diesem Plutonium dann trotzdem noch viele Jahrzehnte weiter produzieren.

Der Weg über MOX

Üblicherweise setzt man in Kernkraftwerken einen Brennstoff aus (nur) angereichertem Uran ein. Man kann aber auch einen Brennstoff aus einer Mischung aus Uranoxid und Plutoniumoxid verwenden. Keine neue Erfindung. Bereits 1972 wurde in Deutschland (!) erfolgreich ein Mischoxid in einem Reaktor verwendet. Heute sind rund 5% aller verwendeten Brennelemente weltweit vom Typ MOX. Führend in dieser Technologie ist mit großem Abstand Frankreich. Ursprünglich wollte man damit den Verbrauch von Natururan strecken. Es war daher nicht abwegig, über diese Schiene auch das „Überschuß-Plutonium“ aus der Rüstung vernichten zu wollen. Nur mußte aus politischen Gründen (Proliferation und Verträge mit Rußland) in USA erst einmal eine neue Anlage gebaut werden. Und damit nahm das Verhängnis seinen Lauf…

Wenn man eine verfahrenstechnische Großanlage in Auftrag gibt, sollte man vorher wissen, welches Produkt man eigentlich herstellen will, welche Vorschriften im eigenen Land gelten und welchen Rohstoff man genau einsetzen muß. Ganz offensichtlich für Politiker (per Eigendefinition Alleskönner) und öffentliche Verwaltungsapparate (zumindest, wenn sie sich auf einem neuen Gebiet bewegen sollen) eine unlösbare Aufgabe. Wie immer, wurde erst einmal — im Bewußtsein kein eigenes Geld, sondern das Geld der Steuerzahler zu verschwenden — eine Anlage für den Durchsatz von 3,5 to Plutonium pro Jahr bei Areva für 2,7 Milliarden Dollar in Auftrag gegeben. Baubeginn war 2007 mit einer geplanten Fertigstellung im Jahr 2016.

Nachdem der Baubeginn bereits erfolgt war, stellte man fest, daß der spezielle Eingangsstoff — besagtes Waffenplutonium zur Vernichtung in Leichtwasserreaktoren — anders, als das übliche Plutonium — Plutonium aus französischer Wiederaufbereitung von Kernbrennstoff— war. Flugs mußte noch ein kompletter zusätzlicher Verfahrensschritt zur Entfernung von Verunreinigungen eingeführt werden. Die Anlage — fast genau so groß, wie die bereits im Bau befindliche — wurde verniedlichend „Aqueous Polishing“ genannt. Die geplante Fertigstellung verschob sich auf 2019 und die geplanten Kosten schossen auf 4,9 Milliarden Dollar hoch.

Im Jahre 2012 führte man eine Untersuchung durch und aktualisierte die Kostenschätzung auf 7,7 Milliarden. Eine weitere Untersuchung im Jahre 2016 ergab eine Kostenschätzung von 17,2 Milliarden und eine Inbetriebnahme nicht vor 2025. Wie bei öffentlichen Projekten üblich — wir kennen das vom Flughafen BER in Berlin — wurschtelt man weiter vor sich hin. Jährlich versickerten zwischen 350 und 500 Millionen Dollar aus diversen Haushaltstiteln in diesem Sumpf. Ein schönes Auftragsvolumen, für das man schon etwas für die Politik tun kann.

Die Programmkosten

Mit dem Bau der Anlage ist es aber noch nicht getan. In einer Marktwirtschaft muß man auch noch Kunden für das Produkt finden. In diesem Fall, wegen der geltenden Abrüstungsverträge, ausschließlich in den USA. Die Kernkraftwerke in den USA müssen aber Genehmigungen für den Betrieb mit MOX-Brennelementen besitzen. Sie müssen geprüft und umgebaut werden. Mit anderen Worten, im Moment würden die Betreiber die Brennelemente nicht einmal geschenkt nehmen. Lange Rede, kurzer Sinn, das Energieministerium schätzt die Gesamtkosten für das Programm auf 50 Milliarden Dollar. Das entspricht einem Preis von über 1,4 Millionen Dollar für jedes Kilogramm Waffenplutonium. Selbst wenn man die Anlagen noch für andere Zwecke nutzen kann, ist das ein Irrsinn.

Dieser Vorgang zeigt sehr schön, was geschieht, wenn man Politikern solche komplexen technischen Herausforderungen überläßt. Man muß nur so ein verrücktes Programm starten und erschließt sich damit eine sprudelnde Geldquelle: In diesem Fall mit ursprünglich „etwa 1 Milliarde für ein tolles Abrüstungsprogramm“ oder einer „Eiskugel für eine Energiewende“ bei uns. Sind erstmal genug Laiendarsteller auf den Zug aufgesprungen, kann man sie beliebig ausquetschen. Der Politiker steht vor der Alternative: Ich verbrenne weiterhin das Geld fremder Leute (sprich unsere Steuern) oder gebe zu, gar nicht allwissend zu sein, was das Ende der eigenen Karriere bedeutet. Solche „Steuergelder-Verbrennungsanlagen“ werden erst gestoppt, wenn Kräfte an die Regierung kommen, die bisher nicht im etablierten Machtapparat tätig waren. Dies geschah mit der Wahl von Donald Trump zum 45. Präsidenten der USA, der schon in seinem Wahlkampf lieber vom „Sumpf“ sprach und ungern das etablierte Synonym „Washington“ benutzte.

Wie geht’s weiter

Allerdings ist mit dem Baustopp der Anlage noch lange nicht das Problem beseitigt. Dabei ist das Plutonium selbst das geringste Problem: Es schlummert weiterhin in den Tresoren vor sich hin. Was drückt, sind die Abrüstungsverträge mit Russland. Im Moment herrscht ein seltsames gegenseitiges „Wegsehen“: Die USA kommen nicht mit der Vernichtung ihres „Überschussplutonium“ voran, dafür regt man sich nicht sonderlich über den Bruch des Abrüstungsabkommens über Mittelstreckenwaffen (Landgestützte Cruise missile mit „Atomsprengköpfen“) durch Putin auf.

Es muß also eine Lösung her. Zumindest über einen weiteren Ansatz, wird hier demnächst berichtet…

Der Beitrag erschien zuerst bei NUKEKLAUS hier




Schlechte Nachrichten für Fans grüner Energie: Öl- und Gas-Boom in den USA

Aber die Affenliebe der Medien für Tesla wird überschattet durch einen Vorgang, der viel wichtiger ist als die Anzahl der Elektrofahrzeuge, Solarpaneele und Batterien, welche Tesla produziert (oder auch nicht).

Zwei Tage vor Verkündung der Tesla-Zahlen vom ersten Quartal hat die Energy Information Administration EIA darüber informiert, dass die US-Produktion sowohl von Öl als auch von Erdgas auf ein rekordhohes Niveau gestiegen ist.

Im Februar erreichte die Ölerzeugung 10,2 Millionen Barrel pro Tag und die Erdgaserzeugung 87,6 Milliarden Kubikfuß pro Tag. Die Tatsache, dass die Öl- und Gasunternehmen in den USA derartig ungeheure Mengen Energie erzeugen – und den Verbrauchern damit Milliarden Dollar Ersparnis bringen – diese Tatsache sollte Schlagzeilen machen!

Mein Kollege am Manhattan Institute Mark P. Mills hat gesagt, dass die Schiefer-Revolution die USA zu einer Energie-Supermacht gemacht hat. Die Kombination von horizontalem Bohren, hydraulischem Brechen und anderer Technologien hat zur „schnellsten und größten Zunahme der Energieversorgung der Welt jemals in der Geschichte geführt.

Wie stark ist diese Zunahme? Während des vorigen Jahrzehnts machte die Zunahme – und ich betone, nur die Zunahme – der Öl- und Gaserzeugung in den USA sieben mal die Gesamt-Energieerzeugung jeder Windturbine und jedes Solarprojektes in den USA aus.

Klimawandel-Aktivisten lieben es zu behaupten, dass erneuerbare Energie die gesamte Ökonomie versorgen kann und dass wir die „Mathematik betreiben sollen“. In Bezug auf die Mathematik kann ich dem nur vorbehaltlos zustimmen. Im Jahre 2008 betrug die Ölerzeugung in den USA etwa 5,2 Millionen Barrel pro Tag. Heute sind es etwa 10,2 Millionen Barrel pro Tag. Die heimische Gaserzeugung lag im Jahre 2008 bei 55,1 Milliarden Kubikfuß pro Tag, heute sind es etwa 87,6 Milliarden Kubikfuß pro Tag.

Das ist eine Zunahme von etwa 32,5 Milliarden Kubikfuß pro Tag, äquivalent zu etwa 5,5 Millionen Barrel Öl pro Tag. Folglich hat der Öl- und Gas-Ausstoß der USA während des vorigen Jahrzehnts eine Steigerung von 10,5 Millionen Barrel Öl-Äquivalent pro Tag hingelegt. Vergleichen wir das jetzt mit der heimischen Erzeugung durch Wind und Solar, welche seit dem Jahr 2008 jeweils um 4800 Prozent bzw. 450 Prozent zugenommen hat. Diese Prozentzahlen klingen eindrucksvoll, doch ist die gesamte Energieerzeugung mittels dieser Quellen sehr klein im Vergleich zu Öl und Gas.

[Hier steht diese Mathematik]

Die Mathematik ergibt, dass allein die Zunahme der Energieerzeugung durch Öl und Gas etwa sieben mal den Energieausstoß aller heimischen Solar- und Windprojekte ausmacht.

Diese Flut der Erzeugung aus Kohlenwasserstoff hat zu gewaltigen Vorteilen für die US-Wirtschaft geführt. Während des letzten halben Jahrzehnts haben heimische und ausländische Unternehmen etwa 160 Milliarden Dollar in neue Chemiefabriken in den USA investiert. Eine Studie der IHS aus dem Jahr 2016 kam zu dem Ergebnis, dass niedrigere Erdgaspreise etwa 1,4 Millionen Arbeitsplätze geschaffen haben und die verfügbaren Einnahmen um etwa 156 Millionen Dollar haben steigen lassen.

Diese Zugewinne der realen Welt gehen unter in dem niemals endenden Hype um Tesla und Musk, welche in einer Mitteilung vom 2. Mai von einem „Mega-Aufladegerät mit Solarbatterien“ gesprochen und behauptet hat, dass die Fahrer von Tesla-Autos sich „ganz beruhigt mit dem Auto zusammentun“ können.

Die Pointe hier liegt auf der Hand: Man quatsche über Mega-Aufladegeräte und fängt damit die Massen. Aber die folgenreichste Story in Amerika kommt nicht von Tesla oder anderen „grünen“ Energieunternehmen. Sie kommt aus dem Öl- und Gasgeschäft.

Robert Bryce is a senior fellow at the Manhattan Institute.

Link: http://icecap.us/index.php/go/political-climate vom 23. Mai 2018

Übersetzt von Chris Frey EIKE




Neues aus USA zu den Klagen gegen große Ölfirmen – des Klimawandels wegen

Städte, die große Ölfirmen des Klimawandels wegen anklagen, sind gezwungen, auf die Vorteile von fossilen Brennstoffen einzugehen

JASON HOPKINS, Daily Caller am 27.05.2018

Kalifornische Städte, die wegen des Klimawandels geklagt haben, müssen anhand der Anweisung eines Bundesrichters prüfen, welchen Nutzen fossile Brennstoffe für die Zivilisation haben.

San Francisco und Oakland haben eine Klage gegen fünf große Ölkonzerne eingereicht, um finanziell für den Klimawandel entschädigt zu werden. Der Fall wird vor dem United States District Court in San Francisco verhandelt [~ Landesgericht]. Die betroffenen Ölkonzerne – Chevron, BP, ConocoPhillips, ExxonMobil und Royal Dutch Shell – haben den US-Bezirksrichter William Alsup aufgefordert, die Klage abzuweisen.

Zunehmend gehen Umweltschützer [gut fremdfinanziert] vor Gericht, um gegen Energiekonzerne Krieg zu führen, mit einer ähnlichen Klage, wie in Colorado vorgebracht.

Richter Alsup gab den Anwälten für Oakland, San Francisco und Chevron Corp. eine interessante Hausaufgabe : Erstellen Sie eine 10-seitige rechtliche Analyse darüber, ob die Vorteile der jahrelangen US-Abhängigkeit von fossilen Brennstoffen, den Klimawandel, den das verursachte, es wert waren.

„Wir nutzen Öl und fossile Brennstoffe seit 1859 bis heute“, sagte Richter Alsup. „Ja, das verursacht globale Erwärmung. Aber davor müssen wir die größeren Vorteile abwägen, die sich aus der Nutzung fossiler Brennstoffe ergeben. Es sind riesige, große Vorteile.“

Richter Alsup konzentrierte seine Fragen auf den „umfassenderen Lauf der Geschichte“ und die Rolle, die fossile Brennstoffe in den beiden Weltkriegen und dem Wirtschaftsboom spielten, den die USA später erlebten. Alle fünf Ölkonzerne streben eine Abweisung der Klage an, aber nur Chevron wird auf die Anweisung des Richters reagieren, da die anderen Angeklagten eine Abweisung aus juristischen Gründen anstreben.

„Sie fordern Milliarden von Dollar für etwas, was noch nicht passiert ist“, sagte Alsup während eines Hin und Her mit Steve Berman, dem Anwalt der Kläger. 

„Wir versuchen vorherzusagen, wie schlimm die globale Erwärmung in 75 Jahren sein wird.“

http://dailycaller.com/2018/05/27/california-cities-big-oil-climate-change-lawsuit-fossil-fuel-benefits/

 

Eine Ölgesellschaft wurde von riesigen Schadensansprüchen freigestellt, nachdem Anwälte mit falschen Beweisen erwischt wurden

TIM PEARCE, Daily Caller am 26.05.2018

Der Oberste Gerichtshof von Gibraltar hat die Ölgesellschaft Chevron (am 25.05.2018) von 38 Millionen US-Dollar Schadensansprüchen freigesprochen, die im Zusammenhang mit den Vorwürfen erhoben wurden, das Unternehmen habe die Amazonas-Region Ecuadors verseucht.

Ein Gericht in Ecuador hat im Februar 2011 ein Urteil gegen Chevron im Wert von 18 Milliarden US-Dollar wegen Umwelt- und Sozialschäden verhängt, die das Unternehmen angeblich dem Amazonasgebiet zugefügt hat. Der Betrag wurde später auf $ 9,5 Milliarden reduziert, aber ein US – Bezirksgericht in New York hat das Urteil aufgehoben, wegen betrügerischer und illegaler Aktivitäten von Steven Donziger, dem leitendem amerikanischen Anwalt der  Gruppe, die hinter der Klage steht, so das Gerichtsurteil.

Donziger hatte eine Firma in Gibraltar, Amazonia Recovery Ltd., gegründet, durch die er die Gelder, die er und andere aus dem Chevron-Fall gewinnen wollten, schleusen konnte. Das Gericht von Gibraltar fällte ein Urteil gegen Donzigers Mitarbeiter und Amazonia, während es eine permanente Verfügung zwischen der Gruppe und dem Fall erließ und sie damit hinderte, weiter davon zu partizipieren.

„Mit dem Erlass dieser Entscheidung zieht der Oberste Gerichtshof die Täter dieses betrügerischen Unternehmens für ihre Handlungen zur Rechenschaft“, sagte Chevron Vice President und General Counsel R. Hewitt Pate in einer Erklärung . „In Gerichtssälen auf der ganzen Welt wird dieser Betrugsversuch gegen die Chevron Corporation weiterhin in sich zusammenfallen.“

Die Entscheidung des Gerichts in Gibraltar folgt einer ähnlichen Entscheidung im Dezember 2015,  als das Gericht Chevron 28 Milliarden Dollar Schadensersatz von Donziger und Amazonia zuerkannte und eine einstweilige Verfügung zwischen ihnen und dem Fall erließ. Pablo Fajardo, Luis Yanza und Ermel Chavez – Donzigers Partner in dieser Machenschaft – versuchten den Druck auf Chevron zu halten, indem sie das Unternehmen weiter auf verdächtige Details durchfilzten. Sie ignorierten das erste Urteil, was dazu führte, dass das Gericht ein neues, schärferes Urteil gegen sie und Amazonia fällte.

Das New Yorker Bezirksgericht stellte fest, dass Donziger den Fall zwar mit guten Absichten angefangen hatte, dass er jedoch den Prozess korrumpierte, indem er Halbwahrheiten, offene Lügen und falsche Beweise und falsche Zeugen vorbrachte.

„Wenn es jemals einen Fall gegeben hat, der eine gerechte Entschädigung in Bezug auf ein Betrugsurteil rechtfertigen würde, dann ist es das“, so steht es in der Erklärung zum Urteil des Bezirksgerichts.

Ölgesellschaften geraten in den Vereinigten Staaten zunehmend unter Druck, da verschiedene Staaten, Städte und Gemeinden versuchen, ausgewählte Unternehmen für Schäden durch Naturkatastrophen verantwortlich zu machen. Die Kläger behaupten, dass die Ölgesellschaften zum Klimawandel beitragen, was wiederum zu größeren Schäden durch Wetterereignisse wie Hurrikane und Stürme beiträgt.

An Oil Company Just Earned A Huge Settlement After Environmentalists Brought False Charges

Übersetzt durch Andreas Demmig




Hockeystick Redux Chapter Fortyleven

Welcher Hockeyschläger?, kann man nun fragen. Nun, den C&W-Hockeyschläger natürlich … die folgende Abbildung zeigt den Unterschied zwischen den Daten in C&W 2013 bzw. C&W 2011:

Abbildung 1: die rote Linie markiert die Differenz zwischen den Werten der Höhe des Meeresspiegels in den beiden C&W-Datensätzen. Größere Werte zeigen, wo laut dem Datensatz 2013 der Meeresspiegel höher gelegen haben soll als im Datensatz 2011.

Nun, ich kann die geringe Differenz von ~ ± 1 mm zwischen den beiden Datensätzen die meiste Zeit über verstehen. Sie haben jeweils mit einem etwas anderen Algorithmus gerechnet oder vielleicht eine andere Zusammensetzung von Tidendaten und Wichtungen, woraus sich kleine Differenzen ergeben.

Und ich kann den Ausgleich über die meiste Zeit der Aufzeichnung verstehen, wobei die Daten 2013 allgemein etwa 2 mm unter den Daten 2011 liegen. Es ist eine Anomalie, so dass der Nullpunkt keine Rolle spielt.

Was ich aber nicht verstehe ist das Blatt des Hockeyschlägers seit etwa 1992, dem Beginn der Satelliten-Ära bzgl. der Messung des Meeresspiegels, bis 2009, wenn der C&W-Datensatz 2011 endet.

Mir scheint, dass sie wahrscheinlich die Daten umgebaut haben, damit die Daten einen allmählichen Übergang von der geringeren Beschleunigung laut den Tidenmessungen zur größeren Beschleunigung laut den Satellitenaufzeichnungen zeigen. Auf diese Weise können sie geltend machen, dass die Tidenmessungen und die Satellitendaten übereinstimmen … und falls das so ist, kann ich nur sagen schlechte Wissenschaftler, keine Cookies

Wie auch immer, das ist die einzige Erklärung, die mir zu diesem Hockeyschläger einfällt … andere Vorschläge sind willkommen.

Aktualisierung: Ich denke, ich sollte auf das größte Problem hinweisen, welches wir mit den Schätzungen des Meeresspiegels haben, nämlich das Fehlen von Daten. Die folgende Graphik zeigt, wie viele Tidenmesspunkte mit wie viel Daten pro Jahr über wie viele Jahre wir haben:

So gibt es beispielsweise nur 35 Messpunkte, von denen Aufzeichnungen über 120 Jahre oder noch länger vorliegen … und das geht nur bis etwa zum Jahr 1900 zurück.

Und nicht nur das, weil die Messpunkte auf dem Land liegen, werden die Ozeane nur an deren Rändern und auf ein paar Inseln erfasst …

Hier folgt eine weitere Darstellung, diesmal mit der Angabe, wie viele Messpunkte wir zu irgendeiner gegebenen Zeit haben:

Man beachte, dass zum Zeitpunkt des Maximums nur die Hälfte aller Messpunkte in der historischen Aufzeichnung in Betrieb waren.

Ich erwähne dies, um darauf hinzuweisen, dass wir in die Daten der Tidenmesspunkte einfach nicht viel Vertrauen haben dürfen, um irgendeinen „globalen“ mittleren Anstieg des Meeresspiegels zu ermitteln.

Link: https://wattsupwiththat.com/2018/05/25/hockeystick-redux-chapter-fortyleven/

Übersetzt von Chris Frey EIKE




Klima-Zerrbild wegen kleinster Nenner

Es gibt dieser Tage sehr viele Indizes, mit denen die Aufmerksamkeit der Menschen erregt wird, und zwar wegen der genannten großen Zahlen. Aber in der Realität stammen diese großen Zahlen samt und sonders aus sehr kleinen Nennern, wenn man ein Verhältnis berechnet. Drei prominente Beispiele dieser mathematischen Tatsache sind: Der Rückkopplungs-Effekt in den Globale-Erwärmung-Modellen; das „Globale-Erwärmung-Potential“ und der „Happy Planet Index“. Jeder dieser Indizes ist behaftet mit der enormen Verzerrung, zu der es kommt, wenn ein Divisor sehr klein ist.

A. Der „Happy Planet Index“ ist am einfachsten zu erklären: Er wird herangezogen, um verschiedene Länder miteinander zu vergleichen und hat folgende Form:

(a x b x c) / d.

In dieser Gleichung bedeuten:

a = Wohlergehen: „wie zufrieden sind die Einwohner eines jeden Landes mit ihrem Leben allgemein?“ (auf der Grundlage einer Gallup-Umfrage.)

b = Lebenserwartung

c = Ungleichheiten der Ergebnisse („die Ungleichheiten zwischen den Menschen innerhalb eines Landes hinsichtlich der Lebensdauer und wie glücklich sie sich fühlen auf der Grundlage der Verteilung und des Wohlergehens in jedem Land“)

d = ökologischer Fußabdruck („die mittlere Auswirkung eines jeden Einwohners eines Landes auf die Umwelt auf der Grundlage der Daten, die vom Global Footprint Network aufbereitet sind“).

Wie stehen die ausgewählten Länder nun da? Mit diesem Index ist Costa Rica mit einem Wert von 44,7 die Nummer 1, gefolgt von Mexiko mit einem Wert von 40,7 an Nummer 2. Bangla Desh rangiert mit einem Wert von 38,4 auf Rang 8, Venezuela mit einem Wert von 33,6 auf Rang 29 und die USA mit einem Wert von 20,7 auf Rang 108 – von 140 betrachteten Ländern.

Neben solchen auf der Hand liegenden Fragen wie „warum kommen so viele Menschen aus Mexiko in die USA, während kaum jemand den umgekehrten Weg nimmt?“ ist es instruktiv, einmal näher den Divisor (Faktor d in der Gleichung) zu betrachten beim Errechnen dieser numerischen Indexwerte.

Jedes Land mit einem sehr geringen Niveau ökonomischer Aktivitäten wird hinsichtlich des „ökologischen Fußabdrucks“ einen kleinen Wert aufweisen. Unbewohnter Dschungel oder Wüsten stehen in dieser Hinsicht weit unten. Mit einem sehr kleinen Wert des Faktors d spielt es keine große Rolle, welche Werte die Faktoren a bis c annehmen – der kleine Nenner garantiert, dass der Quotient groß ist. Daher der große Index für einige wirklich armselige Plätze.

Die zugrunde liegende Ursache, dass der „Happy Planet Index“ so irreführend ist, ist die Einbeziehung einer Division durch eine Zahl, die für einige Länder ziemlich dicht bei Null liegt.

B. Das zweite Beispiel für diesen Effekt ist der Parameter „Globale-Erwärmung-Potential“. Dieser wird herangezogen, um die relative Stärke der ausgewählten Treibhausgase zu vergleichen.

Die falsche Anwendung von Zahlen hierbei hat zu allen möglichen Arten grauenhafter Prophezeiungen geführt hinsichtlich der Notwendigkeit, sehr kleine Mengen von Spurengasen wie Methan (CH4), NO2 und Andere loszuwerden.

Der Terminus „Globale-Erwärmung-Potential“ ist erstmals im 2. IPCC-Zustandsbericht aufgetaucht. Er wurde später, genauer im 4. Zustandsbericht aus dem Jahr 2007 in eine Formel gekleidet. Dies wird beschrieben in Abschnitt 2.10.2 des Textes der Arbeitsgruppe 1. Um zu begreifen, was das bedeutet, ist es zunächst einmal erforderlich zu verstehen, wie Moleküle Strahlung absorbiert und emittiert werden.

Jedes Gas absorbiert Strahlung in bestimmten Spektralbändern. Je mehr dieses Gases vorhanden ist, umso mehr wird absorbiert. Stickstoff (N2) mit einem Anteil von 77% in der Atmosphäre absorbiert im nahen UV-Spektrum, aber nicht im sichtbaren oder infraroten Bereich. Wasserdampf (H2O) ist ein ausreichend starker Absorbierer im Infraroten, dass es den Treibhauseffekt verursacht und die Erde um über 30°C erwärmt, was unseren Planeten viel angenehmer zu bewohnen macht. An Stellen, wo nur wenig Wasserdampf vorhanden ist, gibt es weniger Absorption, weniger Treibhauseffekt, und bald wird es kalt (nachts in der Wüste).

Hat ein Molekül erst einmal ein Photon absorbiert, gewinnt es an Energie und wechselt in einen angeregten Zustand. Bis diese Energie wieder abgegeben wird (via Rückstrahlung oder Kollisionen), wird jenes Molekül kein weiteres Photon absorbieren. Die Folge hiervon ist, dass die Gesamt-Absorption durch jedwedes Gas allmählich saturiert, wenn die Menge jenes Gases zunimmt. Eine kleine Gasmenge absorbiert sehr effizient, aber wenn sich die Menge verdoppelt, wird die Absorption weniger als doppelt so groß sein wie zuerst. Und so weiter bei jeder weiteren Verdoppelung. Wir sagen, dass die Absorption logarithmisch abhängig ist von der Konzentration des jeweiligen Gases. Die Kurve, wie stark die Gesamt-Absorption abnimmt, variiert entsprechend der Exponential-Funktion exp (-X/A), wobei X für die präsente Gasmenge steht (normalerweise angegeben in ppm) und A für eine Konstante relativ zur Physik des Moleküls. Jedes Gas wird einen anderen Wert aufweisen, angegeben als B, C, D usw. Erhält man diese Zahlen innerhalb von 15%, wird das als ziemlich gut angesehen.

Es gibt so viel Wasserdampf in der Atmosphäre (variabel, über 10.000 ppm oder 1% als Konzentration), dass dessen Absorption vollständig gesättigt ist. Da gibt es nicht mehr viel zu diskutieren. Im Gegensatz dazu weist das Gas CO2 einen stetigen Wer um 400 ppm auf, und dessen Absorption ist zu 98% gesättigt. Das fällt zusammen mit dem Koeffizient A, der grob äquivalent zu 100 ppm ist.

Diese Exkursion in die Physik der Absorption zahlt sich aus, wenn wir auf die Mathematik schauen, mit der das „Globale Erwärmung Potential“ (GWP) eines Spurengases berechnet wird. GWP ist definiert als das Verhältnis der Steigung der Absorptions-Kurven für zwei Gase: hier die Steigung des interessierenden Gases dividiert durch die Steigung für Kohlendioxid. Die Steigung einer heden Kurve ist die erste Ableitung jener Kurve. Ökonomen sprechen von einer „marginalen“ Änderung in einer Funktion. Bei einer Änderung von 1 ppm der Konzentration, wie ändert sich dann die Strahlungs-Effizienz?

An diesem Punkt ist es entscheidend, sich vor Augen zu führen, dass jedes andere Gas mit CO2 verglichen wird, um dessen GWP-Wert zu bestimmen. Mit anderen Worten, welcher GWP-Wert auch immer für CO2 bestimmt ist, wird jener Wert rückgesetzt auf 1, damit die Berechnung des GWP für ein Gas eine Zahl im Vergleich zu CO2 erzeugt. Die Steigung der Absorptionskurve für CO2 wird zum Divisor der Berechnung des GWP jedes anderen Gases.

Jetzt wollen wir jenen Divisor berechnen: Wenn die Absorptions-Funktion lautet exp (-X/A), dann ist es eine mathematische Tatsache, dass die erste Ableitung lautet [-1/A][exp(-X/A)]. Im Falle der CO2-Konzentration von 400 ppm beträgt die Steigung, wenn A 100 ppm ist, [-1/100][exp (-4)] = –0,000183. Das ist eine mächtig flache Kurve mit einer extrem geringen Steigung, die leicht negativ ist.

Als Nächstes untersuchen wir das Gas, das mit CO2 verglichen werden soll, und berechnen den Dividend:

Man muss erwähnen, dass die Berechnung des GWP auch einen Faktor enthält, der mit der atmosphärischen Lebensdauer eines jeden Gases in Relation steht. Dazu mehr im Anhang [hier nicht übersetzt]. Hier wollen wir uns auf die Änderung der Absorption konzentrieren bei einer geringen Änderung der Konzentration. Die Steigung der Absorptionskurve wird vergleichsweise steil sein, weil jenes Molekül in niedriger Konzentration vorliegt und in der Lage ist, alle Photonen einzufangen, die auf seinem Weg liegen.

Um es numerisch zu erfassen, wollen wir Methan (CH4) mit einer atmosphärischen Konzentration von etwa Y = 1,7 ppm annehmen, die N2O-Konzentration mit Z = 0,3 ppm. Deren numerische Koeffizienten sind vielleicht B ~ 50 oder C ~ 150; sie werden nicht sehr weit entfernt liegen vom Wert von A für CO2. Die erste Ableitung ergibt dann [-1/B][exp{-Y/B)]. Man schaue genau hin: mit Y oder Z so dicht bei Null wird der Exponentialfaktor nahe 1 liegen. Damit wird die Ableitung lediglich zu 1/B (oder 1/C, usw). Vielleicht beträgt jene Zahl 1/50 oder 1/150 – aber sie wird nicht so klein sein wie 0,000183, also die Steigung, welche im Nenner erscheint.

Tatsächlich ist der Divisor (die Steigung der CO2-Kurve, wenn sie nahe der Sättigung ist) garantiert um einen Faktor von etwa [exp(-4)] kleiner als der Zähler – aus dem sehr einfachen Grund, weil es ~ 400 mal so viel CO2 gibt und dessen Job als Photonen-Absorbierer weitgehend getan ist.

Wenn ein normal großer Dividend durch einen kleinen Divisor geteilt wird, wird der Quotient immer größer. Das GWP für ausgewählte Gase ergibt dann sehr große Zahlen, wie etwa 25 für CH4 und 300 für N2O. Der Faktor der atmosphärischen Lebenszeit macht einige dieser Zahlen noch größer: einige FCKWs (Freon) haben gigantische GWPs: HFC-134a (verwendet in den meisten Auto-Air-Conditioners), schlägt mit einem GWP über 1300 zu Buche. Das IPCC nennt eine Fehler-Bandbreite von ±35% bzgl. dieser Schätzungen. Die Wirklichkeit jedoch ist, dass jeder einzelne der berechneten GWP-Werte enorm aufgebläht ist infolge der Division durch einen extrem kleinen Divisor assoziiert mit der Steigung der CO2-Absorptionskurve.

Die Berechnung des GWP ist nicht so sehr eine Warnung bzgl. anderer Gase, sondern eher eine Anklage gegen CO2, welches (bei 400 ppm) seine Absorption nicht nennenswert ändert, falls die CO2-Konzentration um 1 ppm ab- oder zunimmt.

C.Das dritte Beispiel sind die Schätzungen des „Rückkopplungs-Effektes“ in den Computermodellen der globalen Erwärmung

Der Terminus „Klimasensitivität“ drückt aus, wie stark die Temperatur steigen wird, falls sich die CO2-Konzentration verdoppelt. Ein relevanter Parameter bei der Berechnung ist der „Strahlungsantrieb“ [radiative forcing], welcher entweder mit oder ohne Rückkopplungseffekte assoziiert mit Wasserdampf in der Atmosphäre bearbeitet werden kann. Lässt man viele Details außen vor, involviert der Fall „keine Rückkopplung“ einen Faktor l, welcher die Stärke des Erwärmungseffektes von CO2 charakterisiert. Aber mit Rückkopplung ändert sich dieser Faktor zu [ l /(1 – bl)], wobei b die Summe ausgewählter Rückkopplungs-Terme ist wie etwa die Reflektion von Strahlung durch Wolken und andere physikalische Vorgänge; jedem davon wird eine numerische Quantität zugeteilt. Der Wert von 1 neigt dazu, etwa 0,3 zu betragen. Die gesammelte Summe der Rückkopplungs-Terme ist stark variabel und Gegenstand heißer Diskussionen, aber in den vom IPCC in früheren Jahren verwendeten Computermodellen neigt der Wert von b dazu, etwa b = 2,8 zu betragen.

Man beachte, dass wenn l ~ 1/3 und b ~ 3 der Nenner Null wird. Für den speziellen Fall von l = 0,3 und b = 2,8 wird der Nenner zu 0,16 und der „Rückkopplungs-Faktor“ zu 6,25. Es war jener kleine Nenner und der als Folge übertriebene Rückkopplungs-Faktor, welcher die Schätzung der „Klimasensitivität“ von unter 1°C ohne Rückkopplungen auf alarmierend große Schätzungen der Temperaturänderung getrieben hat. In einigen Zeitungen war von einer „Zunahme der globalen Temperaturen um 5°C“ die Rede. Niemand hatte auf die numerischen Details geachtet.

Während der letzten Jahre haben sich die Kenntnisse verschiedener positiver und negativer Beiträge zu Rückkopplungen verbessert, und der Wert der Summe b fiel auf etwa 1, was den Rückkopplungs-Faktor auf etwa 1,4 reduzierte. Der vor 30 Jahren geschätzte Wert der „Klimasensitivität“ betrug 3°C ± 1,5°C. Heute spricht das IPCC vorsichtig von einer projizierten Klimasensitivität als „nahe dem unteren Ende der Bandbreite“ liegend. Diese ernüchternde Revision kann zurückverfolgt werden auf die Änderung eines kleinen Divisors zu einem normalen Divisor.

Unter dem Strich: Aus all dem ergibt sich, dass man auf kleine Divisoren achten muss.

Jedweder am Fließband erstellte numerische Faktor ist zunehmend bedeutungslos, wenn der Divisor kleiner wird.

Wenn bei der Berechnung einiger Parameter (wie etwa „Klimasensitivität“ oder „Globale-Erwärmung-Potential“ oder „Happy Planet Index“) ein kleiner Divisor involviert ist, glaube man diese Werte nicht. Derartige Parameter haben keine Bedeutung und keinen anderen Zweck als die Erzeugung von Schlagzeilen und Alarm zu schlagen.

[Im Original folgt jetzt ein recht theoretischer Anhang über den Zeitfaktor im „Globale-Erwärmung-Potential“, auf dessen Übersetzung hier verzichtet wird. Das Wesentliche ist oben gesagt. Anm. d. Übers.]

Link: https://wattsupwiththat.com/2018/05/25/climatic-distortions-due-to-diminutive-denominators/

Übersetzt von Chris Frey EIKE




Augen zu und vorwärts in die Vergangen­heit!

Ich bitte dich, komm sei so gut, mach meine heile (Energie-)Welt kaputt …

Ein Artikel unter dieser Überschrift erschien am 18.11.2016 auf EIKE [1]. Schon damals ging es um die „Neuen Energien“ und die unmissverständliche Forderung „maßgeblicher Intelligenz der Zeitgeschichte“ zur Zerschlagung des bewährten, deutschen Stromsystems nach dem Motto: „Macht es kaputt, aber bitte mit genauer Planung“. Leider hat sich daran bisher nichts geändert, wie ein Interview mit C. Kemfert in den nordbayerischen Nachrichten erneut zeigt.

Jeder ist Teil der Energiewende“, Interview mit C. Kemfert

Warum sich eher lokal orientierte Zeitungen inzwischen bemüßigt fühlen, für ihre Leser „große Probleme dieser Welt“ durch überforderte Redakteur*innen mit eigenen Artikeln anzugehen, bleibt ein Rätsel. Die SZ scheitert regelmäßig daran, warum sollte es dann ihrem kleineren, geistigen Pedant in Bayerns Norden besser gelingen?

Jedenfalls durfte eine Redakteurin Isabell Krieger, die Fachfrau, nicht nur fürs Klima: Klima-Expertin Claudia Kemfert: Wie lebt die Frau, die alles weiß?,
sondern vor allem für Neue Energien [3] für eine „Lokalausgabe“ der nordbayerischen Nachrichten interviewen [2].
Warum, ist nicht ersichtlich. Es könnte aber einfach zur Strategie: „steter Tropfen höhlt den Stein“, gehören, um den Bürgern im Auftrag der Obrigkeit (und der wohl fast durchgängig der CO2-Theorie hörigen Redakteur*innen-Mannschaft) das erforderliche Untertanenwissen einzuhämmern.

Für C. Kemfert war es die Gelegenheit, alle von ihr bekannten Statements aus dem EEG-Neusprech ohne einen auch nur im Ansatz neuen Gedanken mantragemäß zu wiederholen. Die Redakteurin zeigte, dass es viele Personen gibt, welche solche kritiklos glauben und sie selbst auch keine Hemmungen hat, es den Lesern zu zeigen.

Damit ist sie nicht alleine. Ein Interview mit fast gleichem Thema und Inhalt bereits vor einem Jahr mit einer anderen Zeitung geführt und lässt sich im WEB nachlesen [10].

C. Kemferts Agumentation (er)schöpft sich aus einer „Ursuppe“

Wer sich nur etwas in die Publikationen dieser Fachfrau einliest, erkennt schnell eine argumentative „Ursuppe“, und daraus aufbauendes, ständiges Wiederholen. Wer den Artikel nicht bis zum Ende durchlesen möchte, findet deshalb in diesem Absatz bereits alles Wesentliche.
DIW WOCHENBERICHT NR. 46/2016 VOM 16. NOVEMBER 2016 C. Kemfert: Trumps Klimapolitik: Augen zu und vorwärts in die Vergangenheit!
Für die internationale Energie- und Klimapolitik ist das Ergebnis der US-Präsidentschaftswahl ein Desaster. Donald Trump steht für die Vergangenheit. Er kämpft für die Energiepolitik von gestern oder besser: Er kämpft für die Energiepolitik von vor 25 Jahren. Alles, was damals gut schien, will er möglichst lang konservieren: Kohle, Atom und Öl. Zukunft findet für ihn nicht statt …
… Das Rennen um die zukunftsweisenden Technologien hat jedoch bereits begonnen. Kohle- und Atomtechnologie gehören gleichermaßen der Vergangenheit an. … Und die Treibhausgase
(Anm.: Von Kohlekraftwerken) verschmutzen trotz modernster Filter nicht nur die Umwelt, sondern belasten in erheblichem Umfang das globale Klima.
Die künftige Energiewelt ist dezentral. Sie basiert auf einer klugen Vernetzung volatiler erneuerbarer Energien, flexibler Speicher und intelligenter Energiemanagement- und EinsparTechnologien. Die Methoden und Techniken des 20.Jahrhunderts sind dafür nicht mehr geeignet, weil sie auf zentralen und inflexiblen Strukturen basieren. Wenn eines klar ist, dann das: Kohle- und Atomkraftwerke sind den Anforderungen an die Flexibilität des Stromsystems nicht gewachsen …
… Und auch wirtschaftlich steckt die neue Energiewelt voller Chancen. Kalifornien macht es vor: Es baut die weltweit besten Elektroautos, stellt Batteriespeicher vor und will künftig Solarziegel für das Hausdach anbieten. So geht Energiewende: demokratisch, zukunftsorientiert und ökonomisch effizient …
… Aber das krampfhafte Festhalten an Kohle und Atom wird die auch in den USA unvermeidliche Energiewende teurer machen. …
… Der eigentliche Verlierer ist jedoch das globale Klima. Die Folge von Trumps Politik sind ein unbeherrschbarer Klimawandel und sich häufende Klimaextreme, wodurch die Zahl der Klimaflüchtlinge steigen wird. Ein ungebremster Klimawandel wird auch volkswirtschaftliche Schäden nach sich ziehen.
Im weiteren Verlauf wird man sehen, wie sich aus dieser Essenz praktisch alle „Argumentationen“ von Frau Kemfert zusammensetzen lassen.

Wenn die gesamte Reputation lediglich auf einer unbewiesenen Theorie beruht

Wer es sich antut, die Antrittsvorlesung der Professorin C. Kemfert durchzulesen [6] – eine einzige Allegorie über das kommende und sichere Verderbnis durch den menschengemachten Klimawandel -, dem ist sofort klar, warum diese Frau (wie viele, viele anderen in diesem Umfeld) ihre Thesen immer und immer wieder herunterbetet.
Würde sich an der von ihr bedingungslos – fast schon hysterisch – vertretenen CO2-Theorie nur ein kleiner Fehler zeigen (zum Beispiel die Überbewertung des Forcings [11]), fielen ihre ganzen, ausschließlich darauf aufbauenden Theorien und Arbeitsergebnisse – und damit ihre gesamte Reputation und Lebenswerk – in sich zusammen.
Humboldt-Universität zu Berlin, wirtschaftswissenschaftliche Fakultät, Claudia Kemfert, Antrittsvorlesung 1. Dezember 2004: [6] Fünfzig Jahre nach morgen wo werden wir sein? Die ökonomischen Kosten des Klimawandels
… Durch die immer weiter steigenden und durch den Menschen verursachten Treibhausgasemissionen wird ein Klimawandel erzeugt. Die wesentlichen Auswirkungen des Klimawandels sind der Anstieg der globalen Durchschnittstemperatur und des Meeresspiegels sowie die Zunahme extremer Wetterereignisse und Naturkatastrophen, welche enorme volkswirtschaftliche Schäden verursachen … Es ist abzusehen, dass der vom Menschen verursachte Klimawandel langfristige, irreversible Schäden verursachen wird, die die natürlichen Lebensgrundlagen gefährden …

In einem jüngeren Interview bestätigt sie ihre damalige Überzeugung:
Zeit Online 20. April 2017 Claudia Kemfert: [10]Was wäre denn die Alternative? Die Kosten für die möglichen Klimaschäden, wenn wir nicht handeln, sind unvergleichlich höher. Ganz abgesehen von den geopolitischen Risiken, also von Konflikten, Gewalt und Migration, die durch den Klimawandel entstehen können.
(ZEIT ONLINE) … Ihre Argumente sind nicht neu, aber immer weniger Menschen scheinen sie zu glauben oder ernst zu nehmen.
C. Kemfert) … Wenn den Menschen jeden Tag erzählt wird, die Welt sei eine Scheibe, zeigt das irgendwann Wirkung. Da ist die Wissenschaft gefordert, gegenzuhalten – und die Bürger müssen sich gründlich informieren, etwa indem sie ihre Quellen kritisch prüfen, statt den Populisten einfach zu glauben.
Anmerkung: Frau Kemfert glaubt bedingungslos dem IPCC [6] und wohl auch dem PIK (da sie mit Herr Prof. Graßl, einem ausgewiesenem Klimaaktivisten und Vorsitzender der Gesellschaftervertretung des PIK), gemeinsam die Plattform Klimareporter betreibt).
Dass alle, welche ihrem festen Glauben an Klima- und Klimasimulationsgurus nicht blind mit anhängen, einfach auf „Populisten“ hereingefallen sein sollen, zeigt erneut ihren eklatanten Mangel an fachlich fundierten Argumenten, was bei unserer „Intelligenz“ inzwischen jedoch offizielle Überzeugung geworden ist [13].

[2] DIW-Expertin Kemfert über alte Zöpfe, vermurkste Politik und die Rolle der Verbraucher

Das Interview [2] beginnt. Das „Wir“ der Redaktion und Frau Kemfert sind sich schon zu Beginn darüber einig, dass man der vollkommen gleichen Meinung ist und als Redaktion lediglich für die Leser eine „Absegnung“ der Redaktionsüberzeugung durch sie als medial (und seitens ihrer Argumentation) bekannte Person haben möchte.
Interview: [2] …
Deutschland darf die Change zur Energiewende nicht verpassen, sagt C. Kemfert, die Folgen wären sowohl wirtschaftlich wie auch ökologisch katastrophal. Wir sprachen mit der anerkannten Energieexpertin darüber, was getan werden muss, um ein Scheitern zu verhindern.
Warum das mit der Katastrophe so sein sollte, kann man dem gesamten Interview dann nicht entnehmen. Es ist einfach so, weil es die Expertin sagt. Die Fragestellung, warum ausgerechnet eine Wirtschaftswissenschaftlerin besonderes Fachwissen zur technischen Energie haben sollte, ist sowieso obsolet und gehört sich wohl auch nicht. Wahrscheinlich wäre es auch diskriminierend.
Zudem weiß Frau Kemfert mit „klug, intelligent, dezentral, Flexibilität, Dynamik, Transformation, Digitalisierung“ verblüffend viele, Energielaien wohl sehr intelligent erscheinende Sätze zu bilden und kann belegen, damit viele Auszeichnungen, Titel und Ämter erlangt zu haben (Claudia Kemfert, Biografie).
Irgend etwas muss an dieser Fachfrau also Besonderes „dran“ sein. Denn die ihren Darlegungen glaubende Masse (vor allem unsere Medien) kann doch nicht ewig falsch liegen, auch wenn es der Autor bisher immer noch nicht erkannt hat [3] [4].

Alte Zöpfe müssen abgeschnitten werden

Interview: [2] C. Kemfert Wir benötigen ein Energiesystem, das mit erneuerbaren Energien dezentral, lastnah und intelligent Energie herstellt und verbraucht. Eine kluge Energiewende hält nicht möglichst lang künstlich das konventionelle Energiesystem aufrecht. Alte Zöpfe müssen abgeschnitten werden. Je konsequenter wir uns vom alten System verabschieden und das neue und intelligente System aufbauen, desto klüger.

Leider zeigt sie im Interview dann keine tiefer gehende Darstellung darüber, warum das konventionelle System schlecht ist und das neue besser sein soll. Am Beispiel einer ihrer typischen „Studien“ soll es deshalb gezeigt werden. Außer Allgemeinplätzen, ihren beliebten „Neusprechfloskeln“, Wünschen anstelle von Fakten und viel Ideologie ist darin fast nichts zu finden, und natürlich die Order: Das „Alte“ muss weg:
Matthias Machnig und C. Kemfert: [7] Richtung wechseln, Energie neu denken – das Stromsystem fit machen für das 21. Jahrhundert
… Wenn es um die Erhöhung der Kosteneffizienz geht, geht es also weniger um die Herstellung von „Marktfähigkeit“, sondern in erster Linie um die Optimierung der Förderung der EE und neue Flexibilisierungsoptionen …
Zweitens: Die Erneuerbaren Energien müssen nicht in das bestehende Stromsystem integriert werden. Vielmehr muss umgekehrt ein neues Stromsystem an den steigenden Anteil der Erneuerbaren Energien angepasst werden. Denn das Stromsystem der Zukunft wird wesentlich auf den fluktuierenden Technologien Wind und Photovoltaik als den kostengünstigsten EE-Technologien basieren und bedarf daher einer fundamentalen Neuordnung …
Es muss darum gehen, alle Teilbereiche des Stromsystems – Erneuerbare Energien, fossile Kraftwerke, Stromnetze, Nachfrage und in Zukunft verstärkt auch Stromspeicher – intelligent zusammenzuführen und so das Stromsystem smart und zukunftsfähig zu machen. Denn bisher agieren diese zentralen Elemente des Stromsystems weitgehend separat voneinander bzw. neben einander her. Eine der dringlichsten Aufgaben der kommenden Bundesregierung ist es aber, diese zu einem sinnvollen Zusammenspiel zu bringen, sodass sie, aufeinander abgestimmt, gemeinsam ein effizientes, versorgungssicheres und kostenminimierendes Stromsystem bilden …
So sollten Windkraftanlagen künftig gleichmäßiger Strom erzeugen, d.h. durch eine bessere Auslegung des Generator-Rotor-Verhältnisses auch in Schwachwind-Situationen Strom produzieren können. Photovoltaik-Anlagen sollten künftig mehr in Richtung Ost-West ausgerichtet sein, anstatt alle in Richtung Süden. So können die Mittags-Peaks gemildert und Strom kontinuierlicher erzeugt und eingespeist werden …
Die vormarktliche Verknüpfung von Wind- und PV-Anlagen mit Flexibilisierungsanlagen, z. B. Biogasanlagen mit Gasspeichern muss erreicht werden, z.B. über Pooling in virtuellen bzw. Hybrid-Kraftwerken. Pooling erlaubt auch kleineren EEAnlagen die Teilnahme an der Direktvermarktung. Perspektivisch können PV-Großanlagen am Regelenergiemarkt die Eigenschaften bisheriger konventioneller Großkraftwerke ersetzen, wenn sie in virtuelle Kraftwerke eingebunden oder mit Speichern gekoppelt werden. Biogas und Wind Offshore können bereits heute Regelenergie liefern …
… besonders bei der Stromerzeugung durch Wind Offshore muss eine stärkere gesamtwirtschaftliche Betrachtung erfolgen und sich in der Art der Förderung niederschlagen. Wird diese Erzeugungsform, die nicht nur regional- und strukturpolitisch erhebliche Chancen bietet, sondern durch ihre vergleichsweise stetige Stromproduktion auch einen hohen Beitrag zur Systemstabilität leisten kann, nicht mehr nur allein unter energiewirtschaftlichen Gesichtspunkten gefördert, wird es auch zu Entlastungen bei der EEG-Umlage kommen.
… Speicher können den fossilen Must-RunSockel senken, indem sie Systemdienstleistungen übernehmen. Möglich sind z.B. Schwungmassenspeicher für Kurzschluss- und Blindleistung (vgl. Biblis A), Kondensatorspeicher für Blindleistung, Batteriespeicher (u.a. für Regelleistung). Dies erhöht die Systemstabilität und die Aufnahmekapazität des bestehenden Netzes für EE.
Durch die vielen Neusprechbegriffe ist es einem Laien fast nicht mehr möglich, sich bis zum Aussagekern durchzugraben. Entsprechend fällt den Wenigsten die technische Inhaltsleere solcher Pseudo-Argumentationen auf.

Zudem haben wir große Stromangebots-Überkapazitäten

Interview: [2] C. Kemfert … Heute liegt der Anteil erneuerbarer Energien bei über 30 %, zudem haben wir aufgrund des fehlenden Kohleausstiegs große Stromangebotsüberkapazitäten. Schon heute könnten wir alle restlichen Atomkraftwerke abschalten, ohne dass in Deutschland die Lichter ausgehen würden …
Welche – man darf sagen: Falschinformation – hinter dieser Antwort steckt, wurde in einem Artikel aufgrund einer gleich falschen Aussage der „Inkompetenz-Ministerin“ (damals noch im Amt) bereits detailliert beschrieben:
EIKE 7. Januar 2018: Ministerin Hendricks: Wir haben im Gegenteil sogar gigantische Stromüberschüsse
Daraus Daten:
Im Jahr 2017 waren ca. ca. 72 GW konventionelle, installierte Leistung im Netz dauernd verfügbar (85 % der Brutto-Anschlussleistung).
-Der Maximalbedarf schwankt zwischen 70 … 80 GW
-Die EEG-Einspeisung kann in Flautezeiten über längere Zeit bis auf 10 GW sinken:
EIKE 22. Januar 2018: [7] Am 11. Januar 2018 brach das EEG-System Deutschlands das erste Mal in der Geschichte vollständig in sich zusammen

Wären die Kernkraftwerke bereits abgeschaltet und zu einem unglücklichen Zeitpunkt die 80 GW benötigt, wäre überhaupt keine Reserve mehr vorhanden, teilweise Strom sogar fehlend. Dabei ist als erhebliche Einschränkung noch zu bemerken, dass der Strom auch über die Leitungen von allen Erzeugern an alle Verbraucher geleitet werden muss, was überregional derzeit nicht funktioniert. Dazu müssten alle konventionellen Kraftwerke auf Maximale Leistung hochgefahren sein.
Von „große Stromangebotsüberkapazität“ kann damit nur jemand reden, dem es im Kern vollkommen egal ist, ob einer High-Tech-Nation genügend Energie zur Verfügung steht und der/die weiß, dass die gegenüber sitzende Person keine Ahnung vom Thema und den Zahlen hat.
Was ein Laie mittels Excel nachrechnen kann, finden „Energieexpert*innen“ nicht heraus, einfach, weil es nicht in das schöne Ausstiegskonzept passt.
Nur manchmal haben Verantwortliche Angst davor, dass das, was sie selbst mit unterstützen und verursachen, ihnen doch noch zu Zeiten in denen sie haftbar gemacht werden könnten um die Ohren fliegt. Vorsichtshalber erklären sie deshalb früh genug dass sie für ihre Taten nicht verantwortlich sind, um hinterher ihre frühzeitige Opposition zeigen zu können:
WELT 23.04.2018: Die deutsche Energiewende verliert ihren Risikopuffer
Die Erneuerbaren Energien können sich nicht mehr auf die Absicherung durch konventionelle Kraftwerke verlassen, warnt die Strombranche. Um eine Unterdeckung abzuwenden, müsse die Politik sofort handeln. Ansonsten sei die Netzstabilität nachhaltig gefährdet …
BDEW-Hauptgeschäftsführer Stefan Kapferer … Bereits heute sei absehbar, dass es Ende 2022 nicht mehr genug konventionelle Kraftwerke geben werde, um den Ausfall der erneuerbaren Energien, etwa während einer „kalten Dunkelflaute“ im Winter, vollständig zu kompensieren. „Die heute noch bestehenden Überkapazitäten werden in wenigen Jahren nicht nur vollständig abgebaut sein“, warnte Kapferer. „Vielmehr laufen wir sehenden Auges spätestens im Jahr 2023 in eine Unterdeckung bei der gesicherten Leistung.“
Dabei zeigt der Verband große Variabilität in seinen Forderungen und Thesen. Schließlich muss man den Spagat schaffen, früh genug vor den kommenden Problemen gewarnt zu haben, gleichzeitig aber auch die dazu führende Politik in Berlin ausreichend zu hoffieren. Schließlich bestimmen die kommunalen Politiker in den Aufsichtsgremien aktuell über die Vorstandsgehälter. Nur wenn man diese erst einmal ausreichen hoch zugestanden bekommen hat, lassen sich die kommenden Probleme dann geruhsame aussitzen.
Erneuerbare Energien 30.11.2017: BDEW schlägt schnelleren Ausbau der Erneuerbaren vor
Der Bundesverband der Energie- und Wasserwirtschaft hat eine Studie zum Beitrag der Stromwirtschaft zur Senkung der Treibhausgasemissionen veröffentlicht. Neben der Abschaltung zusätzlicher Kohlekraftwerke mit einer Gesamtleistung von fünf Gigawatt muss vor allem der Ausbau der Ökostromversorgung schneller vorwärts gehen. Der Verband gibt schon mal einen ersten Hinweis, wie das realisiert werden kann.

Können die erneuerbaren Energien zusätzlichen Bedarf auffangen?

Kenntnislose Interviewer*innen lieben es, auf eine ungelöste, aber positiv beantwortete Frage, noch etwas draufzusetzen.
Interview: [2] … Die Digitalisierung wird den Strombedarf weiter in die Höhe treiben. Können die Erneuerbaren Energien das auffangen?
(C. Kemfert) … Die erneuerbaren Energien können durchaus den gesamten Bedarf abdecken, sie dürfen aber nicht wie bisher ausgebremst werden.
Hätte man von der Fachfrau eine andere Antwort erwartet? Irgendwie kann man immer alles abdecken. Es wurde ja nicht gefragt, wie (katastrophal) es dann aussehen (und was es kosten) würde.
Und es fiel der Interviewerin auch eine Zusatzfrage ein. Frau Kemfert hatte darauf wohl gewartet und sprudelte richtig los:
Interview: [2] … Wie muss Ihrer Meinung nach die Energiewende aussehen:
(C. Kemfert) … Wie benötigen ein Energiesystem, das mit erneuerbaren Energie dezentral, lastnah und intelligent Energie herstellt und verbraucht. Eine kluge Energiewende hält nicht möglichst lang künstlich das konventionelee Energiesystem aufrecht. Alte Zöpfe müssen abgeschnitten werden. Je konsequenter wir uns vom alten System verabschieden und das neue und intelligente System aufbauen, desto klüger.

Zudem zahlen wir … für alte Kraftwerke … die in Reserve vorgehalten werden, obwohl man sie nicht braucht …

Interview: [2] … Eine Kernkritik an der Energiewende ist, dass die Strompreise für die Verbraucher weiter steigen. Was halten Sie dagegen?
(C. Kemfert) Die Strompreise steigen wegen der vermurksten Energiewende, da wir zu lang am alten System, vor allem an Kohlekraftwerken festhalten. Die Überkapazitäten durch Kohlekraftwerke führen zu niedrigen Strompreisen an der Börse und somit unverhältnismäßig stark steigenden EEG-Umlagen …. Zudem zahlen wir nicht nur „Kohleabwrackprämie“ für alte Kraftwerke, die sowieso vom Netz gehen, sondern auch, die in Reserve vorgehalten werden, obwohl man sie nicht braucht … Wenn man mehr auf erneuerbare Energien setzt und weniger auf das fossile System setzt, wird es auch für die Verbraucher billiger.

Wie üblich, tauscht Frau Kemfert hier gekonnt Ursache und Wirkung, um die Probleme in ihrem Sinn erschienen zu lassen.
Früher verkündete sie, dass billige Börsenstrompreise – so sie an die Verbraucher weitergegeben würden – den Ökostrompreis verbilligen würden:
[7] The Europien C. Kemfert 14.07.2014: Billiger Sündenbock
… Öko-Energie wird somit zu Unrecht als alleiniger Preistreiberin stigmatisiert. Schon heute könnte der Strompreis sinken, wenn auch die niedrigen Strombörsenpreise an die Verbraucher weiter gegeben werden würden.
Damals verschwieg sie, dass der private Stromkunde die hohe Einspeisevergütung ja bereits bezahlt hat und ein niedrigerer Börsenstrompreis dem privaten Stromkunden keine Verbilligung bringen kann.
Inzwischen scheint sie „klüger“ geworden zu sein. Nun „erkennt“ sie genau dies plötzlich auch („
stark steigenden EEG-Umlagen“).
Allerdings erzählt sie weiter bewusst ihre (gern gehörte) falsche Ableitung daraus. Denn nicht die Überkapazität durch Kohlekraftwerke führt zum negativen Strompreis, sondern alleine die gesetzliche EEG-Vorrangeinspeisung.
Die Redakteurin fragt auch vorsichtshalber nicht nach, warum zu den „alten Zeiten“ des Kohle- und Atomstromes der Strompreis in Deutschland so niedrig war, wenn genau diese billigen Stromerzeuger – welche zwangsweise immer weniger werden – laut Frau Kemfert den Strompreis in die Höhe treiben sollen.
Wer es wissen möchte:
Kohle- und Atomstrom kosten ca. 4 ct/kWh. Für die Solareinspeisung wurden über viele Jahre Eispeiseverträge zu 55 ct/kWh mit 20 Jahren gesichertem Vergütungszeitraum abgeschlossen, bevor diese exzessive Übersubventionierung langsam reduziert wurde. Für Windkraft war es ähnlich, nur nicht ganz so exzessiv, für Biogas ebenfalls. Das wirkt immer noch massiv nach. Alleine daraus ergibt sich schon eine Ahnung, wer den Strompreis wirklich in die Höhe getrieben hat?

Dass Frau Kemfert die konventionellen Grundlastkraftwerke – ohne die unser Stromsystem täglich zusammenbrechen würde – der Redakteurin als „ … obwohl man sie nicht braucht … „ unwidersprochen erzählen kann, zeigt nur die hoffnungslose Überforderung auf einer Seite.

Wir brauchen Mindestkapazitäten gegen Blackouts genauso wenig wie Butterberge gegen den Hunger

Diese Hoffnungslosigkeit ist bei unseren Medien leider weit verbreitet, wie es das vergleichbare Interview zeigt:
Zeit Online 20. April 2017: [10] Kemfert: Der Mythos Grundlast! Kohlekraftwerke seien nötig, um die Versorgung sicherzustellen: Das wird gern behauptet, ist aber falsch. Wir brauchen Mindestkapazitäten gegen Blackouts genauso wenig wie Butterberge gegen den Hunger. Und wir brauchen für die erneuerbaren Energien auch keinen Netzausbau …
Das sind Darstellungen, wegen der ein Fachmann für Energietechnik jeden Studen*in wegen zu offensichtlicher, fachlicher Unfähigkeit durchfallen lassen würde. Nicht so unsere Medien und die Verteiler von Ämtern und Preisen.

Den letzten Satz (vom aktuellen Interview) zu kommentieren, erspart man sich besser. Ein Blick auf die EU-weiten Stromkosten zeigt, wer die höchsten in Europa hat: Deutschland steht inzwischen an erster Stelle neben Dänemark, welches ebenfalls stark auf EEG-Energie setzt. Frankreich mit seiner „veralteten“ Atomkraft liegt bei der Hälfte.

Erneuerbare Energien und Energiesparen ist das Dream-Team der Energiewende …

weiß Frau Kemfert zu berichten. Nur das Warum sagt sie nicht gleich dazu: Einmal, weil die Strompreise so explodieren, dass sich viele die Energie nicht mehr leisten können und dann, weil sie aufgrund der hochvolatilen Einspeisung ganz einfach häufig fehlt. Nur wer „keine benötigt“, merkt davon theoretisch nichts.
Interview: [2] C. Kemfert) …
Wir benötigen einen deutlichen Ausbau der Erneuerbaren Energien, ein Umbau des gesamten Energiesystems hin zu mehr Dezentralität, Flexibilität, Dynamik und Intelligenz samt Digitalisierung …
Wieder ein durch viele Neusprechbegriffe aufgeblähter „Schwurbelsatz“ wie schon öfter im Interview. Ergänzen müsste sie jetzt nur noch die Begründung, damit ein Schuh daraus wird: Das bisherige Energiesystem war sorgfältig auf Stabilität bei vergleichsweise niedrigen Kosten ausgelegt. Gute Ingenieure vermieden instabile Elemente und minimierten den Regelungsbedarf. Das Ergebnis war weltweit bewundert.

Das EEG-System hat nichts mehr davon. Es ist aus Prinzip, da ausschließlich Wetterbedingt und von Tag-/Nacht abhängig unstabil. Man versucht deshalb verzweifelt, durch aufwendige Regelungstechnik – die sich vor allem mit Not-Lastabwurf-Techniken und teuren, verstellbaren Ortsnetztrafos erschöpft – etwas Stabilität zu erzeugen. Es gelingt (noch), mit hohen Kosten.
Es gibt dazu einen guten Vergleich in der Technik: Verkehrsflugzeuge sind auf stabiles Fliegen und wenig Verbrauch optimiert. Als Ergebnis fallen sie auch selten herunter. Kampfjets dagegen sind bewusst unstabil, da sie wendig sein müssen. Ohne eine ausgefeilte Regelung im Hintergrund wären sie nicht steuerbar. Das reicht aber nicht, entsprechend oft fallen sie unfreiwillig aus dem Luftraum. Der Verbrauch interessiert ebenfalls wenig. Notfalls lädt man Zusatztanks, die dann abgeworfen werden.
Genau das Gleiche macht man im EEG-System. Im Kampf gegen den Klimawandel wird es zum teuren, instabilen Kampfjet umgebaut, dem der ursprüngliche Sinn eines preiswerten, stabilen, mit Reserven versehenen Energiesystems verloren gegangen ist.
Ob das ein wirklicher Fortschritt ist, mag jeder selbst entscheiden. Es spült den an den erforderlichen Investitionen und Forschungen Beteiligten jedoch sonst nie gekommene, extreme Investitionsvolumen in die Auftragsbücher. Entsprechend enthusiastisch ist deren Unterstützung dafür.

Angebot und Nachfrage in Echtzeit aufeinander abstimmen

Das Interview ist noch nicht zu Ende. Nun muss man den Lesern noch zeigen, dass Frau Kemfert wirklich auf alles eine sichere Antwort weiß?
Interview: [2] …
Für Solarmodule auf den Dächern können sich viele Menschen … noch erwärmen, für Windräder viele nicht … Was sagen Sie dazu?
(C. Kemfert) Durch eine kluge Steuerung von schwankenden erneuerbaren Energien, der engen Verzahnung beispielsweise durch sogenannte virtuelle Kraftwerke und ein kluges Energiemanagement, das Angebot und Nachfrage in Echtzeit aufeinander abstimmt, kann die Versorgungssicherheit erneuerbarer Energien deutlich erhöht werden. Zudem werden mittelfristig auch mehr Speichertechnologien wichtig werden. Je mehr wir die Menschen einbinden, desto effektiver und effizienter wird die Energiewende.
Man erkennt schon bei diesem recht kurzen Interview immer deutlicher, dass sich die „Argumentation“ der Fachfrau im Kern auf penetrantes Wiederholen von Neusprechfloskeln reduziert. Selten findet sich ein sachlich fundierter Inhalt. Im Kern sind es ganz einfach nur Wünsche, die zu Glaubenssätzen hochstilisiert wurden.
Betrachte man die „virtuellen Kraftwerke“. Diese gibt es seit Langem. Es sind Modelle, um das Verkaufsproblem großer Anlagen zu lösen (Direktvermarktungspflicht) und um zusätzlich Geld durch Teilnahme am Regelmarkt einzunehmen. Eines bieten sie nicht: Den Ersatz konventioneller, grundlastfähiger Kraftwerke in größerem Maßstab.
Virtuelles Kraftwerk: Der Mark-E PowerPool
Seit 2007 betreiben wir bei Mark-E ein virtuelles Kraftwerk. Unter der Bezeichung PowerPool bündeln wir darin aktuell eine Gesamtleistung von rund 1.980 Megawatt (MW). Im Mark-E PowerPool profitieren Anlagenbetreiber von:
1. Direktvermarktung nach dem EEG
2. Teilnahme am Regelenergiemarkt

Nun zu ihrer folgenden Neusprechfloskel:
[2] „ … Energiemanagement, das Angebot und Nachfrage in Echtzeit aufeinander abstimmt“.
Das bisherige Energiesystem hat das schon immer gemacht. Beim Stromnetz ist es physikalisch unabdingbar, weil sich sonst weder die Spannung, noch die Frequenz halten lässt. Was soll also daran neu und „klug“ sein? Wohl die unvorhersagbaren Energieschwankungen im EEG-Netz. Da weiterhin – und auch mittelfristig – ausreichend Speicher fehlen, bedeutet „klug“ nun einfach, in der Not beim Überangebot die Erzeuger, und bei Unterangebot die Verbraucher abzuwerfen. So „klug“ ist man in allen Entwicklungsländern schon längst. Dort wird es im Stromnetzt täglich bereits über Stunden gemacht. Lediglich die Steuerungstechnik dazu ist dort mangels Geld und Ingenieurskunst vereinfacht ausgeführt. Vorbild ist jedoch die Idee, nicht die vom Geld abhängige Ausführung.
Wenn man diese Antwort vollständig „übersetzt“, dann hatte die untergegangene DDR bereits alle diese hoch-innovativen Eigenschaften in ihrem Energiesystem. Vor allem waren die Menschen damals mehr als nur „eingebunden“, sie waren durch eine Mauer dazu verdammt, es lange Zeit auszubaden.
Frau Kemfert ist nicht weit weg von solchen Gedanken.
(C. Kemfert) …
Ein „Weiter so“ wird es nicht geben … Als Nächstes sollte der Kohleausstieg angegangen werden. Dieser muss bald eingeleitet … Zudem muss schnellstmöglich eine nachhaltige Verkehrswende auf den Weg gebracht werden … Zudem sollen alle Treibstoffe auf Öko-Energien wie Öko-Wasserstoff oder aus erneuerbaren Energien hergestelltem Gas setzen.

Je größer der erzählte Unsinn wird, umso mehr wird er geglaubt

In vielen Artikeln zum EEG hat der Autor schon gezeigt, dass bei den NEUEN Energien der Wahnsinn Methode bekommen hat. Es gibt wirklich keinen noch so hanebüchenen Unsinn, den man bei diesem Thema nicht unter die Leute bringen kann (und der vom Staat in seiner offensichtlichen „Lösungsnot“ gefördert wird)
[10] ZEIT ONLINE: Wie ginge es denn besser?
Kemfert: Wir brauchen flexiblere, dezentrale Strukturen, auch auf regionaler Ebene. Digital gesteuerte Netze, durch die sich Stromangebot und Nachfrage flexibel aneinander anpassen. Die Erneuerbaren müssen so aufeinander abgestimmt werden, dass sie zu jeder Zeit Versorgungssicherheit garantieren können. Das geht auch mit Solar, Wind, Biomasse und Wasserkraft – und mit den entsprechenden Speichern.
Die Technik dafür gibt es: In Hamburg beispielsweise denkt man über einen riesigen unterirdischen Wärmespeicher nach, der Sonnenenergie aufnehmen soll, aber auch die Abwärme von Fabriken und Rechenzentren. Im Winter will man Wärme aus der überhitzten Elbe gewinnen. Wenn wir all die neuen Möglichkeiten nutzten, bräuchten wir weder Kohlekraftwerke für die Grundlast noch überdimensionierte, viel zu teure neue Stromleitungen zwischen Nord- und Süddeutschland.

Gerade die Speichertechnik hat es der Fachfrau Kemfert angetan. Lange erzählte sie, dass man gar keine benötigt:
forum Kuratorin Claudia Kemfert 25.06.2016: Weder Stromnetze noch Speicher beschränken den Ausbau der erneuerbaren Energien
Und nun ist sie auch eine derjenigen, welche jeden Strohhalm an „Speichervermutung“ ergreifen und als Lösung erzählen. Inzwischen macht sie sogar Werbung dafür [3].

Quellen

[1] EIKE 18.11.2016: Ich bitte dich, komm sei so gut, mach meine heile Welt kaputt…

[2] nordbayerische Nachrichten, Lokalausgabe vom 14.05.2018: „Jeder ist Teil der Energiewende“, Interview mit C. Kemfert

[3] EIKE 13.05.2018: Twitter macht es möglich, Unsinn in kürzester Zeit zu multiplizieren

[4] EIKE 20.05.2017: Das fossile Imperium schlägt zurück – oder: Wie eine Wissenschaftlerin ihre Reputation vernichtet

[5] Claudia Kemfert, Biografie

[6] Claudia Kemfert, Antrittsvorlesung 1. Dezember 2004: Fünfzig Jahre nach morgen wo werden wir sein? Die ökonomischen Kosten des Klimawandels

[7] Matthias Machnig und C. Kemfert: Richtung wechseln, Energie neu denken – das Stromsystem fit machen für das 21. Jahrhundert – für eine Integration von Erneuerbaren Energien, konventionellen Kraftwerken, Netzen und Stromnachfrage zu einem zukunftsfähigen Stromsystem
[8] EIKE 22. Januar 2018: Am 11. Januar 2018 brach das EEG-System Deutschlands das erste Mal in der Geschichte vollständig in sich zusammen

[9] The Europien C. Kemfert 14.07.2014: Billiger Sündenbock

Öko-Energie wird somit zu Unrecht als alleiniger Preistreiberin stigmatisiert. Schon heute könnte der Strompreis sinken, wenn auch die niedrigen Strombörsenpreise an die Verbraucher weiter gegeben werden würden.

[10] Zeit Online 20. April 2017 Claudia Kemfert: „Die fossile Industrie kämpft hart um ihre Pfründe

[11] DIW WOCHENBERICHT NR. 46/2016 VOM 16. NOVEMBER 2016 C. Kemfert: Trumps Klimapolitik: Augen zu und vorwärts in die Vergangenheit!
[12] kaltesonne 24. Mai 2018: Die Sonne im April 2018 und eine Nachlese der Diskussion um die Klimaempfindlichkeit gegenüber CO2

[13] EIKE 25.05.2018: Zu jedem Parteitag eine Freifahrt in der Klima-Geisterbahn

EIKE 24.05.2018: Das „natürliche“ Wetter einzuklagen, wird weltweit immer beliebter




Warmer Mai 2018 in Deutschland – eher ein Anlass zur Freude als zur Besorgnis

Langfristig nur unwesentlich wärmerer Mai

Für alle folgenden Grafiken sind die Daten des Deutschen Wetterdienstes in Offenbach (DWD) verwendet worden. Die bis 1881 reichende Messreihe des DWD- Deutschlandmittels lässt sich unter Zuhilfenahme der Reihe von FRANZ BAUR (leicht bei wikipedia einsehbar) bis 1761 verlängern:

Abb. 1: Andauernde Erwärmungstrends im Mai fehlen (21-jähriges Gleitmittel). Und die markanten Abkühlungsphasen Ende des 19. Jahrhunderts und von etwa 1960 bis 1980 lassen sich mit der steigenden CO2– Konzentration (Mauna Loa) nicht erklären. Der sehr milde Mai 2018 wird im Deutschland-Mittel nach Auswertung aller 2000 DWD-Klimastationen etwa 15,5 bis 15,9°C erreichen; wenige Zehntelgrad Abweichung ändern an der Aussage von Langzeitgrafiken nichts; der endgültige Wert wird vom DWD immer zum Monatsanfang des nächsten Monats bekannt gegeben.

Interessant sind weit zurückreichende Einzelstationen, allerdings haben sie genau den gleichen Nachteil wie die Baur-Reihe in Grafik 1, die Umgebung der Stationen hat sich in den über 200 Jahren durch menschliche Eingriffe wärmend verändert, ebenso wie der Standort. Die Station steht unter gleichem Namen an einem wärmeren Platz.

Beginnen wir mit der Station Berlin-Tempelhof, heute am Flugplatz wo früher ein Gutshof stand, der Tempelhof, der damals noch weit außerhalb des einst viel kleineren Berlins im ländlichen Brandenburg lag. Heute ist Tempelhof zu einem Stadtteil mit über 60.000 Einwohnern angewachsen. Die Maisonne wärmt vor allem die Landbahnen des Flugplatzes, nachts wird die gespeicherte Wärme wieder an die Umgebung abgegeben. Ältere Leute kennen das Prinzip von der früheren gebräuchlichen Bettflasche.

Die Messreihe geht einigermaßen zuverlässig bis 1756 zurück, die Werte davor sind eigentlich nicht brauchbar. Nur zur Einordnung, Mozart wurde 1756 geboren und in Preußen regierte Friedrich, der später wegen seiner vielen erfolgreichen Eroberungs- und Raubkriege den Beinamen der Große erhielt.

Abb. 2: Zwei Dinge fallen auf: Der Mai wurde kaum wärmer, der unbedeutende Anstieg dürfte eine reine Wärmeinselerwärmung aufgrund der Standortverlegung und wärmenden Veränderung sein. Und: Die wirklich warmen Maimonate liegen lange zurück. Der Mai 2018 in der Großstadt Berlin ordnet sich lediglich deutlich über dem Durchschnitt und deutlich wärmer als 2017 ein. Der Grund dafür dürfte in der Zahl der Sonnenstunden liegen, die 2018 in Berlin deutlich über dem Soll lagen.

Wir wollen auf einen weiteren Punkt hinweisen. Der DWD beginnt seine Messreihen alle im Jahre 1881. Zwischen 1870 und 1888 herrschte in ganz Deutschland eine markante Abkühlungsphase. Schon ein Beginn im Jahre 1915 während des Ersten Weltkrieges, lässt die angebliche CO2– Maiklimaerwärmung ganz verschwinden.

Abb. 3: Die Maitemperaturen Deutschlands zeigen seit 1915 überhaupt keine Erwärmung mehr. In der Mitte des letzten Jahrhunderts waren die Maimonate kälter, momentan sind wir wieder auf einem höheren Niveau. Mit CO2 hat der Verlauf nichts zu tun, denn dieses lebensnotwendige Gas hat im ganzen Zeitraum kontinuierlich zugenommen.

Kaum Mai-Erwärmung seit über 350 Jahren in Zentralengland

Die folgende Messreihe ist deshalb so bemerkenswert, weil sie auf dem Höhepunkt der „Kleinen Eiszeit“, einer markanten, vermutlich hauptsächlich solar bedingten („Maunder- Minimum“) Abkühlungsphase beginnt. Seitdem sollte sich dort der Mai doch deutlich erwärmt haben. Aber diese „Erwärmung“ fiel mit 0,5 Kelvin (entspricht einem halben Grad Celsius) noch bescheidener als in Deutschland aus:

Abb. 4: Kaum merkliche Mai- Erwärmung in Zentralengland seit der „Kleinen Eiszeit“. Auch in Zentralengland gab es nach 1850 immer wieder Kaltphasen, welche sich mit der seitdem immer schneller steigenden CO2-Konzentration nicht erklären lassen.

Die Sonne bringt es an Tag – mehr Sonnenschein bedeutet mehr Wärme

Einen wesentlichen Einfluss auf die Lufttemperaturen, besonders im Sommerhalbjahr, hat die Sonnenscheindauer, welche in Deutschland in den meisten Monaten während der vergangenen Jahrzehnte zunahm und die auch im Mai 2018 überdurchschnittlich war. Ihre Entwicklung im Mai zeigt die nächste Grafik am Beispiel von Potsdam (hier liegen zuverlässige Aufzeichnungen seit 1893 vor):

Abb. 5: Enge „Verzahnung“ zwischen Sonnenscheindauer und Lufttemperaturen im Mai. Man erkennt außerdem Klimaschwankungen, unter anderem Kaltphasen vor Beginn des 20. Jahrhunderts und in den 1970er Jahren sowie die Warmphasen zur Mitte des 20. Jahrhunderts und in der Gegenwart. Mit der stetig steigenden CO2-Konzentration lassen sich diese markanten Schwankungen nicht erklären; mit der Sonnenscheindauer schon deutlich besser.

Das DWD-Mittel der Sonnenscheindauer liegt leider erst seit 1951 vor; doch auch hier zeigt sich eine deutliche Beeinflussung der Maitemperaturen durch die monatliche Sonnenscheindauer:

Abb. 6: Im DWD-Mittel wird die Variabilität der Maitemperaturen zu fast der Hälfte von der Sonnenscheindauer bestimmt (Bestimmtheitsmaß 43%).

Über die Auslöser der stärkeren Besonnung und Bestrahlung im Mai lässt sich nur mutmaßen. Neben geänderten Großwetterlagenhäufigkeiten, einer geänderten Landnutzung (weniger Verdunstung durch mehr Versiegelungen der Böden und Meliorationsmaßnahmen) kommen auch die Sonnenaktivität selbst, Änderungen bei den Wolkenarten durch den Luftverkehr und ab Ende der 1980er Jahre die erfolgreichen Maßnahmen zur Luftreinhaltung (Filter, Katalysatoren) in Betracht. Der Mai 2018 war mit über 250 Sonnenstunden sehr sonnenscheinreich.

Geänderte Großwetterlagenhäufigkeiten im Zusammenspiel mit der AMO erwärmten den Mai kurz- und langfristig leicht

Als weitere Einflussgröße auf die Maitemperaturen erweisen sich die Häufigkeitsverhältnisse der Großwetterlagen. Die folgende Grafik erklärt anhand der Objektiven Wetterlagenklassifikation des DWD, warum sich der Mai seit 1980 außer durch mehr Besonnung leicht erwärmt hat:

Abb. 7: Im Mai wirken in der Höhe zyklonale Großwetterlagen stark kühlend; ihre Häufigkeit nahm aber seit 1980 merklich ab. Näheres zu Objektiven Wetterlagenklassifikation des DWD hier.

Auch langfristig erwärmte sich der Mai in Deutschland wegen geänderter Großwetterlagenhäufigkeiten; für den Zeitraum ab 1881 liegen aber nur die ungenaueren Ergebnisse der Großwetterlagen- Klassifikation nach HESS/BREZOWSKY vor. Besonders erwärmend wirken im Mai alle Großwetterlagen mit südlichem Strömungsanteil sowie der Großwettertyp Hochdruckgebiet über Mitteleuropa (HM). Die Häufigkeitsverhältnisse dieser insgesamt 10 Großwetterlagen erklären immerhin ein gutes Fünftel der Maitemperaturvariabilität in Deutschland. Eine gewisse Rolle scheint auch der AMO- Index zu spielen, der, ganz grob erklärt, ein Maß für die Schwankungen der Wassertemperaturen im zentralen Nordatlantik darstellt:

Abb. 8: Maimonate mit häufigen südlichen Großwetterlagen sind tendenziell wärmer; Selbiges gilt für die AMO- Warmphasen.

Langfristig nahm die Häufigkeit dieser zwei zentralen Hochdrucklagen und der acht Lagen mit südlichem Strömungsanteil zu, während die Häufigkeit der kühlend wirkenden zehn Lagen mit nördlichem Strömungsanteil leicht abnahm:

Abb. 9: Die im Mai besonders erwärmend wirkenden zwei Hochdrucklagen über Mitteleuropa (gelb) und die acht mit südlichem Strömungsanteil (rot) wurden seit 1881 häufiger, die zehn kühlenden mit nördlichem Strömungsanteil (blau) hingegen etwas seltener. Großwetterlagen- Klassifizierung hier wie bei Abb. 8 nach HESS/BREZOWSKY.

Im Mai 2018 gab es überdurchschnittlich viele Tage mit Hochdruckwetter und östlichem bis südlichem Strömungsanteil, wobei anzumerken ist, dass östliche Wetterlagen im Mai ebenfalls erwärmend wirken, doch nahm deren Häufigkeit langfristig nicht zu.

Weitere Mai- Erwärmungsursachen: Der zunehmende Wärmeinseleffekt.

Besonders nach dem Krieg hat sich Deutschland wesentlich verändert, in der Einwohnerzahl, durch die Bebauung, sowie Trockenlegung ganzer Landschaften. Überall greift der Mensch wärmend in die Natur ein und die hoch stehende Maisonne heizt die Bebauung tagsüber stark auf, während die einstige Feuchtwiese nicht über 20°C hinauskam und nachts stark abkühlte. Aus einst kleinen Wärmeinseln sind seit 1945 riesige zusammenhängende Wärmeregionen entstanden. Allein im Heimatort eines Artikelverfassers hat sich die Einwohnerzahl verdoppelt, die bebaute Fläche verzehnfacht und der Energieverbrauch mindestens verhundertfacht. Da alle Klimastationen des DWD in den Wärmeregionen stehen, einsame Forsthäuser am Waldrand mit Wetterstation gibt es nicht mehr- messen die heutigen Thermometer diese schleichende Wärmeinselerwärmung natürlich mit. Wissenschaftlich richtig ist somit nur die Aussage, dass die Thermometer an den heutigen Standorten höhere Temperaturen messen als in der Nachkriegszeit. Ausschließlich durch den sich ständig vergrößernden Wärmeinseleffekt bei den DWD-Messstationen wirkt der Mensch an der Erwärmung mit. Diese Wärmeinselerwärmung als Folge eines CO2-Treibhauseffektes zu sehen, ist ein schlichter wissenschaftlicher Irrtum. Und die angeblich 97% der Wissenschaftler, die angeblich diese Falschmeinung vertreten, gibt es nicht, weil es nie eine Abstimmung gegeben hat.

Als Nächstes wollen wir eine Messstationen zeigen, um deren Standort herum sich im Betrachtungszeitraum wenig baulich verändert hat. Nur die starke Zunahme von Kohlendioxid in der Luft gab es dort wie überall.

Abb. 10: Wärmeinselarme, ländliche Standorte zeigen bereits seit über 30 Jahren eine leichte Maiabkühlung. Obwohl die CO2-Konzentration zugenommen hat, sind die Temperaturen innerhalb des jetzigen Wärmeplateaus leicht gesunken.

Ein weiterer wärmeinselarmer Standort ist die US- Klimastation Dale Enterprise in Virginia. Im Vergleich zum stark wärmeinselbeeinflussten Washington zeigt sich dort schon seit 1981 eine leichte Mai- Abkühlung:

Abb.11: Während sich die US-Bundeshauptstadt Washington im Mai seit 1981 leicht erwärmte, kühlte sich das ländliche Dale Enterprise leicht ab.

Zusammenfassung: Der warme Mai 2018 lässt sich ganz ohne CO2– bedingte Erwärmung auf eine zu hohe Sonnenscheindauer sowie gehäuft auftretende südliche Großwetterlagen und Hochdruckgebiete über Mittel- und Nordeuropa zurückführen; auch während der vergangenen Jahrzehnte sowie seit Aufzeichnungsbeginn erwärmte sich der Mai in Deutschland wegen zunehmender Besonnung, geänderter Großwetterlagenhäufigkeit und diverser Wärmeinseleffekte nur unwesentlich.

Stefan Kämpfe, Diplomagraringenieur, unabhängiger Natur- und Klimaforscher

Josef Kowatsch, Naturbeobachter und unabhängiger Klimaforscher.




Meldungen aus dem neuen Rundbrief der GWPF vom 25. Mai 2018

Durchgesickerte Dokumente: Grüne Gruppen investieren insgeheim in fossile Treibstoffe

Erin Mundahl

Das Aussteigen aus fossilen Treibstoffen ist wohl schwieriger als grüne Gruppen oder linke Städte gedacht haben mögen.

Seit vielen Jahren ist der Ausstieg aus fossilen Treibstoffen immer mehr zum allgemeinen Ziel der Umwelt-Protestierer geworden. Sie haben versucht, Städte, Universitäten und andere Gruppen dazu zu bringen, nicht länger in die Erzeugung fossiler Treibstoffe zu investieren. Überraschend kommt daher, dass Non-Profit-Organisationen, welche dieses Narrativ lautstark unterstützen, ebenfalls in konventionelle Energie investieren. Und das, obwohl sie anderen nahelegen, genau das nicht zu tun.

Durchgesickerten Dokumenten zufolge haben Umweltgruppen, darunter der World Wildlife Fund (WWF), das American Museum of Natural History sowie viele linke Stiftungen Kapital angelegt bei Firmen, die sich auf Öl und Gas spezialisiert haben, sogar obwohl sie in der Öffentlichkeit lauthals über die Rolle fossiler Treibstoffe bzgl. des Klimawandels lamentieren.

Den durchgesickerten Dokumenten in den Panama Papers zufolge, einer Fundgrube mit 13 Millionen Dokumenten, die detailliert Auskunft über Offshore-Investitionen geben, haben diese Organisationen, zu denen auch die University of Washington gehört, in eine Stiftung eingezahlt, die bekannt ist für ihre Investitionen in Öl, Erdgas und Bergbau.

Die Papiere zeigen, dass der WWF 2 Millionen Dollar in Denham Capital investiert hat, einer international agierenden privaten Finanzgruppe [equity firm], die sich auf Investments in Öl und Gas spezialisiert hat. Der WWF schloss einen Vertrag mit der Finanzgruppe im Jahre 2008, welcher erst im Jahr 2020 ausläuft. Aus diesem Vertrag auszusteigen wäre Beobachtern zufolge sehr schwierig.

Der WWF war nicht die einzige Gruppierung, die bei Denham investiert hat. Das American Museum of Natural History in New York City zahlte 5 Millionen Dollar an die Stiftung, und zwar selbst dann noch, als das Museum in einer ganzen Reihe von Ausstellungen den [vermeintlichen] Zusammenhang zwischen fossilen Treibstoffen und globaler Erwärmung herausgestellt hatte.

Das Museum sagte Reportern, dass es daran arbeitet, sowohl seine Investitionen in fossile Treibstoffe zu reduzieren als auch Gelegenheiten für Investitionen in erneuerbare Energie zu erkunden. Der WWF sagt, dass es die Profite aus seinen Investitionen in fossile Treibstoffe mit anderen finanziellen Instrumenten ausgleicht und dass er in Zukunft nicht mehr in fossile Treibstoffe investieren werde.

Die University of Washington in Seattle hat ebenfalls in die Stiftung eingezahlt. Die David and Lucile Packard Foundation sowie die William Penn Foundation, beide für Umweltprojekte ausgezeichnet, haben nicht direkt bei Denham investiert, wohl aber anderswo in fossile Treibstoffe.

Weil die Investitionen über eine private Firma liefen, war deren Existenz vor Bekanntwerden der Panama Papers unbekannt. In Steuererklärungen von Non-Profit-Organisationen ist eine detaillierte Auflistung dieser Art von Investitionen nicht vorgeschrieben. Ohne das Leck wären die meisten dieser Investitionen wohl unerkannt geblieben.

Die Papiere sind ein weiteres Beispiel für die Schwierigkeiten, alle Bindungen an fossile Treibstoffe zu lösen, wenn man ein Investment-Portfolio zusammenstellt. Trotz des wortgewaltig propagierten Aussteigens aus fossilen Treibstoffen seitens grüner Gruppen mussten große Institutionen wie Städte und Universitäten erkennen, dass es nahezu unmöglich ist, alle Verbindungen zu kappen. – Erin Mundahl, InsideSources,

Siehe auch die GWPF coverage of the fossil fuel divestment debate.

————————————-

Umweltaktivisten schlagen Alarm: Eine Flut hoch giftiger Abfälle von Solarpaneelen droht

Jason Hopkins, The Daily Caller
Ein führender Aktivist hat Bedenken geäußert hinsichtlich der ökologischen Auswirkungen von Solarpaneelen – eine Technologie erneuerbarer Energie, welche verbreitet als harmlos für die Umwelt betrachtet wird.

Michael Shellenberger – Präsident von Environmental Progress, einer Non-Profit-Organisation die sich dem Voranbringen sauberer Energie verschrieben hat – listete detailliert die Auswirkungen ausrangierter Solarpaneele auf das reale Leben auf. Die Paneele enthalten typischerweise Kadmium, Blei und andere giftige Chemikalien, die nicht separiert werden können, ohne das ganze Paneel zu zerlegen. Das Resultat ist, dass die ganzen Solarpaneele als gefährlich angesehen werden müssen. Dies schrieb Shellenberger in einem Forbes-Beitrag [bei mir erscheint unter diesem Link nur eine weiße Fläche. Anm. d. Übers.]

Genauer: diese giftigen Chemikalien werden zu einer Bedrohung für die Umwelt, wenn Solarpaneele das Ende ihrer Lebensdauer erreichen und entsorgt werden müssen. Bei der Einlagerung von Paneelen in Deponien könnten sie auseinander brechen und giftige Stoffe in den Boden oder sogar in Gewässer freisetzen. Bereits in einer Studie aus dem Jahr 2016 kam das Electric Power Research Institute zu dem Ergebnis, dass die Einlagerung von Solarpaneelen in „normale Deponien nicht empfehlenswert ist, weil die Module zerbrechen können und giftige Materialien in den Boden sickern“.

Die Bedenken hinsichtlich des Auswaschens von Cadmium aus den Paneelen durch Regenwasser und der daraus resultierenden Verseuchung der Umwelt nehmen immer mehr zu. In Virginia beispielsweise wehren sich Anwohner gegen einen in ihrer Umgebung geplanten, 6350 Acres großen Solarpark.

[Dazu empfiehlt die GWPF den Artikel darüber, wie erneuerbare Energie tatsächlich die Umwelt schädigt. Anm. d. Übers.]

Wir schätzen, dass die 1,8 Millionen Paneele etwa 100.000 Pfund Kadmium enthalten“, sagt Sean Fogarty der Gruppierung Concerned Citizens of Fawn Lake. „Austreten [von Giftstoffen] aus zerbrochenen Paneelen infolge natürlicher Ereignisse – wie Hagel, Tornados, Hurrikane, Erdbeben usw. – und deren Entsorgung machen uns große Sorgen“.

Beispielhaft kann es zu derartigen Ereignissen kommen, wo Extremwetter – wie ein Tornado in Kalifornien oder ein Hurrikan über Puerto Rico auftritt. Dann ist die Wahrscheinlichkeit hoch, dass giftige Chemikalien im Boden versickern.

Shellenberger sagte weiter, dass nahezu niemand in irgendwelchen Medien die negativen Auswirkungen der Solarindustrie auf die Umwelt thematisieren will. „Weil nur wenige Umwelt-Journalisten über etwas anderes als die Vorteile Erneuerbarer berichten wollen, bleibt es Umweltwissenschaftlern und den Führern der Solarindustrie überlassen, Alarm zu schlagen“. – Jason Hopkins, Daily Caller

Übersetzt von Chris Frey EIKE 




Energie­armut und die einfachen Wahr­heiten, welche die Abge­ordneten lieber ignorieren

Dass dies weitgehend unbekannt ist, ist dem behaglichen Konsens geschuldet, welchen es in den britischen Medien gibt, in denen ja immer wieder die Notwendigkeit Erneuerbarer betont wird, was bedeutet, dass deren Effektivität oder deren Gegenwert ignoriert wird. Die wahren Opfer dieser Verschwendung sind all jene, die in der Energiearmut stecken, weil sie viel zu viel für ihren Strom bezahlen mussten als Folge dieser Verschwendung.

Ihr Geld floss direkt in die Profite der Unternehmen erneuerbarer Energie, welche geltend machen, dass sie nur mittels üppiger Subventionen überleben können. Jetzt sagen sie, dass jene Subventionen tatsächlich zu fallenden Preisen führte. Die Begutachtung enthüllt, dass sie Beamte und Politiker dafür bearbeitet hatten, dass die Normalbürger den Preis dafür bezahlen und dies auch weiterhin tun, falls alles so weitergeht.

Es dürfte für jedermann mit einem gewissen Verständnis für Ökonomie offensichtlich sein, dass man viel besser da steht, wenn man Beamte die Subventionen für die Erzeugung erneuerbarer Energie festsetzen lässt, als wenn man wettbewerbsfähige Angebote mittels Auktionen eintreibt.

Seit der Durchführung von Auktionen gab es bedeutende Preisrückgänge, aber traurigerweise zu wenig, zu spät, weil die hohen Preise noch bis weit in die Zukunft garantiert worden sind. 90% der Rechnung für Erneuerbare bis 2030 sind bereits festgesetzt. Dies ist eine wichtige Tatsache, die man sich vor Augen führen muss, wenn man das nächste Mal jemanden sagen hört, wie schnell die Kosten für Erneuerbare sinken.

Prof. Dieter Helm, welcher beauftragt worden ist die Cost of Energy Review zu erstellen, ist einer der angesehensten Energie-Ökonomen in UK und unterstützt nachhaltig das Ziel der Regierung, die Emissionen zu reduzieren. Es ist also auf keinen Fall ein Klimaskeptiker. Sein Report steht unter der Prämisse, dass der Climate Change Act erfüllt werden muss. Es könnte sogar noch viel mehr eingespart werden, wenn dieses schädliche und ineffektive Gesetz annulliert werden würde, aber das wird nicht einmal in Betracht gezogen.

Nichtsdestotrotz enthält der Report aber viele vernünftige Ratschläge für die Regierung …

Der ganze Beitrag steht hier.

Link: https://www.thegwpf.com/energy-poverty-and-the-home-truths-mps-would-rather-ignore/

Übersetzt von Chris Frey EIKE




Der Mythos vom gefährlichen sauren Regen

Bei CBS und CNN gab es Schlagzeilen, denen zufolge saurer Regen als eine Gefahr durch den Kilauea-Ausbruch gelistet wird. US News meldet dazu: „Saurer Regen könnte die nächste Bedrohung sein, vor denen die Bewohner Hawaiis während der nächsten Tage stehen …“ Bei CNN hieß es: „Falls Sie in Kontakt mit saurem Regen kommen, waschen Sie ihn so schnell wie möglich ab!“

Das vom Kilauea emittierte Schwefeldioxid (SO2) ist ein Verschmutzer, der beim Einatmen schädlich sein kann. Das Einatmen von SO2 verursacht Reizungen in Nase und Hals und kann eine lebensbedrohende Ansammlung von Flüssigkeit in den Lungen mit hohen Konzentrationen bewirken. Im Gegensatz dazu gibt es aber keinen Beweis, dass irgendjemand jemals durch sauren Regen geschädigt worden ist.

Wissenschaftler messen den Säuregrad oder die Alkalinität mittels einer 14 Punkte enthaltenden logarithmischen Skala mit der Bezeichnung pH-Wert. Bei einem pH-Wert von 7 ist Wasser neutral. Batteriesäure weist einen pH-Wert von etwa 1 auf. Im Gegensatz dazu weist eine Lauge, die alkalisch oder basisch ist, einen pH-Wert bis 13 auf. Regenwasser ist aus natürlichen Gründen sauer, ebenso wie Milch und die meisten unserer Nahrungsmittel.

Sowohl Stickstoffdioxid (NO2) und Schwefelsäure-Gas reagieren in der Atmosphäre zu nitrogenischer und schwefliger Säure [nitric and sulfuric acid]. Diese Gase lösen sich in Wassertröpfchen und können den Säuregrad von Regen verstärken. Aber saurer Regen ist nur milde sauer mit einem pH-Wert von etwa 4, also etwa 100 mal weniger sauer als Zitronensaft.

Anfang der achtziger Jahre führte saurer Regen durch NO2– und SO2-Emissionen seitens der Industrie zu einer wesentlichen Sorge um die Umwelt. Saurer Regen wurde für die Versauerung von Seen und die Schädigung von Wäldern in Ostkanada, dem Nordosten der USA und Nordeuropa verantwortlich gemacht. Zeitungen und Zeitschriften zeigten Bilder von sterbenden Bäumen und machten dafür die industrielle Luftverschmutzung verantwortlich.

In Deutschland wurde der Begriff „Waldsterben“ geprägt, und man sagte dem sauren Regen nach, den Schwarzwald zu zerstören. Im Jahre 1981 prophezeite Prof. Bernhard Ulrich von der Universität Göttingen: „Die ersten großen Wälder werden während der nächsten 5 Jahre sterben. Sie können sich nicht mehr erholen“.

Das National Acid Precipitation Assessment Program (NAPAP), ein 500 Millionen Dollar teures Forschungsprogramm wurde im Jahre 1982 in den USA ins Leben gerufen, um sich dieses Problems anzunehmen. Die Genfer Konvention zu großräumiger, grenzüberschreitender Luftverschmutzung nahm im Jahre 1983 in Europa ihre Arbeit auf. Versauerung von Seen und Zerstörung von Wäldern durch Luftverschmutzung wurde zu einem weit verbreiteten Glauben, welcher in Universitäten auf der ganzen Welt gelehrt wurde. Saurer Regen wurde zum Auslöser von Bemühungen in den USA und Europa, Emissionen von NO2 und SO2 zu reduzieren.

Aber die tatsächlichen Auswirkungen von saurem Regen waren viel geringer als befürchtet. Ein NAPAP-Bericht aus dem Jahr 1990 mit dem Titel „Acidic Deposition: State of Science and Technology“ kam zu dem Ergebnis: „Es konnte nicht gezeigt werden, dass saure Ablagerungen einen signifikanten Beitrag zu gegenwärtigen Gesundheitsproblemen von Wäldern in Nordamerika leisten“, vielleicht mit Ausnahme des Fichtenbestandes in hohen Lagen der nördlichen Appalachen. Eine andere Studie kam zu dem Ergebnis, dass Schäden in den Fichtenwäldern der Appalachen auf einen Holzschädling zurückzuführen sind, nicht auf sauren Regen.

Aus der NAPAP-Studie geht außerdem hervor, dass nur etwa 4,2% aller Seen im Osten der USA sauer waren und dass die sauren Bedingungen in vielen dieser Seen natürlichen Faktoren oder dem Abfluss aus Bergbau geschuldet waren, aber nicht saurem Regen. Weiter ergab diese Studie, dass das Niveau des sauren Regen aufgrund von Luftverschmutzung nicht schädlich war für die Landwirtschaft oder die menschliche Gesundheit.

In Europa zeigten Folgeanalysen, dass die Schädigungen des Schwarzwaldes auf Krankheit, Wetter und andere Faktoren zurückzuführen waren, wobei saurer Regen nur eine unbedeutende Rolle spielte. Die großen Wälder in Europa gibt es heute immer noch.

Während der letzten vier Jahrzehnte waren die USA und die europäischen Länder bemerkenswert erfolgreich bei der Reduktion von NO2 und SO2 sowie anderer gefährlicher Verschmutzer. Daten der EPA zufolge sind die NO2-Emissionen in den USA im Zeitraum 1980 bis 2016 um 61%, diejenigen von SO2 um 87% zurückgegangen. Auch in Europa sind die Emissionen auf einen Bruchteil des Niveaus aus dem Jahr 1980 zurückgegangen.

Der möglicherweise schlagendste Beweis gegen schädliche Auswirkungen sauren Regens ist die Tatsache, dass saure Seen sich nicht „erholt“ haben, nachdem die meiste Schwefel- und Stickstoff-Verschmutzung aus der Atmosphäre verschwunden war. Im Report des NAPAP an den Kongress aus dem jahr 2011 wurde festgestellt, dass SO2– and NO2-Emissionen gesunken waren, dass die Konzentrationen in der Luft gesunken waren und dass saure Ablagerungen aus dem Regen gesunken waren. Nicht festgestellt wurde, dass der Säuregrad von Seen signifikant gesunken war. Im Report heißt es: „Wissenschaftler haben Verzögerungen festgestellt bei der Erholung des Ökosystems in den östlichen USA trotz des Rückgangs von Emissionen und Ablagerungen während der letzten 30 Jahre“. Mit anderen Worten, die Verschmutzung war weitgehend eliminiert worden, aber die Seen sind immer noch sauer.

Unglücklicherweise fahren die Nachrichtenmedien und Colleges damit fort, den Mythos zu proklamieren, dass saurer Regen ein gefährliches Problem ist. In jedem Falle sollten Sie es sofort abwaschen, falls Sie jemals mit Zitronensaft oder saurem regen in Berührung kommen.

Link: http://www.cfact.org/2018/05/24/the-myth-of-dangerous-acid-rain/

Übersetzt von Chris Frey EIKE




Roda Verheyen schlägt wieder zu: EUGH wird angerufen weil die EU Klimaziele nicht streng genug verfolgt werden!

Roda Verheyen ist eine Klimaaktivistin, die auch als Rechtsanwältin auftritt. Sie spielt bereits eine unrühmliche Rolle in dem Unsinnsprozess eines peruanischen Bauern, der – vertreten und angefeuert kann man -ohne die Unwahrheit zu sagen- feststellen- auf die Schnapsidee kam, (hier und hier) dass sein Land in den Anden durch einen evtl. Dammbruch gefährdet sei, weil die deutsche RWE zu viel CO2 emittiere. Der Fall ist derzeit beim Düsseldorfer Oberlandgericht anhängig.

Der ARD Sender rbb fand die Aktivitäten der Roda Verheyen so toll, dass er mit ihr im Hörfunk vor einigen Monaten ein Huldigungsinterview führte. Sie finden es hier.

Offensichtlich sind die Geldmittel, derer, welche de westlichen Staaten (von Klagen in Russland oder bspw. China hört man bisher nichts, von Auftritten dieser Aktivisten dort auch nichts) unbedingt der Quelle ihres Wohlstandes berauben wollen, so gewaltig, dass sie sich problemlos viele Klagen gleichzeitig, in Europa wie in den USA, leisten können.

Und die Kanzlei von Frau Roda Verheyen ist oft ganz vorne mit dabei. Es sind dies das Climate Action Network (CAN) und bspw. Die deutsche Nichtregierungsorganisation Protect the Planet und ein sog. wissenschaftlicher Thinktank namens Climate Analytics mit Sitz in Berlin. Schon dessen rund 30 köpfiger Mannschaft (Februar 2015) lässt erahnen mit welchen ungeheuren Geldmitteln – allen voran durch das deutsche Umweltministerium- diese Leute ausgestattet sind.

Geldgeber der Klimaanalytiker, Bild Climate Analytics

Partner der Klimaanalytiker, Bild Climate Analytics

So auch jetzt wieder bei einer Klage vor dem Luxemburger Europäischen Gerichtshof für Menschenrechte. Dort vertritt Frau Verheyen mit ihrer Klage 10 Familien aus 10 EU-Ländern, die vorgeben der „Klimawandel“ hätte in den letztem 5 Jahren ihre Lavendelernten gemindert, oder würde, wie die Familie aus Samen (Schweden) die Aufzucht ihrer Rentiere behindern.

Der Guardian nimmt sich dieser ergreifenden Story an und schreibt (Hervorhebung von mir) bspw:

Roda Verheyen, die Anwältin der Familien, sagte: „Der Klimawandel ist bereits ein Thema für die Gerichte in den europäischen Ländern und auf der ganzen Welt. „Die Klägerfamilien vertrauen auf die Gerichte und das Rechtssystem der EU, um ihre Grundrechte auf Leben, Gesundheit, Beruf und Eigentum, die vom Klimawandel bedroht sind, zu schützen. Die EU-Gerichte müssen jetzt auf diese Familien hören und sicherstellen, dass sie geschützt sind. „

Wissenschaftler des thinktank Climate Analytics stellen den Anwälten der Familien Experten zur Verfügung. Die deutsche Nichtregierungsorganisation Protect the Planet trägt alle mit dem Rechtsfall verbundenen Kosten. Das Climate Action Network (CAN), Europas größte NGO, die sich mit Klima- und Energiefragen befasst, unterstützt ebenfalls die Aktion.

Wendel Trio, CAN-Direktor in Europa, sagte:

„Dies ist Teil einer Strategie, um die EU-Institutionen dazu zu bringen, ihre Ziele zu erhöhen. 2015 vereinbarten die Länder im Rahmen des Übereinkommens von Paris, Anstrengungen zu unternehmen, um den Temperaturanstieg auf 1,5 ° C zu begrenzen. Es ist jedoch klar, dass das bestehende Klimaziel der EU bis 2030 nicht ausreicht, um die im Pariser Abkommen eingegangenen Verpflichtungen einzuhalten, und dass es erhöht werden sollte. Die EU muss nach dem Abkommen ihr Ziel bis 2020 bestätigen. Diese von normalen Familien, die vom Klimawandel betroffen sind, initiierten Klagen unterstreichen die Dringlichkeit und die Notwendigkeit, sie zu erhöhen. „

Mit dieser Klage, und der durchaus nicht geringen Wahrscheinlichkeit ihres Erfolges bei Gericht, wird einmal mehr deutlich, mit welchen Gegnern es die modernen westlichen Völker zu tun haben, und auch welches üble enge Gespinst von Gesetzen und Verordnungen die EU und ihre Mitgliedstaaten erlassen haben, die diesen unfassbaren, jeder ehrlichen Wissenchaft Hohn sprechenden Verhaltensweisen, erst ermöglichen ja Tür und Tor einladend öffnen.

Deutlich sichtbar wird auch, dass immer dieselben Stiftungen, und Organisationen hinter diesen Aktionen stehen, auch wenn sie unter immer neuen Namen auftauchen.

Die Rückkehr ins finstere Mittelalter dort mit Gottesurteilen, und Hexenverbrennungen nach dem Gesetzbuch des Hexenhammers, hier unter dem Nonsensewort Klimaschutz, alles unter der Tarnkappe der Wissenschaft, scheint unabwendbar.

Und der deutsche Steuerzahler – es geschieht ja nur zu seinem Besten- darf letztlich alles bezahlen. 




Stehen wir vor einem neuen Deep Solar Minimum?

Der seltsame Verlauf des Sonnenzyklus‘ 24 endet mit einem erwarteten Wimpernschlag: Bis zum 8. Mai war die der Erde zugewandte Seite der Sonne in diesem Jahr 2018 an 73 von 128 Tagen fleckenfrei, oder über 57% der Zeit. Das kam nicht völlig unerwartet, waren doch während des solaren Minimums zwischen den Zyklen 23 und 24 im Jahre 2009 gleich 260 fleckenfreie Tage aufgetreten – das ist die höchste in einem Einzeljahr registrierte Zahl seit 1913. Zyklus Nr. 24 legte einen späten und stotternden Start hin, und obwohl in seinem Verlauf einige atemberaubende Flecken aufgetreten waren, welche an die Sonne erinnerten, die wir kennen, war er chronisch viel schwächer. Mitte 2018 könnte das Ende des Zyklus‘ 24 erreicht sein und Zyklus Nr. 25 beginnen … oder doch nicht?

Abbildung: Der Verlauf bis hier … und das seltsame Drama, das der Sonnenzyklus Nr. 24 aufführte. Quelle: David Hathaway/NASA Marshall Spaceflight Center.

Eine nette Überraschung während des Zyklus‘ Nr. 24 war das Erscheinen des massiven Flecks AR 2192, welcher genau zum Zeitpunkt der partiellen Sonnenfinsternis am 23. Oktober 2014 aufgetaucht war. Er war um ein Vielfaches größer als die Erde, und tatsächlich war der gesamte Komplex der größte seit einem Vierteljahrhundert. Aber genau wie „eine Schwalbe, die noch keinen Sommer macht“, konnte auch eine einzige große Sonnenflecken-Gruppe den Sonnenzyklus Nr. 24 auch nicht mehr retten.

[Abbildung wg. Urheberrecht nur im Original]

Übersetzung der Bildunterschrift: Die Partielle Sonnenfinsternis vom 23. Oktober 2014, beobachtet in Jasper, Alberta. … Der große Sonnenfleck jenes Tages beginnt gerade hinter dem Mondschatten zu verschwinden. … Bild und Copyright: Alan Dyer/Amazing Sky.net.

Die Sonne durchläuft einen 11-Jahre-Sonnenfleckenzyklus, markiert durch neue Flecken in mittleren solaren Breiten, welche dann langsam immer näher am Sonnen-Äquator auftauchen. Dieser Verlauf ist bekannt als Spörers Gesetz. Das Markenzeichen eines neuen Fleckenzyklus‘ ist das Auftauchen von Flecken in hohen Breiten. Die Sonne ändert die Polarität mit jedem Zyklus, so dass ein ganzer Hale-Zyklus der Sonne 11 X 2 = 22 Jahre dauert.

Als riesiger Wasserstoff-Fusionsreaktor rotiert die Sonne derzeit einmal innerhalb von 25 Tagen am Äquator um sich selbst, an den Polen dauert eine Umdrehung 34 Jahre. Die Rotationsachse der Sonne ist auch um 7,25 Grad relativ zur Ekliptik geneigt, wobei der nördliche Drehpol uns Anfang September zugeneigt ist, der Südpol dann Anfang März.

Abbildung: Eine Animation des massiven Sonnenflecks AR 2192, wie er über die der Erde zugewandte Seite der Sonne wandert. Zeitraum: 17. Oktober bis 29. Oktober 2014. Bild: NASA/SDO.

Was wird nun der Zyklus Nr. 25 bringen? Eines ist sicher: Falls sich der gegenwärtige Trend fortsetzt, wenn also die Anzahl der fleckenlosen Tage größer ist als die Tage mit Flecken, dann könnten wir vor einem ausgeprägten solaren Minimum während der Saison 2018 bis 2020 stehen, was in der Historie der modernen Astronomie bisher beispiellos wäre.

Nur mal so: ein ähnlicher Mangel an Sonnenflecken wurde im Zeitraum von 1645 bis 1715 beobachtet, allgemein bekannt unter der Bezeichnung ,Maunder-Minimum‘. Während dieser Zeit gab es Missernten, und die Themse in London war zugefroren, was das Abhalten von ,frost fairs‘ auf dem Eis ermöglichte. Ironischerweise begann das Maunder-Minimum auch gerade nach dem Aufkommen des Teleskop-Zeitalters der Astronomie. Während dieser Zeit war der Gedanke „Flecken auf der Sonne“ zu einem kontroversen und fast mythischen Status der Mainstream-Astronomie geworden.

Der ganze Beitrag steht hier.

Link: https://www.thegwpf.com/are-we-headed-towards-another-deep-solar-minimum/