1

Energiewende: Abschaltparty in Gundremmingen – WENDE INS AUS

Am 31. Dezember 2017 gehen die Lichter aus. Es wird duster. Die Reaktorfahrer drücken die Knöpfe für die Abschaltung von Deutschlands größtem Kernkraftwerk. In Gundremmingen an der Donau wird der Block B des Kraftwerkes heruntergefahren und abgeschaltet. Für immer.

Eine Energiequelle wird zerstört

Morgens früh bereiten die Reaktortechniker die Abschaltung vor, fahren langsam die Leistung vollkommen herunter. Seit Sommer wurde die Leistung bereits abgesenkt. Die Steuerstäbe werden bei diesem Siedewasserreaktortyp von unten in das Reaktordruckgefäß eingefahren und unterbrechen den Neutronenfluß. Die Kernspaltung kommt zum Erliegen. Gegen Mittag wird dann die Turbine abgeschaltet. Ab 1. Januar ist nach 33 Jahren Schicht im Schacht.

Seit dem 16. März 1984 hat dieser Block sehr wirtschaftlich und sicher insgesamt 330 Milliarden kW-Stunden Strom produziert. Das entspricht dem Stromverbrauch Deutschlands in einem halben Jahr. Ohne Störfälle, zuverlässig, preisgünstig. Die Anlage mit 1.344 MW Leistung ist völlig in Ordnung und könnte noch lange Strom produzieren.

Zwei Monate lang werden die Brennelemente im Reaktor bleiben, danach transportieren die Fachleute sie in das Zwischenlager auf dem Gelände des Kernkraftwerkes. Ein aufwendiger Prozess: Die Brennelemente strahlen noch stark und können nur unter einer schützenden Wasserschicht bewegt werden. Fünf Jahre lang soll das dauern, zwei bis drei Jahre lang werden die Fachkräfte Turbine und Generator abbauen. Sicherer wäre es, die Brennelemente „abzubrennen“, statt sie im Freien zu lagern. Aber Sicherheit ist kein Argument, wenn es um Energiewende geht.

In Gundremmingen steht auf dem Kraftwerksgelände noch der baugleiche Block C, der bis 31. Dezember 2021 weiterlaufen und zur Stromstabilität beitragen soll. Der 1966 im ersten kommerziell genutzten Kernkraftwerk in Deutschland in Betrieb genommene Block A wurde schon 1977 abgeschaltet und seit 1983 abgebaut.

Die Bundesregierung bejubelt ebenso wie Aktivisten bei der Gundremmingen-»Abschaltparty« in Durchhalteparolen den Rückbau Deutschlands zum Energie-Mangel-Land und schwindelt weiterhin: »Erneuerbare Energien decken heute schon knapp 33 Prozent des Bruttostrombedarfs ab.« Das allerdings nur im Jahresdurchschnitt. Im Winter, wenn die Sonne zu schwach scheint und kaum Wind weht, sind es nicht einmal 5 Prozent. Dann laufen herkömmliche Kraftwerke auf Hochtouren und Strom wird aus fossilen und atomaren Kraftwerken Frankreichs, Tschechiens und Österreichs importiert. Diese Importmenge nimmt jetzt um die zerstörte Leistung Grundremmingens zu – wenn die Nachbarn noch liefern können.

Der falsche Jubel einer Ministerin

Die derzeit geschäftsführende Bundesumweltministerin Barbara Hendricks bekundet, dass sie froh über das Abschalten von Gundremmingen B ist und drückt damit ungewollt auch ihre Zufriedenheit darüber aus, dass der Strom unzuverlässiger und wohlstandsgefährdend wird. »Ich bin um jedes AKW froh, das nicht mehr in Betrieb ist. Mit der Abkehr von dieser gefährlichen und nicht nachhaltigen Energieform haben wir den Grundstein für eine international wettbewerbsfähige Energiestruktur in Deutschland gelegt«. Schade nur, dass kein Land der Welt dem deutschen Plan folgt: Der Internationalen Atomenergieorganisation IAEA zufolge sind 450 Reaktoren in Betrieb, weltweit befinden sich rund 60 neue Kernkraftwerke im Bau. In Belojarsk in Russland läuft bereits der Reaktor BN-800 im Leistungsbetrieb, der den »Müll« von Kernkraftwerken weiter zur Stromerzeugung nutzen kann. Denn der enthält noch 96 Prozent der ursprünglichen Energie, die sich aus technischen Gründen mit den alten Reaktoren nicht mehr ausnutzen ließ.

An der sozialen Demokratin geht vorbei, dass hierzulande der Strompreis explodiert, immer mehr Bürger ihren Strom nicht mehr bezahlen können und im Dunkeln leben müssen. 330.000 Bürgern wurde wegen unbezahlter Rechnungen der Strom abgedreht. Denn im Führerstand der Energiewende selbst ist es noch hell. Ein Drei-Personenhaushalt wird im Jahr mit rund 330 € Energiewende-Extrakosten belastet.

Stabiles Netz in Frage gestellt

Aber nicht nur um Geld geht es, auch um Sicherheit. Mit der Jahreswende geht eines der letzten großen Kraftwerke im Süden vom Netz. Solche Kraftwerke produzieren nicht nur günstig viel Energie, sondern sind auch für ein stabiles Netz zuständig. Dessen entscheidende Größe ist die Frequenz. Das gesamte westeuropäische Netz ist auf 50 Hertz ausgelegt. Alle, tatsächlich alle Stromerzeugungs-Komponenten von Portugal bis nach Polen müssen im Gleichtakt schwingen. Auf diesen Wert sind sämtliche Rechner, Fernseher und alle anderen elektronischen Geräte geeicht. Bereits eine geringe Verschiebung der Frequenz reicht aus, um das Netz zusammenbrechen zu lassen.

Stark schwankende Windgeneratoren mit stark schwankenden Leistungsabgaben zum Beispiel sind nicht in der Lage, die Stabilität im Netz aufrecht zu erhalten. Photovoltaik-Anlagen schon gleich gar nicht. Das können nur große Kraftwerke mit ihren rotierenden Massen in Turbinen und Generatoren, die Schwankungen im Netz ausgleichen. Nur damit ist es den Netzbetreibern noch einigermaßen möglich, ein stabiles Netz aufrechtzuerhalten. Deshalb werden auch in Deutschland zusätzliche fossile Kraftwerke finanziert – die aber nicht Kraftwerk heißen dürfen, sondern „Netzstabilitätsanlage“.

Doch auch sie geraten mit weiteren Abschaltungen immer mehr an ihre Grenzen. Folge: mehr Stromausfälle. 472 mal am Tag fällt heute in deutschen Netzen der Strom aus. Früher undenkbar. Dass der Strom wesentlich häufiger als früher ausfällt, haben mittlerweile auch ein paar kenntnisarme Köpfe im HR-Staatsfernsehen gemerkt (»Das hätte keiner gedacht!«) und anschaulich, nein, nicht kritisch gefragt, was bei der Energiewende nicht stimmt, sondern in einem Beitrag gezeigt, wie man sich auf einen Stromausfall vorbereitet.

Es lohnt ein Blick nach Energiewendevorbild Australien zum Beispiel. Ein schönes Experimentierfeld bietet sich dort freilich teilweise mit tödlichen Folgen. Wie fühlt sich eine totale Energiewende an? Denn die Australier sind schon ein Stück weiter. Stillegen von Kohlekraftwerken gehört auf dem Kontinent seit langem zum guten Ton. Abschaltparty hurra! Sie freuten sich wie die auch hierzulande nicht gerade hellen, umweltbewegten Kinder darüber, dass der Anteil sogenannter »erneuerbarer Energien« auf fast 50 Prozent anstieg. Mit hinaufgeschnellt sind die Preise für Strom. Allerdings sind auch in Australien die Elementarkenntnisse dramatisch gesunken. Verwundert nahmen daher die Australier eine Reihe dramatischer Netzzusammenbrüche 2016 mit weitreichenden Blackouts zur Kenntnis.

So hatten im Februar 2016 die Kraftwerker ihre konventionellen Kraftwerke weit heruntergefahren, weil viel Sonne und Wind angesagt waren. Als die sich nicht nach der Wetter-Vorhersage richteten, konnten die konventionellen Kraftwerke nicht so schnell hochgefahren werden, wie Leistung benötigt wurde. Folge: Netzzusammenbruch.

Bei einem heftigen Blackout starben sogar Embryos in einem Krankenhaus, dessen Notstromaggregate zusätzlich Probleme bereiteten. Wenns länger dunkel bleibt, haben Embryos und andere, die an Maschinen hängen, eben Pech gehabt.?

Die Australier empören sich mittlerweile über die unzuverlässige Stromversorgung und sind über nicht mehr funktionierende Mobiltelefone, Kühlschränke und Internetverbindungen erbost. Keine Klimaanlage in der großen Hitze ist schon heftig, wirtschaftlich schlimmer sind die Folgen der Produktionsausfälle der produzierenden Industrie (die gibt es dort noch).

Eilig klempnert die australische Regierung jetzt einen Notfallplan für neue Kraftwerke zusammen, mit denen sie ihre Energieversorgungs-Trümmer irgendwie flicken wollen. Schnell sollen neue Kraftwerke her; nur das dauert. Vorbild für Deutschland. Wenn wir Glück haben, kommt ein dramatischer Blackout schnell und bringt den Geistesgrößen hierzulande wieder ein paar Grundkenntnisse der Physik bei. Arbeit, Leistung – was ist das schon, ist doch alles gleich, oder? Vielleicht spricht dann der Grünen-Parteichef Özdemir nicht mehr von Gigabyte (die er von seinem iPhone gerade noch kennt), wenn er Gigawatt meint.

Der Nürnberger Trichter: Nicht mehr funktionierende mobile phones als Katalysator für die Wende von der Wende? Vielleicht gibts noch ein paar funktionstüchtige Kernkraftwerke, die man wieder hochfahren kann.
Andernfalls dürfen wir bald in Russland oder China um Energie bitten und betteln. Europäische Nachbarstaaten wie Frankreich und Tschechien sind in den Wintermonaten schon jetzt am Limit ihrer Lieferfähigkeit angelangt.

Grundremmingen, ein starkes Grundrauschen warnt. Wer kann es hören?




Aussterben von Spezies und Abbruch des Golfstromes

Und wir nehmen uns die Behauptung vor, dass der vom Menschen verursachte Klimawandel einen starken Zufluss von Süßwasser aus den schmelzenden Gletschern in Grönland in Gang setzen wird. Dies soll zum Zusammenbruch der thermohalinen Zirkulation und/oder des Golfstromes im Nordatlantik führen. Das wiederum soll eine starke Abkühlung mit sich bringen ähnlich der wie vor 818 bis 8340 Jahren, als ein Eisdamm in Kanada brach und gewaltige Mengen Süßwasser in den Atlantik strömten.

Globale Erwärmung führt zu einem „großen Aussterben“

Unabhängig von den potentiellen finanziellen Kosten der globalen Erwärmung behaupten Einige, dass die moderate Erwärmung seit Mitte des 19. Jahrhunderts um 0,8°C immer mehr Spezies aussterben lässt. Anderen zufolge soll dies durch den Bevölkerungszuwachs verursacht werden. Tatsächlich hat sich National Geographic zu der Behauptung verstiegen, dass wir uns inmitten des „sechsten großen Aussterbe-Ereignisses der Erdgeschichte“ befinden. Nadia Drake proklamiert, dass die gegenwärtige Aussterberate 100 mal größer sein könnte als die normale Rate. Dies ist auch Gegenstand eines Buches mit dem Titel The Sixth Extinction von Elizabeth Kolbert. Falls das stimmen sollte, wären dies beachtliche Kosten entweder der globalen Erwärmung oder des Bevölkerungszuwachses.

Experten hinsichtlich der fünf derartigen Ereignisse in der Vergangenheit stehen nicht hinter diesem Gedanken. Der Paläontologe am Smithonian Doug Erwin, Experte hinsichtlich der Aussterbewelle im Perm, bei welcher durchaus etwa 90% aller damals lebenden Spezies ausgestorben sein können, sagt, dass all jene, die uns in einer ähnlichen Lage befindlich behaupten, einfach nicht wissen, was Massenaussterben eigentlich ist (hier). Erwin weist darauf hin, dass während der jüngeren menschlichen Historie zwischen 0 und 1% aller Spezies ausgestorben sind. Man beachte, was er The Atlantic in einem Interview gesagt hat:

Man kann also fragen „nun gut, wie viele geographisch weit verbreitete und reichlich vorhandene Meeres-Lebewesen [durably skeletonized marine taxa] sind bisher ausgestorben?“ Die Antwort lautet: „Die Zahl liegt nahe Null!“. Tatsächlich sind in den am besten überwachten Tierarten heutiger Tiere – Steinkorallen, Amphibien, Vögel und Säugetiere – irgendwo zwischen 0 und 1% aller Spezies ausgestorben. Zum Vergleich, das Massenaussterben zum Ende des Perm raffte über 90% aller Spezies auf der Erde dahin.

Der Umweltwissenschaftler Daniel Botkin (Biographie hier) hat geschätzt, dass die Aussterbe-Rate für Tiere und Pflanzen derzeit bei einer Spezies pro Jahr liegt. Das ist keine alarmierende Rate und sehr weit entfernt von einem „Massenaussterben“.

In der dänischen Presse habe ich darauf hingewiesen, dass wir schon lange mit viel zu hohen Zahlen bzgl. des Aussterbens von Spezies auf der Erde konfrontiert werden – dass wir etwa die Hälfte aller Spezies innerhalb einer Generation verlieren werden. Die richtigere Zahl liegt näher an 0,7% innerhalb von 50 Jahren. Dies führte zum Greenpeace-Chef von Dänemark Niels Bredsdorff, der darauf verwies, dass Greenpeace lange Zeit die Zahl 0,7% akzeptiert habe. – Lomborg, Bjørn. The Skeptical Environmentalist: Measuring the Real State of the World (p. 17).

Spezies sterben immer aus. Die meisten Spezies, die jemals auf der Erde gelebt haben, sind ausgestorben. Die mittlere Rate für Tiere und Pflanzen liegt etwa bei 1 pro Jahr (obwohl in einigen jüngeren wissenschaftlichen Studien von einer viel höheren mittleren Rate die Rede war, nämlich bis zu 6 pro Jahr). Die Aussterbe-Anzahl variierte mit der Zeit. Darunter waren 5 „Mega-Aussterbe“-Ereignisse seit der Bildung mehrzelliger Lebensformen vor etwa 550 Millionen Jahren. Während jedes einzelnen dieser Ereignisse scheint die Mehrheit der Spezies (nach geologischem Zeitmaßstab) innerhalb kurzer Zeit verschwunden zu sein. Zum stärksten derartigen Ereignis war es vor etwa 250 Millionen Jahren im Perm-Trias gekommen, als schätzungsweise 80% bis 90% aller damals lebenden Spezies ausstarben. – Botkin, Daniel B. 25 Myths That Are Destroying the Environment: What Many Environmentalists Believe and Why They Are Wrong (Kindle Locations 645-650).

Im IPCC-Bericht AR 5 (WG II) werden Lomborg und Botkin ein wenig verschwurbelt unterstützt. Auf Seite 43 der Technical Summary findet sich die folgende Graphik:

Abbildung 1: Raten der Änderungen der Verteilung verschiedener maritimer Lebensformen von 1900 bis 2000 (km pro Jahrzehnt). Positive Änderung bedeutet, dass sich diese Lebensformen ausgebreitet und allgemein in Richtung der Pole bewegt haben.

Während im AR 5 nicht von einem „großen Aussterben“ die Rede ist, wird aber doch von einem „großen“ Anteil sowohl von Festlands- als auch von Süßwasser-Spezies gesprochen, die vor der Gefahr stehen, infolge des Klimawandels auszusterben. Diese Prophezeiung basiert ausschließlich auf Modellrechnungen, und nichts dergleichen ist jemals beobachtet worden. Im AR 5 wird auch eingeräumt, dass nur sehr geringe Übereinstimmung besteht hinsichtlich des Anteils der gefährdeten Spezies (AR5 WGII, technical summary, Seite 67).

Das „große“ quaternäre Megafauna-Aussterben

Von Barnosky, 2008 gibt es eine Studie zum quaternären Megafauna-Aussterben (QME). Die Studie wird so eingeleitet:

Die jüngste Aussterbe-Episode, das Quaternäre Megafauna-Aussterben, raffte zwei Drittel aller Säugetierarten und die Hälfte aller Spezies mit einem Gewicht über 44 kg dahin, und zwar von vor 50.000 bis 3000 Jahren.

Nachdem er seine Stichprobe auf clevere Weise reduziert hatte, um zu der Angabe zwei Drittel zu kommen, proklamiert er:

Das QME tötete >178 Spezies der größten Säugetiere der Welt mit einem Gewicht von mindestens 44 kg (also etwa die Größe von Schafen bis zu Elefanten). Über 101 Gattungen verschwanden. Mit Beginn vor ~50.000 Jahren und weitgehendem Abschluss vor 7000 Jahren war es das letzte große Massen-Aussterben auf der Erde.

Das „große“ QME-Ereignis soll also etwa 178 Spezies der weltgrößten Säugetiere dahingerafft haben, nämlich all jene mit einem Gewicht über 44 kg (in etwa die Größe von Schafen bis zu Elefanten). Mora 2011 zufolge gibt es heutzutage 1,2 Millionen katalogisierte Spezies, und die Gesamtzahl könnte 8,7 Millionen lebende Spezies umfassen. Während also das Aussterben von 178 Spezies vor ~50.000 Jahren infolge eines rapiden Klimawandels bedauernswert ist, weil die Geschöpfe so interessant waren, war es geologisch kein signifikantes Ereignis. Es ist nicht einmal ansatzweise vergleichbar mit den fünf großen Aussterbe-Ereignissen. Ein „großes Aussterben“ wird vom American Museum of Natural History als ein Ereignis definiert, bei dem über die Hälfte aller Spezies innerhalb kurzer Zeit ausstirbt. Auf der Website des Museums liest man dazu:

Vor rund 65 Millionen Jahren, … vielfach in früheren Felsformationen vorhandene Fossilien sind in späteren Formationen einfach nicht mehr da. Eine Vielzahl von Tieren und Pflanzen starb plötzlich aus, von kleinen Meeres-Lebewesen bis zu großen Dinosauriern.

Spezies sterben zu jeder Zeit aus. Wissenschaftler schätzen, dass 99,9% aller Spezies, Tiere und Pflanzen, die je gelebt haben, inzwischen ausgestorben sind. Daher wäre das Verschwinden von Dinosauriern wie T. Rex und Triceratops vor rund 65 Millionen Jahren kein Aufhebens wert – außer bzgl. der Tatsache, dass mit ihnen rund 50% aller damals lebenden Tiere und Pflanzen ausgestorben sind. Wissenschaftler sprechen hierbei von einem Massen-Aussterben.

Also ist das quaternäre Megafauna-Aussterben um etwa drei Größenordnungen zu klein, um als „Großes Aussterben“ bezeichnet werden zu können, wie es Barnosky getan hat.

Das quaternäre Aussterbe-Ereignis begann vor ~50.000 Jahren und war vor 3000 Jahren weitgehend beendet. Die Aussterbe-Rate lag bei 0,004 Spezies pro Jahr, was viel niedriger ist als die mittlere langfristige Aussterbe-Rate von etwa 1 Spezies pro Jahr (Daniel Botkin, siehe oben). Offensichtlich ist das Aussterben der Säbelzahntiger, von Riesenwölfen [dire wolves], Mammuts und anderer Megafauna in der geologischen Historie kein außerordentliches Ereignis. Aber diese Tiere sind ihrer Größe wegen faszinierend, und wir messen ihnen viel mehr Gewicht zu als einer ausgestorbenen Kröte oder einem Insekt. Dies ist jedoch eine Werte-Beurteilung und kein geologisches Ereignis.

Barnosky verweist darauf, dass Menschen zur großen Gattung der Säugetiere gehören, doch haben sie trotzdem überlebt und sind gediehen. Sie behaupten außerdem, dass die Zunahme der menschlichen Biomasse weitgehend den Verlust großer Mengen nichtmenschlicher Biomasse bis vor 12.000 Jahren ausgleicht. Dann kam es zum Zusammenbruch von Megafauna-Biomasse, sind doch viele Megafauna-Spezies ausgestorben. Das klingt mir sehr nach „survivor guilt”. Vor 12.000 Jahren begann in etwa die menschliche Zivilisation. In China wurde bereits Reis kultiviert, in der Levante (heute das Gebiet der Staaten Israel und Syrien) gab es Ackerbau. Der Bau der großen Steinmonumente bei Gobekli Tepe in der heutigen Türkei begann ebenfalls um diese Zeit. Die Menschen begannen sesshaft zu werden und Landwirtschaft zu betreiben. Die Menschen haben sich ziemlich gut an die Bedingungen während des Younger Dryas und danach angepasst, was anderen Megafauna-Spezies nicht gelungen ist.

Vor 12.000 Jahren stand das Ende des Younger Dryas kurz bevor. Dies war eine 1000 Jahre lange Rückkehr zu Eiszeit-Bedingungen nach einer kurzem Warmphase von vor 15.200 bis 13.000 Jahren. Diese Zeiträume sind in Abbildung 2 dargestellt. Die Graphik zeigt den Temperaturverlauf, wie er sich aus dem Grönland-Eisbohrkern GISP2 ergab, untersucht von Alley 2004.

Abbildung 2: Daten aus Alley 2004

Zumindest in Grönland, aber vermutlich auch auf der ganzen Nordhemisphäre war es vor 12.000 Jahren sehr kalt. Eine Detailliertere zeitliche Aufschlüsselung gibt es hier. Abbildung 3 zeigt eine globale Rekonstruktion, hauptsächlich aufgrund maritimer Temperatur-Proxys, welche ziemlich genau das Gleiche zeigen, obwohl diese Reihe nur bis vor 12.000 Jahren zurück reicht:

Abbildung 3. Quelle: A Holocene Temperature Reconstruction

Nachdem es vor 12.000 Jahren sehr kalt gewesen war, kam es danach zu einer rapiden weltweiten Erwärmung, besonders auf der Nordhemisphäre. Dies setzte viele Spezies unter Stress, zweifellos sind einige Spezies auch ausgestorben. Aber die Spezies, von denen wir besonders Notiz nehmen, sind die größeren Tiere. Einigen Schätzungen zufolge ist die Temperatur auf der Nordhemisphäre um 5°C bis 10°C innerhalb weniger Jahrzehnte gestiegen (Severinghaus et al., 1998). Diese extrem rasche Erwärmung dürfte auch auf viele andere Spezies Auswirkungen gehabt haben. Heutzutage gibt es einige Leute, die sich bzgl. eines Temperaturanstiegs um 0,8°C innerhalb von 137 Jahren Sorgen machen – aber man stelle sich eine Erwärmung von 5°C seit 1990 vor! Genau das hat auf der Erde am Ende des Youger Dryas stattgefunden.

Vor 12.000 Jahren hatte sich die Menschheit bereits in Afrika, Eurasien und den beiden Amerikas ausgebreitet. Der Aufstieg der Zivilisation und die Entwicklung neuer Jagdverfahren (Pfeil und Bogen, Speere und Speerwerfer – alles bereits vor mehr als 30.000 Jahren erfunden), machte die Jäger des Jungpaläolithikum sehr gefürchtet. Wir wissen, dass die Menschen zu jener Zeit auf die Jagd nach Megafauna-Spezies gegangen waren, und auch in Gegenden präsent waren, in denen die Megafauna ausstarb. In Australien verschwand die Megafauna innerhalb nur weniger tausend Jahre nach der Besiedelung des Kontinents durch Menschen und während einer Zeit mit stabilem Klima. Aber anderswo, wie in Eurasien, kam es zu Aussterbe-Ereignissen während Zeiten einer dramatischen Klimaänderung. Wahrscheinlich spielten sowohl die Jagd der Menschen jener Zeit als auch Klimawandel zusammen eine Rolle beim Aussterben der Megafauna. Eine Zusammenfassung der geologischen Beweise für beide Theorien gibt es aus dem Jahr 2014 hier sowie bei Barnosky 2008. Außerdem scheint klar zu sein, dass von der heute noch existierenden Megafauna vor 12.000 Jahren der Mensch am ehesten in der Lage war, sich an eine sich ändernde Welt anzupassen. Bis zu einem erheblichen Ausmaß haben die Menschen ihre Mit-Konkurrenten einfach überflügelt – Evolution im Vormarsch.

Barnosky erwähnt, dass heute einige Megafauna-Spezies heute vor dem Aussterben stehen. Viele dieser Spezies haben nur in Afrika überlebt. Das ist keine Überraschung. Afrika liegt beiderseits des Äquators und ist weniger verwundbar durch starken Klimawandel. Wegen ihrer Größe benötigt die Megafauna große Landgebiete, um in der Wildnis zu überleben. Sie werden in Nationalparks, auf privaten Ländereien und in Zoos geschützt. Aber mit dem Aufblühen der Menschheit ist der Mensch mehr am Erhalt dieser Spezies interessiert, und deren Aussterben ist unwahrscheinlich. Die Menschen des Jungpaläolithikums waren lediglich daran interessiert zu überleben. Die heutigen Menschen leben im Überfluss und sicher, und sie wenden Energie und andere Ressourcen auf, um das Überleben von Megafauna sicherzustellen – und nicht, um diese zu bedrohen.

Barnosky spekuliert, dass unser gegenwärtig hohes Niveau von „Biomasse“ großer Tiere nur durch fossile Treibstoffe erhalten werden kann und von der menschlichen „Biomasse“ dominiert wird. Das ist eine seltsame Art der Beschreibung des Tatbestandes, aber es könnte stimmen. Seine nächste Prophezeiung lautet, dass ein weiterer großer „Biomasse-Zusammenbruch“ unmittelbar bevorsteht, weil uns die fossilen Treibstoffe ausgehen. Dies jedoch ist unwahrscheinlich, weil seine Prophezeiung einer Versorgung mit Öl und Gas für nur noch 83 Jahre viel zu pessimistisch ist. In der Studie wird festgestellt, dass wir noch Ölvorräte für 50 Jahre und Gasvorräte für 200 Jahre haben. Ich habe die Gasversorgung in Ölversorgung umgerechnet mittels der USGS conversion von 6 MCF* Erdgas in 1 Barrel Öl-Äquivalent.

[*MCF = Mille (thousand) Cubic Feet. Früheres britisches Hohlmaß. Anm. d. Übers.]

Tabelle 1 (Quelle) zeigt eine wesentlich realistischere Schätzung bekannter Ressourcen von Kohlenwasserstoffen, die technisch förderbar sind. Sie ist sehr konservativ und enthält nicht alle bekannten Kohlenwasserstoffe. Alle in Tabelle 1 gelisteten Kohlenwasserstoffe können ökonomisch erzeugt werden zu Preisen, wie sie während der letzten 20 Jahre üblich waren. Es scheint, dass Barnosky nur „nachgewiesene“ oder „mögliche“ konventionelle Öl- und Gas-Lagerstätten gezählt hat. Die meisten der heute bekannten Öl- und Gasreserven werden jedoch als „unkonventionell“ klassifiziert (darunter Schiefer-Öl und Ölsande). Während die Produktion von unkonventionellem Öl und Gas teurer ist als die konventionelle Produktion, ist auch diese immer noch um eine Größenordnung billiger als die Erzeugung mittels Solar und Wind. . Kernkraft ist sogar noch billiger als Kohle und Erdgas, siehe hier. Unter dem Strich: Die verfügbare Energieversorgung ist nicht das Problem.

Tabelle 1. Quelle

Zwar spielte der Mensch im Paläolithikum (von vor etwa 40.000 bis 10.000 Jahren) eine gewisse Rolle beim quaternären Megafauna-Aussterben, doch war das eine sehr viel andere Menschheit als wir heute. Sie waren damals auf der Jagd für ihren Lebensunterhalt in einer sehr schwierigen Zeit. Dies führte zu physiologischen Änderungen, mussten sie sich doch an ein sehr kaltes Klima anpassen. Während dieser Periode konnten sie kaum Erfahrungen im Ackerbau sammeln, und wenn doch, dann nur in sehr primitiver Weise. Wenn die Nahrung vorbei spazierte, töteten und aßen sie das Wild. Wir haben schon früher gesehen, dass man sich nur dann um die Umwelt kümmern kann, wenn unser Einkommen stimmt und unseren Bedürfnissen Rechnung getragen wird (siehe den 1. Beitrag hier, auf Deutsch beim EIKE hier, Abbildung 2). Heute, wo das BIP in PPP$ über 2000 PPP$ pro Person hinausgeht, verbessert sich die Umwelt in jenem Land rapide.

Barnosky zufolge soll der Aufstieg des Menschen und weitere Aussterbe-Ereignisse von Megafauna einfach ein Ausgleich der Biomasse darstellen mit der Folge, dass mit dem Wachstum der Bevölkerung mehr bestehende Megafauna-Spezies aussterben. Ich finde diesen Ansatz hoch spekulativ, wenn ich an unseren Wohlstand denke und an unser Interesse, gefährdete Arten zu schützen. Es gibt einen Ausgleich der verfügbaren Landflächen, aber Biomasse? Mit moderner Landwirtschaft können wir viel mehr Menschen ernähren als früher. Außerdem können wir nahezu unbegrenzt Frischwasser verbrauchen. Und der Mensch hat ein offensichtliches Interesse, bestehende Megafauna-Spezies aus ästhetischen und humanitären Gründen zu erhalten und zu schützen. Sie laufen wohl nicht mehr in freier Wildbahn frei herum, aber ich bezweifle, dass wir es zulassen, dass große Tierarten aussterben. Das beste Mittel zum Erhalt von Megafauna ist eine wohlhabende und sichere menschliche Population.

[Jetzt folgt ein längerer Abschnitt zur Problematik der Eisbären. Hierzu sind jedoch auf der EIKE-Website jüngst ausführliche Beiträge veröffentlicht worden (am ausführlichsten hier), so dass dieser Abschnitt bei der Übersetzung übersprungen wird. Anm. d. Übers.]

Globale Erwärmung wird den Golfstrom zum Erliegen bringen und eine Mini-Eiszeit verursachen

Diesem hypothetischen Szenario zufolge soll schmelzendes Grönland-Eis den Salzgehalt im Atlantik zwischen Grönland und Norwegen verringern, was die Nordatlantische Thermohaline Zirkulation zum Erliegen bringt mit der Folge einer Kleinen Eiszeit wie vor 8200 Jahren. Aber dass es so kommt, ist sehr unwahrscheinlich. Vor 8200 Jahren ist ein gewaltiger Süßwassersee (Lake Agassiz) im Grenzgebiet zwischen den USA und Kanada, welcher ein Überbleibsel der letzten großen Vereisung war, nach dem Bruch eines Eisdammes in den Atlantik ausgelaufen. Dieses Ereignis verringerte den Salzgehalt des Oberflächenwassers und brachte die thermohaline Zirkulation zum Stillstand, was den Planeten über hunderte von Jahren abkühlte (siehe hier von Michael Michalek). Wir verweisen oft der Einfachheit halber auf eine Abkühlungsperiode vor 8200 Jahren, aber in Wirklichkeit gab es deren zwei, nämlich vor 8490 Jahren und dann wieder von vor 8340 bis 8180 Jahren. Lomborg schreibt dazu in Cool It:

Der Golfstrom ist vor 8200 Jahren zum letzten Mal zum Erliegen gekommen, als die letzten glazialen Eisschilde in Nordamerika schmolzen und einen gigantischen Süßwassersee um das Gebiet der heutigen Großen Seen entstanden ist. Eines Tages brach der Eisdamm, und eine beispiellose Masse Frischwasser ergoss sich in den Nordatlantik. Dadurch wurde das Absinken salzhaltigen Wassers aus dem atlantischen Strömungssystem unterbunden. Dies führte in Europa zu einer kleinen, fast 1000 Jahre langen Eiszeit …

Die Relevanz eines solchen Ereignisses hängt entscheidend davon ab, ob die Eisschmelze in Grönland von gleicher Größenordnung ist wie der antike Süßwassersee – und das ist nicht der Fall. Während des kommen Jahrhunderts [also dieses Jahrhundert, Anm. d. Übers.] erwartet das IPCC eine Eisschmelze in Grönland, die rund 1000 mal geringer ist als vor 8200 Jahren. Ein Modellierer-Team spielte ein Szenario durch, was geschehen würde, wenn das Grönlandeis mit einer drei mal so hohen Rate wie vom IPCC erwartet schmelzen würde – oder, wie sie es ausdrückten, „…obere Grenze der möglichen Schmelzraten“. Obwohl sie dabei eine Reduktion des Golfstromes heraus bekamen, zeigte sich, dass sich „die allgemeine Charakteristik nicht verändert“ und dass „eine abrupte Klimaänderung durch Schmelzen des grönländischen Eisschildes kein realistisches Szenario für das 21. Jahrhundert ist. …

Aus diesem Grunde auch äußert sich das IPCC in seinem Bericht aus dem Jahr 2007 sehr eindeutig zum Golfstrom: „Keines der gegenwärtigen Modelle simuliert eine abrupte Reduktion oder gar einen Stillstand des Golfstromes“. Den IPCC-Modellen zufolge reicht die Bandbreite von überhaupt keiner Änderung bis zu einer Reduktion um 50%, aber kein einziges Modell zeigt einen vollständigen Zusammenbruch. – Lomborg, Bjorn. Cool It (Kindle Locations 1334-1394).

Dieser Gedanke inspirierte den Film The Day after Tomorrow (,Am Tag danach‚) mit Dennis Quaid als Protagonist unter der Regie von Roland Emmerich. Der sehr ideenreiche Film ist angefüllt mit erheblichen wissenschaftlichen Fehlern, hat sich aber als Kassenschlager erwiesen. Sämtliche mir bekannten Geowissenschaftler, welche sich den Film anzusehen angetan hatten, verrissen ihn.

Schlussfolgerungen

Unter dem Strich gibt es keinen erkennbaren Trend hinsichtlich aussterben. Aber wir befinden uns mit Sicherheit nicht in einem „großen Aussterbe-Ereignis“. Der Golfstrom und das thermohaline Zirkulationssystem sind unverändert, und es gibt keinen „Lake Agassiz“, der darauf wartet, in den Atlantik auszulaufen. Das Eis in Grönland kann nicht schnell genug schmelzen, um den Salzgehalt bis zu einem Grad zu verdünnen, dass sich die Kaltphase von vor 8200 Jahren wiederholen kann.

Das Aussterben der quaternären Megafauna war sicher ein sehr trauriges Ereignis. Sowohl die Menschen der damaligen Zeit als auch radikale natürliche Klimaänderung spielten dabei eine Rolle, wie eindeutig aus den uns zur Verfügung stehenden Daten hervorgeht. Wenn man allerdings dieses sehr geringe Aussterbe-Ereignis mit den fünf großen Aussterbe-Ereignissen vergleicht, wie es Barnosky tut, legt man ein vollständiges Fehlen jeglicher Kenntnis der Verhältnismäßigkeit an den Tag sowie eine Ignoranz der geologischen Vergangenheit. Die wahren großen Aussterbe-Ereignisse waren entsetzliche Ereignisse, und der Verlust von 178 Spezies großer Tiere ist viele Größenordnungen zu klein, um dabei mithalten zu können. Um zu einer solchen Klassifizierung heutzutage zu kommen, müssten über eine halbe Million Spezies aussterben, und nichts dergleichen ist derzeit im Gange oder in absehbarer Zukunft zu erwarten.

Dr. Susan Crockford hat die Saga der Eisbären gut dokumentiert, welche fälschlich als „verwundbar“ bezeichnet werden, und man kann Einiges aus diesen Fiasko lernen. Man kann grundlegende politische Maßnahmen nicht auf die Grundlage nicht validierter Modelle und Prophezeiungen stellen. Der jüngste Trend, den Modellergebnissen ohne jedes Nachfragen zu glauben – oder noch schlimmer, die Modellergebnisse als reale Daten zu behandeln, muss aufhören. Sonst wird uns dieser Glaube an einem bestimmten Punkt über die Klippe springen lassen.

Link: https://wattsupwiththat.com/2017/12/16/extinctions-and-shutting-down-the-gulf-stream/

Übersetzt von Chris Frey EIKE




Exxon musste umweltaktivistischen Aktionären nachgeben

Aufmacherbild: Exxon Mobil, 2017 Outlook for Energy, A View to 2040

http://cdn.exxonmobil.com/~/media/global/files/outlook-for-energy/2017/2017-outlook-for-energy.pdf

  • Energie spielt auf der ganzen Welt eine entscheidende Rolle bei der Entwicklung moderner Lebensstandards
  • Der U.N. Entwicklungsindex summiert die gesellschaftlichen Leistungen in Bezug auf Lebenserwartung, Bildung und Einkommen der Bürger
  • Der Energieverbrauch eines Landes pro Kopf stimmt gut mit seinem Entwicklungsniveau überein

„Diese Weiterentwicklungen werden Sensitivitäten für die Energienachfrage, Implikationen von zwei Grad Celsius Szenarien und unsere Positionierung für eine kohlenstoffärmere Zukunft beinhalten“, schrieb Exxon in der am Montagabend übermittelten „federal regulatory filing“

[Verwaltungsvorschriften; …die Leitenden Führungskräfte müssen „bestätigen“, dass die Aktivitäten ihrer Unternehmen allen geltenden lokalen, staatlichen und bundesstaatlichen Vorschriften entsprechen. – wer einer Unregelmäßig wegen angeklagt wird, hat außerdem noch einen „persönlichen Fall von Falschaussage am Hals“, der Übersetzer]

Exxon sah sich im Laufe der Jahre einem zunehmenden Druck ausgesetzt, die Risiken zu „offenbaren“, denen ihre Geschäftstätigkeit aufgrund der Erderwärmung und künftiger regulatorischer Änderungen zum Ausstieg aus fossilen Brennstoffen ausgesetzt sein könnte.

Exxon hat bereits Prognosen veröffentlicht, wie sich die globale Erwärmung und zukünftige Regulierungen auf ihr Geschäft auswirken könnten, aber den Aktivisten war das nicht genug. Gegner der Maßnahme sind jedoch der Meinung, die Unternehmensleitung sei dumm, dem nachzugeben.

„Ich begann der Geschäftsleitung von ExxonMobil bereits im Jahr 2008 zu erklären, dass der Versuch, Klimaaktivisten zu beruhigen – die sich als Aktionäre ausgeben – eine völlig nutzlose Sache war“, erklärte Steve Milloy, Herausgeber der Website JunkScience.com und Exxon-Aktionär. „Fake-Investor“ -Aktivisten sind nicht daran interessiert, anderen Investoren bei der Maximierung ihrer Profite zu helfen, sondern stattdessen wollen sie Exxon als Mittel nutzen, um ihre linke soziale und politische Agenda voranzubringen“.

Exxons-Führungskräfte lehnten zunächst solche geforderten Maßgaben der Anteilseigner ab, doch Aktivisten konnten im Mai genügend Stimmen sammeln, um eine Berichterstattung zur globalen Erwärmung zu verabschieden. Die verabschiedete Bestimmung ist unverbindlich, stellt aber einen großen politischen Gewinn für Aktivisten dar.

Die Verhaltensregel verlangte von Exxon die Bewertung potenzieller Risiken, von „Technologieänderungen und von Klimaschutzmaßnahmen wie dem 2015er Abkommen, die darauf abzielen, die durchschnittliche globale Temperaturerhöhung unter 2 Grad Celsius zu halten“, berichtete Reuters im Mai.

Milloy argumentierte in der Hauptversammlung gegen diese Forderung, aber es gelang ihm nicht, die Investoren davon zu überzeugen, diese Eingabe wie in der Vergangenheit abzuwählen.

Der New York State Common Retirement Fund, der drittgrößte öffentliche Rentenfond des Landes, reichte diese Eingabe Anfang dieses Jahres auf der jährlichen Aktionärsversammlung von Exxon ein. Auch die Vanguard Group und BlackRock unterstützten die Bemühungen um die Offenlegung von Risiken aus Klimaregulierungen.

„Die Vorstellung, dass Exxon die Aktivisten beschwichtigen könnte, indem man nur einen Bericht über das Klima veröffentlicht, ist eine grob inkompetente Auslegung der hieraus sich entwickelnden Gefahr“, sagte Milloy.

Milloy hat diese Woche eine Aktionärseingabe eingereicht. Die Eingabe fordert Exxon auf, einen Bericht darüber zu erstellen, ob die freiwilligen Umweltprogramme von Exxon „den Aktionären, der öffentlichen Gesundheit und der Umwelt, einschließlich des globalen Klimas, tatsächliche und bedeutsame Vorteile bringen“, so die Kopie der Eingabe, die dem Daily Caller übermittelt wurde.

Umweltaktivisten haben sich in den letzten Jahren konzertiert bemüht, die Welt durch Ausnutzung von „Möglichkeiten eines Investors zu dekarbonisieren“. [Anmerkung: Wird z.B. bei Siemens auch probiert, der Übersetzer]

Ein Teil der Bemühungen besteht darin, Finanzinstitutionen davon zu überzeugen, keine Investitionen in fossile Brennstoffe mehr zu tätigen. Der staatliche kalifornische Pensionsfonds veräußerte Anteile an Kohleunternehmen und verpasste damit den jüngsten Boom der Aktien der Kohleindustrie.

Auch der norwegische Staatsfonds erwägt , sich von Anteilen der Öl und Gasindustrie zu trennen, obwohl der Fonds durch die riesigen Ölreserven des Landes gestützt wird.

Ceres, eine Umweltgruppe, feierte die Entscheidung von Exxon. Cere’s Andrew Logan sagte am Dienstag gegenüber Axios: „Die Aktionäre haben einen großen Sieg errungen“ und fügt hinzu, dass Exxon „nun ernsthaft mit den potenziellen Risiken eines Übergangs in eine kohlenstoffarme Zukunft rechnen muss. … Natürlich könnte das Unternehmen die im Antrag der Aktionäre geforderte Analyse in einer Weise durchführen, die die Risiken für die Anleger beleuchtet, oder sie könnte dies auf eine Weise tun, die sie verschleiert“.

Erschienen auf The Daily Caller am 12.12.2017

Übersetzt durch Andreas Demmig

Oil Giant Exxon Just Caved To The Demands Of Global Warming Activists




Ohne den Klima­wandel hätte das gleiche Wetter nicht so schlimme Folgen…

24.12.2017 Philippinen: Taifun fordert 200 Tote … Eines der größten Probleme ist der Anstieg des Meeresspiegels

Während die sonstigen Medien in ihren Meldungen über den Taifun bei den Philippinen auf einen Hinweis zum Klimawandel „verzichteten“, konnte es eine Homepage nicht lassen, eine Verbindung dazu „herzustellen“.
Nicht direkt, sondern nur so, dass jeder einfach daran denken muss. Schließlich „weiß“ man, dass ein „Anstieg des Meerespegels“ die unausweichliche Folge des vom bösen Westen verursachten, anthropogenen Klimawandels ist:
KLIMARETTER.INFO 24. Dezember 2017: [1] … Die Philippinen sind von einem schweren Tropensturm heimgesucht worden. Der Taifun „Tembin“, der auf den Philippinen „Vinta“ heißt, verwüstete kurz vor Weihnachten Mindanao, die südlichste Inselgruppe des Landes. Mehr als 200 Menschen kamen uns Leben …
… Die Philippinen gehören laut
einer Studie der Asiatischen Entwicklungsbank von 2012 zu den fünf am meisten vom Klimawandel bedrohten Ländern. Eines der größten Probleme ist der Anstieg des Meeresspiegels. Für den Inselstaat Philippinen bedeutet ein höherer Wasserspiegel in den Buchten, dass Taifune noch mehr Schaden anrichten können.

Im Artikel wird dazu als „Beleg“ auf eine Studie der Asiatischen Weltbank verlinkt. In dieser ist allerdings nichts weiter zu lesen, als dass steigende Pegel für niedrig liegende Küstenstädte ein Problem werden (können), als zusätzliche Information jedoch, dass dort Küsten öfters sinken, und dies – nicht steigende Pegel – das Problem sind [6].
Zudem erzeugen schwere Taifune Wellenhöhen von 10 … 20 m [8] [9]. Vollkommen unverständlich bleibt, warum einige Zentimeter Pegelerhöhungen über Jahrzehnte, dann „eines der größten Probleme“ darstellen soll.

Es ist nicht der erste Artikel von KLIMARETTER zu den Philippinen. Denn die Philippinen scheinen ein „Vorzeigebeispiel“ des schlimmen Klimawandels zu sein:
KLIMARETTER.INFO 07. August 2017: [2] Philippinen: Alleingelassen im Klimawandel Die Philippinen leiden besonders stark unter dem steigenden Meeresspiegel.In der philippinischen Hauptstadt Manila ist der Meeresspiegel, relativ zur Küste, in den vergangenen Jahrzehnten um 80 Zentimeter gestiegen …
In diesem Vorgänger-Artikel wurde als Beleg bereits auf die gleiche „Studie“ der Asiatischen Weltbank verwiesen, dazu auf ein Interview von 2013 [4] mit einer Autorin des IPCC Meereskapitels zum IPCC Sachstandsbericht, welche damals zu den Pegeländerungen nichts weiter sagen konnte (eher: wollte), als dass alle Aussagen unsicher sind und zudem auf Simulationen beruhen:
[2]
… Drittens: Durch die Erwärmung des Ozeans und durch das Schmelzen der Gletscher und der Eisschilde erhöht sich der Meeresspiegel. Diese Erhöhung erfolgt doppelt so schnell wie noch vor ein paar Jahrzehnten. Aber hier müssen wir vorsichtig sein, dass wir nicht in Alarmismus verfallen, weil man mit den kurzfristigen Trends immer aufpassen muss.
Von 1870 bis heute hat sich der
Meeresspiegel um 19 Zentimeter erhöht. Wenn wir jetzt in die Projektionen gehen und fragen, wie stark der Meeresspiegel bis 2100 steigen wird, hängt das natürlich davon ab, wie viel an Treibhausgasen emittiert wird. Das Szenario RCP 2.6 mit einer starken Abschwächung des CO2-Ausstoßes geht von 26 bis 55 Zentimetern aus, das Szenario RCP 8.5 mit einem stark steigenden CO2-Ausstoß von 52 bis 98 Zentimetern.
Können Sie sich darauf festlegen, wie wahrscheinlich welche Prognose ist?
Nein, wir sind ja keine politischen Entscheidungsträger …

Auch auf den Philippinen gibt es Aktivist*innen, welche alarmistische „Studien“ platzieren

Wohl ein Gipfel an (Des-)Information zum Meerespegel um die Philippinen war eine pünktlich vor dem letzten Klimagipfel erschienene „Studie“ von Correctiv.org, an welcher KLIMARETTER wohl unterstützend beteiligt war: [2] „das Rechercheportal Correctiv, das bei seinem Meeresspiegel-Projekt mit klimaretter.info kooperierte“.
Der Autor berichtete darüber:
EIKE 13.08.2017:[7] Manila versinkt durch Wasserentnahme im austrocknenden Untergrund. Der (reiche) Westen mit seinem CO2 soll daran schuld sein – und zahlen
Darin hat der Autor detailliert und mit vielen Belegen gezeigt, dass die Darstellungen in dieser Studie zum Pegelanstieg bei den Philippinen falsch sind und die Recherche von Correktiv mit der alarmistischen Aussage zum Pegelanstieg bei Manila auf bewusstem Weglassen von Fakten beruht. Schlimmer noch, dass Correctiv dazu zwei Versionen – eine mit richtiger Darstellung (Manila versinkt, nicht der Meerespegel steigt) – und eine mit den klimaalarmistisch abgeleiteten Aussagen – veröffentlicht hat.
EIKE: [7]Correctiv.org hat von der Journalistin, Frau Manabat, zeitgleich zwei Artikel über Manila veröffentlicht.
Den auf klimaretter erschienen Artikel:
Correctiv.org, Jacque Manabat, 28. Juli 2017: [6]
Philippinen: Allein gelassen Warum arme Länder durch den Klimawandelt noch ärmer werden … in dem der Klimawandel als Ursache des Pegelanstiegs „angeklagt“ wird.
Und den Zweiten, in dem die Landsenkung von Manila beschrieben wird:
Correctiv.org, Jacque Manabat, 28. Juli 2017: [7]
Manila: Trauriger Spitzenreiter Schon in wenigen Jahren könnten große Teile der Metropole unter Wasser stehen
Im ersten, – dem auf Klimaretter veröffentlichten Artikel [x] [x] – ist kein Hinweis zur Landabsenkung enthalten. Zwar kommt in der Überschrift das Wort „ … relativ zur Küste …“ vor. Dahinter wird ein Laie aber wohl kaum vermuten, dass genau dieses Wort den gesamten Artikel negiert. Der Link zur Weltbankstudie (siehe dazu [x]) ist ebenfalls so „getextet“, dass wohl niemand darauf kommen würde, dass gerade in dieser Studie eine Information zur Landabsenkung hinterlegt ist

Im Artikel hatte der Autor auch den wahrscheinlichen Pegelverlauf bei Manila „rekonstruiert“ (Bild 1).

Bild 1 Rekonstruktion des Pegelverlaufs Manila durch den Autor im Artikel [7]: Pegelverläufe Manila (blau), Cebu (rot), San Jose (grün). Pegel an den Startzeitpunkten auf den Pegel Manila normiert. Grafik vom Autor erstellt. Datenquelle: PSML Viewer

Nun wurde der „Anstieg“ des Meerespegels bei den Philippinen offiziell richtiggestellt

Inzwischen hat auch die NOAA das Problem ihrer Tiden-Pegeldarstellung zu Manila erkannt und eine Ergänzung hinterlegt.
Dazu muss man wissen, dass die NOAA-Tidenpegel immer ohne isostatische Korrekturen, also als reine Messwerte angegeben sind. Manila versinkt durch seine Bevölkerungszunahme und die damit einhergehende, exzessive Wasserentnahme buchstäblich im schlammigen Untergrund.
Das stellen die Messwerte richtig dar und als Pegelverlauf ergibt sich das folgende Bild (2). Nur ist in diesem nicht erkennbar, dass seit 1970 nicht der Meerespegel anstieg, sondern Manila so extrem in seinen Untergrund versunken ist.

Bild 2 Pegeldarstellung Manila auf der NOAA Homepage mit erklärendem Text (Reiter: Mean Sea Level Trend)

Mit dieser Darstellung „belegen“ „Klimawissenschaftler*innen“ regelmäßig die schlimmen Auswirkungen des Klimawandel-bedingten Pegelanstiegs gerade in dieser schon von Taifunen regelmäßig schlimm bis extrem heimgesuchten Zone.

Bei der NOAA hat man dieses Problem der vielen Fehlinterpretationen wohl erkannt, und nun hinter dem Reiter „Interannual Variation“ ein weiteres Pegelbild hinterlegt. Und das sieht wie folgt aus (Bild 3):

Bild 3 Zusätzliche Pegeldarstellung Manila auf der NOAA Homepage mit erklärendem Text (Reiter: Interannual Variation)

Warum der Pegel im Jahr 2000 aufhört, erschließt sich nicht. Aber man kann ihn mit dem einer daneben liegenden Messstation weiterführen und kommt dann zum Bild 4.

Bild 4 Pegeldarstellung Manila der NOAA vom Autor mit dem Pegelverlauf SAN JOSE bis zum Jahr 2016 ergänzt.

Und damit ist endlich auch offiziell durch die NOAA bestätigt, dass der Meeres-Pegel bei den Philippinen seit dem Jahr 1900 nicht zugenommen hat.
Der Autor jedenfalls ist stolz, dass die NOAA zum gleichen Ergebnis kommt, wie er mit seiner (der Studie des „Rechercheportals“ Correctiv.org widersprechenden) Pegelanalyse (Bild 1 [7]).

Taifune

Bleiben noch die Taifune als Bedrohung. Diese ist reell und in schlimmem Ausmaß vorhanden. Daran ist aber ebenfalls nicht ein (angeblicher) anthropogener Klimawandel der zusätzliche Treiber:
kaltesonne:
Wer hätte das gedacht: Studien können keine Zunahme der tropischen Wirbelstürme im Indischen und Pazifischen Ozean feststellen (3.12.2013)
Klimaaktivisten missbrauchen Taifun Haiyan für eigene Zwecke: Studien fanden für die vergangenen Jahrzehnte keine Zunahme der Taifunaktivität (18.11.2013)
und auch für die deutsche Nordseeküste, wie es gerade aktuell betätigt wurde:
kaltesonne, 27. Dezember 2017: Bundesamt für Seeschifffahrt und Hydrographie: Es gibt in Norddeutschland nicht mehr Sturmfluten als vor 50 Jahren

Dass jeder ausgegebene Cent zur CO2-Vermeidung als Lösung der dortigen „Klimawandel-bedingten“ Probleme sinnlos zum Fenster herausgeworfen ist, hat sogar die Münchner Rückversicherung einst bestätigt:
Münchner Rückversicherung, Pressemitteilung 11. November 2013: Überschwemmungen und Taifune sind in Ostasien die größten Wetterrisiken
… Peter Höppe, Leiter der Georisiko-Forschung von Munich Re: „Es gibt eigentlich keine Region in Ostasien, die vor Überschwemmungen gefeit ist.
Gründe für die starke Zunahme von Schäden durch Wetterkatastrophen sind vor allem soziökonomische Faktoren wie das weiterhin hohe Wirtschaftswachstum und der damit verbundene Anstieg an Werten in exponierten Gebieten. Städtische Ballungsräume an den Küsten und die schnell wachsenden Industrieparks, die in Flussdeltas liegen, sind besonders gefährdet.“
Neben Überschwemmungen geht von Taifunen die größte wetterbedingte Naturgefahr aus, sie zählen zu den schadenintensivsten Wetterereignissen. Davon sind vor allem die Ballungsräume in Südostasien betroffen, vornehmlich in Japan, Vietnam, Taiwan und auf den Philippinen sowie die schnell wachsenden Megastädte im Osten Chinas.
Das Auftreten von Taifunen wird durch eine periodische Klimaschwankung mit Phasen von ca. 30 Jahren beeinflusst. „In den vergangenen zehn Jahren lag die Taifunaktivität unter dem langjährigen Mittel. Schreibt man die aufgedeckten Zyklen in die Zukunft fort, so erwarten wir nun in den nächsten Jahren eine Phase mit höherer Taifunaktivität“, sagte Höppe.

Damit fällt für die Philippinen „eines der größten Probleme“ als Bedrohung weg

Es ist immer wieder erschütternd, „live“ zu erleben, wie Bedrohungsszenarien alleine aufgrund (bewusst?) falsch interpretierter Daten über viele Jahre rund um die Welt publiziert werden (können):
KLIMARETTER.INFO 07. August 2017: [2] Philippinen: Alleingelassen im Klimawandel Die Philippinen leiden besonders stark unter dem steigenden Meeresspiegel.In der philippinischen Hauptstadt Manila ist der Meeresspiegel, relativ zur Küste, in den vergangenen Jahrzehnten um 80 Zentimeter gestiegen …
SWR2, Rubrik WISSEN 6.3.2017: Die Philippinen und der Klimawandel
Immer mehr Menschen auf den Philippinen verlieren ihr Zuhause – wegen Überschwemmungen und Stürmen infolge des Klimawandels.
Correctiv.org: Ein Dorf am Rand der Welt verschwindet Wie der Klimawandel die Menschen in einer entlegenen philippinischen Provinz heimsucht.
Unsere Datenrecherche belegt: Auf den Philippinen steigt der Meeresspiegel – relativ zum Land – stärker als in jeder
anderen Region der Erde.
FOCUS ONLINE, 26.01.2016: … Meeresspiegel steigt doppelt so stark wie bisher vermutet … Weltweit sei der Anstieg der Meeresspiegel allerdings sehr unterschiedlich. Während er auf den Philippinen fünf Mal so hoch sei wie der weltweite Durchschnitt …
– und niemand der „Fachwissenschaftler*innen“ bemerkt die Fehler.

Das gilt nicht nur für die Philippinen, sondern für viele, angeblich von steigenden Pegeln so bedrohten Küsten wie es alle Recherchen immer neu zeigen [10] [11] [12] [13] [14] und Professor Mörner gerade aktuell wieder belegt hat:
EIKE 29. November 2017: Änderungen des Meeresspiegels und Klima auf Fidschi: totale Falschinformationen von COP23
… In wahrer Wissenschaft muss man die realen Fakten erkunden, so, wie sie vor Ort beobachtet oder durch validierte Experimente gegeben werden. Auf den Malediven, in Bangladesh und Südindien gibt es sehr klare zu beobachtende Fakten, welche während der letzten 40 bis 50 Jahre stabile Meeresspiegel-Bedingungen belegen (http://dx.doi.org/10.2112/JCOASTRES-D-16A-00015.1). Gleiches wurde durch einsehbare Tidenmessungen in Tuvalu, Vanuatu und Kiribati im Pazifik gemessen.
… Dies impliziert, dass gemessene Fakten nicht das Meeresspiegel-Anstiegs-Szenario des IPCC stützen, sondern im Gegenteil dieses Szenario als unbegründete Falschinformation entlarven.

Trotz dieser erdrückenden, gegenteiligen Belege verkündet eine „Fachstelle“ weiterhin: „eines der größten Probleme ist der Anstieg des Meeresspiegels

Betrachtet man unter Berücksichtigung dieser Fakten – welche jedem leicht zugänglich sind – was die Beraterin für Klima und Energie unserer Berliner Politikkaste durch ihre Redakteur*innen als angeblich immer noch aktuell wieder verkünden lies:
KLIMARETTER.INFO, 24.12.2017: [1] Die Philippinen gehören laut einer Studie der Asiatischen Entwicklungsbank von 2012 zu den fünf am meisten vom Klimawandel bedrohten Ländern. Eines der größten Probleme ist der Anstieg des Meeresspiegels. … Für den Inselstaat Philippinen bedeutet ein höherer Wasserspiegel in den Buchten, dass Taifune noch mehr Schaden anrichten können … ,
muss man sich wirklich fragen, was eine Professorin C. Kemfert dabei denkt. Zumindest der Begriff „sich für etwas schämen“ scheint ihr unbekannt. Hier wird nicht neutrale Wissenschaft verkündet, sondern blütenreinste, klimaalarmistische Politik betrieben.
Leider muss man sich auch fragen, weshalb solche Personen schier „endlos“ mit Titeln und Preisen überhäuft werden (was natürlich nicht nur für die Professorin C. Kemfert gilt).
WIKIPEDIA: Ämter
Seit Juli 2016 gehört Kemfert dem Sachverständigenrat für Umweltfragen an.[3] Sie beriet EU-Kommissionspräsident José Manuel Barroso sowie die Weltbank und die UN.[4] Kemfert ist Gutachterin des Intergovernmental Panel on Climate Change (IPCC). Außerdem war sie Mitglied der Wissenschaftlichen Kommission Niedersachsen[5] und im Nachhaltigkeitsbeirat Brandenburg.[6] Sie ist zudem Mitglied des wissenschaftlichen Beirates des Österreichischen Instituts für Wirtschaftsforschung (WIFO)[7] sowie des Frankfurter Zukunftsrates[8] und der TU-Campus EUREF gGmbH.[9][10] Des Weiteren ist sie Mitglied im wissenschaftlichen Beirat des Energie Campus Nürnberg sowie des Deutschen Biomasseforschungszentrums (DBFZ)[11], des Kuratoriums der Technologiestiftung Berlin[12], der Deutschen Klimastiftung[13], von B.A.U.M.[14] sowie des Deutschen Studienpreises der Körber-Stiftung[15]. Seit 2010 ist sie im Beirat der Deutschen Umweltstiftung[16] und seit 2011 in der Jury der GreenTec Awards[17]. Ferner ist sie Jurorin des Deutschen Umweltpreises.[18] 2009 war sie auch Jurorin des Deutschen Nachhaltigkeitspreises.
WIKIPEDIA: Auszeichnungen
2006 wurde Kemfert von der Deutschen Forschungsgemeinschaft, der Leibniz-Gemeinschaft und der Helmholtz-Gemeinschaft Deutscher Forschungszentren als Spitzenforscherin ausgezeichnet (Elf der Wissenschaft).[34] Außerdem ist sie Preisträgerin des Deutschen Akademischen Austauschdienstes (DAAD).[35] 2010 war sie im Zusammenhang mit dem Deutschen Nachhaltigkeitspreis für die Auswahl „Deutschlands 50 Köpfe der Nachhaltigkeit“ nominiert.[36] 2011 wurde sie mit der Urania-Medaille[37] sowie mit dem B.A.U.M.-Umweltpreis[38] in der Kategorie Wissenschaft ausgezeichnet. 2011 wurde Claudia Kemfert in den Club of Rome aufgenommen.[39] 2016 erhielt sie den Deutschen Solarpreis in der Kategorie „Sonderpreis für persönliches Engagement“ sowie den Adam Smith Preis für marktwirtschaftliche Umweltpolitik

So lange unsere Medien solchen an Betrug grenzenden „Informationen“ blind vertrauen (wollen oder müssen), wird sich daran nichts ändern

Der Autor macht sich ab und zu – wenn es ganz schlimm wird, wie wieder zu COP23 – die (sinnlose) Mühe, der Redaktion „seiner“ Lokalzeitung ihren teils geballten Unsinn in Berichten zu Klima und Energie vorzuhalten und wenigstens auf ein Minimum an redaktioneller Verantwortung für ihre Medieninhalte hinzuweisen. Die letzte Antwort darauf war:
Sehr geehrter Herr… ,
Sie beschweren sich immer wieder über unsere Berichterstattung zum — von Ihnen bestrittenen — Klimawandel.
Dazu lässt sich folgendes sagen: Wir sind kein Klima-Fachblatt, wir veröffentlichen Recherchen von Agenturen, Fachjournalisten und Einschätzungen von renommierten (!) Wissenschaftlern.
Es ist ihr gutes Recht, dass alles für Humbug zu halten. Es ist aber auch unser gutes Recht, an der Reputation und der Motivation von Netzwerken wie „Eike“ zu zweifeln und damit auch an Ihren, mit erstaunlicher Selbstgewissheit vorgetragenen Theorien.
Mit freundlichen Grüßen
Dass der Autor in keinem seiner Artikel „Theorien“ vorträgt, sondern ganz bewusst ausschließlich aufzeigt, wenn die wirklichen Daten den Aussagen von „renommierten (!) Wissenschaftlern“ ganz einfach widersprechen, fiel der Redaktion nicht auf.

Aber es ist der Stoff, welcher es erst ermöglicht, dass eine Regierung von Fidschi sich vor 25.000 „renommierten“ Teilnehmern auf COP23 hinstellt und nicht nur unwidersprochen von ihrem angeblichen „Untergang“ fabulieren kann, sondern trotz dieser bewussten Falschdarstellung (auch von unserer Politikkaste) noch unterstützt wird.
EIKE 16. November 2017: Nochmals Fidji, die eher aufsteigenden, als untergehenden Atolle
EIKE 27. November 2017: Die Rede unseres Bundespräsidenten, F. W. Steinmeier auf COP23 über den Klimawandel war (k)eine investigative Sternstunde – Teil 2 (2)

Entschuldigung: Solche Übertreibungen sind erforderlich, denn ohne CO2-Reduzierung werden die Folgen unabsehbar

Natürlich ist alles, was derzeit zur Klimawandel-Vulnerabilität publiziert wird kein Betrug. Mögen die berichteten Daten auch (wissentlich) falsch sein und gemeldete Bedrohungen noch gar nicht vorliegen, so ist das nur der „guten Sache“ geschuldet. Denn wenn die Menschheit nicht sofort „umkehrt“, werden die Folgen furchtbar sein:
Potsdamer neueste Nachrichten 25.11.2015 (Interview mit J. Schellnhuber, PIK): Was weiß die Forschung heute über den zu erwartenden Anstieg des Meeresspiegels?
… Wenn wir in den Bereich von zwei Grad vorstoßen sollten, muss also langfristig mit um wenigstens sechs Meter erhöhten Wasserständen gerechnet werden. Wenn das ein langfristiger Prozess über Jahrtausende ist, wird man die Küsteninfrastrukturen zurückbauen können, viele Inselstaaten müssen dann aber evakuiert werden. Die Malediven wird es beispielsweise nicht mehr geben. Bei ungebremster Erderwärmung sind sogar bis zu 50 Meter Meeresspiegelanstieg möglich …

Woher weiß Herr Schellnhuber das so genau?
Weil es praktisch unfehlbare (von Menschen programmierte) Computerprogramme vorhersagen. Nicht eines, viele. Zwar ungenau, doch deshalb lässt man deshalb verschiedene Simulationen mehrere Hundert Läufe durchführen. Aus den breit gestreuten Ergebnissen siebt man dann die richtig vorhersagenden heraus. Das Ergebnis solcher Programme ab der nächsten 14 Tage ist deprimierend, je weiter man jedoch in die Zukunft blickt, um so sicherer und präziser werden sie – zumindest weiß das Herr Schellnhuber.
EIKE 17.10.2015: Fällt die nächste Eiszeit aus? PIK Chef Schellnhuber behauptet: Ja, so sicher wie das Amen in der Kirche!
Auch er wird dafür mit Titeln und Preisen überhäuft:
EIKE 29. Oktober 2017: Deutschland und Japan müssen im Wettrennen gegen den Klimawandel die Führung übernehmen
Schellnhuber erhält Blue Planet Preis

Damit könnte ein neuer Artikel beginnen:
kaltesonne 23. Dezember 2017: Was sind die Temperaturprognosen wirklich wert? Klimamodelle bei wichtigem Realitäts-Check glatt durchgefallen
Klimamodelle mussten in letzter Zeit viel Kritik einstecken. Weder hatten sie die gebremste Erwärmung der letzten 15 Jahre vorhergesagt, noch vermögen sie die natürlichen Wärmeperioden der letzten Jahrtausende nachzuvollziehen. Ein Team um Christopher O’Reilly hat nun überprüft, inwieweit die gängigen Klimamodelle die Wintertemperaturen der letzten 100 Jahre der Nordhemisphäre reproduzieren können. Die Forscher waren erstaunt, als die Prognoseleistung Mitte des 20. Jahrhunderts nahe Null fiel. Ein bitterer Fehlschlag. Irgendetwas scheint in den Modellen zu fehlen. Ist es angesichts der krassen Defizite eigentlich vertretbar, die Politik von ebensolchen Modellen leiten zu lassen und weitreichende Entscheidungen zu treffen?

Quellen

[1] KLIMARETTER.INFO 24. Dezember 2017: Philippinen: Taifun fordert 200 Tote

[2] KLIMARETTER.INFO 07. August 2017: Philippinen: Alleingelassen im Klimawandel Die Philippinen leiden besonders stark unter dem steigenden Meeresspiegel.

[3] SPIEGEL ONLINE 27.09.2012: Meeresspiegelkarte Ozeanbeulen bedrohen Küstenstädte

[4] KLIMARETTER.INFO, 30. September 2013: „Meeresspiegel steigt doppelt so schnell“

[5] Correctiv.org, Jacque Manabat, 28. Juli 2017: Manila: Trauriger Spitzenreiter Schon in wenigen Jahren könnten große Teile der Metropole unter Wasser stehen

[6] Correctiv.org, Jacque Manabat, 28. Juli 2017: [6] Philippinen: Allein gelassen Warum arme Länder durch den Klimawandelt noch ärmer werden

[7] EIKE 13.08.2017: Manila versinkt durch Wasserentnahme im austrocknenden Untergrund. Der (reiche) Westen mit seinem CO2 soll daran schuld sein – und zahlen

[8] Deutscher Wetterdienst: Wetterlexikon Taifun Taifune stellen eine große Gefahr für die Schifffahrt auf dem Nordwest-Pazifik und seiner Randmeere (Wellenhöhen über 10 m) dar

[9] Wetterkanal: Tropenstürme 17. Oktober 2017: LAN auf dem Weg zum starken Taifun
Die signifikante Wellenhöhe am kommenden Samstag aus dem globalen US-Modell. Es werden Wellenhöhen bis fast 20 Meter berechnet, dabei sind deutlich höhere Einzelwellen überhaupt noch nicht berücksichtigt. Meterhohe Wellen werden selbst an den Küsten von Taiwan, dem chinesischen Festland und vielen japanischen Inseln erwartet.

[10] EIKE 08.08.2017: Meerespegelanstieg: Europa kann nicht alle (vor Klimawandel-Desinformation) schützen T2 (2)

[11] EIKE 27. Juli 2017: G20 Klimafakten ohne Hysterie betrachtet Teil 2 (4): Die Meerespegel steigen und steigen …(aber keinesfalls unnatürlich)

[12] EIKE 15.04.2017: Im Klimawandel-Unterricht bitte üben, wie man unsere Regierung zum Bezahlen von Schutzgeldern auffordert

[13] EIKE 05.11.2017: Eilmeldung zu COP 23: Fidji geht doch nicht unter (wegen des westlichen CO2), es war nur ein alter Datensatz

[14] kaltesonne 29.7.2015: Marschallinseln im Pazifik besonders vom Klimawandel betroffen? In den letzten 2000 Jahren fiel dort der Meeresspiegel um anderthalb Meter




„Trump sollte den Zorn Gottes fürchten“ – sagt ein Klima-Missionar der Demokraten

In der Beschreibung der Nachrichtenshow wird auf Browns kurzen Aufenthalt als Seminarist der Jesuiten in den späten 1950er Jahren angespielt, aber das gibt die Überleitung auf seine heutige Mission. Brown, ein Demokrat, hat den Kampf gegen die Erderwärmung zu einem zentralen Teil seiner Regierungsarbeit gemacht.

Brown hat sich als Kontrast zu Präsident Donald Trump inszeniert, besonders in der Frage der globalen Erwärmung. Die Trump-Regierung hat Klimaregulierungen und -programme zurückgenommen.

„Ich glaube nicht, dass Präsident Trump Angst vor dem Herrn hat, die Befürchtung vor dem Zorn Gottes, die ihn zu mehr Demut führt“, sagte Brown in “ 60 Minutes „. „Und das ist solch eine rücksichtslose Missachtung der Wahrheit und der existenziellen Konsequenzen, die damit entfesselt werden können.“

Brown war in diesem Jahr besonders aktiv und reiste zum Vatikan, nach China und zu dem UN-Gipfel in Bonn, „um der Welt zu sagen, dass Präsident Trump nicht für alle Amerikaner spricht“, so „60 Minutes“.

Brown schloss sich dem ehemaligen New Yorker Bürgermeister Michael Bloomberg in Bonn an, einem [von der Regierung der USA] Unabhängigen, um dem Pariser Klimaabkommen zuzustimmen, dem die frühere Regierung von Präsident Barack Obama im Jahr 2016 beigetreten ist. Staaten und Städte im ganzen Land verpflichteten sich, Treibhausgasemissionen zu reduzieren, um gegen Trumps Plan zu protestieren, vom Vertrag zurücktreten.

Brown will, dass Kalifornien bis 2030 50 Prozent seines Stroms aus grünen Energiequellen bezieht. Die Gesetzgeber des Staates haben auch eine Gesetzesinitiative vorgestellt, benzinbetriebene Autos nach 2040 zu verbieten.

„Wir haben einen Handel mit Emissionsrechten in Kalifornien, was ein sehr effizienter Weg zur Reduzierung von Treibhausgasen ist“, sagte Brown. „Wir haben ein emissionsfreies Fahrzeugmandat. Wir haben Effizienzstandards für unsere Gebäude, für unsere Geräte. So zeigt Kalifornien, dass der Umgang mit dem Klima gut für die Wirtschaft ist und nicht schlecht, wie manche behaupten“.

Browns Optimismus beschönigt jedoch die krassen Probleme der kalifornischen Wirtschaft, einschließlich hoher Energie- und Wohnkosten:

60 minutes:

Aber der wirtschaftliche Erfolg Kaliforniens hat seinen Preis. Die Wohnungspreise sind durch das Dach geschossen. Ebenso die Anzahl der Obdachlosen. Ein Viertel der Obdachlosen des Landes lebt in Kalifornien.

Jerry Brown:

Wir sind nicht im Paradies

Kalifornien war in den letzten Jahren von einem Rückgang der Kohleenergie getroffen – vor allem aufgrund eines staatlichen Gesetzes, das Versorgungsunternehmen daran hindert, Kohleverträge zu erneuern. Allerdings hat der Staat im Jahr 2016 fast 40 Prozent seines Stroms aus Erdgas gewonnen.

Kalifornien schreibt vor, dass ein bestimmter Prozentsatz seines Stroms aus grünen Energiequellen zu stammen hat. Der Emissionshandel des Staates und unzählige Subventionen haben mehr grüne Energie ins Netz gebracht.

Kalifornien bezieht 25 Prozent seines Stroms aus grüner Energie, hauptsächlich aus Wind und Sonne. Atom- und Wasserkraft erzeugten im vergangenen Jahr etwa 20 Prozent des kalifornischen Strombedarfs.

Kalifornier bezahlen auch die höchsten Strompreise in den USA. Der durchschnittliche Strompreis in Kalifornien lag im September bei fast 18 Cent pro Kilowattstunde, verglichen mit dem nationalen Durchschnitt von etwa 11 Cent.

Kalifornien hat auch die höchsten durchschnittlichen Benzinpreise mit $ 3,10 pro Gallone [~ 0,8 Euro/L], trotz reichlicher Raffineriekapazität. Steuern und Regulierungen auf Bundes- und Länderebene tragen zu den Kosten für die Tankfüllung bei.

Erschienen auf The Daily Caller am 11.12.2017

Übersetzt von Andreas Demmig

http://dailycaller.com/2017/12/11/60-minutes-describes-jerry-brown-as-a-climate-missionary-who-preaches-the-gospel-of-renewable-energy/

 




Trump wünscht sich „gute alte Erderwärmung“

Die Klimakatatsrophen-Industrie reagiert darauf so erwartbar wie ein Zigaretten-Automat in den man Geld  einwirft: Sie spukt die gewünschte  Packung lächerlicher Empörung aus. / Link zum Fundstück

Übernommen von ACHGUT hier




Winter 2017/18 – weiterhin Tendenz zu milder, wechsel­hafter Witterung

Ein Blick auf die Entwicklung der NAO (Nordatlantische Oszillation, ein Maß für das Luftdruckgefälle zwischen Azoren und Island) zeigt, dass sich im Dezember 2017 zunehmend positive NAO- Werte einstellten, was mildes Westwetter in Mitteleuropa begünstigt und uns das alljährliche „Weihnachtstauwetter“ beschert hat:

Abb. 1: Seit Anfang Dezember herrschen durchweg positive NAO-Werte, was ein erhöhtes Luftdruckgefälle zwischen den Azoren und Island bedeutet. Die daraus resultierenden Westwinde halten die Kälte von Mitteleuropa fern. Quelle: NOAA (Wetterdienst der USA)

Bauernregeln werden zwar oft als altmodisch belächelt; doch oftmals haben sie einen wahren Kern. Sie stellen oft (unbewusst) auf die Erhaltungsneigung der großräumigen Zirkulation ab, welche kurz nach der Wintersonnenwende besonders groß ist. Die beiden Regeln „Dezember, wechselhaft und lind, der ganze Winter bleibt ein Kind.“ und „War bis Dreikönigstag kein (richtiger) Winter, so folgt (meist) keiner mehr dahinter“ machen wenig Hoffnung auf Winterwetter, zumal auch fast alle Modelle eine sehr milde Witterung in den Monaten Januar und Februar erwarten, freilich mit großer Unsicherheit:

Abb. 2a und 2b: Momentan sieht das wichtigste Langfristmodell, das CFSv2 des US-Wetterdienstes NOAA, einen extrem milden Januar (oben) und einen sehr milden Februar vorher. Zur Beachtung: Diese Prognosen sind experimenteller Art und keinesfalls stets zutreffend; doch momentan erwarten alle Institute, IRI, DWD, MeteoSchweiz und UKMO, einen milden Hochwinter 2018.

Fazit: Eindeutige, verlässliche Anzeichen für einen länger kalten Hochwinter 2018 fehlen. Es bleibt vorwiegend mild bis sehr mild. Kurze winterliche Episoden oder ein einzelner zu kalter Wintermonat sind noch nicht völlig ausgeschlossen, aber momentan wenig wahrscheinlich. Nur mit ganz viel Glück könnte sich also nach Mitte Januar noch eine Umstellung hin zu sehr kalter Witterung vollziehen; letztmalig erlebten wir Ähnliches im Winter 2011/12.

Zusammengestellt von Stefan Kämpfe, unabhängiger Klimaforscher, am 26.12. 2017




Delta T und Delta F

Aus einer Reihe von Gründen halte ich diese Theorie für äußerst zweifelhaft. Ich untersuchte das dieser Behauptung zugrunde liegende Problem für alle Interessierten mathematisch in einem Beitrag „The Cold Equations“. Heute spreche ich jedoch nicht über Theorie, sondern ich möchte einige der empirischen Daten unter die Lupe nehmen.

Der CERES-Datensatz enthält Messungen der Ausstrahlung an der TOA. Es gibt darin aber auch viele subsidiäre Datensätze, welche sowohl aus CERES-Daten als auch anderen Satellitendaten und Messungen am Boden berechnet werden. Darunter sind die ausgehende IR-Strahlung von der Erdoberfläche. Ich wende die Stefan-Boltzmann-Gleichung auf jene Daten der IR-Ausstrahlung an, um die Oberflächen-Daten zu berechnen. Diese Daten habe ich einem Vergleich mit den Temperaturdaten von HadCRUT unterzogen. Sie stimmten gut überein mit Ausnahme bestimmter Gebiete in der Nähe der Pole. Ich schreibe dies der sehr dünnen Bestückung mit Wetterstationen in diesen Gebieten zu. Daher wurden für diese Gebiete die Daten der nächst gelegenen Stationen extrapoliert. Aber selbst mit jener Differenz in den Polargebieten beträgt die Standardabweichung der Differenz zwischen CERES und HadCRUT bei den monatlichen Daten lediglich 0,08°C, ist also extrem gering. Die CERES-Daten sind vollständiger als die HadCRUT-Daten, weshalb ich erstere als Oberflächentemperatur heranzog.

Jetzt wollen wir Änderungen des Antriebs-Ungleichgewichtes an der TOA vergleichen mit Änderungen der Temperatur an der Erdoberfläche. Zu diesem Zweck müssen wir die Saison-Einflüsse entfernen. Dies tun wir, indem wir das Mittel des gesamten Datensatzes für jeden Monat von den Daten für jenen Monat subtrahieren. Für jeden Monat bleibt dann die „Anomalie“ übrig – um wie viel jener Monat wärmer oder kälter ist im Vergleich zum Mittel.

Beispielsweise sind hier die Temperaturdaten, wobei die obere Graphik die Rohdaten zeigt, die mittlere Graphik die jährlich sich wiederholenden jahreszeitlichen Variationen und die untere Graphik die „Anomalie“, um wie viel der Globus wärmer oder kälter ist im Vergleich mit dem Mittel.

Abbildung 1: Rohdaten, jahreszeitliche Änderungen und Anomalie des CERES-Temperaturdatensatzes. Man beachte den Aufwärtstrend am Ende aufgrund des jüngsten El Nino. Seitdem ist es wieder kälter geworden, aber die CERES-Daten sind seit Februar 2016 nicht mehr aktualisiert worden.

Dem unrichtigen Paradigma zufolge, wonach Temperaturänderungen den Änderungen des Antriebs folgen, sollten wir eine Relation zwischen beiden in den CERES-Daten erkennen – wenn der Antrieb an der TOA einen großen Sprung macht, sollte dies auch die Temperatur tun, und umgekehrt. Allerdings zeigt sich, dass dies nicht der Fall ist:

Abbildung 2: Änderungen der Strahlung an der TOA (Antrieb) ∆F vs. Änderungen der Temperatur am Boden ∆T. Delta (∆) ist das Standardsymbol für „Änderung“. In diesem Falle sind das die Änderungen von Monat zu Monat. Der Hintergrund ist ein Hurrikan aus Satellitenperspektive. Diesen habe ich hinzugefügt, weil ich des ewigen alten Weiß‘ überdrüssig bin.

Wie man leicht erkennt, gibt es im CERES-Datensatz keine statistisch signifikante Relation zwischen den Änderungen des Antriebs an der TOA ∆F und den Änderungen der Temperatur an der Oberfläche ∆T.

Nun höre ich jetzt schon einige Individuen etwas sagen wie „Aber Moment, das ist ein viel zu kurzer Zeitraum, um Auswirkungen so geringer Änderungen zu erkennen … also 1 W/m² über einen Monat? Die Erde weist thermische Trägheit auf, sie würde also gar nicht reagieren…“

Betrachten wir also einen anderen Scatterplot. Diesmal betrachten wir die Änderung der gesamt-Energieabsorption an der Erdoberfläche (kurz- und langwellig) im Vergleich zur Änderung der Temperatur.

Abbildung 3: Änderungen der Energie-Absorption an der Oberfläche im Vergleich mit Änderungen der Temperatur an der Oberfläche ∆T.

Damit ist der Einwand der zu kurzen Zeitspanne annulliert. Eine Änderung von 1 W/m² über einen Monat ist in der Tat in der Lage, die Temperatur an der Oberfläche zu ändern, und zwar um ein Zehntelgrad.

Und schließlich: Ist dies lediglich ein Artefakt, weil wir CERES-Daten sowohl für die Temperatur als auch die Gesamt-Energieabsorption an der Oberfläche heranziehen? Dies können wir mittels Wiederholung der Analyse herausfinden, aber diesmal mit den HadCRUT-Daten anstatt der CERES-Daten …

Abbildung 4: Wie in Abbildung 3, jedoch mit den Temperaturdaten von HadCRUT.

Wie wir erwartet haben, gibt es Differenzen bei der Verwendung unterschiedlicher Temperatur-Datensätze. In beiden ist die Oberfläche in der Lage, die Temperatur im Verlauf eines Monats aus einer Differenz von 1 W/m² heraus zu ändern.

Also bleiben wir zurück mit Abbildung 2: Sie zeigt, dass es keine signifikante Relation gibt zwischen Änderungen des Antriebs an der TOA und Temperaturen an der Erdoberfläche.

Man beachte, dass ich hier NICHT behaupte, dass man mit diesem Verfahren die so genannte „Klimasensitivität“ berechnen kann. Vielmehr weise ich lediglich darauf hin, dass die CERES-Daten nicht die erwartete Relation zwischen Änderungen des Strahlungs-Ungleichgewichtes an der TOA und Änderungen der Temperatur an der Erdoberfläche zeigen.

Link: https://wattsupwiththat.com/2017/12/18/delta-t-and-delta-f/

Übersetzt von Chris Frey EIKE




Von der Licht­gestalt zum Aschen­brödel? Die Realität der Elektro­mobilität

Mit Schlagworten wie „Clever E-Mobility for Work“ oder „Unsere Antwort für eine saubere Zukunft“ bewirbt die Post-Tochter Streetscooter GmbH ihre Lösungen für den Paketauslieferdienst, einen batteriebetriebenen Lieferwagen für die Post, der auch an andere Lieferdienste verkauft wird. Auf seiner Webseite präsentiert sich das Unternehmen als Problemlöser für die zunehmende Umweltverschmutzung und Lärmbelästigung insbesondere in den urbanen Zentren. Auch gehe es um einen schonenderen Umgang mit den Ressourcen auf unserem Planeten. Man sehe sich in der Verantwortung, bereits heute Lösungen bereitzustellen, um die Zukunft für nachfolgende Generationen zu sichern. Soweit die schönen Worte.

Häme für die Autobranche

Zeitgleich mit der Vorstellung begann eine intensive Pressekampagne, in der die Medien die Neuentwicklung in den Himmel lobten. Man überschlug sich geradezu mit Lobeshymnen, während den Automobilherstellern vorgeworfen wurde, die Post ignoriert zu haben, bis diese clevererweise mithilfe externer Partner eine eigene Lösung entwickelt und selbst zum Hersteller geworden sei. In den Kommentarspalten wurde geradezu kübelweise Häme und Spott über die „unfähigen“ Automanager ausgegossen, die „zu dumm und zu gierig“ seien, um die Zeichen der Zeit zu erkennen. Warnungen von Fachleuten, die insbesondere die geringe Batteriekapazität der neuen Fahrzeuge skeptisch beurteilten und vor Reichweitenproblemen insbesondere im Winter warnten, wurden von „Dinosaurier“-Rufen übertönt. Inzwischen sind rund 5.000 dieser Fahrzeuge im Einsatz. Und der Winter ist da.

Erste Berichte über ernste Probleme

Schon vor einigen Monaten gab es in der Presse gelegentlich Hinweise auf Probleme und Beschwerden, die jedoch in den Foren sofort als „Einzelmeinungen“ einiger unzufriedener Quertreiber abgetan wurden. Auch ein Brand, bei dem gleich drei der Fahrzeuge im Depot abfackelten, wurde als Randerscheinung abgetan. Mit den zunehmend sinkenden Temperaturen scheinen sich jetzt jedoch die Schwierigkeiten derart zu häufen, dass man die Sache anscheinend nicht mehr unter dem Deckel halten kann. Auszugsweise werden hierzu Erkenntnisse einer Recherche der Zeitschrift „Welt“ vorgestellt [WELT]

Dem Bericht zufolge bleiben inzwischen immer mehr Fahrzeuge auf der Strecke liegen oder müssen vorzeitig zurück, weil die Reichweite aufgrund der beschränkten Batteriekapazitäten auf 70 km gesunken sei. Ein Grund hierfür sei der zunehmende Bedarf an elektrischem Strom für die Fahrzeugheizung. Dies stelle die Mitarbeiter vor das Dilemma, dass sie sich zwischen ausreichender Beheizung oder ausreichender Reichweite entscheiden müssten.

Die „Welt“-Journalisten sagen aus, dass eigene Recherchen in mehreren Bundesländern belegten, dass es tatsächlich zu solchen Stillständen mitten auf der Strecke komme. In einem Fall ist die Rede von einer „unglaublichen psychischen Belastung“, weil sich die Beschäftigten mit dem Fahrzeug nicht mehr auf die Straße trauten. In Süddeutschland berichteten Betriebsräte von technischen Mängeln der Heizung sowie von einer viel zu geringen Reichweite sowie von Ausfällen, die im zweistelligen Prozentbereich lägen. Weiterhin ist die Rede von Angst vor Unfällen wegen der Leichtbauweise sowie von mehreren Fällen wo die Motorhaube während der Fahrt aufgesprungen sei.

Bei der Frage der Beheizung der Kabine geht es übrigens nicht allein um die Bequemlichkeit des Fahrers: Wie jeder Autofahrer aus Erfahrung weiß, ist im Winter eine gute Heizung erforderlich, um die Scheibe durchgehend frei von Beschlag zu halten, welcher die Sicht beeinträchtigen könnte. Unfallgegner, welche in der kalten Jahreszeit mit einem Streetscooter aneinandergeraten, sei demnach empfohlen, unmittelbar nach dem Ereignis einen kritischen Blick auf die Front- und Seitenscheiben des Unfallgegners zu werfen und Sichtbeeinträchtigungen sofort mit dem Handy zu dokumentieren.

Probleme größer als zugegeben?

Aufgrund der Tatsache, dass sich die Post beim Start des Projekts PR-mäßig ziemlich weit aus dem Fenster gelehnt hat, scheint man dort seitens des Managements offensichtlich zu versuchen, diese Probleme nicht an die Öffentlichkeit dringen zu lassen. Dem Bericht in der „Welt“ zufolge gebe es aus Sicht der Mitarbeiter keine angemessene Reaktion aus dem Konzern. Beschwerden im Zusammenhang mit den alltäglichen Problemen würden mit dem Hinweis, es müsse sich um Bedienungsfehler handeln, abgebügelt. Trotz mehrfacher Hinweise auf notwendige Nacharbeiten am Fahrzeug gebe es kein Vorankommen der Entwicklung, und interne Papiere zu Verbesserungsvorschlägen seien Verschlusssache.

Maulkorb für Mitarbeiter

Besonders nachdenklich stimmt die Tatsache, dass Mitarbeiter, welche Mängel öffentlich bekannt machten, arbeitsrechtliche Schritte bis hin zu einer Abmahnung riskierten. In unserer freien und offenen Gesellschaft kann man letzteres als Eingeständnis dafür werten, dass an der Sache etwas dran ist und die Post mit rabiaten Mitteln versucht, den tatsächlichen Umfang der Probleme zu verschleiern. Fachleute gehen angesichts der geschilderten Sachlage davon aus, dass es in den nächsten Jahren zu noch massiveren Schwierigkeiten kommen dürfte. Einerseits unterliegen die im Streetscooter verbauten Batterien Alterungsprozessen, welche ihre Kapazität in den nächsten Jahren immer weiter nach unten drücken wird. Andererseits ist der Winter bisher noch vergleichsweise mild mit nur geringen Frosttemperaturen verlaufen. Sollten in einigen Jahren schwächer gewordene Batterien mit strengen Frösten auch tagsüber zusammentreffen, so könnte es durchaus zum Debakel kommen. Und dann dürften die hohen Herren von der Post in Erklärungsnöte geraten, nicht zuletzt auch angesichts der Tatsache, dass in das Projekt knapp 10 Mio. € an öffentlichen Geldern aus dem Bundesumweltministerium geflossen sind.

Fred F. Mueller

Quelle

[WELT] https://www.welt.de/wirtschaft/article171801021/Deutsche-Post-Winterprobleme-mit-dem-Streetscooter.html#Comments




Newsletter der GWPF vom 22.12.2017

1) Europas großer Schwindel bzgl. „grüner“ Energie bloßgestellt
Fred Pearce
Der größte Anteil der neuen „grünen“ Energie stammt in Wirklichkeit aus der Verbrennung von Holz in umgewandelten Kohlekraftwerken. Die Wälder in North Carolina, Louisiana und Mississippi – ebenso wie die Wälder in Europa – werden zerstört, um ein Europäisches Luftschloss über erneuerbare Energie am Leben zu halten.

Bild:

Schlagzeile: EU-Nationen sind dabei, Wälder zu zerstören und sich nicht für Emissionen zu rechtfertigen.

Zerstörung unserer Kohlenstoff-Senke. Bild: Dennis Schmitt / pixelio.de

Ein Hintertürchen bei den Vorschriften bzgl. Kohlenstoff löst einen Boom bei der Verbrennung von Holzpellets in Europas Kraftwerken aus. Folge war eine Flutwelle von Abholzungen, vor allem im Süden der USA. Weitere Folge: es erheben sich neue Zweifel, ob Europa seinen Verpflichtungen aus dem Paris-Abkommen gerecht werden kann.

Einst war es eines der größten Kohlekraftwerke Europas. Jetzt, nach dem Ersatz von Kohle durch aus den USA importierten Holzpellets, behauptet das Drax-Kraftwerk in UK, das größte, Kohlenstoff einsparende Projekt in Europa zu sein. Etwa 23 Millionen Tonnen CO2 entweichen pro Jahr aus dessen Schornsteinen. Aber weil in den gerodeten Wäldern neue Bäume gepflanzt werden, geriert sich das Drax-Kraftwerk als Kohlenstoff-neutral.

Nur gibt es da ein Problem. Ökologen sagen, dass die Behauptungen bzgl. Kohlenstoff-Neutralität, welche von der EU und der Regierung in UK akzeptiert werden, einer genaueren Prüfung nicht standhalten. Die Wälder in North Carolina, Louisiana und Mississippi – ebenso wie die Wälder in Europa – werden zerstört, um ein Europäisches Luftschloss über erneuerbare Energie am Leben zu halten. Und da demnächst viele Kraftwerke in Europa und anderswo anfangen, Kohle durch Holz zu ersetzen, wird die Frage, wer denn nun recht hat, immer wichtiger.

Seit dem Jahr 2009 sind die 28 Nationen der EU auf den Zug einer dramatischen Hinwendung zu erneuerbarer Energie bei der Energieerzeugung gesprungen. Während es in den meisten Schlagzeilen guter Nachrichten um den Anstieg von Wind und Solar geht, stammt der größte Anteil der neuen „grünen“ Energie in Wirklichkeit aus der Holzverbrennung in umgewandelten Kohlekraftwerken.

Das Verbrennen von Holz boomt von UK bis nach Rumänien. Viel des Brennholzes ist lokalen Ursprungs, was ernsthafte Sorgen unter den europäischen Umweltaktivisten auslöst, ob wirklich für jeden gefällten Baum gleich ein neuer gepflanzt wird. Aber die gigantischen, Holz verbrennenden Boiler von Drax werden fast vollständig durch 6,5 Millionen Tonnen Holzpellets von jenseits des Atlantiks gespeist.

Im September 2017 schrieben rund 200 Wissenschaftler einen Brief an die EU, in welchem sie betonen, dass „Bioenergie (aus Wald-Biomasse) nicht Kohlenstoff-neutral“ ist. Sie verlangen in dem Brief nach strengeren Vorschriften zum Schutz der Wälder und deren Kohlenstoff. Aber gerade mal einen Monat später bekräftigten die EU-Minister die bestehenden Vorschriften bzgl. Kohlenstoff ohne weitere Prüfung und stellten erneut fest, dass das Verbrennen von Holzpellets erneuerbare Energie ist.

Den Paragraphen sowohl des Paris-Abkommens als auch der internen Vorschriften in Europa zufolge sollten Kohlenstoff-Verluste zur Belieferung von Kraftwerken als Änderung der Kapazität zur Kohlenstoff-Speicherung von Waldlandschaften erklärt werden. Aber derartige Änderungen finden nur selten den Weg in nationale Bestandsaufnahmen. Und weder in der EU noch bei den UN gibt es ein System, in welchem aktuelle Änderungen der Kohlenstoff-Vorräte auf dem Festland bekannt gemacht werden. Folglich wird Kohlenstoff in keiner Weise berücksichtigt – wenn Bäume gefällt werden, oder wenn das Holz verbrannt wird.

Die Verbrennung von Holz wird zu einem gewaltigen Hintertürchen bei der Kontrolle von Kohlenstoff-Emissionen. Die USA könnten das nächste Land sein, welches daraus Vorteile zieht. Eine Vorlage der [US-]Bundesregierung, welche im Repräsentantenhaus genehmigt worden ist, wies die EPA an, eine Politik aufzulegen, welche „die Kohlenstoff-Neutralität von Biomasse reflektiert“ und „private Investitionen zu fördern in der gesamten Biomasse-Versorgungskette“. Damit sollte einem Boom der Verbrennung amerikanischer Pellets der Weg bereitet werden.

Das Verbrennen von Holz mag in manchen Fällen nahezu Kohlenstoff-neutral sein, wenn z. B. sichergestellt ist, dass jeder gefällte Baum durch einen neuen Baum ersetzt wird. Aber in anderen Fällen kann dies sogar mehr Kohlenstoff emittieren als die Verbrennung von Kohle. Das Problem ist, dass die Gesetzgeber nicht über die Kenntnisse verfügen, um den Unterschied zu erkennen, tritt dieser doch erst nach Jahrzehnten der Aufsummierung der vermuteten Emissionen in nationale Kohlenstoff-Bestandsaufnahmen zutage – oder auch nicht.

Sicher ist, dass sich die Versprechungen Europas im Paris-Abkommen in Luft auflösen, falls die Dinge nicht nach Plan laufen. Und die eigenen Emissionen der USA könnten ihren Aufwärtstrend sogar noch schneller fortsetzen, als selbst Präsident Trump im Sinn hat.

Jahrhunderte lang wurden die europäischen Wälder abgeholzt für den Gebrauch in Haushalten, und im vorigen Jahrhundert auch für lokale Heizkraftwerke. Aber was jetzt passiert, steht auf einem ganz anderen Blatt. Die Änderung wurde befeuert durch eine neue Technologie, welche Brennholz in Holzpellets verwandelt. Diese werden dabei erwärmt, um Feuchtigkeit zu entfernen, und dann gepresst. Damit wird der Transport über große Entfernungen praktisch und ökonomisch.

Etwa die Hälfte des in der EU eingeschlagenen Holzes wird derzeit zur Stromerzeugung oder zum Heizen verbrannt. Und es gibt immer mehr Beweise dafür, dass der Holzeinschlag Wälder schädigt und damit ihre Fähigkeit verringert, Kohlenstoff zu speichern.

Full post
siehe auch hier bei der GWPF: Europe’s biomass-burning fiasco

—————————————–

2) EU-Minister befürworten die Subventionierung von Kohlekraftwerken bis 2030

Kohlekraftwerke in der EU könnten von Kapazitäts-Leistungen noch bis zum Jahr 2030 profitieren, falls eine Verhandlungsbasis die Zustimmung der EU-Energieminister findet, welcher zufolge ein Entwurf zum EU-Strommarkt in eine finale bindende Version gebracht werden soll.


Der Verhandlungsbasis zufolge, auf welche man sich beim EU-Energierat in Brüssel geeinigt hatte, würden bestehende Kraftwerke mit Emissionen entweder über 550 g CO2 pro kWh oder 700 kg CO2 im Mittel pro Jahr pro installierter kW Kapazitäts-Zuwendungen bis zum Jahr 2030 erhalten.

Allerdings müssten diese Zahlungen nach dem Jahr 2025 zu sinken beginnen.o kWh oder 700 kg CO2 im Mittel pro Jahr pro installierter kW Kapazitäts-Zuwendungen bis zum Jahr 2030 erhalten. Allerdings müssten diese Zahlungen nach dem Jahr 2025 zu sinken beginnen.

Neue Kraftwerke mit größerem Emissionen – d. h. alle unverminderten Kohlekraftwerke – würden ab 2025 nicht mehr an den Kapazitäts-Verfahren teilhaben können.

Dieses Timing kommt rund 7 Jahre nach dem ursprünglichen Vorschlag der Europäischen Kommission vom November 2016, dem zufolge neue Kraftwerke über dem Emissionslimit von 550 kg CO2 pro kWh ab dem Jahr 2018 und bestehende Kraftwerke ab dem Jahr 2023 nicht mehr in diesem Kapazitäts-Prozess teilhaben dürfen.

Full post
—————————————–

3) Polen eröffnet das größte Kohlekraftwerk Europas

Das staatlich kontrollierte Energie-Unternehmen ENEA von Polen eröffnete das größte Kohlekraftwerk Europas zu einer Zeit, in der andere Nationen sich von Treibhausgas emittierenden Verbrennungen fossiler Treibstoffe verabschieden wollen. Kohle und Braunkohle decken 90% der Energieerzeugung in Polen. „Das neue Kraftwerk wird die Energiesicherheit von Polen und der polnischen Bevölkerung verbessern. Dies ist für unser Land eine ökonomische und politische Priorität“, sagte der neue polnische Premierminister Mateusz Morawiecki. – AFP, 20. Dezember 2017

—————————————–

4) Das neue Solar-Projekt von BP

Dr. John Constable, Energie-Direktor der GWPF

Die Rückkehr von BP zum Bereich Solar in Gestalt eines Entwicklers neuer Solarenergie-Standorte und nicht als Hersteller von Solarpaneelen ist ein weiterer Beweis, dass der Bereich Erneuerbare selbst bei größtem potentiellen Interesse weniger mit dem Technologie-Geschäft und mehr mit der Sicherstellung von Rechtsansprüchen auf die Landentwicklung, mit Marktanteilen und unterstütztem oder garantiertem Einkommen zu tun hat. Einfacher gesagt, man trachtet nach Profit.


Full Story

Übersetzt von Chris Frey EIKE

Bild: Josh 2016.




Ist der 97%-Klimakonsens Fake News?

Meteorologen untersuchen sehr genau jeden Tag die Ursachen von Wetteränderungen. Sie sind die Wissenschaftler, die am ehesten verstehen, ob ungewöhnliche Wetterextreme einfach Wetter oder schon Klimawandel sind. Also befragt man sie jedes Jahr bzgl. Klimawandel.

Die meisten antworteten jedoch nicht. Drei Viertel aller Wetter-Wissenschaftler wollten NICHT in Berührung kommen mit einer politischen und nichtwissenschaftlichen Debatte. Im Jahre 2015 betrug die Antwort-Rate 22%, 2016 32% und 2017 gerade 22%. Und wie die allermeisten Klimaskeptiker auch stimmen sie zu, dass Klimawandel im Gange ist. Die Frage lautet jedoch: Welche Ursachen hat dieser Wandel?

Von den 2017 eingegangenen Antworten waren nur 15% der Ansicht, dass Klimawandel ausschließlich auf den Menschen zurückgeht, während 34% der Ansicht waren, dass menschliche Aktivitäten zu 60% bis 80% dazu beitragen. In der Umfrage wurde hinsichtlich der Beiträge des Menschen jedoch nicht unterschieden zwischen Verstädterung, Entwaldung, Verlust von Feuchtgebieten oder CO2.

Ein Fünftel oder 21% glauben, dass Änderungen zumeist oder durchweg natürlichen Ursprungs sind, während 8% einräumten, dass sie es einfach nicht wüssten.

Fazit: Betrachtet man ALLE befragten Meteorologen, behaupteten lediglich 11%, dass zumeist die Menschen für den beobachteten Klimawandel verantwortlich sind: 22% (Anteil derjenigen, die geantwortet haben) multipliziert mit 49% (menschlicher Beitrag).

Die Umfrage wurde durchgeführt von Befürwortern der CO2-Erwärmung bei ClimateCentral. Siehe hier.

Link: https://wattsupwiththat.com/2017/12/22/is-the-97-climate-consensus-fake-news/

Übersetzt von Chris Frey EIKE




Offshore lieferte jeden Tag Strom und onshore gab es im Jahr 2016 deutschland­weit keine einzige Stunde ohne Windstrom­erzeugung

Windkraft auf See ist ergiebiger und zuverlässiger als erwartet

Vor kurzem kam in unseren Medien eine Erfolgsmeldung: Die Windanalagen vor unseren Küsten sind viel ergiebiger, als man bisher geahnt hat. Herausgefunden hat es das Fraunhofer IWES für Windenergie mit einer neuen Studie [3].
Unsere Medien berichteten sofort und euphorisch darüber. Denn, wenn das EEG noch erfolgreicher ist, als bisher vermutet, sollen es die Bürger natürlich auch erfahren:
Focus 11.12.2017: [1] Windkraft auf See ergiebiger und zuverlässiger als erwartet (dpa)
Windkraftwerke auf dem Meer erzeugen nach einer Studie des Instituts Fraunhofer IWES mehr und zuverlässiger Strom als bislang angenommen. Die Windkraftanlagen in Nord- und Ostsee produzieren an 363 Tagen des Jahres Energie, teilte die Stiftung Offshore Windenergie als Auftraggeberin der Studie mit. Bei der Vorgängerstudie hatte dieser Wert noch bei 340 Tagen gelegen … Die Anlagen lieferten somit relativ konstant Strom ...
IWR (Die Business-Welt der Regenerativen Energiewirtschaft) Online 01.12.2017: [6] Ausbau der Offshore Windenergie erhöht Versorgungssicherheit
Berlin – Eine aktuelle Studie von Fraunhofer IWES kommt zu dem Ergebnis, dass
Windanlagen auf See an jedem Tag im Jahr Strom liefern. Das spricht für einen stärkeren Ausbau der Offshore Windenergie.

Die Studie(n) des Fraunhofer IWES zur offshore-Windkraft

Die in den Medienberichten angesprochene Aktualisierungsstudie 2017 [3] bezieht sich auf eine Hauptstudie aus dem Jahr 2013 mit dem Schwerpunkt offshore-Windkraft [2]. In dieser ursprünglichen Studie (erstellt im Auftrag von achtzehn, direkt vom Ausbau der Windenergie partizipierenden Firmen, darunter auch den Münchner Stadtwerken), wurde ein optimiertes EEG-Szenario für 2050 ermittelt und simuliert, mit dem Ergebnis, dass die wesentliche Stütze zur erfolgreichen Versorgung Deutschlands im Jahr 2050 mit 80 % EEG-Strom, ein massiver Ausbau der offshore-Windkraft sein muss:
Fraunhofer IWES, Studie von 2013: [2] Vorwort von Jörg Kuhbier, Vorsitzender des Vorstands Stiftung OFFSHORE-WINDENERGIE
… Die vorliegende Studie des Fraunhofer IWES verdeutlicht eindrucksvoll die energiewirtschaftliche Bedeutung der Offshore-Windenergie. Sie ist unverzichtbar für das Gelingen der Energiewende und den nahezu vollständigen Umbau der Stromversorgung bis zum Jahr 2050. Die Studie zeigt, dass Offshore-Windenergie im künftigen Energiesystem einen wesentlichen Beitrag zur Versorgungssicherheit, Systemqualität und der Reduzierung der Gesamtkosten liefert. Damit die OffshoreWindenergie dieses Potenzial entfalten kann, braucht es für die kommenden Jahrzehnte einen kontinuierlichen Zubau an Erzeugungsleistung …

In der aktuellen Ergänzungsstudie 2017 des IWES wurde nun ermittelt, dass die schon damals gemeldeten Offshore-Windkrafterfolge dank verbesserter Technik und neuer Simulationsmethoden noch besser geworden sind:
Fraunhofer IWES: [3] Energiewirtschaftliche Bedeutung der Offshore-Windenergie für die Energiewende Update 2017
… Offshore-Windenergieanlagen haben schon heute sehr hohe Volllaststunden, die zukünftig im Mittel auf über 4660 h ansteigen. Sie kommen damit auf über 8700 Betriebsstunden jährlich; das entspricht einer Stromproduktion an rund
363 Tagen im Jahr …
Dies ist zurückzuführen auf aktualisierte Annahmen zur räumlichen Verteilung der Windparks auf See und zur Leistungscharakteristik der Offshore-Anlagen, aber auch auf verbesserte Simulationsmodelle.

80 % EEG-Versorgung im Jahr 2050

In der Basisstudie aus dem Jahr 2013 werden drei Ausbauszenarien für das Jahr 2050 behandelt.
Betrachtet wird in dieser Rezension davon nur das optimale Szenario. Das reicht aus, um sich ein Bild über die EEG-Versorgung im Jahr 2050 zu machen, sofern die Vorschläge der EEG-Industrie und deren Lobbyverbände von unserer Politik umgesetzt werden.

Die Studie fand heraus, dass, um eine 80 % EEG-Versorgung überhaupt zu „ermöglichen“, euphorische (und für die Bürger teure) Maßnahmen durchgeführt werden müssen.
Konkret: Der Energieverbrauch muss drastisch gesenkt werden (um ca. 40 %) und alle Windkraftanlagen sind von derzeit ca. 128 m Nabenhöhe auf ca. 200 m Nabenhöhe zu erhöhen:
IWES 2013: [2] Die vorliegende Studie geht von diesem Zieljahr 2050 und folgenden Annahmen aus: Erneuerbare Energien liefern 80 Prozent des Endenergiebedarfs, zugleich ist Deutschlands Energieverbrauch knapp 40 Prozent niedriger als heute. Strom bekommt durch Verlagerungen in den Wärme- und Verkehrsbereich eine wichtigere Rolle (Power-to-Heat, Power-to-Gas, Elektromobilität). Mit über 900 Terawattstunden (TWh) liegt die Stromerzeugung mehr als die Hälfte über den heutigen Werten.
Im dritten Schritt wurden beide Berechnungen – der „optimale Mix“ und die Potenzialgrenzen der drei Technologien – übereinandergelegt. Die beste Übereinstimmung erreicht das optimierte Ausbauszenario dieser Studie. Hier ist das vorab definierte Potenzial von Onshore- wie Offshore-Windenergie voll ausgeschöpft (390 TWh bzw. 258 TWh), Photovoltaik liefert mit 152 TWh sehr hohe Beiträge.
Selbst damit bleibt ein geradezu explosiver EEG-Ausbau, der offshore zum Beispiel alle nur denkbaren Flächen von Nord- und Ostsee „belegt“ unvermeidlich:
IWES 2013: [2]… Im optimierten Ausbauszenario dieser Studie ist für das Jahr 2050 eine Offshore-Leistung von 54 GW angenommen. Dies lässt sich realisieren, wenn alle aus heutiger Sicht nutzbaren Flächen in der deutschen Nord- und Ostsee bebaut werden.

Wen heute eine Windkraftanlage mit einer Nabenhöhe bis zu 128 m stört, darf sich im Jahr 2050 über eine mit 200 m an der gleichen Stelle (er)freuen. Neben der massiven Ausweitung der Windkraft ist nämlich auch der vollständige Umbau aller bisherigen Anlagen mit diesen Zukunftsmonstern unabdingbar, da sonst die in Deutschland und auf den Meeren vorhandenen Flächenpotentiale nicht ausreichen.

Bild 1 Technische Veränderungen an Windkraftanlagen bis zum Jahr 2050 [3]
Welcher Ausbau selbst im optimierten Ausbauszenario und für nur 80 % EEG-Versorgung erforderlich wird, hat der Autor, basierend auf den EEG-Daten des Jahres 2016 und den Angaben der Studie auf das Jahr 2050 hochgerechnet.

Bild 2 EEG-Daten 2016 und Prognosewerte IWES für 2050 im Ausbauszenario optimiert von 2013 (Abbildung 8 [2]). (Vom Autor erstellt). *“Zusatzbewertung“ ist der in der IWES-Studie angenommene Zusatzertrag im Jahr 2050 gegenüber den Ergebnissen der Bestandsanlagen im Jahr 2016
Selbst unter der vom IWES getroffenen Annahme eines erheblich höheren Ertrages künftiger Windkraftmonster, wird ein massiver Ausbau erforderlich. Zusammenfassung:
Ausbau zum Jahr 2050 gegenüber dem Referenzjahr 2016 (laut Tabelle Bild 2):
Wind offshore: erforderlicher Ausbau zum Jahr 2050: 13,5 (20*)
Wind onshore: Erforderlicher Ausbau zum Jahr 2050: 3,3 (6*)
Solar: 3,6 (4*)
*Die Angaben in Klammer sind die Hochrechnung des Autors aus dem EEG-Jahr 2016 ohne Berücksichtigung von Verbesserungsfaktoren. Der wirklich erforderliche Ausbau liegt damit irgendwo zwischen den Werten der IWES-Studie und denen in Klammern.

Was unsere Medien erzählen und wie es wirklich ist

Nochmals die Darstellung zur offshore-Windkraft:
Focus 11.12.2017: [1] Windkraft auf See ergiebiger und zuverlässiger als erwartet (dpa)
Windkraftwerke auf dem Meer erzeugen nach einer Studie des Instituts Fraunhofer IWES mehr und zuverlässiger Strom als bislang angenommen. Die Windkraftanlagen in Nord- und Ostsee produzieren an 363 Tagen des Jahres Energie, teilte die Stiftung Offshore Windenergie als Auftraggeberin der Studie mit. Bei der Vorgängerstudie hatte dieser Wert noch bei 340 Tagen gelegen … Die Anlagen lieferten somit relativ konstant Strom
Vorgreifend lässt sich dazu nur sagen: Der Focus (und alle anderen Medien) haben nicht mitbekommen, dass sich die Angaben in der IWES-Pressemitteilung auf simulierte Werte und Annahmen zum Zukunftsjahr 2050 beziehen.
Zum Beleg der Text aus der Studie:
Fraunhofer IWES: [3] … Offshore-Windenergieanlagen haben schon heute sehr hohe Volllaststunden, die zukünftig im Mittel auf über 4660 h ansteigen. Sie kommen damit auf über 8700 Betriebsstunden jährlich; das entspricht einer Stromproduktion an rund 363 Tagen im Jahr.

Windkraft im Jahr 2016

Um die (euphorischen) Aussagen des IWES und die Konsequenzen der vorgeschlagenen, 80 % EEG-Versorgung einschätzen zu können, muss man den aktuellen EEG-Stand betrachten.
Zuerst die Erzeugung der Windkraft gesamt im Verhältnis zum aktuellen Verbrauch im Jahr 2016:

Bild 3 Windkraft Deutschland gesamt 2016. Installierte Leistung mit Ganglinienverlauf, Stromverbrauch. Quelle: Agora-Viewer (vom Autor ergänzt)

Und nun der aktuelle Anteil offshore im Verhältnis zum aktuellen Verbrauch im Jahr 2016:

Bild 4 Windkraft Deutschland offshore 2016. Installierte Leistung mit Ganglinienverlauf, Stromverbrauch. Quelle: Agora-Viewer (vom Autor ergänzt)

Offshore-Windkraft im Jahr 2016

Die Bilder des Agora Viewers sind stark geglättet. Wie Einspeise-Ganglinien wirklich aussehen, zeigt das folgende Bild:

Bild 5 Windkraft Deutschland offshore 2016. Installierte Leistung (MW) mit Ganglinienverlauf in Stundenauflösung. Quelle: Agora Datensatz (Grafik vom Autor aus den Stundenwerten erstellt)

Wer den Datensatz als Datei hat, kann auswerten. Daraus die Ergebnisse:

Bild 6 Histogramm zum Ganglinienbild Wind offshore im Jahr 2016. Klasse 100 entspricht 4.000 MW (ungefährer Mittelwert der installierten Leistung)

Bild 7 Wertetabelle zu den Bildern 5 und 6. Quelle: Agora Daten Wind offshore 2016 in Stundenauflösung. Aus den Daten vom Autor erstellt)

Aus den Werten des Jahres 2016 lässt sich zusammenfassen:
Offshore-Windkraft speiste:
– über 79 Tage des Jahres (21 % des Jahres) zwischen 0 … 10 % der versprochenen Leistung ein.
– über 133 Tage des Jahres (36 % des Jahres) zwischen 0 … 20 % der versprochenen Leistung ein.
– Die Hälfte Zeit des gesamten Jahres waren es zwischen 0 … 50 % der versprochenen Leistung
– Mehr als 50 % der Anschlussleistung stand nur über 130 Tage (35 % des Jahres) zur Verfügung.

Die sich daraus ergebende Verlaufskurve für die Betriebsstunden ist in das entsprechende Datenbild der Studie kopiert (Bild 11, violette Linie).

Als jeweilige Vollaststundenzahl* ergeben sich die Werte der folgenden Tabelle (Bild 8).
*Mit Volllaststunden wird die Zeit bezeichnet, für die eine Anlage bei Nennleistung betrieben werden müsste, um die gleiche elektrische Arbeit umzusetzen, wie tatsächlich umgesetzt wurde.

Bild 8 Winddaten mit Vollaststunden des Jahres 2016, vom Autor aus den Agora-Daten berechnet. Da die Angaben zur installierten Leistung wegen des zwischen jährlichen Zu- und teils Rückbaus schwanken, sind es nur Orientierungswerte.

Die Volllaststundenzahlen als ein Referenzwert sagen aus:
Onshore: Nach 1548 Stunden (64 Tage; 18 % vom Jahr) Lieferung der versprochenen Leistung, hätte man die Anlagen abschalten können, da die Jahresmenge erreicht war.
Offshore: Nach 3100 Stunden (129 Tage; 35 % vom Jahr) Lieferung der versprochenen Leistung, hätte man die Anlagen abschalten können, da die Jahresmenge erreicht war.
Konventionelle Kraftwerke erzielen ca. 85 … 90 % vom Jahr Volllast, die restliche Zeit wird für Wartung und Reparaturen benötigt.

Nun erkennt man, warum so gerne Betriebsstunden angegeben werden. Diese lassen sich beliebig manipulieren, da nicht festgelegt ist, welche Energie dabei geliefert wurde. „364 Tage im Jahr“, oder gar „jeden Tag im Jahr“ bedeuten nur, dass sich irgendwo doch noch ein Windradflügel gedreht hat. Im Bild 13 (Betriebsstunden Windkraft) hat der Autor eingezeichnet, was IWES an Betriebsstunden angibt und was wirklich herauskommt, wenn man beim „Betrieb“ auch noch eine Leistung erwartet.
Die Angabe der Vollaststunden ist dagegen aussagekräftiger, weil sich diese direkter mit konventionellen Kraftwerken vergleichen lassen.

Im katastrophalen EEG-Erzeugersystem gilt schon ein Minimum als Erfolg

Dass man mit einem solchen „Stromlieferanten“ eigentlich nichts Vernünftiges anfangen kann, kommt unseren Medien nicht in den Sinn. Sie sind dabei natürlich nur willige Handlanger der „Fachstellen“, welche solchen Unsinn erfolgreich verkaufen.
Fraunhofer IWES: [3] … Offshore-Windenergieanlagen haben schon heute sehr hohe Volllaststunden, die zukünftig im Mittel auf über 4660 h ansteigen. Sie kommen damit auf über 8700 Betriebsstunden jährlich; das entspricht einer Stromproduktion an rund 363 Tagen im Jahr.
Wer kommt beim Lesen der IWES-Presseinfo auch darauf, dass die angegebenen, 4660 Volllaststunden offshore unter speziellen Annahmen für das Jahr 2050 simuliert wurden, die wirklichen im Jahr 2016 aber nur bei 3100 Stunden lagen
(66 % davon). Zur Angabe der „8700 Betriebsstunden jährlich“ sei nochmals auf Bild 13 verwiesen.

Der benötigte Erfolg für das Jahr 2050 simuliert

Wie schon angesprochen, hat auch das EEG-euphorische Fraunhofer-IWES (ca. 600 Mitarbeiter wollen schließlich bezahlt werden) feststellen müssen, dass selbst eine „nur“ 80 % EEG-Versorgung schier unmöglich ist, weil die verfügbaren Flächen in Deutschland dafür nicht reichen. Als Lösung wurden deshalb (unter anderem) diverse Maßnahmen zur Ertragserhöhung postuliert. Im folgenden Bild ist gezeigt, wie die Ertragskurve des aktuellen Offshore-Anlagenbestandes verläuft und wie sie im Jahr 2050 verlaufen muss, um die benötigte Energie zu liefern:

Bild 9; Bild Betriebsstunden Windkraft aus der IWES-Ergänzungsstudie 2017 [3] (Abbildung 15). Zum Verlauf „Normierte Einspeisung“ vom Autor darüber kopiert die normierte Einspeisung im Jahr 2016, berechnet aus den Agora-Daten, sowie erklärende Zufügungen
Onshore-Windkraft im Jahr 2016

Eine Fachperson für Energie, der niedersächsische Umweltminister (GRÜNE) hat auf eine Anfrage von Abgeordneten die folgende Aussage zur onshore-Windkraft getätigt:
Windkraft-Journal, 23. Sept. 2017: [10] Der Niedersächsische Minister für Umwelt, Energie und Klimaschutz Stefan Wenzel hat namens der Landesregierung auf eine mündliche Anfrage der Abgeordneten Jörg Bode, Horst Kortlang, Dr. Gero Hocker und Almuth von Below-Neufeldt (FDP) geantwortet.
In wie vielen Stunden erzeugten Windräder im vergangenen Jahr in Niedersachsen gar keinen Strom?
Ausweislich der von den Übertragungsnetzbetreibern veröffentlichten Online-Hochrechnung der Istwerte für Windenergie Onshore und Windenergie Offshore gab es im Jahr 2016 deutschlandweit keine einzige Stunde, in der es keine Windstromerzeugung gab. Bundesländerscharfe Daten liegen der Landesregierung nicht vor.
PM: Niedersächsische Minister für Umwelt, Energie und Klimaschutz Stefan Wenzel

Dieser Vorgang in einem Länderparlament zeigt eigentlich nur den hoffnungslosen Dilettantismus unserer gut bezahlten Abgeordneten, wie es schon Özdemir im Bund belegt hat [9]. Der Autor würde zu gerne wissen, was die vier Abgeordneten der FDP mit der Frage: An wie vielen Stunden im Jahr gar kein Strom aus Windkraft eingespeist wurde, lösen wollten. Und auch, was sich das der Umweltminister mit der Antwort gedacht hat (außer vielleicht: Wer so dumm fragt, verdient eine genau so dumme Antwort).
Zumindest eines haben beide nicht: Ein Problem erkennen und diskutieren wollen.

Welches es ist, soll die folgende Ausführung zeigen:
In den Bildern 5 und 6 sieht man die Daten der Windkraft offshore im Jahr 2016. Für die onshore-Windkraft sind die gleichen Auswertungen in den folgenden Bildern gezeigt:

Bild 10 Windkraft Deutschland onshore 2016. Ganglinienverlauf in Stundenauflösung (MW), installierte Leistung (MW) und Jahres-Mittelwert der angebotenen Leistung. Quelle: Agora Datensatz (Grafik vom Autor aus den Stundenwerten erstellt)

Bild 11 Histogramm Windkraft onshore im Jahr 2016 (Daten aus Bild 10). Bezug: Installierte Leistung. Datenquelle: Agora, Histogramm vom Autor aus dem Datensatz erstellt.

Die aus den Agora-Daten berechneten Kennwerte des Jahres 2016 für onshore-Windkraft lauten:
Onshore-Windkraft speiste:
– über 3,2 Tage des Jahres zwischen 0 … 1 % der Anschlussleistung ein.
– über 14,5 Tage des Jahres zwischen 0 … 2 % der Anschlussleistung ein.
– über 59 Tage des Jahres (16,2 % vom Jahr) zwischen 0 … 5 % der Anschlussleistung ein.
– über 141 Tage des Jahres (38 % vom Jahr) zwischen 0 … 10 % der Anschlussleistung ein.
– Die Hälfte der versprochenen Leistung wurde lediglich über 5,3 Tage geliefert.
– Im gesamten Jahr wurden nur 18 % der versprochenen Leistung zur Verfügung gestellt.
Ergänzend nochmals die Volllaststunden aus Bild 8:
Onshore: Nach 1548 Stunden (64 Tage; 17,1 % vom Jahr) Lieferung der versprochenen Leistung, hätte man die Anlagen abschalten können, da die Jahresmenge erreicht war (Anmerkung: Konventionelle Kraftwerke kommen auf ca. 90 % Volllaststunden).

Dieses Ergebnis ist katastrophal. Danach hätten die vier FDP-„Energielaien“ [5] fragen müssen. Dann wäre der GRÜNE Minister auch genötigt gewesen, eine vernünftige Antwort zu geben (die den Autor auch interessiert hätte).
Hätten die FDP-Abgeordneten den Autor dazu befragt, wäre ungefähr die folgende Antwort gekommen:
Windkraft onshore hat über ungefähr zwei Monate des Jahres gerade noch den Energieverbrauch der zuzuordnenden Infrastruktur ausgeglichen, also fast null Energie wirklich zur Verfügung gestellt. Was die restliche Zeit mehr geliefert wurde, ist kaum der Rede wert, denn es waren in der Jahressumme nur 18 % der versprochenen Leistung (bezogen auf die installierte Leistung). Bedenken Sie, dass die Netzbetreiber und Versorger die Infrastruktur auf die installierte Leistung auslegen müssen und fragen Sie sich, ob ein weiterer Ausbau dieses Energie-Systems bei solch mageren Ergebnissen bezüglich der Kosten und Liefer-Unstabilität an Energie noch gerechtfertigt werden kann, vor allem, da es auch die Natur in Deutschland immer großflächiger zerstört.

Simulation der 80 % EEG-Versorgung im Jahr 2050

Abschließend hat der Autor die EEG-Versorgung im Jahr 2050 nach den IWES-Angaben (Bild 2) hochgerechnet. Es ergibt nur ein ganz grobes Bild, da die vom IWES „versprochenen“ Verbesserungen der Anlagentechnik mit ihren (vom IWES) erwarteten „Ergebnissprüngen“ nicht berücksichtigt wurden.
Um sich ein Bild zu machen, was dann im EEG-Versorgungsnetz an Chaos herrscht – und was es kosten wird, dieses dann versuchen, zu „beherrschen“ -, reicht es aus.

Zuerst der Verlauf der EEG-Einspeisung im Jahr 2016 (Bild 14):

Bild 12 EEG-Einspeisung 2016. Quelle: Agora-Viewer

Nun der gleiche Ganglinienverlauf im Jahr 2050 nach dem „optimierten Ausbauszenario“ des IWES (Summe EEG mit Solar, Wasser und Biogas). Die Einspeisung pendelt nun zwischen viel zu viel und viel zu wenig Leistungs-Angebot extrem hin und her. Der Abstand zwischen wirklich angebotener und installierter Leistung erreicht neue Größenordnungen.

Bild 13 Ganglinien EEG-Netz im Jahr 2050 bei Erzeugung von 80 % des Strombedarfs. Rote Linie: Installierte Leistung, violette Linie: Mittlerer Strombedarf. Daten aus der IWES-Studie 2013 [2], vom Autor anhand der Agora-Daten 2016 hochgerechnet.
Dazu das Histogramm dieser Energie-Bereitstellung:

Bild 14 EEG-Verteilung der Einspeisung von Bild 15 (Netz im Jahr 2050 bei Erzeugung von 80 % des Strombedarfs)

Fazit:
Die EEG-Erzeuger im Jahr 2050 stellen an Leistung bereit:
– über 61 Tage des Jahres nur zwischen 5 … 20 % der Anschlussleistung (dass es nicht auf null geht, liegt an der Biogas und Wasserkraft-Einspeisung).
– über 224 Tage des Jahres nur zwischen 20 … 100 % der zur Versorgung Deutschlands erforderlichen Leistung.
– über 350 Tage des Jahres nur zwischen 5 … 50 % der Anschlussleistung.
– Im gesamten Jahr werden gerade einmal über 1,4 Tage zwischen 65 … 70 % der versprochenen Leistung als Maximalwerte bereitgestellt.

Dieser Ganglinienverlauf erfordert einen gewaltigen Ausbau der Netz-Infrastruktur und vor allem auch von Speichern.
Laut Fraunhofer-IWES ist das jedoch kein Problem. Davon ist derzeit zwar wenig zu sehen und vieles erst noch im Forschungsstadium:
EIKE 18.06.2015: [11] Elektro-Energiespeicherung, Notwendigkeit, Status und Kosten. Teil 3 (Abschluss)
Aber es wird schon wie benötigt und versprochen kommen. In der Not kann man die Lücken ja immer noch mit (noch zu bauenden) Gaskraftwerken füllen, sowie Überschussstrom abregeln (also bezahlen, aber nicht eispeisen).

Lass die Politik erst einmal so weit ausbauen, bis es kein Zurück mehr gibt

Man wird den Eindruck nicht los, dass dies nach dem Motto verkündet wird: Lass die Politik erst einmal so weit ausbauen, bis es kein Zurück mehr gibt. Dann kann man beginnen, langsam die damit erzeugten Probleme und fehlenden Lösungen zu „beichten“. Mit viel Geld löst man das dann schon irgendwann und irgendwie und bekommt es in der Not von der Politik auch diskussionslos in beliebiger Höhe bezahlt.
Beispielhaft für dieses „Lösungsverfahren“, an dem es (außer den es zwangs-bezahlenden Untertanen) nur Gewinner gibt, sei der Berliner Flughafen zu nennen.

Um mit diesem katastrophalen System die erforderliche Energie zu erzeugen, muss Deutschland technisch und landschaftlich kaputt gemacht werden

Im folgenden Bild ist der erforderliche Ausbaupfad offshore aus der IWES-Studie gezeigt (zwischen dem 13,5 … 20fachen des aktuellen Ausbaus). Damit wäre ein Drittel der deutschen Nord- und Ostsee mit Windparks „zugepflastert“. An Land ist es nicht ganz so schlimm, dort erfolgt der Ausbau nur bis zum 3,3 … 6-fachen des aktuellen Anlagenbestandes. Wer die bereits großflächig durch Windparks zerstörten Landschaften in Norddeutschland gesehen hat, ahnt jedoch, wie vielen Bundesländern dann noch das gleiche Leid mit noch viel größeren Windkraftmonstern blühen wird. Und das gilt bei idealisierten Annahmen.

Bild 15 Ausbaupfad Windkraft offshore bis 2050 [3]
Die geradezu idiotischen Aussagen von GRÜNEN Politiker*innen werden dagegen wohl kaum helfen:

EIKE 26.03.2017: Wie geil ist das denn, wir können Energie erzeugen, ohne die Landschaft kaputt zu machen

Bild 16 Screenshot aus dem ARD-Beitrag: Der Kampf um die Windräder – Die Auswüchse der Boombranche

Manchmal kommen auch Medien darüber ins Grübeln. Nicht selbst, sondern weil es einzelnen Naturschutzverbänden mit opponierenden, deutschen Mitgliedern langsam davor graut.
Frankfurter Allgemeine: [4] Ein Drittel von Nord- und Ostsee als Windpark?
… Bei Umweltschützern wachsen indes die Zweifel, ob Nord- und Ostsee einen derartig starken Ausbau der Offshore-Windenergie verkraften könnten. Je nach Leistungsfähigkeit der Windkraftanlagen könnten in den kommenden Jahrzehnten
bis zu einem Drittel der Meeresfläche mit mehreren tausend Windrädern bebaut werden und die Nordsee zu einem Industriepark verändern.
Doch muss man auch da differenzieren. Großen, wirklichen „Weltrettern“ würde es nichts ausmachen, wenn Deutschland aufgrund seiner selbsterwählten Vorreiterrolle daran kaputt gehen würde:
Frankfurter Allgemeine: [4] … Andere Umweltverbände wie der WWF plädieren dagegen mit Blick auf die Klimapolitik für einen stärkeren Ausbau der Offshore-Windenergie.

Wehe, ein öffentlicher Sender wagt es doch einmal, von der „zulässigen“ Darstellung abzuweichen. Der KLIMA-LÜGENDETEKTOR schlägt unerbittlich zu

Die Homepage zur Anprangerung von Klima- und EEG-kritischen Publizierungen, eng verbunden mit der Klima- und Energieberaterin C. Kemfert, versteht solche Betrachtungen nicht nur nicht, sie klärt auch auf, was daran falsch ist.

Bild 17 Logo des Lügendetektors. Quelle: Screenshot von der Homepage

Diesmal hat sie sich diese Homepage einen ganz leicht von der ideologischen Vorgabe abweichenden Beitrag des im Kern ansonsten streng LINKS-GRÜNEN, Bayerischen Rundfunks vorgenommen und mit „Argumenten“ zerfetzt:

KLIMA-LÜGENDETEKTOR 22. Dezember 2017: BR: Sich mit der Lobby gemein machen
Es gibt Tage, da hauen einen die Schlagzeilen von den Socken. Zum Beispiel diese, die jüngst der Bayerische Rundfunk vermeldete:


Wow!
Auch im ersten Satz des dann folgenden Artikels findet sich die Aussage noch einmal: „Die Energiewende ist ein Desaster.“ Das ist jetzt wirklich mal was Neues:
International wird die Energiewende als Vorzeigeprojekt gehandelt, das den Strom der Bundesrepublik klimafreundlicher macht, Jobs schafft und durch jahrelange Vorarbeit zu den heute (weltweit) niedrigen Preisen für erneuerbaren Energien beigetragen hat. Was also hat der Bayerische Rundfunk herausgefunden, der all das nicht nur in Frage stellt, sondern die Transformation des Energiesektors sogar zum „Desaster“ erklärt? …
… Leider hat sich der Bayerische Rundfunk nicht diese Mühe gemacht. Er hat auch nicht ein einziges Gegenargument bei irgendeinem Energiewende-freundlichen Branchenverband eingeholt, kein Forschungsinstitut angerufen. Keine Gegenrecherche, nichts …
Den Rest an „Argumentation“ gegen eine kritische Meinung bitte im Original weiter lesen. Es „lohnt“ sich, um den Unterschied zwischen geifernder Anklage im Stil einer Hexenjagd – wie sie bei einigen unserer „Eliten“ inzwischen wieder opportun ist – und sachkundiger Argumentation zu sehen.

Auch Professor Sinn glaubt an den Sinn, nur nicht an die Lösung

Mal sehen, wann sich auch Professor Sinn diesem „investigativen“ und den Verfasser*in des jeweiligen „Verrisses“ verheimlichenden Lügendetektor stellen muss:
7] TICHYS EINBLICK 19. Dezember 2017: Wieviel Zappelstrom verträgt das Netz? Hans-Werner Sinn – Vernichtendes Urteil über Energiewende
Es kostet nur fürchterlich viel Geld, reduziert den Lebensstandard und verschandelt die Landschaft. Das kann es doch nicht sein!« Vernichtender kann ein Urteil nicht sein. Professor Hans-Werner Sinn fällt es in seinem Vortrag »Wie viel Zappelstrom verträgt das Netz? Bemerkungen zur deutschen Energiewende«. »Sobald in der Forschung etwas unter ideologischen Gesichtspunkten geschieht«, sagt er, »werde ich nervös.« Und der Volkswirt in ihm beginnt zu rechnen …
… Denn die tun den Energiewende-Planern nicht den Gefallen, sanft, stet und gleichmäßig zu liefern und vor allem dann, wenn wir den Strom benötigen.
Professor Sinn kommt zu dem Ergebnis: Die Energiewende kann nicht funktionieren. In einem umfangreichen Zahlenwerk kalkulierte er dieses hanebüchene Energiewenden-Gebilde von verschiedenen Seiten her durch und kam zum gleichen Ergebnis, wie das auch hier bei TE und anderen Seiten wie
Eike immer wieder beschrieben wurde. Er untermauert noch einmal seinen Satz »Energiewende ins Nichts«.
Sinn untersuchte in seinem Vortrag, ob es denn möglich ist, das Hauptproblem der sogenannten erneuerbaren Energien zu umschiffen, dass es nämlich keine Speichermöglichkeiten für Strom gibt … Wie Sinn es auch hin und her rechnet – es funktioniert nicht, kann nicht funktionieren, weil Bedarf und Lieferung zu diametral auseinanderklaffen, als dass beider Kennlinien zur Deckung gebracht werden könnten. Problem dabei, so hat er berechnet, sind nicht überwiegend die tagesaktuellen Unstetigkeiten von Strombedarf und Stromerzeugung, sondern die saisonalen Schwankungen. Im Sommer wird weniger elektrische Energie benötigt als im Winter.
… Man müsste in Deutschland noch etwa 6.400 Pumpspeicherkraftwerke in die Landschaft setzen, um soviel Energie speichern zu können, dass die saisonalen Unterschiede ausgeglichen werden können. Unmöglich. Auch die Power-to-Gas Variante taugt nichts, weil nach der Umwandlung von Windenergie in Gas Kosten von 24 Cent pro Kilowattstunde anfallen, beim Import aus Russland aber nur 3 Cent. …

Aber auch hier muss man differenzieren. In der SZ vom 23./24. Dezember stehen im Infoartikel zum Vortag Aussagen von Herrn Sinn: [8] … Für den Emeritus … steht zwar fest, dass der Klimawandel stattfindet und eine Gefahr ist ...
Es wird also auch seitens Herrn Sinn nicht am schlimmen Klimawandel gezweifelt, nur die Kosten und Probleme der „deutschen“ EEG-Lösung werden kritisiert. Weil Herr Sinn damit nicht das Problem, sondern nur einen Lösungsversuch kritisiert, fällt ihm zur Verbesserung dann auch nichts Wegweisendes ein. Das Geld wird weiterhin ausgegeben, es bekommen nur andere (und billiger wird der Strom dadurch auch nicht):
[8]… Es gibt also eine Doppelstruktur und die kostet doppeltes Geld. Der Strom in Deutschland sei darum im internationalen Vergleich sehr teuer. Was also tun? Die einzige Lösung glaubt Sinn, ist der weltweite Emissionshandel. Die Kohlekraftwerke bleiben so am Netz und Deutschland würde seine Klimabilanz durch den Ankauf von Verschmutzungsrechten ausgleichen.
Schade, dass auch ein Herr Sinn nicht weiter denkt [12]. Wahrscheinlich wäre er dann aber von einer Veranstaltung der Süddeutschen Zeitung (und CESifo Group) auch nicht als Redner eingeladen worden.

Doch Politiker lieben solche „Lösungen“, bei denen nichts gelöst, aber Aktion und „Gute Taten“ zum Wohle der Bürger dokumentiert werden (die es ja sowieso bezahlen müssen). Begonnen wurde deshalb schon damit:
EIKE 24. Dezember 2017: Deutschland soll Braunkohlestrom-Exportland werden

Das war aber nur für 80 % EEG-Vollversorgung

Um das ganze Desaster, welches diese Planung der EEG-Vollversorgung im deutschen Energiesystem anrichten wird, zu verstehen, muss man die Studien (und nicht nur den Extrakt daraus) vollständig lesen.
Erst dann wird einem klar, mit welcher Konsequenz Industrie, Lobbyverbände und Versorger (als „herausragendes“ Beispiel seien die kommunalen, Stadtwerke München genannt) mithelfen, ja fordern, das über Jahrzehnte weltweit beste und dabei preiswerte Energiesystem kaputt zu machen und gegen ein in allem Belangen untaugliches zu ersetzen.

Als einziger „Lichtblick“ bleibt, dass der vollständige Zusammenbruch der Versorgung nicht erfolgen kann. Denn es wird immer parallel ein komplettes, konventionelles Backup-System bestehen bleiben. Da Kernkraft und Kohle dafür bald verboten sind, werden es Gaskraftwerke. Die hat man bisher vermieden, weil Gas der teuerste, konventionelle Energieträger ist. Aber um CO2 zu vermeiden, dürfen dem deutschen Untertanen keine Maßnahmen zu aufwendig und Kosten zu hoch sein.
Zudem: Deutschlands Fluren und Auen sind schon seit dem Mittelalter durch Kulturlandschaft geprägt. So wie man heute die Lüneburger Heide, welche ein Ergebnis mittelalterlichen Abholzens ist, schön findet, werden unsere Zukunftsbürger das Ergebnis der postfaktischen EEG-Aufforstung bestimmt auch einmal schön finden.
Lassen wir unsere Industrie, Interessenverbände und die Politik freudig an dieser CO2-neutralen Zerstörung des konventionellen Energiesystems zum Zieljahr 2050 als Kampf-Maßnahme gegen das sich stetig wandelnde Klima „arbeiten“.
Schließlich hat seit dem ersten Weltkrieg jede deutsche Generation mindestens ein Desaster (Krieg und / oder Währungsreform) verursacht und erleiden müssen. Warum sollte diese Schleife auf einmal unterbrochen werden? Wer hätte ein Interesse daran?

Bild 18 Anmerkung: Bezüglich des vollständig geplanten „EEG-Ausbaus“ von Nord- und Ostsee ist dieses Bild noch nicht aktuell. Quelle: Rettet den Odenwald

Bild 19 Quelle: Rettet den Odenwald

Quellen

[1] Focus 11.12.2017: Windkraft auf See ergiebiger und zuverlässiger als erwartet
[2] Fraunhofer IWES: ENERGIEWIRTSCHAFTLICHE BEDEUTUNG DER OFFSHORE-WINDENERGIE FÜR DIE ENERGIEWENDE, Langfassung 2013

[3] Fraunhofer IWES: Energiewirtschaftliche Bedeutung der Offshore-Windenergie für die Energiewende Update 2017

[4] Frankfurter Allgemeine, Aktualisiert am 11.12.2017: Offshore-Windenergie: Strom, stabil und klimafreundlich

[5] Windkraft-Journal, 23. Sept. 2017: Der Niedersächsische Minister für Umwelt, Energie und Klimaschutz Stefan Wenzel hat namens der Landesregierung auf eine mündliche Anfrage der Abgeordneten Jörg Bode, Horst Kortlang, Dr. Gero Hocker und Almuth von Below-Neufeldt (FDP) geantwortet.

[6] IWR (Die Business-Welt der Regenerativen Energiewirtschaft) Online 01.12.2017: Ausbau der Offshore Windenergie erhöht Versorgungssicherheit

[7] TICHYS EINBLICK 19. Dezember 2017: Wieviel Zappelstrom verträgt das Netz? Hans-Werner Sinn – Vernichtendes Urteil über Energiewende

[8] SZ 23./24. Dezember Printausgabe, Artikel: Zahlen, bitte

[9] EIKE 15.08.2017: Cem Özdemir versucht sich in Energie

[10] Windkraft-Journal, 23. Sept. 2017: Der Niedersächsische Minister für Umwelt, Energie und Klimaschutz Stefan Wenzel hat namens der Landesregierung auf eine mündliche Anfrage der Abgeordneten Jörg Bode, Horst Kortlang, Dr. Gero Hocker und Almuth von Below-Neufeldt (FDP) geantwortet.

[11] EIKE 18.06.2015: Elektro-Energiespeicherung, Notwendigkeit, Status und Kosten. Teil 3 (Abschluss)

[12] EIKE 25. Dezember 2017: Prof. Hans-Werner Sinn zum Speicherproblem von grünem Strom: Viel Richtiges, aber leider auch Unrichtiges




Studie behauptet Zusammenhang zwischen globaler Erwärmung und Vulkanausbrüchen

Klimaforscher sind sich einig, dass Vulkanausbrüche das globale Klima beeinflussen können, aber einige Forscher gehen sogar noch weiter und behaupten, dass klimatische Veränderungen Eruptionen beeinflussen können.

„Der durch den Menschen verursachte Klimawandel verursacht eine schnelle Eisschmelze in vulkanisch aktiven Regionen. In Island führt das zu häufigeren Vulkanausbrüchen“, warnten Autor Dr Graeme Swindles  und co-author, Dr Ivan Savov, Fachbereich School of Earth & Environment, beide von der Universität Leeds in einer Erklärung .

Die neue Studie verglich Ablagerungen von Vulkanasche in Europa mit der Gletscherbedeckung in Island vor etwa 5.500 bis 4.500 Jahren. Die Forscher sagten, dass die Abkühlung des Klimas in Island während dieses Zeitraums die Eisbedeckung erhöhte und die vulkanische Aktivität abnahm.

Da sich die isländischen Gletscher derzeit im Rückzug befinden, sagten die Wissenschaftler, dass es zu einer Mehrung der Vulkanausbrüche kommen könnte. Die Grundidee ist, dass weniger Eis weniger Druck auf die Erdoberfläche bedeutet, und damit der Magmafluss und die Mantelschmelze zunehmen.

„Der menschliche Einfluss auf die globale Erwärmung macht es schwer vorauszusagen, wie lange die Zeitverzögerung dauert, aber die Trends der Vergangenheit zeigen uns, dass in Island in Zukunft mehr Ausbrüche zu erwarten sind“, schrieb Swindles.

Es gibt jedoch eine große Einschränkung, die den Vergleich von Gletscherbedeckung mit vulkanischer Aktivität ein wenig problematisch macht – die Studie von Swindles fand eine 600-jährige Verzögerungszeit zwischen Gletscherveränderungen und Veränderungen der Eruptionsfrequenz.

Es gibt eine „offensichtliche Zeitverzögerung von etwa 600 Jahren zwischen dem Klimaereignis und der Änderung der Eruptionsfrequenz“, so die Studie. Ein „Anstieg der Vulkanausbrüche aufgrund anhaltender Enteisung seit dem Ende der Kleinen Eiszeit könnte sich für Hunderte von Jahren nicht zeigen.“

In 600 Jahren kann viel passieren. Scientific American sprach auch mit anderen Experten, die sagten, dass Island wegen seiner einzigartigen Geologie „besonders sensibel“ für Gletscherbewegungen sein kann.

Swindles sagte „viel mehr vulkanische Aktivität in Gebieten der Welt voraus, in denen Gletscher und Vulkane interagieren“. Er erzählte Scientific American, dass „es weitere Eruptionen  im nordwestlichen Pazifik, dem südlichen Südamerika und sogar der Antarktis geben könnte. Vulkanasche und Emissionen können tödlich sein; mindestens jedoch sehr schädlich.“

Bislang haben Geowissenschaftler keine Zunahme von vulkanischen Aktivitäten in den letzten Jahrzehnten festgestellt. Die Oregon State University erforscht den Vulkanismus:

„Der wissenschaftliche Konsens besagt, dass es in letzter Zeit KEINE Zunahme von vulkanischen Aktivitäten gegeben hat. 

… Bedenken Sie, dass wir die vulkanischen Regionen erst seit ein paar hundert Jahren wissenschaftlich untersuchen“, heißt es auf der Webseite des Programms. „Auch wenn es heutzutage eine Häufung von Ausbrüchen geben würde, würde dies nicht notwendigerweise einen Trend in der Zunahme der Aktivitäten anzeigen.“

Bemerkenswert ist auch, dass eine Zunahme von vulkanischen Aktivitäten auch dazu führt, dass mehr Aerosole hoch in die Atmosphäre geschleudert werden, was einen kühlenden Effekt hat.

Der Ausbruch des  Pinatubo auf den Philippinen in 1991 blies nach Schätzungen der NASA 20 Millionen Tonnen Schwefeldioxid und Asche in die Atmosphäre und führte zu einem starken Rückgang der troposphärischen Temperatur.

Erschienen auf The Daily Caller am 21.12.2017

Übersetzt von Andreas Demmig

http://dailycaller.com/2017/12/21/study-claims-global-warming-will-cause-more-frequent-volcanic-eruptions/




Fritz Vahrenholt: Energiewende wichtiger als der Schutz der Natur?

BaZ: Sie haben die deutsche Energiewende als «Desaster» bezeichnet. Wieso?
Fritz Vahrenholt: Zunächst einmal hat die deutsche Regierung nach dem Tsunami in Japan innerhalb eines Wochenendes entschieden, auf die Kernenergie zu verzichten, die bis dahin die Grundlast für die deutsche Industrie erzeugt hat. Die Regierung will seither diese gesicherte Energie durch schwankenden Strom aus Sonne und Wind ersetzen. Dass das nicht vernünftig ist, weiss eigentlich jeder.

Ich nicht. Erklären Sie es mir.
Wir haben 50 bis 100 Tage und manchmal ganze Wochen im Jahr mit Windstille und wenig Sonne. Dann produzieren diese weniger als zehn Prozent des Bedarfes. Und wenn der Wind bläst und die Sonne scheint, ist zu viel Strom im Netz, und da die Speicherkapazitäten fehlen, schalten wir Windkraftwerke ab. Wir haben ein sich zuspitzendes Problem – entweder zu viel oder zu wenig Strom.

Warum spitzt sich das Problem zu?
Weil mit jedem Zubau an solchem «Flatterstrom», durch jedes Windrad und jede Solarzelle, die Schwankungen erhöht werden.

Beginnen wir ganz vorne: Kernenergie hat doch keine Zukunft.
So hat es die Politik entschieden, obwohl es keine ernsthaften Beanstandungen und Befürchtungen hinsichtlich der deutschen Kernkraftwerke gab.

In der Schweiz ist vorgesehen, dass die Kernkraftwerke weiterlaufen, solange es die Sicherheit erlaubt.
Das ist klug. Damit gewinnen Sie Zeit, Zeit, bis sich vielleicht kostengünstige Speichertechnologien ergeben.

Und der strahlende Abfall?
Die Endlagerthematik ist völlig unabhängig davon zu lösen, ob die Kraftwerke 30, 40 oder 50 Jahre laufen. Nach Fukushima haben nur die Schweiz und Deutschland eine Energiewende beschlossen. Sogar in Japan setzt man wieder auf Kernkraft und Kohle. 2022 wird das letzte deutsche Kernkraftwerk abgestellt und es gibt dann keine gesicherte Versorgung mehr im Süden Deutschlands. Wir hängen zunehmend von den Naturkräften ab, wenn wir dann auch noch auf Kohle- und Gaskraftwerke verzichten wollen.

Wieso ist das schlecht?
Ich habe nichts gegen Wind- und Solarenergie, wenn sie denn wirtschaftlich ist und eine gesicherte Stromversorgung gewährleistet. Aber das funktioniert erst, wenn das Speicherproblem gelöst ist. Sie müssen die Naturkräfte zu einer zuverlässigen Versorgung machen können.

Es braucht einfach genügend Solar- und Windkraftwerke.
Nein, selbst wenn wir die Windkapazität verdreifachen, bleibt bei Flaute die Erzeugung nahe null. Für die Sonne gilt Ähnliches, insbesondere nachts. Windkraftanlagen erzeugen nur so viel Strom, als würden sie gerade einmal 90 Tage im Jahr mit voller Leistung laufen. Bei Fotovoltaik sind es 35 Volllasttage. Daraus erkennt man schon, dass es ohne Speicherung nicht gelingen kann, eine sichere Versorgung zu gewährleisten.

Warum ist das so wichtig?
Sie müssen sich immer vor Augen halten, was das bestehende System leistet. Immer wenn irgendwo ein Bedarf an Strom entsteht, muss in der gleichen Sekunde dieser Strom geliefert werden. Wenn an einem Winterabend die Flutlichtanlage des FC Basel angedreht wird, muss der zusätzliche Bedarf innert Sekunden bereitgestellt werden. Mit Sonnen- oder Windenergie können sie die Produktion nicht hochfahren.

Was bedeutet das?
Wenn tatsächlich die Sonne scheint oder der Wind weht, dann haben wir in Deutschland viel zu viel Strom. Wir verschenken den Überschussstrom, häufig zu negativen Strompreisen, ins Ausland. Wegen des Vorrangs der Erneuerbaren müssen zuerst die konventionell mit Gas oder Kohle betriebenen Kraftwerke runtergefahren werden, dann sogar Windkraftwerke, die dann aber trotzdem bezahlt werden, obwohl sie nichts produzieren. Das kostet mittlerweile eine Milliarde Euro pro Jahr, das ist doch absurd! Noch einmal: Neue Energieträger sind nur dann ein belastbarer Versorger, wenn wir das Speicherproblem gelöst haben.

Solche Technologien gibt es.
Ja, es gibt Möglichkeiten, beispielsweise Pumpspeicher, also Stauseen in den Bergen. Da pumpt man Wasser hoch und lässt es wieder ab, wenn der Strom benötigt wird. Bereits um eine viertägige Windflaute auszugleichen, müsste man den Bodensee (500 km², 100 m tief) auf ein hohes Niveau pumpen und wieder ablaufen lassen.

Wieso geht das nicht mit Batterien?
Das wird vielleicht irgendwann ­möglich sein. Dann hat auch die wechselhafte Wind- und Solar­energie eine Chance. Heute ist es viel zu teuer – gut und gerne 20 Eurocent pro ­Kilowattstunde – und die kommen zu den eigentlichen Stromkosten und Gebühren hinzu. Das kann sich nur noch der wohlhabende Privathaushalt leisten. Jede industrielle Nutzung von Strom können sie aus Kostengründen vergessen.

In der Schweiz haben wir viele Pumpspeicherwerke. Die haben sich jahrelang gut rentiert. Jetzt verdienen die nichts mehr.
Die Ursache hierfür ist die völlig aus den Fugen geratene Produktion von Wind- und Solarstrom in Deutschland. Dann wenn es windig ist, schieben wir den Überschuss unseren Nachbarn über die Grenze. Dieser Strom ist durch die Subventionen ja bereits bezahlt, wenn er entsteht, darum kostet er nichts oder hat sogar einen Negativpreis. Die Pumpspeicherwerke brauchen aber rund acht Eurocent, um wirtschaftlich zu überleben. Das ist ein grosses Dilemma für die Schweiz. Damit wird ihre heimische – fast CO?-freie – Stromproduktion plötzlich infrage gestellt.

Die Überschussproduktion gefährdet unsere Wasserkraft.
Wir haben in Deutschland 50 000 Megawatt Windkraft. Wenn alle produzieren, müssen sie zuerst Kohle- und Gaskraftwerke, dann aber auch noch Windkraftwerke selber abstellen, sonst droht ein Kollaps. Wenn das nicht reicht, schütten wir den Strom über die Grenze und zerstören damit die Energieversorgung unserer Nachbarländer. Diese Nachbarn müssen uns umgekehrt mit Strom aushelfen, wenn es keinen Wind gibt. Die Polen lassen sich das nun nicht mehr gefallen und haben an der Grenze Phasenschieber montiert, damit der deutsche Überschussstrom nicht mehr nach Polen kann. Die Tschechen werden das nachmachen.

Könnte das die Schweiz auch tun?
Ich kann mir vorstellen, dass diese Debatte in der Schweiz auch irgendwann beginnt und man sich fragt: «Müssen wir eigentlich die übermütige und nicht durchgerechnete Energiepolitik Deutschlands ausbaden?» Vermutlich gibt es Leute in der Schweiz, die diese Frage mit Nein beantworten würden. Da habe ich Verständnis dafür.

Dann müsste die Schweiz aber Selbstversorger sein, wozu es neue Gaskraftwerke braucht.
Wenn die Kernkraftwerke vom Netz genommen worden sind, müssen ­flexible Gaskraftwerke deren Funktion übernehmen. Die deutsche Energiewende hat aber wegen des Überschussstroms Gaskraftwerke unrentabel gemacht. Ein modernes Gaskraftwerk in Bayern wurde einen Tag nach der Inbetriebnahme abgestellt, weil es sich nicht lohnte.

Reden wir über Geld. Der Strom wird für die Konsumenten immer teurer, aber auf dem internationalen Markt ist er immer billiger. Woher kommt das?
Ganz einfach: Wind- und Solarstrom sind noch immer doppelt bis dreimal so teuer wie konventionell erzeugter Strom. Um das auszugleichen, werden die Mehrkosten durch eine Umlagegebühr bei den Kunden erhoben und an die Produzenten von Wind- und Solarenergie verteilt. Jeder Windmüller und Besitzer eines Solardaches bekommt eine feste Vergütung für seinen Strom, der ihm eine satte Rendite für 20 Jahre sicherstellt. Die Umlagegebühr verteuert den Strom für die Kunden. Der Strom aus Erneuerbaren wird also vorab bezahlt und kommt zum Preis von null ins Netz und verdrängt den konventionellen Strom vom Markt. Das senkt den Strompreis an der Börse. Beide Effekte zusammen führen zu einer Erhöhung für den privaten Kunden.

Früher hat man einfach die Kernkraftwerke subventioniert. Strom ist doch immer teuer gewesen.
In Deutschland waren die Kernkraftwerke nicht subventioniert und ich kann mir das für die Schweiz nicht vorstellen. Die Forschung und Entwicklung der Kernkraft ist zwar vom Staat gefördert worden, aber das ist doch nicht zu beanstanden.

Und die Risiken? Die mussten die Kernkraftwerke nicht vollständig versichern.
Das war eine von Politik und Gesellschaft getragene Entscheidung. Heute würde das anders entschieden. Aber die Frage stellt sich nicht, da neue Kernkraftwerke nicht wirtschaftlich betrieben werden können.

Ihre Alternative ist, die Kernkraftwerke möglichst lange laufen zu lassen und auf die Entwicklung von Speichertechnologien zu setzen.
Wenn wir wettbewerbsfähige Speichertechnologien haben, dann können wir mit schwankender Energie wie Sonne und Wind umgehen.

Es geht Ihnen also nur um die Reihenfolge?
Genau. Wir dürfen doch das Pferd nicht von hinten aufzäumen und zuerst die Wind- und Solarkraftwerke bauen, wenn wir wissen, dass diese nur eine sichere Stromversorgung bringen, wenn wir Speichertechnologien haben, die es noch zu entwickeln gilt. Alles andere erscheint mir nicht sonderlich klug.

Was bedeutet das für den Industrie­standort?
Es gibt schon heute ein Defizit an Stromversorgung in Bayern und Baden-Württemberg. Das kann man lösen, indem man Leitungen aus dem Norden dahin baut. Aber das dauert noch Jahre und wegen Widerstands gegen Freileitungen wird es sehr teuer. Die Schweiz hängt mit Deutschland zusammen. Bei Stromknappheit wirkt sich das auch in der Schweiz aus.

Gibt es keinen Widerstand aus der Industrie?
Aus der energieintensiven Industrie kommt kein Widerstand, weil diese von der Umlagegebühr befreit ist – wie auch in der Schweiz. Stahl, ­Chemie, Kupfer, Aluminium profitieren sogar von den tiefen Gross­handels­preisen. In Wirklichkeit ist das ­System aber insgesamt viel teurer. Die Privathaushalte und die Klein­unternehmen ­zahlen einfach die Zeche. Wir sehen mittlerweile, dass neue industrielle Investitionen eher unterbleiben. Man investiert nicht in einem Land, wo man nicht genau weiss, wie sich die Energiepreise ­entwickeln. Neben dem Preis spielt auch die Versorgungssicherheit eine wichtige Rolle. Sie nimmt mit jedem neuen Wind­rad ab.

Welche Gefahren gehen von Wind­rädern aus?
Ich habe ja selber ein Windkraft­unternehmen im Jahre 2000 gegründet und gross gemacht und kenne die Technologie sehr gut. Ich wäre nie auf die Idee gekommen, zu glauben, dass man derart schwankende Energie dazu verwenden könnte, ein Bahnnetz zu betreiben. Das müssen wir alle lernen. Windenergie bringt nicht nur Wohltaten. In Deutschland ist durchschnittlich alle 2,7 Kilometer ein Windkraftwerk geplant, obwohl wir schon heute wissen, dass Greif­vögel, Fledermäuse und andere gefährdete Arten deswegen verschwinden werden. Der Rotmilan ist gefährdet. Die 26 wichtigsten Sing­vogelarten sind auf dem Rückzug. Die Auswirkungen auf die Lebensräume von Pflanzen und Tieren sind enorm. Wenn ein Kernkraftwerk so viel Natur zerstört hätte, wie es die Windenergie macht, wäre es schon längst still­gelegt worden.

Warum sagen das die Naturschutz­organisationen nicht?
Der tiefere Kern ist folgender: Die politischen Grünen haben sich die Energiewende zum Programm gemacht, koste es, was es wolle. Sie waren in Wirklichkeit in Deutschland nie eine Naturschutzpartei, sondern eine antikapitalistische Partei, die sich gegen die Kernkraft und Industrie engagiert. Deswegen haben sie auch kein Herzblut, wenn es um Flora und Fauna geht. Es gibt natürlich Naturschutzorganisationen, die auf dieser grünen Parteilinie sind und andere, die tatsächlich Naturschutz machen. Ersteren ist die Energiewende wichtiger als der Schutz der Natur.

Aber es gibt Widerstand gegen Wind­räder.
Ja. Auf dem Land gibt es ein enormes, sehr bürgerliches Protestpotenzial. Das erinnert mich ironischerweise sehr an den Anfang der Anti-Kern­energie-Bewegung. Es ist heute so: Der Traum der städtischen Elite von einer angeblich sauberen Energie­versorgung wird auf dem Rücken der ländlichen Bevölkerung ausgetragen, die ihre Heimat verliert.

Wer gewinnt und wer verliert eigentlich finanziell?
Jene, die Subventionen für ein Solardach erhalten oder sich an Windkraftfonds beteiligen, gehören in der Regel nicht zur Unterschicht. Die Arbeitnehmer, die Sozialhilfeempfänger, die Mieter in Mehrfamilienhäusern, das sind diejenigen, die zur Kasse gebeten werden und die die auf zwanzig Jahre staatlich garantierten Renditen der Wohlhabenden ermöglichen.

Sie sehen zwei Möglichkeiten der weiteren Entwicklung: durchwursteln oder korrigieren.
Man wird irgendwann korrigieren müssen, spätestens nach den ersten Netzzusammenbrüchen. Je länger es dauert, umso grösser werden die Schwierigkeiten. Wenn wir in zehn Jahren eine fantastische Batterie haben, die fünf Eurocent pro Kilowattstunde kostet, dann wird sich die Sache vielleicht einrenken. Das ist aber Politik nach dem Prinzip Hoffnung. Ich würde darauf keine Wette eingehen und schon gar nicht als Politiker eine Nation darauf verpflichten.

 

Zuerst erschienen in der Basler Zeitung, der wir an dieser Stelle für den Abdruck danken.




„Fracking ist schädlich für Embryos“, aber die Studie verschweigt vieles

Kinder von Müttern, die nur etwa einen Kilometer entfernt von einem aktiven Fracking-Brunnen entfernt leben, haben mit einer Wahrscheinlichkeit von 25% ein niedrigeres Geburtsgewicht, nach einer  in der Fachzeitschrift Science Advances veröffentlichten Studie. Andere Forscher haben jedoch schwerwiegende Mängel bei den Schlussfolgerungen der Studie festgestellt.

Der Bericht ist fatal fehlerhaft, sagte Pennsylvanias Direktorin für „Energy in Depth“ [Energie in Tiefe] (EID), Nicole Jacobs, in einer Erklärung zu The Daily Caller News Foundation. EID ist der Forschungszweig der Independent Petroleum Association of America, einer Pro-Öl-Vereinigung mit Sitz in Washington, DC

„Die Forscher räumen ein, dass sie keine signifikanten Faktoren untersuchten, die möglicherweise zu Gesundheitsproblemen bei Säuglingen führen könnten, selbst wenn sie nicht in der Nähe der Erdgasbohrungen leben würden, z.B. das Alter der Mütter und ihr Verhalten. … Außerdem basiert die Studie auf Annahmen und nicht auf tatsächlichen Messungen von Schadstoffen an den Quellen und in der Nähe davon, was die Autoren einräumen, dies stellt eine wesentliche Einschränkung ihrer Studie dar. Damit ist es nur eines von vielen Beispielen für Berichte mit ähnlichen Einschränkungen.“

Die Forscher behaupten, „Beweise“zu zeigen, dass Mütter, die in der Nähe von Fracking-Brunnen in Pennsylvania leben, Babys mit niedrigerem Gewicht bekommen. Der Bericht von Science Advances wurde von der MacArthur Foundation finanziert, einer Milliardärsgruppe, die in der Vergangenheit mehr als 10 Millionen US-Dollar in Anti-Fracking-Gruppen versenkt hat.

Aber ihre Forschungsergebnisse zeigen, dass Mütter, die 3 Kilometer von den Öl- und Erdgasstandorten entfernt leben, viel eher Babys mit niedrigem Geburtsgewicht haben als solche, die näher daran wohnen, was die Schlussfolgerung des Autors ernsthaft in Zweifel zieht.

Die Forscher räumten auch ein, dass ihre Ergebnisse mit der Fracking-Industrie nicht in Zusammenhang stehen könnten. Die Studie stellt fest, dass diejenigen Mütter, die befragt wurden, „jünger waren, zum Zeitpunkt der Geburt weniger wahrscheinlich verheiratet und weniger gebildet waren – Merkmale, die sogar ohne Fracking zu schlechteren Gesundheitsfolgen von Säuglingen führen können“.

Michael Greenstone, der Co-Autor der Studie, versucht weiterhin die Ergebnisse direkt mit der Erdgasförderung zu verknüpfen, trotz der Bemühungen der [anderen] Forscher, ihre Ergebnisse abzusichern.

„Diese Studie liefert die stärksten Beweise für einen Zusammenhang zwischen der Verschmutzung, die durch hydraulische Frakturierungsaktivitäten entsteht, und unserer Gesundheit, insbesondere der Gesundheit von Babys“ schrieb er in einer Presseerklärung.

Auch haben Greenstone und seine Kollegen in ihrer Studie keine tatsächlichen Verschmutzungswerte angegeben. Stattdessen stützten sie sich auf Annahmen über die Exposition und nicht auf tatsächliche Luftqualitätsdaten – Greenstone und andere mussten einräumen, dass das Fehlen von tatsächlich erfassten Werten, für die Schlussfolgerung der Studie fatal sein könnte.

Jüngste Berichte zeigen auch, dass die Erdgasindustrie für viele Menschen in Pennsylvania und in anderen Staaten wirtschaftliche Vorteile haben. Diese Einnahmen können dazu beitragen, Gesundheitsrisiken für arme Familien zu verringern, sagen einige Analysten.

Von 2012 bis 2014 hat die Schieferölindustrie nach einer vom National Bureau of Economic Research veröffentlichten Studie 4,6 Millionen neue Arbeitsplätze und 3,5 Billionen US-Dollar neues Vermögen aufgrund des Energiebooms und der daraus resultierenden niedrigen Gaspreise geschaffen.

[Das National Bureau of Economic Research ist eine US-amerikanische „private, überparteiliche Nonprofit-Forschungsorganisation“, die sich dem Studium von Theorie und Empirie der Ökonomik widmet]  

Fracking steigerte das durchschnittliche, zur Verfügung stehende Haushaltseinkommen um $ 1.200 bis $ 1.900 pro Jahr und führte laut einer Studie der University of Chicago im Dezember 2016 zu einem Anstieg des Durchschnittseinkommens um sechs Prozent. Die Studie von Science Advances erkennt viele dieser Vorteile an, beharren aber letztlich auf dem Schluss, dass die Vorteile durch die [zusätzlichen] Gesundheitskosten ausgeglichen werden würden.

Erschienen auf The Daily Caller am 16.12.2017

Übersetzt durch Andreas Demmig

http://dailycaller.com/2017/12/16/heres-what-you-wont-hear-about-claims-that-fracking-is-hurting-babies/