1

Wenn der Hopfen nicht stirbt, stirbt dann der Klimawandel?

Bild rechts: Bier und Hopfen; Bild: 123 RF Dateinummer : 16475901 Urheber : Sergii Kolesnyk

Der Autor berichtete bereits letztes Jahr darüber, als eine „wissende“ Grüne Vordenkerin dazu eine Vorhersage machte:

EIKE 2015: Grüne Abgeordnete Barbara Höhn durch Fakten widerlegt: Der Hopfenertrag steigt trotz Klimawandel

Prof. Harald Lesch las zwischenzeitlich Schlimmstes in einer tschechischen Studie [1] [2] und war darüber so erschüttert, dass er es dem Deutschen Klimaangst-Publikum nicht vorenthalten wollte.

H. Lesch über den Beweis der Schädlichkeit von mehr CO2 auf Pflanzen

Lesch-Video ab 7:44: youtube-Video

Filmtext:… ein schönes Beispiel dafür ist der Hopfen. Am Anfang bei einer bestimmten Konzentration von Kohlendioxyd da freut er sich noch, da wächst er mehr. Wenn es allerdings mehr wird, dann wird der Hopfen weniger. Dann wird der Hopfenanbau … wird langfristig in Deutschland verschwinden. Das gehört zu den Folgen der globalen Erwärmung. Je mehr Kohlendioxyd in der Atmosphäre ist, umso mehr müssen wir in Deutschland drauf (Abbruch des Satzes), werden wir praktisch Hopfen importieren müssen – wer weiß woher.

Die Hintergrundinformation dazu wurde ebenfalls schon von einem Autor auf EIKE präsentiert. Anbei ein Auszug:

Michael Kalisch: [1] Bei Harald Lesch sind Hopfen (und Malz) verloren

Leider übersah Herr Lesch in seinem Klimahysterie-Vermittlungseifer, dass in dieser Studie[2] gar nichts darüber drin steht.

Die Physiologie der Pflanze ist hochkomplex, und Gegenregulationen, Anpassungen, langsame Adaptationen – alles ist denkbar. Zumal ja die Blütenpflanzen seit der Oberkreide(?) existieren und seitdem die CO2-Werte drastische Veränderungen durchgemacht haben. Eigentlich dürfte es sie – nach Lesch – gar nicht mehr geben.

Wenn ich in eine Pflanzenphysiologie z.B. von Mohr & Schopfer hineinschaue, finde ich Kurven für die Fotosyntheseleistung in Abhängigkeit von atmosphärischen CO2-Werten. Daraus geht auf jeden Fall hervor, dass der OPTIMALwert des atmosphärischen CO2 für die Fotosynthese noch lange nicht erreicht ist. Ganz im Gegenteil, wir sind davon noch weit entfernt. Von Negativ- oder gar „Umkipp“-Prozessen fand ich da noch nichts. 

Lesch´s so „eindringliche“ Behauptung im Video (sogar seine Körpersprache scheint zu sagen: „Uhh, wie gefährlich, schrecklich, das wird ganz schlimm, und die Klimaleugner wollen das ALLES nicht wahrhaben!!“), da sei nur „ein schmaler Korridor“ für ein positive Wirkung erhöhter CO2-Werte, bevor es gleich wieder nachteilig wird, finde ich abenteuerlich! Er hätte wenigstens mal sich erkundigen können, was denn eigentlich die Erwerbsgärtner dazu sagen, die bestimmte Gewächshausfrüchte sogar mit CO2 begasen – um das Wachstum zu fördern. 

Wie schlimm leidet der deutsche Hopfen nun wirklich unter dem Klimawandel?

Im Kern gilt das schon im Jahr 2015 Gesagte immer noch. Inzwischen begann die Hopfenernte und es liegen verlässliche Ernteschätzungen für das Jahr 2016 vor. Somit kann man die Ertragskurve für Deutschland aktualisieren und nachsehen, wie die Vorhersagen der wissenden Klimagurus oder des Autors eingetroffen sind.

Hopfen-Ertrag 2016

proplanta 29.07.2016: [4] Da der Ertrag im Jahr zuvor eher gering war, bedeutet dies für 2016 aber eine Steigerung von mehr als 25 Prozent.

Nach den Schätzungen aus den Anbaugebieten dürften in dieser Saison knapp 36.000 Tonnen Hopfen geerntet werden, wie bei der Vorlage der Zahlen am Donnerstag im oberbayerischen Wolnzach mitgeteilt wurde. 2015 waren es gut 28.000 Tonnen gewesen.

Mit dem Wetter sind die Bauern wenige Wochen vor Erntebeginn zufrieden. Nach einem milden und feuchten Winter habe die Vegetation früher als üblich eingesetzt, erläuterte Brunner. Entsprechend früher seien die Hopfengärten präpariert worden, damit die Reben mit den goldgelben Hopfendolden in die Höhe wachsen konnten.
Zwar seien Mai und Juni regnerisch-kühl gewesen. Was aber das Wichtigste für die Hopfenbauern ist: «Bis auf einige eng begrenzte Gebiete blieben wir bis heute von größeren Hagelschäden verschont», freute sich Brunner.

Ertragsermittlung 2016:

Nachtrag: Die Ernteschätzung wurde zwischenzeitlich berichtig und geht von einer wesentlich höheren Erntemeng aus (ZEIT ONLINE 25.08.):

2016: 41.400 t bei 18600 ha (+4,2%)

Damit errechnet sich ein Ertrag von: 2222 Ztr/ha. Das sind 0,083 % (oder 2 kg / ha) weniger als im höchsten Ertragsjahr der registrierten Hopfengeschichte, 2014.

Mit diesem Wert lässt sich die amtliche Grafik (Bild 1) um das Jahr 2016 ergänzen.

Bild 1 Deutschland Hopfenerträge. Daten für 2016 vom Autor ergänzt (rot). Quelle: LfL Jahresbericht 2015 Sonderkultur Hopfen

Die Daten zeigen deutlich, dass weder von einem negativen Klimawandel-Einfluss, noch gar von einem Aussterben gesprochen werden kann. Dass sich der Hopfen überhaupt für den aktuellen CO2- Pegel „interessieren“ würde, oder gar damit negativ korreliert, ist auf jeden Fall falsch wie Bild 2 deutlich zeigt. Die Bilder zeigen zudem, dass der meteorologische 30-Jahres Zeitraum bei weitem nicht ausreicht, um sichere, klimarelevante Trendaussagen zu treffen.

Bild2 Verlauf der CO2-Konzentration der Erdatmosphäre und der Hopfenerträge Deutschland

Schaut man etwas weiter zurück, dann zeigen sich die Hopfenbauern gegenüber der angeblich so Klimawandel-schlimmen Hopfenzukunft geradezu euphorisch, was man von Bauern sonst ja überhaupt nicht kennt:

agrar heute 18.08.2007: [3] Laut dem Industrieverband hat sich gerade beim Hopfen in der Vergangenheit eine erstaunliche Entwicklung vollzogen. Der Ertrag an Alphasäure, der eigentlichen Bierzutat, konnte durch moderne Sorten von 50 auf 400 Kilogramm pro Hektar gesteigert werden. Auch im Pflanzenschutz gab es laut dem Industrieverband beispielhafte Fortschritte. Pilzkrankheiten hätten noch vor 30 Jahren 15 bis 16 Spritzungen im Jahr erfordert. … Dadurch hätten die Spritzungen bei den modernen toleranten Sorten auf zwei bis vier in der Vegetationsperiode reduziert werden können.

Gerade im „agrar heute“ Artikel kann man nachlesen, welchen Segen ein von Klimahysterie und Ökowahnsinn abgekoppeltes Verhalten mit Investitionen an den richtigen Stellschrauben bringen kann.

Wenn man aber Harald Lesch heißt und Klimaberater der Bayerischen Umwelt(hysterikerin)ministerin geworden ist, darf man sich für die wahren Daten aber wohl nicht mehr interessieren, um keine abweichlerische Meinung zu bekommen. Es ergäbe ein Desaster, würde ein Klimafachmann unsere eher nach Klima-Unkenntnis ausgesuchten Umweltminister(-innen) falsch – bedeutet von Merkels Vorgaben abweichend – beraten. Das wird verständlich, wenn man die Erklärung unserer fast schon manisch die Welt-rettenden Kanzlerin zum Petersberger Klimadialog liest. Man beachte, dass die internationale Finanzwelt zur „Lösung“ eingeladen ist und damit der bewusste Start zur unaufhaltsamen un-Lösbarkeit (für Deutschland als einem künftigen Haupt-Zahlmeister) gelegt wurde. Auch der Stern-Report – eine höchst umstrittene Analyse eines Bankökonomen über die Kosten des Klimawandels – erlebt hier seine Wieder-Auferstehung:

Rede von Bundeskanzlerin Merkel zum VII. Petersberger Klimadialog am 5. Juli 2016

(Ganz kurze Auszüge): … Eine Arbeitsgruppe des Financial Stability Board, also des internationalen Gremiums zur Überwachung des Finanzsystems, arbeitet derzeit an Empfehlungen für eine Offenlegung von Klimarisiken. Ich finde, das ist auch ein sehr spannender Beitrag. Wenn man bisher vom FSB gesprochen hat, dann hat man sich im Allgemeinen mit systemrelevanten Banken beschäftigt oder mit Schattenbanken. Aber dass sich dieses Gremium jetzt auch mit Klimarisiken beschäftigt, zeigt: Klimaschutz findet auch Eingang in die breite Frage des globalen Finanzsystems. Da uns das globale Finanzsystem ja schon viele Bürden hinterlassen hat, wäre es schön, das globale Finanzsystem würde bei der Frage des Klimaschutzes eine positivere Rolle spielen als während der Finanzkrise der Jahre 2008 und 2009.

Zum ersten Punkt: Dass wir Langfriststrategien brauchen, liegt auf der Hand, weil wir festgelegt haben, dieses Jahrhundert zu einem Jahrhundert der Dekarbonisierung zu machen. Dabei kommt es insbesondere auf langfristige Investitionen an – öffentliche wie private. Die Globale Kommission für Wirtschaft und Klima schätzt, dass bis zum Jahr 2030 weltweit mehr als 90 Billionen US-Dollar in Infrastrukturen unter anderem für Energie, Verkehr und Wasser investiert werden. Es geht darum, diese Investitionen klimafreundlich zu gestalten.

Aber wir wissen spätestens seit dem Stern-Report, dass sie sich langfristig – eigentlich schon mittelfristig – bezahlt machen. Wenn wir sehen, wie viele Folgen des Klimawandels wir ansonsten zu gewärtigen haben, dann wissen wir, dass sich das allemal lohnt.

Man stelle sich nun vor, in Berlin oder einem Bundesland würde jemand in höherer politischer Position beginnen, an der anthropogenen Klimawandel-Theorie offiziell Zweifel anzumelden oder gar zu behaupten, dass es sich dabei wohl um den größten Wissenschaftsbetrug der Neuzeit handeln könnte. Es hätte den Zusammenbruch der Reputation großer Teile unserer „Eliten“ zur Folge. So etwas haben diese noch nie in der Geschichte zugelassen. Falls es passiert(e), wurde / wird oft bis zum Untergang (beider) dagegen an-gekämpft. Und Frau Merkel hat schon öfter bei wesentlich kleinerer Oppositionshaltung gezeigt, wie unerbittlich sie dann reagiert.

Zu viel CO2 tötet den Hopfen?

Nun noch eine Gegendarstellung zu der Aussage von H. Lesch, dass zu viel CO2 den Pflanzen schadet und den Hopfen sogar „tötet“.

Zuerst der Verlauf des CO2 in der Erdgeschichte. Klar erkennbar, dass sich die Atmosphäre derzeit am untersten Wert in der Weltgeschichte befindet. Alle Grünpflanzen haben damit ausschließlich mit extrem höherer Konzentration, aber noch nie mit weniger CO2 überleben müssen. Als die Grünpflanzen so extrem wucherten, dass sie weltweit Kohleflöze und Erdöl erzeugen konnten, betrug die Konzentration grob das Zehnfache der aktuellen.

Die EU hat in einer vor kurzem abgeschlossenen Untersuchung die „Gefährlichkeit“ feststellen lassen. Das überraschende Ergebnis war:

EIKE 09.05.2016: [6] Die Europäische Kommission hat festgestellt, dass CO2 ein Pflanzengift ist – allerdings erst ab 5.000 ppm Konzentration

Aktuell sind es etwas über 400 ppm. Man nimmt an, dass durch Verbrennen aller fossiler Rohstoffe nicht einmal eine Verdopplung möglich ist. Bei diesen Fakten kommen nur „Klima-hysterie-Wissenschaftler“ auf die Idee, eine Grünpflanze würde aufgrund zu hoher anthropogener CO2-Konzentration in Deutschland demnächst aussterben.

Bild 3 [5] Erdzeitalter und CO2-Gehalt der Atmosphäre

WIKIPEDIA: Kohlenstoffdioxid-Düngung

Pflanzen benötigen zur Photosynthese Kohlenstoffdioxid (CO2) und produzieren dabei Sauerstoff. Das in der natürlichen Umgebungsluft enthaltene CO2 liegt mit einem Anteil von derzeit ca. 400 Teile pro Million (Parts per Million = ppm) unterhalb des für C3-Pflanzen wie Weizen, Roggen oder Reis zum Wachstum optimalen Anteils von ca. 800 bis 1000 ppm. Wird den Pflanzen zusätzliches Kohlenstoffdioxid zur Verfügung gestellt, können die Pflanzen besser beziehungsweise schneller wachsen. Bei den C4-Pflanzen, zu denen unter anderem Mais, Zuckerrohr und Hirse gehören, liegt die Sättigungsgrenze knapp oberhalb von 400 ppm, sodass eine CO2-Düngung bei diesen Pflanzenarten nicht erforderlich ist. Ähnliches gilt für die Gruppe der CAM-Pflanzen, deren Stoffwechsel ebenfalls relativ wenig CO2 benötigt.

Bild 4 Quelle: WIKIPEDIA Kohlenstoffdioxid-Düngung. Bild vom Autor ergänzt

Ohne Klimawandel leiden die Bauern

Während die Hopfenbauern (diesmal) nicht klagen, soll es den anderen Bauern ziemlich schlecht gehen.

DER SPIEGEL: Ernte 2016: Regen, Pilze, Krankheiten – schlechtes Wetter lässt Bauern verzweifeln

Zu viel Regen, zu viele Unterbrechungen während der Feldarbeit: Deutschlands Bauern leiden unter dem wechselhaften Sommer-Wetter in diesem Jahr. Die Stimmung sei "wegen der Niederschläge bei den Ackerbauern alles andere als gut", klagt Joachim Rukwied, Präsident des Deutschen Bauernverbands. Vielerorts lägen inzwischen "die Nerven blank".

Das überrascht. Das Wetter, welches die Bauern als so ungeeignet deklarieren, ist genau das Gegenteil von dem Wetter, welches der Klimawandel hervorbringen soll in dem wir angeblich bereits mitten drin sind:

Germanwatch: [8] Den MPI-M-Szenarien nach werden sich auch die Niederschlagsverhältnisse regional und saisonal verändern. Mit einem bis zu 40%igen Rückgang der Niederschläge ist im Sommer in Süd-, Südwest- und Nordost-Deutschland zu rechnen, während sich für den Winter fast im gesamten Land stärkere Niederschläge andeuten.

So drohen in den Sommermonaten im Nordosten Deutschlands Dürreperioden, während die Wintermonate in Süd- und Südwest-Deutschland feuchter werden. Der im Sommer fallende Niederschlag wird zudem voraussichtlich nicht länger regelmäßig verteilt vorkommen, sondern zunehmend in Starkniederschlägen, z. B. während Wärmegewittern, auftreten.

Man fragt sich was passiert, wenn der Klimawandel nicht kommt und das Wetter so schlecht wird wie in der wieder-gewünschten, vor-industriellen Zeit. Demnach müssten die Bauern die größten Gegner des Kampfes gegen den Klimawandel werden.

In einer kleinen Übersicht wurde dieses Thema ebenfalls bereits thematisiert:

EIKE: [9] Biobauern darben ohne Klimawandel

[EIKE: Bayerischer Klimakongress 2016 in Würzburg

Allerdings sagt der Präsident des Deutschen Bauernverbandes auch nicht, auf welch extremem Niveau er jammert.

Wochenblatt 19.11.2011: Die Landwirtschaft als Zukunftsbranche

Der Ministerpräsident verwies auf beeindruckende Zahlen … "Besonders bemerkenswert ist die Steigerung der landwirtschaftlichen Produktivität. Ein Zuwachs von über 80 Prozent in den letzten 20 Jahren ist eine herausragende Leistung unserer Landwirte", so Seehofer.

Es lohnt sich, einmal die Daten dazu anzusehen. Im Uba Monitoringbericht [7] sind welche hinterlegt. Und dieser stellt fest, dass sich im Sommer dazu bisher überhaupt nichts verändert hat. Der vorhergesagte Klimawandel ist in Deutschland wieder nicht zu finden und die Bauern beklagen sich über das ganz normale Wetter wie es fast immer schon war.

Bild 5 [7] Niederschlag Sommer Deutschland

Uba Monitoringbericht 2015: [7] Für die Sommermonate lässt sich bislang kaum eine Änderung feststellen. Zwar hat die mittlere Niederschlagsmenge zu dieser Jahreszeit seit 1881 um 1,2 % abgenommen, jedoch lässt sich aus diesem minimalen, im Bereich der natürlichen Variabilität liegenden Rückgang nicht einmal auf eine Tendenz schließen (Abb. 3). Auf Basis des einseitig gleitenden 30-jährigen Mittelwerts lässt sich hingegen eine allerdings nur relativ schwach ausgeprägte Periodizität erkennen.

Uba Monitoringbericht 2015:[7]

Hinsichtlich der Anzahl der Tage mit einer Niederschlagsmenge von mehr als 20 mm im Sommer sind hingegen – in guter Übereinstimmung mit der Entwicklung der mittleren Niederschlagsmengen zu dieser Jahreszeit – über eine auch nur regional und sehr schwach ausgeprägte dekadische Variabilität hinaus bislang keine Änderungen auszumachen

Quellen

[1] EIKE 09.07.2016, Michael Kalisch: Bei Harald Lesch sind Hopfen (und Malz) verloren

http://www.eike-klima-energie.eu/climategate-anzeige/bei-harald-lesch-sind-hopfen-und-malz-verloren/

[2] doi:10.1016/j.agrformet.2009.02.006, Martin Moznya, , , Radim Tolasza, , Jiri Nekovara, , Tim Sparksb, , Mirek Trnkac, , Zdenek Zaludc, Review: The impact of climate change on the yield and quality of Saaz hops in the Czech Republic

[3] agrar heute 18.08.2007: Beginn der Hopfenernte in der Hallertau

http://www.agrarheute.com/news/beginn-hopfenernte-hallertau

[4] proplanta 29.07.2016: Hopfenernte auf durchschnittlichem Niveau erwartet

http://m.proplanta.de/Agrar-Nachrichten/Pflanze/Hopfenernte-auf-durchschnittlichem-Niveau-erwartet_article1469767320.html

[5] Alles Schall und Rauch

http://alles-schallundrauch.blogspot.de/2008/09/wir-haben-historisch-gesehen-zu-wenig.html

[6] EIKE 09.05.2016: Die Europäische Kommission hat festgestellt, dass CO2 ein Pflanzengift ist – allerdings erst ab 5.000 ppm Konzentration

http://www.eike-klima-energie.eu/news-cache/die-europaeische-kommission-hat-festgestellt-dass-co2-ein-pflanzengift-ist-allerdings-erst-ab-5000-ppm-konzentration/

[7] Uba: Monitoringbericht 2015 zur Deutschen Anpassungsstrategie an den Klimawandel Bericht der Interministeriellen Arbeitsgruppe Anpassungsstrategie der Bundesregierung

[8] GERMANWATCH 2007: Auswirkungen des Klimawandels auf Deutschland

[9] EIKE 27.07.2016: Biobauern darben ohne Klimawandel (und extremen Subventionen) Bei der normalen Landwirtschaft hängt es von der Veranstaltung ab

http://www.eike-klima-energie.eu/news-cache/biobauern-darben-ohne-klimawandel-und-extremen-subventionen-bei-der-normalen-landwirtschaft-haengt-es-von-der-veranstaltung-ab/

[10] EIKE 29.07.2016: Bayerischer Klimakongress 2016 in Würzburg

http://www.eike-klima-energie.eu/news-cache/bayerischer-klimakongress-2016-in-wuerzburg/




Energiewende und Blackout: The Day after

Die Energiewende rast unbemerkt vom Volk den Hang hinunter und wird die Industrie und den Lebensstandard der Bürger mitreißen. Und ein Blackout würde alle Albträume der Grünen über einen GAU toppen, wenn er passiert.

Die Energiewende surft derzeit auf einem Tsunami von Lügen und Unwissenheit durch ein Labyrinth voller Nebelbombenwerfer und Möchtegernexperten. Energiesysteme sind komplizierte, schwer zu verstehende Zusammenhänge. Sie werden weder vom Laien noch von Journalisten oder gar von Politikern so einfach überblickt. Die Beschäftigung damit ist langweilig und erfordert tieferes Fachwissen. So kommt es, dass selbst eine Physikerin, die in Chemie promoviert hat, an eine Energiewende ohne industrielle Speicher glaubt. Aber sie glaubt ja auch daran, dass wir das schaffen.

Es ist genug Geld da, um das Scheitern der Energiewende kaschieren zu können

Die von der Energiewende ausgelösten Erosionsprozesse der Wirtschaft sind schleichend und somit für den Laien fast unsichtbar. Da haben es Scharlatane leicht, die der Öffentlichkeit physikalischen Unsinn als Tatsachen verkaufen. Und alle fachkundigen Warner werden von einer grün-moralinsauren Inquisition an den Pranger gestellt, damit ja niemand auf die Idee kommt, ihnen zuzuhören.

Es fehlt auch nicht an Geld, um das Scheitern der Energiewende mittelfristig kaschieren zu können. Immer neue Kurpfuscherei an den Symptomen wird von der Politik eingeleitet. Zwangsbezahlt wird diese Vergeudung von inzwischen 27 Milliarden Euro pro Jahr vom Stromkunden und Steuerzahler. Auch die Steigerung dieser gewaltigen Summe geht schleichend voran.

Die Profiteure und Scharlatane sitzen in den Redaktionsstuben, auf den politischen Machtpositionen und sogar in den „Expertengremien“. Sie behaupten unisono den selben physikalischen Blödsinn vom Endsieg der Energiewende: es ist bald geschafft, man brauche nur noch etwas mehr vom Selben (Geld) und ein paar Stromtrassen. Die Öffentlichkeit hat keine Chance, sich vernünftig zu informieren. Nunmehr, nach vielen Jahren Propaganda-Trommelfeuer glauben fast alle Menschen in Deutschland an eine erfolgreiche Energiewende.

Im benachbarten Ausland – ohne diese Propaganda – schüttelt man verständnislos den Kopf und baut an den Grenzen teure technische Schutzmaßnahmen, um sich vor den Folgen dieser irrsinnigen Energiepolitik zu schützen. Phasenschieber als Stacheldraht, um die Invasion der deutschen Dumping-Energie aufzuhalten, mein Gott!

Wie lange fährt ein Auto mit Windrad auf dem Dach?

Stellen Sie sich vor, Sie wären stolzer Besitzer eines revolutionären Öko-Volkswagens. Viele Windrädchen auf dem Auto-Dach und auch viele Sonnenkollektoren. Wenn der Wind weht und die Sonne scheint ist das Fahren damit eine Freude. Leider bleibt die Kiste sofort stehen, wenn es dunkel und windstill wird, weil sie keinen Speicher hat, der die Energie hätte speichern können, während es auf dem Parkplatz stand. Im Gegenteil, Sie mussten die Windrädchen blockieren und die Kollektoren abdecken, damit das Ökoauto sich nicht selbstständig macht, wenn Sie gar nicht fahren wollen.

Nun können Sie sagen: „Fahre ich eben nicht, wenn kein Wind weht“ – für die Umwelt. Aber Sie sind Taxifahrer, Ihr Einkommen hängt gewissermaßen von der Kontinuität ihrer Fahrerei ab. Und einen Energiespeicher hat Ihr Auto nicht, weil der noch nicht erfunden ist. Was tun? Richtig geraten, Sie brauchen noch ein zweites Auto für diese Fälle, eines mit einem richtigen Motor, das auch dann fährt, wenn’s dunkel und windstill ist. Das ist machbar, aber teuer – Sie müssen zwei völlig gleichwertige Autos betreiben, eins für das passende Wetter und eines für immer dann, wenn das Wetter nicht passt.

Genauso funktioniert die Energiewende. Wir haben ein schönes Öko-Energie-System aus Wind und Sonne, das uns am 8. Mai dieses Jahres sogar für ein paar Minuten voll mit Elektroenergie versorgte. Manchmal wird sogar zu viel Strom erzeugt. Aber am 9. Mai war’s vorbei mit Wind und Sonne und die Kohlekraftwerksschornsteine rauchten wieder. Der Strom kam für den Verbraucher wie immer aus der Steckdose. Nur, vom Kunden unbemerkt, der konventionelle „Zweitkraftwerkspark“ machte den Strom.

Die Windmüller und Sonnenkönige ficht das nicht an, denn den Zweitkraftwerkspark bezahlt ja der Staat. Der französische Präsident Hollande hat mal im Fernsehen gesagt: „Das kostet nichts, das bezahlt ja der Staat“. Dazu hat er dümmlich gegrinst. Ein Wutschrei ging durch Frankreich. Dort weiss jedes Kind: der Staat kann gar nichts bezahlen, was der Steuerzahler nicht vorher erarbeitet hat. Also, liebe Leser, den Zweitkraftwerkspark bezahlen Sie.

Der unheilbare Konstruktionsfehler der Energiewende

Selbst wenn die Sonne Tag und Nacht 360 Tage im Jahr schiene und der Wind 364 Tage durchwehte, brauchten wir den ganzen Zweitkraftwerkspark mit 100 Prozent Kapazität für die paar Stunden, in denen absolut kein Wind weht und keine Sonne scheint. Sonst bricht das Stromnetz zusammen – es gibt einen Blackout. Das ist der unheilbare Konstruktionsfehler der Energiewende. Die Gefahr eines Blackouts wächst und wächst mit jedem konventionellen Kraftwerk, dass in diesem Subventionsgestrüpp pleitegeht.

Nun könnten Sie sagen: „Für ein paar Stunden verzichten wir doch gerne mal auf Strom und machen es uns im Kerzenschein gemütlich. Für die Umwelt! Das klingt auf den ersten Blick gut. Meinen Sie wirklich?

Was passiert bei einem großen Stromausfall? Ein großflächiger Stromausfall heißt „Blackout„. Hier mal eine kleine unvollständige Liste, was bei einem Blackout so alles nach und nach nicht mehr funktioniert:

·       Das Licht geht aus, auch auf den Straßen und in den Geschäften, in der U-Bahn, in den Fabriken…

·       Tausende Aufzüge bleiben stecken…

·       Verkehrsampeln fallen aus, es entsteht ein Verkehrschaos mit diversen Unfällen…

·       U-Bahn, Metro und Bahn bleiben stehen…

·       Die Benzinpumpen an den Tankstellen fallen aus, es gibt keinen Sprit mehr…

·       Geldautomaten und Ladenkassen funktionieren nicht mehr, die Banken und Geschäfte schließen…

·       Kühltruhen werden nicht mehr gekühlt…

·       Das Telefonnetz und Radio und Fernsehen gehen nicht mehr – außer ein paar batteriegerieben Geräte für kurze Zeit, dann fallen auch die Sender aus…

·       Die Heiznetzumwälzpumpe und die Elektronik Ihrer Heizung bleibt stehen, es wird kalt in Ihrem Haus…

·       Das Leitungswasser hört auf zu fließen, da die Trinkwasser-Pumpen nicht mehr laufen – Sie können ihre Toilette nicht mehr benutzen, sich nicht mehr waschen… Hoffentlich haben Sie genügend Mineralwasser für die Familie im Haus…

·       Alle elektrischen Kochstellen versagen, auch zum Wärmen von Babynahrung, die Leute fangen an und machen provisorische Feuer in den Wohnungen… es fängt an, hier und dort zu brennen…

·       Krankenwagen und Feuerwehr bleiben im Verkehrschaos stecken…

·       Die Krankenhäuser werden über Notstromdiesel versorgt – für zwei Tage … dann ist der Diesel alle … die Ärzte müssen die nichtversorgungsfähigen Intensivstationpatienten einfach sterben lassen oder eutanasieren…

·       Der Notstand wird ausgerufen, es gibt Ausgangssperren…

·       Plünderungen und Unruhen brechen aus…

Eine Studie des Büros für Technikfolgen-Abschätzung beim Deutschen Bundestag (TAB) kommt zu dem Ergebnis, dass durch einen langandauernden und großflächigen Stromausfall alle kritischen Infrastrukturen betroffen wären und ein Kollaps der gesamten Gesellschaft kaum zu verhindern wäre. Trotz dieses Gefahren- und Katastrophenpotenzials sei ein diesbezügliches gesellschaftliches Risikobewusstsein nur in Ansätzen vorhanden – sagt Wikipedia

Ein Blackout wird das Land paralysieren und viele Todeopfer kosten

Bei einem Blackout dauert es oft mehrere Tage, bis das System systematisch wieder angefahren werden kann. Man benötigt „kaltstartfähige“ Kraftwerke und muss nach und nach das ganze Energiesystem wiederaufbauen. Einfach zuschalten geht nicht, da alle Verbraucher eingeschaltet sind und das Netz sofort wieder zusammenbricht. In diesen wenigen Tagen wird es viele Todesopfer geben: Kranke auf der Intensivstation, Verletzte von Unfällen und Bränden, Erfrorene, Opfer von Kriminalität und Unruhen. Die Schwächsten trifft es zuerst – Babys, Kinder, Alte, Kranke. Was ich hier mit Blackout beschreibe, ist ein Worst-Case-Szenario, wenn auch vielfach geschehen. Man denke nur an einige Blackouts in großen USA-Städten und ihre Folgen. Und die waren nicht mal flächendeckend.

Wenn Sie meine Beschreibung des Blackouts für übertrieben halten, dann stellen Sie sich bitte folgende Situation vor: Sie sind mit dem PKW und ihrer Familie auf der Flucht vor dem Chaos in ihrer Stadt zu Verwandten auf dem Land. Die Verwandten haben noch einen eigenen Brunnen, eine volle Speisekammer, Hühner im Stall, einen Kachelofen und ein Plumpsklo. 300 km vor dem Ziel geht Ihnen der Sprit aus. Auf den Straßen herrschen Anarchie und der Mob. Ihre Familie, die Kinder sind bedroht. Würden Sie einem Schwächeren seinen vollen Benzinkanister wegnehmen, um Ihre Familie zu retten? Würden Sie sich am Plündern eines Supermarktes beteiligen, wenn ihr Baby unbedingt etwas Wasser und Babybrei benötigen würde?

Solange die Zivilisation unsere Grundbedürfnisse decken kann, benehmen wir uns einigermaßen zivilisiert – wenn man mal von einigen Fußball-Hooligans und der Antifa am Rande einer Pegida-Demo absieht. Aber bei Durst, Hunger, Kälte und Lebensgefahr reagiert etwas Uraltes in uns, das wir zum Glück noch nicht kennen und auch nie kennenlernen möchten. Die Decke unserer Zivilisation ist papierdünn und fragil und wir möchten uns nicht in einer Situation sehen, wenn sie zerreißt.

Die umweltschädliche Geldvernichtung ist längst eingetreten

Vor 10 Jahren hatte Deutschland eine stabile Energieversorgung mit zuverlässigem Strom zu durchschnittlichen Preisen. Heute muss der Netzbetreiber mit tausenden von Eingriffen das Stromnetz stabil halten und die Preise haben sich verdoppelt, sie sind weltspitze. Die Gefahr eines Blackouts wächst mit jedem neuen Windrad.

Das unsichtbare Szenario der Energiewende, das wirtschaftlich verheerende, ist längst eingetreten, nämlich die umweltschädliche Geldvernichtung. Die Stromkunden schultern Milliarden ohne Nutzen für die Umwelt. Geld, das woanders bitter fehlt. Das Geld der Steuerzahler wird von unten nach oben umverteilt. Der Industriestandort schwächelt, die Industrie verabschiedet sich leise und langsam aus Deutschland.

Mich beeindrucken dabei zwei Dinge: Die Bürger lassen sich diese Abzocke ohne Murren seit Jahren gefallen und glauben immer noch den falschen Energiewendepropheten. Die Energiewende ist nicht nur ein technisches Experiment, sondern ein Menschenexperiment mit völlig fragwürdigem Ausgang. Es wäre besser, dieses Experiment erst mal an Ratten auszuprobieren.

Die Politiker haben offensichtlich keinerlei Skrupel, das Geld der Bürger mit vollen Händen zum Fenster raus zu werfen. Was, die Erdkabel kosten zehn Mal so viel, wie Freileitungen? Dafür ist die Akzeptanz besser? Dann machen wir die Stromtrassen eben mit Erdkabeln. Die Rechnung bekommt der Stromkunde. Dass EEG mit seiner „Umlagenfinanzierung“ ist ein klassisches Beispiel von Steuererhöhung ohne die Steuer zu erhöhen. Aber das Geld des Steuerzahlers ist trotzdem weg. Nein, es ist nicht weg, es haben nur Andere.

Wer hält die  Scharlatane und Nebelkerzenwerfer auf?

Die Energiewende wird angetrieben von Umverteilung gewaltiger Geldmengen und von ideologischem Wunschdenken von spinnerten Eliten. Die Scharlatane verstehen noch nicht einmal, wie das System funktioniert, drehen aber wie wild am Steuerrad. Ihre Unterstützer, die linken Journalisten verstehen die Physik auch nicht, sind aber ebenfalls getrieben von Illusionen über die Machbarkeit ihrer Ideologie. Es regiert das Prinzip Hoffnung. In ihrer Selbstherrlichkeit haben sie es sogar versäumt, die vielbeschworene „europäische Lösung“ auf dem Gebiet der Energiepolitik auch nur zu erwägen. Alle zusammen drehen ein gigantisches planwirtschaftliches Rad, das von Vornherein zum Scheitern verurteilt war. Das Urteil spricht die gnadenlose Physik.

Man darf den falschen Propheten nicht das Wohl und Wehe einer modernen Industriegesellschaft überlassen. Die Energieversorgung ist nämlich ihr Rückgrat.  In zwei Jahrzehnten werden sie Deutschland zu einem dritten Welt-Land heruntergewirtschaftet haben, wenn man sie nicht aufhält. Und unsere Energiewirtschaft wird den Russen oder den Chinesen gehören – mit allen nur denkbaren Folgen.

Wenn die Deutschen keine Kernenergie wollen, selber schuld. Aber dann brauchen wir entweder 450 neue Pumpspeicherwerke zu den bestehenden 35 dazu, oder wir brauchen Kohle und Gas. Aus allem aussteigen, heißt nämlich aus dem Lebensstandard aussteigen. Ich glaube beinahe, das ist das heimliche Ziel der Eliten – einfach leben – für die Anderen. Unsere Gesellschaft wird sich ändern und ich freue mich nicht darauf.

Es sei denn, irgendein Genie erfindet einen billigen industriereifen großtechnischen Energiespeicher. Aber was, wenn nicht?

Autor Manfred Haferburg reist als Experte für Kernkraftsicherheit um die Welt und kennt so viele Atomkraftwerke wie kaum ein anderer Mensch. Bis 1989 gehörte er zur Leitung des größten AKW der DDR (Greifswald) – geriet in Ungnade, wurde von der Partei zum Staatsfeind erklärt und inhaftiert.

Dieser Beitrag erschien zuerst bei ACHGUT hier




Referent gesucht!

Kontaktaufnahme mit dem Veranstalter zur Abstimmung der Modalitäten erbeten.

Norbert Deul – Vorstand

Schutzgemeinschaft für Wohnungseigentümer und Mieter e.V.

Tel.: 09154/1602, E-Mail: hausgeld-vergleich@t-online.de

www.hausgeld-vergleich.de

www.buergerschutz-tag.de

www.urteils-check.de

 




Abartige Klimareaktion im DICE IAM Modell– ein Billionen-Dollar-Fehler?*

[*Vorab: Die Abkürzung IAM wird gleich im nächsten Absatz genannt. Anders ist es bei DICE. Im Beitrag wird immer nur die Abkürzung genannt. Aber bei Wikipedia findet man die Erklärung. Die Abkürzung steht für „Dynamic Integrated Climate-Economy model“. WICHTIG: Es handelt sich auch um ein unübersetzbares Wortspiel. „Dice“ ist das amerikanische Wort für „Würfel“!

Weitere Vorbemerkungen des Übersetzers: Der folgende Beitrag ist überaus theoretischer Natur. Alle Indizes von Formelzeichen sind im Original korrekt niedrig gestellt, was aber hier im Server nicht darstellbar ist. Die Niedrigstellung der Indizes wird daher hier mit dem eingefügten Zeichen „↓“ indiziert.

Außerdem tauchen im Artikel immer wieder Fachbegriffe auf, vor deren Übersetzung ich kapituliere. Sie sind kursiv gesetzt. Da ich als Laie außerdem viele der hier beschriebenen Zusammenhänge inhaltlich nicht verstehe, kann es zu inhaltlichen Fehlern bei der Übersetzung kommen.

Kompliziert wird diese Übersetzung auch dadurch, dass der Autor wie viele andere Wissenschaftler auch versucht, möglichst viel Information in möglichst wenige Sätze zu stecken. Die resultierenden Bandwurm- und Schachtelsätze sind teilweise schwer zu sezieren.

Der Autor geht von der AGW-Hypothese als Tatsache aus.

Ende Vorbemerkungen des Übersetzers.]

Einführung und Summary

Integrated Assessment Models (IAMs) kombinieren einfache Modelle des Kohlenstoff-Kreislaufes sowie der Reaktion des Klimasystems auf Änderungen der atmosphärischen CO2-Konzentration mit Modellen ökonomischen Wachstums, die die Auswirkungen der Einführung einer Kohlenstoff-Steuer enthalten. Sie berechnen den resultierenden sozialen Nutzen nach Abschätzung der Schäden durch den Klimawandel und der Kosten der ergriffenen Maßnahmen – als eine Folge der Kohlenstoff-Steuer – um CO2-Emissionen abzuschwächen. Die optimale, mit der Zeit variierende, von den IAMs berechnete Kohlenstoff-Steuer ist während eines gesamten betrachteten Zeitraumes gleich den sozialen Kosten von Kohlenstoff (SCC). Ergebnisse der IAMs werden von Regierungen bei der Entscheidung herangezogen, welche Höhe die einzuführende Kohlenstoff-Steuer haben muss und/oder welches Ziel von Emissionsreduktionen man anpeilen sollte [i].

In diesem Beitrag geht es hauptsächlich um das DICE, eines der drei IAMs, die von der US-Regierung bei ihrer Abschätzung von SCC [ii] herangezogen werden, und welches von William Nordhaus entwickelt worden war. Er hat ein Kapitel geschrieben, dass eine gute Einführung in IAMs im Allgemeinen sowie DICE im Besonderen [iii] darstellt. Das DICE-Modell teilt den Zeitraum 2010 bis 2309 in 5-Jahre-Schritte, wobei die Kohlenstoff-Steuer ab 2015 variierend gestaltet werden soll. In diesem Beitrag befasse ich mich nur mit der Funktion der DICE-Klimamodule und stelle das übrige Modell nicht in Frage.

Obwohl ich die in das DICE-Modell eingehenden Werte der Gleichgewichts-Klimasensitivität ECS berücksichtige, ebenso wie die Vorübergehende Klimareaktion TCR, deren von dessen Klimamodul berechnete Werte höher als gerechtfertigt ausfallen laut den Best Estimates, die sich auf Messungen des Klimasystems ergeben, stelle ich jene Werte hier nicht in Frage. Allerdings werde ich zeigen, dass das DICE-Klimamodul falsche Ergebnisse dergestalt liefert, dass das Zeitprofil von dessen Temperaturreaktion auf Antriebe inkonsistent ist mit unserem Verständnis des Verhaltens des tatsächlichen Klimasystems, wie es von der gegenwärtigen Generation der CMIP5-Modelle und der atmosphere-ocean general circulation models (AOGCMs) reflektiert und simuliert wird.

Es wurde gezeigt, dass die Entwicklung der globalen Mitteltemperatur in AOGCMs gut repräsentiert werden kann durch ein einfaches 2-Schichten-Modell auf physikalischer Grundlage, wie es im DICE verwendet wird, mit geeigneter Auswahl von Ozean-Tiefenschichten für jede Schicht. Allerdings zeige ich hier, dass die Werte der Parameter des Klimamoduls im DICE mit physikalisch unrealistischen Ozean-Charakteristiken korrespondieren. In dem 2-Schichten-Modell des DICE wird die Oberflächen-Schicht des Ozeans, die als kontinuierlich im Gleichgewicht befindlich mit der Atmosphäre angesehen wird, mit einer Tiefe von 550 m geschätzt, verglichen mit Schätzungen einer Tiefe von 50 bis 150 m auf der Grundlage von Messungen und der Anpassung von 2-Schichten-Modellen an AOGCM-Reaktionen. Die Tiefe der Ozeanschicht im DICE-2-Schichten-Modell ist weniger als 200 m tief, das ist nur ein Bruchteil des Wertes in irgendeinem CMIP5-AOGCM, und sie ist viel schwächer mit der Oberflächen-Schicht gekoppelt. Wenig überraschend erzeugen derartige Parameter ein zeitliches Profil der Temperaturreaktion, welches substantiell von jenem in den AOGCMs und dem 2-Schichten-Modell mit typischen Parameter-Werten abweicht. Als Folge davon überschätzt das DICE signifikant die Temperaturen ab Mitte des 21. Jahrhunderts. Folglich wird auch SCC und die optimale Kohlenstoff-Steuer überschätzt, verglichen mit 2-Schichten-Modellen mit gleichem ECS und TCR, aber mit Parameter-Werten, die eine Temperaturentwicklung ähnlich AOGCM erzeugen.

Falls die Parameter des DICE-Klimamoduls in ihren Standardwerten verändert werden, damit sie konsistent sind mit dem AOGCM-Verhalten sowie tatsächlichen Ozean-Charakteristiken , aber die ECS- und TCR-Werte unverändert belassen werden, zeigt meine Analyse, dass SCC und die Optimum-Kohlenstoffsteuer einer substantiell niedrigeren Trajektorie folgen (bis 2110 um ein Viertel bis ein Drittel weniger). Und das mit größeren CO2-Emissionen, aber einem geringeren Spitzen-Niveau der Erwärmung. Der gegenwärtige Nutzwert wird um bis zu 19 Billionen Dollar verbessert, abhängig davon, welcher alternative Parameter-Satz herangezogen wird. Verwendet man diese Parameter-Sätze, resultiert ein Nutz-Verlust der Größenordnung von 1 Billion Dollar aus der Einführung der höheren Kohlenstoff-Steuer, die optimal ist, wenn man die Standardeinstellungen des DICE-Klimamoduls anstatt ihrer eigenen verwendet. [Original: When using these parameter sets, a loss of utility of the order of $1 trillion results from imposition of the higher carbon tax that is optimum when using the DICE climate module standard settings instead of their own, lower, optimum carbon tax]. Das Profil der Klima-Reaktion in FUND[iv] und in PAGE,[v], also den beiden anderen, von der US-Regierung verwendeten IAMs zur Abschätzung des SCC, erscheinen ähnlich ungeeignet, das heißt, sie überschätzen ebenfalls SCC.

Das Klimamodul in der derzeitigen Version von DICE

Ich verwendete die jüngste Version von DICE, also DICE-2013R (April 2014), also die geophysikalischen Module, von denen es heißt, zum größten Teil konsistent zu sein mit dem AR 5 des IPCC [vi]. Allerdings enthält die Excel-Version zum Herunterladen [vii] keine Angabe, wie oft Parameter überarbeitet worden sind, die in der primären Version DICE2013Rv2 des Modells vom Oktober 2013 vorgenommen worden sind, jedenfalls dessen Manual zufolge [viii]. Von besonderer Relevanz zu dessen Klimareaktion sind eine Reduktion des falschen verwendeten ECS von 3,2°C auf 2,9°C sowie Modulationen bei anderen Klimamodul-Parametern. Ich habe diese Änderungen eingearbeitet, und Parameter-Überarbeitungen in anderen Teilen, die Auswirkungen auf Emissionen und SCC haben, stehen in einer aktualisierten Excel-Version, die ich als DICE-2013Ra bezeichne [ix]. Im Manual ist auf Seite 18 zu lesen, dass eine Änderung eines Klimamodul-Parameters [x] vorgenommen worden war, um [den Wert der] kurzlebigen Temperatur-Sensitivität zu erhalten, der laut einer Schätzung einer Regressionsanalyse bei 1,70°C liegt. Anderswo wird bestätigt [xi], dass diese Sensitivität den gleichen Wert haben soll wie die TCR in AOGCMs, welcher die Zunahme der globalen mittleren Temperatur (GMST) am Ende eines Zeitraumes von 70 Jahren ist, beginnend vom Gleichgewicht aus, während dessen die CO2-Konzentration um 1% pro Jahr steigt und sich damit verdoppelt.

Das DICE-Klimamodul repräsentiert ein gobales 2-Schichten-Standard-Klimamodell [xii] [xiii], in welchem sich die Atmosphäre im kontinuierlichen Gleichgewicht befindet mit einer an der Oberfläche durchmischten Schicht des Ozeans, in dem Wärme mit der Tiefsee ausgetauscht wird mit einer Rate proportional zur Temperaturdifferenz dazwischen. Dieses einfache Modell wird vollständig definiert durch Spezifizierung des ECS, die Wärmekapazitäten C↓SO und CDO der Oberfläche bzw. der Tiefsee und dem Proportionalitäts-Koeffizienten F↓SD zwischen der Rate des Wärmeaustausches zwischen den Schichten und dem Temperatur-Differential zwischen den Schichten [xiv]. Alternativ wird der Wert von F↓SD einheitlich festgelegt, falls TCR des Modells ebenso spezifiziert ist wie ECS.

Charakteristika von 2-Schichten-Klimamodellen

Die mit der Zeit variierende Änderung von T(t) in GMST im Modell als Reaktion auf eine Stufen-Änderung der Strahlungsantriebe – wie etwa eine Änderung durch einen sprunghaften Anstieg der atmosphärischen CO2-Konzentration – wird gegeben durch die gewichtete Summe von zwei Exponentialfunktionen mit den Zeitkonstanten τ↓1 and τ↓2:

Die Sensitivitäts-Faktoren k↓1 und k↓2 bestimmen, wie die finale Gleichgewichtsreaktion von GMST (zu der sie sich summieren) geteilt wird zwischen zwei Reaktionen von Komponenten mit unterschiedlichen Zeitkonstanten. Eine Ableitung der mathematische Beziehungen zwischen den physikalischen Parametern des 2-Schichten-Modells und der daraus resultierenden exponentiellen Funktion der Zeitkonstanten und Sensitivitäts-Faktoren wird von Berntsen und Fuglestvedt (2008) gegeben [xv]. Allgemein gilt, dass bei gegebenen Werten von ECS und F↓SD die Wärmekapazität der durchmischten Ozean-Oberflächenschicht, C↓SO, welche proportional zu seiner Tiefe ist, sich stark positiv auswirkt auf den Wert von τ↓1, während diejenige der Tiefsee C↓DO stark τ↓2 beeinflusst. Die relativen Werte von k↓1 und k↓2 werden stark durch F↓SD beeinflusst. Wenn man 2-Schichten-Modelle konstruiert, wird die Mächtigkeit der Oberflächenschicht, die sich im Gleichgewicht mit der Atmosphäre befindet, mit 70 bis 120 m angesetzt, gemittelt über das Gebiet der Ozeane. Dies korrespondiert in etwa mit Schätzungen der Tiefe der durchmischten Schicht [xvi]. Während die mittlere Tiefe der Ozeane etwa 3700 m beträgt, kann die effektive Tiefe für die Zwecke eines 2-Schichten-Modells geringer sein infolge des geringeren Austausches unterhalb der Thermokline (deren effektive Tiefe sich in der Größenordnung um 1000 m bewegt). Konsistent mit diesen charakteristischen Ozean-Tiefen erwartet man, dass τ↓1 eine relativ kurze Zeitspanne umfasst – unter zehn Jahre – und τ↓2 eine lange Periode – über 100 Jahre.

Obwohl das 2-Schichten-Klimamodell sehr einfach ist, hat sich herausgestellt, dass die damit erzeugte 2-exponential response in der Lage war – mit geeigneter Auswahl von Parametern – das GMST-Verhalten von AOGCMs bemerkenswert gut zu repräsentieren [xvii]. Abbildung 1 unten, also die Abbildung 2 von Caldeire und Myhrvold (2013; xviii) zeigt, wie gut 2-exponential fits (blaue Linien) für CMIP5-Modelle sind. Deren Untersuchung basierte auf den Ergebnissen von Simulationen, in denen die atmosphärische CO2-Konzentration abrupt vervierfacht worden war. Diese ergeben ein sehr klares Bild des charakteristischen Zeitprofils der Modellreaktion auf eingegebene Antriebe. Die mit diesen Simulationen erreichten 2-exponential fits passen auch exzellent zum GMST-Verhalten der korrespondierenden Modelle während ramp-forcing-Simulationen über 140 Jahre, wobei die CO2-Konzentration um 1% pro Jahr zunehmen soll.

Abbildung 1: GMST-Änderungen in verschiedenen CMIP5-Modellen nach einer abrupten Vervierfachung der CO2-Konzentration zum Zeitpunkt Null (schwarze Punkte), und wie sie von verschiedenen einfachen Modellen mit best-fit parameter-Werten nachgebildet werden. Die blauen Linien repräsentieren Fits an ein C, wie es von einem 2-Schichten-Modell vorgegeben wird. In den meisten Fällen überlappen sie sich mit den braunen Linien des 3-exponential fit. Die Linien in Olivgrün stehen für 1-exponential fits; die roten Linien für Fits an ein 1D Diffusionsmodell.

Konsistent mit physikalisch begründeten Erwartungen kamen Caldeira und Myhrvold zu dem Ergebnis, dass die Werte von τ↓1 und τ↓2, die den besten Fit geben, in Bandbreiten variierten zwischen 2,4 bis 7,4 bzw. 109 bis 463 Jahren, jedenfalls dem involvierten CMIP5-Modell zufolge. Die impliziten Werte von C↓SO und C↓DO korrespondieren mit der Ozean-Oberfläche sowie Tiefenschichten zwischen 64 bis 150 m bzw. 768 bis 3313 m [xix]. Eine andere Studie, bei der CMIP5 AOGCMs involviert waren, kam zu ähnlichen Ergebnissen. Sie gab auch Werte für F↓SD mit einer Bandbreite von 0,5 und 1,16 Wm² pro K [xx]. Genauso haben Boucher und Reddy (2008) ein two-exponential model an das CMIP3 HadCM3-Modell angepasst [fitted] und erhielten Zeitkonstanten von 8,4 Jahren für τ↓1 und 409,5 Jahren für τ↓2, mit Sensitivitäts-Parametern, die einem ECS von 3,90°C und einem TCR von 2,17°C gleichen [xxi]. Ihr angepasstes Modell fand Eingang in den AR5 [xxii]. Dessen implizierte Werte von CSO und CDO korrespondieren mit der Ozeanoberfläche und Tiefenschichten von 70 m bzw. 3000 m. Die Ozeanschichten-Tiefenkombinationen von Boucher & Reddy und Berntsen & Fuglestvedt decken Vieles ab, was physikalisch plausibel ist (mit Berücksichtigung der Tiefen der durchmischten Ozean-Oberflächenschicht, dem Ozean darunter und der Thermokline). Dies ist auch erforderlich, um zum Verhalten des CMIP5-Modells zu passen. Außerdem verwendete ich Wertekombinationen aus CSO und CDO aus jenen beiden Studien, um 2-Schichten-Modelvarianten als Referenz zu definieren, und verglich deren GMST-Reaktionen mit denen von DICE-2013Ra. Während die exponentiellen Zeitkonstanten für jede dieser 2-Schichten-Modellvarianten mit den spezifizierten Werten von ECS und TCR variierten, blieben die Wärmekapazitäten der Ozeanschichten unverändert.

Vergleich der Reaktion des DICE 2-Schichten-Modells mit jener der beiden Modellvarianten

Um objektiv die GMST-Reaktionen der verschiedenen Parametrisierungen des 2-Schichten-Modells vergleichen zu können, ist es angemessen, die gleichen ECS- und TCR-Werte für alle davon zu spezifizieren. Die Unterschiede hinsichtlich der Reaktion hängen dann lediglich noch ab von den eingehenden Tiefenschichten [deep layer depths] und der Ozeanoberfläche.

Alle Parameter, die TCR beeinflussen, haben in DICE-2013Ra die gleichen Werte wie in DICE-2013-Rv2. Obwohl Nordhaus feststellt, dass die geschätzte TCR von DICE-2013Rv2 1,7°C beträgt, ist der Wert, den ich für DICE-2013Ra berechne, nur 1,57°C. Dies, indem ich eine linear forcing ramp von einer präindustriellen Gleichgewichtslage anwende [xxiv]. Der Grund für die Ungenauigkeit der TCR-Festsetzungen in DICE-2013R ist unbekannt; möglicherweise ist er in dem Regressionsmodell zu suchen, das für die Abschätzung der TCR des Modells ungeeignet ist.

Dem entsprechend setzte ich die Werte von F↓SD in den Referenz-Varianten von 2-Schichten-Modellen mit der Ozean-Oberflächen-Tiefe und den deep layer depths so, dass sich ein TCR-Wert von 1,57°C ergibt, wenn man ihn in DICE-2013Ra verwendet. Passt dies zu den Original-Einstellungen des Modells, erhält man den gleichen ECS-Wert von 2,9°C. Dann berechnete ich für einen Zeitraum von über 250 Jahren die GMST-Reaktion einer jeden 2-Schichten-Modellvariante bei einer abrupten Verdoppelung der CO2-Kinzentration; die Ergebnisse zeigt Abbildung 2. Das Aussehen der Reaktion von DICE-2013a ist deutlich unterschiedlich zu jenen Reaktionen der beiden anderen Modellvarianten. Das Aussehen der Linien der Varianten von Boucher & Reddy sowie Berntsen & Fuglestvedt sind ähnlich den blauen 2-exponential curves und den tatsächlichen AOGCM-Reaktionen in Abbildung 1. Die DICE-2013a-Linie hat dagegen ein ziemlich unterschiedliches Aussehen – eine näher der grünen 1-exponential curves in Abbildung 1 [xxv]. Nach 10 Jahren haben die Reaktionen von CMIP5 AOGCM in Abbildung 1 zwischen 38% und 61% ihrer geschätzten ultimativen Gleichgewichts-Erwärmung erreicht. Nach 100 Jahren haben sie zwischen 60% und 86% ihrer ultimativen Gleichgewichts-Erwärmung erreicht. Die 10-Jahre-Prozentzahlen für die Modelle von Boucher & Reddy sowie Berntsen & Fuglestvedt betragen jeweils 44% und 51%, nach 100 Jahren 67% und 61%. Diese Werte liegen innerhalb der Bandbreiten von den AOGCMs in Abbildung 1. Allerdings liegen die 10- und 100-Jahre-Prozentzahlen von DICE-2013Ra mit jeweils 22% und 89% außerhalb der AOGCM-Bandbreiten.

Abbildung 2: GMST-Reaktion jeder 2-Schichten-Modellvariante bei einer abrupten Verdoppelung der CO2-Konzentration.

Der Grund für die anomal aussehende GMST-Reaktion in DICE2013Ra ist, dass dessen 2-Schichten-Klimamodell physikalisch unrealistische Ozean-Tiefenschichten [ocean layer depths] enthält. Dessen implizierter C↓SO-Wert ist gleich einer mittleren Tiefe der Ozean-Oberflächenschicht von 553 m – vier- bis achtmal höher als für die beiden Referenz-Modellvarianten und weitaus größer als die Tiefe der Schicht, die sich fast im Gleichgewicht mit der Atmosphäre befindet. Der DICE-2013a-C↓DO-Wert gilt für eine mittlere Tiefe der ozeanischen Tief-Schicht von 191 m – also nur etwa ein Sechstel bis ein Zwölftel der Werte für die beiden anderen Modellvarianten. DICE-2013Ra hat auch einen viel niedrigeren Koeffizienten des Wärmeaustausches zwischen der Oberflächen-Schicht und den Schichten der Tiefsee: deren F↓SD-Wert von 0,088 Wm² pro K beträgt weniger als 10% des Wertes in den anderen beiden Modellvarianten (welche fast die gleichen F↓SD-Werte aufweisen).

Als Folge der sehr geringen Kopplung zwischen Oberfläche und Tiefsee ist die Zeitkonstante des zweiten Exponential-Terms von DICE-2013Ra mit 216 Jahren vernünftig, trotz der geringen Dicke der Tiefsee-Schicht. Allerdings ist die erste exponentielle Zeitkonstante τ↓1 mit 36 Jahren außerordentlich hoch und liegt weit außerhalb der Bandbreite von CMIP5 mit 2,4 bis 7,4 Jahren, was von Caldeira und Myhrvold gefunden worden war. Für die Referenz-Modellvarianten beträgt τ↓1 5 Jahre nach Boucher & Reddy sowie 2,5 Jahre nach Berntsen & Fuglestvedt. In DICE-2013Ra wird die GMST-Reaktion dominiert von jener des ersten Exponential-Terms; infolge der schwachen Kopplung zwischen den Schichten trägt die längere Zeitkonstante, also der zweite Term, nur 9% zur Gesamt-Gleichgewichts-Erwärmung bei [xxvi]. Dies liegt weit unterhalb der Bandbreite von 33% bis 61%, wie sie von Caldeira & Myhrvold für CMIP5-Modelle berichtet wird und ist vergleichbar mit Werten von etwa 50% der beiden 2-Schichten-Modellvarianten sowohl von Boucher & Reddy als auch von Berntsen & Fuglestvedt.

Relevante Details aller drei 2-Schichten-Modellvarianten zeigt Tabelle 1:


Tabelle 1: Eigenschaften jeder 2-Schichten-Modellvariante, alle mit ECS bei 2,9°C und TCR bei 1,57°C. Die Werte korrespondieren mit den vorgegebenen DICE-2013Ra-Parametern [xxvii].

Die Auswirkung auf SCC und optimale Kohlenstoff-Steuer der verschiedenen 2-Schichten-Klimamodelle

Die sonderbare GMST-Reaktion des DICE-2013Ra-2-Schichten-Klimamodells erfolgt viel langsamer als jene der beiden anderen, physikalisch plausibleren alternativen 2-Schichten-Modellvarianten und als CMIP5-Modelle. Aber deren Neigung nimmt viel langsamer ab. 35 Jahre nach Applikation eines Antriebs ist die DICE-2013Ra-Temperaturreaktion auf einen aufgezwungenen Antrieb größer als die der alternativen 2-Schichten-Modellvarianten mit identischen ECS- und TCR-Werten, und im 100. Jahr liegt sie deutlich über ihren Reaktionen.

Die Schlüsselfrage lautet, welche Auswirkung die variierende Gestalt dieser drei Klimareaktions-Funktionen mit identischen Werten sowohl für ECS als auch für TCR auf SCC haben, auf die CO2-Emissions-Szenarien, die nach Einführung einer Optimum-Kohlenstoff-Steuer folgen. Um die Kohlenstoff-Steuer optimieren zu können mittels des Standard-Excel-Programms, welches unzuverlässig ist bei der Optimierung von mehr als nur einigen wenigen Parametern, spezifiziere ich die Kohlenstoff-Steuer mittels eines 4-Parameter-Modells [xxviii]. Ich lasse die Werte der Einsparungsraten bei dem Excel-Modell unverändert; die optimale Einsparungsrate wird kaum beeinflusst durch Variationen der optimalen Kohlenstoff-Steuer.

Abbildung 3 zeigt die resultierenden optimierten Werte der Kohlenstoff-Steuer für jede 2-Schichten-Klimamodell-Variante. Die Optimierung wird ab 2015 appliziert; der initiale Kohlenstoff-Preis beträgt in allen Fällen 1 Dollar. Die Spitzenwerte treten auf, wenn der steigende SCC den backstop price erreicht, ein ursprünglich sehr hoher Preis, der mit der Zeit sinkt, wobei jede geforderte Größe der Emissionsreduktion als möglich angenommen wird [xxix]. Nach 2150 nimmt der Kohlenstoff-Preis in allen Fällen weiter ab mit dem backstop price [xxx]. Bis 2110 beträgt die optimale Kohlenstoff-Steuer für die 2-Schichten-Modellvariante nach Berntsen & Fuglestvedt zwei Drittel und jene für die Variante nach Boucher & Reddy drei Viertel des Wertes nach DICE-2013Ra [xxxi]. Das sind substantielle Reduktionen.

Abbildung 3: DICE-2013Ra-Optimum-Kohlenstoff-Steuer-Profil für jede 2-Schichten-Modellvariante.

Die Auswirkungen der unterschiedlichen Niveaus der Kohlenstoff-Steuer auf CO2-Emissionen, CO2-Konzentration und GMST

Eine niedrigere Kohlenstoff-Steuer impliziert, dass die optimalen Emissionen höher sind. Abbildung 4 zeigt das Profil von CO2-Emissionen in jedem Fall, der sich aus einer Einführung der korrespondierenden optimalen Kohlenstoff-Steuer ergibt, und zum Vergleich für den grundlegenden Fall, dass die Kohlenstoff-Steuer nur langsam steigt von ihrem Niveau 2010 [xxxii]. Die kumulativen Emissionen von 2010 bis 2050 in den drei Fällen betragen 621, 790 und 858 GT CO2 – alle weitaus weniger als die 2.222 GT CO2 im Grundlagen-Fall. Allerdings sind die Emissionen nach der 2-Schichten-Modellvariante nach Berntsen & Fuglestvedt um 38% höher, nach dem von Boucher & Reddy 27% höher als auf der Grundlage des DICE2013Ra-2-Schichten-Modells.

Abbildung 4: DICE-2013Ra-CO2-Emissionen mit einer Kohlenstoff-Steuer optimiert für jede 2-Schichten-Modellvariante.

Die korrespondierenden atmosphärischen CO2-Konzentrationen zeigt Abbildung 5, und zwar bis zum Jahr 2295. Sie erreichen einen um 60 ppm höheren Spitzenwert im Falle von Berntsen & Fuglestvedt als mit dem 2-Schichten-Klimamodell von DICE-2013Ra. Dies reflektiert die substantiell höheren kumulativen CO2-Emissionen, aber nur bei 51% des baseline case peak level.

Abbildung 5: CO2-Konzentration nach DICE-2013Ra mit einer Kohlenstoff-Steuer, die optimiert ist nach jeder 2-Schichten-Modellvariante.

Nun könnte man denken, dass mit den kontinuierlich höheren CO2-Konzentrationen der 2-Schichten-Modellvarianten nach Berntsen & Fuglestvedt bzw. Boucher & Reddy als dem eigenen 2-Schichten-Klimamodell in DICE-2013Ra die resultierende Zunahme von GMST in ihren Fällen größer wäre. Tatsächlich ist dies nicht so bis zum Jahr 2300. Tatsächlich ist der Spitzen-GMST-Anstieg merklich höher mit dem ursprünglichen DICE-2013Ra-Klimamodell, bei 3,0°C im Jahre 2120, zu welcher Zeit der Anstieg nach Boucher & Reddy 2,5°C und nach Berntsen & Fuglestvedt 2,3°C beträgt. Obwohl in jenen beiden Fällen GMST ultimativ weiter steigt, bleibt er in beiden Fällen unter 2,8°C für mindestens eintausend Jahre. Zum Vergleich, im baseline case beträgt die Spitzenzunahme von GMST über 6°C.

Abbildung 6: DICE-2013Ra GMST-Änderung mit der Kohlenstoff-Steuer optimiert für jede 2-Schichten-Modellvariante

Diskussion und Schlussfolgerungen

Ich habe gezeigt, dass die 2-box climate temperature response function in DICE-2013R unsinnig ist, basiert sie doch auf der Tiefe der Ozean-Oberflächenschicht, die sich mit der Atmosphäre im Gleichgewicht befindet, von 550 m, die nur sehr schwach gekoppelt ist mit einer Tiefsee-Schicht mit einer Dicke von lediglich 190 m. Sie enthält nur 9% der Gleichgewichts-Reaktion, die dem Exponential-Term mit einer Zeitkonstante nach Jahrhunderten zuzuordnen ist. Diese Werte sind weder physikalisch realistisch hinsichtlich tatsächlicher Ozean-Charakteristika, noch sind sie kompatibel mit der Bandbreite von Werten, die von 2-Schichten-Modelen impliziert werden, die gut zu den Reaktionen der CMIP5 AOGCMs passen. Die anomalen Charakteristika des 2-Schichten-Modells von DICE2013Ra verursachen, dass dessen SCC und eine optimale Kohlenstoff-Steuer nur ein Drittel oder halb zu hoch sind während der ersten 100 Projektionsjahre. Dies hängt davon ab, welches der beiden physikalisch plausibleren alternativen 2-Schichten-Modellvarianten man betrachtet, die beide die gleichen ECS- und TCR-Werte haben wie DICE-2013Ra. Danach konvergiert die Kohlenstoff-Steuer rapide zum gleichen Wert, der in allen Fällen mit der Zeit abnimmt.

Qualitativ ähnliche vergleichbare Ergebnisse erhält man, falls der Parameter des DICE-2013Ra-Klimamoduls im Manual (c1) adjustiert wird, um ein TCR von 1,70°C zu erreichen, also den Wert, den man ursprünglich haben wollte, deren Parameter ebenfalls adjustiert werden, um jenen TCR für die beiden anderen 2-Schichten-Klimamodellvarianten zu erhalten. Das optimale Kohlenstoff-Steuer-Profil ist höher, und das Profil der resultierenden CO2-Emissionen niedriger, in allen drei Fällen. Die Tiefe der Ozean-Oberflächenschicht in DICE-2013Ra ist ein wenig flacher mit 476 m als mit den vorgegebenen Parameterwerten – immer noch viele Male höher als physikalisch realistisch oder innerhalb der Bandbreite von Werten, die erforderlich sind, um zum Verhalten der CMIP5-Klimamodelle zu passen. Das Verhältnis der Gleichgewichts-Reaktion, die dem Exponentialterm zugeordnet werden kann mit einer Zeitkonstante von einem Jahrhundert in DICE-2013Ra ist fast unbeeinflusst von der TCR-Änderung; es verharrt unrealistisch niedrig bei 9%.

Nun könnte man fragen, warum die optimale Kohlenstoff-Steuer höher und folglich das Niveau der Emissionen niedriger ist, wenn die weit überwiegende GMST-Reaktion aus dem box 1 exponential term resultiert, mit einer Zeitkonstante von vielen Jahrzehnten, anstatt gleichmäßiger verteilt zu sein zwischen den beiden Exponentialtermen mit Zeitkonstanten jeweils deutlich unter einem Jahrzehnt bzw. über einem Jahrhundert. Der Hauptgrund ist, dass im ersten Falle der von Emissionen verursachte zunehmende Antrieb, der um das Jahr 2090 nach dem Kohlenstoff-Steuer-Profil von DICE-2013Ra einen Spitzenwert erreicht, eine viel stärkere Zunahme der GMST im zweiten und dritten Jahrhundert verursacht als im zweiten Fall. Außerdem, fast die gesamte substantielle Erwärmung bis 2010 von 0,83°C [xxxiii] kommt im Projektionszeitraum des ersten Falles auf, während im zweiten Falle ein substantieller Anteil davon nach 300 Jahren unerkannt bleibt [xxxiv].

Für einen rationalen Ökonom oder Politiker könnte das zu erwartende relevante Ziel der gegenwärtige Wert (PV) des Gesamt-Nutzens sein, ermäßigt über den Zeithorizont von 300 Jahren – also genau das Ziel, das die optimale Kohlenstoff-Steuer maximiert. Im Basisfall berechnet DICE2013Ra den PV des Nutzens mit 2.678,6 (alle Angaben in Billionen Dollar des Jahres 2000). Mit der optimalen Kohlenstoff-Steuer und seinem eigenen Klimamodell erhöht sich der PV des Nutzwertes auf 2.707,0. Falls man die 2-Schichten-Modellvariante nach Boucher & Reddy heranzieht, steigt der PV des Nutzwertes noch weiter auf 2.722,8, nach Berntsen & Fuglestvedt auf 2.726,0 oder 19 Billionen Dollar über dem Niveau, welches sich nach dem DICE-2013Ra-2-Schichten-Klimamodell ergibt.Von größerer praktischer Bedeutung ist der Verlust an Nutzen, falls die höhere Kohlenstoff-Steuer, die optimal ist nach den Standard-Einstellungen im Klimamodul von DICE, eingeführt wird, wenn die tatsächliche Reaktion auf einer Linie liegt mit einem realistischeren 2-Schichten-Modell. Für die Variante nach Berntsen & Fuglestvedt beträgt dieser Verlust 1,1 Billionen Dollar, nach Boucher & Reddy 0,7 Billionen Dollar [xxxv]. Ein Verlust von 1 Billion Dollar des gegenwärtigen Nutzwertes macht etwa ein Dreißigstel des Gesamtnutzens aus, der dem Weltverbrauch des Einzeljahres 2010 zugeordnet werden kann.

Die Profile der Klimareaktionen in FUND und PAGE, also den beiden anderen, von der US-Regierung genutzten IAMs zur Abschätzung von SCC scheinen ebenfalls ungeeignet. Sie verwenden beide einen Exponential-Term mit einer einzigen Zeitkonstante in der Größenordnung von 40 Jahren. Daher hat kein Anteil an der Temperatur-Reaktion einen Jahrhundert-Zeitmaßstab (verglichen mit 9% in DICE-2013Ra). Daher scheint es wahrscheinlich, dass sie die optimale Kohlenstoff-Steuer bei jedwedem gegebenen Niveau von ECS und TCR überschätzen. Allerdings muss dieser Befund noch durch eine detaillierte Untersuchung bestätigt werden.

Es scheint ziemlich überraschend, dass alle drei hauptsächlichen IAMs Funktionen der Klimareaktion aufweisen mit ungeeigneten und physikalisch unrealistischen Zeitprofilen. In jedem Falle ist es Besorgnis erregend, dass Regierungen sowie ihre wissenschaftlichen und ökonomischen Berater diese IAMs herangezogen und offensichtlich nicht nachgeprüft haben, ob die Zeitprofile der resultierenden Klimareaktion vernünftig waren.

Übersetzt von Chris Frey EIKE

[Die folgenden Fußnoten werden nicht übersetzt, weil sie lediglich eine Fülle von Zusammenstellungen und Bezeichnungen enthalten. Anm. d. Übers.]

[i] See, e.g., https://www3.epa.gov/climatechange/EPAactivities/economics/scc.html.

[ii] Technical Support Document: Technical Update of the Social Cost of Carbon for Regulatory Impact Analysis Under Executive Order 12866 Interagency Working Group on Social Cost of Carbon, United States Government

[iii] Nordhaus, W. Integrated Economic and Climate Modelling. In Dixon, P.B., Jorgenson, D.W. (Eds.) Handbook of Computable General Equilibrium Modeling. Elsevier (2013) aida.wss.yale.edu/~nordhaus/homepage/documents/Nordhaus_IntegratedAssessmentModels_Handbook_2013.pdf

[iv] Anthoff D and RSJ Tol. The Climate Framework for Uncertainty, Negotiation and Distribution (FUND), Technical Description, Version 3.9 (2014) www.fund-model.org/Fund-3-9-Scientific-Documentation.pdf

[v] Hope, C. The PAGE09 integrated assessment model: A technical description. Cambridge Judge Business School Working Papers 4/2011, University of Cambridge (2011) https://www.jbs.cam.ac.uk/fileadmin/user_upload/research/workingpapers/wp1104.pdf

[vi] http://aida.wss.yale.edu/~nordhaus/homepage/

[vii] DICE-2013 model, beta version of April 22, 2013, developed by William Nordhaus, Yale University. aida.wss.yale.edu/~nordhaus/homepage/documents/DICE_2013R_112513m.xlsm

[viii] The new parameter values are given on page 96–97 of the Second edition( 31 October 2013) of the DICE-2013R manual, available at: aida.wss.yale.edu/~nordhaus/homepage/documents/DICE_Manual_103113r2.pdf . The reduction in the default ECS is discussed on page 18 of the manual.

[ix] Climate module parameter c1 has been changed from 0.104 to (at the default ECS of 2.9°C) 0.098, and c3 from 0.155 to 0.088. I have also incorporated the following other changes per the DICE-2013Rv2 GAMS code in the manual: in Initial atmospheric temperature in 2010, from 0.83°C to 0.80°C; Initial carbon emissions from land use, from 1.53972 to 3.3 GTCO2/yr; in Initial atmospheric concentration of CO2 (used for 2010), from 384.50 to 389.86; in Initial output, from 66.95 to 63.69 2005 $ trillion; in Industrial CO2 emissions for 2010, from 8930 to 9168 MTC; in forcings of non- CO2 GHGs from −0.06 in 2000 and −0.62 in 2100 to 0.25 in 2010 and 0.75 in 2100 (Wm-2); and in the Damage coefficient on temperature squared, from 0.002131 to 0.00267. Minor other differences in the abatement module have been left untouched, as has the growth of population , which differs only marginally between the Excel and GAMS versions.

[x] Parameter c1, also termed ξ1 in the manual and there wrongly referred to as the diffusion parameter and overstated there by a factor of ten.

[xi] Nordhaus, W. Integrated Economic and Climate Modelling, op. cit., p.1088.

[xii] Gregory JM, Vertical heat transports in the ocean and their effect on time-dependent climate change. Clim Dyn (2000) 16:501±515.

[xiii] Held, I. M. et al, Probing the fast and slow components of global warming by returning abruptly to preindustrial forcing. J. Climate, 23 (2010), 2418–2427.

[xiv] The heat capacity of the atmosphere and land is small relative to that of the ocean mixed layer, and is subsumed within the value used for it.

[xv] Berntsen, T and J Fuglestvedt. Global temperature responses to current emissions from the transport sectors. PNAS 105 (2008), 19154–19159. See the Supplementary Information.

[xvi] The annual maximum depth of the ocean surface mixed layer is relevant here.

[xvii] It might be thought that a 1D model in which heat is transferred diffusively between a surface mixed layer and thermocline/ deep ocean, with slow upwelling linked to sinking cold water in polar regions often also being included, would be more appropriate. However, as much of the heat is believed to be transported between ocean layers by advection of water along sloping isopycnal surfaces (Gregory 2000, op. cit.) the simpler 2-box model treatment appears to be satisfactory.

[xviii] Caldeira K and N P Myhrvold. Projections of the pace of warming following an abrupt increase in atmospheric carbon dioxide concentration. Environ. Res. Lett. 8 (2013) 034039 (10pp)

[xix] Ricke K and Caldeira D. Maximum warming occurs about one decade after a carbon dioxide emission Environ Res Lett 9 (2014) 124002 doi:10.1088/1748-9326/9/12/124002

[xx] Geoffrey et al (2013) carried out a similar exercise with a different, overlapping set of CMIP5 models and found good fits, with the values of τ1 and τ2 giving the best fit varied in the ranges 1.6 – 5.5 and 126 – 698 years respectively. Geoffroy O et al. Transient Climate Response in a Two-Layer Energy-Balance Model. Part I: Analytical Solution and Parameter Calibration Using CMIP5 AOGCM Experiments J. Clim. 26 (2012) 1841–57

[xxi] Based on the HadCM3 forcing for a doubling of CO2 concentration of 3.68 Wm-2.

[xxii] The Global Temperature change Potentials given in Table 8.A.1 of AR5.

[xxiii] For the ocean only, based on the ocean covering 71% of the Earth’s surface and a seawater volumetric heat capacity of 4.1 M J K-1 m-3.

[xxiv] Moreover, the theoretical TCR I calculate using the two-box model parameters is only 1.51°C. The difference appears to be due to use of a 5-year time step and to applying forcing increments at the start of each period. When a 1-year time step is used, the TCR calculated from applying a 70-year forcing ramp is only 0.01°C above the theoretical value.

[xxv] If the surface ocean depth in the Boucher & Reddy based variant is swapped with that in the Berntsen & Fuglestvedt based one and the FSD values altered to maintain their TCRs, the shapes of the resulting response curves are almost bounded between those for the two versions with unswapped surface ocean depths over the entire 250-year period.

[xxvi] The warming in the second term of the two exponential representation of a 2-box model is not the same as that of the deep ocean layer in the underlying physical model, which ultimately warms as much as the surface.

[xxvii] In DICE-2013R, the forcing from a doubling of atmospheric CO2 concentration is 3.8 Wm-2, so the sum of the sensitivity factors for each model variant is 2.9/3.8 = 0.763

[xxviii] The carbon tax model specifies an initial value, initial growth rate, and a rate of change of growth rate that increases by the same specified amount each year. Fixed reductions are applied in the final three periods, matching those in the downloaded Excel model (the reasons for which are unknown); doing so has a negligible effect on the present value of utility. When all parameter values are as in the downloaded model, optimising the four parameter fit produces an almost identical carbon tax profile to that in the downloaded model, which were derived by optimising each period’s carbon tax independently, and the present value of utility is unchanged to seven significant figures.

[xxix] Per the DICE manual, the backstop technology can replace all fossil fuels; it could be one that removes carbon from the atmosphere or an all-purpose environmentally benign zero-carbon energy technology. The downward trend in its price is based on assumed technological progress.

[xxx] Up to 2290, from when on the fixed reductions referred to in note 28 are applied.

[xxxi] More precisely, 68% for Berntsen & Fuglestvedt and 73–76% for Boucher & Reddy.

[xxxii] Land use change emissions, which in DICE20113R are assumed to decline on a fixed basis, are not included. In the base case the $1 initial carbon tax increases by 10.4% in each pentad until 2015, from when the backstop CO2 price is applied.

[xxxiii]The currently unrealised, “in-the-pipeline”, warming at the end of 2010 equals ECS of 2.9°C x Forcing in 2010 of 2.14 Wm-2 / Forcing for a doubling of CO2 of 3.8 Wm-2, minus Atmospheric temperature rise in 2010 above preindustrial of 0.8°C.

[xxxiv] 0.80°C of the 0.83°C unrealised warming as at 2010 emerges by the end of the projections when the DICE-2013Ra climate module parameters are used, but only 0.45°C or 0.60°C when parameters based respectively on the Berntsen & Fuglestvedt or Boucher & Reddy models are used.

[xxxv] In the contrary cases, where the actual climate response is as per the DICE-2013Ra 2-box model but a lower carbon tax that is optimum for one of the two variants is imposed, the utility losses are a little (10-20%) larger. However, it is most unlikely that the DICE-2013Ra response could be realistic.

A PDF version of this article is available [here].

Link: https://judithcurry.com/2016/08/15/abnormal-climate-response-of-the-dice-iam-a-trillion-dollar-error/




Zivilschutzplan der Bundesregierung: Die verschwiegene Energiewende?

Zuerst die von der Tagesschau-Webseite veröffentlichte Meldung unter der Überschrift "Offenbar neuer Zivilschutzplan der Regierung Hamstern für den Notfall" (hier): 

Um auf einen Ernstfall besser vorbereitet zu sein, will die Bundesregierung offenbar nach langer Zeit die Richtlinien zum Zivilschutz aktualisieren. Einem Medienbericht zufolge sollen die Bürger wieder Vorräte anlegen – und zwar für einen Zeitraum von zehn Tagen.

Zum ersten Mal seit dem Ende des Kalten Krieges will die Bundesregierung die Bevölkerung einem Zeitungsbericht zufolge wieder zum Anlegen von Vorräten animieren, damit sie sich im Fall einer Katastrophe oder eines bewaffneten Angriffs vorübergehend selbst versorgen kann. "Die Bevölkerung wird angehalten, einen individuellen Vorrat an Lebensmitteln von zehn Tagen vorzuhalten", zitierte die "Frankfurter Allgemeine Sonntagszeitung" aus einem Konzept für die zivile Verteidigung, das die Regierung am Mittwoch beschließen wolle.

Ausreichend Wasser für mehrere Tage

Dem Bericht zufolge soll die Bevölkerung im Notfall zum Selbstschutz fähig sein, bevor staatliche Maßnahmen anlaufen, um eine ausreichende Versorgung mit Lebensmitteln, Wasser, Energie und Bargeld sicherzustellen. Daher solle die Bevölkerung auch angehalten werden, zur Erstversorgung für einen Zeitraum von fünf Tagen je zwei Liter Trinkwasser pro Person und Tag vorzuhalten, heiße es in dem vom Bundesinnenministerium erarbeiteten Text.

————– Ende des ARD-Textes ———————-

Nun fragt man sich beunruhigt, welche "Katastrophe" oder welcher "bewaffnete Angriff" denn gemeint sein könnte. Darüber schweigt sich die Meldung aus. 

Was steckt aber dann hinter der Meldung? Zuerst einmal ist der Zeitpunkt der Aktion vielsagend, die Olympiade in Brasilien und der Beginn der Fußbalbundesliga. Für die Bevölkerung unangenehme Gesetzesvorlagen werden verdächtig oft zu Zeiten von großen Sportveranstaltungen im deutschen Parlament durchgewunken. Ein Schelm, wer Böses dabei denkt.

Wenn es also nicht "bewaffneter Angriff" ist, kann die "Katastrophe" – von der Bundesregierung verschwiegen – nur die Energiewende sein. Diese hat die ehemalige Stabilität des deutschen Stromnetzes gründlich ruiniert – verursacht durch Abschalten der Kernkraftwerke und stetig zunehmende Einspeisung von flatterndem Wind- und Sonnenstrom. Die Anzahl der notwendigen Eingriffe, um das deutsche Stromnetz noch im Gleichgewicht zu halten ( Stromverbrauchsmenge und Erzeugungsmenge müssen zu jedem Zeitpunkt gleich sein ), ist von früher mit kaum einer Handvoll pro Jahr aktuell auf mehrere Tausend pro Jahr gestiegen (hier) – mit weiterem Aufwärtstrend bei jedem neu hinzukommenden Windrad.

Im Klartext beseitigte jeder größere Eingriff den drohenden bundesweiten Black-Out! Weiter bekannt geworden für ein Ereignis, das haarscharf an der Black-Out-Katastrophe vorbeischrammte, ist der 9. Feb. 2012, aber ähnliche im Dunkeln der Bekanntheit gebliebene Situationen hat es mit hoher Wahrscheinlichkeit schon mehrfach gegeben. Bei jahreszeitlich hohem Strombedarf liefen an diesem Wintertag des  9.2.2012 alle Grundlastkraftwerke unter Volldampf. Die eingespeiste Leistung von Photovoltaik- und Winkraftanlagen war dagegen praktisch Null. Grund war eine landesweite Windstille und bedeckter Himmel. Durch Eingriffe wurden alle alten Kohlekraftwerke aktiviert. Die fluktuierende Spitzenlast wurde von schnell reagierenden Gaskraftwerken geliefert. Nun fiel die russische Gaslieferung durch die Ukraine aus. Nur durch Notbetrieb eines mit Erdöl(!) betrieben Kraftwerks konnte der Black-Out gerade noch vermieden werden.

In 2017 soll nun auch das Kernkraftwerk Gundremmingen endgültig vom Netz gehen. Damit entfällt ein weiterer Grundpfeiler der ohnehin schon extrem ausgedünnten Menge von technisch unverzichtbaren mit Uran oder Kohle betriebenen Grundlastkraftwerken. Der Zusammenbruch des Gebäudes "elektrisches Netz Deutschland" wird ohne massive Gegenmaßnahmen dann nicht mehr zu verhindern sein. Die beste Gegenmaßnahme in diesem Fall wäre natürlich gemäß Expertise jeden unabhängigen Fachmanns die Verlängerung der Laufzeit von Gundremmingen. Selbst die übervorsichtigen Schweden verlängern die Laufzeiten ihrer Kerkraftwerke und planen sogar neue Anlagen, nur die energiewendetrunkenen Deutschen nicht. 

Die Folgen eines Black Outs als katastrophal zu bezeichnen ist im Übrigen purer Euphemismus. Sie sind weit schlimmer als katastrophal!

Ein deutschlandweiter Black Out ist das zeitweilige Ende der Zivilisation

Kein Verkehr mehr, keine Heizung, kein Telefon, kein Internet, keine Wasserversorgung, Zusammenbruch der fragil-logistikoptimierten Nahrungsversorgung der Supermärkte, sofortige Plünderungen dieser Supermärkte und von Geschäften mit Wertartikeln, Wohnungseinbrüche ohne die Möglichkeit die Polizei zu rufen, hilflos eingeschlossen in Zügen oder Fahrstühlen zusammen mit Mitgefangenen in qualvollster Enge ( vermeiden Sie zumindest in Winterzeiten bei Windstille und bedecktem Himmel Fahrstühle, laufen ist ohnehin gesünder ), weitgehend blinde und taube Ordnungskräfte, weil ohne elektronische Kommunikation und ohne betriebsfähige Fahrzeuge ….. Die ersten Todesopfer eines mehrere Tage dauernden Black Out werden Tausende von Dialysepatienten sein.

Wer einen unruhen Schlaf nicht fürchtet, lese zum Thema Black Out die Broschüre der Bundesregierung 17/5672 (hier), die die obige Aufzählung akribisch ergänzt.

Man kann auf Grund der Existenz der Bundesbroschüre 17/5672 nicht gerade behaupten, die Verantwortlichen der GroKO wüssten nicht, was sich da infolge der von ihnen verantworteten unheilvollen Energiewende zusammenbraut. Der sofortige Stop des technischen Abersinns "Energiewende" ist wegen der inzwischen extremen Black Out Gefahr dringend geboten. Ebenso die gleichzeitige Rückkehr zu geordneten Versorgungsverhältnissen, die nur mit einer Verlängerung der Restlaufzeiten für verbliebende Kernkraftwerke und mit neuen Kohlekraftwerken zu erreichen ist.

Gaskraftwerke als Back Up Systeme für Wind- und Sonnenstrom sind des teuren Brennstoffs wegen extrem unwirtschaftlich. Keine Firma will sie bauen. Sie rentieren sich nicht, weil sie nur sporadisch laufen und sie müssen infolge der abrupten Lastwechsel auch noch zu oft repariert werden. Das weitere Problem von Gaskraftwerken ist ihre Abhängigkeit von Russland. Bei einem bewaffneten Konflikt, in welchen die Russen verwickelt sein sollten, ist die Gaslieferung nach Deutschland nicht mehr gesichert. Da ausfallender Wind- und Sonnenstrom (Flaute, beckter Himmel) heute im Wesentlichen mit Gasturbinen überbrückt wird, wäre dies dann der endgültige Katastrophenfall eines Ausfalls der deutschen Stromversorgung.

Auch beim besten Willen kann die Energiepolitik der GroKo sachlich nur als unverantwortliches Herumpfuschen und Spielen mit dem Überleben und der körperlichen Unversehrtheit der deutschen Bevölkerung bezeichnet werden. Es ist vielsagend für den Zustand unserer Republik, dass sich angesichts der mit der Energiewende verbundenen Black Out Gefahr immer noch kein entschiedener Widerstand regt. Ihren Amtseid, Schaden vom deutschen Volke abzuwenden, haben die Verantwortlichen der GroKo ohnehin vermutlich gleich an der Garderobe abgegeben.

EIKE hat bereits unzählige Male über die Black-Out Gefahr infolge der gefährlichen Energiewende berichtet, die uns übrigens aus guten Gründen kein Land der Welt nachmacht (hier, hier, hier, hier, hier, hier, hier, hier, hier, hier, hier, hier, hier, hier, hier, hier, hier, hier, hier). Ferner ist ein sehr guter Artikel von Achgut zu erwähnen (hier). Aus all diesen technischen Sachbeiträgen, meist von Energie-Experten verfasst, geht unmissverständlich hervor:

Für die Energiewende gab es nie einen sachlichen Grund

Von extremer Gefährlichkeit der deutschen Kernkraftwerke kann keine Rede sein. Eine Schädigung des Klimas durch anthropogenes CO2 konnte noch keine begutachtete wissenschaftliche Publikation belegen. Im Gegenteil, zahlreiche wissenschaftliche Publikationen können erklären, warum die anthropogene Erwärmung in den Messdaten nicht auffindbar ist.

In der ahnungslosen Bevölkerung herrscht freilich immer noch weitgehende Zustimmung zur Energiewende. Grüner Strom ist ja so schick, so sanft und rettet zudem die Welt vor dem "gefährlichen Klimawandel". Grüner Strom erleichtert zudem das Gewissen, welches eines zu großen Autos wegen doch ein wenig plagt.

Ein bekanntes Sprichwort sagt "Gegen Dummheit kämpfen selbst Götter vergebens" und ein weiteres "Wer nicht hören will ( oder nicht EIKE liest ) muss fühlen". Im Sinne dieser beiden Volksweisheiten wünscht der EIKE-Pressesprecher weiterhin viel Spaß beim Gucken der nun beginnenden Fußball-Bundesliga.

Anhang auf Grund von Aktualität

Heute 24.8.2016 im Teletext der ARD: "Warnung vor Angriff auf Stromnetz".

De Mazière lässt unter anderem verlauten "Er könne sich vorstellen, dass jemand ausprobieren wollen könnte, wie abhängig die deutsche Gesellschaft von der Stromversorgung ist".

Kommentar zu dieser Meldung von EIKE-Pressesprecher Lüdecke:

Donnerwetter, eine geniale Einsicht. Terroristen fummeln an der Stromversorgung herum, sprengen vielleicht sogar die eine oder andere Hochspannungsleitung in die Luft. Die wollen eben so mal ausprobieren. Das könnte also die große beschworene Katastrophe sein, die einen formidablen Zivilschutzplan erfordert ??

Aber sehr geehrter Herr de Maizière, wenn Sie es vielleicht noch nicht wissen sollten: Es ist viel, viel einfacher. Diesen jemand, "der zur Zeit ausprobieren wollen könnte …" kennen Sie sogar schon, Sie sind sein Angestellter. Der geheimnisvolle "jemand" ist die deutsche Bundesregierung. Die Energiewende ist genau Ihr passendes, höchst katastrophales "Ausprobieren-Wollen". Die Bundesregierung macht es auch noch tatsächlich, von "könnte" ist leider, leider nicht die Rede. Ihr Verdacht eines "jemands" hat sich also nicht nur bestätigt, die Entwicklung ist sogar über das "könnte" hinaus fortgeschritten. Mit Volldampf in die Katastrophe ist nämlich die Devise der Energiewende.

Die nachhaltige Zerstörung der deutschen Stromversorgung ist unmöglich noch zu übersehen. Sachliche Begründung dieses Tatbestands liefert der Text dieser News sowie die jüngste News "Energiewende und Black Out the day after" (hier). Da Sie, sehr geehrter Herr de Maizière den Übeltäter nun kennen, könnten Sie ihn auch gleich verhaften lassen.




Windspiele von New Yorks Gouverneur in der Realität angekommen

Quelle Bild rechts: stopthesethings.files.wordpress.com

[Stopthesethings berichtete über negativen Auswirkungen der Erneuerbaren in Deutschland und in Südaustralien.]

Im Gegensatz zu den Verrückten, die für diese Energie Kalamitäten verantwortlich sind, wurde Cuomo bereits – bevor er überhaupt angefangen hatte, hart auf den Boden der Realität geholt, indem ihm klar gemacht wurde, was mit einer unzuverlässigen und intermittierender Stromquelle zu erwarten ist, die schon vor Jahrhunderten aus ziemlich offensichtlichen Gründen verlassen wurde:

Grafik stopthesethings

Andrew Cuomo plante, den nördlicheren Teil seines Bundesstaates mit diesen Dingen zu pflastern. Der zuständige Stromnetzbetreiber NYISO [die New York Independent System Operator] beschied ihn jedoch abschlägig: diese Dinge funktionieren einfach nicht.

Hier detailliert der Journalist Robert Bryce die Gegensätze zwischen Cuomo und seiner "grünen Märchen und Zauberstab Sammlung“ und den „Spielverderbern", die tatsächlich wissen, wie Energie kostengünstig und zuverlässig produziert und geliefert wird.

Upstate Power Play

City JournaL, Robert Bryce am 28 Juli 2016

Bundesstaat New Yorks Gouverneur, Andrew Cuomo‘s Ambitionen für erneuerbare Energien, traf hart auf den Boden der Realität, wie ein zuverlässiges Stromnetz zu betreiben ist.

Am 8. Juli hat der Netzbetreiber NYISO, verantwortlich für die staatliche Stromversorgung, Kommentare zu verschiedenen [technischen] Aspekten des Plans von Cuomo erstellt, der bis 2030 Fünfzig Prozent des benötigten Stroms aus erneuerbaren Energien erhalten will.

Die NYISO weist darauf hin, dass, wenn die „Lichter nicht ausgehen“ sollen, der Bundesstaat die Infrastruktur der Übertragungsnetze massiv ausbauen muss, um mehr erneuerbare Energien [aus weiter entfernten Gegenden] zu leiten. Die nukleare Energieerzeugung muss erhalten bleiben (einschließlich des umstrittenen Kernkraftwerks Indian Point Energy Center) und zusätzlich muss noch viel mehr Onshore-Windenergie in den nördlicheren Gemeinden aufgebaut werden.

Fünf Tage nachdem NYISO seine Stellungnahme eingereicht hat, feuerte Cuomo‘s Energieberater, Richard Kauffman, einen ärgerlichen – und eher bizarren Brief an Brad Jones, den Präsident und CEO der NYISO, indem er die Kommentare des Netzbetreibers als "irreführend, unvollständig und sehr ungenau" bezeichnet. Kauffman unterstellt der NYISO "einen alarmierenden Mangel an Verständnis", wie ein modernes Übertragungsnetzwerk entwickelt und betrieben werden kann."

Offenbar wollte Kauffman eine politische Antwort vom NYISO. Stattdessen bekam er eine technische. Die NYISO Kommentare sind eindeutig. Der Netzbetreiber wies darauf hin, dass etwa 90 Prozent der neuen erneuerbaren Energieerzeugung, die benötigt werden, um Cuomo‘s Ziele zu erreichen, im Norden des Bundesstaates New York errichtet werden müssten.

Durch den Abstand zwischen diesen nördlich gelegenen Erzeugungsquellen und den wichtigsten Bevölkerungszentren in den südlichen und östlichen Teilen des Staates, folgerte die NYISO, dass "fast 1.000 Meilen von neuen Hochleistungsübertragungen" in den nächsten 15 Jahren gebaut werden müssen.

Wahrscheinlich war es das, was Kauffman so verärgert hat, denn Hochspannungs-Übertragungsleitungen sind teuer und schwer zu realisieren. Die Bewohner des ländlichen Raums im ganzen Land haben langwierige Schlachten geführt, um den Bau von Übertragungsleitungen in ihrer Nachbarschaft zu stoppen. Es ist leicht ersichtlich, dass auch die ländlich wohnenden New Yorker solchen Plänen Widerstand entgegensetzen.

Die NYISO machte auch deutlich, dass Cuomo seine Einstellung zur Kernenergie ändern muss. "Die Beibehaltung aller bestehenden Kernkraftwerke ist wesentlich für die Anforderungen des Staates zur Reduktion des Kohlendioxidausstoßes, sowie um die elektrische Zuverlässigkeit des Systems zu gewährleisten".

Seit Jahren hat sich Cuomo für die Schließung von Indian Point eingesetzt, obwohl die 2069-Megawatt-Anlagen ein Viertel des Stroms für New York City liefern. Es scheint nun, dass der Gouverneur die Nachricht verstanden hat.

Etwa zehn Tage nach dem NYISO seine Kommentare veröffentlichte, erklärte die Cuomo Regierung, dass sie bereit wäre, die Kernenergie als Teil des staatlichen Clean Energy Standard aufzunehmen. Das ist wichtig, weil Ende letzten Jahres, Entergy Corporation bekannt gab, dass es plant, sein 838-Megawatt-FitzPatrick Kernkraftwerk in Oswego bis Anfang 2017 zu schließen.

Kommenden Montag [15.08.2016], wird die Kommission der New York Versorgungsunternehmen über den Vorschlag abstimmen, über 1 Milliarde Dollar Zuschuss für die staatlichen Kernkraftwerke zu gewähren, um diese in Betrieb zu halten.

Subventionen für große Versorger sind kaum ein ideales Ergebnis, die Kommission erkennt jedoch die Schwierigkeiten, die die Betreiber haben, um ihre Reaktoren in Betrieb zu halten, vor allem wenn sie gegen hoch subventionierte Quellen wie Wind und Sonne konkurrieren müssen.

Die NYISO stellte auch einige bemerkenswerte Zahlen bereit, über die Höhe der erneuerbaren Energiekapazität, die benötigt wird, um Cuomo‘s 50-Prozent-Ziel zu erreichen. Es projiziert, dass der Staat seine installierte Windenergiekapazität fast verdreifachen muss.

Das bedeutet, dass New York, die jetzt etwa 1.750 Megawatt Winderzeugungs- Nennleistung hat, weitere 3.500 Megawatt Onshore-Windkraftwerke hinzufügen müsste. Das bedeutet, dass rund 450 Quadrat-Meilen [~ 1.165 km², Ldk. Bad Kissingen] Land mit Windkraftanlagen eingedeckt werden müsste, ein Gebiet, fast so groß wie Albany County, das 1.355 Quadrat-Kilometer abdeckt. Wo werden im Bundesstaat New York die Tausende von neuen Windenergieanlagen hingesetzt? Nördlich, natürlich.

Aber eine wachsende Zahl von nördlichen Gemeinden, kämpfen bereits jetzt gegen das Vordringen von Big Wind.

Anfang dieses Monats hat der Gesetzgeber in Jefferson County gegen Steuererleichterungen für Wind- und Solarprojekte gestimmt, weil diese Projekte nicht genügend Vorteile für die lokale Bevölkerung schaffen. Im April führte die Stadt Clayton ein sechsmonatiges Moratorium (später vom Obersten Gericht bestätigt) über die Anträge für neue Windenergieprojekte ein.

Im vergangenen Juli hat der Stadtrat von Catlin einem Gesetz zum Verbot von Windprojekten zugestimmt, nachdem die in Florida ansässige NextEra Energy ein 200-Millionen-Dollar-Projekt nahe der Stadt vorgeschlagen hat. Im Jahr 2014, nach einem jahrzehntelangen Kampf, kündigte der Öl-und-Gas-Riese BP an, dass es auf den Plan verzichtet, ein 200-Megawatt-Windprojekt in der Nähe von Cape Vincent, inmitten heftigen Widerstand von Anwohnern, zu bauen. Im Jahr 2007 verbot auch die Western Catskills Komunne Bovina Windprojekte.

Drei nördliche Grafschaften: Erie, Orleans und Niagara – sowie die Städte von Yates und Somerset kämpfen alle gegen ein vorgesehenes 200-Megawatt-Projekt mit dem Namen Lighthouse Wind.

Vor ein paar Monaten, interviewte ich Yates Supervisor James J. Simon, der mir sagte, dass der Kampf gegen Lighthouse Wind „ist der Versuch, unsere ländliche Kulturlandschaft zu bewahren." Der stellvertretene Dekan am Genesee Community College, Simon war bis jetzt in der Politik nicht aktiv. „Die Haltung der pro-Windkräfte ist -Sie [die Gegner] sind alle kleine Lichter und wir wollen ihnen diese Einstellung in den Hals stopfen."

Nach NYISO, neben Tausenden von neuen Windkraftanlagen zu denen die Bewohner des nördlichen Teils von New York gedrängt werden müssen, müsste der Bundesstaat auch fast 10 Gigawatt neue Photovoltaikanlagen über die nächsten 14 Jahre hinzuzufügen.

Das entspricht etwa der ganzen Photovoltaik-Nennleistung von Spanien und Australien zusammen. NYISO erwartet, dass die Mehrheit dieser neuen Photovoltaikanlagen (6,8 Gigawatt) riesige Landstriche bedeckt, in denen nichts anderes als PV-Module installiert werden. Wo werden diese sich diese massiven PV-Panels befinden? Klar doch – im nördlichen Teil.

Vielleicht war es die Veröffentlichung dieser ins Auge fallenden Zahlen, die Cuomo Energieberater verärgert. In seinem Brief an Jones, behauptete Kauffman, dass die NYISO von den staatlichen Stromversorgern "gefangen gehalten" wird und dass es am Verständnis fehlt, der Notwendigkeit des Klimawandels zu begegnen."

Die Erklärung der Cuomo Regierung zur NYISO ist sowohl inkompetent und als auch korrupt – NYISO ist eine unabhängige, gemeinnützige Einrichtung, deren Hauptauftrag es ist, eine zuverlässige Stromversorgung für 19 Millionen New Yorker zu gewährleisten. Kauffmans Brief, kombiniert mit dem sich abzeichnenden Kampf über Hunderte von Meilen von neuer Hochspannungs-Übertragungsleitungen und tausenden von neuen Windenergieanlagen –  zeigt, dass Cuomo’s Pläne für erneuerbare Energie, einige böse politische Kämpfe einleiten werden.

City Journal

Robert Bryce: Glaubt nicht an grüne Märchen und Zauberstäbe

Gefunden auf StopThesThings am 14.08.2016

Übersetzt durch Andreas Demmig

https://stopthesethings.com/2016/08/14/robert-bryce-new-yorks-wind-power-play-smacks-into-reality/

Ergänzung, aus dem Brief der NYISO: Kommentare zu verschiedenen [technischen] Aspekten 

Tabelle der NYISO, Auswertung der Erfahrungen mit den vorhandenen “Erneuerbaren”

Spalte 2. New Resource : Nennleistung

Spalte 3. Est.Unavailability: „Nicht“-Verfügbarkeit, der Nennleistung

Spalte 4. Add. ICR : Installierte Capazitäts Reserve, [d.h. notwendige, zusätzliche Infrastruktur, erwartete Störungen des Netzbetriebs]

Spalte 5. Est. IRM : erwartete Zuverlässigkeit der Energielieferung in Spitzenlastzeiten [m.e. daher 11% für PV zur Speisung von Klimaanlagen]

Aufgefallen sind mir die 9% für Windkraft. Das halte ich für einen aussagekräftigeren Wert als die üblichen etwa 15% oder mehr für die Jahres-Energieabgabe, bezogen auf die Nennleistung mal Jahresstunden. Denn dabei wird nicht berücksichtigt, das die Windenergie oft auch zu Zeiten kommt, wo sie nicht gebraucht wird, aber z.B. in Deutschland trotzdem bezahlt wird.

Fußnote [14] verweist auf Stromimport aus Kanada.




Die 1.5° C von Paris

«Klima-Schutz» ist schon von der Idee her eine unerhörte Anmassung. Wer sich einbildet, er könne «das Klima schützen», verwechselt dieses mit einer Klima-Anlage oder sich selber mit dem lieben Gott.

Die zentrale Bestimmung des Abkommens von Paris ist allerdings noch eine Dimension absurder als alles, was wir auf diesem Gebiet bis jetzt erlebt haben. In den Medien war zu lesen,  gemäss dem Abkommen von Paris sei der Anstieg der Temperatur auf 2° C zu beschränken, entsprechend einer Vorgabe, die einst vom deutschen Klima-Papst Schellnhuber in Potsdam ausgeheckt worden war, dem bekennenden Agnostiker und neuerdings zugleich wissenschaftlichen Berater des katholischen Papstes zu Rom.

2° höher als wie viel genau?

Denn von der Klima-Konferenz 2016 in Paris wurde beschlossen, der Anstieg der Temperatur dürfe nicht höher als 2° ausfallen, aber noch lieber nicht höher als 1.5° – höher als was?

Nicht höher als 2° über pre-industrial levels – plural!! Das 2°-Ziel ist somit völlig unbestimmt! Es gab in der Geschichte des Planeten ja niemals eine konstante Durchschnitts-Temperatur

Zitat: Artikel 2, «dieses Abkommen, … zielt darauf, die globale Antwort auf die Bedrohung durch den Klimawandel zu stärken….

a) der Anstieg der globalen Durchschnitts-Temperatur ist klar auf weniger als 2°C über den vorindustriellen Werten («levels») zu begrenzen und zugleich sind die Bemühungen zu verfolgen, diesen Temperatur-Anstieg auf 1.5° C zu begrenzen – levels – Plural! Abgesehen vom pathetischen Kauderwelsch im englischen Original ist auch der Inhalt des Textes grotesk.

Während der vorindustriellen Zeit – zwischen dem Urknall und der Erfindung der Dampfmaschine – war allerhand los auf unserem Planeten, mindestens seitdem es diesen gibt. Aber es herrschte keine Sekunde lang eine konstante globale Durchschnitts-Temperatur, und obendrein haben es die Schlawiner in früheren Zeiten glatt versäumt, diese Temperatur korrekt zu ermitteln. Das wäre auch, was unsere Gegenwart betrifft, noch eine Diskussion für sich.

Nun können wir gemäss dem Pariser Text zwischen verschiedenen levels aus der Vergangenheit als Basis eines Norm-Klimas wählen. Zwar wurde die historisch verbürgte mittelalterliche Warm-Zeit inzwischen durch Verfügung des internationalen Klima-Rates abgeschafft. In früheren Berichten war sie noch dokumentiert.  Aber es blieb immer noch die Warm-Zeit der Römer und anderseits auch Eis-Zeiten. Um deren Temperatur-Levels nur knapp zu übertreffen, müsste man die Erde gewaltig herunter kühlen!

Was haben sich die vereinigten Machthaber der Menschheit zwischen den Diners und den langweiligen Debatten mit ihrer bizarren Forderung wohl gedacht?

 Werner Furrer ist diplomierter Mathematiker und lebt in Basel




Rechts überholt und elegant geschnitten: Die Vertreter der „erneuerbaren“ als betrogene Betrüger

Der norwegische Pensionsfonds tut es, die UBS sowie zahlreiche weitere Großbanken, etliche US-Stiftungen und auch die Vermögensverwaltungen zahlreicher Universitäten: Sie ziehen in großem Stil Geld aus „unethischen“ Branchen wie fossilen Rohstoffen ab und stecken dieses lieber in politisch korrekte Technologien im Bereich „erneuerbarer“ Energien. Die entsprechenden Summen stiegen in den letzten Jahren weltweit enorm an, sehr zur Freude der Windbarone und Solarfarmer, die dank großzügiger Fördermaßnahmen der Politik ihre Technologie weltweit absetzen können. Die entsprechende Dachorganisation „REN21“, ein weltweites Netzwerk aus Regierungen, Nongovernmental Organisations (NGO’s) wie Greenpeace und WWF, der entsprechenden Industrie, Akademien und Forschungsinstitutionen sowie internationalen Organisationen, freute sich in ihrem Bericht zum Jahr 2016 [REN21] über einen raschen Anstieg entsprechender Projekte. So lagen die weltweiten Neuinvestitionen in „erneuerbare“ Energien und Brennstoffe im Jahre 2014 bei insgesamt 273 Mrd. $ und stiegen 2015 weiter um knapp 5 % auf 285,9 Mrd. $ an. Besonders hoch waren die Steigerungsraten bei der Stromerzeugung aus Biomasse (+ 8,2 % auf 464 GW), Fotovoltaik (+ 28,2 % auf 227 GW) und Windenergie (+ 17 % auf 433 GW). Wichtigste Länder waren China, die USA, Deutschland und Japan sowie Indien. Eine Aufstellung der Ende 2015 weltweit installierten Kapazitäten zeigt Bild 1.


Bild 1. Weltweit per Ende 2015 installierte Kapazitäten an „erneuerbaren“ Energien zur Stromerzeugung (Grafik: [REN21]) 

Von dem aus Sicht der „Erneuerbaren“ erfolgreichen Abschluss der „Klimaschutzvereinbarung“ COP21 verspricht sich die durch REN21 vertretene Szene eine Fortsetzung und Steigerung des bisherigen Siegeszugs der von ihr favorisierten Technologien. In diesem Zusammenhang werden nicht nur weitere Förderungen, sondern darüber hinaus auch diskriminierende Maßnahmen gegen die missliebige Konkurrenz durch fossil betriebene Stromerzeugungstechnologien gefordert. Besondere Hoffnungen richten sich dabei auf China, das seine entsprechenden Aufwendungen in den letzten Jahren enorm gesteigert hatte und seinen Anteil an den weltweiten Investitionen in diesem Bereich auf mehr als ein Drittel steigerte, Bild 2.

Bild 2. Die Vertreter der „erneuerbaren“ Energien setzen große Hoffnungen auf China, das inzwischen gut 35 % der weltweiten Investitionen auf diesem Gebiet tätigt (Grafik: [REN21])

 

Solar und Wind: Hinterm Horizont geht’s nicht mehr weiter…

In ihrer Euphorie darüber, mit Merkel, Obama und dem Papst die mächtigsten Vertreter der westlichen Welt und dank des COP21-Abommens auch fast alle übrigen Länder auf ihrer Seite zu haben, scheint man bei den Parteigängern der „erneuerbaren“ Energien jedoch versäumt zu haben, die tatsächlichen Entwicklungen im Auge zu behalten. Eigentlich hätte ihnen bei realistischer Betrachtung ihrer eigenen Statistiken auffallen müssen, dass die Entwicklung in diesem Sektor keinesfalls so geradlinig noch oben verläuft, wie man es gerne darstellt. Schaut man sich nämlich den Verlauf der Investitionen in den letzten Jahren genauer an, so fällt auf, dass es hier zwei gegenläufige Trends gibt, die zu einem doppelten Peak in den Jahren 2011 und 2015 geführt haben: Einem Rückgang der EE-Investitionen in den entwickelten Ländern stand eine Steigerung in den sich entwickelnden Ländern, namentlich den sogenannten BRICS-Staaten Brasilien, Indien und China gegenüber, Bild 3.


Bild 3. In den entwickelten Ländern sanken die Investitionen in „erneuerbare“ Energien seit 2011 um 32 %, während sie in den übrigen Ländern gleichzeitig um fast 80 % zunahmen (Grafik: [REN21]) 

Eine erste deutliche Unterbrechung des Aufwärtstrends gab es bereits im Jahre 2009, zumindest teilweise als Folge der weltweiten Wirtschaftskrise, doch hatte sich der Anstieg nach dieser „Delle“ dann noch bis 2011 fortgesetzt. Danach begann in den westlichen Ländern ein Rückgang, der in Europa noch deutlicher ausfiel als in den übrigen entwickelten Ländern: Die Investitionen in derartige Projekte fielen von 122,9 Mrd. $ im Jahre 2011 um mehr als 60 % auf nur noch 48,8 Mrd $ im Jahr 2015, Bild 4

Diesen Rückgang will der Westen im Interesse der eigenen Industriekapazitäten, die man mit gigantischen Fördermaßnahmen künstlich herangezüchtet hatte, natürlich kompensieren. Dazu nutzt man die Tatsache, dass unsere Technologien in der übrigen Welt hoch angesehen sind, um den ärmeren und technisch nicht so fortgeschrittenen Ländern Afrikas, Asiens und Lateinamerikas teure und zugleich ineffiziente „Lösungen“ aufzuschwatzen. Besonders abstoßende Beispiele für derartiges kaltschnäuziges Ausnutzen der Gutgläubigkeit weniger entwickelter Nationen finden sich in Brasilien [BRAS] und Marokko [MAR1, MAR2], wo die Bundesregierung durch direkte Einflussnahme eine besonders unrühmliche Rolle spielte.

In den westlichen Ländern selbst scheint sich dagegen ungeachtet der inzwischen beschlossenen „Klimarettungspolitik“ der Niedergang auch im laufenden Jahr zu verstärken. Australien, Dänemark und inzwischen auch Großbritannien unter seiner neuen Premierministerin May scheinen sich verstärkt von den „Erneuerbaren“ abzuwenden. Selbst aus China gibt es inzwischen Meldungen über eine massive Abkehr von der bis vor kurzem noch stark geförderten Windenergie.


Bild 4. In Europa sind die Investitionen in „erneuerbare“ Energien seit dem Höhepunkt 2011 um mehr als 60 % eingebrochen (Grafik: [REN21])

 

Turbulenzen bei den Unternehmensbilanzen

Von diesen jüngsten Entwicklungen wurden die Hersteller von Wind- und Solaranlagen offensichtlich kalt erwischt, wobei besonders die Solarhersteller betroffen waren. Bereits in den letzten Jahren hatte es bei den deutschen Herstellern eine ganze Serie teils sehr teurer Pleiten, Fast-Pleiten sowie Schließungen ganzer Businesseinheiten gegeben. In

Bild 5. Das Windenergie-„Paradies“ Dänemark ist ein Musterbeispiel für die Unzuverlässigkeit dieser Technologie (Grafik: Rolf Schuster) 

Deutschland hat der einstige Branchenprimus Solarworld, der vor drei Jahren nach einem dramatischen Kapitalschnitt von 95 % für Altaktionäre sowie einem Verzicht der Gläubiger auf 60 % ihrer Forderungen wieder auf einen Aktienkurs von über 53 € geklettert war, nach weiteren Verlusten in den Folgejahren allein seit Beginn dieses Jahres schon wieder fast 50 % seines Börsenwerts verloren.

Bild 6. Dänemark muss wegen der Unzuverlässigkeit seiner „erneuerbaren“ Stromerzeugung knapp 20 % seines Strombedarfs von Nachbarn importieren (Grafik: Rolf Schuster) 

Inzwischen kommen jedoch auch von US-amerikanischen und kanadischen Branchengrößen alarmierende Signale. Schon im April musste SunEdison, einst das am schnellsten wachsende Unternehmen der Branche, vor seinen Gläubigern unter den Schutz von Chapter 11 des amerikanischen Konkursgesetzes flüchten [SUNE] . Danach schien sich die Situation in diesem Marktsegment wieder beruhigt zu haben.

Deshalb schlug am 10. August die Meldung von SunPower, dem zweitgrößte US-Hersteller von Solarpaneelen, über einen zu erwartenden Verlust von 175 Mio. $ im laufenden Jahr statt des bisher erwarteten Gewinns von 50 Mio. $ [SUNP] an den US-Börsen wie eine Bombe ein und riss weitere Solartitel mit sich. Die Aktien des Unternehmens verzeichneten mit bis zu 30 % den höchsten Verlust seit November 2008. Die von dieser Entwicklung schockierten Analysten senkten ihre Einstufungen für SunPower prompt von „buy“ auf „hold“. Die Firma reagierte mit der Ankündigung, ein Werk in den Philippinen zu schließen und 15 Prozent der Belegschaft zu entlassen. Gebeutelt hat es in diesem Zusammenhang auch die Firma Canadian Solar, deren Kurs von über 40 $ auf nur noch knapp über 13 $ absackte, worauf sie von Analysten prompt von „strong buy“ auf „hold“ herabgestuft wurde [CASO].

 

Kernenergie: Russland schaltet den Turbo zu

Während die „erneuerbaren“ Energien, vor allem die Solar- und Windbranche, trotz der massiven Unterstützung durch NGO’s und Regierungen mehr und mehr Gegenwind verspüren, ist die lange geschmähte Kernenergie dabei, sich nach und nach wieder in die Energiemärkte zurückzukämpfen. Obwohl es die Gegner in Japan bisher geschafft haben, die Regierungspläne zum Wiederanfahren vieler der bisher stillgesetzten Reaktoren zu durchkreuzen, gibt es aus anderen Ländern – allen voran Russland und China – Meldungen über erhebliche Fortschritte. In Indien wurde erst vor wenigen Tagen mit Kudankulam I ein von Russland errichteter Reaktor in Betrieb genommen, und auch die mit der Türkei geplante Zusammenarbeit scheint nach den politischen Turbulenzen der letzten Monate wieder anzulaufen.


Bild 7. Während Deutschland seine Kernreaktoren verschrottet, setzt man anderswo voll auf diese Technologie

 

Wirklich aufhorchen lassen jedoch die vor wenigen Tagen in der World Nuclear News bekanntgegebenen Planungen für den weiteren Ausbau der Kernenergie in Russland selbst [WNNE]. Dort will man bis 2030 insgesamt elf neue Kernreaktoren sowie eine Reihe weiterer Installationen wie Endlager errichten. Damit will das Land bei der Umstellung seiner Stromversorgung auf Kernenergie einen großen Schritt nach vorne machen. Das jetzt angekündigte Programm ist eine substantielle Aufstockung des bereits laufenden Neubauprogramms mit Reaktoren in Kaliningrad, Kursk, Leningrad, Nowovoronezh und Rostov sowie des schwimmenden Reaktors Akademik Lomonossow.

Besonders bedeutsam ist bei dieser Meldung, dass zu den Neuankündigungen gleich zwei natriumgekühlte Brüter des Typs BN 1200 gehören. Dieser Typ ist neu, bisher gab es lediglich kleinere Vorgängerversionen mit den Bezeichnungen BN 350, BN 600 und BN 800. Bei der Entwicklung des BN 800 hatte es noch merkliche Verzögerungen gegeben. Deshalb überrascht die jetzige Ankündigung, zeigt sie doch, dass man offensichtlich überzeugt ist, die Technik jetzt im Griff zu haben. Sollte sich dies bewahrheiten, so ist dem Land gleichzeitig der Durchbruch in die kommerzielle Brütertechnologie und in die Reaktorgeneration IV gelungen. Der BN 1200 ist für eine elektrische Leistung von 1.200 MW ausgelegt und soll ein Brutverhältnis von 1,45 erreichen, die Auslegungslebensdauer liegt bei 60 Jahren.

Zum Gesamtvorhaben gehören auch der Bau von insgesamt sieben VVER-TOI-Reaktoren mit erhöhtem Sicherheitsniveau sowie eines VVER-600-Reaktors. Die Bauzeit für Reaktoren dieses Typs soll lediglich drei Jahre und 4 Monate betragen.

Weitere Bestandteile des Projekts sind sechs Endlager für radioaktiven Abfall, eine Fabrik für die Herstellung von hoch angereichertem Uran-Plutonium Brennstoff sowie der Bau eines Schnellen Brüters mit der Typenbezeichnung BREST-OD-300. Dieses Projekt soll einen geschlossenen nuklearen Brennstoffkreislauf sowie die vollständige Nutzung „abgebrannter“ Brennelemente ermöglichen. Mit diesem Programm unterstreicht Russland seine Ambitionen als Anbieter von Nukleartechnologie für den Weltmarkt.

 

Wohin geht die Reise?

Inzwischen zeigt sich immer deutlicher, dass sich bei den „Klimarettern“ eine vollständig neue Entwicklung anbahnt. In  Dänemark, Deutschland, Großbritannien und Spanien lässt sich immer schlechter verbergen, dass die mit ungeheuerlichem finanziellem Aufwand betriebene „Energiewende“ letztlich in eine Sackgasse führt. Gerade in den Kernländern der modernen Maschinenstürmerei beginnt man dies offensichtlich zu begreifen und versucht, sich vorsichtig abzusetzen. Dabei hofft man, dass es gelingen möge, die Wut der getäuschten Bevölkerung so zu kanalisieren, dass es nicht zu allzu heftigen gesellschaftlichen Turbulenzen kommt. Aktuell versucht man Zeit zu schinden, indem man der dritten Welt den Schrott aufschwatzt, den in Europa schon keiner mehr haben will. Allzulange  wird man dies jedoch vermutlich nicht mehr durchziehen können. Desertec ist bereits verdientermaßen im Grab verschwunden. Wer sich mit Solarprojekten wie Ivanpah [IVAN] näher beschäftigt hat, bekommt eine Vorstellung davon, welches Desaster dem solarthermischen Unsinn bevorsteht, den man unter Federführung Deutschlands Marokko sowie anderen nordafrikanischen Staaten aufgeschwatzt hat. Mit der Abkehr Chinas von Wind und Sonne und seiner sich abzeichnenden Hinwendung zur Kernenergie dürfte der Wechsel in den nächsten Jahren immer deutlicher erkennbar werden.

Zeitgleich mit diesen Absatzbewegungen wurden im Bereich der Kernenergie offensichtlich die Weichen auf künftige Expansion gestellt. Nach jahrelangem Rückgang tendieren hier inzwischen auch die Börsenindices wieder nach oben, Bild 8.

 Bild 8. Die Börsenindices von Wertpapieren im Bereich der Kernenergie haben ihren Abwärtstrend überwunden. Seit Anfang 2016 steigen die Kurse langsam wieder an 

Länder wie Indien, China und Russland, welche zusammen fast 40 % der Weltbevölkerung und einen noch größeren Anteil des Weltwirtschaftswachstums repräsentieren, dürften sich in den nächsten Jahren massiv weg von unzuverlässigen „erneuerbaren“ Energien und hin zu verlässlicher Kernenergie orientieren, und ein wachsender Teil der Länder der zweiten und dritten Welt könnte über kurz oder lang folgen. Hierauf hat sich das smarte Geld an den Börsen offensichtlich bereits vorbereitet.

 

Ideologische Trends

Ideologien sind grundsätzlich wandelbar und werden von den jeweils maßgeblichen „Chefdenkern“ dynamisch den Erfordernissen der Situation angepasst. Das gilt selbst für die Kirchen, siehe deren Haltung zu Ungläubigen, Ehe, Frauen oder Schwulen. Im Gefolge der oben aufgezeigten Entwicklungen dürfte es in nächster Zeit auch im Bereich grünlinker Bewegungen zu interessanten Deutungsänderungen kommen. Die aktuelle Verschiebung der ideologischen Hauptstoßrichtung weg von „erneuerbarer Energieerzeugung“ hin zur „Dekarbonisierung“, ja sogar zum bereits angedachten Entzug des Kohlenstoffs aus der Atmosphäre stellt eindeutig eine ideologiekonforme Rechtfertigung für ein Umschwenken auf die CO2-arme Kernenergie dar. Ob Mr. Schellnhuber das jetzt beabsichtigt hat oder nicht, ist letztlich egal: Für die cleveren Macher hinter der Bewegung hat dies den Vorteil, dass man die seit Jahren über IPCC und zahllose Organisationen aufgebauten Schreckensvisionen über die „Gefahren“ des CO2 für das Weltklima unverändert weiter nutzen kann. Nur dass die Weltrettung dann eben von der Kernenergie statt von Wind und Sonne kommen soll. Diese kühl und leidenschaftslos rechnenden Banker und Fondsverwalter werden die Vorteile eines solchen Arrangements schnell erkennen und im Hintergrund die entsprechenden Fäden ziehen. Man wird denjenigen in der „Bewegung“, deren Denkmuster hierfür zu starr sind – beispielsweise ein bekannter Münchner Gemischtwarenladen der Elektroindustrie – gerne die künftig wertlos werdenden Restbestände an Wind- und Solarprojekten aufschwatzen, um das freiwerdende Kapital gewinnbringend in die Filetstücke eines neu aufstrebenden Riesenmarktes zu investieren. Die Hardliner im Fußvolk der „Anti-Atombewegung“ wird man zur Seite schieben, die Fanatiker der Anti-Kohle-Front als nützliche Idioten und willfährige Gehilfen für illegale Aktionen gegen störende Kohlekraftwerke an die Front beordern. So mancher Altgrüne könnte bald in einer durch Kernenergie bestimmten CO2-freien Welt aufwachen, die er sich in seinen schlimmsten Alpträumen nicht hat vorstellen können. Es dürfte noch interessant werden.

Fred F. Mueller

 

Quellen

[BRAS] http://www.gtai.de/GTAI/Content/EN/Meta/Events/Invest/2013/Reviews/Powerhouse/Downloads/presentation-130523-brazil-helmke-giz.pdf?v=2

[CASO] http://www.com-unik.info/canadian-solar-inc-csiq-downgraded-to-hold-at-vetr-inc/

[IVAN] http://www.eike-klima-energie.eu/energie-anzeige/das-groesste-solarkraftwerk-der-welt-hat-sich-soeben-selbst-verbrannt/

[MAR1] http://www.wiwo.de/technologie/green/tech/weltrekord-gigantisches-solarkraftwerk-macht-marokko-zum-sonnenkoenig/13546006.html

[MAR2] http://www.klimaretter.info/energie/nachricht/20447-marokko-plant-noch-ein-mega-solarkraftwerk

[REN21] RENEWABLES 2016 – GLOBAL STATUS REPORT RENEWABLE ENERGY INDICATORS Key Findings

[SUNE] http://www.reuters.com/article/us-sunedison-inc-bankruptcy-idUSKCN0XI1TC

[SUNP] http://www.bloomberg.com/news/articles/2016-08-10/sunpower-guidance-bomb-leaves-crater-among-solar-companies

[WNNE] http://www.world-nuclear-news.org/NP-Russia-to-build-11-new-nuclear-reactors-by-2030-10081602.html




Die vielen Varianten des 2-Grad-Ziels !! Welche ist eigentlich die richtige?

…Und genau deswegen – so kann man mit hoher Sicherheit annehmen, konnten sich die 192 Teilnehmerstaaten in Paris darauf einigen. Doch die Verwirrung ist nicht nur semantisch, sie ist auch physikalisch garantiert, denn um 2 ° Zuwachs zu bestimmen, braucht man – zwangsläufig, jedenfalls in Technik und Naturwissenschaften- einen gesicherten weil akzeptierten Basiswert. Doch den gibt es nicht, ebensowenig wie ein echtes 2 °Ziel.

Und das in einer Disziplin, bei der es auf 1/100 und 1/10 Grad ankommen soll. Wo jedes Jahr, das um diese Differenz höher ausfällt, ais „heissestes Jahr“ medial gehypt wird.

Und – ebenso merkwürdig konfus- auf welchen Zeitraum bezieht sich dieser Anstieg? Auf die „vorindustrielle Zeit“? Und wenn ja, wann beginnt die? Um 1750 oder erst um 1850? Wenn es das Jahr 1750 ist, wie hoch war dort der Referenzwert? Es gab ja keine Thermometer zum Messen. Oder ist es das Jahr 1850 (wie SPON A. Bojanowski behauptet). Wenn ja, wie hoch war dann der Referenzwert? Es gab ja immer noch kaum Thermometer zum Messen, und auch die waren nicht auf 1/10 ° genau.

Lesen Sie was das Team vom Klimamanifest von Heiligenroth dazu heraugefunden hat.

Klimamanifest von Heiligenroth

Update 01.12.2017: nun 27 (!) „Zwei-Grad-Ziele“

Am 17.08.2016 hatte SPIEGEL ONLINE und der hinreichend bekannte und einschlägige Journalist Axel Bojanowski die Behauptung übernommen, dass angeblich der Juli 2016 der wärmste Juli seit Beginn der Messungen gewesen sei. Wir wollen diese bekannte Klima-Alarmdauerschleife der deutschen Mainstream-Medien gar nicht weiter kommentieren, allerdings ein Zitat. Denn in diesem SPON-Artikel tauchte die folgende interessante Bemerkung auf, rot von uns unterstrichen:

SPIEGELOnline_20160817_Bojanowski_SpiegelWissen_2GradZielQuelle: SPON am 17.08.2016

Die Zeit um 1850 gilt auf Basiswert für die Begrenzung der Klimaerwärmung auf zwei Grad.

Als wir diesen Satz gelesen haben, haben wir sofort Axel Bojanowski angetwittert und ihn gebeten, er solle uns doch bitte die Quelle für seine obige „steile These“ nennen:

Eine Antwort erhielten wir von SPIEGEL_WISSEN und von Axel Bojanowski bis heute nicht. Denn es dürfte für den SPIEGEL auch schwierig werden, diese Behauptung über das 2-Grad-Ziel zu verifizieren. Wir listen Ihnen nämlich nachfolgend mal die wichtigsten verschiedenen Varianten an visualisierten 2-Grad-Zielen auf, die wir in den letzten Wochen und Monaten recherchiert haben, ohne Kommentar, nur mit Hinweis auf Quellen. Achten Sie aber bei der Sichtung der Grafiken auf drei (3) Fragestellungen:

  1. Wo liegt das 2-Grad-Ziel? Auf der 2-Grad-Temperaturmarke oder unterhalb der 2-Grad-Temperaturmarke?
  2. Welcher Referenz-Zeitraum wird als Basisgrundlage für das 2-Grad-Ziel angegeben?
  3. Wird ein absoluter globaler Temperaturwert ausgewiesen?

Und stellen Sie sich auch unbedingt selbst diese grundlegende Frage…
… wenn Sie sich nun nachfolgend die einzelnen Varianten des mehr als merkwürdigen „2-Grad-Zieles“ anschauen:

Variante 1:
MPI-met, Hamburg, seit ca. Februar 2012 bis heute

MPI_met_DKRZ_Boettinger_2GradZielQuelle Quelle2 Video (Hinweis: ohne Ton)

Variante 2:
TAGESSCHAU.DE vom 02.12.2015 (2009) bis heute

TAGESSCHAU_DE_20151202_2GradZiel_MeinshausenQuelle (auf TAGESSCHAU.DE nur abrufbar bis 01.12.2016)
Quelle (durch Wayback-Machine am 05.12.2015 archiviert)

Variante 3:
WBGU-Sondergutachten „Der Budgetansatz“, seit 2009

WBGU_2009_2GradZielQuelle Seite 10 (.pdf-Seite 20)

Variante 4:
Hamburger Bildungsserver, seit 2011 bis heute

2-Grad-Ziel_wiki_Bildungsserver_Hamburg_Stand20160818Quelle Quelle der Grafik

Variante 5:
Scepticalscience.com, seit November 2015 bis heute

SkepticalScience_201511031_2GradZiel_2c-2015-10Quelle Quelle der Grafik

Variante 6:
Stefan Rahmstorfs Scilogs-Blog seit 14.12.2015

Klimalounge_20151214_Rahmstorf_2GradZiel_Meinshausen_Paris-agreement_2Quelle Quelle der Grafik Fig. TS.15 aus IPCC 2013, WGI

Variante 7:
„Der Klimawandel“, Rahmstorf/Schellnhuber, seit 2006/2007,
S. 49

Schellnhuber_Rahmstorf_2006_DerKlimawandel_S49_EU_2GradZielQuelle .html Quelle .pdf Seite 49

Variante 8:
„Der Klimawandel“, Rahmstorf/Schellnhuber, seit 2006/2007,
S. 49
(ergänzt mit globalen Absolut-Temperaturen und farbigen Linien auf Basis von IPCC 2007 durch www.klimamanifest.ch)

Schellnhuber_Rahmstorf_2006_DerKlimawandel_S49_EU_2GradZiel_mitMark2Original Quelle .html Quelle .pdf Seite 49

Variante 9:
„Der UN-Klimareport 2007“, Müller/Fuentes/Kohl, 2007, Schellnhuber/Levermann, Seite 183

DerUN_Weltklimareport_2007_MuellerMichael_Schellnhuber_Levermann_2GradZIel_S183_Abb8Video (Hinweis: ohne Ton)

Variante 10:
„Der Klimawandel“, Rahmstorf/Schellnhuber, seit 3/2012, S. 49

DerKlimawandel_2012_auflage7_Schellnhuber_Rahmstorf_Seite49_Abb2_6Video (Hinweis: ohne Ton)

Variante 11:
William D. Nordhaus, 06.01.1977

Nordhaus_1977_2GradZiel_grafikQuelle Vortrag von Reto Knutti am 04.11.2015, ETH Zürich

Variante 12:
IPCC-Bericht 2013, Arbeitsgruppe II, Zusammenfassung für politische Entscheidungsträger (deutsch), Seite 13

IPCC_2013_2GradZiel_SPMQuelle Seite 13 .pdf-Seite 19

Variante 13:
Hans J. Schellnhuber: „Selbstverbrennung“, 2015,
ca. Seite 352, Plastik-Seite

2Grad_Ziel_Schellnhuber_Selbstverbrennungergänzender Quellennachweis in Vorbereitung

Variante 14:
eigene Grafik auf Grundlage absoluter globaler Temperaturwerte

17Grad_GlobaleErderwaermung_Maximal

Variante 15:
Broschüre DBU, DENA, ca. aus: 2008/2009

dbu_2GradZiel_17Grad_15GradQuellendatei .pdf

Variante 16
PROCLIM, BAFU (Schweiz), 2009

proclim_globtemp01_2GradZielQuelle .html Quelle .pdf Seite 2 .pdf

Variante 17
DAS ERSTE „TAGESSCHAU“ am 03.09.2016

vlcsnap-Screenshot2016-09-04-09h32m44s622„TAGESSCHAU“ am 03.09.2016, ab Minute 7:32 (Video)

Variante 18
ZDF-tivi, „KIKA“, „logo!“ vom 06.03.2016

Zdf_tivi_2GradZiel_20160907_logoQuelle mit Video

Variante 19
WWF/DKK/ONCAMPUSFHL (Fachhochschule Lübeck) vom 23.08.2016, Prof. Dr. Hermann Held (Universität Hamburg)

klimamooc_20161009_2gradziel_taeuschung_ipcc
Screenshot vom 09.10.2016 aus KlimaMooc-Video. Die roten Pfeile und Rot-Unterstreichung wurden durch www.klimamanifest.ch zur Verdeutlichung hinzugefügt.

Video bei Minute 2:58 Blogtext mit weiteren Infos

Variante 20
WBGU Sondergutachten 1995
WBGU-Gutachten aus 1995 (.pdf) Webseite zum WBGU

Variante 21
Sven Plöger, der einfach nur aus dem WBGU Sondergutachten 1995 abgeschrieben zu haben scheint (vergleiche „Variante 20“).

aus: Greenfacts, 2013/1, Ausgabe März 2013

Link zum GREENFACTS-Heftarchiv

Variante 22
Nicholas Stern „Der Global Deal“, 2009, Seite 56 und 57

Variante 23
Thomas Stocker mit „Klimaziel G8“ im Jahr 2009 in „NZZ- Standpunkte“-Sendung am 13.09.2009

Screenshot aus SRF „NZZ-STANDPUNKTE“ Talksendung vom 13.09.2009.

Youtube-Video mit Grafik bei Minute 23:37

Variante 24
Vortrag von Thomas Stocker am 03.11.2014 in Bern:

Screenshot aus IPCC-Youtube-Video vom Stocker-Vortrag am 03.11.2014

IPCC Youtube-Video mit Grafik bei Minute 6:12 Info-Webseite

Variante 25
Vortrag von Hans Joachim Schellnhuber am 08.12.2016 in Berlin in Rahmen von „25 Jahre DBU“

Screenshot aus Video über Schellnhuber-Vortrag vom 08.12.2016 zum 25-jährigen Bestehen der DBU

Video mit PP-Folien Original-Video (ohne PP-Folien, ab Minute 17:36)

Variante 26
Vortrag von Hans Joachim Schellnhuber am 08.12.2016 in Berlin in Rahmen von „25 Jahre DBU“

Video mit PP-Folien Original-Video (ohne PP-Folien, ab Minute 17:36)

Variante 27
Screenshot einer ZDF-Webseite am 17.11.2017 zu einem TV-Bericht von „FRAG-DEN-LESCH“ vom 06.11.2017:
Website ZDF (Link eingestellt am 01.12.2017)
ARCHIVIERT am 01.12.2017

Diese Liste wird laufend ergänzt, wenn wir neue Varianten eines 2-Grad-Zieles entdecken.

Die gesamte Dubiosität der verschiedenen 2-Grad-Ziele, die in der Öffentlichkeit kursieren, ist in dem folgenden Video-Themenabschnitt #09 (ab Minute 0:20), Länge ca. 49 Minuten im Detail dargestellt worden:

(Auf Screenshot klicken, um zu #09 im Video zu gelangen):
Vaduz_Stocker_#09
In dem 49-minütigen Videoabschnitt werden auch die Unterschiede der oben ursprünglich aufgelisteten 16 verschiedenen Varianten der einzelnen 2-Grad-Ziel-Grafiken im Detail kritisch analysiert und im Detail erklärt.

Sie haben aber bereits bei Sichtung der obigen 27 Varianten feststellen können, dass nicht eine einzige Grafik die Behauptung von SPIEGEL ONLINE vom 17.08.2016 belegt.

Und jeder sollte sich mal fragen, welches der oben aufgelisteten 2-Grad-Ziel-Varianten denn nun letztendlich das massgebliche, korrekte und richtige 2-Grad-Ziel ist, auf dessen Einhaltung die weltweite Klima-Politik ja so grossen Wert legt??

WDR_Quarks_Zitate_Flasbarth_yogeshwar_20151124

Erstveröffentlichung am 19.08.2016, 07Uhr00
Letztmalig optimiert/ergänzt am 01.12.2017, 15Uhr43

***




Bereiten sich Gemeinden schon auf künftige Black-Outs im Stromnetz vor?

Eine Lokalausgabe der Nordbayerischen Nachrichten brachte am 1. August unter „Kurz Berichtet“ eine Meldung (Hervorhebungen durch den Autor):

Zeitung: Stromaggregat für alle Fälle: Die Gemeinde Wilhermsdorf hat sich für 64.000 EUR ein neues Stromaggregat von 80 Kilowatt Anschlussleistung angeschafft. Der Bürgermeister begründete diese Anschaffung „Damit soll ein sogenanntes Lastmanagement möglich sein: Gibt es im Stromnetz zu wenig Leistung, so lasse sich die in Zukunft zuführen“. Er erwähnte auch zusätzliche Nutzungen, zum Beispiel, dass das Stromaggregat noch „im Katastrophenfall nutzbar“ sei und für Veranstaltungen im Freien Strom produzieren könnte.

Als interessierter Bürger hat der Autor natürlich sofort nachgefragt, warum eine Gemeinde ein nicht ganz billiges Notstromaggregat für Lastmanagementzwecke beschafft. Der Bürgermeister, welcher die wichtige Information doch höchst selbst in die Zeitung brachte und dieser erklärte, fand ein solches Interesse eines „beliebigen“ Bürgers jedoch äußert ungehörig und antwortete:

Markt Wilhermsdorf, 1. Bürgermeister: Warum sollen wir eine Anschaffung, die in der Gemeinde Wilhermsdorf getätigt wird rechtfertigen und erläutern? Welchen Bezug hat Ihr Interesse gegenüber der Gemeinde Wilhermsdorf?

Da der Autor dem Bürgermeister den „Bezug seines Interesses gegenüber der Gemeinde Wilhermsdorf“ nicht mehr darlegen wollte, ist es leider nicht möglich, Genaueres zu berichten und gezwungen etwas zu fabulieren.

-Die Marktgemeinde verkündet nach eigener HomepageIm Landkreis Fürth ist die Gemeinde Spitzenreiter, was die Gewinnung umweltfreundlicher Enenergie betrifft“. Anm.: Die „Enenergie“ ist dort so geschrieben. Das soll sicher auf deren besondere Bedeutung hinweisen. Vielleicht legt man deshalb Wert auf ein gutes Notstrom-Aggregat.

-Die Anschlussleistung reicht nicht aus, um zwei E-Autos „Reichweitenangst-frei“ zu laden, leider dann wohl auch noch mit Öl oder vielleicht doch Biodiesel. Dafür ist es also nicht verwendbar.

-Allerdings lassen sich an der Gemeindegrenze wegen Strommangel liegen gebliebene E-Autos schon schnell so weit laden, dass diese die heimische Garage oder kostenlose E-Tankstelle des Marktes erreichen können – eine ganz bestimmt zukunftsweisende und immer häufiger benötigte Verwendung. Damit wäre der Markt bei der Unterstützung seiner Bürger ganz vorne dran.

-Der Markt Wilhermsdorf hat 5.000 Einwohner. Das Aggregat kann damit jedem Einwohner eine Leistung von 16 Watt „zuführen“. Gut, mit 16 Watt lässt sich mittels LED-Lampen ganz schön viel Licht erzeugen.

-Sollte die Gemeinde daran denken, damit am Regelenergiemarkt durch Lastmanagement teil zu nehmen, würde es das EEG aufgrund der Verwendung von Öl karikieren (außer es wird reiner Biodisel – der inzwischen aber auch nicht mehr unumstritten ist verwendet). Lohnen dürfte es sich sowieso nicht.

-Bleibt nur noch eine heimliche Anordnung der Bayerischen Landesregierung, für Stromnot und Unterstützung zunehmend unstabiler Netze durch Lastmanagement selbst vorzusorgen.

-Oder die Begründung war einfach vorgeschoben, weil die wirklichen Verwendungen sonst nicht genehmigt worden wären.




Eine kleine Sensation, von der Presse unbemerkt: Sonnenaktivität erreichte im späten 20. Jahrhundert nun doch Maximalwerte

Abbildung 1: Vergleich der Entwicklung von globaler Temperatur, CO2 und Sonnenaktivität. Aus Wikipedia. Quelle: Leland McInnes at the English language Wikipedia [GFDL (http://www.gnu.org/copyleft/fdl.html) or CC-BY-SA-3.0 (http://creativecommons.org/licenses/by-sa/3.0/)], via Wikimedia Commons

Das Problem: Die Sonnenaktivität wird mittlerweile gar nicht mehr allein an den wackeligen Sonnenflecken festgemacht. Das oben dargestellte Diagramm ist ein Update von 2014, das offenbar von einem User mit dem wenig vertrauenserweckenden Namen “Kopiersperre” zur Verfügung gestellt wurde. Die aktualisierten Verlaufskurven der Sonnenaktivität gibt es bei der Österreichischen Zentralanstalt für Meteorologie und Geodynamik (ZAMG) sowie der Forschergruppe PAGES:

Abbildung 2: Schwankungen des solaren Klimaantriebes in Jahrtausenden, Jahrhunderten und Jahrzehnten. Oben: Im 20. Jahrhundert war die stärkste Sonnenaktivität seit 11.000 Jahren (hier 7.000 Jahre) zu verzeichnen. Mitte: Dem starken Antrieb des Hochmittelalters und dem geringeren in den Jahrhunderten danach folgte der ungewöhnliche Anstieg zum aktuellen Niveau. Unten: Erst im kurzfristigen Maßstab tritt der elfjährige Zyklus deutlich hervor (Fröhlich 2000 aktual., Wagner u.a. 2007). Abbildungs-Quelle: ZAMG

Abbildung 3: Sonnenaktivität während der vergangenen 400 Jahre.Weiße Kurve gibt die Total Solar Irradiance (TSI) an, die gelbe Kurve repräsentieren die Sonnenflecken. Abbildungsquelle: PAGES.

Die starken Veränderungen im Verständnis der Sonnenaktivität haben Matthes & Funke Ende 2015 bereits in einem Konferenzbeitrag auf Seite 9 dargestellt (alte Kurve SATIRE-TS in rot):

Abbildung 4: Neue und alte Kurven zur Sonnenaktivität während der vergangenen 165 Jahre. Quelle: Seite 9 in Matthes & Funke 2015.

Aber es kommt noch besser. Die Sonne erzielte am Ende des 20. Jahrhundert nicht nur ihre Maximum der letzten Jahrhunderte, sondern war offenbar so stark wie nie zuvor in den vergangenen 10.000 Jahren. Matthes et al. zeigten es in einer aktuellen Publikation von 2016 im Fachblatt Geoscientific Model Development Discussions:

Abbildung 5: Sonnenaktivität während der letzten 10.000 Jahre. Quelle: Abb. 20 in Matthes et al. 2016

Die außergewöhnlich starke Sonnenaktivität in der zweiten Hälfte des 20. Jahrhundert hatte übrigens bereits Sami Solanki vor mehr als 10 Jahren in Nature berichtet. Danach zog er sich jedoch auf mysteriöse Weise aus der Klimadiskussion zurück. Ist dies vielleicht der Grund, weshalb die Sonnenforscher nun nahezu unbemerkt unterhalb des medialen Radars operieren? Die unerwartet starke Sonne wirft unbequeme Fragen auf, denen man gerne ausweicht. Könnte die hohe Sonnenaktivität vielleicht doch irgendetwas mit der starken Erwärmung 1980-2000 zu tun haben?

Auf jeden Fall kann uns nun niemand mehr erzählen, dass Sonnenaktivität und Temperatur divergieren und daher der Zusammenhang widerlegt sei. Die Attribution muss auf jeden Fall neu aufgerollt werden, das ist alternativlos.

Erstmals erschienen auf dem Blog „kaltesonne“ hier: http://www.kaltesonne.de/eine-kleine-sensation-von-der-presse-unbemerkt-sonnenaktivitat-erreichte-im-spaten-20-jahrhundert-doch-maximalwerte/




Großspeicherung in Batterien ist ein Mythos: Kalifornien vernichtet riesige Mengen an Wind- & Sonnenenergie

Bildquelle rechts: StopTheseThings

 Die Art und Weise wie es übermäßig angepriesen wird – durch Lieblinge des Energie und Umweltminister, Josh Frydenberg und Südaustraliens glückloser Labor-Regierung – es ist, als ob ein Einfaltspinsel vergessen hat, netzfähige Stromspeicher rechtzeitig zu bestellen, als Australien seine 3,7 GW Windkraft-Nennleistung errichtete.

Es gibt in der ganzen Welt kein Beispiel für den Betrieb eines großen [Gigawatt] Elektrizitätsspeichers für den Netzbetrieb.

Wo Geographie und Wasserressourcen es erlauben (was die flache und trockene Wüste in Südaustralien ausschließt), können Pumpspeicherkraftwerke als brauchbare aber teure Energiespeicher (nicht Strom) betrieben werden. Dies ist eine Option die in Kalifornien überlegt wird, als Antwort auf seine übermäßige, chaotisch gelieferte Wind- und Solarenergie.

Wenn so etwas wie Batterien zur Massenstromspeicherung geeignet wären, dann wäre Kalifornien der erste Platz in der Welt, an dem man vernünftigerweise damit anfangen würde.

Doch ach, wie überall, wenn die Sonne scheint und der Wind weht, werden Unmengen an Energie vergeudet, weil die wetterabhängige Lieferung keine Rücksicht auf die egoistischen Verengungen hat, welche die menschliche Tätigkeit umgeben: Die Wirtschaft und die Industrie arbeiten von 9:00 bis 17:00; am Wochenende ist geschlossen und nach Einbruch der Dunkelheit lassen sie die Arbeit ausklingen.

Wären die Menschen nur ein bisschen flexibler, dann gäbe es keine Notwendigkeit, die unberechenbar gelieferte Windkraft überhaupt zu speichern.

Jeder der mit Batteriespeicher als Antwort auf die chaotische Lieferung von wetterabhängiger Leistung hausieren geht, erzählt wahrscheinlich nicht die ganze Wahrheit. In dieser Angelegenheit ist das, was Andrew Follett des Daily Caller über Kalifornien zu sagen hat, gleichermaßen zutreffend auf das Debakel in Südaustralien; und der Unsinn, dass das Windkraft Fiasko Problem eine "Plug-and-Play-Lösung schon in der Warteschleife hätte.

Kalifornien verschwendet massiv Wind- und Solarenergie, wegen Mangel an Energiespeicherung

The Daily Caller 

Andrew Follett, 24. Juli 2016

Sonne und Wind zwingen Kaliforniens Netzbetreiber, enorme Mengen an Energie zu verschwenden, um grüne Energie aus dem Netz zu halten, weil es keine Möglichkeit gibt, die Energie zu speichern.

The Wall Street Journal wies darauf hin, der beste Weg, um den Strom aus Wind- und Solarkraft zu speichern, ist immer noch die Jahrhunderte alte Technik, große Mengen an Wasser zu bewegen. Berichte des Versorgungsunternehmen, Kaliforniens unabhängiger System Operator (CAISCO), bestätigt, das Wind- und Solarenergie verschwendet werden, aufgrund mangelnder Speicherkapazität.

Die einzige bekannte Möglichkeit Energie wirtschaftlich zu speichern, ist eine riesige Anlage zu bauen, die Wasser bergauf pumpt und dann durch die Schwerkraft das Wasser bergab durch Turbinen laufen zu lassen, um zusätzlichen Strom zu erzeugen, wenn nötig. Derzeit hat Amerika hat etwa 1 / 1500stel der Energiespeicherkapazität, die nötig wäre, "100 Prozent grüne Energie" aus Sonne und Wind bereitzustellen, nach einer Analyse der offiziellen Daten der Regierung.

Akademische Berechnungen zeigen, dass für die Menge an Energie einer einzigen US-Gallone Benzin [~ 3,8L], Pumpspeichereinheiten 13 Tonnen Wasser rd. 1.000 Meter hoch heben müssen. Um für Kalifornien Strom für einen einzigen Tag zu speichern, würden rund 2.500 Pumpspeicher benötigt, von denen jeder so viel Beton erfordern würde, wie in den beiden Talsperren zusammen verbaut wurde: Drei-Schluchten-Talsperre, [China, Provinz Hubei] und Grand Coulee Talsperre [US Bundesstaat Washington].

Dieser Mangel an Speicherkapazität und ernsthafte Schwierigkeiten noch mehr davon zu bauen, ist einer der Gründe, warum Solar- und Windenergie nur 0,6 % bzw. 4,7 % des Stroms in Amerika liefern, nach Zahlen der EIA [US-Energiebehörde].

Ohne groß ausgelegte Energiespeicherung, muss das Stromnetz genau die Energie bereitstellen, die dem Verbrauch entspricht, oder Blackouts oder Energiemangel treten auf, wenn zu viel oder zu wenig Strom erzeugt wird. Aus diesem Grund zahlen Energieversorger zeitweise noch Geld an Abnehmer, damit sie Energie [Strom] abnehmen. Deutschland bezahlte 548 Mio. Dollar im vergangenen Jahr an Windparks für Stromabschaltungen, um Netzprobleme zu vermeiden. Kalifornien wurde durch Blackouts bereits bedroht und Netzbetreiber erwarten, dass dieses auch in diesem Sommer wieder eintritt.

Grüne Energie birgt auch die Gefahr, nicht genügend Strom an einem besonders trüben oder windstillen Tag zu produzieren und neigt dazu, Energie zu Zeiten zu erzeugen, wenn der Strom nicht benötigt wird; der Spitzenenergiebedarf liegt in den Abendstunden, wenn Solarstrom offline geht.
The Daily Caller

 

Sieht aus, wir kommen wieder zu spät zur Arbeit …

Bildquelle: Stopthesethings 

Erschienen auf StopTheseThings am 08.08.2016

Übersetzt durch Andreas Demmig

https://stopthesethings.com/2016/08/08/bulk-battery-storage-of-wind-power-a-myth-with-no-storage-california-dumps-mountains-of-wind-solar-power/

Hinweis:

Im obigen Text ist auch dieser Link angegeben

http://physics.ucsd.edu/do-the-math/2011/11/pump-up-the-storage/

Das Ganze sieht interessant aus, auch die vorher / nachher kommenden Themen.

– Ich habe allerdings keine Zeit gehabt, das mal nachzurechnen.

A.  Demmig




Teil II: Vom Wissenschaftlichen Dienst veröffentlichte Klimainformation für Abgeordnete Rezension: Teil 2

Kapitel: Anzahl der Eistage

Gezeigt wird in der Klimainformation Bild 21.

(Aus der Klimainformation) Bild 21 [1] Bildtext: An der Graphik lässt sich seit 1950 eine Tendenz zur Abnahme der Anzahl der Eistage pro Jahr ablesen. Jedoch ist die Abnahme der mittleren Anzahl der Eistage von ca. 27 Tagen pro Jahr auf aktuell etwa 21 Tage pro Jahr nicht statistisch nachweisbar.

Eine Analyse erspart sich der Autor, bis auf die Anmerkung, dass es bei der enormen Streuung praktisch nicht möglich ist, einen wahren Trend zu ermitteln, schon gar nicht über die letzten 20 Jahre. In diesen 20 Jahren war der Stand jedenfalls nicht anders als zwischen 1950 bis 1975. Entsprechend steht auch als Erklärungstext, dass keine statistisch belegbare Tendenz vorliegt.

Man muss sich das einmal klar machen. Selbst 50 Jahre reichen nicht aus, um einen Klimawandel-Einfluss belegen zu können. Aber Minister wissen, dass dieser in Deutschland „… schneller voran schreitet, als bisher angenommen“ [22].

Kapitel: Veränderung von Trockenperioden im meteorologischen Sommer

Gezeigt wird in der Klimainformation Bild 19.

(Aus der Klimainformation) Bild 22 [1] Bildtext: … Aus diesem Grund und wegen der hohen Schwankungen von Jahr zu Jahr sowie ausgeprägter natürlicher Schwankungen können keine statistisch gesicherten Aussagen getroffen werden.

Sichtung: Veränderung von Trockenperioden im meteorologischen Sommer

Nicht einmal die Trockenheit lässt einen belegbaren Einfluss eines Klimawandels erkennen, wie die Grafik (Bild 22) zeigt.

Ergänzende Information zu Trockenperioden

Nun kann man sagen, der Extremsommer 2015 fehlt und deshalb ist die Darstellung (Bild 22) „verzerrt“ (was aber der Wissenschaftliche Dienst zu vertreten hätte). Deshalb dazu ein aktuelles Bild aus dem Hitze- und Trockenheits-gebeuteltem Süden (Bild 23). Selbst das extrem-Trockenjahr 2015 war im Vergleich in Bayern bei weitem nicht das Schlimmste. Und vor allem lässt sich außer starken Schwankungen kein langfristiger Trend zu mehr Trockenheit ableiten.

Bild 23 [8] Niederschlag in Bayern von 1951 bis 2015

Ergänzend eine Darstellung der Niederschläge Messtelle Stadt Worms. Auch hier starke Streuungen, aber definitiv kein Trend oder Hinweis auf neue Extreme. Wie in Bayern war auch dort das Trockenjahr 2015 kein neuer Extremwert. Für Karlsruhe zeigt sich ein ähnliches Bild. Die Extreme waren alle vor dem „schlimmen“ Klimawandel.

Bild 24 Niederschlag Stadt Worms von 1983 – 2015. Quelle: Stadt Worms 2016: Konzept zur Anpassung an den Klimawandel

Bild 25 Niederschlag Stadt Karlsruhe von 1976 – 2006. Quelle: DWD

Kapitel: Hochwasser

Und wieder eine Kopie aus dem UBA Monitoringbericht.

Klimainformation Bild 26 [1] Bildtext (Auszug): Obwohl es im Betrachtungszeitraum mehrfach großflächige Hochwasserereignisse gegeben hat, ist kein signifikanter Trend abzulesen.

Sichtung und ergänzende Information zum Kapitel: Hochwasser

Die in der Klimainformation gezeigte Grafik zeigt eigentlich schon alles: Keine Zunahme von Hochwasser!

Und gerade Hochwasser sind ein ganz schlechtes Beispiel, um einen Klimawandel belegen zu wollen. Denn wie jeder Interessierte weiss, waren Hochwasserereignisse nur in der angeblich „goldenen, vor-CO2-Zeit“ wirklich extrem[11]. Was Deutschland derzeit erlebt, ist dagegen praktisch „vernachlässigbar“. Und die aktuellen Hochwasser zum letzten Mai / Juni-Übergang waren niemals dem Klimawandel geschuldet, wie einmal Bild 13 (Teil 1) anhand der niedrigen Temperaturen zeigt und vor allem die Ursachenanalysen [13][14]:

Es stimmt eben nicht so einfach: Mehr Hitze = mehr Feuchte = mehr Niederschlag. Dann müsste es in der Sahara dauernd regnen.

Bild 27[11] Hochwassermarken des Mains bei Würzburg seit dem Mittelalter bis 2013

Bild 28 [11] Hochwasserpegel Köln 1784 – 2013 lt. Daten der Stadtentwässerungsbetriebe Köln AöR (Grafik vom Autor erstellt). Y-Achse: Rheinpegel (m)

Klar, dass die Grünen auf solche Fakten keine Rücksicht nehmen [13], man braucht ja nur auf „Experten“ verweisen.

Bündnis 90 / Die Grünen: Hochwasserschutz und Ursachenbekämpfung

… Die Experten sind sich darüber einig, dass die aktuellen Wetterphänomene in großen Teilen auf die Klimaüberhitzung zurückzuführen sind. Deshalb sind Maßnahmen zur Begrenzung der Klimaüberhitzung die wichtigste politische Konsequenz.„Wir müssen die Klimaüberhitzung stoppen und den CO2-Ausstoß massiv reduzieren… „

Fazit zum Kapitel Hochwasser

Warum steht in der Klimainformation „Obwohl es im Betrachtungszeitraum mehrfach großflächige Hochwasserereignisse gegeben hat, ist kein signifikanter Trend abzulesen“ und nicht richtiger: Die letzten 20 Jahre gab es keine Erhöhung Klimawandel-zuordenbarer Hochwasser und im langfristigen Vergleich liegen die Hochwasserpegel von wenigen Ausnahmen abgesehen an den untersten, je gemessenen Werten.

Kapitel: Sturmfluten

Wieder nur ein Bild aus dem UBA Monitoringbericht.

(Aus der Klimainformation) Bild 29 [1] Bildtext (Auszug): Anhand der ausgewerteten Pegel lässt sich weder für die Nordsee- noch für die Ostseeküste ein eindeutiger Trend ablesen.

Sichtung Kapitel: Sturmfluten

Der Bildtext (Bild 29) umschreibt statistisch verbrämt, was man nicht sagen will oder darf: Der Küstenpegel an Deutschlands Küsten hat sich seit 1981 nicht im Geringsten erhöht. Und selbstverständlich zeigt das Bild einen eindeutigen, signifikanten Trend: Eine horizontale Gerade.

Dass dort zur Grafik (Bild 29) weiter steht:

[25] Aus der Darstellung auf Basis gleitender 10-Jahresmittelwerte sind extreme Einzelereignisse nicht abzulesen. …
Über die gesamte Zeitreihe betrachtet lässt sich für die ausgewählten Pegel bisher kein Trend ableiten.

… wurde für die Abgeordneten als Information nicht mehr übernommen. Und dass im blauen Feld steht: „ … Obwohl der Meeresspiegel gestiegen ist, hat das bisher keine statistisch nachweisbare Auswirkung auf die Intensität von Sturmfluten“ muss jeder Abgeordnete dort selbst nachlesen.

Ergänzende Information zum Thema Sturmfluten

Anbei die Flutmarken von Norderney, aus einem Pegelfoto (und Zusatzangaben) umgesetzt. Es ist kein steigender Klima-Trend vorhanden. Gleiches gilt für die Sturmflut-Häufigkeit.

Bild 30 Sturmflut-Pegelmarken von Norderney 1954 – 2006 / 2015. Vom Autor anhand der Daten des Pegelfotos umgesetzt. Die Daten zum Jahr 2013 / 2015 stammen von der Pensions-Homepage, Haus Seeadler (Norderney)

Bild 31 Sturmfluthäufigkeit am Pegel Norderney

Und dazu die Information des Niedersächsischen Ministeriums für Umwelt Energie und Klimaschutz, Rubrik: Gezeiten, Strömung und Seegang

Der derzeitige Anstieg des mittleren Tidehochwassers (Mittelwert der Hochwasserstände der Tiden in einem Zeitraum) an der niedersächsischen Küste beträgt etwa 25 Zentimeter in 100 Jahren (Abb. 2). Eine Beschleunigung dieses Anstiegs, wie sie bedingt durch die Klimaänderungen (siehe Kapitel 1.1.1.2) zum Teil erwartet wird, lässt sich aus den vorliegenden Pegelbeobachtungen über die letzten 120 Jahre derzeit nicht ableiten. Ebenso wenig kann zurzeit anhand der erfassten Wasserstände an den Pegeln der Nordseeküste eine Zunahme der Sturmfluten (Abb. 3) durch Klimaänderungen belegt werden (Abb. 4).

Den Grünen ist auch das bisher noch nicht aufgefallen, bzw. sie haben noch nie nachgesehen, wie die wahre Natur und ihre Ideologie auseinander driften und es gar keine „Häufigere und intensivere Hochwasserereignisse“ gibt. Wenn es die wahre Natur nicht „hergibt“, kann man es „bei Grün“ trotzdem als Märchen erzählen:

Bundestagsfraktion von Bündnis 90 / Die Grünen 2015[15]

Aber man soll nicht immer nur auf die Grünen einschlagen. Die Umweltminister(-innen) der Regierungsparteien sind keine Spur besser [14].

Auf der Regierungshomepage steht im Kapitel: Kampf gegen Erderwärmung

Stand 26. Februar 2015: Dauerregen und Sturmfluten nehmen zu

Als Beleg wird die Information der Versicherungswirtschaft angezogen: Der Gesamtverband der Deutschen Versicherungswirtschaft warnt schon länger vor einer Häufung von Wetterkatastrophen in den nächsten Jahrzehnten.

In der ehemaligen DDR dürfte die Informationswahrheit nicht weit weg von der unserer aktuellen Regierung gelegen haben.

Und wie damals gilt, was oben verkündet wird, hat unten Wahrheit zu sein:

Kapitel: Kampf gegen Erderwärmung: Bundeskanzlerin Angela Merkel bezeichnete das Eindämmen des Klimawandels als gesamtgesellschaftlich zentrale Herausforderung“.

Kapitel: Aktuelle Abweichungen von den Normalwerten 1961-1990 und mögliche Szenarien des zukünftigen Klimas in Deutschland im Deutschen Klimaatlas

Gezeigt werden in Folge fast nur noch Bilder aus der Vulnerabilitätsstudie. In diesem Kapitel werden wegen der vielen verschiedenen Teilthemen Listung und Sichtung nebeneinander durchgeführt.

Teil: Heiße Tage und Eistage

(Aus der Klimainformation) Bild 32 [1] Bildtext (Auszug): Es ist vor allem ab Beginn der 1980er Jahre eine signifikante Erhöhung der Anzahl der heißen Tage bis zum Jahr 2015 ablesbar. Die Klimasimulation im rechten Teil der Abbildung lässt für die Zukunft einen weiteren sehr starken Temperaturanstieg erwarten.

Anmerkung des Autors: Alle Temperaturkurven zeigen, dass Mittelwert und Extremwerte überhaupt nicht miteinander korrelieren (siehe dazu auch Bild 10 und 11 im Teil 1). In „Das Phänomen der „Temperaturstufen“ [12] wurde es gezeigt. Es ist deshalb einfach vermessen (und in einem vorhergehenden Kapitel bereits ausgeführt), aus dem kurzen, stark schwankenden Verlauf „der Anzahl heißer Tage“ einen „weiteren, sehr starken Temperaturanstieg“ abzuleiten.

(Aus der Klimainformation) Bild 33 [1] Bildtext: Es ist eine seit 1951 abnehmende Anzahl der Eistage bis zum Jahr 2015 ablesbar. Die Klimasimulation im rechten Teil der Abbildung lässt für die Zukunft eine weitere deutliche Abnahme der Anzahl von Eistagen erwarten.

Anscheinend hat der Wissenschaftliche Dienst es nun aufgegeben, nach einem Klimawandeleinfluss zu suchen. In dem Fall hilft immer die Simulation. Und dafür gibt es inzwischen den Vulnerabilitätsatlas Deutschland. Obwohl dieser ein Lehrbeispiel für falsch angewandte Mathematik ist „Rezension: UBA Studie 24/2015 Die Vulnerabilität Deutschlands gegenüber dem Klimawandel“[9], wird er überall angezogen, wenn man die Zukunft belegen will.

Erschreckend ist, dass es überhaupt niemanden stört (auch einen Wissenschaftlichen Dienst nicht), wenn man in den Simulationskurven deutlich sieht, dass bereits die aktuelle Wirklichkeit von den 21 Klimamodellen im Wesentlichen vollkommen falsch abgebildet wird und diese daraus in die Zukunft teils nur noch wirre Oszillationen schreiben. Auch stellt sich immer neu die entscheidende Frage: Welches der 21 Modelle liefert nun das richtige Ergebnis? Mitteln geht nicht, da die Modelle statistisch nicht ausreichend voneinander unabhängig sind. Und mit welchen Daten will man diese kalibrieren? Je genauer man hinschaut, umso deutlicher stellt man fest, dass die Vergangenheit für die Simulation der Zukunft viel zu ungenau messtechnisch erfasst ist.

Fazit: Aufgrund ungenau bekannter Vergangenheiten und grottenschlecht aktuell getroffener Werte genau die Zukunft simulieren zu wollen, kann nicht funktionieren. Den meisten Kurven sieht man das auch direkt an (und viele schlimmere wurden gar nicht erst in die Grafiken übernommen). Siehe dazu auch einen Beitrag auf kaltesonne: „Stimmungsumschwung in Sachen Klimamodelle: Das Vertrauen der Fachwelt schwindet

Gerade beim Bild 33 hat man den Eindruck, dass die Simulationen – welche bereits aktuell drastische Fehlwerte aufweisen – einer (vielleicht unbewussten) Vorgabe folgen. Ist es wirklich wahrscheinlich, dass die künftigen Winter keinen Frost mehr kennen werden?

Es mag sein, dass eine Kurve welche im Jahr 1961 beginnt dies „nahelegt“, obwohl es im Jahr 1975 die wenigsten Eistage gab. Betrachtet man jedoch den langfristigen Verlauf der Wintertemperaturen (Bild 34), erscheint es eher unwahrscheinlich. Bisher fand die Temperatur auch nach wärmeren Abschnitten immer wieder zur Kälte zurück. Was man jedoch deutlich erkennt ist, dass seit in Deutschland fast jeder Zentralheizung hat und im Winter konsequent gegen die Kälte „gegenheizt“ wird (und die Urbanisation großflächig zu nimmt), die Temperatur scheinbar nicht mehr so kalt wird. Das wäre dann aber wieder eher dem Wärmeinseleffekt, als dem CO2 geschuldet.

Bild 34 [4] Wintertemperatur Deutschland von 1750 – 2016. Quelle WIKIPEDIA (Grafik vom Autor aus den Daten erstellt)

Lufttemperatur

(Aus der Klimainformation) Bild 35 [1] Lufttemperaturen Deutschland.
Bildtext: Es ist seit 1881 eine deutliche Erhöhung der Lufttemperatur bis zum Jahr 2015 ablesbar. Die Mitteltemperatur ist in Deutschland seit 1881 um etwa 1,4 °C gestiegen44. Die Klimasimulation im rechten Teil der Abbildung lässt für die Zukunft einen weiteren signifikanten Temperaturanstieg erwarten.

Zeichnet man in das Bild 35 Verlaufslinien, dann sieht man, wie wenig sich die Temperatur linear verhält. Sie verläuft zwar in Trendkanälen, ändert diese aber auch schnell wieder. Bei den Simulationen hat man den Eindruck, dass sie davon nichts „wüssten“. Schon jetzt, wo noch durch „Kalibrierungen“ drastisch in die Simulationsverläufe eingegriffen wird, treffen die meisten Simulationskurven die Temperaturwerte nicht. Jedenfalls bezweifelt der Autor stark, dass die Temperatur wie simuliert nun „ewig“ im aktuell schon nicht mehr gut zutreffenden Trendkanal verbleiben würde.

Bild 36 [1] Lufttemperaturen Deutschland (Bild 35), vom Autor um schwarze und rote Verlaufslinien ergänzt.

Ergänzende Informationen zu Temperatur und Hitze

Im Klimaatlas Deutschland sind aktuelle Daten auch für Bundesländer verfügbar. Deshalb die vom Monat Juli in Bayern (Bild 37). Die Temperatur in diesem angeblich besonders vom Klimawandel betroffenen Bundesland lag im heißen Monat Juli 2016 auf dem Niveau wie vor über 100 Jahren und liegt wieder am Trendkanal der letzten hundert Jahre. Die Simulationen zeigen aktuell eine Spanne von ca. 2,8 Grad und vor allem, dass fast alle Simulationen bereits aktuell schon deutlich bis extrem vom Messwert abweichen, wobei die Spanne ca. das 5-Fache der angeblich zulässigen, restlichen 0,6 Grad Temperaturerhöhung beträgt. Mit dieser extremen Start-Ungenauigkeit trotz Kalibrierung werden die nächsten 100 Jahre simuliert. Um das Problem zu zeigen, die Grafik für Bayern.

Bild 37 Lufttemperaturen Monat Juli Bayern von 1881 – 2016. Vom Autor um Linien ergänzt. Quelle: DWD Deutscher Klimaatlas

Diese Grafik (Bild 37) beruhigt: Nur wenige der vielen Simulationen weisen im Jahr 2100 einen höheren Temperaturwert aus als er bereits vorkam und damit schon belegbar überlebt wurde. Ansonsten liegen alle Simulationen im schon „erlebten“ Korridor. Die Simulationsspanne im Jahr 2100 überstreicht einen Temperaturbereich von ca. 3,6 Grad. Es kann somit wärmer, kälter, oder gleich werden. Eigentlich kann man sich problemlos jede Wunschtemperatur aussuchen. Zumindest Bayern kann den kommenden 100 Jahren damit (simuliert) vollkommen sorgenfrei entgegensehen. Es würde nicht wundern, wenn die CSU im nächsten Wahlk(r)ampf behauptet, das wäre alleine ihr Verdienst. Dem steht jedoch das mangelnde Wissen ihrer Umweltministerin im Weg[14][11].

Bayerns Umweltministerin ist überzeugt, dass Bayern bis zum Jahr 2100 um 4,5 Grad wärmer wird, sofern man nicht sofort CO2 reduziert. Zwar kommen nur wenige der ca. 20 Simulationsläufe überhaupt in diese Temperaturnähe. Doch eine Klimafachkraft mit der Ausbildung Kauffrau kann dieses simulierte Restrisiko welches ihr wohl von einer „Klima-Simulationsfachkraft“ berichtet wurde für Bayerns Bürger selbstverständlich nicht eingehen:

Bayerischer Landtag 2. Dezember 2015: Umweltministerin Ulrike Scharf zeichnete in ihrer Regierungserklärung zur bayerischen Klimapolitik ein dramatisches Bild: Danach droht laut einer neuen Prognose noch in diesem Jahrhundert im Freistaat ein Temperaturanstieg um bis zu 4,5 Grad Celsius. … Die bayerische Staatsregierung, so Scharf, unterstütze das Ziel einer kohlenstoff-freien Weltwirtschaft.

SPD, Freien Wählern und Grünen war das noch zu wenig Dramatik, womit sich mangelndes Wissen zu „die am wenigsten Unwissende“ positiviert. Es wird damit allerdings wohl weniger ein Klimaalarm aufgedeckt, als die Zurschaustellung der Oppositionsproblematik in Bayern. Wenn die CSU nichts weiß, toppt es die Opposition.

Informativ sind im Bild 37 auch die 0,6 Grad Temperaturerhöhung eingezeichnet, um die sich nach dem Klimagipfel-Beschluss von 2015 die Welttemperatur bis zum Jahr 2100 maximal erhöhen darf, damit die Erde nicht Klima-kollabiert. Jeder sollt sich selbst fragen, ob dieser Grenzwert sinnvoll sein kann und wie Simulationen, welche nicht einmal Bayern aktuell genauer als mit 2,8 Grad Fehlerspanne abbilden können, für die gesamte Erde „wissen“, dass +0,6 Grad in 100 Jahren diese unumkehrbar „zum Kippen“ bringen.

Niederschlag

(Aus der Klimainformation) Bild 38 [1] Bildtext: Im Jahr 2015 fiel weniger Niederschlag als im Vergleichszeitraum 1881-2015, insgesamt hat die Niederschlagsmenge seit 1881 jedoch um gut 10 % zugenommen. Die Klimasimulation im rechten unteren Teil der Abbildung lässt für die Zukunft einen weiteren leichten Anstieg der Niederschlagsmengen erwarten.

Sichtung Niederschlag mit Zusatzinformation

Was sagt eine ganz aktuelle Untersuchung des DWD zum Niederschlag:

Winterhalbjahr:

[10] Sowohl für den meteorologischen als auch den hydrologischen Winter ist die Häufigkeit hoher täglicher Regenmengen demnach im Verlaufe des Untersuchungszeitraums um rund 25% angestiegen (vgl. Abb. 1). Dabei unterscheidet sich die Entwicklung in den einzelnen Regionen Deutschlands nur unwesentlich voneinander. In beiden Fällen, insbesondere aber für die meteorologischen Wintermonate, lässt sich jedoch nicht mit letzter Sicherheit sagen, inwieweit der beobachtete Anstieg auf die natürliche Klimavariabilität zurückzuführen ist. Für eine solche Differenzierung reicht selbst die Länge dieser Zeitreihen nicht aus.

Sommerhalbjahr:

[10] Für den Sommer (meteorologisch sowie hydrologisch) lassen sich dagegen praktisch keine Trends identifizieren. Hier dominieren kurz- und längerfristige zyklische Variabilitäten. Zudem verlief die Starkniederschlagsentwicklung seit 1951 in den einzelnen Regionen sehr unterschiedlich, wodurch das indifferente Gesamtbild zu dieser Jahreszeit noch weiter verstärkt wird. Lediglich für den hydrologischen Sommer3 und den höchsten ausgewerteten Schwellenwert ist für die Südhälfte Deutschlands eine leichte Zunahme erkennbar.

[10]Für kürzere Dauerstufen von weniger als 24 Stunden liegen konkret für das Gebiet von Deutschland bislang noch recht wenige Erkenntnisse zum Trendverhalten von Starkniederschlägen vor

Gemäß erster Ergebnisse einer aktuellen Untersuchung dieser Daten weisen die hohen Niederschlagsschwellen10 der Dauerstufe 60 Minuten während der Monate Mai bis September in den meisten Regionen Deutschlands im Zeitraum 1965 bis 2015 häufiger einen negativen als einen positiven Trend auf. Allerdings unterscheidet sich die Anzahl der Stationen mit einem Rückgang der Starkniederschläge zumeist nicht markant von der Anzahl der Stationen mit einer Zunahme.

[10] Fazit

Die Häufigkeit von Starkniederschlägen der Dauerstufe 24 Stunden hat in Deutschland in den vergangenen 65 Jahren im Winter bereits um rund 25% zugenommen. Gemäß den Projektionen regionaler Klimamodelle ist davon auszugehen, dass sich dieser Anstieg bis zum Jahre 2100 in etwa der gleichen Größenordnung weiter fortsetzen wird. Für die Sommermonate ist dagegen bislang kein eindeutiger Trend auszumachen. Bezüglich der Intensität der Starkniederschläge auf dieser Zeitskala gilt grundsätzlich Ähnliches.

Bild 39 hilft zur Erklärung. Wenn man genauer hinsieht, könnte man sagen, dass es im Sommer sowieso nicht, aber auch im Winter keinen wirklichen Trend gibt, wie es laut dem Klimawandel überall publiziert wird. Aber Computer-Statistik ist unerbittlich. Irgend ein Trend lässt sich trotz größter Streuungen rein numerisch immer berechnen, der Rest ist dann der Glaube daran.

Bild 39[16] Sommer- und Winterniederschlag von 1901 – 2007

Wenn man bedenkt, dass sich die Niederschlagsmenge Deutschlands seit 1881 lediglich um 10 % verändert haben soll, ist der Einfluss eines Klimawandels schon fast auszuschließen, beziehungsweise nicht nachweisbar. Denn 10 % Änderung in diesem Zeitraum dürften weit unter der globalen Mess-Unsicherheit dieser langen Reihe liegen. Und ausgerechnet die kurzen, aber extremen Niederschläge (welchen angeblich zu den jüngsten Überschwemmungen geführt haben) nehmen laut dem DWD im Sommerhalbjahr eher ab.

Bleibt noch ein Blick auf die angeblich steigenden Extremniederschläge (Bild 40). Seit dem Beginn der Grafik um 1950 ist keine Änderung und auf gar keinen Fall eine Klimawandel-bedingte Erhöhung sichtbar.

Bild 40[23] Anzahl der Tage mit mindestens 30 mm Niederschlag pro Jahr für Deutschland lt. CSC

Fazit zum Niederschlag

Die Beschreibung lässt konsequent wichtige Detailinformationen weg, indem sie die Jahreszeit-Abhängigkeiten nicht detailliert. Damit erfährt niemand, dass die bisherigen Vorhersagen für mehr Starkniederschlag im Sommerhalbjahr nicht eingetroffen sind. Auch über die bekannten, wichtigen Bezüge zu den jüngsten Flutereignissen (nicht Klimawandel-bedingt) wird nicht informiert.

Zusatzinformation zur Niederschlagsmodellierung

Im Klimareport Bayern 2015 ist ein gutes Beispiel für die Ungenauigkeit von Niederschlagsmodellierungen gezeigt. Obwohl nicht global, sondern nur ein Ort simuliert wird, weichen Messergebnisse und Simulationswerte häufig stark voneinander ab und aktuell stimmt überhaupt nichts mehr. Zusätzlich musste eine „Biaskorrektur“ erfolgen. Es hat demnach nicht einmal der Mittelwert übereingestimmt. Wer behauptet bei solchen Fehlern wären aber die weiteren 100 Jahre „genau“ simulierbar, muss schon sehr Computergläubig sein. Aber die Vorschau kann man heute ja nicht überprüfen.

Bild 41 Vergleich Niederschlag Zugspitze, Messwerte und Modellierung. Quelle: Klimareport Bayern 2015 Abbildung 1

Dieses (beim Niederschlag besonders große) Simulationsproblem ist bekannt und wird etwas „entfernt“ von der Mainstream-Klimawissenschaft auch ganz leise diskutiert:

[29] NEUE STUDIE ZEIGT ERHEBLICHE DIFFERENZEN ZWISCHEN KLIMAARCHIVEN UND KLIMAMODELLEN – Das Klima der Erde scheint in den letzten 7000 Jahren sehr viel unbeständiger gewesen zu sein als bisher gedacht.

Über Zeiträume von Jahren und Jahrzehnten stimmten Mess- bzw. Klimaarchivdaten und Modellläufe recht gut überein. Doch je länger die Zeitskalen, desto größer wurde die Diskrepanz – am stärksten in tropischen Meeresregionen. Auf tausendjähriger Zeitskala unterschätzten gängige Klimamodelle die aus den Klimaarchiven rekonstruierten Schwankungen der Meeresoberflächentemperaturen um den Faktor 50.

Theoretisch gibt es nun zwei denkbare Erklärungen“, so Thomas Laepple. „Entweder liefern die Klimaarchive keine verlässlichen Temperaturdaten, oder die Klimamodelle unterschätzen die Variabilität des Klimas. Vielleicht stimmt auch beides ein bisschen.

Zusatzinformation: Klimamodelle rekonstruieren Niederschlagsentwicklungen nur mit gröbsten Fehlern

Klar, dass darüber in der Klimainformation nicht der kleinste Hinweis zu finden ist.

Kapitel: Übersichtskarte zu möglichen Handlungsfeldern eines Klimawandels in Deutschland

[1] Im Zusammenhang mit der Veröffentlichung einer Studie zur „Vulnerabilität Deutschlands gegenüber dem Klimawandel“ im November 2015 hat der Deutsche Wetterdienst auf seinen Internetseiten eine Karte veröffentlicht, die einen Überblick über die Folgen des Klimawandels in den einzelnen Regionen Deutschlands bietet und daraus resultierende Schäden, Veränderungen und Beeinträchtigungen prognostiziert.

Dieses Kapitel wird nicht rezensiert. Wer an eine „Vorhersagegenauigkeit“ von Klima-Simulationen die mit ungenauen Daten kalibriert sind glaubt, dem ist eigentlich nicht zu helfen. Leider ist diese Spezies jedoch häufig anzutreffen.

Basisparameter des anthropogenen Klimawandels

Dieses Kapitel fehlt in der Klimainformation, wirklich nirgendwo ist auch nur ein kleinster Hinweis dazu zu finden. Dabei geht es um die Frage, wie genau die angeblich sicheren Aussagen zum Klimawandel wirklich sind.

Korrelation CO2-Eintrag und Temperatur
Wie in der Rezension an einigen Stellen gezeigt wurde, verläuft der CO2-Eintrag (steigt überproportional stetig an) und der Temperaturverlauf über weite Strecken ohne Korrelation, teilweise sogar gegenläufig. Aufgrund der enormen natürlichen Temperatur- und Wetterstreuungen reichen für die meisten Einflüsse auch die 30 Jahre Meteorologischer Messzeitraum zur Belegung stabiler Trends nicht wirklich aus.

Welttemperatur ohne menschlichen Einfluss
An der „naturgegebenen Welttemperatur“ wird laufend gedreht. Mal beträgt sie 15 Grad, dann fällt sie plötzlich auf 13,9 Grad: M. Limburg „Mit 15 °C ist die Erde perfekt“, jetzt sollen nur 14,8 °C eine unerträgliche Erwärmung sein!“. Dabei darf das gar nicht sein, denn die „richtige“ Temperatur wird physikalisch genau berechnet und „driftet“ nicht. Auf die Fragestellung, ob das Klima alarmistisch wäre, oder einfach nur normal, hat dies einen gewaltigen Einfluss.

CO2-Sensitivität
Max Plank Institut für Meteorologie: Der Wert der Klimasensitivität liegt nach Einschätzung des fünften Sachstandsberichts des Intergovernmental Panel on Climate Change (IPCC) wahrscheinlich zwischen 1,5 und 4,5 °C und umfasst somit eine Unsicherheit, die sich seit den frühen Untersuchungen der Klimasensitivität in den 1970er Jahren nicht verringert hat.

Frühere Schätzungen des Effektes deuteten darauf hin, dass er alle anderen positiven Rückkopplungen aufheben könnte, was zu einer Klimasensitivität von nur 1 °C führen würde. Durch das Integrieren des Iris-Effekts in das MPI-M Erdsystemmodell zeigten Mauritsen und Stevens, dass die vom Iris-Effekt verursachte, trockenere Atmosphäre zu weniger Wolken führt und somit den verminderten Treibhauseffekt durch weniger hohe Wolken aufhebt. Diese Verringerung von hohen Wolken verstärkt zudem Änderungen des Wasserkreislaufs. Sowohl eine niedrigere Klimasensitivität von etwa 2 °C als auch eine verstärkte hydrologische Änderung könnten die Modelle näher an die besten Schätzungen aus Beobachtungen heranbringen.

Laut einer aktuellen Studie ist zu erwarten, dass man die Unsicherheit mit dieser Wartetaktik in den nächsten 15 Jahren halbieren kann. Aber auch die Theorie, die jener Studie zugrunde liegt, wird kritisiert und es ist daher wahrscheinlich, dass es mehr Zeit beansprucht, als angenommen wird.

Man nimmt also neuerdings an, dass die Klimasensitivität eher zwischen 1 … 2 °C liegt und damit am unteren, vom IPCC angegebenen Bereich (was Klimakritiker schon längst annehmen). Und man hofft, es in den nächsten 15 Jahren etwas genauer zu wissen, eher aber nicht.

Fazit

Nicht allen ist klar, dass in der angeblich „gesicherten“ Wissenschaft gerade bezüglich der wichtigen Parameter schon immer und vor allem weiterhin so eklatante Ungenauigkeiten bestehen. Trotzdem werden damit seit den 1970er Jahren fleißig und regelmäßig Weltuntergänge simuliert.

Wer sich (was die vielen Simulationsprojektions-Bilder zeigen) wundert, warum die Zukunftsprojektionen teils abhängig vom Forschungsinstitut so gewaltig unterschiedlich ausfallen, findet darin eine Lösung.

Abschließende Zusammenfassung des Autors (Teil 1 / 2)

Wenn das, was diese Fachstelle abgeliefert hat das Ergebnis wissenschaftlicher Arbeit sein soll, dann fällt fast jede Publizierung auf EIKE automatisch darunter. Geht es etwas darüber hinaus, indem zum Beispiel anstelle nur zu Zitieren und zu Kopieren eigene Gedanken zugefügt werden, wird man wohl zum ernannten Professor. Auch das würde sich dann auf EIKE oft finden.

Doch Ironie beiseite:

Was als Information für Abgeordnete abgeliefert wurde, ist eine oberflächliche Auftragsarbeit mit dem Untertitel „lustlose Propagandapublikation“. Wenn dies das Informationsniveau ist, aus dem heraus Abgeordnete entscheiden sollen, mal so nebenbei zig Milliarden EUR aus dem Bundesetat in einen mit 100 Milliarden EUR gestarteten Klimafonds zu schaufeln oder Deutschland vollkommen zu dekarbonisieren, dann „Guten Nacht“ für den ehemaligen Wissenschaftsstandort Deutschland.

Es kann natürlich auch sein, dass dieser „Wissenschaftliche Dienst“ sich bewusst dümmer gestellt hat als er ist, um nicht mit einer richtigen, aber politisch falschen Aussage, ins Fettnäpfchen zu treten und dadurch Finanzmittel oder Karrieren zu gefährden. Im vermerkelten Deutschland inzwischen eine latente, nicht zu unterschätzende Gefahr. Dummheit wird immer unterstützt wenn sie nützlich ist, falsche Gedanken nie.

Als Ergebnis lässt sich feststellen, dass es (rein persönliche Meinung des Autors) auch dem Wissenschaftlichen Dienst nicht gelungen ist, im Zeitraum der letzten 20 Jahre einen signifikanten (negativen) Klimawandeleinfluss zu finden. Der Autor hofft auch gezeigt zu haben, wie oft (nicht nur) beim Klimawandel Behauptungen aufgestellt werden die einer Nachprüfung nicht stand halten.

Etwas Erfreuliches ließ sich trotzdem entdecken

Es ist keine Information vom Potsdamer PIK gelistet. Da stellt sich die Frage: Ist die einzige Person, welche sich in Berlin noch von dieser Fließband-Klima-Hysterie-Produktionsabteilung beeinflussen lässt Frau Umweltministerin Hendricks (und die Grünen[17])? Das würde hoffen lassen.

Bild 42 [17] Screenshot eines Videos „Wie geht es weiter nach dem Abkommen von Paris?“ mit Prof. Schellnhuber (PIK) und Anton Hofreiter Bündnis 90 / Die GrüneN

Wie unsachlich diffamierend die Debatte um den Klimawandel selbst von „Wissenschaftlern“ geführt wird, zeigt immer wieder neu beispielhaft die Informationsseite der Klimaberaterin von Umweltministerin Hendricks, C. Kemfert.

Klimaretter.Info: Klimaleugner sagen Glück Auf

Darin wird auch die Aussage: "Wir befinden uns heute in einem sich verstärkenden Klimawandel, der auch vor unserer Haustür nicht mehr Halt macht" als richtig dargestellt.

Jeder Leser darf sich anhand der Rezension fragen, ob dieses Statement auf der Homepage der Klimafachfrau diskussionslos als wahr angenommen werden kann. Frau Hendricks scheint es nicht zu stören (bzw. sie wünscht nur Berater, welche ihre Klimahysterie unterstützen), von jemandem beraten zu werden der offen verkündet, an Neutralität und der Bewertung von Fakten kein Interesse zu haben[30].

Hoffen wir, dass auch ein paar Abgeordnete diese Rezension lesen und den Mut haben, sich eigene Gedanken über den angeblich für jedes Negativereignis verantwortlichen Klimawandel zu machen (und dies in Abstimmungen auch zu äußern).

Quellen (Teil 1 / 2)

[1] Wissenschaftliche Dienste Dokumentation : WD 8 – 3000 – 049/16 Extreme Wetter- und Naturereignisse in Deutschland in den vergangenen 20 Jahren

[2] Munich Re: April 2016 NatCatSERVICE Schadenereignisse in Deutschland 1980 – 2015

[3] MunichRe Juli 2012: NATCATSERVICE Naturkatastrophen in Deutschland 1970 – 2011

[4] WIKIPEDIA Zeitreihe der Lufttemperaturen in Deutschland 1750 – 2016

https://de.wikipedia.org/wiki/Zeitreihe_der_Lufttemperatur_in_Deutschland

[5] EIKE 30.07.2016: Weltweiter Temperaturrekord gemessen?

http://www.eike-klima-energie.eu/news-cache/weltweiter-temperaturrekord-gemessen/

[6] EIKE 29.07.2016: Bayerischer Klimakongress 2016 in Würzburg

http://www.eike-klima-energie.eu/news-cache/bayerischer-klimakongress-2016-in-wuerzburg/

[7] Deutscher Wetterdienst Agrarmeteorologie Weihenstephan, Dr. Harald Maier, Foliensatz: Klimawandel in Bayern Veränderungen und Perspektiven

[8] Bayerisches Landesamt für Umwelt, Referat Grundwassermonitoring, Dr. Jörg Neumann, Foliensatz: Klimawandel in Bayern – Was passiert mit unserem Grundwasser?

[9] EIKE 07.02.2016: Der Himmel fällt uns auf den Kopf und ohne die Glaskugel im Computer würden wir es nie erfahren

Rezension: UBA Studie 24/2015 Die Vulnerabilität Deutschlands gegenüber dem Klimawandel

http://www.eike-klima-energie.eu/news-cache/der-himmel-faellt-uns-auf-den-kopf-und-ohne-die-glaskugel-im-computer-wuerden-wir-es-nie-erfahren/

[10] DWD, Geschäftsbereich Klima und Umwelt, Paul Becker, Andreas Becker, Clementine Dalelane, Thomas Deutschländer, Thomas Junghänel und Andreas Walter, Stand: 19.07.2016: Die Entwicklung von Starkniederschlägen in Deutschland Plädoyer für eine differenzierte Betrachtung

[11] EIKE 21.11.2015: Die bayerische Umweltministerin Frau Scharf: Extremwetter, Extrem-Hochwasser und die Unberechenbarkeit des Wetters nehmen zu. Doch stimmt das wirklich?

http://www.eike-klima-energie.eu/news-cache/die-bayerische-umweltministerin-frau-scharf-extremwetter-extrem-hochwasser-und-die-unberechenbarkeit-des-wetters-nehmen-zu-doch-stimmt-das-wirklich/

[12] EIKE 06.11.2015: Langfrist-Temperaturverläufe Deutschlands: Das Phänomen der „Temperaturstufen“

http://www.eike-klima-energie.eu/news-cache/langfrist-temperaturverlaeufe-deutschlands-das-phaenomen-der-temperaturstufen/

[13] EIKE 06.07.2016 : Das Unwetter bei Simbach am Inn – Ein Nachtrag zur Debatte im Bayerischen Landtag

http://www.eike-klima-energie.eu/news-cache/das-unwetter-bei-simbach-am-inn-ein-nachtrag-zur-debatte-im-bayerischen-landtag/

[14] EIKE 09.06.2016: An den Unwettern ist der Mensch eher nicht schuld – aber ganz sicher an deren Folgen

Darstellung des Unwetters um Simbach Niederbayern

http://www.eike-klima-energie.eu/news-cache/an-den-unwettern-ist-der-mensch-eher-nicht-schuld-aber-ganz-sicher-an-deren-folgen/

[15] Bundestagsfraktion von Bündnis 90 / Die Grünen 2015, Dr.StefanieGroll: Brennpunkte des Klimawandels in Deutschland

[16] Bildungsserver wiki: Klimaänderungen in Deutschland

http://wiki.bildungsserver.de/klimawandel/index.php/Klima%C3%A4nderungen_in_Deutschland

[17] Bündnis 90 / Die Grünen: Die Klima-Uhr Ab jetzt wird’s kritisch

https://www.gruene-bundestag.de/themen/klimaschutz/ab-jetzt-wirds-kritisch-06-01-2016.html

[18] Munich Re Geo Risks Research/Corporate Climate Centre, Prof. Dr. Peter Höppe. Foliensatz zur FAchtagung „Klimaschutz: Kälte und Klimatechnik in der Energiewende“, Berlin 11.4.2016: Wirtschaftliche und Gesellschaftliche Gefahren des Klimawandels

[19] Swiss Re SIGMA Report No 1 /2016: Natural catastrophes and man-made disasters in 2015

[20] EIKE Stefan Kämpfe, Josef Kowatsch: Der Monat Juli wurde wärmer, in Deutschland aber nur wegen des Wärmeinseleffektes (WI), einer höheren Sonnenscheindauer und geänderter Wetterlagenhäufigkeiten

http://www.eike-klima-energie.eu/news-cache/der-monat-juli-wurde-waermer-in-deutschland-aber-nur-wegen-des-waermeinseleffektes-wi-einer-hoeheren-sonnenscheindauer-und-geaenderter-wetterlagenhaeufigkeiten/

[21] EIKE 01.06.2015: In Deutschland kein Klimawandel in Sicht – das kann die SZ nicht auf sich sitzen lassen (Teil2)

Sichtung UBA Klimamonitoringbericht Teil 2

http://www.eike-klima-energie.eu/climategate-anzeige/in-deutschland-kein-klimawandel-in-sicht-das-kann-die-sz-nicht-auf-sich-sitzen-lassen-teil2/

[22] EIKE 29.07.2016: Bayerischer Klimakongress 2016 in Würzburg

http://www.eike-klima-energie.eu/news-cache/bayerischer-klimakongress-2016-in-wuerzburg/

[23] CSC Climate Service Center, Publizierung: Ergebnisse und Auswertungen der Recherche zur Entwicklung von Extremwetterereignissen in Deutschland

[24] EIKE 14.04.2016 9. IKEK, Dipl.-Meteorologe Klaus-Eckart Puls: Extremwetter-Ereignisse : Was finden die Wetterdienste? Was schreibt der Klimarat IPCC?

http://www.eike-klima-energie.eu/klima-anzeige/9-ikek-dipl-meteorologe-klaus-eckart-pulsextremwetter-ereignisse-was-finden-die-wetterdienste-was-schreibt-der-klimarat-ipcc/

[25] UBA Studie 24/2015 Die Vulnerabilität Deutschlands gegenüber dem Klimawandel

[26] EIKE 10.08.2016: Tollhaus Berlin – Forscher sollen nachträglich die „Wissens- und Entscheidungsbasis“ für das verabschiedete 1,5 Grad Ziel suchen

http://www.eike-klima-energie.eu/news-cache/tollhaus-berlin-forscher-sollen-nachtraeglich-die-wissens-und-entscheidungsbasis-fuer-das-verabschiedete-15-grad-ziel-suchen/

[27] kaltesonne, 9. August 2016, Uli Weber: Die Dekarbonisierung der Welt: Ist der natürliche CO2-Kreislauf wirklich „settled Science“?

http://www.kaltesonne.de/die-dekarbonisierung-der-welt-ist-der-naturliche-co2-kreislauf-wirklich-%e2%80%9esettled-science/

[28] EIKE 05.08.2015: Nicht ewig leiden die Wälder- Wie der deutsche Wald innerhalb von drei Monaten genesen ist

http://www.eike-klima-energie.eu/klima-anzeige/nicht-ewig-leiden-die-waelder-wie-der-deutsche-wald-innerhalb-von-drei-monaten-genesen-ist/

[29] kaltesonne 22. November 2014: Neue AWI-Studie warnt: Klimamodelle unterschätzen natürliche Schwankungen der Meeresoberflächentemperaturen um den Faktor 50

[30] EIKE 23.07.2016: Der Unterschied in der Klimawandel-Berichterstattung: Kritik an der Berichterstattung des Portals Klimaretter.Info

http://www.eike-klima-energie.eu/news-cache/der-unterschied-in-der-klimawandel-berichterstattung/




Die Wenigen, die Lauten, der Anti-Fossile-Treibstoffe-Mob

Falls man die Nachrichten den Mainstream-Medien entnimmt, glaubt man vermutlich, dass die von den Umweltaktivisten angeführten Standpunkte die Mehrheit der Amerikaner repräsentiert [ist das nicht bei uns in D genauso? Anm. d. Übers.]. Schließlich waren ihre überdeutlich sichtbaren Proteste gegen die Keystone-Pipeline sehr effektiv. Sie hatten sich zu Sit-Ins vor dem Weißen Haus versammelt und wurden darob verhaftet. Sie paradierten die National Mall hinab mit einem riesigen Ballon, auf dem die Worte prangten: „Just say no to Keystone“. Trotz wiederholter Umfragen, denen zufolge eine Mehrheit der Amerikaner hinter der Pipeline steht und nur eine kleine Minderheit dagegen ist, hat die laute Theatralik des Anti-Fossile-Treibstoffe-Mobs gewonnen. Nach Jahren des Taktierens zum Aufhalten der Pläne hat sich Präsident Obama schließlich ihren Forderungen gebeugt und nein gesagt zu dem Arbeitsplätze schaffenden Projekt.

Anfang dieses Jahres plante die gewöhnliche Gruppe von Verdächtigen unter Führung des Anti-Fracking-Aktivisten Bill McKibben eine „globale Welle des Widerstands“ mit der Bezeichnung BreakFree2016 – geplant für den Zeitraum 3. bis 15. Mai – auf sechs Kontinenten. Auf der entsprechenden Website wurden die verschiedenen Aktivitäten angekündigt einschließlich eines Auftritts und einer Rede von McKibben, einem Einwohner von Vermont, in Colorado, in der er „die größte Massen-Mobilisierung bzgl. Klimamaßnahmen in der Geschichte von Colorado“ versprach. Dies bestätigte, dass es „zivilen Ungehorsam“ geben werde.

Haben Sie davon gehört? Wahrscheinlich nicht.

In einem Nachrichten-Report über die geplanten Aktionen in Colorado hieß es: „Und am 14. Mai plant 350 Colorado einen Tag der Ansprachen mit Live-Musik und Protestaktionen gegen Öl- und Gaserschließung nahe Ortschaften und Schulen in Thornton. Ziel ist es, 1000 Menschen zu den bevorstehenden Veranstaltungen zu locken“. Auf der Website heißt es nach der Veranstaltung: „etwa 800 Personen nahmen den ganzen Tag über an den Aktionen teil“, wobei „etwa 30 bis 40 Personen“ bis zum Ende des Tages ausharrten, um die dramatische „Frack-Site-Invasion“ zu erleben. Jedoch – sogar ihr eigenes Photo auf der eigenen Facebook-Site zeigt, dass nicht einmal 100 Personen bei der großen Rede von McKibben zugegen waren. [Siehe Bild oben rechts!] Ohne Verkaufsstände und Medien dürfte er vermutlich überhaupt keine Zuhörerschaft gehabt haben.

Nach seinem Flug nach Denver und seine Anfahrt zum Schauplatz des Ereignisses in einer chauffierten Limousine jettete McKibben nach Los Angeles, wo er von „Daddy Warbucks“ der Grünen begrüßt wurde sowie von dem Milliardär und Spender für politische Kampagnen Tom Steyer – mit weitgehend den gleichen Folgen: ein paar hundert, die gegen fossile Treibstoffe protestierten und, wie Energy In Depth berichtete, „den sehr sozialen und ökonomischen Stützen liberaler Demokratie“. Die typischen Gegen-Alles-Protestierer waren auch da – aber nur sehr wenige.

Wie ich vorige Woche angesprochen habe, wurden bei einem Treffen der Bakken Pipeline Resistance Coalition [etwa: Widerstands-Koalition gegen die Bakken-Pipeline] etwa 200 Personen erwartet. Mitglieder der Koalition waren den Organisatoren zufolge jene mit „Bedenken hinsichtlich der Auswirkungen dieser Pipeline auf die Umwelt; Landwirte, die sich um ihr Ackerland Sorgen machen; religiöse Gruppen, die die Ausweitung des Verbrauchs fossiler Treibstoffe als eine moralische Sache ansehen wegen Klimawandel“. Stattdessen hatten dem Ottawa Courier zufolge „zu Beginn des Treffens nur etwa 40 Personen Platz genommen. Weitere tröpfelten im Verlauf des Meetings ein“.

Jetzt ist Colorado zum Ground Zero geworden für „einen der größten umweltlichen Kämpfe im Lande in diesem Jahr“, wie Lauren Petrie es nannte. Lauren Petrie ist Direktor für Food and Water Watch in der Region der Rocky Mountains, einer in Washington D. C. ansässigen Gruppe, die sich die Sicherheit der Nahrungsmittel- sowie der Öl- und Gaserzeugung auf die Fahnen geschrieben hat. Zwei Abstimmungs-Initiativen, 75 und 78, haben den Gesetzgebern in Colorado zufolge „die Erschließung neuer Öl- und Gasvorkommen in 90% des Staates effektiv zum Halten gebracht. Für die Abstimmung müssen bis spätestens zum 8. August 98.492 gültige Unterschriften dem Secretary of State von Colorado vorgelegt werden – nicht später als 15 Uhr.

Im Juni berichtete The Tribune, dass Tricia Olsen, die das meiste Geld in die Gruppe hinter den Abstimmungen 75 und 78 gepumpt hatte, gehofft hatte, „160.000 Unterschriften zu sammeln, um den ungültigen Unterschriften Rechnung zu tragen, die unvermeidlich auftauchen werden“. (Politico verkündete kürzlich: „Rechenschaft über die Finanzen der jüngsten Kampagne wurden dem Colorado Secretary of State übermittelt, der Sierra Club gab 150.000 Dollar, was ihn zum größten Einzel-Beitragenden der Anti-Fracking-Bemühungen machte“.)

Weil der Oberste Gerichtshof von Colorado lokale Fracking-Limits in einem einstimmigen Urteil am 2. Mai für „ungültig und nicht einklagbar“ erklärte, da staatliche Gesetze über lokalen Verfügungen stehen, betrachtet Olson die Abstimmungs-Initiativen als ihren „allerletzte Anstrengung“ (hier).

Am Montag, dem 8. August, entluden Dutzende Unterstützer mit einer schauspielerischen Leistung um 14:30 einen Lastwagen und transportierten Kiste für Kiste mit Unterschriften in das Büro des Secretarys. Sie feierten ihren „Sieg“. 350 Colorado, eine der Gruppen hinter dem Vorgang, proklamierte: „Wir haben es getan! Über 100.000 Unterschriften von Initiativen zur Limitierung von Fracking!“ Nicht die 160.000 Unterschriften, die man sich ursprünglich erhofft hatte, und wahrscheinlich nicht genügend, um den Entscheid im November durchzuführen.

Nach der Zählung von CBS Denver wurden etwa 105.000 Unterschriften eingereicht – zumeist in halb leeren Kisten. Lynn Bartels, Colorado Secretary of State Communications Director, twitterte: „Befürworter von Fracking-Maßnahmen reichten viele Kisten ein mit nur sehr wenigen Petitionen darin“. Als die Petitionen konsolidiert worden waren, blieben etwa 50 leere Kisten zurück. Simon Lomax, ein Assistenz-Analyst bzgl. Energiepolitik am konservativen Independence Institute in Denver und Berater für Pro-Business-Gruppen sagte: „Um es eindrucksvoller aussehen zu lassen, haben sie einen Haufen leerer Kisten hinzugefügt, oder Kisten mit nur sehr wenigen Petitionen darin. Irgendwie zeigt dies, dass es diesen Gruppen an Substanz mangelt. Sie vollführen lediglich irreführende Publicity-Stunts“.

Ebenfalls bei CBS Denver erklärte der ehemalige Secretary of State Scott Gessler, dass man etwa 98.000 Unterschriften für ein solches Begehren braucht, weil aus verschiedenen Gründen mindestens 30% der Unterschriften zurückgewiesen werden; man muss mindestens 140.000 einreichen. Er sagte, dass die 105.000 eingereichten Unterschriften als Qualifikation „beispiellos“ wäre, etwas, dass es „in Colorado für ein Begehren noch niemals gegeben hatte“. Gessler zufolge ist die Mühe „umsonst“ – obwohl wir erst im nächsten Monat nach der Endauszählung Gewissheit haben werden.

John Fund, Wahlberichterstatter und Kolumnist für nationale Dinge für die National Review, sagte mir: „Falls es genügend öffentliche Unterstützung für eine Sache gibt, um die nötige Stimmenzahl zusammen zu bekommen, ist es eine einfache Aufgabe, genügend Unterschriften für ein Begehren zu bekommen“.

Viele Demokraten, einschließlich Gouverneur John Hickenlooper, unterstützen hydraulisches Brechen und haben sich gegen die Initiativen ausgesprochen. Politico postuliert, dass weil Mainstream-Umweltaktivisten „fürchten, dass ihre Bewegung eine demoralisierende Niederlage einstecken würde, falls die beiden Vorschläge vor die Abstimmenden machen“, sie hoffen, „dass sich die Initiativen stattdessen totlaufen“. Außerdem „verlangt ein maßgebliches Referendum zur Öl- und Gaserzeugung lauter werdende Rufe in Richtung Hillary Clinton, sich explizit auf eine Seite zu schlagen“. Zuvor ging sie mit 75 und 78 konform – was ihre Bemühungen zunichte machen könnte, moderate Republikaner anzulocken, die sie braucht, um in dem Staat zu gewinnen.

Trotz des inszenierten Dramas und ihrer Erklärung „Sieg!“ scheint es nicht so, dass die Anti-Fossile-Treibstoffe-Bewegung in Colorado genügend Unterschriften beisammen hat, um im November die Abstimmung durchzuführen. Sie mögen laut sein aber – oh weh! – es sind nur Wenige!

Link: http://oilpro.com/post/26652/few-loud-anti-fossil-fuel-crowd

Übersetzt von Chris Frey EIKE




Im Klimawandel nichts Neues, der Juli 2016 war im Mittel wieder zu warm

wetterdienst.de: Deutschlandwetter im Juli 2016

[1] Mit regional nur geringfügigen Abweichungen war der Juli 2016 im Vergleich zum vieljährigen Mittel 1961-1990 zwischen +1 und +2 K zu warm.

Gegenüber dem vieljährigen Mittelwert des neuen Vergleichszeitraums 1981-2010 war der Monat damit um +0,6 K, im Vergleich zur internationalen klimatologischen Referenzperiode 1961-1990 um +1,7 K zu warm. Damit ordnet sich der Juli 2016 als 19.-wärmster seit 1901 und als 20.-wärmster seit 1881 in den oberen Bereich der Rangfolge der Julimonate ein.

wetteronline brachte dazu noch eine Grafik um zu zeigen, wie der Juli seit 1986 wärmer wird.

Bild 1 Julitemperaturen 1986 … 2016. Quelle: wetteronline [2]

Wie so oft, steckt die wirkliche Information im langfristigen Verlauf, und diesen zeigt Bild 2. Diese Darstellung ist bewusst auf 0 °C bezogen, um die Temperaturveränderungen im „gefühlten“ Verhältnis zu zeigen. Was Bild 1 nicht zeigt ist, dass weit vor Beginn des „schlimmen“ Klimawandels um 1990 die Juli-Temperaturen schon oft und deutlich über der des aktuellen lagen. Der Monat ist zudem von zwei Spitzen über der Temperatur von 1757 abgesehen wieder in den üblichen Trendbereich eingetaucht – und von einem Klimawandel-bedingten, stetigen Anstieg ist wenig zu erkennen. Wer vom „Klimawandel“ noch nichts gehört hat, würde wohl nie auf einen kommen.

Klimastatus Juli 2016

-Der vergangene Juli hatte mit 18,6 °C eine Temperatur, wie sie Vorfahren seit Beginn der Aufzeichnung in jeder Generation erleben konnten.

-Seit 1751 kam die Julitemperatur (18,6 °C) 39 Mal vor

-Nimmt man die Mess-Ungenauigkeit einer heutigen, automatischen und richtig geeichten Messtation von +-0,2 Grad, beginnt also mit 18,4 °C, dann kam diese Julitemperatur seit 1750 bereits 52 Mal vor

-Die Temperaturerhöhung der linearen Regressionsgeraden beträgt von 1750 … 2016 ca. 0,43 °C, also 0,162 Grad / 100 Jahren

-Die 30-Jahre Mittelwert-Temperatur vom Jahr 1782 wurde erst im Jahr 2004 letztmals überschritten. Ein um das Jahr 1750 gelebter Vorfahre würde aktuell keine Temperaturänderung bemerken.

Immer wieder plakativ wirkt es, die „maximal bis zum Jahr 2100 noch zulässigen +0,6 °C“ zuzufügen um zu zeigen, ob wirklich jemand der es sieht dann noch überzeugt ist, dass mit deren Überschreitung die Erde den un-umkehrbaren Hitzetod sterben muss.

Bild 2 Juli-Temperaturen Deutschland von 1750 … 2016. Quelle: WIKIPEDIA (DWD-Daten). Grafik vom Autor aus der Datentabelle erstellt

Bild 3 Darstellung von Bild 2 in höherer Temperaturauflösung

Ein Rückblick zum Vormonat Juni zeigt in den Parametern noch weniger von einem Klimawandel. Seit 1750 verläuft die Regressionsgerade absolut horizontal, der 30-Jahre Mittelwert liegt auf der gleichen Temperatur wie zu Beginn der Messreihe.

Bild 4 Juni-Temperaturen Deutschland von 1750 … 2016. Quelle: WIKIPEDIA (DWD-Daten). Grafik vom Autor aus der Datentabelle erstellt

Um darzustellen, wo sich die Globaltemperatur zwischen 1500 … 1750 befand, eine Globalrekonstruktion aus dem letzten IPCC Bericht. Es ist deutlich erkennbar, dass zu Beginn der Messreihe im Jahr 1750 die Erde noch mitten in einer Kaltzeit steckte. Deutschland hat den damaligen 30-Jahre Mittelwert erst im Jahr 2004 überschritten. Von der folgenden Erwärmung haben in Deutschland die Monate Juni und Juli also praktisch nichts abbekommen. Trotzdem behaupten „Klima-Fachpersonen“, die Unwetter Anfang Juni wären eine Folge der starken Klimaerwärmung gewesen.

Anmerkung: Die Kaltzeit war entgegen vielen Darstellungen nicht zu Beginn der industriellen Revolution ca. 1800 … 1850 und endete mit dem Beginn massiven CO2-Eintrags, sondern sie war mehrere Hundert Jahre früher und die Temperatur stieg bereits weit vor der „Industrierevolution“ ohne CO2 an, wie es die Proxy-Grafik im IPCC-Langbericht (Bild 5) zeigt.

Bild 5 Globaltemperaturrekonstruktionen der letzten 2000 Jahre. Teilbild aus IPCC WR1 2013 All Final, Figure 5.7 | Reconstructed (a) Northern Hemisphere

Vergleich mit dem globalen Welt-Wert (giss-Datensatz der Nasa)

Zuerst der langfristige Vergleich Welt global mit Deutschlandwerten (die Endwert-Normierung der Mittelwertkurven beachten).

Bild 6 Julitemperaturen 1750 … 2016 von Deutschland und Welt global ab 1880 (giss Datensatz) vom Autor aus den Datentabellen erstellt. Juli Welt auf Juli Deutschland 30 Jahre MW in 7.2016 normiert.

Interessant ist der Kurzzeit-Vergleich seit 1998 (Bild 7):

-Der Juli 2016 Deutschland hatte die Temperatur des Jahres 1999.

-Der „Welt-Juli“ hat sich von 1998 bis 2016 um 0,14 Grad erhöht. Das ist eine nicht signifikante Differenz, da die Welttemperatur nicht mit der erforderlichen Genauigkeit gemessen werden kann (eine moderne Messstation hat nach sorgfältiger Eichung und Platzierung eine Messtoleranz von +-0,2 °C, damit weltweit eine Differenz von 0,14 Grad signifikant zu ermitteln ist nicht möglich).

Seriös hätte der Juli also immer noch den Wert von 1998 mit leicht positiver Tendenz.

Bild 7 Julitemperaturen 1996 … 2016 von Deutschland und Welt global (giss Datensatz) vom Autor aus den Datentabellen erstellt. Juli Welt auf Juli Deutschland 30 Jahre MW in 7.2016 normiert.

Solche wissenschaftlich-seriöse Betrachtungen interessieren aber niemanden, wenn man daraus eine Alarmmeldung generieren kann und vor allem die Gefahr besteht, dass der nächste Juli auch global kühler werden könnte, weil der starke El Nino vorbei ist. Das gilt auch für die Klimaberaterin von Frau Hendricks:

Klimaretter.Info: Heißester Juli aller Zeiten

Der Juli war im globalen Durchschnitt der wärmste, der je registriert wurde, seit im Jahr 1880 die globalen Wetteraufzeichnungen begannen. Laut der Auswertung der US-Raumfahrtbehörde Nasa handelt es sich außerdem um den zehnten Rekordmonat in Folge. Im Schnitt war der siebte Jahresmonat um 0,84 Grad Celsius wärmer als der Juli im Durchschnitt der Vergleichsperiode von 1950 bis 1980.

Wenn man noch bedenkt, dass die NASA nicht die internationale, meteorologische Referenzperiode von 1961 – 1990, sondern eine „eigene“ die „zufällig“ genau in der kältesten Zeitspanne liegt als Vergleich angibt, erkennt man sofort, dass diese Institution überhaupt nicht daran dachte, eine seriöse Meldung abgeben zu wollen.

Fazit

Eine Meldung:
„… Vergleich zur internationalen klimatologischen Referenzperiode 1961-1990 um +1,7 K zu warm“
von einer offiziellen Stelle klingt nach einer großen Niederlage im Klimawandel-Kampf gegen die unaufhörliche Erderwärmung.

Man kann aber genauso begründet melden:
Der 30-Jahre Juli-Mittelwert liegt erst seit dem Jahr 2004 über dem 30-Jahre Mittelwert vom Jahr 1780 (17,13 °C), das sich damals in einer Kaltphase der Globaltemperatur befand. Die Juli-Temperatur lag gerade einmal um 0,94 K höher, als im Jahr 1780 und hatte praktisch genau den Wert zu Beginn der Messreihe im Jahr 1750 (1750: 18,5 °C; 2016: 18,6 °C).
Eine kurzfristige, zwischenzeitliche Temperaturerhöhung war lediglich einer zyklischen, diesmal besonders starken atlantischen Oszillation zu verdanken.

Es ist beängstigen, dass in Deutschland die Temperaturen stagnieren. Wenn die Temperaturen wie es der Eiszeitzyklus vorgibt, in nicht zu ferner Zukunft wieder abnehmen, ist Deutschland davon aufgrund des niedrigen Temperaturniveaus besonders schnell und stark betroffen. Sofern noch die von einigen Fachleuten angegebene, wesentliche Ursache der geringen, restlichen Erwärmung Wärmeinsel-Effekte sein sollten, stellt sich die Klimaentwicklung als dramatische Gefahr einer kommenden Kälte dar.

Klingt verwegen, so ähnlich wurde es aber bereits um 1970 von Wissenschaftlern berichtet. Und die aktuellen Daten könnten es aktuell neu belegen.

Nachtrag

Die Diskussion, wie weit der (in den DWD-Daten nicht berücksichtigte) Wärmeinseleffekt die Temperaturmessungen zusätzlich beeinflusst und Werte erhöht, ist hier nicht angesprochen worden. Wer daran Interesse hat, kann es nachlesen:

EIKE Stefan Kämpfe, Josef Kowatsch: Der Monat Juli wurde wärmer, in Deutschland aber nur wegen des Wärmeinseleffektes (WI), einer höheren Sonnenscheindauer und geänderter Wetterlagenhäufigkeiten

Quellen

[1] wetterdienst.de: Deutschlandwetter im Juli 2016

http://www.wetterdienst.de/Klima/Aktuell/

[2] wetteronline: Rückblick Juli 2016 Doch noch wärmer als im Mittel

http://www.wetteronline.de/wetterrueckblick/2016-07-30-rb

[3] EIKE Stefan Kämpfe, Josef Kowatsch: Der Monat Juli wurde wärmer, in Deutschland aber nur wegen des Wärmeinseleffektes (WI), einer höheren Sonnenscheindauer und geänderter Wetterlagenhäufigkeiten

http://www.eike-klima-energie.eu/klima-anzeige/der-monat-juli-wurde-waermer-in-deutschland-aber-nur-wegen-des-waermeinseleffektes-wi-einer-hoeheren-sonnenscheindauer-und-geaenderter-wetterlagenhaeufigkeiten/