1

Naturkatastrophen: «Noch nicht erlebt» (?)

Es kommt selten vor, dass «10 vor 10»-
­Moderator Arthur Honegger und US-Präsident Donald Trump mit einer Stimme sprechen. «Die Fluten sind beispiellos», twitterte Trump am 27. August über Hurrikan Harvey. «Ein Tropensturm, wie ihn die Menschen in Texas noch nicht erlebt haben», verkündete Honegger einen Tag später auf SRF.

Harvey forderte etwa fünfzig Todesopfer. Das ist tragisch. Ob die Folgen des Hurrikans aber «beispiellos» sind, hängt von der Sichtweise ab :

Im Jahr 1900 traf der Galveston-Hurrikan vor Houston auf die Küste und tötete zwischen 6000 und 12 000 Menschen. Es gab damals so viele Leichen, dass man kaum mehr nachkam mit dem Bau von Massengräbern. 2005 forderte Hurrikan Katrina im Süden der USA mit rund 1800 ebenfalls viel mehr Tote als Harvey.

Auch die Windgeschwindigkeit war nicht beispiellos: In der Liste der stärksten Tropenstürme, die seit 1850 das US-Festland erreicht haben, steht Harvey nur an vierzehnter Stelle. Dieser beendete vielmehr eine aussergewöhnlich lange Periode von zwölf Jahren, in denen kein grösserer Hurrikan mehr das US-Festland erreicht hatte.

In den Sumpf gebaut

Rekordmässig war bei Harvey der Niederschlag: An gewissen Messstationen regnete es soviel wie noch nie bei einem Tropensturm in Amerika. Das lag daran, dass der Hurrikan tagelang über der Küstenlinie verharrte, während andere Stürme meist zügig weiterziehen. Daran ist kaum der ­Klimawandel schuld: Es ist nicht bekannt, dass Hurrikane wegen der Erderwärmung länger stehenbleiben.

Beispiellos waren die Schäden, die Harvey in Texas anrichtete: Alleine in Houston wurden Zehntausende Häuser zerstört. Zuerst war von Kosten von gegen 40 Milliarden Dollar die Rede. Anfang Woche sprach der texanische Gouverneur, der an möglichst viel Hilfe interessiert ist, von bis zu 180 Milliarden. Das wäre mehr als der Schaden, den Katrina 2005 anrichtete (160 Milliarden).

Dafür ist aber ebenfalls nicht der Klimawandel schuld. Vielmehr werden um Houston seit Jahrzehnten überschwemmungsgefährdete Gebiete besiedelt. Man hat buchstäblich in den Sumpf gebaut.

============================================================

)* Anmerkung der EIKE-Redaktion : Dieser Artikel ist zuerst erschienen in WELTWOCHE Zürich :

Naturkatastrophen: „Noch nicht erlebt“ | Die Weltwoche, Nr. 36/2017 | 07. September 2017

http://www.weltwoche.ch/

EIKE dankt der Redaktion der WELTWOCHE und dem Autor Alex Reichmuth für die Gestattung des ungekürzten Nachdrucks.

============================================================




Wo ist die Erwärmung seit der vorindustriellen Zeit?

Seit der Industrialisierung hat zweifelsohne der Ausstoß von CO2 zugenommen. Denn jeder Verbrennungsprozess, jede Energiegewinnung, besser Energieumwandlung erzeugt Kohlendioxid als sauberes Abgas, da bei fossilen Energieträgern die Energie in den Kohlenstoffverbindungen gespeichert ist. Geringer Energieverbrauch bedeutete zugleich Armut und Kälte im Winter.

Dabei wird von den CO2-Treibhausgläubigen behauptet, dass die Temperaturen seit der vorindustriellen Zeit um 1 bis 2 Grad gestiegen wären, und Schuld dafür könne nur das angebliche Treibhausgas Kohlendioxid sein. Das hatte bereits Svante Arrhenius vor über 120 Jahren postuliert und sehnsüchtig auf die Erwärmung seiner Heimat Schweden gewartet. Einen Versuchsbeweis für die Behauptung konnte er nicht liefern. Bis heute, also bis Redaktionsschluss dieses Artikels konnte seine Treibhaus-Hypothese und seine freudige Erwartung einer bevorstehenden CO2-Erwärmung noch durch keinerlei Versuchsbeweise bestätigt werden. Deshalb gibt es auch keinerlei technische Anwendungen für die behauptete Erwärmung durch CO2.

Doch wenden wir uns den Temperaturen zu. Im Artikel überprüfen wir die Behauptung, dass seit der vorindustriellen Zeit die Temperaturen zugenommen hätten. Dabei stellt sich die Frage, was man unter vorindustrieller Zeit definiert. Auch beim Pariser Klimagipfel taucht der Begriff öfters auf, aber ohne jede Zeitangabe. Für afrikanische Staaten bedeutet vorindustriell mitunter nur 30/40 Jahre. Manche Völker leben heute noch fast in vorindustrieller Zeit.

Wann beginnt die vorindustrielle Zeit? Wir beziehen uns im Artikel auf Deutschland, bzw. auf das Heilige Römische Reich/Deutscher Nation, das 1806 von Napoleon aufgelöst wurde. Mozart und Goethe dürften auch in vorindustrieller Zeit gelebt haben. Nach der Behauptung der Treibhausgläubigen war es also damals um ein bis zwei Grad kälter als heute, weil es nur einen minimalen Kohlendioxidausstoß gegeben hat.

Unsere Definition: Die vorindustrielle Zeit endete in Mitteleuropa zwischen 1820 und 1850, also auch das warme Mittelalter, die Zeit des Burgenbaus und die Eroberung Süddeutschlands durch die Römer gehören zur vorindustriellen Zeit.

Die zuverlässigen Zeitreihen, gemessen mit Thermometern in Celsius reichen aber leider nicht so weit zurück und vergleichbar sind auch nur normierte Wetterstationen, bei welchen die Ablesungen regelmäßig und zu gleichen Zeitpunkten durchgeführt und anschließend dokumentiert wurden. Der Deutsche Wetterdienst kann deshalb seine Zeitreihe Deutschlands nur bis 1881 zuverlässig zurückführen, wobei man die behauptete Zuverlässigkeit schlecht überprüfen kann, schließlich hatte das Kaiserreich ganz andere Grenzen als die heutige BRD und die Messstationen standen an anderen Orten als heute oder die Orte haben sich vollkommen verändert. Vielfach wurde auch die Station unter Beibehaltung des Ortsnamens verlegt. Fazit: keine einzige Station steht heute noch unverändert so wie sie 1881 gestanden ist.

Richtigerweise muss man zugeben, dass die Behauptung der ein bis zwei Grad Erwärmung seit vorindustrieller Zeit wissenschaftlich überhaupt nicht überprüfbar, sondern lediglich abschätzbar ist. Wir wagen trotzdem einen Versuch mit der Klimastation Berlin/Tempelhof.

Die Klimastation Berlin/Tempelhof liefert seit 1756 zuverlässigen Aufzeichnungen, die ersten 50 Jahre sind unbrauchbar. 1756 war der Beginn des Siebenjährigen Krieges zwischen Preußen und Österreich, zwischen Friedrich dem Großen und Maria-Theresia und erfüllt damit die Bezeichnung vorindustriell.

Der Temperaturverlauf von Berlin/Tempelhof über die letzten 260 Jahre sieht so aus:

Abb. 1: Temperaturentwicklung von Berlin/Tempelhof seit der vorindustriellen Zeit. Zu Beginn war es ähnlich warm wie in der Gegenwart. Eingezeichnet sind noch die Temperaturen der Jahre 1881 und 1931.

Feststellung anhand der Tempelholfgrafik: Der Temperaturanstieg seit der vorindustriellen Zeit ist sehr moderat. Keinesfalls 1 bis 2 Grad.

1881, dem Aufzeichnungsbeginn des Deutschen Wetterdienstes war es kälter als zu Mozarts Zeiten und ebenso 1931, ein Jahr, das gerne vom grünen BaWü-Umweltminister Untersteller als Startjahr der Betrachtungen genommen wird. Außerdem zeigt die Grafik, dass die Temperaturen keinesfalls langsam gestiegen sind wie die Trendlinie dies unserem Auge vorgibt. Es gab immer wieder wärmere und kältere Jahrzehnte. Auch außerhalb Deutschlands verlief die langfristige Erwärmung bescheiden und wurde durch Klimasprünge geprägt, so in Zentralengland (CET), wo die Messungen bis 1659 zurückreichen und den Höhepunkt der „Kleinen Eiszeit“, der vermutlich kältesten Phase seit mindestens 2.000 Jahren, mit erfassen:

Abb. 2: Nur ein knappes Kelvin Erwärmung in Zentralengland bis heute seit 1659 trotz „Kleiner Eiszeit“ (Maunder- Minimum) am Beginn der Messreihe.

Aber es gibt sogar Orte, welche sich langfristig abkühlten, so Dale Enterprise/VA. In den USA:

Abb. 3: Geringe Abkühlung seit 1881 an einer ländlichen US- Wetterstation.

Damit haben wir 2 Zwischenergebnisse:

  1. Für die behauptete CO2-Erwärmung gibt es bis heute keinen wissenschaftlich durchgeführten Versuchsbeweis.
  2. Seit der vorindustriellen Zeit wurde es überhaupt nicht um 2 Grad wärmer, sondern weniger als 1 Grad. Stellenweise fiel die Erwärmung ganz aus, obwohl die CO2- Konzentration überall auf der Welt stark angestiegen ist.

Wurde es überhaupt wärmer seit 1756?

Berlin/Tempelhof von 1756 und heute sind eigentlich zwei verschiedene Orte gleichen Namens. Geblieben ist neben dem Namen auch der gleiche Längen-und Breitengrad, sonst aber nichts. Auch die Wetterstation befindet sich nicht mehr beim damaligen Gutshof, sondern wahrscheinlich an der Landebahn des Flughafens. 1756 war Tempelhof noch eine kleine ländliche Streusiedlung mit Exerzierplatz.

Kleine Streusiedlung Tempelhof, etwa 1834 Quelle: Wikipedia, entnommen aus der Broschüre „Berlin-Tempelhof: Straßen, Plätze, Brücken. Ihre Herkunft und Bedeutung. Hrsg. Tempelhofer CDU

Und heute ist die einst kleine Streusiedlung ein moderner Stadtteil von Berlin mit über 60 000 Einwohnern. Die wohl sehr geringe Einwohnerzahl von 1756 konnten wir nicht ermitteln.

Damit ist die Wetterstation Berlin/Tempelhof eine ganz typische Wärmeinsel-Station. In der Temperaturreihe ab 1756 wird die zunehmende Temperaturzugabe vom Kleindorf zur Großstadt mitgemessen, die zunehmende Stadtwärme ist in der Datenreihe verborgen. Berlin/Tempelhof ist somit eine Messstation mit einem hohen Wärmeinseleffekt seit 1756

Wir sind nicht in der Lage, den WI-effekt dieser Station, also eine Erwärmung, die ausschließlich auf die Stadtentwicklung zurückzuführen ist, seit 1756 genauer zu beziffern. Aufgrund unserer Erfahrung mit Wärmeinseln taxieren wir den WI-Effekt etwa mit 1,5 bis 2 Grad seit 250 Jahren ein. Das bedeutet: Von den aktuellen Werten müssten ein bis zwei Grad subtrahiert werden, um eine Vergleichbarkeit herzustellen.

Leichter fällt die WI-Abschätzung der letzten drei Jahrzehnte durch Temperaturvergleiche, Tempelhof im Vergleich zum DWD-Durchschnitt und im Vergleich mit einer ländlichen Station, deren Umgebung sich weniger verändert hat. Wir wählen Neugersdorf in der Oberlausitz.

Abb.: 4 bis 6: In den letzten 3 Jahrzehnten wurde es überall wärmer in Deutschland. Bei der Berliner Station ist die Steigung der Trendlinie jedoch am stärksten. Das führen wir auf den mitwirkenden und sich vergrößernden Wärmeinseleffekt der Stadt in den letzten 30 Jahren zurück. Am wenigsten stiegen die Temperaturen im ländlichen Neugersdorf, der DWD-Schnitt der deutschen Stationen liegt in der Mitte.

Ergebnis: Im ländlichen Neugersdorf an der Spreequelle wurde es in den letzten 30 Jahren um ein halbes Grad, in Tempelhof hingegen um ein Grad wärmer. Ähnlich wie Neugersdorf verhalten sich auch unsere anderen wärmeinselärmeren Orte wie Schneifelforsthaus, Zwönitz, oder Amtsberg. Die städtische Station in Düsseldorf ist schon weitgehend ausgereizt und hat die WI-effekterwärmung weitgehend hinter sich. (Grafiken hier nicht gezeigt)

Zwei wesentliche weitere Erwärmungsursachen in Deutschland sollen hier nicht unerwähnt bleiben. Dies sind eine höhere Sonnenscheindauer und geänderte Häufigkeitsverhältnisse der Großwetterlagen, besonders im Sommer, in welchem die Häufigkeit der kühlend wirkenden, wolkenreichen West-, Nordwest- und Nordlagen deutlich abnahm :

Abb. 7: Wärmere Sommer in Deutschland seit 1881- auch, weil kühle, wolkenreiche Großwetterlagen in dieser Jahreszeit seltener wurden.

Abb. 8: Wärmere Sommer in Deutschland wegen steigender Sonnenscheindauer; besonders ab den 1980er Jahren. Leider liegt ein Deutschland- Mittel der Sonnenscheindauer erst seit 1951 vor.

Zusammenfassung.

1) Anhand der Station Berlin-Tempelhof haben wir gezeigt, dass es gegenüber der vorindustriellen Zeit nur unbedeutend wärmer wurde.

2) Die Erwärmung ist verschiedensten Wärmeinseleffekten, höherer Globalstrahlung und geänderten Wetterlagenhäufigkeiten geschuldet.

3) Wäre Tempelhof exakt so vorindustriell kleinbäuerlich geblieben wie 1756, dann wäre es mit großer Wahrscheinlichkeit in der Gegenwart dort kälter als vor 250 Jahren.

Beantwortung der Artikelüberschrift.

Würde man die verschiedensten WI- Effekte, die hohe Sonnenaktivität im späten 20. Jahrhundert, die Erwärmungswirkung der zunehmenden Globalstrahlung und der geänderten Großwetterlagenhäufigkeiten herausrechnen, hätten die Temperaturen seit der vorindustriellen Zeit – seit Mozarts Zeiten- trotz steigender CO2- Konzentrationen sogar leicht abgenommen. Diese Aussage gilt für Berlin, mit hoher Wahrscheinlichkeit aber für ganz Deutschland.

Diese Feststellung anhand der Temperaturaufzeichnungen deckt sich auch mit den Naturbeobachtungen und den historischen Literaturbeschreibungen des Wetters aus vorindustrieller Zeit im Vergleich zu der realen heutigen Natur außerhalb der Ansiedlungen. Das hatten wir bereits in einem EIKE-Artikel festgestellt: http://www.eike-klima-energie.eu/news-cache/der-fruehling-beginnt-in-deutschland-immer-spaeter-auch-die-forsythienbluete-in-hamburg-ist-spaeter/

Damit wäre anhand der Grafiken erneut bewiesen, dass Kohlendioxid keinerlei Erwärmung in den letzten 250 Jahren bewirken konnte. CO2 ist somit kein erwärmendes Treibhausgas, es handelt sich bei dem Begriff lediglich um eine geistreiche Wortschöpfung, ähnlich dem Begriff „Erbsünde“ der Kirche im Mittelalter. Die Ausbreitung der Wärmeinseln sind der einzige erwärmende menschliche Eingriff auf das Klima.

Natürlich sprechen wir uns für einen umfangreichen Natur- und Umweltschutz aus. Einen Klimaschutz mittels CO2-Einsparung gibt es nicht.

Josef Kowatsch, Naturschützer und unabhängiger Klimaforscher

Stefan Kämpfe, Diplomagraringenieur, unabhängiger Natur- und Klimaforscher




Die Brennelementesteuer – Chronik eines Versagens

Diese umgangssprachlich so bezeichnete Steuer (amtlich heißt sie „Kernbrennstoffsteuer“) sollte durch Abgaben auf Brennelemente in Kernkraftwerken die Staatseinnahmen erhöhen. Sie wurde von 2011 bis 2016 erhoben. 2017 musste das eingenommene Geld nach einem Urteil des Bundesverfassungsgerichts wieder zurückgezahlt werden.

Das Gesetz war Ergebnis der 2010 ausgehandelten Laufzeitverlängerung für Kernkraftwerke unter CDU/FDP-Regie und zielte darauf ab, die damals satten Gewinne der Betreiber zugunsten der Staatskasse anzuzapfen. Sind die Laufzeiten länger, soll der Staat auch etwas davon haben, so das Kalkül. Obwohl Verfassungsrechtler frühzeitig warnten, ging im Oktober 2010 das Gesetz wie geschmiert durch den Bundestag.

Im Juni 2017 erklärte das Bundesverfassungsgericht das Gesetz für verfassungswidrig. Der Spruch in Karlsruhe ließ an Deutlichkeit nichts zu wünschen übrig. Die Kernbrennstoffsteuer sei eben keine Verbrauchssteuer, nicht der Strom würde besteuert, sondern ein Teil der Produktionsmittel. Dafür habe der Bund aber keine Gesetzgebungskompetenz. Es gibt eben in Deutschland kein freies Steuererfindungsrecht – bis zur Bananenrepublik ist es noch ein Stück Weg. Die Steuer sei „von Anfang an mit erheblichen finanzverfassungsrechtlichen Unsicherheiten“ belastet gewesen. Deswegen werde das Gesetz rückwirkend und vollständig für nichtig erklärt.

 

Nehmen und Geben

Die Rückzahlung beträgt inklusive Zinsen über sieben Milliarden Euro. Wie kam dieses offenbar nicht hieb- und stichfeste Gesetz durch den Bundestag?

In der Wahlperiode 2013-2017 sitzen im Bundestag mehr als 80 Juristen, 2010 werden es kaum weniger gewesen sein. Wären Sie Spitzenkräfte ihrer Branche, würden sie wohl an anderer Stelle mehr leisten, mehr bewirken – und mehr verdienen. Vermutlich greifen vor allem jene Juristen nach einem Mandat, die in ihrem Fachgebiet nicht die hellsten Kerzen auf dem Leuchter sind.

Sollte der Wissenschaftliche Dienst des Bundestages beteiligt gewesen sein, steht auch dieser in zweifelhaftem Licht. Sollte er nicht beteiligt gewesen sein – warum wurde er nicht gefragt? Bei der Vorratsdatenspeicherung wies dieser schon auf das absehbare Scheitern vor dem Europäischen Gerichtshof hin (der Spruch des Bundesverfassungsgerichts steht noch aus). Auch der von der Regierung erfundene „Bundestrojaner“ ist in Teilen verfassungswidrig, zum „Netzwerkdurch-setzungsgesetz“ gibt es noch kein Urteil.

Offenbar werden Gesetze nach dem Try-and-Error-Prinzip erlassen. Kaum einem Arbeitnehmer würde man solche Arbeitsweise durchgehen lassen.

Der Vorgang um die Brennelementesteuer gäbe Regierung und Opposition, also den Einheitsparteien der Energiewende, jeden Anlass, kritische Rückschau zu halten. Natürlich auch und vor allem der Kanzlerin. Wer jetzt von ihr eine bedauernde Äußerung erwartet hätte, vielleicht sogar einen Ansatz von Selbstkritik, wurde enttäuscht. Wer im tiefen Bewusstsein allseits beklatschter Alternativlosigkeiten regiert, lässt sich von einem solchen Fauxpas nicht aus der Ruhe bringen. So erschöpfte sich ihre Reaktion in dem Satz: „Die schwarze Null ist nicht gefährdet.“

So leicht kann man ungestraft darüber hinweggehen, wenn man ein paar Steuermilliarden verzinst wieder rausrücken muss. Sanktionen sind in diesen Sphären ausgeschlossen. Es geht ja nicht um den eigentumsrechtlichen Status eines Pfandbons, der von einer Supermarktkassiererin verletzt wird, sondern um die „Gemeinschaftsaufgabe“ Energiewende, wo unsere Regierungen seit 20 Jahren mit wenig Erfolg eine Lernkurve absolvieren und alle Fehler unter eine autobahnbreite Toleranzgrenze fallen.

Auch beim so genannten „Atom-Moratorium“ gab es regierungsseitig juristischen Pfusch. Um Handlungsfähigkeit zu demonstrieren, gab der Bund am 14. März 2011 die Weisung (später nannte sie das eine Bitte) zur Abschaltung an die betroffenen Länder, die sieben ältesten Kernkraftwerksblöcke für drei Monate abzuschalten. Der Bundestag wurde übergangen. Die Kraftwerke in Japan und Deutschland seien technisch vergleichbar. Damit läge auch ein gleichwertiges Risiko vor, so die hessische Umweltministerin Puttrich (CDU). Nur die Gefahr eines Tsunami ließ sich nicht konstruieren.

 

Äußerste Tsunami-Vorsorge

Für den damaligen Umweltminister Röttgen (CDU) war dies ein „Gebot äußerster Vorsorge“ und eine „Gefahrenabwehr“. Warum sich die Gefahrenlage geändert hatte, weiß bis heute niemand, aber das Argument „äußerste Vorsorge“ ist multipel verwendbar, wenn man an den Diesel, beliebige Emissionen oder tägliche Lebensrisiken denkt. Damit kann eine Regierung buchstäblich alles reglementieren.

Merkel und Röttgen beriefen sich auf den Paragrafen 19 des Atomgesetzes, was wiederum für viele Verfassungsrechtler nicht stichhaltig war. Der ehemalige Präsident des Bundesverfassungsgerichts Hans-Jürgen Papier nannte die Stilllegung der älteren Meiler „illegale Maßnahmen“.

Als sich die rechtlichen Zweifel mehrten und RWE klagte, wollte Angela Merkel für die Abschaltung von Biblis nicht verantwortlich gewesen sein, obwohl diese Maßnahme aufgrund eines Beschlusses der Bundesregierung zustande kam.

„Da kann nicht der Bund den Hut aufhaben nach der Rechtslage“, sagte sie vor einem Untersuchungsausschuss des Hessischen Landtags. Nach Merkels Darstellung haben der hessische Ministerpräsident Volker Bouffier und die damalige Umweltministerin Puttrich in alleiniger Verantwortung gehandelt, als sie dem Biblis-Betreiber RWE die Abschaltverfügung zustellten. Bouffier vertrat dagegen den Standpunkt, eine Weisung der Bundesregierung ausgeführt zu haben, denn Berlin habe den Bundesländern vorgegeben, dass und wie die Atomkraftwerke abzuschalten seien. Außerdem soll ihm die Kanzlerin versprochen haben, der Bund werde das Land „nicht im Regen stehen lassen“, falls es zu Klagen der KKW-Betreiber komme. Aber an eine derartige Zusage konnte oder wollte Merkel sich nicht erinnern. Sie meinte, der Vollzug der Stilllegung sei Sache der Länder gewesen. Somit habe Hessen auch Rechtsfehler zu verantworten. Der Schwarze Peter wurde munter hin und her geschoben, in der Hoffnung, die Gerichte würden die Schadensersatzforderung von RWE abweisen.

 

Schaden und Ersatz

Das Bundesverwaltungsgericht in Leipzig bestätigte aber das Urteil des Kasseler Verwaltungsgerichtshofs zu den Schadenersatzforderungen des Betreibers RWE betreffend das KKW Biblis. 235 Millionen Euro wurden RWE zugestanden.

2016 kam dann das Bundesverfassungsgericht in Karlsruhe zu dem grundsätzlichen Schluss, die Stromkonzerne hätten Anspruch auf eine „angemessene“ Entschädigung wegen des beschleunigten Atomausstiegs. Kritiker hatten die Begründung des Moratoriums mit „Gefahrenabwehr“ als wenig überzeugend bezeichnet. Die Ereignisse in Japan mit einem Seebeben und einem folgenden Tsunami seien ja kaum auf Deutschland übertragbar.

Bevor der Streit zwischen Hessen und dem Bund in eine Schlammschlacht überging, lösten RWE und Co das Problem auf andere Weise. Die Energiekonzerne zogen insgesamt 20 Klagen rund um den Atomausstieg gegen die Bundesrepublik zurück und vereinbarten eine Einmalzahlung von 23 Milliarden Euro für die Endlagerung. Damit haben alle Seiten Rechtssicherheit und alle weiteren schwer kalkulierbaren weil politisch maximierten Folgekosten der Endlagerung fallen dem Staat und seinen treuen Steuerzahlern zu.

Natürlich war dieses Moratorium zur Sofortabschaltung vom 14. März 2011 ohne praktischen Sinn. Es galt aber, sich als handlungsfähige, entschlossene und ihre Bürger schützende Regierung darzustellen und der zu diesem Zeitpunkt deutlichen Erwartungshaltung des kernkraftkritischen Teils der Bevölkerung zu entsprechen.

Deutsche Politik besteht zu einem immer größer werdenden Teil daraus, „Zeichen zu setzen“ und der Zeitpunkt war von einiger Brisanz. Am 20. März 2011 standen Landtagswahlen in Sachsen-Anhalt an, am 27. März in Baden-Württemberg und Rheinland-Pfalz. Eine über 30 Jahre gepflegte Atomangst in der Bevölkerung konnte nun dazu führen, dass Mehrheiten der CDU schmelzen und die Kanzlerin Machtverlust erleidet. Zwar ließ sich nicht vermeiden, dass in Stuttgart ein grüner Landesfürst den Thron bestieg, aber immerhin ein Katholik, der heute die Kanzlerin in seine Gebete einschließt. Ein über Parteigrenzen hinweg relativ seltener Vorgang.

Auch der Interessenlage der CDU-Bundestagsabgeordneten und insbesondere der Juristen unter ihnen dürfte dieser Kurs entsprochen haben. Wozu sich für arrogante Großkonzerne zum Helden machen und das Mandat bei nächsten Wahlen gefährden? Bisher kam der Strom immer aus der Dose und die schwer abzuschätzenden Kosten des Atomausstiegs zahlen andere. Abgeordnete wollen in der Regel wiedergewählt werden und nicht auf den freien Arbeitsmarkt, in den rauen Wind der Realitäten.

Blicken wir erwartungsvoll den nächsten Erzeugnissen bundespolitischer Gesetzesproduktion entgegen. Sie sichern Beschäftigung für Anwälte und Gerichte. Die Brennelemente strahlen indes steuerfrei weiter – wo auch immer.




Doch nicht menschengemacht!

Alex Reichmuth (Red. WELTWOCHE)*

Letzte Woche konnte das SRF einen seiner Lieblingsexperten im Studio begrüssen: Andreas Fischlin. Der Klimaforscher der ETH Zürich lieferte im «10 vor 10»-Gespräch zuverlässig das Erwartete. Er bestätigte, dass an den jüngsten Natur- und Wetterkatastrophen der Mensch schuld sei. Hurrikan über Houston? «Der Klimawandel spielt hier hinein.» Bergsturz im Bergell? «Eindeutig auf den menschengemachten Klimawandel zurück­zuführen.» Waldbrände in Südeuropa? «Kommen in Zukunft viel häufiger vor.»

Kein Wort aber verlor man beim Schweizer Fernsehen, so wenig wie in anderen Schweizer Medien, über eine Studie, die vor kurzem im Fachjournal Geo Res J publiziert worden ist. ­Dabei lässt das Resultat, zu dem australische Forscher gekommen sind, aufhorchen: Die ­Erwärmung der Erde um etwa ein Grad Celsius seit Mitte des 19. Jahrhunderts habe weit­gehend natürliche Ursachen.

Stalagmiten als Datenträger

Grundlage der Studie der Biologin Jennifer ­Marohasy und des Chemikers John Abbot ­waren Temperaturreihen für die vergangenen 2000 Jahre, die sich auf sogenannte Proxy-­Daten abstützen. Solche Daten lassen sich aus Baumringen, Eisbohrkernen, Stalagmiten oder Korallen gewinnen. Mittels Proxy-Daten kann man auf das Klima zu Zeiten schliessen, als es noch keine zuverlässigen meteorologischen Messungen gab. Marohasy und Abbot haben sechs Proxy-Temperaturreihen, die die letzten 2000 Jahre abbilden, einem neuartigen Computerverfahren unterworfen. Dieses beruht auf einer Art künstlichem neuronalem Netzwerk, das fähig ist, in Zeitreihen Regelmässigkeiten zu erkennen und daraus die künftige Entwicklung abzuschätzen. Die beiden Forscher haben dieses Verfahren schon früher mit Erfolg angewandt, etwa um Regenmengen in Australien vorherzusagen.

Bei den Temperaturreihen interessierte ­Marohasy und Abbot nun, wie sich diese ohne den CO2-Ausstoss des Menschen mutmasslich entwickelt hätten. Entsprechend fütterten sie ihre Computer nur mit den Proxy-Daten bis zum Jahr 1830, als die Verfeuerung fossiler Brennstoffe im grossen Stil begann. Die Programme suchten also nach periodischen Mustern in dem Teil der Reihen, der sicher nicht durch den CO2-Ausstoss beeinflusst ist. Es er­gaben sich unter anderem Schwankungen im Rhythmus von etwa sechzig Jahren um einige Zehntelgrade. Und es zeigte sich ein stärkeres, langfristiges Auf und Ab: Nach einer Erwärmungsphase bis etwa 1200, als es mindestens so warm war wie heute, sank die Temperatur um rund ein Grad, bis sie ab 1650 tendenziell wieder anstieg.

Aus den eruierten Regelmässigkeiten schätzte das Verfahren den weiteren, sozusagen natürlichen Verlauf der Reihen ab. Anschliessend verglichen die Forscher die Prognosen mit dem tatsächlichen Verlauf der Temperaturreihen ab 1830. Es zeigten sich nur geringe Abweichungen, im Schnitt lediglich um 0,1 Grad. Die Welt­temperatur wäre demnach auch ohne Einfluss des Menschen um 0,6 bis 1 Grad gestiegen. Maro­hasy und Abbot folgerten, dass die Erwärmungswirkung durch zusätzliches CO2 in der Atmosphäre viel geringer sein müsse, als andere Klimaforscher behaupten.

Seit Jahren verkündet aber ein Zirkel tonangebender Wissenschaftler, am Haupteinfluss des Menschen an der Erderwärmung gebe es keine Zweifel mehr.

Die Reaktionen auf die Studie von Marohasy und Abbot fielen harsch aus: Es handle sich um «junk science», also um wertlose Wissenschaft, schrieb die linksliberale britische Zeitung The Guardian. Im Artikel kamen prominente Klimaforscher zu Wort, die Marohasy und Abbot eine Reihe gravierender metho­discher Fehler vorwarfen – etwa, dass die Proxy-Datenreihen willkürlich ausgewählt und die Berechnungen falsch interpretiert worden seien. Auch bei Pro Clim, einem Zusammenschluss von Schweizer Klimawissenschaftlern, hält man nichts von der Studie. Die verwendeten Zeitreihen seien grösstenteils nur lokal und nicht global bedeutend, schreibt Pro Clim auf Anfrage der Weltwoche. Zudem weise die Studie eine Reihe von «groben Fehlern» auf.

Seriöses Fachmagazin

Das Geo Res  J, in dem die Studie ­erschienen ist, ist allerdings ein ­seriöses Fachmagazin. Es wird von Elsevier herausgegeben, einem der führenden Wissenschaftsverlage der Welt. Die Studie hatte vor der Publikation eine kritische Begutachtung durch unabhängige Wissenschaftler bestanden. Die Fachgutachter hätten im Rahmen dieser peer review keine Fehler in der Studie entdeckt, bestätigte der Herausgeber des Magazins gegenüber dem Guardian.

Sicher muss die Qualität wissenschaftlicher Ergebnisse immer hinterfragt werden. Doch was die heftige Kritik an der Studie in Geo Res  J betrifft, kommt der Verdacht auf, dass diese auch andere Gründe hat als rein fachliche: Die Autoren Jennifer Marohasy und John Abbot ­gehören nämlich zu den Forschern, die nicht an die These des menschengemachten Klimawandels glauben – und das auch offen sagen. «Die wissenschaftlichen Fakten sind alles andere als klar», schrieb Marohasy in einem Internetkommentar – in Anspielung auf die Behauptung, kein ernsthafter Forscher könne mehr an der Verantwortung des Menschen an der Erderwärmung zweifeln. «Vielmehr sind die grund­legenden physikalischen Mechanismen [des Klimas, Anm. d. Red.] komplex und noch kaum geklärt», so die Biologin weiter.

Klar ist, dass die Studie von Marohasy und Abbot alleine keinen Beweis darstellt, dass die Erderwärmung nicht doch massgeblich vom CO2-Ausstoss angetrieben ist. Die beiden Forscher haben mit einer neuartigen Art der Datenberechnung gearbeitet, deren Aussagekraft ­diskutabel ist. Grundsätzlich ist die Bedeutung von Computerberechnungen zum Klima ­immer davon abhängig, welche Wirkung von chemischen Substanzen man annimmt, welche physikalischen Zusammenhänge man zugrunde legt und welche Qualität die eingespeisten ­Daten haben.

Man muss aber wissen, dass sich die tonangebenden Wissenschaftler bei ihren Warnungen vor einer weiteren ­Erwärmung praktisch ausschliesslich auf Computerberechnungen abstützen, die Kritiker seit langem als unbrauchbar bezeichnen. Diese Kritik ist nicht einfach nur böse Propaganda, denn es wurden in der Tat schon krasse Fehler hochdekorierter Klimawissenschaftler belegt.

Die bekannteste solcher Fehlleistungen ist wohl die sogenannte Hockeyschläger-Kurve des amerikanischen Klimaforschers Michael Mann, die auf Computerberechnungen beruht. Sie zeigte eine Welttemperatur, die während ­vieler Jahrhunderte praktisch unverändert blieb, um dann im 19. Jahrhundert plötzlich steil anzusteigen. Der Weltklimarat bildete die Kurve in seinem dritten Sachstandsbericht von 2001 an zentraler Stelle ab, um so vor einer Klimakatastrophe zu warnen. Später wies der kanadische Bergbauspezialist Steve McIntyre nach, dass die statistischen Verfahren von Michael Mann mathematisch untauglich sind. Damit hatte ein Hobbyforscher einen der höchstdekorierten Klimaforscher der Welt ­widerlegt.

Die Ergebnisse von Jennifer Marohasy und John Abbot stehen nicht so quer, wie man meinen könnte. Wissenschaftliche Resultate, die den Einfluss des Menschen auf das Klima als weit geringer als angenommen zeigen, sind keine Seltenheit. Sie kommen manchmal sogar aus der Schweiz:

So stellte das Weltstrahlungszentrum (PMOD/WRC) in Davos fest, dass die Strahlkraft der Sonne seit 1950 überdurchschnittlich hoch ist, in den kommenden Jahrzehnten aber wohl stark abnehmen wird. Die Abkühlungswirkung könne durchaus ein halbes Grad betragen, sagte PMOD/WRC-Leiter Werner Schmutz im letzten März gegenüber SRF. Ein halbes Grad wäre immerhin die Hälfte des ­Temperaturanstiegs, den man seit Beginn der Industrialisierung verzeichnet hat.

Dass das Schweizer Fernsehen Schmutz zu Wort kommen liess, dürfte damit zu tun haben, dass dieser sich sofort zum menschengemachten Klimawandel bekannte: «Die Sonne rettet uns nicht, die Sonne könnte uns höchstens ­etwas Zeit geben.»

Auch Galileo Galilei liess man einst erst laufen, nachdem er der Be­deutung der Sonne abgeschworen hatte.

=================================================================

)* Anmerkung der EIKE-Redaktion :  Dieser Artikel ist zuerst erschienen in WELTWOCHE Zürich :

Doch nicht menschgemacht | Die Weltwoche, Nr. 36/2017 | 07. September 2017

http://www.weltwoche.ch/

EIKE dankt der Redaktion der WELTWOCHE und dem Autor Alex Reichmuth für die Gestattung des ungekürzten Nachdrucks.

=================================================================




Ein Wahrheits­ministerium, unsere Medien, die GRÜNEN und eine gefährliche Nordsee­erwämung

Bild 1 Erste Seite der google Fundstellen der gleichen Mitteilung zur Nordsee

Die Seite der Klimaberaterin fehlte natürlich nicht:
KLIMARETTER.INFO, 09. September 2017: Die Nordsee erhitzt sich rasant
Die Nordsee hat sich durch den menschengemachten Klimawandel in den vergangenen 45 Jahren doppelt so schnell erwärmt wie die Ozeane weltweit …

Der Herausgeber dieser Nachricht, das Bundesumweltministerium, übermittelte auch gleich dazu, was dies für ein Klimawandel-Menetekel darstellt und was einzig noch dagegen helfen kann:
N24: [3] Umweltstaatssekretär pocht auf rasches Aus für Kohle, Öl und Gas
Die Nordsee erwärmt sich nach Angaben des Bundesumweltministeriums im Zuge des Klimawandels doppelt so stark wie die Ozeane. Während die Temperatur der Ozeane im Mittel um 0,74 Grad gestiegen sei, waren es in der
Nordsee in 45 Jahren 1,67 Grad, heißt es in einer Antwort des Ministeriums auf eine Anfrage der Grünen …
Über die Anfrage der Grünen-Bundestagsabgeordneten Julia Verlindens und die Antwort der Bundesregierung hatte zuerst die „Neue Osnabrücker Zeitung“ berichtet. Die Bundesregierung bezieht sich bei ihren Angaben auf Daten des Weltklimarates IPCC und des Alfred-Wegener-Instituts.
Klimawandel und Temperaturanstieg der Nordsee gefährden demnach Ökosystem und Artenvielfalt.
… Angesichts der Entwicklung verwies Umweltstaatssekretär Flasbarth auf die Folgen des Klimawandels auch in
Deutschland. „Die Erderwärmung wird insgesamt zu mehr Wetterextremen wie Hochwasser, Sturmfluten und Starkwinden führen, aber umgekehrt in einigen Teilen des Binnenlandes auch zu mehr Trockenperioden und extremer Hitze“ …
… Der Staatssekretär forderte als Konsequenz, „im eigenen Land wie weltweit sehr viel ernsthafter an den Klimaschutz“ heranzugehen. Das bedeute vor allem, sich innerhalb weniger Jahrzehnte von fossilen Energieträgern wie Kohle, Öl und Gas zu verabschieden. „Wer diese Entwicklung bremst, gefährdet unsere Zukunft“, warnte Flasbarth.
Auch die Grünen-Bundestagsabgeordnete Verlinden forderte ein schnelleres Gegensteuern: „Wir können uns keine vier weiteren Jahre Tatenlosigkeit beim Klimaschutz leisten“, sagte sie der „NOZ“.

Neu ist das Thema nicht. Schon 2007 meldete der FOCUS:
FOCUS ONLINE, Montag, 12.03.2007: Klimawandel Fatale Folgen für die Nordsee
„Die Nordsee befindet sich seit 1988 in der längsten und intensivsten Warmphase seit Beginn der Messungen im Jahr 1873“, sagte Hartmut Heinrich, der Experte des Bundesamtes für Seeschifffahrt und Hydrographie (BSH), am Montag auf der Hamburger Fachkonferenz „Globaler Klimawandel und regionale Auswirkungen in Norddeutschland“. ... Durch den globalen Klimawandel sind Nord- und Ostsee im vergangenen Jahrzehnt deutlich wärmer geworden. Seit 1993 stiegen die durchschnittlichen Temperaturen im Jahr um insgesamt 1,7 Grad Celsius an.

Die Erwärmungsrate der Nordsee verringerte sich seit dem Jahr 2005 auf 26 % und seit dem Jahr 1870 auf 2 %

Damals betrug die Temperaturerhöhung von 1993 – 2007 1,7 Grad, aktuell sind 1,67 Grad für die letzten 45 Jahre gemeldet.
Rechnet man es um, dann betrug die Rate im Jahr 2005: 0,142 Grad / Jahr, und aktuell gemeldet: 0,037 Grad / Jahr, also nur noch 26 % von damals. Eine Nachschau im Bild 2 zeigt seit dem Jahr 1870 eine Erwärmung um ca. 0,4 °C, also weniger als 0,003 Grad / Jahr, und demnach gegenüber der Meldung vom Jahr 2007 nur 2%!!!!!

Es hätte demnach eine Positivmeldung des Bundesumweltministeriums geben müssen in der Art:
Die Erwärmung der Nordsee schreitet viel langsamer voran, als es im Jahr 2005 noch erwartet wurde. Neueste Messungen geben Anlass zur Entwarnung.
Derzeit ist das in Deutschland jedoch nicht vorstellbar. Die Sprecherin der Grünen für Energiepolitik, Frau Verlinden zeigte deutlich, was die politisch konforme Antwort dazu ist: [3] „Wir können uns keine vier weiteren Jahre Tatenlosigkeit beim Klimaschutz leisten“ …
Wie diese Fachperson der GRÜNEN für Energiepolitik das begründet, fragte die Zeitung vorsichtshalber nicht nach. Vielleicht, weil beide Seiten ahnten, dass sie sich dann blamieren könnten, wie es das folgende Bild zeigt.

Bild 2 Temperaturanomalie der Nordsee seit ca. 1870 [2], vom Autor um die Darstellung der in den Zeitungsmeldungen genannten Zeiträume ergänzt.

Aus dieser Ansammlung von Desinformation ragte nur eine Webseite positiv hervor

Lobenswerter Weise hat sich wenigstens eine Informationsplattform des Themas näher angenommen und gerade gerückt, was die wahre Natur dazu für Daten liefert und wie man diese richtig interpretiert.
kaltesonne 10. September 2017: [1] Bundesumweltministerium blamiert sich: Nordsee erwärmt sich NICHT schneller als die Ozeane
… Ein wenig ungewöhnlich erscheint die Berichterstattung in Deutschlands wichtigster Nachrichtensendung über die Kleine Anfrage der Grünen schon. War die Meldung vielleicht als kleine Wahlkampfhilfe für die Grünen gedacht? Die Aussage der Meldung ist interessant. Wir nehmen sie zum Anlass, die Fakten zu überprüfen und Hintergründe zu diskutieren.

Dabei konnte kaltesonne noch zusätzlich zeigen, dass die Tagesschau-Redaktion kritische Blogbeiträge blockiert:
[1] ... Im Rahmen der Diskussion zum Tagesschau-Beitrag hat ein der Redaktion nahestehender Leser einen wichtigen Hinweis auf die MWP anbringen wollen. Die Aussparung dieses “Elefanten im Raum” wäre ein wichtiger Gedankenanstoß zur Debatte zum Beitrag gewesen. Sie werden es nicht glauben, der Kommentar wurde von der Tagesschau-Moderation nicht freigegeben (Hinweis: Die Screenshots dazu im kaltesonne-Artikel nachsehen)

Daten aus kaltesonne zur Nordsee

Leider ist die Studie des Bundesumweltministeriums nicht zu finden (zumindest dem Autor gelang es nicht) und liegt wegen der Brisanz wohl nur den GRÜNEN und der Osnabrücker Zeitung vor.
kaltesonne hat deshalb ganz neutral aus den allgemein verfügbaren Daten eine Rekonstruktion des Sachverhaltes durchgeführt [1], welche anbei mit einigen Ergänzungen durch den Autor dargestellt ist.

Zuerst zurück zum Bild 2. Dieses zeigt erschreckend, wie sogar seitens unserer „Regierung“ (und ihren zuarbeitenden „Fachstellen“) durch gezielte Datenauswahl, welche man als direkte Manipulation bezeichnen kann, Klimaängste geschürt werden, die beim Nachsehen vollkommen im natürlichen Klimarauschen verschwinden.
Im folgenden Bild 3 sind die Nordseetemperatur und die der Ozeane im gleichen Maßstab übereinander gelegt. Man beachte, dass in der Information des Bundesumweltministeriums nur die Daten bis zum Jahr 2010 berücksichtigt wurden. Und genau damals hatte die Nordsee die höchste Temperatur. Zwischenzeitlich ging die Temperatur der Nordsee drastisch zurück, während sich die Ozeane global weiter erwärmen.

Bild 3 [2] Fig. 3.3 North Sea region annual sea-surface temperature (SST) anomalies relative to the 1971–2000 average. Darüber gelegt die HadSST3-Temperaturen Ozean. Quelle: Woodfortrees
Beide Temperaturverläufe scheinen etwas Zeitverzug zu haben, Was aufgrund der unterschiedlichen Masse erklärbar ist. Versucht man diesen Zeitunterschied auszugleichen, kommt Bild 4 heraus. Es bleibt noch der Unterschied in der absoluten Erwärmung (die Nordsee hat naturgemäß größere Temperaturspannen als der globale Mittelwert der Ozeane), der jedoch mangels Anhaltspunkten in der Grafik nicht ausgeglichen ist.
Auch so zeigt Bild 4 deutlich, dass nichts von einer „doppelt so starken“ Erwärmung der Nordsee gegenüber den Ozeanen übrig bleibt. Die Nordsee ist wohl wärmer geworden, weil die Temperaturen mit der einer Kaltzeit verglichen werden. Aber Extremeffekte aufgrund eines AGW Klimawandels sind nicht auszumachen. Wenn man die Nordseewerte grob mittelt und die vielen Ungenauigkeiten durch die hohen Temperaturspannen berücksichtigt, dürfte der Verlauf nicht allzu stark von dem des globalen Ozeans abweichen.

Bild 4 Phasenverschiebung der Erwärmungen von Bild x angepasst

Allerdings ist es schon interessant, dass ein Bundesumweltministerium Antworten abgibt, welche den Effekt sorgfältig ausgesuchter Zeiträume ausnutzt, um „vorgegebene“ Tendenzen auszuweisen. Ein Vorgehen, welches beim Klimawandel jedoch gängige Praxis ist:
EIKE 17.07.2016: Wie man den Meerespegel-Verlauf in die richtige Richtung dreht Aus dem Lehrbuch für (Klima-)Statistikbetrug

Ergänzende Grafiken zu Nordsee-Wasser-Temperaturverläufen

Zur Erhärtung der bisherigen Darstellung und Ergänzung noch Temperaturdaten der Nordsee aus [2]: Danach gibt es wirklich keinen Anlass, dass die Nordsee bald wegen Überhitzung Probleme haben könnte.
Dass sich fremde Fischpopulationen dort einnisten und den „schon länger dort lebenden Meeresbewohnern“ Konkurrenz machen, liegt wohl weniger am Klimawandel, als an der „Öffnung der Grenzen“ durch den internationalen Schiffsverkehr und der Möglichkeit, sich bequem aus fernsten Gegenden in Ballasttanks „migrieren“ zu lassen.
Auch stellt sich immer neu die Frage, wie man darauf kommen kann, dass sich Temperaturen nicht verändern dürfen, nur weil es bestimmten Menschen „nicht passt“ und ihre Computer dann nur noch Unsinn errechnen.

Bild 5 Regionaler Nordeee-Wassertemperatur-Verlauf. [2] Fig. 3.5 North Sea region monthly sea-surface temperature (SST) anomalies relative to 1971–2000 monthly averages,
Bild 6 Regionaler Nordeee-Wassertemperatur-Verlauf. [2] Fig. 3.8 Ferry-based sea-surface temperature (upper) and salinity (lower) anomalies relative to the 1981–2010 average, along 52°N at six standard stations.
Bild 7 Verlauf der Wärmespeicherung im Nord-Atlantik. Sehr schön ist zu sehen, wie kurzfristige Betrachtungen in die Irre führen. Quelle: WUWT [7]

Das Klima begann nicht erst mit der Industrialisierung

Klima lässt sich nicht mit dem angeblich so aussagekräftigen 30-Jahre Zeitraum erfassen. Dazu sind mehrere Hundert Jahre erforderlich. Leider hat der Autor für die Nordsee keine geeigneten Temperaturreihen gefunden, deshalb anbei welche vom Nord-Atlantik, der ja unmittelbar an die Nordsee angrenzt.
Erkennbar neigt auch diese Meeresgegend keinesfalls zur Überhitzung. Langfristig gesehen, haben wird dort aktuell sogar den kältesten Zeitraum seit 9000 Jahren (Bild 9).
Es ist also vollkommen unwahrscheinlich, Dass die Nordsee und ihre Meeresbewohner etwas höhere Temperaturen nicht überleben würden.

WUWT: Serykh (2016) points out that the warming enjoyed across Europe and Asia between the 1970s and late 1990s may have been associated with natural decadal-scale oscillations in heat transport. Similar to Reynolds et al. (2017), Serykh’s graph of ocean heat content reveals no net warming in the last 60 years.

Bild 9 [8] Proxis von Verläufen der Temperatur in Nordnorwegen seit ca. 10.000 Jahren

Die GRÜNEN wollen nicht klüger werden als die GroKo

Der Vorgang zeigt wieder, dass die GRÜNEN auf jegliches, eigenes Wissen verzichten und vollkommen mit dem zufrieden sind, was die „Fachdienste“ der Merkel’schen „Einheitsregierung“ ihr anbieten.
EIKE 26.08.2017: [9] Holen sich die GRÜNEN ihre „Kernkompetenz“ zum Klimawandel von der Bundesregierung?
I
nsofern ist es verständlich, als eigene Recherchen der GRÜNEN teils ebenfalls desaströs enden

EIKE 09.09.2017: Immer wieder muss der Tschad-See unter dem Klimawandel leiden, oder: Warum steht in Studien der GRÜNEN häufig so viel Falsches drin?

Weil die GRÜNEN mit ihrem Nichtwissen zufrieden sind, muss es der Bürger ja nicht sein

Die Verlautbarung des Bundesumweltministeriums zeigt mehrere Probleme in Deutschland auf:
-Unsere Ministerien und deren Fachstellen informieren die Bürger nicht mehr auch nur annähernd neutral, sondern streng nach Staatsraison wie in einer Diktatur,
-scheinbar legen keine Abgeordneten / Parteien mehr Wert darauf, richtig informiert zu werden,
-die Medien versagen investigativ vollkommen und verteilen Staatsmeldungen nur noch copy and paste
.

Zu den GRÜNEN lässt sich nur noch sagen, dass die Unwissenheit ihrer „Führungsmannschaft“ inzwischen zur Legende wird [13].
Beispielhaft reist Cem Özdemir zur Wahlveranstaltung nach Bayern und konfrontiert Herrn Herrmann mit einem Umweltthema. Nicht ahnend, dass er mit seinen auswendig gelernten, aber nicht verstandenen Inhalten [12] wieder vollkommen falsch lag:
SZ: [11] TV-Duell mit Cem Özdemir und Joachim Herrmann: Warum der CSU-Politiker nichts gegen Kohlekraftwerke tue? Herrmann: „Wo gibt’s denn in Bayern noch ein Kohlekraftwerk?“ und im Nebensatz erwähnt er: „Die rot-grüne Landesregierung in Nordrhein-Westfalen habe Braunkohlekraftwerke laufen lassen, nicht die bayerische.“

Nordkoreanische Verhältnisse in Deutschland

Erschütternd ist auch, wie „Fachpersonen“ im Regierungsapparat problemlos am Parlament vorbei reinste Parteipolitik machen dürfen, wie der GRÜNE Staatssekretär, Herr J. Flasbart.
J. Flasbart: [10] „Die Erderwärmung wird insgesamt zu mehr Wetterextremen wie Hochwasser, Sturmfluten und Starkwinden führen, aber umgekehrt in einigen Teilen des Binnenlandes auch zu mehr Trockenperioden und extremer Hitze“, erklärte er auf Anfrage der Nachrichtenagentur AFP am Samstag. Der Staatssekretär forderte als Konsequenz, „im eigenen Land wie weltweit sehr viel ernsthafter an den Klimaschutz“ heranzugehen. Das bedeute vor allem, sich innerhalb weniger Jahrzehnte von fossilen Energieträgern wie Kohle, Öl und Gas zu verabschieden. „Wer diese Entwicklung bremst, gefährdet unsere Zukunft“, warnte Flasbarth.
Er wurde vom ehemaligen Umweltminister Trittin berufen, als dieser seinen Einflussbereich konsequent von neutralen Fachpersonen säuberte und gegen ideologisch gefestigte Gesinnungsgenossen austauschte [10]. Ein Problem, welches die nachfolgenden Umweltminister*innen nicht beseitigen konnten oder wollten – die SPD oft durch Beförderungen sogar noch verstärkte [10] – da ihnen in aller Regel – und bis zum heutigen Tag – jegliche Sachkenntnis zum Thema fehlte.

Nur dadurch wird es möglich, dass ein „Regierungsfachmann“ sich traut, mit den typischen auswendig gelernten, aber erwiesenermaßen falschen „Extremwetterplattitüden“ [14] an die Öffentlichkeit zu gehen.

Quellen

[1] kaltesonne 10. September 2017: Bundesumweltministerium blamiert sich: Nordsee erwärmt sich NICHT schneller als die Ozeane

[2] Springer Verlag, Markus Quante Franciscus Colijn: Regional Climate Studies North Sea Region Climate Change Assessment

[3] WELT N24, 09.09.2017: Nordsee erwärmt sich doppelt so stark wie die Ozeane

[4] EIKE 19.08.2016: Teil II: Vom Wissenschaftlichen Dienst veröffentlichte Klimainformation für Abgeordnete Rezension: Teil 2

[5] Inter-Agency Committee on Marine Science and Technology 2005: The 2nd of 5 reports produced to support Charting

[6] Progress – an Integrated Assessment of the State of UK Seas Marine Processes and Climate

[7] WUWT 5. January 2017 : North Atlantic Cooling Has Plunged Below 1950s (And 1800s) Levels – And Scientists Project More Cooling

[8] Samuel Zimet Mark, 5-2016: Mid-Holocene Marine Paleoclimate Reconstruction Through Schlerochronological Analysis of Arctica islandica from Finnmark, Rolvsøya, Northern Norway

[9] EIKE 26.08.2017: Holen sich die GRÜNEN ihre „Kernkompetenz“ zum Klimawandel von der Bundesregierung?

[10] Frankfurter Allgemeine 16.12.2013: Grüne besetzen Machtpositionen in schwarz-roter Regierung

[11] Süddeutsche Zeitung, 8. September 2017: TV-Duell Wozu das Ganze?

[12] EIKE 15.08.2017: Cem Özdemir versucht sich in Energie

[13] EIKE 09.09.2017: Immer wieder muss der Tschad-See unter dem Klimawandel leiden, oder: Warum steht in Studien der GRÜNEN häufig so viel Falsches drin?

[14] EIKE 08.09.2017: Die Generalsekretärin der FDP geriet in die Fänge des KLIMA-LÜGENDETEKTORS – anbei ein Rettungsversuch




Tatsache: Für die Hurri­kane Harvey und Irma kann nicht globale Erwär­mung verant­wortlich sein

Derartiges Geschreibsel ist typischerweise getränkt mit blasierter Arroganz. Deren Autoren geben vor, weise und gut informiert zu sein, und wer immer es wagt, ihre „settled Wissenschaft“ in Frage zu stellen, muss seine/ihre Augen öffnen und den Mund halten.

Ohne Zweifel wird es auch hinsichtlich Hurrikan Irma derartige „nachträgliche Vorhersagen“ geben, so dass die jüngsten Behauptungen bzgl. Harvey eine Vorwarnung dafür sein können.

Ich bin Ökonom, kein Klimawissenschaftler. Aber Harvey in Verbindung mit Klimawandel zu stellen, erfordert offensichtlich weit geringere Logik- und Beweis-Standards als Ökonomen sich trauen würden, als seriöse Argumente zu verkaufen.

Der Klimajournalist von Atlantic sagt: „Harvey ist beispiellos – genau die Art wilden Wetters, von dem Wissenschaftler erwarten, im Zuge der Erwärmung des Planeten immer mehr zu sehen“.

Aber Harveys maximale Regenmenge von 1318 l/m² ging nur geringfügig über die Regenmenge des Tropischen Sturms Amelia im Jahre 1978 (1220 l/m²) und den Hurrikan Easy im Jahre 1950 (1143 l/m²) hinaus. Und was ist mit dem Tropischen Sturm Claudette, der im Jahre 1979 1067 l/m² innerhalb von nur 24 Stunden abgeladen hatte (Harvey brauchte drei Tage für die gleiche Menge)? In diesen Fällen ist die Zuordnung heutigen Extremwetters, egal was passiert (vielleicht Dürren, vielleicht Überschwemmungen) das, was der Philosoph Karl Popper „Pseudowissenschaft“ nennt.

Falls irgendeine Theorie alles erklärt, kann sie nicht getestet werden und ist daher keine Wissenschaft. (Poppers berühmte Beispiele für Pseudowissenschaft waren Kommunismus und Psychoanalyse).

Scheinbar plausible Bemühungen, Harvey mit Klimawandel in Verbindung zu bringen, basieren unvorsichtigerweise auf einem anderen ungewöhnlichen Ereignis im Jahre 2015/16, was also kein langfristiger Klimatrend ist. Im Atlantic schrieb Robinson Meyer:

Harvey profitierte von ungewöhnlich warmem Wasser im Golf von Mexiko. Als sich der Sturm auf Houston zubewegte, war die Wassertemperatur nahe Texas auf 1,5°C bis 4°C über den Mittelwert gestiegen“.

Meyers Quelle ist ein einzelner Satz ohne Quellenangabe aus „Climate Signals beta“ vom „Climate Nexus“-Projekt der Rockefeller Foundation, betrieben von Hunter Cutting („Ein altgedienter politischer Richtungsgeber, welcher Kommunikations-Strategien entwickelt“). Vielleicht wäre es klüger, das National Hurricane Center bzgl. der Temperaturen im Golf zu konsultieren. Dieses zeigt, dass sie auf ein ganzes Grad F über der Grundlinie mitteln.

Will man zurückschauen auf jedwede unvorhergesagte Wetteranomalie, können sich „nach Fakten suchende“ Journalisten immer auf Michael Mann und Kevin Trenberth verlassen, weben doch diese beiden immer eine Erklärung, warum jedwedes schlechte Wetter (aber niemals gutes Wetter!) mit Sicherheit durch langfristige Klimatrends zumindest verschlimmert wird. „Es ist eine Tatsache: Klimawandel macht Hurrikan Harvey tödlicher“, schreibt Michael Mann. „Die Wassertemperaturen im Golf sind während der letzten paar Jahrzehnte von 86°F auf 87°F [von 30°C auf 30,5°C] gestiegen“, was „3 bis 5% mehr Feuchtigkeit in die Atmosphäre brachte“. Er lehnte es ab, auf andere kompensierende Dinge hinzuweisen, die ihm mit Sicherheit bekannt sind – zum Beispiel, dass die gleiche Klimawissenschaft eine stabilere tropische Atmosphäre prophezeit, was die für Hurrikane notwendige Aufwärtsbewegung reduziert.

Selbst der von der Washington Post geschätzte Jason Samenow betrat schwankenden Boden, als er schrieb, dass „sich die Regenmenge um 6% oder so oder um ein paar Inches erhöht“ haben könnte. Es wäre nett gewesen, wenn er erwähnt hätte, dass die maximale gemessene Regenmenge von Harvey mit 1318 l/m² statistisch nicht unterscheidbar ist von den 1220 l/m² des zuvor erwähnten Sturmes Amelia vor vierzig Jahren.

Wie auch immer, wenn man für Temperatur und Feuchtigkeit im Golf im August 2017 eine vermeintliche globale Zunahme der Wassertemperatur verantwortlich macht, braucht man mehr als Theorie oder „Vertrauen“ (Glaube). Es sind Beweise erforderlich.

Rein zufällig sind die Wassertemperaturen SST zwischen den beiden Super-El-Ninos von 1997/98 und 2015/16 nicht signifikant gestiegen, wenn überhaupt. Im Gegenteil, eine Begutachtung von vier großen Datensätzen im Januar 2017 kommt zu dem Ergebnis, dass „seit 1998 alle Datensätze eine Verlangsamung der SST-Zunahme verzeichnen im Vergleich zum Zeitraum von 1983 bis 1998“. Das mag so klingen, als ob die SST vor 1998 rapide gestiegen ist, aber auch das ist unklar. „Vor dem Jahr 1998 zeigen die Temperaturänderungen global, im Pazifischen und in den Südlichen Ozeane große Diskrepanzen zwischen vier führenden Schätzungen. Dies verhindert eine robuste Bestimmung von Änderungen des ozeanischen Wärmegehaltes OHC, sowohl regional als auch global“.

Von 1998 bis 2012 werden die Beweise bzgl. der Wassertemperaturen sogar noch unbequemer. Zwei der vier Studien zeigen eine „schwache Erwärmung“ nahe der Oberfläche, während die anderen beiden „Abkühlung zeigen in Übereinstimmung mit der gemessenen Verlangsamung des globalen Temperaturanstiegs“. Mit anderen Worten, der empörend lange Zeitraum von 1997 bis 2014 mit dem Stillstand der globalen Erwärmung wird auch in den Ozeantemperaturen ersichtlich, nicht nur an den Temperaturen auf dem Festland.

Man erinnere sich, was der viel gerühmte „Klimawandel-Konsens“ wirklich bedeutet. Via Mittelung von vier Schätzungen erklärt die NASA, dass die „global gemittelten Temperaturen im Jahre 2016 um 0.99°C höher lagen, als das Temperaturmittel im 20. Jahrhundert“. Die zugrunde liegenden jährlichen Schätzungen sind abgeleitet aus jenen Mittelwert-„Anomalien“ um die Mitte des vorigen Jahrhunderts – und nicht aus den derzeitigen Temperaturen.

Um Anomalien in Grad umzuwandeln musste die NASA Computermodelle heranziehen, um die Anomalien zu den Temperaturen im Basiszeitraum von 1951 bis 1980 zu addieren, wo die Daten nicht gerade perfekt sind. Folge, wie die NASA erklärt:

Für das globale Mittel erzeugen die vertrauenswürdigsten Modelle einen Wert von grob 14°C, d. h. 57,2°F, aber der Wert kann gut und gerne auch zwischen 56°F und 58°F liegen. Regional und vor allem lokal ist die Lage sogar noch schlimmer“.

Es mag grausam sein anzumerken, dass die Fehlerbandbreite zwischen 56°F und 58°F global („geschweige denn lokal“) größer ist als die von der NASA vermutete Erwärmung um 1,78 Grad über viele Jahrzehnte. Man beachte auch, dass während der anscheinend kühleren Basisperiode der NASA von 1951 bis 1980 die zweit- und drittgrößten Überschwemmungen der US-Geschichte aufgetreten waren.

Mein Hauptargument hier ist einfach: Wetter ist hoch variabel. Es gibt sehr viel Rauschen in den Daten zu Hurrikanen und Überschwemmungen, und es ist unmöglich, einen einzelnen Hurrikan oder eine einzelne Überschwemmung der geringen Erwärmung zuzuordnen. Ja, höhere Ozeantemperaturen scheinen auf den ersten Blick lokal mit mehr oder stärkeren Hurrikanen zu korrelieren, aber wie unten gezeigt, ist das nicht der Fall.

Die Graphik mit der Accumulated Cyclone Energy stammt von dem Meteorologen Ryan Maue am Cato-Institut.

Addendum von Anthony Watts:

Die NASA glaubt nicht, dass der vermeintliche Einfluss von anthropogenem CO2 auf die Intensität von Stürmen messbar ist.

Es ist voreilig zu folgern, dass menschliche Aktivitäten – und besonders globale Erwärmung verursachende Treibhausgas-Emissionen – bereits eine erkennbare Auswirkung auf atlantische Hurrikane oder die globale Zyklon-Aktivität haben. Menschliche Aktivitäten mögen bereits Änderungen hervorgerufen haben, die noch nicht messbar sind infolge der geringen Größenordnung der Änderungen oder Limitierungen der Beobachtungsmöglichkeiten – oder sie sind nicht aufschlussreich genug modelliert (z. B. Aerosol-Effekte auf das regionale Klima). …

Mehr:https://www.gfdl.noaa.gov/global-warming-and-hurricanes/

Link: https://wattsupwiththat.com/2017/09/09/fact-hurricanes-harvey-and-irma-cant-be-blamed-on-global-warming/

Übersetzt von Chris Frey EIKE




Neues vom Meeres­spiegel: Anstieg deutlich langsamer als in der Vergangen­heit

Bildinschrift: Historie des Meeresspiegels für den nördlichen Golf von Mexiko seit dem letzten glazialen Maximum auf der Grundlage von rund 300 Radiokarbon-datierten Indikatoren von historischen Küstenlinien. Die Stichproben stammen von der Küste und dem Schelf vor den US-Staaten Florida, Louisiana, Texas und Mexiko. Es zeigen sich verschiedene Perioden mit einem starken Anstieg des Meeresspiegels. Abbildung nach Balsillie und Donoghue 2004.

Derzeit „glaubt man“, dass der Meeresspiegel mit einer Rate von 1,7 bis 1,8 mm pro Jahr steigt (hier).

Bildinschrift: Die Graphiken vergleichen die 95%-Vertrauens-Intervalle der relativen Meeresspiegel-Trends für CO-OPS und globale Messpunkte. Trends mit dem engsten Vertrauensintervall basieren auf den längsten Datensätzen. Die Graphiken bieten eine allumfassende Darstellung der differierenden Raten regionaler vertikaler Landbewegungen unter der Annahme, dass der absolute Anstieg des globalen Meeresspiegels 1,7 bis 1,8 mm pro Jahr beträgt. Man beachte, dass es sich um relative Meeresspiegel-Trends handelt, die nicht nach vertikalen Landbewegungen korrigiert sind. …

Diese aktuelle Rate – lediglich 0,17 bis 0,18 eines Meters pro Jahrhundert – ist im Gesamt-Mittel des 20. Jahrhunderts relativ unverändert geblieben, und es gab keine statistisch signifikante Beschleunigung der Anstiegsrate (lediglich 0,0042 mm pro Jahr) seit dem Jahr 1900.

Wenzel und Schröter, 2014: „Die globale mittlere Änderung des Meeresspiegels seit dem Jahr 1900 stellte sich als 1,77 ±0,38 mm pro Jahr heraus. … Die für das globale Mittel gefundene Beschleunigung, +0,0042 ±0,0092 mm pro Jahr, ist nicht signifikant“.

In einer gerade in Climate of the Past veröffentlichten Studie schlüsseln 7 Wissenschaftler detailliert den langzeitlichen Zusammenhang der aktuellen Raten des Anstiegs auf. Von vor 16.500 bis vor 8200 Jahren betrug die mittlere Rate des globalen Anstiegs 1,2 Meter pro Jahrhundert (12 mm pro Jahr), was etwa 700% schneller ist als der während der letzten 115 Jahre erfolgte Anstieg … In dieser mittleren Rate enthalten ist auch die Epoche des „Schmelzwasser-Impulses“ vor rund 14.500 Jahren, als der Meeresspiegel mit Raten um 4 Meter pro Jahrhundert (40 mm pro Jahr) gestiegen war.

Cronin et al., 2017: „Rate und Verteilung des globalen Meeresspiegel-Anstiegs (SLR) nach dem letzten glazialen Maximum (LGM) sind bekannt aus radiometrischen Altersbestimmungen von Korallenriffen vor Barbados, Tahiti, Neuguinea und dem Indischen Ozean sowie aus Sediment-Bohrkernen aus dem Sunda-Schelf und von anderswoher. … Lambeck et al. (2014) schätzen die mittleren globalen Raten während der Haupt-Vereisungsphase von vor 16.500 bis vor 8200 Jahren mit 12 mm pro Jahr (+1,2 Meter pro Jahrhundert) mit einem noch rascheren SLR von etwa 40 mm pro Jahr (+4 Meter pro Jahrhundert) während des Schmelzwasser-Impulses von vor 14.500 bis vor 14.00 Jahren“.

Andere Wissenschaftler haben jüngst gezeigt, dass der Meeresspiegel im hemisphärischen Maßstab vor 14.500 Jahren um 12 bis 22 Meter in nur 340 Jahren gestiegen war. Dieser explosive Anstieg fiel zeitlich zusammen mit einem nordhemisphären-weiten Erwärmungsereignis von 4 bis 5°C innerhalb nur weniger Jahrzehnte, aber es .fiel NICHT zusammen mit einer Änderung des CO2-Niveaus.

Ivanovic et al., 2017: „Während des letzten Großen Glazialen Maximums von vor 26.000 bis vor 19.000 Jahren erstreckte sich ein riesiger Eisschild über Nordamerika (Clark et al. 2009). Während nachfolgender Jahrtausende, als sich das Klima erwärmte und dieser Eisschild immer kleiner wurde, flossen riesige Schmelzwasserströme in die Ozeane (Tarasov and Peltier, 2006; Wickert, 2016). Während dieser Periode, bekannt als die „Letzte Deglaziation“, war es auch zu Episoden abrupter Klimaänderungen gekommen wie etwa die Bølling-Erwärmung von vor 14.700 bis vor 14.500 Jahren, als die Temperatur auf der Nordhemisphäre um 4 bis 5°C innerhalb nur weniger Jahrzehnte gestiegen war (Lea et al., 2003; Buizert et al., 2014). Dies fiel zeitlich zusammen mit einem Meeresspiegelanstieg um 12 bis 22 Meter während weniger als 340 Jahre (3,5 bis 6,5 Meter pro Jahrhundert) (Meltwater Pulse 1a (MWP1a)) (Deschamps et al., 2012)“.

J. F. Donoghue (2011) stellt die historische Größenordnung von Raten des Anstiegs, die „über 20 mal höher als heute“ waren, in die richtige Perspektive. Küstenlinien müssten sich notwendigerweise um bis zu 40 Meter pro Jahr landeinwärts zurückgezogen haben – 75 cm pro Woche – während jener Jahrhunderte eines erschreckenden [Original: obscene] Anstiegs.

Außerdem spezifiziert Donoghue, dass alles in allem der mittlere Anstieg des Meeresspiegels während der letzten 20.000 Jahre etwa 6 mm pro Jahr betragen hat, was über 3 mal mehr ist als die Rate des vorigen Jahrhunderts. Mit anderen Worten, die aktuellen Anstiegsraten haben sich signifikant verlangsamt im Vergleich zum langfristigen Gesamttrend.

Donoghue, 2011: „Über lange Zeiträume nach dem letzten glazialen Maximum (LGM) vor 2.000 Jahren waren in der Region Anstiegsraten weit über den Raten während der durch langzeitliche Tidenmessungen repräsentierten Perioden aufgetreten. Die regionalen Tidenmessungen zeigen, dass der Meeresspiegel im vorigen Jahrhundert um etwa 2 mm pro Jahr gestiegen war, während die mittlere Anstiegsrate seit dem LGM 6 mm pro Jahr betragen hatte, wobei es auch zu Perioden mit einem abrupten Anstieg über 40 mm pro Jahr (4 Meter pro Jahrhundert) gekommen war.

Der Meeresspiegel ist zeitweise mit Raten gestiegen, die über 20 mal größer waren als heute. Bei derartigen Raten würden sich regionale Küstenlinien um bis zu 40 Meter pro Jahr oder über 75 cm pro Woche landeinwärts zurückgezogen haben“.

Der Geologe Dominic Hodgson aus UK und seine Kollegen haben berechnet, dass der Meeresspiegel vor der Ostantarktis vor etwa 10.000 Jahren mit Raten von 1,2 bis 4,8 Metern pro Jahrhundert gestiegen war, als der Meeresspiegel 8 Meter höher lag als derzeit.

Hodgson et al., 2016: Rapider Anstieg des Meeresspiegels in Prydz Bay, Ostantarktis, zu Beginn des Holozäns … Die Felddaten zeigen rapide zunehmende Raten eines relativen Anstiegs von 12 bis 48 mm pro Jahr von vor 10.473 bis vor 9411 Jahren in den Vestfold Hills und von 8,8 mm pro Jahr von vor 8882 bis vor 8563 Jahren in den Larsemann hills … die geologischen Daten implizieren einen relativen Stand von 8 m über dem heutigen Niveau von vor 9411 bi vor 7564 Jahren. Dem folge eine Periode, in welcher der deglaziale Anstieg fast genau ausgeglichen wurden durch lokalen Rebound.

Und Zecchin et al. 2015 haben gezeigt, dass „episodische“ und „rapide“ Anstiege bis zu 6 Meter pro Jahrhundert erreichen können, und zwar hunderte Jahre lang. Das entspricht etwa dem 35-fachen der derzeitigen Rate.

Zecchin et al., 2015: „Die hier präsentierten Beweise bestätigen abgesunkene Küstenlinien, welche anderswo dokumentiert sind in ähnlichen Wassertiefen. Sie zeigen, dass Schmelzwasser-Einschübe den nacheiszeitlichen relativen Anstieg mit Raten bis zu 60 mm pro Jahr unterstreichen, und zwar einige Jahrhunderte lang“.

Zusammengefasst: Es gab nichts ungewöhnliches hinsichtlich der aktuellen Daten des Meeresspiegel-Anstiegs während des vorigen Jahrhunderts.

Tatsächlich steigt der Meeresspiegel derzeit mit einer Rate, die weniger als ein Drittel der mittleren Rate der letzten 20.000 Jahre ausmacht (Donoghue 2011).

Die Fortsetzung dieser langfristige Verlangsamung während einer Ära mit einem vermeintlichen anthropogenen Einfluss auf das Klima sind ein sehr starker Beweis, dass abrupte Änderungen des Meeresspiegels (Steigen bzw. Fallen) unabhängig von den Variationen der atmosphärischen CO2-Konzentration erfolgen.

Link: http://notrickszone.com/2017/09/07/past-sea-levels-rose-4-6-meters-per-century-shorelines-retreated-40-meters-per-year-without-co2-flux/

Übersetzt von Chris Frey EIKE




Die GRÜNEN: Es mangelt weder an erneuer­baren Energien noch an der Entwick­lung von Speichern und Netzen

Der Anlass für diese Mitteilung der GRÜNEN Expertin war eine Studie.
era, August 2017: [2] Analyse des Exports von Stein- und Braunkohlestrom Erstellt im Auftrag von: Bundestagsfraktion Bündnis 90/Die Grünen, welche die GRÜNEN in Auftrag gaben, um sich belegen zu lassen, dass „GRÜNES“ Wissen zur Energie das neue Wissen ist, und auf physikalischen Gesetzen begründetes nur veraltet sein kann.

Inhaltlich geht es in der Studie um die von einigen EEG-„Fachpersonen“ vertretene Ansicht, dass konventioneller Strom die Leitungen „verstopft“ und nur diese Stromblockaden das EEG am Gedeihen hindern. Erwartungsgemäß hat die Studie die Ansicht ihrer Auftraggeber umfassend bestätigt.

Nachdem die bisher vom Autor gesichteten Studien der Grünen zu EEG und Klima nur eines: Desaströses Unwissen und ideologie-bedingte Falschinformation als Ergebnis vorwiesen [16], stellt sich die Frage, kann es diesmal anders sein? Anbei wird dazu eine Antwort versucht.

Studie: Stromexport verstopft auch Exportleitungen

Es ist bekannt, dass die Professorin C. Kemfert als Ökonomin ähnliche Ansichten vertritt [6]. Auch nach ihren Vorstellungen müssen die Leitungen immer für den ideologisch richtigen Strom freigehalten werden. Fließt darin „dreckiger“, konventionell erzeugter Strom, muss dieser dem „edlen Ökostrom“ selbstverständlich sofort weichen. Ihre Homepage berichtete deshalb nach der Veröffentlichung sofort über die Studie:
KLIMARETTER.INFO: [1] Kohlestrom verstopft auch Exportleitungen
Der Überschuss, den Deutschland beim Stromexport erzielt, hat sich in den letzten fünf Jahren auf mehr als das Achtfache erhöht. Das hat eine Untersuchung des Berliner Energieforschungsinstituts Era im Auftrag der Bundestagsfraktion der Grünen ergeben. Als Hauptgrund für den … steil angestiegenen Exportüberschuss nennt die klimaretter.info vorliegende Analyse die seit 2009 recht konstante Stromerzeugung aus Braun- und Steinkohle. Meist würden die hohen Stromexporte aber der schwankenden Wind- und Solarstromerzeugung angelastet, schreiben die Studienautoren.

… Die fossilen Kraftwerke reagierten … nicht ausreichend auf die hohe Einspeisung von Solarstrom.

Die GRÜNEN meldeten ihren Argumentationserfolg und verknüpften das Ergebnis dazu mit dem Wahlkampf, 25.08.2017: Studie: Stromexporte von Stein- und Braunkohlestrom
Die Bundestagsfraktion BÜNDNIS 90/DIE GRÜNEN hat eine Studie zum Stromexport bei era – energy research in Auftrag gegeben, deren Ergebnisse jetzt vorliegen.
Fazit: Deutschland produziert viel mehr Strom als im Land verbraucht wird. In den letzten fünf Jahren haben sich die deutschen Stromexportüberschüsse fast verzehnfacht. Auch Brandenburg exportiert 60 Prozent des Stroms, weil gerade hier die Braunkohlekraftwerke das Stromnetz verstopfen und kaum wie eigentlich vorgesehen, bei hoher Windeinspeisung runtergefahren werden.
Der denkbar schlechteste Grund dafür: Die deutsche Bundesregierung hält an den unflexiblen Kohlekraftwerken fest. Wenn die Produktion gedrosselt wird, dann nicht bei den klimaschädlichen Kohlekraftwerken, sondern bei den Erneuerbaren-Anlagen. Für diesen Mechanismus ist die Regierung Merkel verantwortlich und deshalb auch
für jede einzelne unnötig produzierte Kilowattstunde schmutzigen Kohlestroms. Wir wollen in einer Regierungskoalition die schmutzigsten 20 Kohlekraftwerke als erstes abschalten. Die stabile Stromversorgung in Deutschland ist davon nachweislich nicht berührt.

Der bdew, im Wesentlichen ein Zusammenschluss von Versorgern, sichtete die Studie, fand die Aussagen schlichtweg eine Zumutung an den technischen Sachverstand, darf und will jedoch weder der Kanzlerin, deren energiepolitischen Vorgaben, noch den unsinnigen Vorstellungen sonstiger in Berlin agierender Parteien – und auch nicht den Avancen einiger kommunaler Versorger [8] irgendwie zu nahe treten, geschweige diesen gar den geballten Unsinn vorwerfen.
Entsprechend unterwürfig wurde ein lauer Protest formuliert, um wenigstens ein paar Aussagen der Studie „gerade zu rücken“ und vielleicht auch, um in der Zukunft auf hämische Nachfragen „Widerstand“ belegen zu können:
bdw: [3] „Auch im Wahlkampf darf nicht davon abgelenkt werden, dass konventionelle Kraftwerke für die jederzeit sichere Energieversorgung heute noch dringend gebraucht werden. Die Stromnachfrage muss bei jeder Wetterlage gedeckt und das Stromnetz stabil gehalten werden. Das gilt besonders in einem System, das zunehmend durch die stark schwankende Stromerzeugung aus Erneuerbaren Energien geprägt ist.
Konventionelle Kraftwerke sind nicht Gegner, sondern unverzichtbare Partner der Erneuerbaren Energien. Für die Erneuerbaren gilt zudem richtigerweise der gesetzlich festgelegte Einspeisevorrang: Aufgrund der hieraus resultierenden gesetzlichen Abschaltreihenfolge sind die Netzbetreiber dazu verpflichtet, Erneuerbare-Energien-Anlagen als letzte abzuregeln. Die regionale Verteilung bei der Abregelung von Windkraftanlagen zeigt, dass dies fast ausschließlich in Norddeutschland fernab der Braunkohlereviere erfolgt.
… Es geht darum, die Stromversorgung rund um die Uhr an 365 Tagen im Jahr zu gewährleisten. Wie wichtig die konventionellen Kraftwerke sind, hat uns allen die Dunkelflaute im Januar gezeigt, als über Tage kaum Wind wehte und auch die Sonne nahezu keinen Beitrag zur Stromversorgung Deutschlands leisten konnte.
Zu den Kernproblemen gehört, dass Deutschland beim Netzausbau leider deutlich hinterherhinkt. Neue Leitungen sind dringend erforderlich, um die zunehmenden Strommengen aus regenerativen Quellen aufnehmen zu können. Dass es hier hakt, liegt vor allem an politischen Widerständen. Dringend erforderlich sind zudem zusätzliche Speicherkapazitäten und -technologien, um den aus Wind- und Solarenergie erzeugten Strom möglichst vollständig nutzen zu können. Der Speicher-Ausbau wird aber durch regulatorische Hemmnisse ausgebremst. Hier muss die künftige Bundesregierung schnell Abhilfe schaffen.“

Was steht in der Studie

Diese Frage lässt sich leichter beantworten, wenn man sich vorher klarmacht, warum es diese Studie überhaupt gibt-Allgemein ist bekannt, dass die EEG-Vorrangeinspeisung zu Netzproblemen führt und immer öfter abgeregelt werden muss. Auch ist bekannt, dass Deutschland Strom – teils sogar zu negativen Preisen – exportiert.
Kein Energiefachmann der alten Schule macht für diese Probleme die Grundlastkraftwerke verantwortlich. Sie weisen stattdessen auf den Unsinn der bedingungslosen Vorrangeinspeisung hin und erklären anhand der Ganglinien, warum die geschilderten Probleme mit immer weiterem EEG-Ausbau immer zwanghafter auftreten (müssen) [5] [7] [9] (und Schlusskapitel).

Den EEG-Befürwortern ist eine solche Argumentation ein Dorn im Auge. Sie behaupten, die Grundlastkraftwerke könne und müsse man sehr wohl jederzeit so schnell und stark regeln, dass der EEG-Vorrangstrom in vollem Umfang eingespeist und verbracht werden könnte. Und damit wären alle EEG-Probleme bereits behoben. Dass dies nicht geschieht, läge nur an der „Geldgier“ der Kraftwerksbetreiber und natürlich an der Politik, die dies zulasse.
Diese Argumentation wird von der Studie übernommen und „belegt“. Anhand ausgesuchter Ganglinienbeispiele „zeigt“ sie, dass bei flexibler Kraftwerks-Einspeiseregelung kein EEG-Strom verloren gehen müsste und Stromexporte unnötig wären.

Die Studienautoren bestätigen dies und sagen: Nicht die unplanbare, mit extremer Spanne schwankende EEG-Vorrangeinspeisung ist das Problem im Netz, sondern die darauf nicht flexibel genug reagierenden Grundlast-Kraftwerke, vor allem Braunkohle und die noch verbliebene Kernkraft. Alleine dies sei die Ursache der Stromexporte und der vorgenommenen Abregelungen. Würde man alle Kraftwerke genau mit der EEG-Einspeisung nachregeln, gäbe es alle Probleme nicht. Ob das technisch überhaupt möglich wäre, hat die Studienautoren nicht interessiert.
era Analyse: [2] Diese Strommarktanalyse zeigt, dass die zu starre Fahrweise der Braunkohle- und Atomkraftwerke zu hohen Stromexportüberschüssen in Deutschland führt … ihre Leistungsreduzierung reicht aber nicht aus, um bei hoher Windenergie- und PV-Einspeisung eine ausgeglichene Angebot-Nachfrage-Situation im Strommarkt zu erreichen. Dafür müsste auch die Leistung der Braunkohle- und Atomkraftwerke viel stärker an die Stromerzeugung aus erneuerbaren Energien angepasst werden.

Die Grundlastkraftwerke passen sich der fluktuierenden EEG-Einspeisung nicht flexibel genug an

era Analyse: [2] Diese Strommarktanalyse zeigt, dass die zu starre Fahrweise der Braunkohle- und Atomkraftwerke zu hohen Stromexportüberschüssen in Deutschland führt. Die Steinkohlekraftwerke werden zwar variabler betrieben, ihre Leistungsreduzierung reicht aber nicht aus, um bei hoher Windenergie- und PV-Einspeisung eine ausgeglichene Angebot-Nachfrage-Situation im Strommarkt zu erreichen. Dafür müsste auch die Leistung der Braunkohle- und Atomkraftwerke viel stärker an die Stromerzeugung aus erneuerbaren Energien angepasst werden.

Bild 1 Jährliche Exportüberschüsse [2]
[2] Die hohen Exporte werden zumeist der schwankenden Wind- und Solarstromerzeugung angelastet. Die vorliegende Untersuchung zeigt jedoch, dass sie in erster Linie auf die seit 2009 konstant gebliebene Stromerzeugung aus Braun- und Steinkohle zurückzuführen sind.

Bild 2 Jährliche Abregelungen [2] (EEG-Strom, der erzeugt wurde, mangels Bedarf nicht eingespeist wird, jedoch bezahlt werden muss)
[2] Die hohe Braunkohle- und Steinkohleerzeugung hat außerdem zusammen mit Netzengpässen dazu beigetragen, dass die abgeregelte Stromerzeugung aus erneuerbaren Energien in den letzten Jahren drastisch gestiegen ist (siehe folgende Abbildung). Da die Betreiber für den nicht eingespeisten Strom aus erneuerbaren Energien entschädigt werden, entstehen durch die Abregelung zusätzliche Kosten, die – zu Unrecht – der Energiewende angerechnet werden.

Bild 3 Ganglinienbeispiel Zeitraum 27.01. – 31.01.2016 [2]

Um welches Problem geht es dabei

Wie üblich geht es neben anderem um Kosten. Die Netzüberlastungen durch die EEG-Vorrangeinspeisung nehmen mit jedem weiteren Ausbau zu und kosten inzwischen richtig Geld. Zudem führt es auch zu Stromexporten mit negativen Preisen. Mit jedem weiteren EEG-Ausbau explodieren diese Probleme und Kosten.

Bild 4 Kosten der Netzüberlastungen. Quelle: R. Schuster

Als Beleg werden ausgesuchte Ganglinienbeispiele angeführt

Beispiel A, der Zeitraum vom 27. bis zum 31.01.2016.
[2] Die Winterperiode vom 27. bis zum 31.01.2016 ist durch eine hohe Windenergieeinspeisung von 12 bis 33 GW geprägt …
… Angesichts der relativ hohen Erzeugung von Wind- und Solarstrom wäre zu erwarten, dass die fossile Kraftwerksleistung entsprechend angepasst und heruntergefahren würde. Dies ist jedoch kaum der Fall, sodass ständig Stromerzeugungsüberschüsse auftreten, die ins Ausland exportiert werden müssen. …
Die Stromexportüberschüsse in diesem Zeitraum korrelieren numerisch zwar mit der Windenergieeinspeisung, werden aber de facto durch die parallel hohe Kohlestromerzeugung verursacht.

Bild 5 Ganglinienbeispiel A, Zeitraum 27.01. – 31.01.2016 [2]

Kritische Betrachtung

Ganz kurz gesagt: Unter der Prämisse, dass EEG-Einspeisung grundsätzlich Vorrang haben muss, dem sich alles andere bedingungslos unterzuordnen hat, wird vollkommen frei von technischen Zwängen erklärt, dass, so lange bei den Grundlastkraftwerken noch „Luft“, also eine Energiedifferenz besteht, alleine diese geregelt werden müssen.

Über die komplexen Zusammenhänge im Versorgungsnetz und über die Probleme eines zukünftig höher werdenden EEG-Anteils wird nicht eingegangen.

Studie: [2] Diese Strommarktanalyse zeigt, dass die zu starre Fahrweise der Braunkohle- und Atomkraftwerke zu hohen Stromexportüberschüssen in Deutschland führt.
Die hohen Exporte werden zumeist der schwankenden Wind- und Solarstromerzeugung angelastet. Die vorliegende Untersuchung zeigt jedoch, dass sie in erster Linie auf die seit 2009 konstant gebliebene Stromerzeugung aus Braun- und Steinkohle zurückzuführen sind.
Die hohe Braunkohle- und Steinkohleerzeugung hat außerdem zusammen mit Netzengpässen dazu beigetragen, dass die abgeregelte Stromerzeugung aus erneuerbaren Energien in den letzten Jahren drastisch gestiegen ist
Da die Betreiber für den nicht eingespeisten Strom aus erneuerbaren Energien entschädigt werden, entstehen durch die Abregelung zusätzliche Kosten, die – zu Unrecht – der Energiewende angerechnet werden.

Bewusst verzichtet die Studie auf jegliche physikalische und kraftwerkstechnische Betrachtung. Für die Studienautoren existieren keine technischen oder kommerziellen Probleme. Sie argumentieren nur nach den Ganglinienkurven.
Was die Studienautoren sicher wissen, aber nicht erwähnen ist, dass dies (auf dem Papier) nur gelingt, weil global immer noch eine Differenz zwischen Verbrauch und EEG-Spitzeneinspeisung besteht. Dass dies in Regionalnetzbereichen schon aktuell nicht mehr der Fall ist [7], wird unterschlagen, beziehungsweise nur nebenbei erwähnt. Auch wird zwar erwähnt, aber nicht darauf eingegangen und ignoriert, warum Braunkohle- und Kernkraftwerke nicht im Stundentakt in der Leistung beliebig hin- und her fahren können. Es wird einfach postuliert, dass es nur an der Geldgier der Betreiber läge.

Die Studie reiht sich damit nahtlos in die Formate ein, wie sie beispielhaft auf Klimaretter.Info regelmäßig zur (Des-)information zu finden sind. Toppt diese jedoch durch eine schon fast auf Kindergarten-Niveau reduzierte „Ganglinienanalyse“. Das ließ sich aber nicht vermeiden: Das Ergebnis war durch den Auftraggeber ja festgelegt.

Die Grundlastkraftwerke haben die sprunghafte EEG-Einspeisung vollständig auszuregeln

Anhand des ersten in der Studie gebrachten Ganglinienbeispiels (Bild 4) sei die Problematik gezeigt. Dazu ist der 27. Januar 2017 dargestellt und die Eispeiseveränderung zwischen 12 und 17 Uhr.

Bild 6 Ganglinien 27.01. – 31.01.2016. Zeitraum 27.01., 12 – 17 h gekennzeichnet. Quelle Agora Viewer

Innerhalb dieser fünf Stunden speisten die EEG-Generatoren -52 % Energie ins Netz. Während der Verbrauch nur um 3,3 % zurückging. Würde Deutschland (wie geplant) zu 100 % EEG-versorgt, hätten in Deutschland innerhalb der fünf Stunden
50 % der erforderlichen Elektroenergie gefehlt.

Bild 7 Detaildaten der Ganglinien von Bild 6

Die Studie sagt nun folgerichtig, da vom EEG-Gesetz so vorgegeben, dass es nicht Aufgabe der EEG-Stromlieferanten ist, darauf Rücksicht zu nehmen. Diese Einspeise-Verbrauchsdifferenzen müssten die konventionellen Kraftwerke ausregeln. Das machen diese (notgedrungen) auch, ansonsten würde das deutsche Stromnetz bereits aktuell zusammenbrechen.

Um es nicht zeigen zu müssen, hat die Studie gezielte Zeitpunkte zur „Analyse“ herausgepickt. Deshalb beispielhaft nochmals das erste Studienbeispiel mit dem Zeitraum über zwei Monate (Bild 7). Sehr schön sieht man nun die Probleme – und nicht die „Erfolge“ der EEG-Einspeisung:
Wenn der Bedarf fast am Maximum liegt, wird ein Minimum an Energie geliefert (rote Pfeillinie). Das ist genau das Gegenteil, was Herr Özdemir behauptet [10].
Obwohl der Bedarf sinkt, wird sprunghaft Maximalenergie eingespeist (um den 21. Februar).
All dies regelt die konventionelle Stromerzeugung aus. Entsprechend der technischen Gegebenheiten der Kraftwerkstechnik in der Reihenfolge: Gas, Steinkohle, dann wenig Braunkohle und noch weniger Kernkraft. Dass sich damit dann kaum noch Geld verdienen lässt, kann mancher vielleicht verstehen. Nicht jedoch die Studienautoren und die GRÜNEN.

Bild 8 Ganglinien vom 01.01. – 28.02.2016. Mit Zufügungen vom Autor. Quelle Agora Viewer

Bild 9 Detaildaten der Ganglinien vom 19. – 20.02.2016 von Bild 8

Bild 10 Zeitraum 01.01.2016 – 29.02.2016. Verlauf Verbrauch (violett) und Differenz Verbrauch zur EEG-Einspeisung (braun). Grafik vom Autor erstellt. Quelle: Agora-Daten

Bild 11 Ganglinie des Gesamtjahres 2016. Zusätzlich gekennzeichnet ist der Zeitraum des Studienbeispiels A. Quelle: Agora-Viewer

Wenn reiner Irrsinn über unsere Energie bestimmt …

Bei jedem Blick in die EEG-Ganglinien ist ersichtlich:
Dass die EEG-Stromversorgung mit ihrer Vorrangeinspeisung bei einem weiteren Ausbau den kommenden Zusammenbruch des Stromnetzes zur Folge haben muss.
Parallel ist ersichtlich, dass die „versprochenen“ Speicher nirgendwo mit ausreichendem Volumen in Sicht sind.
Die konventionellen Kraftwerke sind derzeit noch in der Lage, die Einspeiseproblematik auszuregeln und mit der Strombörse über Export / Import Energiedifferenzen abzufangen.
Trotzdem nehmen die sich verstärkenden Abregelungen (Bild 2) als zusätzliche Notmaßnahme drastisch zu.

Das ist nicht nur die Ansicht des Autors, sondern kann auch an anderen Stellen nachgelesen werden [5] [7] [9].

In dieser immer kritischer werdenden Situation fällt „Fachpersonen“ nichts anderes ein, als unbeirrt ihren ideologischen Weg weiter zu gehen.
Unter diesen sticht die „Fachfrau“ der GRÜNEN (Studium: Politikwissenschaften, öffentliches Recht, Völkerrecht) allerdings hervor. Sie weiss erkennbar nichts über das, was sie sagt, sie weiß aber genau, warum sie es sagt:
Annalena Baerbock: [4] … „Am Kohleausstieg führt kein Weg vorbei. Nicht nur aufgrund unserer klimapolitischen Verpflichtungen, sondern auch wegen des bevorstehenden Desasters am Strommarkt, wenn wir so weitermachen wie bisher. Es mangelt weder an erneuerbaren Energien noch an der Entwicklung von Speichern und Netzen. Es mangelt an der Bereitschaft, aus der Kohle auszusteigen. Deshalb kommen wir bei der Energiewende nicht richtig voran.“
Zuerst stellt sich die Frage, was diese Darstellung mit den Studienaussagen zu tun hat. Dort steht dazu nämlich praktisch nichts drin.

Information der Studie:
Über Speicher: Nichts,
Dass erneuerbare Energien die Strom-Nachfrage erfüllen könnten: Nichts,
Zum Versorgungsnetz: Es wird nur erklärt, dass derzeit das globale Netz (aktuelle, lokale Überlastungen, wie sie der bdew anspricht, wurden nicht untersucht) auch bei EEG-Einspeisespitzen noch ausreicht, wenn parallel minutengenau alle Grundlastkraftwerke heruntergefahren würden.

Wahrscheinlich hat die Fachfrau die Studie gar nicht gelesen. Man würde sich wünschen, jemand könnte diese „Fachfrau des Wissensgrauens“ zwingen, auch einmal etwas über Energie zu lesen, damit sie wenigstens im Ansatz den Unsinn ihrer Aussagen erkennt:
EIKE, 01. September 2017: [9] SPIELER AM WERK? Die Energiewende und Grünsprech – Die Kaskadierung
TYCHIS EINBLICK, 4. Februar 2017: [5] Anspruch und Wirklichkeit „Energiewende“ trifft frostige Wirklichkeit
Sicher noch hilfreicher wäre, sie müsste einmal dort leben, wo ein solches Energiesystem Realität ist. Allerdings sie alleine (zum Beispiel irgendwo in Afrika) und nicht umgekehrt, wir mit ihr demnächst in Deutschland.
Zur Demo für wenige Tage alle Kraftwerke abzuschalten, um der Fachfrau zu zeigen, an was es bei ihr mangelt, und den Bürgern, was uns durch solche fachfremden Personen alles noch eingebrockt wird, wäre am Hilfreichsten. Da unsere Medien dann aber nicht die Wahrheit berichten, sondern irgend eine Dolchstoßlegende erfinden würden, käme es leider dort, wo es ankommen sollte dann nicht an.

Die Beraterin für Klima und EEG für unsere Berliner Politikkaste ist allerdings kaum besser. Sie hat auch keine Lösungen, meint aber zu wissen, welche es sind:
[6] Prof. C. Kemfert: Nicht die erneuerbare Energie von morgen braucht zusätzliche Netze, sondern der hohe Überschuss des Kohlestroms von gestern. Die erneuerbaren Energien sollen hier nur als Sündenbock herhalten, um einen überdimensionierten Stromnetzausbau zu rechtfertigen. Dabei wären dezentrale, intelligente Netze samt Lastmanagement und mittelfristig mehr Speicher viel wichtiger.
Auch diese „Fachfrau“ belegt, dass man mit Wissen nicht weiterkommt, sondern indem man weiss, was die Wichtigen als Wissen wissen wollen. Trotz ihrer vielen, oft hanebüchenen Aussagen [6] wird sie mit Ehrungen und Posten überhäuft.

Der bdew als ein Verband mit Fachwissen könnte etwas zur (Er-)Klärung beitragen. Macht er aber nicht.
Stattdessen philosophieren seine Fachleute über unerfüllbare Wünsche und Speicher und dass der Grund, warum sie fehlen „regulatorische Hemmnisse“ wären, die man schnell abschaffen könnte. Dass Speicher im erforderlichen Umfang nicht möglich sind, alternativ (als Powert to Gas mit Rückverstromung [11] [13]) die Stromkosten explodieren lassen [11], wagt der Verband nicht zu erwähnen.
bdew: Zu den Kernproblemen gehört, dass Deutschland beim Netzausbau leider deutlich hinterherhinkt. Neue Leitungen sind dringend erforderlich, um die zunehmenden Strommengen aus regenerativen Quellen aufnehmen zu können. Dass es hier hakt, liegt vor allem an politischen Widerständen. Dringend erforderlich sind zudem zusätzliche Speicherkapazitäten und -technologien, um den aus Wind- und Solarenergie erzeugten Strom möglichst vollständig nutzen zu können. Der Speicher-Ausbau wird aber durch regulatorische Hemmnisse ausgebremst. Hier muss die künftige Bundesregierung schnell Abhilfe schaffen.“

… welche sich durch GRÜNE „Forschungskompetenz“ selbst bestätigt …

Welche Kompetenz hat nun das Forschungsinstitut, von dem die Studie für die GRÜNEN verfasst wurde? Anbei eine Nachschau:
era (energy research architecture) ist eine international tätige Beratungsfirma, die sich mit den Energie- und Ressorcenfragen unserer Zeit beschäftigt. Das Ziel von era ist, einen Beitrag zur Entwicklung einer nachhaltigen Ära zu leisten, die auf einer sauberen, sicheren und erneuerbaren Energieversorgung und auf den effizienten Einsatz von Ressourcen basiert.

Der Haupt-Studienautor ist mit-Gründer von era:
Björn Pieprzyk
2001: Studium der Landschaftsplanung mit Schwerpunkt Umweltschutz an der Universität Hannover
Diplomarbeit: Der Beitrag von ÖKOPROFIT zur nachhaltigen Entwicklung – Analyse der Kooperation staatlicher Institutionen
und Unternehmen zur Förderung nachhaltiger Produktion
2001-2006: Referent für den Bundesverband Erneuerbare Energie Deutschland (BEE)
2006-2007: Referent für die Agentur für Erneuerbare Energien (AEE)
Seit 2008: Referent für den Bundesverband Erneuerbare Energie Deutschland (BEE)
2008: Gründung der Firma ERA energie research architecture mit Paula Rojas Hilje
Seit 2011: Doktorand an der Technischen Universität Darmstadt
Hochschule Ostwestfalen-Lippe: Lehrbeauftragter für Energiepolitik, Energierecht

Er hat auch bereits Studien zum EEG Im Auftrag des Bundesverbandes Erneuerbare Energie e.V. verfasst:
Björn Pieprzyk ERA – Energy Research Architecture San Jose at al.: Kurzstudie Beitrag der Erneuerbaren Energien zu den europäischen Klimaschutzzielen bis 2020
Fazit Die Studie zeigt, dass schon jetzt die Erneuerbaren Energien einen erheblichen Anteil zu den CO2-Minderungszielen der Europäischen Union beitragen. Dieser Klimaschutzbeitrag wird sich in den nächsten Jahren bis 2020 weiter stark ausweiten. Dabei ist von Seiten der Europäischen Union sicher zu stellen, dass die Fördermechanismen für die Erneuerbaren Energien beibehalten beziehungsweise im Sinne der Erneuerbaren Energien weiterentwickelt werden.
… Die Erhöhung der Anteile Erneuerbarer Energien am Strommix ist ein Garant dafür, dass die Europäische Union ihre formulierten Klimaschutzziele erreichen kann

Irgendwie erschütternd, was inzwischen alles als „Forschungsinstitut“ bezeichnet wird. Für das wenige und dazu noch ideologisch beschränkte Wissen, welches die GRÜNEN benötigen, reicht aber wohl jedes „Kleinbüro“, sofern es die geforderten Daten verspricht, aus. Der gerade erschienene Artikel von Andrea Andromidas trifft das wie die Faust aufs Auge:
EIKE 02.09.2017: Die Science Fiction des Jeremy Rifkin oder: die schöne neue Welt der Öko-Kollektive

Der Autor hat spasseshalber die Daten für die EEG-Zukunft hochgerechnet.
Wenn die EEG-Einspeisung den Strombedarf decken soll, müssten Wind- und PV gegenüber dem Ausbaustand im Jahr 2016 nochmals um den Faktor 4,3 ausgebaut werden. Die hochgerechneten Ganglinien sehen dann wie im Bild 10 aus.

… kommt dieses Desaster heraus

Bild 12 EEG-Einspeisung linear hochgerechnet, so dass EEG-Jahreseinspeisung = Verbrauch. Datenquelle: Agora

Damit sind aber noch nicht die gewaltigen Verluste von 50 … 80 % [12] abgedeckt, welche die Power to Gas-Speicher mit Rückverstromung verursachen. Also muss man dem Jahresbedarf die Speicherverluste mit dem Faktor 1,5 zufügen (ganz grobe Abschätzung). Dann sehen die EEG-Ganglinien wie folgt aus:

Bild 13 EEG-Einspeisung linear hochgerechnet, so dass EEG-Jahreseinspeisung = Verbrauch + Speicherverluste. Datenquelle: Agora

Dass unser Versorgungsnetz bei diesen Einspeisungen nicht mehr stabil bleiben kann, drastisch umgebaut werden muss und massivste, restriktive Maßnahmen erforderlich werden, welche unabhängig davon, ob sie ausreichend Wirkung zeigen, auf jeden Fall wirklich viel, viel Geld kosten, ist sicher. Doch was interessiert die elektrische Wirklichkeit schon ernannten Energie-„Fachpersonen“ – und Bürgerinitiativen, welche gegen die notwendigen Umbaumaßnahmen genau so demonstrieren, wie gegen das Verbleiben im aktuell noch sicheren Energiesystem.

… welches bedingungslos zum totalen Kampf gegen das Klima weitergeführt wird

Das klingt schon recht verwegen. Den „Fachpersonen“ jagt es jedoch keine Angst ein, nein, es ihnen Ansporn, zur Rettung des Klimas noch mehr zu tun. Diesmal sind es zur Entschuldigung nicht die GRÜNEN, sondern Greenpeace Energy und der Bundesverband Erneuerbare Energien in Verbindung mit einer Energie-Fachperson aus dem Dunstkreis der Klimaberaterin C. Kemfert.
Greenpeace Energie, 20.06.2016, Pressemitteilung: [13] Deutschland braucht 100 Prozent erneuerbare Energien bis 2040, den Kohleausstieg bis 2030 und raschen Ausbau von Langzeitspeichern
In dieser Studie wird erklärt:
… Um die Vorgaben des Pariser Klimaabkommens einzuhalten, muss Deutschland erheblich mehr Ökostrom produzieren als bislang geplant …Demnach braucht Deutschland spätestens im Jahr 2040 jährlich 1.320 Terawattstunden an erneuerbarem Strom. Das ist mehr als doppelt so viel wie heute. Der deutlich höhere Strombedarf entsteht nach der „Sektorkopplungsstudie“, weil auch Verkehr, Wärme und Industrie zum Erreichen der Klimaschutzziele in Deutschland von fossilen Energieträgern auf erneuerbaren Strom umschwenken müssen. „Mit den geringen Zubaukorridoren des Erneuerbare-Energien-Gesetzes ist ein Einhalten der Paris-Ziele praktisch unmöglich. Entweder fehlt den politisch Verantwortlichen der nötige Sachverstand oder sie beabsichtigen das Klimaschutzabkommen gar nicht einzuhalten“, urteilte Studienleiter Prof. Dr. Volker Quaschning bei der Präsentation in Berlin.
Wenigstens sagt dieser Professor endlich einmal, was dann an Speicher benötigt wird, ein Problem, von dem die GRÜNE Fachfrau gar nichts weiß:
[13] … „Um den von Professor Quaschnings Team ermittelten Energiebedarf durch erneuerbare Speicher abzusichern, brauchen wir bis 2040 eine Elektrolyseurleistung von mindestens 80 Gigawatt, um den nötigen Wasserstoff zu erzeugen“,

Mit dem 14-fachen EEG-Ausbau könnte Deutschland seine Klimaziele erreichen …

Dieser Prof. Quaschning (Promotion über die Abschattung von Solarzellen) fordert so ganz nebenbei nichts weniger, als mindestens eine Vervierzehnfachung des aktuellen EEG-Ausbaus (mehr als 2 x 6,5, siehe Bild 11), da ansonsten die Welt mit dem Klima untergehen würde. Wer das nicht glaubt, dem fehle der nötige Sachverstand. Das erste Mal dass man froh ist, dass wenigstens einem Teil unserer Politikern dieser Sachverstand fehlt.

Ansonsten ist dieser Professor ein typisches Beispiel für die Forschertypen, welche mit Freude und konsequent etwas (zum eigenen Nutzen) umsetzen, den Sinn und die Notwendigkeit jedoch nicht hinterfragen, sondern froh sind, dass er „von Oben“ vorgegeben wird. Solche gibt es in jedem Zeitabschnitt der Geschichte.

… und mit dem 40-fachen ganz auf Ökoenergie umsteigen

Wie man das leicht ausrechnen kann, steht im Artikel:
EIKE 08.09.2017: Welcher EEG-Ausbau wird benötigt, wenn man – wie es die GRÜNEN fordern – alle Energie aus EEG-Erzeugern generiert?
Was es kostet, kann man ebenfalls abschätzen:

EIKE, 10. Oktober 2016: Neue Studie enthüllt: Die Energiewende wird uns bis 2025 rd. 520 Mrd € kosten

Fazit

Wie schon in den Artikeln:
EIKE 26.08.2017: Holen sich die GRÜNEN ihre „Kernkompetenz“ zum Klimawandel von der Bundesregierung?
EIKE
28.8.2015: Wenn Politologinnen „Klimastudien“ machen – zur „Klimastudie“ von Bündnis 90/Die Grünen
dargelegt wurde, geht es den GRÜNEN nicht darum, irgendwo „Kernkompetenz“ zu erhalten. Es werden nur Personen gesucht, die willig ihre ideologisch vorgefasste Meinung begründen helfen.

Dass sie sich dabei regelmäßig so erkennbar faktenignorant und frei von jeglichem Basiswissen präsentieren, ist fast schon eine Schande für Deutschland. Nur fällt es bei uns nicht auf, da die anderen – etablierten – Parteien ja nicht besser sind [16] [15]. Die Berater*innen der Politiker nutzen diese Unwissenheit, teils gepaart mit reiner Hysterie schamlos aus, um mit NGOs ihre eigenen „Süppchen zu kochen“.

Oder sollte es inzwischen eine Ausnahme geben?
Angeblich ist das auch dem bayerischen Ministerpräsidenten aufgefallen. Vor Kurzem konnte er sich noch eine Koalition CSU / GRÜNE in Bayern vorstellen, nun hat er sich anders entschieden.
N24: Seehofer kann sich Koalition mit den Grünen nicht mehr vorstellen
Nur weiß man bei Seehofer nie, ist es (Nach-)Denken, oder reines Parteikalkül. Zum Beispiel weil die FDP inzwischen bessere Umfragewerte als die GRÜNEN vorweisen kann.
Um es als Nachdenken zu belegen, müsste er erst einmal seine Umweltministerin gegen eine Person auswechseln, die sich nicht nur als hohle, grüne Mainstream-Sprechpuppe darstellt und Frau Hendricks Klimahysterie und fachliche Inhaltsleere teilt [14].

Quellen

[1] KLIMARETTER.INFO, 25. August 2017: Kohlestrom verstopft auch Exportleitungen

[2] era, August 2017: Analyse des Exports von Stein- und Braunkohlestrom Erstellt im Auftrag von: Bundestagsfraktion Bündnis 90/Die Grünen

[3] bdew Bundesverband der Energie- und Wasserwirtschaft e.V.: Stefan Kapferer zum aktuellen Kraftwerke-Papier der Grünen

[4] Annalena Baerbock 25.08.2017: Studie: Stromexporte von Stein- und Braunkohlestrom

[5] TYCHIS EINBLICK, 4. Februar 2017: Anspruch und Wirklichkeit „Energiewende“ trifft frostige Wirklichkeit

[6] EIKE 05.06.2016: Eine Professorin klärt den VDI auf, wie das EEG „wirklich“ funktioniert

[7] EIKE 01.01.2016: Die neuen Energien im Jahr 2015 und im Jahr 2050 für Dummies Teil 2 intelligente Versorgungsnetze

[8] EIKE 06.02.2016: Nachgefragt: Ein lokaler Versorger bricht die Macht der Stromgiganten

[9] EIKE, 01. September 2017: SPIELER AM WERK? Die Energiewende und Grünsprech – Die Kaskadierung

[10] EIKE 15.08.2017: Cem Özdemir versucht sich in Energie

[11] EIKE 18.06.2015: Elektro-Energiespeicherung, Notwendigkeit, Status und Kosten. Teil 3 (Abschluss)

[12] DAV: Studie „Energiewende 2030“ von Agora

[13] Greenpeace Energie, 20.06.2016: Deutschland braucht 100 Prozent erneuerbare Energien bis 2040, den Kohleausstieg bis 2030 und raschen Ausbau von Langzeitspeichern

[14] EIKE 21.11.2015: Die bayerische Umweltministerin Frau Scharf: Extremwetter, Extrem-Hochwasser und die Unberechenbarkeit des Wetters nehmen zu. Doch stimmt das wirklich?

[15] EIKE 21. Dezember 2012: Ein Weihnachtsmärchen: Minister Altmaier, die Energiewende und die Geisterfahrer

[16] EIKE 21. August 2017: POLITISCHE BILANZ: Nicht „ob“, sondern „wie schnell“

[17] EIKE: Immer wieder muss der Tschad-See unter dem Klimawandel leiden, oder: Warum steht in Studien der GRÜNEN immer so viel Falsches drin?




Ein Blick in die Zukunft: Evakuierung von Florida mit E-Autos? Ein Albtraum!

Wir haben hier schon viel über die aktuelle Hurricane-Saison berichtet. Während die Alarmisten auch diese – ohne jedes Zögern- dem menschgemachten Klimawandel in die Schuhe schieben, sagten wir Realisten dass da nichts dran wäre.

Doch egal wer letztendlich recht behalten wird, eines ist so sicher wie das Amen in der Kirche: Sie werden weiterhin jedes Mal im Spätsommer – Herbst über die tropische Inselwelt im Golf von Mexico, und die südliche Landmasse der Vereinigten Staaten von Amerika hinweg fegen, mal stärker mal schwächer, und oft Unheil und Tod bringen.

Je besser die Frühwarnsysteme werden, und je mobiler die Menschen dort bleiben, desto weniger Opfer werden sie fordern.

Und nun stellen wir uns vor, dass die Grünen aller Parteien in ihrem vorgeblichen Wunsch nach Klimarettung, nicht nur bei uns, sondern auch in den USA auf breiter Front die E-Mobilität eingeführt hätten, wenn nicht freiwillig als Dritt- oder Viertauto betuchter Familien, dann zwanghaft. Auf jeden Fall als individuelles Massentransportmittel.

Denn das bedeuten ja im Kern die bereits eingeführten – Norwegen, UK bald Frankreich-  oder noch kommenden Verbrenner-Verbote wie von Deutschland und der EU-geplant. Evtl. dann auch in den USA, falls Hillary oder ein linker Nachfolger sich zur Wahl stellen und gewinnen würde. Ein Verbrennerverbot wäre dann auch dort denkbar.

Und nun zurück zur Hurricane Saisons. Stellen wir uns vor, E-Mobile hätten bereits einen großen Anteil an der Autoflotte und ein starker landfallender Wirbelsturm wie Harvey oder jetzt Irma würden eine großvolumige Evakuierung erzwingen.

Es wäre eine entsetzliche Vorstellung. Millionen Menschen, auf engstem Raum auf der Autobahn zusammengefercht. Die langsamsten , besser, die massenweise mangels Ladung stehen gebliebenen, bestimmten das Fahrtempo. Es wäre im Nu Null!

Dann wären diese Millionen von Menschen den Naturgewalten völlig hilf— und schutzlos ausgeliefert. Millionen von Toten und Abermillionen von Verletzten wären die Folge.

Informatiker Hadmut Danisch hat diesen Zustand mal ein wenig durchgerechnet:

Zitat

Überlegen wir mal:

Unterstellen wir, dass der Tankfüllstand zufällig gleichverteilt ist, dürften die meisten PKW in der Regel einen im Durchschnitt halb vollen Tank haben, vor so einer Katastrophe mit Ansage vielleicht auch besser aufgetankt. Man könnte also mit jedem funktionsfähigen Auto, das herumsteht, im Mittel so ungefähr 250 bis 400 Kilometer fahren. Florida ist etwa 800 Kilometer lang, für viele Bewohner (wohnen ja nicht alle ganz unten) mit einem spritsparenden Auto (ich weiß, USA…) käme man also mit quasi einer Tankfüllung und autark (von den Staus mal abgesehen) aus Florida heraus nach Norden.

Selbst wenn der Füllstand nicht reicht: Energie durch Benzin und Diesel ist mit wenig Aufwand portabel, kann mit Tanklastwagen transportiert und leicht umgefüllt werden, man kann da immer etwas improvisieren oder bestehende Tankstellen behelfsmäßig – notfalls durch das Militär – wieder auffüllen und im Notbetrieb mit Generator betreiben. …

Was aber ist mit Elektroautos?

Da kann man nicht einfach so geladene Akkus durch die Gegend fahren. Die Reichweiten sind mäßig, damit kommt man im Mittel dann vielleicht 100 bis 200 Kilometer (und das auch eher nicht vollgeladen), dann müssen die lange laden und dafür brauchen die enorme Infrastruktur. ..und – möchte man hinzufügen- auch nur, wenn man nicht im Stau stecken bleibt, wie das aktuelle Bild oben zeigt. Dann geht nichts mehr!

Stellt Euch vor, ganz Florida hängt seine Elektroautos zum laden an das Stromnetz. Völlig egal, ist eh zusammengebrochen. Zitaten

Aber selbst diese Horrorannahme ist noch zu optimistisch, denn bereits bei ersten Landberührungen der Wirbelstürme brechen dort regelmäßig die Stromnetze auf breiter Front zusammen. Wie man gerade jetzt den Nachrichten wieder entnehmen kann. Am 10.9.17  um ca. 14:00 Ortszeit, so meldet das ZDF waren bereits 1 Mio Haushalte ohne Strom.

Und dann? Chaos, Unheil, und hunderttausend bis millionenfacher Tod sind die unausweichlichen Folgen. Schöne neue Klimaschutz und E-Mobiiltätszukunft! Aber dann bleibt man wenigstens im vielleicht selbstfahrenden E-Mobil stecken.

Die unvermeidlichen Beschwichtiger werden nun einwenden, dass sich bis dahin die Bewohner sturmfeste Behausungen gebaut hätten und die Infrastruktur sich auch darauf eingestellt hätte, ebenso wie die Battterieladung dann nur wenige Minuten statt heute Stunden dauern würde.

Wer das glaubt, möge sich die zerstörten Häuser der vielen Inselbewohner der Region ansehen, die auch nach 100 Jahren leidvoller Wirbelsturmerfahrung immer noch nur aus Holz und Pappe evtl. auch mit Rigips gebaut werden. Und dass Mutter Natur die elektrochemische Spannungsreihe der Metalle mit ihren Elektrolyten verändern würde, ist eigentlich auch nicht zu erwarten. Diese und die mit der Ladung unvermeidlich verbundenen elektro-chemischen Prozesse und ihre Folgen begrenzen die Ladezeit. Und die werden sich nur in kleinen Schritten und letztendlich unwesentlich verbessern lassen. Nicht durch das Wunschdenken der grünen Weltretter.




Hurrikan Irma ist NICHT der stärkste atlantische Hurrikan jemals!

Update: Neueste Meldung – Irma ist der siebtstärkste landfallende Hurrikan seit Aufzeichnung 

Hurrikan Irma trifft als stärkster Hurrikan seit Beginn von Aufzeichnungen auf die Inseln der Karibik (hier)

Kategorie-5-Hurrikan Irma wird zum stärksten Hurrikan, der sich je im Atlantischen Ozean gebildet hat (hier)

Hurrikan Irma wird stärkster jemals beobachteter Sturm im Atlantik (hier)

Hurrikan Irma ist jetzt der stärkste atlantische Sturm seit Beginn von Aufzeichnungen.

Gerade beim Aufräumen nach dem verheerenden Hurrikan Harvey bereiten sich die USA auf einen sogar noch gefährlicheren Sturm vor – den Hurrikan Irma.

Mit einer Windgeschwindigkeit von 300 km/h gilt Irma jetzt als der stärkste Hurrikan im Atlantischen Ozean. Er ist der zweitstärkste im Atlantischen Becken, wozu der Atlantik, die Karibik und der Golf von Mexiko zählen – nach dem Hurrikan Allen im Jahre 1980, der eine maximale Windgeschwindigkeit von 305 km/h aufwies.

(…)

IFL Science!

Steht IFL vielleicht für „I FLunked”-Wissenschaft?

[Original: I FLunked” Science? I Flunked: Unübersetzbares Wortspiel. Im Schulsystem der USA gibt es nicht Noten nach Ziffern, sondern nach Buchstaben – A bis F. „F“ steht für „flunked“ = durchgefallen. Der Bedeutung nach heißt es also „Steht IFL für ,Ich habe die Wissenschaft zerschlagen‘?“ Anm. d. Übers.]

Geographie 101

Die Karibische See und der Golf von Mexiko sind Teil des Atlantischen Ozeans, genauso wie die Sargasso-See.

Karibische See, subozeanisches Becken des westlichen Atlantik, liegt zwischen 9° und 22° nördlicher Breite bzw. zwischen 89° und 60° westlicher Länge. Sie erstreckt sich etwa über 2.753.000 km². Im Süden wird sie begrenzt durch die Küsten von Venezuela, Kolombien und Panama, im Westen durch Costa Rica, Nicaragua, Honduras, Guatemala, Belize sowie der Yucatán-Halbinsel von Mexiko. Im Norden durch die Inseln der Großen Antillen wie Kuba, Hispaniola, Jamaica und Puerto Rico. Im Osten liegen die Kleinen Antillen mit dem Inselbogen, welcher sich von den Virgin Islands im Nordosten bis nach Trinidad im Südosten vor der Küste Venezuelas erstreckt. Innerhalb der Grenzen der Karibischen See selbst liegt südlich von Kuba noch Jamaika.

Britannica

Golf von Mexiko

Der Golf von Mexiko ist ein kleinerer Teil des Atlantischen Ozeans, aber dennoch die neuntgrößte Wasserfläche der Welt.

(…)

Deepsea Waters

Die Apostrophierung von Irma als der stärkste atlantische Hurrikan jemals ist so, als ob man einen Sportler, der einmal einen Rekord erzielt hat, gleich als den Sportler mit den meisten Rekorden benennt.

Unter den 24 stärksten atlantischen Hurrikanen seit 1924 rangiert Irma derzeit an zweiter Stelle bzgl. seiner Windgeschwindigkeit:

Und hinsichtlich des tiefsten Luftdrucks an 12. Stelle neben anderen:

Der Terminus „der stärkste atlantische Sturm seit Beginn von Aufzeichnungen“ passt zum Narrativ, dem zufolge globale Erwärmung Ursache dafür ist, dass Hurrikane immer stärker werden … eine weitere Lüge.

Hurrikane nehmen nicht an Stärke zu

Die Hurrikan-Klimatologie-Website des National Hurricane Centers präsentiert eine handliche Liste von tropischen Stürmen, Hurrikanen und starken Hurrikanen im Atlantischen Becken von 1851 bis 2014. Es gibt bei Hurrikanen keinen statistisch bedeutsamen Trend, weder nach Häufigkeit noch nach Stärke.

Zwar könnte es eine irgendwie statistisch signifikante Zunahme der Anzahl tropischer Stürme (R² = 0,2274) geben, doch kann dies auch einfach eine Folge von Verbesserungen bei der Erkennung und Identifizierung von Stürmen auf See sein … Es gibt jedenfalls keinen statistisch bedeutsamen Trend der Anzahl von Hurrikanen oder starken Hurrikanen.

Es gibt auch keine statistisch bedeutsame Trends der Raten, mit denen sich tropische Stürme zu Hurrikanen oder starken Hurrikanen entwickeln:

Rekorde sind dazu da, gebrochen zu werden

Irma ist dicht davor, einen Rekord bzgl. Windgeschwindigkeit zu brechen. Na und?

Die Wahrscheinlichkeit pn(1), dass die n-te Beobachtung einer Reihe xm = x1, x2, …, xn einen höheren Wert hat als Beobachtungen zuvor [pn(1) = Pr(xn > xi |i < n)] kann ausgedrückt werden als:

pn(1) = 1/n

unter der Voraussetzung, dass die Werte in der Reihe iid-Zufalls-Variable sind.

(Benestad, 2003)

Während Irma eine Chance von weniger als 1% aufweist, den Windgeschwindigkeits-Rekord von Allen zu brechen, zeigt die Summe der individuellen Wahrscheinlichkeiten seit 1924, dass es an der Zeit ist, dass dieser Rekord fällt.

Die Y-Achse ist die fortlaufende Anzahl neuer Rekorde. Siehe Blatt 1 der folgenden Tabelle für erwartete Rekord-Berechnungen:

AtlanticStormTotalsTable (1)

Wie in aller Welt haben wir bloß die Mittelalterliche Warmzeit überlebt?

Falls wärmere Gewässer unvermeidlich zu stärkeren Hurrikanen führen … wie hat die Menschheit die Mittelalterliche Warmzeit überlebt? Oder die Minoische Warmzeit? Es muss im Jahr 1000 v. Chr. Jedes Jahr Hurrikane der Kategorie 9 gegeben haben!!! (/SARC)

Rekonstruktion der Wassertemperatur in der Sargasso-See (Keigwin 1996) und Große Neu-England-Hurrikane (Donnelly 2001). Quelle.

Link: https://wattsupwiththat.com/2017/09/07/hurricane-irma-is-not-the-most-powerful-atlantic-hurricane-ever-recorded/

Übersetzt von Chris Frey EIKE




“Clean coal” bereits auf dem Vormarsch?

 Die Energiesituation im Süden der USA

Auch in den USA stehen die Energieversorger vor ähnlichen politischen Problemen wie in Deutschland: Die sog. “Erneuerbaren Energien” wurden auch dort mit Subventionen in den Markt gedrückt und zerstören nicht nur die vorhandene Infrastruktur, sondern schmälern vor allen Dingen auch die Ertragskraft der Unternehmen. Allerdings agiert man dort wesentlich flexibler. Obwohl z. B. Texas bessere Voraussetzungen für “Alternative Energien” mitbringt als Deutschland, setzt man dort nicht nur auf die Karten Wind und Sonne. Texas ist doppelt so groß wie Deutschland, hat aber nur rund 21 Millionen Einwohner, die sich überwiegend in wenigen Großräumen konzentrieren. Anders als in Deutschland, gibt es genug unbesiedeltes Land, in dem “Windparks” die Einwohner weit weniger belästigen. Außerdem liegt es auf der Breite der Sahara und es mangelt daher nicht an Wind und Sonnenschein. Obwohl die Bedingungen – verglichen mit Deutschland – ideal erscheinen, kommt es auch dort zu den bekannten Problemen im Netz. Man setzt daher weiterhin auf fossile Kraftwerke und Kernenergie. Wind und Sonne sieht man nur als “Additive Energien” mit eingeschränktem Nutzen. Bisher waren sie wegen hoher Subventionen und besonderen Privilegien lediglich für Anleger attraktiv. Anders als in Deutschland, ist man sich aber auch regierungsseitig (insbesondere auf der Ebene des Bundesstaates Texas) der Konsequenzen hoher Strompreise bewußt. Langfristig bleibt nur Kohle und Kernenergie übrig. Texas hat zwar Öl und Erdgas im Überfluß, beide Energieträger sind aber – wegen der hohen Weltmarktpreise – viel zu wertvoll geworden, um sie in Kraftwerken zu verfeuern. Sinnigerweise steigt der Gasexport ins Nachbarland Mexico ständig an, da dort die verstaatlichte Ölindustrie unfähig ist, die Produktion bei steigender Nachfrage auch nur zu halten. Gleichzeitig findet ein enormer Ausbau der Gasverflüssigungsanlagen an der Golfküste statt. Hiermit hat man neben Asien und Mittelamerika vor allem Europa als Absatzgebiet im Auge.

Heute ist bereits der Brennstoff Kohle an der Golfküste wieder billiger als Erdgas. Die Produktionskosten in den Tagebauen des Powder River Basin (im Bundesstaat Wyoming und Montana) sind so gering, daß selbst die Transportkosten über tausende Kilometer nicht ins Gewicht fallen. Nachdem die obamaschen “Klimaerlasse” von Trump wieder außer Kraft gesetzt wurden, rollen täglich bereits wieder über 60 Ganzzüge (meist jeweils über 100 Waggons mit 10.000 to Kohle pro Zug) in alle Regionen der USA.

Schwierig bleibt nach wie vor die Situation der Kernenergie im Süden der USA. Die nach wie vor existierende Unsicherheit über die zu erwartende Bauzeit eines Neubaues, führen zu seit Jahrzehnten andauernden Planungen ohne Aussicht auf kurzfristige Umsetzung. Für ein privates EVU ist ein solches Risiko einfach nicht zu stemmen. Staatliche Förderung von Wind und Sonne auf Kosten des Steuerzahlers bei gleichzeitig privatwirtschaftlicher Kernenergie, geht einfach nicht zusammen. Dies ist und bleibt eine doppelte Benachteiligung.

Abgas als Wertstoff

In dieser durch die Politik geschaffenen Situation der “Klimarettung” suchen die Energieversorger Hände ringend nach neuen Einnahmequellen. NRG Energy hat den Entschluß gefaßt, aus dem Abfall der Stromproduktion einen Wertstoff und ein Produkt zu machen. Der Wertstoff ist überkritisches Kohlenstoffdioxid. Das Produkt ist Erdöl.

Wenn man das CO2 aus dem Abgas abscheidet und es auf über 70 bar verdichtet, gelangt es bei Umgebungstemperatur in seinen überkritischen Zustand: Es ist flüssig, bleibt aber ähnlich dünnflüssig wie ein Gas. Es dringt damit auch in feinste Poren ein. Zusätzlich sind organische Stoffe besonders gut in ihm löslich. Beste Voraussetzungen für EOR (Enhanced Oil Recovery).

Wenn sich aus einem Ölfeld kein Öl mehr hochpumpen läßt, – es umgangssprachlich erschöpft ist – befinden sich trotzdem noch etwa 40 bis 60 % der ursprünglichen Ölmenge in ihm gefangen. Dieses Restöl herauszulösen, ist das Gebiet des EOR. Je nach Vorkommen, gibt es unterschiedliche Verfahren zu unterschiedlichen (hohen) Kosten. Ein Favorit ist das Fluten mit überkritischem CO2. Mit diesem Verfahren lassen sich rund weitere 20 Prozentpunkte der ursprünglichen Ölmenge gewinnen. Dies sind gewaltige “neue Ölvorkommen”, wenn man die weltweite Anzahl bereits versiegter Quellen in Rechnung stellt. Wie alles, ist dies eine Frage der Kosten. Auf der Habenseite steht der aktuelle Ölpreis. Auf der Sollseite die Kosten für Gewinnung und Transport des überkritischen CO2. Die Differenz muß noch die zusätzlich anfallenden Kosten decken, was dann allerdings übrig bleibt, ist Gewinn.

Welche Felder eignen sich besonders?

Ein Ölfeld besteht nicht nur aus gebohrten Löchern. Es erfordert auch eine erhebliche oberirdische Infrastruktur: Rohrleitungen, Stromversorgung, Straßen, Pumpstationen, Aufbereitungs- und Tankanlagen etc. All diese Anlagen sind bereits in der Phase der konventionellen Förderung vorhanden und abgeschrieben worden. Die Zusatzinvestitionen für eine Flutung mit überkritischem CO2 halten sich in Grenzen – wenn man genug CO2 an Ort und Stelle zur Verfügung hat. Aus Erfahrung (natürliche CO2 Lagerstätten in der Nähe) weiß man, daß EOR ein hoch profitables Geschäft ist.

In dem hier beschriebenen Fall des Ölfelds West Ranch gelang auf Anhieb eine Steigerung von nur noch 300 auf 4000 barrel pro Tag. Man geht nach optimaler Einstellung von einer Förderung von 15.000 barrel pro Tag aus. Über die Jahre – auch bei einem Ölpreis von 50 USD/barrel – ein hübsches Sümmchen an zusätzlichen Einnahmen für die Ölgesellschaft JX Nippon. Man geht von 60 Millionen barrel aus, die aus diesem Feld zusätzlich durch diese Methode gewonnen werden können.

Das Ölfeld West Ranch liegt 130 km westlich vom Kraftwerk. Für den Transport des CO2 mußte eine unterirdische Pipeline mit einem Durchmesser von fast 40 cm verlegt werden.

Die Abgaswäsche

Die Gewinnung von CO2 aus dem Abgas erscheint auf den ersten Blick nicht gerade als die eleganteste Lösung. In dem Abgas sind nur 11,5 % Kohlenstoffdioxid enthalten. Man muß daher überwiegend totes Material in der Form von Stickstoff und Restsauerstoff durch die gesamte Anlage schleppen. Andererseits kann man ein bestehendes Kraftwerk als Quelle nutzen und greift praktisch nicht in dessen Betrieb ein.

Der Aufwand für die Gewinnung hängt nicht nur von der Eingangskonzentration, sondern auch vom Restgehalt an CO2 ab. Da es sich bei diesem Projekt nicht um “Klimatologie” handelt, sondern es um die Produktion eines Wertstoffes geht, wäscht man in dieser Anlage nur etwa 90 % des enthaltenen CO2 aus. Dies spielt auch deshalb keine Rolle, weil man mit dieser Anlage nur einen Teilstrom der Rauchgase verarbeiten kann. Die gewonnenen 1,6 Millionen Tonnen CO2jährlich, entsprechen etwa einer elektrischen Leistung von 240 MW des Blocks von 650 MW.

Es ist auch kein Zufall, daß man die Anlage an einem Block mit Kohlenstaubfeuerung und nicht an die erdgasbefeuerten Kombiblöcke angeschlossen hat. Bei Kombikraftwerken ergibt sich wegen des notwendigen Luftüberschusses im Abgas nur eine Konzentration von etwa 8,5 %. Die CO2-Gewinnung wird eine Domäne der Kohlekraftwerke bleiben.

Das Verfahren

Als Waschverfahren wurde der Kansai Mitsubishi Carbon Dioxide Recovery Process (KM CDR Process, eine Handelsmarke) ausgewählt. Im ersten Teilschritt werden die Abgase in einem 36 m hohen Turm gekühlt, entfeuchtet und entschwefelt. Dieser Block enthält – anders als in Deutschland üblich – keine Rauchgasentschwefelung, sondern verfeuert lediglich schwefelarme Kohle. Die Kühlung ist notwendig, da die Waschung beträchtliche Wärmemengen freisetzt.

Das Herzstück der Anlage ist ein 110 m hoher rechteckiger, mit Füllkörpern gefüllter Turm. In ihm wird das Abgas mit der Waschflüssigkeit in Kontakt gebracht. Nach Abscheidung der Waschflüssigkeit werden die gewaschenen Abgase in die Umgebung entlassen.

In einer dritten Verfahrensstufe wird die Waschflüssigkeit durch auskochen mit Dampf wieder regeneriert. Das ausgetriebene CO2 wird verdichtet und so verflüssigt.

Der Eigenbedarf

Eine solche verfahrenstechnische Anlage braucht beträchtliche elektrische Energie zum Antrieb der Verdichter, Pumpen etc. und Dampf zum Austreiben des CO2. Umgerechnet würde der zusätzliche Eigenbedarf die elketrische Nettoleistung des Kraftwerks um 20 bis 30 % verringern. Da das Kraftwerk gebraucht wird, eine inakzeptable Situation. Man hat deshalb eine eigene, kleine, ergdasbefeuerte Kombianlage mit 70 MWel zur Versorgung der Waschanlage gebaut. Da die Anlage gar nicht so viel Strom benötigt, wird mehr als die Hälfte ihrer Leistung zusätzlich ins Netz eingespeist.

Das Risiko

Die Anlage – obwohl die erste ihrer Art – wurde termingerecht, zu den vereinbarten Preisen und ohne Unfälle fertiggestellt. Deshalb die Preisverleihung. Wie geht so etwas?

  • Man hat die neue Anlage bewußt hinter einem seit Jahren funktionierenden Kraftwerk gebaut: Möglichst keine Probleme für die Altanlage schaffen und mit definierten und zuverlässigen Eingangsdaten arbeiten können.
  • Auswahl eines erprobten chemischen Verfahrens. Es gibt bereits über 80 Anlagen in Raffinerien etc.
  • Vorab Bau einer kleinen Prototypenanlage, die sich längere Zeit in einem anderen Kohlekraftwerk bewähren konnte.
  • Kein Größenwahn. Bewußte Beschränkung auf die zehnfache Leistung des Prototyps, um die Auslegungsberechnungen absichern zu können. (Deshalb die Begrenzung auf einen 240 MWel entsprechenden Teilstrom.)
  • Einbeziehung und Beteiligung des Verfahrenstechnikers (Mitsubishi), eines erfahrenen Anlagenbauers (Kiewit) und des Verbrauchers (JX Nippon mit Hilcorp).
  • Keine – in Deutschland so geliebte – Team-Bildung (Toll ein anderer macht’s), sondern einer hat den Hut auf. Einer mit natürlicher Autorität durch ausgewiesene Fachkompetenz und Erfahrung, der die Mittel bekommt, die er für nötig hält.
  • Genaue Planung und Abstimmung zwischen allen Beteiligten bevor es auf der Baustelle losgeht.

Der Mitnahmeeffekt

Für das Projekt wurde ein gemeinsames Unternehmen aus Energieversorger (NRG Energy) und Verbraucher (JX Nippon Oil&Gas) gegründet. Einerseits wurde damit das Risiko der Investition auf mehrere Schultern verteilt und andererseits verschiedene Fördertöpfe erschlossen. Es konnten japanische Banken gewonnen werden, die gegen das Pfand von 15 Millionen barrel Öl günstigere Kredite bereitstellten. Die Lieferung von Anlagenkomponenten konnte über subventionierte Exportkredite erfolgen. Das DOE steuerte 190 Millionen USD Subventionen aus diversen “Klimaschutzprogrammen” bei.

Mit einer Investition von einer Milliarde USD können zusätzlich 60 Millionen barrel Erdöl gewonnen werden. Mögen weltweit auf vielen entölten Feldern die Bedingungen nicht so ideal sein, erscheint diese Methode trotzdem vielversprechend. Wird jetzt – wenigstens im Nachhinein – manchem klar, warum die einschlägig Verdächtigen sofort ihre Kampftruppen auf die Straße geschickt haben, als auch nur von “CO2-Abscheidung” in Deutschland geredet wurde? Macht nichts, der Fortschritt läßt sich nicht aufhalten, nun machen eben Japaner und Amerikaner das Geschäft. Solange Renten, Hartz IV etc. noch reichlich sprudeln, brauchen wir eh keine Arbeitsplätze in diesem Land. Hat halt nix mit Nix zu tun, wie einmal eine Politikerin treffend in einem anderem Zusammenhang twitterte.

Übernommen von NUKE-Klaus hier




Der „neue Generationenvertrag“ des Herrn Schellnhuber

Die Leipziger Volkszeitung vom 9. Sept. 2017 schreibt unter „zur Person“: Hans-Joachim Schellnhuber (67), Direktor des renommierten Potsdamer-Instituts für Klimafolgenforschung, hat zwei Wochen vor der Bundestagswahl kritisiert, dass der Klimawandel im Wahlkampf kaum eine Rolle spielt. „Es gibt da eine Mauer des Schweigens und Verdrängens„, sagte Schellnhuber, der auch die Bundesregierung in Fragen des Klimawandels berät. Er verwies auf eine Studie, nach der Deutschland sein Klimaziel 2020 noch deutlicher verpassen wird als erwartet. Gemeinsam mit anderen Prominenten fordert er deshalb einen neuen Generationenvertrag, der den Abschied von fossilen Brennstoffen wie Kohle und Öl bis 2040 vorsieht.

Unser Kommentar dazu:

  1. Am Renommee des Potsdamer-Instituts für Klimafolgenforschung (PIK) darf man füglich zweifeln. Hier konzentrieren sich die Klima-Alarmisten Deutschlands mit zum Teil aberwitzigen Vorstellungen. Stellvertretendes Beispiel dafür bietet Prof. Edenhofer vom PIK mit seiner Aussage im NZZ-Interview vom 14.11.2010 (hier) „…Wir verteilen durch die Klimapolitik de facto das Weltvermögen um. Dass die Besitzer von Kohle und Öl davon nicht begeistert sind, liegt auf der Hand. Man muss sich von der Illusion freimachen, dass internationale Klimapolitik Umweltpolitik ist. Das hat mit Umweltpolitik, mit Problemen wie Waldsterben oder Ozonloch, fast nichts mehr zu tun.“  Über den Geisteszustand von Leuten, die solch einen sachlichen Schwachsinn von sich geben, erübrigt sich jeder Kommentar.
  2. Was meint die Leipziger Volkszeitung mit „Prominenten“? Schlagersänger, Schauspieler, Politiker oder dergleichen Prominente mehr?
  3. Der Abschied von fossilen Brennstoffen bis 2040 ist reine Phantasterei von Spinnern.
  4. Noch ein „Generationenvertrag“ hat ebensowenig etwas mit Demokratie zu tun wie alle vorherigen Generationenverträge und er bewirkt ebenso wenig wie diese.
  5. Dass der Klimawandel (gemeint ist menschgemachter Klimwandel) im Wahlkampf keine Rolle spielt, bedauern wir und befinden uns hier ausnahmsweise in Übereinstimmung mit Schellnhuber. Jedes Klima in jeder Klimazone unserer Erde, von polar bis tropisch, hat sich seit ihrem Bestehen stets geändert. Konstantes oder ein auf bestimmte Werte reduziertes Klima herstellen zu wollen (also Klimaschutz) ist demente Hybris. Dies gehört tatsächlich in diesen Wahlkampf. Denn der sog. Klimaschutz, überflüssiger als ein Kropf, kostet unsere Volkswirtschaft und damit jeden von uns bereits heute ein Vermögen.
  6. Dass der angeblich menschgemachte Klimawandel keine Rolle im Wahlkampf spielt, liegt im Übrigen nicht an bösen Mächten („Mauer des Schweigens“ oder dergl. Unsinn) und auch nicht an EIKE, sondern die Medien tragen hierfür die Verantwortung. Infolge kompletter sachlicher Inkompetenz und Totalverweigerung jeder Sachrecherche (kaum ein Journalist kennt sich infolgedessen in diesem Thema aus und hat hier jemals Brauchbares von sich gegeben) hat der jahrzehntelange Klima-Unsinn in Zeitungen und Fernsehen bewirkt, dass Bürger mit klarem Verstand sich von den Medienberichten zu diesem Thema längst angewidert abgewendet haben. Zur sachlichen Desinformation über das Thema „Klimawandel“ hat insbesondere das PIK einen maßgebenden Beitrag geleistet.



Immer wieder muss der Tschad-See unter dem Klima­wandel leiden, oder: Warum steht in Studien der GRÜNEN häufig so viel Falsches drin?

   Die Klimakrise als Konfliktverstärker

Über dieses Thema wurde schon sehr viel geschrieben. Die GRÜNEN waren sich trotzdem sicher, dazu noch etwas beitragen zu können, und so erstellte ein bewusst hochkarätiges Autor*innen Team der Partei eine Analyse:
Das Autor*innen-Team:
Annalena Baerbock: Studium Politikwissenschaft, öffentliches Recht und Völkerrecht. Sprecherin der GRÜNEN für Klimapolitik
Omid Nouripour: Studium Deutsche Philologie, Politikwissenschaft, Philosophie und Rechtswissenschaft,
Bärbel Höhn: Mathematik und Volkswirtschaftslehre
Jürgen Trittin: Diplom-Sozialwirt

Die Studie: [3] Die Klimakrise als Konfliktverschärfer
Annalena Baerbock: … Gemeinsam mit Bärbel Höhn, Jürgen Trittin und Omid Nouripour habe ich analysiert, wie klimatische Veränderungen, Konflikte verschärfen – mit entsprechenden Folgen für die weltweite Migration.
Insbesondere Wassermangel und Wüstenbildung können zu einem Kampf um das schrumpfende nutzbare Land führen. Ein Beispiel dafür können wir schon heute in der Region um den Tschad-See beobachten. Die Fläche des Sees ist seit den 1960er Jahren vor allem aufgrund der Klimakrise um etwa 75% zurückgegangen. Der Wassermangel befördert Konflikte um Land und zwingt die betroffenen Fischer und Landwirte zur Flucht in die Städte.

Es soll hier nicht auf geopolitische Betrachtungen und die dahinter stehende Politik eingegangen werden. Im Kern dient das ganze „Paper“ ja nur dazu, eine bedingungslose Vorreiterrolle Deutschlands im „Klimaschutz“ und die deutschen Zahlungen in den Klimaschutzfond zu begründen. Gesichtet werden soll anbei jedoch eine der klimawandlerischen „Begründungen“.

Immer wieder muss der Tschad See unter dem Klimawandel leiden

In der „Analyse“ wird der extrem schwankende Pegel des Tschad-See – welcher in der Sahelzone liegt – als ein Beispiel für die Auswirkungen des Klimawandels angeführt.
GRÜNEN, Studie: [3] Ein Beispiel dafür können wir schon heute in der Region um den Tschad-See beobachten. Die Fläche des Sees ist seit den 1960er Jahren vor allem aufgrund der Klimakrise um etwa 75% zurückgegangen.

Es stimmt, dass dieser See seit den 1960er Jahren immer kleiner wird. Äußerst fraglich ist jedoch, ob es, wie das Team der GRÜNEN behauptet, „aufgrund der Klimakrise“ geschieht.

Um das zu (er-)klären, und um Wettereinflüsse nicht mit dem Klima zusammen in einen vereinfachten Topf zu werfen, muss man weit mehr als den Zeitraum von ca. 60 Jahren betrachten und natürlich auch die menschlichen Einflussnahmen der jüngsten Zeit.

Dürren im nördlichen Afrika

Bereits zu Anfang des Jahres wurde eine kleine Sichtung zu der Dürre in Ostafrika publiziert:
EIKE 07.01.2017: [10] Drei-Königs Sternsinger Aktion 2017 gegen Klimawandel-Auswirkungen in Kenia: Seit 5000 Jahren besteht dort ein ununterbrochener Trend zum heutigen Klima, doch seit Kurzem ist der Westen daran schuld
Darin ist nicht nur die Klimahistorie gezeigt, welche ausweist, dass Ostafrika seit Jahrtausenden trockener wird und nicht erst seit dem ominösen „Klimawandel“. Auch ist gezeigt, welchen direkten Einfluss die explodierende Einwohnerzahl auf die Wasserressourcen und die Grünland-Übernutzung hat.
Nur: Von einem negativen CO2-Einfluss ist keine Spur zu sehen. Als Treppenwitz kann man vielmehr erfahren, dass die klimatische Austrocknung dort durch eine stetige Abkühlung entsteht, mehr Temperatur also eher dagegen helfen würde.

Der Niederschlag im Sahel nimmt mit dem Klimawandel zu …

Wenn irgendwo etwas über den schlimmen Einfluss des Klimawandels zu schreiben ist, kommt fast unisono der Sahel als Beispiel ins Spiel. Fast kein NGO, der dieses Thema auslässt, wie es auch der BUND-Vorsitzende, Herr Weiger zeigte[15].

Eine wesentliche Ursache ist die extreme Dürre in den 70er Jahren des letzten Jahrhunderts (als die Klimawissenschaft die kommende Eiszeit verkündete). Dass sich diese Dürre inzwischen abbaut und mehr Niederschlag fällt, wird dazu seltenst erwähnt. Wo nähme man ansonsten auch seine Negativbeispiele her.

Auf kaltesonne ist zum Sahel einiges gelistet. Anbei etwas Information daraus.
kaltesonne, 6. Februar 2014: [4] Wer hat Schuld an den Saheldürren?
… Dabei ist seit längerem bekannt, dass die schlimmsten Dürren im Sahel in den 1970er Jahren wüteten und sich die Lage in den darauf folgenden Jahrzehnten wieder weitgehend normalisierte. Interessanterweise gab es in den 1970er Jahren ernstzunehmende Stimmen, die die Saheldürren mit einer bevorstehenden neuen Eiszeit in Verbindung brachten.

Bild 1 Sommer-Niederschlagsverlauf im Sahel seit 1900 [4]
Bild 2 Niederschlagsverlauf im Nordend des Sahel seit 1970 (Teilbild) [12]
kaltesonne 1. März 2016: [7] Der ergrünende Sahel: Neues aus der afrikanischen Dürrekunde
… Immer wieder tappen Teilzeitaktivisten in die Sahelfalle. Sie behaupten gerne, die Sahelzone wäre akut vom Klimawandel bedroht, die Sahara würde sich immer weiter ausbreiten. Intuitiv verständlich, faktisch jedoch absolut falsch. Die Wahrheit: Die Regenmengen haben sich in der Sahelzone nach den schweren Dürren der 1970er und 80er Jahre wieder deutlich gesteigert, die Sahelzone ist grüner geworden.

Auch an anderen Stellen findet sich diese Information:
The Global Warming Policy Foundation, Briefing Paper No 2: [11] THE SAHEL IS GREENING
Global warming has both positive and negative impacts. However, very often only the negative consequences are reported and the positive ones omitted. This article will show an example of a positive effect of warming. The people living in the Sahel, a semiarid area just south of the Sahara desert, spanning the entire African continent from the Atlantic Ocean to the Red Sea, were suffering from several devastating droughts and famines between the late 1960s and the early 1990s.
The draughts were triggered by decreases in rainfall from the early 1950s to the mid-1980s.1 Global warming was supposed to increase the frequency and severity of the droughts, which would make crop-growing unviable and cause even worse famines.2 According to the United Nations, the outlook for the people in the Sahel was bleak.
The Sahel is greening
However in sharp contrast to this gloomy outlook,
it seems that global warming has exactly the opposite effect on the Sahara and the Sahel. The Sahara is actually shrinking, with vegetation arising on land where there was nothing but sand and rocks before.4 The southern border of the Sahara has been retreating since the early 1980s, making farming viable again in what were some of the most arid parts of Africa. There has been a spectacular regeneration of vegetation in northern Burkina Faso, which was devastated by drought and advancing deserts 20 years ago. It is now growing so much greener that families who fld to wetter coastal regions are starting to come back. There are now more trees, more grassland for livestock and a 70% increase in yields of local cereals such sorghum and millet in recent years.
Vegetation has also increased signifiantly in the past 15 years in southern Mauritania, north-western Niger, central Chad, much of Sudan and parts of Eritrea.5 In Burkina Faso and Mali, production of millet rose by 55 percent and 35 percent, respectively, since 1980.6 Satellite photos, taken between 1982 and 2002, revealed the extensive re-greening throughout the Sahel. Aerial photographs and interviews with local people have confimed the increase in vegetation.

Nun noch ein langfristiger Temperaturverlauf aus der Region. Ausgerechtnet zur Zeit der größten Dürre um 1970 war die Temperatur am niedrigsten. Wieder ein gutes Beispiel, dass mehr Wärme in dieser Region (wohl aufgrund von Monsunverlagerungen) den Niederschlag erhöht und nicht Ursache einer Austrocknung ist.

Bild 3 Temperaturverlauf Timbuktu seit 1897. Quelle: Rimfrost Viewer

Der Niederschlag nimmt zu, doch der Tschad-See verliert trotzdem an Wasservolumen.

… die exzessive Wasserentnahmen aus dem Tschad-See verstärken jedoch sein „Austrocknen“

Dafür gibt es mehrere Ursachen. Einmal ist der See in einer langfristigen Klimazyklik gefangen (wie die anderen nordafrikanischen Seeen ebenfalls [10]). Er verändert sein Volumen ständig und teils in extremem Ausmaß.
scinexx.de:
[2] Plötzliche Trockenheit im Paläo-Tschadsee Ehemals größter Süßwassersee der Erde trocknete innerhalb weniger hundert Jahre aus …
Das geschah allerdings vor ca. 5000 Jahren und zeigt, dass die aktuellen, angeblich noch nie dagewesenen „Änderungsgeschwindigkeiten“ sehr wohl von der Natur alleine erzeugt werden können.

Aktuell kommt jedoch etwas dazu, was ganz Afrika „umtreibt“: Das exzessive Bevölkerungswachstum (Bild 5) überschreitet bei Weitem das Leistungsvermögen der natürlichen Ressourcen:
scinexx.de: [2] … Heute droht der See durch die intensive Wassernutzung durch den Menschen zu schrumpfen.
Bild der Wissenschaft: Warum der Tschad-See schrumpft
Dürre und Landwirtschaft graben dem afrikanischen Binnensee das Wasser ab
Zwischen 1983 und 1994 sei der Wasserbedarf der Landwirtschaft jedoch um das Vierfache angestiegen, was 50 Prozent zur weiteren Austrocknung des Sees beigesteuert habe.

Der aktuelle, menschliche Anteil an der „Austrocknung“

Ausgehend von den Daten aus „Bild der Wissenschaft”: Warum der Tschad-See schrumpft, sei der Einfluss abgeschätzt:
Von 1983 – 1994 stieg die Getreideproduktion im Tschad von ca. 0,5 Mio. Tonnen auf ca. 1 Mio. Tonnen (Bild 4), also gerad einmal um 0,5 Mio. Tonnen, allerdings waren das damals +100 %. Die Landwirtschaft soll damals dadurch 50 % Anteil an der Austrocknung, genauer: Reduzierung des Seevolumens, durch Wasserentnahme beigetragen haben.

Von 1994 bis 2015 stieg die Getreideproduktion von ca. 1 Mio. Tonnen auf ca. 3 Mio. Tonnen, also um +2 Mio. Tonnen, oder gegenüber dem Zeitraum davor (Startwert: 0,5 Mio. t) um + 500 %.
Wenn +0,5 Mio. Tonnen schon eine anteilige Volumensreduzierung des Tschad-Sees von 50 % verursacht haben, kann man ahnen, was weitere +2 Mio. Tonnen, beziehungsweise weitere +400 % (von 1 Mio. t gerechnet) für einen Einfluss haben müssen. Da kann das CO2, welches zu mehr Grün und mehr Niederschlag führt (Anm.: Der Verstärkte Niederschlag liegt natürlich nicht am CO2), nicht mehr „gegenhalten“.

Im Tschad wird jedoch nicht nur Getreide angebaut, sondern verstärkt auch die wasserhungrige Baumwolle.
Länder Lexikon: Tschad
Im nördlichen Teil des Landes überwiegt die Viehzucht, wobei Überweidung und das Anlegen immer tiefer reichender Brunnen (Absinken des Grundwasserspiegels) den Prozess der Desertifikation weiter vorantreiben. Der Fischfang im Tschadsee und in den Flussläufen des Landes trägt wesentlich zur Deckung des Eigenbedarfs der Bevölkerung bei. Dennoch müssen Nahrungsmittel zusätzlich importiert werden. Wichtigstes landwirtschaftliches Exportgut des Landes ist Baumwolle, weiter werden Erdnüsse und Vieh ausgeführt.

Im Bild 4 sieht man, wie sich die landwirtschaftliche Produktion erhöht hat (für Baumwolle fanden sich leider keine verlässlichen Daten). Seit der Dürre der 70er Jahre um ca. 500 %! Anhand von Bild 5 sieht man jedoch, dass im Tschad, im Gegensatz zu den meisten Ländern auf der Welt, nur eine minimale Ertragssteigerung gelang.

Bild 4 Tschad, Getreideproduktion gesamt 1961 – 2015. Quelle: FactFish

Bild 5 Tschad, Getreideertrag gesamt 1961 – 2015. Quelle: FactFish

Bild 6 Bevölkerungsexplosion im Tschad. Quelle: FactFish

Der klimatische Anteil an der Austrocknung

Wie schon gelistet, trocknen die nordafrikanischen Seen seit ca. 6.000 Jahren kontinuierlich aus. Der Tschad-See ist dafür sogar das Extrembeispiel, denn er war einstmals vielleicht der größte Süßwassersee der Erde.

scinexx.de: [2] Plötzliche Trockenheit im Paläo-Tschadsee
… Während der fruchtbaren Zeit der Sahara war der Paläosee „Mega-Tschad“ der größte Süßwassersee der Erde. Vor 6.000 Jahren hatte er noch eine Fläche von 360.000 Quadratkilometern – etwas größer als das heutige Kaspische Meer. Heute sind es je nach Jahreszeit etwa 1.000 bis 2.000 Quadratkilometer

Anhand von Grafiken aus einer Studie sei es dargestellt.
Simon J. Armitage at al.: [1] West African monsoon dynamics inferred from abrupt fluctuations of Lake Mega-Chad

Bild 7 [1] Tschad See, maximale Ausdehnung vor ca. 6.000 … 12.000 Jahren (grau) und Einzugsgebiet (gestrichelte Linie)
Bild 8 [1] Aktuelle Fläche des Tschad-Sees (weiß) und maximale Ausdehnung
Bild 9 [1] Tschad See, Verlauf der Seehöhe (A) seit ca. 14.000 Jahren. Anmerkung: Links ist die aktuelle Zeit. Teilbild, vom Autor zusammengesetzt und ergänzt

Damit leider wieder ein Beispiel für bewusste Desinformation und den Unsinn der CO2-Hysterie

Nach dem Betrachten der Fakten aus dem wirklichen – und nicht nur simulierten – Klima und Wetter lässt sich ableiten, dass an der klimatisch bedingten Austrocknung des Tschad Sees der angebliche AGW-Klimawandel überhaupt keinen belegbaren Einfluss hat. Gäbe es ihn allerdings, wäre sein Einfluss positiv, weil er zu (noch) mehr Niederschlag führen würde. Man nimmt an, dass an der Ergrünung des Sahel (wie auch weltweit) der steigende CO2-Gehalt mitwirkt.
Allerding hat der Mensch einen immer größeren Einfluss an der Pegelverringerung durch die steigende Wasserentnahme.

Damit, dass das Autorenteam der GRÜNEN als Begründung schreibt:
GRÜNE Annalena Baerbock 18.08.2017: [3] Die Klimakrise als Konfliktverschärfer
Ein Beispiel dafür können wir schon heute in der Region um den Tschad-See beobachten. Die Fläche des Sees ist seit den 1960er Jahren vor allem aufgrund der Klimakrise um etwa 75% zurückgegangen … ,
belegen sie erneut, dass sie nicht einmal im Team auch nur im Ansatz in der Lage sind, die für eine Studie erforderliche Minimalstrecherche durchzuführen, oder (falls sie es gemacht haben sollten), Ergebnisse daraus neutral zu bewerten. Als Grund darf angenommen werden, dass im Wesentlichen ihre ideologische Verblendung dies verhindert und diese Blockade bei den GRÜNEN auch in einem Team nicht mehr auflösbar ist.

Weiterhin schade ist nur, dass dies niemandem auffällt, sondern die daraus generierten, abstrusen Ergebnisse von den anderen Parteien eher übernommen werden, um ebenfalls GRÜN auszusehen. Dass sie damit auch die der GRÜNEN sich selbst verordnete Unwissenheit mit übernehmen, stört sie nicht, weil auch bei den anderen Parteien an den entscheidenden Stellen Fachwissen fehlt [13] und durch Personen mit ausgewiesener Klimahysterie ersetzt wurde.

Leider sind damit Lösungen für solche Probleme – zumindest seitens Deutschland – unmöglich geworden. Oder glaubt jemand, die Deutschland noch in den Ruin treibende Dekarbonisierung würde den Menschen in solchen Ländern irgenwie helfen?
Eine Vorreiterrolle scheint diese Frau Annalena Baerbock zu spielen. Obwohl die GRÜNEN behaupten, auch Energie wäre ihr Fachgebiet: Mitglied im Ausschuss für Wirtschaft und Energie des deutschen Bundestages, zeigen sich ihre Aussagen dazu genau so falsch und ideologie-getrieben [8].

Der „Erfolg“ solchen Vorgehens sind dann Propagandaclips, welche in der Machart und Falschinformation viel eher an ganz schlimme, als an aufgeklärte Zeiten in Deutschlands Historie erinnern.

Bild 10 Screenshots von einem Klimapropaganda-Videoclip der GRÜNEN

Fazit

Die GRÜNEN sind weder in der Lage, Studien in Auftrag zu geben, noch welche selbst zu erstellen – so lange sie nicht bereit sind, ihr ideologisches Brett vor dem Kopf abzunehmen. Da sie dann jedoch ziemlich überflüssig werden, wird man bis zum Sankt-Nimmerleinstag darauf warten müssen.

Quellen

[1] Simon J. Armitage, Charlie S. Bristow, Nick A. Drake: West African monsoon dynamics inferred from abrupt fluctuations of Lake Mega-Chad

[2] scinexx.de: Plötzliche Trockenheit im Paläo-Tschadsee Ehemals größter Süßwassersee der Erde trocknete innerhalb weniger hundert Jahre aus

[3] GRÜNE Annalena Baerbock 18.08.2017: Die Klimakrise als Konfliktverschärfer

[4] kaltesonne, 6. Februar 2014: Wer hat Schuld an den Saheldürren?

[5] EIKE 21. August 2017: POLITISCHE BILANZ: Nicht „ob“, sondern „wie schnell“
EIKE 20.07.2017: Randalen von Atomfrontkämpfern werden von Frau Hendricks ausdrücklich als „Freunde des Staates und der Gesellschaft“ gelobt
EIKE 13. Juli 2017:
Wie viele Unterschriften zum Klimavertrag wurden mit Geldversprechungen gekauft?
EIKE 27.03.2017: Nee, bei uns gibt´s keine Klimaleugner

[6] EIKE 26.08.2017: Holen sich die GRÜNEN ihre „Kernkompetenz“ zum Klimawandel von der Bundesregierung?

[7] kaltesonne 1. März 2016: Der ergrünende Sahel: Neues aus der afrikanischen Dürrekunde

[8] EIKE: Die GRÜNEN: Es mangelt weder an erneuerbaren Energien noch an der Entwicklung von Speichern und Netzen. Es mangelt an der Bereitschaft, aus der Kohle auszusteigen.

[9] EIKE 28.8.2015: Wenn Politologinnen „Klimastudien“ machen – zur „Klimastudie“ von Bündnis 90/Die Grünen

[10] EIKE 07.01.2017: Drei-Königs Sternsinger Aktion 2017 gegen Klimawandel-Auswirkungen in Kenia: Seit 5000 Jahren besteht dort ein ununterbrochener Trend zum heutigen Klima, doch seit Kurzem ist der Westen daran schuld

[11] The Global Warming Policy Foundation, Briefing Paper No 2: THE SAHEL IS GREENING

[12] The Scientific World Journal 2014, Churchill Okonkwo at al.: Characteristics of Lake Chad Level Variability and Links to ENSO, Precipitation, and River Discharge

[13] EIKE 21. August 2017: POLITISCHE BILANZ: Nicht „ob“, sondern „wie schnell“

[14] EIKE: Die Generalsekretärin der FDP geriet in die Fänge des KLIMA-LÜGEDETEKTORS – anbei ein Rettungsversuch

[15] EIKE 17.01.2015: Klimarückblick 2015




Es gibt einen „starken moralischen Anspruch auf Energie-Überfluss“

Er stand im Fokus der Proteste, sein Name wurde mit Beamern auf das EPA-Gebäude projektiert und es kamen Rufe: „Stoppt den schlimmen Myron Ebell!“

Er lässt sich nicht beirren, schlägt zurück, indem er erklärt, wie die Trump-Regierung die strangulierenden Erlasse der vorherigen Regierung zurück nimmt. Er hebt die Bemühungen des Präsidenten hervor, Energie, Bergbau, Landwirtschaft, Forstwirtschaft und Produktion in Amerika wieder zu stimulieren.

Ebell arbeitete seit Jahrzehnten für das Competitive Enterprise Institute [think-tank] in Washington, DC für Energie- und Umweltfragen. In diesem Video-Interview erzählt er, dass seine Bemühungen oft von einer riesigen, geld-gierigen Umwelt-Lobby beeinflusst werden. Die Top 50 Umwelt-Gruppen, sagt er, haben insgesamt $ 3,5 Milliarden zur Verfügung, im Vergleich zu CEI jährlichen $ 8 Millionen. [Diese Aussage lässt sich auch in den wie üblich einseitigen Beschreibungen des de.Wiki zum CEI erkennen.]

 

Interview Video mit Myron Ebell

Er glaubt fest daran, dass es einen „starken moralischen Anspruch auf Energieüberfluss“ gibt. Konsequenzen [für die betroffenen Menschen]  ergeben sich nur aus dem Austausch von Kohle, Öl und Erdgas durch Wind, Solar oder alternativen Kraftstoffen.

„Wenn 1 Milliarde Menschen in der Welt keinen Zugang zur Elektrizität haben und eine andere Milliarde nur sehr eingeschränkte Elektrizität haben, sollten Klimawandel-Aktivisten auf ihre Moral in dieser wichtigen Frage herausgefordert werden. Betrachten Sie die moralischen Konsequenzen, wenn Sie arme Menschen in ewiger Energiearmut halten wollen. Zu viele nehmen das, was die Amerikaner [bisher] nutzen können, als selbstverständlich hin“, erklärt er.

Er bezeichnet den ehemaligen Vizepräsidenten Al Gore als jemanden, der sich wie ein Messias gebärdet und eine Autorität sein will, während er viel Geld mit seinem „pathetischen shtick“ [Wordspiel: .~ shit] “ macht.

„Die Zeit ist über ihn hinweg gegangen“, sagt Ebell.

Ebell sagt, hätte Trump die USA nicht aus dem Pariser Klimavertrag herausgezogen, hätten wir die Treibhausgase bis zum Jahr 2025 um 26-28 Prozent unter dem Niveau von 2005 reduzieren müssen. Dies würde wesentlich teurere Energie und weniger Arbeitsplätze bedeuten.

Wie bereits in seinen Empfehlungen für Trump geäußert, hofft er, dass der Präsident seine Deregulierungsanstrengungen beibehalten und die Probleme beheben wird, die durch das langsame Tempo der Parlamentarier bei der Bestätigung von vorgeschlagenen Nominierten entstehen.

Erschienen auf The Daily Caller am

Übersetzt durch Andreas Demmig

http://dailycaller.com/2017/09/02/theres-a-strong-moral-case-for-energy-abundance-heres-why-video/




Wie man Klima-Skepti­zismus zu offi­zieller [US-]Bundes­politik macht

Zwar ist es sicher eine Möglichkeit, den Bericht zu blockieren, jedoch ist es weitaus besser, wenn die Regierungsamtlichen den CSSR heranziehen für einen Praxistest des Red Teams. Der alarmistische CSSR kann nicht zurück in die politische Flasche gestopft werden. Aber er wäre das perfekte Objekt für Kritik, und zwar genau wegen seiner radikal alarmistischen Natur. Am Wichtigsten wäre es aber, dass diese Kritik amtlich wäre, was Klima-Skeptizismus amtlich macht.

In Wirklichkeit verleiht der CSSR einem „sehr hohen Vertrauen“ Ausdruck in Behauptungen, die tatsächlich hoch kontrovers sind. Falls die Arbeit des Red Teams erfolgreich ist und diese Statements „hohen Vertrauens“ korrigiert, wird die Debatte um den realen Klimawandel voll und ganz in den Politik-Mix der [US-]Bundesregierung Eingang finden, wo sie mit Sicherheit auch hingehört.

Der CSSR stellt seine alarmistischen Schlussfolgerungen gleich an den Anfang in der Executive Summary, welche alles ist, was die meisten Menschen lesen. Die Leitautorin Katharine Hayhoe fasst diesen Alarmismus hübsch zusammen:

Er ist real!

Wir sind es!

Es ist ernst!

Und das Zeitfenster zur Verhinderung gefährlicher Auswirkungen schließt sich schnell!“

Ein gutes Red Team könnte es leicht amtlich machen, dass diese Behauptungen im besten Fall spekulativ sind. Dass es während der letzten 100 Jahre eine gewisse Erwärmung gegeben hat, ist möglich, aber Satellitenmessungen der letzten 40 Jahre haben gezeigt, dass diese gering war. Dass diese Erwärmung in irgendeiner Form menschlichen Aktivitäten geschuldet ist und wie stark, wenn überhaupt, ist höchst kontrovers. Dass es ernst ist, wird weit verbreitet angezweifelt, und es gibt keinen Grund irgendeiner Art zu glauben, dass sich irgendein präventives Fenster schließt oder dass es überhaupt etwas gibt, das verhindert werden muss. Dieses Fenster-Gerede ist wiederkehrende politische Rhetorik und keine Wissenschaft.

Die Vertrauensniveaus im CSSR mit hohem und sehr hohem Vertrauen sind lediglich die bloßen Angaben der Verzerrungen (biases) der Autoren. Angesichts der Tatsache, dass diese Leute eindeutig Alarmisten sind, sind diese Angaben wissenschaftlich irrelevant. Es wäre viel genauer, wenn man „sehr hohes Vertrauen“ ersetzen würde durch „wir glauben das wirklich“ und „hohes Vertrauen“ durch „wir glauben das“. Dann wäre klargestellt, dass es sich hier um nichts weiter als ein paar Aussagen über alarmistischen Meinungen sind seitens einer Handvoll sorgfältig ausgewählter Personen.

Ein Red Team sollte keine Schwierigkeiten haben darauf hinzuweisen, dass diese Statements bzgl. hohen Vertrauens in Wirklichkeit hoch kontrovers sind. Einen solchen Widerspruch amtlich zu machen würde auf einem langen Weg dazu führen, die Politik auf das richtige Gleis zu bringen. Gleis bedeutet, dass die wissenschaftliche Debatte sehr real und weit davon entfernt ist, vorüber zu sein. Im Besonderen sind drakonische Maßnahmen wie hohe Kohlenstoff-Steuern und erzwungene Änderungen des Lebensstils einfach nicht gerechtfertigt.

Das Red Team muss nicht einmal etwas Neues sagen. Tatsächlich gibt es viele herausragende Beispiele, auf welche das Red Team hinweisen könnte, wie z. B. das Video „Climate Hustle” von CFACT. Es geht ganz einfach darum, es skeptischen Wissenschaftlern zu ermöglichen, klar die Fehler im CSSR zu benennen, und es gibt sehr viele Personen, die genau das tun können. Natürlich wird der Bericht des Red Teams ziemlich fachlich ausfallen, während sogar Kinder Climate Hustle verstehen können. Die Methode ist aber die gleiche.

Der entscheidende Unterschied zwischen Climate Hustle und einem Red-Team-Report ist, dass dieser Report amtlich wäre. Gegenwärtig gibt es kein einziges amtliches wissenschaftliches Statement bzgl. Skeptizismus hinsichtlich es Klimawandels. Das ist eine riesige Lücke , die gut gefüllt werden muss. Im Gegensatz dazu gibt es eine ganze Reihe amtlicher Berichte, welche dem Alarmismus huldigen, vor allem die National Climate Assessments aus der Obama-Ära. Der CSSR ist lediglich der jüngste dieser amtlichen alarmistischen Reports, geschrieben von Obama-Gefolgsleuten.

Eine amtliche Kritik des Red Teams des CSSR wird dieser schlagseitigen Lage einen guten Schuss Ausgeglichenheit zufügen. Es wird etwas sein, auf das Politiker verweisen und auf dieser Grundlage auch Entscheidungen treffen können.

Es besteht keine Notwendigkeit, neues wissenschaftliches Territorium zu betreten. Es geht lediglich darum, eindeutig auszusprechen, was bereits bekannt ist. Skeptizismus ist ordentliche Wissenschaft.

Link: http://www.cfact.org/2017/08/31/how-to-make-climate-skepticism-official-federal-policy/

Übersetzt von Chris Frey EIKE