1

AfD fordert Schluss mit Klimaschutz und Schluss mit der Energiewende – Medien schweigen

Nach langer, intensiver Vorbereitung traten die Spitzenkandidaten der AfD Frau Dr. Alice Weidel und Herr Dr. Alexander Gauland am 4.9.17 im Haus der Bundespressekonferenz zu den Themen Energie und Klima vor die Presse. Unterstützt wurden sie von Herrn Burkard Reimer Dipl. Ing. und Dipl. Chemiker und mir, ebenfalls Dipl. Ing.

Video nicht mehr verfügbar

Video der AfD Pressekonferenz zu Klima & Energiethemen am 4.9.17 in Berlin

 Der Saal war brechend voll- Viele Kamerateams sind da, dazu ein Dutzend Fotografen und mehrere Dutzend Presseleute.“, berichtet Frau Verena Kern, freie Journalistin bei Klimaretter.info, wie es scheint ein wenig neidisch . Da sie nach eigener Auskunft Philosophie und Kommunikationswissenschaften studiert hat und sogar Fachbücher lektoriert, ist auf ihr Urteil sicher Verlass. Und zumindest das stimmt auch. Der Saal war sehr voll.

Zunächst trug Frau Weidel klar und pointiert den Standpunkt der AfD zu den Themen Auto & Diesel vor. Umfassend begründet forderte sie dann:

  • Die Festlegung vernünftiger Grenzwerte für Stickoxide und Feinstaub,
  • Bis dahin ein mindestens 10 jähriges Moratorium – also Aussetzung der überzogenen EU- Grenzwerte – durch den Gesetzgeber.
  • Eine Bestandsgarantie bis mindestens 2050 für alle Verbrennungsmotoren
  • Elektromobilität darf sich nur auf marktwirtschaftlicher Basis und unter Beachtung der Umweltfolgen entwickeln
  • Damit unsere bitter benötigte stabile Stromversorgung auch in Zukunft gewährleistet bleibt, muss die Laufzeit unserer als sicherste der Welt geltenden Kernkraftwerke allein nach deren technischer Nutzungsdauer richten.

Anschließend trug Herr Gauland sein Statement vor. Auch in diesem begründete er umfassend und klar die daraus abgeleiteten Forderungen der AfD (14:08). Sie lauten:

  • Schluss mit der Energiewende, und allen ihren Ausformungen, Abschaffung des EEG, der EnEV und der dazu gehörenden Gesetze und Verordnungen
  • Die staatliche Planwirtschaft ist zu beenden. Alle Formen der Energieerzeugung sind in die Marktwirtschaft zu entlassen und sollen sich im fairen Wettbewerb stellen.
  • Die AfD wird wissenschaftliche Gutachten, die dem EEG Verfassungswidrigkeit und ein Verstoß gegen europäische Rechtsnormen bescheinigen ggf. vom Bundesverfassungsgericht prüfen lassen (zwar nicht von Gauland gesagt, aber im Handout geschrieben)

Nach diesen, das Weidel Statement ergänzenden Feststellungen und Forderungen, trug Gauland die Haltung der AfD zum Klimawandel vor. Wieder umfassend begründet, schloss er auch hier mit den daraus abgeleiteten Forderungen:

  • Zurück zur wissenschaftlich begründeten Vernunft in der deutschen und internationalen Klimapolitik
  • Austritt aus dem Pariser Klimaabkommen, Schluss mit dem Klimaschutzplan 2050 und der Dekarbonisierung
  • Schluss mit dem sog. Klimaschutz

Dazu gehört:

  • Ausstieg aus allen diesbezüglichen internationalen wie nationalen Verträgen, Kommissionen und Verpflichtungen.
  • Einstellung aller „Klimaschutzmaßnahmen“ in der öffentlichen Verwaltung samt aller Budgets und Posten
  • Die Mittel die derzeit zum Klimaschutz aufgewendet werden müssen umgeschichtet werden, zur Finanzierung von Maßnahmen zur Anpassung an zukünftige Umweltschäden durch Wetterextreme
    • Dagegen Konzentration von Wissenschaft und Administration auf Verbesserung der Infrastruktur – auch um bspw. Starkniederschläge zu bewältigen, oder die Folgen anderer Wetterextreme zu beherrschen. Denn nicht die Wetterextreme haben zugenommen, wohl aber der lokale Wohlstand und entsprechend die Besiedlungsdichte in diesem Land. (zwar nicht von Gauland gesagt, aber im Handout geschrieben)

Mein Fazit:

Entweder waren die anwesenden Journalisten in der Mehrzahl dermaßen überrascht, dass sie weitgehend sprachlos blieben oder sie waren vom Mittagessen, es war schließlich schon fast 14:00 Uhr, noch so sediert, dass sie eigentlich nur einen Platz zum Ausruhen gesucht und gefunden haben.

Denn die Zahl der Fragesteller blieb gering, etwa die Hälfte der wenigen Fragen bezogen sich auf Klatsch & Tratsch, bzw. Sachverhalte, die mit den Themen nichts zu tun hatten. Die Fragen zu den eigentlichen Themen blieben spärlich.

Gering blieb auch die mediale Resonanz. Weltredakteur Mathias Kamman, sonst nie um ein tägliches AfD Bashing verlegen, wunderte sich zwar, dass seine Zeitung nach seinem Verständnis des Handouts, dass jeder Teilnehmer bekommen hatte, nicht mehr zu den Leitmedien gehören sollten und ließ sich auch von meinen Erläuterungen nur wenig trösten, denn einen Artikel über diese Pressekonferenz verkniff er sich.

Lediglich im Berliner Tagesspiegel und in der FAZ Online Version wurde berichtet.

Und, ach ja, der lokale ARD Sender rbb berichtete kurz in seinen Rundfunk-Nachrichtensendungen, genauer im Inforadio, über diese Pressekonferenz.

Einlullen, verschweigen, ausgrenzen durch Nichtbeachtung wurde auch hier wieder als Verteidigungsstrategie angewandt. Ob sie etwas nützt wird der 24.9.17 ab 18:00 Uhr zeigen.

Ich war jedenfalls mit dem nun auch öffentlichen Ansatz der AfD sehr zufrieden! Sitzt sie erstmal mit genügend großer Zahl von Abgeordneten im Deutschen Bundestag, wird sie – wie bisher auch, aber auf größerer Bühne- die anderen Parteien vor sich hertreiben, wenn die nicht gleich die Forderungen der AfD übernehmen. Aus reiner Selbsterhaltung. Wie jetzt auch schon!

 

 

 

 

 

 




ARD amtlich festgestellt: Der Büroschlaf ist doch der gesündere – Sonja Mikisch „überführt“ Alice Weidel (AfD) der Fake News!

Der 4. September wird vielleicht doch noch in die Geschichte eingehen. Es war der Tag, an dem die AfD auf einer als historisch anzusehenden, aber medial fast völlig übergangenen Pressekonferenz, den zahlreich versammelten Medienvertretern, die entsetzliche Wahrheit mitteilen musste, das die Klimakaiserin Merkel keine Kleider an hat. Diese nahmen es ungerührt und ziemlich desinteressiert zur Kenntnis. Vergleichbar den Höflingen, die dem nackten armen Kaisern immer wieder versichert hatten, wie gut ihn doch seine nichtvorhandenen Kleider zu Gesicht stünden.

Video nicht mehr verfügbar

 

Und es war der Tag an dem endlich, endlich, eine dieser oft veräppelten, weil oft völlig zu Unrecht verdächtigten, als Fake News VerbreiterInnen, beschimpften MedienvertreterInnen, die vielfache Ex (Ex-Marxistin[1], Ex-Redakteurin, Ex-Doppelnachnamenträgerin) Frau Sonja Mikisch der aalglatten AfD Frontfrau Alice Weidel, die schöne – oder war es schnöde- Maske vom Gesicht reißen konnte. Denn diese, so verkündete sie triumphierend verbreite, Falsches! (ab Minute 14:25).

 

Wobei hatte sie denn Frontfrau Weidel erwischt?

Es ging mal wieder um den, die bodenlose Schlechtigkeit der Autoindustrie, belegenden Dieselskandal. Bodenlos schlecht, ja böse, weil, wie WDR Kollege Jürgen Döschner im Netz behaupten durfte, die ja pro Jahr 10.000 Menschen vergase! Und dann noch nicht einmal die Umrüstung dieser Vergaser-Maschinen (eigentlich kennt ein Diesel doch keinen Vergaser, ha, ha) selber bezahlen wolle.

Darum ging es.

Und da behauptet doch diese aalglatte AfD Frau , vor Millionen ahnungslosen Zuschauern, dass in Büroinnenräumen wesentlich höhere Grenzwerte als draußen gelten würden, nämlich 950 µg/m3, gegenüber den als so gefährlich eingestuften 40 µg/m3, die dort ohne Gesundheitsgefahr zugelassen seien.

Doch nicht mit Sonja Mikisch

„…in Industriearbeitsplätzen! Büroinnenräume; Privaträume haben die gleiche Grenzwertbemessung wie auch die Luft draußen! Falsch!“

donnert sie, sichtlich erregt und auch begeistert, diese impertinente Lüge sofort vor der Kamera richtig stellen zu können, der Weidel ins erschrockene Gesicht.

Nun, man sollte beiden Damen zugestehen, dass die tägliche Beschäftigung mit NOx oder auch Feinstaubwerten, nicht unbedingt zur Aufgabe ihrer jeweiligen Jobbeschreibungen gehört. Doch wenn man jemand der Unwahrheit, gar der bewussten Lüge, überführen möchte, dann sollte man doch sicher sein, dass die Korrektur nicht einer Korrektur bedürfe. Sonst geht der Schuss nach hinten los! Wie auch hier.

Vermutlich hat Frau Mikisch beim Umweltbundesamt nachgelesen, dass schon immer nur das Beste für Umwelt und seine (es bezahlenden) menschlichen Bewohner im Sinne hat. Und zur Grenzwertfrage tiefsinnige, man möchte sagen, spitzfindige, Betrachtungen anstellt.

Es betreibt sogar zu dieser, die deutsche Menschheit tief bewegenden, Frage ein eigene Website. (hier). Dort finden wir die klare Aussage:

„Arbeitsplatzgrenzwerte gelten nur für Arbeitende an Industriearbeitsplätzen und im Handwerk, bei denen aufgrund der Verwendung oder Erzeugung bestimmter Arbeitsstoffe eine erhöhte Stickstoffdioxid-Belastung zu erwarten ist.“

Im weiteren Text finden wir auch die Quelle, aus der man entnehmen könnte, das UBA seine Behauptung ableitet. Nämlich die Arbeitsplatzgrenzwert (AGW) der Gefahrstoffverordnung (GefStoffV). Doch in dieser Quelle ist immer nur ganz allgemein von „Arbeitsplätzen“ die Rede.

Beim Weitersuchen findet man dann beim UBA auch noch die Information:

Für Büroarbeitsplätze sowie Privaträume finden MAK-Werte keine Anwendung. Hier gelten vielmehr die Richtwerte des Ausschuss für Innenraumrichtwerte (AIR), vormals Ad-hoc-Arbeitsgruppe der Innenraumlufthygienekommission (IRK) und der Arbeitsgemeinschaft der Obersten Landesgesundheitsbehörden (AOLG)). Die Innenraumlufthygienekommission leitete in den 1990er Jahren einen sog. „Richtwert II“ für Stickstoffdioxid in der Innenraumluft von 60 µg/m³ (Wochenmittelwert) ab. Der Richtwert II (RW II) ist ein wirkungsbezogener Wert, bei dessen Erreichen beziehungsweise Überschreiten unverzüglich zu handeln ist.

Aha! Wenn 60 µg/m³, als Wochenmittelwert wohlgemerkt, nicht 40 µg/m³ an max. 10 Tagen im Jahr,  überschritten werden, müsse unverzüglich gehandelt werden. Und dieser Wert sei in den Richtwerten I und II   der Innenraumlufthygienekommission (welch schöner deutscher Name) festgelegt. Dumm nur, dass in den dort genannten aktuellen Tabellen für beide Richtwerte die bösen Stickoxide überhaupt nicht vorkommen. Nirgends!

Also kann es sich wohl nur um Wunschdenken, man kann auch vermuten „Gefälligkeitsdenken“ des UBA handeln. Denn es sorgt sich besonders um empfindliche Personen. Das UBA stellt nämlich fest :

„ Ein Arbeitsplatzgrenzwert ist ein Wert für die zeitlich begrenzte Belastung gesunder Arbeitender, während durch NO2 in der Außenluft auch empfindliche Personen rund um die Uhr betroffen sein können.“

Empfindliche Personen, wie dem siebenjährigen Sohn des Mitdiskutanten, dem Spitzenkandidaten der Grünen, Cem Özdemir, der trotz seiner 7 Jahre gerade mal Auspuffhöhe erreicht. Wenn der mit seinem Papa spazieren geht, falls der so oft zuhause ist, und öfter als 10 x im Jahr von der Wucht des 40 µg/m³ Grenzwertes befallen wird, dann müssen wir, schon aus Mitleid mit dem zwergwüchsigen kleinen Kerl, die Grenzwerte EU-weit einhalten.. Das gebietet schon das Herz. Der kann ja nichts dafür, das er so klein ist. Das ist gelebte Solidariät!

Doch zurück zur herzlosen Streitfrage; wir halten abschließend fest:

  • Frau Mikisch behauptet im Einklang mit dem Umweltbundesamt, bekannt u. A. dafür Klimaskeptikern den Mund zu verbieten (z.B. hier und hier) dass der MAK- oder inzwischen Arbeitsplatzgrenzwert, nicht für Büroräume gelte. Falsch! Die angeführten Belege des UBA führen ins Leere.
  • Frau Mikisch behauptet, dass … „… Büroinnenräume; Privaträume haben die gleiche Grenzwertbemessung wie auch die Luft draußen!“ Falsch, denn der vom UBA behauptete Grenzwert wird mit 60 µg/m³ angegeben, nicht mit 40 µg/m³.
  • Das UBA behauptet dass für „..Für Büroarbeitsplätze sowie Privaträume finden MAK-Werte keine Anwendung. Hier gelten vielmehr die Richtwerte des Ausschuss für Innenraumrichtwerte (AIR), vormals Ad-hoc-Arbeitsgruppe der Innenraumlufthygienekommission (IRK) und der Arbeitsgemeinschaft der Obersten Landesgesundheitsbehörden (AOLG)). Falsch, denn in den angeführten Definitionen der MAK Werte (hier der Einfachheit weiter so genannt) wird diese Einschränkung nicht gemacht. Dort ist unisono nur von Arbeitsplätzen die Rede
  • Das UBA behauptet dass dieser geringere Nox Grenzwert in den Tabellen der Richtwerte I und II der Innenraumlufthygienekommission festgelegt sei. Falsch! In den aktuellen Tabellen kommt Nox überhaupt nicht vor.

Dumm gelaufen Frau Mikisch und Satz und Sieg für Frau Alice Weidel.

Wie sagt der Volksmund so treffend:

Wer im Glashaus sitzt, sollte nicht mit Steinen werfen!

Besonders nicht im Google-Zeitalter möchte man hinzufügen!

Aber eine Erkenntnis stimmt wohl doch; wenn wirklich geringere Grenzwerte in Büro-Innen-räumen gelten als in rauen Industriearbeitsplätzen, dann ist der Büroschlaf doch gesünder als ein Nickerchen auf Schicht in hohen Grenzwertbereichen draußen. Selber schuld, kann man da den Industriearbeitern nur zurufen. Falls ihr mal zu den „empfindlichen“ Personen gehören solltet, empfiehlt sich schnell ein Wechsel ins Büro!

 

 

 

[1] Lt. Alexander Wallasch bei Tichys Einblick hier




Nehmen Überschwemmungen in den letzten Jahrzehnten zu?

„Überschwemmungen-Statistiken“ gibt es seit längerem. Im Jahre 2003 berichteten die deutschem Autoren Mudelsee, Börngen, Tetzlaff und Grünewald [1] im Abstract ihres Artikels (in Auszügen ins Deutsche übertragen)

Beobachtungen über die letzten Dekaden zeigen keinen Anstieg von Überflutungsereignissen….Wir präsentieren hier längerfristige Zeitreihen von Winter- und Sommerüberschwemmungen der Elbe und Oder…. Für die vergangenen 80 bis 150 Jahre finden wir eine Abnahme der Winterüberschwemmungen, Sommerüberschwemmungen zeigen keinen Trend„.

Im Jahre 2013 meldete sich dann auch das IPCC mit einer größeren Studie [2]. Hier heißt es auszugsweise in Kapitel 2.6.2.2 (Floods), wobei wegen der so schön geschraubten Ausdrucksweise des IPCC der englische Originaltext beibehalten wird

AR4 WGI Chapter 3 (Trenberth et al., 2007) did not assess changes in floods but AR4 WGII concluded that there was not a general global trend in the incidence of floods (Kundzewicz et al., 2007). SREX went further to suggest that there was low agreement and thus low confi­dence at the global scale regarding changes in the magnitude or fre­quency of floods or even the sign of changes.…. so that there is currently no clear and widespread evidence for observed changes in flooding except for the earlier spring flow in snow-dominated regions„.

An dieser Situation hat sich bis heute nichts geändert, wie es die jüngst Mitte Juli 2017 erschienene Publikation von Glenn A. Hodgkins et al. [3] belegt. Insgesamt 12 Autoren aus USA, Kanada, England, Frankreich, Deutschland, Norwegen, Dänemark, Spanien, Finnland und Irland verwenden in dieser Studie als sehr umfangreiche Basis mehr als 1200 Datensätze aus Nord-Amerika und Europa. Als Berechnungsmethoden kommen statistische Verfahren des heutigen Stands zur Anwendung. Die Hauptaussage der Veröffentlichung lautet in Auszügen

Anzeichen für signifikante Trends in Gruppen, aufgeteilt nach Größe, Ort, Klima, Überflutungshöhe und zeitliche Periode von Ereignissen sind nicht aufzufinden. Die Anzahl singnifikanter Trends in großen Überschwemmungsereignissen entspricht  dem, was man aus reinem Zufall erwarten muss …. Es wurden dreimal mehr signifikante Abhängigkeiten zwischen großen Überflutungsereignissen und der Atlantischen Multidekadalen Oszillation (hier) gefunden als signifikante Langzeit-Trends.

Im Klartext: Die Aussagen von Mudelsse et al. und später des IPCC wurden an Hand von wesentlich mehr Daten erneut bestätigt. Überflutungen haben längerfristig nicht zugenommen – weder lokal noch global. Diese Aussage ist auch deswegen interessant, weil man infolge der zunehmenden Verbauungen von Flüssen zumindest einen leichten Aufwärtstrend hätte erwarten können.

[1] M. Mudelsee et al., No upward trends in the occurrence of extreme floods in central Europe, Nature 425, 166-169 (2003)

[2] Hartmann, D.L., A.M.G. Klein Tank, M. Rusticucci, L.V. Alexander, S. Brönnimann, Y. Charabi, F.J. Dentener, E.J. Dlugokencky, D.R. Easterling, A. Kaplan, B.J. Soden, P.W. Thorne, M. Wild and P.M. Zhai, 2013: Observations: Atmosphere and Surface. In: Climate Change 2013: The Physical Science Basis. Contribution of Working Group I to the Fifth Assessment Report of the Intergovernmental Panel on Climate Change [Stocker, T.F., D. Qin, G.-K. Plattner, M. Tignor, S.K. Allen, J. Boschung, A. Nauels, Y. Xia, V. Bex and P.M. Midgley (eds.)]. Cambridge University Press, Cambridge, United Kingdom and New York, NY, USA. Das betreffende Kapitel kann aus dem Internet abgegriffen werden, dazu WG1AR5_Chapter02_FINAL.pdf „googeln“.

[3] Glenn A. Hodgkins, Paul H. Whitfield, Donald H. Burn, Jamie Hannaford, Benjamin Renard, Kerstin Stahl, Anne K. Fleig, Henrik Madsen, Luis Mediero, Johanna Korhonen, Conor Murphy, Donna Wilson, Climate-driven variability in the occurrence of major floods across North America and Europe, Journal of Hydrology, 552, S. 704-717 (2017). Die Arbeit kann als pdf aus dem Netz heruntergeladen werden, dazu in Google Scholar die Nachnamen der Autoren (6 bis  7 Namen reichen) und den Titel der Arbeit (alles mit Kommas getrennt eingeben).

 




Kanzleramt an Strompreis: Nicht steigen. Befehl von oben!

Im Jahre 2009 sagte der damalige Umweltminister Röttgen (CDU): Es ist falsch, erneuerbare Energien für Strompreiserhöhungen verantwortlich zu machen. Er prognostizierte: „Richtig ist, dass der Förderanteil der erneuerbaren Energien am Strompreis äußerst gering ist. Für einen vierköpfigen Haushalt macht das im nächsten Jahr 5,95 Euro an der Stromrechnung aus“. Ein Jahr später schon verteidigte derselbe Herr Röttgen die Strompreiserhöhung um 70 Euro pro Jahr und Familie durch den Solarboom als „alternativlos“ und wichtig zur Schaffung von 340.000 Arbeitsplätzen in der Solarindustrie. Die entstanden vielleicht auch – aber leider im fernen China.

Im Juni 2011 sagt Angela Merkel (CDU) in ihrer Regierungserklärung einen Satz, der ihr vorsichtshalber von den grünaffinen Medien lieber nicht vorgehalten wird: „Die EEG-Umlage soll nicht über ihre heutige Größenordnung hinaus steigen; heute liegt sie bei etwa 3,5 Cent pro Kilowattstunde.“ Leider führ der obige Link nirgendwohin, weil auf der Webseite der Bundesregierung der entsprechende Artikel gelöscht wurde. Wer mag schon gerne an gebrochene Versprechen erinnert werden.

Im Jahre 2012 forderte Bundesumweltminister Altmaier(CDU) niedrigere Strompreise für die Verbraucher. Und seine Chefin tönte: „Die Bundesrepublik sollte international ein nachahmenswertes Beispiel liefern. Dazu gehöre, dass der Ausbau erneuerbarer Energien für Bürger und Unternehmen bezahlbar bleibt. Wir müssen es effizient und vernünftig machen“ Damals betrug die EEG-Umlage 5,27 Cent/KWh. Und Herrn Altmaiers damalige grandiose Idee: „die Bürger sollten dem Strompreis ein Schnippchen schlagen“ – nämlich einfach weniger verbrauchen. Dazu sollten sie eine Beratung bekommen. Auch das hat nicht so richtig geklappt.

Im Jahre 2013 war Wahlkampf und Herr Altmaier war immer noch Bundesumweltminister und somit immer noch zuständig für den Strompreis.  „Strompreis-Sicherung“ hieß das Konzept, mit dem er die Kosten der Energiewende für die Verbraucher begrenzen wollte. Sein Eckpunktepapier soll dafür sorgen, dass die sogenannte EEG-Umlage bis Ende 2014 nicht mehr steigt – und ihr Anstieg ab 2015 auf 2,5 Prozent pro Jahr begrenzt wird. Bekanntlich hat das auch nicht so ganz funktioniert.

In einem Zeit-Artikel aus dem Jahre 2014 prophezeite der Berliner Thinktank Agora Energiewende, über die damalige Umlage von 6,24Cent/KWh „dass die Ökostromumlage bis 2017 relativ konstant bleibe. Und Zeit Online legte euphorisch begeistert noch einen drauf und prophezeite gar ein Sinken der Strompreise durch ein Absinken der Umlage auf 5,8 Cent/KWh. Die AGORAS lassen sich beim Jubelprophezeien aber nicht weiter von ihren gestrigen Fehlleinschätzungen beeindrucken und prophezeien heute unverdrossen: „Bei einem weiterhin ehrgeizigen Erneuerbaren-Ausbau steigen die Stromkosten für die Verbraucher bis 2023 noch um 1-2 ct/kWh an, sinken dann aber kontinuierlich um 2-4 ct/kWh bis 2035“. Doch wie das so ist mit den Prognosen, sie sind schwierig, besonders wenn sie die Zukunft betreffen. Und das ist wieder nach der Wahl, sogar nach der übernächsten.

Altmaier und das Blaue vom Himmel

Heute, im Jahre 2017 ist wieder mal Wahlkampf. Und folgerichtig kommt der Herr Altmaier wieder daher und verspricht das Blaue vom Himmel herunter: „EEG-Umlage darf nicht weiter steigen“. Darf nicht! Befehl vom Kanzleramt, Punktum, jawoll! Die Politik müsse dafür sorgen, „dass der Strompreis auch künftig nicht durch die Decke schießt.“ Der Herr Altmaier ist selbst vergesslich oder rechnet mit der Vergesslichkeit seiner Wähler. Wie das Nichtweitersteigen des Strompreises geschehen könne, werde „nach der Wahl Thema der Koalitionsverhandlungen“ sein. Altmaier ließ offen, welche anderen Finanzierungsquellen als die Umlage auf den Stromverbrauch nach dem Erneuerbare-Energien-Gesetz er für möglich hält. Aha, nach der Wahl also? Will er die Verbraucher entlasten und dafür die Steuerzahler zur Kasse bitten? Heute liegt die EEG Umlage bei 6,88 Cent/KWh. Selbst die Erneuerbare Energie-Lobby-Organisation Agora rechnet mit steigender Umlage bis 2023 und keiner weiß, um wieviel.

Altmaiers Strompreis, der „auch künftig“ nicht durch die Decke schießen soll, ist ein rhetorischer Trick. Er will verschleiern, dass der Strompreis längst durch die Decke geschossen ist. Im Nachbarland Frankreich bezahlen die Verbraucher die Hälfte. Deutschland hat den zweithöchsten Strompreis Europas, das drittgrößte Parlament der Welt und gute Chancen auch Weltmeister bei den Strompreisen zu werden. Die Energiewende kostet jede Familie bis 2025 den Preis eines Mittelklassewagens. Altmaier hat es selbst prognostiziert – bis 2050 löhnen die Bürger 1000 Milliarden Euro, eine Billion. Strompreise lassen sich aber nur bremsen, wenn Altmaier & Co aufhören, Energie wenden zu wollen. 330.000 Haushalten wurde der Strom abgeschaltet, weil sie ihn nicht mehr bezahlen können.

Altmaier, hat 2013 geschrieben: „Hinter der Energiewende verbirgt sich nichts weniger als die größte wirtschaftspolitische Herausforderung seit dem Wiederaufbau und die größte umweltpolitische Herausforderung überhaupt“. Seine Chefin Angela Merkel, sagte im November 2015 hingegen: „Die Flüchtlingskrise ist die größte Herausforderung nach der deutschen Einheit„. Der Finanzminister Schäuble sah wiederum schon 2011 in der Rettung Europas aus der Schuldenkrise „eine historische Herausforderung“. Nun, alle drei Herausforderungen sind ungelöst und kosten das hart erarbeitete Geld der Bürger, während es im Land an vielem fehlt.

Alle drei  sind in derselben Partei. Vielleicht können sie sich innerhalb der CDU wenigstens darauf einigen, welcher der drei Weltrettungsvorhaben sich die Steuerzahler vorrangig stellen müssen? Bis dahin heißt es für die Bürger:  Die Hälfte des Nationaleinkommens wird in hausgemachte „historische Herausforderungen“ investiert, von denen sie nicht das geringste haben. Ich bin gespannt, wie sich das am 24.September auswirkt.

Manfred Haferburg ist Autor des Romans „Wohn-Haftmit einem Vorwort von Wolf Biermann

Übernommen von ACHGUT hier




Wissenschaftler weisen Daten­manipu­lationen nach: die Mythen ,Hide The Decline‘ und ,Hockey­schläger‘

Sie und ihre Kollegen sind sich bewusst, dass sich die Proxy-Beweise von der Nordhemisphäre nach den vierziger Jahren aus Baumringen, Bohrkernen, Pollen usw. permanent weigern, einen scharfen Temperaturanstieg seit Ende des 20. Jahrhunderts zu stützen.

Tatsächlich weist Dr. Marohasy darauf hin, dass das Fehlen steigender Temperaturen während der letzten Jahrzehnte so allgemein in den paläoklimatischen Rekonstruktionen präsent ist, dass tendenziöse Wissenschaftler notwendigerweise stark adjustierte instrumentelle Aufzeichnungen nach Art eines Hockeyschlägers (z. B. von der NASA GISS oder HadCRUT) dem Ende des Trends hinzufügen mussten, um es wie eine vermeintliche gefährliche Erwärmung aussehen zu lassen.

Das Fehlen einer Erwärmung in letzter Zeit in den Proxy-Belegen wird auf irgendwie hinterhältige Weise als das „Divergenz-Problem“ bezeichnet, und der „Trick“, instrumentelle Aufzeichnungen hinzuzufügen, wird verwendet, um den „Rückgang zu verstecken“.

———————————————-

Dr. Jennifer Marohasy im The Spectator  (Australien):

Ignoriert man mal die Mittelalterliche Warmzeit MWP und die Kleine Eiszeit LIA, könnte man sich einfach wünschen, die Temperaturreihe auf der Grundlage, wie sie im Jahre 1980 ihren Spitzenwert erreicht, einfach zu verwerfen: Die Reihe steigt nicht weiter bis zum unmittelbaren Ende der Aufzeichnung: Dem Jahr 2000.

Tatsächlich ist dieser Rückgang typisch für die meisten derartigen Proxy-Rekonstruktionen – abgeleitet aus Pollen, Stalagmiten, Bohrkernen, Korallen und vor allem Baumringen. Innerhalb der Mainstream-Klimawissenschaft wird der Rückgang nach 1980 als das „Divergenz-Problem“ bezeichnet und dann versteckt.

Indem sie dieses Problem leugnen, sind führende Klimawissenschaftler bekannt geworden, sogar erfundene Temperaturmessungen mittels Thermometern den Proxy-Aufzeichnungen nach 1980 hinzugefügt zu haben, um buchstäblich den ,Rückgang zu verstecken‘. Phil Jones, Leiter der Climate Research Unit, bezeichnete dieses Vorgehen treffend als einen ,Trick‘.

Erfundene Thermometer-Daten dem Ende der Proxy-Aufzeichnungen hinzuzufügen ,löst‘ das Problem nach 1980, während die Re-Modellierung effektiv die MWP hinweg bügelt.

Es gibt jedoch viele Beweislinien, die belegen, dass es während der MWP in ganz Europa etwa 1 Grad wärmer war als heute – was mit dem Anstieg unseres Nordhemisphären-Komposits korrespondiert.

Marohasys Schlussfolgerungen hinsichtlich Proxy-Temperaturen werden in der wissenschaftlichen Literatur regelmäßig verifiziert.

Im vorigen Jahr beispielsweise haben Dr. Xei Ping et al. ein neues Verfahren vorgestellt (MVDM), um Baumringdaten der Nordhemisphäre mit geringer Häufigkeit über die letzten 1200 Jahre zu kalibrieren, und zwar hier.

Mittels einer großen Menge von 126 Proxy-Temperaturaufzeichnungen von der Nordhemisphäre fanden sie (1) eine deutlich erkennbare MWP (950 bis 1150) und die LIA (1450 bis 1850); (2) „wahrscheinlich beispiellose“ aktuelle Temperaturen (relativ zu den letzten 1000 Jahren) ebenso wie (3) einen „signifikanten“ Link zwischen den hohen Temperaturen der MWP und des Modernen Maximums einerseits mit hoher Sonnenaktivität andererseits, welche charakteristisch ist für beide Perioden (das Mittelalterlichen Maximum UND das Modern Grand Maximum).

Die geglättete MDVM-Rekonstruktion zeigte eine allgemeine Übereinstimmung mit den Variationen der rekonstruierten Gesamt-Solarstrahlung TSI, und die Korrelation zwischen den beiden Reihen während der Gesamtperiode von 900 bis 2000 war signifikant (r = 0,498). Im besonderen zeigten die Aufzeichnungen hohe Korrelations-Koeffizienten zu den Zeiten des solaren Maximums (z. B. im Mittelalter und derzeit).

Interessanterweise ist das Fehlen einer nachhaltigen Erwärmung in den Proxy-Temperaturen während der letzten Jahrzehnte klar erkennbar, wenn man die Rekonstruktion von Xing et al. 2016 für die Nordhemisphäre genauer betrachtet.

Als Marohasy und ihr Kollege (Abbot) die Proxy-Daten heranzogen, um ihre Rekonstruktion der Temperaturen auf der Nordhemisphäre (hier) graphisch darzustellen, gibt es eine sehr deutlich erkennbar Abnahme seit 1980. Die Rekonstruktion von Xing et al. 2016 dokumentiert auch das Fehlen jedweder Gesamterwärmung auf der Nordhemisphäre während der 60 Jahre nach den Spitzen der dreißiger und vierziger Jahre.

Jetzt betrachte man die instrumentelle Aufzeichnung und deren conducivity, um den Rückgang nach den siebziger Jahren zu verstecken. Man beachte die Amplitude der HadCRUT-Daten, welche die Temperaturen der achtziger Jahre nicht nur deutlich über die Baumringdaten hinaus ansteigen lässt, sondern auch die Abkühlung der sechziger Jahre um wenige Zehntelgrad reduziert. Es ist die illustrierte Version von „Mike’s Nature Trick“.

———————————————-

Rückblick: Die durchgesickerten Konversationen bzgl. Hide the Decline mit den die Temperaturdaten nicht sehen Wollenden…

„… Ihr müsst wirklich die Werte ab 1961 ersetzen durch gemessene (instrumentelle) Temperaturen infolge des Rückgangs“.

„Ich habe gerade Mike’s Nature Trick vervollständigt, die realen Temperaturen zu jeder Reihe hinzuzufügen für die letzten 20 Jahre (d, h. seit 1981) und und von 1961 wg. Hide The Decline“.

„Auch haben wir eine vollkommen künstliche Adjustierung der Daten nach 1960 durchgeführt, so dass sie näher bei den gemessenen Temperaturen liegend daherkommen als die Baumringdaten tatsächlich hergaben … Auch tun wir so, als ob alle Werte nach 1960 im MXD-Datensatz fehlen (wegen des Rückgangs), und mit dem Verfahren werden wir diese einsetzen, geschätzt aus den realen Temperaturdaten – eine weitere Methode, den Rückgang zu ,korrigieren‘, obwohl dies nicht zu verteidigen sein könnte!“

———————————————-

Die Rekonstruktion von der Nordhemisphäre von D’Arrigo et al. (2006), abgeleitet aus „66 Baumgrenzen nach Seehöhe und geogr. Breite in Eurasien und Nordamerika“ zeigt ebenfalls einen Temperaturrückgang auf der NH nach den vierziger und dann wieder nach den achtziger Jahren.

———————————————-

Christiansen and Lungqvist (2012) verwenden Proxys von 91 Punkten auf der außertropischen Nordhemisphäre, um zu enthüllen, dass es seit den vierziger Jahren keine Gesamt-Erwärmung gegeben hat.

———————————————-

Schneider et al., 2015 ziehen Proxy-Belege von 15 vom IPCC erwähnten Stellen auf der Nordhemisphäre heran, um keine Gesamt-Erwärmung seit den vierziger Jahren und eine Abflachung nach den achtziger Jahren zu dokumentieren.

———————————————-

Stoffel et al., 2015 verwendeten Proxy-Daten von 22 Punkten auf der Nordhemisphäre, um zu illustrieren, dass es seit den vierziger Jahren keine Gesamt-Erwärmung mehr gegeben hat.

Beachtenswert ist, wie eng die NH-Rekonstruktion von Stoffel et al. 2015 die Trends der Gesamt-Solarstrahlung TSI seit dem 18. Jahrhundert spiegeln, einschließlich eines fast identischen Timings und identischer Amplitude im 20. Jahrhundert.

———————————————-

Jetzt folgt eine Auswahl einer wesentlich größeren Zusammenstellung von Graphiken aus jüngst veröffentlichten Studien, die ebenfalls das Fehlen jedweder Gesamt-Erwärmung seit Mitte des 20. Jahrhunderts zeigen … auf beiden Hemisphären.

Mit der großen und weiter zunehmenden Diskrepanz zwischen den instrumentellen Aufzeichnungen, welche des Rückgang verstecken, und den Belegen aus Baumringen und Eisbohrkernen, bei denen das nicht der Fall ist, fragt man sich, wie lange sich die Illusion einer sich linear erwärmenden Erde noch halten wird.

Weil, wie Dr. Marohasy in ihrer Presseerklärung zu ihrer Studie klargestellt hat, der Hide The Decline-„Trick“ aufgedeckt wurde.

———————————————-

Balanzategui et al., 2017

———————————————-

Büntgen et al., 2017

———————————————-

Turney et al., 2017

„Etwa 14% der Erdoberfläche bedeckend, zeigt der Südliche Ozean seit 1979 einen Abkühlungstrend.

———————————————-

Zywiec et al., 2017

———————————————-

Fuentes et al., 2017

———————————————-

Parker and Ollier, 2017

 

———————————————-

Wilson et al., 2017

———————————————-

Tejedor et al., 2017

De Jong et al., 2016

Die Rekonstruktion zeigt, dass die jüngste Erwärmung (bis zum Jahr 2009) im Zusammenhang des vorigen Jahrhunderts nicht außergewöhnlich ist. Zum Beispiel waren die Perioden um 1940 sowie von 1950 bis 1955 wärmer.

———————————————-

Zafar et al., 2016

———————————————-

Zhao et al., 2016

———————————————-

Sunkara and Tiwari, 2016

———————————————-

Turner et al., 2016

Fehlende Erwärmung auf der Antarktischen Halbinsel ist konsistent mit der natürlichen Variabilität.

———————————————-

Chandler et al., 2016

———————————————-

Zhu et al., 2016

———————————————-

Hasholt et al., 2016

———————————————-

de Jong and de Steur, 2016

———————————————-

O’Donnell et al., 2016

———————————————-

Christy and McNider, 2016

———————————————-

Thapa et al., 2015

Die Temperatur in Mittelasien und auf der Nordhemisphäre kehrt zum Ende des 20. Jahrhunderts zu Abkühlungstrends zurück.

———————————————-

Yan et al., 2015

———————————————-

Wei et al., 2015

Link: http://notrickszone.com/2017/08/31/scientists-expose-data-manipulation-hide-the-decline-and-the-post-1940s-hockey-stick-temperature-myth/

Übersetzt von Chris Frey EIKE




Der Kohleausstieg – ein ganz normaler Wahnsinn!

Auf der Bundesdelegiertenkonferenz der Grünen im Juni wurde der Kohleausstieg mit Beschluss versehen und auf das Jahr 2030 terminiert. Zeitgleich soll der Verbrennungsmotor in Kraftfahrzeuge nicht mehr eingebaut werden. Politische Willensbekundungen und Konferenzbeschlüsse sind nun mal wunschgetragen und hoch gesteckt, denn um Wirkung zu erreichen, bedarf es „ehrgeiziger“ oder „ambitionierter“ Ziele. Inwieweit die Delegierten über ihren Beschluss nachgedacht oder sich mit Realitäten beschäftigt haben, ist nicht bekannt. Es steht eher zu vermuten, dass in bewährter ideologischer Art die Welt, wie sie ihnen gefällt, grün angestrichen wurde.

Dabei wäre es nicht schwer gewesen, sich zu informieren. Kundige Leute wie Dr. Wolfgang Rasim aus Forst und andere haben sich die Mühe gemacht, was-wäre-wenn-Rechnungen anzustellen:

Angenommen, zwei Drittel (221 Terrawattstunden) des wegfallenden Kohle- und Atomstroms sollen durch Windenergie ersetzt werden, ein weiteres Drittel durch Solar, Erdgas, Geothermie und anderes, so wären dafür etwa 44.200 Windkraftanlagen (onshore) der 3,2-Megawattklasse notwendig. Für zwei Drittel Ersatz der Kohle im Wärmemarkt (737 Terrawattstunden thermisch) bräuchte es, wenn hälftig Wärmepumpen und Elektroheizungen zum Einsatz kämen, 98.300 Windkraftanlagen. Da die Verbrenner-Autos ab 2030 durch E-Mobile ersetzt werden sollen, braucht man auch hier Strom: Für unsere betrachteten zwei Drittel des Strombedarfs (321 Terrawattstunden) wären theoretisch 64.200 Windkraftanlegen nötig.

Rein rechnerisch geht es also um eine Größenordnung von zusätzlich über 200.000 bis 2030 neu zu errichtende Windkraftanlagen im Land. Gegenwärtig drehen sich bei uns (zeitweise) 27.270 Rotoren. Der Fantasie der Leser sei jetzt Raum gegeben.

Da Wind und Sonne den Strom nur fluktuierend liefern, entstünde ein gigantischer Speicherbedarf in der Größenordnung einiger Tausend theoretischer herkömmlicher Pumpspeicherwerke. Speicher fressen über ihren Wirkungsgrad einen Teil der eingelagerten Energie wieder auf. Pumpspeicherwerke eher weniger, bei Power-to-Gas sollte man nicht den Begriff Speicher gebrauchen, sondern das entstehende Gas anderweitig nutzen. Bereits 2010 stufte die Deutsche Physikalische Gesellschaft P2G als Stromspeicher als „energetisch uninteressant“ ein. Es gilt weiter der Spruch: Ohne Speicher ist diese Energiewende nicht machbar, mit Speichern nicht bezahlbar.

Auch ein bodenständiger grüner Ministerpräsident wie Kretschmann findet offenbar in der abgehobenen Gilde kein Gehör mehr. So gleitet die Heilige Grüne Dreifaltigkeit aus Kohleausstieg, E-Mobilität und Ehe für alle dem Wahlkampf entgegen und mag belächelt werden. Wenn die Grünen aber gebraucht werden für Machterhalt oder Machterlangung, wird nicht mehr gelächelt, sondern koaliert.




Die dunkle Seite der Windkraft: Vogel-Massen­grab, Rotoren­schrott, fragwürdige nationale Allein­gänge

Der VGB hat nun eine wichtige Übersicht zur Windkraft in Deutschland und Europa vorgelegt. Der VGB ist als internationaler Fachverband für die Erzeugung und Speicherung von Strom und Wärme eine non-profit-Organisation und ein freiwilliger Zusammenschluss von Unternehmen der Kraftwerksbetreiber und -hersteller. Thomas Linnemann und Guido Vallana beleuchteten darin Status quo, Potenziale und Herausforderungen in der Grundversorgung mit Elektrizität, sowie die Entwicklungen in Deutschland seit dem Jahr 2010. Hier die Zusammenfassung von der VGB-Webseite, wo auch das pdf des Komplettberichts abgerufen werden kann:

Die installierte Nennleistung sämtlicher Windenergieanlagen in Deutschland hat sich in den letzten 16 Jahren, von Anfang 2001 bis Ende 2016, auf 50.000 Megawatt (MW) verachtfacht. In 18 betrachteten europäischen Ländern, die Windenergie heute nutzen, erhöhte sich die Nennleistung im gleichen Zeitraum um das Zwölffache auf mehr als 150.000 MW.

Eine wesentliche physikalische Eigenschaft der Windenergie ist ihre starke raumzeitliche Variation aufgrund der Fluktuationen der Windgeschwindigkeit. Meteorologisch betrachtet wird die aus Windenergieanlagen eingespeiste elektrische Leistung durch Wetterlagen mit typischen Korrelationslängen von mehreren hundert Kilometern bestimmt. Im Ergebnis ist die aufsummierte eingespeiste Leistung der europaweit über mehrere tausend Kilometer sowohl in Nord-Süd-als auch Ost-West-Richtung verteilten Windenergieanlagen hoch volatil, gekennzeichnet durch ein breites Leistungsspektrum.

Die intuitive Erwartung einer deutlichen Glättung der Gesamtleistung in einem Maße, das einen Verzicht auf Backup-Kraftwerksleistung ermöglichen würde, tritt allerdings nicht ein. Das Gegenteil ist der Fall, nicht nur für ein einzelnes Land, sondern auch für die große Leistungsspitzen und -minima zeigende Summenzeitreihe der Windstromproduktion 18 europäischer Länder. Für das Jahr 2016 weist die entsprechende Zeitreihe (Stundenwerte) einen Mittelwert von 33.000 MW und ein Minimum von weniger als 6.500 MW auf. Dies entspricht trotz der europaweit verteilten Windparkstandorte gerade einmal 4 % der in den betrachteten 18 Ländern insgesamt installierten Nennleistung. Windenergie trägt damit praktisch nicht zur Versorgungssicherheit bei und erfordert 100 % planbare Backup-Systeme nach heutigem Stand der Technik.

Im derzeit in der Vorbereitung befindlichen Teil 2 der Studie wird die gesamteuropäische Situation analysiert.

Ein nüchterner Artikel, der die Windkraft in Deutschland in realistischer Weise darstellt: Windenergiekapazität 50 000 MW, gesicherte Leistung 100 MW. 37 mal im Jahr ist Dunkelflaute.

Die Gewinner der Windkraft sind klar: Die Besitzer und Investoren der Anlagen, die sich Bau und Betrieb fürstlich bezahlen lassen. Der Hinweis auf die große Bedeutung in der “ökologischen” Transformation erstickt jegliche Kritik im Keim. Aber wie ökologisch und naturnah ist diese Energiegewinnung wirklich? Einen Hinweis darauf finden wir in einer Pressemitteilung der Deutschen Wildtierstiftung vom 23. Juni 2017:

Neues Bundesnaturschutzgesetz legalisiert Tötung von Wildtieren
Deutsche Wildtier Stiftung kritisiert: Bauvorhaben und Windkraft stehen künftig über Artenschutz

Wenn Windkraftanlagen ohne Rücksicht auf geschützte Arten wie Fledermäuse und Rotmilan errichtet werden, kommen sie unter die Räder. Denn Natur- und Artenschutz stören häufig, wenn es um wirtschaftliche Interessen geht. Mit der gestern am späten Abend beschlossenen Änderung des Bundesnaturschutzgesetzes hat die Bundesregierung kurz vor der parlamentarischen Sommerpause Tatsachen geschaffen: Auf Betreiben des Bundesumweltministeriums wurde eine Neuregelung beschlossen, die bei Baumaßnahmen wie z.B. von Windkraftanlagen geltendes Gesetz zum Schutz von Arten aufweicht. Viele Arten stehen aufgrund der intensiven Landnutzung in Deutschland ohnehin schon enorm unter Druck – nun verschärft sich die Situation weiter. Tote Adler unter Windenergieanlagen, Feldhamster unter Beton eingeschlossen – in Zukunft kaum mehr ein Problem.

Wie rücksichtslos diese Ziele verfolgt werden, zeigt die Neuregelung im Rahmen des Paragraph 44 des Bundesnaturschutzgesetzes: „Es wurde mit einem Federstrich gegen Natur- und Artenschutz entschieden”, kritisiert Professor Dr. Fritz Vahrenholt, Alleinvorstand der Deutschen Wildtier Stiftung. Fakt ist: Es ist jetzt legal, wenn z.B. durch den Betrieb von Windkraftanlagen Wildtiere getötet werden! Besonders der neue Ausdruck der „Signifikanz” ist problematisch. Erst ab dieser undefinierten Schwelle soll das bisherige Tötungsverbot wirken. Doch wer entscheidet, wie viele tote Tiere signifikant sind? Das geltende EU-Recht für geschützte Arten kennt diesen Begriff ebenfalls nicht.

“Im Interesse der Windkraftlobby setzen sich Bundesregierung und Bundestag mit dieser Entscheidung über das Tötungs- und Verletzungsverbot von Wildtieren hinweg”, bedauert Professor Dr. Vahrenholt. Über 25.000 Windenergieanlagen drehen mittlerweile in Deutschland ihre Rotoren. Der Raum wird knapp. Besonders im windarmen Süden Deutschlands werden die Anlagen daher zunehmend auch in Wäldern gebaut, wo der ökologische Schaden oft beträchtlich ist. Der Tod von Schwarzstorch, Wespenbussard und seltenen Fledermäusen wird nun als unvermeidbar dargestellt und damit quasi legalisiert.

„Wir können nur hoffen, dass dieser ungeheuerliche Angriff auf den Naturschutz in der nächsten Legislaturperiode wieder rückgängig gemacht wird und protestieren aufs Schärfste”, sagt Professor Dr. Fritz Vahrenholt, Alleinvorstand der Deutschen Wildtier Stiftung.

Die Änderung des Naturschutzgesetzes im Wortlaut

„….Zudem kann auch für Vorhaben privater Träger die Ausnahmevorschrift des § 45 Absatz 7 Satz 1 Nummer 5 in Anspruch genommen werden, wenn zugleich hinreichend gewichtige öffentliche Belange ihre Realisierung erfordern. Zu diesen Belangen gehört der Ausbau der Erneuerbaren Energien.”

Siehe auch Beitrag von Dirk Maxeiner auf achgut.com “Die große Koalition macht Tiere töten leicht” (englisch hier). Im August 2017 veröffentlichte Fritz Vahrenholt dazu auch in der Welt einen Beitrag:

Tierschützer warnt: Bis kein Storch mehr fliegt

Tausende Vögel werden Opfer von Windrädern. Investoren zerstören sogar Nester geschützter Arten, die dem Geschäft im Wege stehen. Dagegen hilft ein Mittel, das schon gegen die Mafia erfolgreich war.

Die Entwicklung der Artenvielfalt in Deutschland hat in den letzten Jahrzehnten gezeigt, dass Tiere, die durch Jagd und industrielle Verschmutzung bedroht waren, zurückkehren. Jagdverbote und der Umweltschutz zeigen Erfolg. Zu diesen Rückkehrern gehören viele prominente Vogelarten: Seeadler, Fischadler, Wanderfalke, Uhu, Schwarzstorch, Kranich.

Jetzt droht diese positive Tendenz bei den Greifvögeln wieder zu kippen. Schuld daran ist das Ausufern der Energiewende in die größte Landschaftsveränderung seit dem Zweiten Weltkrieg. Greifvögel geraten in die Zange von 28.000 Windkraftanlagen, davon mittlerweile 1200 in Wäldern. Mais-Monokulturen wachsen auf 2,5 Millionen Hektar, einer Fläche so groß wie Sizilien.

Weiterlesen in der Welt.

Die Freie Welt griff das Thema am 9. August 2017 auf:

Schattenseite der Ökopolitik: Windkraft wird zunehmend zum Massengrab beliebter Vogelarten

Die Umweltpolitik der Grünen erweist sich als ökonomisches und paradoxerweise auch als ökologisches Desaster

Eine Partei, die in den 80er-Jahren angetreten war, um die Natur zu retten, wandelte sich zur Sachwalterin großflächiger Naturzerstörung“, heißt es zusammenfassend in einem Artikel von Fritz Vahrenholt, der in der ‘Welt’ unter dem Titel: „Bis kein Storch mehr fliegt“ erschienen ist.

Prof. Dr. Fritz Vahrenholt war einst Umweltsenator in Hamburg und hatte mit ‚Seveso ist überall’ eines der wirkmächtigsten Bücher der damals neu aufkommenden Umweltbewegung geschrieben. Nun warnt er eindringlich vor einem massiven Vogelsterben durch einen weiteren Ausbau der Windenergie und berichtet von zunehmendem Widerstand.

Weiterlesen in der Freien Welt

Kenneth Richard besprach auf Notrickszone zwei neue Papers, die das Müllproblem ausgedienter Altanlagen analysieren:

Unsustainable: 43 Million Tonnes Of Wind Turbine Blade Waste By 2050
Despite an explosion in installed wind capacity since 1990, wind power had achieved just 0.39%of the world’s total energy consumption as of 2013. Germany has assumed a leading role in promoting the consumption of renewable energy.  And yet even in Germany the share of energy consumption from wind power reached only 2.1% in 2016. Despite its extremely limited infiltration as a world energy source, it is assumed that a rapid expansion of wind power will ultimately be environmentally advantageous both due to its reputation as a “clean” energy and because of the potential to contribute to reduced CO2 emissions. Recently, however, the austere environmental impacts and health risks associated with expanding wind energy have received more attention. For example, scientists have asserted that wind turbines are now the leading cause of multiple mortality events in bats, with 3 to 5 million bats killed by wind turbines every year.   Migratory bats in North America may face the risk of extinction in the next few decades due to wind turbine-related fatalities.

Nicht nachhaltig: 43 Millionen Tonnen Windturbinen-Abfall bis zum Jahr 2050

Trotz einer Explosion der installierten Windkapazität (hier) seit dem Jahr 1990 erreichte Windenergie gerade mal 0,39% des weltweiten Gesamt-Energieverbrauchs bis zum Jahr 2013. Deutschland hat vermutlich eine führende Rolle beim Vorantreiben des Verbrauchs erneuerbarer Energie. Und dennoch, selbst in Deutschland erreichte der Energieverbrauch durch Windkraft im Jahre 2016 gerade mal 2,1% (hier). Trotz dieser extrem begrenzten Infiltration als Energiequelle nimmt man an, dass eine rapide Ausweitung von Windenergie ultimativ umweltlich vorteilhaft ist, sowohl durch deren Ruf als eine „saubere Energiequelle“ als auch wegen des Potentials, zur Reduktion von CO2-Emissionen beizutragen. In letzter Zeit jedoch ist den ernsten Umweltauswirkungen und Gesundheitsrisiken im Zusammenhang mit der Ausweitung der Windenergie immer mehr Aufmerksamkeit zuteil geworden. Beispielsweise haben Wissenschaftler vermutet, dass Windturbinen inzwischen der Hauptgrund für die multiplen Sterbefälle von Fledermäusen (hier) mit 3 bis 5 Millionen durch Windräder getöteten Fledermäusen pro Jahr (hier). Zug-Fledermäuse in Nordamerika stehen vor dem Risiko des Aussterbens während der nächsten Jahrzehnte, weil sie von Windrädern zerschmettert werden.

[Übersetzung: Chris Frey, EIKE]

Zitate aus Ramirez-Tejeda et al. (2017):

“If the industry cannot come up with more sustainable manufacturing and disposal processes, public acceptance of wind energy would decline if the public becomes aware of these issues”

Falls die Industrie nicht mit nachhaltigerer Herstellung und Entsorgung aufwarten kann, wird die öffentliche Akzeptanz von Windenergie abnehmen, falls der Öffentlichkeit diese Umstände bekannt werden.

[Übersetzung: Chris Frey, EIKE]

Ganzen Artikel auf Notrickszone lesen.

Die Volatilität ist ein großes Problem der Windkraft. Nationale Alleingänge machen dabei wenig Sinn, fand eine Studie der ETH Zürich vom 17. Juli 2017 (Pressemitteilung):

Einseitige Planung verschärft Schwankungen

Würden die Länder Europas bei der Windenergie besser zusammenarbeiten, würde die Windstromproduktion weniger stark schwanken. Das sagt eine Gruppe von Energie- und Klimaforschern der ETH Zürich und des Imperial College London, die für Europa erstmals Großwetterlagen mit Stromproduktionszahlen kombiniert untersuchten.

Der Ausbau erneuerbarer Energien steht wegen der wetterabhängigen Stromproduktion massiv in der Kritik. Eine neue Studie zeigt, dass das weniger am Wetter als an mangelnder Berücksichtigung der gesamteuropäischen Wetterverhältnisse in der Planung liegt. Denn etliche Länder Europas folgen für den Ausbau der Windenergiekapazitäten einseitig ihren nationalen Strategien, ohne über ihren eigenen Gartenzaun zu schauen.

Besser wäre es aber, die Länder würden zusammenarbeiten und auch den Ausbau der Kapazitäten in anderen Regionen Europas fördern, wo Windkraft derzeit kaum genutzt wird. Denn nur so ließen sich die extremen Schwankungen, die heute aufgrund der wechselnden Wetterverhältnisse in der Windstromproduktion auftreten, auf einem vergleichsweise tiefen Niveau halten. Zu diesem Schluss kommt eine Gruppe von Klima- und Energieforschern der ETH Zürich und des Imperial College London in ihrer neusten Studie, die soeben in der Fachzeitschrift «Nature Climate Change» erschienen ist.

Premiere für kombinierte Analyse

Für ihre Studie kombinierten die Forscher erstmals für ganz Europa Daten über großräumige Wetterverhältnisse der vergangenen 30 Jahre mit Wind- und Solarstromproduktionsdaten. Dabei verwendeten sie die an der ETH Zürich entwickelte Plattform Renewables.ninja, um die Wind- und Solarstromproduktion in Europa realistisch zu simulieren.

Mit Hilfe dieser Daten modellierten sie unter anderem, wie sich die Windstromproduktion in Bezug auf sieben in Europa vorherrschende Wetterregime verhält und mit dem weiteren Ausbau der Windenergiekapazität zukünftig ändern wird. Solche Wetterregime erklären, weshalb Schwankungen über mehrere Tage in der europäischen Windstromproduktion auftreten.

Einige Regime sind von Tiefdruckgebieten über dem Atlantik geprägt, welche starken Wind in Westeuropa verursachen, gleichzeitig aber mit ruhigeren Verhältnissen weiter östlich einhergehen. Während anderer Regime ist das Wetter über dem Atlantik und in Westeuropa ruhiger, zur gleichen Zeit herrscht jedoch stärkerer Wind in Südeuropa und Nordskandinavien. «Es gibt kaum eine Wettersituation, in der auf dem ganzen Kontinent gar kein Wind weht und damit ganz Europa gar kein Potential für Windenergie hätte» erklärt Erstautor Christian Grams vom Institut für Atmosphäre und Klima der ETH Zürich.

Die Windparks sind jedoch schon heute einseitig über Europa verteilt, vor allem in Ländern um die Nordsee. Das lässt die Windstromproduktion schwanken, weil die meiste Kapazität in Nachbarländern mit ähnlichen Wetterbedingungen installiert ist. Herrscht also über der Nordsee während einiger Tage oder gar Wochen wegen eines stabilen Hochdruckgebiets Flaute, wie im Winter 2016/17, sackt die gesamteuropäische Windenergieproduktion drastisch ab.

Kooperation würde Schwankungen ausgleichen

Verschärft wird dieses Problem dadurch, dass die Länder meist ihren eigenen Strategien für den weiteren Ausbau der Windkraft folgen. Dadurch werden noch mehr Kapazitäten im Nordseeraum konzentriert. Das wird künftig noch extremere Schwankungen zur Folge haben: Die Differenz zwischen hoher Produktion bei günstigen Windverhältnissen und tiefer Produktion bei Flaute wäre bei besonders ungünstigen Verhältnissen bis zu 100 Gigawatt. Dies entspricht in etwa der Kapazität von 100 Atomkraftwerken, die innerhalb weniger Tage zusätzlich bereitgestellt respektive gedrosselt werden müssten.

Würden europäische Länder hingegen kooperieren und künftige Standorte von Windparks anhand der Wetterregime festlegen, ließen sich die Schwankungen auf dem heutigen Niveau von rund 20 Gigawatt stabilisieren. In Frage kommen etwa der Balkan, Griechenland, der westliche Mittelmeerraum und Nordskandinavien.

An diesen Standorten weht der Wind nämlich dann genügend stark, wenn im Nordseeraum ein Hochdruckgebiet für Windstille sorgt. Umgekehrt kann ein stabiles Hochdruckgebiet über dem Mittelmeer die Windstromproduktion dort zum Erliegen bringen, dafür produzieren dann die Windparks im Nordseeraum genügend Strom.

«Deshalb könnte Windstromkapazität in Ländern wie Griechenland oder Bulgarien als wertvoller Ausgleich im gegenwärtigen europäischen Windpark dienen. Das erfordert allerdings einen Paradigmenwechsel in den Planungsstrategien der Länder, in denen Windkraft Potenzial hat», betont Mitautor Iain Staffell vom Imperial College London.

Stromspeicherung nicht machbar

Den Strom für mehrere Tage zu speichern, um die mehrtägigen Schwankungen abzufedern, etwa mit Batterien oder Pumpspeicherseen in den Alpen, ist laut Autoren schwierig, da eine solche gigantische Speicherkapazität auch in absehbarer Zeit nicht verfügbar sein wird. Bislang verfügbare Speichertechnologien eignen sich vor allem zum Ausgleich kürzerer Schwankungen innerhalb weniger Stunden bis Tage.

Vielmehr erfordert eine größere räumliche Verteilung von Windparks auch den Ausbau des Übertragungsnetzes. Solch ein gesamteuropäisch erneuerbares Energiesystem könnte der Schweiz dennoch die Chance bieten ihre Wasserkraftkapazitäten wieder wirtschaftlicher zu nutzen, um kurzfristige Schwankungen auszugleichen.

Politischer Wille und Netzausbau nötig

Auch mit Solarenergie lässt sich eine allfällige Lücke über mehrere Tage höchstens regional füllen. Um die Schwankungen europaweit ausgleichen zu können, müsste gemäss den Forschern die Solarenergiekapazität verzehnfacht werden. «Oft scheint zwar die Sonne, wenn es windstill ist», erklärt Mitautor Stefan Pfenninger vom Institut für Umweltentscheidungen der ETH Zürich. «Aber im Winter reicht die Sonneneinstrahlung in Mittel- und Nordeuropa oft nicht aus, um mit Solarpaneelen genügend Strom zu gewinnen.» Es sei daher wenig sinnvoll, mit einem massiven Ausbau der Solarkapazität die Schwankungen bei der Windenergie ausgleichen zu wollen.

Die Forscher hoffen nun, dass Energieproduzenten und Netzbetreiber, aber auch Regierungen und Politiker, von diesen neuen Erkenntnissen Wind bekommen und die Planung und den Netzausbau europaweit besser koordinieren.

Literaturhinweis: Grams, C.M., R. Beerli, S. Pfenninger, I. Staffell, and H. Wernli, 2017:  Balancing Europe’s wind power output through spatial deployment informed by weather regimes. Nature Climate Change, Advanced Online Publication 17th July 2017, doi: 10.1038/nclimate3338

Dieser Beitrag war zuerst im Blog „Die Kalte Sonne“ erschienen.

Link: http://www.kaltesonne.de/die-schattenseiten-der-windkraft-vogel-massengrab-rotorensondermull-fragwurdige-nationale-alleingange/




Die Science Fiction des Jeremy Rifkin oder: die schöne neue Welt der Öko-Kollektive

Nicht auszuschließen, daß er dabei den selbsternannten Visionär Jeremy Rifkin im Auge hatte, der auch damals schon in Europa herumgeisterte, der aber erst in jüngerer Zeit zu einem Berater der EU und Kanzlerin Merkels aufsteigen konnte. Zu Schmidts Zeiten war es dagegen noch üblich, daß Politiker sich Wissen und Ratschlag bei Fachleuten holten.

Besonders in Asien ist längst aufgefallen, daß fundiertes Fachwissen in Deutschland, vielleicht auch in ganz Europa, zunehmend an Bedeutung verloren hat. Statt Sachverstand zählen heute Glaubensformeln und Redefluß. Es ist hinlänglich bekannt, daß bei dem immerhin lebenswichtigen Thema Energieversorgung in Deutschland schon lange keine Fachleute mehr das Sagen haben, sondern Ideologen, die über CO2– Emissionen schwadronieren und die Rettung des Planeten zu ihrem Lebensziel gemacht haben. Das Kanzleramt, die Kirchen, die Parteien, Schulen, Kindergärten, selbst wissenschaftliche Institute haben seit Jahrzehnten ihre Mitarbeiter zunehmend nach politisch korrekten Ideologien durchleuchtet und ausgesucht.

Nun treten die peinlichsten Resultate dieser allseits vergrünten Gesellschaft zutage. Wie die gesamte Industrie langsam zu ahnen beginnt, daß dramatisch steigende Stromkosten ein Resultat wetterabhängiger Windmühlentechnik sind, so muß auch die Autoindustrie zur Kenntnis nehmen, daß die Physik sich nicht nach den Wünschen ideologiegetriebener Grenzwerte verbiegen läßt. Und auch die kürzlich in England durch übertriebene Fassadendämmung zu Tode gekommenen Menschen seien uns eine Warnung.

Zitat von Prof. Schellnhuber, Bild swr

Folgt man den jüngsten Aussagen des schon etwas bekannteren Merkel-Beraters Prof. John Schellnhuber vom WBGU (Wissenschaftlicher Beirat Globale Umweltveränderungen), dann müßte man diesen einmal eingeschlagenen Holzweg erst noch richtig auskosten. Anläßlich der Verabschiedung Trumps vom Klimawahn sagte Schellnhuber am 15.3. 2017 in einem Interview in der Deutschen Welle:

„… Es ist ziemlich umwerfend – zum Beispiel bis 2030 müssen wir den Verbrennungsmotor auslaufen lassen. Und wir müssen den Einsatz von Kohle zur Stromerzeugung komplett ausschalten. Bis 2040 müssen wir wahrscheinlich Beton und Stahl für den Bau durch Holz, Ton und Stein ersetzen… Und tun wir das nicht… Es wäre das Ende der Welt, wie wir es wissen, und ich habe alle Beweise.“

Jeder normale Mensch würde sagen: „Hier stimmt was nicht!!“

Gleiches trifft auf den anderen Berater zu, der in Berlin und auch in Brüssel unterwegs ist. Der in Deutschland weniger bekannte Jeremy Rifkin bezeichnet sich als Visionär und Zukunftsforscher. Wie Schellnhuber ist auch er als Öko-Aktivist mit der Rettung des Planeten beschäftigt, aber im Unterschied zu ihm will er uns offiziell zumindest keine Holzhütten andrehen (am Ende sind es dann doch welche), sondern preist seine Vision an als die größte Entdeckung aller Zeiten, nämlich als „Die Dritte Industrielle Revolution“.

In einem Vortrag, den er 2014 bei der amerikanischen Akademie in Berlin hielt, erzählt er, daß Merkel ihn, als sie zur Kanzlerin gewählt wurde, um Beratung bat. Er habe ihr gesagt, daß das alte kapitalistische System mit seinem veralteten Kommunikations- und Verkehrssystem am Absterben sei, daß das Bruttosozialprodukt bei steigenden Kosten fossiler und nuklearer Brennstoffe unweigerlich schrumpfen und die Arbeitslosigkeit beständig ansteigen werde. Kurz, man könne der Tatsache nicht ausweichen, daß wir die Entropiezeche eines auf fossiler Energie bestehenden Systems jetzt nicht nur in wirtschaftlicher Hinsicht zahlen müßten, sondern auch durch die davon verursachte Klimakatastrophe.

Was dagegen hoffnungsvoll im Entstehen sei, sei ein völlig neues System, eine „Dritte Industrielle Revolution“ auf der Grundlage erneuerbarer Energien, neuer Transportwege und eines Super-Internets der Dinge. In einer jüngsten Film-Ankündigung vom April 2017 bezeichnet er Deutschland als das Epizentrum dieser Revolution; Merkel wird darin zitiert, wir würden diese dritte industrielle Revolution in Deutschland haben, und mehr noch, sie wolle auch die Zentralregierung Chinas davon überzeugen.

Um dem Leser die Vorstellung zu erleichtern, was seither im Kopf dieser Kanzlerin spukt, sei aus Rifkins Buch zitiert. Die fünf Säulen seiner Vision sind folgende:

* „Umstieg von einer auf kohlenstoffhaltigen fossilen Brennstoffen basierenden Energieordnung auf erneuerbare Energien.“

* „Umbau der weltweiten Bausubstanz zu Mikrokraftwerken, die vor Ort erneuerbare Energien zu erzeugen imstande sind.“

* „Installation von Wasserstoff und anderen Speichermöglichkeiten in jedem Gebäude und über die ganze gesellschaftliche Infrastruktur verteilt, um schwankende Energien zu speichern und damit einen kontinuierlichen, zuverlässigen Nachschub an grüner Energie zu garantieren.“

* „Die Nutzung der Internettechnologie zur Umstellung des Stromnetzes auf ein intelligentes Versorgungsnetz, in das Millionen Menschen selbst erzeugten grünen Strom einspeisen können, um ihn – nach dem Vorbild des Informationsaustausches im Internet – mit anderen in einer Art quelloffener Allmende zu teilen.“

* „Die Umstellung der globalen Transportflotte – Pkws, Busse, Lkws, Züge – auf elektrische, von erneuerbaren Energien aus Millionen von Gebäuden angetriebenen Steckdosen- und Brennstoffzellenfahrzeuge und die flächendeckende Einrichtung von Ladestationen, an denen sich Elektrizität über ein dezentrales Stromnetz kaufen und verkaufen läßt.“

In dieser schönen neuen Welt werden Milliarden von Menschen die großen Kraftwerke ersetzen. Sie werden den von Sonne und Wind kostenlos gelieferten Strom innerhalb ihrer vier Wände speichern und per Internet verkaufen. Vor dem Haus steht eine Flotte von gemeinschaftlich benutzten E-Mobilen, die mit dem kostenlos gelieferten und gespeicherten Strom fahrerlos in der Gegend herumkutschieren. Auch für den Fall, daß das Internet der Dinge doch keine Dinge produziert, ist vorgesorgt. Alle, selbst fünfjährige Kinder, werden über 3-D-Drucker verfügen, mit denen man die Dinge drucken und verkaufen kann, von Spielzeug über Kochtöpfe bis hin zu E-Mobilen. Wer sich das nicht vorstellen kann, ist eben nicht auf der Höhe der Zeit.

Man bräuchte über Visionen dieser Art kein Wort zu verlieren, wenn nicht tatsächlich der gefährliche Zustand erreicht wäre, daß ganze Institutionen wie die Europäische Union und die Verantwortlichen der großen Energieerzeuger Deutschlands zwischen Science Fiction und Wissenschaft nicht mehr unterscheiden können. E.ON und Google gründeten kürzlich eine Partnerschaft zur Ermittlung des Solarpotentials von weiteren sieben Millionen Gebäuden in Deutschland. Welches Interesse sollte daran bestehen, wenn die Verantwortlichen der Firmen nicht tatsächlich den flächendeckenden Umbau der Bausubstanz in Deutschland zu Mikrokraftwerken im Schilde führten? Wie Rifkin in seinem Buch über die Dritte Industrielle Revolution preisgibt, habe auch der ehemalige Chef von EnBW, Utz Claassen, zur Überraschung seiner Belegschaft selbst versprochen, beim Weg in die neue Ära dezentraler Energie ganz vorne mit dabei zu sein.

Ist die Autoindustrie vielleicht auch gerade dabei, mit dem E-Mobil der letzten der fünf notwendigen Säulen den Weg zu bereiten? Wenn selbst die Führung unserer Industrie sich an der Zerschlagung eines der besten und sichersten Energiesysteme der Welt beteiligt und sich stattdessen mit fragwürdigen Visionären einläßt, dann ist es höchste Zeit, auf die eigentlichen Pläne dieser Propheten hinzuweisen. Denen geht es nämlich nicht um technische Herausforderungen gegenwärtiger oder zukünftiger Machbarkeit, sondern um Bevölkerungsreduktion mittels Wiedereinführung kollektiver Subsistenzwirtschaft. Was Rifkin vorschwebt und jeder in seinen Büchern nachlesen kann, sind Modelle, mit denen sich die Umweltökonomin Elinor Ostrom beschäftigt hat, Modelle, die in die vorindustrielle Zeit, teils nicht weniger als tausend!!!! Jahre zurückreichen.

Bevor wir dahin kommen, wollen wir uns zunächst mit der Frage beschäftigen: Wer ist eigentlich dieser Jeremy Rifkin?

 

Wer ist Jeremy Rifkin?

Geboren 1945 in Denver/Colorado. Bereits 1978 gründete er seine Stiftung „Foundation On Economic Trends“ (FOET) und war seither als Ökoaktivist sowohl in den USA als auch international tätig. Egal, ob es sich um Themen wie Gentechnik, Fleischverzehr oder Klimawandel handelte, Rifkin mobilisierte auf allen Ebenen, was seine Stiftung für die Ökolobby interessant machte. Sie wird bis heute von großen Geldgebern wie Arca Foundation, Oak Foundation, Rockefeller Family Fund, Kellogg Foundation, Warsh-Mott Legacy und Nathan Cummings Foundation unterstützt, um nur einige zu nennen.

Während er in den USA in Sachen Klimawandel wegen der dort existierenden Opposition weniger erfolgreich war, wurde er seit 2000 Berater der Europäischen Union und beriet in dieser Funktion Prodi, Barroso und Juncker, seit 2005 nach eigenen Angaben auch Merkel und verschiedene Vorstände großer Unternehmen in Europa. Gegenwärtig hat er eine Beraterfunktion in Sachen „Dritte Industrielle Revolution“ in der Region Hauts-de-France, sowie Rotterdam und Den Haag und ist für den Großherzog von Luxemburg tätig. Seit ein paar Jahren soll er auch einzelne Vertreter chinesischer Institutionen beraten haben.

Rifkin schrieb im Laufe seiner Karriere etwa 20 Bücher, von denen einige in 30 Sprachen übersetzt wurden. Die beiden letzten sind Die Dritte Industrielle Revolution von 2011 und das neueste Die Null-Grenzkosten-Gesellschaft von 2014.

In seinen umfangreichen Ausführungen, die alle möglichen Gebiete streifen, findet sich nirgends fundiertes Wissen, nur Behauptungen, teils der absurdesten Art. Aus diesem Grund wollen wir hier auf weitere Details zu seiner Vision nicht näher eingehen, und uns lediglich auf eine Kostprobe beschränken, um dann die Betonung auf das zu legen, worauf das ganze zwangsläufig hinauslaufen soll, nämlich die Dekonstruktion der Industriegesellschaft. Eine Kostprobe aus Die Null-Grenzkosten-Gesellschaft:

„Im Gegensatz zu fossilen Brennstoffen und Uran für Atomkraft, wo bereits der Rohstoff Kosten verursacht, sind erneuerbare Energien nahezu kostenlos zu haben: die Sonne, die Sie auf Ihrem Dach einfangen, der Wind, der die Wände Ihres Hauses hochstreicht, der anaerobe Kompost in Ihrer Küche, die Wärme in der Erde unter Ihrem Büro.

Und schließlich sind die Kosten für den Betrieb eines dreidimensional gedruckten Wagens mit lokal geernteter erneuerbarer Energie so gut wie umsonst. Die Brennstoffkosten eines Urbee liegen bei nur 0,02 Dollar pro Meile – mit anderen Worten: bei einem Drittel der Kosten eines Toyota Prius.“ (Campus-Verlag, S.391 f.)

Die unsichtbare Hand des Marktes habe die Entdeckung des Null-Grenzkosten-Prinzips freigegeben und trete ihren Triumphzug an.

Auf dieser wunderbaren Entdeckung basiert die ganze Vision des Jeremy Rifkin, und die Granden der europäischen Politik applaudieren. Ganz Recht hatte er, der alte Helmut Schmidt: Da hilft nur der Gang zum Arzt!

 

Die autarken Öko-Kollektive

Kommen wir noch einmal zurück auf den oben schon zitierten Vortrag 2014 in Berlin. Nach den großen Lobreden auf die angeblich extrem steigende Produktivität in einer mit erneuerbarer Technik vernetzten Welt läßt er schließlich die Katze aus dem Sack.

Besser als alle Formen kapitalistischer oder sozialistischer Wirtschaft sei die soziale Wirtschaft, die tausend Jahre vor dem Kapitalismus existierte und von der man nur nichts gehört habe, weil die moderne Geschichte das auslasse. Es bedurfte erst der Wirtschaftswissenschaftlerin Ostrom von der Indiana-Universität Bloomington, die schließlich das Prinzip einer wahrhaft demokratischen und sozialen Gemeinschaft in den kleinsten Gebirgsdörfern der deutschen Alpen, auch der Schweizer und italienischen Alpen wiederentdeckt habe.

Elinor Ostrom bekam für ihre Arbeit auf dem Gebiet der Umweltökonomie 2009 im Alter von 76 Jahren den Nobelpreis verliehen und starb zwei Jahre danach. Sie befaßte sich unter Anwendung der Spieltheorie mit der Frage, wie eine wachsende Bevölkerung mit knappen Ressourcen umgehe, wobei der Hauptgegenstand ihrer früheren Forschungstätigkeit die Wasserknappheit in Kalifornien war.

In ihrem Buch Die Verfassung der Allmende kommt sie zu dem Schluß, daß die von Rifkin erwähnten Bergdörfer (genannt werden Törbel in der Vistatalklamm im Kanton Wallis und die japanischen Dörfer Hirano, Nagaike und Yamanoka) die erfolgreichsten selbstverwalteten und langlebigsten Gemeinden waren. Zitat:

„Die Schweizer und japanischen Gebirgsallmenden haben trotz intensiver Nutzung die Jahrhunderte überdauert oder sind sogar verbessert worden. Ökologische Nachhaltigkeit in einem fragilen Milieu von Lawinen, unvorhersagbaren Niederschlägen und wirtschaftlichem Wachstum ist für jede Aneignergemeinschaft, die seit Jahrhunderten zusammenarbeitet, ein eminenter Erfolg.“

Über die japanischen Dörfer schreibt sie:

„Das Bevölkerungswachstum war extrem niedrig (0,025 % im Zeitraum von 1721 bis 1846) und die Besitzverhältnisse in den Dörfern waren stabil… Wie in den Schweizer Dörfern waren auch hier die Regeln und Vorschriften zugeschnitten auf das spezifische Ökosystem, auf die besondere wirtschaftliche Rolle der diversen Waldprodukte in der Dorfökonomie sowie auf die notwendige Minimierung der Überwachungskosten für Arbeitsinputs, Ressourceneinheiten-outputs und für die Regeleinhaltung… Jedes Dorf entwarf auch sein eigenes Überwachungs- und Sanktionssystem. Da der Berg bis auf bestimmte Perioden geschlossen war, verstieß offenkundig jeder gegen die Vorschriften, der zu anderen Zeiten in gemeindeeigenen Territorien ertappt wurde. Die meisten Gemeinden stellten ,Detektive’ ein, die zu zweit täglich die Allmenden abritten, um Regelbrecher aufzuspüren…“

Es folgen noch lange Berichte über die Handhabung von Strafen, die bei Übertretung der gemeinschaftlich beschlossen Regeln wirksam wurden.

Man kann aus alledem nur schließen, daß Rifkin die These vom „nachhaltigen Füllhorn“ seiner angeblichen Revolution selber bezweifelt und stattdessen wie alle heimlichen oder bekennenden Malthusianer fasziniert ist von der Idee, daß das Leben erst unter der Bedingung eines ständigen Überlebenskampfes bei äußerster Ressourcenknappheit eine Würze bekommt. Woher sonst die Begeisterung für solche Gebirgsdorf-Modelle des 18. und 19. Jahrhunderts?

Will man diese Modelle tatsächlich auf das heutige Deutschland und darüber hinaus ausdehnen, dann muß man auch zur Bevölkerungsdichte aus der Zeit von Robert Malthus zurückkehren. Das wären in Deutschland höchstens 15 Millionen Menschen, und maximal eine Milliarde weltweit.

Und, in der Tat, man müßte, wie er tatsächlich vorschlägt, das Erziehungssystem für diese „Kulturrevolution“ gründlich umkrempeln. Zitat aus Die Dritte Industrielle Revolution:

„Folglich müssen Lehrer in aller Welt ihren Schülern von klein auf beibringen, daß sie ein enger Teil der Biosphärenprozesse sind und alle ihre Entscheidungen – was sie essen, was sie tragen, welches Auto sie fahren, welchen Strom sie benutzen – sich auf ihre Klimabilanz auswirken und diese wiederum auf alle anderen Menschen und Kreaturen.“ (Fischer Taschenbuch, S. 255)

Und dann, unter der Überschrift „ Das dezentralisierte und kollaborative Klassenzimmer“:

„Eine neue Generation von Erziehern macht sich daran, die schulischen Lernprozesse, die sich während der ersten beiden industriellen Revolutionen etabliert haben, zu dekonstruieren. Ziel des neuen Lernerlebnisses ist die Förderung eines erweiterten, von Biosphärenbewußtsein erfüllten ökologischen Ichs. Der vorherrschende hierarchische Unterrichtsansatz, dessen Ziel darin besteht, ein autonomes Wesen zu schaffen, das in Konkurrenz zu anderen lebt, beginnt einer dezentralen und kollaborativen Lernerfahrung zu weichen, die ein Gespür für das soziale Wesen unseres Wissens zu vermitteln vermag.“ (ebenda, S. 257)

Abschließend stellt sich die Frage: Was planen Angela Merkel nebst Barroso, Prodi, Juncker, Theyssen, Claassen und andere für Europa?

Durchsetzen können sich solche rückwärtsgewandten Modelle sicherlich nicht, weil sich schon heute ein Teil der Welt fragt, was mit Europa los ist. Anderswo setzt man gerade auf die Verwirklichung einer Industriegesellschaft, und in China ist man froh, daß die Erfahrungen der schrecklichen Kulturrevolution der Vergangenheit angehören. China hat unter Einbeziehung des Ausbaus der Kernenergie und der Fusionsforschung einen beispielhaften Weg zur Entwicklung der Weltgemeinschaft aufgezeigt und in Form des Konzeptes der Neuen Seidenstraße den Weg in die Zukunft gewiesen.

Aber es stellt sich die Frage, welchen Preis Europa dafür wird zahlen müssen, daß unsere Politiker auch nur versuchsweise dem Ratschlag von Scharlatanen folgen?

 

 

 




Vehicle-to-Grid (V2G)

Dieses Techno-Kürzel beschreibt keine Energiewandlung wie zum Beispiel “P2H” (Strom zu Wärme) oder “P2G” (Strom zu Gas), sondern meint ein Konzept zur Stromspeicherung. Eine Vielzahl mit dem Netz verbundener E-Fahrzeuge könnte überschüssigen Strom kurzfristig einspeichern und bei Bedarf als Schwarmstrom auch ans Netz zurückgeben. „Bidirektionales Laden“ lautet dafür der Fachbegriff.

Ein großer Vorteil wäre, dass dadurch der aufwändige Bau großer zentraler Stromspeicher reduziert werden könnte. Auch E-Mobile stehen zu über 90 Prozent der Zeit unbenutzt herum. Da könnte man doch deren Akkus nutzen?

Der visionäre Ansatz offenbart Schwächen durch seine Komplexität. Zunächst bedarf es einer Vielzahl an Fahrzeugen, die am System teilnehmen, um tatsächlich Wirkung im Netz zu erzielen. Die Speicher im Auto können nicht im vollen Umfang entladen werden, weil der Nutzer höchstwahrscheinlich auch fahren will. Und damit kommen wir zum kritischen Punkt der Vision, dem Nutzer des E-Mobils, der als Verbraucher auftritt. Also dem mithin unbekannten Wesen. Es legt ein Nutzerverhalten an den Tag, das uneinheitlich und unberechenbar ist. Zunächst wird sich niemand einen Stromer kaufen, um dessen Reichweite durch einen Vertrag mit dem Netzbetreiber einzuschränken und einen Teil der Fahrzeugbatterie als tote Masse durch die Gegend zu fahren. Für das Netzmanagement wird sich der E-Fahrer nicht zuständig fühlen, und das zu Recht.

Die Freiheit des Individualverkehrs besteht nun mal darin, nicht stets zu fahren, sondern stets fahren zu können. Dazu kommt, dass jetzt und wohl auch künftig ein großer Anteil der E-Mobile zu Firmenflotten und Car-Sharing-Verbünden gehören, so dass ihre Nutzung in der Regel nicht vorhersehbar ist und sie stets „vollgetankt“ zur Verfügung stehen müssen.

 

Vision und Preis

Man könnte die Batterie- (korrekt natürlich Akkumulatoren-) nutzung durch den Netzbetreiber finanziell anreizen, durch Vergütung für den gespeicherten Strom oder durch Rabatte beim Ladestrom. Dann wäre allerdings die sinnvollere Variante, sich einen möglichst großen Akku in den Keller oder die Garage zu stellen, was von einer täglichen Kalkulation der geplanten Fahrstrecke oder der Startzeit am Folgetag entbinden würde. Damit kommen wir zum Grundproblem – wer zahlt? Speicher generieren per se keine Wertschöpfung, sie sind verlustbehaftete Stromparkplätze und müssen irgendwie über den Preis abgerechnet werden. Dazu kämen Kosten für Ladesoftware und Leittechnik für die Steuerung hunderttausender Ladestationen in Abhängigkeit der Netzsituation. Schaut man sich die Kosten normaler Ladestationen an, ist der Aufwand beträchtlich und geht pro Stück schnell in die Tausende. Hinzu kommen Kosten für die Elektronik und Vernetzung für das bidirektionale Laden. Möglich ist die Abrechnung über die Netzgebühren, die mit dem weiteren Fortgang der „Wende“ ohnehin der am stärksten steigende Kostenfaktor sind.

Wie ist die technische Realisierbarkeit? Mit dem Projekt „e-SolCar“ gelang bereits 2014 an der Brandenburgisch-Technischen Universität in Cottbus der Nachweis, dass bidirektionales Laden und somit die Nutzung von E-Fahrzeugakkus zur Kurzzeitspeicherung möglich sind. Speziell die Steuerungstechnik für das Ein- und Ausspeichern wurden am Lehrstuhl von Professor Schwarz entwickelt und getestet.

Seitdem gibt es keine weiteren Schritte in Richtung einer breiten Anwendung. Die Voraussetzung einer existierenden großen Anzahl an E-Fahrzeugen ist einfach nicht gegeben. So fehlen natürlich auch die Steuerungstechnik für die Schwarmspeicher beim Netzbetreiber und entsprechende Tarife.

Die Frage, warum in Deutschland trotz der Subventionen so wenig E-Autos verkauft werden, bringt uns zu einer völlig schräg geführten Diskussion. Permanent prügeln Politiker und Journalisten auf die Autoindustrie ein und verlangen höhere Verkaufszahlen ihrer E-Modelle und Hybride. Entscheidend ist jedoch das Käufer- und Verbraucherverhalten und speziell im automobilen Bereich wird niemand eine Kaufentscheidung treffen, die zu einem Neuwagen führt, der teuer ist und schlechtere Gebrauchseigenschaften hat als das Altfahrzeug. Potenzielle Käufer führen die bekannten Gründe an, die vom Kauf eines Stromers abhalten:

  1. Preis, 2. Reichweite, 3. Verfügbarkeit der Ladestationen, 4. Noch unklare Batterielebensdauer und damit unklarer Wiederverkaufswert. Die Hersteller bauen, was der Kunde möchte. Für ausbleibende Kaufentscheidungen die Konzerne verantwortlich zu machen, zeugt vom nur partiell vorhandenen Wirtschaftsverständnis von Politikern und Journalisten.

 

Nachfrage und Angebot oder Quote

Manche Medien machen die bösen Autokonzerne verantwortlich dafür, dass durch ihre aggressive Werbung die Käufer die SUV´s bevorzugen würden. Zweifellos besteht unsere Bevölkerung, wie in anderen Ländern auch, aus einem nicht unerheblichen Anteil von Deppen. Eine Kaufentscheidung zugunsten eines Automobils, die zu den größten Haushaltsausgaben gehört und manche Haushalte an die finanzielle Schmerzgrenze bringt, wird in aller Regel aber gut abgewogen und bedacht. Der 3-Liter-Lupo wurde seinerzeit umfangreich beworben und medial sehr positiv begleitet, ohne dass es der VW-Bestseller wurde. Früher wurde der Kunde sogar König genannt, heute spricht man ihm eigenes Denken ab. Um das Kundenverhalten zu umgehen, sinniert man im Bundeswirtschaftsministerium über eine Quotenregelung für die Hersteller. Adäquat entschied seinerzeit auch die staatliche Plankommission der DDR, dass Weiterentwicklungen des „Trabant“ unterbleiben, da dieser für den Bevölkerungsbedarf ausreichend sei.

Der regelmäßige Verweis auf höhere Verkaufszahlen von E-Mobilen in Asien oder Norwegen ist pauschal und auf unsere Verhältnisse nicht übertragbar. Auch anderswo lebt die Elektromobilität von Subventionen und wenn diese wegfallen, bricht der Boom zusammen. Im März endete in Hongkong die staatliche Förderung, wonach der Absatz im April auf null zurückging – nach noch einigen hundert in den Vormonaten. Auch in Dänemark brach der Absatz nach Subventionskürzungen ein und deren gänzliche Streichung wurde vorerst ausgesetzt.

Gern wird Norwegen als Beispiel angeführt und hier macht die E-Mobilität auch Sinn, zumindest in den Städten. Zum Einen ist die Staatskasse prall genug gefüllt, um üppig zu fördern, zum anderen besteht der Energiemix zu 99 Prozent aus Wasserkraft. Hier werden also tatsächlich Emissionen vermieden. Was kaum erwähnt wird: Die E-Mobilität konzentriert sich auf Oslo und andere Städte, im dünn besiedelten und kalten Land zwischen Gletschern, Schären und Küste wird man noch sehr lange fossil fahren, denn das Reichweitenproblem haben auch die Norweger. Zudem kann man das Verkehrsaufkommen im 5,3–Millionen-Einwohner-Land mit wenig Großindustrie nicht mit Deutschland vergleichen.

Lernen kann man trotzdem, zum Beispiel, dass eine generös geförderte individuelle Mobilität die Straßen in Oslo verstopft und die Fahrgastzahlen im ÖPNV reduziert.

Was für norwegische Emissionen gut ist, erweist sich für die chinesischen als eher kontraproduktiv. Der dortige Energiemix beinhaltet 63 Prozent Kohlestrom und die

Elektromobilität wird gefördert, um lokale Emissionen zu senken. In Summe steigt der Strombedarf und wird überwiegend aus Kohlekraftwerken gedeckt.

 

Kohle im Tank

Wo kommt bei uns der Strom zum Fahren her? Bei Bilanzrechnungen zur Emission von Stromern wird üblicherweise der Mix im Netz zugrunde gelegt. Kann man machen, ist aber nicht korrekt.

Dazu ein Gedankenexperiment: Mario Mustermann biegt nach getaner Arbeit am späten Nachmittag auf den Stellplatz seines Eigenheims ein. Lässig und im tiefen Bewusstsein ökologischer Reinheit klappt er die Wagentür zu, schreitet zum Ladekabel und führt dieses in Richtung der Steckdose.

Halt! Genau jetzt stoppen wir den Gedankenfilm und machen uns ein Bild vom Zustand im Netz. Nehmen wir einen durchschnittlichen Strommix von 70 (konventionell) zu 30 (regenerativ) an und eine vorbildliche Frequenz von 50,000 Hertz. Gemäß Einspeisevorrang im EEG sind alle regenerativen Erzeuger, also hauptsächlich Wind, Sonne und Biomasse, mit der ganzen verfügbaren Kapazität am Netz.

Film weiter: Mustermann steckt den Stecker und startet den Ladevorgang. Damit ergibt sich im Netz eine Frequenzabweichung nach unten, die bei einem einzelnen Fahrzeug vermutlich nicht registrierbar ist. Machen in diesen Minuten aber hunderte oder tausende Mustermänner das gleiche wie Mario, geht die Frequenz merkbar für die Leittechnik der Kraftwerke nach unten. Einige tausendstel Hertz reichen aus, die (vertraglich vom Netzbetreiber gebundene) Primärregelleistung der konventionellen Kraftwerke aufzurufen. Automatisch erhöhen diese ihre Leistung innerhalb eines vorgegebenen Regelbandes und sorgen dafür, dass die Frequenz wieder 50 Hertz erreicht. Fazit: Der Ladestrom kann bilanziell nur konventionellen Ursprungs sein, da der regenerative Strom nicht hochgeregelt werden kann. Natürlich könnte zufällig in diesen Minuten der Wind auffrischen, wahrscheinlicher ist aber, dass am späten Nachmittag die Sonne untergeht und nachts nicht scheinen wird. Zusammen mit der Ökobilanz für die Herstellung der Batterien ist ersichtlich, dass bezogen auf die Gesamtemissionen die E-Fahrzeuge heute kein Fortschritt sind.

Der Traum vom emissionsfreien Elektroverkehr ließe sich nur erfüllen, wenn 100-Prozent-Erneuerbar – wie in Norwegen – schon Realität wären. Solange aber die Sektorkopplung im jetzigen Energiemix vorangetrieben wird, stabilisiert dies die Grund- und Regellast der konventionellen Erzeuger – was ich wiederum gut finde. Ein gut belastetes Netz regelt sich besser und ist damit sicherer.

Was bei der „Energiewende“ schon vor Unausgewogenheit, Wunschdenken und Verdrängung der Realitäten nur so strotzt, erfährt bei der „Verkehrswende“ noch eine Steigerung. Sachliche Diskussionen und pragmatische Lösungsvorschläge sind Mangelware. Die übliche Schwarz-Weiß-Malerei meinungsführender NGO`s wird politisch und medial übernommen. Der Hype ist allerdings nicht neu und kehrt alle paar Jahre wieder. Schon der Halbgott der Journalisten und ehemalige Chef der Hamburger Journalistenschule, Wolf Schneider, schrieb während seiner Zeit bei der „Süddeutschen“ unter der Überschrift „Tod dem Verbrennungsmotor“: „Die Zukunft kann nur dem Elektroauto gehören! . . . Der Verbrennungsmotor ist vermeidbar. Nach der Vernunft wie nach unseren technischen Möglichkeiten gebührt ihm der Tod.“

Das war am 5. Februar 1966.

 

Vision statt Plan

Nüchtern betrachtet wird auch der Verkehr der Zukunft aus einem Mix an Antriebssystemen bestehen. Natürlich kann man Diesel-Pkw zunächst durch Benziner ersetzen, allerdings stehen diese als nächste am Pranger auf Grund ihres höheren CO2-Ausstoßes. Dass Stickoxide giftig sind, CO2 dagegen nicht, spielt dabei keine Rolle. Sicher wird im Kurzstreckenverkehr und in Ballungsgebieten mehr elektrisch gefahren werden. Für den Fernverkehr ist nur die Elektrotraktion auf der Schiene erste Wahl. Was auf Gummi rollt, wird Brennstoff brauchen, der in Teilen natürlich synthetischen oder biogenen Ursprungs sein kann. Beim Schwerlastverkehr führt am Diesel vorerst kein Weg vorbei, desgleichen auf der Schiene im nichtelektrifizierten Bereich.

Will man Emissionen senken, sind Gasantriebe die erste Wahl. Sowohl LPG- (Flüssiggas) als auch CNG- (Erdgas)-Motoren sind technisch ausgereift und bezahlbar. Die Verdichtung des entsprechenden Tankstellennetzes würde Peanuts kosten, verglichen mit einem flächendeckenden Ausbau stromfressender E-Ladestationen, der mit einem notwendigen Netzausbau im Niederspannungsbereich einhergeht. Merkwürdigerweise spielen die Gasantriebe bei allen Visionen zur Verkehrswende keine Rolle.

Anstelle eine realisierbare Strategie zu entwickeln, hantiert die verantwortliche Politik mit Subventionen und Verboten und denkt auf dem Weg zur Planwirtschaft über vorgegebene Quoten nach. Jeder profilneurotische, meist grün lackierte Hinterbänkler im Politikbetrieb und der Großteil der Journalisten vom Fachgebiet Weltrettung hält sich für weiser als Wissenschaftler und die Ingenieure in den Entwicklungsabteilungen der Hersteller. Die verantwortlichen Manager winden sich im Appeasement und im Wissen, dass ihr möglicher Fall ein sehr weicher sein wird.

Sicher ist, dass P2V (Power to Vehicle) wachsen wird. Sinnvolle Anwendungen gibt es zuhauf: Paket- und Pflegedienste, Taxis, Car-Sharing-Fahrzeuge, lokaler Kurier- und Warenverkehr. Dagegen ist V2G nicht mal am Horizont zu sehen.

 




Rundbrief der GWPF vom 28. August 2017

Warum die Überschwemmungen in Houston kein Zeichen von Klimawandel sind

Roy W. Spencer

Es gab schon viele Überschwemmungskatastrophen in der Region um Houston, auch schon Mitte des 19. Jahrhunderts, als die Gegend noch sehr dünn besiedelt war. Im Dezember 1935 war es zu einer massiven Überflutung im Bereich des Stadtzentrums gekommen, als der Pegel bei Buffalo Bayou in Houston das Rekordniveau von 54,4 Fuß [ca. 16,5 m] erreichte. Zum Vergleich: um 6.30 Uhr [Ortszeit] am Montag Morgen lag der Pegelstand an der gleichen Stelle bei 38 Fuß [ca. 11,5 m], also immer noch 16 Fuß [fast 5 m] unter dem Niveau von 1935. Ich bin sicher, dass der Pegel noch steigt. Es gibt keinen Aspekt in der Theorie der globalen Erwärmung, dem zufolge sich die Regen bringenden Wettersysteme langsamer verlagern, wie es derzeit in Texas der Fall ist. Das ist einfach eine Zufallsverteilung. Roy W Spencer 28 August 2017

————————————————

Hurrikan Harvey im Zusammenhang

Judith Curry

Wer auch immer Hurrikan Harvey mit globaler Erwärmung in Zusammenhang bringt, hat keine Grundlage.

Der Zeitraum von 12 Jahren, ohne dass ein starker Hurrikan auf das US-Festland übergetreten ist, ist beendet, mit katastrophalen Auswirkungen in Texas. Vorhersagen von Hurrikan Harvey illustrieren Erkenntnisse erweiterter und langfristiger Hurrikan-Vorhersagen.

Dieser Beitrag analysiert die Vorhersagen bzgl. Hurrikan Harvey, ausgegeben von meinem Unternehmen Climate Forecast Applications Network (CFAN) und auch diejenigen des National Hurricane Center. (…)

Harvey im Zusammenhang

Ich bin sicher, dass Sie nicht überrascht sind zu hören, dass Mancher Harvey mit globaler Erwärmung in Zusammenhang bringt. Wie ungewöhnlich war Harvey? Nun, mit Sicherheit wird er in die Annalen eingehen als der Hurrikan, welcher die rekordlange Zeit ohne ein solches Ereignis beendet hat.

Phil Klotzbach hat eine Liste der Hurrikane Kategorie 4 und 5 zusammengestellt, die auf das US-Festland übergetreten waren:


Diese Liste erinnert uns, wie schlimm es schon einmal war. Abgesehen der furchtbaren Jahre 2004 und 2005 haben wir während der letzten Jahrzehnte ziemliches Glück gehabt.

Die Verbindung von Harvey mit globaler Erwärmung, wer auch immer diesen herzustellen versucht, entbehrt jeder Grundlage.

Harvey wird in die Annalen eingehen für seine fast unglaublich hohen Regenmengen. Die endgültigen Mengen sind noch nicht gefallen, und unglücklicherweise wird es wohl noch einige Tage in Texas regnen, wobei sich die bisher gefallenen Mengen potentiell verdoppeln können. Während riesige Mengen Wasserdampf in Harvey kondensierten, gehen die extrem hohen Regenmengen darauf zurück, dass sich Harvey kaum noch verlagert hat. Dabei liegt er immer noch nahe genug an der Golfküste, um weitere Feuchtigkeit aufzunehmen.

Full post
————————————————

Party in Paris anstatt Vorsorge in Houston

Ron Clutz

Während gewählte Bürokraten über „Null-Kohlenstoff-Fußabdrücke“ schwafeln, wird nichts getan, um sich auf Wetterereignisse vorzubereiten, die es schon immer gegeben hat und zu denen es immer wieder kommen wird. Internationale Abkommen und Konferenzen wie jüngst in Paris leisten nichts, aber auch gar nichts für verwundbare Orte wie Houston.

Man betrachte beispielsweise diesen Beitrag mit dem Titel [übersetzt] „Ein Nachrichtenportal in Texas hat eine Katastrophe vorhergesagt. Jetzt ist sie eingetreten“ (hier). Auszüge daraus:

Die TEXAS TRIBUNE und PROPUBLIKA haben im vorigen Jahr eine mehrteilige Untersuchung veröffentlicht, in der sie unter die Lupe genommen hatten, was passieren würde, falls Houston von einem starken Hurrikan betroffen werden würde.

[Hervorhebung vom Übersetzer]

Die Reporter taten sich mit Wissenschaftlern von verschiedenen Universitäten in Texas zusammen, um Simulationen verschiedener Sturm-Szenarien* durchzuspielen für die viertgrößte Stadt mit seiner rapide wachsenden Bevölkerung, gewaltigen Öl- und Erdgaslagern sowie einer Haupteinrichtung der NASA.

[*Das amerikanische Wort „storm“ lässt sich nicht einfach mit Sturm übersetzen, denn damit sind alle irgendwie extremen Wettervorgänge gemeint. Auch Dauerregen oder im Winter Glatteisregen oder Schnee wird als „storm“ bezeichnet, auch wenn dabei keinerlei Wind aufgetreten war. Der Einfachheit halber bleibe ich aber hier bei der Übersetzung mit „Sturm“. Anm. d. Übers.]

Ergebnis: Die Stadt und ihr Umland sind schrecklich unvorbereitet auf einen starken Hurrikan. Die Infrastruktur für Evakuierungen und Flutkontrolle ist unzureichend. Ein schwerer Sturm würde katastrophale Schäden verursachen und zu einem „ökonomischen und ökologischen Desaster“ führen. Die Serie wurde mit Preisen ausgezeichnet, hat aber keinerlei politische Änderungen oder große neue Investitionen in die Infrastruktur nach sich gezogen.

Houston ist die viertgrößte Stadt des Landes. Der größte Raffinerie- und petrochemische Komplex befindet sich dort, wo Milliarden Gallonen Öl und gefährliche Chemikalien gelagert werden. Und sie ist potentielles Opfer des nächsten großen Hurrikans. Lesen Sie, warum Texas nicht darauf vorbereitet ist. – 3. März 2016

Ein Haus ist in Flammen aufgegangen, nachdem Wasser und Wellen Häuser auf der Galveston-Insel überschwemmt haben. So geschehen durch den Hurrikan Ike am 12. September 2008.

Jetzt starren die gleichen Journalisten nervös auf die Annäherung von Harvey an die texanische Küste. Der Übertritt auf das Festland wird zwischen den Städten Corpus Christy und Houston erwartet [was eingetroffen ist, Anm. d. Übers.], und das Worst-Case-Szenario kann immer noch eintreten.

„Unglücklicherweise könnte es einer Katastrophe bedürfen, bevor Texas aufwacht und erkennt, dass man ein wenig echtes Geld aufbringen muss, um einen der größten Häfen des Landes zu schützen, wo wir das Meiste unseres Öls und unserer Chemikalien lagern“, sagt einer der Autoren, und weiter: „Falls Houston irgendwann von einem Sturm der Stärke von Harvey betroffen wird, könnten die Umweltschäden über diejenigen bei der Havarie der Ölplattform ,Deepwater Horizon‘ hinausgehen“.

Nachdem die Serie erschienen war, traten die Reporter an die gesamte Kongress-Delegation des Staates heran sowie an beide seine US-Senatoren, von denen einer, Ted Cruz, sich als Präsidentschaftskandidat in Stellung brachte. „Keiner dieser Herrschaften kann also von sich behaupten, dass niemand dieses Unheil voraussehen konnte, welches ein großer Sturm für ihre jeweiligen Wahlbezirke heraufbeschwören könnte“, schrieben die Autoren. „Ike sollte eigentlich dieser Weckruf sein, in diesem Zusammenhang endlich tätig zu werden. Alles, was ich mir erhoffe ist, dass hier und jetzt ein neuer Weckruf erschallt und Texas mehr Maßnahmen fordern wird vor dem ,Big One’“.

Full post
————————————————

Warum hat Harvey keine größeren Auswirkungen auf die Energiepreise? Stichwort: Schiefer!

Liam Denning, Bloomberg

Die schockierenden Bilder, wie sich die Hauptstraßen von Houston in Kanäle verwandelt haben im Zuge von Hurrikan Harvey (hier) erinnern an ähnliche Bilder der Fluten der Hurrikane Katrina und Rita vor 12 Jahren an der Golfküste.

Wie alles andere auch ist die Energieindustrie, die sich in diesem Gebiet so konzentriert hat, hart getroffen worden, sowohl damals als auch jetzt. Und dennoch, während das volle Ausmaß der Schäden erst nach diesen Wettervorgängen hervortreten wird, kann es sein, dass die Hurrikan-Saisons 2005 und 2017 zu Marksteinen einer Transformation im US-Energiesektor werden.

Selbst wenn sie es mit noch existenzielleren Problemen zu tun haben, sind Energie-Händler auch mit der Tatsache konfrontiert, dass die Märkte im Großen und Ganzen weitgehend ungestört scheinen.

Die Preise für Benzin und andere Raffinerie-Produkte sind nach oben geschnellt – ein logisches Ereignis angesichts des Umstandes, dass etwa ein Sechstel der US-Raffinierungs-Kapazität zum Stillstand gekommen ist. Und dennoch, die Preise für Öl und Erdgas blieben entweder gleich oder waren bis Montag Morgen sogar gesunken.

Dies ist ein markanter Gegensatz zur Lage vor 12 Jahren. Erdgas illustriert den Punkt. Als Katrina und Rita die Golfregion heimsuchten, sind die Erdgaspreise sprunghaft auf zweistellige Zahlen gestiegen. Heute dagegen liegt der Preis bei weniger als 3 Dollar pro Million BTU.

Noch erstaunlicher allerdings sind die völlig unterschiedlichen Erwartungen hinsichtlich der Auswirkungen, wenn man die Marktlage damals und heute vergleicht. Im Jahre 2005 geschah Folgendes:

Nach den Hurrikanen des Jahres 2005 wurden in den Himmel schießende Preise für Erdgas erwartet, nicht nur unmittelbar nach dem Ereignis, sondern auf Jahre hinaus.


Und hier folgt, wie es sich in diesem Monat entwickelt hat. Man beachte den Unterschied:

Die Auswirkung von Hurrikan Harvey hat sich in den Märkten bzgl. der Zukunft von Benzin kaum bemerkbar gemacht, vor allem im weiteren Verlauf der Kurve:

Indifferent

Der Schlüsselfaktor ist der Schiefer-Boom. In der Anfangsphase bekam er Rückenwind durch stark steigende Erdgaspreise, sowohl infolge des Handels-Superzyklus im Jahrzehnt vor 2014 und Preisspitzen in Verbindung mit Katastrophen wie im Sommer und Herbst 2005. Man erkennt dies in den dramatischen Verschiebungen der Ursprünge der heimischen Gasversorgung.

Zurück auf das Land

Der Schiefer-Boom beschleunigte sich in Texas und Louisiana nach dem Jahr 2005, wobei Appalachia nach dem Jahr 2009 den Stab übernahm. Die Offshore-Erzeugung ist inzwischen eingebrochen.

Die Verschiebung weg von den durch Hurrikane bedrohten Gewässern am Golf von Mexiko bedeutet, dass selbst ein katastrophales Ereignis wie Harvey derzeit kaum Auswirkungen auf die Preisentwicklung hat. Tatsächlich hat sogar die Onshore-Erzeugung in Texas und Louisiana während der letzten Jahre an Bedeutung verloren als Anteil an der heimischen Erdgas-Erzeugung in den USA, nachdem die erste Welle des Schiefer-Booms abgeebbt ist und das Wachstum sich anderswohin verlagert hat, besonders nach Appalachia.

Falls überhaupt belastet Harvey die Erdgasversorgung vor Ort, welche an Bedeutung im vorigen Jahrzehnt nichts verloren hat:

Nachfrage

Während der Anteil von Texas und Louisiana zusammen mit den Offshore-Aktivitäten im Golf von Mexiko an der US-Erdgaserzeugung abgenommen hat, ist der Anteil der Nachfrage relativ konstant geblieben:

Full story
————————————————

Harveys weit reichende Zerstörung testen US-Schiefer

The Wall Street Journal

Dieser Sturm ist der Stärkste, welcher den Bereich nach Beginn der Schiefer-Bohrungen vor einem Jahrzehnt heimgesucht hat, und es könnte dauern, bis sie sich wieder erholt.

HOUSTON – Der Tropensturm Harvey, der stärkste Sturm in Texas seit Langem, hat einen bedeutenden Anteil der Schiefer-Erzeugung des Staates zum Erliegen gebracht, was die Versorgung der USA um 15% zurückgehen ließ.

Jetzt, angesichts des ersten starken Sturmes, welcher ein Test für US-Schiefer ist, lautet die große Frage, wie schnell der Sektor ein Comeback hinlegen kann.

Vor Übertritt von Harvey auf das Festland haben viele große Schiefergas-Erzeuger in den Schieferformationen bei Corpus Christi in Texas alle ihre Öl- und Gasbohrlöcher geschlossen. Erste Schätzungen der Verluste wegen der zum Erliegen gekommenen Produktion belaufen sich auf 400.000 bis 500.000 Barrel pro Tag.

Nachdem die verbreiteten Schäden klarer hervorgetreten waren, sagen viele Analysten, dass es fast sicher ist, dass ein großer Teil, wenn nicht die gesamte Ausbeutung der 1,4 Millionen Barrel pro Tag in der Region zum Erliegen gekommen ist. Schiefer-Produzenten stützen sich auch auf ein riesiges Netzwerk von Energie-Infrastruktur im Wert von Multimilliarden Dollar – von Häfen über Eisenbahnlinien bis zu Pipelines – welches sich während der letzten Jahre entlang der texanischen Küste entwickelt hat. Viele Teile dieses Netzwerkes scheinen ebenfalls ertränkt worden zu sein.

Der Bedarf jener Infrastruktur könnte die Fähigkeit des Schiefers, sich zu erholen, behindern. In der Vergangenheit haben Hurrikane ein Loch in die Energieindustrie von Texas geschlagen, indem sie Offshore-Plattformen im Golf von Mexiko versenkten; aber in vielen Fällen konnten viele dieser großen Installationen schon bald ihren Betrieb wieder aufnehmen, nachdem der Sturm erst einmal abgezogen war.

„Die Auswirkung auf Schiefer könnte sich hinziehen angesichts des Ausmaßes und der Ausdehnung der Überschwemmungen, welche der Schiefer-Logistik zusetzen“, sagte Benny Wong, ein Analyst bei Morgan Stanley.

Der durch Fracking induzierte Boom in Texas hat die Rolle des Staates in der US-Ökonomie gestärkt, was bedeutet, dass falls die Ölfelder und die umgebende Infrastruktur längere Zeit ausfallen, dies außerordentliche ökonomische Auswirkungen auf den Staat haben kann, sagt Joe Brusuelas, Chefökonom einer Beraterfirma.

Das Schieferfeld Eagle Ford in Texas erzeugt 1,4 Millionen Barrel Öl pro Tag, das ist der zweitgrößte Output des Staates nach dem Permian Basin in West-Texas. Seit Beginn der Schiefer-Bohrungen vor einem Jahrzehnt gab es keinen Sturm dieser Größenordnung.

Unternehmen waren am Montag bereits damit beschäftigt, die Schäden an ihren Einrichtungen im Eagle Ford-Feld zu erfassen, welche direkt von Harvey betroffen worden waren. Aber die Ausdehnung des Sturms, der am Samstag vom Hurrikan-Status herabgestuft worden war, sowie der weiter fallende Regen in einigen Gebieten haben diese Bemühungen behindert.

Full post

Übersetzt von Chris Frey EIKE




Stern und FAZ schreiben Fakes über den Hurrican Harvey

Hier zunächst die erwähnten Fake-Artikel von FAZ und Stern (insbesondere der Artikel des Stern kann nur als „unterirdisch“ bezeichnet werden), dann der sachliche Beitrag von Welt N24 sowie schließlich das Interview mit S. Rahmstorf im Heute Journal vom 30.8.2017 (hier). Die Auflagen von Stern, FAZ aber auch vom SPIEGEL befinden sich bekanntlich im freien Fall. Dies sollte den betreffenden Redaktionen eigentlich zu denken geben und ihre Bemühungen dahin lenken, wieder zu berichten „was ist“. Offensichtlich beurteilt man aber die Remedur gegen wegbrechende Leserzahlen etwas anders. Das Motto scheint zu sein „folge dem Mainstream“, „vermeide jede Recherche“ und „mache den Lesern Angst“.

Bild 1: So scheint man es heute bei vielen Zeitungen zur Rettung der Auflagenstärke zu versuchen. Wie sich insbesondere auch die zwangsalimentierten ARD und ZDF in Fake-News überbieten, ist in EIKE bereits wiederholt thematisiert worden, stellvertretend hier, hier, hier, hier, hier, hier, hier, usw. usw. Um mehr Fake News zu erhalten, diesen Begriff ins EIKE-Suchfenster eingeben.

Ob Fake News helfen? Wir erlauben uns nun, nachfolgend die korrekte Berichterstattung über Harvey und vor allem den klimatischen Stellenwert dieser Sturmkatastrophe nachzuholen.

Als erstes ist unübersehbar, dass wir zwar Sinnesorgane für das „Wetter“ aber nicht für „Klima“ haben. Gemäß WMO (World Meteorological Organization)  ist Klima das lokale Mittel von Wetterwerten über mindestens 30 Jahre, also die jeweiligen Mittelwerte von Temperaturen, Niederschlägen, Windgeschwindigkeiten usw.  Klima ist ein statistisches Konstrukt. Es gibt kein Globalklima, nur Klimazonen von tropisch bis polar. Die unterschiedlichen Klimata jeder Klimazone der Erde haben sich seit jeher stets geändert. Konstantes Klima ist naturgesetzlich unmöglich. „Klimaschutz“ ist daher ein fragwürdiger Begriff – um es vorsichtig auszudrücken. Unseren Lesern und natürlich auch den Kollegen M. Latif und S. Rahmstorf ist dies alles bestens bekannt, nicht aber offensichtlich den Redakteuren in Stern und FAZ.

Um etwas über das Klima aussagen zu können, ist also Statistik unverzichtbar. Der Übergang vom Wetter zum Klima ist quasi der Übergang von Sinnesorganen zum menschlichen Gehirn. Solch ein Übergang ist bei vielen Zeitgenossen ein schwieriges und schmerzhaftes Unterfangen und bietet Alarmisten ihr Spielfeld zur Verängstigung von Laien. Schauen wir uns jetzt die einzig relevanten Quellen an, nämlich die Messungen und die daraus abgeleiteten Statistiken – hier speziell die Statistiken über Extremstürme!  Eine frühe Grafik der Hurrican-Forscher Goldenberg und Landsea zeigt die Hurrican-Aktivität des Atlantiks im Zeitraum von 1944 bis 2000.

Bild 1: Atlantische Hurricans in den Jahren 1944 bis 2000, Bild aus S. Goldenberg and C. W. Landsea: The recent increase in Atlantic hurricane activity: causes and implications, Science, 293, 474-478 (2001).

Es ist keine längerfristige Zu- oder Abnahme zu erkennen. Aktueller wird es dann für die Jahre 1950 bis heute, zuerst schauen wir dazu nach „Down Under“

 

Bild 2: Zyklone um Australien zwischen 1969 und 2016, Datenquelle: die offizielle australische Wetterbehörde (hier). Die beiden Regressionsgeraden sind vom Autor aus den Daten erstellt und eingetragen.

Also auch aus Australien sind keine Warnungen zu vermelden. Nun geht es in die Hordhemisphäre, genauer in die USA:

 

Bild 3: US Tornados der stärksten Kategorien zwischen 1950 bis 2016. Bildquelle ustornados.com, die Regressionsgerade ist vom Autor aus den Daten erstellt und eingefügt. Eine zugehörige, frühere Fachpublikation, die die Jahre von 1970 bis 2010 umfasst, ist J. Weinkle et al.: Historical global tropical cyclone landfalls, Journal of Climate, Amarican Meteorological Society, S. 4729-4735 (2012).

Aber auch Deutschland hat Extremstürme, für deren Erfassung der Deutsche Wetterdienst (DWD) verantwortlich zeichnet:

Bild 4: Deutsche Tornados zwischen 2000 und 2014. Bildquelle (hier). Regressionsgerade vom Autor aus den Daten erstellt und eingetragen.

Sogar das IPCC, sicher unverdächtig entwarnende Klima-Aussagen von sich zu geben, schreibt im Jahre 2013 über tropische und außertropische Zyklone

TropischeZyklone [IPCC 2013, AR5, WG1, Kapitel 2.6, Seite 216]: “Current datasets indicate no significant observed trends in global tropical cyclone frequency over the past century and it remains uncertain whether any reported long-term increases in tropical cyclone frequency are robust, after accounting for past changes in observing capabilities.”

Außer-tropischeZyklone [IPCC 2013, AR5, WG1, Kapitel 2.6, Seite 220]: “In summary, confidence in large scale changes in the intensity of extreme extratropical cyclones since 1900 is low. There is also low confidence for a clear trend in storminess proxies over the last century due to inconsistencies between studies or lack of long-term data in some parts of the world (particularly in the SH). Likewise, confidence in trends in extreme winds is low, owing to quality and consistency issues with analysed data.”

Kurz: Es gibt bis heute keine Hinweise, dass Extremstürme die letzen Jahrzehnte zugenommen hätten – weder lokal noch global. Selbstverständlich sind immer irgend welche Ecken in der Welt aufzufinden, in denen irgend eine minore Kategorie von Stürmen diesem Trend widerspricht. Dies sind aber Einzelphänomene, die gemäß dem reinen Zufall zu erwarten sind. Zu Überflutungen wird EIKE in Kürze berichten. Auch zu diesem Thema gibt es nichts Ungewöhnliches. Und natürlich sind die Extremregenfälle in Houston sehr ungewöhnlich. Wie drücken es so schön die Meteorologen aus „Das Gewöhnliche am Wetter ist seine Ungewöhnlichkeit„.

Zu den beiden Herren M. Latif und S. Rahmstorf nur kurz Folgendes: Insbesondere, wenn sich M. Latif äußert, kommt bei vielen Zeitgenossen bereits Humor auf. Sein sachlicher Katastrophenquatsch ist einfach zu lustig. Man erinnert sich an seine Prophezeiung aus dem Jahre 2000, es würde des Klimawandels wegen in Deutschland keine Winter mit Schnee mehr geben (hier). Das hat man davon, wenn man Modelle propagiert, die es ohne künstliche Hilfen noch nicht einmal vermögen die Klimavergangenheit wiederzugeben. Nun liegt M. Latif im Prinzip zwar mit „Die Folgen des Klimawandels sind von einem bestimmten Punkt an nicht mehr beherrschbar“ nicht völlig falsch, aber er hat erwartungsgemäß vergessen die oben zitierten und ihm bestens bekannten Statistiken zu erwähnen. Der bestimmte Punkt von Nichtbeherrschbarkeit wird übrigens immer öfter erreicht. Und daran ist tatsächlich der Mensch schuld, nur nicht so wie es uns M. Latif und S. Ramstorf weismachen wollen. Einer der Gründe: Verantwortungsloses Bauen in Überschwemmungsgebieten – so wie aktuell geschehen in Houston (Texas).

Man erzählt von alarmistisch interessierter Seite inzwischen zwar nicht mehr grob Falsches, sieht aber sorgfältig darauf, dass der gewünschte sachliche Unsinn „Der Mensch ist durch seine CO2 – Emissionen schuld“ unüberhörbar ist und sicher ankommt. Der Redakteur des FAZ-Interviews, Herr S. Eder vom Ressort Gesellschaft kann einem dagegen fast leid tun. Was soll ein Redakteur ohne den geringsten fachlichen Bezug zum Thema denn auch anderes schreiben. Der Teufelskreis ist aber unübersehbar: Unkorrekte Berichterstattung wegen fehlender Recherche sowie fehlenden Fachredakteuren führen zu sinkenden Auflagen und weniger Einnahmen, dies wieder zu noch weniger Recherchen (denn die sind teuer) …..

Oberster Klimawarner S. Rahmstorf geht im Interview nach bekannter Masche vor. Erzählen von sachlichen Zusammenhängen, die zwar korrekt sind, aber meist mit dem Thema nur am Rande zu tun haben, den Laien nicht interessieren und von diesem auch meist nicht verstanden werden. Fachliche Kompetenz soll beim staunenden Zuschauer für den Professor aus Potsdam erzeugt werden. Und wenn es dann ans Eingemachte geht (ist der Klimawandel anthropogen?) verweist Rahmstorf auf Modelle, die – etwas herumeiernd – so etwas zwar nicht so direkt, aber eben irgendwie doch so sagen würden, aber natürlich nur für die Zukunft, versteht sich.

Nun, über Modelle ist weiter oben bereits das Nötige ausgeführt worden. Sie sind keinen Pfifferling für öffentliche TV-Auftritte wert. In den Händen seriöser Forscher können sie dagegen durchaus zur wissenschaftlichen Erkenntnis von Detailfragen beitragen. Ob das Verschweigen von maßgebenden Sachargumenten (hier die oben genannten Messungen und Extremsturmstatistiken) als eine Falschaussage gegenüber der Öffentlichkeit und Verletzung der Berufsethik von beamteten Professoren aufzufassen ist, sei der Beurteilung des Lesers überlassen.




SPIELER AM WERK? Die Energiewende und Grünsprech – Die Kaskadierung

Täglich werden wir mit Begriffen konfrontiert, die im Ergebnis einer als alternativlos gepriesenen Energiewende verwendet werden oder durch sie erst entstanden sind. Wir greifen auch Bezeichnungen auf, die in der allgemeinen Vergrünung in den Alltagsgebrauch überzugehen drohen – in nichtalphabetischer Reihenfolge.

K wie

Kaskadierung, die

Unter einer Kaskade versteht man einen treppenartig ablaufenden Wasserfall, heute auch in der Elektrotechnik eine Hintereinanderschaltung von Bauteilen im Sinne einer Kette. In Reihe geschaltete Batteriezellen kaskadieren, bilden also eine Kaskade und sorgen für höhere Spannung. Unfälle und Havarien können kaskadenförmig ablaufen. Der Bruch des Banqiao-Staudamms im August 1975 in China gilt als das größte Unglück als Folge eines kaskadierenden Schadensereignisses. Auch in der Akrobatik kennt man den Begriff für eine Abfolge wagemutiger Sprünge, ausgeführt vom „Kaskadeur“.

Die hier gemeinte Kaskadierung bezieht sich auf kritische Situationen im Stromnetz, wenn die Maßnahmen eines Übertragungsnetzbetreibers zum Redispatch nicht ausreichen und nachgelagerte Netzbetreiber helfen müssen. Abschaltungen von Verbrauchern oder Erzeugern können so lokal begrenzt bleiben. Dieses Kaskaden-Prinzip ist seit Jahren bewährt, es bedeutet die situative Abkehr vom Normalbetrieb hin zum Störungsmanagement. Ziel ist, einen flächendeckenden Blackout als Folge einer Einzelstörung mit folgendem Dominoeffekt zu verhindern.

Damit sich alle Netzbetreiber auf eine solche Situation vorbereiten können, sind klare Regeln notwendig. Das Forum Netztechnik/Netzbetrieb im VDE (Verband der Elektrotechnik Elektronik Informationstechnik e.V.) erließ dazu mit Wirkung zum 1. Februar 2017 die Anwendungsregel „Kaskadierung von Maßnahmen für die Systemsicherheit von elektrischen Energieversorgungsnetzen“. Ziel ist, den Betrieb auf weiter steigende Aufnahme von Strom aus regenerativen Energieanlagen vorzubereiten.

ANSPRUCH UND WIRKLICHKEIT

„Energiewende“ trifft frostige Wirklichkeit

Neben der Beschreibung der Aufgaben für die Beteiligten und der Kommunikationsstruktur lassen neu gesetzte Vorbereitungs- und Umsetzungszeiten die Stadtwerke und Betreiber von Mittel- und Niederspannungsnetzen ins Grübeln kommen. Der VDE verschärft nicht aus Spaß die Bedingungen, sondern aus Umsicht und Vorsorge in der Kenntnis, wie sich die Schwankungen im Netz vergrößern werden. Auch dieser Verband erkennt, dass weiterer Zubau volatiler Einspeisung die Schwankungen verstärkt und keinesfalls glättet.An die unteren Spannungsebenen sind rund 95 Prozent der regenerativen Erzeugung und der elektrischen Verbraucher angeschlossen. Für fünf Szenarien (vom Netzengpass über die Systembilanzabweichung bis zum schleichenden Spannungskollaps) werden Handlungsfolgen festgelegt, bei denen es zu keinen Verzögerungen kommen darf. Nicht nur Engpässe im Sinne von Mangel müssen beherrscht werden, sondern auch lokaler Überschuss durch (zu) hohe Einspeisung. Für jede Stufe der Kaskade bleiben 12 Minuten. Dieser kurze Zeitraum, in dem einzelne Großkunden oder Netzgebiete abgeschaltet werden müssen, stellt vor allem für kleinere Stadtwerke und Netzbetreiber eine große technische und organisatorische Herausforderung dar. Ist der Finger in dieser Zeit nicht am Knopf oder die Hand nicht auf der Maus, droht die Kaskadierung und die Abschaltung auf der nächsthöheren Spannungsebene – mit weiter reichenden Folgen.

Überlast und Unterlast

Absehbar ist, dass die Maßnahmen zum Redispatch auf der Höchstspannungsebene bald nicht mehr ausreichen werden, auch wenn Erfahrungen und Handlungssicherheit wachsen.

Bisher hatten Stadtwerke und Verteilnetzbetreiber eine Stunde Zeit zum Handeln, nun muss neu organisiert werden. Die Netzbetreiber der unteren Spannungsebenen verfügen nicht über ständig besetzte Leitwarten. Wie man nun lokal den Meldefluss und die Schalthandlungen organisieren soll, ist noch offen. Für die Planspiele läuft seit Februar eine zweijährige Frist. Eventuell können externe Dienstleister herangezogen werden. In jedem Fall sind 12 Minuten zu kurz, den zur Abschaltung anstehenden Kundenkreis, der vorher „diskriminierungsfrei“ nach Kapazität auszuwählen ist, zu informieren. Es können auch Krankenhäuser oder Altenheime sein. Schadenersatzansprüche sind ausgeschlossen. Verbraucher sollten Vorsorge treffen, wie unser Innenminister in seinem „Zivilschutzkonzept“ bereits anregt (s. auch „Dunkelflaute“, S. 24).

Die Umsetzung der neuen VDE-Anwendungsregel wird Kosten verursachen, die in die Netzgebühren einfließen werden. Ein Schluck mehr zu den indirekten Kosten der Energiewende, von denen nicht so gern gesprochen wird.

Niemand weiß, wann, wo und wie oft diese Kaskadierung eintreten wird. Mit den weiteren Außerbetriebnahmen regelfähiger Kraftwerke steigt das Risiko.
Kaskadeuren in der Arena schaut man gern zu, Kaskaden im Netz werden keine Freude verbreiten.

Übernommen von Tichys Einblick hier


Frank Hennig ist Diplomingenieur für Kraftwerksanlagen und Energieumwandlung mit langjähriger praktischer Erfahrung. Wie die Energiewende unser Land zu ruinieren droht, erfährt man in seinem Buch Dunkelflaute oder Warum Energie sich nicht wenden lässt.




Die Gesetze der Mittelwerte: Teil 3, Der durchschnittliche Durchschnitt

Durchschnittliches

Sowohl das Wort als auch das Konzept „Durchschnitt“  sind in der breiten Öffentlichkeit sehr viel Verwirrung und Missverständnis unterworfen und sowohl als Wort als auch im Kontext ist eine überwältigende Menge an „lockerem Gebrauch“ auch in wissenschaftlichen Kreisen zu finden, ohne die Peer-Reviewed-Artikel in Zeitschriften und wissenschaftlichen Pressemitteilungen auszuschließen.

In Teil 1 dieser Serie lasen Sie meine Auffrischung über die Begriffsinhalte von Durchschnitten, Mittelwerten und Beispiele dazu. Entspricht Ihr Hintergrundwissen bezüglich Mathematik oder Wissenschaft dem großen Durchschnitt der Normalbürger, schlage ich vor, dass Sie einen schnellen Blick auf die Grundlagen in Teil 1 [Teil 1 hier übersetzt] und dann Teil 2 [Teil 2 hier übersetzt] werfen, bevor Sie fortfahren.

 

Warum ist es eine mathematische Sünde, eine Reihe von Durchschnittswerten zu mitteln?

„Der Umgang mit Daten kann manchmal Verwirrung verursachen. Ein oft gemachter Fehler ist es, Durchschnittswerte zu mitteln. Dies ist oft zu sehen, wenn versucht wird, regionale Werte aus Landes- oder Kreisdaten abzuleiten“. – Was man mit Daten nicht machen darf: Durchschnittswerte zu mitteln.

„Ein Kunde hat mich heute gebeten, einen“ Durchschnitt der Durchschnittswerte „zu einigen seiner Leistungsberichten hinzuzufügen. Ich gebe offen zu, dass ein nervöses und hörbares Stöhnen meinen Lippen entrang, als ich mich in Gefahr fühlte, hilflos in die fünfte Dimension von „Simpsons Paradox“ zu stürzen – Anders ausgedrückt: Kann die Mittelung der Mittelwerte der verschiedenen Populationen den Durchschnitt der zusammengefassten Bevölkerung darstellen?“- Ist der Durchschnitt der Durchschnittswerte korrekt? (Hinweis: NEIN!)

Simpsons Paradoxon … ist ein Phänomen der Wahrscheinlichkeiten und Statistik, in dem ein Trend in verschiedenen Datengruppen zu erkennen ist, aber verschwindet oder sich umkehrt, wenn diese Gruppen kombiniert werden. Es wird manchmal auch als Umkehrparadox oder Verschmelzungsparadox angegeben. „- siehe Wiki.de “Simpsons Paradox

Durchschnittliche Mittelwerte sind nur gültig, wenn die Sätze von Datengruppen, Kohorten, Anzahl der Messungen – alle gleich groß sind (oder fast gleich groß) und die gleiche Anzahl von Elementen enthalten, denselben Bereich repräsentieren, die gleiche Lautstärke, die gleiche Anzahl von Patienten, die gleiche Anzahl von Meinungen und, wie bei allen Durchschnittswerten, sind die Daten selbst physisch und logisch homogen (nicht heterogen) und physisch und logisch kommensurabel (nicht inkommensurabel). [wem dies unklar ist, bitte schauen Sie noch mal Teil 1]

Zum Beispiel, hat man vier Klassen der 6. Klasse, zu denen jeweils genau 30 Schüler gehören und wollte nun die durchschnittliche Größe der Schüler finden, könnte man über es zwei Wege berechnen: 1) Durchschnitt jeder Klasse durch die Summierung der Größen der Schüler Dann finden Sie den Durchschnitt durch Division mit 30, dann summieren Sie die Mittelwerte und teilen sie durch vier, um den Gesamtdurchschnitt zu bekommen – ein Durchschnitt der Mittelwerte oder 2), Sie kombinieren alle vier Klassen zusammen für einem Satz von 120 Studenten, Summieren die Größen und teilen durch 120. Die Ergebnisse sind gleich.

Das gegenteilige Beispiel sind vier Klassen von 6. Klasse Schülern, die alle unterschiedlich groß sind und jeweils unterschiedliche Klassenstärken haben: 30, 40, 20, 60 Schüler. Die Suche nach den Mittelwerten der vier Klassen- und dann Mittelung der Mittelwerte ergibt eine Antwort – ganz anders als die Antwort, als wenn man die Größe von allen 150 Schülern summiert und dann durch 150 teilt.

Warum? Das liegt daran, dass die einzelnen Schüler der Klasse mit nur 20 Schülern und die einzelnen Schüler der Klasse von 60 Schülern unterschiedliche, ungleiche Auswirkungen auf den Gesamtdurchschnitt haben. Um für den Durchschnitt gültig zu sein, sollte jeder Schüler den 0,66ten Anteil des Gesamtdurchschnitts repräsentieren [0,66 = 1/150].

Wenn nach Klasse gemittelt wird, steht jede Klasse für 25% des Gesamtdurchschnitts. So würde jeder Schüler in der Klasse von 20 Schülern für 25% / 20 = 1,25% des Gesamtdurchschnitts zählen, während jeder Schüler in der Klasse von 60 jeweils nur für 25% / 60 = 0,416% des Gesamtdurchschnitts steht. Ebenso zählen die Schüler in den Klassen von 30 und 40 jeweils für 0,83% und 0,625%. Jeder Schüler in der kleinsten Klasse würde den Gesamtdurchschnitt doppelt so stark beeinflussen wie jeder Schüler in der größten Klasse – im Gegensatz zu dem Ideal eines jeden Schülers, der im Durchschnitt gleichberechtigt ist.

Es gibt Beispiele dafür in den ersten beiden Links für die Quoten, die in diesen Abschnitt vorgestellt wurden. (Hier und hier)

Für unsere Leser in Indiana (das ist einer der Staaten in den USA), konnten wir das beim Pro-Kopf Einkommen im Indianapolis Metropol Bereich erkennen:

Informationen zum Pro-Kopf-Einkommen vom Indiana Business Research Center und hier deren Artikel mit dem Titel: „Was man mit Daten nicht machen darf: Durchschnittswerte zu mitteln.

Wie Sie sehen können, mittelt man die Durchschnittswerte der Landkreise, bekommt man ein Pro-Kopf Einkommen von $ 40,027, aber zuerst kumulieren und dann mitteln gibt die wahre (wahrere) Zahl von $ 40.527. Dieses Ergebnis hat einen Unterschied – einen Fehler – von 1,36%. Von Interesse für diejenigen in Indiana, nur die Top drei der Verdiener in den Landkreisen haben ein Pro-Kopf-Einkommen, dass höher ist als der Landesdurchschnitt nach jedem Rechenweg und acht Landkreise liegen unter dem Durchschnitt.

Das mag trivial für Sie sein, aber bedenken Sie, dass verschiedene Behauptungen von „auffallenden neuen medizinischen Entdeckungen“ und „dem heißesten Jahr überhaupt“ nur diese Art von Unterschieden in den Rechenwegen basieren, die im Bereich der einstelligen oder sogar Bruchteilen von Prozentpunkten liegen, oder ein Zehntel oder ein Hundertstel Grad.

Um das der Klimatologie zu vergleichen, so reichen die veröffentlichten Anomalien aus dem 30-jährigen Klima- Referenzzeitraum (1981-2011) für den Monat Juni 2017 von 0,38 ° C (ECMWF) bis 0,21 ° C (UAH), mit dem Tokyo Climate Center mit einem mittlerem Wert von 0,36 ° C. Der Bereich (0,17 ° C) beträgt fast 25% des gesamten Temperaturanstiegs für das letzte Jahrhundert. (0,71ºC). Selbst bei Betrachtung nur den beiden höchsten Werten: 0,38 ° C und 0,36 ° C, ergibt die Differenz von 0,02 ° C bereits 5% der Gesamtanomalie. [Kann man diesen Unterschied merken? – der Übersetzer]

Wie genau diese Mittelwerte im Ergebnis dargestellt werden, ist völlig unerheblich. Es kommt überhaupt nicht darauf an, ob man absolut Werte oder Anomalien schätzt – die Größe des induzierten Fehlers kann riesig sein

 

Ähnlich, aber nicht identisch, das ist Simpsons Paradox.

Simpsons Paradox

Simpsons Paradox, oder korrekter der Simpson-Yule-Effekt, ist ein Phänomen, das in Statistiken und Wahrscheinlichkeiten (und damit mit Mittelwerten) auftritt, oft in medizinischen Studien und verschiedenen Zweigen der Sozialwissenschaften zu sehen, in denen ein Ergebnis (z. Bsp. ein Trend- oder Auswirkungs-Unterschied) dargestellt wird, der beim Vergleich von Datengruppen verschwindet oder sich umkehrt, wenn die Gruppen (von Daten) kombiniert werden.

Einige Beispiele mit Simpsons Paradox sind berühmt. Eine mit Auswirkungen auf die heutigen heißen Themen behauptete Grundlage über die Anteile von Männer und Frauen bei den zum Studium an der UC Berkeley zugelassenen Bewerbern.

[Die 1868 gegründete University of California, Berkeley, gehört zu den renommiertesten Universitäten der Welt.]

Hier erklärt es einer der Autoren:

„Im Jahr 1973 wurde UC Berkeley für geschlechtsspezifische Regeln verklagt, weil ihre Zulassungszahlen zum Studium offensichtliche Nachteile gegen Frauen zeigen.

UCB Bewerber
Applicants
Zugelassen
Admitted
Männer 8442 44%
Frauen 4321 35%

Statistischer Beweis für die Anklage (Tabelle abgetippt)

Männer waren viel erfolgreicher bei der Zulassung zum Studium als Frauen und damit führte es Berkeley zu einer der ersten Universitäten, die für sexuelle Diskriminierung verklagt werden sollten. Die Klage scheiterte jedoch, als Statistiker jede Abteilung getrennt untersuchten. Die Fachbereiche haben voneinander unabhängige Zulassungssysteme, daher macht es Sinn, sie separat zu überprüfen – und wenn Sie das tun, dann sie scheinen eine Vorliebe für Frauen zu haben.“

In diesem Fall gaben die kombinierten (amalgamierten) Daten über alle Fachbereiche hinweg keine informative Sicht auf die Situation.

Natürlich, wie viele berühmte Beispiele, ist die UC Berkeley Geschichte eine wissenschaftliche Legende – die Zahlen und die mathematischen Phänomen sind wahr, aber es gab nie eine Klage wegen Benachteiligung von Geschlechtern. Die wahre Geschichte finden sie hier.

Ein weiteres berühmtes Beispiel für Simpsons Paradox wurde (mehr oder weniger korrekt) auf der langlaufenden TV-Serie Numb3rs vorgestellt. (Ich habe alle Episoden dieser Serie über die Jahre hinweg gesehen, einige öfter). Ich habe gehört, dass einige Leute Sportstatistiken mögen, also ist dieses etwas für Sie. Es „beinhaltet die durchschnittlichen Leistungswerte des Schlägers von Spielern im Profi-Baseball. Es ist möglich, dass ein Spieler in einer Reihe von Jahren einen höheren Durchschnitt der Abschlagwerte hat als ein anderer Spieler, obwohl er in all diesen Jahren nur einen niedrigeren Durchschnitt erreichte.“

Diese Tabelle zeigt das Paradox:

In jedem einzelnem Jahr erreichte David Justice einen etwas besseren Abschlag – Durchschnitt, aber wenn die drei Jahre kombiniert werden, hat Derek Jeter [auch tatsächlich ein Baseballspieler, Jg. 1974] die etwas bessere Statistik. Dies ist das Paradox von Simpson, die Ergebnisse werden umgekehrt, je nachdem ob mehrere Gruppen von Daten separat oder kumuliert betrachtet werden.

 

Klimatologie

In der Klimatologie tendieren die verschiedenen Gruppen die Daten über längere Zeiträume zu betrachten, um die Nachteile der Mittelungsdurchschnitte zu vermeiden. Wie wir in den Kommentaren sehen, werden verschiedene Vertreter die verschiedenen Methoden gewichten und ihre Methoden verteidigen.

Eine Gruppe behauptet, dass sie überhaupt nicht mitteln – sie engagieren sich in „räumlicher Vorhersage“, die irgendwie magisch eine Vorhersage hervorbringt, die sie dann einfach als die globale durchschnittliche Oberflächentemperatur markieren (während sie gleichzeitig bestreiten, eine Mittelung durchgeführt zu haben). Sie fangen natürlich mit täglichen, monatlichen und jährlichen Durchschnitten an – aber das sind keine echten Mittelwerte…. mehr dazu später.

Ein anderer Experte mag behaupten, dass sie definitiv keine Durchschnittswerte der Temperaturen bilden – nur den Durchschnitt von Anomalien. Das heißt, sie berechnen erst die Anomalien und dann mitteln sie diese. Wenn sie energisch genug befragt werden, dann wird diese Fraktion zugeben, dass die Mittelung längst durchgeführt wurde, die lokalen Stationsdaten – die tägliche durchschnittliche „trockene“ [dry-bulb] -Temperatur – wird wiederholt gemittelt, um monatliche Mittelwerte zu erreichen, dann Jahresdurchschnitte. Manchmal werden mehrere Stationen gemittelt, um einen „Messzellen-Durchschnitt“ zu erreichen und dann werden diese jährlichen oder klimatischen Mittel von dem gegenwärtigen absoluten Temperaturdurchschnitt subtrahiert (monatlich oder jährlich, je nach Prozess), um einen Rest zu erhalten, der dann als sogenannte „Anomalie“ bezeichnet wird – oh, dann sind die Durchschnittswerte der Anomalien „gedurchschnittet“ (gemittelt).

Die Anomalien können oder können nicht, je nach Berechnungssystem, tatsächlich gleiche Flächen der Erdoberfläche darstellen. [Siehe den ersten Abschnitt für den Fehler bei der Mittelung von Durchschnittswerten, die nicht den gleichen Bruchteil des kumulierten Ganzen darstellen (~präsentieren)]. Diese Gruppe von Experten und fast alle anderen, verlassen sich auf „nicht echte Durchschnittswerte“ an der Wurzel ihrer Berechnungen.

Die Klimatologie hat ein Mittelungsproblem, aber das echte Problem ist nicht so sehr das, was oben diskutiert wurde. In der Klimatologie ist die tägliche Durchschnittstemperatur, die bei Berechnungen verwendet wird, kein Durchschnitt der Lufttemperaturen, die während der letzten 24-Stunden-Periode bei der Wetterstation erlebt oder aufgezeichnet wurden. Es ist das arithmetische Mittel der niedrigsten und höchsten aufgezeichneten Temperaturen (Lo und Hi, das Min Max) für den 24-Stunden-Zeitraum. Es ist zum Beispiel nicht der Durchschnitt aller stündlichen Temperaturaufzeichnungen, auch wenn sie aufgezeichnet und berichtet werden. Egal wie viele Messungen aufgezeichnet werden, der Tagesdurchschnitt wird berechnet, indem man den Lo und den Hi summiert und durch zwei teilt.

 

Macht das einen Unterschied? Das ist eine heikle Frage.

Die Temperaturen wurden als hoch und niedrig (Min-Max) für 150 Jahre oder mehr aufgezeichnet. Das ist genau so, wie es gemacht wurde und um konsequent zu bleiben, so macht man es auch heute noch.

Ein Daten-Download von Temperaturaufzeichnungen für die Wetterstation WBAN: 64756, Millbrook, NY, für Dezember 2015 bis Februar 2016 enthält alle fünf Minuten eine Temperaturablesung. Der Datensatz enthält Werte für „DAILYMaximumDryBulbTemp“ und „DAILYMinimumDryBulbTemp“, gefolgt von „DAILYAverageDryBulbTemp“, alles in Grad Fahrenheit. Die „DAILYAverageDryBulbTemp“ durchschnittliche trockene Temperatur ist das arithmetische Mittel der beiden vorhergehenden Werte (Max und Min). Dieser letzte Wert wird in der Klimatologie als die tägliche durchschnittliche Temperatur verwendet. Für einen typischen Dezembertag sehen die aufgezeichneten Werte so aus:

Täglich Max 43 F – Täglich Min 34 F – Täglicher Durchschnitt 38F (das arithmetische Mittel ist eigentlich 38,5, aber der Algorithmus rundet x,5 ab auf x)

Allerdings ist der Tagesdurchschnitt aller aufgezeichneten Temperaturen: 37.3 F… Die Differenzen für diesen einen Tag:

Unterschied zwischen dem berichteten Tagesdurchschnitt von Hi-Lo und dem tatsächlichen Durchschnitt der aufgezeichneten Hi-Lo-Zahlen ist = 0,5 ° F aufgrund des Rundungsalgorithmus.

Unterschied zwischen dem angegebenen Tagesdurchschnitt und dem korrekteren Tagesdurchschnitt unter Verwendung aller aufgezeichneten Temperaturen = 0,667 ° F

Andere Tage im Januar und Februar zeigen einen Differenzbereich zwischen dem gemeldeten täglichen Durchschnitt und dem Durchschnitt aller aufgezeichneten Temperaturen von 0,1 ° F bis 1,25 ° F bis zu einem hohen Wert von 3,17 ° F am 5. Januar 2016.

Täglicher Durchschnittswert aller Aufzeichnungen, korrekte Rechnung minus des aufgezeichneten Durchschnitts.

Dies ist kein wissenschaftliches Sampling – aber es ist eine schnelle Fallstudie, die zeigt, dass die Zahlen von Anfang an gemittelt werden – als tägliche Durchschnittstemperaturen, die offiziell an den Oberflächenstationen aufgezeichnet wurden. Die unmodifizierten Grunddaten selbst, werden in keinem Fall für die Genauigkeit oder Präzision überhaupt berechnet [zur Berechnung herangezogen] – aber eher werden berechnet „wie wir das schon immer getan haben“ – der Mittelwert zwischen den höchsten und niedrigsten Temperaturen in einer 24-Stunden-Periode – das gibt uns nicht einmal, was wir normalerweise als „Durchschnitt“ erwarten würden für die Temperatur an diesem Tag „- aber irgendeinen anderen Wert – ein einfaches Mittel zwischen dem Daily Lo und dem Daily Hi, das, wie die obige Grafik offenbart, ganz anders zu sein scheint. Der durchschnittliche Abstand von Null [Abweichung, d.h. wie es korrekt wäre] für die zweimonatige Probe beträgt 1,3 ° F. Der Durchschnitt aller Unterschiede, unter Beachtung des Vorzeichens beträgt 0,39 ° F [also in Richtung wärmer].

Die Größe dieser täglichen Unterschiede? Bis zu oder [sogar] größer als die gemeinhin gemeldeten klimatischen jährlichen globalen Temperaturanomalien. Es spielt keine Rolle, ob die Unterschiede nach oben oder unten zählen – es kommt darauf an, dass sie implizieren, dass die Zahlen, die verwendet werden, um politische Entscheidungen zu beeinflussen, nicht genau berechnete, grundlegende täglichen Temperaturen von einzelnen Wetterstationen sind. Ungenaue Daten erzeugen niemals genaue Ergebnisse. Persönlich glaube ich nicht, dass dieses Problem bei der Verwendung von „nur Anomalien“ verschwindet (was einige Kommentatoren behaupten) – die grundlegenden Daten der ersten Werteebene sind falsch, unpräzise, ungenau berechnet.

 

Aber, aber, aber … Ich weiß, ich kann die Maulerei bereits jetzt hören. Der übliche Chor von:

  1. Am Ende gleicht sich alles aus (tut es nicht)
  2. Aber was ist mit dem Gesetz der großen Zahlen? (Magisches Denken)
  3. Wir sind nicht durch absolute Werte besorgt, nur durch Anomalien.

Die beiden ersten Argumente sind fadenscheinig.

Das letzte will ich ansprechen. Die Antwort liegt in dem „Warum“ der oben beschriebenen Unterschiede. Der Grund für den Unterschied (außer der einfachen Auf- und Abwärtsbewegung von Bruchteilen in ganzem Grad) ist, dass die Lufttemperatur an einer beliebigen Wetterstation nicht normal verteilt wird … das heißt, von Minute zu Minute oder Stunde zu Stunde, keiner würde eine „normal Verteilung“ sehen, die sich so darstellt:

Normal-oder-Standard-Verteilung

Wenn die Lufttemperatur normalerweise so über den Tag verteilt wäre, dann wäre die aktuell verwendete tägliche durchschnittliche trockene Temperatur – das arithmetische Mittel zwischen dem Hi und Lo – korrekt und würde sich nicht vom täglichen Durchschnitt aller aufgezeichneten Temperaturen für den Tag unterscheiden.

Aber echte Oberflächentemperaturen der Luft sehen viel mehr aus, wie diese drei Tage von Januar und Februar 2016 in Millbrook, NY:

Reale stündliche Temperaturen

Die Lufttemperatur an einer Wetterstation startet nicht am Lo Wert – um gleichmäßig und stetig zum Hi aufzusteigen und sich dann gleichmäßig zum nächsten Lo zurück zu schleichen. Das ist ein Mythos – jeder der sich draußen aufhält (Jäger, Seemann, Camper, Forscher, sogar Jogger) kennt diese Tatsache. Doch in der Klimatologie werden die tägliche Durchschnittstemperatur – und konsequent alle nachfolgenden wöchentlichen, monatlichen, jährlichen Durchschnitte – auf der Grundlage dieser falschen Idee berechnet.

Zuerst nutzten die Wetterstationen Min-Max-Aufnahmethermometer und wurden oft nur einmal pro Tag überprüft und die Aufnahme-Tabs zu diesem Zeitpunkt zurückgesetzt – und nun so weitergeführt aus Respekt für Konvention und Konsistenz.

Wir können nicht zurückkehren und die Fakten rückgängig machen – aber wir müssen erkennen, dass die täglichen Mittelwerte aus diesen Min-Max / Hi-Lo-Messwerten nicht die tatsächliche tägliche Durchschnittstemperatur darstellen – weder in Genauigkeit noch in Präzision. Dieses beharren auf Konsistenz bedeutet, dass die Fehlerbereiche, die in dem obigen Beispiel dargestellt sind, alle globalen durchschnittlichen Oberflächentemperaturberechnungen beeinflussen, die Stationsdaten als Quelle verwenden.

Anmerkung: Das hier verwendete Beispiel ist von Wintertagen in einem gemäßigten Klima. Die Situation ist repräsentativ, aber nicht unbedingt quantitativ – sowohl die Werte als auch die Größen der Effekte werden für verschiedene Klimazonen [… Gegenden], verschiedene Stationen, verschiedene Jahreszeiten unterschiedlich sein. Der Effekt kann durch statistische Manipulation oder durch Reduzierung der Stationsdaten zu Anomalien nicht vermieden werden.

Alle Anomalien, die durch Subtrahieren von klimatischen Durchschnittswerten von aktuellen Temperaturen abgeleitet werden, werden uns nicht mitteilen, ob die durchschnittliche absolute Temperatur an einer Station steigt oder fällt (oder um wie viel). Es wird uns nur sagen, dass der Mittelwert zwischen den täglichen Hochtemperaturen steigt oder fällt – was etwas ganz anders ist. Tage mit sehr niedrigen Tiefs für eine Stunde oder zwei am frühen Morgen gefolgt von hohen Temperaturen für die meiste Zeit des restlichen Tages haben die gleichen Max-Min Mittelwerte wie Tage mit sehr niedrigen Tiefs für 12 Stunden und eine kurze heiße Spitze am Nachmittag. Diese beiden Arten von Tagen, haben nicht die gleiche tatsächliche durchschnittliche Temperatur. Anomalien können den Unterschied nicht erhellen. Ein Klimawandel von einem zum anderen wird in Anomalien nicht auftauchen. Weder noch würde die Umwelt von einer solchen Verschiebung stark betroffen sein.

 

Können wir etwas erfahren, aus der Nutzung dieser ungenauen „täglichen Durchschnittswerte“ und alle anderen von ihnen abgeleiteten Zahlen?

Es gibt einige die in Frage stellen, dass es tatsächliche eine globale durchschnittliche Oberflächentemperatur gibt. (Siehe „Gibt es eine globale Temperatur?“)

Auf der anderen Seite, formulierte Steven Mosher in seinem Kommentar kürzlich so treffend:

Sind abgeleitete Temperaturen bedeutungslos?

Ich denke, dass es schlecht ist, wenn Alarmisten versuchen, die kleine Eiszeit und die Mittelalterliche Warmzeit zu löschen … WUWT wird die ganze Geschichte leugnen wollen. Die globale Temperatur ist vorhanden. Es hat eine genaue physikalische Bedeutung. Es ist diese Bedeutung, die uns erlaubt zu sagen …  Die kleine Eiszeit war kühler als heute … es ist die Bedeutung, die es uns erlaubt, zu sagen, dass die die Tagseite des Planeten wärmer ist als die Nachtseite … die gleiche Bedeutung, die uns erlaubt zu sagen, dass Pluto kühler ist als die Erde und dass Merkur wärmer ist.

Was ein solcher globaler Mittelwert, basierend auf einen fragwürdigen abgeleiteten „Tagesdurchschnitt“, uns nicht sagen kann, ist oder war es in diesem Jahr ein Bruchteil eines Grades wärmer oder kühler?

Der Berechnungsfehler – der Messfehler – der am häufigsten verwendeten Station der täglichen durchschnittlichen Durchschnittstemperatur ist in der Größe gleich (oder nahezu gleich groß) wie die langfristige globale Temperaturänderung. Die historische Temperaturaufzeichnung kann nicht für diesen Fehler korrigiert werden. Moderne digitale Aufzeichnungen würde eine Neuberechnung der Tagesmittelwerte von Grund auf neu erfordern. Selbst dann würden die beiden Datensätze quantitativ nicht vergleichbar sein – möglicherweise nicht einmal qualitativ.

 

Also, „Ja, es macht was aus“

Es ist sehr wichtig, wie und was man mittelt. Es macht was aus, den ganzen Weg nach oben und unten durch das prächtige mathematische Wunderland, was die Computerprogramme darstellen, die diese grundlegenden digitalen Aufzeichnungen von Tausenden von Wetterstationen auf der ganzen Welt lesen und sie zu einer einzigen Zahl verwandeln.

Es macht vor allem dann etwas aus, wenn diese einzelne Zahl dann später als Argument verwendet wird, um die breite Öffentlichkeit zu treffen und unsere politischen Führer zu bestimmten gewünschten politischen Lösungen zu bringen (~ zu zwingen), die große – und viele glauben negative – Auswirkungen auf die Gesellschaft haben werden.

 

Schlussfolgerung:

Es reicht nicht aus, den Durchschnitt eines Datensatzes korrekt mathematisch zu berechnen.

Es reicht nicht aus, die Methoden zu verteidigen, die Ihr Team verwendet, um die [oft-mehr-missbrauchten-als-nicht] globalen Mittelwerte von Datensätzen zu berechnen.

Auch wenn diese Mittelwerte von homogenen Daten und Objekten sind und physisch und logisch korrekt sind, ein Mittelwert ergibt eine einzelne Zahl und kann nur fälschlicherweise als summarische oder gerechte Darstellung des ganzen Satzes, der ganzen Information angenommen werden.

Durchschnittswerte, in jedem und allen Fällen, geben natürlicherweise nur einen sehr eingeschränkten Blick auf die Informationen in einem Datensatz – und wenn sie als Repräsentation des Ganzen akzeptiert werden, wird sie als Mittel der Verschleierung fungieren, die den Großteil verdecken und die Information verbergen. Daher, anstatt uns zu einem besseren Verständnis zu führen, können sie unser Verständnis des zu untersuchenden Themas reduzieren.

In der Klimatologie wurden und werden tägliche Durchschnittstemperaturen ungenau und unpräzise aus den täglichen minimalen und maximalen Temperaturen berechnet, die damit Zweifel an den veröffentlichten globalen durchschnittlichen Oberflächentemperaturen hervorrufen.

Durchschnitte sind gute Werkzeuge, aber wie Hämmer oder Sägen müssen sie korrekt verwendet werden, um wertvolle und nützliche Ergebnisse zu produzieren. Durch den Missbrauch von Durchschnittswerten verringert sich das Verständnis des Themas eher, als das es die Realität abbildet.

 

UPDATE:

Diejenigen, die mehr Informationen bekommen wollen, über die Unterschiede zwischen Tmean (das Mittel zwischen Täglichem Min und Max) und Taverage (das arithmetische Mittel aller aufgezeichneten 24 stündlichen Temperaturen – einige verwenden T24 dafür) – sowohl quantitativ als auch in jährlichen Trends beziehen sich beide auf die Spatiotemporal Divergence of the Warming Hiatus over Land Based  on Different Definitions of Mean Temperature von Chunlüe Zhou & Kaicun Wang  [Nature Scientific Reports | 6:31789 | DOI: 10.1038/srep31789].[~Räumliche und zeitliche Abweichungen der Erwärmungspause über Land auf der Grundlage verschiedener Definitionen der mittleren Temperatur] von Chunlüe Zhou & Kaicun Wang [Nature Scientific Reports | 6: 31789 | DOI: 10.1038 / srep31789]. Im Gegensatz zu Behauptungen in den Kommentaren, dass Trends dieser unterschiedlich definierten „durchschnittlichen“ Temperaturen gleich sind, zeigen Zhou und Wang diese Figur und Kation: (h / t David Fair)

Abbildung 4. Die (a, d) jährliche, (b, e) Kälte und (c, f) warme saisonale Temperaturtrends (Einheit: ° C / Jahrzehnt) aus dem Global Historical Climatology Network-Daily Version 3.2 (GHCN-D , [T2]) und die „Integrated Surface Database-Hourly“ (ISD-H, [T24]) sind für 1998-2013 gezeigt. Die GHCN-D ist eine integrierte Datenbank der täglichen Klimazusammenfassungen von Land-Oberflächenstationen auf der ganzen Welt, die Tmax und Tmin Werte von rund 10.400 Stationen von 1998 bis 2013 zur Verfügung stellt. Die ISD-H besteht aus globalen stündlichen und synoptischen Beobachtungen bei etwa 3400 Stationen aus über 100 Originaldatenquellen. Die Regionen A1, A2 und A3 (innerhalb der grünen Regionen, die in der oberen linken Teilfigur gezeigt sind) werden in dieser Studie ausgewählt.

[Klicken Sie hier für ein Bild in voller Größe]  in Nature

Erschienen auf WUWT am 24.07.2017

Übersetzt durch Andreas Demmig

https://wattsupwiththat.com/2017/07/24/the-laws-of-averages-part-3-the-average-average/

 




Beim Kauf eines Zweitwagens ist ein elektrischer Antrieb quasi patriotische Pflicht

Bayernkurier 04.12.2015: [5] Claudia Roth auf Abwegen
Harte Kritik an Bundestagsvizepräsidentin Claudia Roth hat der CSU-Landtagsabgeordnete Florian Herrmann geäußert. Sie ist Ende November bei einer Anti-AfD-Demonstration mitmarschiert, bei der „Deutschland, Du mieses Stück Scheiße“ und „Deutschland verrecke“ skandiert wurde. Obwohl sie das auch gehört haben muss, hat sie sich bisher nicht davon distanziert – im Gegensatz zu anderen Beteiligten.
Die GRÜNE Europaabgeordnete Rebecca Harms nannte den Nationalstaat eine „gefährliche und hochriskante Idee“, die man dem Volk über die EU austreiben müsse [9].
Und Frau Göring Eckhardt will anscheinend gar nicht wissen, was unser Staatsgebiet umfasst und listet die „Ossis“ (zwischen denen sie selbst geboren wurde) immer noch nicht zu den wirklichen Bürgern, sondern nach den Migranten, wohl weil dieser Bevölkerungsanteil von Deutschland ihre Ideologie nicht überall bedingungslos mitträgt:
Frankfurter Rundschau, 11.09.2015 : Ossi-Kommentar sorgt für Aufruhr
… „30 Prozent der Kinder und Jugendlichen heute haben bereits einen Migrationshintergrund und dabei hab ich die Ossis jetzt noch nicht mitgerechnet.“ Dieser Satz von Katrin Göring-Eckardt (Grüne), in der Generaldebatte im Bundestag am Mittwoch sorgt für Aufregung im Netz …

Die GRÜNEN entdecken die Liebe zum Vaterland

Doch nun ist unser Vaterland wie selten zuvor bedroht: Dieselfahrzeuge vergiften das einheimische Volk [2]. In dieser Phase der höchsten Not erinnern sich GRÜNE an bisher in ihrem Innersten verdrängten Gefühle und appellieren an den Patriotismus der Bürger, um das Land vor der schlimmsten Gefahr zu bewahren:
Stuttgarter Zeitung: [1] Stuttgarts Oberbürgermeister Fritz Kuhn (GRÜNE) stand Rede und Antwort beim Gespräch vor dem Rathaus. Ein großes Thema: Mobilität in der Landeshauptstadt.
Redakteur: Was macht die Debatte um das Kernprodukt dieser Stadt … das Auto …
Fritz Kuhn: … Die Luft muss sauberer werden, lasst uns das Know-how für die Transformation der Automobilgesellschaft nutzen. Das kann ich nur unterstützen und sagen: Tempo, bitte! Und ich sage: Jeder kann etwas dazu beitragen. Es ist quasi eine patriotische Pflicht, dass derjenige, der einen Zweitwagen kauft, sich für ein Elektroauto entscheidet. Der Stuttgarter muss etwas für seine Stadt tun, nicht nur für sein Gärtle.

Wer diesem Appell nicht direkt folgen kann, weil vielleicht ein Zweitauto im Budget nicht vorgesehen ist, kann seinen patriotischen Rettungsanteil natürlich auch mit weniger praktizieren.
Homepage der Grünen in Bad Vilbel: [6] Verkehrswende ist Kopfsache
… Doch auch das Zweirad mit Elektroantrieb hat sich zu einer ernsthaften Alternative zum Auto entwickelt. Über die moderne Fortbewegung auf E-Bikes klärte Stefan Trauth von Biketempel auf. Sein mobiles Angebot richtet sich an Berufspendler und Studenten … Und selbst bei größeren Einkäufen muss man nicht mehr auf das Fahrrad verzichten. Klaus Grund präsentiert das Angebot der mietbaren Lastenräder, mit denen sich eine Ladung von 100 kg gut transportieren lässt.
Stefan Trauth berichtet, dass dem Verkehrschaos im Berufsverkehr und der Parkplatznot am besten mit dem Fahrrad entgangen werden kann … Der grüne Politiker nutzt statt einem Dienstwagen ein Dienstfahrrad.

Davon wäre die Idee, GRÜNEN Politikern nur noch Dienstfahrräder – auch bei Regen und im Winter – zuzugestehen, nicht schlecht. Es würde den Spuck wohl schnell beenden. So lange sich die „Einschränkungen“ angeblich klimabewusster Umweltminister*innen nur auf das Zufügen von Elektromotoren und einem Akkublock im oberen Premiumsektor beschränken [8], ist ein Überdenken ideologischer Positionen nicht zu erwarten.

Ob die GRÜNEN da nicht die Liebe zum Vaterland mit der Hörigkeit für ihre Parteiideologie verwechselt haben

Das soll in der deutschen Geschichte schon vorgekommen sein. Und auch der „GRÜNE“ Patriot*in“ macht das, was die unfehlbare Partei vorgibt, die unsere Welt mit einem Satz erklären kann.


Bildquelle: GRÜNE NRW Homepage

Wer kein patriotisches Elektroauto kauft oder alternativ mit dem Fahrrad fährt, jedoch genügend „Kreuzfahrerblut“ und Erlebnishunger in seinen Adern spürt, kann seinen Patriotismus auch anders belegen. Nicht nur in Deutschland, sogar auf der ganzen Erde.
GRÜNE JUGEND zur Aktion „Ende Gelände“(2): Riesenerfolg für Anti-Braunkohle-Protest
Am Wochenende fand im Tagebau Garzweiler die Baggerbesetzung des Bündnis „Ende Gelände“ statt. Die GRÜNE JUGEND ist Teil dieses Bündnis und hat auch selbst bei der Besetzung teilgenommen. Ziel des Bündnisses war es die größte CO2-Verursacher – das rheinische Braunkohlerevier – lahnzulegen und damit auf die Dringlichkeit des Klimawandels und der Untätigkeit der Regierenden hinzuweisen.
Theresa Kalmer, Bundessprecherin der GRÜNEN JUGEND
(3), erklärt:
„Die Baggerbesetzung war ein Riesenerfolg. Ziviler Ungehorsam war an dieser Stelle dringend nötig, um auf die globalen Folgen des Braunkohleabbaus im Rheinland aufmerksam zu machen. Durch diese Aktion haben wir es geschafft gesellschaftliche Stillschweigen über den Braunkohleabbau zu brechen und eine Debatte über die Nutzung von Braunkohle loszutreten.
Jetzt kommt es darauf an diese erfolgreiche Aktion in den nächsten Monaten und Jahren weiterzuführen – im Rheinland, in Deutschland und auf dieser Erde. Als GRÜNE JUGEND werden wir selbstverständlich an dieser Bewegung beteiligen.

Wie sich Patriotismus über dem großen Teich vom Patriotismus in Deutschland unterscheidet

Trump wird (bei uns) vorgeworfen, zu viel „Amerika first“ zu posaunen und sich aus globalen Themen eher etwas zurückzuziehen. Bei uns ist es schick, das Umgekehrte zu tun und es (wieder) die Untertanen bezahlen zu lassen.
Ein
Beitrag von Theresa Kalmer (GRÜNE) zur Aktionswoche Energie: Die Farce der schwarzen Energiepolitik
… Auch hier ist die Politik und richtige Anreize gefragt. Auch wenn wir „den Kapitalismus“ nicht von heute auf morgen abschaffen können, können wir versuchen seine Folgen minimal zu halten. Wir brauchen Politik, die nicht weiter auf den Wohlstand Deutschlands setzt, sondern global Verantwortung übernimmt.
Gibt es bei dagegen eine Opposition? Nein, den Plan einer Koalition [11].

Hinweis: Die Information kam von Achgut: [3] Patriotismus jetzt auch grün-kompatibel
(1)Person, die ihr Vaterland liebt und dafür eintritt.
(2)Hinweis: Beschrieben werden Besetzungen der vergangenen Jahre

(3)Theresa Kalmer war Bundessprecherin der GRÜNEN JUGEND von 2013 bis 2015

Quellen

[1] Stuttgarter Zeitung 16. August 2017: Oberbürgermeister Kuhn „Bei Zweitwagen ist elektrischer Antrieb patriotische Pflicht“

[2] EIKE 24. August 2017: Deutschlands Autoindustrie: Mord auf offener Straße?-Ein perfides Spiel mit Klimaangst und fiktiven Abgas-„Todesopfern“ (2)

[3] Achgut 27.08.2017: Patriotismus jetzt auch grün-kompatibel

[4] TICHYS EINBLICK 9. Dezember 2015: Deutschland: Für die Bundestagsvizepräsidentin ein „mieses Stück Scheisse“?

[5] Bayernkurier 04.12.2015: Claudia Roth auf Abwegen
Metropolico: Polizeigewerkschaft kritisiert Claudia Roth

[6] Homepage der Grünen in Bad Vilbel: Verkehrswende ist Kopfsache

[7] Höchster Kreisblatt: Stefan Trauth betreibt eine rollende Fahrrad-Werkstatt

[8] EIKE 19.08.2017: Tesla-E-Auto mangels Reichweite für Umweltministerin nicht geeignet

[9] vimeo, Video: Rebecca Harms und die transnationale Demokratie

[10] MSW: Nie wieder Deutschland- Die Doppelzüngigkeit deutscher Politiker

[11] DER TAGESSPIEGEL 23.07.2017 : Bundestagswahl : Horst Seehofer kann sich jetzt Koalition mit Grünen vorstellen




Reichweiten­hunger als Kollateral­schaden im Klima­kampf

Und so unterstützten – ja fordern – GRÜNE und NGOs, dass mit dem EEG auch zwingend die Elektromobilität erzwungen werden muss.

Scheitert die Elektromobilität an fehlenden Rohstoffen?

Nachdem vieles, was unsere alternativlose Kanzlerin anpackt aus reinem Machtkalkül geschieht, und außer horrenden Kosten ein Nutzen fehlt, zeigt sich inzwischen immer mehr, dass es bei der Elektromobilität ebenfalls so kommen kann [2].
Es ist inzwischen so offensichtlich, dass sich selbst die (Des-)Informationsseite der Regierungsberaterin veranlasst sah, darüber zu berichten. Wobei es um zwei Problemstellungen geht:
-Die Verfügbarkeit der wichtigen Rohstoffe und
-parallel deren Preisexplosion.
-Die in [2] beschriebene Giftproblematik der modernen Akkus wird – wohl um die Bürger nicht zu sehr zu verunsichern, aktuell nicht angesprochen.

KLIMARETTER.INFO, 22. August 2017: [3] Der Kobold im Elektroauto
Der kommende Boom in der Batterie-Produktion für E-Mobilität steigert die Nachfrage nach zwei Metallen, die sonst nur wenige Verwendungszwecke kennen: Kobalt und Lithium. Ob die Förderung schnell genug ausgeweitet werden kann, ist noch nicht sicher.
Wer vor einem Jahr sein Geld in „Kobolderz“ investiert hat, kann sich über einen Kursgewinn von über 100 Prozent freuen. Das nach den frechen Hausgeistern benannte Metall Kobalt hat sich innerhalb eines Jahres von 25.000 US-Dollar pro Tonne auf 57.500 Dollar verteuert. Das schwächste Glied in der Rohstoffkette ist dabei Kobalt. Mit einem Marktanteil von knapp 60 Prozent ist die Demokratische Republik Kongo, das frühere Zaire, der wichtigste Lieferant von Kobalterz. Dieses wird dann in China verhüttet. China bestreitet knapp die Hälfte der globalen Produktion von 100.000 Tonnen an verhüttetem Kobalt pro Jahr.
Ein weiteres Problem ist Kinderarbeit im informellen Kleinbergbau, aus dem rund ein Fünftel der kongolesischen Kobaltproduktion stammt. Mark Dummett von der Menschenrechtsorganisation Amnesty International
sagte zur Situation im Kongo: „Die glanzvolle Werbung für die neueste Technik steht im scharfen Kontrast zu Kindern, die Säcke voller Steine schleppen, und zu Bergleuten, die in engen Tunneln schwere Lungenschäden riskieren.“
Im Gegensatz dazu ist die Lithiumproduktion auf mehrere Länder verteilt, die politisch stabiler sind als der Kongo. Australien, Chile und Argentinien sind die wichtigsten Produzenten des Leichtmetalls. Doch auch dieses wird teurer: In den letzten zwei Jahren hat sich
der Preis für eine Tonne Lithiumkarbonat auf rund 20.000 Dollar mehr als verdreifacht.

Kann der neue „Weltretter-Guru“ E. Musk, das richten?

Solche Vorbilder haben dem Globus bisher gefehlt: [4] Musks Antrieb: „Für mich geht es nicht darum, Geld zu verdienen, sondern die Probleme der Menschheit zu lösen“ …
Das glauben vielleicht GRÜNE. Wenn man nachsieht, wie die Verluste seiner E-Autofabrikation vom US Steuerzahler (und irgendwann von den Aktionären) bezahlt werden, für ihn aber trotzdem immer etwas übrig bleibt [6], kann man das kritischer sehen. Und Experten sehen für seine selbstlosen Rettungspläne Gefahren aufziehen:

[3] Der Marktexperte Joe Lowry befürchtet aber, dass das auf längere Sicht nicht reicht und ein „mangelndes Lithiumangebot deutliche Probleme für die Batterie-Lieferkette im Jahr 2023 verursacht“. Lowry spottet denn auch über Elon Musk, den Chef des Elektroautoherstellers Tesla: „Elon Musk scheint zu denken, wenn er Autos baut, dann kommt auch das Lithium. Seine chaotische Lieferkette für Batterien sollte ihn aber davon überzeugen, sein kreatives Denken auf die banale Frage zu verwenden, wo die gigantischen Mengen an Lithium herkommen sollen, die er braucht.“ Musk lässt derzeit die größte Batteriefabrik der Welt, die „Gigafactory“, bauen.

Was passiert, wenn in Deutschland als Neuwagen nur noch Elektroautos zugelassen werden, die Rohstoffe dafür aber fehlen?

Ab dem Jahr 2030 (mit dem laut GRÜNEM Parteitagsbeschluss als Neuwagen nur noch Elektroautos zugelassen werden dürfen) sind praktisch alle Fabriken, welche bisher konventionelle Autos bauten stillgelegt. Die neuen für Elektroautos sollen mit 100 % Produktion beginnen, jedoch: Das Material für die Akkus fehlt.
Ein Szenario wie es im (aufgelösten) Heimatland unserer alternativlosen Kanzlerin nicht unbekannt war. Vielleicht kommen dann auch Liefertermine, wie man sie dort für Autos kannte: Mit dem 1. Schultag schon einmal vorsichtshalber das Auto bestellen und hoffen, dass es im Führerscheinalter lieferbar ist. Und gleichzeitig auch einen “Autosparvertrag“ abschließen, um die stetig steigenden Kosten durch die Rohstoffverteuerungen aufzufangen.
Zudem besteht die reale Gefahr, dass unsere fürsorgliche Regierung bis dahin auch erkennt, wie giftig wichtige Akku-Bestandteile sind [2] und diese nachträglich (wie Fassaden-Dämmstoff) zu teurem Sondermüll erklärt, der immense Zuatzkosten (für die Autobesitzer) verursacht.

Auch Strom ist so etwas wie Rohstoff

Ob man für sein E-Auto den Strom dann wie benötigt bekommt, wenn es Nacht oder neblig ist und auch kein Wind weht, weiß man dann natürlich immer noch nicht. Doch im Gegensatz zur ehemaligen DDR sind wir moderner und verteilen den Mangel dann „intelligent“ und mit mehr Aufwand.

An Lösungen wird gearbeitet

Wenn es bis dahin gelingt, die Fahrradautobahnen fertigzustellen und die Carsharingverfahren (Fahrzeug- und Strom-Mangelverwaltung mittels App) zur Reife zu bringen, ist das nachhaltige Paralleluniversum funktionsbereit und kann endlich getestet werden. Dazu noch ein Gesetz, dass der örtliche Versorger, oder lokale „Bürgerenergieverein“ in jeder Straße mindestens ein Elektroauto pro Nacht sicher vollladen muss und die Mobilität der kleinen Untertanen bleibt gesichert, beziehungsweise ist auf die nachhaltig zulässige reduziert.
Wer eine eigene Solaranlage mit Speicher sein Eigen nennt, hat es zumindest zeitweise, wenn das Wetter mitspielt, besser, da sich diese Anlagen als Mobilitätsgewinn endlich wieder lohnen. War schließlich auch Zeit, dass generöse Weltretter für ihre guten Taten belohnt werden.

Fachleute – Zum Klima und Energie in beliebiger Menge zu finden – können jedoch auch zu diesem Problem Lösungen vorweisen:
[7] „… zum einen muss unser Reichweitenhunger womöglich bescheidener ausfallen, damit es mit kleineren Batterien getan ist …“.
Wenn man solche Fachgenies nicht hätte, käme man wohl nie darauf. Auch bereichern solche Lösungen zumindest die deutsche Sprache: EIKE: Reichweitenangst, die neue Volkskrankheit.
Während die gemeinen Untertanen noch darüber lachen, bereitet sich unsere Wissenselite schon darauf vor und übt:

EIKE, 22.03.2017: Klimamönche*, alternativ: die Klimaelite unserer Behörden

Deutschland wird heimelig

Sarkastisch sei bemerkt, dass es damit eine wichtige Person der Weltgeschichte schaffen wird, Deutschland zu ihrer Pensionierung zurück in die kuscheligen Zustände ihres (inzwischen pleite gegangenen) Heimatlandes zu drehen.
Endlich gibt es dann: Energiemangel, Automangel, Mobilitätsmangel, und wegen der hohen Transportkosten auch Mangel an nicht einheimischen Lebensmitteln bei uns. Sogar die ausgeuferte, staatlich garantierte Sozialversorgung von damals fehlt nicht: Zumindest für noch nicht so lange bei uns wohnende Neubürger.

CO2-Wahnsinn, doch nicht aufzuhalten

Da es keinen eigenen Artikel wert ist, sei es hier ergänzend erzählt.
In einer Lokalausgabe der Nordbayerischen Nachrichten vom 25.08.2017 erschien ein Bericht über die letzte Stadtratssitzung eines Landkreisstädtchens: Die Sanierung der Mittelschule kostet (erste – von sicher noch vielen kommenden – Beichten) 100.000 EUR mehr. Tut weh, muss aber keiner der Honoratioren selbst bezahlen. War bei öffentlichen Bauvorhaben noch nie anders und deshalb: abgehakt.
Stadt und Stadträte wollen jedoch viel lieber gelobt werden. Mit welchem Thema kann das besser gelingen als dem der Rettung vor dem Klima. Jeder (EIKE-Leser) weiß: Sobald der Zauberbegriff „CO2“ fällt, setzt in Deutschland bei Behörden und unseren Medien mindestens der Verstand aus. Nachfrage nach dem wirklichen Nutzen [9]? Immer Fehlanzeige. Das wusste auch der Berichter der Kostenüberschreitung und argumentierte so vor dem Stadtrat.
NN: Eine Erfolgsmeldung hatte der Experte bei der Schulsanierung dann doch parat – zumindest für die Umwelt: „Die LED-Beleuchtung spart in 20 Jahren 675 Tonnen Kohlendioxyd“.
Was grämen Kosten (welche die Untertanen zahlen müssen), wenn die Rettung der Welt dafür umso erfolgreicher gelingt.

Quellen

[1] EIKE: Kinder-Bergarbeiter im Alter von vier Jahren erleben die Hölle auf Erden, damit SIE ein Elektroauto fahren können

[2] EIKE: Gefährliche Ladung – Die E-Auto sind Energieverschwender, die Batterien giftige Umweltsünder erster Klasse

[3] KLIMARETTER.INFO, 22. August 2017: Der Kobold im Elektroauto

[4] Wirtschafts Woche, 15. Dezember 2014: Lithium könnte ab 2020 knapp werden

[5] EIKE 24.08.2017: Deutschlands Autoindustrie: Mord auf offener Straße?-Ein perfides Spiel mit Klimaangst und fiktiven Abgas-„Todesopfern“ (2)

[6] THE EUROPEAN, 16.06.2017: Wann platzt die Tesla-Blase?

[7] Nordbayerische Nachrichten, Lokalausgabe, 26.08.2017: Wie „grün“ sind E-Autos wirklich?

[8] EIKE 26.07.2016: Reichweitenangst, die neue Volkskrankheit

[9] EIKE 16.09.2015: Nachgefragt: CO2 Minderungsprogramm der bayerischen Landesregierung – ohne den geringsten Klimanutzen, aber mit extremen Kosten

EIKE 11.06.2015: Mit CO2-Reduzierung retten wir die Welt – Einige Rechenspiele (nicht nur) für regnerische Nachmittage