1

Diesel-Verteu­felung: Krieg gegen das eigene Volk Diesel: Die Lücken­medien im Glashaus (3)

Im ersten Teil dieses Aufsatzes wurde nachgewiesen, dass die NO2-Belastung der Luft in ganz Deutschland und auch an den sogenannten „Hotspots“ in den Städten zurückgegangen ist. Grund ist die stetige Ablösung älterer durch jüngere Fahrzeuge mit besseren Abgasbehandlungssystemen. Dieser Trend wird sich auch in den nächsten Jahren fortsetzen. Der zweite Teil der Analyse beschäftigte sich mit der Fragwürdigkeit der Messmethoden und den dabei eingesetzten Tricks und Manipulationen. Im jetzigen dritten Teil werfen wir einen Blick auf die teils grotesk übertriebenen Behauptungen über die gesundheitlichen Auswirkungen von Stickstoffdioxid sowie auf die Methoden und Tricks, mit denen die öffentlich-rechtlichen Medien als Sprachrohr industriefeindlicher Behörden die Wirklichkeit verzerren und die Öffentlichkeit irreführen.

Die Horrorstory der ARD, Teil 1: Feinstaub…

Im Rahmen ihres „Faktenfinder“-Artikels verweisen die Autoren auf einen Kurzfilm der ARD über die angeblichen Gefahren durch verkehrsbedingte Emissionen von Feinstaub und Stickoxiden [TAGS]. Darin erläutert der SWR-Reporter Martin Schmidt, unterbrochen von animierten Abgasfahnen und gespielten Hustenanfällen, dass Feinstaub nach Berechnungen des Umweltbundesamtes allein in Deutschland 47.000 vorzeitige Todesfälle verursachen soll. Zwar gebe es noch andere Feinstaubquellen wie Industrie oder private Heizöfen, doch sei der weitaus größte Teil dem Verkehr anzulasten. Diese Aussage ist nachweislich falsch, Bild 2 und Bild 3.

Bild 2. Die wichtigsten Verursacher von Feinstaubpartikeln in der EU (Grafik: [THAL])
Die Feinstaub- Emissionen werden innerhalb der gesamten EU von der Europäischen Umweltagentur (EEA) erfasst und ausgewertet. In ihrem zusammenfassenden Bericht aus dem Jahr 2016 [THAL] findet sich eine detaillierte Aufstellung der Hauptquellen der als besonders gefährlich eingestuften Feinstaub-Kategorie PM 2,5 (das sind ultrafeine Partikel mit Durchmessern unterhalb von 2,5 µm, die besonders tief in die Lunge eindringen). Aus dieser Grafik geht eindeutig hervor, dass der Anteil des Straßenverkehrs bei lediglich 13 % liegt, während Industrie und Haushalte mit 56 % den weitaus größten Anteil haben. Die sekundäre Rolle des Verkehrs zeigt sich auch an den Daten des Luftschadstoff-Emissionskatasters Baden-Württembergs für das Jahr 2014 [LUKA], Bild 3.

Bild 3. Prozentuale Aufteilung der Emissionsquellen für Feinstaub PM 2,5 in Baden-Württemberg (Daten: [LUKA])
Auch in Baden-Württemberg haben dagegen Feuerungen – zu dieser Kategorie gehören kleine und mittlere Feuerungsanlagen, d.h. auch Pelletheizungen und Kamine, Schwedenöfen usw. – mit fast 40 % den weitaus größten Anteil. Zum Straßenverkehr ist anzumerken, dass dessen Anteil nur zu einem geringen Anteil aus Auspuffgasen stammt, sondern aus dem Abrieb von Bremsen und Reifen sowie vor allem aus der Aufwirbelung von Straßenstaub. Der Verkehr wirbelt somit vor allem lediglich den Dreck in die Luft, den die Kamine in die Landschaft geblasen haben, wird aber dafür dann verantwortlich gemacht. Selbst E-Mobile würden daher kaum weniger Feinstaub erzeugen. Fahrverbote würden lediglich die Städte und die Industrie lahmlegen, aber die Gleichung „keine Industrie=gute Volksgesundheit“ ist keine vertretbare Option. Fahrverbote bei Feinstaubalarm sind Nonsens und wären rechtlich nicht zu begründen. Die Städte täten wesentlich besser daran, den Wildwuchs bei den bisher so eifrig befürworteten Pellet- und Holzheizungen einzudämmen. Mit heutiger Drohnentechnik sollte es endlich möglich sein, direkt an den Schornsteinen die RHE-Werte (Real Heating Emissions) kostengünstig zu untersuchen. Dadurch könnte man auch den gar nicht so wenigen „Sündern“ auf die Schliche kommen, die es für praktisch halten, ihren Sperrmüll auf diesem Wege kostengünstig loszuwerden, Bild 4. Bei solchen illegalen Verbrennungen entstehen extrem giftige Substanzen, die alles in den Schatten stellen, was bei den peinlich genau kontrollierten Verbrennungsprozessen in Kfz-Motoren entsteht.

Bild 4. So mancher Kamin wird zur „kostengünstigen Entsorgung“ von Sperrmüll genutzt und dadurch zur Giftschleuder. DUH und Konsorten sollten sich mal dafür interessieren, aber mit Klagen gegen Häuslebauer ist halt nicht so viel Geld zu verdienen…

Die Horrorstory der ARD, Teil 2: Stickoxide

Nach der Verdammung des Feinstaubs kommt der SWR-Reporter dann gegen Ende der Sendung zu seinem eigentlichen Thema. Das Lamento über Feinstaub diente ihm vor allem als Kunstgriff zur Einstimmung der Zuschauer auf sein Hauptanliegen, die Anklage gegen das Stickstoffdioxid. Nach effektvoller Einleitung mit einer weiteren simulierten Hustenattacke kommt er zur Sache: „Auch Stickstoffdioxid ist sehr gefährlich“. Es könne zum Beispiel Atemwegsprobleme oder Herz-Kreislauferkrankungen auslösen. Nach Erkenntnissen des UBA sei in Innenstädten der Verkehr mit 84 % der Hauptversucher, und Schuld daran seien fast ausschließlich Dieselfahrzeuge.

Das sind gleich drei Unwahrheiten, genauer gesagt eine Halbwahrheit und zwei regelrechte Falschaussagen. Man muss sich wirklich fragen, wie man als Fernsehanstalt solche Dinge ungeprüft in einer Nachrichtensendung verbreiten kann. Schauen wir uns diese Vorwürfe im Einzelnen an.

Welche Gefahr geht von Stickstoffdioxid wirklich aus?

Was ist eigentlich Gift? Im Prinzip ist fast alles giftig. Wem ist schon bewusst, dass Salz ein tödliches Gift ist? Im Jahre 2005 starb im Saarland ein Kind, weil es gezwungen wurde, einen versehentlich versalzenen Pudding komplett aufzuessen. Zwar lebte es bei der Einlieferung in die Klinik noch, konnte aber dennoch nicht mehr gerettet werden [SALZ1].

Bild 5. Etwas mehr als ein Esslöffel des eigentlich lebensnotwendigen Minerals Salz genügte, um ein Kind zu töten

Zwar ist dies ein Extremfall, aber tödlich ist Salz auch in weit geringeren Mengen. Fachleute gehen davon aus, dass weltweit jährlich über 2 Millionen Menschen aufgrund von Herzerkrankungen sterben, die durch zuviel Salz im Essen verursacht werden [SALZ2]. Oder nehmen wir das Beispiel Alkohol: Das edle Genussmittel in Bieren, Weinen und Schnäpsen ist de Facto ein krebserregendes Nervengift, dem jedes Jahr 74.000 Deutsche zum Opfer fallen. Die Liste ließe sich beliebig fortsetzen, denn ab einer gewissen Menge ist fast jeder Stoff giftig. Erst das Zuviel macht aus einem natürlichen oder gar lebensnotwendigen Stoff ein unter Umständen tödliches Gift. Das gilt selbst für Wasser (dessen tödliche Dosis bei ca. 6 Liter liegt). Auch Stickstoffdioxid ist ein natürlich vorkommendes Spurengas in unserer Atmosphäre. Ein Grenzwert von Null, wie er von einigen Epidemiologen gefordert wird, ist pure Utopie. Statt solche sinnfreien Forderungen zu stellen, sollte man über die Zulässigkeit von Dosierungen sprechen, Bild 6.

Bild 6. Frühere und heutige NO2-Grenzwerte in Deutschland und der Schweiz

Grenzwerte am Arbeitsplatz…

Über mögliche Beeinträchtigungen durch NO2 in Abgasen für die Allgemeinheit sollte man daher nur im Zusammenhang mit den Dosierungen sprechen, die tatsächlich in der Luft unserer Städte vorliegen. Das sind im Mittel nirgendwo mehr als 90 µg/m3 mit seltenen Spitzen bis etwas über 200 µg/m3. Dieser Wert ist gleichzeitig die Geruchsgrenze, d.h. man kann nicht unbemerkt vergiftet werden. In diesem Konzentrationsbereich ist NO2 nicht giftig, sondern lediglich ein Reizstoff für die Lunge. Der Grenzwert für die Dauerbelastung von Mitarbeitern bei körperlicher Arbeit (MAK-Wert) lag früher in Deutschland bei 9.000 µg/m3 und wurde erst Anfang der 2000er Jahre auf 950 µg/m3 reduziert, in der Schweiz liegt er sogar bei 6.000 µg/m3. Bis zu dieser Schwelle ist NO2 also kein Gift, sondern lediglich ein Reizstoff, dem man als gesunder Erwachsener bis zu rund 1.500 Stunden pro Jahr ausgesetzt sein kann, ohne nachteilige gesundheitliche Auswirkungen befürchten zu müssen. MAK-Werte werden von einer Kommission festgelegt, die mit Fachleuten aus verschiedensten Bereichen wie z.B. der Toxikologie und der Arbeitsmedizin oder der Lungenheilkunde besetzt sind. Sie werden so definiert, dass sie nach aktuellem Kenntnisstand der Medizin sicher unterhalb der Gefährdungsgrenze liegen.

Bild 7. Das krebserregende Nervengift Alkohol ist im Unterschied zu Stickstoffdioxid selbst in kleinsten Mengen gefährlich

und Grenzwerte in Büro- und Privaträumen

Da die Bevölkerung nicht nur aus Gesunden besteht, wurden auch die Auswirkungen wesentlich darunter liegender Konzentrationen z.B. auf Asthmatiker oder Kinder mit großer Sorgfalt untersucht. Auch hier obliegt dies einem eigenen Fachgremium, in diesem Fall dem Ausschuss für Innenraumrichtwerte des Umweltbundesamtes. Dort wurden verschiedenste Kurzzeit- und Dauerbelastungs-Grenzwerte definiert, die mit großen Sicherheitsmargen nach unten sicherstellen sollen, dass selbst die Schwächsten unserer Gesellschaft bei Dauerbelastung keinen Schaden nehmen. Dieser für Büroräume ebenso wie für Privatwohnungen geltende Grenzwert liegt bei 60 µg/m3. Im Unterschied zum MAK-Wert gilt er auch für Dauereinwirkung rund um die Uhr, da wir zwischen 70 und über 90 % unserer Zeit in solchen Räumen verbringen.

Woher kommt der tiefere Grenzwert in der Außenluft?

Da die 60 µg/m3 deutlich über den für die Außenluft geltenden 40 µg/m3 liegen, stellt sich die Frage, wie es zu diesen krass unterschiedlichen Festlegungen gekommen ist. Die Antwort ist ganz einfach: Es handelt sich um ein Diktat von oben, d.h. es mussten Vorgaben der EU übernommen werden. Deutsche Fachgremien hatten nichts zu melden. Und bei den zuständigen EU-Gremien orientierte man sich an Vorgaben der Weltgesundheitsorganisation WHO. Wir haben also die absurde Situation, dass dort, wo man sich eher selten aufhält, nämlich auf dem Bürgersteig einer sehr stark befahrenen Straße, wesentlich strengere Grenzwerte gelten als in den Innenräumen und Büros, wo ein deutlich höherer Pegel als gesundheitlich unbedenklich eingestuft wird. Hinter diesen unterschiedlichen Ansichten stecken auseinandergehende Auffassungen über die Methoden, die zur Ermittlung gesundheitlicher Risiken eingesetzt werden.

Messen oder Simulieren?

Vereinfacht ausgedrückt geht es um die Frage, ob man sich an den Verfahren der Pharmaforschung oder an statistisch ermittelten Daten orientiert. Toxikologen gehen nach den Methoden vor, die z.B. auch für die Entwicklung von Medikamenten vorschrieben sind. Sie erforschen die Wirkungsweise bestimmter Substanzen im Körper und bestimmen eindeutige Ursache-Wirkungs-Zusammenhänge. Epidemiologen erfassen dagegen große Bevölkerungsgruppen und versuchen, mögliche Gesundheitsrisiken mit statistischen Verfahren zu erkennen. Das kann jedoch zu Fehlschlüssen führen, z.B. weil Abgase ja als Gemisch auftreten. Ein Beispiel: man ermittelt Daten wie Krankheitshäufigkeit oder Todesursache von Menschen, die in der Nähe stark befahrener Straßen wohnen, in Abhängigkeit von der Entfernung ihrer Wohnung zur Straße. Doch kann man bei der Wahl solcher Kriterien auch böse danebenliegen. Ein Beispiel: Wohnungen direkt an Schnellstraßen sind unbeliebt und die Mieten daher sehr günstig. Also ziehen hier Menschen hin, die sich nicht mehr leisten können, Bild 8.

Bild 8. An solchen Straßen wohnen nur diejenigen, die zu arm sind, um die anderswo höheren Mieten zu bezahlen

Dann könnte ein Statistiker mit hoher Sicherheit Auswirkungen erhöhter Abgasbelastungen auf das Einkommen „errechnen“. Sogar mit einer erheblich höheren Sicherheit als bei der Ermittlung gesundheitlicher Auswirkungen der einzelnen Stoffe im kunterbunt zusammengesetzten Abgasgemisch.

Wegen dieser Mischung verschiedenster Abgasbestandteile ist daher oft nicht genau zu klären, welche Komponente des Abgases denn wirklich für die festgestellte gesundheitliche Beeinträchtigung verantwortlich ist. Das Pech für das NO2 ist, dass man es recht gut messen kann und daher gerne als generellen Indikator für Abgasbelastungen heranzieht. Dann kann es schnell passieren, dass man ihm Effekte anlastet, die eigentlich von anderen Bestandteilen wie z.B. dem krebserregenden Benzo-a-Pyren hervorgerufen werden. So werden in manchen epidemiologischen Studien Krebsrisiken „festgestellt“, die der Toxikologe bestreitet. Der WHO wird oft vorgehalten, sie setze zu stark auf solche epidemiologischen Studien. Aber sie hat halt bei den EU-Gremien Gehör gefunden.

Namhafte Wissenschaftler: Grenzwerte sind übertrieben

Jedenfalls bestreitet der führende Toxikologe und langjährige Vorsitzende der MAK-Kommission Professor Helmut Greim von der TU München die wissenschaftliche Basis des für die Außenluft festgelegten NO2-Grenzwerts von 40 µg/m3 NO2 im Freien: „Epidemiologen errechnen ihre Werte, wir Toxikologen messen sie und setzen danach Grenzwerte fest“. Seiner Ansicht nach sei eine Belastung von 40 µg/m3 NO2 im Freien völlig unbedenklich, solange der Arbeitnehmer bei der Innenluft dem 20fach höheren Grenzwert (950 µg) ohne Gesundheitsbedenken ausgesetzt sein darf [GREI]. Erheblich Zweifel an politischen Grenzwertsetzungen beim NO2 äußert auch Professor Tobias Welte. Aus seiner Sicht sei das der vollkommen falsche Parameter. Er glaube, dass Feinstaub eine wesentlich größere Bedeutung habe als Stickoxid. Deshalb wäre es wichtig, sich darauf zu konzentrieren [WELT]. Auch Welte ist, was die Beurteilung von luftgetragenen Schadstoffen angeht, als Leiter der größten Universitäts-Lungenklinik Deutschlands mit 30 Jahren Berufserfahrung und 700 Veröffentlichungen eine Kapazität von Rang. Und Prof. Koch vom Institut für Kolbenmaschinen am Karlsruhe Institut für Technik zitiert aus der Mail eines Pathologieprofessors und Leiters eines Pathologieinstituts folgende Passage: „Es sind wahrhaft Horrorzahlen und Horrorgeschichten, die über die Toxizität der Dieselabgase und deren angebliche Todesfälle insbesondere bezüglich des Feinstaubes in der Öffentlichkeit aus verschiedensten Interessen verbreitet werden. Man hat heute allgemein den Eindruck, die Luftbelastung habe in den letzten Jahren zugenommen und die Menschen seien dadurch vermehrt krank geworden, was in keinster Weise auf einer wissenschaftlichen Grundlage beruht. Im Gegenteil, die Menschen sind bis in das hohe Alter gesünder, insbesondere was ihre Lungen betrifft, und leben auch dadurch deutlich länger als früher [KOCH].

Festzuhalten bleibt: Der heute in Deutschland geltende Immissionsgrenzwert ist uns ohne Anhörung unserer Fachgremien politisch von außen aufgedrückt worden. Er dient nicht der Gesundheit der Bevölkerung, sondern befriedigt das Machtstreben von Ideologen. Hätte man stattdessen den für Innenräume seit 20 Jahren geltenden Wert übernommen, dann gäbe es heute gar keine NO2-Diskussion mehr. Nicht der Dieselmotor ist das Problem, sondern weltfremde Grenzwerte sowie die damit befeuerte Angstkampagne in den Medien.

Ist der Verkehr Hauptverursacher von NO2-Emissionen?

Als nächstes ist zu klären, ob der Verkehr in Innenstädten tatsächlich – wie in der Sendung unter Berufung auf das UBA behauptet – mit 84 % der Hauptverursacher von NO2-Emissionen ist. Da ist zunächst die Frage zu stellen, wann das UBA welche diesbezügliche Behauptung aufgestellt hat. Offensichtlich hatten dort vergleichbare Meldungen mit unterschiedlichen Zahlen in letzter Zeit Hochkonjunktur. Auf der sehr anwenderunfreundlichen UBA-Webseite ist es oft kaum möglich, den jeweils „richtigen“ zu finden. Die Suchfunktion gleicht einem Lotteriespiel, Bilder erscheinen grotesk geschnitten und es werden auch immer mal wieder Beiträge schon nach kurzer Zeit zurückgezogen. Deshalb nehmen wir hier eine etwas anderslautende UBA-Mitteilung vom 26. April 2017 mit der folgenden Grafik, Bild 9.

Bild 9. Vom UBA den verschiedenen Straßenfahrzeugtypen zugeordnete NO2-Emissionsanteile (Grafik: UBA)

Auffallend ist an dieser Darstellung insbesondere der niedrige Anteil der Busse. Das sah in einer Berechnung, die das Institut für Energie- und Umweltforschung Heidelberg 2006 im Auftrag des Umweltministeriums Baden-Württemberg durchführte, nämlich noch ganz anders aus, Bild 10.

Bild 10. Entwicklung der Emissionsanteile der verschiedenen Fahrzeugkategorien des Stadtverkehrs in Stuttgart bis zum Jahr 2014 (Grafik: [IFEU])
Dieser Recherche zufolge emittierten nämlich Busse 2004 volle 42 % der NO2-Emissionen in Stuttgart, gefolgt von Diesel-PKW mit 36 %, LKW mit 11%, Benzin-PKW mit 8 % und leichten Nutzfahrzeugen mit 3 %. Jetzt sollen es bei Bussen plötzlich nur noch 4 % sein. Das ist sehr unglaubwürdig, denn gerade Busse sind langlebige Investitionsgüter, die sehr lange eingesetzt werden müssen, damit sie sich rechnen. Dementsprechend langsam erfolgt auch die Verjüngung des Bestandes, Bild 11.

Bild 11. Prognose über den Bestand von Bussen der verschiedenen Emissionsstandards in den Jahren bis 2030 (Grafik: [TREM])
Zum Verständnis der Grafik ist es wichtig zu wissen, dass beim Neukauf von Bussen meist die höchste am Markt befindliche Euro-Kategorie gekauft wird. Seit 2005 dürften daher kaum noch Busse unter EURO-4 gekauft worden sein. Dennoch geht man beim Ifeu davon aus, dass selbst im Jahr 2030 – also nach 25 Jahren Betriebszeit – noch derartige Busse auf der Straße sein werden. Zusammengenommen lassen diese Zahlen Zweifel an dem vom UBA jetzt präsentierten Emissionsanteil von lediglich 4 % für Busse – und damit prinzipiell am gesamten vorgestellten Zahlenwerk – aufkommen. Außerdem fehlen in den vom UBA präsentierten Daten auch noch vollständig alle übrigen Emissionsquellen. Schließlich ist der Verkehr nicht der einzige Urheber von NO2-Emissionen, Bild 12.

Bild 12. Prozentuale Aufteilung der Emissionsquellen für NOx in Baden-Württemberg (Daten: [LUKA])
Betrachtet man die Bilder 10-12 im Zusammenhang, so wirkt die Behauptung des UBA, dass der Verkehr in den Innenstädten für 84 % der NO2-Belastungen verantwortlich sei und diese fast ausschließlich dem Diesel anzulasten seien, doch ziemlich an den Haaren herbeigezogen. Bestätigt werden diese Zweifel auch durch unabhängige Untersuchungen des Instituts für Kolbenmaschinen am Karlsruhe Institut für Technik, Bild 13.

Bild 13. Unabhängige Untersuchung der Herkunft von NO2 in der Luft, Messstation Stuttgart Am Neckartor (Grafik: IFKM/ KIT)

Bei dieser Untersuchung von Professor Koch wurde zwischen Hintergrundgehalten – entfernter liegende Quellen, deren Abgase bereits großräumig verteilt wurden – und lokalen Quellen unterschieden. Da es bei dieser Art der Darstellung schwieriger wird, den Beitrag der einzelnen Quellen optisch leicht fasslich darzustellen, wurde zusätzlich eine zusammenfassende Grafik erstellt, Bild 14.

Bild 14. Zusammengefasste grafische Darstellung der anteiligen Emissionen der verschiedenen Fahrzeugkategorien aus Bild 9

Worüber regt man sich beim UBA eigentlich auf?

Festzuhalten bleibt zunächst, dass ungeachtet der lautstarken Kampagne in den Medien wegen gewisser Unterschiede zwischen den Vorgaben und den im Realbetrieb festgestellten Emissionswerten von neuen Dieselfahrzeugen die Gesamtbelastung in den Städten auch in den letzten Jahren kontinuierlich weiter gesunken ist. Das ist durch Bild 15 und Bild 16 eindeutig belegt.

Bild 15. Selbst an den „Hot Spots“ in den Städten sind die Messwerte seit 2006 kontinuierlich immer weiter zurückgegangen (Grafik: UBA)

Bild 16. Der weiter rückläufige Trend der NO2-Werte auch an den Stuttgarter Brennpunkten ist sogar bis Ende August 2017 belegt (Grafik: Stadt Stuttgart)

Somit haben die gerade bei neueren Fahrzeugen beobachteten Differenzen beim Emissionsverhalten keine nachteiligen Auswirkungen auf die Immissionswerte. Viel entscheidender ist die weiter fortschreitende Verjüngung des Bestandes durch Ersatz älterer Fahrzeuge mit schlechteren Abgaswerten. Anders ausgedrückt: Selbst ein noch nicht ganz perfekter EURO-6-Diesel ist immer noch viel besser als ein perfektes Modell mit EURO-5 oder gar EURO-3. Zudem kommen demnächst Fahrzeuge mit nochmals verbesserter Abgasbehandlung EURO-6dtemp auf den Markt. Wie sich dies auf die NO2-Belastung der Luft auswirken wird, zeigt Bild 17.

Bild 17. Projektion der 2020 an der Messstelle „Am Neckartor“ zu erwartenden NO2-Werte. Grau: Hintergrund, Gelb: Diesel-PKW, Grün: Benzin-PKW, Rot: schwere LKW (Grafik: IFKM/KIT)

Die zwielichtige Rolle der Umweltbehörden

Bei nüchterner Betrachtung der Fakten stellt sich die Frage, was mit den massiven Attacken von Umweltministerin Hendricks und UBA gegen den Diesel-PKW eigentlich bezweckt wird. Gesundheitsschutz der Bevölkerung kann es nicht sein, denn die Industrie hat es trotz unnötig übertriebener Grenzwertvorgaben geschafft, die NO2-Gehalte in den Städten langsam, aber kontinuierlich immer weiter zu senken. Durch neue Entwicklungen wird sich dieser Trend in den nächsten Jahren weiter fortsetzen. Die Gehässigkeit, mit der dennoch behördlicherseits auf die Hersteller losgegangen wird, hat offensichtlich einen tieferen Grund. Hendricks und UBA stehen unter Druck, weil sie mit ihrer Strategie zur Senkung der CO2-Emissionen Schiffbruch erlitten haben. Da kommt es ihnen zupass, die Individualmobilität mit Verbrennermotoren an den Pranger zu stellen. Man verspricht sich davon gleich zwei Vorteile: Ablenkung vom eigenen Scheitern und Schädigung einer Industrie, die in Sachen Elektromobilität nicht so will, wie es die Politik möchte, sondern das herstellt, was die Verbraucher verlangen.

Welches Spiel spielen ARD, ZDF und Co?

Von den dort arbeitenden Journalisten wäre eigentlich zu erwarten, dass sie sich nicht als Staatsfunk betätigen. Das hatten wir in Deutschland schon zweimal, einmal in Braun und einmal in Rot, und es hat dem Volk nicht gutgetan. Die Journalisten der Sender sollten Aussagen von Behörden, die in der Dieselthematik eine offen industriefeindliche Position einnehmen, eigentlich einer kritischen Kontrolle unterziehen. Das ist nicht geschehen, weshalb es jetzt an dieser Stelle nachgeholt wurde. Das Ergebnis dieser Nachkontrolle lässt sowohl das UBA als auch den Sender in einem ziemlich unvorteilhaften Licht erscheinen. Schließlich ist durch Statistiken belegt, dass der Anteil des Gesamtverkehrs an den NO2-Emissionen Deutschlands bis 2015 auf 40 % gesunken ist. Auch ist der Straßenverkehr nicht der einzige Verkehrsträger, es gibt darüber hinaus auch noch die Bahn, das Schiff und das Flugzeug. Oder sollten auf den Stuttgarter Bahngleisen tatsächlich keine Rangierloks mit Dieselantrieb fahren?

Eine Begründung für Autofahrverbote wegen Feinstaubalarm oder aufgrund von NO2-Werten lässt sich jedenfalls derzeit nicht ableiten. Juristen sollten in den hier dargelegten Fakten und Dokumenten genug Stoff finden, um Klagen der DUH vor Gericht scheitern zu lassen.

Fakten und „Faktenfinder“

Die bisherige Analyse der von den „Faktenfindern“ von NDR und Tagesschau präsentierten Aussagen lässt erkennen, dass man sich dort alles andere als kritisch-investigativ mit dem Thema NO2-Immissionen der Stadtluft beschäftigt hat. Stattdessen übernimmt man einfach die Positionen von Hendricks und dem UBA, als seien deren Ansichten der Weisheit letzter Schluss. Eine eigenständige kritische Wertung von Daten und Hintergründen ist nicht einmal in Ansätzen erkennbar. Dies bestätigt die bereits bisher gemachte Erfahrung, dass die Mehrzahl der Medien – allen voran die Fernsehanstalten ARD, ZDF und ihre Landesdependancen – beim sogenannten „Diesel-Skandal“ einseitig, parteiisch und irreführend berichten. Statt um Ausgewogenheit und Sorgfalt bemüht man sich offenkundig eher darum, das Thema so darzustellen, wie die Bundesbehörden sowie die anderen etablierten Parteien es gerne haben möchten. Abweichende Meinungen von Medien, Journalisten oder Blogger werden als unglaubwürdig hingestellt. So leistet man dem ideologischen Ziel der Deindustrialisierung Deutschlands durch „Dekarbonisierung der Volkswirtschaft“ Vorschub. Der Diesel ist dabei nur das erste Opfer. Es wird danach weitergehen, und zwar alternativlos.

Fred F. Mueller

Demnächst folgt Teil 4

Quellen

[FAKT] http://faktenfinder.tagesschau.de/inland/stickstoffdioxid-111.html

[GREI] http://www.focus.de/finanzen/karriere/berufsleben/politik-ignoriert-zweifel-am-grenzwert-40-mikrogramm-dieselpanik-wegen-grenzwertluege-in-ihrem-buero-ist-20-mal-so-viel-stickstoff-erlaubt_id_7378545.html

[HEUTE] „Heute“-Nachrichtensendung des ZDF vom 9.8.2017, Interview mit Thomas Geisel, SPD-Oberbürgermeister der Stadt Düsseldorf, Stichwort „Verkehrserziehung in Richtung Zukunft“

[IFEU] Ifeu Institut für Energie- und Umweltforschung Heidelberg GmbH Analyse der Ursachen für hohe NO2-Immissionen in Baden-Württembergischen Städten im Auftrag des Umweltministeriums Baden-Württemberg, Juli 2006

[KLIN] http://www.dnn.de/Dresden/Lokales/Dresdner-Professor-fordert-ideologiefreie-Debatte-ueber-Schadstoffe-durch-Autoverkehr

[KOCH] https://www.ifkm.kit.edu/downloads/Focus_Antworten_v2.0.pdf Institut für Kolbenmaschinen Prof. Dr. sc. techn. Thomas Koch. Der Dieselmotor: Nüchterne Bewertung der Emissionsthematik

[LUKA] Luftschadstoff-Emissionskataster Baden-Württemberg 2014. Landesanstalt für Umwelt, Messungen und Naturschutz Baden-Württemberg

[PEEL] JENNIFER L. Peel Is NO2 a Marker for Effects of Traffic Pollution or a Pollutant on Its Own. COLORADO STATE UNIVERSITY MAY 4, 2015 HEI ANNUAL MEETING PHILADELPHIA, PA

[TAGS] http://www.tagesschau.de/multimedia/video/video-312819.html

[THAL] European Environment Agency EEA Report No28/2016 Air Quality in Europe – 2016 report https://www.eea.europa.eu/publications/air-quality-in-europe2016

[TREM] Aktualisierung „Daten- und Rechenmodell: Energieverbrauch und Schadstoff-Emissionen des motorisierten Verkehrs in Deutschland 1960-2030“ (TREMOD, Version 5.3) für die Emissionsberichtserstattung 2013 (Berichtsperiode 1990-2011) ifeu Institut für Energie- und Umweltforschung Heidelberg GmbH

[SALZ1] https://www.nwzonline.de/panorama/versalzener-pudding-kostet-angelinas-leben_a_6,1,2300022554.html

[SALZ2] https://www.medpagetoday.com/cardiology/prevention/38011

[WELT] http://www.ndr.de/nachrichten/niedersachsen/hannover_weser-leinegebiet/Stickoxid-Die-ueberschaetzte-Gefahr,stickoxid108.html




Kleine Energierückschau 2016, oder: Was ist Zappelstrom

Erneuerbare Energien sind die wichtigste Stromquelle in Deutschland …

und ihr Ausbau eine zentrale Säule der Energiewende. So meldet es unser zuständiges Ministerium.

Bild 1 Windpark. Bildquelle: Wattenrat, Homepage

Bundesministerium für Wirtschaft und Energie: Erneuerbare Energien
Wie das Ministerium darauf kommt, nachdem die „Erneuerbaren Energien“ gerade einmal 29 % Anteil am Strom liefern, davon die alleine weiter ausbaufähigen, Wind und Solar gerade einmal 15, 8 % (Wind 11,9 %, Solar 5,9 %) bleibt dessen Geheimnis. Aber damit ist auch nicht die Wirklichkeit, sondern der Wunsch gemeint.

Wie es die ersten zwei Bilder zeigen, reicht jedoch schon dieser Ausbau, um unsere Natur großflächig und rücksichtslos nicht nur verschandeln, sondern regelrecht kaputt machen. Für „Klimaretter“ ist es allerdings der ersehnte Umbau Deutschlands zur Energie-Erntelandschaft.

Bild 2 Bruttostromerzeugung in Deutschland 2016 in TWh, regenerativer Anteil; Stand: März 2017. Quelle Homepage Bundesministerium für Wirtschaft und Energie © AG Energiebilanzen

Und leider liefern das EEG nur „Zappelstrom“

Der Agora-Viewer bietet bezüglich der Elektroenergie sicher die schönsten Übersichtsgrafiken. Daraus der Verlauf des letzten Jahres. Herrlich sieht man den Zappelstrom der Erneuerbaren und die gewaltige Versorgungslücke, welche die konventionellen Kraftwerke stemmen müssen. Bild 3 zeigt die „Erneuerbaren“ mit dem Sockel, welchen Wasserkraft und Biomasse bilden. Wichtig ist jedoch Bild 4, denn es stellt den 15,8 %-Anteil von Wind gesamt und Solar ohne Biogas und Wasserkraft dar. Nachdem Biogas und Wasserkraft in Deutschland nicht weiter ausbaufähig sind, müssen diese beiden Quellen jeden weiteren EEG-Ausbau alleine „stemmen“.
Die große, stark schwankende Differenz zwischen benötigtem Strom und wirklich bereitgestelltem, und was das für Konsequenzen hat, ist in [1] [3] erklärt, vor allem auch in der Artikelreihe: EIKE 24.01.2016: [4] Die neuen Energien erklärt für Dummies Teil 3: Zeitreise ins Jahr 2050 des EEG Eine Energiewende ist nicht planbar
und in diesem Artikel deshalb nicht das (Haupt-)Thema.

Bild 3 Ganglinie von Stromverbrauch und EEG-Einspeisung im Jahr 2016. Quelle: Agora-Viewer

Bild 4 Ganglinie von Stromverbrauch und Einspeisung Windkraft gesamt + Solar im Jahr 2016. Quelle: Agora-Viewer

Zappelstrom“, erklärt für Dummies

Die wirklich angebotene Leistung im Verhältnis zur maximalen Leistung

Das folgende Bild 5 zeigt das Histogramm der Leistung von Solar und Windkraft gesamt im Jahr 2016. Bezug ist die maximale, im Jahresverlauf wirklich angebotene Leistung, also nicht die weit höhere, installierte.

Bild 5 Solar und Windkraft. Histogramm der Anzahl Jahrestage 2016, klassifiziert nach % der übers Jahr kurzfristig gelieferten Maximalleistung. Grafik vom Autor anhand der Daten von Agora erstellt

Wem Histogramme nicht so geläufig sind, anbei die Tabellierung dazu:

Bild 6 Tabellierung der Daten von Bild 5

Was sagen diese Daten von Wind und Solar – immer bezogen auf das Gesamtjahr 2016 mit 365 Normtagen:
-Über 18 Tage betrug die verfügbare Leistung im Maximum 5 %
-Über 63 Tage (also 2 Monate) betrug die verfügbare Leistung im Maximum 10 %
-Über 221 Tage (also 7,4 Monate) betrug die verfügbare Leistung im Maximum 30 %
-Über 308 Tage (also 9 Monate) betrug die verfügbare Leistung im Maximum 50 %

Die wirklich angebotene Leistung im Verhältnis zur installierten Leistung

Wer sich etwas mit Netzausbau auskennt weiss, dass die Übertragungssysteme nicht nach der zufällig in einem Jahr erreichten, maximalen Leistung, sondern nach der laut den technischen Angaben spezifizierten, installierten Leistung auszulegen sind. Würde man dies nicht beachten, wäre das Ergebnis das Gleiche wie bei einem Moped, dem der Bastelfilius einen Motorradmotor einbaut, um damit auf der Autobahn solche zu erschrecken, um sich alsbald (sofern er noch Glück hat) im Krankenhaus wiederzufinden, da das Fahrgestell und Reifen für diese Geschwindigkeit nicht gebaut waren.
Unter diesem Gesichtspunkt wird die schon vorher sehr ungünstige Verteilung der wirklich verfügbaren Energie (Bild 6) zum wahren Desaster, wie es Bild 7 und die zugehörige Tabelle zeigen.

Bild 7 Solar und Windkraft. Histogramm der Anzahl Jahrestage 2016, klassifiziert nach % der installierten Leistung. Grafik vom Autor anhand der Daten von Agora erstellt

Bild 8 Tabellierung der Daten von Bild 7

Was sagen diese Daten von Wind und Solar – immer bezogen auf das Gesamtjahr 2016 mit 365 Normtagen:
-Über das gesamte Jahr wurden als Maximum ca. 6 Stunden lang 55 % der installierten Leistung erreicht,
-während 9 Monaten betrug die angebotene Leistung nicht über 20 % der installierten.
Schlimmer kann man sich eine Energielieferung nicht vorstellen.

Damit nicht jemand meint, das wäre zu schlecht dargestellt, weil die wichtigen EEG-Träger Biomasse und Wasserkraft fehlen, die Grafik für das EEG gesamt noch anbei. Da die Letztgenannten so etwas wie eine Grundlast bieten, verschiebt sich die Verteilung nur leicht nach rechts.

Bild 9 EEG gesamt (Solar, Windkraft, Biomasse, Wasserkraft). Histogramm der Anzahl Jahrestage 2016, klassifiziert nach % der installierten EEG-Gesamt-Leistung. Grafik vom Autor anhand der Daten von Agora erstellt

Die Bewertung durch politische Führungskräfte, welche sich zutrauen, über Deutschlands Energiesystem zu entschieden

Wenn man die Agora-Bilder und die Verteilungen dazu ansieht, wird erst richtig klar, welches (Un-)Wissen hinter Aussagen politischer Führungskräfte steckt, die sich damit aber zutrauen, über Deutschlands Energiesystem zu diskutieren und zu bestimmen:
EIKE 15.08.2017: Cem Özdemir versucht sich in Energie
Sprecher: Kritiker sagen: Dann geht in Deutschland entweder das Licht aus, oder der Strom wird viel teurer. Sehen Sie das auch so?
C. Özdemir: Ach wissen Sie, wir kennen die Argumente. Die Argumente sind ja nicht ganz neu. Im Spitzenlastbereich, also nicht im Normallastbereich. Dann wenn der Energieverbrauch am Höchsten in Deutschland ist, ungefähr mittags zwischen 11 und 12, verbrauchen wir ungefähr 80 Gigabyte. Wir produzieren aber ungefähr 140 Gigabyte. Das heißt, das anderthalb-Fache dessen haben wir immer noch übrig, was wir brauchen. Selbst wenn wir die sieben ältesten Meiler abschalten würden, hätten wir immer noch mehr Strom als wir selbst im Spitzenlastbereich gebrauchen.

Für Personen, welche ebenfalls mit der Energie etwas auf Kriegsfuß stehen, es aber zugeben, anbei nochmals die Daten zur Aussage von Herrn Özdemir:
Anstelle der genannten, „mittags regelmäßigen“ 140 Gigabyte (gemeint waren von Herrn Özdemir natürlich Gigawatt), lieferten alle EEG-Lieferanten zusammen als absolutes Maximum am 08.02.2016:
-Einmal 54,2 GW (anstelle der angeblich regelmäßigen 140 GW)
-Der Anteil Wind und Solar betrug daran: 46,24 GW, also von den seitens Herrn Özdemir angegebenen nur 1/3tel (immer daran denken, alleine diese sind weiter ausbaufähig).
-Während des ganzen Jahres gab es nur für ca. 6 Stunden 67 % vom benötigten Bedarf, anstelle Herrn Özdemirs gemeldeter „sicherer“ Überlieferung von + 50 % (gesamt 150 %) zu jeder Mittagszeit,
-den Rest des Jahres, wie die Tabellen zeigen, dann über viele Monate nur zwischen 15 … 30 % davon.

Nicht nur Laien in der Politik fühlen sich bemüßigt, Energiekonzepte zu erdichten. Parteien ernennen auch gerne Mitglieder zu Fachpersonen, ohne deren Kompetenz abzufragen, geschweige zu prüfen. Als Beispiel die Sprecherin der Bundestagsfraktion Bündnis 90/Grüne für Klimapolitik und Mitglied im Ausschusses für Wirtschaft und Energie, welcher zuständig ist für: alle Aspekte der Energiewende und die damit verbundenen Fragen des Klimaschutzes sowie für das Thema Energieeinsparung … Schwerpunkte der Energieberatungen werden die Neuregelung des Erneuerbare-Energien-Gesetzes (EEG), der Netzausbau und die Energieeffizienz sein.
GRÜNE Annalena Baerbock (Studium: Politikwissenschaft und Öffentliches Recht):
[1] … „Am Kohleausstieg führt kein Weg vorbei. Nicht nur aufgrund unserer klimapolitischen Verpflichtungen, sondern auch wegen des bevorstehenden Desasters am Strommarkt, wenn wir so weitermachen wie bisher. Es mangelt weder an erneuerbaren Energien noch an der Entwicklung von Speichern und Netzen. Es mangelt an der Bereitschaft, aus der Kohle auszusteigen. Deshalb kommen wir bei der Energiewende nicht richtig voran.“
Der Vorteil ist, dass man die vollkommene Unkenntnis dieser „Fachdame“ alleine anhand der Aussagen sofort bemerkt.

Die (versprochenen) Lösungen

Es gibt jedoch auch die „Wissenschaftlichen“, welche aus verschiedensten Gründen das gleiche tun, es aber so „belegen“, dass es nicht jeder bemerkt.
DIE BUNDESREGIERUNG, 13. Januar 2015: Erneuerbare Energien und stabile Netze
2050 werden Windparks, Solar- und Biogasanlagen mindestens 80 Prozent unseres Stroms erzeugen. Das führt zu Problemen beim Stromnetz. Es muss stabil sein, auch wenn der Strom weite Strecken zurücklegen muss. Im Rahmen der neuen Hightech-Strategie, arbeitet die Forschung an Lösungen – Zukunftsaufgabe „Nachhaltiges Wirtschaften und Energie“.
… Dass erneuerbare Energien den deutschen Strombedarf komplett decken können, wurde bereits 2007 mit dem Vorgängerprojekt Kombikraftwerk 1 nachgewiesen …In dem anschließenden Forschungsprojekt Kombikraftwerk 2 ging es vor allem um die Netzstabilität und die Sicherheit unserer Energieversorgung bei einer rein regenerativen Stromerzeugung

Mit unseren Empfehlungen ist alles erreichbar, wenn die Kosten, die Nachteile und dass es die Lösungen noch gar nicht gibt, nicht berücksichtigt werden muss.

DIE BUNDESREGIERUNG, 13. Januar 2015: Erneuerbare Energien und stabile Netze
… Die Forscher stellten fest: Die heutige Versorgungsqualität ist auch mit einer intelligenten Kombination aus erneuerbaren Energien, Speichern und Backupkraftwerken mit erneuerbarem Gas erreichbar.
… Die Regulierung des Stromverbrauchs, also ein realistisches Lastmanagementpotenzial, wurde im Modell berücksichtigt. Dies reiche aber allein nicht aus, um Erzeugung und Verbrauch in Einklang zu bringen, so das Ergebnis im Projekt. Der Bau von Energiespeichern ist für die 100 Prozent erneuerbare Stromversorgung notwendig. Die Forscher empfehlen deshalb, neuartige Speichertechnologien wie Power-to-Gas weiter zu erforschen und zu entwickeln.

Bild 10 Aktuelle Kosten des Netz(Problem)Managements (ca. 1 Milliarde EUR / pa) Quelle: R. Schuster

Zu dieser Information fragt man sich, ob die „Fachpersonen“ in unserer Bundesregierung die Untertanen bewusst desinformieren. Denn dass sie so dumm sind, die Problematik der zitierten Analysen und ihrer „Information“ dazu nicht zu durchschauen, kann man sich (bei den Gehältern) nicht vorstellen.

Das „moderne Lastmanagement“ bedeutet nichts anderes, als Verbraucher in Zukunft konsequent wegzuschalten wenn der Strom fehlt:
EIKE 02.11.2016: Verwundert, weil ihr Stadtteil dank EEG zeitweise keinen Strom bekommt? Auf unserer Homepage wurde doch darüber informiert!
Man kennt dieses Verfahren von Ländern, welche früher noch als unterentwickelt bezeichnet werden durften. Nur wurde es früher nicht als „intelligent“, sondern als notgedrungen und nachteilig bezeichnet. Seit dem neuen GRÜNSPRECH hat sich das gedreht und diese Länder sind uns in der Energieversorgungs-Entwicklung voraus. So weit, dass diese bestimmt noch vor uns den großen EEG-Sprung nach Vorne schaffen.

Kofi Annan, Vorwort im APP Bericht 2015: [2] … Africa has enormous potential for cleaner energy – natural gas and hydro, solar, wind and geothermal power – and should seek ways to move past the damaging energy systems that have brought the world to the brink of catastrophe.
Von google grob übersetzt: … Afrika hat ein enormes Potenzial für sauberere Energie – Erdgas und Wasserkraft, Solar-, Wind- und Geothermie – und sollte nach Wegen suchen, an den schädlichen Energiesystemen vorbei zu kommen, die die Welt an den Rand der Katastrophe gebracht haben …

Die Speicher – wie es in den Studien richtig erkannt wurde – gibt es nicht. Es bedeutet natürlich nicht, dass es sie nicht irgendwann geben kann. Dann muss man sich aber auch klar sein, was zum Beispiel Powert to Gas mit Rückverstromung bei 70 … 60 % Umwandlungsverlusten kostet:
EIKE 18.06.2015: Elektro-Energiespeicherung, Notwendigkeit, Status und Kosten. Teil 3 (Abschluss)
an dem im Großmaßstab dann kein Weg vorbei führt, da es sich trotzdem immer noch um das billigste, realisierbare, Groß-Speicherverfahren handelt.

Aber solche „Speichellecker“ liebt unsere Politikkaste. Und die „…Lecker“ leben gut davon. Denn die Fördermittel sprudeln zuhauf, seitdem es im EEG immer mehr (selbst erzeugte) Probleme im Großmaßstab zu lösen gibt.

100 % EEG-Stromversorgung

Im Artikel:
EIKE 11. September 2017: [1] Die GRÜNEN: Es mangelt weder an erneuerbaren Energien noch an der Entwicklung von Speichern und Netzen
wurden Details dazu ausgeführt. Daraus (Bild 10) die hochgerechneten Ganglinien bei 100 % EEG-Versorgung. Die Grafik zeigt, was es bedeutet, wenn in einer Studie steht, dass alles (von der Politik Gewünschte) machbar sei, jedoch empfohlen wird, ein paar kleine Probleme noch zu lösen, wofür bitte Forschungsgelder bereitzustellen sind:

DIE BUNDESREGIERUNG, 13. Januar 2015: Erneuerbare Energien und stabile Netze… Die Forscher stellten fest: Die heutige Versorgungsqualität ist auch mit einer intelligenten Kombination aus erneuerbaren Energien, Speichern und Backupkraftwerken mit erneuerbarem Gas erreichbar … Dies reiche aber allein nicht aus, um Erzeugung und Verbrauch in Einklang zu bringen …Die Forscher empfehlen deshalb … weiter zu erforschen und zu entwickeln
Es bedeutet nichts anderes, als: Dann fliegt uns das gesamte Energiesystem um die Ohren. Schuld sind wir aber nicht, denn bereits in unseren Simulationen konnten wir das erkennen und haben deshalb ja Empfehlungen ausgesprochen.

Bild 11 [1] EEG-Einspeisung linear hochgerechnet, so dass EEG-Jahreseinspeisung = Verbrauch + Powert to GAS Speicherverluste. Rot: EEG-Einspeisung, Braun: Strombedarf. Datenquelle: Agora

Wenn der Bund so dilettantisch agiert, könnte eine Partei in Bayern vielleicht besser sein?

Leser könnten den Eindruck gewinnen, der Autor würde vielleicht (beim Klima und EEG) „nur“ die GRÜNEN nicht leiden. Das stimmt so nicht. Die GRÜNEN bieten lediglich die konstantesten, extremsten und oft auch ulkigsten Beispiele (welche nur noch Frau Hendricks manchmal zu toppen schafft).
Auch die anderen Parteien sind davor jedoch nicht gefeit. Nehmen wir beispielhaft die CSU. Was vor über zwei Jahren darüber geschrieben wurde,:
[5] EIKE 02.07.2015: Der Wind bläst stetig– die Sonne steht still – wenn mein starker Arm es will oder warum gehen in Bayern die Lichter (noch) nicht aus
… Unser Weg führt geradewegs in den Abgrund – etwas mulmig ist uns dabei schon – aber über den Weg wird nicht diskutiert …
gilt heute immer noch.

Bild 12 Integrierte Lösung des EEG-Problems aus einem wissenschaftlichen Vortrag [6]
Denn die CSU-Umweltministerin Bayerns steht den GRÜNEN und Frau Hendricks an bedingungsloser Klimahysterie in nichts nach. Die einzige Frage welche sich bei Ihr beim Autor stellt ist: Glaubt sie das wirklich, oder ist sie eine reine, automatische Sprechpuppe dazu? Er ist sich da nicht sicher.
[7] “Wir denken Klimapolitik global, regional und lokal”
… Nach der Ankündigung des amerikanischen Präsidenten aus dem Pariser Klimaschutzabkommen auszutreten, ist für die Bayerische Umweltministerin Ulrike Scharf klar, dass Bayern zu seinem Wort stehe und Klimapolitik global, regional und vor allen Dingen auch lokal gedacht werden muss. “Wir bekommen mit den Energieagenturen ein wirklich gewichtiges Mitglied zu unserer Klima-Allianz-Familie hinzu und unsere Stimme erhält damit eine neue Tatkraft”, begrüßte die Ministerin den Landesverband der regionalen Energieagenturen im Bund der Klimaallianz Bayern…
Als Fachreferenten waren keine geringeren als Martin Bentele (Verband proHolz Bayern) und Prof. Dr. Harald Lesch (LMU München) eingeladen. Beide zeigten eindrucksvoll die Umwelt- und Klimaentwicklungen der letzten Jahrzehnte auf und verwiesen auf die Notwendigkeit einer raschen Umsetzung der Energiewende mit einer enormen Reduzierung der Treibhausgasemissionen.

Quellen

[1] EIKE 11. September 2017: Die GRÜNEN: Es mangelt weder an erneuerbaren Energien noch an der Entwicklung von Speichern und Netzen

[2] KLIMARETTER.INFO, 05. Juni 2015: Bericht fordert mehr Strom für Afrika

[3] EIKE 03.09.2017: Fake News von dpa: Offshore Windkraft produziert so viel Leistung wie vier sehr große, konventionelle Kernkraftwerke

[4] EIKE 24.01.2016: Die neuen Energien erklärt für Dummies Teil 3: Zeitreise ins Jahr 2050 des EEG Eine Energiewende ist nicht planbar

[5] EIKE 02.07.2015: Der Wind bläst stetig– die Sonne steht still – wenn mein starker Arm es will oder warum gehen in Bayern die Lichter (noch) nicht aus

[6] Prof. Dr.-Ing. Michael Sterner et al. 2013: Ringvorlesung Kraftakt Energiewende II

[7] Regensburger Energieagentur, 26 / 06 / 2017: Bayerische Energieagenturen treten der Bayerischen Klima-Allianz bei




Ist die arktische Eisbedeckung halb voll oder halb leer?

Glücklicherweise werden die Bürger über dieses Meereis-Schmelze-Wendeereignis von den dafür zuständigen Forschern immer pünktlich informiert und so geschah es auch dieses Jahr durch das AWI.
innovations report 14.09.2017 und [2]: Arktisches Meereis erneut stark abgeschmolzen
… Mit einem Minimum von rund 4,7 Millionen Quadratkilometern setzt sich in der Arktis der Trend zum Rückgang des Meereises fort
In diesem September ist die Fläche des arktischen Meereises auf eine Größe von etwa 4,7 Millionen Quadratkilometern abgeschmolzen. Dies stellten Wissenschaftler des Alfred-Wegener-Instituts sowie der Universitäten Bremen und Hamburg fest. … Die Nordost-Passage war für Schiffe ohne Unterstützung von Eisbrechern befahrbar.
Das Meereis der Arktis gilt als kritisches Element im Klimageschehen und als Frühwarnsystem für die globale Erwärmung. Aus diesem Grund ist das Septemberminimum ein wichtiger Indikator für Klimaänderungen. Trotz eines besonders warmen Winters erreicht das Meereis in diesen Tagen zwar kein neues Rekordminimum, der Eisverlust ist dennoch massiv. „Wir befinden uns mit dem diesjährigen Wert weiterhin auf einem sehr niedrigen Niveau.

Die Homepage der Klimaberaterin informierte selbstverständlich auch darüber:
KLIMARETTER.INFO, 14. September 2017: Forschung Eisverlust in der Arktis ist „massiv“

Halb voll oder halb leer – es hängt vom Standpunkt ab

Die Nachschau der Arktis-Meereisdaten zeigt eigentlich ein beruhigendes Bild. Gegenüber dem bisherigen Sommerminimum von 2012 (gestrichelte Linie) ist das diesjährige Minimum bei Weitem nicht so stark ausgefallen.

Bild 1 Arktisches Meereis, Stand 13. September 2017 (blaue Linie), Wert: 4,636 Mio. km². Minimum 17. Sept 2012 (gestrichelte Linie) Wert: 3,387 Mio. km2. Quelle: NSIDC

Im zeitlichen Verlauf des Sommerminimums seit den Satellitenaufzeichnungen sieht man es noch deutlicher. Der Stand 2017 ist höher, als der vom Jahr 2008. Al Gores Behauptung, die Arktis wäre im Sommer 2013 eisfrei, hat sich auch danach bisher nicht bestätigt.

Bild 2 Arktis, Meereisausdehnungs-Sommer-Minimum seit 1979. Stand 14. September 2017. Vom Autor ergänzt. Quelle: DMI

Für manche ist es vielleicht interessant, dass die Arktis-Sommertemperatur seit dem Jahr 1958 (Beginn der Datenreihe) praktisch gleich geblieben ist. Im folgenden Bild wurden dazu der Arktis-Temperaturverlauf vom Jahr 2017 über den vom Jahr 1958 gelegt. Man sieht: Die Arktis wurde bisher nur im Winter wärmer. Im Sommer hat sich seit dem Beginn der Messreihe nichts verändert.

Bild 3 Temperaturverlauf Arktis 1958 und 2017, Stand 14.09.2017 vom Autor übereinander kopiert. Quelle: DMU

Was zeigen diese Bilder? Das AWI hätte in seiner Pressemitteilung [2] anstelle:
Arktisches Meereis erneut stark abgeschmolzen“,
alternativ melden können:
Arktisches Sommereis-Minimum hat sich die letzten Jahre stabilisiert und das Sommereis nimmt zur“.

Wie man weiss, ist eine solch positive Meldung zum sich stetig wandelnden Klima in Deutschland nicht denkbar. Dazu ist die Forschung viel zu sehr mit einer angeblich schlimmen, zerstörerischen Form „AGW-Klimawandel“ verknüpft, deutlicher ausgedrückt: Von einer hoffentlich nicht endenden AGW-Klimawandel-Hysterie abhängig.

Das AWI hat sich geradezu aufgebläht und darf seine Forschungsflotte dank hoher, stetiger Förderung aus Berlin ausbauen.
WIKIPEDIA: AWI
Das AWI wurde 1980 im Zuge des deutschen Beitritts zum Antarktisvertrag gegründet. Anfangs wurde nur eine Handvoll Mitarbeiter beschäftigt, während das AWI heute 920 Forscher, Techniker und Verwaltungsangestellte an den unterschiedlichen Standorten einsetzt
.

Zudem ist das AWI stark beim IPCC involviert: [3]Die Mitarbeiterinnen und Mitarbeiter des AWI und des IfM-GEOMAR haben sich im Rahmen des IPCC (International Panel on Climate Change) als (Leit-)Autorinnen und Autoren und durch Gutachtertätigkeit wie auch innerhalb des IPY (International Polar Year) | 28 engagiert…
Das parallel beteiligte CEN macht gar kein Hehl daraus, wo seine Schwerpunkte liegen – jedenfalls nicht in der neutralen Forschung. Auch diese Mitarbeiter wollen ihr Arbeitsleben lang bezahlt werden:

Das Centrum für Erdsystemforschung und Nachhaltigkeit, kurz CEN, ist ein zentrales Forschungszentrum der Universität Hamburg und Teil des Netzwerks KlimaCampus Hamburg.
Beteiligt sind Ozeanographen, Meteorologen, Meeresbiologen, Geophysiker, Geologen, Bodenkundler, Geographen, Biogeochemiker, Wirtschafts- und Sozialwissenschaftler, Historiker sowie Friedens- und Sicherheitsforscher. Sie alle beschäftigen sich mit Klima-, Umwelt- und Erdsystemforschung.
Das CEN fördert die Konzeption und Durchführung von Forschungsvorhaben und unterstützt seine Mitglieder bei der Einwerbung von Drittmitteln.
Außerdem koordiniert das CEN aktuell den Antrag der Hamburger Klimaforschung im Rahmen der Exzellenzstrategie des Bundes und der Länder.

Wie waren die Vorhersagen zum Sommereis?

Einfach gesagt: Katastrophal. Grund war das sehr geringe Wintereis (im Bild 1 deutlich zu sehen). Entsprechend überschlugen sich „Fachleute“ und Medien mit Apokalypsen.

Wetterkanal, 8. Januar 2017: Arktiseis auf Rekordtiefstand
… Wenn es so durch den restlichen Winter weiter geht, ist kein allzu großes Polster für den arktischen Sommer vorhanden. Einige Wissenschaftler erwarten, dass in naher Zukunft das arktische Meereis im Sommer ganz abtauen könnte.
DER TAGESSPIEGEL 26.03.2017: Der Arktis geht das Eis aus
Forscher warnen: Noch nie war am Ende des Winters die zugefrorene Fläche so klein. Es ist der dritte Rekord-Tiefststand in Folge … Für die Eisbedeckung in dem nun einsetzenden Sommerzyklus sind dies schlechte Voraussetzungen … Eine Modellberechnung der Universität Washington ergab, dass das Eisklumpen in der Arktis in diesem Jahr ungewöhnlich gering ist. Das bedeutet, dass das Meereis in der Arktis wieder sehr anfällig ist für die sommerlichen Temperaturen und die Stürme in der Nordpolregion ist.

Das wirkliche Ergebnis der Natur zeigt, dass auch das Arktiseis nicht so einfach „Schwarz-Weiss“ „denkt“.

Was nicht linear funktioniert, funktioniert dann vielleicht parabolisch. Hauptsache, es führt zu „sicheren“ Vorhersagen. Anbei Bilder, was dabei herauskommt und wie „adaptiv“ sie geführt werden.

Meereisvolumen-Vorhersagen. Die parabolische, rote Ausgleichslinie endet im Jahr 2011; 2015; 2022. Quelle: Arctic Sea Ice Blog

Bild 5 Meereisvolumen-Vorhersage. Vom Autor darüber kopiert der aktuelle Verlauf Meereisausdehnung Stand Sept. 2017.

Das kann nicht stimmen. Es gelang dieses Jahr doch erstmals einem großen Schiff, ohne Eisbrecher die Nordostpassage zu durchfahren

Als der Papst von seiner Südamerikareise zurückflog, wüteten gerade die Hurrikans in der Karibik und um Florida. Ein Anlass für den Papst, noch im Flugzeug in einem Interview seine spezielle Kenntnis über den Klimawandel zu äußern. Man könnte über sein Interview fast einen eigenen Artikel schreiben, anbei soll aber nur eine Angabe aufgegriffen werden.
KATHOLISCHES, 11. September 2017: Papst Franziskus über den Klimawandel: „Der Mensch ist ein Tier und dumm“
Fragesteller: … Gibt es eine moralische Verantwortung der politischen Führer, die eine Zusammenarbeit mit anderen Staaten zur Kontrolle der Treibhausgase ablehnen, weil sie bestreiten, daß dieser Wandel ein Werk des Menschen ist?
Papst Franziskus: … Wer das leugnet, muß zu den Wissenschaftlern gehen und sie fragen: Sie sprechen sehr klar und präzise.
Am vergangenen Tag, als die Nachricht jenes russischen Schiffes veröffentlicht wurde, das von Norwegen bis Japan, bis Taipei, fuhr mit einem Nordpol ohne Eis, veröffentlichte eine Universität eine andere Nachricht, die besagt: „Wir haben nur drei Jahre, um umzukehren, andernfalls werden die Folgen schrecklich sein.“

Nordpol ohne Eis“? Ein Papst muss wohl nicht alles so genau beschreiben und Al Gore als Klimapapst hat es ja für das Jahr 2013 vorhergesagt. Dass es bei Weitem noch nicht eingetroffen ist, muss ein Kirchenpapst wohl noch nicht wissen. Doch welche Fahrt eines russischen Schiffes hat der Papst gemeint, um sein „Wissen“ über den bereits erfolgten „Eintritt“ des AGW-Klimawandel zusätzlich zu belegen? Wohl die Fahrt, welche auch in der AWI-Pressemitteilung [2] erwähnt ist.
Es lohnt sich, Details darüber nachzusehen.
WIKIPEDIA hilft nicht viel, weist aber darauf hin, um welches russische Schiff es sich handelte. Sonderbar ist, dass dort steht: „ohne Hilfe eines Eisbrechers“, allerdings mit dem Zusatz: „speziell dafür gebauter …“.

WIKIPEDIA: Nordostpassage
Die erste Gesamtdurchfahrt, mit einer
Überwinterung, gelang Adolf Erik Nordenskiöld 1878/79. Erst 53 Jahre später (1932) gelang dem Eisbrecher Alexander Sibirjakow die erste Durchfahrt ohne Überwinterung. Daraufhin richtete die Sowjetunion die Hauptverwaltung Nördlicher Seeweg ein. Im Sommer 1940 drang der deutsche Hilfskreuzer Komet mit Hilfe russischer Eisbrecher durch die Nordmeerpassage in sein Operationsgebiet im Pazifik vor. In den 1950er und 1960er Jahren wurde der Seeverkehr durch Anlage der Häfen Dikson, Tiksi, Pewek und Prowidenija systematisch ausgebaut und die Schifffahrtsperiode durch den Einsatz leistungsfähiger Eisbrecher verlängert.
Ein speziell dafür gebauter und nach
Christophe de Margerie benannter Flüssiggastanker durchfuhr im Sommer 2017 erstmals die Nordostpassage ohne Hilfe eines Eisbrechers.

Schnell fündig wird man beim weiteren recherchieren: Das Schiff, welches ohne Eisbrecher fuhr, ist selbst als hochklassiger Eisbrecher zum Lastentransport gebaut. Naheliegend, dass es keinen zusätzlichen benötigte. Auf die AWI-Pressemeldung [2] wirft dies allerdings einen großen Schatten, man fühlt sich irgendwie bewusst be…
BBC, 24 August 2017: First tanker crosses northern sea route without ice breaker
The Christophe de Margerie is the world’s first and, at present, only ice-breaking LNG carrier.
The ship is the first of a new fleet specially constructed to sail through ice all year round
The ship, which features a lightweight steel reinforced hull, is the largest commercial ship to receive Arc7 certification, which means it is capable of travelling through ice up to 2.1m thick.

Deutsche Schifffahrts-Zeitung, 10. Mai 2017: Eisbrechender LNG-Tanker in Hamburg
Bei dem mit 128.806 BRZ vermessenen Schiff (IMO 9737187) handelt es sich um den ersten eisbrechenden LNG-Tanker dieser Größenordnung. Der 299 Meter und 50 Meter breite Neubau verfügt über die höchste Eisklasse ARC-7 und kann mit seinem verstärkten Rumpf bis zu 2,1 Meter dicke Schollen brechen.

Nun stellt sich die Frage: Hat der Papst so oberflächlich gegoogelt, oder sind es seine Klimaberater? Oder hat er sich einfach auf die AWI-Pressemitteilung verlassen [2], ohne zu wissen, wie in Deutschland grundsätzlich zu diesem Thema „informiert“ wird? Wenn alles, was dieser Papst (Einschränkung: Zum Klimawandel) meint zu wissen, so (un-)fundiert ist und auf Glauben und Hörensagen beruht, dann ….

Ein kleines Randthema wirft der Verweis des Papstes auf das Alte Testament auf. Nachdem der Autor schon einmal über den anscheinend übersehenen Einfluss einer transzendentalen Macht zum Klima geschrieben hat,
EIKE 22.07.2016 : [4] Wurde ein Klimawandel-Einfluss bisher übersehen? Was ist, wenn Gott anstelle von CO2 das Klima lenkt?
wollte er natürlich wissen, auf welchen Aktions-Hintergrund sich die vom Papst angegebene Psalmenstelle im Alten Testament bezieht und ob damit wirklich eine Verbindung zur Klimakritik herstellbar ist.

Papst Franziskus: Mir fällt ein Satz aus dem Alten Testament ein, ich glaube in den Psalmen: Der Mensch ist dumm, ein Dickkopf, der nicht sieht. Das einzige Tier der Schöpfung, das den Fuß auf das gleiche Loch stellt, ist der Mensch. Das Pferd u.a. tun das nicht.
Der Autor hat in der Bibel bisher noch nirgendwo eine Textstelle finden können, welche dem Mensch das Lenken des Klimas oder Wetters auch nur im Ansatz zugesteht. Als AGW-klimawandelkritisch eingestellte Person wäre es jedoch schon wichtig, eventuelle Prophetensprüche dazu zu kennen, auch wenn das Alte Testament für Christen nicht mehr gilt (sofern die Kirche auf die durchgängig grausamen, allen heutigen Humanregeln widersprechenden Inhalte angesprochen wird), jedoch als Gottes Wort notwendig bleibt, weil es sonst keinen Jesus geben könnte.

Er hat sich die Mühe gemacht, in den 150 Psalmen nachzusehen. Er fand jedoch nirgendwo eine Textstelle, auf die das Papstzitat zutreffen könnte. Aber vielleicht kennt sich jemand im Blog besser aus und kann helfen.

Quellen

[1] EIKE 09.04.2017: Klima-Lügendetektor: Wer der Bildzeitung sagt, Eisbären würden nicht durch den Klimawandel sterben, ist ein schlimmer Demagoge
[2] AWI 14. September 2017, Gemeinsame Presseerklärung des Alfred-Wegener-Instituts, Helmholtz-Zentrum für Polar- und Meeresforschung (AWI), der Universität Bremen und des Centrum für Erdsystemforschung und Nachhaltigkeit (CEN) der Universität Hamburg: Meereisminimum 2017 Arktisches Meereis erneut stark abgeschmolzen

[3] Wissenschaftsrat Drs. 10330-10 Lübeck 12 11 2010

[4] EIKE 22.07.2016 : Wurde ein Klimawandel-Einfluss bisher übersehen? Was ist, wenn Gott anstelle von CO2 das Klima lenkt?




Reiche Länder hinsicht­lich Extrem­wetter belastbarer

Während durch Naturkatastrophen immer noch Tausende Menschen weltweit jährlich ums Leben kommen, fordern diese Katastrophen ihre Opfer ungleichmäßig. Während eines typischen Jahres mögen in Europa Hunderte Menschen in Europa und den USA sterben infolge Überschwemmungen, Hurrikane und Erdbeben. Die gleichen Ereignisse töten in jedem Jahr Tausende Menschen in Asien, in Süd- und Mittelamerika sowie auf kleinen Inselnationen.

Warum ist das so unterschiedlich? Erdbeben und Hurrikane sind in Entwicklungsländern nicht stärker als in den entwickelten Ländern. Und Überschwemmungen in Europa und den USA richten Schäden in Milliardenhöhe an, fordern aber nur relativ wenige Menschenleben. Im Gegensatz dazu ertrinken in Asien in jedem Jahr Tausende bei Überschwemmungen. Es ist nicht das unterschiedliche Klima, das sich in Entwicklungsländern viel schlimmer auswirkt als in industrialisierten Ländern, sondern vielmehr der Unterschied des Wohlstands.

Eigentumsrechte und die Marktökonomie, gestützt durch starke, aber begrenzte Regierungs-Institutionen neben verstreuten Selbsthilfe-Netzwerken auf ehrenamtlicher Basis haben einen Wohlstand geschaffen, der vorher unvorstellbar war. Dieser Wohlstand wurde gestützt und hat noch weiter zugenommen durch die Entwicklung moderner Infrastruktur: Starke Strukturen, die widerstandsfähig sind gegen Katastrophen sowie Baumaterialien, Verfahren und Standards; außerdem Technologien wie Frühwarnsysteme und Notfallpläne, moderne medizinische Versorgung und Einrichtungen. Jedes einzelne dieser Elemente macht industrialisierte Gesellschaften noch widerstandsfähiger.

Bereits im Jahre 1900 war Galveston eine relativ große, moderne Stadt. Und doch forderte der Große Galveston-Hurrikan (der Kategorie 4) über 8000 Todesopfer. Im Gegensatz dazu forderte der Hurrikan Ike im Jahre 2008 lediglich 84 Todesopfer, und trotz all des Geredes über Hurrikan Harvey (Kategorie 5) forderte dieser lediglich 70 Todesopfer in den 23 am stärksten betroffenen Landkreisen (counties). Entlang der Küste von Texas leben heute Millionen mehr Menschen als im Jahre 1900, aber die heutige Generation ist viel wohlhabender als die Generation damals.

So tödlich der Hurrikan Katrina im Jahre 2005 auch war, der über 1200 Todesopfer forderte, verblasst dies im Vergleich mit den 300.000 bis 500.000 Todesopfern in Bangladesh durch den großen Bhola-Zyklon im Jahre 1970 oder die 138.000 Todesopfer in Myanmar durch den Zyklon Nargis im Jahre 2008.

Obwohl Erdbeben schwer zu vergleichen sind bzgl. Magnitude und Örtlichkeit sind Unterschiede der Mortalität über Örtlichkeiten und Zeit hinweg immer noch aussagekräftig. Das Große San Francisco-Erdbeben mitsamt des nachfolgenden Großbrandes forderte 700 bis 3000 Todesopfer. Zum Vergleich, das Erdbeben der Stärke 6,9 in der San Francisco Bay im Jahre 1989 forderte nur 67 Menschenleben. Im Jahre 1989 lebten in San Francisco drastisch mehr Menschen als im Jahre 1904. Aber die modernen Einwohner waren viel wohlhabender, und die Infrastruktur und das Energiesystem ihrer Stadt war entsprechend viel besser, so dass weniger Menschenleben zu beklagen waren.

So verheerend das Erdbeben sowie der dadurch ausgelöste Tsunami vom 11. März 2011 mit der Stärke 8,9 in Japan auch war, wobei 20.000 Menschen ums Leben kamen oder seitdem vermisst sind, verblasst dies doch im Vergleich mit den 230.000 Menschen, die in und um Port-au-Prince in Haiti durch ein Erdbeben der Stärke 7,0 am 12. Januar 2010 starben; oder die hunderttausende Todesopfer und Vermissten in Asien, nachdem ein Erdbeben der Stärke 9,2 am 26. Dezember 2004 Tsunamis in der gesamten Region auslöste, oder auch die 142.800 Todesopfer in Tokio im September 1923 durch das Große Kanto-Erdbeben. Das heutige Japan ist wohlhabender als das heutige Haiti, wohlhabender als die Gebiete Asiens, welche 2004 durch Erdbeben und Tsunamis verwüstet worden sind – und wohlhabender als das Japan des Jahres 1923.

Trotz der Tatsache, dass Taiwan um 600% dichter besiedelt ist als die Türkei, hat das Erdbeben der Stärke 7,6 vom 21. September 1999 dort etwa 2500 Menschen getötet. Zum Vergleich, ein Erdbeben der Stärke 7,4 in der Türkei am 17. August 1999, also gerade mal einen Monat zuvor, tötete über 17.000 Menschen in nur zwei Städten. Im Jahre 1999 war das Pro-Kopf-Einkommen in Taiwan mehr als doppelt so hoch wie in der Türkei.

Wohlhabendere Gesellschaften sind einfach widerstandsfähiger als arme Gesellschaften. Gemeinden in wohlhabenderen Ländern haben eine bessere Infrastruktur und sind allgemein besser auf Naturkatastrophen vorbereitet und auch viele schneller und effektiver in der Lage, nach dem Ereignis tätig zu werden als vergleichbare ärmere Gemeinden.

Fossile Treibstoffe sind der entscheidende Faktor bei der Erzeugung von Wohlstand. Björn Lomborg und Roy Spencer, PhD, haben geschrieben, dass die Restriktionen bzgl. fossiler Treibstoffe in dem Pariser Klima-Abkommen 100 Billionen Dollar an Wohlstand vernichten werden in diesem Jahrhundert – und das, um eine „nicht messbare Reduktion der Erwärmung“ zu erreichen. Weiter sagt Spencer, dass diese Wohlstands-Vernichtung/-Verhinderung „zu Millionen (vermeidbarer) Todesfälle führen wird infolge Armut und aller damit einher gehenden Probleme … Armut tötet Millionen. Soweit wir wissen, haben menschliche CO2-Emissionen bislang kein einziges Todesopfer gefordert. Tatsächlich wurden vielmehr Millionen Menschenleben gerettet und Wohlstand gefördert“.

Der Verbrauch fossiler Treibstoffe seitens der Menschen hat das Klima nicht verschlechtert und es gefährlicher für die menschliche Gesundheit oder den Wohlstand gemacht. Im Gegenteil, der Verbrauch von Öl, Kohle und Erdgas hat die Welt positiv verändert, was es Milliarden gestattet, freier, gesünder, wohlhabender und länger zu leben als die große Mehrheit der mächtigsten Völker in der menschlichen Historie.

Historische Könige kontrollierten Armeen und unsägliche Reichtümer. Ich habe ein Auto, einen Mikrowellen-Ofen, ein WC und sauberes Trinkwasser; ich kann fast alle Früchte oder Gemüsesorten essen ohne Rücksicht auf die Jahreszeit; ich kann in wenigen stunden um die Welt reisen. Alle Reichtümer und Macht, welche die historischen Eroberer angehäuft haben, könnten nichts davon kaufen, und alles wurde ermöglicht durch den Verbrauch fossiler Treibstoffe.

Der Aufstieg aus Armut und Not erfolgte nicht unter einer Tyrannei oder unter Feudalismus, sondern unter dem Kapitalismus. Er war nicht getrieben von Tierdung, tierischer Kraft oder Windmühlen, sondern er war getrieben durch fossile Treibstoffe und die durch diese angetriebenen Technologien. Die heutigen Armen verdienen die Chance, so zu leben wie ich und nicht so wie unsere Vorfahren Jahrtausende lang, die sich in ihrer Armut quälten und ständig von Krankheiten und Mangelernährung bedroht waren. Nur fossile Treibstoffe können sie vor diesem Schicksal bewahren.

Quellen: The SpectatorScience and Environmental Policy ProjectJournal of American Physicians and Surgeons; BBCWunderground: Tropical CyclonesWunderground: U.S. Hurricanes; und Dr. Roy Spencer




Diesel-Verteu­felung: Krieg gegen das eigene Volk – Diesel: Die Lücken­medien im Glashaus (2)

Bild 1. Der Vergleich der NO2-Jahresmittelwerte zeigt ungeachtet der unterschiedlichen Farbskalen, dass die Werte in der Umgebungsluft seit 2001 deutlich zurückgegangen sind (Grafiken: UBA)

Im ersten Teil wurde nachgewiesen, dass die NO2-Belastung der Luft in ganz Deutschland und auch an den sogenannten „Hotspots“ in Städten zurückgegangen ist. Grund ist die stetige Ablösung älterer durch jüngere Fahrzeuge mit besseren Abgasbehandlungssystemen. Dieser Trend wird sich auch in den nächsten Jahren fortsetzen. Im jetzigen zweiten Teil der Analyse wird zunächst der Frage nachgegangen, warum die Grenzwerte trotz stark gesunkener Gesamtemissionen ausgerechnet an diesen „Hotspots“ nur vergleichsweise langsam zurückgehen, Bild 2.

Bild 2. Im Unterschied zum Rückgang der Emissionen, die von 1990 bis 2016 um mehr als die Hälfte abnahmen, sanken die NO2-Luftwerte auf Straßenniveau nur vergleichsweise wenig (Grafik:UBA)

Luftbelastungen werden gezielt „herbeigemessen“

Der hierfür ist ganz einfach: Diese Diskrepanz wird „herbeigemessen“. Das scheinen die „Faktenfinder“-Autoren jedoch gar nicht so gerne hören zu wollen und kritisieren deshalb den bereits erwähnten „Welt“-Beitrag. Dort steht, dass es „nur punktuell, in wenigen schluchtartigen Straßenzügen“ zu gelegentlichen Überschreitungen des mittleren Jahresgrenzwertes von 40 µg/m3 komme. Dem halten die „Faktenfinder“ entgegen, dass 2016 an insgesamt 144 von 246 der städtischen verkehrsnahen Luftmessstationen (59 %) der Grenzwert überschritten worden sei. Sie zitieren hierzu Felix Poetschke, den Pressesprecher des Umweltbundesamtes, mit den Worten: „Das Problem mit zu hohen, gesundheitsschädigenden Werten von NO2 ist also ein bundesweites: Viele Menschen sind diesen hohen Konzentrationen ausgesetzt“.

Nun, obwohl das UBA als Bundesbehörde eigentlich der Allgemeinheit verpflichtet sein müsste, werden dort in der Realität schon seit langem vor allem „grüne“ Positionen vertreten. Deshalb wurden Messstationen vielfach mit Bedacht an solchen Stellen platziert, wo man die höchstmöglichen Luftbelastungen messen konnte. Bevorzugt suchte man solche Bereiche aus, wo die Emissionen des Verkehrs in „toten Winkeln“ der Luftströmungen gefangen blieben. Dies ist von der entsprechenden EU-Gesetzgebung sogar ausdrücklich vorgegeben: Der Ort von Probenahmestellen ist so zu wählen ist, dass „Daten über Bereiche innerhalb von Gebieten und Ballungsräumen, in denen die höchsten Konzentrationen auftreten“….gewonnen werden.

Dies wurde nicht nur vom UBA, sondern auch von vielen grün orientierten Stadtverwaltungen begeistert aufgegriffen. Von den aktuell 517 Messstellen, die von der UBA insgesamt in Deutschland betreut werden, lieferten 2016 immerhin 144 die gewünschten hohen Messwerte. Manche Städte greifen sogar zusätzlich zu verkehrsbehindernden Maßnahmen mit dem Ziel, durch die erzwungenen Stopps und Neustarts den Schadstoffausstoß noch weiter in die Höhe zu treiben – als „erzieherische Maßnahme“, um die Autofahrer dazu zu bewegen, auf Bus und Bahn umzusteigen, wie der SPD-OB von Düsseldorf in einem kürzlichen Fernsehinterview offen zugab [HEUTE]. Kein Wunder also, dass 59 % der Messstationen an Hotspots „kritische“ Werte liefern. Wie stark eine „clevere“ Wahl des Messortes die Werte beeinflussen kann, zeigt das Beispiel Stuttgart, Bild 3.

Bild 3. Schon in vergleichsweise geringer Entfernung von „Am Neckartor“ (kleiner roter Kreis) zeigen andere Messstationen NO2-Jahresmittelwerte an, die um 38 oder sogar 60 % niedriger liegen (Grafik: IFKM/ KIT)

Ein noch besseres Verständnis dafür, wie sich diese Tricks auswirken, ergibt sich aus Bild 4.

Bild 4. Schon auf dem Dach sowie innerhalb des Gebäudes, das direkt an der Messstelle „Am Neckartor“ steht, liegen die Werte weit unterhalb kritischer Bereiche (Grafik: IFKM/ KIT)

Bild 4 zeigt, dass „dicke Luft“ nur im Bereich des Bürgersteigs vor dem Eingang herrscht. Hier verläuft die sechsspurige B14, über die sich der ganze Verkehr in die leistungsstarken Industrieregionen östlich von Stuttgart quälen muss, weil man versäumt hat, Umgehungsstraßen vorzusehen. Die Messstelle selbst wird auf der einen Seite durch ein mehrstöckiges, direkt an den Bürgersteig gesetztes Gebäude und auf der anderen Seite durch die hohe Mauer zum Schlossgarten eingegrenzt. Auf dem Grund der so gebildeten engen Schlucht wird die Luftzirkulation stark behindert, so dass sich die Abgase aufkonzentrieren. So kann eine Stadtverwaltung mit nur einer besonders geschickt platzierten Messstelle ihrer Stadt den zweifelhaften Ruf als „schmutzigste“ Stadt in Deutschland verschaffen.

Belastungsschwerpunkte“ nicht repräsentativ für den Rest des Landes

Wie wenig repräsentativ für eine wirklich nennenswerte Fläche in einer Stadt solche gezielt ausgewählten „schmutzigen“ Messorte in Wirklichkeit sind, zeigt Bild 5. Hierfür wurden die Ergebnisse einer Untersuchung des Ausbreitungsverhaltens von verkehrsbedingten Luftschadstoffen auf beiden Seiten einer stark befahrenen Schnellstraße [PEEL] herangezogen.

Bild 5. Die relative Konzentration von Abgasen nimmt auf beiden Seiten stark befahrener Straßen rapide ab. Die Grafik stammt aus einer Präsentation von J. Peel [PEEL], die Werte wurden auf den Durchschnitt der „Hotspot“-Messungen des Jahres 2016 in Deutschland normiert
Die ursprüngliche Grafik war auf Prozentzahlen vom Maximalwert des Schadstoffs direkt an der Straße normiert. Die Skala wurde der besseren Vergleichbarkeit wegen auf den Mittelwert aller 144 im Jahre 2106 über dem Grenzwert liegenden deutschen Messstationen umgerechnet, der bei knapp 50 µg/m3 lag. Bei der Bearbeitung dieser Zahlen fiel zudem auf, dass nur insgesamt sieben Stationen oberhalb von 60 µg/m3 lagen. Davon wiesen vier Werte zwischen 60 und 70 µg/m3 auf, gefolgt von drei Einzelwerten mit 76, 80 bzw. 82 µg/m3. Die Gesamtbreite der Zone mit NO2-Gehalten oberhalb des Grenzwerts liegt im statistischen Mittel bei lediglich 80 m, d.h. sie umfasst lediglich je 40 m rechts und links von der Straße. Das sind im Prinzip lediglich die direkt an der betreffenden Straße stehenden Gebäude. Bezieht man noch die rapide Abnahme der Belastung in vertikaler Richtung ein (siehe Bild 3, Unterschied Straßenniveau und Gebäudedach), so ist es selbst im Bereich der sogenannten „Hotspots“ nur ein verschwindend kleiner Bruchteil des gesamten städtischen Luftvolumens, das tatsächlich oberhalb des Grenzwerts liegt. Damit steht die Argumentation des UBA und damit der Faktenfinder auf äußerst dünnem Eis. Dem UBA sowie etlichen Stadtverwaltungen kann man zudem den Vorwurf machen, dass sie diese „kritischen“ Grenzwertüberschreitungen durch gezielte Auswahl ungünstig gelegener Messstellen ohne ausreichenden Luftaustausch bewusst herbeigeführt haben. Die mit den so gewonnenen Werten jetzt betriebene Panikmache ist weit überzogen. Fahrverbote ausgerechnet nur für Diesel-Privatfahrzeuge sind damit keinesfalls zu rechtfertigen. Dies wird den Urhebern noch auf die Füße fallen.

Hohe Wirksamkeit verkehrslenkender Maßnahmen

Selbst in einer Stadt mit so ungünstigen Voraussetzungen wie Stuttgart, wo es keinen Umfahrungsring gibt und die Kessellage den Luftaustausch behindert, kann eine Verwaltung, wenn sie nur will, durch geeignete Maßnahmen wesentlich zur Verringerung der Luftbelastung beitragen. Ein Beispiel hierfür liefert die Situation an der „Hot-Spot“-Messstelle an der Hohenheimer Straße. Auf dieser wichtigen Verkehrsverbindung durch Stuttgart quälen sich täglich rund 30.000 Fahrzeug über eine abschüssige Straße mitten durch die Stadt. Entsprechend hoch waren dort früher die NO2-Messwerte, Bild 6.

Bild 6. Zusammen mit „Am Neckartor“ war die Messstelle an der Hohenheimer Straße lange ein Brennpunkt für hohe NO2-Werte (Grafik: LUBW)

Der erhebliche Rückgang ab 2012 ist der Erfolg von Maßnahmen zur Verkehrsverstetigung. Das Parkverbot wurde verlängert und eine „grüne Welle“ eingeführt. Die so herbeigeführte Verstetigung bewirkte eine erhebliche Reduzierung der NO2-Spitzenkonzentrationen. Die Zahl der Grenzwertüberschreitungen sank in der Folge geradezu schlagartig von 196 im Jahre 2012 auf voraussichtlich nur noch 5-6 im Jahre 2107, Bild 7.

Bild 7. Durch gezielte Maßnahmen zur Verstetigung des Verkehrs ging die Zahl der Grenzwertüberschreitungen nach 2012 drastisch zurück (Grafik: Stadt Stuttgart)

Im Umkehrschluss kann man hieraus erkennen, was manche Stadtväter wie Düsseldorfs SPD-OB Thomas Geisel durch gezielte Herbeiführung von Stop-and-Go-Verkehr bewirken können. So können Politiker aus ideologischer Verblendung die Bevölkerung und den Autofahrer quasi zu Geiseln einer fehlgeleiteten Politik machen.

Fakten und „Faktenfinder“

Die bisherige Analyse der von den „Faktenfindern“ von NDR und Tagesschau präsentierten Aussagen lässt erkennen, dass man sich dort alles andere als kritisch-investigativ mit dem Thema NO2-Immissionen der Stadtluft beschäftigt hat. Stattdessen übernimmt man einfach die Positionen des UBA, als seien deren Ansichten der Weisheit letzter Schluss. Eine eigenständige kritische Wertung der Daten und der Hintergründe ist nicht einmal in Ansätzen erkennbar. Dies bestätigt die bereits bisher gemachte Erfahrung, dass die Medien – allen voran die Fernsehanstalten ARD, ZDF und ihre Landesdependancen – beim sogenannten „Diesel-Skandal“ einseitig, parteiisch und irreführend berichten. Ausgewogenheit und Sorgfalt scheinen nicht gefragt zu sein. Stattdessen bemüht man sich offenkundig darum, das Thema so darzustellen, wie die Bundesbehörden sowie die anderen etablierten Parteien es gerne haben möchten. Abweichende Meinungen von Medien, Journalisten oder Blogger werden als unglaubwürdig hingestellt. So leistet man dem ideologischen Ziel der Deindustrialisierung Deutschlands durch „Dekarbonisierung der Volkswirtschaft“ Vorschub. Der Diesel ist dabei nur das erste Opfer. Es wird danach weitergehen, und zwar alternativlos.

Fred F. Mueller

Demnächst folgt Teil 3

Quellen

[FAKT] http://faktenfinder.tagesschau.de/inland/stickstoffdioxid-111.html

[HEUTE] „Heute“-Nachrichtensendung des ZDF vom 9.8.2017, Interview mit Thomas Geisel, SPD-Oberbürgermeister der Stadt Düsseldorf, Stichwort „Verkehrserziehung in Richtung Zukunft“

[PEEL] JENNIFER L. Peel Is NO2 a Marker for Effects of Traffic Pollution or a Pollutant on Its Own. COLORADO STATE UNIVERSITY MAY 4, 2015 HEI ANNUAL MEETING PHILADELPHIA, PA




HADCRU Energie und Temperatur

Um die Größenordnung des Treibhauseffektes zu berechnen, wird die einfallende und ausgehende Strahlung üblicherweise verglichen mit den Strahlungsemissionen der Erde mit ihrer gemittelten Temperatur von 14°C bis 15°C. Diese geht auf den Datensatz der absoluten Temperatur der HADCRU-Version 4 1961 bis 1990 zurück. Mittels der Planck-Funktion oder des ähnlichen Stefan-Boltzmann-Gesetzes (siehe Gleichung 1) kann die von der Erde emittierte Strahlung aus deren Temperatur T berechnet werden unter der Annahme, dass sich die Erde wie ein Schwarzkörper verhält. Normalerweise wird die Strahlungsberechnung durchgeführt unter der Annahme einer Emissivität (e) von 1. Dies bedeutet, dass die Erde ein perfekter Schwarzkörper ist, der genauso viel Energie emittiert wie er empfängt. Das verwendete Gebiet beträgt 1 Quadratmeter, so dass das Ergebnis in Watt/m² vorliegt. Mittels dieser Annahmen ergibt die Berechnung, dass die Erde etwa 390 W/m² emittiert bei einer Temperatur von 288 K (Kiehl and Trenberth, 1997).

Gleichung 1 (Quelle)

Wenn er auf diese Weise berechnet wird, zeigt der Treibhauseffekt (GHE) ein Ungleichgewicht von 390 – 239 = 151 W/m². Kiehl und Trenberth 1997 berechneten einen ähnlichen Gesamtantrieb von 155 W/m² mittels des gleichen Verfahrens. Die GHE-Berechnung erfolgt unter vielen Annahmen, von denen nicht die Geringste die Annahme ist, dass die Erde eine Emissivität von 1 aufweist und ein Schwarzkörper ist. Aber hier wollen wir das Problem der Verwendung einer globalen mittleren Temperatur T der Erde in Betracht ziehen, welche eine rotierende Kugel ist, wobei zu jeder Zeit nur die Hälfte dieser Sphäre der Sonne zugewandt ist.

Ein spezifisches Problem ist, dass die Erde eben keine gleichmäßige globale Temperatur aufweist. Falls man diese mit 288 K annimmt, dann wird es Stellen auf dem Planeten geben, welche genau diese Temperatur aufweisen, und diese Stellen werden in etwa 390 W/m² emittieren. Aber auf dem allergrößten Teil des Planeten wird die Temperatur eine andere sein und Energie proportional zu T4 emittieren. Das Mittel der Temperatur zur vierten Potenz ist nicht das gleiche wie das Mittel von T4. Dies ist einfache Hochschul-Algebra, und wie groß wird die Differenz dadurch wohl sein?

Um dies zu beantworten, wenden wir uns jetzt der Version 4 des globalen Temperatur-Datensatzes der Hadley Climate Research Unit (HADCRU) zu. Wir ziehen deren Version 4 mit der Referenzperiode 1961 bis 1990 heran sowie deren Temperaturanomalie-Datensatz von 1850 bis 2017. Die Konstruktion der Referenzperiode und der Anomalie-Datensätze wird von Jones et al. (2012) beschrieben. Da die Reihen der Temperaturanomalien Anomalien jeder Reihe im Vergleich zur Periode 1961 bis 1990 sind, sollten wir in der Lage sein, die Referenztemperatur der Reihen zu nutzen, um die Anomalien in absolute  Temperaturwerte umzuwandeln. In beiden Fällen handelt es sich um Datensätze mit Gitterpunkten von 5° zu 5°. Anomalien werden für jede Station berechnet, um Probleme wegen der unterschiedlichen Seehöhen zu vermeiden. Das wird vor dem Anbringen des Gitternetzes gemacht. Addiert man folglich die Referenztemperatur zu der Anomalie, erhält man nicht die Original-Messungen. Auf der Website von HADCRU heißt es dazu:

Festlandsstationen befinden sich in unterschiedlichen Höhen (bezogen auf NN), und verschiedene Länder messen mittlere monatliche Temperaturen mittels verschiedener Verfahren und Formeln. Um Verzerrungen aufgrund dieser Probleme zu vermeiden, werden die monatlichen mittleren Temperaturen reduziert auf Anomalien hinsichtlich der Referenzperiode mit der besten Abdeckung (1961 bis 1990). Für die herangezogenen Stationen muss ein Mittelwert der Referenzperiode berechnet werden. Weil die Messreihe vieler Stationen von 1961 bis 1990 nicht vollständig sind, kamen verschiedene Verfahren zur Anwendung, um Mittelwerte 1961 bis 1990 aus benachbarten Stationen oder anderen Datenquellen zu erhalten (mehr dazu bei Jones et al., 2012). Über den Ozeanen, wo Beobachtungen allgemein von mobilen Plattformen erfolgen, ist es unmöglich, lange Temperaturreihen für bestimmte feste Punkte zu erhalten. Allerdings kann man historische Daten extrapolieren, um räumlich vollständige Referenzwerte (Mittelwerte 1961 bis 1990) zu erstellen, so dass individuelle Beobachtungen verglichen werden können mit dem lokalen Normalwert für den gegebenen Tag des Jahres (Weiteres dazu bei Kennedy et al., 2011).

Es ist möglich, absolute Temperaturreihen für jedes gewählte Gebiet zu erhalten mittels Daten des absoluten Datensatzes und diese dann zum regionalen Mittel zu addieren, welches aus den genetzten [gridded] Daten berechnet worden ist. Falls beispielsweise ein regionales Mittel angefordert wird, sollten die Nutzer eine regionale Zeitreihe mittlerer Anomalien berechnen und dann die Werte im absoluten Datensatz für das gleiche Gebiet mitteln und diesen Wert schließlich zu jedem Wert in der Zeitreihe addieren. Man addiere NICHT die absoluten Werte zu jeder Gitterbox in jedem monatlichen Bereich, um danach großräumige Mittelwerte zu berechnen.

Übrigens ist dieses NICHT ( Im Original „NOT“, Anmerkung des Übersetzers) auf der Website selbst in Großbuchstaben zu finden, das habe ich nicht verändert. Ich hatte vor, die Gitter-Temperatur 1961 bis 1990 zu der Gitter-Anomalie zu addieren und eine angenäherte tatsächliche Temperatur zu erhalten, aber sie sagen, man solle das „NICHT“ tun. Warum sagt man dem Leser, dass man die absoluten gemittelten Referenz-Temperaturen zu den gemittelten Anomalien addieren kann, und sagt ihn danach explizit, nicht die absolute Gitter-Temperatur zu einer Gitter-Anomalie zu addieren? Jede Anomalie-Reihe muss auf ihr eigenes Mittel 1961 bis 1990 bezogen werden. Warum spielt es dann eine Rolle, dass wir die Anomalien und dann die Referenztemperaturen separat mitteln, bevor man beide addiert? Also war natürlich das Erste, was ich machte, die absoluten Gitterwerte 1961 bis 1990 zu den Anomalie-Gitterwerten zu addieren, und zwar für die gesamte Erde von 1880 bis 2016, also genau das, was ich laut Instruktion „NICHT“ tun sollte. Das absolute Temperaturgitter ist vollständig ohne fehlende Werte. Die Jahr-für-Jahr-Gitter weisen viele fehlende Werte auf, und die gleichen Gitterquadrate sind nicht in jedem Jahr gleich belegt. Es stellt sich heraus, dass dies genau das Problem ist, auf welches HADCRU mit diesem Zitat hinweist.

Abbildung 1 zeigt die globalen mittleren Temperaturen von 1880 bis 2016, berechnet nach den Vorgaben vom HADCRU. Zuerst habe ich die Anomalien eines jeden Jahres gemittelt und gewichtet nach dem Kosinus der Breite, weil es sich um ein 5° X 5°-Gitter handelt und die Fläche jedes Gitterquadrates vom Äquator zu den Polen mit dem Kosinus der Breite abnimmt. Dann habe ich die globale Mitteltemperatur 1961 bis 1990 zur mittleren Anomalie addiert. Während das Referenztemperatur-Gitter vollständig mit absoluten Temperaturen angefüllt ist, ist dies bei den jährlichen Anomalie-Gittern nicht der Fall. Außerdem wechseln die vollständig abgedeckten Gitterquadrate von Jahr zu Jahr. Dieses Verfahren vermischt eine Berechnung eines vollständig ausgefüllten Gitterquadrates mit einer Berechnung eines Gitterquadrates mit nur wenigen Werten.

Abbildung 1: Mittelung der Anomalien mit nachfolgender Addition zur mittleren globalen Temperatur 1961 bis 1990.

Wenn man das so macht, wie man uns explizit sagt es nicht zu machen, erhalten wir Abbildung 2. Darin addierte ich die geeignete absolute Gitterquadrat-Mitteltemperatur zu jedem abgedeckten Gitterquadrat für jedes Jahr, um ein Netz mit absoluten Temperaturen zu erhalten und dieses dann zu mitteln unter Nichtbeachtung der Gitterquadrate ohne Werte. In diesem Prozess passt das Gitter der absoluten Temperaturen zum Anomalie-Gitter.

Abbildung 2: Umwandlung jeder Gitterzelle in tatsächlich Temperatur mit nachfolgender Mittelung

Der Unterschied zwischen den Abbildungen 1 und 2 wird am augenfälligsten vor dem Jahr 1950. Nach 1950 ist der untere Plot ein paar Zehntelgrad niedriger, aber der Trend ist der gleiche. Mit perfekten Daten sollten beide Plots gleich sein. Jede Zeitreihe wird konvertiert in eine Anomalie unter Verwendung der eigenen Daten 1961 bis 1990. Multiple Reihen in jedem Gitterquadrat werden zusammengeführt mittels direkter Mittelwerte [straight averages]. Aber – die Daten sind eben nicht perfekt. Gitterquadrate weisen in einem Jahr viele Messungen auf, in anderen gar keine. Vor 1950 ging die Abdeckung auf der Nordhemisphäre nie über 40% hinaus, auf der Südhemisphäre nie über 20%. Angesichts der großen Differenz zwischen den Abbildungen 1 und 2 ist nicht klar, ob die Daten vor 1950 robust sind. Oder klarer ausgedrückt, die Daten vor 1950 sind nicht robust. Ebenfalls ist unklar, warum die Periode 1950 bis 2016 in Abbildung 2 um 0,2°C bis 0,3°C kühler ist als in Abbildung 1. Ich kratze mich immer noch am Kopf ob dieses Phänomens.

Das HADCRU-Verfahren zur Berechnung globaler Temperaturen

Das Verfahren zur Berechnung der Gitterquadrat-Temperaturen von HADCRU Version 4 wird auf deren Website so beschrieben:

Dies bedeutet, dass es 100 Angaben für jedes Gitterquadrat gibt, um die möglichen Annahmen abzuklopfen, welche in der Struktur der verschiedenen Komponenten des Fehlers involviert sind (siehe die Diskussion bei Morice et al., 2012). Alle 100 Angaben sind auf der Site des Hadley Centers verfügbar, aber wir haben hier das Ensemble-Mittel gewählt. Für die genetzten Daten ist dies das Ensemble-Mittel, separat berechnet für jede Gitterzelle und für jeden Zeitschritt der 100 Angaben. Für die hemisphärischen und globalen Mittelwerte ist dies wiederum der Median für die 100 Angaben. Der Median der genetzten Reihen wird nicht den Median der hemisphärischen und globalen Mittelwerte erzeugen, aber die Differenzen werden klein sein.

Folglich ist die globale Mitteltemperatur nach HADCRU Version 4 nicht ein wahres Mittel. Stattdessen ist es der Median-Wert der 100 statistischen Angaben für jede mit Messungen abgedeckte Gitterzelle und beide Hemisphären. Jede Temperaturmessung enthält Fehler und ist dadurch unsicher (Details dazu z.B. hier und hier). Das von HADCRU erzeugte 5° X 5°-Gitternetz enthält für ein Kalenderjahr mit 12 Monaten 31.104 Gitterzellen. Die meisten davon weisen keine Werte auf. Abbildung 3 zeigt die Anzahl dieser Zellen mit Null (ohne Werte) Jahr für Jahr von 1880 bis 2016.

Abbildung 3. Datenquelle

Wie man sieht, gibt es aus den meisten Zellen keine Daten, nicht einmal während der letzten Jahre. In Abbildung 4 erkennt man die Verteilung der Gitterquadrate mit Messpunkten. Die Zellen mit adäquaten Daten sind gefärbt, jene mit unzureichenden Daten bleiben weiß. Die Abdeckung auf der Nordhemisphäre von 1960 bis 1990 liegt bei nahe 50%, die Abdeckung auf der Südhemisphäre im gleichen Zeitraum geht nie über 25% hinaus.

Abbildung 4. Quelle: Jones, et al., 2012

Die Daten sind also spärlich, und die meisten Daten stammen von der Nordhemisphäre und hier vom Festland. An beiden Polen gibt es kaum Daten. Also hat HADCRU zwei Probleme: erstens die Mess-Ungenauigkeit und zweitens, wie man mit der spärlichen und ungleichmäßigen Verteilung der Daten umgeht. Der Mess-Ungenauigkeit wird begegnet, indem gefordert wird, dass jede Gitterzelle eine ausreichende Anzahl von Stationen enthält, die über das betrachtete Jahr Meldungen absetzen. Da der Referenzzeitraum die Jahre 1961 bis 1990 sind, sind auch ausreichend Messungen über diesen Zeitraum erforderlich. Allgemein wird verlangt, dass die Stationen mindestens 14 Jahre lang Daten liefern zwischen 1961 und 1990. Stationen außerhalb von fünf Standardabweichungen des Netzes werden aussortiert [Stations that fall outside five standard deviations of the grid mean are excluded].

Die monatlichen Netze sind nicht umrissen, um die fehlenden Netz-Werte zu ergänzen, wie man erwarten könnte. Ist die mittlere Temperatur für jede Gitterzelle erst einmal mit ausreichend Daten berechnet, werden die durch Meldungen repräsentierten Gitterzellen Kosinus-gewichtet und gemittelt. Siehe Gleichung 9 in Morice, et al., 2012. Das Gebiet variiert so wie der Kosinus der Breite, also werden die Gitterzellen hiermit gewichtet. Die gewichteten Gitterwerte werden für jede Hemisphäre aufsummiert, und aus diesen Ergebnissen der beiden Hemisphären wird eine globale mittlere Temperatur gemittelt. Jahreszeitliche und jährliche Mittel sind aus monatlichen Gitterwerten abgeleitet.

Die meisten mit Messpunkten gefüllten Gitterzellen befinden sich auf dem Festland, weil wir hier leben; und doch sind 71% er Erdoberfläche von Ozeanen bedeckt. Gegenwärtig ist das kein Problem, weil wir Satellitenmessungen der Wassertemperatur und der Lufttemperatur über der Wasseroberfläche haben. Zusätzlich gibt es Netz aus ARGO-Bojen, welches hoch qualitative Ozeantemperaturen liefert. Aber historisch war das ein großes Problem, weil alle Messungen ausschließlich von Schiffen kommen mussten (die ich überdies zu ca. 90 % auf die Hauptschifffahrtslinien beschränkten..Anm. der Redaktion). Der entscheidende HADSST3-Datensatz für die Abschätzung der Ozeantemperatur wird beschrieben von Morice, et al., 2012. Eine ausführlichere Beschreibung der Probleme bei der Abschätzung historischer Wassertemperaturen in ozeanischen Gitterzellen gibt es bei Farmer, et al., 1989. Die Daten vor 1979 stammen aus dem in Schiffe einströmenden Kühlwasser, Treibbojen und Eimermessungen von Wasser neben den Schiffe. Diese Quellen sind mobil und anfällig für Fehler. Die Durchmischungs-Schicht der Ozeane ist im Mittel 59 Meter dick (JAMSTEC MILA GPV data). Mehr zu den JAMSTEC- Wassertemperaturdaten gibt es hier. Die Durchmischungsschicht der Ozeane ist diejenige Schicht, die sich zumeist im Gleichgewicht mit der Atmosphäre befindet. Diese Schicht weist 22,7 mal die Wärmekapazität der gesamten Atmosphäre auf und bewirkt einen merklichen Einfluss auf die Temperaturen der Atmosphäre. Sie wird auch beeinflusst durch die kühleren, tieferen Ozeanschichten, welche sie durch Aufwallen und Absinken beeinflussen können (hier).

Meine Berechnungen

Ich begann mit den Referenztemperaturdaten der Periode 1961 bis 1990, „Absolut“ genannt und hier zu finden. Dies ist eine Reihe von 5° X 5° globale Temperaturgitter für den Referenzzeitraum. Anders als die Anomalie-Datensätze sind diese Netze vollständig mit Meldungen besetzt und enthalten keine Null-Werte. Wie der Absolut-Datensatz besetzt war, wird erklärt von Jones, et al., 2012. Abbildung 5 zeigt die Karte des mittleren Absolut-Temperaturnetzes.

Abbildung 5: Karte der „Absolut“-Daten (Datenquelle: HADCRU)

Ich wendete das gleiche Verfahren an wie HADCRU. Zuerst las ich das Absolut-Netz, es enthält eine Anordnung, welche dimensioniert ist mit 72 Längengrad-Segmenten (5°), 36 Breitengrad-Segmenten und 12 Monaten oder ein Jahr. Als nächstes unterteilte ich das globale Anomalie-Netz von HADCRU4 Jahr für Jahr, mittelte die Zellen mit Messungen und addierte dann das mittlere Absolut der Temperatur von 1961 bis 1990 zur mittleren Anomalie. Die Ergebnisse zeigt Abbildung 1. Wie oben beschrieben, habe ich auch einige Zeit aufgewendet, genau das zu tun, was NICHT zu tun auf der HADCRU-Website empfohlen worden ist. Dieses Ergebnis zeigt Abbildung 2.

Die HADCRU-Daten reichen zurück bis zum Jahr 1850, aber es gibt kaum globale Daten vor 1880, und viele davon stammen aus der offenen Atmosphäre. Schutzfolien zur Abschirmung der Thermometer vor direktem Sonnenlicht waren bis 1880 kaum in Gebrauch, was die Qualität der frühen Daten beeinträchtigte. Also zog ich nur die Daten von 1880 bis 2016 heran.

Das Überraschende an der Graphik in Abbildung 2 ist, dass die Temperaturen von 1890 bis 1950 höher lagen als jede andere Temperatur seitdem. Man betrachte Abbildung 3 bzgl. der Anzahl von Null-Werten. Es gibt insgesamt 31.104 Zellen, die maximale mit Messungen angefüllte Zahl beträgt rund 11.209 im Jahre 1969 oder 35%. Abbildung 6 ist invers die Abbildung 3 und zeigt die Anzahl der mit Messungen gefüllten Zellen für jedes Jahr.

Abbildung 6.

Geht die höhere Temperatur von 1890 bis 1950 in Abbildung 2 nur auf die geringe Zahl von Messungen enthaltenden Zellen zurück? Oder liegt es an der ungleichen Verteilung dieser Zellen? Es gibt einen plötzlichen Sprung der Anzahl mit Messungen belegter Zellen um das Jahr 1950, welcher zusammenfällt mit einem anomalen Temperaturabfall – was ist der Grund dafür? Geht es auf einen Rechenfehler in meinen Berechnungen zurück? Falls mir tatsächlich ein Fehler unterlaufen ist (was immer möglich ist), dann bin ich sicher, dass jemand den Fehler finden und mir mitteilen wird. Ich habe meine Berechnungen wieder und immer wieder überprüft und halte sie für korrekt. Ich habe die einschlägigen Studien gelesen und kann keine Erklärung für diese Anomalien finden. Alle Daten und der R-Code können hier heruntergeladen werden. Erfahrene R-Nutzer werden keine Probleme haben, die zip-Datei enthält den Code sowie alle eingehenden Datensätze und eine tabellarische Zusammenfassung des Outputs.

Energie und Temperatur

Ausschlaggebender Grund für diese Studie war es zu erkennen, welchen Unterschied die rechenbetonte Sequenz bei der Berechnung der Energie-Emissionen von der Erde ausmacht. Das heißt, nehmen wir die vierte Potenz einer mittleren Temperatur, wie es Kiehl und Trenberth 1997 gemacht haben? Oder nehmen wir jede Temperatur einer Gitterzelle zur vierten Potenz und mitteln dann die Stefan-Boltzmann (SB)-Energiegleichung aus Gleichung 1? Das Mittel der HADCRU-Temperaturen des Jahres 2016 beträgt 15,1°C. Die mit dieser Temperatur (288 K) berechneten SB-Energieemissionen sind die 391 W/m², welche allgemein in der Literatur genannt werden. Falls wir die SB-Emissionen aller belegten HADCRU-Gitterzellen für das Jahr 2016 berechnen und diese nach Gebiet gewichtet mitteln, erhalten wir 379 W/m². Dies ist eine geringe Differenz, solange wir nicht diese Differenz vergleichen mit der geschätzten Differenz, welche zunehmendes CO2 haben könnte. Im IPCC-Zustandsbericht 5 zeigt Abbildung SPM.5 (hier in der dritten Abbildung), dass die Gesamtauswirkung der menschlichen CO2-Emissionen seit 1750 2,29 W/m² ausmachten, also viel weniger als die Differenz zwischen den beiden Berechnungen der Emissionen der Erde.

Der Vergleich wird noch schlechter, wenn wir ihn im zeitlichen Verlauf betrachten. Abbildung 7 zeigt die Berechnung der Energie-Emissionen bei einer globalen mittleren Temperatur oder (Mean T)4. Abbildung 8 zeigt die Berechnung durchgeführt für jede einzelne Gitterzelle in jeder mit Messungen belegten Zelle mit nachfolgender Mittelung oder (Mean T4).

Abbildung 7

Abbildung 8

Es scheint wahrscheinlich, dass die Differenzen von 1880 bis 1950 bezogen sind auf die Anzahl Messungen enthaltender Zellen sowie deren Verteilung, aber dies ist zum jetzigen Zeitpunkt Spekulation. Man muss sich Fragen stellen hinsichtlich der Genauigkeit dieser Daten. Der Vergleich seit 1950 ist O.K. außer für die algebraische Differenz, die sich ergibt, wenn man erst die Temperatur mittelt und dann den Mittelwert zur vierten Potenz erhebt, oder wenn man erst jede Temperatur zur vierten Potenz nimmt und dann die Energie mittelt. Von 1950 bis 2014 beträgt diese Differenz im Mittel 13 W/m².

Diskussion und Schlussfolgerungen

Ich stelle die von HADCRU getroffene Wahl nicht in Frage, 100 statistische Realisationen jeder Gitterzelle zu erzeugen und dann den mittleren Gesamtwert heranzuziehen, gewichtet nach dem Kosinus der Breite, als die mittlere Temperatur für jede Hemisphäre und dann die Hemisphären zu kombinieren. Das ist ein vernünftiges Verfahren, aber warum unterscheidet sich dieses Ergebnis von einem direkten gewichteten Mittel der mit Messungen belegten Gitterzellen? Meiner Ansicht nach sollte jedwedes statistische Ergebnis zu dem einfachen statistischen Ergebnis passen, oder die Differenz muss erklärt werden. Der Vergleich zwischen den beiden Verfahren für den Zeitraum 1950 bis 2016 ist O.K., obwohl das HADCRU-Verfahren zu einer verdächtig höheren Temperatur führt. Ich vermute, dass die Daten von 1950 bis 2016 viel robuster sind als die Daten davor. Ich würde jedwede Schlussfolgerung bezweifeln, welche von früheren Daten abhängig ist.

Deren geforderte Berechnung ist ein wenig verstörend. Es verlangt die Mittelung in einem kaum belegten Anomalie-Netz, dann die Mittelung eines vollständig belegten absoluten Temperatur-Netzes mit nachfolgender Summierung der beiden Mittelwerte. Dann instruiert man uns explizit, nicht die gleiche Belegung von Gitterzellen (Anomalie und Absolut) zu wählen, diese zu summieren und zu mitteln. Und doch summiert Letzteres Äpfel und Äpfel.

Schließlich ist es sehr klar, dass die Anwendung der SB-Gleichung zur Berechnung der Energie-Emissionen der Erde mit einer geschätzten globalen Mitteltemperatur falsch ist. So wurden die Emissionen in Abbildung 7 berechnet. Wenn wir die SB-Emissionen berechnen aus jeder belegten HADCRU-Gitterzelle und dann das Ergebnis mitteln, was laut Grundlagen-Algebra der richtige Weg ist, erhalten wir das Ergebnis in Abbildung 8. Vergleicht man beide Ergebnisse, zeigt sich, dass es erhebliche Probleme mit den Daten vor 1950 gibt. Ist dies die Anzahl der Null-Gitterzellen? Ist es die räumliche Verteilung belegter Gitterzellen? Ist es ein Problem der geschätzten Wassertemperaturen? Oder vielleicht ein anderer Komplex von Problemen? Schwer zu sagen, aber es ist schwierig, den früheren Daten zu vertrauen.

Wir versuchen, die Auswirkungen von steigendem CO2 zu bestimmen. Dies führt zu einem geschätzten „Forcing“ von etwa 2 W/m². Auch wollen wir wissen, ob die Temperatur während der letzten 140 Jahre um 1°C gestiegen ist Sind diese Daten genau genug, um sogar diese Auswirkungen aufzulösen? Das scheint mir nicht eindeutig.

Der R-Code und die Daten zur Erstellung der Abbildungen in diesem Beitrag können hier heruntergeladen werden.

Link: https://wattsupwiththat.com/2017/09/09/hadcru-power-and-temperature/

Übersetzt von Chris Frey EIKE




Diesel-Verteu­felung: Krieg gegen das eigene Volk – Diesel­abgase: Die Lücken­medien im Glashaus (1)

Geht die NO2-Belastung zurück oder nicht?

Zunächst bauen die Autoren Andrej Reisin vom NDR und Wolfgang Wichmann von tagesschau.de eine eher holprige Argumentationskette auf. Sie schreiben: „Wiederkehrend ist zu lesen, der jährliche Ausstoß an Stickoxiden ist in Deutschland seit Jahren rückläufig“ und führen dazu Artikel aus der „Welt“ und dem Blog „Tichys Einblick“ sowie eine Stellungnahme der Wissenschaftlichen Gesellschaft für Kraftfahrzeug- und Motorentechnik e.V. an. Auch dieser Zusammenschluss von Professoren relevanter Fachbereiche behaupte in einem Statement, „die NO2-Immissionsbelastung ist seit über zehn Jahren im gesamten Land rückläufig“.

Dann wechseln sie abrupt zur unumwundenen Anerkennung der Tatsache, dass dies stimmig sei, und verweisen auf eine Grafik des Umweltbundesamtes, die sehr eindeutig dokumentiert, dass in den vergangenen 25 Jahren der Stickoxid-Ausstoß um 1,7 Millionen Tonnen bzw. 59 % zurückging, Bild 1.

Bild 1. Untersuchungen des Umweltbundesamtes belegen den kontinuierlichen Rückgang der verkehrsbedingten NOx-Emissionen seit 1990 (Grafik: [UBA]
Der Leser reibt sich an diesem Punkt die Augen und rätselt, wie diese einführende Passage denn jetzt gemeint ist. Wird den oben aufgeführten Journalisten und Wissenschaftlern etwa vorgehalten, dass sie die Wahrheit gesagt haben?

Auch ansonsten ergeben sich bei der Lektüre Fragen, wie ernst die Autoren denn ihre journalistische Sorgfaltspflicht genommen haben. So sprechen sie im Zusammenhang mit Bild 1 von 27 Jahren, zeigt die Grafik doch lediglich den 25-Jahre-Zeitraum von 1990 bis 2015 und nicht bis 2017, aber das sei hier nur am Rande bemerkt. Auch dass in dieser Zeitspanne der Anteil des Verkehrs an den gesamten Stickstoffoxid-Emissionen deutlich überproportional zurückging (absolut von 1,46 auf 0,491 Mio. t und prozentual von 50,7 auf nur noch 40,1 % der Gesamtemissionen), wird nicht für erwähnenswert gehalten. Doch nach diesem eher verunglückten Vorspiel kommt man dann doch langsam zur Sache.

Bild 2. Im Jahr 2016 wurden die NO2-Grenzwerte nur in einigen meist größeren Städten überschritten. Der weit überwiegende Teil Deutschlands liegt bereits unterhalb der Grenzwerte (Grafik: UBA)

Begriffsprobleme mit „Rückgang“ und „Grenzwertüberschreitung“?

Die beiden Verfasser des „Faktenfinder“ scheinen aus irgendwelchen Gründen Schwierigkeiten mit der Tatsache zu haben, dass ein Rückgang ja nichts damit zu tun hat, ob zum aktuellen Zeitpunkt bestimmte Grenzwerte noch überschritten werden oder nicht. Selbst da, wo es im Moment noch Überschreitungen gibt, kommt es doch auch darauf an, ob der Trend in die richtige Richtung geht und wie schnell dies erfolgt. Und als nächstes ist die Frage zu stellen, wie stark denn die gesundheitlichen Auswirkungen der aktuellen Überschreitung von NOx-Grenzwerten überhaupt sind. Schließlich geht es hier um die Frage von Fahrverboten und damit um Millionen Schicksale. Fahrverbote, wie sie von Hendricks, dem Umweltbundesamt (UBA) und dem Anführer des Abmahnvereins Deutsche Umwelthilfe (DUH), Hr. Resch, gefordert werden, betreffen schließlich nicht nur die betreffenden Industrien, wo hunderttausende Mitarbeiter um ihre Jobs fürchten müssen, sondern auch die Bevölkerung. Immerhin gibt es rund 15 Millionen Dieselbesitzer, die sich aktuell teils existenzielle Sorgen machen müssen. Von den unzähligen Handwerkern, Lieferdiensten und Taxifahrern ganz zu schweigen. Mit dem Thema sollte man daher nicht leichtfertig umgehen, sondern genau abwägen, was man für Botschaften aussendet. Vor allem nicht im gebührenbezahlten öffentlich-rechtlichen Rundfunk, der es in einer solchen Frage peinlichst vermeiden sollte, einseitig Position zu beziehen. Alles andere als Unparteilichkeit und Neutralität ist hier in höchstem Maße unangebracht.

Bild 3. Rückgang der NO2-Immissionswerte in Deutschland von 1990 bis 2008. Leider war keine besser aufgelöste Darstellung aufzufinden. Sind diese Wahrheiten eventuell für jemanden unangenehm? (Grafik: UBA)

Aktueller Stand und Entwicklung der NO2-Immissionswerte

Vorab ist anzumerken, dass der Diesel nur einen einzigen Schwachpunkt hat, und das sind seine NOx-Emissionen. Feinstaub ist bereits seit Jahren kein Dieselproblem mehr. Und auch bei den NOx-Emissionen hat sich in den letzten Jahren sehr viel getan, was sich ja auch an der Statistik des UBA (Bild 1) erkennen lässt. Doch auch bei den NO2-Emissionen der Diesel-Pkw gibt es einen langjährigen deutlichen Trend nach unten. Besonders deutlich erkennt man dies anhand der Messstelle „Am Neckartor“ in Stuttgart, Bild 4.

Bild 4. In Stuttgart sind die Überschreitungen des NO2-Grenzwerts von 200 µg/m3 seit Jahren rückläufig (Grafik: https://www.stadtklima-stuttgart.de/index.php?luft_messdaten_ueberschreitungen)

Zu beachten ist hierbei, dass Stuttgart die Stadt mit der höchsten NO2-Luftbelastung in Deutschland ist und die Messstation „Am Neckartor“ diesbezüglich der Rekordhalter unter allen Messstationen ist. Die Zahlen in den beiden letzten Spalten belegen, dass in diesem Jahr auch in Stuttgart aller Voraussicht nach keine unzulässigen Grenzwertüberschreitungen mehr geben wird. Von 2010 bis 2015 gingen „Am Neckartor“ die Überschreitungen um 81 % zurück, im laufenden Jahr sind sogar nur noch ca. 3 % zu erwarten. Man kann demnach feststellen, dass der Trend zu weniger Schadstoffen in der Luft auch im laufenden Jahr kontinuierlich weitergeht. Dass dieser Trend auch generell bei allen Messstellen gilt, zeigt Bild 5.

Bild 5. Schon 2015 lag der Durchschnittswert aller Messstellen selbst in hoch belasteten Städten unter dem gesetzlichen Grenzwert. Die Tendenz ist in allen Bereichen fallend (Grafik: UBA)

Das Manipulationskartell der Sendeanstalten

Beim sogenannten „Diesel-Skandal“ kann man beobachten, dass die Medien – allen voran die Fernsehanstalten ARD, ZDF und ihre Landesdependancen einseitig, parteiisch und irreführend berichten. Ausgewogenheit und investigative Sorgfalt lassen zu wünschen übrig. Themen werden so dargestellt, wie die Bundesregierung bzw. das Umweltministerium sowie die etablierten Parteien es gerne haben möchten. Dabei schreckt man nicht davor zurück, kritische Medien oder Journalisten und Blogger als unglaubwürdig darzustellen. Die öffentlich-rechtlichen Sendeanstalten beteiligen sich erkennbar aktiv an dieser Deindustrialisierung Deutschlands durch „Dekarbonisierung der Volkswirtschaft“. Dabei wären doch gerade sie aufgrund ihrer direkten Finanzierung durch die Bevölkerung zu besonderer Sorgfalt und Neutralität verpflichtet. Dabei geht es primär nicht allein um den Diesel. Dieser ist in diesem üblen Spiel nur das erste Opfer. Es wird danach weitergehen, und zwar alternativlos.

Fred F. Mueller

Demnächst folgt Teil 2

Quellen

[FAKT] http://faktenfinder.tagesschau.de/inland/stickstoffdioxid-111.html




Tesla, das Auto mit Hurrikan-Flucht-Turbo-Booster

finanzen.net, 11.09.2017 : Mit Softwareupdate: Tesla hebt wegen „Irma“ Kilometerbeschränkung in Model S und X auf
Der Elektroautobauer Tesla hat Tesla-Fahrern in Florida per Software-Update mehr Reichweite geschenkt, um ihnen die Flucht vor dem Hurrikan „Irma“ zu erleichtern …
Software-Update für 60kwH-Versionen
Der Elektroautobauer hat bei den betroffenen Fahrzeugen offenbar ein Softwareupdate eingespielt, das die Drosselung der Batteriekapazität aufhebt. Tesla-Kunden, die die Modelle S oder X mit einer software-gedrosselten 60kwH-Batteriekapazität erwerben, haben theoretisch die Möglichkeit, die maximale Kapazität von 75 kWH im Bedarfsfall für einen Aufpreis freischalten zu können. Diese Freischaltung hat Tesla nun offenbar selbstständig durchgeführt und damit die Reichweite der betroffenen Fahrzeuge um bis zu 65 Kilometer erhöht.
Anpassungen nur temporär
Wie ein Tesla-Sprecher bestätigte, soll die Maßnahme temporärer Natur sein und wohl nur wenige Tage dauern, dann wird der Originalzustand wieder hergestellt.
Ob dieser kleine „Booster“, der auch nur bei speziellen Varianten und auch bei denen nur wenige Kilometer „Zusatzfluchtweg“ brachten, eine (Er)Lösung war, ist nicht bekannt. Es ist auch nicht bekannt, ob die meisten Elektroauto-Besitzer nicht vorsichtshalber diese in der Garage ließen und mit einem bewährten, kraftstoffbetriebenem Fahrzeug „flohen“. Ein PR Gag war es allemal und ging entsprechend um die Welt.

Vielleicht hat es manchen jedoch die Augen geöffnet, welche Einflussmöglichkeiten Hersteller – und mit Sicherheit auch der Staat – in modernen Autos hat und immer perfekter und umfassender bekommt.
Der erste Schritt wird getan: Autos, welche diese Möglichkeiten nicht bieten, werden bald verboten.
Der zweite Schritt ist angedacht: Originalton Frau Merkel: „Wir werden in 20 Jahren nur noch mit Sondererlaubnis selbstständig Auto fahren dürfen“. In der Zukunft sind die Autos intelligent und die Untertanen werden zu Robotern (degradiert).
Der Schritt davor ist bereits im Gang: Wer nicht wie die Regierung und die untergeordneten NGOs denkt, wird diffamiert.
Ruhrkultour: Das PIK und die obszöne Kritik an Windkraftgegnern
… In einer noch nicht veröffentlichten Studie des PIK werden Windkraftgegner und Kritiker der Energiewende als Wissenschaftshasser bezeichnet. Sie werden vom PIK und der Süddeutsche Zeitung diffamiert und mit oder ohne AfD nationalsozialistischem Gedankengut zugeordnet.
… Die Studie scheint ein weiterer Beleg dafür zu sein, dass Institutionen, die staatlich gefördert werden, der Versuchung nicht widerstehen können, ihre Position mit Anstand zu verteidigen. Aus dem sicheren Schutz ihrer Trutzburg schleudern sie mit allem, was ihnen zur Verfügung steht, auf den Feind und verteidigen ihre „gesicherte wissenschaftliche Erkenntnis“ gegen jeden Zweifel. Den rauen Wind der Wissenschaft würden sie nicht überleben, aber unter dem Schutz und im Auftrag der Politik endet der wissenschaftliche Diskurs an den Mauern einer totalitären Politik …




Aus der Hurrikan­forschung: Antikorre­lation von Häufig­keit und Stärke gefunden

Ein ernstes betroffenes Gesicht ist aber leider kein Garant dafür, dass die Aussage auch seriös wäre. Wie üblich wird der klimahistorische Kontext ausgeblendet bzw. Betrachtungsintervalle nach Gutdünken so verzerrt, dass der gewünschte Trend herauskommt. Vielfach haben wir an dieser Stelle bereits über Hurrikane und ihre klimatische Bedeutung berichtet (siehe Rubrik ‘Nordamerika’ hier). Beispiele:

Heute wollen wir neue Resultate aus dem Bereich der Hurrikanforschung vorstellen. Beginnen wollen wir mit einer Studie einer Gruppe um BereniceRojo-Garibaldi, die im Oktober 2016 im Journal of Atmospheric and Solar-Terrestrial Physics erschien. Die Wissenschaftler nahmen die Hurrikanhäufigkeit der letzten 250 Jahre unter die Lupe und erkannten einen interessanten Zusammenhang mit der Sonnenaktivität: Je größer die Sonnenaktivität, desto geringer die Hurrikanhäufigkeit. Hier der Abstract:

Hurrikane im Golf von Mexiko und der Karibischen See sowie deren Relation zu Sonnenflecken

Wir stellen die Ergebnisse einer Zeitreihen-Analyse vor von Hurrikanen und Sonnenflecken von 1749 bis 2010. Die Forschungsanalyse zeigt, dass die Gesamtzahl von Hurrikanen abnimmt. Diese Abnahme steht in Beziehung mit einer Zunahme der Sonnenflecken-Aktivität. Eine Spektralanalyse zeigt eine Relation zwischen Perioden mit Hurrikan-Oszillationen und Sonnenflecken-Aktivität. Mehrere Sonnenfleckenzyklen wurden aus der Zeitreihen-Analyse herausgefiltert.

Das größte Versäumnis der alarmistischen Klimakommentatoren ist ihre klimageschichtliche Kurzsicht. Gerne wird auf den „stärksten”, „gefährlichsten”, „feuchtesten” Hurrikan der Messgeschichte hingewiesen. Vergessen wird dabei, dass erst seit wenigen Jahrzehnten Satelliten zur flächendeckenden Sturmüberwachung verwendet werden. Davor war man auf Einzelbeobachtungen und historische Berichte angewiesen, wobei etliche Stürme „durch die Lappen gingen”. Michael Chenoweth hat sich durch eine Vielzahl von historischen Quellen gewühlt und im Journal of Climate im Dezember 2014 eine Rekonstruktion der nordatlantischen Hurrikangeschichte 1851-1898 veröffentlicht. Dabei wies er große Lücken im offiziellen Hurrikankatalog nach. Hier der Abstract:

Eine neue Zusammenstellung nordatlantischer Tropischer Zyklone von 1851 bis 1898

Eine umfassende neue Zusammenstellung der Aktivität tropischer Zyklone im Nordatlantik für die Jahre 1851 bis 1898 wird vorgestellt und verglichen mit dem nordatlantischen Hurrikan-Datensatz (HURDAT2) für die gleichen Jahre. Diese neue Analyse basiert auf einer Durchsicht von 9072 Zeitungsberichten der Marine, 1260 Original-Logbucheintragungen, 271 Maury abstract logs,147 meteorologische Journale der US-Marine und 34 Logbücher von UKMO. Aufzeichnungen aus Nordamerika und der Karibik wurden ebenso herangezogen wie andere primäre und sekundäre Referenzen mit einheitlichen Land- und Seedaten. Zum ersten Mal wurden für die Erforschung historischer tropischer Zyklone tägliche Wetterkarten vom Nordatlantik betrachtet für die Jahre 1864/65, 1873 sowie 1881 bis 1898. Die Ergebnisse für die Jahre 1851 bis 1898 enthalten die Auslassung von 62 der 361 HURDAT2-Stürme. Eine weitere Reduktion ergibt sich aus dem Verschmelzen von Stürmen, so dass insgesamt eine Anzahl von 288 tropischer Zyklone in HURDAT2 übrig bleiben. Die neue Zusammenstellung ergab eine Gesamtzahl von 497 tropischer Zyklone während des 48-jährigen Zeitraumes oder ein Mittel von 10,4 Stürmen pro Jahr. Davon sind 209 Stürme vollkommen neu [erfasst]. Insgesamt 90 Hurrikane waren während dieser Zeit auf das US-Festland übergetreten. Sieben neue Hurrikane mit Übertritt auf das US-Festland tauchen in dem neuen Datensatz auf, aber nicht in HURDAT2. Acht Hurrikane mit Übertritt auf das Festland nach HURDAT2 werden jetzt lediglich als tropische Stürme [unter der Hurrikan-Schwelle] betrachtet oder hatten sich bereits in außertropische Zyklonen umgewandelt. Im gesamten Nordatlantik hat die Anzahl der Kategorie-4-Hurrikane auf der Grundlage der Saffir-Simpson-Skala der Windstärke in Hurrikanen im Vergleich mit HURDAT2 von 11 auf 25 zugenommen, von denen 6 als Kategorie-4-Hurrikane auf das US-Festland übergegriffen haben.

Es ist seit längerem bekannt, dass die Hurrikanhäufigkeit vom AMO-Ozeanzyklus mitgesteuert wird (siehe S. 202 in unserem Buch “Die kalte Sonne“). Aber auch andere Zusammenhänge werden langsam klarer. Offenbar nimmt die Intensität der Hurrikane in hurrikanschwachen Zeiten zu. Und wenn es einmal richtig viele Hurrikane gibt, ist ihre Intensität niedriger. Eine solche Hurrikanwippe beschrieb am 4. Januar 2017 die University of Wisconsin-Madison:

Häufigere Hurrikane sind nicht unbedingt stärker an der Atlantikküste

Aktive Perioden atlantischer Hurrikane wie diejenige, in der wir uns derzeit befinden, sind nicht notwendigerweise die Quelle von mehr, sich rasch verstärkenden Hurrikanen an der US-Küste. Dies geht aus neuen Forschungen der University of Wisconsin–Madison hervor. Tatsächlich zeigen die Forschungsergebnisse, veröffentlicht am 4. Januar 2017, dass es wahrscheinlicher ist, dass sich der US-Küste nähernde Hurrikane während weniger aktiven atlantischen Perioden stärker intensivieren. Während aktiverer Perioden tendieren sie eher dazu, sich abzuschwächen. Die Relation zwischen den sich im atlantischen Becken entwickelnden Hurrikanen und der Anzahl der Hurrikane mit Übertritt auf das Festland ist schwach, sagt der Autor, und außerdem eine, die noch nicht gut geklärt ist. Die neue Studie behandelt zumindest einen Aspekt dieser Relation.

Historisch haben sich die Forscher primär auf den tropischen Atlantik konzentriert – auf das Gebiet also, in dem sich Hurrikane hauptsächlich bilden – ohne zu unterscheiden, wie die Bedingungen zur Bildung derselben außerhalb dieses Gebietes variieren. Bekannt war, dass eine Kombination hoher Wassertemperatur und geringer vertikaler Windscherung (Änderung der Windgeschwindigkeit mit der Höhe) günstige Bedingungen zur Hurrikan-Entwicklung war. Wassertemperaturen kühler als der Mittelwert zusammen mit einer starken Windscherung ergaben ruhigere Hurrikan-Saisons. Den Wissenschaftlern war auch bekannt, dass Umweltbedingungen, hauptsächlich Wassertemperatur und Windscherung, bestimmen, ob sich atlantische Hurrikane verstärken oder abschwächen, wenn die natürlich vorgegebene, nach Nordwesten gerichtete Zugbahn sie in Richtung US-Küste treibt. Aber der Autor Kossin fragte sich, „welche anderen Umstände es noch geben könnte“. Seine Studie ging einen Schritt zurück und suchte nach damit in Bezug stehenden Umständen im gesamten Becken.

Kossin analysierte zwei Datensätze über drei Perioden von 23 Jahren von 1947 bis 2015. Der erste Datensatz, die Aufzeichnung historischer Hurrikan-Beobachtungen des National Hurricane Center der USA, enthielt sechsstündliche Beobachtungen sowie Informationen zu Ort, maximaler Windgeschwindigkeit und Kerndruck. Der zweite Datensatz, ein Umwelt-Datensatz des National Centers for Environmental Prediction und des National Center for Atmospheric Research, boten einen Eckpunkt der Wassertemperaturen und der Windscherungen im interessierenden Zeitraum. Alles in allem gilt: wenn sich in den Tropen viele Hurrikane bilden – während Perioden mit geringer Windscherung und hohen Wassertemperaturen im tropischen Atlantik – führt dies auch zu einer Lage, bei der jene Hurrikane an Energie verlieren, falls sie sich der Küste nähern. Sie finden dort nämlich eine ungünstige Umgebung vor in Gestalt größerer Windscherung und niedrigerer Wassertemperatur. „Sie müssen durch eine Zone hoher Scherung, und viele verstärken sich dann nicht weiter. Es ist ein natürlicher Prozess, der das US-Festland bedrohende Hurrikane im Zaum hält“.

Welche Implikationen ergeben sich daraus für US-Küstengebiete? „Es sind gute Nachrichten“, sagt Kossin, „Stärkere Aktivität führt zu größerer Bedrohung, aber gleichzeitig erhöht sich unsere schützende Barriere. Es ist ziemlich faszinierend, dass es so funktioniert“. Die Daten zeigen, dass wir auf dem Weg in eine weitere ruhigere Periode in dem Becken befinden, wo jedoch geringere Aktivität Hand in Hand geht mit geringerer Windscherung entlang der Küste, was der schützenden Barriere zusetzt. Folge: während sich weniger Hurrikane der Küste nähern, können jene, die es tun, viel stärker sein, und zwar im Bereich der Kategorien 3 bis 5. Die Bedrohung einer rapiden Verstärkung ist höchst relevant für die Gesellschaft, vor allem für diejenigen, die an dicht besiedelten Küstenlinien wohnen, wo die Vorlaufzeit für Warnungen und Evakuierungen kurz sein kann. „Kenntnis über die Relation zwischen tropischer Aktivität und Küsten-Bedingungen, welche die Küste entweder schützen oder verwundbarer machen, kann uns helfen, uns besser auf zukünftige Übertritte auf das Festland vorzubereiten“.

Wie aus jeder Forschungsstudie ergeben sich auch aus dieser weitere Fragen. Zum Beispiel, wie kann der Klimawandel diese Relation beeinflussen? Andere Studien haben Kossin zufolge einen Anstieg der Wassertemperaturen dokumentiert – was dem anthropogenen Klimawandel zugeordnet wird. Aber der Trend der Wassertemperatur scheint keine großen Auswirkungen auf die Hurrikan-Aktivität in Küstennähe zu haben, zumindest nicht während der letzten 70 Jahre. Dies könnte unter die Rubrik „Klima-Überraschung“ fallen, falls die die Schutzbarriere stützenden Umweltbedingungen während aktiver Perioden durch den Klimawandel beeinträchtigt werden. Es ist gut möglich, dass Änderungen des Klimas die natürliche Barriere beeinflussen können, womit folglich die küstennahen Risiken signifikant zunehmen können.

Link: http://www.kaltesonne.de/antikorrelation-von-haufigkeit-und-starke-von-hurrikanen/

Beitrag zuerst erschienen im Blog „Die Kalte Sonne“ Übersetzung der (kursiv gesetzten) englischen Passagen durch Chris Frey EIKE




Natürlich darf man das Klima ignorieren, etwa wenn man seine Enkel nicht mag

Wahlkampf: Niemand redet über das Wetter

über den Klimawandel, Parteien und Populismus und durfte sich ihren Frust direkt von der Seele in die SZ schreiben.
Zuerst beklagt sie sich, weil im Wahlkampf die „größte globale Bedrohung“ fast gar nicht erwähnt wird und kommt zu dem Schluss, dies sei „Populismus, der die Gunst der Massen im Schweigen sucht“.
Nach diesem Beleg des Gespürs für subtile Sprachgewalt folgt die als Artikelüberschrift gewählte Zeile mit den Enkeln.

Natürlich darf man der Ansicht sein, dass das Klima keiner weiteren Maßnahmen bedarf“

ist dazu die Einleitung. In spitzer Logik folgt danach eine Darstellung, dass man Nachlässigkeit im Klimaschutz – den Begriff „Klimaleugnen“ wagt die Redakteurin gar nicht zu denken – in unserer freien Gesellschaft zwar darf, weil die Folgen für die Klimazukunft unseres Planeten aber doch unwiderlegbar klar sind, es natürlich ein Verbrechen ist.
[4] „ … natürlich darf man der Ansicht sein, dass das Klima keiner weiteren Maßnahmen bedarf. Vielleicht, weil man seine Enkel sowieso noch nie mochte, die verzogenen Gören. Weil man Wissenschaftlern aus Prinzip misstraut oder weil man bedingungslos daran glaubt, dass künftige Technik es schon richten wird …“.
Und dann folgt die „Abrechnung“ mit den politischen Akteuren unserer Parteien, welche sich – was ja wirklich etwas sonderbar ist und von Herrn Lindner sogar in einem Tweet bemängelt wurde-,


bei Aussagen zum Klimaschutz vehement zurückhalten, so man von den GRÜNEN mit ihrem urgewaltigen Wahlslogan: „ENWEDER SCHLUSS MIT KOHLE ODER SCHLUSS MIT KLIMA“ absieht.

Die Redakteurin verwechselt dann Kohlenstoff und Stickoxide, beziehungsweise wirft beides in einen gemeinsamen Klimatopf. Es zeugt nicht von viel Nachdenken, Frau Merkel wegen des (noch) Zulassens von Dieselfahrzeugen mit der Begründung anzuprangern, sie stelle den Diesel als „ganz tolles Klimaschutzinstrument hin“. Einmal hat Frau Merkel dazu ihre Meinung längst gedreht, und zudem war der Diesel unter dem Gesichtspunkt der CO2-Minderung immer die „Rettung“ für die von der EU erlaubte CO2-„Flotten-Ausdünstung“ eines Herstellers. Er wird aktuell nicht wegen dem CO2, sondern wegen der Stickoxide angeprangert. Diese haben mit dem Klima aber nichts zu tun, sondern mit einer anderen Hysterie.

Das war es dann aber auch schon mit Merkel Kritik, denn viel schlimmer ist die FDP:
[4] „Warum muss die so erfolgreiche FDP nicht öfter erklären, wie sie sich das mit dem Klimaschutz vorstellt, wenn sie doch laut Wahlprogramm gegen das Erneuerbare-Energien-Gesetz, gegen feste Emissionsziele und gegen einen staatlich gelenkten Ausstieg aus dem Verbrennungsmotor ist?“

Schwere Fragen, welche da gestellt werden. Sie nötigen, einmal selbst im Wahlprogramm der FDP nachzusehen.
FDP Wahlprogramm 2017: Weltweite Klimaschutzpolitik
Wir Freie Demokraten treten für eine vernünftige, international abgestimmte Politik auf Basis des Klimaschutzabkommens von Paris ein und lehnen nationale Alleingänge ab. Wir wollen den Emissionshandel als globales Klimaschutzinstrument weiterentwickeln und dafür internationale Kooperationspartner gewinnen …
Also, zur Klimaschutzpolitik steht wirklich alles drin, auch die Vorstellungen dazu. Und das wichtigste Anliegen der Redakteurin wohl auch: Die FDP bejaht den Weltklimavertrag (man will ja koalitionsfähig werden). Wie man dieses an allen Ecken und Enden stümperhafte Vertragswerk [1] überhaupt „vernünftig“ umsetzen kann, das sollte die FDP ruhig einmal erklären, war aber von der Redakteurin wohl nicht als Frage gemeint.

Folgt das EEG.
FDP Wahlprogramm 2017: Neustart in der Energiewende
… Eine Politik, die rechnen kann, bringt das Wünschenswerte mit dem Machbaren in Einklang. Die Energiewende ist das genaue Gegenbeispiel dazu: Das Wünschenswerte wird ohne Rücksicht auf das Machbare verfolgt, ohne dass es dabei erreicht würde. Wagen wir also einen Neustart bei der Energiewende!
Aha, da ist ein Haken zu finden. Eine Befürwortung, aber mit Einschränkungen, schlimmer noch, mit Rücksicht auf Machbares. So etwas kennt man von der GroKo nicht. Für die ist alles machbar, was sich Politik wünscht. Da das EEG bisher am Klimaschutz nach deutscher Lesart, also sturer CO2 Vermeidung sowieso keinen Erfolgsanteil hat, aber eigentlich auch zu verschmerzen.

Emissionsziele
FDP Wahlprogramm 2017: Stärkung des EU-Emissionshandels für den Klimaschutz
Bessere Impulsgeber für klimafreundliche Innovationen sind ein weltweiter Preis für CO2-Emissionen, langfristig verlässliche Emissionsziele und unternehmerische Flexibilität beim Handel mit den Emissionszertifikaten.
Es ist oft schwer, stichwortartig gestellte Fragen mit blumig gesetzten Wahltexten in Einklang zu bringen. Aber groß kann der Unterschied zwischen „verlässlichen“ und „festen“ Emissionszielen ja nicht sein. Die GroKo hat bisher feste, welche nicht eingehalten werden. Die Forderung nach „verlässlichen“ erscheint da doch eher als Fortschritt, denn als Mangel.

Staatlich gelenkter Ausstieg aus dem Verbrennungsmotor
FDP Wahlprogramm 2017: Für den Wettbewerb neuer Technologien
Denn wir sehen in staatlicher Investitionslenkung, wie beispielsweise der zwangsweisen Einführung von Elektroautos durch ein Verbot von Verbrennungsmotoren, keine geeignete Klimaschutzstrategie.

Nun, warum die FDP gegen den staatlich gelenkten Ausstieg aus dem Verbrennungsmotor ist, steht auch drin. Die wirkliche Frage, was ein Ausstieg aus dem Verbrennungsmotor dem Klima nutzen soll, begründet die Redakteurin ja nicht.
Bleibt somit die neue Frage, ob die SZ-Redakteurin das Wahlprogramm der FDP überhaupt gelesen hat.

Der Autor sieht sich jedoch in seiner Einschätzung [2] bestätigt. Die wirkliche Frage beim Klimaschutz stellt auch die FDP nicht: Welchen wirklichen „Klimaerfolg“ hat überhaupt die CO2-Vermeidung? Als Hinweis: Das globale, deutsche CO2-Minderungsprogramm 2020 „rettet“ die Welt vor gerade einmal 0,0005 °C pa [3] – sofern es wirklich so viel ist.

Im Paris-Abkommen hat Deutschland Emissionsminderungen zugesagt, die ohne deutliche Änderungen in Wirtschaft und Lebensstil nicht zu erreichen sein werden

Nun kommt die Redakteurin auf den wahren Punkt. Sie outet sich (was man natürlich schon nach den ersten Zeilen vermuten konnte und weil es sonst auch niemals in der SZ stehen würde) als bedingungslos Klimaalarm-gläubig.
[4] „Aber der Klimawandel ist nicht nur ein langfristiges Problem. Er ist längst spürbar, in Hitzeperioden und extremen Unwettern“.
Da sind sie wieder, die Sätze, welche irgendjemand einmal geschrieben hat, und seitdem wirklich endlos als „Beleg“ gebracht, aber nie hinterfragt werden [2]. Alleine, dass sie andauernd wiederholt werden, weist ja aus, dass sie „wahr“ sein müssen.

Allerdings, dem Schlussabsatz kann der Autor endlich zustimmen: [4] „Man kann von seriösen Politikern erwarten, dass sie sich dazu äußern, wie das alles funktionieren soll, auch wenn ein paar unerfreuliche Nachrichten dabei heraus kommen. Wer sich davor um der Gunst der Massen willen drückt, der ist, so lange es kein besseres Wort dafür gibt, ein Populist der Verharmlosung.“
Eigentlich müsste die Redakteurin dem Autor dieser Zeilen um den Hals fallen. Genau das prangert er ebenfalls (neben vielen, vielen anderen EIKE-Autoren) regelmäßig an. Im Gegensatz zu ihr versucht er jedoch seine Aussage immer mit Fakten zu begründen und zu erklären. Das hat der Autor im SZ-Artikel vermisst.

Normalerweise würden nun die „harten Fakten“ [2] folgen. Diesmal soll der Artikel aber nur (wieder) zeigen, wie subtil unsere Medien die Öko-Gehirnwäsche betreiben. Da passt es, dass immer vehementer das Wahlrecht ab 14 Jahren gefordert wird:
Willkommen bei U18 – der Wahl für Kinder und Jugendliche!
Als Projekt der politischen Bildung setzt sich
U18 dafür ein, dass Kinder und Jugendliche unter 18 Jahren wählen gehen und sich damit politisch laut und sichtbar ausdrücken. U18 ist offen offene und niederschwellig gestaltet. U18 eignet sich deswegen besonders für selbstorganisierte Kinder- und Jugendaktionen. Politische Bildung wächst aus Neugierde und Eigeninitiative, für sich selbst und Gleichaltrige.
Organisiert und getragen wird die
U18-Initiative vom Deutschen Kinderhilfswerk, dem Deutschen Bundesjugendring, den Landesjugendringen, vielen Jugendverbänden und dem Berliner U18-Netzwerk. Gefördert wird U18 zur Bundestagswahl 2017 durch das Bundesministerium für Familie, Senioren, Frauen und Jugend sowie die Bundeszentrale für Politische Bildung.
Bayerischer Jugendring: Wählen ab 14 Der Bayerische Jugendring setzt sich für eine Absenkung des Wahlalters auf 14 Jahre ein, um die Politik dazu zu bewegen, sich stärker mit den Themen von Jugendlichen zu beschäftigen.“
Natürlich gibt es dazu genügend „Wissenschaftler“, welche diesem Alter bereits ausreichend politische Reife bescheinigen.
Prof. Klaus Hurrelmann Jugendforscher, Univ. Bielefeld in „Das Parlament“ 44/2005:
Mit etwa zwölf Jahren ist eine stabile intellektuelle Basis erreicht, auch eine grundsätzliche soziale und moralische Urteilsfähigkeit ist gegeben. Von diesem Alter an ist es möglich, politische Urteile zu treffen; es wäre auch möglich, sich an Wahlen zu beteiligen.
Die ehemalige Familienministerin, Frau Renate Schmidt, brachte es in einem Interview einmal auf den Punkt: Meine Enkel haben alle die gleichen politischen Ansichten wie ich, das zeigt die Reife von Jugendlichen.

Diese Jugendlichen sind nicht in der Lage, Informationen, wie sie beispielhaft die SZ unter „WISSEN“ anbietet, auf ihren Wahrheitsgehalt zu prüfen. Sie glauben es einfach, weil ein Medium in Deutschland doch „niemals etwas Unwahres schreiben würde“ und wenn einmal, würde es sicher sofort korrigiert (das glauben allerdings auch viele Erwachsene).

Anfügung

Zur Süddeutschen Zeitung und (nicht nur ihrem) Vorgehen bei der Leserbeeinflussung erschien gerade ein Artikel:
Ruhrkultour: Das PIK und die obszöne Kritik an Windkraftgegnern
… In einer noch nicht veröffentlichten Studie des PIK werden Windkraftgegner und Kritiker der Energiewende als Wissenschaftshasser bezeichnet. Sie werden vom PIK und der Süddeutsche Zeitung diffamiert und mit oder ohne AfD nationalsozialistischem Gedankengut zugeordnet.

Quellen

[1] EIKE 04.10.2016: Klimavertrag von Paris im Bundestag erreicht 100 % Zustimmung. Die DDR Volkskammer lässt grüßen
[2] EIKE 08.09.2017: Die Generalsekretärin der FDP geriet in die Fänge des KLIMA-LÜGENDETEKTORS – anbei ein Rettungsversuch

[3] EIKE 05.09.2015: Nachgefragt: CO2 Vermeidung als gesellschaftliche Aufgabe – Aber bitte nicht nach dem Sinn fragen

[4] Süddeutsche Zeitung Nr. 208 vom 09. / 10. September 2017: Rubrik WISSEN, Wahlkampf Niemand redet über das Wetter




Wo ist die Erwärmung seit der vorindustriellen Zeit?

Seit der Industrialisierung hat zweifelsohne der Ausstoß von CO2 zugenommen. Denn jeder Verbrennungsprozess, jede Energiegewinnung, besser Energieumwandlung erzeugt Kohlendioxid als sauberes Abgas, da bei fossilen Energieträgern die Energie in den Kohlenstoffverbindungen gespeichert ist. Geringer Energieverbrauch bedeutete zugleich Armut und Kälte im Winter.

Dabei wird von den CO2-Treibhausgläubigen behauptet, dass die Temperaturen seit der vorindustriellen Zeit um 1 bis 2 Grad gestiegen wären, und Schuld dafür könne nur das angebliche Treibhausgas Kohlendioxid sein. Das hatte bereits Svante Arrhenius vor über 120 Jahren postuliert und sehnsüchtig auf die Erwärmung seiner Heimat Schweden gewartet. Einen Versuchsbeweis für die Behauptung konnte er nicht liefern. Bis heute, also bis Redaktionsschluss dieses Artikels konnte seine Treibhaus-Hypothese und seine freudige Erwartung einer bevorstehenden CO2-Erwärmung noch durch keinerlei Versuchsbeweise bestätigt werden. Deshalb gibt es auch keinerlei technische Anwendungen für die behauptete Erwärmung durch CO2.

Doch wenden wir uns den Temperaturen zu. Im Artikel überprüfen wir die Behauptung, dass seit der vorindustriellen Zeit die Temperaturen zugenommen hätten. Dabei stellt sich die Frage, was man unter vorindustrieller Zeit definiert. Auch beim Pariser Klimagipfel taucht der Begriff öfters auf, aber ohne jede Zeitangabe. Für afrikanische Staaten bedeutet vorindustriell mitunter nur 30/40 Jahre. Manche Völker leben heute noch fast in vorindustrieller Zeit.

Wann beginnt die vorindustrielle Zeit? Wir beziehen uns im Artikel auf Deutschland, bzw. auf das Heilige Römische Reich/Deutscher Nation, das 1806 von Napoleon aufgelöst wurde. Mozart und Goethe dürften auch in vorindustrieller Zeit gelebt haben. Nach der Behauptung der Treibhausgläubigen war es also damals um ein bis zwei Grad kälter als heute, weil es nur einen minimalen Kohlendioxidausstoß gegeben hat.

Unsere Definition: Die vorindustrielle Zeit endete in Mitteleuropa zwischen 1820 und 1850, also auch das warme Mittelalter, die Zeit des Burgenbaus und die Eroberung Süddeutschlands durch die Römer gehören zur vorindustriellen Zeit.

Die zuverlässigen Zeitreihen, gemessen mit Thermometern in Celsius reichen aber leider nicht so weit zurück und vergleichbar sind auch nur normierte Wetterstationen, bei welchen die Ablesungen regelmäßig und zu gleichen Zeitpunkten durchgeführt und anschließend dokumentiert wurden. Der Deutsche Wetterdienst kann deshalb seine Zeitreihe Deutschlands nur bis 1881 zuverlässig zurückführen, wobei man die behauptete Zuverlässigkeit schlecht überprüfen kann, schließlich hatte das Kaiserreich ganz andere Grenzen als die heutige BRD und die Messstationen standen an anderen Orten als heute oder die Orte haben sich vollkommen verändert. Vielfach wurde auch die Station unter Beibehaltung des Ortsnamens verlegt. Fazit: keine einzige Station steht heute noch unverändert so wie sie 1881 gestanden ist.

Richtigerweise muss man zugeben, dass die Behauptung der ein bis zwei Grad Erwärmung seit vorindustrieller Zeit wissenschaftlich überhaupt nicht überprüfbar, sondern lediglich abschätzbar ist. Wir wagen trotzdem einen Versuch mit der Klimastation Berlin/Tempelhof.

Die Klimastation Berlin/Tempelhof liefert seit 1756 zuverlässigen Aufzeichnungen, die ersten 50 Jahre sind unbrauchbar. 1756 war der Beginn des Siebenjährigen Krieges zwischen Preußen und Österreich, zwischen Friedrich dem Großen und Maria-Theresia und erfüllt damit die Bezeichnung vorindustriell.

Der Temperaturverlauf von Berlin/Tempelhof über die letzten 260 Jahre sieht so aus:

Abb. 1: Temperaturentwicklung von Berlin/Tempelhof seit der vorindustriellen Zeit. Zu Beginn war es ähnlich warm wie in der Gegenwart. Eingezeichnet sind noch die Temperaturen der Jahre 1881 und 1931.

Feststellung anhand der Tempelholfgrafik: Der Temperaturanstieg seit der vorindustriellen Zeit ist sehr moderat. Keinesfalls 1 bis 2 Grad.

1881, dem Aufzeichnungsbeginn des Deutschen Wetterdienstes war es kälter als zu Mozarts Zeiten und ebenso 1931, ein Jahr, das gerne vom grünen BaWü-Umweltminister Untersteller als Startjahr der Betrachtungen genommen wird. Außerdem zeigt die Grafik, dass die Temperaturen keinesfalls langsam gestiegen sind wie die Trendlinie dies unserem Auge vorgibt. Es gab immer wieder wärmere und kältere Jahrzehnte. Auch außerhalb Deutschlands verlief die langfristige Erwärmung bescheiden und wurde durch Klimasprünge geprägt, so in Zentralengland (CET), wo die Messungen bis 1659 zurückreichen und den Höhepunkt der „Kleinen Eiszeit“, der vermutlich kältesten Phase seit mindestens 2.000 Jahren, mit erfassen:

Abb. 2: Nur ein knappes Kelvin Erwärmung in Zentralengland bis heute seit 1659 trotz „Kleiner Eiszeit“ (Maunder- Minimum) am Beginn der Messreihe.

Aber es gibt sogar Orte, welche sich langfristig abkühlten, so Dale Enterprise/VA. In den USA:

Abb. 3: Geringe Abkühlung seit 1881 an einer ländlichen US- Wetterstation.

Damit haben wir 2 Zwischenergebnisse:

  1. Für die behauptete CO2-Erwärmung gibt es bis heute keinen wissenschaftlich durchgeführten Versuchsbeweis.
  2. Seit der vorindustriellen Zeit wurde es überhaupt nicht um 2 Grad wärmer, sondern weniger als 1 Grad. Stellenweise fiel die Erwärmung ganz aus, obwohl die CO2- Konzentration überall auf der Welt stark angestiegen ist.

Wurde es überhaupt wärmer seit 1756?

Berlin/Tempelhof von 1756 und heute sind eigentlich zwei verschiedene Orte gleichen Namens. Geblieben ist neben dem Namen auch der gleiche Längen-und Breitengrad, sonst aber nichts. Auch die Wetterstation befindet sich nicht mehr beim damaligen Gutshof, sondern wahrscheinlich an der Landebahn des Flughafens. 1756 war Tempelhof noch eine kleine ländliche Streusiedlung mit Exerzierplatz.

Kleine Streusiedlung Tempelhof, etwa 1834 Quelle: Wikipedia, entnommen aus der Broschüre „Berlin-Tempelhof: Straßen, Plätze, Brücken. Ihre Herkunft und Bedeutung. Hrsg. Tempelhofer CDU

Und heute ist die einst kleine Streusiedlung ein moderner Stadtteil von Berlin mit über 60 000 Einwohnern. Die wohl sehr geringe Einwohnerzahl von 1756 konnten wir nicht ermitteln.

Damit ist die Wetterstation Berlin/Tempelhof eine ganz typische Wärmeinsel-Station. In der Temperaturreihe ab 1756 wird die zunehmende Temperaturzugabe vom Kleindorf zur Großstadt mitgemessen, die zunehmende Stadtwärme ist in der Datenreihe verborgen. Berlin/Tempelhof ist somit eine Messstation mit einem hohen Wärmeinseleffekt seit 1756

Wir sind nicht in der Lage, den WI-effekt dieser Station, also eine Erwärmung, die ausschließlich auf die Stadtentwicklung zurückzuführen ist, seit 1756 genauer zu beziffern. Aufgrund unserer Erfahrung mit Wärmeinseln taxieren wir den WI-Effekt etwa mit 1,5 bis 2 Grad seit 250 Jahren ein. Das bedeutet: Von den aktuellen Werten müssten ein bis zwei Grad subtrahiert werden, um eine Vergleichbarkeit herzustellen.

Leichter fällt die WI-Abschätzung der letzten drei Jahrzehnte durch Temperaturvergleiche, Tempelhof im Vergleich zum DWD-Durchschnitt und im Vergleich mit einer ländlichen Station, deren Umgebung sich weniger verändert hat. Wir wählen Neugersdorf in der Oberlausitz.

Abb.: 4 bis 6: In den letzten 3 Jahrzehnten wurde es überall wärmer in Deutschland. Bei der Berliner Station ist die Steigung der Trendlinie jedoch am stärksten. Das führen wir auf den mitwirkenden und sich vergrößernden Wärmeinseleffekt der Stadt in den letzten 30 Jahren zurück. Am wenigsten stiegen die Temperaturen im ländlichen Neugersdorf, der DWD-Schnitt der deutschen Stationen liegt in der Mitte.

Ergebnis: Im ländlichen Neugersdorf an der Spreequelle wurde es in den letzten 30 Jahren um ein halbes Grad, in Tempelhof hingegen um ein Grad wärmer. Ähnlich wie Neugersdorf verhalten sich auch unsere anderen wärmeinselärmeren Orte wie Schneifelforsthaus, Zwönitz, oder Amtsberg. Die städtische Station in Düsseldorf ist schon weitgehend ausgereizt und hat die WI-effekterwärmung weitgehend hinter sich. (Grafiken hier nicht gezeigt)

Zwei wesentliche weitere Erwärmungsursachen in Deutschland sollen hier nicht unerwähnt bleiben. Dies sind eine höhere Sonnenscheindauer und geänderte Häufigkeitsverhältnisse der Großwetterlagen, besonders im Sommer, in welchem die Häufigkeit der kühlend wirkenden, wolkenreichen West-, Nordwest- und Nordlagen deutlich abnahm :

Abb. 7: Wärmere Sommer in Deutschland seit 1881- auch, weil kühle, wolkenreiche Großwetterlagen in dieser Jahreszeit seltener wurden.

Abb. 8: Wärmere Sommer in Deutschland wegen steigender Sonnenscheindauer; besonders ab den 1980er Jahren. Leider liegt ein Deutschland- Mittel der Sonnenscheindauer erst seit 1951 vor.

Zusammenfassung.

1) Anhand der Station Berlin-Tempelhof haben wir gezeigt, dass es gegenüber der vorindustriellen Zeit nur unbedeutend wärmer wurde.

2) Die Erwärmung ist verschiedensten Wärmeinseleffekten, höherer Globalstrahlung und geänderten Wetterlagenhäufigkeiten geschuldet.

3) Wäre Tempelhof exakt so vorindustriell kleinbäuerlich geblieben wie 1756, dann wäre es mit großer Wahrscheinlichkeit in der Gegenwart dort kälter als vor 250 Jahren.

Beantwortung der Artikelüberschrift.

Würde man die verschiedensten WI- Effekte, die hohe Sonnenaktivität im späten 20. Jahrhundert, die Erwärmungswirkung der zunehmenden Globalstrahlung und der geänderten Großwetterlagenhäufigkeiten herausrechnen, hätten die Temperaturen seit der vorindustriellen Zeit – seit Mozarts Zeiten- trotz steigender CO2- Konzentrationen sogar leicht abgenommen. Diese Aussage gilt für Berlin, mit hoher Wahrscheinlichkeit aber für ganz Deutschland.

Diese Feststellung anhand der Temperaturaufzeichnungen deckt sich auch mit den Naturbeobachtungen und den historischen Literaturbeschreibungen des Wetters aus vorindustrieller Zeit im Vergleich zu der realen heutigen Natur außerhalb der Ansiedlungen. Das hatten wir bereits in einem EIKE-Artikel festgestellt: http://www.eike-klima-energie.eu/news-cache/der-fruehling-beginnt-in-deutschland-immer-spaeter-auch-die-forsythienbluete-in-hamburg-ist-spaeter/

Damit wäre anhand der Grafiken erneut bewiesen, dass Kohlendioxid keinerlei Erwärmung in den letzten 250 Jahren bewirken konnte. CO2 ist somit kein erwärmendes Treibhausgas, es handelt sich bei dem Begriff lediglich um eine geistreiche Wortschöpfung, ähnlich dem Begriff „Erbsünde“ der Kirche im Mittelalter. Die Ausbreitung der Wärmeinseln sind der einzige erwärmende menschliche Eingriff auf das Klima.

Natürlich sprechen wir uns für einen umfangreichen Natur- und Umweltschutz aus. Einen Klimaschutz mittels CO2-Einsparung gibt es nicht.

Josef Kowatsch, Naturschützer und unabhängiger Klimaforscher

Stefan Kämpfe, Diplomagraringenieur, unabhängiger Natur- und Klimaforscher




Ein Wahrheits­ministerium, unsere Medien, die GRÜNEN und eine gefährliche Nordsee­erwämung

Bild 1 Erste Seite der google Fundstellen der gleichen Mitteilung zur Nordsee

Die Seite der Klimaberaterin fehlte natürlich nicht:
KLIMARETTER.INFO, 09. September 2017: Die Nordsee erhitzt sich rasant
Die Nordsee hat sich durch den menschengemachten Klimawandel in den vergangenen 45 Jahren doppelt so schnell erwärmt wie die Ozeane weltweit …

Der Herausgeber dieser Nachricht, das Bundesumweltministerium, übermittelte auch gleich dazu, was dies für ein Klimawandel-Menetekel darstellt und was einzig noch dagegen helfen kann:
N24: [3] Umweltstaatssekretär pocht auf rasches Aus für Kohle, Öl und Gas
Die Nordsee erwärmt sich nach Angaben des Bundesumweltministeriums im Zuge des Klimawandels doppelt so stark wie die Ozeane. Während die Temperatur der Ozeane im Mittel um 0,74 Grad gestiegen sei, waren es in der
Nordsee in 45 Jahren 1,67 Grad, heißt es in einer Antwort des Ministeriums auf eine Anfrage der Grünen …
Über die Anfrage der Grünen-Bundestagsabgeordneten Julia Verlindens und die Antwort der Bundesregierung hatte zuerst die „Neue Osnabrücker Zeitung“ berichtet. Die Bundesregierung bezieht sich bei ihren Angaben auf Daten des Weltklimarates IPCC und des Alfred-Wegener-Instituts.
Klimawandel und Temperaturanstieg der Nordsee gefährden demnach Ökosystem und Artenvielfalt.
… Angesichts der Entwicklung verwies Umweltstaatssekretär Flasbarth auf die Folgen des Klimawandels auch in
Deutschland. „Die Erderwärmung wird insgesamt zu mehr Wetterextremen wie Hochwasser, Sturmfluten und Starkwinden führen, aber umgekehrt in einigen Teilen des Binnenlandes auch zu mehr Trockenperioden und extremer Hitze“ …
… Der Staatssekretär forderte als Konsequenz, „im eigenen Land wie weltweit sehr viel ernsthafter an den Klimaschutz“ heranzugehen. Das bedeute vor allem, sich innerhalb weniger Jahrzehnte von fossilen Energieträgern wie Kohle, Öl und Gas zu verabschieden. „Wer diese Entwicklung bremst, gefährdet unsere Zukunft“, warnte Flasbarth.
Auch die Grünen-Bundestagsabgeordnete Verlinden forderte ein schnelleres Gegensteuern: „Wir können uns keine vier weiteren Jahre Tatenlosigkeit beim Klimaschutz leisten“, sagte sie der „NOZ“.

Neu ist das Thema nicht. Schon 2007 meldete der FOCUS:
FOCUS ONLINE, Montag, 12.03.2007: Klimawandel Fatale Folgen für die Nordsee
„Die Nordsee befindet sich seit 1988 in der längsten und intensivsten Warmphase seit Beginn der Messungen im Jahr 1873“, sagte Hartmut Heinrich, der Experte des Bundesamtes für Seeschifffahrt und Hydrographie (BSH), am Montag auf der Hamburger Fachkonferenz „Globaler Klimawandel und regionale Auswirkungen in Norddeutschland“. ... Durch den globalen Klimawandel sind Nord- und Ostsee im vergangenen Jahrzehnt deutlich wärmer geworden. Seit 1993 stiegen die durchschnittlichen Temperaturen im Jahr um insgesamt 1,7 Grad Celsius an.

Die Erwärmungsrate der Nordsee verringerte sich seit dem Jahr 2005 auf 26 % und seit dem Jahr 1870 auf 2 %

Damals betrug die Temperaturerhöhung von 1993 – 2007 1,7 Grad, aktuell sind 1,67 Grad für die letzten 45 Jahre gemeldet.
Rechnet man es um, dann betrug die Rate im Jahr 2005: 0,142 Grad / Jahr, und aktuell gemeldet: 0,037 Grad / Jahr, also nur noch 26 % von damals. Eine Nachschau im Bild 2 zeigt seit dem Jahr 1870 eine Erwärmung um ca. 0,4 °C, also weniger als 0,003 Grad / Jahr, und demnach gegenüber der Meldung vom Jahr 2007 nur 2%!!!!!

Es hätte demnach eine Positivmeldung des Bundesumweltministeriums geben müssen in der Art:
Die Erwärmung der Nordsee schreitet viel langsamer voran, als es im Jahr 2005 noch erwartet wurde. Neueste Messungen geben Anlass zur Entwarnung.
Derzeit ist das in Deutschland jedoch nicht vorstellbar. Die Sprecherin der Grünen für Energiepolitik, Frau Verlinden zeigte deutlich, was die politisch konforme Antwort dazu ist: [3] „Wir können uns keine vier weiteren Jahre Tatenlosigkeit beim Klimaschutz leisten“ …
Wie diese Fachperson der GRÜNEN für Energiepolitik das begründet, fragte die Zeitung vorsichtshalber nicht nach. Vielleicht, weil beide Seiten ahnten, dass sie sich dann blamieren könnten, wie es das folgende Bild zeigt.

Bild 2 Temperaturanomalie der Nordsee seit ca. 1870 [2], vom Autor um die Darstellung der in den Zeitungsmeldungen genannten Zeiträume ergänzt.

Aus dieser Ansammlung von Desinformation ragte nur eine Webseite positiv hervor

Lobenswerter Weise hat sich wenigstens eine Informationsplattform des Themas näher angenommen und gerade gerückt, was die wahre Natur dazu für Daten liefert und wie man diese richtig interpretiert.
kaltesonne 10. September 2017: [1] Bundesumweltministerium blamiert sich: Nordsee erwärmt sich NICHT schneller als die Ozeane
… Ein wenig ungewöhnlich erscheint die Berichterstattung in Deutschlands wichtigster Nachrichtensendung über die Kleine Anfrage der Grünen schon. War die Meldung vielleicht als kleine Wahlkampfhilfe für die Grünen gedacht? Die Aussage der Meldung ist interessant. Wir nehmen sie zum Anlass, die Fakten zu überprüfen und Hintergründe zu diskutieren.

Dabei konnte kaltesonne noch zusätzlich zeigen, dass die Tagesschau-Redaktion kritische Blogbeiträge blockiert:
[1] ... Im Rahmen der Diskussion zum Tagesschau-Beitrag hat ein der Redaktion nahestehender Leser einen wichtigen Hinweis auf die MWP anbringen wollen. Die Aussparung dieses “Elefanten im Raum” wäre ein wichtiger Gedankenanstoß zur Debatte zum Beitrag gewesen. Sie werden es nicht glauben, der Kommentar wurde von der Tagesschau-Moderation nicht freigegeben (Hinweis: Die Screenshots dazu im kaltesonne-Artikel nachsehen)

Daten aus kaltesonne zur Nordsee

Leider ist die Studie des Bundesumweltministeriums nicht zu finden (zumindest dem Autor gelang es nicht) und liegt wegen der Brisanz wohl nur den GRÜNEN und der Osnabrücker Zeitung vor.
kaltesonne hat deshalb ganz neutral aus den allgemein verfügbaren Daten eine Rekonstruktion des Sachverhaltes durchgeführt [1], welche anbei mit einigen Ergänzungen durch den Autor dargestellt ist.

Zuerst zurück zum Bild 2. Dieses zeigt erschreckend, wie sogar seitens unserer „Regierung“ (und ihren zuarbeitenden „Fachstellen“) durch gezielte Datenauswahl, welche man als direkte Manipulation bezeichnen kann, Klimaängste geschürt werden, die beim Nachsehen vollkommen im natürlichen Klimarauschen verschwinden.
Im folgenden Bild 3 sind die Nordseetemperatur und die der Ozeane im gleichen Maßstab übereinander gelegt. Man beachte, dass in der Information des Bundesumweltministeriums nur die Daten bis zum Jahr 2010 berücksichtigt wurden. Und genau damals hatte die Nordsee die höchste Temperatur. Zwischenzeitlich ging die Temperatur der Nordsee drastisch zurück, während sich die Ozeane global weiter erwärmen.

Bild 3 [2] Fig. 3.3 North Sea region annual sea-surface temperature (SST) anomalies relative to the 1971–2000 average. Darüber gelegt die HadSST3-Temperaturen Ozean. Quelle: Woodfortrees
Beide Temperaturverläufe scheinen etwas Zeitverzug zu haben, Was aufgrund der unterschiedlichen Masse erklärbar ist. Versucht man diesen Zeitunterschied auszugleichen, kommt Bild 4 heraus. Es bleibt noch der Unterschied in der absoluten Erwärmung (die Nordsee hat naturgemäß größere Temperaturspannen als der globale Mittelwert der Ozeane), der jedoch mangels Anhaltspunkten in der Grafik nicht ausgeglichen ist.
Auch so zeigt Bild 4 deutlich, dass nichts von einer „doppelt so starken“ Erwärmung der Nordsee gegenüber den Ozeanen übrig bleibt. Die Nordsee ist wohl wärmer geworden, weil die Temperaturen mit der einer Kaltzeit verglichen werden. Aber Extremeffekte aufgrund eines AGW Klimawandels sind nicht auszumachen. Wenn man die Nordseewerte grob mittelt und die vielen Ungenauigkeiten durch die hohen Temperaturspannen berücksichtigt, dürfte der Verlauf nicht allzu stark von dem des globalen Ozeans abweichen.

Bild 4 Phasenverschiebung der Erwärmungen von Bild x angepasst

Allerdings ist es schon interessant, dass ein Bundesumweltministerium Antworten abgibt, welche den Effekt sorgfältig ausgesuchter Zeiträume ausnutzt, um „vorgegebene“ Tendenzen auszuweisen. Ein Vorgehen, welches beim Klimawandel jedoch gängige Praxis ist:
EIKE 17.07.2016: Wie man den Meerespegel-Verlauf in die richtige Richtung dreht Aus dem Lehrbuch für (Klima-)Statistikbetrug

Ergänzende Grafiken zu Nordsee-Wasser-Temperaturverläufen

Zur Erhärtung der bisherigen Darstellung und Ergänzung noch Temperaturdaten der Nordsee aus [2]: Danach gibt es wirklich keinen Anlass, dass die Nordsee bald wegen Überhitzung Probleme haben könnte.
Dass sich fremde Fischpopulationen dort einnisten und den „schon länger dort lebenden Meeresbewohnern“ Konkurrenz machen, liegt wohl weniger am Klimawandel, als an der „Öffnung der Grenzen“ durch den internationalen Schiffsverkehr und der Möglichkeit, sich bequem aus fernsten Gegenden in Ballasttanks „migrieren“ zu lassen.
Auch stellt sich immer neu die Frage, wie man darauf kommen kann, dass sich Temperaturen nicht verändern dürfen, nur weil es bestimmten Menschen „nicht passt“ und ihre Computer dann nur noch Unsinn errechnen.

Bild 5 Regionaler Nordeee-Wassertemperatur-Verlauf. [2] Fig. 3.5 North Sea region monthly sea-surface temperature (SST) anomalies relative to 1971–2000 monthly averages,
Bild 6 Regionaler Nordeee-Wassertemperatur-Verlauf. [2] Fig. 3.8 Ferry-based sea-surface temperature (upper) and salinity (lower) anomalies relative to the 1981–2010 average, along 52°N at six standard stations.
Bild 7 Verlauf der Wärmespeicherung im Nord-Atlantik. Sehr schön ist zu sehen, wie kurzfristige Betrachtungen in die Irre führen. Quelle: WUWT [7]

Das Klima begann nicht erst mit der Industrialisierung

Klima lässt sich nicht mit dem angeblich so aussagekräftigen 30-Jahre Zeitraum erfassen. Dazu sind mehrere Hundert Jahre erforderlich. Leider hat der Autor für die Nordsee keine geeigneten Temperaturreihen gefunden, deshalb anbei welche vom Nord-Atlantik, der ja unmittelbar an die Nordsee angrenzt.
Erkennbar neigt auch diese Meeresgegend keinesfalls zur Überhitzung. Langfristig gesehen, haben wird dort aktuell sogar den kältesten Zeitraum seit 9000 Jahren (Bild 9).
Es ist also vollkommen unwahrscheinlich, Dass die Nordsee und ihre Meeresbewohner etwas höhere Temperaturen nicht überleben würden.

WUWT: Serykh (2016) points out that the warming enjoyed across Europe and Asia between the 1970s and late 1990s may have been associated with natural decadal-scale oscillations in heat transport. Similar to Reynolds et al. (2017), Serykh’s graph of ocean heat content reveals no net warming in the last 60 years.

Bild 9 [8] Proxis von Verläufen der Temperatur in Nordnorwegen seit ca. 10.000 Jahren

Die GRÜNEN wollen nicht klüger werden als die GroKo

Der Vorgang zeigt wieder, dass die GRÜNEN auf jegliches, eigenes Wissen verzichten und vollkommen mit dem zufrieden sind, was die „Fachdienste“ der Merkel’schen „Einheitsregierung“ ihr anbieten.
EIKE 26.08.2017: [9] Holen sich die GRÜNEN ihre „Kernkompetenz“ zum Klimawandel von der Bundesregierung?
I
nsofern ist es verständlich, als eigene Recherchen der GRÜNEN teils ebenfalls desaströs enden

EIKE 09.09.2017: Immer wieder muss der Tschad-See unter dem Klimawandel leiden, oder: Warum steht in Studien der GRÜNEN häufig so viel Falsches drin?

Weil die GRÜNEN mit ihrem Nichtwissen zufrieden sind, muss es der Bürger ja nicht sein

Die Verlautbarung des Bundesumweltministeriums zeigt mehrere Probleme in Deutschland auf:
-Unsere Ministerien und deren Fachstellen informieren die Bürger nicht mehr auch nur annähernd neutral, sondern streng nach Staatsraison wie in einer Diktatur,
-scheinbar legen keine Abgeordneten / Parteien mehr Wert darauf, richtig informiert zu werden,
-die Medien versagen investigativ vollkommen und verteilen Staatsmeldungen nur noch copy and paste
.

Zu den GRÜNEN lässt sich nur noch sagen, dass die Unwissenheit ihrer „Führungsmannschaft“ inzwischen zur Legende wird [13].
Beispielhaft reist Cem Özdemir zur Wahlveranstaltung nach Bayern und konfrontiert Herrn Herrmann mit einem Umweltthema. Nicht ahnend, dass er mit seinen auswendig gelernten, aber nicht verstandenen Inhalten [12] wieder vollkommen falsch lag:
SZ: [11] TV-Duell mit Cem Özdemir und Joachim Herrmann: Warum der CSU-Politiker nichts gegen Kohlekraftwerke tue? Herrmann: „Wo gibt’s denn in Bayern noch ein Kohlekraftwerk?“ und im Nebensatz erwähnt er: „Die rot-grüne Landesregierung in Nordrhein-Westfalen habe Braunkohlekraftwerke laufen lassen, nicht die bayerische.“

Nordkoreanische Verhältnisse in Deutschland

Erschütternd ist auch, wie „Fachpersonen“ im Regierungsapparat problemlos am Parlament vorbei reinste Parteipolitik machen dürfen, wie der GRÜNE Staatssekretär, Herr J. Flasbart.
J. Flasbart: [10] „Die Erderwärmung wird insgesamt zu mehr Wetterextremen wie Hochwasser, Sturmfluten und Starkwinden führen, aber umgekehrt in einigen Teilen des Binnenlandes auch zu mehr Trockenperioden und extremer Hitze“, erklärte er auf Anfrage der Nachrichtenagentur AFP am Samstag. Der Staatssekretär forderte als Konsequenz, „im eigenen Land wie weltweit sehr viel ernsthafter an den Klimaschutz“ heranzugehen. Das bedeute vor allem, sich innerhalb weniger Jahrzehnte von fossilen Energieträgern wie Kohle, Öl und Gas zu verabschieden. „Wer diese Entwicklung bremst, gefährdet unsere Zukunft“, warnte Flasbarth.
Er wurde vom ehemaligen Umweltminister Trittin berufen, als dieser seinen Einflussbereich konsequent von neutralen Fachpersonen säuberte und gegen ideologisch gefestigte Gesinnungsgenossen austauschte [10]. Ein Problem, welches die nachfolgenden Umweltminister*innen nicht beseitigen konnten oder wollten – die SPD oft durch Beförderungen sogar noch verstärkte [10] – da ihnen in aller Regel – und bis zum heutigen Tag – jegliche Sachkenntnis zum Thema fehlte.

Nur dadurch wird es möglich, dass ein „Regierungsfachmann“ sich traut, mit den typischen auswendig gelernten, aber erwiesenermaßen falschen „Extremwetterplattitüden“ [14] an die Öffentlichkeit zu gehen.

Quellen

[1] kaltesonne 10. September 2017: Bundesumweltministerium blamiert sich: Nordsee erwärmt sich NICHT schneller als die Ozeane

[2] Springer Verlag, Markus Quante Franciscus Colijn: Regional Climate Studies North Sea Region Climate Change Assessment

[3] WELT N24, 09.09.2017: Nordsee erwärmt sich doppelt so stark wie die Ozeane

[4] EIKE 19.08.2016: Teil II: Vom Wissenschaftlichen Dienst veröffentlichte Klimainformation für Abgeordnete Rezension: Teil 2

[5] Inter-Agency Committee on Marine Science and Technology 2005: The 2nd of 5 reports produced to support Charting

[6] Progress – an Integrated Assessment of the State of UK Seas Marine Processes and Climate

[7] WUWT 5. January 2017 : North Atlantic Cooling Has Plunged Below 1950s (And 1800s) Levels – And Scientists Project More Cooling

[8] Samuel Zimet Mark, 5-2016: Mid-Holocene Marine Paleoclimate Reconstruction Through Schlerochronological Analysis of Arctica islandica from Finnmark, Rolvsøya, Northern Norway

[9] EIKE 26.08.2017: Holen sich die GRÜNEN ihre „Kernkompetenz“ zum Klimawandel von der Bundesregierung?

[10] Frankfurter Allgemeine 16.12.2013: Grüne besetzen Machtpositionen in schwarz-roter Regierung

[11] Süddeutsche Zeitung, 8. September 2017: TV-Duell Wozu das Ganze?

[12] EIKE 15.08.2017: Cem Özdemir versucht sich in Energie

[13] EIKE 09.09.2017: Immer wieder muss der Tschad-See unter dem Klimawandel leiden, oder: Warum steht in Studien der GRÜNEN häufig so viel Falsches drin?

[14] EIKE 08.09.2017: Die Generalsekretärin der FDP geriet in die Fänge des KLIMA-LÜGENDETEKTORS – anbei ein Rettungsversuch




Tatsache: Für die Hurri­kane Harvey und Irma kann nicht globale Erwär­mung verant­wortlich sein

Derartiges Geschreibsel ist typischerweise getränkt mit blasierter Arroganz. Deren Autoren geben vor, weise und gut informiert zu sein, und wer immer es wagt, ihre „settled Wissenschaft“ in Frage zu stellen, muss seine/ihre Augen öffnen und den Mund halten.

Ohne Zweifel wird es auch hinsichtlich Hurrikan Irma derartige „nachträgliche Vorhersagen“ geben, so dass die jüngsten Behauptungen bzgl. Harvey eine Vorwarnung dafür sein können.

Ich bin Ökonom, kein Klimawissenschaftler. Aber Harvey in Verbindung mit Klimawandel zu stellen, erfordert offensichtlich weit geringere Logik- und Beweis-Standards als Ökonomen sich trauen würden, als seriöse Argumente zu verkaufen.

Der Klimajournalist von Atlantic sagt: „Harvey ist beispiellos – genau die Art wilden Wetters, von dem Wissenschaftler erwarten, im Zuge der Erwärmung des Planeten immer mehr zu sehen“.

Aber Harveys maximale Regenmenge von 1318 l/m² ging nur geringfügig über die Regenmenge des Tropischen Sturms Amelia im Jahre 1978 (1220 l/m²) und den Hurrikan Easy im Jahre 1950 (1143 l/m²) hinaus. Und was ist mit dem Tropischen Sturm Claudette, der im Jahre 1979 1067 l/m² innerhalb von nur 24 Stunden abgeladen hatte (Harvey brauchte drei Tage für die gleiche Menge)? In diesen Fällen ist die Zuordnung heutigen Extremwetters, egal was passiert (vielleicht Dürren, vielleicht Überschwemmungen) das, was der Philosoph Karl Popper „Pseudowissenschaft“ nennt.

Falls irgendeine Theorie alles erklärt, kann sie nicht getestet werden und ist daher keine Wissenschaft. (Poppers berühmte Beispiele für Pseudowissenschaft waren Kommunismus und Psychoanalyse).

Scheinbar plausible Bemühungen, Harvey mit Klimawandel in Verbindung zu bringen, basieren unvorsichtigerweise auf einem anderen ungewöhnlichen Ereignis im Jahre 2015/16, was also kein langfristiger Klimatrend ist. Im Atlantic schrieb Robinson Meyer:

Harvey profitierte von ungewöhnlich warmem Wasser im Golf von Mexiko. Als sich der Sturm auf Houston zubewegte, war die Wassertemperatur nahe Texas auf 1,5°C bis 4°C über den Mittelwert gestiegen“.

Meyers Quelle ist ein einzelner Satz ohne Quellenangabe aus „Climate Signals beta“ vom „Climate Nexus“-Projekt der Rockefeller Foundation, betrieben von Hunter Cutting („Ein altgedienter politischer Richtungsgeber, welcher Kommunikations-Strategien entwickelt“). Vielleicht wäre es klüger, das National Hurricane Center bzgl. der Temperaturen im Golf zu konsultieren. Dieses zeigt, dass sie auf ein ganzes Grad F über der Grundlinie mitteln.

Will man zurückschauen auf jedwede unvorhergesagte Wetteranomalie, können sich „nach Fakten suchende“ Journalisten immer auf Michael Mann und Kevin Trenberth verlassen, weben doch diese beiden immer eine Erklärung, warum jedwedes schlechte Wetter (aber niemals gutes Wetter!) mit Sicherheit durch langfristige Klimatrends zumindest verschlimmert wird. „Es ist eine Tatsache: Klimawandel macht Hurrikan Harvey tödlicher“, schreibt Michael Mann. „Die Wassertemperaturen im Golf sind während der letzten paar Jahrzehnte von 86°F auf 87°F [von 30°C auf 30,5°C] gestiegen“, was „3 bis 5% mehr Feuchtigkeit in die Atmosphäre brachte“. Er lehnte es ab, auf andere kompensierende Dinge hinzuweisen, die ihm mit Sicherheit bekannt sind – zum Beispiel, dass die gleiche Klimawissenschaft eine stabilere tropische Atmosphäre prophezeit, was die für Hurrikane notwendige Aufwärtsbewegung reduziert.

Selbst der von der Washington Post geschätzte Jason Samenow betrat schwankenden Boden, als er schrieb, dass „sich die Regenmenge um 6% oder so oder um ein paar Inches erhöht“ haben könnte. Es wäre nett gewesen, wenn er erwähnt hätte, dass die maximale gemessene Regenmenge von Harvey mit 1318 l/m² statistisch nicht unterscheidbar ist von den 1220 l/m² des zuvor erwähnten Sturmes Amelia vor vierzig Jahren.

Wie auch immer, wenn man für Temperatur und Feuchtigkeit im Golf im August 2017 eine vermeintliche globale Zunahme der Wassertemperatur verantwortlich macht, braucht man mehr als Theorie oder „Vertrauen“ (Glaube). Es sind Beweise erforderlich.

Rein zufällig sind die Wassertemperaturen SST zwischen den beiden Super-El-Ninos von 1997/98 und 2015/16 nicht signifikant gestiegen, wenn überhaupt. Im Gegenteil, eine Begutachtung von vier großen Datensätzen im Januar 2017 kommt zu dem Ergebnis, dass „seit 1998 alle Datensätze eine Verlangsamung der SST-Zunahme verzeichnen im Vergleich zum Zeitraum von 1983 bis 1998“. Das mag so klingen, als ob die SST vor 1998 rapide gestiegen ist, aber auch das ist unklar. „Vor dem Jahr 1998 zeigen die Temperaturänderungen global, im Pazifischen und in den Südlichen Ozeane große Diskrepanzen zwischen vier führenden Schätzungen. Dies verhindert eine robuste Bestimmung von Änderungen des ozeanischen Wärmegehaltes OHC, sowohl regional als auch global“.

Von 1998 bis 2012 werden die Beweise bzgl. der Wassertemperaturen sogar noch unbequemer. Zwei der vier Studien zeigen eine „schwache Erwärmung“ nahe der Oberfläche, während die anderen beiden „Abkühlung zeigen in Übereinstimmung mit der gemessenen Verlangsamung des globalen Temperaturanstiegs“. Mit anderen Worten, der empörend lange Zeitraum von 1997 bis 2014 mit dem Stillstand der globalen Erwärmung wird auch in den Ozeantemperaturen ersichtlich, nicht nur an den Temperaturen auf dem Festland.

Man erinnere sich, was der viel gerühmte „Klimawandel-Konsens“ wirklich bedeutet. Via Mittelung von vier Schätzungen erklärt die NASA, dass die „global gemittelten Temperaturen im Jahre 2016 um 0.99°C höher lagen, als das Temperaturmittel im 20. Jahrhundert“. Die zugrunde liegenden jährlichen Schätzungen sind abgeleitet aus jenen Mittelwert-„Anomalien“ um die Mitte des vorigen Jahrhunderts – und nicht aus den derzeitigen Temperaturen.

Um Anomalien in Grad umzuwandeln musste die NASA Computermodelle heranziehen, um die Anomalien zu den Temperaturen im Basiszeitraum von 1951 bis 1980 zu addieren, wo die Daten nicht gerade perfekt sind. Folge, wie die NASA erklärt:

Für das globale Mittel erzeugen die vertrauenswürdigsten Modelle einen Wert von grob 14°C, d. h. 57,2°F, aber der Wert kann gut und gerne auch zwischen 56°F und 58°F liegen. Regional und vor allem lokal ist die Lage sogar noch schlimmer“.

Es mag grausam sein anzumerken, dass die Fehlerbandbreite zwischen 56°F und 58°F global („geschweige denn lokal“) größer ist als die von der NASA vermutete Erwärmung um 1,78 Grad über viele Jahrzehnte. Man beachte auch, dass während der anscheinend kühleren Basisperiode der NASA von 1951 bis 1980 die zweit- und drittgrößten Überschwemmungen der US-Geschichte aufgetreten waren.

Mein Hauptargument hier ist einfach: Wetter ist hoch variabel. Es gibt sehr viel Rauschen in den Daten zu Hurrikanen und Überschwemmungen, und es ist unmöglich, einen einzelnen Hurrikan oder eine einzelne Überschwemmung der geringen Erwärmung zuzuordnen. Ja, höhere Ozeantemperaturen scheinen auf den ersten Blick lokal mit mehr oder stärkeren Hurrikanen zu korrelieren, aber wie unten gezeigt, ist das nicht der Fall.

Die Graphik mit der Accumulated Cyclone Energy stammt von dem Meteorologen Ryan Maue am Cato-Institut.

Addendum von Anthony Watts:

Die NASA glaubt nicht, dass der vermeintliche Einfluss von anthropogenem CO2 auf die Intensität von Stürmen messbar ist.

Es ist voreilig zu folgern, dass menschliche Aktivitäten – und besonders globale Erwärmung verursachende Treibhausgas-Emissionen – bereits eine erkennbare Auswirkung auf atlantische Hurrikane oder die globale Zyklon-Aktivität haben. Menschliche Aktivitäten mögen bereits Änderungen hervorgerufen haben, die noch nicht messbar sind infolge der geringen Größenordnung der Änderungen oder Limitierungen der Beobachtungsmöglichkeiten – oder sie sind nicht aufschlussreich genug modelliert (z. B. Aerosol-Effekte auf das regionale Klima). …

Mehr:https://www.gfdl.noaa.gov/global-warming-and-hurricanes/

Link: https://wattsupwiththat.com/2017/09/09/fact-hurricanes-harvey-and-irma-cant-be-blamed-on-global-warming/

Übersetzt von Chris Frey EIKE




Neues vom Meeres­spiegel: Anstieg deutlich langsamer als in der Vergangen­heit

Bildinschrift: Historie des Meeresspiegels für den nördlichen Golf von Mexiko seit dem letzten glazialen Maximum auf der Grundlage von rund 300 Radiokarbon-datierten Indikatoren von historischen Küstenlinien. Die Stichproben stammen von der Küste und dem Schelf vor den US-Staaten Florida, Louisiana, Texas und Mexiko. Es zeigen sich verschiedene Perioden mit einem starken Anstieg des Meeresspiegels. Abbildung nach Balsillie und Donoghue 2004.

Derzeit „glaubt man“, dass der Meeresspiegel mit einer Rate von 1,7 bis 1,8 mm pro Jahr steigt (hier).

Bildinschrift: Die Graphiken vergleichen die 95%-Vertrauens-Intervalle der relativen Meeresspiegel-Trends für CO-OPS und globale Messpunkte. Trends mit dem engsten Vertrauensintervall basieren auf den längsten Datensätzen. Die Graphiken bieten eine allumfassende Darstellung der differierenden Raten regionaler vertikaler Landbewegungen unter der Annahme, dass der absolute Anstieg des globalen Meeresspiegels 1,7 bis 1,8 mm pro Jahr beträgt. Man beachte, dass es sich um relative Meeresspiegel-Trends handelt, die nicht nach vertikalen Landbewegungen korrigiert sind. …

Diese aktuelle Rate – lediglich 0,17 bis 0,18 eines Meters pro Jahrhundert – ist im Gesamt-Mittel des 20. Jahrhunderts relativ unverändert geblieben, und es gab keine statistisch signifikante Beschleunigung der Anstiegsrate (lediglich 0,0042 mm pro Jahr) seit dem Jahr 1900.

Wenzel und Schröter, 2014: „Die globale mittlere Änderung des Meeresspiegels seit dem Jahr 1900 stellte sich als 1,77 ±0,38 mm pro Jahr heraus. … Die für das globale Mittel gefundene Beschleunigung, +0,0042 ±0,0092 mm pro Jahr, ist nicht signifikant“.

In einer gerade in Climate of the Past veröffentlichten Studie schlüsseln 7 Wissenschaftler detailliert den langzeitlichen Zusammenhang der aktuellen Raten des Anstiegs auf. Von vor 16.500 bis vor 8200 Jahren betrug die mittlere Rate des globalen Anstiegs 1,2 Meter pro Jahrhundert (12 mm pro Jahr), was etwa 700% schneller ist als der während der letzten 115 Jahre erfolgte Anstieg … In dieser mittleren Rate enthalten ist auch die Epoche des „Schmelzwasser-Impulses“ vor rund 14.500 Jahren, als der Meeresspiegel mit Raten um 4 Meter pro Jahrhundert (40 mm pro Jahr) gestiegen war.

Cronin et al., 2017: „Rate und Verteilung des globalen Meeresspiegel-Anstiegs (SLR) nach dem letzten glazialen Maximum (LGM) sind bekannt aus radiometrischen Altersbestimmungen von Korallenriffen vor Barbados, Tahiti, Neuguinea und dem Indischen Ozean sowie aus Sediment-Bohrkernen aus dem Sunda-Schelf und von anderswoher. … Lambeck et al. (2014) schätzen die mittleren globalen Raten während der Haupt-Vereisungsphase von vor 16.500 bis vor 8200 Jahren mit 12 mm pro Jahr (+1,2 Meter pro Jahrhundert) mit einem noch rascheren SLR von etwa 40 mm pro Jahr (+4 Meter pro Jahrhundert) während des Schmelzwasser-Impulses von vor 14.500 bis vor 14.00 Jahren“.

Andere Wissenschaftler haben jüngst gezeigt, dass der Meeresspiegel im hemisphärischen Maßstab vor 14.500 Jahren um 12 bis 22 Meter in nur 340 Jahren gestiegen war. Dieser explosive Anstieg fiel zeitlich zusammen mit einem nordhemisphären-weiten Erwärmungsereignis von 4 bis 5°C innerhalb nur weniger Jahrzehnte, aber es .fiel NICHT zusammen mit einer Änderung des CO2-Niveaus.

Ivanovic et al., 2017: „Während des letzten Großen Glazialen Maximums von vor 26.000 bis vor 19.000 Jahren erstreckte sich ein riesiger Eisschild über Nordamerika (Clark et al. 2009). Während nachfolgender Jahrtausende, als sich das Klima erwärmte und dieser Eisschild immer kleiner wurde, flossen riesige Schmelzwasserströme in die Ozeane (Tarasov and Peltier, 2006; Wickert, 2016). Während dieser Periode, bekannt als die „Letzte Deglaziation“, war es auch zu Episoden abrupter Klimaänderungen gekommen wie etwa die Bølling-Erwärmung von vor 14.700 bis vor 14.500 Jahren, als die Temperatur auf der Nordhemisphäre um 4 bis 5°C innerhalb nur weniger Jahrzehnte gestiegen war (Lea et al., 2003; Buizert et al., 2014). Dies fiel zeitlich zusammen mit einem Meeresspiegelanstieg um 12 bis 22 Meter während weniger als 340 Jahre (3,5 bis 6,5 Meter pro Jahrhundert) (Meltwater Pulse 1a (MWP1a)) (Deschamps et al., 2012)“.

J. F. Donoghue (2011) stellt die historische Größenordnung von Raten des Anstiegs, die „über 20 mal höher als heute“ waren, in die richtige Perspektive. Küstenlinien müssten sich notwendigerweise um bis zu 40 Meter pro Jahr landeinwärts zurückgezogen haben – 75 cm pro Woche – während jener Jahrhunderte eines erschreckenden [Original: obscene] Anstiegs.

Außerdem spezifiziert Donoghue, dass alles in allem der mittlere Anstieg des Meeresspiegels während der letzten 20.000 Jahre etwa 6 mm pro Jahr betragen hat, was über 3 mal mehr ist als die Rate des vorigen Jahrhunderts. Mit anderen Worten, die aktuellen Anstiegsraten haben sich signifikant verlangsamt im Vergleich zum langfristigen Gesamttrend.

Donoghue, 2011: „Über lange Zeiträume nach dem letzten glazialen Maximum (LGM) vor 2.000 Jahren waren in der Region Anstiegsraten weit über den Raten während der durch langzeitliche Tidenmessungen repräsentierten Perioden aufgetreten. Die regionalen Tidenmessungen zeigen, dass der Meeresspiegel im vorigen Jahrhundert um etwa 2 mm pro Jahr gestiegen war, während die mittlere Anstiegsrate seit dem LGM 6 mm pro Jahr betragen hatte, wobei es auch zu Perioden mit einem abrupten Anstieg über 40 mm pro Jahr (4 Meter pro Jahrhundert) gekommen war.

Der Meeresspiegel ist zeitweise mit Raten gestiegen, die über 20 mal größer waren als heute. Bei derartigen Raten würden sich regionale Küstenlinien um bis zu 40 Meter pro Jahr oder über 75 cm pro Woche landeinwärts zurückgezogen haben“.

Der Geologe Dominic Hodgson aus UK und seine Kollegen haben berechnet, dass der Meeresspiegel vor der Ostantarktis vor etwa 10.000 Jahren mit Raten von 1,2 bis 4,8 Metern pro Jahrhundert gestiegen war, als der Meeresspiegel 8 Meter höher lag als derzeit.

Hodgson et al., 2016: Rapider Anstieg des Meeresspiegels in Prydz Bay, Ostantarktis, zu Beginn des Holozäns … Die Felddaten zeigen rapide zunehmende Raten eines relativen Anstiegs von 12 bis 48 mm pro Jahr von vor 10.473 bis vor 9411 Jahren in den Vestfold Hills und von 8,8 mm pro Jahr von vor 8882 bis vor 8563 Jahren in den Larsemann hills … die geologischen Daten implizieren einen relativen Stand von 8 m über dem heutigen Niveau von vor 9411 bi vor 7564 Jahren. Dem folge eine Periode, in welcher der deglaziale Anstieg fast genau ausgeglichen wurden durch lokalen Rebound.

Und Zecchin et al. 2015 haben gezeigt, dass „episodische“ und „rapide“ Anstiege bis zu 6 Meter pro Jahrhundert erreichen können, und zwar hunderte Jahre lang. Das entspricht etwa dem 35-fachen der derzeitigen Rate.

Zecchin et al., 2015: „Die hier präsentierten Beweise bestätigen abgesunkene Küstenlinien, welche anderswo dokumentiert sind in ähnlichen Wassertiefen. Sie zeigen, dass Schmelzwasser-Einschübe den nacheiszeitlichen relativen Anstieg mit Raten bis zu 60 mm pro Jahr unterstreichen, und zwar einige Jahrhunderte lang“.

Zusammengefasst: Es gab nichts ungewöhnliches hinsichtlich der aktuellen Daten des Meeresspiegel-Anstiegs während des vorigen Jahrhunderts.

Tatsächlich steigt der Meeresspiegel derzeit mit einer Rate, die weniger als ein Drittel der mittleren Rate der letzten 20.000 Jahre ausmacht (Donoghue 2011).

Die Fortsetzung dieser langfristige Verlangsamung während einer Ära mit einem vermeintlichen anthropogenen Einfluss auf das Klima sind ein sehr starker Beweis, dass abrupte Änderungen des Meeresspiegels (Steigen bzw. Fallen) unabhängig von den Variationen der atmosphärischen CO2-Konzentration erfolgen.

Link: http://notrickszone.com/2017/09/07/past-sea-levels-rose-4-6-meters-per-century-shorelines-retreated-40-meters-per-year-without-co2-flux/

Übersetzt von Chris Frey EIKE




Die GRÜNEN: Es mangelt weder an erneuer­baren Energien noch an der Entwick­lung von Speichern und Netzen

Der Anlass für diese Mitteilung der GRÜNEN Expertin war eine Studie.
era, August 2017: [2] Analyse des Exports von Stein- und Braunkohlestrom Erstellt im Auftrag von: Bundestagsfraktion Bündnis 90/Die Grünen, welche die GRÜNEN in Auftrag gaben, um sich belegen zu lassen, dass „GRÜNES“ Wissen zur Energie das neue Wissen ist, und auf physikalischen Gesetzen begründetes nur veraltet sein kann.

Inhaltlich geht es in der Studie um die von einigen EEG-„Fachpersonen“ vertretene Ansicht, dass konventioneller Strom die Leitungen „verstopft“ und nur diese Stromblockaden das EEG am Gedeihen hindern. Erwartungsgemäß hat die Studie die Ansicht ihrer Auftraggeber umfassend bestätigt.

Nachdem die bisher vom Autor gesichteten Studien der Grünen zu EEG und Klima nur eines: Desaströses Unwissen und ideologie-bedingte Falschinformation als Ergebnis vorwiesen [16], stellt sich die Frage, kann es diesmal anders sein? Anbei wird dazu eine Antwort versucht.

Studie: Stromexport verstopft auch Exportleitungen

Es ist bekannt, dass die Professorin C. Kemfert als Ökonomin ähnliche Ansichten vertritt [6]. Auch nach ihren Vorstellungen müssen die Leitungen immer für den ideologisch richtigen Strom freigehalten werden. Fließt darin „dreckiger“, konventionell erzeugter Strom, muss dieser dem „edlen Ökostrom“ selbstverständlich sofort weichen. Ihre Homepage berichtete deshalb nach der Veröffentlichung sofort über die Studie:
KLIMARETTER.INFO: [1] Kohlestrom verstopft auch Exportleitungen
Der Überschuss, den Deutschland beim Stromexport erzielt, hat sich in den letzten fünf Jahren auf mehr als das Achtfache erhöht. Das hat eine Untersuchung des Berliner Energieforschungsinstituts Era im Auftrag der Bundestagsfraktion der Grünen ergeben. Als Hauptgrund für den … steil angestiegenen Exportüberschuss nennt die klimaretter.info vorliegende Analyse die seit 2009 recht konstante Stromerzeugung aus Braun- und Steinkohle. Meist würden die hohen Stromexporte aber der schwankenden Wind- und Solarstromerzeugung angelastet, schreiben die Studienautoren.

… Die fossilen Kraftwerke reagierten … nicht ausreichend auf die hohe Einspeisung von Solarstrom.

Die GRÜNEN meldeten ihren Argumentationserfolg und verknüpften das Ergebnis dazu mit dem Wahlkampf, 25.08.2017: Studie: Stromexporte von Stein- und Braunkohlestrom
Die Bundestagsfraktion BÜNDNIS 90/DIE GRÜNEN hat eine Studie zum Stromexport bei era – energy research in Auftrag gegeben, deren Ergebnisse jetzt vorliegen.
Fazit: Deutschland produziert viel mehr Strom als im Land verbraucht wird. In den letzten fünf Jahren haben sich die deutschen Stromexportüberschüsse fast verzehnfacht. Auch Brandenburg exportiert 60 Prozent des Stroms, weil gerade hier die Braunkohlekraftwerke das Stromnetz verstopfen und kaum wie eigentlich vorgesehen, bei hoher Windeinspeisung runtergefahren werden.
Der denkbar schlechteste Grund dafür: Die deutsche Bundesregierung hält an den unflexiblen Kohlekraftwerken fest. Wenn die Produktion gedrosselt wird, dann nicht bei den klimaschädlichen Kohlekraftwerken, sondern bei den Erneuerbaren-Anlagen. Für diesen Mechanismus ist die Regierung Merkel verantwortlich und deshalb auch
für jede einzelne unnötig produzierte Kilowattstunde schmutzigen Kohlestroms. Wir wollen in einer Regierungskoalition die schmutzigsten 20 Kohlekraftwerke als erstes abschalten. Die stabile Stromversorgung in Deutschland ist davon nachweislich nicht berührt.

Der bdew, im Wesentlichen ein Zusammenschluss von Versorgern, sichtete die Studie, fand die Aussagen schlichtweg eine Zumutung an den technischen Sachverstand, darf und will jedoch weder der Kanzlerin, deren energiepolitischen Vorgaben, noch den unsinnigen Vorstellungen sonstiger in Berlin agierender Parteien – und auch nicht den Avancen einiger kommunaler Versorger [8] irgendwie zu nahe treten, geschweige diesen gar den geballten Unsinn vorwerfen.
Entsprechend unterwürfig wurde ein lauer Protest formuliert, um wenigstens ein paar Aussagen der Studie „gerade zu rücken“ und vielleicht auch, um in der Zukunft auf hämische Nachfragen „Widerstand“ belegen zu können:
bdw: [3] „Auch im Wahlkampf darf nicht davon abgelenkt werden, dass konventionelle Kraftwerke für die jederzeit sichere Energieversorgung heute noch dringend gebraucht werden. Die Stromnachfrage muss bei jeder Wetterlage gedeckt und das Stromnetz stabil gehalten werden. Das gilt besonders in einem System, das zunehmend durch die stark schwankende Stromerzeugung aus Erneuerbaren Energien geprägt ist.
Konventionelle Kraftwerke sind nicht Gegner, sondern unverzichtbare Partner der Erneuerbaren Energien. Für die Erneuerbaren gilt zudem richtigerweise der gesetzlich festgelegte Einspeisevorrang: Aufgrund der hieraus resultierenden gesetzlichen Abschaltreihenfolge sind die Netzbetreiber dazu verpflichtet, Erneuerbare-Energien-Anlagen als letzte abzuregeln. Die regionale Verteilung bei der Abregelung von Windkraftanlagen zeigt, dass dies fast ausschließlich in Norddeutschland fernab der Braunkohlereviere erfolgt.
… Es geht darum, die Stromversorgung rund um die Uhr an 365 Tagen im Jahr zu gewährleisten. Wie wichtig die konventionellen Kraftwerke sind, hat uns allen die Dunkelflaute im Januar gezeigt, als über Tage kaum Wind wehte und auch die Sonne nahezu keinen Beitrag zur Stromversorgung Deutschlands leisten konnte.
Zu den Kernproblemen gehört, dass Deutschland beim Netzausbau leider deutlich hinterherhinkt. Neue Leitungen sind dringend erforderlich, um die zunehmenden Strommengen aus regenerativen Quellen aufnehmen zu können. Dass es hier hakt, liegt vor allem an politischen Widerständen. Dringend erforderlich sind zudem zusätzliche Speicherkapazitäten und -technologien, um den aus Wind- und Solarenergie erzeugten Strom möglichst vollständig nutzen zu können. Der Speicher-Ausbau wird aber durch regulatorische Hemmnisse ausgebremst. Hier muss die künftige Bundesregierung schnell Abhilfe schaffen.“

Was steht in der Studie

Diese Frage lässt sich leichter beantworten, wenn man sich vorher klarmacht, warum es diese Studie überhaupt gibt-Allgemein ist bekannt, dass die EEG-Vorrangeinspeisung zu Netzproblemen führt und immer öfter abgeregelt werden muss. Auch ist bekannt, dass Deutschland Strom – teils sogar zu negativen Preisen – exportiert.
Kein Energiefachmann der alten Schule macht für diese Probleme die Grundlastkraftwerke verantwortlich. Sie weisen stattdessen auf den Unsinn der bedingungslosen Vorrangeinspeisung hin und erklären anhand der Ganglinien, warum die geschilderten Probleme mit immer weiterem EEG-Ausbau immer zwanghafter auftreten (müssen) [5] [7] [9] (und Schlusskapitel).

Den EEG-Befürwortern ist eine solche Argumentation ein Dorn im Auge. Sie behaupten, die Grundlastkraftwerke könne und müsse man sehr wohl jederzeit so schnell und stark regeln, dass der EEG-Vorrangstrom in vollem Umfang eingespeist und verbracht werden könnte. Und damit wären alle EEG-Probleme bereits behoben. Dass dies nicht geschieht, läge nur an der „Geldgier“ der Kraftwerksbetreiber und natürlich an der Politik, die dies zulasse.
Diese Argumentation wird von der Studie übernommen und „belegt“. Anhand ausgesuchter Ganglinienbeispiele „zeigt“ sie, dass bei flexibler Kraftwerks-Einspeiseregelung kein EEG-Strom verloren gehen müsste und Stromexporte unnötig wären.

Die Studienautoren bestätigen dies und sagen: Nicht die unplanbare, mit extremer Spanne schwankende EEG-Vorrangeinspeisung ist das Problem im Netz, sondern die darauf nicht flexibel genug reagierenden Grundlast-Kraftwerke, vor allem Braunkohle und die noch verbliebene Kernkraft. Alleine dies sei die Ursache der Stromexporte und der vorgenommenen Abregelungen. Würde man alle Kraftwerke genau mit der EEG-Einspeisung nachregeln, gäbe es alle Probleme nicht. Ob das technisch überhaupt möglich wäre, hat die Studienautoren nicht interessiert.
era Analyse: [2] Diese Strommarktanalyse zeigt, dass die zu starre Fahrweise der Braunkohle- und Atomkraftwerke zu hohen Stromexportüberschüssen in Deutschland führt … ihre Leistungsreduzierung reicht aber nicht aus, um bei hoher Windenergie- und PV-Einspeisung eine ausgeglichene Angebot-Nachfrage-Situation im Strommarkt zu erreichen. Dafür müsste auch die Leistung der Braunkohle- und Atomkraftwerke viel stärker an die Stromerzeugung aus erneuerbaren Energien angepasst werden.

Die Grundlastkraftwerke passen sich der fluktuierenden EEG-Einspeisung nicht flexibel genug an

era Analyse: [2] Diese Strommarktanalyse zeigt, dass die zu starre Fahrweise der Braunkohle- und Atomkraftwerke zu hohen Stromexportüberschüssen in Deutschland führt. Die Steinkohlekraftwerke werden zwar variabler betrieben, ihre Leistungsreduzierung reicht aber nicht aus, um bei hoher Windenergie- und PV-Einspeisung eine ausgeglichene Angebot-Nachfrage-Situation im Strommarkt zu erreichen. Dafür müsste auch die Leistung der Braunkohle- und Atomkraftwerke viel stärker an die Stromerzeugung aus erneuerbaren Energien angepasst werden.

Bild 1 Jährliche Exportüberschüsse [2]
[2] Die hohen Exporte werden zumeist der schwankenden Wind- und Solarstromerzeugung angelastet. Die vorliegende Untersuchung zeigt jedoch, dass sie in erster Linie auf die seit 2009 konstant gebliebene Stromerzeugung aus Braun- und Steinkohle zurückzuführen sind.

Bild 2 Jährliche Abregelungen [2] (EEG-Strom, der erzeugt wurde, mangels Bedarf nicht eingespeist wird, jedoch bezahlt werden muss)
[2] Die hohe Braunkohle- und Steinkohleerzeugung hat außerdem zusammen mit Netzengpässen dazu beigetragen, dass die abgeregelte Stromerzeugung aus erneuerbaren Energien in den letzten Jahren drastisch gestiegen ist (siehe folgende Abbildung). Da die Betreiber für den nicht eingespeisten Strom aus erneuerbaren Energien entschädigt werden, entstehen durch die Abregelung zusätzliche Kosten, die – zu Unrecht – der Energiewende angerechnet werden.

Bild 3 Ganglinienbeispiel Zeitraum 27.01. – 31.01.2016 [2]

Um welches Problem geht es dabei

Wie üblich geht es neben anderem um Kosten. Die Netzüberlastungen durch die EEG-Vorrangeinspeisung nehmen mit jedem weiteren Ausbau zu und kosten inzwischen richtig Geld. Zudem führt es auch zu Stromexporten mit negativen Preisen. Mit jedem weiteren EEG-Ausbau explodieren diese Probleme und Kosten.

Bild 4 Kosten der Netzüberlastungen. Quelle: R. Schuster

Als Beleg werden ausgesuchte Ganglinienbeispiele angeführt

Beispiel A, der Zeitraum vom 27. bis zum 31.01.2016.
[2] Die Winterperiode vom 27. bis zum 31.01.2016 ist durch eine hohe Windenergieeinspeisung von 12 bis 33 GW geprägt …
… Angesichts der relativ hohen Erzeugung von Wind- und Solarstrom wäre zu erwarten, dass die fossile Kraftwerksleistung entsprechend angepasst und heruntergefahren würde. Dies ist jedoch kaum der Fall, sodass ständig Stromerzeugungsüberschüsse auftreten, die ins Ausland exportiert werden müssen. …
Die Stromexportüberschüsse in diesem Zeitraum korrelieren numerisch zwar mit der Windenergieeinspeisung, werden aber de facto durch die parallel hohe Kohlestromerzeugung verursacht.

Bild 5 Ganglinienbeispiel A, Zeitraum 27.01. – 31.01.2016 [2]

Kritische Betrachtung

Ganz kurz gesagt: Unter der Prämisse, dass EEG-Einspeisung grundsätzlich Vorrang haben muss, dem sich alles andere bedingungslos unterzuordnen hat, wird vollkommen frei von technischen Zwängen erklärt, dass, so lange bei den Grundlastkraftwerken noch „Luft“, also eine Energiedifferenz besteht, alleine diese geregelt werden müssen.

Über die komplexen Zusammenhänge im Versorgungsnetz und über die Probleme eines zukünftig höher werdenden EEG-Anteils wird nicht eingegangen.

Studie: [2] Diese Strommarktanalyse zeigt, dass die zu starre Fahrweise der Braunkohle- und Atomkraftwerke zu hohen Stromexportüberschüssen in Deutschland führt.
Die hohen Exporte werden zumeist der schwankenden Wind- und Solarstromerzeugung angelastet. Die vorliegende Untersuchung zeigt jedoch, dass sie in erster Linie auf die seit 2009 konstant gebliebene Stromerzeugung aus Braun- und Steinkohle zurückzuführen sind.
Die hohe Braunkohle- und Steinkohleerzeugung hat außerdem zusammen mit Netzengpässen dazu beigetragen, dass die abgeregelte Stromerzeugung aus erneuerbaren Energien in den letzten Jahren drastisch gestiegen ist
Da die Betreiber für den nicht eingespeisten Strom aus erneuerbaren Energien entschädigt werden, entstehen durch die Abregelung zusätzliche Kosten, die – zu Unrecht – der Energiewende angerechnet werden.

Bewusst verzichtet die Studie auf jegliche physikalische und kraftwerkstechnische Betrachtung. Für die Studienautoren existieren keine technischen oder kommerziellen Probleme. Sie argumentieren nur nach den Ganglinienkurven.
Was die Studienautoren sicher wissen, aber nicht erwähnen ist, dass dies (auf dem Papier) nur gelingt, weil global immer noch eine Differenz zwischen Verbrauch und EEG-Spitzeneinspeisung besteht. Dass dies in Regionalnetzbereichen schon aktuell nicht mehr der Fall ist [7], wird unterschlagen, beziehungsweise nur nebenbei erwähnt. Auch wird zwar erwähnt, aber nicht darauf eingegangen und ignoriert, warum Braunkohle- und Kernkraftwerke nicht im Stundentakt in der Leistung beliebig hin- und her fahren können. Es wird einfach postuliert, dass es nur an der Geldgier der Betreiber läge.

Die Studie reiht sich damit nahtlos in die Formate ein, wie sie beispielhaft auf Klimaretter.Info regelmäßig zur (Des-)information zu finden sind. Toppt diese jedoch durch eine schon fast auf Kindergarten-Niveau reduzierte „Ganglinienanalyse“. Das ließ sich aber nicht vermeiden: Das Ergebnis war durch den Auftraggeber ja festgelegt.

Die Grundlastkraftwerke haben die sprunghafte EEG-Einspeisung vollständig auszuregeln

Anhand des ersten in der Studie gebrachten Ganglinienbeispiels (Bild 4) sei die Problematik gezeigt. Dazu ist der 27. Januar 2017 dargestellt und die Eispeiseveränderung zwischen 12 und 17 Uhr.

Bild 6 Ganglinien 27.01. – 31.01.2016. Zeitraum 27.01., 12 – 17 h gekennzeichnet. Quelle Agora Viewer

Innerhalb dieser fünf Stunden speisten die EEG-Generatoren -52 % Energie ins Netz. Während der Verbrauch nur um 3,3 % zurückging. Würde Deutschland (wie geplant) zu 100 % EEG-versorgt, hätten in Deutschland innerhalb der fünf Stunden
50 % der erforderlichen Elektroenergie gefehlt.

Bild 7 Detaildaten der Ganglinien von Bild 6

Die Studie sagt nun folgerichtig, da vom EEG-Gesetz so vorgegeben, dass es nicht Aufgabe der EEG-Stromlieferanten ist, darauf Rücksicht zu nehmen. Diese Einspeise-Verbrauchsdifferenzen müssten die konventionellen Kraftwerke ausregeln. Das machen diese (notgedrungen) auch, ansonsten würde das deutsche Stromnetz bereits aktuell zusammenbrechen.

Um es nicht zeigen zu müssen, hat die Studie gezielte Zeitpunkte zur „Analyse“ herausgepickt. Deshalb beispielhaft nochmals das erste Studienbeispiel mit dem Zeitraum über zwei Monate (Bild 7). Sehr schön sieht man nun die Probleme – und nicht die „Erfolge“ der EEG-Einspeisung:
Wenn der Bedarf fast am Maximum liegt, wird ein Minimum an Energie geliefert (rote Pfeillinie). Das ist genau das Gegenteil, was Herr Özdemir behauptet [10].
Obwohl der Bedarf sinkt, wird sprunghaft Maximalenergie eingespeist (um den 21. Februar).
All dies regelt die konventionelle Stromerzeugung aus. Entsprechend der technischen Gegebenheiten der Kraftwerkstechnik in der Reihenfolge: Gas, Steinkohle, dann wenig Braunkohle und noch weniger Kernkraft. Dass sich damit dann kaum noch Geld verdienen lässt, kann mancher vielleicht verstehen. Nicht jedoch die Studienautoren und die GRÜNEN.

Bild 8 Ganglinien vom 01.01. – 28.02.2016. Mit Zufügungen vom Autor. Quelle Agora Viewer

Bild 9 Detaildaten der Ganglinien vom 19. – 20.02.2016 von Bild 8

Bild 10 Zeitraum 01.01.2016 – 29.02.2016. Verlauf Verbrauch (violett) und Differenz Verbrauch zur EEG-Einspeisung (braun). Grafik vom Autor erstellt. Quelle: Agora-Daten

Bild 11 Ganglinie des Gesamtjahres 2016. Zusätzlich gekennzeichnet ist der Zeitraum des Studienbeispiels A. Quelle: Agora-Viewer

Wenn reiner Irrsinn über unsere Energie bestimmt …

Bei jedem Blick in die EEG-Ganglinien ist ersichtlich:
Dass die EEG-Stromversorgung mit ihrer Vorrangeinspeisung bei einem weiteren Ausbau den kommenden Zusammenbruch des Stromnetzes zur Folge haben muss.
Parallel ist ersichtlich, dass die „versprochenen“ Speicher nirgendwo mit ausreichendem Volumen in Sicht sind.
Die konventionellen Kraftwerke sind derzeit noch in der Lage, die Einspeiseproblematik auszuregeln und mit der Strombörse über Export / Import Energiedifferenzen abzufangen.
Trotzdem nehmen die sich verstärkenden Abregelungen (Bild 2) als zusätzliche Notmaßnahme drastisch zu.

Das ist nicht nur die Ansicht des Autors, sondern kann auch an anderen Stellen nachgelesen werden [5] [7] [9].

In dieser immer kritischer werdenden Situation fällt „Fachpersonen“ nichts anderes ein, als unbeirrt ihren ideologischen Weg weiter zu gehen.
Unter diesen sticht die „Fachfrau“ der GRÜNEN (Studium: Politikwissenschaften, öffentliches Recht, Völkerrecht) allerdings hervor. Sie weiss erkennbar nichts über das, was sie sagt, sie weiß aber genau, warum sie es sagt:
Annalena Baerbock: [4] … „Am Kohleausstieg führt kein Weg vorbei. Nicht nur aufgrund unserer klimapolitischen Verpflichtungen, sondern auch wegen des bevorstehenden Desasters am Strommarkt, wenn wir so weitermachen wie bisher. Es mangelt weder an erneuerbaren Energien noch an der Entwicklung von Speichern und Netzen. Es mangelt an der Bereitschaft, aus der Kohle auszusteigen. Deshalb kommen wir bei der Energiewende nicht richtig voran.“
Zuerst stellt sich die Frage, was diese Darstellung mit den Studienaussagen zu tun hat. Dort steht dazu nämlich praktisch nichts drin.

Information der Studie:
Über Speicher: Nichts,
Dass erneuerbare Energien die Strom-Nachfrage erfüllen könnten: Nichts,
Zum Versorgungsnetz: Es wird nur erklärt, dass derzeit das globale Netz (aktuelle, lokale Überlastungen, wie sie der bdew anspricht, wurden nicht untersucht) auch bei EEG-Einspeisespitzen noch ausreicht, wenn parallel minutengenau alle Grundlastkraftwerke heruntergefahren würden.

Wahrscheinlich hat die Fachfrau die Studie gar nicht gelesen. Man würde sich wünschen, jemand könnte diese „Fachfrau des Wissensgrauens“ zwingen, auch einmal etwas über Energie zu lesen, damit sie wenigstens im Ansatz den Unsinn ihrer Aussagen erkennt:
EIKE, 01. September 2017: [9] SPIELER AM WERK? Die Energiewende und Grünsprech – Die Kaskadierung
TYCHIS EINBLICK, 4. Februar 2017: [5] Anspruch und Wirklichkeit „Energiewende“ trifft frostige Wirklichkeit
Sicher noch hilfreicher wäre, sie müsste einmal dort leben, wo ein solches Energiesystem Realität ist. Allerdings sie alleine (zum Beispiel irgendwo in Afrika) und nicht umgekehrt, wir mit ihr demnächst in Deutschland.
Zur Demo für wenige Tage alle Kraftwerke abzuschalten, um der Fachfrau zu zeigen, an was es bei ihr mangelt, und den Bürgern, was uns durch solche fachfremden Personen alles noch eingebrockt wird, wäre am Hilfreichsten. Da unsere Medien dann aber nicht die Wahrheit berichten, sondern irgend eine Dolchstoßlegende erfinden würden, käme es leider dort, wo es ankommen sollte dann nicht an.

Die Beraterin für Klima und EEG für unsere Berliner Politikkaste ist allerdings kaum besser. Sie hat auch keine Lösungen, meint aber zu wissen, welche es sind:
[6] Prof. C. Kemfert: Nicht die erneuerbare Energie von morgen braucht zusätzliche Netze, sondern der hohe Überschuss des Kohlestroms von gestern. Die erneuerbaren Energien sollen hier nur als Sündenbock herhalten, um einen überdimensionierten Stromnetzausbau zu rechtfertigen. Dabei wären dezentrale, intelligente Netze samt Lastmanagement und mittelfristig mehr Speicher viel wichtiger.
Auch diese „Fachfrau“ belegt, dass man mit Wissen nicht weiterkommt, sondern indem man weiss, was die Wichtigen als Wissen wissen wollen. Trotz ihrer vielen, oft hanebüchenen Aussagen [6] wird sie mit Ehrungen und Posten überhäuft.

Der bdew als ein Verband mit Fachwissen könnte etwas zur (Er-)Klärung beitragen. Macht er aber nicht.
Stattdessen philosophieren seine Fachleute über unerfüllbare Wünsche und Speicher und dass der Grund, warum sie fehlen „regulatorische Hemmnisse“ wären, die man schnell abschaffen könnte. Dass Speicher im erforderlichen Umfang nicht möglich sind, alternativ (als Powert to Gas mit Rückverstromung [11] [13]) die Stromkosten explodieren lassen [11], wagt der Verband nicht zu erwähnen.
bdew: Zu den Kernproblemen gehört, dass Deutschland beim Netzausbau leider deutlich hinterherhinkt. Neue Leitungen sind dringend erforderlich, um die zunehmenden Strommengen aus regenerativen Quellen aufnehmen zu können. Dass es hier hakt, liegt vor allem an politischen Widerständen. Dringend erforderlich sind zudem zusätzliche Speicherkapazitäten und -technologien, um den aus Wind- und Solarenergie erzeugten Strom möglichst vollständig nutzen zu können. Der Speicher-Ausbau wird aber durch regulatorische Hemmnisse ausgebremst. Hier muss die künftige Bundesregierung schnell Abhilfe schaffen.“

… welche sich durch GRÜNE „Forschungskompetenz“ selbst bestätigt …

Welche Kompetenz hat nun das Forschungsinstitut, von dem die Studie für die GRÜNEN verfasst wurde? Anbei eine Nachschau:
era (energy research architecture) ist eine international tätige Beratungsfirma, die sich mit den Energie- und Ressorcenfragen unserer Zeit beschäftigt. Das Ziel von era ist, einen Beitrag zur Entwicklung einer nachhaltigen Ära zu leisten, die auf einer sauberen, sicheren und erneuerbaren Energieversorgung und auf den effizienten Einsatz von Ressourcen basiert.

Der Haupt-Studienautor ist mit-Gründer von era:
Björn Pieprzyk
2001: Studium der Landschaftsplanung mit Schwerpunkt Umweltschutz an der Universität Hannover
Diplomarbeit: Der Beitrag von ÖKOPROFIT zur nachhaltigen Entwicklung – Analyse der Kooperation staatlicher Institutionen
und Unternehmen zur Förderung nachhaltiger Produktion
2001-2006: Referent für den Bundesverband Erneuerbare Energie Deutschland (BEE)
2006-2007: Referent für die Agentur für Erneuerbare Energien (AEE)
Seit 2008: Referent für den Bundesverband Erneuerbare Energie Deutschland (BEE)
2008: Gründung der Firma ERA energie research architecture mit Paula Rojas Hilje
Seit 2011: Doktorand an der Technischen Universität Darmstadt
Hochschule Ostwestfalen-Lippe: Lehrbeauftragter für Energiepolitik, Energierecht

Er hat auch bereits Studien zum EEG Im Auftrag des Bundesverbandes Erneuerbare Energie e.V. verfasst:
Björn Pieprzyk ERA – Energy Research Architecture San Jose at al.: Kurzstudie Beitrag der Erneuerbaren Energien zu den europäischen Klimaschutzzielen bis 2020
Fazit Die Studie zeigt, dass schon jetzt die Erneuerbaren Energien einen erheblichen Anteil zu den CO2-Minderungszielen der Europäischen Union beitragen. Dieser Klimaschutzbeitrag wird sich in den nächsten Jahren bis 2020 weiter stark ausweiten. Dabei ist von Seiten der Europäischen Union sicher zu stellen, dass die Fördermechanismen für die Erneuerbaren Energien beibehalten beziehungsweise im Sinne der Erneuerbaren Energien weiterentwickelt werden.
… Die Erhöhung der Anteile Erneuerbarer Energien am Strommix ist ein Garant dafür, dass die Europäische Union ihre formulierten Klimaschutzziele erreichen kann

Irgendwie erschütternd, was inzwischen alles als „Forschungsinstitut“ bezeichnet wird. Für das wenige und dazu noch ideologisch beschränkte Wissen, welches die GRÜNEN benötigen, reicht aber wohl jedes „Kleinbüro“, sofern es die geforderten Daten verspricht, aus. Der gerade erschienene Artikel von Andrea Andromidas trifft das wie die Faust aufs Auge:
EIKE 02.09.2017: Die Science Fiction des Jeremy Rifkin oder: die schöne neue Welt der Öko-Kollektive

Der Autor hat spasseshalber die Daten für die EEG-Zukunft hochgerechnet.
Wenn die EEG-Einspeisung den Strombedarf decken soll, müssten Wind- und PV gegenüber dem Ausbaustand im Jahr 2016 nochmals um den Faktor 4,3 ausgebaut werden. Die hochgerechneten Ganglinien sehen dann wie im Bild 10 aus.

… kommt dieses Desaster heraus

Bild 12 EEG-Einspeisung linear hochgerechnet, so dass EEG-Jahreseinspeisung = Verbrauch. Datenquelle: Agora

Damit sind aber noch nicht die gewaltigen Verluste von 50 … 80 % [12] abgedeckt, welche die Power to Gas-Speicher mit Rückverstromung verursachen. Also muss man dem Jahresbedarf die Speicherverluste mit dem Faktor 1,5 zufügen (ganz grobe Abschätzung). Dann sehen die EEG-Ganglinien wie folgt aus:

Bild 13 EEG-Einspeisung linear hochgerechnet, so dass EEG-Jahreseinspeisung = Verbrauch + Speicherverluste. Datenquelle: Agora

Dass unser Versorgungsnetz bei diesen Einspeisungen nicht mehr stabil bleiben kann, drastisch umgebaut werden muss und massivste, restriktive Maßnahmen erforderlich werden, welche unabhängig davon, ob sie ausreichend Wirkung zeigen, auf jeden Fall wirklich viel, viel Geld kosten, ist sicher. Doch was interessiert die elektrische Wirklichkeit schon ernannten Energie-„Fachpersonen“ – und Bürgerinitiativen, welche gegen die notwendigen Umbaumaßnahmen genau so demonstrieren, wie gegen das Verbleiben im aktuell noch sicheren Energiesystem.

… welches bedingungslos zum totalen Kampf gegen das Klima weitergeführt wird

Das klingt schon recht verwegen. Den „Fachpersonen“ jagt es jedoch keine Angst ein, nein, es ihnen Ansporn, zur Rettung des Klimas noch mehr zu tun. Diesmal sind es zur Entschuldigung nicht die GRÜNEN, sondern Greenpeace Energy und der Bundesverband Erneuerbare Energien in Verbindung mit einer Energie-Fachperson aus dem Dunstkreis der Klimaberaterin C. Kemfert.
Greenpeace Energie, 20.06.2016, Pressemitteilung: [13] Deutschland braucht 100 Prozent erneuerbare Energien bis 2040, den Kohleausstieg bis 2030 und raschen Ausbau von Langzeitspeichern
In dieser Studie wird erklärt:
… Um die Vorgaben des Pariser Klimaabkommens einzuhalten, muss Deutschland erheblich mehr Ökostrom produzieren als bislang geplant …Demnach braucht Deutschland spätestens im Jahr 2040 jährlich 1.320 Terawattstunden an erneuerbarem Strom. Das ist mehr als doppelt so viel wie heute. Der deutlich höhere Strombedarf entsteht nach der „Sektorkopplungsstudie“, weil auch Verkehr, Wärme und Industrie zum Erreichen der Klimaschutzziele in Deutschland von fossilen Energieträgern auf erneuerbaren Strom umschwenken müssen. „Mit den geringen Zubaukorridoren des Erneuerbare-Energien-Gesetzes ist ein Einhalten der Paris-Ziele praktisch unmöglich. Entweder fehlt den politisch Verantwortlichen der nötige Sachverstand oder sie beabsichtigen das Klimaschutzabkommen gar nicht einzuhalten“, urteilte Studienleiter Prof. Dr. Volker Quaschning bei der Präsentation in Berlin.
Wenigstens sagt dieser Professor endlich einmal, was dann an Speicher benötigt wird, ein Problem, von dem die GRÜNE Fachfrau gar nichts weiß:
[13] … „Um den von Professor Quaschnings Team ermittelten Energiebedarf durch erneuerbare Speicher abzusichern, brauchen wir bis 2040 eine Elektrolyseurleistung von mindestens 80 Gigawatt, um den nötigen Wasserstoff zu erzeugen“,

Mit dem 14-fachen EEG-Ausbau könnte Deutschland seine Klimaziele erreichen …

Dieser Prof. Quaschning (Promotion über die Abschattung von Solarzellen) fordert so ganz nebenbei nichts weniger, als mindestens eine Vervierzehnfachung des aktuellen EEG-Ausbaus (mehr als 2 x 6,5, siehe Bild 11), da ansonsten die Welt mit dem Klima untergehen würde. Wer das nicht glaubt, dem fehle der nötige Sachverstand. Das erste Mal dass man froh ist, dass wenigstens einem Teil unserer Politikern dieser Sachverstand fehlt.

Ansonsten ist dieser Professor ein typisches Beispiel für die Forschertypen, welche mit Freude und konsequent etwas (zum eigenen Nutzen) umsetzen, den Sinn und die Notwendigkeit jedoch nicht hinterfragen, sondern froh sind, dass er „von Oben“ vorgegeben wird. Solche gibt es in jedem Zeitabschnitt der Geschichte.

… und mit dem 40-fachen ganz auf Ökoenergie umsteigen

Wie man das leicht ausrechnen kann, steht im Artikel:
EIKE 08.09.2017: Welcher EEG-Ausbau wird benötigt, wenn man – wie es die GRÜNEN fordern – alle Energie aus EEG-Erzeugern generiert?
Was es kostet, kann man ebenfalls abschätzen:

EIKE, 10. Oktober 2016: Neue Studie enthüllt: Die Energiewende wird uns bis 2025 rd. 520 Mrd € kosten

Fazit

Wie schon in den Artikeln:
EIKE 26.08.2017: Holen sich die GRÜNEN ihre „Kernkompetenz“ zum Klimawandel von der Bundesregierung?
EIKE
28.8.2015: Wenn Politologinnen „Klimastudien“ machen – zur „Klimastudie“ von Bündnis 90/Die Grünen
dargelegt wurde, geht es den GRÜNEN nicht darum, irgendwo „Kernkompetenz“ zu erhalten. Es werden nur Personen gesucht, die willig ihre ideologisch vorgefasste Meinung begründen helfen.

Dass sie sich dabei regelmäßig so erkennbar faktenignorant und frei von jeglichem Basiswissen präsentieren, ist fast schon eine Schande für Deutschland. Nur fällt es bei uns nicht auf, da die anderen – etablierten – Parteien ja nicht besser sind [16] [15]. Die Berater*innen der Politiker nutzen diese Unwissenheit, teils gepaart mit reiner Hysterie schamlos aus, um mit NGOs ihre eigenen „Süppchen zu kochen“.

Oder sollte es inzwischen eine Ausnahme geben?
Angeblich ist das auch dem bayerischen Ministerpräsidenten aufgefallen. Vor Kurzem konnte er sich noch eine Koalition CSU / GRÜNE in Bayern vorstellen, nun hat er sich anders entschieden.
N24: Seehofer kann sich Koalition mit den Grünen nicht mehr vorstellen
Nur weiß man bei Seehofer nie, ist es (Nach-)Denken, oder reines Parteikalkül. Zum Beispiel weil die FDP inzwischen bessere Umfragewerte als die GRÜNEN vorweisen kann.
Um es als Nachdenken zu belegen, müsste er erst einmal seine Umweltministerin gegen eine Person auswechseln, die sich nicht nur als hohle, grüne Mainstream-Sprechpuppe darstellt und Frau Hendricks Klimahysterie und fachliche Inhaltsleere teilt [14].

Quellen

[1] KLIMARETTER.INFO, 25. August 2017: Kohlestrom verstopft auch Exportleitungen

[2] era, August 2017: Analyse des Exports von Stein- und Braunkohlestrom Erstellt im Auftrag von: Bundestagsfraktion Bündnis 90/Die Grünen

[3] bdew Bundesverband der Energie- und Wasserwirtschaft e.V.: Stefan Kapferer zum aktuellen Kraftwerke-Papier der Grünen

[4] Annalena Baerbock 25.08.2017: Studie: Stromexporte von Stein- und Braunkohlestrom

[5] TYCHIS EINBLICK, 4. Februar 2017: Anspruch und Wirklichkeit „Energiewende“ trifft frostige Wirklichkeit

[6] EIKE 05.06.2016: Eine Professorin klärt den VDI auf, wie das EEG „wirklich“ funktioniert

[7] EIKE 01.01.2016: Die neuen Energien im Jahr 2015 und im Jahr 2050 für Dummies Teil 2 intelligente Versorgungsnetze

[8] EIKE 06.02.2016: Nachgefragt: Ein lokaler Versorger bricht die Macht der Stromgiganten

[9] EIKE, 01. September 2017: SPIELER AM WERK? Die Energiewende und Grünsprech – Die Kaskadierung

[10] EIKE 15.08.2017: Cem Özdemir versucht sich in Energie

[11] EIKE 18.06.2015: Elektro-Energiespeicherung, Notwendigkeit, Status und Kosten. Teil 3 (Abschluss)

[12] DAV: Studie „Energiewende 2030“ von Agora

[13] Greenpeace Energie, 20.06.2016: Deutschland braucht 100 Prozent erneuerbare Energien bis 2040, den Kohleausstieg bis 2030 und raschen Ausbau von Langzeitspeichern

[14] EIKE 21.11.2015: Die bayerische Umweltministerin Frau Scharf: Extremwetter, Extrem-Hochwasser und die Unberechenbarkeit des Wetters nehmen zu. Doch stimmt das wirklich?

[15] EIKE 21. Dezember 2012: Ein Weihnachtsmärchen: Minister Altmaier, die Energiewende und die Geisterfahrer

[16] EIKE 21. August 2017: POLITISCHE BILANZ: Nicht „ob“, sondern „wie schnell“

[17] EIKE: Immer wieder muss der Tschad-See unter dem Klimawandel leiden, oder: Warum steht in Studien der GRÜNEN immer so viel Falsches drin?