1

Diesel-Verteu­felung: Krieg gegen das eigene Volk Diesel: Die Lücken­medien im Glashaus (3)

Im ersten Teil dieses Aufsatzes wurde nachgewiesen, dass die NO2-Belastung der Luft in ganz Deutschland und auch an den sogenannten „Hotspots“ in den Städten zurückgegangen ist. Grund ist die stetige Ablösung älterer durch jüngere Fahrzeuge mit besseren Abgasbehandlungssystemen. Dieser Trend wird sich auch in den nächsten Jahren fortsetzen. Der zweite Teil der Analyse beschäftigte sich mit der Fragwürdigkeit der Messmethoden und den dabei eingesetzten Tricks und Manipulationen. Im jetzigen dritten Teil werfen wir einen Blick auf die teils grotesk übertriebenen Behauptungen über die gesundheitlichen Auswirkungen von Stickstoffdioxid sowie auf die Methoden und Tricks, mit denen die öffentlich-rechtlichen Medien als Sprachrohr industriefeindlicher Behörden die Wirklichkeit verzerren und die Öffentlichkeit irreführen.

Die Horrorstory der ARD, Teil 1: Feinstaub…

Im Rahmen ihres „Faktenfinder“-Artikels verweisen die Autoren auf einen Kurzfilm der ARD über die angeblichen Gefahren durch verkehrsbedingte Emissionen von Feinstaub und Stickoxiden [TAGS]. Darin erläutert der SWR-Reporter Martin Schmidt, unterbrochen von animierten Abgasfahnen und gespielten Hustenanfällen, dass Feinstaub nach Berechnungen des Umweltbundesamtes allein in Deutschland 47.000 vorzeitige Todesfälle verursachen soll. Zwar gebe es noch andere Feinstaubquellen wie Industrie oder private Heizöfen, doch sei der weitaus größte Teil dem Verkehr anzulasten. Diese Aussage ist nachweislich falsch, Bild 2 und Bild 3.

Bild 2. Die wichtigsten Verursacher von Feinstaubpartikeln in der EU (Grafik: [THAL])
Die Feinstaub- Emissionen werden innerhalb der gesamten EU von der Europäischen Umweltagentur (EEA) erfasst und ausgewertet. In ihrem zusammenfassenden Bericht aus dem Jahr 2016 [THAL] findet sich eine detaillierte Aufstellung der Hauptquellen der als besonders gefährlich eingestuften Feinstaub-Kategorie PM 2,5 (das sind ultrafeine Partikel mit Durchmessern unterhalb von 2,5 µm, die besonders tief in die Lunge eindringen). Aus dieser Grafik geht eindeutig hervor, dass der Anteil des Straßenverkehrs bei lediglich 13 % liegt, während Industrie und Haushalte mit 56 % den weitaus größten Anteil haben. Die sekundäre Rolle des Verkehrs zeigt sich auch an den Daten des Luftschadstoff-Emissionskatasters Baden-Württembergs für das Jahr 2014 [LUKA], Bild 3.

Bild 3. Prozentuale Aufteilung der Emissionsquellen für Feinstaub PM 2,5 in Baden-Württemberg (Daten: [LUKA])
Auch in Baden-Württemberg haben dagegen Feuerungen – zu dieser Kategorie gehören kleine und mittlere Feuerungsanlagen, d.h. auch Pelletheizungen und Kamine, Schwedenöfen usw. – mit fast 40 % den weitaus größten Anteil. Zum Straßenverkehr ist anzumerken, dass dessen Anteil nur zu einem geringen Anteil aus Auspuffgasen stammt, sondern aus dem Abrieb von Bremsen und Reifen sowie vor allem aus der Aufwirbelung von Straßenstaub. Der Verkehr wirbelt somit vor allem lediglich den Dreck in die Luft, den die Kamine in die Landschaft geblasen haben, wird aber dafür dann verantwortlich gemacht. Selbst E-Mobile würden daher kaum weniger Feinstaub erzeugen. Fahrverbote würden lediglich die Städte und die Industrie lahmlegen, aber die Gleichung „keine Industrie=gute Volksgesundheit“ ist keine vertretbare Option. Fahrverbote bei Feinstaubalarm sind Nonsens und wären rechtlich nicht zu begründen. Die Städte täten wesentlich besser daran, den Wildwuchs bei den bisher so eifrig befürworteten Pellet- und Holzheizungen einzudämmen. Mit heutiger Drohnentechnik sollte es endlich möglich sein, direkt an den Schornsteinen die RHE-Werte (Real Heating Emissions) kostengünstig zu untersuchen. Dadurch könnte man auch den gar nicht so wenigen „Sündern“ auf die Schliche kommen, die es für praktisch halten, ihren Sperrmüll auf diesem Wege kostengünstig loszuwerden, Bild 4. Bei solchen illegalen Verbrennungen entstehen extrem giftige Substanzen, die alles in den Schatten stellen, was bei den peinlich genau kontrollierten Verbrennungsprozessen in Kfz-Motoren entsteht.

Bild 4. So mancher Kamin wird zur „kostengünstigen Entsorgung“ von Sperrmüll genutzt und dadurch zur Giftschleuder. DUH und Konsorten sollten sich mal dafür interessieren, aber mit Klagen gegen Häuslebauer ist halt nicht so viel Geld zu verdienen…

Die Horrorstory der ARD, Teil 2: Stickoxide

Nach der Verdammung des Feinstaubs kommt der SWR-Reporter dann gegen Ende der Sendung zu seinem eigentlichen Thema. Das Lamento über Feinstaub diente ihm vor allem als Kunstgriff zur Einstimmung der Zuschauer auf sein Hauptanliegen, die Anklage gegen das Stickstoffdioxid. Nach effektvoller Einleitung mit einer weiteren simulierten Hustenattacke kommt er zur Sache: „Auch Stickstoffdioxid ist sehr gefährlich“. Es könne zum Beispiel Atemwegsprobleme oder Herz-Kreislauferkrankungen auslösen. Nach Erkenntnissen des UBA sei in Innenstädten der Verkehr mit 84 % der Hauptversucher, und Schuld daran seien fast ausschließlich Dieselfahrzeuge.

Das sind gleich drei Unwahrheiten, genauer gesagt eine Halbwahrheit und zwei regelrechte Falschaussagen. Man muss sich wirklich fragen, wie man als Fernsehanstalt solche Dinge ungeprüft in einer Nachrichtensendung verbreiten kann. Schauen wir uns diese Vorwürfe im Einzelnen an.

Welche Gefahr geht von Stickstoffdioxid wirklich aus?

Was ist eigentlich Gift? Im Prinzip ist fast alles giftig. Wem ist schon bewusst, dass Salz ein tödliches Gift ist? Im Jahre 2005 starb im Saarland ein Kind, weil es gezwungen wurde, einen versehentlich versalzenen Pudding komplett aufzuessen. Zwar lebte es bei der Einlieferung in die Klinik noch, konnte aber dennoch nicht mehr gerettet werden [SALZ1].

Bild 5. Etwas mehr als ein Esslöffel des eigentlich lebensnotwendigen Minerals Salz genügte, um ein Kind zu töten

Zwar ist dies ein Extremfall, aber tödlich ist Salz auch in weit geringeren Mengen. Fachleute gehen davon aus, dass weltweit jährlich über 2 Millionen Menschen aufgrund von Herzerkrankungen sterben, die durch zuviel Salz im Essen verursacht werden [SALZ2]. Oder nehmen wir das Beispiel Alkohol: Das edle Genussmittel in Bieren, Weinen und Schnäpsen ist de Facto ein krebserregendes Nervengift, dem jedes Jahr 74.000 Deutsche zum Opfer fallen. Die Liste ließe sich beliebig fortsetzen, denn ab einer gewissen Menge ist fast jeder Stoff giftig. Erst das Zuviel macht aus einem natürlichen oder gar lebensnotwendigen Stoff ein unter Umständen tödliches Gift. Das gilt selbst für Wasser (dessen tödliche Dosis bei ca. 6 Liter liegt). Auch Stickstoffdioxid ist ein natürlich vorkommendes Spurengas in unserer Atmosphäre. Ein Grenzwert von Null, wie er von einigen Epidemiologen gefordert wird, ist pure Utopie. Statt solche sinnfreien Forderungen zu stellen, sollte man über die Zulässigkeit von Dosierungen sprechen, Bild 6.

Bild 6. Frühere und heutige NO2-Grenzwerte in Deutschland und der Schweiz

Grenzwerte am Arbeitsplatz…

Über mögliche Beeinträchtigungen durch NO2 in Abgasen für die Allgemeinheit sollte man daher nur im Zusammenhang mit den Dosierungen sprechen, die tatsächlich in der Luft unserer Städte vorliegen. Das sind im Mittel nirgendwo mehr als 90 µg/m3 mit seltenen Spitzen bis etwas über 200 µg/m3. Dieser Wert ist gleichzeitig die Geruchsgrenze, d.h. man kann nicht unbemerkt vergiftet werden. In diesem Konzentrationsbereich ist NO2 nicht giftig, sondern lediglich ein Reizstoff für die Lunge. Der Grenzwert für die Dauerbelastung von Mitarbeitern bei körperlicher Arbeit (MAK-Wert) lag früher in Deutschland bei 9.000 µg/m3 und wurde erst Anfang der 2000er Jahre auf 950 µg/m3 reduziert, in der Schweiz liegt er sogar bei 6.000 µg/m3. Bis zu dieser Schwelle ist NO2 also kein Gift, sondern lediglich ein Reizstoff, dem man als gesunder Erwachsener bis zu rund 1.500 Stunden pro Jahr ausgesetzt sein kann, ohne nachteilige gesundheitliche Auswirkungen befürchten zu müssen. MAK-Werte werden von einer Kommission festgelegt, die mit Fachleuten aus verschiedensten Bereichen wie z.B. der Toxikologie und der Arbeitsmedizin oder der Lungenheilkunde besetzt sind. Sie werden so definiert, dass sie nach aktuellem Kenntnisstand der Medizin sicher unterhalb der Gefährdungsgrenze liegen.

Bild 7. Das krebserregende Nervengift Alkohol ist im Unterschied zu Stickstoffdioxid selbst in kleinsten Mengen gefährlich

und Grenzwerte in Büro- und Privaträumen

Da die Bevölkerung nicht nur aus Gesunden besteht, wurden auch die Auswirkungen wesentlich darunter liegender Konzentrationen z.B. auf Asthmatiker oder Kinder mit großer Sorgfalt untersucht. Auch hier obliegt dies einem eigenen Fachgremium, in diesem Fall dem Ausschuss für Innenraumrichtwerte des Umweltbundesamtes. Dort wurden verschiedenste Kurzzeit- und Dauerbelastungs-Grenzwerte definiert, die mit großen Sicherheitsmargen nach unten sicherstellen sollen, dass selbst die Schwächsten unserer Gesellschaft bei Dauerbelastung keinen Schaden nehmen. Dieser für Büroräume ebenso wie für Privatwohnungen geltende Grenzwert liegt bei 60 µg/m3. Im Unterschied zum MAK-Wert gilt er auch für Dauereinwirkung rund um die Uhr, da wir zwischen 70 und über 90 % unserer Zeit in solchen Räumen verbringen.

Woher kommt der tiefere Grenzwert in der Außenluft?

Da die 60 µg/m3 deutlich über den für die Außenluft geltenden 40 µg/m3 liegen, stellt sich die Frage, wie es zu diesen krass unterschiedlichen Festlegungen gekommen ist. Die Antwort ist ganz einfach: Es handelt sich um ein Diktat von oben, d.h. es mussten Vorgaben der EU übernommen werden. Deutsche Fachgremien hatten nichts zu melden. Und bei den zuständigen EU-Gremien orientierte man sich an Vorgaben der Weltgesundheitsorganisation WHO. Wir haben also die absurde Situation, dass dort, wo man sich eher selten aufhält, nämlich auf dem Bürgersteig einer sehr stark befahrenen Straße, wesentlich strengere Grenzwerte gelten als in den Innenräumen und Büros, wo ein deutlich höherer Pegel als gesundheitlich unbedenklich eingestuft wird. Hinter diesen unterschiedlichen Ansichten stecken auseinandergehende Auffassungen über die Methoden, die zur Ermittlung gesundheitlicher Risiken eingesetzt werden.

Messen oder Simulieren?

Vereinfacht ausgedrückt geht es um die Frage, ob man sich an den Verfahren der Pharmaforschung oder an statistisch ermittelten Daten orientiert. Toxikologen gehen nach den Methoden vor, die z.B. auch für die Entwicklung von Medikamenten vorschrieben sind. Sie erforschen die Wirkungsweise bestimmter Substanzen im Körper und bestimmen eindeutige Ursache-Wirkungs-Zusammenhänge. Epidemiologen erfassen dagegen große Bevölkerungsgruppen und versuchen, mögliche Gesundheitsrisiken mit statistischen Verfahren zu erkennen. Das kann jedoch zu Fehlschlüssen führen, z.B. weil Abgase ja als Gemisch auftreten. Ein Beispiel: man ermittelt Daten wie Krankheitshäufigkeit oder Todesursache von Menschen, die in der Nähe stark befahrener Straßen wohnen, in Abhängigkeit von der Entfernung ihrer Wohnung zur Straße. Doch kann man bei der Wahl solcher Kriterien auch böse danebenliegen. Ein Beispiel: Wohnungen direkt an Schnellstraßen sind unbeliebt und die Mieten daher sehr günstig. Also ziehen hier Menschen hin, die sich nicht mehr leisten können, Bild 8.

Bild 8. An solchen Straßen wohnen nur diejenigen, die zu arm sind, um die anderswo höheren Mieten zu bezahlen

Dann könnte ein Statistiker mit hoher Sicherheit Auswirkungen erhöhter Abgasbelastungen auf das Einkommen „errechnen“. Sogar mit einer erheblich höheren Sicherheit als bei der Ermittlung gesundheitlicher Auswirkungen der einzelnen Stoffe im kunterbunt zusammengesetzten Abgasgemisch.

Wegen dieser Mischung verschiedenster Abgasbestandteile ist daher oft nicht genau zu klären, welche Komponente des Abgases denn wirklich für die festgestellte gesundheitliche Beeinträchtigung verantwortlich ist. Das Pech für das NO2 ist, dass man es recht gut messen kann und daher gerne als generellen Indikator für Abgasbelastungen heranzieht. Dann kann es schnell passieren, dass man ihm Effekte anlastet, die eigentlich von anderen Bestandteilen wie z.B. dem krebserregenden Benzo-a-Pyren hervorgerufen werden. So werden in manchen epidemiologischen Studien Krebsrisiken „festgestellt“, die der Toxikologe bestreitet. Der WHO wird oft vorgehalten, sie setze zu stark auf solche epidemiologischen Studien. Aber sie hat halt bei den EU-Gremien Gehör gefunden.

Namhafte Wissenschaftler: Grenzwerte sind übertrieben

Jedenfalls bestreitet der führende Toxikologe und langjährige Vorsitzende der MAK-Kommission Professor Helmut Greim von der TU München die wissenschaftliche Basis des für die Außenluft festgelegten NO2-Grenzwerts von 40 µg/m3 NO2 im Freien: „Epidemiologen errechnen ihre Werte, wir Toxikologen messen sie und setzen danach Grenzwerte fest“. Seiner Ansicht nach sei eine Belastung von 40 µg/m3 NO2 im Freien völlig unbedenklich, solange der Arbeitnehmer bei der Innenluft dem 20fach höheren Grenzwert (950 µg) ohne Gesundheitsbedenken ausgesetzt sein darf [GREI]. Erheblich Zweifel an politischen Grenzwertsetzungen beim NO2 äußert auch Professor Tobias Welte. Aus seiner Sicht sei das der vollkommen falsche Parameter. Er glaube, dass Feinstaub eine wesentlich größere Bedeutung habe als Stickoxid. Deshalb wäre es wichtig, sich darauf zu konzentrieren [WELT]. Auch Welte ist, was die Beurteilung von luftgetragenen Schadstoffen angeht, als Leiter der größten Universitäts-Lungenklinik Deutschlands mit 30 Jahren Berufserfahrung und 700 Veröffentlichungen eine Kapazität von Rang. Und Prof. Koch vom Institut für Kolbenmaschinen am Karlsruhe Institut für Technik zitiert aus der Mail eines Pathologieprofessors und Leiters eines Pathologieinstituts folgende Passage: „Es sind wahrhaft Horrorzahlen und Horrorgeschichten, die über die Toxizität der Dieselabgase und deren angebliche Todesfälle insbesondere bezüglich des Feinstaubes in der Öffentlichkeit aus verschiedensten Interessen verbreitet werden. Man hat heute allgemein den Eindruck, die Luftbelastung habe in den letzten Jahren zugenommen und die Menschen seien dadurch vermehrt krank geworden, was in keinster Weise auf einer wissenschaftlichen Grundlage beruht. Im Gegenteil, die Menschen sind bis in das hohe Alter gesünder, insbesondere was ihre Lungen betrifft, und leben auch dadurch deutlich länger als früher [KOCH].

Festzuhalten bleibt: Der heute in Deutschland geltende Immissionsgrenzwert ist uns ohne Anhörung unserer Fachgremien politisch von außen aufgedrückt worden. Er dient nicht der Gesundheit der Bevölkerung, sondern befriedigt das Machtstreben von Ideologen. Hätte man stattdessen den für Innenräume seit 20 Jahren geltenden Wert übernommen, dann gäbe es heute gar keine NO2-Diskussion mehr. Nicht der Dieselmotor ist das Problem, sondern weltfremde Grenzwerte sowie die damit befeuerte Angstkampagne in den Medien.

Ist der Verkehr Hauptverursacher von NO2-Emissionen?

Als nächstes ist zu klären, ob der Verkehr in Innenstädten tatsächlich – wie in der Sendung unter Berufung auf das UBA behauptet – mit 84 % der Hauptverursacher von NO2-Emissionen ist. Da ist zunächst die Frage zu stellen, wann das UBA welche diesbezügliche Behauptung aufgestellt hat. Offensichtlich hatten dort vergleichbare Meldungen mit unterschiedlichen Zahlen in letzter Zeit Hochkonjunktur. Auf der sehr anwenderunfreundlichen UBA-Webseite ist es oft kaum möglich, den jeweils „richtigen“ zu finden. Die Suchfunktion gleicht einem Lotteriespiel, Bilder erscheinen grotesk geschnitten und es werden auch immer mal wieder Beiträge schon nach kurzer Zeit zurückgezogen. Deshalb nehmen wir hier eine etwas anderslautende UBA-Mitteilung vom 26. April 2017 mit der folgenden Grafik, Bild 9.

Bild 9. Vom UBA den verschiedenen Straßenfahrzeugtypen zugeordnete NO2-Emissionsanteile (Grafik: UBA)

Auffallend ist an dieser Darstellung insbesondere der niedrige Anteil der Busse. Das sah in einer Berechnung, die das Institut für Energie- und Umweltforschung Heidelberg 2006 im Auftrag des Umweltministeriums Baden-Württemberg durchführte, nämlich noch ganz anders aus, Bild 10.

Bild 10. Entwicklung der Emissionsanteile der verschiedenen Fahrzeugkategorien des Stadtverkehrs in Stuttgart bis zum Jahr 2014 (Grafik: [IFEU])
Dieser Recherche zufolge emittierten nämlich Busse 2004 volle 42 % der NO2-Emissionen in Stuttgart, gefolgt von Diesel-PKW mit 36 %, LKW mit 11%, Benzin-PKW mit 8 % und leichten Nutzfahrzeugen mit 3 %. Jetzt sollen es bei Bussen plötzlich nur noch 4 % sein. Das ist sehr unglaubwürdig, denn gerade Busse sind langlebige Investitionsgüter, die sehr lange eingesetzt werden müssen, damit sie sich rechnen. Dementsprechend langsam erfolgt auch die Verjüngung des Bestandes, Bild 11.

Bild 11. Prognose über den Bestand von Bussen der verschiedenen Emissionsstandards in den Jahren bis 2030 (Grafik: [TREM])
Zum Verständnis der Grafik ist es wichtig zu wissen, dass beim Neukauf von Bussen meist die höchste am Markt befindliche Euro-Kategorie gekauft wird. Seit 2005 dürften daher kaum noch Busse unter EURO-4 gekauft worden sein. Dennoch geht man beim Ifeu davon aus, dass selbst im Jahr 2030 – also nach 25 Jahren Betriebszeit – noch derartige Busse auf der Straße sein werden. Zusammengenommen lassen diese Zahlen Zweifel an dem vom UBA jetzt präsentierten Emissionsanteil von lediglich 4 % für Busse – und damit prinzipiell am gesamten vorgestellten Zahlenwerk – aufkommen. Außerdem fehlen in den vom UBA präsentierten Daten auch noch vollständig alle übrigen Emissionsquellen. Schließlich ist der Verkehr nicht der einzige Urheber von NO2-Emissionen, Bild 12.

Bild 12. Prozentuale Aufteilung der Emissionsquellen für NOx in Baden-Württemberg (Daten: [LUKA])
Betrachtet man die Bilder 10-12 im Zusammenhang, so wirkt die Behauptung des UBA, dass der Verkehr in den Innenstädten für 84 % der NO2-Belastungen verantwortlich sei und diese fast ausschließlich dem Diesel anzulasten seien, doch ziemlich an den Haaren herbeigezogen. Bestätigt werden diese Zweifel auch durch unabhängige Untersuchungen des Instituts für Kolbenmaschinen am Karlsruhe Institut für Technik, Bild 13.

Bild 13. Unabhängige Untersuchung der Herkunft von NO2 in der Luft, Messstation Stuttgart Am Neckartor (Grafik: IFKM/ KIT)

Bei dieser Untersuchung von Professor Koch wurde zwischen Hintergrundgehalten – entfernter liegende Quellen, deren Abgase bereits großräumig verteilt wurden – und lokalen Quellen unterschieden. Da es bei dieser Art der Darstellung schwieriger wird, den Beitrag der einzelnen Quellen optisch leicht fasslich darzustellen, wurde zusätzlich eine zusammenfassende Grafik erstellt, Bild 14.

Bild 14. Zusammengefasste grafische Darstellung der anteiligen Emissionen der verschiedenen Fahrzeugkategorien aus Bild 9

Worüber regt man sich beim UBA eigentlich auf?

Festzuhalten bleibt zunächst, dass ungeachtet der lautstarken Kampagne in den Medien wegen gewisser Unterschiede zwischen den Vorgaben und den im Realbetrieb festgestellten Emissionswerten von neuen Dieselfahrzeugen die Gesamtbelastung in den Städten auch in den letzten Jahren kontinuierlich weiter gesunken ist. Das ist durch Bild 15 und Bild 16 eindeutig belegt.

Bild 15. Selbst an den „Hot Spots“ in den Städten sind die Messwerte seit 2006 kontinuierlich immer weiter zurückgegangen (Grafik: UBA)

Bild 16. Der weiter rückläufige Trend der NO2-Werte auch an den Stuttgarter Brennpunkten ist sogar bis Ende August 2017 belegt (Grafik: Stadt Stuttgart)

Somit haben die gerade bei neueren Fahrzeugen beobachteten Differenzen beim Emissionsverhalten keine nachteiligen Auswirkungen auf die Immissionswerte. Viel entscheidender ist die weiter fortschreitende Verjüngung des Bestandes durch Ersatz älterer Fahrzeuge mit schlechteren Abgaswerten. Anders ausgedrückt: Selbst ein noch nicht ganz perfekter EURO-6-Diesel ist immer noch viel besser als ein perfektes Modell mit EURO-5 oder gar EURO-3. Zudem kommen demnächst Fahrzeuge mit nochmals verbesserter Abgasbehandlung EURO-6dtemp auf den Markt. Wie sich dies auf die NO2-Belastung der Luft auswirken wird, zeigt Bild 17.

Bild 17. Projektion der 2020 an der Messstelle „Am Neckartor“ zu erwartenden NO2-Werte. Grau: Hintergrund, Gelb: Diesel-PKW, Grün: Benzin-PKW, Rot: schwere LKW (Grafik: IFKM/KIT)

Die zwielichtige Rolle der Umweltbehörden

Bei nüchterner Betrachtung der Fakten stellt sich die Frage, was mit den massiven Attacken von Umweltministerin Hendricks und UBA gegen den Diesel-PKW eigentlich bezweckt wird. Gesundheitsschutz der Bevölkerung kann es nicht sein, denn die Industrie hat es trotz unnötig übertriebener Grenzwertvorgaben geschafft, die NO2-Gehalte in den Städten langsam, aber kontinuierlich immer weiter zu senken. Durch neue Entwicklungen wird sich dieser Trend in den nächsten Jahren weiter fortsetzen. Die Gehässigkeit, mit der dennoch behördlicherseits auf die Hersteller losgegangen wird, hat offensichtlich einen tieferen Grund. Hendricks und UBA stehen unter Druck, weil sie mit ihrer Strategie zur Senkung der CO2-Emissionen Schiffbruch erlitten haben. Da kommt es ihnen zupass, die Individualmobilität mit Verbrennermotoren an den Pranger zu stellen. Man verspricht sich davon gleich zwei Vorteile: Ablenkung vom eigenen Scheitern und Schädigung einer Industrie, die in Sachen Elektromobilität nicht so will, wie es die Politik möchte, sondern das herstellt, was die Verbraucher verlangen.

Welches Spiel spielen ARD, ZDF und Co?

Von den dort arbeitenden Journalisten wäre eigentlich zu erwarten, dass sie sich nicht als Staatsfunk betätigen. Das hatten wir in Deutschland schon zweimal, einmal in Braun und einmal in Rot, und es hat dem Volk nicht gutgetan. Die Journalisten der Sender sollten Aussagen von Behörden, die in der Dieselthematik eine offen industriefeindliche Position einnehmen, eigentlich einer kritischen Kontrolle unterziehen. Das ist nicht geschehen, weshalb es jetzt an dieser Stelle nachgeholt wurde. Das Ergebnis dieser Nachkontrolle lässt sowohl das UBA als auch den Sender in einem ziemlich unvorteilhaften Licht erscheinen. Schließlich ist durch Statistiken belegt, dass der Anteil des Gesamtverkehrs an den NO2-Emissionen Deutschlands bis 2015 auf 40 % gesunken ist. Auch ist der Straßenverkehr nicht der einzige Verkehrsträger, es gibt darüber hinaus auch noch die Bahn, das Schiff und das Flugzeug. Oder sollten auf den Stuttgarter Bahngleisen tatsächlich keine Rangierloks mit Dieselantrieb fahren?

Eine Begründung für Autofahrverbote wegen Feinstaubalarm oder aufgrund von NO2-Werten lässt sich jedenfalls derzeit nicht ableiten. Juristen sollten in den hier dargelegten Fakten und Dokumenten genug Stoff finden, um Klagen der DUH vor Gericht scheitern zu lassen.

Fakten und „Faktenfinder“

Die bisherige Analyse der von den „Faktenfindern“ von NDR und Tagesschau präsentierten Aussagen lässt erkennen, dass man sich dort alles andere als kritisch-investigativ mit dem Thema NO2-Immissionen der Stadtluft beschäftigt hat. Stattdessen übernimmt man einfach die Positionen von Hendricks und dem UBA, als seien deren Ansichten der Weisheit letzter Schluss. Eine eigenständige kritische Wertung von Daten und Hintergründen ist nicht einmal in Ansätzen erkennbar. Dies bestätigt die bereits bisher gemachte Erfahrung, dass die Mehrzahl der Medien – allen voran die Fernsehanstalten ARD, ZDF und ihre Landesdependancen – beim sogenannten „Diesel-Skandal“ einseitig, parteiisch und irreführend berichten. Statt um Ausgewogenheit und Sorgfalt bemüht man sich offenkundig eher darum, das Thema so darzustellen, wie die Bundesbehörden sowie die anderen etablierten Parteien es gerne haben möchten. Abweichende Meinungen von Medien, Journalisten oder Blogger werden als unglaubwürdig hingestellt. So leistet man dem ideologischen Ziel der Deindustrialisierung Deutschlands durch „Dekarbonisierung der Volkswirtschaft“ Vorschub. Der Diesel ist dabei nur das erste Opfer. Es wird danach weitergehen, und zwar alternativlos.

Fred F. Mueller

Demnächst folgt Teil 4

Quellen

[FAKT] http://faktenfinder.tagesschau.de/inland/stickstoffdioxid-111.html

[GREI] http://www.focus.de/finanzen/karriere/berufsleben/politik-ignoriert-zweifel-am-grenzwert-40-mikrogramm-dieselpanik-wegen-grenzwertluege-in-ihrem-buero-ist-20-mal-so-viel-stickstoff-erlaubt_id_7378545.html

[HEUTE] „Heute“-Nachrichtensendung des ZDF vom 9.8.2017, Interview mit Thomas Geisel, SPD-Oberbürgermeister der Stadt Düsseldorf, Stichwort „Verkehrserziehung in Richtung Zukunft“

[IFEU] Ifeu Institut für Energie- und Umweltforschung Heidelberg GmbH Analyse der Ursachen für hohe NO2-Immissionen in Baden-Württembergischen Städten im Auftrag des Umweltministeriums Baden-Württemberg, Juli 2006

[KLIN] http://www.dnn.de/Dresden/Lokales/Dresdner-Professor-fordert-ideologiefreie-Debatte-ueber-Schadstoffe-durch-Autoverkehr

[KOCH] https://www.ifkm.kit.edu/downloads/Focus_Antworten_v2.0.pdf Institut für Kolbenmaschinen Prof. Dr. sc. techn. Thomas Koch. Der Dieselmotor: Nüchterne Bewertung der Emissionsthematik

[LUKA] Luftschadstoff-Emissionskataster Baden-Württemberg 2014. Landesanstalt für Umwelt, Messungen und Naturschutz Baden-Württemberg

[PEEL] JENNIFER L. Peel Is NO2 a Marker for Effects of Traffic Pollution or a Pollutant on Its Own. COLORADO STATE UNIVERSITY MAY 4, 2015 HEI ANNUAL MEETING PHILADELPHIA, PA

[TAGS] http://www.tagesschau.de/multimedia/video/video-312819.html

[THAL] European Environment Agency EEA Report No28/2016 Air Quality in Europe – 2016 report https://www.eea.europa.eu/publications/air-quality-in-europe2016

[TREM] Aktualisierung „Daten- und Rechenmodell: Energieverbrauch und Schadstoff-Emissionen des motorisierten Verkehrs in Deutschland 1960-2030“ (TREMOD, Version 5.3) für die Emissionsberichtserstattung 2013 (Berichtsperiode 1990-2011) ifeu Institut für Energie- und Umweltforschung Heidelberg GmbH

[SALZ1] https://www.nwzonline.de/panorama/versalzener-pudding-kostet-angelinas-leben_a_6,1,2300022554.html

[SALZ2] https://www.medpagetoday.com/cardiology/prevention/38011

[WELT] http://www.ndr.de/nachrichten/niedersachsen/hannover_weser-leinegebiet/Stickoxid-Die-ueberschaetzte-Gefahr,stickoxid108.html




Kleine Energierückschau 2016, oder: Was ist Zappelstrom

Erneuerbare Energien sind die wichtigste Stromquelle in Deutschland …

und ihr Ausbau eine zentrale Säule der Energiewende. So meldet es unser zuständiges Ministerium.

Bild 1 Windpark. Bildquelle: Wattenrat, Homepage

Bundesministerium für Wirtschaft und Energie: Erneuerbare Energien
Wie das Ministerium darauf kommt, nachdem die „Erneuerbaren Energien“ gerade einmal 29 % Anteil am Strom liefern, davon die alleine weiter ausbaufähigen, Wind und Solar gerade einmal 15, 8 % (Wind 11,9 %, Solar 5,9 %) bleibt dessen Geheimnis. Aber damit ist auch nicht die Wirklichkeit, sondern der Wunsch gemeint.

Wie es die ersten zwei Bilder zeigen, reicht jedoch schon dieser Ausbau, um unsere Natur großflächig und rücksichtslos nicht nur verschandeln, sondern regelrecht kaputt machen. Für „Klimaretter“ ist es allerdings der ersehnte Umbau Deutschlands zur Energie-Erntelandschaft.

Bild 2 Bruttostromerzeugung in Deutschland 2016 in TWh, regenerativer Anteil; Stand: März 2017. Quelle Homepage Bundesministerium für Wirtschaft und Energie © AG Energiebilanzen

Und leider liefern das EEG nur „Zappelstrom“

Der Agora-Viewer bietet bezüglich der Elektroenergie sicher die schönsten Übersichtsgrafiken. Daraus der Verlauf des letzten Jahres. Herrlich sieht man den Zappelstrom der Erneuerbaren und die gewaltige Versorgungslücke, welche die konventionellen Kraftwerke stemmen müssen. Bild 3 zeigt die „Erneuerbaren“ mit dem Sockel, welchen Wasserkraft und Biomasse bilden. Wichtig ist jedoch Bild 4, denn es stellt den 15,8 %-Anteil von Wind gesamt und Solar ohne Biogas und Wasserkraft dar. Nachdem Biogas und Wasserkraft in Deutschland nicht weiter ausbaufähig sind, müssen diese beiden Quellen jeden weiteren EEG-Ausbau alleine „stemmen“.
Die große, stark schwankende Differenz zwischen benötigtem Strom und wirklich bereitgestelltem, und was das für Konsequenzen hat, ist in [1] [3] erklärt, vor allem auch in der Artikelreihe: EIKE 24.01.2016: [4] Die neuen Energien erklärt für Dummies Teil 3: Zeitreise ins Jahr 2050 des EEG Eine Energiewende ist nicht planbar
und in diesem Artikel deshalb nicht das (Haupt-)Thema.

Bild 3 Ganglinie von Stromverbrauch und EEG-Einspeisung im Jahr 2016. Quelle: Agora-Viewer

Bild 4 Ganglinie von Stromverbrauch und Einspeisung Windkraft gesamt + Solar im Jahr 2016. Quelle: Agora-Viewer

Zappelstrom“, erklärt für Dummies

Die wirklich angebotene Leistung im Verhältnis zur maximalen Leistung

Das folgende Bild 5 zeigt das Histogramm der Leistung von Solar und Windkraft gesamt im Jahr 2016. Bezug ist die maximale, im Jahresverlauf wirklich angebotene Leistung, also nicht die weit höhere, installierte.

Bild 5 Solar und Windkraft. Histogramm der Anzahl Jahrestage 2016, klassifiziert nach % der übers Jahr kurzfristig gelieferten Maximalleistung. Grafik vom Autor anhand der Daten von Agora erstellt

Wem Histogramme nicht so geläufig sind, anbei die Tabellierung dazu:

Bild 6 Tabellierung der Daten von Bild 5

Was sagen diese Daten von Wind und Solar – immer bezogen auf das Gesamtjahr 2016 mit 365 Normtagen:
-Über 18 Tage betrug die verfügbare Leistung im Maximum 5 %
-Über 63 Tage (also 2 Monate) betrug die verfügbare Leistung im Maximum 10 %
-Über 221 Tage (also 7,4 Monate) betrug die verfügbare Leistung im Maximum 30 %
-Über 308 Tage (also 9 Monate) betrug die verfügbare Leistung im Maximum 50 %

Die wirklich angebotene Leistung im Verhältnis zur installierten Leistung

Wer sich etwas mit Netzausbau auskennt weiss, dass die Übertragungssysteme nicht nach der zufällig in einem Jahr erreichten, maximalen Leistung, sondern nach der laut den technischen Angaben spezifizierten, installierten Leistung auszulegen sind. Würde man dies nicht beachten, wäre das Ergebnis das Gleiche wie bei einem Moped, dem der Bastelfilius einen Motorradmotor einbaut, um damit auf der Autobahn solche zu erschrecken, um sich alsbald (sofern er noch Glück hat) im Krankenhaus wiederzufinden, da das Fahrgestell und Reifen für diese Geschwindigkeit nicht gebaut waren.
Unter diesem Gesichtspunkt wird die schon vorher sehr ungünstige Verteilung der wirklich verfügbaren Energie (Bild 6) zum wahren Desaster, wie es Bild 7 und die zugehörige Tabelle zeigen.

Bild 7 Solar und Windkraft. Histogramm der Anzahl Jahrestage 2016, klassifiziert nach % der installierten Leistung. Grafik vom Autor anhand der Daten von Agora erstellt

Bild 8 Tabellierung der Daten von Bild 7

Was sagen diese Daten von Wind und Solar – immer bezogen auf das Gesamtjahr 2016 mit 365 Normtagen:
-Über das gesamte Jahr wurden als Maximum ca. 6 Stunden lang 55 % der installierten Leistung erreicht,
-während 9 Monaten betrug die angebotene Leistung nicht über 20 % der installierten.
Schlimmer kann man sich eine Energielieferung nicht vorstellen.

Damit nicht jemand meint, das wäre zu schlecht dargestellt, weil die wichtigen EEG-Träger Biomasse und Wasserkraft fehlen, die Grafik für das EEG gesamt noch anbei. Da die Letztgenannten so etwas wie eine Grundlast bieten, verschiebt sich die Verteilung nur leicht nach rechts.

Bild 9 EEG gesamt (Solar, Windkraft, Biomasse, Wasserkraft). Histogramm der Anzahl Jahrestage 2016, klassifiziert nach % der installierten EEG-Gesamt-Leistung. Grafik vom Autor anhand der Daten von Agora erstellt

Die Bewertung durch politische Führungskräfte, welche sich zutrauen, über Deutschlands Energiesystem zu entschieden

Wenn man die Agora-Bilder und die Verteilungen dazu ansieht, wird erst richtig klar, welches (Un-)Wissen hinter Aussagen politischer Führungskräfte steckt, die sich damit aber zutrauen, über Deutschlands Energiesystem zu diskutieren und zu bestimmen:
EIKE 15.08.2017: Cem Özdemir versucht sich in Energie
Sprecher: Kritiker sagen: Dann geht in Deutschland entweder das Licht aus, oder der Strom wird viel teurer. Sehen Sie das auch so?
C. Özdemir: Ach wissen Sie, wir kennen die Argumente. Die Argumente sind ja nicht ganz neu. Im Spitzenlastbereich, also nicht im Normallastbereich. Dann wenn der Energieverbrauch am Höchsten in Deutschland ist, ungefähr mittags zwischen 11 und 12, verbrauchen wir ungefähr 80 Gigabyte. Wir produzieren aber ungefähr 140 Gigabyte. Das heißt, das anderthalb-Fache dessen haben wir immer noch übrig, was wir brauchen. Selbst wenn wir die sieben ältesten Meiler abschalten würden, hätten wir immer noch mehr Strom als wir selbst im Spitzenlastbereich gebrauchen.

Für Personen, welche ebenfalls mit der Energie etwas auf Kriegsfuß stehen, es aber zugeben, anbei nochmals die Daten zur Aussage von Herrn Özdemir:
Anstelle der genannten, „mittags regelmäßigen“ 140 Gigabyte (gemeint waren von Herrn Özdemir natürlich Gigawatt), lieferten alle EEG-Lieferanten zusammen als absolutes Maximum am 08.02.2016:
-Einmal 54,2 GW (anstelle der angeblich regelmäßigen 140 GW)
-Der Anteil Wind und Solar betrug daran: 46,24 GW, also von den seitens Herrn Özdemir angegebenen nur 1/3tel (immer daran denken, alleine diese sind weiter ausbaufähig).
-Während des ganzen Jahres gab es nur für ca. 6 Stunden 67 % vom benötigten Bedarf, anstelle Herrn Özdemirs gemeldeter „sicherer“ Überlieferung von + 50 % (gesamt 150 %) zu jeder Mittagszeit,
-den Rest des Jahres, wie die Tabellen zeigen, dann über viele Monate nur zwischen 15 … 30 % davon.

Nicht nur Laien in der Politik fühlen sich bemüßigt, Energiekonzepte zu erdichten. Parteien ernennen auch gerne Mitglieder zu Fachpersonen, ohne deren Kompetenz abzufragen, geschweige zu prüfen. Als Beispiel die Sprecherin der Bundestagsfraktion Bündnis 90/Grüne für Klimapolitik und Mitglied im Ausschusses für Wirtschaft und Energie, welcher zuständig ist für: alle Aspekte der Energiewende und die damit verbundenen Fragen des Klimaschutzes sowie für das Thema Energieeinsparung … Schwerpunkte der Energieberatungen werden die Neuregelung des Erneuerbare-Energien-Gesetzes (EEG), der Netzausbau und die Energieeffizienz sein.
GRÜNE Annalena Baerbock (Studium: Politikwissenschaft und Öffentliches Recht):
[1] … „Am Kohleausstieg führt kein Weg vorbei. Nicht nur aufgrund unserer klimapolitischen Verpflichtungen, sondern auch wegen des bevorstehenden Desasters am Strommarkt, wenn wir so weitermachen wie bisher. Es mangelt weder an erneuerbaren Energien noch an der Entwicklung von Speichern und Netzen. Es mangelt an der Bereitschaft, aus der Kohle auszusteigen. Deshalb kommen wir bei der Energiewende nicht richtig voran.“
Der Vorteil ist, dass man die vollkommene Unkenntnis dieser „Fachdame“ alleine anhand der Aussagen sofort bemerkt.

Die (versprochenen) Lösungen

Es gibt jedoch auch die „Wissenschaftlichen“, welche aus verschiedensten Gründen das gleiche tun, es aber so „belegen“, dass es nicht jeder bemerkt.
DIE BUNDESREGIERUNG, 13. Januar 2015: Erneuerbare Energien und stabile Netze
2050 werden Windparks, Solar- und Biogasanlagen mindestens 80 Prozent unseres Stroms erzeugen. Das führt zu Problemen beim Stromnetz. Es muss stabil sein, auch wenn der Strom weite Strecken zurücklegen muss. Im Rahmen der neuen Hightech-Strategie, arbeitet die Forschung an Lösungen – Zukunftsaufgabe „Nachhaltiges Wirtschaften und Energie“.
… Dass erneuerbare Energien den deutschen Strombedarf komplett decken können, wurde bereits 2007 mit dem Vorgängerprojekt Kombikraftwerk 1 nachgewiesen …In dem anschließenden Forschungsprojekt Kombikraftwerk 2 ging es vor allem um die Netzstabilität und die Sicherheit unserer Energieversorgung bei einer rein regenerativen Stromerzeugung

Mit unseren Empfehlungen ist alles erreichbar, wenn die Kosten, die Nachteile und dass es die Lösungen noch gar nicht gibt, nicht berücksichtigt werden muss.

DIE BUNDESREGIERUNG, 13. Januar 2015: Erneuerbare Energien und stabile Netze
… Die Forscher stellten fest: Die heutige Versorgungsqualität ist auch mit einer intelligenten Kombination aus erneuerbaren Energien, Speichern und Backupkraftwerken mit erneuerbarem Gas erreichbar.
… Die Regulierung des Stromverbrauchs, also ein realistisches Lastmanagementpotenzial, wurde im Modell berücksichtigt. Dies reiche aber allein nicht aus, um Erzeugung und Verbrauch in Einklang zu bringen, so das Ergebnis im Projekt. Der Bau von Energiespeichern ist für die 100 Prozent erneuerbare Stromversorgung notwendig. Die Forscher empfehlen deshalb, neuartige Speichertechnologien wie Power-to-Gas weiter zu erforschen und zu entwickeln.

Bild 10 Aktuelle Kosten des Netz(Problem)Managements (ca. 1 Milliarde EUR / pa) Quelle: R. Schuster

Zu dieser Information fragt man sich, ob die „Fachpersonen“ in unserer Bundesregierung die Untertanen bewusst desinformieren. Denn dass sie so dumm sind, die Problematik der zitierten Analysen und ihrer „Information“ dazu nicht zu durchschauen, kann man sich (bei den Gehältern) nicht vorstellen.

Das „moderne Lastmanagement“ bedeutet nichts anderes, als Verbraucher in Zukunft konsequent wegzuschalten wenn der Strom fehlt:
EIKE 02.11.2016: Verwundert, weil ihr Stadtteil dank EEG zeitweise keinen Strom bekommt? Auf unserer Homepage wurde doch darüber informiert!
Man kennt dieses Verfahren von Ländern, welche früher noch als unterentwickelt bezeichnet werden durften. Nur wurde es früher nicht als „intelligent“, sondern als notgedrungen und nachteilig bezeichnet. Seit dem neuen GRÜNSPRECH hat sich das gedreht und diese Länder sind uns in der Energieversorgungs-Entwicklung voraus. So weit, dass diese bestimmt noch vor uns den großen EEG-Sprung nach Vorne schaffen.

Kofi Annan, Vorwort im APP Bericht 2015: [2] … Africa has enormous potential for cleaner energy – natural gas and hydro, solar, wind and geothermal power – and should seek ways to move past the damaging energy systems that have brought the world to the brink of catastrophe.
Von google grob übersetzt: … Afrika hat ein enormes Potenzial für sauberere Energie – Erdgas und Wasserkraft, Solar-, Wind- und Geothermie – und sollte nach Wegen suchen, an den schädlichen Energiesystemen vorbei zu kommen, die die Welt an den Rand der Katastrophe gebracht haben …

Die Speicher – wie es in den Studien richtig erkannt wurde – gibt es nicht. Es bedeutet natürlich nicht, dass es sie nicht irgendwann geben kann. Dann muss man sich aber auch klar sein, was zum Beispiel Powert to Gas mit Rückverstromung bei 70 … 60 % Umwandlungsverlusten kostet:
EIKE 18.06.2015: Elektro-Energiespeicherung, Notwendigkeit, Status und Kosten. Teil 3 (Abschluss)
an dem im Großmaßstab dann kein Weg vorbei führt, da es sich trotzdem immer noch um das billigste, realisierbare, Groß-Speicherverfahren handelt.

Aber solche „Speichellecker“ liebt unsere Politikkaste. Und die „…Lecker“ leben gut davon. Denn die Fördermittel sprudeln zuhauf, seitdem es im EEG immer mehr (selbst erzeugte) Probleme im Großmaßstab zu lösen gibt.

100 % EEG-Stromversorgung

Im Artikel:
EIKE 11. September 2017: [1] Die GRÜNEN: Es mangelt weder an erneuerbaren Energien noch an der Entwicklung von Speichern und Netzen
wurden Details dazu ausgeführt. Daraus (Bild 10) die hochgerechneten Ganglinien bei 100 % EEG-Versorgung. Die Grafik zeigt, was es bedeutet, wenn in einer Studie steht, dass alles (von der Politik Gewünschte) machbar sei, jedoch empfohlen wird, ein paar kleine Probleme noch zu lösen, wofür bitte Forschungsgelder bereitzustellen sind:

DIE BUNDESREGIERUNG, 13. Januar 2015: Erneuerbare Energien und stabile Netze… Die Forscher stellten fest: Die heutige Versorgungsqualität ist auch mit einer intelligenten Kombination aus erneuerbaren Energien, Speichern und Backupkraftwerken mit erneuerbarem Gas erreichbar … Dies reiche aber allein nicht aus, um Erzeugung und Verbrauch in Einklang zu bringen …Die Forscher empfehlen deshalb … weiter zu erforschen und zu entwickeln
Es bedeutet nichts anderes, als: Dann fliegt uns das gesamte Energiesystem um die Ohren. Schuld sind wir aber nicht, denn bereits in unseren Simulationen konnten wir das erkennen und haben deshalb ja Empfehlungen ausgesprochen.

Bild 11 [1] EEG-Einspeisung linear hochgerechnet, so dass EEG-Jahreseinspeisung = Verbrauch + Powert to GAS Speicherverluste. Rot: EEG-Einspeisung, Braun: Strombedarf. Datenquelle: Agora

Wenn der Bund so dilettantisch agiert, könnte eine Partei in Bayern vielleicht besser sein?

Leser könnten den Eindruck gewinnen, der Autor würde vielleicht (beim Klima und EEG) „nur“ die GRÜNEN nicht leiden. Das stimmt so nicht. Die GRÜNEN bieten lediglich die konstantesten, extremsten und oft auch ulkigsten Beispiele (welche nur noch Frau Hendricks manchmal zu toppen schafft).
Auch die anderen Parteien sind davor jedoch nicht gefeit. Nehmen wir beispielhaft die CSU. Was vor über zwei Jahren darüber geschrieben wurde,:
[5] EIKE 02.07.2015: Der Wind bläst stetig– die Sonne steht still – wenn mein starker Arm es will oder warum gehen in Bayern die Lichter (noch) nicht aus
… Unser Weg führt geradewegs in den Abgrund – etwas mulmig ist uns dabei schon – aber über den Weg wird nicht diskutiert …
gilt heute immer noch.

Bild 12 Integrierte Lösung des EEG-Problems aus einem wissenschaftlichen Vortrag [6]
Denn die CSU-Umweltministerin Bayerns steht den GRÜNEN und Frau Hendricks an bedingungsloser Klimahysterie in nichts nach. Die einzige Frage welche sich bei Ihr beim Autor stellt ist: Glaubt sie das wirklich, oder ist sie eine reine, automatische Sprechpuppe dazu? Er ist sich da nicht sicher.
[7] “Wir denken Klimapolitik global, regional und lokal”
… Nach der Ankündigung des amerikanischen Präsidenten aus dem Pariser Klimaschutzabkommen auszutreten, ist für die Bayerische Umweltministerin Ulrike Scharf klar, dass Bayern zu seinem Wort stehe und Klimapolitik global, regional und vor allen Dingen auch lokal gedacht werden muss. “Wir bekommen mit den Energieagenturen ein wirklich gewichtiges Mitglied zu unserer Klima-Allianz-Familie hinzu und unsere Stimme erhält damit eine neue Tatkraft”, begrüßte die Ministerin den Landesverband der regionalen Energieagenturen im Bund der Klimaallianz Bayern…
Als Fachreferenten waren keine geringeren als Martin Bentele (Verband proHolz Bayern) und Prof. Dr. Harald Lesch (LMU München) eingeladen. Beide zeigten eindrucksvoll die Umwelt- und Klimaentwicklungen der letzten Jahrzehnte auf und verwiesen auf die Notwendigkeit einer raschen Umsetzung der Energiewende mit einer enormen Reduzierung der Treibhausgasemissionen.

Quellen

[1] EIKE 11. September 2017: Die GRÜNEN: Es mangelt weder an erneuerbaren Energien noch an der Entwicklung von Speichern und Netzen

[2] KLIMARETTER.INFO, 05. Juni 2015: Bericht fordert mehr Strom für Afrika

[3] EIKE 03.09.2017: Fake News von dpa: Offshore Windkraft produziert so viel Leistung wie vier sehr große, konventionelle Kernkraftwerke

[4] EIKE 24.01.2016: Die neuen Energien erklärt für Dummies Teil 3: Zeitreise ins Jahr 2050 des EEG Eine Energiewende ist nicht planbar

[5] EIKE 02.07.2015: Der Wind bläst stetig– die Sonne steht still – wenn mein starker Arm es will oder warum gehen in Bayern die Lichter (noch) nicht aus

[6] Prof. Dr.-Ing. Michael Sterner et al. 2013: Ringvorlesung Kraftakt Energiewende II

[7] Regensburger Energieagentur, 26 / 06 / 2017: Bayerische Energieagenturen treten der Bayerischen Klima-Allianz bei




Ist die arktische Eisbedeckung halb voll oder halb leer?

Glücklicherweise werden die Bürger über dieses Meereis-Schmelze-Wendeereignis von den dafür zuständigen Forschern immer pünktlich informiert und so geschah es auch dieses Jahr durch das AWI.
innovations report 14.09.2017 und [2]: Arktisches Meereis erneut stark abgeschmolzen
… Mit einem Minimum von rund 4,7 Millionen Quadratkilometern setzt sich in der Arktis der Trend zum Rückgang des Meereises fort
In diesem September ist die Fläche des arktischen Meereises auf eine Größe von etwa 4,7 Millionen Quadratkilometern abgeschmolzen. Dies stellten Wissenschaftler des Alfred-Wegener-Instituts sowie der Universitäten Bremen und Hamburg fest. … Die Nordost-Passage war für Schiffe ohne Unterstützung von Eisbrechern befahrbar.
Das Meereis der Arktis gilt als kritisches Element im Klimageschehen und als Frühwarnsystem für die globale Erwärmung. Aus diesem Grund ist das Septemberminimum ein wichtiger Indikator für Klimaänderungen. Trotz eines besonders warmen Winters erreicht das Meereis in diesen Tagen zwar kein neues Rekordminimum, der Eisverlust ist dennoch massiv. „Wir befinden uns mit dem diesjährigen Wert weiterhin auf einem sehr niedrigen Niveau.

Die Homepage der Klimaberaterin informierte selbstverständlich auch darüber:
KLIMARETTER.INFO, 14. September 2017: Forschung Eisverlust in der Arktis ist „massiv“

Halb voll oder halb leer – es hängt vom Standpunkt ab

Die Nachschau der Arktis-Meereisdaten zeigt eigentlich ein beruhigendes Bild. Gegenüber dem bisherigen Sommerminimum von 2012 (gestrichelte Linie) ist das diesjährige Minimum bei Weitem nicht so stark ausgefallen.

Bild 1 Arktisches Meereis, Stand 13. September 2017 (blaue Linie), Wert: 4,636 Mio. km². Minimum 17. Sept 2012 (gestrichelte Linie) Wert: 3,387 Mio. km2. Quelle: NSIDC

Im zeitlichen Verlauf des Sommerminimums seit den Satellitenaufzeichnungen sieht man es noch deutlicher. Der Stand 2017 ist höher, als der vom Jahr 2008. Al Gores Behauptung, die Arktis wäre im Sommer 2013 eisfrei, hat sich auch danach bisher nicht bestätigt.

Bild 2 Arktis, Meereisausdehnungs-Sommer-Minimum seit 1979. Stand 14. September 2017. Vom Autor ergänzt. Quelle: DMI

Für manche ist es vielleicht interessant, dass die Arktis-Sommertemperatur seit dem Jahr 1958 (Beginn der Datenreihe) praktisch gleich geblieben ist. Im folgenden Bild wurden dazu der Arktis-Temperaturverlauf vom Jahr 2017 über den vom Jahr 1958 gelegt. Man sieht: Die Arktis wurde bisher nur im Winter wärmer. Im Sommer hat sich seit dem Beginn der Messreihe nichts verändert.

Bild 3 Temperaturverlauf Arktis 1958 und 2017, Stand 14.09.2017 vom Autor übereinander kopiert. Quelle: DMU

Was zeigen diese Bilder? Das AWI hätte in seiner Pressemitteilung [2] anstelle:
Arktisches Meereis erneut stark abgeschmolzen“,
alternativ melden können:
Arktisches Sommereis-Minimum hat sich die letzten Jahre stabilisiert und das Sommereis nimmt zur“.

Wie man weiss, ist eine solch positive Meldung zum sich stetig wandelnden Klima in Deutschland nicht denkbar. Dazu ist die Forschung viel zu sehr mit einer angeblich schlimmen, zerstörerischen Form „AGW-Klimawandel“ verknüpft, deutlicher ausgedrückt: Von einer hoffentlich nicht endenden AGW-Klimawandel-Hysterie abhängig.

Das AWI hat sich geradezu aufgebläht und darf seine Forschungsflotte dank hoher, stetiger Förderung aus Berlin ausbauen.
WIKIPEDIA: AWI
Das AWI wurde 1980 im Zuge des deutschen Beitritts zum Antarktisvertrag gegründet. Anfangs wurde nur eine Handvoll Mitarbeiter beschäftigt, während das AWI heute 920 Forscher, Techniker und Verwaltungsangestellte an den unterschiedlichen Standorten einsetzt
.

Zudem ist das AWI stark beim IPCC involviert: [3]Die Mitarbeiterinnen und Mitarbeiter des AWI und des IfM-GEOMAR haben sich im Rahmen des IPCC (International Panel on Climate Change) als (Leit-)Autorinnen und Autoren und durch Gutachtertätigkeit wie auch innerhalb des IPY (International Polar Year) | 28 engagiert…
Das parallel beteiligte CEN macht gar kein Hehl daraus, wo seine Schwerpunkte liegen – jedenfalls nicht in der neutralen Forschung. Auch diese Mitarbeiter wollen ihr Arbeitsleben lang bezahlt werden:

Das Centrum für Erdsystemforschung und Nachhaltigkeit, kurz CEN, ist ein zentrales Forschungszentrum der Universität Hamburg und Teil des Netzwerks KlimaCampus Hamburg.
Beteiligt sind Ozeanographen, Meteorologen, Meeresbiologen, Geophysiker, Geologen, Bodenkundler, Geographen, Biogeochemiker, Wirtschafts- und Sozialwissenschaftler, Historiker sowie Friedens- und Sicherheitsforscher. Sie alle beschäftigen sich mit Klima-, Umwelt- und Erdsystemforschung.
Das CEN fördert die Konzeption und Durchführung von Forschungsvorhaben und unterstützt seine Mitglieder bei der Einwerbung von Drittmitteln.
Außerdem koordiniert das CEN aktuell den Antrag der Hamburger Klimaforschung im Rahmen der Exzellenzstrategie des Bundes und der Länder.

Wie waren die Vorhersagen zum Sommereis?

Einfach gesagt: Katastrophal. Grund war das sehr geringe Wintereis (im Bild 1 deutlich zu sehen). Entsprechend überschlugen sich „Fachleute“ und Medien mit Apokalypsen.

Wetterkanal, 8. Januar 2017: Arktiseis auf Rekordtiefstand
… Wenn es so durch den restlichen Winter weiter geht, ist kein allzu großes Polster für den arktischen Sommer vorhanden. Einige Wissenschaftler erwarten, dass in naher Zukunft das arktische Meereis im Sommer ganz abtauen könnte.
DER TAGESSPIEGEL 26.03.2017: Der Arktis geht das Eis aus
Forscher warnen: Noch nie war am Ende des Winters die zugefrorene Fläche so klein. Es ist der dritte Rekord-Tiefststand in Folge … Für die Eisbedeckung in dem nun einsetzenden Sommerzyklus sind dies schlechte Voraussetzungen … Eine Modellberechnung der Universität Washington ergab, dass das Eisklumpen in der Arktis in diesem Jahr ungewöhnlich gering ist. Das bedeutet, dass das Meereis in der Arktis wieder sehr anfällig ist für die sommerlichen Temperaturen und die Stürme in der Nordpolregion ist.

Das wirkliche Ergebnis der Natur zeigt, dass auch das Arktiseis nicht so einfach „Schwarz-Weiss“ „denkt“.

Was nicht linear funktioniert, funktioniert dann vielleicht parabolisch. Hauptsache, es führt zu „sicheren“ Vorhersagen. Anbei Bilder, was dabei herauskommt und wie „adaptiv“ sie geführt werden.

Meereisvolumen-Vorhersagen. Die parabolische, rote Ausgleichslinie endet im Jahr 2011; 2015; 2022. Quelle: Arctic Sea Ice Blog

Bild 5 Meereisvolumen-Vorhersage. Vom Autor darüber kopiert der aktuelle Verlauf Meereisausdehnung Stand Sept. 2017.

Das kann nicht stimmen. Es gelang dieses Jahr doch erstmals einem großen Schiff, ohne Eisbrecher die Nordostpassage zu durchfahren

Als der Papst von seiner Südamerikareise zurückflog, wüteten gerade die Hurrikans in der Karibik und um Florida. Ein Anlass für den Papst, noch im Flugzeug in einem Interview seine spezielle Kenntnis über den Klimawandel zu äußern. Man könnte über sein Interview fast einen eigenen Artikel schreiben, anbei soll aber nur eine Angabe aufgegriffen werden.
KATHOLISCHES, 11. September 2017: Papst Franziskus über den Klimawandel: „Der Mensch ist ein Tier und dumm“
Fragesteller: … Gibt es eine moralische Verantwortung der politischen Führer, die eine Zusammenarbeit mit anderen Staaten zur Kontrolle der Treibhausgase ablehnen, weil sie bestreiten, daß dieser Wandel ein Werk des Menschen ist?
Papst Franziskus: … Wer das leugnet, muß zu den Wissenschaftlern gehen und sie fragen: Sie sprechen sehr klar und präzise.
Am vergangenen Tag, als die Nachricht jenes russischen Schiffes veröffentlicht wurde, das von Norwegen bis Japan, bis Taipei, fuhr mit einem Nordpol ohne Eis, veröffentlichte eine Universität eine andere Nachricht, die besagt: „Wir haben nur drei Jahre, um umzukehren, andernfalls werden die Folgen schrecklich sein.“

Nordpol ohne Eis“? Ein Papst muss wohl nicht alles so genau beschreiben und Al Gore als Klimapapst hat es ja für das Jahr 2013 vorhergesagt. Dass es bei Weitem noch nicht eingetroffen ist, muss ein Kirchenpapst wohl noch nicht wissen. Doch welche Fahrt eines russischen Schiffes hat der Papst gemeint, um sein „Wissen“ über den bereits erfolgten „Eintritt“ des AGW-Klimawandel zusätzlich zu belegen? Wohl die Fahrt, welche auch in der AWI-Pressemitteilung [2] erwähnt ist.
Es lohnt sich, Details darüber nachzusehen.
WIKIPEDIA hilft nicht viel, weist aber darauf hin, um welches russische Schiff es sich handelte. Sonderbar ist, dass dort steht: „ohne Hilfe eines Eisbrechers“, allerdings mit dem Zusatz: „speziell dafür gebauter …“.

WIKIPEDIA: Nordostpassage
Die erste Gesamtdurchfahrt, mit einer
Überwinterung, gelang Adolf Erik Nordenskiöld 1878/79. Erst 53 Jahre später (1932) gelang dem Eisbrecher Alexander Sibirjakow die erste Durchfahrt ohne Überwinterung. Daraufhin richtete die Sowjetunion die Hauptverwaltung Nördlicher Seeweg ein. Im Sommer 1940 drang der deutsche Hilfskreuzer Komet mit Hilfe russischer Eisbrecher durch die Nordmeerpassage in sein Operationsgebiet im Pazifik vor. In den 1950er und 1960er Jahren wurde der Seeverkehr durch Anlage der Häfen Dikson, Tiksi, Pewek und Prowidenija systematisch ausgebaut und die Schifffahrtsperiode durch den Einsatz leistungsfähiger Eisbrecher verlängert.
Ein speziell dafür gebauter und nach
Christophe de Margerie benannter Flüssiggastanker durchfuhr im Sommer 2017 erstmals die Nordostpassage ohne Hilfe eines Eisbrechers.

Schnell fündig wird man beim weiteren recherchieren: Das Schiff, welches ohne Eisbrecher fuhr, ist selbst als hochklassiger Eisbrecher zum Lastentransport gebaut. Naheliegend, dass es keinen zusätzlichen benötigte. Auf die AWI-Pressemeldung [2] wirft dies allerdings einen großen Schatten, man fühlt sich irgendwie bewusst be…
BBC, 24 August 2017: First tanker crosses northern sea route without ice breaker
The Christophe de Margerie is the world’s first and, at present, only ice-breaking LNG carrier.
The ship is the first of a new fleet specially constructed to sail through ice all year round
The ship, which features a lightweight steel reinforced hull, is the largest commercial ship to receive Arc7 certification, which means it is capable of travelling through ice up to 2.1m thick.

Deutsche Schifffahrts-Zeitung, 10. Mai 2017: Eisbrechender LNG-Tanker in Hamburg
Bei dem mit 128.806 BRZ vermessenen Schiff (IMO 9737187) handelt es sich um den ersten eisbrechenden LNG-Tanker dieser Größenordnung. Der 299 Meter und 50 Meter breite Neubau verfügt über die höchste Eisklasse ARC-7 und kann mit seinem verstärkten Rumpf bis zu 2,1 Meter dicke Schollen brechen.

Nun stellt sich die Frage: Hat der Papst so oberflächlich gegoogelt, oder sind es seine Klimaberater? Oder hat er sich einfach auf die AWI-Pressemitteilung verlassen [2], ohne zu wissen, wie in Deutschland grundsätzlich zu diesem Thema „informiert“ wird? Wenn alles, was dieser Papst (Einschränkung: Zum Klimawandel) meint zu wissen, so (un-)fundiert ist und auf Glauben und Hörensagen beruht, dann ….

Ein kleines Randthema wirft der Verweis des Papstes auf das Alte Testament auf. Nachdem der Autor schon einmal über den anscheinend übersehenen Einfluss einer transzendentalen Macht zum Klima geschrieben hat,
EIKE 22.07.2016 : [4] Wurde ein Klimawandel-Einfluss bisher übersehen? Was ist, wenn Gott anstelle von CO2 das Klima lenkt?
wollte er natürlich wissen, auf welchen Aktions-Hintergrund sich die vom Papst angegebene Psalmenstelle im Alten Testament bezieht und ob damit wirklich eine Verbindung zur Klimakritik herstellbar ist.

Papst Franziskus: Mir fällt ein Satz aus dem Alten Testament ein, ich glaube in den Psalmen: Der Mensch ist dumm, ein Dickkopf, der nicht sieht. Das einzige Tier der Schöpfung, das den Fuß auf das gleiche Loch stellt, ist der Mensch. Das Pferd u.a. tun das nicht.
Der Autor hat in der Bibel bisher noch nirgendwo eine Textstelle finden können, welche dem Mensch das Lenken des Klimas oder Wetters auch nur im Ansatz zugesteht. Als AGW-klimawandelkritisch eingestellte Person wäre es jedoch schon wichtig, eventuelle Prophetensprüche dazu zu kennen, auch wenn das Alte Testament für Christen nicht mehr gilt (sofern die Kirche auf die durchgängig grausamen, allen heutigen Humanregeln widersprechenden Inhalte angesprochen wird), jedoch als Gottes Wort notwendig bleibt, weil es sonst keinen Jesus geben könnte.

Er hat sich die Mühe gemacht, in den 150 Psalmen nachzusehen. Er fand jedoch nirgendwo eine Textstelle, auf die das Papstzitat zutreffen könnte. Aber vielleicht kennt sich jemand im Blog besser aus und kann helfen.

Quellen

[1] EIKE 09.04.2017: Klima-Lügendetektor: Wer der Bildzeitung sagt, Eisbären würden nicht durch den Klimawandel sterben, ist ein schlimmer Demagoge
[2] AWI 14. September 2017, Gemeinsame Presseerklärung des Alfred-Wegener-Instituts, Helmholtz-Zentrum für Polar- und Meeresforschung (AWI), der Universität Bremen und des Centrum für Erdsystemforschung und Nachhaltigkeit (CEN) der Universität Hamburg: Meereisminimum 2017 Arktisches Meereis erneut stark abgeschmolzen

[3] Wissenschaftsrat Drs. 10330-10 Lübeck 12 11 2010

[4] EIKE 22.07.2016 : Wurde ein Klimawandel-Einfluss bisher übersehen? Was ist, wenn Gott anstelle von CO2 das Klima lenkt?




Reiche Länder hinsicht­lich Extrem­wetter belastbarer

Während durch Naturkatastrophen immer noch Tausende Menschen weltweit jährlich ums Leben kommen, fordern diese Katastrophen ihre Opfer ungleichmäßig. Während eines typischen Jahres mögen in Europa Hunderte Menschen in Europa und den USA sterben infolge Überschwemmungen, Hurrikane und Erdbeben. Die gleichen Ereignisse töten in jedem Jahr Tausende Menschen in Asien, in Süd- und Mittelamerika sowie auf kleinen Inselnationen.

Warum ist das so unterschiedlich? Erdbeben und Hurrikane sind in Entwicklungsländern nicht stärker als in den entwickelten Ländern. Und Überschwemmungen in Europa und den USA richten Schäden in Milliardenhöhe an, fordern aber nur relativ wenige Menschenleben. Im Gegensatz dazu ertrinken in Asien in jedem Jahr Tausende bei Überschwemmungen. Es ist nicht das unterschiedliche Klima, das sich in Entwicklungsländern viel schlimmer auswirkt als in industrialisierten Ländern, sondern vielmehr der Unterschied des Wohlstands.

Eigentumsrechte und die Marktökonomie, gestützt durch starke, aber begrenzte Regierungs-Institutionen neben verstreuten Selbsthilfe-Netzwerken auf ehrenamtlicher Basis haben einen Wohlstand geschaffen, der vorher unvorstellbar war. Dieser Wohlstand wurde gestützt und hat noch weiter zugenommen durch die Entwicklung moderner Infrastruktur: Starke Strukturen, die widerstandsfähig sind gegen Katastrophen sowie Baumaterialien, Verfahren und Standards; außerdem Technologien wie Frühwarnsysteme und Notfallpläne, moderne medizinische Versorgung und Einrichtungen. Jedes einzelne dieser Elemente macht industrialisierte Gesellschaften noch widerstandsfähiger.

Bereits im Jahre 1900 war Galveston eine relativ große, moderne Stadt. Und doch forderte der Große Galveston-Hurrikan (der Kategorie 4) über 8000 Todesopfer. Im Gegensatz dazu forderte der Hurrikan Ike im Jahre 2008 lediglich 84 Todesopfer, und trotz all des Geredes über Hurrikan Harvey (Kategorie 5) forderte dieser lediglich 70 Todesopfer in den 23 am stärksten betroffenen Landkreisen (counties). Entlang der Küste von Texas leben heute Millionen mehr Menschen als im Jahre 1900, aber die heutige Generation ist viel wohlhabender als die Generation damals.

So tödlich der Hurrikan Katrina im Jahre 2005 auch war, der über 1200 Todesopfer forderte, verblasst dies im Vergleich mit den 300.000 bis 500.000 Todesopfern in Bangladesh durch den großen Bhola-Zyklon im Jahre 1970 oder die 138.000 Todesopfer in Myanmar durch den Zyklon Nargis im Jahre 2008.

Obwohl Erdbeben schwer zu vergleichen sind bzgl. Magnitude und Örtlichkeit sind Unterschiede der Mortalität über Örtlichkeiten und Zeit hinweg immer noch aussagekräftig. Das Große San Francisco-Erdbeben mitsamt des nachfolgenden Großbrandes forderte 700 bis 3000 Todesopfer. Zum Vergleich, das Erdbeben der Stärke 6,9 in der San Francisco Bay im Jahre 1989 forderte nur 67 Menschenleben. Im Jahre 1989 lebten in San Francisco drastisch mehr Menschen als im Jahre 1904. Aber die modernen Einwohner waren viel wohlhabender, und die Infrastruktur und das Energiesystem ihrer Stadt war entsprechend viel besser, so dass weniger Menschenleben zu beklagen waren.

So verheerend das Erdbeben sowie der dadurch ausgelöste Tsunami vom 11. März 2011 mit der Stärke 8,9 in Japan auch war, wobei 20.000 Menschen ums Leben kamen oder seitdem vermisst sind, verblasst dies doch im Vergleich mit den 230.000 Menschen, die in und um Port-au-Prince in Haiti durch ein Erdbeben der Stärke 7,0 am 12. Januar 2010 starben; oder die hunderttausende Todesopfer und Vermissten in Asien, nachdem ein Erdbeben der Stärke 9,2 am 26. Dezember 2004 Tsunamis in der gesamten Region auslöste, oder auch die 142.800 Todesopfer in Tokio im September 1923 durch das Große Kanto-Erdbeben. Das heutige Japan ist wohlhabender als das heutige Haiti, wohlhabender als die Gebiete Asiens, welche 2004 durch Erdbeben und Tsunamis verwüstet worden sind – und wohlhabender als das Japan des Jahres 1923.

Trotz der Tatsache, dass Taiwan um 600% dichter besiedelt ist als die Türkei, hat das Erdbeben der Stärke 7,6 vom 21. September 1999 dort etwa 2500 Menschen getötet. Zum Vergleich, ein Erdbeben der Stärke 7,4 in der Türkei am 17. August 1999, also gerade mal einen Monat zuvor, tötete über 17.000 Menschen in nur zwei Städten. Im Jahre 1999 war das Pro-Kopf-Einkommen in Taiwan mehr als doppelt so hoch wie in der Türkei.

Wohlhabendere Gesellschaften sind einfach widerstandsfähiger als arme Gesellschaften. Gemeinden in wohlhabenderen Ländern haben eine bessere Infrastruktur und sind allgemein besser auf Naturkatastrophen vorbereitet und auch viele schneller und effektiver in der Lage, nach dem Ereignis tätig zu werden als vergleichbare ärmere Gemeinden.

Fossile Treibstoffe sind der entscheidende Faktor bei der Erzeugung von Wohlstand. Björn Lomborg und Roy Spencer, PhD, haben geschrieben, dass die Restriktionen bzgl. fossiler Treibstoffe in dem Pariser Klima-Abkommen 100 Billionen Dollar an Wohlstand vernichten werden in diesem Jahrhundert – und das, um eine „nicht messbare Reduktion der Erwärmung“ zu erreichen. Weiter sagt Spencer, dass diese Wohlstands-Vernichtung/-Verhinderung „zu Millionen (vermeidbarer) Todesfälle führen wird infolge Armut und aller damit einher gehenden Probleme … Armut tötet Millionen. Soweit wir wissen, haben menschliche CO2-Emissionen bislang kein einziges Todesopfer gefordert. Tatsächlich wurden vielmehr Millionen Menschenleben gerettet und Wohlstand gefördert“.

Der Verbrauch fossiler Treibstoffe seitens der Menschen hat das Klima nicht verschlechtert und es gefährlicher für die menschliche Gesundheit oder den Wohlstand gemacht. Im Gegenteil, der Verbrauch von Öl, Kohle und Erdgas hat die Welt positiv verändert, was es Milliarden gestattet, freier, gesünder, wohlhabender und länger zu leben als die große Mehrheit der mächtigsten Völker in der menschlichen Historie.

Historische Könige kontrollierten Armeen und unsägliche Reichtümer. Ich habe ein Auto, einen Mikrowellen-Ofen, ein WC und sauberes Trinkwasser; ich kann fast alle Früchte oder Gemüsesorten essen ohne Rücksicht auf die Jahreszeit; ich kann in wenigen stunden um die Welt reisen. Alle Reichtümer und Macht, welche die historischen Eroberer angehäuft haben, könnten nichts davon kaufen, und alles wurde ermöglicht durch den Verbrauch fossiler Treibstoffe.

Der Aufstieg aus Armut und Not erfolgte nicht unter einer Tyrannei oder unter Feudalismus, sondern unter dem Kapitalismus. Er war nicht getrieben von Tierdung, tierischer Kraft oder Windmühlen, sondern er war getrieben durch fossile Treibstoffe und die durch diese angetriebenen Technologien. Die heutigen Armen verdienen die Chance, so zu leben wie ich und nicht so wie unsere Vorfahren Jahrtausende lang, die sich in ihrer Armut quälten und ständig von Krankheiten und Mangelernährung bedroht waren. Nur fossile Treibstoffe können sie vor diesem Schicksal bewahren.

Quellen: The SpectatorScience and Environmental Policy ProjectJournal of American Physicians and Surgeons; BBCWunderground: Tropical CyclonesWunderground: U.S. Hurricanes; und Dr. Roy Spencer




Diesel-Verteu­felung: Krieg gegen das eigene Volk – Diesel: Die Lücken­medien im Glashaus (2)

Bild 1. Der Vergleich der NO2-Jahresmittelwerte zeigt ungeachtet der unterschiedlichen Farbskalen, dass die Werte in der Umgebungsluft seit 2001 deutlich zurückgegangen sind (Grafiken: UBA)

Im ersten Teil wurde nachgewiesen, dass die NO2-Belastung der Luft in ganz Deutschland und auch an den sogenannten „Hotspots“ in Städten zurückgegangen ist. Grund ist die stetige Ablösung älterer durch jüngere Fahrzeuge mit besseren Abgasbehandlungssystemen. Dieser Trend wird sich auch in den nächsten Jahren fortsetzen. Im jetzigen zweiten Teil der Analyse wird zunächst der Frage nachgegangen, warum die Grenzwerte trotz stark gesunkener Gesamtemissionen ausgerechnet an diesen „Hotspots“ nur vergleichsweise langsam zurückgehen, Bild 2.

Bild 2. Im Unterschied zum Rückgang der Emissionen, die von 1990 bis 2016 um mehr als die Hälfte abnahmen, sanken die NO2-Luftwerte auf Straßenniveau nur vergleichsweise wenig (Grafik:UBA)

Luftbelastungen werden gezielt „herbeigemessen“

Der hierfür ist ganz einfach: Diese Diskrepanz wird „herbeigemessen“. Das scheinen die „Faktenfinder“-Autoren jedoch gar nicht so gerne hören zu wollen und kritisieren deshalb den bereits erwähnten „Welt“-Beitrag. Dort steht, dass es „nur punktuell, in wenigen schluchtartigen Straßenzügen“ zu gelegentlichen Überschreitungen des mittleren Jahresgrenzwertes von 40 µg/m3 komme. Dem halten die „Faktenfinder“ entgegen, dass 2016 an insgesamt 144 von 246 der städtischen verkehrsnahen Luftmessstationen (59 %) der Grenzwert überschritten worden sei. Sie zitieren hierzu Felix Poetschke, den Pressesprecher des Umweltbundesamtes, mit den Worten: „Das Problem mit zu hohen, gesundheitsschädigenden Werten von NO2 ist also ein bundesweites: Viele Menschen sind diesen hohen Konzentrationen ausgesetzt“.

Nun, obwohl das UBA als Bundesbehörde eigentlich der Allgemeinheit verpflichtet sein müsste, werden dort in der Realität schon seit langem vor allem „grüne“ Positionen vertreten. Deshalb wurden Messstationen vielfach mit Bedacht an solchen Stellen platziert, wo man die höchstmöglichen Luftbelastungen messen konnte. Bevorzugt suchte man solche Bereiche aus, wo die Emissionen des Verkehrs in „toten Winkeln“ der Luftströmungen gefangen blieben. Dies ist von der entsprechenden EU-Gesetzgebung sogar ausdrücklich vorgegeben: Der Ort von Probenahmestellen ist so zu wählen ist, dass „Daten über Bereiche innerhalb von Gebieten und Ballungsräumen, in denen die höchsten Konzentrationen auftreten“….gewonnen werden.

Dies wurde nicht nur vom UBA, sondern auch von vielen grün orientierten Stadtverwaltungen begeistert aufgegriffen. Von den aktuell 517 Messstellen, die von der UBA insgesamt in Deutschland betreut werden, lieferten 2016 immerhin 144 die gewünschten hohen Messwerte. Manche Städte greifen sogar zusätzlich zu verkehrsbehindernden Maßnahmen mit dem Ziel, durch die erzwungenen Stopps und Neustarts den Schadstoffausstoß noch weiter in die Höhe zu treiben – als „erzieherische Maßnahme“, um die Autofahrer dazu zu bewegen, auf Bus und Bahn umzusteigen, wie der SPD-OB von Düsseldorf in einem kürzlichen Fernsehinterview offen zugab [HEUTE]. Kein Wunder also, dass 59 % der Messstationen an Hotspots „kritische“ Werte liefern. Wie stark eine „clevere“ Wahl des Messortes die Werte beeinflussen kann, zeigt das Beispiel Stuttgart, Bild 3.

Bild 3. Schon in vergleichsweise geringer Entfernung von „Am Neckartor“ (kleiner roter Kreis) zeigen andere Messstationen NO2-Jahresmittelwerte an, die um 38 oder sogar 60 % niedriger liegen (Grafik: IFKM/ KIT)

Ein noch besseres Verständnis dafür, wie sich diese Tricks auswirken, ergibt sich aus Bild 4.

Bild 4. Schon auf dem Dach sowie innerhalb des Gebäudes, das direkt an der Messstelle „Am Neckartor“ steht, liegen die Werte weit unterhalb kritischer Bereiche (Grafik: IFKM/ KIT)

Bild 4 zeigt, dass „dicke Luft“ nur im Bereich des Bürgersteigs vor dem Eingang herrscht. Hier verläuft die sechsspurige B14, über die sich der ganze Verkehr in die leistungsstarken Industrieregionen östlich von Stuttgart quälen muss, weil man versäumt hat, Umgehungsstraßen vorzusehen. Die Messstelle selbst wird auf der einen Seite durch ein mehrstöckiges, direkt an den Bürgersteig gesetztes Gebäude und auf der anderen Seite durch die hohe Mauer zum Schlossgarten eingegrenzt. Auf dem Grund der so gebildeten engen Schlucht wird die Luftzirkulation stark behindert, so dass sich die Abgase aufkonzentrieren. So kann eine Stadtverwaltung mit nur einer besonders geschickt platzierten Messstelle ihrer Stadt den zweifelhaften Ruf als „schmutzigste“ Stadt in Deutschland verschaffen.

Belastungsschwerpunkte“ nicht repräsentativ für den Rest des Landes

Wie wenig repräsentativ für eine wirklich nennenswerte Fläche in einer Stadt solche gezielt ausgewählten „schmutzigen“ Messorte in Wirklichkeit sind, zeigt Bild 5. Hierfür wurden die Ergebnisse einer Untersuchung des Ausbreitungsverhaltens von verkehrsbedingten Luftschadstoffen auf beiden Seiten einer stark befahrenen Schnellstraße [PEEL] herangezogen.

Bild 5. Die relative Konzentration von Abgasen nimmt auf beiden Seiten stark befahrener Straßen rapide ab. Die Grafik stammt aus einer Präsentation von J. Peel [PEEL], die Werte wurden auf den Durchschnitt der „Hotspot“-Messungen des Jahres 2016 in Deutschland normiert
Die ursprüngliche Grafik war auf Prozentzahlen vom Maximalwert des Schadstoffs direkt an der Straße normiert. Die Skala wurde der besseren Vergleichbarkeit wegen auf den Mittelwert aller 144 im Jahre 2106 über dem Grenzwert liegenden deutschen Messstationen umgerechnet, der bei knapp 50 µg/m3 lag. Bei der Bearbeitung dieser Zahlen fiel zudem auf, dass nur insgesamt sieben Stationen oberhalb von 60 µg/m3 lagen. Davon wiesen vier Werte zwischen 60 und 70 µg/m3 auf, gefolgt von drei Einzelwerten mit 76, 80 bzw. 82 µg/m3. Die Gesamtbreite der Zone mit NO2-Gehalten oberhalb des Grenzwerts liegt im statistischen Mittel bei lediglich 80 m, d.h. sie umfasst lediglich je 40 m rechts und links von der Straße. Das sind im Prinzip lediglich die direkt an der betreffenden Straße stehenden Gebäude. Bezieht man noch die rapide Abnahme der Belastung in vertikaler Richtung ein (siehe Bild 3, Unterschied Straßenniveau und Gebäudedach), so ist es selbst im Bereich der sogenannten „Hotspots“ nur ein verschwindend kleiner Bruchteil des gesamten städtischen Luftvolumens, das tatsächlich oberhalb des Grenzwerts liegt. Damit steht die Argumentation des UBA und damit der Faktenfinder auf äußerst dünnem Eis. Dem UBA sowie etlichen Stadtverwaltungen kann man zudem den Vorwurf machen, dass sie diese „kritischen“ Grenzwertüberschreitungen durch gezielte Auswahl ungünstig gelegener Messstellen ohne ausreichenden Luftaustausch bewusst herbeigeführt haben. Die mit den so gewonnenen Werten jetzt betriebene Panikmache ist weit überzogen. Fahrverbote ausgerechnet nur für Diesel-Privatfahrzeuge sind damit keinesfalls zu rechtfertigen. Dies wird den Urhebern noch auf die Füße fallen.

Hohe Wirksamkeit verkehrslenkender Maßnahmen

Selbst in einer Stadt mit so ungünstigen Voraussetzungen wie Stuttgart, wo es keinen Umfahrungsring gibt und die Kessellage den Luftaustausch behindert, kann eine Verwaltung, wenn sie nur will, durch geeignete Maßnahmen wesentlich zur Verringerung der Luftbelastung beitragen. Ein Beispiel hierfür liefert die Situation an der „Hot-Spot“-Messstelle an der Hohenheimer Straße. Auf dieser wichtigen Verkehrsverbindung durch Stuttgart quälen sich täglich rund 30.000 Fahrzeug über eine abschüssige Straße mitten durch die Stadt. Entsprechend hoch waren dort früher die NO2-Messwerte, Bild 6.

Bild 6. Zusammen mit „Am Neckartor“ war die Messstelle an der Hohenheimer Straße lange ein Brennpunkt für hohe NO2-Werte (Grafik: LUBW)

Der erhebliche Rückgang ab 2012 ist der Erfolg von Maßnahmen zur Verkehrsverstetigung. Das Parkverbot wurde verlängert und eine „grüne Welle“ eingeführt. Die so herbeigeführte Verstetigung bewirkte eine erhebliche Reduzierung der NO2-Spitzenkonzentrationen. Die Zahl der Grenzwertüberschreitungen sank in der Folge geradezu schlagartig von 196 im Jahre 2012 auf voraussichtlich nur noch 5-6 im Jahre 2107, Bild 7.

Bild 7. Durch gezielte Maßnahmen zur Verstetigung des Verkehrs ging die Zahl der Grenzwertüberschreitungen nach 2012 drastisch zurück (Grafik: Stadt Stuttgart)

Im Umkehrschluss kann man hieraus erkennen, was manche Stadtväter wie Düsseldorfs SPD-OB Thomas Geisel durch gezielte Herbeiführung von Stop-and-Go-Verkehr bewirken können. So können Politiker aus ideologischer Verblendung die Bevölkerung und den Autofahrer quasi zu Geiseln einer fehlgeleiteten Politik machen.

Fakten und „Faktenfinder“

Die bisherige Analyse der von den „Faktenfindern“ von NDR und Tagesschau präsentierten Aussagen lässt erkennen, dass man sich dort alles andere als kritisch-investigativ mit dem Thema NO2-Immissionen der Stadtluft beschäftigt hat. Stattdessen übernimmt man einfach die Positionen des UBA, als seien deren Ansichten der Weisheit letzter Schluss. Eine eigenständige kritische Wertung der Daten und der Hintergründe ist nicht einmal in Ansätzen erkennbar. Dies bestätigt die bereits bisher gemachte Erfahrung, dass die Medien – allen voran die Fernsehanstalten ARD, ZDF und ihre Landesdependancen – beim sogenannten „Diesel-Skandal“ einseitig, parteiisch und irreführend berichten. Ausgewogenheit und Sorgfalt scheinen nicht gefragt zu sein. Stattdessen bemüht man sich offenkundig darum, das Thema so darzustellen, wie die Bundesbehörden sowie die anderen etablierten Parteien es gerne haben möchten. Abweichende Meinungen von Medien, Journalisten oder Blogger werden als unglaubwürdig hingestellt. So leistet man dem ideologischen Ziel der Deindustrialisierung Deutschlands durch „Dekarbonisierung der Volkswirtschaft“ Vorschub. Der Diesel ist dabei nur das erste Opfer. Es wird danach weitergehen, und zwar alternativlos.

Fred F. Mueller

Demnächst folgt Teil 3

Quellen

[FAKT] http://faktenfinder.tagesschau.de/inland/stickstoffdioxid-111.html

[HEUTE] „Heute“-Nachrichtensendung des ZDF vom 9.8.2017, Interview mit Thomas Geisel, SPD-Oberbürgermeister der Stadt Düsseldorf, Stichwort „Verkehrserziehung in Richtung Zukunft“

[PEEL] JENNIFER L. Peel Is NO2 a Marker for Effects of Traffic Pollution or a Pollutant on Its Own. COLORADO STATE UNIVERSITY MAY 4, 2015 HEI ANNUAL MEETING PHILADELPHIA, PA




HADCRU Energie und Temperatur

Um die Größenordnung des Treibhauseffektes zu berechnen, wird die einfallende und ausgehende Strahlung üblicherweise verglichen mit den Strahlungsemissionen der Erde mit ihrer gemittelten Temperatur von 14°C bis 15°C. Diese geht auf den Datensatz der absoluten Temperatur der HADCRU-Version 4 1961 bis 1990 zurück. Mittels der Planck-Funktion oder des ähnlichen Stefan-Boltzmann-Gesetzes (siehe Gleichung 1) kann die von der Erde emittierte Strahlung aus deren Temperatur T berechnet werden unter der Annahme, dass sich die Erde wie ein Schwarzkörper verhält. Normalerweise wird die Strahlungsberechnung durchgeführt unter der Annahme einer Emissivität (e) von 1. Dies bedeutet, dass die Erde ein perfekter Schwarzkörper ist, der genauso viel Energie emittiert wie er empfängt. Das verwendete Gebiet beträgt 1 Quadratmeter, so dass das Ergebnis in Watt/m² vorliegt. Mittels dieser Annahmen ergibt die Berechnung, dass die Erde etwa 390 W/m² emittiert bei einer Temperatur von 288 K (Kiehl and Trenberth, 1997).

Gleichung 1 (Quelle)

Wenn er auf diese Weise berechnet wird, zeigt der Treibhauseffekt (GHE) ein Ungleichgewicht von 390 – 239 = 151 W/m². Kiehl und Trenberth 1997 berechneten einen ähnlichen Gesamtantrieb von 155 W/m² mittels des gleichen Verfahrens. Die GHE-Berechnung erfolgt unter vielen Annahmen, von denen nicht die Geringste die Annahme ist, dass die Erde eine Emissivität von 1 aufweist und ein Schwarzkörper ist. Aber hier wollen wir das Problem der Verwendung einer globalen mittleren Temperatur T der Erde in Betracht ziehen, welche eine rotierende Kugel ist, wobei zu jeder Zeit nur die Hälfte dieser Sphäre der Sonne zugewandt ist.

Ein spezifisches Problem ist, dass die Erde eben keine gleichmäßige globale Temperatur aufweist. Falls man diese mit 288 K annimmt, dann wird es Stellen auf dem Planeten geben, welche genau diese Temperatur aufweisen, und diese Stellen werden in etwa 390 W/m² emittieren. Aber auf dem allergrößten Teil des Planeten wird die Temperatur eine andere sein und Energie proportional zu T4 emittieren. Das Mittel der Temperatur zur vierten Potenz ist nicht das gleiche wie das Mittel von T4. Dies ist einfache Hochschul-Algebra, und wie groß wird die Differenz dadurch wohl sein?

Um dies zu beantworten, wenden wir uns jetzt der Version 4 des globalen Temperatur-Datensatzes der Hadley Climate Research Unit (HADCRU) zu. Wir ziehen deren Version 4 mit der Referenzperiode 1961 bis 1990 heran sowie deren Temperaturanomalie-Datensatz von 1850 bis 2017. Die Konstruktion der Referenzperiode und der Anomalie-Datensätze wird von Jones et al. (2012) beschrieben. Da die Reihen der Temperaturanomalien Anomalien jeder Reihe im Vergleich zur Periode 1961 bis 1990 sind, sollten wir in der Lage sein, die Referenztemperatur der Reihen zu nutzen, um die Anomalien in absolute  Temperaturwerte umzuwandeln. In beiden Fällen handelt es sich um Datensätze mit Gitterpunkten von 5° zu 5°. Anomalien werden für jede Station berechnet, um Probleme wegen der unterschiedlichen Seehöhen zu vermeiden. Das wird vor dem Anbringen des Gitternetzes gemacht. Addiert man folglich die Referenztemperatur zu der Anomalie, erhält man nicht die Original-Messungen. Auf der Website von HADCRU heißt es dazu:

Festlandsstationen befinden sich in unterschiedlichen Höhen (bezogen auf NN), und verschiedene Länder messen mittlere monatliche Temperaturen mittels verschiedener Verfahren und Formeln. Um Verzerrungen aufgrund dieser Probleme zu vermeiden, werden die monatlichen mittleren Temperaturen reduziert auf Anomalien hinsichtlich der Referenzperiode mit der besten Abdeckung (1961 bis 1990). Für die herangezogenen Stationen muss ein Mittelwert der Referenzperiode berechnet werden. Weil die Messreihe vieler Stationen von 1961 bis 1990 nicht vollständig sind, kamen verschiedene Verfahren zur Anwendung, um Mittelwerte 1961 bis 1990 aus benachbarten Stationen oder anderen Datenquellen zu erhalten (mehr dazu bei Jones et al., 2012). Über den Ozeanen, wo Beobachtungen allgemein von mobilen Plattformen erfolgen, ist es unmöglich, lange Temperaturreihen für bestimmte feste Punkte zu erhalten. Allerdings kann man historische Daten extrapolieren, um räumlich vollständige Referenzwerte (Mittelwerte 1961 bis 1990) zu erstellen, so dass individuelle Beobachtungen verglichen werden können mit dem lokalen Normalwert für den gegebenen Tag des Jahres (Weiteres dazu bei Kennedy et al., 2011).

Es ist möglich, absolute Temperaturreihen für jedes gewählte Gebiet zu erhalten mittels Daten des absoluten Datensatzes und diese dann zum regionalen Mittel zu addieren, welches aus den genetzten [gridded] Daten berechnet worden ist. Falls beispielsweise ein regionales Mittel angefordert wird, sollten die Nutzer eine regionale Zeitreihe mittlerer Anomalien berechnen und dann die Werte im absoluten Datensatz für das gleiche Gebiet mitteln und diesen Wert schließlich zu jedem Wert in der Zeitreihe addieren. Man addiere NICHT die absoluten Werte zu jeder Gitterbox in jedem monatlichen Bereich, um danach großräumige Mittelwerte zu berechnen.

Übrigens ist dieses NICHT ( Im Original „NOT“, Anmerkung des Übersetzers) auf der Website selbst in Großbuchstaben zu finden, das habe ich nicht verändert. Ich hatte vor, die Gitter-Temperatur 1961 bis 1990 zu der Gitter-Anomalie zu addieren und eine angenäherte tatsächliche Temperatur zu erhalten, aber sie sagen, man solle das „NICHT“ tun. Warum sagt man dem Leser, dass man die absoluten gemittelten Referenz-Temperaturen zu den gemittelten Anomalien addieren kann, und sagt ihn danach explizit, nicht die absolute Gitter-Temperatur zu einer Gitter-Anomalie zu addieren? Jede Anomalie-Reihe muss auf ihr eigenes Mittel 1961 bis 1990 bezogen werden. Warum spielt es dann eine Rolle, dass wir die Anomalien und dann die Referenztemperaturen separat mitteln, bevor man beide addiert? Also war natürlich das Erste, was ich machte, die absoluten Gitterwerte 1961 bis 1990 zu den Anomalie-Gitterwerten zu addieren, und zwar für die gesamte Erde von 1880 bis 2016, also genau das, was ich laut Instruktion „NICHT“ tun sollte. Das absolute Temperaturgitter ist vollständig ohne fehlende Werte. Die Jahr-für-Jahr-Gitter weisen viele fehlende Werte auf, und die gleichen Gitterquadrate sind nicht in jedem Jahr gleich belegt. Es stellt sich heraus, dass dies genau das Problem ist, auf welches HADCRU mit diesem Zitat hinweist.

Abbildung 1 zeigt die globalen mittleren Temperaturen von 1880 bis 2016, berechnet nach den Vorgaben vom HADCRU. Zuerst habe ich die Anomalien eines jeden Jahres gemittelt und gewichtet nach dem Kosinus der Breite, weil es sich um ein 5° X 5°-Gitter handelt und die Fläche jedes Gitterquadrates vom Äquator zu den Polen mit dem Kosinus der Breite abnimmt. Dann habe ich die globale Mitteltemperatur 1961 bis 1990 zur mittleren Anomalie addiert. Während das Referenztemperatur-Gitter vollständig mit absoluten Temperaturen angefüllt ist, ist dies bei den jährlichen Anomalie-Gittern nicht der Fall. Außerdem wechseln die vollständig abgedeckten Gitterquadrate von Jahr zu Jahr. Dieses Verfahren vermischt eine Berechnung eines vollständig ausgefüllten Gitterquadrates mit einer Berechnung eines Gitterquadrates mit nur wenigen Werten.

Abbildung 1: Mittelung der Anomalien mit nachfolgender Addition zur mittleren globalen Temperatur 1961 bis 1990.

Wenn man das so macht, wie man uns explizit sagt es nicht zu machen, erhalten wir Abbildung 2. Darin addierte ich die geeignete absolute Gitterquadrat-Mitteltemperatur zu jedem abgedeckten Gitterquadrat für jedes Jahr, um ein Netz mit absoluten Temperaturen zu erhalten und dieses dann zu mitteln unter Nichtbeachtung der Gitterquadrate ohne Werte. In diesem Prozess passt das Gitter der absoluten Temperaturen zum Anomalie-Gitter.

Abbildung 2: Umwandlung jeder Gitterzelle in tatsächlich Temperatur mit nachfolgender Mittelung

Der Unterschied zwischen den Abbildungen 1 und 2 wird am augenfälligsten vor dem Jahr 1950. Nach 1950 ist der untere Plot ein paar Zehntelgrad niedriger, aber der Trend ist der gleiche. Mit perfekten Daten sollten beide Plots gleich sein. Jede Zeitreihe wird konvertiert in eine Anomalie unter Verwendung der eigenen Daten 1961 bis 1990. Multiple Reihen in jedem Gitterquadrat werden zusammengeführt mittels direkter Mittelwerte [straight averages]. Aber – die Daten sind eben nicht perfekt. Gitterquadrate weisen in einem Jahr viele Messungen auf, in anderen gar keine. Vor 1950 ging die Abdeckung auf der Nordhemisphäre nie über 40% hinaus, auf der Südhemisphäre nie über 20%. Angesichts der großen Differenz zwischen den Abbildungen 1 und 2 ist nicht klar, ob die Daten vor 1950 robust sind. Oder klarer ausgedrückt, die Daten vor 1950 sind nicht robust. Ebenfalls ist unklar, warum die Periode 1950 bis 2016 in Abbildung 2 um 0,2°C bis 0,3°C kühler ist als in Abbildung 1. Ich kratze mich immer noch am Kopf ob dieses Phänomens.

Das HADCRU-Verfahren zur Berechnung globaler Temperaturen

Das Verfahren zur Berechnung der Gitterquadrat-Temperaturen von HADCRU Version 4 wird auf deren Website so beschrieben:

Dies bedeutet, dass es 100 Angaben für jedes Gitterquadrat gibt, um die möglichen Annahmen abzuklopfen, welche in der Struktur der verschiedenen Komponenten des Fehlers involviert sind (siehe die Diskussion bei Morice et al., 2012). Alle 100 Angaben sind auf der Site des Hadley Centers verfügbar, aber wir haben hier das Ensemble-Mittel gewählt. Für die genetzten Daten ist dies das Ensemble-Mittel, separat berechnet für jede Gitterzelle und für jeden Zeitschritt der 100 Angaben. Für die hemisphärischen und globalen Mittelwerte ist dies wiederum der Median für die 100 Angaben. Der Median der genetzten Reihen wird nicht den Median der hemisphärischen und globalen Mittelwerte erzeugen, aber die Differenzen werden klein sein.

Folglich ist die globale Mitteltemperatur nach HADCRU Version 4 nicht ein wahres Mittel. Stattdessen ist es der Median-Wert der 100 statistischen Angaben für jede mit Messungen abgedeckte Gitterzelle und beide Hemisphären. Jede Temperaturmessung enthält Fehler und ist dadurch unsicher (Details dazu z.B. hier und hier). Das von HADCRU erzeugte 5° X 5°-Gitternetz enthält für ein Kalenderjahr mit 12 Monaten 31.104 Gitterzellen. Die meisten davon weisen keine Werte auf. Abbildung 3 zeigt die Anzahl dieser Zellen mit Null (ohne Werte) Jahr für Jahr von 1880 bis 2016.

Abbildung 3. Datenquelle

Wie man sieht, gibt es aus den meisten Zellen keine Daten, nicht einmal während der letzten Jahre. In Abbildung 4 erkennt man die Verteilung der Gitterquadrate mit Messpunkten. Die Zellen mit adäquaten Daten sind gefärbt, jene mit unzureichenden Daten bleiben weiß. Die Abdeckung auf der Nordhemisphäre von 1960 bis 1990 liegt bei nahe 50%, die Abdeckung auf der Südhemisphäre im gleichen Zeitraum geht nie über 25% hinaus.

Abbildung 4. Quelle: Jones, et al., 2012

Die Daten sind also spärlich, und die meisten Daten stammen von der Nordhemisphäre und hier vom Festland. An beiden Polen gibt es kaum Daten. Also hat HADCRU zwei Probleme: erstens die Mess-Ungenauigkeit und zweitens, wie man mit der spärlichen und ungleichmäßigen Verteilung der Daten umgeht. Der Mess-Ungenauigkeit wird begegnet, indem gefordert wird, dass jede Gitterzelle eine ausreichende Anzahl von Stationen enthält, die über das betrachtete Jahr Meldungen absetzen. Da der Referenzzeitraum die Jahre 1961 bis 1990 sind, sind auch ausreichend Messungen über diesen Zeitraum erforderlich. Allgemein wird verlangt, dass die Stationen mindestens 14 Jahre lang Daten liefern zwischen 1961 und 1990. Stationen außerhalb von fünf Standardabweichungen des Netzes werden aussortiert [Stations that fall outside five standard deviations of the grid mean are excluded].

Die monatlichen Netze sind nicht umrissen, um die fehlenden Netz-Werte zu ergänzen, wie man erwarten könnte. Ist die mittlere Temperatur für jede Gitterzelle erst einmal mit ausreichend Daten berechnet, werden die durch Meldungen repräsentierten Gitterzellen Kosinus-gewichtet und gemittelt. Siehe Gleichung 9 in Morice, et al., 2012. Das Gebiet variiert so wie der Kosinus der Breite, also werden die Gitterzellen hiermit gewichtet. Die gewichteten Gitterwerte werden für jede Hemisphäre aufsummiert, und aus diesen Ergebnissen der beiden Hemisphären wird eine globale mittlere Temperatur gemittelt. Jahreszeitliche und jährliche Mittel sind aus monatlichen Gitterwerten abgeleitet.

Die meisten mit Messpunkten gefüllten Gitterzellen befinden sich auf dem Festland, weil wir hier leben; und doch sind 71% er Erdoberfläche von Ozeanen bedeckt. Gegenwärtig ist das kein Problem, weil wir Satellitenmessungen der Wassertemperatur und der Lufttemperatur über der Wasseroberfläche haben. Zusätzlich gibt es Netz aus ARGO-Bojen, welches hoch qualitative Ozeantemperaturen liefert. Aber historisch war das ein großes Problem, weil alle Messungen ausschließlich von Schiffen kommen mussten (die ich überdies zu ca. 90 % auf die Hauptschifffahrtslinien beschränkten..Anm. der Redaktion). Der entscheidende HADSST3-Datensatz für die Abschätzung der Ozeantemperatur wird beschrieben von Morice, et al., 2012. Eine ausführlichere Beschreibung der Probleme bei der Abschätzung historischer Wassertemperaturen in ozeanischen Gitterzellen gibt es bei Farmer, et al., 1989. Die Daten vor 1979 stammen aus dem in Schiffe einströmenden Kühlwasser, Treibbojen und Eimermessungen von Wasser neben den Schiffe. Diese Quellen sind mobil und anfällig für Fehler. Die Durchmischungs-Schicht der Ozeane ist im Mittel 59 Meter dick (JAMSTEC MILA GPV data). Mehr zu den JAMSTEC- Wassertemperaturdaten gibt es hier. Die Durchmischungsschicht der Ozeane ist diejenige Schicht, die sich zumeist im Gleichgewicht mit der Atmosphäre befindet. Diese Schicht weist 22,7 mal die Wärmekapazität der gesamten Atmosphäre auf und bewirkt einen merklichen Einfluss auf die Temperaturen der Atmosphäre. Sie wird auch beeinflusst durch die kühleren, tieferen Ozeanschichten, welche sie durch Aufwallen und Absinken beeinflussen können (hier).

Meine Berechnungen

Ich begann mit den Referenztemperaturdaten der Periode 1961 bis 1990, „Absolut“ genannt und hier zu finden. Dies ist eine Reihe von 5° X 5° globale Temperaturgitter für den Referenzzeitraum. Anders als die Anomalie-Datensätze sind diese Netze vollständig mit Meldungen besetzt und enthalten keine Null-Werte. Wie der Absolut-Datensatz besetzt war, wird erklärt von Jones, et al., 2012. Abbildung 5 zeigt die Karte des mittleren Absolut-Temperaturnetzes.

Abbildung 5: Karte der „Absolut“-Daten (Datenquelle: HADCRU)

Ich wendete das gleiche Verfahren an wie HADCRU. Zuerst las ich das Absolut-Netz, es enthält eine Anordnung, welche dimensioniert ist mit 72 Längengrad-Segmenten (5°), 36 Breitengrad-Segmenten und 12 Monaten oder ein Jahr. Als nächstes unterteilte ich das globale Anomalie-Netz von HADCRU4 Jahr für Jahr, mittelte die Zellen mit Messungen und addierte dann das mittlere Absolut der Temperatur von 1961 bis 1990 zur mittleren Anomalie. Die Ergebnisse zeigt Abbildung 1. Wie oben beschrieben, habe ich auch einige Zeit aufgewendet, genau das zu tun, was NICHT zu tun auf der HADCRU-Website empfohlen worden ist. Dieses Ergebnis zeigt Abbildung 2.

Die HADCRU-Daten reichen zurück bis zum Jahr 1850, aber es gibt kaum globale Daten vor 1880, und viele davon stammen aus der offenen Atmosphäre. Schutzfolien zur Abschirmung der Thermometer vor direktem Sonnenlicht waren bis 1880 kaum in Gebrauch, was die Qualität der frühen Daten beeinträchtigte. Also zog ich nur die Daten von 1880 bis 2016 heran.

Das Überraschende an der Graphik in Abbildung 2 ist, dass die Temperaturen von 1890 bis 1950 höher lagen als jede andere Temperatur seitdem. Man betrachte Abbildung 3 bzgl. der Anzahl von Null-Werten. Es gibt insgesamt 31.104 Zellen, die maximale mit Messungen angefüllte Zahl beträgt rund 11.209 im Jahre 1969 oder 35%. Abbildung 6 ist invers die Abbildung 3 und zeigt die Anzahl der mit Messungen gefüllten Zellen für jedes Jahr.

Abbildung 6.

Geht die höhere Temperatur von 1890 bis 1950 in Abbildung 2 nur auf die geringe Zahl von Messungen enthaltenden Zellen zurück? Oder liegt es an der ungleichen Verteilung dieser Zellen? Es gibt einen plötzlichen Sprung der Anzahl mit Messungen belegter Zellen um das Jahr 1950, welcher zusammenfällt mit einem anomalen Temperaturabfall – was ist der Grund dafür? Geht es auf einen Rechenfehler in meinen Berechnungen zurück? Falls mir tatsächlich ein Fehler unterlaufen ist (was immer möglich ist), dann bin ich sicher, dass jemand den Fehler finden und mir mitteilen wird. Ich habe meine Berechnungen wieder und immer wieder überprüft und halte sie für korrekt. Ich habe die einschlägigen Studien gelesen und kann keine Erklärung für diese Anomalien finden. Alle Daten und der R-Code können hier heruntergeladen werden. Erfahrene R-Nutzer werden keine Probleme haben, die zip-Datei enthält den Code sowie alle eingehenden Datensätze und eine tabellarische Zusammenfassung des Outputs.

Energie und Temperatur

Ausschlaggebender Grund für diese Studie war es zu erkennen, welchen Unterschied die rechenbetonte Sequenz bei der Berechnung der Energie-Emissionen von der Erde ausmacht. Das heißt, nehmen wir die vierte Potenz einer mittleren Temperatur, wie es Kiehl und Trenberth 1997 gemacht haben? Oder nehmen wir jede Temperatur einer Gitterzelle zur vierten Potenz und mitteln dann die Stefan-Boltzmann (SB)-Energiegleichung aus Gleichung 1? Das Mittel der HADCRU-Temperaturen des Jahres 2016 beträgt 15,1°C. Die mit dieser Temperatur (288 K) berechneten SB-Energieemissionen sind die 391 W/m², welche allgemein in der Literatur genannt werden. Falls wir die SB-Emissionen aller belegten HADCRU-Gitterzellen für das Jahr 2016 berechnen und diese nach Gebiet gewichtet mitteln, erhalten wir 379 W/m². Dies ist eine geringe Differenz, solange wir nicht diese Differenz vergleichen mit der geschätzten Differenz, welche zunehmendes CO2 haben könnte. Im IPCC-Zustandsbericht 5 zeigt Abbildung SPM.5 (hier in der dritten Abbildung), dass die Gesamtauswirkung der menschlichen CO2-Emissionen seit 1750 2,29 W/m² ausmachten, also viel weniger als die Differenz zwischen den beiden Berechnungen der Emissionen der Erde.

Der Vergleich wird noch schlechter, wenn wir ihn im zeitlichen Verlauf betrachten. Abbildung 7 zeigt die Berechnung der Energie-Emissionen bei einer globalen mittleren Temperatur oder (Mean T)4. Abbildung 8 zeigt die Berechnung durchgeführt für jede einzelne Gitterzelle in jeder mit Messungen belegten Zelle mit nachfolgender Mittelung oder (Mean T4).

Abbildung 7

Abbildung 8

Es scheint wahrscheinlich, dass die Differenzen von 1880 bis 1950 bezogen sind auf die Anzahl Messungen enthaltender Zellen sowie deren Verteilung, aber dies ist zum jetzigen Zeitpunkt Spekulation. Man muss sich Fragen stellen hinsichtlich der Genauigkeit dieser Daten. Der Vergleich seit 1950 ist O.K. außer für die algebraische Differenz, die sich ergibt, wenn man erst die Temperatur mittelt und dann den Mittelwert zur vierten Potenz erhebt, oder wenn man erst jede Temperatur zur vierten Potenz nimmt und dann die Energie mittelt. Von 1950 bis 2014 beträgt diese Differenz im Mittel 13 W/m².

Diskussion und Schlussfolgerungen

Ich stelle die von HADCRU getroffene Wahl nicht in Frage, 100 statistische Realisationen jeder Gitterzelle zu erzeugen und dann den mittleren Gesamtwert heranzuziehen, gewichtet nach dem Kosinus der Breite, als die mittlere Temperatur für jede Hemisphäre und dann die Hemisphären zu kombinieren. Das ist ein vernünftiges Verfahren, aber warum unterscheidet sich dieses Ergebnis von einem direkten gewichteten Mittel der mit Messungen belegten Gitterzellen? Meiner Ansicht nach sollte jedwedes statistische Ergebnis zu dem einfachen statistischen Ergebnis passen, oder die Differenz muss erklärt werden. Der Vergleich zwischen den beiden Verfahren für den Zeitraum 1950 bis 2016 ist O.K., obwohl das HADCRU-Verfahren zu einer verdächtig höheren Temperatur führt. Ich vermute, dass die Daten von 1950 bis 2016 viel robuster sind als die Daten davor. Ich würde jedwede Schlussfolgerung bezweifeln, welche von früheren Daten abhängig ist.

Deren geforderte Berechnung ist ein wenig verstörend. Es verlangt die Mittelung in einem kaum belegten Anomalie-Netz, dann die Mittelung eines vollständig belegten absoluten Temperatur-Netzes mit nachfolgender Summierung der beiden Mittelwerte. Dann instruiert man uns explizit, nicht die gleiche Belegung von Gitterzellen (Anomalie und Absolut) zu wählen, diese zu summieren und zu mitteln. Und doch summiert Letzteres Äpfel und Äpfel.

Schließlich ist es sehr klar, dass die Anwendung der SB-Gleichung zur Berechnung der Energie-Emissionen der Erde mit einer geschätzten globalen Mitteltemperatur falsch ist. So wurden die Emissionen in Abbildung 7 berechnet. Wenn wir die SB-Emissionen berechnen aus jeder belegten HADCRU-Gitterzelle und dann das Ergebnis mitteln, was laut Grundlagen-Algebra der richtige Weg ist, erhalten wir das Ergebnis in Abbildung 8. Vergleicht man beide Ergebnisse, zeigt sich, dass es erhebliche Probleme mit den Daten vor 1950 gibt. Ist dies die Anzahl der Null-Gitterzellen? Ist es die räumliche Verteilung belegter Gitterzellen? Ist es ein Problem der geschätzten Wassertemperaturen? Oder vielleicht ein anderer Komplex von Problemen? Schwer zu sagen, aber es ist schwierig, den früheren Daten zu vertrauen.

Wir versuchen, die Auswirkungen von steigendem CO2 zu bestimmen. Dies führt zu einem geschätzten „Forcing“ von etwa 2 W/m². Auch wollen wir wissen, ob die Temperatur während der letzten 140 Jahre um 1°C gestiegen ist Sind diese Daten genau genug, um sogar diese Auswirkungen aufzulösen? Das scheint mir nicht eindeutig.

Der R-Code und die Daten zur Erstellung der Abbildungen in diesem Beitrag können hier heruntergeladen werden.

Link: https://wattsupwiththat.com/2017/09/09/hadcru-power-and-temperature/

Übersetzt von Chris Frey EIKE




Diesel-Verteu­felung: Krieg gegen das eigene Volk – Diesel­abgase: Die Lücken­medien im Glashaus (1)

Geht die NO2-Belastung zurück oder nicht?

Zunächst bauen die Autoren Andrej Reisin vom NDR und Wolfgang Wichmann von tagesschau.de eine eher holprige Argumentationskette auf. Sie schreiben: „Wiederkehrend ist zu lesen, der jährliche Ausstoß an Stickoxiden ist in Deutschland seit Jahren rückläufig“ und führen dazu Artikel aus der „Welt“ und dem Blog „Tichys Einblick“ sowie eine Stellungnahme der Wissenschaftlichen Gesellschaft für Kraftfahrzeug- und Motorentechnik e.V. an. Auch dieser Zusammenschluss von Professoren relevanter Fachbereiche behaupte in einem Statement, „die NO2-Immissionsbelastung ist seit über zehn Jahren im gesamten Land rückläufig“.

Dann wechseln sie abrupt zur unumwundenen Anerkennung der Tatsache, dass dies stimmig sei, und verweisen auf eine Grafik des Umweltbundesamtes, die sehr eindeutig dokumentiert, dass in den vergangenen 25 Jahren der Stickoxid-Ausstoß um 1,7 Millionen Tonnen bzw. 59 % zurückging, Bild 1.

Bild 1. Untersuchungen des Umweltbundesamtes belegen den kontinuierlichen Rückgang der verkehrsbedingten NOx-Emissionen seit 1990 (Grafik: [UBA]
Der Leser reibt sich an diesem Punkt die Augen und rätselt, wie diese einführende Passage denn jetzt gemeint ist. Wird den oben aufgeführten Journalisten und Wissenschaftlern etwa vorgehalten, dass sie die Wahrheit gesagt haben?

Auch ansonsten ergeben sich bei der Lektüre Fragen, wie ernst die Autoren denn ihre journalistische Sorgfaltspflicht genommen haben. So sprechen sie im Zusammenhang mit Bild 1 von 27 Jahren, zeigt die Grafik doch lediglich den 25-Jahre-Zeitraum von 1990 bis 2015 und nicht bis 2017, aber das sei hier nur am Rande bemerkt. Auch dass in dieser Zeitspanne der Anteil des Verkehrs an den gesamten Stickstoffoxid-Emissionen deutlich überproportional zurückging (absolut von 1,46 auf 0,491 Mio. t und prozentual von 50,7 auf nur noch 40,1 % der Gesamtemissionen), wird nicht für erwähnenswert gehalten. Doch nach diesem eher verunglückten Vorspiel kommt man dann doch langsam zur Sache.

Bild 2. Im Jahr 2016 wurden die NO2-Grenzwerte nur in einigen meist größeren Städten überschritten. Der weit überwiegende Teil Deutschlands liegt bereits unterhalb der Grenzwerte (Grafik: UBA)

Begriffsprobleme mit „Rückgang“ und „Grenzwertüberschreitung“?

Die beiden Verfasser des „Faktenfinder“ scheinen aus irgendwelchen Gründen Schwierigkeiten mit der Tatsache zu haben, dass ein Rückgang ja nichts damit zu tun hat, ob zum aktuellen Zeitpunkt bestimmte Grenzwerte noch überschritten werden oder nicht. Selbst da, wo es im Moment noch Überschreitungen gibt, kommt es doch auch darauf an, ob der Trend in die richtige Richtung geht und wie schnell dies erfolgt. Und als nächstes ist die Frage zu stellen, wie stark denn die gesundheitlichen Auswirkungen der aktuellen Überschreitung von NOx-Grenzwerten überhaupt sind. Schließlich geht es hier um die Frage von Fahrverboten und damit um Millionen Schicksale. Fahrverbote, wie sie von Hendricks, dem Umweltbundesamt (UBA) und dem Anführer des Abmahnvereins Deutsche Umwelthilfe (DUH), Hr. Resch, gefordert werden, betreffen schließlich nicht nur die betreffenden Industrien, wo hunderttausende Mitarbeiter um ihre Jobs fürchten müssen, sondern auch die Bevölkerung. Immerhin gibt es rund 15 Millionen Dieselbesitzer, die sich aktuell teils existenzielle Sorgen machen müssen. Von den unzähligen Handwerkern, Lieferdiensten und Taxifahrern ganz zu schweigen. Mit dem Thema sollte man daher nicht leichtfertig umgehen, sondern genau abwägen, was man für Botschaften aussendet. Vor allem nicht im gebührenbezahlten öffentlich-rechtlichen Rundfunk, der es in einer solchen Frage peinlichst vermeiden sollte, einseitig Position zu beziehen. Alles andere als Unparteilichkeit und Neutralität ist hier in höchstem Maße unangebracht.

Bild 3. Rückgang der NO2-Immissionswerte in Deutschland von 1990 bis 2008. Leider war keine besser aufgelöste Darstellung aufzufinden. Sind diese Wahrheiten eventuell für jemanden unangenehm? (Grafik: UBA)

Aktueller Stand und Entwicklung der NO2-Immissionswerte

Vorab ist anzumerken, dass der Diesel nur einen einzigen Schwachpunkt hat, und das sind seine NOx-Emissionen. Feinstaub ist bereits seit Jahren kein Dieselproblem mehr. Und auch bei den NOx-Emissionen hat sich in den letzten Jahren sehr viel getan, was sich ja auch an der Statistik des UBA (Bild 1) erkennen lässt. Doch auch bei den NO2-Emissionen der Diesel-Pkw gibt es einen langjährigen deutlichen Trend nach unten. Besonders deutlich erkennt man dies anhand der Messstelle „Am Neckartor“ in Stuttgart, Bild 4.

Bild 4. In Stuttgart sind die Überschreitungen des NO2-Grenzwerts von 200 µg/m3 seit Jahren rückläufig (Grafik: https://www.stadtklima-stuttgart.de/index.php?luft_messdaten_ueberschreitungen)

Zu beachten ist hierbei, dass Stuttgart die Stadt mit der höchsten NO2-Luftbelastung in Deutschland ist und die Messstation „Am Neckartor“ diesbezüglich der Rekordhalter unter allen Messstationen ist. Die Zahlen in den beiden letzten Spalten belegen, dass in diesem Jahr auch in Stuttgart aller Voraussicht nach keine unzulässigen Grenzwertüberschreitungen mehr geben wird. Von 2010 bis 2015 gingen „Am Neckartor“ die Überschreitungen um 81 % zurück, im laufenden Jahr sind sogar nur noch ca. 3 % zu erwarten. Man kann demnach feststellen, dass der Trend zu weniger Schadstoffen in der Luft auch im laufenden Jahr kontinuierlich weitergeht. Dass dieser Trend auch generell bei allen Messstellen gilt, zeigt Bild 5.

Bild 5. Schon 2015 lag der Durchschnittswert aller Messstellen selbst in hoch belasteten Städten unter dem gesetzlichen Grenzwert. Die Tendenz ist in allen Bereichen fallend (Grafik: UBA)

Das Manipulationskartell der Sendeanstalten

Beim sogenannten „Diesel-Skandal“ kann man beobachten, dass die Medien – allen voran die Fernsehanstalten ARD, ZDF und ihre Landesdependancen einseitig, parteiisch und irreführend berichten. Ausgewogenheit und investigative Sorgfalt lassen zu wünschen übrig. Themen werden so dargestellt, wie die Bundesregierung bzw. das Umweltministerium sowie die etablierten Parteien es gerne haben möchten. Dabei schreckt man nicht davor zurück, kritische Medien oder Journalisten und Blogger als unglaubwürdig darzustellen. Die öffentlich-rechtlichen Sendeanstalten beteiligen sich erkennbar aktiv an dieser Deindustrialisierung Deutschlands durch „Dekarbonisierung der Volkswirtschaft“. Dabei wären doch gerade sie aufgrund ihrer direkten Finanzierung durch die Bevölkerung zu besonderer Sorgfalt und Neutralität verpflichtet. Dabei geht es primär nicht allein um den Diesel. Dieser ist in diesem üblen Spiel nur das erste Opfer. Es wird danach weitergehen, und zwar alternativlos.

Fred F. Mueller

Demnächst folgt Teil 2

Quellen

[FAKT] http://faktenfinder.tagesschau.de/inland/stickstoffdioxid-111.html




Dumm gelaufen: Husum – Windkraft zerzaust Windkraft-Messe.

 Diese Veranstaltung brachte der Kleinstadt und Kreisstadt Nordfrieslands, Schleswig-Holstein, in den vergangenen Jahren überregionale, ja internationale Aufmerksamkeit. Stadt von Welt! Dieser lukrative Zweck heiligt allhier allemal den Glauben an den CO2-Götzen. Was sonst? Was wäre Husum heute ohne den Windmühlenzirkus? Den Touristen wieder wie früher nur Krabbenbrötchen und Theodor Storm (sic!), den großen Sohn der Stadt, anbieten, dessen hiesige Erlebnisse in allen Ecken der Stadt an zahlreichen Gedenktafeln nachzulesen sind? Wieder nur graue Stadt am Meer sein? Da sei das IPCC, der „Weltklimarat“, vor! Dieser macht’s mit seinen unbewiesenen und unbeweisbaren, dafür aber schwer ideologisierten Klimapanik-Dogmen möglich, daß Husums provinzielles Grau in mondänes Tiefblau getaucht wird, etwa mit einem Flaggenspalier entlang der Einfallstraße, der Bundesstraße B 200. Flatternde Tücher, die den teuren und unberechenbaren Flatterstrom der Windenergie kaum trefflicher repräsentieren könnten.

Aber in die vollen gehauen: Begleitend zur Messe gibt es ein „Windwanderer-Festival“ mit Live-Musik, Eintritt frei, „wetterunabhängig“ in verschiedenen Lokalitäten rund um den Hafen, gleich am Abend des Eröffnungstages. Möge die feierfreudige Jugend ohne Umschweife tänzelnd aufs Parkett des richtigen Klima-Fühlens und Wind-Handelns gebracht werden. Sei Windwanderer, junger Freund, der Weg des Windes wird dich reich machen. Wenn du selbst Windmühlenbesitzer oder Windhändler bist, natürlich. Anderenfalls wirst du einfach nur zu denen gehören, die gesetzlich erzwungen Windstrom kaufen und immer höhere Strompreise zahlen müssen. Und die subventionierenden Steuermittel gleich dazu.

Die Windbegeisterung ist freilich auch in der Nordseefischerstadt Husum nicht uneingeschränkt. Am zweiten Tag der Windmühlenmesse war es den Husumer Masters of Wind („Wir können Wind. Schon immer.“) dann doch ein wenig zu viel, denn Sturmtief „Sebastian“ schaute als ausgewiesener Fachmann neugierig vorbei, um sich die Storm-Gedenktafeln benebst der „windigen“ Geschäfte von wahnsinnig erfolgreichen Steuergeld- und Energieeinspeisungs-Nutznießern einmal aus der Nähe anzusehen – und zeigte ihnen mal so richtig, was eine Windharfe ist. Da pfiff es nicht nur in die Räder und Hallenzelte, sondern auch in die profitbeschwerte Büx: Man entschied, die Hallen erstmal zu räumen und später, bei günstigerem Wind, weiterzutraden. „Heute hat sich in Husum wieder gezeigt: Mit Wind in jeder Form können wir umgehen“, erklärt selbstbewußtPeter Becker, Geschäftsführer der Messe Husum & Congress. Er fährt fort: „Sturmtief Sebastian hat gestern einiges durcheinander gewirbelt, dennoch lief die Räumung der Hallen geordnet ab. Dafür möchte ich mich herzlich bei den Besuchern sowie Ausstellern und nicht zu letztlich bei der Feuerwehr für Ihre Unterstützung bedanken – wenn es ernst wird, hält die Windbranche zusammen.“

Zuviel Wind und zuwenig Wind, das sind Luftbewegungen, die die Luftikusse des Windmühlengewerbes zur Pflege ihres Goldrausches routiniert ausblenden. Für sie gibt es nur den genau richtigen Wind, und das ist der, der die Segel ihres wirtschaftlichen Fortkommens bläht. Um die anderen vier Winde sollen sich die Zahlesel kümmern, die der Gesetzgeber zum Glück in großer Zahl bereitgestellt hat. Etwa die, welche die Negativstrompreise finanzieren, wenn überschüssiger Windstrom zur Entlastung der Netze ans Ausland verschenkt werden muß – gegen Zahlung barer Münze ans Ausland versteht sich, damit es das in deutscher Netz-Not dargebrachte Geschenk auch in seine Netze hereinnimmt.

Vernunft? Markt? Augenmaß? Realismus? Pustekuchen. Möge dieser jämmerliche gesellschaftliche Darmwind des klimatisch-eingebildeten Weltrettertums und seiner einhergehenden planwirtschaftlich kranken, verzerrenden Begleiterscheinungen recht bald abgehen!

„Husum Storm“ wäre doch auch ein schöner Name für eine Messe. Würde genausogut auf die blauen Flatterfahnen passen. An einer Lobby in Berlin für ein paar diesbezügliche Subventiönchen ließe sich ja basteln.

Karikatur aus dem Jahre 2017.




Fake News über Hurrikan Irma von FAZ, FOCUS, Deutschlandfunk, … bis hin zu Levermann (PIK) und M. Latif

Zunächst ein kleiner Auszug des von den Medien und den Experten A. Levermann (Mitarbeiter des Potsdamer Instituts für Klimafolgenforschung) und M. Latif verzapften sachlichen Unsinns hier, hier, hier, hier, hier, … Die Liste läßt sich beliebig fortsetzen. Allgemeiner Tenor: Irma sei der stärkste je gemessene Wirbelsturm gewesen, alles würde immer schlimmer werden und natürlich sei die anthropogene Erwärmung zumindest mitschuldig. Nebenbei: M. Latif’s fragwürdige Verlautbarungen haben bereits Tradition. So sagte Latif in 2000 voraus, dass es infolge Klimaerwärmung in Deutschland keine Winter mit Schnee mehr geben würde (hier).

Wirklich? Beginnen wir mit Irma. Wie stark war er? Der Hurrikan-Forscher P. Klotzbach vom Department for Atmospheric Science an der Colorado State University (hier) hat als erster Einwände angemeldet. Er kennt US-Hurrikane aus seiner beruflichen Tätigkeit aus dem EffEff. Hier die Tabelle

Quelle: WUWT (hier). Das Stärke-Kriterium ist der beim Übergang des Hurrikans auf das Festland gemessene Luftdruck im Auge des Hurrkans (s. Spalte 5 der Tabelle) – je kleiner der Druck umso stärker der Wirbelsturm.

EIKE hat bereits schon einmal über das „Problem“ der Stärkenmessung und des historischen Verlaufs von Wirbelsturmhäufigkeiten berichtet (hier, hier). Es ist also bereits genug darüber bei EIKE zu diesem Thema geschrieben und vor allem auch mit den zugehörigen Statistiken aus der Fachliteratur belegt worden. Warum trotzdem diese Fakten von den sog. Qualitätsmedien nicht zur Kenntnis genommen werden, kann mit fehlender Information nicht mehr erklärt werden. Sachlich begründeten Widerspruch zu den beiden EIKE-Veröffentlichungen gab es nicht. Seriöse Sachdiskussionen sind heute offensichtlich nicht mehr in Mode, Desinformation auf allen Kanälen ist angesagt.

Journalisten haben von den Themen Klima und Energie nicht den blassesten Schimmer. Ist auch nachvollziehbar. Einen investigativen Qualitätsjournalismus (Beispiele ehemaliger SPIEGEL und ehemalige FAZ), der ohne Rücksichten ordentlich recherchierte und berichtete, gibt es nicht mehr. Journalist wird man heute mit der richtigen grünlinken Gesinnung. Studium eines Sozialberufs reicht. Ordentliche Recherche? Ist unnötig, zu teuer und macht zu viel Arbeit. Bei dieser Verflachung eines für unsere Demokratie so wichtigen Berufs dürfen wir uns nicht wundern, dass das Aufdrängen von  Meinungen heute das „Berichten was ist“ ersetzt hat. Die deutschen Medien haben sich den Zuständen der ehemaligen DDR angeglichen – von wenigen Ausnahmen abgesehen. Die Quittungen erhalten die großen Zeitungen inzwischen in Form von dramatisch fallenden Verkaufszahlen, und dabei ist nicht das Internet der Hauptschuldige. Aber auch die Nachrichtensendungen von ARD und ZDF tun sich viele Zeitgenossen inzwischen nicht mehr an

Aber zurück zu unserem Thema der Extremwirbelstürme! Viel interessanter als der Medienunsinn über die jüngsten US-Hurrikane sind folgende Fragen:

1. Welches sind die Kriterien, die zu einem Orkan über warmen Meerwasser führen?

2. Was sind die Gründe dafür, dass einige Orkane wieder verschwinden, andere aber sich in erstaunlich kurzer Zeit und mit unvorstellbarer Wucht zu extremen Wirbelstürmen entwicklen?

3. Wie ist der heutige Stand der Vorhersagen und Modelle von Extremwirbelstürmen und wie gut kann man ihren zerstörerischen Weg überhaupt vorhersagen?

Obwohl als einzige verlässliche Zeugen nur die Fachliteratur gelten darf, sei ausnahmsweise auch einmal eine gute mediale Information zitiert. Der französische Sender TV5 Monde Europe (per Satellit neben France 24 auch mit deutschem Reciever zu empfangen) zeichnet sich gelegentlich durch sehr gute Wissenschaftsdokumentationen aus. Eine solche Sendung über Physik und Erforschung von Extremwirbelstürmen wurde vor wenigen Tagen ausgestrahlt. Nach meiner Erinnerung könnte der Titel „Au coeur des cataclysmes“ o.ä. gelautet haben. Die Sendung war fachlich einwandfrei, das mit Extremwettern in den Medien fälschlich oft verbundene „menschgemacht“ kam mit keinem Wort vor. Man erhielt einen detaillierten Einblick über den Stand und die Methoden der aktuellen Hurrikan-Forschung in den USA mit Hilfe unzähliger Interviews von Hurrikan-Fachleuten.

Die wichtigsten Punkte der Sendung zusammengefasst:

1) Die vielen Interviews von Hurrikan-Forschern lieferten interessante Insider-Informationen, die in der Fachliteratur verständlicherweise nicht thematisiert werden.

2) Als einziges notwendiges, aber keineswegs hinreichendes Kriterium für das Entstehen eines schweren Sturms über dem Atlantik wurden mindestens 26,5 °C warmes Oberflächenwasser genannt. Die restlichen Kriterien liegen dagegen völlig im Dunkeln. Es wurde die Vermutung zitiert, dass von Afrika kommende Passatwinde eine maßgebende Rolle beim Anwachsen des Sturms zu einem Hurrikan spielen könnten.

3) Über die näheren Ursachen der Entwicklung des Sturms zu einem Hurrikan herrscht so gut wie komplette Unkenntnis. Im Normalfall verflacht der Sturm wieder. Es kommt aber auch vor, dass er innerhalb der extrem kurzen Zeit von ca. 10 Stunden bis zur höchsten Hurrikan-Kategorie anwachsen kann.

4) Man versucht zur Zeit Modelle zu entwickeln, welche den Entstehungsverlauf von Sturm zu Hurrikan vorhersagen können. Aus den Interviews der Forscher ging aber nicht der Eindruck großer Hoffnung hervor, dass diese Modelle in voraussehbarer Zukunft vernünftige Ergebnisse liefern könnten (das lässt nebenbei auch einige Erkenntnisse über die Qualität von Klimamodellen zu).

5) Im Gegensatz zur Entwicklung eines Hurrikans macht man infolge immer besseren Monitorings mit Hilfe von mobilen Messfahrzeugen, mit Flugzeugen, die ins Auge des Hurrikans fliegen und Messkapseln abwerfen etc. laufend Fortschritte in der Bestimmung der zu erwartenden Trajektorie eines Hurrikans.

Der heutige Stand der Hurrikan-Forschung ist also alles andere als ermutigend. Nebenbei zu TV5: wer sich tolle Wissenschaftssendungen von diesem Sender erhofft, darf nicht zuviel erwarten. Die hier beschriebene Sendung war ein immer mal wieder vorkommender Einzelfall von sehr guter und interessanter Information. Der Klimakatastrophen-Klamauk ist in Frankreich zumindest genauso schlimm wie bei uns.

Nun zur Fachliteratur. Was sagt die Statistik zur Entstehung von Wirbelstürmen?

1) Zur Häufigkeits- und Intensitätsfrage gibt der schon (hier) genannte EIKE-Beitrag hinreichend Auskunft. Interessant sind auch die Fachveröffentlichungen (hier, hier), in denen belegt wird, dass historische Zunahmen von Extremstürmen oft schlicht ihren Grund darin hatten, dass die Erfassung dieser Stürme früher zu lückenhaft war.

2) Über die weiter zurück liegende Entwicklung von Hurrikanen ab dem römischen Imperium bis zum Mittelalter mit Blick auf die heutige Situation findet sich Interessantes in der folgenden Fachpublikation (hier).

3) Was die Ursachen des Auftretens von Extremstürmen angeht, hat dankenswerterweise insbesondere die „Kalte Sonne“ (hier) zwei ausführliche Artikel mit Angabe der zugehörigen Quellen verfasst (hier, hier). Der erste Artikel zeigt, dass offenbar ein Zusammenhang zwischen Sonnenaktivität und Hurrikan-Häufigkeit betsteht. Der zweite Artikel der „Kalten Sonne“ berichtet über verschiedene Fachpublikationen.. Eine zeigte, dass eine Antikorrelation von aktueller Hurrikan-Häufigkeit und -Intensität besteht. Eine weitere fand heraus, dass während der mittelalterlichen Warmzeit die Hurrikan-Häufigkeit an der US-Atlantikküste besonders hoch war. Und eine Dritte schließlich belegte, dass die Häufigkeit von Hurrikanen eng an Ozeanzyklen und den El Nino gekoppelt ist.

Die Forschung ist auf dem Gebiet der Extremstürme schreitet also „stürmisch“ voran. Wie so oft, kann aber von einem echten Durchbruch noch lange nicht gesprochen werden. Schlussendlich und in gegebenem Zusammenhang der immer wieder versuchten Verknüpfung von Extremwettern und menschgemachten CO2-Emissionen sei daran erinnert, dass bis heute

1. .. ein anthropogener Einfluss auf Extremwetter-Ereignisse nicht aufzufinden ist [3].

2. .. es keine begutachtete Fachpublikation gibt, die stringent nachweist, dass MENSCHGEMACHTES CO2 zu einer globalen Erwärmung geführt hat. Genauer: Es gibt keinen Nachweis, dass CO2-ÄNDERUNGEN globale Temperaturänderungen verursachen. Alle entsprechenden Fachpublikationen müssen dazu fiktive Theorien oder Modelle bemühen. Der gemäß IPCC-Aussage unbekannte(!) [1] Wert der Klimasensitivität (= globale Erwärmung bei JEDER Verdoppelung der CO2-Konzentration) nähert sich völlig unbedeutenden ~0,6 °C an. Dies belegen unzählige Fachpublikationen über die letzten Jahre [2]. Der UMGEKEHRTE Zusammenhang ist dagegen gesichert. Temperaturen führen das CO2, weil warmes Meerwasser CO2 ausgast und kaltes Meerwasser es bindet [4].

Jeder Fachexperte, der daher die Vermeidung von 2 °C bzw. heute 1,5 °C globaler Erwärmung mit Hilfe von CO2-Einsparungen fordert, widerspricht der Fachliteratur und sogar dem IPCC und täuscht die Öffentlichkeit über den heutigen wissenschaftlichen Stand.

 

Quellen:

[1] Jüngster IPCC-Bericht für Politiker (2013) (hier). Zu finden auf S. 16 die entsprechende Fußnote zur Klimasensitivität, sie ist lt. offizieller Aussage des IPCC „unbekannt“. Das PIK weiß es anscheinend „besser“.

[2] F. Gervais, Anthropogenic warming challenged by 60-year cycle, Earth-Science Review 155 (2016), 129-135, insbesondere folgendes Bild aus dieser Arbeit

[3] Tropische Stürme und Hurrikane [IPCC 2013, AR5, WG1, Kapitel 2.6, Seite 216]:No robust trends in annual numbers of tropical storms, hurricanes and major hurricanes counts have been identified over the past 100 years in the North Atlantic basin.”

Tropische Zyklone [IPCC 2013, AR5, WG1, Kapitel 2.6, Seite 216]: “Current datasets indicate no significant observed trends in global tropical cyclone frequency over the past century and it remains uncertain whether any reported long-term increases in tropical cyclone frequency are robust, after accounting for past changes in observing capabilities.”

Außer-tropischeZyklone [IPCC 2013, AR5, WG1, Kapitel 2.6, Seite 220]: “In summary, confidence in large scale changes in the intensity of extreme extratropical cyclones since 1900 is low. There is also low confidence for a clear trend in storminess proxies over the last century due to inconsistencies between studies or lack of long-term data in some parts of the world (particularly in the SH). Likewise, confidence in trends in extreme winds is low, owing to quality and consistency issues with analysed data.”

Dürren [IPCC 2013, AR5, WGI, Technical Summery, Seite 50]: ”There is low confidence in a global-scale observed trend in drought or dryness (lack of rainfall), owing to lack of direct observations, dependencies of inferred trends on the index choice and geographical inconsistencies in the trends.”

sowie in [IPCC 2013, AR5, WGI, Kapitel 2.6, Seite 215]:In summary, the current assessment concludes that there is not enough evidence at present to suggest more than low confidence in a global scale observed trend in drought ordryness (lack of rainfall) since the middle of the 20th century, owing to lack of direct observations, geographical inconsistencies in the trends, and dependencies of inferred trends on the index choice. Based on updated studies, AR4 conclusions regarding global increasing trends in drought since the 1970s were probably overstated. However, it is likely that the frequency and intensity of drought has increased in the Mediterranean and West Africa and decreased in central North America and north-west Australia since 1950.”

Überflutungen [IPCC 2013, AR5, WGI, Technical Summery, Seite 112]: ”There continues to be a lack of evidence and thus low confidence regarding the sign of trend in the magnitude and/or frequency of floods on a global scale over the instrumental record.”

Hagel und Gewitter [IPCC 2013, AR5, WGI, Kapitel 2.6, Seite 216]: “In summary, there is low confidence in observed trends in small-scale severe weather phenomena such as hail and thunderstorms because of historical data inhomogeneities and inadequacies in monitoring systems.”

Und schließlich fasst IPCC zusammen [IPCC 2013, AR5, WGI, Kapitel 2.6, Seite 219]: “There is limited evidence of changes in extremes associated with other climate variables since the mid-20th century.”

[4] Caillon et al., Timing of atmospheric CO2 and Antarctic temperature changes across termination III, Science, 229 (2003), 1728-1731, hierin insbesondere fogende Fig. 4. aus dieser Publikation.




DREI Hurrikan-Fake News im ZDF „MORGENMAGAZIN“ am 11.09.2017

Am 11.09.2017 im ZDF „Morgenmagazin“ konnte der so angekündigte „Klimaphysiker“ Anders Levermann (PIK POTSDAM) seine Propaganda mit Hurrikan-Klimawandel-Alarmismus wiedermal vollends unter die TV-Zuschauer bringen, weil Dunja Hayali 1. schlecht vorbereitet war und 2. auch vollends auf der Welle des Hurrikan-Alarmismus „mitgeritten“ ist. Die drei wichtigsten Informationen über die drei Hurrikane Irma, José und Katia waren definitiv FALSCH, was in folgendem Kurz-Video dokumentiert wird:

Anmerkung der EIKE Redaktion: Video mit den vielen Falschbehauptungen innerhalb weniger Minuten von Dunja Halaly, Anders Levermann (PIK)  und dem Papst. Die Macher von Klimamanifest von Heiligenroth verwenden in diesem Zusammenhang den Begriff „Lüge“. Dem schließen wir uns nicht an. Denn Lüge setzt den Vorsatz voraus, wider besseres Wissen die Unwahrheit zu sagen. Bei den meisten der gezeigten Personen kann man „Besseres Wissen“ ausschließen, bei Herrn Levermann eigentlich nicht. Und  doch sollte man ihm nicht das Lügen unterstellen, denn er blendet offensichtlich das Wissen aus, dass zum Zeitpunkt des Interviews bereits bekannt war. Er glaubt daher vermutlich korrekt berichtet zu haben. Wer aber als Wissenschaftler  Fakten ausblendet oder auch nur nicht zur Kenntnis nimmt, handelt als Gläubiger und nicht als Wissenschaftler

Nachfolgend auch die wichtigen Nachweis-Screenshots, warum die Behauptungen von im ZDF „MORGENMAGAZIN“ falsch und damit unwahr gewesen sind:

1.
Mit diesem Vorwurf auf Twitter konfrontiert, meinte Dunja Hayali allen Ernstes:

über dem atlantik! stimmt nicht?

Es stellte sich dann heraus, dass Dunja Hayali bei der Definition von „ATLANTIK“ wohl getrickst hatte, womöglich auf „Empfehlung“ von Anders Levermann. Es wurde einfach der GOLF VON MEXIKO und die KARIBIK aus der Definition „Atlantik“ entfernt, damit nun folgende Propaganda über den Hurrikan IRMA u.a. auch auf WIKIPEDIA behauptet werden kann:
Heftig !! So konstruiert der Klima-Fanatismus neue Superlative, indem alte, wichtige Kriterien aus der Vergangenheit für diesen Superlativ entfernt werden und einfach neue Kriterien für einen neuen Superlativ definiert werden. Aber trotzdem wird vorgegaukelt, der Höchstwert/Superlativ der Vergangenheit wäre mit dem aktuellen Superlativ vergleichbar, was in Wahrheit gar nicht stimmt. Denn die Kriterien wurden verändert. Die „Fussnote [5]“ bei WIKIPEDIA weist einen „Forcaster Brown“ für diese Trickserei aus, der behauptet:

This makes Irma the strongest hurricane in the Atlantic
basin outside of the Caribbean Sea and Gulf of Mexico in the NHC records.

Aber trotzdem bleibt es dabei: Dunja Hayali lag am 11.09.2017 mit ihrer Behauptung falsch, weil sie den gesamten Atlantik gemeint hatte und den Atlantik nicht genauer spezifiziert hatte.

2.
Eine ganz dreiste Unwahrheit kam dann von Anders Levermann, weil er unzweifelhaft beim Zuschauer den Eindruck vermittelt hat, der Hurrikan José würde die gleiche Flugbahn wie Hurrikan Irma nehmen, was ebenfalls nicht stimmte. Hurrikan José bog unmittelbar vor den Kleinen Antillen-Inseln nach Nordwesten ab und verschonte (nahezu) alle Inseln, die Hurrikan Irma kurz vorher bereits verwüstet hatte. Sie können sich die Flugbahnen von Hurrikan IRMA und auch von Hurrikan JOSÉ per Grafik-Animationen noch nachträglich im Internet anschauen. Eindeutig dokumentiert: Anders Levermann hatte daher 11.09.2017 im ZDF „MORGENMAGAZIN“ die Unwahrheit gesagt. Ob wider besseres Wissen, oder weil er Glauben für Wissen hielt, wissen wir nicht. Und auch noch am 12.09.2017 dümpelt der Hurrikan José ziemlich zielos im Atlantik im Osten der den Bahamas und südwestlich der Bermudas im unbewohnten Atlantik:

3.
Ebenfalls eine dreiste Unwahrheit von Anders Levermann, denn ihm kann unterstellt werden, dass er gewusst haben muss, dass sich der Hurrikan Katia bereits am Samstag, 09.09.2017 aufgelöst hatte, was auch eine Grafik-Animation belegt.

Aber wie das obige Kurz-Video ebenfalls andeutet, scheinen auch diese drei Hurrikan-Fake News den Segen vom Papst zu haben. Halleluja.




Tesla, das Auto mit Hurrikan-Flucht-Turbo-Booster

finanzen.net, 11.09.2017 : Mit Softwareupdate: Tesla hebt wegen „Irma“ Kilometerbeschränkung in Model S und X auf
Der Elektroautobauer Tesla hat Tesla-Fahrern in Florida per Software-Update mehr Reichweite geschenkt, um ihnen die Flucht vor dem Hurrikan „Irma“ zu erleichtern …
Software-Update für 60kwH-Versionen
Der Elektroautobauer hat bei den betroffenen Fahrzeugen offenbar ein Softwareupdate eingespielt, das die Drosselung der Batteriekapazität aufhebt. Tesla-Kunden, die die Modelle S oder X mit einer software-gedrosselten 60kwH-Batteriekapazität erwerben, haben theoretisch die Möglichkeit, die maximale Kapazität von 75 kWH im Bedarfsfall für einen Aufpreis freischalten zu können. Diese Freischaltung hat Tesla nun offenbar selbstständig durchgeführt und damit die Reichweite der betroffenen Fahrzeuge um bis zu 65 Kilometer erhöht.
Anpassungen nur temporär
Wie ein Tesla-Sprecher bestätigte, soll die Maßnahme temporärer Natur sein und wohl nur wenige Tage dauern, dann wird der Originalzustand wieder hergestellt.
Ob dieser kleine „Booster“, der auch nur bei speziellen Varianten und auch bei denen nur wenige Kilometer „Zusatzfluchtweg“ brachten, eine (Er)Lösung war, ist nicht bekannt. Es ist auch nicht bekannt, ob die meisten Elektroauto-Besitzer nicht vorsichtshalber diese in der Garage ließen und mit einem bewährten, kraftstoffbetriebenem Fahrzeug „flohen“. Ein PR Gag war es allemal und ging entsprechend um die Welt.

Vielleicht hat es manchen jedoch die Augen geöffnet, welche Einflussmöglichkeiten Hersteller – und mit Sicherheit auch der Staat – in modernen Autos hat und immer perfekter und umfassender bekommt.
Der erste Schritt wird getan: Autos, welche diese Möglichkeiten nicht bieten, werden bald verboten.
Der zweite Schritt ist angedacht: Originalton Frau Merkel: „Wir werden in 20 Jahren nur noch mit Sondererlaubnis selbstständig Auto fahren dürfen“. In der Zukunft sind die Autos intelligent und die Untertanen werden zu Robotern (degradiert).
Der Schritt davor ist bereits im Gang: Wer nicht wie die Regierung und die untergeordneten NGOs denkt, wird diffamiert.
Ruhrkultour: Das PIK und die obszöne Kritik an Windkraftgegnern
… In einer noch nicht veröffentlichten Studie des PIK werden Windkraftgegner und Kritiker der Energiewende als Wissenschaftshasser bezeichnet. Sie werden vom PIK und der Süddeutsche Zeitung diffamiert und mit oder ohne AfD nationalsozialistischem Gedankengut zugeordnet.
… Die Studie scheint ein weiterer Beleg dafür zu sein, dass Institutionen, die staatlich gefördert werden, der Versuchung nicht widerstehen können, ihre Position mit Anstand zu verteidigen. Aus dem sicheren Schutz ihrer Trutzburg schleudern sie mit allem, was ihnen zur Verfügung steht, auf den Feind und verteidigen ihre „gesicherte wissenschaftliche Erkenntnis“ gegen jeden Zweifel. Den rauen Wind der Wissenschaft würden sie nicht überleben, aber unter dem Schutz und im Auftrag der Politik endet der wissenschaftliche Diskurs an den Mauern einer totalitären Politik …




Aus der Hurrikan­forschung: Antikorre­lation von Häufig­keit und Stärke gefunden

Ein ernstes betroffenes Gesicht ist aber leider kein Garant dafür, dass die Aussage auch seriös wäre. Wie üblich wird der klimahistorische Kontext ausgeblendet bzw. Betrachtungsintervalle nach Gutdünken so verzerrt, dass der gewünschte Trend herauskommt. Vielfach haben wir an dieser Stelle bereits über Hurrikane und ihre klimatische Bedeutung berichtet (siehe Rubrik ‘Nordamerika’ hier). Beispiele:

Heute wollen wir neue Resultate aus dem Bereich der Hurrikanforschung vorstellen. Beginnen wollen wir mit einer Studie einer Gruppe um BereniceRojo-Garibaldi, die im Oktober 2016 im Journal of Atmospheric and Solar-Terrestrial Physics erschien. Die Wissenschaftler nahmen die Hurrikanhäufigkeit der letzten 250 Jahre unter die Lupe und erkannten einen interessanten Zusammenhang mit der Sonnenaktivität: Je größer die Sonnenaktivität, desto geringer die Hurrikanhäufigkeit. Hier der Abstract:

Hurrikane im Golf von Mexiko und der Karibischen See sowie deren Relation zu Sonnenflecken

Wir stellen die Ergebnisse einer Zeitreihen-Analyse vor von Hurrikanen und Sonnenflecken von 1749 bis 2010. Die Forschungsanalyse zeigt, dass die Gesamtzahl von Hurrikanen abnimmt. Diese Abnahme steht in Beziehung mit einer Zunahme der Sonnenflecken-Aktivität. Eine Spektralanalyse zeigt eine Relation zwischen Perioden mit Hurrikan-Oszillationen und Sonnenflecken-Aktivität. Mehrere Sonnenfleckenzyklen wurden aus der Zeitreihen-Analyse herausgefiltert.

Das größte Versäumnis der alarmistischen Klimakommentatoren ist ihre klimageschichtliche Kurzsicht. Gerne wird auf den „stärksten”, „gefährlichsten”, „feuchtesten” Hurrikan der Messgeschichte hingewiesen. Vergessen wird dabei, dass erst seit wenigen Jahrzehnten Satelliten zur flächendeckenden Sturmüberwachung verwendet werden. Davor war man auf Einzelbeobachtungen und historische Berichte angewiesen, wobei etliche Stürme „durch die Lappen gingen”. Michael Chenoweth hat sich durch eine Vielzahl von historischen Quellen gewühlt und im Journal of Climate im Dezember 2014 eine Rekonstruktion der nordatlantischen Hurrikangeschichte 1851-1898 veröffentlicht. Dabei wies er große Lücken im offiziellen Hurrikankatalog nach. Hier der Abstract:

Eine neue Zusammenstellung nordatlantischer Tropischer Zyklone von 1851 bis 1898

Eine umfassende neue Zusammenstellung der Aktivität tropischer Zyklone im Nordatlantik für die Jahre 1851 bis 1898 wird vorgestellt und verglichen mit dem nordatlantischen Hurrikan-Datensatz (HURDAT2) für die gleichen Jahre. Diese neue Analyse basiert auf einer Durchsicht von 9072 Zeitungsberichten der Marine, 1260 Original-Logbucheintragungen, 271 Maury abstract logs,147 meteorologische Journale der US-Marine und 34 Logbücher von UKMO. Aufzeichnungen aus Nordamerika und der Karibik wurden ebenso herangezogen wie andere primäre und sekundäre Referenzen mit einheitlichen Land- und Seedaten. Zum ersten Mal wurden für die Erforschung historischer tropischer Zyklone tägliche Wetterkarten vom Nordatlantik betrachtet für die Jahre 1864/65, 1873 sowie 1881 bis 1898. Die Ergebnisse für die Jahre 1851 bis 1898 enthalten die Auslassung von 62 der 361 HURDAT2-Stürme. Eine weitere Reduktion ergibt sich aus dem Verschmelzen von Stürmen, so dass insgesamt eine Anzahl von 288 tropischer Zyklone in HURDAT2 übrig bleiben. Die neue Zusammenstellung ergab eine Gesamtzahl von 497 tropischer Zyklone während des 48-jährigen Zeitraumes oder ein Mittel von 10,4 Stürmen pro Jahr. Davon sind 209 Stürme vollkommen neu [erfasst]. Insgesamt 90 Hurrikane waren während dieser Zeit auf das US-Festland übergetreten. Sieben neue Hurrikane mit Übertritt auf das US-Festland tauchen in dem neuen Datensatz auf, aber nicht in HURDAT2. Acht Hurrikane mit Übertritt auf das Festland nach HURDAT2 werden jetzt lediglich als tropische Stürme [unter der Hurrikan-Schwelle] betrachtet oder hatten sich bereits in außertropische Zyklonen umgewandelt. Im gesamten Nordatlantik hat die Anzahl der Kategorie-4-Hurrikane auf der Grundlage der Saffir-Simpson-Skala der Windstärke in Hurrikanen im Vergleich mit HURDAT2 von 11 auf 25 zugenommen, von denen 6 als Kategorie-4-Hurrikane auf das US-Festland übergegriffen haben.

Es ist seit längerem bekannt, dass die Hurrikanhäufigkeit vom AMO-Ozeanzyklus mitgesteuert wird (siehe S. 202 in unserem Buch “Die kalte Sonne“). Aber auch andere Zusammenhänge werden langsam klarer. Offenbar nimmt die Intensität der Hurrikane in hurrikanschwachen Zeiten zu. Und wenn es einmal richtig viele Hurrikane gibt, ist ihre Intensität niedriger. Eine solche Hurrikanwippe beschrieb am 4. Januar 2017 die University of Wisconsin-Madison:

Häufigere Hurrikane sind nicht unbedingt stärker an der Atlantikküste

Aktive Perioden atlantischer Hurrikane wie diejenige, in der wir uns derzeit befinden, sind nicht notwendigerweise die Quelle von mehr, sich rasch verstärkenden Hurrikanen an der US-Küste. Dies geht aus neuen Forschungen der University of Wisconsin–Madison hervor. Tatsächlich zeigen die Forschungsergebnisse, veröffentlicht am 4. Januar 2017, dass es wahrscheinlicher ist, dass sich der US-Küste nähernde Hurrikane während weniger aktiven atlantischen Perioden stärker intensivieren. Während aktiverer Perioden tendieren sie eher dazu, sich abzuschwächen. Die Relation zwischen den sich im atlantischen Becken entwickelnden Hurrikanen und der Anzahl der Hurrikane mit Übertritt auf das Festland ist schwach, sagt der Autor, und außerdem eine, die noch nicht gut geklärt ist. Die neue Studie behandelt zumindest einen Aspekt dieser Relation.

Historisch haben sich die Forscher primär auf den tropischen Atlantik konzentriert – auf das Gebiet also, in dem sich Hurrikane hauptsächlich bilden – ohne zu unterscheiden, wie die Bedingungen zur Bildung derselben außerhalb dieses Gebietes variieren. Bekannt war, dass eine Kombination hoher Wassertemperatur und geringer vertikaler Windscherung (Änderung der Windgeschwindigkeit mit der Höhe) günstige Bedingungen zur Hurrikan-Entwicklung war. Wassertemperaturen kühler als der Mittelwert zusammen mit einer starken Windscherung ergaben ruhigere Hurrikan-Saisons. Den Wissenschaftlern war auch bekannt, dass Umweltbedingungen, hauptsächlich Wassertemperatur und Windscherung, bestimmen, ob sich atlantische Hurrikane verstärken oder abschwächen, wenn die natürlich vorgegebene, nach Nordwesten gerichtete Zugbahn sie in Richtung US-Küste treibt. Aber der Autor Kossin fragte sich, „welche anderen Umstände es noch geben könnte“. Seine Studie ging einen Schritt zurück und suchte nach damit in Bezug stehenden Umständen im gesamten Becken.

Kossin analysierte zwei Datensätze über drei Perioden von 23 Jahren von 1947 bis 2015. Der erste Datensatz, die Aufzeichnung historischer Hurrikan-Beobachtungen des National Hurricane Center der USA, enthielt sechsstündliche Beobachtungen sowie Informationen zu Ort, maximaler Windgeschwindigkeit und Kerndruck. Der zweite Datensatz, ein Umwelt-Datensatz des National Centers for Environmental Prediction und des National Center for Atmospheric Research, boten einen Eckpunkt der Wassertemperaturen und der Windscherungen im interessierenden Zeitraum. Alles in allem gilt: wenn sich in den Tropen viele Hurrikane bilden – während Perioden mit geringer Windscherung und hohen Wassertemperaturen im tropischen Atlantik – führt dies auch zu einer Lage, bei der jene Hurrikane an Energie verlieren, falls sie sich der Küste nähern. Sie finden dort nämlich eine ungünstige Umgebung vor in Gestalt größerer Windscherung und niedrigerer Wassertemperatur. „Sie müssen durch eine Zone hoher Scherung, und viele verstärken sich dann nicht weiter. Es ist ein natürlicher Prozess, der das US-Festland bedrohende Hurrikane im Zaum hält“.

Welche Implikationen ergeben sich daraus für US-Küstengebiete? „Es sind gute Nachrichten“, sagt Kossin, „Stärkere Aktivität führt zu größerer Bedrohung, aber gleichzeitig erhöht sich unsere schützende Barriere. Es ist ziemlich faszinierend, dass es so funktioniert“. Die Daten zeigen, dass wir auf dem Weg in eine weitere ruhigere Periode in dem Becken befinden, wo jedoch geringere Aktivität Hand in Hand geht mit geringerer Windscherung entlang der Küste, was der schützenden Barriere zusetzt. Folge: während sich weniger Hurrikane der Küste nähern, können jene, die es tun, viel stärker sein, und zwar im Bereich der Kategorien 3 bis 5. Die Bedrohung einer rapiden Verstärkung ist höchst relevant für die Gesellschaft, vor allem für diejenigen, die an dicht besiedelten Küstenlinien wohnen, wo die Vorlaufzeit für Warnungen und Evakuierungen kurz sein kann. „Kenntnis über die Relation zwischen tropischer Aktivität und Küsten-Bedingungen, welche die Küste entweder schützen oder verwundbarer machen, kann uns helfen, uns besser auf zukünftige Übertritte auf das Festland vorzubereiten“.

Wie aus jeder Forschungsstudie ergeben sich auch aus dieser weitere Fragen. Zum Beispiel, wie kann der Klimawandel diese Relation beeinflussen? Andere Studien haben Kossin zufolge einen Anstieg der Wassertemperaturen dokumentiert – was dem anthropogenen Klimawandel zugeordnet wird. Aber der Trend der Wassertemperatur scheint keine großen Auswirkungen auf die Hurrikan-Aktivität in Küstennähe zu haben, zumindest nicht während der letzten 70 Jahre. Dies könnte unter die Rubrik „Klima-Überraschung“ fallen, falls die die Schutzbarriere stützenden Umweltbedingungen während aktiver Perioden durch den Klimawandel beeinträchtigt werden. Es ist gut möglich, dass Änderungen des Klimas die natürliche Barriere beeinflussen können, womit folglich die küstennahen Risiken signifikant zunehmen können.

Link: http://www.kaltesonne.de/antikorrelation-von-haufigkeit-und-starke-von-hurrikanen/

Beitrag zuerst erschienen im Blog „Die Kalte Sonne“ Übersetzung der (kursiv gesetzten) englischen Passagen durch Chris Frey EIKE




Natürlich darf man das Klima ignorieren, etwa wenn man seine Enkel nicht mag

Wahlkampf: Niemand redet über das Wetter

über den Klimawandel, Parteien und Populismus und durfte sich ihren Frust direkt von der Seele in die SZ schreiben.
Zuerst beklagt sie sich, weil im Wahlkampf die „größte globale Bedrohung“ fast gar nicht erwähnt wird und kommt zu dem Schluss, dies sei „Populismus, der die Gunst der Massen im Schweigen sucht“.
Nach diesem Beleg des Gespürs für subtile Sprachgewalt folgt die als Artikelüberschrift gewählte Zeile mit den Enkeln.

Natürlich darf man der Ansicht sein, dass das Klima keiner weiteren Maßnahmen bedarf“

ist dazu die Einleitung. In spitzer Logik folgt danach eine Darstellung, dass man Nachlässigkeit im Klimaschutz – den Begriff „Klimaleugnen“ wagt die Redakteurin gar nicht zu denken – in unserer freien Gesellschaft zwar darf, weil die Folgen für die Klimazukunft unseres Planeten aber doch unwiderlegbar klar sind, es natürlich ein Verbrechen ist.
[4] „ … natürlich darf man der Ansicht sein, dass das Klima keiner weiteren Maßnahmen bedarf. Vielleicht, weil man seine Enkel sowieso noch nie mochte, die verzogenen Gören. Weil man Wissenschaftlern aus Prinzip misstraut oder weil man bedingungslos daran glaubt, dass künftige Technik es schon richten wird …“.
Und dann folgt die „Abrechnung“ mit den politischen Akteuren unserer Parteien, welche sich – was ja wirklich etwas sonderbar ist und von Herrn Lindner sogar in einem Tweet bemängelt wurde-,


bei Aussagen zum Klimaschutz vehement zurückhalten, so man von den GRÜNEN mit ihrem urgewaltigen Wahlslogan: „ENWEDER SCHLUSS MIT KOHLE ODER SCHLUSS MIT KLIMA“ absieht.

Die Redakteurin verwechselt dann Kohlenstoff und Stickoxide, beziehungsweise wirft beides in einen gemeinsamen Klimatopf. Es zeugt nicht von viel Nachdenken, Frau Merkel wegen des (noch) Zulassens von Dieselfahrzeugen mit der Begründung anzuprangern, sie stelle den Diesel als „ganz tolles Klimaschutzinstrument hin“. Einmal hat Frau Merkel dazu ihre Meinung längst gedreht, und zudem war der Diesel unter dem Gesichtspunkt der CO2-Minderung immer die „Rettung“ für die von der EU erlaubte CO2-„Flotten-Ausdünstung“ eines Herstellers. Er wird aktuell nicht wegen dem CO2, sondern wegen der Stickoxide angeprangert. Diese haben mit dem Klima aber nichts zu tun, sondern mit einer anderen Hysterie.

Das war es dann aber auch schon mit Merkel Kritik, denn viel schlimmer ist die FDP:
[4] „Warum muss die so erfolgreiche FDP nicht öfter erklären, wie sie sich das mit dem Klimaschutz vorstellt, wenn sie doch laut Wahlprogramm gegen das Erneuerbare-Energien-Gesetz, gegen feste Emissionsziele und gegen einen staatlich gelenkten Ausstieg aus dem Verbrennungsmotor ist?“

Schwere Fragen, welche da gestellt werden. Sie nötigen, einmal selbst im Wahlprogramm der FDP nachzusehen.
FDP Wahlprogramm 2017: Weltweite Klimaschutzpolitik
Wir Freie Demokraten treten für eine vernünftige, international abgestimmte Politik auf Basis des Klimaschutzabkommens von Paris ein und lehnen nationale Alleingänge ab. Wir wollen den Emissionshandel als globales Klimaschutzinstrument weiterentwickeln und dafür internationale Kooperationspartner gewinnen …
Also, zur Klimaschutzpolitik steht wirklich alles drin, auch die Vorstellungen dazu. Und das wichtigste Anliegen der Redakteurin wohl auch: Die FDP bejaht den Weltklimavertrag (man will ja koalitionsfähig werden). Wie man dieses an allen Ecken und Enden stümperhafte Vertragswerk [1] überhaupt „vernünftig“ umsetzen kann, das sollte die FDP ruhig einmal erklären, war aber von der Redakteurin wohl nicht als Frage gemeint.

Folgt das EEG.
FDP Wahlprogramm 2017: Neustart in der Energiewende
… Eine Politik, die rechnen kann, bringt das Wünschenswerte mit dem Machbaren in Einklang. Die Energiewende ist das genaue Gegenbeispiel dazu: Das Wünschenswerte wird ohne Rücksicht auf das Machbare verfolgt, ohne dass es dabei erreicht würde. Wagen wir also einen Neustart bei der Energiewende!
Aha, da ist ein Haken zu finden. Eine Befürwortung, aber mit Einschränkungen, schlimmer noch, mit Rücksicht auf Machbares. So etwas kennt man von der GroKo nicht. Für die ist alles machbar, was sich Politik wünscht. Da das EEG bisher am Klimaschutz nach deutscher Lesart, also sturer CO2 Vermeidung sowieso keinen Erfolgsanteil hat, aber eigentlich auch zu verschmerzen.

Emissionsziele
FDP Wahlprogramm 2017: Stärkung des EU-Emissionshandels für den Klimaschutz
Bessere Impulsgeber für klimafreundliche Innovationen sind ein weltweiter Preis für CO2-Emissionen, langfristig verlässliche Emissionsziele und unternehmerische Flexibilität beim Handel mit den Emissionszertifikaten.
Es ist oft schwer, stichwortartig gestellte Fragen mit blumig gesetzten Wahltexten in Einklang zu bringen. Aber groß kann der Unterschied zwischen „verlässlichen“ und „festen“ Emissionszielen ja nicht sein. Die GroKo hat bisher feste, welche nicht eingehalten werden. Die Forderung nach „verlässlichen“ erscheint da doch eher als Fortschritt, denn als Mangel.

Staatlich gelenkter Ausstieg aus dem Verbrennungsmotor
FDP Wahlprogramm 2017: Für den Wettbewerb neuer Technologien
Denn wir sehen in staatlicher Investitionslenkung, wie beispielsweise der zwangsweisen Einführung von Elektroautos durch ein Verbot von Verbrennungsmotoren, keine geeignete Klimaschutzstrategie.

Nun, warum die FDP gegen den staatlich gelenkten Ausstieg aus dem Verbrennungsmotor ist, steht auch drin. Die wirkliche Frage, was ein Ausstieg aus dem Verbrennungsmotor dem Klima nutzen soll, begründet die Redakteurin ja nicht.
Bleibt somit die neue Frage, ob die SZ-Redakteurin das Wahlprogramm der FDP überhaupt gelesen hat.

Der Autor sieht sich jedoch in seiner Einschätzung [2] bestätigt. Die wirkliche Frage beim Klimaschutz stellt auch die FDP nicht: Welchen wirklichen „Klimaerfolg“ hat überhaupt die CO2-Vermeidung? Als Hinweis: Das globale, deutsche CO2-Minderungsprogramm 2020 „rettet“ die Welt vor gerade einmal 0,0005 °C pa [3] – sofern es wirklich so viel ist.

Im Paris-Abkommen hat Deutschland Emissionsminderungen zugesagt, die ohne deutliche Änderungen in Wirtschaft und Lebensstil nicht zu erreichen sein werden

Nun kommt die Redakteurin auf den wahren Punkt. Sie outet sich (was man natürlich schon nach den ersten Zeilen vermuten konnte und weil es sonst auch niemals in der SZ stehen würde) als bedingungslos Klimaalarm-gläubig.
[4] „Aber der Klimawandel ist nicht nur ein langfristiges Problem. Er ist längst spürbar, in Hitzeperioden und extremen Unwettern“.
Da sind sie wieder, die Sätze, welche irgendjemand einmal geschrieben hat, und seitdem wirklich endlos als „Beleg“ gebracht, aber nie hinterfragt werden [2]. Alleine, dass sie andauernd wiederholt werden, weist ja aus, dass sie „wahr“ sein müssen.

Allerdings, dem Schlussabsatz kann der Autor endlich zustimmen: [4] „Man kann von seriösen Politikern erwarten, dass sie sich dazu äußern, wie das alles funktionieren soll, auch wenn ein paar unerfreuliche Nachrichten dabei heraus kommen. Wer sich davor um der Gunst der Massen willen drückt, der ist, so lange es kein besseres Wort dafür gibt, ein Populist der Verharmlosung.“
Eigentlich müsste die Redakteurin dem Autor dieser Zeilen um den Hals fallen. Genau das prangert er ebenfalls (neben vielen, vielen anderen EIKE-Autoren) regelmäßig an. Im Gegensatz zu ihr versucht er jedoch seine Aussage immer mit Fakten zu begründen und zu erklären. Das hat der Autor im SZ-Artikel vermisst.

Normalerweise würden nun die „harten Fakten“ [2] folgen. Diesmal soll der Artikel aber nur (wieder) zeigen, wie subtil unsere Medien die Öko-Gehirnwäsche betreiben. Da passt es, dass immer vehementer das Wahlrecht ab 14 Jahren gefordert wird:
Willkommen bei U18 – der Wahl für Kinder und Jugendliche!
Als Projekt der politischen Bildung setzt sich
U18 dafür ein, dass Kinder und Jugendliche unter 18 Jahren wählen gehen und sich damit politisch laut und sichtbar ausdrücken. U18 ist offen offene und niederschwellig gestaltet. U18 eignet sich deswegen besonders für selbstorganisierte Kinder- und Jugendaktionen. Politische Bildung wächst aus Neugierde und Eigeninitiative, für sich selbst und Gleichaltrige.
Organisiert und getragen wird die
U18-Initiative vom Deutschen Kinderhilfswerk, dem Deutschen Bundesjugendring, den Landesjugendringen, vielen Jugendverbänden und dem Berliner U18-Netzwerk. Gefördert wird U18 zur Bundestagswahl 2017 durch das Bundesministerium für Familie, Senioren, Frauen und Jugend sowie die Bundeszentrale für Politische Bildung.
Bayerischer Jugendring: Wählen ab 14 Der Bayerische Jugendring setzt sich für eine Absenkung des Wahlalters auf 14 Jahre ein, um die Politik dazu zu bewegen, sich stärker mit den Themen von Jugendlichen zu beschäftigen.“
Natürlich gibt es dazu genügend „Wissenschaftler“, welche diesem Alter bereits ausreichend politische Reife bescheinigen.
Prof. Klaus Hurrelmann Jugendforscher, Univ. Bielefeld in „Das Parlament“ 44/2005:
Mit etwa zwölf Jahren ist eine stabile intellektuelle Basis erreicht, auch eine grundsätzliche soziale und moralische Urteilsfähigkeit ist gegeben. Von diesem Alter an ist es möglich, politische Urteile zu treffen; es wäre auch möglich, sich an Wahlen zu beteiligen.
Die ehemalige Familienministerin, Frau Renate Schmidt, brachte es in einem Interview einmal auf den Punkt: Meine Enkel haben alle die gleichen politischen Ansichten wie ich, das zeigt die Reife von Jugendlichen.

Diese Jugendlichen sind nicht in der Lage, Informationen, wie sie beispielhaft die SZ unter „WISSEN“ anbietet, auf ihren Wahrheitsgehalt zu prüfen. Sie glauben es einfach, weil ein Medium in Deutschland doch „niemals etwas Unwahres schreiben würde“ und wenn einmal, würde es sicher sofort korrigiert (das glauben allerdings auch viele Erwachsene).

Anfügung

Zur Süddeutschen Zeitung und (nicht nur ihrem) Vorgehen bei der Leserbeeinflussung erschien gerade ein Artikel:
Ruhrkultour: Das PIK und die obszöne Kritik an Windkraftgegnern
… In einer noch nicht veröffentlichten Studie des PIK werden Windkraftgegner und Kritiker der Energiewende als Wissenschaftshasser bezeichnet. Sie werden vom PIK und der Süddeutsche Zeitung diffamiert und mit oder ohne AfD nationalsozialistischem Gedankengut zugeordnet.

Quellen

[1] EIKE 04.10.2016: Klimavertrag von Paris im Bundestag erreicht 100 % Zustimmung. Die DDR Volkskammer lässt grüßen
[2] EIKE 08.09.2017: Die Generalsekretärin der FDP geriet in die Fänge des KLIMA-LÜGENDETEKTORS – anbei ein Rettungsversuch

[3] EIKE 05.09.2015: Nachgefragt: CO2 Vermeidung als gesellschaftliche Aufgabe – Aber bitte nicht nach dem Sinn fragen

[4] Süddeutsche Zeitung Nr. 208 vom 09. / 10. September 2017: Rubrik WISSEN, Wahlkampf Niemand redet über das Wetter




Weltklimarat IPCC vor der Pleite?

Das jährliche Budget des Weltklimarates IPCC beträgt rund sechs Millionen Dollar, schwankt aber von Jahr zu Jahr. Rund 44 Prozent des Geldes steuerten bisher die USA bei, teils auch als Folge der schlechten Zahlungsmoral der Mitglieder. Einige Länder sind ihren Verpflichtungen nicht nachgekommen. Nun will auch US-Präsident Donald Trump den Beitrag der USA zusammenstreichen.

Die finanzielle Lage des Weltklimarats habe sich in den letzten Jahren besorgniserregend verschlechtert. Der IPCC benötigt neues Geld. Als mögliche neue Einnahmequellen sieht der IPCC das Crowdfunding sowie gemeinnützige Stiftungen. Also spenden Sie.

Übernommen von ScienceSceptical hier

Anmerkung der EIKE Redaktion:

Eine gute Nachricht! Hier die Tondatei (mit Dank an R. Hoffmann) des Schweizer Rundfunks, die darob sehr verwundert und wohl auch verärgert sind. Die Schweiz will ihren Beitrag erhöhen, vermutlich wird D den Rest übernehmen. Peanuts!




Werden Hurrikane immer heftiger?

Ein kurzer Blick in die offiziellen Wetterdaten, die jeder aus dem Internet herauskopieren kann und 15 Minuten Excel genügen, um Klarheit zu schaffen:

Was wir sehen, verwundert: seit 50 Jahren nimmt die Stärke der atlantischen Hurrikane ab anstatt zu. Die offiziellen US-Statistiken belegen es. Ja, vor 12 Jahren, so um 2005 herum, da gab es eine schlimme Häufung, aber dann war erstmal wieder für lange Jahre Ruhe.

Häufigkeit Nordatlantischer Wirbelstürme, Grafik Fritz Schmitz

Die Medien behaupten aber das Gegenteil, alles würde immer schlimmer. Das ist Fake News Nummer 1 – hiermit widerlegt durch eine total simple Auswertung der Originaldaten.

Und im gleichen Atemzug hören wir von den Medien Fake News Nummer 2: „Der Klimawandel ist schuld daran“. Also  die Erderwärmung. Aber auch die wird von den renommiertesten Wissenschaftlern anhand offizieller Messungen der Erdtemperatur bezweifelt, denn seit 1998 ist die Erdtemperatur nicht mehr gestiegen. Wie z.B. die NASA seit rund 20 Jahren gemessen hat. Auch diese Daten sind veröffentlicht, werden aber von unseren Medien ängstlich verschwiegen.

Obendrein wird konstant behauptet, der Mensch sei an der Klimaerwärmung schuld – das ist Fake News Nummer 3. Seien wir ehrlich: wenn schon die Hurrikane nachlassen und wenn es realiter gar keine Erwärmung gibt, wie – Gott im Himmel – soll der Mensch an diesem nicht real existierenden Hurrikan-Trend schuld sein?

Fazit: Offenbar werden wir belogen. Kurz vor der Wahl ist das verständlich, aber es ist ein schlimmes Zeichen für den Zustand unserer Mediendemokratie. Für die Medien gilt: „Only bad news are good news“, und die Politik erliegt immer der Versuchung, sich mit den Medien zu verbünden und sich als Retter der bedrohten Welt zu präsentieren. Nicht zu vergessen ist natürlich auch der massive Einfluss der Klima-Lobby, die im trauten Dreiklang mitposaunt.