1

Was wissen wir über die Trends des arktischen Meereises?

Diese Änderung des arktischen Klimas wird oft als Beweis angeführt, dass die Menschen einen drastischen Klimawandel verursachen. Zum Beispiel wurde am 29. April 2017 in einem Artikel im Economist impliziert, dass das arktische Eis ungewöhnlich schmilzt, dramatisch und besorglich:

Das Abschmelzen erfolgt weitaus schneller als einst erwartet. Während der letzten drei Jahrzehnte ist die Eisausdehnung der Arktis um die Hälfte und dessen Volumen um drei Viertel zurückgegangen … Man schätzt, dass die Arktis bereits im Sommer 2040 eisfrei sein könnte. Bisher war man von dem Jahr 2070 ausgegangen.

Wie auch immer, ist die Satellitenaufzeichnung seit 1978 lang genug, um uns die folgenden Fragen zu beantworten?:

1. Wie ungewöhnlich (oder normal) sind die jüngsten Trends?

2. Können wir bestimmen, wie viel des derzeitigen Klimawandels auf das Konto der Menschen geht und wie viel davon natürlichen Ursprungs ist?

Vor Kurzem haben wir im Hydrological Sciences Journal (HSJ) eine Studie veröffentlicht, in welcher wir das arktische Meereis bis zurück zum Jahre 1901 abschätzten, wobei wir verschiedene Datenquellen vor der Zeit der Satelliten herangezogen haben (Abstract hier).

HSJ hat diesen Artikel als einen ihrer „Featured Articles“ eingestuft, was bedeutet, dass er während eines begrenzten Zeitraumes heruntergeladen werden kann: hier. Aber falls man diesen Beitrag nach diesem Zeitraum liest und keinen Zugang ohne Zahlschranke mehr hat, kann man ein Vorab-Druck hier herunterladen.

In unserer Studie sind wir zu dem Ergebnis gekommen, dass der jüngste Rückzug des arktischen Meereises während der Satelliten-Ära tatsächlich einer Periode mit Eiszunahme Mitte der vierziger Jahre gefolgt ist, welche wiederum einer anderen Rückzugsphase während der zehner Jahre folgte. Dies zeigt, dass das arktische Meereis wesentlich dynamischer ist als man denken könnte, wenn man sich allein die Satellitenaufnahmen anschaut (wie es der Economist oben getan hat). Also werden wir in diesem Beitrag detaillierter darauf eingehen, was wir gegenwärtig über Trends des arktischen Meereises wissen.

Meereis-Trends während der Satelliten-Ära

Die Satellitendaten bzgl. der Meereisausdehnung in der Arktis und um die Antarktis können vom US National Snow & Ice Data Center (NSIDC) hier heruntergeladen werden. In den folgenden Graphiken plotteten wir die jährliche Meereis-Ausdehnung aus dieser Satelliten-Ära sowohl für die Arktis als auch für die Antarktis. Zum Vergleich sind die Temperaturtrends in der Arktis seit 1900 eingetragen (übernommen aus unserem HSJ-Beitrag).

Wir erkennen: Jawohl, die mittlere Ausdehnung des arktischen Meereises hat seit Beginn der Satellitenaufzeichnungen allgemein abgenommen. Jedoch hat die Ausdehnung des Meereises um die Antarktis im gleichen Zeitraum allgemein zugenommen. Wenn wir jedoch unser Augenmerk auf die viel längeren Temperaturaufzeichnungen aus der Arktis lenken, können wir sehen, dass dies keine Überraschung ist. Seit Ende der siebziger Jahre (also zu Beginn der Satellitenaufzeichnungen) hat sich die Arktis erwärmt, aber dies folgte einer Periode der Abkühlung in der Arktis von den vierziger bis Anfang der siebziger Jahre! Mit anderen Worten, hätten die Satellitenaufzeichnungen in den vierziger Jahren begonnen und würde das arktische Meereis mit den Temperaturen zusammenhängen, hätten wir vermutlich eine Periode mit Meereis-Wachstum gefunden.

Änderungen des arktischen Meereises vor der Satelliten-Ära

Einer der Gründe für das große Interesse an Meereis-Aufzeichnungen auf der Grundlage von Satelliten-Beobachtungen ist der Umstand, dass die meisten Gebiete des Planeten kontinuierlich überwacht werden. Aber man hat das arktische Meereis auch vor der Satelliten-Ära überwacht mittels zahlreicher Messungen an Landstationen, von Schiffen, U-Booten Bojen und Flugzeugen.

Während der neunziger Jahre und zu Beginn dieses Jahrhunderts haben die Professoren Walsh und Chapman versucht, einige dieser Messungen vor der Satelliten-Ära zu kombinieren, um die Satellitenaufzeichnung rückwärts bis zum Beginn des 20. Jahrhunderts zu erweitern. Man erkennt in der Abbildung unten, dass ihre Schätzungen implizierten, dass es vor der Satelliten-Ära praktisch keine Variabilität gegeben hatte!

Viele Jahre lang war der „Walsh and Chapman“-Datensatz als ziemlich zuverlässig und genau eingeschätzt worden. Er fand in der wissenschaftlichen Gemeinschaft weithin Verwendung.

Wie man aus dem folgenden Videoclip erkennen kann [der hier aus urheberrechtlichen Gründen nur als Link angegeben ist] wurde er sogar in dem Al-Gore-Fil „An Inconvenient Truth“ aus dem Jahr 2006 gezeigt, obwohl Gore da etwas durcheinander gebracht zu haben scheint, welche Daten er eigentlich zeigt, behauptet er doch, dass die Walsh & Chapman-Graphik auf „Messungen der Eisdicke von U-Booten“ beruht.

https://www.youtube.com/watch?v=vTFuGHWTIqI

Übrigens haben wir den Verdacht, dass die von Gore erwähnten U-Boot-Messungen vermutlich diejenigen von Rothrock et al. (1999) sind (hier ohne Zahlschranke), aber jene Messungen sind viel mehr begrenzt als Gore impliziert, und sie wurden bereits im Jahre 1999 veröffentlicht. Damit ist unklar, warum Gore sich bemüßigt fühlte, „sie zur Veröffentlichung zu überreden“.

Als wir jedoch detailliert auf die Daten vor der Satelliten-Ära schauten, erkannten wir, dass es bei den Walsh & Chapman-Schätzungen ernste Probleme gab.

Das Hauptproblem ist, dass die Daten vor der Satelliten-Ära sehr limitiert sind. Falls ein Schiff durch ein bestimmtes Gebiet während einer bestimmten Jahreszeit fährt, hätten diese Auskunft geben können über das Eis in jenem Gebiet oder ob es eisfrei war. Aber was macht man, wen dort nie Schiffe gefahren (oder Flugzeuge geflogen) sind?

Es scheint, dass in vielen Fällen, wenn Walsh & Chapman Messungen aus einem bestimmten Gebiet vorliegen haben, sie im Grunde am Ende davon ausgingen, dass jene Regionen mit Eis angefüllt waren!

Zum Beispiel zeigt die Karte links in der Abbildung unten die von Walsh & Chapman herangezogene Hauptdatenquelle für August 1952. Es ist eine Schätzung der arktischen Meereis-Ausdehnung, welche vom Danish Meteorological Institute (DMI) vorgenommen worden war. Die roten Linie auf der Karte zeichnen die Eisgrenzen nach, wo das DMI tatsächlich Messungen durchgeführt hat – in diesem Falle zumeist um Grönland und Ostkanada. Die weißen Regionen auf der übrigen Karte zeigen Gebiete, in denen „Eis angenommen wurde, ohne dass man Informationen dazu habe“. Mit anderen Worten, das DMI hat geraten, dass es dort Eis geben könnte, aber man wusste es beim DMI nicht!

Dieser Zeitraum lag mitten im Kalten Krieg, und leider gab es kaum Datenaustausch zwischen der Sowjetunion und westlichen Ländern wie Dänemark. Also lagen dem DMI praktisch keinerlei Informationen aus dem russischen Sektor der Arktis vor. Allerdings haben die Russen zufälligerweise ihre eigenen Beobachtungen des russischen Meereises durchgeführt mittels Luftaufklärung, Schiffen, Bojen usw. Im 21. Jahrhundert haben einige russische Wissenschaftler angefangen, diese Daten zu digitalisieren und zu veröffentlichen. Die Karte auf der rechten Seite zeigt die russischen Beobachtungen für genau den gleichen Monat (August 1952). Die blauen Gebiete waren eisfrei, die weißen Regionen mit Eis angefüllt. In den grau gefärbten Gebieten wurden keine Messungen durchgeführt.

Erkennen Sie, dass alle Regionen der von den Russen überwachten sibirischen Arktis eisfrei waren, während das DMI sie mit Eis angefüllt vermutet hat?

Die Schätzungen von Walsh & Chapman vermuteten, dass die vom DMI geratenen Eisverhältnisse genau waren, aber das war keineswegs der Fall!

Jetzt müssen wir erwähnen, dass während der Zeit, in der wir unsere Studie sowohl mit den Russischen Daten als auch mit den DMI-Daten durchführten, Walsh & Chapman ihre Schätzungen aktualisiert haben. Und der neue Walsh et al.-Datensatz zieht den russischen Datensatz ebenfalls heran (hier).

Wie wir in der Studie besprechen, endet ihr Verfahren jedoch immer noch in der effektiven Vermutung, dass die meisten Gebiete ohne Beobachtungen „mit Eis angefüllt“ waren! Unserer Ansicht nach ist das eine sehr unkluge Vermutung, vor allem für die ersten Jahre, als es nur sehr wenige Beobachtungen gab.

Wir erkannten also, dass die Daten aus der Vor-Satelliten-Ära neu kalibriert werden mussten, um den begrenzten Beobachtungen und auch den Änderungen in den verschiedenen Datenquellen Rechnung zu tragen (Flugzeuge vs. Schiffe und Bojen usw.) – für verschiedene Gebiete und Zeiträume. Für eine detaillierte Diskussion unseres Re-Kalibrierungs-Verfahrens empfehlen wir, unsere diesbezügliche Studie zu lesen. Das Abstract findet sich hier. Aber im Wesentlichen nutzten wir die Temperaturaufzeichnungen der Arktis von Wetterstationen auf dem Festland um sicherzustellen, dass die Meereis-Messungen jeder einzelnen Datenquelle eine ähnliche Reaktion zeigen auf Änderungen der Temperatur in der Arktis wie jene, welche während der Satelliten-Ära beobachtet worden waren.

Nach der Neukalibrierung erhielten wir das folgende Ergebnis einschließlich der Fehlerbalken:

Dabei sind verschiedene Phänomene zu beachten:

Während das arktische Meereis in der Tat allgemein abgenommen hat seit Beginn der Satelliten-Ära, folgte dies zufällig einer Periode mit arktischem Meereis-Wachstum von den vierziger bis zu den siebziger Jahren!

Tatsächlich scheint die Arktis regelmäßig zu alternieren zwischen Perioden mit Meereis-Zunahme und -rückzug. Dies unterscheidet sich so ziemlich von den Schätzungen zuvor von Walsh & Chapman, welche implizierten, dass sich das arktische Meereis vor der Satelliten-Ära kaum veränderte!

Falls wir die Fehlerbalken ignorieren, könnte man vielleicht argumentieren, dass die jeweiligen Meereis-Ausdehnungen seit 2005 geringer sind als seit 1901. Allerdings sollten wir die Fehlerbalken nicht ignorieren. Wir erkennen, dass die Fehlerbalken der Vor-Satelliten-Ära niedriger sind als die größeren Fehlerbalken während der gesamten Satelliten-Ära. Mit anderen Worten, die gegenwärtig niedrigen Werte sind immer noch konsistent mit unseren Schätzungen aus der Vor-Satelliten-Ära.

Ein brauchbarer Test der vom IPCC verwendeten globalen Klimamodelle (mit der Bezeichnung „CMIP5“-Modelle) ist deren Fähigkeit, arktische Meereis-Trends im Nachhinein abzubilden [„hindcast“]. Eine „Nachhersage“ ist eine „Vorhersage“, welche zeitlich zurück verläuft.

Unten vergleichen wir unsere Sommer-Rekonstruktion mit dem Mittel der Nachhersagen der IPCC-Klimamodelle.

Man erkennt, dass die IPCC-Modelle in keiner Weise in der Lage waren, die unterschiedlichen Wachstums- und Rückzugsphasen zu reproduzieren.

Änderungen des arktischen Meereises während der letzten 10.000 Jahre

Während der letzten Jahre haben viele Forscher ein interessantes neues „Proxy“ für die Bedeckung mit arktischem Meereis entwickelt mit der Bezeichnung „PIP-25“. Dieses kann herangezogen werden für die Abschätzung langfristiger Änderungen der Meereisausdehnung. Ein „Proxy“ ist eine Art Messung zur indirekten Abschätzung einiger Eigenschaften – in diesem Falle die arktische Meereisausdehnung.

Im Jahre 2007 bemerkten Prof. Simon Belt und seine Kollegen, dass ein bestimmter Algentyp, der nur im Meereis wächst, eine besondere Gruppe von Molekülen bildet mit der Bezeichnung „IP-25“ – siehe Belt et al. 2007 (Abstract hier, Link zu Google Scholar hier). Ihr Ergebnis: falls das Meereis in einer Region im Sommer schmilzt, sinken einige dieser IP-25 auf den Meeresboden als Teil der Ozean-Sedimente. Falls es jedoch kein Meereis gibt, oder falls das Meereis das ganze Jahr über erhalten bleibt, dann enthalten die Ozean-Sedimente jenes Jahres keinerlei IP-25. Falls man also einen Sediment-Bohrkern zieht für jenes Gebiet, kann man die Gegenwart von IP-25 als Proxy heranziehen für „jahreszeitliches Meereis“, d. h. Eis, dass sich nur zeitweise im Jahr bildet.

Später erkannte man, dass falls IP-25 fehlten, auch das Vorhandensein anderer Phytoplankton-Spezies herangezogen werden konnte, um zu unterscheiden zwischen Perioden mit permanenter Eisbedeckung (weniger Wachstum des Phytoplanktons infolge verringerter Sonnenstrahlung unter dem Eis) und eisfreien Bedingungen (stärkeres Wachstum des Phytoplanktons). Kombiniert man die IP-25 mit Phytoplankton-Messungen in einem ozeanischen Sediment-Bohrkern, hat man eine „PIP-25“-Proxy-Reihe, welche zwischen drei Typen der Eisbedeckung unterscheiden kann:

Permanente Eisbedeckung (wenig IP-25 und wenig Phytoplankton)

Jahreszeitliche Eisbedeckung (hohe IP-25)

Zumeist eisfrei (wenig IP-25, aber viel Phytoplankton)

In Stein et al. (2017) präsentierten Prof. Rüdiger Stein und seine Kollegen die Ergebnisse von zwei neuen PIP-25-Sedimentbohrkernen (aus der Tschuktschen-See und dem Ostsibirischen Meer) und verglichen sie mit anderen zwei Bohrkernen aus früheren Studien in anderen Gebieten der Arktis (einen aus der Laptev-See und der andere aus der Fram-Straße).

Wir haben die Karten unten angepasst an Abbildung 2 von Stein et al. 2017, mit einigen Markierungen, um die Stellen einfacher zu erkennen. Die Karten zeigen die Stelle der vier Bohrkerne relativ zur maximalen bzw. minimalen Meereisausdehnung im Jahre 2015. Die vier Bohrkerne sind ziemlich gleichmäßig in der Arktis verteilt und sollten daher eine vernünftige Schätzung gestatten, wie das Meereis in der gesamten Arktis langfristig variiert hat.

Man beachte, dass alle vier Bohrstellen während des sommerlichen Minimums (am 6. September 2015) eisfrei waren, dass aber drei Stellen während des Winter-Maximums eisbedeckt waren. Mit anderen Worten, an diesen drei Stellen gab es „jahreszeitliche Eisbedeckung“, während die übrige Stelle (in der Fram-Straße) auch zum winterlichen Maximum (am 17. März 2015) außerhalb der eisbedeckten Gebiete lag. Also ist jene Station derzeit „zumeist eisfrei“. Wie wir jedoch gleich sehen werden, zeigen die PIP-25-Sediment-Bohrkerne, dass sich diese Bedingungen mit der Zeit verändert haben.

Für die vier Plots unten haben wir die PIP-25-Ergebnisse für die vier Sediment-Bohrkerne digitalisiert, und zwar von Abbildung 10 in Stein et al. 2017. Grob gesagt zeigen PIP-25-Werte über 0,5, dass das Gebiet zu der Zeit zumeist eisfrei war, während Werte über 0,7 auf permanente Eisbedeckung hinweisen, das heißt also das ganze Jahr über mit Eis bedeckt waren. Werte zwischen 0,5 und 0,7 zeigen, dass es in dem Gebiet „jahreszeitliche Eisbedeckung“ gab, d. h. es war zum winterlichen Maximum mit Eis bedeckt, im sommerlichen Minimum jedoch eisfrei.

Wie oben erwähnt durchlaufen drei der Vier Stellen gegenwärtig „jahreszeitliche Eisbedeckung“, während die Stelle in der Fram-Straße „zumeist eisfrei“ war. Allerdings durchliefen den PIP-25-Daten zufolge während der letzten 10.000 Jahre alle vier Stellen extensive Perioden mit weniger Eisbedeckung ebenso wie extensive Perioden mit viel mehr Eisbedeckung. Im Besonderen scheint die Eisbedeckung an allen vier Stellen vor 6000 bis 8000 Jahren erheblich geringer gewesen zu sein (deutlich vor der Bronzezeit) als es heute der Fall ist.

Dies deutet auf zwei Punkte, die besonders relevant für unsere Diskussion sind:

Arktische Meereis-Ausdehnungen haben sehr viel Variabilität gezeigt während der letzten 10.000 Jahre (mindestens), so dass wir nicht allzu überrascht sein sollten, dass sich die Ausdehnungen seit Beginn der Satellitenaufzeichnungen im Jahr 1978 substantiell verändert haben.

Trotz des weit verbreiteten Glaubens, dass die gegenwärtige arktische Eisbedeckung „ungewöhnlich gering“ ist, scheint es so, als ob die Eisbedeckung vor 6000 bis 8000 Jahren noch deutlich geringer war.

Zusammenfassung

Nach der Neu-Kalibrierung der Daten vor der Satelliten-Ära kommt zum Vorschein, dass das arktische Meereis alterniert hat zwischen Perioden mit Wachstum und Perioden mit Schrumpfung. Die Satellitenaufzeichnungen begannen zufällig am Ende von einer der Wachstumsperioden. Dies hat zu der irrigen Ansicht verleitet, dass der Eisrückgang nach 1978 ungewöhnlich ist.

Die Ergebnisse neuer Meereis-Proxys aus Ozean-Sedimentbohrkernen zeigen, dass die Eisausdehnung in der Arktis während der letzten 10.000 Jahre substantiell variiert hat. Sie zeigen außerdem, dass die arktische Eisausdehnung vor der Bronzezeit noch viel geringer war als heute.

Die gegenwärtigen globalen Klimamodelle sind nicht in der Lage, die beobachteten Änderungen des arktischen Meereises seit 1901 abzubilden. Daher dürften sie die natürliche Meereis-Variabilität erheblich unterschätzen.

Link: https://wattsupwiththat.com/2017/08/17/what-do-we-know-about-arctic-sea-ice-trends/

Übersetzt von Chris Frey EIKE




Das Kartell der Dummheit: Irrenhaus Deutsch­land – Wie wir mit dem Diesel unsere Grund­festen demon­tieren Teil 2, Stickoxide: Die Fehler des Umwelt­bundesamtes – Der tatsächliche Diesel­anteil

In Fortsetzung zum 1. Teil, ein großer Emittent von Stickoxiden ist der Energiesektor. Die Angaben im Netz schwanken von 18% bis 22% für den europäischen Energiesektor. Der Autor legt sich auf die konservative Seite und nimmt 18% als Referenz (http://www.spiegel.de/wissenschaft/mensch/eu-schraenkt-luftverschmutzung-durch-kraftwerke-ein-a-1145385.html). Nach Abb.14 liegt der Gesamtausstoß von Stickoxiden in Europa bei 8,176Mt/a (EU-28). Auf den Energiesektor entfallen demnach 1.472kt Stickoxide/a

7. Zwischenergebnis

In Europa entstehen jährlich durch die Energieerzeugung 1.472kt Stickoxide pro Jahr.

Dieses Ergebnis deckt sich mit den Angaben der Europäischen Umweltagentur EEA, Abb.18.

Abb.18 zeigt die EU-28 Stickoxidemissionen im Jahr 1990 und 2015 in Mt, Quelle: (http://ec.europa.eu/eurostat/statistics-explained/index.php/File:Emissions_of_nitrogen_oxides_by_source_sector,_in_million_tonnes,_EU-28,_1990_and_2015_update.png)

Aus diesem Chart lassen sich ebenfalls die europäischen Stickoxidemissionen der privaten Haushalte entnehmen, die ebenfalls einen sehr hohen Anteil ausmachen. Nach Abb.18 beträgt dieser 1,1Mt.

8. Zwischenergebnis

In Europa entstehen jährlich durch die privaten Haushalte 1,1Mt Stickoxide pro Jahr. Dies ist fast 14-mal so viel, wie alle Diesel-Pkw in Europa nach dem neuen technologischen Standard emittieren.

Ob jetzt die privaten Haushalte von den grünen Männchen verboten werden?

Steht noch ein größerer Baustein der Stickoxidemittenten aus: Die Industrieproduktion. Diese lässt sich ebenfalls aus dem Chart der Europäischen Umwelt Agentur (Abb.18) entnehmen. Dies sind für die EU-28, 0,9Mt Stickoxide/a.

9. Zwischenergebnis

In Europa entstehen jährlich durch die Industrieproduktion (inclusive Energieverbrauch) 0,9Mt Stickoxide pro Jahr.

Fehlt noch der übrige Verkehr. Dies sind alle Benzin-Pkw und alle Nutzfahrzeuge, Busse, Traktoren,…

Nach den Angaben des Umweltbundesamt hat der Diesel-Pkw in Deutschland einen Anteil von 10% der Stickoxidemissionen (Abb.5). Lässt sich dieser Wert auf Europa übertragen. Zur Beantwortung greift der Autor auf zwei weitere Abbildungen zurück: Abb.12 (im Teil 1) und Abb.19.

Abb.19, Quelle: Kraftfahrtbundesamt, zeigt, dass der Diesel in Deutschland einen Anteil an der deutschen Pkw-Flotte von 32% hat. In Europa liegt dieser nach Abb.12 bei 38%. Zu den Daten des Umweltbundesamtes (10%-Anteil der Gesamtemissionen oder 24% der Straßenverkehrsemissionen) kommt demnach ein weiterer Anteil von ca.20%, bezogen auf 10%, so dass in Europa der Dieselanteil an den Stickoxidemissionen bei 12% liegt, bzw. 29% der Straßenverkehrsemissionen.

Nach Angaben der Europäischen Umwelt Agentur EEA emittiert der gesamte Straßenverkehr 3,1Mt Stickoxide im Jahr (Abb.18). Der Diesel-Pkw-Anteil in Europa liegt demnach bei 900kt Stickoxide im Jahr.

STOP!!

Kann dieser Wert stimmen? Ist der Wert plausibel? Denn er wurde aus dem Basiswert, den die UBA als Dieselanteil zu den Gesamtemissionen von 10% abgeleitet. Betrachten wir dazu den vom Autor errechneten Wert von 68,75kt Stickoxide, wenn alle Diesel-Pkw in Europa die derzeit modernste Dieseltechnologie haben, wie derzeit z.B. ein Mercedes E220d.

Abb.10, Quelle: (http://motortipps.ch/fahrzeug-emissionen-immer-noch-zu-hoch/)

In Abb.10 ist zu sehen, dass dieser Wert aus dem Basiswert von 65 mg/km entstanden ist. 900kt / 68,75kt ergibt den 13-fachen (!) Wert, was ganz und gar nicht plausibel ist, wird die Grafik der Abb.10 betrachtet. Dies würde nämlich bedeuten, dass sämtliche derzeit auf den Straßen fahrenden Diesel-Pkw eine mittlere Stickoxidmenge von (65µg x 13) 845mg ausstoßen würden. Dies ist deutlich mehr, als der dort zu findende Maximalwert bei Euro 3. Dies bedeutet:

Die Angaben des UBA zu dem Dieselstickoxidanteil von 10% an den Gesamtemissionen sind falsch.

Wir müssen demnach den Wert manuell ausrechnen, anhand tatsächlicher Daten und nicht von irgendwelchen statistischen Angaben des Umweltbundesamtes.

In Abb. 10 sind die Realemissionen der Diesel-Pkw „Euro 3“ bis „Euro 6“ zu sehen. Um den mittleren Wert zu ermitteln, werden die anteiligen Fahrzeugflottenbestände von „Euro 3“ bis „Euro 6“ benötigt. Diese sind beim Kraftfahrtbundesamt zu finden, Abb.20.

Abb.20, Quelle: (https://www.kba.de/DE/Statistik/Fahrzeuge/Bestand/Ueberblick/2017_b_barometer.html?nn=1133288), zeigt den Anteil von „Euro 4“ bis „Euro 6“. Der fehlende Anteil von 24% entfällt überwiegend auf „Euro 3“.

Mit den Werten unter Abb.20, lässt sich aus Abb.10 der mittlere Stickoxidanteil aller Diesel-Pkw ermitteln. Er liegt bei 632mg/km.

Mit diesem Wert lassen sich die Gesamtstickoxidemissionen der Dieselfahrzeuge in Europa (EU-28) ermitteln:

0,632g/km x 11.000km x 96,16 Mio. Diesel-Pkw = 668kt

10. Zwischenergebnis

Der Diesel-Pkw hat in Europa einen Anteil von 668kt Stickoxide/a und der übrige Straßenverkehr den Anteil von 2.432kt.

Mit den vorliegenden Zwischenergebnissen, lässt sich mit Abb.21, der Gesamt-Diesel-Pkw-Anteil an den europäischen Stickoxidemissionen darstellen.

Abb.21, Quelle: R. Leistenschneider, zeigt die tatsächlichen Stickoxidemissionen in Europa. Der Diesel-Pkw hat gerade mal einen Anteil von 8% (werden die Werte der NASA für die Blitzhäufigkeit zu Grunde gelegt: 7%) an den Gesamt-Stickoxidemissionen. Die Werte beziehen sich dabei nicht auf Herstellerangaben, sondern auf den Realbetrieb. Alle europäischen Diesel-Pkw haben zusammen einen Anteil von 8 (7)%/a an den Gesamtstickoxidemissionen der europäischen Gemeinschaft. Dies ist nur unwesentlich mehr, als alle Blitze in Europa verursachen.

Anmerkung:

In ihrer Pressekonferenz am 25.04.2017 hatte das Umweltbundesamt eingeräumt, in der Vergangenheit falsch gemessen zu haben und die NOx-Diesel-Pkw-Werte, die sie noch am 31.01.2017 in ihrer Pressekonferenz veröffentlichten, falsch sind. Mit anderen Worten, man wusste im Umweltbundesamt nicht, was man eigentlich macht. Siehe Links unter Abb.29.

Eine bemerkenswerte Aussage und Selbsterkenntnis des Umweltbundesamtes und seiner Ministerin! Der Wert, der am 25.04.2017 der staunenden Öffentlichkeit präsentiert wurde, liegt um 5,5%-Punkte über dem bisherigen Wert, was einer Erhöhung von 8% entspricht. Wird der neue Wert des UBA angesetzt, dann erhöht sich der Ausstoß aller Diesel-Pkw in Europa an den Stickoxide auf 721kt/a. In % erhöht sich der Diesel-Pkw-Anteil auf 8,5%. Der Autor wird diesen Wert jedoch nicht verwenden, auch wenn er die Selbsterkenntnis des Umweltbundesamt und seiner Ministerin sehr gut nachvollziehen kann, denn aus seiner Sicht liegt hier womöglich ein Politskandal vor, wie er später zeigen wird.

Text in Abb.21 zeigt:

Die Blitze in Europa haben nahezu den gleichen Anteil an Stickoxidemissionen wie die gesamte europäische Pkw-Dieselfotte.

Sowohl das Umweltbundesamt, als auch die Europäische Umweltagentur (EEA) beziehen in ihre Betrachtung der Stickoxidemissionen, weder die aktuellen wissenschaftlichen Erkenntnisse (Atmosphären-physikalischen Prozesse – Blitze) aus den Ergebnissen der NASA und des Laurence Livermore Observatoriums ein, noch die EU-eigenen Erkenntnisse des Forschungsprojektes „NOFRETETE“.

Entgegen der Angabe der EEA (Abb.18) kommt der Autor auf einen höheren Stickoxidwert von 8,5Mt/a im Vergleich zu 7,8Mt/a, die die EEA abgibt.

Wie in den Medien zu vernehmen, haben die deutschen Automobilfirmen ihren Kunden eine Umstiegsprämie angeboten, steigen sie auf einen aktuellen Diesel-Pkw der neuesten Technologie um. Der Autor hat sich angesehen, wie sich dadurch der Stickoxidanteil der Diesel-Pkw in Europa ändert (Abb.22).

Abb.22, Quelle: R. Leistenschneider: Der Autor hat sich die Stickoxidemissionsverteilung angesehen, wie diese aussieht, wird die gegenwärtig mordernste Dieseltechnologie, wie sie z.B. in der aktuellen Mercedes E-Klasse (siehe Abb.10 und Berechnung 1. Zwischenergebnis) zum Einsatz kommt, angewendet. Der Anteil der Diesel-Pkw an den europäischen Stickstoffemissionen fällt auf unter 1% (0,8%). Weit weniger, als im Jahr durch Blitze in Europa entstehen.

Kommt in den europäischen Diesel-Pkw die modernste Dieseltechnologie zum Einsatz, wie sie derzeit von der deutschen Automobilindustrie angeboten wird, dann sinken die Diesel-Stickoxidemissionen aller europäischen Diesel-Pkw auf unter 1% der Gesamt-Stickoxidemissionen. Die Zahlenwerte basieren nicht auf den Herstellerangaben, sondern auf dem realen Straßenverkehr.

Zur Beschleunigung der Zukunftsziele, hatte die deutsche Automobilindustrie auf dem „Dieselgipfel“ am 02.08.2017 zugesagt und wendet dies bereits an, allen Kunden eine Umstiegsprämie zu zahlen, wenn diese von ihrem bisherigen Diesel, auf einen neuen umsteigen.

Die Untersuchungsergebnisse zeigen auch, dass die natürlichen Stickoxidemissionen keineswegs vernachlässigbar sind, sondern ein Vielfaches der Diesel-Pkw-Stickoxidemissionen ausmachen. Die deutsche Qualitätspresse hat sich auch hier wieder einmal durch Unkenntnis ausgezeichnet, ist doch folgendes zu lesen: „Gesundheitsschädliche Stickoxide wie etwa Stickstoffmonoxid und -dioxid kommen in der Natur nur in winzigen Mengen vor.“ Hier (http://www.n-tv.de/wissen/Diese-Stoffe-kommen-aus-dem-Auspuff-article16198551.html) oder hier (https://www.welt.de/newsticker/dpa_nt/afxline/topthemen/hintergruende/article163990304/Welche-Folgen-Stickoxide-fuer-unsere-Gesundheit-haben.html). Da kann man nur sagen „Es darf gelacht werden.“ Die modernen Hofnarren Deutschlands: Die Qualitätspresse. Hatte früher nur der König oder Fürst seinen Hofnarren, so hat heute ein jeder seinen Hofnarren in der Qualitätspresse (siehe auch Titelbild, Abb.1 im Teil 1)

1. Fazit

Sowohl die Ist-Betrachtung (Abb.21), als auch die Zukunft-Betrachtung (Abb.22) zeigt, dass wir es nicht mit einem „Dieselgate“, sondern mit einer Dieselmanie zu tun haben. In der die deutsche Qualitätspresse wieder einmal mehr, gar nicht weiß, wovon sie redet.

8% (7%) Stickoxidanteil aller derzeit auf europäischen Straßen fahrender Diesel-Pkw lässt die Frage aufkommen, um was geht es eigentlich bei der aktuellen Dieselmanie in unserem Land? Sicherlich nicht um die Gesundheit der Menschen. Durch die Gewitter werden diese genauso viel oder genauso wenig mit Stickoxide belastet und zwar auch in den Innenstädten. Zumindest ist dem Autor bisher entgangen, das Gewitter etwa die Innenstadt von Stuttgart meiden, zumal die Blitzhäufigkeit in Städten größer als auf dem Land ist. Auch ist ihm dort noch kein Verbotsschild für Gewitter aufgefallen. Für die Deutsche Umwelthilfe (DUH) und ihren Führer Jürgen Resch und die grünen Männchen in Stuttgart hat er vorsichthalber mal einen Entwurf für ein solches Verbotsschild angefertigt. Gerne nimmt der Autor Detailänderungen vor, sollte beiden sein Verbotsschild zusagen.

Abb.23: Vorschlag des Autors an die grünen Männchen in Stuttgart und „ihrer“ (siehe Abb.24) Deutschen Umwelthilfe zu einem Verbotsschild für Gewitter, aufgrund deren vergleichbar hohen Stickoxidemissionen wie von Diesel-Pkw. Und der Geschäftsführer der DUH könnte dann so medienwirksam für das Verbot werben. Soll nur ein Vorschlag sein. Collage: R. Leistenschneider

Abb.24: Jürgen Resch, der Führer der Deutschen Umwelthilfe auf dem Parteitag der Grünen, mit donnerndem Applaus und Standing Ovation. Na, das „Syndikat“ wird immer deutlicher…. Quelle: (https://www.youtube.com/watch?v=MCL-S7jKtYo), Collage: R. Leistenschneider

So war der Geschäftsführer der DUH zu einer Wahlkampfveranstaltung der Grünen in Emden eingeladen, die für diesem Monat angesetzt war, folgender Link: (http://gruene-emden.de/index.php/veranstaltungen/293-zwischen-abgasskandal-und-e-mobilitaet) und folgender Text: „Zu Wort kommen der Geschäftsführer der Deutschen Umwelthilfe, Jürgen Resch, der an der Aufklärung des Abgasskandals maßgeblich mitgewirkt hat; Peter Meiwald, umweltpolitischer Sprecher der GRÜNEN Bundestagsfraktion und Garrelt Agena, GRÜNER Kandidat für den Bundestag.“

Aha, „Aufklärung des Abgasskandals“. Hier liegt wohl eher ein Wahlkampfskandal vor (siehe auch den Artikel des Autors (https://eike.institute/2017/08/17/wahlkampf-2017-in-deutschland-auf-dem-ruecken-von-hunderttausenden-beschaeftigten-millionen-von-kindern-und-familien-die-einmischung-hat-bereits-begonnen/). Versucht der interessierte Webist aktuell den Link zu öffnen, führt dieser ins Leere. Veranstaltung wohl abgesagt und die bereits gedruckten Wahlkampfplakate dazu verschrottet – beides nicht mehr zu finden.

In seinem Artikel; hier (https://eike.institute/2017/07/18/die-dubiosen-machenschaften-der-deutschen-umwelthilfe-und-ihres-fuehrers-juergen-resch/) hatte der Autor dargelegt, dass die DUH und deren Geschäftsführer für unser „Gemeinwohl“ unterwegs sind. Oder ist dies etwa falsch, wie The European als Denkanstoß vermittelt, hier (http://www.theeuropean.de/sebastian-sigler/12575-der-angebliche-dieselskandal)? Ist womöglich Herr Resch als Lobbyist für Toyota (wir erinnern uns, die gehören zu seinen Großspendern) unterwegs und verhilft denen, ihren Hybrid abzusetzen und dazu muss zuerst der Diesel verschwinden. Denn wie der Autor anhand von Testergebnissen von Autobild nachgewiesen hat, hier (https://eike.institute/2017/08/17/wahlkampf-2017-in-deutschland-auf-dem-ruecken-von-hunderttausenden-beschaeftigten-millionen-von-kindern-und-familien-die-einmischung-hat-bereits-begonnen/), ist der Diesel der deutschen Automobilindustrie die deutlich bessere Alternative als der Toyota Hybrid. Sowohl im Verbrauch und damit seiner Umweltverträglichkeit – ein Hybrid braucht zwei Antriebsmotoren, was grundsätzlich die Ressourcen mehr belastet – als auch günstiger im Preis.

Kann doch eigentlich gar nicht sein, dass Gutmenschen als Lobbyisten unterwegs sind und einzig deren und eigene Interessen verfolgen. Das muss doch falsch sein. Also schauen wir weiter, ob in Europa und damit in Deutschland ein Grund für die Diesel-Hatz und deren vermeintlichen Stickoxidemissionen vorliegt. Sind etwa die Stickoxidemissionen in Europa steigend?

Abb.25, Quelle: Europäische Umwelt Agentur, zeigt die europäischen Gesamt-Stickoxidemissionen und deren Entwicklung seit 1990. Der Stickoxidausstoß fällt rapide um 50%.

Liegt etwa auf nationaler Ebene Handlungsbedarf vor? Auch hier hat der Autor bei der EEA nachgeschaut.

Abb.26, Quelle wie Abb.25, zeigt die nationale Stickoxidentwicklung von 1990 bis 2011. Deutschland liegt mit an der Spitze der Stickoxidreduzierung. Über 50% Rückgang! Und seit 2011 sind in Deutschland weitere Maßnahmen zur Reduzierung umgesetzt worden. Die Autos stoßen viel weniger Stickoxide aus, wie Abb. 27 zeigt.

Abb.27, Quelle: (http://www.ifkm.kit.edu/Abgasmessung-Fragen-und-Antworten.php) zeigt die Entwicklung der Stickoxidgrenzwerte für Pkw-Anwendungen in Europa.

Also Fehlanzeige. In Europa sinkt der Stickoxidausstoß rapide (bei den Gewittern bleibt er gleich). Ebenso sinkt der Stickoxid-Ausstoß aus Diesel-Pkw rapide. Also was soll der ganze Zirkus, den Presse, grüne Männchen und deren „grüne Schlägertruppen“ veranstalten? Zirkus, das Schlüsselwort. Wir haben Sommerloch und die Bundestagswahl steht bevor.

Den grünen Männchen und ihrer Partei geht es in Umfragen bekanntlich gar nicht gut. Da verwundert es nicht wirklich, dass diese, mit ihrer Ludendorff-Presse, Themen erfinden, mit denen sich die selbsternannten Gutmenschen als Retter aufspielen, ähnlich in dem Film Illuminati mit Tom Henks, wo der Camerlengo ein Feindszenario aufbaute, was es gar nicht gab, um sich dann als Retter zu präsentieren – er wollte dadurch Papst werden.

2. Fazit

In Europa und in Deutschland sinken die Stickoxidemissionen rapide. Nicht zuletzt ein Verdienst der deutschen Automobilindustrie, deren Diesel-Fahrzeuge, aufgrund von Gesetzesvorgaben, auch im Realbetrieb, immer weniger Stickoxide ausstoßen.

Jetzt weiß der Autor immer noch nicht, was die ganze Diesel-Hatz und damit Auto-Hatz, die Politik und Presse betreiben und damit Millionen (!) Menschen verunsichern, konservative Wirtschaftsführer geschickt in die Nähe von Kriminellen rückt, soll? Ist vielleicht „verunsichern“ das richtige Wort?

Menschen, die in einer sicheren und stabilen Umgebung „zu Hause“ sind, neigen nicht zu (politischen) Experimenten. Sie tendieren zur Stabilität und Berechenbarkeit. Was liegt da für diejenigen, die zur Macht wollen näher, das Stabilitätshaus / die Stabilitätsgemeinschaft zum Einsturz oder zumindest ins Wackeln zu bringen. Und bald ist Bundestagswahl und für die grünen Männchen und den ein oder anderen mehr, sieht es in Umfragen gar nicht gut aus. Wäre es möglich, dass wir uns gegenwärtig in einem „falschen Film“ befinden? In einem Illuminati 2. Nur ohne Tom Henks. Mit Laiendarstellern, auf dem Rücken zigtausender Familien und der Gefahr, dem Standort Deutschland und seiner hervorragenden Reputation im Ausland dauerhaft Schaden zufügen zu wollen? Das alles nur, um ein paar Prozentpunkte bei der Bundestagswahl mehr zu erhalten, damit man sich als (falscher) Retter aufspielen kann? Teuflisch, zynisch, rücksichtslos und menschenverachtend wäre der Plan. Solche Leute hatten wir schon mal im Land. 1990 wurden diese „zu Grabe getragen“. Oder nicht?

Wie auch immer. Eins ist sicher: Der Diesel ist keine „Deckschleuder“, sondern ein Aushängeschild Made in Germany. Der es locker mit Fernost (siehe Abb.28) oder anderen Regionen in der Welt aufnehmen kann. Aber offensichtlich sieht man im wirtschaftlichen Wettbewerb keine Chance, gegen die deutsche Mannschaft in Technologie und Fortschritt, um VW, Porsche, Audi, Mercedes und BMW, anzukommen. Da werden dann die „grünen Schlägertruppen“ gerufen, die mit juristischen Winkelzügen, auf einer total fehlgeleiteten nationalen, wie europäischen Umweltpolitik, mit willkürlichen Grenzwerten, versuchen, die deutsche Mannschaft zu schlagen. Flankiert von einer gleichgeschalteten und wieder einmal, völlig unwissenden oder gar rücksichtslosen Qualitätspresse, ähnlich der Ludendorff Presse, die in den 1920-Jahren dem Bösen in Deutschland den Weg ebnete.

Abb.28, Quelle: (https://www.welt.de/wirtschaft/article147571579/VW-beendet-die-grosse-Epoche-der-Diesel-Autos.html). Dieselland, mit seiner starken Automobilindustrie, ist Europa. Stirbt der Diesel, wird nicht etwa Toyota-Land geschwächt, sondern Europa und mit Europa, Deutschland.

Für wen ist nochmals der Führer der sog. Deutschen Umwelthilfe, die laut NABU gerade mal 3% ihrer Einnahmen / Spendengelder für Umweltprojekte einsetzt und deren Führer Jürgen Resch, unterwegs? Nein, so heißt das bei den Gutmenschen nicht, die doch nur für unser Gemeinwohl unterwegs sind – wie war das nochmals mit dem Osterhasen und dem Weihnachtsmann. Dort heißt dies allenfalls Großspender im Auftrag der Vernunft. Klingt irgendwie nach Robespierre. Richtig, für Toyota, siehe auch (http://www.theeuropean.de/sebastian-sigler/12575-der-angebliche-dieselskandal). Im Toyota-Land spielt der Diesel traditionell keine Rolle und dort wird auch niemandem geschadet, wenn er verschwindet. Den Schaden tragen wir und mit uns, unser Deutschland.

Das Konkurrenten versuchen, mangels eigener technologischer Stärke, Wettbewerber mit unlauteren Methoden auszuschalten, die dazu noch in anderen Ländern sitzen, mag vielleicht noch irgendwie nachvollziehbar sein. Wenn aber die eigene Politik (von der dummen Qualitätspresse = „Nützliche Idioten“, redet der Autor erst gar nicht mehr), diesem Vorschub leistet, dann hört der „Spaß“ auf (Abb.29).

Abb.29 links, Quelle: (http://www.umweltbundesamt.de/presse/pressemitteilungen/luftqualitaet-2016-stickstoffdioxid-weiter) stammt aus der Pressekonferenz des Umweltbundesamts vom 31.01.2017 und Abb.29 rechts, Quelle (http://www.umweltbundesamt.de/presse/pressemitteilungen/stickoxid-belastung-durch-diesel-pkw-noch-hoeher) aus der Pressekonferenz des Umweltbundesamtes vom 25.04.2107.

Wie der Autor bereits angab, hatte das Umweltbundesamt in seiner Pressekonferenz am 25.04.2017 einer staunenden Öffentlichkeit mitgeteilt, dass dort in der Vergangenheit falsch gemessen wurde, was auf Deutsch nichts anderes heißt, das man nicht wusste, was man eigentlich macht – aber Hauptsache, man macht was. Auch, wenn sich diese Selbsterkenntnis des UBA und seiner Ministerin, sich weitgehend mit den Eindrücken deckt, die der Autor bisher vom Umweltbundesamt und seiner Ministerin gewonnen hat, hat er doch so seine Zweifel, ob dies die Beweggründe zum Heraufsetzen der Diesel-Pkw-Stickoxidwerte sind.

Abb.30, Quelle: UBA, 24.04.2017, zeigt die jetzt im „Realbetrieb“ gemessenen Stickoxidemissionen der Diesel-Pkw in Abhängigkeit von „Euro 3“ bis „Euro 6“.

In Abb.31 möchte der Autor unseren Lesern eine Veröffentlichung des Umweltbundesamtes zu den Stickoxidemissionen im Realbetrieb aus dem Jahr 2015 (31.1) und 2016 (31.2) zeigen.

Abb.31.1, Quelle: Umweltbundesamt 2015, aus (http://www.dw.com/de/vda-wir-brauchen-mehr-elektromobilit%C3%A4t/a-18801365) zeigt die ‚Realwerte‘ nach Sicht des UBA, zumindest seiner aus 2015.

Abb.31.2, Quelle: UBA (Quelle: HBEFA 3.2) aus (http://www.anschober.at/presse/artikel/luftbelastung-im-raum-linz/) zeigt die ‚Realwerte‘ aus Sicht des UBA, diesmal aus dem Jahr 2016.

Abb.31.2, Quelle: UBA (Quelle: HBEFA 3.2) aus (http://www.anschober.at/presse/artikel/luftbelastung-im-raum-linz/) zeigt die ‚Realwerte‘ aus Sicht des UBA, diesmal aus dem Jahr 2016.

Werden beide miteinander verglichen, dann sind die Werte für „Euro 3“ identisch (735mg/km), für „Euro 4“ in etwa (505 zu 555), gleiches für „Euro 5“ (603 zu 640). Bei „Euro 6“ liegt hingegen ein deutlicher Unterschied vor (568 zu 400, Angaben in den Klammern, jeweils mg/km). Werden die drei Veröffentlichungen des UBA zu den „Realwerten“ von Diesel-Stickoxidemissionen betrachtet, so dienen diese nicht gerade dazu, Vertrauen in die Angaben und in das Amt zu wecken. Unterscheiden sich die vermeintlichen Realwerte doch tlw. erheblich und der Betrachter fragt sich, was ist denn nun die Wahrheit, wie lange hat den die UBA-Wahrheit vom 25.04.2017 Bestand? Aber betrachten wir auch die Messungen ausländischer Stellen.

Da gibt es die NGO-nahe Vereinigung ICCT. In Wikipedia ist zu lesen: „Das International Council on Clean Transportation (ICCT, deutsch etwa Internationaler Rat für sauberen Verkehr) ist eine gemeinnützige Organisation mit der Aufgabe, erstklassige und von Lobbyisten unbeeinflusste Forschung zu betreiben und technische und wissenschaftliche Analysen für Umweltbehörden zu erstellen.“ Aha: „Gemeinnützige“, wie die DUH.

Abb.32, Quelle: ICCT, zeigt nochmals andere Diesel-Pkw-Stickoxidemissionen. Für eine NGO-Vereinigung nicht wirklich überraschend, durchweg hohe Werte. Und noch eine ausländische Erhebung soll betrachtet werden. Ja, der Autor weiß, der Artikel ist schon recht lang, aber um eine vermeintliche Politaffäre zu untermauern, müssen mehrere Beweislagen angesehen werden.

Abb.33, Quelle: (http://emissionsanalytics.com/euro-6-drives-early-nox-improvement/) zeigt den Realausstoß von Stickoxide.

Im Netz ist zu lesen “…britischen Messspezialisten Emissions Analytics vereinbart. Dieses Unternehmen verfügt nicht nur über die modernste technische Ausrüstung, um den Schadstoffausstoß von Pkw zuverlässig während der Fahrt zu messen. Zugleich hat Emissions Analytics bereits langjährige Erfahrungen und gilt als unabhängig und äußerst kompetent.“ (AMS).

Und noch folgendes:

Abb.34, Quelle: TU Graz aus (http://www.aqconsultants.co.uk/getattachment/Resources/Download-Reports/Emissions-of-Nitrogen-Oxides-from-Modern-Diesel-Vehicles-210116.pdf.aspx).

Bei so vielen unterschiedlichen Messergebnissen im „Realbetrieb“ kann einem ja schwindlig werden. Auffällig ist, dass sachliche Organisationen, wie z.B. Universitäten, aber auch unabhängige Institute, deutlich niedrigere NOx-Werte im Realbetrieb messen, als z.B. NGO-nahe oder das Umweltbundesamt, das in etwa gleich hohe Werte angibt, wie NGOs.

Nun war schon mehrmals vom „Realbetrieb“* die Rede. Einzig die TU Graz hat diesen auf gesplittet in städtisch, ländlich und Autobahn. Was heißt eigentlich „Realbetrieb“? Einen „Realbetrieb“ sozusagen als Norm, wie z.B. die DIN als Deutsche Industrienorm, gibt es natürlich nicht. Dies weiß jeder Autofahrer (siehe Abb.34 und 35), dass Fahrten mit dem Auto immer anders sind: Mal kälter, mal wärmer, mal regnet es, mal fährt man andere Strecken, mal langsamer, mal schneller, mal ist der Verkehr dichter und vieles mehr. Wir haben es bei den Angaben des UBA also mit einer Statistik zu tun und Statistiken kann ein jeder so auslegen, dessen Parameter und Streckenführungen so einstellen, wie es ihm gefällt oder wie es ihm gerade passt und wofür er „seine“ Statistik gerade braucht.

* Wie sehr der Messwert in die gewünschte Richtung verändert werden kann, so dass das Ergebnis herauskommt, welches gerade aus „politischen“ Gründen gebraucht wird, zeigt Abb.35.

Abb.35, Quelle: (https://www.toi.no/environment-energy-and-technology/diesel-cars-have-high-emissions-in-real-traffic-article33388-1314.html), Institute of Transport Economics Norwegian Centre for Transport Research), zeigt, wie enorm die Unterschiede von Warm- und Kaltbetrieb sind. Der Manipulation des Betrachters sind gerade bei den Stickoxidmessungen „Tür und Tor“ geöffnet, da die Rahmenbedingungen beliebig variierbar sind. Im obigen Beispiel wurden die niedrigen Werte (rot) bei +23°C und die hohen Werte (blau) bei -7°C gemessen. Ein jedermann kann sich also die Temperaturen, bei denen er misst, frei wählen und bekommt das Ergebnis, was er will und die Qualitätspresse schreit dann „Untergang des Abendlandes“. Anmerkung: Die untere Reihe zeigt „CO2“ Werte.

„Unheimlich“ wird es, werden die Daten den Umweltbundesamt (Abb.30) mit den Daten des schweizerischen Verkehrsclubs aus Abb.10 verglichen, siehe Abb.36.

Abb.36: Vergleich der Diesel-Pkw-Stickoxide im Realbetrieb UBA 2016 und 2017 mit den Daten des schweizerischen Verkehrsclubs (oben im Bild, vom 08.07.2016!).

Der Vergleich macht stutzig und ist „unheimlich“. Das Umweltbundesamt gibt als Begründung seiner deutlich höheren Diesel-Pkw-Stockoxidwerte vom 25.04.2017, gegenüber seinen eigenen vom 31.01.2017 (siehe Abb.26) an: „Um ein möglichst realistisches Bild der Emissionen zu bekommen, wurden erstmals nicht nur Messungen des betriebswarmen Motors bei Außentemperaturen von über 20 Grad Celsius zugrunde gelegt, sondern das Abgasverhalten der Dieselüber alle Jahreszeiten und für alle in Deutschland üblichen Temperaturen herangezogen.“

Also der Autor glaubt dem UBA ja (fast) alles oder sollte er lieber sagen, mittlerweile gar nichts mehr, aber das bei solch komplizierten Messungen, wie den Realmessungen von Stickoxiden im Fahrbetrieb, mit all seinen jeweils vorgegebenen Fahrzyklen, der 04/2017-Wert des UBA für „Euro 3“, mit dem des schweizerischen Verkehrsclubs von 2016 bis auf den Einer-Zähler exakt übereinstimmt, aber alle anderen „Euro“-Stickoxidwerte des schweizerischen Verkehrsclubs exakt, nein, nicht mit denen des UBA aus 04/2017, sondern mit denen des UBA 2016 übereinstimmen, das glaubt der Autor nicht! Kann es vielmehr sein, dass hier entweder wieder schlampig beim UBA gearbeitet wurde oder liegt hier gar eine vorsätzliche Manipulation der Datenwerte vor und das UBA hat die Öffentlichkeit dann wohl wissentlich belogen?

Der Autor geht nicht so weit wie Sie, Frau Ministerin Hendricks und wirft Ihnen Versagen vor, wie Sie auf dem Dieselgipfel am 02.08.2017 der Automobilindustrie und beschuldigt Sie, Ihr Ministerium und Ihr Amt auch nicht der Täuschung und Lüge der Öffentlichkeit, aber Aufklärung für die folgenden Fragen tut not:

  • Warum die UBA-Stickoxidmesswerte denen von NGOs gleichen, aber nicht denen von Universitäten oder unabhängigen Instituten? Insbesondere bei „Euro 5-6“, der „Schlüsselnorm“ in Bezug der Diskussion / Entscheidung zu Fahrverboten.
  • Wieso die UBA-Stickoxidmessungen vom 04/2017, mit geänderten Messverfahren beim UBA und geänderten Fahrzyklen, für „Euro 4-6“ im Vergleich, deutlich andere, höhere, Werte bringen, aber bei „Euro 3“ nicht?
  • Warum das UBA einen um 25% zu hohen Stickoxidanteil der Diesel-Pkw an den Gesamtstickoxidemissionen ausweist. Dieser liegt derzeit nicht bei 10% oder 11%, wie in der Presskonferenz des UBA vom 25.04.2017 verkündet, sondern tatsächlich nur bei 7,5%

Anmerkung:

Werden in die Gesamtbilanzbetrachtung der Stickoxidemissionen in Deutschland, die Erkenntnisse der NASA und des Laurence Livermore Observatoriums (Blitze) und die Erkenntnisse aus dem EU-Forschungsprojekt „NOFRETETE“ (Wald) mit einbezogen, indem die EU-Werte anteilig auf Deutschland übertragen werden, dann liegt der Diesel-Anteil an den Gesamtstickoxidemissionen bei 6,9%. Das Umweltbundesamt hatte am 25.04.2017 den Diesel-Anteil in seinen Berechnungen erhöht und kommt danach auf einen vermeintlichen Anteil der Diesel-Pkw an den Gesamtstickoxidemissionen in Deutschland von 11%. Das bedeutet, dass das Umweltbundesamt den Anteil der Diesel-Pkw an den Gesamtstickoxidemissionen in Deutschland um fast 40% zu hoch angibt.

Ansonsten könnte sich bei dem ein oder anderen die Frage ergeben, ob etwa zur Hochzeit der Dieseldebatte, mit laufenden Gerichtsverfahren, der Versuch gestartet wurde, in diese einzugreifen und weiter, ob durch das UBA womöglich neue Koalitionspartner, nach der Bundestagswahl im September schon mal hofiert wurden, indem ihnen gerechte „Kost“ vorgesetzt wurde? Das alles zu Lasten von Millionen Autofahrern und -Besitzern, sowie von Millionen von Kindern und Familien in unserem Land, deren Arbeitsplätze schlecht gemacht und damit in Frage gestellt werden. „Liebe“ Frau Ministerin, sollte dies etwa Ihr Anliegen oder das Ihres Hauses gewesen sein, dann kann sich der Autor durchaus vorstellen, dass Sie an der falschen Stelle „fischen“. Die Umfragen zur Bundestagswahl scheinen ihm Recht zu geben.

In der Tat, hatte Frau Hendricks der deutschen Automobilindustrie auf dem Dieselgipfel am 02.08.2017 „Versagen“ vorgeworfen.

Resümee

Nein, hier liegt kein „Versagen“ der Automobilindustrie vor, sondern ganz offensichtlich ein Versagen der Politik, insbesondere der Umweltpolitik (wieder einmal, wie zuletzt beim Feinstaub) und ein Versagen der deutschen Qualitätspresse.

Anmerkung: Der Autor schließt Vorsatz beim UBA und damit Belügen der Öffentlichkeit aus, da das UBA in seiner Pressekonferenz vom 25.04.2017 der Öffentlichkeit mitteilte, bisher immer falsch gemessen und damit schlampig gearbeitet zu haben.

Der Diesel ist kein Umweltkiller, sondern ein technologisches Spitzenprodukt Made in Germany, welches ständig verbessert wird und keinen Vergleich mit Fernost zu scheuen braucht. Aus reinem Eigennutz, zumindest hat es den Anschein, soll dieses technologische Aushängeschild Made in Germany von NGOs, Teilen der Politik und Presse, kaputt geredet werden. Wer Grillliebhaber ist, der setzt sich bei jedem Grillabend einer tausend-mal höheren Stickoxidbelastung aus, als die, an der berüchtigten Messstelle am sog. Cannstatter Tor in Stuttgart, wo die grünen Männchen in Stadt und Land regieren.

Der Gesamtanteil aller europäischen Diesel-Pkw an den Stickoxiden, liegt nur unwesentlich höher, als die Gewitter / Blitze über Europa im Jahr verursachen. Mit einem %-Anteil von gegenwärtig 8% (7%) an den Gesamt-Stickoxid-Emissionen in Europa darf getrost ein gesundheitlicher Einfluss ausgeschlossen werden (siehe Gewittertätigkeit und Wald). Fahrverbote dienen den auch nicht unserer Gesundheit, sondern persönlichen / kommerziellen, sowie politischen Interessen. Die Qualitätsmedien haben einmal mehr unter Beweis gestellt, dass sie von dem, was sie schreiben, nicht die leiseste Ahnung haben. Als der VW-Chef sich beim Dieselgipfel gegen den Vorwurf eines „Versagens der Automobilindustrie“, wie gezeigt, zurecht, wehrte wurde dies in ZDU-heute dahingehend kommentiert, hier läge Uneinsichtigkeit vor.

Meine sehr verehrten Damen und Herren von FDF-heute, da Sie ganz offensichtlich keine Ahnung von der Materie haben und nur dem Mainstream nachhecheln und ganz offensichtlich nicht wissen, was investigativer Journalismus bedeutet, empfiehlt der Autor Ihnen dringend den folgenden Link zu beachten:

https://www.youtube.com/watch?v=5KT2BJzAwbU

Wieder einmal haben unfähige Umweltpolitiker, die mit riesigen Stäben, auf Staats- und damit Steuerzahlerkosten, von einem zum nächsten Umweltgipfel, an teils exklusiven Orten, reisen und es sich dort gut gehen lassen, nicht kapiert, was sie eigentlich zusagen. Leidtragende ist der „Karle vom Band“ und seine Familie und mit ihm abertausende, bis zu konservativen Wirtschaftslenkern, die durch die auf Umweltgipfeln beschlossene Unfähigkeit, in die Nähe von Verbrechern gerückt werden. Was ist bloß los in unserem Deutschland?

Im Teil 1 war vom vermeintlichen Waldsterben in den 1980-Jahren die Rede. Zu seiner Zeit hatte der „Deutsche Michel“ die richtige Antwort auf diesen Unsinn. Er tat seinem Unwillen Ausdruck durch Satire, wie: „Mein Auto fährt auch ohne Wald“. Er ließ sich seine Freude daran nicht von irgendwelchen Dummschätzern oder falschen Heiligen nehmen. Wie wäre es heute mit folgender Satire: „Mein Auto fährt auch ohne Resch“.

Angesichts des offensichtlichen Politversagens im Deutschen Umweltministerium, wäre es womöglich besser, dieses aufzulösen und seine Ressorts dorthin anzulagern, wo Politik für unser Land und seine Bevölkerung gemacht wird: Zum Wirtschaftsministerium, bzw. dem Landwirtschaftsministerium.

Bald sind Bundestagswahlen, der Autor weiß, wem er seine Stimme gibt, sicherlich nicht denen, die dem „Karle vom Band“ den Job und damit seinen Kindern und seiner Familie die Zukunft nehmen wollen. Zeigen wir den Kreisen und deren Anhängsel, die dies vorhaben:

Abb.37.

Raimund Leistenschneider – EIKE




Das Kartell der Dummheit: Irrenhaus Deutsch­land – Wie wir mit dem Diesel unsere Grund­festen demon­tieren Teil 1, Stickoxide: Der große Anteil natür­lichen Ursprungs

Kahlschlag: Die Deutsche Umwelthilfe fordert das Abholzen sämtlicher Wälder?

Was? Die einen werden jetzt sagen: Denen trau ich alles zu. Unsere „Freunde“ von der Gegenfraktion: Bei EIKE wird nur Unsinn vermittelt. Wer von beiden Fraktionen recht hat, beantwortet die Artikelserie des Autors. Zeigt sie auf, dass nicht ein Versagen der Automobilindustrie vorliegt, sondern ein Versagen der deutschen Politik und mit ihr, wieder einmal, ein Versagen der deutschen Qualitätspresse. Wie, Sie wollen endlich wissen, um was es geht: Der Autor wird beweisen, dass der Verkehr und mit ihm der Diesel, nur einen verschwindend geringen Anteil an den Stickoxidbelastungen der Luft hat und die DUH wieder einmal nur Effekthascherei zu ihrem eigenen Nutzen betreibt, sowie in blinder Rachsucht* (sicherlich nicht im Auftrag von extern) den Industriestandort Deutschland ruinieren will und zig-tausende Familien dadurch schädigt. Das Umweltbundesamt einmal mehr, nicht weiß, was es eigentlich mach und aus Sicht des Autors, falsche Daten präsentiert.

* Siehe den EIKE-Artikel (https://eike.institute/2017/07/18/die-dubiosen-machenschaften-der-deutschen-umwelthilfe-und-ihres-fuehrers-juergen-resch/).

Abb.2, Quelle: Deutscher Bundestag / Presse-Service Steponaitis. Helmut Schmidt und Helmut Kohl, die herausragenden Persönlichkeiten in unserem Deutschland. Stehen beide doch für Klarheit, Stabilität, Fortschritt,Zukunft, Bürgernähe und Berechenbarkeit. Wogegen es heute den Anschein hat, als hätte Orientierungslosigkeit die Regie übernommen.

Endlich hat der Herrgott sie erhört und endlich haben sie das richtige Instrument gefunden, Luzifer zu vertreiben. Was für Ansätze auf dem Weg dorthin:

Massenmörder und zwar richtige, hatten wir schon mal. Waren auch damals nicht die selbsternannten Gutmenschen, die uns davor beschützten. Den Versuch machten andere und bezahlten teuer dafür: Gewerkschaften, Stauffenberg, Rommel u.v.m.

Und jetzt endlich, Stickoxide. Als Treibhausschreck konnten sie nicht punkten. Obwohl ihre angebliche klimaschädigende Wirkung 298-mal (!) so hoch wie CO2 ist. Der Autor möchte jetzt hier nicht darlegen, wie eine solche Rechnung zustande kommt, denn das Grundthema ist zu ernst, um darüber zu lachen.

Für alle, die noch nicht wissen, wer gemeint ist. Hier die Auflösung. Das ist Luzifer für die grünen Männchen, deren grüne „Schlägertruppen“ wie die DUH, die deutsche Qualitätspresse und die selbsternannten Gutmenschen:

Abb.3, Quelle (http://www.autozeitung.de/mercedes-s-klasse-audi-a8-bmw-7er-porsche-panamera-vergleich-luxuslimousinen-test-178021.html). Sie haben es sicherlich gleich erkannt: Luzifer auf Erden. Irgendwie hatte der Autor Luzifer anders dargestellt in Erinnerung, so mit Klumpfuß und so. Nein, er meint nicht den aus den 1930-Jahren, sondern den aus dem Mittelalter. Ob die grünen Männchen et. al uns vielleicht dorthin wieder führen wollen?

Und das will man uns dadurch nehmen hier (https://forum.bodybuilding.com/showthread.php?t=143683973), nein, dass:

Abb.4, Quelle: (https://www.weg.de/familienurlaub): Urlaub. Sinnbild für die Freude am Leben. Nur mit Kaufkraft möglich. Kaufkraft, die vorher erwirtschaftet werden muss und die nicht einfach so vom Himmel fällt. Weiteres Sinnbild für die Freude am Leben ist bekanntlich unsere freie Mobilität („Freie Fahrt, für freie Bürger“) und die Freude am Schönen. All das will man uns nehmen:

Unsere Freude am Leben!

Und offensichtlich sind wir Deutsche suizidgefährdet geworden. Machen wir doch scheinbar alle an diesem Treiben mit, anstatt die falschen Propheten nach Tartaros zu verbannen und uns wieder unserem Goldenen Zeitalter zu wenden, anstatt uns von Sirenen in Richtung Nordkorea treiben zu lassen. Denn dort führt deren Weg unweigerlich hin, wenn ein Volk nichts anderes als sein Lächeln und ein paar dumme Sprüche hat. Wobei das Lächeln schnell vergeht, hat man keine Kaufkraft.

Sicherlich fallen den grünen Männchen (Anmerkung: Natürlich gibt es auch grüne Frauchen. Der Autor möchte niemanden diskriminieren) jetzt wieder ein paar dumme Sprüche dazu ein, wie neue Arbeitsplätze durch Elektromobilität, (vermeintlicher) Zukunftssicherung, usw. Was es mit diesen „neuen Arbeitsplätzen“ auf sich hat, lässt sich blendend am Energiesektor beobachten, der heute mit „Pleiten, Pech und Pannen“ beschrieben werden kann. Vor allem mit Pleiten. Der Energiesektor war früher einmal einer der Eckpfeiler unserer wirtschaftlichen Entwicklung und damit unserer Kaufkraft.

Die Solarindustrie ist fast vollkommen verschwunden und befindet sich in China, obwohl China eine ganz andere Energiepolitik plant*, als mit sog. Erneuerbaren Energien. Während der frühere Stützpfeiler, der Energiesektor, überall im Land Stellen abbauen muss, weil es ihm wirtschaftlich nicht gut geht, um es mal gelinde auszudrücken. Ergebnis: Keine neuen Arbeitsplätze entstanden – sind weitgehend abgewandert nach China und die bisherigen verschwinden immer mehr.

Erneuerbare Energien. Allein der Begriff bereitet dem Autor Gänsehaut, ist der Begriff doch völlig unsinnig, da sich Energie nie (!!) erneuern lässt. Aber mit den Naturwissenschaften geben sich die grünen Männchen und deren Gefolgschaft mangels Intelligenz erst gar nicht ab. Plant China doch für die nächsten Jahrzehnte den Bau hunderter neuer Kohle- und Kernkraftwerke, um damit günstig an Energie zu gelangen, wodurch ihre Wirtschaft einen unschätzbaren Wettbewerbsvorteil erhält.

*Wie EIKE bereits informierte, hier (https://eike.institute/2017/08/16/solare-aktivitaet-weiter-unter-normal-klimamodelle-verwenden-uebertriebene-forcingparameter/) baut China nach seinem aktuellen Fünf-Jahresplan bis 2020 (!) allein 368 Kohlekraftwerke (zu den geplanten Kernkraftwerken), Indien 370. Für China bedeutet dies: 2 Kohlekraftwerke die Woche! Befremdlich, wenn die deutsche Umweltministerin, Frau Hendricks, wie folgt redet oder sollte der Autor besser sagen „dümmlich fabuliert“: „Es kann ja nicht im Interesse Europas sein, China die Führungsrolle im Klimaschutz allein zu überlassen“. Sehr geehrte Frau Ministerin, da Sie und Ihr UBA offensichtlich des Rechnens nicht mächtig sind, der obige Fünf-Jahresplan China, bedeutet in Zahlen:

China derzeit 7,7t CO2/Kopf, EU derzeit 6,9t CO2/Kopf. In 2030 sollen die Europäer mit dem CO2– Ausstoß pro Kopf runter auf 4t und China darf von derzeit 7,7t CO2/Kopf auf 14t/Kopf erhöhen, USA soll runter auf etwa 10t/Kopf. Letzteres haben nun die USA, auch mit Hinweis auf China, in Frage gestellt. Denn, Frau Ministerin: Wer die Mathematik beachtet, der redet in der Öffentlichkeit auch kein dummes Zeug daher. Zurück zu den vermeintlichen Arbeitsplätzen.

Meine lieben grünen Männchen und grün angehauchten Nichtskönner, soviel Arbeitsplätze können Sie mit der E-Mobilität gar nicht schaffen, wie Sie gegenwärtig ohne jeden Grund vernichten wollen. Um Arbeitsplätze zu schaffen, muss beides Hand in Hand gehen: Der Verbrenner und der Elektroantrieb. Die beste Alternative, lässt man mal den Ressourcenverbrauch dafür außer Acht, ist der Plug-In Hybrid In Städten elektrisch, ansonsten Verbrenner. Kann sich leider die Verkäuferin nicht leisten, daher muss für beides Platz sein. Bevor man die „Klappe“ aufmacht, sollte auch Wissen und Können vorhanden sein. Gilt auch für diverse Kreise in Politik und Presse.

Wissen und Können. Stickoxide gelten in Laborversuchen zu Recht als schädlich, z.B. für die Atmungsorgane. Nun sind Stickoxide in der Umwelt nichts Neues und sie gibt es in der Umwelt weit länger, als wir Menschen auf der Erde sind. Und obwohl der Individualverkehr, aufgrund unsere Ansprüche und Lebensgewohnheiten (heute geht z.B. auch die Frau arbeiten, die ihr Auto dazu braucht – haben die grünen Männchen anscheinend noch nie etwas davon gehört) deutlich erhöht haben, sterben wir nicht früher, sondern leben deutlich langer. Und obwohl gerade die grünen Männchen in Stuttgart am Lautesten trommeln (grüner OB und grüner Ministerpräsident = alles klar?), leben dort nicht die ungesündesten Städter, sondern die Gesündesten, hier (http://www.kaufda.de/info/gesuendeste-staedte-deutschlands/) und hier (http://www.faz.net/aktuell/gesellschaft/gesundheit/rangliste-ulm-ist-deutschlands-gesuendeste-stadt-1464004.html).

Eingangs hatte der Autor geschildert, dass nun endlich die grünen Männchen, mit Stickoxiden das Instrument gefunden haben, um ihrem Luzifer, dem Automobil, den Todesstoß zu verpassen. Ausgangsbasis sind solche Messergebnisse, die deren Gefährlichkeit und Dominanz beweisen sollen und wieder einmal, eine unsinnige Brüsseler Verordnung, die einen willkürlichen Grenzwert in der Luft für Stickoxide definiert hat.

Abb.5, Quelle: Stuttgarter Nachrichten, zeigt rechts die Verteilung der Stickoxidemittenten. Während Feinstaub (links) nicht geeignet ist, den Diesel zu diskreditieren (nur 6% stammen aus dem Abgas aller Fahrzeuge), gelingt das Schreckensszenario mit den Stickoxide: 53% und damit über die Hälfte, stammen aus dem Straßenverkehr. Welch „göttliches Geschenk“ für die grünen Männchen und ihre „grünen Schlägertruppen“. Doch da steht Straßenverkehr. Stehen nicht die Pkw, also das erfolgreiche Geschäftsmodell der deutschen Autoindustrie, im Fokus der Kritik? Abb.6 zeigt deren Anteil. Schon nicht mehr so viel, aber immer noch deutlich mehr als beim Feinstaub.

Der Diesel Pkw hat nur noch einen Anteil von 24% des Straßenverkehrsin Abb.5 oder 13% der Gesamtstickoxidbelastung.

Abb.6, Quellen, siehe Bild. Der Diesel hat einen Gesamtanteil von 10% der Stickoxidemissionen. Würde er verschwinden, wären immer noch 90% da.

Der Autor wird beweisen, dass der Diesel-Anteil an den Stickoxiden in Europa und damit in Deutschland, weitaus geringer ist. Der Verkehr hat nach UBA insgesamt von 41%. 10% von 41% = 0,24. D.h. in Bezug zu Abb.5, hat der Diesel-Pkw einen Anteil von knapp einem Viertel der Straßenverkehrsemissionen oder 13% der Gesamtstickoxidbelastung und der übrige Verkehr (hauptsächlich Lkw) von 40%. Macht zusammen 53%, die auf den Straßenverkehr nach Aussage Abb.5 gehen.

Nun legt sich bekanntlich kein normaler Mensch hinter einen Auspuff um zu atmen. Außer die grünen Männchen, die messen dort die Schadstoffe in Innenstädten, wie am berüchtigten Neckartor. Schon als Kinder wussten wir, dass tut uns nicht gut. Legte sich doch jemand hinter einen Auspuff zum Atmen, wurde nicht das Auto verhauen, sondern ggf. jemand anderes. Aber so ändern sich die Zeiten. Dass es mit der Stickoxidbelastung in Deutschland nicht weit her ist und diese seit vielen Jahren fällt, zeigt Abb.7.

Abb.7, Quelle: UBA. Die Maßnahmen der deutschen Automobilindustrie greifen (blauer Anteil) und sind eine Erfolgsstory. Sogar das UBA muss eingestehen, dass die tatsächlichen Messwerte seiner in deutschen Städten befindlichen Messstationen kontinuierlich fallende Stickoxidwerte zeigen. Dazu hat das UBA die Anteile der verschiedenen Emittenten klassifiziert und quantifiziert.

Der Autor wird zeigen, dass diese Quantifizierung falsch ist.

Die bisherige Betrachtung verschweigt, dass Stickoxide älter sind als die Menschheit und nicht erst auftraten, als das Auto und wenig später der Dieselmotor erfunden wurde, was für einige Leser, angesichts der einseitigen Berichterstattung in den Medien erstaunlich klingt, aber dennoch so ist, wie der Autor jetzt zeigen wird. Schauen wir zuerst auf die Arten der Stickoxide.

Abb.8, Quelle (http://www.chemie.de/lexikon/Stickoxide.html). Dazu der Text: „Stickoxide oder Stickstoffoxide ist eine Sammelbezeichnung für die gasförmigen Oxide des Stickstoffs. Sie werden auch mit NOx abgekürzt, da es auf Grund der vielen Oxidationsstufen des Stickstoffs mehrere Stickstoff-Sauerstoff-Verbindungen gibt. Manchmal wird die Abkürzung NOx auch für die so genannten Nitrosen Gase (siehe unten) verwendet.“ Die Tabelle in Abb.8 fasst diese zusammen und gibt deren Überblick.

Nitrose Gase sind genau das, was die gegenwärtige Diskussion antreibt, denn „Nitrose Gase ist die Trivialbezeichnung für das Gemisch aus Stickstoffmonoxid, NO, und Stickstoffdioxid, NO2“, so weiter unter (http://www.chemie.de/lexikon/Stickoxide.html).

Das KIT (Karlsruher Institute of Technology) zu den Stickoxide: „Als Stickstoffoxide werden die chemisch nah verwandten Verbindungen Stickstoffmonoxid (NO) und Stickstoffdioxid (NO2) zusammengefasst. NO und NO2 entstehen bei Verbrennungsprozessen mit hohen Temperaturen aus dem im Brennstoff enthaltenen Stickstoff und dem Luftsauerstoff. Dabei wird zu über 90% Stickstoffmonoxid gebildet. In der Atmosphäre oxidiert NO dann typischerweise innerhalb von Stunden zu NO2. Der größte Verursacher von Stickoxiden ist der Kraftfahrzeugverkehr.“ Aha, Kraftfahrzeugverkehr, das werden wir uns noch ansehen, ob das denn stimmt?

Die Aussage zu Stickoxide des KIT deckt sich mit der Definition des Umweltbundesamtes (UBA). UBA (http://www.umweltbundesamt.de/service/uba-fragen/woher-stammen-stickstoffoxide):

„Stickstoffoxide entstehen als Produkte unerwünschter Nebenreaktionen bei Verbrennungsprozessen. Dabei wird sowohl NO als auch NO2 erzeugt und aus dem Auspuff oder Schornstein emittiert. Dieser Anteil wird als primäres NO2 bezeichnet. NO wird in der Außenluft mit Luftsauerstoff später zu so genanntem sekundären NO2 umgewandelt.“

Und weiter: „Böden emittieren Stickstoffmonoxid (NO) aufgrund der mikrobiellen Umsetzung organisch gebundenen Stickstoffs.“ Anmerkung. Dazu kommt der Autor noch.

Dieselgate oder Dieselmanie

Stickoxide entstehen bei allen Verbrennungsprozessen, bei denen die in den Stoffen gebundene chemische Energie in die gewünschte Nutzenergie gewandelt wird:

  • Verkehr, Industrie, Energiegewinnung, Hausbrand, also auch jegliches Feuer (sogar bei Grillabenden* ist man diesen in hohen Konzentrationen, da man sich in unmittelbarer Nähe der Stickoxidquelle befindet, sozusagen direkt über dem Kamin – siehe weiter unten – ausgesetzt)

Stickoxide entstehen aber auch:

*Beim so lieb gewonnenen Grillen sind Sie einer Stickoxidbelastung ausgesetzt, die mehr als 5.000-mal höher ist, als die Stickoxidbelastung am Neckartor. Sie glauben mir nicht. Dann schauen Sie mal hier nach: (https://www.landwirtschaft.sachsen.de/landwirtschaft/download/BimschV_neu.pdf). Dort ist folgende Tabelle zu finden:

Die Angaben gelten für Heizöl und nachwachsende Rohstoffe. Bis zu 0,5g Stickoxide als Grenzwert von Befeuerungsanlagen mit nachwachsenden Rohstoffen pro m3 Luft. Zu den Stickoxiden werden beim Grillen auch große Mengen (bis 1g/m3 Luft) aromatischer Kohlenwasserstoffe emittiert. Sie stammen überwiegend aus dem Lignin, dass etwa 1/3 des Holzes ausmacht. Deswegen sind dort auch so viele enthalten. Selbst die Deutsche Umwelthilf fühlte sich jüngst dazu berufen, einen Artikel zu Stickoxide und Grillen zu veröffentlichen: (http://www.duh.de/aktuell/nachrichten/aktuelle-meldung/grilltipps-2017/).

Was die DUH dort als Anleitung eines vermeintliches „Öko“grillens schreibt, ist natürlich blanker Unsinn, denn die Stoffe im Holz, die die Stickoxide und die aromatischen Kohlenwasserstoffe emittieren bleiben da auch, ganz gleich, welcher Unsinn darüber geschrieben wird und selbst bei Gasbefeuerung, werden laut www.landwirtschaft.sachsen.de 0,1g Stickoxide pro m3 Luft als Grenzwert freigesetzt. Immer noch die 1.000-fache Menge, wie die maximale Belastung am Cannstatter Tor (0,1mg, Abb.9) und beim Grillen wird nun mal hauptsächlich Grillkohle verwendet. Aber vielleicht soll dies (nach der Wahl, sofern die grünen Männchen die Macht erlangen) womöglich verboten werden, die Grillabende.

Abb.9, Quelle: LUA Baden Württemberg, aus (https://bineckartor.wordpress.com/2016/03/20/smogalarm/) zeigt die NOx-Tageshöchstwerte an der Messstation am berüchtigten Cannstatter Tor, am verkehrsreichten Punkt in Stuttgart. 0,5g/m3 Luft beim Grillabend, dies sind 5.000-mal mehr, als der maximale Wert an Cannstatter Tor. D.h. mit anderen Worten: Wer 1h einen Grillabend feiert, der ist derselben Menge Stickoxide ausgesetzt, als würde er sich durchgehend (!) 208 Tage am Cannstatter Tor aufhalten. Und welcher Grill Fan grillt nur einmal im Sommer / Jahr. 10-mal und mehr sind keine Seltenheit. Da fragt sich der Autor. Wieso sind wir Deutsche nicht längstens ausgestorben und leben immer noch und zwar immer länger und gesünder?

Irgendwas ist da falsch im Staate Deutschland und seiner Dieselmanie.

Die Qualitätsmedien reden lautstark von einem Dieselgate, in Anlehnung an Watergate. Die meisten Journalisten, die dieses Wort in die Feder nehmen, waren bei Watergate nicht einmal geboren und werden gar nicht wissen, um was es da genau ging. Nein, meine lieben „Freunde“ aus der Qualitätspresse, hier liegt kein Dieselgate vor, sondern eine Dieselmanie und Sie sind mitten unter den Infizierten und haben Ihr Krankheitsbild nicht einmal wahrgenommen. Was, Sie finden diese Aussage als unverschämt, dann lesen Sie weiter.

Abb.10, Quelle: (http://motortipps.ch/fahrzeug-emissionen-immer-noch-zu-hoch/) vom 08.07.2016 zeigt, dass die modernen Diesel, wie sie z.B. von Mercedes angeboten werden, im REALBETRIEB gerade 65 mg/km Stickoxid abgeben.

EU-Grenzwert und Dieselanteil

Die Grenzwertüberschreitungen, die jüngst Basis zu Gerichtsurteilen für Diesel-Fahrverbote wurden (http://www.br.de/nachrichten/diesel-fahrverbot-stuttgart-urteil-100.html) basieren auf dem EU-Jahreshöchstwert für Stickoxide von 40µg/m3 Luft.

Nun urteilen Richter nicht anhand von Sinnhaftigkeiten, sondern nach Vorgaben durch Gesetze und/oder Verordnungen. Also, ob diese durch bestimmte Maßnahmen eingehalten werden (können) oder ob nicht und da der Diesel als der Luzifer gilt, der unsere Atemluft mit Stickoxiden kontaminiert, urteilten die Richter anhand dieser Vorgaben / Rahmenbedingungen. Maßgeblich für die Rechtsprechung ist die EU-Richtlinie 2008/50/EG, die in deutsches Recht mit der 39. BImSchV* umgesetzt wurde. Dort ist ein Jahresgrenzwert von 40 µg/m³ im Jahresmittel festgelegt, der seit 2010 einzuhalten ist. Dieser Jahresgrenzwert von 40 µg/m³ wurde von der EU-Richtlinie 1999/30/EG vom 22. April 1999 übernommen.

* 39. BImSchV: „Verordnung über Luftqualitätsstandards und Emissionshöchstmengen“. „Neununddreißigste Verordnung zur Durchführung des Bundes-Immissionsschutzgesetzes Verordnung über Luftqualitätsstandards und Emissionshöchstmengen vom 2. August 2010 (BGBl. I S. 1065), die zuletzt durch Artikel 1 der Verordnung vom 10. Oktober 2016 (BGBl. I S. 2244) geändert worden ist.“

Doch wie kommt dieser Grenzwert zustande? Der Autor meint dabei nicht die Treffen von völlig überforderten Politikern und deren Stäben / Unterhändlern, sondern, wie diese physikalisch zustande kommen. Im Klartext, welcher Anteil stammt vom Diesel? Bekannt sind die Anteile aus Abb.5. Sind diese jedoch korrekt?

Rahmenbedingung

Da die obige EU-Richtlinie die Basis für die Grenzwertbetrachtung und die daraus resultierenden Urteilssprüche darstellt, betrachtet der Autor in seiner folgenden Untersuchung nicht die nationale Ebene, sondern die europäische. Konkret werden die europäischen Stickoxidwerte der verschiedenen Emittenten ermittelt, aufgelistet und verglichen.

Wie Abb.10 zeigt, emittieren Diesel der neuesten Generation gerade einmal 65mg/km an Stickoxiden im Realbetrieb (!) und trotzdem soll der Diesel verboten und nicht mehr produziert werden. Da der Pkw-Bestand in Europa bekannt ist und auch der derzeitige Dieselanteil (40%), lassen sich mit den Daten aus Abb.11 die jährlichen Stickoxid-Gesamtemissionen in Europa errechnen, die alle europäischen Dieselfahrzeuge emittieren.

Abb.11 zeigt den gesamten Pkw-Bestand (EU-28) in Europa, Quelle: (http://ec.europa.eu/eurostat/statistics-explained/index.php/Passenger_cars_in_the_EU), Text „Table 2: Passenger cars (number) – Source: Eurostat“. Zahlen für Dänemark aus: (https://de.statista.com/statistik/daten/studie/163405/umfrage/pkw-bestand-in-ausgewaehlten-europaeischen-laendern/).

Nach Abb.11 waren in Europa (EU-28) im Straßenverkehr in 2015 (wo kein 2015-Wert vorlag, jeweils das letzte bekannte Jahr davor genommen) = 253,054 Mio. Pkw zugelassen. Bei einem Dieselanteil von 38% (Abb.12), sind dies 96,16 Mil. Fzg.

Bei 65mg/km Stickoxidausstoß im Realbetrieb = 0,065g/km (z.B. neue Dieselgeneration Mercedes) und einer durchschnittlichen Fahrleistung* von 11.000km/a sind dies 715g = 0,715kg im Jahr und pro Dieselfahrzeug.

* Nach Angaben des statistischen Bundesamtes, werden durchschnittlich 11.000km mit dem Pkw zurückgelegt, Quelle: (https://www.destatis.de/DE/Publikationen/Thematisch/TransportVerkehr/Querschnitt/BroschuereVerkehrBlick0080006139004.pdf?__blob=publicationFile).

0,715kg x 96,16 Mil = 68.754.400kg/a = 68.754t/a = 68,75kt/a Emissionen NOx aus allen neuen Dieselfahrzeugen in Europa (EU-28) mit Standard Mercedes E-Klasse 220d.

Abb.12 zeigt den Dieselanteil an der Pkw-Flotte in Europa. Der Steigung folgend, liegt er bei knapp 40%. Quelle: (https://www.researchgate.net/publication/257885064_Critical_evaluation_of_the_European_diesel_car_boom_-_Global_comparison_environmental_effects_and_various_national_strategies)

1. Zwischenergebnis

Alle europäischen Pkw-Dieselfahrzeuge (EU-28) mit der jetzigen Dieseltechnologie emittieren:

68,75kt/a NOx

Wie weiter oben geschildert, sind Stickoxide älter als die Menschheit. Sie gab es bereits bei den Sauriern und weiter davor: Zu Anbeginn der Erdentstehung und Stickoxide haben die Entwicklung der Erde und ihrer Evolution kontinuierlich begleitet. Sie finden sich demnach auch in Naturböden, wie dem Wald.

Eingangs wurde geschildert, dass Stickoxide zuerst als vermeintliches Treibhausgas in den wissenschaftlichen Fokus gelangten. Die EU wollte wissen, wie hoch denn deren Anteil aus den unterschiedlichsten Emissionsquellen ist. In dem von der EU geförderten und von ihr ausgerufenen Wissenschaftsprojekt „NOFRETETE“ wurden die Bodenstickoxidemissionen untersucht: „Waldböden emittieren Stickstoff“ (https://www.waldwissen.net/wald/klima/wandel_co2/bfw_treibhausgase/index_DE). Für den Artikel verantwortlich ist Bundesforschungszentrum für Wald des Landes Österreich (https://bfw.ac.at). Sehen Sie bitte auch hier (http://sciencev1.orf.at/news/32524.html).

Abb.13, Quelle: (https://www.waldwissen.net/wald/klima/wandel_co2/bfw_treibhausgase/index_DE), zeigt den Messaufbau zur Ermittlung der Bodenausgasungen von sog. Treibhausgasen wie Stickoxid und dazu der Text: „Sperrgebiet im Wald: Versuchsanlage zur Messung der Treibhausgas-Emissionen aus Waldböden.“

Das von der EU geförderte und beauftragte Wissenschaftsprojekt „NOFRETETE“ kommt bei den Stickoxiden zu folgendem Ergebnis:

„Die gesamten Stickstoff-Spurengasemissionen aus europäischen Wäldern betrugen für das Jahr 2000 durchschnittlich 219 kt NO-N und 117 kt N2O-N. Dies bedeutet, dass aus Waldböden rund ein Fünftel der geschätzten landwirtschaftlichen Emissionen entstehen und sie daher eine signifikante Quelle für Treibhausgase darstellen.“

Die natürliche Ausdünstung von Stockoxiden NO (welches binnen Stunden zu NO2 wird, siehe obige Aussage des KIT und N2O beträgt demnach 336kt. Wird nur NO betrachtet (wegen der EU-Richtlinie), sind dies immer noch 219kt.

Doch damit nicht genug. Wie der Autor weiter oben angab, entstehen Stickoxide auch in der Landwirtschaft, wegen der Düngung. Lt. EU-Forschungsergebnis aus „NOFRETETE“ sind dies weitere 876kt Stickoxide. Die Gesamtmenge von Stickoxiden, die aus den europäischen Böden ausgasen, betragen 876kt (Landwirtschaft) + 219 kt (Wald) = 1.095kt. Unter Einbeziehung von N2O sind dies sogar 1.680kt an Stickoxiden. Dies ist ein Vielfaches dessen, was sämtliche Pkw-Diesel an Stickoxiden verursachen.

2. Zwischenergebnis

Aus den europäischen Böden gasen an Stickoxiden pro Jahr aus:

  • Wald = 219kt (336kt)
  • Landwirtschaft = 876kt (1.344kt)

Gesamt = 1.095kt NO/a (1.680kt (NO + N2O)/a). Dies ist fast 14-mal so viel, wie alle Diesel-Pkw nach dem neuen technologischen Standard in Europa.

Ob die grünen Männchen und die DUH den Kahlschlag der Wälder fordern?

Nun ist dies noch lange nicht alles an Stickoxiden, die nicht vom Diesel-Pkw stammen. Weiter oben war zu lesen, auch die Viehwirtschaft hat ihren Anteil und auch dies wurde im Auftrag / gefördert der EU untersucht.

Die WHO gibt den folgenden Wert an, der weltweit aus der Nutztierhaltung an Stickoxide emittiert wird. Die WHO stützt sich dabei auf das IPCC 2007 und gibt die folgende Menge an:

2 Gt CO2-eq of N2O per annum, or 53 percent of anthropogenic N2O emissions (IPCC, 2007)” (http://www.fao.org/news/story/en/item/197623/icode/). Sehen Sie bitte auch hier (http://www.ghgonline.org/nitrouslivestock.htm). Nun interessieren wir uns nicht nur für das N2O, sondern auch für NO und zwar für Europa.

In Frankreich wurde die folgende Arbeit gefördert: „Measuringemissions from livestockfarming – Greenhouse gases, ammonia and nitrogen oxides“. In ihr sind für Europa die folgenden Mengen Stickoxide angegeben, die durch die Nutztierhaltung in Europa freigesetzt werden, „Table I. Emissions in EU-28 in 2013 of the main gases related to livestock farming according to EEA“, Anmerkung: EEA = Europäischer Wirtschaftsraum:

Abb.14 zeigt den Auszug aus o.g. Tabelle für die Stickoxide aus Tierhaltung und links daneben die gesamten europäischen Stickoxidemissionen.

Für NOx betragen die Emissionen aus der Tierhaltung demnach 490Gg = 490 Mkg = 490 kt NOx/a.

Für N2O wird die sog. Klimawirksamkeit in Bezug zu CO2 angegeben. Da die angebliche Klimawirksamkeit 298-mal so hoch wie CO2 ist, lässt sich mit diesem Wert der tatsächliche N2O-Wer in Gramm ermitteln: 73Gg N2O/a = 73kt N2O/a

In der Arbeit wird unter der Tabelle angeführt: „Nitrogen lost in the form of ammonia (NH3) and nitrogen oxides (NOX and N2O) accounts for between 20% and 70% of the nitrogen excreted by animals (Figure I; Gacet al., 2006; ITAVI, 2013; Peyraudet al., 2012).“

Die Arbeit bezieht sich dabei auf das IPCC-Paper, welches hier zu finden ist (ttp//www.ipcc-nggip.iges.or.jp/public/gp/bgp/4_6_Indirect_N2O_Agriculture.pdf). Das IPCC-Paper trägt den Namen „INDIRECT N2O EMISSIONS FROM AGRICULTURE“ („This paper was written by Cindy Nevison“).

3. Zwischenergebnis

Die europäische Nutztierhaltung verursacht an Stickoxiden = 490kt NOx/a (563kt (NOx + N2O)/a)

Nun sind dies immer noch nicht alle NOx-Emissionen, die nicht dem Pkw-Diesel zuzuschreiben sind. Wie Untersuchungen der NASA belegen, verursachen vor allem Blitze hohe Mengen von Stickoxide, hier (https://science.nasa.gov/science-news/science-at-nasa/2007/27apr_nox). Die NASA-Wissenschaftler kommen weltweit auf die Menge von 20Mt Stickoxide, die jährlich durch Blitze entstehen. Die NASA-Wissenschaftler haben Ihre Daten mit dem Satellitensystem TRMM ermittelt und folgende Stickoxidmenge veröffentlicht:

Abb.15, Quelle: NASA. Dazu der Text: „The worldwide distribution of lightning strikes. Each flash produces a tiny puff of NOx, individually negligible, but adding up to as much as 20 trillion grams per year when summed over the entire globe.”

„Im heißen Blitzkanal können aus dem vorhandenen Stickstoff und Sauerstoff in der Atmosphäre große Mengen Stickoxid (NO) gebildet werden. Nach globalen Abschätzungen, siehe den Übersichtsartikelvon IPA Wissenschaftlern zu diesem Thema (Schumann and Huntrieser, 2007), übersteigen diese NO Emissionen von Blitzen bei weitem die NO-Emissionen von Flugzeugen.“ Quelle: DLR-Institut für Physik der Atmosphäre (IPA)(http://www.dlr.de/pa/Portaldata/33/Resources/dokumente/mitarbeiter/IPA_Web_Huntrieser_091123_de.pdf).

Laut SCINEXX: „Alle Stickoxid-Quellen zusammen verursachen in der Atmosphäre etwa 50 Teragramm Stickoxide pro Jahr.“ Dann kämen laut Untersuchungen der NASA 40% auf Blitze und sind damit natürlichen Ursprungs. (http://www.scinexx.de/wissen-aktuell-14798-2012-06-01.html). Anmerkung: 50 Tg = 50Mt.

Ältere Untersuchungen des Lawrence Livermore National Laboratory kommen ebenfalls auf den Wert von 20Mt, hier (http://www.berliner-zeitung.de/gewitter-erzeugen-jaehrlich-bis-zu-20-millionen-tonnen-umweltschaedlicher-stickoxide-blitze-machen-den-regen-sauer-16520402).

Weltweit gibt es 44 Blitze pro Sekunde (http://www.spiegel.de/wissenschaft/natur/blitz-statistik-die-weltweiten-gewitter-hotspots-a-1128559.html). Auf das Jahr sind dies 1387,6 Millionen Blitze. Die mit Abstand meisten Blitze entstehen in den Tropen. In Europa betrug die Blitzanzahl 2015, 20,2 Millionen (http://wetter.tv/news/jahresbilanz-blitze-in-europa/2.170.622). Dies sind etwa 1,5% der weltweiten Blitze. Wird dieser Anteil in Relation zu den NASA und den Lawrence Livermore National Laboratory-Ergebnissen der weltweiten Stickoxidemissionen von 20MT/a durch Blitze gesetzt, dann entstehen in Europa durch Blitze:

0,015 x 20MT = 300kt Stickoxide

Während der Autor nur ein Jahr als Beispiel der Gewitteranzahl /-tätigkeit betrachtet hat, hat die NASA für Ihre Daten in Abb.15 mehrere Jahre beobachtet. Die NASA kommt denn auch zu einem anderen, höheren Wert für Europa. Dies verwundert nicht, da die Gewitterhäufigkeit über die Jahre teils deutlich schwankt. Während z.B. dieses Jahr Gewitterlagen und Schönwetterlagen sich bildhaft gesprochen, die Hand gaben, liegen in anderen Jahren deutlich weniger Blitze / Gewitter vor. Anhand Abb.15 kommt die NASA für Europa zu einem Anteil von nahezu 3% der weltweiten Blitztätigkeit, so dass sich der Stickoxidanteil auf fast 600kt nahezu verdoppelt. So haben sich z.B. in 2017 in Deutschland, Stand heute, bereits doppelt soviel Blitzereignisse stattgefunden, wie im ganzen Jahr 2016.

Wie stark die Blitzanzahl in Deutschland variiert, zeigt das Siemens-Blitznetzwerk (Abb. 16).

Abb.16, Datenquelle, Siemens Blitznetzwerk, zeigt die Anzahl der Blitze (Entladungen zur Erdoberfläche, Wolkenblitze werden nicht gezählt) von 2006 bis 2016. Im Betrachtungszeitraum variiert die Blitzanzahl nahezu um das Dreifache. Ca. 10% der Blitze treffen die Erde, die anderen 90% sind Entladungen zwischen verschiedenen geladenen Wolken.

4. Zwischenergebnis

In Europa werden jährlich 300kt (600kt) Stickoxide durch Blitze verursacht. Dies ist ein Vielfaches mehr, als alle Diesel-Pkw in Europa nach dem neuen technologischen Standard zusammen ausstoßen. Ob jetzt die Gewitter verboten werden und ob sich Thor daran hält?

Wir sind noch lange nicht fertig, mit der Stickoxidbilanz. Nach (http://www.imn.htwk-leipzig.de/~benedix/folienoeko/folie25.PDF) entstehen durch den Transport aus der Stratosphäre 1Mt Stickoxide.

Europa hat eine Fläche von 10,18 Mio.km2. Die Erde von 510,1 Mio. km2.

Der Anteil Europas beträgt demnach 20kt Stickoxide.

5. Zwischenergebnis

In Europa werden jährlich 20kt Stickoxide aus der Stratosphäre in die Troposphäre transportiert.

Ebenfalls nach (http://www.imn.htwk-leipzig.de/~benedix/folienoeko/folie25.PDF) entstehen durch Photooxidation von NH3 in der Troposphäre, 3 Mt Stickoxide. Wir brauchen also lediglich das 5. Zwischenergebnis mit 3 multiplizieren.

6. Zwischenergebnis

In Europa entstehen durch Photooxidation von NH3 in der Troposphäre 60kt Stickoxide/a.

Teil 2, „Stickoxide: Die Fehler des Umweltbundesamtes – Der tatsächliche Dieselanteil“

in Kürze

Raimund Leistenschneider – EIKE




Machen wir mal ein Gedanken­experiment: Es gibt gar keine Erde!

  • Die Erde hat zwar ein heißes Inneres, aber der Wärmestrom an ihrer Oberfläche ist äußerst gering. Auch die Gezeitenreibung liefert keine klimawirksame Energie. Die alleinige „natürliche“ Eigentemperatur der Erde würde vielmehr bei etwa minus 240 Grad Celsius  liegen. Die Erde selbst ist also primär an der Temperaturgenese auf ihrer Oberfläche nicht beteiligt.
  • Die Sonne ist der bestimmende Energielieferant für die Temperatur- und Klimagenese auf unserer Erde; die Sonne ist also ihr eigentlicher Klimamotor.
  • Und das Stefan-Boltzmann-Gesetz beschreibt den physikalischen Zusammenhang von Strahlung und Temperatur.

Das Stefan-Boltzmann-Gesetz kann also, bei richtiger Anwendung, zur Beschreibung der Temperatur- und Klimagenese unserer Erde dienen. Es beschreibt für einen Schwarzen Körper den in Abbildung 1 dargestellten physikalischen Zusammenhang von Strahlung und Temperatur im thermischen Gleichgewicht:

Abbildung 1: Der Zusammenhang von Strahlung und Temperatur nach dem Stefan-Boltzmann-Gesetz

Das Gleichheitszeichen im Stefan-Boltzmann-Gesetz bedeutet aber leider nicht, dass man einfach irgendwelche Durchschnittswerte in dieses physikalische Gesetz einsetzen darf, um die Situation auf der Erde zu beschreiben, denn dieses S-B Gesetz ist eben ein Gesetz und keine Gleichung. Es stellt vielmehr einen direkten physikalischen Bezug von singulären Strahlungs- und Temperaturwerten im gemeinsamen thermischen Gleichgewicht her. Und nur in diesem Gleichgewichtszustand entspricht ein konkreter Strahlungswert einer durch dieses Gesetz eindeutig definierten Temperatur nach der in Abbildung 1 dargestellten Funktion. Die jeweilige Temperatur muss also physikalisch konkret vorliegen, um den spezifischen Strahlungswert nach dem Stefan-Boltzmann-Gesetz zu erzeugen.

1. ERKENNTNIS: Berechnungen von und aus Durchschnittswerten sind mit dem Stefan-Boltzmann-Gesetz physikalisch nicht zulässig. Eine Berechnung von Mittelwerten kann vielmehr erst dann durchgeführt werden, wenn bereits für alle beteiligten Wertepaare von Temperatur und Strahlung eine individuelle Umrechnung nach dem Stefan-Boltzmann-Gesetz erfolgt ist. Grundvoraussetzung ist, dass diese Wertepaare in einer direkten physikalischen Beziehung miteinander stehen müssen.

Machen wir an dieser Stelle zunächst einmal ein Gedankenexperiment: Es gibt gar keine Erde!
Dazu verbringen wir zu einem Zeitpunkt “0” ein Duplikat unserer Erde aus einem Dunkelkammer-Weltraumlabor an den aktuellen Standort unserer Erde. Dieses Duplikat soll eine voll funktionsfähige Erde in einem „tiefgefrorenen“ Zustand mit einer Eigentemperatur von minus 240 Grad Celsius darstellen:

  • Nun setzen wir dieses Duplikat unserer Erde zum Zeitpunkt „0“ der Sonnenstrahlung aus und messen die Zeit „A“, bis die aktuelle Temperaturverteilung auf unserer Erde erreicht ist und alle atmosphärischen und ozeanischen Zirkulationen mit Wärmeenergie „aufgeladen“ sind. Dieser Zeitpunkt „A“ ist gekennzeichnet durch ein erstmaliges Gleichgewicht von eingestrahlter und abgestrahlter Energiemenge.
  • Nachdem dieser Gleichgewichtszustand erreicht wurde, verbringen wir das Duplikat unserer Erde zum Zeitpunkt „B“ wieder ins Labor und messen den Zeitraum „b”, bis wieder die ursprüngliche Ausgangstemperatur von etwa 240 Grad Celsius herrscht.

Wir werden dann herausfinden, dass beide Zeiten “A” und “b” größer als “Null” sind. Die Zeit “A” repräsentiert ein Maß für die Wärmekapazität unserer Erde, während die Zeit “b” ein Maß für die Qualität der thermischen Isolierung unserer Erde gegen das Weltall darstellt. „A“ und „b” repräsentieren in erster Näherung einen Zeitraum von Jahrhunderten bis Jahrtausenden. Das Stefan-Boltzmann-Gesetz gilt aber nur in einem thermischen Gleichgewichtszustand zwischen Strahlung und Temperatur, also im Zeitraum „t“ mit (A < t < B). In einem solchen Gleichgewichtszustand spielt aber die Wärmekapazität zunächst keine Rolle. Die einzige temperaturbestimmende Einflussgröße im thermischen Gleichgewichtszustand auf unserer Erde ist damit die eingestrahlte Energie von der Sonne in [W/m²] auf der Tagseite. Wie groß der Energieinhalt des Systems Erde dabei wirklich ist und wie lange die Aufladung gedauert hat, ist dafür zunächst unerheblich, wenn wir diesen Zeitraum „t“ mit (A < t < B) betrachten.

Dieser statische Fall zeichnet sich offensichtlich durch eine relativ stabile globale Durchschnittstemperatur (NST=Near Surface Temperature) von 14,8 Grad Celsius aus. Die globalen Zirkulationen sind mit Energie „gesättigt“ und alle atmosphärischen und ozeanischen Prozesse sind in eine Art mittleren klimatischen Gleichgewichtszustand „eingeschwungen“ – das Wettergeschehen spiele in dieser Abstraktion keine Rolle. Bei einer solchen statischen Betrachtung ergeben sich dann folgende Rechengrößen:

Solarkonstante: 1.367 W/m²

Temperaturwirksame Sonneneinstrahlung: 940 W/m²

Durchschnittliche Abstrahlung nach Energiebilanz: 235 W/m²

Anmerkung: Um den Beweisweg nicht zu komplizieren, werden hier vereinfachte Werte zugrunde gelegt. Der hemisphärische Zweischichtfall für Atmosphäre und Oberfläche mit einer temperaturwirksamen Nettostrahlung von 780 W/m² wird hier nicht betrachtet.

Für eine hemisphärische Sonneneinstrahlung von 940 W/m² bei lotrechter Position der Sonne ergibt sich nach dem Stefan-Boltzmann-Gesetz dann eine maximale Gleichgewichtstemperatur von 85,7 Grad Celsius. Und eine beliebige örtliche SB-Maximaltemperatur lässt sich in Abhängigkeit von der geographischen Breite mit dem hemisphärischen S-B Ansatz folgendermaßen beschreiben:

S,Z = 940 [W/m²] * cos mit S,,Z = breitenabhängiger hemisphärischer Netto-Strahlungsantrieb im solaren Zenit und =auf den jahreszeitlichen Sonnenstand korrigierte Breite der Ortslage

Die aus dieser S-B Beziehung ableitbaren hemisphärischen S-B Gleichgewichtstemperaturen werden auf der Erde weder im Maximum noch im Minimum erreicht. Wenden wir uns daher zunächst einmal dem Mond als vergleichbarem Himmelskörper ohne Ozeane und Atmosphäre zu. Nachfolgend ist eine Abbildung dargestellt, die bereits auf EIKE veröffentlicht worden war:

Abbildung 2: Vergleich der gemessenen Oberflächentemperatur auf dem Mond (blau) mit der hemisphärischen S-B Gleichgewichtstemperatur (rot)

Blau: Gemessene Oberflächentemperatur auf dem Mond am Landeplatz von Apollo 15
Zugrunde liegt die Originalabbildung aus einem EIKE-Artikel (Primärquelle Eschenbach auf WUWT)

Rot: Verlauf der hemisphärischen S-B Gleichgewichtstemperatur für die geographischen Position des Apollo 15 Landeplatzes ohne Berücksichtigung der lunaren Achsenneigung mit den nachfolgenden Eckwerten:

Landepunkt von Apollo 15: Mond @ 26° 7′ 55.99″ N 3° 38′ 1.9″ E

Solarkonstante: 1.367 [W/m²]

Albedo des Mondes: 0,11

Temperaturwirksame Solarstrahlung: 1.217 [W/m²]

dito bei 26,125° geogr. Breite: 1.092 [W/m²]

Effektive Solarstrahlung Seff für α = [0° – 360°]: IF SIN α >0 THEN Seff = SIN α* 1.092 [W/m²]

IF SIN α <0 THEN Seff = 0 [W/m²]

Abbildung 2 zeigt, dass die gemessene und die hemisphärisch berechnete S-B Gleichgewichtstemperatur am Landepunkt von Apollo 15 bei Tage hervorragend überein stimmen, während die Nacht-Temperaturen um etwa 70 Grad differieren. Diese Differenz ist aber eher ein Problem zwischen Theorie und Praxis, denn in der S-B Berechnung wird für die Nachtseite des Mondes streng mit 0 [W/m²] gerechnet, während der Mond in der Realität reflektierte Sonnenstrahlung von der Erde erhält, deren Albedo immerhin etwa 30% betragt. Eine Temperatur von -196 °C entspricht nach Stefan-Boltzmann einer Strahlung von 2 {W/m²], wie Abbildung 1 erkennen lässt, und dafür dürfte die Rückstrahlung der Erde von etwa 400 [W/m²] allemal ausreichen.

2. ERKENNTNIS: Auf dem Mond funktioniert der hemisphärische S-B Ansatz ganz hervorragend, warum sollte er also für die Erde nicht anwendbar sein?

Im konventionellen S-B Ansatz wird eine globale Durchschnittstemperatur aus der durchschnittlichen Energiebilanz der Erde mit einem Viertel der wirksamen Solarkonstanten ermittelt. Wie wir bereits gesehen haben, „verkraftet“ das Stefan-Boltzmann-Gesetz solche Durchschnittswerte aber gar nicht.

Schauen wir aber trotzdem einmal näher hin und beschränken wir uns auf die Abstrahlung:
Die durchschnittliche globale Abstrahlung unserer Erde kann in erster Näherung unter Berücksichtigung der Albedo tatsächlich mit einem Viertel der temperaturwirksamen netto-Sonneneinstrahlung von 235 W/m² beschrieben werden, auch wenn sie in Wahrheit sicherlich tages- und jahreszeitlichen sowie breitenabhängigen Schwankungen unterworfen ist.

Nur zur Erinnerung: Diese Betrachtung der Erde findet im Zeitraum „t“ mit (A < t < B) statt.

Die Wärmespeicher des Systems Erde sind also „voll aufgeladen“ und die globale Abstrahlung geschieht kontinuierlich parallel zur hemisphärisch getakteten solaren Einstrahlung. Beim Mond war das ja noch ganz einfach, denn der verfügt neben seiner Oberfläche über keine zusätzlichen Wärmespeicher. Damit stellt sich die Frage, wo bei einer Betrachtung nach der globalen Strahlungsbilanz eigentlich der Wärmeinhalt der globalen Zirkulationen berücksichtigt wird.

3. ERKENNTNIS: Im Gegensatz zum Mond kühlt unsere Erde über Nacht nicht schnell genug aus.

Das Stefan-Boltzmann-Gesetz für einen schwarzen Körper in einer erwärmten Umgebung lautet nun:

S = S – S0 = * (T4 – T04)   mit S = P/A [W/m²] Quelle: Gerthsen-Kneser “Physik” (1971)

Nach Abbildung 3 ist es also nach dem Stefan-Boltzmann-Gesetz überhaupt nicht egal, bei welcher Umgebungstemperatur „T0“ wir eine globale Emission von S=235 W/m² ansetzen:

Abbildung 3: Der Temperaturbereich für eine pauschale Abstrahlung von S = 235 W/m² ist abhängig von der Basistemperatur T0 und ergibt nach dem S-B Gesetz keine eindeutige Lösung

Rot: Der Zusammenhang von Strahlung und Temperatur nach dem Stefan-Boltzmann-Gesetz aus Abbildung 1

Blau: Das S-B Temperaturäquivalent für S = 235 W/m² abhängig von der jeweiligen Umgebungstemperatur T0

Abbildung 3 macht also deutlich, dass es beim Stefan-Boltzmann-Gesetz von ganz entscheidender Bedeutung ist, bei welcher Umgebungstemperatur eine Abstrahlung nach der globalen Energiebilanz erfolgt. Jedenfalls kann die Temperatur eines Schwarzen Körpers nicht unter seine Umgebungstemperatur fallen.

4. ERKENNTNIS: Mit der Umgebungsgleichung des S-B Gesetzes ist jetzt das einzige Manko der hemisphärischen S-B Ableitung geheilt, nämlich das Fehlen einer Erklärung für das Verhalten der örtlichen Nachttemperatur.

Der konventionelle S-B Ansatz aus der globalen Energiebilanz geht nun davon aus, dass das Umgebungsniveau „T0“ unserer Erde null Grad Kelvin beträgt. Von dort aus werden nämlich nach S-B die ominösen 18 Grad Celsius mit S = 235 W/m² „hochgerechnet“, wie das in Abbildung 3 durch die erste „Treppenstufe“ von 0 bis 235 W/m² dargestellt wird. Die konventionelle S-B Ableitung für die „natürliche“ globale Durchschnittstemperatur von 18 °C ignoriert also den Wärmeinhalt der globalen Zirkulationen als unmittelbar wirksame Wärmespeicher unserer Erde.

5. ERKENNTNIS: Allein der Wärmeinhalt der globalen Zirkulationen sorgt dafür, dass das Temperaturniveau der Erde nachts nicht in die Nähe von null Grad Kelvin zurückfällt, wie wir das auf dem Mond beobachten können.

Abschätzung für die S-B Größe „T0“ in dieser Betrachtung: Das „T0“ in der S-B Umgebungsgleichung dürfte in etwa durch die global gemittelte Morgentemperatur der Ozeane kurz vor Sonnenaufgang repräsentiert werden. In dem auf EIKE veröffentlichten Artikel „Über die schwer fassbare globale mittlere Temperatur – ein Vergleich Modell ? Daten “ (von Bob Tisdale, übersetzt von Chris Frey, EIKE) heißt es über die durchschnittlichen Meerestemperaturen, Zitat:

Die mittlere absolute globale Wassertemperatur ICOADS beträgt während der letzten 30 Jahre (1984 bis 2013) 19,5°C, während deren absolute globale Wassertemperatur 19,3°C beträgt.

Zunächst einmal ist hier festzustellen, dass die globalen Durchschnittswerte der oberflächennahen Bodentemperatur (NST) und der Wassertemperatur stark differieren. Diese Differenz dürfte aber eher der natürlichen Begrenzung der Wassertemperatur durch den Gefrierpunkt des Wassers geschuldet sein. An diesem begrenzten Minusbereich für die Wassertemperatur scheitert also eine direkte Vergleichbarkeit beider Durchschnittswerte. Setzen wir hier also einfach einmal voraus, dass sich beide Durchschnittstemperaturen (Land und Meer) in etwa entsprechen würden. Da aber die globale Wassertemperatur zu tiefen Temperaturen hin eingeschränkt ist liegt es nahe, als gemeinsame Basis auf die durchschnittliche oberflächennahe Lufttemperatur zurückzugreifen. Und wenn wir in der S-B Umgebungsgleichung als Ausgangswert „T0“ diese global gemittelte gemessene Durchschnittstemperatur (NST) von 14,8 Grad Celsius ansetzen, dann ist der imaginäre atmosphärische Treibhauseffekt plötzlich verschwunden.

6. ERKENNTNIS: Wenn die bodennahe örtliche Nachttemperatur nach der Umgebungsgleichung des S-B Gesetzes durch einen Wärmezufluss aus den atmosphärischen und ozeanischen Zirkulationen gestützt wird, dann sind alle weiteren Spekulationen über einen „natürlichen“ atmosphärischen Treibhauseffekt hinfällig.

Sinkt also nachts die örtliche bodennahe Temperatur unter die Temperatur des ortsnahen Ozeans, dann erfolgt sofort ein Wärmefluss aus diesem Wärmespeicher. Anstelle einer weiteren Abkühlung der betrachteten Senke erfolgt dann also ein zusätzlicher Wärmefluss in diese Senke hinein. Im Umkehrschluss wird diese Senke also umso tiefer werden, je weiter entfernt vom Ozean sie sich befindet. Für eine anschauliche Darstellung des tageszyklischen Wärmeaustausches von Land und Meer wird hier auf Wikipedia verwiesen.
Anmerkung: Der direkte Einfluss der Atmosphäre wird hier nicht weiter diskutiert, weil sie sehr viel komplizierter zu beschreiben ist. Der Wärmeinhalt der Atmosphäre selbst weist nämlich wegen stark schwankender Wassergehalte eine wesentlich größere Variabilität auf und eine Wolkenbedeckung kann außerdem die nächtliche Abstrahlung deutlich vermindern.

Wenn wir jetzt einmal realistisch das S-B Temperaturäquivalent für eine globale Abstrahlung von S = 235 W/m² betrachten, dann dürften wir irgendwo im Bereich der zweiten „Treppenstufe“ in Abbildung 3 fündig werden, also im Bereich von T = 48 Grad Celsius. Dieser Wert ist als tägliche Schwankungsbreite selbst für extreme Wüstengebiete sehr ambitioniert, also dort, wo die globalen Zirkulationen nur einen geringen Beitrag gegen die Nachtabkühlung liefern können. Für die meisten individuellen Ortslagen kommt also im Umkehrschluss tatsächlich ein unterstützender Wärmestrom aus den globalen Zirkulationen zum Tragen. Das in Abbildung 4 dargestellte Jahresmittel des Energiehaushaltes der Atmosphäre und seiner Komponenten in Abhängigkeit von der geographischen Breite nach HÄCKEL (1990) weist diesen Zusammenhang eindeutig nach.

Abbildung 4: Jahresmittel des Energiehaushaltes der Atmosphäre und seiner Komponenten in Abhängigkeit von der geographischen Breite. QUELLE: HÄCKEL, Meteorologie, Verlag Eugen Ulmer, Stuttgart 1990, zu finden auch hier

Diese Abbildung 4 zeigt zum Beweis der oben gemachten Ausführungen den durchschnittlichen horizontal verfrachteten jährlichen Wärmestrom durch die globalen Zirkulationen in mittlere und höhere geographische Breiten hinein. Da die abschließende Argumentation über die Umgebungsgleichung des Stefan-Boltzmann-Gesetzes auf der globalen Energiebilanz von 235 W/m² aufsetzt, reiht sich diese Abbildung 4 von Häckel (1990), die ebenfalls auf einer Energiebilanz von 235 W/m² beruht, widerspruchslos in die vorliegende Argumentation ein und weist deren Richtigkeit nach.

7. ERKENNTNIS: Die theoretische Schwankungsbreite für das Temperaturäquivalent einer durchschnittlichen globalen Abstrahlung von 235 W/m² kann, außer vielleicht in extremen Wüstengebieten, auf der Erde kaum erreicht werden. Vielmehr wirkt der Wärmezufluss aus Atmosphäre und Ozeanen einer örtlichen Nachtabsenkung der Temperaturen entgegen.

Fassen wir die Temperaturgenese auf unserer Erde also noch einmal abschließend zusammen:

  • Die Sonne heizt auf der Tagseite der Erde Landflächen, Atmosphäre und Ozeane auf.
  • Die hemisphärisch berechnete Maximaltemperatur nach dem Stefan-Boltzmann-Gesetz wird dabei nirgendwo auf der Erde erreicht. Vielmehr werden insbesondere in niederen und mittleren Breiten die globalen Zirkulationen tagsüber mit Wärmeenergie „aufgeladen“.
  • Der Wärmeinhalt in den globalen Zirkulationen wird also auf der Tagseite aus der hemisphärischen Sonneneinstrahlung gespeist, was dort zu einer Reduzierung der gemessenen Temperaturen gegenüber den berechneten hemisphärischen S-B Gleichgewichtstemperaturen führt.
  • Für eine individuell betrachtete Ortslage auf der Nachtseite der Erde bestimmen der Wassergehalt der Atmosphäre und die Entfernung zum Ozean, wie stark sich die Erdoberfläche dort abkühlen kann.
  • Damit ist die Nachtabkühlung in meeresnahen äquatorialen Gebieten am geringsten und in kontinentalen Wüstengebieten niederer Breiten am größten.
  • Der Wärmezufluss aus den globalen Zirkulationen trägt also zur örtlich gemessenen Nachttemperatur bei. Diese Wärmeflüsse sorgen während des jeweiligen Winterhalbjahres in mittleren und höheren geographischen Breiten auch für einen generellen Temperaturanstieg gegenüber den hemisphärisch berechneten S-B Gleichgewichtstemperaturen.

Am Ende führen also eine physikalisch falsche Anwendung des Stefan-Boltzmann-Gesetzes und die Nichtbeachtung des Wärmeinhalts der globalen Zirkulationen bei der konventionellen S-B Herleitung einer globalen Durchschnittstemperatur über die Energiebilanz unserer Erde zu einem imaginären „natürlichen atmosphärischen Treibhauseffekt“ von 33 Grad. Tatsächlich aber folgt die globale Temperaturgenese auf der Erde einem hemisphärischen Strahlungsansatz über das Stefan-Boltzmann-Gesetz, während die Nachtabkühlung auf der Erde mit der Umgebungsgleichung des Stefan-Boltzmann-Gesetzes unter Einbeziehung des Wärmeinhaltes der globalen Zirkulationen beschrieben werden kann.

ERGEBNIS: Es sind in Wirklichkeit also die wärmebeladenen globalen Zirkulationen, die unter dem Pseudonym „natürlicher atmosphärischer Treibhauseffekt“ für lebensfreundliche Temperaturen auf unserer Erde sorgen, indem sie hier auf der Erde eine dem Mond vergleichbare extreme Schwankung von tageszyklischer Aufheizung und Nachtabsenkung verhindern.

Schlussbemerkung: Wegen des imaginären Konstruktes eines „natürlichen atmosphärischen Treibhauseffektes“ aus einer fehlerhaften Anwendung des Stefan-Boltzmann-Gesetzes sollen wir uns jetzt also alle einer „globalen Dekarbonisierung bis zum Jahre 2100“ unterziehen. Und damit wird dann unsere fossil betriebene Industrie, unser damit erwirtschafteter Lebensstandard sowie auch noch die Überlebensperspektive zukünftiger Generationen zerstört – ja geht’s denn eigentlich noch?




Tesla-E-Auto mangels Reichweite für Umwelt­ministerin nicht geeignet

Bild, 11.08.2017: Batterie zu schwach Umweltministerin legt Dienst-Tesla still
Aus für den 110 000 Euro teuren Elektro-Dienstwagen des NRW-Umweltministeriums.
Die neue Ministerin Christina Schulze Föcking (CDU) will den Vorzeige-Tesla, den ihr Amtsvorgänger Johannes Remmel (Grüne) 2016 zu Testzwecken angeschafft hatte, nicht weiter nutzen.
Das bestätigte ein Ministeriumssprecher gegenüber dem „Kölner Stadtanzeiger“. Demnach habe sich die Batterieleistung „für Fahrten über mehrere Hundert Kilometer als noch nicht ausreichend herausgestellt.”
„Die maximale Reichweite lag in den Langstreckentests, je nach Fahrweise und Streckenprofil, bei unter 300 Kilometern. Diese Reichweite konnte nur ausgeschöpft werden, wenn im Anschluss sichergestellt war, dass die Batterien geladen werden können.

Die Ministerin bestätig damit direkt, was auf EIKE schon vor einem Jahr publiziert wurde:
EIKE 26.07.2016: Reichweitenangst, die neue Volkskrankheit
EIKE 19.02.2016: Gleiches Recht für Alle: Warum dürfen Elektroautos so weit von den Prospektangaben abweichen?

Für Minister*innen ist das natürlich kein Problem. Geeignete Lösungen (die der Bürger bezahlt) finden sich immer.
… Derzeit fahre Umweltministerin Schulze Föcking nun in einem Mercedes S500 E-Hybrid, so der „Stadtanzeiger“ weiter.

Dieses Problem mit Elektroautos haben nicht nur CDU-Minister*innen. Selbst die GRÜNEN zeigen, dass sie mit der von ihnen selbst propagierten Technik nicht zurechtkommen:
DER WESTEN, 11.04.2017: Doppelmoral? Grüne-NRW-Ministerin steigt erst kurz vorm Ziel aus Audi A8 in Hybridauto

Macht aber nichts. Was für die „Führungskräfte der Nation“ nicht taugt, ist für die Untertanen gut genug, vor allem kann man es denen verordnen. Diese in sozialistischen Ländern von der Politikkaste schon immer gepflegte Eigenschaft nennt sich heute „mutige Politik“.
Bündnis 90 / Die Grünen, Homepage: Sauber Autofahren ab 2030
Der Programmparteitag hat entschieden: Ab 2030 sollen alle Neuwagen abgasfrei sein. Das ist gut für unser Klima und rettet die deutsche Autoindustrie. Wie das funktionieren soll? Hier geben wir Antworten.
… Das ist eine mutige Vision. Denn heute gibt es noch nicht viele Elektroautos auf deutschen Straßen. Aber unsere Erde braucht mutige Politik.




Geht der Windenergie die Puste aus?

In Deutschland waren Ende 2016 mehr als 28.000 Windräder installiert; Tendenz steigend, die aber nur etwa 12% des in Deutschland erzeugten Stroms produzierten (1). Ihre enorme Zunahme begann nach der Mitte der 1990er Jahre:

Abb. 1: In Deutschland begann der massive Windkraft- Ausbau nach der Mitte der 1990er Jahre. Er setzte sich auch nach 2014, dem Endpunkt dieser Grafik, weiter fort. Bildquelle (2)

Wären die Windräder gleichmäßig verteilt, so würde etwa alle 3 Kilometer in Deutschland eines stehen; doch sie konzentrieren sich in dem besonders windigen Land zwischen dem Mittelgebirgsnordrand und den Küsten; manche stehen auch im Meer („offshore“). Deshalb wird sich die folgende Betrachtung auf Norddeutschland konzentrieren. Auch die in Hauptwindrichtung liegenden Nachbarstaaten Holland, Großbritannien und Dänemark stellten massiv Windräder auf. Doch welche meteorologischen Risiken birgt der Wind als Lebenselixier dieser Anlagen?

Die Windgeschwindigkeit schwankte langfristig stark

Windräder können keine gleichbleibenden Strommengen liefern. Ein Blick auf die Leistungskurve einer typischen Anlage verdeutlicht das:

Abb. 2: Unterhalb von 3 m/s, also schwachem Wind, der aber immerhin schon mit ca. 10 Km/h die doppelte Geschwindigkeit eines Fußgängers hat und 1 bis 2 Beaufort entspricht, wird gar kein Strom erzeugt. Danach verachtfacht (!) sich die Leistungsabgabe mit der Verdoppelung der Windgeschwindigkeit („Kubisches Gesetz“), bis erst zwischen 40 und 45 Km/h (etwa 12 bis 13 m/s oder 6 Beaufort) die Nennleistung erreicht wird, welche trotz weiter steigender Windgeschwindigkeit nur noch gleich bleibt. Bei Sturm (25 m/s sind 90 Km/h, das entspricht 10 Beaufort) schalten sich Windräder ab; dieser besonders starke Wind, der gar nicht so selten ist, kann also gar nicht genutzt werden. Bildquelle Stefan Kopp.

In Norddeutschland ist es zwar windig, aber die zum Erreichen der Nennleistung erforderlichen 6 Beaufort werden nur selten über längere Zeiträume erreicht, und Flauten (erst im Grenzbereich von 2 bis 3 Beaufort springen die meisten Anlagen an) sind leider recht häufig. Selbst der windigste Ort Norddeutschlands, der Brocken, hat nur etwa 5,5 Beaufort im Jahresmittel zu bieten; an der Nordsee etwa 3,5 bis 5, im Binnenland sind es nur 2 bis 3 Beaufort. Auch wenn die Windstärken in Nabenhöhe etwas höher sind, verdeutlichen diese Werte schon, warum trotz der enormen Anlagenzahl nur so wenig Strom erzeugt wird. Langfristige Daten zur Windgeschwindigkeit sind in Deutschland leider sehr selten und extrem lückig. Immerhin fanden sich mit Potsdam- Telegrafenberg und Bremen zwei Stationen, deren Aufzeichnungen bis mindestens 1893 zurückreichen. Folgendes ist jedoch zu beachten: Alle Angaben in den DWD- Datensätzen sind in Beaufort (m/s oder Km/h wären aussagefähiger), und sie werden in der Regel in nur 10 Metern Höhe gemessen oder beobachtet, während die meisten Windräder Nabenhöhen von 50 bis deutlich über 100 Metern Höhe aufweisen, wo es windiger ist. Trotzdem lassen diese Daten nicht nur die kurz-, sondern auch die langfristige Schwankung der Windstärke erahnen (Näheres zur Beaufort- Skala ist leicht im Internet abrufbar):

Abb. 3: An beiden Stationen schwankte die Windstärke (Jahresmittel) erheblich. An der Nordsee scheint um 1915 besonders viel und in den 1930er bis 1950er Jahren eher wenig Wind geweht zu haben, in Potsdam waren die 1930er bis 1940er sowie die 1970er Jahre windig (das endbetonte Gleitmittel „hinkt“ nach). Erst seit den 1990er Jahren verhalten sich beide Reihen ähnlich.

Der langfristige Trend zeigt bei beiden Stationen eine Abnahme der Windgeschwindigkeit:

Abb. 4: Seit 1893 nahm die Windgeschwindigkeit leicht ab; in Potsdam etwas stärker als in Bremen.

Auch wenn man den Daten vor etwa 1950 nicht zu sehr vertrauen sollte (Mess- und Beobachtungsfehler sind wahrscheinlich), so lassen sie doch bereits zwei Schlussfolgerungen zu: Die Windgeschwindigkeit schwankt nicht nur kurzfristig, sondern auch langfristig merklich. Und insgesamt nahm sie leicht ab, was möglicherweise eine Folge der Erhöhung der Oberflächenrauigkeit durch Bebauung sein kann. Flaute- Jahre wie etwa 1926 (in Bremen und Potsdam erkennbar) hätten den Ertrag wegen des Kubischen Gesetzes erheblich geschmälert- durchaus beunruhigende Nachrichten für die Betreiber von Windrädern. Und ganz falsch können die Beobachtungsergebnisse nicht sein, denn die NAO, ein Maß für das Luftdruckgefälle zwischen Azorenhoch und Islandtief, hatte im frühen 20. Jahrhundert ein Maximum (hohes Druckgefälle bedeutet viel Wind), was die windreiche Zeit in Bremen um 1915 als plausibel erscheinen lässt (sie liefert freilich bloß ganz grobe, unscharfe Anhaltspunkte für das Windverhalten; speziell das des Winters). Eine eindeutige Erklärung der Ursachen des langfristigen Windverhaltens ist jedoch, auch aufgrund der mangelhaften Datenlage, kaum möglich. Hierfür kommen außer der Bebauung auch geänderte Häufigkeitsverhältnisse der Großwetterlagen und möglicherweise auch die Sonnenaktivität in Betracht; es bedarf gesonderter Untersuchungen.

Die Entwicklung der Windgeschwindigkeit in den letzten 20 Jahren (1997 bis 2016)

Windkraftgegner behaupten, wegen des massiven Windkraft- Zubaus habe die Windgeschwindigkeit bereits abgenommen. Daher erscheint eine Betrachtung der letzten 20 Jahre sinnvoll, auch wenn dieser Zeitraum recht kurz und daher in seiner Aussagefähigkeit unsicherer als längere Zeiträume ist, für welche aber bei vielen Stationen die Winddaten fehlen. Anders als bei den Lufttemperaturen, dem Niederschlag und der Sonnenscheindauer, gibt es für die Windgeschwindigkeit keine DWD- Flächenmittel für Deutschland oder einzelne Bundesländer. Deshalb wurden 25 Stationen aus den Ländern Schleswig- Holstein, Niedersachsen/Bremen, Mecklenburg, Brandenburg sowie den Nordteilen von Sachsen, Sachsen- Anhalt und Nordrhein- Westfalen mit halbwegs vollständigen Daten im DWD- Archiv gesucht und gemittelt (Stationsliste im Anhang). Die Entwicklung des Jahresmittels der Windgeschwindigkeit für Norddeutschland sieht so aus; eine mögliche Erklärung für die erkennbare Windabnahme inklusive:

Abb. 5: Im Mittel der 25 Stationen aus Norddeutschland sank die Windgeschwindigkeit um 0,15 Beaufort. In dem Datensatz ist auch der Brocken, Norddeutschlands einziger hoher Berg, enthalten, an dem der Wind gleichfalls schwächer wurde, was nahelegt, dass geänderte Luftdruckverhältnisse zumindest mitverantwortlich für die Windabnahme waren (die zumeist windschwachen XX- Lagen, solche ohne eindeutige Anströmrichtung, sind tendenziell häufiger geworden, und ihre Häufigkeit korreliert recht gut mit der Windgeschwindigkeit).

Man müsste also die weitere Entwicklung der Großwetterlagenverhältnisse kennen, um Prognosen über die künftige Entwicklung der Windgeschwindigkeiten zu treffen, was leider nicht möglich ist; Näheres zur Großwetterlagenklassifizierung bei (4). Alleinige Ursache ist sie nicht, denn an den einzelnen Stationen nahm die Windgeschwindigkeit sehr unterschiedlich ab (Anhang); in Bremerhaven und Schleswig nahm sie gar geringfügig zu. Das erhärtet den Verdacht einer zunehmenden Beeinflussung durch verschiedenste Bebauungsmaßnahmen, wobei Windräder die massivsten Veränderungen bewirken (4) (5) (6). Wegen der großflächigen Windenergie- Nutzung in Mittel- und Nordwesteuropa ist auch eine Beeinflussung der Großwetterlagen- und Luftdruckverhältnisse nicht mehr auszuschließen (erhöhte Oberflächenrauigkeit führt zu mehr Reibung, schnellerer Auffüllung von Tiefdruckgebieten; außerdem können sich die Wind- und Temperaturverhältnisse örtlich stark ändern).

Das jahres- und tageszeitliche Windverhalten, Dunkelflauten und Mittags- Schwemmen

Von den so genannten Erneuerbaren Energien (die gibt es physikalisch nicht) vermögen bloß Wind- und Solarenergie nennenswerte Strommengen zu liefern. Auf den ersten Blick scheinen sie sich ganz gut zu ergänzen- im sonnenscheinarmen Winter ist es windiger als im sonnigeren Sommer, und sonnenscheinreiche Hochdruckwetterlagen sind bei flüchtiger Betrachtung meist windärmer. Doch leider gibt es auch im Winter zwei Probleme, welche schon die Abbildung 1 andeutet- kein Windstrom bei Flaute und keiner bei schwerem Sturm. Bei höchstens 8 Sonnenstunden (oftmals nur Null bis 2) fehlt er im Winter umso dringender. Ein Beispiel für eine Dunkelflaute war der 24. Januar 2017:

Abb. 6: Alle „Erneuerbaren“ (Biomasse, grün, ganz unten, Wasserkraft hell blaugrau, Wind dunkelblau off- und blau onshore) lieferten am 24.01.2017 in Deutschland nur etwa 12% der benötigten Elektroenergie; 28.000 Windräder nur lächerliche 1,5 bis 2,5% der benötigten Strommenge (Bildquelle: Agora Energiewende, ergänzt durch Stefan Kämpfe)

Guten Naturbeobachtern wird sicher das häufige Auffrischen des Windes gegen Mittag aufgefallen sein. Denn die Windstärke zeigt leider auch einen Tagesgang, der im Sommerhalbjahr viel ausgeprägter als in der kalten Jahreszeit ist:

Abb. 7: Tagesgang der Windstärke in Jena (Abweichungen vom Mittelwert) im von Hochdruckwetter dominierten August 2003. Man erkennt ein Minimum am frühen Morgen- wenn im einsetzenden Berufsverkehr besonders viel Strom verbraucht wird. Bildquelle (7)

Abb. 7: Tagesgang der Windstärke in Jena (Abweichungen vom Mittelwert) im von Hochdruckwetter dominierten August 2003. Man erkennt ein Minimum am frühen Morgen- wenn im einsetzenden Berufsverkehr besonders viel Strom verbraucht wird. Bildquelle (7)

Ursache hierfür ist die mit der Einstrahlung einsetzende Konvektion, welche dafür sorgt, dass die in reibungsärmeren, höheren Luftschichten meist herrschende größere Windgeschwindigkeit in tiefere Luftschichten „durchschlägt“. Aber selbst bei schwachgradientigem Hochdruckwetter können lokale Windsysteme wie Land-/Seewind, Berg-/Talwind oder Flurwinde durchaus genügend Wind für den Betrieb der Windräder liefern- leider wird er dann meist nicht gebraucht, denn diese Winde haben ihr Maximum meist am späten Mittag bis späten Nachmittag, wenn die Solarenergie auch reichlich anfällt. Oft müssen deshalb Windräder abgestellt werden- der Verbraucher bezahlt den Ausfall mit seiner Stromrechnung. Aber nachts, wenn der Wind gebraucht würde, weht er deutlich schwächer und liefert nur wenig Strom:

Abb. 8: Sehr viel Sonne und mehr Wind gegen Mittag am 08. und 09.08.2016 („Mittags- Schwemme“). Aber selbst da mussten noch erhebliche Strommengen konventionell erzeugt werden, besonders in den Nächten war deren Anteil sehr hoch. (Bildquelle: Agora Energiewende)

Und selbst im Sommer kann es „Dunkelflauten“ geben – jüngstes Beispiel war die Regenwetterphase vom 10./11.08.2017:

Abb. 9: Wenig Sommersonne und wenig Wind – fast eine sommerliche „Dunkelflaute“ am 10./11.08. 2017. Wieder musste fast aller Strom konventionell erzeugt werden. Trotz aller vollmundigen Versprechen steckt die „Energiewende“ in einer tiefen Krise. (Bildquelle: Agora Energiewende)

Lokale Windsysteme sind auch deshalb problematisch, weil deren Nachtwind fast immer zu schwach für den Betrieb der Windräder ist. Außerdem gibt es zwei Phasen mit Flaute, nämlich jeweils vor dem Wechsel zum Tag- und zum Nachtwind. Am Beispiel des Seewindes sei das Prinzip der Lokalwinde kurz erläutert:

Abb. 10: Land-/Seewindsystem (Quelle: Google). Im Sommer ist es besonders ausgeprägt.

Abb. 11: In der Grafik ist nicht die Windstärke, sondern der Gang der Lufttemperatur an der Ostseeküste an einem sonnigen, von Hochdruckwetter beeinflussten Tag gezeigt. Nur während der Seewind- Phase, die in diesem Beispiel von etwa 10 bis 16 Uhr Normalzeit dauerte, steht ausreichend Wind zur Stromerzeugung zur Verfügung. Der Seewind gibt sich durch seine Kühlungswirkung zu erkennen; er verursachte am Vormittag einen Temperatursturz von etwa 6 Grad. Bildquelle (8)

Seewinde reichen meist nur wenige Kilometer landeinwärts; selten einmal weiter als 30 Km, und werden mit jedem Kilometer landeinwärts schwächer. Lokale Windsysteme könnten jedoch mit erklären, warum mancherorts die Windstärke leicht zunahm, denn sie können in Einzelfällen auch durch Wärmeinseleffekte ausgelöst oder verstärkt werden. Auch die Windräder selbst können in Einzelfällen, nämlich bei stabiler Luftschichtung (Inversionen), bei denen der Wind am Boden besonders schwach ist, Turbulenzen erzeugen, die Wind zum Boden transportieren, der die nächtliche Abkühlung sowie Bodennebel- und Taubildung behindert, ansonsten aber völlig nutzlos ist. Derartige Schichtungsprofile zeigt die folgende Abbildung:

Abb. 12: Besonders im Winterhalbjahr, im Sommerhalbjahr eher nachts, stellen sich bei ruhigeren, störungsarmen Wetterlagen bodennahe Inversionen ein, bei denen auch das Windmaximum sehr niedrig liegt. Hohe Windräder können dieses Windmaximum erreichen und durch Turbulenzen die Schichtungsverhältnisse am Boden stören; der Wind nimmt dann in Bodennähe leicht zu (9).

Sind Offshore- Anlagen die Lösung?

Der beschleunigte Ausbau riesiger Windparks auf See („off- shore“) soll nun der müden Windenergie auf die Sprünge helfen. Doch außer den enormen logistischen Herausforderungen bei Errichtung, Betrieb und Wartung dieser Anlagen sowie den ökologischen Folgeschäden für die Meere könnte das fatale Folgen für die bereits bestehenden, umfangreichen küstennahen Windparks an Land haben- der Wind wird noch mehr geschwächt. Jede Steilküste stört und schwächt den Wind; riesige Windparks auf See werden eine zweite solche Störungs- und Schwächungszone erzeugen:

Abb. 13: Das Luftdruck- und Windfeld wird durch eine Steilküste gestört; Windrichtung und Windstärke ändern sich (noch viel intensiver sind diese Vorgänge an Gebirgen als Stauwetterlage). Massive Offshore-Windparks würden eine zweite Störungszone schon weit auf dem Meer erzeugen – an der Küste käme schon weniger Wind an. Quelle (10)

Bei den Offshore-Anlagen tritt außerdem wegen der extremen Wetterverhältnisse (Stürme, salzige, feuchte Luft) ein enormer Verschleiß auf, welcher selbst bei gleichbleibender Windmenge zu verminderter Leistungsabgabe führt- ein Umstand, der schon bei den Anlagen an Land zu beobachten ist. Man kann das mit einem Auto vergleichen, was entweder durch Verschleiß zum Erreichen einer bestimmten Fahrgeschwindigkeit immer mehr Sprit verbraucht – oder bei gleichbleibendem Verbrauch immer langsamer fährt:

Abb. 14: Windkraftanlagen an Land (schwarz: Großbritannien, orange Dänemark) „starten“ ihren Regelbetrieb mit durchschnittlich nur etwa 20 bis 25% ihrer Nennleistung und büßen pro Jahr 1 bis 2% dieser Leistung ein; nach 18 Jahren sind es noch 9 bis 17%. Offshore-Anlagen (blau) starten zwar mit verlockenden 45% der Nennleistung, büßen aber pro Jahr etwa 6% ein und sind daher bereits nach 10 Jahren Regelbetrieb auf etwa 12% ihrer Nennleistung abgestürzt. Bildquelle (11)

Zusammenfassung: Langfristig kann der Wind, vermutlich auch wetterlagenbedingt, in Norddeutschland erheblich stärker schwanken, als das in den vergangenen 20 bis 25 Jahren seit dem Beginn des massiven Ausbaus der Windenergie der Fall war. Windenergie ist keinesfalls unerschöpflich. In den letzten 20 Jahren nahm die Windstärke an den meisten Orten Norddeutschlands schon leicht ab; der Ausbau der Windenergie kann dafür durchaus mit verantwortlich sein. Wind- und Solarenergie ergänzen sich insgesamt nicht besonders gut. Tagsüber sorgen, gerade bei reichlich Sonne, die Konvektion und lokale Windsysteme eher für einen nicht verwertbaren Stromüberschuss; nachts wird der Wind oft schwächer. Nicht selten gibt es „Dunkelflauten“, bei denen Sonne und Wind fast völlig ausfallen; und bei schwerem Sturm kann die Windenergie auch nicht genutzt werden. „Offshore- Anlagen“ werden das Problem der Windstörung und Windabschwächung verschärfen; außerdem unterliegen sie einem rapiden Verschleiß; der aber auch bei den Windrädern an Land zu merklichem Leistungsabfall und sinkendem Stromertrag führt. Insgesamt erweist sich die Nutzung der Windenergie als unzuverlässige, technisch schwer beherrschbare Energiequelle mit ungewisser Zukunft.

Anhang

Stationsliste (Stationsname, DWD- ID; Windmittel in Bft und Trend 1997 bis 2016)

Angermünde 00164 2,67 -0,21

Arkona 00183 4,18 -0,37

Berlin- Schönefeld 00427 2,76 -0,04

Boltenhagen 00596 3,51 -0,18

Bremen 00691 2,86 -0,11

Bremerhaven 00701 3,39 +0,08

Brocken 00722 5,42 -0,21

Cottbus 00880 2,23 -0,17

Cuxhaven 00891 3,43 -0,12

Düsseldorf 01078 2,76 -0,15

Greifswald 01757 2,69 -0,13

Hannover 02014 2,69 -0,09

Helgoland 02115 4,58 -0,33

Köln/Bonn 02667 2,4 -0,08

Leipzig/Halle 02932 2,87 -0,19

Lindenberg 03015 2,53 -0,08

List/Sylt 03032 4,15 -0,2

Lüchow 03093 2,21 -0,05

Magdeburg 03126 2,12 -0,29

Münster/Osnabrück 01766 2,38 -0,17

Neuruppin 03552 2,24 -0,42

Potsdam 03987 2,91 -0,12

Rostock- Warnemünde 04271 3,13 -0,06

Seehausen/Altmark 04642 2,58 -0,14

Schleswig 04466 2,79 +0,02

Quellen

  1. https://1-stromvergleich.com/strom-report/windenergie/
  2. http://www.science-skeptical.de/blog/landraub-durch-erneuerbare-energien/0015300/
  3. https://eike.institute/2016/10/19/wetterlagenhaeufigkeit-und-jahrestemperaturverhalten-in-deutschland/
  4. https://wind-turbine.com/magazin/innovationen-aktuelles/umwelt/6219/lokale-klimaveraenderungen-durch-windparks.html
  5. http://www.donnerwetter.de/presse/immer-weniger-wind-durch-immer-mehr-windraeder_cid_24106.html
  6. http://www.bild.de/regional/leipzig/leipzig/windraeder-haben-einfluss-aufs-wetter-30997886.bild.html
  7. http://wetter.mb.eah-jena.de/station/statistik/index.html
  8. BALZER, K.: WEITERE AUSSICHTEN: WECHSELHAFT. Verlag Neues Leben Berlin, 1982
  9. HEYER, E.: WITTERUNG UND KLIMA. BSB B. G. TEUBNER VERLAGSGESELLSCHAFT, LEIPZIG 1977
  10. BERTH/KELLER/SCHARNOW: WETTERKUNDE. TRANSPRESS VERLAG BERLIN, 1979
  11. http://www.science-skeptical.de/energieerzeugung/warum-der-wind-niemals-keine-rechnung-schickt-und-windkraft-teuer-bleibt/0013948/

Stefan Kämpfe, Diplom- Agraringenieur, unabhängiger Natur- und Klimaforscher




Pakistan: Her mit dem US-Klimageld – oder wir werden weiter Kohle verbrennen!

Pakistan braucht den Zugang zum globalen Fonds, um mit dem Klimawandel fertig zu werden

Awais Umar, 14. August 2017

ISLAMABAD: Die geographische Historie der Welt zeigt, dass Klimawandel kein neues Phänomen ist, haben doch Wissenschaftler als Treiber für historische Klimawandel Treibhausgas-Emissionen und die Kontinentalverschiebung ausgemacht.

Auf dem Global Climate Risk Index rangiert Pakistan an 7. Stelle in der Liste der am meisten verwundbaren Länder. Die ökonomischen Verluste des Landes während der letzten zwei Jahrzehnte infolge Klimawandel und Klima-Extremen beliefen sich auf 3823 Milliarden Dollar.

Auf der UN-Klimakonferenz 2016 sagte Klimawandel-Minister Zahid Hamid: „Wir emittieren weniger als 1% der weltweit emittierten Treibhausgase, und doch rangieren wir unter den Top 10 der Länder, welche am verwundbarsten sind hinsichtlich Klimawandel. Millionen Menschen sind betroffen, und kolossale Schäden treten auf wiederkehrender Basis ein.

Auf der COP 15 in Paris unter Leitung des UNFCCC stimmten die entwickelten Länder zu, den Entwicklungsländern bis zum Jahr 2020 mindestens 100 Milliarden Dollar pro Jahr in den Klima-Anpassungs-Fonds zu zahlen.

Wir sollten um Förderung nachsuchen, um die Kapazität der Arbeiterschaft zu stärken, die Basis technologischer Ressourcen zu verbessern und die Institutionen für erneuerbare Energiequellen zu stärken.

Es ist für uns notwendig, Kohle zu verbrennen um unsere Entwicklungsziele zu erreichen, um den Bedürfnissen der wachsenden Bevölkerung Rechnung zu tragen. Wir können Treibhausgas-Emissionen reduzieren, falls man uns ausreichende andere Ressourcen zur Verfügung stellt hinsichtlich Technologie, Kapazität und Finanzierungen, um uns grüner Energie und Erneuerbaren zuzuwenden“. Dies sagte die Direktorin der Mountain and Glacier Protection Organisation (MGPO) Aisha Khan.

Mehr: https://tribune.com.pk/story/1480833/pakistan-needs-access-global-funds-cope-climate-change/

Meiner Ansicht nach braucht Pakistan keine US-Klimagelder, um Emissionen zu reduzieren. Sie können ihre Wirtschaft mit Kernkraft betreiben.

Pakistan erzeugt gegenwärtig nur etwa 3% seiner Energie aus Kernreaktoren. Aber Pakistan kann ohne Weiteres neue Kernkraftwerke errichten.

Pakistan hat ein fortschrittliches heimisches Nuklearprogramm – so fortschrittlich, dass der Top-Kernphysiker aus Pakistan Abdul Qadeer Khan den Nordkoreanern beigebracht hat, wie man die Atombomben baut, mit denen man derzeit US-Ziele bedroht.

Link: https://wattsupwiththat.com/2017/08/15/pakistan-give-us-climate-cash-or-well-keep-burning-coal/

Übersetzt von Chris Frey EIKE




Wahlkampf 2017 in Deutsch­land: Auf dem Rücken von hundert­tausenden Beschäf­tigten, Millionen von Kindern und Familien – Die Ein­mischung hat bereits begonnen

Da verwundert es denn nicht wirklich, dass insbesondere die Ludendorff-Presse in Norddeutschland alles versucht, „ihren“ Ludendorff-Parteien zum Wahlsieg zu verhelfen. Lag früher deren „Hauptstadt“ in München, liegt deren heutige „Hauptstadt“ in Hamburg.

Oh, was waren das Vorsätze all der Parteien im Bundestag und all der Qualitätsmedien und mit ihr, der Ludendorff-Presse, zu Anfang des Jahres: Dass, was beim US-Wahlkampf passierte, darf und wird sich in Deutschland beim Wahlkampf 2017 nicht wiederholen. Sie haben es sicher schon gemerkt. Wir sind mitten drin. Nicht nur, dass es sich wiederholt, nein, es wird noch getoppt (Abb.2).

Abb.2, Collage: R. Leistenschneider, zeigt den Bericht (Titelbild) aus der Ludendorff-Presse, zur Wahlkampfhilfe der Ludendorff-Parteien. Sie fragen sich, wie das? Die Antwort ist denkbar einfach.

Wer hat nicht immer gegen den Diesel und die Autoindustrie, eine der Säulen unserer Wirtschaft, damit unserer Arbeitsplätze, damit unseres Wohlstands, damit der Stabilität unseres Landes, gehetzt. Na, wer wohl: Die grünen Männchen. Und geht es denen nicht darum, ein „Neues Deutschland“ zu schaffen (Abb.3) und dafür muss natürlich das alte Deutschland, unser liebgewonnenes Deutschland vernichtet und zu Grabe getragen werden. Da gab es doch mal eine Gazette, die hieß doch auch so, für wen war die denn gleich nochmal tätig, ah ja, für „unseren“ Erich (Honecker). Für wen ist denn jetzt die obige Hamburger Gazette unterwegs? Ähnlichkeiten sind dann sicherlich einzig und allein, rein zufällig.

Abb.3: Kämpfer für ein Neues Deutschland. Wo das eine hinführte, durften wir leidvoll erleben. Nun gilt, verhindern wir den nächsten Versuch. Collage: R. Leistenschneider

Das Imperium aus Parteienfilz, nein, das heißt doch bei den Gutmenschen gar nicht so, die sind doch für unser Gemeinwohl unterwegs, wie konnte der Autor dies auch nur einen Moment vergessen. Siehe hierzu auch den Artikel (https://eike.institute/2017/07/18/die-dubiosen-machenschaften-der-deutschen-umwelthilfe-und-ihres-fuehrers-juergen-resch/). Also neuer Versuch: Das Imperium zu unserem Gemeinwohl, bis hinein in die Ludendorff-Presse, hat sich als Sparring-Partner die Automobilindustrie ausgesucht. Deren Wirtschaftsführer nicht gerade für ihren Mut und Courage bekannt sind. Ein offensichtlich ungleicher Kampf: „Grüne Schlägertruppen“ gegen Slips und Nadelstreifen.

Allerdings sind diese auch nicht vorrangig darin unterwegs, sich mit „grünen Schlägertruppen“ auseinander zu setzen, sondern für das ihnen anvertraute Unternehmen Erfolge zu erzielen und dadurch die Arbeitsplätze ihrer Beschäftigten und das Leben von Millionen von Familien zu sichern und damit ihren wichtigen Beitrag zur Stabilität unseres Landes, unseres Deutschlands zu leisten.

Die „Leistungen“ der Ludendorff-Presse und der Ludendorff-Parteien sind anders gewichtet. Beide müssen, mangels anderer Fähigkeiten, darin unterwegs sein, all das Erreichte zu vernichten, denn anders haben sie keine Bühne und keine Chance, die Macht zu erreichen. Damals, wie heute.

Was muss die Autoindustrie in den letzten Tagen alles über sich ergehen lassen. Da ist dieser oberste türkische Politiker, dieser gewählte türkische Präsident und damit oberster Demokrat seines Landes, was er täglich unter Beweis stellt, der die deutsche Automobilindustrie als Terroristenorganisation bezeichnet (Abb.4) und da ist die Hamburger Ludendorff-Presse, die die deutsche Automobilindustrie quasi als Mafiaorganisation ausruft. Beide sich also auf ihre Weise massiv in den deutschen Wahlkampf einmischen, wie weiland Moskau in den US-Wahlkampf. Sie haben sicherlich davon gehört, dass diverse amerikanische Untersuchungsausschüsse dies derzeit aufzuklären versuchen und Stück für Stück mehr über die Einmischung Moskaus bekannt wird.

Moment mal, Einmischung Moskaus in den US-Wahlkampf. Einmischung der Türkei in den deutschen Wahlkampf. Einmischung der grünen Presse in den deutschen Wahlkampf. Da „unten“ soll es doch eine neue Männerfreundschaft geben! Haben die sich womöglich abgesprochen: In der einen Woche drischt der eine auf die deutsche Automobilindustrie ein (und zieht alles 6 Tage später wieder zurück – wäre nur ein Missverständnis gewesen) und die Woche später, lässt der andere „seine“ Redakteure in der Hamburger Gazette medienwirksam eindreschen. Und das alles zufällig kurz vor der Bundestagswahl. Was es doch alles für Zufälle gibt!

Abb.4, Deutsche Autoindustrie: „Türkei setzt deutsche Unternehmen auf Terrorliste“ war eine der Schlagzeilen, die in der Presse zu lesen waren. Ein absurder Vorwurf, der dann auch wenig später zurück genommen wurde.

Nun, das die deutsche Autoindustrie eine Dependance des internationalen Terrorismus ist, ist also vom Tisch. Um was geht es eigentlich beim Letzteren, was die Hamburger Ludendorff-Presse als Titelstory hoch stilisiert?

Im Artikel des Autors geht es nicht um die vermeintlichen Anschuldigungen, da hierzu ein laufendes Ermittlungsverfahren, glaubt man der Presse, seit 2014 zur Klärung, eingeleitet wurde und dieses Kartellrechtsverfahren wird die Antwort bringen und nicht der Spiegel, sondern um das Gebaren des Spiegel, der selbsternannten moralischen Instanz in der deutschen Qualitätspresse und seinen Artikel „Das Kartell“.

Sofern in der Öffentlichkeit in einer Grundsatzfrage Klärungsbedarf besteht. Treffen an für sich, auch solche der deutschen Automobilindustrie sind nicht verboten oder verwerflich, sondern ggf. deren Inhalt, sofern dort gegen Kartellrechtsbestimmungen verstoßen wurde und genau dies ist gegenwärtig in den dazu allein zuständigen Behörden in Klärung. Denn:

Überall finden Treffen statt. Die Internisten treffen sich zu einem Kongress (sind bekanntlich ein paar mehr als fünf). Die Ärzte treffen sich. Die Kleintierzüchtervereine treffen sich. Die Politik trifft sich. Diese oftmals zu unsinnigen Treffen, wie letztmals in Marrakesch beim Unsinns, nein, wieder falsch, beim Klimagipfel, also Mittelwertgipfel. Dort ist man auch für unser Gemeinwohl unterwegs und lässt es sich auf Steuergelder recht gut gehen (Abb.5). Sogar die Presse trifft sich. Wie, da werden doch nicht etwa unerlaubte Absprachen getroffen, wie man z.B. Aufklärer, schon wieder falsch, die heißen Skeptiker oder gar Leugner, also, wie man Klimaleugner davon fernhält, in die Öffentlichkeit zu gelangen. Haben wir es hier etwa mit einem Meinungskartell zu tun, welches versucht, die Öffentlichkeit zu manipulieren? Hat Der Spiegel beim aktuellen Titelbild lediglich seine Innenansichten nach außen gespiegelt?

Abb.5: Eigenansichten der Klimaretter in Bild gebracht.

Zurück zu den „5er-Treffen“ der deutschen Automobilindustrie, zumindest nennt der Spiegel diese so. Wie oben bereits geschildert, ist miteinander reden nichts Falsches oder gar Verbotenes. Wenn der Autor z.B. an die Zapfsäule fährt, fragt er sich, ob dass denn Zufall ist, dass die Pistolen an den Zapfsäulen durchgängig für alle Fahrzeuge passen? Oder zu Hause, dass die Stromstecker und Steckdosen alle gleich aussehen und alle Geräte daran angeschlossen werden können? Sie haben es sicherlich schon erraten: Dies ist kein Zufall, sondern das Ergebnis vieler und langwieriger Treffen der jeweils Beteiligten. Der Autor versucht sich erst gar nicht vorzustellen, was denn passieren würde, trifft man sich nicht mehr: Nichts funktioniert und jeder weiß warum.

Damit Standards festgelegt werden (auch in der Politik soll es das geben, auch bei den Vereinten Nationen: Die Menschenrechtscharta ist eine solcher Standard, der erst abgeschlossen und damit gültig gemacht wurde, nachdem sich die Akteure vielmals getroffen haben und miteinander redeten), müssen sich die jeweiligen Teilnehmer treffen und miteinander reden. Was passiert, wenn man nicht mehr miteinander redet, zeigt exemplarisch die Abbildung 14.

Standards gibt es im Übrigen auch beim Spiegel, zumindest soll es solche dort geben. Ist man dort doch sehr stolz auf die Spiegel-Bestsellerliste. In dieser werden die meist verkauften Bücher gelistet und damit Empfehlungen an potentielle Leser gegeben, was denn nun in unserem Land zu lesen interessant ist und die für viele in unserem Land so etwas wie eine Referenzliste ist.

Spiegel-Affäre

Das gibt es ein Buch mit Namen „Finis Germania“, welches von den verantwortlichen Spiegel-Mitarbeitern einer breiten Öffentlichkeit empfohlen wurde und dadurch auf Platz 6 der besagten Bestsellerliste gelangte, bis das Buch auf geheimnisvolle Weise vom Spiegel dort entfernt wurde, obwohl es von den Verkaufszahlen (Standards) dort hätte weiter enthalten sein müssen.

Die Spiegel-Redaktion begründete ihren Schritt damit, dass es sich bei dem Buch um rechtsradikales Schrifttum handele (http://www.spiegel.de/kultur/literatur/finis-germania-und-die-spiegel-bestsellerliste-in-eigener-sache-a-1159667.html). Dies wäre für den Autor nur zu verständlich, denn in unserem Land haben Empfehlungen für rechtsradikale Literatur und Gedankengut nun wirklich keinen Platz. Allerdings kommen mit dieser Spiegel-Affäre sofort Fragen auf. Ist dies nur ein Einzelfall oder hat es das in der Vergangenheit öfters gegeben, dass platzierte Bücher retuschiert wurden, was dann den Charakter einer Manipulation hätte und eine weitere Spiegel-Affäre darstellt.

Wie auch immer, sowohl das Spiegel-Vergehen, ein von den Verkaufszahlen und damit den Kunden gesetztes Buch einfach zu entfernen, verstößt gegen die eigenen Standards und Regeln einer demokratischen Gesellschaft und ist eine schallende Ohrfeige für redliches und transparentes Verhalten. Noch schlimmer wirkt indes die Spiegel-eigene Rechtfertigung seiner Chefredaktion, bei dem Buch handele es sich um rechtsradikales Gedankengut. Geradezu katastrophal für die Reputation des Spiegel, nicht zu wissen, was man den vielen, gutgläubigen Lesern in unserem Land, empfiehlt. Nicht einschätzen zu können, um was es sich handelt, das einem vorliegt. Um was es sich handelt, das die Spiegel-Redakteure empfehlen. Da fragt sich der Autor, was weiß man eigentlich beim Spiegel? Kann man dort überhaupt etwas richtig einschätzen? Weiß man überhaupt, worüber man schreibt? Ganz offensichtlich nicht! Ja was ist denn dann die Titelstory „Das Kartell“ wert? Über die Antwort dazu, muss nicht lange gerätselt werden.

Abb.6: Mit seinem jüngsten Bericht zum Kartell (siehe auch Abb.15), hat der Spiegel gezeigt, wo er zu finden ist. Der Autor hat sich auf die Suche gemacht und ist fündig geworden. Bild: Fotolia, Text: Autor.

Aber, sind wir doch mal ehrlich, dem Spiegel geht es doch gar nicht um investigative Aufklärung, sondern um Unterstützung seiner grünen Männchen (der Autor kommt noch dazu) und natürlich um Auflagenstärke (Abb.7).

Abb.7; Datenquelle: ivw.eu, zeigt die wirtschaftliche Entwicklung (Verkaufszahlen) des Spiegels. Gut 27% seiner früheren Leser hat er bereits im dargelegten Zeitraum verloren, mit weiter fallender Tendenz. Da liegt doch gleich doppelter Nutzen für den Spiegel, an einer vermeintlichen, reißerischen Story. Auch, wenn da gar nichts drin steht, was den Charakter einer Story hätte und schon gar nicht, einer Top-Story.

Standards werden üblicherweise in Normen festgelegt. Da gibt es z.B. die DIN-Normen oder die internationalen ISO-Normen. In beiden trifft man sich und zwar diejenigen, die fachlich davon betroffen sind. Bei Fahrzeug-relevanten Themen sind dies verständlicherweise die betroffenen Firmen. Pressevertreter oder Putzfrauen werden üblicherweise, da beide wenig Fachliches dazu beitragen können, nicht geladen. Genauso wenig, wie beim Ärztekongress, der Hausmeister geladen wird, obwohl der natürlich auch den Krankenhausbetrieb kennt.

Jetzt haben wir uns bereits etwas mit unseren hausgemachten Spiegel-Storys befasst – haben wir einfach Vertrauen in unsere Ermittlungsbehörden. Im Ausland werden bekanntlich auch Autos gebaut, aber da stehen ja auch keine Wahlen an. Der Autor wäre jetzt sehr verwundert, würde im Ausland nicht miteinander geredet. Abb.8 zeigt exemplarisch, wie dort in der Presse mit Industrie- oder Automotivtreffen umgegangen wird.

Abb.8: Der chinesische Ministerpräsident, Li Keqiang bei der Eröffnungsrede zum Treffen der Automobil-Vertreter in 09/2016 auf der ISO-Tagung in Peking. Links beim Eintritt mit seiner Regierungskommission und rechts bei seiner Rede, Quelle beides: Chinesisches Staatsfernsehen, Screenshot aus Video-Clip. Hier wird niemand in der Presse als Verbrecher dargestellt, der versucht,technische Standards zu setzen und sich dazu trifft. Im Gegenteil, er hat die Unterstützung und Aufmerksamkeit der höchsten staatlichen Würdenträger. Eine solche Wertschätzung für die Wirtschaft, erinnert den Autor irgendwie an Helmut Schmidts Deutschland. Aber das ist lange her.

Es hat den Anschein, als sind wir in unserer bequemen Welt, die uns nicht zuletzt durch unsere wirtschaftlichen und technischen Leistungen zu Teil wurde, suizid-gefährdet geworden, dass wir auf Sirenengeschrei hereinfallen – Sie kennen die Sirenen aus der griechischen Mythologie, die die Schifffahrer vom Kurs abbrachten und in ihr Verderben führten. Die Presse und schon gar nicht die grünen Männchen, haben an unserem Wohlstand auch nur den geringsten Anteil. Im Gegenteil, sie sind Nutzdieser dessen und betätigen sich als die „Sirenen“ der Neuzeit.

Übrigens hat VW, wie Spiegel Online jetzt schreibt, einen Teilerfolg erzielt: „VW erzielt Teilerfolg vor Gericht“. Auch wenn die Richter den Staatsanwälten in ihrem Handeln Einhalt geboten haben, geht der Autor selbstverständlich davon aus, dass sich die Staatsanwälte einzig und allein von unserem Rechtsstaat leiten lassen und nicht von irgendwelchen persönlichen oder gar politischen Präferenzen.

Während es sozusagen zu den guten Sitten gehört, sich nicht (öffentlich) an Spekulationen zu beteiligen und schon gar nicht, sich in laufende Ermittlungen einzumischen, ist der aktuelle Spiegel-Bericht voll von solchen Spekulationen und Vorverurteilungen.

Der Autor wird sich daran nicht beteiligen. Auch nicht, dass womöglich die Verbrecher und Betrüger anderswo sitzen könnten. Womöglich in Hamburg oder in Radolfzell. Bei den ersteren müsste der Presseethikrat (sofern es so etwas noch gibt) aktiv werden und die Antwort geben, beim letzteren die Bundesregierung für Abhilfe und Aufklärung sorgen. Im Gegensatz zum Spiegel, hat der Autor vollstes Vertrauen in die Aufklärung der zuständigen Kartellrechtsbehörden, die, wie geschildert, die Thematik nicht erst seit der Spiegel-Veröffentlichung prüfen. Unser Rechtsstaat und seine Instanzen funktionieren nämlich auch ohne „Hilfe“ diverser Hamburger Gazetten.

Der Spiegel schreibt in seinem Artikel: „Danach haben sich Daimler, BMW, Volkswagen, Audi und Porsche seitvielen Jahren, mindestens seit den 1990er Jahren…abgestimmt.“ Aha, mindestens seit den 1990er Jahren. Also mit anderen Worten, Genaues weiß man nicht. Um was es dem Spiegel offensichtlich geht, wird schnell ersichtlich. Denn sein Feindbild steht. So schreibt er: „Es ist eine Erzählung über die segensreiche Wirkung der Marktwirtschat, …Doch sie ist falsch.“ Na, alles klar? In 6 Wochen sind Wahlen. Wer schwadroniert immer, unsere freie Marktwirtschaft sei falsch und man müsse nach neuen Wegen suchen. Richtig, die grünen Männchen und die Linke, insbesondere verkörpert durch Sarah Wagenknecht und ihre Kommunistische Plattform.

Der Spiegel-Artikel strotzt nur so von Spekulationen, Vorverurteilungen und tendenziöser Berichterstattung: „Und dann sind da noch die Millionen Besitzer von Dieselautos. Auch sie sind Opfer des deutschen Autokartells.“ Und weiter: „Den Schaden haben jetzt die Dieselkäufer.“ Ist das nicht rührend, wie sich der Spiegel als Verbraucherschützer darstellt und natürlich den Diesel als Feindbild auserkoren hat. Diesel und Verbraucherschützer, also das erinnert den Autor frappierend an die Darstellungskette der Deutschen Umwelthilfe. Der Autor hatte den Filz zwischen der Deutschen Umwelthilfe und dem Spiegel bereits in seinem Bericht (https://eike.institute/2017/07/18/die-dubiosen-machenschaften-der-deutschen-umwelthilfe-und-ihres-fuehrers-juergen-resch/) dargelegt.

Im Spiegel-Artikel geht es weiter: „Ein japanischer Hersteller habe eine Antwort darauf. Toyota habe bereits Fahrzeuge mit einem Hybridantrieb im Angebot.“ … „Treibstoffverbrauch und damit CO-Ausstoß sinken beträchtlich. “Hoppala, da wird Toyota in den „Himmel“ gehoben, dass erinnert den Autor nun in frappierender Weise an die Deutsche Umwelthilfe, die ebenfalls Toyota hofiert und finanziert nicht Toyota deren dubiosen Dienstwagencheck mit 80.000€, bei dem Konzernmanager genötigt werden, von VW, Audi, Mercedes, oder BMW auf Toyota umzusteigen (siehe den bereits erwähnten Bericht des Autors über die Deutsche Umwelthilfe)? Das riecht ja förmlich nach Filz und Stimmungsmache. Donnerwetter, Toyota: Der Treibstoffverbrauch sinkt dramatisch. „Dramatisch“! Das wollen wir uns genauer ansehen. Toyota, der Weltenretter.

Toyota bietet den „Prius“ an, ein Hybrid:

Abb.9: Toyota Prius = 72 kW (98 PS) Benzinmotor und 53 kW (72 PS) Elektromotor, zum Preis um die 30.000€. Abb., Quelle: Toyota

Nach den realen Testergebnissen von Autobild verbraucht der Toyota Prius Hybrid 5,2l Benzin auf 100km. Quelle: http://www.autobild.de/artikel/toyota-prius-test-8739585.html

Jetzt wollen wir uns drei Diesel im Vergleich ansehen. Ebenfalls von Autobild unter realen Bedingungen getestet.

VW Golf Diesel

Abb.10: VW Golf 2.0 Blue TDI Highline = 150 PS Dieselmotor, Abb., Quelle: VW

Nach den realen Testergebnissen von Autobild verbraucht der VW Golf 2.0 Blue TDI 5,5l Diesel auf 100km. Quelle: http://www.autobild.de/bilder/so-viel-verbrauchen-unsere-autos-wirklich-4240374.html#bild12

Dies bedeutet einen nahezu identischen Verbrauch, bei deutlich besseren Motor** – und mit besseren Fahrleistungen!

Seat Leon Diesel

Abb.11: Seat Leon 1.6 TDI DPF= 105 PS Dieselmotor, Abb., Quelle: Seat

Nach den realen Testergebnissen von Autobild verbraucht der Seat Leon 1.6 TDI 5,1l Diesel auf 100km. Quelle:http://www.autobild.de/bilder/so-viel-verbrauchen-unsere-autos-wirklich-4240374.html#bild13

Dies bedeutet bei leicht besseren Motorleistungen** einen geringeren Verbrauch als der Toyota mit seinem Hybridantrieb!

** Wie jeder Fahrzeugbesitzer weiß, hat ein Diesel bei gleichen Motorleistungen dennoch deutlich bessere Antriebsleistungen als ein Benziner, schon allein wegen seines merklich höheren Drehmoments.

Und zum Abschluss möchten wir uns eine Luxuslimousine ansehen. Wie denn deren Verbrauch zu dem hochgelobten Toyota Hybrid ist.

Mercedes C 220BlueTECAutomatic

Abb.12: Mercedes C 220 BlueTEC= 170 PS Dieselmotor, Abb., Quelle: Mercedes

Nach den realen Testergebnissen von Autobild verbraucht der Mercedes C 220 BlueTEC 5,8l Diesel auf 100km. Quelle:http://www.autobild.de/bilder/so-viel-verbrauchen-unsere-autos-wirklich-4240374.html#bild14

Dies bedeutet, bei fast doppelter Motorleistung und einer Luxuslimousine, einen nur unwesentlichen höheren Spritverbrauch im Realbetrieb.

Fazit des Vergleichs, nach Testangaben von Autobild:

Der Diesel ist gegenüber einem Toyota Hybrid die deutlich bessere Alternative. Ohne zusätzlichen Hybridmotor und dessen Ressourcenverbrauch(!) verbraucht der Diesel nicht mehr, bei deutlich besseren Motor- und Fahrleistungen und man bekommt sogar für den nahezu identischen Verbrauch eine Luxuslimousine.

Der Vergleich zeigt weiter, dass:

  • die deutsche Automobilindustrie Spitze ist
  • der Diesel das umweltfreundlichste Fahrzeug darstellt und
  • der Spiegel dummes Zeug schreibt und Falschmeldungen verbreitet

O-Ton Spiegel: „Toyota habe bereits Fahrzeuge mit einem Hybridantrieb im Angebot.“ … „Treibstoffverbrauch und damit CO -Ausstoß sinken beträchtlich.“

Mangels technischem Verstand und aufgrund recht überschaubarem Wissen in der Spiegel Redaktion, gepaart mit offensichtlicher politischer Kungelei mit der Deutschen Umwelthilfe und den grünen Männchen, ist im besagten Spiegel-Artikel viel von „wäre“, „hätte“, „sollte“, „könnte“, usw., also dem Konjunktiv die Rede. Nichtssagenden Ausdrücken also. Und die tendenziöse, politisch eingefärbte Berichterstattung wird denn überdeutlich in solchen Ankerwörtern wie „Syndikat“, was natürlich beabsichtigt, die Branche in die Nähe der Mafia, also eines Verbrechersyndikats zu rücken. Dieses Syndikat besteht ganz offensichtlich, aber wohl nicht an der Stelle, wie vom Spiegel ausgerufen, sondern eher in dem „Syndikat“ zwischen dem Spiegel, der Deutschen Umwelthilfe und den grünen Männchen, die ideologisch versuchen, den Diesel, eine der Säulen der deutschen Automobilindustrie, mit übler Nachrede und falschen Anschuldigungen zu zerstören.

Abb.13: Jürgen Resch, der Geschäftsführer der Deutschen Umwelthilfe auf dem Parteitag der Grünen, mit donnerndem Applaus und Standing Ovation.. Na, das „Syndikat“ wird immer deutlicher…. Quelle: (https://www.youtube.com/watch?v=MCL-S7jKtYo), Collage: R. Leistenschneider

Das „Syndikat“, auch der Blender und Nichtskönner. Aufgrund des oben gezeigten mangelnden technischen Verstandes und ihres geringen Wissens, empfiehlt der Autor den Spiegel-Redakteuren/innen und den Spiegelverantwortlichen dringend den folgenden Link zu beachten:

https://www.youtube.com/watch?v=5KT2BJzAwbU

Weiter oben war von Standards und Normen die Rede. Sogar das Toilettenpapier und dessen Rollen sind genormt – hatten sich vorher viele Menschen getroffen, diesen Standard hinzubekommen. Was passiert, wenn die zuständigen Gremien nicht mehr miteinander reden, weil ausgeraste Journalistenund/oder NGOs dieses moralisch verbieten wollen oder die Ludendorff-Presse ihrer Klientel zu Wählerstimmen verhelfen will, zeigt Abb.14.

Abb.14 (Quelle) (https://www.heise.de/imgs/71/1/8/8/4/6/3/2/9911-e003438268a2887b.jpg) wegen Copyright-Bedenken nicht gezeigt, sondern als Link. Anm. Autor.

Ob es sich bei der gezeigten Szene um die Chefredaktion des Spiegel handelt (wir erinnern uns an die o.g. Spiegel-Affäre, wo alles drunter und drüber ging), vermag der Autor nicht zu beantworten. Ähnlichkeiten, mit dort lebenden Personen, sind jedoch rein zufällig und vom Autor nicht gewollt.

So leid es dem Autor tut und er nimmt das Wort nicht gern in die Feder, aber Der Spiegel hat mit seiner jüngsten Titelgeschichte einmal mehr eindrucksvoll unter Beweis gestellt, dass die Bezeichnung „Lügenpresse“ für seinesgleichen zutreffend ist. Schlimmer noch, versucht diese Presse mit falscher Berichterstattung, sowie Effekthascherei Auflagenpflege zu betreiben und sie muss sich weiter den Vorwurf gefallen lassen, einen „alten Hut“ (seit 2014 bei den zuständigen Behörden bekannt) zu benutzen, um „ihrer“ Partei kurz vor den Bundestagswahlen Wähler zu zutreiben. Denn denen geht es derzeit in Umfragen nämlich gar nicht gut.

Der Spiegel hat Ende der 1970-Jahre** geschrieben, dass die Stasi im deutschen Bundestag in Bonn in Fraktionsstärke vertreten sei. Heute fragt sich der Autor, in welcher Stärke die „grüne Stasi“ beim Spiegel vertreten ist? Wie es den Anschein hat, in Bataillonsstärke.

** Der Autor hatte den Spiegel von 1973 bis 2004 regelmäßig gelesen.

Im Artikel des Autors ist in der Spiegel-Affäre weiter oben von Innenansichten die Rede. Dem Spiegel schlägt er daher vor, der Öffentlichkeit mal einen kleinen Einblick in seine Arbeit und seine Prozesse zu geben. Der Autor hat für den Spiegel dazu das passende Titelbild entworfen (Abb.15).

Abb.15: © R. Leistenschneider. Vorschlag des Autors für die kommende Titelgeschichte beim Spiegel. Denn das „S“ im Spiegel steht sicherlich für „Schaf“ und das „l“ für „Lüge“. Die Silbe „gel“ ist dann sicherlich die Abkürzung für (wieder einmal) „gelogen“.

Bei den Herren links und rechts oben im Bild, handelt es sich nicht um Spiegel-Redakteure, sondern um Stan Laurel und Oliver Hardy, auch bekannt als Dick & Doof. Sie sollen den Comedy-Charakter des Spiegel unterstreichen.

Die Ermittlungsbehörden brauchen den Spiegel nicht, um ihre Arbeit zu machen und glaubt man Medienberichten, arbeiten gerade die Automobilfirmen eng mit den Behörden zur Aufklärung zusammen.

Und was macht der Spiegel aus einer den Behörden seit drei Jahren bekannten „Geschichte“: „Die Praxis detaillierter, über Jahre andauernder Absprachen zwischen den Autobauern Porsche, Audi, VW, BMW und Volkswagen hatte der Spiegel in seiner aktuellen Ausgabe aufgedeckt.“ Eine glatte Falschaussage! Gar nichts hat er aufgedeckt, stimmen die Presseberichte, dass die Behörden sei ca. 3 Jahren bereits ermitteln. Sondern er betreibt lediglich den Versuch, seinen grünen Männchen kurz vor den Bundestagswahlen medienwirksam Wähler zuzutreiben. Denn denen geht es in Umfragen gar nicht gut.

Von der Politik in Berlin verlangt der Autor insbesondere den Schutz der Opfer sicher zustellen. Die verantwortungslosen Kreise zur Rechenschaft zu ziehen, die offensichtlich ohne „Not“, mit bewussten Falschmeldungen Millionen Familien verunsichern, ganze Branchen in Verruf bringen, den Standort Deutschland schädigen und Millionen-Vermögen verbrennen. Nun haben Aktionäre, zu denen auch der „Karle vom Band“ mit seinen Belegschaftsaktien gehört, von extern verschuldeter Falschmeldungen keinen Schaden, solange sie ihre Papiere nicht verkaufen. Will aber der „Karle vom Band“ seinem Sohn / seiner Tochter zum anstehenden Schulanfang so ausstatten, damit sein Kind sich nicht vor den reichen Pressekindern zu „schämen“ braucht, trägt er den Schaden dieser offensichtlichen Hetzkampagne, wie vom Spiegel los getreten, davon. Hier hat die Politik sicher zu stellen, dass die Pressehäuser gerichtlich haftbar gemacht werden können.

Musste nicht die Deutsche Bank der Kirch-Gruppe eine Millionen-Entschädigung zahlen, weil sie Falschmeldungen heraus gab und der Aktienkurs daraufhin in den Sinkflug ging! In gleicher Weise haben Pressehäuser zu haften. Die Spiegel-Heraufgeber können dann schon mal ausrechnen, was sie zu zahlen haben, aufgrund ihrer tendenziösen und falschen Berichterstattung. Hier könnte die Politik zeigen, was ihr der Schutz der Menschen in unserem Land wert ist. Denn, wie steht schon in der Bibel: „An ihren Taten werdet ihr sie erkennen.“

Taten: Wieder einmal haben skrupellose Kreise – wie beim Feinstaub – dafür gesorgt, dass Millionen Familien in unserem Land verunsichert sind, Vorverurteilungen ausgesprochen wurden und unserem Land Schaden zugefügt wurde. Doch wir haben bald die Möglichkeit, dies zu ändern. Wie? Indem Sie die Parteien wählen, die für Fortschritt, Sicherheit, Zukunft, Familie und Gerechtigkeit stehen und den Ludendorff-Parteien von heute das zeigen, was ein Schiedsrichter als Ultima Ratio anwendet, um seine Autorität zu wahren:

Abb.16

Raimund Leistenschneider – EIKE




Was ist nun wirklich mit der Wissenschaft passiert?

Die Standardantwort auf diese Frage lautet, dass die Unsicherheiten evaluiert worden sind und peripher erscheinen gegenüber dem zentralen Punkt: wir wissen, dass es schlimm werden wird, und wir sind nur unsicher, wie schlimm es wird. Allerdings sind die Unsicherheiten, die ich hier im Sinn habe, zu fundamental für diese Erklärung, als dass man sie akzeptieren kann. Ich habe den Verdacht, das Problem besteht darin, dass Klimatologen Prophezeiungen abgeben, die nicht falsifiziert werden können mittels geeigneter Experimente. Erkenntnisse aus einem Experiment sind ein bedeutendes Mittel, um erkenntnistheoretische Unsicherheiten (das heißt Ignoranz) zu reduzieren, und es sind derartige Reduktionen, die man sich wünschen möchte, um eine Konvergenz der Meinungen zu erreichen. Aber innerhalb der Klimatologie kommt es zu einem Konsens durch Folgerungen und Disput, wobei Logik und Objektivität im Wettbewerb stehen mit Rhetorik, Ideologie, Politik und Berechnung. Die Soziologie der Wissenschaft ist bedeutend dafür, Gewissheit zu etablieren ohne dass man die Ungewissheit reduzieren muss.

Zurück zu den Grundlagen

Niemand wird in Frage stellen, dass Klimatologie eine Wissenschaft ist. Daher profitieren Klimatologen von der Glaubwürdigkeit, die jeder vernünftige Mensch in den Proklamationen der Wissenschaftler sieht. Darum scheint es so einfach zu sein, jeden als ,anti-wissenschaftlich‘ zu brandmarken, der den ,überwältigenden‘ Konsens unter den Klimatologen in Frage stellt. Schließlich – um Präsident Obama zu zitieren – „sind die Wissenschaft über alle Zweifel erhaben und die Fakten eindeutig“. Die gleiche Prämisse unzweifelhafter Integrität liegt hinter den Empfehlungen von Öko-Psychologen an der University of South West England, denen zufolge jeder, der die Wahrheit hinter Catastrophic Anthropogenic Global Warming (CAGW) in Frage stellt, als unter Geistesverwirrung leidend behandelt werden sollte (1). Außerdem, die Zeit, die man mit Diskussionen mit solchen Skeptikern verschwendet (oder ,Flat Earthers‘, wie Al Gore sie nennt), könnte zu entscheidenden Verzögerungen der Einführung notwendiger Maßnahmen führen. Derartiger Skeptizismus ist daher in jeder Einzelheit so irrational und unmoralisch wie die Leugnung des Holocaust, so dass man dagegen wirklich ein Gesetz erlassen sollte, oder? Aber bevor wir völlig darin aufgehen (buchstäblich), sollten wir uns ins Gedächtnis zurückrufen, warum wir den Wissenschaftlern so vertrauen, und wir sollten uns fragen, ob unser Verständnis für die Ursache dieses Vertrauens es rechtfertigt, hinsichtlich des vermeintlichen Konsens‘ unter Klimatologen auf der Hut zu sein.

Es ist allgemein akzeptiert, dass die prinzipielle Stärke hinter der wissenschaftlichen Methode die Objektivität ist, die daraus resultiert, dass man sich selbst strikt daran hält, nur falsifizierbare Statements abzugeben, besonders hinsichtlich praktischer Experimente. Zumindest sollte man nur Statements abgeben, welche Prophezeiungen enthalten, die mit Referenz zur Natur verifiziert werden können. Nur so sollte ein Konsens erreicht werden. Wissenschaft ist keine Demokratie – Fakten entscheiden, nicht eine wissenschaftliche Wählerschaft. Aber selbst in der reinsten aller Wissenschaften kann man gelegentlich Bereiche von Spekulation finden, die nicht offensichtlich einem genauen Experimentieren unterzogen werden können. Wenn dies passiert, ist das Aufblühen eines Disputes fast unvermeidlich. Schließlich sind auch Wissenschaftler nur Menschen. Falls jemand dieser Mischung eine Frage von vitaler Bedeutung hinzufügt, etwa wenn es um das Überleben der menschlichen Rasse geht, kann man fast dafür garantieren, dass Medien und Politik sich des Themas annehmen. Und danach sind dich Chancen einer ruhigen, sachlichen Debatte praktisch gleich Null. Was noch wichtiger ist, das Fehlen der Falsifizierbarkeit bildet den Rahmen für das erreichen eines Konsens‘ mit anderen Mitteln, was zu einer Gewissheit führt, die man nicht als Nennwert betrachten kann. In der Causa Klimatologie kommt der erste Hinweis darauf, dass der Konsens keineswegs das ist, was er zu sein scheint, aus der außerordentlichen Signifikanz. Der Konsens innerhalb der Klimatologie, so sagt man uns, spiegelt das Erreichen eines Niveaus der Gewissheit, welches in der Wissenschaft einmalig ist. Offensichtlich ist Klimatologie die einzige wissenschaftliche Disziplin in der Geschichte, bei der die Wissenschaft ,settled‘ ist!

Zugegeben, die Theorie von CO2 als einem Treibhausgas ist im Labor leicht zu bestätigen, und die Tatsache, dass es während der Industrialisierung einen signifikanten Anstieg von CO2 in der Atmosphäre gegeben hat, ist durch Messungen bestätigt. Bis hierhin ist das Narrativ, dass die Menschheit derzeit zum Klimawandel beiträgt, leicht zu akzeptieren. Aber nichtsdestotrotz ist das nicht der Punkt. Die Frage lautet, ob gegenwärtige Trends herangezogen werden können, um zu prophezeien, dass es die realistische Aussicht auf irreversible und katastrophale Umweltschäden in nicht sehr ferner Zukunft gibt [Durch Windräder und Solarpaneele jedenfalls ist diese Zukunft schon Gegenwart! Anm. d. Übers.]

Vergisst man nicht, dass eine wissenschaftliche Aussage falsifizierbar sein muss – gibt es da ein legitimes Experiment, mit dem man die spezifischen Prophezeiungen im Namen der Klimatologie falsifizieren kann? Nun, ich fürchte, die Antwort lautet nein. Das Experiment würde erfordern, einen repräsentativen Planeten zu betrachten (den Planeten Erde zum Beispiel), den man genau der Art CO2-Zunahme aussetzt, der uns Sorgen macht, und dann abzuwarten, was passiert. Ein solches ,Experiment‘ ist im Gange, aber es wurde von den Klimatologen noch nicht in Anspruch genommen. Auf der ,World Conference on the Changing Atmosphere’ im Jahre 1988 wurde es so ausgedrückt: „Die Menschheit führt ein unbeabsichtigtes, unkontrolliertes global allgegenwärtiges Experiment durch, dessen ultimative Konsequenzen nur noch von einem Atomkrieg übertroffen werden können“.

Das wolle wir mit Sicherheit nicht, aber angesichts des Fehlens eines verantwortungsvollen, beabsichtigten und kontrollierten Experiments muss man sich mit Theoretisieren zufrieden geben auf der Grundlage des Verständnisses, wie das Klimasystem der Erde agiert. Dies bedingt Feldstudien zum Erlangen von Informationen hinsichtlich gegenwärtiger und historischer Klimawandel, kombiniert mit mathematischer Modellierung, um die Bandbreite zukünftiger Möglichkeiten zu erkunden. Unglücklicherweise bietet dies unabhängig davon, wie sinnvoll dies ist, breiten Raum für Spekulation.

Erstens, man muss vorsichtig sein bei dem Versuch, die Historie der Temperaturänderungen auf der Erde zu unterscheiden, vor allem, wenn dies Interpretation und Manipulation von Proxies erfordert. Dieser Bereich ist tief in Kontroversen verstrickt, worauf ich später noch einmal zurückkommen werde, wenn wir der infamen Hockeyschläger-Graphik begegnen.

Zweitens, man muss sehr vorsichtig sein hinsichtlich der Natur der mathematischen Modelle, mittels welcher die Evolution des Klimasystems der Erde prophezeit wird – ein System, von dem man weiß, dass es offen, nicht linear, ungeheuer komplex und chaotisch ist. Das Ausmaß der Glaubwürdigkeit,welche man diesen Modellen entgegenbringen kann, hängt davon ab, wie gut sie die relevanten Faktoren erfassen, die hier im Spiel sind, und wie realistisch und akkurat derartige Faktoren parametrisiert worden sind. Außerdem beruht die Vorhersagefähigkeit selbst für ein umfassendes und akkurates Modell auf dem Ausmaß, mit dem Rauschen und die dissipativen Kräfte das Klima langfristig stabilisieren können (2). Unglücklicherweise kann es angesichts der signifikanten strukturellen und parametrischen Ungewissheit innerhalb der Modelle eine Wahnidee sein, ein gewisses Vertrauensniveau in die Hypothesen einer gut definierten Unsicherheit von der Art eines Würfels zu setzen (3):

Nichts von oben Gesagtem scheint jedoch das IPCC zu stören. Für all jene, die sich rückversichern wollen, dass der bestehende Satz von Klimamodelle valide ist, erschien im 4. IPCC-Zustandsbericht die folgende Beteuerung an prominenter Stelle:

Dieses Vertrauen stammt aus dem Fundament physikalischer Prinzipien der Modelle und aus deren Fähigkeit, beobachtete Phänomene von Klimaänderungen in Gegenwart und Vergangenheit zu reproduzieren“.

Nun ist es beruhigend zu erfahren, dass die Modelle auf allgemeinen physikalischen Prinzipien beruhen, obwohl dies ein wenig so daherkommt, als ob man sagt, dass ein Zeuge zuverlässig ist, weil er eine reale Person und nicht ein Harry-Potter-Charakter ist – das ist kaum etwas, mit dem man prahlen kann. Was die Reproduktion von Klimaänderungen in Gegenwart und Vergangenheit angeht, habe ich zwei Bedenken:

Erstens, die Tatsache, dass ein Modell die Vergangenheit reproduzieren kann, ist nur dann eindrucksvoll, falls es das einzige verfügbare Modell ist welches das kann, und da man eine Vielfalt von Modellen erstellen kann, welche zu den Aufzeichnungen mittels eines vernünftigen ,Tunings‘ passen, ist das eindeutig nicht der Fall (4). Folglich ist das Passen zu Klima-Aufzeichnungen nicht die wahre Metrik für Vertrauen in ein Modell. Stattdessen kommt Vertrauen aus der Plausibilität und der Legitimität der Parameter-Werte, auf welche die Modellierer zurückgegriffen haben, um das Passen zu erreichen. Sogar das IPCC höchstselbst räumt ein: „Falls ein Modell frisiert worden ist, um gut zu einer tatsächlich beobachteten Quantität zu passen, dann kann die Übereinstimmung mit der Beobachtung nicht herangezogen werden, um Vertrauen gegenüber diesem Modell zu haben“. Ist also diese Strategie allgemeine Praxis? Wer weiß das schon? Die Modellierer veröffentliche ihre Tuning-Verfahren nicht.

Zweitens ist es mit Sicherheit ein logischer Trugschluss zu folgern, dass ein Modell, welches gut in der ,Nachhersage‘ ist, notwendigerweise auch zuverlässig ist zum Zwecke des Ausgebens von Prophezeiungen. Zum Beispiel könnte ein Modell, welches unrichtig die Auswirkungen Wasserdampf und Wolken-Rückkopplung abbildet, diese Schwäche nicht zeigen, bis die Auswirkungen signifikant werden.

Das letzte Wort hierzu soll ein Statement sein, welches tief vergraben ist in den Details des 4. IPCC-Zustandsberichtes: „Was sagt die Genauigkeit einer Klimamodell-Simulation des Klimas in Vergangenheit und Gegenwart über die Genauigkeit seiner Projektionen von Klimawandel? Diese Frage anzusprechen steht gerade erst am Anfang…“. Es stellt sich also heraus, dass IPCC schon vertrauensvoll hinsichtlich seiner Modelle war, obwohl die entscheidende Frage ,gerade erst am Anfang steht, angesprochen zu werden‘. Übersehe ich hier etwas?

Aber jenseits aller meiner Bedenken steht der Kernpunkt, den ich deutlich machen möchte, dass nämlich die Verwendung eines mathematischen Modells für eine Prophezeiung ein ärmlicher Ersatz ist für die Durchführung eines Experimentes. Klimatologen mögen jeden Lauf eines Klimamodells als ein ,mathematisches Experiment‘ betrachten, aber wenn sie das tun, scheinen sie sich selbst zu betrügen. In jeder anderen wissenschaftlichen Disziplin wäre ein derartiges Verhalten als ,hypothetisieren‘ bezeichnet werden. Es ist kein Experiment, welches die Fakten der Natur etabliert (wie es bei einem echten Experiment der Fall wäre), sondern es ermöglicht Klimatologen einfach, den Charakter ihrer Spekulationen besser zu verstehen.

Keinen Spielraum für Zweifel

Bislang läuft alles, was ich zur Erklärung der Koexistenz von Ungewissheit und Sicherheit im Bereich Klimatologie gesagt habe, auf einen irgendwie halb fundierten Verdacht hinaus, dass die betroffenen Wissenschaftler der professionellen Fehlbeurteilung schuldig sind; dass sie dem verfügbaren wissenschaftlichen Arsenal zu viel Vertrauen entgegen bringen. Allerdings sollte man nicht die Tatsache aus dem Auge verlieren, dass Klimatologie schwerstens politisiert ist und dass Ideologien ebenso wie wissenschaftliches Verstehen auf dem Spiel stehen. Es sind diese Umstände, welche die Debatte korrumpieren können. Falls also Beweise auftauchen, die belegen, dass die Unsicherheiten absichtlich heruntergespielt worden sind, kann man durchaus argumentieren, dass eine solche Korruption erfolgt ist. Ich stütze dieses Argument auf die folgenden beiden Beispiele:

Das erste Beispiel ist der Vorwurf, dass das IPCC sich einer grob vereinfachenden Darstellung der Wissenschaft schuldig gemacht hat, und dass die in den Executive Summaries vorgebrachte Sicherheit nicht die Unsicherheit reflektiert, auf welche die zu Rate gezogenen Wissenschaftler hingewiesen hatten. Dieser Verdacht erhob sich bereits bei der Veröffentlichung des 1. IPCC-Berichtes im Jahre 1990. Während eine Arbeitsgruppe eingesetzt worden ist, das Gremium bzgl. der Unsicherheiten zu beraten, tauchten diese in der Executive Summary gar nicht erst auf. Beispielsweise erschien das folgende Statement in dem Bericht der Arbeitsgruppe: „Eine globale Erwärmung größeren Ausmaßes gab es mindestens einmal seit dem Ende der letzten Eiszeit ohne jede merkliche Zunahme von Treibhausgasen. Weil wir die Gründe für dieser Erwärmungs-Ereignisse in der Vergangenheit nicht verstehen, ist es noch nicht möglich, einen bestimmten Anteil der jüngsten, geringeren Erwärmung einer Zunahme von Treibhausgasen zuzuordnen“.

Trotz dieser Vorbehalte war die Executive Summary des Berichtes eindeutig hinsichtlich seiner Schlussfolgerungen und riet dazu, dass weil die Beweise für potentielle Schäden durch AGW so stark waren, „sofortige Reduktionen von Emissionen durch menschliche Aktivitäten erforderlich sind, und zwar um über 60%, um die Konzentrationen auf dem gegenwärtigen Niveau zu stabilisieren“. Auch sagte die Executive Summary nichts hinsichtlich der Grobheit der ersten mathematischen Modelle, die als Grundlage für die Klimawandel-Prophezeiungen bemüht worden waren.

Ohne dass ich jetzt darüber theoretisieren will, warum es zu einem solchen Herunterspielen der Unsicherheiten gekommen ist, spricht die Tatsache, dass dies überhaupt möglich war, Bände über das Vertrauen, das man dem Konsens gegenüber haben kann in der Form, wie es das IPCC zu verbreiten trachtete. Das IPCC hat seitdem eine ganze Reihe von Berichten veröffentlicht, aber die Vorwürfe bzgl. falscher Angaben zur Gewissheit wollten nicht verstummen. Zum Beispiel wurden viele Abschnitte im 2. Zustandsbericht des IPCC, in welchen vor den Unsicherheiten gewarnt worden ist, offensichtlich entfernt, nachdem man die Begutachtung für beendet gehalten hatte. Hierzu bemerkte Prof. Frederick Seitz: „Aber dieser Report ist nicht das, was er zu sein scheint – es ist nicht die Version, welche von den auf der Titelseite gelisteten beitragenden Wissenschaftlern geschrieben worden war. Während meiner über 60-jährigen Mitgliedschaft in der amerikanischen wissenschaftlichen Gemeinschaft, einschließlich meiner Funktion als Präsident sowohl der National Academy of Sciences als auch American Physical Society habe ich niemals eine schlimmere Korruption des Begutachtungsprozesses erlebt als bei den Vorkommnissen, welche zu diesem IPCC-Bericht führten“ (5).

Für mein zweites Beispiel der Vortäuschung einer nicht vorhandenen Gewissheit möchte ich die berüchtigte Hockeyschläger-Graphik heranziehen. Sie wurde erzeugt von einem Team unter Leitung von Dr. Michael Mann und im 3. IPCC-Zustandsbericht kolportiert, um die Causa voranzutreiben. Die Graphik zeigt eine unspektakuläre Abkühlung der Temperatur während des vorigen Milleniums, welche mit einem dramatischen Anstieg endete, der zusammenfiel mit dem Beginn der Industrialisierung. Als solche war es eine immens signifikante Graphik vertrieb sie doch die unwillkommenen Erwärmungen in vorindustrieller Zeit, welche im 1. Zustandsbericht angesprochen worden waren. Im besonderen war die Mittelalterliche Warmzeit auf einmal völlig verschwunden. Mit diesem Hockeyschläger zur Hand brauchte das IPCC nicht mehr die Unsicherheit im Inneren seiner Berichte zu vergraben, bewies doch die Graphik, dass die Unsicherheit einfach nicht existierte. Sie zeigt, dass die gegenwärtigen Temperaturen beispiellos sind und dass es keinen Beweis für eine Erwärmung in vorindustrieller Zeit gibt, zumindest nicht im globalen Maßstab. Der Hockeyschläger war der schlagende Beweis, welcher diew AGW-Theorie bestätigte, und damit war die Wissenschaft ,settled‘. Oder doch nicht?

Irgendwie war es überraschend, dass niemand im Bereich Klimatologie sich veranlasst sah zu versuchen, eine Rekonstruktion der Analyse durchzuführen, welche von Mann et al. durchgeführt worden ist, es schien kein Thema zu sein. Stattdessen blieb es einem halb im Ruhestand befindlichen Bergbau-Berater vorbehalten, Steve McIntyre, ein solches Audit durchzuführen – und die Ergebnisse waren verheerend. Ich möchte mich in diesem Beitrag nicht zu Details hierzu verlieren, dazu ist anderswo viel zu lesen. Um meine Bedenken zu rechtfertigen, muss ich mich nicht unbedingt auf eine Seite der Debatte schlagen; es ist ausreichend zu bemerken, dass es diese Debatte gibt. Wenn man aber erst einmal die statistischen Betrügereien erkennt, welche dem Hockeyschläger zugrunde liegen, ist es nichtsdestotrotz schwierig, nicht zu der Schlussfolgerung zu kommen, dass die Daten gnadenlos zur Bestätigung eines Glaubens vergewaltigt worden waren. Aus der Analyse entstand Gewissheit, aber nur auf Kosten der Integrität. Angesichts der gewaltigen Unterstützung und Publicity, welche das IPCC der Studie ursprünglich verliehen hatte, müssten die nachfolgenden Enthüllungen und ultimative Widerlegung eigentlich größte Empörung hervorrufen. Oder zumindest sollte man das annehmen.

Natürlich nehme ich hier die Position der Skeptiker ein. Da gibt es diejenigen, die auf Studien aus jüngerer Zeit verweisen, wie etwa das PAGES 2K-Konsortium, die eine unabhängige Bestätigung des Hockeyschlägers darstellen. Also war am Ende vielleicht Dr. Manns statistische List gar nicht notwendig, um über die korrekte Antwort zu stolpern. Die Schwierigkeit für mich, dieses Argument zu akzeptieren, besteht darin, dass es die Variation eines Themas zu sein scheint: Man nehme viele Proxydaten, drehe sie durch die Mangel mittels Manipulation und statistischer Analysen so lange, bis sie tot sind, aber dennoch die gewünschte Antwort zeigen; und man hoffe, dass niemand die Unsicherheiten und falschen Hypothesen bemerkt, die im Detail stecken. Schon jetzt müssen die PAGES 2K-Ergebnisse aktualisiert werden angesichts der Kritik (6) und der Variabilität niedriger Frequenz in der Temperatur-Rekonstruktion, welche mit jeder Änderung prominenter hervortreten. Je mehr die Paläo-Klimatologen sich bemühen, die Mittelalterliche Warmzeit los zu werden, desto mehr scheinen sie die Unsicherheiten hervorzuheben zu versuchen, eine zuverlässige globale Temperaturreihe zu erstellen aus Zusammenstellungen lokalisierter Proxy-Messungen.

Die echte Ironie hinter all dem ist, dass die politische Bedeutung des Hockeyschlägers immer weit größer war als dessen wissenschaftliche Relevanz. Die AGW-Hypothese wird durch die Existenz der Mittelalterlichen Warmzeit nicht falsifiziert. In der politisierten Arena, in welchem Klimatologie durchgeführt wird, war jedoch die Versuchung groß für das IPCC zu behaupten, dass die Wissenschaft ,settled‘ sei und als Konsequenz ein Pferd aufzuzäumen, welches den Drogentest nicht bestanden hat. Das wäre schon schlimm genug, aber die Intensität und zeitliche Dauer, mit der der Hockeyschläger verteidigt wurde und wird, enthüllt eine sogar noch besorglichere Eigenschaft. Selbst in Bereichen, wo eine Falsifizierung besonders leicht möglich ist, scheint es innerhalb der Klimatologie eine Kultur zu geben, die darauf abzielt, in dieser Hinsicht frustriert zu werden. An jeden, der bezweifelt, dass all dies es erforderlich macht, den Enthüllungen von Klimagate mehr Aufmerksamkeit zu schenken: Die illegale Löschung von E-Mails, welche Gegenstand einer Anforderung im Rahmen des Informationsfreiheits-Gesetzes sind, bildet eine Konspiration, die Herausgeber wissenschaftlicher Veröffentlichungen einschüchtert, die den IPCC-Begutachtungsprozess korrumpiert, die Daten zensiert, welche nicht die zentralen Botschaft stützen. Es gibt permanente Bemühungen zu verhindern, dass Daten der öffentlichen Überprüfung zugänglich gemacht werden sowie eklatante Falschinterpretationen der Daten, um eine gewünschte politische Auswirkung zu erhalten. Und doch ist all dies danach als nichts weiter vom Tisch gewischt worden als der ,robuste‘ Dialog, den man zwischen ehrlichen und fähigen Wissenschaftlern erwarten kann, die ihrer täglichen Routine nachgehen!

Jedoch bedurfte es Klimagate nicht für die Enthüllung, dass die Klimatologie von einer hässlichen Kultur von Einschüchterung, Verzerrung und Zensur umgeben ist, gibt es doch Viele in dem Bereich, die Folgendes aussagen können: Entzug der IPCC-Mitgliedschaft für all jene, die Kontrarians zu sein scheinen; Zurückweisung von Einzelbeiträgen aus fadenscheinigen Gründen; Entzug von Forschungsförderung oder die Androhung desselben; Vorwürfe, dass eine bestimmte Finanzierungsquelle die wissenschaftliche und persönliche Integrität eines Einzelnen unterminiert; Vorwürfe von Inkompetenz und Dummheit; und Verunglimpfung mittels abfälliger Bezeichnungen wie ;Leugner‘ oder ,Wissenschafts-Söldner‘. Viele Beobachter können behaupten, dass derartige Taktiken notwendig sind, um einen legitimen wissenschaftlichen Konsens zu verteidigen, welcher Angriffen ausgesetzt ist seitens einer Armee von Zweiflern mit üblen Absichten, obwohl ich es vorziehe zu sagen, dass ein solches Verhalten wenig dazu beiträgt, die gegenwärtige Krise der Wissenschaft zu mildern (7).

Es ist vielleicht nur fair zu erwähnen, dass einige der Gewissheits-Apostel wie Dr. Mann gleichermaßen gekränkt sind durch den Tonfall der Debatte, und dass sie sich gerne selbst als die wirklichen Helden präsentieren, als Wächter der Wahrheit, umgeben von rasenden und fanatischen Neinsagern. Ich wage zu sagen, dass Dr. Mann Missbrauch erlitten hat, aber der Gedanke, dass er ein Licht ist in einer Wildnis aggressiver Ignoranz ist etwas schwierig zu akzeptieren, wenn er auch behauptet, dass alle richtig denkenden Wissenschaftler ihm zustimmen. Alles, was ich sagen kann ist, dass es eine Menge falsch denkender Wissenschaftler da draußen geben muss.

Aber genug der Schlammschlacht. Wenn es darum geht, könnte das wirkliche Problem der Klimatologie nichts zu tun haben mit Möchtegern-Verschwörungen. Das Problem kann das Ausmaß sein, mit dem der Konsens einem direkten Auswahleffekt geschuldet ist. Es ist eine unbestrittene Tatsache, dass Regierungen auf der ganzen Welt von Anfang an stark in Forschungen der AGW-Hypothese investiert haben, oftmals unter Ausschluss potentieller Alternativen. Ich stelle hier nicht deren Motivation in Frage; die ist unwichtig. Alles was zählt ist, dass falls Forschungsförderung strikt begrenzt ist auf das Voranbringen eines Interesses an einer Vermutung in einem bestimmten Gebiet, man nicht überrascht sein darf, wenn die wissenschaftliche Gemeinschaft, die jemand als Berater installiert hat, mit Einstimmigkeit zu sprechen anfängt.

Es gibt keinen Grund, hier eine Verschwörung zu vermuten. Ich kann ziemlich gut akzeptieren, dass Wissenschaftler ernste und ehrliche Sorgen bekommen angesichts der extremen Möglichkeiten von AGW, und es gibt die Chance, dass sie recht haben. Allerdings kann es genauso gut sein, dass sie nur deswegen so im Vordergrund stehen, weil sie jene Klimatologen, die alternative Standpunkte vertreten, entweder zum Mitmachen bei ihnen nötigen oder sie aus dem Spiel drängen – die Tage des selbstlos forschenden Gentleman-Wissenschaftlers, der an seiner Studie schuftet, sind längst vorbei. Es ist daher denkbar, dass der Konsens, anstatt das Ergebnis von Umdenken im Verlauf der Debatte zu sein, stattdessen aus einer Form soziologischer natürlicher Selektion resultiert.

Man könnte versucht sein, diesen Gedanken als abstrus zurückweisen. Sicher ist es höchst unwahrscheinlich, dass eine ganze Gemeinschaft von Wissenschaftlern unbekümmert signifikante Untersuchungslinien ignorieren. Nun, es mag unwahrscheinlich aussehen, wäre da nicht die Tatsache, dass genau das die ganze Zeit im Gange ist. Alles, was man braucht, ist die richtige Mischung aus Überzeugung, sozialer Druck und die Unfähigkeit, mittels Experimenten etwas zu falsifizieren. Man nehme beispielsweise eine wissenschaftliche Disziplin, von der jedermann glaubt, dass sie ein Ausbund wissenschaftlicher Integrität ist – die Physik hoch energetischer Partikel.

String Wars

Ende der siebziger und Anfang der achtziger Jahre begannen theoretische Physiker, sich Gedanken zu machen, welche nicht nur in unmittelbarer, sondern auch weitester Zukunft nicht falsifizierbar sind. Diese Gedanken wurden unter dem Begriff String-Theorie zusammengefasst, um bald darauf von einem supersymmetrischen Äquivalent ersetzt zu werden, nämlich der Superstring-Theorie. Der Grundgedanke ist, dass Elementarteilchen, einschließlich der Ladung tragenden [force-carrying] Partikel der Quantenfeld-Theorie, keine Punktobjekte sind , sondern stattdessen Manifestationen der Vibration offener Strings oder Energie-Loops [?]. Jeder Vibrations-Zustand ist messbar als ein Partikel einer gegebenen fundamentalen Art. Das Problem bei der String-Theorie ist jedoch, dass die Strings so klein sind (in der Größenordnung der so genannten Planck-Länge von 10-35 m), dass die Energie zur Erkundung derartig kleiner Details in der Natur buchstäblich astronomisch ist – man bräuchte einen Teilchen-Beschleuniger, der so stark ist, dass er die Größe einer mittleren Galaxie haben müsste. Daher wurde vermutet, dass die Theorie bislang dabei versagt hat, auch nur eine einzige Vorhersage zu machen, die in einem Labor überprüfbar ist.

Dieses Problem hat eine Anzahl Beobachter dazu gebracht, in Frage zu stellen, ob die String-Theorie tatsächlich überhaupt eine Wissenschaft ist. Zum Beispiel hat Peter Woit in seinem Buch mit dem Titel ,Not Even Wrong‘ [etwa: Nicht einmal falsch] das Fehlen der Falsifizierbarkeit der String-Theorie beklagt: „Es ist eine niederschmetternde Tatsache, dass es absolut keinen Beweis irgendeiner Art gibt für diese komplexe und unattraktive Theorie“. Nichtsdestotrotz hat dies nicht verhindert, dass die Theorie von Anfang an in den Ruhmeshallen dominierte, zum Verdruss all jener, welche alternative Gedanken zur grundlegenden Struktur der Natur einbringen wollten. Das Problem: wenn eine Lehrmeinung erst einmal von denen übernommen wird, welche in der Lage sind, die zukünftige Richtung der Forschung zu diktieren, ist es sehr schwierig, diese Lehrmeinung zu überwinden. Zu Beginn war der Enthusiasmus für die String-Theorie verständlich, weil sie offenbar sehr vielversprechend war (8). Hat sich jedoch eine Theorie erst einmal eingenistet, kann der Enthusiasmus für sie genauso gut erklärt werden mit dem Wunsch, den Ruf und die Lebensweise derjenigen Individuen und Organisationen zu schützen, die so viel in die Entwicklung dieser Theorie investiert haben. Ein weniger zynisches Gefühl beschreibt der mathematische Physiker Roger Penrose in seinem Buch ,The Road to Reality‘ mit den Worten: „Der oftmals wilde Wettbewerb … führt zu Mitläufereffekten, wobei die Forscher fürchten zurückzubleiben, falls sie nicht mitmachen“.

Es ist heutzutage in Mode zu schreien „Verschwörungs-Theoretiker!“, wenn jemand die Legitimität der herrschenden Glaubensrichtung in Frage stellt. Allerdings braucht man nicht Zuflucht zu Täuschung zu nehmen, um die Dominanz der String-Theorie zu erklären. Eine solche Dominanz ist ein sich entwickelndes Phänomen, welches man erwarten sollte unter der Voraussetzung, dass die Dekane der Fakultäten natürlich all jene um sie herum fördern, welche ihre eigenen theoretischen Neigungen teilen. Und angesichts des involvierten Drucks ist es unwahrscheinlich, dass angehende Wissenschaftler das Fehlen irgendwelcher Integrität hinter ihrem gewählten Studienfach sehen. Nichtsdestotrotz bleibt die Tatsache bestehen, dass viele Universitäten an einem Punkt angekommen sind, an dem es extrem schwierig ist, Forschungsgelder zu bekommen für die Erforschung irgendeiner anderen Theorie außer der String-Theorie. (9).

Als Nicht-Experten in einer bestimmten wissenschaftlichen Disziplin kann der Rest von uns sich nur auf einen wissenschaftlichen Konsens verlassen, um zu bestimmen, wo möglicherweise die Wahrheit liegt. In unserem Beispiel, falls jemand eine Umfrage unter unter theoretischen Teilchen-Physikern durchführen und sie fragen würde, welche der miteinander konkurrierenden Theorien der vielversprechendste Kandidat als Theorie für Alles ist, würde das Ergebnis der Umfrage unweigerlich zugunsten der String-Theorie ausfallen. Allerdings reflektiert dies lediglich die Vorherrschaft von String-Theoretikern innerhalb dieses Bereiches.

Natürlich können wir auch den Praktikern beim Diskutieren zuhören und entscheiden, wer das schlagende Argument vorbringt. Unglücklicherweise jedoch kann man Argumente nur mit anderen Mitteln zusammentragen als mit der Referenz zu unwiderlegbaren Fakten. Angesichts des Fehlens überzeugender experimenteller Beweise beginnen derartige Diskussionen oftmals mit besten Absichten hinsichtlich von Werten wie mathematischer Eleganz, bevor das Ganze in die Art von miesem Spiel degeneriert, das Akademiker anscheinend auszeichnet. Und wehe denjenigen, welche es wagen, die Integrität des betreffenden Forschungsbereiches in Frage zu stellen. In seinem Buch ,The Trouble With Physics: The Rise of String Theory, the Fall of Science and What Comes Next’ beschreibt der theoretische Physiker Lee Smolin einen leidenschaftlichen Aufruf zu einer frischen und ehrlichen Bewertung des State of Affaires innerhalb der theoretischen Teilchen-Physik. Dafür erhielt er die folgende Beurteilung von Luboš Motl (10):

…Die Konzentrierung irrationaler Statements und anti-wissenschaftlicher Gefühle hat meine Erwartungen übertroffen…

Antiwissenschaftlich? Wo habe ich das schon einmal gehört? Es scheint eine seltsame, einer Erklärung bedürfende Tatsache zu sein, dass jedem, der sich für die Rückbesinnung auf wissenschaftliche Prinzipien einsetzt, schließlich der Vorwurf gemacht wird, er sei antiwissenschaftlich. Zumindest, soweit ich das sehe, ist noch niemandem der Vorwurf gemacht worden, ein ,String-Leugner‘ zu sein. Aber selbst ohne das ist die Debatte hitzig genug, um den Terminus ,String Wars‘ aufzuwerfen.

Ich sollte darauf hinweisen, dass selbst jene, die hinsichtlich des Zustandes der theoretischen Physik am meisten besorgt sind, nicht fordern, die String-Theorie zu verwerfen. Vielmehr lenken sie einfach Aufmerksamkeit auf die Probleme der experimentellen Verifikation und warnen, dass diese Ergebnisse in einem Freiraum der Spekulation führen, der nicht ganz gesund ist. Hinsichtlich des Überlebens von Theorien, wenn es keine natürliche Selektion mittels Experimente gibt, wird oftmals die Selektion mit soziologischen Mitteln an die Stelle treten. Die Folge davon ist, dass Konsens nicht länger erreicht wird durch Reduktion epistemischer Unsicherheit, sondern durch eine Verengung des Blickwinkels.

Vorsicht vor dem Bias

Klimatologen, die hinsichtlich düsterer AGW-Prophezeiungen übereinstimmen, sind also nicht mehr (oder weniger) fehlgeleitet oder unaufrichtig als die Horden theoretischer Teilchen-Physiker, welche die String-Theorie vorantreiben und erforschen. Auch hier wollen wir ehrlich sein, wenn man es isoliert betrachtet, ist etwas dran an dem AGW-Argument, trotz der zentralen Rolle von Prophezeiungen, welche nicht innerhalb des erforderlichen Zeitrahmens falsifiziert werden können. Allerdings würde man sich sehr viel wohler fühlen, wenn man das als Nominalwert [face value] akzeptiert, falls man nicht den Verdacht hegt, dass die Gelegenheit zur Entwicklung von Gegenargumenten durch nicht wissenschaftliche Mittel vereitelt worden wäre. Es ist sehr beunruhigend, dass das AGW-Argument künstlich gestärkt worden sein könnte durch Bestätigungs-Verzerrung [confirmation bias]. Können wir unter diesen Umständen sicher sein, dass wir nicht unsere eigene Ignoranz ignorieren?

Außerdem gab es keine andere wissenschaftliche Kontroverse, die so viel politische Einmischung über sich ergehen lassen musste oder der auch nur annähernd so viel Medienaufmerksamkeit zuteil wurde als es bei der Klimatologie der Fall ist. Ich sage ,über sich ergehen lassen musste‘, weil trotz eines erbärmlichen Fehlens von Qualifikationen dafür es niemanden in der Politik oder im Medienbereich zu geben scheint, der einem nicht mit Sicherheit sagen kann, welche Seite der Debatte recht hat: Alle düsteren Warnungen vor AGW sind die Wahrheit, und jedermann der dies bezweifelt, ist ein Lümmel. Da man von allen Bürgern fordert, die Wissenschaftler zu unterstützen (die wirklichen Wissenschaftler), sind wir doch alle glücklich, dass wir die Medien und Politiker haben, welche uns durch die Feinheiten der Debatte führen. Wir können nicht hoffen, zwei zuverlässigere und vertrauenswürdige Sektoren der Gesellschaft zu haben, die uns über die Stärke des Konsens‘ aufklären und genau beschreiben, wer die Spinner, Amateure oder verlogenen Skeptiker sind.

Und natürlich sei Gott Dank für das Internet. Der kleine Teil davon, der sich nicht der Pornographie verschrieben hat, scheint dominiert zu sein durch vermeintlich unwiderlegbare Argumente für die eine oder andere Seite der ,CAGW-wird-uns-töten‘-Debatte. Für jemanden mit einem offenen Geist, der die Wahrheit zu finden versucht, ist es zu naheliegend, verzweifelt aufzugeben. Und für den Rest von uns, wir bilden unsere Ansichten auf der Grundlage emotionaler Impulse und bringen den Rest unserer Leben damit zu, uns in Post-Hoc-Rationalisierung zu üben und nach den Informationen zu schauen, welche den von uns gewählten Bias bestätigen. Im Falle globale Erwärmung ist es unglücklicherweise so, dass Individuen aller Glaubensrichtungen immer in der Lage sein werden, die Ermutigung zu finden, nach der sie suchen.

Wenn die Einsätze steigen

Ich habe hier argumentiert, dass es in der CAGW-Kontroverse kaum etwas gibt, das man nicht auch anderswo innerhalb der Wissenschaft findet, wenn erst einmal der feste experimentelle Griff gelockert ist. Sowie dies der Fall ist, brechen bittere Debatten aus zwischen den beiden Seiten der gegensätzlichen Positionen. Trotzdem entwickelt sich ein Konsens, aber der Konsens ist von fragwürdigem Wert, weil es gute Gründe gibt für den Verdacht, dass Auswahleffekte signifikant sind. Individuen, welche den Konsens in Frage stellen, werden als antiwissenschaftlich gebrandmarkt, selbst wenn deren wissenschaftliche Leistungen über alle Zweifel erhaben sind. Wissenschaftler fühlen sich angegriffen, obwohl sie sich selbst deutlich helfen würden, sorgfältiger zu sein bei der Vermeidung unfalsifizierbarer Spekulationen.

Es gibt natürlich Unterschiede zwischen Physik und Klimatologie. Zum Beispiel wird die Lage in der Klimatologie verschlimmert durch ein politisch motiviertes Leugnen der Unsicherheiten und einem Fehlen von Überzeugung gegenüber Offenheit und Reproduzierbarkeit von Ergebnissen. Auch die Einsätze sind viel höher, und da liegt es in der Natur der Sache, dass wir alle eingeladen werden, an der Teegesellschaft teilzunehmen. Allerdings fühle ich mich genau wie bei der Super-Symmetrie-String-Theorie nicht qualifiziert, als Schiedsrichter zu fungieren. Alles, was ich sagen kann ist, dass es so zu sein scheint, als ob Argumente bestehen bleiben, weil alle Seiten so hoch motiviert und keine Experimente zur Beilegung verfügbar sind. Unter diesen Umständen hätte ich gedacht, ein offener Geist sei eine vernünftige Haltung, die ein Laie einnehmen kann. Unglücklicherweise steht die Toleranz von Skeptizismus nicht mehr auf der Tagesordnung, und jeder, der wissenschaftliche Autorität in Frage stellt, wird als unvernünftig angesehen. Die wirkliche Verletzung wissenschaftlicher Prinzipien ist jedoch, dass Wissenschaft ,settled‘ sein kann, ohne dass man darauf warten muss, dass Prophezeiungen eintreffen.

Ursprünglich umgingen Politiker das Problem der fehlenden Falsifizierungs-Möglichkeit, indem sie das Vorsorgeprinzip auf den Schild hoben, wobei die Plausibilität eines Gedankens ausreicht, ihn so zu behandeln, als ob es sich um eine bestätigte Tatsache handelt. In der Klimatologie war also nicht nur die Falsifizierung von Gedanken technisch schwierig, es wurde nicht einmal für notwendig erachtet. Aber dies war eine offenkundige politische Haltung: Eine Entscheidung zu verschieben, bis alle Unsicherheiten beseitigt sind, enthält ein existentielles Risiko, und darum ist es politisch weise, die Entscheidung jetzt zu fällen. Nichtsdestotrotz ist das Vorsorgeprinzip für seine sich selbst zerstörende Logik berüchtigt. Wenn der Preis für eine Maßnahme potentiell katastrophal ist (was durchaus sein kann, wenn man sich die von den CAGW-Befürwortern geforderten drastischen Aktionen vor Augen führt), dann kann das Vorsorgeprinzip auch herangezogen werden, um gegen derartige Maßnahmen vorzugehen. Unsicherheit schneidet beide Wege, und vielleicht ist dies der Grund, warum die Leugnung von Unsicherheit das Vorsorgeprinzip in den Köpfen vieler Menschen usurpiert zu haben scheint als bevorzugte Politik.

Mark Twain hat besser als die meisten Anderen verstanden, wie einfach es ist, von Vermutungen hinweg getragen zu werden, wenn Beweise selten sind, aber ich bezweifle, dass selbst er voll erkannt hatte, wie einfach derartige Vermutungen auf mysteriöse Weise zu Wahrheiten werden können, falls die Einsätze steigen. Man braucht keine Tricks, um dies zu erreichen, obwohl es überraschend ist, zu was sich einige Befürworter hinreißen lassen um sicherzustellen, dass die ,rechtschaffene‘ Seite der Argumentation gewinnt. Falls man mich fragt, ich würde die Unsicherheiten jedoch akzeptieren und das gefürchtete Vorsorgeprinzip aktivieren. Obwohl alles andere als ideal ist dies eine bessere Option als das Herunterspielen von Unsicherheiten bis zu einem Ausmaß, dass ein offener Geist hinsichtlich eines fragwürdigen Konsens‘ als ein Zeichen krimineller Dummheit angesehen wird. Schließlich ist Skeptizismus der Kompass für wissenschaftliche Geister. Also frage ich noch einmal: Was ist mit der Wissenschaft passiert?

Der Autor John Ridgway ist Absolvent der Physik, der bis vor Kurzem in UK als Software-Experte und als Analyst für das Transportwesen gearbeitet hat. Er ist kein Klimawissenschaftler und nicht Mitglied des IPCC, fühlt sich aber als Repräsentant der vielen gebildeten und rationalen Zuschauer, die glauben, dass das hysterische Geschrei gegen Laien-Skeptizismus sowohl unberechtigt als auch kontraproduktiv ist.

Anmerkungen:

1.Siehe http://www.spiked-online.com/newsite/article/6320#.WWu5mGeWzZ4

2. Für weitere Informationen siehe Storch, Hans von; Zwiers, Francis (1999). Statistical Analysis in Climate Research. Cambridge University Press. ISBN 0 521 45071 3.

3. Ich sollte erklären, dass Unsicherheit nach Art eines Würfels aus Zufalls-Fluktuation resultiert. Sie reflektiert die Variabilität der realen Welt und kontrastiert als solche mit der epistemischen Unsicherheit (unsere Wissenslücken) und ontologischer Unsicherheit (Unsere Wissenslücken hinsichtlich unserer Wissenslücken).

4. Diejenigen, die in Frage stellen, dass das Frisieren von Klimamodellen im Nachhinein allgemeine Praxis ist, sollten schauen bei Hourdin Frédéric, et al (2017). The Art and Science of Climate Model Tuning. American Meteorological Society, Journals Online.

5. Viel wurde aus der Tatsache gemacht, dass das IPCC erfolgreich gegen den Artikel in der Wasington Post geklagt hat, in welcher dieses Zitat erschienen war. Die Grundlage der Klage war, dass im Artikel nicht erwähnt worden war, dass Seitz kein Klimatologe war, kein Mitglied des IPCC, auf der Lohnliste einer Ölgesellschaft stand und dass zuvor ihm jemand Senilität vorgeworfen hatte. Weil sie keinen Ad-Hominem-Angriff auf ihren Interviewpartner geführt hatte, hat die Washington Post die journalistische Ausgeglichenheit fehlen lassen, welche vom IPCC verlangt wird! Noch relevanter ist, dass das IPCC auch erfolgreich geltend gemacht hat, dass die Änderungen keine Korruption ihres Begutachtungsprozesses darstellen. Damit wird natürlich stillschweigend zugegeben, dass solche Änderungen vorgenommen worden waren.

6. Siehe Steve McIntyre auf seiner Website Climate Audit.

7. Anders als die Fähigkeit zur Falsifizierung steht die Reproduzierbarkeit von Ergebnissen als prinzipielle Erfordernis des wissenschaftlichen Verfahrens. In dieser Hinsicht scheitern viele wissenschaftliche Disziplinen derzeit grandios; darum die Krise. Die meisten, wenn nicht alle Erklärungen hierfür sind auf Klimatologie anwendbar. Bei dieser Gelegenheit habe ich als mein Hauptthema Falsifizierbarkeit gewählt anstatt Reproduzierbarkeit der Ergebnisse. Vielleicht beim nächsten Mal…

8. In particular, superstring theory equations predict the existence of a spin-2 boson that has all of the properties expected of the force-carrying particle posited by a quantum field theoretic description of gravity (namely, the graviton). This prediction paves the way for an understanding of gravity that is unified with the so called Standard Model of particle physics. [Man sehe mir nach, dass ich das nicht übersetze! Anm. d. Übers.]

9. Weitere Informationen: Woit, Peter (2006). Not Even Wrong: The Failure of String Theory and the Search for Unity in Physical Law. Basic Books. Ch. 16. ISBN 0-465-09275-6.

10. Motl, Luboš (2004).Lee Smolin: The Trouble with Physics”: a review on The Reference Frame.

Link: https://wattsupwiththat.com/2017/08/10/so-what-happened-to-the-science/

Übersetzt von Chris Frey EIKE




Cem Özdemir versucht sich in Energie

Voller Text des Videos
Sprecher: Kritiker sagen: Dann geht in Deutschland entweder das Licht aus, oder der Strom wird viel teurer. Sehen Sie das auch so?
C. Özdemir: Ach wissen Sie, wir kennen die Argumente. Die Argumente sind ja nicht ganz neu. Im Spitzenlastbereich, also nicht im Normallastbereich. Dann wenn der Energieverbrauch am Höchsten in Deutschland ist, ungefähr mittags zwischen 11 und 12, verbrauchen wir ungefähr 80 Gigabyte. Wir produzieren aber ungefähr 140 Gigabyte. Das heißt, das anderthalb-Fache dessen haben wir immer noch übrig, was wir brauchen. Selbst wenn wir die sieben ältesten Meiler abschalten würden, hätten wir immer noch mehr Strom als wir selbst im Spitzenlastbereich gebrauchen.

Ein Hinweis sei angemerkt: Herr Özdemir sagt im Video wirklich Gigabyte anstelle Gigawatt zur elektrischen Leistung.
Damit wollte er vielleicht ausdrücken, dass die Kenntnis von ein paar modernen (aber nicht verstandenen) Fachausdrücken für Politiker mindestens so weit zum Verständnis eines landesweiten Energiesystems ausreicht, um weichenstellende Entscheidungen (zu dessen Zerstörung) einleiten zu dürfen.

Das Interview wurde Anfang 2011 aufgezeichnet. Zur Rezension muss man deshalb die damals bekannten Daten des Jahres 2010, teilweise eventuell vom Jahr 2011 betrachten.
Dazu die Energieganglinien Deutschlands im Jahr 2012 (leider kann man bei Agora kein früheres Datum aufrufen).
Das mit den 80 Gigawatt Spitzenbedarf stimmt so im Ansatz und dürfte im Jahr 2010 nicht wesentlich abgewichen haben.

Bild 1 Energieganglinie 2012. Quelle: Agora Viewer

Wie Herr Özdemir allerdings darauf kommt, dass 140 Gigawatt produziert würden, bleibt ein Rätsel. Bestimmt hat Herr Özdemir auch dabei wieder eines seiner auswendig gelernten, technischen Fremdwörter verwechselt und die installierte Leistung gemeint.

Bild 2 Installierte Netto-Leistungen der verschiedenen Energieerzeuger 2002 – 2017. Quelle: Fraunhofer ISE Viewer

Die installierte Nettoleistung im Jahr 2010 betrug ca. 155 MW. Die der konventionellen Kraftwerke betrug davon 98,2 GW und Ökoenergie hatte die Anschlussleistung von ca. 57 GW

Bild 3 Installierte Nettoleistungen im Jahr 2010 und 2011. Quelle: Fraunhofer ISE Viewer

Da Herr Özdemir im Video behauptet: … Das heißt, das anderthalb-Fache dessen haben wir immer noch übrig, was wir brauchen …,
zeigt es, dass er die Problematik zwischen installierter Leistung und wirklich verfügbarer Energie auch nicht verstanden hat.
Die „Erneuerbaren Energien“ haben immer noch die dumme Eigenschaft, dass ihre wirklich lieferbare Energie für verblüffend lange Zeit fast auf Null sinken kann [1].
Bei Solar akzeptieren es schon immer mehr der „Energiefachpersonen“, weil es einfach zu offensichtlich ist, dass die Sonne nachts nicht scheint. Beim Wind gilt es als strittig [2] [1]. Schließlich kann man niemanden zwingen, die Ganglinie im Agora-Viewer anzusehen und willigste „Energieforscher“ integrieren dann halt schnell einmal ganz Europa ins deutsche Stromsystem [3].

Nach dem Agorameter, welches die Energieflüsse von Deutschland zeigt, „verschwindet“ jedenfalls auch der Windstrom recht regelmäßig und dann müssen die konventionellen Erzeuger die gesamte Energie liefern, da sonst das Netz zusammenbricht, oder afrikanische (Stromausfall-)Verhältnisse auch bei uns eintreten.

Nimmt man an, dass von den konventionellen Kraftwerken kurzfristig immer 90 % der installierten Leistung verfügbar ist, und zählt man Biomasse zur sicheren Grundlast, dann betrug der Worst-Case „Energieüberhang“:
Im Jahr 2010:
„Energieüberhang“ +18 % (ohne Biomasse +10 %, zusätzlich ohne Kernkraftwerke -6 %)
Im Jahr 2011:
„Energieüberhang“ +4 % (ohne Biomasse -4 %, zusätzlich ohne Kernkraftwerke -10 %)

Das ist wirklich nicht viel und es ist bestimmt nichts „Übriges“ dabei, im Jahr 2011 war es sogar eher zu niedrig. Besser geeignet ist es als Beispiel, wie eine sachgerechte Planung früher für unser Energiesystem zuständiger Fachpersonen durch Politiker, die irgendwelche Fachbegriffe wie manche Schüler (falls dieser Vergleich diskriminierend sein sollte, einfach nicht lesen) auswendig lernen, zerstört werden darf.

Nicht einmal auf den genannten Zeitraum für die Spitzenlast kann man sich beim GRÜNEN Energiefachmann verlassen. Im Winter verschieben sich naturgemäß die Spitzenlastzeiten. Und zwar in Zeiten, zu denen das (im Winter sowieso „mickrige“ Solarangebot – und das vom Wind manchmal auch – nicht vorhanden sind.

Bild 4 Stromverbrauch 1. Januar 2017. Quelle: Agora Viewer

Bild 5 Stromverbrauch 18. Dezember 2016. Quelle: Agora Viewer

Quellen

[1] EIKE 11.01.2017: Der Wind weht überhaupt nicht immer irgendwo: Ein Nachtrag zum Märchen von der Wind-Grundlastfähigkeit

[2] EIKE 28.01.2016: Ein EEG-Märchen wird zum Öko-Dogma – Offshore Windkraft sei grundlastfähig

[3] KLIMARETTER.INFO, 20. Juli 2017: Europa kann Windstrom glätten




Einige der größten Gletscher außerhalb der Polar­gebiete stoßen vor, trotz globaler Erwär­mung

Der Studie zufolge waren Klimamodelle bislang nicht in der Lage, das Phänomen zu reproduzieren, welches verhindert, dass die Gletscher im Karakorum-Gebirge nicht wie die meisten anderen Gletscher in der Welt schrumpfen.

„Während sich die meisten Gletscher als Folge globaler Erwärmung zurückziehen, sind die Gletscher im Karakorum stabil oder wachsen sogar“, sagte Hayley Fowler, Mitautor der Studie und Professor an der Newcasle University.

Der Karakorum ist eines der am stärksten vergletscherten Gebirge der Welt außerhalb der Pole und enthält die zweit- und drittgrößten nicht polaren Gletscher. Auch der zweithöchste Berg der Welt, der K2 [oder Mount Godwin Austen, Anm. d. Übers.] befindet sich dort — Vertical Limit, anyone?

Der Studie zufolge könnte eine ,anomale Abkühlung‘ im Karakorum einen Einfluss auf die Flüsse haben, welche stark von der Eisschmelze abhängen. Sie nennen es den ,Karakorum Vortex‘.

Fowler: „Die meisten Klimamodelle zeigen sowohl sommers als auch winters im gesamten Gebiet Erwärmung. Allerdings hat unsere Studie ergeben, dass großräumige Zirkulationen die regionale Variabilität der Lufttemperaturen kontrollieren mit einer Abkühlung der Sommertemperaturen in jüngster Zeit. Dies zeigt, dass Klimamodelle dieses Phänomen nicht gut abbilden“.

Fowler ist nicht der Erste, der sich fragt, warum die Karakorum-Gletscher nicht wie von den Modellen prophezeit abschmelzen. Während der letzten Jahre sind diesbezüglich viele Studien veröffentlicht worden, in denen die gleiche Frage gestellt wird. Was ist da los?

Eine Studie aus dem Jahr 2014 zeigte, dass Klimamodelle dazu neigen, die Erwärmung im Karakorum zu übertreiben, das heißt, sie unterschätzten den Schneefall in der Region. Die Region erreichen kältere westliche Winde aus Afghanistan mit im Winter zunehmenden Schneefällen. In anderen Berggebieten regnet es mehr.

Die meisten anderen großen Gletscher ziehen sich Fowler zufolge zurück, was die Causa Karakorum nur noch interessanter macht. Dabei zeigen sich auch die Schwächen von Modell-Prophezeiungen [eigentlich zeigen die sich überall! Anm. d. Übers.]

Fowler weiter: „Aber das Zirkulationssystem bewirkt derzeit einen dämpfenden Effekt auf die globale Erwärmung [gibt es die überhaupt noch? Der Autor der Studie scheint doch stark alarmistisch angehaucht zu sein. Anm. d. Übers.], was die Gletscherschmelze im Karakorum reduziert, und jede Änderung hat sofort signifikante Auswirkungen auf Schmelzraten, welche wiederum ultimativ Auswirkungen auf die Flüsse der Region zeitigen“.

Link: https://wattsupwiththat.com/2017/08/12/some-of-the-worlds-largest-non-polar-glaciers-are-expanding-despite-global-warming/

Übersetzt von Chris Frey EIKE




Enthüllt: Ein Jahrzehnte alter Report der Regierung mit Klima­daten war völlig unge­eignet für den Zweck

Darin hieß es über diese Daten:

Es gibt darin Defizite hinsichtlich Genauigkeit, Qualität und Kontinuität der Aufzeichnungen“, welche „dem in die Forschungsergebnisse gesetzten Vertrauen enge Grenzen ziehen“.

Die Personen, welche zu diesen Schlussfolgerungen gekommen waren, und deren Zugehörigkeit sind hier gelistet:

  • THOMAS R. KARL (Chair), National Climatic Data Center, Asheville, North Carolina
  • ROBERT E. DICKINSON,University of Arizona, Tucson
  • MAURICE BLACKMON,National Center for Atmospheric Research, Boulder, Colorado
  • BERT BOLIN,University of Stockholm, Sweden
  • JEFF DOZIER,University of California, Santa Barbara
  • WILLIAM P. ELLIOTT, NOAA/Air Resources Laboratory, Silver Spring, Maryland
  • JAMES GIRAYTYS, Certified Consulting Meteorologist,Winchester, Virginia
  • RICHARD E. HALLGREN,American Meteorological Society, Washington, D.C.
  • JAMES E. HANSEN, NASA/Goddard Institute for Space Studies, New York, New York
  • SYDNEY LEVITUS, NOAA/National Oceanic Data Center, Silver Spring, Maryland
  • GORDON MCBEAN, Environment Canada, Downsview, Ontario
  • GERALD MEEHL, National Center for Atmospheric Research, Boulder, Colorado
  • PHILIP E. MERILEES, Naval Research Laboratory, Monterey, California
  • ROBERTA BALSTAD MILLER, CIESIN, Columbia University, Palisades, New York
  • ROBERT G. QUAYLE, NOAA/National Climatic Data Center, Asheville, North Carolina
  • S. ICHTIAQUE RASOOL, University of New Hampshire, Durham
  • STEVEN W. RUNNING, University of Montana, Missoula
  • EDWARD S. SARACHIK, University of Washington, Seattle
  • WILLIAM H. SCHLESINGER, Duke University, Durham, North Carolina
  • KARL E. TAYLOR, Lawrence Livermore National Laboratory, Livermore, California
  • ANNE M. THOMPSON, NASA/Goddard Space Flight Center, Greenbelt, Maryland
  • Ex Officio Members
  • W. LAWRENCE GATES, Lawrence Livermore National Laboratory, Livermore, California
  • DOUGLAS G. MARTINSON, Lamont-Doherty Earth Observatory, Columbia University, Palisades, New York
  • SOROOSH SOROOSHIAN, University of Arizona, Tucson
  • PETER J. WEBSTER, University of Colorado, Boulder

Das sind prominente Namen. Viele dieser Personen hatten bedeutende Positionen im IPCC inne sowie bei der Ausbreitung von deren Verlautbarungen. Zum Beispiel war Gordon McBean der Vorsitzende des Informations-Treffens des IPCC in Villach in Österreich im Jahre 1985. Bert Brolin wurde zusammen mit Sir John Houghton zu den ersten stellvertretenden Vorsitzenden des IPCC berufen. Thomas Karl und James Hansen waren zwei dominante Persönlichkeiten hinsichtlich Datenkontrolle und Datenmanipulation bis zu ihrem gerade erfolgten Abgang.

Karl leitete die Studie und wusste daher besser als jeder andere, dass das Erreichen der gewünschten Ergebnisse, nämlich eine stetig steigende Temperatur während der über 120 Jahre instrumenteller Aufzeichnungen, durch die Unzulänglichkeit der Daten wesentlich vereinfacht wird. Sie ignorierten die Tatsache, dass die Unzulänglichkeit der Daten die von ihnen geplanten und durchgeführten Arbeiten völlig wertlos machte. Beispiel: Ausmaß, Dichte und Kontinuität der Daten sind vollkommen ungeeignet als Grundlage für ein mathematisches Computermodell des globalen Klimas. Kurz gesagt, sie wussten, dass sie Daten erzeugen, frisieren oder modifizieren mussten, um auch nur ein ungefähres Ergebnis zu erhalten. Die Schwierigkeit bestand darin, dass die Daten so schlecht waren, dass selbst nach deren Bearbeitung die Ergebnisse der Realität nicht nahegekommen waren.

Trotzdem blieb das IPCC diesen Daten verhaftet, obwohl an anderer Stelle entschieden worden war, die Anzahl der Stationen zu reduzieren und damit die Abdeckung noch weiter zu begrenzen. Es gab zwei Hauptgründe für diese Reduktion, nämlich die zunehmende Umleitung von Geldern zugunsten der Forschung bzgl. globaler Erwärmung und extensiver Computermodelle sowie die Vorgriffe auf Satelliten-Wetterdaten. NASA GISS erzeugte eine Graphik (Abbildung 1), um zu zeigen, was vor sich ging. Ich habe jede Graphik erweitert, um die wichtigen Details zu zeigen (Abbildungen 2, 3 und 4).

Abbildung 1

Löblicherweise haben sie die Daten aufbereitet, aber alles, was sich daraus ergab, war eine Betonung der Anomalien.

Abbildung 2

Wichtige Punkte:

Es gibt keine Station mit Aufzeichnungen über 130 Jahre hinaus

Es gibt etwa 300 Stationen mit Aufzeichnungen über 120 Jahre

Nahezu alle Stationen mit einer Länge der Reihen über 100 Jahre liegen im Ostteil der USA oder in Westeuropa

Abbildung 3

Wichtige Punkte:

Erste signifikante Abnahme nach dem Jahr 1960 in Erwartung von Satellitendaten.

Zweite Abnahme um 1995 in Verbindung mit einer Änderung der Finanzierung weg von Datensammeln und hin zu globaler Erwärmung sowie Reduktion der herangezogenen Stationen

Abbildung 2 zeigt ein Maximum der Stationsanzahl von etwa 7200, aber Abbildung 3 zeigt nur etwa 5500.

Abbildung 4

Wichtige Punkte:

Trotz der Reduktion der Anzahl der Stationen verringert sich die Abdeckung nur geringfügig. Wissenschaftlich ist das unmöglich.

Gegenwärtig sind 20% der Nordhemisphäre und 25% der Südhemisphäre nicht mit Daten abgedeckt.

Die Qualität der Abdeckung ist entscheidend, jedoch sehr variabel, wie Thomas Karl anmerkt: „Anders als in anderen Wissenschaftsdisziplinen, wo strikte Laborkontrollen die Regel sind, müssen sich Klimaforscher auf Beobachtungen verlassen, welche in verschiedenen Ländern mit unterschiedlichen Instrumenten durchgeführt werden“. Man erinnere sich, die Abdeckung in den USA ist bislang die beste, aber nur 7% ihrer Stationen sind genau bis auf weniger als 1°C. Hier folgt ein Beispiel aus dem Vorwort zu den ,Canadian Climate Normals‘, von denen Karl spricht. „Im digitalen Archiv gibt es vor dem Jahr 1953 keine Daten, und die Mittelwerte dieser Ausgabe wurden aus allen ,stündlichen‘ Beobachtungen zu ausgewählten Stunden für den Zeitraum 1953 bis 1980 abgeleitet. Dabei sollte man beachten, dass viele Stationen weniger als 28 Jahre lange Reihen haben bei der vollständigen Mittelung“.

Obwohl er nichts zu der Studie beigetragen hatte, kommentierte Kevin Trenberth deren Veröffentlichung so:

Es ist ganz klar, wir haben kein Klima-Beobachtungssystem … dies mag für viele Menschen ein Schock sein, welche davon ausgehen, dass wir angemessen wissen, was mit dem Klima vor sich geht, aber das wissen wir nicht“.

Dennoch erzeugte Trenberth ein Energiebilanzmodell, dass im Mittelpunkt sämtlicher Behauptungen bzgl. des Treibhauseffektes auf das Klima steht.

Die Studie des National Research Councils konzentrierte sich auf die Unzulänglichkeiten der instrumentellen Aufzeichnungen. Die Studie erschien kurz nachdem H. H. Lamb seine Autobiographie veröffentlichte (1997), in welcher er sich über die breiteren Begrenzungen für die Klimaforschung ausließ. Er schrieb, dass er die Climatic Research Unit ins Leben gerufen hatte, weil

…es eindeutig klar war, dass die erste und größte Notwendigkeit die Etablierung der Fakten der Aufzeichnungen bzgl. des natürlichen Klimas aus der Vergangenheit war, und zwar zu Zeiten, bevor irgendwelche Nebeneffekte durch menschliche Aktivitäten von Bedeutung geworden sein könnten“.

Folglich wussten die Personen, welche das IPCC geschaffen und kontrolliert haben, bereits im Jahre 1999 um die Unzulänglichkeit der Daten während der 120 Jahre menschlicher Aktivitäten. Das hat sie nicht aufgehalten, aber es bedeutet, dass sie genau wussten, dass sie Daten, die sie brauchten, selbst erzeugen mussten, und sie wussten, wie man das macht.

Das IPCC konnte die Story sowie die Daten, welche seine Behauptungen einer vom Menschen verursachten globalen Erwärmung (CAGW) nur am Leben halten, falls sie Kontrolle über alle Datenquellen hatten. All dies begann sich nach dem Jahr 2000 herauszuschälen.

1.Die von Ballonmessungen bestätigten Satellitendaten erreichten eine Länge, die sie nicht länger ignorieren konnten. Im Jahre 2007 schrieb das IPCC folgenden Kommentar in ihren 4. Zustandsbericht:

Neue Analysen von Ballon- und Satellitenmessungen der Temperatur in der unteren und mittleren Troposphäre zeigen Erwärmungsraten ähnlich denen der Temperaturmessungen an der Oberfläche und sind konsistent innerhalb ihrer jeweiligen Unsicherheiten, was eine im TAR [AR3] aufgetretene Diskrepanz weitgehend beilegte“.

2.Sehr kalte Winter und verstärkter Schneefall errangen öffentliche Aufmerksamkeit, wie viele Cartoons belegen:

[Im Original ist an dieser Stelle ein solcher Cartoon gezeigt, der aus urheberrechtlichen Gründen hier aber nicht reproduziert werden darf. Hier kann man sich diesen im Original anschauen, was ich dringend empfehle. Anm. d. Übers.]

3.Der Stillstand ging über die 17 Jahre hinaus, welche Ben Santer für erforderlich hielt, bevor er überhaupt über das Ganze neu nachdachte.

4.Die Lücke zwischen dem zunehmenden atmosphärischen CO2-Niveau und der tatsächlichen Temperatur wurde fortwährend immer größer.

Aber nichts davon konnte die Suche nach Stützung aufhalten. Thomas Karl erzeugte eine Datenreihe und schrieb zusammen mit Tom Peterson eine Studie, in der behauptet wurde, dass der Stillstand nicht auftritt, wenn man Daten und Verfahren mit ernsthaften Begrenzungen heranzieht. Nach der Bloßstellung des Missbrauchs lehnten es die Ko-Autoren ab, einer Vorladung des Kongresses zu folgen und die Daten und angewandten Verfahren öffentlich zu machen.

Karl und andere, welche in den AGW genannten Betrug verwickelt sind, wussten von Anfang an und besser als jeder andere um die bedeutenden Begrenzungen des instrumentellen Datensatzes. Wahrscheinlich wussten sie durch die Arbeiten von Lamb auch um die Begrenzungen der historischen Aufzeichnung. Trotzdem, oder vielmehr gerade deswegen, überwachten sie die Konstruktion von Computermodellen, schrieben Studien, erzeugten ,offizielle‘ Berichte und überzeugten die Welt, dass sie vor dem drohenden Untergang steht durch eine Runaway-globale Erwärmung. Ihre Arbeiten auf der Grundlage von etwas, von dem sie von Anfang an wussten, wie unzulänglich es war, erlangte universelle Akzeptanz. Natürlich wussten sie auch besser als alle anderen, wie man Daten auswählt und manipuliert, um Argumente zu finden, welche ihre falsche Hypothese stützen; zumindest bis Satellitendaten wissenschaftlichen Status erreichten. Aber selbst dann noch machten sie mit ihrem Betrug weiter. Sie beweisen, dass sie Gründungsmitglieder der postfaktischen Gesellschaft sind. Das jüngste Beispiel wurde ausgelöst durch die Panik wegen Trumps Rückzug aus dem Paris-Abkommen und analysiert durch Tony Heller.

Link: https://wattsupwiththat.com/2017/08/12/uncovered-decades-old-report-showing-climate-data-was-bad/

Übersetzt von Chris Frey EIKE




Die ökologische Korrektheit hat offenbar sehr kurze Beine

In dem betreffenden Artikel wird eine Karte der Nitratbelastung in Deutschland gezeigt, die diese Aussagen beweisen soll (aus Gründen des Copyrights muss hier auf den SZ-Link verwiesen werden). Das Thema Nitratbelastung des Grundwassers ist nicht neu und kocht immer wieder einmal hoch. Unter der Überschrift „Nitrat und die Folgen der Massentierhaltung“ stellte der WDR bereits am 18.November 2015 die existenzielle Frage, „Günstiges Fleisch oder günstiges Wasser?“, Zitat:

Nitrat belastet unser Wasser, Schuld daran ist, so die Experten, vor allem die Massentierhaltung. Viele Tiere produzieren viel Gülle und dadurch kommen viele Schadstoffe ins Wasser…“

Und damit ist eindeutig die Massentierhaltung als Schuldiger für eine vorgeblich steigende Nitratbelastung des Grundwassers in Deutschland identifiziert. Die EU-Vertretung in Deutschland meldete dann am 28. April 2016, Zitat mit Hervorhebungen:

Die Europäische Kommission verklagt Deutschland wegen der anhaltenden Verunreinigung der deutschen Gewässer durch Nitrat vor dem Gerichtshof der EU. Das hat sie heute (Donnerstag) bekanntgegeben. Trotz der weiter hohen Nitratbelastung hat Deutschland keine strengeren Gegenmaßnahmen ergriffen. Dazu ist das Land laut geltendem EU-Recht jedoch verpflichtet. Die von der Bundesrepublik zuletzt im Jahr 2012 übermittelten Zahlen sowie mehrere Berichte deutscher Behörden aus jüngster Zeit zeigen eine wachsende Nitratverunreinigung des Grundwassers und der Oberflächengewässer, einschließlich der Ostsee.“

Also, dieses Verfahren der EU-Kommission gegen Deutschland basiert offenbar auf denjenigen Daten, die Deutschland nach der EU-Nitratrichtlinie selber an die EU gemeldet hatte.

Wie kann es nun aber sein, dass in Deutschland die Verunreinigung von Grund- und Oberflächenwasser mit Nitraten plötzlich wieder zunehmen soll?

Das Problem von landwirtschaftlichen Nitrateinträgen in Grund- und Oberflächenwässer ist doch schon seit mehr als 3 Jahrzehnten bekannt. Nach einer Übergangsphase von etwa einem Jahrzehnt schien das Nitratproblem der Landwirtschaft dann ab Anfang 2000 auf dem Wege zu einer wasserwirtschaftlich befriedigenden Lösung zu sein, zumal die moderne Großlandwirtschaft mit Luftbildanalysen und GPS-gesteuerten Maschinen inzwischen die Düngerzufuhr sehr genau nach dem örtlichen Bedarf zu steuern vermag. Insbesondere der Nitrateintrag in Oberflächengewässer wurde damals durch die Einrichtung von speziellen Gewässerschutzzonen nachhaltig reduziert.

Es fragt sich also, warum sich die Nitratproblematik in Deutschland trotz frühzeitig eingeleiteter Gegenmaßnahmen nun seit geraumer Zeit wieder zunehmend verschärfen soll.

Das Deutsche Maiskomitee e. V. , stellt zu dieser Problematik einige sehr interessante Grafiken bereit (wegen Copyright hier ebenfalls nicht dargestellt). Dort wird sofort deutlich, dass sich Massentierhaltung und Maisanbau in Deutschland auf dieselben Regionen konzentrieren. Beim Statistischen Bundesamt findet man dann die nachfolgenden Daten über den Maisanbau auf landwirtschaftlichen Flächen:

Anbaufläche (1 000 ha) 2010 2012 2013 2014 2015

Silomais / Grünmais 1 828,9 2 038,0 2 003,2 2 092,6 2 100,4

Bundesweit hat sich also allein zwischen den Jahren 2010 und 2015 der Maisanbau um fast 15 Prozent ausgeweitet. Die Anbaufläche für Energiepflanzen hat sich in dieser Zeit aber lediglich um insgesamt etwa ca. 3 Prozent erhöht, sodass es hier zu einer massiven Verdrängung anderer Feldfrüchte durch den Mais gekommen sein muss. Nun könnte man sagen, dass die Ausweitung des Maisanbaus eben auf der Futterbeschaffung für die Massentierhaltung beruht. An dieser Stelle hilft uns wiederum das Deutsche Maiskomitee weiter, Zitat:

Ende 2016 sind in Deutschland 9.004 Anlagen in Betrieb. Durch die Zunahme der Biogasanlagen, (vor allem in reinen Ackerbauregionen) steigt der Flächenbedarf deutlich an. Während 2006 noch knapp 160.000 Hektar Mais für die Biogaserzeugung angebaut wurden, waren es im Jahr 2008 knapp 300.000 Hektar Mais und im Jahr 2016 ca. 1.000.000 Hektar, welche in Biogasanlagen verwertet wurden…“

Der Anbau von Mais für Biogasanlagen hat sich also in den 10 Jahren von 2006 auf 2016 mehr als versechsfacht. Biogasanlagen sind für die Umwelt ja nicht ganz unproblematisch, allein in Bayern sollen zum Stand 2015 Leckagen von Biogas-Anlagen in 650 Fällen zur Verschmutzung von Oberflächengewässern geführt haben. Wenn solche Vorfälle zu einem Fischsterben führen, sind sie natürlich schwer zu verheimlichen. Es sei die Frage gestattet, ob die Öffentlichkeit auch etwas davon erfahren würde, wenn das corpus delicti einfach so in der Landschaft versickert…

Der verstärkte Anbau von Mais birgt übrigens noch eine weitere Gefährdung des Grundwassers mit sich, Zitat mit Hervorhebungen:

Als Kurztagspflanze kommt Mais aber erst spät mit dem Wachstum zu Gange, verlangt aber schon zur Saat eine hohe Düngung, die dann zwei Monate wenig genutzt werden kann. Deshalb hat Mais ein Nitratproblem im Grundwasser

Die artspezifische Düngung von Mais führt also zwangsläufig zu einem Nitratproblem im Grundwasser. Und dieses Nitratproblem im Grundwasser hat sich offenbar in den vergangenen Jahren durch den Anbau von Energiemais für Biogasanlagen weiter verschärft. Aber warum benennt man dann der Öffentlichkeit gegenüber nicht einfach korrekt Ross und Reiter?

Damit stellt sich die Zwischenfrage: Wer ist hier der eigentliche Verursacher der steigenden Nitratbelastung des Grundwassers, die Massentierhaltung oder der EEG-Maisanbau für Biogasanlagen?

Durch eine vorzeitige Schuldzuweisung an die Massentierhaltung wird eine offene Diskussion über dieses Nitratproblem von vorn herein ausgeschlossen. Und an der Fraktierung der tatsächlichen Zusammenhänge sind offenbar auch steuerfinanzierte Bundesbehörden beteiligt.

Die Broschüre des Umweltbundesamtes „Grundwasser in Deutschland“ weist mit der Karte oben am Ende nach, dass sich die wenigen Meßstellen des deutschen EU-Nitratmessnetzes in denselben Regionen verdichten, in denen Massentierhaltung und Maisanbau betrieben werden.

Wobei die vereinzelten blauen Punkte des offiziellen Nitratmessnetzes eigentlich gar keine flächendeckenden Aussagen für ganz Deutschland zulassen. Denn im europäischen Vergleich hat dieses Messnetz eine vergleichbare Dichte wie das landwirtschaftlich nur sehr schwach geprägte Nordskandinavien.

Dabei stellt sich nebenbei die Frage, warum eigentlich in Deutschland ganz unterschiedliche Grundwassermessnetze betrieben werden. Bei einer komplexen Ursachenforschung dürfte der Abgleich unterschiedlicher Analyseergebnisse dadurch nicht unbedingt gefördert werden. Eigentlich wäre hier ein einheitliches und möglichst gleichabständig dichtes nationales Messnetz erforderlich. Andererseits eröffnen mehrere heterogene Messnetze natürlich viel mehr Möglichkeiten, um bei vorgegebenen Zielsetzungen die passenden Antworten zu finden.

Könnte es vielleicht sein, dass man genau das gemessen hat, was man auch messen wollte?

Bauer Willi meint dazu jedenfalls, Zitat:

„…ist ein Skandal. Dass Deutschland seine Messnetze bezüglich Nitrat im Grundwasser so selektiert, damit besonders hohe Messwerte herauskommen, ist es auch. Wie anders ist es zu erklären, dass Deutschland deutlich schlechter sein sollen als die Niederlande. Ein bloßer Blick auf die Anzahl der gemeldeten Messstellen in den Niederlanden und in Deutschland zeigt selbst dem Laien, dass hier etwas nicht stimmen kann. Denn es gibt viel mehr Messstellen, als es diese Karte erscheinen lässt.“

Hier die von Bauer Willi kritisierte EU-Karte über die Nitratbelastung 2008-2011:


Der Vergleich der Nitrat-Messnetzdichte zwischen Deutschland und dem landwirtschaftlich unterentwickelten Nordskandinavien wird hier voll bestätigt. Verglichen mit den direkten Nachbarstaaten macht das deutsche Nitrat-Messnetz einen armseligen Dritte-Welt Eindruck, selbst in Osteuropa ist die Messdichte deutlich höher.

Muss hier die bereits heftig skandalisierte Massentierhaltung etwa für ein selbstgemachtes EEG-Umweltproblem herhalten, um die verbrauchersubventionierte EEG-Staatsreligion einer planwirtschaftlichen Energiewende nicht zu beschädigen?

Auf der Suche nach dieser EU Nitratkarte (2008-2011) in besserer Qualität ist der Autor dann zufällig über den EU Nitratreport für den Zeitraum 2004 bis 2007 gestolpert:

Und siehe, niemand kann dauerhaft gegen die Gesetze von Murphy verstoßen, ohne schließlich erwischt zu werden: Im Zeitraum 2004-2007 verfügte das deutsche Nitratmessnetz noch über wesentlich mehr Nitratmeßstellen als im nachfolgenden Zeitraum 2008-2011, mehr sogar als damals beispielsweise Frankreich und Spanien ausgewiesen hatten. Und im Zeitraum 2004-2007 erscheint das Ergebnis für die Grundwasserqualität in Deutschland bei überwiegend grünen Farbpunkten flächendeckend noch sehr viel positiver; besser jedenfalls als für Frankreich und Spanien. Es gab für die Bundesrepublik Deutschland also gar keinen Grund für irgendwelche Veränderungen dieses Netzes. Während nun aber Frankreich und Spanien ihr Ergebnis im Folgezeitraum 2008-2011 offenbar durch zusätzliche unbelastete Meßstellen aufgehübscht hatten, wurde das deutsche Nitratmessnetz plötzlich drastisch reduziert, und zwar offenbar ausgerechnet auf nitratbelastete Meßstellen.

Was also ist der fachlich fundierte Grund für diese Reduzierung des deutschen EU-Nitratmessnetzes – oder muss man dieser Reduzierung eine tiefere Absicht unterstellen?

Es wäre jedenfalls hoch interessant zu erfahren, durch wessen Entscheidungen aus dem deutschen EU-Nitratmessnetz von 2004-2007 das offizielle EU-Nitratmessnetz für den Zeitraum 2008-2011 herausgeschrumpft worden ist und welche qualifizierte Begründung dafür ausschlaggebend war. Mehr Schutz für den deutschen Bürger und eine bessere Vergleichbarkeit innerhalb der EU können es ja wohl kaum gewesen sein.

Haben deutsche Behörden durch die Reduzierung des offiziellen EU-Nitratmessnetzes für den Zeitraum 2008-2011 etwa absichtlich ein offizielles Klageverfahren der EU-Kommission gegen Deutschland provoziert, um dann mit einer von der EU zu fordernden Gegenmaßnahme gesetzlich gegen die ökologisch unerwünschte Massentierhaltung vorgehen zu können?

Aus einem solchen Vorgehen ergäbe sich jedenfalls eine ökodynamische Win-Win-Situation:
Eine zielgerichtete Reduzierung von Daten und die Fraktierung von Zusammenhängen würden es ermöglichen, der Öffentlichkeit gegenüber einen wesentlichen gesetzgeberischen Schritt in Richtung auf eine ökologische Landwirtschaft hin zu begründen. Und weil man den EEG-Energiemais ja nicht als wahren Schuldigen für eine steigende Nitratbelastung des Grundwassers identifiziert hat, würde man diese Nitratkeule in Zukunft jederzeit weiter zu Lasten der industrialisierten Landwirtschaft einsetzen können – das Perpetuum Mobile der ökologischen Transformation wäre erfunden.

Ein solcher Vorgang kann natürlich nicht ohne eine implizite Zustimmung der EU ablaufen. Denn selbst den Bürokraten der EU muss die skandalöse Reduzierung des deutschen EU-Nitratmessnetzes vom Zeitraum 2004-2007 auf den Nachfolgezeitraum 2008-2011 aufgefallen sein. Damit hätte die EU das Machwerk für den Zeitraum 2008-2011 einfach zurückweisen und auf einer korrekten flächendeckenden Berichterstattung bestehen können. Stattdessen machen hier offenbar die EU-Kontrolleure gemeinsame Sache mit den deutschen Messnetzreduzierern.

Eine abschließende Frage an alle ökologischen EEG&EU-Moralisten: Darf man das angeblich „Böse“ manipulativ verleumden, um das vorgeblich „Gute“ gezielt voranzubringen?

Am Ende bezahlt der deutsche Bürger die gesamte Zeche dieser ökologischen Amateurveranstaltung, also anteilig die EU-Kontrolleure, das EU-Nitrat-Strafverfahren, die EEG-Subventionen für den Energiemais, das Umweltbundesamt mitsamt seinem eigenwilligen Nitrat-Messnetz und schließlich, nach einer möglichen Einschränkung der Massentierhaltung, auch noch höhere Verbraucherpreise…

Also zieh Dich warm an, deutscher EU-EEG-Zahlmichel – oder mach‘ endlich mal Deine Augen auf!




Haben Sie ein Haustier? Dann müssen wir ehrlich mal darüber reden!

SPIEGEL ONLINE lieferte dafür gerade ein Beispiel:
SPON 07.08.2017: US-Analyse Hunde und Katzen sind schlecht fürs Klima
Niedlich, ein Seelentröster – und schlecht für die Umwelt. Hunde und Katzen verursachen vor allem über ihren Fleischkonsum einen beträchtlichen jährlichen Treibhausgas-Ausstoß. Allein in den USA entspreche dieser der Klimawirkung von rund 64 Millionen Tonnen Kohlendioxid jährlich, ergab eine im Fachmagazin „PLOS ONE“ vorgestellte Hochrechnung. Der Wert entspricht in etwa der Klimabilanz aller Einwohner von Berlin und Hamburg….
In Berechnungen zum Umwelteinfluss des Nahrungsmittelkonsums im Land flössen Haustiere aber bisher nicht ein, erklärt Gregory Okin von der University of California in Los Angeles (UCLA) … „Aber ich denke, wir sollten uns klar sein über die Auswirkungen, die Haustiere haben, und ehrlich darüber reden.“

Nun sind 64 Milllionen Tonnen CO2 eine Klimagefahr zwischen 0,000021 … 000064 °C / pa. Man hat also je nach Forcingannahme ca. 3.100 … 9.500 Jahre Zeit, bis der Einfluss aller Haustiere der USA mit einem Thermometer überhaupt signifikant als Temperaturunterschied von 0,2 Grad (Messungenauigkeit einer modernen, sauber geeichten und aufgestellten Temperaturstation) gemessen werden kann. An Pedanten der CO2-Klimatheorie gerichtet: Dabei ist nicht eingerechnet, dass das anthropogene CO2 ca. alle 100 Jahre resorbiert ist und damit neu eingebracht werden kann, was die Zeit nochmals um mehrere Multiplikatoren verlängert.

Trotz solch ungeklärter Detaildiskussionen. Diese gerade noch verbleibende Zeit von vielen, vielen Tausend Jahren sollte man unbedingt nutzten, um sich harte Maßnahmen endlich auch für Haustierbesitzer zu überlegen, damit die Welt auch an diesem brisantem Klimazipfel noch gerettet werden kann. Und SPON muss man wirklich danken, gerade noch rechtzeitig darauf hingewiesen zu haben.

Denn es führt ja nun zu dem Entscheidungszwang, welche Rettungsmaßnahme die bessere ist:
Alle Haustiere in den USA aus Klimaschutzgründen verbieten – was mit Trump dort nicht mehr gelingt, oder alternativ die Bewohner von Hamburg und Berlin abschaffen, was ganz ohne Blutvergießen gelingen könnte, indem man zum Beispiel einfach das Kopulieren dort für den Zeitraum einer Generation verbietet (natürlich nur für Personen, welche schon länger im Land leben, sonst wäre es ja diskriminierend).

Vorab könnte man zumindest für die Katzen schon mal das Dosenfutter verbieten und nur noch die Ernährung durch nachhaltig in der freien Natur aufgewachsene Mäuse erlauben (durch Zufüttern nicht nachhaltig aufgewachsene Gartenvögel kommen nicht in Frage). Mancher Katzenbesitzerin mag davor grausen, doch früher wurde genau das gemacht (und trotzdem ist die Temperatur angestiegen – was aber ein anderes Thema wäre).
Für Hunde fällt dem Autor aktuell nichts wirklich Nachhaltiges ein. Seit dem Mailverkehr kommt der Briefträger zu selten und der vom UPS noch zu selten, nachhaltig ernährte Katzen erwischt ein träger Wohlstandshund kaum. Allerdings können Hunde bedenkenlos Regenwürmer, Schnecken, Käfer, Fliegen und Ähnliches verspeisen. Für Gartenbesitzer also problemlos und für Stadtwohnungen wird irgendein Startup dazu schon Lösungen finden. Schnittlauch lässt sich ja auch auf der Fensterbank ziehen und Frauen leidenschaftlicher Angler können Bände voller Schauergeschichten darüber erzählen, was für madiges Gekreuch im Kühlschrank aufgezogen werden kann.
Langfristig wäre ein „Umbau“ zum veganen Tier durch Genmanipulation denkbar. Zur Rettung des Klimas werden die Gutmenschen sicher alle Bedenken dagegen fallenlassen und für Fördermittel finden sich auch genügend Forscher, welche es schaffen (könnten).
Jedenfalls: Die Hoffnung auf Nachhaltigkeit braucht man auch dafür nicht aufzugeben.

Und man stellt fest, dass unsere Medien wissen, was dem Globus weht tut und zu wahren Lösungsbringern mutieren. Wenn es irgendetwas zu verbieten gibt, nehmen sie es sofort auf und zeigen die richtigen Wege aus dem Dilemma. Das ist beim Dieselproblem so und nun auch mit dem der Haustiere.

Ein Problem ist aber noch ungelöst. Wenn man schon auf Kinder verzichtet hat:
EIKE 18.07.2017: Die wirksamste Bekämpfung des Klimawandels ist der Verzicht auf Kinder,
darf man dann wieder ein Haustier haben? Oder könnte man einen Verzicht auf Haustiere per Zertifikat mit einem Kinderwunsch gegenrechnen? Bestimm kommt bald aus den USA oder von sonst woher bald eine Studie, welches auch dieses Problem fundiert klärt. SPON wird bestimmt darüber berichten.

Anmerkung: Der Hinweis zum SPON-Artikel kam von Achgut, 10.08.2017: Hunde und Katzen killen das Klima




Manila versinkt durch Wasserent­nahme im austrock­nenden Unter­grund. Der (reiche) Westen mit seinem CO2 soll daran schuld sein – und zahlen

In der philippinischen Hauptstadt Manila ist der Meeresspiegel, relativ zur Küste, in den vergangenen Jahrzehnten um 80 Zentimeter gestiegen

klimaretter.info, 07. August 2017: [2] Jacque Manabat, Philippinen: Alleingelassen im Klimawandel
Die Philippinen leiden besonders stark unter dem steigenden Meeresspiegel. Auf den Kosten bleiben sie sitzen, denn von den Industrienationen, den Verursachern des Klimawandels, kommt keine Hilfe. Teil 26 der klimaretter.info-Serie: Strategien gegen den Anstieg des Meeresspiegels.
In der philippinischen Hauptstadt Manila ist der Meeresspiegel, relativ zur Küste, in den vergangenen Jahrzehnten um 80 Zentimeter gestiegen. Im zentralen Legazpi sind es 30 Zentimeter und in der südlichen Davao-Bucht immerhin noch 24 Zentimeter.
… Der Weltklimarat geht davon aus, dass der Anstieg des Meeresspiegels das Wachstum von Pflanzen beeinträchtigt, dass Getreidefelder überschwemmt werden und sich durch stehendes Wasser Krankheiten wie Dengue-Fieber stärker ausbreiten können. Aber bis heute haben die Philippinen noch keine Antwort auf die Bedrohungen für Mensch und Tier. Sie haben keine Ressourcen, um diese Gefahren abzuwenden.
Und die internationale Gemeinschaft tut wenig, um den ersten Opfern des Klimawandels zu helfen.
„Wir haben von den reichen Ländern kein Geld gesehen, um uns zu helfen, uns anzupassen. So können wir nicht weitermachen. Das ist kein Leben, wenn wir am Ende immer vor Stürmen davonlaufen müssen, sagt Naderev Saño, der die Philippinen auf den UN-Klimakonferenzen vertritt.
Jacque Manabat ist Journalistin beim großen philippinischen Nachrichtensender ABS-CBN. Als Fellow der Konrad-Adenauer-Stiftung schrieb sie in Berlin für das Rechercheportal Correctiv, das bei seinem Meeresspiegel-Projekt mit klimaretter.info kooperierte.

Manila erleidet einen Pegelanstieg von ca. 16 mm / pa

Manila auf den Philippinen ist eine Kernstadt mit 1,7 Millionen Einwohnern und einer Stadtumgebung mit (inclusive der Kernstadt) ca. 12,9 Millionen Einwohnern (WIKIPEDIA). Im Jahr 2050 wird mit 19 Millionen Einwohnern gerechnet (Weltbank [8]).
Und an deren Küste gibt es ein Phänomen: Der Küstenpegel steigt seit dem Jahr 1960 mit schier unglaublicher Geschwindigkeit.
[2] … In der philippinischen Hauptstadt Manila ist der Meeresspiegel, relativ zur Küste, in den vergangenen Jahrzehnten um 80 Zentimeter gestiegen.

Wie das aussieht, zeigt das folgende Bild 1: Seit 1960 steigt dort der Küstenpegel massiv. In den letzten 50 Jahren um ca. 80 cm, also ungefähr mit 16 mm Pegelanstieg pro Jahr.

Bild1 Pegelverlauf Manila Hafen. Quelle: correctiv.org Pegelviewer

Dieser Pegelanstieg führt vor Ort zu massivsten Problemen und bei einer Multi-Millionenstadt auch zu extremen Kosten.
Da die Verfasserin des Berichtes, Frau Manabat, vom interviewten Herrn Saño – der die Philippinen auf den Klimakonferenzen vertritt – weiß, dass der Meerespegel nur aufgrund des vom Westen eingebrachten CO2 so ansteigt, teilt sie deshalb die anklagende Aussage mit:
[2] … Die Philippinen leiden besonders stark unter dem steigenden Meeresspiegel. Auf den Kosten bleiben sie sitzen, denn von den Industrienationen, den Verursachern des Klimawandels, kommt keine Hilfe.

Ist solch ein Pegelanstieg durch einen Klimawandel überhaupt möglich?

Wer sich mit Tidenpegel beschäftigt, weiss, dass dieser global mit ungefähr 1,5 mm / pa natürlich steigt [4]. Es erscheint alleine dadurch irgendwie unwahrscheinlich, dass ein kleiner Fleck im Pazifik über so lange Zeit so stark davon abweichen sollte. Liest man zum Pegelbild von Manila den Bildtext von correctiv.org, ahnt man auch schon etwas: Das Problem könnten Landsenkungen sein:
correctiv.org Pegelviewer, Manila: Über den Meeresanstieg am Pegel Manila, S. Harbor haben wir keine gesicherten Daten. Während das Wasser ansteigt, senkt sich zugleich die Landmasse in der Bucht stark ab – beide Effekte zusammen führen dazu, dass in der philippinische Hauptstadt das Meer so schnell anwächst wie an kaum einem anderen Ort der Welt.

Es gibt auf correctiv.org zwei Artikel zur gleichen Zeit zum gleichen Thema. Einer davon erschien auf “Klimaretter“, der zweite über das Problem der Landsenkung erschien dort nicht – wurde nicht einmal erwähnt

Correctiv.org hat von der Journalistin, Frau Manabat, zeitgleich zwei Artikel über Manila veröffentlicht.
Den auf klimaretter erschienen Artikel:
Correctiv.org, Jacque Manabat, 28. Juli 2017: [6] Philippinen: Allein gelassen Warum arme Länder durch den Klimawandelt noch ärmer werden,
in dem der Klimawandel als Ursache des Pegelanstiegs „angeklagt“ wird. Und den Zweiten, in dem die Landsenkung von Manila beschrieben wird:
Correctiv.org, Jacque Manabat, 28. Juli 2017: [7] Manila: Trauriger Spitzenreiter Schon in wenigen Jahren könnten große Teile der Metropole unter Wasser stehen

Im ersten, – dem auf Klimaretter veröffentlichten Artikel [6] [2] – ist kein Hinweis zur Landabsenkung enthalten. Zwar kommt in der Überschrift das Wort „ … relativ zur Küste …“ vor. Dahinter wird ein Laie aber wohl kaum vermuten, dass genau dieses Wort den gesamten Artikel negiert. Der Link zur Weltbankstudie (siehe dazu [7]) ist ebenfalls so „getextet“, dass wohl niemand darauf kommen würde, dass gerade in dieser Studie eine Information zur Landabsenkung hinterlegt ist:
[6] …
Laut einer Studie der Asiatischen Entwicklungsbank von 2012 gehören die Philippinen zu den fünf am meisten vom Klimawandel bedrohten Ländern …

Im zweiten Artikel ist die Landabsenkung dagegen direktes Thema:
[7] … Der Anstieg des Meeresspiegels begann in den 1960er Jahren, zeitgleich mit der Industrialisierung der Philippinen. Viele Infrastrukturmaßnahmen wurden in Angriff genommen. Die Immobilienpreise stiegen rasant, der Platz wurde knapp. Häuser und Bürogebäude wurden in überschwemmungsgefährdeten Gebieten errichtet. Sie sind heute besonders anfällig für den steigenden Meerespegel.
Zugleich senkt sich der Boden immer weiter ab. Das beschreibt eine von der Weltbank veröffentlichte
Studie. In der Studie warnen die Wissenschaftler, dass eine Jahrhundertflut in den nächsten Jahren mehr als 2,5 Millionen Menschen treffen und obdachlos machen könnte.
Sollte die Regierung die Küsten nicht besser schützen, könnte das Waten durch hüfthohe Überschwemmungen während der Regenzeit in Manila bald alltäglich werden.

In der (auch im ersten Artikel) verlinkten Weltbankstudie steht es noch deutlicher:
THE WORLD BANK, September 2010: Climate Risks and Adaptation in Asian Coastal Megacities
… Recent analysis points to mostly anthropogenic causes behind the extreme flood event, including (a) a decrease in river channel capacity through encroachment of houses, siltation from deforestation, and garbage; (b) disappearance of 21 km of small river channels; (c) urbanization accelerating runoff concentration and reducing infiltration losses; (d) loss of natural retention areas; and (e) land subsidence. Among these, land subsidence is the least understood but important cause. It is being driven by groundwater pumping and possibly geologic processes associated with the West Marikina Valley Fault (Siringan 2009). Land subsidence continues decades after the groundwater pumping stops, as illustrated by the Bangkok city case study.

Warum diese zwei – sich gegenseitig argumentativ widersprechenden – Artikel von Frau Manabat erstellt wurden und diesesdazu noch zeitgleich auf correctv.org erschienen, erschließt sich (dem Autor) nicht. Vielleicht wollte man bewusst zwei Zielgruppen „versorgen“, wie es Klimaretter auch genutzt hat.

Jedenfalls ist die Erklärung im zweiten Artikel deutlich und erklärt den vollkommen unglaubhaften Pegelanstieg. Und wenn man danach weiter recherchiert, wird man auch fündig – und über die Dimension überrascht.

Manila pumpt sich selbst sprichwörtlich in den Sumpf

Eine Stadt mit (inclusive der Randbezirke) ca. 13 Millionen Einwohnern benötigt viel Wasser. Und in Manila wird dieses aus dem die Stadt tragenden Boden gepumpt. Als direkte Folge versinkt diese Metropole darin mit rasender Geschwindigkeit. Publiziert wird es jedoch (immer noch) als vom Klimawandel verursachter Pegelanstieg.
Diese Kenntnis ist nicht neu, sondern wurde bereits im Jahr 2003 in einer Studie beschrieben:

Bild Text aus einer Studie zu Manila von 2003 [9]
In dieser Studie wurde es noch weiter ausgeführt und mit einem Bild abgerundet.

Studie [9]
Bild 2 Zusammenhang zwischen Tidenpegel und Grundwasserentnahme in Manila [9]

In Wirklichkeit stieg der Tidenpegel nur um 1,7 mm / pa

Auch eine neuere Studie hat sich des Pegel-Rekonstruktionsproblems von Manila detailliert angenommen. Danach stieg der wahre Meerespegel auch dort seit 1960 nur mit dem natürlichen Wert von 1,7 mm / pa an.

Bild 3 Land-Hebungen und -Senkungen in der Bucht von Manila [1]
[1] … Changes in the location and rates of groundwater extraction are a plausible explanation for this migration of the deformation maxima. As reported by Clemente et al. (2001), groundwater pumping in Manila has been multiplied by a factor of five since the 1970s because of population growth. This has resulted in a lowering of the groundwater table by several tens of meters. The authors also suggest land subsidence as a possible consequence of pumping. Clemente et al. (2001) provide piezometric maps which show that the deformation maps generated in this study are consistent with the locations of very low water table levels in the 1990s. For instance, they reported that groundwater was intensively extracted in Muntilupa and Valenzuela, where high ground-motion velocities in the 90’s were observed in this research. This suggests that many ground deformations observed using DInSAR in this research are direct consequences of groundwater pumping in the Manila metropolitan area.

,,, is valuable to estimate past land motion for at least 50 years. If the differential movements affecting the instruments remained linear, advanced techniques such as PSI could be used as supplemental data to reach the accuracy required of (~ 0.5 mm/yr) and subsequently to assess estimates of global sea-level rise (approximately 1.7 mm/yr between 1950 and 2010, Wöppelmann et al., 2013)
… Displacements up to 15 cm/yr with temporal and spatial variability have been observed. These ground motions are very likely related to groundwater pumping because the Manila urban area is known to be affected by subsidence due to intensive groundwater extraction (Clemente
et al., 2001) and due to ground motion along the fault. Although the origin of this latter motion could be tectonic, it is suggested here that the observed ground motion along the fault is actually likely to be related to groundwater pumping as well (except on the Sucat-Binan segment).

In den nicht isostatisch korrigierten PMSL Daten sieht man es nicht, kann es aber lesen

Wer Tidenpegel sucht, schaut im PMSL-Viewer nach. Dort sehen die Pegelverläufe von Manila wie in den folgenden Bildern aus. Und in beiden Bildern steht ein (kleiner) Hinweis auf die Möglichkeit vertikaler Landverschiebungen.

Bild 4 Pegelverlauf Manila im PMSL-Viewer. Bildtext dazu: Increase in trend in MSL rise suspected to be due to deposition from the river discharges and excessive reclamation although subsidence not totally discarded see letter from coast and Geodetic survey (13/5/1987).

Bild 5 Pegelverlauf Manila bei der NOAA

Nimmt man aus dem PMSL-Viewer Stationsdaten von den Philippinen mit langen Verlaufsreihen und trägt sie parallel auf, sieht man sofort, dass auch in dieser Pazifikgegend der Tidenpegel keinen „Klimawandel-Sprung“ macht.

Das hat jemand auf WUWT bereits durchgeführt:
WUWT, March 29, 2017: Recent Sea-Level Change at Major Cities
… Manila is on sedimentary and volcanic terrane. The Manila gauge has QCFLAGs for river discharges and land reclamation. The gauge was moved in 2002. The trend (M62) from 1902 to 1962 was 1.6 mm/y. Subsequently the trend (M63) increased abruptly and has continued to the present at 15 mm/y. The Cebu gauge, 600 km to the south-southeast, is on similar terrane, has a record of comparable length and no noted adjustments or disturbances. Its trend since 1936 has been 1.2 mm/y.
… The effect of urban activity is clear in apparent rises of 15 mm/y at Manila and 18 mm/y at Bangkok.

Bild 6 Pegelverlauf Manila und Cebu. Quelle: WUWT

-Und wurde vom Autor mit auf den Pegel von Manila normierten Daten wiederholt, um es noch etwas deutlicher zu zeigen.

Bild 7 Pegelverläufe Manila (blau), Cebu (rot), San Jose (grün). Pegel an den Startzeitpunkten auf den Pegel Manila normiert. Grafik vom Autor erstellt. Datenquelle: PSML Viewer

Der nächste Klimagipfel naht. Die Publikationen zum Weltuntergang nehmen zu und damit verbunden die Forderungen nach dem Geld der reichen Länder

Nach dem Betrachten der Daten und der wahren Ursache für den Pegelanstieg in Manila erkennt man erst, mit welcher Unverfrorenheit und an Betrug grenzendem Vorgehen der Bürger beim Klimawandel von allen Seiten desinformiert wird:
Vom Vertreter der Philippinen auf den Klimakonferenzen (der sich damit in die lange Reihe solcher Forderlobbyisten einreiht [10]):
[2] „Wir haben von den reichen Ländern kein Geld gesehen, um uns zu helfen, uns anzupassen. So können wir nicht weitermachen. Das ist kein Leben, wenn wir am Ende immer vor Stürmen davonlaufen müssen, sagt Naderev Saño, der die Philippinen auf den UN-Klimakonferenzen vertritt.
Von Correctiv.org, welche den Artikel zu Manila auch in einer Variante ohne die Information zur Landsenkung hinterlegte [2] und vor allem von der Politik-Beraterin und damit „Fachperson“ für Klimawandel – Frau Professorin C. Kemfert -, welche anscheinend nichts dagegen hat, dass der Artikel ohne Zusatzinformation ausgewählt wurde und den Bürgern als angebliche Information in ihrem „Fachportal“ präsentiert wird.

Klimaretter.Info: [2] Teil 26 der klimaretter.info-Serie Alleingelassen im Klimawandel
Die Philippinen leiden besonders stark unter dem steigenden Meeresspiegel. Auf den Kosten bleiben sie sitzen, denn von den Industrienationen, den Verursachern des Klimawandels, kommt keine Hilfe

In der einschlägigen Literatur kann man nachlesen, dass weltweit viele Küstenstädte von diesem Problem der vom Menschen verursachten Landsenkung betroffen sind. Man ahnt, wer dafür auf den Klimagipfeln durch die vertretenden Aktivisten als allein-Schuldiger benannt wird und es bezahlen soll. Vielleicht hilft Frau Hendricks (so sie in der nächsten Legislaturperiode wieder Umweltministerin sein sollte) auch, dass die „Betroffenen“ – wie die der Inselstaaten [12] – eine Allianz zur Durchsetzung der Ansprüche gegenüber dem Westen (und Deutschland) gründen.

Damit unsere Regierung das Geld der Bürger problemlos in die Welt verschenken kann, belohnt sie ihre willigen Helfer

Der Artikel von correctiv.org und dessen Publizierung als „Wissensartikel“ auf „Klimaretter“ reiht sich damit (wieder) in die lange Reihe der bewussten Desinformationen zum Klimawandel ein – und in die Erkenntnis, dass dies inzwischen hemmungslos und offiziell geschieht und die den Bürger bewusst falsch informierende „Intelligenz“ anstelle mit Rügen, mit Ämtern und Preisen überhäuft werden:
WIKIPEDIA: Seit Juli 2016 ist Kemfert im Sachverständigenrat für Umweltfragen tätig.[3] Sie beriet EU-Kommissionspräsident José Manuel Barroso sowie die Weltbank und die UN.[4] Kemfert ist Gutachterin des Intergovernmental Panel on Climate Change (IPCC). Außerdem war sie Mitglied der Wissenschaftlichen Kommission Niedersachsen[5] und war Mitglied im Nachhaltigkeitsbeirat Brandenburg.[6]
Sie ist Mitglied des wissenschaftlichen Beirates des
Österreichischen Instituts für Wirtschaftsforschung (WIFO)[7] sowie des Frankfurter Zukunftsrates[8] und des TU-Campus EUREF gGmbH.[9][10] Sie ist auch Mitglied im wissenschaftlichen Beirat des Energie Campus Nürnberg sowie des Deutschen Biomasseforschungszentrums(DBFZ)[11], im Kuratorium der Technologiestiftung Berlin[12], der Deutschen Klimastiftung[13], bei B.A.U.M.[14] sowie beim Deutschen Studienpreis der Körberstiftung[15]. Seit 2010 ist sie Mitglied im Beirat der Deutschen Umweltstiftung[16] und seit 2011 ist sie in der Jury der GreenTec Awards[17]. Ferner ist sie Jurorin des Deutschen Umweltpreises.[18] 2009 war sie auch Jurorin des Deutschen Nachhaltigkeitspreises.[19]

Es ist erschreckend mitzuerleben, mit welcher Manie im Politikumfeld Berlin daran gearbeitet wird, das Geld der Bürger an reiche und korrupte Länder und deren Potentaten zu verschleudern. Personen in der hohen Politik wollen sich damit wohl durch Ablasskauf ein späteres Leben im „Ökohimmel“ – oder in internationalen Gremien – sichern. Bezahlt wird der Eintritt ja von den Untertanen.
EIKE 13. Juli 2017: Wie viele Unterschriften zum Klimavertrag wurden mit Geldversprechungen gekauft?

Unsere Medien – sind vollkommen gleichgeschaltet

Früher hätte man darauf vertrauen können, dass dies unseren Medien (irgendwann) auffällt und dagegen opponiert wird. Es ist der großen Meinungs-Einheitspartei-Vorsitzenden in Berlin aber gelungen, diese wirklich vollkommen gleichzuschalten.

Eine ganz aktuelle Episode dazu:
Der ideologische, nordbayerische Ableger der süddeutschen Alpenprawda, die Nordbayerischen Nachrichten, brachten am 11. August einen fast seitengroßen Artikel:
Die entscheidende Trendwende im Klimaschutz ist nahe“, Interview mit Al Gore, Ex-Außenminister der USA, über seinen neuen Film, US-Präsident Trump und Maßnahmen zur Rettung des Planeten.
Im Interview selbst stellt die Redakteurin, Frau Herdegen,

Bild 8 Ausbildungs- und Tätigkeitsvita einer redaktionellen Klimawandel-Fachperson. Quelle: ECHT Oberfranken – Ausgabe 25

an Al Gore die folgenden, ihre vollkommen kritiklose Gläubigkeit zum „großen Klimaguru“ bestätigenden – für die Leser damit ganz wichtigen – Fragen:
Redakteurin: Herr Gore, was hat sich verändert seit dem ersten Teil von „Eine unbequeme Wahrheit“?
Dazu ergänzen ein Kommentar der Redakteurin: „ … im ersten Teil standen Fakten klar im Vordergrund
Redakteurin: Sind wir dann also schon über den Berg?
Redakteurin: Schon heute sind, wie Ihr Film zeigt, Millionen Menschen wegen des Klimawandels auf der Flucht. Werden Sie den Druck hin zu schnellen Entscheidungen für den Klimaschutz weiter erhöhen?
Redakteurin: Wie bewerten Sie es, dass US-Präsident Donald Trump das „Gerede vom Klimawandel“ für Quatsch hält und das Pariser Klimaabkommen aufgekündigt hat?
Redakteurin: Ohne die US-Regierung wird die Klimarettung dennoch schwerer werden, oder?
Redakteurin: Sie waren über die Jahre immer wieder massiver Kritik ausgesetzt, zuletzt vor allem – und auf sehr persönliche Weise – von Präsident Trump. Wie gehen Sie damit um?

Solch tiefschürfende Interviews kenn man nur noch vom Sonntags-Kirchenblatt, wenn der Bischoff allergnädigst ein Interview für seine Schäfchen erlaubt und so stellt man sich auch „investigativen“ Journalismus in Nordkorea vor. Zum Glück kann man im Internet noch wirklichen Journalismus lesen:
Achgut, Ulli Kulke, 10.08.2017: Al Gott vom Planeten Ich

Minister Maas(los) hat das Problem erkannt. Das Internet verführt zum falschen Informieren und in Folge auch zum falsch wählen – und muss für die Untertanen schnellstens auf erlaubbare Information eingeschränkt werden.

Quellen

[1] Daniel Raucoules, at al.: High nonlinear urban ground motion in Manila(Philippines) from 1993 to 2010 observed by DInSAR: implications for sea-level measurement. Remote Sensing of Environment, Elsevier, 2013, 139, pp.386-397

[2] klimaretter.info, 07. August 2017: Philippinen: Alleingelassen im Klimawandel

[3] EIKE 08.08.207: Meerespegelanstieg: Europa kann nicht alle (vor Klimawandel-Desinformation) schützen T2 (2)

[4] EIKE 27. Juli 2017: G20 Klimafakten ohne Hysterie betrachtet Teil 2 (4): Die Meerespegel steigen und steigen …(aber keinesfalls unnatürlich)
[5] EIKE 06.06.2017: Crashinformation zu den „untergehenden“ Pazifikinseln, Teil 1: Pegelinformationen

[6] Correctiv.org, Jacque Manabat, 28. Juli 2017: Philippinen: Allein gelassen Warum arme Länder durch den Klimawandell noch ärmer werden

[7] Correctiv.org, Jacque Manabat, 28. Juli 2017: Manila: Trauriger Spitzenreiter Schon in wenigen Jahren könnten große Teile der Metropole unter Wasser stehen

[8] THE WORLD BANK, September 2010: Climate Risks and Adaptation in Asian Coastal Megacities

[9] University of the Philippines, University of Illinois, F. P. Siringan, K.S. Rodofo, 2003: Relative Sea Level Changes and Worsening Floods in the Western Pampanga Delta: Causes and Some Possible Mitigation Measures

[10] EIKE 08.06.2017: Crashinformation zu den „untergehenden“ Pazifikinseln, Teil 2: Zusatzinformationen

[11] EIKE 11. August 2017: ARTE-Film zum Senegal: Eine Insel versinkt – und mit ihr (wieder) jegliche Glaubwürdigkeit der Klimawandel-Berichterstattung. Deshalb eine Rezension mit sarkastischem Schluss

[12] EIKE 13. Juli 2017: Wie viele Unterschriften zum Klimavertrag wurden mit Geldversprechungen gekauft?