1

Experimen­telle Verifi­kation des Treibhaus­effektes

1. Einführung

In der ersten Mitteilung (1 hier ) wurde eine neuartige Apparatur vorgestellt, die im Gegensatz zu den bisher bekannten Untersuchungsmethoden nicht die austretende IR-Strahlung (Transmission), sondern die IR-Gegenstrahlung (Treibhauseffekt) von IR-aktiven Gasen untersucht. Die Apparatur enthält als wesentliche Bestandteile eine sogenannte Erd-Platte und in einem großen Abstand eine Aerosol-Platte, die stellvertretend für die Erdoberfläche und für eine Wolkenschicht stehen. Bei einem ersten Test mit Propan als Modell-Treibhausgas wurde gefunden, dass dieses Gas eine bereits vorhandene, konstruktionsbedingte Gegenstrahlung EG unter bestimmten Voraussetzungen erhöhen kann. Diese Untersuchung wurde nun mit Methan, CO2, Lachgas, Butan und Freon 134a wiederholt. Hierzu wurde die auf 16 °C temperierte Apparatur mit 1,3 Vol.-% des IR-Gases gefüllt und danach nur die Aerosol-Platte schrittweise bis auf – 18 °C abgekühlt. Bei jedem Abkühlungsschritt wurde die Heizleistung QE ermittelt, die für eine konstante Temperatur der Erd-Platte von 16,09 °C erforderlich ist (experimentelle Daten siehe Kap. 4).

Diese Art der Versuchsdurchführung wird „Abkühlungs-Modus“ genannt, da die Temperatur der Aerosol-Platte schrittweise gesenkt wird. Mit dieser Technik lässt sich die wechselseitige Beeinflussung von einer IR-Gas-Strahlung mit der Hintergrundstrahlung der Aerosol-Platte untersuchen. Bei der alternativen Versuchsdurchführung, dem „Konzentrations-Modus“, werden die Strahlungen der IR-Gase bei konstanten Temperaturen aber unterschiedlichen Konzentrationen der Gase analysiert. Hier ist von vornherein die Aerosol-Platte viel kälter als ihre Umgebung. Dieses Verfahren ist besser geeignet, die konzentrationsabhängigen Emissionsgrade der IR-Gase zu ermitteln, worüber in den folgenden Mitteilungen berichtet werden soll.

Die gefundenen Heizleistungen QE werden über die Temperatur der Aerosol-Platte TH (als T4/108, in Kelvin) in einem Excel-Diagramm aufgetragen (Abb. 1). Die zweite X-Achse TpH in °C dient der Orientierung. Der Übersicht halber werden die einzelnen Messpunkte von + 16 bis – 18 °C nur beim Freon angegeben.

In der ersten Mitteilung (1) wurde abgeleitet, dass die Heizung der Erd-Platte QE zahlenmäßig mit der Strahlungskühlung PE identisch ist. Die Strahlungskühlung PE ist die Energie, die die Erd-Platte als Differenz ihrer IR-Ausstrahlung ME und Empfang einer IR-Gegenstrahlung EG verlieren würde (Gleichung 1). ME ist in dieser Gleichung die IR-Ausstrahlung der Erd-Platte von 396,9 W/m2 (berechnet nach Stefan-Boltzmann, ε = 1).
Um ein Abkühlen der Erd-Platte durch Strahlungskühlung zu verhindern, muss ihr von außen Wärme zugeführt werden. Die Erd-Platte hat eine konstante Temperatur wenn QE = PE ist. Die Y-Achse zeigt somit auch die Strahlungskühlung PE an, die von den IR-Gasen beeinflusst wird.

Gleichung 1:

Man kann den Treibhauseffekt mit der Strahlungskühlung PE oder mit der Gegenstrahlung EG charakterisieren, da beide Größen, wie in Gleichung 1 angegeben, miteinander verknüpft sind. Aber ACHTUNG! Strahlungskühlung und Gegenstrahlung verhalten sich gegenläufig. Eine starke Gegenstrahlung hat eine geringe Strahlungskühlung zur Folge!

In der Literatur wird die Strahlungskühlung (Gleichung 1) als „effektive Ausstrahlung“ der Erde bezeichnet. Der alternative Begriff „Strahlungskühlung“ zeigt, dass es sich hier um eine Kühlung durch IR-Strahlung handelt. Damit soll deutlicher hervorgehoben werden, dass die Erde noch weitere Kühlungsmöglichkeiten, wie z.B. Wasserverdunstung oder Konvektion, hat.

Aus den experimentell ermittelten Messpunkten werden die linearen Excel-Trendlinien berechnet (Tab. 1). Die Trendlinien bestehen aus einem konstanten Teil PE(TH=0) (maximale Strahlungskühlung ohne Gegenstrahlung von der Aerosol-Platte) und einem variablen Teil dPE/dTH (Verlauf der Geraden).

Alle neu untersuchten IR-aktiven Gase zeigen ein ähnliches Strahlungsverhalten wie Propan, aber mit deutlich unterschiedlichen Strahlungskühlungen PE. Damit erweist sich die sehr einfache Versuchsapparatur als durchaus geeignet, den erdnahen Treibhauseffekt zu überprüfen. Die IR-Gase sind in Tab. 1 nach der Wirksamkeit ihres Treibhauseffektes (Abnahme der Strahlungskühlung PE) angeordnet. Eine erste Überraschung ist die Reihenfolge von Methan und CO2. Methan, angeblich ein wesentlich stärkeres Treibhausgas als CO2, erweist sich hier als der schwächere IR-Gegenstrahler. Da bei der aktuellen Versuchsserie der Einfluss der Hintergrundstrahlung im Mittelpunkt stand, soll das unerwartete Resultat der Methan-Strahlung hier nicht weiter kommentiert werden.

In einer weiteren Versuchsserie (dann jedoch im Konzentrations-Modus) wurden alle o.g. IR-Gase noch einmal hinsichtlich ihrer Strahlungsfähigkeit untersucht. Dabei wurde die geringere IR-Strahlung des Methans im Vergleich zum CO2 erneut festgestellt, worüber später berichtet werden soll.

Tabelle 1: Excel-Trendlinien für die Strahlungskühlung der Erdplatte: PE = dPE /dTH ∙ TH + PE(TH=0)

Die Messung im Abkühlungs-Modus macht es möglich, die gegenseitige Beeinflussung der IR-Gas-Strahlung und einer Hintergrundstrahlung in einem Diagramm darzustellen. Dabei wird die Aerosol-Platte als Hintergrundstrahler bezeichnet, da sie sich aus Sicht der Erd-Platte hinter den IR-Gasen befindet. Die Aerosol-Platte scheint für den Treibhauseffekt von geringer Bedeutung, da der größte Teil ihrer Strahlung von den IR-Gasen verdeckt wird und sie also nur im Hintergrund agiert. Das ist eine fundamental falsche Einschätzung, wie im Folgenden gezeigt werden soll.

Abb. 1: Beeinflussung der Strahlungskühlung der Erd-Platte PE durch IR-Gase und durch die Temperatur TH der Aerosol-Platte

Aus Abb. 1 ist ersichtlich, dass die Strahlungskühlung der Erd-Platte PE nicht nur von der Wirksamkeit eines IR-Gases, sondern auch von der Temperatur der Aerosol-Platte TH abhängig ist.
Je größer das Strahlungsvermögen eines IR-Gases, desto geringer die Energieabgabe der Erd-Platte durch IR-Strahlung (Strahlungskühlung PE). Andererseits wird die Strahlungskühlung PE aber auch von der Temperatur der Aerosol-Platte beeinflusst, wie an dem abschüssigen (negativen) Verlauf der Trendlinien zu sehen ist. Die Wirkung der IR-Gase kann sogar null werden, wenn Erd- und Aerosol-Platte die gleiche Temperatur haben. Diese Relativierung des Treibhauseffektes durch einen Hintergrundstrahler wurde in der 1. Mitteilung ausführlich abgeleitet.

Die Verringerung des Treibhauseffektes wird durch eine Art Gegenbewegung verursacht. Wenn sich die Strahlung eines Treibhausgases EVG (als Vordergrund-Strahler) erhöht (verringert), verringert (erhöht) sich auch zu einem gewissen Umfang der Teil der Hintergrundes EHG(TH), der die Erd-Platte tatsächlich erreicht (Gleichung 2). Letztendlich ist durch diese Gegenbewegung die Zunahme (Abnahme) der gemeinsamen Gegenstrahlung beider Strahlungsquellen (EG) stets kleiner als die Summe der theoretischen Strahlungen von Vor-und Hintergrund. Vordergrund- und Hintergrundstrahler können als Strahlungskonkurrenten bezeichnet werden, die sich gegenseitig bei der IR-Bestrahlung der Erdoberfläche EG behindern (1).

Gleichung 2:

Dieser Zusammenhang ist von grundsätzlicher Bedeutung und gilt auch für Wolken. Wolken können einerseits je nach Schichtdicke und Wolkenart bis zu 90 % der Sonneneinstrahlung reflektieren (Wolken-Albedo, (2)) und damit die Erde abkühlen. Andererseits verursachen Wolken als IR-Strahler aber auch eine Erwärmung der Erde, was ihre Bewertung bisher so schwierig machte. Die Konkurrenz mit Treibhausgasen verringert nur den Beitrag der Wolken bei der IR-Bestrahlung der Erde (ihre wärmende Seite) und nicht die wolkenbedingte Streuung und Reflektion des Sonnenlichtes. Wegen dieser einseitigen Einflussnahme der Treibhausgase sollte eine Neubewertung von Wolken erforderlich sein. Es ist zu vermuten, dass, im Gegensatz zur Lehrmeinung, jede Form von Wolken zur Erdkühlung beiträgt! Bisher galt, dass nur tiefe, optisch dichte Wolken die Erde kühlen, aber hohe, optisch dünne Wolken die Erde erwärmen (3).

Die gegenseitige Konkurrenz bedeutet, dass auch umgekehrt Wolken/Aerosole die Wirksamkeit der Treibhausgase verringern. Deswegen sind Zweifel an der IPCC-Formel für den CO2-Strahlungsantrieb angebracht (Gleichung 3), da hier nur die theoretische CO2-Strahlung ohne Hintergrundstrahlung berechnet wird. Eine ausführliche Auseinandersetzung mit dieser IPCC-Formel und Vorstellung einer eigenen CO2-Strahlungsformel soll in der nächsten Mitteilung erfolgen.

Gleichung 3:

Aus Abb. 1 ist auch ersichtlich, dass eine Messung der IR-Gas-Strahlung (mit dieser Apparatur) nur vor einem wesentlich kälteren Hintergrund möglich ist. Wenn Erd- und Aerosol-Platte die gleiche Temperatur haben ist die Strahlungskühlung PE null, unabhängig ob Treibhausgase vorhanden sind oder nicht.
Hinzukommt, dass Treibhausgase (bei bestimmten Wellenlängen) durchsichtig sind. Der IR-Sensor (die Erd-Platte) „sieht“ nicht nur die IR-Gase, sondern auch den Hintergrund (Aerosol-Platte). Beide Strahlungsquellen gehen also in die IR-Messung ein. Ideal wäre ein Hintergrund mit der Temperatur TH = 0, von dem keine IR-Strahlung ausgeht. Die hohe Linearität R2 (Pearson-Funktion > 0,998) der gefundenen Trendlinien PE (Tab. 1) bei der Abkühlung bis -18 °C macht es aber möglich, durch Extrapolation bis T= 0 rechnen zu können. So lässt sich die reine IR-Gas-Strahlung (ihr theoretisches Strahlungspotential), ohne Hintergrundstrahlung der Aerosol-Platte, ermitteln.
Zusätzlich zur Strahlung der Aerosol-Platte gibt es noch eine Strahlung der Aluminiumwand der Apparatur, die als eine Konstante die Messungen beeinflusst und bei der Messung „ohne IR-Gas“ mit 102 W/m2 ermittelt wurde (1).

Die vorgestellten Versuche sind nur Labor-Untersuchungen, die den Treibhauseffekt der erdnahen Atmosphäre modellieren. Aber wird die IR-Gegenstrahlung der realen Atmosphäre auch von Wolken beeinflusst? Das ist eine Frage, die sich schon die Pioniere der Klimaforschung stellten. Schon Anfang des 20. Jahrhunderts hat Knut Ångström ein Pyrgeometer entwickelt, das die „dunkle“ (IR) Strahlung der Atmosphäre ermitteln konnte (4). Wie auch bei der eigenen Apparatur wurde der elektrische Strom gemessen, der für eine gleichbleibende Temperatur eines geschwärzten, dem Himmel ausgesetzten Thermoelementes benötigt wird. So gesehen ist die vorgestellte, eigene Apparatur eine Anlehnung an das Pyrgeometer von Knut Ångström. Sein Sohn, Anders Ångström, und Sten Asklöf haben die nächtliche „Wärmeaustrahlung“ in verschiedenen Regionen der Erde untersucht und festgestellt, dass sie von der Lufttemperatur und der Luftfeuchtigkeit aber vor allem vom Bewölkungsgrad abhängt (5). Es wurde gefunden, dass die effektive Ausstrahlung (Strahlungskühlung) der Erde bei bewölktem Himmel nur rund 23 % im Vergleich zum klaren Himmel beträgt. Diese ersten, einfachen Messungen der effektiven IR-Ausstrahlung der Erde wurden durch spätere Messungen mit verbesserten Geräten überprüft. Dabei wurde festgestellt:Bei bedecktem Himmel betrug die Intensität der effektiven Ausstrahlung im Mittel 18,5% des Wertes bei wolkenlosem Himmel (6).

Dass Wolken als starke IR-Strahler die nächtliche Abkühlung (z.B. im Winter) erheblich mindern können, gehört mittlerweile zum Allgemeinwissen. Angesicht der vielen bekannten Untersuchungen wären eigene Messungen eigentlich nicht nötig gewesen. In der Zwischenzeit sind jedoch die Geräte zur Messung der IR-Strahlung dank Mikroelektronik nicht nur wesentlich handlicher, sondern vor allem auch erschwinglicher geworden. Um mit eigenen Augen die atmosphärische Gegenstrahlung kennenzulernen, wurde die IR-Strahlung des Himmels über Berlin von Juli 2016 bis Mai 2017 in unregelmäßigen Abständen mit einem Pyrometer PCE-891 (ein Infrarot-Thermometer) bei unterschiedlichen Bewölkungsgraden gemessen. Die Messungen des bewölkten Himmels zeigten erwartungsgemäß eine sehr starke, durch Wolken verursachte Gegenstrahlung. Unerwartet spannend wurden die Messungen des wolkenfreien Himmels. Nach Auffassung von F. Möller sind nur die IR-Gase Wasserdampf, CO2 und in kleinem Umfang Ozon, Methan und Lachgas die Ursache der atmosphärischen Gegenstrahlung bei klarem Himmel, die sich mit seinen Strahlungsdiagrammen berechnen lassen (7). Die IR-Strahlung von Wasserdampf und CO2 wird nicht bestritten. In den folgenden Kapiteln wird jedoch gezeigt, dass mit hoher Wahrscheinlichkeit auch von den nicht sichtbaren Aerosolen eine erhebliche IR-Strahlung erzeugt wird und hier ein Umdenken erforderlich ist.

Der wolkenfreie Himmel – die Strahlung der nicht sichtbaren Aerosole?

Laut Wikipedia sind die IR-aktiven Gase die einzigen IR-Strahler, die bei klarem Himmel eine Gegenstrahlung zur Erde schicken. „Bei klarem Himmel besteht die Gegenstrahlung hauptsächlich aus der Wärmestrahlung der Atmosphärengase“ (8).
So wurde mit einem Pyrgeometer (im IR-Wellenlängenbereich von 5 bis 25 μm) von einer Wetterstation bei München am 6. Oktober 2005 der Verlauf der Gegenstrahlung während eines Tages gemessen. „Während des Vormittags herrschte Hochnebel. Die Nebeltröpfchen trugen als effiziente langwellige Strahler zu relativ hohen Strahlungswerten von ca. 370 W/m² bei. Gegen Mittag löste sich der Nebel auf und ließ einen klaren Himmel zurück. Die Atmosphärengase alleine sind weniger effiziente langwellige Strahler, die Strahlungswerte gingen daher merklich zurück, auf etwa 300 W/m². … Über das Jahr und den ganzen Globus gemittelt beträgt die Intensität der Gegenstrahlung etwa 300 W/m² “.
Die These einer exklusiven IR-Gas-Strahlung deckt sich mit der Aussage neuzeitlicher Meteorologen: „Der klare Himmel enthält nur wenige kleinste Partikel. Es liegt eine reine gasförmige Atmosphäre und kein Aerosol vor…“ (9).

Die Thesen provozieren allerdings Zweifel, denn dann hätten die großen Ballungsgebiete der Erde kein Feinstaubproblem, es gäbe keinen Sahara-Staub, die Pflanzen kämen ohne Pollen aus und es wäre fraglich wie sich Wolken überhaupt bilden können, denn: „Die Wassertröpfchen (der Wolken) bilden sich um Kondensationskerne (Aerosole, Anm. d Verf.) herum, wenn die relative Feuchtigkeit der Luft 100 % geringfügig (um höchstens 1 %) übersteigt“ (10).

Tatsächlich gibt es eine Reihe von Beobachtungen und Indizien, die alle darauf hinweisen, dass die atmosphärische Gegenstrahlung bei wolkenfreien Himmel gemeinsam von IR-aktiven Gasen (hauptsächlich Wasserdampf und CO2) und den nicht sichtbaren Aerosolen erzeugt wird. Aufgeführt werden drei völlig unterschiedliche Untersuchungen: Die eigenen Temperatur-Messungen des klaren Himmels über Berlin (Kap. 2.1), Messungen der Boden-Temperatur aus größerer Höhe (Kap. 2.2) und Berechnungen der Wasserdampf-Strahlung mit Formel von Ångström und anderen Forschern (Kap. 2.3). Jedes dieser Argumente mag für sich alleine fragwürdig sein, aber in ihrer Summe bilden sie ein schlüssiges Konzept einer Aerosol-Strahlung, die von der modernen Klimaforschung offensichtlich vernachlässigt wurde. Dabei waren sich die Vorväter der Meteorologie ursprünglich einig, dass sich: Millionen von Staubteilchen in der Luft befinden und sogar einen Beitrag zur sogenannten Rückkehr- oder Kältekonvektion während der nächtlichen Abkühlung leisten(11).

Temperatur-Messungen des wolkenfreien Himmels

Zum Erforschung der atmosphärischen Strahlung wurde der wolkenfreie Himmel über Berlin zu unterschiedlichen Tag- und Nachtzeiten mit einem Pyrometer PCE-891 (ein Infrarot-Thermometer) gescannt. Das verwendete Pyrometer besitzt einen eingebauten Filter, der nur IR-Strahlen der Wellenlängen 8 – 14 µm durchlässt und ist mit einer Optik 50:1 ausgestattet, die eine Fokussierung ermöglicht. Damit misst das Pyrometer in einem Wellenlängenbereich, der nur wenig von CO2 oder Wasserdampf beeinflusst wird (atmosphärisches Fenster). Protokolliert wurde die Temperatur des Himmels bei Höhenwinkeln von 0 bis 90 Grad (Winkel über dem Horizont). Dabei wurde die Messung bei 0 Grad mit der Lufttemperatur in einer Höhe von 1,8 m gleichgesetzt. Die gefundenen Messwerte sind extrem vom Höhenwinkel abhängig (Tab. 2). Im Durchschnitt wurde ein Unterschied von 22 K zwischen den Winkelmessungen von 20 und 90 Grad gefunden. Die starke Winkelabhängigkeit lässt sich durch schwache IR-Strahler erklären, die eine große Schichtdicke (mehrere Kilometer) für die Sättigung ihrer Strahlungen benötigen. Dabei ist bei der senkrechten Messung der Anteil der kalten atmosphärischen Schichten größer als beim flachen 20 Grad Winkel. Um eine Vorstellung zu bekommen, was die Temperatur-Messungen bedeuten, wurde in der Tabelle ein „Strahlungsäquivalent“ in W/m2 angegeben. Es ist die Strahlungsdichte, die ein „Schwarz-Körper“ bei den gemessenen Temperaturen emittieren würde.

Wer oder was verursacht aber diese IR-Strahlungen? Der Messbereich des Pyrometers von 8 – 14 µm ist zu groß, um Treibhausgase per se auszuschließen zu können. Da wäre zunächst das Ozon, das bei 9,6 µm, also ziemlich mittig, ein Emissions-Maximum hat. Bei den Ozon-Emissionen handelt es sich um sehr kleine, selbst im Zentrum nicht gesättigte Banden, die vernachlässigt werden können. Aus den Messungen des Wettersatelliten Tiros im Wellenlängenbereich 7,5 – 13,5 µm weiß man, dass auch in geringem Umfange CO2 und Wasserdampf IR-Emissionen in diesem Wellenbereich aussenden (siehe Kap. 2.2). Diese beiden Treibhausgase können also teilweise die Winkelabhängigkeit erklären. Allerdings sind die beobachten Unterschiede der Himmels-Strahlung von 90 W/m2 zwischen der 20 und 90 Grad Messung (Tab. 2, B – D) zu hoch, um sie allein durch H2O- und CO2-Strahlung erklären zu können. Schließlich haben diese Gase im Wellenbereich des Pyrometers keinen Haupt-Peak sondern nur Ausläufer, die die Messung beeinflussen. So bleibt als plausible Erklärung nur die Annahme einer gemeinsamen Strahlung von Treibhausgase und Aerosolen. Aerosole, als feste oder flüssige Partikel, erzeugen eine kontinuierliche Strahlung mit einem Maximum zwischen 11 und 12 µm (Wiensches Verschiebungsgesetz), das perfekt mit dem Messbereich des Pyrometers übereinstimmt.

Tabelle 2: Temperaturmessung bei klarem Himmel: Pyrometer PCE-891

Die Winkelabhängigkeit der IR-Gegenstrahlung bei klarem Himmel ist keineswegs eine neue Entdeckung. So wurde bereits 1933 in der Nacht vom 19. zum 20. Mai in Föhren bei Trier mit einem „Effektiv-Aktinometer“ eine Abhängigkeit der effektiven Ausstrahlung (Strahlungskühlung) vom Höhenwinkel festgestellt (Tab. 3) (12).

Tabelle 3: „Meridionale Intensitätsverteilung der effektiven Ausstrahlung in relativen Einheiten, Zenit = 100“ nach Kessler und Kaempfert

Temperaturmessung der Erdoberfläche aus größerer Höhe

Im Juli 1961 wurde von der NASA der Wettersatellit TIROS III in eine Erdumlaufbahn gebracht, der u.a. mit einen IR-Sensor (Tiros Channel 2, IR-Empfindlichkeitsbereich von 7,5 – 13,5 µm) ausgerüstet war. Dabei stellte sich heraus, dass die im Orbit gemessenen Strahlungstemperaturen der Erdoberfläche stets niedriger sind als die tatsächlichen Temperaturen vor Ort. Es wurde erkannt, dass die Temperatur-Messungen von der (kalten) Atmosphäre beeinflusst wurden. Das „atmosphärische Fenster“ im Bereich 7,5 – 13,5 µm war offensichtlich nicht so transparent wie erhofft. Dabei wurden vor allem die IR-Strahlungen von Wasserdampf, CO2 und Ozon als Ursache dieser Atmosphären-Strahlung ausgemacht. Die nicht sichtbaren Aerosole als weitere Strahlungsquelle wurden merkwürdigerweise nicht beachtet. Dabei gab es einen deutlichen Hinweis auf eine mögliche Aerosol-Strahlung. So betrug die Abweichung 13,3 K bei einer „extrem feuchten“ Atmosphäre über Panama (15.11.1961). Über der trockenen Sahara- Wüste (Colomb-Bechar, 15.07.1961) betrug trotz geringer Wasser-Konzentration die Abweichung immer noch 8,8 K (13). Das ist ein Wert, der ausreichend Raum für eine Aerosol-Strahlung bietet.
Ein weiterer Hinweis findet sich im Bericht über Temperatur-Messungen von Wasseroberflächen aus einer Höhe von bis zu 2400 m (vom Flugzeug oder Hubschrauber) mit einem PRT-Radiometer im Spektralbereich 8 – 13 µm. Wie schon bei den Messungen des Tiros-Satelliten wurde eine Abweichung zwischen Strahlungs-Temperatur und tatsächlicher Oberflächen-Temperatur festgestellt. Wegen der geringeren Höhe war die Abweichung mit 2 – 3 K entsprechend kleiner. Dabei erwies sich der Einfluss der Luftfeuchte geringer als erwartet: Die Erfahrung zeigt, dass die Luftfeuchtigkeit einen wesentlich geringeren Einfluss auf die Korrekturwerte für die Strahlungstemperatur hat als die Lufttemperatur“ (14). Auch wenn der Autor die Rolle der Aerosole nicht anspricht, können seine gefundenen Abweichungen als Aerosol-Strahlung interpretiert werden.

Die Wasserdampf-Strahlung bei wolkenfreiem Himmels

Die Messungen des wolkenfreien Himmels mit dem Ångström-Pyrgeometer zeigten, dass die atmosphärische Gegenstrahlung von Temperatur und Feuchtigkeit der Luft abhängig ist. Zur Berechnung dieser Strahlung ließ sich Ångström von der Überlegung leiten, dass die effektive IR-Ausstrahlung Ae der Erde durch die Differenz von ihrer Ausstrahlung (σ ∙ T4Erde) und der Gegenstrahlung der Atmosphäre (G) gebildet wird (Gleichung 4, siehe auch Gleichung 1) (5). Stellt man die Gleichung um, ist die Gegenstrahlung G die Differenz von Erd- und effektiver Ausstrahlung. Dabei wird nach Ångström die effektive Ausstrahlung Ae durch eine modifizierte Stefan-Boltzmann-Gleichung berechnet, deren Koeffizienten experimentell ermittelt wurden. Unter der Annahme, dass erdnahe Atmosphäre und Erdoberfläche die gleiche Temperatur haben lässt sich die Gegenstrahlung G nach Gleichung 4 berechnen.

Gleichung 4:

Umfangreiche Messungen in den nachfolgenden Jahren bestätigten, dass die Gegenstrahlung von Luft-Temperatur und -Feuchte abhängt. Dabei wurden die Koeffizienten von Bolz und Falkenberg korrigiert (15).

Gleichung 5:

In der Klimaforschung ist es heute üblich, Strahlungsdiagramme zur Berechnung der atmosphärischen Aus- und Gegenstrahlung auf Basis der Absorptionslinien der IR-aktiven Gase zu benutzen (7). Die Rechnungen benötigen Großrechner und sind für einen Außenstehenden schwer nachzuvollziehen und vor allem nicht überprüfbar. Da sie die Ergebnisse von Ångström aber im Grundsatz bestätigen, kann man weiterhin mit der einfachen bzw. korrigierten Ångström-Formel die Wasserdampf-Strahlung ermitteln. Vor allem sind die Rechnungen vertrauenswürdig, da sie von einer großen Zahl von Feldversuchen bestätigt wurden. Tab. 4 zeigt die atmosphärische Gegenstrahlung bei einer Lufttemperatur von 15 °C, berechnet nach der Formel von Bolz/Falkenberg für Luftfeuchten von 0 bis 100 % (Klammer-Werte wurden nach der Ångström-Formel berechnet). Der Anteil der Wasserdampf-Strahlung an der berechneten Gegenstrahlung wurde aus der Zunahme der IR-Strahlung zum Basiswert von 223 W/m2 (ohne Wasserdampf; rel. Feuchte = 0) ermittelt.

Die Rechnungen offenbaren zwei fundamentale Widersprüche: Die atmosphärische Gegenstrahlung wird bei klarem Himmel bei 15 °C nur zu einem kleinen Teil (30 % nach Bolz/Falkenberg) von Wasserdampf verursacht, und die H2O-Strahlung ist viel kleiner als nach den Absorptionsbanden des Wasserdampfes zu erwarten wäre.

Tabelle 4: Berechnungen der atmosphärischen Gegenstrahlung bei wolkenfreiem Himmel bei 15 °C nach Bolz/Falkenberg und Ångström (in Klammern)

Die o.g. These: „Bei klarem Himmel besteht die Gegenstrahlung hauptsächlich aus der Wärmestrahlung der Atmosphärengasewird durch diese Rechnungen nicht bestätigt. Addiert man zur Wasserdampf-Strahlung noch die CO2-Strahlung (angeblich rund die Hälfte der H2O-Strahlung) kommen die beiden wichtigsten Treibhausgase nur auf rund 45 % der atmosphärischen Gegenstrahlung. 55 % der atmosphärischen Gegenstrahlung werden also nicht von Treibhausgasen erzeugt! Es muss noch eine weitere Strahlungsquelle (die Strahlung der Aerosole?) geben, um die gemessene Gegenstrahlung des Himmels erklären zu können.
Aber auch die maximal erreichbare H2O-Strahlung von 95 W/m2 bei 100 % rel. Feuchte ist verwunderlich. Dieser Wert ist nur 50 % der theoretischen H2O-Strahlung von rund 190 W/m2. Letzteres ist ein Schätzwert, der sich aus dem Planck’schen Strahlungsgesetz und der Annahme der Sättigung aller H2O-typischen Absorptionsbanden zwischen 5 – 8 und 17 – 100 µm bei 15 °C ergibt.

Diese Widersprüche lassen sich durch eine gemeinsame Gegenstrahlung von Wasserdampf und Aerosolen auflösen, worauf in Kap. 3 ausführlicher eingegangen wird.

Anmerkung: Das Pyrgeometer von Ångström hat keinen Strahlungs-Filter. Es werden alle relevanten Wellenlängen der atmosphärischen Gegenstrahlung erfasst. Damit wird hier, anders als bei den eigenen Messungen (Kap. 2.1), die gesamte atmosphärische Gegenstrahlung gemessen.

Die IR-Gegenstrahlung unter Wolken

1. Temperatur-Messungen des bedeckten Himmels

Nach der gleichen Methode, wie im Kap. Der wolkenfreie Himmel – die Strahlung der nicht sichtbaren Aerosole?.1 beschrieben, wurde der wolkenbedeckte Himmel (tiefe Schichtwolken) über Berlin mit dem Pyrometer PCE-891 gescannt (Tab. 5).
Wie schon bei der Temperatur-Messung bei klarem Himmel dargelegt, erfassen die Messungen nur einen Teil der atmosphärischen Gegenstrahlung (Wellenlängen-Bereich von 8 – 14 µm). Die starke Zunahme der IR-Strahlung von 122 W/m2 (90 Grad Messungen), im Vergleich zum wolkenlosen Himmel (Tab. 2 und Tab. 5), zeigt eindeutig, dass hier hauptsächlich die Strahlung der Wolken gemessen wird.

Ansonsten zeichnet sich diese Messreihe unter Wolken durch eine geringere Winkelabhängigkeit der Messwerte von 3,3 K zwischen der 20 und 90 Grad Messung aus, die sich aus dem relativ kurzen Abstand von Boden und Wolken ergibt. Damit bestätigt sich die These, dass die Winkelabhängigkeit der Temperatur-Messungen von schwachen Strahlern der Atmosphäre verursacht wird, die mehrere Kilometer Atmosphäre für eine gesättigte Strahlung benötigen, die unter Wolken nur bedingt vorhanden ist.

Tabelle 5: Temperaturmessung des bedeckten Himmels: Pyrometer PCE-891

2. Die Wasserdampf-Strahlung bei bedecktem Himmel

Übereinstimmend fanden Ångström und Asklöf, dass die effektive Ausstrahlung AW der Erde in Gegenwart von Wolken je nach Wolkenbedeckungsgrad und ihrer Höhe erheblich verringert wird. Aw wird aus der effektiven Ausstrahlung A0 (klarer Himmel) durch Multiplikation mit den Koeffizienten k und w erhalten (5).

Gleichung 6:

Die Gegenstrahlung für den vollständig bedeckten Himmel (w = 10) und einer durchschnittlichen Wolkenhöhe (k = 0,765) ergibt sich nach Gleichung 7, wobei für A0 der Ausdruck Ae aus Gleichung 4 eingesetzt wird.

Gleichung 7:

Tab. 6 zeigt die atmosphärische Gegenstrahlung bei vollständiger Wolkenbedeckung und einer Lufttemperatur von 15 °C bei rel. Luftfeuchten von 0 bis 100 %. Der Anteil der Wasserdampf-Strahlung an der berechneten Gegenstrahlung wurde aus der Zunahme der IR-Strahlung zum Basiswert von 351 W/m2 (ohne Wasserdampf; rel. Feuchte = 0) ermittelt.

Tabelle 6: Berechnungen der atmosphärischen Gegenstrahlung bei vollständiger Wolkenbedeckung und 15 °C nach Ångström/Asklöf

Als erstes fällt die geringe Auswirkung der Luftfeuchte auf. Selbst bei 100 % rel. Luftfeuchtigkeit beträgt der Anteil der Wasserdampf-Strahlung nur 5 % (19 W/m2) der berechneten Gegenstrahlung von 370 W/m2.

Wegen der geringen Wirkung des Wasserdampfes wurden von anderen Forschern alternative Formeln vorgeschlagen, die den Wasserdampf ganz weglassen („da er in der Messgenauigkeit untergeht“) und nur die Wolkenbedeckung als Parameter berücksichtigen (15).

Zur Erinnerung, die Gegenstrahlung (erdnaher Treibhauseffekt) wirkt sich nach Gleichung 1 unmittelbar und direkt auf die Kühlung (Strahlungskühlung) der Erde aus. Die Erde kann bei 15 °C (100 % Feuchte) nur 21 W/m2 (391 – 370) durch IR-Strahlung loswerden. Kein Wunder, dass die Temperaturen bei einer nächtlichen Abkühlung unter einer geschlossenen Wolkendecke kaum zurückgehen. Aber der entscheidende Punkt ist, dass Wasserdampf an diesem starken Effekt nur zu 5 % beteiligt ist. Diese Erkenntnis ist angesichts der aktuellen Global-Warming-Diskussion von besonderer Tragweite. Wasserdampf ist kein x-beliebiges Treibhausgas, sondern das wirksamste IR-aktive Gas der Atmosphäre, das angeblich für 66 bis 85 % aller absorbierten IR-Strahlungen verantwortlich sein soll (16).

Die Naturbeobachtungen (Formeln) der frühen Forscher bestätigen im vollen Umfang die eigenen Laborversuche und daraus abgeleiteten Schlussfolgerungen. Danach verlieren die Treibhausgase in Gegenwart einer geschlossenen Wolkendecke fast vollständig ihre Wirksamkeit.

Selbst moderne IR-spektroskopische Messungen der atmosphärischen Gegenstrahlung in Barrow (Alaska) zeigen, dass der erdnahe Treibhauseffekt der IR-aktiven Gase unter Wolken völlig verschwinden kann (17).

Auch ein Vergleich der beiden Strahlungs-Rechnungen (Tab. 4 und Tab. 6) für den klaren und bewölkten Himmel bietet einige interessante Aspekte:
Ohne Wasserdampf (rel. Feuchte = 0) verursachen Wolken eine Zunahme der Gegenstrahlung von 128 W/m2 (351 vs. 223 W/m2). Ein vergleichbarer Wert von 122 W/m2 wurde bei den eigenen Temperatur-Messungen, allerdings im Messbereich 8 – 14 µm, gefunden (Kap. 3.1).
Aber in einer feuchten Atmosphäre (100 % rel. Feuchte) ist der wolkenbedingte Zuwachs nur noch 67 W/m2 (auf Basis der Ångström-Werte 370 vs. 303 W/m2) (Tab. 4 vs. Tab. 6).

Diese Betrachtungen sind ein weiterer Beweis, dass bei einer gemeinsamen Strahlung von Treibhausgasen und Wolken beide Strahlungsquellen ihre Wirksamkeit einbüßen. Die im Labor gefundenen Zusammenhänge sind also keinesfalls neu, sondern weisen nur experimentell nach, was ursprünglich Lehrmeinung und festes Wissen von Meteorologen und Klimaforschern war.

Die moderne Klimatologie hat die früheren Bestimmungen der erdnahen Gegenstrahlung durch spektroskopische Messungen der IR-Ausstrahlung (Transmission) am oberen Rand der Atmosphäre TOA (Top of the Atmosphere) aus Sicht von Wetter-Satelliten (z.B. Nimbus 4) ersetzt. Die TOA-Spektren zeigen auffällige Absorptions-Kegel für Ozon aber vor allem für CO2, die zu einer Verringerung der gesamten Transmission beitragen. Es wird geschlussfolgert, dass sich die Erde erwärmen muss, um mit den anderen Wellenlängen die fehlenden Transmissionen auszugleichen. Diese Interpretation setzt voraus, dass sich zwischen TOA und Erdoberfläche keine weiteren Strahler befinden. Akzeptiert man aber die Existenz der Aerosole und Wolken als weitere Strahler der Atmosphäre lässt sich schlussfolgern, dass nicht unmittelbar die Erdoberfläche, sondern die Aerosole und die Oberseiten der Wolken sich etwas erwärmen. Ein Vorgang, der indirekt auch die Temperatur der Erdoberfläche beeinflussen sollte, allerdings wesentlich abgeschwächter als die unmittelbar wirksame IR-Gegenstrahlung des erdnahen Treibhauseffektes.

Abb. 2: Berlin am 14.06.2017, 12:20 Uhr, Luft: 20,0 °C (1,8 m): Temperatur-Messungen unterschiedlich dichter Wolken und wolkenfreier Abschnitte.

Die IR-Strahlungen der Wolken und Aerosole sind ähnliche Strahlungskomponenten der Atmosphäre mit kontinuierlichen Übergängen. Aerosole und Wassertropfen zeichnen sich durch eine sehr große Oberfläche (bezüglich ihrer Masse) aus. Das ist eine wichtige Voraussetzung einer Oberflächen-Strahlung von festen und flüssigen Stoffen. In der Atmosphäre ist diese Partikel-Strahlung von ihrer Konzentration (Partikel pro m3 Luft) und der Temperatur ihrer Umgebung abhängig, wie in Abb. 2 deutlich zu sehen ist.

Anhang- Experimentelle Daten

QE ist die elektrische Heizung einer fiktiven Erd-Platte mit einer Fläche von 1 m2. Die tatsächlich gemessenen Werte der verwendeten Erd-Platte (219,04 cm2) sind um den Faktor 0,0219 kleiner. UH ist die Spannung von 5 in Reihe geschalteten Peltier-Elementen (TEC1-12706) auf der Aerosol-Platte, die mit dem Voltmeter (Voltacraft VC 250) gemessen wurden. Diese Elemente registrieren die IR-Ausstrahlung (Strahlungen der Erd-Platte, der Seitenwand und der IR-Gase) und die Wärmeleitung der unmittelbaren Umgebung. Da die Wärmeleitung beim Abkühlen der Aerosol-Platte ständig zunimmt, wird UH bei Experimenten im Abkühlungs-Modus nicht ausgewertet, sondern nur zur Information in den folgenden Tabellen angegeben.

Tabelle 7: ohne IR-Gase

Tabelle 8: Methan

Tabelle 9: CO2

Tabelle 10: Lachgas

Tabelle 11: Propan

Tabelle 12: Freon 134a

Literaturverzeichnis

1. Schnell, Michael. Experimentelle Verifikation des Treibhauseffektes Teil 1: Die gegenseitige Beeinflussung von Wolken und Treibhausgasen. [Online] 25. März 2018. https://eike.institute/2018/03/25/experimentelle-verifikation-des-treibhauseffektes-teil-1-die-gegenseitige-beeinflussung-von-wolken-und-treibhausgasen/.

2. Schönwiese, Christian-Dietrich. Klimatologie. Stuttgart : Eugen Ulmer GmbH, 1994.

3. Wagner, Thomas. Strahlungsprozesse in der Atmosphäre. [Online] [Zitat vom: 28. Mai 2018.] https://www.mpic.de/fileadmin/user_upload/pdf/Physik_der_Atmosphaere_Lecture_Wagner.pdf.

4. Michael Krueger. Das Pyrgeometer von Knut Angström und die Bestimmung der Gegenstrahlung des atmosphärischen „Treibhauseffekts. [Online] 8. Oktober 2014. http://www.science-skeptical.de/blog/das-pyrgeometer-von-knut-angstroem-und-die-bestimmung-der-gegenstrahlung-des-atmosphaerischen-treibhauseffekts/0012776/.

5. Albrecht, Fritz. Untersuchungen über den Wärmehaushalt der Erdoberßäche in verschiedenen Klimagebieten. Reichsamt für Wetterdient. Berlin : Julius Springer, 1940.

6. F. Sauberer. Registrierungen der nächtlichen Ausstrahlung. Archiv für Meteorologie, Geophysik und Bioklimatologie, Serie B. 1951, Bde. Vol. 2, Seiten 347-359.

7. Möller, Fritz. Einführung in die Meteorologie. Mannheim/Wien/Zürich : Bibliographisches Institut, 1973. Bd. II.

8. Atmosphärische Gegenstrahlung. [Online] 17. April 2017. [Zitat vom: 1. Mai 2017.] https://de.wikipedia.org/.

9. Ewald Zmarsly, Wilhelm Kuttler, Hermann Pethe. Meteorologisch-klimatologisches Grundwissen: Eine Einführung mit Übungen, Aufgaben und Lösungen. Stuttgart : Eugen Ulmer GmbH & Co., 2002. S. 142.

10. Wolke. [Online] 13. Januar 2006. [Zitat vom: 01. Mai 2018.] https://de.wikipedia.org/wiki/Wolke.

11. Geiger, Rudolf. Das Klima der bodennahen Luftschicht. Braunschweig : Friedr. Vieweg & Sohn, 1942. S. 64.

12. Otto Wilhelm Kessler, ‎Wolfgang Kaempfert. Die Frostschadenverhütung. Berlin Heidelberg : Springer-Verlag, 1940. S. 37.

13. Lönnqvist, Olov. A window radiation chart for estimating surface temperature from satellite observations. [Online] 19. Oktober 1963. https://www.tandfonline.com/doi/pdf/10.3402/tellusa.v15i4.8856.

14. LORENZ, DIETER. Der Einflus einer Luftzwischenschicht auf meteorologische 0berflächentemperaturmessungen mit Radiometern. [Online] 22. Januar 1968. https://onlinelibrary.wiley.com/doi/pdf/10.1111/j.2153-3490.1969.tb00419.x.

15. Schulze, Rudolf. Strahlenklima der Erde. Darmstadt : Dr. Dietrich Steinkopff, 1970. S. 103. Bd. 72.

16. Winter, Maiken. Welche Rolle hat der Wasserdampf beim Treibhauseffekt? [Online] 01. Januar 2008. [Zitat vom: 24. Mai 2018.] https://www.cleanenergy-project.de/gesellschaft/green-lifestyle/wasserdampf-treibende-kraft-beim-treibhauseffekt/.

17. Christopher J. Cox, Penny M. Rowe, Steven P. Neshyba, and Von P. Walden. A synthetic data set of high-spectral-resolution infrared spectra for the Arctic atmosphere. [Online] Earth Syst. Sci. Data, 8, 199–211, 2016, 18. 01 2016. [Zitat vom: 23. 01 2018.] https://www.earth-syst-sci-data.net/8/199/2016/essd-8-199-2016.pdf.

Hier die englische Version des Beitrages 2. Communication – Experimental verification of the greenhouse effect




Renaturierung – eine ökonomische, ökologische und landeskulturelle Fehlinvestition – Renaturierungsprojekt Große Rosin – ein Beispiel

Als „Zweck der Maßnahme“ (Pkt. 3.1) wird herausgestellt:

Der Polder „Große Rosin“ liegt im potenziell natürlichen Überflutungsbereich der Peene und wurde im Zuge der Intensivierung der Landwirtschaft eingedeicht und durch ein weitmaschiges Grabensystem über ein leistungsstarkes Schöpfwerk entwässert. Er besteht aus den Teilflächen Große Rosin, Kleine Rosin und dem Teilpolder Altbauhof, der mittels Durchlass eine Verbindung mit der Kleinen Rosin und damit zum Schöpfwerk Aalbude hat.

Infolge der jahrzehntelangen intensiven Nutzung der Polderflächen und der dadurch bedingten Degradierung des Moores kam es zu Moorsackungen, so dass die Polderflächen aktuell teilweise erheblich unter dem Mittelwasserstand der Peene liegen. Das Gebiet ist Teil der Kernzone des Naturschutzgroßprojektes „Peenetal/Peene-Haff-Moor“ mit gesamtstaatlicher repräsentativer Bedeutung.“

Allein diese treffende Kurzbeschreibung zeugt von der Durchdachtheit und Weitsicht des um 1970 mit hohem Aufwand durchgeführten Meliorationsgroßprojektes. Dieses erbrachte nicht nur enorme ökonomische Vorteile für die LPG sondern befreite die Anwohner von den Unannehmlichkeiten und gesundheitlichen Risiken des Moores. Es bescherte ihnen vor allem auch menschenfreundliches Wohnumfeld und neue Möglichkeiten und Anreize für Freizeitgestaltung, Naherholung und Sport. Die Menschen waren zufrieden und im Einklang mit ihrer Region, erfreuten sich an der Kulturlandschaft und an den sich durch Artenvielfalt gekennzeichneten Biotops einer fruchtbaren Niedermoorlandschaft mit intensiver Grünland- und Viehwirtschaft. Die Region hatte an Attraktivität gewonnen; es entwickelte sich eine touristische Infrastruktur für Urlauber im Sommerhalbjahr.

Der Pflege- und Entwicklungsplan für dieses Naturschutzgroßprojekt legt für den Polder „Große Rosin“ folgende Entwicklungsziele fest:

Aufgabe des Polderbetriebes und Schaffung naturnaher Grundwasserverhältnisse. Das

Grabensystem, insbesondere die Fanggräben, sind zu verschließen. Die dann von der

dauerhaften Überflutung betroffenen Flächen unterliegen der Naturentwicklung. Hier

wird zunächst die Entwicklung von Großseggenrieden und teilweise von Röhrichten

erwartet.

Die weiterhin bewirtschaftbaren Talrandbereiche sollen durch extensive Mahd oder

Beweiden zu artenreichen Feuchtwiesen entwickelt werden.

Die randlich im Niedermoorbereich stockenden Bruchwälder (Hohes Bruch und Wendisch Teichholz) werden in bisher nicht abschätzbarem Maße der Vernässung ausgesetzt. Besonders im Wendisch Teichholz muss mit einem partiellen Verlust der forstlichen Bewirtschaftbarkeit, z. T. auch mit dem Absterben einzelner Bäume gerechnet werden. Diese Waldbereiche sollen aus der Nutzung herausgelöst und künftig einer natürlichen Entwicklung überlassen werden.“

Gemäß diesen „Entwicklungszielen“ wurde auch verfahren. Im Planfeststellungsbeschluß sind dementsprechend nur Zerstörungen von allem Sinnvollen aufgeführt, so dass es im Hinblick auf die ökologischen Verhältnisse sich dem Wesen nach um eine „Rückentwicklung“ ins ökologische Mittelalter handelt.

Was ist nun die Realität, die die Menschen in Verachtung, Wut und Besorgnis bringt?

Von der „Herstellung eines weitgehenden natürlichen Wasserregimes“ oder der „Schaffung naturnaher Grundwasserverhältnisse“ oder „eines naturnahen hydrologischen Systems“ kann keine Rede sein. Im Gegenteil – die gesamten Wasserverhältnisse sind alles andere als naturnah, sind fern ab von „natürlichen“ Wasserverhältnissen und zudem noch völlig nutzlos; haben zum Totalverlust an Wertschöpfung und Zerstörung der teuer erschaffenen Infrastruktur geführt. Aber das ist noch nicht alles: Sie sind zudem – wie später noch darzulegen sein wird –im Hinblick auf den Kampf gegen den Klimawandel kontraproduktiv durch erhöhte Methanemission.

Was ist dem Wesen nach ausgeführt worden und was ist in der Realität entstanden?

Die Große Rosin ist ein Durchströmungstalmoor, das vom Grundwasser und dem Oberflächenwasser der angrenzenden Endmoräne gespeist wird. Durch die zweckentfremdete Nutzung der Deiche als landseitige Staumauern und durch die Verbauungen der Hauptvorfluter mit panzersperrenartigen unregulierbaren Barrieren läuft das Niedermoor wie eine große Badewanne voll. Die in den Deichen absichtlich hoch eingesetzten Rohrduchbrüche mit seeseitigen Verschlussklappen und die Höhe der Grabenverbauungen haben auf fast der ganzen Flachwasserseen mit all seinen negativen ökologischen Folgen entstehen lassen. Der Wasserspiegel wird dadurch in den Renaturierungsgebieten 40 – 60 cm über dem Wasserstand des Kummerower Sees gehalten. Dieses Wasserszenario hat absolut nichts mit einem „naturnahen hydrologischen System“ zu tun. Das würde bei einem sich über Seeniveau einstellenden Wasserstand den Abfluss und umgekehrt bei höherem Wasserstand des Kummerower Sees, d.h. der Peene, den Rückfluss des Hochwassers in die Wiesen gewährleisten und damit würde das Flusstalmoor seiner Bestimmung als natürlicher Ausdehnungs- und Überflutungsbereich, d.h. seiner Funktion als Hochwasserschutz, gerecht werden. Der gegenwärtige Zustand bietet keinen Hochwasserschutz, was in dem regenreichen Sommer 2011 mehr als deutlich an dem Hochwasserstand der Peene im Bereich Neukalen zu bemerken war.

                        Vorher 2002                                                         Nachher 2013
Zwei Bilder, vom gleichen Standort, vom Kützerhofer Damm aus aufgenommen im Jahre 2002 vor und im Jahre 2013 6 Jahre nach der der Renaturierungsmaßnahme, veranschaulichen das Unbeschreibbare am deutlichsten.

Diese aufgezwungenen „Hitchcock“-Landschaften und den Verlust von Lebensraum und Kommerzpotentialen wollen die Bürger und Mandatsträger nicht länger hinnehmen.

Die Große Rosin umfasst eine Fläche von 1074 ha. Das ist für die regenerative Energiegewinnung ein nicht unbedeutendes Potential, gilt es doch in Wahrnehmung der Verantwortung gegenüber dem Welthunger und der notwendigen Reduzierung des Verbrauches fossiler Brennstoffe die Sonnenenergie für produktive Zwecke einzufangen und effektiv zu verwerten. Deutschland hat nicht das Recht, zumindest nicht das moralische, solche Wertschöpfungspotentiale durch Wiedervernässung zu zerstören.

Naturwissenschaftliche Gesichtspunkte

Die Wiedervernässung der fundiert meliorierten „Großen Rosin“, ein Niedermoor mit großer Mächtigkeit (bis zu 10m Tiefe) wurde mit Moorschutz und damit im Zusammenhang stehend mit einer Reduzierung von CO2-Emissionen als ein Element im allseitigen Kampf gegen den Klimawandel begründet.

Im Internet werden, autorisiert vom Ministerium für Landwirtschaft, Umweltschutz und Verbraucherschutz Mecklenburg-Vorpommerns, unter der Internetadresse http://www.moorfutures.de/de/moorfutures/projektbeispiel die folgenden Daten und Fakten

sozusagen als Begründung der Wiedervernässungsmaßnahme und Ableitung der Moor Futures – aufgeführt: 

Daten und Fakten zu diesem Projekt:

Diese Angaben zu Treibhausgasemissionen vor der Vernässung sind wissenschaftlich nicht nachvollziehbar und schlichtweg falsch. Sowohl die Treibhausgasemissionen nach der Wiedervernässung von 10 t CO2-Äquivalente noch die 14 t CO2-Äquivalente „Einsparung pro ha sind wissenschaftlich fundiert und begründet. Nur eines ist sicher – es wird hier staatlicherseits ohne wissenschaftliche Begründung eine große Abzocke inszeniert:

11.760 t CO2-Äqu. x 30 Jahre x 30 € = 10.584.000 €. Das ist bei Aufwendungen für die Wiedervernässung von 1 Mill. ein großartiges Betrugsgeschäft mit dem Feigenblatt des Klimawandels.
Werfen Sie einen Blick zurück auf die Weide/Wiese vor der Renaturierung: Das war die „Große Rosin“. Nun wird behauptet, dass diese Weide/Wiese mit geschlossener Grasnarbe und einer Entwässerung auf einen Grundwasserstand von etwa 80 bis 40 cm unter Flur soll
24 t
CO2-Äquivalente/ha und Jahr emittieren. Dabei ist in Betracht zu ziehen, dass es sich hierbei nicht um kontinuierlich über das Jahr ablaufende Prozesse handelt, sondern dass diese Emissionen nur im Sommerhalbjahr bei Temperaturen über 3° C vonstatten gehen können. Somit würden 24 tCO2-Äquivalente/ ha und Jahr in der Realität 48 t CO2-Äquivalente/ha in den Sommermonaten bedeuten. Damit wird absurd noch absurder!

Um sich diese Größe vorstellen und einschätzen zu können, muss man Vergleiche heranziehen. Der Ertrag von 1 ha Weizen von 100 dt Korn und 40 dt Stroh entspricht entsprechend seines Kohlenstoffgehaltes 20 t CO2 Äquivalenten, das heißt ein ha Grünland müsste sinngemäß den Korn- und Strohertrag von 1,2 ha Weizen oxydieren und emittieren.

Die Absurdität dieser Emissionswerte ergibt sich auch aus der chemischen Betrachtung:

24 t CO2-Äquivalente = 6,55 t Kohlenstoff und 17,45 t Sauerstoff.

Es entstehen 12.729.124 l CO2 , wozu 12.223.071 l Sauerstoff = 58.344.015 l Luft bei totalem bzw. bei biologischem Entzug von absolut 2 % Sauerstoff 2.917.200.727 l bzw.

291 m3 /m2 Grünland benötigt würden. Das entspricht einer Luftsäule von 291 m Höhe, die in den Boden eindringen und das entstehende CO2, das spezifisch schwerere als Luft ist, heraus spülen müsste.

Bei Oxydation des Kohlenstoffs würden 54,6 GJ Aktivierungsenergie benötigt und 214 GJ Energie/ha freigesetzt. Das alles ist absurd!
Die Emissionswerte sind in der Moorschutzliteratur vermutlich mit Absicht nicht definiert, d.h. nach Herkunft und Entstehung oder Bestimmungsmethode nicht erklärt und differenziert. Man argumentiert mit undifferenzierten Pauschalwerten. Auch das ist unwissenschaftlich.

Klimarelevant wäre nur das CO2, das durch Oxydation von fossilem Moorkohlenstoff bzw. durch Decarboxylierung aus fossilem Moorsubstrat, d.h. aus noch weiter abbaubarem strukturiertem Moorsubstrat pflanzlicher Herkunft entsteht. Der postglazial vorwiegend durch Inkohlung entstandene amorphe, die Schwarzfärbung verursachende Moorkohlenstoff oxydiert nicht bei bloßer Gegenwart von Luftsauerstoff. Dieses Kohlenstofffraktion bedarf einer hohen Aktivierungsenergie (vergl. Kohlenanzünder!) und ist an der CO2-Emission nicht beteiligt.

Alles andere CO2 , das durch Atmung der Grünen Pflanzen oberirdisch und durch die Wurzeln unterirdisch oder durch mikrobiellen Abbau (Zersetzung) abgestorbener pflanzlicher und tierischer Biomasse entsteht, ist klimairrelevantes Kreislauf-CO2, denn dieses CO2 wurde zuvor aus der Atmosphäre entnommen und in Biomasse akkumuliert.

Unter den in der „Großen Rosin“ seinerzeit gegebenen hervorragenden hydrologischen Verhältnissen, die einen effektiven Moor- und Umweltschutz gewährleisteten (den Beweis lieferte der erstklassige Zustand des Grünlandes zur Wendezeit) , kann eine CO2-Emission aus Moorsubstrat 1-3 t CO2-Äquivalenten/ha und Jahr veranschlagt werden..

Maßgebend für die ökologische Bewertung eines Standortes sind nicht imaginäre undefinierte CO2-Emissionsangaben, sondern die ökologische Bilanz des Standortes in Abhängigkeit von seiner Nutzung. Die von den Moorschützern postulierten CO2-Emissionswete zeigen nicht nur keinerlei Differenzierung nach der Herkunft und Wirkung, sondern berücksichtigen auch keine Gegenbilanzierung der CO2 -Akkumulation in der erzeugten Biomasse. Das bedeutet, die Emissionswerte sind wissenschaftlich falsch, sind mit Absicht nach oben manipuliert; sind bewusste Irreführung der Gesellschaft und staatlichen Behörden!

Die ökologische Bilanz eines Standortes im Sinne des Klimaschutzes ergibt sich aus der Differenz zwischen CO2-Akkumulation (Festlegung) durch Assimilation und – speziell für Moorstandorte – der CO2-Emission durch Abbau von fossilem Torfmoorsubstrat.

In der Tabelle 1 und in dem Diagramm sind die auf der Grundlage von Literaturrecherchen kalkulierten Beziehungen für Niedermoorgrasland in Abhängigkeit vom Entwässerungsgrad (Wasserstand unter Flur) dargestellt.

Die ökologische Bilanz erreicht im Bereich der Unterflurentwässerung von – 80 bis – 40 cm ein Optimum, d.h. die klimairrelevante produktiv nutzbare CO2-Bindung (Festlegung) beträgt etwa 17 – 22 t CO2-Äquivalente/ha und Jahr, die jedoch sodann im vernässten und überstauten Bereich in eine klimaschädliche Methanemission umschlägt. Dabei nicht einbezogen ist die jährlich im unterirdischen Bereich gebildete Biomasse (Wurzelmasse), die umgerechnet mit ca. 10 t CO2-Äquvilaente/ ha und Jahr veranschlagt werden kann. Bildung und Verrottung von Wurzelmasse ist ein klimairrelevantes Nullsummenspiel; ist Kreislauf-CO2!

In Folgenden sind die Ergebnisse von auf Literaturrecherchen basierenden Modellrechnungen für Grasland- und Renaturierungsflächen auf Niedermoor aufgeführt.

Hierzulande sind „intakte Moore“ und wiedervernässte Renaturierungsflächen (Flachwasserseen) natürliche „Biogasreaktoren“ mit in relativ geringen Mengen anfallender nachwachsender Rohstoffe (Biomasse) und einer Ablagerung (Sedimentation) der unvergärbaren kieselsäure- und ligninhaltigen Zellwandbestandteile (Gärungsrückstände) als Morast. Das gebildete Methan (Biogas) entweicht als „Treibhausgas“ mit einer gegenüber CO2 23-fachen klimaschädigenden Wirkung kontraproduktiv in die Atmosphäre.

Wie sieht die ökologische Bewertung der Moorstandorte im Vergleich zum Kulturgrasbau (Grünlandnutzung) auf meliorierten und wasserstandsregulierten Niedermoorstandorten, wie die Große Rosin es einmal war, aus?

Eine Antwort geben die Ergebnisse von Modellrechnungen mit unterschiedlichen Erträgen bzw. unterschiedlichem Anfall an Biomasse auf den Moorstandorten in Tabelle 2.

Der Kulturgrasanbau auf meliorierten wasserstandsregulierten Niedermoorflächen bindet ertragsabhängig zwischen 12,4 bis 24,8 t CO2-Äquivalente/ha in der erzeugten Biomasse, die ein Biogaserzeugungspotential von 2100 bis 4250 m3 Methan/ha verkörpert, und emittiert als willkommene ökologisch bedeutsame Sekundärleistung der Assimilation 3.300 bis 6.500 m3 Sauerstoff/ha in die Atmosphäre. Als ökologische Kohlenstoffbilanz stehen je ha + 6.300 bis +12.650 m3produktiv nutzbare CO2-Äquivalente auf der Habenseite zu buche.

Die Renaturierungsflächen hingegen weisen laut Modellrechnung bei einem Anfall an Biomasse von 50 bis 300 dt/ha zunächst eine Kohlenstoffbindung von 1,5 bis 8,9 t CO2-Äquivalenten aus, die jedoch nicht produktiv genutzt werden kann. Die Biomasse fällt der

anaeroben Vergärung anheim. Laut „Richtwerte für die Gasausbeuten“ (2010) kann mit einer Methanemission von 320 Normlitern (0°C und 1013 mbar) je kg organischer (aschefreier) Trockensubstanz (oTS), d.h. im Modell mit 250 bis 1500 Nl Methan/ha, gerechnet werden. Das Methan entweicht mit einem Wirkungsfaktor von 23 l CO2-Äquivalenten/ l l Methan in die Atmosphäre und entspricht einer atmosphärischen Wirkung (Belastung) von 5.800 bis 35.000 m3 CO2-Äquivalenten. Dies führt ungeachtet der C-Bindung und Sauerstoffemission bei der Bildung der Biomasse zu einer negativen ökologischen C-Bilanz, im Modell linear zum Biomasseanfall ansteigend von -5000 bis – 30.500 m3 CO2-Äquivalenten/ha, = -101,46 m3CO2-Äquivalente/dt Biomasseertrag. Dadurch sind Moore keine Kohlenstoffsenken und die Renaturierung (Wiedervernässung) von meliorierten Niedermoorflächen ist gegenüber dem Kulturgrasanbau (Grünlandnutzung) sowohl ökologisch als auch ökonomisch, wie z.B. im Hinblick auf regenerative Energieerzeugung, ein Desaster.

Bezogen auf die „Große Rosin“ ergibt sich bei einem Grünmasseertrag (18 % Trockenmasse (TS)) von 800- 600dt/ha und Jahr ein Trockenmasseertrag von 14,4 – 10,8 t TS/ha und Jahr. Das entspricht einer CO2 –Akkumulation/-Bindung von 24 – 18,6 t CO2-Äquivalenten/Jahr. Die ökologische Bilanz beträgt netto ca. 23-21 bzw. 17,6 – 15,6 t CO2-Äquivalente/ha und Jahr.

Daraus ergibt sich für das Territorium der Großen Rosin von 1040 ha ein Wertschöpfungsverlust von

800 dt Grünmasse (18 % TS)

Trockenmasse: 14.976 t

Produktive CO2-Äquivalente 24.960 t

davon Netto-CO2-Bindung 21.840 – 23.920 t

Regenerative Energie (265,3/ha) 275.947 GJ <-> 10.753.600 l Benzin

Methanproduktionspotential 4.408.560 m3

600 dt Grünmasse (18 % TS)

Trockenmasse: 11.232 t

Produktive CO2-Äquivalente 19.344 t

davon Netto-CO2-Bindung 16.224 – 18.304 t

Regenerative Energie (265,3/ha) 206.960 GJ <-> 8.065.200 l Benzin

Methanproduktionspotential 3.306.368 m3

Verlust an Sauerstoffproduktion (-emission):

Sauerstoffemission 8oo dt/ha 6.857.760 m3

600 dt/ha 5.143.632 m3

Diese enormen Leistungspotentiale sind in den Wiesen der Großen Rosin im wahrsten Sinne des Wortes untergegangen. Können wir uns eine solche Vergeudung von wirtschaftlichen Potenzen angesichts der Energiewende leisten? Die Antwort ist ein klares NEIN!

Was wurde nun anstelle dieser Wertschöpfung durch die Renaturierung erreicht?

Bei der Renaturierung der Großen Rosin ist nahezu alles schief gegangen bzw. haben wir es im Gegensatz zu dem durchdachten Meliorationsprojekt mit einer schwerwiegenden Fehlplanung zu tun.

Im Zuge der Renaturierungsmaßnahmen wurden alle zuvor geschaffenen materiellen Werte der Infrastruktur und damit ihre regulierenden Funktionen zerstört. Die zweckentfremdete Nutzung der Deiche als landseitige Staumauern und die Grabenverbauungen bewirken, dass die Große Rosin wie eine Badewanne mit Oberflächen- und Quellwasser voll läuft. Dadurch ist das hydrologische System so missgestaltet worden, dass es nahezu flächendeckend zu einem Überstau von 10 – 30 cm über Flur geführt hat. Demzufolge werden die anfallenden Biomassen größtenteils anaerob zu Methan vergoren und die unvergärbaren kieselsäure- und ligninhaltigen Zellbestandteile am Boden als teilweise strukturierter Bioschlamm (Morast) abgesetzt. Diese Sedimentation ist kein Moorwachstum, für solche Umsetzungen, d.h. zur Reduktion von organisch gebundenem Kohlenstoff gibt es keine Redox-Potentiale; d.h. ein „Moorwachstum“ findet nicht statt.

Hierzu schreibt DRÖSLER et al. (2011):
Überstau während der Vegetationsperiode ist zu vermeiden bzw. auf möglichst kleine Flächen zu beschränken. Wenn sich bei Überstau in nährstoffreichen Niedermooren Mudden bilden oder leicht zersetzbare Grasvegetation fault, können extrem hohe Methanemissionen entstehen, die eine ähnliche oder höhere Klimawirkung wie die Ackernutzung haben können. .. Die Renaturierungspraxis mit großflächigem Überstau, z.B. nach Torfabbau, ist zu überdenken.
Die Ergebnisse und Folgen der Renaturierung der Großen Rosin (1040 ha) sind wie folgt zu beziffern:

Bei einem jährlichen Anfall von 100 bis 300 dt Biomasse/ ha ergibt sich aus Modellkalkulationen (Tabelle 2) folgendes Bild:

300 dt Biomasse/ha

Kohlenstoffbindung 9.266 t CO2-Äquivalente/ha und Jahr

Sauerstoffemission 2.361.840 m3/Jahr

Methanemission 1.581.840 m3/Jahr

Atmosphärische Wirkung 36.374.000 m3/Jahr

Ökologische Bilanz -31.655.520 m3 CO2-Äquivalente/Jahr

100 dt Biomasse (18 % TS)/ha

Kohlenstoffbindung 3.089 t CO2-Äquivalente/ha und Jahr

Sauerstoffemission 787.280 m3/Jahr

Methanemission 527.280 m3/Jahr

Atmosphärische Wirkung 12.124.320 m3/Jahr

Ökologische Bilanz -10.551.840 m3 CO2-Äquivalente/Jahr

Die Schlussfolgerung aus den alternativen Darstellungen einerseits der wirtschaftlichen Potentiale der Großen Rosin und andererseits des durch die forcierte Methanemission verursachten ökologischen Schadens ist, dass es ein grober wirtschaftlicher und politischer Fehler war, ein solch hervorragend melioriertes Gebiet, eine Kulturlandschaft mit großem wirtschaftlichem und touristischem Potentialen, zu zerstören und dabei noch ökologischen Schaden anzurichten.

Anstatt die Nutzung von 25.00 – 19.00 t CO2-Äquivalenten bzw. 275 – 205 GJ Energie oder über Biogas ein Methanproduktionspotential von 4.4 – 3.3 Mill m3 für produktive Zwecke zu gewinnen und Arbeitsplätze zu schaffen, wurde eine geringe CO2-Bindung von 3 – 9 t CO2-Äquivalenten– bedingt durch die Methangärung – der größte Teil des zuvor gebundenen Kohlenstoffs über Methan emittiert und durch die hohe Wirkung des Methans als Treibhausgas – total kompensiert und in einen ökologischer Schaden von – 32 bis -11 Mill. m3 CO2-Äquvivalente verkehrt. Der im Morast „versenkte“ Restkohlenstoff ist gering.

Die hier aufgeführte Schadensbilanz durch Renaturierung bezieht sin nur auf die Fläche der Großen Rosin. Hinzu kommen noch die Sekundärschäden: In erster Linie sind es mehr als
100 ha Wald, die der ganzjährigen Vernässung nicht widerstanden haben: Zuerst sind Birken und Eschen, dann aber auch die Schwarzerlen – insbesondere die Jahrzehnte alten Bäume- eingegangen. Die derzeit noch stehen gebliebenen „Strunke“ werden demnächst umfallen und verrotten. Einst aus gutem Grund angepflanzte Windschutzstreifen fallen der Sukzession anheim. Das Landschaftsbild verschlechtert sich zunehmend.

Absterbender Wald und Windschutzstreifen

Mit dem Verfall der Landschaft einhergehend ist eine zunehmende Verarmung der Flora und Fauna zu verzeichnen. Lediglich die Sumpfpflanzen (Binsen, Seggen, Röhricht usw.) haben sich ausgebreitet. Die sich auf den meliorierten Flächen herausgebildeten Ökosysteme und Biotope, durch Artenvielfalt und pulsierendem Leben ausgewiesene FFH-Gebiete, wurden verdrängt. Wo einst Lerchen in den Himmel stiegen, Kiebitze, Bachstelzen, Schnepfen, Weihe, Brachvögel und Kampfläufer, d.h. Bodenbrüter und Niederwild, Lebensraum hatten, wo es Wiesenvegetation und vereinzelt sogar Orchideen gab, ist jetzt alles weg, wie ausgestorben, Bodentiere (Maulwürfe) sind ersoffen, Wasservögel haben die Renaturierungsgebiete wenig angenommen. Insgesamt gesehen ist nichts da, was vorher nicht da war, aber vieles weg, was vorher da war: Insgesamt kein Gewinn als Flora-Fauna-Habitate!

Die ökologische Bilanz intakter Moore – gemessen in CO2-Äquivalenten ist bestenfalls klimaneutral bis stark negativ – und das gilt besonders auch für die „renaturierten“ Flächen. Der ökologische und ökonomische Vergleich zwischen Moorsaatgrasland und intakten Mooren (Ursprungsland) oder renaturierten Flächen weist schwerwiegende Vorteile für den Kulturgraslandbau auf Moorstandorten aus (siehe Tabelle2) und die relativ geringe Zersetzung von Moorsubstrat kann als kleiner Kollateralschaden in Kauf genommen werden:

Renaturierung (Wiedervernässung) führt zum

– Totalverlust an Wertschöpfung (LN), an produktiv nutzbarer Biomasse (Verfütterung,
Vergärung, Verbrennung und Rohstoffgewinnung),

– Verlust in der Sauerstoffproduktion zur Regeneration der Atmosphäre,

– Verlust in der aktiven Transpiration durch die Pflanzen(Wasserentzug und Erhöhung bzw.
Regulierung der Luftfeuchtigkeit in der Atmosphäre),

– Verlust des Nährstoffentzuges durch Erntegut (externer Mineralstoffkreislauf u.a.),
mit einhergehender Reduzierung der Eutrophierung der Randgewässer usw.,

– Belastung der Atmosphäre durch hohe Methanemission

– Zerstörung der Bodenstruktur -schwarze schmierige Flächen, wo nicht einmal Gras wächst!

– keine wirkliche/echte Moorbildung (Fehlen von Redoxpotentialen, um organisch
gebundenen C zu amorphem C zu reduzieren -> Akkumulation von Morast!
und nicht zuletzt zur

– Gefährdung der Gesundheit und Verminderung des Wohlbefindens (peinigende
Insekten) und zum

– Verlust des ästhetischen Landschaftsbildes (Gammelwiesen, tote Bäume und Morast),
Folge: eingeschränkter Lebensraum und geminderte Lebensqualität, Wertverfall von
Grundstücken und Immobilien.

Schlussfolgerung:

Die Renaturierung der Großen Rosin ist unter wissenschaftlich nicht nachvollziehbaren falschen Vorgaben, wie CO2-Emissionen von 24 t CO2-Äquivalenten und falschen Kostenkalkulationen, begründet und unter Zerstörung von großen Werten, der Infrastruktur, durchgeführt worden. Sie ist unter Anbetracht dessen ein einzigartiges Verlustgeschäft; sie war eine ökonomische und ökologische Fehlinvestition, eine Verschleuderung und zudem noch Schäden verursachende Verwendung von etwa 1 Mill. Euro Steuergeldern aus EU- und Landesmitteln!

Aus diesem objektiven Sachverhalten ergibt sich die Schlussfolgerung, dass es aus Gründen des Klimaschutzes keine Berechtigung gibt, auch nur einen ha meliorierten Grünlands wieder zu vernässen und damit in nutzloses Unland mit einer hohen klimaschädigenden Methanemission zu verwandeln.

**********

Literatur

(1) http://www.eike-klima-energie.eu/climategate-anzeige/renaturierung-von-mooren-eine-fiktion-mit-verheerenden-folgen/

(2) http://www.eike-klima-energie.eu/climategate-anzeige/die-oekologischen-leistungen-des-kulturpflanzenbaus-und-der-renaturierungsflaechen/

Dr. Arthur Chudy

Lebensraum Peenetal e.V.

achudy@aol.com




Der „Heidelberger Konsens“: Hans-Joachim Schellnhuber im Physik-Kolloquium der Universität Heidelberg am 25.Mai 2018

Als gelegentlicher Besucher dieses Kolloquiums sowie als EIKE-Pressesprecher und Skeptiker eines menschgemachten Klimawandels war meine Neugier auf den Vortrag groß. Schließlich war ich Teilnehmer einer der extrem seltenen konträren akademischen Diskussionen über eine anthropogene globale Erwärmung, welche anlässlich einer Einladung des Potsdamer Instituts für Klimafolgenforschung (PIK) an EIKE am 20.April 2011 stattfand.

EIKE-Mitglieder in dieser Diskussion waren Dr. S. Dittrich, Prof. K.-F. Ewert, M. Limburg. Prof. H.-J. Lüdecke und K. E. Puls sowie die externen „Klimaskeptiker“ Dr. A. Hempelmann, Dr. R. Link, Prof. F. Vahrenholt und Prof. W. Weber.

Das PIK wurde von Dr. G. Feulner, E. Gaigg, Prof. F. Gerstengarbe, Dr. V. Huber, Dr. B. Knopf, C . Köhler, Prof. J. Kropp, Prof. A. Levermann, Dr. J. Pietsch, Prof. S. Rahmstorf, Prof. H.-J. Schellnhuber, Dr. T. Schneider von Deimling, M. Schodder und J. Viering vertreten.

Die vom PIK gewünschte fachliche Deklassierung der Eingeladenen fiel allerdings aus, dem PIK fehlten leider die fachlichen Argumente. Die Enttäuschung des PIK darüber war so groß, dass es nicht zu einem gemeinsamen Protokoll der Veranstaltung bereit war – es hätte sich in der Öffentlichkeit nicht gut gemacht. Daher hier unser eigenes EIKE-Protokoll.

Was würde nun in Heidelberg geschehen, wo Schellnhuber, erster Vertreter des PIK, persönlich zu Wort kam? Schließlich waren physikalische Lehrstuhlinhaber der Heidelberger Universität und zudem zahlreiche Emeritierte anwesend. Es ist kein Geheimnis, dass nicht alle diese Kollegen mit den Thesen Schellnhubers einverstanden sind. Daher erwartete ich eine spannende Diskussion. Es ist schließlich immer interessant, wenn wissenschaftlich fragwürdige Aussagen auf fachliche Widerlegung stoßen. Irgend ein Witzbold hatte vor Öffnung des Auditoriums unbemerkt an allen 6 Tafeln des Vortrags-Saales das Wort „LÜGNER“ hingeschrieben, welches die Veranstalter, als die ersten Zuhörer und auch Schellnhuber anwesend waren, peinlich berührt auswischten. Dieser bestand jedoch souverän darauf, diese unhöfliche „Einladung“ an einer der Tafeln zu belassen – cool, dieser große Mann!

Über den Vortrag von Schellnhuber reichen wenige Worte, denn der Inhalt entsprach dem, was man schon aus zahllosen Internetberichten, der PIK-Webseite und der WBGU-Webseite bestens kennt: Eine Mischung aus

a) „Moralin“, Verantwortung gegenüber unserem Planeten, gegenüber der ganzen Menschheit und das über viele Hunderte Jahre etc. etc., wer sagt da schon etwas dagegen? Die Wahrscheinlichkeit von extraterristrischem Leben und weitere moralisierende Abschweifungen in Schellnhubers Vortrag seien zu „Moralin“ dazugezählt.

b) einer Forderung nach totaler Dekarbonisierung als Remedur gegen den von ihm in Hunderten Jahren erwarteten „Untergang“ durch zu viel des CO2 in der Luft

c) dem impliziten Vorschlag des Ersatzes fossiler Brennstoffe durch Photovoltaik sowie mehr Baumanpflanzungen. Die Windkraft wurde von ihm nicht erwähnt, sie ist anscheinend auch dem PIK inzwischen zu umweltschädlich. Aber auch die Kernenergie fehlte, war also undiskutabel, warum eigentlich? Die ist doch CO2 – frei.

d) von Folien und Aussagen zum Klimathema selber, welches gegenüber seinen Abschweifungen stark in die Minderheit geriet. Bis auf wenige Ausnahmen entsprachen die Folien und Aussagen seines Vortrags nicht der begutachteten Fachliteratur und den veröffentlichten Messungen.

Das Herz jeden Klima-Alarmisten schlug höher, als der mit vielen Ehrungen bedachte große Gelehrte seine abstruse Vortragsmischung abspulte: Von der Wahrscheinlichkeit estraterrestrischen Lebens, über das so gefährliche CO2, welches gemäß seinem Modell sogar noch für die Warm- und Eiszeiten verantwortlich sein sollte, vom versiegenden Golfstrom, von sterbenden Korallen, bis hin zu den so gefährlichen Kipp-Punkten und von vielem Katastrophalen mehr bekam das staunende Publikum zu hören. Schellnhubers mehrfache direkte Ansprache an die anwesenden Studenten trieben vielen Zuhörern vermutlich die Tränen der Rührung in die Augen, denn seine „message“ war folgende: diese jungen Leute seien die Zukunft und würden alle fiktiven Schäden durch anthropogenes CO2 einmal ausbaden. Dass sie auch einmal die Folgen von Wissenschafts-Advokaten-Politikern wie ihm ausbaden müssten, vergaß er leider zu erwähnen.

Klimaschutz und Energiewende sind bekanntlich Eliten-Projekte, die sich völlig frei von jeglicher Realität bewegen. Es war nicht schwer zu erkennen, dass  Schellnhuber keinen physikalischen sondern im Grunde einen politischen Vortrag hielt – sozusagen als Wissenschafts-Advokat. Zwar hat er, meiner Erinnerung nach, seine „Große Transformation“ (hier) zwar nicht explizit ausgesprochen, das wäre für den FB Physik vielleicht doch zu viel der Zumutung gewesen. Aber dennoch, unübersehbar plädierte er für sein großes-Transformations-Projekt, das offenbar so aussieht: Mit „Klimaschutz“ und dessen deutscher Endlösung „Energiewende“ soll das goldene Zeitalter des totalen Sozialismus eingeläutet werden. Nachdem alle Wege dorthin, wie die von Stalins Russland, Mao Tse Tungs China, Pol Pots Kambodscha, Fidel Castros Kuba, Kims Nordkorea und Chavezs Venezuela gescheitert sind, muss doch der deutsche Weg von Dekarbonisierung und Energiewende endlich glücken. „Wir schaffen das“.

Wie schon angesprochen, kamen im Klimateil von Schellnhubers Vortrag mehrheitlich fachlich fragwürdige Folien zum Einsatz. Stellvertretende Beispiele: Der Temperaturverlauf der Erde wurde mit einer roten Linie dargestellt, die in einem absoluten heutigen Maximum der letzten 10.000 Jahre mündete. Dieser berühmte Fake, bekannt als „Hockey-Stick„, welcher allen ordentlichen Proxy-Temperaturreihen von Baumringen über Tropfsteine bis hin zu Eisbohrkernen völlig widerspricht, erlebte eine Wiederauferstehung. Von der mittelalterlichen und römischen Warmzeit und insbesondere den noch weit wärmeren beiden Holozänmaxima, letztere übertrafen die Temperaturen der heutigen Periode besonders deutlich, war weit und breit im Vortrag nichts zu sehen oder zu vernehmen (hier).

Der Temperaturverlauf der letzten 150 Jahre entsprach dann der wohlbekannten HadCRUT-Kurve, in welcher Schellnhuber schamhaft die Jahre ab 1998 bis heute wegzensierte (hier). Im originalen HadCRUT sind diese Jahre natürlich vorhanden. Der Temperaturstillstand (Hiatus) dieser Zeitspanne passte leider in kein CO2-Katastrophengemälde. Und was war mit der unpassenden Abkühlungsperiode von 1940 bis 1975, damals sprachen sogar die US-Medien von einer neuen Eiszeit (hier)? Hmmm…, ach ja, natürlich: Das waren die Aerosole, vorher oder nachher waren die selbstverständlich nicht relevant. Es passte alles schön in das Klima-Katastrophen-Nähkästchen.

Natürlich wussten viele Zuhörer im Auditorium, dass es mit den so gerne in den Medien zitierten Klimakatastrophen, hier zum Beispiel Extremwetterzunahmen, nichts auf sich hat. Schließlich wurden die Ursachen und Statistiken der letzten Hurrikan-Saison in den USA sogar in deutschen Talkshows diskutiert, wo der bekannte Meteorologe Jörg Kachelmann allen Katastrophenvermutungen eine Absage erteilte. Wer sich danach gründlicher informierte – denn wer traut heute noch den Lückeninformationen und der Staatspropaganda von ARD und ZDF – musste zwangsläufig auf den AR5-Bericht, Kapitel 2.6 des hier sicher unverdächtigen IPCC stoßen, das zu den in den Medien so beliebten Extremwetterzunahmen absolut nichts auffinden konnte (hier) und ebenfalls Entwarnung gab.

Aus diesem Grund musste im Vortrag Schellnhubers etwas Besonderes her. Drei Male darf geraten werden, was: Natürlich, die ominösen Kipp-Punkte. Dass solche Kipp-Punkte normal sind, nicht nur in der Klima-Entwicklung, sondern überall im physikalischen und außerphysikalischen Weltgeschehen, bis herunter zum persönlichen Leben eines jeden Einzelnen, weiß zwar jeder. Kipp-Punkte sind aber bestens geeignet für Angstszenarien, weil niemand sagen kann, wann, wo und ob sie überhaupt auftreten. Dies ist ja gerade ihr Wesenskern und gleichzeitig der Wesenskern von Angst. Es lohnt eigentlich nicht, weiter darauf einzugehen, vermutlich steht alles viel besser noch in Schellnhubers Buch „Selbstverbrennung“, das er mehrfach erwähnte und sogar vorzeigte, oder es ist zumindest auf der Webseite des PIK (hier) bzw. des WBGU zu finden (hier).

Interessant wurde es nur in der Diskussion nach dem Vortrag. Leider aber nicht fachlich interessant, sondern interessant in einem ganz anderen Zusammenhang. Die erste Frage war bereits ein wenig peinlich, es ging um ein unwesentliches Detail im Vortrag, mit der ein Wichtigtuer seine tiefe Bewunderung für den großartigen PIK-Direktor coram publico bekundete. Danach kam ich an die Reihe. Was aber fragen nach so viel Desinformation? Durch dieses „embarras de richesse“ von sachlichem Vortragsunsinn ein wenig aus der Fassung gebracht, stellte ich zuerst das angebliche Versiegen des Golfstroms richtig. Der versiegt nämlich nur dann, wenn die Erddrehung und die Winde aufhören, wie es in Fachveröffentlichungen des MIT von wirklich zuständigen Experten nachzulesen ist.

Auf diese Bemerkung hin wurde es etwas unruhig im Auditorium. Danach erlaubte ich mir daran zu erinnern, dass Schellnhubers sterbende Korallen bereits auf mindestens 400 Millionen Jahre Existenz und oft wesentlich höhere Meerestemperaturen als heute zurückblicken. Meine Anmerkung zu dem von Schellnhuber unterschlagenen Zeitverlauf ab 1998 in seinem gezeigten HadCRUT-Temperaturverlauf wurde vom studentischen Publikum schließlich mit Gelächter bedacht „Temperaturstillstand kann doch gar nicht sein, es wird doch permanent wärmer„! Seltsam! Diese jungen Leute haben alle einen Laptop und studieren Physik, aber niemand kennt die „IPCC-offiziellen“ HadCrut-Temperaturen oder gar die Satelliten-Temperaturdaten, von historischen Proxy-Daten ganz zu schweigen.

Danach wollte ich zum CO2 kommen und dazu Schellnhuber meine Frage über seinen vielleicht interessantesten Widerspruch stellen: Im Jahre 2002 war er Mitautor in einem begutachteten Fachaufsatz, der keine unnatürliche globale Erwärmung in 95 weltweiten Messtationen auffand – steht in der discussion dieser Arbeit unter (iii). Die Arbeit ist fachlich einwandfrei, und das dort angewandte Verfahren, die detrended fluctuation analysis, immer noch gültig (ich habe sie ebenfalls in meinen Fachpublikationen mehrfach angewandt). Im Jahre 2008 dagegen machte Schellhuber dann das Alarm-Interview in der ZEIT „Manchmal könne ich schreien„. Also in nur 6 Jahren traten plötzlich Klimakatastrophen auf? Da haben wir wohl alle etwas ganz Entscheidendes verpasst (Klima ist, nebenbei bemerkt, gemäß WMO der statistische Mittelwert von Wetter über mindestens 30 Jahre).

Aber aus meiner vorgesehenen Frage wurde nichts, die Diskussionsleiterin, Frau Prof. Johanna Stachel, entzog mir höflich lächelnd das Wort, indem sie darauf hinwies, dass ich bis jetzt keine Frage gestellt hätte. Das traf natürlich zu, ich hatte einige Sekunden erst einmal versucht, die größten sachlichen Falschaussagen Schellnhubers zu berichtigen –  aber „party pooper“ waren unerwünscht. Frau Stachel verhinderte damit leider, dass Schellnhuber schärfer auf den Zahn gefühlt und die ganze Veranstaltung etwas spannender wurde. Ich gab daher friedfertig auf und wartete gespannt auf weiteren Fragen.

Was dann geschah, war unglaublich. Nichts, absolut nichts Kritisches wurde mehr gefragt oder gar angemerkt, und dabei blühte Schellnhubers Vortrag nur so von Abstrusitäten, Auslassungen und fachlichen Fehlern. Alles wurde von einem physikalischen Fachpublikum (wohlgemerkt!) wie ein göttliches Mantra ohne Widerspruch hingenommen. Das Frageniveau war für ein physikalisches Kolloquium schwach, euphemistisch ausgedrückt. Sogar die Frage nach den Fehlerbreite von Kipp-Punkten wurde nicht ironisch sondern sogar ernst gemeint gestellt. Keine wirklich kritische Frage kam, absolut nichts. Wo blieben eigentlich die Wissenschaftler aus dem Institut für Umweltphysik der Universität Heidelberg (iup)? Man darf aus ihrem Schweigen entnehmen, dass sie mit den Ausführungen Schellnhubers einverstanden waren. Somit kann nun jeder für sich selbst die fachliche Qualität dieses Instituts beurteilen.

Und weiterhin keine Frage beispielsweise, ob Schellnhuber in seinem Vortrag eine Folie mit den wesentlich stärkeren Erwärmungsperioden (verglichen mit den letzten 100 Jahren) über die letzten 10.000 Jahre vielleicht vergessen hätte.

Keine Frage, ob er vielleicht die Kurve der erdhistorischen CO2-Konzentrationen nicht kennt, die bis über 25 Male höhere Werte als heute zeigt (s. hierzu Fig. 5 in R. A. Berner, The long-term carbon cycle, fossil fuels and atmospheric composition, Nature, 426, 20.Nov.2003, kann in Google Scholar frei heruntergeladen werden), ohne dass die Welt unterging.

Keine Frage, warum die unzähligen erdhistorischen Kipp-Punkte zwar die biologische Evolution voranbrachten, aber niemals der Atmosphäre ernsthaften Schaden zufügten. Keine Frage, warum in Schellnhubers Dekarbonisierungs-Kampagne die Kernenergie keinen Platz fand. Mit den neuen Generation IV – Reaktoren (schnelle Brüter) steht im Gegensatz zur Photovoltaik ein wirklich nachhaltiges Energieversorgungskonzept für die Menschheit über 100 Millionen Jahre Brennstoffreichweite zur Verfügung (hier).

Keine Frage an Schellnhuber auch, warum er so gegen das CO2 ankämpft, wo dieses doch als Hauptbestandteil der Photosynthese ein unverzichtbares Lebensgas ist und durch seinen Anstieg zum Ergrünen der Erde und für bessere Welternten geführt hat (hier, hier).

Keine Frage zu seinen Modellen bzw. zu globalen Zirkulationsmodellen (GCM) allgemein, die, weil inhärent chaotisch, noch nicht einmal das vergangene Klima nachbilden können.

Und schlussendlich keine Frage zur Dekarbonsierung. Deutschland würde im Dekarbonisierungs-Ernstfall nur noch Rüben anpflanzen können – keine Industrie mehr, keine Autos, Flugzeuge oder Heizung. Dieses schlichte Faktum sollte doch zu einschlägigen Fragen an den hochrangigsten „Dekarbonisierer“ Deutschlands Anlass gegeben haben. Aber nichts war zu vernehmen. Insbesondere die Emeritierten Physikpofessoren, die ja, von allen politischen Rücksichten befreit, frei sprechen konnten, rührten sich nicht.

Meine Schlussfolgerung aus diesem Nachmittag im Otto-Haxel-Hörsaal: Es gibt tatsächlich einen akademischen Konsens über eine katastrophale anthropogene Erwärmung, einen Konsens, der es zur Verhinderung dieser Erwärmung übersieht, dass dabei die halbe Menschheit über die Klinge springen müsste. Zumindest herrscht ein solcher Konsens im Fachbereich Physik an der Universität Heidelberg – wenn auch glücklicherweise nicht weltweit und schon gar nicht unter seriösen Klimaforschern. Dieser Konsens, ich taufe ihn hier einmal den „Heidelberger Konsens“, sieht so aus: „Ok, hier bei uns ist nun einmal alles Grün, was kann man da schon machen, daher äußere man sich besser nicht, selbst dann nicht, wenn man es fachlich besser weiß und ein Vortragender den größten Grünunsinn erzählt. Selbst in ernsthaften Fachveranstaltungen (Physik-Kolloquium) sollte besser nicht widersprochen werden, es könnte Schaden dem Fachbereich zufügen  „Reden ist Silber, Schweigen ist Gold“. Die Regierung Baden-Württembergs ist grün, alle Medien sowieso…. Wenn dem Grünunsinn wiedersprechende Fakten wirklich nicht mehr ignoriert werden können, dann muss man sich auf jeden Fall für ihr Aussprechen entschuldigen, indem man „Klimaschutz“ und „Energiewende“ über den grünen Klee lobt„.

Für meinen Geschmack ist dies etwas zu viel der Höflichkeit und Zurückhaltung links-grüner Ideologie gegenüber. Dass man den sachlichen Inhalt von Schellnhubers Vortrag wirklich ernst nimmt, ist zwar nicht unmöglich. Ich halte dies aber für ausgeschlossen, denn im vollgefüllten Haxel-Saal saßen zu viele Physiker, die es besser wussten. Allein ein fachlich einwandfreier Beitrag von drei Heidelberger Physikprofessoren (Frau Prof. Stachel, die Diskussionsleiterin und ehemalige DPG-Vorsitzende, ist eine dieser drei Autoren) belegt, dass man durchaus über den Mega-Unsinn der Energiewende Bescheid weiß. Dieser sehr lesenswerte Beitrag zeigt die ganze Misere: Man kann bestimmte Fakten nur noch schildern, indem man sich für sie über alle Maßen hinaus entschuldigt. Leben wir bereits wieder in der ehemaligen DDR?

Wo liegen die Gründe für dieses bedrückende Wegducken? Fürchtet man den Verlust von Forschungsmitteln in einem grün regierten Bundesland, oder fürchtet man die links/grüne Studentenschaft? Heutzutage werden Professoren von ihren Studenten schließlich „gerankt“, was dann in die Gewährung bzw. Nichtgewährung von Zulagen eingeht. Heidelberg, Freiburg und Tübingen sind außerdem nicht gerade Städte, in welchen man mit sachlicher Vernunft gegen grünen Unsinn eine Chance hat. Also hält man sich besser bedeckt. War es das, oder ist es noch mehr? Ich weiß es nicht.

Was angesichts dieses Kolloquium-Nachmittags persönlich hängenblieb: Belustigtes Staunen und Fremdschämen darüber, was aus dem altehrwürdigen Fachbereich Physik der Universität Heidelberg geworden ist. Einem Fachbereich, in dem ich noch die Vorlesungen von Prof. Otto Haxel und Prof. Hans Daniel Jensen hören durfte, letzterer Nobelpreisträger, ersterer den Preis nur knapp verfehlend. Beide hätten dem sachlichen Unsinn im hier besprochenen Vortrag deutlich und unüberhörbar eine Absage erteilt und keinesfalls schweigend durchgehen lassen. Auch nicht durchgelassen hätte ihn Prof. Wolfgang Gentner, ehemaliger Direktor am Heidelberger MPI für Kernphysik, in dem ich promovierte. Gentner hatte während des dritten Reichs französische Kollegen jüdischer Herkunft im besetzten Paris vor den National-Sozialisten geschützt (hier), wozu schon Mut gehörte. Heute findet sich allenfalls noch ein mutiger deutscher Modeschöpfer (Karl Lagerfeld), der vor der neuen Gefahr für unsere jüdischen Mitbürger seitens muslimischer Extremisten warnt (hier), die immer zahlreicher in unser Land eingelassen werden.

Die Heidelberger Physik erlebte schon einmal einen moralischen Tiefpunkt mit dem Nobelpreisträger Prof. Philipp Lenard, der bis 1931 in Heidelberg lehrte und schließlich die „deutsche Physik“ etablierte, die sich gegen Einstein und jüdische Fachkollegen richtete. Aktuell sind wir wieder Zeuge eines wachsenden Faschismus, diesmal in der Farbe Rot-Grün und erneut unter dem Zeichen der „Weltrettung“. Nun soll die Welt diesmal vor unseren Mitmenschen in aufstrebenden Ländern gerettet werden, die Anschluss an die Moderne suchen, inzwischen immer mehr Kohle verfeuern, Autos fahren etc., kurz, die besser leben wollen. Dasjenige CO2, welches die Atmosphäre einmal besaß, führen diese Menschen in ihrem legitimen Streben nach mehr Wohlstand der Atmosphäre heute wieder zu. Recht haben sie damit, und sie werden sich von niemandem davon abbringen lassen.

Zum Zweck der Weltrettung, die in Wirklichkeit diktatorische Weltregierung heißt, müssen freilich erst einmal die hoch entwickelten Länder in die Knie gezwungen werden, deren CO2 Emissionen gegenüber den erwähnten aufstrebenden Ländern aber vernachlässigbar sind (hier). Das globale Großkapital, welches die zumindest an der Basis völlig ahnungslose, grüne Bewegung dazu als Speerspitze einsetzt, benötigt nämlich für seine Herrschaft Heloten. Demokratie und freie Bürger sind diesen Leuten ein Gräuel. Wir erleben es mustergültig hierzulande: Kernkraftausstieg, Vernichtung der Strominfrastruktur und damit einer sicheren Stromversorgung durch die Energiewende, Kohleausstieg, Vernichtung des Verbrennungsmotors, Vernichtung der Gentechnik, Massenüberschwemmung mit Angehörigen archaischer Kulturen von Frauenunterdrückung, Blutrache, Zwangskinderehen etc. sind die Methoden. Die von den Vertretern dieses grünen Faschismus verfolgte Dekarbonisierung würde bei einer globalen Ausweitung zu Hunger-Opferzahlen in der dritten Welt führen, welche die 100 Millionen Opfer von Mao Tse Tung noch weit hinter sich ließen. Die Vorstellung nämlich, heute fast 8 Milliarden Menschen könnten in auch nur in einigermaßen akzeptablen Lebensumständen mit Hilfe von Photovoltaik und mehr Bäume-Anpflanzungen überleben (nichts gegen Anpflanzung von neuen Bäumen und nichts gegen Photovoltaik), braucht nicht weiter kommentiert zu werden.

Trotz  Milliardensubventionen schafft es sogar Deutschland nicht, mehr als etwa 1% der gesamten deutschen Primärenergie aus Sonnenlicht zu gewinnen (hier). Photovoltaik heute ist zweifellos eine sehr sinnvolle Übergangslösung in sonnenreichen Drittländern, mit deren Hilfe sich die Leute ihre Smartphones aufladen und den TV betreiben können. Als nachhaltige Globallösung sind aber die Erneuerbaren Sonne und Wind ungeeignet. Ihre Leistungsdichte ist zu niedrig und ihre Verfügbarkeit nicht permanent. Energiepflanzen sind noch ungünstiger. Einzig heute sichtbare Lösung ist die Kernkraft (hier, hier). Physiker, sogar solche in Heidelberg, wissen dies selbstverständlich auch.

Was die Vertreter der Dekarbonisierungs-Agenda in ihren Träumen von großer Transformation planen, kann den Schriften des WBGU und des PIK im Detail entnommen werden. Das deutsche Parlament hat sich dieser neuen faschistoiden Erscheinungen dennoch niemals angenommen, und auch der Verfassungsschutz ist wegen Propagierung totalitärer, undemokratischer Strukturen niemals aktiv geworden. Daher wäre es im Heidelberger Physikkolloquium zumindest fachlich angebracht gewesen, den Mund aufzumachen. Warum dies nicht geschah, ist vielleicht später Lehrstück für Historiker.

 

 

 

 

 

 




BERLIN DREHT DURCH! Autos – die haben wir nicht mehr!

Was geschieht mit einem angeschossenen Elefanten? Wie lange der noch rennt und was der macht, kann keiner wissen. So ähnlich stellt sich die Frage jetzt bei der deutschen Autoindustrie. Als Folge jener Diskussion um Diesel und Grenzwerte kippte die Bundesregierung das Kind mit dem Bade aus und schuf ein bürokratisches Monster, das das Zeug hat, die wichtigste Industrie des Landes zu vernichten.

Ende des Automobils?

Porsche hat jetzt die Konsequenzen gezogen und als erster Autohersteller, wie die FAZ exklusiv meldete, den Verkauf von Neuwagen in Europa komplett eingestellt.

Das gilt vor allem für die Diesel-Modelle. Der Cayenne Diesel ist mindestes bis Ende dieses Jahres nicht mehr lieferbar, möglicherweise erst Mitte des kommenden Jahres wieder. Benzinmodelle, die nach den neuen Abgasregeln dem 1. September verkauft werden dürfen, sind nur vereinzelt erhältlich.

Porsche hatte diese Meldung der FAZ zwar ein wenig dementiert, sprach von »Einschränkungen beim Angebot an Neuwagen« und verwies darauf, dass nur ein paar Modelle nicht bestellbar sein. Doch wie der Porsche »Car Configurator« im Internet zeigt, ist kein einziges Auto ab September bestellbar.

VW liefert bis auf weiteres keine Plug-in-Hybridmodelle mehr aus. Diese benzinelektrisch angetriebenen Autos werden als besonders umweltfreundlich angepriesen.Das muss man sich auf der Zunge zergehen lassen: Ein Autohersteller liefert keine Autos mehr aus!
Porsche verwies darauf, dass das entsprechende Gesetz erst Ende Juli 2017 in Kraft getreten sei. Die Zeiträume für eine neue Entwicklung betragen aber üblicherweise etwa drei Jahre.

Volkswagen hatte bereits vor ein paar Tagen einen Ferti-gungsstopp für eine Reihe von Diesel-Modellen verhängt. Der Hersteller bekommt offenbar den erheblichen Aufwand bei der Umstellung auf die neue Zertifizierung ebenfalls nicht hin.

Die Situation dürfte auch bei allen anderen deutschen Herstellern umso dramatischer werden, je näher das Stichdatum 1. Sep-tember rückt. Ab diesem Zeitpunkt müssen verkaufte Autos nach den neuen Abgasmeßverfahren WLTP und RDE zertifiziert sein. Die bringen schärfere Abgasgrenzwerte mit sich und gelten nicht nur für den Dieselantrieb, sondern auch Benzinmotoren. Bei dem geraten die geringen Mengen an Feinstaubpartikel ins Visier, die Motoren mit Direkteinspritzung vermehrt ausstoßen. Die brauchen ebenfalls wie die Dieselmotoren nun auch Partikelfilter.

Zulassung für jede, aber auch jede Variante

Das bedeutet einen erheblichen Mehraufwand bei der Zulassung. Möchte der Kunde beispielsweise eine Ausführung mit einem anderen Kühlergrill, der möglicherweise etwas sportlicher aussieht, oder will er aus irgendwelchen Gründen eine zusätzliche Antenne, verändert das die Aerodynamik des gesamten Autos und damit auch ein wenig den Kraftstoffverbrauch. Damit verändert sich die Zusammensetzung der Abgase. Das Auto muss in den Windkanal und dort vermessen werden. Nun sind Windkanäle sehr teure und damit rare Einrichtungen, die Tests aufwendig und von daher ist klar: Das alles geht nicht so schnell.

Bereits eine Ausstattung mit anderen Sitzen verändert in der Regel das Gewicht des Autos ein wenig und damit wiederum Verbrauch, Abgase und – Sie raten richtig – den Ausstoß von CO2 und Stickoxiden. Breitere Reifen beispielsweise erhöhen den Rollwiderstand und damit ebenso Verbrauch und Abgase. Jedes Modell muss in jeder kaufbaren Konfiguration aufwendig auf einem Rollenprüfstand vermessen werden. Von diesen speziellen Prüfständen gibt es aber nicht genug.

Doch über allem schwebt das größte Risiko, der Entzug der Typzulassung. Der verkehrspolitische Sprecher der AfD-Fraktion im Deutschen Bundestag, Dr.-Ing. Dirk Spaniel, weist darauf hin, dass anders als bisher der Autohersteller die exakte Konfiguration des einzelnen Fahrzeuges, für die die jeweilige Verbrauchsangabe gelten soll, angeben muss. Also wieviel verbraucht ein Typ beispielsweise mit einem bestimmten Motor und einem Getriebe mit schmalen oder breiten Reifen, mit Stoff- oder Ledersitzen, mit elektrischen Fensterhebern oder handbetriebenen, mit oder ohne Klimaanlage, kurz: in jeder lieferbaren Konfiguration. Spaniel: »Bei Überschreitung des Wertes droht dem Hersteller der Entzug der Typzulassung und damit ein Verkaufsstopp.«

ÜBER BANDE GESPIELT …

Verbrauchsmessungen sind eine komplizierte und aufwendige Angelegenheit. Viele Faktoren bis hin zu Wetter und Luftdruck spielen dabei eine Rolle. Das bedeutet, dass der Hersteller ins Risiko gehen muss oder aus wirtschaftlichen Gründen besser nicht liefert.»Was die Kunden natürlich nicht erfahren«, führt Spaniel aus, »ist, dass sie diesen extremen bürokratischen Aufwand natürlich in Zukunft mitbezahlen müssen. Viele Kunden werden auch feststellen, dass ihre Wunschkonfiguration vielleicht gar nicht mehr lieferbar ist.

Spaniel: „Natürlich können wir davon ausgehen, dass die Regierungen Europas ihre jeweilige Autoindustrie mit dem entsprechenden Ermessensspielraum vor dem Entzug der Typzulassung und gravierenden wirtschaftlichen Konsequenzen schützen werden.«

»Es gibt allerdings eine Ausnahme: Die deutsche Bundesregierung zeigt bereits heute, dass sie die EU-Gesetzgebung in diesem Bereich maximal streng auslegt.«
»Es könnte also sein, dass einige Bürger in diesem Land, vorwiegend Beschäftigte in der Autoindustrie, bereits in den nächsten Monaten spüren werden, dass die deutsche Bundesregierung auch in diesem Politikfeld mit der Führung eines modernen Industriestaates schlicht überfordert ist.«

Alles nur in Deutschland so irre

Merkwürdigerweise hört man in dieser Angelegenheit von ausländischen Autoherstellern nichts. Sie haben natürlich dieselben Probleme wie ihre deutschen Kollegen. Motoren etwa sind heute auf-wendige und teure Entwicklungen, die länderübergreifend absolviert werden. So stammt der Dieselmotor im Mercedes Vito in der 1,6 l Version von Renault Nissan, das Einspritzsystem von dem amerikanischen Zulieferer Delphi. Der Vito ist gerade wegen angeblicher Abgasmanipulationen ins Scheinwerferlicht geraten.

DAS GESCHÄFTSMODELL ANT-CO2
Nach dem Diesel soll auch der Benziner verschwinden

Verwundern darf die Ruhe bei den ausländischen Herstellern allerdings nicht. Die jeweiligen Typzulassungen geschehen in den Heimatländern der Autohersteller, bei Fiat also in Holland und Renault zum Beispiel in Frankreich. Nur wissen die dortigen Regierungen mehr um die wirtschaftliche Bedeutung einer ihrer wichtigsten Industrien und werden sich hüten, über die Entziehung von Zulassungen die Autohersteller zu Fall zu bringen. Das überlassen sie klugerweise der deutschen Bundesregierung, die so Konkurrenz schwächt.Bei Autohändlern im benachbarten Frankreich etwa sieht man kaum die umfangreichen Auflistungen von Verbrauch bei verschiedenen Geschwindigkeiten, vom Abgasausstoß und vor allem von der CO2 Belastung. Jener scheinheilige ökologische Fußabdruck interessiert offenbar nur Grüne in Deutschland. Doch auch hierzulande, so be-richten Autohändler, interessiert sich kaum ein Kunde für diese Werte, die im Verkaufsraum deutlich sichtbar sein müssen.

Deutschen Autohändlern dürfte bald endgültig der Kragen platzen. Sie gehören zu den Hauptleidtragenden der Automobilkrise. Gebrauchte Dieselfahrzeuge versauern auf ihren Höfen und haben dramatisch an Wert verloren. Kunden greifen gern zum Mittel der Rückabwicklung; sie geben ihren Diesel zurück an den Händler. Damit verliert der Händler wiederum seine Marge, hat Aufwand und Kosten bis hin zur Auflösung von Versicherungs- und Leasingverträgen zu leisten und muss vor allem Gewinne rückgängig machen, die vor zwei, drei oder vier Jahren beim Verkauf des Autos angefallen sind. Theoretisch müsste er dafür Rücklagen gebildet haben. Ein Autohändler wütend: »Ich kann das natürlich nicht, denn ich kann nicht davon ausgehen, daß Autohersteller andauernd Scheiße bauen!«

DAS GLÜCK FÄHRT IM E-AUTO?
Nach der Energie- jetzt die Verkehrswende?

Vom Tisch zu sein scheint erst einmal der Umbau von Autohäusern und Werkstätten auf die politisch so angepriesene Zukunft »Elektromobilität«. Autohersteller wollen ihre Händler dazu verdonnern, in ihren Autohäusern mehr Dienstleistungen rund um die Elektromobilität anzubieten und die Glaspaläste wieder mit erheblichen Mitteln auf das neue vage »Geschäft« umzurüsten. Für diesen Aufwand dürfte jetzt kein Geld mehr da sein.Bei den Autoherstellern selbst steigt die Verunsicherung. VW-Chef Diess hatte auch schon auf der Hauptversammlung Anfang Mai vor Lieferenpässen gewarnt. Bei VW sagte Personalleiter Martin Rosik dem Mitarbeiter-Magazin «Inside«, dass es ab August vorübergehende Lücken in der Produktion gebe, die sich auch auf die Beschäftigung auswirke.

All diese Querschüsse gegen die Autoindustrie hält aber zum Beispiel Daimler nicht davon ab, allen Parteien weiterhin Geldspenden zukommen zu lassen. Allen? Nein, zwei Parteien spüren nichts von dem Geldsegen: AfD und Linke.

Dabei zeigt sich immer wieder: Appeasement nutzt nichts.

Der Beitrag erschien zuerst bei Tichys Einblick hier




Was denn nun? Globale Erwärmung, Klimastörung oder Klimawandel?

von Pointman

Seit fast zwei Jahrzehnten sagt uns die Propaganda, dass wir die Ursache für die Erwärmung des Planeten wären und wenn wir nicht aufhören würden, Kohlenstoff zu emittieren, würden wir alle in dem sich auftürmenden Thermogedon verbrennen [Wortspiel aus Thermo und Armageddon ~ der Tag des Jüngsten Gerichts]. Diese Panikmache wurde als globale Erwärmung gebrandmarkt und wurde allmählich in das Bewusstsein der Öffentlichkeit eingehämmert. Die Leute waren natürlich ein bisschen besorgt darüber, vor allem weil es so aussah, als ob seriöse Wissenschaftler diese Behauptung unterstützen würden, aber ein Haken trat auf. Das Problem war natürlich, dass die Erwärmung weder global noch besonders warm war und außerdem hatte sie vor etwa einem Jahrzehnt, kurz vor der Jahrhundertwende, aufgehört.

Da die Realität sich nicht an die Vorhersagen hielt, wurde mit der klassischen Propagandatechnik daran gegangen, die Fakten zu ignorieren und die Botschaft weiter zu verbreiten. Wenn Sie alles oft genug wiederholen, auf allen Medien und mit staatlich unterstützter Autorität, werden die Leute es glauben  – oder so tun, als ob sie es tun würden, besonders dann, wenn Sie irgendwelche abweichenden Stimmen unterdrücken können. In den alten Tagen, als Sie die Kontrolle über Fernsehen, Radio und Zeitungen hatten, funktionierte das immer. Geben Sie [vermeintlich] informierten Menschen falsche Fakten und sie werden zu falschen Schlussfolgerungen kommen. Wenn es scheinbar keine Kontroverse über die Fakten oder ihre Implikationen gibt, neigen die Menschen dazu, diese Fakten als korrekt zu akzeptieren, ohne selbst nach Fakten zu suchen. Der Effekt: Sie vertrauen auf eine fundiertere und autorisierte Meinung.

Die Leute tun das nicht, weil sie zu faul sind, sondern weil sie es müssen. Wir alle müssen jeden Tag vertrauensvolle Entscheidungen treffen und viele von ihnen sind Vertrauensentscheidungen im Leben oder im Tod, obwohl wir dies selten erkennen. Wenn wir eine Brücke überqueren oder ein Gebäude betreten, vertrauen wir darauf, dass es sicher geplant und gebaut wurde. Wenn wir in ein Flugzeug steigen, vertrauen wir der Besatzung und den Fluglotsen unsere Leben an. Wenn Sie einen Imbiss verzehren, den Sie gerade gekauft haben, vertrauen Sie darauf, dass Sie sich nicht vergiften. Vertrauen ist die Grundlage von Kooperation und Kooperation ist das essenzielle Verhalten, das es jeder Gesellschaft ermöglicht, zu existieren, überhaupt zu funktionieren. Wenn wir uns alle plötzlich entschieden hätten, nichts und niemandem zu vertrauen, würde die Zivilisation auf der ganzen Welt an einem Tag zusammenbrechen. Vertrauen ist so umfassend, es ist unsichtbar.

Den meisten Dingen in unserem Leben vertrauen wir, ohne auch nur an Vertrauen zu denken und jede Propaganda beruht auf der rücksichtslosen Ausbeutung dieser Gewohnheit des Vertrauens.

Die Problematik der alarmistischen Propaganda in den letzten zehn Jahren war die Entstehung des Internets als allgemein zugängliche Informationsstelle, da der Inhalt nicht kontrolliert werden konnte. Es wurde die einzige Plattform, auf der die Fehlinformation mit gegenteiligen Fakten und Schlussfolgerungen konfrontiert werden konnte und das nicht nur innerhalb eines Landes, sondern auf der ganzen Welt. Im Kontext der globalen Erwärmung, wuchs eine kleine Heimindustrie in der Blogosphäre auf, um der Fehlinformation und dem propagiertem Trend entgegenzutreten.

In einem früheren Beitrag habe ich hier vertreten, dass die Blogosphäre in ihrem gegenwärtigen Entwicklungsstadium keine Massenmeinung bilden (beeinflussen) kann und somit könnte ihr im Entstehen begriffene Skepsis gegen die Erderwärmung von der Propagandamaschine ignoriert worden sein, aber das war es definitiv nicht. Warum war das so?

Umweltschutz ist meiner Meinung nach eine totalitäre und anti-menschliche Bewegung geworden. Ich war Umweltschützer und kümmere mich noch immer um die Umwelt, aber die politischen Implikationen und Auswirkungen dessen, wofür der Umweltschutz steht, beleidigen fast alle meine demokratischen und humanitären Prinzipien. Die Eiferer einer totalitären Bewegung sind Fanatiker, die die Leidenschaft des fanatischen Charakters haben und dass alle anderen ihre Überzeugungen zu akzeptieren haben. Es kann keine Ausnahmen und keinen Widerspruch geben. Überhaupt keine. Es ist nicht gut genug, dass siebzig oder achtzig Prozent der Menschen das tun, was sie sagen, es müssen immer einhundert Prozent sein. Wie ich in einem früheren Aufsatz hier gesagt habe, können sie niemals aufhören. Es ist ihre größte Stärke und ihre größte Schwäche.

Ihre Reaktion auf die skeptische Blogosphäre ist ein gutes Beispiel dafür, dass ihre größte Stärke zur größten Schwäche wird. Sie mussten einfach das letzte Stück Opposition schließen, auch wenn es keinen nennenswerten Einfluss auf die Bevölkerung insgesamt hatte. Trotz ihrer besten und bösartigsten Bemühungen konnten sie die Opposition weder zum Schweigen bringen noch marginalisieren, und diese Bemühungen haben nicht nur eine robustere skeptische Gemeinschaft hervorgebracht, sondern auch dazu beigetragen, dass sie wuchs. Sie konzentrierten sich so sehr auf die Blogosphäre, dass sie begannen, die Propagandamemis als Reaktion auf ihre Kritik zu verändern, als sie eigentlich nichts hätten tun müssen. In der Blogosphäre war die ganze Idee der globalen Erwärmung als ein lächerliches Propagandastück entlarvt worden, welches nur von verschiedenen Baumbewohnern und Fanatikern verteidigt wurde, aber sie (die Erwärmung) war immer noch ein allgemeiner Glaube der Öffentlichkeit, die damals dem Ganzen noch nicht misstrauisch gegenüber stand.

Sie beschlossen, die Leitlinien zu verschieben. Da die Erderwärmung ungünstigerweise nicht stattfand, wandelten sie die weisgesagten Schrecken ganz offen in Klimastörung um, aber irgendwie konnte dieser Name nicht bestehen und das lag wahrscheinlich daran, dass die „Störung“ im Namen eine Störung des normalen Klimas bedeutete. Das erforderte nun, dass eine Art von Störung tatsächlich stattgefunden hatte, man aber kaum definieren kann, was Normalität in Bezug auf das Klima bedeutet.

Als Reaktion darauf, wurde die Panikmache als Klimawandel wiederbelebt. Dies hatte den großen Vorteil, dass nichts bewiesen werden musste, da sich das Klima ständig änderte, so dass die Angst davor genügend Schutz gegen Skeptiker bedeutete. Die Politiker, Wissenschaftler, Interessengruppen, Medien und Geldmenschen wechselten reibungslos von der Erderwärmung weg und sprachen nun über den Klimawandel. Sie haben keine Finte ausgelassen.

Ein weiterer Vorteil, den es aus propagandistischer Sicht hatte, war, dass auf jedes extreme Wetter hingewiesen und dies als Zeichen des Klimawandels deklariert werden konnte. Wenn es den Alarmisten passt, haben Klima und Wetter die Angewohnheit, subtil austauschbar zu sein, aber nur, wenn es der Botschaft entspricht. Die letzten drei brutalen Winter, die wir [in Amerika] hatten, wurden einfach als Wetter abgetan. Wären sie dagegen ungewöhnlich warm gewesen, wäre das der Klimawandel gewesen.

Die skeptische Gemeinschaft sollte den Begriff Klimawandel aus verschiedenen Gründen niemals verwenden, aber der wichtigste ist, dass die Umbenennung der globalen Erwärmung in den Klimawandel ein großer Fehler der Alarmisten war und sie bei jeder Gelegenheit daran erinnert werden sollten.

Es war ein öffentliches Eingeständnis, dass die angebliche Bedrohung durch die Erderwärmung niemals in der Realität  stattfand, so dass sie die Bedrohung ändern mussten. Ich erinnere sie gerne daran, jedes Mal, wenn ich ein Stück schreibe, oder jemand in der Gesellschaft, in der ich mich gerade befinde, es auf sich nimmt, mich über den Klimawandel zu unterrichten. Diese unterhaltsame Unterhaltung verläuft normalerweise wie folgt:

* Wenn Sie von Klimawandel sprechen, meinen Sie eigentlich die globale Erwärmung?

– Ähm, nein, eigentlich ist die globale Erwärmung nur ein Teil des Klimawandels, wie Sie wissen!

* Also waren die zwanzig Jahre düsterer Warnungen vor der globalen Erwärmung alle falsch?

– Nun, nein, Wissenschaftler verstehen das Klima heute besser.

* Aber sie dachten zwanzig Jahre lang, sie würden es verstehen. Welches Vertrauen können wir haben, dass sie es jetzt besser verstehen?

– Aber ich möchte über den Klimawandel sprechen.

* Nun, da Sie zugeben, dass die globale Erwärmung ein falscher Alarm war, warum sollte ich mir dann Sorgen über den Klimawandel machen?

usw. usw.

Sokrates wäre stolz darauf. Es ist die Art von Konversation, die Sie nach Herzenslust variieren können, solange Sie sie nicht vom Haken der globalen Erwärmung lassen. Zieh das Gespräch wieder dahin zurück und sie werden entweder stottern oder anfangen, Beleidigungen wie Leugner zu murmeln. Jedes dieser Ergebnisse ist ein Gewinn für Sie, da das ganze Gespräch zum Wohle der anderen Leute ist, die jemandem aufmerksam zuhören werden, der so unverschämt ist und nicht der populären Linie folgt. Ich habe auf diese Weise mehr als nur ein paar neue Freunde gewonnen und ich denke manchmal, dass es einfach ist, weil ich der Einzige bin, der nicht nur ihre lokale Öko-Marke von ihrem olympischen Gipfel der moralischen Überlegenheit gestoßen hat, sondern, wichtiger noch, es schaffte, sie für einen Abend zum Schweigen zu bringen.

Die Erderwärmung war eine spezifische Bedrohung, die sich nicht bewahrheitet hat. Daher haben sie die Bedrohung auf etwas viel Unklareres übertragen. Lassen Sie  sie nicht damit davonkommen. Jedes Mal, wenn sie versuchen, die Debatte um diese Worte zu gestalten, verschieben sie sie gleich wieder auf die globale Erwärmung. Wenn Sie mit Menschen posten oder mit ihnen sprechen, verwenden Sie die Wörter „globale Erwärmung“ und nicht „Klimawandel“. Wenn Sie das nicht tun, sind Sie nicht nur ein unbewusstes Opfer ihrer Propaganda, sondern Sie versäumen es auch, einen großen Fehler auszunutzen, den sie gemacht haben.

Also, die Antwort auf die Frage in der Überschrift ist – Globale Erwärmung.

Gefunden auf The Pointman vom 18.08.2011

Übersetzt durch Andreas Demmig

https://thepointman.wordpress.com/2011/08/18/so-which-is-it-global-warming-climate-disruption-or-climate-change/




Infraschallauswirkungen aufs Herz – Neues zur Vahl-Studie an der Uni Mainz

Lesen Sie dazu unseren Bericht über die vorausgegangenen Untersuchungen der Forscher um Prof. Vahl vom 06. März 2018:

Forschung in Mainz: Infraschall mindert Herzmuskelkraft um bis zu 20 Prozent

Video Ausschnitt der swr-aktuell Sendung vom 25.4.18 über die Gesundheitsgefährdung durch von Windrädern erzeugten Infraschall

Drei Infraschallstudien – drei unterschiedliche Herangehensweisen – drei gleiche Ergebnisse

Vahl-Studie: Beschallung lebender Präparate

Die im Interview der Allgemeinen Zeitung mit Prof. Christian-Friedrich Vahl angekündigte Beschallung des lebenden Präparats mit Infraschall konnte mittlerweile durchgeführt werden. Ergebnis: Die Aktivität der Herzfaser wird nachweislich beeinflusst.

Prof. Vahl:” Was wir als gesichert sehen ist, dass die Applikation von Schallwellen, also Vibrationen mit niedrigen Frequenzen zu einer Hemmung der Kraftentwicklung von Herzmuskelpräparaten führt.”

VAD-Forschungen: Nachweis durch pathologische Untersuchungen

Damit bestätigt er die eindrucksvollen jahrzehntelangen Arbeiten zur Vibro Acoustic Disease (VAD) von Prof. Mariana Alves-Pereira, die bereits seit den 80er Jahren  gemeinsam mit Dr. Nuno Castelo Branco in Portugal an der Lusofóna Universität Lissabon im Staatsauftrag  zu Gewebeveränderungen u.a. am Herzen forscht und Herzwand- und Gefäßverdickungen durch Collagenzunahme  unter dem Einfluß der Beschallung mit Infra und tieffrequentem Schall belegt.

Die VAD-Forschungen sind international bekannt und werden in Deutschland seit Jahren verleugnet – Ein Ritterschlag der WK-Lobby:
https://www.nhmrc.gov.au/_files_nhmrc/file/media/events/windfarms_science_forum_mariana_alves_pereira.pdf

Studie zur toxischen Wirkung: Beschallung im Tierversuch

Auch die bemerkenswerte Forschungsarbeit von Wissenschaftlern aus Kasachstan und Ägypten von 2010 zur toxischen Wirkung von Infraschall auf das Immunsystem,
von uns am 22.06.2014 auf www.windwahn.de veröffentlicht, weist im Tierversuch etliche Veränderungen nach, z.B.:


“Andere Frequenzen und Schalldrücke führen bei 4 verschiedenen Tierarten zu weiteren Schädigungen wie Arterienverengungen, Kern-Deformationen und mitochondriale Schädigungen, Pathologien der Herzmuskelzellen, reduziert kontraktile Funktion des Myokards, Mikrozirkulationsstörungen, Ischämie und mitochondriale Zerstörung in den Kapillaren, Störungen des Enzymniveaus der Mitochondrien.

“Infraschall – toxische Wirkung auf das Immunsystem”
Unbedingt noch einmal lesen und weitergeben!

Infraschall: Toxische Wirkung auf das Immunsystem

Diese Forschungen werden uns noch oft beschäftigen.

Übernommen von Windwahn e.V hier




Aktionismus in Hamburg und Forderung flächendeckender Fahrverbote in Deutschland

Fahrer müssen sich jetzt eine Ausweichroute um die Stresemannstraße suchen, die 4,8 km lang ist und damit länger als die eigentliche Route von 1,6 km. Ein erheblicher Umweg, der Zeit, Geld und Sprit plus Abgase kostet.

Tag eins der neuen Zeit in Deutschland: Hamburger Dieselfahrer retten das Klima und fahren seit Mitternacht des 31. Mai 2018 fortan nicht mehr über 580 Meter der Max-Brauer-Allee sowie über 1,6 Kilometer der Stresemannstraße. 55 Umleitungs- und 49 Verbotsschilder wurden aufgestellt. Das Bußgeld bei einem Verstoß beträgt 20 Euro für Pkw und bis zu 75 Euro für Lkw.

58 Mikrogramm pro Kubikmeter Luft an NO2 in der Luft an dieser Messstelle sollen auf 40 Mikrogramm pro Kubikmeter Luft gedrückt werden. Eine Gefahr für die Gesundheit besteht laut Aussage von Wissenschaftern nicht.

Die Luftmessstation in der Max-Brauer-Allee steht auf einem Mittelstreifen idyllisch unter Bäumen, die ein dichtes Dach bilden und den Luftaustausch stark einschränken. Das ergab unsere Leseraktion in der Folge im März dieses Jahres.

Ob diese Messstation korrekt misst, darf bezweifelt werden. Unter Bäumen darf laut Anhang 3, Buchstabe C der der 39. Bundesimmissionsschutzverordnung (BImSchgV) nicht gemessen werden, eine Station in der Mitte einer Allee verstößt gegen Anhang 3, Buchstabe A 2 c) der 39. BImSchgV.

Der Ingenieur Fred F. Mueller fand zudem heraus: »Bei amtlichen Kontrollmessungen zeigte sich, dass die NO2-Konzentrationen am Messpunkt GM-12 um 16 % niedriger waren, am Messpunkt GM-10 lag die Belastung sogar um volle 30 % tiefer. Ein Beleg dafür, wie massiv der Einfluss der Distanz des gewählten Messpunktes zum Maximalpunkt der Emissionen ist.«

Einen deutlichen Rückgang des Berufsverkehrs haben die Reporter von Bild am Morgen des Donnerstags nicht bemerkt. Sie sahen sich schon früh auf den beiden betreffenden Straßenabschnitten um. Allerdings berichteten sie von empörten Anwohnern der Umgehungsstraßen, durch die jetzt der Verkehr rollt. Denn die Fahrer müssen sich jetzt eine Ausweichroute um die Stresemannstraße suchen, die 4,8 km lang ist und damit länger als die eigentliche Route von 1,6 km. Ein erheblicher Umweg, der Zeit, Geld und Sprit plus Abgase kostet.

Laut Bild verwarnt die Polizei nur; sie kann nur stichprobenartig kontrollieren, denn einem Auto sieht man von außen nicht an, was für ein Motor unter der Haube steckt. Also: Auto anhalten lassen, Fahrzeugschein herausfummeln, Blick auf die erfüllten Norm – das kostet Zeit und Nerven. Doch die Polizei verspricht schon: »Großkontrollen sind in Planung. Zunächst wollen wir informieren statt sanktionieren.«Bild zitiert Anwohner, die an der Umgehungsroute wohnen und bereits jetzt die Nase voll haben: »Wir können unsere Fenster nachts nicht mehr aufmachen, unser kleines Kind hustet nachts.«

Der grüne Hamburger Umweltsenator Jens Kerstan verteidigt die Fahrverbote: »Es ist unser Ziel und unsere Verantwortung, die Bürgerinnen und Bürger vor schädlichen Abgasen zu schützen.«

Vielleicht sähen es die Bürgerinnen und Bürger Hamburgs lieber, wenn der Senat ihr Leben zuerst vor messernden Neuankömmlingen und ihr Eigentum vor Antifa-Chaoten schützen würde. Das klappt noch nicht so gut; das Abfackeln von Autos in einem hohen Flammenmeer mit dunklen Rußfahnen verhageln die Bilanzen in Portemonnaies und Schadstofftabellen.

Mit dem »Schutz« vor kaum vorhandenen Abgasen, für deren Schädlichkeit es keine Belege gibt, tut sich der Senat schon leichter. »Solange die Bundesregierung nicht handelt, werden wir diese Straßensperrungen aufrechterhalten.«

Gnädigerweise will der Umweltsenator das Fahrverbot nicht auf die gesamte Stadt ausweiten, dies sei nicht verhältnismäßig den Fahrern von Dieselfahrzeugen gegenüber.

Die einschlägigen NGOs und Umweltverbände betonten, dass die Sperrung beim Straßenabschnitt nicht ausreichend sei.

Die Grünen wollen das totale Dieselverbot und fordern gleich flächendeckende Fahrverbote in ganz Deutschland. Der Grüne Cem Özdemir will keinen „Flickenteppich an Maßnahmen“ in Deutschland, sondern pauschale Fahrverbote mit der »blauen Plakette«.

ALIBIPOLITIK

Hamburg: Diesel-Fahrverbot ab kommender Woche

»Wenn Sie künftig von Hamburg nach Stuttgart fahren, brauchen Sie vielleicht ein dickes Handbuch, wo drin steht, wo Sie mit welchem Fahrzeug reinfahren dürfen und wo nicht«, befürchtet der grüne Sozialpädagoge. Einfacher wäre aus seiner Sicht eine bundesweite blaue Plakette. »Dann gibt es eine klare Regelung. Der moderne Diesel darf rein, die anderen dürfen in der Zeit der Überschreitung nicht rein.«Hand in Hand gehen Grüne mit dem Abmahnverein Deutsche Umwelthilfe (DUH), der ebenfalls flächendeckende Dieselverbote will. Danach soll der Benziner dran sein, der ebenfalls verboten werden muss, geht es nach dem DUH-Chef Jürgen Resch.

Bereits jetzt sind die Grundlagen dafür gelegt worden, dass in drei Jahren unsere jetzigen Autos überhaupt nicht mehr fahren dürften. Zum Schutz der Umwelt – natürlich – müssen die Grenzwerte noch weiter herabgesetzt werden. Dasselbe Spiel wie aktuell deutet sich an: Die EU will ab 2021 neue Verbrauchstests für Pkw und leichte Lkw einführen. Diese Grenzwerte sind so niedrig, dass sie mit Fahrzeugen mit Diesel oder Benzinern nicht mehr erreicht werden können. Nur mit Luft und Liebe lässt sich eben kein Auto mehr antreiben.

Auf den Weg gebracht wurde dieser Vorschlag von Deutschland bei der EU. Die Einspruchsfrist bei der EU endete im Frühjahr. Deutschland hat auf sein Recht des Einspruchs verzichtet. Das bedeutet: In drei Jahren können solche Trupps wie die von der Deutschen Umwelthilfe, wenn es die dann noch gibt, ihre neuen Klagewellen lostreten. Alles völlig legal, steht dann so in den Vorschriften und Gesetzen.

Der Beitrag erschien zuerst bei TICHYS Einblick hier