1

Große Leseraktion: Wie manipulieren Messstationen die Feinstaubmessung in Ihrer Stadt? – Teil 3

Überwältigend! Vielen Dank für Ihre Reaktion und Mitarbeit. Mit so vielen Einsendungen hatten wir nicht gerechnet. Darüber freuen wir uns. Mit Ihrer Hilfe ist es möglich, den Wahnsinn eindrucksvoll zu dokumentieren, der sich quer über Deutschland ausbreitet. Wir werden die Fotos und Berichte in einer Serie veröffentlichen.

Aus Hamburg, der Stadt mit den roten Chaoten im Rathaus, kommen Fotos von zwei Luftmessstationen in Hamburg. »Es handelt sich dabei um genau diejenigen Luftmessstationen,« schreibt TE-Leser Jan-Hendrik M., »die in Kürze zu einem Dieselfahrverbot auf den betroffenen Straßen führen werden: Stresemannstraße und Max-Brauer-Allee.

Zur Stresemannstraße:

Hamburg leidet seit Jahren daran, dass es nördlich der Elbe lediglich zwei Querungen der Stadt in Ost-West-Richtung gibt, eine nördlich der Alster und eine südlich der Alster. Diejenige Querung südlich der Alster beinhaltet die Stresemannstraße in ihrer vollen Länge, sodass sich große Teile des Hamburger Durchgangsverkehrs durch diese Straße quälen. Die Stelle, an der sich die Luftmessstation befindet, ist nahe der Einmündung der Max-Brauer-Allee und des Neuen Flora Musicaltheaters gelegen.

Es ist eindeutig die engste Stelle dieser Straße, auf der im Grunde rund um die Uhr Stau herrscht. Der Grund: Die Brückenpfeiler der die Stresemannstraße überquerenden Bahnbrücke stehen mitten auf der Straße. Der Einfallsverkehr – auf dem Foto in einiger Entfernung sichtbar – macht mit einer Spur einen Schlenker um einen solchen Pfeiler herum. Der Ausfallverkehr – auf dem Foto hinter den Polizeiwasserwerfern versteckt – wird auf eine Spur eingeengt. Letzteres führt zu einem Rückstau direkt an der Messstation.«

In den Achziger- und Neunzigerjahren hat es hier mehrere Verkehrstote gegeben.
»Die damalige rot-grüne Regierung kam auf die sensationelle Idee, zwei der vier Spuren in Busspuren zu verwandeln, was selbstverständlich zu einem völligen Verkehrsinfarkt geführt hat. Die danach unter der Führung der CDU und Bürgermeister von Beust gewählte Regierung revidierte diese Entscheidung, erließ aber ein bis heute gültiges Tempolimit von 30 km/h auf dieser Strecke, das auch mittels zweier fester Geschwindigkeitskontrollen („Blitzer“) durchgesetzt wird, die die Luftmessstation auf beiden Seiten wunderschön einrahmen.«

»Die Fahrzeuge bremsen selbstverständlich vor dem Blitzer und beschleunigen danach wieder. Meine Fotos konnte ich heute übrigens völlig unbehelligt und unter Polizeischutz anfertigen. Die Stresemannstraße war aufgrund einer Demonstration von der Polizei gesperrt worden, sodass auf meinen Bildern lediglich Polizeifahrzeuge zu sehen sind. Muss darüber hinaus eigentlich betont werden, dass die Luftmessstation direkt am Fahrbahnrand steht und die Straße durch eine enge Häuserschlucht führt?«

Wiesbaden

Nach diesem kurzen Einblick in das lebendige, bunte und weltoffene Hamburg kommen wir in die hessische Landeshauptstadt Wiesbaden, früher eher als Rentnerstadt verschrien, heute ebenfalls rot-grünes Experimentierfeld. Ergebnis: Immer mehr Geschäfte in der Innenstadt machen dicht.

TE- Leser Franz M. schickt uns Fotos der drei Messstationen.

In der Schiersteiner Straße steht die Messstation direkt an der sechsspurigen Schiersteiner Str. Hier wird die 270 Grad Regel der EU verletzt. Außerdem ist die Messstation mit ihrem Fahrbahnabstand von 20 cm nicht repräsentativ für einen größeren Luftbereich.

In Wiesbaden Süd steht die Messstation außerhalb des Stadtgebietes südlich der Autobahn A66. Adresse Am Hohen Stein. Das ist eine Sackgasse in einem reinen Wohngebiet ohne größere Verkehrsbelastung. Sie entspricht meiner Ansicht nach den EU-Regeln.«

Für TE-Leser Frank M. ist klar:

»Ich habe schon einiges zu dem Thema kommentiert und 5 Punkte herausgearbeitet, die zusammenfassen, was in der Fahrverbotsdiskussion schief läuft:

Fakt ist:

Unsere Autos werden immer sauberer.
Die Luft in den Städten wird immer sauberer.
Alle deutschen Städte halten die Grenzwertregelungen für Feinstaub ein.
Der 40µg/m3-Grenzwert für Stickoxide ist absurd niedrig (im Vergleich der MAK Wert in Deutschland 950µg/m3 und in der Schweiz 6000µg/m3. Er ist in dieser Höhe ohne jegliche medizinische Grundlage.
Würden die EU-Messregeln angewendet, gäbe es selbst mit diesem extrem niedrigen Wert in keiner deutschen Stadt eine Überschreitung der EU-Grenzwertregelungen.
Fahrverbote sind deshalb völlig überflüssig, ja sie sind durch NICHTS gerechtfertigt. »Verhältnismäßig« sind sie schon gar nicht.
Der Dieselskandal ist kein Umweltskandal, sondern ein Politikskandal und ein Medienskandal, denn die meisten Medien berichten falsch, lückenhaft oder verzerrt.«
Sein Fazit: »Mit der Gesundheit des Bürgers hat das alles nichts, aber auch gar nichts zu tun!«

Cottbus

In Cottbus steht eine Luftmessstation in der Bahnhofstraße vor Haus Nummer 56. Diese Straße ist eine der wichtigsten Nord-Süd Verbindungen mit teilweise prächtigen Bürgerhäusern aus der Jahrhundertwende.

Die Messstation steht an dem Straßenabschnitt mit der höchsten Verkehrsdichte und mit regelmäßigem Stau in der Cottbuser Innenstadt. Sie steht etwa ein Meter vom Fahrbahnrand entfernt im Mehrzweckrandstreifen für Parktaschen und Baumscheiben. Danach kommen Radweg und erst dann der Bürgersteig. Ca. 50 Meter von der Messstation kreuzt die Bahnhofstraße die ebenfalls stark befahrene Ost-West-Achse Karl-Liebknecht-Straße.

– je eine Richtungsfahrbahn mit integriertem Straßenbahngleis
– Mittelstreifen als Sperrfläche mit Querungsstellen
– Mehrzweckrandstreifen für Parktaschen, Baumscheiben und Haltestellen
– durchgängigem Radweg beidseitig
– Gehweg beidseitig

Das Ergebnis beschreibt TE-Leser Falko G.: Der Verkehr staut sich wochentags regelmäßig in den Spitzenzeiten vor der Messstation.

Dennoch: Für Stickstoffdioxid zum Beispiel meldet die Station allein in diesem Jahr keinerlei Überschreitung der Grenzwerte – wie übrigens auch alle anderen hier aufgeführten Messstationen im Land Brandenburg.

Dortmund

Bei Tilman K. hat diese seit 2003 existierende Luftmessstation schon immer Kopfschütteln hervorgerufen.

Er schreibt: »Ein 4-spuriger, autobahnähnlich ausgebauter Zubringer (B236 und L633n) verjüngt sich auf eine einspurige Straße, die in einen ampelgesteuerten Kreisverkehr (Borsigplatz) mündet. Davor gibt es eine enge vierstöckige Häuserflucht. Die Messstation steht genau da, wo es zu Rückstaus vor der Ampel kommt.

Bis vor paar Jahren waren hier noch LKW´s erlaubt; jetzt ist die Straße ab 2,8 Tonnen abgeriegelt. Angesichts des hohen Verkehrsaufkommens an dieser Einfallsstraße zur Stadt und den engen Straßen um den Borsigplatz war das eine richtige Entscheidung, hat aber nicht zum Unterschreiten der Grenzwerte geführt.«

Ein Blick in den Umweltbericht der damals noch rot-grünen Landesregierung hält fest:  »Der langfristig zu beobachtende Trend abnehmender Belastung durch Stickstoffdioxid und Feinstaub setzte sich im Jahr 2016 fort. Wie schon im Jahr 2015 konnten die Grenzwerte für Feinstaub PM10 und PM2,5 sowie die Grenz- und Zielwerte der Metallgehalte im PM10 bis auf eine Ausnahme in Bottrop eingehalten werden.«

Die Stellungnahme im alten Bericht dann nach dem Motto »Mehr Drama, Baby«:
»Verglichen mit den Vorjahren ist an den Verkehrsstandorten in NRW bei Stickstoffdioxid weiterhin nur ein geringfügiger Rückgang der Belastung feststellbar. Die Jahresmittelwerte verbleiben auf hohem Niveau. Bezogen auf die Anzahl und Höhe der Grenzwertüberschreitungen ist Stickstoffdioxid weiterhin als derzeit kritischster Luftschadstoff zu bewerten.«

Die Zahlen im Bericht dagegen sagen anderes: 51 µg/m3 des Grenzwertes von 40 µg/m3 – eine Größe, die angesichts der in Frage stehenden Wertes von 40 µg/m3 zu vernachlässigen ist.

Es scheint, als verändere sich zumindest die Tonart unter der neuen NRW-Regierung.

»Luftqualität hat sich im vergangenen Jahr 2017 weiter verbessert«, meldet das Landesamt für Natur, Umwelt und Verbraucherschutz NRW. »Abnehmender Trend bei Stickstoffdioxid-Belastung setzt sich fort. Die Schadstoffbelastung der Luft in NRW hat sich weiter verringert. Das zeigen die Ergebnisse der 2017er Luftqualitätsmessungen des Landesamtes für Natur, Umwelt und Verbraucherschutz (LANUV). Auch in den verkehrsreichen Innenstädten war ein Rückgang der Schadstoffbelastung zu verzeichnen. In Dinslaken, Eschweiler, Halle, Langenfeld, Münster und Remscheid wurde erstmals der EU-Grenzwert für Stickstoffdioxid von 40 Mikrogramm pro Kubikmeter (µg/m³) im Jahresmittel eingehalten.«

Die Daten aller Messstellen wurden vom LANUV validiert. Damit stehen die endgültigen Jahreswerte für das Jahr 2017 fest. Die höchsten NO2-Jahreswerte wurden im Jahr 2017 in Nordrhein-Westfalen wie auch in den Vorjahren in Köln (Clevischer Ring: 62 µg/m³), Düren (Euskirchener Straße: 58 µg/m³) und Düsseldorf (Corneliusstraße und Merowingerstraße: 56 µg/m³) gemessen.

Bedeutet: Die Luft ist also raus.

Unter rot-grün klang alles dramatischer: »Auch in 2016 wurden NO2-Grenzwertüberschreitungen ausschließlich an verkehrsnahen Messstellen registriert. Nach wie vor sind der Kfz-Verkehr und insbesondere die Diesel- Fahrzeuge als Hauptverursacher der hohen NO2-Belastung anzusehen. Ohne eine deutliche Reduktion der Kfz-bedingten Emissionen ist eine absehbare Einhaltung des Immissionsgrenzwertes nicht möglich.«

Also: Verkehrsstopp. Dagegen sagt jetzt die neue Umweltministerin Christina Schulze-Föcking deutlich: »Erklärtes Ziel bleibt es, Fahrverbote zu vermeiden.«
Nordrhein-Westfalen hat übrigens Stuttgart überholt. Das Land, so geht aus dem neuen Bericht hervor, ist sauberer als die Schwabenmetropole, feinstaubmäßig gesehen. Der NRW-Umweltbericht für 2017 stellt für Feinstaub fest: »Die Feinstaubbelastung lag im Jahr 2017 wie auch schon in den Vorjahren flächendeckend in Nordrhein-Westfalen unterhalb der Grenzwerte. Schon seit dem Jahr 2014 kam es in Nordrhein-Westfalen nicht mehr zu Feinstaub-Grenzwertüberschreitungen.«

München

In der bayerischen Landeshauptstadt München hatten wir die Verkehrssituation am Stachus hinreichend gewürdigt sowie die Bemühungen des Oberbürgermeisters, Fahrverbote einzuführen. TE-Leser Dieter F. hat sich gründlich noch in anderen Straßen umgesehen.

»Direkt neben allen Messstellen stehen Laubbäume (unzulässig gemäß 2008/50/EG; Anhang III /C) Diese umhüllen von Frühjahr bis Herbst manche Messstellen komplett. Dies gilt insbesondere für die Messstelle Lothstraße.«


Schicken Sie uns bitte an Tichys Einblick aus Ihrer Stadt Fotos der Messstationen. Bitte notieren Sie den genauen Standort. Aus einem weiteren Foto sollte das Umfeld der Messstation ersichtlich sein. Bitte schicken sie die Fotos an redaktion@tichyseinblick.de; Sie erteilen uns damit automatisch das Recht, Ihr Foto zu veröffentlichen. Wir freuen uns auch über Beiträge aus der Lokalpresse zu diesem Thema.

Vielen Dank!

Der Beitrag erschien zuerst bei Tichys Einblick hier


Hier geht es zu Teil 1 – Messstationen in Stuttgart, Leipzig, Fulda, Magdeburg, Rostock, Marburg und Tübingen

Hier geht es zu Teil 2 – Messstationen in Ludwigsburg, Hannover, München und Siegen




Wie sich die Winde drehen: Alarmisten ,leugnen‘ jetzt Klimawissenschaft, Big Oil verteidigt sie

Kalifornische Städte, Umweltaktivisten und einige Wissenschaftler argumentierten, dass die Anerkennung der jüngsten IPCC-Einschätzung irreführend sei, weil diese überholt ist. Im Endeffekt werfen all jene, die danach trachten, Öl-Unternehmen zu bestrafen, den sonst so oft beschworenen „Konsens“ in der Klimawissenschaft beiseite.

Die Ironie blieb dem Professor der University of Colorado Roger Pielke Jr. nicht verborgen. Dieser hatte mehrere Studien zu Klimawissenschaft und Politik veröffentlicht:

Dieser Tweet zeigt, wie sehr sich die Klimadebatte verändert hat. Ein Öl-Unternehmen beruft sich auf den IPCC-Konsens; Umweltaktivisten (einschließlich einiger Klimawissenschaftler) leugnen den IPCC-Konsens. Bizarre Welt! https://t.co/M8lbeZHlQi

Roger Pielke Jr., March 21, 2018

San Francisco und Oakland verklagten fünf Öl-Unternehmen einschließlich Chevron wegen der vermeintlichen Schäden der von ihnen verursachten globalen Erwärmung. Chevron war das einzige beklagte Unternehmen, welches an der Anhörung zur Klimawissenschaft teilzunehmen beschlossen hat, aber das Unternehmen überraschte die Kläger, als es den „Konsens“ der IPCC-Einschätzung nicht in Frage gestellt hat.

Das zerzauste die Federn einiger Wissenschaftler und Umweltaktivisten, welche augenblicklich in die Offensive gegen Chevron gingen und dem Unternehmen vorwarfen, das IPCC vorzuschieben, um die Klimapolitik zu diskreditieren.

„Der Anwalt von Chevron übernahm seine Strategie direkt aus dem Drehbuch der Klimaleugner“, sagte der Klima-Aktivist Shayne Wolf.

Offenbar ist das IPCC ein Bestandteil in diesem „Drehbuch der Klimaleugner“. Chevron stimmte der wissenschaftlichen Einschätzung des IPCC zu, lehnte jedoch die politischen Vorschläge der internationalen Körperschaft ab.

„Der Anwalt übertrieb geringe Bereiche der Unsicherheit hinsichtlich Auswirkungen der globalen Erwärmung. Er blähte diese auf, um sich so aus der Anerkennung der Rolle fossiler Treibstoffe herauszustehlen“, sagte Wolf.

Die Klimawissenschaftlerinnen Kate Marvel von der NASA und Katharine Hayhoe von Texas Tech fuhren fort zu argumentieren, dass der IPCC-Bericht 2013 überholt sei und dass wissenschaftliche Studien während der Folgejahre ein alarmierenderes Bild der von Menschen verursachten Erwärmung gezeigt haben.

„Der jüngste IPCC-Bericht stammt aus dem Jahr 2013, aber die Klimamodell-Simulationen in jenem Report endeten 2005“, sagte Marvel. „Mit ,endeten‘ meine ich, dass sie sich auf beobachtete Daten (Treibhausgase, Aerosole, Vulkanstaub, solare Fluktuationen) nur bis zu jenem Zeitpunkt verließen. Alles Weitere waren Projektionen, konstruiert aus unseren Schätzungen, wie Emissionen aussehen würden“.

„Der IPCC-Bericht ist der goldene Standard der klimawissenschaftlichen Einschätzung. Aber er bleibt in drei bedeutenden und relevanten Punkten zurück, welche mich als Wissenschaftlerin zu dem Ratschlag bringen, dass die in diesem Fall herangezogene Literatur erweitert wird, falls man wünscht, die umfassendste und aktuellste Perspektive zum Zustand der Klimawissenschaft zu erhalten“, plapperte Hayhoe nach.

In einem anderen Fall argumentierte Prof. Gary Griggs von der University of California, dass die von Chevron gezeigten IPCC-Projektionen des Meeresspiegel-Anstiegs überholt seien. Griggs, ein Experte der Küstengeographie, wurde von den Anwälten der Städte San Francisco und Oakland ins Spiel gebracht.

Die Präsentation von Chevron bzgl. des Meeresspiegel-Anstiegs beruft sich auf den IPCC-Bericht 2013, was bedeutet, dass die beobachtungen ein paar jahre zuvor beendet waren. Die Wissenschaft vom Anstieg des Meeresspiegels hat aber seitdem signifikante Fortschritte gemacht, wie Gary Griggs schon früher betont hatte. – #climatetutorial

Auch Chevron präsentierte vor Gericht Graphiken, die belegen, wie sehr Klimamodelle dazu neigen, die vom Menschen verursachte Erwärmung zu übertreiben.

Die Anwälte und Wissenschaftler von den kalifornischen Städten gerieten in Aufruhr, als der Anwalt von @chevron den Richtern vorführte, wie sehr die Klimamodelle schon immer den Temperaturanstieg übertrieben haben #climatechange trial @climatedepot @steynonline

Phelim McAleer (@PhelimMcAleer) March 21, 2018

Link: http://dailycaller.com/2018/03/21/chevron-agrees-global-warming/

Übersetzt von Chris Frey EIKE




150.000.000.000 Euro für nichts

Deutschland ist Vorreiter bei der Energiewende – weltweit. Auf dem Weg in eine saubere und sichere Zukunft ohne Atomenergie soll unsere Energieversorgung immer umweltfreundlicher werden. Zugleich muss sie aber bezahlbar und verlässlich bleiben. Auch die Wirtschaft profitiert von dem enormen Modernisierungsschub, den die Entwicklung innovativer Technologien im Bereich erneuerbarer Energien und Energieeffizienz auslösen“.

Dafür ist der Klimakanzlerin nichts zu teuer. Und ihr Kollege, der Herr Laschet (CDU) sagt dazu heiter:

„Wir machen praktisch zwei Energiewenden auf einmal, den Ausstieg aus der Kernenergie und zweitens die CO2-Ziele erreichen“.

Da frag ich mich: wenn ich zwei Wenden auf einmal mache, fahr ich dann nicht weiter in der alten Richtung?

Das große Vorreiten darf dann schon mal eben gerne 25 Milliarden Euro an Steuergeld kosten – pro Jahr. Die Stromkunden und die Steuerzahler zahlen es ja fröhlich für die gute Sache, gern auch mal die höchsten Strompreise der Welt, zusammen mit Dänemark.

Das Vorreiten hat sich bisher auf mindestens 150 Milliarden Euro aufsummiert. Und wenn es so weitergeht, kostet es bis 2050 eine Billion Euro. Das sagt kein geringerer, als der neue Superwirtschaftsminister Altmaier. Der kennt sich nämlich mit der Wirtschaft gut aus – er wurde schon des Öfteren in einer Wirtschaft gesehen.

Und was ist bei der deutschen Energiewende rumgekommen? Ich meine, so fürs Klima, für die Wirtschaft, für die Stromkunden?

Der Energiewende-Index betrachtet seit 2012 alle sechs Monate den Status der Energiewende in Deutschland entlang der drei Dimensionen des energiewirtschaftlichen Dreiecks: Klima- und Umweltschutz, Versorgungssicherheit und Wirtschaftlichkeit. Die aktuelle Entwicklung des Energiewende-Index zeigt: Nur fünf der 14 Kennzahlen werden in ihrer Zielerreichung als realistisch eingestuft: „Strom aus Erneuerbaren Energien“, „Arbeitsplätze in stromintensiven Industrien“, „Arbeitsplätze in erneuerbaren Energien“, „gesicherte Reservemarge“ sowie“ Ausfall der Stromversorgung“.

Für acht Indikatoren ist die Zielerreichung unrealistisch: „CO2-Ausstoß“, „Primärenergie- und Stromverbrauch“, „Kosten für Netzeingriffe“, „Haushalts- und Industriestrompreise“, „EEG-Umlage“ sowie „Ausbau Transportnetze“.

Doch es kommt noch dicker: international schneidet Deutschland beim Thema Energiewende noch schlechter ab, als beispielsweise Uruguay und Malaysia. Zu diesem Ergebnis kommt der neue globale Energiewende-Index (Energy Transition Index, ETI). McKinsey hat dafür in Zusammenarbeit mit dem WEF den Status der Energiewende in 114 Ländern anhand von 40 Indikatoren ermittelt. Das Ergebnis ist peinlich für diejenigen, die stets eine internationale Vorreiterrolle Deutschlands bei der Ökostrom-Transformation behauptet hatten, und niederschmetternd für jene, die das glaubten.

Im ETI-Gesamtranking belegt die Bundesrepublik Platz 16. Im europäischen Vergleich schneiden gleich elf Länder besser ab als Deutschland, darunter der weltweite Spitzenreiter Schweden, Norwegen, die Schweiz, Finnland, Dänemark, Österreich sowie Großbritannien und Frankreich.

Der Index zeigt: Deutschland steht vor größeren energiewirtschaftlichen Herausforderungen als viele andere Länder. Besonders deutlich wird dies mit Blick auf den Indikator „Struktur des Energiesystems“. Hier belegt Deutschland Platz 110 von 114. Das liegt vor allem an Deutschlands Abhängigkeit vom Kohlestrom: Dessen Anteil beträgt 42% – auch weil er seit der Entscheidung zum Kernenergieausstieg einen hohen Beitrag zur Grundlastversorgung leistet. In der Kategorie „Umwelt- und Klimaschutz“ kommt Deutschland weltweit nur auf Platz 61 – hauptsächlich wegen seines hohen CO2-Ausstoßes.

Der Gipfel der Energiewende-Peinlichkeit wurde erreicht, als gerade bekannt wurde, dass kein Land der Welt im Jahre 2017 mehr CO2 eingespart hat als ausgerechnet der (laut Spiegel) größte Klimasünder-USA mit ihrem eine Schwefelspur hinterlassenden Präsidenten Trump an der Spitze. Während im Vorreiter-Deutschland die CO2-Emissionen weiter anstiegen, gelang es den USA, Großbritannien, Japan und sogar Mexiko ihren CO2 Ausstoß zu senken.

Erfolgreichster CO2-Sparer in absoluten Zahlen: die USA. Nach den Zahlen der IEA gelang es den Vereinigten Staaten, die CO2-Emissionen 2017 um 0,5 Prozent oder 25 Millionen Tonnen auf 4810 Millionen Tonnen zu reduzieren. Damit verringern die USA ihre Emissionen schon im dritten Jahr in Folge.

Jetzt gibt es neben alternativen Fakten auch noch unliebsame Fakten. Leider hilft das aber wohl nicht gegen das Trump-Tourettesyndrom der meisten deutschen Journalisten. Schließlich haben die USA diesen Erfolg wohl mit dem Gottseibeiuns-Fracking erreicht.

Die Energiewende läuft für Deutschland so etwa, wie der Europäische Songcontest. Vorletzter Platz – Kommentator Peter Urban rief: „Wir haben nichts falsch gemacht“ und Barbara Schöneberger meinte: „Levina hat doch so gut gesungen“, die ARD nannte das Elend „einen eleganten Auftritt“. Im Ergebnis waren sogar die rumänischen Jodler besser. Großzahler ARD (Startgebühr 400.000€) sagte dazu offiziell: „Wir stellen uns dem Ergebnis und werden es analysieren“. Es sind die gleichen Worte wie 2013 (Platz 21), 2014 (Platz 18), 2015 (Letzter), 2016 (Letzter), 2017 (Vorletzter).

Was lehrt uns das? Ob Songcontest, Bundeswehr oder Energiewende: aus Blamagen lernen? Das muss nicht sein.

Im Koalitionsvertrag heißt es zur Energiewende: „Der Anteil der erneuerbaren Energien im Stromsektor soll von den jetzigen 38 % bis zum Jahr 2030 auf einen Anteil von 65 % steigen. Mit einer Energieeffizienzstrategie will die neue Regierung den Energieverbrauch bis zum Jahr 2050 halbieren“. Bitte, hörn Sie auf zu lachen, die Sache ist ernst. Der Koalitionsvertrag passt zum Kernenergieausstieg, zum Kohleausstieg und nun zum Dieselausstieg. Nur – nach meinem bescheidenen Dafürhalten können solche weltfremden Ziele ausschließlich mit Gewalt erreicht werden.

„Großspurigkeit und Angst, das ist, nebenbei, die typisch deutsche Mischung. Ins Äußere gesprochen: Sentiment und Kaserne… Sie lieben Lieder und Munition, die Deutschen…“ (Tellkamp „Der Turm“)

Der Beitrag erschien zuerst auf ACHGUT hier

 

Manfred Haferburg ist Autor des autobiografischen Romans „Wohn-Haft“ mit einem Vorwort von Wolf Biermann.

 




Wer bei der nächsten Wahl ans Klima denkt und an Demon­strationen teilnimmt, bekommt CO2-Kompen­sation gutge­schrieben

CO2 Fasten: Wegen des großen Erfolges wird die Aktion weitergeführt

Letztes Jahr wurde von der CO2-Fastenaktion berichtet. Dieses Jahr wird diese aufgrund des großen Erfolges und medialer Resonanz weitergeführt und ausgeweitet:
BR 24 14.02.2018: [2] Fastenzeit in Franken CO2-Fasten-Staffel geht in die zweite Runde
… Im vergangenen Jahr war es noch ein Experiment. Heuer geht sie mit deutlich mehr Teilnehmern in die zweite Runde: die CO2-Fasten-Staffel des Initiativkreises der Klimaschutzmanagerinnen und -manager der Metropolregion Nürnberg. Von Aschermittwoch (14.02.18) bis Karsamstag (31.03.18) stellen sich Fastende der Herausforderung, ihren persönlichen CO2-Ausstoß zu reduzieren …

Letztes Jahr fastete nur die Klimaelite, dieses Jahr auch Bürger

BR 24 14.02.2018: [2] … Die CO2-Fasten-Staffel ist ein Klimaschutzprojekt des Initiativkreises der Klimaschutzmanager/innen in der Europäischen Metropolregion Nürnberg (EMN), der dem metropolitanen Forum Klimaschutz und nachhaltige Entwicklung angegliedert ist. Im Initiativkreis sind 25 Kommunen und Landkreise sowie eine Arbeitsgemeinschaft und kirchliche Umwelt- bzw. Klimaschutzbeauftragte vertreten.
Plastikfrei und ohne Auto
Die Teilnehmer der
CO2-Fasten-Staffel wollen zeigen, dass es auf allen Ebenen und in allen Lebensbereichen des Alltags möglich ist, Klimaschutz aktiv zu leben. Das Ziel: Im Alltag so wenig CO2 wie möglich verursachen und herausfinden, in welchen Lebensbereichen sich ressourcenschonendes Verhalten umsetzen lässt. Die Herausforderung wird individuell gewählt. Beispielsweise verzichten die Fastenden auf das eigene Auto, kaufen plastikfrei ein, ernähren sich vegetarisch, tauschen anstatt zu kaufen oder verzichten auf den Wäschetrockner.

Dieses Jahr nutzen auch „ganz normale Bürger“ das spezielle Fasten, um (etwas bekannter zu werden und) Kompetenz beim Klimaretten zu zeigen.
BR: [2] Im vergangenen Jahr haben sich an der CO2-Staffel nur Klimaschutzmanagerinnen und -manager aus den Landkreisen beteiligt. In diesem Jahr sind auch Bürger der einzelnen Kommunen dabei.
Zum Beispiel aus der Politik: Landrat … genießt Gutes aus dem Fürther Land:
(Landrat) Für diesen Blogbeitrag ist jedoch vor allem das Thema CO2 relevant. Durch die kurzen Wege regionaler Produkte spart man sich sowohl für die Transportwege, als auch für die notwendigen Kühlungsvorrichtungen unterwegs CO2 …
… Der Winter ist wohl die schwierigste Jahreszeit um auf eine regional-saisonale Ernährung zu setzen. Vor allem, wenn man nicht selbst durch Einkochen und Einlagern vorgesorgt hat. Doch mit etwas Kreativität und Können lassen sich aus den regionalen Basics wie Nudeln, Mehl und Kartoffeln, frischen tierischen Produkten, eingelagerten Äpfeln und frischem Wintergemüse noch erstaunlich viele unterschiedliche Gerichte zaubern.
Ob der Landrat daran denkt, dass „frisches Wintergemüse“ in unseren Breiten fast nur aus einem beheizten Gewächshaus oder aus dem wärmeren Ausland kommt und eingelagerte Äpfel mit Kühlenergie und Begasung im „Winterschlaf“ gehalten wurden. Sowieso stellt sich die Frage, wie der Landrat Folgendes gemeint hat: „ … wer nicht selbst durch Einkochen und Einlagern vorgesorgt hat … “.
Macht seine Familie das wirklich für den gesamten Winter und meint, dass könnte doch wie zu alten Zeiten jede andere Familie auch machen (neben dem, dass kein moderner Keller und schon gar keiner, welche die Wärmedämmvorschriften erfüllt, dafür geeignet ist?)
Dazu der Eintrag eines Fachmannes, welcher eher belegt, wie problematisch Elektroautos sind, welche trotz Sonnenschein vier Tage zum vollen Aufladen benötigen. Eine Versorgung „strombedürftiger Nachbarn“ während dieser „Ladetage“ wäre vollkommen unmöglich (wird im „zellularen Netz“ jedoch immer als Vorteil propagiert). Ideell ist es trotzdem erfolgreich, denn man kann ja immer noch ein Backup-System (das andere bezahlen müssen) nutzen: Wenn im Winter wenig Solarstrom fließt, holt man sich den erforderlichen eben vom Kraftwerk:
Peter Ille, Geschäftsführer des Umweltbüros vom BUND Naturschutz in Bayreuth und langjähriger Umwelt- und Klimaschützer:
… Glück hatten wir aus Sicht unserer PV-Anlage die letzten Tage mit dem Wetter, auch wenn es vielen Menschen zu unangenehm war: Es war sonnig, kalt und klar. So hatten wir über Mittag Ende Februar praktisch volle Leistung von maximal 3 kW. 4 ½ Stunden Aufladen an der Steckdose brachte der Batterie 12 kWh, bei einer maximalen Kapazität von 41 kWh. Gleichzeitig hatte unser Dach genau 12 kWh erzeugt. Exportieren konnten wir in dieser Zeit deshalb natürlich nichts, und importiert haben wir 2 kWh von unserem Lieferanten, den
Stadtwerken Schönau, für den übrigen Verbrauch unseres Hauses … Dies war für uns durchaus ein Erfolg und das Ende Februar, zumal ja im Sommerhalbjahr deutlich mehr Strom erzeugt wird.

Erschütternder zu lesen sind Einzelschicksale, wie das Folgende:

Eine Klimasünderin will sich bessern

Titelte die Lokalzeitung des Autors und brachte über eine ganze Doppelseite den Bericht der Sünderin [3]. Einleitend erklärte die Klimasünderin (wohl eine Redakteurin) die Beweggründe ihres CO2-Fastens:
… „Der Ozean kommt näher, jeden Tag ein bisschen mehr. Das Salzwasser unterspült Häuser, macht den Boden unwirtlich und zerstört Stück für Stück eine ganze Kultur. Die Bewohner der Marshallinseln erleben seit Jahren, wie ihre Nation im Meer versinkt. In Afrika wechseln sich dagegen Überschwemmungen und Dürren ab, Millionen Menschen sind von Dürren und Hunger bedroht. Die Folgen des vom Menschen gemachten Klimawandels treffen, wie häufig, am Stärksten die ärmsten Regionen auf der Erde, obwohl diese zum Problem am Wenigsten beigetragen haben. Schuld daran ist, so erklären Expertenberichte, der Ausstoß des Treibhausgases CO2 … Und Schuld daran bin damit zum Teil auch ich durch mein Konsumverhalten … Um das Problem in den Griff zu bekommen, müsste der Ausstoß an Treibhausgasen nach Berechnungen des Weltklimarates drastisch gesenkt werden – bis zum Jahr 2050 auf unter zwei Tonnen pro Kopf …“
Diese Einleitung listet das vollständige Glaubensbekenntnis der Klimakirche. Wer es glaubt, muss sich persönlich betroffen fühlen und mit seinem Gewissen um Maßnahmen ringen.
Solche wurden auf der Doppelseite ausführlich beschrieben. Da sie sich nicht von den gängigen Varianten, welche im Internet kursieren [1] [2] unterscheiden und einzig und alleine auf einer Minimierung auch kleinster Mengen an CO2-Ausstoss bestehen, seien sie hier nicht wiederholt. Nur so viel: Eine Fachfrau von „KlimAktiv“ hält nichts von monetärer CO2-Kompensation: „ … bei vielen Klimaschutzprojekten sei Skepsis angebrachtNur wenn es nicht anders ginge, sind die Kompensationen eine gute Sache … “.

Und dazu recherchierte die „Klimasünderin“ auch Möglichkeiten, an die beim Thema „Klimafasten“ seltener gedacht wird:
… Es hilft, einfach weniger Geld auszugeben. Eine Reduzierung der Monatsausgaben von 450 EUR auf 350 EUR erspart 900 kg CO2 (jährlich). Auch bringt es viel: … wer bei der nächsten Wahl ans Klima denkt … oder an Demonstrationen teilnimmt … Auch das Bekennen zu den Zielen der Energiewende, oder die Bereitschaft, mehr für Energie zu bezahlen, und wer den Ausbau der Infrastruktur auch im persönlichen Umfeld akzeptiert ...

Der Autor fühlte sich beim Lesen spontan um 501 Jahre zurückversetzt. Eine fast identische Glaubens- und Argumentationskette war damals Anlass für Luthers Thesenanschlag. Dass einer Zeitungsredaktion und der Redakteurin diese Spiegelbildlichkeit nicht auffällt. Doch das psychologische Prinzip: Erzeuge Angst und liefere dazu gleich eine Lösung, für Betuchtere am besten verbunden mit monetären Ablassmöglichkeiten, funktioniert auch heute noch genau so gut wie damals:
Prinzip beibehalten, Begriffe austauschen, und das Geld der Klimasünder klingelt im Kasten von NGOs und Regierungen (CO2-Steuern).

Nur kann man sich heutzutage viel freier und leichter darüber informieren. Wenn man das Denken jedoch bedingungslos „Fachpersonen“ der Klimakirche überlässt, bemerkt man es eben auch 501 Jahre nach Martin Luther nicht:
Antwort der Redaktion einer Lokalzeitung auf eine frühere Beschwerde des Autors zur Klimaberichterstattung: … Wir sind kein Klima-Fachblatt, wir veröffentlichen Recherchen von Agenturen, Fachjournalisten und Einschätzungen von renommierten (!) Wissenschaftlern. Es ist ihr gutes Recht, dass alles für Humbug zu halten. Es ist aber auch unser gutes Recht, an der Reputation und der Motivation von Netzwerken wie „Eike“ zu zweifeln …

Renommierte Wissenschaft

Anbei eine Darstellung, was „renommierte Wissenschaft“ über Öffentlich-Rechtliche verbreiten lässt. Im BR-Artikel über das CO2-Fasten [2] gibt es einen Informationslink zur CO2-Gefahr:
BR24, 04.11.2017: Klimawandel Das CO2-Budget ist fast verbraucht So viel Kredit haben wir noch beim CO2-Ausstoß
Etwa 3.000 Gigatonnen CO2 darf die Menschheit produzieren, um das Zwei-Grad-Ziel zu erreichen. 2.000 Gigatonnen sind bereits verbraucht. Jahr für Jahr kommen 36 dazu. Für eine Trendwende bleibt nicht mehr viel Zeit …. Dieses CO2 ist nach dem gängigen Modell der Wissenschaft der Grund für, dass die mittlere Temperatur der Erde steigt. In den vergangenen 100 Jahren um etwa ein Grad. Bis zum Ende des laufenden Jahrhunderts könnte sich das – im ungünstigsten Fall – auf fünf Grad Celsius addieren. Das entspricht in etwa dem Unterschied zwischen einer natürlichen Eiszeit und einer Warmzeit. Damit wird deutlich, welche ungeheuren Auswirkungen solche Temperaturveränderungen haben können.

Wer sich nicht bei EIKE, kaltesonne und den weiteren, klimakritischen Seiten neutral informiert, kommt nicht umhin, diesen als gesichert vorgetragenen „Klimafakten“ zu glauben. Ein schlechtes Gewissen und die Bereitschaft, zur Klimaerlösung alles, vor allem auch viel Geld zu geben, folgen. Eine „schuldige Seele“ fühlt sich gerettet, die Retter leben überwiegend nicht schlecht davon, nur, ob es der Erde etwas nutzt ist äußerst zweifelhaft.
Vor 501 Jahren blieb wenigstens der (auch aus Ablassgeldern finanzierte) Petersdom als Kunstwerk übrig. Welche in 500 Jahren noch bestaunte Werke wird man künftigen Generationen aus dem CO2-Ablasshandel wohl hinterlassen?

Quellen

[1] EIKE 11.03.2017: Ist Ihre Bank ein Klimakiller? Dann soll sie durch Klimafasten bestraft werden…
[2] BR 24 14.02.2018: Fastenzeit in Franken CO2-Fasten-Staffel geht in die zweite Runde

[3] nordbayerische nachrichten, print-Lokalausgabe vom 17./18. März 2018: Eine Klimasünderin will sich bessern




Studie zeigt, dass die globale Erwärmung den Jetstream nicht verändern wird

Der Jetstream ist der Schlüssel für die Fähigkeit von Meteorologen, kurzfristige Wettermuster vorherzusagen und der Atmosphärenwissenschaftler Anthony Lupo und der Doktorand Andrew Jensen wollten sehen, ob das Hinzufügen von mehr Kohlendioxid in die Atmosphäre den Jetstream-Fluss beeinflussen würde.

 

[[ NASA,gov._Aerial Superhighway- Der polare Jetstream, wie Sie ihn noch nie gesehen haben

Die Visualization nutzt Wetter und Klimabeobachtungen von NASAs MERRA dataset, um den Wirbel des Jetstroms über Nordamerika für 30 Tage darzustellen]]

Nein, CO2 beeinflusst den Jetstream nicht. Lupo und Jensen untersuchten die Ergebnisse von Klimamodellen und fanden bis zu 35 Jetstream-Strömungsänderungen pro Jahr, ähnlich dem heutigen Klima. Die Wetterprognosen werden für die nächsten 10 bis 12 Tage zwischen den Änderungen des Jet-Streams gemacht, wodurch dieses Muster für die Wettervorhersage entscheidend ist.

„Dieser 10 bis 12-Tage-Zyklus wird sich nicht mit dem Klimawandel ändern“, sagte Lupo der Daily Caller News Foundation. Damit würden Wettervorhersagen in drei Jahrzehnten genauso vorhersehbar bleiben wie heute.

„Solange der Äquator wärmer und die Polarregionen kühler sind, werden wir diese Jetstreams haben. Sie könnten in Bezug auf ihre Geschwindigkeit schwächer werden, aber das kann passieren, egal wie sich die Erde erwärmt.“

Es berührt dieses Thema nicht direkt, jedoch hinterfragt Lupos Arbeit indirekt die Theorien, die vorgebracht haben, dass die globale Erwärmung den Jetstream „müder“ macht und zu beständigeren Blockierungen führt.

Die Klimawissenschaftlerin der Rutgers University, Jennifer Francis, eine Hauptvertreterin dieser Theorie, wurde in den Medien erwähnt, weil sie die jüngsten Kältewellen und Schneestürme in den östlichen Teilen der USA mit der globalen Erwärmung verbunden hat.

„Wenn dieses Muster vorhanden ist, werden sich wahrscheinlich Nord-Östliche Winde bilden, entlang der Grenze zwischen der kalten Luft und dem warmen Atlantik –  angetrieben durch die Dynamik im Fluss des Jetstreams entlang der Ostküste“, sagte Francis über den Winter Sturm „Grayson“, auf den das im Januar zutraf. „Wir können nicht sagen, dass dieser bestimmte Sturm durch die globale Erwärmung verursacht wurde, aber wir können sagen, dass das anhaltende Hochdruck / Tiefdruck-Muster, das ein Faktor für Nord-Östliche Winde ist, häufiger auftreten wird“.

In der Regel stimmen die Wissenschaftler dieser Theorie nicht zu, Anthony Lupo auch nicht:

 „Irgendwie kommt einem der Bezug zwischen Jetstream und Klimaerwärmung in Jennifer Francis Studie als gewollt vor, die dadurch mehr Erwähnung in den Medien findet als andere“

Lupos neue Studie befasst sich nicht mit den Auswirkungen, die die globale Erwärmung auf die Häufigkeit oder Intensität von Wetterereignissen haben könnte, sondern nur auf die zukünftige Vorhersagbarkeit von Jetstream-Strömen mit zusätzlichem atmosphärischem Kohlendioxid.

Lupo sagte, seine Studie ging nicht über die Mitte des 21. Jahrhunderts hinaus, um Vorhersagen so genau wie möglich zu machen.

NASA, Europäischer Jetstream (Textbeitrag)

Auf dieser Webseite finden Sie die Videoanimation Jetstream über Europa, mp4, [270 MB Größe, deswegen nicht eingeklinkt]

Erschienen auf The Daily Caller am 21.02.2018

Übersetzt durch Andreas Demmig

http://dailycaller.com/2018/02/21/global-warming-will-not-alter-jet-stream/

 

Auf Deutsch finden Sie das hier die Verbindung vom 22.11.2013:

http://www.spektrum.de/news/das-wetter-schlaegt-wellen/1214310




,Earth Hour‘ – eine Kampf­ansage an das gesamte Leben auf unserem Planeten

Bekanntlich sind ja die drei großen Säulen die Grundlage des Lebens auf unserer Erde Wasser, Sonnenlicht und Kohlenstoff. Letzterer steht dem Leben jedoch nur in gebundener Form als CO2 zur Verfügung. Die Natur musste also erst einmal Chlorophyll „erfinden“ und dann die Photosynthese. Das CO2 wurde dadurch aufgespalten in Kohlenstoff, den die Pflanze für sich behielt, und Sauerstoff, der in die Atmosphäre freigesetzt wurde.

Der Verbrauch von CO2 seitens der Pflanzen ist während der Jahrmilliarden der Entwicklung des Lebens inzwischen bis auf einen geringen Rest aufgebraucht – eingelagert in der Erde als sog. „fossile Treibstoffe“, zu einem noch weitaus größeren Teil gebunden in Kalkgestein. Dieser Kohlenstoff steht also dem Kreislauf des Lebens nicht mehr zur Verfügung. Die Natur selbst würde sich auf diese Weise selbst so nachhaltig „dekarbonisieren“, dass sie sich selbst den Ast absägt, auf dem sie sitzt. Dieser Gedanke ist aber auch nicht neu. Am Treffendsten hat dies Patrick Moore zum Ausdruck gebracht, der Mitbegründer von „Greenpeace“, zuletzt in seinem Interview hier auf der Website des EIKE.

Damit zurück zur ,Earth Hour‘ und der Absicht, damit ein Zeichen für ,Klimaschutz‘ zu setzen. Klima ist ja nichts weiter als die Summe von Wetter, und da erhebt sich natürlich die Frage, vor wem oder was man das Wetter eigentlich schützen will. Weiß da jemand eine Antwort? Der Autor dieser Zeilen weiß keine. Das CO2 kann nicht gemeint sein, denn unser Wetter kann unmöglich nur von einem einzigen Faktor abhängen, der noch dazu nur zu einem so winzigen Anteil in der Atmosphäre vertreten ist – 0,04% – 4 von 10.000 Teilen. Oder behauptet jemand, dass dies doch der Fall ist?

Wenn das nicht der Fall ist – was soll dann dieser idiotische Kampf gegen diese Grundlage unseres und des Lebens insgesamt?

Wer oder was kann eine ganze Gesellschaft (der westlichen Welt, heißt das) so nachhaltig einer so gründlichen Gehirnwäsche unterziehen, dass (fast) jeder ,Hurra‘ schreit, wenn es um den Kampf gegen das Leben überhaupt geht? Nicht einmal Terroristen welcher Couleur auch immer haben sich bislang die Vernichtung des gesamten Lebens auf ihre Fahnen geschrieben – wohl aber unsere Politiker und Medien, allen voran die „Süddeutsche Zeitung“.

Fazit: Um es dem Leben als Ganzes zu ermöglichen zu überleben, muss der gebundene Kohlenstoff wieder dem Kreislauf des Lebens hinzugefügt werden. Der Mensch ist die einzige Spezies auf der Welt, der dies zu leisten vermag. Und so schließt dieser Kommentar wie er begann: Wer dem Kohlendioxid den Kampf ansagt, der sagt dem Leben auf der Erde selbst den Kampf an! Was bitte schön ist daran moralisch?!

© Chris Frey, EIKE, März 2018

NACHTRAG: Vor diesem Hintergrund ist es eine gute Nachricht, dass der Erfolg dieser gemeingefährlichen Veranstaltung praktisch gleich Null war, wie Herr Limburg schon am 25.3. hier ausführte.




Seit Jahrzehnten schon, kühlt ein “Warmes Gebiet” den östlichen Teil der USA ab

Die Studie, die  von Trevor Partridge am Dartmouth College geleitet wurde, untersuchte Tausende von Wetter- und Regenstationen mit Daten, die bis ins Jahr 1901 zurückreichen, und ab 1961 Cluster saisonabhängiger Abkühlung in den östlichen USA.

[Michael Bastasch hat m.e. die o.g. Studie ungenau zitiert, so dass ich die folgende Information von dort nahm, der Übersetzer]

Inhalt aus der o.g. Studie, Abstrakt

Wir präsentieren einen neuartigen Ansatz zur Charakterisierung der raumzeitlichen Entwicklung der regionalen Abkühlung in den östlichen Vereinigten Staaten (allgemein als das US-Erwärmungsloch bezeichnet), indem wir eine räumlich explizite Grenze um den Bereich der hartnäckigsten Abkühlung definieren. Das Erwärmungsloch tritt nach einer Standortverschiebung im Jahre 1958 auf, bei dem das jährliche Maximum ( max ) und das Minimum ( min)  um 0,83 ° C bzw. 0,46 ° C gesunken sind. Das jährliche Warming-Hole-Loch besteht aus zwei verschiedenen saisonalen Modi, eine im Südosten der Vereinigten Staaten im Winter und im Frühjahr und die andere im mittleren Westen der Vereinigten Staaten im Sommer und Herbst. Eine Korrelationsanalyse zeigt, dass sich die saisonalen Modi in der Kausalität unterscheiden. Die Wintertemperaturen im Erwärmungsloch korrelieren signifikant mit dem Meridional Circulation Index, der Nordatlantischen Oszillation und der Pacific Decadal Oscillation. Die Variabilität der Zirkulationsmodi der Ozeane und der Atmosphäre reicht jedoch nicht aus, um die Sommertemperaturmuster des Erwärmungslochs zu erklären.

Text von o.g. Studie: Zusammenfassung in Umgangssprache

Das „Warming Hole“ der USA ist eine Region in den östlichen USA, die ab den späten 1950er Jahren einen breiten Temperaturrückgang erlebte. Das Erwärmungsloch unterscheidet sich grundlegend von den globalen Temperaturtrends, die seit 1880 ansteigen. Es gibt verschiedene Ideen, warum das Erwärmungsloch existiert, aber die meisten können die beobachteten Temperaturmuster nicht vollständig erklären. Interessanterweise gibt es auch Uneinigkeit über den Ort und das Timing des Erwärmungslochs, was zu der Schwierigkeit bei der Diagnose der Ursache beitragen kann. Hier analysieren wir seit 1901 Temperaturmuster und stellen einen neuen Weg dar, um den Ort des Erwärmungslochs zu definieren und dadurch einen Großteil der in früheren Studien beschriebenen Varianz in der Lage zu klären. Wir stellen fest, dass die Temperaturen im Erwärmungsloch mit Veränderungen der Klimaindizes über dem Pazifik und dem Atlantischen Ozean verbunden sind, die wahrscheinlich mit Veränderungen der Welligkeit des Jetstream über den Osten der USA zusammenhängen. Wir finden Hinweise darauf, dass der Jetstream in den späten 1950er Jahren zeitgleich mit dem Beginn des Erwärmungslochs eine Verschiebung zeigte, was zu einer stärkeren Tendenz von Nordwinden führte, kühle Luft in die südlichen Vereinigten Staaten zu bringen.

 * * *  Textfortsetzung vom Bericht M. Bastasch

„Diese Studie ist eine hervorragende Erinnerung daran, dass die Erde sich nicht gleichmäßig erwärmt hat und dieses auch im 21. Jahrhundert nicht erwartet werden kann, unabhängig einer anthropogenen Erderwärmung. Die Wissenschaftler betonen weiterhin die Bedeutung regionaler Erwärmungs- und Abkühlmuster, die von globalen Klimamodellen nicht genau reproduziert werden“,  sagt Ryan Maue, ein Atmosphären Wissenschaftler des libertären Cato Institute, der nicht an der Dartmouth-Studie beteiligt war.

Beginnend in den 1960er Jahren, sah der Osten der USA bis zum Jahr 2015 kühlere Durchschnittstemperaturen als der westlichere Teil der USA. Die Studie von Partridge führte die östliche Abkühlung auf eine Vielzahl von Einflüssen zurück, einschließlich Ozeanzyklen, Landnutzungsänderungen und Aerosole.

Dies steht im Einklang mit einer aktuellen Studie des Massachusetts Institute of Technology (MIT) zur sommerlichen Abkühlung im US-Maisgürtel. Diese Studie führte die Abkühlung auf erhöhte Luftfeuchtigkeit aus intensiverer Landwirtschaft zurück.

[[ Einschub: Der mittlere Westen erlebt eine sechs Dekaden lange Abkühlungsphase

Wissenschaftler des Massachusetts Institute of Technology (MIT) stellten fest, dass die Intensivierung der Landwirtschaft die Regionen des Mittleren Westens von 1950 bis 2009 real kühlte, was die Bedeutung der lokalen Landnutzung in klimatischen Veränderungen zeigt.

„Im 20. Jahrhundert erlebte der Mittlere Westen der USA einen regionalen Klimawandel, der besser mit dem übereinstimmt, was wir von Landnutzungsänderungen im Gegensatz zu anderen Antrieben erwarten würden“, sagte der MIT-Hydrologe Elfatih Eltahir. „… wesentliche Änderungen in den regionalen Temperatur- und Niederschlagsmustern, …aufgrund der Intensivierung der landwirtschaftlichen Betriebe. Jedes Mal, wenn Pflanzen durch Photosynthese Kohlendioxid einatmen, setzen sie etwas Feuchtigkeit frei.“

]]

Übersichtskarte. US Gov. NOAA – Anbaugebiete für Mais

Trevor  Partridge fand heraus, dass die Wintertemperaturen „signifikant mit dem Meridional Circulation Index (MCI), der Nordatlantischen Oszillation (NAO) und der Pacific Decadal Oscillation (PDO)“ – den natürlichen Ozeanzyklen – korrelierten.

Aber Ozeanzyklen allein, können nicht erklären, warum sich die Sommer im Osten abgekühlt haben, so die Studie von Partidge.

Die Studie deutete auch an, dass Änderungen der Landnutzung und Aerosole wahrscheinlich am Werk sind, aber sie nehmen an, dass eine Verschiebung des Jet-Stroms  in den späten 1950er Jahren dazu geführt hat, dass kalte arktische Luft in den Südosten der USA getrieben wurde. [Ende Dezember 2017: Es ist so kalt, das Haie im Wasser erfroren sind, hier auch in der Berliner Zeitung]

Das „Erwärmungsloch“ tritt seit den frühen 1960er Jahren in den östlichen USA auf und besteht bis heute, so die Studie.

„Solche regionalen Temperaturänderungen sind nicht unerwartet, da andere Faktoren wie Änderungen der Landnutzung und landwirtschaftliche Bewässerung bekanntlich das lokale Klima beeinflussen. Diese Studie bietet einige interessante Diagnosen und wahrscheinliche Korrelationen mit den Hauptatmosphären-Ozean-Klimamodi wie PDO und NAO“, sagte Maue.

Erschienen auf The Daily Caller am 19.02.2018

Übersetzt durch Andreas Demmig

http://dailycaller.com/2018/02/19/warming-hole-cooled/




Earth hour: Spurlos im Stromverbrauch

Die Earth Hour, gestern von 20:30 bis 21.30 Uhr – eine Erfindung des Medienkonzerns des WWF (Wordwide Fund for Wildlife) zur Generierung von Spenden, mit viel PR Unterstützung, insbesondere seitens der Mainstream Medien, propagiert, hinterließ keine erkennbaren Spuren im deutschen Stromverbrauch.

Weltweit wohl auch nicht. Jedenfalls auch nicht im grünen Kalifornien

Insofern gleicht er den Bemühungen der Signatar-Staaten des Pariser Abkommens mit ihren Versprechungen zur Senkung ihrer Treibhausgas-Emissionen irgend einen erkennbaren Einfluss auf das Weltklima zu nehmen.

Trotzdem trauen sich die Schönredner des WWF ihre vergeblichen Bemühungen zum weltweiten Erfolg hoch zu reden.

So liest man auf der WWF – Website mit Erstaunen ob ihrer Realitätsverweigerung:

Die Earth Hour ist die größte Klimaschutzaktion der Welt. Am 24. März war es wieder soweit: Licht aus für einen lebendigen Planeten.

Earth Hour 2018: Teilnehmerrekord für einen lebendigen Planeten

Millionen Menschen rund um den Globus haben am 24. März 2018 an der weltgrößten Klimaschutzaktion, der WWF Earth Hour, teilgenommen. Pünktlich um 20.30 Uhr Ortszeit wurde für eine Stunde lang das Licht ausgeschaltet, um ein Zeichen gegen den Klimawandel und das weltweite Artensterben zu setzen.Niemals zuvor haben mehr Menschen an der Earth Hour teilgenommen. Allein in Deutschland zeigten fast 400 Städte ihr Engagement für einen lebendigen Planeten und schalteten für eine Stunde das Licht aus. Insgesamt verschwanden über 7000 Wahrzeichen in mehr als 180 Ländern im Dunkeln.

Auch im Land der tagträumenden Klimaschützer – also hierzulande-  jedenfalls, hinterließ die einstündige Abschaltung sonst gewohnter Beleuchtung keinerlei Spuren, außer in den Berichten von heute, Tagesschau und anderen Medienformaten. Wie gewohnt zeigten sie uns des Kaisers neue Kleider.

Es entbehrt auch nicht einer gewissen Ironie, dass ausgerechnet die USA unter ihrem Gottseibeiuns der Klimalarmisten Präsident Donald Trump ihre CO2 Emissionen am drastischsten  senken konnten.

Und damit für 2017 die Weltbeste „Klimabilanz“ vorlegten.

Und noch schlimmer muss es für die Säulenheiligen der Klimakirche und der Poltischen Korrektheit gewesen sein, als sie erfuhren, dass dies ausgerechnet auf die intensive Nutzung der Fracking Technik zurückzuführen ist.




Windunternehmen in Schottland macht pleite, nachdem die UK-Regierung Subventionen gekürzt hat

Das Unternehmen verlagerte seinen Betrieb vor sieben Jahren von Schottland nach Dänemark. Es hatte Kunden in verschiedenen Ländern, darunter Tonga, Australien und Italien.

Vor ein paar Tagen hat der einstweilige Insolvenzverwalter, das in Aberdeen ansässige Unternehmen Meston Reid and Co. gesagt, dass man nach einem Käufer suche in dem Bemühen, das gesamte Unternehmen oder Teile desselben zu erhalten und 12 Arbeitsplätze zu sichern.

In einer Verlautbarung von Michael Reid von der Firma Meston Reid and Co.heißt es, dass Kürzungen von Subventionen für Erneuerbare, eingeführt von Westminster im Jahre 2015, sowie das Ende der Subventionierung von Windparks auf dem Land dem Unternehmen Probleme beschert.

In der Verlautbarung liest man: „Obwohl Gaia-Wind eine lange und erfolgreiche Historie in dem Industriebereich hat, sorgte der Wettbewerbsdruck in Dänemark für einen Rückgang der Verkäufe im vorigen Jahr. Die Kürzungen seitens der UK-Regierung während der letzten Jahre taten ein Übriges.

Obwohl ein Ende 2017 vorgelegter Masterplan eine durchführbare Grundlage zum Überleben darstellte, haben die kürzlich erfolgten drastischen Subventions-Kürzungen seitens der Regierungen in Japan und Italien für kleinere Windturbinen zu einem dramatischen Einbruch bei den Auftragsbüchern für jene Märkte geführt. Vor den Herausforderungen dieser Umstände in jedem einzelnen Marktbereich musste der Vorstand die unglückliche Entscheidung treffen, dass dem Unternehmen keine andere Option bleibt als den Handel einzustellen“.

Johnnie Andringa, Direktor von Gaia-Wind sagte, die Berufung eines Insolvenzverwalters war der „letzte Ausweg“.

Ganzen Beitrag lesen

Link: https://www.thegwpf.com/scottish-wind-company-goes-bankrupt-as-uk-govt-cuts-green-subsidies/

Übersetzt von Chris Frey EIKE




Experimen­telle Verifi­kation des Treibhaus­effektes Teil 1: Die gegen­seitige Beein­flussung von Wolken und Treibhaus­gasen

Einführung

(an english version is provided hereEN – Experimental verification of the greenhouse effect)

Die ersten Erklärungsversuche des CO2-Treibhauseffektes wurden von der IR-Absorptions-Spektroskopie abgeleitet. Bei dieser Messmethode wird ein IR-Lichtstrahl aus einer Strahlungsquelle hoher Energiedichte durch eine mit CO2 gefüllte Küvette geleitet, wobei eine Schwächung seiner Intensität festgestellt wird. Dabei führt die von CO2 absorbierte Energie zu einer leichten Erwärmung der Küvette. Überträgt man diese Messmethode auf die Erde, ist die Erdoberfläche die Strahlungsquelle und die Atmosphäre ist die Küvette mit einem gewissen CO2-Gehalt.
In der Klimaforschung ist es üblich, die Atmosphäre als Ganzes zu betrachten und mit einem Emissions-Spektrometer von einem Satelliten (Upwelling Radiance, TOA = top of the atmosphere) die atmosphärische IR-Ausstrahlung zu messen. Bei der Interpretation dieser Spektren darf jedoch nicht übersehen werden, dass rund 60 % der Erdoberfläche von Wolken oder Dunst bedeckt sind und sie die größten Unsicherheiten bei der Klimamodellierung verursachen (1).

Wolken behindern die IR-Ausstrahlung der Erde durch Reflektion, Streuung, Absorption und Re-Emission. Zusätzlich können Energieströme durch Phasenübergänge (latente Wärme), Turbulenzen, Luftströmungen, Fall- und Aufwinde beeinflusst werden. Eine Laborapparatur wird all diese Einflussgrößen nicht simulieren können, sollte aber zumindest zwei Flächen mit verschiedenen Temperaturen, für die Erdoberfläche und für eine Wolkenschicht, enthalten. Einfache Vorrichtungen, die wie ein Gewächshaus von außen bestrahlt wurden, werden dieser Anforderung nicht gerecht. Transparente aber geschlossene Räume erwärmen sich bei Sonnenbestrahlung, weil sie hauptsächlich das Entweichen der erwärmten Innenluft verhindern (2), (3).
Eine Wolkenschicht ist in der Regel kälter als die Erdoberfläche und kann deswegen Energie von der Erde durch IR-Strahlung, Wärmeleitung, Konvektion und Evapotranspiration empfangen. Das neue Konzept zur Verifikation des Treibhauseffektes orientiert sich an der Energieübertragung, die durch IR-Strahlung erfolgt. Die Versuchsapparatur enthält als IR-Sender eine warme und als IR-Empfänger eine kalte Fläche mit den gleichen Temperaturen, die auch typisch für Erde und Wolken sind. In dieser ersten Mitteilung wird nur die IR-Strahlung von der kalten zu der warmen Fläche untersucht. Da diese Strahlungsrichtung dem vorherrschenden Energietransport von warm nach kalt widerspricht, wird sie auch als Gegenstrahlung bezeichnet. Die warme Fläche, Erd-Platte genannt, wird von dieser IR-Bestrahlung (Gegenstrahlung) beeinflusst und steht im Mittelpunkt der Untersuchung. Die Apparatur simuliert eine Erdoberfläche unter Wolken und kann somit als ein Modell der erdnahen Atmosphäre betrachtet werden. Wird die Röhre mit IR-aktiven Gasen gefüllt, kann ein möglicher Treibhauseffekt dieser Gase unter naturnahen Bedingungen untersucht werden.

Eine völlig andere Methode zum experimentellen Nachweis des Treibhauseffektes geht vom Aufbau eines IR-Spektrometers aus (4). Schon der Titel „Absorption thermischer Strahlung durch atmosphärische Gase“ verrät, dass hier nicht die IR-Strahlung, sondern nur die Absorption der Treibhausgase studiert wird, die durch eine Erwärmung charakterisiert ist. Diese bei vielen Experimenten beobachtete Erwärmung CO2-haltiger Luft war ursprünglich eine „einfache“ Erklärung für die relativ hohen Erd-Temperaturen. Das hat sich allerdings weitgehend gewandelt. Die Erkenntnis, dass der größte Teil der IR-Ausstrahlung in das Weltall nicht von der Erdoberfläche, sondern von der Atmosphäre ausgeht, führte zu einem neuen Verständnis der Wärmeströme. Heutige Klimamodelle gehen von einer IR-Ausstrahlung von 240 W/m2 am Oberrand der Atmosphäre (TOA) aus (5). Nach dem IPCC hat CO2 diese Strahlungsbilanz beeinflusst, was als Strahlungsantrieb, eine von außen wirkende Kraft (radiative forcing, RF), bezeichnet wurde. Die Veränderung dieses Strahlungsantriebs dF wurde durch ein logarithmisches Verhältnis der CO2-Konzentration C (in ppm) zu einer vorindustriellen Konzentration C0 von 280 ppm beschrieben.

Gleichung 1: CO2-Strahlungsantrieb: dF = 5,35 ∙ ln(C/C0) W/m2

Nach der differentiellen Form des Stefan-Boltzmann Gesetzes (dT = dS/S/4 ∙ T) errechnet sich eine Temperaturerhöhung von 1,11 K pro CO2-Verdoppelung (IPCC-Basiswert = CO2-Klimasensitivität), allerdings ohne Berücksichtigung von Wolken, Wasserdampf und Rückkopplungen (6).

Gleichung 2: CO2-Klimasensitivität: dT = 5,35 ∙ ln(2)/240/4 ∙ 288 = 1 ,11 K

NASA-Satelliten messen oberhalb der Atmosphäre (TOA) neben der IR-Strahlung von 240 W/m2 eine Sonnenreflektion von 101 W/m2 (= 30 % der 341 W/m2 Sonneneinstrahlung, Albedo=0,3). Diese Werte führten zu der These, dass eine Erde ohne Atmosphäre eine Temperatur von – 18 °C hätte (Abbildung 1, A) und angeblich durch Treibhausgase um 33 K auf eine Temperatur von + 15 °C erwärmt wird1.

Abbildung 1: Energiebilanzen (W/m²) und Erd-Temperaturen (°C): Sonnenstrahlung (rot), IR-Strahlung (blau), Wasserverdunstung (grau) mit/ohne Wolken; Albedo 101 (A – C) bzw. 51 (D) W/m²

Eine Rechnung mit einem Schönheitsfehler, die „nackte“ Erdoberfläche hat nur eine Albedo von 0,15 = 51 W/m2 (7), (8), (9). Die 30%ige Reflektion (sphärische Albedo, gemessen vom Satelliten) wird nur zusammen mit den Wolken erreicht. Die Bezeichnung „Erde ohne Atmosphäre“ erweist sich als falsch und müsste korrekt „Erde mit Wolken“ heißen. Mit Hilfe der Wolken konnte man die Erd-Albedo (Erdkühlung) von 51 auf 101 W/m2 verdoppeln, wodurch der Erd-Input auf 240 W/m2 reduziert wurde und – 18 °C nach Fußnote 1 erhalten wird. Wenn man schon die „kalte“ Seite der Wolken in die Strahlungsrechnung mit aufnimmt, sollte man aber auch ihre IR-Emissionen, ihre erwärmende Seite, berücksichtigen. Ein Gedankenexperiment (Abbildung 1, B + C) zeigt, die Fragwürdigkeit eine „Erde mit Wolken, Albedo = 0,3“ berechnen zu wollen. Folgt man nur der Logik eines reinen Strahlungsaustausches nach Abbildung 1 B, so hätte eine Erde, die vollständig von Wolken bedeckt ist eine Temperatur von 30 °C (vorausgesetzt man billigt einer Wolkenschicht von -18 °C eine IR-Strahlung von 240 W/m2 zu, die sie in alle Richtungen gleichmäßig aussendet). Diese Rechnung ist unrealistisch, da sie als reine Strahlungsrechnung die Energieströme ignoriert, die zur Bildung von Wolken aber dazugehören. Ein realistischer Wert für eine „Erde mit Wolken“ wäre + 8 °C, wenn Wasserverdunstung und Wolkenbedeckungsgrad berücksichtigt werden2!
Die Strahlungsrechnungen offenbaren aber auch eine Überraschung! Wolken haben ein ähnliches Strahlungsverhalten wie Treibhausgase (9)! Sie lassen rund 85 % des Sonnenlichtes passieren (15 % werden reflektiert, Wolkenalbedo = 0,15; Absorption soll vernachlässigt werden, rote Pfeile), aber nicht das IR-Licht, das sie viel stärker absorbieren, streuen und emittieren (blaue Pfeile). Wolken und IR-Gase sind gemeinsame Komponenten des Treibhauseffektes mit vergleichbaren aber auch unterschiedlichen Eigenschaften. IR-Gase absorbieren nur bestimmte Wellenlängen des IR-Lichtes, dafür sind sie aber gleichmäßiger in der Atmosphäre verteilt. Wolken, die nur einen Teil der Erde bedecken, können jedoch als Schwarz-Strahler alle Wellenlängen des IR-Lichtes absorbieren. Im Unterschied zu IR-Gasen bewirken sie durch eine Reflektion der Sonnenstrahlen aber auch eine Kühlung der Erde, was ihre Beurteilung so schwierig macht.
Das Gedankenexperiment zeigt, dass für eine „Erde mit Wolken “ (Abbildung 1, B + C) verschiedene, aber vor allem sehr hohe Temperaturwerte erhalten werden. Die Rechnung nach Abbildung 1, A ist eine bewusste Täuschung der Öffentlichkeit mit der Absicht, den Treibhausgasen eine möglichst große Wirkung von 33 K zuzuschreiben.
Dabei wäre eine ehrliche, eindeutige Rechnung mit der „nackten Erde“ durchaus möglich gewesen, denn ihre Albedo = 0,15 (51 W/m2) ist bekannt (9) und hätte einen Temperaturbereich von – 3 °C (ε = 0,96) bis – 6 °C ergeben (ε = 1, Abbildung 1, D). Die tatsächliche, rund 20 K höhere Erd-Temperatur von + 15 °C ist die Folge verschiedener Einflussgrößen eines Wasserplaneten mit seinen Wolken, Treibhausgasen, seiner Wasserverdunstung und Strömungen der Atmosphäre. Der Beitrag der Treibhausgase an dieser Temperaturerhöhung ist noch zu bestimmen, ist aber auf jeden Fall deutlich kleiner als 20 K3.

Üblicherweise wird der CO2-Anstieg als Ursache und nicht als Folge einer Erderwärmung erklärt. Wird das aber in Fragegestellt, ergeben sich andere Interpretationen. So wurden auch Wolkenveränderungen durch kosmische Ereignisse als primäre Ursache von Temperaturschwankungen angenommen (10). Ebenfalls könnte auch ein geringerer, vom Menschen verursachter Wolkenbedeckungsgrad (Feinstaubminderung durch Rauchgasfilter) eine Erwärmung ausgelöst haben (11). In diesen Fällen wäre die CO2-Zunahme seit 1750 auch als Folge dieser Erderwärmung zu erklären.

Beschreibung des Versuchsaufbaus

Die verwendete Apparatur besteht aus einer senkrecht stehenden Aluminiumröhre mit einem Volumen von 107 Litern und zwei domartigen Enden (Abbildung 2). In ihr befinden sich zwei 1,11 m entfernte Platten unterschiedlicher Temperatur. Die obere Platte (Erd-Platte) ist sowohl IR-Sender als auch Empfänger einer IR-Bestrahlung (Gegenstrahlung) und wird durch eine elektrische Heizfolie auf konstante 16,1 °C geregelt. Während eines Versuches wird die elektrische Leistung aufgezeichnet, die für eine konstante Temperatur der Erd-Platte benötigt wird.
Die untere Platte (Aerosol-Platte) kann durch eine integrierte Kühlschlange und ein externes Kälteaggregat bis -20 °C gekühlt werden. Diese Platte ist der Empfänger der IR-Ausstrahlung am Ende der Röhre und simuliert gleichzeitig die IR-Strahlung von Wolken/Aerosolen. Auf ihr befinden sich 5 Peltier-Elemente, die die IR-Ausstrahlung registrieren. Beide Platten besitzen einen Temperatursensor, dessen Werte über einen A/D-Wandler an einen Computer weitergeleitet werden.
Die warme und die kalte Fläche befinden sich in einer Aluminiumröhre, deren Wand zu einer dritten, unerwünschten Strahlungsfläche wird. Die Atmosphäre hat für diese Fläche keine Entsprechung. Dadurch entstand zunächst die Aufgabe, den Einfluss dieser Wand, ihre Wechselwirkung mit den anderen Strahlungsflächen zu verstehen, bevor mit den Messungen der IR-Gas-Strahlungen begonnen werden konnte. Aus Sicht der Erd-Platte ist die Wand der Aluminiumröhre ein Vordergrund-Strahler und die kalte Aerosol-Platte ist eine Wolkenschicht, die eine Hintergrund-Strahlung erzeugt.
Die Wand der Röhre und des oberen Doms ist mit Schläuchen umwickelt, die von zwei unabhängigen Thermostaten mit konstanter Wassertemperatur versorgt werden. Die Erd-Platte befindet sich dadurch in einer Wärmezone ähnlicher Temperaturen, die den körperlichen Wärmefluss von der Erd-Platte zu ihrer Umgebung minimiert. Die Temperatur des Innenraumes der Röhre wird alle 25 cm, beginnend mit Tp1 im oberen Dom, mit vier digitalen Einstichthermometern (Tp1 -Tp4) gemessen und wird manuell protokolliert. In diesem Bereich bildet sich von oben nach unten ein negativer Temperaturgradient von ca. 1 °C. Dadurch wird eine Thermik (Konvektion) der Innenluft in der senkrechtstehenden Apparatur verhindert.

Abbildung 2: Links: Schematischer Aufbau des Experimentes; Rechts: von oben nach unten: Erd-Platte, Aluminiumröhre und Aerosol-Platte

Abbildung 3: Heizfolie unter der Erd-Platte; thermische Isolierung oberer Dom und Seitenwand; Schlauchumwicklung der Röhre

Das Strahlungsverhalten aller beteiligten Flächen

Der Innenraum der Versuchsapparatur enthält drei Flächen, Erd-Platte, Seitenwand und Aerosol-Platte, die IR-Strahlen aussenden können. Grundsätzlich gilt, dass jeder Punkt dieser Flächen IR-Strahlung in einem Raumwinkel von 0 – 180° aussendet1. Alle drei Flächen tauschen untereinander IR-Strahlen (Photonen) aus, wodurch Energie übertragen wird.
Abbildung 4 zeigt die Bestrahlung der Erd-Platte durch die Aerosol-Platte, wobei Erd-Platte und Wand immer die gleiche Temperatur haben. Die Aerosol-Platte ist ein Hintergrund-Strahler mit der IR-Ausstrahlung MH. Seine Photonen können die Erd-Platte auf direktem Wege oder durch (mehrfache) Reflektion an den verspiegelten Wandflächen erreichen. Ein Teil der HG-Strahlung MH wird jedoch von der Wand absorbiert (Strichlinie) und erreicht nicht die Erd-Platte. Die Aerosol-Platte trägt nur mit einem Teil ihrer Ausstrahlung MH zur Bestrahlung der Erd-Platte bei. Dieser Anteil wird effektive Hintergrund-Strahlung EH genannt.
In Abbildung 4 A ist die Aerosol-Platte (blau) kälter als die Wand (TpH < TpV). Die IR-Strahlung der Wand EV (roter Pfeil) ist größer als die absorbierte Energie von der Aerosol-Platte (blauer Strichpfeil). Die Wand ist hier ein Vordergrund-Strahler (Buchstabe „V“) und muss zusätzlich von außen geheizt werden (Wandheizung QV, Energie für den Vordergrund), um den Energieverlust auszugleichen2.
In Abbildung 4 B haben alle drei Flächen die gleiche Temperatur. Es gilt das Kirchhoffsche Gesetzt, wonach die absorbierte Strahlung der Aerosol-Platte (rot) und die emittierte Strahlung der Wand EV gleich groß sind. Die Bestrahlung der Erd-Platte durch die Aerosol-Platte wird de facto nicht behindert (adiabatischer Strahlungstransport). Die Wand benötigt keine Energiezufuhr, sie ist energetisch neutral.

1Die IR-Ausstrahlung dieser Flächen wird im Folgenden mit „M“ und die Bestrahlung mit „E“ bezeichnet.

2Der Energiestrom der von Thermostaten regulierten Wandheizungen QV wurde nicht bestimmt.

Abbildung 4: Bestrahlung der Erd-Platte durch die Aerosol-Platte: A: TpH < TpV; B: TpH = TpV

Es soll die Energiebilanz der Erd-Platte ermittelt werden. Jeder feste (und flüssige) Körper mit einer Temperatur > 0 K sendet IR-Strahlen aus, die sich nach Stefan-Boltzmann berechnen lassen. Die IR-Ausstrahlung der Erd-Platte ME ist mit einem Energieverlust verbunden. Für eine konstante Temperatur muss der Erd-Platte die gleiche Energiemenge wieder zugeführt werden, die sie durch ihre IR-Emission verloren hat. Die Energiezufuhr erfolgt durch IR-Bestrahlung EG („G“ = Gegenstrahlung = Summe der IR-Strahlungen von Wand EV(Wand) und Aerosol-Platte EH) und Heizung der Erd-Platte QE (Gleichung 3).

Gleichung 3: Energiebilanz der Erd-Platte: ME = EG + QE; EG = EV(Wand) + EH ; ME = EV(Wand) + EH + QE

Die effektive Hintergrundstrahlung der Aerosol-Platte EH

Die Bestrahlung der Erd-Platte durch die Aerosol-Platte soll durch ein Abkühlungs-Experiment (Response-Versuch) untersucht werden.
Versuchsbeschreibung: Die Temperaturen der beiden Thermostate und des Kühlaggregates für die Aerosol-Platte wurden auf 16 °C eingestellt. Die Erd-Platte zeigte dabei eine Temperatur (TpE) von 16,09 °C an. Die elektrische Heizung QE (Indikator der Gegenstrahlung) und die elektrische Spannung der Peltier-Elemente UH (Indikator der Ausstrahlung der Röhre) waren nahezu Null. Danach wurde die Temperatur des Kühlaggregates in fünf Schritten auf -24 °C gesenkt, wodurch sich die Temperatur der Aerosol-Platte TpH auf -19,58 °C verringerte. Die Heizung der Erd-Platte QE musste kontinuierlich erhöht werden, um eine konstante Temperatur der Erd-Platte TpE sicherzustellen (Tabelle 1).

Tabelle 1: Response-Versuch (Nr. 145) ohne IR-Gase

TpE, TpH = Temperaturen der Erd-, Aerosol-Platte und der Wandthermometer Tp1 bis Tp4
QE = Heizung der Erd-Platte, UH = Spannung, die von den Peltier-Elemente auf der Aerosol-Platte erzeugt wird

Abbildung 5: Ermittlung der effektiven HG-Strahlung der Aerosol-Platte EH (blaue Linie)

Auswertung (Abbildung 5): Die Temperatur der Aerosol-Platte wird als X-Achse in der Form von T4/108 aufgetragen6. Die theoretische IR-Ausstrahlung der Aerosol-Platte MH (schwarze Linie) wird nach dem Stefan-Boltzmann-Gesetz (ε = 1) berechnet. Beim Abkühlen der Aerosol-Platte von TpH = + 16 auf -20 °C wurde die elektrische Heizung QE(TH) fünfmal erhöht (rote Linie). Sollte die Aerosol-Platte weiter abgekühlt werden (rote Strichlinie), ließe sich aus der Trendlinie QE = -4,2319 ∙ TH + 294,87 die hierzu nötige Heizung der Erd-Platte QE berechnen. Bei TH = 0 K (absoluter Nullpunkt) müsste die Heizung QE demnach 295 W/m2 betragen. Da bei dieser Temperatur die Aerosol-Platte keine IR-Strahlung erzeugt, lässt sich nun Gleichung 3 in Gleichung 4 überführen und die Vordergrund-Strahlung der Wand EV zu 102,0 W/m2 (grüne Linie) berechnen. Dabei wurde eine IR-Ausstrahlung der Erd-Platte ME nach Stefan-Boltzmann zu 397 W/m2 zugrunde gelegt.

Gleichung 4: Strahlung der Wand EV (TH = 0 K): ME = EV + QE(TH=0)

EV = ME – QE(TH=0)

EV = 396,87 – 294,87 = 102,0 W/m2

Die effektive HG-Strahlung der Aerosol-Platte EH(TH) (blaue Linie) wird nach Gleichung 5 aus dem Anstieg der Trendlinie dQE/dTH berechnet.

Gleichung 5: Effektive HG-Strahlung EH(TH): ME = EH(TH) + EV + QE(TH)

EH(TH) = ME – EV – QE(TH)

EH(TH) = dQE /dTH ∙ TH

Von der theoretischen Ausstrahlung der Aerosol-Platte MH erhält die Erd-Platte nur einen gewissen Anteil EH (die effektive HG-Strahlung), da ein Teil der Photonen von der Wand absorbiert wird (schwarze vs. blaue Linie).
Das Experiment zeigt aber auch, dass die Erd-Platte von der Aerosol-Platte Energie EH erhält, obwohl letztere eine kleinere Temperatur TpH < TpE hat. Die Bestrahlung der Erd-Platte durch die Aerosol-Platte ist keine Verletzung des 2. Hauptsatzes der Thermodynamik, da letztlich der totale Wärmestrom weiterhin stets von der warmen Erd-Platte zur kalten Aerosol-Platte fließt, was an Heizung bzw. Kühlung beider Platten erkannt werden kann.

Es liegt in der Natur der „Response-Versuche“, dass die umgekehrte Strahlungsrichtung, die IR-Bestrahlung der Aerosol-Platte, nicht ausgewertet werden kann. Durch die schrittweise Abkühlung der Aerosol-Platte überlagern sich Bestrahlung und mechanische Wärmeströme (Diffusion und Wärmeleitung) und werden nur als Summe UH von den Peltier-Elementen auf der Aerosol-Platte angezeigt. Die Bestrahlung der Aerosol-Platte lässt sich jedoch ermitteln, wenn die Emissionsgrade von Treibhausgasen bei konstanten Temperaturen aller beteiligten Flächen bestimmt werden. Worüber gesondert berichtet werden soll.

Die effektive Hintergrundstrahlung EH in Gegenwart von Propan

Um die gemeinsame IR-Strahlung von Wolken und erdnahen IR-Gasen zu erforschen, wurden zwei Response-Versuche in Gegenwart von 1,3 bzw. 60 Vol.-% Propan (IR-aktives Modell-Gas) durchgeführt (Abbildung 6). In Gegenwart von Propan verringert sich die notwendige Heizung der Erd-Platte QE (rote Linien). Aus den beiden Trendlinien QE werden, wie im Kapitel Die effektive Hintergrundstrahlung der Aerosol-Platte EH beschrieben, die VG-Strahlung EV (grüne Linien, nach Gleichung 4) und die effektive HG-Strahlung der Aerosol-Platte EH (blaue Linien, nach Gleichung 5) erhalten.
Die Erhöhung der Propan-Konzentration verursacht gegenläufige Veränderungen. Einerseits erhöht sich die VG-Strahlung EV von 130 auf 272 W/m2 (grüne Linien)7, und andererseits verringert sich die effektive HG-Strahlung der Aerosol-Platte dEH/dTH von 3,88 auf 1,81 (blaue Linien). Propan absorbiert die Photonen der Aerosol-Platte (HG-Strahlung) und ersetzt sie durch eigene IR-Emissionen. Der tatsächliche Einfluss der Aerosol-Platte (blaue Linie) auf die Heizung der Erd-Platte QE verringert sich, obwohl ihre eigentliche Ausstrahlung MH (schwarze Linie) unverändert ist. Aus Sicht der Erd-Platte wird die Hintergrund- von der Vordergrund-Strahlung des Propans verdeckt.
Dieses Phänomen ist die Ursache, dass der Weltklimarat glaubt, dass der Beitrag der Wolken zum erdnahen Treibhauseffekt nur 30 W/m2 beträgt (9). Dabei wurde die tatsächliche, fast zehnmal stärkere HG-Strahlung der Wolken MH übersehen. Das hat letztlich dazu geführt, dass die Relativierung des Treibhauseffektes durch Wolken nicht erforscht wurde8.

Abbildung 6: Verringerung der effektiven HG-Strahlung der Aerosol-Platte E<sub>H</sub> durch Propan

Tabelle 2: Response-Versuch (Nr. 212) in 1,3 Vol.-% Propan

Tabelle 3: Response-Versuch (Nr. 156) in 60 Vol.-% Propan

Die Relativierung der Propan-Strahlung

Die gemeinsame Bestrahlung der Erd-Platte EG von nunmehr drei Strahlungsquellen (Wand, Propan und Aerosol-Platte) ergibt sich aus der Summe der beiden VG-Strahler (EV(Wand) und EV(Propan)) und der effektiven HG-Strahlung der Aerosol-Platte EH(TH) (Gleichung 6).

Gleichung 6: Bestrahlung der Erd-Platte EG: EG = EV(Wand) + EV(Propan) + EH(TH)

Durch die zusätzliche VG-Strahlung des Propans EV(Propan) erhöht sich die Bestrahlung der Erd-Platte EG (Abbildung 7, rote Linien), wodurch sich die Strahlungskühlung der Erd-Platte PE (die Differenz von ihrer IR-Ausstrahlung ME und ihrer IR-Bestrahlung EG) verringert (Gleichung 7).

Gleichung 7: Strahlungskühlung PE: PE = ME – EG

Setzt man in Gleichung 7 für ME den Ausdruck EG + QE (aus Gleichung 3) ein erhält man Gleichung 8.

Gleichung 8: PE = EG + QE – EG; => PE = QE

Die Übereinstimmung von Strahlungskühlung PE und Wärmezufuhr QE ist ein grundlegendes Prinzip für den Gleichgewichtszustand einer warmen Fläche, die IR-Strahlung abgibt. Eine Fläche kann im Gleichgewicht nur so viel Energie durch IR-Strahlung abgeben wie ihr auf anderem Wege zugeführt wird (PE = QE). Verringert sich die Strahlungskühlung PE (wie bei den Propan-Versuchen) muss für eine konstante Temperatur der Erd-Platte die Wärmezufuhr QE adäquat verringert werden.
Setzt man aber bei der realen Erde eine konstante Wärmezufuhr QE durch Sonneneinstrahlung voraus, würde eine stärkere Bestrahlung der Erdoberfläche EG (durch Treibhausgase) zunächst PE verkleinern. Die Erde müsste sich erwärmen um nach Gleichung 7 durch einen Anstieg der Erd-Ausstrahlung ME die Gleichheit von PE und QE wieder herzustellen9.
Mit dem Propan-Versuch wurde somit nachgewiesen, dass IR-aktive Gase die Bestrahlung der Erdoberfläche EG erhöhen und grundsätzlich einen Treibhauseffekt haben, der die Strahlungskühlung PE beeinflusst.

Abbildung 7: Verringerung der Strahlungskühlung PE (Treibhauseffekt) durch Propan

Abbildung 7 zeigt, dass die Strahlungskühlung PE sowohl von der Propan-Konzentration als auch von der Temperatur der Aerosol-Platte abhängt. Daraus ergibt sich eine Relativierung (Abschwächung) des Propan-Treibhauseffektes, wenn die Temperatur der Aerosol-Platte TH berücksichtigt wird.
Bei der Aerosol-Platten-Temperatur TH = 0 K wird die Strahlungskühlung PE nur vom Propan und seiner Konzentration beeinflusst. Der Abstand der blauen Linien zur grauen Linie (PE ohne Propan) markiert bei dieser Temperatur den maximalen, theoretischen Treibhauseffekt des Propans. Mit zunehmender Temperatur der Aerosol-Platte TH verringert sich der reale Propan-Treibhauseffekt (die Abstände der Linien verkleinern sich). Bei TpH = 16 °C ist die Strahlungskühlung PE bei allen Versuchen null, unabhängig ob Propan vorhanden ist oder nicht. Erd- und Aerosol-Platte haben hier die gleiche Temperatur, und die von Propan absorbierte und emittierte Energie ist gleich groß (adiabatischer Strahlungstransport, siehe auch Abbildung 4, B).
Tabelle 4 zeigt diese Verringerung (Relativierung) des Treibhauseffektes10 als Faktor Feff, der aus dem Verhältnis des realen zum theoretischen Treibhauseffekt für beide Versuche errechnet wurde. Der Effektivitäts-Faktor Feff ist offensichtlich nicht von der Konzentration des Propans (seinem Treibhauseffekt), sondern nur von seiner Temperatur und der Hintergrund-Temperatur abhängig. Der reale Treibhauseffekt eines IR-aktiven Gases errechnet sich somit aus dem Strahlungsantrieb RF (seinem theoretischen Wert) durch Multiplikation mit dem Feff Faktor.

Tabelle 4: Verringerung des Propan-Treibhauseffektes in Abhängigkeit von der Temperatur der Aerosol-Platte TpH

Der erdnahe Treibhauseffekt hängt (wie beim Propan-Versuch) von einer HG-Strahlung, nämlich der IR-Strahlung der Wolken ab. Wolken bestehen aus Wassertropfen bzw. Eiskristallen, die wegen ihrer großen Oberfläche einem Schwarzstrahler nahe kommen, und wie die Aerosol-Platte die Wirkung der IR-aktiven Gase relativieren. Diese Relativierung des Treibhauseffektes durch Wolken wurde vom Weltklimarat bisher nicht berücksichtigt. Werden Wolken aber berücksichtigt, beträgt die reale CO2- Klimasensitivität nur rund 0,35 K, etwa ein Drittel des IPCC-Wertes von 1,11 K11.
Die Relativierung des Treibhauseffektes betrifft auch die Wasserdampf-Strahlung und damit die umstrittene CO2-Wasser-Rückkopplung. Hinzukommt, dass bei einer Erhöhung der Wolkenbedeckung (durch mehr Wasserdampf in der Atmosphäre) die Strahlung durch Wolken zunimmt, wodurch der Effektivitätsfaktor Feff kleiner wird.

Aber auch bei klarem Himmel ergibt sich eine unerwartete Abschwächung des Treibhauseffektes. Die Energie für die Propan-IR-Strahlung wird gemeinsam von der HG-Strahlung MH und der Wandheizung QV geliefert (Abbildung 4). QV ist ein verborgener Wärmestrom, der bei dem Experiment nicht quantifiziert wurde und mit abnehmender Temperatur der Aerosol-Platte ansteigt. Er lässt sich aber am Temperaturrückgang von Tp1 beim Abkühlen der Aerosol-Platte erkennen (Tabelle 2 und Tabelle 3). Bei der Erde bedeutet dieser Wärmestrom QV eine Zunahme der Konvektion von der Erdoberfläche zu den bodennahen IR-Gasen, wodurch die Erdoberfläche gekühlt wird.

Dass Wolken den erdnahen CO2-Treibhauseffekt verringern, ist keine neue Erkenntnis (1), (6), (12), (13) , (14). Auch direkte Messungen der atmosphärischen Gegenstrahlung in der Nähe von Barrow, Alaska (71.325 N, 156.615 W) bei verschiedenen Bewölkungsgraden zeigen diesen Zusammenhang (15).

Die Testung der Apparatur mit Propan zeigt, dass die Versuchsanordnung geeignet ist, das Strahlungsvermögen (Emissionsgrade) von Treibhausgasen aber auch ihre Relativierung (Abschwächung) durch eine HG-Strahlung zu bestimmen. Einzige Ausnahme ist die Wasserdampf-Strahlung, die mit dieser Apparatur nicht untersucht werden kann, da Wasserdampf auf der kalten Aerosol-Platte kondensieren bzw. gefrieren würde.

Zusammenfassung

Wolken und Treibhausgase tragen beide zum Treibhauseffekt der Atmosphäre mit ähnlichen aber auch unterschiedlichen Strahlungseigenschaften bei. In Gegenwart von Wolken kommt es zu einer Verstärkung der erdnahen Gegenstrahlung aber auch zu Überlagerungen. Einerseits verdecken die Treibhausgase den größten Teil der Wolken-Strahlung, aber andererseits relativieren Wolken die Wirkung der IR-aktiven Gase. Maßgeblich für die Abschwächung des Treibhauseffektes der IR-aktiven Gase sind Höhe (Temperatur) der Wolken und ihre optische Dichte.
Modell-Versuche mit Propan zeigen, dass sein tatsächlicher, realer Treibhauseffekt unter Wolken nur rund ein Drittel seines theoretischen Wertes betragen würde. Diese Relativierung, die alle Treibhausgase und auch die umstrittene CO2-Wasser-Rückkopplung betrifft, wurde vom Weltklimarat bisher nicht berücksichtigt, wodurch seine Berechnungen und Prognosen zu hoch ausfallen und korrigiert werden sollten.
Die Untersuchungen dienten der Testung einer neuen Apparatur, mit der die Strahlung der atmosphärischen Treibhausgase aber auch ihre Relativierung durch Wolken quantifiziert werden können.

Danksagung

Ich bin meiner Frau, Dr. Renate Schnell, für Geduld, Verständnis und Beistand zu großem Dank verpflichtet. Dipl.-Ing. Peter Dietze, Prof. Dr. Jörg Gloede, Dipl.-Ing. Michael Limburg, Prof. Dr. Horst-Joachim Lüdecke, Dr. Heinz Hug, Dr. Gerhard Stehlik, Dr. Fritz Theil danke ich für ihr Interesse, rege Diskussionen und wertvolle Hinweise.

Anhang

Literaturverzeichnis

1. Zellner, Reinhard. Klimaforschung, Die Fakten und ihre Wahrnehmung. Nachrichten aus der Chemie. 2017, Bde. 65, S. 662 – 666, Juni 2017.

2. Anthony Watts. Anthony Watts Thrashes Al Gore’s Climate Change Experiment. [Online] 20. 11 2011. [Zitat vom: 12. 01 2018.] https://shortlittlerebel.com/2011/10/20/anthony-watts-thrashes-al-gores-climate-change/.

3. Nahle, Nasif S. Repeatability of Professor Robert W. Wood’s 1909 experiment on the Hypothesis of the Greenhouse Effect. [Online] [Zitat vom: 14. 01 2018.] http://www.biocab.org/Experiment_on_Greenhouses__Effect.pdf.

4. Stephan Sirtl. Absorption thermischer Strahlung durch atmosphärische Gase. [Online] 12. 11 2010. [Zitat vom: 15. 01 2018.] http://hpfr03.physik.uni-freiburg.de/arbeiten/diplomarbeiten/sirtl_staatsexamen_2010.pdf.

5. Claußen, Martin. http://www.t-y-a.at/docs/070918_Absorptionsspektren-H2o+Co2.pdf. [Online] [Zitat vom: 01. 02 2018.]

6. Peter Dietze. Berechnung der CO2-Klimasensitivität. [Online] 19. 10 2016. [Zitat vom: 21. 01 2018.]

7. Schönwiese, Christian-Dietrich. Klimatologie. Stuttgart : Eugen Ulmer GmbH, 1994.

8. NASA. Measuring Earth’s Albedo. [Online] 21. 10 2014. [Zitat vom: 11. 02 2018.] https://earthobservatory.nasa.gov/IOTD/view.php?id=84499.

9. Wolken im Klimasystem. [Online] 08. 03 2018. [Zitat vom: 08. 03 2018.] http://wiki.bildungsserver.de/klimawandel/index.php/Wolken_im_Klimasystem.

10. Henrik Svensmark. [Online] 20. 02 2017. [Zitat vom: 24. 01 2018.] https://de.wikipedia.org/wiki/Henrik_Svensmark.

11. Graßl, Hartmut. Was stimmt? Klimawandel Die wichtigsten Antworten. Freiburg im Breisgau : Verlag Herder, 2007.

12. Moll, Udo. Klimawandel oder heisse Luft? Hamburg : Tredition GmbH, 2016.

13. Lindzen, Richard S. How Cold Would We Get Under CO2‐Less Skies? PhysicsToday. 1995, Bde. 48, 2, S. 78-80.

14. Wagner, Thomas. thomas.wagner@iup.uni-heidelberg.de. [Online] [Zitat vom: 13. 01 2018.] http://www.mpic.de/fileadmin/user_upload/pdf/Physik_der_Atmosphaere_Lecture_Wagner.pdf.

15. Christopher J. Cox, Penny M. Rowe, Steven P. Neshyba, and Von P. Walden. A synthetic data set of high-spectral-resolution infrared spectra for the Arctic atmosphere. [Online] Earth Syst. Sci. Data, 8, 199–211, 2016, 18. 01 2016. [Zitat vom: 23. 01 2018.] https://www.earth-syst-sci-data.net/8/199/2016/essd-8-199-2016.pdf.

1 Bei diesen Energiebilanzen wird die Erd-Temperatur aus der Inputenergie errechnet; Tp = (Input ∙ 108/(5,67037 ∙ ε))0,25 + 273,15 (Stefan-Boltzmann, ε = 1 als vereinfachter Emissionsgrad der Erdoberfläche).

2 Will man eine realistische Temperatur einer „Erde mit Wolken“ ermitteln, muss man zusätzlich zu den Strahlungsbilanzen wenigstens noch die Wasserverdunstung von 80 W/m2 berücksichtigen (Abbildung 1 C, grauer Pfeil). Bei 100 % Wolkenbedeckung wäre dann die Erd-Temperaturen +17 °C. Bei einem Wolkenbedeckungsgrad von 60 % könnte eine „Erde mit Wolken“ eine ungefähre Temperatur von + 8 °C haben (40 % A + 60 % C).

3 Geht man von der 1/3 Relativierung des Treibhauseffektes durch Wolken aus (Kapitel Die Relativierung der Propan-Strahlung), könnte 7 K die Temperaturerhöhung der Treibhausgase sein. Dieser Wert würde auch zu Fußnote 2 (8 °C + 7 K = + 15 °C) passen.

Die IR-Ausstrahlung dieser Flächen wird im Folgenden mit „M“ und die Bestrahlung mit „E“ bezeichnet.

5 Der Energiestrom der von Thermostaten regulierten Wandheizungen QV wurde nicht bestimmt.

6 Der Ausdruck T4/108 ist der Stefan-Boltzmann-Gleichung entnommen, wodurch eine lineare Funktion zwischen Strahlung und Temperatur in Kelvin (T = TpH + 273,15) mit dem Anstieg 5,670367 (σ ∙ 108) hergestellt wird.

7 EV 1,3 % = 130 W/m2 = 397 (ME) -267 (QE(0 K)); EF 60 % = 272 W/m2 = 397 (ME) -125 (QE(0 K))

8 Das gleiche gilt auch für die nichtsichtbaren Aerosole, die ebenfalls HG-Strahler sind.

9 Vorausgesetzt, weitere relevante Kühlungs-Prozesse wie Erd- und Wolken-Albedo, Wasserverdunstung oder Konvektion sind konstant geblieben.

10 Die Relativierung des Treibhauseffektes ergibt sich aus der gegenläufigen Veränderung von Vordergrund- und Hintergrund-Strahlung, wenn bei einer Erde mit Wolken ein Treibhausgas hinzukommt oder entfernt wird (Kapitel Die effektive Hintergrundstrahlung EH in Gegenwart von Propan). Zwar vergrößert/verkleinert sich dann der Beitrag des Treibhausgases EV(IR-Gas) aber dieser Effekt wird durch eine entgegengesetzte Veränderung der effektiven HG-Strahlung EH abgeschwächt (Gleichung 6).

11 Eine ausführliche Beschreibung der CO2-Strahlung und des CO2-Treibhauseffektes erfolgt in der nächsten Mitteilung.




Große Leseraktion: Wie manipulieren Messstationen die Feinstaubmessung in Ihrer Stadt?

 Eine Reise durch das schöne Deutschland von Luftmessstation zu Luftmessstation. Es ist eine Reise, die zeigt, wie viel Phantasie Verwaltungen aufbringen können, um Luftmessungen so auszuführen, dass möglichst schlechte Werte herauskommen. Oder wollen wir annehmen, dass die meisten die genauen Vorschriften nicht kennen? Das ist gut möglich, denn das Durchwühlen durch ellenlange Richtlinien und Vorschriften ermüdet den Verwaltungsmenschen leicht; und wenn noch die Mittagspause hinzukommt, dann ist es um die Präzision geschehen, mit der er sonst seinen Aufgaben nachkommt.

Man merkt an Regelwerken, die das europäische Leben von Porto bis nach Palanga präzise vorschreiben wollen, wie der »RICHTLINIE 2008/50/EG DES EUROPÄISCHEN PARLAMENTS UND DES RATES vom 21. Mai 2008 über Luftqualität und saubere Luft für Europa« haben hunderte von hochbezahlten EU-Beamten wochenlang herumgesessen und darüber gesonnen, wie man in Worte fasst, was sich doch als so flüchtig erweist.

Zu Ozon mussten die EU-Beamten betrübt feststellen, dass der sich nicht an nationale Grenzen hält: »Ozon ist ein grenzüberschreitender Schadstoff, der sich in der Atmosphäre durch Emissionen von Primärschadstoffen bildet, die Gegenstand der Richtlinie 2001/81/EG des Europäischen Parlaments und des Rates vom 23. Oktober 2001 über nationale Emissionshöchstmengen für bestimmte Luftschadstoffe (3) sind.«Hoffen wir, dass der böse Stoff sich an die Richtlinie 1/13 hält: »Fortschritte im Hinblick auf die in dieser Richtlinie vorgesehenen Zielvorgaben für die Luftqualität und langfristigen Ziele für Ozon sollten anhand der Ziele und Emissionshöchstmengen der Richtlinie 2001/81/EG und gegebenenfalls durch die Umsetzung der in der vorliegenden Richtlinie vorgesehenen Luftqualitätspläne bestimmt werden.«

Keine Sorge, es gibt auch noch deutsche Ausführungen dazu, im Wesentlichen die »Neununddreißigste Verordnung zur Durchführung des Bundes-Immissionsschutzgesetzes Verordnung über Luftqualitätsstandards und Emissionshöchstmengen (39. BImSchV)«. Die dient der »Umsetzung der Richtlinie 2008/50/EG des Europäischen Parlaments und des Rates vom 21. Mai 2008 über Luftqualität und saubere Luft für Europa (ABl. L 152 vom 11.6.2008, S. 1), der Richtlinie 2004/107/EG« … nein, lassen wir das.

Durch die hat sich der Ingenieur Fred F. Mueller gewühlt. Spätestens jetzt kann unseren Verwaltungsmenschen leicht eine tiefgreifende Erschöpfung überkommen, verbunden mit einer leichten Hartköpfigkeit gegenüber der Frage, wo genau jetzt die Messstation platziert werden soll.

1. Stuttgart 

Reisen wir nach Stuttgart. Der Schwabe als solcher galt bisher als reinlich. Früher gab es keinen Feinstaub, dafür die Kehrwoche. Die Kehrwoche gibt’s kaum noch, dafür Feinstaub. Vor allem aber viele Kamine befeuert mit Holz, die für Feinstaub sorgen. Eine Großbaustelle, die für Feinstaub sorgt, und, ja, keine Wassersprengwagen mehr, die früher den Feinstaub weggespült haben. Dann soll Stickstoffdioxid die Stuttgarter zu Tausenden vorzeitig unter die Erde bringen.

In der schwäbischen Landeshauptstadt werden vor allem die Frauen zwar besonders alt, aber sie dürften es eigentlich nicht, wenn man dem Getöse der Deutschen Umwelthilfe (DUH) und der grünen Gemeinde folgt. Denn hier ist die Luft schon höllengleich; dass überhaupt noch Bürger leben, ist ein Wunder.

Hier steht auch Deutschlands berühmteste Messstation für Stickoxide und die anderen üblichen verdächtigen Stoffe. Direkt im Talkessel neben der meistbefahrenen Straße Stuttgarts, dichter an den Auspuffrohren der Autos geht’s fast nicht mehr. Analytiker wissen: Wie bei jeder Probenahme spielt der Ort der Messung eine entscheidende Rolle. Deswegen darf auch die aktuelle plumpe PR-Methode der Deutschen Umwelthilfe, hunderte von Messröhrchen zu verteilen und damit die schreckliche Luftsituation Deutschlands zu dokumentieren, besonders hirnrissig. Die Aktivisten bei dem damals für die Aufstellung verantwortlichen UMEG, Zentrum für Umweltmessungen, Umwelterhebungen und Gerätesicherheit Baden-Württemberg, haben jedoch ganze Arbeit geleistet. Der Standort ist für deftige Messergebnisse gut gewählt: Die Autos stehen meist lange vor den roten Ampeln; der Stau reicht zielsicher bis vor die Station. Denn die Grünen wollen partout keinen flüssigen Verkehr, der den Abgasausstoß der Fahrzeuge senken würde.

Sie befindet sich seit 2003 dort und wurde mit einer Reihe weiterer Messstationen zusätzlich zu dem bereits bestehenden Netz von Messstellen aufgebaut. Mit aufgestellt wurde seinerzeit auch eine Station am vielbefahrenen Arnulf-Klett-Platz vor dem Stuttgarter Hauptbahnhof. Die wiederum lieferte eher unauffällige Werte.

Die Anlage Neckartor steht schön kuschelig im Winkel eines Hochhauses, hält damit nicht den vorgeschriebenen Mindestabstand zur Bebauung ein und bietet auch nicht jenes freie Umfeld von 270 Grad. Das war allerdings in der zum Zeitpunkt der Aufstellung gültigen 22. Bundesimmissionsschutzverordung noch nicht geregelt. Hier können sich die Abgase wie in einem Spiegel schön sammeln, bevor sie konzentriert von der Anlage aufgenommen werden. Ebenso dürfte sich hier der Staub sammeln, bevor er gemessen wird.

Diese Station steht allein, es werden in der Umgebung keine weiteren Werte mit einfachen Passivsammlern aufgenommen, wie das bei allen anderen Stationen geschieht. Mit solchen weniger aufwendigen Passivsammlern können Mittelwerte über einen längeren Zeitraum gemessen werden, nicht aber Spitzenwerte. Sie ergänzen normalerweise die Werte der Messstationen. 2005 und 2006 erhob die Landesanstalt für Umwelt Kontrollmessungen auf der gegenüberliegenden Seite der Messstelle. Ergebnis: deutlich geringere NO2-Werte gegenüber der Messstation Neckartor.

Auffallend: Veröffentlicht wurden die schrecklichen Werte von Deutschlands auffälligster Messstation erst im August 2017. Musste da jemand mal Feuerholz auflegen?

Vor drei Jahren hat die CDU-Fraktion einen Antrag in den Gemeinderat eingebracht, nachdem eine zweite Messstelle in der Nähe die Messungen der alten Messstelle überprüfen soll. (»Auch würde das Image der Stadt, die mit dem Neckartor als extrem dreckigem Ort in Sachen Feinstaub europaweit in den Schlagzeilen steht, bei einer sich möglicherweise ergebenden positiveren Gesamtdarstellung etwas weniger leiden.«)

Schon vor zwölf Jahren hatte die FDP im Stuttgarter Gemeinderat beantragt, die Messstelle zu verlegen. Die Bevölkerung werde durch die hohen Werte verunsichert; es seien jedoch die Daten wichtig, die tatsächlich an den Stellen gemessen werden, an denen die Menschen wohnen und arbeiten. Direkt am Straßenrand tut dies in der Regel niemand.

2. Leipzig 

Reisen wir nach Leipzig. Alexander A. findet die TE-Aktion super und wichtig: »Überall werden die Messstationen möglichst manipulativ aufgestellt. In Leipzig werden sogar »Bürgerumfragen« zu den Aufstellungsorten initiiert, mit dem Ziel möglichst manipulative Standorte zu finden.« Er hat eine Messstation in Leipzig auf der Kreuzung Willy-Brand-Platz / Am Halleschen Tor fotografiert. Sie liegt direkt am Innenstadtring, der Hauptverkehrsader von Leipzig, dicht neben der Ampelkreuzung und neben der Strassenbahnhauptstrecke. Allein durch das Bremsen der Straßenbahnen, so sagt er, werde der Feinstaubwert erheblich verfälscht (Bremsabrieb). Durch die direkt neben der Messstation an der Ampel stehenden Autos und den Verkehrsfluss der Hauptader natürlich ebenso.

3. Fulda

Es geht weiter nach Fulda. Hier hat Christoph M. die Luftmessstation in Fulda aufgenommen. Sie steht EU-widrig direkt an der Straße, dahinter ragt eine hohe Hauswand empor und erlaubt keine 270° Luftzirkulation, wie sie vorgeschrieben ist. Die Messstelle steht zumindest teilweise unter Bäumen; gut, jetzt ragen sie winterbedingt etwas dürr in den Himmel, sind aber schnell belaubt und bilden ein Dach, das die Luft abschottet. Auch das ist ein sicheres Verfahren, die Messwerte zu erhöhen. Und verstößt gegen Anhang 3 Buchstabe C der der 39. BImSchgV, der Bundesimmissionsschutzverordnung.

4. Magdeburg

TE-Leser Harald M. hat ein elegantes Beispiel einer Messstation direkt am Straßenrand geschickt. Hier stauen sich die Autos zu den Berufsverkehrszeiten hunderte Meter und blasen Abgase aus, teilweise direkt in die Messstation. In einer Straßenschlucht sollten Messstationen nicht stehen. Aber immerhin haben sie die Messstation schön angemalt.

5. Rostock

Eine saubere Arbeit hat die Verwaltung in Rostock bei der Aufstellung der Messstation an der Kreuzung am Strande Ecke Grubenstraße geleistet. Auch hier ist dafür gesorgt, dass die Auspuffgase möglichst direkt in die Messgeräte strömen.
Gleich zwei TE-Lesern in Rostock ist die merkwürdige Lage der Messstelle übel aufgestoßen – direkt am Fahrbahnrand und nur 30 Meter von der nächsten Kreuzung entfernt, wo sich die Autos immer so schön stauen. Wie Steffen H. und Frank S.. »Über die Positionierung der Messstation in Rostock an der Kreuzung »Am Strande« / »Grubenstraße« habe ich mich schon aufgeregt, als noch niemand das Wort »Dieselskandal« kannte.« schreibt dazu Frank S.. »Es handelt sich um die meistbefahrene Straße Rostocks, nirgendwo kommen Häuser dieser Straße so nahe wie hier. Dort stehen die Autos meist vor der großen Kreuzung und fahren nicht. Wenn es auch nur einen einzigen Ort im sonst ostseeluftreinen Rostock gibt, wo die Luft wirklich mal schlecht sein kann, dann hier. Und da steht das Ding. Unfassbar.

6. Marburg 

Gute Nachrichten kommen aus Marburg. Dort sind die Werte für Stickstoffdioxid auf einem Rekordtief, wie die Oberhessische Presse vermeldete. Erstmals, seitdem eine Luftmessstation in der Universitätsstraße aufgestellt wurde, liegt der Gehalt von Stickstoffdioxid in Marburg Luft unter dem Grenzwert von 40 µg NO2 pro Kubikmeter, schreibt die Oberhessische Presse weiter, beantwortet aber nicht die Frage, wie aus dieser punktuellen Messung auf die gesamte Marburger Luft geschlossen werden kann.

In Marburg freut man sich über die niedrigeren Schadstoffwerte. Liegen sie doch im Trend, der in ganz Hessen zu beobachten ist. Auf Deutsch: Die Luft wird seit Jahren deutlich sauberer.

Doch die Marburger haben noch etwas Originelles dazu beigetragen, dass bei ihnen die Messwerte deutlich niedriger ausfielen: Sie haben ihre Messstation umgestellt. Bisher stand sie in einer Art Straßenschlucht, soweit das in Marburg möglich ist, musste aber aufgrund von Bauarbeiten weggeräumt werden und steht nun vor der Juristischen Fakultät an einem deutlich freieren Platz.

Bemerkenswert der Kommentar des Leiters des Dezernats für Luftreinhaltung und Immissionen am Hessischen Landesamt für Naturschutz, Umwelt umd Geologie, HLNUG, Professor Dr. Stefan Jacobi: »Wir hatten schon befürchtet, dass der neue Standort niedriger belastet sein könnte.«

Schade also: »Der Charakter einer sogenannten Straßenschlucht ist an dieser Stelle aufgebrochen. Die Belüftung ist besser als an dem früheren Standort«, bedauert der Professor die saubere Luft. Mit aller Gewalt versucht er, die erfreulichen Messwerte dramatischer zu machen: Mit sogenannten Passivsammlern möglichst nahe an der ursprünglichen Messstelle, an der jetzt die Baustelle ist, sollen weitere Luftmessungen vorgenommen werden. Die Messungen beider unterschiedlicher Systeme lassen sich zwar nur schwerlich miteinander vergleichen, aber was tut man nicht alles, um mehr Drama hineinzubringen und Gelder für die nächsten Forschungsaufträge locker zu machen.

7. Tübingen 

Das schöne Tübingen am Neckar, einst Heimat Hölderlins und vieler Geistesgrößen, ist – nach Marburg – auch so ein extrem bedenklicher Fall eines grün durchdrungenen Gemeinwesens. TE-Leser Günther P. schildert die Tricksereien bei den Messungen: »Die einzige Messstelle für die Stadt (die zweite steht im Vorort Unterjesingen an der auf 30km/h herunter gebremsten B28) ist in der Mühlstraße, die von Nord nach Süd verläuft, also quer zur Hauptwindrichtung. Durch sie wird der der gesamte Busverkehr der Stadt sowohl bergauf als auch bergab geleitet sowie bergauf auch der normale PKW und Leicht-LKW (unter 7,5 t) Verkehr. Die Straße ist schmal, zwei Stadtbusse kommen gerade aneinander vorbei, und ist auf der einen Seite nicht nur durch Häuser sondern auch einen Hang begrenzt und auf der anderen Seite durch eine hohe Stützmauer.«Busse und PKWs müssen, nachdem sie die Neckarbrücke überquert haben, relativ steil bergauf fahren, schalten dazu in einen niedrigen Gang. Der Schadstoffausstoß dürfte also wenig repräsentativ sein, und das, was die Anlage registriert, nicht viel mit der tatsächlichen Luftqualität zu tun haben. Zumal die Aufstellung gegen die Vorschrift verstößt, in einem 270 Grad Winkel freie Luftzufuhr zu haben. Messungen in Tübingen also für die Tonne.

In der nächsten Folge setzen wir unserer Reise zu den Luftmessstationen Deutschlands fort. Allerdings: Bilder von Google Maps können wir aus rechtlichen Erwägungen leider nicht nehmen.

Schicken Sie bitte an Tichys Einblick aus Ihrer Stadt Fotos der Messstationen. Bitte notieren Sie den genauen Standort. Aus einem weiteren Foto sollte das Umfeld der Messstation ersichtlich sein. Bitte schicken sie die Fotos an redaktion@tichyseinblick.de; Sie erteilen ihnen damit automatisch das Recht, Ihr Foto zu veröffentlichen. Wir freuen uns auch über Beiträge aus der Lokalpresse zu diesem Thema.




Generaldebatte: Bundesregierung will per Gesetz das Klima schützen und die Emissions-„Lücke“ damit bis 2030 schließen; AfD sagt der Irrlehre vom „Klimaschutz“ den Kampf an.

Die neue Umweltministerin Svenja Schulze, zuvor Wissenschaftsministerin  bei der im Juni 2017 abgewählten Rot-Grünen Regierung von NRW, war am Freitag dran.

Sie wolle die Vorreiterrolle Deutschlands beim Klimaschutz wieder herstellen, meldet die Deutsche Welle und ja, es stimme, dass Deutschland seine ehrgeizigen Klimaschutzziele bis 2020 – nämlich Senkung der Treibhausgasemissionen um 40 % gegenüber 1990- kaum noch schaffen würde. Es würde leider, leider eine „Lücke“ entstehen, die bis 2020 wohl nicht zu schließen wäre. Deswegen wolle man dies nun per noch zu schreibenden Gesetz, dass in 2019 von ihr vorgelegt werden würde, bis 2030, aber dann 55 %, erzwingen.

Svenja Schulze:„Wir werden in dieser Legislaturperiode zum ersten Mal ein Klimaschutzgesetz vorlegen, das verbindlich sicherstellt, dass wir unsere Klimaziele für 2030 erreichen werden“

Nun wissen wir alle, dass es auch Gesetze gibt, die verbieten, dass Menschen mit Messern angegriffen werden. Allein in Berlin geschieht das trotzdem und täglich sieben mal.

Wir wissen alle, dass es ein Gesetz gibt, sogar ein EU-weites, die Schulden anderer Länder nicht zu übernehmen (Bail-Out Klausel im Maastricht Vertrag). Gemacht wird es trotzdem. Bis heute.

Wir wissen alle, dass es Gesetze gibt ,die verbieten jemanden ins Land zu lassen, der sich nicht ausweisen kann. Geschehen  ist es trotzdem und zwar viele hundertausendfach.

Nun soll also ein Gesetz her, um das Klima zu schützen! Ein Gesetz gegen Naturgesetze, aber auch gegen einfachste Logik, denn das Klima lässt sich nicht schützen. Egal was den Politikern oder den sie treibenden anderen Ideologen dazu einfällt.

Auf alle Fälle soll nun ein Gesetz her, dass vielen Menschen im Lande viel wegnehmen wird. Weil mit ihm erzwungen werden soll, dass die im weltweiten Maßstab winzigen deutschen Treibhausgas-Emissionen, (rd. 2 % der gesamten technischen Emissionen, die wiederum nur 2 bis 5 % der natürlichen ausmachen) bis 2030 um 55 % gegenüber 1990 abgesenkt würden. Das geht, wenn überhaupt, nur, wenn man massive Job- und damit Wohlstandsverluste in Kauf nimmt. Andere Regierungen im Lande wurden schon wegen geringerer Vorhaben abgewählt. Die neue Regierung sollte das wissen. Auf das Klima hat dieses Unterfangen jedenfalls überhaupt keinen Einfluss.

Mark Twain pflegte zu solchen Vorhaben zu sagen:

Als die Reisegesellschaft ihr Ziel aus den Augen verloren hatte, verdoppelte sie ihre Geschwindigkeit.

Auch von den Schildbürgern ist ein ähnliches Verhalten überliefert.

Und nun die neue Umweltministerin, welcher die damit verbundene groteske Absurdität ihres Vorhabens offensichtlich wg. akuter Betriebsblindheit, gar nicht auffiel. Jedenfalls lachte keiner ob dieser nur als Büttenrede zu verstehenden Ankündigung. Alle blieben bierernst und fast alle forderten stattdessen mehr davon.

Alle, nein! Nicht alle! Denn die beiden AfD Abgeordneten Karsten Hilse und Rainer Kraft wagten, und das sehr deutlich, auf die offensichtlichen Ungereimtheiten des gesamten Unterfangens, genannt Klimaschutz, hinzuweisen.

Und lösten damit prompt Schnappatmung bei einigen und „Empörung“ sowie „Gelächter“ bei anderen – mit Ausnahme der AfD- aus.

Ob das Ganze so lachhaft ist, wie einige Medien (hier und hier) und bei der Nachrichtenagentur Reuters abschrieben. Urteile Sie selbst.

Video nicht mehr verfügbar
Video der Rede von  AfD MdB Karsten Hilse am 23.3.18 im Deutschen Bundestag
und
Video nicht mehr verfügbar
Video der Rede von  AfD MdB Dr. Rainer Kraft am 23.3.18 im Deutschen Bundestag




Evolution der Brennstäbe

 Brennstäbe heute

Brennstäbe für Leichtwasserreaktoren haben eine Durchmesser von nur 11 mm bei einer Länge von fast 5 m. Sie sind deshalb so instabil, daß sie zu sog. Brennelementen fest zusammengebaut werden. Dort werden sie durch Abstandshalter und Befestigungsplatten in ihrer Position gehalten. Zusätzlich enthalten die noch Einbauten für Regelstäbe, Messeinrichtungen usw. Wichtig in diesem Zusammenhang ist, daß solche Brennelemente mit sehr engen Toleranzen gefertigt werden müssen, da z. B. die sich ergebenden Abstände sehr entscheidend für die Strömungsverhältnisse (Kühlung) und die Abbremsung der Neutronen sind.

Die Brennstäbe bestehen aus Hüllrohren aus Zirkalloy mit Wandstärken von weniger als einem Millimeter und sind mit Tabletten aus Urandioxid gefüllt. Auf die Konsequenzen aus dieser Materialwahl wird später noch eingegangen werden. Die Tabletten sind gesintert („gebrannt“ wie eine Keramik) und anschließend sehr präzise im Durchmesser geschliffen; an den Stirnflächen konkav gearbeitet, um Ausdehnungen im Betrieb zu kompensieren usw. All dieser Aufwand ist nötig, um die Temperaturverteilung im Griff zu behalten.

Das Temperaturproblem

Brennstäbe dürfen nicht schmelzen, denn dann ändert sich ihre mechanische Festigkeit und ihre Abmessungen (Kühlung und Neutronenspektrum). Keramiken sind zwar chemisch sehr beständig, besitzen aber gegenüber Metallen nur eine sehr schlechte Wärmeleitung. Jeder kennt den Unterschied, der schon mal heißen Kaffee aus einem Metallbecher getrunken hat. Außerdem sind Keramiken sehr spröde.

Die gesamte Wärme kann nur über den Umfang an das Kühlwasser abgegeben werden. Sie entsteht aber ziemlich gleich verteilt innerhalb des Brennstabes, da er für Neutronen ziemlich durchsichtig ist. Dies hat zur Folge, daß es einen sehr starken Temperaturunterschied zwischen Zentrum und Oberfläche gibt. Zusätzlich verschlechtert sich auch noch die Wärmeleitfähigkeit mit zunehmender Temperatur. All das führt dazu, daß der Brennstab in seinem Innern bereits aufschmelzen kann, obwohl er an seiner Oberfläche noch relativ kalt ist. Die Temperaturdifferenz zwischen Oberfläche und Kühlwasser ist aber in dieser Phase die bestimmende Größe für die Wärmeabfuhr.

Steigt die Oberflächentemperatur über die Verdampfungstemperatur des Kühlwassers, fängt das Wasser (an der Oberfläche) an zu verdampfen. Die Dampfblasen kondensieren nach deren Ablösung im umgebenden „kalten“ Wasser. Durch dieses sogenannte „unterkühlte Blasensieden“ kann man sehr große Wärmemengen abführen. Tückisch ist nur, wenn die Wärmeproduktion durch Kernspaltung einen Grenzwert übersteigt, bildet sich eine geschlossenen Dampfschicht auf der Oberfläche, die auch noch stark isolierend wirkt. Als Folge steigt die Temperatur in der dünnen Brennstabhülle explosionsartig an. Dampf in Verbindung mit hoher Temperatur führt aber zur Oxidation des Zirkalloy. Die Hülle verliert schnell ihre Festigkeit.

Harrisburg und auch Fukushima

Bricht die Kühlung zusammen, überhitzen die Brennstäbe. Wie Fukushima gezeigt hat, kann das auch noch (kurz) nach dem Abschalten des Reaktors geschehen, da dann die Nachzerfallswärme noch sehr groß ist. Durch die hohen Temperaturen in den Brennstabhüllen in Verbindung mit Wasserdampf oxidieren die Hüllen und setzen dabei große Mengen Wasserstoff frei. Dieser Wasserstoff hat zu den fürchterlichen Explosionen in den Reaktorgebäuden geführt. In Harrisburg waren die Wasserstoffmengen zwar beherrschbar, aber auch damals schon zerfielen Teile des Reaktorkerns. Die Wiederbenetzung konnte zwar schlimmeres verhindern – aber man schrecke mal eine glühende Tasse mit Wasser ab.

Für alle Leichtwasserreaktoren bedeutet das, die zulässigen Temperaturen müssen bei allen Betriebsbedingungen in allen Teilen des Reaktorkerns sicher eingehalten werden. Mit anderen Worten, die Kühlung darf nie versagen. In diesem Sinne ist der Sicherheitsgewinn einer passiven (auf die natürlichen Kräfte, wie z. B. Schwerkraft beruhende) Kühlung zu verstehen.

Oberflächenschutz der Brennstäbe

Insbesondere nach den Ereignissen in Fukushima hat man unterschiedlichste Maßnahmen ergriffen, um die Sicherheit bestehender Kraftwerke weiter zu erhöhen. Außerhalb Deutschlands nach den üblichen Vorgehensweisen wie sie bei Flugzeugabstürzen, Schiffsunglücken etc. üblich sind: Akribische Untersuchung der Schadensabläufe mit dem Zweck Schwachstellen zu ermitteln und Lösungen dafür zu finden. Ein Weg war die Verbesserung der Brennstabhüllen. Zu diesem Zweck hat man z. B. in den USA das Entwicklungsprogramm „Enhanced Accident-tolerant Fuel programme“ gestartet.

Aus einer internationalen Zusammenarbeit haben sich zwei neue Konzepte – IronClad und ARMOR – entwickelt, deren Prototypen im Kernkraftwerk Hatch in Georgia, USA seit März 2018 im Normalbetrieb getestet werden. Der Test unter realen Bedingungen in einem laufenden Kernkraftwerk ist ein üblicher Entwicklungsschritt. Nur so kann man Fehlentwicklungen vermeiden.

IronClad sind Hüllrohre, die aus einer Eisen-Chrom-Aluminium-Legierung bestehen. Man glaubt damit einen wesentlich robusteren Werkstoff gefunden zu haben, der nicht so temperaturempfindlich ist, nicht so leicht oxidiert und kein Wasserstoffgas produziert.

ARMOR ist ein eher evolutionärer Ansatz. Man panzert konventionelle Hüllrohre mit einer Schutzschicht auf der Basis von Chrom. Es sind Produkte dreier Hersteller in der Erprobung: Global Nuclear Fuel-Japan Co (GE-Hitachi), Framatom mit zusätzlich mit Chrom geimpften Brennstofftabletten und EnCore Fuel (Westinghouse) mit Tabletten auf der Basis von Uran-Siliciden.

Ein ganz neues Konzept

Das Unternehmen Lightbridge hat das Bauelement Brennstab noch einmal ganz neu gedacht und bereits prototypenreif entwickelt. Inzwischen ist man eine Kooperation für die Weiterentwicklung und Serienproduktion mit Framatom eingegangen. Entscheidend war die Anforderung des Ersatzes von Brennstäben in konventionellen Leichtwasserreaktoren im Betrieb. Deshalb ist nicht nur ein Ersatz, sondern auch ein gemischter Betrieb mit konventionellen Brennelementen angestrebt worden.

Der Übergang von keramischem Uranoxid auf eine metallische Legierung aus Uran und Zirkon ist für Leichtwasserreaktoren revolutionär. Bisher wurde so etwas nur in schnellen Reaktoren mit Natrium – und nicht Wasser – als Kühlmittel gemacht. Ebenso neu ist die Form: Sie sind nicht mehr zylindrisch, sondern kreuzförmig. Diese Kreuze sind spiralförmig verdreht, sodaß sich vier gewindeähnliche Kanäle für das Kühlwasser bilden. Außen sind sie mit einer dünnen und fest verbundenen Schicht aus Zirkon versehen um eine übliche Wasserchemie zu gewährleisten. Diese „Gewindestäbe“ liegen in dem Brennelement dicht beieinander, sodaß keine Abstandshalter mehr erforderlich sind.

Metall verfügt über eine bessere Wärmeleitung als Keramik und die Kreuzform ergibt eine größere Oberfläche und dünnere Querschnitte. Beides führt zu geringeren Betriebs- und Spitzentemperaturen (starke und schnelle Lastschwankungen). Der Strömungswiderstand solcher Brennelemente ist kleiner, wodurch sich der Durchfluß durch den Kern bei gleicher Pumpenleistung erhöht. Man geht deshalb von einer möglichen Leistungssteigerung von 10% aus. Ein nicht zu unterschätzender wirtschaftlicher Anreiz, wenn man in einer bestehenden Flotte für „kleines Geld“ ganze Kraftwerke zusätzlich erhält.

Die neuen Lightbridge-Brennelemente vertragen alle Leistungstransienten besser, sind aber vom Prinzip her gegen längerfristige Kühlmittelverluste anfälliger, da Metalle einen geringeren Schmelzpunkt als Keramiken besitzen. Dies war der Hauptgrund für die ursprüngliche Wahl von Uranoxid als Werkstoff.

Bei einer Simulation eines Abrisses einer Hauptkühlmittelleitung bei einem VVER-1000 Druckwasserreaktor ergab sich eine maximale Kerntemperatur von 500 °C. Dieser Wert liegt weit unterhalb von der Temperatur, bei der überhaupt Wasserstoff (900 °C) gebildet wird. Durch die hohe Wärmeleitung stellt sich bereits wieder nach 60 Sekunden nach erfolgter Wiederbenetzung erneut die normale Betriebstemperatur ein. Bei konventionellen Brennelementen steigt die Temperatur auf über 1000 °C und erreicht erst nach acht Minuten wieder den stabilen Zustand. Dies hat einen erheblichen Druckanstieg im Reaktor zur Folge, der ein ansprechen der Sicherheitsventile erforderlich macht. Bei diesem Abblasen gelangen auch geringe Mengen von radioaktivem Jod und Cäsium (zumindest) in das Containment. Der Abriß einer Hauptkühlmittelleitung ist der Auslegungsstörfall, der sicher beherrscht werden muß. In diesem Sinne führen die Lightbridge-Brennelemente zu einem Sicherheitsgewinn.

Es sind aber noch etliche praktische Erfahrungen zu sammeln. Ein Reaktor ist ein komplexes physikalisches und chemisches System. Dies betrifft z. B. das Rückhaltevermögen für Spaltprodukte unter allen möglichen Betriebs- und Störfallbedingungen. In der Kerntechnik dauert wegen der besonderen Sicherheitsansprüche halt alles länger. Die Maßeinheit für die Einführung von Neuerungen ist eher Jahrzehnte als Jahre.

Ein weiterer vielversprechender Entwicklungsaspekt ist der Zusatz von Thorium als „abbrennbarer Brutstoff“ zur Ausdehnung der erforderlichen Ladezyklen auf vier Jahre. Um solch lange Ladezyklen zu erreichen, muß man den Brennstoff höher anreichern. Um diese Überschußreaktivität zu kompensieren muß man abbrennbare Neutronengifte zumischen. Würde man Thorium verwenden, kann man diese Überschußneutronen zum Erbrüten von Uran-233 verwenden. Längere Ladezyklen würden die Wirtschaftlichkeit bestehender Reaktoren weiter erhöhen.

Durch die Verwendung von metallischem Brennstoff ergeben sich auch völlig neue Perspektiven der Wiederaufbereitung. Durch den Übergang auf elektrochemische Verfahren – wie man sie bereits beim EBRII – erfolgreich ausprobiert hat, kann man zu kleinen Wiederaufbereitungsanlagen in der Nähe der Kernkraftwerke übergehen. Ein weiterer Lösungsweg für die angebliche Atommüllproblematik. Gerade im Zusammenhang mit der Wiederaufbereitung und Proliferation ist auch der Zusatz von Thorium besonders interessant.

Schlussbemerkung

Man sieht, daß die Leichtwasserreaktoren noch lange nicht am Ende ihrer Entwicklung angekommen sind. Insbesondere der Einsatz von metallischen Brennstäben ergibt nicht nur einen evolutionären Weg für bestehende Reaktoren, sondern auch für Neukonstruktionen. Im Zusammenhang mit passiver Kühlung kann ein erheblicher Sicherheitsgewinn erzielt werden. Irgendwann wird die Frage der Anpassung der Genehmigungsbedingungen gestellt werden müssen. Dann aber, beginnt das Kernenergiezeitalter erst richtig. Billige Energie im Überfluß. Egal, was in Deutschland darüber gemeint wird.

Der Beitrag erschien zuerst bei NUKEKLAUS hier




Klimalegenden: Warum die Arktis wärmer wird

Anthropogenic greenhouse gas emissions have increased since the pre-industrial era, driven largely by economic and population growth, and are now higher than ever. This has led to atmospheric concentrations of carbon dioxide, methane and nitrous oxide that are unprecedented in at least the last 800,000 years. Their effects, together with those of other anthropogenic drivers, have been detected throughout the climate system and are extremely likely to have been the dominant cause of the observed warming since the mid-20th century. {1.2, 1.3.1}

In Abbildung SPM.3 werden dort die Auslöser für den Temperaturanstieg zwischen 1951 und 2010 dargestellt, der im Wesentlichen auf anthropogenen Ursachen basieren soll. Natürliche Ursachen, wie beispielsweise die Schwankung der Sonneneinstrahlung, sind dort nicht zu erkennen bzw. halten sich nach den Vorstellungen des IPCC die Waage, und zwar in etwa der gleichen Größenordnung, wie der Unsicherheitsbalken für die Summe der anthropogenen Klimaantriebe.

IPCC AR5 Summary for Policymakers – Figure SPM.3

Nach den vom IPCC in Abbildung SPM.3 dargestellten Klimaeinflüssen sollen ausgerechnet die Polarregionen ganz besonders vom anthropogenen Klimawandel betroffen sein. Das IPCC warnt uns also konkret davor, dass die Auswirkungen des menschengemachten globalen Klimawandels insbesondere die Polarregionen der Erde treffen werden. Zitat mit Hervorhebungen aus dem IPCC Synthesis Report AR5 (2014) (Summary for Policymakers), Seite 10 unten:

The increase of global mean surface temperature by the end of the 21st century (2081–2100) relative to 1986–2005 is likely to be 0.3°C to 1.7°C under RCP2.6, 1.1°C to 2.6°C under RCP4.5, 1.4°C to 3.1°C under RCP6.0 and 2.6°C to 4.8°C under RCP8.59. The Arctic region will continue to warm more rapidly than the global mean (Figure SPM.6a, Figure SPM.7a). {2.2.1, Figure 2.1, Figure 2.2, Table 2.1}

Die IPCC-Abbildung SPM.7a zeigt dann auch ganz deutlich, dass nach den vorliegenden IPCC-Modellen bis zum Ende dieses Jahrhunderts eine Erwärmung der Arktis von mehr als 7 Grad Celsius zu erwarten sei:

IPCC AR5 Summary for Policymakers – Figure SPM.7a

Weiter heißt es dort auf Seite 12 unten, Zitat mit Hervorhebungen:

Year-round reductions in Arctic sea ice are projected for all RCP scenarios. A nearly ice-free11 Arctic Ocean in the summer sea-ice minimum in September before mid-century is likely for RCP8.512 (medium confidence). {2.2.3, Figure 2.1}

It is virtually certain that near-surface permafrost extent at high northern latitudes will be reduced as global mean surface temperature increases, with the area of permafrost near the surface (upper 3.5 m) projected to decrease by 37% (RCP2.6) to 81% (RCP8.5) for the multi-model average (medium confidence). {2.2.3}

The global glacier volume, excluding glaciers on the periphery of Antarctica (and excluding the Greenland and Antarctic ice sheets), is projected to decrease by 15 to 55% for RCP2.6 and by 35 to 85% for RCP8.5 (medium confidence). {2.2.3}

Das IPCC sieht also ganz klar die sogenannten anthropogenen Klimatreiber als Ursache für den prognostizierten Klimawandel, wobei zunächst ungeklärt bleibt, warum dieser Klimawandel ganz besonders die Polarregionen betreffen sollte, also ausgerechnet diejenigen Regionen, in denen am wenigsten anthropogene Klimagase erzeugt werden und die im jeweiligen Winterhalbjahr die geringste Strahlungsmenge von der Sonne erhalten. Denn da die sogenannten Klimagase ihre Energie von der infraroten Rückstrahlung der Erdoberfläche beziehen müssen, sollte in den Polargebieten unserer Erde der anthropogene Klimaeinfluss durch CO2 eigentlich am geringsten sein.

Was uns dieser IPCC-Bericht für Entscheidungsträger also verschweigt, ist die wissenschaftliche Begründung für einen überproportionalen anthropogen verursachten Temperaturanstieg in der Arktis. Unter dem Begriff „Polare Verstärkung“ werden wir dagegen bei Wikipedia fündig, Zitat mit Hervorhebungen:

„Für die Polare Verstärkung spielen je nach Jahreszeit unterschiedliche physikalischer Prozesse eine Rolle.

Die Eis-Albedo-Rückkopplung wird als der wichtigste Prozess angesehen: Schnee- und Eisflächen reflektieren bis zu 90 % der eingestrahlten Sonnenenergie ins Weltall. Das Abschmelzen der Schnee- und Eisflächen bringt die darunter liegenden Land- und Wasseroberflächen zum Vorschein, die mit ihrer dunkleren Farbe einen großen Teil der Sonnenenergie absorbieren. Die Oberfläche wird hierdurch zusätzlich erwärmt.“

Anmerkung: Diese Beschreibung ist ein typischer Zirkelschluss. Es wird nämlich nicht etwa zwingend nachgewiesen, warum die Schnee- und Eisflächen in Zukunft abschmelzen werden, sondern lediglich beschrieben, was daraus folgt, wenn sie tatsächlich abschmelzen würden. Ein Abschmelzen der Schnee- und Eisflächen wird hier also zwingend vorausgesetzt, aber nicht nachgewiesen.

Und nun weiter im Wikipediatext:

Klimasimulationen zeigen jedoch, dass dies nur der der zweitwichtigste Effekt ist; die polare Verstärkung ist auch ganz ohne den Einfluss der Albedoänderung beobachtbar. Die wichtigsten Effekte sind hierbei der in der Arktis veränderte atmosphärische Temperaturgradient und die erhöhte Abstrahlung bei höheren Temperaturen. Da die Atmosphäre an den Polen flacher als in niedrigen Breiten ist, muss auch weniger Masse aufgeheizt werden. Aufgrund des Stefan-Boltzmann-Gesetzes steigt die Abstrahlung mit der vierten Potenz der Temperatur, gemessen in Kelvin. Um dieselbe Energiemenge abzustrahlen, ist bei einer Ausgangstemperatur von -30°C (=243 K) eine Temperaturerhöhung um 0,31 K, bei einer Ausgangstemperatur von +30 °C (=303 K) jedoch nur eine Erwärmung um 0,16 K nötig.“

Anmerkung: Auch die Aussage über eine erhöhte Abstrahlung bei höheren Temperaturen in der Arktis ist wieder ein Zirkelschluss. Denn diese Aussage impliziert, dass ein Temperaturanstieg ohne Albedoänderung aus sich selbst heraus möglich sei. Bewiesen wird diese Aussage vordergründig durch ein Rechenbeispiel mit dem Stefan-Boltzmann-Gesetz, das sich auf eine imaginäre Temperaturdifferenz von 60 Grad Celsius stützt. Es wird hier aber wiederum nicht erklärt, woraus sich eine solche polare Temperaturerhöhung primär ableiten sollte, sondern diese Temperaturerhöhung wird als gegeben vorausgesetzt.

Erst im englischsprachigen Wikipedia findet sich dann unter „Polar Amplification“ ein Verweis auf den aktuellen IPCC-Bericht „Near-term Climate Change: Projections and Predictability (2013). Und dort findet sich dann auf Seite 982 der Hinweis auf eine „pronounced polar amplification“, deren Verweis „see Box 5.1“ wiederum in einem ganz anderen PDF-Kapitel 5 des AR 5 (ab Seite 396) angesiedelt ist. Dort heißt es dann, Zitat mit Hervorhebungen:

Some external climate forcings have an enhanced radiative impact at high latitudes, such as orbital forcing (Section 5.2.1.1), or black carbon (Section 8.3.4). Here, we focus on the latitudinal response of surface temperature to CO2 perturbations

Box 5.1, Figure 1 illustrates the polar amplification phenomenon for three different periods of the Earth’s climate history using temperature reconstructions from natural archives and climate model simulations for: (i) the Early Eocene Climatic Optimum (EECO, 54 to 48 Ma) characterised by CO2 concentrations of 1000 to 2000 ppm (Section 5.2.2.2) and the absence of continental ice sheets; (ii) the mid-Pliocene Warm Period (MPWP, 3.3 to 3.0 Ma), characterized by CO2 concentrations in the range of 350 to 450 ppm (Section 5.2.2.2) and reduced Greenland and Antarctic ice sheets compared to today (see Section 5.6.1), (iii) the Last Glacial Maximum (LGM, 21 to 19 ka), characterized by CO2 concentrations around 200 ppm and large continental ice sheets covering northern Europe and North America.”

Argumentativ wird hier also vom IPCC mit einem „natürlichen“ CO2-Klimaantrieb argumentiert, der sich angeblich aus Temperatur-Rekonstruktionen ableiten lässt und eine „Polare Verstärkung“ des anthropogenen Klimasignals beweisen soll. Nun gibt es aber noch einen ganz anderen Ansatz für den natürlichen Klimaantrieb. Vor knapp 100 Jahren erschien das Buch „Die Klimate der geologischen Vorzeit“ von Wladimir Köppen und Alfred Wegener (Bornträger 1924), das inzwischen als Faksimile-Nachdruck der deutschen Originalausgabe mit kompletter englischer Neuübersetzung vorliegt.

Zitat aus der Einleitung von Köppen&Wegener (Seiten 3 und 4) mit Hervorhebungen:

„… Bei der Verwendung seiner [Milanković‘]Rechnungsergebnisse für die Klimafrage sind wir davon ausgegangen, dass stärkerer Sonneneinstrahlung auch höhere Temperatur entspricht, und daß kalte Sommer, nicht kalte Winter, die Entwicklung des Inlandeises fördern – zwei fast selbstverständliche und dennoch von einigen Autoren angefochtene Annahmen! Nähere Ausführungen hierüber wird man im Abschnitt Quartär finden.

Unter diesen Voraussetzungen gewinnt die Kurve der sommerlichen Strahlungsmengen für ie letzten 650 000 Jahre den Charakter einer absoluten Chronologie des Eiszeitalters. Ihre Einzelheiten stimmen, wie gezeigt werden wird, in weitgehendem Maße mit den Annahmen der hervorragensten Eiszeitforscher überein, so daß es unnötig erscheint, nach weiteren Ursachen für Klimaänderungen in dieser Zeit zu suchen.
Von den zahlreichen sonstigen Hypothesen, die zur Erklärung von Klimaänderungen aufgestellt worden sind, wird daher in diesem Buche nicht die Rede sein. Insbesondere erblicken wir in dem System der fossilen Klimazeugen keinen empirischen Anhalt für die Annahme, daß die von der Sonne ausgehende Strahlung sich im Laufe der Erdgeschichte geändert habe.
Desgleichen fehlt es an Tatsachen, welche durch Änderung der Durchstrahlbarkeit der Atmosphäre (Arrhenius) oder des Weltalls (Nölke) zu erklären wären; denn diejenigen Tatsachen, zu deren Erklärung diese Theorien gewöhnlich herangezogen werden, finden bereits durch das heutige Klimasystem ihre Erklärung, wenn man seine in der Vorzeit geänderte Orientierung berücksichtigt, und können meist auch schon deshalb nicht als Beweise für sie in Frage kommen, weil sie nicht für die ganze Erde, sondern nur für bestimmte Teile gelten…“

Hier noch einmal die Kernaussage von Köppen und Wegener, in der Ross und Reiter klar und deutlich benannt werden:Unter diesen Voraussetzungen [dass stärkerer Sonneneinstrahlung auch höhere Temperatur entspricht, und daß kalte Sommer, nicht kalte Winter, die Entwicklung des Inlandeises fördern] gewinnt die Kurve der sommerlichen Strahlungsmengen für die letzten 650 000 Jahre den Charakter einer absoluten Chronologie des Eiszeitalters.“

Und hier ist die entsprechende Abbildung aus dem Buch von Köppen und Wegener (Seiten 258/259), „Sonnenstrahlung des Sommerhalbjahres in höheren Breiten im Quartär seit 650 000 Jahren“:

Quelle Wikipedia: https://upload.wikimedia.org/wikipedia/de/e/ea/Koeppen_Wegener.jpg

Wikipedia: Die Schutzdauer für das von dieser Datei gezeigte Werk ist nach den Maßstäben des deutschen, des österreichischen und des schweizerischen Urheberrechts abgelaufen. Es ist daher gemeinfrei.

Es ist schon ganz erstaunlich, Köppen und Wegener stellten also bereits im Jahre 1924 aufgrund der Berechnungen von Milanković fest, dass die veränderliche sommerliche Sonneneinstrahlung in höheren Breiten der Motor des natürlichen Klimawandels ist und mit den Klimaschwankungen der vergangenen 650 000 Jahre korreliert. Und das IPCC stellt im Jahr 2014 fest, dass ausgerechnet diejenigen Regionen, in denen am wenigsten anthropogene Klimagase erzeugt werden und die im jeweiligen Winterhalbjahr die geringste Strahlungsmenge von der Sonne erhalten, am stärksten von einem Klimawandel durch anthropogene Klimatreiber betroffen sein werden, und zwar ebenfalls ausgehend von Temperaturproxys aus der geologischen Vergangenheit unserer Erde, die vom IPCC allerdings vordergründig mit dem CO2-Gehalt der Atmosphäre verknüpft werden.

Frage: Könnte es vielleicht sein, dass es sich bei der ominösen „Polaren Verstärkung“ des IPCC tatsächlich um die orbital verursachte Veränderung der sommerlichen Sonneneinstrahlung in höheren Breiten nach Köppen, Wegener und Milanković handelt?

Zumindest scheint beim IPCC in Abbildung SPM.3 mit den Beiträgen zur Temperaturveränderung eine gewisse Ignoranz bezüglich der Klimawirksamkeit einer schwankenden natürlichen Sonneneinstrahlung vorzuliegen. Insbesondere, wo es im IPCC AR5 (2013) in Kapitel 5 „Information from Paleoclimate Archives” auf Seite 388 ausdrücklich heißt, Zitat mit Hervorhebungen:

5.2.1.1 Orbital Forcing: The term ‘orbital forcing’ is used to denote the incoming solar radiation changes originating from variations in the Earth’s orbital parameters as well as changes in its axial tilt. Orbital forcing is well known from precise astronomical calculations for the past and future (Laskar et al., 2004). Changes in eccentricity, longitude of perihelion (related to precession) and axial tilt (obliquity) (Berger and Loutre, 1991) predominantly affect the seasonal and latitudinal distribution and magnitude of solar energy received at the top of the atmosphere (AR4, Box 6.1; Jansen et al., 2007), and the durations and intensities of local seasons. Obliquity also modulates the annual mean insolation at any given latitude, with opposite effects at high and low latitudes. Orbital forcing is considered the pacemaker of transitions between glacials and interglacials (high confidence), although there is still no consensus on exactly how the different physical processes influenced by insolation changes interact to influence ice sheet volume (Box 5.2; Section 5.3.2). The different orbital configurations make each glacial and interglacial period unique (Yin and Berger, 2010; Tzedakis et al., 2012a). Multi-millennial trends of temperature, Arctic sea ice and glaciers during the current interglacial period, and specifically the last 2000 years, have been related to orbital forcing (Section 5.5).”

Anmerkung: Die Literaturzitate des IPCC im Kapitel „5.2.1.1 Orbital Forcing“ enthalten keinen Hinweis auf die originäre und bahnbrechende Arbeit von Köppen und Wegener (1924) zu diesem Thema. Kann das vielleicht an deren eindeutiger Aussage zu Arrhenius liegen, der ja heute als einer der „Väter“ eines „natürlichen“ atmosphärischen Treibhauseffektes gefeiert wird?

Am Ende ist also eigentlich alles ganz einfach. Ein Entscheidungsträger kann darauf verzichten, den gesamten IPCC AR5-Bericht durchzulesen und sich in einer speziellen Zusammenfassung des IPCC für Entscheidungsträger umfänglich informieren. Wenn man in diesem IPCC-Bericht vielleicht irgendetwas doch nicht verstehen sollte und dort auch keine ausreichenden Bezüge hergestellt werden, beginnt man eine entsprechende Internetrecherche. Und wenn man dann ein zufällig gefundenes Schlüsselwort ins Englische übersetzt, kann man im englischsprachigen Wikipedia wiederum einen Hinweis zum IPCC finden. Diesem Hinweis folgt man über verschiedene singuläre PDF-Kapitel des ausführlichen IPCC-AR5-Berichtes, lässt sich durch massive Verweise auf einen „natürlichen“ CO2-Klimaantrieb nicht irritieren und landet am Ende tatsächlich bei der Aussage des IPCC, dass die natürlichen Übergänge zwischen Warm- und Kaltzeiten durch die zyklischen Veränderungen der Erdumlaufbahn (Milanković -Zyklen) verursacht werden.

Fazit: Die Menschheit lebt seit dem Ende der letzten Eiszeit in einem warmen Interglazial. Das bedeutet aber, dass diejenigen klimawirksamen Kräfte, die den Unterschied zwischen einer solchen klimatisch vorteilhaften Periode und einem Eiszeitalter mit wesentlich niedrigeren Durchschnittstemperaturen ausmachen, aktuell immer noch wirksam sein müssen. Eine Darstellung der möglichen Einflussfaktoren auf das globale Klima für den Zeitraum 1951-2010, wie sie das IPCC in seiner AR5-Zusammenfassung für Entscheidungsträger (2014) vorlegt, greift also viel zu kurz. Das sogenannte „orbitale Klimaforcing“ ist vielmehr der wirkliche Schlüssel zum Klimageschehen in unserer aktuellen Warmzeit und verdient daher unsere volle Aufmerksamkeit.

IPCC Copyright mit Hervorhebungen: “Reproduction of limited number of figures or short excerpts of IPCC material is authorized free of charge and without formal written permission provided that the original source is properly acknowledged, with mention of the complete name of the report, the publisher and the numbering of the page(s) or the figure(s). Permission can only be granted to use the material exactly as it is in the report. Please be aware that figures cannot be altered in any way, including the full legend. For media use it is sufficient to cite the source while using the original graphic or figure. In line with established Internet usage, any external website may provide a hyperlink to the IPCC website or to any of its pages without requesting permission.”




Abgeordneten-Check Kampagne: Mitmachen bei Dieselfahrverbote stoppen!

Handwerker, Pendler und Zuliefererbetriebe wären von lokalen Fahrverboten massiv betroffen, da die meisten Nutz- und Lastfahrzeuge mit Diesel betrieben werden. Für die deutsche Automobilindustrie bedeuten die Diesel-Fahrverbote einen immensen wirtschaftlichen Schaden. Der extrem niedrige, von Brüssel vorgegebene Stickoxid-Grenzwert ist unwissenschaftlich, willkürlich und widersprüchlich. Die Bundesregierung muss daher seine Erhöhung fordern, statt durch rigorose Umsetzung der Brüsseler Regelung den deutschen Wirtschaftsstandort weiter zu schwächen. Bitte setzen Sie sich dafür ein.

Video des Interviews im swr 1.
Prof. Dieter Köhler: „Die Gesundheitsgefahren durch Feinstaub und Stickoxide werden bewusst aufgebauscht“, sagt Dieter Köhler. Der Lungenspezialist glaubt, dass es bei der Debatte um Autoabgase nicht um die Gesundheit der Bevölkerung gehe, sondern um Arbeitsplätze und Forschungsgelder. „Es sei kein Nachweis erbracht worden, dass Feinstaub in höherer Dosis mehr Schäden verursache als bei niedriger Dosis“, so Professor Dieter Köhler.

HINTERGRUND

Mit dem sogenannten Diesel-Urteil vom 27. Februar 2018 hat der siebte Revisionssenat des deutschen Bundesverwaltungsgerichts das Verkehrsverbot für Diesel-Kraftfahrzeuge für zulässig erklärt. Das bedeutet: Deutsche Kommunen dürfen eigenständig Diesel-Fahrverbote verhängen.

Damit wurde vom Bundesverwaltungsgericht die Verpflichtung Deutschlands zur schnellstmöglichen Einhaltung der Stickstoffdioxid-Grenzwerte aus der Richtlinie 2008/50/EG über Luftqualität für Europa bestätigt. Begründet wurde diese Entscheidung mit der Rechtsprechung des EU-Gerichtshofs, nach welcher nationales Recht nicht angewendet wird, wenn dieses die volle Wirksamkeit des EU-Rechts verhindert.

Video des Interview Prof. Dr. Thomas Kraus zur Aachener NO2 Studie mit „Menschenversuchen“

Das Problem ist, dass sowohl die Festlegung der Grenzwerte für Stickoxide als auch die Methoden der Messung selbiger im Straßenverkehr höchst umstritten sind. Viele Kritiker sehen die Grenzwerte als unrealistisch und sogar widersprüchlich an: Während beispielsweise auf öffentlichen Straßen der Wert von 40 Mikrogramm pro Kubikmeter Luft nicht überschritten werden darf, sind am Arbeitsplatz schon 60 mcg gesetzlich zulässig. In Industrie und Handwerk liegt er gar bei 950 mcg pro Kubikmeter Luft.

Die beiden Bundesländer Baden-Württemberg und Nordrhein-Westfalen waren aus diesen Gründen in Revision gegangen. Doch sind sie vor dem Bundesverwaltungsgericht gescheitert. Auslöser war unter anderem die Klage der Deutschen Umwelthilfe (DUH) in Düsseldorf und Stuttgart. Die Städte, so die Anschuldigung, würden die neuen herabgesetzten EU-Grenzwerte nicht einhalten. Daher sollten die Städte im Zweifel die Straßen für Diesel-Autos sperren. Durch die Bestätigung des Bundesverwaltungsgerichtes sind nun in fast allen Städten und Gemeinden den Diesel-Fahrverboten Tor und Tür geöffnet, wenn die jeweiligen Kommunalverwaltungen dies beschließen.

Für Millionen deutsche Automobilfahrer könnte dies nicht nur eine Einschränkung ihrer Mobilität bedeuten, sondern auch erhebliche finanzielle Verluste nach sich ziehen. Denn je mehr der Diesel im Visier der DUH ist, desto mehr verlieren diese Autos an Wiederverkaufswert. Ausländische Fahrzeughersteller, die sich vom Diesel abwenden wollen, profitieren von dieser Entwicklung. So hat bereits Toyota beim Autosalon in Genf angekündigt, auf den Verkauf von Diesel-Fahrzeugen in Europa künftig verzichten zu wollen. Für die deutsche Automobilindustrie ist diese Entwicklung ein herber Rückschlag, da sie besonders viel in die Fortentwicklung der Diesel-Technologie investiert hat.