1

Klimawandel ist bunt? Das ZDF mag es gestreift!

Özden Terli ist das neue Gesicht der ZDF Wettererklärerriege. Bei Wikipedia finden wir etwas zu seinem Werdegang:

In den Jahren 1988 bis 1992 absolvierte Özden Terli eine Berufsausbildung zum FernmeldeanlagenElektroniker und holte später sein Abitur mit Schwerpunkt Physik/Philosophie am Köln-Kolleg auf dem Zweiten Bildungsweg nach. Terli studierte anschließend an der Freien Universität Berlin Meteorologie mit Nebenfach Astrophysik. In seiner Diplomarbeit, die er am Alfred-Wegener-Institut (AWI) für Polar- und Meeresforschung schrieb, beschäftigte sich Terli unter anderem mit dem Thema „Atmosphärischer Transport von Saharastaub über dem Atlantik – Lidarbeobachtungen an Bord des Forschungsschiffes Polarstern“. Dazu wurde ein neuartiges Lidar Gerät (ComCAL[1]) in mehreren Monaten gebaut.

Er versteht also etwas von seinem Fach, dazu noch einiges von Elektronik und Physik. Deswegen liegt es ihm wohl auch am Herzen dem gemeinen Zuschauer die Schönheit des Klimawandels nahe zu bringen. Z.B. mit der künstlerisch verfremdeten Temperaturganglinie eines Prof. Ed Hawkins.  Der Name steht jedenfalls unter der Grafik.

Terli gefiel die so gut, dass er sie vor lauter Begeisterung zeigte. Und das -fast identisch- gleich zweimal, nämlich in der 19Uhr-„HEUTE“ Sendung des ZDF vom 19.06.2018 und auf 3SAT vom selben Tag.

Trotz permanenter massiver Klimawandelpanik, die das ZDF schon lange seinen Zuschauern angedeihen lässt, sehen wohl manche nur bunte senkrechte Linien, während andere  vielleicht auf dem Foto nur viele senkrecht angeordnete Leuchtstoffröhren in hellem bunt vermuten dürften.

Dem muss entgegen gewirkt werden, und so sieht Terli in diesem Kunstwerk mal wieder den Klimawandel bestätigt und erklärt es den Zuschauern auch so.

Das das Klima sich wandelt hat zwar niemand bezweifelt, aber vielleicht meint Terli, es müsse immer wieder betont werden. Schließlich sind wir ja beim volkserzieherischen ZDF.

Video von Klimamanifest von Heiligenroth zur unterschiedlichen Deutung der Strichgrafik durch den Präsentator ZDF Wettermoderator Özden Terli

Die akribischen Leute vom Klimamanifest von Heiligenroth haben sich nun die gezeigte Darstellung und die Behauptungen des Herrn Terli genau angesehen und angehört. Und entdeckten gravierende Unterschiede zwischen der Sendung im ZDF und der in 3SAT.

Behauptet Terli noch in der „heute“ Sendung beim ZDF, dass dieses Bild (von Bildchen kann man wegen seiner Größe nicht sprechen) die „Temperaturabweichung“ (von was auch immer), aber in jedem Falle „weltweit“ zeige, bezeichnet er in der fast identischen 3SAT Sendung das Bild zeige die „globale Mitteltemperatur„.

Beides gleichzeitig kann es eigentlich nicht sein. Eine Abweichung von einem (ungenannten) Referenzwert ist eben -zumindest in den Naturwissenschaften- etwas anderes als eine Darstellung der Absolutwerte. Und doch ist es dieselbe Grafik.

Man kann daher annehmen, dass Terli hier ein Fehler unterlaufen ist, denn dass er den Unterschied nicht kennt, ist wohl eher unwahrscheinlich.

Vielleicht ist aber einfach auch nur wahr, dass für Terli, der Unterschied zwischen einer minimalen Temperaturerhöhung aus der Kälte der kleinen Eiszeit hin zum absoluten Wohlfühlwert von 15 °C einfach nicht wichtig genug ist. Wer weiß?




Die Leuchten vom Bundes-Umweltministerium

Oder sollte man sagen, eine Litanei? Wir hören: Mehr und mehr Erneuerbare Energien, lalala, mehr und mehr Elektroautos, lalala, Amen. Dazwischen ein zerknirschtes Eingeständnis, dass Deutschland seine Ziele nicht erreicht hat.

Sobald das böse A-Wort fällt – sobald also jemand darauf aufmerksam macht, dass dies mit dem staatlichen Kernenergieverbot in Deutschland zu tun hat, ist Bundesgreenpeace mit dem Megafon auf Posten und brüllt: Aufhören, aufhören! So ließ das Bundes-Umweltministerium gestern Mittag über seinen Twitter-Account wissen:

„Wer auf Atomkraft setzt, tut nichts für den Klimaschutz &  blockiert den notwendigen Wandel zu einer sicheren, nachhaltigen und umweltfreundlichen Energieversorgung. Und er hinterläßt künftigen Generationen viel radioaktiven Müll, dessen sichere Lagerung bis heute nicht geklärt ist.“

Stimmt das?

Aussage 1: „Wer auf Atomkraft setzt, tut nichts für den Klimaschutz“, ist unwahr. Wahr ist, dass Länder wie Frankreich, Finnland und Kanada, die auf Kernenergie setzen, auf besserem Wege sind als wir, auch ihre Klimaziele zu erreichen. Setzt man voraus, dass das BMU wider besseres Wissen zur Erreichung individueller politischer Ziele seiner Führung die Unwahrheit behauptet, dann kann man auch sagen: Hier lügt das Ministerium.

Aussage 2: „Wer auf Atomkraft setzt…. blockiert den Wandel“ ist ebenfalls unwahr. Heute laufende Kernkraftwerke können problemlos in Netzen mit Erneuerbaren arbeiten – das BMU weiß nur nicht, wie oft die Kernkraftwerke schon Beiträge zur Netzstabilisierung leisteten und leisten, und so den gelobten „Erneuerbaren“ die Ehre und mehr gerettet haben. Blockiert wird der Wandel zudem ungleich mehr auf den Gebieten Mobilität und Wohnungsbau, damit hat der Stromsektor nur wenig zu tun.

Wir können diese Aussage als unwahr aufgrund Unbildung und Unwissenheit einordnen. Man kann also auch sagen: Das BMU, zumindest so, wie es sich am Twitter-Account präsentiert, ist dumm.

Aussage 3: „…hinterlässt radioaktiven Müll, dessen Lagerung nicht geklärt ist“, ist ein Eingeständnis eigenen Versagens, denn wer, wenn nicht ein Umweltministerium, sollte alle Kräfte einsetzen, um dieses – übrigens lösbare – Problem zu lösen. Stattdessen gehörten sämtliche Umweltministerinnen und -minister unseres Landes von SPD und Grünen zu jener Blockade-Formation, welche eine Lösung systematisch verhinderte, sei es durch Verbot der Errichtung Schneller Reaktoren (die elegantere Lösung, Atommüll loszuwerden), sei es durch Verhinderung oder Diffamierung von Forschung über fortgeschrittene Reaktorkonzepte, sei es durch Verhinderung von bergbaulichen Lösungen.

Aussage 3 ist bestenfalls als Symptom der üblichen Polit-Praxis einzuordnen, eigenes Verschleppen und Versagen anderen, Unbeteiligten, am liebsten aber Kritikern in die Schuhe zu schieben. Hier lautet der Befund: Das BMU ist ein würdiger Vertreter unserer politischen Kultur.

Die besorgte Bürgerin fragt sich indessen, warum ein Ministerium, das die Unwahrheit sagt, öffentlich ungenügende Fachkenntnis seiner eigenen Materie demonstriert und Probleme vor sich herschiebt, politisch und fachkundemäßig überhaupt noch in der Lage ist, eine korrekte Oberaufsicht über die deutschen kerntechnischen Anlagen zu führen. Auch das gehört nämlich, man glaubt es nicht, zu seinen Aufgaben.

 

Der Beitrag erschien zuerst bei ACHGUT hier




Mojib Latif beim Schummeln ertappt

Unser Leser Dr. Wilfried Schnelle stieß am 15. März 2018 auf ein Interview von Mojib Latif im Deutschlandfunk. Dort ging Latif anlässlich des 30. Geburtstags des IPCC seiner liebsten Beschäftigung nach und spann eifrig Klimaalarm:

30 Jahre Weltklimarat: Erreichen des 1,5-Grad-Ziels “so gut wie ausgeschlossen”
Vor 30 Jahren wurde der Weltklimarat ins Leben gerufen – der Grund: man verdächtigte den Menschen, Hauptverursacher des Klimawandels zu sein. Das gelte heute als erwiesen, sagte er Klimaforscher Mojib Latif im Dlf. Dennoch habe der IPCC eine Aufgabe zu erfüllen: die Prognosen immer genauer zu machen.

Dr. Schnelle entdeckte zwei besonders bemerkenswerte Stellen. Hier Nummer 1:

Enorme Übereinstimmung bei Computer-Simulationen

Ehring: Es gibt ja immer wieder alarmierende Meldungen über das Klima, dass zum Beispiel der Meeresspiegel schneller steigt, als man bisher gedacht hat. Hat der IPCC am Anfang die Entwicklung noch unterschätzt, oder ist es ungefähr so gekommen, wie man damals vermutet hat?

Latif:Ganz grob ist es schon ungefähr so gekommen, wie man vermutet hatte.Wenn man die ersten Computer-Simulationen hernimmt und vergleicht, was in den Jahrzehnten danach tatsächlich passiert ist, dann ist doch eine enorme Übereinstimmung zu erkennen – nicht nur was die Entwicklung der globalen Durchschnittstemperatur angeht, sondern vor allen Dingen auch, was die regionale Verteilung der Erwärmung angeht. Denn es gibt sehr starke regionale Unterschiede und die Region beispielsweise, die sich am stärksten erwärmt hat bisher, ist die Arktis. Dort verläuft die Erwärmung doppelt so schnell wie im globalen Durchschnitt.

Das ist schon ziemlich erschreckend, was Latif da erzählt. Denn in Wirklichkeit hat sich das Klima weit schwächer erwärmt als von den IPCC-Experten prognostiziert. Die reale Temperaturkurve bewegt sich am unteren Ende des Vorhersagespektrums. Eine der Hauptursachen ist der unerwartete “Slowdown” der Erwärmung seit 1998, der bis kurz vor dem kräftigen El Nino 2016 sogar ein regelrechter Hiatus (Erwärmungsstopp) war. Wir haben über die Prognosefehlschläge an dieser Stelle immer wieder berichtet (hier, hier, hier, hier). Latif schert sich nicht um die unbequemen Fakten, erzählt tolle Geschichten von “enormen Übereinstimmungen”, die wohl vor allem nur er selber gesehen hat.

Und hier auch schon das zweite Highlight des Interviews:

Szenario Erderwärmung auf zwei oder fünf Grad

Ehring: Der IPCC betreibt ja selbst keine Wissenschaft. Wie ist die Arbeitsweise?

Latif: Der IPCC trägt zusammen, was in dem Berichtszeitraum an wissenschaftlichen Studien erschienen ist, und bewertet das dann auch. Man spricht im Englischen vom Assessment. Das heißt, dass man die Dinge zusammenträgt und bewertet. Eigentlich muss man sagen, der IPCC gibt auch immer einen Unsicherheitsbereich an. Der wird aber meistens nicht wahrgenommen, denn eine große Unbekannte bleibt natürlich. Die wird auch nie weggehen. Das ist nämlich die Frage, wie werden wir Menschen uns eigentlich in der Zukunft verhalten. Wird es so etwas wie eine globale Energiewende geben oder nicht, und wenn ja, wie schnell wird sie erfolgen. Deswegen streuen die Ergebnisse auch – nicht nur deswegen, aber vor allen Dingen deswegen -, und dann liest man hin und wieder, dass die Erwärmung bis zum Ende des Jahrhunderts vielleicht zwei Grad beträgt oder möglicherweise fünf Grad, und dann wundern sich die Menschen, wie kann denn das eigentlich angehen. Das liegt nicht daran, dass das eine Modell zwei Grad sagt und das andere Modell fünf Grad. Das liegt einfach an den Annahmen, an dem Szenario, das wir annehmen für die zukünftige Entwicklung der Treibhausgase in der Luft.

Wieder haben wir Latif beim Mogeln ertappt. Er erweckt hier den Eindruck, als ob die für die Modellsimulationen entscheidende Größe
der CO2-Klimasensitivität genau bekannt wäre und die Unsicherheit der Temperaturprognosen vor allen Dingen bei den Emissionspfaden liegt. Großer Quatsch! Die Größe des Intervalls für die CO2-Klimasensitivität im letzten IPCC-Bericht (AR5) von 1,5 bis 4,5 °C steht dieser impliziten Annahme eindeutig entgegen. Die Unsicherheit der Erwärmungswirkung des CO2 beträgt Faktor drei! Das könnte zum Beispiel eine Spanne von 2°C bis 6°C Erwärmung locker alleine erklären. Von Latif wird dies im Interview verschwiegen. Ehring hakt nicht nach, vielleicht weil er es nicht besser weiß. Insgesamt eine bedenkliche Irreführung der Öffentlichkeit. Das Schema ist übrigens keine Neues. Bereits im Online WWF-Klimakurs hat man es mit dieser Masche versucht. Und wer war bei der Erstellung des Kurses beteiligt? Dreimal dürfen Sie raten: Mojib Latif!

Übernommen von „Die kalte Sonne“ hier

Weitere Beispiele für Latif´s Schummeln finden Sie hier




Cyber-Angriffe auf deutsche Energieversorger

Demnach nutzen die Angreifer unterschiedliche Methoden, die ihnen in einigen Fällen Zugriff auf Büro-Netzwerke der Unternehmen ermöglicht haben. In mehreren Fällen konnten zudem Spuren der Angreifer nachgewiesen werden, die auf Angriffsvorbereitungen zur späteren Ausnutzung hindeuten. Derzeit liegen keine Hinweise auf erfolgreiche Zugriffe auf Produktions- oder Steuerungsnetzwerke vor.

Dazu erklärt BSI-Präsident Arne Schönbohm:

„Diese Angriffe zeigen, dass Deutschland mehr denn je im Fokus von Cyber-Angriffen steht. Dass bislang keine kritischen Netzwerke infiltriert werden konnten, zeigt, dass das IT-Sicherheitsniveau der deutschen KRITIS-Betreiber auf einem guten Level ist. Das ist auch ein Verdienst des IT-Sicherheitsgesetzes. Die bekanntgewordenen Zugriffe auf Büro-Netzwerke sind aber ein deutliches Signal an die Unternehmen, ihre Computersysteme noch besser zu schützen. Diese Entwicklung offenbart, dass es womöglich nur eine Frage der Zeit ist, bis kritische Systeme erfolgreich angegriffen werden können. Wir müssen daher das IT-Sicherheitsgesetz fortschreiben, so wie es bereits im Koalitionsvertrag der Bundesregierung festgehalten wurde. Die Bedrohungslage im Cyber-Raum hat sich in den vergangenen Monaten deutlich zugespitzt und es gibt keinen Grund zur Annahme, dass sie sich entspannen wird“.

Bereits im Juni 2017 hatte das BSI eine Warnung an mehrere hundert Unternehmen aus der Energiebranche herausgegeben, die Handlungsempfehlungen zum Schutz der Netzwerke enthalten hatte. Zum damaligen Zeitpunkt waren noch keine erfolgreichen Angriffe in Deutschland bekannt. Über das Nationale Cyber-Abwehrzentrum findet derzeit die koordinierte Fallbearbeitung mit anderen Behörden auf Bundes- und Landesebene statt.

Anmerkung der Redaktion: Man mag sich gar nicht ausdenken, welche weichen Ziele die sog. Smart Meter bieten, wenn deren Einbau erstmal großräumig vollzogen ist. Marc Elsbergs Bestseller „Blackout“ bietet dazu spannende Aufklärung an. Hier bestellen




Klimaschutzweltmeister Deutschland versagt beim „Klimaschutz“

Das war vorhersehbar. Denn seit 2009 sinken die Treibhausgasemissionen in Deutschland nicht mehr. Science-Skeptical hatte bereits 2015 berichtet.

Die Gründe. Dank der Energiewende wird per EEG subventionierter Strom aus Sonne und Wind mit Vorrang und in immer größeren Mengen in die Netze gedrückt, ohne das die Stromnetze und Speicher dafür ausgebaut wurden. Teure Gaskraftwerke, die Sonne und Wind ersetzen könnten, wenn in der Nacht die Sonne nicht scheint und/ oder Flaute herrscht, wurden nicht gebaut, da sie gegenüber den staatlich geförderten Erneuerbaren Energien nicht rentabel sind. Daher laufen die Braunkohlekraftwerke, die kostengüstig Strom erzeugen, allerdings nicht ab- und aufgeregelt werden können durch, auch wenn die Sonne scheint und der Wind weht. Die Folge: die deutschen Kohle-Stromexporte haben sich in den vergangenen fünf Jahren verzehnfacht. Deutschland ist Kohlestrom-Exportweltmeister! Das geht aus einem Gutachten für die Grünen-Bundestagsfraktion aus 2017 hervor. Österreich ist dabei der größte Kohlestromabnehmer aus Deutschland und importiert lieber kostengünstigen Kohlestrom aus Deutschland, als seine eigenen, „klimafreundlichen“, aber teuren Gaskraftwerke einzuschalten. Ähnlich sieht es in anderen Anrainerländern aus. Die CO2-Emissionen nehmen daher nicht nur in Deutschland, sondern europaweit nicht ab!

Video Ergänzung zu den Versprechungen von Kanzlerin Angela Merkel ab 2007 wie Deutschland den „Klimaschutz“ schaffen wird.

Ein weiterer Graund dafür, dass die Klimaschutzziele nicht erreicht werden ist, dass die Ausbauziele der Bundesregierung für Elektromobilität weit, weit verfehlt wurden. E-Autos sind auf deutschen Straßen weiterhin die Ausnahme und nicht die Regel. Der Grund: E-Mobilen mangelt es weiterhin an Reichweite und diese sind weiterhin in der Anschaffung viel zu teuer. Ein E-Mobil eignet sich allenfalls als Zweit-/ Stadtauto und das Ladestellennetz ist unzureichend und unkonfortabel. Die Leute wollen nicht ständig nach Ladestationen suchen und den Stecker in die Dose stecken, die dann vielleicht nicht mal passen, oder funktionieren.

Ebenfalls verfehlt hat die Bundesregierung ihre Energieeffizienzziele. Weder Stromverbrauch noch Energieverbrauch sind in Deutschland zurückgegangen.

energiekonzept

2_abb_entw-stromverbrauch_2018-02-14

2_abb_entw-eev-sektoren_2018-02-14_0

Es könne „sogar noch schlimmer kommen“, sagte die Umweltministerin jetzt der SZ. Mittlerweile hätten viele andere Länder beim Klimaschutz aufgeholt. „Vorreiter waren wir mal, über viele Jahre“, sagte Schulze. „Aber wir sind zu lange stehen geblieben.“

Laut des Climate Action Network (CAN) liegt die Bundesrepublik beim Klimaschutz inzwischen nur noch auf Platz 8 der 28 EU-Länder. Der Verband wirft Deutschland vor, ehrgeizigere Ziele auf EU-Ebene zu bremsen. Die ambitioniertesten Klimaschützer in Europa sind der Rangliste zufolge Schweden vor Portugal und Frankreich.

Der Beitrag erschien zuerst bei ScienceSceptical hier




AfD Abgeordnete führen Ministerin Schulze vor – Auf klare einfache Fragen nur verschwiemelte, ausweichende Antworten

Svenja Schulze, als ehemals freiberufliche Werbe – und PR  Expertin (Wikipedia)  nie um eine -und sei sie auch noch so abwegig- Phrase verlegen, zeigt wieder einmal worauf es beim „MinisterIn“ werden ankommt. Auf Kommando, oder auch ohne, sinnfreies Bla, bla, bla abzusondern – frisch vom Phrasengenerator memoriert- aber auf keinen Fall eine sachliche Frage sachlich zu beantworten. Dafür wären ja Fachkenntnisse nötig, die bei einer solche Laufbahn nur stören und daher unbedingt zu vermeiden sind.

Daher gilt es für diesen Job als Auswahlkriterium Nr. 1, möglichst keinerlei Ahnung vom Fach und seinen Themen zu haben, aber stramm  der Partei-Ideologie zu folgen, der man verpflichtet ist.

Diese besondere Eignung der MinisterIn Svenja Schulze wurde einmal mehr durch 3 Abgeordnete der AfD gefordert, die anlässlich der aktuellen Frage-Stunde zur Vorstellung, des in allen Bereichen seine Ziele verfehlten, „Klimaschutzberichtes“ (hier) der deutschen Bundesregierung, auf vier klar formulierte Fragen, einfache klare Antworten erbaten.

Sehen Sie selbst.

 

Video nicht mehr verfügbar

Videoausschnitt (Originalquelle PHOENIX) mit Fragen der AfD Abgeordneten Steffen Kotré, Karsten Hilse und Dr. Rainer Kraft an die Bundesumweltministerin Svenja Schulze anlässlich der Vorstellung des jährlichen „Klimaschutzberichtes“ der Bundesregierung am 13.6.18 im Bundestag  

Einige Stilblüten der MinisterIn Svenja Schulze aus der Fragerunde:

Auf die Frage (samt Nachfrage Min. 2:30) des Abgeordneten Steffen Kotré, ob die Regierung Beweise dafür hätte, dass das menschgemachte CO2 ursächlich für die Erwärmung nach der kleinen Eiszeit verantwortlich sei:

Antwortete Frau S. Schulze u.a.

„Wir werden uns darauf vorbereiten, dass es Klimaschutzveränderungen (Minute 1:30) gibt“

„Wir haben einen Klimawandel und wir müssen etwas dagegen tun“.

Lt. Abgeordneten Karsten Hilse (ab 3:20) folgt das IPCC einer Ideologie (3:52).

Dagegen verwahrte sich die MinisterIn ausdrücklich und nahm die „Forscherinnen und Forscher“ des IPCC vehement in Schutz (ab 4:28), die

„…betrieben ganz im Sinne ihrer Wissenschaft ihre Forschungen“.

Beifall von den völlig ideologiefreien GrünInnen und anderen im Saal

Um der MinisterIn etwas Nachhilfe zu erteilen hilft es sich mal wieder den Auftrag des IPCC und damit seiner „Forscherinnen und Forscher“ in Erinnerung zu rufen . (Hervorhebungen von mir)

Zum IPCC Mandat:

The IPCC does not conduct any research nor does it monitor climate related data or parameters. Its role is to assess on a comprehensive, objective, open and transparent basis the latest scientific, technical and socio-economic literature produced worldwide relevant to the understanding of the risk of human-induced climate change, its observed and projected impacts and options for adaptation and mitigation.

 

Das IPCC führt keine Forschung durch oder überwacht klimabezogene Daten oder Parameter. Seine Rolle besteht darin, auf einer umfassenden, objektiven, offenen und transparenten Grundlage die neueste wissenschaftliche, technische und sozioökonomische Literatur zu bewerten, die weltweit für das Verständnis des Risikos des vom Menschen verursachten Klimawandels, seiner beobachteten und prognostizierten Auswirkungen und seiner Anpassungs- und Vermeidungsoptionen relevant ist.

 

Nichts anderes dürfen die IPCC „Forscherinnen und Forscher“ als den „vom Menschen verursachten Klimawandel“ erforschen. Sie finden zwar dafür keinen Beweis, aber dann haben sie eben nicht lange und intensiv genug geforscht. 

Denn, damit auch gar nichts schief geht, bei der Erfüllung des Auftrages an die „Forscherinnen und Forscher“ die Gefahr des menschgemachten Klimawandels um jeden Preis nachzuweisen, hat sich die Mutterorganisation des IPCC, die UN in ihrer UNFCC (United Nations Frame Work Convention on Climate Change) Rahmenvereinbarung, beeilt zu definieren, was das Wort „Klimawandel“ nach ihrem Verständnis nur sein darf:

A change of climate which is attributed directly or indirectly to humanactivity that alters the composition of the global atmosphere andwhich is in addition to natural climate variability observed over comparable time periods.

 

Ein Wandel des Klimas, der direkt oder indirekt auf menschliche Aktivitäten zurückzuführen ist,verändert die Zusammensetzung der globalen Atmosphäre und wird zusätzlich zur natürlichen Klimavariabilität beobachtet über vergleichbare Zeiträume

 

Wann immer man also vom „Klimawandel“ spricht oder schreibt ist damit ausschließlich der menschgemachte Klimawandel gemeint. An etwas anderem darf das IPCC und seine „Forscherinnen und Forscher“ überhaupt nicht forschen. Hier einige weiterführende Erläuterungen zu den völlig schwammigen Grundlagen auf denen das IPCC – per Definition völlig „ideologiefrei“ versteht sich- seine Forschungen aufbaut

Auf den (erneuten) Hinweis von K. Hilse (Minute 4:00) , dass die deutsche Anstrengung bei völliger Dekarbonisierung des Landes, nur eine Minderung hypothetischer zukünftiger Erwärmung um 0,00065 ° C zu Folge hätte, ging die MinisterIn überhaupt nicht ein, sondern schwärmte von der deutschen Vorreiterrolle als führender Techniklieferant.

Wohl dem Lande, das solche MinisterInnen hat.

 

 

 




Trockengelegte (meliorierte) Moore sind keine klimarelevantes CO2 -Emittenten!

Seinen Aussagen zufolge sind die trockengelegten Moore mit jährlich mehr als 6 Millionen Tonnen CO2, entsprechend 77 % des aus dem Ackerbau stammenden CO2,  die größten Treibhausgasquellen in Mecklenburg-Vorpommern. Diese Aussage, die sich auf 300.000 ha Niedermoor mit einer unterstellten CO2-Emission von 20 t CO2/ha und Jahr bezieht, ist falsch, wissenschaftlich nicht nachvollziehbar, eine Fiktion mit schlimmen Folgen!

Allein die Mengenangabe – 20 t CO2  Emission/ha und Jahr – ist absurd! Das würde chemisch gesehen bedeuten, dass  5,45 t Kohlenstoff mit 14,55 t Sauerstoff (= 10,2 Mill l Sauerstoff bzw. 48,6 Mill. l Luft) im Moorboden oxydiert werden müssten! Um es zu verdeutlichen, es müssten vergleichsweise im feuchten Moorboden unter einer geschlossenen Grasnarbe in der Wachstumsphase in den Sommermonaten Kohlenstoffmengen in der Größenordnung eines hohen Weizenertrages (90 dt Korn und 40 dt Stroh/ha) „verbrannt“ werden!?

Klimarelevant, vergleichbar mit Benzin-, Kohle- und Erdgasverbrennung, wäre nur das CO2, das durch Oxydation des fossilen Moorkohlenstoffs entsteht. Dieser postglazial (nacheiszeitlich)  durch Inkohlung entstandene amorphe Moorkohlenstoff, der die Schwarzfärbung des Moorbodens bedingt, oxydiert – ebenso wie Kohle – nicht bei bloßer Gegenwart von Luft/Luftsauerstoff. Andere, noch zu CO2 umsetzbare fossile Pflanzenreste sind unbedeutend, benötigen ebensovielmal Sauerstoff wie direkte Kohlenstoffverbrennung  und tendieren infolge nicht vorhandener Nachlieferung ohnehin mit der Bewirtschaftungsdauer gegen Null.
Alles andere CO2, das durch Atmung der oberirdischen und unterirdischen lebenden Pflanzenteile (und Tiere) oder durch Umsetzung abgestorbener Biomasse (Wurzelmasse, tote Tiere usw.) entsteht, entstammt zuvor der Atmosphäre und ist Bestandteil des erwünschten und unser Leben garantierenden Kohlendioxydkreislaufes.
Im Gegensatz zur „Verteufelung“ sind insbesondere mit Kulturgräsern als Grasland genutzte Niedermoore bei an Winter-, Bearbeitungs-, Wachstums-  und Erntephasen angepasster Regulation des Wasserstandes besonders ertragsreiche und ertragssichere landwirtschaftliche Nutzflächen mit hoher Bindung von atmosphärischem CO2(12 – 25 t CO2-Äquivalente/ha und Jahr) für produktive Zwecke (Futter-, Energie oder Rohstoffgewinnung). Diese Flächen emittieren keine nennenswerten Mengen klimarelevantes CO2, im Gegenteil, sie haben eine hohe positive ökologische CO2-Bilanz! Diese Nutzungsform ist zugleich der beste Moorschutz, d.h. der Schutz durch sinnvolle Nutzung!

Der eigentliche Wissenschaftsskandal ist, dass „Moorschützer“ die nutzbringende CO2-Bindung im Grünmasseertrag als „Emission“ definieren und haben damit – den Selbstzweck bedienend –  Behörden und Zuwendungsgeber mit bewusst falschen Emissionswerten fehlgeleitet. Im Analogieschluss wäre die land- und forstwirtschaftliche Pflanzenproduktion Emission und müsste renaturiert/vernichtet werden!
Diese „Emission“, den Grünmasseertrag und damit die Wertschöpfung durch CO2-Akkumulation,  hat man in MV auf mehreren Zigtausend Hektar mit Steuer- und Fördermitteln durch erzwungene Wiedervernässung, die sogenannte Renaturierung, nachhaltig beseitigt. Aus ökologischer Sicht wurden  zudem die bedeutende Freisetzung von Sauerstoff zur Regeneration der Atmosphäre, die entwässernde Transpiration und Gewässerreinigung durch Ernteentzug vereitelt und die klimaschädliche Methanemission reaktiviert, sodass Renaturierungsflächen durch die hohe atmosphärische Wirkung des emittierten Methans nicht nur eine hohe negative ökologische Bilanz ausweisen, sondern sind darüber hinaus durch die Zerstörung der Kulturlandschaft und des Lebensraums ein landeskultureller Frevel.

Renaturierung bewirkt im Gegensatz zu Behauptungen keine „Einsparung“ an klimarelevantem CO2 und der CO2-Ablasshandel mit „MoorFutures“ ist Betrug am Käufer, an der Gesellschaft und an der Natur!

Wenigstens ist zu begrüßen, dass der Agrar- und Umweltminister – wenn auch nicht aus Erkenntnis – so doch aus ökonomischen Zwängen diese Niedermoorflächen nicht mehr aus der Nutzung nehmen und der Sukzession anheim fallen lassen kann.

Literatur
http://www.eike-klima-energie.eu/climategate-anzeige/renaturierung-von-mooren-eine-fiktion-mit-verheerenden-folgen/
http://www.eike-klima-energie.eu/climategate-anzeige/die-oekologischen-leistungen-des-kulturpflanzenbaus-und-der-renaturierungsflaechen/

Dr. agr. Arthur Chudy

Lebensraum Peenetal e.V.

achudy@aol.com




Die Sonne im April 2018: Klima­empfindlich­keit gegen­über CO2 und die Kohle­kommission

Sehr geehrte Damen und Herren,

leider komme ich urlaubsbedingt erst jetzt dazu, Ihnen über den April 2018 zu berichten. Die Sonne war auch im vergangenen April sehr wenig aktiv. An 16 Tagen war die Sonne vollständig fleckenlos; die Sonnenfleckenzahl des Monats betrug weniger als ein Drittel des zu Erwartenden.

In unserem März-Bericht hatten wir die neuesten Forschungsergebnisse zur Klimaempfindlichkeit gegenüber CO2 vorgestellt. Danach ist die Klimaerwärmung bis zu 45 % geringer als uns das IPCC und der mainstream der Klimawissenschaftler glauben lässt. Das Interessante aber war die Reaktion des mainstreams darauf: die Methoden der Arbeit von Curry und Lewis werden nicht angezweifelt. Aber es könnte ja sein,- so der mainstream – dass die Erde in der Zukunft ganz anders, nämlich wärmer auf CO2Emissionen reagiert. Das kann man eher spekulative Wissenschaft nennen, nämlich auf Modelle zu vertrauen, die in der Vergangenheit versagt haben und weder Meeresströmungen noch Wolken abbilden können.

Das Fundament des Pariser Abkommens ist also zusammengebrochen. Bis 2100 werden wir, was immer wir tun, die 2 Grad-Grenze nicht überschreiten. Was passiert nun mit der weltweiten Kohlenutzung? Außer in Europa und Kanada gibt es keinen Abschied von der Kohle. China und Indien dürfen nach dem Pariser Abkommen- wie alle Entwicklungsländer- die Kohlekraftwerkskapazitäten massiv ausweiten. In China kommen 280 000 MW hinzu in Indien 174 000 MW. Zum Vergleich: die gesamte Braunkohlenflotte Deutschlands hat eine Kapazität von 22 700 MW. 1600 Kohlekraftwerke werden weltweit in 62 Ländern gebaut, die meisten übrigens durch chinesische Kraftwerksbauer und mit Hilfe chinesischer Kredite. So etwa 15 300 MW in Pakistan, 16 000 in Bangladesh, selbst Myanmar 5100 MW. (Quelle : South China Morning Post). Insgesamt wird die Kohlekraftwerkskapazität weltweit um 43 % erweitert. Selbst Japan setzt auf Kohle, versucht allerdings mit Hilfe von CCS (Carbon Capture and storage), die CO2-Emissionen nicht weiter ansteigen zu lassen. Daher erscheinen die CO2-Verminderungsziele Japans auch eher bescheiden : 16 % bis 2030 und 25 % bis 2050. Zum Vergleich Deutschland 2030 40 % und 2050 80 bis 95 %.

Was andere Länder nicht schaffen, wollen wir mit Hilfe einer Kohlekommission erreichen, die eben nicht mit Energie-, Netz- und Technologieexperten besetzt ist, sondern mit Greenpeace, BUND und lokalen Bürgerinitiativen gegen Braunkohle. Dass allein in der Lausitz eine jährliche Wertschöpfung von 2 Milliarden € aufs Spiel gesetzt wird, werden die Wähler in diesem Raum im nächsten Jahr bei den Wahlen in Brandenburg und Sachsen nicht vergessen haben, zumal die ehemaligen Ministerpräsidenten von Brandenburg (SPD), Platzeck, und Sachsen (CDU), Tillich, der ehemalige Kanzleramtsminister Pofalla, flankiert von einer ehemaligen grünen Volkswirtin von AGORA an der Spitze der Kommission stehen. Aber was sind schon verlorene Landtagswahlen, wenn es doch um die Rettung der Welt geht ! Und dann sind ja noch die Grüne Gunda Röstel von der Stadtentwässerung Dresden und der Grüne Rainer Priggen, Vorsitzender des Lobbyverbandes Erneuerbare Energien in Nordrhein-Westfalen als Experten in der Kohlekommission. Auf die Idee auch Kritiker der alternativen Windenergie, die mittlerweile die grösste Naturzerstörung in Deutschland seit dem 2. Weltkrieg verursacht hat, ist kein Politiker der Bundesregierung gekommen. Dass die Verdreifachung der Windenergiekapazität in Deutschland zu einem durchschnittlichen Abstand der Windmasten von 2,7 km führt, interessiert die Bundesregierung nicht.

Am Parlament vorbei darf nun Prof. Schellnhuber seinen Traum von der “Grossen Transformation” ausleben. In einem Gutachten für die Bundesregierung hatte der von ihm geleitete Sachverständigenrat WBGU 2011 einen ” Gesellschaftsvertrag für eine Große Transformation” vorgelegt. Die Kernthese des WBGU ist folgende: das gegenwärtige Wirtschaftsmodell (“fossiler industrieller Metabolismus”) sei normativ unhaltbar. Der Umbau der Weltwirtschaft müsse schnell gehen, auf Kernenergie und Kohle sei gleichzeitig und kurzfristig zu verzichten. In Deutschland solle demnach der Klimaschutz allgemeines Staatsziel werden, an dem das Handeln von Legislative, Exekutive und Judikative ausgerichtet werde. “Um Zukunftsinteressen institutionell zu verankern, empfiehlt der WBGU zu erproben, das parlamentarische Gesetzgebungsverfahren um eine deliberative ‘Zukunftskammer’ zu erweitern. Um interessens- und parteipolitische Einmischung zu vermeiden, könnte die Zusammensetzung dieser Kammer beispielsweise durch Losverfahren ermittelt werden.”

Dem Losverfahren kommt die Besetzung der Kommission schon ziemlich nahe. Da es zur Zeit keine wirklich belastbare Alternative durch erneuerbare Energien weder hinsichtlich der Versorgungssicherheit noch der Wettbewerbsfähigkeit gibt, heißt Dekarbonisierung nichts anderes als  Deindustrialisierung. Die Chinesen kommen aus dem Grinsen nicht mehr heraus. Nach dem Motto Frechheit siegt und Dummheit verliert, haben sie nun verlauten lassen, dass ihr massives Kohlekraftwerksprogramm aus dem mit 100 Milliarden Dollar jährlich gespeisten Pariser Green Climate Fund finanziert werden soll. Die 100 Milliarden Dollar sollen von den Industrieländern getragen werden; Deutschland hatte 2016 einen Beitrag von 8,5 Milliarden € ab 2020 in Aussicht gestellt. Trump war clever genug, rechtzeitig aus diesen Pariser Schildbürgerstreichen auszusteigen.

Es grüßt Sie kopfschüttelnd
Ihr
Fritz Vahrenholt




Russische Arktis war 1920-1940 wärmer als heute

 Abb. 1: Temperaturentwicklung der Arktis während der letzten 40 Jahre. Daten: UAH. Graphik: Climate4You

Wir sehen in den letzten 4 Jahrzehnten eine Erwärmung. Nach einer (El Nino-) Wärmespitze 2016 geht es nun aber wieder stetig bergab. Die kältesten Temperaturen gab es Ende der 1980er und Anfang der 1990er Jahre. Davor war es wärmer. Um 1980 wurden ähnliche Temperaturen gemessen, wie heute. Leider gibt es keine Satellitendaten aus der Zeit von vor 1979, daher ist noch  nicht einmal ein voller 60-Jahres-Ozeanzyklus abgedeckt, was die Zuordnung von anthropogenen und natürlichen Anteilen an der Erwärmung der letzten Jahrzehnte erschwert.

Aber es gab natürlich Wetterstationen vor 1979. Und die haben in der Arktis bereits in den 1930er und 40er Jahren eine Wärmephaseaufgezeichnet, während der es ähnlich warm war wie heute. Beispiel: Opel et al. 2009 rekonstruierten die Temperaturgeschichte in der russischen Arktis für die letzten 100 Jahre anhand eines Eiskerns. Das Wärmemaximum ereignete sich in den 1930er Jahren, nicht etwa heute:

115 Jahre Eiskerndaten von Akademii Nauk Eiskappe, Severnaya Zemlya: hochauflösende Aufzeichnung des eurasischen arktischen Klimawandels
Von 1999 bis 2001 wurde ein 724 m tiefer Eiskern auf der Akademii Nauk Eiskappe, Severnaya Zemlya, gebohrt, um hochauflösende Proxy-Daten aus der zentralen russischen Arktis zu gewinnen. Trotz der starken Schmelzwasserperkolation im Sommer liefert dieser Eiskern wertvolle Informationen über die regionale Klima- und Umweltgeschichte. Wir präsentieren Daten von stabilen Wasserisotopen, Schmelzschichtgehalt und Hauptionen von den obersten 57 m dieses Kerns, die den Zeitraum 1883-1998 abdecken. Die Datierung wurde durch Zählen saisonaler Isotopenzyklen und unter Verwendung von Referenzhorizonten erreicht. Die mehrjährigen δ18O-Werte reflektieren die sub-arktischen und arktischen Oberflächen-Lufttemperaturschwankungen. Wir fanden starke Korrelationen zu Instrumententemperaturdaten von einigen Stationen (z. B. r = 0,62 für Vardø, Nordnorwegen). Die δ18O-Werte zeigen deutliche Temperaturänderungen im 20. Jahrhundert, mit einem starken Anstieg um 1920 und dem absoluten Temperaturmaximum in den 1930er Jahren. Eine kürzliche Abnahme der Deuterium-Überschuss-Zeitreihe deutet auf eine zunehmende Rolle der Karasee als regionale Feuchtigkeitsquelle hin. Aus den mehrjährigen Ionenvariationen haben wir im 20. Jahrhundert abnehmende Meeressalz-Aerosoltrends abgeleitet, die sich in Natrium und Chlorid widerspiegeln, während Sulfat und Nitrat stark von anthropogenen Verschmutzungen betroffen sind.

Abb. 2: Temperaturentwicklung Severnaya Zemlya (russische Arktis) während der letzten 130 Jahre. Ausschläge nach oben=warm. Quelle: Opel et al. 2009

 

Ein Teil der Arktis-Erwärmung geht übrigens auf Maßnahmen zur Reinhaltung der Luft in Europa zurück. Die anthropogenen Sulfatpartikel hatten lange Jahre lang die Temperaturen der Arktis gekühlt wie die Universität Stockholm mitteilte (via Science Daily). Sollen wir aus Klimaschutzgründen jetzt wieder anfangen zu ferkeln?

Europäische Luftreinhaltepolitik entlarvt die Erwärmung der Arktis durch Treibhausgase

Die drastische Verringerung der Sulfatpartikelemissionen in Europa erklärt zum Teil die verstärkte Erwärmung der Arktis seit den 1980er Jahren, wie eine neue Studie in Nature Geoscience zeigt.

Die drastische Verringerung der Sulfatpartikelemissionen in Europa erklärt zum Teil die verstärkte Erwärmung der Arktis seit den 1980er Jahren, wie eine neue Studie in Nature Geoscience zeigt. Das Team, das sich aus Wissenschaftlern der Universität Stockholm und des norwegischen Meteorologischen Instituts zusammensetzt, erklärt, dass ihre überraschende Erkenntnis ein noch dringenderes Bedürfnis nach einer Verringerung der Treibhausgasemissionen zur Abschwächung des Klimawandels in der Arktis zeige. Menschliche Aktivitäten wie industrielle Produktion, Transport, Stromerzeugung und Holzverbrennung emittieren große Mengen winziger Schadstoffpartikel, die z. B. Ruß und Sulfat enthalten, in die Atmosphäre. Hohe Luftmengen dieser Partikel, auch Aerosolpartikel genannt, verursachen in Europa jährlich etwa 400.000 vorzeitige Todesfälle und können über weite Entfernungen transportiert werden. Aerosolpartikel haben unterschiedliche Größen sowie chemische und physikalische Eigenschaften, die alle ihre Klimawirkung bestimmen.

"Rußpartikel absorbieren Sonnenstrahlung und erwärmen das Klima, ähnlich wie Treibhausgase wie Kohlendioxid. Sulfatpartikel dagegen reflektieren die Sonnenstrahlung und wirken als Keime für die Bildung von Wolkentröpfchen und kühlen dadurch das Klima ", sagt Juan Acosta Navarro, Doktorand am Department of Environmental Science and Analytical Chemistry (ACES) und am Bolin Zentrum für Klimaforschung, Universität Stockholm, und Co-Autor der Studie. Er fährt fort: "Die Gesamtwirkung von Aerosolpartikeln menschlichen Ursprungs auf das Klima hat sich im letzten Jahrhundert abgekühlt, was die durch die Zunahme der Treibhausgasemissionen verursachte Erwärmung teilweise verdeckt hat."
Sulfatemissionen, die zum Beispiel sauren Regen verursachen, erreichten in Europa und Nordamerika in den 1980er Jahren ihren Höhepunkt, was zur Einführung strenger Regelungen führte, um diese zu reduzieren. Die neue Studie zeigt, dass diese Politik tiefgreifende Auswirkungen auf die Arktis hatte. "Mithilfe eines numerischen Klimamodells konnten wir feststellen, dass Sulfatreduktionen in Europa zwischen 1980 und 2005 einen beträchtlichen Teil der verstärkten Erwärmung in der Arktis in diesem Zeitraum erklären können, da sich der Ferntransport, atmosphärische Winde und Meeresströmungen verändert haben. Mit anderen Worten, dank der in Europa eingeführten Luftqualitätsvorschriften wurde ein Teil des Maskierungseffekts von Aerosolpartikeln reduziert, was die wahre Erwärmung der Arktis durch Treibhausgase aufzeigt ", sagt Annica Ekman, Professorin am Department of Meteorology (MISU). und Bolin-Zentrum für Klimaforschung, Universität Stockholm, die auch diese Studie mitverfasst hat. Die Wissenschaftler erwarten eine weitere Erwärmung in der Arktis, da die Treibhausgasemissionen weiter ansteigen werden und die Aerosolpartikelemissionen wahrscheinlich abnehmen werden, um die Luftverschmutzung in verschiedenen Teilen der Welt zu bekämpfen.

J. C. Acosta Navarro, V. Varma, I. Riipinen, Ø. Seland, A. Kirkevåg, H. Struthers, T. Iversen, H.-C. Hansson, A. M. L. Ekman. Amplification of Arctic warming by past air pollution reductions in Europe. Nature Geoscience, 2016; DOI: 10.1038/ngeo2673

Aber auch nachträgliche Veränderungen der Messdaten lassen die Arktis heute wärmer erscheinen als sie wohl eigentlich ist (siehe hierund hier). Eine schöne Zusammenfassung zum Klimawandel in der Arktis kann man bei Judith Curry finden.

Der Beitrag erschein zuerst bei „Die kalte Sonne“ hier




Immobilisierung von Plutonium und Cie!

Andersherum war dies der Grund, warum man sich recht früh auf ein „Teststoppabkommen“ in der Atmosphäre geeinigt hat. Es wurden über 2000 Kernwaffentests international durchgeführt. Durch die Zündung von Kernwaffen in der Atmosphäre wurden zig Tonnen Uran, Plutonium und Spaltprodukte über die gesamte Erde verteilt. Auch das wieder als Hinweis, wie schamlos die Propaganda von Greenpeace und Konsorten bezüglich „Atommüll“ ist, von denen ja wenige Gramm ausreichen sollen, die ganze Menschheit auszurotten.

Eine vorübergehende Lagerung

Plutonium wird z. B. in den USA in Fässern aus Edelstahl gelagert. Diese Fässer sind etwa 90 cm hoch und haben einen Durchmesser von 50 cm und beinhalten eine Portion von jeweils etwa 4,4 kg Plutonium. Wegen dessen hoher Dichte eine sehr „luftige“ Verpackung. Dies geschieht aus Sicherheitsgründen, damit auf jeden Fall eine Kettenreaktion verhindert wird. Diese Fässer stehen in ständig überwachten Bunkern. Selbst die kleinste Undichtigkeit würde sofort erkannt werden.

Alle Transurane sind nur schlecht wasserlöslich. Eine Verbreitung über große Strecken ist schon deshalb ausgeschlossen. Dies ist nicht nur eine theoretische Überlegung, sondern auch in unfreiwilligen Großversuchen betätigt: In den Anfangsjahren der Kernwaffenproduktion hat man die gesamte Brühe (Spaltprodukte, Minore Aktinoide usw.) einfach in unterirdischen Tanks (Abschirmung) gelagert. Teilweise sind diese undicht geworden und ein Teil der Ladung ist im Boden versickert. Man verfügt deshalb über jahrzehntelange Messreihen zur Ausbreitung aller Spaltprodukte und von Plutonium im Erdboden. Im Laufe der Jahrzehnte hat sich in diesen Tanks eine Schlammschicht aus „Atommüll“ abgelagert. Diese wird nun kostspielig beseitigt und für eine Endlagerung im WIPP umgeformt. Vor dem Transport zum WIPP werden sie verglast und in endlagerfähige Behälter aus Edelstahl abgegossen.

Die Verglasung

Glas ist ein sehr haltbarer Werkstoff. Wir finden heute noch Glasscherben aus der Antike, die aussehen, als wären sie erst gestern hergestellt worden. In der Fischerei werden deshalb z. B. Glaskugeln als Schwimmkörper eingesetzt. Sie halten Salzwasser und hohen Drücken über Jahrzehnte stand. Zudem ist Glas auch noch billig und einfach (Automatisierung) herstellbar. Jahrzehntelang hat man weltweit Spezialgläser entwickelt, die ein besonders hohes Rückhaltevermögen für Spaltprodukte und Transurane besitzen.

Der plutoniumhaltige Abfall wird kalziniert (bei hohen Temperaturen gebrannt um alle chemischen Verbindungen aufzubrechen und das Kristallwasser auszutreiben) und gemahlen. Parallel wird in einem Schmelzofen eine Glasfritte erzeugt, in die der Abfall eingestreut wird. Der Abfall löst sich wie Zucker im heißen Tee gleichmäßig im flüssigen Glas auf. Je nach Abfallzusammensetzung kann man etwa 20 bis 30% Abfall auflösen. Ist die Mischung homogen, wird sie in Edelstahlbehälter abgegossen. Da Glas eine „unterkühlte Flüssigkeit“ ist, erhält man auch im erkalteten Zustand einen homogenen „Abfallblock“.

Die Abfallmenge, die bisher verglast und bis 2009 in der WIPP eingelagert wurde, enthielt etwa 4,5 to Plutonium. Weitere 17 to stark verunreinigtes Plutonium sind ebenfalls zur direkten Endlagerung in der WIPP vorgesehen.

Bildung von synthetischem Gestein

Eine weitere Methode — die besonders für Plutonium — geeignet erscheint, geht genau einen anderen Weg: Man stellt einen synthetischen Stein her (SynRoc) in dessen Kristallgitter das Plutonium fest eingebaut ist. Diese künstlichen Steine sollen noch einmal um den Faktor eine Million weniger löslich sein als Glas. Man hat in verschiedenen Einrichtungen in den USA und in der Wiederaufbereitungsanlage in Sellafield (GB) mehrere to Plutonium mit dieser Methode eingeschlossen. Es handelt sich dabei um jeweils kleine Mengen Plutonium aus verschiedenen Forschungsprogrammen. Es lohnt nicht, diese „geringen Mengen“ aufwendig mit Spezialverfahren aufzubereiten. Es ist zumindest wirtschaftlicher, diese Mengen mit ins Endlager zu geben.

Bei dem SynRoc-Verfahren wird ein Gestein auf der Basis von ausgewählten Titanaten hergestellt. Diese werden in der richtigen Mischung mit Wasser vermahlen und das Plutonium (bis 30%Gew) zugesetzt. Dieser Schlamm wird getrocknet und bei 750°C kalziniert um ein feines Pulver zu erhalten. Dieses Pulver wird auf einer automatischen Abfüllanlage in kleine, hantelförmige Edelstahldosen abgefüllt, die sofort verschweißt werden. Der entscheidende Verfahrensschritt ist nun ein heißisostatisches Pressen: Die „Hanteln“ werden acht Stunden lang bei 1300°C und einem Druck von 1000 bar gesintert. Heraus kommen schwarze, gesteinsartige Zylinder.

Zurück zur Abrüstung

Wie schon ausgeführt, ist die Lagerung von Plutonium kein großartiges Problem. Das Problem bei reinem Pu239 ist vielmehr, daß man es jederzeit wieder zum Bau neuer Kernwaffen verwenden kann. Das Sicherheitsproblem ist also nicht der Strahlenschutz, sondern der „Diebstahlschutz“. Die National Academy of Sciences erschuf den „Selbstschutz-Standard durch γ-Strahlung“ auf der Basis von „abgebrannten Brennelementen“. Fast das gesamte Strahlungsfeld wurde auf den Zerfall von Cesium-137 mit einer Halbwertszeit von 30 Jahren bezogen.

Nachdem man langsam zu der Erkenntnis gelangte, daß das Mischoxid-Programm völlig aus dem Ruder lief, hat die Obama-Administration 2014 folgende Alternativen vorgeschlagen:

  1. Verdünnung des Plutoniums mit noch vorhandenem Restmüll und anschließende Einlagerung im WIPP.
  2. Der „can in canister“ Ansatz zur Einlagerung in hochaktivem Glas.
  3. Entsorgung in 5000 m tiefen Bohrlöchern, und
  4. Bestrahlung in einem natriumgekühlten Reaktor mit schnellem Neutronenspektrum.

DIE VERDÜNNUNG

Die Verdünnung des Plutoniums durch die Auflösung in noch vorhandenem Restmüll aus der Wiederaufbereitung kann man wohl nur als Schnapsidee bezeichnen. Man erzeugt damit wieder besonders langlebigen „Atommüll“. Zum Glück hat man nur noch kleine Mengen unverglasten Restmüll in den Labors übrig, die nicht ausreichen werden um das „Überschuss Plutonium“ auf diese Art zu beseitigen. Allenfalls geringe Mengen — die auf irgendeine Art besonders schwer zu behandeln sind — sind so gegen Diebstahl zu schützen.

Eine Abwandlung dieses Weges hat das Energieministerium (DOE) schon 2011 beschritten: Über 580 kg Plutoniumoxid Pulver aus den Labors der Savannah River Site wurden mit einem geheimgehaltenen Stoff gemischt, der angeblich besonders schwer wieder zu trennen ist. Diese Mischung — mit einem Anteil von 10% Plutonium — wurde in Rohre von 15 cm Durchmesser abgefüllt, die wiederum einzeln in 200 l Fässern eingeschlossen wurden (“pipe-overpack containers”). Der Gehalt an Plutonium pro Faß wurde auf höchstens 175 gr begrenzt.

Würde man den Gehalt pro Faß auf 340 gr Plutonium erhöhen, wären für 50 to Plutonium rund 150 000 Fässer nötig. Eine — von derzeit sieben Kammern im WIPP Endlager— könnte 90 000 Fässer aufnehmen. Ursprünglich betrug das genehmigte Einlagerungsvolumen für das WIPP 176 000 m3 für Abfall mit Transuranen. Eine Genehmigung für eine Erweiterung ist in Arbeit.

Die Kritik von Sicherheitsexperten über diese Methode zur Einlagerung von waffengrädigem Plutonium ist nicht ganz von der Hand zu weisen: Für den Bau einer „Nagaski Bombe“ wären etwa 20 solcher „Rohre“ mit den Abmessungen von 15 cm Durchmesser und 60 cm Länge nötig. Bei einer Stückzahl von 150 000 Stück, mit diversen verteilten Produktions- und Lagerstätten eine extrem geringe Anzahl. Die bewegt sich schon in in der Größenordnung vorgekommener Buchung- und Bilanzierungsprobleme. Selbst ein reiner Papierverlust wäre eine Katastrophe in der öffentlichen Wahrnehmung.

DAS DOSE IN KANISTER VERFAHREN

Aus dem „Selbstschutz-Gedanken“ wurde das „can in canister“ Verfahren entwickelt. Man mischt etwa 10% Plutonium mit speziellen Stoffen, die besonders schwer trennbare chemische Verbindungen mit ihm eingehen, presst dieses Pulver in Scheiben und sintert diese zu Keramik. Das ergibt die „Immobilisierung“. Diese Scheiben werden in Dosen von etwa 6 cm Durchmesser und 25 cm Höhe gefüllt. Jede dieser Dosen enthält etwa 1 kg Plutonium. Jeweils 28 Dosen kommen in einen Kanister von etwa 3 m Kantenlänge und werden mit flüssigem, strahlenden Glas aus der Beseitigung von hochaktivem „Atommüll“ umgossen. Für die geplant 50 to „Überschussplutonium“ werden also 1800 solcher Kisten benötigt. Genau das ist aber das Problem: Die USA haben gar nicht mehr solche Mengen unbehandelten hochaktiven Müll zur Verfügung.

Das Energieministerium (DOE) hat als Standard für eine „Selbstsicherung“ bei solchen Kanistern eine Strahlendosis von 1 Sv pro Stunde in einem Abstand von einem Meter in 30 Jahren nach der Befüllung definiert. Man würde deshalb für die Kanister über 1,221×1018 Bq Cäsium-137 (rund 225 kg) benötigen. Zur Orientierung: Bei der Tschernobyl-Katastrophe soll eine Aktivität von etwa 8,5×1016 Bq Cs137 freigesetzt worden sein.

BOHRLÖCHER

Seit Jahrzehnten gibt es den Vorschlag „Atommüll“ in tiefen Bohrlöchern (ca. 3000 bis 5000 m tief) einzulagern. Dahinter steckt der Grundgedanke: Tiefe = langer Weg bis zur Oberfläche = lange Zeitdauer. Die angepeilte Tiefe ist etwa die zehnfache Tiefe von bergmännischen Endlagern. Diese große Tiefe stellt eine zusätzliche Sicherheit vor der „Wiedergewinnung“ des „Waffen-Plutoniums“ dar.

Es wurden bereits Demonstrations-Bohrungen durchgeführt und über 110 Standorte in den USA bewertet. Kriterien waren unter anderem: Entfernung zu Siedlungsgebieten, das Vorhandensein von kristallinem Grundgestein ab 2000 m Tiefe, flacher Verlauf der Schicht, geringer geothermischer Wärmestrom und geringer Vulkanismus.

Diese Form der Endlagerung geht davon aus, daß es mindestens drei Gründe gibt, warum ein natürlicher Transport durch Wasser bis an die Oberfläche nahezu ausgeschlossen ist — selbst wenn das Plutonium sich aufgelöst hat:

  1. Der gewaltige Gebirgsdruck in solchen Tiefen schließt etwaige Risse und Spalten sehr schnell, sodaß es nur zu sehr geringen Strömungen von Wasser kommt.
  2. Plutonium hat nur eine äußerst geringe Löslichkeit in solch sauerstoffarmen Tiefenwasser.
  3. Tiefenwasser ist meist mit Mineralien und Salzen gesättigt, was eine hohe Dichte zur Folge hat. Es gibt deshalb wenig Auftrieb, der es überhaupt mit eher oberflächennahem „Trinkwasser“ in Kontakt bringen könnte.

Die Bohrungen sollen auf die Mindesttiefe plus einem zusätzlichen Stück zur Einlagerung abgeteuft werden. Studien haben ergeben, daß so ein „Lagerraum“ von etwa 40 m3 pro Bohrung (Enddurchmesser ca. 16 cm) geschaffen werden kann. Nach Einlagerung wird die Bohrung wieder sorgfältig verfüllt. Ein erprobter Vorgang bei zig Tausend Bohrungen in der Öl- und Gasindustrie.

Bisher ist diese Methode an zu hohen Kosten gescheitert. Allerdings hat die Bohrtechnik in den letzten Jahren einen sehr rasanten Fortschritt erlebt. Inzwischen gibt es sogar schon Studien über horizontale Bohrungen in geeigneten Schichten. Man geht von einem dramatischen Verfall der Kosten aus. In Verbindung mit der ebenfalls rasanten Entwicklung von Robotern, ein durchaus vielversprechender Ansatz auch für die Endlagerung von besonders hochaktivem „Restmüll“.

BESEITIGUNG IN REAKTOREN .

In diesem Blog ist schon vieles über Reaktoren mit schnellem Neutronenspektrum geschrieben worden. Man kann nur hoffen, daß auch die USA den Mut haben, diesen Weg einzuschlagen. Ein guter Start wäre der Bau z. B. eines PRISM als Demonstrationsreaktor für die Beseitigung von überschüssigem Waffen-Plutonium in der Hand des Energieministeriums. Vieles könnte unter den militärischen Bedingungen der Kernwaffenproduktion schnell und problemlos durchgeführt werden. Milliarden Dollar sind durch die ohnehin bereitzustellenden Beseitigungskosten unter dem politischen Druck der Abrüstungsverträge vorhanden. Der Demonstrationsreaktor wäre — ähnlich der Geschichte des Druckwasserreaktors als Antrieb für U-Boote — sehr schnell und kostengünstig in eine zivile Anwendung überführbar. Ist dies vielleicht der wahre Grund, warum „Atomkraftgegner“ so verbissen an der direkten Endlagerung fest halten?

Der Beitrag erschien zuerst auf der Website des Autors hier

 



Wie soll Plutonium beseitigt werden?

Nach den Zahlen des International Panel on Fissile Materials (IPFM) gibt es zur Zeit etwa 216 to „Waffenplutonium“ (in Kernwaffen verbaut und als Reserve) und etwa 271 to „ziviles Plutonium“ aus der Wiederaufbereitung von Kernbrennstoffen weltweit. Das Ganze ist also beileibe kein rein akademisches Problem.

Die Kernwaffen-Frage

Wenn man wirkliche Abrüstung will und nicht nur das Einlegen einer Pause, dann muß man nicht nur Trägersysteme und Kernwaffen verschrotten, sondern auch das „Bombenmaterial“ vernichten. Gerade dessen Herstellung — ob Plutonium oder höchst angereichertes Uran — ist der zeit- und kostenaufwendigste Teil bei einer „atomaren Aufrüstung“. Insofern war der Vertrag zwischen den USA und Rußland ihr Überschussplutonium zu vernichten, der einzig richtige Weg. Die Russen gehen nun den Weg — mit vollerZustimmung der USA — ihren Anteil an Überschüssen in ihren schnellen, natriumgekühlten Reaktoren als Brennstoff zu verwenden. Ganz so einfach und schnell geht das aber auch nicht. Selbst der größte „Brüter“ mit 800 MWel braucht überschlägig weniger als 5 to Plutonium für seine Erstbeladung. Es wird deshalb auch dort noch einige Jahre bis Jahrzehnte dauern, bis zumindest der Überschuß soweit „denaturiert“ ist, daß man ihn nie mehr zur Produktion von Kernwaffen einsetzen kann.

Die zivile Herkunft

Für die zivile Produktion von Plutonium aus abgebrannten Brennstäben gab es drei Beweggründe:

  1. Als Erstbeladung für schnelle Brüter
  2. Zur Streckung des Uranverbrauchs über MOX-Elemente
  3. Um das Volumen des „Atommülls“ zu verringern und die „Endlager-Anforderungen“ drastisch zu senken.

BRÜTER

Noch in den 1960er Jahren ging man von sehr begrenzten Vorräten an förderbarem Natururan aus. Man befürchtete eine baldige Preisexplosion. Gerade „Atomkraftgegner“ haben immer wieder dieses Argument für ihre Propaganda mißbraucht. In Wirklichkeit hängen die förderbaren Vorräte — wie beim Öl — immer vom Uranpreis selbst und von der technologischen Entwicklung ab. Nach heutigen Erfahrungen sind die Natururanvorräte nahezu unendlich. Sehr viel wichtiger ist das Verhältnis zwischen „Strompreis“ und „Brennstoffpreis“. Je 100 $US pro kg Natururan schlägt es mit 0,002 $US pro kWh (!) auf die Stromerzeugungskosten nieder.Wenn schon die Sonne keine Rechnung schickt, tut es die Uranader auch nicht.

Jedenfalls haben wir schon heute mit über 271 to Plutonium aus der Wiederaufbereitung abgebrannter Brennelemente weltweit einen beachtlichen Vorrat für den Start in die Technologie mit schnellen Reaktoren. Wir könnten damit auf einen Schlag 30.000 MWel Schnelle-Brüter bauen.

MOX-ELEMENTE

Die Verwendung von einer Mischung aus Uranoxid und Plutoniumoxid (MOX) in Leichtwasserreaktoren (LWR) kann nur eine Übergangslösung sein. Zwar kann man dadurch Natururan ersetzen, aber der Aufwand steht in keinem wirtschaftlichen Verhältnis zum Nutzen. Zur Verringerung der Plutonium Vorräte trägt es auch nur wenig bei, da in einem LWR etwa für 10 Kerne die gespalten werden, gleichzeitig 6 neue Plutoniumkerne gebildet werden.

Außerdem verschlechtert sich die Isotopenzusammensetzung: Es bilden sich immer mehr Minore Aktinoide, was sowohl die Verarbeitung erschwert, als auch den „Restmüll“ aus der Wiederaufbereitung immer langlebiger macht.

Schon bei der Herstellung von MOX-Brennstäben bleiben etwa 10 bis 15% nach der erforderlichen Reinigung des Eingangsmaterials übrig. Diese gehen meist direkt in den Abfallstrom zur Endlagerung. Es lohnt einfach nicht, aus diesem Abfall noch das Rest-Plutonium zu extrahieren.

Hier sieht man auch den Vorteil metallischen Brennstoffs als Uran-Plutonium-Zirconium-Legierung, wie sie z. B. in PRISM-Reaktoren verwendet werden soll: In ihr kann aller „Dreck“ mit verarbeitet werden und erneut dem Reaktor zur Behandlung zugeführt werden.

WIEDERAUFBEREITUNG

Abgebrannte Brennelemente enthalten immer noch rund 95% Uran und etwa 1% Plutonium. Anders herum, sind im Sinne der Energieerzeugung nur etwa 4% Abfall. Dies ist die Asche der Kernenergie, die sicher deponiert werden muß. Durch das Recycling ergibt sich eine erhebliche Reduzierung des Abfalls. Man vergleiche dies einmal mit z. B. Altpapier oder gar Plastik.

Eine Wiederaufbereitung ist ein rein chemischer Prozeß. Es wird — anders als im Reaktor — keine Radioaktivität erzeugt, sondern schlimmstenfalls bereits vorhandene radioaktive Stoffe verschleppt. Dies kann aber durch Dekontamination wieder beseitigt werden. Wenn man früher alle Rohre, Schutzkleidung, Werkzeuge, Chemikalien etc. einfach weggeworfen hat, geschah dies aus Kostengründen.

„Atomkraftgegner“ versuchen diese Tatsachen immer noch zu leugnen. Ist doch die „angeblich ungelöste Atommüll-Frage“ ziemlich das letzte Argument, was ihnen gegen die friedliche Nutzung der Kernenergie geblieben ist. Wird dieser Schwindel auch in breiten Bevölkerungskreisen erkannt, ist es aus mit der Angstindustrie. Sie braucht dann dringend neue Phantome um ihre Einnahmen zu sichern.

Nachhaltigkeitsproblematik

In der Szene der „Atomkraftgegner“ ist das Neusprechwort „Nachhaltigkeit“ eine Grundvokabel der Propaganda. Zwar ist diese Försterweisheit [Wenn du mehr Bäume abholzt, als gerade nachwachsen, ist der Wald irgendwann futsch. Nur, gäbe es heute gar kein Deutschland, wenn die alten Germanen schon dem statischen Denken der Melonen-Partei verfallen gewesen wären] schon immer fragwürdig gewesen, hört sich aber gut an.

Wenn man 1 gr Plutonium spaltet, ist es nicht nur unwiederbringlich weg, sondern hat auch noch etwa 22800 kWh Energie geliefert. Wenn man also 70 to überflüssig gewordenes „Waffen-Plutonium“ in Kernreaktoren spaltet, entspricht das dem Energiegehalt von 210 Millionen to Kohle oder 910 Millionen barrel Öl. Damit ließen sich rund 630 TWh elektrische Energie erzeugen (mehr als ein Jahresverbrauch von Deutschland). Eine hübsche Friedensdividende, wenn nicht die verdammte „Grüne Ideologie“ davor stehen würde.

Geht nun Gefahr von Plutonium aus oder doch nicht?

Was „Waffen-Plutonium“ betrifft, ist die Frage eindeutig zu beantworten: Die Sicherheit — im Sinne von Diebstahl etc. — ist zwingend einzuhalten. Es ist ähnlich, wie mit Sprengstoffen: Sie sind an und für sich harmlos — wenn man damit nicht Menschen in die Luft sprengen könnte.

Wie verhält es sich aber mit Plutonium an sich? An den Lagerfeuern von Gorleben erzählt man sich die schaurigsten Geschichten von „wenigen Gramm, die die ganze Menschheit töten können“. Dies ist absoluter Blödsinn! Reines Plutonium ist ein α-Strahler, man kann es deshalb gefahrlos in die Hand nehmen. Dies geschah und geschieht in zahlreichen Labors und in der Waffenproduktion täglich. Schäden sind nicht bekannt. Solange man es nicht als Feinstaub einatmet oder mit der Nahrung zu sich nimmt, passiert rein gar nichts. Selbst bei einer Aufnahme in den Körper, spielt die chemische Verbindung eine große Rolle, in der es vorliegt. Seine (chemische) Wirkung als ein Schwermetall übertrifft meist sogar seine Strahlungswirkung.

Damit ergibt sich für „Atomkraftgegner“ ein schwierig zu lösendes Dilemma: Ist Plutonium ganz, ganz gefährlich, müßte man es zwingend aus der Welt schaffen. Dummerweise erzeugt aber Kernspaltung große Mengen an Energie. Ist es aber nicht so gefährlich, könnte man es problemlos lagern. Die „weltweit ungelöste Endlagerfrage“ — das zentrale Argument der Angstindustrie in Deutschland — platzt wie eine Seifenblase. Es bleibt daher nur der erprobte und erfolgreiche Weg, die Kosten in die Höhe zu treiben, um anschließend sagen zu können, die friedliche Nutzung der Kernenergie sei leider total unwirtschaftlich. Eigentlich ganz leicht zu durchschauen.

WIPP, das Gorleben der USA

In den USA gibt es überall große Mengen von „Atommüll“ aus den staatlichen Forschungslabors und der Kernwaffenproduktion. Manchmal sind ganze Landstriche noch Sperrgebiet. Es stand außer Frage, daß diese Gebiete nach und nach saniert werden müssen. Aber wohin mit dem Abfall? Ein Endlager mußte her, wollte man das Problem nicht den nachfolgenden Generationen aufbürden. Es entstand das Waste Isolation Pilot Plant (WIPP) in Carlsbad, New Mexico. Ein Endlager, in dem der gesamte hochaktive Müll aus Forschung und (militärischer) Wiederaufbereitung verschwinden soll. Ausdrücklich auch Plutonium. Dies ist nicht ganz unwichtig, denn wir haben es damit mit wesentlich langlebigerem „Atommüll“ zu tun, als dem aus z. B. der französischen Wiederaufbereitung von Kernbrennstoffen. Auch dies wird in Deutschland gern verschwiegen. Ist doch hier aus ideologischen Gründen der „Ausstieg aus der Atomenergie“ gefordert. Diesem Diktat haben sich selbstverständlich Sicherheit und Kosten unter zu ordnen. Die Stützung einer kleinen Partei — als potentiellem Koalitionspartner zum Erhalt des Machtgefüges — hat absoluten Vorrang.

Die Ironie an der Geschichte ist, daß das WIPP ein Abbild des Endlagers in Gorleben ist. Man hat es in einem Salzstock in 655 m Tiefe als Kavernenfeld von 1,6 x 1,4 km angelegt. Es werden dort Kammern bergmännisch aus dem Salz aufgefahren, in denen die „Müllbehälter“ gestapelt werden. Wichtig ist, es handelt sich hier nicht um ein altes Salzbergwerk wie bei den Schachtanlagen Asse und Morsleben, sondern eine ausschließlich für die Endlagerung geplante und neu gebaute Anlage. Es ist aber auch kein Zufall, daß man einst in USA und Deutschland einen Salzstock als das ideale Wirtsgestein für ein Endlager angesehen hat. Salz ist plastisch und umschließt langfristig „selbstabdichtend“ den Atommüll. Außerdem ist es ein Rohstoff, der im Überfluß vorhanden ist, was eine etwaige spätere Nutzung ausschließt. Die Baukosten betrugen in den 1980er Jahren rund 700 Millionen $US. Ein geradezu lächerlicher Betrag, wenn man ihn mit der „Geldvernichtungsmaschine“ Gorleben vergleicht.

In Deutschland fängt man gerade an, „ergebnisoffen“ einen neuen Standort zu suchen: Alles außer Gorleben, den Wallfahrtsort der Öko-Sozialistischen Bewegung. Wie putzig dieses neue Suchverfahren abläuft, sieht man schon an dem geforderten „strikten Bohrverbot“ für Gebiete, die von der „Endlagerkommission“ für potentiell würdig erachtet werden. Fährt man auf der kilometerlangen Zufahrtsstraße zum WIPP, hat man tunlichst auf zwei Dinge zu achten: Die halbwilden Rinder, die links und rechts grasen und die LKW und Tanklaster, die in unendlichem Strom zu den Bohrstellen rasen. Der Salzstock liegt mitten in einem Ölfördergebiet — was für Geologen nicht weiter verwunderlich ist. In Sichtweite rund um das WIPP sieht man zahlreiche Bohrtürme. Kein Mensch stört sich daran. Auch nicht die Rancher, deren überlebenswichtige Wasservorräte (Wüstengebiet) durchbohrt oder mit Atommüll unterfüttert werden.

Ausblick

Die letzte Folge dieser kleinen Serie wird sich mit den verschiedenen „Immobilisierungen“ für Plutonium beschäftigen.

Der Beitrag erschien zuerst bei NUKEKLAUS hier




Wer hat’s gesagt?

„Wenn die Energiewende nicht komplett neu gestartet und endlich professionell gesteuert wird, stehen wir vor dem größten Deindustrialisierungs-Programm unserer Geschichte.“

Bitte ankreuzen

(      )   der Ruhrkohle-Chef
(      )   der AfD-Vorsitzende
(      )   der Vorstandschef von RWE
(      )   der Chef von Siemens
(      )    der Chef von Daimler
(      )    der SPD-Vorsitzende

 

tatsächlich war es Sigmar Gabriel im Jahr 2013, damals SPD-Vorsitzender.

Quelle:

Nach Gabriel-Interview in der WirtschaftsWoche: SPD und Grüne fetzen sich über Energiewende

Wie recht Gabriel schon damals hatte, jedoch ohne irgendwelche Konsequenzen daraus zu ziehen, zeigt dieser Vortrag von Prof. Dr. Fritz Vahrenholt anlässlich einer Veranstaltung Technischen Universität Clausthal.

Rede von Fritz Vahrhenholt auf dem Symposium „Energie und Rohstoffe – Zukunft mit Chancen und Risiken” am  31. Mai 2018 an der Technischen Universität Clausthal:

——-

Prof. Fritz Vahrenholt

Ausstieg aus Kernenergie, Kohle und der Grundstoffindustrie – wie sich eine führende Industrienation abschafft

Das, was 1986 im Parteiprogramm der Grünen gefordert wurde, die Abschaffung der Atomindustrie, Automobilindustrie sowie Teilen der Chemieindustrie, ist längst in der Mitte der Gesellschaft zum Konsens geworden. Wie konnte das gelingen? Mit apokalyptischen Schreckensszenarien wird die Spaltung des Atoms, ebenso wie die geringfügige Erhöhung des lebensnotwendigen Moleküls CO2 in der Atmosphäre, zu Chiffren des Unheils. Eine durch überwiegend natürliche Prozesse festzustellende Erwärmung wird missbraucht zur Großen Transformation der Gesellschaft. Können wir diese selbstzerstörerische Entwicklung wieder in vernünftige Bahnen lenken?

Machen wir uns nichts vor: Der Anti-Industrialismus in Deutschland ist weit fortgeschritten. Wir lieben innovative Produkte wie IPhone, Solarzellen oder Flachbildschirme. Die Wertschöpfungsketten aber von der Rohstoffgewinnung über die Metallerzeugung zur industriellen Produktion sind Politik und Öffentlichkeit eher ein Gräuel. Den Hunger in der Welt bekämpfen, aber doch nicht mit Gentechnik, Mobilität ja, aber doch ohne Verbrennungsmotoren, wachsender Stromverbrauch für Handy und Laptop klar, aber doch bitte nicht aus Kohle und Kernenergie.

Schön wäre es, wenn die Befriedigung unserer Bedürfnisse durch Licht und Luft, ohne Eingriffe in den Naturhaushalt, am besten noch ohne Anstrengung geschehen könnte. Dieser Trampelpfad in die rückwärtsgewandte Idylle führt geradewegs zum Verlust der Wettbewerbsfähigkeit, zum Verlust des außerordentlich hohen Wohlstandsniveaus, das wir durch technischen Fortschritt und Innovationen erreicht haben. Im Zeitalter der Globalisierung schmilzt diese Wohlstandsdividende der OECD Länder, ebenso Deutschlands. Die Arbeitnehmer in Deutschland konkurrieren mit den Arbeitnehmern in Südostasien- ohne Technologievorsprung geht dieser Wettbewerb verloren.

Der Abschied der deutschen Gesellschaft von der Industrie lässt sich am Fundament jeder Industriegesellschaft, nämlich der Energieerzeugung, beleuchten. Die deutsche Energiewende ist ein sich anbahnendes Desaster. Nach dem Kernenergieausstieg steht nun der nächste Schritt: die Dekarbonisierung der deutschen Energieversorgung und im Übrigen auch des Verkehrssektors an. Bis 2050 sollen nach dem deutschen Klimaschutzplan 80 bis 95 % der gesamten Energieversorgung aus Erneuerbaren Energien kommen.

Entwicklung der Zahl der in D installierten Nennleistung von Windenergieanlagen, Grafik Ralf Schuster

Wir haben 30.000 Windräder aufgestellt, ohne zu wissen, wo wir den Strom bei Windstille herbekommen. Wir wissen auch nicht, was wir mit dem Überschussstrom machen sollen, wenn es Starkwind gibt und 56.000 MW ins Netz drängen. Dann verschenken wir den Strom an unsere Nachbarländer zu negativen Preisen oder wir stellen die Windräder ab und zahlen, als ob sie produziert hätten. Das summiert sich allein auf 1 Milliarde pro Jahr. Und die Energiewende insgesamt kostet mehr als 25 Milliarden pro Jahr, bis 2025 520 Milliarden.

Entwicklung der Zahl der Windenergieanlagen in D, Grafik R. Schuster

Heute haben wir bereits die zweithöchsten Strompreise in Europa. Privathaushalte und die nicht umlagebefreiten Industrieunternehmen sowie das Gewerbe zahlen die Zeche. Wir sehen mittlerweile, dass neue industrielle Investitionen hierzulande unterbleiben. In Anbetracht der durch die Erneuerbaren in die Höhe getriebenenen Strompreise wird die von der Groko geplanten Batteriefabrik eine Fata Morgana oder ein weiteres Milliardengrab. Man investiert nicht in einem Land, von dem man nicht weiß, wohin sich die Energiepreise entwickeln.

Aber die Mehrheit der Bevölkerung unterstützt diese Entwicklung. Es ist der UNO, Teilen der Wissenschaft, der Politik, den Medien gelungen, die komplexe Klimamaterie publikumswirksam zu simplifizieren: das CO2 bestimmt unser Klima. Dass das Klima auch ohne CO2geschwankt hat, dass in den letzten 20 Jahren nur eine geringfügige Erwärmung stattgefunden hat, also in einer Zeit, in der die CO2-Emissionen sich verdoppelt haben, hat natürliche Ursachen. Dass bis zum Jahre 2000 die Temperaturen stark angestiegen sind aber auch! Ein grosser Teil dieser Erwärmung ist den natürlichen Zyklen des Atlantiks zuzuschreiben. Wir vergessen, dass in der mittelalterlichen Wärmeperiode vor 1000 Jahren die Temperaturen mindestens genauso hoch waren wie heute. Und wir vergessen, dass der Temperaturanstieg der letzten 150 Jahre seine wesentliche Ursache darin hatte, dass wir aus einer kleinen Eiszeit kommen. Die kleine Eiszeit ist der Maßstab der Klimaalarmisten,  den sie an die Erwärmung von heute anlegen. Wenn die Temperaturentwicklung der nächsten Jahre weiter stagniert oder gar abkühlt, dann gäbe es eine Chance die Hysterie abzukühlen.

Wenn ich Ihnen jetzt noch sage, dass jährlich Tausende von Greifvögeln und Hunderttausende von streng geschützten Fledermäusen durch die Windräder getötet werden, dann fragen Sie sich vielleicht, warum machen wir das alles? Die grösste Naturzerstörung in Deutschland nach dem 2. Weltkrieg erfolgt nicht durch Kohle- oder Kernenergie sondern durch grüne, erneuerbare Energien. Der Plan der Bundesregierung ist bis 2050 die Windenergiekapazität zu verdreifachen, d.h. alle 2,6 km eine Anlage. Prof. Hüttl sprach soeben von der fünffachen bis siebenfachen Kapazität- alle 1,5 bis 2 km eine Windkraftanlage !

Warum zerstören wir unsere Heimat? Weil es den Apologeten des Anti-Industrialismus gelungen ist, Angst zu verbreiten. Nur mit Weltuntergangsszenarien kann  es gelingen, die deutsche Automobilindustrie zur Strecke zu bringen. Und außerdem geht es uns doch gut, sehr gut sogar, trotz Kernenergieausstieg, trotz Kohleausstieg, trotz Energiepreisexplosion. Und: insbesondere wir Deutschen haben den Hang, die Welt zu retten, nachdem wir im 20. Jahrhundert maßloses Unglück über die Welt gebracht haben.

Das schlimme ist, das wir nachfolgenden Generationen aber überhaupt keine Innovationen zutrauen, kein Kohlekraftwerke mit CCS, keine Gaskraftwerke, keine Fusionstechnologie keine inhärent sicheren Kernkraftwerke – aber die Politik will Ihnen vorschreiben mit alberner Windkrafttechnik aus dem letzten Jahrhundert die Herausforderungen der Zukunft zu meistern.Vielleicht helfen ja die aufziehenden tiefgreifenden Finanzkrisen und der dadurch ausgelöste Wohlstandsverlust, dass wir innehalten, das zu zerstören, was unseren Wohlstand erzeugt hat. Wir müssen uns wieder dem zuwenden, was zu diesem Wohlstand geführt hat: Offenheit für Innovationen.

Viel Hoffnung habe ich allerdings nicht.

Der Beitrag von F. Vahrenholt erschien zuerst bei „Die kalte Sonne“ hier




BERLIN DREHT DURCH! Autos – die haben wir nicht mehr!

Was geschieht mit einem angeschossenen Elefanten? Wie lange der noch rennt und was der macht, kann keiner wissen. So ähnlich stellt sich die Frage jetzt bei der deutschen Autoindustrie. Als Folge jener Diskussion um Diesel und Grenzwerte kippte die Bundesregierung das Kind mit dem Bade aus und schuf ein bürokratisches Monster, das das Zeug hat, die wichtigste Industrie des Landes zu vernichten.

Ende des Automobils?

Porsche hat jetzt die Konsequenzen gezogen und als erster Autohersteller, wie die FAZ exklusiv meldete, den Verkauf von Neuwagen in Europa komplett eingestellt.

Das gilt vor allem für die Diesel-Modelle. Der Cayenne Diesel ist mindestes bis Ende dieses Jahres nicht mehr lieferbar, möglicherweise erst Mitte des kommenden Jahres wieder. Benzinmodelle, die nach den neuen Abgasregeln dem 1. September verkauft werden dürfen, sind nur vereinzelt erhältlich.

Porsche hatte diese Meldung der FAZ zwar ein wenig dementiert, sprach von »Einschränkungen beim Angebot an Neuwagen« und verwies darauf, dass nur ein paar Modelle nicht bestellbar sein. Doch wie der Porsche »Car Configurator« im Internet zeigt, ist kein einziges Auto ab September bestellbar.

VW liefert bis auf weiteres keine Plug-in-Hybridmodelle mehr aus. Diese benzinelektrisch angetriebenen Autos werden als besonders umweltfreundlich angepriesen.Das muss man sich auf der Zunge zergehen lassen: Ein Autohersteller liefert keine Autos mehr aus!
Porsche verwies darauf, dass das entsprechende Gesetz erst Ende Juli 2017 in Kraft getreten sei. Die Zeiträume für eine neue Entwicklung betragen aber üblicherweise etwa drei Jahre.

Volkswagen hatte bereits vor ein paar Tagen einen Ferti-gungsstopp für eine Reihe von Diesel-Modellen verhängt. Der Hersteller bekommt offenbar den erheblichen Aufwand bei der Umstellung auf die neue Zertifizierung ebenfalls nicht hin.

Die Situation dürfte auch bei allen anderen deutschen Herstellern umso dramatischer werden, je näher das Stichdatum 1. Sep-tember rückt. Ab diesem Zeitpunkt müssen verkaufte Autos nach den neuen Abgasmeßverfahren WLTP und RDE zertifiziert sein. Die bringen schärfere Abgasgrenzwerte mit sich und gelten nicht nur für den Dieselantrieb, sondern auch Benzinmotoren. Bei dem geraten die geringen Mengen an Feinstaubpartikel ins Visier, die Motoren mit Direkteinspritzung vermehrt ausstoßen. Die brauchen ebenfalls wie die Dieselmotoren nun auch Partikelfilter.

Zulassung für jede, aber auch jede Variante

Das bedeutet einen erheblichen Mehraufwand bei der Zulassung. Möchte der Kunde beispielsweise eine Ausführung mit einem anderen Kühlergrill, der möglicherweise etwas sportlicher aussieht, oder will er aus irgendwelchen Gründen eine zusätzliche Antenne, verändert das die Aerodynamik des gesamten Autos und damit auch ein wenig den Kraftstoffverbrauch. Damit verändert sich die Zusammensetzung der Abgase. Das Auto muss in den Windkanal und dort vermessen werden. Nun sind Windkanäle sehr teure und damit rare Einrichtungen, die Tests aufwendig und von daher ist klar: Das alles geht nicht so schnell.

Bereits eine Ausstattung mit anderen Sitzen verändert in der Regel das Gewicht des Autos ein wenig und damit wiederum Verbrauch, Abgase und – Sie raten richtig – den Ausstoß von CO2 und Stickoxiden. Breitere Reifen beispielsweise erhöhen den Rollwiderstand und damit ebenso Verbrauch und Abgase. Jedes Modell muss in jeder kaufbaren Konfiguration aufwendig auf einem Rollenprüfstand vermessen werden. Von diesen speziellen Prüfständen gibt es aber nicht genug.

Doch über allem schwebt das größte Risiko, der Entzug der Typzulassung. Der verkehrspolitische Sprecher der AfD-Fraktion im Deutschen Bundestag, Dr.-Ing. Dirk Spaniel, weist darauf hin, dass anders als bisher der Autohersteller die exakte Konfiguration des einzelnen Fahrzeuges, für die die jeweilige Verbrauchsangabe gelten soll, angeben muss. Also wieviel verbraucht ein Typ beispielsweise mit einem bestimmten Motor und einem Getriebe mit schmalen oder breiten Reifen, mit Stoff- oder Ledersitzen, mit elektrischen Fensterhebern oder handbetriebenen, mit oder ohne Klimaanlage, kurz: in jeder lieferbaren Konfiguration. Spaniel: »Bei Überschreitung des Wertes droht dem Hersteller der Entzug der Typzulassung und damit ein Verkaufsstopp.«

ÜBER BANDE GESPIELT …

Verbrauchsmessungen sind eine komplizierte und aufwendige Angelegenheit. Viele Faktoren bis hin zu Wetter und Luftdruck spielen dabei eine Rolle. Das bedeutet, dass der Hersteller ins Risiko gehen muss oder aus wirtschaftlichen Gründen besser nicht liefert.»Was die Kunden natürlich nicht erfahren«, führt Spaniel aus, »ist, dass sie diesen extremen bürokratischen Aufwand natürlich in Zukunft mitbezahlen müssen. Viele Kunden werden auch feststellen, dass ihre Wunschkonfiguration vielleicht gar nicht mehr lieferbar ist.

Spaniel: „Natürlich können wir davon ausgehen, dass die Regierungen Europas ihre jeweilige Autoindustrie mit dem entsprechenden Ermessensspielraum vor dem Entzug der Typzulassung und gravierenden wirtschaftlichen Konsequenzen schützen werden.«

»Es gibt allerdings eine Ausnahme: Die deutsche Bundesregierung zeigt bereits heute, dass sie die EU-Gesetzgebung in diesem Bereich maximal streng auslegt.«
»Es könnte also sein, dass einige Bürger in diesem Land, vorwiegend Beschäftigte in der Autoindustrie, bereits in den nächsten Monaten spüren werden, dass die deutsche Bundesregierung auch in diesem Politikfeld mit der Führung eines modernen Industriestaates schlicht überfordert ist.«

Alles nur in Deutschland so irre

Merkwürdigerweise hört man in dieser Angelegenheit von ausländischen Autoherstellern nichts. Sie haben natürlich dieselben Probleme wie ihre deutschen Kollegen. Motoren etwa sind heute auf-wendige und teure Entwicklungen, die länderübergreifend absolviert werden. So stammt der Dieselmotor im Mercedes Vito in der 1,6 l Version von Renault Nissan, das Einspritzsystem von dem amerikanischen Zulieferer Delphi. Der Vito ist gerade wegen angeblicher Abgasmanipulationen ins Scheinwerferlicht geraten.

DAS GESCHÄFTSMODELL ANT-CO2
Nach dem Diesel soll auch der Benziner verschwinden

Verwundern darf die Ruhe bei den ausländischen Herstellern allerdings nicht. Die jeweiligen Typzulassungen geschehen in den Heimatländern der Autohersteller, bei Fiat also in Holland und Renault zum Beispiel in Frankreich. Nur wissen die dortigen Regierungen mehr um die wirtschaftliche Bedeutung einer ihrer wichtigsten Industrien und werden sich hüten, über die Entziehung von Zulassungen die Autohersteller zu Fall zu bringen. Das überlassen sie klugerweise der deutschen Bundesregierung, die so Konkurrenz schwächt.Bei Autohändlern im benachbarten Frankreich etwa sieht man kaum die umfangreichen Auflistungen von Verbrauch bei verschiedenen Geschwindigkeiten, vom Abgasausstoß und vor allem von der CO2 Belastung. Jener scheinheilige ökologische Fußabdruck interessiert offenbar nur Grüne in Deutschland. Doch auch hierzulande, so be-richten Autohändler, interessiert sich kaum ein Kunde für diese Werte, die im Verkaufsraum deutlich sichtbar sein müssen.

Deutschen Autohändlern dürfte bald endgültig der Kragen platzen. Sie gehören zu den Hauptleidtragenden der Automobilkrise. Gebrauchte Dieselfahrzeuge versauern auf ihren Höfen und haben dramatisch an Wert verloren. Kunden greifen gern zum Mittel der Rückabwicklung; sie geben ihren Diesel zurück an den Händler. Damit verliert der Händler wiederum seine Marge, hat Aufwand und Kosten bis hin zur Auflösung von Versicherungs- und Leasingverträgen zu leisten und muss vor allem Gewinne rückgängig machen, die vor zwei, drei oder vier Jahren beim Verkauf des Autos angefallen sind. Theoretisch müsste er dafür Rücklagen gebildet haben. Ein Autohändler wütend: »Ich kann das natürlich nicht, denn ich kann nicht davon ausgehen, daß Autohersteller andauernd Scheiße bauen!«

DAS GLÜCK FÄHRT IM E-AUTO?
Nach der Energie- jetzt die Verkehrswende?

Vom Tisch zu sein scheint erst einmal der Umbau von Autohäusern und Werkstätten auf die politisch so angepriesene Zukunft »Elektromobilität«. Autohersteller wollen ihre Händler dazu verdonnern, in ihren Autohäusern mehr Dienstleistungen rund um die Elektromobilität anzubieten und die Glaspaläste wieder mit erheblichen Mitteln auf das neue vage »Geschäft« umzurüsten. Für diesen Aufwand dürfte jetzt kein Geld mehr da sein.Bei den Autoherstellern selbst steigt die Verunsicherung. VW-Chef Diess hatte auch schon auf der Hauptversammlung Anfang Mai vor Lieferenpässen gewarnt. Bei VW sagte Personalleiter Martin Rosik dem Mitarbeiter-Magazin «Inside«, dass es ab August vorübergehende Lücken in der Produktion gebe, die sich auch auf die Beschäftigung auswirke.

All diese Querschüsse gegen die Autoindustrie hält aber zum Beispiel Daimler nicht davon ab, allen Parteien weiterhin Geldspenden zukommen zu lassen. Allen? Nein, zwei Parteien spüren nichts von dem Geldsegen: AfD und Linke.

Dabei zeigt sich immer wieder: Appeasement nutzt nichts.

Der Beitrag erschien zuerst bei Tichys Einblick hier




Infraschallauswirkungen aufs Herz – Neues zur Vahl-Studie an der Uni Mainz

Lesen Sie dazu unseren Bericht über die vorausgegangenen Untersuchungen der Forscher um Prof. Vahl vom 06. März 2018:

Forschung in Mainz: Infraschall mindert Herzmuskelkraft um bis zu 20 Prozent

Video Ausschnitt der swr-aktuell Sendung vom 25.4.18 über die Gesundheitsgefährdung durch von Windrädern erzeugten Infraschall

Drei Infraschallstudien – drei unterschiedliche Herangehensweisen – drei gleiche Ergebnisse

Vahl-Studie: Beschallung lebender Präparate

Die im Interview der Allgemeinen Zeitung mit Prof. Christian-Friedrich Vahl angekündigte Beschallung des lebenden Präparats mit Infraschall konnte mittlerweile durchgeführt werden. Ergebnis: Die Aktivität der Herzfaser wird nachweislich beeinflusst.

Prof. Vahl:” Was wir als gesichert sehen ist, dass die Applikation von Schallwellen, also Vibrationen mit niedrigen Frequenzen zu einer Hemmung der Kraftentwicklung von Herzmuskelpräparaten führt.”

VAD-Forschungen: Nachweis durch pathologische Untersuchungen

Damit bestätigt er die eindrucksvollen jahrzehntelangen Arbeiten zur Vibro Acoustic Disease (VAD) von Prof. Mariana Alves-Pereira, die bereits seit den 80er Jahren  gemeinsam mit Dr. Nuno Castelo Branco in Portugal an der Lusofóna Universität Lissabon im Staatsauftrag  zu Gewebeveränderungen u.a. am Herzen forscht und Herzwand- und Gefäßverdickungen durch Collagenzunahme  unter dem Einfluß der Beschallung mit Infra und tieffrequentem Schall belegt.

Die VAD-Forschungen sind international bekannt und werden in Deutschland seit Jahren verleugnet – Ein Ritterschlag der WK-Lobby:
https://www.nhmrc.gov.au/_files_nhmrc/file/media/events/windfarms_science_forum_mariana_alves_pereira.pdf

Studie zur toxischen Wirkung: Beschallung im Tierversuch

Auch die bemerkenswerte Forschungsarbeit von Wissenschaftlern aus Kasachstan und Ägypten von 2010 zur toxischen Wirkung von Infraschall auf das Immunsystem,
von uns am 22.06.2014 auf www.windwahn.de veröffentlicht, weist im Tierversuch etliche Veränderungen nach, z.B.:


“Andere Frequenzen und Schalldrücke führen bei 4 verschiedenen Tierarten zu weiteren Schädigungen wie Arterienverengungen, Kern-Deformationen und mitochondriale Schädigungen, Pathologien der Herzmuskelzellen, reduziert kontraktile Funktion des Myokards, Mikrozirkulationsstörungen, Ischämie und mitochondriale Zerstörung in den Kapillaren, Störungen des Enzymniveaus der Mitochondrien.

“Infraschall – toxische Wirkung auf das Immunsystem”
Unbedingt noch einmal lesen und weitergeben!

Infraschall: Toxische Wirkung auf das Immunsystem

Diese Forschungen werden uns noch oft beschäftigen.

Übernommen von Windwahn e.V hier




Aktionismus in Hamburg und Forderung flächendeckender Fahrverbote in Deutschland

Fahrer müssen sich jetzt eine Ausweichroute um die Stresemannstraße suchen, die 4,8 km lang ist und damit länger als die eigentliche Route von 1,6 km. Ein erheblicher Umweg, der Zeit, Geld und Sprit plus Abgase kostet.

Tag eins der neuen Zeit in Deutschland: Hamburger Dieselfahrer retten das Klima und fahren seit Mitternacht des 31. Mai 2018 fortan nicht mehr über 580 Meter der Max-Brauer-Allee sowie über 1,6 Kilometer der Stresemannstraße. 55 Umleitungs- und 49 Verbotsschilder wurden aufgestellt. Das Bußgeld bei einem Verstoß beträgt 20 Euro für Pkw und bis zu 75 Euro für Lkw.

58 Mikrogramm pro Kubikmeter Luft an NO2 in der Luft an dieser Messstelle sollen auf 40 Mikrogramm pro Kubikmeter Luft gedrückt werden. Eine Gefahr für die Gesundheit besteht laut Aussage von Wissenschaftern nicht.

Die Luftmessstation in der Max-Brauer-Allee steht auf einem Mittelstreifen idyllisch unter Bäumen, die ein dichtes Dach bilden und den Luftaustausch stark einschränken. Das ergab unsere Leseraktion in der Folge im März dieses Jahres.

Ob diese Messstation korrekt misst, darf bezweifelt werden. Unter Bäumen darf laut Anhang 3, Buchstabe C der der 39. Bundesimmissionsschutzverordnung (BImSchgV) nicht gemessen werden, eine Station in der Mitte einer Allee verstößt gegen Anhang 3, Buchstabe A 2 c) der 39. BImSchgV.

Der Ingenieur Fred F. Mueller fand zudem heraus: »Bei amtlichen Kontrollmessungen zeigte sich, dass die NO2-Konzentrationen am Messpunkt GM-12 um 16 % niedriger waren, am Messpunkt GM-10 lag die Belastung sogar um volle 30 % tiefer. Ein Beleg dafür, wie massiv der Einfluss der Distanz des gewählten Messpunktes zum Maximalpunkt der Emissionen ist.«

Einen deutlichen Rückgang des Berufsverkehrs haben die Reporter von Bild am Morgen des Donnerstags nicht bemerkt. Sie sahen sich schon früh auf den beiden betreffenden Straßenabschnitten um. Allerdings berichteten sie von empörten Anwohnern der Umgehungsstraßen, durch die jetzt der Verkehr rollt. Denn die Fahrer müssen sich jetzt eine Ausweichroute um die Stresemannstraße suchen, die 4,8 km lang ist und damit länger als die eigentliche Route von 1,6 km. Ein erheblicher Umweg, der Zeit, Geld und Sprit plus Abgase kostet.

Laut Bild verwarnt die Polizei nur; sie kann nur stichprobenartig kontrollieren, denn einem Auto sieht man von außen nicht an, was für ein Motor unter der Haube steckt. Also: Auto anhalten lassen, Fahrzeugschein herausfummeln, Blick auf die erfüllten Norm – das kostet Zeit und Nerven. Doch die Polizei verspricht schon: »Großkontrollen sind in Planung. Zunächst wollen wir informieren statt sanktionieren.«Bild zitiert Anwohner, die an der Umgehungsroute wohnen und bereits jetzt die Nase voll haben: »Wir können unsere Fenster nachts nicht mehr aufmachen, unser kleines Kind hustet nachts.«

Der grüne Hamburger Umweltsenator Jens Kerstan verteidigt die Fahrverbote: »Es ist unser Ziel und unsere Verantwortung, die Bürgerinnen und Bürger vor schädlichen Abgasen zu schützen.«

Vielleicht sähen es die Bürgerinnen und Bürger Hamburgs lieber, wenn der Senat ihr Leben zuerst vor messernden Neuankömmlingen und ihr Eigentum vor Antifa-Chaoten schützen würde. Das klappt noch nicht so gut; das Abfackeln von Autos in einem hohen Flammenmeer mit dunklen Rußfahnen verhageln die Bilanzen in Portemonnaies und Schadstofftabellen.

Mit dem »Schutz« vor kaum vorhandenen Abgasen, für deren Schädlichkeit es keine Belege gibt, tut sich der Senat schon leichter. »Solange die Bundesregierung nicht handelt, werden wir diese Straßensperrungen aufrechterhalten.«

Gnädigerweise will der Umweltsenator das Fahrverbot nicht auf die gesamte Stadt ausweiten, dies sei nicht verhältnismäßig den Fahrern von Dieselfahrzeugen gegenüber.

Die einschlägigen NGOs und Umweltverbände betonten, dass die Sperrung beim Straßenabschnitt nicht ausreichend sei.

Die Grünen wollen das totale Dieselverbot und fordern gleich flächendeckende Fahrverbote in ganz Deutschland. Der Grüne Cem Özdemir will keinen „Flickenteppich an Maßnahmen“ in Deutschland, sondern pauschale Fahrverbote mit der »blauen Plakette«.

ALIBIPOLITIK

Hamburg: Diesel-Fahrverbot ab kommender Woche

»Wenn Sie künftig von Hamburg nach Stuttgart fahren, brauchen Sie vielleicht ein dickes Handbuch, wo drin steht, wo Sie mit welchem Fahrzeug reinfahren dürfen und wo nicht«, befürchtet der grüne Sozialpädagoge. Einfacher wäre aus seiner Sicht eine bundesweite blaue Plakette. »Dann gibt es eine klare Regelung. Der moderne Diesel darf rein, die anderen dürfen in der Zeit der Überschreitung nicht rein.«Hand in Hand gehen Grüne mit dem Abmahnverein Deutsche Umwelthilfe (DUH), der ebenfalls flächendeckende Dieselverbote will. Danach soll der Benziner dran sein, der ebenfalls verboten werden muss, geht es nach dem DUH-Chef Jürgen Resch.

Bereits jetzt sind die Grundlagen dafür gelegt worden, dass in drei Jahren unsere jetzigen Autos überhaupt nicht mehr fahren dürften. Zum Schutz der Umwelt – natürlich – müssen die Grenzwerte noch weiter herabgesetzt werden. Dasselbe Spiel wie aktuell deutet sich an: Die EU will ab 2021 neue Verbrauchstests für Pkw und leichte Lkw einführen. Diese Grenzwerte sind so niedrig, dass sie mit Fahrzeugen mit Diesel oder Benzinern nicht mehr erreicht werden können. Nur mit Luft und Liebe lässt sich eben kein Auto mehr antreiben.

Auf den Weg gebracht wurde dieser Vorschlag von Deutschland bei der EU. Die Einspruchsfrist bei der EU endete im Frühjahr. Deutschland hat auf sein Recht des Einspruchs verzichtet. Das bedeutet: In drei Jahren können solche Trupps wie die von der Deutschen Umwelthilfe, wenn es die dann noch gibt, ihre neuen Klagewellen lostreten. Alles völlig legal, steht dann so in den Vorschriften und Gesetzen.

Der Beitrag erschien zuerst bei TICHYS Einblick hier