1

Bonn am 14.5.18 – „Klimaschutz“ auf dem Prüfstand

page1image1786592

Arbeitsgemeinschaft Energie und Umwelt www.ageu-die-realisten.com

AG E+U

„Klimaschutz“ auf dem Prüfstand

Einladung zur Vortragsveranstaltung/Diskussion in Bonn am 14. Mai 2018

Sehr geehrte Damen und Herren, liebe Freunde und Kollegen,

Der „Klimaschutz“ ist seit Jahren eines der wichtigsten politischen Ziele der Bundesregierung mit der Begründung, dass durch CO2-Emissionen, die bei der Verbrennung fossiler Energieträger entstehen, die Entwicklung des Klimas negativ beeinflußt wird.

Unsere Referenten werden zu den folgenden Fragen Stellung nehmen.

  •   Kann man das „Klima schützen“?
  •   Hat das Spurengas CO2 einen Einfluß auf die Entwicklung des Klimas?
  •   Hat die Verbrennung fossiler Energieträger eine klimabeeinflussende Auswirkung?Gemeinsam mit der Arbeitsgemeinschaft Energie und Umwelt (AGE+U) haben wir, der Verein Fortschritt in Freiheit e.V. (FiF), zwei sachkundige Persönlichkeiten zur Klimadiskussion gewinnen können. Es handelt sich um den Analysten und Leiter von KE Research, Klaus Ermecke, sowie den kanadischen Publizisten und einstigen Mitbegründer von Greenpeace, Dr. Patrick Moore (Vortrag Moore auf Englisch).Die Veranstaltung findet statt:

Wann? Am 14. Mai 2018, ab 17:00 Uhr

Wo? Dotty’s Sportsbar, im BTHV, Christian-Miesen-Straße 1, 53129 Bonn (U-Bahn-Haltestelle: Bonn UN Campus), kostenlose Parkplätze sind vorhanden

Sehr gern heißen wir Sie als geschätzten Teilnehmer und Diskutanten auf der Veranstaltung willkommen.
Wir würden uns sehr freuen, wenn wir mit Ihrer Teilnahme rechnen dürften. Interessenten aus Ihrem Umfeld sind ebenfalls herzlich willkommen.

Mit freundlichen Grüßen

Hannelore Thomas
Fortschritt in Freiheit e.V. (Hannelore Thomas) und AG E+U Die Realisten (Dr. Rainer Six)

page1image3730752page1image3730544

Damit wir die Teilnehmerzahl abschätzen können, bitten wir Sie, sich vorab unter dem Link anzumelden:

https://doodle.com/poll/r9xzuambc69ceyak

page1image5796912page1image5797120

Eingetragen im Vereinsregister des Amtsgerichts Köln. Registergericht: Köln Registernummer:VR 18479




„Staub des Todes“

„Staub des Todes“

Das ist ein beliebtes Prinzip in der Demagogie, denn der flüchtige Leser sieht in der Überschrift Tod und Verderben nach dem Motto „Bad News are good News“, im Text wird das ganze wieder zurückgenommen. Im vorliegenden Fall wird durch das Wort Uran die Botschaft verkündet: es geht um die Festigung der Strahlenangst, die ja letztlich die Triebkraft zu Deutschlands Ausstieg aus der besten Stromversorgung bildet.

 

Was ist mit „Staub des Todes“ gemeint?

Geschosse haben eine hohe Durchschlagskraft, wenn sie schwer sind und auf kleiner Fläche wirken. Daher sind in der Munition Elemente mit hohem spezifischem Gewicht sehr geeignet, also Blei. Einige Elemente haben aber noch etwa das doppelte spezifische Gewicht von Blei, das sind Wolfram, Rhenium, Osmium Iridium, Platin, Gold und auch Uran. Von diesen Stoffen ist gerade Uran verfügbar und zwar die abgereicherte Komponente aus den Anreicherungsanlagen, die nur noch eine Restmenge spaltbares U-235 enthält. Dieses ist zudem billig, daher hat man es in Munition eingebaut und diese in Kriegen auch benutzt. Es wird gesagt, daß Urangeschosse sich beim Aufprall pulverisieren und dieses Pulver in der Luft dann den tödlichen Staub ergibt. Der Bericht in DIE WELT sagt im Text klar und deutlich, daß bei der Verwendung uranhaltiger Munition in Kriegsgebieten noch nie eine Belastung der Luft oder gesundheitlicher Schaden bei den Soldaten festgestellt wurde.

 

Deutsche Fachleute haben Spurenanalytik des Urans betrieben und dazu berichtet [1].

Dieser exzellente Bericht der Fachleute vom GSF-Forschungszentrum (heute Helmholtz-Gesellschaft) enthält alle Meßdaten und gibt einen umfassenden Überblick zum Problem:

Uran ist als seltenes Element überall in der Umwelt vorhanden, in der Erdkruste kommt es mit einem mittleren Masseanteil von 3 bis 4 * 10-4% vor. Das bedeutet, in einem normalen Grundstück von 500 m² Fläche befinden sich in der obersten ein Meter dicken Bodenschicht 3 bis 4 kg Uran. Das allgegenwärtige Uran wird zu einem kleinen Anteil von Pflanzen aufgenommen, und wir finden es in unserem Speisen und Getränken. Im Mittel nimmt ein Mensch so täglich 1 Mikro-Gramm Uran in seinen Körper auf, und scheidet es auch wieder aus. Die Konzentrationen von Spurenelementen schwanken sehr stark in der Natur, daher können die hier genannten Werte für Uran im Einzelnen durchaus eine Größenordnung kleiner wie auch größer sein. Die Messungen in [1] belegen das.

 

Unsere Welt ist voller Radioaktivität.

Überall befinden sich radioaktive Nuklide. In der Luft ist es hauptsächlich das Edelgas Radon mit 20 Becquerel/m³ Luft im Freien und 50 Becquerel/m³ Luft in Innenräumen. Im Stollen des Heilbades Bad Kreuznach sind es 40 000 Becquerel/m³ im Stollen. Die alpha-Strahlung des Radons sorgt für die Heilwirkung.

Im Erdboden ist am meisten Radioaktivität enthalten, es sind ca. >2000 Becquerel/kg Erde.

Man kann berechnen, wie viel Radioaktivität der Mensch in einem Jahr von den wichtigsten Nukliden in seinen Körper aufnimmt:

durch Uran als Spurenelement in der Nahrung                     10 Becquerel

durch lebensnotwendiges Kalium-40 mit Nahrung    30 000 Becquerel

durch Kohlenstoff-14 mit Nahrung                             25 000 Becquerel

durch das Edelgas Radon in der Atemluft                 250 000 Becquerel

durch Radon-Zerfallsprodukte in der Atemluft                       350 000 Becquerel

Die Zahlen zeigen, daß die Strahlung des Urans neben den anderen Stoffen getrost vergessen werden kann.

In einem normalen Grundstück von 500 m² Fläche befinden sich in der oberen einen Meter dicken Bodenschicht 3 bis 4 kg Uran. Wenn man die Schwankungsbreite der Urankonzentration in der Erdkruste berücksichtigt, kann man auch von 0,3 kg bis 30 kg sprechen. Durch ein Urangeschoss auf dem Grundstück wird die gesamte Menge um etliche Gramm erhöht. Das ist angesichts des vorhandenen gesamten Urans meist im Bereich von kg belanglos.

Geschosse sind immer für Menschen extrem gefährlich, denn sie können davon getroffen werden. Das Material der Geschosse – Blei oder Uran – ist fast nebensächlich. Der „Staub des Todes“ ist eine konstruierte hypothetische Gefahr, die aus demagogischen Gründen erfunden wurde, um die Strahlenangst als treibende Kraft zum Ausstieg aus der Kernkraft zu erhalten.

In der Strahlenschutzverordnung [2] werden Grenzen die erlaubten Grenzwerte für die zulässige jährliche Aktivitätszufuhr durch Verspeisen angegeben, das sind 25gfür lösliche Uranverbindungen und 250gfür unlösliche Uranverbindungen (z.B. der Kernbrennstoff UO2). — Niemand wird jemals so viel Uran verspeisen, und Staub in der Luft im Bereich von Millionstel Gramm ist bedeutungslos.

 

Auch abgereichertes Uran ist ein Wertstoff

Im abgereicherten Uran ist nur noch eine kleine Restmenge von ca. 0,2% spaltbares Uran-235 enthalten, der Rest ist nicht spaltbares Uran-238. Häufig wird daher das abgereicherte Uran als Abfall bezeichnet. Diese Sichtweise ist falsch. Im Leichtwasserreaktor – wie er in Deutschland betrieben wird – wird aus dem U-238 durch Neutroneneinfang Plutonium erbrütet, und das ist auch spaltbar. Daher ist auch der Leichtwasserreaktor zu einem geringen Anteil ein Brüter, etwa ein Drittel der Energie wird im normalen Betrieb aus der Spaltung von Plutonium gewonnen.

Beim Schnellen Brüter und mit vollständigem Brennstoffkreislauf kann auch das abgereicherte Uran nach Überführung in Plutonium gespalten werden und die Reichweite des Urans auf über das 100-fache erhöht werden. In Deutschland sollte diese Technik entwickelt und benutzt werden, allerdings wurde das Programm von der Politik gestoppt (Kalkar, Wackersdorf).

Heute ist Rußland führend beim Brüterprogramm (Stichwort: BN-600 und BN-800), andere Staaten wie China und Indien folgen. In Rußland wird abgereichertes Uran aus westlichen Anreicherungsanlagen (z.B. in Gronau) gehortet und gelagert, bis es in ferner Zukunft im Brüter zum Einsatz kommen kann. Das ist eine kluge Wirtschaftspolitik, weil sie sehr weit voraus denkt.

 

Es ist klug, das abgereicherte Uran aufzuheben, und nicht durch Geschosse wieder in der Umwelt zu verteilen, aus der es ursprünglich durch Bergbau mit viel Aufwand entnommen worden ist.

 

Durch die direkte Endlagerung tief unter der Erdoberfläche von abgebrannten Brennelementen ohne Wiederaufarbeitung – wie es in Deutschland durch Gesetz festgelegt ist – wird in der Tiefe ein Rohstofflager für Energie geschaffen, das in ferner Zukunft wieder an die Oberfläche geholt werden muß, denn diese Energie ist zum Leben dringend notwendig. Der in Deutschland von der Politik favorisierte „Der Übergang vom atomaren und fossilen Zeitalter ins Solarzeitalter“ hat keine Aussicht, jemals gelingen zu können.

 

Literatur

[1] P. Roth, E. Werner, H.G. Paretzke; “Untersuchungen zur Uranausscheidung im Urin“, Deutsches Heereskontingent KFOR, Januar 2001, GSF-Bericht 3/01

[2] Strahlenschutzverordnung1989, wird demnächst durch ein Strahlenschutzgesetzabgelöst, mit vermutlich strengeren Bestimmungen

 




Frank Hennig im Interview mit kernenergie.de über Energiewende

In der Antwort der Bundesregierung auf eine kleine Anfrage nach den Kosten der Energiewende vom Dezember 2017 wird ausgeführt, dass diese nicht berechnet werden können. Was ist Ihre Einschätzung hinsichtlich der Kosten?

Die Antwort der Bundesregierung ist ein Eingeständnis der mangelnden Übersicht und Kontrolle über die weltweit einzigartige und nationalstaatlich angelegte Energiewende. Es gibt keinen Masterplan, somit keine Kostenkalkulation und -kontrolle. Professor Fratzscher vom DIW bezeichnete die Energiewende als „Experiment“ und hat damit eine meines Erachtens sehr treffende Bezeichnung gefunden. Nach der Methode des „Trial-and-Error“ tastet sich die Bundesregierung staatsplanerisch voran und hofft auf Erfolg. Experimenten ist allerdings eigen, dass ihr Ausgang offen ist.

Bei der im Grunde nur begonnenen Stromwende dürfte es in der Tat äußerst schwierig sein, alle Kostenbestandteile umfänglich zu erfassen. Neben den vergleichsweise leicht ermittelbaren Posten wie EEG-Umlage und Redispatchaufwand sowie Kosten für Netzstabilitätsanlagen, Reservekraftwerke und Sicherheitsbereitschaften gibt es weitere indirekte Kosten, die schwer zu erfassen sind.

Da ist zunächst die Fülle nicht überschaubarer direkter Subventionen und Förderungen auf allen Ebenen von der EU bis zu den Kommunen, von Förderprogrammen aus Brüssel bis hin zu Agenda-21-Zahlungen in Städten und Gemeinden für den Einsatz regenerativer oder emissionsarmer Energieanlagen. Die Auflistung KfW-geförderter Maßnahmen für den Einsatz von Ökoenergien ist umfangreich. Finanzspritzen für Ökoindustrieanlagen gibt es fast immer.

Die indirekten Kosten der Energiewende sind vielfältig und nicht in ihrer Gesamtheit darstellbar. Die Frage beispielsweise, welcher Netzausbau ohnehin erforderlich gewesen wäre und wie weit der Zubau dezentraler volatiler Erzeugung den Ausbau insbesondere der Mittel- und Niederspannungsebene zusätzlich erforderlich macht, ist nicht seriös zu beantworten. Ebenso die Bewertung der Verluste kommunaler Stadtwerke durch den verfallenen Börsenstrompreis und Investitionen von Kommunen und Bürgerenergiegesellschaften in Windindustrieparks, die in etlichen Fällen defizitär sind. Unterbliebene Investitionen in die konventionelle Energiebranche wie auch in der energieintensiven Industrie (siehe Abwanderung der Karbonfaserproduktion) sind ebenso monetär nicht erfassbar.

Betroffen vom niedrigen Großhandelspreis beim Strom sind die großen Versorger mit noch nicht abgeschriebenen Wärmekraftwerken und insbesondere Gaskraftwerken, die auf Grund des hohen Brennstoffpreises am Markt nicht mehr bestehen können. Dies ist aus Sicht der Emissionen kontraproduktiv, aber durch den Markteingriff des EEG logische Folge. Auch die verminderten Steuereinnahmen von Unternehmen der konventionellen Energiewirtschaft sind indirekte Kosten der Energiewende. Die deutschen Industrie- und Gewerbestrompreise für nicht umlagebefreite Kunden sind die zweithöchsten in Europa und kosten Wachstum und Beschäftigung.

Hinzu kommen die Wertverluste an Immobilien im ländlichen Raum, die nur noch unter Verlust oder gar nicht mehr verkäuflich sind, weil manche Gemeinden von Windkraftanlagen umzingelt sind.

Auch drastische Fehlsteuerungen des EEG, zum Beispiel die nach Überförderung 2012 geplatzte Solarblase, kosten Geld. Nicht zuletzt sind die Kosten des Kernenergieausstiegs für den Steuerzahler durch grobe handwerkliche Fehler der Bundesregierung im Rahmen des Atommoratoriums 2011 auf noch nicht bezifferbare Höhe gestiegen. Desweiteren könnten Kosten für den Steuerzahler daraus entstehen, dass Abschalttermine von Kernkraftwerken nicht mit den im Atomkompromiss 2002 vereinbarten Reststrommengen übereinstimmen.

Zudem gibt es keinerlei Anzeichen dafür, dass sich die Bundesregierung bemüht, die Endlagerkosten zu begrenzen.

Absehbar ist, dass im weiteren Verlauf der Energiewende die Kosten, direkte wie indirekte, weiter steigen werden. Wie schnell und wie weit, wird auch die Bundesregierung nicht vorhersagen können. Fakt ist: Wind und Sonne schicken keine Rechnung, sind aber nicht kostenlos – nach deutscher Energiewendemethodik nicht mal kostengünstig.

Für das Jahr 2017 melden deutsche Netzbetreiber zum Teil stark steigende Kosten für Noteingriffe ins Stromnetz. Was sind die primären Ursachen für diese Kosten und wie lassen sie sich aus Ihrer Sicht reduzieren?

Die steigenden Kosten für die Netzeingriffe sind verursacht durch die fehlende Koordinierung des Zubaus volatiler Erzeuger mit dem Netzausbau. Auch hier fehlt der Masterplan, der die 16 Energiestrategien der Länder mit der Bundesstrategie und den Netzausbauplänen zusammenführt.

Die Eigentümer regenerativer Anlagen müssten zeitnah unternehmerische Verantwortung und entsprechendes Risiko übernehmen. Bisher gilt: „Build and forget“, das heißt, nach dem Bau der Anlagen folgt das Kassieren. Um Ableitung, Vermarktung, Verkauf und Abrechnung des Stroms, inklusive der nötigen Netzdienstleistungen müssen sich andere kümmern. Und selbst bei netztechnisch nötigen Außerbetriebnahmen von Anlagen werden Einspeisevergütungen weitergezahlt. Dies ist ein krasser Webfehler im EEG, der dringend behoben werden muss.

Eine sinnvolle Lösung wäre die Abschaffung des EEG und die Verabschiedung eines Folgegesetzes, das Forschung fördert und grund- und regellastfähige Einspeisung anreizt.

Der steigende Anteil der regenerativen Energien an der Stromerzeugung in Deutschland scheint darauf hinzudeuten, dass die Energiewende in ihrer jetzigen Form erfolgreich sein könnte, trotz der voraussichtlichen Zielverfehlung hinsichtlich der Reduktion der Treibhausgase zum Jahr 2020. Würden Sie diese Deutung teilen?

Nein. Ich halte es für einen Trugschluss, auf der Basis zugebauter installierter Leistung den Trend einfach hochzurechnen bis zu 100 Prozent. Es wird vergessen, dass dazwischen ein Systemwechsel liegt. Bisher wird der volatile Strom in ein vorhandenes, durch konventionelle Erzeugung stabilisiertes Netz eingebettet und mit Netzdienstleistungen versehen. Künftig müssen diese Leistungen auch von den Erneuerbaren kommen, wobei weder technisch noch regulativ Entwicklungen in diese Richtung zu beobachten sind.

Der größte Teil erneuerbarer Einspeisung ist volatil und bringt etwa 35 Prozent an elektrischer Arbeit im Jahresdurchschnitt, schwankend zwischen etwa zehn bis fast hundert Prozent. Dies macht ein dauerhaftes Backup-System erforderlich. Der weitere unkoordinierte Ausbau volatiler Einspeiser würde zeitweise zu erheblichem Überangebot führen, das Backup aber nicht überflüssig machen. Bei Windstille ist die Anzahl stehender Windkraftanlagen uninteressant.

Die Finanzierung der Fixkosten beider Systeme ist ein volkswirtschaftlicher Ballast, der auf diese Weise nicht zu vermeiden ist und im Trend weiter steigen wird. Sollten konventionelle Kraftwerke künftig durch riesige Speicherkapazitäten ersetzt werden können, fallen auch für diese erhebliche Kosten an.

In jedem Fall besteht dringend die Aufgabe, die regenerativen Erzeuger an die Regelfähigkeit und die Erbringung von Netzdienstleistungen heranzuführen – schließlich sollen sie dereinst vollversorgen. Wann das soweit sein wird, sollte man nüchtern an Hand der weiteren Entwicklung bewerten und nicht von Wunschdenken geleitete Termine setzen.

Der Beitrag erschien zuerst auf Kernenergie.de




Schadstoffhysterie fördert Mangelerkrankungen

Über Jahrzehnte habe ich zusammen mit einem Mediziner eine Vorlesung über Prothesen gehalten, die als „Ersatzteile“ in den Körper eingebaut werden. Ich habe die Hörer über die Werkstoffeigenschaften aufgeklärt und mein Partner hat die Operationsmethoden erläutert. Eines Tages kam er mit einem Problem, das ihn schon lange plagte. Er hatte nach einigen einfachen und problemlosen Operationen ungeklärte Todesfälle, als die Patienten zum ersten Mal wieder auf die Füße gestellt wurden. Er suchte immer noch nach der Todesursache. Die einzige signifikante Abweichung von der Norm war bei diesen Patienten ein geringer Zinkgehalt im Blut. Er fragte, wie kann man den Verdacht, Zinkmangel sei die Ursache für die Todesfälle, erhärten.

 

Zink

Diese Frage wurde als Diplomarbeit von einem Studenten bearbeitet. Er analysierte 800 Patientendaten mit Hilfe von Regressionsrechnungen. Er konnte nachweisen, dass die Todesrate bei Zinkmangel signifikant anstieg. Die medizinische Literatur gibt dann auch die Antwort auf das Warum?

Zink bildet in einer Reihe von Enzymen eine entscheidende Wirkungsgruppe. Enzyme sind Eiweiße, die als Katalysator wirken. „Katalysatoren sind Stoffe, die chemische Reaktionen ermöglichen oder beschleunigen, ohne sich selbst dabei nach Art und Menge zu verändern.“ Diese Definition mussten wir in der Schule auswendig lernen. Solche zinkaktiven Enzyme ermöglichen das Ausatmen von Kohlenstoffdioxid (CO2). Sie beschleunigen in der Lunge die Aufspaltung von Kohlensäure (H2CO3) in Kohlenstoffdioxid (CO2)und Wasser (H2O) um sechs Zehnerpotenzen.

Wenn nun Patienten nach einer Operation zum ersten Mal wieder aufstehen, ist das eine recht hohe Belastung. Der Körper verbraucht plötzlich mehr Sauerstoff. Im Blut wird Kohlensäure angereichert. Die Abscheidung von CO2  in der Lunge ist jedoch bei Zinkmangel zu langsam und damit unzureichend. Das Blut wird immer saurer. Dies ist ein Signal für den Körper, den Herzschlag zu beschleunigen. So wird die Verweilzeit des Blutes in der Lunge noch kürzer mit der Folge, dass noch weniger  CO2abgeschieden wird. Es kommt zu einer Todesspirale.

Zink ist vor allem in Muskelfleisch und Innereien. Vegetarier haben hier ein Problem, dem Körper genügend Zink zuzuführen. Es gibt nur wenige Gemüsesorten mit genügend Zink.

 

Spurenelemente

Mit dieser Darstellung von Mangelerscheinungen sind wir beim Thema. In unserem Körper sind alle Elemente in den gleichen Anteilen wie in der Erdrinde vorhanden. Das hat Prof. Dr. Michael Ungethüm, langjähriger Vorstandsvorsitzender der Aeskulap-Werke, in seiner Doktorarbeit nachgewiesen. Nur Zink ist in unserem Körper gegenüber der Erdrinde wesentlich angereichert.

Unser Körper muss mit den vielen Elementen und deren Verbindungen klar kommen. Er nimmt sie nicht nur auf und scheidet sie wieder aus, sondern er nutzt viele Stoffe, die im Überschuss schädlich wirken, für die Optimierung der Körperfunktionen. Dazu gehören natürlich auch die Umwelteinflüsse, wie Staub, Strahlung und die Zusammensetzung der Luft.

Im Prinzip reagiert der Körper auf alle Stoffe und Umwelteinflüsse nach dem gleichen Schema. Er nutzt die Stoffe und Einflüsse zur Regelung der Körperfunktionen. Wenn diese Stoffe fehlen, kommt es zu Mangelerscheinungen. Sind sie im Überfluss vorhanden, die der Körper nicht mehr verkraften kann, werden sie zum Gift.

 

 

Die Skizze (oben) zeigt das Prinzip vom Mangel zum Gift. Für einige Stoffe und Umwelteinflüsse sind Mangelerscheinungen bekannt.

Eisen

Eisen des Hämoglobins in den roten Blutkörperchen transportiert Sauerstoff von der Lunge zu den Zellen, wo er zu CO2 verbrennt. Bei Eisenarmut gibt es Sauerstoffmangel. Schlaffheit und Ermüdung sind die Folge.

Strahlung

Bekannt ist auch die Wirkung von ultravioletter Strahlung (UV-Strahlung) zur Eigenproduktion des Vitamins D. In der dunklen Winterzeit wird nicht genügend Vitamin D produziert. Daher suchen die Menschen im Frühling die stärker werdende  Sonne. Zuviel UV-Strahlung verbrennt allerdings die Haut und kann zu Hautkrebs führen. Dann ist die Strahlendosis im „giftigen“ Bereich.

Die härtere Gamma-Strahlung, auch als Röntgenstrahlung bekannt, dringt tief in den Körper ein. Trifft solche Strahlung auf einen Zellkern, wird die Zelle defekt. Da Strahlung aus dem Weltraum wie auch aus radio-aktiven Isotopen unserer Umwelt ständig auf uns einwirkt, hat sich der Körper auf die Beseitigung solcher Schäden eingestellt. Er repariert oder ersetzt die defekten Zellen. Der gleiche Mechanismus beseitigt auch infizierte Zellen. Erst wenn die Strahlendosis so hoch wird, dass der Körper mit der Beseitigung der Schäden nicht mehr mitkommt, gibt es gesundheitliche Probleme. Durch erhöhte Strahlendosen wird der Reparaturmechanismus verstärkt, niedrigere Dosen schwächen ihn. Menschen, die im Sommer an der See oder im Gebirge, also unter erhöhter Strahlenbelastung Urlaub machen, kommen besser durch den Winter. Auch eine Kur im Erzgebirge mit stärkerer Strahlung aus den Gesteinen oder in Radon Bädern hilft in gleicher Weise. In weiten Teilen Deutschlands ist die natürliche Strahlung gering. Viele medizinische Berichte zeigen, dass bei einer höheren Strahlenbelastung die Raten von Erkältungen und sogar Krebs sinken.

Bei dieser Sachlage ist es vom Bundesamt für Strahlenschutz unverantwortlich, vor jedem Strahlungsquant zu warnen. Das Amt beharrt auf der LNT-Hypothese (Linear, No-Threshold). Sie besagt, wenn der Körper eine bestimmte Strahlungsmenge aufgenommen hat, stirbt er. Es ist egal, in welcher Zeit diese Strahlenmenge absorbiert wurde. Übersetzt in das tägliche Leben heißt das: Zwei Flaschen Schnaps sind eine tödliche Menge, wenn ich den Schnaps an einem Abend trinke. Nach dem LNT Modell bin ich aber auch tot, wenn ich den Schnaps mit einem Gläschen pro Tag innerhalb eines Jahres trinke. Mit dem LNT-Modell haben das Bundesumweltamt, Greenpeace und andere Organisationen hunderttausende Tote durch radioaktive Strahlung nach Reaktorunfällen und Atombombenexplosionen errechnet, die es nie gegeben hat.

Mit anderen Stoffen wird ähnlich verfahren und damit nicht nur unsinnige, sondern auch gesundheitsgefährdende Umweltpolitik gemacht. Als schädlich eingeschätzte Stoffe werden gesetzlich bis an die Nachweisgrenze aus unserem Umfeld verbannt. Mit besseren Analysenmethoden werden die Konzentrationen immer weiter herabgesetzt. In immer mehr Fällen liegt man dann im Mangelbereich. Es treten Gesundheitsprobleme auf, deren Ursachen nicht erkannt werden, weil viele Mangelerscheinungen noch nicht erforscht sind. Die Zunahme von Allergien dürfte dazu gehören.

 

Kohlenstoffdioxid (CO2)

Auch das viel diskutierte Gas CO2führt zu Mangel und Vergiftungen. Es hat in der Luft einen Anteil von 0,04 Volumen-Prozent (1 CO2–Molekül auf 2500 Luftmoleküle). Direkte Mangelerscheinungen auf den Menschen durch zu geringe Anteile sind nicht bekannt.

Doch indirekt gibt es ein großes Problem. CO2in der Luft ist wesentlicher Bestandteil des Pflanzenwuchses und damit unserer Ernährung. Ohne  CO2gibt es keine Pflanzen und damit auch keine Nahrung für Tiere und Menschen. Höhere CO2-Gehalte in der Luft fördern den Pflanzenwuchs. Der Anstieg von 0,028 Prozent auf 0,04 Prozent in den letzten beiden Jahrhunderten hat dem Pflanzenwuchs um 20 bis 30 Prozent erhöht. Ein Teil der Pflanzen hat sich auf den geringen Gehalt an CO2eingestellt. Andere brauchen aber für ein optimales Wachstum deutlich höhere Anteile.

Ab etwa 5 Volumen-Prozent beeinträchtigt CO2die Atmung und führt bei 10 Prozent schnell zum Tod.  Wir brauchen also eine Optimierung für den optimalen Pflanzenwuchs einerseits und Vermeidung von Vergiftungen andererseits.

Strittig ist bei dieser Forderung die Wirkung des CO2auf die Erderwärmung. Tatsache ist, CO2trägt zur Erwärmung der Atmosphäre durch Absorption von Wärmestrahlung bestimmter Wellenlängen bei. Die geringen CO2-Anteile in der Atmosphäre reichen jedoch bereits aus, fast die gesamte absorbierbare Strahlung in Wärme umzusetzen. Mehr CO2in der Luft kann also nicht zu einer weiteren nennenswerten Erwärmung der Atmosphäre führen, weil keine zusätzliche Strahlung vorhanden ist.

Feinstaub

Ein weiteres Beispiel dazu ist die Feinstaub-Hysterie. Wir sind in vieler Hinsicht immer natürlichem Feinstaub ausgesetzt. Blütenpollen, Ruß oder winzige Wassertröpfchen gehören dazu. Dieser Staub dringt tief in die Lunge ein. Als Fremdkörper dürfte er Reize auslösen, die zum Abhusten des Schleims in der Lunge führen. Damit wird gleichzeitig auch der Feinstaub wieder ausgeschieden. Zu geringe Feinstaubbelastungen müssen nach diesem Modell zur Verschleimung der Lunge führen. Kohlenstaub verursacht keine Lungenprobleme. Bergleute, die Jahrzehnte im Kohlestaub gearbeitet haben, zeigen dies. Dagegen wurden Bergleute, die ständig Steinstaub ausgesetzt waren, wegen Atemprobleme vielfach zu Frührentnern. Art und Menge von Feinstaub reagieren offensichtlich ganz unterschiedlich. Auch hier kann eine staubfreie Luft zu Gesundheitsproblemen führen.

Stickstoffdioxid

Stickstoffdioxid (NO2) ist das neueste „Giftgas“. Die Motoren unserer Autos und speziell der Dieselmotor, sollen davon gesundheitsgefährdende Mengen in die Luft pusten. In den USA wurde von politischen Gremien die Stickstoffdioxid-Konzentration in Auspuffgasen so weit herabgesetzt, dass diese Forderung nur mit Abgasfiltern erfüllt werden kann. Die geforderten Werte liegen weit unterhalb einer Gesundheitsgefährdung. Medizinische Untersuchungen in der Schweiz haben keine gesundheitlichen Beeinträchtigungen gezeigt bei Konzentrationen, die 250-mal höher sind als die europäischen Grenzwerte. In jedem Raum, in dem ein paar Kerzen brennen, steigt die Stickstoffdioxid-Konzentration auf das 20-fache der in den Europäischen Städten erlaubten Werte. Vor einem gemütlichen Abend bei Kerzenschein wird aber nicht gewarnt. Doch gegen die viel geringeren Gehalte auf den Straßen der Städte wird geklagt.

Eine gesundheitsgefährdende Grenze wird in unserem Lebensbereich nicht erreicht. Kraftfahrzeuge  erhöhen die Konzentration von Stickstoffoxiden nur unwesentlich. Heizungen, Kamine, Blitze haben einen deutlich höheren Anteil. Aus der Luft wird dieses Gas dann bei Regen ausgewaschen und gelangt als wichtiger stickstoffhaltiger Dünger in den Boden. Die Pflanzen geben bei ihrer Verwesung oder Verbrennung Stickstoff wieder an die Luft ab. Dieser Kreislauf wird bei der derzeitigen Diskussion gar nicht beachtet. Nach meinen Kenntnissen ist unbekannt, ob Stickstoffdioxid auch wichtige Körperfunktionen steuert. Wenn dies der Fall ist, müsste auch eine Mindestkonzentration festgelegt werden, um Mangelerscheinungen zu vermeiden.

Übrigens, der europäische Grenzwert verlangt weniger als ein Stickstoffdioxid-Molekül auf 50 Millionen Luftmoleküle!

Unbekannte Stoffe

Auf synthetische Stoffe trifft das Modell von Mangel und Vergiftung nicht zu. Die neuen Stoffe kennt der Körper nicht. Viele werden dennoch im Körper abgebaut und ausgeschieden. Manche können jedoch im Körper bleiben und sich anreichern, bis es Probleme gibt. Hier würde dann das LNT-Modell zutreffen. Arzneien werden in langen Versuchsreihen auf ihre Körperverträglichkeit getestet. Für Kosmetika, Wasch- und Lösungsmittel trifft das aber nicht zu. Hier kann es zu Unverträglichkeiten, Allergien und anderen Beschwerden kommen. Es ist sicher noch viel Forschungsarbeit zu leisten, um diese ungünstigen Einflüsse zu beherrschen.

Hans-Günter Appel




TE: Große Leseraktion: Wie manipulieren Messstationen die Umweltbelastung in Ihrer Stadt? – Teil 8

Aus Potsdam schickt uns Leser Justus W. ein Bild der Messstation Zeppelinstraße zwischen Geschwister Scholl Straße und Nansenstraße. »Die Messstation steht im Prinzip an der ungünstigsten Stelle, also dort, wo die höchsten Werte zu erwarten sind: Nur an diesem letzten Ende vor der Einmündung in die Breite Straße ist die Zeppelinstraße (B1) so schluchtartig eng mit höheren Häusern bebaut. Das meiste andere der Straße ist recht offen und auch breiter (hinter der Kreuzung Kastanienallee Richtung Geltow).

Die Messstation steht an der engsten Stelle, nahe der Bahnlinie (nach vorne und durch den schrägen Verlauf auch seitlich), die Bäume (momentan nicht laubtragend) sorgen sicher auch noch dafür, dass die Abgase sich nicht verteilen können, sondern im Bereich der Messstation verbleiben und dort für falsch höhere Werte sorgen.

Als Konsequenz aus den abgeleiteten Maßnahmen, das heißt Verengung mit einspuriger Verkehrsführung für beide Richtungen einer Bundesstraße, also der B1, ergießt sich der Autoverkehr nun ins angrenzende Wohngebiet:

Nachfragen der Anwohner an die Stadt und das Landesumweltamt, nach welchen Kriterien die Messstationen genau dort und nicht woanders aufgestellt worden und die Messungen entstanden sind, ob sie validiert worden sind usw, blieben wegen Unwissenheit (!) unbeantwortet. Das Modell wird übrigens von der Stadt Potsdam gefeiert und als Vorbild für andere Kommunen gehandelt:«

Berlin, Hardenbergplatz

Wir müssen uns mit der Luft in jener Stadt befassen, die Hauptstadt zu sein beansprucht. Die Berliner Luft wird ja immer wieder gepriesen; für Außenstehende unverständlich, zeigt das doch höchstens deutlich »Wie kann man da für wenig Moos den Dicken Wilhelm machen!«

Die Luft ist zwar deutlich besser geworden, stellt die Senatsverwaltung für Umwelt, Verkehr und Klimaschutz fest. Auch ein Erfolg moderner Autoantriebe. Aber die Arbeit soll ja nicht ausgehen, Anforderungen im Zweifel erhöht werden, daher mit der Folge: Muss aber noch besser werden. Jetzt versucht die Verwaltung immerhin, den Verkehr wieder flüssiger zu machen und dadurch Staus mit höherem Abgasaufkommen zu vermeiden, genau das Gegenteil von dem also, was grüne Verkehrsplanung bisher bezweckte.

Unabhängig von der Frage, ob Standorte manipuliert wurden – die veröffentlichten Messwerte zeigen viel »Grün«, also keine Probleme mit der Luft. Der Monatsbericht für Januar 2018 stellt fest: »Insgesamt lag die Luftbelastung im Januar 2018 beim Stickstoffdioxid etwas unter dem Durchschnitt der Januar-Monate der vergangenen Jahre.« Die ach so fürchterliche Feinstaubbelastung »lag deutlich unter dem Durchschnitt.« Schlechte Zeiten für die Alarmisten von der ominösen Deutschen Umwelthilfe. Deren Geschäftsmodell gerät in Gefahr, zumal sie jetzt offenbar noch unter strenger Aufsicht internationaler NGOs wie ClientEarth zu stehen scheinen. Die wittern bekanntlich in Europa dicke Geschäftsmöglichkeiten mit Klagen im Umweltbereich und bezahlen zum Teil auch die DUH als Stoßtrupp für ihre Aktivitäten.

Heftig zieht die DUH gegen die so gesundheitsgefährdende Luft zu Felde in trauter Vereinigung mit den Medien. »Flächendeckend schlechte Luft in Berlin« schreibt eine Isabell in der »Morgenpost« und erzählt weiter im Artikel Unsinn: »Die Luft in Berlin ist noch viel stärker mit gesundheitsgefährdenden Stickoxiden belastet, als bisher bekannt.« Zu ihrer Kenntnis: Es gibt keinen Beleg dafür, dass Stickoxide in den Konzentrationen, um die es hier geht, gesundheitsgefährdend sind. Die amtlichen Messwerte jedenfalls ergeben zudem ein deutliches Absinken der als »Schadstoffe« bezeichneten Gase.

Sie beruft sich auf Messungen, die Aktivisten vom Rundfunk Berlin-Brandenburg (RBB) zusammen mit der Technischen Universität Berlin (TU) organisiert haben. Sie hatten im Herbst vergangenen Jahres mit sogenannten »Passivsammlern« Luftmessungen veranstaltet. Die können keine Spitzenwerte, sondern nur Mittelwerte über einen Zeitraum messen, sind preiswert, dafür nicht so genau und können in keiner Weise mit Messstationen verglichen werden. Morgenpost-Isabell schreibt hurtig: »Mit einer Messreihe hatten der RBB und die Technische Universität Berlin (TU) den Nachweis erbracht, dass die Berliner von der hohen Stickoxid-Belastung nahezu flächendeckend betroffen sind. Demnach liegen die Werte an 73 Standorten über dem zulässigen EU-Grenzwert. Insgesamt hatten die TU-Wissenschaftler an 110 Stellen die Konzentration von Stickoxid gemessen. Das Messnetz des Landes umfasst lediglich 39 Standorte.«»Die neuen Messergebnisse bestätigen, dass wir in Berlin an viel zu vielen Stellen viel zu hohe Werte haben«, sagte Berlins Umweltsenatorin Regine Günther voreilig der Berliner Morgenpost.

Weiß Isabell eigentlich, wie ein Nachweis korrekt erbracht wird? Immerhin gibt die TU in einem Anfall von Seriosität noch an, dass die Messunsicherheit zehn Prozent betrage. Bei einem Wert von 40µg/m3 sind also 44 µg/m3 noch im Rahmen der Messungenauigkeit. Es sind jedoch keine weiteren Dokumentationen bekannt, wie weit die Messenden sich an EU-Vorgaben wie Standorte, Höhe und Position der Ansaugöffnungen gehalten haben. Solche Messungen sollten nur mit dem eindeutigen Hinweis veröffentlicht werden, dass die Werte nicht den normgerechten Vorgaben entsprechen. So wurde auch nicht einmal ein komplettes Jahr der Verlauf für den vorgeschriebenen Jahresmittelwert registriert. Sie sind also nicht normgerecht und vergleichbar, sagen letztlich nicht viel aus und können von daher keine Aktivitäten wie Fahrverbote begründen. Wobei, der Gedanke, ein weitreichendes Fahrverbot im Moloch Berlin – der hätte schon etwas. Zumal angesichts des von rot-grün heruntergerockten öffentlichen Nahverkehrs. Die grüne Verkehrssenatorin wollte ja laut Tagesspiegel auch einmal ganz böse mit der S-Bahn schimpfen. Leider reportiert das Blatt nicht das laute Lachen aus den Reparaturhallen der S-Bahn.

Wie sehen die Messstationen aus? Aus Berlin schickt uns TE-Leser Erwin M.-E. Aufnahmen der Messstation am Hardenbergplatz 115. Die Messstelle ist eingeklemmt zwischen der stark befahrenen Hardenbergstraße und dem Buszufahrtsweg/-Abfahrtsweg am Hardenbergplatz. Neben dem Straßenverkehr vor dem Bahnhof starten und enden hier rund 13 BVG-Buslinien, die alle in geringem Abstand an der Messstation vorbeifahren. Trotzdem weist diese Station in diesem Jahr noch keine »Grenzwertüberschreitungen« auf, wie auch im vergangenen Jahr. Die Messwerte sind hier zu finden. Das dürfte eher ziemlich viel über den Alarmismus in Deutschland aussagen, den NGOs mit Fleiß betreiben.

Berlin, Schildhornstraße

Zwei TE-Leser schicken uns Bilder der Messstation in Berlin Steglitz, Schildhornstrasse 76. Es handelt sich um einen vierspurigen Autobahnzubringer. Die Messstation steht zwischen zwei Ampeln in kurzem Abstand mit häufigen Anfahrt- und Bremsvorgängen, zudem unter Bäumen, nach EU-Regelwerk nicht erlaubt: in einer vielbefahrene, enge Hauptverkehrsstraße, einer Parkbucht. Etwa 300m davor endet die Autobahnabfahrt. Ab Gritznerstraße handelt es sich um ein Tempo-30-Limit. Ein Tempoblitzer sowie zusätzlich ein Ampelblitzer stehen kurz vor der Messstation, so dass Tempo 30 weitgehend eingehalten wird. Insbesondere im Berufsverkehr wird dort oft noch langsamer gefahren, oft ist ein Halt an der Ampel Ecke Gritznerstraße erforderlich, Abbiegen (außerhalb des Berufsverkehrs  erlaubt) behindert den Verkehr an der Ecke zusätzlich. Dennoch veröffentlicht die Verwaltung den NO2-Meßwert für Januar 2018 von 44 µg/m3. Ziemlich wenig. Denn anmerken dazu muss man, dass die Nachweisgrenze für Chemoluminiszenzverfahren, mit denen die NO2 gemessen werden, bei 2,5µg/m3 liegt. In der Größenordnung dürfte auch der Messfehler der Anlagen liegen. Aus gesundheitlicher Sicht ist es gleichgültig, ob der Grenzwert von 40µg um 6 µg überschritten wird oder nicht. Die WHO sagt selbst dazu, dass es ein reiner Vorsorgewert ohne wissenschaftliche Basis ist.

Berlin, Wedding

Berliner Messstelle »010 Wedding (Hintergrund)«. Sie liegt ca. 20 m von der Amrumer Straße, einem Zubringer zur Stadtautobahn, entfernt und von einem Gebüsch verdeckt in der Limburger Straße. Die stark befahrene Luxemburger Str. ist ca. 50 m entfernt.

Duisburg, Kardinal-Galen-Straße

Hier steht die Station mit dem EU-Code DENW112 in der Kardinal-Galen-Straße auf dem Mittelstreifen der Straße. Zwei TE-Leser schicken uns Bilder dieser Station. Rechts und links fahren die Autos auf einer zweispurigen Straße durch die City zur Autobahn vorbei – nach EU-Richtlinien keine erlaubte Platzierung. Von der Messstation führt die Tabelle EU-Jahreskenngrößen für das Jahr 2017 keine Überschreitungen der NO2-Grenzwerte auf, übrigens auch nicht für Werte von Feinstaub. Auch die anderen Duisburger Messstationen melden keine signifikanten Überschreitungen – unabhängig von der Korrektheit der Aufstellung, Kalibrierung und Wartung. Das Ergebnis wird der DUH nicht gefallen.

Stralsund

Zum Abschluss eine gute Nachricht aus Stralsund. »Die Messstation in meiner Stadt befindet sich in Stralsund am Knieperdamm unmittelbar vor einer Ampelanlage und maximal 1,50 zur Fahrbahn.« Schreibt mit freundlichen Grüßen TE-Leser Manfred J. Die Station an diesem verkehrsreichen Ort liefert dennoch Werte unter den Grenzwerten. Die Luft in Mecklenburg-Vorpommern ist sauber. Schlechte Geschäftsbasis für die Deutsche Umwelthilfe. Mal sehen, was die sich einfallen lassen.

Die Luftqualität in Deutschland ist dank großer Anstrengungen und hoher Kosten zum großen Teil in Ordnung. Allzu durchsichtig sind die Interessen von Abmahntrupps wie der DUH.


Schicken Sie uns bitte aus Ihrer Stadt Fotos der Messstationen. Bitte notieren Sie den genauen Standort. Aus einem weiteren Foto sollte das Umfeld der Messstation ersichtlich sein. Bitte schicken sie die Fotos an redaktion@tichyseinblick.de; Sie erteilen uns damit automatisch das Recht, Ihr Foto zu veröffentlichen. Wir freuen uns auch über Beiträge aus der Lokalpresse zu diesem Thema.

Vielen Dank!


Hier geht es zu Teil 1 – Messstationen in Stuttgart, Leipzig, Fulda, Magdeburg, Rostock, Marburg und Tübingen

Hier geht es zu Teil 2 – Messstationen in Ludwigsburg, Hannover, München und Siegen

Hier geht es zu Teil 3 – Messstationen in Hamburg, Wiesbaden, Cottbus, Dortmund und München

Hier geht es zu Teil 4 – Messstationen in Berlin, Hannover, Halle an der Saale, Wuppertal und Göttingen 

Hier geht es zu Teil 5 – Messstationen in Darmstadt, Leonberg, Kiel und Gelsenkirchen

Hier geht es zu Teil 6 – Messstationen in München, Plauen/Vogtland, Osnabrück und Norderstedt

Hier geht es zu Teil 7 – Messstationen in Oldenburg, Köln, Leipzig, Nürnberg, Kassel und Essen

Der Beitrag wurde von TICHXS Einblick übernommen (hier)




Golfstrom mit Glatteis – oder, wie Müller Jung von der FAZ die Welt sieht.

Die Sonne kracht, die Biergärten sind rammelvoll, die Mädchen leicht bekleidet (außer in bereits Minirock-befreiten Zonen). Es besteht Grund zur Freude, die Erhitzung der Atmosphäre zeigt einmal mehr ihre schönsten Folgen. Selbst die Eisbären in den Zoos sind gut gelaunt, offenbar haben sie noch nicht mitgekriegt, dass sie demnächst aussterben sollen. Während die Süddeutsche Zeitung noch den ausgelutschten Drops von den verhungernden Bärchen serviert, ist der Tagesspiegel schon auf einem anderen Trip: Dem Eisbären stehen goldene Zeiten bevor!

Denn, so haben Ausflüge in die weite Welt der Klima-Hochrechungen ergeben, der Golfstrom verlangsamt sich, und Europa wird alsbald unter einer Eisdecke bibbern. Die FAZ meldet, der Klimawandel hinterließe „radikaler denn je seine Spur in den Datenreihen“. Der gleiche FAZ-Autor schrieb vor zehn Jahren zu zweifelhaften Studien auf diesem Gebiet „Wissenschaft funktioniert anders“.

Datenreihen sind bekanntlich geduldig, das Narrativ vom Ableben des Golfstroms ist prinzipiell seit Jahrzehnten genauso ausgelutscht wie das der Eisbären, die sterben, auch nur in den Datenreihen. Im richtigen Leben erfreuen sie sich bester Gesundheit und konnten sich sogar vermehren. Auch die Wahrscheinlichkeit für ein Versiegen des Golfstroms im 21. Jahrhundert liegt nahe bei null.

Der Golfstrom wird nämlich nicht nur von der sogenannten thermohalinen Zirkulation befördert, sondern auch vom Windsystem über dem Nordatlantik und von der Erdrotation in Schwung gehalten. Der Ozeanograf Carl Wunsch vom Massachusetts Institute of Technology sprach einmal die güldenen Worte: „Wer den Golfstrom wirklich zum Stillstand bringen will, muss entweder die Winde abschalten oder die Erde anhalten. Oder beides“.

Ohnmacht und Hybris – und nix dazwischen

Hat sich der FAZ-Autor in Sachen Golfstrom eines besseren belehren lassen? Oder ist er Teil einer zunehmenden Hysterisierung und Moralisierung von Wissenschaft, die er im oben bereits verlinkten Beitrag so beschreibt: „Tatsächlich motiviert die Klimaforschung derzeit mit ihren Datenanalysen so etwas wie eine ‚neue Radikalität‘ im ökologischen Denken. Ein Vokabular, das nicht nur auf Parteitagen auftaucht, sondern auch vom Generalsekretär der Vereinten Nationen, António Guterres, auf einer UN-Pressekonferenz jüngst verwendet wurde: Die Schlagzeilen würden dominiert von Spannungen und Konflikten auf der Welt, sagte Guterres in New York, ‚die Wahrheit aber ist, dass der Klimawandel die größte systemische Bedrohung für die Menschheit ist‘“.

Also sprach der Klima-Papst: Ihr sollt keine andere Katastrophe neben mir haben! Was sind schon kleinliche Problemchen wie Völkermord, Armut oder Rückfall ganzer Weltregionen in religiöse Wahnvorstellungen gegen das große Klima-Apokalypsen-Narrativ internationaler Apparatschiks. Das schöne an diesem Katastrophen-Alarm ist doch, dass man damit jede Zwangsmaßnahme im Hier und Jetzt begründen kann, die Erfolgskontrolle aber erst in 100 Jahren möglich ist. Die größte systemische Bedrohung für die Menschheit ist deshalb eine Nomenklatura, die die Menschheit ganz direkt und ohne Umweg über die CO2-Emissionen ins Unglück stürzt. In Deutschland haben sie sich beispielsweise mit großem Erfolg daran gemacht, im Namen künftiger Heilserwartungen die wirtschaftliche Grundlage dieses Landes und seinen Wohlstand zu zerstören. Ich sage nur: Energiewende.

Die drohende Klimakatastrophe wird zu einem Überzeugungs- und Glaubensystem, das gesellschaftlichen Sinn stiften soll. Eine von Glaubwürdigkeitskrisen geschüttelte Politik hat die Weltrettung zur neuen Utopie erkoren. Sie können nicht einmal die Grenzen des Landes bewachen, glauben aber, die Temperaturentwicklung des Planeten per ordre de Mufti begrenzen respektive steuern zu können. Die Herrschaften schwanken zwischen Ohnmacht und Hybris – und leider ist nichts mehr dazwischen.

Wenn man die sich widersprechenden „Narrative“ vom Ende des Golfstroms und vom Ende der Eisbären zusammen nimmt, dann zeigt dies im Übrigen nicht nur Hysterisierung und Moralisierung der Klima-Debatte, sondern auch eine religiöse Immunisierung gegen Botschaften, die dem herrschenden Dogma zuwiderlaufen könnten. Denn: Egal ob es kälter oder wärmer wird oder ob alles so bleibt wie es ist (die unwahrscheinlichste Variante, weil das Klima sich im Verlauf der Erdgeschichte immer wieder geändert hat), die Klima-Paniker werden in jedem Falle behaupten, sie hätten recht.

Wenn nicht nur eine Katastrophe, sondern auch ihr Ausbleiben als Folge des sündhaften menschlichen Treibens gedeutet werden, dann zeigt dies eine völlige Immunisierung gegen rationale Argumente. So entsteht eine sich selbst abdichtende Weltsicht, die sich schließlich zu einer prinzipiell nicht falsifizierbaren Annahme verhärtet. Die Logik erinnert ein wenig an den mittelalterlichen Gottesbeweis: Wenn eine gefesselte Hexe im Wasser unterging, war sie keine Zauberin, aber dennoch tot. Schwamm Sie obenauf, dann handelte es sich hingegen eindeutig um eine Hexe, woraufhin sie ebenfalls vom Leben in den Tod befördert wurde.

Zuerst erschienen auf ACHGUT hier




Akzeptanz der Windenergie in Brandenburg steigern?

Zur Anhörung LT Brandenburg am 18.4.8  

von Michael Limburg VP EIKE

Im Antrag wird die Frage gestellt: „Wie könnte die Akzeptanz der Windenergie erhöht werden?“.. das bedeutet ganz klar- auch die fast hilflos zu nennenden Vorschläge meiner Vorredner, lassen diese Deutung zu, dass

..die Akzeptanz der Windenergie in Brandenburg offensichtlich an ihrem Ende angekommen ist.

Denn anders lässt sich dieser Antrag der Grünen nicht erklären.

Die Gründe dafür liegen auf der Hand. Sie sind jedoch keinesfalls darin zu suchen, dass die betroffenen Bürger nicht ausreichend informiert wurden, oder dass bei den vorausgehenden Planungen zu wenig „Transparenz“ herrschte,

..oder dass die Bürger  nicht darüber Bescheid wüssten, wer die Profiteure –Sie nennen Sie „Akteure“- sein werden, und wie sie ggf. selber in den Genuss solcher Profite kommen können.

…Oder, dass zu wenig Werbung für die Windkraft gemacht wurde.

Die hier geladenen Experten der Windkraftindustrie belegen just das Gegenteil, denn sie tun – Tag für Tag für Tag– nichts anderes als das.

Nein!  Die Gründe liegen allein darin,

  • ..dass die Nutzung der Windenergie unermesslichen Schaden über die betroffenen Bürger gebracht hat.
  • …Schaden, der sich in großflächiger Landschaftszerstörung äußert,
  • ..Schaden am Eigentum der Bürger, deren Immobilien in der Nähe solcher Anlagen dramatisch an Wert verloren haben,
  • ..Schaden an der Gesundheit der betroffenen Bürger, die durch den ständigen Infraschall, erzeugt durch diese Industriegiganten, oft dauerhaft beeinträchtigt wird. Und letztendlich direkter..(hinzugefügt: Details dazu hier ; mit Dank an Infraschallexperten Sven Johannsen von GusZ)
  • ..Schaden am Geldbeutel aller Bürger, der durch die extrem hohen Stromkosten – Deutschland hat inzwischen die höchsten in Europa und Brandenburg steht ganz vorne auf der Liste- per Zwangsumlagen und Steuern verursacht wird.

Das sind die wahren Gründe für die mangelnde Akzeptanz.

Und alle die hier sitzen wissen das, oder müssten es wissen.

Insofern ist der Antrag der Grünen eigentlich an Zynismus nicht zu überbieten. Da sollen mit unwahren Behauptungen -ich werde im zweiten Teil meiner Rede darauf ausführlicher eingehen- mit Steuergeldern alimentierte Planstellen geschaffen werden, deren einzige Aufgabe darin besteht, die gebeutelten Bürger zu spalten

  • zu spalten in
  • Profiteure
  • und Opfer-
  • um dann über die Profiteure noch mehr von diesen, in jeder Hinsicht, unsinnigen unnützen und teuren, Anlagen aufzustellen.
  • und die Opfer dieser Politik sollen das auch noch von ihren Steuergeldern bezahlen.

Ein wahrhaft zynischer Plan!

Lassen Sie mich nun zu Begründung des Antrages der Grünen vom 5.12.17 kommen, dazu muss ich etwas grundsätzlicher werden…

Darin heißt es dazu ganz am Anfang:

Der weitere Ausbau der Windenergie auf 2 % der Landesfläche in Brandenburg ist zur Umsetzungder Pariser Klimaschutzzielenotwendig.

Diese Begründung könnte falscher nicht sein. Zunächst einmal deswegen, weil es bisher – trotz vieler milliardenschwerer Forschung – koordiniert durch den sog. Weltklimarat IPCC – keinerlei Hinweise, schon gar keine Beweise, dafür gibt, dass das menschgemachte CO2, auf irgendeine mysteriöse Weise die Temperatur der Atmosphäre dieses Planeten erwärmt.  Es gibt nur Klimamodelle, die weder die Klimavergangenheit, noch die bereits vergangene Klimazukunft korrekt berechnen können.

Auch wenn viele -als Beweisersatz- behaupten, – dass 97 % aller Wissenschaftler der Überzeugung wären, dass der moderne Mensch mit seinen CO2 Emissionen daran schuld sei, ändert das nichts an den genannten Fakten.

Denn erstens ist dem nicht so:

Es gibt unzählige Studien, die zu genau gegenteiligen Erkenntnissen kommen und

zweitens

zählen demokratische Mehrheiten in der Wissenschaft nicht die Bohne.

Weder dreht sich die Sonne um die Erde, trotzdem die Mehrheit der Wissenschaftler über tausende von Jahren dieser Ansicht waren,

..noch sind beispielsweise die Kontinente fest auf der Oberfläche des Globus verankert.  Auch das war mal eine Mehrheitsmeinung der Wissenschaftler!  Sogar von hundert Prozent von ihnen.

Im Gegenteil…sie driften. Wenn auch sehr langsam.

Erst Alfred Wegener klärte Anfang des 20. Jahrhunderts diesen fundamentalen Irrtum auf und wurde dafür ausgelacht.

Und diese Aufzählung ließe sich beliebig verlängern.

Aber auch dann, wenn man an die Irrlehre vom menschgemachten Klimawandel glaubt, und die Delegierten in Paris taten so, als ob sie es glaubten,

….objektiv sind Windkraftanlagen weder für den „Klimaschutz“

…noch für die Einsparung von „Ressourcen“,

….noch für Versorgung eines Industrielandes mit elektrischer Energie tauglich.

Das ist naturgesetzlich bedingt und könnte nur umgangen werden, – bei weiterer riesengroßer Kostenerhöhung-

…wenn es ausreichend Speicher für die so erzeugte Elektroenergie im großtechnischen Maßstab gäbe.

Die gibt es aber nicht und sie sind auch nirgendwo, auch nur ansatzweise, in Sicht.

Deshalb kann die geforderte Erhöhung der „Akzeptanz“ also nur dem Zweck dienen, die Bürger über die wahren Sachverhalte und unter Einsatz von Steuermitteln weiter grob zu täuschen.

Aber es gibt noch andere, schwerwiegende Gründe, die dagegen sprechen:

Zu ihnen gehört, dass es keinen Mangel an billigen, konventionellen Energieträgern gibt! Im Gegenteil, sie sind im Überfluss vorhanden.

Gerade wieder meldet Bahrein[1], die Entdeckung eines der größten Öl- und Gasfeldes der Welt. Es enthält eine Menge an fossilen Energieträgern (> 80 Mrd. Barrel) die gleich groß ist, wie die Vorräte der gesamtem russischen Föderation.

Selbst Deutschland könnte seine, im Vergleich zu anderen Ländern, knappen fossilen Energieträger u.a. mittels Fracking und dem Weiterlaufen, voll betriebsfähiger – mit Abstand sichersten-  Kernkraftwerke der Welt- nutzen, um das Land voll mit sicherer, billiger, stets verfügbarer elektrischer Energie zu versorgen.

Aber damit nicht genug. Auch die zusätzliche Installation eines zweiten, – aus unserer Sicht- völlig überflüssigen, aber sehr teuren Stromerzeugungssystem aus „Erneuerbaren“ ist in jeder Hinsicht inakzeptabel. Denn der Markt wird dadurch ja nicht größer!

Nur das Angebot wird es.

Allein deswegen muss ja der so erzeugte Strom per Zwang über die Vorrangeinspeisung in die vorhandenen Leitung gepresst werden.

Und deshalb ist es nutzlos, viel zu teuer, gefährlich für die Bürger, mit allen negativen Folgen und zerstörerisch für unsere Landschaft und deren Flora und Fauna.

Eine Akzeptanzerhöhung wäre daher nur kontraproduktiv.

Auch die Antrags-Begründung gemäß dem Pariser Abkommen ist falsch:  Richtig falsch! Warum?

Brandenburgs CO2Emissionen  betrugen 2017 rd. 59 Mio t  CO2p.a.[2]. 2006 – also 11 Jahre zuvor- waren es 60,2 Mio t. Sie bleiben also defacto unverändert. In dieser Zeit hat sich aber installierte Leistung der WKA von 3.128 MW auf 6.776 MWmehr als verdoppelt [3].

Eine Wirkung auf die CO2Emissionen ist demnach nicht eingetreten. Die blieben praktisch konstant. Damit gab und gibt es auch keinen Beitrag zur Erreichung der Pariser Klimaziele. Dafür sind die Kosten explodiert.

Im Bund sieht es nicht anders aus. Die Emissionen blieben ebenso stabil wie 10 Jahre zuvor. Also hat Brandenburg auch nicht anteilig geholfen die Bundesemissionen zu senken. Nichts, nada, niente, zero, null!

Trotzdem zahlten die Verbraucher in 2017  rd. 30 Mrd. € über die Netzbeitreiber an die Erzeuger dieses Stroms

Und wg. der hohen Netzkosten werden die Verbraucher Brandenburgs noch mal zusätzlich zur Kasse gebeten. Denn der Wind wird ja nicht dort erzeugt, wo er gebraucht wird, sondern ganz woanders.

 

Und es gibt noch einen Grund, den niemand wegdiskutieren kann. Brandenburgs Anteil am Weltklimageschehen ist kleiner als mikroskopisch. Denn selbst dann, wenn man die CO2Emissionen hierzulande auf nahe oder ganz Null senken könnte, und, das wäre die einzige Folge – bei Inkaufnahme der völligen Verarmung der Bevölkerung- würde der Anteil Brandenburgs an der durchschnittlichen Temperaturabsenkung des „Weltklimas“ lediglich [4]0,000042 K betragen.

Das sind vier Nullen nach dem Komma und dann erst die Zahl!

Nochmals winzige:

4, 2 hunderttausendstel ° C (K)!!.

Daher mein Fazit: Die Grünen wollen mit ihrem Antrag die Profite der Windkraft Profiteure erhöhen und das zu Lasten der Bevölkerung. Und diese auch noch über ihre Steuern (per Landesmittel) zur Kasse bitten. Das ist nutzlos aber teuer und nur als zynisch und unlauter zu bewerten und daher abzulehnen.

[1]Quelle  Shale Revolution 3.0: Bahrain Hits (Black) Gold With Biggest Shale Discovery In World
The Times, 5 April 2018

[2]Quelle http://www.lfu.brandenburg.de/cms/detail.php/bb1.c.296595.de

[3]Quelle: https://www.foederal-erneuerbar.de/landesinfo/bundesland/BB/kategorie/wind/auswahl/180-installierte_leistun/versatz/0/#goto_180)

[4]nach der Formel 3,0 x ln(Calt/Cneu)/ln2 = Dabei ist der Faktor 3,0, der sog. ECS Wert, Caltdie CO2 Konzentration vor der Absenkung, Cneudie CO2 Konzentration nach der Absenkung. Von dieser Menge verbleibt max. die Hälfte in der Atmosphäre. Und ln das Kurzzeichen für den natürlichen Logarithmus. Die Formel unterstellt eine Erhöhung von 3 K bei Verdopplung. (ECS Wert). Die Forschung geht inzwischen aber von 0,3 bis 1,1 K aus. CO2in der Atmosphäre (Calt) rd. 3000 Gt, das sind 3.000.000 Mio. t, Brandenburg emittiert 2017 59 Mio. t. Davon verbleibt max. die Hälfte in der Atmosphäre. D.h. nach Absenkung enthält die Atmosphäre rd. 3.000.000 Mio. t minus 29,5 Mio. t = 2.999.970,5 Mio t.

Diese Rede kann auch hier unter Anhörung LT Brandenburg Wirkung V4-5 und hier Anhörung 18.4.18 EE Einspeisung & CO2 V1 heruntergeladen werden. Ein link zu den Vorträgen der andern Experten wird – unmittelbar nach Vorlage- nachgereicht.




Opportunitätskosten der deutschen Energiewende

Hans-Lothar Fischer

In der deutschen Nationalökonomie hat man lange der Energie für die Entstehung von Wohlstand nur eine untergeordnete Rolle zuwiesen. Dabei sind Menschen sind die einzige Spezies, die mit der Lösung von Energie-problemen ihr Leben auf diesem >Planeten der Knappheit< gestaltet haben. Technischer Fortschritt, das Wissen um erfolgreiche Nutzung der Energiepotentiale und die dauerhafte Regelung der kollektiven Konflikte um Energie haben unsere Geschichte geprägt.

Public Choice und Wirtschaftsgeschichte

„Public Choice“-Ökonomen, wie Usher, Olson und Ostrom haben sich mit den Problemen der Lösung zwischenmenschlicher Konflikte befasst. Gegen vagabundierende Banditen setzt Olson Stadtmauern und Militär ein, gegen stationäre Banditen hilft nur ein starker Rechtsstaat  Andere Ökonomen befassten sich mit Innovationen der Energienutzung in der Geschichte.

Klima, Niederschläge und Breitengrade

Je nach klimatischen Bedingungen auf diesem Planeten ergeben sich un-terschiedliche Vegetationsformen. Sie bestimmen die Lebensräume der Menschen. Wrigley wies nach, wie die Besiedlung Australiens durch Straf-täter (convicts) beinahe infolge einer politischen Fehlentscheidung zu scheitern drohte. Historiker zeigen uns wie z. B. Preußen die Konflikte um die Waldnutzung einer Stadt gelöst haben und der eine oder andere hat noch erlebt, wie nach 1945 britische Besatzungstruppen der Unterernäh-rung der Menschen (Lebensmittelrationierung und Treibjagden  im Stadt-wald) und den Problemen des Winters durch massiven  Holzeinschlag be-gegnet sind.

Untergang der DDR-Wirtschaft

Vor knap 30 Jahren waren wir Zeugen des Untergangs der DDR. Bilder von der katastrophalen Verwahrlosung der Städte wurden per Bildschirm in westdeutsche Wohnzimmer geliefert. Im Film „Ist Leipzig noch zu retten?“ sah man das Ausmaß der Zerstörung  und die Hilflosigkeit der DDR-Regierung. Wessies haben sich bei Besuchen dort über die Masse der in Garagen und Kellern gehorteten Kfz-Ersatzteile gewundert.

Opportunitätskosten

Ökonomen in marktwirtschaftlichen Ordnungen sprechen von Opportuni-tätskosten, wenn sie vom Nutzen oder dem ökonomischen Wert vorent-haltener oder entgangener Nutzungsmöglichkeiten sprechen. Wenn Haus-eigentümern per Gesetz verboten wird, von Mietern kostendeckende Mie-ten zu fordern, kommt es wegen mangelnder Wartung und unterlassener Instandsetzung zu gravierenden Substanzverlusten. Letztlich haben die Eigentümer die Immobilien der Stadt übertragen.

Die sozialistische >Sektorkopplung< forderte von den einzelnen Betrieben und Kombinaten die bedingungslose Akzeptanz und Erfüllung der Zentral-pläne. Die >Muckefuck<-Ökonomen in der DDR konnten sich also nicht fachgerecht auf Stillstandsrisiken in betrieblichen Abläufen einstellen. Wenn ein Fließband in der Trabi-Herstellung aus irgendeinem Grund für eine bestimmte Zeit zum Stillstand kam – man nannte das >Havarie< – liefen in dieser Zeit eben keine Trabis vom Band. Westökonomen sehen die entgangenen Erlöse  als Opportunitätskosten. Diese wären nicht ent-standen, wenn das Band weiter gelaufen wäre. Man kann diese Opportu-nitätskosten senken, wenn man alle notwendigen Vorkehrungen für einen kontinuierlichen Betriebsablauf (Wartung) herstellt. Das war in der DDR aber alles ganz anders. Ergebnis: Gebrauchte Trabis wechselten zu deut-lich überhöhten Preisen die Besitzer. Der höhere Preis wurde gegen die 10-Jahre-Lieferzeit abgewogen. Für Trabiersatzteile gab es unterschied-liche – auch illegale – Quellen.

In Marktwirtschaften muss jeder, der in irgendeiner Form Verantwortung in der Wirtschaft übernimmt, den Umgang mit den oben knapp skizzierten Problemen gelernt haben. Schaffen Ökonomen, Kaufleute, und Ingenieure dies nicht, dann ist es um ihre beruflichen Chancen schlecht bestellt. Hier gelten die Regeln des ökonomischen Wettbewerbs. Bei Politikern und Bü-rokraten sollte man das eigentlich auch erwarten.

Kosten der Energieversorgung

Die Versorgung einer Volkswirtschaft mit Energie erzeugt ganz allgemein Kosten der Gewinnung und Bereitstellung der Energieinputs (Kohle, Gas, Kernbrennstoffe etc.), bei der Verarbeitung der Inputs entstehen Kosten, dann entstehen bei der Verteilung der Energie an die Verbraucher und eben auch Kosten der Instandhaltung der Systemkomponenten.

Bei Einführung neuer Energietechnologien ist zu prüfen, ob diese die tra-ditionelle Energieerzeugung und -verwendung vollwertig ersetzen oder ob sie zusätzlich geschaffen werden. Wenn die neuen Technologien die voll-ständige Substitution nicht mit absoluter Sicherheit garantieren können, sondern auf das weitere Funktionieren der traditionellen Technologien angewiesen sein, dann entstehen volkswirtschaftliche Zusatzkosten durch Parallelproduktion. Entschließt sich der Gesetzgeber dann sogar noch zu einer „Vorrangeinspeisung“ für die alternativen Energien (Wind/Sonne), müssen diese Kosten als Opportunitätskosten abgerechnet werden.

Speicherung von Energie

Die Versorgung einer hochkomplexen Volkswirtschaft mit alternativen En-ergieformen (Wind bzw. Solar) ist probmatisch, da hier eine verlustlose  Speicherung wie bei Kohle, Öl, Gas und Kernbrennstoffen – vor der Verwertung versteht sich – nicht möglich ist. Bei alternativen Energieträgern kann man allerdings die erzeugte Energie in Batterien/Pumpspeichern in umgewandelter Form unterbringen. Beim Füllen und Entleeren dieser Zwischenspeicher entstehen Verluste. Ende der 20erJahre entstanden in Deutschland zwei Pumpspeicherkraftwerke (Herdecke und Niederwartha). In Zeiten niedriger Strompreise – also nachts, wenn Haushalte und Gewerbe nur wenig Strom nachfragten – wurden die Speicher über Turbinen mit Wasser gefüllt. In Zeiten hoher Stromnachfrage – in der Regel 12 Stunden später, also bei nachfragebedingt hohen Preisen für die Kilowattstunde – entleerte man die Speicher und gewann über Turbinen Strom.

Die Launenhaftigkeit (oder: Volatilität) der alternativen Energie ist unstreitig. Die Speicherung dieser Energie – wie in den oben diskutierten Fällen – ist nicht  möglich, denn es gibt keine Preisänderungen: die Netzbetreiber müssen diese Energie unter allen Umständen jederzeit aufnehmen. Ein Modellprojekt – Gewinnung von Windenergie und Speicherung in einem Pumpspeicher auf einem erloschenen Vulkan – auf einer Insel im Atlantik (El Hierro) ist gescheitert. Die Insel wird nun wieder von Dieselaggregaten mit Strom versorgt.

Talsperren sichern die Wasserversorgung

In deutschen Mittelgebirgen gibt es eine Reihe von Talsperren. In den Einzugsbereichen von Ruhr, Lenne, Wupper wird Wasser in niederschlagsreichen Zeiten gespeichert, um das stark besiedelte, industrialisierte NRW mit dem lebenswichtigen Rohstoff zu versorgen. Wasserknappheit im Sommer führt zu Trinkwassermangel, Seuchengefahren und anderen gesundheitlichen Risiken, Hochwasser im Frühjahr führen zu Flutschäden. Möhne, Bigge, Henne und Sorpe geben in Trockenperioden bis zu 17.100 Liter Wasser pro Sekunde ab, obwohl in dieser Phase nur 2200 Liter pro Sekunde zufließen. Ohne diese Stabilisierung fiele die Ruhr streckenweise trocken und bei Duisburg würden nur knapp 6000 Liter pro Sekunde an den Rhein abgegegebn. Der Duisburger Hafen könnte damit nur schwer umgehen. Ohne die Eder fiele der Mittellandkanal im Sommer trocken.

Politische Interventionen in den Energiemarkt

Gewaltige Opportunitätskostenrisiken entstehen durch die von der Politik angestrebte Umstellung des Verkehrssystems von fossilen Treibstoffen auf Elektroantrieb. Einzelne Modellversuche (E-Transporter bei der Post) kom-men eigentlich über das Niveau von >Jugend forscht<-Initiativen nicht hinaus. Bei eingeschalteten Fahrzeugheizungen traten starke Reichweiteneinbußen auf. Weitere Interventionen sind im Transportwesen geplant: wird die E-Mobilisierung auf dem Gütertransportsektor verbindlich, stellt sich die Frage, wie man ausländische Transportunternehmen behandelt. Gibt es für sie Ausnahmen, dann verlegen alle deutschen Transportunternehmen ihren Sitz ins Ausland. E-Mobilisierung bei privaten Kraftfahrzeugen schafft unkalkulierbare Wirkungen auf kommunalen Flächenmärkten.

Die gravierendste Folge für die weitere Existenz der Volkswirtschaft geht von der Stilllegung der Kernkraftwerke und der Verdrängung der Kohlekraftwerke aus. Das trifft nicht nur die reine Stromversorgung, sondern bedeutet auch den kompletten Verlust von Fernwärmeoptionen, denn Sonne und Wind liefern keine Wärme.

Stabilitätsrisiken der Energienetze

Riesige Opportunitätskostenrisiken entstehen natürlich auch durch die von der Energiewende intendierte Neuorientierung des Verteilernetzes. Aus einem Verteilernetz wird ein bifunktionales Sammler- und Verteilernetz  Das Risiko von Blackouts steigt. Das führt nach Analysen des Wissenschaftlichen Dienstes im Deutschen Bundestag zu hohen Schadensrisiken durch Plünderung, Ausfall von Kliniken, Rechenzentren, Tankstellen etc. Das sind  für eine Gesellschaft auch volkswirtschaftlich relevante Kostenrisiken.

Opportunitätskosten des deutschen Politikbetriebes

48-Monate-Legislaturperioden in Bund und Ländern führen zwangsläufig zu mehr oder weniger bedeutsamen Wahlen im Abstand von 3 Monaten. Das führt zu instabilen Mehrheitsverhältnissen. Vor 1990 gab es über eintausend Bund-Länder-Kooperationsgremien, hier bestimmten Bürokraten die Agenden in Bundes- und Landtagen sowie im Vermittlungsausschuss. Seit der deutschen Einigung ist alles noch komplizierter geworden. Verbreitete kollektive Dummheit senkt die politischen Überzeugungskosten und erhöht die Opportunitätskosten – Olson`s stationäre Banditen finden reichlich Nahrung.

Den gesamten Aufsatz finden Sie als pdf hier AA Energiewende Opportunitätskosten 01042018

 




TE Große Leseraktion: Wie manipulieren Messstationen die Umweltbelastung in Ihrer Stadt? – Teil 7

Die rote Rita nun wieder. Ausgerechnet ins Umweltministerium hat es sie, die aus der »Anti-Atombewegung kommt« verschlagen. »Es ist ein Märchen, dass die Messstationen nicht sachgerecht aufgestellt sind«, sagte die Staatssekretärin Rita Schwarzelühr-Sutter. Dann das umwerfende Argument: „Die Luft wird nicht besser, wenn man sie anders misst. Das ist Augenwischerei und unseriös.“

Äh, wie bitte? Wie anders messen? Sie wird nicht anders gemessen, sondern die entscheidende und heftig umstrittene Frage ist die nach den Standorten, wo die Luft gemessen wird. Denn, zumindest das hätte ihr doch vor ihrer Einlassung jemand flüstern sollen, eine der ganz entscheidenden Fragen in der Messanalytik ist: Wo wird gemessen? Genau darüber wurden in unzähligen EU-Sitzungen gestritten, wo und unter welchen Bedingungen die Anlagen zu stehen haben. Übrigens: Gemäß 39. Verordnung zur Durchführung des Bundes-Immissionsschutzgesetzes, Anhang III A.2.a) sind Messstellen nicht zulässig an Orten, an denen keine festen Wohnungen sind. An Deutschlands berühmtester Messstelle Neckartor sind keine Wohnungen. Sind die Vorschriften vollkommen gleichgültig?

Mit Standorten entscheidet man über Messwerte. Also: TE lesen! Haben wir ausführlich erläutert. Gut, sie kommt aus der Betriebswirtschaft. Dort mittelt man gern Werte, zum Beispiel Einkommen (der Deutsche verdient durchschnittlich … ). Das verleitet zur Erkenntnis: Der Deutsche ist reich! Auf die Luftqualität übertragen würde das bedeuten: Gemittelt über die Messstellen der Städte Hamburg Max-Brauer-Allee, Stuttgart Neckartor, München Landshuter Allee und Lüneburger Heide, Schwarzwald, Bayerischer Wald ist die Luftqualität in Deutschland herausragend. Ich bin mir ziemlich sicher, dass ein solches Ergebnis herauskommen würde. Also: Das machen wir noch mal!

Wir haben uns bisher immer mit den Standorten der Messstellen befasst, die häufig so aufgestellt wurden, dass sie höhere Werte produzieren. Nicht minder wichtig ist aber der Blick hinter die Kulissen. Die Frage muss gestellt werden, wie ordentlich die überaus empfindliche Messtechnik arbeitet und wie seriös die Messwerte sind, die Technik liefert. Das kennen wir von der alten mechanischen Waage. Wir haben uns besonders gern gewogen, wenn der Zeiger weit links von der Null war. Korrekt aber ist, die Waage vorher auf Null zu stellen. Kalibrieren nennt man das. Genau das muss auch mit der Messtechnik der Messstationen geschehen. Nicht unkompliziert. Die Messgeräte in den Messstellen messen Luftdruck und Außentemperatur. Dazu wird Luft angesaugt; durch einen Katalysator werden die verschiedenen Stickoxide NOx in NO umgewandelt. Denn nur Stickstoffmonoxid ist überhaupt messbar. Durch Ozon wird eine Lumineszenz ähnlich wie beim Glühwürmchen erzeugt. Die Intensität dieses Lichts wird gemessen und in den NO-Gehalt der untersuchten Luft umgerechnet. Mit in die Rechnung einbezogen werden müssen natürlich Luftdruck und Temperatur. Dafür korrigiert die Software auf die Referenzwerte für Luftdruck (101,3 kPa) und Temperatur (293K = ca. 20°C).Natürlich kann man eine solche Station nicht einfach hinstellen. Es ist wie bei unserer Waage. Genau dasselbe muss mit der sehr empfindlichen Messtechnik gemacht werden. Dafür wird eigens ein spezielles Gas hergestellt, dessen Zusammensetzung genau bekannt ist und in die Anlage eingeführt. Dann erst weiß man, ob das, was herauskommt, auch das ist, was vorn reinkommt.Ob eine solche Kalibrierung auch in den vorgeschriebenen Abständen korrekt erfolgt, kann man von außen nicht so ohne weiteres beurteilen.

 
Notwendig wäre dazu ein ausführliches Audit, wie das in der Industrie geschieht. Die Frage, wer das bezahlt. Wobei angesichts des mutmaßlichen Schwindels, der mit diesen Werten getrieben wird und angesichts der gewaltigen wirtschaftlichen Auswirkungen mit Milliardenverlusten im Dieselfahrzeugbereich wäre ein solches Audit jedenfalls bei den wichtigsten Stationen angebracht.Ein erfahrener Chemiker jedoch, den ich nach seinem ersten Eindruck von den Stationen ohne endgültige qualifizierte Bewertung befragte, sagte ziemlich eindeutig: »Aufgrund der allgemeinen Missachtung der relevanten Forderungen für die Schadstoffmessung und des verwahrlosten Aussehens der Messstationen kann ich mir aber nicht vorstellen, dass hier alles korrekt durchgeführt wird.« Dazu könnte die Station in Oldenburg passen. Sie macht von außen einen ziemlich verwahrlosten Eindruck. Nicht richtig dazu passen will, dass im Inneren sehr empfindliche Messgeräte arbeiten, die auch regelmäßig überprüft und kalibriert werden.

Oldenburg 

Die Messstelle DENI143, so der Code dieser Station, in Oldenburg am heiligen Geist mal liefert Jahresmittelwerte von Stickstoffdioxid von 49 µg/Kubikmeter. Ulrich Heinemann, der uns diese Fotos schickte, schreibt dazu: »An den rot markierten Kreisen befinden sich Ampeln, der Pfeil zeigt die Fahrtrichtung der Busse, die auf dem Innenstadtring fahren. Manchmal auch drei hintereinander (cf. eins der Bilder). Die andere Spur ist für Autofahrer in die Gegenrichtung. Blickrichtung bei Bild 2163 ist Richtung Westen, der Abstand zur Hauswand soll ca. 5 m betragen.«

Köln

Leser Michael G. schickt Bilder der oft erwähnten Messstation in Köln-Mülheim am Clevischen Ring 3. »Direkt in einer Parkbucht an der vielbefahrenen 6-8 spurigen Bundestraße kurz vor der Auffahrt zur Mülheimer Brücke über den Rhein. D.h. zwei Spuren biegen ab auf die Brücke, zwei laufen weiter geradeaus, zwei kommen von der Brücke Richtung Messstation auf der Gegenseite, werden zu drei und zwei weitere Spuren dienen gegenüber zum abbiegen Richtug Osten. Alles mit Ampeln totgeschaltet. Es gibt Phasen, da ist überall rot, in jeder Richtung. Der Abstand zur langen Häuserfront beträgt ca. 3,5 m, Luftzirkulation wird zusätzlich durch Bäume eingeschränkt.«

Leipzig 

Wunderlicherweise steigen in Leipzig immer wieder im Winter vor allem Feinstaubwerte an. Das wirkt sich auf die Ergebnisse der Luftmessstationen aus. Michael Körner schickt Bilder von der Messstation Lützner Straße 36 in 04177 Leipzig. Sie steht an sehr exponierter Stelle. »Das ist die schmutzigste Straße Deutschlands«, schrieb einst die Mitteldeutsche Zeitung, nicht wissend, dass auch das Neckartor Stuttgart hart im Konkurrenzkampf liegt.

»Die Lützner Straße in Leipzig ist eine vielbefahrene Ausfallstraße in Richtung Westen (B87). Die Station befindet sich neben dem nördlichen Fahrbahnrand, ca. 1 m vom Bordstein entfernt. Zwischen Bordstein und Fahrspur verläuft ein etwa 1,5 m breiter Fahrradstreifen. Die Straße ist beidseits von je einer durchgehenden Häuserzeile bestanden. Die Station befindet sich im schmalsten Bereich.«

Nürnberg

Aus Nürnberg schickt uns TE-Leser Siegfried R. Bilder der Messstation in der von der Tannstraße. »In Nürnberg gibt es nur eine Messstation, welche die Grenzwerte ein paarmal im Jahr überschreitet. Aber der Standort ist anscheinend Absicht, um die Überschreitung überhaupt zu erreichen. Die Messung findet in der Von der Tannstrasse statt. In einer engen Häuserschlucht die in Nord- Südrichtung verläuft. Die Strasse hat 4 Fahrspuren.Genau am Ende der Bushaltestelle blasen die Busse, es handelt sich um zwei Linien, fast direkt in die Messstation. Die Messung wurde in einer Entfernung von nur 90cm vom Fahrbahnrand montiert. Da dies anscheinend nicht reicht, ist die Ampelschaltung so ausgelegt, dass zwischen diesen Häuserzeilen ein Dauerstau provoziert wird. Die Fahrbahn Richtung Süden ist frei aber der Verkehr wird durch die Ampel am Abfließen gehindert. Dasselbe in nördlicher Richtung. Anscheinend wird überall ein bisschen nachgeholfen.«

Anwalt Manfred. M schickt: »In Kassel gibt es zwei Luftmessstationen, von denen die eine tatsächlich regelkonform (Standort: Hinter der Komödie) ist. Die Bilder zeigen die zweite Luftmessstation, die an der Kreuzung Fünffensterstraße/Obere Königsstraße steht. Die Schlechtpositionierung dieser Luftmessstation scheint mir rekordverdächtig. Wie auf den Bildern zu sehen ist, steht sie unmittelbar vor einem (für Kasseler Verhältnisse) Hochhaus im Kreuzungsbereich, wo sich der Verkehr ständig staut. Diagonal gegenüberliegend befindet sich das Kasseler Rathaus.«

Essen

»Schadstoffwerte« in der Luft zu hoch? Kein Problem, die Stadt Essen weiß guten Rat: Häuser einfach abreissen. So überlegt die Stadt jetzt, Häuser abzureissen, um die Durchlüftung zu verbessern. Der Messstation in Essen in der Gladbecker Straße 242 liegt direkt in einer Häuserschlucht und an der engsten Stelle der B224. Leser Steffen S. und Sven R. schicken uns die Bilder der B 224. Die Meinungen über Abriss gehen auseinander. Anwohner der Gladbecker Straße wehren sich gegen die Abrisspläne, Leser Steffen F. meint: »Ein Abriss wäre auch sinnvoll. In den Schrottimmobilien wohnen jetzt wieder viele Migranten. Es gab lange Leerstände. Werte würden entstehen, würden man die Häuser an den Ausfallstraßen abreissen und daraus wertvolle Gewerbegrundstücke entwickeln, auf denen Supermärkte, Tankstellen usw. gebaut werden könnten. Das würde Essen interessanter machen, als das Image der Stadt der Armen zu kultivieren und vorzuzeigen. Stau gibt es hier hauptsächlich nur im Berufsverkehr. Die Fotos zeigen den Verkehr um 11.00 Uhr an einen Dienstagvormittag.«In der nächsten Folge werden wir uns mit der albernen Messaktion befassen, die die Deutsche Umwelthilfe DUH mit Hunderten von Messröhrchen für jedermann veranstaltet und uns damit wahre Horrorszenarien auftischen will.


Schicken Sie uns bitte aus Ihrer Stadt Fotos der Messstationen. Bitte notieren Sie den genauen Standort. Aus einem weiteren Foto sollte das Umfeld der Messstation ersichtlich sein. Bitte schicken sie die Fotos an redaktion@tichyseinblick.de; Sie erteilen uns damit automatisch das Recht, Ihr Foto zu veröffentlichen. Wir freuen uns auch über Beiträge aus der Lokalpresse zu diesem Thema.

Vielen Dank!


Hier geht es zu Teil 1 – Messstationen in Stuttgart, Leipzig, Fulda, Magdeburg, Rostock, Marburg und Tübingen

Hier geht es zu Teil 2 – Messstationen in Ludwigsburg, Hannover, München und Siegen

Hier geht es zu Teil 3 – Messstationen in Hamburg, Wiesbaden, Cottbus, Dortmund und München

Hier geht es zu Teil 4 – Messstationen in Berlin, Hannover, Halle an der Saale, Wuppertal und Göttingen 

Hier geht es zu Teil 5 – Messstationen in Darmstadt, Leonberg, Kiel und Gelsenkirchen

Hier geht es zu Teil 6 – Messstationen in München, Plauen/Vogtland, Osnabrück und Norderstedt

Der Beitrag wurde übernommen von TICHYS Einblick hier




Harald Leschs Klimavideo restlos widerlegt

In diesem Videobeitrag kann man sehen, wie echte Klimaexperten* die Behauptungen des ausgewiesenen ZDF-Klimaalarmisten Prof. Dr. Harald Lesch widerlegen – im Sommer 2016 machte Lesch für einen der YouTube-Kanäle des ZDF, „Terra X Lesch & Co“, den Videobeitrag, „Das AfD-Programm wissenschaftlich geprüft“, der für Furore sorgte. (Btw – der Titel „Das AfD-Programm pseudowissenschaftlich geprüft“ hätte m. E. besser gepasst.)

center>

Video zur Sendung von Harald Lesch über das Klimaprogramm der AfD
*Prof. Dr. rer. nat. Horst-Joachim Lüdecke, Pressesprecher des Europäischen Instituts für Klima & Energie (EIKE), und Dipl.-Ing. Michael Limburg, Vizepräsident des EIKE, schrieben kurze Zeit später einen Blog-Beitrag, in dem sie die Behauptungen aus besagtem „Terra X Lesch & Co“-Beitrag widerlegen: 

„ZDF-Wissenschaftserklärer Harald Lesch gegen die AfD: Mogeln, tricksen, täuschen.“

Dieser Beitrag ist nun von mir als Videobeitrag hier zu sehen. 

Der Blog-Beitrag ist, inkl. Quellen zu Lüdeckes und Limburgs Ausführungen, hier abrufbar: https://eike.institute/201…

Weitere EIKE-Beiträge zu Harald Lesch, siehe: https://eike.institute/?s=…

Weitere klimakritische Videos, siehe: https://www.youtube.com/playlist?list…

Tags: Harald Lesch Terra X Lesch & Co Klimawandel Globale Erwärmung Das AfD-Programm wissenschaftlich geprüft Pseudowissenschaft Faktencheck AfD Parteiprogramm Klimaschwindel Kritik Medienkritik entlarvt Klimalüge Energiewende Pariser Klimaabkommen COP21 CO2 Treibhausgase Klimaschutz Klimamodelle Klima-Modelle IPCC IPCC-Bericht Weltklimarat Analyse Europäisches Institut für Klima & Energie EIKE Klimaforschung Aufklärung aufgeklärt Michael Limburg Horst-Joachim Lüdecke Klimaforscher Klimaexperten Klimaskeptiker Klimarealisten

*** Anm.: Ich bin KEIN Anhänger der AfD, unterstütze jedoch die Arbeit des EIKE. Und in Sachen Klimawandel muss ich der AfD Recht geben; unabhängig davon, was ich sonst von dieser Partei halte. ***

 




Kohlekraftwerke – hier Stilllegung – 1600 neue Kohlekraftwerke in Asien

Wer nicht nur naiv die Bulletins der europäischen Regierungen, insbesonders in Berlin, verfolgt, kommt um überraschendes Wundern nicht herum. Die gerade zäh neu angelaufene deutsche Bundesregierung, will noch in diesem Jahr 2018 ein „Ausstiegdatum aus der Kohlenutzung“ bekanntgeben. Eine Art „Kommission“ soll dies managen und geleitet wird es vermutlich nachher eher von gelernten Soziologen, als von Energiefachleuten. Glaube ist wichtiger als Naturgesetze und Physik. Kritk daran, scheint ausser der AfD, keine andere Partei im deutschen Bundestag dazu zu haben. Es wirkt irgendwie ein wenig wie zu Kaiser Wilhelms Zeiten: „Am Deutschen Wesen – soll die Welt genesen!“

Geht man aber von den USA mit auch plötzlich neuer Kohlepolitik, mal rüber nach Asien, dann sieht das ganz anders aus. In den nächsten Jahren, sollen allein chinesische Unternehmen, ganze 1600 (eintausendsechshundert) nagelneue Kohlekraftwerke in 62 Ländern bauen. Dazu kommen noch hunderte Weitere dazu, die von Unternehmen in Japan, Südkorea, Indonesien und Myanmar gebaut werden sollen. Man kann also sagen, gerade in Asien, steht ein wahrer Boom an neuen Kohlekraftwerken bevor und die Nutzung von Kohle als Kraftwerksbrennstoff, wird bedeutend steigen. Das sind Realitäten. Dinge wie ein „Pariser Klimaabkommen“ sind dafür übrigens keinerlei Hindernis. China (und auch z.B. Indien+Indonesien) darf gemäss „Paris“ ja bekanntlich jeweils bis mindestens 2030, soviel an Kraftwerken und Fabriken neu dazubauen, wie man es dortselbst möchte.

Gemäss einer seriösen und zahlengenauen Ermittlung der bayerischen Wirtschaft, hat China in nur einem Jahr (2015) soviel an Kohlekraftwerkskapazitäten NEU zugebaut, wie Deutschland überhaupt insgesamt aktuell besitzt! Jede Schliessung in Deutschland, wird weltweit zugleich um das zigfache neu dazugebaut. Das scheint die zuständige Politik in Berlin und Brüssel, aber nicht zu jucken. Das Wort „gesunder Menschenverstand“ seit den Zeiten von Immanuel Kant, scheint heute abgeschafft zu sein. Oder hat irgendwer dazu eine halbwegs plausible Erklärung?

Inzwischen sind gerade chinesische Banken, neben Japanern, die zunehmend weltweit führenden Finanzierer solcher Anlagen, weil sich fast alle europäische Banken und Fonds, im „grünen“ Selbstbeschränken von solchen Investitionen „in Kohle“ einfach pauschal verabschiedet haben. Länder wie Pakistan, haben bedeutsame Kohlevorkommen, die bislang kaum genutzt werden. Doch will man hier nun nachbessern und die Kohlenutzung forciert erschliessen. Vermutlich weiss in Berlin wohl niemand, dass Pakistan Kohlevorkommen besitzt und nutzen möchte. Das muss man ja auch nicht wissen, das interessiert Berlin einfach nicht! Basta!

Wie oft wird bei Massnahmen begründet, dass gerade die „Globalisierung“ diese und solche Massnahmen erfordere. Doch hier, wird gerade die globale Vergleichsseite völlig ignoriert. Offenbar gilt: „Asien juckt uns nicht! Wir bauen unsere Kohlenutzung ab! Koste es was es wolle!“

Süffisant sei hier noch gefragt, warum man damals in Kambodscha, den Steinzeitkommunismus von Pol Pot überhaupt bekriegt und abgeschafft hat? Abgesehen davon, dass der Mann immerhin ca. 4 Millionen Kambodschaner ermorden liess, hatte seine „Wirtschaftsverlagerung in Richtung Steinzeit“ wohl zweifellos fantastisch gute „Öko-Werte“ was Energie, Emissionen und so betraf. Ist diese „Pol-Pot-Mittelalter-Wirtschaftsebene“ etwa bereits das heimliche Fernziel der heutigen europäischen Klimapolitik? Oder ist allein schon das lästige Fragen hiernach, bereits als „Ketzerei“ möglichst gnadenlos zu ahnden?

*

Der Originalartikel dazu, erschien in der „South China Morning Post“ (Druckausgabe)
Er kann in englischer Sprache und mit Comic, angesehen werden unter:
http://www.scmp.com/comment/insight-opinion/article/2139667/new-coal-war-frontier-emerges-china-and-japan-compete-energy?utm_source=CCNet+Newsletter&utm_campaign=e173cecd48-EMAIL_CAMPAIGN_2018_04_03&utm_medium=email&utm_term=0_fe4b2f45ef-e173cecd48-20138561

 



Kommen irgendwann die Autos mit Brennstoffzellen-Antrieb?

 Dabei lässt sich Wasserstoff aus erneuerbaren Quellen relativ leicht herstellen und obendrein gut speichern. Und der Strom der Akku-Autos kommt immer noch zum großen Teil aus „schmutzigen“ fossilen Quellen.

Doch halt! Im Umfeld der Olympischen Winterspiele 2018 in Pyeongchang hat die südkoreanischen Autofirma „Hyundai“ eine Miniserie von fünf Geländewagen, (sprich: SUV), aufgelegt, die allesamt durch eine Brennstoffzelle angetrieben werden. Die Autos mit der Bezeichnung „Nexo“ waren während der Spiele mehrere Wochen störungsfrei in Betrieb. Wenn sie im Sommer an die normale Kundschaft ausgeliefert werden, können sie fahrerlos ein-und ausparken und auf der Autobahn selbstständig Abstand und Spur halten. Die Reichweite zwischen den Tankstopps beträgt derzeit 550 Kilometer; in 9,2 Sekunden beschleunigt der SUV von Null auf 100 km/h. Den Verkaufspreis wollen die Koreaner unter 60.000 Euro halten.



Die Brennstoffzelle und ihre Tanks


Die Brennstoffzelle eines Autos ist eine galvanische Zelle, zumeist eine Wasserstoff-Sauerstoff-Brennstoffzelle. Die Brennstoffzelle ist kein Energiespeicher, sondern ein Wandler. Erfunden wurde sie bereits 1838, also vor knapp zweihundert Jahren, von dem Deutschen Christian Friedrich Schönlein,wobei dieser zwei Platindrähte mit Wasserstoff bzw. Sauerstoff umspülte und dabei zwischen den Drähten eine elektrische Spannung registrierte.

In Fahrzeugen kommt heutzutage praktisch nur noch die sog. PEM (=Polymer-Elektrolyt-Membran) -Brennstoffzelle zum Einsatz. Eine Membran trennt die vom Wasserstoff (H2) umspülte Anode von der Kathode mit dem Sauerstoff (02).  An der Anode trennen sich die Wasserstoffmoleküle in Ionen und Elektronen. Die Ionen wandern durch die PEM zur Kathode und verbinden sich dort mit dem  Luftsauerstoff zu Wasser – der einzigen und ökologisch problemlosen Emission. Weil die Membran für die Elektronen undurchlässig ist, müssen sie auf ihrem Weg zur Kathode einen Umweg über eine Leitung gehen. Die „wandernden“ Elektronen führen dann zu einem Stromfluss, der direkt von den Elektromotoren des Autos zum Antrieb genutzt wird.

Derzeit gibt es in Deutschland nur 43 Tankstellen, an denen Wasserstoff getankt werden kann. Bis Ende 2018 soll sich die Zahl verdoppeln. Beim Nexo strömen in fünf Minuten 6,3 Kilogramm Wasserstoff in drei große Karbontanks, die unter dem Kofferraumboden und dem Rücksitz montiert sind. Angesicht der bislang raren Tankstellen in Deutschland relativiert sich die oben genannte beträchtliche Reichweite des Nexo.

Erfahrungsgewinn beim Betrieb von Omnibussen

Um Erfahrungen beim Alltagsbetrieb von Fahrzeugen mit Brennstoffzellen zu sammeln, nahm das „Karlsruher Institut für Technologie“ (KIT) im Jahr 2013 zwei Omnibusse in Betrieb. Damit wurde ein fahrplanmäßiger Linienverkehr zwischen den beiden ca. 15 km entfernten  Standorten Nord und Süd des KIT aufgebaut, wodurch täglich ca. 800 Mitarbeiter und Studenten befördert werden. Am Campus Nord (früher Forschungszentrum Leopoldshafen) wurde eine Wasserstofftankstelle eröffnet, die in der Lage ist, 80 Kilogramm Wasserstoff pro Tag abzugeben, was in etwa drei Busladungen entspricht. Die Betankung der sog. „KIT-Shuttle“ dauert im Schnitt 20 Minuten. An 200 Arbeitstagen werden ca. 160.000 Passagiere pro Jahr befördert. Die Fahrleistung der Busse im Jahr 2016 betrug 92.000 Kilometer. Die Erfahrungen mit der Tankstelle und dem Linienbetrieb sind sehr gut. Das Vorhaben wird vom baden-württembergischen Umweltministerium mit 3,2 Mio Euro pro Jahr gefördert. Künftig soll vermehrt Wasserstoff aus erneuerbaren Energien verwendet werden.

Historisches und Aktuelles


Die Forschung an Brennstoffzellen wurde im ehemaligen Kernforschungszentrum Karlsruhe (KfK) bereits zu Anfang der 1990er Jahre betrieben. Nicht ohne Erfolg, denn ein LKW mit diesem Antrieb drehte damals vielbeachtet seine Runden im Zentrum und (dank einer Straßenzulassung) auch außerhalb.  Sinnigerweise wurde der ganze Aufwand finanziert aus dem – thematisch weit entfernt liegenden – Schnellbrüterbudget des Blogautors. Als Experimentatoren und Promotoren sind die Herren Dorner, Schretzmann, Kessler und Hennies zu nennen. 


Enge Kontakte gab es damals zur Firma Mercedes-Benz, die 1994 mit NECAR 1das erste Brennstoffzellenauto der Welt präsentierte. Der Prototyp ist heute noch im Mercedes-Museum in Stuttgart zu besichtigen. Bald waren alle großen Autohersteller (GM, Ford, Fiat, Nissan, VW, BMW) an diesem Thema dran – aber nach kurzer Zeit setzten sie doch lieber auf den billigeren Diesel. In diesem Jahr will Mercedes – vielleicht – endlich den oft angekündigten GLC F-Cell auf den Markt bringen. Vielleicht als Kleinstserie.

Mittlerweile haben in Asien bereits drei Marken Wasserstoffautos in ihrem Portfolio:
Honda mit dem Clarity, Toyoto mit dem Mirai und Hyundai mit dem Nexo.
Die deutschen Entwicklungschefs mögen den verlorenen 25 Jahren nachtrauern.
Die Asiaten haben ihre modernen Antriebe im Verkaufsprospekt –
das Mercedes-Brennstoffzellenauto steht im Museum.

Der Beitrag erschien zuerst im Blog des Autors hier




Signalanalyse – Randbedingungen für die Klimaforschung

Obere Grenzfrequenz

Die obere Grenzfrequenz – auch Nyquist-Frequenz genannt – ist in der Messtechnik wohlbekannt und besagt, dass ein analoges Signal mit der höchsten enthaltenen Frequenz fmax nur dann digital rekonstruiert werden kann, wenn es mit einer Frequenz größer als 2*fmaxabgetastet wurde.
Ein Sinussignal der Frequenz 50 Hz kann also nur dann nachgewiesen werden, wenn es mit mehr als 100 Hz abgetastet wird.

Umgekehrt gilt: Ein Signal der (Perioden-)Dauer x kann nur dann nachgewiesen werden, wenn die Messreihe eine zeitliche Auflösung von besser als x/2 hat. Für den Nachweis eines Sinussignals der Frequenz 50 Hz (d.h. der Periodendauer 0,02 s) muss die Abtastschrittweite kürzer als 0,01 s sein. Angewendet auf Zeiträume, die für die Klimaforschung wichtig sind: Um eine Variation von Größen wie Temperatur oder Meeresspiegel über einen Zeitraum von beispielsweise 30 Jahren zu erfassen, müssen Messreihen eine zeitliche Auflösung von weniger als 15 Jahren aufweisen.

Ist die zeitliche Auflösung (also die Abtastschrittweite) einer Messreihe schlechter als die halbe Dauer eines Ereignisses, so ist dieses Ereignis in der digitalen Aufzeichnung prinzipiell nicht rekonstruierbar. Beispiel: Sinussignal der Periodendauer 100 (Einheit beliebig, z.B. Millisekunde, Sekunde oder Jahrzent).
Periode=100; Dauer=600; Abtastintervall=1:

 

Bei einer Abtastschrittweite von einem Viertel der Periodendauer ist das Signal gut rekonstruierbar:
Periode=100; Dauer=600; Abtastintervall=25:

 

Auch mit einer Abtastschrittweite von einem Drittel der Periodendauer ist die Periodizität gut nachweisbar:
Periode=100; Dauer=600; Abtastintervall=33:

Bei einer Abtastschrittweite minimal kürzer als die Hälfte der Periodendauer sind zwar die Amplituden stark verfälscht, ein Nachweis der Periodendauer gelingt dennoch.
Periode=100; Dauer=600; Abtastintervall=49:

Bei einer gröberen Abtastung ist die Periodendauer nicht mehr nachweisbar. In dem abgetasteten Signal können sogar Schein-Frequenzen auftreten. Bei einer Abtastschrittweite von 2/3 der Periodendauer wird eine doppelt so große Periode (also halbe Frequenz) wie im ursprünglichen Signal „nachgewiesen“:
Periode=100; Dauer=600; Abtastintervall=67:

 

Bei einer Abtastung mit der Schrittweite von ¾ der Signalperiode entsteht eine Schein-Periode der 3-fachen Dauer:
Periode=100; Dauer=600; Abtastintervall=75:

 

Dieser Effekt wird „Aliasing“ genannt.

Fassen wir zusammen:
Phänomene (d.h. Signale) einer bestimmten Dauer bzw. Periodizität können nur dann nachgewiesen werden, wenn deren Messung mit einer zeitlichen Auflösung von weniger als der halben Dauer erfolgt.

Paradebeispiele für die Verletzung dieses Prinzips sind die Publikation „A Reconstruction of Regional and Global Temperature for the Past 11,300 Years“ von Marcott et al. und deren Diskussion im Blog von Prof. Rahmstorf.

In der Arbeit wurde der regionale und globale Temperaturverlauf während des Holozäns untersucht. Dieser wurde anhand von Sedimentschichtungen bestimmt. Der Leitautor Marcott bemerkte hierzu:

„We showed that no temperature variability is preserved in our reconstruction at cycles shorter than 300 years, 50% is preserved at 1000-year time scales, and nearly all is preserved at 2000-year periods and longer“

Daraus ist zu schließen, dass die Abtastrate gröber als 150 Jahre war, in 50% der Fälle sogar zwischen als 500 und 1000 Jahren lag. Dies ist bemerkenswert, vergleichen die Autoren diesen rekonstruierten Temperaturverlauf doch mit dem Temperaturverlauf einiger Jahrzehnte des 20. Jahrhunderts, dessen zeitliche Auflösung typischerweise bei einem Monat liegt. Dazu schreibt Prof. Rahmstorf:

Entscheidend ist vielmehr, dass der rasche Anstieg im 20. Jahrhundert im ganzen Holozän einmalig ist.

Diese Behauptung ist wissenschaftlich nicht haltbar, da aufgrund der geringen zeitlichen Auflösung der Sedimentdaten ein potentieller abrupter Temperaturanstieg analog zum 20. Jahrhundert prinzipiell nicht nachweisbar ist. Sedimentdaten sind für eine solche Analyse ungeeignet.

Eine Grafik wie in Abb. 1 von Rahmstorfs Diskussion stellt wegen massiv unterschiedlicher zeitlicher Auflösung keinen seriösen Vergleich zweier Messreihen dar und dient eigentlich nur zur Stimmungsmache.

 

Merke:

Immer dann, wenn behauptet wird, dass augenblickliche Veränderungen oder Trends einmalig in der Geschichte seien, sollte man sehr genau hinschauen, mit welchen historischen Aufzeichnungen verglichen wird und ob ein solcher Vergleich überhaupt statthaft ist. Nicht immer werden Publikationen bzw. deren Schlussfolgerungen wissenschaftlichen Standards gerecht.

 

Untere Grenzfrequenz

Die untere Grenzfrequenz basiert auf der Gesamtdauer einer Messreihe. Eine solche Messreihe der Dauer T kann prinzipiell keine periodischen Vorgänge (bzw. Oszillationen) erfassen, deren Periodendauer größer ist als T. Dies bedeutet, dass zumindest eine volle Periode eines zyklischen Vorgangs in der Messreihe enthalten sein muss, um diesen zu erfassen. Wird eine Analyse über einen kürzeren Zeitraum durchgeführt, so wird diese Periode nicht zu erkennen sein. Beispiel: Sinussignal der Periodendauer 100 (Einheit beliebig, z.B. Millisekunde, Sekunde oder Jahrzehnt). Wird ein Signal der Periodendauer T hinreichend lange gemessen, d.h. die Messdauer beträgt mindestens T, so lässt sich die Periode nachweisen:

 

Ist die gesamte Messdauer kürzer, so lässt sich die Periodizität nicht rekonstruieren. Bei zu kurzer Messdauer können aus periodischen Vorgängen Schein-Trends ermittelt werden, die zu absurden Schlussfolgerungen führen. Erfolgt die Messung entlang des absteigenden Astes eines solchen Sinussignals, so ergibt sich – rein zufällig –  ein negativer Trend:

 

Bei einer Messung entlang des aufsteigenden Astes, wird – bei identischem Signal – ein positiver Trend ermittelt:

 

Es ist unschwer zu erkennen, dass die Ermittlung von Langzeittrends aus zu kurzen Messkampagnen zu unsinnigen Ergebnissen führt. Seit Ende der Kleinen Eiszeit ist ein Anstieg der globalen Temperatur zu verzeichnen. Dieser ist überlagert durch multidekadische Oszillationen mit Periodendauern von 50-70 Jahren (u.a. die Atlantische Multidekaden-Oszillation = AMO):

 

Quelle: http://woodfortrees.org/plot/best/mean:12/plot/esrl-amo/mean:12

Übertragen auf unser fiktives Beispiel erhalten wir folgende Grafik:

 

Erfasst die Messkampagne nur den absteigenden Ast der Oszillation (rote Teilkurve), so wird fälschlicherweise ein – wenn auch abgeschwächter – negativer Trend des gesamten Signals ermittelt. Bei Messung über den ansteigenden Ast (grüne Teilkurve) hinweg wird ein viel zu großer positiver Trend ermittelt.

Die Satellitenaufzeichnungen begannen 1979 bzw. 1980, dauern also bisher ca. 38 Jahre an. Dies ist etwa die halbe Periodendauer der Atlantischen Multidekaden-Oszillation. Zufälligerweise umfasst die Messdauer den ansteigenden Ast von AMO. Der seit Ende der Kleinen Eiszeit andauernde globale Temperaturanstieg wird in diesem Zeitraum durch diese ansteigende Phase verstärkt. Den daraus resultierenden Trend beispielsweise auf das Jahr 2100 zu extrapolieren, ist offensichtlich absurd. Aus der Analyse der Satellitendaten können multidekadische Oszillationen, deren Periode größer ist als 38 Jahre, prinzipiell nicht nachgewiesen und damit für Trendrechnungen auch nicht berücksichtigt werden.

Dass solche Analysen dennoch – entgegen der Prinzipien der Signalanalyse – durchgeführt werden, sieht man beispielsweise an der Publikation „Climate-change–driven accelerated sea-level rise detected in the altimeter era“ von Nerem et al.

Die Autoren unternehmen genau diese diskutierte Analyse für den Anstieg des Meeresspiegels, dessen Trend durch die ansteigende AMO-Phase verstärkt wurde. Dabei analysierten sie Satellitendaten, die bis 1993 zurückreichen, also über einen Zeitraum von lediglich 25 Jahren. Die daraus abgeleitete Prognose zum Meeresspiegelanstieg für das Jahr 2100 hält daher wissenschaftlichen Standards nicht stand. Ein anderes Beispiel für eine ungenügend lange Messdauer sind die Satellitenaufzeichnungen des arktischen Meereises, die ebenfalls seit 1979 stattfinden. Während der bisher 38-jährigen Analyse zeigte sich durchaus ein signifikanter Rückgang der eisbedeckten Fläche. Eine Extrapolation dieses negativen Trends in die Zukunft verbietet sich aber aus dem gleichen Grund.

Der Beitrag erschien zuerst bei Die Kalte Sonne hier




Deutsche Umwelthilfe will gegen weitere Städte vor Gericht ziehen

Die Deutsche Umwelthilfe (DUH) macht weiter. Der Abmahnverein hat in der vergangenen Woche elf weitere Städte wegen nicht eingehaltener EU-Grenzwerte für saubere Luft verklagt. Dieser will laut DUH-Pressemeldung »saubere Luft« in den deutschen Städten mit angeblich besonders hoch belasteter Luft durchsetzen. Jetzt klagt der Verein also gegen Dortmund, Bochum, Düren, Paderborn, Offenbach, Heilbronn, Ludwigsburg, Backnang, Esslingen, Marbach und Reutlingen.

Damit erhöht sich die Gesamtzahl der DUH-Klagen wegen der angeblich zu hohen Belastung der Luft auf 28. Die DUH begründet diese neue Klagewelle mit purer Polemik: »Die Einhaltung der Grenzwerte ist nur möglich durch eine rasche Umsetzung kurzfristig wirksamer Maßnahmen wie Fahrverbote für schmutzige Diesel-Fahrzeuge. Die schmutzigen Diesel-Pkw tragen wesentlich zu mehr als 800.000 jährlichen Neuerkrankungen an Diabetes und Asthma sowie knapp 13.000 vorzeitigen Todesfällen bei, verursacht durch die anhaltende Belastung der Atemluft mit dem Dieselgift NO2.«

Formale Grundlagen sind die extrem niedrigen Luft-Grenzwerte, die die EU festgelegt hat. Die sind jedoch durch keine wissenschaftlichen Belege begründet, sondern frei ausgehandelt worden, mit dem »Dartpfeil« ausgeworfen, wie ein Teilnehmer dieser entscheidenden Sitzungen berichtete. Über das Zustandekommen berichteten wir schon mehrfach.Einen entscheidenden Satz hatte das Bundesverwaltungsgericht in Leipzig Ende Februar hinzugefügt. Das hatte bekanntlich gesagt, dass Diesel-Fahrverbote als letztes Mittel und mit bestimmten Einschränkungen zulässig seien. Doch müsse die Verhältnismäßigkeit gewahrt bleiben. Ein Satz mit Interpretationsspielraum.

Die Deutsche Umwelthilfe verkündet jetzt ziemlich lautstark und selbstherrlich, dass Behörden und Politik auch nach dem Leipziger Urteil die notwendigen Maßnahmen verweigerten. Anfang März habe die DUH insgesamt 40 Städte angeschrieben. Deren Antworten zeigten, dass immer noch nahezu alle die notwendigen Schritte scheuten. Deshalb habe sich die Deutsche Umwelthilfe zu den neuerlichen Klagen entschieden.

Ob das die Bürger so wollen, hat Jürgen Resch nicht gefragt. Würde die DUH ihre vielen Fahrten einstellen, würde der Umwelt viel CO2 und NO2 erspart.

Die DUH kehrt noch einmal die alten Sprüche zusammen und lässt fast nichts an Spruchblasen aus: »Schlechte Luftqualität erhöht das Risiko für Herz-Kreislauf- und Atemwegserkrankungen sowie Krebs. Diese gesundheitlichen Schäden verursachen volkswirtschaftliche kosten zwischen 330 und 940 Milliarden Euro.« Wie die Zahlen zusammenkommen, spielt da keine Rolle mehr. Hauptsache laut.Es klingt auch nach verzweifelten Kämpfen der DUH, die Spendeneinbrüche verkraften zu müssen scheint. Außerdem kosten die massiven Klagewellen erst einmal Geld; Autohersteller haben Streitwerte in verschiedenen Unterlassungsklagen schon mal auf eine Million Euro angesetzt, hohe Summen im Falle des Prozessverlustes für den Abmahnverein. Für die einzelnen Unternehmen geht es um viel, aber auch für Autobesitzer geht es um Milliardensummen. Das zieht auch international tätige Anwälte an.

Aufhorchen lässt ein kleiner Nebensatz in der Presseerklärung der DUH, die übrigens seit 2010 von der ClimateWorks Foundation (dahinter wiederum stehen mehrere amerikanische Milliardäre und die Ford Foundation) mit vier Millionen Dollar mitfinanziert werden:

»Fünf dieser Klagen (von elf gegen deutsche Städte, Anm. Red.) werden von der internationalen Nichtregierungsorganisation ClientEarth unterstützt.«

ClientEarth – das ist eine jener international aktiven NGOs, die unter der Fahne des Umweltschutzes schon mal in ambitioniertem Ton BP und Glencore davor warnen, dass Investoren Klimaklagen gegen die Unternehmen anzetteln könnten. Nicht gerade dezent verkünden sie:

»Die Anwältinnen und Anwälte der Organisation ClientEarth haben an BP und Glencore geschrieben und werfen den fossilen Giganten vor, ihre Investoren mit viel zu optimistischen Vorhersagen zur zukünftigen Nachfrage nach Erdöl und Kohle hinter’s Licht zu führen. Beide Konzerne haben nachweislich Studien veröffentlicht, deren Szenarien für die zukünfige Nachfrage nach fossilen Brennstoffen weit über das hinausgeht, was allgemein von Expertinnen und Experten angenommen wird. Und sie liegen auch weit über den Annahmen, die ihre Konkurrenten veröffentlichen.«

Sie setzen derzeit auch Großbritanniens Premierministerin Theresa May zu. Thornton fordert unverblümt von May und ihrem Kabinett, den Umweltschutz in den Mittelpunkt ihrer Politik zu stellen. Das müsse auch bedeuten, den Handel mit Ländern einzustellen, die sich nicht angemessen an internationale Vereinbarungen beteiligen. Er will auch Klagerechte großer Unternehmen gegen Regierungen aufgrund zum Beispiel zu scharfer Umweltregelungen einschränken. Im Interesse der guten Sache natürlich und des Überlebens der Menschheit.Thornton sieht sich in der Rolle des Wachhundes (»genug Bellen und genug Biss haben«) und meint, dass ein Dieselverbot der Automobilindustrie ein klares Signal geben würde, so schnell wie möglich auf saubere Verkehrsmittel umzusteigen.
Worte, wie sie auch DUH Chef Resch nacherzählt. Der wird mit Sicherheit auch unter heftigen Druck gesetzt, auch in Deutschland mehr Randale zu machen. Die Investitionen der ClimateWorks Foundation und ihrer Hintermänner und -Frauen müssen sich schließlich lohnen.

James Thornton selbst ist ein ehemaliger Anwalt der Wall Street in Yale. Mit Dollarzeichen in den Augen und Sendungsbewusstsein hat er »sich entschieden, einen juristischen Aktivismus nach amerikanischem Vorbild nach Europa zu bringen.« Der New Statesman bezeichnete den demokratisch durch nichts legitimierten radikalen Anwalt und NGO-CEO als »einen von zehn Menschen, die die Welt ändern könnten«.

Thornton, der 2009 in Los Angeles zum Zen-Priester geweiht wurde und von einer »grünen Vision der buddhistischen Gebote« beseelt ist, hat außerdem ein Buch über einen Anwalt geschrieben, der Menschen verteidigt, die von gentechnisch verändertem Mais schizophren werden.

Sein erklärtes Ziel: Die europäische Lobbylandschaft aufzumischen und mit Hilfe von öffentlichen Protesten auch Regierungswechsel zu erzwingen.
Thornton: »Als ich nach Europa kam, dachte ich, ich werde Umweltrecht in einer der großen NGOs praktizieren.«Denn das ist für einen echten New Yorker Anwalt alles zu lahm und schwach. Da ist mehr Musik drin.Thornton gründete ClientEarth 2007. Verschiedene Unterstützer stellten im Jahr 2015 6,6 Millionen Pfund zur Verfügung, darunter von der McIntosh Foundation in den USA, der niederländischen Adessium Foundation und der European Climate Foundation sowie einer Gruppe von 13 weiteren undurchsichtigen Stiftungen mit verborgenen wirtschaftlichen Interessen.

Etwa 60 Anwälte von ClientEarth in London, Brüssel und Warschau attackieren europäische Regierungen aufgrund ihrer angeblich zu miesen Ergebnisse in Sachen Luftverschmutzung, Chemikalienvorschriften und Transparenz. Erwerbsarbeit geht ihnen nicht aus: »Wir werden noch Jahre mit illegaler Luftqualität konfrontiert sein«, sagte James Thornton.

ClientEarth und eine Gruppe weiterer NGOs steckten auch dahinter, als der Europäische Gerichtshof 2016 entschied, dass sensible Studien im Zusammenhang mit der Zulassung von Glyphosat und anderen Pestiziden veröffentlicht werden müssen. Für die chemische Industrie Grund zur Panik, weil dabei ein Teil ihrer Geschäftsgeheimnisse öffentlich wurde. So können Konkurrenten munter auf deren Daten zugreifen.

Umwelt-NGOs in Europa hätten »viel mehr Macht, die ihnen zur Verfügung stünde«, über die sie bisher noch nicht verfügt hätten. »Mit einer besseren Strategie in der Anwendung der Gesetze könnten sie das tun.«

Klimaklagen – das ist der Kampfbegriff der modernen Gesellschaft, um andere wirtschaftliche Ziele durchzusetzen. Das Unsinnswort von der »Klimagerechtigkeit« verunstaltet den öffentlichen Raum. Mittlerweile ist das Schreckgespenst »Klimakatastrophe« offenbar hinreichend hochgepuscht, sind Grenzwerte in den Gesetzgebungen entsprechend etabliert, dass mit ihnen Machtpolitik gemacht werden kann und Geld, viel Geld.Und, nein, Fragen der Gesundheit spielen keine Rolle. Da winken fette Geschäfte. Verkäufer von Elektro-Vehikeln stehen schon Gewehr bei Fuß, malen die Diesel-Zukunft so schwarz wie möglich und preisen neue Geschäftsmöglichkeiten an.

»While the decision in Germany is focussed on local air quality and the fact that diesel engines produce relatively high levels of nitrogen oxides, they also produce relatively low levels of the greenhouse gas carbon dioxide. Controlling one environmen-tal concern, therefore, may have actually ended up undermining ef-forts to combat another. It could also provide a boost for electric vehicles (EVs), which produce low or zero direct emissi-ons of both nitrogen oxides and carbon dioxide.

This is a trend that we see continuing, and Osborne Clarke is currently advising a number of businesses in relation to the deployment of EVs and associated infrastructure, from an environ-mental, charging and utilities point of view. If you would like to speak to us about EVs, please contact Simon Spooner or your usual Osborne Clarke contact.«

»Investieren Sie hier! Hier liegen Sie für die Zukunft richtig! Wir finden neue Lösungen für eine sich ändernde Welt!«

Deutschland ist im Würgegriff der NGOs gefangen, die offensichtlich auch von Interessensgruppen und Konkurrenten bezahlt werden, mit der DUH als Einfallstor für internationale Organisationen, die niemand kontrolliert.

Wir kommen immer mehr jenem Horrorgemälde näher, das Michael Crichton in »Welt in Angst« so genau recherchiert gezeichnet hat.

Der Beitrag erschien zuerst bei Tichys Einblick hier




Bundesverkehrsministerium: Luft-Messstellen werden überprüft

In der Debatte um mögliche Fahrverbote für Dieselautos in deutschen Innenstädten, stellt das Bundesverkehrsministerium jetzt die Standorte einzelner Messstationen in Frage. „Einige Standorte von Messtellen werden zurzeit kritisch hinterfragt, ob sie überhaupt den europäischen Vorgaben entsprechen“, sagte der Staatssekretär Steffen Bilger (CDU) der „Bild“-Zeitung (Samstag). „Zumindest für die Zukunft muss gelten: Neue Messstellen sollten objektive Werte ermitteln und nicht die schlechtestmöglichen.“ Zugleich stellte Bilger geltende Grenzwerte in Frage. „Wenn Grenzwerte unsinnig sind, müssen sie geändert werden. Darüber sollte auf europäischer Ebene diskutiert werden.“

Dank an unsere Leser für Ihre Hilfe

Wir danken noch einmal unseren Lesern, die sich mit viel Engagement und Mühe um die Bilder bemüht haben. Ohne dies und ohne Sie wäre die Aktion nicht möglich. Denn die Einsendungen zeigen: Viele der Messstellen sind fragwürdig gewählt. Dies können wir nicht im Einzelnen nachweisen, denn dafür fehlt einer Redaktion die technische Kapazität. Aber sichtbar wird: Durch Häuser und Mauern verengte Straßenräume kommt es in vielen Fällen zu einer Verzerrung der Messungen, die doch im Sinne der Verordnung „respräsentativ“ für einen größeren Stadt-Raum und der Belastung für die Einwohner sein sollen. Wer Messstellen unmittelbar an Steigungen oder Ampeln aufstellt, erhält an genau dieser Stelle wegen des notwendigen Abbremsens und Anfahrens Werte, die nicht repräsentativ für eine längere Strecke Straße sind – aber genau das ist erforderlich.Es ist eine etwas komplexe Materie, vor allem die Vorschriften sorgen leicht für Verwirrung. Sie sollen es auch ein wenig. Es gibt für alle EU-Mitgliedsstaaten die EU-Richtlinien »für saubere Luft«. Sie wird durch deutsche Verordnungen in nationales Recht umgesetzt. Die sind ähnlich, weisen aber doch häufig Unterschiede auf, sind häufig nicht eindeutig und widersprechen sich sogar teilweise.

Anpassung nach oben

Die deutschen Regeln haben die Tendenz, höhere Grenzwerte zu produzieren. So sagt die EU-Richtlinie zum Beispiel, dass der Luftstrom um den Einlass der Messöffnung in einem Umkreis von 270° nicht beeinträchtigt werden darf. Die deutsche Vorschrift macht daraus »Bei Probenahmestellen an der Baufluchtlinie soll die Luft in einem Bogen von mindestens 270 Grad oder 180 Grad frei strömen.«
Eine scheinbar unbedeutende Wortänderung, doch damit eröffnet sich eine Reihe von Messmanipulationsmöglichkeiten. Es ist außerdem keine »Muss«-Vorschrift wie die der EU, sondern eine »Kann«-Vorschrift. Abweichungen sind also erlaubt, Betroffene können dann nicht so ohne weiteres klagen.

Das muss man sich nicht freiwillig antun, deswegen haben wir in der ersten Folge kurz beschrieben und auf einen Text hingewiesen, der sich dieser Problematik politisch gesteuerter Meßverfahren annimmt, auf die jetzt Verkehrs-Staatssekretär Bilger hinweist.

Dann ist zu unterscheiden zwischen Hotspot-Messungen und repräsentativen Messungen. Selbst der Hotspot sollte für mindestens 100 Meter Strassenlänge gelten. Es gelten weiterhin unter anderem folgende Grundsätze: »Messstationen für den städtischen Hintergrund« sind Standorte in städtischen Gebieten, an denen die Werte repräsentativ für die Exposition der allgemeinen städtischen Bevölkerung sind. Die Probenahmestellen müssen grundsätzlich für ein Gebiet von mehreren Quadratkilometern repräsentativ sein.Der Ort von Probenahmestellen, an denen Messungen zum Schutz der menschlichen Gesundheit vorgenommen werden, ist so zu wählen, dass Daten gewonnen werden über Bereiche innerhalb von Gebieten und Ballungsräumen, in denen die höchsten Konzentrationen auftreten, denen die Bevölkerung wahrscheinlich direkt oder indirekt über einen Zeitraum ausgesetzt sein wird, der im Vergleich zum Mittelungszeitraum der betreffenden Grenzwerte signifikant ist.

Man kann das so interpretieren, dass die Messwerte nicht repräsentativ sind, wenn sich nicht stets die gleichen Leute stundenlang dort aufhalten – und genau das ist an Verkehrsbrennpunkten der Fall: Niemand wohnt oder arbeitet dort. Wer daran vorbeigeht, ist nur kürzeste Zeit der Belastung ausgesetzt – das ist ein anderer Zustand als eine Dauerbelastung.

Der Ort von Probenahmestellen ist zudem so zu wählen, dass die Messung nur sehr kleinräumiger Umweltzustände in ihrer unmittelbaren Nähe vermieden wird. Das bedeutet, dass der Ort der Probenahmestelle so zu wählen ist, dass die Luftproben – soweit möglich – für die Luftqualität eines Straßenabschnitts von nicht weniger als 100 Meter Länge bei Probenahmestellen für den Verkehr repräsentativ sind.
Deshalb ist beispielsweise die Station am Stuttgarter Neckartor ungeeignet und juristisch angreifbar. Schon auf der anderen Straßenseite gäbe es ganz andere Daten.

Die Vorgaben der EU im Hinblick darauf, dass die Messstationen repräsentativ sein soll, sind eindeutig. In Deutschland dagegen wird ein anderes Ziel verfolgt. Schon 2006 wurden in Baden-Württemberg etwa alle Gemeinden gebeten, sogenannte straßennahe Belastungsschwerpunkte zu melden, an denen dann sogenannte Spotmessstellen eingerichtet wurden.»Hiervon gibt es allein in Stuttgart vier Stück, das sind 50 Prozent aller städtischen Messstellen. Die »Belastung« der Stuttgarter Bürger wird demnach zu einem geradezu grotesk überproportionalen Anteil aus Daten hergeleitet, die auch an vier räumlich eng begrenzten Hot-Spots erfasst werden. Auch in anderen »schmutzigen« Städten mit angeblich hohen NO2-Werten wurde und wird mit dem gleichen Trick gearbeitet.«

Wohnen auf der Stadtautobahn?

So fand eine internationale Untersuchung 2015 heraus, dass entlang der Berliner Stadtautobahn die stärkste Belastung bei über 60µg/ m3 lag. Betroffen davon seien aber nur 0,02 Prozent der Bevölkerung einer Millionenstadt.

Die Messstelle Fulda ist so ein Fall, den wir in der ersten Folge vorgestellt hatten. Sie verstößt gegen die deutschen Bestimmungen, im 39. Bundesimmissionsschutzgesetzes. Dort steht ausdrücklich, dass keine Bäume abschattend wirken dürfen. Sie steht unmittelbar am Straßenrand, kein Wunder, dass sie hohe Messwerte liefert – die dann repräsentativ sein sollen? Genau hier liegt der Hase im Pfeffer: Aus extrembelasteten, kleinräumigen Situationen wird dann eine flächendeckende, repräsentative Belastung ermittelt.

Die Einstufung der Immissionsbelastung vor Ort lautet: hoch. Mit Daten einer solchen Meßstation soll dann eine repräsentative Übersicht ermöglicht werden? Die Bevölkerung wird über die aktuellen Belastungen laufend informiert.

Die Messstellen sollen dort aufgestellt werden, wo sich Menschen aufhalten, also nicht kurz vorbeilaufen. Das ist hier bei der Messstelle in der Petersberger Straße offenkundig nicht der Fall. Es sind auch keine weiteren Messungen bekannt, wie sich die Werte im Abstand der Station darstellen. Denn auch der Abstand hat erhebliche Auswirkungen auf die Konzentration.

Gefummel am Neckartor

Das wurde beispielhaft in Stuttgart untersucht. Daher nochmal zurück zur »berühmtesten« Messstelle Deutschlands, Stuttgart, Neckartor. Dort haben die Messungen von Ingenieuren des Karlsruher Instituts für Technologie (KIT) gezeigt, dass die Situation nur ein paar Meter von der Messstation entfernt vollkommen anders aussieht. Jürgen Pfeil vom KIT sagte gegenüber der »Welt«: »Unsere Messungen zeigen, dass sich die Stickoxidwerte schon 20 bis 25 Meter von den Straßen weg halbieren.«

An den beiden Messtagen ergab sich, verteilt über mehrere Stationen, ein Mittelwert von 35 Mikrogramm NO2, was innerhalb des Zulässigen ist. Und geht man in die Höhe, wird die Luft ebenfalls besser. Auf der Fußgängerbrücke, die die sechsspurige B14 überspannt, seien um ein Drittel geringere Werte als die offiziellen ermittelt worden. »Auch in den Straßen am Neckartor sind die Messwerte deutlich geringer.«Es gab auch stichprobenartigen Kontrollmessungen der Behörden in der Umgebung des Neckartors. Ergebnis: Die Stickoxid-Konzentration sind in der angrenzenden Schubartstraße 60 Prozent geringer ist als die an der Messstelle Neckartor.

Der Leiter des Institutes, Thomas Koch, zieht das Fazit: »Vor dem Hintergrund dieser Entwicklung muss man feststellen, dass die prinzipielle Diskussion über den Diesel absolut aus dem Ruder geraten ist und Fahrverbote völlig überzogen sind.«

Wissenschaftler des Institutes für Feuerungs- und Kraftwerkstechnik der Universität Stuttgart hatten sich ebenfalls mit der »räumlichen und zeitlichen Variabilität von NO2 und Partikeln entlang einer verkehrsreichen Bundesstraße in Stuttgart« befasst. Sie untersuchten auch, wie die Gaskonzentrationen mit jedem Schritt Entfernung von der Messstation abnehmen und ob die Grenzwerte an anderen Streckenabschnitten ebenfalls überschritten werden.

Das Ergebnis überrascht nicht wirklich:

  • Die Luftverunreinigungen nehmen mit Abstand zur Quelle (Straße) sehr schnell ab. Das gilt für NO2 stärker als für Partikel.
  • Es existiert ein starker vertikaler Gradient der NOx-/NO-/NO2-Konzentrationen.

Die Aussage des Umweltbundesamtes ist offenkundig falsch: »Stadtbewohner in Deutschland atmen weiter zu viel gefährliches Stickstoffdioxid ein.« Die Messungen sind zum großen Teil Unsinn! Darum geht es auch kaum. Die Welt zitiert auch Christoph Erdmenger, ursprünglich grüner Landeschef in Sachsen-Anhalt, den es in die oberen Etagen des Stuttgarter Verkehrsministerium gespült hat. Der sagt unverhohlen: »Ich denke nicht, dass wir um Verkehrsbeschränkungen herumkommen, wenn die Grenzwerte überall eingehalten werden sollen.«

Das sagt der Mensch ganz apodiktisch und man hört richtig seine Freude an Fahrverboten der ungeliebten Autos, und vor allem der freien Mobilität. Der Verkehr wohlgemerkt, trägt nur zu einem Teil der Luftkomponenten bei. Es geht, um das ganz klar zu sagen, nicht darum, keine saubere Luft zu wollen. Man muss jedoch feststellen, dass die Luftsituation hierzulande – abgesehen von den Staustrecken – sehr sauber ist. Es war sehr teuer, das zu erreichen. Jetzt tragen die Autofahrer die hohen Kosten für die aufwendige Chemiefabrik unter dem Wagenboden. Die ist mittlerweile fast so teuer wie der Motor, geht natürlich auch kaputt, verursacht Ausfälle und Kosten.Da ist sehr die Frage, was man noch zumuten kann und vor allem, welcher Nutzen damit erreicht werden kann. Diese Bilanz ist negativ. Ginge es den NGOs tatsächlich um die Rettung der Welt, wären die Gelder besser in den meisten Städten der Dritten Welt angelegt. Dort könnte mit diesen Mitteln, die hierzulande gerade für kaum messbare, aber teure Effekte herausgeschmissen werden, viel mehr in Sachen »sauberer Luft« erreicht werden.

Politik im Panikmodus

Modernere Fahrzeuge und Feuerstellen würden ziemlich rasch für bessere Luftverhältnisse sorgen. Aber dann könnten die NGOs hierzulande nicht so schön Ihr Panikmodus-Süppchen kochen.

Muss man übrigens dazu sagen, dass merkwürdigerweise 17 Prozent der Messstationen im Regierungsbezirk Stuttgart liegen?

Ein TE-Leser erinnert daran, dass für die Aufstellung der Messstation am Neckartor jener Überzeugungstäter verantwortlich war, der seinerzeit auch für den berühmten Ozonversuch bei Heilbronn verantwortlich war. Zur Erinnerung: Im Juni 1994 wurde die Autobahn bei Heilbronn gesperrt, die Produktion in Fabriken teilweise stillgelegt mit dem Ziel, die angeblich zu hohen Ozonwerte zu besiegen. Das hat natürlich nicht funktioniert, die Ozonwerte dachten nicht daran, sich an grüne Vorgaben zu halten, sondern stiegen teilweise sogar an. Erzeugt wurden Kosten in Millionenhöhe.

Der damals verantwortliche Überzeugungstäter, Geschäftsführer des früheren Zentrums für Umweltmessungen, Umwelterhebungen und Gerätesicherheit (UMEG), die so viel Geld herausgeworfen haben, dass sich sogar der Rechnungshof beschwerte, ist pensioniert, sprach sich natürlich für die Reduzierung, gemeint also Abschaffung, des Individualverkehrs aus, saß bis vor zwei Jahren noch für die Grünen im Ludwigsburger Kreistag, und betätigt sich als freiberuflicher Umweltberater.

Die Substanzen, mit denen Panik erzeugt wird, wechseln im Laufe der Jahre. Das Ziel bleibt gleich. Für Schäden wird niemand zur Verantwortung gezogen.

Der Beitrag erschien zuerst bei Tichys Einblick hier


Schicken Sie bitte an TICHYS Einblick aus Ihrer Stadt Fotos der Messstationen. Bitte notieren Sie den genauen Standort. Aus einem weiteren Foto sollte das Umfeld der Messstation ersichtlich sein. Bitte schicken sie die Fotos an redaktion@tichyseinblick.de; Sie erteilen uns damit automatisch das Recht, Ihr Foto zu veröffentlichen. Wir freuen uns auch über Beiträge aus der Lokalpresse zu diesem Thema.

Vielen Dank!


Hier geht es zu Teil 1 – Messstationen in Stuttgart, Leipzig, Fulda, Magdeburg, Rostock, Marburg und Tübingen

Hier geht es zu Teil 2 – Messstationen in Ludwigsburg, Hannover, München und Siegen

Hier geht es zu Teil 3 – Messstationen in Hamburg, Wiesbaden, Cottbus, Dortmund und München

Hier geht es zu Teil 4 – Messstationen in Berlin, Hannover, Halle an der Saale, Wuppertal und Göttingen 

Hier geht es zu Teil 5 – Messstationen in Darmstadt, Leonberg, Kiel und Gelsenkirchen