1

Vehicle-to-Grid (V2G)

Dieses Techno-Kürzel beschreibt keine Energiewandlung wie zum Beispiel “P2H” (Strom zu Wärme) oder “P2G” (Strom zu Gas), sondern meint ein Konzept zur Stromspeicherung. Eine Vielzahl mit dem Netz verbundener E-Fahrzeuge könnte überschüssigen Strom kurzfristig einspeichern und bei Bedarf als Schwarmstrom auch ans Netz zurückgeben. „Bidirektionales Laden“ lautet dafür der Fachbegriff.

Ein großer Vorteil wäre, dass dadurch der aufwändige Bau großer zentraler Stromspeicher reduziert werden könnte. Auch E-Mobile stehen zu über 90 Prozent der Zeit unbenutzt herum. Da könnte man doch deren Akkus nutzen?

Der visionäre Ansatz offenbart Schwächen durch seine Komplexität. Zunächst bedarf es einer Vielzahl an Fahrzeugen, die am System teilnehmen, um tatsächlich Wirkung im Netz zu erzielen. Die Speicher im Auto können nicht im vollen Umfang entladen werden, weil der Nutzer höchstwahrscheinlich auch fahren will. Und damit kommen wir zum kritischen Punkt der Vision, dem Nutzer des E-Mobils, der als Verbraucher auftritt. Also dem mithin unbekannten Wesen. Es legt ein Nutzerverhalten an den Tag, das uneinheitlich und unberechenbar ist. Zunächst wird sich niemand einen Stromer kaufen, um dessen Reichweite durch einen Vertrag mit dem Netzbetreiber einzuschränken und einen Teil der Fahrzeugbatterie als tote Masse durch die Gegend zu fahren. Für das Netzmanagement wird sich der E-Fahrer nicht zuständig fühlen, und das zu Recht.

Die Freiheit des Individualverkehrs besteht nun mal darin, nicht stets zu fahren, sondern stets fahren zu können. Dazu kommt, dass jetzt und wohl auch künftig ein großer Anteil der E-Mobile zu Firmenflotten und Car-Sharing-Verbünden gehören, so dass ihre Nutzung in der Regel nicht vorhersehbar ist und sie stets „vollgetankt“ zur Verfügung stehen müssen.

 

Vision und Preis

Man könnte die Batterie- (korrekt natürlich Akkumulatoren-) nutzung durch den Netzbetreiber finanziell anreizen, durch Vergütung für den gespeicherten Strom oder durch Rabatte beim Ladestrom. Dann wäre allerdings die sinnvollere Variante, sich einen möglichst großen Akku in den Keller oder die Garage zu stellen, was von einer täglichen Kalkulation der geplanten Fahrstrecke oder der Startzeit am Folgetag entbinden würde. Damit kommen wir zum Grundproblem – wer zahlt? Speicher generieren per se keine Wertschöpfung, sie sind verlustbehaftete Stromparkplätze und müssen irgendwie über den Preis abgerechnet werden. Dazu kämen Kosten für Ladesoftware und Leittechnik für die Steuerung hunderttausender Ladestationen in Abhängigkeit der Netzsituation. Schaut man sich die Kosten normaler Ladestationen an, ist der Aufwand beträchtlich und geht pro Stück schnell in die Tausende. Hinzu kommen Kosten für die Elektronik und Vernetzung für das bidirektionale Laden. Möglich ist die Abrechnung über die Netzgebühren, die mit dem weiteren Fortgang der „Wende“ ohnehin der am stärksten steigende Kostenfaktor sind.

Wie ist die technische Realisierbarkeit? Mit dem Projekt „e-SolCar“ gelang bereits 2014 an der Brandenburgisch-Technischen Universität in Cottbus der Nachweis, dass bidirektionales Laden und somit die Nutzung von E-Fahrzeugakkus zur Kurzzeitspeicherung möglich sind. Speziell die Steuerungstechnik für das Ein- und Ausspeichern wurden am Lehrstuhl von Professor Schwarz entwickelt und getestet.

Seitdem gibt es keine weiteren Schritte in Richtung einer breiten Anwendung. Die Voraussetzung einer existierenden großen Anzahl an E-Fahrzeugen ist einfach nicht gegeben. So fehlen natürlich auch die Steuerungstechnik für die Schwarmspeicher beim Netzbetreiber und entsprechende Tarife.

Die Frage, warum in Deutschland trotz der Subventionen so wenig E-Autos verkauft werden, bringt uns zu einer völlig schräg geführten Diskussion. Permanent prügeln Politiker und Journalisten auf die Autoindustrie ein und verlangen höhere Verkaufszahlen ihrer E-Modelle und Hybride. Entscheidend ist jedoch das Käufer- und Verbraucherverhalten und speziell im automobilen Bereich wird niemand eine Kaufentscheidung treffen, die zu einem Neuwagen führt, der teuer ist und schlechtere Gebrauchseigenschaften hat als das Altfahrzeug. Potenzielle Käufer führen die bekannten Gründe an, die vom Kauf eines Stromers abhalten:

  1. Preis, 2. Reichweite, 3. Verfügbarkeit der Ladestationen, 4. Noch unklare Batterielebensdauer und damit unklarer Wiederverkaufswert. Die Hersteller bauen, was der Kunde möchte. Für ausbleibende Kaufentscheidungen die Konzerne verantwortlich zu machen, zeugt vom nur partiell vorhandenen Wirtschaftsverständnis von Politikern und Journalisten.

 

Nachfrage und Angebot oder Quote

Manche Medien machen die bösen Autokonzerne verantwortlich dafür, dass durch ihre aggressive Werbung die Käufer die SUV´s bevorzugen würden. Zweifellos besteht unsere Bevölkerung, wie in anderen Ländern auch, aus einem nicht unerheblichen Anteil von Deppen. Eine Kaufentscheidung zugunsten eines Automobils, die zu den größten Haushaltsausgaben gehört und manche Haushalte an die finanzielle Schmerzgrenze bringt, wird in aller Regel aber gut abgewogen und bedacht. Der 3-Liter-Lupo wurde seinerzeit umfangreich beworben und medial sehr positiv begleitet, ohne dass es der VW-Bestseller wurde. Früher wurde der Kunde sogar König genannt, heute spricht man ihm eigenes Denken ab. Um das Kundenverhalten zu umgehen, sinniert man im Bundeswirtschaftsministerium über eine Quotenregelung für die Hersteller. Adäquat entschied seinerzeit auch die staatliche Plankommission der DDR, dass Weiterentwicklungen des „Trabant“ unterbleiben, da dieser für den Bevölkerungsbedarf ausreichend sei.

Der regelmäßige Verweis auf höhere Verkaufszahlen von E-Mobilen in Asien oder Norwegen ist pauschal und auf unsere Verhältnisse nicht übertragbar. Auch anderswo lebt die Elektromobilität von Subventionen und wenn diese wegfallen, bricht der Boom zusammen. Im März endete in Hongkong die staatliche Förderung, wonach der Absatz im April auf null zurückging – nach noch einigen hundert in den Vormonaten. Auch in Dänemark brach der Absatz nach Subventionskürzungen ein und deren gänzliche Streichung wurde vorerst ausgesetzt.

Gern wird Norwegen als Beispiel angeführt und hier macht die E-Mobilität auch Sinn, zumindest in den Städten. Zum Einen ist die Staatskasse prall genug gefüllt, um üppig zu fördern, zum anderen besteht der Energiemix zu 99 Prozent aus Wasserkraft. Hier werden also tatsächlich Emissionen vermieden. Was kaum erwähnt wird: Die E-Mobilität konzentriert sich auf Oslo und andere Städte, im dünn besiedelten und kalten Land zwischen Gletschern, Schären und Küste wird man noch sehr lange fossil fahren, denn das Reichweitenproblem haben auch die Norweger. Zudem kann man das Verkehrsaufkommen im 5,3–Millionen-Einwohner-Land mit wenig Großindustrie nicht mit Deutschland vergleichen.

Lernen kann man trotzdem, zum Beispiel, dass eine generös geförderte individuelle Mobilität die Straßen in Oslo verstopft und die Fahrgastzahlen im ÖPNV reduziert.

Was für norwegische Emissionen gut ist, erweist sich für die chinesischen als eher kontraproduktiv. Der dortige Energiemix beinhaltet 63 Prozent Kohlestrom und die

Elektromobilität wird gefördert, um lokale Emissionen zu senken. In Summe steigt der Strombedarf und wird überwiegend aus Kohlekraftwerken gedeckt.

 

Kohle im Tank

Wo kommt bei uns der Strom zum Fahren her? Bei Bilanzrechnungen zur Emission von Stromern wird üblicherweise der Mix im Netz zugrunde gelegt. Kann man machen, ist aber nicht korrekt.

Dazu ein Gedankenexperiment: Mario Mustermann biegt nach getaner Arbeit am späten Nachmittag auf den Stellplatz seines Eigenheims ein. Lässig und im tiefen Bewusstsein ökologischer Reinheit klappt er die Wagentür zu, schreitet zum Ladekabel und führt dieses in Richtung der Steckdose.

Halt! Genau jetzt stoppen wir den Gedankenfilm und machen uns ein Bild vom Zustand im Netz. Nehmen wir einen durchschnittlichen Strommix von 70 (konventionell) zu 30 (regenerativ) an und eine vorbildliche Frequenz von 50,000 Hertz. Gemäß Einspeisevorrang im EEG sind alle regenerativen Erzeuger, also hauptsächlich Wind, Sonne und Biomasse, mit der ganzen verfügbaren Kapazität am Netz.

Film weiter: Mustermann steckt den Stecker und startet den Ladevorgang. Damit ergibt sich im Netz eine Frequenzabweichung nach unten, die bei einem einzelnen Fahrzeug vermutlich nicht registrierbar ist. Machen in diesen Minuten aber hunderte oder tausende Mustermänner das gleiche wie Mario, geht die Frequenz merkbar für die Leittechnik der Kraftwerke nach unten. Einige tausendstel Hertz reichen aus, die (vertraglich vom Netzbetreiber gebundene) Primärregelleistung der konventionellen Kraftwerke aufzurufen. Automatisch erhöhen diese ihre Leistung innerhalb eines vorgegebenen Regelbandes und sorgen dafür, dass die Frequenz wieder 50 Hertz erreicht. Fazit: Der Ladestrom kann bilanziell nur konventionellen Ursprungs sein, da der regenerative Strom nicht hochgeregelt werden kann. Natürlich könnte zufällig in diesen Minuten der Wind auffrischen, wahrscheinlicher ist aber, dass am späten Nachmittag die Sonne untergeht und nachts nicht scheinen wird. Zusammen mit der Ökobilanz für die Herstellung der Batterien ist ersichtlich, dass bezogen auf die Gesamtemissionen die E-Fahrzeuge heute kein Fortschritt sind.

Der Traum vom emissionsfreien Elektroverkehr ließe sich nur erfüllen, wenn 100-Prozent-Erneuerbar – wie in Norwegen – schon Realität wären. Solange aber die Sektorkopplung im jetzigen Energiemix vorangetrieben wird, stabilisiert dies die Grund- und Regellast der konventionellen Erzeuger – was ich wiederum gut finde. Ein gut belastetes Netz regelt sich besser und ist damit sicherer.

Was bei der „Energiewende“ schon vor Unausgewogenheit, Wunschdenken und Verdrängung der Realitäten nur so strotzt, erfährt bei der „Verkehrswende“ noch eine Steigerung. Sachliche Diskussionen und pragmatische Lösungsvorschläge sind Mangelware. Die übliche Schwarz-Weiß-Malerei meinungsführender NGO`s wird politisch und medial übernommen. Der Hype ist allerdings nicht neu und kehrt alle paar Jahre wieder. Schon der Halbgott der Journalisten und ehemalige Chef der Hamburger Journalistenschule, Wolf Schneider, schrieb während seiner Zeit bei der „Süddeutschen“ unter der Überschrift „Tod dem Verbrennungsmotor“: „Die Zukunft kann nur dem Elektroauto gehören! . . . Der Verbrennungsmotor ist vermeidbar. Nach der Vernunft wie nach unseren technischen Möglichkeiten gebührt ihm der Tod.“

Das war am 5. Februar 1966.

 

Vision statt Plan

Nüchtern betrachtet wird auch der Verkehr der Zukunft aus einem Mix an Antriebssystemen bestehen. Natürlich kann man Diesel-Pkw zunächst durch Benziner ersetzen, allerdings stehen diese als nächste am Pranger auf Grund ihres höheren CO2-Ausstoßes. Dass Stickoxide giftig sind, CO2 dagegen nicht, spielt dabei keine Rolle. Sicher wird im Kurzstreckenverkehr und in Ballungsgebieten mehr elektrisch gefahren werden. Für den Fernverkehr ist nur die Elektrotraktion auf der Schiene erste Wahl. Was auf Gummi rollt, wird Brennstoff brauchen, der in Teilen natürlich synthetischen oder biogenen Ursprungs sein kann. Beim Schwerlastverkehr führt am Diesel vorerst kein Weg vorbei, desgleichen auf der Schiene im nichtelektrifizierten Bereich.

Will man Emissionen senken, sind Gasantriebe die erste Wahl. Sowohl LPG- (Flüssiggas) als auch CNG- (Erdgas)-Motoren sind technisch ausgereift und bezahlbar. Die Verdichtung des entsprechenden Tankstellennetzes würde Peanuts kosten, verglichen mit einem flächendeckenden Ausbau stromfressender E-Ladestationen, der mit einem notwendigen Netzausbau im Niederspannungsbereich einhergeht. Merkwürdigerweise spielen die Gasantriebe bei allen Visionen zur Verkehrswende keine Rolle.

Anstelle eine realisierbare Strategie zu entwickeln, hantiert die verantwortliche Politik mit Subventionen und Verboten und denkt auf dem Weg zur Planwirtschaft über vorgegebene Quoten nach. Jeder profilneurotische, meist grün lackierte Hinterbänkler im Politikbetrieb und der Großteil der Journalisten vom Fachgebiet Weltrettung hält sich für weiser als Wissenschaftler und die Ingenieure in den Entwicklungsabteilungen der Hersteller. Die verantwortlichen Manager winden sich im Appeasement und im Wissen, dass ihr möglicher Fall ein sehr weicher sein wird.

Sicher ist, dass P2V (Power to Vehicle) wachsen wird. Sinnvolle Anwendungen gibt es zuhauf: Paket- und Pflegedienste, Taxis, Car-Sharing-Fahrzeuge, lokaler Kurier- und Warenverkehr. Dagegen ist V2G nicht mal am Horizont zu sehen.

 




SPIELER AM WERK? Die Energiewende und Grünsprech – Die Kaskadierung

Täglich werden wir mit Begriffen konfrontiert, die im Ergebnis einer als alternativlos gepriesenen Energiewende verwendet werden oder durch sie erst entstanden sind. Wir greifen auch Bezeichnungen auf, die in der allgemeinen Vergrünung in den Alltagsgebrauch überzugehen drohen – in nichtalphabetischer Reihenfolge.

K wie

Kaskadierung, die

Unter einer Kaskade versteht man einen treppenartig ablaufenden Wasserfall, heute auch in der Elektrotechnik eine Hintereinanderschaltung von Bauteilen im Sinne einer Kette. In Reihe geschaltete Batteriezellen kaskadieren, bilden also eine Kaskade und sorgen für höhere Spannung. Unfälle und Havarien können kaskadenförmig ablaufen. Der Bruch des Banqiao-Staudamms im August 1975 in China gilt als das größte Unglück als Folge eines kaskadierenden Schadensereignisses. Auch in der Akrobatik kennt man den Begriff für eine Abfolge wagemutiger Sprünge, ausgeführt vom „Kaskadeur“.

Die hier gemeinte Kaskadierung bezieht sich auf kritische Situationen im Stromnetz, wenn die Maßnahmen eines Übertragungsnetzbetreibers zum Redispatch nicht ausreichen und nachgelagerte Netzbetreiber helfen müssen. Abschaltungen von Verbrauchern oder Erzeugern können so lokal begrenzt bleiben. Dieses Kaskaden-Prinzip ist seit Jahren bewährt, es bedeutet die situative Abkehr vom Normalbetrieb hin zum Störungsmanagement. Ziel ist, einen flächendeckenden Blackout als Folge einer Einzelstörung mit folgendem Dominoeffekt zu verhindern.

Damit sich alle Netzbetreiber auf eine solche Situation vorbereiten können, sind klare Regeln notwendig. Das Forum Netztechnik/Netzbetrieb im VDE (Verband der Elektrotechnik Elektronik Informationstechnik e.V.) erließ dazu mit Wirkung zum 1. Februar 2017 die Anwendungsregel „Kaskadierung von Maßnahmen für die Systemsicherheit von elektrischen Energieversorgungsnetzen“. Ziel ist, den Betrieb auf weiter steigende Aufnahme von Strom aus regenerativen Energieanlagen vorzubereiten.

ANSPRUCH UND WIRKLICHKEIT

„Energiewende“ trifft frostige Wirklichkeit

Neben der Beschreibung der Aufgaben für die Beteiligten und der Kommunikationsstruktur lassen neu gesetzte Vorbereitungs- und Umsetzungszeiten die Stadtwerke und Betreiber von Mittel- und Niederspannungsnetzen ins Grübeln kommen. Der VDE verschärft nicht aus Spaß die Bedingungen, sondern aus Umsicht und Vorsorge in der Kenntnis, wie sich die Schwankungen im Netz vergrößern werden. Auch dieser Verband erkennt, dass weiterer Zubau volatiler Einspeisung die Schwankungen verstärkt und keinesfalls glättet.An die unteren Spannungsebenen sind rund 95 Prozent der regenerativen Erzeugung und der elektrischen Verbraucher angeschlossen. Für fünf Szenarien (vom Netzengpass über die Systembilanzabweichung bis zum schleichenden Spannungskollaps) werden Handlungsfolgen festgelegt, bei denen es zu keinen Verzögerungen kommen darf. Nicht nur Engpässe im Sinne von Mangel müssen beherrscht werden, sondern auch lokaler Überschuss durch (zu) hohe Einspeisung. Für jede Stufe der Kaskade bleiben 12 Minuten. Dieser kurze Zeitraum, in dem einzelne Großkunden oder Netzgebiete abgeschaltet werden müssen, stellt vor allem für kleinere Stadtwerke und Netzbetreiber eine große technische und organisatorische Herausforderung dar. Ist der Finger in dieser Zeit nicht am Knopf oder die Hand nicht auf der Maus, droht die Kaskadierung und die Abschaltung auf der nächsthöheren Spannungsebene – mit weiter reichenden Folgen.

Überlast und Unterlast

Absehbar ist, dass die Maßnahmen zum Redispatch auf der Höchstspannungsebene bald nicht mehr ausreichen werden, auch wenn Erfahrungen und Handlungssicherheit wachsen.

Bisher hatten Stadtwerke und Verteilnetzbetreiber eine Stunde Zeit zum Handeln, nun muss neu organisiert werden. Die Netzbetreiber der unteren Spannungsebenen verfügen nicht über ständig besetzte Leitwarten. Wie man nun lokal den Meldefluss und die Schalthandlungen organisieren soll, ist noch offen. Für die Planspiele läuft seit Februar eine zweijährige Frist. Eventuell können externe Dienstleister herangezogen werden. In jedem Fall sind 12 Minuten zu kurz, den zur Abschaltung anstehenden Kundenkreis, der vorher „diskriminierungsfrei“ nach Kapazität auszuwählen ist, zu informieren. Es können auch Krankenhäuser oder Altenheime sein. Schadenersatzansprüche sind ausgeschlossen. Verbraucher sollten Vorsorge treffen, wie unser Innenminister in seinem „Zivilschutzkonzept“ bereits anregt (s. auch „Dunkelflaute“, S. 24).

Die Umsetzung der neuen VDE-Anwendungsregel wird Kosten verursachen, die in die Netzgebühren einfließen werden. Ein Schluck mehr zu den indirekten Kosten der Energiewende, von denen nicht so gern gesprochen wird.

Niemand weiß, wann, wo und wie oft diese Kaskadierung eintreten wird. Mit den weiteren Außerbetriebnahmen regelfähiger Kraftwerke steigt das Risiko.
Kaskadeuren in der Arena schaut man gern zu, Kaskaden im Netz werden keine Freude verbreiten.

Übernommen von Tichys Einblick hier


Frank Hennig ist Diplomingenieur für Kraftwerksanlagen und Energieumwandlung mit langjähriger praktischer Erfahrung. Wie die Energiewende unser Land zu ruinieren droht, erfährt man in seinem Buch Dunkelflaute oder Warum Energie sich nicht wenden lässt.




Umfragen: Die einen sagen so – die anderen so!

Zugegeben, den größten Teil dieser schönen Schlagzeile habe ich von Henryk M. Broder auf ACHGUT geklaut. Und der entnahm sie vermutlich einem uralten, etwas delikatem Witz[1]. Doch uns beiden fiel wohl gleichzeitig einige Berichte über Umfragen auf, die zum Nachdenken Anlass geben.

Bei Broder liest sich das so:

Von Henryk.M. Broder.

Eine Emnid-Umfrage im Auftrag der BamS ergab, dass nur 29% der Bundesbürger das Thema „Zuwanderung“ als „äußerst oder sehr wichtig“ für ihre Wahlentscheidung halten. Eine Woche später ergab eine Umfrage der Gesellschaft für Konsumforschung, dass kein anderes Thema die Deutschen so sehr umtreibt „wie die Zuwanderung und Integration von Ausländern“. Seltsam, nicht wahr? Der Unterschied könnte mit der Methodik der Umfragen zu tun haben. Während Emnid einer wie immer „repräsentativen Auswahl“ von Bügern die Frage stellte „Wie wichtig sind Ihnen für Ihre Stimmabgabe bei der Bundestagswahl die folgenden Aufgabenbereiche?“ und die Bereiche auflistete, waren bei der GfK-Umfrage keine Antworten vorgegeben. Die Teilnehmer der Umfrage konnten „frei antworten, in Worte fassen, was sie am meisten besorgt“. – So einfach kann eine Erklärung für das Unerklärliche sein. Und wie einfach es ist, das Ergebnis einer Umfrage durch die Art der Fragestellung zu manipulieren.  / Link zum Fundstück

Bei mir war die Ausgangslage etwas anders. Es ging – natürlich- um die vermeintliche Klimaangst der Deutschen. Da behauptete z.B. die Berliner Morgenpost – eine Zeitung der Funke-Mediengruppe- dass, …die Mehrheit der Deutschen denkt laut einer jüngsten Umfrage des Kantar Emnid Instituts, dass Klimawandel das dringendste Problem der Gegenwart ist.“

Diese Erkenntnis des jetzt Kantar Emnid Institutes wurde recht breit auch in anderen Medien und nicht nur von Funke verbreitet.

Im Einzelnen findet man im Beitrag der Morgenpost:

Danach sagen 71 Prozent der Befragten, die Veränderung des Weltklimas bereite ihnen persönlich besonders große Sorgen. 65 Prozent führen neue Kriege als beherrschende Furcht an. Bei 63 Prozent sind es Terroranschläge, 62 Prozent nennen Kriminalität, und 59 Prozent ängstigen sich vor Altersarmut. Mit einigem Abstand folgt die Zuwanderung von Flüchtlingen (45 Prozent). Arbeitslosigkeit ist mit 33 Prozent die geringste der genannten Sorgen.

Weil mir diese Reihenfolge angesichts der täglichen Berichte in allen Medien komisch vorkam, nicht nur in Bezug auf das Klima, rief ich bei Kantar Emnid an, und bat um die Nennung der Fragestellung, die dieser Umfrage zugrunde lägen.

Man beschied mich abschlägig, da diese Eigentum der Funke Mediengruppe seien, und sie nicht darüber verfügen dürften. Und auch aus mehreren Artikeln anderer Medien konnte man nirgends entnehmen, wie und was gefragt wurde. Da gab ich auf.

Aber fast zeitgleich wurde eine Studie des PEW Centers mit 1000 Befragten in Deutschland (z.B. hier) veröffentlicht, die transparenter ist, und bei welcher der Klimawandel nur auf Pos. 3 der Besorgnisse landete. Aber immerhin noch von 63 % der Befragten angegeben wurde.

Und nun die Umfrage der Gesellschaft für Konsumforschung (GFK)!

Überraschung: Darin taucht die Angst vor Klimawandel überhaupt nicht auf.

Stattdessen steht die Furcht vor Zuwanderung/Migration deren Belastung und Kosten ja gerade erst beginnen sich in unserem Alltag zu verfestigen, an prominent erster Stelle.

Warum?

Weil die Befragten – oder soll man besser sagen- die beeinflussten Probanden diesmal- „frei antworten konnte, in Worte fassen, was sie am meisten besorgt“.

Die zu beantwortende Frage lautet: „Was sind Ihrer Meinung nach die dringendsten Aufgaben, die heute in Deutschland zu lösen sind?“

Und da liegt das Thema Zuwanderung/Migration mit ca. 63 %, also Riesenabstand, weit, weit vorn.

Die Angst vor Klimawandel kommt einfach nicht vor.

Die einen sagen eben so, die anderen so.

Wobei man zu Annahme kommen könnte, dass die einen die Meinungsmacher – genannt Umfrage-Institute- sind, während die anderen, die Leute von der Straße sind, also wir!

Und es drängt sich die Frage auf: Ist die Beeinflussung der Befragten nicht auch bei anderen Umfragen gängige Praxis?

Seufz! Fragen über Fragen.

Die weise Aussage eines Staatmannes „glaube keiner Statistik die Du nicht selber gefälscht hast“ bestätigt sich eben immer wieder.

 

[1] Der Witz geht so: Fragt ein Freund den anderen: „Na, wie ist denn Deine Frau so im Bett?“ Darauf der Andere: „Die einen sagen so, die andern so!“




WAHLKAMPFPANIK! Stickoxide und die Daten des Umweltbundesamtes

Der Kampf gegen das Auto geht weiter. Bundesumweltministerin Hendricks mit dem sagenhaften Absturz der SPD im Nacken, legte mit einer Untersuchung des Umweltbundesamtes nach. Neue Steuerprogramme allein seien nicht genug, um den Stickoxid-Ausstoß der Fahrzeuge ausreichend zu verringern.

Am 2. August beschlossen Autohersteller und Politik beim Diesel-Gipfel bekanntlich eine Reihe von Maßnahmen, damit die Messwerte auch an den Stellen in der Stadt niedriger werden, an denen die Messstellen an einigen Tagen höhere Werte anzeigen. Drei Wochen später wissen die Fachleute im Umweltbundesamt bereits, dass diese Maßnahmen nicht ausreichen.

 

Abgasskandal durch Grenzwertwillkür?

Austauschprämie für neue Autos und ein Update der Steuersoftware nützten nichts. Hendricks fordert jetzt mit Panik vor der Bundestagswahl vor der Türe eine Nachrüstung der Fahrzeuge. Sie hat wohlweislich nicht dazu gesagt, ob zusätzliche Filter mit ihren tiefen Eingriffen in die komplizierten Motorverhältnisse technisch und finanziell möglich sind. Das dürfte vor allem in den meisten mit Technik eng vollgestopften Kleinwagen ein Ding der Unmöglichkeit sein.

Der Händlerverband klatscht freudig und plädiert vehement für eine Nachrüstung. An der verdient er am meisten. Ob die Autos später einwandfrei laufen, kann egal sein, im Zweifel verdienen die Werkstätten auch mit Nacharbeiten.

Zusätzlich schlagen die Kampftruppen der Abmahnorganisation Deutsche Umwelthilfe (DUH) in dieselbe Kerbe. Nach den PR-trächtigen Klagen unter anderem in Stuttgart will sie gegen 45 weitere Städte klagen.

»Wir fordern saubere Luft bereits im Jahr 2018 für alle 62 Städte, die aktuell die NO2-Grenzwerte um 10 Prozent oder mehr überschreiten“, sagte der DUH-Geschäftsführer Resch. Noch ist er gnädig: Die DUH gebe den zuständigen Städten und Landesbehörden die Möglichkeit, der Organisation mitzuteilen, ob sie geeignete Maßnahmen ergreifen wollen, damit 2018 in den betroffenen Städten die Stickoxid-Grenzwerte unterschritten werden. Aber wehe, droht in markigen Worten die durch nichts außer dem Willen zum Geldabzocken legitimierte NGO, »wenn die Antworten nicht zufriedenstellend ausfallen, werden wir weitere Rechtsverfahren prüfen und gegebenenfalls kurzfristig einleiten«.

 

Der vorzeitige Todesfall als Herrschaftsinstrument unserer Zeit

Diese Auseinandersetzung hat mit den wirklichen Verhältnissen in den Städten nicht mehr viel zu tun. Stickoxide in den Städten sein zu hoch, sagt zwar die Bundesumweltministerin gerne immer wieder laut. Doch mit dieser Aussage steht sie im Widerspruch zu den Fakten, die das ihr unterstellte Umweltbundesamt veröffentlicht. Dessen Daten sprechen eine andere Sprache.

Sie bestätigen, was jeder auch wahrnehmen kann: Die Werte für Luftschadstoffe sind in den vergangenen knapp 30 Jahren in den Städten dramatisch gesunken. Das zeigen die Ergebnisse der Messungen, wie sie das Umweltbundesamt veröffentlicht. Das listet für jedermann gut sichtbar in nationalen Trendtabellen die Entwicklung der Emissionen seit 1990 auf, sauber nach den einzelnen Schadstoffen unterteilt. In der Tabelle für Stickstoffoxide finden wir für das Jahr 1990 bundesweit hochgerechnet noch einen Gesamtwert von 2,887 Mio Tonnen Ausstoß.

Die Kurve in der Tabelle geht nach unten, die Werte sinken seit 27 Jahren kontinuierlich. Für das Jahr 2015 liest man in der Tabelle den Wert von 1,186 Mio Tonnen pro Jahr ab. Das bedeutet: fast 40 % weniger Stickoxide in der Luft als 1990.

 

Deutsche Umwelthilfe (DUH) – Klage gegen Stuttgart

Interessant ist die Aufschlüsselung nach den einzelnen Quellen: Das verarbeitende Gewerbe nimmt einen sehr geringen Anteil ein, ebenso die Energiewirtschaft, also im wesentlichen die Kraftwerke. Hier haben sich die mit Millionaufwand eingebauten Filteranlagen bezahlt gemacht. Den größten Anteil hat naturgemäß der Verkehr. Dessen Anteil an den Stickoxiden geht am stärksten kontinuierlich zurück. Ein Ergebnis der Verbesserungen der Motorforschung und verbesserten Antriebstechnik im Automobilbau.

Halten wir fest: Die Luft in den Städten ist nach den Angaben des Umweltbundesamtes in den vergangenen 30 Jahren deutlich sauberer geworden.

Nimmt man jetzt noch die Aussagen von Fachärzten, nach denen die Stickoxid-Belastung kein Problem darstellt, bleibt die die Frage: Worüber reden wir eigentlich?

Die Frage stellt sich, was mit der aktuellen Diskussion bezweckt werden soll. Vor allem muss die Bundesumweltministerin die Frage beantworten, warum sie wieder besseres Wissen vor die Kameras tritt und falsche Behauptungen aufstellt. Die Daten, die ihr eigenes Haus veröffentlicht, sprechen eine andere Sprache als Hendricks im Wahlkampf und eine DUH, die das Geld der kleinen Leute abzockt, die den Spaß bezahlen müssen.

Es gibt nur eine Lösung: Grenzwerte wieder rauf, damit die unselige Auseinandersetzung beendet ist. Mit Fragen der Gesundheit hat sie nämlich nicht das Geringste zu tun. Die dürften einem wie Resch sonstwo vorbeigehen.

Quelle: Daten des Umweltbundesamts




Sonnenkönig Asbeck: Bankrotteur und Schloßbesitzer

 Einen solchen „Geschäftsmann“ beschreibt dieser Beitrag. Ich würde dieses Individuum gerne einen „Gauner“ nennen, aber aus Angst vor dessen Rechtsabteilung und aus Furcht durch eine Klage meine bescheidene Rente zu verkürzen, unterlasse ich diese Bezeichnung.

Frank H. Asbeck – von dem hier die Rede ist – war schon seit früher Jugend ein gewitztes Kerlchen. 1959 in Hagen (NRW) geboren, gründete er als erst Zwanzigjähriger (zusammen mit Petra Kelly) den ersten Landesverband der Partei der „Grünen“ in Hersel und studierte dann im nahen Bonn passenderweise Landwirtschaft. Als 1998 der Sozialdemokrat Gerhard Schröder die Wahlen gewann, die erste rot-grüne Bundesregierung bildete und die „Energiewende“ einläutete, gründete Asbeck die Firma Solarworld AG zum Bau von Solarkollektoren. Innerhalb kürzester Zeit stieg der junge Asbeck zum „Darling“ der Bonner Ökofraktion auf.

Der subventionierte Aufstieg

Die ersten Jahre des Unternehmens Solarworld sind durchaus mit dem Goldrausch in den USA im 19. Jahrhundert zu vergleichen. Innerhalb von acht Jahren (1999 – 2007) stieg der Börsenkurs dieser Firma von Null auf  7.192 an und hatte damit den gigantischen Börsenwert von 4,7 Milliarden Euro. Frank Asbeck schwang sich zum Vorstandsvorsitzenden auf, ihm gehörten 26 Prozent, der Rest waren Kleinaktionäre, welche sich eine Aufstockung ihrer Rente erhofften, sowie einige Finanzinvestoren in Katar. Der Unternehmensberater Roland Berger prophezeite, dass die Ökoenergiebranche im Jahr 2030 so viele Beschäftigte ernähren würde, wie die deutsche Autoindustrie. Offensichtlich konnte man mit der Ökoenergie das ersehnte wirtschaftliche „Triple“ erreichen, nämlich atomfreien Strom, Arbeitsplätze und Wachstum.

In Wirklichkeit war der solare Aufstieg erkauft durch das „Erneuerbare- Energien-Gesetz“ (EEG) aus dem Jahr 2000, an den Asbeck fleißig mitgebastelt hatte. Mittels Milliarden an Subventionen beschloss die Regierung Schröder/Trittin vor allem  Sonnen- und Windenergie aufzupäppeln. Im Zentrum dieses Gesetzes stand die „Einspeisevergütung bzw. EEG-Umlage“, ein unübertrefflich schönfärberischer Begriff, den nur die deutsche Bürokratie erfinden konnte. Bis zu 50 Cent pro Kilowattstunde und darüber wurden vom Staat – auf Kosten der Stromverbraucher – ausgelobt. Kein Wunder, dass sich viele Menschen diese Bonanza nicht entgehen lassen wollten und dem Unternehmen einige Jahre lang all ihre Solarkollektoren förmlich aus den Händen rissen.

Die erste (nahezu) Pleite

 
Aber die hohen staatlichen Subventionen offenbarten bald ihre Risiken. Die Chinesen, selbst Staatskapitalisten, traten als Wettbewerber auf. Sie boten ihre – technisch gleichwertigen – Solarmodule zum halben Preis und darunter an und bauten gigantische Fabriken zur Massenfertigung auf. De facto hatte Deutschland den Aufstieg der Kollektorindustrie in China finanziert. Und es kam noch schlimmer für Asbecks Sonnenreich: graduell senkte (die nun schwarz-gelbe) Bundesregierung die EEG-Umlage auf unter 20 Cent/kWh. Solarworld konnte aufgrund seiner üppigen Kostenstruktur nicht mit halten und musste nach 2007 für volle sieben Jahre die Dividende ausfallen lassen. Die Zahl der Beschäftigten in der deutschen Solarindustrie schrumpfte von 115.000 (in 2012) auf 50.000 (2014).
 
Anfang des Jahres 2013 kam es fast zum Zusammenbruch von Solarworld. Jahrelange Verluste bei gleichzeitig hohen Kosten hatten die Ressourcen des Unternehmens aufgezehrt. Eigentlich hätte Asbeck schon damals Konkurs anmelden müssen, aber die grüngläubigen Aktionäre waren mit einem drastischen Kapitalschnitt (150 alte Aktien für 1 neue) einverstanden und ließen ihren Vorstandschef weiter machen. Allerdings sollte Asbecks Anteil an der Firma von 26 Prozent auf 1 Prozent sinken.
 

Asbeck wird Schlossbesitzer

 
Wie ein Wunder erscheint es vor diesem tristen wirtschaftlichen Hintergrund, dass es Frank – ausgerechnet in der Phase des Niedergangs seiner Firma – gelang, zum zweifachen Schlossbesitzer aufzusteigen. Im Dezember 2008 kaufte er das Landschloss Calmuth in der Nähe von Remagen. Es hatte eine bewegte Vergangenheit: im sog. Dritten Reich diente es der Reichsjugendführung als repräsentativer Landsitz. Als passionierter Jäger erwarb unser Sonnenkönig gleich 20 Hektar Waldfläche dazu und schloss einen Kaufvertrag für weitere 100 Hektar ab.
 
Aber das war erst der Anfang. Im Jahr 2013, als sein Unternehmer schon am Boden lag, erwarb der Maserati-Fahrer Frank das Rheinschloss Marienfels, womit er seinen Immobilienbesitz abrundete, denn beide Schlösser lagen nahe beieinander. Marienfels war vorher acht Jahre lang von dem Entertainer Thomas Gottschalk bewohnt worden. Seine Frau Thea hatte die Inneneinrichtung weitgehend selbst gestaltet und dafür Objekte aus der ganzen Welt angeschleppt. Das Schloss verfügte über 14 Zimmer und 800 Quadratmeter Wohnfläche sowie einen freskenverzierten Pool mit angrenzenden Wellness-Bereich. Sechs Mansardenzimmer hatte Thea zudem zu einem Groß-Schlafzimmer im Stil eines Beduinenzelts vereinigt. Zu dem Schloss gehörten 100.000 Quadratmeter Waldgelände und ein privater Badesee. Verkauft wurde die Immobilie – samt Theas Inneneinrichtung – für ca. 5 Millionen Euro. Das Ehepaar hat sich anschließend nach Berlin verändert, wo es im Stadtteil Prenzlauer Berg eine Wohnung bezog.
 
Wie konnte der Vorstandsvorsitzende einer nahezu pleite gegangenen Firma diese pompösen Immobilien finanzieren? Nun, in überregionalen Zeitungen wird darüber berichtet, dass Asbeck (rechtzeitig vor dem Niedergang) einen Großteil seiner Aktien zu einem noch recht guten Preis verkaufte und dadurch um ca. hundert Millionen Euro reicher wurde. Ob dies mit der Ethik des Aktiengesetzes vereinbar ist, darüber darf spekuliert werden. In jedem Fall braucht man dafür einen gnädig gestimmten Aufsichtsrat. Asbeck findet seine verdeckten Verkäufe jedenfalls in Ordnung, denn er habe in seiner  Zeit als CEO  ohnehin „nur“ neun Millionen Euro an Gehalt bezogen

 

Die zweite (wirkliche) Pleite

Aber der Abstieg der Firma Solarworld ging weiter. Regelmäßig überstiegen die Kosten (für Mitarbeiter und Material) die Erträge und im Frühjahr 2017 war die Kasse endgültig leer. Am 11. Mai 2017 musste Asbeck den Insolvenzantrag stellen. Seitdem herrscht bei Solarworld der Konkursverwalter Horst Piepenburg, ein erfahrener Sanierer. Rund 2.600 Beschäftigte im sächsischen Freiberg und im thüringischen Arnstadt fürchten um ihren Lohn, zuzüglich einiger Hundertschaften in Hillboro, Oregon.
 
Die Gründe für den Niedergang sind eindeutig: Solarworld hat zu lange am Massenprodukt der multikristallinen Zellen festgehalten. Die staatlichen Subventionen waren zu verlockend. Aber inzwischen werden diese Art von Zellen nicht nur massenhaft in China gefertigt, sondern sogar im Low-Tec-Land Vietnam. Und zwar zu unschlagbar niedrigen Preisen! Die PERC-Technologie, welche mit verspiegelten Zellenrückwänden höhere Energieausbeuten ermöglicht, hat man in Deutschland nie auf den Markt bringen können.
 
 

Phönix aus der Asche

 
Aber damit ist die Story von Frank Asbeck und seiner Solarworld noch nicht zu Ende. Am vergangenen Freitag (11. August) hatte Konkursverwalter Piepenburg die Gläubiger ins Bonner Landgericht geladen. Es ging um Resteverwertung. Eine erst kürzlich gegründete Firma, die Solarworld Industries GmbH hatte Interesse bezeugt an den beiden Kollektorfabriken in Freiberg und Arnstadt. Tatsächlich erhielt sie den Zuschlag für ca. 96 Millionen Euro, wie man danach aus Teilnehmerkreisen hörte.
 
Und nun kommt der Knaller. Hinter der genannten neuen Firma steckt niemand anderer als Frank Asbeck, der damit Teile seines insolventen Konzerns relativ preiswert zurückgekauft hat. Direkt und indirekt soll er mit 51 Prozent an diesem Unternehmen beteiligt sein. Mit im Boot ist die Katar-Foundation, mit deren Hilfe der schillernde Unternehmer Solarworld schon 2013 vor der Pleite bewahrt hat. Auf diese Weise werden angeblich 475 Arbeitsplätze „gerettet“, die übrigen Mitarbeiter sollen in eine Transfergesellschaft verfrachtet werden. Die Gläubiger haben dem Ganzen zugstimmt; die Aktionäre können ihren Besitz in den Wind schreiben.
 
Frank bleibt, wie ein Fettauge, immer oben.
Übernommen von Willy Marth´s Rentnerblog hier



Deutschlands Autoindustrie: Mord auf offener Straße?-Ein perfides Spiel mit Klimaangst und fiktiven Abgas-„Todesopfern“ (2)

Was ist von Horrorzahl-Studien zu halten?

Eines der schlagkräftigsten Argumente für die Gegner des Verbrennungsmotors sind zahlreiche Studien, in denen angeblich nachgewiesen wurde, dass Abgase und Feinstaub jährlich zigtausende Tote verursachen würden. Schaut man sich diese Untersuchungen jedoch genauer an, so fällt auf, dass es sich oft um sogenannte Kohortenstudien handelt. Dabei werden nicht etwa eindeutige Ursache-Wirkungsbeziehungen auf experimenteller Basis untersucht, sondern beispielsweise die Entfernung des Wohnorts von stark befahrenen Straßen.

Die schrittweise Einengung der zulässigen Gehalte von Kohlenwasserstoffen (HC) und Stickoxiden in den Abgasen von Diesel-PKW im Verlauf der verschiedenen Stufen der Euronorm (Quelle: [KIT])

Bei diesen Kohortenstudien kommt es jedoch häufig zu offensichtlich gravierenden Falschinterpretationen. In manchen Fällen scheint eine gleichzeitige Betrachtung anderer Risikofaktoren wie Rauchen, Alkoholkonsum, sozialer Status oder Ernährungsgewohnheiten nicht einbezogen zu werden. Anwohner stark befahrener Straßen leben in der Regel in einem anderen sozialen Umfeld als Eigenheimbesitzer in verkehrsfernen Wohnvierteln. Die Relevanz von Studien, die dies nicht ausreichend berücksichtigen, ist daher anzweifelbar.

In anderen Fällen wird beispielsweise häufig ein Zusammenhang zwischen NOx und Krebs behauptet, was ganz offensichtlich im Widerspruch zum klassisch experimentell ermittelten Stand des Wissens steht. Solche Studien sind daher zur Beurteilung der Risiken der Abgase moderner Dieselfahrzeuge ungeeignet. Weitergehende Vorwürfe, die sich auch auf Feinstaub beziehen, wirken so alarmistisch, dass ihre Glaubwürdigkeit dadurch stark in Frage gestellt wird. So finden sich Aussagen wie die, dass Nanopartikel das Gehirn schädigten. Sie seien möglicherweise sogar Ursache für bestimmte Alzheimer-Erkrankungen, Kinder entwickelten systematische Entzündungen des Gehirns sowie frühe Anzeichen der Alzheimer-Erkrankung und es komme zu einem reduzierten Intelligenzquotienten [HEIS]. In anderen Studien werden sogar Risiken bezüglich Herz-Kreislauferkrankungen sowie Diabetes erwähnt [CIRC]. Besonders alarmistisch bezüglich selbst geringer Werte von NOx in der Atemluft ist beispielsweise eine Metastudie der italienischen Epidemiologin Annunziata Faustini im European Respiratory Journal. Sie hat die wichtigsten Studien zum Thema analysiert und errechnet, dass die Zahl der jährlichen Todesfälle in der Bevölkerung um jeweils vier Prozent zunehme, wenn die jährliche Durchschnittsbelastung weitere zehn Mikrogramm NO₂ pro Kubikmeter ansteigt. Nun beträgt die jährliche Stickstoffkonzentration in städtischen Wohngebieten im Mittel zwanzig bis dreißig Mikrogramm. An vielbefahrenen Straßen sind Anwohner jedoch nach Messungen des Umweltbundesamts manchmal Konzentrationen ausgesetzt, die bis zu vierzig oder sogar sechzig Mikrogramm pro Kubikmeter darüberliegen. Mit jeden weiteren zehn Mikrogramm NO2 soll die Zahl der tödlichen Herzattacken und -infarkte um dreizehn Prozent ansteigen [FAZ]. Dies müsste eigentlich zu einer signifikant sinkenden Lebenserwartung der Bevölkerung großer Städte führen. Da das Gegenteil der Fall ist, kann man solcherlei Studien als widerlegt abhaken.

Anzahl der Stunden, in denen die Grenzwerte für NO2 an verschiedenen Messstellen überschritten wurden (Quelle: [LUST])

 

Eine Schlüsselrolle bei solchen Untersuchungen kommt auch den beiden Instituten für Epidemiologie (EPI I/II) am Helmholtz Zentrum München unter der Leitung von Prof. Dr. Annette Peters zu. Sie ist hochdekorierte Beraterin in wissenschaftlichen und beratenden Gremien auf nationaler wie auch auf internationaler Ebene und hat großen Einfluss auf Politik und Presse bis hin zur World Health Organisation (WHO) der UNO. Dort vertritt sie Ansichten wie die, dass die aktuell geltenden Grenzwerte für NOx aus gesundheitlicher Sicht deutlich zu hoch seien. Die Weltgesundheitsorganisation WHO (in der sie ebenfalls Einfluss hat) überarbeite gerade ihre Empfehlungen, weil neuere Daten zeigten, dass die Sterblichkeit bereits weit unterhalb dieses Wertes ansteige. Aus gesundheitlicher Sicht sei der in Europa erlaubte Jahresmittelwert für Stickstoffdioxid von 0,04 mg/m3 zu hoch. Wahrscheinlich gebe es für Stickoxide überhaupt keinen „sicheren“ Schwellenwert [PETE]. Dies steht in diametralem Widerspruch zu den Erkenntnissen z.B. der Arbeitsmedizin. Wer wissen will, woher ein nicht unerheblicher Teil der durch öffentliche Gelder geförderten Meinungsmache gegen unsere technische Zivilisation stammt, dem sei empfohlen, sich die beeindruckende Liste der Institutionen und politischen Gremien anzusehen, in denen Fr. Prof. Dr. Peters in führender Position vertreten war oder ist [PETE2].

Bei all diesen Schreckensmeldungen fragt man sich, wie die Menschheit in früheren Jahrzehnten und Jahrhunderten überhaupt überleben konnte, denn die Luft des Mittelalters war in den Stuben und Werkstätten sicherlich um ganze Größenordnungen stärker mit Schadstoffen z.B. aus der Holzverbrennung belastet als heute. Bei vielen dieser Untersuchungen hat man den Eindruck, dass die Verfasser vor allem darauf aus sind, das Auto als Wurzel jedes nur denkbaren Übels darzustellen. Statt sich von dem hochwissenschaftlichen Wortgeklingel dieser Studien einschüchtern zu lassen, sollte man lieber auf den eigenen gesunden Menschenverstand vertrauen. Tut man dies, so erkennt man schnell, dass diese Art von epidemiologischen Studien in deutlichem Widerspruch zur Erhöhung des Lebensalters in Deutschland generell und speziell in den großen Städten steht. Die Menschen in den höher mit Abgasen belasteten großen deutschen Städten leben länger als der Durchschnitt der deutschen Bevölkerung, und ihr Lebensalter steigt immer weiter an [MUEL]. Demnach ist den Aussagen solcher Kohortenstudien gegenüber eine gehörige Portion Misstrauen angebracht. Der führende Toxikologe Professor Helmut Greim von der TU München, von 1992 bis 2007 Vorsitzender der MAK-Kommission, hält die heute geltenden Grenzwerte für Stadtluft und insbesondere Forderungen nach ihrer weiteren Absenkung für übertrieben [GREI]. Auch Prof. Matthias Klingner, Leiter des Fraunhofer-Instituts für Verkehrs- und Infrastruktursysteme IVI in Dresden, sagte in einem Interview mit den Dresdner Neueste Nachrichten: „In der Feinstaub-Debatte, wo von 80.000 Toten im Jahr die Rede war, hatten wir ausgerechnet, dass der Grenzwert von 50 Mikrogramm Feinstaub am Tag, der nur 35 mal im Jahr überschritten werden darf, den eingeatmeten Partikeln einer halben nikotinfreien Zigarette entspricht. Nun kann man natürlich sagen, man soll überhaupt nicht rauchen, aber an der großen Gruppe der Raucher statistisch nachgewiesen sind gesundheitliche Folgen erst nach einem sehr, sehr viel höherem Zigarettenkonsum“ [KLIN].

Entwicklung der Lebenserwartung von Einwohnern verschiedener deutscher Großstädte sowie für Deutschland insgesamt für die Geburtsjahrgänge 1995 und 2010 (Daten: [LEBE], Statista)

 

Abgas-Beurteilung: Eine zweigeteilte Welt

Bezüglich der Beurteilung der Gefährlichkeit von Abgasen ist die Fachwelt offensichtlich zweigeteilt. Da gibt es auf der einen Seite Fachgremien, deren Zusammensetzung zumindest früher hauptsächlich nach ärztlicher bzw. arbeitsmedizinischer Qualifikation erfolgte. In der Schweiz ist dies die SUVA (Schweizer Unfall Versicherung), die in der Schweiz Aufgaben wahrnimmt, die denjenigen der Berufsgenossenschaften in Deutschland entsprechen. In Deutschland ist hierfür die Ständige Senatskommission zur Prüfung gesundheitsschädlicher Arbeitsstoffe (MAK-Kommission) der Deutschen Forschungsgemeinschaft [DFG] verantwortlich, der aktuell 36 hochrangige Fachleute angehören. Wer sich einen Eindruck davon verschaffen will, wie sorgfältig und verantwortungsbewusst diese Gremien an ihre Aufgaben herangehen, dem sei ein Blick in das Factsheet: Schweizer Grenzwerte am Arbeitsplatz [MAKW] empfohlen.

In Deutschland erscheint jedes Jahr eine neue Ausgabe der MAK-Liste mit den erfolgten Änderungen. Dabei finden sich interessante und teils dramatische Verschiebungen. Noch 1994 findet sich in der MAK-Liste zu NO2 die ein Grenzwert von 9 mg/m³, heute sind es nur noch 0,95mg/m³. Die Bestimmung erfolgt folgendermassen: Zunächst wird der Stand der Erkenntnisse aus der Literatur gesammelt und ausgewertet. Dazu zählen sowohl Tier- als auch Menschenversuche sowie Studien z.B. an Mitarbeitern, die entsprechenden Auswirkungen ausgesetzt sind oder waren. So wird ermittelt, wo die Dosisgrenze für NO2 in der Atemluft ist, bei der mit Sicherheit keine Wirkung auf den Organismus erfolgt. Dieses nennt man den NOAEL-Wert (no observed adverse effect level). Oft wird dieser Wert als MAK-Wert festgelegt. Da der Mensch sich nicht Rund-um-die-Uhr am Arbeitsplatz befindet, bedeutet die Festlegung vom NOAEL-Wert als MAK-Wert eine zusätzliche Sicherheit. Oft wird noch ein zusätzlicher Sicherheitsfaktor (häufig zwischen 0,1 bis 0,25) eingeführt. Letzteres könnte auch zur Herabsetzung des deutschen MAK-Wertes für NO2 von 9 mg/m3 auf nur noch 0,95 mg/m3 geführt haben [NIEM].

Der Erfolg der ergriffenen Maßnahmen zur Reinhaltung der Luft zeigt sich besonders deutlich an der Entwicklung der Werte für Schwefeldioxid vor allem im Bereich der neuen Bundesländer (Grafik: [UBA])

 

Auf der anderen Seite gibt es die „Fachwelt“ der grünlinken Aktivisten, die heute nicht nur in Parteien, NGO’s, zahllosen finanzstarken Stiftungen und den Medien, sondern auch in den meisten staatlichen und halbstaatlichen Gremien einschliesslich der Forschung eine dominante Rolle spielen. Diese Kräfte verfügen nicht nur über Milliardensummen aus Steuergeldern, sie üben auch dank ihrer Dominanz in Gremien, die über die Vergabe von Forschungsbudgets entscheiden, einen unglaublichen starken und zugleich negativen Einfluss auf alle Bereiche der Wissenschaft aus. Wer nicht mit ihrer Ideologie konform geht, geht bei der Beantragung von Geldern für Forschungsprojekte solange leer aus, bis er seine Lekion gelernt hat. Hier bestimmen längst nicht mehr Fachleute, sondern politisch gestützte Ideologen den Gang der Dinge, hier werden Gefälligkeitsgutachten initiiert, die dann in geeigneten politischen Gremien – gern auch auf EU- oder UNO-Ebene – ohne Rücksicht auf toxikologische Erkenntnisse und unter souveräner Missachtung jeglicher ökonomischen Vernunft durchgepeitscht werden. Von diesen Kräften, die oft auf gesicherten und hoch dotierten Beamtenpöstchen sitzen, wird die Festlegung rein „politisch-ideologischer“ Grenzwerte für Autos und die Luft in Städten gesteuert, die bei weniger als einem Zweihundertstel dessen liegen, was noch vor etwas mehr als zwei Jahrzehnten als unbedenklich für ständige jahrelange Exposition am Arbeitsplatz galt. Hier liegen die Ursprünge der nicht nur gegen das Automobil, sondern im Prinzip gegen unsere ganze technische Zivilisation gerichteten Kampagnen, die derzeit vor allem das Automobil im Visier haben. Wenn es nicht gelingt, diesen Kräften die Deutungshoheit über die von ihnen okkupierten Bereiche im Gesundheits-, Arbeits- und Umweltschutz wieder zu entreißen, wird unsere Bevölkerung für deren Eskapaden noch einen sehr hohen Preis zu zahlen haben.

 

Todesurteile auf dem Umweg über die EU

Bei vielen der alarmistischen Studien über die angeblich zu hohen Risiken von Abgasen für die Bevölkerung finden sich auffallend häufig Formulierungen wie „werden diskutiert“, „nähere Angaben zu obiger Quelle sind nicht verfügbar“, „möglicherweise“, „Hinweise“ oder „kann“. Ein weites Feld für politisch dominierte Verbotsgremien, in denen Ideologen die Fachleute jederzeit mühelos überstimmen können. Diese Entwicklung kann man seit Jahren sowohl auf nationaler Ebene als auch auf internationaler Ebene beobachten. Insbesondere in EU-Gremien kommen zu den „grünen“ Motiven noch die üblichen Grabenkämpfe der EU-Staaten untereinander. Hier kann man den ungeliebten deutschen Klassenprimussen, deren Industrie stark automobillastig ist, mal so richtig vor das Schienbein treten. Die aktuelle Dauerkanzlerin hat schon öfters bewiesen, dass sie es meisterhaft versteht, solche Gremien mit den „richtigen“ Leuten zu besetzen. Diese helfen bei der Durchsetzung ihrer eigentlichen Ziele, ohne dass sie sich im eigenen Land zu sehr in die Nesseln setzen müsste. Wenn dann die eigene Industrie mit Grenzwerten auf EU-Ebene konfrontiert ist, gegen die man selbst als deutsche Regierung nichts mehr ausrichten kann, kann man sich immer noch dadurch profilieren, dass man gegenüber der „übermächtigen“ EU ein bisschen auf Widerstand mimt und nach „hartem Verhandeln“ ein paar Brosamen mitbringt, während die beschlossenen Grenzwerte längerfristig von vornherein das Todesurteil für die Automobilindustrie bedeuten. Das funktionierte vor allem deshalb besonders gut, weil die Regierung und damit die Vertreter unseres Landes insgeheim sowieso der Meinung waren, der Verbrenner sei nicht mehr zeitgemäß und in einigen Jahrzehnten werde es nur noch selbstfahrende Autos geben. Allen voran unsere Klimakanzlerin, die überraschend kurz vor der aktuellen Bundestagswahl ihre Linie des Versteckens und des Agierens über das Ziehen von Strippen im Hintergrund aufgegeben hat. So hat sie sich in einem Interview mit der „Super-Illu“ klar auf die völlige Abkehr vom Verbrennungsmotor festgelegt [MERK] und in einer weiteren Stellungnahme auch für das Ende des Individualverkehrs ausgesprochen, da sie überzeugt sei, dass man „in 20 Jahren nur noch mit Sondererlaubnis selbstständig Auto fahren“ dürfe [SELB]. Das Lenken wird aus ihrer Sicht dann der Staat übernehmen. Halt so, wie sie es von Kindesbeinen an gewohnt war. Und wen kümmern schon die paar Rentner, die durch diese Manöver enteignet werden, weil sie ihren alten Wagen nicht mehr benutzen dürfen, ihnen aber das Geld für die Beschaffung der teuren neuen Modelle mit ihrem ganzen nur bedingt erforderlichen Schnickschnack fehlt.  

Die etwas überraschende Selbstdemaskierung der Bunddeskanzlerin lässt darauf schließen, dass sie glaubt, die „Festung Automobil“ sei dank der pausenlosen Attacken einer breiten Front von Gegnern – von der US-Regierung über die EU und die grünlinken Kräfte in Politik und Medien bis zur öffentlichen Meinung – inzwischen so diskreditiert und sturmreif geschossen, dass man mit ihr dasselbe veranstalten könne wie mit der Kernkraft im Jahre 2011. Es würde nicht verwundern, wenn sie unmittelbar nach ihrem alternativlosen Wahlsieg wieder so ein Gremium wie die damalige „Ethikkommission“ ins Leben rufen würde, um der wichtigsten deutschen Exportindustrie und zugleich dem Individualverkehr beschleunigt den Garaus zu machen.

 

Die CO2-Würgeschlinge

Dass die Weichen längst gestellt wurden, kann man auch an einem weiteren Punkt erkennen: Den CO2-Grenzwerten. Zwar ziert sich die Kanzlerin bei der Festlegung von Endterminen, aber das ist nur Show. Nach dem großen Getue um die angebliche „Vergasung der Bevölkerung“ [DOE] durch „kriminelle, von Gier getriebene Manager der Automobilbranche“ haben sich die etablierten politischen Parteien von grün über rot bis schwarz beim „Dieselgipfel“ auf eine vorübergehende Entschärfung der aufgeheizten Stimmungslage verständigt. Den Politikern ist klar, dass dieses Thema so kurz vor den Wahlen nicht weiter hochkochen sollte, weil dann die Gefahr bestünde, dass die betrogene Bevölkerung ihnen die ersehnten Stimmen verweigern könnte. Denn das Manöver, das langfristig durchgezogen wird, erfordert langsames, schrittweises Vorgehen, damit die Opfer nicht unruhig werden.

Das Ziel bleibt natürlich unverändert: Während man derzeit im Rahmen einer Scheibchenstrategie nur auf den Diesel einprügelt, wird es ab 2020 alle Verbrenner treffen. Das ist bereits jetzt festgeschrieben, und zwar durch die Vorgaben für den CO2-Ausstoss des sogenannten Flottenverbrauchs, der auf EU-Ebene von den derzeit noch rund 130 g CO2/100 km schon ab 2020 auf 95 g CO2/ 100 km gesenkt werden soll. So gilt derzeit ein Limit von 130 g CO2/km, was beim Diesel-Pkw 4,9 l/100 km und beim Benziner 5,5 l/100 km entspricht. Es wird von der aktuellen deutschen Neuwagenflotte knapp eingehalten. Mit dem neuen Grenzwert 95 g CO2/100 km darf ein Diesel nur noch 3,6 l/100 km verbrauchen, ein Benziner nur noch 4,0 l/100 km [NIEM]. Bei den für 2025 avisierten Werten von 68 oder 78 g CO2/100km [CO2V] wären beim Diesel nur noch 2,6 bzw. 3,0 l/100 km zulässig, beim Benziner entspräche dies 2,86 bzw. 3,3 l/100 km. Dass schon die Werte für 2020 und erst recht die Vorgaben für 2025 nicht einzuhalten sein werden, ist selbst für Laien leicht einzusehen. Diese Grenzen können nur als Ausdruck des festen Willens der EU interpretiert werden, den PKW mit Verbrennungsmotor zum Tode zu verurteilen. Das ganze Gehampel mit den Grenzwerten und die Dieseldiskussion bzw. die „Dieselgipfel“ sollen davon nur ablenken, um den Widerstand durch die übliche Salamitaktik aufzusplittern. Und diese bereits vor vielen Jahren getroffenen Entscheidungen hätten niemals gegen den entschlossenen Widerstand Deutschlands gefällt werden können.

Auch beim Feinstaub PM10 zeigt die Langzeitauswertung, dass die Luftqualität immer besser geworden ist. Umso misstrauischer sollte man gegenüber der aktuellen Panikmache sein (Grafik: [UBA])

 

LKW verursachen den Löwenanteil der Dieselabgase

Ein besonders wichtige Quelle von NOx-Emissionen im Straßenverkehr sind die Diesel-LKW sowie Autobusse. Alleine LKW emittieren in einer Stadt wie Ulm dreimal soviele Abgase wie die Diesel-PKW. Kaum etwas dokumentiert die Verlogenheit der aktuellen Kampagne gegen Diesel-PKW sowie der angekündigten Fahrverbote ausgerechnet gegen Diesel-PKW deutlicher als solche Tatsachen. Besonders klar erkennbar sind die Falschbehauptungen zu Abgasen neuer Dieselautos ab Euro 5 auch am Vorwurf der angeblich von ihnen ausgehenden „Krebsgefahr“ festzumachen: Diese besteht definitiv weder bei NO noch bei NOx, und Feinstaub ist seit Einführung des Dieselpartikelfilters kein spezifisches Problem des Diesel-Pkw, sondern entsteht aus einer Vielzahl von Quellen, wozu insbesondere auch die Benziner gehören. Gegenteilige Behauptungen in sogenannten epidemiologischen Studien sind lediglich der Beweis, dass die Verfasser Probleme damit hatten, bei ihrer Analyse die Einflüsse multipler Quellen bzw. Ursachen sauber zu trennen. Auch am Gesamtaufkommen des Feinstaubs haben Diesel-PKW nur einen untergeordneten Anteil. Verkehrswissenschaftler wie Prof. Klingner weisen darauf hin, dass dem Verkehr keinesfalls die behauptete dominierende Rolle bei den Feinstaubemissionen zukommt [KLIN].

 

Unerwartete Auswirkungen „stickoxid-gereinigter“ Dieselabgase

Auf eine ebenso interessante wie ungewollte Nebenwirkung der Verringerung des Stickoxid-Ausstoßes moderner Dieselfahrzeuge der Euro 5 und Euro 6- Kategorie verweist eine Meldung der Neuen Osnabrücker Zeitung vom 23.10.2015 [NOZ]. Zwar bildet das indirekt von Autos stammende NO2 , das sich aus dem zunächst ausgestoßenen NO bildet, bei Sonnenlicht zusammen mit organischen Substanzen und Sauerstoff Ozon, das in entsprechender Konzentration Schleimhäute, Augen und Lungen reizt und zu Atemwegsbeschwerden führen kann. Da das von Autos primär emittierte NO nachts jedoch Ozon abbaut, haben zwar mit der Abgasverbesserung die Ozon-Spitzenwerte abgenommen, dafür ist wegen des verringerten nächtlichen Ozonabbaus jedoch die durchschnittliche Belastung angestiegen. Somit führt ausgerechnet die Verringerung des NO-Ausstosses moderner Dieselfahrzeuge zur erhöhten Bildung eines anderen Luftschadstoffs.

In seiner hervorragenden Analyse hat R. Leistenschneider (Teil 1 hier und Teil 2 hier) nachgewiesen, dass der Anteil der Diesel-PKW an den realen NO2-Emissionen sehr viel geringer ist als von der Politik behauptet (Grafik: [LEIS2])

 

Natürlicher NOx-Kreislauf

Angesichts der lauten und völlig überzogenen Diskussion über die vom Menschen und insbesondere vom Auto erzeugten NOx-Abgase ist den meisten Menschen gar nicht bewusst, dass diese Teil natürlicher Kreisläufe sind, deren wahre Dimensionen bisher kaum beachtet wurden. In der Atmosphäre hat das NOx nur eine kurze Verweildauer von typischerweise 2-5 Tagen. Zum Aufkommen aus natürlichen Quellen gab es bereits im Jahre 1994 detaillierte Erkenntnisse:

 

  1. Angegeben in N;
  2. 55 % Energiegewinnung, 45 % Transport (Autos, Flugzeuge)
  3. Von diesen Bränden sind 4 % natürlichen und 96 % anthropogenen Ursprungs

Demnach entsprangen damals rund 40 % des in der Atmosphäre vorhandenen NOx natürlichen Quellen, wobei dies sowohl regional als auch zeitlich starken Schwankungen unterworfen ist. Zudem kommt nur ein Bruchteil der aus anthropogenen Quellen stammenden Mengen tatsächlich von modernen Diesel-PKW, siehe auch bei [LEIS, LEIS2].

Stickstoff ist essentiell für alles Leben und ist wesentlicher Bestandteil z.B. von Eiweißen. Daher muß unsere Nahrung Stickstoff enthalten. Mit der Ernte wird dem Boden Stickstoff entzogen, das sind in Deutschland etwa 1,5 bis 2 Mill. t Stickstoff pro Jahr. Der Stickstoffaustrag durch die Ernte muß dem Boden durch Düngung wieder zugeführt werden. Die Pflanzen können den Stickstoff jedoch nicht direkt aus den Stickstoffmolekülen der Luft aufnehmen, sondern erst aus NO2, das aus der Luft z.B. durch Regen in den Boden gewaschen wird. Deshalb nehmen auch die in Kraftwerken und im Verkehr erzeugten Stickoxide am Stickstoffkreislauf der Natur teil, so daß schließlich ein Teil dieses aus dem Auspuff stammenden Stickstoffs auch auf unserem Teller landet [NIEM].

Auch ein Skript der TU Darmstadt unterstreicht die grosse Bedeutung natürlicher Quellen für den Stickstoffkreislauf zwischen Atmosphäre, Boden und Gewässern (Grafik: [TUDA])

Eine weitere, neuere Untersuchung belegt, dass die aus natürlichen Quellen stammenden Stickoxidmengen diejenigen aus modernen Diesel-PKW um ein Vielfaches übertreffen [LEIS]. Behauptungen mancher Epidemiologen, dass es für Stickoxide wahrscheinlich überhaupt keinen „sicheren“ Schwellenwert gebe, sollte man angesichts dieser „unbequemen Wahrheit“ skeptisch begegnen.

 

Die Qual der Wahl

Deutschland und mit ihm Europa haben ein Problem. Wir haben ein Staatsoberhaupt, das schon in einer anderen Republik im goldenen Käfig lebte. Das ist auch heute noch so, wozu braucht man ÖPNV oder Fahrrad, wenn man Fahrer und Regierungsjet hat. Dieses Staatsoberhaupt huldigt Visionen, die den Realitäten der Naturgesetze sowie der Ökonomie zuwiderlaufen, und ihm ist in seinem Lauf zu dieser visionären heilen Welt das Schicksal des eigenen Volks ganz eindeutig ziemlich egal. Unglücklicherweise verfügt ebendieses Staatsoberhaupt trotz nahezu flächendeckender Lern- und Faktenresistenz über großmeisterliche Fähigkeiten im Bereich der politischen Manipulation und hat es geschafft, nicht nur die eigene Partei, sondern auch alle sogenannten etablierten anderen Parteien in ihr Macht- und Ideologiegespinst einzubinden. So, wie es halt auch in der ehemaligen „Demokratischen Republik“ mit ihren Schein-„Oppositionsparteien“ war, die im Volk ironisch als „Blockflöten“ bezeichnet wurden. Die aktuell an der Regierung beteiligte zweite angebliche deutsche „Volkspartei“ hat sich von den Zeiten ihrer ehemals bodenständigen Anführer wie Helmut Schmidt inzwischen weit entfernt. Während die alte Garde sich damals noch Gedanken über die Daseinsvorsorge der eigenen Bevölkerung machte, kommen von den heutigen Anführern nur noch reflexhaft hohle Phrasen über die angebliche „Gier der Manager“ und deren „hochnäsige“ Weigerung, sich planwirtschaftlichen Diktaten unfähiger politischer Spinner nach nicht verkaufsfähigen E-Autos widerspruchslos zu beugen. Leute wie Schulz, Hendricks oder Dobrindt werden nie bereit sein anzuerkennen, dass unhaltbare politische Vorgaben die Ursache des Problems sind. Lieber erheben sie Forderungen, die darauf hinauslaufen, das Ende der Autoindustrie schon in den nächsten ein bis zwei Jahren herbeizuführen. Dem Verfasser ist heute noch erinnerlich, wie Mitarbeiter eines Industrieunternehmens in einer Diskussion mit kommunistischen Aktivisten der damaligen Studentenbewegung auf den Firmenparkplatz wiesen und sagten: „Da seht ihr den Unterschied zwischen unserer Situation hier und derjenigen in der DDR“. Die SPD hat heute keinen Helmut Schmidt mehr, der lapidar feststellte: „Wer Visionen hat, soll zum Arzt gehen“. Die Gesamtheit der heutigen etablierten Parteien gehört mit ins Wartezimmer. Mit Blick auf die kommende Wahl ist das passendste Zitat vermutlich das von Heine: „Denk ich an Deutschland in der Nacht, so bin ich um den Schlaf gebracht“. Man sollte wirklich genau überlegen, wohin man sein Kreuzchen auf dem Wahlzettel setzt.

Fred F. Mueller

Hier finden Sie den vollständigen Bericht als pdf zum herunterladenEnergiewendeAutoMord

 

Quellen

[BLIE] Umweltchemie. Von C. Bliefert. VCH Verlagsgesellschaft, Weinheim, 1994. 453 S., Broschur 68.00 DM. – ISBN 3-527-28692-6

[CIRC] https://doi.org/10.1161/CIRCULATIONAHA.116.026796 Circulation. 2017;136:618-627

[CO2V] http://www.spiegel.de/auto/aktuell/co2-grenzwerte-flottenverbrauch-steigt-erstmals-wieder-an-a-1162063.html

[DOE] https://eike.institute/2017/08/01/moralischer-bankrott-ard-energieexperte-juergen-doeschner-luegt-hemmungslos-die-vergasung-von-10-000-unschuldigen-herbei/

[FAZ] http://www.faz.net/aktuell/wissen/leben-gene/studie-was-zu-viel-feinstaub-mit-unserem-koerper-macht-15151548.html

[GREI] http://www.focus.de/finanzen/karriere/berufsleben/politik-ignoriert-zweifel-am-grenzwert-40-mikrogramm-dieselpanik-wegen-grenzwertluege-in-ihrem-buero-ist-20-mal-so-viel-stickstoff-erlaubt_id_7378545.html

[HEIS] https://www.heise.de/forum/heise-online/News-Kommentare/2018-koennen-Elektroautos-fuer-Endkunden-guenstiger-sein-als-Verbrenner/Re-430-000-Europaeer-sterben-jaehrlich-an-Feinstaub/posting-14242020/show/

[KIT] http://www.ifkm.kit.edu/Abgasmessung-Fragen-und-Antworten.php

[LEIS] https://eike.institute/2017/08/20/das-kartell-der-dummheit-irrenhaus-deutschland-wie-wir-mit-dem-diesel-unsere-grundfesten-demontieren-teil-1-stickoxide-der-grosse-anteil-natuerlichen-ursprungs/

[LEIS2] https://eike.institute/2017/08/21/das-kartell-der-dummheit-irrenhaus-deutschland-wie-wir-mit-dem-diesel-unsere-grundfesten-demontieren-teil-2-stickoxide-die-fehler-des-umweltbundesamtes-der-t/

[LUST] https://www.stadtklima-stuttgart.de/index.php?luft_luftinstuttgart

[MAKW] https://safety.physik.unibas.ch/Downloads/Factsheetgrenzwerte.pdf

[MCDO] https://www.ncbi.nlm.nih.gov/pubmed/25842615

[MERK] http://www.spiegel.de/auto/aktuell/merkel-haelt-ende-von-verbrennungsmotoren-fuer-richtigen-ansatz-a-1162820.html

[MUEL] https://eike.institute/2016/07/22/einsatz-der-oeko-garotte-gegen-das-auto-dieselverbote-der-vernichtungsfeldzug-gegen-eine-deutsche-top-industrie/

[NIEM] https://eike.institute/2016/01/21/dieselgate-was-sagen-uns-die-zahlen/#comment-184943

[NOAEL] Empfehlungen des Wissenschaftlichen Komitees der EU für Grenzen beruflicher Exposition gegenüber NO2 SCOEL/SUM/53 vom Juni 2013 (Ref. Ares(2013)2611731 – 09/07/2013, GSW 1421 82-48

[NOZ] https://www.noz.de/deutschland-welt/vermischtes/artikel/629895/gefahrliche-stoffe-kommen-aus-dem-auspuff

[NO2GE] http://gestis.itrust.de/nxt/gateway.dll/gestis_de/001090.xml?f=templates$fn=default.htm$3.0

[NOMA] https://de.wikipedia.org/wiki/Stickstoffmonoxid

[NO2MA] https://de.wikipedia.org/wiki/Stickstoffdioxid

[PETE] http://www.stern.de/gesundheit/diesel-abgase–grenzwerte-fuer-stickoxide-und-feinstaub-zu-hoch-7569076.html

[PETE2] https://www.helmholtz-muenchen.de/epi2/the-institute/staff/staff/ma/362/Prof.%20Dr.-Peters/index.html

[SELB] http://derstandard.at/2000059138106/Merkel-Selbstfahrende-Autos-in-zwanzig-Jahren-Pflicht

[SPIE] Kommentator #7 HansGustor in http://www.spiegel.de/spiegel/stuttgart-eine-autostadt-auf-der-suche-nach-einer-neuen-mobilen-zukunft-a-1161847.html#js-article-comments-box-pager

[SUED] http://www.sueddeutsche.de/auto/internationale-automobil-ausstellung-merkels-motorvisionen-1.29734

[THAL] European Environment Agency EEA Report No28/2016 Air Quality in Europe – 2016 report https://www.eea.europa.eu/publications/air-quality-in-europe2016

[TUDA] http://indigo.meteor.tu-darmstadt.de/umet/script/Kapitel1/kap01.html#%C3%BCber1-6-3

[UBA] UBA Bericht Entwicklung der Luftqualität in Deutschland UBABerichtLuftqualität3760-6 (2009)

 




Das Trump’sche Energiezeitalter

Wenn man nach einigen Wochen USA wieder zurück ist und das Zwangsgebühren-Fernsehen einschaltet, glaubt man Nachrichten von einem anderen Stern zu sehen. Jedenfalls ist Washington ferner, als einst Bonn für “Aktuelle Kamera” und den “Schwarzen Kanal” gewesen sind. Es ist deshalb dringend zu raten, sich etwas näher mit der Energiepolitik der USA zu beschäftigen.

Was will Trump?

Hier wird immer noch von einer “Unberechenbarkeit des POTUS (President Of The United States)” geschwafelt. Die Wirklichkeit ist anders: Für deutsche Verhältnisse offensichtlich unbegreiflich, handelt es sich bei Trump um einen Mann – die Bezeichnung Politiker wird an dieser Stelle bewußt nicht verwendet – der das ausspricht, was er denkt und es anschließend auch umsetzt. Wer die unzähligen Wahlkampfauftritte aufmerksam verfolgt hat, ist von keinem seiner Schritte überrascht.

Trump ist kein Politiker und er wird wahrscheinlich auch nie einer werden, weil er es gar nicht sein will. Er ist ein Vollblut-Unternehmer in des Wortes ursprünglicher Bedeutung. Der Kosmos “Washington” ist ihm so fremd und so zuwider, daß er nur noch vom Sumpf spricht. Getreu seinem Vorbild Ronald Reagan: Der Staat ist nicht die Lösung, der Staat ist das Problem. Bezeichnenderweise wird genau dieser Präsident bis zum heutigen Tage in Deutschland gern als Schauspieler verunglimpft. Anders in den USA: Dort wird er – unabhängig von der Parteizugehörigkeit – inzwischen zu den zehn besten Präsidenten gezählt, die es je in der Geschichte der USA gegeben hat. Freilich gemessen an ihren Taten und nicht an irgendeinem Geschwafel aus den Lehrbüchern der “politischen Wissenschaften”. Obama war der Prototyp des Schönsprechers schlechthin. Er hat diesen Stil soweit auf die Spitze getrieben, bis er sogar farbige Wähler, Minderheiten und vor allem die sogenannte Arbeiterschaft (die traditionelle Wählerschaft der Demokraten) in das Trump’sche Lager getrieben hat.

Trump ist Patriot. Das kann man mögen oder nicht. Er wurde in Schule und Elternhaus so erzogen und er ist von der Kraft der Bibel und der Verfassung zutiefst überzeugt und kann aus beiden auswendig zitieren. Wer glaubt, >>America first again<< sei nur ein flotter Spruch einer Wahlkampfagentur gewesen, hat diesen Mann und seine Anhängerschaft in keiner Weise verstanden. Ganz im Gegenteil: Das gesamte Trumplager ist geradezu beseelt von dem Gedanken, die USA wieder großartig zu machen und sie haben auch ganz klare Vorstellungen wohin die Reise gehen soll: Mehr Wohlstand, mehr Freiheit und Verantwortung für den Einzelnen und größere Stärke nach außen, um diese Werte jederzeit verteidigen zu können – ein Frontalangriff auf jede linke Ideologie.

Wer sich hier der Illusion hingibt, ein paar “Kulturschaffende” oder gewalttätige “Antifanten” könnten den personifizierten linken Albtraum bald vertreiben, wird sich täuschen: Hält Trump Kurs, wird er mit überwältigender Mehrheit wieder gewählt werden und der “American way of live” wird wieder einmal für viele zum Vorbild werden. Wie zielstrebig und hartnäckig der “Baulöwe” ist, hat er bereits in seinem bisherigen Leben unter Beweis gestellt: Jedes seiner Bauprojekte war umstritten und von vielen “Experten” als undurchführbar erklärt worden. Gleichzeitig liegt aber in seinem Erfolg auch sein persönliches Risiko: Er könnte Opfer – wie Ronald Reagan – eines Attentats werden.

Der Stellenwert der Energie im Trump’schen Plan

Trump weiß, daß Energie die wirtschaftliche Schlüsselgröße ist: Mit Energie geht alles, ohne (preiswerte) Energie geht nichts. Er hat deshalb sofort mit der Entfesselung begonnen. Bereits in der Übergangszeit zwischen seiner Wahl und seinem Amtsantritt hat er zahlreiche Dekrete unterschriftsreif ausgearbeitet und diese ohne zu zögern bei Amtsantritt in Umlauf gebracht. Diejenigen in der Industrie, die ihm schon vorher aufmerksam zugehört hatten, haben sich parallel auf das zu erwartende vorbereitet. Die “Energieexperten” in Deutschland reiben sich noch heute die Augen, warum Benzin und Diesel plötzlich wieder rund 50 Eurocent in den USA kostet. Geschweige, begreifen sie auch nur annähernd die Konsequenzen. Sie verharren lieber weiter in ihrer Traumwelt aus Wind, Sonne und Elektroautos.

Wenn man Wohlstand will, muß man Arbeitsplätze gestatten. Für Arbeitsplätze braucht man ein nachgefragtes Produkt. Sich gegenseitig die Haare zu schneiden – wie es mal ein in Ungnade gefallener SPD-Politiker treffend formuliert hat – oder staatliche Arbeitsbeschaffungsmaßnahmen, bringen gar nichts. Öl, Gas und Kohle werden überall auf der Welt zu kalkulierbaren Preisen nachgefragt. Amerika hat sie in unvorstellbaren Mengen. Man muß nur Förderung, Abbau und Handel gestatten.

Wie einfach “Wirtschaftswunder” geht, kann man im gesamten Süden der USA beobachten. Mit den Bohrtürmen, Pipelines und Tanklagern kommen die Arbeiter, die so etwas bauen. Diese brauchen aber Essen und Unterkunft. Es entstehen überall Motels und Restaurants. Diese wiederum müssen gebaut und renoviert werden, was das lokale Handwerk fördert. Aus Dörfern werden Kleinstädte – wie einst im Ölboom der 1920er Jahre. Es folgen die Familien, die Schulen und Kindergärten etc.

Und die Löhne steigen. Ganz ohne Gewerkschaftsfunktionäre, sondern durch Nachfrage. Sicheres Anzeichen dafür, sind heute schon die Schilder am Straßenrand: Wir stellen sofort ein. Üblich sind für einen LKW-Fahrer im Ölgeschäft 1.500 bis 2.000 Dollar – pro normaler Arbeitswoche. Wer bereit ist, auch nachts und am Wochenende (Zuschläge) zu fahren, auf Urlaub verzichtet, kommt auf bis zu 200.000 Dollar Jahreseinkommen. Wohlgemerkt als LKW-Fahrer. Bei Steuern und Sozialabgaben, die davon sogar etwas übrig lassen. Viele ziehen das einige Jahre durch und haben dann ein schuldenfreies Eigenheim. Man sieht auch immer mehr Frauen im Transportsektor. Sie verdienen halt mehr, als eine Friseuse oder Kindergärtnerin. Gleichberechtigung auf Kapitalismusart, ganz ohne Gendergedöns.

Wie wurde der Ölboom möglich?

Fachleuten war schon immer klar, daß die Ölvorräte (bezogen auf die heutigen Förderraten) nach menschlichen Maßstäben schier unerschöpflich sind. Alles nur eine Frage der Fördermethoden und der aktuellen Preise. Akzeptiert man das, ist es nur ein kleiner Schritt, Förderbeschränkungen und Handelsschranken abzuschaffen. Befreit man sich erst einmal von Irrlehren wie “Peak Oil”, “Klimakatastrophe” und dem Försterspruch von der “Nachhaltigkeit”, geht alles ganz schnell.

Trump brauchte nur die diversen Bohr- und Förderschikanen aus der Obamazeit außer Kraft setzen und schon wurde wieder gebohrt. Je mehr gebohrt wird, um so mehr wird in die Technik investiert und um so billiger werden die Bohrungen. Selbst Fachleute sind über den Preisverfall erstaunt. Je billiger das Öl wird, um so mehr steigt die Förderung. Hinter diesem vermeintlichen Widerspruch steht einfach die unsichtbare Hand des Marktes. Ökonomisch betrachtet, besteht kein Unterschied zwischen Computern und Öl.

Das Öl muß aber noch zum Verbraucher. Pipelines sind nach wie vor die günstigste und sicherste Methode. Trump hat per Federstrich die Verbote von Obama außer Kraft gesetzt. Schon flossen die Milliarden in diesen Sektor. Über die fadenscheinigen Gefahren für die Umwelt, wird man in einigen Jahren nur noch schmunzeln, wenn man sich überhaupt noch daran erinnert.

Je mehr Öl und Ölprodukte exportiert werden, je geringer werden die Inlandspreise. Seit den 1970er Ölkrisen gab es gravierende Exportbeschränkungen in den USA. Getreu der Lehre vom “peak oil”mußte mit dem kostbaren Saft sparsam umgegangen werden. Öl und insbesondere Gas ist aber wertlos, so lange es nicht vom Bohrloch zum Verbraucher gelangen kann. Je schlechter die Transportkette ist, um so höher sind die Abschläge für den Förderer. Dies führte dazu, daß die Ölpreise in den Weiten der USA weit unter den Weltmarktpreisen lagen. Kein Anreiz für Investoren. Es wurden lieber Raffinerien an der Küste gebaut und teures Importöl verwendet. Je mehr die Exportbeschränkungen gelockert wurden, um so mehr stieg die Nachfrage an. Es trat das ein, was viele jahrelang bestritten haben: Die Preise an den Tankstellen sanken, denn plötzlich gab es Inlandsöl zu Weltmarktpreisen. Durch die Skaleneffekte sanken die Produktionskosten. Viel schneller, als sich Saudi Arabien etc. vorstellen konnten.

Der Gassektor

Ausgelöst durch die technische Entwicklung von Bohr- und Fördertechnik für Schiefergas – hier als “fracking” bezeichnet – gab es plötzlich Erdgas im Überfluß. Die Preise fielen gewaltig. Die Technik wurde schnell auf die Ölförderung übertragen. Zum Überdruss tritt aber selten Gas und Öl alleine auf. Zumeist kommt aus jeder Ölquelle auch Begleitgas und aus jeder Gasquelle zumindest auch Kondensat (damit wird Rohöl besonders dünner Konsistenz bezeichnet). Plötzlich hatte man auch – insbesondere in den Ölfördergebieten des Permian-Basin und Bakken – Erdgas im Überfluss. Es mußten schnellstens Pipelines gebaut und zusätzliche Nachfrage geschaffen werden. Übergangsweise blieb nur das Verfeuern in Gaskraftwerken, was die Sektoren Kohle und Kernenergie (vorübergehend) kräftig durcheinander brachte.

Inzwischen baut man riesige Gasverflüssigungsanlagen und eine ganze Tankerflotte. Ziel ist es, sich die weitaus höheren Weltmarktpreise für Erdgas zu erschließen. Durch die steigenden Inlandspreise kann man die Förderung weiter ankurbeln und die anderen Energiesektoren wieder weiterentwickeln.

Kohle

Die USA sind (auch noch) ein Kohlenland. Sie verfügen über riesige Vorräte, die sich überwiegend noch im Tagebau gewinnen lassen. Als Trump im Wahlkampf angetreten ist und den Bergleuten versprochen hat, ihnen ihre Arbeitsplätze zurückzugeben, hat jede Telepromter-VorleserIn in der deutschen Medienlandschaft sich bemüssigt gefühlt, ihn mit Spott und Häme zu überziehen. Inzwischen hat die erste Kohlenmine seit 45 Jahren neu eröffnet und die Produktion zieht langsam wieder an. Die Nachfrage steigt weltweit immer weiter. Nicht nur in Entwicklungsländern. Trump hat nie behauptet, daß er die Kohle ausschließlich in den USA verfeuern will. Auch hier hätte man besser zuhören sollen.

Für den Verbrauch im Inland liegt der Schlüsselpreis bei etwa 2,3 $/MMBtu (1 Million British Thermal Units entspricht etwa 293 kWh) Wärmepreis. Liegt der Erdgaspreis darunter, werden die Gasturbinen angeworfen. Steigt das Erdgas über diesen Wert, übernehmen die Kohlekraftwerke wieder die Stromproduktion. Eigentlich ein sehr flexibles System. Obama wußte das auch und hat deshalb versucht die Kohlekraftwerke durch “Klimaschutz” auszuschalten.

Als Trump bei seinem werbewirksamen Fernsehauftritt mit Bergarbeitern den Spuk der Obama-Administration zurückgenommen hat, hat er immer wieder beschwörend den Begriff “clean coal” benutzt. Darunter versteht man nicht einfach “saubere Kohle”, sondern es ist ein Fachausdruck für CO2-Abscheidung. Nicht etwa zum “Klimaschutz”, sondern die Ölindustrie wartet sehnsüchtig auf große CO2 Ströme. Wenn die endlich bereitgestellt werden, kann man für sehr kleines Geld die bereits versiegten Ölquellen wieder reaktivieren und die Märkte endgültig mit billigem Öl fluten. Auch dies eine Entwicklung, die in Deutschland völlig verdrängt und verschlafen wird. Hier redet man sich lieber gegenseitig von der Zukunft des Elektro-Autos besoffen.

 

Der politische Aspekt

In Deutschland wird den Menschen seit ihrer Schulzeit eingehämmert, daß die USA Kriege nur um Öl führen. Dies war zwar schon immer Blödsinn, gehört aber inzwischen zu den festen Glaubensbekenntnissen linker Gutmenschen. Wer ein Gefühl dafür haben will, wie tief diese Propaganda viele Amerikaner verletzt, sollte sich mal mit Veteranen des Golfkriegs unterhalten. Inzwischen schlägt die Reaktion geradezu in Trotz um. Man will nicht nur von Ölimporten unabhängig werden, sondern es den “Feinden Amerikas” heimzahlen und ihnen ihr bequemes Leben durch Öleinnahmen wegnehmen. Es ist kein Zufall, daß auf den Bohrtürmen in Texas die amerikanische Fahne weht und viele Öltanks in der Wüste mit “remember 9/11” verziert sind. Im konservativen Amerika hat man längst begriffen, daß die wahre Macht der USA nicht seine Bomber, sondern seine Wirtschaftskraft ist. Genau darum geht es den Kreisen um Trump und das ist der politische Hintergrund der Parole “Make America Great Again”.

Eine besondere Stellung nimmt hierbei das (alte) Europa ein. Die Kritik an den nicht eingehaltenen Zusagen über die Verteidigungsausgaben ist nur das erste Wetterleuchten am Horizont. Die Stimmung in der Bevölkerung geht schon viel weiter: Man versteht es nicht, warum Europa mit seinen Energieausgaben Rußland füttert und anschließend Amerika deshalb seine Rüstungsausgaben erhöhen muß. Auch in dieser Frage sollte man nicht vergessen, daß das Vorbild von Trump Ronald Reagan ist. Reagan hat das “Reich des Bösen” dadurch zur Implosion gebracht, indem er auf das Wettrüsten voll eingestiegen ist und die Spirale beschleunigt hat. Man nannte diese Strategie damals in Deutschland abfällig den “Krieg der Sterne”. Nach dem Zusammenbruch des Sowjetreiches folgte eine lange Periode der Sympathie für Rußland in den USA. Inzwischen schlägt die Stimmung um: Man fühlt sich wieder bedroht und hintergangen. In der Deutschland eigenen Realitätsverweigerung und dem völligen Unverständnis der amerikanischen Mentalität wird das hier zur Wahlkampfposse zwischen Trump und den Clintons verniedlicht. Die Falken in den USA kommen langsam in eine Stimmung gegenüber Putins Reich, wie gegenüber Japan nach Pearl Harbor. Wenn Rußland weiter aufrüstet und Weltreich spielt, werden sie ihre Panzer und Kernwaffen diesmal nach nordkoreanischem Vorbild essen müssen.

Amerika bereitet sich darauf vor, die Öl- und Gaspreise jederzeit ins Bodenlose fallen lassen zu können. Staaten – wie Deutschland – die auf Rußland setzen (Ostseepipeline etc.), werden mit in den Strudel gezogen werden. Die Amerikaner bevorzugen immer simple Lösungen: O.K., wir haben im Moment keine Waffe gegen die U-Boote der Nazis, also müssen wir Schiffe schneller bauen als die Deutschen sie versenken können – hört sich aberwitzig an, hat aber funktioniert. Wenn Rußland weiter aufrüstet, o. k. dann müssen wir ihnen eben ihre einzige Einnahmequelle kaputt machen, indem wir die Energiepreise unter ihre Produktionskosten senken – einmal so betrachtet, ist die Nord-Korea-Frage ein Testlauf. Das Energiewende-Deutschland wird schon in wenigen Jahren ein böses Erwachen haben.

Übernommen von NUKEKLAUS hier 




Deutschlands Autoindustrie: Mord auf offener Straße? – Ein perfides Spiel mit Klimaangst und fiktiven Abgas-„Todesopfern“ (1)

Wer wissen will, wie perfide das Spiel ist, das unsere Politiker derzeit mit dem Recht des Bürgers auf individuelle Mobilität spielen, dem sei empfohlen, in der Mediathek des ZDF die um 19.00 Uhr ausgesandte „Heute“-Nachrichtensendung des ZDF vom 9.8.2017 anzusehen. Unter „Strategien gegen Luftverschmutzung“ wird das Beispiel Düsseldorfs vorgestellt, wo die Stadt die „grüne Welle“ mancherorts unterbricht. Damit sollen, so der Kommentar, die Autofahrer gezwungen werden, abzubremsen und neu anzufahren, obwohl das mehr Schadstoffe bedeutet. Dies sei „Verkehrserziehung in Richtung Zukunft“.

Mit überlegenem Lächeln erläutert anschließend Thomas Geisel, SPD-Oberbürgermeister der Stadt Düsseldorf, seine Motive zu dieser bewussten Erhöhung der Luftbelastung in seiner Stadt wie folgt: „Das mag jetzt unter Schadstoffgesichtspunkten an der einen individuellen Stelle nachteilig sein, aber insgesamt geht es natürlich darum, die Menschen zu motivieren, die Bahn zu benutzen eher als das Auto…“

Das wurde so nonchalant dahergesagt, dass man sich der Ungeheuerlichkeit dieser Aussagen im ersten Moment gar nicht bewusst wird. Hier erklärt ein Oberbürgermeister einer Landeshauptstadt, dessen Stadt von der DUH („Deutsche Umwelthilfe“, manchmal auch als Toyotas ’Ndrangheta bezeichnet) wegen zu hoher Abgaswerte verklagt wird, dass er bewusst Maßnahmen ergreift, welche diese Belastung noch ansteigen lassen. Dabei halten Spitzenvertreter seiner Partei zudem Schauermärchen über „zehntausend Tote durch Autoabgase jedes Jahr in Deutschland“ für glaubwürdig und fordern mit dieser Begründung Fahrverbote. Wenn ein SPD-Politiker zugleich willentlich eine Steigerung dieser Abgasbelastung herbeiführt, kann man vermuten, dass er hier bewusst Leben und Gesundheit von Bürgern gefährdet. Für Juristen dürfte die Frage von Interesse sein, ob hier die Staatsanwaltschaft aufgrund eines begründeten Anfangsverdachts von sich aus tätig werden müsste oder ob Bürger der Stadt Düsseldorf selbst Klage erheben sollten. Es scheint berechtigt, hier von einem Bubenstück der besonderen Art zu sprechen.

Interessanterweise gibt es auch aus Stuttgart Hinweise darauf, dass die grün geführte Stadtverwaltung dort zu ähnlichen „Tricks“ greift. In einem Kommentar zu einem Bericht im „Spiegel Online“ ist zu lesen, dass an einer besonders kritischen Messstelle (Am Neckartor) die Straße Richtung Fellbach von zwei auf eine Spur verengt wurde, um einen Fahrradstreifen anzulegen, so dass sich dort die Pendler aufstauen. Zudem gibt es dort jetzt eine Abzweigung zu einem neuen Einkaufszentrum, dessen Parkhaus jeden Samstag komplett voll ist. Und last but not least gibt es direkt neben dem Neckartor eine riesige Baustelle, bei der regelmäßig schwere Nutzfahrzeuge hin- und herfahren.

Die NOx-Emissionen des Straßenverkehrs in Deutschland sind seit 1990 sowohl absolut (von 1,46 auf 0,491 Mio. t) als auch prozentual (von 50,7 auf nur noch 40,1 %) zurückgegangen (Grafik: Umweltbundesamt)

 

Meister der Doppelzüngigkeit

Mit seiner Haltung steht der SPD-OB Geisel selbstverständlich nicht alleine da, sondern befindet sich, wie man so schön sagt, im Mainstream. Auch seine Art des „Nudging“, also des hinterhältigen Manipulierens, hat größere Vorbilder. Es gibt in Deutschland Politiker, die ihre Schulung in einer Zeit und einer Republik erhalten haben, in der Grenzwachen „Republikflüchtlingen“ in dem gutem Glauben in den Rücken geschossen haben, die Obrigkeit habe dies befohlen. Hinterher hieß es, dass ein solcher Schießbefehl niemals existiert haben soll. Eine solche Fähigkeit, Menschen zu manipulieren und sie zu Handlungen zu veranlassen, zu denen sie sich bei klarer Kenntnis der Sachlage vermutlich nicht bereitgefunden hätten, war schon eine Meisterleistung. Politiker, die diese Kunst in verantwortlicher Position des Regimes verinnerlicht haben, sind es gewohnt, ihre wahren Absichten zu verstecken und wenn möglich andere vorzuschieben, damit diese die Drecksarbeit machen. Wer sich in diesem Dschungel zurechtfinden will, muss lernen, dem gesprochenen oder geschriebenen Wort nicht blind zu vertrauen, zwischen den Zeilen zu lesen und vor allem die Fakten zu beachten.

Der Rückgang der transportbedingten Schadstoffemissionen ist auch europaweit zu beobachten (Grafik: [THAL])

 

Das eigentliche Ziel heißt „Dekarbonisierung“

Die politische Elite, die Deutschland im Moment führt, hat sich voll und ganz dem Ziel der „Dekarbonisierung“ unserer Volkswirtschaft verschrieben. Dies ist eine der wesentlichsten Triebkräfte des Handelns insbesondere der Mehrheitsparteien, ein Ziel, an dem sie seit mindestens einem Jahrzehnt geduldig und mit allen ihr verfügbaren Mitteln und Methoden arbeiten. Autos, deren Verbrennungsmotoren fossiles CO2 ausstoßen, haben in diesem Weltbild keinen Platz. Entsprechende Aussagen tätigten maßgebliche PolitikerInnen bereits 2009: „Während die Autobranche mit der 63. IAA mühsam versucht aus der Krise zu fahren, fordert Bundeskanzlerin Merkel nichts geringeres als die Neuerfindung des Automobils“ und verlangte „von den deutschen Herstellern einen Entwicklungsschub hin zu umweltfreundlicheren Motoren“. Es gelte, „das Auto fast wieder neu zu erfinden, nämlich völlig neue Antriebstechnologien zu entwickeln“ [SUED]. Bereits damals gab es Planungen, bis 2020 mindestens eine Million Elektromobile auf deutsche Straßen zu bringen, die von höchster Stelle als „ehrgeizig, aber notwendig“ bezeichnet wurden. Da die Kfz-Hersteller sich jedoch halsstarrig zeigten, wurden im Rahmen einer Langfristplanung geeignete „erzieherische Maßnahmen“ auf den Weg gebracht. Die faulen Ausreden der unwilligen Automanager, dass es keine ausreichende Nachfrage nach E-Fahrzeugen gebe und der Markt von ihnen andere Fahrzeuge verlange, durften schließlich nicht ungestraft bleiben. Die Umsetzung der gewünschten „Erziehungsmaßnahmen“ erforderte jedoch die Ausarbeitung einer ausgeklügelten und langfristig angelegten Strategie.

Die historischen Karten der NO2-Jahresmittelwerte in Deutschland belegen den ständigen Rückgang der NO2-Gehalte in der Luft (Grafik: Umweltbundesamt)

 

Grünlinke Traumwelten

Zum Leidwesen solcher „verantwortungsbewusster“ Politiker ist es im heutigen Deutschland jedoch schwieriger, die Bevölkerung zum „richtigen“ Konsumverhalten zu motivieren, als noch vor einigen Jahrzehnten im östlichen Deutschland. Dort konnte es solche Flausen der Untertanen erst gar nicht geben, weil es nur ein einziges Automodell gab, und selbst das konnte man nicht mal so eben kaufen. Aber die Politikerkaste ist flexibel und wächst mit ihren Aufgaben. Zunächst galt es, sich die Deutungshoheit zu sichern. Der Bevölkerung musste klargemacht werden, dass ganz Deutschland eine Art Naturparadies zu sein hat. Dabei wird einfach ausgeklammert, dass Zivilisation nicht nur Vorteile wie warme Wohnungen, Kleidung und Nahrung sowie Antibiotika und moderne Medizin ermöglicht, sondern unabdingbar auch gewisse Belastungen mit sich bringt. Dazu gehört die Beanspruchung durch körperliche Arbeit ebenso wie Beeinträchtigungen der Gesundheit durch Gift- und Reizstoffe sowie Schäden an Natur und Umwelt. Früher gab es in den westlichen Gesellschaften einen gewissen Grundkonsens darüber, dass man hier Kompromisse einzugehen hatte. Es galt, die zivilisatorisch gewünschten Vorteile nicht zu gefährden, dabei jedoch die zu akzeptierenden Nachteile auf ein vertretbares Minimum einzugrenzen. Heute geht dieser Konsens jedoch immer weiter verloren, insbesondere bei den großstädtischen Eliten. Hier tummeln sich alle möglichen grünen und linken Ideologien, welche dem Glauben anhängen, man habe ein Anrecht darauf, die Vorteile einer technologisch fortgeschrittenen Industriegesellschaft uneingeschränkt zu genießen, ohne dafür irgendwelche Kompromisse eingehen zu müssen. Diese moderne urbane Spaßgesellschaft wünscht sich eine Fahrradrepublik mit bedingungslosen Grundeinkommen und einer Umwelt wie in einem hochalpinen Luftkurort, ergänzt um eine schrankenlose Willkommenskultur für Wirtschaftsflüchtlinge aus jedem „failed state“ dieser Welt. Diese Ideologien werden von einem Großteil der Medien mit großer Verve unterstützt. Hierdurch erhalten sie einen überproportional großen Einfluss auf die öffentliche Meinung und damit auf die Politik.

Die Lebenserwartung der deutschen Bevölkerung ist mit der Weiterentwicklung unserer technischen Zivilisation ständig gestiegen (Grafik: Statistisches Bundesamt)

 

Die beste Luft seit 100 Jahren

Die deutsche Bevölkerung atmet heute die beste Luft seit mindestens 100 Jahren. Früher gab es in den Häusern offene Kamine und Herde, geheizt wurde überwiegend mit Holz, dessen schädlicher Rauch karzinogene Substanzen in der Raumluft verteilte. Auch Kerzen sowie Petroleumlampen sind massive Quellen schädlicher Luftschadstoffe, denen die Bevölkerung tagein, tagaus ausgeliefert war. In den Städten und Industriegebieten gab es keinerlei Abgasbehandlung. Noch in den 60er Jahren kam es im Ruhrgebiet zu Todesfällen durch Smog, einer giftigen Mischung aus unbehandelten Abgasen (Ruß, Staub, SO2) und Nebel. Mit der Einführung entsprechender Gesetze und der Installation von Abgasbehandlungsanlagen hat sich die Qualität der Luft seither ständig und in erheblichem Umfang verbessert, wie sich anhand langjähriger Vergleiche des Umweltbundesamts unschwer dokumentieren lässt. Waran liegt es also, dass man derzeit von fast allen Parteien und aus allen Medien den Eindruck erhält, die Luft in unseren Städten werde durch gierige und rücksichtslose Automanager so verpestet, dass jährlich abertausende Menschen an den Folgen sterben. Es sei deshalb unausweichlich, dass man um der Volksgesundheit willen so schnell wie möglich ein Verbot von Verbrennermotoren anstreben müsse? Wobei der Diesel zwar derzeit die meisten Prügel abbekommt, der Benziner jedoch ebenfalls bereits zum Tode verurteilt wurde.

Auf europäischer Ebene ist der Straßentransport nur mit 13 % an der Emission des besonders kleinteiligen Feinstaubs PM2.5 beteiligt (Grafik: [THAL])

 

Verleumdungen statt Tatsachen

Wenn man sich die Vorwürfe gegen den Diesel, der im Moment als Sündenbock herhalten muss, einmal genauer ansieht, so stellt man fest, dass diesem Dinge unterstellt werden, die gar nicht den Tatsachen entsprechen. So wird in den Medien häufig suggeriert, dass Diesel-PKW Hauptquelle sowohl von Feinstaub als auch von Stickoxiden (NOx) seien und ihre Abgase Krebs sowie Lungen- und Kreislauferkrankungen auslösen würden. Dabei stimmt dies für Diesel-PKW spätestens ab der seit 2009 geltenden Schadstoffklasse Euro 5 nicht, weil sie seitdem mit einem Rußpartikelfilter ausgerüstet sein müssen. Der Diesel unterscheidet sich vom Benziner lediglich durch einen höheren Ausstoß von Stickstoffoxid (NO), das sich an der Atmosphäre dann zu Stickstoffdioxid (NO2) umwandelt. Über die Gesundheitsgefahr dieser Mischung, die unter dem Sammelbegriff NOx zusammengefasst wird, werden alle möglichen abstrusen Behauptungen in die Welt gesetzt. Dabei sind diese vergleichbar einfachen chemischen Substanzen der Wissenschaft seit gut 100 Jahren bekannt. Auch ihre gesundheitlichen Auswirkungen sind seit vielen Jahrzehnten immer wieder sorgfältig untersucht worden. In den Konzentrationen, in denen sie in der Atmosphäre unserer Städte vorkommen, sind sie höchstens lästig bis irritierend, keinesfalls aber gefährlich. Da sie auch an Arbeitsplätzen – z.B. im Bereich der chemischen Industrie – auftreten, wurden hierzu nach umfassenden Untersuchungen durch Fachgremien sogenannte MAK-Grenzwerte festgelegt. Diese MAK-Werte werden als unbedenklich für Gesunde eingestuft, selbst wenn diese dem Grenzwert über Jahre hinweg an 8 Stunden jeden Arbeitstags ausgesetzt sind. In Deutschland galt für NO2 noch 1994 ein MAK-Wert von 9 mg/m3 [NIEM], in der Schweiz sind es bis heute 6 mg/m3.

Die Anzahl der Überschreitung des Ozon-Grenzwerts von 180 µg/m3 ist seit Jahrzehnten rückläufig (Grafik: Umweltbundesamt)

Inzwischen wurde – vermutlich aufgrund von Pressionen linksgrüner politischer Kräfte – der MAK-Wert für NO2 in Deutschland drastisch um einen Faktor von fast 10 auf nur noch 0,950 mg/m3 heruntergesetzt. Für die beiden Einzelbestandteile gelten weiterhin auch separate MAK-Werte. Beim NO liegt dieser in Deutschland bei 0,63 mg/m3, in der Schweiz dagegen bei 3 mg/m3 [NOMA]. Die oft vertretene Ansicht, dass Asthma-Patienten und Menschen mit chronischer Bronchitis auf erhöhte NO2-Werte empfindlicher reagieren als Gesunde, wird in relevanten Datensammlungen zu den Gesundheitsrisiken nicht unterstützt [NO2GE]. Auch in den Empfehlungen des Wissenschaftlichen Komitees der EU für Grenzen beruflicher Exposition gegenüber NO2 [NOAEL] ist nachzulesen, dass trotz intensiver Überprüfung der Literatur keine eindeutigen Erkenntnisse bezüglich einer nachteiligen klinischen Wirkung von NO2 auf Personen mit Asthma, chronischen Lungenerkrankungen oder Bronchitis vorliegen. In der dort aufgeführten Literatur finden sich Studien über Bergarbeiter in einem Salzbergwerk. Diese waren Dieselabgasen (Ruß + NO + NO2) in Kombination mit den im Bergbau üblichen Belastungen (Staub) unter bergbautypischen körperlichen Belastungen bei NO2-Gehalten bis zu 7,6 mg/m3 ausgesetzt waren. Dabei konnte kein Zusammenhang mit Atembeschwerden oder Husten festgestellt werden.

Noch ungefährlicher als NO2 ist das NO, das im primären Dieselabgas den weit überwiegenden Anteil des NOx ausmacht. NO bewirkt keine Reizerscheinungen an den Schleimhäuten und ist zudem ebenso wie NO2 weder reproduktionstoxisch noch mutagen oder krebsauslösend [NOMA]. Es stellt sich daher die Frage, warum man überhaupt NOx-Werte (d.h. die Summe aus NO und NO2) heranzieht, statt lediglich den NO2-Gehalt zu bestimmen. Möglicherweise vor allem deshalb, weil die gemessenen Werte dadurch im „grünen“ Sinne aufgebläht werden und man leichter zu Grenzwertverletzungen kommt.

Fasst man das ungefährlichere NO mit NO2 zu NOx zusammen, so erhält man deutlich höhere Werte als bei reiner Betrachtung des NO (Grafiken: [UBA])

 

Konzentrierte Dieselabgase im Tierversuch

Dass die Abgase moderner Dieselfahrzeuge mit Feinstaubfilter bei weitem nicht so schädlich sind wie vielfach behauptet, wurde in den USA 2015 von McDonald et al. durch eine eingehende experimentelle Untersuchung an Ratten nachgewiesen [MCDO]. Hierbei wurden die Versuchstiere über Zeiträume von bis zu 30 Monaten für 16 Stunden am Tage und an 5 Tagen in der Woche in einer kontrollierten Abgasatmosphäre gehalten, die auf der höchsten Stufe einen NO2-Gehalt von 8,4 mg/m3 aufwies, das ist rund das neunfache des deutschen MAK-Werts. Dabei ergaben sich kaum Hinweise auf karzinogene Wirkungen. Selbst bei den höchsten Abgaskonzentrationen zeigten sich an den Lungen der Versuchstiere nur minimale bis leichte Schädigungen….

wird fortgesetzt…




FakeNews: ..Brände von Elektrofahrzeugen sind im Vergleich zu Bränden bei Benzinfahrzeugen relativ selten!

Die Wahrheitspostille Nr 1 (oder ist es Nr. 2, oder 3 oder,,,) der deutschen Medienlandschaft FOCUS Online meldet am 21.8.17

„Elektrische Streetscooter Brand nach technischem Defekt: Drei Elektro-Transporter der Post zerstört!“

In einem relativ sachlichen Bericht wird erläutert, dass…

Drei Lieferwagen vom Typ Streetscooter fingen wegen eines technischen Defekts Feuer.

Und weiter

Nach Auskunft der Polizei entstand ein Sachschaden in Höhe von 250.000 Euro. 30 weitere Transporter wurden durch Ruß und Hitzeeinwirkung beschädigt, so die Polizei. Verletzt wurde niemand.

Dann –man schreibt mal eben die Fakten bei Kollegen ab…

Wie die „Rhein-Neckar-Zeitung“ unter Berufung auf die bisherigen Ermittlungen berichtete, sollen die Akkus der elektrischen Postautos die Ursache des Feuers sein. Dem widerspricht allerdings jetzt ein Sprecher der Deutschen Post: Der Akku sei bisherigen Erkenntnissen nach nicht die Brandursache gewesen…

Soweit so klar, der eine glaubt es seien die Akkus gewesen, der andere mit seinem speziellen (Förder)-Interesse widerspricht. Soweit so fair.

Dann aber der Hammer: So schreibt der/die anonyme AutorIn und besinnt sich dabei auf seine unmittelbare Pflicht Propaganda für das einzig Gute, Wahre, Schöne zu machen, Und dichtet :

Brände von Elektrofahrzeugen sind im Vergleich zu Bränden bei Benzinfahrzeugen relativ selten und lassen sich meistens auf zwei Ursachen zurückführen: Entweder durch aufgerissene Akkus bei schweren Unfällen oder durch technische Probleme beim Aufladeprozess.

Das muss man sich auf der Zunge zergehen lassen:

Brände von Elektrofahrzeugen sind im Vergleich zu Bränden bei Benzinfahrzeugen relativ selten

Ein einfacher Dreisatz zeigt, dass bei nur 3 (1) von ca. 25.000 E-Fahrzeugen (Bestand 2016) auf deutschen Straßen ca. 5.040 (korr. 23.8.17) Auto-Bränden von im wahrsten Sinne des Wortes Verbrennern (bei 42 Mio KfZ) auf deutschen Straßen entsprechen?

Das vorhersehbare Ergebnis dieser Massenzerstörung:

Die Medien würden Amok laufen, alle Zeitungen wären voll, Sondersendungen Tag und Nacht berichten, die Grünen hätten es schon immer gewusst, die Deutsche Umwelthilfe sowieso und würde nach strengeren Brandschutzgrenzwertregeln rufen, dann alle anderen abmahnen und Schadensersatzklagen einreichen, die anderen Parteien die Manager beschimpfen und die Kanzlerin würde sofort einen weiteren Verbrenner-Verbots-Gipfel mit sofortiger Verbotswirkung einberufen.

Nur, so etwas passiert beim Lieblingskind aller Grün-Bewegten – dem E-Auto- in diesem Land nicht. Und sei es noch so gefährlich.

Trotzdem stelle ich meine bisher ungeklärte Frage:

Wie kommt der AutorIn auf „relativ selten“?

Einzig mögliche Antworten

  1. Er/sie kann nicht rechnen

und

  1. Er/sie will verdummen, d.h die Leser auf sein(ihr Niveau herabziehen.

Ich fürchte es wird ihm/ihr sogar gelingen.

 

(1) Die anderen Brände bei E-Autos- über die so gut wie nicht berichtet wird- sind in diesem Vergleich nicht berücksichtigt. Eine aussagefähige Erhebung dazu liegt mir nicht vor.

 

 

 




Gefährliche Ladung – Die E-Auto sind Energieverschwender, die Batterien giftige Umweltsünder erster Klasse

In Zeiten, in denen Industrie, Politik und Justiz versuchen, die Dieselkrise zu bewältigen, scheint es keine löblichere Fortbewegungsart zu geben als die mit Elektrizität. Diesen Eindruck erwecken zumindest all die Politiker- und Zeitungskommentare, die den Stromantrieb als bessere Alternative zum Verbrennungsmotor preisen. Elektroautos seien ökologischer und schonten die Ressourcen, so der Tenor. So propagierte der Tages-Anzeiger die E-Mobilität mit dem Argument, es brauche «einen effizienteren und sparsameren Umgang mit Energie». Bereits plant der Verein E-Mobil Züri, mitten in der grössten Schweizer Stadt ein Elektroauto-Rennen zu veranstalten. Wäre Gleiches mit Kraftstoff-Boliden geplant, würde man eine solche Idee wohl als Aprilscherz erachten.

In anderen Weltgegenden scheint man von den Vorteilen der E-Mobilität weniger überzeugt zu sein. So brummten die Verkehrsbehörden von Singapur letztes Jahr dem Käufer eines Tesla S eine Umweltsteuer von umgerechnet über 10 000 Franken auf – mit dem Hinweis, das Fahrzeug brauche besonders viel Energie, nämlich über 44 Kilowattstunden (kWh) Strom pro 100 Kilometer. Dabei benötigt die elektrische Luxuskarosse aus dem Silicon Valley gemäss Katalog doch nur 18 kWh. Singapurs Behörden sind aber nicht etwa von allen guten Öko-Geistern verlassen, sondern mit einer Extraportion Sachverstand gesegnet. Denn Elektroautos verschlingen tatsächlich besonders viel Energie. Dies zeigt folgende Berechnung.

Tieferer Wirkungsgrad im Winter

Gemäss den Prospekten ihrer Produzenten benötigen gängige Elektroautos – vom Nissan Leaf über den VW E-Golf, den Mitsubishi i-MiEV bis hin zum neuen Tesla 3 – bloss rund 15 kWh Strom pro 100 km, manche etwas mehr, manche etwas weniger. Grundsätzlich weiss jeder Autofahrer, sei er nun mit Strom oder Brennstoff unterwegs, dass solche Herstellerangaben bloss Theorie sind. Die Werte werden unter Bedingungen ermittelt, die mit dem realen Strassenverkehr fast nichts gemeinsam haben: Die Prüfzyklen finden auf Rollen statt und sind von tiefen Geschwindigkeiten und sanften Beschleunigungen geprägt. Zusatzverbraucher wie etwa Scheinwerfer sind ausgeschaltet. Fahrtwind gibt es im Labor auch keinen. Laut dem Forschungsverband ICCT (International Council on Clean Transportation) liegt der tatsächliche Verbrauch von Autos mit Verbrennungsmotor im Schnitt happige 42 Prozent über den offiziellen Angaben. Bei Elektrofahrzeugen klaffen Realität und Theorie aber noch viel weiter auseinander: Das deutsche Prüfunternehmen TÜV Süd ermittelte 2014 den Verbrauch einiger gängiger Elektroautos bei realen Testfahrten. Es zeigte sich, dass im Schnitt 31 kWh Strom für 100 km nötig sind, wenn man je zur Hälfte auf Landstrassen und auf Autobahnen fährt – also rund doppelt so viel als von den Herstellern angegeben.

Doch das ist erst die halbe Wahrheit, denn TÜV Süd testete bei Temperaturen von 23 Grad. Bei Kälte steigt der Strombedarf von Elektrofahrzeugen jedoch deutlich: Der Wirkungsgrad der Batterie ist dann viel tiefer, und die Fahrerkabine kann nicht wie bei konventionellen Autos durch die Abwärme des Verbrennungsmotors geheizt werden. Dänemarks Technische Universität zeigte 2016 anhand von Messungen, dass Elektroautos im Winter ein Drittel mehr Energie benötigen als im Sommer. Davon kann man ableiten, dass der Verbrauch bei ganzjährigem Gebrauch in der Schweiz (Durchschnittstemperatur etwa neun Grad) 11 Prozent höher liegt als bei den Tests von TÜV Süd.

Beträchtliche Ladeverluste

Weiter sind Ladeverluste zu beachten. Hängt ein Elektroauto an der Steckdose, kann die Batterie nur einen Teil der übertragenen Energie speichern. Gemäss Tests, etwa des deutschen Wuppertal-Instituts, gehen zwischen 10 und 30 Prozent als Wärme verloren, wobei die Verluste bei Schnellladungen grösser sind. Wird bei tiefer Aussentemperatur geladen, kann der Verlust sogar fast 50 Prozent betragen. In diesem Artikel soll ein durchschnittlicher Ladeverlust von 20 Prozent angenommen werden.

Geht man also von einem Verbrauch von rund 31 kWh (gemäss TÜV Süd) bei Sommerbetrieb aus und addiert 11 Prozent bei Ganzjahresbetrieb und 20 Prozent wegen Ladeverlusten, müssen an den Ladestationen rund 41 kWh Strom bereitstehen, damit ein Elektroauto 100 Kilometer weit fahren kann. Der reale Verbrauch ist somit über 2,5-mal so hoch als von den Herstellern angegeben.

Für eine Bilanz ist nicht nur die Betriebsenergie massgebend, sondern auch diejenige für die Fahrzeugherstellung. Bei Elektrofahrzeugen ist insbesondere die Produktion der Batterien sehr energieintensiv. Wegen Erschöpfung müssen diese Batterien zudem nach einigen Jahren Betrieb ersetzt werden. Bei einer durchschnittlichen Nutzung des Fahrzeugs müssen mindestens 15 kWh pro 100 Kilometer Fahrt dazugerechnet werden. Batterien enthalten zudem hochgiftige Stoffe, von denen auch bei konsequentem Recycling ein Teil entsorgt werden muss. Lithium, das besonders häufig verwendet wird, ist ähnlich toxisch wie schwach bis mittel radioaktive Stoffe. Das bedeutet, dass eine ebenso sichere Endlagerung wie bei Atomabfällen nötig ist (siehe Artikel rechts) – was mit beachtlichem Energieaufwand verbunden ist: Für 100 Kilometer Elektrofahrt kommen darum mindestens 3,5 kWh dazu. Insgesamt beträgt der Energieaufwand für Elektroautos auf Schweizer Strassen somit etwa 60 kWh pro 100 km.

Dieser Wert soll mit einem Auto mit Benzinmotor verglichen werden: Für dieses wird ein durchschnittlicher Verbrauch von acht Litern pro 100 Kilometer angenommen – bei realen Nutzungsbedingungen und ganzjährigem Gebrauch. Um diesen Verbrauch mit demjenigen von Elektromobilen in Relation zu setzen, muss man den Energiegehalt von Benzin heranziehen und beachten, dass die Produktion von Strom mit beträchtlichen Energieverlusten einhergeht (Wirkungsfaktor für die Erzeugung von Elektrizität aus Primärenergie gemäss  BP: 0,38). Insgesamt kann ein Liter Benzin so mit 3,4 kWh Strom gleichgesetzt werden. Ein Verbrauch von acht Litern entspricht somit rund 27 kWh Strom pro 100 km. Ein Zuschlag für Herstellung und Entsorgung des Benzinantriebs drängt sich nicht auf, da der entsprechende Energieaufwand vernachlässigbar klein ist. Ein Elektrofahrzeug mit 60 kWh pro 100 km verbraucht somit mehr als doppelt so viel Energie wie ein Fahrzeug mit Benzinmotor. Ein Vergleich mit einem Dieselfahrzeug dürfte noch schlechter ausfallen. Elektromobilität bedeutet also Energieverschwendung der Extraklasse.

Auch bei den anderen ökologischen Vorteilen handelt es sich weitgehend um leere Behauptungen. Sogenannt sauber sind E-Mobile nur, wenn man lediglich den Betrieb beachtet. Berücksichtigt man die Produktion des Stroms für diesen Betrieb, schneiden E-Mobile bezüglich Klimagasen nur dann klar besser ab als konventionelle Autos, wenn der Strom weitgehend CO2-frei erzeugt wird (vergleiche Weltwoche Nr. 32/17). Das ist in der Schweiz heute dank Wasser- und Atomkraft zwar noch der Fall. Es braucht aber viel Optimismus, zu glauben, dass die Versorgung auch nach dem beschlossenen Atomausstieg ohne fossilen Strom erfolgen kann. Ein Umstieg auf Elektrofahrzeuge im grossen Stil würde zudem den Stromverbrauch deutlich erhöhen. Die Empa geht davon aus, dass die Nachfrage um einen Fünftel steigt, falls alle Autos in der Schweiz elektrisch betrieben würden. Ohne den Einsatz von CO2-intensivem Gas- oder Kohlestrom wäre diese Nachfrage kaum zu bedienen.

Wegen des erwähnten grossen Energieaufwands entstehen zudem bei der Herstellung der Batterien enorme Mengen an CO2. Gemäss einer neuen schwedischen Studie müssen Besitzer eines Tesla Model S acht Jahre lang fahren, bis das CO2, das bei der Batterienproduktion freigesetzt wurde, kompensiert ist. Nach acht Jahren Betrieb ist aber wohl längst ein erster Batterientausch fällig.

Die Grüne Partei verlangt, dass die Schweiz ab 2025 keine neuen Autos mit Verbrennungsmotor mehr zulässt, sondern nur noch Elektromobile. Der Schaden für die Umwelt wäre enorm, sollte Bundesbern dieser Forderung nachkommen.

*Ferruccio Ferroniist diplomierter Ingenieur ETH.

Batterien

Lithium, ade!

Setzen sich Elektroautos  im grossen Stil durch, gibt es ein Rohstoff- und Giftmüllproblem.

Bei Elektromobilen kommen meist Batterien auf Basis von Lithium zum Einsatz. Denn mit dem Alkalimetall kann, verglichen mit dem Gewicht, am meisten Energie gespeichert werden. Auch Lithium-Batterien erschöpfen sich aber. Nach etwa 500 Ladevorgängen muss man sie ersetzen. Ein Set Batterien für den neu auf den Markt gekommenen Tesla 3 benötigt elf Kilogramm Lithium. Ist das Fahrzeug zwölf Jahre in Betrieb und legt es dabei total 150 000 Kilometer zurück, müssen die Batterien wegen der Erschöpfung zweimal ersetzt werden. Für die Lebensdauer eines Tesla 3 sind somit 33 Kilogramm Lithium nötig.

Setzt sich die Elektromobilität durch, droht ein Rohstoffproblem: Gemäss der US-Behörde Geological Survey betragen die weltweiten Lithium-Reserven 14 Millionen Tonnen. Falls davon die Hälfte für Elektrofahrzeuge verwendet wird (Batterien werden auch für andere Zwecke benötigt), reichen die Reserven selbst bei idealem Re- cycling von Lithium nur für rund 400 Millionen Elektrofahrzeuge vom Typ Tesla 3 (inkl. Batterienersatz). Derzeit kurven aber 1,2 Milliarden Autos auf den Strassen der Welt herum. Es entsteht also ein Engpass, falls mehr als ein Drittel des motorisierten Verkehrs auf Elektroantrieb umstellt. Zwar könnte man Batterien anderen Typs verwenden. Der Aufwand für deren Produktion wäre aber noch höher als bei Lithium-Batte- rien, zudem stiege das Batteriengewicht. Die Energiebilanz der Elektromobilität würde nochmals deutlich schlechter.

Tödliche Gefahren

Dazu kommt, dass Lithium hochgiftig ist. Bereits bei einer Einnahme von wenigen Milligramm pro Tag drohen tödliche Gefahren für den Menschen. Setzt sich Elektromobilität breit durch, müssten jedoch mehrere Millionen Tonnen Lithium entsorgt werden, das nicht mehr recycelt werden kann. Der Aufwand, um eine sichere Isolation vor der Umwelt zu gewährleisten, ist vergleichbar mit dem für die Entsorgung schwach- bis mittelradioaktiver Abfälle. In der Schweiz müsste man wohl die Nagra mit der Endlagerung von Lithium beauftragen. Die entsprechend hohen Kosten hätten die Elektroautofahrer zu tragen.

Ferruccio Ferroni und Alex Reichmuth

übernommen von Die Weltwoche hier

Anmerkung der Redaktion

in einem Mailwechsel mit Autor Ferroni wurde festgestellt, dass gem. John Petersen von Seeking Alpha Rohstoffspezialist u.a. für Lithium und Kobalt und Kritiker von TESLA sowie  von Battery University and Avicenne Energy in einer TESLA Model 3 Batterie 93 Kg Kobalt verbaut sind,(d.h. 1.44 kg Co pro kWh Kapazität). Aus diesem Grund wird die Nachfrage nach Kobalt rasant steigen und die Schlussfolgerungen des Artikel in EIKE über die furchtbare völlig inakzeptable Lage der Kinderarbeiter darunter Kleinkinder ab 4 Jahren, die für den Abbau in Demokratischen Republik Kongo schuften müssen, evtl. nur der Anfang sind.




Der C-Kreislauf – ein neuer umfassender Ansatz!

Dr. Peter Vögele, Biologe

Zusammenfassung:

Das Standardmodell für den C-Kreislauf geht davon aus, dass die CO2-Konzentration der Atmosphäre seit 800 000 Jahren bis zu Beginn des Industriezeitalters niemals den Wert von 280 ppm überschritten habe und erst danach auf säkular einmalige Werte von ca. 400 ppm angestiegen sei (1). Ferner wird angenommen, dass der Austausch von CO2 zwischen Atmosphäre , Ozean und Biosphäre vor der Industrialisierung zu einem quasi stabilen Klimazustand geführt hätte, der erst durch die relativ kleine, aber zusätzliche menschliche Quelle aus der Kontrolle geraten sei (2). Der durch den Menschen verursachte Anteil an der globalen CO2-Emission wird auf lediglich 3% geschätzt, der aber über Hunderte von Jahren kumuliert, eine bedrohliche Prognose für die Zukunft liefern soll. Diese Prognose besteht erstens in einer globalen Temperaturerhöhung in Folge eines „Treibhauseffekts“ und zweitens in der „Versauerung“ des Meeres, weil ein Teil des zusätzlichen CO2 in Folge eines erhöhten Partialdrucks durch Diffusion auch in das Meer gelangt. Die dadurch verursachte Absenkung des pH-Wertes habe drastische negative Auswirkungen auf die Meeresorganismen (4,5).

Was ist falsch an diesem Modell?

  1. In der Erdgeschichte überwog der Verbrauch von CO2 durch die Photosynthese immer die CO2-Emission. Die Photosynthese hat eine CO2-Atmosphäre des Planeten in eine O2-Atmosphäre verwandelt. Ein „Gleichgewicht“ bzw. ein „stabiler Klimazustand“ sind fiktive Annahmen.
  2. Es ist pure Ideologie, den gegenwärtigen Anstieg des CO2 in der Atmosphäre auf einen marginalen anthropogenen Beitrag zurückzuführen. In einem guten Modell sollten alle, insbesondere die großen, Kohlenstoff-Flüsse berücksichtigt werden. Der schnelle gegenwärtige CO2-Anstieg (inclusive der C-Isotopenverschiebung) ist nicht einmalig.
  3. Das Modell ist statisch (Quellen, Senken), rein physikalisch und extrem simplifiziert. Die Ursachen der Kohlenstoff- Flüsse sind biologischer Art und variieren durch Rück-Kopplung, z.B. steigendes CO2 ergibt steigende Photosynthese. Die Änderungen der Flüsse gehen nicht in die Modelle ein.
  4. Der Austausch zwischen Meer und Atmosphäre wird von der biologischen und der physikalischen Pumpe getrieben. Die Annahme, dass der Austausch durch simple Diffusion wegen des marginal höheren Partialdrucks in Folge der anthropogenen Verbrennung stattfinde, ist nicht nur falsch, sondern lächerlich.
  5. Bei Abschätzung aller Flüsse ist es wahrscheinlich, dass der gegenwärtige CO2-Anstieg durch Emission aus dem Meer entsteht.

 

Erdgeschichtlicher CO2-Verlauf

Vor 3,8 Milliarden Jahren umfassten die Ozeane ca. 90% der Erdoberfläche, die wegen der ungehinderten (fehlende Ozonschicht) UVC-Strahlung ohne Leben war. Die Atmosphäre enthielt damals ca. 10% CO2 (100 000 ppm) und absolut keinen Sauerstoff. Heute enthält die Atmosphäre 21% Sauerstoff und nur noch 0,0% CO2. Diese Umwandlung der Erdatmosphäre ist das Werk eines einzigen Bakteriums ( Prochlorococcus), das die Blaulichtkomponente in Meerestiefen bis 200 m zur oxygenen Photosynthese ausnützt und so vor der UV-Strahlung geschützt ist. Dieses Cyanobacterium und sein Stickstoff-fixierender Artgenosse Synechococcus sind auch heute noch für 50% der globalen Photosynthese verantwortlich (6). Während ca. 1 Milliarde Jahren wurde der Sauerstoff, den Prochlorococcus produzierte, zur Oxidation von Eisen und Silizium verwendet, bis der Sauerstoffgehalt vor 2,2 Milliarden Jahren auch in der Atmosphäre anstieg. Die Ozonschicht entstand ca. vor 1,9 Milliarden Jahren (7).

Die weitere Entwicklung ab der Biologischen Explosion im Kambrium (vor 542 Millionen Jahren) zeigt die folgende Abb. (16)

Vereinfacht gesehen, fällt die CO2-Konzentration bis nahezu Null am Ende des Carbon und steigt dann wieder auf 2500 ppm vor 150 Millionen Jahren an, um dann wiederum auf fast Null im heutigen Quartär zu fallen. Wenn man davon ausgeht, dass ab dem Kambrium zweifellos biologische Respiration (Atmung, Gärung, Zersetzung) stattfand, aber offensichtlich die Photosynthese (mit CO2-Verbrauch) überwiegt und deshalb ein „Gleichgewicht“ nicht konstruiert werden kann, dann stellt sich die Frage, wieso ein Boden der CO2-Konzentration bei ca. 150-200 ppm zweimal in der Erdgeschichte erreicht wurde. Das liegt daran, dass alle photosynthetisierenden Lebewesen bei niedrigem CO2-Gehalt der Umgebung Mechanismen zur Anreicherung entwickelt haben und ein Enzym Carboanhydrase, das die Umwandlung von gelöster Kohlensäure in gasförmiges CO2 katalysiert, weil Letzteres im Calvin-Cyclus gebraucht wird (8). Unter 200 ppm werden die Photosyntheseraten von C3 und C4-Pflanzen , von Algen und Bakterien extrem niedrig. Der starke Anstieg von CO2 im Perm wird auf vulkanischen Ausstoß zurückgeführt.

Bezüglich der Meeresversauerung in der Erdgeschichte folgen einige Abschätzungen von Zeebe (15) :

Vor 450 Millionen Jahren : 6000 ppm CO2 in der Luft und pH 7,4 im Meer

Vor 65 Millionen Jahren : 3000 ppm CO2 in der Luft und pH 7,6 im Meer

Vor 4,5 bis 2 Millionen Jahren: 525 – 200 ppm CO2 in der Luft und pH 8,0-8,3 im Meer.

 

Eisbohrkerne zur indirekten Ermittlung von CO2 (proxy-Methoden)

Vor etwa 2 Millionen Jahren begann das Eiszeit-Alter, in dem einer Eiszeit von ca. 100 000 Jahren eine Zwischeneiszeit von ca. 20000 Jahren folgt. Der Vorsitzende der Arbeitsgruppe 1 im IPPC , Prof. Stocker , ein Eiskernspezialist aus Bern, hat publiziert, dass am Ende einer Eiszeit erst die Temperatur steigt und mit einem Nachlauf von 800 Jahren erst das CO2 (9).

Während der Eiszeit liegen die CO2-Konzentrationen bei 200 ppm, in den Zwischeneiszeiten bei 280 ppm. Das impliziert, dass bei Beginn einer Zwischeneiszeit während mindestens 1000 Jahren ein CO2-Fluß aus dem Meer in Richtung Atmosphäre stattfand.

Um die Aussagekraft von Eisbohrkernen zu beurteilen, muss man wissen, dass die Umwandlung von Schnee über Firn bis zum Eis 200 Jahre dauern kann, in denen Diffusion von Gasen möglich ist. Eisbohrkerne können schnelle An-und Abstiege von CO2 innerhalb von 100- 500 Jahren nicht auflösen (10). Ferner ist der CO2-Gehalt in Polargebieten ca. 25 ppm niedriger wie Satellitenaufnahmen zeigen. Schnelle Änderungen des CO2-Gehalts können dagegen mittels der Analyse von Spaltöffnungen von Pflanzenmaterial entdeckt werden, z. B. ein ähnlicher Anstieg wie heute kurz vor der Jüngeren Dryas (von 150 auf 400 ppm in ca. 200 Jahren), der allerdings nicht zu einer Erwärmung, sondern zum Rückfall in eiszeitliche Temperaturen führte (11). Die Autorin führt den Anstieg auf „altes“ CO2 aus den Meerestiefen zurück, das eine ähnliche C-Isotopen-Verschiebung in der Atmosphäre bewirkte, wie auch heute zu beobachten ist.

 

Das IPCC –Modell der CO2-Austauschvorgänge ist falsch

In der Atmosphäre (750 Gt C) werden CO2- Emission durch Verbrennung, Respiration etc. und CO2-Aufnahme durch Photosynthese in wenigen Tagen durchmischt. Die Photosynthese übertrifft fast immer die Verbrennung und die Respiration , z. B. in den borealen Wäldern (26).

In den Ozeanen existiert eine gut ( von Wind und Wellen) durchmischte und warme Deckschicht von ca. 75 Metern (12), die von dem tiefen Wasser durch eine kältere Thermokline getrennt wird. Diese Deckschicht enthält 1000 Gt C und hat eine Durchschnittstemperatur im 20. Jahrhundert von 16,3 °C (im Gegensatz zur Landtemperatur von 11,1 °C). Die Temperatur der Ozeanoberflächenschicht hat sich in 150 Jahren um 0,7°C erwärmt nach Angaben der NOAA . Die Erwärmung der Oberflächenschicht des Meeres kommt vermutlich dadurch zu Stande, dass das Sonnenlicht bis zu 200 m tief eindringt und das Wasser erwärmt.

Der Austausch mit dem tiefen Ozean, der 50 mal mehr Kohlenstoff gespeichert hat, erfordert Zeiträume von 1000 Jahren.

Laut dem rein physikalischen Standardmodell von Sabine (17) erfolgt der CO2-Austausch zwischen Meer und Luft durch Diffusion, die vom leicht höheren Partialdruck in der Luft ( 2 ppm CO2 jährlich wegen der industriellen Verbrennung) getrieben wird. Die Austauschzeit wird auf 1 Jahr beziffert. Das Modell nimmt an, dass die höchste Konzentration von gelöstem anorganischem Kohlenstoff (DIC) wegen der Diffusion an der Meeresoberfläche vorliege. Das Modell berücksichtigt weder steigende Photosynthese in Folge steigender CO2-Konzentration noch den raschen Export von Kohlenstoff in den tiefen Ozean (18).

Im warmen Meer in Äquatornähe entweicht CO2 aus dem Meer , während es von kalten Meeren aufgenommen wird. In der folgenden Abb., die auf Daten des Scripps Institute beruht, wurde in jedem Meßpunkt die CO2-Konzentration in der Luft und im Wasser gemessen. Was überrascht, ist die Höhe der Differenz. In der Luft über den Warmwasserzonen wurden über 50 ppmv höhere CO2-Konzentrationen gemessen und über den kalten Zonen über 50 ppmv niedrigere. Das kann man nicht mit dem anthropogenen jährlichen Anstieg des atmosphärischen CO2 von 2ppmv erklären. Der CO2-Austausch zwischen Meer und Atmosphäre ist die Bilanz von 2 Flüssen: Emission aus dem Wasser in äquatorialen Zonen und Aufnahme aus der Luft in kalten Zonen (13). Eine globale Bilanz dieser beiden Flüsse kann nicht aus den Partialdrücken ermittelt werden (14), da bei diesem rein physikalischen Modell (17) der Effekt der biologischen Pumpe fehlt. In der Abb. sieht man, dass in dem kalten Teil des Meeres (links < 17°C) der CO2-Gehalt bei steigender Temperatur sinkt und nicht steigt, wie intuitiv zu erwarten wäre. Wegen der biologischen Pumpe (Absinken von Kohlenstoff in den tiefen Ozean) bildet sich ein vertikaler Gradient an anorganischem Kohlenstoff (DIC) aus, bei dem die C-Konzentration an der Meeresoberfläche am kleinsten ist. In kalten Meeren misst man mit dem Partialdruck im Wesentlichen die Stärke der biologischen Pumpe, in warmen Meeren die temperaturbedingte CO2-Ausgasung und in bestimmten „upwelling“ Zonen das Aufsteigen der ozeanischen Tiefenströmung. Allerdings liegen CO2-Konzentrationen über den „upwelling zones“ bei über 1000 ppmv.

Es bleibt offen, ob in der globalen Bilanz die Ozeane CO2 aufnehmen oder abgeben.

Quelle: NOAA, upwelling, pict.1

Photosynthese, wie funktioniert ein Korallenriff?

Die modellierte pH-Änderung im Great Barrier Reef seit 159 Jahren beträgt minus 0,054 pH (27). Im seichten Wasser eines Riffs schwankt der pH zwischen 8,4 am Tag und 7,7 bei Nacht (28). Die Abweichung des pH-Wertes nach oben während der Photosynthese ist einfach zu erklären. Das umgebende Wasser verarmt an anorganischem Kohlenstoff, der in Biomasse umgewandelt wird. Die tierische Respiration ist weit niedriger. Die Koralle besteht aus einem tierischen Organismus, z.B. einem Polypen, der eine geschlossene Kammer ausgebildet hat, in dem sich die photosynthetisierenden Algen befinden. Eine Protonenpumpe des Polypen senkt den pH der Kammer auf ca. 5,5, bei dem weitgehend nicht dissoziierte Kohlensäure vorliegt. Diese wird durch das Enzym Carboanhydrase (ähnlich wie im Blut) zu gasförmigem CO2 umgewandelt, das zur Bildung von Biomasse dient. Je stärker die Photosynthese, umso mehr verarmen die oberflächlichen Meereszonen an anorganischem Kohlenstoff und das Wasser wird alkalischer, nicht saurer. Auch die Kalkbildung ist kein chemischer Prozess, der von der Konzentration der Carbonat-Ionen abhängt, sondern ein biologischer Vorgang, der mit der Photosynthese korreliert ist, und unabhängig von pH-Schwankungen und Calcit-Sättigungswerten ist (30). Bei sinkendem pH-Wert sollte eigentlich die Carbonat-Konzentration und die Pufferkapazität abnehmen. In den Riffen tritt als negative Rückkopplung eine Kalkauflösung statt, die CO2 absorbiert und Carbonat freisetzt (29).

 

Gibt es ein Gleichgewicht der vorindustriellen CO2-Flüsse ?

Zunächst ein Zitat von Prof.Sabine (NOAA)(18) : „ although ocean biology plays an integral role in the natural distribution of carbon in the ocean, there is no conclusive evidence that the ocean uptake and storage of anthropogenic carbon, thus far, involve anything other than a chemical and physical response to rising atmospheric CO2.”

Der kurzfristige C-Kreislauf ist doch in erster Linie eine Bilanz zwischen biologischer Photosynthese und Respiration ( biologische Zersetzungsvorgänge mit Freisetzung von CO2) an Land und Meer, und in zweiter Linie der biologischen Pumpe. Welche physikalischen Vorgänge sollen denn eine Rolle spielen außer der marginalen anthropogenen Verbrennung?

Viele Organismen reagieren auf höhere CO2-Konzentration und höhere Temperatur mit einer erhöhten Photosyntheserate. Das Cyanobacterium Synechococcus (für 25% der globalen Photosynthese zuständig) erhöht die Photosyntheserate bei 750 ppm CO2 und 19°C auf das 4fache (19). Die quantitative Erhöhung der globalen Photosynthese (gross primary production) ist quantitativ schwierig zu fassen. Campbell (20) ermittelte 31% im 20.Jahrhundert. Im Sargasso Meer nahm das Mesoplankton um 61% zu zwischen 1994 und 2006 (21). Coccolithophoren nahmen zwischen 1990 und 2012 im Atlantik um 37% zu (22). Pro Jahr ergibt das Zunahmen von 0,31% bis 5,1 %.

Wenn die Brutto-Primärproduktion 223 Gt C pro Jahr beträgt (23), so müsste eine jährliche Abnahme von 0,7 Gt C bis 11,4 Gt C in der globalen C-Bilanz berücksichtigt werden. Dies liegt in der Größenordnung der anthropogenen Emission, wird aber in den Modellen nicht berücksichtigt.

Woodward (23) gibt folgende Zahlen in Gt C für Land und Ozean an:

GPP (gross primary production ) : Land 120, Ozean 103

NPP (net PP = GPP – pflanzliche Respiration): Land 60, Ozean 65

NET (net ecosystem prod. = NPP – heterotrophe (tierische) Respiration) : Land 5, Ozean 11

Man sieht, dass der photosynthetische C-Verbrauch immer die durch biologische Zersetzung emittierte C übertrifft, wie es auch in erdgeschichtlichen Zeiträumen der Fall war. Die Zahlen der NPP sind recht zuverlässig, da sie auf Satellitenmessungen der photosynthetischen Pigmente (400-700 nm) beruhen. Was nicht berücksichtigt wird, weil es von den Satelliten nicht erfasst wird, sind 25% der globalen Photosynthese durch Prochlorococcus in Meerestiefen bis 200 m. Die heterotrophe Respiration in den tropischen klaren Meeren kann in diesen Tiefen gleich Null gesetzt werden. Das bedeutet, dass ca 26 Gt C pro Jahr zusätzlich zur obigen Rechnung aus dem C-Kreislauf verschwinden. Das Cyanobacterium verdoppelt sich jeden Tag, aber die Hälfte der Zellen wird durch einen Phagen aufgelöst und endet im tiefen Ozean (biol. Pumpe).

Die NET im Ozean wird von Woodward mit 11 Gt C angegeben. Dieser Wert entspricht weitgehend der biologischen Pumpe, ist aber zu niedrig angesetzt. Laut Prof. Riebesell (24) liegt das Ausmaß der biologischen Pumpe bei 9-15 Gt C/ Jahr, liegt aber seiner Meinung nach eher beim oberen Wert. Man könnte folgende Bilanz des C-Kreislaufs aufstellen, wobei + einer Zunahme und – einer Abnahme von Kohlenstoff bedeutet:

Die NET (net ecosystem production) in Gt C/ Jahr) addiert sich aus -5 (Land) – 12-15 (Ozean) – 1 (jährliche Zunahme) , was 17- 21 Gt C / Jahr ergibt (ohne den Effekt von Prochlorococcus = 26) und die anthropogene Emission von 10 Gt C/ Jahr weit übertrifft. Das bedeutet, dass jedes Jahr der Atmosphäre trotz anthropogener Emission ca 7-11 Gt C entzogen werden. Wenn nur der halbe Effekt von Prochlorococcus (der von mir geschätzt wurde) mitgerechnet wird, ergibt sich ein CO2-Verbrauch von jährlich 30-34 Gt C trotz der „anthropogenen „ Emission.

 

Biologische Pumpe

Die biologische Pumpe ist so definiert, dass ein Teil (25%) des durch Photosynthese gebildeten organischen Kohlenstoffs relativ schnell und ohne heterotrophe Respiration in den tiefen Ozean absinkt, wodurch er dem C-Kreislauf für ca. 1000 Jahre entzogen wird (25). Am Meeresboden findet dann der Abbau des organischen Materials in anorganischen Kohlenstoff statt.

Das falsche Modell, das Prof. Sabine beim IPPC anwendet wird, beruht auf seiner falschen Einschätzung der Sinkgeschwindigkeit des organischen Materials : „ because anthropogenic CO2 invades the ocean by gas exchange across the air-sea interface, the highest concentrations of anthropogenic CO2 are found in near surface waters. Away from deep water formation regions, the time scales for mixing of near-surface waters downward into the deep ocean can be centuries“ (18).

Die Literatur gibt relative unterschiedliche Sinkgeschwindigkeiten an, aber man kann mit 30 bis 1000 Metern pro Tag rechnen, was mir von Prof. Riebesell (24) bestätigt wurde. Für Bakterien (Aggregate) werden Sinkgeschwindigkeiten von 440-660 Metren angegeben (18).

Wie oben diskutiert, wird der von Prochlorococcus produzierte Anteil der Nettoprimärproduktion von Satelliten nicht erfasst . Deswegen wird auch der gleich große Anteil an der Biologischen Pumpe einfach nicht berücksichtigt.

Die Biomasse landet am Boden der Ozeane , wo sie von Bakterien zu anorganischem Kohlenstoff abgebaut wird. Dieser Kohlenstoff kommt nicht vor 1000 Jahren wieder an die Oberfläche.

 

Physikalische Pumpe: Tiefenströmung , „upwelling“

Die physikalische Pumpe sorgt für den Austausch zwischen der Oberflächenschicht des Meeres und dem tiefen Ozean.

Die globale Meeresströmung (siehe Abb.) wird angetrieben durch die thermohaline Zirkulation. Der warme Golfstrom strömt an der Oberfläche des Atlantiks nach Norden und gibt Wasserdampf ab, der zu einer Abkühlung und Aufsalzung des Wassers führt. Auf der Höhe Islands ist die Dichte dieses Stroms so hoch geworden, dass er wie ein Wasserfall bis zum Meeresboden fällt. Dort verteilt sich die Strömung flächig und fließt sehr langsam nach Süden zurück. Die Zeit für einen Kreislauf wird auf ca. 1000 Jahre geschätzt.

Das Austeigen von Tiefenwasser (upwelling) in Küstennähe wird dagegen hauptsächlich durch Winde verursacht, die die warme Oberflächenschicht wegtreiben und den Auftrieb des kalten und kohlenstoffreichen Tiefenwassers ermöglichen (30). In der Luft über den Auftriebsgebieten werden mehr als 1000 ppmv an CO2 gemessen (18).

Während der letzten Eiszeit war die Ventilation am Meeresboden unterbrochen, so dass sich dort Kohlenstoff ansammelte, der absolut frei von 14C war (31). Dieser Kohlenstoff kann bis zu 30 000 Jahren am Boden der Ozeane verbleiben (32).

 

Diskussion: woher kommt der gegenwärtige CO2-Anstieg in der Luft? 

  1. Die durch Photosynthese und biologische Pumpe verursachte Aufnahme von CO2 aus der Atmosphäre bis in den tiefen Ozean, kann nicht durch anthropogene Verbrennung kompensiert werden. Die gemessene Zunahme in der Atmosphäre muss zwangsläufig durch Ausgasung aus dem Ozean erklärt werden.
  2. Entweder hat sich das „upwelling“ seit ca. 100 Jahren verstärkt, was am ehesten durch Änderungen der Windbewegungen erklärt werden kann oder die Tiefenströmung bringt seit 100 Jahren kohlenstoffreicheres Tiefenwasser nach oben.
  3. Der Befund, dass es sich um „alten Kohlenstoff“ (14C arm) handelt, könnte auch dadurch erklärt werden, dass CO2 aus dem Erdinneren austritt.

 

Quellen:

  1. IPPC Synthesis Report 2014, Summary for Polcymakers, SPM 1.2, Seite 4
  2. D. Schönwiese “Klimatologie”, 3.Aufl. Ulmer Verlag 2008, Seite 346
  3. Le Quére et al. 2014; Earth Syst. Sci. Data Discuss. 7, 521-610
  4. Schulz & U.Riebesell , S.160-162 in : J.Lozan (Hg): Warnsignal Klima: Die Meere-Änderungen & Risiken (2012)
  5. J. Hardt , C.Safina , Spektrum der Wissenschaft, Feb. 2011, 82-89
  6. Partensky et al. , Microbiol.Mol.Biol.Rev. 63, 106-127 (1999)
  7. Kutschera: Tatsache Evolution, München 2009,313
  8. Wang et al. , The Plant J. 82, 429-448 (2015)
  9. Monnin, T.Stocker et al, Science 291, 112-114 (2001)
  10. Van Hoof et al. , Tellus 57B, 351-355 (2005)
  11. Steinthorsdottir et al. , Quaternary Science Rev. 99, 84-96 (2014)
  12. Roedel “Die Atmosphäre”, 2.Aufl. 1994, Springer , Seite346
  13. Scripps Institute, Seawater CO2 Data ,published by C.D.Keeling 1957-1963
  14. Takahashi et al. 2016 , “Global Ocean Surface Water Partial Pressure of CO2 database. Oak Ridge Nat. Laboratory, U.S. Dep. of Energy
  15. E.Zeebe, Ann.Rev.Earth Planet Sci. 2012, 141-165
  16. A.Berner+ Z. Kothavala, Am.J.Sci 301, (2001), 182-204
  17. IPPC: Climate Change 2013, 6.3 (C.Sabine)
  18. Steele, https://wattsupwiththat.com/2017/03/02/how
  19. Fu, J.Phycology 43, (2007),485-496
  20. J.E.Campbell, Nature 544, (2017), 84-87
  21. Hernández-Léon et al., Limnol.Oceanogr. 55, (2010), 2503-2512
  22. K.M.Krumhardt et al. , Biogeosciences 13, (2017), 1163-1177
  23. I.Woodward, Current Biol. 17, (2007), 269-273
  24. Mitt. von Prof. U. Riebesell , Geomar, am 20.07.2017
  25. Körtzinger in : „Der marine Kohlenstoffkreislauf“ , S.16 ( Springer, 2017)
  26. Gonsamo et al., J.Geophys.Res. 122, 1275-1293 (2017)
  27. Wei et al. , J.Geophys.Res. 120, 7166-7188 (2015)
  28. I.Kline et al. , PLos ONE 10 (6): e0127648 (2015)
  29. W.Morse et al. , Chem.Rev. 107, 342-381 (2007)
  30. National Ocean Service, NOAA
  31. Basak et al. , Nature Geoscience 3, 770-773 (2010)
  32. L.Follett et al. , proc. Nat. Acad. Sci. U.S.A. 111, 16706 (2014)

 




Die unheimliche Allianz von Politikern und Klimatologen

Heute ist es eine angebliche „Klimakatastrophe“ . Die Politiker haben die staatlichen Ausgaben für Klimaforschung heute weltweit auf über 5 Milliarden Dollar pro Jahr erhöht. Ganze Institute leben davon und werden alles tun, um die angebliche Klimabedrohung aufrechtzuerhalten. Niemand sägt gerne den Ast ab, auf dem er sitzt.

Stefan Rahmstorf vom PIK, der fanatisch den „menschengemachten Klimawandel“ verteidigt und dafür wider besseres Wissen auch das El-Nino-Ereignis von 2016 als Beweis anführt, fordert sogar eine Erhöhung des weltweiten Klimaforschungsbudgets auf 30 Milliarden US$ pro Jahr. „Damit wir schneller, besser und genauer sagen können, was hier eigentlich abläuft.“

Sein Chef, Prof. H. J. Schellnhuber, Chef des PIK – Potsdam Institut für Klimafolgenforschung (auch bekannt als „Institut für Klimamärchen“) hat dies sehr schön bestätigt mit der Aussage „Die Klima-Diplomatie hat eine riesige Maschinerie entwickelt, in der viele ein gutes Auskommen haben“ (1.12.06 – Leipziger Volkszeitung) – auch er. Hinzu kommt die Teilnahme an den alljährlichen Klimaparties von 10 000 bis 15 000 Klimafunktionären, die auch nach 21 Massenkonferenzen immer noch nichts bewirkt haben (keine CO2-Reduktion), aber immer mit dem Beschluss enden, sich nächstes Jahr an einem anderen schönen Ort wiederzutreffen.

Antragsteller können mit großer Sicherheit auf staatliche und stattliche Finanzmittel rechnen, wenn in ihrem Studienvorschlag ein Bezug zum (gefährlichen) Klimawandel dargestellt wird. Studien über das Klima der Vergangenheit, die den Unsinn der jetzigen Klimahysterie zeigen könnten, sind dagegen aussichtslos. Ein langjähriger Mitarbeiter der NOAA in den USA berichtete (nach seiner Pensionierung ), dass es dort ausdrücklich nicht erwünscht war, sich mit der Klima-Historie zu beschäftigen (denn das könnte den Unsinn der aktuellen Klima-Hysterie aufzeigen).

Das Gleiche gilt für den Deutschen Wetterdienst (DWD). Seine Klimaprojektion für die Zukunft basiert ausschließlich auf theoretischen Modellen und ihren (teilweise offensichtlich falschen) Annahmen, während die natürlichen, seit Jahrtausenden und Jahrmillionen existieren natürlichen Klimaschwankungen und Zyklen einfach ignoriert werden. Kein Wunder, dass sich aus dem gleichen Grund auch die Klimamodelle des IPCC als so völlig falsch erwiesen haben. Kein einziges war in der Lage, das Klima der Vergangenheit zu rekonstruieren, noch den Klima-Stillstand (den „Hiatus“) seit dem Jahr 1998 bis heute vorauszusehen, sondern produzierten nur einen tollen Anstieg basierend auf der CO2-Zunahme … als ob Klima derartig simpel wäre.

Prof. Dr. von Storch, einer der führenden deutschen Klimaforscher, kommentierte den Drang mancher seiner Klima-Kollegen wie folgt:

           „Eine Gruppe von Klimatologen ist der Versuchung erlegen, sich durch              medienwirksame dramatisch negative Aussagen nach vorne zu spielen. Sie werden mit größter öffentlicher Aufmerksamkeit bedacht, und einige von ihnen übernehmen die Rolle der wachsamen Sofortkritiker anders denkender Kollegen“.

Inzwischen ist das Paradigma vom „menschengemachten Klimawandel“ nicht nur mächtig geworden, es stattet auch mit Macht aus: mit Wählerstimmen, Forschungsorganisationen, öffentlicher Aufmerksamkeit, akademischer Reputation, Geld und Positionen. Es darf gar nicht mehr falsch sein. Der Zug ist abgefahren und in ihm sitzen viele Wissenschaftler und Politiker, für die es kein zurück mehr gibt. (Prof. Dr. Gerhard Schulze, Professor für Soziologie in Bamberg ,Die Welt, 12.1.07)

Wir verdanken es der Unwissenheit von Politikern und Journalisten, dass ignoriert wird, dass es schon vor 1000 und 2000 Jahren und viele Male davor höhere Temperaturen gegeben hat als heute – und das bei wesentlich geringerem CO2-Gehalt und ohne jeden anthropogenen Einfluss. Die Klima-Modelle des IPCC können diese Vergangenheit nicht nachvollziehen, da sie sich fast ausschließlich mit (falschen) Annahmen am CO2-Gehalt orientieren. Die natürlichen Klima-Einflussfaktoren , die seit Jahrtausenden und Jahrmillionen existieren – auch heute noch – werden systematisch ignoriert, da sie die aktuelle Klima-Hysterie ad absurdum führen.

Dipl.-Met.K-E.Puls schrieb im Aug.2008 hierzu:

Die Politik hat sich dieser Pseudo-Wissenschaft namens Klimakatastrophe bemächtigt mit dem Beelzebub CO2 als Ablass-Handels-Objekt. Das schwemmt Geld in den unersättlichen Moloch der Staatskassen und die Bürger zahlen (noch) gerne, denn einige Institute, der IPCC und europäische Politiker „retten die Welt für uns und unsere Kinder“. Das bringt nicht nur Geld für den Staat und einige Klima-Institute, sondern für diese auch Reputation, gelebte Eitelkeiten und zusätzliche Wähler für die Parteien, welche bei den Katastrophen-Prognosen mitsamt der mitgelieferten Menschheits-Rettungsplänen (nur durch CO2-Verminderung !) den Vogel abschneiden.

Dies wird voll bestätigt durch die Aussagen von Politikern wie Joschka Fischer (von der Grünen-Partei):

„Man muss den Leuten nur fortwährend Angst einflößen, dann kann man ihnen praktisch immer mehr Steuern und Abgaben aus der Tasche ziehen.“

(Quelle: Buch Einsichten eines Schwarms, F. Heintger, 2015)

und von Professor John Christy, Mitglied des IPCC (Intergovernmental Panel on Climate Change):

„Man muss eine gewisse Panik schüren, dann fließt das Geld!“

Prof. Eric Weede sagte dazu:

Während Wissenschaft von Kritik und Zweifel lebt – vom Wissen, dass es Gewissheit über den Besitz der Wahrheit nicht gibt und geben kann – verlangt die Politik eher die Unterdrückung von Zweifeln. Eine allzu große Nähe von Wissenschaft und Politik (wie beim IPCC) ist eher eine Gefahr als eine Verheißung.

Das deutsche Umwelt-Bundesamt hat sich z.B. im Jahr 2013 nicht gescheut, Journalisten, die es wagten, eine nicht vom UBA vorgeschriebene Meinung zu äußern, öffentlich zu diskreditieren. Und es gab auch ein Gerichtsurteil, das eine Klage dagegen zurückwies.

Die unheimliche Allianz von Politikern und Klimatologen

Nein, die Allianz zwischen Politikern und Klimatologen ist nicht heimlich, sondern offensichtlich, und zwar deshalb, weil beide Seiten davon profitieren. Das IPCC (oft auch fälschlicherweise in den deutschen Medien als „Weltklimarat“ bezeichnet), wurde als politisches Instrument von der Politik etabliert, wird von der Politik kontrolliert und für ihre Zwecke benutzt.

Es gibt nicht nur einige Klimatologen, die vom Klima-Alarmismus gut leben und deshalb von den Medien bevorzugt werden, sondern auch Politiker, Journalisten und Versicherungen unterstützen dies großzügig:

Politiker, weil sie sich durch die angeordnete Verringerung von CO2-Emissionen, die angeblich in naiver Annahme über das Klima entscheiden, als „Weltretter“ profilieren können,

Ideologen, weil sie das Klima als Argument gegen Konzerne und den Kapitalismus gebrauchen können: Maurice Strong, „Vater des Kyoto-Protokolls“:„Besteht nicht die einzige Hoffnung für diesen Planeten in dem Zusammenbruch der Industriellen Zivilisation? Liegt es nicht in unserer Verantwortung, dafür zu sorgen, dass dieser Zusammenbruch eintritt?”

Versicherungen, weil sie sich von künstlichen Klimaängsten mehr Policen versprechen, sowie

Journalisten, weil es für sie nichts Schöneres gibt als eine echte oder erfundene Katastrophe, nach dem alten bewährten Motto „nur schlechte Nachrichten sind gute Nachrichten“. Auf so etwas wie die angebliche „Klimakatastrophe“ kann man auf keinen Fall verzichten, sie muss kommen, auch wenn die Fakten etwas anderes sagen. Auch wenn sich das als Unsinn herausstellt, wie damals das berühme „Waldsterben“, das real nie stattfand. Keine der größeren Publikationen haben je eine Statistik der globalen Temperaturentwicklung in den letzten 20 Jahren veröffentlicht, denn dann würden die Leser womöglich merken, welche unsinnigen Klima-Spekulationen und Behauptungen in den letzten Jahren veröffentlicht wurden.

Kein maßgeblicher Politiker in Deutschland hat die aufgekommene Klima-Hysterie erkannt und kritisiert – mit einer Ausnahme: Altkanzler Helmut Schmidt sagte dazu am 4.Juni 2007 : „Klimatischen Wandel hat es auf der Erde gegeben, seit es sie gibt. Und sich darüber aufzuregen und zu meinen, der Mensch könnte diesen Wandel durch gemeinsamen Beschluss aufhalten, das ist reine Hysterie, das ist dummes Zeug.

Dr. rer.nat. Siegfried Dittrich (Hamm) schrieb schon im Jahr 2009:

„Die Verbreitung von Angstpsychosen dient nur unlauteren, ganz auf Mitnahmeeffekte abzielenden Geschäftspraktiken, die inzwischen einen solchen Umfang angenommen haben, dass wir uns ihrer kaum erwehren können, zumal auch noch die Politik mit all ihren Fördermaßnahmen von der neuen Modewelle verblendet zu sein scheint. Je länger dieser Zustand andauert, um so mehr wird dies auf Kosten der Substanz unseres volkswirtschaftlichen Wohlstandes gehen. Auch die zahlreichen Klimainstitute haben hier zu ihrem großen Vorteil ein geldsprudelndes Schmarotzerfeld gefunden“.

Interview in der Tagesschau mit dem Klimawissenschaftler Prof.Dr. Hans von Storch

tagesschau.de (23.9.05): Gibt es denn Gruppen, die … ein Interesse an klimatischen Schreckensszenarien haben?

von Storch: Abgesehen von Umweltorganisation, die ein selbstverständliches Interesse haben, gibt es zwei weitere Gruppen, die von davon profitieren, mit den Szenarien im Gespräch zu bleiben. Die eine Gruppe sind die Klimaforscher selbst, die dann mehr Gelder zur Verfügung gestellt bekommen. Auch die Präsenz in den Medien kann ein persönlicher Anreiz für Wissenschaftler sein. Die zweite Gruppe ist die Versicherungswirtschaft. Für sie ist es nützlich, wenn in der Öffentlichkeit der Eindruck entsteht, man müsse sich gegen gewachsene Risiken versichern. Immerhin leben immer mehr Menschen in geographischen Gefahrenzonen, wie etwa unmittelbar am Meer oder in Flussniederungen. Ich unterstelle den Versicherungen jedoch nicht, dass sie bewusst übertreiben. Aber sie agieren sicher interessengeleitet. 

Wir hatten schon einmal eine kommende Klimakatastrophe: die Ankündigung einiger Klimatologen und begeisterter Journalisten über die bevorstehende Eiszeit – nachdem im Zeitraum 1940-75 die Globaltemperatur tatsächlich um 0,35°C abgenommen hatte (!). Und das trotz CO2-Anstieg um 30 ppm, der lt. IPCC eigentlich einen Temperaturanstieg von 0,3°C hätte verursachen sollen (siehe Anlage) Aber solche unbequemen Fakten werden natürlich ignoriert und unterdrückt, wenn sie „nicht passen“.

Was aber folgte, nachdem die Globaltemperatur nach 1976 wieder anfing zu steigen, war das rasche Umsteigen der Klima-Alarmisten von der „kommenden Eiszeit“ auf die „gefährliche Erwärmung“, die uns bevorstehen würde. Und das erwies sich als eine gute Geschäftsidee. Eine Vielzahl von Berufszweigen hängte sich an die angebliche neue „Klimakatastrophe“ dran und profitierte kräftig von Fördermitteln, CO2-Zertifikatehandel, Extremversicherungen und üppigen Vortragshonoraren.

Antragsteller können mit großer Sicherheit auf staatliche (und stattliche)Finanzmittel rechnen, wenn in ihrem Studienvorschlag ein Bezug zum (gefährlichen) Klimawandel dargestellt wird. Studien über das Klima der Vergangenheit, die den Unsinn der jetzigen Klimahysterie zeigen könnten, sind dagegen aussichtslos.

Das Gleiche gilt für den Deutschen Wetterdienst (DWD). Seine Klimaprojektion für die Zukunft basiert ausschließlich auf theoretischen Modellen und ihren (offensichtlich teilweise falschen) Annahmen, während die natürlichen, seit Jahrtausenden und Jahrmillionen existieren natürlichen Klimaschwankungen und Zyklen einfach ignoriert werden. Kein Wunder, dass sich aus dem gleichen Grund auch die Klimamodelle des IPCC als so völlig falsch erwiesen haben. Kein einziges war in der Lage, das Klima der Vergangenheit zu rekonstruieren, noch den Klima-Stillstand (den „Hiatus“) seit dem Jahr 1998 bis heute vorauszusehen, sondern produzierten nur einen tollen Anstieg basierend auf der CO2-Zunahme … als ob Klima derartig simpel wäre.

Und Uli Weber schreibt in seinem Buch “Klimahysterie gefährdet die Freiheit” :

Katastrophenszenarien haben sich zu den Gelddruckmaschinen der modernen Forschung entwickelt. Der Mainstream der globalen Klimaforschung macht sich gerade zum politischen Gefangenen einer CO2-Apokalypse, und aus Angst vor der prophezeiten Klimakatastrophe setzen wir unsere Marktwirtschaft außer Kraft. Dabei findet diese Klimakatastrophe vorerst nur in unseren Köpfen statt, denn es geht dabei weniger um den aktuellen CO2-Ausstoß der Menschheit, als vielmehr um den befürchteten Anstieg dieser Emissionen in der Zukunft.

Immer und zu jeder Zeit wurden der Menschheit Katastrophen vorhergesagt, insofern ist die Klimakatastrophe eigentlich gar nichts Neues. Neu ist eher, dass sich die Protagonisten dieser Katastrophe nicht mehr alter Weissagungen oder plötzlich auftauchender Kometen bedienen, um ihre Thesen unters Volk zu bringen, sondern mit grob vereinfachenden pseudo-wissenschaftlicher Modellrechnungen.

Den Religionsstiftern eines globalen Klimaglaubens war Anfang der 1990er Jahre mit der CO2-Hypothese ein ganz bedeutender Coup zu einer dauerhaften Stützung eines „menschengemachten“ Klimawandels gelungen. Den Adepten dieses globalen Klimaglaubens stehen nahezu unbegrenzte finanzielle und personelle Mittel zur Verfügung, um die Welt in ihrem Sinne zu missionieren. Und fachlich geschulte Hilfstruppen unterstützen sie, diese Botschaft ansprechend und verständlich verpackt zu vermitteln.

Denn anstatt nun endlich die tatsächlichen Probleme der Weltbevölkerung, also Armut und stetiges Bevölkerungswachstum, aufzugreifen und einer befriedigenden Lösung zuzuführen, hat sich inzwischen bereits wieder ein neureligiöser Ablasshandel etabliert. Der Reichtum der gesellschaftlich und wirtschaftlich Erfolgreichen soll danach einfach unter denjenigen verteilt werden, die angeblich unter dem von den Industriestaaten verursachten Klimawandel leiden.

Dr. Dietrich E.Koelle

 

 

 

 

Charles Cornwallis schreibt in „Die Welt“ vom 28.5.201

 

Wissenschaft (zumindest die praktisch orientierte) basiert auf Beobachtungen, aus denen man Thesen ableitet. Diese werden überprüft und letztendlich entweder bewiesen oder widerlegt. Das gilt beim Klimawandel nicht. Er hat gefälligst vom Menschen erzeugt zu sein.

Das ist mittlerweile ein riesiges Geschäft. Was würde denn passieren, wenn man morgen bestätigt: der Klimawandel ist nicht beeinflussbar? Energiewende sinnlos gewesen, alle Hersteller von alternativen Energieerzeugern pleite, Elektroauto sinnlos, alle Jobs und Investitionen weg.

Da wäre hier aber die Hölle los“

 

 

 

 

ANLAGE:

Die kommende Eiszeit in den Medien 1974/75:

 

1974 – Air Pollution May Trigger Ice Age, Scientists Feel (The Telegraph, December 5, 1974)

1974 – More Air Pollution Could Trigger Ice Age Disaster (Daily Sentinel – December 5, 1974)

1974 – Scientists Fear Smog Could Cause Ice Age (Milwaukee Journal, December 5, 1974)

1975 – Climate Changes Called Ominous (The New York Times, January 19, 1975)

1975 – Climate Change: Chilling Possibilities (Science News, March 1, 1975)

1975 – B-r-r-r-r: New Ice Age on way soon? (The Chicago Tribune, March 2, 1975)

1975 – Cooling Trends Arouse Fear That New Ice Age Coming (Eugene Register-Guard, March 2, 1975)

1975 – Is Another Ice Age Due? Arctic Ice Expands In Last Decade (Youngstown Vindicator – March 2, 1975)

1975 – Is Earth Headed For Another Ice Age? (Reading Eagle, March 2, 1975)

1975 – New Ice Age Dawning? Significant Shift In Climate Seen (Times Daily, March 2, 1975)

1975 – There’s Troublesome Weather Ahead (Tri City Herald, March 2, 1975)

1975 – Is Earth Doomed To Live Through Another Ice Age? (The Robesonian, March 3, 1975)

1975 – The Ice Age cometh: the system that controls our climate (The Chicago Tribune, April 13, 1975)

1975 – The Cooling World (Newsweek, April 28, 1975)

1975 – Scientists Ask Why World Climate Is Changing; Major Cooling May Be Ahead (PDF) (The New York Times, May 21, 1975)
1975 – In the Grip of a New Ice Age? (International Wildlife, July-August, 1975)

1975 – Oil Spill Could Cause New Ice Age (Milwaukee Journal, December 11, 1975)

1976 – The Cooling: Has the Next Ice Age Already Begun? [Book] (Lowell Ponte, 1976)

1977 – Blizzard – What Happens if it Doesn’t Stop? [Book] (George Stone, 1977)

1977 – The Weather Conspiracy: The Coming of the New Ice Age [Book] (The Impact Team, 1977)
1976 – Worrisome CIA Report; Even U.S. Farms May be Hit by Cooling Trend (U.S. News & World Report, May 31, 1976)

1977 – The Big Freeze (Time Magazine, January 31, 1977)

1977 – We Will Freeze in the Dark (Capital Cities Communications Documentary, Host: Nancy Dickerson, April 12, 1977)

1978 – The New Ice Age [Book] (Henry Gilfond, 1978)

1978 – Little Ice Age: Severe winters and cool summers ahead (Calgary Herald, January 10, 1978)

1978 – Winters Will Get Colder, ‘we’re Entering Little Ice Age’ (Ellensburg Daily Record, January 10, 1978)

1978 – Geologist Says Winters Getting Colder (Middlesboro Daily News, January 16, 1978)

1978 – It’s Going To Get Colder (Boca Raton News, January 17, 1978)

1978 – Believe new ice age is coming (The Bryan Times, March 31, 1978)

1978 – The Coming Ice Age (In Search Of TV Show, Season 2, Episode 23, Host:

 

 




Solare Aktivität weiter unter normal – Klimamodelle verwenden übertriebene Forcingparameter

Sehr geehrte Damen und Herren,
die Sonne war auch im vergangenem Monat deutlich unternormal aktiv. Die festgestellte Sonnenfleckenzahl SSN (SunSpotNumber) betrug 18,3. Dies sind nur 36% des zu diesem Zykluszeitpunkt Üblichen (SSN=51) als Mittelwert aller 23 bisher komplett beendeten Zyklen. An 11 Tagen des Juli war die Sonne gänzlich fleckenfrei. Der aktuelle Zyklus entwickelt sich zum drittschwächsten Sonnenzyklus seit 1755. Mal sehen, wie sich das in den nächsten Jahren und Jahrzehnten auf unser Klima auswirkt.
Eine hoch interessante Arbeit unter Führung von Thomas Mauritsen vom Hamburger Max- Planck- Institut erschien am Monatsende des Juli. (http://www.nature.com/nclimate/journal/vaop/ncurrent/full/nclimate3357.html?foxtrotcallback=true). Die Autoren stellten sich die Frage: Wie viel Wärme ist schon in der „Pipeline“, also was wäre, wenn der Antrieb durch Treibhausgase auf dem heutigen Stand eingefroren würde und wir ins Jahr 2100 schauen? Ein (wirklich sehr) aufmerksamer Leser wird sich vielleicht erinnern, dass auch wir diesen Fall schon einmal betrachtet haben, und zwar im Oktober 2015, kurz vor der Pariser Klimakonferenz.(http://www.kaltesonne.de/die-sonne-im-september-2015-und-ein-bericht-zum-wissenstand-vor-der-pariser-klimakonferenz/) Das erste, was man für ein solches Experiment wissen muss, ist: wie empfindlich reagiert unser Klima auf die Verdopplung von CO2? In der Arbeit von Mauritsen/ Pincus benutzen die Autoren löblicherweise einmal nicht Modelle, sondern stützen sich auf Beobachtungen, wie es jeder empirische Wissenschaftler bevorzugt tun würde. Sie ermitteln die „TCR“ (Transient Climate Response), das ist die Erwärmung durch Kohlendioxidverdopplung im Verlaufe der stetigen Erhöhung des Anteils dieses Treibhausgases in unserer Atmosphäre. Sie ist vornehmlich für das Temperaturniveau in dekadischen Zeiträumen (also bis mindestens 2100) verantwortlich.
Mauritsen kommt zu einer TCR von 1,32 °C , wir kamen seinerzeit zu einer TCR von 1,25 °C – da besteht kein großer Unterschied, zumal Mauritsen die neueren Erkenntnisse der Aerosolforschung nicht berücksichtigt hat, die ergeben, dass Aerosole (Staub, Sulfat) eine nur halb so stark dämpfende Wirkung auf die Temperaturentwicklung haben als in den IPCC -Berichten angenommen. Daraus ergibt sich, dass die erwärmende Wirkung des CO2 in den Modellen entsprechend weniger stark sein muss, wie bislang behauptet. Darüber hatte ich in meinem letzten Rundschreiben berichtet : Wenn Björn Stevens , Direktor des Max-Planck Instituts für Meteorologie in Hamburg, feststellt , dass Aerosole keine so stark negative Wirkung auf die Temperaturentwicklung haben kann, dann darf CO2 nicht so stark temperaturtreibend sein, wenn Modelle und Wirklichkeit einigermassen in Übereinstimmung zu bringen sind.
Es bedarf also einer grundlegenden Überarbeitung der IPCC-Modelle, die von einer TCR bis 2,5 °C ausgehen – mit fundamentalen Konsequenzen.
Denn selbst, wenn man in der Modellwelt des IPCC verbleibt – wonach der Einfluss der Sonne und der ozeanischen zyklischen Meereströmungen eine völlig untergeordnete Rolle spielen – kommt man zu einer Konzentration von 600 ppm CO2 , um das 2 Grad Ziel nicht zu überschreiten. Geht man von aktuell 407 ppm CO2 aus und einem augenblicklichen Wachstum von 2,11 ppm pro Jahr, wären die 600 ppm im Jahre 2108 erreicht. Natürlich wäre es notwendig, gegen Ende dieses Jahrhunderts die CO2 –Emissionen deutlich zu senken –eine Aufgabe für drei globale Generationen und nicht für drei deutsche Legislaturperioden !
Insofern steht nichts anderes als der Pariser Vertrag zur Disposition. Denn danach kann der mit Abstand globale Hauptemittent China ( 29 % der CO2-Emissionen der Welt) bis 2030 die CO2-Emissionen um 85 % ansteigen lassen, Europa hat aber aber die Emissionen um 40 % bis 2030 zu senken. China baut nach dem aktuellen 5 Jahresplan bis 2020 allein 368 Kohlekraftwerke, Indien 370. Das heißt für China, zwei Kohlekraftwerke pro Woche. Diese Planung ist sechs Monate nach dem Pariser Abkommen bekannt geworden.
Da kann man die Bewertung der deutschen Umweltministerin, Barbara Hendricks, zum Ausstieg der USA aus Paris :„Es kann ja nicht im Interesse Europas sein, China die Führungsrolle im Klimaschutz allein zu überlassen“ nur als ziemlich dümmlich zu bezeichnen.
Nun kann man einwenden, dass es doch gerechter wäre, den CO2 Ausstoss pro Kopf zu berechnen. Nun, das Ergebnis ist überraschend: China 7,7 t CO2/ Kopf , EU 6,9 t CO2/Kopf. In 2030 sollen die Europäer mit dem CO2- Ausstoss pro Kopf runter auf 4 t und China darf auf 14t/Kopf, USA soll runter auf etwa 10t/Kopf. Letzteres hat nun Donald Trump kassiert. http://www.kaltesonne.de/usa-beginnen-den-prexit/
Dabei wird er bemerkenswerter Weise unterstützt von US- amerikanischen Klimaforschern wie Prof. Richard Muller, Berkeley, verantwortlich für die globale Temperaturmessreihe BEST ( Berkeley Earth Surface Temperature). Er fordert die Aufkündigung des Pariser Abkommens mit der Begründung, dass China angekündigt habe aus den Mitteln des grünen Klimafonds (100 Mrd Dollar) neue Kohlekraftwerke zu bauen. Muller spricht sich dagegen für Schiefergasnutzung, Kernenergie und vor allen Dingen gegen das Elektro-Auto aus, dass die CO2 Emissionen dramatisch steigen lässt, so lange die Batterieherstellung mit Hilfe von Kohlekraftwerksstrom in Südostasien erfolgt. So stösst dort die Herstellung von Batterien soviel CO2 aus wie ein Dieselfahrzeug auf 160 000 gefahrenen Kilometern.
Alles das geht an unseren grünen Wahlkämpfern vorbei : die Kanzlerin erklärt im Kreis von Regierungs- und Staatschefs, dass die “ Autoindustrie in ihrer heutigen Form nicht überleben werde“ , Martin Schulz will eine Quote für das Elektro-Auto und die Grünen fordern das Verbot für Benziner und Diesel ab dem Jahre 2030.
Alles für den Kimaschutz. Wir haben die Wahl.
Herzlichst
Ihr
Fritz Vahrenholt

 




Die Arbeitsplatz-Illusion von der Energiewende

 Als „System-Medium“ macht die FAZ die Merkel’sche Energiewende samt Klimaschutzwahn stets brav mit. Aber gelegentlich finden sich in dem Blatt dazu auch lichte Momente. Zwar bleiben Zweifel am Glauben oder gar der blasphemische Unglaube, das Klima vor Erwärmen schützen zu können, nach wie vor ausgespart, doch liest man dort zuweilen, was der Schwindel teilweise kostet und dass der menschenverursachte CO2-Ausstoß in Deutschland trotz aller Aufwendungen nahezu unverändert bleibt. Einen dieser lichten Momente hat die FAZ den Lesern neulich in ihrem Wirtschaftsteil beschert und dem Ökonomen Manuel Frondel eine ganze Seite eingeräumt, um vorzuführen, dass die vielen zusätzlichen Arbeitsplätze der abenteuerlichen Stromerzeugungspolitik mittels Wind, Sonne und Pflanzenmasse eine Illusion sind. Das zu tun, ist notwendig und für Ökonomen geradezu verpflichtend, denn in Deutschland pflegt die Energiewende-Lobby und die ihr hörige politische Führung Energiewende und Klimaschutz von jeher als „Job-Motor“ anzupreisen. Noch im Juni 2017 hat das Bundesministerium für Wirtschaft in einem Newsletter  die „erneuerbaren“ Energien als „Jobmotor“ bezeichnet. Auch das Wort „Job-Wunder“ hat man in diesem Zusammenhang schon vernommen.

 

Was schlechte und gute Ökonomen unterscheidet

„Was man sieht und was man nicht sieht“, war ein Essay überschrieben, den 1848 der französische Ökonom Frédéric Bastiat verfasst hat. Als einer der Klassiker seiner Zunft unterschied er zwischen schlechten und guten Ökonomen. Die schlechten nähmen nur das offenkundig Sichtbare von Maßnahmen wahr, aber nie – wie die guten – deren (zunächst) verborgenen Wirkungen. Zu den schlechten Ökonomen gehören meist auch die Politiker und die übrigen Menschen. Darum ist schlechte Politik mit ökonomischen Fehlschlüssen und ungewollten wirtschaftlichen Folgewirkungen so populär.

Was eine ehrliche Beschäftigungsbilanz ausmacht

Zu den in diesem Sinn guten Ökonomen kann man also auch Manuel Frondel*) zählen. Er nämlich legt dar, warum die Subventionierung der Stromerzeugung mit Wind, Sonnenlicht und „Biogas“  (alternative oder „erneuerbare“ Energien) als Arbeitsplatzargument ebenso wenig taugt wie einst die subventionierte deutsche Steinkohle.  Eine ehrliche Beschäftigungsbilanz dürfe nicht nur die durch Subventionen erkauften  n e u e n  Arbeitsplätze ins Blickfeld rücken, sondern auch die Subventionsfolgen auf die  b i s h e r i g e n  Arbeitsplätze und  a n d e r e  Wirtschaftsbereiche.

Die Arbeitsplätze, die man sieht

Was man zunächst sieht, sind die Arbeitsplätze, die durch die alternative Stromerzeugung entstehen: Windkraftanlagen sind zu bauen, ebenso Fotovoltaik- und Biogasanlagen. Die Teile dafür müssen produziert und zugeliefert, sie müssen montiert und die fertigen Anlagen gewartet werden. Die Investitionen dafür benötigen eine Finanzierung und Kreditverträge. Das verschafft zusätzliche Beschäftigung in Banken und Anwaltskanzleien. Subventionierung muss gesetzlich geregelt und überwacht werden, und es sind – wie stets bei staatlicher Intervention – immer mehr Folgeregulierungen nötig, was zu noch mehr Arbeitsplätzen in der behördlichen Bürokratie führt und zu zusätzlicher Freude in Anwaltskanzleien.

Die Arbeitsplätze, die man zu sehen vermeidet

Was man nicht gleich sieht (oder vielleicht auch zu sehen vermeiden will), sind jene Arbeitsplätze, die als Folge der Subventionierung verloren gehen. Das sind zuerst jene in der bisherigen, der herkömmlichen Stromerzeugung mit Kohle, Erdgas und Kernkraft. Die staatliche Intervention führt dazu, dass diese konventionellen Kraftwerke nur zeitweise Strom liefern dürfen und daher unwirtschaftlich werden oder – wie Kernkraftwerke – ganz verschwinden sollen. Später soll es selbst Braunkohlekraftwerke nicht mehr geben dürfen. Frondel schreibt: „Daher ist seit Jahren bei den großen Stromversorgern ein deutlicher Rückgang der Beschäftigung um Tausende von Stellen zu verzeichnen. Negative Beschäftigungswirkungen sind darüber hinaus in den der konventionellen Stromerzeugung vorgelagerten Sektoren wie dem konventionellen Kraftwerksbau zu erwarten. Die so verlorenen Arbeitsplätze müssen den im Erneuerbaren-Sektor entstandenen Stellen gegenübergestellt werden, wenn eine ehrliche Bilanz gezogen werden soll.“

Wenn eine ehrliche Arbeitsplatz-Bilanz gezogen werden soll

Ferner, so Frondel, sei auch jene fiktive Zahl an Arbeitsplätzen zu berücksichtigen, die hypothetisch geschaffen worden wären, wenn es die Subventionierung der alternativen Stromerzeugung nicht geben würde, und dieser fiktive Wert sei von der Zahl der tatsächlich entstandenen Stellen in der alternativen Stromherstellung abzuziehen. Dadurch, dass diese nachteiligen Wirkungen unberücksichtigt blieben, würden sie die wahren Folgen für die ökonomische Wohlfahrt einer Gesellschaft verschleiern. Nur die mit dem Alternativstrom geschaffenen und vorhergesagten Arbeitsplätze herauszustellen, zeichne in vieler Hinsicht ein verzerrtes Bild. Damit gäbe man nur die Brutto- und nicht die Nettobeschäftigungseffekte wieder. Die verlorenen Arbeitsplätze müssten den in der subventionierten Stromerzeugung entstandenen Stellen gegenübergestellt werden, wenn eine ehrliche Bilanz gezogen werden solle. In diesem Zusammenhang hält Frondel zwei Aspekte für besonders wichtig:

Investitionen, die wegen höherer Strompreise unterbleiben

„Erstens: Mit Ausnahme der von der EEG-Umlage weitgehend verschonten rund 2500 energieintensiven Betriebe fallen auch die Investitionen der industriellen Stromverbraucher infolge höherer Strompreise um Milliarden Euro geringer aus als ohne Subventionierung der alternativen Energietechnologien.“

Der addierte Kaufkraftverlust und seine Milliarden-Folgen

„Zweitens: Der Kaufkraftverlust der privaten Verbraucher infolge höherer Strompreise addiert sich über die jahrzehntelange Förderdauer hinweg auf dreistellige Milliardenbeträge – auch wenn sich die Belastung eines einzelnen Haushalts vergleichsweise gering ausnimmt. Nach langjährigen RWI-Erhebungen für das Bundeswirtschaftsministerium verbraucht ein Drei-Personen-Haushalt im Durchschnitt jährlich rund 4000 Kilowattstunden. Das macht bei der derzeitigen EEG-Umlage von 6,88 Cent pro Kilowattstunde rund 330 Euro pro Jahr (inklusive Mehrwertsteuer).“

Was den Stromverbrauchern an zusätzlichen Milliarden abgeknöpft wird

Frondel rechnet vor: Seit die Subventionierung über das Erneuerbare-Energien-Gesetz im Jahr 2000 eingeführt worden sei, hätten die Stromverbraucher mehr als 150 Milliarden Euro mit ihren Stromrechnungen bezahlt. Da die EEG-Vergütungen noch bis zu zwei Jahrzehnte lang gesetzlich festgeschrieben seien, ergäben sich, grob überschlagen, weitere Subventionskosten von 400 Milliarden Euro. Dabei geht er davon aus, dass die EEG-Subventionen von durchschnittlich 20 Milliarden Euro im Jahr über die nächsten zwanzig Jahre hinweg weiterlaufen.

Was die Verbraucher für Strom mehr bezahlen müssen, fehlt ihnen zum Ausgeben woanders

Dadurch, dass die staatlich nach oben getriebenen Strompreise den privaten Verbrauchern Kaufkraft entziehen, entstehen negative Arbeitsplatzeffekte zu Lasten anderer Wirtschaftszweige: Was die Verbraucher für Strom mehr ausgeben müssen, fehlt ihnen für den Kauf anderer Dinge. Und den davon nachteilig betroffenen Unternehmen entziehen sie sonst mögliche Einnahmen und damit Kapital für Investitionen, was ebenfalls auf negative Arbeitsplatzeffekte hinausläuft. Zu Arbeitsplatzverlusten kommt es wegen der hohen Subventionierung also auch außerhalb der Stromerzeugung.

Die stets vergessenen Opportunitätskosten

Darüber hinaus würden bei der Subventionierung von Alternativstrom, wie Frondel kritisiert, deren „Opportunitätskosten“ vergessen. Das sind Kosten, die aus dem entgangene Nutzen von Investitionen  resultieren und wegen dieser Subventionierung  nicht getätigt werden, aber eventuell profitabler sind als die Investitionen in den Alternativstrom. So müsse zum Beispiel für alle seit 2000 in Deutschland mit realen Nettokosten von mehr als 110 Milliarden Euro installierten Solaranlagen „die Frage gestellt werden, ob diese gewaltige Summe nicht besser hätte investiert werden können. Dazu zählen beispielsweise Ausgaben für Bildung oder für Forschung und Entwicklung von Energiespeichertechnologien, für welche wesentlich mehr Geld zur Verfügung gestanden hätte, wenn auf die starke Förderung der Photovoltaik verzichtet worden wäre“.

Investitionen in Bildung und Forschung bringen mehr Arbeitsplätze als Subventionen

Frondel abschließend: „Die Frage, was eine Nation dafür aufgeben muss, also die Frage nach der Verwendung substantieller Mittel für alternative Zwecke, wird von der Politik selten gestellt. Dies ist umso bedauerlicher, als zu erwarten ist, dass Investitionen in Bildung und Forschung die Wohlfahrt und Beschäftigung eines Landes langfristig wesentlich stärker steigern als die flächendeckende Verbreitung noch längst nicht ausgereifter alternativer Technologien, die aufgrund von Effizienz- und Kostennachteilen auch zum jetzigen Zeitpunkt noch immer nicht wettbewerbsfähig sind.“

Eine Frage, die sich die Politiker stellen müssten, aber zu stellen vermeiden

Frondel mahnt, bei allen ökologischen Vorteilen, die das Subventionieren von Alternativstrom durch das Verdrängen fossiler Stromerzeugung und das damit einhergehende Verringern negativer externer Umwelteffekte bringe, müssten sich Politik, Befürworter und Verbraucher die Frage stellen, welchen Preis sie dafür bezahlen – und welchen sie zu zahlen bereit sind. Ja, das müssten sie. Aber Politiker und Befürworter (Subventionsprofiteure) wollen diese Fragen nicht stellen, und die Masse der Verbraucher stellt sie noch nicht, weil sie desinformiert sind und der Schaden für sie bisher nicht spürbar genug ist.

Die Energiewende-Kosten sind sinnlos rausgeschmissenes Geld

Zu bestreiten ist, dass der Alternativstrom überhaupt ökologische Vorteile hat. Frondel sieht sie offenkundig im Verdrängen der Stromerzeugung aus fossilen Brennstoffen (Kohle, Erdgas, Erdöl), also im Einsparen von anthropogenem CO2 aus (vorgeblichen) Klimaschutzgründen. Warum sich das Klima mit diesem Einsparen gar nicht schützen lässt, ist die letztlich entscheidende Frage. Diese Frage müsste sich Frondel selbst stellen. Da dieses CO2 auf das Klima, wie vielfach plausibel belegt, nahezu keinen Einfluss hat, sind das Subventionieren und die Kosten des Alternativstroms sinnlos rausgeschmissenes Geld.

Der ganze FAZ-Beitrag von Frondel hier.

__________________________________________________________________________

*) Manuel Frondel ist Professor für Energieökonomik und angewandte Ökonometrie.Näheres über ihn hier.

PS.  Darüber, wie EEG und Energiewende Arbeitsplätze vernichten und dass dieser Zusammenhang unterdrückt wird, weil es (klima)politisch nicht opportun ist, habe ich anhand von Beispielen schon am 14. November 2013 etwas geschrieben (hier).

Zum Argument, der Alternativstrom schaffe zahlreiche neue Arbeitsplätze hat der Wirtschaftswissenschaftler Carl Christian von Weizsäcker schon 2008 knapp und kühl befunden: „Das Argument halte ich für Unsinn. Damit könnte man sagen: je ineffizienter eine Technik ist, desto mehr Arbeitsplätze schafft sie. Denn eine ineffiziente Technologie benötigt pro Output-Einheit mehr Arbeitskräfte als eine effizientere Technologie. Unser Wohlstand beruht darauf, dass seit Jahrhunderten ineffiziente Technologien im Wettbewerb mit effizienteren Technologien ausgemerzt wurden. Nun zu sagen, dass Technologien, die nur durch die enorm überteuerte Einspeisevergütung existieren, wettbewerbsfähige Arbeitsplätze schaffen, ist volkswirtschaftlich unsinnig. Das lehrt auch die Geschichte: Unsere heutige Volkswirtschaft ist etwa 40mal produktiver als vor zweihundert Jahren. Das heißt aber nicht, dass wir heute nur 1/40 der Zahl der damaligen Arbeitsplätze haben. Daraus folgt, dass das Argument, ineffiziente Technologien würden Arbeitsplätze schaffen, nicht stimmen kann.“  (Im Interview mit Welt Online  am 8. Dezember 2008. Das ganze Interview hier).

Dort hat Weizsäcker auch dies geäußert: „Ich halte die ganze Politik der Erneuerbaren Energiequellen für schlecht durchdacht. Aber das ist natürlich eine Lobby-Geschichte. Die Art und Weise, wie Energien am Haushalt vorbei gefördert werden, führt dazu, dass sich bestimmte Interessengruppen durchsetzen und für ihre Klientel elegant absahnen können. Der Staat missbraucht die Tatsache, dass der Konsument auf das Stromnetz angewiesen ist, um dem Bürger allerhand Lasten aufzulegen. Das nennt man Steuer. Steuern werden immer da erhoben, wo der Mensch nicht ausweichen kann.“

Zur Frage, ob es zwischen dem einstigen Kohlepfennig und der EEG-Einspeisevergütung Parallelen gebe, weil das Bundesverfassungsgericht 1994 den Kohlepfennig für verfassungswidrig erklärt habe, meinte Weizsäcker unter anderem: „Kohlepfennig und EEG-Einspeisevergütung sind wirtschaftlich genau das Gleiche.“ Daher seien Verfassungsklagen auch gegen diese Vergütung versucht worden, „doch hat das Bundesverfassungsgericht die Klage nicht einmal angenommen. Das ist erstaunlich, denn sowohl beim Kohlepfennig damals als auch bei der Einspeisevergütung heute handelt es sich um eine Sonderabgabe, letztlich eine Steuer, unter Umgehung unseres Haushaltsrechtes. Vermutlich war die Klage schlecht vorbereitet oder die Kläger nicht seriös genug“.

Zur Frage „Warum gibt es keine seriösen Kläger?“ lautet Weizsäckers Antwort: „Das EEG ist inzwischen gut verankert. Sehr viele Gruppen profitieren davon. Die Grünen sind sowieso dafür, die Bauern auch. Die Zustimmung reicht von konservativ bis links, vom Wähler in Freiburg bis zum Wähler im Kaiserstuhl. Die Energiewirtschaft ist in der Defensive; sie wird von links angeschossen, weil sie Kernkraftwerke betreibt, von der anderen Seite, weil die Strompreise zu hoch seien. Zudem haben sie von der Einspeisevergütung unmittelbar keinen Schaden; sie leiten den teuren Strom nur weiter und lassen die Stromkunden zahlen. Inzwischen haben sie die Erneuerbaren auch als Markt entdeckt, auf dem sich, gesetzlich garantiert, gutes Geld verdienen lässt.“

Der Beitrag erschien zuerst auf dem Blog des Autors hier




Autoindustrie am Gängelband der Politik – Planwirtschaft läßt grüßen

Daß man nur ein weiteres überschaubares Lösegeld an die Umverteilungspolitiker bezahlen muß und Massenenteignungen der Kunden durch Fahrverbote nochmal abgewendet werden konnten, feiern sie schon als Erfolg.

Nach der faktenfreien Panik, mit der zuletzt Atomausstieg und „Energiewende“ inszeniert und übers Knie gebrochen wurden, offenbart die geschürte Hysterie um Feinstaub und Diesel­emissionen ein weiteres Mal den bedenklichen Geisteszustand der tonangebenden Kräfte in einem Land, das immer noch zu den führenden Industrienationen der Welt zählt.

Der „Diesel-Skandal“ ist ein Phantomproblem

Die Zutaten sind skrupellose Öko-Lobbyisten und bornierte Sektierer in Politik und Medien, die bedenkenlos den industriellen Kern demontieren; eine opportunistische Regierungspartei, die vom Fürsprecher ökonomischer Vernunft und unternehmerischer Freiheit zum Handlanger ideologiegetriebener Wirtschaftshasser und Technikfeinde geworden ist; hasenfüßige Fachleute und Konzernlenker, die sich in ihrer Subventionsmentalität weiter an die Politik klammern und vor dem grün-linken Zeitgeist einen Kotau nach dem anderen vollführen, statt seinen Zumutungen energisch und rational zu widersprechen.

Der „Diesel-Skandal“ ist ein Produkt dieser Konstellation. Nüchtern betrachtet ist er ein Phantomproblem: Die Luft in Deutschland ist rein wie nie zuvor in einem Industrieland, die Autoabgase schadstoffärmer denn je, allein die vor allem bei Dieselaggregaten anfallenden Stickoxid-Emissionen sind im letzten Vierteljahrhundert um 70 Prozent gesunken.Trotz aller Erfolge mißbrauchen Lobbyisten mit Öko-Etikett und die von ihnen getriebene Politik ihre gewachsene Macht, um die Autoindustrie mit immer schärferen Grenzwerten zu treiben, die längst jedes vernünftige Maß hinter sich gelassen haben. Die zulässige Stickoxid-Belastung im Straßenverkehr ist inzwischen zwanzigmal niedriger als am Arbeitsplatz.

Die Autos, die die Kunden kaufen wollen und mit denen die Industrie Geld verdienen kann, können diese Anforderungen objektiv kaum erfüllen. Die Hersteller haben sich trotzdem auf das Spiel eingelassen und das Nicht-Machbare versprochen. Mit dem Hintergedanken, sich mit Tricksereien aus der Affäre zu ziehen, und in der Hoffnung, die Politik werde sie schon decken, um die Kuh nicht zu schlachten, an der die wichtigste Wertschöpfungskette im Lande hängt.

Auf dem Weg in die automobile Planwirtschaft

Diese Strategie ist an der Gnadenlosigkeit der Öko-Lobbyisten und Grün-Ideologen und an der Unterwürfigkeit der Politik gegenüber ihrer medialen Deutungsmacht grandios gescheitert. Denn bei der Panikmache mit absurden Grenzwerten und aus fiktiven Annahmen errechneten Horrorstatistiken über „Feinstaub“- und „Dieseltote“, die in letzter Konsequenz jedes Fahrzeug zur mörderischen Dreckschleuder stempeln, geht es längst nicht mehr um vorgeschobene hehre Ziele wie Luftreinhaltung und öffentliche Gesundheit.

Mit der massiven Kampagne gegen den Diesel­antrieb ist Deutschland auf Siebenmeilenstiefeln auf dem Weg in die automobile Planwirtschaft. Nicht nur ein vermeintlich „umweltschädlicher“ Antrieb soll verdrängt und aus dem Verkehr gezogen werden, die individuelle Mobilität und damit ein wesentliches Stück Bürgerfreiheit selbst steht zur Disposition. Die Bürger sollen umerzogen und gezwungen werden, bestimmte Fahrzeuge zu kaufen und andere nicht, und die Hersteller sollen ebenfalls ans Gängelband gelegt werden und ihr Angebot an ideologischen und politischen Vorgaben ausrichten.

Dem gelernten „DDR“-Bürger mag das seltsam bekannt vorkommen. Der „Trabant“ der grünen Planwirtschaft ist das Elektroauto. Unter marktwirtschaftlichen Bedingungen bleibt es ein Prestigespielzeug für Wohlhabende, das noch dazu von der Allgemeinheit zwangssubventioniert werden muß. In Flexibilität, Reichweite und individueller Bewegungsfreiheit ist der E-Antrieb dem Verbrennungsmotor unterlegen und wird es auf absehbare Zeit auch bleiben.

China ist kein Vorbild

Man mag den Furor belächeln, mit dem von Lehrern, Politologen und Studienabbrechern dominierte Grünen-Parteitage Totalverbote für Verbrennungsmotoren fordern oder der Sozialpädagoge Cem Özdemir der Autoindustrie erklären will, wie das Auto der Zukunft aussehen soll, und Bundeskanzlerin Merkel noch vor kurzem das Planziel von einer Million Elektroautos in ein paar Jahren ausgegeben hat.

Der rasante Vormarsch des Ungeists der sozialistischen Planwirtschaft in Politik und Öffentlichkeit sollte indes ebenso entschiedenen Widerspruch wecken wie die Begeisterung, mit der die Propagandisten der Elektromobilität die kommunistische Einparteiendiktatur China als Vorbild preisen. Peking geht es um handfeste wirtschaftliche Interessen: Ein Drittel der Wertschöpfung beim Bau eines Elektroautos findet in der Akkuproduktion statt. Und da hat das Reich der Mitte gegenüber den europäischen Motorenherstellern die Nase vorn.

Wie der Autoantrieb der Zukunft aussehen könnte, wird nicht in Politbüros und staatlichen Planungskommissionen entschieden, sondern im von dirigistischen Bevormundern möglichst ungehinderten freien Spiel von Markt und Forschergeist. Kaiser Wilhelm II. glaubte noch, die Zukunft gehöre dem Pferd; er war aber klug genug, nicht alles andere verbieten zu wollen. Planwirtschaft bedeutet schlechtere Versorgung zu höheren Preisen, das können die Nachwendedeutschen gerade an der „Energiewende“ lernen. Diesem Fehlgriff auch noch eine verordnete „Mobilitätswende“ folgen zu lassen, könnte Deutschland das industrielle Rückgrat brechen.

Dieser Beitrag erschien zuerst bei Junge Freiheit hier