1

Elektromobilität? Politiker-Beschwichtigungs-Karossen!

Die nordrhein-westfälische Umweltministerin Christina Schulze Föcking machte unlängst Schlagzeilen, als sie einen erst kurz vorher von ihrem Vorgänger angeschafften Tesla-S-90D-Elektro-Dienstwagen wieder ausmustern ließ. Wer hier vermutet, dass man das nicht gerade ökologisch korrekte Image einer 110.000 Euro teuren und 422 PS leistenden Luxuskarosse scheute, beweist damit nur sein Alter. Moderne Öko-Hipster denken im Traum nicht mehr daran, ihre Doppelmoral schamvoll zu verbergen und zumindest nach außen hin eine Fassade von Frugalität zu bewahren; sie haben keine Hemmungen, ihren ressourcenfressenden Lebensstil ungeniert zur Schau zu stellen, solange sich irgendein Gimmick finden lässt, mit dem sie ihre öko-moralische Überlegenheit demonstrieren können. Nein, man war schlicht und ergreifend mit der Leistung der Rennsemmel unzufrieden, die Reichweite habe sich im Praxisbetrieb mit weniger als 300 Kilometern als zu gering herausgestellt. Als Ersatz gönnt sich die Ministerin jetzt einen noch dickeren Mercedes-S500-Verbrenner mit 442 PS (aber immerhin in der besonders teuren Hybridversion mit zusätzlichem Alibi-Elektromotörchen).

Also ein weiteres typisches Beispiel des Wasser-predigen-aber-Wein-saufen-Verhaltens der bundesrepublikanischen politischen Klasse, der die von ihr gepuschte Elektromobilität für den Eigengebrauch nicht gut genug ist, nicht einmal in einer High-End-Luxusausführung.

Wir wollen erst gar nicht die Frage aufwerfen, warum unsere Öko-Politokraten überhaupt dem bösen Individualverkehr frönen und nicht die vielgelobten (und subventionierten) öffentlichen Verkehrsmittel benutzen, die sie uns Normaluntertanen aufzwingen wollen.

Die Episode zeigt aber insbesondere auch in aller Deutlichkeit, dass trotz allen Hypes Elektroautos Lichtjahre von einer Wettbewerbsfähigkeit mit den uncoolen Verbrennern entfernt sind. Was das Reichweitenproblem angeht, so ergibt sich dies schon unmittelbar aus harten physikalischen Tatsachen: Die spezifische Energie eines Bleiakkus beträgt etwa 35 Wattstunden pro Kilogramm, moderne Lithium-Ionen-Akkus liegen hier deutlich besser bei etwa 150 Wattstunden pro Kilogramm. Aber: Benzin hat einen Energiegehalt von 12.800 Wattstunden pro Kilogramm, also 85 Mal soviel!

Eine Speicherkapazität von einer Kilowattstunde benötigt also einen Lithium-Ionen-Akku mit einer Masse von 6,67 Kilogramm; dies entspricht gerade einmal 0,08 Kilogramm oder 0,1 Liter Benzin. Hier muss man noch die unterschiedlichen Wirkungsgrade berücksichtigen: Im optimalen Drehzahlbereich erreicht beim heutigen Serienstand der Technik ein Saugbenziner 30 bis 35 Prozent, ein Turbobenziner 35 bis 40 Prozent und ein Diesel 40 bis 45 Prozent, während ein Elektromotor 90 Prozent und mehr erreichen kann (wobei aber etwa zehn Prozent Verlust in der Leistungselektronik zwischen Akku und Motor abgezogen werden müssen). Aber selbst wenn wir sehr großzügig aufrunden und von einer durchschnittlichen dreifachen Effizienz des Elektroantriebs gegenüber einem Benziner oder einer 2,5-fachen gegenüber einem Diesel ausgehen, so würden 6,67 Kilogramm Akkumasse doch immer noch lediglich etwa 0,24 Kilogramm oder 0,3 Litern Benzin entsprechen.

Der 90-Kilowattstunden-Akku des verschmähten Tesla entspricht also gerade einmal 27 Litern Benzin; dass die Reichweite des Wagens unter diesen Umständen zu wünschen übrig lässt, verwundert nicht wirklich, denn das ist recht mager für ein Zwei-Tonnen-Fahrzeug, woran der Akku mit mehr als einer halben Tonne wesentlich beteiligt ist. Das hohe Gewicht der Batterie wirkt sich natürlich auch negativ auf den Verbrauch aus: Bei Benzinern rechnet man für alle 100 Kilogramm mehr Gewicht mit einem Mehrverbrauch von etwa 0,3 bis 0,4 Litern je 100 Kilometer, was als Vorwand für staatliche Vorschriften genommen wird, die den Automobilherstellern strikte Gewichtsbeschränkungen bei neuen Verbrenner-Automodellen auferlegen; die Automobilhersteller sehen sich bei diesen deshalb gezwungen, um jedes Gramm zu kämpfen und vom technischen Standpunkt aus gesehen unnötige Kompromisse einzugehen. Bei den heiligen Elektro-Kühen, wo, wie wir hier sehen, das zusätzliche Gewicht allein durch die Batterie eine halbe Tonne mehr als bei einem äquivalenten Verbrenner betragen kann, kräht kein Hahn danach. Und die 90 Kilowattstunden gelten wohlgemerkt für ein extrem teures High-End-Modell, Elektromobile in für Normalverdiener halbwegs erschwinglichen Preisbereichen müssen mit Akkus von deutlich geringerer Kapazität auskommen. Üblich sind derzeit Kapazitäten im Bereich von etwa 30 Kilowattstunden, was nach unserer obigen Rechnung eine Tankgröße von gerade neun Litern ergibt.

Das Problem der geringen Reichweite wird noch wesentlich verschärft durch das zweite technische Hauptmanko der Elektrofahrzeuge, nämlich die langen Ladezeiten. Diese sind bedingt durch die sehr begrenzte Rate, mit der Batterien geladen werden können, ohne sie zu beschädigen. Heutige Ladestationen haben in der Regel eine Laderate von elf oder 22 Kilowatt; die „Supercharger“ von Tesla schaffen immerhin bis zu 120 Kilowatt. Für die fernere Zukunft wird von 350 Kilowatt gemunkelt, obwohl noch nicht klar ist, welche Fahrzeuge diese überhaupt werden nutzen können. Der Verbrennerfahrer kann über solche Zahlen nur müde lächeln; eine normale Pkw-Benzinzapfsäule mit einer Durchflussmenge von 35 Litern pro Minute hat, in Elektronomenklatur ausgedrückt, eine „Laderate“ von gigantischen 21 Megawatt oder immer noch von sieben Megawatt, wenn wir unseren großzügigen Umrechnungsfaktor benutzen.

Während man so einen Kraftstofftank in höchstens zwei bis drei Minuten auffüllen kann, dauert dies bei einem Elektromobil typischerweise mindestens fünf bis sechs Stunden, weshalb es in der Praxis zumeist erforderlich ist, in eine eigene häusliche Ladestation zu investieren, um über Nacht „nachtanken“ zu können. Inzwischen gibt es bei einigen Modellen auch „Schnelladung“; auch hier wird die Wartezeit an der Stromtankstelle aber ganz schön lang, da es die Ladezeit bestenfalls auf etwa 20 bis 30 Minuten verkürzt. Zudem setzen so hohe Ladeströme die Lebensdauer des Akkus herab, weshalb etwa bei Tesla die Anzahl der Schnelladezyklen über die Fahrzeugsoftware begrenzt wird. Ohnehin kommt man mit Schnelladung nur bis zu etwa 80 Prozent der Nennkapazität, wer volltanken will, muss die restlichen 20 Prozent im normalen Ultra-Schneckentempo absolvieren.

Aber auch unabhängig vom „Schnelladen“ wird empfohlen, nicht mehr als bis auf 80 Prozent der Nennkapazität aufzuladen und auf nicht weniger als 20 Prozent zu entladen, um die Lebensdauer des Akkus nicht herabzusetzen. Dies bedeutet natürlich effektiv, nur 60 Prozent der ohnehin unzureichenden Akkukapazität zu nutzen. Generell sind bislang kaum belastbare Erfahrungsdaten darüber publik geworden, wie gut es um die Langzeit-Haltbarkeit der Fahrzeugakkus steht; man geht von im Normalfall etwa sieben bis zehn Jahren aus, bis der Kapazitätsverlust einen Austausch nötig macht.

Ein weiteres ernstes Problem ist die starke Temperaturabhängigkeit der Akkus, die angegebenen Nennwerte erreichen sie nämlich nur in einem recht engen Temperaturbereich von etwa 20 bis 30 Grad Celsius. Außerhalb dessen sind negative Auswirkungen sowohl auf Kapazität als auch auf Ladezeit und Effizienz sowie Lebensdauer zu erwarten. So ist etwa bereits bei minus fünf Grad mit Kapazitätsverlusten im Bereich von 50 Prozent zu rechnen. Oftmals besitzen Elektroautos deshalb eine Heizung und eine Klimaanlage für die Batterie, was aber nicht nur ein Kostenfaktor ist, sondern auch für einen hohen zusätzlichen Energieverbrauch sorgt.

Aber mindestens ebenso bedeutsam wie die massiven technischen Nachteile des Elektroautos sind seine Kosten. Staatliche Subventionen und die für die Hersteller nicht kostendeckenden Preise (die letztendlich zumeist von den Käufern der normalen Modelle getragen werden müssen) verschleiern oftmals, wie exorbitant der Kostenaufschlag für die Elektromobilität eigentlich ausfällt.

Eine sehr gute Basis für einen realistischen Vergleich der Produktionskosten von Elektrikern und Verbrennern bietet der Chevrolet Bolt von General Motors, da er in relativ hohen Stückzahlen produziert wird und bis auf seinen elektrischen Antriebsstrang weitgehend identisch mit dem Benziner Sonic ist: Der Bolt hat einen Listenpreis von 37.000 US-Dollar (durch Subventionen kann dies für den Käufer natürlich deutlich weniger werden), einen Sonic mit vergleichbarer Ausstattung bekommt man schon für 19.000 US-Dollar. Allerdings macht GM etwa 8.000 bis 9.000 US-Dollar Verlust für jeden produzierten Bolt, womit sich die tatsächlichen Kosten auf mindestens 45.000 US-Dollar belaufen, was satte 26.000 US-Dollar oder 137 Prozent Mehrkosten im Vergleich zur Benziner-Version bedeutet. Dazu müsste man natürlich eigentlich noch die Gewinnspanne für die Benziner-Version aufschlagen, auf die GM bei seinen „normalen“ Fahrzeugen wohl kaum verzichten wird (auch wenn sie, da es sich um einen Kompaktwagen handelt, vermutlich nicht allzu üppig ausfallen wird).

Bei anderen Anbietern kommt man auf ganz ähnliche Zahlenwerte. So bietet etwa auch Fiat aufgrund der „Zero Emission“-Gesetze im US-Bundesstaat Kalifornien, die Elektro-unwilligen Automobilherstellern heftige Strafzahlungen androhen, eine Stromer-Version des Fiat 500 an. Sie kostet happige 33.000 US-Dollar im Vergleich zu etwa der Hälfte für eine entsprechende Benziner-Version. Einen Gewinn macht Fiat damit aber genauso wenig wie GM, wie Fiat-Chrysler-Chef Sergio Marchionne auf einer Konferenz mit folgender, wenig enthusiastischer „Werbebotschaft“ für das ungeliebte Produkt klarmachte: „Ich hoffe, Sie kaufen es nicht, denn jedes Mal, wenn ich eines verkaufe, kostet es mich 14.000 Dollar.“

Die Kosten für ein Elektroauto betragen also deutlich mehr als das Doppelte eines ansonsten vergleichbaren Verbrenners (vergleichbar heißt aber nicht gleichwertig, da natürlich die Gebrauchsnachteile des Elektrikers berücksichtigt werden müssen). Wie kommt diese gewaltige Kostenkluft zustande? Zum einen ist da natürlich der Preis für den notwendigen massiven Akku. Das kann aber nicht alles sein, wie ein weiterer Blick auf das Beispiel Chevrolet Bolt klarmacht. Der Einkaufspreis der Zellen für den dort verbauten 60-Kilowattstunden-Akku beträgt laut GM 8.700 US-Dollar, die Kosten für den gesamten Akku werden auf etwa 12.0000 bis 13.000 US-Dollar geschätzt. Der Akku ist also nur für etwa die Hälfte der Mehrkosten verantwortlich, offensichtlich sind auch andere Bestandteile des Antriebsstrangs an der Elektro-Kostenexplosion beteiligt.

Diese Feststellung ist insofern bemerkenswert, als sie in direktem Widerspruch zu den oft gehörten Behauptungen über vermeintliche Kostenvorteile für Elektrofahrzeuge wegen ihrer geringeren mechanischen Komplexität steht. Wirklich überraschend ist sie jedoch nicht, denn es ist ohne weiteres einsichtig, dass die vielbeschworenen Einsparungen für mechanische Komponenten in der Realität nicht sonderlich stark ins Gewicht fallen; ein Motor ist natürlich weiterhin vorhanden, und Elektrofahrzeuge benötigen entgegen einem weit verbreiteten Irrglauben durchaus ein Getriebe, auch wenn nur ein oder zwei Fahrstufen nötig sind und es daher etwas einfacher als bei einem Verbrenner ausfallen kann. An anderen Stellen muss dafür aber erheblich mehr Aufwand getrieben werden: So ist etwa eine umfangreiche Leistungselektronik für die Handhabung der hohen Ströme erforderlich, die für den Elektromotor notwendige Regelungselektronik fällt weitaus komplexer als für einen Verbrennungsmotor aus, und die geringe Verlustwärme des Motors hat auch Nachteile, da eine zusätzliche elektrische Heizung notwendig ist; die dringend zu empfehlende Batterieheizung/Klimatisierung haben wir schon erwähnt.

Angesichts der gravierenden Nachteile von Elektrofahrzeugen ist es kein Wunder, dass sie völlig von staatlichen Subventionen abhängig sind. Höhere Marktanteile – wofür schon der obere einstellige Prozentbereich gelten kann – erreichen sie nur dort, wo die Bevorzugung gegenüber Verbrennerfahrzeugen extreme Ausmaße von 100 Prozent des Fahrzeugwertes und mehr erreicht. In der Praxis geschieht dies dort, wo normale Autos besonders hoher steuerlicher Belastung ausgesetzt sind und Elektrofahrzeuge davon befreit werden. Sehr aufschlussreich ist es, zu beobachten, was geschieht, wenn diese Vergünstigungen wieder reduziert werden. In Hongkong erreichten Elektroautos, da sie von der dortigen hohen Anmeldesteuer befreit waren, durchaus ansehnliche monatliche Verkaufszahlen im dreistelligen Bereich. Vorwiegend handelte es sich um hochpreisige Teslas – die Firma machte 2015 etwa zehn Prozent ihres Auslandsumsatzes in Hongkong. Als die Steuerbefreiung schließlich auf einen Fahrzeugpreis von umgerechnet etwa 12.000 Euro gedeckelt wurde, waren die Auswirkungen dramatisch: Von einem Rekordwert von 2.964 Fahrzeugen im März 2017 sank die Zahl der Anmeldungen im Folgemonat auf buchstäblich Null – was sich in den Folgemonaten nur minimal auf knapp zweistellige Werte „erholte“. In Dänemark hatten Elektrofahrzeuge dank der Nichterhebung der für Autos sonst fälligen bis zu 180-prozentigen Importsteuer einen Marktanteil von immerhin 2,2 Prozent erreicht. Als aber 2016 Elektrofahrzeuge wieder steuerpflichtig wurden, sackten ihre Verkaufszahlen um gut 60 Prozent ab – und das, obwohl für Fahrzeuge unter umgerechnet etwa 100.000 Euro die Steuer nur auf moderate 20 Prozent der regulären Rate festgelegt wurde. Wie man sieht, ist es notwendig, die massiven Vergünstigungen auf Dauer aufrechtzuerhalten; das schließt diesen Weg zur Durchsetzung der schönen neuen Elektrowelt praktisch aus, da wohl kaum ein Finanzminister bereit sein wird, auf die ergiebige Melkkuh Autofahrer zu verzichten.

Aber wie sieht es mit der Zukunft aus? Wenn wir ihren Evangelisten Glauben schenken wollen, schreitet die elektromobile Revolution mit exponentieller Geschwindigkeit fort, und wenn die Fahrzeuge auch heute noch weit entfernt von jeglicher Wettbewerbsfähigkeit sein sollten, so werden sie sie in jedem Fall in wenigen Jahren erreicht haben. Aber auch hier sehen die harten Fakten anders aus: Signifikante Verbesserungen, sowohl was Leistung als auch was Kosten angeht, sind in absehbarer Zukunft nicht zu erwarten.

Zum Teil liegt dies daran, dass erst für die Zukunft prognostizierte positive Effekte schon eingetreten sind. Das gilt insbesondere für die „Skaleneffekt“-Entschuldigung der hohen Kosten elektrischer Fahrzeuge: Demnach würden diese bislang nur in vergleichsweise niedrigen Stückzahlen hergestellt, wenn erst ähnlich hohe Produktionsziffern wie bei der Verbrennerkonkurrenz erreicht seien, so würden sich auch die Kosten angleichen. Angesichts der Tatsache, dass schon heute mehrere Elektromodelle mit jährlichen Produktionszahlen im Zehntausenderbereich existieren, erscheint diese Argumentation jedoch wenig überzeugend. Um einmal mehr den Chevrolet Bolt und sein Benziner-Geschwister Sonic als Beispiel heranzuziehen: Vom Sonic wurden 2016 etwa 60.000 Stück gebaut, für den Bolt, der seit November 2016 auf derselben Produktionslinie gebaut wird, ist eine Jahresproduktion von 25.000 bis 30.000 Stück vorgesehen. Das ist wohl kaum ein größenordnungsmäßig entscheidender Unterschied. Mehr noch: Die Verfügbarkeit des Opel Ampera-e, der Version des Bolts für den europäischen Markt, wird künstlich auf wenige Tausend Stück im Jahr beschränkt, obwohl man, insbesondere aufgrund so extrem hoch subventionierter Märkte wie Norwegen, wesentlich mehr absetzen könnte. Es wäre sicherlich kein Problem, mit den Absatzzahlen für den nordamerikanischen Markt zumindest gleichzuziehen. Man sieht jedoch offensichtlich bei GM keine Möglichkeit, selbst bei einer wesentlichen Erhöhung der Stückzahlen das Fahrzeug kostendeckend produzieren zu können.

Auch beim Elektro-Wunderkind Tesla ist nichts von der Wirkung der wundersamen „Skaleneffekte“ zu spüren, denn dort verzeichnet man trotz einer inzwischen erreichten Jahresproduktion von annähernd 100.000 Fahrzeugen weiterhin horrende Verluste. Dies wiegt umso schwerer, als Tesla die durchaus clevere Strategie verfolgte, zunächst einmal gerade eben nicht ökologisch korrekt auf das Kleinwagensegment abzuzielen, wie das die etablierte Konkurrenz mit ihren E-Mobilen vorwiegend tat, sondern stattdessen extrem teure Luxus-Spaßmobile anzubieten, deren hohe Margen bessere Chancen boten, den Elektromobilitäts-Kostennachteil auszugleichen. Dass man aber auch so die Fahrzeuge, trotz hoher staatlicher Subventionierung, nur mit massiven Verlusten absetzen konnte, zeigt drastisch, wie extrem weit entfernt Elektroautos von einer Konkurrenzfähigkeit mit Verbrennern sind. Und nicht einmal eine Tendenz zum Besseren ist zu erkennen, denn aus einem Blick in die Tesla-Bilanzen lässt sich schließen, dass, obwohl sich die Produktionszahlen zwischen 2014 und 2016 fast verdreifachten, dies zu keiner Senkung der Produktionsstückkosten geführt hat, eher im Gegenteil.

Auch was speziell die Schlüsselkomponente des Elektromobils, den Akku, angeht, ist das Rationalisierungspotential bereits weitgehend ausgeschöpft. Eine Studie der University of Michigan etwa sieht das Optimum, ab dem eine weitere Erhöhung des Ausstoßes kaum noch zusätzliche Kostenvorteile mit sich bringt, bei einer jährlichen Produktionsrate von 200 bis 300 Megawattstunden. Diese Zahlen werden etwa beim Nissan Leaf, beim Chevrolet Bolt und von Tesla bereits überschritten. Weiterhin ist zu beachten, dass ein beträchtlicher Teil der von Elektro-Enthusiasten viel bejubelten starken Preissenkungen für Lithium-Ionen-Akkuzellen der letzten zehn Jahre nicht auf niedrigere Produktionskosten zurückzuführen ist, sondern auf das Schrumpfen der Gewinnspannen der Zellenhersteller, die in Erwartung des vermeintlichen riesigen Elektromobilitätsmarktes gewaltige Überkapazitäten aufgebaut haben und jetzt nur mehr mit hauchdünnen Margen oder mit Verlust arbeiten. Es ist kein Wunder, dass unter diesen Umständen inzwischen auch der letzte deutsche Zellenhersteller das Handtuch schmeißen musste. Bei den verbliebenen Herstellern handelt es sich vorwiegend um große asiatische Konglomerate, die die Zellenherstellung über andere, profitable Geschäftsbereiche quersubventionieren können. Es ist aber nicht anzunehmen, dass sie diesen Aderlass unbegrenzt tolerieren werden, wenn sich nicht in absehbarer Zeit der versprochene Bedarf auftut.

In der Propaganda der Elektro-Enthusiasten wird versucht, für die Entwicklung der Akkutechnologie einen ähnlich rasanten Fortschritt wie den durch das berühmte Mooresche Gesetz beschriebenen in der Mikroelektronik zu suggerieren. Aber alle Erfahrungen der Vergangenheit zeigen, dass die Entwicklung in der Batterietechnik nur relativ langsam fortschreitet, sowohl was die Verbesserung bestehender als auch was die Einführung neuer Technologien angeht. Der Bleiakkumulator etwa erfuhr in den mehr als 150 Jahren seiner Geschichte in seinen grundlegenden Eigenschaften nur recht moderate Verbesserungen.

Auch beim Lithium-Ionen-Akku ist der behauptete rasante Fortschritt eher nicht zu erkennen und verlangsamt sich in den letzten Jahren sogar noch. Das ist nicht weiter verwunderlich, denn die Technologie gilt als weitgehend ausgereizt, sowohl was Kosten als auch was Leistung betrifft. So geht Panasonic, der Lieferant für die Batteriezellen des Elektro-Vorzeigeherstellers Tesla, von lediglich 20 Prozent bis 30 Prozent mehr an spezifischer Energie aus, die sich noch aus der Lithium-Ionen-Zellentechnologie herausholen lassen würden. Das zeigt sich auch an den neuen Batteriezellen, die in der neuen Tesla-„Gigafabrik“ hergestellt werden und zwar eine höhere Kapazität aufweisen, gleichzeitig jedoch auch entsprechend größer sind, womit sich die Energiedichte also nicht verbessert hat. Diese Stagnation macht sich dann entsprechend auch in den Gesamt-Akkupaketen bemerkbar: Die Batterie des 2007 erschienenen ersten Fahrzeugs, des Roadster, wies eine spezifische Energie von 127 Wattstunden pro Kilogramm auf, was sich schrittweise bis auf 170 Wattstunden pro Kilogramm für das Model S von 2016 erhöhte. Bei den Batterien für das aktuelle Model X und das Model 3 von 2017 ist jedoch nicht nur keine weitere Erhöhung, sondern sogar eine Regression auf 150 Kilowattstunden pro Kilogramm festzustellen.

Mit dem Lithium-Ionen-Akku wird die elektromobile Revolution also nicht zu machen sein. Doch was ist mit den ganzen revolutionären neuen Batterietechnologien, die alle naselang verkündet werden? Zunächst einmal ist festzustellen, dass, wie üblich, die große Mehrheit dieser neuen Wundertechnologien scheitern und sang- und klanglos in der Versenkung verschwinden wird. Aber selbst bei denjenigen von ihnen, die sich als grundsätzlich realisierbar herausstellen sollten, wird es noch eher Jahrzehnte als Jahre dauern, bis sie für den Einsatz in Fahrzeugen relevant werden. Erste Versuchsmuster von Lithium-Ionen-Akkus wurden bereits in den 70er Jahren entwickelt, aber erst Anfang der 90er Jahre kamen die ersten kommerziellen Anwendungen auf den Markt. Es dauerte ein weiteres Jahrzehnt, bis sie einen solchen Reifegrad erreicht hatten, dass an einen Einsatz in automobilen Anwendungen gedacht werden konnte. Und erst heute, also noch ein weiteres Jahrzehnt später, kann man von einem leistungs- und kostenoptimierten Stand der Technik sprechen. Es gibt keinen Grund dafür, anzunehmen, dass zukünftige neue Batterietechnologien wesentlich kürzere Entwicklungszeiträume aufweisen werden.

Weiterhin muss kritisch geprüft werden, wie relevant die potentiellen Verbesserungen neuer Batterietechnologien tatsächlich für die Frage nach der Wettbewerbsfähigkeit von elektrischen Fahrzeugen sind. Nehmen wir etwa die Lithium-Schwefeltechnologie, die wohl die am weitesten fortgeschrittene unter den neuen Batterietechnologien ist: Hier wird euphorisch mit einer spezifischen Energie von 500 Wattstunden pro Kilogramm geworben, die sich bei den neuesten Labormustern schon erzielen lassen würden, für die fernere Zukunft wird sogar von zumindest theoretisch erzielbaren mehr als 2.000 Wattstunden pro Kilogramm gemunkelt. Das klingt zunächst sehr gut, bis man sich auch einmal die Energiedichte ansieht – diese ist nämlich nicht besser, tendenziell sogar eher etwas schlechter, als bei den etablierten Lithium-Ionen-Akkus. Im Klartext: Ich benötige weiterhin eine Batterie vergleichbarer Größe und Komplexität, mit einer vergleichbaren Anzahl von Einzelzellen, um eine bestimmte Energiemenge zu speichern; der einzige Vorteil ist, dass diese leichter sein wird. Nun wäre es sicherlich sehr willkommen, wenn die Batterie in meinem Elektrofahrzeug nur noch 100 oder 200 Kilogramm statt einer halben Tonne wiegt; aber das hohe Batteriegewicht ist unter den zahlreichen Problemen, die die Elektromobilität plagen, noch ein vergleichsweise harmloses. Es ist klar, dass sich bei den Hauptproblemen, den hohen Kosten und der geringen Reichweite, nur durch Verbesserung auch der Energiedichte echte Fortschritte erzielen lassen – eine Einzelzelle vergleichbarer Größe muss eine höhere Energiespeicherkapazität aufweisen.

Bis eine neue, wesentlich leistungsfähigere, Batterietechnologie einigermaßen ausgereift und zu vertretbaren Kosten verfügbar ist, wird es also selbst optimistisch gesehen eher noch 20 als zehn Jahre dauern. Die Kosten für Elektrofahrzeuge werden aber auch dann weiterhin höher sein, die Batterie wird immer einen signifikanten Zusatzaufwand bedeuten, der bei einem Verbrenner schlichtweg nicht existiert. Immerhin könnten sie dann einigermaßen deren Leistungsniveau erreichen.

Aber zumindest bis dahin ist jegliche Investition in elektrische Massenmarktmodelle und entsprechende Infrastruktur nichts weiter als sinnlos verschleudertes Geld. Unter diesem Gesichtspunkt kann man die von den rückgratlosen Managern der deutschen Automobilindustrie diensteifrig gegenüber der Politik versprochenen Milliardeninvestitionen in Elektrofahrzeuge nur mit Entsetzen betrachten, denn dieses Geld fehlt dann natürlich für Investitionen in die Weiterentwicklung von Verbrennungsmotoren. Als Beispiel sei hier die sogenannte homogene Kompressionszündung erwähnt, auch „Diesotto“ genannt, weil einem Ottomotor die Fähigkeit verliehen wird, in bestimmten Betriebszuständen alternativ auch die Selbstzündung eines Diesels zu nutzen, mit massiven Effizienzvorteilen. Die deutschen Hersteller haben die weitere Entwicklung dieser Technologie zugunsten der allgemeinen „Elektrifizierung“ aufgegeben und damit der Konkurrenz das Feld überlassen. Und die schläft nicht: Der japanische Hersteller Mazda hat für 2019 das erste Serienfahrzeug mit Diesotto-Motor angekündigt. Und so wird es wohl in einigen Jahren so aussehen, dass deutsche Hersteller mit ihren weitgehend unverkäuflichen (insbesondere zu kostendeckenden Preisen) Politiker-Beschwichtigungs-E-Karossen dastehen, während sie im tatsächlichen Massenmarkt gezwungen sind, mit veralteter Motorentechnologie gegen andere, weniger kurzsichtige, Konkurrenten anzutreten.

Diese Tatsache, nämlich dass sich die Verbrennertechnologie auch weiterentwickelt, ist im übrigen ein bei Betrachtungen über die Fortschritte in der Batterietechnologie gern vergessener Aspekt. Deshalb auch der Konjunktiv in der obigen Einschätzung, es ist nämlich durchaus nicht ausgeschlossen, dass wie in der Fabel vom Hasen und vom Igel bei der Einführung der schönen neuen Batterietechnik „Ück bün schon da“ ertönt, weil nämlich der Verbrennungsmotor inzwischen so große Fortschritte gemacht hat, dass sich der Abstand zwischen beiden Technologien nicht entscheidend vermindert hat.

Durchaus möglich ist auch, dass es letztendlich nicht die galvanische Zelle sein wird, die das ersehnte Energiespeichermedium für die Ablösung des Verbrennungsmotors liefern wird. Als Alternative kommt hier insbesondere die Kondensatortechnik in Frage – Physik statt Chemie. Aber die Erzielung brauchbarer Energiedichten für Hochleistungskondensatoren liegt in noch fernerer Zukunft als die Entwicklung einer neuen Generation von Batterien.

Aber stellen wir einmal die ketzerische Frage, aus welchem Grund wir eigentlich so ungeduldig das Kommen der elektromobilen Offenbarung auf Biegen und Brechen herbeiführen sollen. Wegen ihrer „Umwelt“-Freundlichkeit? Aber in welcher Beziehung haben die E-Mobile überhaupt einen „Umwelt“-Vorteil gegenüber Verbrennern? Diese Frage zu beantworten ist gar nicht so einfach, da, was als „Umwelt“-freundlich oder -feindlich zu gelten hat, sehr vage definiert ist und je nach politischem Einsatzzweck sehr unterschiedlich oder gar gegensätzlich interpretiert wird. Fangen wir einmal mit den „klassischen“ Kritikpunkten am motorisierten Straßenverkehr an, die Belästigung und Gesundheitsgefährdung durch Abgase. Hier wird bekanntlich bereits seit Jahren eine massive Kampagne insbesondere gegen den Diesel gefahren. Mit der Realität hat das nicht das Geringste zu tun, sowohl Diesel als auch Benziner haben in den letzten Jahrzehnten, was Abgasqualität betrifft, dramatische Fortschritte erzielt; keine durch Autoabgase verursachten Schadstoffe erreichen auch nur annähernd als gesundheitsschädlich einzustufende Konzentrationen.

Heutige Fahrzeuge erreichen, was Abgasreinigung betrifft, einen derart hohen Stand, dass es in einigen Kategorien sogar vorkommen kann, das aus dem Auspuff weniger Schadstoffe kommen, als in der Luft waren, die vorher eingesaugt wurde. Dies gilt etwa für den berühmt-berüchtigten Feinstaub, was der entsprechenden Kampagne einen ganz besonders absurden Zug verleiht. Abgesehen davon, dass es keinerlei Beleg dafür gibt, dass der Feinstaub, wie er in üblichen Konzentrationen vorkommt, gesundheitsschädliche Auswirkungen hat (die Konzentrationen in Innenräumen sind in der Regel weit höher), wird nur ein unbedeutender Anteil – etwa zehn Prozent – durch den Straßenverkehr verursacht. Wer Feinstaub als Problem ansieht, sollte als Abhilfemaßnahme vielleicht eher dafür plädieren, künftig den Staub auf den Straßen mit Wasserschläuchen abzuspritzen, wie man es früher gemacht hat. Und selbst wenn man speziell den Straßenverkehr betrachtet, so sind Reifen- und Bremsenabrieb weitaus bedeutendere Quellen für Feinstaub als der Motor: Ein moderner Dieselmotor produziert pro gefahrenem Kilometer etwa 0,2 bis 0,5 Milligramm Feinstaub, ein Fahrrad aber allein durch Bremsenabrieb etwa fünf bis zehn Mal soviel – Wo bleiben die Fahrradfahrverbote?

Das generelle Problem bei Schadstoff-Grenzwerten ist, dass sie, völlig unbeschwert von irgendwelchen wissenschaftlichen Fakten, nach Gutdünken von Bürokraten und Politikern gemäß deren politisch-ideologischer Agenda festgelegt werden können, sei es eine „öko“-sozialistische, oder wie bei den US-Grenzwerten, die VW zum Verhängnis wurden, eine ökonomische Kriegsführung gegen die bei der Dieseltechnologie führenden deutschen Unternehmen. So lassen sich etwa bei den neben dem Feinstaub besonders im Fadenkreuz der Anti-Diesel-Kampagne stehenden Stickoxiden in toxikologischen Experimenten keinerlei schädliche Auswirkungen bei Konzentrationen unterhalb von zwei bis drei Milligramm pro Kubikmeter Luft feststellen. Entsprechend wurde der Grenzwert für erlaubte Konzentrationen am Arbeitsplatz mit einem großzügigen Sicherheitsabstand auf 0,95 Milligramm pro Kubikmeter festgelegt, für besonders empfindliche Personen wie Kranke und Kinder ging man noch einmal auf 0,2 Milligramm pro Kubikmeter herab. Die höchsten in Deutschland im Straßenverkehr gemessenen Konzentrationen liegen bei etwa 0,07 bis 0,08 Milligramm pro Kubikmeter, also weniger als die Hälfte dessen, was man in Innenräumen selbst für besonders empfindliche Personen als unbedenklich ansieht. Kein Problem, sollte man meinen – bis auf die Tatsache, dass der Grenzwert für den Straßenverkehr von EUkraten völlig willkürlich auf den buchstäblich aus der Luft gegriffenen Wert von 0,04 Milligramm pro Kubikmeter festgelegt wurde.

Wenn möglich aber noch absurder wird es, wenn wir die angeblich entscheidende Umwelt-Trumpfkarte der Elektrofahrzeuge angehen, nämlich ihre „Klimafreundlichkeit“. Denn egal, ob man die CO2-Klima-Mythologie ernst nimmt oder nicht (oder zumindest vorgibt, sie ernst zu nehmen), Tatsache bleibt, dass der elektrische Strom, mit dem man ein Elektroauto auflädt, erst einmal produziert werden muss. Und das heißt, abgesehen von geringen und regional beschränkten Mengen an Wasserkraft und Geothermie sowie der Kernenergie, die man ja auf gar keinen Fall haben will, fossile Energie. Dies gilt natürlich ebenso für die Lieblinge der Energiewende, Windkraft und Solar, da es deren sattsam bekannte Unfähigkeit, kontinuierlich Strom zu liefern, erforderlich macht, ihre „Zappelstrom“-Produktion zu 100 Prozent mit konventionellen Kraftwerken abzusichern. Und da ein Kohlekraftwerk etliche Stunden zum Anfahren braucht, müssen diese nicht nur bereitgehalten, sondern auch ständig beheizt werden, damit sie bei einer Flaute rechtzeitig einspringen können.

Das heißt, dass ein Elektroauto in Deutschland, selbst bei der Verwendung von sogenanntem „Ökostrom“, de facto mit Kohle betrieben wird. Das könnte man freilich weitaus billiger und effektiver haben, wenn man wie im Zweiten Weltkrieg die Kohle verflüssigen und damit die Autos ganz normal betreiben würde (mit heutiger Technik wäre der Kostennachteil gegenüber Erdöl sogar nur noch moderat).

Weiter oben haben wir eine höhere Effizienz des Elektromotors im Vergleich zum Verbrenner festgestellt. Das gilt aber nur für eine isolierte Betrachtung, bei einem Blick auf das Gesamtsystem sieht die Bilanz weitaus weniger rosig aus. Zunächst einmal muss der Brennstoff natürlich in einem Kraftwerk in Elektrizität umgewandelt werden: Bei Kohle haben wir üblicherweise einen Wirkungsgrad von 30 Prozent bis 40 Prozent, bei den modernsten Kraftwerken bis zu 45 Prozent, also ähnlich wie bei einem Automotor. Normalerweise könnte man hier dennoch von einem gewissen Vorteil des Kraftwerks ausgehen, da es die meiste Zeit mit einem optimalen Auslastungsgrad gefahren werden kann, während man bei einem Automotor damit rechnen muss, dass er längere Zeit in eher ungünstigen Drehzahlbereichen betrieben wird. Das ist natürlich kein Argument für das Elektroauto, denn der Effizienzverlust bei ungünstigen Drehzahlen gilt selbstverständlich auch für Elektromotoren. Es kommt aber noch hinzu, dass die aktuelle Situation alles andere als normal ist, da die Kohlekraftwerke als Zappelstrom-Lückenbüßer herhalten müssen, womit von einer optimalen Auslastung zumeist keine Rede mehr sein kann. Und wenn der Strom erst einmal erzeugt ist, muss man noch etwa zehn Prozent Verlust für die Übertragung und etwa 20 Prozent für den Batterie-Ladevorgang, bei Schnelladung eher 30 Prozent, dazurechnen. Kaltes Wetter ist auch in dieser Beziehung ein schwerwiegendes Problem, bei Minusgraden kann der Ladeverlust durchaus auf 50 Prozent ansteigen.

Ein weiterer höchst problematischer (und deshalb zumeist unter den Teppich gekehrter) Aspekt von vorgeblichen CO2-Reduzierungstechnologien ist der bei ihrer Produktion anfallende CO2-Ausstoß. Wenn man etwa das bei der Herstellung von Solar- und Windkraftanlagen erzeugte CO2 mitberücksichtigt, so ergibt sich für die „Energiewende“ nicht nur keine Verminderung, sondern vielmehr eine Erhöhung des CO2-Ausstoßes. Bei der Elektro-Mobilität sieht es ähnlich aus: So wurde in einer Studie des schwedischen Umweltministeriums festgestellt, dass die Produktion allein des Akkus für einen Tesla Model S so viel CO2 freisetzt, dass selbst wenn man den zum Laden verwendeten Strom vernachlässigt, es mehr als acht Jahre dauern würde, bis man diese Menge CO2 wieder eingespart hätte; nach dieser Zeitspanne kann man davon ausgehen, dass die Batterie reif für die Verschrottung ist.

Die Elektromobilität reiht sich also nahtlos in den illustren Reigen von „Klimarettungs“-Gimmicks ein, die zwar horrende Kosten und immensen Schaden verursachen, deren Auswirkung auf den CO2-Ausstoß aber praktisch gleich null ist (und das oftmals auch noch in der falschen Richtung). Es führt kein Weg daran vorbei: Die einzige in absehbarer Zukunft verfügbare Technologie, die in der Lage ist, fossile Energie in nennenswertem Umfang zu ersetzen, ist die Kernenergie. Die Alternative ist eine Politik der extremen Energie-„Nachfragevernichtung“, die einen großen Teil der Bevölkerung in nach heutigen Maßstäben dermaßen bittere Armut treiben würde, dass wohl selbst der schlafmützige, obrigkeitshörige deutsche Untertan aufbegehren würde.

Wer keine dieser beiden Optionen haben will, wählt damit automatisch die einzige mögliche Alternative, nämlich den weiteren (und, aufgrund der Abschaltung der Kernkraftwerke, sogar verstärkten) Einsatz fossiler Brennstoffe, egal ob sie in Kraftwerken oder in Automobilen verbraucht werden.

Im Wettstreit zwischen wissenschaftlich-technischer Realität und politisch-ideologischem Dogma hat erstere eine Erfolgsquote von 100 Prozent, und es ist kaum davon auszugehen, dass die E-Mobilität hier eine Ausnahme darstellen wird. Wie lange wird es dauern, bis die Blase platzt? Diese Frage ist für mich auch persönlich direkt relevant: Mein Arbeitgeber, ein Entwickler von elektronischen Steuergeräten für die Automobilindustrie, wurde von einem großen Zulieferer übernommen, vorwiegend um einem neu gegründeten Geschäftsbereich zuzuarbeiten, der die vermeintliche Goldgrube E-Mobilität beackert. Als erstes Projekt wird jetzt an einer Elektroauto-Ladestation gebastelt.

Es stellt sich ein gewisser Déjà-vu-Effekt ein – vor einigen Jahren war ich bei einer Firma beschäftigt, die ein Entwicklungsprojekt für die Solartechnik-Sparte eines großen deutschen Elektrokonzerns unterstützte. Als die Investition in die vermeintliche Zukunftstechnologie sich als Milliardengrab herausstellte und das Projekt (und dann die gesamte Sparte) eingestampft wurde, erwies es sich leider als erforderlich, nach einer neuen Arbeitsstelle Ausschau zu halten. Man sagt zwar, dass sich die Geschichte nie exakt gleich wiederholt, es ist aber wohl vielleicht doch eine gute Idee, die Bewerbungsunterlagen aktuell zu halten.

Dieser Beitrag wurde vom Blog eigentümlich frei übernommen




Zitat der Woche: ,Anonyme Feiglinge‘, bitte mal herhören!

Laufe zum Feuer. Kümmere dich nicht darum, wie sie dich nennen. All jene Dinge gegen dich werden gesagt, weil sie dich auf deinem Weg stoppen wollen. Aber wenn du weitergehst, sendest du eine Botschaft an Menschen, die dich anspornen und die mit dir übereinstimmen. Die Botschaft lautet, dass sie es auch tun können!“ ― Andrew Breitbart

Seit ich zum regelmäßigen Ziel von Hass-Mails, Hass-Tweets und Hass-Beiträgen geworden bin, nur weil ich es wage, eine dem Konsens entgegen stehende Meinung bzgl. Klima zu äußern, möchte ich noch einen eigenen Gedanken hinzufügen: Online brütet Anonymität Missachtung aus.

Das Internet machte es einfach und sicher für Menschen, mit Beleidigungen, Hässlichkeiten, Verleumdungen, übler Nachrede und höhnischen Bemerkungen um sich zu werfen, ohne dass sie sich den Konsequenzen oder sozialer Ächtung stellen müssen, die es unweigerlich nach sich ziehen würde, falls Derartiges in ruhigem Ton vorgebracht wird. Wirklich, derartige Spötter umfassen eine Armee von Kriegern der sozialen Gerechtigkeit, welche anonyme Feiglinge sind.

Was die Rolle von WUWT hierbei betrifft, wird es m. E. sehr gut durch den folgenden, kürzlich geposteten Kommentar von drednicolson auf den Punkt gebracht [und ich denke, dass das in vollem Umfang im deutschsprachigen Raum auch auf die EIKE-Website zutrifft!! Anm. d. Übers.]:

Dass Alarmisten überhaupt bei WUWT zu Wort kommen, hebt die Website weit über den Durchschnitt hinaus. Skeptikern wird auf alarmistischen Sites kaum einmal der gleiche Raum geboten.

Und Alarmismus kommt schwer verpackt als identische Politik daher, so dass jeder Widerspruch, egal wie höflich er vorgetragen wird, sofort als persönlicher Angriff gewertet wird.

Und die Verwendung einer passiv-agressiven, pseudo-höflichen Sprache, um Feindseligkeit zu provozieren und sich dann über die Gemeinheit von Personen zu beschweren, sind die üblichen Machenschaften der hinterlistigsten Trolle.

Manchmal (eher öfter als seltener) müssen wir derartige Individuen sperren, wenn diese ihren Ärger eskalieren lassen und mit persönlichen Beleidigungen unseren Kommentar-Bedingungen zuwider laufen. Aber es gibt auch all jene Alarmisten, die ihre Sicht der Dinge darstellen, ohne ausfallend oder beleidigend zu werden. …

[Hier führt Watts namentlich ein Beispiel an. Aber auch auf der EIKE-Website kommentieren ja manchmal Alarmisten, die ebenfalls stets höflich und sachlich bleiben. So sehr man deren Einwände auch ablehnt, wäre es ungut, derartigen Äußerungen anders als ebenfalls höflich entgegenzutreten. Anm. d. Übers.]

Während manchmal Anonymität erforderlich ist, wie etwa bei Whistleblowern, Informanten aus der Kriminalszene und Personen, deren Lebensweise in Gefahr ist, falls sie sich äußern, verdienen die meisten dieser Spötter auf Twitter und Blogs die Arkell v. Pressdram-Antwort. Tatsächlich scheint dies der beste Weg, auf Beleidigungen etc. zu reagieren.

Am besten ist es, die Bewohner des „Anonyversums“ einfach zu ignorieren, wenn diese einen niedermachen wollen ohne den Mumm zu besitzen, ihren eigenen Namen unter ihre kindischen Hohn zu setzen. Erfüllen wir ihnen nicht ihren Wunsch, Aufmerksamkeit zu erregen.

Vorwärts!

Link: https://wattsupwiththat.com/2017/10/04/quote-of-the-week-anonymous-cowards-please-take-note/

Übersetzt von Chris Frey EIKE




Strom wird immer teurer – kein Ende abzusehen!

 Amprion aus Dortmund versorgt Nordrhein-Westfalen, Rheinland-Pfalz und das Saarland mit Strom und hat gegenüber der FAZ eine Steigerung der Preise um sage und schreibe 45 Prozent angegeben. Im Vorjahr erhob Amprion „nur“ 12 Prozent mehr.

Für das nächste Jahr deuten sich weitere drastische Erhöhungen der Strompreise an. Denn jetzt im Oktober werden die Umlagen für den Strompreis im kommenden Jahr festgelegt. Noch ist es für eine Schätzung des gesamten Strompreises zwar etwas früh. Aber die FAZ hat dennoch einmal vorgerechnet, was auf die Verbraucher zukommen wird.

Sie hat sich für die Kalkulation einer der wichtigsten Größen des Strompreises, des „Netzentgeltes“, bei den vier Netzbetreibern umgesehen. Die haben ihre Preise für das kommende Jahr bereits veröffentlicht. Etwas sang- und klanglos, empfindet die FAZfeinsinnig, aber den Netzfirmen war wohl nicht nach viel Öffentlichkeit.

Amprion aus Dortmund versorgt Nordrhein-Westfalen, Rheinland-Pfalz und das Saarland mit Strom und hat gegenüber der FAZ eine Steigerung der Preise um sage und schreibe 45 Prozent angegeben. Im Vorjahr erhob Amprion „nur“ 12 Prozent mehr.

Tennet wird im kommenden Jahr laut FAZ 9 Prozent mehr verlangen. Gegenüber der Steigerung von 80 Prozent im Vorjahr geradezu ein Klacks. Transnet-BW in Baden-Württemberg wird um 13 Prozent erhöhen, und nur 50Hertz senkt seinen Preis um 11 Prozent. Diese Netzkosten machen inzwischen fast ein Viertel des Strompreises aus. Bezahlen müssen ihn die Endkunden, die Stromverbraucher.

Dramatische Folgen jenes Irrsinnsprojektes „Energiewende“. Denn in diese Netzkosten fließen zum Beispiel die Kosten des Parallelbetriebes von bisherigen Großkraftwerken ein. Die stehen neben den Wind- und der Photovoltaikanlagen bereit, um bei „Dunkelflaute“ einzuspringen, wenn die netten „Erneuerbaren“ mal wieder zu wenig bis gar keine Energie liefern. Vor allem das stark schwankende Angebot macht den Betreibern der Übertragungsnetze zu schaffen. Denn sehr rasch müssen gewaltige Energiemengen herangeschafft werden, wenn zum Beispiel an einem sonnigen Tag eine Wolkenfront quer über das Land zieht und die Stromerzeugung sämtlicher Photovoltaikanlagen zusammenbrechen läßt.Umgekehrt wird es ebenso teuer, wenn starke Winde auf der Nordsee die Windräder viel Strom liefern lassen und die Übertragungsnetzbetreiber nicht wissen, wohin damit, weil gerade kein Abnehmer da ist. Eine typische Situation an Weihnachtsfeiertagen, die dann sehr teuer wird. Denn diese Strommengen können meist nur verschenkt, wenn sie mit einer gehörigen Mitgift versehen werden. Die beträgt schon mal 20, 25 Millionen Euro, die an die Abnehmer zum Strom dazu geliefert werden! Ein Tagträumer derjenige, der glaubt, mit Stromexport wird Geld verdient. Diese Kosten muss der deutsche Stromverbraucher bezahlen; auch sie fließen in jene „Netzentgelte“.

Trotzdem fürchten sich unsere europäischen Nachbarn langsam vor den Folgen, die die spinnerten Deutschen mit ihrer „Energiewende“ angerichtet haben. Sie können meist nichts mit den gewaltigen Energiemengen anfangen, die da zur falschen Zeit über die Grenzen geliefert werden. Länder wie Polen verbarrikadieren sich bereits – elektrisch gesehen. Sie können die Strommengen nicht gebrauchen.

Zu den Netzentgelten gehören auch die Kosten, die an die Betreiber der Windräder gezahlt werden müssen, wenn sie zwar Strom liefern, den ebenso gerade keiner gebrauchen kann, weil er zur falschen Zeit anfällt. Die Windräder stehen zwar still, die Betreiber aber werden dennoch so bezahlt, als ob sie Strom geliefert hätten. Modell für Ihren Bäcker: Gib mir Geld, Du hättest ja meine Brötchen haben können! Diese grünen Wirtschaftsmodelle der Zukunft also kosten horrende Summen, die Stromkunden bezahlen müssen – ungefragt. Trittins Eiskugel ist für sie damit ziemlich teuer geworden.Der Interessensverband Bundesverband Energie- und Wasserwirtschaft BDEW (lange Jahre an der Spitze Merkels ehemalige rechte Hand Hildegard Müller, jetzt sinnigerweise RWE) jedoch hat jetzt den Schuldigen herausgefunden. Die FAZ berichtet weiter, dass die Bauern zu hohe Entschädigungen fordern. Sie verlangten nämlich eine „Maut“ dafür, dass durch ihre Felder und Fluren Stromtrassen gepflügt werden. Ein Rechtsgutachten des BDEW hat laut FAZ ergeben: Die Forderungen der Bauern für Nutzungs- und Einnahmeausfälle seien „unverhältnismäßig und verfassungswidrig“. Es ist immer viel Aufregung, wenn die Geier über dem Aas untereinander in Streit geraten.

ANSPRUCH UND WIRKLICHKEIT
„Energiewende“ trifft frostige Wirklichkeit

Aber am Horizont zeichnet sich Besserung ab, versprechen jedenfalls die Energiewende-Ideologen in ihren Planungsstuben. Wenn erst einmal die Nord-Süd-Stromautobahn ausgebaut ist, dann ist das Energiewende-Endziel erreicht. Dann haben die Bayern wieder Strom. Denn sie müssen bald ihre letzten Atommeiler abschalten, noch ehe der versprochene Windstrom aus dem Norden fließt. Dann fehlt ihnen ziemlich viel Strom, denn die Leitungen für Windstrom aus dem Norden gibt es nicht. Blöde Zeiten für Audi und BMW.Die Leitungen wird es auch längere Zeit nicht geben. Denn die Technik ist längst nicht einsatzreif. Sie sollen als Hochspannungsgleichstromleitungen ausgeführt werden. Die funktionieren in China; allerdings hängen sie dort an hohen Strommasten, die sich in Trassen durchs Land ziehen.

Die will hier niemand. Deshalb sollen sie unter die Erde verlegt werden. Sie sollten also einigermaßen gut isoliert sein, um Spannungen von ein paar Hunderttausend Volt möglichst sicher gegenüber dem Erdreich zu isolieren. Ob das funktioniert, weiß niemand. Ebenso weiß niemand, welche Auswirkungen diese bis zu fast 80, 90 Grad heißen Heizkörper in der Erde haben werden. Der Bauer, unter dessen Hof eine solche Leitung läuft, braucht keinen Schnee mehr zu kehren.

Ebenso weiß niemand, was tun, wenn diese zentrale Leitung, die die wichtige Energie für Bayern von Nord nach Süd transportiert, mal wieder ausfällt. Aber das kennen wir ja aus dem Zugverkehr, seitdem bei Rastatt ein Tunnel einbrach und die wichtigste Nord-Süd-Eisenbahnverbindung unterbrach.

Währenddessen erschallt irgendwo vom Himmel das höhnische Lachen derjenigen, die diese Untaten über das Land gebracht haben.

Übernommen von TICHYS EINBLICK hier




Diesel-Verteufelung: Krieg gegen das eigene Volk – Die Lückenmedien im Glashaus (5)

In den bisherigen Teilen dieses Aufsatzes [Teil 1, Teil 2, Teil 3, Teil 4] wurde nachgewiesen, dass die NO2-Belastung der Luft in ganz Deutschland und auch an den sogenannten „Hotspots“ in den Städten auf im Prinzip unbedeutende Werte zurückgegangen ist. Wichtiger Grund hierfür ist die stetige Ablösung älterer durch jüngere Fahrzeuge mit besseren Abgasbehandlungssystemen. Dieser Trend wird sich auch in den nächsten Jahren fortsetzen. Auch wurde aufgedeckt, wie fragwürdig die Messmethoden sind und welche Tricks und Manipulationen zum Einsatz kommen. Im dritten Teil wurden die teils grotesk übertriebenen Behauptungen über die gesundheitlichen Auswirkungen von Stickstoffdioxid sowie die offensichtliche Parteilichkeit sowohl der öffentlich-rechtlichen Medien als auch industriefeindlicher Behörden behandelt. Im vierten Teil wurde festgestellt, dass das Auto auch in der Stadt der Zukunft unverzichtbar bleibt und Elektromobilität zurzeit nicht realisierbar ist. Außerdem wurden Widersprüche in den Aussagen des Umweltbundesamtes beleuchtet und mafiöse Querverbindungen zwischen der Deutschen Umwelthilfe sowie Ministerien und Behörden aufgedeckt. Der jetzige fünfte Teil beschäftigt sich mit der angeblichen Gesundheitsgefährdung selbst durch geringste NO2-Konzentrationen.

 

Stickoxide – wie man den Teufel an die Wand malt

Im nächsten Abschnitt ihres „Faktenfinders“ wenden sich die Autoren wieder der Frage zu, wie gefährlich denn die von diversen Quellen emittierten Stickoxide für die menschliche Gesundheit seien. Stickoxide (d.h. NO und NO2), so steht es im „Faktenfinder“, seien nachweislich Umweltgifte, welche die Gesundheit von Menschen akut gefährden. Insbesondere Stickstoffdioxid sei als Reizgas mit stechendem Geruch bereits in geringen Konzentrationen wahrnehmbar. Der „überwiegende medizinische Konsens in der Umweltmedizin“ gehe davon aus, dass kein Schwellenwert benannt werden könne, der langfristige gesundheitliche Folgen von NO2 auf den Menschen ausschließe. Und dann kommt es knüppeldick: Da ist von erhöhter Sterblichkeit, Lungenkrebs sowie chronischen Atemwegsbeschwerden wie Asthma die Rede, was durch verschiedene Studien belegt werde. Zwar wird zugegeben, dass es „auch“ Wissenschaftler gebe, die diesen Studien widersprechen, doch gehe insgesamt die Mehrheit der Mediziner davon aus, dass Stickoxide einen wesentlichen Beitrag zu Atemwegserkrankungen beim Menschen leisteten. Und dann wird noch die Europäische Umweltagentur angeführt, die für das Jahr 2012 die Zahl von 10.400 Todesfällen in Deutschland durch Stickstoffdioxid berechnet haben will [HORREEA]. Diese Falschdarstellungen sind so massiv und gehen so eindeutig an den Fakten vorbei, dass man sich damit eingehend auseinandersetzen muss.

Bild 2. NOx-Verbindungen entstehen ständig in der Natur, z.B. durch Blitze oder bei Waldbränden (Foto: Pixabay)

Das Märchen vom „Umweltgift NO2

Im Teil 3 dieses Beitrags war bereits gezeigt worden, dass der Begriff „Giftigkeit“ beim NO2 in den Konzentrationsbereichen, die in der Stadtluft auftreten, nicht zutrifft. Selbst an den am stärksten belasteten Hot-Spots liegen die mittleren Jahreskonzentrationen unter 90 µg/m3, und die Zahl der Stunden, an denen der Grenzwert von 200 µg/m3 überschritten wird, tendiert rapide gegen Null. Da sich niemand 24 Stunden am Tag genau an den wenigen, bewusst wegen ihrer hohen Abgaskonzentrationen ausgewählten Hot-Spot-Messpunkten aufhält, liegt die mittlere Belastung nahezu der gesamten Bevölkerung unter dem Immissionsgrenzwert von 40 µg/m3. Auf Ausnahmen wird weiter unten noch eingegangen. Das einzige, was an dem Passus der Faktenfinder zur Wirkung von NO2 auf den Menschen stimmt, ist daher die Bezeichnung „Reizgas“. Aber auch diese Wirkung ist unterhalb der 60 µg/m3, der für Büro- und Privaträume gilt, auf jeden Fall medizinisch unerheblich.

Hervorzuheben ist bei der Aussage der „Faktenfinder“ daher zunächst die Verwendung des Begriffs „Umweltgift“. Damit wird suggeriert, dass es sich um einen widernatürlichen, erst vom Menschen erzeugten Stoff handelt, der in der Natur nicht vorkommt und dieser schadet. Nichts könnte falscher sein: Stickoxide sind Teil natürlicher Kreisläufe, und sie werden gebraucht, denn ohne Stickstoff(dünger) gäbe es keine Pflanzen [BLIE] und auch keine Tiere, denn unser Körper braucht Stickstoff, um die lebenswichtigen Proteine aufzubauen, Bild 3.

Bild 3. Alle Proteine des Körpers enthalten Stickstoff, der über natürliche Kreisläufe via NO2-Bildung in der Atmosphäre über die Pflanzen aufgenommen wird. In dieser Strukturformel des Proteinbausteins Tetrapeptid sind die vier Stickstoffatome durch rote Punkte hervorgehoben (Grafik: Wikipedia, Jü)

Auch eine weitere, neuere Untersuchung belegt, dass die aus natürlichen Quellen stammenden Stickoxidmengen diejenigen aus modernen Diesel-PKW sogar um ein Vielfaches übertreffen [LEIS]. Verkehrsbedingte NO2-Emissionen sind nur in wenigen, von grün inspirierten Verwaltungen mit Bedacht ausgesuchten Bereichen mit starkem Verkehrsaufkommen und stark behindertem Luftaustausch überhaupt ein Thema. An der freien Atmosphäre werden die Emissionen schnell auf ein unkritisches Maß verdünnt und innerhalb weniger Tage aus der Luft entfernt. Dieser Abbau erfolgt teils durch Anlagerung an Oberflächen, teils durch Regen, der das NO2 zusammen mit Stäuben und sonstigen Belastungen aus der Luft regelrecht auswäscht.

 

Bild 4. Ein Skript der TU Darmstadt unterstreicht die große Bedeutung natürlicher Quellen für den Stickstoffkreislauf zwischen Atmosphäre, Boden und Gewässern (Grafik: [TUDA])
Die Verwendung des Begriffs „Umweltgift“ durch die Autoren des „Faktenfinders“ belegt somit lediglich zwei Dinge: Eine mangelhafte Recherche und den Versuch, vorhandene Unkenntnis durch Verwendung eines nicht zutreffenden, aber stark negativ besetzten Begriffs zu übertünchen.

 

Die Lüge vom überwiegenden medizinischen Konsens

Im nächsten Passus des „Faktenfinders“ steht dann die Behauptung: „Der überwiegende medizinische Konsens in der Umweltmedizin geht davon aus, dass nach aktuellem Kenntnisstand kein Schwellenwert benannt werden kann, der langfristige gesundheitliche Folgen von NO2 auf Menschen ausschließt“.

Hierzu ist zunächst anzumerken, dass die Behauptung mancher Epidemiologen, es gebe keinen unteren Grenzwert für die Gefährdung durch NO2 in der Atemluft, angesichts der Tatsache, dass es überall einen natürlichen NOx-Anteil in der Atmosphäre gibt, schlicht weltfremd ist. Sie ist nichts weiter als eine spezifische Ausprägung der LNT-Theorie (Linear No Threshold), mit der grüne „Wissenschaftler“ bei uns auch gerne die Angst vor „dem Atom“ schüren.

Zweitens haben sich die „Faktenfinder“-Autoren mit ihrer Argumentationsweise vom angeblichen „Konsens der Wissenschaft“ sehr gründlich in die Nesseln gesetzt. Sie haben wegen ihrer Unkenntnis selbst einfachster wissenschaftlicher Sachverhalte nicht begriffen, dass dieser bei Medienjournalisten beliebte Trick, mit dem gerne im Bereich der Klimawandeldiskussion gearbeitet wird, bei der Diskussion um Stickoxide nicht greift. Beim „Klimawandel“ können sie auf eine solide Wand an fest verankerten Vorstellungen zurückgreifen, um angebliche „Skeptiker“ und „Leugner“ als Unwissende, ja sogar als rückschrittliche Wissenschaftsgegner darzustellen. Stickoxide sind dagegen ein Gebiet, bei dem es um klassische, solide erforschte Themen geht. Hier sind die Zahlenverhältnisse unter den Wissenschaftlern genau umgekehrt.

Deshalb geht das Argument der „Faktenfinder“ grandios nach hinten los. Zur Untermauerung ihrer Behauptung führen sie eine Sammlung von Stellungnahmen von ganzen sieben Wissenschaftlern an [SMCE], von denen einer Mitarbeiter des UBA ist und drei aus dem Ausland kommen. An diesen Stellungnahmen fallen vor allem zahlreiche Einschränkungen wie „hätte“, „könnte“, „steht im Verdacht“ usw. auf. Konkrete Festlegungen werden dagegen meist vermieden, und die aufgeführte Literatur wird von US-Quellen dominiert. Darunter finden sich auch „Studien“ bekannter Aktivisten wie der Dr. Susan Anenberg, die mit ihrer kommerziell arbeitenden Research-Firma Environment Health Analytics eng mit den Führungsoffizieren der DUH beim „International Council on Clean Transportation“ [ICCT] zusammenarbeitet. Dieser Artikel mit seinen rein hypothetischen Horrorzahlen wurde natürlich auch in den deutschen Medien dutzendfach zustimmend aufgegriffen und aufgebauscht [DW, MDR, WELT], Bild 5.

Die „Mehrheit der Wissenschaftler“ mit Sachkenntnis über gesundheitliche Auswirkungen von NOx findet sich in Deutschland jedoch in den beiden Fachgremien, welche für die Festlegung von Grenzwerten am Arbeitsplatz (MAK-Kommission, 36 Mitglieder) bzw. in Büros und Privaträumen (Ausschuss für Innenraumrichtwerte, 18 Mitglieder) zuständig sind. Von den von den „Faktenfindern“ aufgeführten „Experten“ ist seltsamerweise keiner überhaupt in einem dieser Gremien zu finden. Es ist seitens der „Faktenfinder“-Autoren schon eine ziemliche Dreistigkeit, diesen insgesamt 54 meist hochrangigen Wissenschaftlern, deren Kernkompetenz der Schutz der Bevölkerung vor Luftschadstoffen ist, ein derart zusammengewürfeltes Sammelsurium von wenigen Einzelmeinungen gegenüberzustellen und zu behaupten, diese repräsentierten den „überwiegenden medizinischen Konsens“ in der Frage der Gesundheitsschädlichkeit von NO2.

Bild 5. Solche unbequemen Wahrheiten des Diesel-Untersuchungsausschusses des Bundestags [BUTA] werden von den Medien totgeschwiegen. Stattdessen werden wir mit Horrormeldungen über „Diesel-Tote“ regelrecht überflutet

Frontalangriff auf den Diesel-Untersuchungsausschuss des Bundestags

Bei näherem Hinsehen fällt an der etwas konfusen Meinungssammlung der „Faktenfinder“ auf, dass diese ursprünglich wohl als „Info-Munition“ für Journalisten gegen den Bundestagsausschuss gedacht war, der sich seit 2016 mit der VW-Dieselaffäre beschäftigt hatte [BUTA] und dessen Ergebnisse einer Kamarilla aus Medienjournalisten sowie einigen eifernden Wissenschaftlern nicht passten, obwohl mit Oliver Krischer ein hochrangiger Funktionär der Grünen sogar stellvertretender Leiter dieses Ausschusses war. Der offensichtliche Missgriff der Herren Reisin und Wichmann fordert natürlich geradezu dazu heraus, sich die Schlussfolgerungen dieses derart angegriffenen Ausschusses einmal genauer anzusehen. Danach kann man die Aufregung einiger Herrschaften besser verstehen. In seinem Bericht hält der Ausschuss nämlich auf den Seiten Seiten 491 ff fest:

Die Kausalität unterstellende Aussage, jährlich würden 10.000 Menschen durch Verkehrsemissionen sterben, ist auch nach Ansicht des Ausschusses nach dem Ergebnis der Sachverständigenanhörung nicht haltbar.

– In Deutschland bestehen keine toxikologisch bedenklichen NO2-Werte in öffentlich zugänglichen Bereichen.

– Es gibt keine wissenschaftlich erwiesenen Zahlen dazu, wie viele Menschen aufgrund grenzwertüberschreitender NO2-Expositionen erkrankt oder gar gestorben sind.

– Überschreitungen von NO2-Grenzwerten an bestimmten Orten allein haben relativ wenig Aussagekraft. Es kommt vielmehr auf die an einem Ort bestehende Komposition bzw. Mischung mit anderen „Giftstoffen“ an. Der Sachverständige Professor Dr. Greim hält sogar eine Langzeitexposition von 60 µg/m3, wie sie für 0,02 Prozent der Bevölkerung Berlins an äußerst stark befahrenen Straßen Realität ist, für gesundheitlich eher unbedenklich.

– Die Wirkung von bestimmten Gasgemischen auf den menschlichen Körper steht zudem in Abhängigkeit zu weiteren Faktoren wie dem Wetter, der Aufenthaltszeit, dem Alter oder dem Gesundheitszustand.

– Deutschland nimmt im Vergleich zu anderen europäischen Staaten das Problem der Stickstoffoxidbelastung besonders ernst und prüft bewusst an kritischen Stellen. Der Sachverständige Professor Dr. Koch bemerkte hierzu: „Interessant ist übrigens, dass in anderen europäischen Ländern nicht an der ungünstigsten Stelle, sondern freistehend gemessen wird. Aus diesem Grund liefern fast alle Messstationen bereits 2010 Immissionswerte im Zielbereich des Grenzwertes von 40 µg/m3“. Umgebungsmessungen an besonders kritischen Punkten, wie sie der Sachverständige am Neckartor in Stuttgart zur Vorbereitung seiner Aussage vor dem Ausschuss vornahm, zeigen, dass eine hohe NOx-Belastung im Verkehr sich auf die Werte in der unmittelbaren Umgebung nicht negativ auswirken muss.

– Die Sachverständige Professorin Dr. Peters vom Helmholtz Zentrum München hat ausgesagt, dass[….]die wissenschaftlichen Ergebnisse bisher aber eine gesicherte lineare Expositions-Wirkungsbeziehung für Stickoxidemissionen und Erkrankungen oder Erhöhung der Sterblichkeit im Sinne einer robusten Zuweisung nicht zulassen [BUTA].

Bild 6. Zitat aus dem Abschlussbericht des Diesel-Untersuchungsausschusses des Bundestags

Angesichts dieser Schlussfolgerungen eines Ausschusses, in dem alle im Bundestag vertretenen Parteien Sitz und Stimme hatten und vor dem zahlreiche Wissenschaftler angehört wurden, muss man sich wirklich fragen, wieso die „Faktenfinder“ zu den offensichtlich völlig anderen Ansichten gekommen sind, die sie in ihrem Beitrag vertreten. Zwar ist es für einen Journalisten durchaus legitim, in Meinungsbeiträgen abweichende oder sogar sektiererische Ansichten kundzutun. Dies jedoch als neutrale Darstellung wissenschaftlich gesicherter Fakten auszugeben, wie es im vorliegenden Fall geschieht, wirft ein sehr schlechtes Licht nicht nur auf die beiden Herren selbst, sondern auch auf die Sender, die dieses Treiben wohlwollend zugelassen haben. Der „Faktenfinder“-Artikel vertritt weder die Mehrheitsmeinung der Wissenschaft noch die der Gesellschaft – in diesem Fall vertreten durch die im Bundestag vertretenen Parteien. Stattdessen vertritt er einseitig radikal-grüne Positionen. Die Sendeanstalten werden sich überlegen müssen, wieweit sie glauben, dies mit ihrem gesetzlichen Auftrag vereinbaren zu können. Journalistische Freiheit setzt doch eigentlich vom Grundsatz her Sorgfalt und Neutralität voraus.

Bild 7. Eine weitere „unbequeme Wahrheit“ des Bundestags-Untersuchungsausschusses zur Dieselaffäre

Bei Abgasthemen gibt es Wissenschaftsbetrug im großen Stil

Eher nebenher erwähnt der Bericht des Bundestagsausschusses ein grundsätzliches Problem im Zusammenhang mit der Festlegung von Grenzwerten für Gase wie NO2: Den Unterschied zwischen Toxikologie und Epidemiologie, der auch in Folge 3 dieses Artikels bereits angesprochen wurde. Der Ausschuss kommt interessanterweise zu folgendem Schluss: „Epidemiologisch ist ein Zusammenhang zwischen Todesfällen

und bestimmten NO2-Expositionen im Sinne einer adäquaten Kausalität nicht erwiesen“.

Auf die grundsätzlichen Unterschiede zwischen den Methoden der Toxikologen und der Epidemiologen wurde bereits in einer früheren Folge dieses Artikels hingewiesen. Im Bereich der Toxikologie hat sich der Stand der Erkenntnisse im Laufe der letzten Jahrzehnte kaum geändert. Deshalb halten maßgebliche Fachleute aus diesem Bereich den derzeit geltenden Immissions-Grenzwert von 40 µg/m3 für übertrieben.

Aus dem Lager der Epidemiologie überschwemmt dagegen eine regelrechte Flut negativer Stellungnahmen bezüglich der Wirkung selbst geringer NO2-Konzentrationen seit Jahren die medizinische Fachliteratur. Vor diesem Hintergrund sind auch die besonders strengen Grenzwert-Vorgaben der WHO zu sehen. Hinzu kommen die in zahllosen Behörden und politischen Organisationen etablierten „Natur- und Klimaretter“, die in Wirklichkeit unsere technische Zivilisation ablehnen. Eine besonders unheilvolle Allianz zur Verteufelung des Diesels kam darüber hinaus durch die zusätzliche Verquickung derart dominierter Institutionen mit den Interessen der US-Automobilindustrie zusammen. Für die US-Autohersteller, die dem Entwicklungsstand europäischer PKW-Dieselmotoren nichts entgegenzusetzen haben, ist dies natürlich eine willkommene Gelegenheit, die missliebige Konkurrenz auszuhebeln. Da sehr viel Geld für „dieselkritische“ Forschungsergebnisse ausgelobt wird, finden sich auch schnell Wissenschaftler, die entsprechende Berichte erstellen. Es ist ganz so wie in Deutschland, wo sich manche Hochschul- und Forschungsinstitute darin zu übertreffen versuchen, Untersuchungen über die „Machbarkeit“ der Energiewende oder der Elektromobilität fast schon wie am Fließband zu produzieren. Veröffentlichungen über die Vorteile von Kernkraft- oder Kohlestrom wären z.B. bei einem wissenschaftlichen Mitarbeiter der „Fraunhofer-Gesellschaft für Windenergiesysteme“ sicherlich nicht förderlich für die weitere wissenschaftliche Karriere….

Treibende Kraft solcher „Auftragsforschung“ war in den USA die unter Obama mit großem Einfluss und entsprechenden Finanzmitteln ausgestattete Umweltschutzbehörde Environmental Protection Agency (EPA), die auch Herausgeber umfassender Kompendien [EPA] und zugleich Taktgeber ähnlicher Initiativen vor allem im angelsächsischen Raum [CANA] war. Wohin solch massive Beeinflussung von Zuwendungsempfängern führt, wurde Anfang des Jahres 2017 deutlich, als ein groß angelegter Betrugsfall mit toxikologischen Gutachten an der Duke University in Durham (North Carolina, USA) publik wurde [DUKE]. Presseberichten zufolge musste die Universität zugeben, dass für öffentlich finanzierte Studien über Atemwegserkrankungen durch Luftschadstoffe manipulierte bzw. sogar völlig frei erfundene Daten verwendet wurden. Diese Daten wurden „in verschiedenen Veröffentlichungen und Anträgen für Forschungsförderungen“ verwendet. Dabei ging es um erhebliche Summen: In dem entsprechenden Rechtsstreit werden 112,8 Mio. US-$ für Duke sowie weitere 120,9 Mio. US-$ für andere Universitäten genannt. Bei der Untersuchung von 36 Forschungsberichten stellte sich heraus, dass viele davon Zahlen enthielten, die schlicht erfunden waren. Die aktuelle Position der WHO, die noch vor 20 Jahren eine Innenraumkonzentration von 150 µg/m3 während 24 h für vertretbar erachtete, ist sicherlich nicht zuletzt von der EPA und ihren Schlussfolgerungen, die zumindest teilweise auf solchen gefälschten Berichten beruhen dürften, stark beeinflusst worden. In einer späteren Folge dieses Berichts wird noch detailliert darauf eingegangen, warum die meisten der für Dieselabgase durchgeführten epidemiologischen Untersuchungen als unglaubwürdig einzustufen sind. Sie bedürfen dringend einer kritischen Bewertung hinsichtlich „übersehener“ sozioökonomischer Faktoren sowie der Abgleichung der Ergebnisse mit nachprüfbaren toxikologischen Fakten.

 

Fakten und „Faktenfinder“

Die bisherige Analyse der von den „Faktenfindern“ von NDR und Tagesschau präsentierten Aussagen lässt erkennen, dass man sich dort alles andere als kritisch-investigativ mit dem Thema NO2-Immissionen der Stadtluft beschäftigt hat. Stattdessen übernimmt man einfach die Positionen von Hendricks und dem UBA, als seien deren Ansichten der Weisheit letzter Schluss. Eine eigenständige kritische Wertung von Daten und Hintergründen ist nicht einmal in Ansätzen erkennbar. Dies bestätigt die bereits bisher gemachte Erfahrung, dass die Mehrzahl der Medien – allen voran die Fernsehanstalten ARD, ZDF und ihre Landesdependancen – beim sogenannten „Diesel-Skandal“ einseitig, parteiisch und irreführend berichten. Statt um Ausgewogenheit und Sorgfalt bemüht man sich offenkundig eher darum, das Thema so darzustellen, wie die Bundesbehörden sowie die anderen etablierten Parteien es gerne haben möchten. Abweichende Meinungen von Medien, Journalisten oder Bloggern werden als unglaubwürdig hingestellt. So leistet man dem ideologischen Ziel der Deindustrialisierung Deutschlands durch „Dekarbonisierung der Volkswirtschaft“ Vorschub. Der Diesel ist dabei nur das erste Opfer. Es wird danach weitergehen, und zwar alternativlos.

Fred F. Mueller

 

Demnächst folgt Teil 6

 

Quellen

[BLIE] Umweltchemie. Von C. Bliefert. VCH Verlagsgesellschaft, Weinheim, 1994. 453 S., Broschur 68.00 DM. – ISBN 3-527-28692-6

[BUTA] Drucksache 18/12900 – 492 – Deutscher Bundestag – 18. Wahlperiode

[CANA] Human Health Risk Assessment for Ambient Nitrogen Dioxide, Health Canada, Water and Air Quality Bureau, AIR@hc-sc.gc.ca

[DUKE] http://dailycaller.com/2017/07/03/epa-funded-research-lab-accused-of-fabricating-data-on-respiratory-illnesses/

[DW] http://www.dw.com/de/%C3%BCber-100000-tote-durch-dieselabgase/a-38849769

[EPA] EPA/600/R-15/068 January 2016 www.epa.gov/isa

[FAKT] http://faktenfinder.tagesschau.de/inland/stickstoffdioxid-111.html

[HORREEA] https://www.eea.europa.eu/de/pressroom/newsreleases/zahlreiche-europaeer-sind-immer-noch/vorzeitige-todesfaelle-durch-luftverschmutzung

[ICCT] https://www.envhealthanalytics.com/single-post/2017/05/15/New-study-on-health-and-environmental-impacts-of-diesel-NOx-emissions-published

[LEIS] https://eike.institute/2017/08/20/das-kartell-der-dummheit-irrenhaus-deutschland-wie-wir-mit-dem-diesel-unsere-grundfesten-demontieren-teil-1-stickoxide-der-grosse-anteil-natuerlichen-ursprungs/

[MDR] http://www.mdr.de/nachrichten/ratgeber/faktencheck-todesfaelle-diesel-abgas-100.html

[SMCE] https://www.sciencemediacenter.de/alle-angebote/rapid-reaction/details/news/diesel-skandal-wissenschaftler-widersprechen-schlussfolgerungen-der-abgeordneten-zu-gesundheitlich/

[TUDA] http://indigo.meteor.tu-darmstadt.de/umet/script/Kapitel1/kap01.html#%C3%BCber1-6-3

[WELT] https://www.welt.de/gesundheit/article164592990/Mehr-als-100-000-Tote-jaehrlich-durch-Stickoxide.html

 




Diesel-Klage: Entscheidung in Stuttgart – die spinnen!

Jetzt klagt die Landesregierung von Baden-Württemberg also doch gegen das umstrittene Urteil des Verwaltungsgerichts Stuttgart. Das hatte im Juli dieses Jahres in einem aufsehenerregenden Verfahren entschieden, dass die bisherigen Maßnahmen nicht ausreichten, um die Luftwerte im Stuttgarter Talkessel zu verbessern. Fahrverbote drohen ab kommenden Jahr, wenn nicht jetzt das Bundesverwaltungsgericht etwas anderes entscheidet.

In der vergangenen Woche gab es heftigen Streit im Koalitionsausschuss, als die Frage beraten wurde, wie Baden-Württemberg vorgehen solle. Ein Weg durch die verschiedenen Instanzen hätte sicherlich einige Jahre gekostet und der Politik Zeit verschafft. Das wollten die Grünen nicht, die das Urteil annehmen wollten und am liebsten sofort die Autos aus der Innenstadt verbannen.

Diesel-Autos droht Fahrverbot in Stuttgart

Die grün-schwarze Regierung in Stuttgart einigte sich auf den Kompromiss »Sprungrevision«. Das ist der schnellste Weg. Das Bundesverwaltungsgericht wird ohne über Berufungsinstanzen zu gehen direkt angerufen und soll über eine Revision entscheiden. Damit ist das ab 1. Januar kommenden Jahres drohende Fahrverbot für Dieselfahrzeuge, die die Euro 5 erfüllen, hinfällig, denn die Entscheidung des Stuttgarter Verwaltungsgerichtes ist nicht rechtskräftig. Die Entscheidung des Bundesverwaltungsgerichtes dürfte frühestens im kommenden Jahr fallen. Bis dahin gibt es keinerlei Einschränkungen im Verkehr.Das Bundesverwaltungsgericht befasst sich nicht mehr mit inhaltlichen Fragen, sondern untersucht nur, ob der Vorgängerinstanz rechtliche Fehler unterlaufen sind. Die Frage spielt dann keine Rolle mehr, ob mit Nachrüstungen von älteren Diesel-Fahrzeugen die Grenzwert-Forderungen doch erfüllt werden könnten. Das hat die Vorgänger-Instanz in Stuttgart nicht gesehen. Sie hat gesagt, dass Fahrverbote notwendig seien.

In Leipzig muss auch geklärt werden, ob das Land selbst Fahrverbotszonen für ältere Diesel-Fahrzeuge einrichten könne, wenn der eigentlich dafür zuständige Bund dies nicht tut. Das Verwaltungsgericht sagte, das Land dürfe dies. Wie das Verfahren vor dem Bundesverwaltungsgericht ausgeht, ist offen.

Deutsche Umwelthilfe (DUH) – Klage gegen Stuttgart

Es gehe um »Gesundheitsschutz«, sagen die Grünen. Wohl kaum eine Aussage stimmt weniger als diese. Aus den Daten des Umweltbundesamtes geht hervor, dass der gesamte Autoverkehr nur zu 43 Prozent Stoffe zur Luftverschmutzung beiträgt, den größten Teil machen die Abgase der Heizungen aus. Wenn jetzt in der kalten Jahreszeit wieder viele Stuttgarter in Halbhöhenlage ihre Holzkamine anwerfen, verschärft das die schlechte Luftlage im Talkessel dramatisch. Politisch korrekt wäre jetzt »Kamin aus« und »Frieren gegen Feinstaub und Stickoxide«.Das muss man sich einmal plastisch vor Augen halten: Eine höchst umstrittene Grenzwertregelung versetzt Umweltdesperados wie die von dem Abmahnverein »Deutsche Umwelthilfe« DUH in die Lage, großflächige wirtschaftliche Verwerfungen auszulösen. Sie verursachen einen gesamtwirtschaftlichen Schaden, der kaum zu beziffern ist. Und dies auf einer Faktenlage, die nicht von wissenschaftlichen Erkenntnissen gedeckt ist. Heftig in der Diskussion sind die Stellplätze der Messstationen. Im Stuttgarter Gemeinderat wurde vorgeschlagen, die Messstation Neckartor ein wenig zu verschieben. Das sieht der von der EU gesetzte Rahmen ausdrücklich vor. Doch das hätte den Grünen und der DUH ihr schönes Geschäft mit dem Horror »Luftverschmutzung« verhagelt.

WILLKÜR TRIFFT WILLFÄHRIGKEIT

Abgasskandal durch Grenzwertwillkür?

»Grenzwertlüge« sagt zudem Professor Helmut Greim von der Technischen Universität München. Er weist immer wieder darauf hin, dass ein Grenzwert von 40 Mikrogramm Stickstoffdioxid pro Kubikmeter Luft wissenschaftlich vollkommen unbegründet ist. Der Grenzwert für Arbeitsplätze beträgt 950 Mikrogramm, hier sitzen Angestellte den gesamten Tag über drin, während die Werte direkt an der Messstation am Stuttgarter Neckartor zu messen sind, ein paar Meter weiter entfernt dagegen schon deutlich niedriger sind.Überdies sind die Werte unter anderem der Stickstoffdioxide seit 1990 um über 60 Prozent zurückgegangen, wie das die Daten des Umweltbundesamtes ergeben. Die Grundlagen für einen regelrechten Grenzwertwahn und damit das derzeitige Diesel-Desaster wurden vor langer Zeit gelegt. Die ersten Vorschriften, wie viel Abgase Autos ausstoßen dürfen, wurden 1970 erlassen. Damals war die Luft in den Städten tatsächlich teilweise zum »Schneiden«.

Seit 1990 erläßt die EU immer neue Normen, die die Werte nahezu halbierten. Ergebnis: Heute sorgen Holzöfen und Kamine in den Städten für mehr Feinstaub als Automotoren. Bei den Beratungen in Brüssel, wie die neuen Grenzwerte für Abgase auszusehen haben, zeigten sich die Industrievertreter überaus harmoniesüchtig. Werner Ressing, Ministerialdirektor a.D., der als oberster Vertreter des Bundeswirtschaftsministeriums bei den Grenzwert-Verhandlungen in Brüssel am Tisch saß, erinnert sich. Er kämpfte gegen die Verschärfung der Abgaswerte, die damals technisch nicht erreichbar seien: »Wir dürfen Industrie nicht überfordern!«

»Oettinger«, so erzählt er, »mit dem ich vorher nie Kontakt hatte, klopfte mir nachher auf die Schulter und sagte: »Noch nie so ein klares deutsches Statement hier gehört!« Am nächsten Tag in Berlin las Ressing in den Tickermeldungen: »VW akzeptiert die neuen Brüsseler Grenzwertvorschläge«. Er rief sofort wütend den Berliner VW-Repräsentanten an: »Wieso fallt ihr mir in den Rücken?« Der VW-Mann leitete die Beschwerde nach Wolfsburg weiter. Kurze Antwort aus Wolfsburg: »Es bleibt dabei, wir schaffen das!«

DER NÄCHSTE FEIND

Feinstaub, eine Posse

Die VW-Ingenieure in den Entwicklungsabteilungen dagegen schlugen die Hände über dem Kopf zusammen. Ihnen war bewusst, dass solche Grenzwerte mit den damaligen Technologien nicht zu stemmen waren, schon gleich gar nicht zu verkaufbaren Preisen. Ressing: »Das Ergebnis ist bekanntlich die »Schummelsoftware.« Auch Mercedes-Chef Dieter Zetsche saß mit am großen runden Tisch. Was hat er gesagt? Anwort von Werner Ressing: »Er hat geschwiegen!«Auch Vertreter von Bosch, dem wichtigsten Hersteller von Diesel-Einspritzpumpen und damit Zulieferer der Automobilindustrie, überschlugen sich förmlich vor grüner Begeisterung. Ressing: »Nach der Sitzung in Brüssel sprachen mich Bosch-Vertreter vor dem Ratssaal an und sagten mir: ›Da steckt noch viel mehr drin bei der Emissionsminderung!‹ Und ›Wie?‹ habe ich gefragt: Keine Antwort.« Es muss eine kollektive Besoffenheit bei den Spitzen der wichtigsten deutschen Industrie geherrscht haben. Auf dem Automobilsalon in Genf prahlte der damalige VW-Chef Martin Winterkorn: Wir unterbieten die Normen um 25 bis 30 Prozent. Der 17,5 Millionen teure VW-Chef wollte ehrgeizig den Konzern grüner machen. Das war zu der Zeit, da Greenpeace VW aufs Dach kletterte und mal wieder gegen Autos protestierten.

»In meiner Zeit als Industrieabteilungsleiter habe ich der Industrie und dem BDI immer wieder gesagt: »Ihr seid zu schlapp!« Die haben mir die Bude eingerannt und meine Frau hat immer gesagt: »Warum beschweren die sich bei Dir? Schick sie zur Merkel.« »Das habe ich versucht. Zum Beispiel beim Klimapaket 2008 habe ich gesagt: »Wenn sie im Kanzleramt ist, dann kippt ihr das Tor zu mit Steinen und Zement, bis sie von ihren verrückten Plänen ablässt. Das Ergebnis ist bekannt: Nichts ist passiert.« Ressing hörte die Erklärung des Industrievertreter: »Wir können doch nicht die Kanzlerin beleidigen!« Sein Fazit: »Nicht die Regierung geht in Kumpanei mit der Regierung, sondern umgekehrt und zwar die Vorstandsebene.«

PUTZEN HILFT

Kehrwoche

Fest steht schon jetzt, welch extrem hohen Kapitalverluste die Autohändler zu tragen haben. Bei ihnen stehen rund 300.000 Diesel-Fahrzeuge auf dem Hof, die die Euro 5 – Norm erfüllen, aber praktisch nicht verkaufbar sind. Das bedeutet für sie einen immensen Kapitalverlust. Betroffen sind auch Fahrzeuge nach der Euro 6 Norm. Deren Restwert sinkt dramatisch, damit hat das auch erhebliche Einflüsse auf das Leasinggeschäft, bei dem Restwerte ein wesentlicher Faktor in der Berechnung darstellt.Es geht weder um begrenzte Fahrverbote für einzelne Diesel-Fahrzeuge, um Betrügereien der Automobilindustrie, noch um Gesundheit.

Am Ende steht die individuelle Mobilität in Frage – für die Allgemeinheit wohlgemerkt, nicht für diejenigen, die gleicher sein wollen. Denn selbst fahren die lautesten Akteure die fettesten Autos, DUH-Chef Jürgen Resch steigt als Vielflieger gern in Flugzeuge, die Diesel-Verbot fordernde SPD-Chefin des Umweltbundesamtes, Maria Krautzberger, fährt selbst dicke Dienstwagen. Die DUH wird von Daimler Konkurrenz Toyota fürstlich unterstützt. So geht Konkurrenzkampf.

DAS GLÜCK FÄHRT IM E-AUTO?

Nach der Energie- jetzt die Verkehrswende?

Dahinter steht ganz klar: Hier soll die individuelle Mobilität verboten werden. Das ist auch eine Entscheidung gegen persönliche Freizügigkeit; niemand soll mehr frei bestimmen können, wann er sich wohin bewegen will. Fahrverbote stehen auf dem Wunschzettel der Grünen. Grünen-Chef Özdemir will nur dann Koalitionsverhandlungen, wenn das Ende des Verbrennungsmotors besiegelt werde. Fahren darf außer der Nomenklatura niemand mehr frei dorthin, womit, wo und wann er will. Es gilt: Wasser predigen und Wein saufen.Bezeichnend, wie sich die bisherige Bundesumweltministerin Hendricks auf dem Berliner Kongreß zur Elektromobilität als »Elektromobilitätsministerin« in Deutschland vorstellte. Ein Tagungsteilnehmer fragte sie: »Warum steht im Fuhrpark Ihres Ministeriums kein einziges Elektrofahrzeug?« Antwort: »Die Beamten müssen ja auch mal längere Strecken fahren. Deswegen ist Elektromobilität für uns nicht geeignet!«

Das gleicht der neuen CDU-Umweltministerin Christina Schulze Föcking in Nordrhein-Westfalen, die als eine ihrer ersten Amtshandlungen den Dienst-Tesla abschaffte. Sie erfuhr erschrocken, welch geringe Reichweiten im täglichen Einsatz damit zu erreichen sind. Den Tesla hatte für teure Steuergelder ihr grüner Vorgänger Johannes Remmel (Grüne) prestigeträchtig kaufen lassen. Jetzt fährt sie in einem sündhaft teuren 422 PS starken Mercedes 500.

Nicht zufällig wurde in den Räumen des Umweltbundesamtes sogar eine Studie vorbereitet, die in der Forderung gipfelt, dass nur noch zehn von 1.000 Einwohnern in Städten ein Auto haben dürfen. Das Mittel, um diese Forderung durchzusetzen, heißt Fahrverbote. Das Umweltbundesamt gehört zum bislang SPD-geführten Umweltministerium. Was aus solchen Plänen wird, muss man sehen. Es stehen demnächst noch Landtagswahlen an.




Das Ergebnis der Bundes­tagswahl lag am Klima­wandel!

Im Originaltext: Obradovich sets out to substantiate the idea that climate change, by threatening feelings of wellbeing, will lead to a quicker turnover of politicians and political parties“ …
… warmer than normal temperatures in the year prior to an election produce lower vote shares for parties already in power, driving quicker rates of political turnover”.

Und genau diese – für Wahlentscheidungen so wichtige – Konstellation traf auch für die aktuelle Bundestagswahl zu (Bild 2):
-Genau ein Jahr vor der Wahl (Sept. 2016: 16,9 °C) war es sehr heiß und die Änderungsrichtung dahin extrem schnell (Sept. 2015: 13 °C, also eine Steigerung um +3,9 °C)
-und auch in Deutschland (nach den USA) wurden auf diese Temperaturkonstellation hin die etablierten Parteien ein Jahr danach „abgewatscht
“.
Zufall kann das nicht mehr sein. Die statistischen Vertrauensbereiche – sorgfältig und unwiderlegbar genau vom Computer berechnet – sprechen eindeutig dagegen.

Der Autor gibt zerknirscht zu, dass er die Genialität der Studie damals nicht erkannt hat und sie ziemlich „durch den Kakau“ zog. Aber was stimmt, das stimmt, zum Schluss gibt immer der Erfolg recht.
Jetzt weiß man auch, warum Frau Merkel als die einzige, wirkliche Klimafachfrau im Berliner Politikzirkus zum Wahlausgang keine Wimper verzog und erklärte: „Es geht nicht darum andere Politik zu machen, denn mein Kurs war und ist richtig. Es geht darum mit den Bürgerinnen und Bürgern zu kommunizieren, damit sie verstehen lernen, dass unser Kurs richtig ist ... „
und meinte damit wohl, dass bald jeder Untertan zur Nachschulung antreten muss, sonst verliert er wie Diesel mit falscher „Softwareintelligenz“ das Bleiberecht. Schließlich kennt sie aus ihrer alten Heimat so den Umgang mit nicht stabil staatstreuen Bürgern.

Nur die (auch zum Klima) unwissende SPD und CSU hadern mit dem Ergebnis, an dem sie gar nichts ändern konnten und welches beim nächsten Temperaturumschwung schon wieder vollkommen anders werden kann.
Wer könnte auch glauben, dass ein Kanzlerkandidat, der von den Politprofis seiner Partei mit 100 % als die herausragende Spitzenkraft gekürt wurde, ein solch schlechtes Ergebnis einfährt. Dafür müssen andere Mächte verantwortlich sein. Und CO2 ist schließlich an jedem Übel auf der Welt irgendwie schuldig.
Doch nun, mit dem Wissen der Studie gewappnet, sind Ergebnisse nicht mehr in einer Glaskugel verborgen, sondern wissenschaftlich fundiert vorhersagbar! Ein Vorschlag des Autors dazu ist auf jeden Fall, bei der Terminsetzung einer eventuellen Neuwahl darauf zu achten.

Weil man damit schon bei der Septembertemperatur ist, soll zu dieser gleich noch etwas Ergänzung nachgetragen werden. Zwar hat (wie üblich) das Duo Kämpfe / Kowatsch ihren Monatsrückblick schon gebracht. Aber doppelte Information hält besser, vor allem, wenn sie sich auch mit Aspekten beschäftigt, über die sonst wenig berichtet wird. Diesmal hat der Autor dazu extra weit „über den Tellerrand“ hinaus analysiert und will die überraschenden Vorab-Ergebnisse (das zwingend erforderliche Peer-Review steht leider noch aus) den EIKE-Lesern nicht vorenthalten.

Puh, im September ist Deutschland an der Überhitzung gerade noch einmal vorbeigeschrammt

Manchen wird noch die Darstellung von Herrn Prof. Lesch (der sich inzwischen als oberbayerisches Al-Gore Double positioniert [5]) in einem seiner Klimaalarm-Videos in Erinnerung sein [1]. Obwohl das wirkliche Temperaturbild vom GISS bereits damals überholt war, zeigte er bewusst den Stand, als die (El Nino-bedingte) Temperaturspitze am höchsten – und die danach folgende Abkühlung noch nicht zu sehen war.
Inzwischen sieht man, dass auch in der Natur nichts einfach „unendlich“ weiter in den Himmel wächst.


Bild 1 Video Das AfD Programm wissenschaftlich geprüft von Harald Lesch, Screenshot. Aktuelle Globaltemperatur

Ein ähnliches Bild ergibt sich, wenn man den gerade vergangenen September in Deutschland betrachtet. Von einem Spitzenwert im letzten Jahr ist er direkt wieder auf den Wert der letzten Jahrhunderte herabgesunken und liegt bei der Temperatur der Jahre 1750 … 1751.


Bild 2 Deutschland, Temperaturverlauf September 1750 … 2017. Grafik anhand der DWD-Werte vom Autor erstellt

Nicht einmal dem DWD fiel dazu noch wirklich alarmistisches ein:
DWD Deutschlandwetter im September: 2017 Erheblich kühler als im Vorjahr
Im Vorjahr hatte Deutschland mit 16,9 Grad Celsius im Mittel (°C) und bis zu 8 Tagen über 30 Grad einen der wärmsten September seit Beginn der Messungen erlebt. Ein völlig anderes Bild zeigte der September des Jahres 2017: Mit 12,7 °C lag er um 0,6 Grad unter dem Soll der int. Referenzperiode 1961 bis 1990.
Nicht auszudenken, der September wäre wieder warm gewesen. Aber wenn er nicht einmal seinen Sollwert schafft (seit wann gibt es das beim Klima? der Texter beim DWD ist erkennbar „Gehirngewaschen“) und auf dem Wert von 1750 liegt, will man es den Untergebenen ja nicht gleich auf die Nase binden.

Der Sommer 2017: Kühler als im Jahr 1766

Der Sommer war warm, aber keinesfalls heiß und hatte die Temperatur, welche früher wahrscheinlich als „toller Sommer“ begrüßt wurde. Legt man den Verlauf ab 1881 aus dem DWD Klimaatlas über den langfristigen Datensatz des DWD seit 1750 – wie es der Autor gemacht hat -, sieht man:
-Der Sommer 2017 hatte den Temperaturwert des Jahres 1759,
-diese Temperatur ist „normal“ und kam seit 1750 regelmäßig vor,
-die Klimasimulationen liegen bereits aktuell wieder hoffnungslos falsch und „bieten“ für 2100 eine Spanne von 5,5 Grad.
Besser lässt sich kaum noch belegen, wie unbrauchbar und unglaubwürdig die Klimasimulationen sind,
-ein alarmistischer, stetiger Anstieg ist nicht erkennbar, nur die Simulationen meinen einen zu wissen.


Bild 3 Deutschland, Temperaturverlauf Sommer 1750 … 2017 und Simulationsläufe bis 2100. Grafik anhand der DWD-Bilder und DWD Daten vom Autor zusammengestellt

Ist der Kampf gegen das Klima in Wirklichkeit ein Kampf gegen die Alterspyramide? …

Man könnte es meinen. Im folgenden Langfristverlauf der Globaltemperatur Deutschlands zeigt sich nochmals, dass die (leichte) Erwärmung bereits weit vor Beginn der Industrialisierung begonnen hat. Auch „überhitzt“ sich Deutschland keinesfalls und wird bestimmt nicht durch einen Klimawandel „lebensgefährlich“ [3].
Ganz im Gegenteil: Betrachtet man die eingetragenen Lebenserwartungen, dann explodieren diese geradezu. Doch CO2-Simulations-Gläubige kämpfen dagegen bereits an, denn: Wer soll bei einer (vielleicht) weiter gehenden Erwärmung noch die Renten und Pensionen bezahlen?

Bild 4 Deutschland, Temperaturverlauf global 1750 … 2017. Zugefügt Daten zur Lebenserwartung in Deutschland. Grafik anhand der DWD-Werte vom Autor erstellt

Ähnlich ist es mit dem Weizenertrag. Erst gegen 1930, als es seit der Zwischenkaltzeit (Minimum ca. 1850) schon wieder deutlich wärmer war, begann dem Weizen das Klima wieder zu „gefallen“ und er „zeigt“ es seitdem mit steigenden Erträgen.


Bild 5 Zusammenhang zwischen Globaltemperatur und USA-Weizenertrag. Grafik vom Autor aus verschiedenen Quellen zusammengesetzt

Selbst in Ländern, welche angeblich massiv vom Klimawandel „getroffen“ sind, gefällt das neue Klima der Population und führt zu einer zunehmenden „Fruchtbarkeitsfreude“, welche mit jeder Temperaturerhöhung zunimmt, wie es das Beispiel der Bevölkerungsentwicklung von Kenia zeigt (Bild 6).


Bild 6 Bevölkerungswachstum von Kenia seit 1960 und GISS Globaltemperatur übereinander kopiert

Die offiziellen Informationen sollen davon nur ablenken

Im vorhergehenden Absatz wurde es anhand von Bild 4 mit den eingetragenen Lebenserwartungen und Bild 6 bereits angesprochen: Der (angebliche) Klimawandel führt nicht nur zur Bevölkerungsexplosion, wie es beispielsweise jeder Bericht über Afrika neu zeigt [4], er scheint auch die Ursache der schlimmen Alterspyramide und Bevölkerungsentwicklung zu sein, welche die westliche Länder (Bild 4) und vor allem afrikanische (Bild 6) so „plagt“. Geradezu bilderbuchhafte Korrelationen – wie sie sonst nur noch zwischen dem anthropogenen CO2-Eintrag und der GISS-Globaltemperatur zu finden sind -, weisen es eindeutig aus.

Unsere Behörden lenken durch gezielte Desinformation davon ab. Man erinnere sich an den Bericht aus Berlin:
EIKE 30. September 2017:[3] Trinkstationen gegen den Klimawandel,

in dem über angebliche, schlimme Klimawandelfolgen und Mortalitäten berichtet wird, welche der Klimawandel dort verursachen soll.
In Wirklichkeit hat Berlin ein ganz anderes Problem: Die Einwohner sterben nicht mehr „wie sie eigentlich sollten“.
Berlin.de: Sinkende Sterberate: Immer mehr Platz auf Berlins Friedhöfen*
Auf Berlins Friedhöfen gibt es immer mehr freie Flächen … die Sterberate in der Hauptstadt sinkt. Starben 1991 noch 43 654 Menschen in Berlin, waren es 2010 nur noch 32 234, heißt es in der Statistik der Friedhofsverwaltung. Die Bevölkerungszahl blieb in dieser Zeit relativ konstant bei rund 3,4 Millionen. Der Rückgang hat Konsequenzen. So schrumpft auch die Zahl der Berliner Friedhöfe seit Jahren. Derzeit gibt es in der Hauptstadt 221 Begräbnisstätten, 39 davon sind allerdings geschlossen.

Diese eindeutigen Daten lassen doch nur einen Schluss zu: Der angebliche Kampf gegen die „Klimaüberhitzung“ kann in Wirklichkeit nur ein (heimlicher) Kampf gegen die Überbevölkerung und Alterspyramiden sein.

Hinweis: Die im Artikel abgeleiteten Aussagen ergeben sich einzig durch statistische Korrelation. Ob sie der Wirklichkeit entsprechen, wurde nicht überprüft, da dies bei Analysen zum Klima und EEG eigentlich nicht üblich ist..

*Ein Dank auf den Hinweis dazu im Leserblog

Quellen

[1] EIKE 24.08.2016: Wenn der Hopfen nicht stirbt, stirbt dann der Klimawandel?

[2] EIKE 30.11.2016: Ist die Wahl von Trump eine Auswirkung des Klimawandels? Wenn es wärmer ist, werden die etablierten Parteien abgewählt, wie eine Studie belegt

[3] EIKE 30. September 2017: Trinkstationen gegen den Klimawandel

[4] EIKE 07.01.2017: Drei-Königs Sternsinger Aktion 2017 gegen Klimawandel-Auswirkungen in Kenia
[5] KALTE SONNE 1. Oktober 2017: Vereint im festen Glauben an die Klimakatastrophe: Komikerin Annette Frier unterstützt fragwürdiges Harald-Lesch-Manifest




Beweis erbracht: Klimaalarm ist eine Religion der Klimakirche

Manche wussten es schon immer, andere wollten es um keinen Preis wahrhaben. Jetzt erbringt der oberste Priester des Klimakirche, der Klimafolgenforscher Prof. Dr. Hans-Joachim Schellnhuber den Beweis. Klimaalarmismus ist eine Religion. Schellnhuber ist Schirmherr mit anderen für das „Klimaläuten“ zum „Klimaschutz“. Beten und Klimaläuten hilft sicher gegen Klimawandel Amen! :

Soeben erreicht uns von einem interessierten Leser diese Einladung an die Mitglieder der Fördergesellschaft der Potsdamer Garnisonkirche:

Liebe Freundinnen und liebe Freunde aus der Fördergesellschaft,

wir laden Sie sehr herzlich zu unseren Veranstaltungen im Oktober in die Nagelkreuzkapelle ein.

Ganz besonders wollen wir Sie auf das Friedensgebet am 13.10. um 12 Uhr auf der Plantage hinweisen. Unter Schirmherrschaft des Potsdamer Klimafolgeninstitut (PIK) unter  Prof. Dr. Dr. hc Hans Joachim Schellnhuber und des Bundesumweltministeriums wird ein „Klimaläuten“ stattfinden, das „unser Glockenspiel“  anlässlich der in Potsdam stattfindenden Klimakonferenz IMPACT 2017, eröffnet. Dann sollen Carilloneure in möglichst vielen Städten darauf antworten, indem auch sie die etwa 30-sekündige Klimaglocken-Melodie spielen und so die Botschaft weitertragen. Nachdem „Lobe den Herren“ um 12 Uhr erklungen ist, werden wir gemeinsam das Nagelkreuzgebet von Coventry beten und dann wird die Melodie des Klimaläutens von dem Berliner Carillonneur Jeffrey Bossin gespielt.

Interessenten die auch per Gebet den Klimawandel bekämpfen wollen können sich hier anmelden.

Wir freuen uns auf ein Wiedersehen mit Ihnen und grüßen sehr herzlich aus der Nagelkreuzkapelle!

Ihre

Cornelia Radeke-Engst

Pfarrerin der Nagelkreuzkapelle an der ehemaligen Garnisonkirche

Breite Straße 7

14467 Potsdam

Telefon: 0331 97931947

0151 22394364

radeke-engst@garnisonkirche-potsdam.de

www.garnisonkirche-potsdam.de

 

und Ihre

Astrid Brenning

Geschäftsführung

Fördergesellschaft für den Wiederaufbau der Garnisonkirche Potsdam e.V.

Tel.: 0331-2011830

Fax: 0331-2011831

eMail: fwg@garnisonkirche-Potsdam.de




11. Internationale Klima- und Energiekonferenz (IKEK-11)

Programm

5oct17_IKEK11_Programm

Donnerstag, 9. November

 

8.30 Uhr     Registrierung der Teilnehmer (Kontonummer für die Anmeldung hier zu finden)

 

10.00 Uhr   Einführung: EIKE gegen den Rest der Welt?

                 Rückblick nach 10 Jahren Verteidigung von Diskurs und Wissenschaft

                 Dr. Holger Thuß

Präsident, Europäisches Institut für Klima und Energie (EIKE)

 

10.30 Uhr   US Klima- und Energiepolitik nach 10 Monaten Trump

                 Stunde Null für Klimaalarmisten?

Marc Morano

Chefredakteur www.climatedepot.com und Kommunikationsdirektor CFACT

 

11.15 Uhr   Energiewende zwischen Wunsch und Wirklichkeit

Prof. Dr. Helmut Alt
FH Aachen

 

 

12.00 Uhr   Die bi-polare Klimaschaukel:

                 Thermale Gegen-Koppelung zwischen Arktis und Antarktis

Dipl.-Meteorologe Klaus-Eckart Puls

Ehemaliger Leiter der Wetterämter Essen und Leipzig

 

12.45 Uhr – 14.15 Uhr     Mittagspause Gemeinsames Mittagessen

 

15.00 Uhr   Meeresspiegelanstieg – Fakt und Fiktion
Ergebnis neuester empirischer Untersuchungen auf Fidschi

Prof. em. Dr. Niels Axel Mörner

Ozeanograph, Ehemaliger Dekan der Fakultät für Paläogeophysik und
Geodynamik an der Universität Stockholm

 

15.45 Uhr   Der Klimamythos und die exponentielle Angst

Benoît Rittaud,

Präsident climato-réalistes

 

16.30 Uhr – 17.00 Uhr Pause

 

17.00 Uhr   via Video und Skype: Vom Aussterben bedroht? – Die tatsächlichen Gefahren für Eisbären

Dr. Susan Crockford
Evolutionsbiologin und Experte für Eisbärenpopulationen,
Lehrbeauftragte an der University of Victoria, British Columbia, Kanada

 

17.45 Uhr   CO2-induzierte Erwärmung vs. gesteigertem Pflanzenwachstum

Prof. em. Dr. Francois Gervais

Université François Rabelais, de Tours, où il enseignait la physique et la science des matériaux

 

19.00 Uhr   Abendveranstaltung – Gemeinsames Abendessen mit Tischrede

 

                 Der Grüne Blackout wird kommen

                 Alexander Wendt, Journalist und Autor


Freitag, 10. November

 

9.00 Uhr     Klimawissenschaft in EIKE: Jüngste Forschungsergebnisse zu Klimazyklen

                 Prof. Dr. Horst Lüdecke

Pressesprecher, Europäisches Institut für Klima und Energie (EIKE)

 

9.45 Uhr     CO2 sparen durch Dämmzwang – warum und wie?

Konrad Fischer, Architekt

Architekt, Sachverständiger für EnEV

 

10.30 Uhr – 11.00 Uhr Pause

 

11.00 Uhr   Klimatreiber neben CO2

                 Der Einfluss kosmischer Strahlung auf des Klima –

                 Neueste Forschungsergebnisse und ihre Bedeutung für das Verständnis des Klimawandels

                 Prof. Dr. Henrik Svensmark

                 Centre for Sun-Climate Research des Danish National Space Centre

                 Prof. Dr. Nir Shaviv

                 Racah Institute of Physics – The Hebrew University of Jerusalem

 

12.15 Uhr   via Skype: Peer Review – Warum Skeptizismus zwingend notwendig ist

                 Donna Laframboise

Blog nofrakkingconsensus.com, Autor des Buchs “The Delinquent Teenager Who Was Mistaken for the World’s Top Climate Expert“, Toronto, Canada

 

12.45 Uhr   – 14.15 Uhr Mittagspause – Gemeinsames Mittagessen

 

14.15 Uhr   Es ist vorbei – Der Klimaalarmismus ist die Wiederauferstehung von 120 Jahren alten Fehlern

                 Christopher Monckton, 3rd Viscount Monckton of Brenchley

Michael Limburg, Dipl.-Ing.

Vizepräsident, Europäisches Institut für Klima und Energie (EIKE)

 

15.00 Uhr   Ein Jahr nach der Klimaübereinkunft von Paris!

Michael Limburg, Dipl.-Ing.

Vizepräsident, Europäisches Institut für Klima und Energie (EIKE)

 

15.30 Uhr   Die Schweizer Energiewende im Autonomen Nachvollzug?

                 Elias Meier

Präsident, Freie Landschaft Schweiz

 

16.15 Uhr   – 16.45 Uhr Pause

 

16.45 Uhr   Fakten statt Propaganda – Wie wir zu einer „echten“ Mobilitätsdiskussion kommen können

                 Günter Ederer (angefragt)

Wirtschaftspublizist, Filmproduzent und Buchautor

 

17.30 Uhr   Schlusswort

                 Wolfgang Müller

Generalsekretär, Europäisches Institut für Klima und Energie (EIKE)

 

anschließend (17.45 Uhr) Sektempfang und Ende der Veranstaltung  

Der Veranstalter behält sich das Recht auf kurzfristige Programmänderungen vor.

Die Konferenz, mit Ausnahme der Tischrede, wird simultan Deutsch-Englisch / Englisch-Deutsch und gedolmetscht.

Veranstaltungsort       Nikko Hotel

Immermannstraße 41

40210 Düsseldorf

500 Meter vom Hauptbahnhof Düsseldorf.

Der Flughafen Düsseldorf (DUS) ist mit dem Zug in 11-20 Minuten zu erreichen.

 

Anmeldung:

Mit vollem Namen, Anschrift und Institution an EIKE e.V.

Email: info@eike.pw Fax: 03641 – 3279 8589

Brief: EIKE e.V., Unstrutweg 2, 07743 Jena

Kontonummer für die Anmeldung ist hier zu finden

Tagungsbeitrag                                                                          Privatpersonen       Firmenvertreter

 

Tageskarte  (Donnerstag oder Freitag)                                                 60 €                                   150 €

Im Tagungspreis enthalten sind: Mittagessen und alle

Kaffeepausen sowie Konferenztasche mit Buch.

 

Tageskarte mit Abendveranstaltung (Donnerstag)                                 80 €                                  180 €

Im Tagungspreis enthalten sind: Mittagessen und alle Kaffee-

pausen, Abendessen sowie Konferenztasche mit Buch.

 

Komplette Konferenz (Do.-Fr.) inkl. Abendveranstaltung                       130 €                                  280 €

Im Tagungspreis enthalten sind: Zwei Mittagessen, alle Kaffee-
pausen, Abendessen sowie Konferenztasche mit Buch.

 

Teilnahme halbtags                                                                               40 €                                   90 €

Im Programm aufgeführte Kaffeepausen sind im Tagungspreis enthalten.

 

Für Schüler, Studenten (mit Nachweis) Konferenz: 45 €

 

Spenden an das Europäisches Institut für Klima und Energie (EIKE) sind steuerbegünstigt




Mit Strom vom Fahrrad in die nächste Nahrungskrise

Mit Strom vom Fahrrad in die Nahrungskrise

Von Christian Weiss

Video-Snapshot: Katrin Göring-Eckardt und weitere Grüne strampeln für heißen Kaffee. Quelle: Facebook

Katrin Göring-Eckardt und weitere Grüne strampeln für heißen Kaffee. Quelle: Facebook

Im Endspurt des vergangenen Bundestagswahlkampfes trat die grüne Spitzenkandidatin Katrin Göring-Eckardt zusammen mit Kolleginnen und Kollegen am 22. September in Erfurt kräftig in die Pedale.

Mit Man- bzw. Woman-Power strampelten die Vorreiter für »alternative Energien« auf festmontierten Drahteseln, um mit der gewonnen Energie eine Kaffeemaschine zu betreiben. Gute Idee, könnte man meinen. Radfahren ist ja so gesund und umweltfreundlich. Aber: Taugt das Rad auch für die umweltfreundliche Energieproduktion?

Wie wäre es eigentlich, wenn da nicht wackere Kämpferinnen und Kämpfer für eine Zukunft ohne Atome, Gene und chemische Verbindungen, aber eben doch nur Freitzeitradler in die Kurbeln träten, sondern muskelstarke Berufspedaleure mit Radsportvollzeitpensum?

Wie viel Strom können Radsportler erzeugen?

Weltklassefahrer erreichen Spitzenleistungen von über 400 Watt. Wenn sie acht Stunden lang im Sattel sitzen, reduziert sich die Durchschnittsleistung natürlich deutlich. Ein Profiradrennfahrer, der in einer Flachetappe im Feld bei 40 km/h mitrollt und dabei im Windschatten knapp 40% Kraftaufwand einspart, leistet konstant etwa 200 Watt.

Säße da also nicht nur das Bündnis 90 auf dem Hobel, sondern acht kräftige und durchtrainierte US-Postal- oder Team-Telekom-Sportler, dann könnten die, wenn sie jeden Tag acht Stunden lang auf dem Rad säßen, täglich 12,8 Kilowattstunden (kWh) Strom produzieren. Im ganzen Jahr – inklusive Wochenenden, Feiertage und ohne Urlaub – macht das 4672 kWh.

Leistung hat ihren Preis: Anbauflächen für erhöhten Nahrungsbedarf gesucht

Der Haken an der Sache: Es wird zwar in den Freundeskreisen des »Öko«-Stroms gerne erzählt, dass uns die Sonne keine Rechnung schicke, aber von nichts kommt nichts. Die 4672 kWh Strom gehen mit einem erhöhten Nahrungsverbrauch einher. Nun denken wir natürlich nachhaltig und ressourcenschonend, darum ernähren wir die Radsportler mit dem effizientesten Nahrungsmittel überhaupt: mit Mais. Kein Nahrungsmittel hat ein so gutes Verhältnis von Kalorien zu Anbauflächenbedarf.

100 Gramm Mais geben 374 Kilojoule (kJ) Energie her. In guten Jahren erntet man in Deutschland rund 10 Tonnen Körnermais pro Hektar. 4672 kWh entsprechen 16,8 Millionen kJ. Um diese Energie mittels Mais aufzubringen, wären demnach 0,45 Hektar Anbaufläche nötig. Leider ist der Mensch aber kein Wunderwerk der Effizienz, sondern die Muskeln geben neben der Bewegungsleistung vor allem Wärme ab. Nur rund 20 Prozent der investierten Energie können beim Radfahren in Bewegung umgesetzt werden. Das achtköpfige Radsport-Ökostrom-Team brauchte für diesen Mehraufwand eine zusätzliche Anbaufläche von 2,25 Hektar. Nun reichen die 4672 kWh gerade mal für einen durchschnittlichen Haushalt. Deutschland hat aber einen Stromverbrauch von 525 Terawattstunden (TWh), sprich: 525.000.000.000 kWh. Um diese Energiemenge mit austrainierten Profiradfahrern bereitzustellen, brauchte man nicht deren acht, sondern 900 Millionen.

Die Anbaufläche für den zusätzlichen Energiebedarf dieser wahrscheinlich indischen oder chinesischen Radsport-Armada betrüge über 2,5 Millionen Quadratkilometer. Angesichts dessen, dass Deutschland nur über eine Fläche von 357.000 Quadratkilometern verfügt, ergibt sich ein gewisses Problem. Es wäre zu klären, welche Länder den Gürtel enger schnallen und Agrarflächen zur Verfügung stellen müssten, damit sich der Traum vom »umweltfreundlichen« Zweiradstrom erfüllen liesse.

Teurer Strampelstrom

Ach ja, noch ein Gedanke zum Strompreis (die Kosten für die Fahrräder und die Arbeitgeberbeiträge lassen wir mal weg): Wenn die 900 Millionen Pedaleure den Mindestlohn von derzeit 8,84 Euro pro Stunde kriegen, wären dafür über 2600 Milliarden Euro jährlich nötig. Die Kilowattstunde würde dann 44 Euro kosten.

Fragen, die jetzt noch zu klären wären:

  1. Wie viele Liter Diesel wird für die Bewirtschaftung der Anbaufläche benötigt?
  2. Welche Auswirkungen hätte die enorme Abwärme der 900 Millionen Radsportler auf das Klima?
  3. Könnte man diese Abwärme nutzen, um im Winter »erneuerbar« zu heizen?
  4. Wäre im Sommer ein erhöhter Stromverbrauch für Klimaanlagen in Kauf zu nehmen?
  5. Wie hoch wäre der Wasserverbrauch des Radteams im Vergleich zu den von den Grünen so geschmähten Rindvieheinheiten?
  6. Wie viel Anbaufläche ginge für Bio-Kettenöl drauf?

Christian Weiss

Christian Weiss ist Journalist und war einige Jahre bei einer Schweizer Regionalzeitung mit den Themenschwerpunkten Energie (Atomendlagerung Zürcher Weinland) und Landwirtschaft angestellt. Inzwischen steht er kurz vor Abschluss seiner Ausbildung zum Primarlehrer.




Harald Lesch, PIK und deutsche Politik: Was nun mit dem menschgemachten CO2?

Hier erst einmal der Link der betreffenden Terra X – Sendung.  Viel ist zu ihr nicht zu sagen, sie ist ein Potpourri unzähliger Einzelthemen, die auf unterhaltsame Weise aber etwas bemüht in das Haupt-Thema „Zeit“ hineingepackt wurden. Die Einzelthemen, wie zum Beispiel die Entwicklung des Urmenschen, das Aussterben der Dinosaurier etc. werden immer wieder in anderen naturwissenschaftlichen Sendungen detaillierter und meist besser thematisiert. Also nichts Neues bei H. Lesch?

Doch, denn nicht so oft bekommt man etwas über die Gründe der regelmäßigen Abfolge der Eiszeiten über die letzte Million Jahre zu hören, also über die Hypothese der Milankovitch-Zyklen (hier). Zumindest dem Autor dieser Zeilen ist keine Natursendung bekannt, in der diese interessante Hypothese bisher behandelt wurde. H. Lesch hätte natürlich erwähnen können, dass sich mit ihr die Abfolge der Eiszeiten nur unvollständig erklären lassen. Dazu reichen die hier einwirkenden, astronomisch verursachten Energieänderungen („forcings“) einfach nicht aus. Die Voraussetzungen für das Ende der Eiszeiten lagen beispielsweise wesentlich öfter vor als die realen Ereignisse selber, und auch die Geschwindigkeit mit der die Erde aus einer Eiszeit hervortauchte, stellt die Klimaforschung bis heute vor Rätsel.

Richtig heftig, ja sensationell war dann aber die Aussage von H. Lesch der Art „Ohne uns wäre hier schon längst wieder eine nächste Eiszeit. Das heutige erhöhte Niveau des atmosphärischen CO2 infolge unserer Einwirkung hat aber dazu geführt, dass die nächste Eiszeit noch 30.000 Jahre, womöglich noch 50.000 Jahre auf sich warten lässt„. Er belegt dies mit einer Fachpublikation der PIK-Mitarbeiter(in) Andrey Ganopolski, Ricarda Winkelmann und Hans-Joachim Schellnhuber, Critical insolation–CO2 relation for diagnosing past and future glacial inception, Nature 529, 200-203 (2016). Außerdem hat das PIK selber eine Presse-Mitteilung zu diesem paper verfasst (hier).

Fassen wir jetzt einmal zusammen, was aus dieser Kakophonie zu entnehmen ist:

  1. Schellnhuber ist Mitautor einer Facharbeit, die die wohltätige Wirkung des anthropogenen CO2 (Verschiebung der unmittelbar drohenden Eiszeit) belegen soll, kann aber andererseits nicht genug vor den Erwärmungsgefahren des teuflischen CO2 warnen. Will er uns veräppeln?
  2. Eine Unzahl von Fachpublikationen im Laufe der Zeit lässt die sog. Klimasensitivität (populär die Erwärmungswirkung bei jeder hypothetischen Verdoppelung des CO2) auf heute deutlich unter 1 °C absinken (s. Fig. 1 unten). Erst 1,5 bis 2 °C werden aber vom PIK als gefährlich behauptet. Also ist gar nichts mit dem anthropogenen CO2, oder? Ach ja, die Modelle sind es, hätte man fast vergessen. Aber die kann man tatsächlich vergessen. Die können nicht einmal die Klimavergangenheit wiedergeben – ausgenommen mit künstlichen Hilfen („fudge factors“), was natürlich jeder kann. Zu Klima-Modellen reicht es fast schon aus, den Märchenerzähler und Klimamodellierer M. Latif zu zitieren (hier), um ihren Unsinn bei der Klimaerklärung zu entlarven.  Um MIssverständnisse zu vermeiden: für Details der Klimaforschung können Modelle durchaus nützlich sein.
  3. Die Erwärmungswirkung des anthropogenen CO2 ist lt. Aussage des IPCC unbekannt [1]. Wie kann dann aber Nature solch einen sachlichen Quatsch wie diese PIK-Veröffentlichung annehmen und veröffentlichen? Nun ja, besser Informierte wissen es schon lange: Klima-Artikel in Nature sind heute keine Empfehlung mehr. Eher das Gegenteil, denn Nature ist zu einem klima-alarmistischen Propagandablatt verkommen. Aber nun ist ja dieses PIK-paper „klimaentwarnend“, da brummt fast der Kopf. Hat die Nature-Redaktion überhaupt verstanden, was sie da annahm?
  4. Und dann noch – oh weh – die deutsche Politik. Zumindest die bisherige sah sich angesichts der allgemein bekannten o.g. Punkte 1.-3. nicht einmal genötigt, den Pariser Klimavertrag zu verlassen. Im Gegenteil: Die Energiewende wurde vorangetrieben, obwohl man wusste, dass sie keine CO2-Reduktion bewirkt. Dies nicht zuletzt deswegen, weil man partout die CO2 freien Kernkraftwerke abschalten will – wegen Tsunami-Gefahr an Rhein, Neckar, Elbe…

Fassen wir zusammen! Zumindest „die spinnen die Römer (Zitat Asterix und Obelix)“ kann festgehalten werden. Was Punkt 4 und die deutsche Politik angeht, können wir uns glücklicherweise auf den bewährten Mark Twain verlassen, der zur heutigen deutschen Klima-/Energiepolitik schon vor langer Zeit prophetisch zu sagen wusste „Nachdem sie das Ziel endgültig aus den Augen verloren hatten, verdoppelten sie ihre Anstrengungen“. Angesichts der panischen Ratlosigkeit von Medien und betroffenen politischen Parteien über die Wahlklatsche für CDU/CSU und SPD bleibt ohnehin nur noch gesunder Humor. Wir dürfen uns auf weitere irre Zeiten im Narrenhaus Deutschland freuen. Vermutlich ist auch das PIK dabei wieder handreichend an erster Stelle vertreten.

 

Bild: die Abnahme der Klimasensitivität über die Zeit in der Fachliteratur (aus dem paper von F. Gervais, Anthropogenic CO2 warming challenged by 60-year cycle, Earth-Science Reviews 155, 129-135, 2016). Die beiden Arten der Klimasensitivität TCR und ECS unterscheiden sich nur in der Betrachtung der spezifischen Zeitdauer der CO2-Änderungseinwirkung, was hier unwesentlich ist. Man erkennt, dass der Wert für beide Typen auf unter 1 °C absinkt (was nicht bedeutet, dass er zu Null werden muss).

 

[1] IPCC, Summary for Policymakers, 2013, S. 16 Fußnote 16 im Wortlaut „No best estimate for equilibrium climate sensitivity can now be given because of a lack of agreement on values across assessed lines of evidence and studies.“ (hier).




FOCUS – „WELTKLIMA 2017: UNSERE ERDE BRENNT“ – NEIN!

Die Umfragewerte der „Grünen“ waren nicht sehr berauschend. Sie lagen Mitte August wenig über der 5-Prozent-Marke und drohten darunter abzusacken. Ihre politischen Botschaften waren im Rauschen leerer Schlagworte wie „soziale Gerechtigkeit“ oder „bessere Bildung“ nicht zu hören. Doch dann kam die Hurrikan-Saison in der Karibik. Die Wirbelstürme lieferten spektakuläre Bilder für die Medien und entfachten wilde und wüste Spekulationen über deren „Ursachen“. Dass es sich um normale saisonale und regionale Naturereignisse handelt, das wurde ausgeklammert. Es bot sich die günstige Gelegenheit, um über Schuldige zu spekulieren „Klimaängste“ zu schüren, als ob es Wirbelstürme nicht auch schon vor der Entdeckung „Amerikas“ 1492 durch Kolumbus gegeben hätte. „Klimaexperten“ und Journalisten arbeiteten medial Hand in Hand und peitschten die Stimmung auf. Ist die Nutzung fossiler Rohstoffe, sind die modernen Industriegesellschaften mit ihren CO2-Emissionen, ist der Mensch selbst schuld, dass die Wirbelstürme immer mehr und heftiger werden?

Bis dahin war im Bundestagswahlkampf das „Klima“ ausgeklammert worden, zumal es kein „Streitthema“ zwischen den Kandidaten Merkel (CDU) und Schulz (SPD) war. Man hatte unisono das „Pariser Klimaabkommen“ ratifiziert und bejubelt, basta! Auch die „Grünen“ mieden das Thema „Klimaschutz“. Doch nun ergab sich die sehr günstige Gelegenheit, das Thema „Klimaschutz“ aus der Mottenkiste zu holen und politisch zu instrumentalisieren. Aus der Not heraus, zu herbe Verluste einzufahren und womöglich an der 5-Prozent-Hürde zu scheitern entdeckten die „Grünen“ wieder ihre Liebe zum „Klimaschutz“. Sie schwangen sich zum Retter vor der „Klimakatastrophe“ auf.

Die „Grünen“ aktivierten lautlos ihre mediale Macht. Es ist ja allgemein aus Befragungen bekannt, dass etwa 60 Prozent aller Journalisten mit den „Grünen“ sympathisieren. Die Taktik ging auf und am Wahlabend war der Jubel groß, als das Ergebnis bekannt wurde: 8,9 Prozent! Die „Grünen“ landeten hinter Union, SPD, AfD, FDP und den „Linken“ nur auf den 6. Platz, aber sie waren im Bundestag und können sich aktiv am Machtpoker beteiligen, zumal die SPD sich zur Opposition entschloss und „sie“ unentbehrlich für eine Regierungskoalition machte. Am 25. September 2017 schrieb die Mainzer Allgemeine Zeitung: „Erleichterter Blick in Richtung Jamaika“ und „Grüne – Noch einmal glimpflich davongekommen“. Die Messlatte wurde nun von den „Grünen“ sehr hochgehängt. Der Vorsitzende Cem Özdemir: „Wir können in keine Regierung gehen, ohne dass es eine klare Vorfahrt für Klimaschutz gibt.“ Folgerichtig schrieb die Mainzer Allgemeine tags drauf „Angela Merkel in der Jamaika-Falle“.

Unter den Printmedien war ausgerechnet der FOCUS diesmal die grüne Speerspitze. Er erschien unmittelbar vor der Wahl am 23. September 2017 mit einem reißerischen Artikel und der Aufforderung „So wählen Sie taktisch“. Auf der Titelseite prangte ein Satellitenfoto der Erde mit normaler Wolkenbedeckung im Nordwesten und einer feurig brodelnden Erde im Südosten. Auf dem Erdkreis stand folgender Text: „Weltklima 2017 – Unsere Erde brennt – Dürren, Stürme, Fluten – Was auf die Menschheit zukommt und wie sich das Leben verändern wird – Plus: Klima-Aktivist Al Gore im Interview“! Auf neun Seiten konnte man dann lesen „Wenn die Erde sich rächt…“

 

Wenn Wissenschaft einer Ideologie verfällt und zum „Knecht der Politik“ wird

Man kann es nicht oft genug wiederholen: „Klimaschutz“ ist ein unmögliches und damit unsinniges Vorhaben. Das „Klima“ ist ein Konstrukt, das der Mensch per Definition erst geschaffen hat, um irgendwie klare Strukturen in den chaotischen Wetterablauf, auf den der Mensch nicht den geringsten Einfluss hat, zu bringen. So wie die „Soziologie“ aus Menschen „Gesellschaften“ macht, so macht die „Klimatologie“ aus Wetter „Klima“. Es gibt aber einen gravierenden Unterschied. In einer „Gesellschaft“ bleibt der Mensch als Individuum existent. Doch beim „Klima“ verschwindet nicht nur das Wetter von 10.957 Tagen oder 30 Jahren, das „Klima“ wird zudem auch noch reduziert auf einen einzigen Wert, die „Mitteltemperatur“. Daher ist der Ausdruck „Weltklima 2017“ falsch, ja ein Betrug, denn einem „Klimawert“ müssen immer laut Definition 30 Jahre Datenmaterial zugrunde liegen. Warum nimmt man als Klimawandel-Maßstab die „Globaltemperatur“ und nicht den „Globalluftdruck“?

Und noch ein Unterschied gibt es zwischen Mensch und Wetter! Menschen kann man indoktrinieren, damit deren Meinungen manipulieren und so auch „Gesellschaften“ in ihrem Wahlverhalten verändern. Aber auf die Großwetterlagen hat die Menschheit nicht den geringsten Einfluss und damit auch nicht auf davon statistisch abgeleitete 30jährige Mittelwerte. Welche logische Schlussfolgerung ergibt sich daraus? Wenn das Wetter nicht „menschengemacht“ ist, dann ist das „Klima“ erst recht nicht „menschengemacht“! Die ganze Diskussion ist eine rein ideologische Scheindiskussion, ohne Nutzwert, ohne Sinn und Verstand. Dies belegt ein Satz im FOCUS-Artikel von Prof. Dr. Hans Joachim Schellnhuber, Direktor am Potsdam-Institut für Klimafolgenforschung: „Die Elemente Feuer, Wasser und Luft wenden sich nun gegen uns, weil wir den Planeten aus dem Gleichgewicht bringen“. Dies kann nur jemand behaupten, der entweder keine Ahnung vom Naturgeschehen und von den meteorologischen Vorgängen in der Atmosphäre hat oder ideologisch auf ein bestimmtes theoretisches Weltbild fixiert.

Wenn solch ein Unsinn von „Klimaexperten“ souffliert wird, kann man es den Medien nicht vorwerfen, wenn sie noch eins draufsetzen wie die FOCUS-Redakteure Helmut Broeg und Rainer Kurlemann? Womöglich sind sie sogar stolz, wenn sie in reißerischem Stil formulieren: „Die jüngsten Massenmörder heißen „Harvey“, „Irma“ und „Maria“! Da werden Wirbelstürme, die zur Naturausstattung des Wetters tropischer Meeresregionen wie Hoch- und Tiefdruckgebiete mit Gewittern und Starkniederschlägen in mittleren Breiten gehören, zu „Massenmördern“ gemacht. Diese „Massenmörder“ seien wiederum „menschengemacht“. Pervers ist nun, dass die „Politik“ ihre Hände in Unschuld wäscht und die ganze Schuld auf den Menschen und die Völker schiebt, obgleich sie selbst die ganze Verantwortung an der Entwicklung trägt. Wer finanziert die superteuren Klimaforschungsinstitute? Der Staat mit unseren Steuergeldern!

Durchschaut der Bildungsbürger dieses infame Spiel nicht, das hier getrieben wird und was sich in Wahrheit hinter der „Klimaschutzpolitik“ verbirgt? Warum fragen wir nicht laut, was hier in Wirklichkeit gespielt wird und verlangen Auskunft von der „Politik“, was sie in Wirklichkeit damit bezweckt und was für Ziele sie hat? Bei dem PIK-Direktor Schellnhuber ist es klar: Er will die „Große Transformation“, er will den Fortschritt in den Rückschritt, in „vorindustrielle Zeiten“. Auch das „Pariser Klimaabkommen“ der UN strebt dieses Ziel an.

 

„Ist Deutschland gewappnet für den Klimawandel?“ (FOCUS)

Angesichts der „Jamaika-Koalition“ ist zu befürchten, dass die Vernunft dem politischen Kalkül unterliegt und auf der Strecke bleibt. Im Gegenteil: Die übergroße Mehrheit der Klimawandel-Propagandisten wird gegen die „Klimawandel-Leugner“ ins Feld ziehen, obwohl nicht einmal Donald Trump, der US-Präsident, den „Klimawandel“ leugnet, sondern nur die kühne Behauptung, dieser sei „menschengemacht“! Es wird unter den Koalitionären einen Wettbewerb, ja Wettstreit geben, wer der bessere und effektivste „Klimaschützer“ sei. Die Messlatte hat MdB Tabea Rößner (Grüne) schon hoch gelegt: „Wenn es um Klimapolitikgeht oder das Ende des Verbrennungsmotors, dann werden wir hart bleiben“!

Aber so wie „Klima“, das Mittel von 30 Jahre Wetter, von den Vereinten Nationen (UN) über die Weltorganisation für Meteorologie (WMO) in Genf definiert ist, ist der „Klimawandel“ eine Folge des ewigen und für den Menschen unerklärlichen und damit unvorhersehbaren Wetterwandels. Er zeigt sich graphisch als gleitendes 30jähriges Mittel des Wetters! Da das globale Wettergeschehen in seinem tatsächlichen Verlauf nirgendwo auf der Erde eine Abhängigkeit vom CO2-Gehalt der Luft zeigt, werden alle Maßnahmen, die Treibhausgas-Emissionen zum Zweck des „Klimaschutzes“ reduzieren zu wollen, a priori erfolglos sein.

Den Beweis hat die Natur, haben die „Klimaexperten“ selbst erbracht, Sie wiesen nämlich bereits 1995 nach, dass der CO2-Gehalt der Atmosphäre vor Beginn der Industrialisierung um 1850 über 8000 Jahre hinweg konstant, also vom Menschen unbeeinflusst, gewesen sei. Doch war auch das Wetter konstant? Nein! Es pendelte im „Rhythmus“ von circa 1000 Jahren zwischen wärmeren und kälteren Perioden, Optima oder Pessima genannt. Die Tatsache also, dass über Jahrtausende der CO2-Gehalt nahezu konstant bei 280 ppm verharrte, hat die „Klimaschwankungen“ nach der Weichsel-Eiszeit nicht verhindert. Unsere Zeitrechnung begann während des Klimaoptimums zur Römerzeit. Dann folgte eine Abkühlung im nordeuropäisch-eurasischen Raum mit den „Völkerwanderungen“. Danach folgte das Klimaoptimum des Hochmittelalters. Diesem folgte die „Kleine Eiszeit“, die etwa um 1850 endete. Von da an wird es wieder wärmer.

Für alle diese Witterungs-Schwankungen gibt es keine Erklärung, weder seitens der Meteorologie noch der Klimatologie. Doch für die jüngste Erwärmungsphase nun über äußerst dubiose Korrelationen einzig und allein die CO2-Emissionen verantwortlich zu machen, das ist wissenschaftlich unredlich und verwerflich. Der angeblich „natürliche Treibhauseffekt“ von 33 Grad, dem ein von Treibhausgasen bedingter „anthropogener Zusatzeffekt“, ist ein ideologisches Konstrukt, eine Behauptung, die von der Natur in und nach jeder klaren Strahlungsnacht sichtbar widerlegt wird. Alle Temperaturmessungen bestätigen dies. Der morgendliche Tau im Sommer oder Raureif im Winter bezeugen dies.

Das Phänomenale an die Klimapolitik ist, dass sie alles versprechen kann, aber nichts tun muss, außer den Bürgern „Klimaschutz“ zu versprechen und dafür von den Bürgern, die sich ohne massive Gegenwehr zu „Klimasündern“, ja „Klimakillern“ abstempeln ließen, entsprechende Bußgelder wie in der Schweiz den „Klimarappen“ abzukassieren. Hier hat sich zum x-ten Mal in der Weltgeschichte gezeigt, dass mit „Ängsten“ ganze Völker zu „Herden“ gemacht werden können, die sich um Machtmenschen scharen, weil diese ihnen Rettung versprechen.

Was ist die Schlussfolgerung? Deutschland braucht sich gegen den „Klimawandel“ nicht zu wappnen. Dies allein deswegen nicht, weil keine Regierung das Wetter beeinflussen und seinen Wandel verhindern kann. Aber gegen das Wetter kann man sich, wie die Geschichte seit der letzten Eiszeit gezeigt hat, schützen. Niemand kann das Wetter anhalten oder verhindern, aber durch genauere Wettervorhersagen könnte der Staat seine Bürger in die Lage versetzen, sich besser gegen Wettergefahren zu schützen und Schäden zu verringern. Ob unsere Autos durch „Verbrennungsmotoren“ angetrieben werden oder von „Elektromotoren“, am Wetter wird sich nichts ändern.

Man sollte aber berücksichtigen, dass wir Menschen auch „Verbrennungsmotoren“ sind. Wir verbrennen mit Hilfe des durch unseren Atem aufgenommenen Sauerstoffs der Luft kohlenhydrathaltige Pflanzennahrung, um dabei Lebensenergie freizusetzen. Mit jedem Atemzug entziehen wir der Luft etwa 4 Prozent Sauerstoff (O2) und reichern sie mit 4 Prozent CO2 an. Und wie viele Menschen gibt es derzeit auf der Erde? 7,55 Milliarden! Alles Leben, auch das der Tiere, von den Ameisen bis zu den Termiten, von den Affen bis zu den Tigern, ist auf die Existenz von „grünen Pflanzen“ angewiesen. Diese wiederum leben vom CO2 in der Luft wie dem Wasser im Boden. Auf der „Photosynthese“ beruht nicht nur das pflanzliche, sondern auch das tierische wie menschliche Leben. Wer sich im „Klimaschutz-Wahn“ eine CO2-freie Atmosphäre wünscht, und dieser Wunsch ist bei den „Grünen“ dominant, der sägt an dem Ast, auf dem alles Leben wächst.

Dies sollte auch der „Klima-Aktivist“ und Ex-US-Vize Al Gore bedenken, der gerade Werbung für seinen Dokumentarfilm „Immer noch eine unbequeme Wahrheit: Unsere Zeit läuft“ in Deutschland macht. Er fordert, „Deutschland muss vorangehen“ und sieht „Germany“ als „Vorreiter einer neuen Politik“. Kann unsere Regierung, kann eine „Jamaika-Koalition“ zu dieser Schmeichelei „nein“ sagen? Wohl kaum! Aber sie sollte es tun, sie muss es tun, um sich nicht irgendwann als „Vorreiter“ auf der Anklagebank zu sehen, wenn der Wind sich dreht und das politische Klima umschlägt.

Wie beruhigt der Multimillionär Al Gore sein „Klimagewissen“? Auf die Bemerkung „Sie selbst fliegen auch viel“, meinte er: „Stimmt, aber ich gleiche meinen CO2-Fußabdruck doppelt wieder aus“. Außerdem habe er auf seiner Farm 16 000 Bäume gepflanzt und 33 Solarmodule auf seinem Haus, „das sich zu 100 Prozent aus erneuerbaren Energien speist“. Außerdem fahre er „einen Tesla“ und ernähre sich „vegan“. Er wäre das erste Opfer, wenn die Pflanzen mangels CO2 in der Luft absterben und es nach dem PIK-Direktor Schellnhuber zum „globalen Genozid“ käme.

Mit der Story „UNSERE ERDE BRENNT“ hat der FOCUS zwar den „Grünen“ verholfen, in der sich anbahnenden „Jamaika-Koalition“ mitzuwirken, aber ob er sich der ernsten Konsequenzen bewusst war? Wenn die Erde brennen würde, könnte man den Brand leicht löschen, indem man der Luft den Sauerstoff entzieht und die Flammen erstickt. Doch was machen wir Menschen, wenn unser „Verbrennungsmotor“ keinen Sauerstoff mehr hat? Es ist leicht Papier vollzuschreiben, aber Sinnvolles zu schreiben, diese Gabe ist nicht jedem Journalisten gegeben.

 




Komiker unter sich: Komikerin Annette Frier unterstützt fragwürdiges Harald-Lesch-Manifest

Kalte-Sonne-Leser “Franz” berichtet uns, er habe eine Email vom Fernsehprofessor und Klimaaktivisten Harald Lesch erhalten. Lesch forderte “Franz” auf, er solle zusammen mit ihm Druck auf die deutschen Koalititionsvertragsgespräche ausüben. Darf das Lesch als öffentlich-rechtlicher TV-Mitarbeiter überhaupt? Schamlos nutzt er seine mediale Bekanntheit aus, um seine persönlichen politischen Ziele zu verfolgen. In Großbritannien hat ein ähnlicher Fall vor kurzem zu einer schweren Rüge des Mitabeiters geführt. Hier zunächst die Email:

Gesendet: Dienstag, 26. September 2017 um 11:10 Uhr
Von: ”Prof. Dr. Harald Lesch via Change.org” <xxx@mail.change.org>
An: xxx
Betreff: Koalitionsverhandlungen

Diese 10 Forderungen müssen jetzt in den Koalitionsvertrag

Hallo Franz,

Deutschland hat gewählt und formiert sich neu. Jetzt müssen wir dafür sorgen, dass der neue Koalitionsvertrag die Interessen der kommenden Generationen enthält. Folgende Themen müssen rein: Klimaschutz, Armutsbekämpfung, Müllminderung, Digitalisierung, Stopp der Waffenexporte und Bildung.

Genau jetzt ist der wichtigste Moment der nächsten 4 Jahre, um tatsächlichen Einfluss auf die Politik zu nehmen! Und die Verhandlungen sind schon angelaufen. Ein „weiter so“ darf es nicht geben. Bitte helfen Sie uns mit Ihrer Stimme und Ihrer Unterschrift, Franz!

Ich habe zusammen mit Annette Frier, Prof. Schellnhuber, Amelie Fried, Hannes Jaenicke und vielen anderen das Generationen Manifest unterschrieben. Wir haben in monatelangen Diskussionen mit allen Altersgruppen, die 10 größten Gefahren für kommende Generationen benannt und Lösungen formuliert.

Was wir jetzt brauchen ist Ihre und möglichst viele Unterschriften, die zeigen, dass wir viele sind, die sich berechtigte Sorgen um die Zukunft unserer Kinder machen. Jede Unterschrift gibt uns mehr Legitimation, um Gehör bei den Koalitionsverhandlungen zu finden. Franz, unterschreiben Sie das Generationen Manifest?

Unsere Kinder haben keine Stimme, aber sie haben uns!

Danke!
Prof. Dr. Harald Lesch

Die zehn Forderungen findet man hier. Bei Nummer 1 will man offensichtlich möglichst viele Menschen hinter sich versammeln: Abschaffung der Atomwaffen. Dieser Forderung wird sich wohl fast jeder anschließen, obwohl es natürlich naiv ist, an ihre Erfüllung zu glauben. Im Punkt 2 geht es dann sofort zum Klimaalarm:

2. Klima: Mit allen Mitteln die Klimakatastrophe abwenden.
Auch in Deutschland müssen wir unsere Anstrengungen im Einklang mit dem Pariser Klimaschutzabkommen massiv erhöhen. Wir fordern die Bundesregierung auf, den Einsatz fossiler Brennstoffe bis 2040 zu beenden sowie ein tragfähiges Konzept für CO2-Besteuerung bzw. Emissionshandel vorzulegen. Aus den Erträgen soll ein Zukunftsfonds aufgelegt werden, der Innovationen fördert und für künftige Generationen spart.

An diesem Punkt erkennt man sofort den Irrsinn. Zunächst einmal fußt die Forderung auf der Einbildung, man hätte es tatsächlich mit einer Klimakatastrophe zu tun. Die Wissenschaft ist sich in diesem Punkt gar nicht mehr so sicher, die Schätzwerte für die CO2-Klimasesnitivität sinken stetig. Klimamodelle entpuppen sich als schlechte Berater, da sie die Vergangenheit einfach nicht in den Griff bekommen und daher auch für Zukunftsprognosen nicht einsetzbar sind. Leschs Phrase “mit allen Mitteln” macht zudem Angst. Genau dies war doch das Problem, dass man bei der Energiewende alles andere ausgeblendet hat. Die Kosten waren egal, genauso der Nutzen. Es war egal, ob das Geld für soziale Zwecke gebraucht wurde; es war egal, dass hier einige Individuen ein riesiges Subventionsgeschäft unter dem grünen Deckmäntelchen machten. Die Lesch-Truppe fordert also: Weiter so!

Anstrengungen in Deutschland erhöhen? Würde es nicht Sinn machen, hier zumindest in einer europaweit abgestimmten Initiative zu agieren? Deutsche Alleingänge machen da kaum Sinn. Die Nachbarn kichern schon über unsere Vermessenheit. China und Indien bauen kräftig weiter Kohlekraftwerke. Jede zweite Woche geht ein neues Kraftwerk ans Netz. Abschaffung der fossilen Brennstoffe bis 2040 hat einen bitterbösen planwirtschaftlichen Charakter, eine Episode in der deutschen Geschichte, die wir glaubten überwunden zu haben. Auch Punkt 7 des Forderungenkatalogs zeigt erneut die Elfenbeinperspektive und Realitätsferne von Lesch und seinen Koalitionsforderungen:

7. Migration: Menschen werden kommen, sie haben ein Recht darauf.
Unser Egoismus und unsere Profitgier sind mitverantwortlich für die Flüchtlingsströme. Wir müssen hier Verantwortung übernehmen und uns der Situation stellen. Wir fordern einen Gestaltungsplan, der auf internationaler Ebene Vorsorge für die zu erwartenden erheblichen Migrationsströme der Zukunft trifft, und einen Verteilungsplan, der über einen gerechten Schlüssel dafür sorgt, dass diese Menschen aufgenommen und integriert werden können. Und wir fordern eine konsequente und faire Integration der hier lebenden Flüchtlinge und Migranten sowie die Diskussion über eine globale Green Card.

Wer gehört zu den Initiatoren und Erstunterzeichnern der Initiative? Hier ist die Liste. Das ist ja ein illusterer Haufen der da unterschrieben hat! Unter anderem viele Komiker und Schauspieler, z.B. Annette Frier. Auch ein Unternehmer ist dabei, Daniel Klüser. Er ist CEO von Havsund, einer Firma die Nahrungsergänzungsstoffe herstellt. Unter anderem werben sie allen Ernstes mit einem Mittelchen gegen unerfüllten Kinderwunsch. Was Biologen hierzu denken, kann man bereits erahnen. Harald Lesch scheint es nicht zu kümmern, konzentriert sich lieber “mit allen Mitteln” auf seine geliebte Klimakatastrophentheorie.

Übernommen von die kalte Sonne hier




Über STICKOXIDE und den DIESELMOTOR

Dass solche Darstellungen irrig sind, wurde an vielen Stellen bereits veröffentlicht. Der folgende Aufsatz unterstreicht das ausdrücklich und zeigt ebenfalls mit leicht errechenbaren Zahlen, was es mit Stickoxiden und den beim Dieselmotor emittierten Konzentrationen auf sich hat.

Chemische Gleichgewichte

 

            Reaktion A: N2 + O2   ↔   2 NO               („Stickstoffverbrennung“)

In einem Dieselabgas mit 74% Stickstoff und 6% Sauerstoff (s.u.) sind im chemischen Gleichgewicht folgende Stickoxide (NO) auf Grund der thermodynamischen Daten zu erwarten:

bei   25°C    1 zehnmillardstel ppm (=fast gar nichts)

bei    700°C    45 ppm

bei 1.200°C    1.300 ppm

bei 2.700°C    13 % (in Luft mit 23% O2), = 130.000 ppm

Die Gleichgewichtskonzentrationen geben aber noch nichts über die Reaktions-geschwindigkeiten an, weder zur Bildung noch zur Zersetzung. Dazu wird berichtet, dass unterhalb 700°C die Verbindung NO metastabil ist und sich praktisch nicht verändert, also weder sich bildet noch sich zersetzt; wenn also bei sehr hohen Temperaturen sich eine deutliche Menge gebildet hat und das Gasgemisch sehr schnell bis auf 700°C oder weniger abgeschreckt wird, bleibt viel des erhaltenen NO bestehen. Solches wurde früher im sogenannten „Nitrum“-Verfahren zur Luftverbrennung im Lichtbogenofen ( ̴ 2700°C !) durchgeführt (Herstellung von Salpetersäure).

Das Gas NO ist farblos und hat nur ein sehr geringes Lösungsvermögen in Wasser.

Reaktion B:   2 NO + O2   ↔   2 NO2       („Oxidation von Monoxid zu Dioxid“)

 

In Luft mit 23 % Sauerstoff und bei 25°C liegt das Verhältnis Dioxid zu Monoxid

(NO2 : NO) bei über 500.000.

So ist in Luft bei 25°C praktisch kein NO mehr neben NO2 vorhanden, die Reaktion ist aber sehr temperaturabhängig, und sie verläuft relativ schnell.

Bei ca. 480°C wird sie bereits endotherm, und der Zerfall von NO2 in NO und Sauerstoff setzt verstärkt ein, was bei 650°C so gut wie vollständig ist.

Das braune Gas NO2 löst sich gut in Wasser nach der Formel 2 NO2 + H2O → HNO2 + HNO3, die salpetrige Säure ihrerseits ist aber nicht beständig und zersetzt sich nach der Formel 3 HNO2 → HNO3 + H2O + 2 NO. Das dabei gebildete NO ist ein Problem bei jeder Gaswäsche, weil es sich erst wieder oxidieren muss, um weiter ausgewaschen werden zu können, häufig aber vorher entweicht.

Emissionskonzentrationen

Man spricht häufig von NOx-Konzentrationen, weil sowohl NO als auch NO2 vorhanden sein kann. Die Gleichgewichtsbetrachtungen zeigen aber, dass bei Raumtemperaturen praktisch nur NO2 vorhanden ist, es bildet sich aus NO und Luftsauerstoff ziemlich schnell. Bei hohen Temperaturen (Verbrennungen) kann sich aber nur NO bilden, das nach Abschreckung und bei Sauerstoffanwesenheit so gut wie vollständig verschwindet und so zu NO2 wird.

In der Industrie besagen die Abgasvorschriften, dass die Emissionskonzentration von NOx nicht höher als 100 mg/Nm3 ( ̴77 Gew.ppm) sein darf; es wird im Abgaskamin gemessen. Um diesen Wert zu erreichen, werden stickoxidhaltige Abgase normalerweise in einer Gaswäsche behandelt, wobei die Waschflüssigkeit alkalisch sein muss. Der Stickstoff wird so aus der Gasphase in eine Abwasserphase überführt und kann dort zu weiteren Schwierigkeiten führen, die aber beherrschbar sind (z.B. durch biologische Abwasserbehandlung).

Die emittierten NOx-Mengen führen nun in der Umgebung der Emissionsquelle zu Immissionen, deren zulässige Konzentrationen folgendermaßen definiert sind:

40 µg/Nm3 im Jahresmittel, höhere vereinzelte Spitzenwerte dürfen 200 µg/Nm3 während

1 Stunde nicht überschreiten.

Gemessen wird in einiger Entfernung von der Emissionsquelle und in der Nähe menschlicher Wohnungen unter Berücksichtigung der herrschenden Windrichtung. Die Messpunkte werden von den Überwachungsbehörden festgelegt. Das Verhältnis zwischen zulässiger Emissions- und Immissionskonzentration beträgt bei NOx also 2.500:1 (= erforderlicher Verdünnungsfaktor).

(1 Nm3, „Normkubikmeter“, ist der Kubikmeter bei 0°C und dem Druck von 1 atm oder 760 Torr)

An den Arbeitsplätzen in der Industrie gilt der sogenannte MAK-Wert („maximale Arbeitsplatzkonzentration“), er beträgt für Stickoxide 0,95 mg/Nm3 (= 950 µg/Nm3 oder 735 µg/kg), früher war er noch erheblich höher eingestuft. Dieser Wert bedeutet, dass die Beschäftigten während acht Stunden und fünfmal in der Woche dieser Konzentration maximal ausgesetzt sein dürfen – wobei keine gesundheitliche Beeinträchtigung zu befürchten wäre.

Verteilte man die 40 h Wochenarbeitszeit mit einer Belastung von 950 µg/Nm3 gleichmäßig auf die Gesamtzeit von 168 h in der Woche, ergäbe sich ein Durchschnittswert von 226 µg/Nm3, unter der Annahme, dass in den 128 Stunden Freizeit gar keine Belastung besteht. Dieser Wert entspricht etwa der zugelassenen kurzfristigen Immission von 200 µg/Nm3.

 

Verhältnisse bei Dieselmotoren

Die Verbrennung des Kraftstoffs in Dieselmotoren muss mit einem deutlichen Luftüberschuss erfolgen (λ ≥ 1,3), andernfalls wäre mit starker Rußbildung zu rechnen. Die Verbrennungstemperaturen im Zylinder sind sehr hoch (>> 1000°C), also erfolgt mit dem überschüssigen Sauerstoff auch eine Oxidation des Luftstickstoffs (s.o.), das gebildete NO wird dann sehr schnell in den Auspuff geleitet und unter 700 °C abgekühlt, so dass das unerwünschte Gas sich nicht weiter zersetzen kann und zu Emissionsproblemen führt. Im heißen Auspuff bei etwa 700°C werden 600-800 Vol.ppm gefunden (TÜV Essen, z.T. auch etwas weniger oder mehr). Das deckt sich gut mit obigen Berechnungen: Wenn bei 1200°C während der Verbrennung ̴ 1.300 ppm NO gebildet werden, so haben sie sich bei 700°C noch nicht bis auf < 100 ppm wieder zersetzt wegen der Geschwindigkeit der Abkühlung.

Bei stationären Großanlagen könnte jetzt wieder die schon erwähnte alkalische Gaswäsche installiert werden, was aber bei beweglichen Fahrzeugen nicht durchführbar ist. Hier bietet sich ein anderes Verfahren an: Das heiße Abgas wird mit einer wässerigen Lösung von Harnstoff behandelt, wobei nur die Stoffe N2, CO2 und H2O entstehen. Die summarische Reaktionsgleichung wäre ganz grob folgende:

CO(NH2)2 + H2O + 3 NO     →     5/2 N2 + CO2 + 3 H2O

Allerdings verläuft die Reaktion über Zwischenstufen, wobei auch NH3 (Ammoniak) gebildet wird; eine katalytische Unterstützung ist erforderlich. Das zeigt, dass die Dosierung der Harnstofflösung sehr genau erfolgen muss. Wird zu wenig eingespritzt, bleibt unbehandeltes NO übrig, bei einer Überdosierung entstehen Zersetzungsprodukte des Harnstoffs, die ebenfalls unerwünscht sind. Die Dosierung hängt weiter auch davon ab, wie hoch die Drehzahl des Motors ist, und wie viel Kraftstoff gerade zugegeben wird – einem Rechner müssen alle Einflussgrößen zugeführt werden, und der sorgt dann automatisch für die richtige Dosierung der 32,5 %-igen Harnstofflösung (als „AdBlue“ im Handel). Gemäß obiger Formel kann mit 1 kg Harnstoff 1,5 kg Stickoxid unschädlich gemacht werden; bezogen auf den Kraftstoffverbrauch, sei je nach Fahrweise mit 2 – 8 % Harnstoffeinsatz zu rechnen.

Weitere veröffentlichte Kennzahlen zum Dieselmotor: Je Liter Kraftstoff werden ca. 14 m3 Luft benötigt (bei λ= 1,4 als Überschussfaktor) und etwa 2,65 kg CO2 erzeugt. Seine Dichte beträgt 0,84 kg/l und der Heizwert 9,7 kWh/l.

Theoretische Verbrennungsrechnung im Dieselmotor:

Man kann folgende vereinfachte Reaktionsgleichung aufstellen, bei der als Kraftstoff Cetan genommen ist, Lambda mit 1,4 gerechnet wird und 800 ppm NO im Abgas entstehen sollen:

C16H34 + 24,5 O2 + 93,75 N2 + λ-Luft      16 CO2 + 17 H2O + 93,75 N2 + 0,1 NO + λ-Luft

226          784          2625          1363           704           306         2625            4             1359

Die Zahlen sind die Molekulargewichte in g; addiert ergibt sich, dass 226 g Kraftstoff 4.772 g Luft (=3.690 l) erfordern. Im Abgas werden 4 g NO aus der λ-Luft gebildet, es hat folgende Zusammensetzung :

Gewichts-%              Volumen-%

Stickstoff            73,4                           75,3

Sauerstoff            6,3                             5,6

CO2                      14,1                             9,2

Wasserdampf         6,1                          9,8

Stickoxid NO        0,080                         0,077 (unbehandelt, unverdünnt)

 

Die Abgasmenge beträgt 17,2 m3/kg oder 14,5 m3/l Kraftstoff. Als Luftbedarf ergibt sich 16,3 Nm3/kg oder 13,7 Nm3/l. Vielleicht wäre noch folgende Zahl interessant: Ein Fahrzeug, das einen Verbrauch von 5 l/100 km hat und mit einer Geschwindigkeit von 50 km/h fährt, würde minütlich 833 m zurücklegen und dabei 42 ml (=35 g) Kraftstoff verbrauchen und rund 0,6 m3 Abgas produzieren.

Damit ein konzentriertes Abgas mit ca. 800 ppmgew NO in den Bereich dessen gelangt, das in der Industrie genehmigt ist (= 77 ppmgew), müsste es zunächst zehnfach verdünnt werden, was bei einem fahrenden Automobil, das minütlich beispielsweise 0,6 m3 ausstößt, leicht geschieht, eine weitere Verdünnung um den Faktor 105 wäre erforderlich, um den MAK-Wert zu erreichen. 0,6x10x105 = 630 m3 (= z.B. 2,5 m x 2,5 m x 100 m), ein Volumen, das ein Fahrzeug in 14 Sekunden durchfährt, so dass selbst diese Verdünnung kein Problem darstellt. Schwieriger wird es, den festgesetzten Immissionswert von 40 µg/Nm3 zu erreichen, der eine weitere Verdünnung um das 24-fache erforderte.

Das unverdünnte Abgas ist mit Sicherheit gesundheitsschädlich, sogar giftig beim direkten Einatmen (nach Abkühlung !), allein schon wegen seines hohen CO2-Gehaltes, eine Verdünnung ist also erforderlich. Der Faktor von 1 : 1.000 ist nicht schwer zu erreichen, wie dargestellt, um an den MAK-Wert des NOx zu gelangen. Trotzdem ist die Maßnahme, bei Fahrzeugstillstand den Motor abzustellen, wenn man sich im dichten Stadtverkehr befindet, richtig. Daraus resultiert, dass auch ein häufiges Wiederstarten erforderlich wird, was die Starterbatterie stark belastet. Die Batteriehersteller haben dieser Anforderung allerdings bereits Rechnung getragen.

Aus diesen Betrachtungen ergibt sich, dass bei dichtem Verkehr und Windstille sich NOx-Konzentrationen über dem Immissionsgrenzwert ergeben können. Das kann aber nicht durch eine wie auch immer geartete „Software“ verhindert werden, vielleicht nur etwas gemindert werden – die Naturgesetze der Verbrennung lassen sich nicht ändern. Die Anwendung der Harnstoffeinspritzung ist für so tiefe Grenzwerte wie 40 µg/Nm3 eine reale Möglichkeit, also das Anbringen einer „Hardware“, um bei der gängigen Wortwahl zu bleiben. Ob der Wert von 40 µg/Nm3 allerdings wirklich erforderlich ist, sollte noch einmal gründlich überprüft werden. Der gültige und bereits reduzierte MAK-Wert ist mit Sicherheit nach langen Untersuchungen festgelegt worden, eine geforderte weitere Reduzierung um das 24-fache für den Straßenverkehr erscheint um ein Vielfaches überzogen ! Der zeitweise bereits zulässige Immissionswert von 200 µg/Nm3 (21 % des MAK-Wertes) wird von Dieselfahrzeugen so gut wie nie in der Realität erreicht und sollte als Grenzwert eingeführt werden, weil er durchaus noch als gesundheitlich ungefährlich betrachtet werden muss. Damit erübrigte sich die große Aufregung über die „schrecklichen“ Dieselemissionen, und der „Skandal“ bezöge sich nur noch auf die betrügerischen Versprechungen einiger PKW-Hersteller.

Es sei noch auf eine relative Zahl hingewiesen, die bei NOx und auch bei CO2 gerne angeführt wird: Die Emissionsmenge je gefahrenen Kilometer. Das ist überhaupt keine technische Zahl, und sie sollte vollkommen unterbleiben. Die Emissionen hängen allein vom Kraftstoffverbrauch (in kg oder l) und vielleicht auch der Fahrweise ab – ein mit laufendem Motor stehendes Fahrzeug emittiert pro Kilometer unendlich viel ! Wer viele Liter Kraftstoff verbraucht, emittiert auch viele Mikrogramm NOx.

Bei Otto-Motoren wird ohne Luftüberschuss gearbeitet (λ = 1), dabei kann sich so gut wie kein NO bilden, wohl bleibt aber immer etwas unverbranntes CO übrig, das dann mittels zugeführter Luft an dem bekannten nachgeschalteten Katalysator zu CO2 umgesetzt und unschädlich gemacht wird.

Über den Autor:

„Dr. Reinhard Marx studierte Metallhüttenkunde in Aachen und war während seiner beruflichen Laufbahn in verschiedenen Metallhütten für Blei und Zink (Stolberg, Málaga, Duisburg, Harlingerode) tätig. Er spezialisierte sich später mehr auf die Weiterverarbeitung dieser Metalle, besonders zu Oxiden, wobei er sich als Technischer Leiter und Prokurist der Heubach GmbH  in Langelsheim auch mit Farb- und Korrosionsschutzpigmenten befasste.“

 




Elektromobilität in Deutschland – ein Alternativvorschlag für den Stadtverkehr

Die Hintergründe für eine solche Politik sind zweifach: Einerseits soll die Luftqualität durch Fortfall schädlicher Abgase verbessert werden – besonders in den Zentren der Großstädte – , andererseits könnte der CO2-Ausstoß vermindert werden, weil der erforderliche elektrische Strom aus Wind- und Sonnenenergie hergestellt würde, und weil damit das durchschnittliche Erdklima vor weiterer Erwärmung bewahrt würde, wie allgemein angenommen wird.

Es muss sehr bezweifelt werden, ob die beiden genannten Gründe stichhaltig sind und diese vorgetragene Politik überhaupt möglich und sinnvoll ist – darüber soll hier aber nicht diskutiert werden.

Eines ist jedoch wahr und kann verbessert werden: Die Luftqualität in den Innenstädten, die in Deutschland zwar auch in einigen Großstädten gemäß den festgesetzten Grenzwerten für Schadstoffe verbesserungswürdig ist, die aber in vielen Megastädten anderer Länder unerträglich geworden ist.

Solange noch Zweitakt-Motore für Kleinfahrzeuge zugelassen sind, würde deren Ersatz durch Viertakt-Motore, besonders auf Erdgasbasis, schnell eine Besserung bringen – Beispiele dafür existieren bereits in anderen Ländern.

Weiterhin könnte der urbane Personentransport auf elektrische Trolleybusse (O-Busse) umgestellt werden, wenn nicht schon elektrische Straßenbahnen oder U-Bahnen vorhanden sind; eine Zwischenlösung wäre aber auch die Einführung von Bussen mit Flüssiggasmotoren dort, wo noch mit Diesel-motoren gearbeitet wird.

Auf diese Weise könnten die ganz kleinen und die ganz großen Abgaserzeuger verbessert oder gar eliminiert werden.

Nun seien die mittelgroßen Abgaserzeuger betrachtet, die normalen PKW und Lieferfahrzeuge. Von diesen beiden Typen sollen jetzt nur die erörtert werden, die allein in Stadtgebieten benutzt werden, das wären Lieferwagen und Zweit-PKW, mit denen nicht über Land gefahren wird; diese könnten mit Elektroantrieb ausgerüstet werden.

Für den angegebenen Zweck braucht der elektrisch angetriebene Wagen lediglich eine Geschwindigkeit von maximal 70 km/h zu erreichen und sein Aktionsradius einer Weite von 100 km zu entsprechen. Das bedeutet, dass die Batterie um ein Vielfaches kleiner sein könnte als bei den bisher von der Industrie angebotenen Fahrzeugtypen. Dieses würde weiterhin bedeuten, dass nicht mehr die teuren Lithium-Ionen Batterien verwendet werden müssten, sondern dass die nur wegen ihres Gewichtes bisher nicht eingesetzten Blei-Batterien „erträglich“ geworden wären.

Sie wiegen zwar je gespeicherter Kilowattstunde etwa viermal mehr (33 Wh/kg gegenüber 130 Wh/kg), man brauchte aber für den vorgesehenen Verwendungszweck auch viermal weniger Energie zu speichern – das Gewicht würde sich also kaum ändern. Dafür sind Bleibatterien aber wesentlich billiger und technisch ausgesprochen sicher; ihre Zyklenzahl ist hoch (2.000 und mehr) und ihre Wiederaufarbeitung einfach und bestens erprobt und in Anwendung.

Sie könnten jeweils des Nachts aufgeladen werden und dabei den häufig billigeren Nachtstrom ausnutzen; die Belastung des Stromnetzes an der Ladestelle wäre gering.

Langjährige Erfahrung mit Fahrzeugen, die mit einer Bleibatterie ausgerüstet sind, liegen vor und haben sich als wirtschaftlich erwiesen (z.B. Gabelstapler). Die Batterieindustrie hätte keine Probleme, Traktionsbatterien für den geschilderten Einsatzfall herzustellen. Im Folgenden sind die Vorteile nochmals übersichtlich zusammengestellt:

 

  • Bleibatterien sind billiger als solche auf Lithiumbasis,
  • Bleibatterien sind kurzzeitig stark überlastbar und in einem weiten Temperaturbereich (-35°C bis +60°C) arbeitsfähig,
  • Die Lebensdauer, bestimmt durch die Anzahl der Ladezyklen, ist hoch – mit fünf Jahren kann erfahrungsgemäß gerechnet werden,
  • Eine verbrauchte Batterie hat einen hohen Materialwert, sie wird problemlos in einer Sekundärbleihütte wiederverwertet – es handelt sich auch nur um ein einziges Metall, das zurückgewonnen werden muss,
  • Die sogenannte Recyclingrate ist bei Blei die höchste aller Metalle, nichts geht verloren oder belastet die Umwelt, solches ist bei Lithiumbatterien in keiner Weise entwickelt,
  • Blei ist kein seltenes Element, es gibt keine Versorgungsprobleme, was für Lithiumbatterien, die außer Lithium auch Kobalt benötigen, nicht gesagt werden kann,
  • Das Aufladen eines Bleiakkumulators im vorgeschlagenen Anwendungsfall würde nachts erfolgen und keine große Leistung erfordern, vielleicht 1 kW, was überall zur Verfügung steht – besondere Kabel und Stecker für die Ladestation sind nicht erforderlich.

Derart ausgerüstete Fahrzeuge sollten zur Erhöhung des Komforts und der Schonung der gespeicherten Antriebsenergie dann noch einen „Hybrid“-Zusatz erhalten, einen kleinen Generator (z.B. 2 kW), der mit einem wassergekühlten Benzin- oder Gasmotor betrieben wird. Dessen Strom würde für die Beleuchtung, Heckscheibenheizung, Elektronikversorgung und ähnliche Nebenverbraucher eingesetzt, nicht aber, um die Fahrleistung zu erhöhen; das Kühlwasser wäre für die im Winter erforderliche Heizung gut. Diese Einrichtung wäre zwar durchaus kostenerhöhend, ist aber für die heutigen Bedürfnisse nicht verzichtbar.

Wenn solche Fahrzeuge gebaut würden, wäre ihre Anzahl zunächst nicht sehr groß, und der erforderliche elektrische Strom sicherlich lieferbar, was bei Umstellung auf totale Elektromobilität, wie jetzt von der Politik gefordert, in keiner Weise möglich wäre – es sei denn, es würden viele neue thermische Kraftwerke errichtet (auf Basis von Kohle-, Erdöl-, Erdgas- oder Kerntechnik). Es ist nicht vorstellbar, dass Wind- und Sonnenenergie derart viel mehr beitragen könnten, wo sie doch für den jetzigen Elektrizitätsbedarf erst rund 25% zu liefern in der Lage sind und die Primärenergie für den gesamten Strombedarf weniger ausmacht als der zu ersetzende Brennstoffbedarf für das bestehende Transportwesen.

Der Effekt der vorgeschlagenen Elektrofahrzeuge auf die Luftqualität in den Innenstädten dürfte jedoch durchaus bemerkbar sein. Es sei auch erwähnt, dass die Lärmbelastung auf diese Weise deutlich reduziert würde.

Was dieses vorgeschlagene Konzept kosten würde, ist noch nicht berechnet; wenn es für interessant erachtet würde und die bis heute vorgeschlagene Politik in diesem Sinne geändert würde, müsste es in Zusammenarbeit der Politiker mit den Automobil- und Batterieherstellern im Detail erörtert werden, bevor etwas in die Tat umgesetzt wird.

Es ist sicherlich besser, gewünschte Umweltveränderungen und –verbesserungen in kleinen Schritten anzugehen und durchzusetzen, als ein neues Gesamtkonzept anzusteuern, das allein wegen seiner Größe kaum in der Lage sein dürfte, erfolgreich zu werden, schon gar nicht in kurzer Zeit.

Über den Autor:

„Dr. Reinhard Marx studierte Metallhüttenkunde in Aachen und war während seiner beruflichen Laufbahn in verschiedenen Metallhütten für Blei und Zink (Stolberg, Málaga, Duisburg, Harlingerode) tätig. Er spezialisierte sich später mehr auf die Weiterverarbeitung dieser Metalle, besonders zu Oxiden, wobei er sich als Technischer Leiter und Prokurist der Heubach GmbH  in Langelsheim auch mit Farb- und Korrosionsschutzpigmenten befasste.“

 




Facetten der Mathematik

Die Ägypter besaßen eine hochentwickelte Mathematik und Geometrie, sonst hätten sie nie und nimmer die Pyramiden berechnen und bauen können. Mit dem „Papyrus Rhind“ (aufbewahrt im Britischen Museum) haben sie uns gewissermaßen ein Buch zur Mathematik hinterlassen, in dem sogar x-Gleichungen vermerkt sind. Die wichtigste Schule der Mathematik befand sich jedoch um 350 v. Chr. in Alexandria. Das Genie Euklid, von dessen Leben wir fast nichts wissen, war der Begründer einer Schule, welche das berühmte Lehrbuch „Die Elemente“ herausgebracht hat.

Klassischerweise unterscheidet man in der Mathematik vier große Disziplinen: Geometrie, Algebra, Analysis und Stochastik. (Heute würden wir noch die Logik und die Topologie benennen.) Die Geometrie ist die Lehre des umgebenden Raumes mit Punkten, Geraden, Vierecken und Kreisen etc. Sie hatte ihre Blütezeit in der griechischen Antike. Bei der Algebra studiert man die Zahlen und ihre Eigenschaften, z. B. die Primzahlen. Die Analysis ist die Differential- und Integralrechnung und die Stochastik die Lehre vom Zufall.

Null – Eins – Unendlich

Die Erfindung der Null („0“) war eine Großtat, ähnlich wie die Erfindung des Rads. Vor gut tausend Jahren tauchte sie erstmals auf einem Tempel in Indien auf; um 1.200 n.Chr. war sie auch in Westeuropa angekommen. Manchmal entsteht ein Streit um das Vorzeichen der 0. Nun, der ist überflüssig, denn die 0 kann man sowohl mit einem plus-Zeichen, als auch mit einem minus-Zeichen versehen. Also: +0 oder -0 ist egal.— Anders verhält es sich bei der Frage, ob die 0 eine gerade Zahl (wie beispielsweise 4) oder eine ungerade Zahl (wie 5) ist. Nun, die Mathematiker sehen die 0 als eine gerade Zahl an, denn sie lässt sich zwei Mal auf 0 aufteilen: 0+0 ist wiederum 0.

Die natürliche Zahl 1 kennt jeder. Sie verleitet uns dazu immer weiter zu zählen, also: 1, 2, 3… bis in das Unendliche, welches die Mathematiker sich als (unbeweisbares) Axiom vorstellen. Mit dem Begriff „unendlich“ (geschrieben als liegende acht) lässt sich trefflich spielen, z. B. beim Bruchrechnen. So geht die Summe der unendlichen Bruchreihe 1/2 + 1/3 + 1/4 + 1/5 … = ∞

Sie geht also über alle Grenzen hinweg, bis ins Unendliche.
Demgegenüber ist die Summe der nur leicht veränderten Bruchreihe

1/2 + 1/4 + 1/8 + 1/16….= 1.

Die erste Reihe divergiert ins Unendliche,  die zweite konvergiert zu 1.

Ein Teilbereich der natürlichen Zahlen sind die Primzahlen; sie sind größer als 1 und nur durch 1 und sich selbst teilbar. Die ersten Primzahlen sind: 2, 3, 5, 7, 11, 13, 17, 19… Die Primzahlen haben eine große Bedeutung in der Verschlüsselungstechnik bei Großrechnern. Fakt ist, dass es unendlich viele Primzahlen gibt, aber dass (leider) keine Formel existiert, sie zu berechnen.

Mit dem Begriff ∞ man sich verrückte Sachen ausdenken. Eine Anwendung ist das sog.“Hilbert Hotel“, das im vorigen Jahrhundert von dem deutschen Mathematiker David Hilbert vorgestellt wurde. Er dachte sich ein Hotel aus mit unendlich vielen Zimmern, welche die Nummern 1, 2, 3… bis ∞ trugen. Alle Zimmer dieses Hotels sind belegt, aber nun taucht ein weiterer Gast auf, der Einlass begehrt. Für Hilbert ist dies kein Problem. Er bittet den (bisherigen) Gast in Zimmer 1 ins Zimmer 2 zu wechseln, den Gast in Zimmer 2 ins Zimmer 3 usf. bis ins Unendliche. Dadurch haben alle bisherigen Gäste wieder ein Zimmer – und der neue Gast kann in Zimmer 1 einziehen. Mathematisch gesprochen funktioniert dies, weil ∞ + 1 = ∞ ist.

 

Berühmte Mathematiker

Geniale Mathematiker gab es in den vergangenen zweieinhalbtausend Jahren in großer Zahl. Unter den noch Lebenden ist der Brite Andrew Wiles zu nennen, dem es gelang, eine vierhundert Jahre alte Behauptung des Franzosen Pierre de Fermat zu beweisen. Der sog. Fermat´sche Satz lautet vereinfacht: „Es ist unmöglich, einen Würfel exakt in zwei gleiche, kleinere Würfel zu zerlegen“. Klingt simpel, aber Wiles schuftete – im geheimen – volle sieben Jahre an der Lösung, die mehr als hundert Schreibmaschinenseiten umfasste. Danach genoss er seinen Ruhm in vollen Zügen.

Ein gegensätzlicher Charaktertyp war der (ebenfalls noch lebende) Russe Grigori Perelmann. Er bewies 2003 die sog. Poincaré-Vermutung. Sie besagt (vereinfacht), dass der vierdimensionale Raum in etwa so ähnlich ist, wie der uns zugängliche dreidimensionale. Noch mehr vereinfacht behauptet der Satz, dass jedes geometrische Objekt, welches kein Loch hat, in eine Kugel überführt werden kann. Trotz (oder wegen?) des Presserummels lehnte Perelmann nach der erfolgreichen Lösung jede Ehrung ab – auch den Millionenpreis einer amerikanischen Universität. Er kündigte sogar seine Stellung im Moskauer Forschungsinstitut und ist seitdem untergetaucht.

Keiner der beiden hat sich für den Nobelpreis qualifiziert, denn diese Auszeichnung gibt es nur in den Sparten Physik, Chemie, Medizin, Literatur und Frieden. Warum der schwerreiche Stifter AlfredNobel die Mathematik ausgelassen hat, dafür gibt es eine Legende: angeblich hatte der damals bekannteste schwedische Mathematiker, Gösta Mittag-Leffler (1846 – 1927), ein Verhältnis mit Nobels Frau, weswegen Nobel in seinem Testament, quasi aus Rache, keinen Preis für Mathematiker auslobte. Gegen diese Legende spricht allerdings die Tatsache, dass Alfred Nobel nie verheiratet war. Aber vielleicht hatte er eine attraktive Geliebte?!

Um diese offensichtliche Vakanz zu füllen, gibt es seit einiger Zeit die sog. Fields-Medaille. Sie wird alle vier Jahre an zwei bis max. vier Mathematiker – die jünger als 40 Jahre sein müssen! – für herausragende Entdeckungen in ihrem Gebiet vergeben. Damit ist ein bescheidenes Preisgeld von 15.000 kanadischen Dollars verbunden.

Geniale, aber nicht mehr lebende, Mathematiker des vorigen Jahrhunderts waren u. a. David Hilbert (1867 – 1943) und Kurt Gödel (1906 – 1978). Hilbert listete im Jahr 1900 in einer berühmten Rede 23 bedeutende, aber ungelöste Probleme der Mathematik auf. Von diesen ist in der Zwischenzeit ein Gutteil gelöst, entsprechend der alten Weisheit: „Durch Intuition entdeckt man, durch Wissenschaft beweist man“. Unter Hilberts Problemen war auch der Gödelsche Unvollständigkeitssatz, eine der wichtigsten Behauptungen der modernen Logik. Er besagt, dass man nicht alle Aussagen der Mathematik formal beweisen kann, womit er diese Wissenschaft in beträchtliche Nöte brachte.

Erstaunen mag, dass unter diesen Geistesheroen Albert Einstein (1879 – 1955), der Entdecker zweier Relativitätstheorien fehlt. Aber Einstein war in erster Linie ein genialer (theoretischer) Physiker. Auf dem Gebiet der Mathematik war er eher schwach – nach eigener Einschätzung!

Gehen wir weiter in die Vergangenheit zurück, dann treffen wir auf hervorragende Mathematiker wie Leonhard Euler (1707 – 1783), Carl Friedrich Gauß (1777 – 1855), Gottfried Wilhelm Leibniz (1646 – 1716) und Isaac Newton(1642 – 1726).

In der griechisch-römischen Antike ragen heraus: Thales von Milet, der um das Jahr 600 v. Chr. gelebt hat, Pythagoras von Samos (um 550 v. Chr.) und Euklid von Alexandria (um 350 v. Chr.). Der Allergrößte unter diesen antiken Genies war wohl Archimedes von Syrakus (um 250 v. Chr.). Er berechnete als Erster die Kreiszahl π und leiste auch als Physiker und Ingenieur Bedeutendes.
Pythagoras hat den nach ihm benannten Satz erstmals bewiesen; benutzt wurde er bereits von den Babyloniern. Seitdem gibt es für ihn mehr als 300 Beweise.

Archimedes

Schöne Formeln

In der Mathematik gibt es Tausende, ja Millionen von Formeln und Gleichungen. Kein Wunder, dass manche besonders „schön“ anmuten. Nach allgemeiner Ansicht gebührt die Krone der sog. Eulerschen Formel:


In dieser einfachen Beziehung kommen fünf wichtige Zahlen der Mathematik vor,
nämlich 0, 1, die Kreiszahl π, die Eulersche Zahl e und die imaginäre Einheit i.
Eine sonderliche Bedeutung für die Anwendung hat diese Formel nicht, sie ist nur einfach „schön“.

Besser für die Anwendung geeignet ist eine andere schöne Formel, die ebenfalls von Euler ist und aus dem Gebiet der Geometrie stammt. Sie lautet:

e – k + f = 2

Es ist die Eulersche Polyederformel, wobei Polyeder Vielflächner sind wie Würfel, Pyramiden – oder Fußbälle. Nicht jedoch, wohlgemerkt, die Kugel. Dabei bedeutet e die Anzahl der Ecken, k die Anzahl der Kanten und f die Anzahl der Flächen. Nehmen wir den Würfel als Beispiel. Er hat 8 Ecken (e), 12 Kanten (k), und 6 Flächen (f). Eingesetzt in die Polyederformel ergibt sich: 8-12+6=2.

Ein anderer, allen bekannter Polyeder ist der klassische Fußball. Er besteht in der Regel aus 12 (schwarzen) Fünfecken und 20 (weissen) Sechsecken, also insgesamt 32 Flächen (f). Durch Nachzählen kommt man auf 60 Ecken. Die Zahl der Kanten kann man aus der Formel errechnen:

60 + 32 – 2 = 90 Kanten.

Nach dieser vorbereitenden Tätigkeit ist Bayern München bereit zum Angriff:

Toooor!!
Übernommen vom Rentnerblog hier