1

Der VDI gratuliert dem PIK zum 25 jährigen!

Das Potsdamer Institut für Klimaforschung besteht seit 25 Jahren. Das war der Anlass, um am Donnerstag, dem 11. Oktober 2017, ein Jubiläumsfest zu feiern. Durch seine Aktivitäten ist dieses Institut weit über die Grenzen Brandenburgs bekannt geworden. Als Arbeits­kreis der Fachgruppe Umwelt des Bezirks Frankfurt-Darmstadt im Verband Deutscher Ingenieure senden wir ebenfalls respektvolle Gratulationsgrüße. Mit großer Aufmerksamkeit lesen wir die zahlreichen publizierten Berichte über Klimawandel und deren mögliche Ursachen. Wenn Ingenieure Wolkenkratzer planen, untersuchen sie zu allererst den Untergrund und seine Tragfähigkeit. Doch wie kann man über das Klima und die Folgen des Klimas forschen, wenn nicht zuerst die Frage geklärt wird, welchen Einfluss die „Treibhausgasemissionen“ auf die weltweite Wettervielfalt und deren Temperaturverläufe haben.

Glückwünsche beinhalten auch Wünsche für die Zukunft für eine fruchtbare kontroverse wissenschaftliche Diskussion. Als VDI-Arbeitsgruppe wünschen wir uns Denkgremien, die frei von polit-ideologischen Vorgaben sind, um die Ursachen des Wetterwech­sels und des „Klimawandels“ auf unserer Erdoberfläche objektiv zu ergründen. Das beginnt schon mit der Wortwahl zur Beschreibung von Fakten; z. B. einen Klimawandel kann man nicht ver­hindern, denn den gab es in allen geologischen Phasen und den wird es auch in Zukunft geben, als Folge des Wetterwandels. Ob Kohlenstoffdioxid dabei eine Rolle spielt, das muss erst wissenschaftlich belegt und nicht nur behauptet werden. Eine Kohlenstoffdioxidpräsenz in der erdnahen Atmosphäre und in den oberen Ozeanschichten ist die Voraussetzung für das „Leben“ auf unserer Erde schlechthin. Zusammen mit Wasser und der Sonnenergie bildet die Fotosynthese die Basis für das Leben aller biologischen Systeme. Ein weiterer unwissenschaftlicher Begriff ist der Ausdruck „Erneuerbare Energien“. Aufgrund der „Thermodynamischen Hauptsätze“ gibt es keine „Erneuerbare Energie“, deshalb wird es auch nicht möglich sein, die fossilen Energieträger (Kohle, Erdöl, Erdgas), in denen die Sonnenenergie als chemische Energie gespeichert ist, durch „Erneuerbare Energien“ zu ersetzen. Der Begriff „Erneuerbare Energie“ ist wissen­schaftlich irreführend, denn Strom durch Sonne und Wind kann man nur erzeugen, wenn der Wind weht und die Sonne scheint. Auch der Ausdruck „Klimaerwärmung“ ist widersprüchlich, denn das „Klima ist ein statistisch errechnetes Konstrukt, eine nackte Zahl wie die „Globaltemperatur“. Weitere Einzelheiten inner­halb eines Leserbriefes anzusprechen, würde zu weit führen. Verwiesen sei auf die VDI-Schrift, „Atmosphäre, Wasser, Sonne, Kohlenstoffdioxid, Wetter, Klima, Leben – einige Grund­begriffe“. Darin werden die Zusammenhänge zwischen Wetter, Klima, Atmosphäre und Kohlenstoff­dioxid ausführlich erklärt.

Prof. Dr.-Ing. Vollrath Hopp, Chemiker; Dr. rer. nat. Gerhard Stehlik, Physikochemiker; Dr. phil. Wolfgang Thüne, Meteorologe (v.i.S.d.P.); Dr.-Ing. Edmund Wagner, Physikochemiker




In eigener Sache: Kommentaranmeldung vereinfacht!

Wir haben uns daher entschlossen – zumindest vorüber gehend- auf die einfachste Form der Anmeldung zurückzugehen. – Wie einige Kommentatoren schon bemerkt haben, ist die Anmeldung jetzt sehr simpel.

Wir hoffen, dass der restliche Spamschutz den das plug-in stop spammers bietet, uns vor möglichen Attacken schützt und bitten unsere Leser nun die Kommentarfunktion ausgiebig zu testen.

EIKE Redaktion




Hybride und andere Stromtrassen

Diese Lücke kann nicht allein durch regenerative Energien vor Ort geschlossen werden. Große Windparks entstehen vor allem in Nord- und Ostdeutschland und auf See. Der dort erzeugte Strom muss zum Verbraucher transportiert werden, wobei das bestehende Netz bereits jetzt an seine Grenzen stößt. Insgesamt müssen in den nächsten Jahren allein 7.500 Kilometer im sogenannten Übertragungsnetz optimiert oder neu gebaut werden.

Während früher der Strom vom Kraftwerk über die Übertragungsleitungen und die Verteilernetze zum Verbraucher floss, müssen die Netze heute den Stromtransport auch „im Gegenverkehr“ bewältigen, da der Strom nicht nur „von oben nach unten“ sondern auch ( u. a. wegen der Solarkollektoren) „von unten nach oben“ fließt. Um also Erzeugung und Verbrauch jederzeit aufeinander abzustimmen, muss der Stromtransport „intelligenter“ bzw. „smarter“ werden.

In diesem Blog werden eine Reihe bekannter und weniger bekannter Probleme beim Netzausbau zusammengestellt.

Spannungsebenen

Wechselstrom wird auf unterschiedlichen Spannungsebenen transportiert:

—Zum Bereich der Niederspannung gehören die etwa 230 Volt, die im Haushalt an der Steckdose anliegen. Auf dieser Spannungsebene wird die Stromenergie über kurze Strecken verteilt.

—Die Mittelspannung beginnt bei ca. 1.000 Volt. Sie dient der Verteilung über Strecken von einigen Kilometern bis um die 100 km, vor allem in ländlichen Gebieten.

—Bei Spannungen größer als 60.000 (=60 Kilovolt) spricht man von Hochspannung. Das üblicherweise mit 110 Kilovolt (kV) betriebene Hochspannungsnetz sorgt für die Grobverteilung von Energie in verschiedene Regionen und Ballungszentren sowie Industriestandorte.

—Das Höchstspannungsnetz wird meist mit 380 kV, zum Teil auch mit 220 kV betrieben. Höhere Spannungen sind ebenfalls möglich. Auf dieser Spannungsebene wird die Energie über weite Strecken großräumig übertragen. Daher wird es auch Übertragungsnetz genannt. Große Energieerzeuger (zum Beispiel Kraftwerke und Windparks) sind so mit den Lastzentren verbunden. Über das Höchstspannungsnetz sind auch die Netze angrenzender Länder mit dem deutschen Stromnetz verbunden.

Gleichstrom wird im Übertragungsnetz nur in sehr hohen Spannungsebenen und über große Entfernungen transportiert. Man spricht dabei von Hochspannungs-Gleichstrom-Übertragung (HGÜ).


Vernetzte Landschaft

Freileitungen

Weltweit werden, seit den 1920er- Jahren, Freileitungen zur Übertragung von Strom in der Höchstspannungsebene eingesetzt. Sie können hohe Leistungen übertragen, da die Wärme, welche durch den Stromfluss entsteht, leicht an die umgebende Luft abgegeben werden kann. Das kann man sich zunutze machen, indem man im Winter, wenn der Stromverbrauch ohnehin erhöht ist, die Freileitungen auch höher belastet.

Der Strom kann entweder als Wechselstrom oder als Gleichstrom übertragen werden. Bei der Übertragung von Wechselstrom teilt sich die elektrische Leistung auf in Wirkleistung und Blindleistung. Nur die Wirkleistung kann von angeschlossenen Verbrauchern genutzt werden -zum Beispiel um Haushaltsgeräte zu betreiben. Die nicht nutzbare Blindleistung muss vor allem auf längeren Strecken kompensiert werden. Die Wechselstromübertragung ist in Deutschland sehr verbreitet, da sich die Spannung sehr effizient verändern lässt.

Gleichstrom wird im Übertragungsnetz nur in sehr hohen Spannungsebenen und über große Entfernungen transportiert. (Siehe oben). Im Gegensatz zum Wechselstrom wird bei der Gleichstrom-Übertragung keine Blindleistung ins Netz gespeist. Bisher wird in Deutschland Gleichstrom besonders bei der Seekabel-Anbindung an andere Länder eingesetzt oder zur Anbindung von Offshore-Windkraftanlagen, also bei der Verwendung von Stromkabeln statt Freileitungen. Künftig soll aber auch im Landesinnern Strom in hohen Spannungsebenen auf längeren Strecken vermehrt als Gleichstrom übertragen werden – allerdings vorrangig als Erdkabel. (Siehe unten).

Wird elektrische Energie über eine Freileitung übertragen, so treten in der Umgebung elektrische und magnetische Felder auf. (Wie übrigens auch bei Haartrocknern, Mikrowellen und Staubsaugern.) Das elektrische Feld ist abhängig von der Spannung und wird in Volt pro Meter angegeben. Das magnetische Feld hängt von der Stromstärke ab; diese magnetische Feldstärke wird in Tesla bzw. Mikrotesla angegeben. Beide Felder nehmen mit zunehmenden Abstand ab. Elektrische Felder lassen sich leicht abschirmen und dringen kaum in den menschlichen Körper ein. Magnetische Felder können nur mit großem Aufwand abgeschirmt werden. Der Bodenabstand der Freileitungen ist so bemessen, dass daraus keinerlei Strahlenschäden entstehen.

Die genauen Kosten für den Ausbau des deutschen Übertragungsnetzes sind derzeit nur schwer zu kalkulieren. Aus den Angaben der Netzbetreiber ergeben sich für die bestätigten Netzentwicklungspläne 2024 Summen von etwa 18 Milliarden Euro für den Netzausbau an Land und etwa 15 Milliarden Euro für denOffshore-Netzausbau. Darin enthalten sind jedoch noch nicht die Mehrkosten für die Erdverkabelung an Land.

Hybrid-Leitungen

Hybridleitungen übertragen sowohl Gleich- als auch Wechselstrom auf einemMastsystem. Die Kombination von Gleich- und Wechselstrom auf Höchstspannungsebene ist in Deutschland noch nicht zum Einsatz gekommen, wird aber weltweit (USA, Kanada) bereits genutzt. Die Bundesnetzagentur hat festgelegt, dass dies beim sog. „Ultranet“, dem Vorhaben 2 im Bundesbedarfsplan, erstmalig der Fall sein soll. Dieser Netzteil wird federführend von Amprion gebaut und transportiert den Strom von Nordrhein-Westfalen nach Philippsburg in Baden-Württemberg. Dafür werden bestehende Wechselstromleitungen umgerüstet. Unter anderem müssen neue Isolatoren für die Leiterseile eingebaut werden.

Der Grund für den Bau von Hybridleitungen ist, dass sie den Strom besondersflexibel übertragen. Gleichstrom eignet sich insbesondere zur Übertragung auf langen Strecken, da die Verluste geringer sind und damit die im Norden erzeugte Energie in den Süden transportiert werden kann. Wechselstrom eignet sich besonders für kürzere Strecken. Indem das bereits bestehende Netz genutzt wird, kann häufig auf den Neubau von Leitungen verzichtet werden. Die eingesetzte Technik ist in Deutschland auf Teststrecken seit Jahren erforscht.

Da im Ultranet bereits eine erhebliche Anzahl von Freileitungen existieren, die zudem großenteils genehmigt sind, hat der Gesetzgeber dort auf dieErdverkabelung verzichtet. Damit reduzieren sich auch die Gesamtkosten für diesen Leitungsteil ganz erheblich.

Erdkabel

In den Anfangsjahren der Energiewende (2011-12) bestand die Absicht, den im Norden Deutschlands erzeugten Strom über fünf Gleichstrom-Freileitungen in den Süden zu transportieren. Wegen der Widerstände der Bevölkerung („Monstertrassen“) wurde dieser Plan weitgehend aufgegeben. Derzeit besteht für die Vorhaben 1, 3, 4 und 5 (also ohne das Vorhaben 2=Ultranet) der sogenannte „Erdkabel-Vorrang“. Das bedeutet, dass diese vier Vorhaben „vorrangig“ als Erdkabel auszuführen sind. Nur in begründeten Ausnahmefällen sind dafür (auf einzelnen Teilstrecken) Freileitungen vorzusehen. Deren Masthöhen – vermutlich um die 70 Meter –  sind zur Zeit noch nicht exakt festgelegt.

Der Einsatz von Erdkabeln in überregionalen Übertragungsnetzen, die große Strommengen über weite Distanzen transportieren, bringt neue technische Herausforderungen. So besteht beispielsweise ein Problem bei der Wärmeleitung. Da das Kabel von Erde umgeben ist, wird die Wärme, die durch die elektrischen Verluste entsteht, nur teilweise abgeführt. das begrenzt den möglichen Stromfluss und damit die über das Kabel übertragbare Leistung.

Die unterirdische Trasse führt auch zu einem großen Aufwand bei notwendigen Reparaturen, denn dabei müssen erst Bagger die Kabel freilegen. Dies wirkt sich  auf die Reparaturdauer und damit auf die Versorgungssicherheit aus. Weiterhin fehlen ausreichende Untersuchungen über die Erwärmung des Bodens und deren Folgen auf die Umwelt.

Im Jahr 2014/15 wurde ein Pilotprojekt zur Erdverkabelung in der Gemeinde Raesfeld im Westmünsterland durchgeführt. Auf 3,5 Kilometer Länge testete der Übertragungsnetzbetreiber Amprion erstmals den Bau einer 380 kV-Hochspannungsleitung in Wechselstromtechnik. Das Unternehmen hat dafür etwa 40 Millionen Euro aufgewendet – sechs Mal soviel, wie eine vergleichbare Freileitung gekostet hätte.

Erdkabel benötigen beim Bau viel Raum. Allein die typische Kabeltrommel für 1000 Meter Kabel hat einen Durchmesser von 4,6 Meter und wiegt 55 Tonnen. Nicht jede Brücke oder Unterführung ist dafür ausgelegt. Die diversen Fahrzeuge und Bagger erfordern im Baubetrieb viel Platz. Zum Schluss darf – zur Enttäuschung der Grundbesitzer – weder die eigentliche Kabeltrasse noch der parallele Baustreifen mit Bäumen oder tief wurzelnden Gräsern bepflanzt werden.

Konverterstationen

Elektrische Energie wird in Kraftwerken überwiegend als Wechselstrom erzeugt. Daher fließt in den deutschen und europäischen Stromnetzen überwiegend Wechselstrom. Im Rahmen des Netzausbaus soll jetzt in Deutschland auch für lange Strecken die effektivere Gleichstromtechnik verwendet und somit ins vorhandene Wechselstromnetz integriert werden. Um Gleichstromleitungen mit dem Wechselstromnetz zu verbinden, sind an den Endpunkten Konverteranlagenerforderlich. Ein Konverter wandelt Wechselstrom in Gleichstrom um und umgekehrt.

Eine Konverteranlage besteht im Wesentlichen aus vier Funktionsblöcken: dem Wechselstrom-Anschluss, den Transformatoren, dem Umrichter und schließlich der Gleichstrom-Schaltanlage mit den Gleichstrom-Anschlüssen. Im Umrichter, dem Kernstück der Anlage, findet die Umwandlung des Stroms statt. Der Umrichter besteht aus Transistoren, Dioden ,Kondensatoren und Spulen. Da diese Bauteile sehr empfindlich sind, müssen sie in Hallen untergebracht werden. Weil sie zudem unter Hochspannung stehen, müssen mehrere Meter Abstand zum Boden und zu den Wänden eingehalten werden.

Die Fläche, welche für einen Konverter benötigt wird, hängt wesentlich von der Übertragungsleistung der vorhandenen Leitung ab. Für Gleichstrom-Vorhaben geht man bei einer Übertragungsleistung von 2 Gigawatt von einer Gesamtfläche von 10 Hektar (= 100.000 Quadratmeter) aus. Das eigentliche Kernstück der Anlage, die Konverterhalle, nimmt eine deutlich geringere Fläche ein.

Schlussgedanken

Meines Erachtens war es ein schlimmer Fehler, dass die deutschen Politiker (insbeondere die bayerischen Seehofer/Aigner) so schnell eingeknickt sind und die Erdkabel zur Standardlösung für die Gleichstromübertragung von Nord nach Süd zugelassen haben. Die – nur – 5 Trassen hätten angesichts ihrer lediglich geringfügig höheren Masten das (regional) oft chaotische Wechselstromnetz kaum nennenswert optisch verschlechtert. Stattdessen hätte man auf hundert Jahre Erfahrung im Freileitungsbau zurückgreifen können. Demgegenüber ist die Erdverkabelung auf Höchstspannung in Deutschland praktisch Neuland. Die Grundstückseigentümer, zumeist Landwirte, werden ihre Nachteile bei Reparaturen bald  bedauern.

Der Beitrag wurde vom Blog des Autors übernommen hier




Deutschland verfehlt eigene Klimaziele deutlich – und das ist auch gut so!

Einmal mehr musste ein Noch-Mitglied der Bundesregierung, die SPD Umweltministerin Barbara Hendricks, eingestehen, dass Deutschland seine völlig unsinnigen, wissenschaftlich durch nichts gestützten CO2 Emissionsziele bis 2020 deutlich verfehlen wird. Statt geplanter und als Staatsziel aufgerufener Senkung der Emissionen um 40 % gegenüber 1990 werden es wohl nur marginale 28 % – 32 % werden, wie Hendricks klagend – anklagend, denn Schuld sind immer die anderen, auf ihrer Pressekonferenz am Mittwoch dem 11.10.17 bekanntgeben musste. Außerdem ist bekannt, dass die stärksten Absenkungen in den frühen neunziger Jahren des vorigen Jahrhunderts erreicht wurden, was fast allein dem Zusammenbruch der Industrie der ehemaligen DDR geschuldet ist. Damit hatte Hendricks, wenn auch wohl unfreiwillig, den einzig wirksamen Pfad zur Erreichung ambitionierter Emissionssenkungsziele vorgegeben. Die geplante Herbeiführung des Zusammenbruchs weiter Teile der deutschen Industrie und auch des Verkehrs, denn die sind nach wie vor die Hauptemittenten. Doch statt sich ehrlich zu diesem seit Jahren unerbittlich voran getriebenen Vorgehen mit seinen unausweichlichen Konsequenzen zu bekennen, forderte Hendricks mehr vom selben und beklagte die Verzögerungstaktik aus den betroffenen Industrie- und Gewerkschaftskreisen, die, zu Recht einen weiteren Abbau ihrer Jobs befürchtend, sich relativ erfolgreich dagegen zur Wehr gesetzt hätten. So weit so gut.

Deutschlands Rolle bei der Senkung der CO2-Emisssionen wird zwar oft als extrem wichtig von den Grünen aller Parteien und deren Medien hervorgehoben, hält aber einer realistischen Betrachtung in keiner Weise stand. Mit nur 2,2 % der weltweiten, durch den Menschen verursachten, CO2-Emissionen, ist Deutschland fast Schlusslicht unter allen wichtigen Industrienationen. Nimmt man die gewaltigen natürlichen CO2-Emissionen hinzu, beträgt der menschliche Anteil daran insgesamt nur marginale 2 bis 4 %. Bezogen darauf schrumpft der deutsche Anteil daran auf winzige ca. 0,08 %. Da aber nur maximal die Hälfte des emittierten CO2 in der Luft verbleibt, beträgt also der gesamte deutsche Beitrag ganze 0,04 % an den globalen evtl. klimawirksamen CO2-Emissionen. Das sind in absoluten Werten 450 Mio. Tonnen (t). Bekanntlich beträgt die gegenwärtige Konzentration des Spurengases CO2 in der Luft – und nur die hat evtl. einen Einfluss auf die Temperatur – etwa 0,04 Vol %. oder 400 ppm (parts per million). In absoluten Werten sind das aktuell rd. 3.000 Gigatonnen (Gt) oder 3.000.000 Mio. t CO2. Diese steigt jährlich um 2 ppm oder 15 Gt an. Davon sind max. 450 Mio. t oder 0,45 Gt deutschen Ursprungs. Das sind nur 0,015 % oder 0,06 ppm von der Gesamtmenge CO2 in der Atmosphäre. Ob dieser deutsche Anteil nun um 10%, 20% oder 40% oder gar 100 % abgesenkt werden würde, ist für das Weltklima völlig und in jeder denkbaren Variante, so oder so, völlig irrelevant, für Deutschland als Industriestandort aber tödlich. Anders herum gilt auch: Wer da von einem wichtigen Beitrag Deutschlands an der Senkung der CO2-Emissionen redet, kann nicht nur nicht rechnen, sondern redet Unsinn oder bringt – neudeutsch – mit voller Absicht Fake News unter die Leute.

 




Australien will Förderung für erneuerbare Energien streichen!

Canberra 

Die australische Regierung hat eine teilweise Wende in ihrer Energiepolitik angekündigt und will in Zukunft wieder verstärkt auf Kohle, Gas und Wasserkraft setzen. Förderungen für erneuerbare Energien wie Solarenergie oder Windkraft sollen wegfallen, wie Regierungschef Malcolm Turnbull am Dienstag bekannt gab. Mit dieser sogenannten Nationalen Energiegarantie verwirft die Regierung die Empfehlungen von Australiens Chefwissenschafter Alan Finkel, wonach Stromversorger einen fixen Anteil ihres Stroms aus erneuerbaren oder emissionsarmen Quellen beziehen müssen. Nach massiven Stromausfällen im vergangenen Jahr hatte Finkel dies nach einer Analyse des Strommarkts empfohlen. 

Strompreis soll sinken Es soll nun für jeden Bundesstaat garantiert werden, dass der benötigte Anteil von jederzeit verfügbarem Strom aus Kohle, Gas oder Wasserkraft lieferbar sei. Dies senke die Strompreise und stelle eine verlässliche Versorgung sicher, sagte Turnbull. Von 2020 bis 2030 werde die Stromrechnung eines Haushalts pro Jahr um geschätzte 110 Australische Dollar (73 Euro) sinken. -Beim Standard weiterlesen




Klimafinanzierung: Deutschland als verantwortungsvoller Partner für die Welt in 2016 bei 10 Mrd. Euro – wie viele Brücken, Kitas oder Straßen könnten wir dafür bauen?

Originaltext des Bundesministerium für wirtschaftliche Zusammenarbeit

Der Klimawandel bedroht bereits heute die Entwicklung der ärmsten Länder. Und er wird künftige Fortschritte deutlich erschweren. Klimaschutz und Entwicklungspolitik sind darum untrennbar miteinander verbunden. Es ist ein wichtiger Bestandteil der deutschen Entwicklungszusammenarbeit, Entwicklungs- und Schwellenländer bei der Finanzierung von Maßnahmen zu unterstützen, die zur Reduzierung des Treibhausgasausstoßes und zur Anpassung an die Folgen des Klimawandels beitragen.

Die Entwicklungszusammenarbeit leistet einen wichtigen Beitrag dazu, das globale Ziel der „Dekarbonisierung“, also den Wandel hin zu einer kohlenstoffarmen Lebens- und Wirtschaftsweise, im Laufe des 21. Jahrhunderts zu erreichen. Dazu müssen die öffentlichen Mittel für Klimaschutz so eingesetzt werden, dass sie auf eine Verringerung des Schadstoffausstoßes und eine steigende Widerstandsfähigkeit gegenüber den Folgen des Klimawandels („Klimaresilienz“) hinwirken. Gleiches gilt für alle anderen Finanzflüsse, also auch für private Investitionen in allen Wirtschaftsfeldern, Finanzmarkttransaktionen und ausländische Direktinvestitionen. Dazu haben sich die Vertragsstaaten, darunter Deutschland, 2015 im Pariser Klimaabkommen verpflichtet.

Zusagen deutlich gesteigert

Deutschland hat seine Beiträge zur Klimafinanzierung in den vergangenen Jahren erheblich gesteigert. Insgesamt hat die Bundesregierung im Jahr 2016 Haushaltsmittel in Höhe von etwa 3,4 Milliarden Euro für Klimaschutz- und Anpassungsmaßnahmen zugesagt. 83 Prozent dieser Mittel kommen aus dem Haushalt des Bundesministeriums für wirtschaftliche Zusammenarbeit und Entwicklung (BMZ).

Zusätzlich zu den Geldern aus dem Bundeshaushalt kommen Mittel, die Deutschland auf dem Kapitalmarkt aufnimmt: So konnte die KfW Bankengruppe 2016 gemeinsam mit ihrer Tochtergesellschaft, der Deutschen Investitions- und Entwicklungsgesellschaft (DEG), weitere 5,2 Milliarden Euro in Form von Entwicklungs- und Förderkrediten, Beteiligungen und anderen Finanzierungen aus Kapitalmarktmitteln zusagen. Insgesamt summierten sich die öffentlichen Beiträge Deutschlands zur internationalen Klimafinanzierung 2016 damit auf 8,5 Milliarden Euro.

Nicht zuletzt mobilisierte die Bundesregierung auch private Klimafinanzierung, die sich derzeit insbesondere aus revolvierenden Kreditlinien an lokale (Entwicklungs-)Banken, Beteiligungen in strukturierten Fonds und Public-Private-Partnerships (PPP) zusammensetzt (2016 allein über die Deutsche Investitions- und Entwicklungsgesellschaft DEG: 1,4 Millionen Euro). Damit lag der deutsche Beitrag aus allen Quellen im Jahr 2016 bei rund zehn Milliarden Euro.

 

Deutschland setzt Maßstäbe

Die Industrieländer haben 2009 zugesagt, ab 2020 jährlich 100 Milliarden US-Dollar aus öffentlichen und privaten Quellen für den Klimaschutz und die Anpassung von Entwicklungsländern (134 Staaten – die korrupten Regierungen werden sich freuen = HH) an die Folgen des Klimawandels bereitzustellen. Diese Zusage haben sie bei den Klimaverhandlungen in Paris bestätigt und erweitert: Demnach soll vor 2025 ein Finanzierungsziel gesetzt werden, das noch über die 100-Milliarden-Dollar-Marke hinausgeht.

Im Jahr 2014 beliefen sich die Beiträge der Industriestaaten auf insgesamt rund 62 Milliarden US-Dollar. Um den Prozess voranzutreiben, hat Bundeskanzlerin Angela Merkel im Mai 2015 angekündigt, dass die Bundesregierung eine Verdopplung der deutschen Klimafinanzierung anstrebe: Bis 2020 soll sie auf jährlich vier Milliarden Euro anwachsen. Darüber hinaus wird die Bundesrepublik weitere Beiträge durch öffentliche Kredite (über KfW und DEG) sowie durch die Mobilisierung privater Mittel leisten.

Damit hat Deutschland Maßstäbe gesetzt: Im Oktober 2015 haben fast alle multilateralen Entwicklungsbanken und viele Staaten, unter anderem Frankreich und Großbritannien, angekündigt, ihre öffentlichen Beiträge zur Klimafinanzierung ebenfalls deutlich zu steigern. Mit diesem Zuwachs und den privaten Mitteln, die dadurch zusätzlich gewonnen werden können, ist das 100-Milliarden-Dollar-Ziel ab 2020 in greifbare Nähe gerückt.

 

Bilaterales Engagement

Der Schwerpunkt der deutschen Klimafinanzierung liegt auf der bilateralen Zusammenarbeit. Von 2013 bis 2016 entfielen hierauf 86 Prozent der für die Klimafinanzierung eingesetzten Haushaltsmittel. Der größte Teil dieses Geldes kommt aus dem Haushalt des BMZ.

Das Entwicklungsministerium unterstützt in fast allen seinen Partnerländern Vorhaben zum Klimaschutz und zur Anpassung an die Folgen des Klimawandels. Das Engagement baut auf den Bestrebungen der Partnerländer auf, den Klimaschutz in ihre nationalen Entwicklungsstrategien einzubinden. Darüber hinaus unterstützt das Bundesministerium für Umwelt, Naturschutz, Bau und Reaktorsicherheit (BMUB) umfassende Klimaschutzmaßnahmen über die Internationale Klimaschutzinitiative (IKI). Auch das Bundeswirtschaftsministerium, das Bundesministerium für Bildung und Forschung und das Auswärtige Amt tragen zur deutschen Klimafinanzierung bei.

Die bilaterale Klimafinanzierung wird für die Bereiche Anpassung an den Klimawandel, Minderung von Treibhausgasemissionen sowie Wald- und Biodiversitätsschutz inklusive REDD+ eingesetzt.

 

Multilaterales Engagement

Für Veränderungen in großem Maßstab sind multilaterale Organisationen wichtige Partner: Sie verwirklichen in Entwicklungs- und Schwellenländern Programme mit großem Umfang und können Leistungen verschiedener Geber koordinieren. Multilaterale Institutionen spielen häufig auch eine entscheidende Rolle im Politikdialog auf nationaler und internationaler Ebene. Deshalb ergänzt das BMZ sein bilaterales Engagement im Klimabereich durch eine ehrgeizige multilaterale Zusammenarbeit. Als engagierter Partner bringt es die Positionen und Werte der deutschen Entwicklungszusammenarbeit in internationale Institutionen ein.

Gemeinsam mit den multilateralen Entwicklungsbanken arbeitet das BMZ daran, die Rahmenbedingungen für eine wirksame Klimapolitik zu verbessern. Insbesondere bei der Umlenkung der globalen Finanzströme hin zu Investitionen in Emissionsminderung und Klimaresilienz können die multilateralen Banken globale Vorreiter werden. Dafür müssen sie den Klimawandel bei all ihren Aktivitäten als Querschnittsthema berücksichtigen. Unter anderem hat sich das BMZ erfolgreich dafür eingesetzt, dass die Internationale Entwicklungsorganisation (International Development Association, IDA), das Finanzierungsinstrument der Weltbank für die ärmsten Länder, die Themen Klimaschutz und Anpassung an den Klimawandel in ihrem Kerngeschäft verankert.

Darüber hinaus leistet Deutschland bedeutende finanzielle Beiträge zur multilateralen Klimafinanzierung. So ist das BMZ bei der Globalen Umweltfazilität (Global Environment Facility, GEF) nach Japan und den USA (???) drittgrößter Geber. Beim Least Developed Countries Fund, dem Fonds der GEF für die ärmsten Länder, und dem Special Climate Change Fund hat das BMZ bisher am meisten einbezahlt.

 

Grüner Klimafonds

Das zentrale Instrument der multilateralen Klimafinanzierung ist der Grüne Klimafonds (Green Climate Fund, GCF). An seinem Aufbau beteiligt sich das BMZ inhaltlich, finanziell und personell. Ziel des GCF ist es, den Wechsel zu einer emissionsarmen nachhaltigen Entwicklung voranzutreiben. Dazu werden Programme unterstützt, die eine kohlenstoffarme Wirtschaftsentwicklung zum Ziel haben oder einen wesentlichen Beitrag zur Anpassung an den Klimawandel leisten. Darüber hinaus soll der GCF die Privatwirtschaft dazu motivieren, zusätzliche Mittel in Minderungs- und Anpassungsmaßnahmen zu investieren.

Für die Erstauffüllung des Fonds hat Deutschland einen Beitrag von 750 Millionen Euro bereitgestellt. Diese Mittel werden vollständig dem BMZ-Haushalt entnommen. Im Zuge der Wiederauffüllung des GCF plant Deutschland, erneut einen signifikanten Beitrag zu leisten.

 

Klimagelder wirkungsvoll einsetzen: das „Climate Finance Readiness“-Programm

Für die Anpassung an den Klimawandel und die Minderung von Treibhausgasemissionen stehen immer mehr Mittel zur Verfügung. Dennoch haben viele Entwicklungsländer Schwierigkeiten, Zugang zu Geldern der internationalen Klimafinanzierung zu erlangen oder sie wirkungsvoll einzusetzen. Dies betrifft insbesondere die ärmsten und kleinsten Staaten mit schwachen staatlichen Kapazitäten, beispielsweise die vom Klimawandel besonders stark betroffenen kleinen Inselstaaten. Hier setzt das „Climate Finance Readiness„-Programm (CF Ready) des BMZ an. Es unterstützt Länder dabei, organisatorische, technische und personelle Kapazitäten aufzubauen, um internationale Gelder, etwa aus dem Grünen Klimafonds (GCF), beantragen und strategisch nutzen zu können.

Die KfW Entwicklungsbank und die Deutsche Gesellschaft für Internationale Zusammenarbeit (GIZ) führen das CF-Ready-Programm gemeinsam durch. Seit 2014 erhält die GIZ dafür auch finanzielle Unterstützung der US-amerikanischen Entwicklungsagentur (USAID) sowie des tschechischen Umweltministeriums. Die GIZ ist seit Anfang 2017 auch als Umsetzungspartner des „Readiness and Preparatory Support Programme“ des GCF tätig.

Das CF-Ready-Programm kooperiert eng mit den Sekretariaten der großen Klimafonds, zum Beispiel dem GCF-Sekretariat und dem Adaptation Fund. Es arbeitet in folgenden 13 Ländern: Bangladesch, Grenada, Jamaika, Kambodscha, Marokko, Namibia, Peru, Sambia, Südafrika, Tadschikistan, Tansania, Uganda und Vietnam. Readiness-Mittel des GCF setzt die GIZ in Bangladesch, Georgien, Thailand und Vanuatu um, weitere Länder werden hinzukommen. Auch über die KfW können künftig noch mehr Länder Unterstützung erhalten.

 

Klimazahlen konkret – Methodik der BMZ-Berichterstattung

Seit 2011 errechnet das BMZ die Höhe der bilateralen Mittel im Klimabereich anhand der sogenannten Klimakennungen („Rio-Marker“) der Organisation für wirtschaftliche Zusammenarbeit und Entwicklung (OECD). Dabei wird zwischen den Klimakennungen „Minderung von Treibhausgasen“ und „Anpassung an den Klimawandel“ unterschieden.

Die Rio-Marker können drei Ausprägungen haben: Bei Ausprägung „2“ ist die Minderung von Treibhausgasen beziehungsweise die Anpassung an den Klimawandel ein Hauptziel des Vorhabens. Das Finanzvolumen wird zu 100 Prozent dem jeweiligen Klimabereich zugeordnet. Bei Ausprägung „1“ ist die Minderung von Treibhausgasen oder die Anpassung an den Klimawandel ein Nebenziel des Vorhabens. Das Finanzvolumen wird dann zu 50 Prozent dem jeweiligen Klimabereich zugeordnet. Ist die Ausprägung „0“, leistet das Vorhaben keinen entscheidenden Beitrag zu diesen Zielen. Die Mittel werden daher nicht auf die Klimafinanzierung angerechnet. Damit weicht die Bundesrepublik vom Vorgehen der OECD ab, die klimarelevante Vorhaben auch dann in vollem Umfang berücksichtigt, wenn der Klimaschutz oder die Anpassung an den Klimawandel nur Nebenziel ist.

Wie international üblich, berichtet das BMZ im Bereich der bilateralen Klimafinanzierung jährlich über die Höhe seiner Zusagen. Für die multilaterale Klimafinanzierung werden die Auszahlungen kommuniziert. Die Beiträge aus dem Energie- und Klimafonds und dessen Nachfolgetitel werden im Einvernehmen mit dem Bundesumweltministerium ebenfalls als Auszahlungen in die Berichterstattung aufgenommen.

Seit 2014 veröffentlicht das BMZ auch die anrechenbaren klimarelevanten Beiträge („imputed climate relevant contributions„), die sich aus den deutschen Einzahlungen in entsprechende Fonds der Internationalen Entwicklungsorganisation (IDA) der Weltbank, der Afrikanischen Entwicklungsbank (AfDB) und der Asiatischen Entwicklungsbank (ADB) ergeben. Diese Fonds hatten Ende 2014 erstmals bekanntgegeben, welcher Anteil ihres Engagements der Klimafinanzierung zugutekommt. Im Rahmen der OECD wurde vereinbart, diese Anteile für die Ermittlung klimarelevanter Einzahlungen in die Fonds zu nutzen. Auch die Globale Umweltfazilität (GEF) gibt einen solchen Anteil bekannt. Dadurch hat sich auch für die GEF der Anteil der deutschen Einzahlungen, die als klimarelevant einzustufen sind, geändert.

Seit dem Jahr 2015 berichtet das BMZ in seinen tabellarischen Darstellungen auch projektgenau über die von der KfW mobilisierten öffentlichen Klimafinanzierungsmittel. Dabei wird das Volumen der Entwicklungskredite abzüglich der enthaltenen Zinssubventionen aus Haushaltsmitteln dargestellt, um Mehrfachanrechnungen auszuschließen. Aufgrund des Bankgeheimnisses dürfen dabei die in den einzelnen Entwicklungskrediten enthaltenen Subventionselemente nicht veröffentlicht werden. Daher wird die Summe der pro Region eingesetzten Zinssubventionsmittel jeweils als Gesamtzahl berichtet. Für die von der DEG mobilisierte öffentliche Klimafinanzierung sind Angaben zur Klimafinanzierung pro Region enthalten.




Ende der „Energiewende“ in USA?

Der Vorstoß von Rick Perry

Vereinfachend gesagt, kann der Präsident der USA über seinen „Secretary of Energy“ Dienstanweisungen erlassen. Letztendlich sind dagegen Einsprüche innerhalb von 60 Tagen durch berufene Stellen möglich, sonst treten sie in Kraft. Ein durchaus mächtiges Werkzeug, um den Senat und das Repräsentantenhaus vor sich her zu treiben. Rick Perry hat dieses Werkzeug am 28. September 2017 eingesetzt, um damit indirekt gegen die Subventionen von Wind und Sonne vorzugehen. Die Problematik in den USA ist ganz ähnlich zu der in Deutschland: Die subventionierten Umgebungsenergien Wind und Sonne belasten das Stromnetz und treiben mit ihren Dumpingpreisen konventionelle Kraftwerke in den Ruin. Je weniger konventionelle Kraftwerke am Netz sind, desto instabiler wird das gesamte Versorgungssystem und ein großräumiger Zusammenbruch ist unvermeidbar. Dies gefährdet die „Nationale Sicherheit“. Ein Argument, dessen sich kein Politiker in den USA verschließen kann. Der Tanz ist damit eröffnet: Physik gegen Ideologie.

Der Kernsatz

Affordable, Reliable and Resilient [Anmerkung: Die Fachbegriffe werden noch ausführlich beschrieben und diskutiert] elektrische Energie ist überlebenswichtig für die Wirtschaft und die nationale Sicherheit der Vereinigten Staaten und ihrer Einwohner.

Das sind die klaren und eindeutigen Aussagen, wegen deren Donald Trump zum Präsidenten gewählt wurde. In Deutschland von linken Schwadroneuren gern als Populismus abgestempelt. Kein ewiges Rumgeeiere, sondern eine eindeutige Festlegung des eigenen Standpunktes. Früher nannte man so etwas Verantwortung übernehmen und meinte damit eher eine Tugend. Keine esoterischen oder religiösen Begründungen a la „Klimakatastrophe“ für die eigene Bereicherung oder den Drang zur Gesellschaftsveränderung, sondern nachvollziehbare und für jeden verständliche Argumente. Würde doch mal im Deutschen Bundestag jemand den Ökosozialisten einen solchen Satz entgegenhalten. Es wäre schön zu sehen, wie sie darüber hinwegschwafeln müßten.

Affordable Electricity

Bezahlbare Energie. Mit der Übersetzung ist es so eine Sache: Hier schwingt für jeden Amerikaner auch noch erschwinglich, kostengünstig, leistbar, zu angemessenen Preisen, im Hinterkopf mit.

Elektrische Energie ist die Schlüsselgröße einer jeden modernen Gesellschaft. Ohne Strom geht weder im Privathaushalt noch in irgendeinem Unternehmen etwas. Stromkosten wirken wie eine Umsatzsteuer auf alle Produkte: Nicht nur zum Betrieb eines Fernsehers, nein auch schon zu seiner Herstellung, war sie nötig. Das ist der perfide Grund für die sozialistische Lehre von (notwenigen) hohen Strompreisen zum „Energiesparen“. Es gibt kaum eine Steuer oder Gebühr, mit der man das eigene Volk besser aussaugen kann. Energiesparen ist lediglich eine Verniedlichung für Konsumverzicht und Entbehrung.

Aber damit immer noch nicht genug: Wenn man funktionierende Kraftwerke in den Ruin treibt, ist das nichts anderes als „Kapitalvernichtung“. Jeder redet von Kapitalvorsorge für das Alter – Deutschland enteignet entschädigungslos Kernkraftwerke und vernichtet dadurch Milliarden an Anleihe- und Aktienvermögen. Jeder Sozialist schwafelt von zusätzlichen staatlichen Investitionen in Infrastruktur als Zukunftsfürsorge – Deutschland treibt nagelneue kommunale Gas- und Kohlekraftwerke in die Pleite. Für die Staatsverschuldung, die zu ihrem Bau notwendig war, wird auch noch die zukünftige Generation zahlen.

Bevor sich jetzt auch noch die Jünger der Försterlehre von der „Nachhaltigkeit“ bemüssigt fühlen: Man kann nur jeden Euro einmal ausgeben. Was wäre, wenn man die Milliarden, die man in die „Reichskrafttürme“ etc. gesteckt hat, tatsächlich in Bildung, „Digitalisierung“ usw. investiert hätte? Fehlinvestitionen sind auch immer verschenkte Chancen anderer.

Reliable Electricity

Betriebs- und Versorgungssicherheit. In den USA werden alle Energieträger (Kohle, Öl, Gas und Uran) in großen Mengen – anders als in Deutschland – selbst gefördert und ihre Anwendungsenergien in eigenen Anlagen (Raffinerien, Anreicherungsanlagen, Brennelementefabrik etc.) hergestellt. Hinzu kommt eine eigene leistungsfähige Industrie, die die dafür notwendigen Anlagen baut und entwickelt.

In Deutschland wird die entsprechende Industrie systematisch zerstört und das Fachwissen ins Ausland verramscht. Noch nie, war Deutschland in seiner Geschichte so abhängig von der Energieversorgung aus dem Ausland. Schröder, der als Kanzler den Ausstieg aus der Kernenergie gepredigt hat und heute seine Rendite als Gasmann bei Putin einfährt, ist wahrlich nur die Spitze des Eisbergs. Phänomenal ist nur, wie sich hier der Wähler den Weg zurück ins Mittelalter als Zukunft verkaufen läßt. Im Gegenteil, wenn Michel eine überbezahlte Telepromter-VorleserIn in den Tagesthemen etc. erzählt, daß alle Wähler in den USA Deppen sind, kommt er sich auch noch überlegen vor. Werden schon sehen, diese rückständigen Amerikaner, wo sie bleiben, wenn die Kanzlerin erstmal die Wunderwaffe Speicher und Elektromobil hat. Ehrlich gesagt, ich kann es nicht mehr hören, wenn Politiker, die Mathematik und Physik karrierefördernd abgewählt haben, immer vom-Vertrauen-in die-Kunst-unserer-Ingenieure faseln.

In den USA ist der Begriff Versorgungssicherheit durchaus enger zu fassen. Dort wird darunter eher die Sicherstellung der Versorgung bei Naturkatastrophen verstanden. Krieg, Terror und Boykott sind eher Abfallprodukte dieser Sicherungsmaßnahmen. Genau in diesem Punkt setzt Perry den Hebel an. Er bezieht sich ausdrücklich auf den „Polar Vortex“ und die Wirbelstürme über der Golfküste. Bei dem Kälteeinbruch im Jahre 2014 hing die Stromversorgung im gesamten Norden nur noch am seidenen Faden. Sie konnte nur noch durch die Kernkraftwerke (Arbeitsverfügbarkeit 95%) und das Wiederanfahren von Kohlekraftwerken, die bereits in der Stilllegung waren, aufrecht erhalten werden. Wind und Sonne gab es wegen schlechtem Wetter nicht und das Erdgas war knapp, weil alle Heizungen wegen der geringen Temperaturen ebenfalls mit voller Leistung liefen. Beim letzten Hurricane in Texas gingen sogar die Kohlekraftwerke in die Knie: Die Kohlenhalden hatten sich durch den sintflutartigen Regen in Matsch verwandelt, der die Förderanlagen außer Betrieb setzte. Einzig das Kernkraftwerk in der Matagorda Bay – gerade hier ging der Hurricane an Land – hielt seine Produktion aufrecht. Man hatte sich mit 250 Mann Betriebspersonal eingeschlossen und tapfer weiter produziert. Fukushima sei Dank. Die Resultierenden Nachrüstungen zum „U-Boot“ haben sich im unfreiwilligen Praxistest voll bewährt.

Perry nutzt diese beiden Fälle geschickt, um die Bedeutung von Kernenergie und Kohlekraftwerke für die Versorgungssicherheit eines Stromnetzes nachzuweisen. Er fordert für Kraftwerke, die für 90 Tage Brennstoff auf ihrem Gelände bevorraten können, eine zusätzliche Vergütung. Wir erinnern uns: Die Kernkraftwerke und die Kohlekraftwerke sind nur durch die hohen Subventionen für Wind und Sonne unrentabel geworden. Erdgaskraftwerke haben die geringsten Investitionskosten bei (momentan) auch noch niedrigen Brennstoffpreisen. Die Brennstoffpreise sind aber nur dann günstig, wenn sie außerhalb der Heizperiode betrieben werden. Eigene Speicher für Erdgas würden den Kostenvorteil sehr schnell umkehren. Politisch sehr geschickt ist die Forderung nach zusätzlichen Zahlungen für Kohle- und Kernkraftwerke. Die Forderung, die Subventionen für Wind und Sonne aufzugeben, würde sofort den Aufstand der Schlangenölverkäufer provozieren, die sofort ihre militanten Helfer auf die Straße schicken würden. Die Sachargumente würden in den Straßenkämpfen untergehen. Kann sich noch jemand an das ist-politisch-nicht-durchsetzbar von Gorleben erinnern? Fallen zusätzliche Kosten an, muß man die Frage stellen, wer dafür aufkommen soll. Die Verbraucher zu belasten, verstößt gegen „Affordable Electricity“. Vielleicht Ausgleichszahlungen der Schlangenölverkäufer? Dies würde schnell zum Zusammenbruch zahlreicher „Wind-Fonds“ führen. Die anstehende Debatte in den USA verspricht interessant zu werden.

Schlau war auch, erstmal den Pulverdampf über den „Klimaausstieg“ abziehen zu lassen und die Kohlenindustrie durch die Einstellung des „Kriegs gegen die Kohle“ zumindest neutral zu stellen. Jetzt kann man die Diskussion über die Kernenergie mit der Versorgungssicherheit wieder neu beleben.

 

Resilient Electricity

 

Dieser Ausdruck ist am schwersten zu übersetzen. Gemeint sind die Konsequenzen aus den Kirchhoffschen Regeln: Die Einspeisung elektrischer Leistung muß stets genau gleich dem Verbrauch sein. Ist das nicht der Fall, geraten Spannung und Frequenz augenblicklich außer Kontrolle und das Netz bricht in kürzester Zeit zusammen. Früher hatte der „Vertikale Energiekonzern“ die Sache fest im Griff. Alle Kraftwerke und das Stromnetz lagen in eigener Verantwortung und waren aufeinander abgestimmt. Störungen gab es praktisch nur durch das Versagen eigener Anlagen.

Durch die Förderung von Umweltenergien und den Vorrang für ihren Ausbau und die Einspeisung ist das System „Stromversorgung“ absehbar aus den Fugen geraten. Nun hat man den unzuverlässigsten Lieferanten im System, den man sich überhaupt vorstellen kann: Das Wetter. Nachts ist es dunkel, im Winter sind die Tage kürzer und Wolken dämpfen die Sonneneinstrahlung. Die Verfügbarkeit läßt sich mit Uhr, Kalender und Wetterbericht noch einigermaßen vorhersagen. Wie aber die letzte Sonnenfinsternis in den USA eindrucksvoll gezeigt hat, sind die Grenzen für das System bereits erreicht. Innerhalb von Minuten sind zig Megawatts verschwunden, um nach dem Sonnendurchgang ebenso schnell wieder anzuliegen. Solche massiven und schnellen Störungen sind nur durch konventionelle Kraftwerke auszuregeln.

Nicht viel anders, wenn nicht sogar schlimmer, sieht es mit dem Wind, dem himmlischen Kind, aus. Die Leistung eines Windrades ändert sich mit der dritten Potenz der Windgeschwindigkeit. Mit anderen Worten: Wenn sich die Windgeschwindigkeit verdoppelt, nimmt die Leistung um das acht-fache zu. Sturm mit Orkanböen ist ein einziger Albtraum für jeden Netzbetreiber. Auch das hat der letzte Hurricane in Texas eindrucksvoll gezeigt: Erst stieg die Stromproduktion steil an, dann brach die Windstromerzeugung urplötzlich in sich zusammen, weil der Wind zu stark geworden war und die Mühlen aus dem Wind gedreht werden mußten.

Ohne konventionelle Kraftwerke gibt es keine Nutzung der Umweltenergien. Dies gilt nicht nur für die Versorgung bei Dunkel-Flaute, sondern schon im „Normalbetrieb“. Die Schwankungen von Wind (Bö) und Sonnenschein (Wolke) sind so schnell, daß nur die Rotation von großen Turbosätzen sie ausgleichen kann. Eine Vollversorgung durch Wind und Sonne ist physikalisch unmöglich. Sprüche wie: Irgendwo weht immer der Wind oder Kohlenstrom verstopft die Netze, sind daher nichts weiter als tumbe Propaganda. Viel schlimmer, bisher wurde die Dienstleistung Netzstabilität kostenlos für die Betreiber von Windparks und Sonnenfarmen erbracht. Je mehr Kohle- und Kernkraftwerke einfach aufgeben, um so schlimmer wird die Situation. Man muß es so deutlich sagen, Betreiber von Windkraftanlagen und Sonnenkollektoren sind Schmarotzer. Es wird höchste Zeit, daß sie die für sie erbrachten Dienstleistungen auch bezahlen. Diese wären nämlich gar nicht nötig, wenn es sie und ihre politisch gewollten Privilegien nicht geben würde.

Die Ironie – jedenfalls für deutsche „Atomkraftgegner“ – liegt nun darin, daß gerade Kernkraftwerke die schnellsten Laständerungen von allen Kraftwerken bereitstellen können. Wer mehr Wind und Sonne will, kann auf Kernkraftwerke in seinem Versorgungsgebiet nicht verzichten. Diese Erkenntnis greift schon in vielen Bundesstaaten in den USA. Wer mit Steuervergünstigungen den Bau von Windfarmen anfacht, muß im nächsten Schritt auch Subventionen für den Erhalt der Kernkraftwerke bereitstellen. Ein Irrsinn, der sich immer schwerer politisch verkaufen läßt. Die Trump-Administration streut mit ihrer Initiative deshalb gezielt Salz in diese Wunde. Man kann sich schon jetzt darauf freuen, wie Spiegel und das Zwangsgebühren-Fernsehen geifern werden. Nachdem der Braunkohlenstrom die Netze verstopft hat, müssen nun auch noch die unwirtschaftlichen „Atomkraftwerke“ subventioniert werden. Es ist keine Lüge zu dreist, als daß sie der Deutsche Michel nicht fressen würde und er wird ganz gewiss auch diesmal wieder brav auf die Wunderwaffen warten. Wenn die Kanzlerin erstmal ihre Speicher und E-Mobile hat, ist der Endsieg in der großen Transformation nicht mehr weit.

Zusammenfassung

Vom Wetter bestimmte elektrische Energie ist wertlos. Im Mittelalter wurde gemahlen, wenn der Wind wehte und gesegelt, wenn keine Flaute war. Wer den Lehren von Pol Pot anhängend, den Aufbau des Sozialismus über einen Rückschritt in das vorindustrielle Zeitalter machen zu wollen, ist deshalb mit dem Ausbau der „Regenerativen Energien“ zielstrebig auf seinem Kurs. Eine Zivilisation benötigt aber den „Strom aus der Steckdose“ – jederzeit ausreichend verfügbar, ausschließlich nachfrageorientiert.

Schluß mit Dumpingpreisen. Unter Dumping versteht man den Verkauf eines Produkts unter den Gestehungskosten. Schon die DDR war mit dem Verkauf ihrer Waren unter Selbstkosten (Devisenknappheit) wenig erfolgreich. Die Kosten von Wind- und Sonnenstrom entsprechen aber (mindestens) den zugewiesenen und garantierten Vergütungen nach dem EEG. Eindrucksvoll zeigen die erzielten Preise an der Strombörse ihren tatsächlichen Wert. Inzwischen werden schon negative Preise (gleichbedeutend mit Entsorgungsgebühren für den Abfall) erzielt.

Schluß mit der Planwirtschaft. Eine moderne Volkswirtschaft kann nicht ohne ein komplettes Backup aus konventionellen Kraftwerken funktionieren. Auch bei Dunkel-Flaute muß der Strom erzeugt werden, der gerade nachgefragt wird – oder es geht gar nichts mehr. Insofern kann der tatsächliche Wert von Umweltenergie nur den Brennstoffkosten konventioneller Kraftwerke entsprechen. Alle Kosten, die durch die „Erneuerbaren“ entstehen, müssen darüberhinaus ausschließlich diesen angerechnet werden: Kosten für Transportleitungen, Regelenergie etc. Die Sonne schickt zwar keine Rechnung, aber jeder Hersteller muß den Transport bezahlen, um erstmal seine Ware zum Verbraucher zu bringen, muß die Ware sicher verpacken usw. Erst wenn all diese Kosten eingerechnet sind, ergibt sich der notwendige Mindestverkaufspreis seines Produkts. Würde man diese Regeln der Realen Welt auf die Welt der Sonnen- und Windbarone anwenden, wäre der ganze Spuk sehr schnell vorbei.

Aber halt, natürlich wäre es dann auch mit der „Großen Transformation“ vorbei und was soll dann aus all den Scharlatanen werden, die bisher trefflich davon lebten? Was hat Donald Trump versprochen? „Ich will euch euer Land zurückgeben.“ Vielleicht liegt es daran, daß ihn gewisse Kreise so hassen. „Grid Resiliency Pricing Rule“ ist jedenfalls ein weiterer (kleiner) Schritt in diese Richtung. Fast (noch) unbemerkt von den Medien.

Der Beitrag erschien zuerst auf dem Blog des Autors hier




Was die Monopolkommission unterlässt!

Auf Wissenschaftler und Experten mit Scheuklappen sollte man sich lieber nicht verlassen. Nur Scheuklappen für Pferde haben ihre Berechtigung: Die Vierbeiner sollen nur das von Reiter oder Kutscher vorgegebene Ziel antraben, Scheuklappen sie bekanntlich davon nicht ablenken. Aber Wissenschaftler und Experten sind keine Pferde, sondern wichtige Ratgeber. Wenn nämlich Sie ein Ziel ansteuern, sollten sie über den Horizont ihres begrenzten Fachgebietes hinausblicken können, auch andere wissenschaftliche Disziplinen im Blick haben und bedenken, ob das Ziel, das sie als Ratgeber anzusteuern beauftragt sind, auch wirklich sinnvoll ist. So zu verfahren, ist umso wichtiger, je mehr die Spezialisierung auch in den Wissenschaften immer weiter ausufert und Detail-Wissen wichtiges Allgemein-Wissen zurückdrängt. Blicke über den Zaun ihres verengten Fachgebietes zu werfen, wäre auch der deutschen Monopolkommission anzuraten. 

Den Kernpunkt der Kritik an der Energiewende lässt die Monopolkommission aus

Neulich hat diese Kommission*) der staatlichen Energiewende-Politik ein schlechtes Zeugnis ausgestellt. Sie tut das in ihrem Sondergutachten zur Energiepolitik, das  sie alle zwei Jahre vorlegt.**) Dabei beanstandet sie die Energiewende allerdings nicht grundsätzlich, obwohl diese Politik staatliche Intervention pur ist: Die Energiewende-Politik schaltet in der Stromerzeugung den Wettbewerb zwischen den Energieträgern aus und beglückt die Erzeuger von Wind-, Solar- und Biogasstrom mit hohen Subventionen, diktiert auf diese Weise die Strompreise und treibt sie nach oben. Subventionen und Preisdiktat sind nicht Wettbewerb. Sie fördern den Wettbewerb nicht, sie zerstören ihn. Eben in diese Wunde der Energiewende müsste die Monopolkommission den Finger legen. Das aber tut sie nicht.

Verfangen im interventionistischem Klein-Klein – Funktionsfähiger Wettbewerb sieht anders aus

Stattdessen befasst sie sich damit, wie der Staat mit seiner Intervention die Energiewende effizienter hinbekommt. Sie kritisiert herum an der Ausführung, bemängelt die Ausschreibungen der Kommunen für Gas- und Stromleitungen, kritisiert die Menge an Regulierungen, Zielen und Steuerungswirkungen als nur noch schwer überschaubar, mahnt das konsequente Vermeiden von CO2-Emissionen an, wirft dem Gesetzgeber Stückwerk vor, hantiert an allen möglichen Stellschrauben, gibt überaus zahlreiche Handlungsempfehlungen. Kurzum, so, wie sich der Staat mit seiner unsäglichen Energiewende-Bürokratie im Regelungsdickicht verfangen hat, das immer neuen Höhepunkten zustrebt – wie das bei staatlichen Interventionen üblicherweise der Fall ist und es der Wirtschaftswissenschaftler Ludwig von Mises schon in den 1930er Jahren dargestellt hat – so verliert sich in diesem interventionistischem Klein-Klein auch die Monopolkommission. Funktionsfähiger Wettbewerb, für den sie eintreten soll, sieht anders aus. Von der Monopolkommission muss der Bürger erwarten, dass sie wettbewerbspolitisch verfehlte Gesetzgebung nicht mit Ratschlägen zur besseren Anwendung unterstützt, sondern sagt, dass sie wettbewerbspolitisch verfehlt ist.

 

Was die Monopolkommission fahrlässig versäumt

Die Klimaschutzpolitik, mit der die Wende zum „Ökostrom“ offiziell politisch begründet wird, stellt die Monopolkommission nicht infrage, nimmt sie (fahrlässig) als gegeben hin. Man mag einwenden, es sei doch auch nicht ihre Aufgabe, darüber zu befinden, ob das anthropogene CO2zu höheren Temperaturen auf der Erde führt und daher das gegenwärtige Klima zu „schützen“ ist. Gewiss, das soll sie nicht und kann sie nicht. Aber andere können das: Naturwissenschaftler. Das Wenigste aber, was auch die Mitglieder der Monopolkommission in den vielen Jahren mitbekommen haben müssen, ist, dass diese CO2-Erwärmungsthese wissenschaftlich alles andere als einhellig geteilt wird, nicht bewiesen und damit zumindest umstritten ist.***)  Was bestritten ist, ist nicht unumstößlich belegt. Was nicht belegt ist, darf nicht zu einer Politik werden, die ruinöse Folgen hat.

Worauf die Monopolkommission wenigstens hinweisen müsste

Wenn sie das also wissen und sich zusätzlich kundig machen können, dann müssen sie sich – gerade weil sie  Ökonomen und Unternehmensführer sind – klarmachen können, dass man auf unbewiesene, umstrittene Thesen keine so leichtsinnige, folgenschwere und super-teure Politik wie die der Energiewende aufbauen darf. Und würden sie sich zusätzlich kundig machen, dann würden sie sogar darauf stoßen, dass dieses Ökostrom-Trara sehr wahrscheinlich aus ganz anderen Gründen stattfindet, als die Erde vor (vorgeblich) anthropogener Erwärmung zu schützen. Die Monopolkommission hätte also Grund und Verpflichtung genug, auf diesen Leichtsinn und diese Folgenschwere wenigstens hinzuweisen und so die Fragwürdigkeit der Energiewende öffentlich zu machen. Auf gute und unwiderlegliche Gründe gegen den Strom aus „erneuerbaren“ Energien (EE-Strom) kann sie sich dabei berufen, vor allem auf diese:

Die fünf naturgesetzlich bedingten Hauptmängel der Energiewende

1. Wind und Sonnenlicht haben eine viel zu geringe Energiedichte. Das heißt: Um sie zu nutzen, ist zwangsläufig ein riesiger Flächenbedarf nötig mit zigtausenden Windkraft- und Fotovoltaik-Anlagen. Das gilt ebenso für den Energiepflanzenanbau zur Herstellung von „Biogas“.  (Näheres zur Energie- oder Leistungsdichte hier).

2. EE-Strom ist unzuverlässig. Denn Wind und Sonne scheinen, wann sie wollen, und nicht, wann sie sollen. Sie erzeugen daher nur wetterabhängigen Zufallsstrom, auch Wackelstrom genannt. Daran ändert sich auch dann nichts, wenn immer mehr EE-Anlagen in Betrieb gehen. Sie sind ebenso unsicher sind wie weniger Anlagen Denn es gibt Wetterlagen, in denen alle Anlagen überhaupt keinen Strom erzeugen, unabhängig davon, wieviele es sind. Denn 26 500 Anlagen liefern bei Windstille genauso wenig Strom wie 170 000, nämlich Null. Das Gleiche gilt für Solaranlagen mit ihrem Strom aus Sonnenschein. Wasserkraft lieferte  2016 nur 3,3 Prozent des Bruttostroms, und ein weiterer Ausbau ist in Deutschland nicht möglich.

3. Wetterabhängiger Zufallsstrom bedeutet schlechte Regelbarkeit. Dadurch kann man mit ihm die erforderliche Netzstabilität nicht sicherstellen – im Gegensatz zu Kohle-, Gas- und Kernkraftwerken. Nur diese drei Letztgenannten vermögen es, die Soll-Netzfrequenz von 50 Hertz stabil zu halten. Schon bei einer Abweichung von 0,2 Hertz von der Sollfrequenz besteht die Stromausfall-Gefahr, kann es zappenduster werden. Daher ist Zufallsstrom nicht grundlastfähig, also nicht in der Lage, den jeweiligen Strombedarf jederzeit sicherzustellen.

4. Der Nutzungsgrad von EE-Strom ist zu gering. Bei Windkraftanlagen liegt er bei knapp 20 Prozent ihrer Nennleistung, bei Solaranlagen (Fotovoltaik) um 10 Prozent. Das heißt: Diese „Stromfabriken“ stehen zwischen 80  und 90 Prozent der Zeit eines Jahres still. Das ist Verschwendung pur.

5. Strom ist in der nötigen Größenordnung nicht direkt speicherbar. Was die Verbraucher an Strom gerade abfordern, muss sekundengenau in der gleichen Menge auch erzeugt werden. Oder umgekehrt formuliert: Strom muss, sowie erzeugt, auch sofort verbraucht werden – innerhalb einer Zehntel Sekunde. Wenn Wind und Sonne mehr Strom erzeugen, als gerade benötigt wird und der Überschuss nicht im Ausland unterzubringen ist, müssen die EE-Anlagen abgestellt werden. Technische Tricks, diesen Strom indirekt zu speichern, indem man die elektrische Energie zum Beispiel in gasförmige Energie (Methan) umwandelt (Power-to-Gas-Verfahren), haben einen extrem schlechten Wirkungsgrad, bei dem drei Viertel der Energie verloren gehen. Sie sind daher unglaublich teuer, also sehr unwirtschaftlich. Rein technisch ist zwar vieles möglich, aber nicht alles technisch Mögliche ist auch sinnvoll und bezahlbar.

Für die Stromverbraucher ist das Gutachten letztlich so gut wie wertlos

Diese fünf Mängel sind naturgesetzlich bedingt. Sie hängen dem EE-Strom unausweichlich und unwiderleglich an wie ein schwerer Klotz. Es sind daher inhärente Mängel. Schon sie allein genügen, um von der Stromerzeugung mittels Wind und Sonne  die Finger zu lassen. Trotzdem tun Bundesregierung, Politiker aller Altparteien und die Profiteure der Energiewende-Politik so, als gäbe es diese Naturgesetzlichkeit nicht. An dieser Missachtung wird die Energiewende letztlich auch scheitern. Aber erst nach horrenden Kosten für Bürger, Unternehmen und Volkswirtschaft. Da dies die Folge des zerstörten Wettbewerbs in der Stromerzeugung ist, ist das Sondergutachten für Stromverbraucher letztlich so gut wie nichts wert.

____________________________________________________________________________

*) „Die Monopolkommission besteht aus fünf Mitgliedern, die über besondere volkswirtschaftliche, betriebswirtschaftliche, sozialpolitische, technologische oder wirtschaftsrechtliche Kenntnisse und Erfahrungen verfügen müssen.“ (hier). Beraten soll sie Bundesregierung und Gesetzgeber zur  Wettbewerbspolitik, zum Wettbewerbsrecht und zur staatlichen Regulierung. Im Wesentlichen geht es darum zu beobachten und zu untersuchen, wie es um den Wettbewerb bestellt ist, und zur Wettbewerbsentwicklung Stellung zu nehmen.

**) Sondergutachten 77: Energie 2017: Gezielt vorgehen, Stückwerk vermeiden (hier). Es ist das sechste zum Energiemarkt und 154 Seiten lang. Der volle Text des Sondergutachtens hier. Die gesetzliche Grundlage ist Paragraph 62 des Energiewirtschaftsgesetzes.

***) Kritisch zur Energiewende und Klimaschutzpolitik Stellung bezogen hat als einzige deutsche Partei die AfD: „Die Untersuchungen einiger Institute zur langfristigen Entwicklung des Klimas aufgrund menschlicher CO2-Emissionen sind sehr unsicherheitsbehaftet, teilweise widerlegt und beruhen nur auf Computer-Modellen. Das Klima hat sich in der Erdgeschichte stets, also auch vor der Industrialisierung und ohne menschlichen Einfluss verändert. Die AfD tritt dafür ein, die Klimaforschung, soweit sie lediglich auf Computer-Modellen basiert und nicht ergebnisoffen betrieben wird, nicht weiter zu fördern und die einseitige Darstellung des anthropogenen CO2 als vermeintliche Ursache von befürchteter Klimaerwärmung aufzugeben.“ (Aus dem Wahlprogramm der AfD Schleswig-Holstein). Ähnlich formuliert ist es im Grundsatz- und Wahlprogramm der AfD-Bundespartei.

Übernommen vom Blog des Autors hier




Deutsche Steuermilliarden gegen den Klimawandel – „Internationale Klimafinanzierung“ – mehr Mittel trotz unklarer Wirkung

Deutschland ist Energiewende-Land. Aber wussten Sie, dass der deutsche Steuerzahler jährlich mehrere Milliarden Euro für die „internationale Klimafinanzierung“ zahlt? Die Bundesregierung finanziert Maßnahmen in Entwicklungs- und Schwellenländern zur Verminderung von Treibhausgasemissionen und zur Anpassung an die Folgen des Klimawandels. Rund 90 Prozent der Mittel stammen aus dem Haushalt des Bundesministeriums für wirtschaftliche Zusammenarbeit und Entwicklung (BMZ). So wird der überwiegende Teil der Mittel auch – ähnlich der Entwicklungszusammenarbeit – für die bilaterale Zusammenarbeit verwendet. Die restlichen Mittel werden über internationale Organisationen und Finanzierungsmechanismen bereitgestellt – die sogenannte multilaterale Zusammenarbeit.

2,7 Milliarden Euro Haushaltsmittel

Die deutschen Beiträge aus öffentlichen Haushalten sind in den vergangenen Jahren deutlich angestiegen. Die aktuellsten Zahlen liegen für das Jahr 2015 vor. Damals hatte die Bundesregierung rund 2,7 Milliarden Euro aus Haushaltsmitteln für internationalen Klimaschutz und Anpassungsmaßnahmen zugesagt. Weitere Mittel – rund 4,7 Milliarden Euro – wurden über Kredite, Beteiligungen und andere Finanzierungen aus Kapitalmarktmitteln der öffentlichen Kreditanstalt für Wiederaufbau (KfW) und der Deutschen Investitions- und Entwicklungsgesellschaft (DEG), einer Tochtergesellschaft der KfW, zugesagt.

Die Ausgaben aus Haushaltsmitteln haben sich innerhalb von zehn Jahren nahezu versechsfacht und sollen weiter steigen. Bundeskanzlerin Angela Merkel hatte im Mai 2015 auf dem „Petersberger Klimadialog“ angekündigt, den deutschen Beitrag zur Klimafinanzierung zu verdoppeln. Dies bedeutet einen Anstieg der Ausgaben aus dem Bundeshaushalt auf 4 Milliarden Euro bis zum Jahr 2020. Unklar ist noch, wie sich der Rückzug der USA aus dem Pariser Klimaabkommen auf die verbleibenden Geberländer auswirken wird.

Wirkung nicht ganz klar

Nicht ganz klar sind offenbar auch die Wirkungen der finanzierten Projekte auf die CO2-Emissionen. Dies ergab eine Anfrage des Deutschen Steuerzahlerinstituts (DSi) an das BMZ. In der aktuellen Ausgabe der „Deutschen Nachhaltigkeitsstrategie“ räumt die Bundesregierung sogar ein, dass die Angaben zur Wirkung letztlich Prognosen sind und überschätzt sein können. Mit Blick auf die geplanten Ausgabensteigerungen muss die Wirkungskontrolle verbessert werden.

Dieser Artikel ist zuerst erschienen im Wirtschaftsmagazin Der Steuerzahler: Internationale Klimafinanzierung – mehr Mittel trotz unklarer Wirkung, Der Steuerzahler, Ausgabe 09/2017. 

EIKE dankt dem Deutschen Steuerzahlerinstitut des Bundes der Steuerzahler (www.steuerzahlerinstitut.de/) und dem Bund der Steuerzahler (www.steuerzahler.de) für die Gestattung des ungekürzten Nachdrucks.

Quelle: BMZ.




Brief an UBA und BUMB

Die Hypothese von der „menschengemachten gefährlichen Klima-Erwärmung“ entstand in den 80er-Jahren als Folge von gleichzeitigem CO2-Anstieg und Temperaturanstieg und wurde von einigen Klimatologen und den Medien begeistert verbreitet. Endlich wieder eine neue Katastrophe (nachdem aus dem „Waldsterben nichts geworden war).

 Hatte man doch gerade die schönen Schlagzeilen von der „kommenden Eiszeit“ aufgeben müssen, als die globale Abkühlung zwischen 1940 und 1970 zu Ende ging. Dass diese Abkühlung trotz CO2-Anstieg stattfand, wurde ignoriert und unterdrückt, denn das störte natürlich bei der neuen Erwärmungs-Theorie.

Schnell wurde das IPCC (Intergovernmental  Committee  for Climate Change) gegründet, der dann durch pseudowissenschaftliche „Klimamodelle“ den erwarteten Anstieg der Globaltemperatur berechnete.

Das war außerordentlich naiv, denn diese Modelle beruhten auf einer Annahme für die CO2-Sensitivität von 1979 und diese konnte bis heute nicht verifiziert werden. Die Tatsache, dass es dann aber nach 1998 keinen weiteren globalen Temperaturanstieg mehr gab, war natürlich für die Klima-Alarmisten und die Medien sehr enttäuschend und wurde weitgehend unterdrückt. Was nicht sein darf, das nicht sein kann. Das Klima hat „menschengemacht“ zu sein. Basta. Glauben ist wichtiger als die Fakten in unserer „postfaktischen Zeit“. Hinzu kamen der „Kampf gegen den Kapitalismus“ und das alte Motto „der Mensch ist schuldig von Geburt an, egal für was“. Es entwickelte sich eine Art pseudoreligiöser Wahn oder idiologische Obsession zur Rettung unseres Planeten und der „Zukunft unserer Kinder“. 

Der fundamentale Fehler, den das IPCC und einige Klimaforscher machten, war die Ignoranz der natürlichen Klimazyklen, wie sie seit Jahrtausenden und Jahrmillionen regelmäßig stattfanden – auch schon (unglaublich !!) vor Existenz der Menschheit.

Man könnte das durchaus als Bestätigung der von Albert Einstein damals definierten “ unendlichen menschlichen Dummheit” betrachten. Natürlich kann man nicht erwarten, dass bei allen Menschen etwas von der Klima-Historie der Erde bekannt ist, aber dessen Ignoranz der natürlichen Fakten durch viele (auch deutsche) Klimaforscher und das IPCC ist schon sehr seltsam.

Die ideologisch und politisch hochgespielte „Erwärmungphase“ der letzten zwei Jahrzehnte ist nichts anderes als das erneute Maximum des tausendjährigen natürlichen Klimazyklus‘ , wie er seit 9000 Jahren (nach dem Ende der letzten Eiszeit) regelmäßig alle 1000 Jahre aufgetreten ist. Nur gab es früher noch keine katastrophensüchtige Mediengesellschaft.

Das IPCC begründet seine CO2-Hypothese nicht mit Fakten, sondern mit “ confidence”, d.h. Vertrauen oder Glauben. Nur ist dies eher Religion oder Ideologie zuzuordnen als Wissenschaft. Jede Theorie muss in der Wissenschaft durch konkrete Beweise gesichert werden, sonst bleibt es eine Annahme oder Idee.

Ein globaler Temperaturanstieg bewirkt zweifellos einen Anstieg des CO2-Niveaus durch Ausgasung aus den Ozeanen (weil Wasser bei höherer Temperatur weniger CO2 gelöst haben kann). Und das geschah in der Vergangenheit mehrfach bis zu 6000 ppm (heute 400 ppm).  Nur ein umgekehrter Effekt (d.h. Temperaturanstieg durch mehr CO2) konnte auf Basis der Eiskernbohrungen in Grönland und in der Antarktis nicht beobachtet werden.

Im Gegensatz zu der Hypothese über den angeblichen CO2-Einfluss auf das Globalklima zeigt eine Analyse der Klima-Vergangenheit keine  nennenswerten Einfluss von CO2.  Auch gibt es schon seit 1998 keinen “ Klimawandel” oder globalen Temperaturanstieg mehr; stattdessen den “Stillstand oder neudeutsch “hiatus”, auch wenn mit allen Mitteln von den interessierten Kreisen versucht wird, diese Tatsache zu leugnen oder zu vertuschen.

Dr. Dietrich E. Koelle, Okt.2017

  

Kein maßgeblicher Politiker in Deutschland hat die inszenierte Klima-Hysterie erkannt und kritisiert – mit einer Ausnahme: Altkanzler Helmut Schmidt sagte dazu am 4.Juni 2007 : „Klimatischen Wandel hat es auf der Erde gegeben, seit es sie gibt. Und sich darüber aufzuregen und zu meinen, der Mensch könnte diesen Wandel durch gemeinsamen Beschluss aufhalten, das ist reine Hysterie, das ist dummes Zeug.

 

 

Klima-Paranoia

 

Das Erneuerbare-Energien-Gesetz (EEG) ist ein Musterbeispiel dafür, was geschieht, wenn inkompetente Politiker ihre realitätsfremden Träume von einer schönen neuen Energiewelt von wehrlosen Bürgern bezahlen lassen. Aus dem Wahn, das Weltklima am deutschen Wesen genesen zu lassen, werden Milliarden in hierzulande nutzlose Technologien wie die Fotovoltaik gesteckt.

 

Professor Dr.-Ing. Jürgen Althoff, früherer Vorstandsvorsitzender TÜV Saarland),

St-Wendel/Saar

WirtschaftsWoche, Nr. 52, 24. Dezember 2010

 

 

 

BMWU, UBA (mit Chefs)   14.10.

Bethke




Zu einigen Irrtümern der offiziellen Klimawissenschaft

Zunächst einmal: Wir alle haben Sinnesorgane für Wetterphänomene. Wir fühlen ob es warm oder kalt, nass oder feucht oder gar trocken ist. Wir können den Wind fühlen, oder auch ob es ein Sturm ist. Kurz, für die Wetterwahrnehmung sind wir auf beste ausgestattet, was auch unserem erfolgreichen Überleben in einer rauen, sich ständig ändernden Umwelt ein großer Vorteil ist. Der olle Darwin hatte auch hier recht: Survival oft the fittest!

Also haben alle Sinnesorgane für Wetterphänomene, doch keiner hat eines für das Klima. Damit hat uns die Natur nicht ausgestattet. Und deswegen wird fast immer Wetter mit Klima verwechselt. Was Wetter ist, weiß also jeder,. Und das erklärt auch, warum wir so bereitwillig glauben, dass die „Extremwetter“ dank des Klimawandels“ zugenommen hätten. Aber das stimmt nicht! Wir haben aber eben ein Gefühl für Wetter und glauben daher das einschätzen zu können.

Und es dürfte auch nach der offiziellen Treibhaushypothese gar nicht so sein. Denn nach dieser Hypothese erwärmen sich die polaren Gebiete stärker als die Tropen. Was bedeuten würde, dass die Temperaturunterschiede kleiner werden müssten. Die sind aber die Hauptantriebe für unser Wetter, auch für Extremwetter. Je größer, desto mehr Extremwetter. Doch da sie laut Hypothese kleiner werden sollen –würden auch die Antriebskräfte des Wetters schwächer = weniger Wetterextreme. Das weiß auch das IPCC . Denn, sowohl vom IPCC, als auch in der meteorologischen Fachliteratur ist das bis heute gültige Statement zu finden, welches sinngemäß lautet:

Es konnten keine Zunahmen in Stürmen, Hurrikanen, Extremniederschlägen, Dürren usw. aufgefunden werden, oft fand man sogar Abnahmen[1]. Die Entwarnung ist absolut eindeutig, maßgebende Veränderungen von Extremereignissen über 30 Jahre gibt es nicht, und ein Einfluss des Menschen ist schon gar nicht auffindbar.

Eine weitere Behauptung betrifft die Meeresspiegel: Richtig ist; Sie steigen seit der letzten Eiszeit an. Die Anstiegsgeschwindigkeit wird aber immer kleiner. Seit vielen Jahrhunderten liegt sie bei grob 1 bis 2 mm pro Jahr, ein zivilisatorisch völlig unkritischer Wert. Belege dafür sind viele tausend Pegelmessungen, in jüngerer Zeit auch Satellitenwerte.

Kommen wir zu den Alpen-Gletschern: In der überwiegenden Zeit der letzten 10.000 Jahre waren die Alpengletscher nachgewiesen kleiner als heute. Das erneute Schmelzen der Alpengletscher nach der langen Kaltzeit des 17./18. JH begann bereits Mitte des 19. Jahrhunderts, als es noch gar kein nennenswertes menschgemachtes CO2 gab. Die Eismassen außerhalb beider Polarzonen, dazu zählen u.a. die Alpen, umfassen im übrigen nur 2% des globalen Gesamteises. Generell gilt, auf der Nordhalbkugel wird es zur Zeit leicht wärmer, auf der Südhalbkugel dagegen leicht kälter. Daher schmilzt der grönländische Eispanzer ein wenig und das Eis am Südpol nimmt zu. Die Wissenschaft spricht von einer Klimaschaukel. Warum das CO2 sich diese merkwürdige – und der Treibhaushypothese völlig widersprechenden- Verteilung aussuchen sollte, bleibt eines der vielen ungelösten Rätsel dieser Hypothese.

All das – und das wird oft übersehen- sind jedoch übliche Wetter- und/oder Klimaphänomene. Allein ihre Existenz belegt überhaupt nicht, dass sie in irgendeiner Weise mit dem Anstieg der durch den Menschen verursachten CO2 Emission ursächlich verknüpft sind. Aber so wird es uns verkauft.

Doch was ist Klima? Klima ist ein künstlich erschaffener, nur statistisch ermittelbarer Begriff, und ist definiert als langjähriger Mittelwert lokaler Wetterdaten (also Temperatur, Niederschlag, Feuchte, Wind etc. etc etc) über mindestens 30 Jahre, besser länger z.B. 60 oder 100 Jahre. Alles andere ist Wetter, oder wenn es länger dauert, Witterung. Eine Klimaperiode umfasst per Definition der Weltorganisation für Meteorologie (WMO) also mindestens 30 Jahre. Erst nach 90 Jahren können wir z.B. drei Klimaperioden, und damit Unterschiede, beurteilen. Allein schon aus dieser von der WMO gemachten Definition lässt sich erstens ableiten, dass die Verengung des Begriffs auf ein einziges Weltklima Unsinn ist und zweitens. jeder der das Klima schützen will, dies zuerst mit seinem Wetter tun müsste. Ein offensichtlich absurder Gedanke.

Schon diese Feststellungen bedeuten, und das ist belegbar : „Climate Science is not settled. Wenn ein Obama öffentlich behauptet, dass 97 % aller Wissenschaftler im Sinne der „offiziellen“ Klimawissenschaft diese als „ settled“ ansehen, dann ist das falsch. Und sie wurde auch sofort widerlegt. Und sie bedeuten auch, dass man auf Grund unsicherer – und jeden Tag sich als mehr falsch herausstellender Prognosen – auch nicht bei verständlicher Anwendung des Vorsorgeprinzips- eine ganze Volkswirtschaft „transformieren“ darf. Das aber ist hierzulande offizielle Staatsdoktrin. Das Wort „Transformation“ kommt im Klimaschutzplan 2050 mehr als 40 x vor. Meiner Meinung nach ist das eine Fahrt ins Ungewisse mit voraussehbar bösem Ende. Und das soll im Folgenden noch ausführlicher belegt werden.

Doch abgesehen davon ist entscheidend, dass Wissenschaft kein demokratischer Prozess ist, in der die Mehrheit bestimmt, was wahr oder falsch ist. Es zählt allein der Beweis , der durch Beobachtungen und Messungen der realen Welt erbracht wird. Und dieser liegt trotz dreißigjähriger, viele Zehner-Milliarden kostende Forschung, nicht vor.

Denn, ob Sie es glauben oder nicht: In keinem der bisher 5 IPCC Berichte – in keiner der dort zitierten begutachteten Studien- und es werden dort leider nicht nur begutachteten Studien ausgewertet und zitiert, sondern auch jede Menge ideologisch gefärbter Artikel von z.B. Greenpeace, WWF oder einer ihrer unzähligen Hilfsorganisationen- ist ein solcher Beweis erbracht worden. Und es kommt noch dicker: es gibt aber weltweit tausende von fähigen und seriösen Wissenschaftlern, die genau das sagen, in begutachteten Fachartikeln auch schreiben und gut begründen, was wir soeben festgestellt haben. Sie kamen aber bislang nur selten zu Wort. Und so gut wie nie in den öffentlichen Medien und damit der öffentlichen Wahrnehmung. Das ändert sich nun gerade und nicht nur in Deutschland. Bleibt festzuhalten: Es gibt kein Signal, keinen Befund, kein Experiment, dass die Behauptung stützt, dass anthropogenes CO2 einen erkennbaren Einfluss auf unsere Lufttemperatur hätte.

Diese Behauptung stützt sich also allein auf eine Hypothese, die – über den Umweg komplizierter Computer-Klima-Modelle- den Rang eines objektiven Beweises beansprucht. Doch diese Computer-Klima-Modelle können nicht einmal die Klimavergangenheit richtig nachbilden, noch die bereits begonnene Klimazukunft. Sie liegen chronisch daneben! Die letzten 20 Jahre prognostizierten sie im Mittel um glatte 0,4 Grad zu hoch. Das ist immerhin die Hälfte der Erwärmung des vorigen Jahrhunderts!

Und sie liegen nicht nur deswegen chronisch daneben, weil Klima- als chaotisches System-sich grundsätzlich einer Prognose entzieht, wie es das IPCC in seinem 3. Bericht (TAR) selber feststellte, sondern weil sie außerdem für ihre Durchrechnung Annahmen – Parameter, Anfangsbedingungen etc.- bedürfen, die kein Wissenschaftler wirklich kennt. Man muss sich nicht mit den Feinheiten dieser komplexen, man kann sogar sagen, schwarzen Kunst, im Detail auseinandersetzen, es genügen zwei relativ einfache Fakten die erläutern, warum man zum Schluss kommen muss, dass die Klimaforschung erst ganz am Anfang steht und daher Prognosen mit dem Unterton absoluter Wahrheiten tunlichst unterlassen sollte.

Schauen wir uns dazu zunächst die sog. Weltmitteltemperatur an.

Wer erinnert sich nicht – und jüngst ging es wieder durch fast alle Medien- 2016 war das heißeste Jahr seit Beginn der Aufzeichnungen! Landauf, landab wurde uns diese Meldung um die Ohren gehauen und von den „führenden“ Klimaforschern des Landes, ehrenwerten Männern wie Mojib Latif, Hans-Joachim Schellnhuber, oder Stefan Rahmstorf – ernst nickend, sogleich dem menschgemachten Klimawandel zugeschoben.

Doch was hat es mit der „hottest temperature ever“ auf sich? Wie hoch ist sie?

Nun, sie wurde mit 14,8 ° gemeldet“ In Worten: vierzehn komma acht Grad!

Ich zumindest, und vermutlich die Mehrzahl der Leser auch, würde bei dieser Temperatur eher eine warme Jacke anziehen, so warm ist das im täglichen Leben jedenfalls doch wieder nicht, aber es ist auch nicht so warm, wenn man diese „hottest temperature ever“ mit früheren Angaben, tlw. derselben „führenden“ Klimaforscher aus den dafür zuständigen Instituten vergleicht.

Nur gut 20 Jahre früher -also 1995[2]– wurde ebenfalls lautstark, das heißeste Jahr seit Beginn der Aufzeichnungen ausgerufen! Und wieder wurde es uns landauf, landab wurde als Menetekel um die Ohren gehauen. „Führende“ Klimaforschern, durften , dies im SPIEGEL ausführlich dem menschgemachten Klimawandel anlasten – verbunden mit schrillen Warnungen vor einer schrecklichen Katastrophe, der durch sofortiges Handeln – das Kyotoprotokoll sollte unbedingt abgeschlossen werden- begegnet werden müsse.

Und wissen Sie, wie hoch die 1995 genannte Weltmitteltemperatur – hottest ever- war? Nun gut, ich verrate es Ihnen: es waren sage und schreibe 15,4 °C

Immer noch ein bisschen kühl meiner Meinung nach, aber eindeutig wärmer als die von 2016! Oder? Und zwar um 0,6 °C. Das sind immerhin ¾ der gesamten Erwärmung des vorigen Jahrhunderts von 0,8 ° und setzt daher ein gewaltiges Fragezeichen.

Die globale Maximaltemperatur ist also gesunken! Nicht gestiegen!!

Aber haben Sie darüber jemals etwas gelesen oder gehört? Hatte das irgendeinen Einfluss auf die Pariser Verhandlungen? Nein, dass hatte es nicht.

Und damit komme ich zum zweiten wichtigen Wert, der etwas über die Geschwindigkeit und das Potenzial der denkbaren Erwärmung aussagt. Denn – ohne, dass es explizit im Pariser Text erwähnt wird-, basiert die 1,5°/2° Grenze, bzw. davon abgeleitet, die Menge an CO2, die die Menschheit noch emittieren darf, auf einer einzigen Zahl: der sog. Klimasensitivität! ECS oder Equilibrium Climate Sensitivity.

Das ist die wichtigste theoretische Größe der Treibhaushypothese, die bestimmt, um wie viel Grad Celsius – oder genauer Kelvin- die Temperatur zunehmen würde, wenn das CO2 verdoppelt wird. Also von vorindustriell vermuteten 0,02 Vol. %, oder in einer anderen Maßeinheit 200 ppm (part per million), auf heute ca. 0,04 Vol. % bzw. 400 ppm. Oder zukünftig auf vielleicht 0,08 % = 800 ppm. Und die ist deshalb so extrem wichtig, weil man glaubt, damit die noch zulässige CO2 Emissionsmenge bestimmen zu können, die es uns erlaubt, eine bestimmte Temperatur-Obergrenze – z.B. das nebulöse Pariser 2 Grad Ziel nicht zu überschreiten.

Und diese Größe, bzw. die Versuche sie zu bestimmen, ist seit vielen Jahren Gegenstand intensiver weltweiter Forschung.

Das IPCC setzt für die CO2-Klimasensitivität seit Jahrzehnten den Wert von 3,2 °C an, also bei Verdopplung von z.B. 0,04 % auf 0,08 % würde die Temperatur nach der Treibhaushypothese um rd. 3 ° C von 14,8 auf rund 18,0 ° steigen, wenn wir 2016 als Basis nehmen.

Und das IPCC rechnet mit diesen 3 oder 3,2 °, obwohl es in der Summary for Policy Makers (SPM), allerdings nur in einer von fast allen überlesenen Fußnote, frei übersetzt schrieb.

„Wir können keinen aktuellen Wert für die ECS angeben, weil wir uns nicht auf einen gemeinsamen Wert verständigen konnten!“

Der Grund für dieses versteckte Eingeständnis ist, dass sich dieser Wert in den wiss. Publikationen im freien Fall befindet. Von ehemals 3 ° über 2 ° dann 1 ° jetzt auf 0,3 -also eine ganze Größenordnung geringer. Eine echte Dezimierung.

Sie ahnen vielleicht nicht so richtig, was das bedeutet?

Selbst wenn wir alle vorhandenen fossilen Brennstoffe aufspüren, fördern und verbrennen würden, ist eine Verdopplung der gegenwärtigen CO2 Konzentration unrealistisch hoch. Und jede Absenkung dieses ECS-Wertes – und wie gesagt, er ist derzeit nahezu ein Zehntel des bisherigen- lässt die Gefahr einer Klimakatastrophe rapide verschwinden. Sie wird zum NoProblem!!!

Deshalb, so meine ich, haben wir allen Grund, an der Behauptung vom menschgemachten Klimawandel zu zweifeln. Wir sollten, nein wir müssen daher die hochriskante Therapie der Dekarbonisierung für die an der Menschheit erkrankten Erde sofort absetzen, weil deren Basis, die CO2-Hypothese nicht nur hochumstritten bleibt, sondern jeden Tag auf Neue ad absurdum geführt wird.

Was aber unbestritten gilt ist: Das Spurengas Kohlenstoffdioxid (CO2) ist kein Schadstoff, sondern eine unverzichtbare Voraussetzung für alles Leben. Es ist der beste Dünger für Pflanzen und sorgt dafür, dass die Erde in den vergangenen jahrzehnten deutlich grüner wurden. Die Welternährung wurde spürbar besser.

Wir sollten uns der beabsichtigten nationalen wie weltweiten Dekarbonisierung auch deshalb verweigern, weil sie weder geo- noch sozialpolitisch- denkbar ist und Deutschlands Anteil an einer Weltklimarettung – so oder so- mikroskopisch und damit vernachlässigbar klein bleiben wird.

 

Hier noch ein paar Meinungen und Motive der führenden Personen der Politik & offiziellen Klimawissenschaft.

[1] Wörtlich lautet es in der Zusammenfassung des IPCC von 2013 im AR5, WGI, Kapitel 2.6 auf Seite 219 in dem bekannt verklausuliertem IPCC-Originalton “There is limited evidence of changes in extremes associated with other climate variables since the mid-20th century.”

[2] Eigentlich schon seit 1988 von James Hansen! Quelle http://iridl.ldeo.columbia.edu/SOURCES/.Indices/.HANSEN/.Global/figviewer.html?plottype=oneline&variable=Annual+.Temperature, und dann immer wieder bis 1995. Siehe z.B. auch Schönwiese „Klima im Wandel“ 1992 Seite 73 Liste der Quellen hier https://www.klimamanifest-von-heiligenroth.de/wp/wp-content/uploads/2016/06/Bundesregierung_Klimaschutz_hat_Prioritaet_20150226_DerWahreGrund_Stand20150623_15_5Grad.pdf




Maischberger fragt: Kippt unser Klima? Antwort: Nein – wohl aber die Kompetenz der meisten Talkgäste?

Die Talkrunde (hier kann sie bis zum 10.10,2018 nochmals angesehen werden) begann so:

Jörg Kachelmann, ist beim Wetter von nichts mehr überrascht!

Der „bekannteste Kimaforscher Deutschlands“ Prof. H.J. Schellnhuber sieht die Sahara bereits bis nach Europa vordringen.

Der Wissenschaftsjournalist Alex Reichmuth, studierter Mathematiker und Physiker und bekennender „Klimaleugner“ sieht die versuchte Bekämpfung des Klimawandels als viel gefährlicher an, als die Folgen desselben. Radikale Klimaabkommen bewirken Hungersnöte und den Zusammenbruch der Energieversorgung

Bärbel Höhn – inzwischen Öko-Oma der Grünen- tadelt die Klima-Bilanz der großen Koalition und deren Chefin – Angela Merkel- gleich mit. Sie hätte für den Klimaschutz Null erreicht. Eine neue Regierung müsse sofort alle „alten“ Kohlekraftwerke abschalten.

Dorothee Bär CSU Staatsekretärin im Verkehrsministerium findet im Prinzip alles richtig nur dürften die Maßnahmen nicht zu Lasten der Bürger dieses Landes gehen.

Mit dieser illustren Truppe ging die Moderatorin Sandra Maischberger die drückende Frage an: Xavier und die Wetterextreme: Kippt unser Klima?

 

Video der Maischbergersendung vom 11.10.17 in voller Länge. Mit Dank an Maischberger TV

Nun, ohne den munteren Inhalt dieser Talkshow vorwegnehmen zu wollen, diese hochwichtige Doppel- Frage – wurde je nach Couleur der Befragten – mit ja und auch mit nein beantwortet. Obwohl öfter mal sowohl Kachelmann wie auch Schellnhuber darauf hinwiesen, dass Klima und Wetter zwei paar Schuhe sind und tunlichst nicht miteinander vermengt werden sollten, hielt sich kaum einer der Anwesenden daran, die Mahner eingeschlossen, und taten genau das und immer wieder. Fröhlich angeregt durch manche Einspieler Maischbergers, die jedes Wetterextrem der letzten Jahre dem Klimawandel andichtete.

Es wäre journalistische Schwerstarbeit auch nur die gröbsten Schnitzer vieler Beteiligter hier im Detail aufzulisten, deswegen beschränke ich mich hier auf einige „Lowlights“ , die, wie sollte es anders sein, insbesondere vom größten Klimaforscher alle Zeiten (GröKaZ?) H. J. Schellnhuber, und seiner politischen Erfüllungsgehilfin Bärbel Höhn zum Besten gegeben wurden.

Schellnhuber gestand, als es um den Vorschlag Stockholmer „Klimaforscher“ ging, zur Rettung des Weltklimas u.a den Individualverkehr mit samt dem Fliegen einzustellen, dass er leider und offensichtlich widerwillig mit dem Flugzeug nach Köln anreisen musste, weil er ja zuvor noch in Potsdam seine eigene Konferenz zu leiten hatte. Bei der ging es ebenfalls um die Weltrettung.

Allein deswegen, so mein Eindruck, müssten wir Zuschauer ihm doch dankbar sein, und ihm auch das Flugzeugnehmenmüssen verzeihen! Tun wir! Wer so Großes leistet sollte nicht an kleinliche Vorgaben gebunden werden.

Das alles beflügelte den Professor dann noch so einiges an Katastrophen auf die Zuschauer loszulassen, die, hoch genau berechnet, uns Erdenbürger ereilen, wenn die Erwärmung ungebremst z.B. 5 ° C erreichte. Dann, so die schnelle und ausführliche Antwort – und das wäre keineswegs ausgeschlossen- würde der Meeresspiegel- und alle nickten verständig, denn jeder glaubt zu wissen was das ist (wer das nicht so genau weiß, kann ja hier und hier mal nachschauen)- doch um sage und schreibe 60 bis 70 m ansteigen. Das schöne Florida zum Beispiel würde in den Fluten versinken. Auf die trockene Frage von Alex Reichmuth, wann das denn eintreten würde, sagte der GröKaZ nur: Bis zum Jahr 3000.

Also in 1000 Jahren kommentierte Reichmuth ungerührt, .. und sie glauben Sie könnten das berechnen?“ Das sei doch nur einfache Physik warf der Professor ein und schob nach … „aber um 1 m bis zum Ende des Jahrhunderts“. Doch da waren die Anwesenden schon beim nächsten Thema und niemand fürchtete sich mehr über die 1 m. Bemerkenswert nur, dass niemand der Anwesenden sich dazu äußerte, bzw. an den Kopf fasst und „Herr lass Hirn regnen“ erbat, wie jemand der sich Wissenschaftler nennt, „genau berechnen“ kann wie hoch der Meeresspiegel in tausend Jahren sein würde.

Von ähnlicher Qualität war die Behauptung des Professors aus Potsdam, dass „die Wissenschaft“ mit 99,999 % Wahrscheinlichkeit berechnet hätte, dass der Mensch zu 60 % zum „Klimawandel“ (gemeint ist die leichte Erwärmung des vergangenen Jahrhunderts um ca. 0,8 K, wenn man den vielfach manipulierten Berechnungen des GISS, der NOAA und des Hadley Centers weiterhin Glauben schenken möchte) beigetragen hätte. Es lag wohl an der mangelnden Kompetenz so mancher Teilnehmer, vielleicht auch am Druck den die Moderatorin machte, um ihre vorbereiteten Einspieler abarbeiten zu können, dass niemand den Professor fragte, wie denn „die Wissenschaft“ zu dieser Präzisionsaussage gekommen sei. Falls er wahrheitsgemäß geantwortet hätte, wäre herausgekommen, dass er Modelle meinte, die, eigens für diesen Zweck gemacht, nachwiesen, dass die anthropogenen Treibhausgase – mit Riesenvorsprung das CO2- der Hauptantrieb der Erwärmung seien. Das zeigen 99,999 % der Modellläufe. Doch der alleinige Grund ist nicht das CO2, sondern die Konstruktion der Modelle als virtuellem Beweisersatz– die können gar nicht anders!

Denn wenn man das CO2 als Hauptantrieb einbaut, wird das Weglassen dieses Antriebs automatisch eine geringere bis zu gar keiner Erwärmung führen müssen. Das ist exakt dasselbe, als wenn man ein Auto mit Benzinmotor baut, um zu beweisen, dass Autos generell nur mit Benzin betrieben werden können. Füllt man Benzin in den Tank, dann läuft der Motor, das Auto fährt. Lässt man das Benzin weg, oder ersetzt es durch Diesel, Gas, Wasserstoff o.ä. dann bleibt der Motor stehen und das Auto fährt nicht mehr. Und die Wahrscheinlichkeit dafür liegt sogar bei 100 %.

Von ähnlicher – auch trickreicher- Qualität der Ausnutzung der Unwissenheit seiner meisten Zuschauer, gepaart mit tiefer Gläubigkeit an die Kompetenz des „bekanntesten Klimaforschers Deutschlands“ (ein Titel, der ihm unzweifelhaft gebührt, aber ein sehr schlechtes Licht auf alle anderen in diese Kohorte wirft) – sind die anderen „genauen“ Berechnungen diese Professors, die er bei jeder sich bietenden Gelegenheit seinen beeindruckten Zuschauern an den Kopf wirft. Das Team vom Klimamanifest von Heiligenroth hat hier einige dieser Stilblüten zusammen gestellt. Da spielte es auch keine große Rolle mehr, dass er später behauptete, dass eine Dunkelflaute in Deutschland durch große Batterien verhindert werden, wie sie EON zur Zeit baue. Es sind ja nur im Mittel 1,64 TWh, die Deutschland derzeit täglich benötige. Dafür würden immerhin schon 16,4 Millionen Superbatterien a 100 kWh der Teslaklasse ausreichen. Das sagte er allerdings nicht.

Kümmern wir uns noch ein wenig um die anderen Teilnehmer. Kachelmann hält mit überzeugenden Argumenten den Sturm Xavier für Wetter, wie alle anderen aufgezählten extremen Wetterphänomene auch. Ein Bezug zum Klimawandel, gar zum menschgemachten, sieht er nicht. Glaubt aber trotzdem daran, dass – weil er einen dreijährigen Sohn hat, und bezieht auf Nachfrage den zehnjährigen Sohn der Moderatorin mit ein- dass die Regierung , und schaut zu den beiden zukünftigen Regierungsmitgliedern oder –macherinnen hinüber, unbedingt etwas gegen den Klimawandel machen müsse.

Eine davon, das grüne Urgestein Bärbel Höhn, hatte zuvor – wenn auch unfreiwillig- im Drang die Schließung zunächst „alter“, dann aller Kohlekraftwerke, auch als sozial berechtigt darzustellen, ein klassisches Eigentor geschossen. Weil ja – so Höhn- immerhin 370.000 Arbeitsplätze bei den „Erneuerbaren“ schon für 35 % des Stroms hierzulande sorgen würden, während nur 20.000 Arbeitsplätze bei den Kohleverstromern, allerdings 40 % des Stroms erzeugten. Sie wollte verdeutlichen, dass die Arbeitsplätze der Erneuerbaren doch um soviel wertvoller, weil zahlreicher seien, als die wenigen 20.000 Arbeitsplätze bei den Kohleverstromern, die nun leider, leider – was soll man machen- wegfallen müssten. Abgesehen von der auch nicht unwesentlichen Tatsache, dass beide Zahlen von den Arbeitsplätzen falsch sind, zeigte sie damit auf, dass die Erzeugung von Kohlestrom um fast den Faktor 20 x produktiver ist (370.000: 20.000), als die von Zappelstrom.

Und wenn man dann noch weiß, dass die Vergütung für den Erzeuger einer kWh für Kohlestrom nur ca. 3 – 4 Cent beträgt, während für Zappelstrom im Mittel 16 Cent/kWh bezahlt werden müssen, dann muss jedem klar werden, dass die bereits heute irrsinnig hohe Zweitkapazität an Zappelstromerzeugung nichts weiter als ein ausschließlich ideologisch begründeter aber extrem teurer Irrweg ist. Doch leider wurde auch dieses Eigentor nicht zum Thema, sondern ging im Getümmel der lebhaften Aussprache unter. Ebenso wie der zaghafte Hinweis der Staatssekretärin im Verkehrsministerium Dorothee Bär, die zwar alles gut und richtig fand, was der Professor und ihre vielleicht zukünftige Koalitionärin zum Klimawandel so sagten, und auch fest zum Pariser Abkommen steht, wie sie sagte, aber all dies nur machen wollte, wenn es nicht zu Lasten der Menschen gehen würde. Wie das gehen sollte, sagte sie allerdings nicht. Jedenfalls, so warf sie schüchtern ein, stünde ja Deutschland nur für 2 % der weltweiten Emissionen. Und damit – wollte sie wohl sagen- im weltweiten Ringen um den „Klimaschutz“ völlig unbedeutend. Und, hätte sie ergänzen müssen, auch wenn Deutschland komplett auf seine CO2 Emissionen verzichtete – im Vorgriff auf die Forderungen der Stockholmer „Wissenschaftler“ die auch noch die Einkind-Politik á la Mao dem Westen empfahlen- dann China und Indien zusammen diese Menge in wenigen Monaten zusätzlich in die Atmosphäre bliesen. Also total irrelevant ist, was wir hier machen oder nicht machen. Aber auch dieser schüchterne Einwand mit dem Ziel doch wieder etwa mehr Vernunft walten zu lassen, ging unkommentiert unter.

So bleibt nur noch das Schlusswort von Alex Reichmuth erwähnenswert, der tapfer gegen den Mainstream schwimmend allen sagen durfte, dass er jeglichen Versuch der Menschheit das Klima der Welt zu ändern für Hybris halte, allerdings gepaart mit einem entsetzliche Verlust an Wohlstand bzw. die Aussicht darauf. „Man würde hunderte Millionen Menschen zurückbringen ins tiefste Mittelalter, es gäbe Hungersnöte“ Wohl wahr! Freunde in der Runde hat er sich aber damit nicht gemacht.

 




Wohin fährt das Auto? Teil 1 Mobilität: Das letzte Gefecht?

 Es rappelt im Automobilsektor: Politik und NGOs nehmen den Diesel immer mehr unter Beschuss, die Autoindustrie macht ihren Kunden Geschenke, und in den kommenden Jahren wollen die Autohersteller neue Elektroauto-Modelle zu Dutzenden auf den Markt werfen. Bisher allerdings wollte kaum jemand die schönen Elektromobile kaufen. Jetzt hat die Politik gesagt: Wir wollen Elektro-Mobilität auf unseren Straßen.

Doch für Autohersteller gestaltet es sich schwierig, die betriebswirtschaftliche Seite der Elektroauto-Produktion sinnvoll zu gestalten, wenn keiner die Autos kauft. Denn bisher deutet nichts daraufhin, dass sich die Autokäufer so entscheiden, wie das eine ehemalige Umweltministerin, eine Bundeskanzlerin und ein Haufen grüner Ideologen in Ministerien wollen. Wer im Dienstwagen sitzt, unterschätzt chronisch die Bedeutung der Freiheit der Mobilität für die allermeisten Bürger.

In Zukunft sollen wir überhaupt nicht mehr selbst Auto fahren. Das Auto fährt uns, und die Autohersteller bereiten uns damit ein Geschenk: »Wir schenken jedem von uns 38.000 Stunden, die wir heute im Auto über unser gesamtes Leben verbringen. Man kann lesen, lernen, Spiele spielen, mit der Familie reden. Sehr gute Sache!«

Noch nie stand das althergebrachte Automobil so unter Beschuss wie jetzt. Die Grünen würden es lieber heute als morgen abschaffen. Doch was dann? Zuhause bleiben? Nur sie selbst und NGO-Chefs sollen frei fahren dürfen.

Das bewährte Prinzip des Autoantriebes steht auf dem Prüfstand, der Motor, also das Herz aller Verbrennungskraftmaschinen, das Maschinen, Autos, Flugzeuge, Schiffe und Generatoren antreibt – kurz die universelle Maschine, die Pferd und Ochse abgelöst hat und dem Menschen eine neue gewaltige Quelle für die Krafterzeugung gab und die Mobilität. Die war zudem immer verfügbar im Gegensatz zu den trügerischen Kraftquellen Wasser- und Windkraft.

Mit Hilfe des Verbrennungsmotors wurde es möglich, schnell weite Strecken zu überwinden und schwere Lasten rund um die Welt zu transportieren und sogar zu fliegen. Und  – ja – dabei entstehen auch Abgase. Das geschieht bei jeder Verbrennung. Umsonst, also ohne Nebenwirkungen, gibt es nichts.

Diese Maschine also, die seit 120 Jahren erfolgreich den Menschen unterstützt, soll jetzt weg – zumindest in Deutschland. Ihr stürmt ein politischer Gegenwind entgegen so heftig wie noch nie. Die Autoindustrie kennt zwar Krisen. Vor 35 Jahren sahen sich die Autohersteller ihrer bis dahin schwersten Krise gegenüber, die Produktion brach ein, die Unternehmensbilanzen sanken ins Dunkelrote, zu Tausenden wurden Mitarbeiter entlassen. Solche Krisen aber waren der Konjunktur geschuldet. Die erholte sich wieder, Autohersteller reagierten mit Verbesserung der Produktion, bauten Roboter in die Fabriken und schafften mit neuen Produkten den Wiederaufstieg.Doch jetzt weht ein politischer Gegenwind, dem die Autohersteller nicht mit technischen und organisatorischen Verbesserungen entkommen können. Das komplette Modell »Auto« steht scheinbar zur Disposition. Es soll verschwinden ebenso wie die individuelle Mobilität. »Ein Volk ohne Wagen«, wie ein Buchtitel eines Professors für „Social Sciences“ lautet, soll sich nur noch nach Planvorgaben für die Mobilität und irgendwann nur mit Sondererlaubnis fortbewegen dürfen. Weniger Autos schaden weder Bürger noch der Autoindustrie – so die Schlagworte. Das allerdings haben die Autonutzer über 100 Jahre in aller Welt bisher anders gesehen.

Begonnen hatte der Siegeszug der Automobilisierung in einer Garage in Stuttgart Bad Cannstatt. Dort hatte Gottlieb Daimler 1885 den ersten Motorwagen gebaut – zehn Jahre zuvor hatte Nikolaus Otto seinen Viertaktmotor zum Laufen gebracht und damit die Grundlage für die Motorisierung gelegt. Er war aber nur einer von vielen Erfindern, die gleichzeitig an Gaskraftmaschinen arbeiteten. Das Prinzip Verbrennungsmotor lag seinerzeit gewissermaßen in der Luft. Doch sein Sieg stand nicht von vornherein fest. Denn die ersten Automobile wurden elektrisch angetrieben.
Das war bequem: Strom geben und losrollen. Die Apparate der Herren Daimler und Kollegen dagegen waren mechanisch anfällige Maschinen, kompliziert zu bedienen und laut.Der erste Porsche war ein Elektroauto. Ferdinand Porsche baute einen großen Bleiakku in einen Kutschenwagen, dazu in die Radnaben Elektromotoren. Die ersten Kunden waren begeistert: Dieser kräftige Antrieb verursachte keinen Lärm, keinen Dreck, ein beschwerliches Anlassen mit einer Handkurbel und teilweise gebrochenen Fingern wie bei den frühen Benzinautos war unnötig. Die waren noch unzuverlässig; das Benzin dafür musste in kleinen Fläschchen aus der Apotheke geholt werden.

Doch die Elektrowagenlenker beschwerten sich rasch: Zu geringe Reichweite! Nach nur 50 km war die Batterie leer. Ferdinand Porsche vergrößerte die Bleibatterie und baute eine Batterie mit dem sagenhaften Gewicht von zwei Tonnen ein. Doch auch die reichte immer noch nicht aus, deshalb fügte Porsche einen kleinen Benzinmotor dazu, der einen Stromgenerator antrieb, der wiederum die Batterie laden sollte. Der erste Hybridmotor. Doch zwei Antriebe in einem Auto bedeuten einen hohen technischen Aufwand mit entsprechenden Kosten und Fehlerquellen. Durchgesetzt hat er sich nicht.

Der Grund ist einfach: Benzin hat einen viel höheren Gehalt an Energie als eine Batterie. Die Energiedichte ist deutlich höher – mit entscheidenden Auswirkungen auf die Reichweite: ein Benzinauto kommt heute mit 60, 70 l Benzin rund 1.000 km weit, das Elektroauto mit einem Akku von rund 100 kWh Kapazität macht dagegen maximal 350 bis 400 km. Im Winter werden deutlich weniger Kilometer erreicht, denn die Temperatur hat einen erheblichen Einfluss darauf, wie viel elektrische Energie eine Batterie speichern kann.

Bei minus sieben Grad hat eine Batterie nur noch die Hälfte ihrer Kapazität. Zudem will man es im Winter im Innenraum warm haben, daher muss zusätzlich auch noch Strom für die Heizung des Innenraumes abgezweigt werden. Das Auto verliert weiter an Reichweite. Beim Verbrennungsmotor gibt es diese Wärme gratis dazu, denn die Abwärme des Motors heizt den Innenraum.

Die Autobauer können nichts anderes tun, als noch mehr Akkus in ihre Elektroautos zu packen, um die Reichweite zu erhöhen. Das bedeutet deutlich mehr Gewicht; man sollte eigentlich besser »rollende Batterie« dazu sagen. Auch heute ist noch keine Lösung für Akkumulatoren mit deutlich höherem Energiegehalt in Sicht – trotz großer Anstrengungen der Forschung. Es ist wie bei der Kuh: Auch mit modernen computergesteuerten Melkmaschinen kann der Bauer nicht mehr Milch herausholen, als im Euter drin ist.Das Wundermittel Benzin und Diesel als kraftvolle und gut transportierbare Energiequelle erst versetzte Autokonstrukteure in die Lage, eine sehr breite Palette an völlig verschiedenen Modellen auf die Beine zu stellen. In den rasanten Jahren des technischen Aufschwunges erprobten viele kleine Hersteller die unterschiedlichsten Konstruktionskonzepte.

Eine lange Entwicklung hat das Automobil hinter sich, in der sich die technisch besten Lösungen durchsetzten – und die für die persönliche, freie Mobilität. Darunter ist auch der Motor des Rudolf Diesel. Der befasste sich vor 120 Jahren mit Kältemaschinen, also auch mit Kompression und kam auf einen genialen Gedanken, wie der Kraftstoff besser ausgenutzt werden kann.

Doch sein Motor ist heute ins Schussfeld geraten. Das ist zwar der effektivste Motor, den wir haben. Er geht mit dem Kraftstoff besonders sparsam um und ist deshalb beliebt. Heute haben ihn die Autoingenieure so sauber bekommen, dass hinten aus dem Auspuff kein Feinstaub und nur noch sehr wenige Stickoxide herauskommen. Dennoch soll er weg, weil er angeblich zu unfreundlich gegenüber der Umwelt ist.
Wie funktioniert denn die Reinigung der Abgase genau und was bedeutet das für die Schadstoffklassen? Antworten in der ersten Folge einer dreiteiligen Filmserie über Motoren, Maschinen, ungebändigte Kraft – und der Zukunft.

Übernommen von Tichys Einblick




Deutschland auf der Geisterbahn der Angst

Insbesondere durch Opfer wurde das Volk dazu gebracht, die höheren Wesen gnädig zu stimmen. Die häufig erfolgende Bestrafung der Sünder äußerte sich in Katastrophen verschiedenster Art: Seuchen, Missernten, Sintfluten , Erdbeben oder auch das längere Ausbleiben von Regen und andere schmerzliche Ereignisse, die den Menschen ihre Machtlosigkeit gegen die Götter vor Augen führte.
Die christlichen Religionen hatten für diesen Zweck die Hölle eingeführt. Während die Evangelischen kaum Chancen haben, angesichts ihrer Sünden der Hölle zu entkommen, hat die katholische Kirche ein kluges System etabliert, mit dem sich die Sünder freikaufen können: Im Mittelalter buchstäblich mit Geld (der von Martin Luther bekämpfte Ablasshandel), heute mit dem Absolvieren bestimmter Rituale (Wallfahrten, Rosenkränze beten etc.).

Im Grunde hat sich auch in unseren angeblich aufgeklärten Zeiten nicht viel an dieser Methode der Kontrolle und Steuerung einer Bevölkerung geändert, denn die Benutzung von Angst zur Erreichung politischer Ziele war und ist unübertroffen wirksam. Die Priesterschaft vergangener Zeiten ist heute durch eine enge Arbeitsgemeinschaft von Regierenden und Medien ersetzt worden; (Anmerkung der Redaktion: „Die Wissenschaftler“ nicht zu vergessen, deren Autorität von den Regierenden und Medien genutzt werden, um ihre Behauptungen udn Forderungen unangreifbar zu machen, die aber auch oft selber in einer Doppelrolle: Verkünder der letzten Weisheit und politischer Vollstrecker – Beispiel unter vielen H.J. Schellnhuber & Cie- diese Rolle übernehmen) die Götter haben zumindest in unserem Lande nicht mehr viel zu melden, aber die Dämonen sind geblieben. An die Stelle der Götter sind flexibel nutzbare Begriffswolken wie Umwelt, Klima und Natur getreten; seltener die Mutter Erde persönlich in Gestalt von Gaia.
Was aber im Vergleich zum Mittelalter sehr viel stärker in der Angstpolitik genutzt wird, ist der Ablasshandel. Er hat viele Erscheinungsformen:

– Bioprodukte kaufen,
– Ökostrom nutzen,
– vorbildliche Mülltrennung,
– Photovoltaik-Paneele auf dem Dach,
– Elektroauto oder Hybridauto fahren,
– Jute-Tragetaschen,
– Fair-Trade-Artikel kaufen;

das sind nur einige Beispiele für Handlungsweisen, die ein sog. Gutmensch praktizieren muss, damit er als solcher von Seinesgleichen auch anerkannt wird. An die Stelle der Hölle ist die Ächtung durch die Medien, also die angebliche Öffentlichkeit, getreten; was nach dem Tode folgt, spielt keine Rolle mehr. Dieses System hat den Vorteil, dass die Strafe für Ungläubige und Ketzer bereits im Diesseits und nicht mehr im dubiosen Jenseits erfolgt. Auch muss man sich nicht mehr Sonntags in eine Kirche bemühen, um vom Dorfpfarrer zusammengestaucht zu werden. Das erledigen die täglich präsenten Medien mit Schreckensnachrichten aus aller Welt, mit den haaresträubenden Berichten und nicht sofort nachprüfbaren Prophezeiungen angeblicher Wissenschaftler sowie den mahnenden Ansprachen von Politikern, die ihrerseits das von den Medien vorsortierte und von Kritik gesäuberte Faktenmaterial als ihre Meinung vortragen.

Damit auch die Ungläubigen, die den Ablasshandel boykottieren, in das Ablass-System einzahlen müssen, gibt es spezielle Steuern, Abgaben und Umlagen, durch die sie als Sünder gegen die Umwelt bestraft werden, wodurch auch gleichzeitig der Finanzminister profitiert. Wie man die Gutmenschen davon verschont, ist noch nicht geklärt; schließlich braucht der Finanzminister auch deren Geld.
.
Weil sich die Natur des Menschen im Laufe der kurzen Zeitspanne seiner Existenz in keiner Weise verändert hat, gehört auch heute zum politischen System der Angstmacherei immer das Verdienen von Geld in großem Stil. Die Profiteure der Angst stellen sich rasch auf diese mit Subventionen gefüllten Rendite-Goldgruben ein und stellen eine die Politik stützende Lobby dar. Zum Beispiel mit der Produktion von politisch begünstigten Anlagen, die normalerweise niemand kaufen und installieren würde – gigantische Windräder, deren „Zappelstrom“ völlig unbrauchbar ist oder Photovoltaik-Paneele auf dem Dach, die nachts und bei schlechtem Wetter funktionslos vor sich hingammeln – aber bei den Nachbarn Eindruck machen.

Die sogenannte Energiewende und der ebenfalls sogenannte Klimaschutz – verstärkt durch den Kernkraft-Ausstieg – haben speziell in Deutschland einen quasi-religiösen Charakter erhalten. Kritik durch Fachleute gab es von Anfang an, aber im Parlament, wo angeblich nur ihrem Gewissen verpflichtete Abgeordnete sitzen, gab es bis heute keine vernehmliche kritische Stimme – von keiner einzigen Partei.

Die insbesondere durch die Umwelt- und Energiepolitik zwangsläufig und unvermeidbar entstandenen riesenhaften Probleme sind bereits in zahlreichen klugen Artikeln beschrieben worden. Die liest nur leider nicht jeder.
Dass die Gesetze der Physik die Todfeinde der Energiewende sind, ist zum Beispiel in einem Artikel vor nicht allzu langer Zeit dargestellt worden. Diese Tatsache hätte zwar den Politikern und insbesondere den Ministerialbeamten rechtzeitig zu denken geben müssen, aber wenn man von der Physik keine Ahnung hat, dann gibt es auch keine Bedenken,

Die Ahnungslosigkeit in Bezug auf die Physik betrifft auch die Mehrheit der Bevölkerung, was an der vor allem in den westlichen Bundesländern jahrelang und bis heute miserablen Schulausbildung liegt. Ausnahmen sind Bayern und die Ost-Länder; letztere hatten in DDR-Zeiten eine wirklich gute Schulausbildung in den naturwissenschaftlichen Fächern – was auch dafür der Grund sein mag, dass sich die „Ossis“ deutlich weniger von fragwürdigen Weltuntergangstheorien wie die angebliche Klimakatastrophe oder von pseudotechnologischen Heilslehren wie die Segnungen durch „erneuerbare Energien“ beeindrucken lassen. Außerdem haben sie gelernt, in einer manipulierten Presse zwischen den Zeilen zu lesen, was ihnen heute angesichts einer abermals regierungsfrommen, nun aber links-grün ausgerichteten Presse nach wie vor zu Gute kommt.

Ein beeindruckendes Beispiel für die nach DDR-Muster erzeugte typische Jubel-Staatspropaganda bot der im Januar 2017 von der Bundesregierung (BMWi) veröffentlichte Bericht „Die Energiewende: unsere Erfolgsgeschichte“. Er ist wie folgt in Abschnitte gegliedert:

– Nachhaltig und sicher
– Bezahlbar und planbar
– Verlässlich und intelligent
– Effizient
– Wettbewerbsfähig

– Weltweit wegweisend (!).

In Anbetracht der Tatsachen ist dieser Bericht unbeabsichtigt eine grausame Parodie; er zeigt aber auch eine klare Verachtung der Bürger, denen damit eine kaum fassbare Konzentration von geradezu devoter Schönfärberei, Faktenunterdrückung, Verdrehungen und nicht zuletzt peinlichem Größenwahn („weltweit wegweisend“) zugemutet wird.
Dennoch ist dieser Bericht wertvoll. Er beschreibt das Niveau einer Regierung und erinnert an die legendäre Pressekonferenz des irakischen Propagandaministers, Journalistenbezeichnung „Chemical Ali“, der frohgemut Siegesmeldungen in die TV-Kamera verkündete, während man durch sein Bürofenster im Hintergrund bereits US-Panzer sehen konnte.

Es gibt eine Menge Leute, die genau wissen, dass die Energiewende von Frau Merkel unweigerlich auf ein Scheitern hinläuft. Es gibt über 1000 Bürgerinitiativen, die gegen Windparks, gegen die Zerstörung von Waldgebieten und gegen neue Stromtrassen kämpfen. Aber es gibt eine offenbar deutlich größere Anzahl von Bürgern, die mangels Wissen, aus Desinteresse und wohl auch, weil die Kosten noch nicht schmerzhaft genug sind, Merkels staatliche Umwandlungspläne kritiklos hinnehmen.

Aber es gibt ein noch weitaus stärkeres Motiv für die Zurückhaltung: Es ist die Angst.

Die Angst ist seit Menschengedenken ein probates Mittel, um die Untertanen von ketzerischen Gedanken oder gar Widerstand abzuhalten. Und Angst ist auch heute noch aus den gleichen Gründen ein Mittel der Politik. Gelingt es erst einmal, in großem Ausmaß Angst zu erzeugen, dann kann man sogar sehr fragwürdige politische Entscheidungen durchsetzen, die in einer funktionierenden Demokratie sofort blockiert und unterbunden worden wären.

Ohne das Erzeugen von Ängsten wäre die Energiewende mit dem Ziel eines radikalen Umbaus großer Teile der Wirtschaft nicht möglich. Als sie beschlossen wurde, war so ziemlich allen fachkundigen Menschen in der Industrie und in der Wissenschaft klar, was das für ein Unsinn war. Man sollte annehmen, dass sich sofort ein Sturm der Entrüstung erhob, der die Regierung hinwegfegte. Aber so war es nicht. Aus der Industrie kam fast kein Protest; von den Verbänden überhaupt keiner. Auch die Wissenschaft verhielt sich sehr ruhig.
Bei näherem Hinsehen zeigte sich, dass mehrere Varianten von Angst am Werk waren: Bei der Industrie eine Mischung von kritikloser Politikfrömmelei („Es ist schließlich von der Regierung so beschlossen und die werden es schon richtig machen“) , verbunden mit der Erwartung von Subventionen, falls es schief zu gehen drohte, womit man wohl rechnete. Außerdem versprach die vorübergehende Eröffnung eines durch Planwirtschaft gesteuerten „Marktes“ für politisch erwünschte Produkte und Anlagen gute Renditen – wenn auch nur auf Zeit.

Bei den gänzlich unpolitischen Natur- und Ingenieurwissenschaften war die Angst vor der Abkoppelung vom warmen Regen der Fördergelder ausschlaggebend, für deren Bewilligung man jede kritische Anwendung physikalischer Gesetze und damit auch jede Scham fallen lassen musste.
In beiden Fällen war es also die Furcht vor dem Verlust von Geld.

Eine besondere Rolle kam der sogenannten öffentlichen Meinung zu. So werden hier Presse und Fernsehen bezeichnet, aber es liegt eine massive Täuschung darin. Mehrere Recherchen ergaben, dass in den zugehörigen Redaktionen zu ca. 70 Prozent parteipolitisch festgelegte Personen saßen, die sich selbst als Anhänger der Grünen und der SPD bezeichneten. Diese Personen interpretierten ihre Arbeit als legitime Unterstützung ihrer Partei, wozu politisch missliebige, wenn auch wichtige und zutreffende Informationen unterdrückt werden mussten. Im Fernsehen fielen diese Manipulationen deutlicher auf, weil ständig die gleichen „Experten“ zu den Interviews und Talkrunden eingeladen wurden. So gibt es in Deutschland genau eine einzige Energieexpertin und zwei Klimafachleute – Sie kennen die zur Genüge (Anmerkung der Redaktion: Genau genommen gibt es 2 1/2 hier einer davon). Kritiker werden fern gehalten, was kontroverse Debatten vermeiden hilft und vor allem die Verbreitung ihrer Argumente in der Öffentlichkeit verhindert.

Diese Selbstzensur der Redaktionen erzeugte eine rot-grüne Medienmacht, die zwar mit einer öffentlichen Meinung nur noch wenig zu tun hatte, die aber von der Politik zunehmend gefürchtet wird.
In Ostdeutschland, wo man über 40 Jahre von den Medien systematisch belogen wurde, hat man wesentlich empfindlichere Antennen für Manipulationen und Falschmeldungen, was die dortige harte Kritik an den Medien erklärt.

Die Methode der gezielten Informationsunterdrückung verliert allerdings stetig an Kraft, weil das politisch unkontrollierbare Internet – man ist ja (noch) nicht in China – speziell unter den Jüngeren immer mehr zur einzig genutzten Informationsquelle wird.
                                  

Die Angstthemen der Regierung

 

Die Angst vor dem Weltuntergang durch menschengemachte CO2-Emissionen.

In der Naturwissenschaft gilt ein unumstößliches Gesetz: Jede Theorie ist nur dann richtig, wenn sie durch ein überzeugendes Experiment bewiesen wird. Und über dieses Experiment muss vollständig berichtet werden, um anderen Forschern die Möglichkeit zu geben, das Experiment zu wiederholen und dessen Ergebnisse mit der vorgestellten Theorie zu vergleichen. Erst wenn das erfolgreich geschehen ist, gehört die Theorie zur wissenschaftlichen Erkenntnis.

Einen derartigen Beweis für die Theorie vom menschengemachten Klimawandel, dessen Ursache die von den Menschen verursachten Kohlendioxid- (CO2)-Emissionen sein sollen, hat es bis heute nicht gegeben. Es handelt sich deshalb um eine unbewiesene Theorie, die daher auch von sehr vielen Wissenschaftlern angegriffen wird. Einen Konsens der Forscher hat es niemals gegeben; im Gegenteil. Im Übrigen genügt in der Wissenschaft ein einziger fundierter Gegenbeweis, um eine falsche Theorie zu „kippen“. Die wissenschaftliche Literatur ist inzwischen voller derartiger Gegenbeweise, was aber die politische Klimarats-Organisation IPCC nicht daran hindert, ihre allein auf Computer-Simulationen beruhende Theorie weiter zu vertreten.

Dass die internationale Politik jemals bereit war, dieses unbewiesene und umstrittene Stück erfolgloser Wissenschaft zu glauben und daraus eine weltweite Rettungsaktion zur Verhinderung des angeblich bevorstehenden Untergangs dieses Planeten zu machen, ist zwar ein Meisterstück politischer Manipulation, aber sonst nichts.

Die wichtigste Triebkraft dieser Klimapolitik ist wieder die Angst, das bewährte Druckmittel. Es ist nicht weiter verwunderlich, dass Deutschland als die Nation, deren Politik schon lange besonders bedenkenlos die Angstverbreitung zu einem der wichtigsten politischen Instrumente gemacht hat, in der internationalen Klimapanik an vorderster Front steht.

Immer deutlicher stellt sich heraus, dass die von Menschen verursachten Emissionen von CO2 keinen bedeutenden Einfluss auf das Erdklima haben. Seit nunmehr fast 20 Jahren ändert sich die globale Durchschnittstemperatur der Erde nicht mehr, obwohl die CO2-Emissionen – insbesondere durch China – gerade in diesem Zeitraum immer weiter angestiegen sind.

Ein Politiker muss keineswegs ein Wissenschaftler sein, um die ganze Sinnlosigkeit dieser Klimapanik und insbesondere die winzige und vollkommen unmaßgebliche Rolle des kleinen Deutschlands bei den angeblich notwendigen Gegenmaßnahmen – die weltweite Vermeidung von CO2-Emissionen – zu erkennen.
Es genügt das Lesen der regelmäßig erscheinenden Berichte über die Emissionen der Staaten und etwas Schulmathematik aus der 3. oder 4. Klasse.
Dann sieht man, dass China mit 30 Prozent Anteilen an der weltweiten Emission der sog. Treibhausgase aus der energetischen Verwendung fossiler Brennstoffe den Löwenanteil hat, während Deutschland mit gerade einmal 2,2 Prozent eine winzige Rolle spielt. Jeder kann ausrechnen, dass selbst eine Verringerung der deutschen Emissionen um den zehnten Teil nur 0,2 Prozent an weltweiter Reduzierung bringen würde. Aber tatsächlich schafft Deutschland überhaupt keine Reduzierung, sondern erhöht sogar seinen Ausstoß. Und das wird sich mit jedem neu abgeschalteten Kernkraftwerk fortsetzen, denn dessen Strom wird durch Kohlekraftwerke ersetzt werden müssen. Erneuerbare Energien können das nicht, so viele Windräder man auch in die Landschaft und in die Wälder stellt.

Dieses Thema wird für Deutschland und seine Regierung noch peinlicher, wenn man die Wirkung des europäische Zertifikatssystems für Treibhausgas-Emissionen betrachtet. Es setzt die erlaubte Höchstmenge dieser Emissionen fest und der Handel mit diesen sog. Verschmutzungsrechten führt zu einem Preis für diese. Wenn ein Land wie Deutschland eine eigene, in Europa nicht vorgesehene zusätzliche Emissionsminderung mit Subventionen wie die EEG-Zulage installiert, dann werden Zertifikate sowohl frei als auch billiger, die dann ein anderes EU-Land kaufen kann, um seine Emissionen erhöhen zu können. Das bedeutet, dass alle zusätzlichen Minderungsmaßnahmen der Energiewende durch ausländische Mehr-Emissionen vollständig ausgeglichen werden: Der Effekt für die europäische Treibhausgas-Bilanz ist gleich Null. Die Regierung weiß das selbstverständlich, denn sie beherrscht die Viertklässler-Schulmathematik auch. Aber sogar die Kritik an der Nutzlosigkeit dieser deutschen Extra-Aktivitäten im letzten Klimabericht des IPCC hat nichts bewirkt.

Und der dänische Politiloge und Statistiker Björn Lomborg macht sich regelmäßig einen Spaß daraus, den Deutschen auf der Grundlage der IPCC-Formeln vorzurechnen, um wie viele Stunden oder Tage sämtliche über die vielen Jahre ihrer Anwendung ausgegebenen Energiewende-Milliarden die angeblich in einigen Jahrzehnten bevorstehenden Klimaerwärmung zeitlich hinausschieben würden – wenn dieser Unsinn überhaupt stimmt.
Er veröffentlichte am 15. Mai 2015 in der FAZ einen ausführlichen Artikel zu dem Thema „Deutschlands gescheiterte Klimapolitik“ (3).
Er schrieb darin zu der Wirkung der deutschen Klima-Milliarden:

„Sämtliche Anstrengungen, die Deutschland zur Förderung der erneuerbaren Energien unternimmt, werden geschätzt zu einer Senkung der Emissionen um jährlich 148 Megatonnen (Millionen Tonnen) führen. Im Standard Klimamodell führt die gesamte Förderung der nächsten 20 Jahre zu einer Reduktion um gerade einmal 0,001 Grad Celsius bis zum Ende des Jahrhunderts oder einer Hinauszögerung des Temperaturanstiegs bis zum Jahr 2100 um weniger als 18 Tage.
Es sollte kaum verwundern, dass eine derart teure Klimapolitik , die so wenig Auswirkung auf das Klima hat, für die restliche Welt kaum nachvollziehbar ist.“
(Ende des Zitats).

 

Die Angst vor der atomaren Vernichtung durch die eigene Kernkraft

Als die Regierung 2011 mit dem Ausstiegsbeschluss aus der Kernkraft der Energiewende eine unerwartete Richtungskorrektur gab, die aber – ohne das es die Regierung begriff – gleichzeitig das Scheitern der Energiewende beschleunigte, zeigte sich, dass das Aufeinandersetzen zweier apokalyptischer Ängste das Erreichen des ursprünglichen Ziels zuverlässig verhindert. Unter allen schweren Fehlern der Regierung war der Kernkraftausstieg der folgenreichste. Es war nicht nur ein katastrophaler Schaden für das Industrieland Deutschland, sondern auch gleichzeitig der Sargnagel Nr.2 für Merkels Lieblingsprojekt Energiewende.
Wir erinnern uns: Sargnagel Nr.1, der allein schon für deren Scheitern völlig ausreicht, ist das dauerhafte Fehlen einer erforderlichen, enormen Anzahl großer Pumpspeicherkraftwerke.

Der Fortfall eines großen Teils der Strom-Grundlastversorgung erzwingt deren Ersatz durch eine andere Grundlastquelle – und das ist alleine Kohlestrom, der nur mit Braunkohlekraftwerken kostengünstig produziert werden kann. Allerdings ist es nun eine eher unwichtige Eigenschaft der Kernkraftstrom-Erzeugung, dass sie praktisch keine sog. Treibhausgas-Emissionen verursacht. Und diese mächtige Stromerzeugungs-Kapazität musste nun als Folge der nur in Deutschland propagierten Angst vor den eigenen Kernkraftwerken stillgelegt werden. Damit steigen die CO2-Emissionen an und es geschieht damit das Gegenteil der nun zur Makulatur gewordenen vollmundigen „Klimaschutz“-Ankündigungen. Dass das Spurengas CO2 nahezu nichts mit dem Klimawandel zu tun hat, gehört wiederum zum Angstthema „Weltuntergang durch menschengemachte CO2-Emissionen“.

Weder der Unfall von Tschernobyl noch der von Fukushima gaben Deutschland einen Anlass, die Sicherheit der eigenen Kernkraftwerke in Frage zu stellen. In Tschernobyl explodierte ein veralteter Reaktortyp (Druckröhren-Reaktor), der wegen seiner prinzipiell großen Gefährlichkeit – und noch dazu fehlender Sicherheitsvorkehrungen wie eine stabile Schutzhülle – niemals im Westen gebaut worden ist. Dass die Sowjetunion die wenigen Reaktoren dieses Typs nicht längst stillgelegt hatte, führte letztlich zu dieser leider durchaus möglichen und wahrscheinlichen Katastrophe.
In Fukushima standen 4 alte Reaktoren eines US-Typs, die – im Gegensatz zu allen deutschen Raktoren – niemals während ihres jahrzehntelangen Betriebs sicherheitstechnisch nachgerüstet worden waren. Nicht genug damit: Sie waren völlig unzureichend gegen Tsunamis geschützt, die im Durchschnitt alle 30 Jahre deutlich höhere Flutpegel als die viel zu niedrige Sperrmauer aufwiesen, was zur Überschwemmung des unteren Teils der Anlagen führte, in denen ausgerechnet die für den Ausfall der externen Stromversorgung und damit der Reaktorkühlung vorgesehenen Notstromdiesel wiederum ungeschützt eingebaut waren – und absoffen. Die Stromversorgung von Land aus war durch das Erdbeben unterbrochen. Daraufhin fiel die Nachkühlung der abgeschalteten Reaktoren aus. Dieser Unfall war somit die Folge einer kaum glaublichen Verantwortungslosigkeit der unfähigen Chefs und Aufsichtspersonen der Betreiberfirma TEPCO. Es ist nicht bekannt, ob auch nur einer von ihnen zur Verantwortung gezogen worden ist.
Obwohl durch diesen Unfall keine Person ihr Leben verlor, verstanden es die deutschen Medien, die Unfallfolgen so darzustellen, als ob alle über 18.000 Toten, die Japan als Folge der Flutwelle zu beklagen hatte, durch die beschädigten Reaktoren verursacht worden seien. Es gab jedoch keinen einzigen Todesfall durch Strahlung. Diese Falschmeldungen sind international stark kritisiert worden.

In Deutschland wiederum waren alle Kernreaktoren regelmäßig mit den neuesten Sicherheitstechniken nachgerüstet worden und es bestanden insofern keinerlei Bedenken in Bezug auf ihre Sicherheit, wie die Reaktorsicherheits-Kommission der Regierung bescheinigte. Und eine Tsunami-Gefahr gab es ebenfalls nicht. Frau Merkel ersetzte daher das Votum der Experten durch eine sog. Ethik-Kommission, die auch das erwünschte Ergebnis – die Empfehlung zur Stilllegung aller Kernkraftwerke – lieferte. Und das Parlament stimmte dieser geradezu absurden Manipulation zu – ein Versagen, das es zuvor so noch nicht gegeben hatte.
Seither wird wie geplant stillgelegt. Woher die südlichen Bundesländer nach dem Abschalten ihrer letzten Kernkraftwerke den für eine zuverlässige Versorgung zwingend erforderlichen Grundlaststrom bekommen sollen, weiß im Moment niemand.

Die Regierung hatte zur Lösung dieses offensichtlichen ernsten Problems eine zusätzliche, ebenfalls teure Investition in die Wege geleitet: Den Neubau mehrerer Höchstspannungsleitungen, die von Norddeutschland ausgehend den dort – nur gelegentlich und wetterabhängig – erzeugten Windstrom in den Süden zu leiten. Es entstanden viele Bürgerinitiativen, die diese Pläne bekämpften und die eine erstaunliche Entdeckung machten: Die östliche Trasse, die Bayern mit Windstrom versorgen sollte, endete bereits bei Bad Lauchstädt bei Leipzig. Also mitten im Braunkohlerevier mit seinen Kohlekraftwerken – und mit dem zweiten Braunkohlerevier an der polnischen Grenze und den dort zugehörigen Kohlekraftwerken mit Leitungen verbunden. Niemand wollte ernsthaft Windstrom aus dem Norden nach Bayern transportieren. Die Bürgerinitiativen entdeckten die Täuschung und die bayrische Landesregierung sah sich gezwungen, den Bau dieser Trasse zu stoppen. Später erschien eine neue Landkarte des Netzausbaus und dieses Mal ging die Osttrasse weiter bis Norddeutschland…Auch die westliche Trasse führt recht nahe am rheinischen Braunkohlerevier vorbei.
Aber alle wissen, dass der völlig unzuverlässige, stark schwankende und auch gerne einmal für zwei Wochen ausfallende Windstrom niemals irgendein Bundesland sicher versorgen kann. Und die Bundesnetzagentur weiß es auch. Deshalb sorgte sie mit ihrer Planung für ausreichend Braunkohlestrom für Süddeutschland, tat aber so, als wäre es grüner Windstrom…Wieder eine Täuschung, hier aber sinnvoll – und im Grunde ein Akt der Verzweiflung.
Schließlich entschied noch Minister Gabriel, dass alle neuen Höchstspannungsleitungen als Erdkabel gebaut werden müssen. Das tröstete die Bürgerinitiativen etwas, führt aber zu mindestens zwei weiteren Jahren der Verzögerung; von den Mehrkosten ganz zu schweigen.
Der gesamte Netzausbau ist daher nur ein unnötiges, extrem teures Hilfsprojekt, mit dem den Bürgern eine sinnvolle Verwendung des vom Wetter gesteuerten und daher überwiegend unbrauchbaren oder auch vollkommen ausfallenden Windstroms vorgegaukelt werden soll.

Mit der Entscheidung für den Kernkraftausstieg hat die Regierung ihrer Energiewende selbst die Grundlage entzogen und ihre nach wie vor betonte Rolle als „Vorreiter“ ist zur internationalen Lachnummer geworden.

Wenn eine Angst nicht mehr wirkt – dann eben eine Ersatzangst

Manchmal muss man tatsächlich eine Rede der Bundeskanzlerin nachlesen – und dann muss man sie noch einmal lesen, weil man es einfach nicht glauben will. Vom Glauben spricht die Kanzlerin übrigens in ihrer hier behandelten Rede beim Internationalen WBGU-Symposium am 9. Mai 2012 in Berlin mehrfach. Ein Zitat ist erforderlich, um die eigentümliche Denkweise zu verstehen und die merkwürdigen Schlussfolgerungen bewerten zu können.

Merkel: „Ich nenne immer Klimawandel und Ressourceneffizienz oder Endlichkeit der Ressourcen in einem Zusammenhang, weil ich keine Lust habe, mich immer mit Zweiflern auseinanderzusetzen, ob der Klimawandel nun wirklich so schwerwiegend sein wird…Allein die Tatsache, dass wir in die Richtung neun Milliarden Menschen auf der Welt zugehen, zeigt uns, dass auch diejenigen, die an den Klimawandel nicht glauben, umdenken müssen. Damit hier kein Zweifel aufkommt: Ich gehöre zu denen, die glauben, dass etwas mit dem Klima passiert. Aber damit wir nicht über das Ob so lange Zeit verlieren, sage ich einfach: Wer nicht daran glauben mag, wer immer wieder Zweifel sät, wer die Unsicherheiten in den Vordergrund stellt, sollte sich einfach daran erinnern, dass wir in Richtung auf neun Milliarden Menschen auf der Welt zusteuern, und er sollte sich die Geschwindigkeit des Verbrauchs fossiler Ressourcen anschauen. Dann kommt er zu dem gleichen Ergebnis, dass nämlich derjenige gut dran ist, der sich unabhängig davon macht, Energie auf die herkömmliche Art und Weise zu erzeugen. Deshalb sind eine andere Energieversorgung, also durch erneuerbare Energien, und ein effizienterer Umgang mit der Energie und den Ressourcen die beiden Schlüsselfaktoren.“

(Ende des Zitats)

Wäre dies ein Schulaufsatz gewesen, die rote Tinte wäre reichlich geflossen. Wo soll man anfangen? Die mehrfache Verwendung des Verbums „glauben“ ist bezeichnend. Tatsächlich geht es ja um Naturwissenschaft, und da wird nicht geglaubt, sondern bewiesen und widerlegt- siehe oben. Nur Politiker und Kirchenleute legen Wert auf den Glauben. Natürlich nur den richtigen.
Die Kritik an denen, die an den Klimawandel nicht glauben wollen, ist vollkommen daneben, denn von den zweimal genannten demnächst 9 Milliarden Menschen weiß nahezu jeder, dass Klimawandel etwas Normales ist, was seit etlichen 100 Millionen Jahren geschieht – und zwar durch die Sonne gesteuert. Mit „Zweiflern“ meint sie Wissenschaftler, die die unbewiesenen Theorien des IPCC als falsch betrachten und andere Theorien bevorzugen. Das ist deren Job. Und eine der Kritiker-Gruppen hat sogar ein Experiment zur Wolkenbildung durch die kosmische Höhenstrahlung erfolgreich durchgeführt, was zur Erklärung der atmosphärischen Prozesse beiträgt und in dem das Spurengas CO2 überhaupt nicht vorkommt. Das ist bisher das einzige Experiment in der ganzen theoretischen Debatte. Und das sind eben keine „Zweifler“. Man beachte die Wortwahl. Dass sie „keine Lust hat“, sich mit diesen „Zweiflern“ auseinanderzusetzen, kann man verstehen. Sie würde dabei untergehen.

Und dann kommt der doppelte Rittberger: Eine neue Angst an Stelle einer alten, deren Wirkung nachzulassen scheint. Die Frage der Verfügbarkeit der Vorräte und der Reserven sei ganz einfach die gleiche, wie die nach der Glaubwürdigkeit der Theorien des IPCC, weil es schliesslich immer nur um das CO2 geht. Und nach diesem Salto braucht man nur noch über die Ressourcen sprechen. Aber Merkel liegt auch damit wieder falsch. Ihre Bundesanstalt für Geologie und Rohstoffe BGR hat in seriösen Berichten den Beweis geführt, dass fossile Ressourcen noch sehr lange reichen; insbesondere die Kohle.
In ihrem letzten Satz braucht man übrigens nur die Worte „erneuerbare Energien“ durch „Kernkraft“ zu ersetzen und hat dann eine richtigere Aussage, denn mit den in der Entwicklung befindlichen Reaktortypen der 4. Generation vergrößert man den Vorrat an nutzbarem Uranbrennstoff um das 60-fache – auf Jahrtausende. Und dann ist die Kohle längst überflüssig als Energiequelle.
Bei aller Fehlerkonzentration und logikfreien Analogie von Klima und Rohstoffen ist Merkels Aussage doch vielsagend und wertvoll: So denkt Deutschlands führende Politikerin.


Eine begründete Angst, die im Angst-Arsenal fehlt: Der große Blackout

Die durch die unkontrollierbaren Störungen immer kritischer werdende Situation im Stromnetz – verursacht vor allem durch die Windräder – kann von den Netzbetreibern mit ihren Redispatch-Maßnahmen kaum noch beherrscht werden. Der große Blackout droht im Winter bei „Dunkelflaute“.

Auch im Januar 2017 befand sich das deutsche Stromnetz am Rande des Zusammenbruchs. Der Grund dafür war die klägliche Leistung von Windkraftanlagen (WKA) und Solarstromerzeugern, die zusammen eine sogenannte Dunkelflaute erlitten – ein im Winter nicht seltener Zustand, in dem die schon damals riesenhafte gemeinsame installierte Leistung von 83.900 MW auf praktisch Null – wie 20 oder 30 MW von WKA in ganz Deutschland – zusammenschrumpfte. Dieser Zustand kann ohne weiteres mehrere Tage anhalten. Während dieser Zeit muss die gesamte notwendige Erzeugungsleistung, die im Winter mindestens 80.000 Megawatt beträgt, von den konventionellen Kraftwerken kommen – also von Kohle- und Kernkraftwerken sowie von Gaskraftwerken.

Der 24. Januar 2017 war nun wieder einmal ein Tag, an dem der Ernstfall – der völlige Zusammenbruch der deutschen Stromversorgung – gefährlich nahe kam. Dieser große Blackout wurde gerade noch vermieden, weil die Energieversorger „auch noch das letzte Reservekraftwerk heranzogen“, wie Michael Vassiliadis, der Chef der für die Kraftwerkswirtschaft zuständigen IG Bergbau, Chemie, Energie Reportern mitteilte (1).
Nach dem Bericht von RP-Online führte Vassiliadis auf einer Veranstaltung in Haltern am See vor Journalisten aus, dass „der Zustand am 24. Januar kritisch wurde. Energieunternehmen und Netzbetreiber hätten an diesem Tage die Stromversorgung nur mit größter Mühe aufrechterhalten können.“ Denn die Deutschen forderten – wie an anderen Tagen auch – mehr als 80.000 MW Leistung ab. Vassiliadis: „Die Erneuerbaren konnten nicht einmal fünf Prozent davon bieten“.

Den meisten Bürgern ist nicht klar, was ein großer Blackout bedeutet, stellten die Fachleute des Büros für Technologiefolgen-Abschätzung beim Deutschen Bundestag (TAB) in einem sehr ausführlichen Bericht (4) fest, der zwar bereits 2011 erstellt wurde, dessen Aktualität jedoch heute mit jedem Monat zunimmt.

 

Aus diesem Bericht werden hier wichtige Ergebnisse zitiert:

„Aufgrund der Erfahrungen mit bisherigen nationalen und internationalen Stromausfällen sind erhebliche Schäden zu erwarten. Für den Fall eines mehrwöchigen Stromausfalls sind Schäden zu erwarten, die um Größenordnungen höher (als mehrere Milliarden €) liegen.

Telekommunikations- und Datendienste fallen teils sofort, spätestens aber nach wenigen Tagen aus. Die für zentrale Kommunikationseinrichtungen vorgehaltenen Reservekapazitäten wie »Unterbrechungsfreie Stromversorgung« und Notstromaggregate sind nach wenigen Stunden oder Tagen erschöpft bzw. aufgrund ausgefallener Endgeräte wirkungslos. Damit entfällt innerhalb sehr kurzer Zeit für die Bevölkerung die Möglichkeit zur aktiven und dialogischen Kommunikation mittels Telefonie und Internet.

Im Sektor »Transport und Verkehr« fallen die elektrisch betriebenen Elemente der Verkehrsträger Straße, Schiene, Luft und Wasser sofort oder nach wenigen Stunden aus. Zu Brennpunkten werden der abrupte Stillstand des Schienenverkehrs und die Blockaden des motorisierten Individual- und öffentlichen Personennahverkehrs in dichtbesiedelten Gebieten….Der Straßenverkehr ist unmittelbar nach dem Stromausfall besonders in großen Städten chaotisch. Es ereignen sich zahlreiche Unfälle, auch mit Verletzten und Todesopfern. Rettungsdienste und Einsatzkräfte haben erhebliche Schwierigkeiten, ihren Aufgaben gerecht zu werden. Durch den Ausfall der meisten Tankstellen bleiben zunehmend Fahrzeuge liegen, der motorisierte Individualverkehr nimmt nach den ersten 24 Stunden stark ab. Der Öffentliche Personennahverkehr kann wegen knappen Treibstoffs allenfalls rudimentär aufrechterhalten werden.

Die Wasserversorgung benötigt elektrische Energie in der Wasserförderung,
-aufbereitung und -verteilung. Fallen diePumpen aus, ist die Grundwasserförderung nicht mehr möglich, die Gewinnung von Wasser aus Oberflächengewässern zumindest stark beeinträchtigt.

Eine Unterbrechung der Wasserversorgung wirkt sich umfassend auf das häusliche Leben aus: Die gewohnte Körperpflege ist nicht durchführbar; für die Mehrzahl der Haushalte gibt es kein warmes Wasser. Das Zubereiten von Speisen und Getränken ist nur reduziert möglich, und die Toilettenspülung funktioniert nicht.

Da als Folge der reduzierten oder ausgefallenen Wasserversorgung die Brandbekämpfung beeinträchtigt ist, besteht insbesondere in Städten wegen der hohen Besiedelungsdichte die Gefahr der Brandausbreitung auf Häuserblöcke und möglicherweise sogar auf ganze Stadtteile.

Als Folge des Stromausfalls ist die Versorgung mit Lebensmitteln erheblich gestört; deren bedarfsgerechte Bereitstellung und Verteilung unter der Bevölkerung werden vorrangige Aufgaben der Behörden. Von ihrer erfolgreichen Bewältigung hängt nicht nur das Überleben zahlreicher Menschen ab, sondern auch die Aufrechterhaltung der öffentlichen Ordnung. Die weiterverarbeitende Lebensmittelindustrie fällt zumeist sofort aus, sodass die Belieferung der Lager des Handels unterbrochen wird. Trotz größter Anstrengungen kann aber mit hoher Wahrscheinlichkeit die flächendeckende und bedarfsgerechte Verteilung der Lebensmittellieferungen nur ungenügend gewährleistet werden.

Das dezentral und hocharbeitsteilig organisierte Gesundheitswesen kann den Folgen eines Stromausfalls nur kurz widerstehen. Innerhalb einer Woche verschärft sich die Situation derart, dass selbst bei einem intensiven Einsatz regionaler Hilfskapazitäten vom weitgehenden Zusammenbrechen der medizinischen und pharmazeutischen Versorgung auszugehen ist. Bereits nach 24 Stunden ist die Funktionsfähigkeit des Gesundheitswesens erheblich beeinträchtigt. Krankenhäuser können mithilfe von Notstromanlagen noch einen eingeschränkten Betrieb aufrechterhalten, Dialysezentren sowie Alten- und Pflegeheime aber müssen zumindest teilweise geräumt werden und Funktionsbereiche schließen. Arzneimittel werden im Verlauf der ersten Woche zunehmend knapper, da die Produktion und der Vertrieb pharmazeutischer Produkte im vom Stromausfall betroffenen Gebiet nicht mehr möglich sind und die Bestände der Krankenhäuser und noch geöffneten Apotheken zunehmend lückenhaft werden. Dramatisch wirken sich Engpässe bei Insulin, Blutkonserven und Dialysierflüssigkeiten aus.

Dieser dezentral strukturierte Sektor ist schon nach wenigen Tagen mit der eigenständigen Bewältigung der Folgen des Stromausfalls überfordert. Der Zusammenbruch der in Krankenhäusern konzentrierten Versorgung droht.

Spätestens am Ende der ersten Woche wäre eine Katastrophe zu erwarten, d.h. die gesundheitliche Schädigung bzw. der Tod sehr vieler Menschen sowie eine mit lokal bzw. regional verfügbaren Mitteln und personellen Kapazitäten nicht mehr zu bewältigende Problemlage. Ohne weitere Zuführung von medizinischen Gütern, Infrastrukturen und Fachpersonal von außen ist die medizinisch-pharmazeutische Versorgung nicht mehr möglich.

FAZIT: Wie die zuvor dargestellten Ergebnisse haben auch die weiteren Folgenanalysen des TAB gezeigt, dass bereits nach wenigen Tagen im betroffenen Gebiet die flächendeckende und bedarfsgerechte Versorgung der Bevölkerung mit (lebens)notwendigen Gütern und Dienstleistungen nicht mehr sicherzustellen ist. Die öffentliche Sicherheit ist gefährdet, der grundgesetzlich verankerten Schutzpflicht für Leib und Leben seiner Bürger kann der Staat nicht mehr gerecht werden. Die Wahrscheinlichkeit eines langandauernden und das Gebiet mehrerer Bundesländer betreffenden Stromausfalls mag gering sein. Träte dieser Fall aber ein, kämen die dadurch ausgelösten Folgen einer nationalen Katastrophe gleich. Diese wäre selbst durch eine Mobilisierung aller internen und externen Kräfte und Ressourcen nicht »beherrschbar«, allenfalls zu mildern“.

(Ende des Zitats)


Die Netzbetreiber wissen das selbstverständlich alles. Niemand wagt es derzeit, die einzig sinnvolle und bezahlbare Lösung vorzuschlagen: Den Verzicht auf die Stilllegung der letzten Kernkraftwerke – verbunden mit einer mindestens 15 Jahre langen Laufzeitgarantie. Eher würden wohl die für die deutsche Energiepolitik Verantwortlichen einen Tabu-Tod erleiden, wie er bei den Menschen einiger Naturvölker eintritt, wenn sie es wagen, eine vom Schamanen gekennzeichnete verbotene Zone zu betreten.
Die Absicht der Netzbetreiber ist viel bescheidener: Sie sehen so deutlich wie sonst niemand den großen Blackout auf sie zukommen. Genauso, wie auch U. Kaussen von Tennet auf die gestellte Frage „Droht uns ein Blackout ?“ mit einem klaren „Ja“ geantwortet hat (2). Und sie kennen auch die übliche Reaktion der Politik, wenn es darum geht, sich für ihr Versagen zu rechtfertigen: Sie haben bereits heute die Sündenböcke identifiziert. Es sind natürlich die Netzbetreiber, die bei ihrem Redispatch versagt haben. Auch die Bundesnetzagentur – dem Wirtschaftsministerium unterstellt – wird ins gleiche Horn stoßen.

Das Waldsterben

Das Märchen vom bevorstehenden Absterben des Waldes ist ein extremes Beispiel von der Entstehung und der staatlich betriebenen Aufblähung einer falschen Theorie, die insbesondere der Presse, aber auch bestimmten staatlichen Stellen sehr gut gefiel. Im Jahre 1979 berichtete ein Forstprofessor aus Göttingen, dass er in Laborversuchen festgestellt hätte, dass eine Beregnung von kleinen Nadelbäumen mit „saurem Regen“ erhebliche Schäden verursachte, die letztlich zu deren Absterben führten. Er verstieg sich dabei zu der Prognose, dass in wenigen Jahren der deutsche Wald vernichtet werde.
Anlass für seine Untersuchungen waren die immer noch vorhandenen Schwefeldioxidemissionen aus Kraftwerken, die zwar längst durch sehr wirksame Maßnahmen der Rauchgasentschwefelung, die von früheren Regierungen angeordnet wurden, drastisch verringert worden waren und weiter sanken. Aber immer noch hatten Niederschläge einen zu kleinen pH-Wert, waren also sauer anstatt neutral.
Schon in den siebziger Jahren gab es eine internationale Debatte über den sauren Regen und seine Folgen. Der Säureregen zerfraß Gebäude, ließ vitale Seen absterben, schädigte Pflanzen und bedrohte auch die Gesundheit der Menschen. Bereits im 1.Umweltprogramm der Regierung Brandt von 1971 wurde dieses Problem detailliert samt entsprechenden Aktionen vorgestellt. Die Stockholmer UN-Umweltkonferenz von 1972 und das Genfer Übereinkommen 1979 führten zu internationalen Verträgen mit weitreichenden Maßnahmen. Bereits im März 1974 konnte Bundesinnenminister Werner Maihofer beachtliche Erfolge vorzeigen: Die Schwefeldioxid-Emissionen waren drastisch zurückgegangen und sanken weiter.

Unterstützung erhielt der Göttinger 1981 von einem Professor aus München; das war aber schon alles an Beistand aus der Forschung. Die gesamte übrige Forstforschung lehnte diese Theorie ab. Aber es half schon nichts mehr: Die Medien hatten dieses wunderbare Panikthema aufgegriffen. Eine Art Himmelsgeschenk erhielten sie durch eine recht flapsige Bezeichnung für Waldschäden, die von den Forstleuten selbst erfunden worden war: Wenn in einem Waldgebiet irgendeine Schädigung im Gange war – sei es durch Insekten, Pilze oder andere Ursachen – pflegte man dafür einen Begriff zu wählen, der die betroffene Baumart und den Anhang „-sterben“ zusammenfügte. Also z.B. Eichensterben. Gab es mehrere derartige Schadfaktoren oder waren gleichzeitig mehrere Baumarten betroffen, nannte man es ungerührt und im Grunde leichtfertig „Waldsterben“. Damit hatte die Presse den besten Angstbegriff für eine Medienkampagne.
Die Sache wäre normalerweise innerhalb der Wissenschaft geklärt worden und man hätte dann nichts mehr von der falschen Theorie gehört. Aber die Presse gab keine Ruhe. Und dann geschah etwas, das aus einer Theorie eine staatliche Großaktion machte, die sogar auf andere Länder übergriff: Das Bundeslandwirtschafts-Ministerium BML, in dem nur eine sehr kleine Abteilung, die keinerlei Kompetenzen aber eine inhaltlose Zuständigkeit für Waldangelegenheiten hatte, vor sich hin dämmerte. Bundes-Staatswald gab es nicht. Wald, Forstämter, Forstforschungseinrichtungen, weitere Kompetenzen und vor allem Geld hatten allein die Länder.
In dieser Situation war die Waldsterbepanik ein Geschenk des Himmels für das BML. Es winkten endlich Geld, neue Pöstchen, großartige Koordinierungsaktionen mit den Ländern und damit endlich eine Erlösung aus der Bedeutungslosigkeit.
Es folgte ein gewaltiger Aktionismus, eine bundesweite Waldschadenserhebung wurde geboren – mit ungeeigneten Kriterien dafür, was eigentlich ein Waldschaden sei. Die Kritik von sämtlichen Forstwissenschaftlern (außer die in Göttingen) wurde beiseite gewischt. Man wollte sich das großartige Waldsterben nicht nehmen lassen.
Die Wissenschaft witterte das Geld und Forschunganträge begannen hereinzuströmen. Viele Forscher schreckten auch nicht vor völlig unsinnigen Theorien zurück: So wollt man z.B. Kernkraftwerke als Schuldige überführen. Auch die Grünen beteiligten sich fleißig an der Angsterzeugung: Sie starteten 1990 eine Kleine Anfrage im Parlament: »Zu den Problemen von Waldsterben … durch Einwirkung von Richtfunk und Radarwellen«. Es erwies sich ebenfalls als Unsinn.

Am 2. Februar 1993 – also immerhin 10 Jahre nach der Einführung der unbrauchbaren Waldschadenserhebung durch das BML – veröffentlichte das Bundesforschungsministerium (BMFT) eine Zwischenbilanz mit einer Stellungnahme seines Expertenkreises. Dieses Gremium, dem auch der o.e. Göttinger Professor angehörte, kam zu der klaren Aussage, »dass ein Absterben ganzer Wälder in Zukunft nicht mehr zu befürchten« sei. Er räumte damit in respektabler Manier ein, dass er damals mit seiner Prognose zu weit gegangen war. Nur 4 von 54 Tageszeitungen brachten diese Nachricht. Man wollte sich die Panik nicht durch die Forstforscher vermiesen lassen.

Die politischen Parteien hielten noch viel länger unverdrossen am Waldsterben fest. Noch im Mai 2000 stellten die Fraktionen der CDU/CSU und der SPD gleichlautend fest, »dass es keinen Grund zur Entwarnung gibt«. Dieser Satz dient seit Jahren der umweltpolitischen Geisterbeschwörung – vor allem für die Umweltverbände, die auf Entwarnungen allergisch reagierten. Im März 2001 erklärte Landwirtschafts-Staatssekretär Berninger im Parlament, »dass wir zusätzliche Strategien gegen das Waldsterben entwickeln«. Und im Januar 2002 forderten die Fraktionen der SPD und der Grünen, die Anstrengungen zur Reduktion und Beseitigung der »neuartigen Waldschäden« zu verstärken.

Dann kam die Überraschung: Im Sommer 2003 – also ganze 10 Jahre nach dem wissenschaftlichen Todesurteil der Waldsterbe-Theorie im Februar 1993 und 20 Jahre nach der Einführung der unbrauchbaren Waldschadenserhebung (heute Waldzustandserhebung) – erklärte Ministerin Renate Künast das Waldsterben für beendet. Die fachliche Kritik und wohl auch der Spott waren offenbar unerträglich geworden. Die Franzosen, die deutsche Ängste seit je nicht ganz ernst nehmen, fügten ihrem Vokabular le waldsterben hinzu, nachdem sie bereits le angst aufgenommen hatten.

Der Autor nahm damals im Bundesforschungs-Ministerium am Kampf gegen die BML-Panikfraktion teil – vergebens, denn die hatten die Zuständigkeit. Seltsamerweise bekam der BML-Minister, immerhin ein CSU-Mitglied, nichts von alledem mit. Die Regierung selbst verhielt sich vollkommen passiv. So dauerte es 10 Jahre, bis die grundlegenden Fehler in der Göttinger Theorie aufgedeckt wurden und die gesamte Waldsterbepanik in sich zusammen brach und weitere 10 Jahre, bis die Politik das Thema aufgab.
Am Ende war das Waldsterben nur noch ein sicherer Lacher in Kabaretts. Für die Steuerzahler gab es dagegen wenig zu lachen, denn die staatliche Förderung der Forschung über die vermeintlichen Ursachen des nicht existierenden Waldsterbens hatte allein im Bereich der Bundesregierung über 600 Millionen DM gekostet – die Ausgaben der Länder nicht gerechnet.

Eine ausführliche Schilderung der deutschen Waldsterbe-Angst und ihrer Folgen hat der Autor 2004 in der ZEIT veröffentlicht (5).

Der belgische Reaktor Tihange

Eine Variante der Nuklearangst ist die Schreckensvision von einer Reaktorkatastrophe im belgischen Tihange. Von Umweltschützern und inzwischen auch von westdeutschen Landesregierungen wird behauptet, dass der Stahl des Reaktordruckgefäßes von Rissen durchzogen und damit unsicher sei. Damit wäre ein großes Unglück wahrscheinlich. Seltsamerweise sehen das die dem Kraftwerk viel näher lebenden Belgier ganz anders. Die zuständigen Behörden des Landes betonen auch, man habe alles geprüft und es bestünde keine Gefahr.
Aber die deutsche Politik muss auf Ängste – echte oder nur behauptete – reagieren und so gab es böse Briefe der NRW-Landesregierung nach Belgien und die Stadt Aachen setzte noch eins drauf und verteilte Jodtabletten, die im Falle einer Explosion des Reaktors sofort zu schlucken wären.
Im Grunde laufen diese Aktionen darauf hinaus, der belgischen Atomaufsicht Leichtfertigkeit und Verantwortungslosigkeit und der belgischen Bevölkerung Leichtsinn und Dummheit zu unterstellen. Auch hierbei spielen die deutschen Medien eine fragwürdige Rolle.

 

Die Geisterbahn hat noch viele Nischen, in denen Angst lauert

Es gibt noch den Rinderwahnsinn, von dem bislang nicht behauptet werden kann, dass er auf den Menschen übertragbar ist. Gab es hierzu eine endgültige Entwarnung ?
Es gibt die Angst vor der Strahlung von Mobiltelefonen, die eigentlich wie alle Hochfrequenzstrahlung nur Wärme im Gewebe erzeugen kann, bei der sich die Wissenschaft aber auf die übliche Floskel „weitere Untersuchungen sind aber nötig“ zurückzieht. In diesem Falle ist aber der Wunsch der Kunden, unbedingt so ein Gerät zu besitzen, derart übermächtig, dass jegliche Angsterzeugung unbeachtet bleibt.

Die Bürger sollten vielleicht einmal den Katalog ihrer Ängste prüfen. Im Grunde können sie sämtliche von der Regierung verbreiteten Ängste streichen.
Vor dem großen Blackout aber dürfen sie sich mit Recht grausen.

Angst ?

Dass hier so über die Angstmacher und die Angsthasen gschrieben wird, liegt daran, dass der Autor keine dieser Ängste (mit Ausnahme des Großen Blackouts) ernst nimmt. Eigentlich bleibt dann nur die berechtigte Angst vor dem Zahnarzt übrig.
Allerdings gibt es doch vielleicht eine Sache, die mir etwas Sorge bereitet. Wenn in der näheren Umgebung unseres Hauses eine Wasserstoff-Tankstelle eröffnet wird, ziehe ich um. Den gewaltigen Explosionskrater kann ich mir gut vorstellen. Natürlich habe ich keine Angst. Aber dieses mulmige Gefühl…….

 

Quellen
(1): Michael Vassiliadis, der Chef der für die Kraftwerkswirtschaft zuständigen IG Bergbau, Chemie, Energie; Kommentar zu den Vorgängen am 24.1.2017; Veranstaltung in Haltern am See vor Journalisten
(2): Urban Kaussen: „Droht uns ein Blackout ?“, Technology Review – TR Online, 08.07.2015; https://www.heise.de/tr/droht-uns-ein-blackout-2639922.hmtl

(3): Björn Lomborg: „Deutschlands gescheiterte Klimapolitik“, FAZ, 15.05.2015;
www.faz.net/aktuell/wirtschaft/energiepolitik/bjoern-lomborg-ueber-klimawandel-und-gescheiterte-klimapolitik-13580487-p3.html
(4): Thomas Petermann, Harald Bradtke, Arne Lüllmann, Maik Poetzsch, Ulrich
Riehm: „Gefährdung und Verletzbarkeit moderner Gesellschaften – am Beispiel
eines   großräumigen und langandauernden Ausfalls der Stromversorgung“,
17.5.2011; Arbeitsbericht Nr. 141; Publikation: „Was bei einem Blackout geschieht“, Studie des Büros für Technikfolgenabschätzung beim Deutschen Bundestag, Bd. 33, 2011, Verlag edition sigma, Berlin, ISBN 9783836081337, Volltext:
http://www.tab-beim-bundestag.de/de/pdf/publikationen/berichte/TAB-Arbeitsbericht- ab141.pdf

(5): Günter Keil: „Chronik einer Panik“, DIE ZEIT, 9.12.2004;
www.zeit.de/2994/51/N-Waldsterben




Elektromobilität? Politiker-Beschwichtigungs-Karossen!

Die nordrhein-westfälische Umweltministerin Christina Schulze Föcking machte unlängst Schlagzeilen, als sie einen erst kurz vorher von ihrem Vorgänger angeschafften Tesla-S-90D-Elektro-Dienstwagen wieder ausmustern ließ. Wer hier vermutet, dass man das nicht gerade ökologisch korrekte Image einer 110.000 Euro teuren und 422 PS leistenden Luxuskarosse scheute, beweist damit nur sein Alter. Moderne Öko-Hipster denken im Traum nicht mehr daran, ihre Doppelmoral schamvoll zu verbergen und zumindest nach außen hin eine Fassade von Frugalität zu bewahren; sie haben keine Hemmungen, ihren ressourcenfressenden Lebensstil ungeniert zur Schau zu stellen, solange sich irgendein Gimmick finden lässt, mit dem sie ihre öko-moralische Überlegenheit demonstrieren können. Nein, man war schlicht und ergreifend mit der Leistung der Rennsemmel unzufrieden, die Reichweite habe sich im Praxisbetrieb mit weniger als 300 Kilometern als zu gering herausgestellt. Als Ersatz gönnt sich die Ministerin jetzt einen noch dickeren Mercedes-S500-Verbrenner mit 442 PS (aber immerhin in der besonders teuren Hybridversion mit zusätzlichem Alibi-Elektromotörchen).

Also ein weiteres typisches Beispiel des Wasser-predigen-aber-Wein-saufen-Verhaltens der bundesrepublikanischen politischen Klasse, der die von ihr gepuschte Elektromobilität für den Eigengebrauch nicht gut genug ist, nicht einmal in einer High-End-Luxusausführung.

Wir wollen erst gar nicht die Frage aufwerfen, warum unsere Öko-Politokraten überhaupt dem bösen Individualverkehr frönen und nicht die vielgelobten (und subventionierten) öffentlichen Verkehrsmittel benutzen, die sie uns Normaluntertanen aufzwingen wollen.

Die Episode zeigt aber insbesondere auch in aller Deutlichkeit, dass trotz allen Hypes Elektroautos Lichtjahre von einer Wettbewerbsfähigkeit mit den uncoolen Verbrennern entfernt sind. Was das Reichweitenproblem angeht, so ergibt sich dies schon unmittelbar aus harten physikalischen Tatsachen: Die spezifische Energie eines Bleiakkus beträgt etwa 35 Wattstunden pro Kilogramm, moderne Lithium-Ionen-Akkus liegen hier deutlich besser bei etwa 150 Wattstunden pro Kilogramm. Aber: Benzin hat einen Energiegehalt von 12.800 Wattstunden pro Kilogramm, also 85 Mal soviel!

Eine Speicherkapazität von einer Kilowattstunde benötigt also einen Lithium-Ionen-Akku mit einer Masse von 6,67 Kilogramm; dies entspricht gerade einmal 0,08 Kilogramm oder 0,1 Liter Benzin. Hier muss man noch die unterschiedlichen Wirkungsgrade berücksichtigen: Im optimalen Drehzahlbereich erreicht beim heutigen Serienstand der Technik ein Saugbenziner 30 bis 35 Prozent, ein Turbobenziner 35 bis 40 Prozent und ein Diesel 40 bis 45 Prozent, während ein Elektromotor 90 Prozent und mehr erreichen kann (wobei aber etwa zehn Prozent Verlust in der Leistungselektronik zwischen Akku und Motor abgezogen werden müssen). Aber selbst wenn wir sehr großzügig aufrunden und von einer durchschnittlichen dreifachen Effizienz des Elektroantriebs gegenüber einem Benziner oder einer 2,5-fachen gegenüber einem Diesel ausgehen, so würden 6,67 Kilogramm Akkumasse doch immer noch lediglich etwa 0,24 Kilogramm oder 0,3 Litern Benzin entsprechen.

Der 90-Kilowattstunden-Akku des verschmähten Tesla entspricht also gerade einmal 27 Litern Benzin; dass die Reichweite des Wagens unter diesen Umständen zu wünschen übrig lässt, verwundert nicht wirklich, denn das ist recht mager für ein Zwei-Tonnen-Fahrzeug, woran der Akku mit mehr als einer halben Tonne wesentlich beteiligt ist. Das hohe Gewicht der Batterie wirkt sich natürlich auch negativ auf den Verbrauch aus: Bei Benzinern rechnet man für alle 100 Kilogramm mehr Gewicht mit einem Mehrverbrauch von etwa 0,3 bis 0,4 Litern je 100 Kilometer, was als Vorwand für staatliche Vorschriften genommen wird, die den Automobilherstellern strikte Gewichtsbeschränkungen bei neuen Verbrenner-Automodellen auferlegen; die Automobilhersteller sehen sich bei diesen deshalb gezwungen, um jedes Gramm zu kämpfen und vom technischen Standpunkt aus gesehen unnötige Kompromisse einzugehen. Bei den heiligen Elektro-Kühen, wo, wie wir hier sehen, das zusätzliche Gewicht allein durch die Batterie eine halbe Tonne mehr als bei einem äquivalenten Verbrenner betragen kann, kräht kein Hahn danach. Und die 90 Kilowattstunden gelten wohlgemerkt für ein extrem teures High-End-Modell, Elektromobile in für Normalverdiener halbwegs erschwinglichen Preisbereichen müssen mit Akkus von deutlich geringerer Kapazität auskommen. Üblich sind derzeit Kapazitäten im Bereich von etwa 30 Kilowattstunden, was nach unserer obigen Rechnung eine Tankgröße von gerade neun Litern ergibt.

Das Problem der geringen Reichweite wird noch wesentlich verschärft durch das zweite technische Hauptmanko der Elektrofahrzeuge, nämlich die langen Ladezeiten. Diese sind bedingt durch die sehr begrenzte Rate, mit der Batterien geladen werden können, ohne sie zu beschädigen. Heutige Ladestationen haben in der Regel eine Laderate von elf oder 22 Kilowatt; die „Supercharger“ von Tesla schaffen immerhin bis zu 120 Kilowatt. Für die fernere Zukunft wird von 350 Kilowatt gemunkelt, obwohl noch nicht klar ist, welche Fahrzeuge diese überhaupt werden nutzen können. Der Verbrennerfahrer kann über solche Zahlen nur müde lächeln; eine normale Pkw-Benzinzapfsäule mit einer Durchflussmenge von 35 Litern pro Minute hat, in Elektronomenklatur ausgedrückt, eine „Laderate“ von gigantischen 21 Megawatt oder immer noch von sieben Megawatt, wenn wir unseren großzügigen Umrechnungsfaktor benutzen.

Während man so einen Kraftstofftank in höchstens zwei bis drei Minuten auffüllen kann, dauert dies bei einem Elektromobil typischerweise mindestens fünf bis sechs Stunden, weshalb es in der Praxis zumeist erforderlich ist, in eine eigene häusliche Ladestation zu investieren, um über Nacht „nachtanken“ zu können. Inzwischen gibt es bei einigen Modellen auch „Schnelladung“; auch hier wird die Wartezeit an der Stromtankstelle aber ganz schön lang, da es die Ladezeit bestenfalls auf etwa 20 bis 30 Minuten verkürzt. Zudem setzen so hohe Ladeströme die Lebensdauer des Akkus herab, weshalb etwa bei Tesla die Anzahl der Schnelladezyklen über die Fahrzeugsoftware begrenzt wird. Ohnehin kommt man mit Schnelladung nur bis zu etwa 80 Prozent der Nennkapazität, wer volltanken will, muss die restlichen 20 Prozent im normalen Ultra-Schneckentempo absolvieren.

Aber auch unabhängig vom „Schnelladen“ wird empfohlen, nicht mehr als bis auf 80 Prozent der Nennkapazität aufzuladen und auf nicht weniger als 20 Prozent zu entladen, um die Lebensdauer des Akkus nicht herabzusetzen. Dies bedeutet natürlich effektiv, nur 60 Prozent der ohnehin unzureichenden Akkukapazität zu nutzen. Generell sind bislang kaum belastbare Erfahrungsdaten darüber publik geworden, wie gut es um die Langzeit-Haltbarkeit der Fahrzeugakkus steht; man geht von im Normalfall etwa sieben bis zehn Jahren aus, bis der Kapazitätsverlust einen Austausch nötig macht.

Ein weiteres ernstes Problem ist die starke Temperaturabhängigkeit der Akkus, die angegebenen Nennwerte erreichen sie nämlich nur in einem recht engen Temperaturbereich von etwa 20 bis 30 Grad Celsius. Außerhalb dessen sind negative Auswirkungen sowohl auf Kapazität als auch auf Ladezeit und Effizienz sowie Lebensdauer zu erwarten. So ist etwa bereits bei minus fünf Grad mit Kapazitätsverlusten im Bereich von 50 Prozent zu rechnen. Oftmals besitzen Elektroautos deshalb eine Heizung und eine Klimaanlage für die Batterie, was aber nicht nur ein Kostenfaktor ist, sondern auch für einen hohen zusätzlichen Energieverbrauch sorgt.

Aber mindestens ebenso bedeutsam wie die massiven technischen Nachteile des Elektroautos sind seine Kosten. Staatliche Subventionen und die für die Hersteller nicht kostendeckenden Preise (die letztendlich zumeist von den Käufern der normalen Modelle getragen werden müssen) verschleiern oftmals, wie exorbitant der Kostenaufschlag für die Elektromobilität eigentlich ausfällt.

Eine sehr gute Basis für einen realistischen Vergleich der Produktionskosten von Elektrikern und Verbrennern bietet der Chevrolet Bolt von General Motors, da er in relativ hohen Stückzahlen produziert wird und bis auf seinen elektrischen Antriebsstrang weitgehend identisch mit dem Benziner Sonic ist: Der Bolt hat einen Listenpreis von 37.000 US-Dollar (durch Subventionen kann dies für den Käufer natürlich deutlich weniger werden), einen Sonic mit vergleichbarer Ausstattung bekommt man schon für 19.000 US-Dollar. Allerdings macht GM etwa 8.000 bis 9.000 US-Dollar Verlust für jeden produzierten Bolt, womit sich die tatsächlichen Kosten auf mindestens 45.000 US-Dollar belaufen, was satte 26.000 US-Dollar oder 137 Prozent Mehrkosten im Vergleich zur Benziner-Version bedeutet. Dazu müsste man natürlich eigentlich noch die Gewinnspanne für die Benziner-Version aufschlagen, auf die GM bei seinen „normalen“ Fahrzeugen wohl kaum verzichten wird (auch wenn sie, da es sich um einen Kompaktwagen handelt, vermutlich nicht allzu üppig ausfallen wird).

Bei anderen Anbietern kommt man auf ganz ähnliche Zahlenwerte. So bietet etwa auch Fiat aufgrund der „Zero Emission“-Gesetze im US-Bundesstaat Kalifornien, die Elektro-unwilligen Automobilherstellern heftige Strafzahlungen androhen, eine Stromer-Version des Fiat 500 an. Sie kostet happige 33.000 US-Dollar im Vergleich zu etwa der Hälfte für eine entsprechende Benziner-Version. Einen Gewinn macht Fiat damit aber genauso wenig wie GM, wie Fiat-Chrysler-Chef Sergio Marchionne auf einer Konferenz mit folgender, wenig enthusiastischer „Werbebotschaft“ für das ungeliebte Produkt klarmachte: „Ich hoffe, Sie kaufen es nicht, denn jedes Mal, wenn ich eines verkaufe, kostet es mich 14.000 Dollar.“

Die Kosten für ein Elektroauto betragen also deutlich mehr als das Doppelte eines ansonsten vergleichbaren Verbrenners (vergleichbar heißt aber nicht gleichwertig, da natürlich die Gebrauchsnachteile des Elektrikers berücksichtigt werden müssen). Wie kommt diese gewaltige Kostenkluft zustande? Zum einen ist da natürlich der Preis für den notwendigen massiven Akku. Das kann aber nicht alles sein, wie ein weiterer Blick auf das Beispiel Chevrolet Bolt klarmacht. Der Einkaufspreis der Zellen für den dort verbauten 60-Kilowattstunden-Akku beträgt laut GM 8.700 US-Dollar, die Kosten für den gesamten Akku werden auf etwa 12.0000 bis 13.000 US-Dollar geschätzt. Der Akku ist also nur für etwa die Hälfte der Mehrkosten verantwortlich, offensichtlich sind auch andere Bestandteile des Antriebsstrangs an der Elektro-Kostenexplosion beteiligt.

Diese Feststellung ist insofern bemerkenswert, als sie in direktem Widerspruch zu den oft gehörten Behauptungen über vermeintliche Kostenvorteile für Elektrofahrzeuge wegen ihrer geringeren mechanischen Komplexität steht. Wirklich überraschend ist sie jedoch nicht, denn es ist ohne weiteres einsichtig, dass die vielbeschworenen Einsparungen für mechanische Komponenten in der Realität nicht sonderlich stark ins Gewicht fallen; ein Motor ist natürlich weiterhin vorhanden, und Elektrofahrzeuge benötigen entgegen einem weit verbreiteten Irrglauben durchaus ein Getriebe, auch wenn nur ein oder zwei Fahrstufen nötig sind und es daher etwas einfacher als bei einem Verbrenner ausfallen kann. An anderen Stellen muss dafür aber erheblich mehr Aufwand getrieben werden: So ist etwa eine umfangreiche Leistungselektronik für die Handhabung der hohen Ströme erforderlich, die für den Elektromotor notwendige Regelungselektronik fällt weitaus komplexer als für einen Verbrennungsmotor aus, und die geringe Verlustwärme des Motors hat auch Nachteile, da eine zusätzliche elektrische Heizung notwendig ist; die dringend zu empfehlende Batterieheizung/Klimatisierung haben wir schon erwähnt.

Angesichts der gravierenden Nachteile von Elektrofahrzeugen ist es kein Wunder, dass sie völlig von staatlichen Subventionen abhängig sind. Höhere Marktanteile – wofür schon der obere einstellige Prozentbereich gelten kann – erreichen sie nur dort, wo die Bevorzugung gegenüber Verbrennerfahrzeugen extreme Ausmaße von 100 Prozent des Fahrzeugwertes und mehr erreicht. In der Praxis geschieht dies dort, wo normale Autos besonders hoher steuerlicher Belastung ausgesetzt sind und Elektrofahrzeuge davon befreit werden. Sehr aufschlussreich ist es, zu beobachten, was geschieht, wenn diese Vergünstigungen wieder reduziert werden. In Hongkong erreichten Elektroautos, da sie von der dortigen hohen Anmeldesteuer befreit waren, durchaus ansehnliche monatliche Verkaufszahlen im dreistelligen Bereich. Vorwiegend handelte es sich um hochpreisige Teslas – die Firma machte 2015 etwa zehn Prozent ihres Auslandsumsatzes in Hongkong. Als die Steuerbefreiung schließlich auf einen Fahrzeugpreis von umgerechnet etwa 12.000 Euro gedeckelt wurde, waren die Auswirkungen dramatisch: Von einem Rekordwert von 2.964 Fahrzeugen im März 2017 sank die Zahl der Anmeldungen im Folgemonat auf buchstäblich Null – was sich in den Folgemonaten nur minimal auf knapp zweistellige Werte „erholte“. In Dänemark hatten Elektrofahrzeuge dank der Nichterhebung der für Autos sonst fälligen bis zu 180-prozentigen Importsteuer einen Marktanteil von immerhin 2,2 Prozent erreicht. Als aber 2016 Elektrofahrzeuge wieder steuerpflichtig wurden, sackten ihre Verkaufszahlen um gut 60 Prozent ab – und das, obwohl für Fahrzeuge unter umgerechnet etwa 100.000 Euro die Steuer nur auf moderate 20 Prozent der regulären Rate festgelegt wurde. Wie man sieht, ist es notwendig, die massiven Vergünstigungen auf Dauer aufrechtzuerhalten; das schließt diesen Weg zur Durchsetzung der schönen neuen Elektrowelt praktisch aus, da wohl kaum ein Finanzminister bereit sein wird, auf die ergiebige Melkkuh Autofahrer zu verzichten.

Aber wie sieht es mit der Zukunft aus? Wenn wir ihren Evangelisten Glauben schenken wollen, schreitet die elektromobile Revolution mit exponentieller Geschwindigkeit fort, und wenn die Fahrzeuge auch heute noch weit entfernt von jeglicher Wettbewerbsfähigkeit sein sollten, so werden sie sie in jedem Fall in wenigen Jahren erreicht haben. Aber auch hier sehen die harten Fakten anders aus: Signifikante Verbesserungen, sowohl was Leistung als auch was Kosten angeht, sind in absehbarer Zukunft nicht zu erwarten.

Zum Teil liegt dies daran, dass erst für die Zukunft prognostizierte positive Effekte schon eingetreten sind. Das gilt insbesondere für die „Skaleneffekt“-Entschuldigung der hohen Kosten elektrischer Fahrzeuge: Demnach würden diese bislang nur in vergleichsweise niedrigen Stückzahlen hergestellt, wenn erst ähnlich hohe Produktionsziffern wie bei der Verbrennerkonkurrenz erreicht seien, so würden sich auch die Kosten angleichen. Angesichts der Tatsache, dass schon heute mehrere Elektromodelle mit jährlichen Produktionszahlen im Zehntausenderbereich existieren, erscheint diese Argumentation jedoch wenig überzeugend. Um einmal mehr den Chevrolet Bolt und sein Benziner-Geschwister Sonic als Beispiel heranzuziehen: Vom Sonic wurden 2016 etwa 60.000 Stück gebaut, für den Bolt, der seit November 2016 auf derselben Produktionslinie gebaut wird, ist eine Jahresproduktion von 25.000 bis 30.000 Stück vorgesehen. Das ist wohl kaum ein größenordnungsmäßig entscheidender Unterschied. Mehr noch: Die Verfügbarkeit des Opel Ampera-e, der Version des Bolts für den europäischen Markt, wird künstlich auf wenige Tausend Stück im Jahr beschränkt, obwohl man, insbesondere aufgrund so extrem hoch subventionierter Märkte wie Norwegen, wesentlich mehr absetzen könnte. Es wäre sicherlich kein Problem, mit den Absatzzahlen für den nordamerikanischen Markt zumindest gleichzuziehen. Man sieht jedoch offensichtlich bei GM keine Möglichkeit, selbst bei einer wesentlichen Erhöhung der Stückzahlen das Fahrzeug kostendeckend produzieren zu können.

Auch beim Elektro-Wunderkind Tesla ist nichts von der Wirkung der wundersamen „Skaleneffekte“ zu spüren, denn dort verzeichnet man trotz einer inzwischen erreichten Jahresproduktion von annähernd 100.000 Fahrzeugen weiterhin horrende Verluste. Dies wiegt umso schwerer, als Tesla die durchaus clevere Strategie verfolgte, zunächst einmal gerade eben nicht ökologisch korrekt auf das Kleinwagensegment abzuzielen, wie das die etablierte Konkurrenz mit ihren E-Mobilen vorwiegend tat, sondern stattdessen extrem teure Luxus-Spaßmobile anzubieten, deren hohe Margen bessere Chancen boten, den Elektromobilitäts-Kostennachteil auszugleichen. Dass man aber auch so die Fahrzeuge, trotz hoher staatlicher Subventionierung, nur mit massiven Verlusten absetzen konnte, zeigt drastisch, wie extrem weit entfernt Elektroautos von einer Konkurrenzfähigkeit mit Verbrennern sind. Und nicht einmal eine Tendenz zum Besseren ist zu erkennen, denn aus einem Blick in die Tesla-Bilanzen lässt sich schließen, dass, obwohl sich die Produktionszahlen zwischen 2014 und 2016 fast verdreifachten, dies zu keiner Senkung der Produktionsstückkosten geführt hat, eher im Gegenteil.

Auch was speziell die Schlüsselkomponente des Elektromobils, den Akku, angeht, ist das Rationalisierungspotential bereits weitgehend ausgeschöpft. Eine Studie der University of Michigan etwa sieht das Optimum, ab dem eine weitere Erhöhung des Ausstoßes kaum noch zusätzliche Kostenvorteile mit sich bringt, bei einer jährlichen Produktionsrate von 200 bis 300 Megawattstunden. Diese Zahlen werden etwa beim Nissan Leaf, beim Chevrolet Bolt und von Tesla bereits überschritten. Weiterhin ist zu beachten, dass ein beträchtlicher Teil der von Elektro-Enthusiasten viel bejubelten starken Preissenkungen für Lithium-Ionen-Akkuzellen der letzten zehn Jahre nicht auf niedrigere Produktionskosten zurückzuführen ist, sondern auf das Schrumpfen der Gewinnspannen der Zellenhersteller, die in Erwartung des vermeintlichen riesigen Elektromobilitätsmarktes gewaltige Überkapazitäten aufgebaut haben und jetzt nur mehr mit hauchdünnen Margen oder mit Verlust arbeiten. Es ist kein Wunder, dass unter diesen Umständen inzwischen auch der letzte deutsche Zellenhersteller das Handtuch schmeißen musste. Bei den verbliebenen Herstellern handelt es sich vorwiegend um große asiatische Konglomerate, die die Zellenherstellung über andere, profitable Geschäftsbereiche quersubventionieren können. Es ist aber nicht anzunehmen, dass sie diesen Aderlass unbegrenzt tolerieren werden, wenn sich nicht in absehbarer Zeit der versprochene Bedarf auftut.

In der Propaganda der Elektro-Enthusiasten wird versucht, für die Entwicklung der Akkutechnologie einen ähnlich rasanten Fortschritt wie den durch das berühmte Mooresche Gesetz beschriebenen in der Mikroelektronik zu suggerieren. Aber alle Erfahrungen der Vergangenheit zeigen, dass die Entwicklung in der Batterietechnik nur relativ langsam fortschreitet, sowohl was die Verbesserung bestehender als auch was die Einführung neuer Technologien angeht. Der Bleiakkumulator etwa erfuhr in den mehr als 150 Jahren seiner Geschichte in seinen grundlegenden Eigenschaften nur recht moderate Verbesserungen.

Auch beim Lithium-Ionen-Akku ist der behauptete rasante Fortschritt eher nicht zu erkennen und verlangsamt sich in den letzten Jahren sogar noch. Das ist nicht weiter verwunderlich, denn die Technologie gilt als weitgehend ausgereizt, sowohl was Kosten als auch was Leistung betrifft. So geht Panasonic, der Lieferant für die Batteriezellen des Elektro-Vorzeigeherstellers Tesla, von lediglich 20 Prozent bis 30 Prozent mehr an spezifischer Energie aus, die sich noch aus der Lithium-Ionen-Zellentechnologie herausholen lassen würden. Das zeigt sich auch an den neuen Batteriezellen, die in der neuen Tesla-„Gigafabrik“ hergestellt werden und zwar eine höhere Kapazität aufweisen, gleichzeitig jedoch auch entsprechend größer sind, womit sich die Energiedichte also nicht verbessert hat. Diese Stagnation macht sich dann entsprechend auch in den Gesamt-Akkupaketen bemerkbar: Die Batterie des 2007 erschienenen ersten Fahrzeugs, des Roadster, wies eine spezifische Energie von 127 Wattstunden pro Kilogramm auf, was sich schrittweise bis auf 170 Wattstunden pro Kilogramm für das Model S von 2016 erhöhte. Bei den Batterien für das aktuelle Model X und das Model 3 von 2017 ist jedoch nicht nur keine weitere Erhöhung, sondern sogar eine Regression auf 150 Kilowattstunden pro Kilogramm festzustellen.

Mit dem Lithium-Ionen-Akku wird die elektromobile Revolution also nicht zu machen sein. Doch was ist mit den ganzen revolutionären neuen Batterietechnologien, die alle naselang verkündet werden? Zunächst einmal ist festzustellen, dass, wie üblich, die große Mehrheit dieser neuen Wundertechnologien scheitern und sang- und klanglos in der Versenkung verschwinden wird. Aber selbst bei denjenigen von ihnen, die sich als grundsätzlich realisierbar herausstellen sollten, wird es noch eher Jahrzehnte als Jahre dauern, bis sie für den Einsatz in Fahrzeugen relevant werden. Erste Versuchsmuster von Lithium-Ionen-Akkus wurden bereits in den 70er Jahren entwickelt, aber erst Anfang der 90er Jahre kamen die ersten kommerziellen Anwendungen auf den Markt. Es dauerte ein weiteres Jahrzehnt, bis sie einen solchen Reifegrad erreicht hatten, dass an einen Einsatz in automobilen Anwendungen gedacht werden konnte. Und erst heute, also noch ein weiteres Jahrzehnt später, kann man von einem leistungs- und kostenoptimierten Stand der Technik sprechen. Es gibt keinen Grund dafür, anzunehmen, dass zukünftige neue Batterietechnologien wesentlich kürzere Entwicklungszeiträume aufweisen werden.

Weiterhin muss kritisch geprüft werden, wie relevant die potentiellen Verbesserungen neuer Batterietechnologien tatsächlich für die Frage nach der Wettbewerbsfähigkeit von elektrischen Fahrzeugen sind. Nehmen wir etwa die Lithium-Schwefeltechnologie, die wohl die am weitesten fortgeschrittene unter den neuen Batterietechnologien ist: Hier wird euphorisch mit einer spezifischen Energie von 500 Wattstunden pro Kilogramm geworben, die sich bei den neuesten Labormustern schon erzielen lassen würden, für die fernere Zukunft wird sogar von zumindest theoretisch erzielbaren mehr als 2.000 Wattstunden pro Kilogramm gemunkelt. Das klingt zunächst sehr gut, bis man sich auch einmal die Energiedichte ansieht – diese ist nämlich nicht besser, tendenziell sogar eher etwas schlechter, als bei den etablierten Lithium-Ionen-Akkus. Im Klartext: Ich benötige weiterhin eine Batterie vergleichbarer Größe und Komplexität, mit einer vergleichbaren Anzahl von Einzelzellen, um eine bestimmte Energiemenge zu speichern; der einzige Vorteil ist, dass diese leichter sein wird. Nun wäre es sicherlich sehr willkommen, wenn die Batterie in meinem Elektrofahrzeug nur noch 100 oder 200 Kilogramm statt einer halben Tonne wiegt; aber das hohe Batteriegewicht ist unter den zahlreichen Problemen, die die Elektromobilität plagen, noch ein vergleichsweise harmloses. Es ist klar, dass sich bei den Hauptproblemen, den hohen Kosten und der geringen Reichweite, nur durch Verbesserung auch der Energiedichte echte Fortschritte erzielen lassen – eine Einzelzelle vergleichbarer Größe muss eine höhere Energiespeicherkapazität aufweisen.

Bis eine neue, wesentlich leistungsfähigere, Batterietechnologie einigermaßen ausgereift und zu vertretbaren Kosten verfügbar ist, wird es also selbst optimistisch gesehen eher noch 20 als zehn Jahre dauern. Die Kosten für Elektrofahrzeuge werden aber auch dann weiterhin höher sein, die Batterie wird immer einen signifikanten Zusatzaufwand bedeuten, der bei einem Verbrenner schlichtweg nicht existiert. Immerhin könnten sie dann einigermaßen deren Leistungsniveau erreichen.

Aber zumindest bis dahin ist jegliche Investition in elektrische Massenmarktmodelle und entsprechende Infrastruktur nichts weiter als sinnlos verschleudertes Geld. Unter diesem Gesichtspunkt kann man die von den rückgratlosen Managern der deutschen Automobilindustrie diensteifrig gegenüber der Politik versprochenen Milliardeninvestitionen in Elektrofahrzeuge nur mit Entsetzen betrachten, denn dieses Geld fehlt dann natürlich für Investitionen in die Weiterentwicklung von Verbrennungsmotoren. Als Beispiel sei hier die sogenannte homogene Kompressionszündung erwähnt, auch „Diesotto“ genannt, weil einem Ottomotor die Fähigkeit verliehen wird, in bestimmten Betriebszuständen alternativ auch die Selbstzündung eines Diesels zu nutzen, mit massiven Effizienzvorteilen. Die deutschen Hersteller haben die weitere Entwicklung dieser Technologie zugunsten der allgemeinen „Elektrifizierung“ aufgegeben und damit der Konkurrenz das Feld überlassen. Und die schläft nicht: Der japanische Hersteller Mazda hat für 2019 das erste Serienfahrzeug mit Diesotto-Motor angekündigt. Und so wird es wohl in einigen Jahren so aussehen, dass deutsche Hersteller mit ihren weitgehend unverkäuflichen (insbesondere zu kostendeckenden Preisen) Politiker-Beschwichtigungs-E-Karossen dastehen, während sie im tatsächlichen Massenmarkt gezwungen sind, mit veralteter Motorentechnologie gegen andere, weniger kurzsichtige, Konkurrenten anzutreten.

Diese Tatsache, nämlich dass sich die Verbrennertechnologie auch weiterentwickelt, ist im übrigen ein bei Betrachtungen über die Fortschritte in der Batterietechnologie gern vergessener Aspekt. Deshalb auch der Konjunktiv in der obigen Einschätzung, es ist nämlich durchaus nicht ausgeschlossen, dass wie in der Fabel vom Hasen und vom Igel bei der Einführung der schönen neuen Batterietechnik „Ück bün schon da“ ertönt, weil nämlich der Verbrennungsmotor inzwischen so große Fortschritte gemacht hat, dass sich der Abstand zwischen beiden Technologien nicht entscheidend vermindert hat.

Durchaus möglich ist auch, dass es letztendlich nicht die galvanische Zelle sein wird, die das ersehnte Energiespeichermedium für die Ablösung des Verbrennungsmotors liefern wird. Als Alternative kommt hier insbesondere die Kondensatortechnik in Frage – Physik statt Chemie. Aber die Erzielung brauchbarer Energiedichten für Hochleistungskondensatoren liegt in noch fernerer Zukunft als die Entwicklung einer neuen Generation von Batterien.

Aber stellen wir einmal die ketzerische Frage, aus welchem Grund wir eigentlich so ungeduldig das Kommen der elektromobilen Offenbarung auf Biegen und Brechen herbeiführen sollen. Wegen ihrer „Umwelt“-Freundlichkeit? Aber in welcher Beziehung haben die E-Mobile überhaupt einen „Umwelt“-Vorteil gegenüber Verbrennern? Diese Frage zu beantworten ist gar nicht so einfach, da, was als „Umwelt“-freundlich oder -feindlich zu gelten hat, sehr vage definiert ist und je nach politischem Einsatzzweck sehr unterschiedlich oder gar gegensätzlich interpretiert wird. Fangen wir einmal mit den „klassischen“ Kritikpunkten am motorisierten Straßenverkehr an, die Belästigung und Gesundheitsgefährdung durch Abgase. Hier wird bekanntlich bereits seit Jahren eine massive Kampagne insbesondere gegen den Diesel gefahren. Mit der Realität hat das nicht das Geringste zu tun, sowohl Diesel als auch Benziner haben in den letzten Jahrzehnten, was Abgasqualität betrifft, dramatische Fortschritte erzielt; keine durch Autoabgase verursachten Schadstoffe erreichen auch nur annähernd als gesundheitsschädlich einzustufende Konzentrationen.

Heutige Fahrzeuge erreichen, was Abgasreinigung betrifft, einen derart hohen Stand, dass es in einigen Kategorien sogar vorkommen kann, das aus dem Auspuff weniger Schadstoffe kommen, als in der Luft waren, die vorher eingesaugt wurde. Dies gilt etwa für den berühmt-berüchtigten Feinstaub, was der entsprechenden Kampagne einen ganz besonders absurden Zug verleiht. Abgesehen davon, dass es keinerlei Beleg dafür gibt, dass der Feinstaub, wie er in üblichen Konzentrationen vorkommt, gesundheitsschädliche Auswirkungen hat (die Konzentrationen in Innenräumen sind in der Regel weit höher), wird nur ein unbedeutender Anteil – etwa zehn Prozent – durch den Straßenverkehr verursacht. Wer Feinstaub als Problem ansieht, sollte als Abhilfemaßnahme vielleicht eher dafür plädieren, künftig den Staub auf den Straßen mit Wasserschläuchen abzuspritzen, wie man es früher gemacht hat. Und selbst wenn man speziell den Straßenverkehr betrachtet, so sind Reifen- und Bremsenabrieb weitaus bedeutendere Quellen für Feinstaub als der Motor: Ein moderner Dieselmotor produziert pro gefahrenem Kilometer etwa 0,2 bis 0,5 Milligramm Feinstaub, ein Fahrrad aber allein durch Bremsenabrieb etwa fünf bis zehn Mal soviel – Wo bleiben die Fahrradfahrverbote?

Das generelle Problem bei Schadstoff-Grenzwerten ist, dass sie, völlig unbeschwert von irgendwelchen wissenschaftlichen Fakten, nach Gutdünken von Bürokraten und Politikern gemäß deren politisch-ideologischer Agenda festgelegt werden können, sei es eine „öko“-sozialistische, oder wie bei den US-Grenzwerten, die VW zum Verhängnis wurden, eine ökonomische Kriegsführung gegen die bei der Dieseltechnologie führenden deutschen Unternehmen. So lassen sich etwa bei den neben dem Feinstaub besonders im Fadenkreuz der Anti-Diesel-Kampagne stehenden Stickoxiden in toxikologischen Experimenten keinerlei schädliche Auswirkungen bei Konzentrationen unterhalb von zwei bis drei Milligramm pro Kubikmeter Luft feststellen. Entsprechend wurde der Grenzwert für erlaubte Konzentrationen am Arbeitsplatz mit einem großzügigen Sicherheitsabstand auf 0,95 Milligramm pro Kubikmeter festgelegt, für besonders empfindliche Personen wie Kranke und Kinder ging man noch einmal auf 0,2 Milligramm pro Kubikmeter herab. Die höchsten in Deutschland im Straßenverkehr gemessenen Konzentrationen liegen bei etwa 0,07 bis 0,08 Milligramm pro Kubikmeter, also weniger als die Hälfte dessen, was man in Innenräumen selbst für besonders empfindliche Personen als unbedenklich ansieht. Kein Problem, sollte man meinen – bis auf die Tatsache, dass der Grenzwert für den Straßenverkehr von EUkraten völlig willkürlich auf den buchstäblich aus der Luft gegriffenen Wert von 0,04 Milligramm pro Kubikmeter festgelegt wurde.

Wenn möglich aber noch absurder wird es, wenn wir die angeblich entscheidende Umwelt-Trumpfkarte der Elektrofahrzeuge angehen, nämlich ihre „Klimafreundlichkeit“. Denn egal, ob man die CO2-Klima-Mythologie ernst nimmt oder nicht (oder zumindest vorgibt, sie ernst zu nehmen), Tatsache bleibt, dass der elektrische Strom, mit dem man ein Elektroauto auflädt, erst einmal produziert werden muss. Und das heißt, abgesehen von geringen und regional beschränkten Mengen an Wasserkraft und Geothermie sowie der Kernenergie, die man ja auf gar keinen Fall haben will, fossile Energie. Dies gilt natürlich ebenso für die Lieblinge der Energiewende, Windkraft und Solar, da es deren sattsam bekannte Unfähigkeit, kontinuierlich Strom zu liefern, erforderlich macht, ihre „Zappelstrom“-Produktion zu 100 Prozent mit konventionellen Kraftwerken abzusichern. Und da ein Kohlekraftwerk etliche Stunden zum Anfahren braucht, müssen diese nicht nur bereitgehalten, sondern auch ständig beheizt werden, damit sie bei einer Flaute rechtzeitig einspringen können.

Das heißt, dass ein Elektroauto in Deutschland, selbst bei der Verwendung von sogenanntem „Ökostrom“, de facto mit Kohle betrieben wird. Das könnte man freilich weitaus billiger und effektiver haben, wenn man wie im Zweiten Weltkrieg die Kohle verflüssigen und damit die Autos ganz normal betreiben würde (mit heutiger Technik wäre der Kostennachteil gegenüber Erdöl sogar nur noch moderat).

Weiter oben haben wir eine höhere Effizienz des Elektromotors im Vergleich zum Verbrenner festgestellt. Das gilt aber nur für eine isolierte Betrachtung, bei einem Blick auf das Gesamtsystem sieht die Bilanz weitaus weniger rosig aus. Zunächst einmal muss der Brennstoff natürlich in einem Kraftwerk in Elektrizität umgewandelt werden: Bei Kohle haben wir üblicherweise einen Wirkungsgrad von 30 Prozent bis 40 Prozent, bei den modernsten Kraftwerken bis zu 45 Prozent, also ähnlich wie bei einem Automotor. Normalerweise könnte man hier dennoch von einem gewissen Vorteil des Kraftwerks ausgehen, da es die meiste Zeit mit einem optimalen Auslastungsgrad gefahren werden kann, während man bei einem Automotor damit rechnen muss, dass er längere Zeit in eher ungünstigen Drehzahlbereichen betrieben wird. Das ist natürlich kein Argument für das Elektroauto, denn der Effizienzverlust bei ungünstigen Drehzahlen gilt selbstverständlich auch für Elektromotoren. Es kommt aber noch hinzu, dass die aktuelle Situation alles andere als normal ist, da die Kohlekraftwerke als Zappelstrom-Lückenbüßer herhalten müssen, womit von einer optimalen Auslastung zumeist keine Rede mehr sein kann. Und wenn der Strom erst einmal erzeugt ist, muss man noch etwa zehn Prozent Verlust für die Übertragung und etwa 20 Prozent für den Batterie-Ladevorgang, bei Schnelladung eher 30 Prozent, dazurechnen. Kaltes Wetter ist auch in dieser Beziehung ein schwerwiegendes Problem, bei Minusgraden kann der Ladeverlust durchaus auf 50 Prozent ansteigen.

Ein weiterer höchst problematischer (und deshalb zumeist unter den Teppich gekehrter) Aspekt von vorgeblichen CO2-Reduzierungstechnologien ist der bei ihrer Produktion anfallende CO2-Ausstoß. Wenn man etwa das bei der Herstellung von Solar- und Windkraftanlagen erzeugte CO2 mitberücksichtigt, so ergibt sich für die „Energiewende“ nicht nur keine Verminderung, sondern vielmehr eine Erhöhung des CO2-Ausstoßes. Bei der Elektro-Mobilität sieht es ähnlich aus: So wurde in einer Studie des schwedischen Umweltministeriums festgestellt, dass die Produktion allein des Akkus für einen Tesla Model S so viel CO2 freisetzt, dass selbst wenn man den zum Laden verwendeten Strom vernachlässigt, es mehr als acht Jahre dauern würde, bis man diese Menge CO2 wieder eingespart hätte; nach dieser Zeitspanne kann man davon ausgehen, dass die Batterie reif für die Verschrottung ist.

Die Elektromobilität reiht sich also nahtlos in den illustren Reigen von „Klimarettungs“-Gimmicks ein, die zwar horrende Kosten und immensen Schaden verursachen, deren Auswirkung auf den CO2-Ausstoß aber praktisch gleich null ist (und das oftmals auch noch in der falschen Richtung). Es führt kein Weg daran vorbei: Die einzige in absehbarer Zukunft verfügbare Technologie, die in der Lage ist, fossile Energie in nennenswertem Umfang zu ersetzen, ist die Kernenergie. Die Alternative ist eine Politik der extremen Energie-„Nachfragevernichtung“, die einen großen Teil der Bevölkerung in nach heutigen Maßstäben dermaßen bittere Armut treiben würde, dass wohl selbst der schlafmützige, obrigkeitshörige deutsche Untertan aufbegehren würde.

Wer keine dieser beiden Optionen haben will, wählt damit automatisch die einzige mögliche Alternative, nämlich den weiteren (und, aufgrund der Abschaltung der Kernkraftwerke, sogar verstärkten) Einsatz fossiler Brennstoffe, egal ob sie in Kraftwerken oder in Automobilen verbraucht werden.

Im Wettstreit zwischen wissenschaftlich-technischer Realität und politisch-ideologischem Dogma hat erstere eine Erfolgsquote von 100 Prozent, und es ist kaum davon auszugehen, dass die E-Mobilität hier eine Ausnahme darstellen wird. Wie lange wird es dauern, bis die Blase platzt? Diese Frage ist für mich auch persönlich direkt relevant: Mein Arbeitgeber, ein Entwickler von elektronischen Steuergeräten für die Automobilindustrie, wurde von einem großen Zulieferer übernommen, vorwiegend um einem neu gegründeten Geschäftsbereich zuzuarbeiten, der die vermeintliche Goldgrube E-Mobilität beackert. Als erstes Projekt wird jetzt an einer Elektroauto-Ladestation gebastelt.

Es stellt sich ein gewisser Déjà-vu-Effekt ein – vor einigen Jahren war ich bei einer Firma beschäftigt, die ein Entwicklungsprojekt für die Solartechnik-Sparte eines großen deutschen Elektrokonzerns unterstützte. Als die Investition in die vermeintliche Zukunftstechnologie sich als Milliardengrab herausstellte und das Projekt (und dann die gesamte Sparte) eingestampft wurde, erwies es sich leider als erforderlich, nach einer neuen Arbeitsstelle Ausschau zu halten. Man sagt zwar, dass sich die Geschichte nie exakt gleich wiederholt, es ist aber wohl vielleicht doch eine gute Idee, die Bewerbungsunterlagen aktuell zu halten.

Dieser Beitrag wurde vom Blog eigentümlich frei übernommen