1

Thyssen-Krupp: Deutschland wird kohlenstoffbefreit!

von Dirk Maxeiner

Mit der geplanten Fusion der deutschen Thyssen-Krupp-Stahlsparte und der indischen Tata-Gruppe passiert genau das, was unsere ergrünten politischen Führer seit Jahren anstreben: Deutschland wird kohlenstoffbefreit. So bekommt die Nation den Klimaschutz einmal ganz praktisch vorgeführt.

Der deutsche Thyssen-Krupp-Konzern und die indische Tata-Gruppe wollen ihre europäischen Stahlwerke unter dem Dach einer gemeinsamen Firma zusammenlegen. Das neue Unternehmen wird seinen Sitz in den Niederlanden haben. Insgesamt 4.000 Stellen sollen wegfallen. Es gehört nicht viel Phantasie dazu, dass dies erst der Anfang ist, mittelfristige darf man getrost eine Null hinzufügen: 40.000 verlorene Jobs. Die Stahlsparte von Thyssen-Krupp beschäftigt etwa 27 000 Mitarbeiter, Zulieferer und die übrige am Stahl hängende Infrastruktur ist dabei gar nicht mitgezählt.

Während die deutsche Autoindustrie kohlenstoffbefreit erst am Abgrund steht, ist die Stahlindustrie jetzt einen Schritt weiter.  So dürfte die böse Stahlerzeugung mit ihren Hochöfen in diesem Lande demnächst der Vergangenheit angehören. Und dies hat eben nicht nur mit dem verschärften internationalen Wettbewerb zu tun, sondern auch mit hausgemachten Vorschriften und Restriktionen.

„Das Ruhrgebiet ist die Herzkammer der deutschen Industrie. Dazu gehört unverzichtbar die Stahlindustrie“, sagte der seinerzeitige Bundeswirtschaftsminister Sigmar Gabriel zum Auftakt eines großen Aktionstages der deutschen Stahlindustrie noch im vergangenen Jahr. Hintergrund der Aktion war eine Krise der Traditionsbranche durch Dumpingpreise für Stahl-Einfuhren aus China und drohende höhere Kosten durch Klima- und Energieauflagen in Europa. Konkret protestierten die Stahlkocher gegen die geplante Verschärfung des EU-Emissionshandels. Doch diese sogenannten Klimaschutzmaßnahmen sind eben auch immer von der SPD mitgetragen worden. Ganz zu schweigen von unserer Klimakanzlerin und der EU, die Klimaauflagen nicht scharf genug ausgestalten kann. Besonders drollig ist daher, wenn sich der Heilige Martin jetzt als Retter der Witwen und Waisen aufspielt. Krokodilstränen kullern überall.

Über den Hintergrund dieses Emissionshandels lässt sich aus der Sicht der Stahlindustrie hier alles nachlesen.  (Und aus Sicht der Handelsbefürworter hier).  Aus der Verschärfung ergäbe sich nach Angaben der Stahlndustrie eine massive Unterausstattung an CO2-Zertifikaten. Und wer wartet schon gerne ab, bis ihm im wahrsten Sinne des Wortes die Luft abgedreht wird.

Wenn die Verschärfungen so kommen wie geplant, dann würden die den Stahlherstellern zugestandenen Emissionsmengen nicht mehr ausreichen und sie hätten bis 2030 eine „Unterdeckung“ von bis zu rund 50 Prozent. Die Stahlindustrie müsste entweder die Stahlproduktion verringern oder Zertifikate zukaufen. Allein für die Unternehmen in Deutschland ergäbe sich daraus eine Mehrbelastung von rund einer Milliarde Euro jährlich. Diese Kosten können angesichts des intensiven internationalen Wettbewerbs nicht an die Kunden weitergegeben werden.

Der sogenannte „Luftverschmutzungsmarkt“ (obwohl nicht um Luftverschmutzung, sondern Treibhausgase geht) wurde im Gefolge des Kioto-Protokolls etabliert. Hinter dem Handel steht die Idee, den Ausstoß von Kohlendioxid möglichst effizient zu begrenzen. Um ein limitiertes Gesamtvolumen an Abgasen nicht zu überschreiten, werden Emissionsrechte anteilig an Kraftwerke, Industriezweige oder bestimmte Firmen verteilt.  Wer danach mehr CO2 ausstößt als er darf, muss Rechte zukaufen. Wer unter seinem Limit liegt, kann die überschüssigen Gutscheine verkaufen. Also beispielsweise jemand, der seine Abgase wegen eines tollen technischen Tricks billig verringern kann. Theoretisch ist das gar keine schlechte Idee, praktisch sieht es oft finster aus. Insbesondere dann, wenn  Länder wie Indien oder China milderen Vorschriften unterliegen, als die in Europa oder den USA. Dann werden die Emissionen und mitsamt der Arbeitsplätze einfach dorthin exportiert, so wie das auch diesmal geschehen dürfte.

Der Handel mit „Emissionsrechten“ ist schon lange ein Renner auf dem Finanzmarkt und ein Paradies für dubiose Geschäfte. Beispielsweise hat das Frankfurter Landgericht hat sechs ehemalige Beschäftigte der Deutschen Bank verurteilt. Die Bankangestellten waren nach Ansicht des Gerichts wesentlicher Bestandteil eines Umsatzsteuerkarussells, mit dem eine internationale Tätergruppe in den Jahren 2009 und 2010 rund 850 Millionen Euro hinterzogen haben soll. Beim Handel mit EU-Rechten zum Ausstoß von Kohlendioxid (CO2) wurden nach Erkenntnissen der Ermittler über deutsche Gesellschaften Emissionsrechte aus dem Ausland gekauft und im Inland über Zwischenfirmen weiterverkauft, ohne Umsatzsteuer zu bezahlen. Die jeweils letzte Gesellschaft in der Kette veräußerte die Papiere wieder ins Ausland. Dafür ließen sich die Betrüger vom Finanzamt Umsatzsteuer zurückerstatten, die nie gezahlt worden war.

Bei der Übernahme des britischen Stahlkochers „Corus Steel“ vor zehn Jahren  hat Tata schon einmal vorgemacht, was von Arbeitsplatz zusagen zu halten ist: Tata hat ein Corus-Stahlwerk im britischen Redcar  zugemacht und die CO2 Zertifikate in Höhe von 1,2 Milliarden Pfund weiterverkauft. Ein prima Geschäft, aber leider blieben 1.700 britische Stahlwerker im Regen stehen.

Für den Hintergrund ist zumindest interessant, dass es zwischen Tataund „Welt-Klimarat“ (IPCC) Beziehungen gibt. So war der langjährige Vorsitzende des  IPCC, der Inder Rajendra Pachauri unter anderem  Direktor des indischen „The Energy and Resources Institute“ (TERI).  Die Buchstaben TERI standen bei der Gründung ursprünglich für: „Tata Energy and Resources Institute„.

Übernommen von ACHGUT hier




Die seltsame Liebe der Politiker zum Elektroauto Teil II – Die Physik gibt keinen Idiotenrabatt

Das Bündel schwerwiegender Nachteile hat eine 136 Jahre alte Ursache: Die Batterien

Die Angebote der Industrie an E-Autos überzeugten bisher nur wenige Kunden, was nicht weiter verwundert, wenn man die hohen Preise, das hohe Gewicht, die kläglichen Reichweiten – die im Winter nochmals abnehmen -, die langen Ladezeiten und die begrenzte Lebensdauer der extrem teuren Batterien betrachtet. Autofahrer sind nicht dumm und es spricht für sie, dass sie sich auch nicht für dumm verkaufen lassen.

Eine fachliche Bewertung der Situation um die Entwicklung von Batterien und die Rolle der Politik hat Prof. Dr.rer.nat. Frank Endres, Leiter des Instituts für Elektrochemie an der T.U. Clausthal 2014 veröffentlicht:
„Die weitgehend auf Erinnerungsschwäche beruhende neue Begeisterung von Politikern für das alte Thema ignoriert weiterhin das Fehlen zuverlässiger und kostengünstiger Antriebsbatterien. Das ist seit etwa 100 Jahren der Fall, als mit der Erfindung des Automobils sofort auch der Elektroantrieb Anwendung fand. Nach einigen Jahren hängte der Verbrennungsmotor, der seine Energie aus den flüssigen Kohlenwasserstoffen holt, den E-Antrieb hoffnungslos ab. Seither arbeiten Generationen von Experten der physikalischen Chemie an der Verbesserung der Akkumulatoren. Alternativ versucht man den Menschen einzureden, dass sie eh kein Auto bräuchten, das mehr als 100 km Reichweite hat. Sie sollen für längere Strecken schließlich die Bahn nutzen.

Lebensdauer, Alterung und Betriebssicherheit von Batterien


Alle Batterien unterliegen unvermeidbar einer zyklischen (gemäß der Zahl der Lade/Entladezyklen) und kalendarischen Alterung. In den letzten Jahren waren Lithiumionen-Batterien in aller Munde. Lithium ist jedoch ein sehr reaktives und auch nicht sehr häufiges Metall, das mit jedem bekannten Elektrolyten chemisch reagiert. Solche Batterien sind daher nicht dauerhaft stabil. Lässt man eine Lithiumionenbatterie mehrere Jahre liegen, bläht sie sich im Laufe der Zeit wegen der Alterung auf. Wird sie dann stark belastet, kann sie zu brennen beginnen. Auch beim wiederholten Laden/Entladen leidet die Batterie – ihre Materialien werden durch mechanischen Stress während der zyklischen Belastung immer mehr zerstört.

Wir haben post-mortem-Analysen von Batterien, die gebrannt hatten, durchgeführt und konnten sehen, dass sich in den Batterien sog. „hotspots“ bildeten, die schließlich derart viel Wärme erzeugten, dass die Batterie in einen instabilen Überhitzungszustand geriet.

Bei Zink-Luft-Akkumulatoren nimmt die dort verwendete Kalilauge Kohlenstoffdioxid aus der Luft auf; Hier altert also der Elektrolyt, und neue Konzepte sind erforderlich.
Wegen der kalendarischen Alterung liegt die maximale Lebensdauer bei 6 Jahren, aber auch nur 3 Jahre Lebensdauer können vorkommen.
Und ein gänzlich neues Batteriekonzept ist so schnell nicht zu erwarten.


Die Energiedichte


In der Frage der erreichbaren Energiedichte schlägt leider die Thermodynamik unbarmherzig zu. Die elektrochemische Spannungsreihe erlaubt maximal 6 Volt für ein Elektrodenpaar; das wäre dann aber eine (hochgefährliche) Lithium/Fluor-Batterie, deren technische Umsetzung und Verwendung kaum vorstellbar sind. Voll geladene Lithiumionen-Akkus heutiger Bauart haben bei einer Einzelzelle eine Spannung von 4,2 Volt. Mehr ist schwer zu erreichen, weil man noch keine Elektrolyte gefunden hat, die für sog. „5-Volt-Batterien“ geeignet sind. Es ergibt sich wegen des spezifischen Gewichts der Batteriematerialien derzeit eine maximale Energiedichte von 0,3 kWh/kg; technisch erreichen kann man heute nicht mehr als 0,15 kWh/kg.

Kohlenwasserstoffe enthalten dagegen rund 12 kWh/kg, wovon ein guter Dieselmotor ca. 5 kWh in mechanische Energie umsetzt.
Wirkungsgrad-bereinigt schneiden Kohlenwasserstoffe bezüglich der Energiedichte also mindestens 30-mal besser ab als Li-Ionen-Akkumulatoren.

Energiedichten von 1 – 5 kWh/kg sind nur mit Metall-Luft-Batterien denkbar. Relativ leicht herstellbare Zink/Luft-Batterien erreichen schon bis zu 0,5 kWh/kg, aber die oben beschriebene Alterung des Elektrolyten ist das zentrale Problem. Neue Konzepte sind in der Erforschung; mit einem Markteinsatz ist frühestens in 5 Jahren zu rechnen – und da am ehesten aus US-amerikanischer Fertigung.

Lithium-Luft-Batterien wurden als die Lösung aller Probleme angepriesen, und man sprach von bis zu 15 kWh/kg, was aber eine höchst unseriöse Zahl ist, da sie nur auf das Lithium alleine bezogen wurde und die andere Elektrode, der Elektrolyt, das Gehäuse usw. nicht berücksichtigt wurden. Im Labor erreichen Lithium/Luft-Batterien 1 kWh/kg, sie altern aber rasch, und eine Lösung für dieses Problem erscheint in weiter Ferne. Ein Einsatz ist frühestens in 20 Jahren zu erwarten, falls überhaupt.

Mit Unterstützung des BMBF arbeitet unser Institut an der TU Clausthal grundlegend an Aluminium/Luft und Silizium/Luft-Batterien. Die denkbaren Energiedichten liegen bei 1 – 4 kWh/kg, aber das ist Grundlagenforschung und ebenfalls weit von einer kommerziellen Nutzung entfernt.

Vielleicht können Lithium/Schwefel-Batterien als Nächstes vermarktet werden. Im Labor erreichen sie schon 1 kWh/kg. Sie altern aber schnell und die nutzbare Energiedichte liegt bei ca. 0,3 kWh/kg, was im Vergleich zu Lithiumionenbatterien immerhin um einen Faktor 2 besser wäre.
Ich rechne eher mit einer langsamen Evolution im Batteriesektor als mit einer schnellen Revolution.


Die Kosten


Wirklich gute Lithiumionen-Akkus, wie sie z.B. im Modellflug verwendet werden, kosten zwischen 1.000 und 1.500 €/kWh und selbst die „billigen“, wie sie in Elektroautos genutzt werden, kosten heute 500 €/kWh. Auf die immer einmal wieder ins Feld geführten 100 – 200 €/kWh werden wir m.E. noch ein wenig warten müssen, und bei der angepriesenen Speicherbatterie eines Elektroautoherstellers mit ca. 300 €/kWh muss man die Langzeitqualität abwarten.

Das Fazit der näheren Betrachtung der elektrochemischen Batteriearten, die mindestens eine gewisse Entwicklungsreife aufweisen, als mögliche Speicher zur großtechnischen Netzstabilisierung lautet somit „nicht langzeitbeständig“ und „unbezahlbar“.
(Ende des Zitats von Prof. Endres)

Prof. Helmut Alt, FH Aachen, hat den Vergleich von Benzin- bzw. Dieselautos mit Elektroautos auf den Punkt gebracht:
„Einen 70-Liter Tank, der fast nichts kostet, länger hält als das Auto und ohne Lebensdauerverlust in 3 Minuten geladen ist, durch Batterien zu ersetzen, ist ein Wunschtraum, der aber nach allen derzeit bekannten physikalischen und chemischen Erkenntnissen heute und in denkbarer Zukunft nicht realisierbar ist.“


Die Batterieproduktion ist alles andere als umweltfreundlich

Bei allen Energie konsumierenden Geräten und Anlagen sollte man sich auch deren energetische Entstehungsgeschichte näher ansehen. Der SPIEGEL 34/2017 zitierte eine Studie des schwedischen Umweltinstituts IVL. „Was Fachleuten grundsätzlich bekannt ist, aber gern verschwiegen wird: Batteriezellen sind nicht nur extrem schwer und teuer, ihre Herstellung verschlingt auch Unmengen an Energie. Für die Produktion eines 100-kWh-Akkus nennt die Untersuchung eine Klimabelastung von 15 bis 20 Tonnen Kohlendioxid. Ein sparsamer Kleinwagen mit Benzin- oder Dieselmotor müsste bis zu 200.000 Kilometer fahren, um so viel Klimagas in die Luft zu blasen“.
Diese Zahlen werden durch eine Studie des Instituts für Energie- und Umweltforschung in Heidelberg aus dem Jahre 2014 bestätigt, nach der die Produktion einer Kilowattstunde Batteriekapazität 125 kg CO2 „kostet“. Das sind für eine 100-kWh-Batterie 12,5 Tonnen. Dazu kämen noch die CO2-Emissionen, die bei der Produktion des Elektromotors anfallen.
In einem weiteren Artikel des SPIEGEL 32/2017 wird über die Gewinnung von Lithium aus dem ausgetrockneten Salzsee im Norden der Atacama-Wüste in Chile berichtet: „Das Verfahren verschlingt enorme Mengen Wasser – in einer der trockensten Gegenden der Welt. Es ist ökologisch höchst umstritten, ökonomisch aber hoch lukrativ.“


Feuer !


Akkus, die brennen können, gab es bei den braven, schweren Bleiakkus, die in unseren nichtelektrifizierten Autos immer noch treu ihre Dienste verrichten, niemals. Seit den Lithium-Ionen-Batterien – eine große Erfolgsgeschichte – hat sich das geändert. Als erstes gingen Laptops reihenweise in Flammen auf. Dann traf es auch mehrfach Autos, die mit diesen Stromspeichern angefüllt waren: So verabschiedete sich am 4.1.2016 ein Tesla Modell S an einer norwegischen Ladestation in einer spektakulären Flammenshow. Der Brand konnte nicht gelöscht werden.

Aber die Alarmnachrichten berücksichtigen nicht, dass inzwischen Hunderte von Millionen Li-Ionenbatterien in Gebrauch sind und diese Unfälle daher immer noch selten sind. Aber neue Gefahren rufen immer neue Gegenmaßnahmen hervor, weshalb die Internationale Zivilluftfahrt-Organisation ICAO Anfang ab April 2016 die Mitnahme aller Geräte mit Lithium-Ionen-Akkus im aufgegebenen Fluggepäck verboten hat.
Je näher man den physikalischen Grenzen in der Batterietechnik kommt, desto kritischer scheint es für die Benutzer zu werden. Ob deshalb die Hoffnungen auf Batterietechnologien mit wesentlich höheren Energiedichten so ihr Ende finden, wird sich zeigen.


U-Boote zeigen die Grenzen der Batterietechnologie

Einen zwar indirekten, aber sehr klaren Beweis dafür, dass es bisher keine dem Blei-Säure-Akku in jeder Hinsicht überlegene Batterietechnik für Antriebszwecke gibt, zeigen die militärischen Entwicklungen im U-Boot-Bau. Obwohl den Marinen sowohl in den USA als auch in der Sowjetunion vergleichsweise enorme Mittel zur Verfügung gestanden haben, ist es beiden bis heute nicht gelungen, die Bleibatterien in den konventionellen U-Booten (also denen, die keinen Nuklearantrieb besitzen) durch eine überlegene Batterietechnik zu ersetzen. Man kann davon ausgehen, dass in den vergangenen Jahrzehnten in den Laboratorien dieser Länder sowohl kontinuierlich als auch massiv an entsprechenden Entwicklungen gearbeitet wurde – und auch noch wird. Das Ergebnis dieser Anstrengungen, gegen die das derzeitige Engagement der zivilen Industrie eher bescheiden anmutet, ist die Erkenntnis, dass nach wie vor die Bleibatterie die beste Lösung darstellt.
Wer zum Beispiel den Museumshafen im holländischen Zandvoort besucht und dort das große konventionelle russische U-Boot besichtigt, kann durch einen Blick in den jetzt leeren, riesigen Bauch des Bootes einen Eindruck von der Masse der Bleiakkus gewinnen, die dort einst die Fahrt im getauchten Zustand angetrieben haben. In diesem Punkte hat sich gegenüber der U-Boot-Antriebstechnik für die Unterwasserfahrt im 2. Weltkrieg bis heute einzig und allein die schiere Masse der Bleiakkus im Rumpf der konventionellen U-Boote erhöht. Niemals würde die Marine die Verwendung von Lithium-Ionen-Batterien auf U-Booten erlauben, so lange die nicht vollständig überwundene Brandgefahr dieser Speicher weiter besteht.

Dies war der Grund für die Entwicklung des „außenluftunabhängigen Antriebs“ der ab März 2004 eingeführten deutschen U-Boote der Klasse 212 A. Kernstück dieser U-Boote ist ein Antrieb mit Brennstoffzellen. Die Brennstoffzellen sind elektrochemische Wandler, die mit Wasserstoff aus Metallhydrid-Speichern und flüssigem Sauerstoff aus Drucktanks versorgt werden und dadurch Gleichstrom erzeugen. Das „Verbrennungsprodukt“ ist reines Wasser.
Weil die Brennstoffzelle nicht in kürzester Zeit ihre Leistung verändern kann, muss deren Strom in der Bordbatterie zwischengespeichert und dann dem Antrieb zugeleitet werden. Und diese Bordbatterie ist – ein Blei-Säure-Akku. Damit kennt man den modernsten Stromspeicher, den die Marineschiffe heute besitzen. Es gibt immer noch nichts Besseres. Und das seit seiner Erfindung durch den französischen Physiker Gaston Plante im Jahre 1869.
Oder doch ? Die Torpedos der U-Boote werden mit einem anderen Batterietyp ausgerüstet: Silber-Zink-Batterien. Für die Militärs eine gute Wahl, aber für den Antrieb von Autos leider unbezahlbar.


Bringen Batterie-Neuentwicklungen den Durchbruch ?

Die zahlreichen in der Presse erwähnten neuen Batterieentwicklungen sollte man also vor dem Hintergrund der trotz ihrer wenig eindrucksvollen Speicherkapazität nach wie vor in militärischen Anwendungen favorisierten Blei-Säure-Akkus betrachten. Folgendes gab es in letzter Zeit zu lesen:
– Es wird intensiv an der Weiterentwicklung der Li-Ionenbatterie gearbeitet – vor
allem geht es dabei um deren Kosten, Effizienz und Sicherheit. Das DLR-   Institut für Technische Thermodynamik in Stuttgart arbeitet im Verbundprojekt „Li-EcoSafe“ daran.
– Der Aluminiumkonzern Alcoa und der israelische Akkuhersteller Phinergy arbeiten an einer Kombination einer herkömmlichen Li-Ionenbatterie und einer Aluminium-Luft-Batterie. Letztere kann nicht aufgeladen werden; stattdessen muss das Auto in die Werkstatt, wo die aufgebrauchten Al-Anoden ausgetauscht werden. Man will damit eine Reichweite von 1.600 km ermöglichen. Die Umständlichkeit dürfte dem Konzept keinen Erfolg bringen.

Es gibt eine Reihe weiterer Entwicklungsarbeiten an verschiedenen
Batterietypen, aber vor allem gibt es eindrucksvolle Ankündigungen für die
angestrebten Ladungskapazitäten, Gewichte und Kosten. Dabei wird oft unglaublich übertrieben. „Der SPIEGEL unternahm im Februar 2017 einen Praxistest mit dem E-Mobil Zoe von Renault. Bei der Autobahn-Richtgeschwindigkeit von 130 km/h war an die im Normzyklus ermittelte Reichweite von 400 km nicht mehr zu denken. Übrig blieben etwa 150 km. Auch die wundersamen Reichweiten der teuren Tesla-Modelle werden in einem realistischen Reiseszenario nicht annähernd erzielt. In der amtlichen Kriechfahrt der Prüfzyklen hat der Elektroantrieb perfekte Bedingungen, um sparsam zu sein. Fernreisen mit heute auf Autobahnen üblichen Geschwindigkeiten zehren die Batterie dagegen im Schnellgang aus“. (SPIEGEL 34/2017: „Der große Schwindel mit den Elektroautos“.)
Derartige Angebereien und Übertreibungen sind typisch für eine Situation, in der es staatliche Fördermittel für Innovationen gibt. Wer nicht bei den behaupteten Projektergebnissen bedenkenlos übertreibt, muss befürchten, von den Beamten kein Geld zu bekommen.
(Der Autor war 30 Jahre im Bundesforschungsministerium in der Projektförderung tätig. Die obige Aussage beruht auf eigener Erfahrung.)
Die oben zitierten Aussagen von Prof. Endres sind dagegen nüchterne
Beschreibungen der Realität. Seine Bewertungen der politischen Zielsetzungen und Erwartungen sollten ernst genommen werden.

Es gibt somit reihenweise gute Gründe dafür, dass auch die derzeitige erneute Beschwörung des Elektroantriebs für Automobile das Schicksal aller vorangegangenen Versuche teilen wird: Die stillschweigende Aufgabe dieser Idee.
Damit das aber nicht erneut geschieht, scheint es jetzt der Plan der Politiker zu sein: Wir zwingen die widerspenstige Automobilindustrie mit immer schärferen Abgas-Grenzwerten, sich dem Elektroauto zuzuwenden und wir subventionieren deren Anschaffung, damit auch die widerspenstigen Autofahrer ihre Zurückhaltung aufgeben. Also wieder einmal Planwirtschaft, die bekanntlich noch nirgends funktioniert hat.


Die Physik gibt keinen Idiotenrabatt

Unsere Medien haben beschlossen, den von den Autokäufern weitgehend boykottierten Durchbruch der Elektroautos, den sie ständig beschwören, propagandistisch herbeizuschreiben. Kürzlich las man sogar von einem „Quantensprung“ in der Batterieentwicklung, der nun bevorstehen würde. Die Quanten wollen aber nicht springen. Dass die Entwicklung einer neuen Technik sehr viel länger dauert, als eine Legislaturperiode des Parlaments, haben die Politiker, die finanzielle Förder-Töpfe mit Steuergeld verwalten und einsetzen, zu ihrem Leidwesen schon immer erfahren müssen. Niemals stellt sich ein Erfolg in 4 Jahren ein. Wenn überhaupt, dauert es mindestens 12 bis 15 Jahre. Misserfolge allerdings zeigen sich schneller, was dazu führt, dass weitere Mittel den bereits verlorenen Millionen hinterher geworfen werden, um die Pleite zeitlich hinauszuschieben – zumindest in die nächste Legislaturperiode, wenn ein anderer auf dem Ministerstuhl sitzt.

Die Entwicklung besserer, neuer Batterien allerdings vollzieht sich in einem Sektor der Physik, in dem es den Forschern und Entwicklungsingenieuren sehr schwer gemacht wird, Erfolge oder gar Durchbrüche zu erzielen. Die mit 136 Jahren nahezu unendliche und erfolgsarme Geschichte der Antriebsbatterien für Autos zeigt vielmehr, dass man eine Technologie für langlebige, bezahlbare und zuverlässige Batterien schon zu Beginn dieses Zeitraums ausgewählt hat – gemeint ist die Blei-Säure-Batterie – und seither mit ihren Limitierungen (Gewicht, und Speicherkapazität) leben muss. Man hat seither eine unbekannte, aber gewiss riesenhafte Menge Geld ausgegeben, um neue, in jeder Hinsicht überlegene Konzepte für die elektrochemischen Speicher zu finden und zur Einsatzreife zu bringen – das einzige, bedingt brauchbare Ergebnis von mehr als 130 Jahren Arbeit scheint die Lithium-Ionenbatterie zu sein, die zumindest Anwendungen mit geringem Strombedarf wie Laptops, Elektrowerkzeuge, Mobiltelefone usw. erobert hat und für diese einen großen Fortschritt darstellt.
Dass diese Technik aber nicht im Entferntesten den ganz normalen Ansprüchen von Autofahrern an ihre Fahrzeuge genügt, ist ebenso klar. Daran ändert auch die nahezu religiöse Verehrung der Tesla-Autos durch eine Gemeinde von Anhängern nichts, die sich damit als Öko-Vorbilder präsentieren wollen und dafür gerne extreme Kosten und reale Gebrauchsnachteile in Kauf nehmen.
Wie es tatsächlich um die Chancen und physikalischen Möglichkeiten einer Realisierung neuer, überlegener Batterietechnologien bestellt ist, beschrieb Prof. Endres. Die Physik ist unpolitisch und bietet Ideologen keine Rabatte.

Gasantrieb: Die bessere Alternative zum Elektroauto


Die politische Verblendung, Autos unbedingt elektrisch antreiben zu wollen, ignoriert eine schon lange eingeführte und bewährte Technik, die unter Umweltgesichtspunkten weitaus besser ist: Autogas und Erdgas. Es gibt dafür bereits ein bundesweites Versorgungsnetz; die Stickoxid-Emissionen liegen in der Nähe des Nullpunktes und wer sich um die CO2-Emissionen sorgt: Sie liegen um 20% niedriger als es die verbreiteten, heutigen Antriebskonzepte können. Die Umrüstung älterer PKW auf diesen Antrieb ist Stand der Technik, aber es gibt selbstverständlich eine Reihe von Autotypen, die schon ab Werk dafür eingerichtet sind.

Sämtliche Nachteile der E-Autos gibt es hier nicht: Die Anschaffung ist ungleich billiger, Reichweitenprobleme existieren nicht, die teure Einrichtung einer Lade-Infrastruktur entfällt, das Auftanken ist einfach und rasch erledigt, das erhebliche, energiefressende Zusatzgewicht einer Großbatterie entfällt und es gibt weiterhin einen nutzbaren Kofferraum. Zudem steigt die Lebensdauer der Motoren.

In Deutschland hat der Kunde die Wahl zwischen zwei Gasantrieben:
Erdgas (CNG) und Autogas (LPG)
– CHG ist komprimiertes Erdgas, also Methan
– LPG ist eine Mischung aus Propan und Butan; es fällt in der Erdölraffinierie an.
Beide Treibstoffe werden in Tanks mitgeführt; aber die damit ausgerüsteten PKW haben einen zusätzlichen Benzintank, der evtl. Versorgungslücken beim Auftanken von Gas überbrückt.
Die Motoren können alle drei Brennstoffe nutzen.
Erdgasautos werden überwiegend schon als Neuwagen produziert; Autogas-Autos werden allgemein durch Umrüstung realisiert.
Das Tankstellennetz ist vor allem für Autogas bereits stark ausgebaut.
Die Branche macht dazu folgende Angaben:

Autogas LPG                  Erdgas CNG

Tankstellen (D):                       6561                             866
Davon auch mit Benzin:         5093                               711
Umrüster:                               1250                               120

Die Vorteile des Gasantriebs sind beachtlich:
Erdgas:
– Kaum Emission von Schwefeldioxiden oder Rußpartikeln
– Geringere Emission von Stickoxiden und Kohlenmonoxid (verglichen mit Diesel und
Benzin)
– Geringere CO2-Emission als bei Autogas und Benzin
– Erdgas wird über unterirdische Leitungen zu den Tankstellen befördert.
Autogas:
– Umweltfreundlicher als Benzin (rd. 20% weniger Stickoxide)
– Emissionswerte wie beim Erdgas
– CO2-Emissionen liegen etwas über denen von Erdgas.

Vergleich der Reichweite, die mit 10 Euro im Tank erreicht wird:
– Benzin (Super):     99 km
– Autogas LPG:       170 km
– Diesel:                 174 km      
– Erdgas CNG:       201 km  

Anschaffung oder Nachrüstung ?
In der Anschaffung ist ein Erdgasfahrzeug etwas teurer als ein Autogasfahrzeug. Auch die Nachrüstung kostet bei einem Erdgasfahrzeug mehr. Die Nachrüstung ist
allerdings in erster Linie der Regelfall bei Autogas.
Als Faustformel für eine Entscheidung über eine Nachrüstung gilt, dass nach etwa zwei Jahren diese Investition durch die Einsparungen ausgeglichen ist.
Von da an fährt man also sowohl billiger als auch umweltfreundlicher.


Die steuerliche Behandlung von Autogas – eine Fehleinscheidung offenbart die seltsame Vorliebe für den Elektroantrieb


Es gab eine Steuerbegünstigung für Autogas, die von der Bundesregierung zeitlich verkürzt werden sollte. Dies versuchte sie mit dem Entwurf eines Zweiten Gesetzes zur Änderung des Energiesteuer- und des Stromsteuergesetzes, der ein Auslaufen dieser Steuervergünstigung zum Jahresende 2018 vorgesehen hatte.

Der Finanzausschuss aber änderte das gegen Ende Juni 2017. Die von den Koalitionsfraktionen eingebrachten Änderungsanträge sehen jetzt eine Verlängerung der Steuervergünstigung für LNG (bisher 9,47 Cent/Liter) bis 2022 vor; allerdings mit einer jährlichen Abschmelzung von 20% pro Jahr. Auch die Linke stimme dafür; die Grünen enthielten sich.
Die Steuerbegünstigung für Erdgas CNG wurde entspr. dem Ursprungsentwurf bis Ende 2026 verlängert, aber bereits ab 2024 sukzessive abgesenkt.

Auch der Versuch der Regierung, die Technik des Gasantriebs für Autos mit Verschlechterungen der Besteuerung zu bekämpfen, zeigt eine merkwürdige Abneigung der Politiker gegen diese Technik. Und das, obwohl sie – speziell bei Erdgas CNG – mehrere entscheidende Vorteile gegenüber dem Elektroantrieb aufweist. Und die die reale Chance besitzt, aufbauend auf dem bereits Erreichten eine problemlose Umstellung der meisten KFZ – auch der LKW und Busse – auf einen deutlich umweltfreundlicheren Kraftstoff in relativ kurzer Zeit zu erreichen, In den USA stellt man nicht nur die Kohlekraftwerke, sondern auch den Langstrecken-LKW-Verkehr auf das dort durch das Frackingverfahren billige Erdgas um.
Die Umstellung auf Erdgasantrieb in Deutschland würde außerdem deutlich geringere Kosten als die sog. E-Mobilität verschlingen – und daher viel größere Akzeptanz seitens der Autofahrer erfahren. Diese verstehen offensichtlich mehr von Autos und ihrer Technik, als die Ministerien und das gesamte Parlament; was ihre große Kaufzurückhaltung bei den E-Autos erklärt. Das Scheitern der Elektrifizierung des Individual-Straßenverkehrs ist schließlich aufgrund ihrer schwerwiegenden Nachteile und voraussichtlich ungelöst bleibender Probleme sehr wahrscheinlich. Für den innerstädtischen öffentlichen Nahverkehr – mit Straßenbahnen und Bussen – würde es Sinn machen. Aber wo sind die O-Busse geblieben ? Und wo gibt es einen kräftigen Zubau am innerstädtischen Schienenverkehr ?
Das blinde Ignorieren der Chance des Erdgasantriebs und auch der weiterhin vorhandenen physikalischen und finanziellen Barrieren der Elektroautos und deren absehbare erneute Pleite ist keine verantwortungsvolle Politik.
Die Blamage der von der Regierung verschuldeten unaufhaltsam und stetig ansteigenden Treibhausgas-Emissionen Deutschlands – trotz ihres peinlichen „Klimaschutz-Vorreiter“-Selbstlobs – scheint noch nicht genug zu sein. Es wäre aber nicht das erste Mal, dass sich ein Regierungsprogramm als eine Wiederaufführung des Märchens von des Kaisers neuen Kleidern erweist.




Die seltsame Liebe der Politiker zum Elektroauto Teil I

Wie es anfing

Die Geschichte des Elektroautos ist so alt wie das Auto selbst. Direkt nachdem man erkannt hatte, dass ein Vehikel mit einem von Pferden unabhängigen Antrieb ein faszinierendes Straßentransportmittel ist, begann der Wettstreit um die beste Antriebstechnik. Benzinmotoren, Dampfmaschinen und Elektromotoren wurden eingesetzt.
1881 präsentierte der Franzose Gustave Trouvè auf einer Messe in Paris ein dreirädriges Fahrzeug mit Elektromotor und – Blei-Akkumulator. Es gilt heute als das erste Elektroauto. Immerhin waren das 81 Jahre nach der Erfindung der elektrischen Batterie durch den Italiener Allessandro Volta. Trouvès Exponat war der Start für zahlreiche weitere Entwicklungen; beispielsweise das erste vierrädrige Elektroauto, der „Flocken“ von dem Coburger Fabrikanten Andreas Flocken oder der erste Porsche, ein „Egger-Lohner C2“ mit einem 5 PS E-Motor. Erst 1886 entwickelte Gottlieb Daimler den ersten Benz-Patent-Motorwagen, der mit einem Verbrennungsmotor angetrieben wurde.
Auch das Dampfauto spielte in dieser Anfangszeit des Automobils eine bedeutende Rolle, was wohl vor allem am mächtigen Drehmoment lag, das Dampfmaschinen aufweisen und was ein zügiges Fahren ermöglichte.
Anfang des 20. Jahrhunderts gab es in den USA einen Anteil an dampfbetriebenen Fahrzeugen von 40%, der Anteil der Elektroautos lag mit 34.000 Exemplaren bei 38% und die Benziner hatten 22%. Alle diese Konstruktionen litten unter Nachteilen. Das Drehmoment der Dampfmaschine war zwar ein auf kürzerer Strecke unschlagbarer Vorteil; leider aber war der Wasserverbrauch sehr hoch und das häufige Nachtanken war doch ein erheblicher Nachteil. Auch das Aufheizen des Dampfkessels bis zum Erreichen des nötigen Drucks kostete Zeit. Das elektrisch angetriebene Auto litt unter einer zu schwachen Batterie und damit zu geringer Reichweite; Überlandfahrten waren nicht möglich. Sein Einsatz erfolgte deshalb ausschließlich in der Stadt. Genau wie noch heute.
Das Benzingefährt erwies sich schließlich in der Summe aller Eigenschaften als die beste Wahl, nachdem Charles Kettering den elektrischen Anlasser erfunden hatte, mit dem das lästige Ankurbeln vor dem Start wegfiel. Aber der Hauptgrund für dessen Erfolg war der enorme Energiegehalt der flüssigen Kohlenwasserstoffe im Tank – ein Vorteil, der auch noch heute, über 100 Jahre später, ausschlaggebend ist. Es war das Ende des Elektroauto-Booms. Seither sind E-Autos für sog. Nischenanwendungen eine gute Wahl, wie es Zustelldienste in Städten, Flurförderfahrzeuge in Betrieben oder Einsatz in Bergwerken darstellen, wo man keinerlei Abgase haben möchte.

 

Die Politiker-Liebe für E-Autos ist unerschütterlich

Es bleibt wohl ein Geheimnis, weshalb Politiker, die gemeinhin von Technik wenig verstehen, stets ein großes Faible für Elektroautos zeigten. Es waren wohl dessen positive Eigenschaften, die einen Laien überzeugten, wobei man die erheblichen Nachteile entweder ignorierte oder gar nicht kannte:
– E-Autos sind leise (zum Schutze der Fußgänger muss man ihnen eine künstliche Geräuschquelle einbauen);
– sie produzieren am Ort ihres Einsatzes keine Abgase; sehr wohl aber am Orte der Stromerzeugung, und zwar durch Kohle- und Gaskraftwerke. In Norwegen bezieht man Strom fast völlig von Wasserkraftwerken, weshalb die dort fahrenden E-Autos keine Emissionen an anderen Orten verursachen. Deutschlands Situation ist jedoch eine andere: Die Abschaltung der emissionsfreien deutschen Kernkraftwerke sorgte dafür, dass die hiesige Stromerzeugung von besonders hohen Emissionen gekennzeichnet ist, was dazu führt, dass Elektroautos auch keine klimapolitischen Vorteile mehr gegenüber Benzin- oder Diesel-PKW besitzen. Damit platzte das Klimaschutz-Argument der Regierung bereits zu Beginn der wieder einmal entdeckten Elektroautos.
Soweit die bescheidenen Vorteile.
Zu den Nachteilen:.
– Ihre Batterien sind sehr schwer und teuer und ihre Lebensdauer kann recht kurz sein (abhängig von der Betriebsweise); das hohe Gewicht erhöht den Verbrauch;
die Reichweite ist fast so gering, wie vor 100 Jahren.
– Das Aufladen ist zeitaufwendig. Ohne eine eigene Ladestation ist man auf öffentliche Ladestationen angewiesen – und bei Ladezeiten von mindestens 30 Minuten kann man sich die Schlange vor der Stromtankstelle vorstellen. Und das womöglich täglich.
– Im Winter sinkt die Ladung der Batterie, gleichzeitig steigt der Stromverbrauch durch Heizung und Beleuchtung. Folge: Noch wesentlich geringere Reichweite als im Sommer.
– Was noch zu beachten wäre: Der Strombedarf in PKW ist in den vergangenen Jahrzehnten stetig angestiegen: Klimaanlagen, stärkere Lichtanlagen, elektrische Fensterheber und Sitzverstellungen, elektrische Lenkhilfen und Sitzheizungen, elektrische Servos im Motorenraum, Musikanlagen, Navis, GPS, Freisprechanlagen, automatische Einparkhilfen, Alarmanlagen etc. Entsprechend stärker wurden die Lichtmaschinen, entsprechend leistungsstärker auch die Batterien. Der Trend geht zum 48-Volt Bordnetz, damit nicht zu viel Kupfer für die Verkabelung benötigt und eine kombinierte Anlasser-Lichtmaschinen-Einheit möglich wird.
Erwartet irgendjemand, dass die Autofahrer auf das alles verzichten und in E-Autos auch noch fossile Zusatzheizungen (wie von Eberspächer,und Webasto für Yachten) auf Flüssigtreibstoffbasis akzeptieren müssen, um überhaupt im Winter fahren zu können ?
– Und es bleibt zumindest heute noch die Sicherheitsfrage: Können die Batterien brennen ? Es gab derartige Fälle mit Lithium-Ionen-Batterien – und nicht nur bei Laptops und Mobiltelefonen, sondern auch bei Autos.

Die Batterien sind und bleiben der entscheidende Nachteil der E-Autos. Näheres weiter unten.


Es folgten die Renaissance-Versuche


Die Post hatte bereits in den 50er Jahren eine ganze Flotte mit Bleiakkus ausgerüsteter Elektrotransportern für die Paketauslieferung in Betrieb. Eine Anwendung, die schon immer sinnvoll war. Aber eine Gesetzesänderung des Verkehrsministers führte zur Verschrottung aller Fahrzeuge.

Dann war erst einmal Pause.
Aber nach etlichen Jahren ging es wieder los:
Die Regierung von Bundeskanzler Kohl kündigte im Jahre 1992 eine neue Elektroauto-Epoche an.   Zwischen 1992 und 1995 führte die Regierung – begeistert befürwortet durch Forschungsminister Heinz Riesenhuber und eine gewisse Angela Merkel, damals Umweltministerin, – einen großen Feldtest für Elektroautos auf Rügen durch, in dem eine Reihe verschiedener Elektroautomobile – zumeist mit Bleiakkus und Elektromotoren umgerüstete Serienmodelle der Hersteller – ihre Fähigkeiten zeigen sollten. Und der damalige Innenminister Manfred Kanther gab das Ziel aus, daß mindestens 10 Prozent aller neu zugelassenen KFZ im Jahre 2000 Elektroautos sein sollten.
Es kam natürlich anders. Aber diese Pleite zerstörte keineswegs den offenbar unausrottbaren Wunderglauben an die Renaissance des Elektroautos. Die einzige spürbare politische Wirkung dieses unnötigen und chancenlosen Versuchs war eine Kürzung der Forschungsförderung, wie es Prof. Endres von der T.U. Clausthal beschrieb (s.u.). Das Gegenteil wäre eine vorausschauende Politik gewesen, die half, die grundsätzlichen Probleme elektrochemischer Speicher durch eine langfristig angelegte Grundlagenforschung anzugehen.

 

Und abermals das Elektroauto – diesmal für den Klimaschutz

Der nächste Versuch, das tote Pferd Elektromobilität wiederzubeleben, erfolgte durch das Kabinett Merkel I im August 2009, also gerade einmal zwei Monate vor dem Ende seiner Legislaturperiode. Wirtschafts- und Technologieminister war damals Karl-Theodor zu Guttenberg.
Verkündet wurde der „Nationale Entwicklungsplan Elektromobilität“.
Dessen Schwerpunkte lasen sich wie folgt:

-„In Verbindung mit erneuerbaren Energien leistet die E-Mobilität einen bedeutenden
Beitrag zur Umsetzung der Klimaschutzziele der Bundesregierung.“
– „Intelligente (!?) Nutzung der Batterien von Elektrofahrzeugen als Stromspeicher.“

Dazu ein erstaunlich ehrlicher Satz:
Die damit verbundene Reduzierung der Batterielebensdauer ist dem
   gegenüberzustellen“.
Beklagt wird ausdrücklich „Der Mangel an Naturwissenschaftlern“. Gemeint ist die

Fachrichtung Elektrochemie.

Dazu hat Prof. Frank Endres 2014 geschrieben:
„Die politische Blamage in den 1990er Jahren hatte leider für die Forscher
fatale Folgen, denn in der Folge wurde die Elektrochemie an den deutschen
Hochschulen faktisch abgewickelt; es gab keine Forschungsgelder mehr für
Batterien, höchstens vereinzelt, und in der Szene der physikalischen Chemie
wurden Elektrochemiker milde belächelt.
Dann kam ca. 2007/2008 das Thema wieder hoch, dieses Mal begründet mit der „Klimakatastrophe“ und der Endlichkeit der Ressourcen. Diesmal wurde das politische Ziel ausgegeben, gleich eine Million Elektroautos bis 2020 auf die Straßen zu bringen (Manfred Kanther lässt grüßen).
Aber nahezu niemand kauft diese Autos, weil sie nach wie vor für sehr viel Geld wenig Gegenwert bieten. Im April 2015 platzte auch diese Politblase, denn auf eine präzise parlamentarische Anfrage der Grünen vermied die wenig amüsierte Regierung die nochmalige Erwähnung oder gar Bestätigung dieses Ziels.
Zwar gibt es wieder einige Batterieforscher, aber diese sind wegen der geringen Forschungsmittel in gegenseitiger Konkurrenz. Der erhebliche technologische Rückstand zum Ausland konnte auch noch nicht aufgeholt werden. Erfahren die Politiker aber vom selbst verschuldeten und kaum aufzuholenden Rückstand, werden sie die Finanzierung vermutlich wieder einstellen, das könnte man auch Grundlagenforschung nach der Methode des politischen Schweinezyklus‘ nennen.
Für neue Ideen, die einen langen Atem erfordern, fehlt Politikern meistens der Mut; lieber werden wohl die alten Fehler schnell vergessen.
Die Musik der Batterieforschung spielt sowieso längst in Asien und jetzt auch vermehrt in den USA.“
(Ende vom Zitat Endres).

Von diesem Nationalen Entwicklungsplan hörte man anschließend nicht mehr viel.
Die rätselhafte Liebe der Politiker zum elektrischen Antrieb von Autos ließ jedenfalls nicht nach. Im Gegenteil. Im Frühjahr 2011 schien die nächste Regierung – Merkel II – begriffen zu haben, dass die gesamte Energiewende durch das Problem der fehlenden Speicher für die „volatilen“, also unzuverlässigen, wetterabhängigen „erneuerbaren“ Einspeisungen (Wind- und Solarstrom) bedroht und zum Scheitern verurteilt ist. Das ist zwar eine unumstößliche Tatsache, führt aber in der deutschen Politik nicht zu einer radikalen Kursänderung, sondern zu mehr oder weniger abenteuerlichen Rettungsmaßnahmen. Eine davon war: Die am 21. April 2011
vorgestellte gemeinsame „Förderinitiative Energiespeicher“.
Zwar war es das Hauptziel dieser Initiative, endlich große und wirtschaftliche Stromspeicher zur Abpufferung der oben erwähnten riesigen Stromerzeugungs-Schwankungen im Netz zu bekommen, deren Fehlen die gesamte Energiewende zu einer zwar extrem teuren, aber vollkommen chancenlosen Angelegenheit werden lässt. Aber in diesem Förderprogramm spielten selbstverständlich auch Batterien eine wichtige Rolle.
In der Einleitung dieses Programmpapiers befindet sich nach der Zitierung des Energiekonzeptes vom 28.9.2010 und dessen unglaublich hoch gesteckten Zielen sogar ein sehr bemerkenswerter Satz: „Leider stehen den notwendigen Fortschritten auf dem Gebiet der Energiespeicher vielfältige und nach wie vor zum Teil grundlegende (!) technologische Hürden entgegen.“ Dieser Mut zur Wahrheit war grundsätzlich zu begrüßen; dennoch war es wohl eine Panne, dass man diesen Satz nicht rechtzeitig gestrichen hatte. Denn er enthält die bittere Wahrheit, wie Prof. Endres oben erläuterte..

Die neuen fiktiven Stromspeicher waren im Grunde immer die Katze im Konzept-Sack; im April 2011 stellte sich nun aber regierungsamtlich heraus, dass in dem Sack gar keine Katze drin war. Und das Speicher-Dilemma betraf ebenso die Batterien, die man eigentlich für den sinnvollen Einsatz in Elektroautos benötigt – und zwar seit 1881; also seit 136 Jahren.
Bedeutende Fortschritte konnte man in diesem Punkte allerdings nicht erreichen und vorweisen.


Das Elektroauto wurde zum Retter der sog. Klimaschutzpolitik

Es war wohl unvermeidlich, dass in Folge der politischen Klimaerwärmungspanik auch das Elektroauto erneut entmottet wurde. Die unverbrüchliche Vorliebe der Politiker für diese Technik hat etwas mit Vorstellungen von Sauberkeit, lautlosem Dahingleiten, Sparsamkeit und vollkommener Umweltfreundlichkeit zu tun. E-Autos verbrauchen kein Benzin (außer den Hybrids), sondern nur ganz sauberen Strom, der immer von Sonnenkraftwerken und Windmühlen geliefert wird. Und Sonne und Tiefdruckgebiete schicken bekanntlich keine Rechnung. Es ist die heile Autowelt – man muss sie nur endlich verwirklichen.
Man kann folgende politische Gründe finden:
Mit dem sogenannten Klimaschutz glaubt man ein neues und stichhaltiges Argument für E-Mobilität zu haben. Dazu gehört der Glaube an große CO2-Einsparungen durch den Elektroantrieb – was sich als ein Irrglaube herausstellt (s.u.). Tatsächlich erfolgt nur eine Verlagerung der Emissionen in die Regionen, in denen die Kohle- und Gaskraftwerke stehen. Die CO2-freien Kernkraftwerke liefern in Deutschland bald keinen Strom mehr. Für Städte mit starkem Autoverkehr mag diese Verlagerung ein Vorteil sein. Nur hat das Klima nichts davon, nur die Stadtbewohner.
Die Nutzung der Batterien von Elektroautos für die Stabilisierung des Stromnetzes beruht auf der Vision, dass möglichst Millionen von E-Autos täglich an ihren häuslichen Ladestationen hängen und damit ihre Batterien für den Zugriff durch die Übertragungsnetzbetreiber (ÜNB) bzw. ihre Stromversorger (EVU) zur Verfügung stehen – was erst einmal einen permanenten Datenaustausch über das Internet erforderlich macht. Dann könnten die ÜNB bzw. die EVU immer wenn die sog. „Erneuerbaren“ wegen Flaute, schlechten Wetters oder weil es Nacht wurde, wieder einmal fast keinen Strom liefern, die Millionen von E-Auto-Batterien als großen Stromspeicher anzapfen und sie zur Stabilisierung des Netzes wieder entladen.
Die Anforderungen an eine ausreichende Speicherkapazität im Netz sind jedoch enorm: Mindestens 50 TWh Kapazität (= 50.000 GWh = 50 Millionen MWh) müssten vorhanden sein, um eine vierwöchige Flaute im Winter überbrücken zu können. Derzeit haben wir 7.000 MW an Pumpspeicherleistung, die – bei vollen Speicherseen – das Netz gerade einmal für 6 Stunden unterstützen können.
Nach Prof Sinn (Vortrag im Dez. 2013) ist die ganze Idee unsinnig, Die von der Regierung bis 2020 erhoffte Zahl von 1 Million E-Autos würde – falls sie überhaupt als Speicher für das Netz zur Verfügung stehen – 6% der erforderlichen Speicherkapazität bringen. Für eine 100%ige Speicherung würde man 164 Millionen E-Autos brauchen, die ca. 254 Milliarden Euro kosten würden.

Kaum einer der Besitzer wird allerdings bereit sein, es per Netzanschluss und
Datenleitung dem Stromversorger zum Ausgleich von dessen Einspeisungs-
Schwankungen zu überlassen – also die Autobatterie je nach Bedarf der Versorger zu laden oder zu entladen. Denn dem E-Auto-Besitzer wird vom Hersteller sehr deutlich klar gemacht, dass die Lebensdauer seiner teuren Batterie zwar durchaus auch durch ihr Alter, jedoch vor allem durch die Anzahl der Lade-Entlade-Vorgänge bestimmt wird.
Wer sich auf die Benutzung seiner Antriebsbatterie als beliebig auf- und
entladbarer Speicher für seinen Stromversorger einlässt, verkürzt also die
Batterielebensdauer. Das hat sogar die Regierung Merkel I eingeräumt: Im
Nationalen Entwicklungsplan Elektromobilität von 2009 steht der oben bereits zitierte klare Satz „Die damit verbundene Reduzierung der Batterielebensdauer ist dem gegenüberzustellen.“
Das müsste zu ganz erheblichen Nutzungszahlungen der Stromversorger

führen, zu denen sie wohl kaum bereit wären. Auch wäre die Aussicht,  
morgens eine weitgehend entladene Batterie vorzufinden, kaum ein Anreiz.
Politiker sind zunehmend beratungsresistent und empfinden Sachargumente als kleinkarierte Quengelei und lästige Ablenkung von ihren Plänen zur Beglückung der Wähler.
Die Ministerien, die eigentlich auch die Aufgabe haben, die Regierung von unsinnigen Plänen abzubringen, sind mittlerweile in allen mittleren und oberen Etagen mit Parteibuch-Karrieristen und Mitläufern besetzt, von denen nur Vorschläge für Gesetze und Verordnungen erzeugt werden, die eine Unterstützung der Ideen „derer da oben“ bewirken sollen.

Die Regierung will mit der massiven Einführung von E-Autos also etwas für den „Klimaschutz“ tun. Es wird fest angenommen, dass E-Autos weniger CO2 produzieren als Benzin- oder Diesel-PKW. Dass mit dieser Annahme etwas nicht stimmt, ergaben bereits einfache Vergleichsmessungen, aus denen hervorging, dass Otto- oder Dieselmotoren kleinerer Leistung schon jetzt nicht mehr CO2 emittieren als die E-Autos.
Aber diese Bilanz wird für die Elektroautos noch schlechter; dafür hat die Regierung bereits gesorgt:
Weil die E-Autos weit überwiegend tagsüber genutzt werden, erfolgt die Aufladung ihrer Batterien nachts in der eigenen Garage. Niemand wird stundenlange Wartezeiten an öffentlichen Aufladestellen in Kauf nehmen. Nachts ist leider absolut kein Solarstrom im Netz – und ob sich etwas Windstrom im Strommix befindet, entscheidet das Wetter. Man kann den Erzeugungs-Diagrammen der gesamten installierten Windkraft entnehmen, dass im Durchschnitt der Nächte etwa 10% des Stroms aus der Steckdose von Windrädern erzeugt wird – der „Rest“ von 90% besteht überwiegend aus Braunkohlestrom – und bis 2022 auch noch aus Kernkraftstrom. Und weil die restliche Kernkraft ab 2022 per Gesetz abgeschaltet wird, bestehen die 90% des Auflade-Nachtstroms danach nur noch aus Braunkohlestrom. Damit sind die Elektroautos dazu verurteilt, die CO2-Emissionen
Deutschlands weiter zu erhöhen. Diese Bilanz wird mit jedem abgeschalteten Kernkraftwerk schlechter.

Der Glaube an das Elektroauto als umweltfreundliches Verkehrsmittel könnte sich somit sehr leicht in sein Gegenteil verkehren, wenn die abgeschalteten Kernkraftwerke in erster Linie durch Kohlekraftwerke – zum Beispiel aus Polen und Tschechien – und theoretisch durch Gaskraftwerke ersetzt werden, die aber durch die EEG-Subventionierung von Wind- und Solarstrom reihenweise zur Betriebsaufgabe gezwungen werden.. Ohne regenerative Energien aber wäre der grüne Plan ein Eigentor: Wenn aus der Steckdose neben Import-Atomstrom viel mehr Kohlestrom kommt, dann „ist jeder gefahrene Kilometer mit einem E-Auto deutlich CO2-intensiver als sein konventionell betriebenes Gegenstück“, erklärt Lino Guzzella, Professor für Thermotronik der ETH Zürich. Ein Großeinsatz von E-Autos würde den Klimawandel beschleunigen, statt ihn zu bremsen – falls die Theorie vom CO2 als das Klima beeinflussendes Spurengas überhaupt stimmt.

Und sie wird nochmals schlechter durch die von der EU beschlossene mehrfache Anrechenbarkeit von E-Auto-Verkäufen auf den für die Hersteller attraktiven und dann von Strafzahlungen befreiten Verkauf von mehr großen PKW und SUV’s.
Von „Klimaschutz“ kann bei Elektroautos also keine Rede sein…Fortsetzung im Teil II hier




Nach Brandenburg fordert auch die AfD NRW Dieselgarantie bis 2050

Während sich die Altparteien allesamt vom Abmahnverein Deutsche Umwelthilfe (DUH) am Nasenring durch die Politarena   führen lassen (hier einiges zum Hintergrund dieses Vereins) und wegen Überschreitung willkürlich gezogener Grenzwerte Dieselfahrverbote fordern oder heftigst daran arbeiten diese sowohl zu wollen, als auch nicht zu wollen, ohne das diese für die Dieselbesitzer sofort erkennbar wird, zwingt sie die AfD nun dazu Farbe zu bekennen.

Video der Rede von Dr. Christian Blex vor dem Landtag Nordrhein – Westfalen am 15.9.17 in Düssesdorf

Der AfD Abgeordnete im Landtag Nordrhein – Westfalen Dr. Christian Blex stellte im Namen seiner Fraktion den Antrag dass der Landtag feststellen möge:

  1. dass die auf dem Diesel-Gipfel beschlossenen Umrüstungen noch nicht in allen Fahrzeugen implementiert wurden und diese einen positiven Effekt auf die Stickstoffdioxid-Emissionen erwarten lassen

  2. dass sich die zukünftige Antriebstechnologie noch nicht antizipieren lässt

Der Landtag fordert die Landesregierung auf, sich konsequent gegen ein Fahrverbot von Diesel- und Benzinfahrzeugen bis mindestens 2050 einzusetzen.

In seiner Rede begründet Blex diese Forderung mit den rein ideologisch begründeten Grenzwerten in Städten von 40 µg/m3 (an max. 10 Tagen) gegenüber den in aufwendigen Tests ermittelten Grenzwerten der Arbeitsplatzsicherheit, die in Deutschland an 52 Wochen, mit je 40 Stunden max. 950 µg/m3 betragen dürfen. In der nicht weniger sicherheitsbewussten Schweiz sogar 6000 µg/m3.

Das Ergebnis der Abstimmung lautet: Abgelehnt.

Angenommen wurde hingegen der Antrag der CDU/FDP Fraktion

Der Landtag beauftragt die Landesregierung,

  • unter Einbezug der zur Verfügung stehenden Bundesmittel und mit Beteiligung der betroffe- nen Kommunen ein Maßnahmenpaket zu entwickeln, das geeignet ist, innovative und um- weltschonende Mobilitätkonzepte voranzubringen;
  • die Kommunen bei der Luftreinhalteplanung weiter unterstützen, u.a. auch bezüglich rechtsanhängiger Gerichtsverfahren und

…mit ihren Möglichkeiten weiter darauf hinzuwirken, dass die Autoindustrie zur Problemlö- sung angemessen in die Pflicht genommen wird.

 Wenn das keine klare Ansage ist!

 




Dumm gelaufen: Husum – Windkraft zerzaust Windkraft-Messe.

 Diese Veranstaltung brachte der Kleinstadt und Kreisstadt Nordfrieslands, Schleswig-Holstein, in den vergangenen Jahren überregionale, ja internationale Aufmerksamkeit. Stadt von Welt! Dieser lukrative Zweck heiligt allhier allemal den Glauben an den CO2-Götzen. Was sonst? Was wäre Husum heute ohne den Windmühlenzirkus? Den Touristen wieder wie früher nur Krabbenbrötchen und Theodor Storm (sic!), den großen Sohn der Stadt, anbieten, dessen hiesige Erlebnisse in allen Ecken der Stadt an zahlreichen Gedenktafeln nachzulesen sind? Wieder nur graue Stadt am Meer sein? Da sei das IPCC, der „Weltklimarat“, vor! Dieser macht’s mit seinen unbewiesenen und unbeweisbaren, dafür aber schwer ideologisierten Klimapanik-Dogmen möglich, daß Husums provinzielles Grau in mondänes Tiefblau getaucht wird, etwa mit einem Flaggenspalier entlang der Einfallstraße, der Bundesstraße B 200. Flatternde Tücher, die den teuren und unberechenbaren Flatterstrom der Windenergie kaum trefflicher repräsentieren könnten.

Aber in die vollen gehauen: Begleitend zur Messe gibt es ein „Windwanderer-Festival“ mit Live-Musik, Eintritt frei, „wetterunabhängig“ in verschiedenen Lokalitäten rund um den Hafen, gleich am Abend des Eröffnungstages. Möge die feierfreudige Jugend ohne Umschweife tänzelnd aufs Parkett des richtigen Klima-Fühlens und Wind-Handelns gebracht werden. Sei Windwanderer, junger Freund, der Weg des Windes wird dich reich machen. Wenn du selbst Windmühlenbesitzer oder Windhändler bist, natürlich. Anderenfalls wirst du einfach nur zu denen gehören, die gesetzlich erzwungen Windstrom kaufen und immer höhere Strompreise zahlen müssen. Und die subventionierenden Steuermittel gleich dazu.

Die Windbegeisterung ist freilich auch in der Nordseefischerstadt Husum nicht uneingeschränkt. Am zweiten Tag der Windmühlenmesse war es den Husumer Masters of Wind („Wir können Wind. Schon immer.“) dann doch ein wenig zu viel, denn Sturmtief „Sebastian“ schaute als ausgewiesener Fachmann neugierig vorbei, um sich die Storm-Gedenktafeln benebst der „windigen“ Geschäfte von wahnsinnig erfolgreichen Steuergeld- und Energieeinspeisungs-Nutznießern einmal aus der Nähe anzusehen – und zeigte ihnen mal so richtig, was eine Windharfe ist. Da pfiff es nicht nur in die Räder und Hallenzelte, sondern auch in die profitbeschwerte Büx: Man entschied, die Hallen erstmal zu räumen und später, bei günstigerem Wind, weiterzutraden. „Heute hat sich in Husum wieder gezeigt: Mit Wind in jeder Form können wir umgehen“, erklärt selbstbewußtPeter Becker, Geschäftsführer der Messe Husum & Congress. Er fährt fort: „Sturmtief Sebastian hat gestern einiges durcheinander gewirbelt, dennoch lief die Räumung der Hallen geordnet ab. Dafür möchte ich mich herzlich bei den Besuchern sowie Ausstellern und nicht zu letztlich bei der Feuerwehr für Ihre Unterstützung bedanken – wenn es ernst wird, hält die Windbranche zusammen.“

Zuviel Wind und zuwenig Wind, das sind Luftbewegungen, die die Luftikusse des Windmühlengewerbes zur Pflege ihres Goldrausches routiniert ausblenden. Für sie gibt es nur den genau richtigen Wind, und das ist der, der die Segel ihres wirtschaftlichen Fortkommens bläht. Um die anderen vier Winde sollen sich die Zahlesel kümmern, die der Gesetzgeber zum Glück in großer Zahl bereitgestellt hat. Etwa die, welche die Negativstrompreise finanzieren, wenn überschüssiger Windstrom zur Entlastung der Netze ans Ausland verschenkt werden muß – gegen Zahlung barer Münze ans Ausland versteht sich, damit es das in deutscher Netz-Not dargebrachte Geschenk auch in seine Netze hereinnimmt.

Vernunft? Markt? Augenmaß? Realismus? Pustekuchen. Möge dieser jämmerliche gesellschaftliche Darmwind des klimatisch-eingebildeten Weltrettertums und seiner einhergehenden planwirtschaftlich kranken, verzerrenden Begleiterscheinungen recht bald abgehen!

„Husum Storm“ wäre doch auch ein schöner Name für eine Messe. Würde genausogut auf die blauen Flatterfahnen passen. An einer Lobby in Berlin für ein paar diesbezügliche Subventiönchen ließe sich ja basteln.

Karikatur aus dem Jahre 2017.




Weltklimarat IPCC vor der Pleite?

Das jährliche Budget des Weltklimarates IPCC beträgt rund sechs Millionen Dollar, schwankt aber von Jahr zu Jahr. Rund 44 Prozent des Geldes steuerten bisher die USA bei, teils auch als Folge der schlechten Zahlungsmoral der Mitglieder. Einige Länder sind ihren Verpflichtungen nicht nachgekommen. Nun will auch US-Präsident Donald Trump den Beitrag der USA zusammenstreichen.

Die finanzielle Lage des Weltklimarats habe sich in den letzten Jahren besorgniserregend verschlechtert. Der IPCC benötigt neues Geld. Als mögliche neue Einnahmequellen sieht der IPCC das Crowdfunding sowie gemeinnützige Stiftungen. Also spenden Sie.

Übernommen von ScienceSceptical hier

Anmerkung der EIKE Redaktion:

Eine gute Nachricht! Hier die Tondatei (mit Dank an R. Hoffmann) des Schweizer Rundfunks, die darob sehr verwundert und wohl auch verärgert sind. Die Schweiz will ihren Beitrag erhöhen, vermutlich wird D den Rest übernehmen. Peanuts!




Werden Hurrikane immer heftiger?

Ein kurzer Blick in die offiziellen Wetterdaten, die jeder aus dem Internet herauskopieren kann und 15 Minuten Excel genügen, um Klarheit zu schaffen:

Was wir sehen, verwundert: seit 50 Jahren nimmt die Stärke der atlantischen Hurrikane ab anstatt zu. Die offiziellen US-Statistiken belegen es. Ja, vor 12 Jahren, so um 2005 herum, da gab es eine schlimme Häufung, aber dann war erstmal wieder für lange Jahre Ruhe.

Häufigkeit Nordatlantischer Wirbelstürme, Grafik Fritz Schmitz

Die Medien behaupten aber das Gegenteil, alles würde immer schlimmer. Das ist Fake News Nummer 1 – hiermit widerlegt durch eine total simple Auswertung der Originaldaten.

Und im gleichen Atemzug hören wir von den Medien Fake News Nummer 2: „Der Klimawandel ist schuld daran“. Also  die Erderwärmung. Aber auch die wird von den renommiertesten Wissenschaftlern anhand offizieller Messungen der Erdtemperatur bezweifelt, denn seit 1998 ist die Erdtemperatur nicht mehr gestiegen. Wie z.B. die NASA seit rund 20 Jahren gemessen hat. Auch diese Daten sind veröffentlicht, werden aber von unseren Medien ängstlich verschwiegen.

Obendrein wird konstant behauptet, der Mensch sei an der Klimaerwärmung schuld – das ist Fake News Nummer 3. Seien wir ehrlich: wenn schon die Hurrikane nachlassen und wenn es realiter gar keine Erwärmung gibt, wie – Gott im Himmel – soll der Mensch an diesem nicht real existierenden Hurrikan-Trend schuld sein?

Fazit: Offenbar werden wir belogen. Kurz vor der Wahl ist das verständlich, aber es ist ein schlimmes Zeichen für den Zustand unserer Mediendemokratie. Für die Medien gilt: „Only bad news are good news“, und die Politik erliegt immer der Versuchung, sich mit den Medien zu verbünden und sich als Retter der bedrohten Welt zu präsentieren. Nicht zu vergessen ist natürlich auch der massive Einfluss der Klima-Lobby, die im trauten Dreiklang mitposaunt.

 




Die Brennelementesteuer – Chronik eines Versagens

Diese umgangssprachlich so bezeichnete Steuer (amtlich heißt sie „Kernbrennstoffsteuer“) sollte durch Abgaben auf Brennelemente in Kernkraftwerken die Staatseinnahmen erhöhen. Sie wurde von 2011 bis 2016 erhoben. 2017 musste das eingenommene Geld nach einem Urteil des Bundesverfassungsgerichts wieder zurückgezahlt werden.

Das Gesetz war Ergebnis der 2010 ausgehandelten Laufzeitverlängerung für Kernkraftwerke unter CDU/FDP-Regie und zielte darauf ab, die damals satten Gewinne der Betreiber zugunsten der Staatskasse anzuzapfen. Sind die Laufzeiten länger, soll der Staat auch etwas davon haben, so das Kalkül. Obwohl Verfassungsrechtler frühzeitig warnten, ging im Oktober 2010 das Gesetz wie geschmiert durch den Bundestag.

Im Juni 2017 erklärte das Bundesverfassungsgericht das Gesetz für verfassungswidrig. Der Spruch in Karlsruhe ließ an Deutlichkeit nichts zu wünschen übrig. Die Kernbrennstoffsteuer sei eben keine Verbrauchssteuer, nicht der Strom würde besteuert, sondern ein Teil der Produktionsmittel. Dafür habe der Bund aber keine Gesetzgebungskompetenz. Es gibt eben in Deutschland kein freies Steuererfindungsrecht – bis zur Bananenrepublik ist es noch ein Stück Weg. Die Steuer sei „von Anfang an mit erheblichen finanzverfassungsrechtlichen Unsicherheiten“ belastet gewesen. Deswegen werde das Gesetz rückwirkend und vollständig für nichtig erklärt.

 

Nehmen und Geben

Die Rückzahlung beträgt inklusive Zinsen über sieben Milliarden Euro. Wie kam dieses offenbar nicht hieb- und stichfeste Gesetz durch den Bundestag?

In der Wahlperiode 2013-2017 sitzen im Bundestag mehr als 80 Juristen, 2010 werden es kaum weniger gewesen sein. Wären Sie Spitzenkräfte ihrer Branche, würden sie wohl an anderer Stelle mehr leisten, mehr bewirken – und mehr verdienen. Vermutlich greifen vor allem jene Juristen nach einem Mandat, die in ihrem Fachgebiet nicht die hellsten Kerzen auf dem Leuchter sind.

Sollte der Wissenschaftliche Dienst des Bundestages beteiligt gewesen sein, steht auch dieser in zweifelhaftem Licht. Sollte er nicht beteiligt gewesen sein – warum wurde er nicht gefragt? Bei der Vorratsdatenspeicherung wies dieser schon auf das absehbare Scheitern vor dem Europäischen Gerichtshof hin (der Spruch des Bundesverfassungsgerichts steht noch aus). Auch der von der Regierung erfundene „Bundestrojaner“ ist in Teilen verfassungswidrig, zum „Netzwerkdurch-setzungsgesetz“ gibt es noch kein Urteil.

Offenbar werden Gesetze nach dem Try-and-Error-Prinzip erlassen. Kaum einem Arbeitnehmer würde man solche Arbeitsweise durchgehen lassen.

Der Vorgang um die Brennelementesteuer gäbe Regierung und Opposition, also den Einheitsparteien der Energiewende, jeden Anlass, kritische Rückschau zu halten. Natürlich auch und vor allem der Kanzlerin. Wer jetzt von ihr eine bedauernde Äußerung erwartet hätte, vielleicht sogar einen Ansatz von Selbstkritik, wurde enttäuscht. Wer im tiefen Bewusstsein allseits beklatschter Alternativlosigkeiten regiert, lässt sich von einem solchen Fauxpas nicht aus der Ruhe bringen. So erschöpfte sich ihre Reaktion in dem Satz: „Die schwarze Null ist nicht gefährdet.“

So leicht kann man ungestraft darüber hinweggehen, wenn man ein paar Steuermilliarden verzinst wieder rausrücken muss. Sanktionen sind in diesen Sphären ausgeschlossen. Es geht ja nicht um den eigentumsrechtlichen Status eines Pfandbons, der von einer Supermarktkassiererin verletzt wird, sondern um die „Gemeinschaftsaufgabe“ Energiewende, wo unsere Regierungen seit 20 Jahren mit wenig Erfolg eine Lernkurve absolvieren und alle Fehler unter eine autobahnbreite Toleranzgrenze fallen.

Auch beim so genannten „Atom-Moratorium“ gab es regierungsseitig juristischen Pfusch. Um Handlungsfähigkeit zu demonstrieren, gab der Bund am 14. März 2011 die Weisung (später nannte sie das eine Bitte) zur Abschaltung an die betroffenen Länder, die sieben ältesten Kernkraftwerksblöcke für drei Monate abzuschalten. Der Bundestag wurde übergangen. Die Kraftwerke in Japan und Deutschland seien technisch vergleichbar. Damit läge auch ein gleichwertiges Risiko vor, so die hessische Umweltministerin Puttrich (CDU). Nur die Gefahr eines Tsunami ließ sich nicht konstruieren.

 

Äußerste Tsunami-Vorsorge

Für den damaligen Umweltminister Röttgen (CDU) war dies ein „Gebot äußerster Vorsorge“ und eine „Gefahrenabwehr“. Warum sich die Gefahrenlage geändert hatte, weiß bis heute niemand, aber das Argument „äußerste Vorsorge“ ist multipel verwendbar, wenn man an den Diesel, beliebige Emissionen oder tägliche Lebensrisiken denkt. Damit kann eine Regierung buchstäblich alles reglementieren.

Merkel und Röttgen beriefen sich auf den Paragrafen 19 des Atomgesetzes, was wiederum für viele Verfassungsrechtler nicht stichhaltig war. Der ehemalige Präsident des Bundesverfassungsgerichts Hans-Jürgen Papier nannte die Stilllegung der älteren Meiler „illegale Maßnahmen“.

Als sich die rechtlichen Zweifel mehrten und RWE klagte, wollte Angela Merkel für die Abschaltung von Biblis nicht verantwortlich gewesen sein, obwohl diese Maßnahme aufgrund eines Beschlusses der Bundesregierung zustande kam.

„Da kann nicht der Bund den Hut aufhaben nach der Rechtslage“, sagte sie vor einem Untersuchungsausschuss des Hessischen Landtags. Nach Merkels Darstellung haben der hessische Ministerpräsident Volker Bouffier und die damalige Umweltministerin Puttrich in alleiniger Verantwortung gehandelt, als sie dem Biblis-Betreiber RWE die Abschaltverfügung zustellten. Bouffier vertrat dagegen den Standpunkt, eine Weisung der Bundesregierung ausgeführt zu haben, denn Berlin habe den Bundesländern vorgegeben, dass und wie die Atomkraftwerke abzuschalten seien. Außerdem soll ihm die Kanzlerin versprochen haben, der Bund werde das Land „nicht im Regen stehen lassen“, falls es zu Klagen der KKW-Betreiber komme. Aber an eine derartige Zusage konnte oder wollte Merkel sich nicht erinnern. Sie meinte, der Vollzug der Stilllegung sei Sache der Länder gewesen. Somit habe Hessen auch Rechtsfehler zu verantworten. Der Schwarze Peter wurde munter hin und her geschoben, in der Hoffnung, die Gerichte würden die Schadensersatzforderung von RWE abweisen.

 

Schaden und Ersatz

Das Bundesverwaltungsgericht in Leipzig bestätigte aber das Urteil des Kasseler Verwaltungsgerichtshofs zu den Schadenersatzforderungen des Betreibers RWE betreffend das KKW Biblis. 235 Millionen Euro wurden RWE zugestanden.

2016 kam dann das Bundesverfassungsgericht in Karlsruhe zu dem grundsätzlichen Schluss, die Stromkonzerne hätten Anspruch auf eine „angemessene“ Entschädigung wegen des beschleunigten Atomausstiegs. Kritiker hatten die Begründung des Moratoriums mit „Gefahrenabwehr“ als wenig überzeugend bezeichnet. Die Ereignisse in Japan mit einem Seebeben und einem folgenden Tsunami seien ja kaum auf Deutschland übertragbar.

Bevor der Streit zwischen Hessen und dem Bund in eine Schlammschlacht überging, lösten RWE und Co das Problem auf andere Weise. Die Energiekonzerne zogen insgesamt 20 Klagen rund um den Atomausstieg gegen die Bundesrepublik zurück und vereinbarten eine Einmalzahlung von 23 Milliarden Euro für die Endlagerung. Damit haben alle Seiten Rechtssicherheit und alle weiteren schwer kalkulierbaren weil politisch maximierten Folgekosten der Endlagerung fallen dem Staat und seinen treuen Steuerzahlern zu.

Natürlich war dieses Moratorium zur Sofortabschaltung vom 14. März 2011 ohne praktischen Sinn. Es galt aber, sich als handlungsfähige, entschlossene und ihre Bürger schützende Regierung darzustellen und der zu diesem Zeitpunkt deutlichen Erwartungshaltung des kernkraftkritischen Teils der Bevölkerung zu entsprechen.

Deutsche Politik besteht zu einem immer größer werdenden Teil daraus, „Zeichen zu setzen“ und der Zeitpunkt war von einiger Brisanz. Am 20. März 2011 standen Landtagswahlen in Sachsen-Anhalt an, am 27. März in Baden-Württemberg und Rheinland-Pfalz. Eine über 30 Jahre gepflegte Atomangst in der Bevölkerung konnte nun dazu führen, dass Mehrheiten der CDU schmelzen und die Kanzlerin Machtverlust erleidet. Zwar ließ sich nicht vermeiden, dass in Stuttgart ein grüner Landesfürst den Thron bestieg, aber immerhin ein Katholik, der heute die Kanzlerin in seine Gebete einschließt. Ein über Parteigrenzen hinweg relativ seltener Vorgang.

Auch der Interessenlage der CDU-Bundestagsabgeordneten und insbesondere der Juristen unter ihnen dürfte dieser Kurs entsprochen haben. Wozu sich für arrogante Großkonzerne zum Helden machen und das Mandat bei nächsten Wahlen gefährden? Bisher kam der Strom immer aus der Dose und die schwer abzuschätzenden Kosten des Atomausstiegs zahlen andere. Abgeordnete wollen in der Regel wiedergewählt werden und nicht auf den freien Arbeitsmarkt, in den rauen Wind der Realitäten.

Blicken wir erwartungsvoll den nächsten Erzeugnissen bundespolitischer Gesetzesproduktion entgegen. Sie sichern Beschäftigung für Anwälte und Gerichte. Die Brennelemente strahlen indes steuerfrei weiter – wo auch immer.




Ein Blick in die Zukunft: Evakuierung von Florida mit E-Autos? Ein Albtraum!

Wir haben hier schon viel über die aktuelle Hurricane-Saison berichtet. Während die Alarmisten auch diese – ohne jedes Zögern- dem menschgemachten Klimawandel in die Schuhe schieben, sagten wir Realisten dass da nichts dran wäre.

Doch egal wer letztendlich recht behalten wird, eines ist so sicher wie das Amen in der Kirche: Sie werden weiterhin jedes Mal im Spätsommer – Herbst über die tropische Inselwelt im Golf von Mexico, und die südliche Landmasse der Vereinigten Staaten von Amerika hinweg fegen, mal stärker mal schwächer, und oft Unheil und Tod bringen.

Je besser die Frühwarnsysteme werden, und je mobiler die Menschen dort bleiben, desto weniger Opfer werden sie fordern.

Und nun stellen wir uns vor, dass die Grünen aller Parteien in ihrem vorgeblichen Wunsch nach Klimarettung, nicht nur bei uns, sondern auch in den USA auf breiter Front die E-Mobilität eingeführt hätten, wenn nicht freiwillig als Dritt- oder Viertauto betuchter Familien, dann zwanghaft. Auf jeden Fall als individuelles Massentransportmittel.

Denn das bedeuten ja im Kern die bereits eingeführten – Norwegen, UK bald Frankreich-  oder noch kommenden Verbrenner-Verbote wie von Deutschland und der EU-geplant. Evtl. dann auch in den USA, falls Hillary oder ein linker Nachfolger sich zur Wahl stellen und gewinnen würde. Ein Verbrennerverbot wäre dann auch dort denkbar.

Und nun zurück zur Hurricane Saisons. Stellen wir uns vor, E-Mobile hätten bereits einen großen Anteil an der Autoflotte und ein starker landfallender Wirbelsturm wie Harvey oder jetzt Irma würden eine großvolumige Evakuierung erzwingen.

Es wäre eine entsetzliche Vorstellung. Millionen Menschen, auf engstem Raum auf der Autobahn zusammengefercht. Die langsamsten , besser, die massenweise mangels Ladung stehen gebliebenen, bestimmten das Fahrtempo. Es wäre im Nu Null!

Dann wären diese Millionen von Menschen den Naturgewalten völlig hilf— und schutzlos ausgeliefert. Millionen von Toten und Abermillionen von Verletzten wären die Folge.

Informatiker Hadmut Danisch hat diesen Zustand mal ein wenig durchgerechnet:

Zitat

Überlegen wir mal:

Unterstellen wir, dass der Tankfüllstand zufällig gleichverteilt ist, dürften die meisten PKW in der Regel einen im Durchschnitt halb vollen Tank haben, vor so einer Katastrophe mit Ansage vielleicht auch besser aufgetankt. Man könnte also mit jedem funktionsfähigen Auto, das herumsteht, im Mittel so ungefähr 250 bis 400 Kilometer fahren. Florida ist etwa 800 Kilometer lang, für viele Bewohner (wohnen ja nicht alle ganz unten) mit einem spritsparenden Auto (ich weiß, USA…) käme man also mit quasi einer Tankfüllung und autark (von den Staus mal abgesehen) aus Florida heraus nach Norden.

Selbst wenn der Füllstand nicht reicht: Energie durch Benzin und Diesel ist mit wenig Aufwand portabel, kann mit Tanklastwagen transportiert und leicht umgefüllt werden, man kann da immer etwas improvisieren oder bestehende Tankstellen behelfsmäßig – notfalls durch das Militär – wieder auffüllen und im Notbetrieb mit Generator betreiben. …

Was aber ist mit Elektroautos?

Da kann man nicht einfach so geladene Akkus durch die Gegend fahren. Die Reichweiten sind mäßig, damit kommt man im Mittel dann vielleicht 100 bis 200 Kilometer (und das auch eher nicht vollgeladen), dann müssen die lange laden und dafür brauchen die enorme Infrastruktur. ..und – möchte man hinzufügen- auch nur, wenn man nicht im Stau stecken bleibt, wie das aktuelle Bild oben zeigt. Dann geht nichts mehr!

Stellt Euch vor, ganz Florida hängt seine Elektroautos zum laden an das Stromnetz. Völlig egal, ist eh zusammengebrochen. Zitaten

Aber selbst diese Horrorannahme ist noch zu optimistisch, denn bereits bei ersten Landberührungen der Wirbelstürme brechen dort regelmäßig die Stromnetze auf breiter Front zusammen. Wie man gerade jetzt den Nachrichten wieder entnehmen kann. Am 10.9.17  um ca. 14:00 Ortszeit, so meldet das ZDF waren bereits 1 Mio Haushalte ohne Strom.

Und dann? Chaos, Unheil, und hunderttausend bis millionenfacher Tod sind die unausweichlichen Folgen. Schöne neue Klimaschutz und E-Mobiiltätszukunft! Aber dann bleibt man wenigstens im vielleicht selbstfahrenden E-Mobil stecken.

Die unvermeidlichen Beschwichtiger werden nun einwenden, dass sich bis dahin die Bewohner sturmfeste Behausungen gebaut hätten und die Infrastruktur sich auch darauf eingestellt hätte, ebenso wie die Battterieladung dann nur wenige Minuten statt heute Stunden dauern würde.

Wer das glaubt, möge sich die zerstörten Häuser der vielen Inselbewohner der Region ansehen, die auch nach 100 Jahren leidvoller Wirbelsturmerfahrung immer noch nur aus Holz und Pappe evtl. auch mit Rigips gebaut werden. Und dass Mutter Natur die elektrochemische Spannungsreihe der Metalle mit ihren Elektrolyten verändern würde, ist eigentlich auch nicht zu erwarten. Diese und die mit der Ladung unvermeidlich verbundenen elektro-chemischen Prozesse und ihre Folgen begrenzen die Ladezeit. Und die werden sich nur in kleinen Schritten und letztendlich unwesentlich verbessern lassen. Nicht durch das Wunschdenken der grünen Weltretter.




“Clean coal” bereits auf dem Vormarsch?

 Die Energiesituation im Süden der USA

Auch in den USA stehen die Energieversorger vor ähnlichen politischen Problemen wie in Deutschland: Die sog. “Erneuerbaren Energien” wurden auch dort mit Subventionen in den Markt gedrückt und zerstören nicht nur die vorhandene Infrastruktur, sondern schmälern vor allen Dingen auch die Ertragskraft der Unternehmen. Allerdings agiert man dort wesentlich flexibler. Obwohl z. B. Texas bessere Voraussetzungen für “Alternative Energien” mitbringt als Deutschland, setzt man dort nicht nur auf die Karten Wind und Sonne. Texas ist doppelt so groß wie Deutschland, hat aber nur rund 21 Millionen Einwohner, die sich überwiegend in wenigen Großräumen konzentrieren. Anders als in Deutschland, gibt es genug unbesiedeltes Land, in dem “Windparks” die Einwohner weit weniger belästigen. Außerdem liegt es auf der Breite der Sahara und es mangelt daher nicht an Wind und Sonnenschein. Obwohl die Bedingungen – verglichen mit Deutschland – ideal erscheinen, kommt es auch dort zu den bekannten Problemen im Netz. Man setzt daher weiterhin auf fossile Kraftwerke und Kernenergie. Wind und Sonne sieht man nur als “Additive Energien” mit eingeschränktem Nutzen. Bisher waren sie wegen hoher Subventionen und besonderen Privilegien lediglich für Anleger attraktiv. Anders als in Deutschland, ist man sich aber auch regierungsseitig (insbesondere auf der Ebene des Bundesstaates Texas) der Konsequenzen hoher Strompreise bewußt. Langfristig bleibt nur Kohle und Kernenergie übrig. Texas hat zwar Öl und Erdgas im Überfluß, beide Energieträger sind aber – wegen der hohen Weltmarktpreise – viel zu wertvoll geworden, um sie in Kraftwerken zu verfeuern. Sinnigerweise steigt der Gasexport ins Nachbarland Mexico ständig an, da dort die verstaatlichte Ölindustrie unfähig ist, die Produktion bei steigender Nachfrage auch nur zu halten. Gleichzeitig findet ein enormer Ausbau der Gasverflüssigungsanlagen an der Golfküste statt. Hiermit hat man neben Asien und Mittelamerika vor allem Europa als Absatzgebiet im Auge.

Heute ist bereits der Brennstoff Kohle an der Golfküste wieder billiger als Erdgas. Die Produktionskosten in den Tagebauen des Powder River Basin (im Bundesstaat Wyoming und Montana) sind so gering, daß selbst die Transportkosten über tausende Kilometer nicht ins Gewicht fallen. Nachdem die obamaschen “Klimaerlasse” von Trump wieder außer Kraft gesetzt wurden, rollen täglich bereits wieder über 60 Ganzzüge (meist jeweils über 100 Waggons mit 10.000 to Kohle pro Zug) in alle Regionen der USA.

Schwierig bleibt nach wie vor die Situation der Kernenergie im Süden der USA. Die nach wie vor existierende Unsicherheit über die zu erwartende Bauzeit eines Neubaues, führen zu seit Jahrzehnten andauernden Planungen ohne Aussicht auf kurzfristige Umsetzung. Für ein privates EVU ist ein solches Risiko einfach nicht zu stemmen. Staatliche Förderung von Wind und Sonne auf Kosten des Steuerzahlers bei gleichzeitig privatwirtschaftlicher Kernenergie, geht einfach nicht zusammen. Dies ist und bleibt eine doppelte Benachteiligung.

Abgas als Wertstoff

In dieser durch die Politik geschaffenen Situation der “Klimarettung” suchen die Energieversorger Hände ringend nach neuen Einnahmequellen. NRG Energy hat den Entschluß gefaßt, aus dem Abfall der Stromproduktion einen Wertstoff und ein Produkt zu machen. Der Wertstoff ist überkritisches Kohlenstoffdioxid. Das Produkt ist Erdöl.

Wenn man das CO2 aus dem Abgas abscheidet und es auf über 70 bar verdichtet, gelangt es bei Umgebungstemperatur in seinen überkritischen Zustand: Es ist flüssig, bleibt aber ähnlich dünnflüssig wie ein Gas. Es dringt damit auch in feinste Poren ein. Zusätzlich sind organische Stoffe besonders gut in ihm löslich. Beste Voraussetzungen für EOR (Enhanced Oil Recovery).

Wenn sich aus einem Ölfeld kein Öl mehr hochpumpen läßt, – es umgangssprachlich erschöpft ist – befinden sich trotzdem noch etwa 40 bis 60 % der ursprünglichen Ölmenge in ihm gefangen. Dieses Restöl herauszulösen, ist das Gebiet des EOR. Je nach Vorkommen, gibt es unterschiedliche Verfahren zu unterschiedlichen (hohen) Kosten. Ein Favorit ist das Fluten mit überkritischem CO2. Mit diesem Verfahren lassen sich rund weitere 20 Prozentpunkte der ursprünglichen Ölmenge gewinnen. Dies sind gewaltige “neue Ölvorkommen”, wenn man die weltweite Anzahl bereits versiegter Quellen in Rechnung stellt. Wie alles, ist dies eine Frage der Kosten. Auf der Habenseite steht der aktuelle Ölpreis. Auf der Sollseite die Kosten für Gewinnung und Transport des überkritischen CO2. Die Differenz muß noch die zusätzlich anfallenden Kosten decken, was dann allerdings übrig bleibt, ist Gewinn.

Welche Felder eignen sich besonders?

Ein Ölfeld besteht nicht nur aus gebohrten Löchern. Es erfordert auch eine erhebliche oberirdische Infrastruktur: Rohrleitungen, Stromversorgung, Straßen, Pumpstationen, Aufbereitungs- und Tankanlagen etc. All diese Anlagen sind bereits in der Phase der konventionellen Förderung vorhanden und abgeschrieben worden. Die Zusatzinvestitionen für eine Flutung mit überkritischem CO2 halten sich in Grenzen – wenn man genug CO2 an Ort und Stelle zur Verfügung hat. Aus Erfahrung (natürliche CO2 Lagerstätten in der Nähe) weiß man, daß EOR ein hoch profitables Geschäft ist.

In dem hier beschriebenen Fall des Ölfelds West Ranch gelang auf Anhieb eine Steigerung von nur noch 300 auf 4000 barrel pro Tag. Man geht nach optimaler Einstellung von einer Förderung von 15.000 barrel pro Tag aus. Über die Jahre – auch bei einem Ölpreis von 50 USD/barrel – ein hübsches Sümmchen an zusätzlichen Einnahmen für die Ölgesellschaft JX Nippon. Man geht von 60 Millionen barrel aus, die aus diesem Feld zusätzlich durch diese Methode gewonnen werden können.

Das Ölfeld West Ranch liegt 130 km westlich vom Kraftwerk. Für den Transport des CO2 mußte eine unterirdische Pipeline mit einem Durchmesser von fast 40 cm verlegt werden.

Die Abgaswäsche

Die Gewinnung von CO2 aus dem Abgas erscheint auf den ersten Blick nicht gerade als die eleganteste Lösung. In dem Abgas sind nur 11,5 % Kohlenstoffdioxid enthalten. Man muß daher überwiegend totes Material in der Form von Stickstoff und Restsauerstoff durch die gesamte Anlage schleppen. Andererseits kann man ein bestehendes Kraftwerk als Quelle nutzen und greift praktisch nicht in dessen Betrieb ein.

Der Aufwand für die Gewinnung hängt nicht nur von der Eingangskonzentration, sondern auch vom Restgehalt an CO2 ab. Da es sich bei diesem Projekt nicht um “Klimatologie” handelt, sondern es um die Produktion eines Wertstoffes geht, wäscht man in dieser Anlage nur etwa 90 % des enthaltenen CO2 aus. Dies spielt auch deshalb keine Rolle, weil man mit dieser Anlage nur einen Teilstrom der Rauchgase verarbeiten kann. Die gewonnenen 1,6 Millionen Tonnen CO2jährlich, entsprechen etwa einer elektrischen Leistung von 240 MW des Blocks von 650 MW.

Es ist auch kein Zufall, daß man die Anlage an einem Block mit Kohlenstaubfeuerung und nicht an die erdgasbefeuerten Kombiblöcke angeschlossen hat. Bei Kombikraftwerken ergibt sich wegen des notwendigen Luftüberschusses im Abgas nur eine Konzentration von etwa 8,5 %. Die CO2-Gewinnung wird eine Domäne der Kohlekraftwerke bleiben.

Das Verfahren

Als Waschverfahren wurde der Kansai Mitsubishi Carbon Dioxide Recovery Process (KM CDR Process, eine Handelsmarke) ausgewählt. Im ersten Teilschritt werden die Abgase in einem 36 m hohen Turm gekühlt, entfeuchtet und entschwefelt. Dieser Block enthält – anders als in Deutschland üblich – keine Rauchgasentschwefelung, sondern verfeuert lediglich schwefelarme Kohle. Die Kühlung ist notwendig, da die Waschung beträchtliche Wärmemengen freisetzt.

Das Herzstück der Anlage ist ein 110 m hoher rechteckiger, mit Füllkörpern gefüllter Turm. In ihm wird das Abgas mit der Waschflüssigkeit in Kontakt gebracht. Nach Abscheidung der Waschflüssigkeit werden die gewaschenen Abgase in die Umgebung entlassen.

In einer dritten Verfahrensstufe wird die Waschflüssigkeit durch auskochen mit Dampf wieder regeneriert. Das ausgetriebene CO2 wird verdichtet und so verflüssigt.

Der Eigenbedarf

Eine solche verfahrenstechnische Anlage braucht beträchtliche elektrische Energie zum Antrieb der Verdichter, Pumpen etc. und Dampf zum Austreiben des CO2. Umgerechnet würde der zusätzliche Eigenbedarf die elketrische Nettoleistung des Kraftwerks um 20 bis 30 % verringern. Da das Kraftwerk gebraucht wird, eine inakzeptable Situation. Man hat deshalb eine eigene, kleine, ergdasbefeuerte Kombianlage mit 70 MWel zur Versorgung der Waschanlage gebaut. Da die Anlage gar nicht so viel Strom benötigt, wird mehr als die Hälfte ihrer Leistung zusätzlich ins Netz eingespeist.

Das Risiko

Die Anlage – obwohl die erste ihrer Art – wurde termingerecht, zu den vereinbarten Preisen und ohne Unfälle fertiggestellt. Deshalb die Preisverleihung. Wie geht so etwas?

  • Man hat die neue Anlage bewußt hinter einem seit Jahren funktionierenden Kraftwerk gebaut: Möglichst keine Probleme für die Altanlage schaffen und mit definierten und zuverlässigen Eingangsdaten arbeiten können.
  • Auswahl eines erprobten chemischen Verfahrens. Es gibt bereits über 80 Anlagen in Raffinerien etc.
  • Vorab Bau einer kleinen Prototypenanlage, die sich längere Zeit in einem anderen Kohlekraftwerk bewähren konnte.
  • Kein Größenwahn. Bewußte Beschränkung auf die zehnfache Leistung des Prototyps, um die Auslegungsberechnungen absichern zu können. (Deshalb die Begrenzung auf einen 240 MWel entsprechenden Teilstrom.)
  • Einbeziehung und Beteiligung des Verfahrenstechnikers (Mitsubishi), eines erfahrenen Anlagenbauers (Kiewit) und des Verbrauchers (JX Nippon mit Hilcorp).
  • Keine – in Deutschland so geliebte – Team-Bildung (Toll ein anderer macht’s), sondern einer hat den Hut auf. Einer mit natürlicher Autorität durch ausgewiesene Fachkompetenz und Erfahrung, der die Mittel bekommt, die er für nötig hält.
  • Genaue Planung und Abstimmung zwischen allen Beteiligten bevor es auf der Baustelle losgeht.

Der Mitnahmeeffekt

Für das Projekt wurde ein gemeinsames Unternehmen aus Energieversorger (NRG Energy) und Verbraucher (JX Nippon Oil&Gas) gegründet. Einerseits wurde damit das Risiko der Investition auf mehrere Schultern verteilt und andererseits verschiedene Fördertöpfe erschlossen. Es konnten japanische Banken gewonnen werden, die gegen das Pfand von 15 Millionen barrel Öl günstigere Kredite bereitstellten. Die Lieferung von Anlagenkomponenten konnte über subventionierte Exportkredite erfolgen. Das DOE steuerte 190 Millionen USD Subventionen aus diversen “Klimaschutzprogrammen” bei.

Mit einer Investition von einer Milliarde USD können zusätzlich 60 Millionen barrel Erdöl gewonnen werden. Mögen weltweit auf vielen entölten Feldern die Bedingungen nicht so ideal sein, erscheint diese Methode trotzdem vielversprechend. Wird jetzt – wenigstens im Nachhinein – manchem klar, warum die einschlägig Verdächtigen sofort ihre Kampftruppen auf die Straße geschickt haben, als auch nur von “CO2-Abscheidung” in Deutschland geredet wurde? Macht nichts, der Fortschritt läßt sich nicht aufhalten, nun machen eben Japaner und Amerikaner das Geschäft. Solange Renten, Hartz IV etc. noch reichlich sprudeln, brauchen wir eh keine Arbeitsplätze in diesem Land. Hat halt nix mit Nix zu tun, wie einmal eine Politikerin treffend in einem anderem Zusammenhang twitterte.

Übernommen von NUKE-Klaus hier




AfD fordert Schluss mit Klimaschutz und Schluss mit der Energiewende – Medien schweigen

Nach langer, intensiver Vorbereitung traten die Spitzenkandidaten der AfD Frau Dr. Alice Weidel und Herr Dr. Alexander Gauland am 4.9.17 im Haus der Bundespressekonferenz zu den Themen Energie und Klima vor die Presse. Unterstützt wurden sie von Herrn Burkard Reimer Dipl. Ing. und Dipl. Chemiker und mir, ebenfalls Dipl. Ing.

Video nicht mehr verfügbar

Video der AfD Pressekonferenz zu Klima & Energiethemen am 4.9.17 in Berlin

 Der Saal war brechend voll- Viele Kamerateams sind da, dazu ein Dutzend Fotografen und mehrere Dutzend Presseleute.“, berichtet Frau Verena Kern, freie Journalistin bei Klimaretter.info, wie es scheint ein wenig neidisch . Da sie nach eigener Auskunft Philosophie und Kommunikationswissenschaften studiert hat und sogar Fachbücher lektoriert, ist auf ihr Urteil sicher Verlass. Und zumindest das stimmt auch. Der Saal war sehr voll.

Zunächst trug Frau Weidel klar und pointiert den Standpunkt der AfD zu den Themen Auto & Diesel vor. Umfassend begründet forderte sie dann:

  • Die Festlegung vernünftiger Grenzwerte für Stickoxide und Feinstaub,
  • Bis dahin ein mindestens 10 jähriges Moratorium – also Aussetzung der überzogenen EU- Grenzwerte – durch den Gesetzgeber.
  • Eine Bestandsgarantie bis mindestens 2050 für alle Verbrennungsmotoren
  • Elektromobilität darf sich nur auf marktwirtschaftlicher Basis und unter Beachtung der Umweltfolgen entwickeln
  • Damit unsere bitter benötigte stabile Stromversorgung auch in Zukunft gewährleistet bleibt, muss die Laufzeit unserer als sicherste der Welt geltenden Kernkraftwerke allein nach deren technischer Nutzungsdauer richten.

Anschließend trug Herr Gauland sein Statement vor. Auch in diesem begründete er umfassend und klar die daraus abgeleiteten Forderungen der AfD (14:08). Sie lauten:

  • Schluss mit der Energiewende, und allen ihren Ausformungen, Abschaffung des EEG, der EnEV und der dazu gehörenden Gesetze und Verordnungen
  • Die staatliche Planwirtschaft ist zu beenden. Alle Formen der Energieerzeugung sind in die Marktwirtschaft zu entlassen und sollen sich im fairen Wettbewerb stellen.
  • Die AfD wird wissenschaftliche Gutachten, die dem EEG Verfassungswidrigkeit und ein Verstoß gegen europäische Rechtsnormen bescheinigen ggf. vom Bundesverfassungsgericht prüfen lassen (zwar nicht von Gauland gesagt, aber im Handout geschrieben)

Nach diesen, das Weidel Statement ergänzenden Feststellungen und Forderungen, trug Gauland die Haltung der AfD zum Klimawandel vor. Wieder umfassend begründet, schloss er auch hier mit den daraus abgeleiteten Forderungen:

  • Zurück zur wissenschaftlich begründeten Vernunft in der deutschen und internationalen Klimapolitik
  • Austritt aus dem Pariser Klimaabkommen, Schluss mit dem Klimaschutzplan 2050 und der Dekarbonisierung
  • Schluss mit dem sog. Klimaschutz

Dazu gehört:

  • Ausstieg aus allen diesbezüglichen internationalen wie nationalen Verträgen, Kommissionen und Verpflichtungen.
  • Einstellung aller „Klimaschutzmaßnahmen“ in der öffentlichen Verwaltung samt aller Budgets und Posten
  • Die Mittel die derzeit zum Klimaschutz aufgewendet werden müssen umgeschichtet werden, zur Finanzierung von Maßnahmen zur Anpassung an zukünftige Umweltschäden durch Wetterextreme
    • Dagegen Konzentration von Wissenschaft und Administration auf Verbesserung der Infrastruktur – auch um bspw. Starkniederschläge zu bewältigen, oder die Folgen anderer Wetterextreme zu beherrschen. Denn nicht die Wetterextreme haben zugenommen, wohl aber der lokale Wohlstand und entsprechend die Besiedlungsdichte in diesem Land. (zwar nicht von Gauland gesagt, aber im Handout geschrieben)

Mein Fazit:

Entweder waren die anwesenden Journalisten in der Mehrzahl dermaßen überrascht, dass sie weitgehend sprachlos blieben oder sie waren vom Mittagessen, es war schließlich schon fast 14:00 Uhr, noch so sediert, dass sie eigentlich nur einen Platz zum Ausruhen gesucht und gefunden haben.

Denn die Zahl der Fragesteller blieb gering, etwa die Hälfte der wenigen Fragen bezogen sich auf Klatsch & Tratsch, bzw. Sachverhalte, die mit den Themen nichts zu tun hatten. Die Fragen zu den eigentlichen Themen blieben spärlich.

Gering blieb auch die mediale Resonanz. Weltredakteur Mathias Kamman, sonst nie um ein tägliches AfD Bashing verlegen, wunderte sich zwar, dass seine Zeitung nach seinem Verständnis des Handouts, dass jeder Teilnehmer bekommen hatte, nicht mehr zu den Leitmedien gehören sollten und ließ sich auch von meinen Erläuterungen nur wenig trösten, denn einen Artikel über diese Pressekonferenz verkniff er sich.

Lediglich im Berliner Tagesspiegel und in der FAZ Online Version wurde berichtet.

Und, ach ja, der lokale ARD Sender rbb berichtete kurz in seinen Rundfunk-Nachrichtensendungen, genauer im Inforadio, über diese Pressekonferenz.

Einlullen, verschweigen, ausgrenzen durch Nichtbeachtung wurde auch hier wieder als Verteidigungsstrategie angewandt. Ob sie etwas nützt wird der 24.9.17 ab 18:00 Uhr zeigen.

Ich war jedenfalls mit dem nun auch öffentlichen Ansatz der AfD sehr zufrieden! Sitzt sie erstmal mit genügend großer Zahl von Abgeordneten im Deutschen Bundestag, wird sie – wie bisher auch, aber auf größerer Bühne- die anderen Parteien vor sich hertreiben, wenn die nicht gleich die Forderungen der AfD übernehmen. Aus reiner Selbsterhaltung. Wie jetzt auch schon!

 

 

 

 

 

 




ARD amtlich festgestellt: Der Büroschlaf ist doch der gesündere – Sonja Mikisch „überführt“ Alice Weidel (AfD) der Fake News!

Der 4. September wird vielleicht doch noch in die Geschichte eingehen. Es war der Tag, an dem die AfD auf einer als historisch anzusehenden, aber medial fast völlig übergangenen Pressekonferenz, den zahlreich versammelten Medienvertretern, die entsetzliche Wahrheit mitteilen musste, das die Klimakaiserin Merkel keine Kleider an hat. Diese nahmen es ungerührt und ziemlich desinteressiert zur Kenntnis. Vergleichbar den Höflingen, die dem nackten armen Kaisern immer wieder versichert hatten, wie gut ihn doch seine nichtvorhandenen Kleider zu Gesicht stünden.

Video nicht mehr verfügbar

 

Und es war der Tag an dem endlich, endlich, eine dieser oft veräppelten, weil oft völlig zu Unrecht verdächtigten, als Fake News VerbreiterInnen, beschimpften MedienvertreterInnen, die vielfache Ex (Ex-Marxistin[1], Ex-Redakteurin, Ex-Doppelnachnamenträgerin) Frau Sonja Mikisch der aalglatten AfD Frontfrau Alice Weidel, die schöne – oder war es schnöde- Maske vom Gesicht reißen konnte. Denn diese, so verkündete sie triumphierend verbreite, Falsches! (ab Minute 14:25).

 

Wobei hatte sie denn Frontfrau Weidel erwischt?

Es ging mal wieder um den, die bodenlose Schlechtigkeit der Autoindustrie, belegenden Dieselskandal. Bodenlos schlecht, ja böse, weil, wie WDR Kollege Jürgen Döschner im Netz behaupten durfte, die ja pro Jahr 10.000 Menschen vergase! Und dann noch nicht einmal die Umrüstung dieser Vergaser-Maschinen (eigentlich kennt ein Diesel doch keinen Vergaser, ha, ha) selber bezahlen wolle.

Darum ging es.

Und da behauptet doch diese aalglatte AfD Frau , vor Millionen ahnungslosen Zuschauern, dass in Büroinnenräumen wesentlich höhere Grenzwerte als draußen gelten würden, nämlich 950 µg/m3, gegenüber den als so gefährlich eingestuften 40 µg/m3, die dort ohne Gesundheitsgefahr zugelassen seien.

Doch nicht mit Sonja Mikisch

„…in Industriearbeitsplätzen! Büroinnenräume; Privaträume haben die gleiche Grenzwertbemessung wie auch die Luft draußen! Falsch!“

donnert sie, sichtlich erregt und auch begeistert, diese impertinente Lüge sofort vor der Kamera richtig stellen zu können, der Weidel ins erschrockene Gesicht.

Nun, man sollte beiden Damen zugestehen, dass die tägliche Beschäftigung mit NOx oder auch Feinstaubwerten, nicht unbedingt zur Aufgabe ihrer jeweiligen Jobbeschreibungen gehört. Doch wenn man jemand der Unwahrheit, gar der bewussten Lüge, überführen möchte, dann sollte man doch sicher sein, dass die Korrektur nicht einer Korrektur bedürfe. Sonst geht der Schuss nach hinten los! Wie auch hier.

Vermutlich hat Frau Mikisch beim Umweltbundesamt nachgelesen, dass schon immer nur das Beste für Umwelt und seine (es bezahlenden) menschlichen Bewohner im Sinne hat. Und zur Grenzwertfrage tiefsinnige, man möchte sagen, spitzfindige, Betrachtungen anstellt.

Es betreibt sogar zu dieser, die deutsche Menschheit tief bewegenden, Frage ein eigene Website. (hier). Dort finden wir die klare Aussage:

„Arbeitsplatzgrenzwerte gelten nur für Arbeitende an Industriearbeitsplätzen und im Handwerk, bei denen aufgrund der Verwendung oder Erzeugung bestimmter Arbeitsstoffe eine erhöhte Stickstoffdioxid-Belastung zu erwarten ist.“

Im weiteren Text finden wir auch die Quelle, aus der man entnehmen könnte, das UBA seine Behauptung ableitet. Nämlich die Arbeitsplatzgrenzwert (AGW) der Gefahrstoffverordnung (GefStoffV). Doch in dieser Quelle ist immer nur ganz allgemein von „Arbeitsplätzen“ die Rede.

Beim Weitersuchen findet man dann beim UBA auch noch die Information:

Für Büroarbeitsplätze sowie Privaträume finden MAK-Werte keine Anwendung. Hier gelten vielmehr die Richtwerte des Ausschuss für Innenraumrichtwerte (AIR), vormals Ad-hoc-Arbeitsgruppe der Innenraumlufthygienekommission (IRK) und der Arbeitsgemeinschaft der Obersten Landesgesundheitsbehörden (AOLG)). Die Innenraumlufthygienekommission leitete in den 1990er Jahren einen sog. „Richtwert II“ für Stickstoffdioxid in der Innenraumluft von 60 µg/m³ (Wochenmittelwert) ab. Der Richtwert II (RW II) ist ein wirkungsbezogener Wert, bei dessen Erreichen beziehungsweise Überschreiten unverzüglich zu handeln ist.

Aha! Wenn 60 µg/m³, als Wochenmittelwert wohlgemerkt, nicht 40 µg/m³ an max. 10 Tagen im Jahr,  überschritten werden, müsse unverzüglich gehandelt werden. Und dieser Wert sei in den Richtwerten I und II   der Innenraumlufthygienekommission (welch schöner deutscher Name) festgelegt. Dumm nur, dass in den dort genannten aktuellen Tabellen für beide Richtwerte die bösen Stickoxide überhaupt nicht vorkommen. Nirgends!

Also kann es sich wohl nur um Wunschdenken, man kann auch vermuten „Gefälligkeitsdenken“ des UBA handeln. Denn es sorgt sich besonders um empfindliche Personen. Das UBA stellt nämlich fest :

„ Ein Arbeitsplatzgrenzwert ist ein Wert für die zeitlich begrenzte Belastung gesunder Arbeitender, während durch NO2 in der Außenluft auch empfindliche Personen rund um die Uhr betroffen sein können.“

Empfindliche Personen, wie dem siebenjährigen Sohn des Mitdiskutanten, dem Spitzenkandidaten der Grünen, Cem Özdemir, der trotz seiner 7 Jahre gerade mal Auspuffhöhe erreicht. Wenn der mit seinem Papa spazieren geht, falls der so oft zuhause ist, und öfter als 10 x im Jahr von der Wucht des 40 µg/m³ Grenzwertes befallen wird, dann müssen wir, schon aus Mitleid mit dem zwergwüchsigen kleinen Kerl, die Grenzwerte EU-weit einhalten.. Das gebietet schon das Herz. Der kann ja nichts dafür, das er so klein ist. Das ist gelebte Solidariät!

Doch zurück zur herzlosen Streitfrage; wir halten abschließend fest:

  • Frau Mikisch behauptet im Einklang mit dem Umweltbundesamt, bekannt u. A. dafür Klimaskeptikern den Mund zu verbieten (z.B. hier und hier) dass der MAK- oder inzwischen Arbeitsplatzgrenzwert, nicht für Büroräume gelte. Falsch! Die angeführten Belege des UBA führen ins Leere.
  • Frau Mikisch behauptet, dass … „… Büroinnenräume; Privaträume haben die gleiche Grenzwertbemessung wie auch die Luft draußen!“ Falsch, denn der vom UBA behauptete Grenzwert wird mit 60 µg/m³ angegeben, nicht mit 40 µg/m³.
  • Das UBA behauptet dass für „..Für Büroarbeitsplätze sowie Privaträume finden MAK-Werte keine Anwendung. Hier gelten vielmehr die Richtwerte des Ausschuss für Innenraumrichtwerte (AIR), vormals Ad-hoc-Arbeitsgruppe der Innenraumlufthygienekommission (IRK) und der Arbeitsgemeinschaft der Obersten Landesgesundheitsbehörden (AOLG)). Falsch, denn in den angeführten Definitionen der MAK Werte (hier der Einfachheit weiter so genannt) wird diese Einschränkung nicht gemacht. Dort ist unisono nur von Arbeitsplätzen die Rede
  • Das UBA behauptet dass dieser geringere Nox Grenzwert in den Tabellen der Richtwerte I und II der Innenraumlufthygienekommission festgelegt sei. Falsch! In den aktuellen Tabellen kommt Nox überhaupt nicht vor.

Dumm gelaufen Frau Mikisch und Satz und Sieg für Frau Alice Weidel.

Wie sagt der Volksmund so treffend:

Wer im Glashaus sitzt, sollte nicht mit Steinen werfen!

Besonders nicht im Google-Zeitalter möchte man hinzufügen!

Aber eine Erkenntnis stimmt wohl doch; wenn wirklich geringere Grenzwerte in Büro-Innen-räumen gelten als in rauen Industriearbeitsplätzen, dann ist der Büroschlaf doch gesünder als ein Nickerchen auf Schicht in hohen Grenzwertbereichen draußen. Selber schuld, kann man da den Industriearbeitern nur zurufen. Falls ihr mal zu den „empfindlichen“ Personen gehören solltet, empfiehlt sich schnell ein Wechsel ins Büro!

 

 

 

[1] Lt. Alexander Wallasch bei Tichys Einblick hier




Kanzleramt an Strompreis: Nicht steigen. Befehl von oben!

Im Jahre 2009 sagte der damalige Umweltminister Röttgen (CDU): Es ist falsch, erneuerbare Energien für Strompreiserhöhungen verantwortlich zu machen. Er prognostizierte: „Richtig ist, dass der Förderanteil der erneuerbaren Energien am Strompreis äußerst gering ist. Für einen vierköpfigen Haushalt macht das im nächsten Jahr 5,95 Euro an der Stromrechnung aus“. Ein Jahr später schon verteidigte derselbe Herr Röttgen die Strompreiserhöhung um 70 Euro pro Jahr und Familie durch den Solarboom als „alternativlos“ und wichtig zur Schaffung von 340.000 Arbeitsplätzen in der Solarindustrie. Die entstanden vielleicht auch – aber leider im fernen China.

Im Juni 2011 sagt Angela Merkel (CDU) in ihrer Regierungserklärung einen Satz, der ihr vorsichtshalber von den grünaffinen Medien lieber nicht vorgehalten wird: „Die EEG-Umlage soll nicht über ihre heutige Größenordnung hinaus steigen; heute liegt sie bei etwa 3,5 Cent pro Kilowattstunde.“ Leider führ der obige Link nirgendwohin, weil auf der Webseite der Bundesregierung der entsprechende Artikel gelöscht wurde. Wer mag schon gerne an gebrochene Versprechen erinnert werden.

Im Jahre 2012 forderte Bundesumweltminister Altmaier(CDU) niedrigere Strompreise für die Verbraucher. Und seine Chefin tönte: „Die Bundesrepublik sollte international ein nachahmenswertes Beispiel liefern. Dazu gehöre, dass der Ausbau erneuerbarer Energien für Bürger und Unternehmen bezahlbar bleibt. Wir müssen es effizient und vernünftig machen“ Damals betrug die EEG-Umlage 5,27 Cent/KWh. Und Herrn Altmaiers damalige grandiose Idee: „die Bürger sollten dem Strompreis ein Schnippchen schlagen“ – nämlich einfach weniger verbrauchen. Dazu sollten sie eine Beratung bekommen. Auch das hat nicht so richtig geklappt.

Im Jahre 2013 war Wahlkampf und Herr Altmaier war immer noch Bundesumweltminister und somit immer noch zuständig für den Strompreis.  „Strompreis-Sicherung“ hieß das Konzept, mit dem er die Kosten der Energiewende für die Verbraucher begrenzen wollte. Sein Eckpunktepapier soll dafür sorgen, dass die sogenannte EEG-Umlage bis Ende 2014 nicht mehr steigt – und ihr Anstieg ab 2015 auf 2,5 Prozent pro Jahr begrenzt wird. Bekanntlich hat das auch nicht so ganz funktioniert.

In einem Zeit-Artikel aus dem Jahre 2014 prophezeite der Berliner Thinktank Agora Energiewende, über die damalige Umlage von 6,24Cent/KWh „dass die Ökostromumlage bis 2017 relativ konstant bleibe. Und Zeit Online legte euphorisch begeistert noch einen drauf und prophezeite gar ein Sinken der Strompreise durch ein Absinken der Umlage auf 5,8 Cent/KWh. Die AGORAS lassen sich beim Jubelprophezeien aber nicht weiter von ihren gestrigen Fehlleinschätzungen beeindrucken und prophezeien heute unverdrossen: „Bei einem weiterhin ehrgeizigen Erneuerbaren-Ausbau steigen die Stromkosten für die Verbraucher bis 2023 noch um 1-2 ct/kWh an, sinken dann aber kontinuierlich um 2-4 ct/kWh bis 2035“. Doch wie das so ist mit den Prognosen, sie sind schwierig, besonders wenn sie die Zukunft betreffen. Und das ist wieder nach der Wahl, sogar nach der übernächsten.

Altmaier und das Blaue vom Himmel

Heute, im Jahre 2017 ist wieder mal Wahlkampf. Und folgerichtig kommt der Herr Altmaier wieder daher und verspricht das Blaue vom Himmel herunter: „EEG-Umlage darf nicht weiter steigen“. Darf nicht! Befehl vom Kanzleramt, Punktum, jawoll! Die Politik müsse dafür sorgen, „dass der Strompreis auch künftig nicht durch die Decke schießt.“ Der Herr Altmaier ist selbst vergesslich oder rechnet mit der Vergesslichkeit seiner Wähler. Wie das Nichtweitersteigen des Strompreises geschehen könne, werde „nach der Wahl Thema der Koalitionsverhandlungen“ sein. Altmaier ließ offen, welche anderen Finanzierungsquellen als die Umlage auf den Stromverbrauch nach dem Erneuerbare-Energien-Gesetz er für möglich hält. Aha, nach der Wahl also? Will er die Verbraucher entlasten und dafür die Steuerzahler zur Kasse bitten? Heute liegt die EEG Umlage bei 6,88 Cent/KWh. Selbst die Erneuerbare Energie-Lobby-Organisation Agora rechnet mit steigender Umlage bis 2023 und keiner weiß, um wieviel.

Altmaiers Strompreis, der „auch künftig“ nicht durch die Decke schießen soll, ist ein rhetorischer Trick. Er will verschleiern, dass der Strompreis längst durch die Decke geschossen ist. Im Nachbarland Frankreich bezahlen die Verbraucher die Hälfte. Deutschland hat den zweithöchsten Strompreis Europas, das drittgrößte Parlament der Welt und gute Chancen auch Weltmeister bei den Strompreisen zu werden. Die Energiewende kostet jede Familie bis 2025 den Preis eines Mittelklassewagens. Altmaier hat es selbst prognostiziert – bis 2050 löhnen die Bürger 1000 Milliarden Euro, eine Billion. Strompreise lassen sich aber nur bremsen, wenn Altmaier & Co aufhören, Energie wenden zu wollen. 330.000 Haushalten wurde der Strom abgeschaltet, weil sie ihn nicht mehr bezahlen können.

Altmaier, hat 2013 geschrieben: „Hinter der Energiewende verbirgt sich nichts weniger als die größte wirtschaftspolitische Herausforderung seit dem Wiederaufbau und die größte umweltpolitische Herausforderung überhaupt“. Seine Chefin Angela Merkel, sagte im November 2015 hingegen: „Die Flüchtlingskrise ist die größte Herausforderung nach der deutschen Einheit„. Der Finanzminister Schäuble sah wiederum schon 2011 in der Rettung Europas aus der Schuldenkrise „eine historische Herausforderung“. Nun, alle drei Herausforderungen sind ungelöst und kosten das hart erarbeitete Geld der Bürger, während es im Land an vielem fehlt.

Alle drei  sind in derselben Partei. Vielleicht können sie sich innerhalb der CDU wenigstens darauf einigen, welcher der drei Weltrettungsvorhaben sich die Steuerzahler vorrangig stellen müssen? Bis dahin heißt es für die Bürger:  Die Hälfte des Nationaleinkommens wird in hausgemachte „historische Herausforderungen“ investiert, von denen sie nicht das geringste haben. Ich bin gespannt, wie sich das am 24.September auswirkt.

Manfred Haferburg ist Autor des Romans „Wohn-Haftmit einem Vorwort von Wolf Biermann

Übernommen von ACHGUT hier




Der Kohleausstieg – ein ganz normaler Wahnsinn!

Auf der Bundesdelegiertenkonferenz der Grünen im Juni wurde der Kohleausstieg mit Beschluss versehen und auf das Jahr 2030 terminiert. Zeitgleich soll der Verbrennungsmotor in Kraftfahrzeuge nicht mehr eingebaut werden. Politische Willensbekundungen und Konferenzbeschlüsse sind nun mal wunschgetragen und hoch gesteckt, denn um Wirkung zu erreichen, bedarf es „ehrgeiziger“ oder „ambitionierter“ Ziele. Inwieweit die Delegierten über ihren Beschluss nachgedacht oder sich mit Realitäten beschäftigt haben, ist nicht bekannt. Es steht eher zu vermuten, dass in bewährter ideologischer Art die Welt, wie sie ihnen gefällt, grün angestrichen wurde.

Dabei wäre es nicht schwer gewesen, sich zu informieren. Kundige Leute wie Dr. Wolfgang Rasim aus Forst und andere haben sich die Mühe gemacht, was-wäre-wenn-Rechnungen anzustellen:

Angenommen, zwei Drittel (221 Terrawattstunden) des wegfallenden Kohle- und Atomstroms sollen durch Windenergie ersetzt werden, ein weiteres Drittel durch Solar, Erdgas, Geothermie und anderes, so wären dafür etwa 44.200 Windkraftanlagen (onshore) der 3,2-Megawattklasse notwendig. Für zwei Drittel Ersatz der Kohle im Wärmemarkt (737 Terrawattstunden thermisch) bräuchte es, wenn hälftig Wärmepumpen und Elektroheizungen zum Einsatz kämen, 98.300 Windkraftanlagen. Da die Verbrenner-Autos ab 2030 durch E-Mobile ersetzt werden sollen, braucht man auch hier Strom: Für unsere betrachteten zwei Drittel des Strombedarfs (321 Terrawattstunden) wären theoretisch 64.200 Windkraftanlegen nötig.

Rein rechnerisch geht es also um eine Größenordnung von zusätzlich über 200.000 bis 2030 neu zu errichtende Windkraftanlagen im Land. Gegenwärtig drehen sich bei uns (zeitweise) 27.270 Rotoren. Der Fantasie der Leser sei jetzt Raum gegeben.

Da Wind und Sonne den Strom nur fluktuierend liefern, entstünde ein gigantischer Speicherbedarf in der Größenordnung einiger Tausend theoretischer herkömmlicher Pumpspeicherwerke. Speicher fressen über ihren Wirkungsgrad einen Teil der eingelagerten Energie wieder auf. Pumpspeicherwerke eher weniger, bei Power-to-Gas sollte man nicht den Begriff Speicher gebrauchen, sondern das entstehende Gas anderweitig nutzen. Bereits 2010 stufte die Deutsche Physikalische Gesellschaft P2G als Stromspeicher als „energetisch uninteressant“ ein. Es gilt weiter der Spruch: Ohne Speicher ist diese Energiewende nicht machbar, mit Speichern nicht bezahlbar.

Auch ein bodenständiger grüner Ministerpräsident wie Kretschmann findet offenbar in der abgehobenen Gilde kein Gehör mehr. So gleitet die Heilige Grüne Dreifaltigkeit aus Kohleausstieg, E-Mobilität und Ehe für alle dem Wahlkampf entgegen und mag belächelt werden. Wenn die Grünen aber gebraucht werden für Machterhalt oder Machterlangung, wird nicht mehr gelächelt, sondern koaliert.




Die Science Fiction des Jeremy Rifkin oder: die schöne neue Welt der Öko-Kollektive

Nicht auszuschließen, daß er dabei den selbsternannten Visionär Jeremy Rifkin im Auge hatte, der auch damals schon in Europa herumgeisterte, der aber erst in jüngerer Zeit zu einem Berater der EU und Kanzlerin Merkels aufsteigen konnte. Zu Schmidts Zeiten war es dagegen noch üblich, daß Politiker sich Wissen und Ratschlag bei Fachleuten holten.

Besonders in Asien ist längst aufgefallen, daß fundiertes Fachwissen in Deutschland, vielleicht auch in ganz Europa, zunehmend an Bedeutung verloren hat. Statt Sachverstand zählen heute Glaubensformeln und Redefluß. Es ist hinlänglich bekannt, daß bei dem immerhin lebenswichtigen Thema Energieversorgung in Deutschland schon lange keine Fachleute mehr das Sagen haben, sondern Ideologen, die über CO2– Emissionen schwadronieren und die Rettung des Planeten zu ihrem Lebensziel gemacht haben. Das Kanzleramt, die Kirchen, die Parteien, Schulen, Kindergärten, selbst wissenschaftliche Institute haben seit Jahrzehnten ihre Mitarbeiter zunehmend nach politisch korrekten Ideologien durchleuchtet und ausgesucht.

Nun treten die peinlichsten Resultate dieser allseits vergrünten Gesellschaft zutage. Wie die gesamte Industrie langsam zu ahnen beginnt, daß dramatisch steigende Stromkosten ein Resultat wetterabhängiger Windmühlentechnik sind, so muß auch die Autoindustrie zur Kenntnis nehmen, daß die Physik sich nicht nach den Wünschen ideologiegetriebener Grenzwerte verbiegen läßt. Und auch die kürzlich in England durch übertriebene Fassadendämmung zu Tode gekommenen Menschen seien uns eine Warnung.

Zitat von Prof. Schellnhuber, Bild swr

Folgt man den jüngsten Aussagen des schon etwas bekannteren Merkel-Beraters Prof. John Schellnhuber vom WBGU (Wissenschaftlicher Beirat Globale Umweltveränderungen), dann müßte man diesen einmal eingeschlagenen Holzweg erst noch richtig auskosten. Anläßlich der Verabschiedung Trumps vom Klimawahn sagte Schellnhuber am 15.3. 2017 in einem Interview in der Deutschen Welle:

„… Es ist ziemlich umwerfend – zum Beispiel bis 2030 müssen wir den Verbrennungsmotor auslaufen lassen. Und wir müssen den Einsatz von Kohle zur Stromerzeugung komplett ausschalten. Bis 2040 müssen wir wahrscheinlich Beton und Stahl für den Bau durch Holz, Ton und Stein ersetzen… Und tun wir das nicht… Es wäre das Ende der Welt, wie wir es wissen, und ich habe alle Beweise.“

Jeder normale Mensch würde sagen: „Hier stimmt was nicht!!“

Gleiches trifft auf den anderen Berater zu, der in Berlin und auch in Brüssel unterwegs ist. Der in Deutschland weniger bekannte Jeremy Rifkin bezeichnet sich als Visionär und Zukunftsforscher. Wie Schellnhuber ist auch er als Öko-Aktivist mit der Rettung des Planeten beschäftigt, aber im Unterschied zu ihm will er uns offiziell zumindest keine Holzhütten andrehen (am Ende sind es dann doch welche), sondern preist seine Vision an als die größte Entdeckung aller Zeiten, nämlich als „Die Dritte Industrielle Revolution“.

In einem Vortrag, den er 2014 bei der amerikanischen Akademie in Berlin hielt, erzählt er, daß Merkel ihn, als sie zur Kanzlerin gewählt wurde, um Beratung bat. Er habe ihr gesagt, daß das alte kapitalistische System mit seinem veralteten Kommunikations- und Verkehrssystem am Absterben sei, daß das Bruttosozialprodukt bei steigenden Kosten fossiler und nuklearer Brennstoffe unweigerlich schrumpfen und die Arbeitslosigkeit beständig ansteigen werde. Kurz, man könne der Tatsache nicht ausweichen, daß wir die Entropiezeche eines auf fossiler Energie bestehenden Systems jetzt nicht nur in wirtschaftlicher Hinsicht zahlen müßten, sondern auch durch die davon verursachte Klimakatastrophe.

Was dagegen hoffnungsvoll im Entstehen sei, sei ein völlig neues System, eine „Dritte Industrielle Revolution“ auf der Grundlage erneuerbarer Energien, neuer Transportwege und eines Super-Internets der Dinge. In einer jüngsten Film-Ankündigung vom April 2017 bezeichnet er Deutschland als das Epizentrum dieser Revolution; Merkel wird darin zitiert, wir würden diese dritte industrielle Revolution in Deutschland haben, und mehr noch, sie wolle auch die Zentralregierung Chinas davon überzeugen.

Um dem Leser die Vorstellung zu erleichtern, was seither im Kopf dieser Kanzlerin spukt, sei aus Rifkins Buch zitiert. Die fünf Säulen seiner Vision sind folgende:

* „Umstieg von einer auf kohlenstoffhaltigen fossilen Brennstoffen basierenden Energieordnung auf erneuerbare Energien.“

* „Umbau der weltweiten Bausubstanz zu Mikrokraftwerken, die vor Ort erneuerbare Energien zu erzeugen imstande sind.“

* „Installation von Wasserstoff und anderen Speichermöglichkeiten in jedem Gebäude und über die ganze gesellschaftliche Infrastruktur verteilt, um schwankende Energien zu speichern und damit einen kontinuierlichen, zuverlässigen Nachschub an grüner Energie zu garantieren.“

* „Die Nutzung der Internettechnologie zur Umstellung des Stromnetzes auf ein intelligentes Versorgungsnetz, in das Millionen Menschen selbst erzeugten grünen Strom einspeisen können, um ihn – nach dem Vorbild des Informationsaustausches im Internet – mit anderen in einer Art quelloffener Allmende zu teilen.“

* „Die Umstellung der globalen Transportflotte – Pkws, Busse, Lkws, Züge – auf elektrische, von erneuerbaren Energien aus Millionen von Gebäuden angetriebenen Steckdosen- und Brennstoffzellenfahrzeuge und die flächendeckende Einrichtung von Ladestationen, an denen sich Elektrizität über ein dezentrales Stromnetz kaufen und verkaufen läßt.“

In dieser schönen neuen Welt werden Milliarden von Menschen die großen Kraftwerke ersetzen. Sie werden den von Sonne und Wind kostenlos gelieferten Strom innerhalb ihrer vier Wände speichern und per Internet verkaufen. Vor dem Haus steht eine Flotte von gemeinschaftlich benutzten E-Mobilen, die mit dem kostenlos gelieferten und gespeicherten Strom fahrerlos in der Gegend herumkutschieren. Auch für den Fall, daß das Internet der Dinge doch keine Dinge produziert, ist vorgesorgt. Alle, selbst fünfjährige Kinder, werden über 3-D-Drucker verfügen, mit denen man die Dinge drucken und verkaufen kann, von Spielzeug über Kochtöpfe bis hin zu E-Mobilen. Wer sich das nicht vorstellen kann, ist eben nicht auf der Höhe der Zeit.

Man bräuchte über Visionen dieser Art kein Wort zu verlieren, wenn nicht tatsächlich der gefährliche Zustand erreicht wäre, daß ganze Institutionen wie die Europäische Union und die Verantwortlichen der großen Energieerzeuger Deutschlands zwischen Science Fiction und Wissenschaft nicht mehr unterscheiden können. E.ON und Google gründeten kürzlich eine Partnerschaft zur Ermittlung des Solarpotentials von weiteren sieben Millionen Gebäuden in Deutschland. Welches Interesse sollte daran bestehen, wenn die Verantwortlichen der Firmen nicht tatsächlich den flächendeckenden Umbau der Bausubstanz in Deutschland zu Mikrokraftwerken im Schilde führten? Wie Rifkin in seinem Buch über die Dritte Industrielle Revolution preisgibt, habe auch der ehemalige Chef von EnBW, Utz Claassen, zur Überraschung seiner Belegschaft selbst versprochen, beim Weg in die neue Ära dezentraler Energie ganz vorne mit dabei zu sein.

Ist die Autoindustrie vielleicht auch gerade dabei, mit dem E-Mobil der letzten der fünf notwendigen Säulen den Weg zu bereiten? Wenn selbst die Führung unserer Industrie sich an der Zerschlagung eines der besten und sichersten Energiesysteme der Welt beteiligt und sich stattdessen mit fragwürdigen Visionären einläßt, dann ist es höchste Zeit, auf die eigentlichen Pläne dieser Propheten hinzuweisen. Denen geht es nämlich nicht um technische Herausforderungen gegenwärtiger oder zukünftiger Machbarkeit, sondern um Bevölkerungsreduktion mittels Wiedereinführung kollektiver Subsistenzwirtschaft. Was Rifkin vorschwebt und jeder in seinen Büchern nachlesen kann, sind Modelle, mit denen sich die Umweltökonomin Elinor Ostrom beschäftigt hat, Modelle, die in die vorindustrielle Zeit, teils nicht weniger als tausend!!!! Jahre zurückreichen.

Bevor wir dahin kommen, wollen wir uns zunächst mit der Frage beschäftigen: Wer ist eigentlich dieser Jeremy Rifkin?

 

Wer ist Jeremy Rifkin?

Geboren 1945 in Denver/Colorado. Bereits 1978 gründete er seine Stiftung „Foundation On Economic Trends“ (FOET) und war seither als Ökoaktivist sowohl in den USA als auch international tätig. Egal, ob es sich um Themen wie Gentechnik, Fleischverzehr oder Klimawandel handelte, Rifkin mobilisierte auf allen Ebenen, was seine Stiftung für die Ökolobby interessant machte. Sie wird bis heute von großen Geldgebern wie Arca Foundation, Oak Foundation, Rockefeller Family Fund, Kellogg Foundation, Warsh-Mott Legacy und Nathan Cummings Foundation unterstützt, um nur einige zu nennen.

Während er in den USA in Sachen Klimawandel wegen der dort existierenden Opposition weniger erfolgreich war, wurde er seit 2000 Berater der Europäischen Union und beriet in dieser Funktion Prodi, Barroso und Juncker, seit 2005 nach eigenen Angaben auch Merkel und verschiedene Vorstände großer Unternehmen in Europa. Gegenwärtig hat er eine Beraterfunktion in Sachen „Dritte Industrielle Revolution“ in der Region Hauts-de-France, sowie Rotterdam und Den Haag und ist für den Großherzog von Luxemburg tätig. Seit ein paar Jahren soll er auch einzelne Vertreter chinesischer Institutionen beraten haben.

Rifkin schrieb im Laufe seiner Karriere etwa 20 Bücher, von denen einige in 30 Sprachen übersetzt wurden. Die beiden letzten sind Die Dritte Industrielle Revolution von 2011 und das neueste Die Null-Grenzkosten-Gesellschaft von 2014.

In seinen umfangreichen Ausführungen, die alle möglichen Gebiete streifen, findet sich nirgends fundiertes Wissen, nur Behauptungen, teils der absurdesten Art. Aus diesem Grund wollen wir hier auf weitere Details zu seiner Vision nicht näher eingehen, und uns lediglich auf eine Kostprobe beschränken, um dann die Betonung auf das zu legen, worauf das ganze zwangsläufig hinauslaufen soll, nämlich die Dekonstruktion der Industriegesellschaft. Eine Kostprobe aus Die Null-Grenzkosten-Gesellschaft:

„Im Gegensatz zu fossilen Brennstoffen und Uran für Atomkraft, wo bereits der Rohstoff Kosten verursacht, sind erneuerbare Energien nahezu kostenlos zu haben: die Sonne, die Sie auf Ihrem Dach einfangen, der Wind, der die Wände Ihres Hauses hochstreicht, der anaerobe Kompost in Ihrer Küche, die Wärme in der Erde unter Ihrem Büro.

Und schließlich sind die Kosten für den Betrieb eines dreidimensional gedruckten Wagens mit lokal geernteter erneuerbarer Energie so gut wie umsonst. Die Brennstoffkosten eines Urbee liegen bei nur 0,02 Dollar pro Meile – mit anderen Worten: bei einem Drittel der Kosten eines Toyota Prius.“ (Campus-Verlag, S.391 f.)

Die unsichtbare Hand des Marktes habe die Entdeckung des Null-Grenzkosten-Prinzips freigegeben und trete ihren Triumphzug an.

Auf dieser wunderbaren Entdeckung basiert die ganze Vision des Jeremy Rifkin, und die Granden der europäischen Politik applaudieren. Ganz Recht hatte er, der alte Helmut Schmidt: Da hilft nur der Gang zum Arzt!

 

Die autarken Öko-Kollektive

Kommen wir noch einmal zurück auf den oben schon zitierten Vortrag 2014 in Berlin. Nach den großen Lobreden auf die angeblich extrem steigende Produktivität in einer mit erneuerbarer Technik vernetzten Welt läßt er schließlich die Katze aus dem Sack.

Besser als alle Formen kapitalistischer oder sozialistischer Wirtschaft sei die soziale Wirtschaft, die tausend Jahre vor dem Kapitalismus existierte und von der man nur nichts gehört habe, weil die moderne Geschichte das auslasse. Es bedurfte erst der Wirtschaftswissenschaftlerin Ostrom von der Indiana-Universität Bloomington, die schließlich das Prinzip einer wahrhaft demokratischen und sozialen Gemeinschaft in den kleinsten Gebirgsdörfern der deutschen Alpen, auch der Schweizer und italienischen Alpen wiederentdeckt habe.

Elinor Ostrom bekam für ihre Arbeit auf dem Gebiet der Umweltökonomie 2009 im Alter von 76 Jahren den Nobelpreis verliehen und starb zwei Jahre danach. Sie befaßte sich unter Anwendung der Spieltheorie mit der Frage, wie eine wachsende Bevölkerung mit knappen Ressourcen umgehe, wobei der Hauptgegenstand ihrer früheren Forschungstätigkeit die Wasserknappheit in Kalifornien war.

In ihrem Buch Die Verfassung der Allmende kommt sie zu dem Schluß, daß die von Rifkin erwähnten Bergdörfer (genannt werden Törbel in der Vistatalklamm im Kanton Wallis und die japanischen Dörfer Hirano, Nagaike und Yamanoka) die erfolgreichsten selbstverwalteten und langlebigsten Gemeinden waren. Zitat:

„Die Schweizer und japanischen Gebirgsallmenden haben trotz intensiver Nutzung die Jahrhunderte überdauert oder sind sogar verbessert worden. Ökologische Nachhaltigkeit in einem fragilen Milieu von Lawinen, unvorhersagbaren Niederschlägen und wirtschaftlichem Wachstum ist für jede Aneignergemeinschaft, die seit Jahrhunderten zusammenarbeitet, ein eminenter Erfolg.“

Über die japanischen Dörfer schreibt sie:

„Das Bevölkerungswachstum war extrem niedrig (0,025 % im Zeitraum von 1721 bis 1846) und die Besitzverhältnisse in den Dörfern waren stabil… Wie in den Schweizer Dörfern waren auch hier die Regeln und Vorschriften zugeschnitten auf das spezifische Ökosystem, auf die besondere wirtschaftliche Rolle der diversen Waldprodukte in der Dorfökonomie sowie auf die notwendige Minimierung der Überwachungskosten für Arbeitsinputs, Ressourceneinheiten-outputs und für die Regeleinhaltung… Jedes Dorf entwarf auch sein eigenes Überwachungs- und Sanktionssystem. Da der Berg bis auf bestimmte Perioden geschlossen war, verstieß offenkundig jeder gegen die Vorschriften, der zu anderen Zeiten in gemeindeeigenen Territorien ertappt wurde. Die meisten Gemeinden stellten ,Detektive’ ein, die zu zweit täglich die Allmenden abritten, um Regelbrecher aufzuspüren…“

Es folgen noch lange Berichte über die Handhabung von Strafen, die bei Übertretung der gemeinschaftlich beschlossen Regeln wirksam wurden.

Man kann aus alledem nur schließen, daß Rifkin die These vom „nachhaltigen Füllhorn“ seiner angeblichen Revolution selber bezweifelt und stattdessen wie alle heimlichen oder bekennenden Malthusianer fasziniert ist von der Idee, daß das Leben erst unter der Bedingung eines ständigen Überlebenskampfes bei äußerster Ressourcenknappheit eine Würze bekommt. Woher sonst die Begeisterung für solche Gebirgsdorf-Modelle des 18. und 19. Jahrhunderts?

Will man diese Modelle tatsächlich auf das heutige Deutschland und darüber hinaus ausdehnen, dann muß man auch zur Bevölkerungsdichte aus der Zeit von Robert Malthus zurückkehren. Das wären in Deutschland höchstens 15 Millionen Menschen, und maximal eine Milliarde weltweit.

Und, in der Tat, man müßte, wie er tatsächlich vorschlägt, das Erziehungssystem für diese „Kulturrevolution“ gründlich umkrempeln. Zitat aus Die Dritte Industrielle Revolution:

„Folglich müssen Lehrer in aller Welt ihren Schülern von klein auf beibringen, daß sie ein enger Teil der Biosphärenprozesse sind und alle ihre Entscheidungen – was sie essen, was sie tragen, welches Auto sie fahren, welchen Strom sie benutzen – sich auf ihre Klimabilanz auswirken und diese wiederum auf alle anderen Menschen und Kreaturen.“ (Fischer Taschenbuch, S. 255)

Und dann, unter der Überschrift „ Das dezentralisierte und kollaborative Klassenzimmer“:

„Eine neue Generation von Erziehern macht sich daran, die schulischen Lernprozesse, die sich während der ersten beiden industriellen Revolutionen etabliert haben, zu dekonstruieren. Ziel des neuen Lernerlebnisses ist die Förderung eines erweiterten, von Biosphärenbewußtsein erfüllten ökologischen Ichs. Der vorherrschende hierarchische Unterrichtsansatz, dessen Ziel darin besteht, ein autonomes Wesen zu schaffen, das in Konkurrenz zu anderen lebt, beginnt einer dezentralen und kollaborativen Lernerfahrung zu weichen, die ein Gespür für das soziale Wesen unseres Wissens zu vermitteln vermag.“ (ebenda, S. 257)

Abschließend stellt sich die Frage: Was planen Angela Merkel nebst Barroso, Prodi, Juncker, Theyssen, Claassen und andere für Europa?

Durchsetzen können sich solche rückwärtsgewandten Modelle sicherlich nicht, weil sich schon heute ein Teil der Welt fragt, was mit Europa los ist. Anderswo setzt man gerade auf die Verwirklichung einer Industriegesellschaft, und in China ist man froh, daß die Erfahrungen der schrecklichen Kulturrevolution der Vergangenheit angehören. China hat unter Einbeziehung des Ausbaus der Kernenergie und der Fusionsforschung einen beispielhaften Weg zur Entwicklung der Weltgemeinschaft aufgezeigt und in Form des Konzeptes der Neuen Seidenstraße den Weg in die Zukunft gewiesen.

Aber es stellt sich die Frage, welchen Preis Europa dafür wird zahlen müssen, daß unsere Politiker auch nur versuchsweise dem Ratschlag von Scharlatanen folgen?