1

Der Neue Grüne Deal: Viel schlimmer als man denkt!

Während der Diskussion um die Sicherheit an der Grenze zwischen den USA und Mexiko ist der Zorn über eine (inzwischen teilweise zurück genommene) Steuererhöhung auf Treibstoff in Frankreich und den Kollaps der Wirtschaft Venezuelas alles, was hier und jetzt von Belang ist. Aber der Neue Grüne Deal postuliert eine glorreiche Vision der Zukunft.

Und was für eine Zukunft das ist!

Im Namen des Kampfes gegen Klimawandel (einst bekannt unter dem Terminus globale Erwärmung) trachtet der Neue Grüne Deal nach nichts weniger als der vollständigen Dekarbonisierung der US-Wirtschaft und nach dem Übergang zu 100% erneuerbarer Energie – alles innerhalb von ein paar Jahrzehnten. Nicht weniger als 626 Organisationen unterzeichneten am 10. Januar einen Brief an den Kongress, in welchem gefordert wird, dass die Kongressmitglieder „aggressiv und rasch“ handeln, um eine bevorstehende Klimakatastrophe zu vermeiden. Zumindest sollten diese Maßnahmen folgende Schritte enthalten:

Beendigung sämtlicher Förderung fossiler Treibstoffe auf öffentlichen Ländereien; keine neuen Genehmigungen mehr für fossil betriebene Kraftwerke; Verbot des Exports von Kohle, Öl und Erdgas aus Amerika – alles „zur Verfolgung eines geregelten Auslaufens der Erzeugung fossiler Treibstoffe“

Ausschluss fossiler Treibstoffe, von Kernkraft, Biomasse und Wasserkraft sowie Abfällen aus der Energie-Verbrennung aus Amerikas Energie-Zukunft, um einen Übergang zu 100% erneuerbare Energie bis zum Jahr 2035 oder früher zu erreichen.

Anstreben einer Dekarbonisierung um 100% mittels Verbot des Verkaufs von Autos und Lastwagen mit Verbrennungsmotor, Betreiben von „Investitionen“ in ein mit erneuerbarer Energie angetriebenes Transportwesen sowie Ausweitung der Subventionen seitens der Regierung von Elektrofahrzeugen.

Inanspruchnahme der „vollen Umsetzung des Clean Air Act“, um sicherzustellen, dass die Klimaziele erreicht werden, einschließlich der Umsetzung von Reduktionen von Treibhausgasen aus Autos, Lastwagen Flugzeugen, Schiffen und anderen Quellen.

Sicherstellung eines „gerechten Übergangs“, durch Priorisierung der „Unterstützung für Gemeinden, welche historisch zuerst und zu allermeist geschädigt werden durch die schmutzige Ökonomie, und von Arbeitern im Energiesektor und damit zusammenhängender Industrien“; die Einrichtung neuer Transportmöglichkeiten, Energie, Müll und Wohn-Infrastruktur, um „Klima-Widerstand und anderen menschlichen Bedürfnissen“ gerecht zu werden; Nachrüstung von Millionen Gebäuden, um Energie und andere Ressourcen einzusparen sowie „aktive Restaurierung von Ökosystemen, um die Gemeinden vor dem Klimawandel zu schützen“; und

Einhaltung der UN-Deklaration zu den Rechten indigener Völker mittels Anerkennung ihrer Rechte, „frei, vorlaufend und informiert ihre Einwilligung“ geben oder zu verweigern hinsichtlich der Gesetzgebung bzgl. anderer Entwicklungen, welche ihr Land, ihre Territorien sowie ihre natürlichen und kulturellen Ressourcen betrifft.

Wie viel das alles kosten wird und auf welche Art und Weise diese enormen Summen aufgebracht werden sollen, bleibt unerwähnt. Die gerade gewählte Abgeordnete Alexandria Ocasio-Cortez (Demokraten) schlug jüngst in einem TV-Interview vor, dass ein Weg der Finanzierung des Neuen Grünen Deals darin bestehen könnte, den Grenzsteuersatz [marginal tax rate] für alle Menschen, die 10 Millionen Dollar pro Jahr oder mehr verdienen, auf 70% zu erhöhen. Aber ihr Vorschlag wurde von vielen ihrer demokratischen Parteigenossen kühl aufgenommen, fürchteten diese doch um ihre großzügigen Gönner aus Hollywood, Silicon Valley und der Wall Street, welche wohl nicht willens seien, so viel Geld an das US-Finanzamt zu zahlen, selbst wenn sie damit den Planeten retten würden.

Während er Abstand nahm von dem 70%-Vorschlag von Ocasio-Cortez, begrüßte der Abgeordnete Don beyer (Demokraten) den Neuen Grünen Deal und würde dafür auch eine Kohlenstoff-Steuer zahlen – eine Abgabe auf Öl, Erdgas und Kohle. Falls überhaupt etwas ist eine Kohlenstoff-Steuer eine noch größere Torheit.

Reine Torheit

„Eine Kohlenstoff-Steuer ist eine Steuer auf die bloße Existenz, weil man für alle Aspekte des Lebens Energie braucht, und Kohlenwasserstoffe decken derzeit 80% des US-Energiebedarfs, in der übrigen Welt sogar noch mehr“, schrieb Mark Mills vom Manhattan Institute jüngst im Wall Street Journal. Mills wies darauf hin, dass wenn es um den Ersatz fossiler Treibstoffe durch erneuerbare Energie geht, diese derzeit lediglich 3% des Energiebedarfs der USA deckt – und das nach Jahrzehnten von Subventionen und staatlichen Vorschriften bzgl. des Verbrauchs erneuerbarer Energie.

Falls alles, was den Aufruhr der „Gelbwesten“ in Frankreich auslöste, eine Anhebung der Dieselsteuer war, dann denke man an den Aufruhr in den USA, der sich erheben würde, wenn man zur Finanzierung des Neuen Grünen Deals eine Steuer auf die bloße „Existenz“ erhebt, wie Mills es ausdrückt.

Selbst die Berufung auf indigene Völker ignoriert die Tatsache, dass einige Stämme in den USA über Vorkommen von Öl, Gas und Kohle auf ihren Ländereien verfügen und dass der Neue Grüne Deal ein vernichtender Schlag gegen die Bemühungen dieser Völker wäre, der Armut zu entkommen mittels Ausbeutung ihrer Bodenschätze.

Ein von der Regierung vorgeschriebener Übergang zu 100% erneuerbarer Energie würde die industriellen Grundlagen der USA vollständig zerschlagen und dafür sorgen, dass in Millionen Haushalten im ganzen Land die Lichter ausgehen. Der Neue Grüne Deal ist eine Torheit epischen Ausmaßes.

Link: http://www.cfact.org/2019/01/16/the-green-new-deal-its-worse-than-you-think/

Übersetzt von Chris Frey EIKE




KURZ VORM BLACKOUT Deutschland (fast) ohne Strom

Es kracht immer häufiger im Gebälk der europäischen Stromversorgung. In der zweiten Januarwoche wäre es fast zu einem sogenannten Blackout gekommen, einem kompletten Stromausfall, bei dem Millionen von Haushalten und der Industrie kein Strom mehr zur Verfügung gestanden hätte. Am 10. Januar 2019 abends sank die Netzfrequenz auf 49.8 Hertz ab. Das ist die unterste Grenze, bis zu der Einbrüche im Netz ausgeglichen werden können. Fällt der Wert darunter, bricht das Netz zusammen mit dramatischen Folgen.

Europa schrammte »knapp an einer Katastrophe« vorbei, zitiert »Der Standard« aus Wien Experten, wie auf dieser Kurve zu sehen ist.

Die Frequenz ist das entscheidende Maß dafür, ob genügend Strom produziert wird. Denn der kann nicht in größeren Mengen gespeichert, sondern muss in genau dem Augenblick erzeugt werden, in dem er gebraucht wird. Angebot und Nachfrage müssen immer im Gleichgewicht stehen. Nicht mehr ganz einfach, denn mehr und mehr Windräder und Photovoltaikanlagen speisen »Wackelstrom« in die Netze. Der muss sogar den Vorrang vor dem gleichmäßigen Strom aus Kraftwerken bekommen.

Sämtliche Stromerzeuger und Verbraucher in Europa takten im Gleichklang von 50 Hertz. Sinkt die Frequenz unter diesen Wert, so herrscht Strommangel und die Netzbetreiber müssen schnellstens weitere Stromquellen dazuschalten – oder eben möglichst schnell Stromverbraucher abschalten.

An jenem Donnerstagabend warfen die Netzbetreiber »Lasten ab« und schalteten Industriebetrieben, die viel Strom verbrauchen, denselben ab. Der französische Netzbetreiber RTW warf mehr als 1,5 GW ab, Strom für hauptsächlich Industriebetriebe. Abwerfen, das heißt in der Sprache der Stromerzeuger: Strom aus. Sofort, meist ohne Vorwarnung.

Das geschieht automatisch in mehreren Stufen, um die Netzfrequenz aufrecht zu erhalten. Sackt die trotzdem noch weiter unter 47,5 Hertz ab, wird das Stromnetz abgeschaltet. Blackout total. Nichts geht mehr.

Sollten irgendwann einmal tatsächlich nur noch Windräder Strom erzeugen, so könnten noch nicht einmal mehr das Stromnetz wieder in Gang gesetzt werden. Nur mit Windrädern allein klappt das aus technischen Gründen nicht. An jenem Donnerstag ging es gerade noch einmal gut. Lasten wurden nur in einer ersten Stufe abgeworfen, das reichte, um das Netz wieder zu stabilisieren.

Wenig später teilte der österreichische Übertragungsnetzbetreibers APG mit, dass »ein Datenfehler an einem Netzregler« im Gebiet der deutschen TenneT, den Störfall auslöste. Die Störung habe jedoch gezeigt, dass das europäische Schutzsystem nach dem Frequenzabfall gegriffen und die Frequenz sofort wieder in den Normalbetrieb zurückgeführt habe.

Ob aber dieser Messfehler die einzige Ursache war, bezweifeln die Experten des Verbandes Europäischer Übertragungsnetzbetreiber ENTSO in Brüssel.

Einen Blackout befürchten manche Energiemanager hierzulande nicht. Sie verweisen darauf, dass im Zweifel Strom aus dem Ausland eingekauft wird. Kosten spielen sowieso keine Rolle mehr im Energiewendenwahnsinn.

Doch was, wenn nicht mehr genügend Erzeugerkapazitäten in Europa bereitstehen? Die französischen Kernkraftwerke schwächeln, im vergangenen Sommer waren die Schweizer Speicherseen ziemlich leer. Häufiger müssen auch Länder wie Frankreich, die Schweiz und Belgien Strom importieren.

Strom ist nicht gleich Strom. Es hängt davon ab, wann er gebraucht und produziert wird. Wind und Sonne liefern zu ungleichmäßig, können ein Industrieland wie Deutschland nicht mit Energie versorgen. Deutschland exportiert häufig dann Strom, wenn auch im europäischen Netz zu viel vorhanden ist. Dann muss oft genug noch eine gute Stange Geld mitgeliefert werden, damit irgendjemand diesen Strom abnimmt.

Und ohne Kernenergie, Kohle und Gas hätte Deutschland am vergangenen Wochenende im Dunkeln gesessen. Wind und Sonne lieferten mal wieder nicht. Die beiden unteren kleinen blauen Flächen zeigen, dass kaum Strom kam. Gegen Mittag lieferten die Photovoltaikanlagen kurzzeitig ein wenig Strom. Doch von der Sonne kommt noch nicht so viel Energie wie im Sommer an, sie steht zudem noch sehr schräg am Himmel. Die konventionellen Kraftwerke mussten den Löwenanteil bei der Stromerzeugung abdecken. Noch hat niemand von den Energiewendlern erklärt, woher der Strom kommen soll, wenn die letzten Kohle- und Kernkraftwerke abgeschaltet sein werden. Dann herrscht Nacht über Deutschland.

Ein paar Tage vorher um den 17. Januar, weht der Wind wenigstens noch einigermaßen, wie das Schaubild (oben) zeigt.

Unternehmen in Deutschland protestieren mittlerweile heftig gegen immer häufigere Abschaltungen. Sie müssen immer häufiger damit rechnen, dass ihnen kurzfristig der Strom abgeschaltet wird, und sie ihre Produktion stillegen müssen.

»Bisher sind dieses Jahr (gemeint ist das Jahr 2018) 78 Abschaltungen alleine der Aluminiumhütten erfolgt«, zitiert die FAZ einen »Brandbrief« der Hydro Aluminium aus Neuss an den Präsidenten der Bundesnetzagentur. Das sei ein neuer Rekord.
Aluminiumhütten gehören zu den großen Stromverbrauchern. Eine jener waghalsigen Ideen der Energiewende ist, solchen Großverbrauchern den Strom abzuklemmen, wenn Flaute im Netz herrscht und weder Wind noch Sonne genügend Energie liefern. Damit kappen sie zwar die Spitzen im Stromverbrauch, bringen aber gleichzeitig die Unternehmen in erhebliche Schwierigkeiten. Die benötigen den Strom in der Regel nicht aus Freude am Spielen, sondern für ihre Produktion. Sie bekommen zwar ein Entgelt für die Stromabschaltung, die 15 Minuten vorher angekündigt werden muss. Doch das nutzt nicht viel, haben sie doch Lieferverpflichtungen. Bei einem längeren Stromausfall kann in Verhüttungsbetrieben oder in Glaswerken die Schmelze erstarren und die Anlagen zerstören.

Die FAZ beschreibt zum Beispiel den 14. Dezember vergangenen Jahres. Der Tag war eigentlich als ein sonniger Tag eingeplant, bei dem die Photovoltaik-Anlagen viel Energie in die Netze einspeisen sollten. Grundlage war die spezielle Wettervorhersage, die für die Stromversorger produziert wird. Doch das Wetter hält sich nicht immer an die Vorhersage vom Tage zuvor. Es kommt häufig anders.

Der Himmel über Deutschland war an jenem Freitag fast durchgängig bedeckt. Nur an einigen Stellen kam kurz die Sonne durch. Die schwerwiegende Folge: In Deutschland gab es zu wenig Strom. Die Netzbetreiber wollten den Strom bei einer Reihe von Industriebetrieben abschalten, vor allem bei jenen, die viel Strom verbrauchen wie Aluminiumhütten, Walzwerke und Gießereien.

Das ist vereinbart, dafür bekommen sie auch Geld, und das hilft den Netzbetreibern, die Spitzen im Stromverbrauch abzusenken. So können sie das Netz gerade noch stabil halten, Haushalte und Büros verfügen weiterhin über Strom. Gegen 15 Uhr konnten die normalen Energieerzeuger wieder genügend Strom liefern, der Engpass war vorbei.

»Später wird bei Netzbetreibern von einem ›Prognosefehler bei den erneuerbaren Energien aufgrund einer seinerzeit komplexen Wetterlage‹ die Rede sein«, schreibt die FAZ.

Eine Papierfabrik aus dem niedersächsischen Varel hatte früher bereits eine Verfassungsbeschwerde dagegen eingelegt, dass der zuständige Netzbetreiber auf das Kraftwerk des Betriebes zugreifen darf, wenn zu wenig Strom im öffentlichen Netz vorhanden ist. Doch die Bundesverfassungsrichter wiesen diese Beschwerde gegen die Eingriffe in das Eigentumsrecht des energieintensiven Betriebes kurzerhand zurück.

Es sind jedoch nicht nur die großen Stromabschaltungen, die der Industrie zu schaffen machen. Auch die Qualität des Stromes nimmt ab. Kurzfristige Frequenzschwankungen nehmen zu. Die können die empfindlichen Rechnersteuerungen von Produktionsanlagen, Grafikkarten oder Netzteilen in Rechnern zerstören.

Der österreichische Blackout-Experte Herbert Saurugg beobachtet die sich häufenden kritischen Netzsituationen. Für ihn ein Zeichen zunehmender Instabilitäten im europäischen Verbundsystem. Die Netzschwankungen könnten immer schlimmer werden, meint der ehemalige Major des österreichischen Bundesheeres.

Vorräte einkaufen, empfiehlt er. Man könne sich bei der Planung an einem zweiwöchigen Campingurlaub orientieren. Und er hat noch einen Tipp für den Stromausfall.

»Gemeinsam lassen sich derartige Krisen deutlich besser bewältigen. Nutzen wir auch die damit verbundenen Chancen: Kommen Sie mit Ihrer Nachbarschaft ins Gespräch. Der soziale Zusammenhalt ist gerade in einer solchen Situaton überlebenswichtig.«

So haben wir die »Energiewende« noch nicht gesehen: der Blackout als soziales Instrument.

Der Beitrag erschien zuerst bei TICHYS Einblick hier




Schöne Schweiz, hast Du es besser?

Nun hat die Bevölkerung in 2017 tatsächlich ein klares Votum für die Schweizer Energiewende  (SEW) abgegeben (hier). Dafür war zweifellos profunde Unkenntnis verantwortlich und zwar darüber, worauf man sich mit diesem Votum eingelassen hat. Insbesondere der Widerstand gegen Windräder ist inzwischen an Ausmaß und Stärke derart angewachsen, dass diese  Option, von Regierung  und Profiteuren zwar heiß ersehnt, wohl nicht mehr als realistisch angesehen werden muss.

Der Widerstand regt sich aber auch im akademischen Bereich, hier im Carnot-Courtot Netzwerk (CCN), einem Zusammenschluss von universitären Fachleuten (hier). So definiert das CCN seine Aktivitäten und Ziele: „CCN ist ein Think Tank, dessen Mitglieder überzeugte Vertreter einer liberalen und demokratischen Zivilgesellschaft sind, die dem Einzelnen möglichst grosse Entscheidungs- und Wahlfreiheit garantiert. Wir stehen ein für individuelle Freiheit, offenen Wettbewerb, gute wirtschaftliche Rahmenbedingungen und minimale Staatseingriffe. Wir engagieren uns dafür, dass kollektive Entscheidungen und politische Programme systematischen Wirkungsanalysen unterzogen werden.​

Das CCN richtete, ganz im Sinne seines eigenen Auftrags, am 15.Januar 2019 in der Universität Basel die Tagung „Energiestrategie 2050 – Wie umsetzen“ aus. Sie sah vor: drei Fachvorträge, eine Podiumsdiskussion, einen Apero (Apéritif) und vor allem rege Beteiligungen der Tagungsteilnehmer, hier der Tagungsflyer 2019_01_15_Flyer_SBorner_Carnot_Cournot_Tagung_Energiestrategie_2050. Ich war zu dieser Tagung für den ersten Vortrag eingeladen.

Bemerkenswert an der Tagung war der für deutsche Verhältnisse ungewohnt sachliche und faire Austausch der Argumente. In der Podiumsdiskussion und teilweise auch in Zuhörerfragen kamen auch Befürworter der SEW zu Wort. Dennoch war der Umgang miteinander zwar sachlich hart, aber stets zuvorkommend höflich und niemals persönlich verletzend. Entgleisungen, wie zum Beispiel das Benehmen von Prof. Anders Levermann gegenüber seinem jüdischen Kollegen Prof. Nir Shaviv in einer Bundestagsanhörung  (hier) waren in Basel undenkbar.  Fortiter in re, suaviter in modo, hat uns der Lateinlehrer noch beigebracht.  Levermann hat es vermutlich umgekehrt aufgefasst suaviter in re, fortiter in modo. Zurück zu Basel: Auch die überregionale Basler Zeitung war vor Ort. Redakteur Axel Reichmuth berichtete über die Tagung unter „Energiestrategie 2050 in der Kritik“ in der Basler Zeitung vom 17.1.2019. Nachfolgend einige Zitate aus seinem Artikel:

Im Carnot-Cournot-Netzwerk haben sich Skeptiker der «Energiewende» organisiert. Unter Federführung des Basler Ökonomieprofessors Silvio Borner lud das Netzwerk zu einer Tagung zur Umsetzung der Energiestrategie 2050 am Wirtschaftswissenschaftlichen Zentrum der Uni Basel .……… Substanz hatten an der Tagung vor allem drei Referate zu den Chancen und Risiken der Energiewende. Horst-Joachim Lüdecke, Physiker und Professor an der Hochschule für Technik und Wirtschaft des Saarlandes, beleuchtete in seinem Beitrag naturgesetzliche Schranken der erneuerbaren Energien. Er zeigte auf, dass bei den verschiedenen Stromerzeugungsformen die sogenannte Leistungsdichte ein entscheidendes Kriterium ist…….. Der technologische Fortschritt  zeige sich bei den Energieträgern in einem Trend zu immer grösseren Leistungsdichten und damit zu immer kleinerer Umweltbelastung, sagte Lüdecke. «Sogenannte sanfte Energien sind eben solche mit geringer Leistungsdichte, was grosse Zubauflächen, viel Material und hohe Umweltbeeinträchtigung bedeutet.»……… Bernd Schips, Ökonom und Professor an der ETH Zürich, diskutierte die Frage, wie die künftige Stromlücke infolge des wegfallenden Atomstroms gestopft werden kann. Auf eine Reduktion des Strombedarfs dürfe man kaum hoffen, würden doch immer mehr Lebensbereiche elektrifiziert, wie etwa der motorisierte Verkehr. Auf einen namhaften Zusatzbeitrag von Strom aus Wasserkraft, Biomasse und Geothermie könne man ebenfalls nicht zählen, so Schips, da deren Potenzial begrenzt sei……… Bei Solar- und Windkraftanlagen bestünden die Probleme darin, dass die Bevölkerung Widerstand gegen deren grossflächigen Einsatz leiste, und der unregelmässig anfallende Strom nicht in genügendem Mass gespeichert werden könne…….… Nick Zepf, Maschinen- und Betriebsingenieur bei Axpo, präsentierte eine aktualisierte Bilanz zur Energiestrategie 2050. Sein Schluss lautete, dass die Produktionsannahmen der Strategie bis 2040 nur deshalb eingehalten werden können, weil die Kernkraftwerke zehn Jahre länger als angenommen Strom produzieren werden. «Die Kernenergie ist die zentrale Brückentechnologie», ………. Mit Fotovoltaik lasse sich das Winterproblem nicht lösen, und Wind und Geothermie, die helfen könnten, seien kaum akzeptiert. «Eine realistische Überprüfung der Energiestrategie 2050 ist zwingend notwendig», lautete Zepfs Schluss. Dieser dürfte bei den über hundert Zuhörern überwiegend auf Zustimmung gestossen sein.

Der gesamte Tagungsablauf ist inzwischen auf der Webseite des CCN dokumentiert (hier) – die Vortragsfolien aller drei Sprecher, zwei Foliensätze der Podiumsteilnehmer und vor allem der Video-Mitschnitt der Veranstaltung.

Hier der Video-Mitschnitt:

Video der Tagungsveranstaltung des Carnot Cournot Netzwerkes am 15.1.19 in Basel
 

Und das Résumée?

  1. Die von der Schweizer Regierung vorgesehene Energiewende ist für eine auch nur annähernd sichere und zuverlässige Stromversorgung ungeeignet. Dies hätte ein Gutachten von unabhängigen Experten ohne großen Aufwand schnell belegt, denn Deutschland ist schließlich ein Musterbeispiel für das Scheitern solcher Pläne.
  2. Auch in der Schweiz weiß die rechte Hand nicht, was die Linke tut. Eine während der Tagung mehrfach angesprochene „realistische Überprüfung der Energiestrategie 2050″ gibt es bis dato nicht – ebensowenig wie in Deutschland.
  3. Auf der Tagung wurde nicht nur kritisiert, es wurden auch konkrete Lösungsvorschläge gemacht und diskutiert. Favorisiert wurde mehrheitlich der Bau neuer Kohle- und neuer Kernkraftwerke nach dem Auslaufen der aktuell noch aktiven Kernkraftanlagen (auch der Autor dieser Zeilen bekannte sich zu dieser Option). Erneuerbare Energie sollten nicht ausgeschlossen werden, sondern sich subventionsfrei, bei technisch brauchbarer Stromeinspeisung und unter strengen Umweltschutzkriterien bewähren dürfen.
  4. Zu keiner Zeit wurde die eigentliche Ursache der Energiewende angesprochen, das vorgebliche CO2 – Problem. Wenn sich heraustellen sollte, dass anthropogenes CO2 keinen maßgeblichen Einfluss auf die mittlere Globaltemperatur ausübt, wären alle Enrergiewendeverrenkungen umsonst. Aber, so verhält es sich doch! Nach theoretischen Rechnungen und in Übereinstimmung mit der Fachliteratur beträgt die sog. Klimasensitivität grob 1 °C, d.i. die globale Temperaturerhöhung bei Verdoppelung des jeweiligen CO2 – Gehalts der Atmosphäre. Mit Rückkoppelungseffekten ist der Wert sogar noch kleiner, allerdings schwer zu quantifizieren – weil ein kleiner Effekt von einem ohnehin schon sehr kleinen Effekt. Es gibt also gar kein Problem, weil diese Werte völlig unbedenklich sind. Bereits Prof. Nir Shaviv hatte versucht, dies in einer Anhörung im deutschen Bundestag am 28.11.2018 den Zuhörern klarzumachen (hier).

Interessant war im Zusammenhang mit Punkt 3. die Anmerkung eines Zuhörers, dass Kernkraftwerke explodieren könnten und daher zu gefährlich seien. Dieser Einwand war rasch widerlegt, nicht zuletzt, weil dies noch nie vorkam (Tschernobyl war ein militärisches, kein ziviles KKW und in Fukushinma gab es eine Knallgasexplosion, die das Dach wegblies aber mit Kernenergie direkt nichts zu tun hatte). Es kann aber auch prinzipiell nicht vorkommen, denn alle heutigen zivil genutzten Anlagen verwenden gewöhnliches Wasser als Moderator. Überhitzt sich die Kettenreaktion, verdampft der Moderator,  die Neutronen werden zu schnell, und die Kettenreaktion bricht von selbst ab (inhärente Sicherheit). Nur langsame Neutronen spalten ausreichend gut. Zur quantitativen statistischen Sicherheit von Kernkraftwerken unter dem Kriterium Tote pro TWh elektrischem Strom (ähnliche Kriterien gibt es auch im KfZ- oder Flugfverkehr) näheres in Voß_Arbeitsbericht_11 und Voss_Neckarwestheim_2011_05 (Grafik auf S. 33).

 

Schlusswort: An dieser Stelle möchte ich mich bei Dir, lieber Silvio, und allen anderen Mitgliedern des Carnot-Cournot-Netzwerks für die Einladung nach Basel zu einer so interessanten Tagung nochmals bedanken. Insbesondere das gemütliche Zusammensein nach der Veranstaltung war schön und hat meine Kenntnisse über die innerschweizer Verhältnisse erweitert.

 

 




Die Energiewende: Wieso das Energie-Denken so schwierig ist

Fussnoten

Ein Un-Denk-Beispiel: Die Energiewende

Das un-verstandene Thema der Energie

Die mehr oder weniger (un-)anschauliche Terminologie der Energie

Das Problem der Energiebilanz, der Energie-Dichte pro Masse und pro Zeit-Einheit

Die Desertec- Energie im Minus

Eine Milchmädchen-Rechnung von Energie, Kraft und Arbeit

Warum eine Tonne TNT weniger Energie hat als eine Tonne Kerosin

Und noch ein paar Un-Denk-Beispiele von Volumen, Gewicht, und Masse

 

Fussnoten

Ca. 1/3 dieses Textes besteht aus Fussnoten. Wenn im Haupttext ein Punkt noch weiter auszuführen ist, aber es den Gang der Gedanken im Haupttext nicht allzu sehr stören soll, wird das in die Fussnote gepackt. Weiterhin sind die Fussnoten ein guter Platz, um die x-Hundert www-Adressen zu verstecken, die im Haupttext recht unschön anzusehen sind.

Ein Un-Denk-Beispiel: Die Energiewende

Ich führe hier einmal als Paradebeispiel für heutiges Un-Denken die Diskussion um die Energiewende an: Ein wahnwitziger Plan, Deutschland als das Welt-weite Vorzeigeland der schönen neuen Energien. So dass Deutschland nun endlich einmal im positivem Sinn weltführend sein sollte.[1]Leider wurde dieser Plan so umgesetzt, dass die deutschen Landschaften mit riesigen Wind-Rotoren verspargelt wurden, und die Deutschen als Versuchskaninchen dafür, europaweit fast die höchsten Kosten für Strom bezahlen müssen, und einige Millionen, denen der Strom abgestellt worden ist, und man sie damit energetisch ins 18. Jh. zurück geschickt hat.[2]Weil die verantwortlichen Politiker und die Medien einige Grundprinzipien der Energie nicht verstanden haben, obwohl die federführende Bundeskanzlerin auch noch Physikerin ist..[3]/[4]Ich behaupte hier nicht, dass man alles bei der Fossil- und Atom- Energie belassen sollte, so wie es ist. Was aber unter anderem historisch vergessen wird, ist dass alle bisherigen Energie-Wenden der Menschheit, also von Holz zu Kohle, und von Kohle zu Elektrizität und zu Öl und Gas, jeweils mindestens 50 bis 100 Jahre gebraucht haben, denn die Umstellung aller Energie-Infrastrukturen ist extrem aufwendig und kapital-Intensiv. So etwas darf man daher nicht in 20 Jahren versuchen.

Das un-verstandene Thema der Energie

Das Erste, und in der Normalbevölkerung eher un-verstandene Thema ist das der Energie selber. Im Alt-Griechischen heisst es en-ergeiaoder en-ergon„Das, was imstande ist, Werke zu erzeugen“ (ergon ist das Werk, die gemachte Arbeit, engl. Work).[5]Aber leider ist nach der Physiker-Interpretation die Energieetwas, das sich zwar in der Form ändern kann, aber in sich immner gleich bleibt.

Energy is a conserved quantity;[6]the law of conservation of energy states that energy can be converted in form, but not created or destroyed. Siehe: https://en.wikipedia.org/wiki/Energy

Der Begriff „conserved quantity“ ist schon wieder erstmal irreführend. Denn es hat überhaupt nichts damit zu tun, ob und wie man die Energie konservieren (=irgendwo/-wie speichern) kann. Und die Vorstellung von Energie im volkstümlichen Sinne ist eher das Energie-Potential, um (irgend) eine  Arbeit zu leisten.[7]Und das wäre eigentlich die Kraft, im Alt-Deutschen Sinne. Siehe:

Potential energy: https://en.wikipedia.org/wiki/Potential_energy

Wenn man das Wort Energie-Erzeugung gebraucht, ist es ein Denkfehler, weil Energie nie erschaffen werden kann, und nie vernichtet werden kann. Deshalb ist der Begriff Erneuerbare Energien ebenfalls aus demselben Grund irrefürend. Was in der Energiewende- Un-Diskussion weiterhin allzu oft nicht verstanden wird, sind die Themen der Energie-Dichte pro Zeit-Einheit (=Kraft) und pro Volumen und Gewicht, der Energie-Gewinnung, der thermodynamischen Differenz, der Energie-Verfügbarkeit bzw. Speicherung, sowie ihre Verteilung bzw. der Transport der Energieträger. Dazu kommen alle gesellschaftlichen (Kapital-) und die Umwelt-Kosten. Ein Vortrag von David MacKay beleuchtet einige dieser Apekte sehr gut, vor allem mit guten graphischen Darstellungen:

https://www.youtube.com/watch?v=E0W1ZZYIV8o&t=748s

Ein treffendes Beispiel in seinem Vortrag ist in Min. 2:57 die Berechnung, dass man für den Betrieb von Autos mit reinem Biokraftstoff eine Fläche von 8 km Breite entlang von XYZ*100.000 Km dicht befahrenen Autobahnen und Strassen bräuchte, um die Energiepflanzen anzubauen. Noch nicht einberechnet wäre dabei die Energie, die man bräuchte, um mit intensiver Landwirtschaft die Pflanzen zu säen, zu kultivieren, zu ernten, und zu aufbereiten. Das gibt uns erst einmal einen Denk-Anstoss, was das Grundproblem von Bio-Kraftstoffen ist. Der Platzbedarf der Erneuerbaren Energien ist ein wesentlicher Faktor. In Min. 7:47 sagt er, Bio-Kraftstoffe erzeugen nur 0,5 Watt pro Quadratmeter (0,5 W/m**2). Windenergie erzeugt 2,5 W/m**2 (Min 8:12), Sonnenenergie erzeugt 5-20 W/m**2 (Min 8:40). Atomkraft erzeugt 1000 W/m**2 (Min 10:40). Nicht zu vergessen ist aber der Platz- und Energie-Bedarf des Abbaus des Urans, oder der Kohle. Nicht zuletzt kommen die ökologischen Kosten noch dazu.

Die mehr oder weniger (un-)anschauliche Terminologie der Energie

Dass die Herren (und ein paar Damen) Physiker mit ihren Joule und Newton arbeiten, hilft auch nicht viel weiter zum Allgemeinverständnis der Energie. Leider gibt es hier die Denk-Falle der Un-anschaulichen Terminologie. Es ist also auch ein Problem der (nicht so) ethischen Physiker-Welt-Gemein-Schaft, die ihre Terminologie nach Gusto über ihre Kultur-Heroen verteilt.[8]Ich habe darüber eine ziemlich umfangreiche Diskussion geführt: „The Ethics of Terminology“[9]Was es für die Fachleute einer Wissenschaft einfacher macht, darüber zu sprechen, fördert nicht gleichermassen das Verständnis der Laien, aber eher umgekehrt. Das ist leider bei der Energie ganz besonders der Fall. Die erste Denkfalle im Bereich der Energie ist, um es kurz zu sagen, die völlig unanschauliche Definition der Physiker, dass die Energie immer gleich bleibt. Aber es ist entscheidend für den Energie-Transfer von Wärme in Wasser, wieviel Wärme-Menge pro Zeiteinheit umgewandelt und transferiert wird. Das noch viel schlimmere Grundproblem (der Energie) dahinter ist wiederum, dass für die allermeisten Physiker (bzw. ihre Formeln) die Zeit reversibel ist. Und wenn man Energie denkt, muss man dringend Thermodynamik denken, und das ist ziemlich schwierig. Und nur die Thermodynamiker arbeiten mit der Zeit als wesentliche irreversible Grösse.[10]Das alles macht das allgemeine Verständnis der Energie so schwierig. Denn für einen Kohle-Minen-Arbeiter ist es intuitiv sehr klar, dass wir mehr körperliche Energie (=Kraft) brauchen, um 10 kg Kohle in 1 Sec. zu heben, als wenn wir dafür eine Minute Zeit haben. Ein analog umgekehrtes Beispiel ist der Hebel und der Flaschenzug. Denn hier können wir die Kraft über mehr Zeit, bzw. über die Länge des Seils verteilen. Womit dann ein paar 100 bis 1000 Menschen (mit jeweils 0,1 PS-Kräften) auch einen 1000- Tonnen-Obelisken irgendwohin ziemlich weit vom Herstellungsort bringen können, und dann sehr präzise auch noch aufrichten. Wie sie das im alten Ägypten damals genau machten, weiss leider heute Niemand mehr. Insofern sind die Begriffe der Kraft und der Arbeit intuitiv besser zu verstehen als das esoterische und vollkommen irreale Konstrukt der Energie der Physiker. Es ist:

1) Die Kraft (in Form von Watt) ist das, was man braucht, um eine Arbeit zu verrichten,

2) die Arbeit braucht dann noch xyz* (Minuten, Stunden oder Tage-werke), der Kraft.

und am Ende der Arbeit steht:

3) das Werk (Ergon).

Die Moral von der Geschicht‘ ist: Lasse keine Politiker oder Parlamentarier über Energie-Technologie entscheiden, die nicht wenigstens einen Uni-Abschluss in Physik, Thermodynamik, oder Energie-Technik, sowie ein paar Jahre Praxis darin, haben. Deshalb: Rauschebart- Turnschuh- Linksgrün- Aktivisten mit viel „Dampf“ im Hirn sind da nicht zu gebrauchen.

Das Problem der Energiebilanz, der Energie-Dichte pro Masse und pro Zeit-Einheit

Die Energiebilanz von Kraft-Stoffen ist sehr unterschiedlich, angefangen mit dem Aufwand (= Kapital und Energie) für ihre Gewinnung aus der Erde oder aus dem Sonnenlicht und ihre Aufbereitung. Die Atom-Kern-Fission mit dem Brennstoff Uran hat die höchste potentielle Energiedichte (=Energie-Potential) pro Volumen und pro Gewicht. Allerdings hat es auch die höchsten Kosten, um die ausgebrannten Reste des fissilen Brenn-Materials irgendwo zu entsorgen, und zwar für ca. 100.000 Jahre.

Fossile Kraftstoffe wie Kohle,[11]Öl und Methan-Gas haben recht unterschiedliche Kosten für die Gewinnung[12]und eine geringere aber immer noch hohe Energiedichte pro Volumen und pro Gewicht. Bei den erneuerbaren Energien, also Wind und Sonne, verschlechtert sich die Energiebilanz durch die hohen anfänglichen Investitionskosten, durch den hohen Platzbedarf, und die hohen Schwankungen im Output, die wiederum extrem hohe Speicherkosten nach sich ziehen.

Einzig die Wasserkraft aus Stauwerken hat eine hohe Energiedichte und Speicherbarkeit, aber erhebliche ökologische und politische Folgekosten. Denn ein grosser Staudamm setzt erst einmal grosse, vorher meist besiedelte Flächen unter Wasser, und zerstört das Ökosystem der Fische, etwa im Fall der Lachse, die in ihrem Lebens-Zyklus meistens die Flüsse herauf- und herab- wandern wollen, aber an einem Staudamm nicht weiter kommen.[13]Weiterhin geraten durch das aufgestaute Wasser öfter einmal die Berghänge entlang der Speicherseen ins Rutschen.[14]Die Masse des aufgestauten Wassers kann Auslöser für Erdbeben sein. Politisch ist es problematisch, weil ein Staudamm stromaufwärts, die stromabwärts gelegenen Anrainer in Wasser-Probleme bringt. Siehe den Nil und die Ströme Asiens, wo das Problem besonders verschärft auftritt.

Die Herangehensweise der deutschen Bundesregierung, erst einmal nur die Erzeugung der erneuerbaren Energien zu fördern, ohne sich um die Speicherung und Verteilung derselben zu kümmern, war also, das Pferd von hinten aufzuzäumen, und hat zu ungeheuren (und besser vermeidbaren) Kosten für die Bevölkerung Deutschlands geführt. Es hatte auch niemand daran gedacht, dass die Chinesen die Technik so schnell kopieren konnten, so dass die Deutschen Industrien damit nicht mehr konkurrenzfähig, also weg vom Markt waren. Der Strompreis in Deutschland ist europaweit einer der höchsten.[15]Da es nur für bestimmte Gross-Industrien Strompreis-Rabatte gibt, leidet vor allem die deutsche mittelständische und Klein-Industrie darunter, und damit die gesamte Wirtschaftskraft Deutschlands. Wieso eine Bundeskanzlerin als Physikerin so etwas veranlasst hat, ist völlig unverständlich.[16]/[17]

Natürlich hat die Mainstream-Presse von diesen physikalischen Hintergründen wenig Ahnung, weil die meisten Journalies eher Schwach-Mathikersind.[18]Sie beten nur irgendetwas nach, was ihnen von den grün-wolkigen Interessen-Gruppen vorgebetet oder vorgeflötetet wird. Ungefähr so ist es auch bei den Links-Grünen Parteigenossen, von denen die meisten ziemlich wolkige (Cloud-) Vorstellungen von Energie haben. Eine nette nicht ganz ernst gemeinte Satire dazu gibt es in diesem Artikel.[19]Denn der kritische Faktor der Erneuerbaren Energien ist die Energie-Speicherung. Diese ist zwar mit vielen Technologien möglich, aber energetisch sehr teuer. Denn es vermindert entscheidend den Wirkungsgrad. Etwa wenn man Wasserstoff aus Wasser erzeugt.[20]Aufgrund der sehr hohen Verluste der Konversion, und natürlich der hohen Kapital-Kosten der Speicher- und Transport-Technologien muss das in der Energiebilanz negativ einberechnet werden.

Weiter ausser Acht gelassen in der Energie-Debatte sind die ökologischen Kosten der Erneuerbaren Energien. U.a. sind da seltene Elemente, wie Kobalt, seltene Erden wie Neodym für die Magneten der Windturbinen, die erstens knapp sind, und deren Gewinnung hohe Umweltkosten verursacht. Wer macht für alle diese Faktoren schon vernünftige Kalkulationen? Eine WWW-Seite, die das spezifisch thematisiert, ist eike-klima-energie. Dort stehen auch Artikel, die von Fachleuten geschrieben sind: [21]

https://eike.institute/

Ich füge hier auch noch ein paar Videos aus dem Youtube zu dem Themenbereich an.[22]

Die Desertec- Energie im Minus

Ein gutes Beispiel für unerwartete Folgekosten ist die Photovoltaik (PV) in den grossen Wüstengebieten, wo es viel Platz und Sonne zur meisten Zeit des Jahres gibt. Das war einmal eine Idee ähnlich wie bei Desertec,[23]/[24]die aber schnell untergegangen ist. Denn in der Wüste gibt es viel Sand, und Sandstürme (=Sandstrahlgerät mit 100 bis 300 km/h, der Beschleunigung des Sandes, in der Grössenordnung von Kilo- bis Megatonnen,[25]und das manchmal tagelang), und die lassen die schönen PV-Anlagen sehr schnell sehr alt aussehen. Vor allem aber ist es sehr staubig, so dass kein Sonnenlicht mehr auf die PV-Paneele durchkommt.[26]Dazu kommen natürlich auch die Terroristen, die man bei 10 bis 100 km**2 pro Anlage kaum davon abhalten könnte, dauernd hier und da ein paar Bomben reinzuschiessen. Die Stromleitungen, etwa von der Sahara nach Europa wären aufgrund der Leitungsverluste ebenfalls nicht rentabel. Käme vielleicht noch als denkbare Alternative etwa die Erzeugung von Wasserstoff, aber in der Wüste gibt es kein Wasser dafür. Dafür müsste man erst riesige Wasser-Entsalzungsanlagen bauen, und dann Pipelines zu den PV-Anlagen bauen. Und die Wasserstoff-Tanker, um das nach Europa zu verschiffen, sind auch nur ziemlich aufwendig zu realisieren.[27]Usw. usf. Das sind alles extreme Wirkungsgrad-Vernichter so dass man vielleicht 1-5 % der erzeugten PV-Energie zum Verbraucher schicken kann, bei ungeheuren Kapital-Investitionen. Die Sonne und der Wind geben uns ihre Energie ganz bestimmt nicht umsonst.[28]

Eine Milchmädchen-Rechnung von Energie, Kraft und Arbeit

Nehmen wir einmal ein sehr vereinfachtes alternatives Energie-Vorstellungs-System, bei dem wir nur eine ungefähre, also nicht so exakte Umrechnung von (Kilo-) Watt gegen Wärme in einem Liter Wasser machen. In der einfachsten Form haben wir die Übertragung von Wärme aus einer Energie-Quelle (=Brennstoff) in eine Energie-Senke (=Wasser): Eine Badewanne mit 100 L Wasser (=Energie-Senke), das man von 0 auf 100 Grad innerhalb von 10 Minuten = 600 Sekunden erhitzt. Das ist vielleicht für jeden Menschen allgemein verständlich, und kann theoretisch von einem (sehr grossen) Gas-Durchlauf-Boiler (=Energie-Quelle) erreicht werden.[29]Der Code dafür würde etwa lauten: L100G100/Sec600 oder L(iter)100 * G(rad)100, pro Sekunden 600. Da wir aber das Wasser nur portionenweise (im Durchlauf) erhitzen, wollen wir in diesem Falle 1 Liter in 6 Sec., auf 100 Grad erwärmen. Ein Ein-Liter Kochtopf mit ca. 1000 Watt hätte den Code L1G100/Sec600. Es ist anschaulich zu verstehen: Wenn der Kochtopf bei 1.000 Watt (=Kraft) für 1 Liter Wasser, dafür 600 Sekunden oder 10 Minuten (=10 Kilowatt-Minuten =Arbeit) braucht, dass die Gas-Therme für die Badewanne aber 100.000 Watt (=Kraft) braucht, um 100 Liter in derselben Zeit von 10 Min. zu erhitzen. Die Energiedichte pro Zeiteinheit (=Kraft) ist der schwierigste Faktor für das Verständnis, weil es umgekehrt proportional zur Zeit ist. Wenn wir nun 100 Liter Wasser auf 100 Grad, in 6 Sekunden erhitzen wollen, braucht man eine noch viel höhere Energiedichte (=Watt, bzw. Kraft). Das lässt sich etwa mit dem Code L100G100/Sec6 anschaulich machen. Auch wenn wir am Ende doch nur 100 Liter Wasser mit 100 Grad Wärmemenge haben. Für den Wärme-Transfer wäre das mit chemischer Energie nur mit einem Raketenmotor zu erreichen. Und wenn wir es noch weiter treiben wollen, dann wäre eine kleine Atombombe in der Lage, das auch für 1.000.000 Liter in 1/1000 Sec zu schaffen.[30]/[31]/[32]/[33]

Analog, aber komplizierter ist die Formel, um eine Wohnung von 100 m**2 und 3 m hoch (=300 m**3 =QM), von 0 auf 20 Grad zu bringen, wenn man das in einer Stunde aufheizen will. Der Code QM300G20/Sec3600 symbolisiert das, ist aber energetisch sehr viel schwieriger zu berechnen, weil die Wände ja auch erstmal kalt sind, und dann fliesst die Wärme ja durch alle Ritzen und Fenster wieder ab. Und die gespeicherte Energie in Form von Wasserdampfin der Luft ist die darin noch gar nicht berücksichtigte Calorische Komponente dieser Rechnung.[34]/[35]

Ebenso kann man die Einheit PS oder Pferdestärke anschaulich machen: L100CM100/Sec1. Das wären 100 Liter Wasser (=100 Kg), die man 100 Centimeter (=CM) in 1 Sekunde gegen die Erd-Schwerkraft hochheben möchte.[36]Das entspricht ca. 1,33 PS oder ca. 1000 Watt. Der Code M60*(L100CM100/Sec1) wäre also ungefähr eine Kilowattstunde.

Die Energie-Dichte pro Zeiteinheit (=Kraft) ist äquivalent zu der Beschleunigung. Um ein Auto von 1000 kg von 0 auf 100 km/h zu beschleunigen, braucht es mehr Beschleunigung innerhalb von 10 Sec, als wenn wir uns dafür 100 Sec nehmen. Was dann in den Automobil-Journalen an oberster Stelle steht. Paradox und schwer verständlich dabei ist nur, dass das Auto mit 1000 Kg bei 100 km/h dieselbe kinetische Energie hat, egal ob es dafür 10 Sec. oder 100 Sec. gebraucht hat. Wie kommt das zustande? Dass für dieselbe kinetische Energie, die im Endeffekt (nach dem Ende der Arbeit) noch verfügbar ist (=Kraft), doch ganz verschiedene Mengen Energie gebraucht werden, um das zu erzeugen, wenn wir das in 10 Sec. oder in 100 Sec. machen wollen?

Ein anderes und etwas weiter hergeholtes Beispiel für eine (nicht so) anschauliche Darstellung wäre die Auflösung von Zeno’s Paradox von Achilles und der Schildkröte. Das Paradox entsteht nämlich durch eine Verkettung von irrealen Annahmen, was in der Computerei als GIGO-Prinzip bekannt ist (Garbage in, Garbage out). Siehe:

http://www.noologie.de/zeno01.htm

Warum eine Tonne TNT weniger Energie hat als eine Tonne Kerosin

Eine Tonne (= 1000 Kg) TNT hat weniger thermische Energie als eine Tonne Kerosin (oder Diesel was hier praktisch äquivalent ist). Auch wenn der Knall-Effekt der Explosion von einer Tonne TNT erheblich grösser aussieht als bei Kerosin. Warum ist das so? Weil eine Tonne Kerosin für die Energie-Erzeugung dazu noch Sauerstoff (=Oxydans) braucht, und davon ziemlich viel. Das ist in etwa die Gleichung für die Raketen-Motoren im Volumen-Verhältnis ca. 1:1.3 bis 1:3 bei den Saturn-Raketen.[37]Leider gibt es in den meisten www-Quellen keine Angabe zum Gewicht, nur zum Volumen. Aber für 1000 Liter Kerosin brauchen wir ca. 1300 Liter LOX (Liquid) Oxygen in der Rakete, um das auch gut zu verbrennen. „LOX is denser than kerosene or liquid hydrogen“.[38]LOX hat etwa 1.14 g/ml. Kerosin hat ca. 0.82 g/ml.In einer Tonne TNT muss das Oxydans im Äquivalent von 1-4 Tonnen Oxygen in der Mischung schon chemisch eingebunden mit dabei sein, sonst geht das Feuerwerk gar nicht los. Und daher enthält TNT proportional weniger verwertbaren Brennstoff in Form von CH-xy Carbohydraten =Toluol.[39]Die Energiedichte der potentiellen Energie bei Brennstoffen, also hier im Falle Kerosin, ist ebenfalls variabel, und zwar sowohl nach Volumen, wie nach Gewicht, was sehr unterschiedlich sein kann. Liquid H2 (=Wasserstoff) hat zwar die grösste potentielle Energiedichte pro Gewicht, aber die geringste pro Volumen. Alle diese Faktoren sind sehr wichtig in der Raketentechnik, aber im Fall der Auto-Industrie ist das für Liquid H2 ein Kill-Faktor.[40]Wenn ein Explosiv-Stoff mechanisch aus 2 Komponenten Oxydiser:Brennstoff gemischt wird, ist es besser zu sehen, in welchem Verhältnis man Oxydiser und Kraftstoff mischen muss.[41]Als Beispiel nehmen wir den Energiemix von Ammonium-Perchlorat oder Ammonium-Nitrat mit Diesel, =ANFO, oder einem anderen Hydrocarbon. Dort ist das Verhältnis sogar 94 % Oxydans zu 6 % Brennstoff:

It consists of 94% porous prilled ammonium nitrate (NH4NO3) (AN), which acts as the oxidizing agent and absorbent for the fuel, and 6% number 2 fuel oil (FO). ANFO has found wide use in coal mining, quarrying, metal mining, and civil construction in applications where its low cost and ease of use may outweigh the benefits of other explosives, such as water resistance, oxygen balance, higher detonation velocity, or performance in small-diameter columns. ANFO is also widely used in avalanche hazard mitigation.

https://en.wikipedia.org/wiki/ANFO

https://en.wikipedia.org/wiki/ANFO#Malicious_use

https://en.wikipedia.org/wiki/Ammonium_perchlorate

Bei einer Batterie ist es ganz analog zu dem Beispiel von TNT. Denn auch in einer Batterie muss das energetische Äquivalent von O2 schon mit hinein gespeichert sein, und daher bekommen wir aus einer Tonne Batterie nie soviel Energie heraus, wie aus einer Tonne Kerosin.[42]

Wir fassen also zusammen: Für die Energie-Physiker ist nur der Calorische Energiewert des Brennstoffs relevant, wobei man ausser Acht lässt, dass es einen grossen Unterschied macht, ob das Verbrennen in 100 Minuten oder in 0,001 Sekunden stattfindet. Das eine grosse Denkbremse des physikalischen Energie-Denkens, die schwer zu überwinden ist. Und das überlassen die Theoretischen Physiker dann lieber den Ingenieuren, die schon wissen, wo die Unterschiede liegen, und wie man damit umgehen muss. Und das Alles eher trotz der Formeln der Theoretischen Physik. Es geht also um die Prozess-Geschwindigkeit, also Energie-Menge und Dichte pro Zeit-Einheit. Dies nennt man anderswo auch die Kraft. Aber das ist keine physically correcte Weise zu denken.

Und noch ein paar Un-Denk-Beispielevon Volumen, Gewicht, und Masse

Die allzu-vielen „Doku“-Videos von N24 (und noch viele weitere auf dem US-Ami-Youtube) geben uns ein noch paar gute Beispiele für Un-Denk-Methoden. So werden Volumen-Angaben immer in x* Olympic Swimming Pools gemacht, wobei keiner weiss, wieviel Volumen ein Olympic Swimming Pool eigentlich hat.[43]Oder noch besser: Diese Talsperre hat x Millionen bis Milliarden Liter Wasser. Den Begriff Kubik-Meter oder Kubik-Kilometer kennt dort niemand. Hier ist vor allem die Denkfalle enthalten, die für die Journalies meist zu schwierig ist: Die Masse wächst im Kubik zur linearen Ausdehnung. Höhen werden immer gerne mit x übereinander gestapelten US-School-Bussen dargestellt, wobei nur die US-Amis sich vorstellen können, wie lang ein US-School-Bus ist. Gewichte werden prinzipiell mit x mal SUV’s dargestellt, was für jeden US-Ami natürlich sofort einsichtig ist. Desweiteren redet man auch immer von x mal Football-Pitches, anstatt von x mal 100 Meter. Das wohl allerschlimmste Beispiel ist, dass kein Journalie eine Exponential-Funktion denken kann.[44]Der meiste Rest der Menschheit leider auch nicht. Etc. pp. Es gibt nur endlich viel Intelligenz im Universum, aber unendlich viele Arten, um etwas un-intelligent bzw. un-anschaulich darzustellen.

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

[1]… und am Deutschen Ingenieur-Wesen sollte nun endlich einmal die Welt genesen.

[2]https://www.zeit.de/2017/49/strom-abstellen-deutschland-betroffene

https://www.shz.de/deutschland-welt/wirtschaft/armut-in-deutschland-330-000-haushalten-wurde-der-strom-abgestellt-id16249901.html

[3]https://eike.institute/2014/12/01/abschied-von-der-versorgungssicherheit-deutschlands-stromversorgung-ist-nicht-mehr-zu-retten/

[4]https://www.journalistenwatch.com/2018/11/19/wenn-sonne-rechnung/

Zitat daraus:

Ich wage mal eine Prognose. Wenn wir nicht vorher einen katastrophalen Blackout hinlegen, dann landen wir in fünf Jahren bei einem Strompreis von 50 Cents pro Kilowattstunde. Dann sind wir nicht nur Strompreis-Europameister, dann sind wir endlich wieder Weltmeister. Nicht im Fußball, aber im Strompreis. Das gerne gebrachte Opfer wäre dann für eine deutsche Durchschnittsfamilie so um 4000 Euro pro Jahr. Das sind etwa 1300 Kugeln bestes Schokoeis von Berthillion, also mehr als 100 Kugeln im Monat. Nicht zu sprechen von den 4000 Kugeln Normaleis pro Jahr, das wären dann täglich 11 Kugeln – Bon Appetit.

[5]Hier liegt die erste Denkfalle: Die Kraft ist das, was nötig ist, um die Arbeit zu machen. Das Werk, also die getane Arbeit ist das Endprodukt. Und das weiss jeder Arbeiter in der Kohlemine, dass er am Morgen meistens mehr Kraft hat, als am Abend.

[6]https://en.wikipedia.org/wiki/Conservation_law

[7]https://de.wikipedia.org/wiki/Akt_und_Potenz

[8]Watt ihr Volt:

Wie ich es einmal in einem Vortrag gesagt habe: Wenn ein „Visiting Anthropologist“ vom fernen

Stern Marsupial der Grünen Männchen auf einer Irdischen (=terrestrischen) Physiker-Tagung

als Beobachter dabei wäre, würde er denken, dass man hier eine Heilige Messe zu Ehren der Schutzheiligen,

dem Hl. St. Newton, dem Hl. St. Joule,  dem Hl. St. Watt, dem Hl. St. Ampere, und dem Hl. St. Ohm, celebriert,

dazu mit ein paar Weihrauch- Ovationen für den Ober-Heiligen St. Einstein.

Ich würde mich sehr wundern, wenn nicht bald eine Physiker-Kongregation beschliesst,

eine Physikalische Einheit als „Einstein“ zu benennen. Mein Wunschkandidat dafür wäre:

Das Quantum Dunkle Materie, die 90% des Universums ausmacht, und die noch niemand

je gesehen oder gemessen hat. Das wäre der ewigen Ehre des Einsteins wohl angemessen.

[9]http://www.noologie.de/symbol09.htm

http://www.noologie.de/noo04.htm#Heading234

Diese Diskussion geht bis auf C.S. Peirce zurück.

[10]Was sie aber zu einer Paria-Gemeinde der Sieben Aufrechten des Fähnleins macht, die von allen anderen

gestandenen Physikern im Gefolge von Einstein abhorresziert werden

Siehe dazu: Dieter Straub und sein Buch: Das Glasperlenspiel.

https://www.unibw.de/thermodynamik/modulseiten/modulseite_mitarbeiter/ehemalige-mitarbeiter

https://trauer.sueddeutsche.de/traueranzeige/dieter-straub-1934

Hier ist eine ausführliche Widmung des Werks von Dieter Straub:

http://teutonika.de/?p=6614

https://www.springer.com/de/book/9783034861519

https://www.ekkehard-friebe.de/Waibel.html

https://www.ekkehard-friebe.de/start.html

https://d-nb.info/104384726X/34

[11]Die Förderung von Braunkohle in Deutschland hat 1794.9 km**2 belegt, die aber z.T wieder renaturiert wurden.

https://www.cleanenergywire.org/factsheets/germanys-three-lignite-mining-regions

https://www.worldenergy.org/data/resources/country/germany/coal/

Nach der Quelle werden 129 Millionen Tonnen pro Jahr in Deutschland abgebaut.

[12]Die Förderung von Öl-Sanden in Kanada ist die wohl kapital-intensivste und ökologisch katastrophalste

Energie-Technik weltweit. Das Fracking in den USA steht dem nicht sehr viel nach.

[13]Bestes Beispiel: Der Columbia-River Dam.

https://www.nwcouncil.org/reports/columbia-river-history/damsimpacts

https://www.nrdc.org/stories/columbia-snake-river-basin-salmon-are-losing-their-way

[14]Bestes Beispiel: Der Vayont-Staudamm in Nord-Italien.

https://en.wikipedia.org/wiki/Vajont_Dam

At 10:39 p.m., a massive landslide of about 260,000,000 cubic metres (340,000,000 cu yd) of forest, earth, and rock fell into the reservoir at up to 110 kilometres per hour (68 mph), completely filling the narrow reservoir behind the dam. The landslide was complete in just 45 seconds, much faster than predicted, and the resulting displacement of water caused 50,000,000 cubic metres (65,000,000 cu yd) of water to overtop the dam in a 250-metre (820 ft) high wave.

Das waren 0,05 Cubic Kilometer.

1 Cubic kilometer is equal to a volume with sides 1000 x 1000 x 1000 meters. 1 km**3 = 1,000,000,000 m3.

https://www.unitconverters.net/volume/cubic-meter-to-cubic-kilometer.htm

[15]https://www.journalistenwatch.com/2018/11/19/wenn-sonne-rechnung/

[16]Ausser eben, dass diese Bundeskanzlerin sich vielleicht damit positionieren wollte,

dass: „An dem Deutschen Ingenieur-Wesen soll irgendwann einmal die Welt genesen“.

Dafür bekommt sie aber sicher bald einen hohen Posten bei der UN.

[17]In der ehemaligen DDR war man in Thermodynamik weltweit Spitzenklasse.

Das war vor allem an der Hochschule Zittau. Die kümmerten sich um all die

Braunkohle- Industrien, von denen die DDR existenziell abhing. Die Frau Merkel hätte sich

damals wohl besser ein wenig öfter in Zittau umgetan. Energie hat mehr mit Thermodynamik

zu tun, als mit Quanten-Theorie.

http://de.plagipedi.wikia.com/wiki/Merkel,_Angela:_Untersuchung_des_Mechanismus_von_Zerfallsreaktionen_mit_einfachem_Bindungsbruch_und_Berechnung_ihrer_Geschwindigkeitskonstanten_auf_der_Grundlage_quantenchemischer_und_statistischer_Methoden_(Dissertation)

https://www.zeit.de/2005/29/B-Merkel

https://f-m.hszg.de/fakultaet/fachgruppe-energietechnik/technische-thermodynamik.html

https://f-m.hszg.de/personen/mitarbeiter/prof-dr-ing-bernd-haschke.html

http://www.thermodynamik-zittau.de/

[18]Im Lehrplan der Journalistenschulen kommt Energie-Technik nicht vor.

[19]https://www.achgut.com/artikel/danke_angela_und_annalena_und_e.on

Es wäre interessant, nachzurecherchieren, welche von den Grünen Klima- und Energie-Protagonisten

einen Doktor in Physik, Thermodynamik, oder Energie-Ingenieur haben.

[20]Bei Wasserstoff ist Speicherung nur im Flüssig-Zustand praktikabel, aber die Energiekosten, um

Flüssig- Wasserstoff herzustellen, sind enorm. Denn das, was man an Energie hereingesteckt hat,

um ihn zu verflüssigen, bekommt man nie wieder heraus. Das ist nur in der Raketen-Technik eine Option.

Eine ziemlich gute Diskussion der Energie-Effizienz der Wasserstoff-Energie ist hier:

https://www.youtube.com/watch?v=f7MzFfuNOtY

Das folgende ist eher journalistisch-euphemistisch, und verschweigt die Fragen der Effizienz:

https://www.youtube.com/watch?v=c2yraQkMsJs

Ein anderer euphemistischer Bericht von Arte erwähnt ebenfalls nirgendwo diese Kosten.

https://www.youtube.com/watch?v=–4J-KuBMTM

Aber wenigstens gibt es in 12:00 eine Alternative Speichermethode von mcphy.com.

Hier ist es Magnesium-H2- Schwamm (oder ist es Magnesium-Hydrat?).

Siehe dazu die Website von mcphy.com. Auch hier komnt man über euphemistische Darstellungen nicht hinaus.

https://mcphy.com/en/

[21]Horst-Joachim Lüdecke; Prof. Dr. rer.nat. Physiker:

https://eike.institute/?s=L%C3%BCdecke

https://eike.institute/2018/11/05/erneuerbar-sind-nur-illusionen-die-zukunftstechnologie-windkraft-steht-vor-unloesbaren-problemen-teil-1/

https://eike.institute/2018/11/06/erneuerbar-sind-nur-illusionen-die-zukunftstechnologie-windkraft-steht-vor-unloesbaren-problemen-teil-2/

https://eike.institute/2014/11/20/eike-8-ikek-praezises-klima-timing-ueber-die-letzten-2500-jahre-prof-dr-horst-joachim-luedecke/

https://eike.institute/2013/09/18/die-deutsche-physikalische-gesellschaft-dpg-rezensiert-die-buecher-kampf-um-strom-von-prof-claudia-kemfert-im-vergleich-mit-energie-und-klima-von-prof-horst-joa/

https://eike.institute/2011/10/13/anmerkungen-zu-herrn-prof-dr-luedeckes-charakterisierung-der-medien-und-der-politik/

https://eike.institute/2008/08/21/prof-luedecke-offener-brief-zu-vielen-beitraegen-im-ehemals-liberalen-handelsblatt/

https://eike.institute/2018/10/13/ist-afrika-klueger-als-deutschland/

https://eike.institute/2016/08/11/glueckliche-schwarze-im-schein-einer-solarlampe-als-neokolonialer-traum-2/

[22]Ein ganz guter US-Ami-Vortrag zur Klimageschichte über xyz-Millionen Jahre ist von

Dan Britt – Orbits and Ice Ages: The History of Climate.

Was an diesem Video bemerkenswert ist: Das perfekte Mixing des Vortragenden

mit all seinen Fotos und Charts, was Media-technisch ziemlich anspruchsvoll ist.

https://www.youtube.com/watch?v=Yze1YAz_LYM&t=118s

Ditto: Climate (Paleoclimate) and Archaeology/History

https://www.youtube.com/watch?v=JD-MSrgPdFQ

Auch ganz nett: A Funny Thing Happened on the Way to Global Warming

Steven F. Hayward, Pepperdine University

https://www.youtube.com/watch?v=RZlICdawHRA

Bei den Amis glaubt man öfter, dass man versehentlich in eine eine Dampf-Plauderei von Billy Graham

hereingeraten ist, der gerade dummerweise das falsche Buch zum Zitieren mitgenommen hat.

Und der alle 10 Sekunden extrem laut und hörbar „ahhh“ und „oohhh“ macht, als hätte er gerade einen Orgasmus.

Oder noch schlimmer, es ist fast so, wie wenn Otto Waalkes uns eine Nachhilfe-Stunde in Klimatologie gibt.

Richard Alley – 4.6 Billion Years of Earth’s Climate History: The Role of CO2

https://www.youtube.com/watch?v=ujkcTZZlikg

[23]Dort wollte man aber thermische Solaranlagen bauen, also Kollektoren, die die Hitze einfangen

und konzentrieren. Die Energie-Speicherung sollte entweder mit einem Öl,

(=wenig Dichte und sehr grosse Behälter) oder mit ultraheissen (=verflüssigten) Salzen

(=viel Energie-Dichte =höhere Temperaturen) geschehen.

Letztere ist technisch zwar interessant, aber ultraheisse Salze sind extrem korrosiv und entsprechend

schwer technisch zu handhaben. Z.B. wenn man ca. 1.000 km vom nächsten Techniker-Büro entfernt ist.

Und wehe (=lat. vae victis), wenn ein thermischer Salz-Speicher-Behälter

einmal kalt=fest wird. Dann geht gar nichts mehr, wenn das Salz sich auch noch

in allen Rohrleitungen verfestigt.

[24]https://www.ecomena.org/desertec/

https://www.nature.com/news/sahara-solar-plan-loses-its-shine-1.11684

https://www.nature.com/news/2009/090121/full/457362a.html

https://www.chinadialogue.net/article/show/single/en/7558-Desertec-s-plan-for-Saharan-sun-to-power-Europe-burns-out

[25]Nehmen wir einmal als Positiv-Beispiel die Un-Mengen von Sand, die von der Sahara

in alle Welt geweht werden, so dass in den Alpen an bestimmten Tagen der Schnee braun ist,

von Sahara-Sand, und das Amazonas-Becken soviel davon abbekommt, dass es davon seine

Fruchtbarkeit bezieht. Wenn es da keinen Sahara-Sand gäbe, wäre das Amazonas-Becken eine kahle Wüste.

Das sind Kilo-Tonnen und Mega-Tonnen von Sand.

[26]Und das Wasser, um die Paneele immer wieder abzuwaschen, ist ja auch knapp.

[27]Bei Flüssig-Methan ist das praktikabel, aber für Flüssig-Wasserstoff braucht es viel tiefere Temperaturen

= (–252.882 °C). Und bei der Energie pro Cubic Meter sieht das noch viel schlimmer aus,

weil H2 ein gewaltiges Volumen benötigt. Siehe:

https://en.wikipedia.org/wiki/Hydrogen_economy

https://en.wikipedia.org/wiki/Hydrogen_economy#Electrolysis_of_water

https://en.wikipedia.org/wiki/Hydrogen_economy#Liquid_hydrogen

[28]https://www.journalistenwatch.com/2018/11/19/wenn-sonne-rechnung/

[29]Realistisch wären eher 30 Minuten, aber hier ist die Einheit 10 leichter begreiflich.

Es wird bei diesem Milchmädchen- Beispiel auch unterschlagen,

dass das Wasser aus der Leitung schon ca. 10 Grad warm ist, und zum Baden wird es nur auf

  1. 40 Grad erhitzt. Die Temperatur-Differenz ist also nur 30 Grad.

Deshalb braucht Jedermann/Jedefrau auch keine 100.000 Watt für ein Bad in der Wanne.

[30]Dann gibt es noch ein paar Zahlenspielereien: 1.000.000 Liter werden in 1000 Kubikmeter umgerechnet.

Das klingt auf einmal viel handlicher. Es sind auch 1000 metrische Tonnen, also eine Kilotonne.

Es ist auch 0.4 Olympic Swimming Pool (der 2.500.000 Liter oder 2.500 Kubikmeter hat).

Die Hiroshima-Bombe hatte 10 – 15 Kilotonnen TNT-Äquivalent Sprengkraft.

https://en.wikipedia.org/wiki/Little_Boy

https://en.wikipedia.org/wiki/Nuclear_weapon_yield

Die minimale Sprengkraft einer Fissions-Bombe liegt wohl sogar herunter bis zu 10 – 20 Tonnen TNT Äquivalent.

http://dc.medill.northwestern.edu/blog/2018/02/09/exactly-low-yield-nuclear-weapon/#sthash.RFNoESzv.dpbs

https://www.quora.com/What-is-the-minimum-yield-of-a-nuclear-bomb-How-small-can-we-make-a-nuclear-explosion

[Minimum weight of a fission core] It depends upon the fissionable material, but roughly 11–30lbs. It’s possible to make a backpack weapon of about 50–70 pounds and it’s ‘rumoured’ that the Russians tried to make one or more of them. That would (I am guessing) result in an explosion on the scale of 10–20 Tons of TNT. Which is a lot but it’s not all that impressive. Usually we measure weapons by the kiloton (1000 tons). Furthermore there is a sort of maximum value of practical nuclear weapons, because they get very heavy. So for example, US W-80 cruise missile yields 150kt.

[31]Hier sieht man auch sehr schön den Irrtum, der in der Mainstream-Presse hundertfach wiederholt wird,

wenn die Journalies schreiben, dass ein Hurrican x mal soviel Energie hat wie eine H-Bombe.

Was die aber geflissentlich vergessen, bzw. sich gar nicht vorstellen können ist, dass das Eine etwa eine

Woche braucht, das Andere aber nur 1/1000 Sec. So entscheidend ist der Faktor der Energie-Dichte.

[32]Eine noch gewaltigere Energiemenge wäre der Einschlag eines Meteors, wie etwa der des Kraters

Chicxulub, vor ca. 66 Millionen Jahren. Ich führe das Beispiel deswegen an, weil Meteore meistens

nicht senkrecht zur Erde fallen, sondern meist tangential, und sie bestehen meistens aus mehr oder weniger lockerem

Gestein. Wenn sie tangential zur Erde fallen, verteilt sich ihre Anfangs-Energie ersteinmal durch eine

xyz-Kilometer Reise durch die Atmosphäre, wobei viele Meteore wegen der Hitze schon in Stücke zerfallen,

bevor sie auf die Erde bzw. ins Wasser fallen. Und bei der Reise durch die Atmosphäre, würde ein solcher Meteorit bei seinem Einsturz auch x-Millionen Quadratkilometer Waldlandschaft in ein Flammendes Inferno verwandeln.

Siehe das Tunguska Event.

https://en.wikipedia.org/wiki/Tunguska_event

Im Falle von Wasser würden die Bruchstücke ihre kinetische Energie hauptsächlich durch das Verdampfen des Wassers weiter verteilen. Daher ist das Thema wiederum die Energiedichte pro Zeiteinheit. Denn so verteilt sich

ihre gewaltige Energie auf diverse Minuten (bei ca. 10.000 km/h). Und nicht auf 0,xyz Sekunden.

Weiterhin wäre so ein Einsturz-Krater nicht kreisförmig, sondern ein sehr lang gezogenes Ellipsoid.

https://en.wikipedia.org/wiki/Chicxulub_crater

http://large.stanford.edu/courses/2015/ph240/xu2/

http://jgs.lyellcollection.org/content/162/4/591

[33]Als kleine Anekdote dazu: Der deutsche Sci-Fi Autor Hans Dominik hat in einem seiner Werke

das Wundermittel Dynotherm „erfunden“. Eine Prise davon, und man konnte damit ein ganzes Schwimmbad

= 2.500.000 Liter oder 2.500 Kubikmeter zum Kochen bringen. Das hätten wir heute auch gerne.

https://books.google.de/books?id=6XEPDAAAQBAJ&pg=PT1919&lpg=PT1919&dq=Dominik+Dynotherm&source=bl&ots=VpZkpAhylh&sig=RlLdizuFRy0b4PH1y2ONBTPHx8o&hl=de&sa=X&ved=2ahUKEwjdzbLb5b3eAhWOL1AKHYHuCysQ6AEwCHoECBsQAQ#v=onepage&q=Dominik%20Dynotherm&f=false

[34]Siehe dazu auch das Häuser-Dämm-Problem der Politik. Denn man hat hierbei die Rechnung ohne den Wirt

gemacht. Der Wirt ist hier der Wasserdampf, der in der Luft eine erhebliche Menge Energie speichert.

Wenn das Haus gegen den Luftaustausch abgedichtet ist, was es nie vollkommen sein kann, kondensiert sich der

Wasserdampf an den unmöglichsten Stellen, und das heisst: Schimmel und Verrottung des Mauerwerks.

[35]Siehe auch: Warum der Wasserdampf die Haupt-Energiequelle eines Hurricans ist.

[36]https://en.wikipedia.org/wiki/Horsepower

75 kg × 9.80665 m/s2 × 1 m / 1 s = 75 kgf·m/s = 1 PS. This is equivalent to 735.499 W,

analog

100 kg × 9.80665 m/s2 × 1 m / 1 s = 100 kgf·m/s = 1.33 PS. This is equivalent to 9782 W.

[37]https://history.nasa.gov/SP-4206/ch7.htm

A tank with over 730 000 liters (200 000 gallons) of RP-1

With a capacity of 1 204 000 liters (331 000 gallons), the LOX tank …

Liquid hydrogen was only one half as dense as kerosene.

[38]https://space.stackexchange.com/questions/10649/what-are-the-criteria-to-put-the-oxygen-tank-above-or-below-the-fuel-tank-for-a

https://en.wikipedia.org/wiki/RP-1

Soviet and Russian rocket-grade kerosenes are very similar to RP-1 and are designated T-1 and RG-1. Densities are higher, 0.82 to 0.85 g/ml, compared to RP-1 at 0.81 g/ml. …

chemically, a hydrocarbon propellant is less efficient than hydrogen fuel because hydrogen releases more energy per unit mass during combustion, enabling a higher exhaust velocity. This is, in part, a result of the high mass of carbon atoms relative to hydrogen atoms.

http://www.braeunig.us/space/propel.htm

„liquid hydrogen has a very low density (0.071 g/ml)“

Liquid hydrogen therefore, requires a storage volume many times greater than other fuels. Despite these drawbacks, the high efficiency of liquid oxygen/liquid hydrogen makes these problems worth coping with when reaction time and storability are not too critical. Liquid hydrogen delivers a specific impulse about 30%-40% higher than most other rocket fuels.

http://www.braeunig.us/space/propel.htm#tables

[39]https://en.wikipedia.org/wiki/Toluene

TNT hat die User-freundliche Eigenschaft, wenn man es an freier Luft mit einer Kerze anzündet, dass es einfach verbrennt, aber nicht explodiert.

[40]Siehe hier noch einmal: https://www.youtube.com/watch?v=f7MzFfuNOtY

Noch genauer ist es bei:

https://en.wikipedia.org/wiki/Hydrogen_economy

https://en.wikipedia.org/wiki/Hydrogen_economy#Liquid_hydrogen

Alternatively, higher volumetric energy density liquid hydrogen or slush hydrogen may be used. However, liquid hydrogen is cryogenic and boils at 20.268 K (–252.882 °C or –423.188 °F). Cryogenic storage cuts weight but requires large liquification energies. The liquefaction process, involving pressurizing and cooling steps, is energy intensive.[62] The liquefied hydrogen has lower energy density by volume than gasoline by approximately a factor of four, because of the low density of liquid hydrogen — there is actually more hydrogen in a liter of gasoline (116 grams) than there is in a liter of pure liquid hydrogen (71 grams). Liquid hydrogen storage tanks must also be well insulated to minimize boil off.

Aus Zitat [62]:

The situation is much worse than this, however, because before the hydrogen can be transported anywhere, it needs to be either compressed or liquefied. To liquefy it, it must be refrigerated down to a temperature of -253°C (20 degrees above absolute zero). At these temperatures, fundamental laws of thermodynamics make refrigerators extremely inefficient. As a result, about 40 percent of the energy in the hydrogen must be spent to liquefy it. This reduces the actual net energy content of our product fuel to 792 kcal. In addition, because it is a cryogenic liquid, still more energy could be expected to be lost as the hydrogen boils away as it is warmed by heat leaking in from the outside environment during transport and storage.

[41]Man muss bei den www-Quellen darauf achten, ob nun Volumen oder Gewicht im Verhältnis angegeben wird. Nehmen wir der Einfachheit halber an, dass man technisch meistens mit Gewicht arbeitet, weil das leichter abzumessen ist, als Volumen.

[42]Und das ganz kleine, und leicht zu übersehende Problem ist: Je effizienter eine Batterie ist, desto mehr verhält sie sich im Falle eines Unfalls eher in Richtung TNT. D.h. sie setzt im ungünstigsten Falle alle ihre gespeicherte Energie auf einmal um. Wenn Tesla also seine Batterien um eine Grössenordnung besser (=energiedichter) macht, dann brennt ein Auto nicht einfach, sondern es explodiert. Und zwar bei irgendeinem Unfall, wenn die Batterie falsch zusammen gequetscht oder durchbohrt wird. Auch jetzt schon ist das ein grösseres Problem für die Feuerwehr, vor allem aber dann, wenn xyz Millionen Elektro-Autos auf den Strassen herumfahren. Da das Wasser zum Löschen auch ein guter Strom-Leiter ist, ist es ziemlich gefährlich für den Feuerwehr-Mann, ein brennendes Elektro-Auto mit Wasser abzuspritzen.

Siehe auch:

https://www.welt.de/wirtschaft/article184056942/Wer-auf-das-guenstige-Batterieauto-hofft-muss-noch-lange-warten.html

[43]Natürlich weiss Google das alles besser: Es sind 2.500.000 Liter oder 2.500 m**3.

http://www.patagoniaalliance.org/wp-content/uploads/2014/08/How-much-water-does-an-Olympic-sized-swimming-pool-hold.pdf

[44]https://patriceayme.wordpress.com/?s=exponential

https://patriceayme.wordpress.com/2018/04/23/super-earths-or-how-the-exponential-function-can-matter/

https://en.wikipedia.org/wiki/Exponential_function

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 




Kernkraft und Arbeit

Wo sind die Arbeitsplätze?

Weltweit gibt es verschiedenste Studien zu dieser Fragestellung. Die Beantwortung ist nicht ganz einfach. Irgendwie muß man in komplexen und zudem noch international verknüpften Volkswirtschaft, die unzähligen Arbeitsverhältnisse aufdröseln. Um eine Systematik in die Angelegenheit zu bringen, unterscheidet man grundsätzlich drei Bereiche:

  • Direkte Arbeitsplätze sind noch am leichtesten zu erfassen. Das sind die unmittelbar in einem Kernkraftwerk tätigen Menschen oder die auf der Baustelle beim Neubau oder Abriss arbeiten. Analoges gilt für die Herstellung von Brennelementen oder die Lagerung und Behandlung von Abfällen.
  • Indirekte Arbeitsplätze. Hier wird die Sache schon komplizierter und undurchsichtiger: Beim Bau eines Kernkraftwerkes werden z. B. große Mengen Zement und Betonstahl benötigt. Dies sind handelsübliche Produkte. Die Hersteller arbeiten deshalb nicht nur für Kernkraftwerke. In der Praxis ist es damit gar nicht so einfach, die für ein bestimmtes Objekt notwendigen indirekten oder zugelieferten Arbeitsstunden zu ermitteln.
  • Induzierte Arbeitsplätze. Das sind die Arbeitsplätze, die ganz besonders die Gemeinden am Standort einer kerntechnischen Anlage interessieren. Die Menschen, die in einem Kernkraftwerk arbeiten, geben einen großen Teil ihres Einkommens auch vor Ort aus: Sie kaufen in den lokalen Geschäften ein, bauen sich ein Häuschen oder wohnen im Hotel, wenn sie als Monteure im Kraftwerk (zeitweise) beschäftigt sind. Diese „Kaufkraft“ schafft zusätzliche Arbeitsplätze, die nur über Statistiken umzurechnen sind — ein breites Betätigungsfeld für Volkswirtschaftler.

All diese Arbeitsplätze fallen lokal, regional, national und international an. Wo sie anfallen, hängt vor allem vom Entwicklungsstand einer Volkswirtschaft ab. In Deutschland konnte man einst alles von der letzten Schraube bis zur kompletten Dampfturbine „zu Hause“ kaufen. In Rußland oder China ist das durchaus heute noch nicht der Fall. Viele Komponenten müssen noch im Ausland zugekauft oder zumindest gegen Lizenzgebühren „nachgebaut“ werden. Dies gilt natürlich auch in umgekehrter Richtung: Baut man keine Kernkraftwerke mehr, muß man sich nicht wundern, warum beispielsweise der eigene Turbinenbau verschwindet. Diese Tatsache haben viele Gewerkschaftsfunktionäre und Kombinatsleiter in Deutschland offensichtlich völlig unterschätzt.

Man kann all diese Zusammenhänge in herrliche Computermodelle stecken und tolle Bilder — für welchen Zweck auch immer — damit erzeugen. Wie so oft im Leben, hilft einem aber eine einfache qualitative Überlegung weiter: Die Kosten des einen — und Kernkraftwerke sind bekanntlich richtig teuer — sind immer auch der Umsatz der anderen. Dies ist ein maßgeblicher Grund, warum z. B. Großbritannien massiv neue Kernkraftwerke bauen will. Wohlstand fällt nicht vom Himmel. Auch die schicke Bibliothek, das Schwimmbad und letztendlich sogar der „Biobäcker“ müssen erstmal finanziert werden. Wie man sieht, sind schon viele „Dörfler“ weiter und sehen ein Kernkraftwerk deshalb nicht (mehr) als Bedrohung, sondern als Chance zur Entwicklung.

Das Zeitdauer-Problem

Bei Kernkraftwerken unterscheidet man vier Lebensphasen: Bau, Betrieb, Rückbau und Endlagerung. Die Bauzeit wird international in die zwei Phasen „Baustellenvorbereitung“ und „Errichtung“ (ab dem ersten Beton für die Grundplatte bis zur Übergabe) mit jeweils fünf Jahren angesetzt. Die Betriebszeit mit 50 Jahren. Der Rückbau ebenfalls in zwei Phasen von je fünf Jahren (nuklearer Teil und konventioneller Abriß). Für die Endlagerung 40 Jahre (Zwischenlagerung, Verpackung und sicherer Einschluß der Abfälle). Dies sind Mittelwerte, die sich aus der bisherigen weltweiten Erfahrung gebildet haben. Im Einzelfall können sich erhebliche Abweichungen ergeben. Zukünftig sind Veränderungen angesagt: So wird bei der Betriebsdauer für neue Kraftwerke bereits von 60 bis 80 Jahren ausgegangen. Entsprechend würden sich die Zahlen für die Beschäftigten verschieben.

Der Praktiker liebt Kennzahlen, mit deren Hilfe er grobe Überschlagsrechnungen ausführen kann. Dies wird — im Zeitalter der Computermodelle — (zumindest) für Plausibilitätskontrollen immer wichtiger. So wird z. B. im „Kleingedruckten“ für die direkte Beschäftigung eine Fehlerbandbreite von ± 10%, bei der indirekten Beschäftigung von ± 20% und bei der induzierten Beschäftigung von ± 30% angegeben. Ganz schlimm wird es, wenn Politiker Vergleichsstudien für unterschiedliche Energiesysteme in Auftrag geben. Solche „Vergleichsabschätzungen“ weisen aus Erfahrung Abweichungen von ± 50% auf.

Diese Bandbreiten sind nicht verwunderlich. Beruhen doch alle Daten auf Statistiken aus der Vergangenheit. Neben Fehlern bei der Datenerfassung ergeben sich immer Veränderungen aus technologischen Gründen über so lange Zeiträume (10+50+10+40=110 Jahre). Ganz besonders mit Vorsicht zu genießen, sind die Daten zu den induzierten Arbeitsplätzen. Hier erfolgt die Verknüpfung mit den direkten und indirekten Arbeitsplätzen über das Einkommen bzw. die Preise. Wer aber wieviel, für was, in einer Gesellschaft ausgibt, ist äußerst variabel. Bei so langen Betrachtungszeiträumen sind sogar Systembrüche (z. B. DDR in BRD) nicht auszuschließen.

Ein paar Anhaltswerte

Die USA betreiben über 100 Reaktoren, haben bereits mehrere abgerissen und verfügen vor allen Dingen über einen kompletten Brennstoffkreislauf, vom Uranbergwerk bis zur Endlagerung. Sie verfügen damit über ausreichend Daten. Allerdings ist dabei der Zeitraum von mehreren Jahrzehnten (Technologiesprünge, Inflationsraten usw.) zu beachten. Um die Werte für Überschlagsrechnungen besser handhabbar zu machen, wurden sie als Mannjahre pro 1000 MWel (MJ) normiert. Mannjahre ist dabei ein in der Industrie geläufiger Begriff: Es werden eigentlich die angefallenen Arbeitsstunden registriert und anschließend durch die zulässigen Jahresarbeitszeiten (Feiertage, Urlaub etc.) geteilt. Auf die Bauzeit entfallen 12 000 MJ, auf den Betrieb 30 000 MJ, auf den Rückbau 5000 MJ und auf die „Endlagerung“ 3000 MJ. In der Summe also 50 000 MJ an direkt angestellten Arbeitskräften. Hinzu kommen noch einmal die gleiche Anzahl in der Zulieferindustrie. Insgesamt sind damit 100 000 Mannjahre pro GWel über den Lebenszyklus eines Kernkraftwerks in den USA nötig. Diese induzieren noch weitere Arbeitsplätze, sodaß die Statistiker auf über 400 Millionen Arbeitsstunden für jeden Reaktor (mit 1000 MWel ) in der Volkswirtschaft kommen.

Statistische Auswertungen in Korea und Frankreich kommen zu ähnlichen Ergebnissen. So sind für den Bau von Reaktoren der II. Generation in Frankreich 26 600 MJ, in Korea 28 300 MJ und in den USA 24 473 Mannjahre auf den Baustellen und in der Zulieferindustrie pro installiertem GWelangefallen. Wen wundert es da, daß in Frankreich und den USA kaum jemand auf den „Industriezweig Kerntechnik“ verzichten mag? Ganz im Gegenteil: Man will in beiden Ländern neue Kernkraftwerke bauen.

Noch ein weiterer Gesichtspunkt mag verdeutlichen, warum in immer mehr Gemeinden in den USA inzwischen Bürgerinitiativen für den Weiterbetrieb „ihres“ Kernkraftwerks kämpfen: Im Jahr 2013 arbeiteten 62 170 Angestellte in den 104 Kernkraftwerken in den USA. Das macht im Mittel 598 Beschäftigte pro Kraftwerk (Bandbreite zwischen 400 bis 700) mit einem Durchschnittseinkommen von 95 000 US$ pro Jahr (von der Küchenfee bis über den Direktor gemittelt). Neben den Steuerausfällen reißt der Kaufkraftverlust eine Gemeinde nach der Abschaltung schnell in den wirtschaftlichen Abgrund.

Wenn man schon mal mit Zahlenspielereien beschäftigt ist, kann man auch ruhig mal die Betrachtungen andersherum anstellen: Ein Leichtwasserreaktor benötigt etwa 185 to Natururan jährlich (pro 1000 MWel ) für seine Stromerzeugung. Wenn man die Weltdaten (384 GW und 65 000 Minenarbeiter) nimmt, ergibt das etwa 170 Angestellte im Uranbergbau und weitere 100 Angestellte in der Brennstoffherstellung (Konversion, Anreicherung und Brennelementfertigung). Jedenfalls unter 300 Angestellte für die gesamte Brennstoffversorgung. Man vergleiche diese Produktivität mal mit der Förderung und dem Transport von Steinkohle für den Betrieb eines gleich großen Kohlekraftwerks. Auch hier wieder eine Antwort, warum China, Indien — und selbst die USA — gar nicht auf Kohlekraftwerke verzichten können. Geschehe die Umstellung etwa innerhalb nur eines Jahrzehntes, wären die sozialen Verwerfungen unvorstellbar.

Oder noch einmal die Zahlen von weiter oben andersherum: Für die Erzeugung von 4000 KWh elektrischer Energie in einem Kernkraftwerk — die auch noch jederzeit auf Wunsch verfügbar sind — benötigt man nur etwa eine Arbeitsstunde über den gesamten Lebenszyklus gerechnet. Auch dies eine Antwort, warum die Energiewende nur ein Hirngespinst sein kann.

Schlusswort

Wer bisher immer noch glaubt, die „Anti-Atom-Bewegung“ besteht aus verhuschten Theaterwissenschaftlerinnen, die ganz, ganz viel Angst vor Strahlung haben oder sonstigen Menschen, die sich echt dolle Sorgen um die Welt und die Wale machen, ist ein Narr. Überwiegend handelt es sich bei den Verantwortlichen in den einschlägigen Parteien um marxistisch geschulte Kader, die sich ganz bewußt die Kernenergie als Angriffsobjekt auf diese Gesellschaftsordnung ausgesucht haben. Erst Ausstieg aus der Kernenergie, dann Ausstieg aus der Kohle und parallel Angriff auf die Autoindustrie. Verbündet mit Schlangenölverkäufern, die sich auf Kosten von Kleinrentnern und Kleinverdienern .(ständig steigende Stromrechnungen und gesperrte Anschlüsse!) gierig die Taschen füllen. Getreu dem Grundsatz aller Sozialisten: Erst mal die Probleme schaffen, die man anschließend vorgibt zu lösen. Von Venezuela lernen, heißt Untergang lernen. Dunkle Aussichten für Michel, es sei denn, er kriegt doch noch die Kurve an der Wahlurne.

Der Beitrag erschien zuerst auf dem Blog des Autors hier.




Strom bitte nur aus der Region auf meinen Tisch

Bei dieser Konsequenz ist es naheliegend, dass man das auch vom Stromlieferanten erwartet.

Das Umweltbundesamt ließ nachfragen

Das Umweltbundesamt ließ durch die von einer externen Firma durchgeführte Befragung einiger Bürger ermitteln, wie das Volk über die glorreiche Energiewende denkt und ob die ständige Propaganda beim Volk ausreichend Wirkung zeigt [1].

Wie inzwischen üblich, werden in solchen „Studien“ keine Verfahrensdetails, tiefer reichende Daten oder gar die Fragen selbst gelistet. Man muss also das glauben, was ein Dienstleister für Steuergelder im politischen Auftrag aus irgendwelchen Befragungsdaten für seinen öffentlichen, politischen Auftraggeber durchgeführt und dann „herausgelesen“ hat.

Die Meisten wissen zwar nicht, um was es geht, aber GRÜN wäre nicht schlecht, wenn es nicht mehr kostet

Befragungsstudie: [1] … Der Mehrheit der deutschen Bevölkerung ist die Stromkennzeichnung nicht bekannt … Kernerkenntnisse sind, dass die Stromkennzeichnung bei dem Großteil der Deutschen nicht bekannt ist … Als Wechselbarrieren hin zu Ökostrom werden vor allem zu hohe Preise und zu wenig Informationen benannt.

Nur 6 % haben scheinbar wirkliche Ahnung, aber für 70 % ist die Energiewende wichtig

Befragungsstudie: [1]
Kenner haben die Stromkennzeichnung beim Produktvergleich genutzt. Dies sind lediglich 6 % der Gesamtbevölkerung.
Einer deutlichen Mehrheit von knapp 70 % der Deutschen ist eine gelingende Energiewende in Deutschland wichtig.

Gerade einmal 20 % beziehen Ökostrom und 25 % interessieren sich dafür

Befragungsstudie: [1] … Insgesamt geben 20 % der Befragten an, dass sie aktuell ein Ökostromprodukt beziehen.
… Deutliches Potenzial für vermehrten Ökostrombezug: Jeder vierte Deutsche interessiert sich für ein entsprechendes Produkt ….

Doch die Hälfte der „Interessierten“ haben sich noch gar nicht darüber informiert

Befragungsstudie: [1] … Prinzipielles Interesse an Ökostrom für den eigenen Haushalt bekunden insgesamt 25 %, wobei über die Hälfte der „Interessierten“ noch keine Ökostromkunden sind und sich bisher auch nicht darüber informiert haben

Aber 40 % sehen im Kauf von Ökostrom einen wichtigen Energiewende-Beitrag

Befragungsstudie: [1] … Überraschend hoch ist mit 40 % der Anteil von Verbrauchern, die den Kauf von Ökostrom als eigenen wichtigen Beitrag zur Energiewende wahrnehmen.

Zwar kaum Interesse und fast keine Ahnung, doch eine feste Überzeugung: Kein Atomstrom und kein Kohlestrom

Befragungsstudie: [1] … Wichtigste Anforderung an Ökostrom ist dabei aus Sicht der Verbraucher, dass dieser nicht in Atom- oder Kohlekraftwerken erzeugt wird.
Gefragt nach den wichtigsten Anforderungen an Ökostrom zeigt sich, dass den Verbraucherinnen und Verbrauchern der Ausschluss von Atomstrom (64 %) und Kohlestrom (58 %) am wichtigsten ist.

Und dann den Strom bitte nur regional erzeugt

Befragungsstudie: [1] … Aber auch der Anspruch an regionale Stromangebote ist ein deutliches Kriterium: Für mehr als die Hälfte der Deutschen ist es sehr oder eher wichtig, dass der Strom aus Deutschland kommt – 47 % fordern hier sogar eine Stromerzeugung in der umliegenden Region.
Welch ein Glück, dass die Befrager nicht nachhakten, ob die Probanden wissen, wie das konkret gelöst werden soll, oder ob sie wissen, was dieser Wunsch kostet und ob sie es dann auch bezahlen würden.

Allerdings wird dieser Wunsch von regionalen Versorgern gerne aufgenommen und umgesetzt, denn er erzeugt lokale Abhängigkeit und erschwert den Anbieterwechsel.
Und wie sieht diese „lokale Erzeugung“ in Wirklichkeit aus:
Nordbayerische Nachrichten 06.11.2018: Volle Kraft für dezentrale Energieversorgung
Modernes Heizkraftwerk in Nürnberg steht für den Trend, nahe am Verbraucher zu produzieren … Die Zukunft der regionalen Energieversorgung ist denzentral: Nicht mehr alleine Großanlagen versorgen … sondern immer häufiger denzentrale Einheiten. Diesem Weg folgt konsequent auch die N-Ergie….

Was macht der Versorger: Er baut Gaskraftwerke – die teuerste Art, Strom zu erzeugen. Dabei kommt der Strom zwar aus einem lokalen Generator, das Gas aber von weit, weit her. Zudem ist es wie Kohle und Erdöl ebenfalls nicht erneuerbar. Macht aber nichts. Erdgas ist eben nicht braun wie Braunkohle. Der Fachmann erkennt den Grund jedoch sofort: Die Grundlasterzeugung fehlt inzwischen und muss teuer neu aufgebaut werden, auch braucht man wegen der Volatilität schnelle Regelleistung:
Artikel: Paasch (Vorstandsmitglied) benennt noch einen weiteren Vorteil dezentraler Anlagen … Die Leistung kann in Sekundenschnelle angepasst werden ...
Was ist aber, wenn dann niemand die Wärme – welchen alleine den rechnerisch hohen Wirkungsgrad bedingt – benötigt?

Anstatt diesen Unsinn eines dritten, teuren und neu aufzubauenden Stromerzeugungssystems zu hinterfragen, ist die Redaktion des Lobes voll:
-Biomasse und Wasserkraft würden lokal ausgebaut (gerade hat der WWF beanstandet, dass die vielen Wasserkraftwerke die Biologie der Flüsse zerstört. Und ein weiterer Ausbau von Biogas ist längst ein Zankapfel für die Umweltschützer)
-Es mache Stromtrassen überflüssig (was macht der Norden dann mit seinem immer höher werdenden Windstromaufkommen?)
-sagenhafte Wirkungsgrade werden suggeriert. Es handelt sich um ein Heizkraftwerk: Mit einem Wirkungsgrad von etwa 90 Prozent Wärme und Strom ...
Dass dieser Wirkungsgrad ein rein rechnerischer Spitzenwert ist, welcher im Sommer, wenn fast niemand die Wärme benötigt, in den Keller geht, merkt der Redakteur nicht. Und auch nicht überall lohnen sich Heizkraftwerke.
-Und es rettet unglaublich viel am Klima. Bedeutungsvoll wird mitgeteilt: Durch moderne Technik würden jährlich rund 13.500 Tonnen CO2 eingespart.
Beim Kampf gegen das sich ständig ändernde Klima ist jedenfalls kein Unsinn zu teuer.

Im Artikel wird zwar erwähnt, dass der Versorger auch deutschlandweit Photovoltaik- und Windparks aufbaut – sich, wenn Geld ruft, sofort von der hochgelobten, lokalen Versorgung sofort verabschiedet – , fragt aber nicht, wie dieser Strom dann ohne Trassen dorthin transportiert werden soll, wo er wirklich gebraucht wird. Wenn es ein Vorstand sagt, wird ja alles Erzählte stimmen …

Was hat die Befragung ermittelt?

6 % der Gesamtbevölkerung bezeichnet man als Kenner“, denn sie lesen die Stromkennzeichnung …
Nur diese 6 % informieren sich angeblich wirklich, welchen Strommix sie beziehen.
20 % der Befragten beziehen ein Ökostromprodukt …
meinen also zumindest, dass sie wohl „guten“ Strom beziehen, wobei 14 % davon es allerdings nicht nachgeprüft haben.
… Weiterhin sieht ein beachtlicher Teil der Bevölkerung die Möglichkeit, durch den Bezug von Ökostrom einen eigenen konkreten Beitrag zum Gelingen der Energiewende zu leisten …
wobei den eigenen Beitrag dazu allerdings nur 11 % als „sehr hoch“ einschätzen. 29 % meinen dazu, ihrer sei „eher hoch“.
Die Studie summiert diese zwei Gruppen auf 40 % „beachtlichen Bevölkerungsanteil“ zusammen, obwohl nur 20 % Ökostrom wirklich beziehen.

Trotz dieses niedrigen Bevölkerungsanteils an „Wissenden“ und an wirklichen Ökostrombeziehern konnte die Befragung ermitteln, dass für knapp 70 % eine gelingende Energiewende in Deutschland wichtig ist; es für 35 %, sogar sehr wichtig sei, dass in Deutschland die Energiewende gelingt und CO₂-neutrale Stromversorgung sicherstellt.

Allerdings ist dieses Ergebnis vollkommen unwichtig. Die lokalen Versorger machen sowieso, was sie (und die in den Vorständen sitzenden Politiker) wollen. Sie liefern einfach ungefragt „Ökostrom“. Der Versorger des Autors macht das ungefragt und kann diesen Ökostrom wie er versichert, „ohne Mehrkosten“ aus norwegischer Wasserkraft beziehen. Komischer Weise wird auch sein Strom immer teurer.

Im Kern bestätigt die Studie, was auf EIKE längst bekannt ist: Die Meisten haben keine Ahnung, aber die ideologisch geforderte Überzeugung

Das Umweltbundesamt kann mit dem Ergebnis zufrieden sein. Zwar ist das Ergebnis der Studie eher chaotisch und nicht konsistent, was auf eklatante, methodische Mängel schließen lässt.
Die wichtigste Frage ist aber positiv beantwortet: Selbst die keine Ahnung haben, „haben“ zumindest die richtige, politikkonforme Überzeugung. Die jahrelange Indoktrinierung trägt demnach ausreichend Früchte.

Das gilt natürlich nicht nur für das gemeine Volk, sondern auch für die „Intelligenz“:
EIKE: Herr Hofreiter ist sich sicher, dass es keine Dunkelflauten geben kann. Doch das Wetter führt vor, dass es solche regelmäßig auch über ganz Europa erzeugt
Am Wochenende vom 3. November wurde Italien von schlimmen Unwettern heimgesucht. Das passiert in Italien im Herbst regelmäßig. Herr Reinhold Messner wusste dazu (in einem Artikel der Lokalzeitung des Autors) aber zu sagen, dass die Heftigkeit diesmal am zu zaghaften Kampf gegen den Klimawandel lag.

Strom ist wie Gott und Globuli

Zur Abrundung lohnt es sich, die folgenden Artikel zu lesen:
Achgut 04.11.2018: [3] Danke, Angela! Und Annalena! Und E.ON!
EIKE 6. November 2018: Erneuerbar sind nur Illusionen Die „Zukunftstechnologie“ Windkraft steht vor unlösbaren Problemen Teil 2
EIKE: Herr Hofreiter ist sich sicher, dass es keine Dunkelflauten geben kann. Doch das Wetter führt vor, dass es solche regelmäßig auch über ganz Europa erzeugt

ScienceSkepticalBlog 8. November 2018: Annalena Baerbock und die Dunkelflaute. Das Stromnetz fungiert als Speicher, das ist alles ausgerechnet!
Annalena Baerbock: Und natürlich gibt es Schwankungen. Das ist vollkommen klar. An Tagen wie diesen, wo es grau ist, da haben wir natürlich viel weniger erneuerbare Energien. Deswegen haben wir Speicher. Deswegen fungiert das Netz als Speicher. Und das ist alles ausgerechnet. Ich habe irgendwie keine wirkliche Lust, mir gerade mit den politischen Akteuren, die das besser wissen, zu sagen, das kann nicht funktionieren.
Blogkommentar dazu: Man muss doch den Strom nur lange genug in den Netzen im Kreis flitzen lassen, bis er gebraucht wird… Bei Grünen nennt man das dann vermutlich Drehstrom.

Man erkennt vor allem: Die GRÜNEN sind sorgfältig. Sie lassen alle ihre Aussagen vorher prüfen. Komisch nur, dass sie trotzdem so häufig vollkommen falsch sind.

Quellen

[1] Umweltbundesamt, Befragung: CLIMATE CHANGE 10/2018 Verbrauchersicht auf Ökostrom Ergebnisse einer repräsentativen Verbraucherbefragung im Rahmen des Forschungsvorhabens „Marktanalyse Ökostrom und Herkunftsnachweise“

[2] EIKE: Herr Hofreiter ist sich sicher, dass es keine Dunkelflauten geben kann. Doch das Wetter führt vor, dass es solche regelmäßig auch über ganz Europa erzeugt

[3] Achgut 04.11.2018: Danke, Angela! Und Annalena! Und E.ON!




Danke, Angela! Und Annalena! Und E.ON!

Wenden wir uns zunächst der Annalena zu. Sie hat einen Bachelor in Politikwissenschaft und öffentlichem Recht, obendrauf einen Master in Public International Law von der London School of Economics. Das ist nicht der Oberhammer, objektiv gesehen, aber ganz bestimmt nicht wenig in einer Partei, deren Führungskräfte gerne durch Absenz jeglichen Abschlusses auffallen. Die Annalena ist also nicht umsonst Grünen-Vorsitzende, zusammen mit Robert Habeck, der ebenfalls einen akademischen Titel hat. Der Robert ist sogar ein Doktor, nur leider ein nutzloser. Als Philosoph hat er naturgemäß zehn linke Daumen. So wurde die Annalena quasi automatisch zur obersten Klimaexpertin ihrer Partei.

Als solche hat sie sich im Januar 2018 wegweisend zum größten und alles entscheidenden Problem neuer deutscher Energiepolitik geäußert. Wir reden von der Stromspeicherung. Dazu muss man wissen, dass nur böse Energie (alles, was irgendwie brennt, zum Beispiel Kohle und Uran) zuverlässig ist. Gute Energie (alles, was nicht oder woanders brennt, zum Beispiel Wind oder Sonne) kommt, wann sie will. Dummerweise überwiegend dann, wenn man sie nicht braucht. Wenn mittags die Sonne scheint, kann man damit nicht so einfach abends das „heute journal“ schauen. Schon gar nicht, wenn mittags im Juli liegt und abends im November.

Stinkende Warmbiertrinker

Deshalb muss man den Strom, der aus Wind und Sonne entsteht, irgendwo zwischenlagern. Zum Beispiel in Akkus oder umgewandelt in Pumpspeichern oder in Wasserstoff oder ähnlich nervigen Sachen. Von diesen Speichern gibt’s aber nicht so viele, dass alle abends „heute journal“ schauen könnten. Da sind wir beim ersten Problem: Wenn nicht mehr so viele Leute „heute journal“ schauen, dann empfangen nicht mehr so viele Leute Werbung für die Grünen. Der Plan, die größte deutsche Volkspartei zu werden, wäre also ernsthaft in Gefahr. Das zweite Problem: Auch Leute, die bei Claus Kleber sofort umschalten, wären betroffen, weil überhaupt nicht mehr viel ginge. Nicht mal mehr Licht, wenn’s dumm läuft.

Die neue Bundesrepublik Dunkeldeutschland müsste sich nach Umstellung auf gute Energie ohne ausreichende Stromspeicher allabendlich entscheiden zwischen kaltem Bier ohne Netflix oder warmem Bier mit Netflix. Und monatlich zwischen einmal Waschmaschine oder 600 Whatsapps plus 50 Youtube-Videos im Paketangebot. Die Deutschen würden zwangsläufig zu einem Volk stinkender Warmbiertrinker.

Das wäre den Grünen aufgrund ihrer Tradition zwar grundsätzlich egal beziehungsweise recht, aber die Übergangsphase bis zur Gewöhnung an die neuen olfaktorischen Verhältnisse könnte sich als schwer vermittelbar erweisen und der Partei schaden. Womit wir wieder bei Problem eins wären, der Gefährdung des Ziels, größte deutsche Volkspartei zu werden.

Folgerichtig hat sich die Annalena kurz vor ihrer Berufung an die Parteispitze im Januar um die entscheidende Hürde neuer deutscher Energiepolitik gekümmert, wie gesagt. Ihre Lösung des Speicherproblems war, dass es keins gibt. Denn erstens, meinte die Annalena, könne man Strom ja „im Netz“ speichern. Und zweitens sei alles ausgerechnet. Bei erstens haben alle herzhaft gelacht, die ein bisschen was über Strom wissen (also keine Grünen). Bei zweitens hat einer widersprochen, der rechnen kann (also kein Grüner), nämlich der Herr Professor Hans-Werner Sinn.

Strom ist wie Gott und Globuli

Um zu verstehen, wie die energetische Vordenkerin Annalena darauf kommt, dass man das Stromnetz als Zwischenspeicher für Stromspitzen nutzen kann, muss man tief in grüne Gedankenwelt eintauchen. Ja, kein einfaches Experiment. Versuchen wir es trotzdem. Wahrscheinlich denkt sich die Annalena das so: Kein Mensch auf dieser Erde weiß, wie Strom funktioniert. Aber jeder weiß, dass es ihn gibt und dass er wirkt. Zumindest jeder, den es schon einmal beim Anschließen der Esstischleuchte von der Leiter gehauen hat, darunter eine Menge Grüne. Mit Strom ist es ja ähnlich wie mit Gott oder Globuli. Die existieren und wirken auch, sonst würde sich wohl kaum jemand wegen Allah in die Luft sprengen oder wegen Globuli in die Apotheke rennen.

Fest steht also, Strom gibt es, und er funktioniert. Wie, ist nicht so wichtig. Wichtiger ist, woher er kommt. Nämlich aus der Wand, so wie Wasser, Gas, Fernsehen und Telefon (früher, bevor es iPhones gab). In der Wand ist ein Haufen Leitungen, die unterirdisch heimlich miteinander verbunden sind, jedenfalls die von einer Sorte. Diese Verbindungen nennt man Netze.

Mancher Grüne mag sich an dieser Stelle fragen: Warum packt man nicht alles zusammen in eine Leitung, wäre doch praktischer? Guter Gedanke. Aber hier kommt die Chemie ins Spiel. Strom, Wasser, Gas und Fernsehen sind unterschiedliche Elemente, und nicht alle Elemente vertragen sich miteinander. Strom und Wasser zum Beispiel eher nicht. In anderen Fällen kann es auch sehr gut harmonieren. Wenn etwa Wasser und Gas gleichzeitig aus einer Leitung kommen, nennt man das Fracking. Aber das ist ein anderes Thema.

Strom in Braun, Blau und Grüngelb

Fassen wir grünes Basiswissen Energie zusammen: Leitungen, die untereinander verbunden sind, nennt man Netze. Um die chemischen Elemente Strom, Wasser, Gas und Fernsehen voneinander getrennt zu halten, installiert man unterschiedliche Netze. Sie heißen Stromnetz, Wassernetz, Gasnetz und Unity Media. Diese Netze enthalten gewaltige Mengen des jeweiligen Elements. Das kennt man von Wasser und Gas, also kann es bei Strom und Fernsehen kaum anders sein. Bis hierhin denkt die Annalena absolut logisch.

Nun weist das Stromnetz eine Besonderheit auf, die nur wenigen Menschen bekannt ist (überwiegend den Installateuren von Esstischleuchten). Die Besonderheit ist, dass es drei Arten von Strom gibt: braunen, blauen und grüngelben.

Diese drei Stromarten werden sauber voneinander getrennt in passend eingefärbten Kabeln ins Haus geleitet. Braun steht für Kohlestrom, Blau für Atomstrom, Grüngelb für Ökostrom. Das ist evident, wie Wissenschaftsaffine sagen. Skeptiker können bei ihrem Versorger nachfragen. Der bietet nämlich einen genau auf die persönlichen Wünsche zugeschnittenen Strommix an. Und das – kurz überlegen! – wäre gar nicht möglich, wenn der Versorger nicht präzise über die drei Leitungen steuern könnte, was er dem Kunden da ins Haus liefert.

Mit weniger Strom läuft der Fernseher langsamer

Hier sind wir beim Punkt. Wer jemals das grüngelbe Kabel angefasst hat, weiß, dass einen das eher selten von der Leiter haut. Also ist dort keiner oder nur ganz wenig Strom drin. Sage und schreibe ein Drittel des riesigen deutschen Stromnetzes ist somit praktisch ungenutzt und wartet nur darauf, mit strunzgesunder Energie aus den Kräften von Wind und Sonne gefüllt zu werden. Dieses Potenzial hat Annalena Baerbock erkannt.

Was die Annalena allerdings nicht bedacht hat: Wenn man das Netz als Zwischenspeicher nutzt, um Stromspitzen abzulagern, dann enthält es grünlogisch analog zum Wassernetz mal mehr, mal weniger Strom. Und das ist spannend, mal mehr, mal weniger. Wenn das Netz gerade sehr voll mit Strom ist, steigt die Spannung. Nicht nur im Netz, sondern auch beim Nutzer, der sich den ganzen Tag fragt, ob seine Heimstatt abends noch steht oder ob die Feuerwehr gerade die Reste zusammenkehrt.

Umgekehrt sinkt die Spannung, wenn sich wenig Strom im Netz befindet. Auch hier gibt es unerfreuliche Nebeneffekte. Der Strom tröpfelt vor sich hin, der Fernseher läuft langsamer. Mag nicht jeder, wenn das „heute journal“ plötzlich 90 statt der gewohnten 30 Minuten dauert.

Fazit: Wegen der Risiken und Nebenwirkungen ist es angeraten, das Stromnetz immer gleich spannend zu halten. Deswegen taugt „das Netz“ auch nach grüner Stromkunde nicht als Zwischenspeicher für Stromspitzen. Die Annalena hatte also einen total interessanten Gedanken, aber keinen brauchbaren. Klassisch grün. Da werden die Schwächen geisteswissenschaftlicher Ausbildung sichtbar.

Physik ist da, Politik macht man

Angela Merkel andererseits ist gelernte Physikerin und weiß deshalb viel, viel mehr über Strom als Annalena Baerbock. Deshalb würde die Angela nie so einen Stuss reden wie die Annalena. Die Angela weiß auch ganz genau, dass das Speicherproblemchen ein ziemliches Megaproblemchen ist. Deswegen hat sie gar nicht erst behauptet, da wäre keins. Nein, viel eleganter: Die Angela hat das Problem umgetauft, und zwar in „Herausforderung“. So nennt man Probleme, die lösbar sind. Falls die Herausforderung sich irgendwann als unlösbares Problem herausstellt, dann ist es jedenfalls nicht mehr ihres, weil sie längst im Ruhestand ist oder bei der UNO. Beziehungsweise beides.

Außerdem, wer sagt denn, dass nicht doch irgendein Schlaukopf irgendwas erfindet, was die Energiewende zum Funzen bringt? Könnte ja sein. Politik schlägt Physik, weiß jeder, am besten die Angela, sonst hätte sie nicht den persönlichen Spurwechsel vollzogen. Physik ist einfach da, Politik macht man. Dazu gehört, dass man Menschen führt und leitet und sie vor Herausforderungen stellt.

Zum Beispiel Ingenieure. Die sind, seien wir ehrlich, im Grunde nichts anderes als glorifizierte Installateure. Ohne Auftrag läuft bei denen nichts. Auftrag und Durchsetzungsvermögen. Die Ingenieure und anderen Installateure haben zu Angelas Herausforderung natürlich erst mal rumgemosert, kennt man ja: Geht nicht, zu teuer, zu aufwendig, nicht effizient. Das übliche Yada-yada-yada. Die Angela ließ sich davon nicht beirren und hat gesagt: Mir egal, einfach mal machen. So geht Motivierung. Und Führungsstärke. Ein Grund, warum die Angela Bundeskanzlerin ist und die Annalena noch nicht.

Strom-Cloud – das neue große Ding

Tja, und was soll ich sagen? Die Angela hatte recht. Sie haben richtig gelesen. Energieexperten, Wissenschaftler, Skeptiker und andere Rechtspopulisten sind widerlegt. Das Speicherproblem, das angebliche Riesenhindernis auf dem Weg in eine glückselige Zukunft voller gesunder, sauberer, unendlich vor sich hin stromender Energie, ist gelöst.

Hier sind wir wieder am Anfang, bei der Fahrt nach Marzahn. Ich saß nämlich nicht allein im Auto, sondern zusammen mit der besten kleinen Frau von allen. Die entdeckte beim Blick aus dem Seitenfenster inmitten der Hochhauswüsten eine Plakatwand, die die Revolution verkündete. „Da steht, es gibt Strom aus der Cloud“, sagte sie beiläufig. Ich gebe zu, ich reagierte wie ein normaler mittelalter weißer Mann, also wie ein gefühlter Ingenieur: „Quatsch.“ Sie reagierte wie eine normale mittelalte weiße Frau, also mit emanzipiertem Widerstand: „Hallo? Geht’s noch? Ich hab nur gesagt, es steht da.“

Der lauernde Partnerschaftskonflikt beschäftigte mich. Meine Recherche unmittelbar nach Rückkehr vom energiehistorisch wertvollen Ausflug zur Marzahner Bockwindmühle bestätigte die kleine Frau und ließ mich Abbitte leisten. Die Strom-Cloud ist das neue große Ding. Das Prinzip ist schnell erklärt, hier zum Beispiel vom Fachmedium „strom magazin“:

„Der Grundgedanke bei der Strom-Cloud ist derselbe wie bei der Online-Cloud, in der man persönliche Fotos, Videos und andere Daten speichern kann. Hat man auf dem eigenen Rechner nicht mehr genug freien Speicherplatz, schiebt man die Daten ins Internet auf Server des Cloudanbieters. Will man später dann darauf zugreifen, lädt man sie einfach wieder herunter. Damit das Ganze nicht zu aufwändig ist, werden die Daten meist automatisch synchronisiert – so bleibt mehr Zeit für die wichtigen Dinge.“

„100% Energie – 0% Batterie“

Aha, dachte ich, so weit verstanden. Wenn ich bei mir zuhause zu viel Strom mache, zum Beispiel mit Solaranlage, Bockwindmühle oder Hometrainer, dann brauche ich dafür keinen eigenen Akku, sondern schiebe meinen persönlichen Strom einfach auf einen Speicher beim Versorger meines Vertrauens. Wenn ich dann irgendwann später Strom fürs „heute journal“ brauche, weil es dunkel ist und ich wegen zu viel Warmbier nicht mehr im Arbeitszimmer radeln will, dann lade ich meinen eigenen, hausgemachten Strom wieder herunter. Unfassbar cool. Mal abgesehen davon, dass ich bisher weder Hometrainer noch Windmühle noch Solarpanels besitze.

Ich bekenne, zu diesem Zeitpunkt war ich noch ein bisschen skeptisch. Eine Frage war schließlich unbeantwortet: Die Stromgenies hatten zwar meine Heimstatt vom Speicherproblem befreit. Aber wie genau hatten sie das Speicherproblem bei sich gelöst? Die Antwort fand ich bei E.ON. Die E.ONs bieten nämlich ein fix und fertiges, anwendungsbereites Produkt an, was man daran erkennt, dass es einen Großbuchstaben mitten im Wort hat: SolarCloud. Und so funktioniert die E.ON-Speicherrevolution:

„Genießen Sie jetzt Ihre Sonnenenergie 365 Tage und Nächte – Die E.ON SolarCloud: der einzigartige virtuelle Speicher, mit dem Sie Ihren Solarstrom unbegrenzt ansparen und bei Bedarf wieder abrufen können. An sonnigen Tagen bauen Sie ein Guthaben auf, das Sie in der Nacht, bei Regentagen, in den Wintermonaten oder für Ihr Elektroauto nutzen können. Die perfekte Ergänzung zu Ihrer E.ON Aura Photovoltaikanlage.

E.ON SolarCloud – 100 % Sonnenenergie – 0 % Batterie zu Hause. Entdecken Sie jetzt unseren virtuellen Speicher, der komplett ohne Batterie auskommt. Mit der E.ON SolarCloud sparen Sie sich die kostspielige Investition in eine Speicherbatterie und können 100 % Ihres Solarstroms für sich nutzen.“

Genial: Speichern ohne Speicher

Falls Ihnen das jetzt technisch zu kompliziert war, sei es hier noch einmal erklärt. Das entscheidende Wort ist „virtuell“. Virtuell ist ein modernes Wort für „gibt’s gar nicht“ beziehungsweise „war nur Spaß“. Wenn Ihnen zum Beispiel jemand eine virtuelle Ferienwohnung an der Quanta Costa verkauft, dann ist das aus Sicht des Verkäufers superlustig, auf Ihrer Seite sackdämlich und für die Staatsanwaltschaft Betrug. Bei Strom ist das anders, denn E.ON hat keinen Humor und würde ganz bestimmt niemals betrügen, genauso wenig wie VW oder andere ehrwürdige deutsche Unternehmen.

Sie müssen sich die SolarCloud so vorstellen: Neben Strom, Wasser, Gas und Fernsehen gibt es ein weiteres Element, das aus der Wand kommt, nämlich Geld. Das kommt zwar nicht direkt bei Ihnen in der Wohnung an, aber Sie können es aus der Sparkassen-Wand holen. Der Clou dabei ist: Die Sparkasse lagert Ihre Ersparnisse nicht in einem separaten Körbchen in einem Tresor voller Geldscheine, wie Sie vielleicht meinen. Nein, die Sparkasse schreibt nur auf einem Zettel auf, was Ihnen gehört. Das nennt sich Konto. Und ein Konto ist nichts anderes als ein virtueller Speicher.

Genau so macht es E.ON mit dem Strom. Speichern ohne Speicher – eine absolut geniale Lösung, muss man zugeben. Und wie so oft bei genialen Lösungen fragt man sich, warum nicht schon früher jemand darauf gekommen ist. Warum diese lästigen, teuren Speicher bauen, wenn man den Strom auch einfach auf einen Zettel schreiben kann?

Bald kommt Strom ohne Netz

Der nächste Schritt liegt auf der Hand, auch wenn E.ON dazu noch nichts sagt: Strom ohne Netz – you heard it here first! Die Überwindung des aufwendigen und anfälligen Leitungsnetzes ist die logische Weiterentwicklung und funktioniert jetzt schon bei der Hälfte der Dinge, die früher aus der Wand kamen. Telefon, Fernsehen und Geld lassen sich bereits heute komplett kabellos übers Smartphone nutzen. In Zukunft laden Sie sich per Doppelflat gleichzeitig mit der Netflix-Serie den nötigen Strom zum Anschauen aus der Cloud.

Persönlich glaube ich ja, dass die E.ON-Genies längst daran arbeiten. Sie wollen den kabellosen Überallstrom bloß noch nicht auf den Markt bringen, weil dann jeder adipöse App-Programmierer Billigstrom aus Norwegen oder China zum Download anbieten könnte. Das würde die Preise extrem drücken, deshalb setzen die E.ONs so lange wie möglich auf Festnetzstrom. Kann man verstehen, wenn man ehrlich ist.

Wo wir gerade dabei sind, noch eine Prophezeiung: Das übernächste große Ding wird Wasser aus der Cloud – you heard it here first again! In Clouds ist ja schon von Natur aus extrem viel Wasser und ein Haufen Strom gespeichert, wissen alle, die schon einmal bei Gewitter draußen waren. Das einzige Problem – beziehungsweise die einzige Herausforderung – ist, den Download ein bisschen angenehmer zu gestalten, so dass der User weder nass noch durchgegart wird.

Annalena ist nicht dumm wie Stulle

Apropos Herausforderung: Dass die Kanzlerin maßgeblich am stromtechnologischen Durchbruch der E.ON-Entwicklung beteiligt war, indem sie den Ingenieuren und sonstigen Bastlern die erforderlichen Vorgaben machte, haben wir bereits anerkannt. Bleibt noch die Würdigung von Annalena Baerbocks Leistung. Und nein, bitte, kommen Sie mir jetzt nicht mit dem billigen Vorurteil, die Annalena sei dumm wie Stulle beziehungsweise habe keine Ahnung von nichts.

Dazu sei gesagt: Erstens ist Ahnung sowas von 20. Jahrhundert. Natürlich, Leute mit Ahnung haben die Moderne erfunden. Aber wir leben längst in der Postmoderne, da zählen Gefühle, Träume und Visionen mehr als Ahnung. Das sollte inzwischen auch der letzte ewiggestrige Dumpfsack gemerkt haben. Und zweitens, ganz konkret: Glauben Sie ernsthaft, die E.ONs wären auf die Idee mit dem Strom aus der Cloud gekommen, wenn die Annalena nicht im Januar so kreativ vor sich hinfabuliert hätte? Nein, es gibt keine Zufälle, das lernen Sie in jedem besseren Krimi. Ohne Annalenas Thinking out of the box hätten wir heute noch keine E.ON SolarCloud, darauf gebe ich Ihnen Brief und Siegel.

Politik überwindet Physik, Meinung triumphiert über Tatsache, Vision gewinnt gegen Ahnung – das sind die Zeichen der Zeit. Gewöhnen Sie sich daran, in Ihrem ureigenen Interesse. Lead, follow or get out of the way, so sieht’s nun mal aus, das ist die Wahrheit. Zu dieser Wahrheit gehört auch, dass die Visionärin Annalena unbestreitbar Kanzlerinnenformat hat. Mal abgesehen von der Stimme, die als natürliches Spermizid wirkt, was schlecht für die Geburtenrate ist. Aber das lässt sich bestimmt chirurgisch lösen, so wie die Sache mit Christian Lindners Haaren.

Die Sonnenscheingarantie ändert alles

Meine kleine Frau – normalerweise nicht unbedingt als Early Adopter technologischen Fortschritts bekannt – war übrigens sofort Feuer und Flamme für die E.ON SolarCloud. Und zwar in der Variante „Premium“. Produktlogo: Batteriesymbol in Wölkchensymbol mit Diamantsymbol. Diese Besserverdiener-Ausführung kostet „ab 40,99 € pro Monat“ und damit zehn Euro mehr als die Prekariatsversion (Batteriesymbol in Wölkchensymbol).

Es war nicht der Diamant, der die kleine Frau für Premium einnahm. Auch nicht der vom Produktpaket umfasste „monatliche Effizienzcheck Ihrer E.ON Aura Photovoltaikanlage“ oder die „Versicherung Ihrer PV-Anlage gegen Produktionsausfälle“. Es war die „E.ON Sonnenscheingarantie“, die der Liebsten ins Auge sprang und sie seither kaum noch schlafen lässt.

Mir geht es ähnlich. Ein Unternehmen, das für dauergutes Wetter in Deutschland sorgt, ändert alles. Diesem Unternehmen traue ich alles zu, und ich verzeihe ihm alles, selbst das Minus von 76 Prozent in meinem Wertpapierdepot seit Erwerb der Aktien 2007. Ebenso verzeihe ich der Kanzlerin, die mit ihrer Energiewende das Grab für meine E.ON-Anteile schaufelte. Außerdem vergebe ich Annalena Baerbock allen vergangenen und zukünftigen Bockmist. Angela und Annalena haben mit ihren Visionen die Grundlage für die sonnige Revolution geschaffen. Und E.ON hat geliefert.

Auch meine Einstellung zur Umweltpolitik hat sich radikal geändert. Bisher war ich überzeugter Verfechter des Klimawandels und habe ihn nach Kräften unterstützt. Das ist nicht mehr nötig, seit E.ON die Herausforderung „besseres Wetter für Deutschland“ quasi nebenbei erledigt hat. Wer das schafft, kann und soll auch die Malediven und Polynesien vor dem Untergang retten.

Danke, Angela! Und Annalena! Und E.ON!

PS: Nach so viel Theorie zum Abschluss ein praktischer Hinweis, speziell für unsere grünen Leser. Solange Sie Ihren Strom noch herkömmlich aus der Wand beziehen, sollten Sie sich vor Legionellen hüten, die bevorzugt am Ende von Leitungen auftreten. Deshalb hier der Tipp: Wenn Sie nach Hause kommen – speziell nach längerer Abwesenheit wie Urlaub –, sollten Sie immer zuerst alten, abgestandenen Strom aus den Leitungen abfließen lassen (zum Beispiel mit Hilfe eines ausrangierten Staubsaugers). Nach etwa 20 bis 40 Minuten, je nach Hausgröße, können Sie dann iPhone, Smartwatch und Laptop bedenkenlos mit frischem, klarem Strom füllen. Ihre Geräte werden es Ihnen danken!

Anmerkungen von EIKE

Diese köstliche Satire erschien in ACHGUT am 4.11.2018 (hier). Auf meine Bitte hin gestatteten Herr Dirk Maxeiner von ACHGUT und insbesondere der Autor, Herr Robert von Loewenstern, die vollständige Wiedergabe auf unseren EIKE-News. Dafür ganz herzlichen Dank. Neben dem Artikel selber sind auch die Leserkommentare lesenswert. Selbstverständlich kommt EIKE der Bitte von Herrn von Loewenstern nach und lädt sein Honorar in die Energiecloud. Wenn man bedenkt, dass grüne technische Genies daran sind, zur zweitstärksten politischen Kraft in Deutschland zu werden, bleibt der verbleibenden deutschen Restintelligenz wohl nichts mehr anderes übrig, als sich zu verabschieden – in welche Cloud aber? Deutschland ist mit seinen heute 30.000 völlig unnützen Windmühlen eh schon zur Häfte zerstört, den Rest schaffen die Grünen sicher auch noch.
Prof. Dr. Horst-Joachim Lüdecke



Verirrter Vorreiter

Die Arroganz der Ahnungslosen

Kaum ein anderer Teil der Wirtschaft wird in Deutschland politisch so reguliert wie die Energiewirtschaft. Technologiescharfe politische Entscheidungen wie der Ausstieg aus der Kernenergie und die auf das Zehntelcent genaue Festlegung von Fördersätzen sind planwirtschaftlich angelegt und verhindern Wettbewerb. Politiker maßen sich an, Energietechnologien in Unkenntnis kommender Entwicklungen für die nächsten Jahrzehnte festschreiben zu können. Eine Globaltemperatur am Ende des Jahrhunderts gilt als Beschluss, während die Inbetriebnahme eines Flughafens nur mit Vorsicht terminiert wird.

Ziele sind das Eine, ihre Erreichung das Andere. Fast alle bisher angestrebten Meilensteine des Energiewendevorhabens per 2020 werden mehr oder weniger deutlich verfehlt. Der Primärenergieverbrauch sollte um 20 Prozent zurückgehen. Dies ist außer Reichweite gelangt, denn die Konjunktur ist gut und die Bevölkerung wächst. Auch die Senkung des Bruttostromverbrauchs um 10 Prozent funktioniert nicht. Zwar ist das Wirtschaftswachstum vom Energieverbrauch weitgehend entkoppelt, die vorgesehene Steigerung der Energieproduktivität von 2,1 Prozent wird aber nicht gelingen, denn über den begonnenen Weg der „Sektorkopplung“ sollen künftig alle Energiesektoren strombasiert betrieben werden. Dies würde voraussetzen, dass Elektrizität in großen Mengen billig, sicher und umweltfreundlich verfügbar ist. Man kann alles vorhersagen – dieses bestimmt nicht. Die Sektorkopplung treibt den Bedarf der am höchsten veredelten und damit teuersten Energieform, der Elektrizität, um etwa das Dreifache in die Höhe.

Der Endenergieverbrauch im Verkehrssektor wie auch der Wärmebedarf des Gebäudebestands werden auch nicht um 10 beziehungsweise 20 Prozent sinken.

Die Emissions-Reduktionsziele (fälschlich „Klimaziele“ genannt) werden ebenfalls nicht erreicht. Zähneknirschend und vom Wolfsgeheul der Grünen und der Front der NGOs begleitet, entschloss man sich spät in den schwarz-roten Koalitionsverhandlungen, das Absehbare offiziell zu machen. Wenn man Ziele nicht erreicht, hat jemand versagt. Vielleicht waren die Ziele aber nicht realistisch oder die Bedingungen haben sich geändert?

Die 40-Prozent-Reduzierung wurde 2007 beschlossen, also lange vor dem Tsunami in Fukushima. Mit dem Atomausstiegsbeschluss 2011 war klar, dass ein Teil des wegfallenden Atomstroms durch fossilen Strom wird ersetzt werden müssen. Wer das damals laut sagte, wurde vom grünen Sozialenergiefachmann Trittin darauf hingewiesen, dass das nur „Propaganda der Atomlobby“ sei. Nun ist die Atomlobby im Grunde nicht mehr existent und der grüne „Abschalten“-Chor ruft in Richtung der Kohle weiter. Noch sind neun Gigawatt Kernkraftwerksleistung am Netz – zuverlässig und regelbar. Die Ziele für 2030 sollte man realistisch versuchen zu kalkulieren und auf „Fachleute“, die Kostensteigerungen in Maßeinheiten wie Eiskugeln vorhersagen, besser nicht hören.

Die Energiebranche hat ihre Hausaufgaben gemacht und Emissionen gesenkt, hier wirkt auch der europäische Emissionshandel, während Verkehrs- und Gebäudesektor kaum reduzierten. Das Gegenteil tritt bei der Mobilität ein. Die Verteufelung der Dieseltechnologie treibt Vielfahrer zum Benziner, keinesfalls zum Stromer, und erhöht die CO2-Emissionen. Politische Zwangsmaßnahmen gegen Autofahrer lassen sich bei uns schwerer umsetzen als in China. Die Chinesen, nicht wir, realisierten übrigens die bisher weltweit erfolgreichste „Klimaschutzmaßnahme“: Die Ein-Kind-Politik.

Dilettantischer Ausstieg

Niemand bezweifelt indes, dass der Kernenergieausstieg termingemäß kommen wird. Begleitend werden noch einige Milliarden an Steuergeld verbrannt auf Grund der rechtswidrigen Brennelementesteuer und zu entschädigender Reststrommengen. Dies wirft ein bezeichnendes Licht auf die Qualität unserer Regierungen im Gesetzgebungsverfahren. Gerichte müssen korrigieren, was hunderte Juristen in Bundestag und Regierung nicht rechtssicher auf die Reihe bekamen. Eingefangen haben sie sich indes alle Kosten für die Endlagerung, die der Steuerzahler nun schultern muss. Einige hundert Millionen oder sogar einige Milliarden werden wohl noch an Vattenfall als dem einzigen ausländischen Kernkraftbetreiber in Deutschland gehen. Das internationale Schiedsgericht ICISD, ursprünglich eingerichtet zum Investorenschutz in Drittweltländern, könnte die Stilllegungsverfügung der Vattenfall-Reaktoren in Krümmel und Brunsbüttel als Enteignung werten. Deutschland auf einer Anklagebank, auf der auch Länder wie Ecuador und die Philippinen in anderen Verfahren sitzen. Das ist keine Werbung für Investitionen in ein vorgeblich rechtssicheres Hochindustrieland Deutschland.

Der geplante Anteil regenerativ erzeugten Stroms am Strommix ist das einzige Ziel, das übererfüllt wird. Bereits heute haben wir den Wert für 2020 erreicht. Daran zeigt sich das erfolgreiche Wirken der Ökolobby, die den exzessiven Ausbau volatiler Anlagen gegenüber abgewogenen Entscheidungen zum Netzausbau durchgesetzt hat. Ein fehlender Masterplan und die unterlassene, zwingend nötige Kopplung an den Netzausbau und den Einstieg in Speichertechnologien haben die Entwicklung aus dem Ruder laufen lassen. Das wichtigere Ziel hingegen, den Anteil am Primärenergieverbrauch zu 18 Prozent aus den Regenerativen zu gewinnen, wird um mindestens drei Prozent verfehlt werden.

Halbjährlich untersucht McKinsey den Fortgang der deutschen Energiewende und bildet sie durch einen Index ab. Die Platzierungen im weltweiten Vergleich sind ernüchternd. Im Gesamtranking landet Deutschland auf Platz 16 unter 114 betrachteten Ländern. Die Kennziffer „Systemperformance“, die die Einhaltung des energiepolitischen Zieldreiecks aus Wirtschaftlichkeit, Versorgungssicherheit und Umweltschutz abbildet, führt uns auf Rang 44, hinter Länder wie Paraguay und Indonesien. Nennt man einen aus dem Mittelfeld tatsächlich „Vorreiter“?

Noch nie ist eine Energiestrategie irgendeiner Bundesregierung zielgerecht umgesetzt worden. Ob die jetzige erfolgreich sein wird, ist bei Betrachtung des handelnden Personals eher zweifelhaft.

Oberster Wirtschaftsbeamter ist mit Peter Altmaier ein Jurist, der schon optisch das Primat der Politik über den Markt verkörpert. Er diente der Kanzlerin als Allzweckwaffe, unter anderem als parlamentarischer Staatssekretär, Kanzleramtsminister, Flüchtlingskoordinator und Talkshow-Gast. „Er kann reden, ohne etwas zu sagen“, so der FOCUS. Jetzt soll er als Wirtschafts- und Energieminister die Kastanien aus dem verdammt heißen Feuer verbrennender Energiewende-Illusionen holen. Mildernd ist anzumerken, dass er kein gut bestelltes Feld übernahm. Vorgänger Gabriel ließ seinem grünen Staatssekretär Baake weitgehend freie Hand, so dass dieser die Bedingungen der Ökostromproduzenten ohne Rücksicht auf übergreifende Zusammenhänge profitoptimal gestalten konnte. Angesichts des neuen Koalitionsvertrages sah der seine Möglichkeiten eingeschränkt und stieg im März aus. Bisher gibt es keinen Nachfolger. Kaum zu vermuten, dass Altmaier nicht um die Bedeutung dieses Postens weiß, eher dürften die durchaus vorhandenen Kandidaten diesen heißen Stuhl meiden. Viel Feind und wenig Ehr` bei Gefahr des vollständigen Reputationsverlusts.

Altmaier setzt nun den Verlust einiger tausend Arbeitsplätze in Bergbau, Energie und Industrie über Zwangsstilllegungen von Kraftwerken und steigende Strompreise um. Wir sehen, Politik kann sehr wohl Arbeitsplätze vernichten, aber nur sehr begrenzt neue, marktfähige schaffen. Öffentlich äußert er, „Arbeitsplätze zu den Menschen“ bringen zu wollen. Wir sind gespannt.

Auf dem Gebiet der „Zukunftsenergien“ wird dies eher schwierig. Fest ist der Glaube daran, aber falsch die gebetsmühlenartige Wiederholung, bei den „Erneuerbaren“ würden stetig neue Arbeitsplätze entstehen. Der Faktencheck enthüllt, dass das Maximum der dort Beschäftigten im Jahr 2012 mit etwa 400.000 teils prekären Stellen sein Maximum erreicht hatte und es seit Platzen der Solarblase stetig abwärts geht. Derzeit sind es etwa 330.000, wobei die Abgrenzung schwierig ist. Werden in der konventionellen Energiewirtschaft nur die direkt Beschäftigten gezählt und Zulieferer und Service unter indirekte Beschäftigung fallen, zählt bei den Regenerativen auch der Dachdecker und Elektriker dazu, der hin und wieder Hand an ein Solarpanel legt. Nun zeichnet sich weiterer Jobabbau in der Windbranche ab. Die Erkenntnis, dass subventionierte Stellen immer temporär sind, ist in der Wirtschaft und besonders in der deutschen Steinkohle schon lange bekannt, bei den „Erneuerbaren“ noch nicht.

Ohne Moos nix los

113 Milliarden Euro flossen zwischen 1960 und 2016, also innerhalb von 56 Jahren, in die deutsche Steinkohle als Subvention. In nur 16 Jahren (2000 – 2016) gingen 149 Milliarden Euro an die Betreiber der „Erneuerbaren“, die indirekten Kosten nicht mitgerechnet. Perspektive: Unabsehbar. Der Bundesrechnungshof kritisierte schon im Vorjahr, dass Finanzfragen vom BMWi nicht beantwortet werden können. Abgesehen von Organisationsmängeln im Ministerium ist es allerdings in der Tat schwierig, alle direkten und indirekten Kosten zu erfassen. Welcher Netzausbau ist zusätzlich nötig zu dem, der ohnehin erforderlich gewesen wäre? Was kosten künftig die heute noch völlig imaginären Stromspeicher?

Immerhin erkennt Altmaier, dass der weitere Ausbau der Regenerativen ohne adäquaten Netzausbau kontraproduktiv ist. „Wir sind beim Netzausbau katastrophal in Verzug.“ Über 1,4 Milliarden Euro wurden 2017 verschwendet, um das Ungleichgewicht im Netz durch den vorauseilenden Ausbau volatiler Einspeiser gegenüber nachhängendem Netzausbau auszugleichen.

Um auch öffentlich deutlich zu machen, wie wichtig ihm dieses Problem ist, begab er sich im August auf eine „Netzreise“, auf der er den „Aktionsplan Stromnetz“ vorstellte. Wirklich Neues steht darin nicht und inwieweit sich die Genehmigungsverfahren in unserem Hochbürokratieland vereinfachen lassen, ist offen. Wenn betroffene Bürger erst erkannt haben werden, dass Erdkabel wieder unbewachsene Todesstreifen quer durch Deutschland mit sich bringen, wird der Unmut erneut wachsen. Ohnehin ist die Landbevölkerung in Zwietracht. Im Norden verdienen Landbesitzer an den Pachteinnahmen für Windkraftanlagen mehr, als sie je mit Feldbestellung hätten erreichen können. Weiter südlich müssen die Bauern Slalom fahren um die Masten der Hochspannungstrassen oder Mindererträge durch Erdkabel für diese spitzenvergüteten Strom hinnehmen.

Dann wird wieder von den Benachteiligten die Wunderwaffe „Dezentralisierung“ ins Spiel gebracht.

Typisch für die deutsche Energiepolitik ist es, die teuersten und marktfernsten Technologien am meisten zu fördern. Jahrelang war die Fotovoltaik das Lieblingskind (heute gibt man die Überförderung zu) und man nahm üppige CO2-Vermeidungskosten von 400 und mehr Euro pro Tonne hin. Heute ist es die Offshore-Windenergie, mit der Altmaier auf weitere Zentralisierung setzt. Er bezeichnet Offshore-Windkraftanlagen als „Kathedralen der Energiewende“ und vergisst dabei, dass dies die maximal zentralisierte Stromerzeugung darstellt. Nirgendwo sonst ist der Weg zum Stromverbraucher weiter als von See her. Gebündelter Windstrom kommt in dicken Kabeln hinter den Dünen hoch und muss über das ganze Land verteilt werden. Dazu kommt: Auch dieser Windstrom schwankt stark.

Bild 1

Diese Erkenntnis ist selbst Herrn Homann fremd, dem Chef der Bundesnetzagentur. Er formulierte anlässlich des nötigen Netzausbaus: „Der Strom aus den Windparks kommt nicht zuverlässig nach Süddeutschland.“ Die Begriffe „Windstrom“ und „zuverlässig“ in einem Satz zu verarbeiten, zeigt systemisches Unverständnis. Natürlich müssen die Leitungen Strom zuverlässig Strom transportieren, die wichtigste Frage ist doch aber: Wer sorgt dafür, dass der Strom zuverlässig in die Leitungen kommt? Wie ein Pawlowscher Reflex kommt auf entsprechende Fragen von den Wendebewegten die Antwort: Speicher.

Es gehört schon ein gediegenes Maß Arroganz dazu, stets die Notwendigkeit von Speichern zu betonen und gleichzeitig nichts zu unternehmen, die regulatorischen Bedingungen für Stromspeicher günstig zu gestalten. Noch immer zahlen Pumpspeicherwerke Netzgebühren, obwohl sie stabilisierend wirken. Die Politik fördert leicht gebremst die massenhafte volatile Einspeisung weiter und produziert damit steigende Systemkosten. Die Subventionierung von Massenproduktion verhindert zudem Innovation, wie schon die von der Bundesregierung eingesetzte Expertenkommission „Forschung und Innovation“ 2014 feststellte.

Es gibt nur ein Ereignis, dass die deutschen Emissionssenkungsziele nach heutiger Methode erreichbar machen könnte, nämlich eine fulminante, länger anhaltende Wirtschaftskrise. Eine „Versöhnung von Ökonomie und Ökologie“ ist auf dem eingeschlagenen deutschnationalen Weg nicht erreichbar.

Eine schon religiös zu nennende „Klimaschutzaufgabe“ macht den bisher hoch bewerteten Umweltschutz platt. Die Grünen, keine Friedenspartei mehr und noch nie eine soziale Partei gewesen, haben nun auch mit dem Klimaschutz ihren Gründungsmythos Umweltschutz verraten. Windkraftanlagen in Wäldern sind maximierter Umweltfrevel. Keine Tonne CO2 wird infolge des „Wasserbetteffekts“ über den europäischen Emissionshandel damit eingespart, im Gegenteil. Wald als CO2-Senke wird vernichtet. Während überall in Deutschland für die Windkraft losgeholzt wird, kämpfen scheinheilige Ökos gegen die lange geplante und genehmigte Rodung des Hambacher Forstes mit Gewalt und Gewaltsolidarität. Die Grünen sind die gewissenlose Speerspitze der hinter ihnen stehenden Lobby.

Bild 2

Viele Länder dieser Welt versuchen, ihren Energiemix zu verbreitern. Das schafft mehr Versorgungssicherheit und mindert die ökologischen Auswirkungen. Nur Deutschland will Menschen und Wirtschaft in ein mittelalterlich zu nennendes System, das von den Launen der Natur dominiert wird, zurück befördern. Der Optimismus ist so groß und der Wohlstand so üppig, dass Versorger wie die Technischen Werke Ludwigshafen jetzt veganen Strom anbieten. Der enthält nicht nur keinen Atom- und Kohlestrom, sondern auch keine Windkraft, keinen Wasser- oder Biomassestrom. Wer das „Vegawatt“-Angebot annimmt, erhält Strom fast ausschließlich aus Fotovoltaik mit der Einschränkung, dass die Module nicht auf den Dächern von Mastanlagen installiert sein dürfen. Auch auf dem Freiland dürfen sie wegen dem Flächenverbrauch und der Einschränkung des Lebensraums für Tiere nicht stehen. Als Versorger will man halt auch Kunden mit teils sektiererischer Veganerkultur an sich binden. Ob dieser Tarif Ausdruck eines besonders hohen Niveaus der Energieversorgung ist oder spätbürgerlicher Dekadenz, ist Ansichtssache.

Wir Deutschen sind die Besserwessis dieser Welt. Wir isolieren uns durch moralische Überhöhung gegenüber jenen, die zunächst ihre Grundbedürfnisse erfüllen wollen – 24 Stunden Strom am Tag und genug Wärme zum Kochen und Wohnen. Wir wollen Weltmeister der CO2-Vermeidung sein und Entwicklungsländern verbieten, billige Kohle zu nutzen. Wir wollen durch Haltung und Vorbild die Welt überzeugen von einem energiepolitischen Weg, der schon im eigenen Land nicht erfolgreich ist.

Indessen haben wir uns von dem verabschiedet, was den einst guten Ruf deutscher Technik und Ingenieurskunst begründete – dem Technologieexport. Fotovoltaik- und Windkraftanlagen kommen heute gleichwertig, aber billiger aus China, Kernkraft ebenso, die können wir nicht mehr. Für die Ertüchtigung alter Kohlekraftwerke in der dritten Welt gibt es keine KfW-Kredite und Hermes-Bürgschaften mehr. Sollen sie doch räuchern, das belastet unsere national betrachtete „Klimabilanz“ nicht. Bergbautechnik, gern von uns gekauft für Schächte und Tagebaue, werden wir künftig nicht mehr liefern können mangels eigener Verwendung. Auch die Technologie zur Abscheidung und Speicherung von CO2(CCS), die wir kurzzeitig vorantrieben, ist politisch abgewürgt. Nun erklärt das IPCC, dass die Klimaziele 2050 ohne diese Technologie, die negative Emissionen ermöglicht, nicht werden erreichen können.

Wenn wir also global außer einer selbst zugesprochenen Vorreiterrolle nichts zur Emissionsminderung beitragen können oder wollen, bleibt als einziges Trostpflaster, die eigenen Emissionen zu senken. Gelänge es, unseren zweiprozentigen globalen Anteil komplett wegzusparen (der übrigens im Bereich der chinesischen Meßungenauigkeit liegt), kann eine Reaktion der Atmosphäre in Form eines nicht mehr stattfindenden Klimawandels nur von Naivgläubigen erwartet werden. In spätestens zwei Jahren hätte der globale Emissionsanstieg unsere Senkung ausgeglichen. Wir würden trotz grünökologisch korrekter Dekarbonisierung weiter vom Klimawandel „bedroht“.

In der DDR gingen mit schöner Regelmäßigkeit erfüllte Planzahlen durch die Einheitsmedien: Tonnen an Roheisen, Walzstahl, beförderten Gütern oder gefangenem Fisch. Der Wohlstand war dennoch bescheiden und man nannte diese Form der Politik auch Ergebnis der „Tonnenideologie“. Fragt man heute nach dem Ziel der Energiewendebemühungen, werden Millionen Tonnen CO2-Einsparung genannt. CO2-Fußabdrücke werden errechnet für den Flug in den Urlaub oder die Autofahrt zum Bäcker, wo man doch das Fahrrad hätte nehmen können. Die CO2-Minderung ist zum Selbstzweck hochstilisiert und verkommen. Keiner der sich im Vollbesitz der Wahrheit wähnenden Klimawissenschaftler rechnet die Millionen Tonnen vermiedener Emissionen in vermiedene Temperaturerhöhung um.

Inzwischen wirken die Gesetze und Planungen zur Stilllegung konventioneller Kraftwerke:

Bild 3

Dies ist der verbindliche Rückgang der gesicherten Kapazitäten bis 2023. Spätestens dann wird es eng, die Spitzenlast im Land aus eigenen Kraftwerken abzudecken. Im Gegensatz zu dieser genauen Terminierung gibt es keinerlei konkreten Ansatz, wann und wo welcher Strom-Großspeicher mit welcher Technologie, von wem gebaut, betrieben und bezahlt in Betrieb geht.

Auch in unseren Nachbarländern gehen die gesicherten Kapazitäten zurück. Zusätzlich steigen ab 2021 etwa 3.500 Windkraftanlagen aus der EEG-Förderung aus und es kann damit gerechnet werden, dass ein Teil von ihnen mangels Rentabilität stillgelegt werden wird. Hinzu kommt eine besondere Netzsituation südlich der Main-Linie durch den Kernenergieausstieg und fehlende Leitungen.

Die Regierung ist ein Zauberlehrling, der die Eigendynamik des selbstverursachten Strom-Voodoo staunend beobachtet. Wer „Aussteigen“ ruft, muss auch sagen, wo er einsteigt. Stattdessen wird weiter der sinnlose Versuch unternommen, Kohle- und Kernkraft durch Manchmal-ist-Windstrom zu ersetzen. Regierungspolitik will mit EEG, Energiewirtschaftsgesetz und anderen das Induktionsgesetz, das Ohmsche Gesetz und das Kirchhoffsche Gesetz überlisten. Dass auf lange Sicht die Naturgesetze die menschengemachten Gesetze schlagen, diese Erkenntnis muss offenbar noch reifen.

Niemand überblickt mehr dieses Projekt „Energiewende“, das nicht mehr als eine angefangene Stromwende ist, in Gänze. Jede Lobbygruppe bearbeitet ihren Sektor ohne Rücksicht auf die fundamentalen Zusammenhänge. Politik reagiert, indem sie am Monstergesetz EEG mal hier und da eine Schraube dreht und es immer weiter verschlimmbessert. Professor Kobe von der TU Dresden brachte es so auf den Punkt:

„Die Energiewende hat nur einen einzigen Feind: Die Unwissenheit über die physikalischen Gesetze, die ihr zugrunde liegen.“

 

Arroganz, gepaart mit Ahnungslosigkeit, führen uns immer weiter in eine Sackgasse hinein. Über die so genannte „Sicherheitsbereitschaft“ geht zum Oktober ein Braunkohleblock in der Lausitz außer Betrieb. Dies bedeutet den Verlust von etwa 1.500 tariflich bezahlten direkten und indirekten Arbeitsplätzen. Die damit einhergehende Emissionsreduzierung ist global vernachlässigbar und nur durch grüne Homöopathen psychosomatisch festzustellen. Die vom Arbeitsplatzverlust Betroffenen werden sozial flankiert, aber sie wissen, dass ihr Job für Symbolpolitik und Zeichensetzung geopfert wird. Dafür, dass die deutsche Delegation beim Klimagipfel in Katowice ein paar Zahlen ins Schaufenster stellen kann. Arroganz am Rand zur Menschenverachtung und Ahnungslosigkeit über grundsätzliche naturgesetzliche Zusammenhänge zeigen eine Regierung, die ihre Aufgaben nicht erfüllt.

 

 

 

 

 

 

 

 

 

 

 




Zur Struktur der Energiewende (Kurzfassung)

Zielsetzung

Es ist nicht das Ziel dieser Studie, ein optimales Energieversorgungssystem unter Verwendung heutiger technischer Lösungen auszulegen. Vielmehr geht es darum, die Charakteristiken und die Struktur des Prozesses Energiewende aufzuzeigen.

Das Projekt Energiewende umfasst den Neu- bzw. Umbau folgender Systeme:

  • Wandler so genannter Erneuerbarer Energien (EE), z.B. Windenergieanlagen (WEA) oder Photovoltaik (PV)
  • Speicher (für elektrische, thermische oder mechanische Energie), z.B. Li-Jonen Akkus oder Pumpspeicher
  • Energieübertragungsnetze (einschließlich aller Zusatzeinrichtungen)
  • Energieverbraucher
  • industrielle Wirtschaft

Das Hauptproblem der nutzbaren EE-Träger (z.B. Wind, Sonne, Wasser) sind ihre geringen und zeitlich nicht konstanten Energiedichten. Daran kann zukünftige Entwicklung nichts ändern. Daher sind Wandler und Speicher gigantischer Ausmaße erforderlich. Der Material- und Energieeinsatz für die Lieferung einer KWh ist deshalb um mindestens zwei Zehnerpotenzen (> Faktor 100) größer als bei Wandlern fossiler Energie.

Modellrechnung

Obgleich der Energiebedarf steigt, wird angenommen, er werde auf dem heutigen Niveau bleiben. Da die meisten Wandler elektrische Energie liefern, wird der elektrische Anteil um ein Vielfaches steigen. Es werden WEA als Wandler eingesetzt, da sie um den Faktor 3 effizienter sind als z.B. PV. Es werden Langzeitspeicher elektrischer Energie für ca. 2,7% der jährlich benötigten Energiemenge zur Kompensation der Volatilität der EE-Träger zugrunde gelegt. Dafür wird unterstellt, dass Kosten und Energieeinsatz für die Herstellung von Speichern deutlich unter dem jetzigen Niveau liegen werden und sich die Lebensdauer auf 20 Jahre verdoppeln wird. Die Übertragungsnetze von den dezentralen Wandlern zu den Verbrauchern werden für die vielfache Menge an Strom erweitert. Das emissionsfreie System soll in 40 Jahren (2021-2060) aufgebaut werden.

Es werden die verursachten Energieaufwendungen gegen gerechnet. Es wird unterstellt, dass der Aufwand des Umbaus zu (elektrischen) Verbrauchern und der Wirtschaft im Rahmen des Ersatzbedarfes aus dem laufenden Energiebudget erfolgt. Ebenfalls nicht berücksichtigt sind die Energieaufwendungen für Eigenverbrauch, Verluste und Wandlung elektrischer Energie z.B. in synthetische Kraftstoffe (z.B. für Flug- und Frachtverkehr). Die Einsparungen durch den schrittweise möglichen Abbau des fossilen Systems werden berücksichtigt.

Ergebnisse

  • Der Umfang des emissionsfreien Energieversorgungssystem hängt von der Differenz großer Zahlen ab: gewandelte Energie abzüglich Energieaufwand für die Herstellung, Nutzung, Entsorgung und den Ersatz aller erforderlichen technischen Einrichtungen.
  • Die Modellrechnung zeigt, dass die Umsetzung mit heute verfügbaren technischen Lösungen (insbesondere Speicher) einen Energieeinsatz erfordern würde, der über der Energielieferung des emissionsfreien Systems liegen würde.
  • Mit den Annahmen zukünftiger Entwicklungsergebnisse würde sich ein Wandler-Bedarf von ca. 1,8 Mio. WEA (1,5 MW) ergeben. Wegen der Lebensdauer (20 Jahre) müssten dazu ca. 3 Mio. WEA in 40 Jahren errichtet werden. Im Mittel müssten jährlich 2,5-mal so viele WEA errichtet werden wie in den vergangenen 20 Jahren zusammen. Das ergäbe eine Wandler-Dichte von 11 WEA pro km2(Abstand 300 m) über die gesamte Agrarfläche Deutschlands. Die Ausbeute hängt vom Standort, der Dichte WEA/km2und dem Wetter ab. Entsprechend ungünstig wäre die mittlere erzielte Ausbeute.
  • Da ab 2061 die jährliche Nutzung des emissionsfreien Systems etwa soviel Energie benötigt wie Haushalte, Handel, Gewerbe und Dienstleistungen zusammen, muss sie zusätzlich erzeugt werden. Das bedeutet, dass sich die Gesamtmenge des über das Netz zu übertragenden Stromes versiebenfachen würde. Die maximal mögliche Überschussleistung (bei Starkwind) wäre zeitweise bis zu 33-mal so groß wie die maximale Leistung aller heutigen Kraftwerke und müsste den dezentralen Speichern zugeführt werden.
  • Der Energieaufwand für den Aufbau des emissionsfreien Systems in 40 Jahren würde der Lieferung aller heutigen Kraftwerke in 70 Jahren entsprechen. Ab 2027 erzeugt das System im Aufbau erstmalig einen Energieüberschuss und bis 2031 könnten die fossilen Kraftwerke schrittweise stillgelegt werden. Im Jahr 2032 würde die CO2-Emission um ca. 43% unter dem heutigen Wert liegen.
  • Für die Herstellung des emissionsfreien Systems würden in 40 Jahren ca. 4,1 Mrd. t Materialien verarbeitet: für WEA ca. 2,7 Mrd. t (u.a. ca. 660 Mio. t Stahl und Eisen, 50 Mio. t Kupfer, 0,6 Mio. t Aluminium, 40 Mio. t Kunststoffe, 1.900 Mio. t Beton), für Speicher ca. 1 Mrd. t und für Netze ca. 0,4 Mrd. t.
  • Die Kosten für den Aufbau und die Nutzung des emissionsfreien Systems liegen in den ersten 40 Jahren bei ca. 30 Billionen € (Wandler 4 Bio. €, Speicher 25 Bio. €, Netzausbau ca. 0,6 Bio. €) abzüglich ca. 4 Bio. € für das nicht mehr benötigte fossile System.
  • Die laufenden Kosten für Erhalt und Nutzung des emissionsfreien Systems ab dem Jahr 2061 lägen bei ca. 900 Mrd. €/a. Davon abzuziehen sind die Einsparungen für das fossile System in Höhe von ca. 200 Mrd. €/a.
  • Teilt man die Investitionskosten für die jährliche Kapazitätserweiterung (ohne Zinsen) durch die damit während der nächsten 20 Jahre gewandelte Energie, erhält man im Jahr:
    • 2021 (Standort mit einer Wandler-Ausbeute von ca. 30 % an der S-H Westküste, nur WEA und Nutzung, keine Speicher, kein Ersatzbedarf): ca. 0,02 €/KWh.
    • 2031 (WEA, Netze und Speicher, Ausbeute ca. 25%): ca. 0,14 €/KWh.
    • 2041 (WEA, Netze und Speicher, Ersatz, Ausbeute ca. 17%): ca. 0,65 €/KWh.
    • 2061 nach Abschluss des Aufbaus (nur Ersatzinvestition und Nutzung) für die vom System gelieferte Energie: ca. 0,27 €/KWh.
      • Ähnlich sind die Zusammenhänge zwischen gelieferter EE und Vermeidung von CO2. Mit der ersten errichteten WEA könnte man mit einer KWh investierter Energie ungefähr 16 kg CO2in 20 Jahren vermeiden, mit der letzten WEA nur noch ca. 3,4 kg.

Resümee

Modellrechnungen lassen sich mit allen möglichen Kombinationen von technischen Lösungen variieren. Der häufigste Fehler politischer Betrachtungen ist, dass die Energieinvestitionen vernachlässigt werden. Grundsätzliche Erkenntnisse sind:

  • Es gibt keine EE. Es bleibt zudem unerwähnt, dass die enormen Materialressourcen für den Aufbau und die Nutzung des emissionsfreien Systems nicht erneuerbar sind.
  • Die Kosten je gelieferter KWh sinken nicht, sondern steigen mit zunehmendem Ausbau.
  • Je mehr Arbeitsplätze durch das emissionsfreie System entstehen, desto teurer wird es.
  • Für jede zusätzlich vermiedene Menge CO2steigen die Aufwendungen.
  • Komplexe Vorhaben erfordern komplexe Lösungen (Gesetz von John Casti). Das heutige simple Subventionssystem der Energiewende ist ineffizient. Etwa 60% der jährlichen Subventionen bewirken keine CO2-Reduktion.Für jeden in die Energiewende investierten Euro sollte die maximalevermiedene Emissionzugrunde gelegt werden. Auch Energiesparen kostet große Mengen Energie.
  • Erst wenn umsetzbare technische Lösungen vorhanden sind, sollte mit dem weiteren Ausbau eines emissionsfreien Energieversorgungssystems begonnen werden.

Die Langversion der Studie kann hier Struktur der Energiewende _Oktober 2018_ eingesehen werden.

Ähnliche Beiträge:

Schützen Wind, Sonne und Faulgasstromerzeuger das Klima?

Erneuerbare Energien“ beurteilt unter dem Aspekt des „Kosten-Energie-Äquivalenzgesetzes“

Über den Autor;

Prof. Dr. Gonde Dittmer hat Elektrotechnik studiert und wurde in Mathematik promoviert. Danach war er Dozent an der Technischen Universität Darmstadt (Hochfrequenztechnik), Selbständiger Unternehmensberater, Vice President, international tätige Anlagenbaufirma (5.000 Mitarbeiter), Mitglied des Vorstandes, international tätiges Automobilzulieferunternehmen (10.000 Mitarbeiter), Ressort „Technik und Vertrieb“ weltweit, Aufsichtsratsvorsitzender des obigen Unternehmens, Aufsichtsratsvorsitzender eines IT Unternehmens und Professor an der Fachhochschule Kiel (Regelungstechnik, elektrische Antriebe).. und nahm auch noch weitere öffentliche Funktionen wahr. Mehr Details dazu hier

 




Rechnungshof: Vernichtendes Urteil über die „Energiewende“

Krachend gescheitert. Das Urteil des Bundesrechnungshofes überrascht nicht. Außer gigantischen Kosten hat die Energiewende nichts produziert. Das ist nicht sonderlich neu, nur hat das jetzt auch der Bundesrechnungshof in seinem Sonderbericht »Koordination und Steuerung zur Umsetzung der Energiewende durch das Bundesministerium für Wirtschaft und Energie« erhebliche Defizite festgestellt und eine sonderbare Empfehlung ausgesprochen.

»In den letzten fünf Jahren wurden für die Energiewende mindestens 160 Milliarden € aufgewendet.« Die Prüfer haben sich die Strukturen im zuständigen Bundeswirtschaftsministerium angesehen und verpassen dem Minister und seinem teuren Apparat eine deftige Klatsche:

»Allein im BMWi sind 34 Referate in vier Abteilungen damit befasst, die Energiewende umzusetzen. Dazu sind fünf weitere Bundesministerien und alle Länder an der Umsetzung der Energiewende beteiligt. Dennoch hat das BMWi nicht festgelegt, was die Koordination der Energiewende umfasst. Eine gesamtverantwortliche Organisationsform gibt es bis heute nicht.«

Sie listen Details einer horrenden Bürokratie auf: »Es gibt derzeit 26 Gesetze und 33 Verordnungen, die mit teils hohem Detaillierungsgrad Erzeugung, Speicherung, Übertragung, Verteilung und Verbrauch von Energie regeln. Die mit Blick auf die Umsetzung der Energiewende notwendigen Änderungen dieser Normen sind zeitaufwendig. Dies erschwert eine flexible Anpassung von Steuerungsmaßnahmen an die dynamische Entwicklung, die die Energiewende mit sich bringt.«

Welche Energiewenden-Aktion was bewirkt und wieviel sie kostet, weiß niemand im Berlin der Neuzeit. Sie können nichts außer die Infrastruktur eines Landes im Blindflug außer Gang zu setzen und Landschaften mit Windradmüll zerstören. Die Prüfer des Rechnungshofes bringen das Kunststück fertig und fragen nicht zum Beispiel bei Physikern danach, ob solch eine Verrücktheit wie die Energiewende physikalisch-technisch möglich ist, sondern kritisieren nur mangelnde Steuerung. Sie fordern, Wahnsinn mit noch größerem Wahnsinn zu erschlagen: Eine was – natürlich Steuer – könnte helfen, jetzt eben eine auf CO2.Großartig: nicht nur Autos und Heizungen und Atmen, sondern auch jeden Baum, jeden Strauch auf seinen Output an CO2 zu besteu-ern. Denn auch die benötigen nicht nur CO2 als Baumaterial für Stämme, Äste und Blätter, sondern sie geben CO2 ab. Denn es muß ja gerecht zugehen.

Claudia Kemfert, die ständig laut Durchhalteparolen hinausposaunende »Energieökonomin«, hat schon früh (2012) einen CO2 Preis von 60 Euro pro Tonne »ausgerechnet«. Wirtschaftsminister Altmaier lehnt eine solche CO2 Steuer ab. Bisher.

Das Wirtschaftsministerium wiederum weist die Kritik des Bundesrechnungshofes zurück und meint, die EEG-Umlage könnte nicht den Kosten der Energiewende zugerechnet werden. Also das, was für den Stromverbraucher die exorbitanten Kosten ausmacht, seien keine Kosten der Energiewende. Auf so etwas kommt man nur noch in Berlin.

In Bonn beim Bundesrechnungshof wiederum befürchtet man Staatsversagen, sollte es so weitergehen mit der Energiewende: »Steigen die Kosten der Energiewende weiter und werden ihre Ziele weiterhin verfehlt, besteht das Risiko des Vertrauensverlustes in die Fähigkeit von Regierungshandeln.«

Als ob es das überhaupt noch gibt. Nur noch die letzten Hardcore Grünen glauben an die Notwendigkeit einer Energiewende, träumen immer noch davon, dass es notwendig ist, CO2 zu reduzieren und diesem Ziel alles unter zu ordnen. 160 Milliarden € mir nichts dir nichts verpulvert. Auf der anderen Seite ist Strom zum Luxusgut avanciert und zur Mangelware verkommen. Zu teuer, zu schlechte Qualität beeinträchtigt empfindliche Steueranlagen in der Industrie, Unternehmen verlagern energieintensive Produktion ins Ausland.Dennoch, das ist das Erstaunliche, glauben viele Bürger an die Notwendigkeit und Machbarkeit einer Energiewende – befeuert von öffentlich-rechtlichen Propagandasendern, die diese Ideologie in die Köpfe blasen und jubeln, wenn die EU Klimaziele erhöhen und Treibhausgase senken will.

Es ist eine Mafia, an der zu viele mit verdienen, vor allem auch viele Politiker, die sich wie in Kassel über Windkraft die Taschen voll machen mit ihren politischen Entscheidungen, Wälder für Winterräder abzuholzen.

Nachtrag der EIKE Redaktion:

Zwei wesentliche Probleme geht der umfangreiche Rechnungshofbericht überhaupt nicht an.

  1. Er stellt nicht die Frage, um wie viel Grad denn die globale Mitteltemperatur sinken würde, wenn Deutschland seine CO2 Senkungsziele erreicht hätte. Täte e das, was mit 100 % Sicherheit zu seinen primären Aufgaben gehört, dann käme der ganze Irrsinn der „Energiewende“ noch viel plastischer zutage. Nur die AfD hat sich bisher dieser Frage dahingehend angenommen, dass sie die -nur hypothetische- Minderung des Anstiegs der globalen Mitteltemperatur für 100 % Minderung des deutschen Anteiles anhand vorliegender IPCC Werte und nach der gängigen Formel für diese Minderung berechnet hat. Es sind nur 0,000.653 °C; irgendwann in ferner unbestimmter Zukunft. Den AfD Antrag finden Sie hier in dem der Rechenweg angegeben ist

  2. Völlig unerwähnt bleibt auch die Tatsache, dass es mit der einfachen Aufsummierung der bis jetzt entstandenen Kosten seit dem Jahre 2013 bei weitem nicht getan ist. Denn das EEG gibt es bereits seit dem Jahre 2000 und es verpflichtet die Versorger mit Vorrang den per EEG erzeugten Strom auf 20 Jahre zum anfangs festgelegten Preis in jeder lieferbarbaren Menge abzunehmen. „Planungssicherheit“ nennen das zynisch die Protagonisten der Energiewende“ Zwangswechselschulden nennt man das als Normalsterblicher. Bis 2013 hat allein das EEG den FakeEnergiebetreibern 100 Mrd € in die Taschen gespült. Die kommen auf die genannten 160 Mrd € noch drauf. Insgesamt sind das bis Ende 2017 also bereits 260 Mrd €. Für buchstäblich nichts! Schlimmer jedoch sind die heute bereits entstandenen zukünftigen Zahlungsverpflichtungen, die das EEG erzeugt. Es sind für die nächsten 20 jahre allein durch das EEG ca. 765 Mrd. €. D.h wenn ab sofort keine einzige FakeEnergieanlage hinzugebaut würde, das Ausscheiden der bald 20 jährigen Fördermengen bereits berücksichtigt. Kostet uns die jetzt bereits gezahlte und noch kommende Förderung rd. 1 Billion €. Im Jahre 2022 erhöhte sich die Summe auf dann knapp 1,4 Billionen.

Der Beitrag erschien zuerst bei TE hier




Energie aus Kohle wird weiter benötigt, während die Energiewende implodiert

Deutschlands Grünes Energiedebakel: Der Selbstbetrug bei der Energiewende

NoTricks Zone, Pierre Gosselin
9. September 2018

Deutschland galt früher als weltweit führend beim Übergang zu erneuerbaren grünen Energien, der CO2 Minderung wegen – insbesondere mit Wind- und Solarenergie – ein Projekt, das als „Energiewende“ bezeichnet wird. Aber, Deutschland ist hinter dem Rudel zurückgefallen.

Ironischerweise sind die USA weltweit führend in der Reduzierung von CO2!

 

 Rheinische Post (RP) „der Selbstbetrug bei der Energiewende“

Die Düsseldorfer Tageszeitung schreibt, es sei an der Zeit, dass Deutschland „unbequeme Wahrheiten“ bezüglich grüner Energien anspricht und dass pragmatisches (und nicht ideologisches) Handeln nötig ist.

Der grüne, kultartige Traum, der jetzt mit der harten Realität kollidiert

Jahrelang versprachen die deutsche Regierung, Aktivisten und alarmierende Wissenschaftler, dass grüne Energien – vor allem Wind und Sonne – reichlich, billig und sauber seien. „Hurra!“ Riefen sie alle jubilierend.

Doch heute räumt die RP in ihrem Kommentar ein, dass „die Realität völlig anders aussieht“ und dass „eine enorme Anstrengung“ erforderlich ist, nur um die Stromnetze stabil zu halten, da immer wieder unvorhersehbare grüne Stromstürme in das Stromnetz gelassen werden müssen.

Laut RP haben die Notstromnetzeingriffe der Netzbetreiber die Stromverbraucher im vergangenen Jahr 1,4 Milliarden Euro gekostet. Deutsche Haushalte zahlen inzwischen 47% mehr für ihren Strom als der Durchschnitt der EU.

Energiewende: „riskant, ineffizient und teuer“

Und was haben die deutschen Verbraucher im Gegenzug für die zusätzlichen Schmerzen im Hinblick auf Klima und CO2-Emissionen bekommen? Nichts.

Die deutschen CO2-Emissionen stagnieren (dh. Sie sind nicht gesunken). Und RP: „Der deutsche Übergang zu grüner Energie ist in der Realität riskant, ineffizient und teuer.“

Energiewende „entgleist“

Die RP kommentiert, dass fettgedruckte Schlagzeilen über neue Rekordmengen an umweltfreundlicher Energie [aufs Jahr gerechnet] nichts an der scheiternden grünen Energiewende ändern und stellt fest, dass obwohl grüne Energien 37% des Bruttoanteils am Bruttostromverbrauch ausmachen, diese Energien nur 13 Prozent des gesamten deutschen Energiemixes ausmachen!

Der RP fragt: „Wie konnte das deutsche Flaggschiffprojekt so  entgleisen?“

Die Deutsche Abhängigkeit von Kohle „ist zementiert für die kommenden Jahre“

Der Hauptgrund für das Scheitern, so schreibt die RP, sei der panische Drang der Deutschen, die Atomenergie im Kielwasser der japanischen Atomkatastrophe von Fukushima inmitten einer tief verwurzelten, kollektiven und jahrzehntelangen deutschen Abneigung gegen die Atomkraft zu verlassen. Dies führte dazu, dass die deutsche Regierung die Hälfte ihrer Kernkraftwerke über Nacht stilllegte und blind in einen raschen, ungeplanten Ausbau von Wind- und Solarenergie eintauchte.

Die Entscheidung, so schreibt die RP, sei von dem Ziel getrieben, die Kernkraft stillzulegen und nicht CO2 zu reduzieren.

Das Ergebnis, kommentiert RP: „Leider stehen beide Ziele in direktem Widerspruch. Der politisch gewollte Ausstieg aus der Kernenergie hat unsere Abhängigkeit von Kohle für die kommenden Jahre gefestigt. Deren Anteil beträgt immer noch 42 Prozent. “

Die RP kommentiert dann, dass, wenn Deutschland wirklich ernsthaft CO2 reduzieren würde, das Land seine verbleibenden Kernkraftwerke, die keine Treibhausgasemissionen produzieren, nicht stilllegen dürfte.

Grüne Energien „eine naive Illusion“

Die RP schreibt auch, Deutschland sollte seine Bemühungen überdenken, „Dieselmotoren zu dämonisieren“, die eine erheblich bessere Kraftstoffeffizienz als Benzinmotoren haben. Der Schritt zur Eliminierung von Dieselmotoren wird die CO2-Reduzierung erschweren. Auch stellt RP fest, dass Elektroautos „keine Alternative“ in Bezug auf CO2 sind.

100% erneuerbare Energien „eine naive Illusion“

Der RP bezeichne die Idee, den gesamten deutschen Energiebedarf durch erneuerbare Energien abzudecken,  als „eine naive Illusion“ und erwartet, dass das Land akzeptieren müsse, dass es auch langfristig auf fossile Brennstoffe angewiesen sein werde.

Auch die kollektiv naiven Deutschen müssen sich im Allgemeinen realistisch und ernsthaft darüber äußern, was zu 100% umweltfreundlich ist.

Die RP schreibt weiter:

Wer Solarzellen auf dem Dach montiert hat und dann gedankenlos in den Urlaub auf den Malediven fliegt, hat das Problem nicht verstanden.

Die Öffentlichkeit ist auch gegen CCS

Schließlich kommentiert die RP andere mögliche technische Lösungen, die dazu beitragen könnten, die Reduzierung von CO2 erträglich zu machen, nämlich die CCS-Technologie zu subventionieren. Eine große Anzahl von Deutschen ist jedoch auch gegen diese Technologie.

Wie die Dinge zeigen, wird Deutschland niemals in der Lage sein, seine CO2-Reduktionsziele zu erreichen.

No Tricks Zone

 

Auch eine andere deutsche Zeitung schreibt nicht mehr so euphorisch

Kommentar in der ‚Die Welt‘: „Europa kann die deutsche Stromversorgung nicht retten“

NoTricks Zone, Pierre Gosselin
11. September 2018

Deutschland hat stark überschätzt, wie sehr seine Nachbarländer im Falle von Windstille- und Dunkelheit aushelfen könnten und damit bleibt die Energieversorgung in Deutschland gefährdet.

… Bislang machen Kernkraft und Kohlekraft noch den Löwenanteil bei der stabilen Grundlaststromversorgung in Deutschland aus.

„Eine gefährliche Fehlkalkulation“

Offenbar haben sich die deutschen Behörden jedoch gründlich verrechnet: Der Journalist Daniel Wetzel von der Welt schreibt unter Berufung auf eine aktuelle Studie: „Europa kann die deutsche Stromversorgung nicht retten“ Denn „kaum ein Nachbarland hat noch zusätzliche (überschüssige) Energiekapazität“ … die deutsche Strategie ist … eine gefährliche Fehlkalkulation.

Im Jahr 2014 ging das deutsche Wirtschaftsministerium davon aus, dass das Land sich auf 60 Gigawatt Überkapazitäten in verwandten Nachbarmärkten in Europa verlassen könnte, … diese Zahl ist um den Faktor 3 bis 4 überhöht. An windstillen und sonnenlosen Tagen kann Deutschland am Ende erhebliche Mengen an Energie vermissen.

… Er fügt hinzu, dass, da jedes europäische Land bestrebt ist, mehr Wind- und Solarkapazität hinzuzufügen, mehr ihrer Grundlastkraftwerke ebenfalls abgeschaltet werden, was die Situation nur verschlimmert, wenn Sonne und Wind nicht auftauchen. Der Punkt kommt schnell, wo es keine ausreichende Grundlastkapazität geben wird, um das Netz stabil zu halten.

Eine Lösung … wäre die Installation von gasbefeuerten Stromerzeugern, damit sie in Zeiten schwacher Wind- und Solarenergie befeuert werden können:  … nur “Neue Gaskraftwerke werden jedoch nirgendwo gebaut, weil die Refinanzierung unter den Bedingungen der Energiewende erscheint als zu riskant „, berichtet Wetzel.

… Kurz gesagt, wenn Europa seine Wind- und Solarkapazität ausbaut, wird mehr Grundlastkapazität benötigt. Aber anstatt diese hinzuzufügen, reduziert Europa und macht dadurch die Versorgung und das Netz instabil.

Was Deutschland betrifft, so dämmert es der Politik immer mehr, dass die Gestaltung der Energieinfrastruktur am besten durch Experten der Elektrotechnik vorgenommen werden sollte und nicht von klimaschädlich besessenen Politikern und grünen Aktivisten, die denken, dass so komplexe Systeme ad hoc aufgebaut werden können .

Der Preis dieses schlampigen politisierten Ansatzes könnte mittelfristig sehr schmerzhaft werden.

No Tricks Zone

Gefunden auf Stopthesethings vom 20.09.2018

Übersetzt durch Andreas Demmig

https://stopthesethings.com/2018/09/20/merkels-muddle-coal-keeps-powering-on-as-germanys-renewable-energy-transition-implodes/




Naturgesetzliche Schranken der Energiewende

Vorbemerkung

Jede rationale Berichterstattung über die Energiewende – befürwortend oder ablehnend – kommt an technischen Details nicht vorbei. Nur Grünsprech setzt auf puren Glauben und punktet damit bei schlichten Gemütern. Technische Details Laien zu vermitteln ist aber mühsam und oft erfolglos. Mein diese Problematik umgehender neuer Ansatz besteht darin, ausschließlich die grundsätzlichen, naturgesetzlich bedingten Schwächen der Energiewende zu beleuchten, welche diese Aktion früher oder später unabdingbar scheitern lassen. Ziele sind bessere Verständlichkeit für Laien und die erkennbare Unwiderlegbarkeit der Argumentation.

Der vorliegende Beitrag wurde durch die positive Resonanz meines Vortrags „Klimaschutz und Energiewende: vereinbar mit Naturgesetzen und Wirtschaftlichkeit?“ an der sächsischen Akademie für Wissenschaften (SAW) in Leipzig am 13.10.2017 vor einem hochrangigen naturwissenschaftlichen Fachpublikum angeregt. Die schriftliche Ausarbeitung des Vortrags erschien dann in der „Naturwissenschaftlichen Rundschau“, dem Organ der Gesellschaft Deutscher Naturforscher und Ärzte, im Juni-Heft 2018, 71. Jahrgang. Hier in den EIKE-News nun die eigene Form mit sachlich unverändertem Inhalt.

1. Die deutsche Energiewende

Die Bundesregierung plante ursprünglich, bis zum Jahr 2050 gegenüber 2008 den Stromverbrauch um 25% zu senken, den Anteil an erneuerbaren Energien am Bruttostromverbrauch auf 80% zu erhöhen, die Treibhausgasemissionen um 80 bis 95% zu verringern und die Zahl der Elektroautos auf 6 Millionen zu steigern. Aktuell sind diese Zielstellungen verändert und unverbindlicher im Koalitionsvertrag festgehalten [1].

Das Vorhaben, als „Energiewende“ bezeichnet, soll mit Strom aus Wind, Sonne und Biomasse realisiert werden, im Folgenden kurz „Erneuerbare“ genannt (die Bezeichnung ist sachlich falsch, hat sich aber durchgesetzt). Die Energiewende betrifft praktisch nur elektrischen Strom. Elektrische Energie macht aktuell (2017) etwa 1/6 der deutschen Primärenergie aus [2]. Sie ist die wichtigste, weil unverzichtbare Energieform für jede moderne Industriegesellschaft. Strom ist nur ein Medium, um Energie zu transportieren. Er wird aus einer anderen Energieform erzeugt und beim Verbraucher in die jeweils benötigte Energieform umgewandelt. Elektrische Energie kann man in größerem Umfang nur über verlustreiche und kostspielige Umwege speichern, etwa mit Pumpspeicherwerken oder Batterien. Das Stromnetz selber ist kein Speichermedium. Ohne Speicherung muss Strom zum Zeitpunkt seiner Erzeugung sofort verbraucht werden.

Die Energiewende hat mit erheblichen Problemen zu kämpfen. Trotz im Jahre 2017 über 28.000 installierter Windturbinen, deren Nennleistung bereits alle ehemaligen deutschen Kernkraftwerke übertrifft [3], macht verbrauchter Windstrom dennoch nur etwa 3% der deutschen Primärenergie aus, Sonnenstrom und Strom aus Biomasse jeweils etwa 1% [2}. Mehr als 1000 Bürgerinitiativen wenden sich gegen die Beeinträchtigung ihrer Naturumgebung durch Windturbinen sowie gegen gesundheitsschädlichen Windrad-Infraschall. Weiterer Windrad-Ausbau lässt daher zunehmenden gesellschaftlichen Widerstand erwarten.

Deutschland hat heute die höchsten Strompreise Europas [4]. Behörden ergreifen inzwischen Maßnahmen gegen großräumige Stromausfälle, weil die Wahrscheinlichkeit gefährlicher Blackout-Ereignisse [5] infolge des zunehmenden Fluktuationsstroms aus Wind und Sonne ansteigt. Dem Fluktuationsproblem von Wind- und Sonnenstrom wird mit aufwendigem Zu- und Abschalten von schnell reagierenden Gaskraftwerken begegnet (GuD Backupkraftwerke). Das für die Netzstabilität notwendige Vorhalten von fossilen Backupkraftwerken, deren Leistung der Gesamtleistung der fluktuierenden Erneuerbaren entspricht, ist zu einem maßgebenden Kostenfaktor der Energiewende geworden.

Sind die Gründe für die Energiewendeprobleme falsches Management, unzureichende Planung oder technische Unzulänglichkeiten? Zu diesen Fragen gibt es bereits reichhaltige Literatur. Der renommierte Ökonom Prof. Hans-Werner Sinn hat erst jüngst wieder eine kritische Studie zur Energiewende vorgelegt [6]. Grundsätzlich unterliegen die „Erneuerbaren“ und damit die Energiewende zwei naturgesetzlich bedingten Fundamentalmängeln. Der wichtigste wird dabei oft unterschätzt, den Medien ist er so gut wie unbekannt. Mit ihm wird sich der vorliegende Beitrag vorwiegend befassen. Ein naturgesetzlich bedingter Mangel ist durch keine technische Maßnahme zu beseitigen. Der Versuch, dies dennoch zu erzwingen, führt zu extremen Kosten und oft auch hohen Umweltbelastungen.

Energie ist der maßgebende Kostenfaktor industrieller Produktion, und alle Industrienationen befinden sich im globalen Wettbewerb. Nicht einmal ein momentan auf ersten Plätzen dieses Wettbewerbs stehendes Land hat die Garantie, nach nachhaltigen Fehlentscheidungen in seiner Energiepolitik auch dort zu verbleiben. Im Folgenden wird dargelegt, warum die beiden Fundamentalmängel der „Erneuerbaren“ eine unvermeidbare Konsequenz elementarer Naturgesetzlichkeiten sind. Die beiden Fundamentalmängel und ihre naturgesetzlichen Gründe sind zwar den Fachleuten geläufig, nicht aber in erkennbarer Weise den politischen Verantwortlichen.

2. Energiebedarf im Verlauf der Menschheitsgeschichte

Der tägliche Energiebedarf eines Erwachsenen hat sich im Laufe der Menschheitsgeschichte laufend erhöht. Er betrug um die 8 kWh bei Jägern und Sammlern der Steinzeit, etwa 30 kWh im Mittelalter und ist auf über 200 kWh in modernen Industriegesellschaften angestiegen [7]. Jäger und Sammler deckten ihn noch mit Feuerholz, im Mittelalter kamen Landwirtschaft, Zugtiere sowie Wasserräder und Windmühlen hinzu.

Heute (2015) wird der Energiebedarf der Menschheit zu insgesamt 81,4% von Kohle, Erdöl und Gas gedeckt (s. Bild 1).

Bild 1: Weltenergieverbrauch in Methoden-Anteilen im Jahre 2015, erstellt nach den Daten der IEA [11]. Holz- und Holzkohle (hier unter Biobrennstoffe) stellen mit dem 3,75-fachen der Windenergie zumindest in der EU den größten Anteil an den „Erneuerbaren“ [8]. Da insbesondere die erhältlichen globalen Werte in der Regel nur Schätzungen sind, können unterschiedliche Quellen voneinander abweichende Werte in den Methoden-Anteilen angeben.

Der Rest kommt aus Uran 4,9%, Wasserkraft 2,5%, Biobrennstoffen 9,7% und den „Erneuerbaren“ Wind, Sonne, Geothermie, Gezeitenergie etc. 1,5%. An dieser Zusammensetzung wird sich auch in den nächsten Jahren kaum Wesentliches ändern [8]. Wind- und Sonnen-Energie spielen weltweit nur eine verschwindende Rolle. In Deutschland würden sie bei freien Marktverhältnissen (keine Subventionen, keine gesetzliche Zwangseinspeisung von Sonnen- und Windstrom etc.) wegen ihrer zu hohen Kosten, verglichen mit Kohle oder Uran, nicht vorkommen (s. auch Bild 2 im Abschnitt 5.).

Allein die Umlagen zur Förderung der „Erneuerbaren“ gemäß dem Erneuerbare-Energien-Gesetz (EEG) belasten die deutsche Volkswirtschaft und Verbraucher heute mit 30 Milliarden Euro pro Jahr [9]. Bei der Nutzung der „Erneuerbaren“ Wind, Sonne und Biomasse kommt zumindest in Windturbinen und Photovoltaik modernste Technik zum Einsatz. Diese Modernität verstellt freilich den Blick auf die naturgesetzlichen Schwächen dieser Stromerzeugungsmethoden. Die Energieversorgung im Mittelalter liefert für diese Schwächen ein Anschauungsbeispiel.

Die ab etwa 700 n.Chr. einsetzende Klimaerwärmung mit ihrem Höhepunkt um das Jahr 1000 ließ Ernteerträge und Bevölkerungszahlen ansteigen. Es wurden riesige Waldflächen für den benötigten Ackerboden gerodet, bis 1400 verschwanden dadurch zwei Drittel des deutschen Waldes. Die erfor-derliche Ackerfläche zur Ernährung einer Person war um ein Vielfaches größer als heute. 90% der gesamten Bevölkerung waren Bauern oder anderweitig in der Landwirtschaft beschäftigte Menschen [10]. Der Aufwand an menschlicher Arbeit, Zugtieren und Ackerflächen für die Landwirtschaft war kaum noch zu steigern. Daher war es im Spätmittelalter bei einsetzender Klima-Abkühlung und schlechteren Ernten nicht mehr möglich, die stark angewachsene Bevölkerung noch ausreichend zu ernähren. Es begann die Zeit der Hungersnöte, verstärkt durch Seuchen und Pest. Zwischen dem Jahre 1000 und Ende des 19. Jahrhunderts wurden in Westeuropa 400 Hungersnöte registriert.

Erst der dank neuzeitlicher Chemie mögliche Einsatz von Düngern und Schädlingsbekämpfungsmitteln und die Mechanisierung der Agrarwirtschaft durch Verbrennungsmaschinen konnte die Nahrungsversorgung der Bevölkerung auf eine sichere Basis stellen. Heute ernährt ein Landwirt in Deutschland etwa 130 Mitbürger. Der Anteil der Landwirtschaft am Energieverbrauch der deutschen Gesamtwirtschaft beträgt heute nur noch 1,3% [12].

Um die mittelalterliche Energieerzeugung mit Hilfe riesiger Ackerflächen und einem extrem hohen menschlichen Arbeitsaufwand zu verstehen, sind die physikalischen Größen Energiedichte und Leistungsdichte geeignet. Die zentrale Bedeutung dieser beiden Größen auch für die heutigen Verhältnisse wird im folgenden Abschnitt an Hand von Beispielen verdeutlicht.

3. Das Problem der Leistungsdichte

Der russische Eisbrecher Arktika wird von zwei kleinen Kernreaktoren an Bord mit einer Gesamtleistung von 55 MW angetrieben [13]. Wollte man die Arktika mit Photovoltaik anstatt mit Uran betreiben, wären rechnerisch 5,5 Quadratkilometer Photovoltaik-Fläche erforderlich, die etwa 10 W Leistung pro m2 Solarpanelenfläche liefert. Mit Windstrom an Stelle von Uran wären 42 Windturbinen des Typs Enercon E 126 erforderlich, jede 198 m hoch und mit einer realen Leistung von 1,3 MW (den fiktiven Antrieben der Arktika liegen die deutschen Jahresmittelwerte von Wind- und Sonnenstrom zugrunde). Eine wind- oder sonnenbetriebene Arktika wäre zudem bei Flaute oder Wolkenbedeckung nicht fahrtüchtig, aber dies soll hier keine Rolle spielen. Die Frage nach den Gründen für den extrem hohen Aufwand der beiden „Erneuerbaren“ Wind und Sonne für den Antrieb der Arktika beantwortet die Leistungsdichte

Leistungsdichte = Leistung / Fläche            (1)

oder

Leistung = Leistungsdichte x Fläche            (2)

Auf der linken Seite von Gleichung (2) steht für alle drei Antriebsarten der Arktika der gleiche Wert von 55 MW. Die Faktoren der rechten Seite der Gleichung zeigen dagegen entscheidende Unterschiede zwischen Uran, Wind und Sonne. Kernreaktoren haben eine sehr hohe Leistungsdichte, sie bringen höchste Leistung auf minimaler Fläche. Man baut sie sogar seit Jahrzehnten in U-Boote ein. Sonne und Wind haben dagegen, naturgesetzlich bedingt, nur minimale Leistungsdichten. Entsprechend muss die Photovoltaik-Fläche beim Solarantrieb oder die von den Windradpropellern überstrichene Fläche beim Windradantrieb extrem groß sein, damit das Produkt in Gleichung (2) noch die hier benötigten 55 MW ergibt. Die folgende Tabelle 1 zeigt Grobwerte von Leistungsdichten.

Tabelle 1: Leistungsdichten unterschiedlicher Methoden zur Erzeugung von elektrischem Strom, angegeben in W/m2 des Endprodukts „elektrische Energie“ unter Einbeziehung der jeweiligen Methoden-Wirkungsgrade.

Die in Tab. 1 zu erkennenden Unterschiede der Leistungsdichten von Wind, strömendem Wasser und Kohle sind unschwer zu veranschaulichen: So kann man sich noch gegen einen Sturm von 20 m/s (72 km/h) Windgeschwindigkeit stemmen, dagegen in einen reißenden Wildfluss von weit weniger als 20 m/s Fließgeschwindigkeit zu geraten, endet oft tödlich. Auch der Unterschied zwischen der in unsere Haut eindringenden Leistung beim Sonnenbad und der in ein Steak eindringenden Leistung auf einem glühenden Holzkohlengrill ist anschaulich. Letztere ist tausendfach höher als die auf der Schwimmbadwiese.

Der Schwachpunkt der mittelalterlichen Energieversorgung wird nun deutlich. Es handelt sich um Methoden kleinster Leistungsdichten, die mit riesigen, ertragsschwachen Ackerflächen und hohem Aufwand an menschlicher Arbeitskraft und Zugtieren einen bei günstigem Klima gerade noch ausreichenden Ertrag lieferten. Eine Windturbine, obwohl ausgestattet mit modernster Technik, ist wegen der minimalen Leistungsdichte des Windes dennoch nichts anderes als ein Rückschritt zu den mittelalterlichen Methoden der Windmühle und des Segelschiffs. Um strömender Luft ausreichend Energie zu entnehmen, benötigen Windräder riesige Propeller. Zu geringe Leistungsdichte des Windes ist der Grund für die Mammut-Ausmaße dieser Anlagen, wenn man davon absieht, dass Windgeschwindigkeiten mit zunehmender Höhe etwas ansteigen. Nicht umsonst haben unsere Vorfahren Segelschiffe zugunsten des Dampf- und späteren Dieselantriebs freudig aufgegeben.

Das hier betonte „naturgesetzlich“ bedeutet, dass wir auf die Leistungsdichten von Wind und Sonneneinstrahlung keinen Einfluss haben. Lediglich die Ernteerträge von Energiemais lassen sich mit moderner Gentechnik und Düngung geringfügig erhöhen. Die Natur selber setzt die Grenzen, auch beste Technik ist gegen zu geringe Leistungsdichten machtlos. Aus einer Pferdekutsche wird auch mit heutiger Computersteuerung und modernster Mechanik kein leistungsstarkes Motorfahrzeug.

Erstaunlich erscheinen in Tabelle 1 die grob 10 W/m2 gemittelte Leistungsdichte aus Photovoltaik in Deutschland. Am oberen Rand der Erdatmosphäre kommen schließlich 1367 W/m2 an. Verantwortlich für den kleinen Wert am Boden ist vor allem der durch Wolken unterbrochene und bei Nacht völlig fehlende Strahlungsfluss. Hinzu kommt, dass die Wirkungsgrade kommerzieller Photovoltaik nur bei grob 10% liegen [14], die Oberflächen der meist fest installierten Solarpanelen nicht dauernd optimal auf die Sonne ausgerichtet sind und vor allem der Wirkungsgrad von Photovoltaikzellen mit steigender Temperatur abnimmt [15].

Neben der Leistungsdichte ist auch die Energiedichte als Energie pro Volumen oder pro Gewicht eine maßgebende Größe. Das Reichweiteproblem von Elektroautos wird mit ihr verständlich. Benzin hat nach Abzug der Wirkungsgradverluste eine Energiedichte von rund 4 kWh/kg, ein Lithium-Ionen-Akku (pur betrachtet) dagegen von 0,18 kWh/kg [16]. Ein Elektroauto muss daher grob das 4/0,18 = 22-fache Treibstoffgewicht eines Benziners mit sich führen. Da heute etwa 71% der Güter in Deutschland (oft über weite Strecken und mit engen Zeitvorgaben) auf der Straße transportiert werden [17], ist zumindest eine Umwandlung von LkW-Antrieben auf Strom unrealistisch. Hier sind nicht nur das zusätzlich zu transportierende Treibstoffgewicht in Form von Akkus sondern auch die langen Ladezeiten der Batterien die maßgeblichen Hinderungsgründe. Elektroautos sind nur für die Stadt eine sinnvolle Option.

4. Leistungsdichte und Wirkfläche

Bei zu kleiner Leistungsdichte sind sehr große Wirkflächen der betreffenden Methoden erforderlich. Dementsprechend steigt der Aufwand an Energie, Material und Kosten bei Bau und Betrieb. Die folgenden Daten der Großwindanlage Enercon E 126 liefern ein stellvertretendes Beispiel: 198 m Gesamthöhe, überstrichene Propellerfläche 12470 m2 = 1,247 ha, Gewicht 3460 t plus 3500 t Stahlbetonfundament [18]. Drei E 126 haben somit das Gesamtgewicht aller 300 Leopard2 – Panzer von je 68 t der deutschen Bundeswehr [19]. Trotz 7,5 MW Nennleistung liefert die E 126 im bundesdeutschen Orts- und Jahres-Mittel nur 1,3 MW elektrische Leistung. Dies entspricht grob 7 Automotoren von je 200 kW.

Neben der geringen Leistungsdichte des Windes gibt es weitere methodenspezifische Gründe für die erstaunlich geringe Leistungsausbeute aus Wind, die im Abschnitt 9. näher erläutert werden. Man müsste schon mehr als 100 km Windturbinen in den strömungstechnisch erforderlichen Mindestabständen hintereinanderstellen, um die gleiche jahresgemittelte Leistung wie ein einziges großes Kohle- oder Kernkraftwerk zu erzielen. Zudem fluktuiert die aus Wind gewonnene Leistung, die von fossilen Kraftwerken ist dagegen konstant. Windturbinen, inzwischen höher als der Kölner Dom, erweisen sich wegen ihrer zu geringen Leistungsdichte und der sich daraus ergebenden gigantischen Abmessungen als schädlich für die Umwelt. Landschaftsentstellungen, mögliche gesundheitliche Schädigung von Windrad-Anrainern durch Infraschall [20] und das jährlich hunderttausendfache Töten von Vögeln und Fledermäusen sind zu nennen. Fledermäuse können zwar durch ihre Ultraschallortung den hohen Tangentialgeschwindigkeiten der Rotorblätter entkommen, die Luft-Druckstöße zerreißen ihnen aber die Lungen.

Nicht thematisiert und daher der Öffentlichkeit völlig unbekannt sind die bei intensivem Einsatz von Windturbinen erzeugten schädlichen Klimaveränderungen der tiefen Atmosphäre [21]. Die oft auf Hausdächern installierte Photovoltaik ist dagegen umweltneutral, sieht man von Umweltproblemen durch giftige Metalle (Cadmium) bei der Entsorgung von Solarzellen ab [22]. Beim Energiemais gibt es das Problem der zerstörten Artenvielfalt auf Energiemaisfeldern [23]. Zusammengefasst gilt die Regel:

Je kleiner die Leistungsdichte einer Methode zur Stromerzeugung ist, umso größer müssen die Wirkflächen der Methode sein und umso aufwendiger und kostspieliger ist die Methode.

Die Stromerzeugung mit Hilfe von Windturbinen und Energiepflanzen ist wegen deren extrem großen Wirkflächen zudem mit hohen Umweltschäden verbunden.

Physikalische Überlegungen zeigen, dass technischer Fortschritt bei gleichzeitigem Umweltschutz nur mit immer größeren Leistungsdichten in Stromerzeugung, Produktion, Verkehr etc. zu erreichen ist, was sich an den technikgeschichtlichen Entwicklungen belegen lässt. Die benötigte Energie für eine anwachsende Bevölkerung bei gleichzeitig zunehmendem Lebensstandard kann wirtschaftlich und umweltschonend nur mit den jeweils verfügbaren Methoden höchster Leistungsdichte bereitgestellt werden. „Erneuerbare“ sind für moderne Industrienationen ungeeignet, können aber vorübergehend in Ländern der Dritten Welt durchaus sinnvoll sein. Die größten Umweltschäden sind heute in Entwicklungsländern zu finden, die den Weg zu höheren Leistungsdichten noch nicht beschreiten können. Das oft in den Medien betonte „sanft“, mit dem „Erneuerbare“ als vorteilhaft und umweltschonend dargestellt werden sollen, stellt die Fakten komplett auf den Kopf. Es verhält sich genau umgekehrt: Je „sanfter“ eine Methode zur Erzeugung von elektrischer Energie ist, umso kostspieliger und oft umweltschädlicher ist ihre Anwendung.

5. Erntefaktor – ein Maß für Energieeffizienz

Der Erntefaktor, englisch ERoEI (Energy Returned on Energy Invested), ist eine Größe, die es erlaubt, die Energieeffizienz unterschiedlicher Methoden zur Stromerzeugung zu quantifizieren. Vereinfacht ausgedrückt ist er das Verhältnis der gesamten, während der Lebenszeit einer Methode zur Stromerzeugung erzeugten elektrischen Energie zur derjenigen Energie, die für ihren Betrieb selber aufgewendet werden musste, inklusive des erforderlichen Energieaufwands, um die benötigen Brennstoffe zu fördern und bereitzustellen und die nötigen Anlagen zu errichten.

Bild 2: Erntefaktoren für Methoden der Stromerzeugung gepuffert, d.h. der Fluktuationsausgleich von Sonne und Wind ist berücksichtigt [24]. Sonne, Energiemais (Biomasse) und Wind liegen unter der ökonomischen Schwelle von OECD-Ländern.

Der ERoEI ist ein Energiemultiplikator. Man investiert eine Kilowattstunde und erhält ein Vielfaches zurück, natürlich nur bei ERoEI > 1, sonst wäre es ein Verlustgeschäft. Im Jahre 2012 wurde über den ERoEI eine grundlegende Studie publiziert, auf die sich die Aussagen des vorliegenden Beitrags stützen [24]. Neben der Bedingung ERoEI > 1 gibt es noch die Forderung ERoEI > 7, denn unterhalb von 7 ist eine Methode volkswirtschaftlich nicht mehr sinnvoll. Zur Begründung des Faktors 7 wird auf die Originalarbeit verwiesen. Das Bruttosozialprodukt sowie eine Energieverbrauchs-Technologie nach Kriterien der OECD gehen dort in die wissenschaftliche Herleitung ein.

Bei der Berechnung des ERoEI für Wind- und Sonnenstrom wird auch der Energieaufwand zur Pufferung des fluktuierenden Zufallsstroms berücksichtigt, weil fluktuierender Strom zur direkten Einspeisung in ein Stromnetz ungeeignet ist. Auf diesen zweiten Fundamentalmangel der „Erneuerbaren“ Wind und Sonne wird in Abschnitt 9. eingegangen. Bild 2 zeigt den ERoEI für die wichtigsten Methoden zur Erzeugung von elektrischem Strom.

6. Leistungsdichte bezogen auf Landschaftsfläche

Zur Angabe einer Leistungsdichte gehört die Spezifizierung der Fläche. An Stelle der in Tabelle 1 in Abschnitt 3 für Leistungsdichten angegebenen Wirkflächen sind Landschaftsflächen oft aussagekräftiger. Wählt man Landschaftsfläche, ändert sich bei der Photovoltaik nur wenig. Wenn sich Photovoltaik auf Hausdächern befindet, verbraucht sie sogar überhaupt keine Landschaftsfläche. Für Energiemais beträgt die Leistungsdichte, bezogen auf die Anbaufläche [25], grob 0,2 W/m2.

Dieser extrem kleine Wert lässt fragen, wie viel Anbaufläche rechnerisch benötigt würde, um ausschließlich mit Energiemais den gesamten Inlandsstrom Deutschlands (in 2016) zu erzeugen: Pro Quadratmeter beträgt die Jahresenergiedichte von Energiemais 0,2 W/m2 · 8760 h = 1752 Wh/m2. Der Inlandsstromverbrauch Deutschlands in 2016 betrug [4] 593 TWh = 593 · 1012 Wh. Daher wären (593 · 1012 Wh)/(1752 Wh/m2) = 3,1 · 1011 m2 oder 310.000 km2 Anbaufläche für Vollversorgung nötig. Das ist fast die Gesamtfläche Deutschlands.

Für Windturbinen im deutschen Jahres- und Ortsschnitt und ihre Installation in „Windparks“ („Park“ in diesem Zusammenhang ist ein bereits als unerträglich zu bezeichnender Euphemismus) beträgt die Leistungsdichte bezogen auf Landschaftsfläche etwa 1 W/m2. Sie ist daher sehr viel kleiner als bezogen auf die Propellerfläche (vergl. Tab. 1 unter Abschnitt 3), denn Windturbinen werden in der Regel nicht einzeln, sondern in Ansammlungen aufgestellt. Hier müssen Mindestabstände eingehalten werden, um Leistungsminderungen durch gegenseitige strömungstechnische Beeinflussung zu vermeiden. Der Wert von 1,1 W/m2 wurde in einer internationalen Fachpublikation für ein Gebiet der USA ermittelt, dessen Windverhältnisse mit Deutschland vergleichbar sind [26]. Eine Abschätzung mit den verfügbaren deutschen Windstromdaten bestätigt ihn: in 2016 waren in Deutschland 27.000 Windräder installiert, meist in „Windparks“ mit Mindestabständen. Eine moderne Windturbine nimmt in „Windparks“ grob 0,3 km2 Bodenfläche in Anspruch. Damit ergibt sich die erzeugte Jahresenergie zu 27.000 · 0,3 · 106 m2 · 1,1 W/m2 · 8760 h = 78 TWh. Das passt zu der erzeugten Inlandsstromenergie von etwa 80 TWh [2]. Für eine Stromvollversorgung Deutschlands nur mit Windrädern ergeben sich 0,2/1,1 der Fläche von Energiemais. Dies entspricht etwa der Fläche Bayerns.

In diesem Zusammenhang ist von Interesse, wie weit ein zukünftiger Windradausbau überhaupt noch gesetzlich zulässig ist. Die entscheidende Größe ist hier der minimale zulässige Abstand eines Windrads zur nächsten Wohnsiedlung. Windräder erzeugen Infraschall, dessen möglichen gesundheitsschädigenden Wirkungen durch wissenschaftliche Untersuchungen belegt sind und dringend weiter zu untersuchen sind. Die heute gründlichste Studie über gesundheitsschädliche Auswirkungen von Infraschall auf den Menschen wurde in Zusammenarbeit der Charité Berlin mit der Physikalisch Technischen Bundesanstalt Braunschweig (PPT) und zwei Hamburger Universitätskliniken erstellt [20]. Die Quellenangaben dieser Studie liefern überdies einen guten Überblick zum heutigen wissenschaftlichen Kenntnisstand.

Wegen Infraschall ist inzwischen in Bayern der Mindestabstand 10 H vorgeschrieben, das bedeutet die zehnfache Gesamthöhe des betreffenden Windrads. Aus der Grafik Abb. 12 auf S. 38 einer Studie des Bundesumweltamts [27] geht hervor, dass bei 2000 m Mindestabstand (dies entspricht 10 H bei 200 m hohen Windrädern) nur noch maximal 0,4% der bundesdeutschen Fläche für den weiteren Windradausbau nutzbar ist. Ausgeschlossene Sondergebiete sind dabei nicht berücksichtig, so dass sich der reale Wert noch etwas verringert. Der Ausbauplan der Bundesregierung für Windenergie [1] erscheint daher unrealistisch.

7. Das Problem der Fluktuation von Wind- und Sonnenstrom

Der zweite Fundamentalmangel von Wind- und Sonnenstrom, seine Wetterabhängigkeit, ist besser bekannt und wird bereits von den Medien thematisiert. Unvorhersehbar anfallender Strom kann ohne weitere Maßnahmen nicht in das Stromnetz eingespeist werden. Die gelegentlich geäußerte Annahme, dass ein europaweiter Windradverbund für Glättung sorgen würde, hat eine ausführliche Studie des VGB Powertech (kurz VGB, ein internationaler Interessenverband von Unternehmen der Elektrizitäts- und Wärmeversorgungsbranche) widerlegt [28]. Das gemessene Minimum dieser Studie an geliefertem Windstrom beträgt nur 4% der europaweit installierten Windrad-Nennleistung. Wörtlich heißt es in der VGB-Studie: „Windenergie trägt damit praktisch nicht zur Versorgungssicherheit bei und erfordert 100 % planbare Backup-Systeme nach heutigem Stand der Technik.“

Diese Backup-Systeme sind heute schnell reagierende Gaskraftwerke (GuD). Diskussionswürdige Stromspeicherlösungen sind nicht in Sicht. Man muss daher für Wind- und Sonnenstrom ein gleichstarkes fossiles Backup-System installieren, welches die Gesamtkosten dieser „Erneuerbaren“ zumindest verdoppelt. Bild 3 zeigt die stündliche Einspeisung von Wind- und Sonnenstrom über das Jahr 2015.

 

Bild 3: Stündliche Einspeisung des gesamten bundesdeutschen Wind- und Sonnenstroms [29] im Jahre 2015.

Das Einspeiseproblem von Zufallsstrom wird von den Medien inzwischen als eines der dringendsten Probleme der Energiewende wahrgenommen. Die Soll-Netzfrequenz von 50 Hertz ist in engen Grenzen stabil zu halten, bereits bei Abweichungen von 0,2 Hertz besteht die Gefahr eines großflächigen Netz-Blackouts [5]. So etwas war von den früheren Kohle-, Gas- und Kernkraftwerken mit ihrem stetigen Grundlaststrom unbekannt.

Wetterabhängiger Zufallsstrom ist bis heute ohne Ersatzkraftwerke nicht in der Lage, den Strombedarf jederzeit zu decken. Ersatzkraftwerke sind aber infolge Teilbetriebs und hoher Lastwechselfrequenz schnellem Verschleiß unterworfen und wirtschaftlich unrentabel. Auf Profit angewiesene Unternehmen haben daher kein Interesse, sie zu bauen. Pumpspeicherwerke als bislang einzige Alternative zu Backup-Kraftwerken, wie sie zum Beispiel in Norwegen eingesetzt werden, sind hierzulande aus topogeografischen Gründen nicht möglich, von Einzelanlagen abgesehen.

8. Photovoltaik in Ländern starker Insolation

Für Entwicklungsländer mit hoher Sonneneinstrahlung und fehlender Strom-Infrastruktur sind kleinste Photovoltaik-Anlagen eine interessante und offenbar auch vielgenutzte Option. Hier reichen für eine Familie bereits wenige Quadratmeter Solarzellen und wenige Autobatterien als Stromspeicher aus, um den Fernseher zu betreiben, nachts elektrisch zu beleuchten und das SmartPhone aufzuladen. Betrachtet man dagegen die Stromgewinnung aus großen Photovoltaik- oder Sonnenspiegel-Anlagen, ergibt sich ein anderes Bild. Trotz, verglichen mit Deutschland, etwa doppelt so starker Insolation in afrikanischen Ländern, in Australien oder in den Südstaaten der USA konnte sich dort die Nutzung von Solarstrom nicht durchsetzen. Solarstrom hat, wie Bild 2 zeigt, den kleinsten Erntefaktor aller Verfahren.

Insbesondere von deutscher Seite wurden zahlreiche Solarstromprojekte in Ländern mit hoher Insolation angestoßen. In solche Projekte flossen zum Teil erhebliche Mittel, zwei stellvertretende Beispiele wurden in den EIKE-News näher beschrieben [30]. Ein langfristiger Erfolg irgendeines Großprojekts zur Deckung des überregionalen Bedarfs ist bislang nicht bekannt. Es gibt kaum eine Weltgegend, die besser als die kanarischen Inseln mit Wind und Sonne gesegnet ist, dennoch haben sich selbst hier und trotz hoher finanzieller Anschub-Unterstützung Wind- und Sonnenenergie nicht durchsetzen können. Die Energienutzungs-Statistik von Marokko bestätigt das kanarische Beispiel [31]. 2012 lieferten in Marokko Geothermie, Solar und Wind zusammen 0,3% der Primärenergie.

Der Grund für die Misserfolge liegt auf der Hand. Sieht man von den eingangs beschriebenen Vorteilen einer Nutzung in sehr kleinen Einheiten ab, verbessert sich in Großanlagen sonnenstarker Länder als einziges Kriterium nur die Insolation. Dieser Vorteil reicht aber bei weitem nicht aus, um die bereits geschilderten Nachteile der Photovoltaik wieder wettzumachen.

9. Leistung von Windrädern und Photovoltaik

Die geringe Leistungsausbeute von Photovoltaik ist mit den Schwankungen sowie nächstens völligem Fehlen des solaren Strahlungsflusses und den sehr kleinen Wirkungsgraden von Photozellen um die 10% im Wesentlichen erklärt. Für Windräder muss dagegen neben der Windfluktuation auch noch die typische Kennlinie einer Windturbine (Bild 4) beachtet werden. Erst damit ist die, verglichen mit Sonnenstrom, noch heftigere Schwankung der Stromleistung (Bild 3 oben) und die extrem ungünstige Leistungsernte von Windturbinen zu verstehen.

Bild 4: Beispiel einer Windradkennlinie (blau), erstellt aus den Daten [18]. Das v3 Gesetz und die Betz-Joukowsky-Grenze [32] werden prinzipiell von einem Windrad nicht erreicht. Die mittleren Windgeschwindigkeiten an der Nordseeküste [33] liegen bei 5,8 bis 5,9 m/s, für den Offshorebereich der Nordsee [34] um die 9 m/s. Selbst Offshore-Windgeschwindigkeiten lassen daher die Nutzung des sinnvollen Betriebsbereichs von Windturbinen (grau) nur eingeschränkt in dessen linken Randbereich zu.

Alle Strömungsmaschinen unterliegen dem physikalischen Gesetz „Leistung gleich proportional zur dritten Potenz der Strömungsgeschwindigkeit“ (s. grüne Kurve in Bild 4). Gemäß diesem v3-Gesetz führt Verdoppelung der Windgeschwindigkeit zur Verachtfachung der Stromleistung, Halbierung aber umgekehrt zu ihrer Verringerung auf ein Achtel. Schwankungen von v wirken sich daher mit dritter Potenz verstärkt auf die Schwankungen der Windrad-Leistung aus.

Die in Deutschland vorherrschenden Windgeschwindigkeiten, im Binnenland grob zwischen 0 bis etwa 6 m/s, sind für eine vernünftige Stromausbeute viel zu klein. Offshore und an Meeresküsten ist der Wind zwar wesentlich stärker, man muss aber schon ab etwa v = 8 m/s beginnen, die Windrad-Leistung wegen zu großer mechanischer Belastung zu drosseln. Ab etwa v = 13 m/s muss ein Windrad auf die zulässige Maximalleistung (Nennleistung) begrenzt und ab etwa 25 m/s abgeschaltet werden. Damit ist gerade der Bereich von sehr hohen Windgeschwindigkeiten nur stark gedrosselt nutzbar.

10. Sicherheitsgrenze für wetterabhängigen Fluktuationsstrom

Die bisher geschilderten technischen und wirtschaftlichen Begrenzungen für die „Erneuerbaren“ Wind und Sonne sind zwar prinzipiell keine unüberwindbaren Hürden für ihren weiteren Ausbau, falls man auf Kosten, Naturschutz, Landschaftsschutz und den Gesundheitsschutz von Windradanrainern (Infraschall) keine Rücksichten nimmt. Es gibt allerdings eine Grenze seitens der Netzsicherheit. Grund dafür sind schnelle Netzstörungen im Bereich von Sekundenbruchteilen bis zu wenigen Sekunden, etwa Netz-Abtrennungen durch den plötzlichen Ausfall eines großen Umspanntransformators o.ä., die zum Zusammenbruch des gesamten Netzes führen können. Um die Auswirkungen dieser kurzfristigen Störungen auf die Stabilität des Netzes im zulässigen Bereich der Frequenzstabilität zu halten, muss ein ausreichend hoher Prozentsatz der elektrischen Gesamtleistung von Synchrongeneratoren mit großen Schwungmassen geliefert werden [35], also von den klassischen Dampfkraftwerken mit Kohle (Gas ist allerdings, verglichen mit Kohle, zu teuer) oder – wie in anderen europäischen Ländern – von Kernkraftwerken.

Leistungsungleichgewichte in Folge von Störungen werden hier durch Abbremsen (Ausspeicherung kinetischer Energie) bzw. Beschleunigen (Einspeicherung kinetischer Energie) der Schwungmassen verzögerungsfrei ausgeglichen. Der erforderliche Anteil von Grundlastkraftwerken hängt von der aktuellen Netzstruktur und ferner davon ab, welches Blackout-Risiko man noch toleriert. Eine Untersuchung der vier großen Netzbetreiber 50Hertz, Amprion, Tennet und TransnetBW geht auf diese Zusammenhänge ein [36] und kommt zu dem Ergebnis, dass für Deutschland die Grundkraftwerks-Mindestleistung von 20 GW nicht unterschritten werden darf. Mit den momentan noch vorhandenen Grundlastkraftwerken wäre damit die erforderliche Sicherheit gegeben. Dies wird sich aber mit zunehmendem Windradausbau, dem gesetzlichen Abschalten weiterer Kernkraftwerke sowie durch die aktuell diskutierte Abschaltung von Kohlekraftwerken in Richtung gefährlicher Instabilität ändern.

Quellen

[1] „Kurzinfo Energieeffizienz“ des BMU; Koalitionsvertrag 2018

[2] BDEW, Quartalsbericht 2017, ferner AGEB Energiebilanzen

[3] DAtF Deutsches Atomforum: Kernenergie in Zahlen, 2016

[4] BMWI, Energiedaten: Gesamtausgabe, Stand Januar 2018, S. 41, 42

[5] Drucksache 17/5672 des deutschen Bundestags,

[6] Hans Werner Sinn (Energiewende)

[7] Geschichte des Energieverbrauchs

[8] Eurostat sowie Statista

[9] BMWI

[10] Der Wald im Mittelalter sowie Leben im Mittelalter

[11] International Energy Agency IEA

[12] VTI Bundesinstitut

[13] Arktika (Schiff)

[14] Solarzelle

[15] Solarzellen bei Erhitzung

[16] Energiedichte

[17] Güterverkehr in Deutschland

[18] Datenblatt Enercon E-126 6.000 sowie Bürgerinitiative Berken

[19] Leopard 2

[20] M. Weichenberger et al.: PlOS One, April 2017, p. 1-19, https://doi.org/10.1371/journal.pone.0174420

[21] L.M. Miller et al., Earth System Dynamics, 2, S. 1-12, 2011, sowie Gans et al., Earth System Dynamics, 3, S. 79-86, 2012

[22] Giftiges Cadmium

[23] Rapswüsten sowie „auf dem Weg in die Maiswüste„?

[24] D. Weißbach et al., Energy, 52, p. 210-221, 2012

[25] A. Hartmann, Statistisches Monatsheft Baden Württemberg 7/2008

[26] L. M. Miller et al., PNAS, 2015

[27] Potenzial der Windenergie an Land, Bundesumweltamt 2013, Abb. 12 auf S. 38

[28] VGB Studie: Windenergie in Deutschland und Europa

[29] R. Schuster, aus den Daten von EEX, Amprion, TenneT, 50Hertz, TransnetBW

[30] EIKE-News vom 7.Sept.20117, EIKE-News vom 7.März 2016

[31] Morocco Energy Situation

[32] Betz-Gesetz

[33] Mittlere Windgeschwindigkeiten Nordseeküste

[34] Mittlere Windgeschwindigkeiten Offshore Nordsee

[35] Der Stromverbraucherschutz e.V. NEAB gibt als Faustformel permanente 45% an.

[36] 50Hertz, Amprion, Tennet, Transnet BW, Auswirkungen reduzierter Schwungmasse auf einen stabilen Netzbetrieb

 

 




Robuste Kraftwerke für robuste Netze

Sie sind mehr (Wind) oder weniger (Sonne) zufällig. Sie widersprechen dadurch allen Anforderungen an eine zivilisierte Gesellschaft. Will man sie aus (ideologischen Gründen) trotzdem zur Erzeugung elektrischer Energie heranziehen, ergeben sich drei Notwendigkeiten:

  1. Der Einspeisevorrang: Die Sonne scheint bei uns nur selten (nachts ist es dunkel, tagsüber oft schlechtes Wetter) und der Wind weht in der überwiegenden Zeit nur schwach. Man kann deshalb nicht auch noch auf den Bedarf Rücksicht nehmen (negative Börsenpreise), sondern muß produzieren wenn es der Wettergott gestattet. Ganz genau so, wie schon der Müller und die Seefahrer im Altertum ihr Leben fristen mußten.
  2. Man muß ein komplettes Backup System für die Zeiten der Dunkelflaute bereithalten. Wirtschaftlich ein absolut absurder Zustand. Es ist ein komplettes System aus Kraftwerken und Stromleitungen vorhanden — man darf es plötzlich nur nicht mehr benutzen! In der Stromwirtschaft sind aber die Kapitalkosten der mit Abstand dickste Brocken. Weit vor den Personalkosten und meist sogar den Brennstoffkosten. Wenn man ausgerechnet die Nutzungsdauer verringert, treibt man damit die spezifischen Energiekosten (€/kWh) in die Höhe. Umgekehrt kann man sagen, der maximal mögliche Wert elektrischer Energie aus „regenerativen Quellen“ kann immer nur den Brennstoffkosten entsprechen.
  3. „Regenerative Energien“ besitzen nur eine sehr geringe Energiedichte und benötigen deshalb riesige Flächen. Diese Flächen sind nicht an den Verbrauchsschwerpunkten (Städte, Industriegebiete) bereitzustellen. Heute muß man bereits auf das offene Meer ausweichen. Es sind deshalb riesige Netze zum Einsammeln der elektrischen Energie und anschließend noch die berüchtigten „Stromautobahnen“ für den Ferntransport nötig. Alles sehr kapitalintensiv, pflegebedürftig und verwundbar. Oft wird auch noch vergessen, daß diese Anlagen selbstverständlich nur die gleiche geringe Auslastung, wie die Windmühlen und Sonnenkollektoren besitzen können.

Das Speicherdrama

Wind und Sonne können nur die Schildbürger speichern. Elektrische Energie ist die verderblichste Ware überhaupt (Kirchhoffsche Gesetze). Wer also von Speichern faselt, meint in Wirklichkeit Speicher für chemische (Batterien, Power to Gas etc.) oder mechanische Energie (Schwungräder, Pump-Speicher usw.). Es ist also immer eine zweifache Umformung — elektrische Energie in das Speichermedium und anschließend wieder das Speichermedium zurück in elektrische Energie — mit den jeweiligen Verlusten erforderlich. Es geht bei diesen Umformungen mindestens 50% des ohnehin sehr teuren Sonnen- bzw. Windstromes unwiederbringlich verloren. Mit anderen Worten, der Strom der aus dem Speicher kommt, ist dadurch schon mal doppelt so teuer, wie der vor dem Speicher. Das wäre aber nicht einmal der Bruchteil der Kosten: Die „Chemieanlagen“ oder „Speicherseen“ müßten gigantisch groß sein. Sie müssen ja schließlich in der kurzen Zeit, in der sie wetterbedingt überhaupt nur produzieren können (<15%), die elektrische Energie für die gesamte Zeit (100%) herstellen können. Betriebswirtschaftlich eine Katastrophe. Niemand wird eine solch absurde Investition tätigen. Die Schlangenölverkäufer setzen auch hier wieder auf den Staat. Das bekannte „Windhundrennen“ setzt ein: Wer pumpt am schnellsten die „Staatsknete“ ab, bis das System unweigerlich in sich zusammenbricht. Selbstverständlich ist auch hier für einige wenige wieder ein Schlösschen drin.

Auch Wasserkraft ist wetterabhängig. Die Trockenphasen wechseln sich mit Hochwassern ab. Fast alle Staudämme sind deshalb zur Flussregulierung gebaut worden. Selbst das gigantische Drei-Schluchten-Projekt in China. Die Vorstellung, man könnte Wasserkraftwerke wie Gasturbinen nach Bedarf an und abstellen, ist absurd. Abgesehen von technischen Restriktionen sprechen Sicherheitsbelange (Schifffahrt, Wassersportler etc.) und der Umweltschutz dagegen. Ein Fluß ist keine technische Batterie, sondern ein sensibles Ökosystem. Genau aus diesen Gründen werden die Speicherkraftwerke in den Alpen — wie alle konventionellen Kraftwerke — durch die Windenergie aus Deutschland in die roten Zahlen getrieben. Man kann eben nicht immer den Stausee in den Stunden negativer Börsenpreise (Entsorgungsgebühren) schlagartig für die Dunkelflaute befüllen. Im Gegenteil, oft muß man gerade dann den eigenen Strom verkaufen. Und noch einmal für alle Milchmädchen: In den wenigen Stunden, in denen der Wind im Überfluß weht, müßte man die gesamte Energie für die überwiegenden Schwachwindzeiten einspeichern — ein betriebswirtschaftlicher Albtraum.

Die Frage des Brennstoffs

Wenn man ein Kraftwerk benutzen will, muß man Brennstoff am Ort zur Verfügung haben. Alles andere als eine triviale Frage. Alte West-Berliner kennen noch die Tanklager und die sich ständig selbst entzündenden Kohlenhalden gegen eine etwaige „Russenblockade“. Jedenfalls sind Tanklager und Halden noch relativ billig anzulegen.

Bei Erdgas stellt sich die Sache schon ganz anders dar. Ein Gaskraftwerk ist auf eine ziemlich dicke Rohrleitung angewiesen. Das gesamte System vom Bohrloch, über die Aufbereitung, bis zum Endkunden ist nicht viel weniger Komplex als die Stromversorgung. In unseren Breiten wird das meiste Erdgas zur Beheizung unserer Gebäude verwendet. Die Winterspitze ist maßgeblich für die Dimensionierung. Zum Ausgleich setzt man unterirdische Speicher ein. Diese sind aber (bezogen auf den Jahresverbrauch) relativ klein. Jeder eingelagerte Kubikmeter Gas ist totes Kapital. Man steuert deshalb den Absatz über den Preis. Im Sommer ist der Großhandelspreis gering — damit die Gaskraftwerke verstärkt produzieren — und im Winter — wenn es kalt ist und die Nachfrage nach Heizgas ansteigt — hoch. Die Gaskraftwerke ziehen sich dann wieder zurück und überlassen den Kohlekraftwerken die Produktion. Dieses Zusammenspiel hat bis zur Energiewende zu aller Zufriedenheit funktioniert. Man konnte im Sommer sehr gut Revisionen bei den Kohle- und Kernkraftwerken durchführen. Bis die Laiendarsteller kamen und etwas von notwendigen flexiblen Gaskraftwerken für die Energiewende geschwafelt haben. Heute kann man die Investitionsruinen an verschiedenen Standorten besichtigen. Man muß es eigentlich nicht besonders erwähnen, daß die grünen Fachpersonen der Stadtwerke (es haftet ja der Steuerzahler) besonders eifrig auf den Leim gekrochen sind. Um ihre Missetaten zu vertuschen, krähen sie heute besonders laut über die „Klimakatastrophe“ und das „klimafreundliche“ Erdgas.

Das Kraftwerk der großen Transformation

Je länger der Wahnsinn der „Energiewende“ anhält, um so mehr wird der Wettergott das Kommando übernehmen. Prinzipiell nimmt in einem technischen System mit der Häufigkeit der Störungen und der Größe einzelner Störungen die Wahrscheinlichkeit eines Ausfalls zu. Will man ein solchermaßen malträtiertes Stromnetz wieder robust machen, stellen sich in diesem Sinne („Grid Resilience“) zwei Anforderungen an die Kraftwerke:

  1. Die Kraftwerke müssen von der Konstruktion (z. B. Brennstoffe) her und bezüglich der Fahrweise (z. B. angedrosselt) robust gebaut und betrieben werden. Beides verursacht erhebliche Kosten, die ohne die „Energiewende“ gar nicht entstanden wären. Hinzugerechnet werden muß noch der Umsatzausfall durch den Einspeisevorrang. Werden diese Zusatzkosten nicht vergütet, müssen die Kraftwerke geschlossen werden. Mit jedem konventionellen Kraftwerk das vom Netz geht, wird das gesamte Stromnetz instabiler, was den Aufwand weiter in die Höhe treibt.
  2. Das Netz muß nach schweren Störungen (Brown oder Black Out) möglichst schnell wieder hochgefahren und in einen neuen stabilen Zustand versetzt werden. Dafür müssen die Kraftwerke technisch (z. B. Schwarzstartfähigkeit) und personell jederzeit in der Lage sein. Die Wiederinbetriebnahme muß nach den Anforderungen der Netzleitzentrale erfolgen. Etwaige Überprüfungen, Wartungen oder gar Reparaturen müssen selbstverständlich vorher erfolgt sein. Dies gilt insbesondere für Schäden, die durch den außergewöhnlichen Netzzustand entstanden sind.

Es ist daher nichts weiter als bösartige und schlechte Propaganda, wenn Scharlatane von dem „Kohlestrom, der die Netze verstopft“ erzählen. Je mehr konventionelle Kraftwerke stillgelegt werden (müssen), desto weniger notwendige Reserven gibt es. Schon jetzt verlassen wir uns auf Kraftwerke im benachbarten Ausland. Man kann nicht erwarten, daß das kostenlos erfolgt. Je mehr wir das System komplizieren und ausweiten, um so mehr koppeln unerwartete Ereignisse auf das Stromnetz zurück: Es gab schon Brände in Erdgasspeichern, die diese für Monate lahmlegten oder Engpässe durch Drosselung in den niederländischen Erdgasfeldern (Mikrobeben) oder Pipelinebrüche. Ganz zu schweigen von der politischen Abhängigkeit gegenüber ausländischen Lieferanten. Kohle und Kernenergie besitzen schon durch ihre einfache Lagerung einen entscheidenden Trumpf.

Das robuste Kernkraftwerk für ein „nervöses Netz“

Kernkraftwerke besitzen eine Reihe von Eigenschaften, die besonders wertvoll für „nervöse Stromnetze“ mit einem hohen Anteil von wetterabhängigen Energien sind. Dies mag „Atomkraftgegner“ erschüttern, aber nur Reaktoren können die extremen Lastschwankungen (z. B. 3. Potenz von der Windgeschwindigkeit) sicher verkraften. Nur sie können extremen Wettersituationen sicher widerstehen. Es waren immer die Kernkraftwerke, die als letzte vom Netz mußten (Tsunami und Erdbeben in Japan, Wirbelstürme in den USA, Eiseskälte in Rußland). Es ist allerdings unverständlich, warum man bei den geringen Urankosten die Kernkraftwerke überhaupt drosseln soll, wenn mal die Sonne scheint oder der Wind in der richtigen Stärke weht…

Für Kernkraftwerke, die in einem „nervösen Netz“ zur Stabilisierung betrieben werden, ergeben sich folgende Anforderungen:

ROBUSTE LASTFOLGE

Je schneller und erfolgreicher (noch) kleine Störungen ausgeregelt werden, um so besser für das Netz. Heutige Leichtwasserreaktoren haben große Leistungen. Der im Bau befindliche Turbosatz des Kraftwerks Hinkley Point in GB mit 2 x 1770 MWel hat eine gewaltige Schwungmasse, die zur Frequenzstabilisierung mehrerer Windparks dienen kann und soll. Hinzu kommen die gespeicherten Wärmemengen im Wasser-Dampf-Kreislauf. Automatisch greift bei einem Leichtwasserreaktor die Selbstregulierung über den Zusammenhang von Dichte des Kühlwassers und Moderation der Neutronen. Zusammengenommen ergibt das die steilsten Leistungstransienten aller Kraftwerkstypen. Die alte Greenpeace Propaganda von den „viel zu starren Atomkraftwerken“ beruhte bestenfalls auf der Verwechslung von Technik mit Betriebswirtschaft. Mit anderen Worten: Frankreich kann sich ruhig noch ein paar Windmühlen für das bessere Gewissen erlauben, Deutschland hingegen, geht mit der weiteren Abschaltung immer unruhigeren Zeiten entgegen. Fatal wird es in dem Moment, wenn unsere Nachbarn nicht mehr bereit sind, die Kosten für die Stabilisierung unseres nationalen Stromnetzes zu bezahlen.

ABWEHR ÄUSSERER EINFLÜSSE

Fukushima hat eindrucksvoll gezeigt, wie zerstörerisch Naturgewalten sein können. Eine weltweite Überprüfung aller Kernkraftwerke gegen jegliche Wasserschäden (Starkregen, Überflutungen etc.) war die Folge. Eine Nachrüstung in Richtung „U-Boot“ wurde durchgeführt. Seit dem, haben bereits mehrere Reaktoren einen Betrieb „inmitten von Wasser“ unter Beweis gestellt. Oft waren sie die einzigen noch betriebsbereiten Kraftwerke: Kohlenhalden hatten sich in Schlamm verwandelt, Gaspipelines waren durch die Wassermassen ausgefallen.

Gerade auch Netzstörungen (Sturmschäden, Blitzschlag etc.) wirken oft auf ein Kraftwerk von außen ein. Ein Kraftwerk ohne Netz kann noch so gut funktionieren, aber es kann seine elektrische Energie nicht mehr ausliefern. Oft lösen die Netzstörungen auch Schäden in der Kraftwerksanlage aus. Bei einem Kernkraftwerk sollte keine Schnellabschaltung durch solche Ereignisse ausgelöst werden.

SICHERER INSELBETRIEB

Egal was mit dem Netz passiert, das Kernkraftwerk sollte automatisch in den Inselbetrieb übergehen. Nur so kann bei einer schnellen Reparatur die Produktion unverzüglich wieder aufgenommen werden. Dies erfordert, daß wirklich alle elektrischen Verbraucher des Kraftwerks (verschiedene Spannungsebenen) dauerhaft über den eigenen Generator versorgt werden können.

UNENDLICHE NOTKÜHLUNG

Die Besonderheit eines Kernreaktors ist die anfallende Nachzerfallswärme auch nach vollständiger Abschaltung. Die mangelnde Wärmeabfuhr (Ausfall der Kühlmittelpumpen) war die Ursache für den Totalschaden in den Reaktoren von Fukushima. Neuere Reaktoren mit passiven Notkühlsystemen bieten hierfür einen unschätzbaren Vorteil. Alte Kraftwerke müssen mit ausreichender Eigenstromversorgung (mehrfache Notstromaggregate mit ausreichendem Tanklager) nachgerüstet werden. Die eigenen Schaltanlagen für den Notbetrieb müssen — im Gegensatz zu Fukushima — entsprechend geschützt werden.

SCHWARZSTARTFÄHIGKEIT

Ein Kernkraftwerk benötigt für die Inbetriebsetzung eine gewaltige Menge elektrischer Energie. Üblicherweise wird diese dem Netz entnommen. Ist ein Netz im Katastrophenfall schon überlastet, dürfte dies kaum möglich sein. Es müßte also eine Eigenstromversorgung (z. B. Gasturbine) vorhanden sein, wenn ein Schwarzstart für die Robustheit eines Teilnetzes gefordert ist.

Normalerweise ist das Anfahren eines Kernkraftwerkes ein streng reglementierter und langwieriger Vorgang. Unzählige Prüfungen müssen durchgeführt, bestimmte Haltepunkte eingehalten werden. Immer nach dem Grundsatz „Safety First“. Alles andere als ideal für die Wiederherstellung eines Netzes nach einem „Blackout“. Deshalb sollte die Schnellabschaltung unbedingt vermieden werden. Gegebenenfalls ein Schnellverfahren für Notfälle geschaffen werden. Jedenfalls kommt noch eine Menge Arbeit auf die Überwachungs- und Genehmigungsbehörden zu. Aber es ist uns ja nichts zu schwer und zu teuer um wenigstens teilweise wieder ins Mittelalter zurückzukehren.

Der Beitrag erschien zuerst bei NUKEKLAUS hier




Auszüge aus dem Rundbrief der GWPF vom 13. Juni 2018

Gar nicht mehr grün: Deutschland torpediert ambitionierte EU-Energieziele

Die Wähler in ganz Europa haben das Vertrauen in die Politik verloren – auch aufgrund der „unerreichbaren Ziele“ für erneuerbare Energien, sagte der deutsche Wirtschafts- und Energieminister Peter Altmaier gestern.

Altmaier wies die Forderungen einer Gruppe anderer EU-Länder zurück, den Anteil der erneuerbaren Energien bis 2030 auf 33 bis 35 Prozent des Energiemixes zu erhöhen. Der Minister äußerte sich während eines Austauschs mit den übrigen 27 EU-Energieministern, die gestern in Luxemburg zu einem Treffen des Energierats zusammengekommen waren.

Die Energieminister müssen aktuell eine gemeinsame Position zu drei Gesetzen für saubere Energien erarbeiten, die derzeit in den EU-Institutionen ausgehandelt werden: Die Richtlinie über erneuerbare Energien, die Richtlinie über Energieeffizienz sowie eine Verordnung über die Führung der Energieunion.

„Deutschland unterstützt verantwortungsvolle, aber erreichbare Ziele,“ betonte Altmaier von Anfang an. Er unterstrich außerdem, dass die Bemühungen Berlins, den Anteil der erneuerbaren Energien zu steigern, bisher lediglich dazu geführt hätten, dass dieser Anteil am Gesamtenergiemix des Landes bei nun 15 Prozent liegt.

Allein diese Bemühungen würden die deutschen Steuerzahler bereits 25 Milliarden Euro pro Jahr kosten, so Altmaier. „Wenn wir uns jetzt ein Ziel setzen, das deutlich über 30 Prozent hinausgeht, bedeutet das: Wir müssen unseren Anteil in zehn Jahren deutlich mehr als verdoppeln.“

„Das werden wir nicht schaffen,“ konstatierte der Minister auch mit Blick auf das vormalige Ziel, bis zum Jahr 2020 eine Million Elektroautos auf deutschen Straßen zu haben. Dies werde allerdings auch nirgendwo sonst in Europa erreicht. Altmaier weiter: „Selbst, wenn wir es schaffen würden, hätten wir nicht genügend erneuerbaren Strom, um alle diese Autos zu betreiben.“

Was daher benötigt werde, sei „ein Kompromiss [auf europäischer Ebene], der verhindert, dass wir innerhalb kurzer Zeit wieder ein Ziel haben, das nicht erreicht worden ist.“ Der CDU-Politiker warnte: „Die Bürgerinnen und Bürger in Europa verlieren auch das Vertrauen in die Politik, wenn sie feststellen, dass wir sehr ambitionierte Ziele haben, und einige Jahre später sich herausstellt, dass wir weit von ihrer Erfüllung entfernt sind.“

Altmaiers Kompromissvorschlag ist „erbärmlich“

Claude Turmes, dem Verhandlungsführer des Parlaments über die Energieunion-Verordnung, nannte Altmaiers Erklärung „erbärmlich“. Dennoch dürften die vom Wirtschaftsminister geäußerten deutschen Ansichten die Erwartungen anderer EU-Länder, die mehr Ehrgeiz für das EU-Gesetzgebungspaket für saubere Energie gefordert haben, deutlich enttäuscht haben.

Luxemburg und Spanien, deren Vertreter vor Altmaier sprachen, unterstützen beide die Forderung des Europäischen Parlaments nach mehr Ehrgeiz in Bezug auf erneuerbare Energien und Energieeffizienz. Sie fordern ein Ziel von 35 Prozent für beide Punkte.

Die Niederlande, Frankreich, Dänemark, Schweden, Italien und Portugal gehörten ebenfalls zu denjenigen, die höhere Ambitionen im Bereich der erneuerbaren Energien und der Energieeffizienz anstreben.

Brune Poirson, französische Staatssekretärin für Ökologie, unterstrich die Notwendigkeit „starker Ambitionen“ auf EU-Ebene, um die Ziele des Pariser Klimaabkommens zu erreichen. Frankreich, so Poirson, sei bereit, bei der Energieeffizienz einen Kompromiss von „rund 33 Prozent“ zu unterstützen. Dies wäre ein Mittelweg zwischen den Positionen des Europäischen Parlaments und der EU-Mitgliedstaaten. Zu den erneuerbaren Energien sagte die Staatssekretärin, ein Anteil von 32 Prozent sei „ein guter Kompromiss“.

Ebenso wichtig sei der vorgeschlagene Gap-filler-Mechanismus („Lückenfüller“), sollten die EU-Länder bei der Erreichung des vereinbarten Ziels auf EU-Ebene hinterherhinken. Poirson erhielt in diesem Punkt Unterstützung von Altmaier, der erklärte, Deutschland sei bereit, einen Gap-Filler für beide Ziele – also erneuerbare Energien und Energieeffizienz – zu befürworten.

Auch im Bereich Wärme- und Kältesektor seien Deutschland und der Europäische Rat gewillt, sich „noch einmal ein Stück weit auf das Europäische Parlament zuzubewegen“. Die Gespräche über die drei vorgeschlagenen EU-Gesetze werden voraussichtlich am morgigen Mittwoch im Trilog-Gespräch zwischen dem Europäischen Parlament, dem EU-Rat und der Kommission abgeschlossen.

Widerstand von den Visegrad-Staaten

Die Chancen, in den Trilogen eine „ehrgeizige“ Einigung zu erzielen, die näher an der Position des EU-Parlaments liegt, erscheinen ohne die volle Unterstützung Deutschlands nun allerdings geringer.

Die Visegrad-Gruppe, bestehend aus der Tschechischen Republik, der Slowakei, Ungarn und Polen, bekräftigte ihren Widerstand gegen eine Anhebung der Ziele der EU im Bereich der erneuerbaren Energien und der Energieeffizienz.

Ungarn sagte zum Beispiel, dass jede Erhöhung des Ziels für erneuerbare Energien mit einer neuen Folgenabschätzung der Europäischen Kommission einhergehen sollte – ein langwieriges Verfahren, das die Annahme der Richtlinie weiter verzögern würde.

Aber es sind noch nicht alle Hoffnungen verloren, so Turmes, der darauf hinwies, dass der Wechsel hin zu neuen Regierungen in Spanien und Italien die Sperrminorität gegen ein Ziel von 33 Prozent sowohl für erneuerbare Energien als auch für Energieeffizienz aufgehoben habe. – Frédéric Simon, EurActive.com.

Die ganze Story steht hier.

[Hinweis: Diese Übersetzung aus dem GWPF-Newsletter stammt nicht von mir, sondern ist direkt aus der Quelle EurActive übernommen. Anm. d. Übers.]

—————————————

Deutsche Regierung: Das Klimaziel 2020 wird erheblich verfehlt werden


Die deutsche Regierung steht kurz davor, offiziell einzugestehen, dass sich das Land auf einem Weg befindet, auf welchem es die Klimaziele bis zum Jahr 2020 erheblich verfehlen wird.

Der wirtschaftliche Boom, der Immigrationsdruck sowie hohe Emissionen im Transportsektor bedeuten, dass der Energiewende-Pionier die Treibhausgas-Emissionen nur um 32% verglichen mit dem Jahr 1990 wird reduzieren können. Die steht im Gegensatz zum offiziell verkündeten Ziel einer Reduktion um 40%, jedenfalls dem neuen Klimaschutzbericht der Regierung zufolge. Clean Energy Wire konnte dieses Dokument einsehen, welches am 13.Juni zur Veröffentlichung vorgesehen ist.

Es wird erwartet, dass mit den bis heute durchgeführten Maßnahmen die Treibhausgas-Emissionen bis 2020 um rund 32% abnehmen werden im Vergleich mit 1990“, heißt es darin.

Im Jahre 2014 hat die Regierung ein „Klima-Aktionsprogramm“ initiiert. Aber die dafür erforderliche Politik reichte nicht aus, um die Lücke zu einer Reduktion von 40% bis 2020 zu schließen. Als Gründe werden genannt „eine überraschend starke wirtschaftliche Entwicklung sowie ein überraschend hohes Bevölkerungswachstum“, schreibt die Regierung in dem Report.

Es wird darin sogar davor gewarnt, dass Emissions-Vorhersagen „als ziemlich optimistisch bewertet werden müssen hinsichtlich der gegenwärtigen Klimaschutz-Trends“. – Sören Amelang, Clean Energy Wire.

Die ganze Story steht hier.

[Hinweis: Der Autor dieses Beitrags ist Verfechter von CO2 als vom Menschen verursachtes Haupt-Treibhausgas. Anm. d. Übers.]

—————————————

Deutschlands Energiewende: Eine Warnung für Europa!

Colin Stevens

Deutschland wurde als herausragender Pionier für seine Politik der Energiewende gewürdigt und besonders für die eingegangene Verpflichtung gepriesen, innerhalb der nächsten fünf Jahre vollständig aus der Kernenergie auszusteigen. Und dennoch – obwohl eine „Kohleausstiegs-Kommission“ eine Road Map für den Kohleausstieg präsentieren soll, bleibt Deutschland viel zu sehr abhängig von seinen umfangreichen Braunkohle-Reserven zur Energieversorgung seiner Wirtschaft und für das Backup für Wind- und Solarenergie-Ausfälle.

Trotz der ganzen Angeberei ist Deutschlands Energiewende viel mehr eine Warnung für Europa als eine Erfolgsstory, auf die andere Nationen blicken, um ihre Energiesektoren zu modernisieren. Im Zentrum der Politik liegt eine fundamentale Scheinheiligkeit: Trotz der Verpflichtung, seine Kapazität erneuerbarer Energie immer weiter auszubauen, um die verloren gehenden Kernkraftwerke zu ersetzen, steigen die Kohlenstoff-Emissionen des Landes derzeit.

Die hastige Entscheidung, alle 19 Kernkraftwerke in Deutschland bis zum Jahr 2022 stillzulegen, erfolgte im Zuge der Fukushima-Katastrophe im Jahre 2011 – nur ein Jahr, nachdem Kanzlerin Angela Merkel entschieden hatte, die Lebensdauer dieser Kraftwerke zu verlängern. Diese politische Kehrtwende war an Pläne gekoppelt, den Verbrauch fossiler Treibstoffe zu eliminieren, indem der Anteil von Erneuerbaren am deutschen Energie-Mix bis zum Jahr 2050 auf 60% steigen sollte.

Trotz der scheinbar vernünftigen Grundlagen haben die ersten fünf Jahre der Energiewende die Probleme aufgezeigt, welche das Modell für Deutschland und das übrige Europa birgt. Energiewende ist kaum lediglich ein innerdeutsches Thema: eine der grundlegenden Lehren ist, dass das Land neun Nachbarn hat, mit denen es Energie austauschen kann – entweder, indem man überschüssige Energie an diese Länder verkauft, wenn Erneuerbare zu viel Strom erzeugen, oder Energie von dort importiert, wenn Deutschlands Erneuerbare nichts liefern.

Während es Deutschland geschafft hat, den Anteil Erneuerbarer bei der Stromerzeugung auf 30% zu bringen, hat sich die zuvor stetige Abnahme der Kohlenstoff-Emissionen – um 27% von 1999 bis 2009 – drastisch umgekehrt, seit Deutschland den Ausstieg aus der Kernkraft beschlossen hat. Anstatt weiter zu fallen, sind die Emissionen seitdem um 4% gestiegen. Warum dieser besorgliche Anstieg der Emissionen? Weil erneuerbare Energie immer noch inhärent periodisch ist.

Ohne erhebliche Fortschritte bei der Batterie- und Speicher-Technologie wird Deutschland gezwungen sein, noch Jahrzehnte lang andere heimische Energiequellen zu nutzen. Falls Kernkraft wirklich stillgelegt wird, werden Kohlekraftwerke an deren Stelle weiter betrieben werden und die Atmosphäre bei diesem Prozess verschmutzen. Noch schlimmer ist, dass viele thermische Kraftwerke in Deutschland Braunkohle verbrennen, eine spezielle Art Kohle, welche mehr CO2 emittiert als jeder andere fossile Treibstoff. Während bei der Verbrennung von Erdgas zwischen 150 und 430 g CO2 pro Kilowattstunde emittiert werden, sind es bei Braunkohle atemberaubende 1,1 kg CO2. Kernkraft emittiert lediglich 16 g CO2 pro Kilowattstunde.

Die ganze Story steht hier.




Wer hat’s gesagt?

„Wenn die Energiewende nicht komplett neu gestartet und endlich professionell gesteuert wird, stehen wir vor dem größten Deindustrialisierungs-Programm unserer Geschichte.“

Bitte ankreuzen

(      )   der Ruhrkohle-Chef
(      )   der AfD-Vorsitzende
(      )   der Vorstandschef von RWE
(      )   der Chef von Siemens
(      )    der Chef von Daimler
(      )    der SPD-Vorsitzende

 

tatsächlich war es Sigmar Gabriel im Jahr 2013, damals SPD-Vorsitzender.

Quelle:

Nach Gabriel-Interview in der WirtschaftsWoche: SPD und Grüne fetzen sich über Energiewende

Wie recht Gabriel schon damals hatte, jedoch ohne irgendwelche Konsequenzen daraus zu ziehen, zeigt dieser Vortrag von Prof. Dr. Fritz Vahrenholt anlässlich einer Veranstaltung Technischen Universität Clausthal.

Rede von Fritz Vahrhenholt auf dem Symposium „Energie und Rohstoffe – Zukunft mit Chancen und Risiken” am  31. Mai 2018 an der Technischen Universität Clausthal:

——-

Prof. Fritz Vahrenholt

Ausstieg aus Kernenergie, Kohle und der Grundstoffindustrie – wie sich eine führende Industrienation abschafft

Das, was 1986 im Parteiprogramm der Grünen gefordert wurde, die Abschaffung der Atomindustrie, Automobilindustrie sowie Teilen der Chemieindustrie, ist längst in der Mitte der Gesellschaft zum Konsens geworden. Wie konnte das gelingen? Mit apokalyptischen Schreckensszenarien wird die Spaltung des Atoms, ebenso wie die geringfügige Erhöhung des lebensnotwendigen Moleküls CO2 in der Atmosphäre, zu Chiffren des Unheils. Eine durch überwiegend natürliche Prozesse festzustellende Erwärmung wird missbraucht zur Großen Transformation der Gesellschaft. Können wir diese selbstzerstörerische Entwicklung wieder in vernünftige Bahnen lenken?

Machen wir uns nichts vor: Der Anti-Industrialismus in Deutschland ist weit fortgeschritten. Wir lieben innovative Produkte wie IPhone, Solarzellen oder Flachbildschirme. Die Wertschöpfungsketten aber von der Rohstoffgewinnung über die Metallerzeugung zur industriellen Produktion sind Politik und Öffentlichkeit eher ein Gräuel. Den Hunger in der Welt bekämpfen, aber doch nicht mit Gentechnik, Mobilität ja, aber doch ohne Verbrennungsmotoren, wachsender Stromverbrauch für Handy und Laptop klar, aber doch bitte nicht aus Kohle und Kernenergie.

Schön wäre es, wenn die Befriedigung unserer Bedürfnisse durch Licht und Luft, ohne Eingriffe in den Naturhaushalt, am besten noch ohne Anstrengung geschehen könnte. Dieser Trampelpfad in die rückwärtsgewandte Idylle führt geradewegs zum Verlust der Wettbewerbsfähigkeit, zum Verlust des außerordentlich hohen Wohlstandsniveaus, das wir durch technischen Fortschritt und Innovationen erreicht haben. Im Zeitalter der Globalisierung schmilzt diese Wohlstandsdividende der OECD Länder, ebenso Deutschlands. Die Arbeitnehmer in Deutschland konkurrieren mit den Arbeitnehmern in Südostasien- ohne Technologievorsprung geht dieser Wettbewerb verloren.

Der Abschied der deutschen Gesellschaft von der Industrie lässt sich am Fundament jeder Industriegesellschaft, nämlich der Energieerzeugung, beleuchten. Die deutsche Energiewende ist ein sich anbahnendes Desaster. Nach dem Kernenergieausstieg steht nun der nächste Schritt: die Dekarbonisierung der deutschen Energieversorgung und im Übrigen auch des Verkehrssektors an. Bis 2050 sollen nach dem deutschen Klimaschutzplan 80 bis 95 % der gesamten Energieversorgung aus Erneuerbaren Energien kommen.

Entwicklung der Zahl der in D installierten Nennleistung von Windenergieanlagen, Grafik Ralf Schuster

Wir haben 30.000 Windräder aufgestellt, ohne zu wissen, wo wir den Strom bei Windstille herbekommen. Wir wissen auch nicht, was wir mit dem Überschussstrom machen sollen, wenn es Starkwind gibt und 56.000 MW ins Netz drängen. Dann verschenken wir den Strom an unsere Nachbarländer zu negativen Preisen oder wir stellen die Windräder ab und zahlen, als ob sie produziert hätten. Das summiert sich allein auf 1 Milliarde pro Jahr. Und die Energiewende insgesamt kostet mehr als 25 Milliarden pro Jahr, bis 2025 520 Milliarden.

Entwicklung der Zahl der Windenergieanlagen in D, Grafik R. Schuster

Heute haben wir bereits die zweithöchsten Strompreise in Europa. Privathaushalte und die nicht umlagebefreiten Industrieunternehmen sowie das Gewerbe zahlen die Zeche. Wir sehen mittlerweile, dass neue industrielle Investitionen hierzulande unterbleiben. In Anbetracht der durch die Erneuerbaren in die Höhe getriebenenen Strompreise wird die von der Groko geplanten Batteriefabrik eine Fata Morgana oder ein weiteres Milliardengrab. Man investiert nicht in einem Land, von dem man nicht weiß, wohin sich die Energiepreise entwickeln.

Aber die Mehrheit der Bevölkerung unterstützt diese Entwicklung. Es ist der UNO, Teilen der Wissenschaft, der Politik, den Medien gelungen, die komplexe Klimamaterie publikumswirksam zu simplifizieren: das CO2 bestimmt unser Klima. Dass das Klima auch ohne CO2geschwankt hat, dass in den letzten 20 Jahren nur eine geringfügige Erwärmung stattgefunden hat, also in einer Zeit, in der die CO2-Emissionen sich verdoppelt haben, hat natürliche Ursachen. Dass bis zum Jahre 2000 die Temperaturen stark angestiegen sind aber auch! Ein grosser Teil dieser Erwärmung ist den natürlichen Zyklen des Atlantiks zuzuschreiben. Wir vergessen, dass in der mittelalterlichen Wärmeperiode vor 1000 Jahren die Temperaturen mindestens genauso hoch waren wie heute. Und wir vergessen, dass der Temperaturanstieg der letzten 150 Jahre seine wesentliche Ursache darin hatte, dass wir aus einer kleinen Eiszeit kommen. Die kleine Eiszeit ist der Maßstab der Klimaalarmisten,  den sie an die Erwärmung von heute anlegen. Wenn die Temperaturentwicklung der nächsten Jahre weiter stagniert oder gar abkühlt, dann gäbe es eine Chance die Hysterie abzukühlen.

Wenn ich Ihnen jetzt noch sage, dass jährlich Tausende von Greifvögeln und Hunderttausende von streng geschützten Fledermäusen durch die Windräder getötet werden, dann fragen Sie sich vielleicht, warum machen wir das alles? Die grösste Naturzerstörung in Deutschland nach dem 2. Weltkrieg erfolgt nicht durch Kohle- oder Kernenergie sondern durch grüne, erneuerbare Energien. Der Plan der Bundesregierung ist bis 2050 die Windenergiekapazität zu verdreifachen, d.h. alle 2,6 km eine Anlage. Prof. Hüttl sprach soeben von der fünffachen bis siebenfachen Kapazität- alle 1,5 bis 2 km eine Windkraftanlage !

Warum zerstören wir unsere Heimat? Weil es den Apologeten des Anti-Industrialismus gelungen ist, Angst zu verbreiten. Nur mit Weltuntergangsszenarien kann  es gelingen, die deutsche Automobilindustrie zur Strecke zu bringen. Und außerdem geht es uns doch gut, sehr gut sogar, trotz Kernenergieausstieg, trotz Kohleausstieg, trotz Energiepreisexplosion. Und: insbesondere wir Deutschen haben den Hang, die Welt zu retten, nachdem wir im 20. Jahrhundert maßloses Unglück über die Welt gebracht haben.

Das schlimme ist, das wir nachfolgenden Generationen aber überhaupt keine Innovationen zutrauen, kein Kohlekraftwerke mit CCS, keine Gaskraftwerke, keine Fusionstechnologie keine inhärent sicheren Kernkraftwerke – aber die Politik will Ihnen vorschreiben mit alberner Windkrafttechnik aus dem letzten Jahrhundert die Herausforderungen der Zukunft zu meistern.Vielleicht helfen ja die aufziehenden tiefgreifenden Finanzkrisen und der dadurch ausgelöste Wohlstandsverlust, dass wir innehalten, das zu zerstören, was unseren Wohlstand erzeugt hat. Wir müssen uns wieder dem zuwenden, was zu diesem Wohlstand geführt hat: Offenheit für Innovationen.

Viel Hoffnung habe ich allerdings nicht.

Der Beitrag von F. Vahrenholt erschien zuerst bei „Die kalte Sonne“ hier