1

China: Neuer Schwung beim Ausbau der Kernenergie?

Einer Meldung in der Online-Ausgabe der Hongkonger South China Morning Post zufolge hat Chinas Staatsrat am 12. Mai beschlossen, insgesamt fünf neue Kernkraftwerke errichten zu lassen. Diese Massnahme ist als Auftakt eines langfristigen Bauprogramms zur Errichtung zahlreicher weiterer Kernkraftwerke gedacht. Mit dieser Initiative will das Land schrittweise seiner Selbstverpflichtung zur Deckelung der „Treibhausgas“-Emissionen bis 2030 und der Erreichung von CO2-Neutralität bis 2060 näherkommen. Bei den jetzt vorgesehenen Neubauten handelt es sich um vier klassische KKW’s mit einer Leistung von je 1,2 Gigawatt (GW) sowie einen neuartigen SMR (Small Modular Reactor). Die vier konventionellen Reaktoren sind russische VVER-1200 Kraftwerke, der SMR-Reaktor mit einer Leistung von 125 MW ist der Demonstrator einer chinesischen Eigenentwicklung. Der Bau von zwei der VVER-Reaktoren soll noch in diesem Jahr beginnen, ihre Inbetriebnahme ist für 2026 geplant. Mit diesen Projekten wird die Gesamtkapazität der chinesischen KKW-Flotte, die bisher bei rund 48 GW lag, um rund 10 % zunehmen.

Bild 1. Mit derzeit rund 50 Reaktoren liegt China hinter den USA und Frankreich weltweit an dritter Stelle (Grafik: World Nuclear Association)

Neue Ausrichtung der Langfrist-Strategie im Kernkraftbereich

In einem weiteren Artikel der gleichen Online-Ausgabe finden sich interessante Zusatzinformationen, aus denen sich einiges über die Hintergründe und Stoßrichtung der neuen KKW-Strategie herauslesen lässt. Es wird darauf hingewiesen, dass China Solar- und Windenergie als zu unzuverlässig für eine stabile Energieversorgung des Landes einstuft. Andererseits scheint das Land aber auch nicht vollständig oder zumindest überwiegend auf Kernkraft setzen zu wollen. Für diese Änderung der früheren Zielsetzung eines massiven KKW-Zubaus werden drei wesentliche Gründe angeführt: Die Fukushima-Ereignisse, die zunehmende Feindseligkeit des Westens und die geringen Uranreserven des Landes. Darüber hinaus lassen sich nicht nur aus den vorhandenen, sondern auch aus manchen nicht vorhandenen Angaben zusätzliche interessante Schlussfolgerungen ziehen.

Bild 2. Unser Blick auf China ist auch heute noch von Vorurteilen aus der Kolonialzeit geprägt. Historische Aufnahme aus dem deutschen „Schutzgebiet“ Tsingtau (heute Kiautschou)

Moratorium nach Fukushima

China ist unbestritten ein autoritär regierter Staat. Vielfach wird deshalb unterstellt, die Parteiführung würde einfach durchregieren, ohne sich um die Meinung der Bevölkerung zu scheren. In der Praxis achtet die politische Führung des Landes jedoch sehr darauf, Unmut im Volk zu vermeiden, indem sie dessen Lebensstandard stetig anhebt. Dies gilt auch für die ärmeren Schichten aus den wirtschaftlich unterentwickelten ländlichen Regionen, aus dem auch das Millionenheer der bitterarmen Wanderarbeiter kommt. Diese Haltung der Verantwortlichen erklärt sich aus den Lehren der chinesischen Geschichte. In Deutschland waren die Bauernrevolten des Mittelalters blutig gescheitert. Über Jahrhunderte regierten danach absolutistische Herrscher „von Gottes Gnaden“ nach Gutdünken und Gutsherrenart.

In China wurden dagegen wiederholt missliebige Dynastien von Volksaufständen hinweggefegt. Selbst die Herrschaft der nicht gerade als zimperlich bekannten mongolischen Eroberer fand durch den Aufstand unzufriedener Volksmassenassen ein abruptes Ende. Die heutige Führung, die selbst aus Erben eines erfolgreichen Aufstands verarmter bäuerlicher Massen besteht, hat diese Lektionen nicht vergessen. Deshalb wurden nach den Fukushima-Ereignissen die bisherigen Planungen gestoppt und der weitere Ausbau der Kernkraftflotte weitgehend auf Eis gelegt. Zunächst wollte man die Lehren aus dem ziehen, was in Japan passiert war. Dafür nahm das Land sogar ein mehrjähriges faktisches Moratorium bei dem dringend benötigten Ausbau der Versorgung mit Strom aus Kernkraft in Kauf. Diese Pause wurde für eine umfassende Analyse und Bewertung der Risiken sowie möglicher Verbesserungen der diversen existierenden und in der Entwicklung befindlichen Reaktortypen genutzt. Dies erfolgte unter umfassender Einbeziehung von Fachleuten aus den Bereichen Energieerzeugung und Kernkrafttechnologie.

Besonderer Wert wurde auch auf die Einbeziehung der Öffentlichkeit gelegt. Das im Jahre 2017 veröffentlichte Gesetz über Kernkraftsicherheit enthält deshalb ein eigenes Kapitel über „Offenheit der Informationen und Teilnahme der Öffentlichkeit“. Die Betreiber chinesischer Kernkraftwerke legen daher viel Wert auf Kommunikation mit der Öffentlichkeit, um deren Akzeptanz zu erhöhen.

Man vergleiche dies mit der nonchalanten Art, wie Merkel die Kernenergie per „Ordre de Mutti“ abräumte. Als Feigenblatt diente ihr das Votum einer Ethikkommission aus handverlesenen „Fachleuten“, die über Qualifikationen von Soziologie über Philosophie bis zu höchsten Kirchenämtern verfügten. Energiefachleute hatte man allerdings nicht hinzugezogen.

Bild 3. China begann erst 1991 mit der Stromerzeugung aus Kernenergie. Der geplante schnelle Ausbau wurde durch das Moratorium nach Fukushima erheblich verzögert (Grafik: World Nuclear Association)

Zunehmender Druck aus westlichen Ländern

Als zusätzliche Komplikation kam zu diesen innenpolitischen Überlegungen noch ein neuer Trend im politischen Raum hinzu. Spätestens ab 2000 wurde mit dem Amtsantritt von Präsident Bush erkennbar, dass die USA die Konkurrenz durch das industriell aufstrebende China nicht nur als lästig, sondern zunehmend als Bedrohung des eigenen Machtmonopols empfand. Man begann selbst solche Verbündete zu sammeln, deren Ruf eher zweifelhaft war. Schon Bush räumte Indien im Nuklearbereich weitreichende Privilegien ein, obwohl das Land bis heute dem Atomwaffensperrvertrag nicht beigetreten ist. Zu einer zeitlichen Verzögerung kam es dann allerdings aufgrund des Terroranschlags vom 11 September. Infolgedessen konzentrierten sich die USA zunächst auf den Krieg gegen den islamistischen Terror. Dabei verrannte man sich wie auch schon früher in opferreiche und nicht zu gewinnende Konflikte, diesmal in Afghanistan, dem Irak und anderen Ländern. Nach Bush griff Obama die Langfriststrategie gegen China dann mit der „Hinwendung zum Pazifik“ wieder auf und führte die langfristige politische und militärische Neuausrichtung gegen China weiter. Auf diesem Fundament konnte dann der wesentlich aggressiver auftretende Trump die endgültige Ablösung der bisherigen Politik der friedlichen Koexistenz durch eine weitgehende Konfrontation vollenden. Seither und auch unter Biden betreiben die westlichen Industriestaaten unter der Führung der USA eine Politik, die sich immer mehr in Richtung eines kalten Krieges 2.0 entwickelt. Der Westen nimmt hierbei für sich das Recht in Anspruch, von China weitreichende Veränderungen des politischen und sozialen Systems zu fordern, während Versuche Chinas, seinerseits Einfluss in anderen Ländern auszuüben, als „Aggression“ gebrandmarkt werden. Inzwischen hat sich daraus neben einem ständig verschärften Handelskrieg auch eine immer massivere Serie diplomatischer und militärischer Geplänkel entwickelt, durch die sich China in seinen Lebensinteressen bedroht sieht.

Drohende Einkreisung

Mit Blick auf den freien Zugang zum Meer und damit zum weltweiten Handel befindet sich China in einer geographisch ungünstigen Lage. Auf drei Seiten von Landgrenzen umgeben, ist der Zugang zum Pazifik und zum indischen Ozean nur durch einen flachen (und damit leicht zu verminenden) Ozean möglich, der durch einen doppelten Ring von Inselfestungen der USA und ihrer Verbündeten abgeriegelt ist. Eine US-geführte Koalition könnte das ölarme Land daher bequem durch Abriegelung der Handels- und Tankerrouten in die Knie zwingen. Zusätzliche Bedrohungspotenziale ergeben durch einen immer stärkeren Boykott bei wesentlichen Technologien wie der Zusammenarbeit im Weltall oder – gerade ganz aktuell – im Bereich moderner IT-Technologien wie 5G-Netzwerke oder der Chipherstellung. Im Bereich Kernenergie hat China deshalb den Kauf westlich lizensierter Kraftwerkstechnologie heruntergefahren. Stattdessen konzentrierte sich das Land darauf, eigene Reaktortechnologien zu entwickeln – und den Schulterschluss mit Russland zu suchen.

Uran aus dem Meer

Als weiterer Bremsklotz erweist sich für das Land die Abhängigkeit von ausländischen Uranimporten. Die heimischen Reserven von gerade einmal 170.000 Tonnen liegen noch unter denen von Frankreich. Bei einem Baufortschritt von jährlich sechs bis acht Kernkraftwerken würde China schon 2035 jährlich 35.000 Tonnen Uran benötigen. Die eigenen Reserven würden nicht einmal bis dahin reichen. Um sich vom Uranimport unabhängig zu machen, plant China deshalb die Entwicklung einer Anlage zur Gewinnung von Uran aus Meerwasser. Die Ozeane enthalten rund 1.000 Mal mehr Uran, als an Land gewonnen werden kann. Zwar werden die Kosten für die Gewinnung aus dem Meer um mindestens das zehnfache über denen aus bergbaulicher Gewinnung geschätzt, doch könnte sich das Land auf diese Weise eine unabhängige Versorgung sichern. Die Entwicklung dieser Technologie ist allerdings sehr aufwendig, so dass mit einem Durchbruch erst in den 2030er Jahren zu rechnen ist.

Russische Kraftwerke sind ein Signal an den Westen

Von besonderem Interesse dürfte an den obigen Meldungen sein, dass sich China für diesen bedeutsamen Neustart für russische und damit gegen westliche Technologie entschieden hat. Die vier konventionellen Reaktoren werden von russischen Unternehmen gebaut und von chinesischen Gesellschaften finanziert. Das an den Westen damit gegebene Signal ist überdeutlich, denn China dürfte sich in den nächsten Jahrzehnten zum mit großem Abstand weltgrößten Markt für Kerntechnologie entwickeln. Die jetzt angekündigten Reaktoren werden die derzeitige KKW-Kapazität des Landes um rund 10 % erhöhen. Bis 2035 rechnet die China Nuclear Energy Association mit einer Steigerung auf 200 GW. Chinas Gesamt-Stromerzeugung aus allen Technologien liegt derzeit mit ca. 7500 Terawattstunden/ Jahr (TWh/a) rund 11-12 Mal so hoch wie die Deutschlands. Mit der weiter fortschreitenden Industrialisierung des Landes wird sich der Bedarf bis zur Mitte des Jahrhunderts vermutlich um mindestens 50 % erhöhen. Um diesen ohne fossile Kraftwerke zu decken, wird man in China wohl mindestens 1200 GW an nicht-fossiler Stromerzeugung installieren müssen, das entspricht der Kapazität von rund 1.000 KKW.

Natürlich will China an diesem gigantischen Markt künftig auch selbst partizipieren. Aktuell hält man sich jedoch noch zurück, obwohl das Land inzwischen mit dem Hualong 1 über eine ausgereifte eigene Technologie verfügt. Dennoch wird dieser Reaktortyp in den oben erwähnten Meldungen nur im Zusammenhang mit dem geplanten neuen Modell Hualong 2 erwähnt, dessen Ersterrichtung ab 2024 beginnen soll. Der Bau des Hualong 2 soll lediglich 2.000 US-$/kWe kosten und in vier statt der bisher erforderlichen fünf Jahre erfolgen. (Zum Vergleich: Europäische Reaktoren des EPR-Typs wie Flamanville und Olkiluoto kosten ca. 10.000 US-$/kWe bei Bauzeiten von teils > 10 Jahren). Anhand solcher Vergleiche wird deutlich, welche Bedeutung der Kernenergie in Asien zukommen wird. Allein der chinesische Markt für Kernkraftwerke dürfte bis 2050 ein Volumen von mehreren 1.000 Mrd. US-$ haben, vom Weltmarkt ganz zu schweigen. Auf diesem Zukunftsmarkt werden Russland und später auch China den Ton angeben, während Deutschland und Europa die selbstgewählte Rolle des Windbeutels spielen dürften.

Quellen:

https://www.scmp.com/news/china/politics/article/3129691/china-gives-green-light-five-nuclear-units-cut-carbon-and-aim

https://www.scmp.com/news/china/science/article/3133379/can-ocean-fuel-chinas-nuclear-boom?module=lead_hero_story_1&pgtype=homepage

https://www.scmp.com/news/china/politics/article/3125086/chinas-leaders-keep-focus-job-creation-and-better-living

https://www.bing.com/search?form=MOZLBR&pc=MOZI&q=2011-07-28-abschlussbericht-ethikkommission-data.pdf

https://deutsche-schutzgebiete.de/wordpress/projekte/kolonien/kiautschou/

https://www.world-nuclear.org/information-library/country-profiles/countries-a-f/china-nuclear-power.aspx

http://german.china.org.cn/txt/2019-08/02/content_75060373.htm

https://www.sueddeutsche.de/politik/atomwaffensperrvertrag-das-indische-problem-1.889347

 




Frau Baerbock findet die einheitliche Normung in der EU toll!

Geht es Ihnen wie uns? Wir dachten bislang, dass nun der / die Erfahrenste seine Kompetenz hervorhebt, was ausgerechnet ihn / sie zum besten Amtsträger machen würde.

Die Politiker zielen natürlich außerdem darauf ab, die Herzen und das Gemüt der Wähler für sich zu gewinnen. Eine Meisterin in dieser Disziplin scheint Frau Baerbock, die Kandidatin der Grünen zu sein. Sie hat nun eine ganz neue Strategie für sich entdeckt:  Stand-up Comedy vom feinsten und subtilsten.
Meist besteht Stand-up-Comedy aus einstudierten Nummern, …  aber auch spontane, unvorbereitete Elemente sind in den Darbietungen zu finden.

Lassen Sie sich überraschen:

Die Anmoderation für die kommende Fragerunde finden Sie ab  01:10 im Original wdr Video

https://www1.wdr.de/mediathek/video/sendungen/europaforum/video-das-erste-triell-mit-baerbock-laschet-und-scholz-100.html

Hier das Transscript:

  • Zum Start eine kleine Frage 01:30: Wo ist Ihnen heute schon Europa im Alltag begegnet?
  • Herr Scholz: 01:48  Nummernschilder mit Europasysmbol und Euro
  • Herr Laschet 02:10 trifft oft Belgier und Holländer in Aachen
  • Frau Baerbock 02:00 bis 2:05 Ihr „…begegnet Europa überall, schon morgens beim Stecker in die Steckdose stecken, dass es Normung gibt und ich nicht verschiedene Stecker haben muss“

Und damit hat Frau Baerbock aus ihrer Sicht mal wieder den Nagel auf den Kopf getroffen. Denn für ganz Einfachgestrickte reicht das. Aber wer will schon freiwillig zu den Einfachgestrickten gezählt werden. Darin liegt wohl der subtile Humor.

Die Interpretation des Ganzen lässt natürlich verschiedene Varianten zu:

Eine für Europäer.

Frau Bärbock hat das Problem mit den unterschiedlichen Stecker-Normen erkannt und will ganz nach ihrer Einstellung darauf hinweisen. Das könnte z.B. so lauten: „Wir werden vertrauensvoll mit den anderen Ländern zusammenarbeiten. Da wir aber keinen zurücklassen wollen, bleiben wir alle hinten. Denn Sie wissen ja, wo ich bin ist vorne, also ist hinten das neue vorne. Wir werden dann Eu-verbindlich uns auf eine einzige Norm einigen. In der Übergangszeit werden wir in allen beteiligten Ländern jedes Jahr die Norm ändern. Das ist die Transparenz die die Opposition immer fordert. Wir nehmen den Bürger mit und schaffen Arbeit. Denken Sie nur an die vielen Handwerksstunden der Elektriker, die dann zu leisten sind.  So schaffen wir Arbeitsplätze und können Werte mehrfach schaffen.“
(Die es nicht von alleine merken, so könnte es sein, das haben wir uns ausgedacht,)

Für uns humorlose Flacherdler hingegen gilt:

Wer nur sein Handy mit dem Flachstecker aufladen muss, weil er ohnehin heute mal hier hin düst und morgen dorthin, CO2 kompensiert versteht sich, kann dies – bis auf den in Großbritannien, aber die sind ja deswegen auch raus aus der EU- überall tun. Und das dürfte auch der Grund sein, warum die gut gelaunte Ellen Ehni, ihres Zeichens Chefin der Chefredakteure beim wdr, sie nicht korrigierte. Sie sieht das wohl genau so. Erst wenn man das Hotelzimmer säubern will und den Staubsauger anschalten will, oder sonstwie etwas mehr Kraft aus der Steckdose benötigt, merkt sofort, dass es mit der einheitlichen Normung nicht weit her ist in der EU. Nur Frau Baerbock und die ihr wohlgesonnene Ellen Ehni merken das nicht.

Das kleine Video zeigt es. Es wurde uns zugespielt, s.o. mit den Ergänzungen.

Wir hoffen der Urheber ist mit der Nutzung auf EIKE einverstanden, denn wir denken, er hatte es eh‘ für größere Verbreitung erstellt. Dem Unbekannten ein herzliches Dankeschön.




Die 1,5°C-Hysterie

Greta Thunberg, zum Beispiel, schreit ständig darüber, dass wir nur noch zehn Jahre haben, um den Planeten zu retten. (Gerüchten zufolge plant Al Gore, sie wegen Plagiats zu verklagen, indem er sagt: „Sie hat meine Aussage gestohlen! Ich habe Vorrang, das sage ich schon seit fünfzig Jahren!!“ … aber ich schweife ab.)

Also schauen wir mal, wie weit wir von der 2°C- oder der 1,5°C-Klippe entfernt sind, über die wir angeblich mit katastrophalen Folgen stürzen werden. Beginnen möchte ich mit einer langfristigen Betrachtung …

Abbildung 1: Rekonstruktion der außertropischen Temperatur der Nordhemisphäre

Dies zeigt die römische Warmzeit, die etwa 150 n. Chr. endete. Die Temperaturen sanken und erreichten ihren Tiefpunkt während des dunklen Zeitalters, etwa 500 n. Chr.. Danach stiegen sie bis zum Höhepunkt der mittelalterlichen Warmzeit um 1000 n. Chr., bevor es bis zum Tiefpunkt der Kleinen Eiszeit um 1700 wieder kälter wurde, um sich danach wieder schubweise zu erwärmen.

Fragen:

● Warum endete die römische Warmzeit?

● Warum endete sie um 150 n. Chr. und nicht etwa um 400 n. Chr.?

● Warum hat die anschließende Abkühlung um 500 n. Chr. aufgehört und nicht etwa 350 oder 650 n. Chr.?

● Warum hat sich die Erwärmung bis zum Höhepunkt der Mittelalterlichen Warmzeit nicht einfach fortgesetzt?

● Warum endete die MWP um 1000 n. Chr. und nicht etwa um 1200 oder 800 n. Chr.?

● Warum hat die anschließende Abkühlung 1700 n. Chr. aufgehört, anstatt sich bis zu einer neuen Eiszeit fortzusetzen, wie es die Milankovich-Zyklen nahelegen würden?

● Warum hat sich die Erde seither 300 Jahre lang erwärmt?

● Warum begann die jüngste Erwärmung etwa 100 Jahre vor dem jüngsten Anstieg der CO2-Werte?

Tipp: Die Antwort auf alle diese Fragen ist offensichtlich nicht „CO2“.

Die schlechte Nachricht ist, dass ich die Antwort auf diese Fragen nicht kenne. Aber die noch schlechtere Nachricht ist, dass kein einziger Klimawissenschaftler auf diesem Planeten die Antworten auf diese Fragen kennt.

Lassen Sie mich also zu Beginn meinen Appell an die so genannten „Klimastrologen“ wiederholen, meine Bezeichnung für jene wohlmeinenden Leute, die behaupten, sie könnten die Klimazukunft voraussagen, indem sie in die Eingeweide eines Klimamodells blicken und diese interpretieren …

Wie wäre es, wenn Sie aufhören, uns zu erzählen, dass Sie die Zukunft vorhersagen können, bis Sie die Vergangenheit erklären können?

Im Ernst, Leute, wenn ihr die Vergangenheit nicht erklären könnt, wie könnt ihr dann behaupten, die Zukunft voraussagen zu können? Das macht überhaupt keinen Sinn. Wenn ein Mann Ihnen sagen würde, dass sein System den Gewinner des morgigen Pferderennens vorhersagen kann, aber er kann den Ausgang eines einzigen Pferderennens in der Vergangenheit nicht erklären, würden Sie ihn auslachen … Ich schlage vor, Sie wenden das gleiche ungläubige Lachen auf die Leute an, die über „Szenarien“ und „Durchschnittswerte von Ensembles von ‚hypermodernen‘ Klimamodellen“ säuseln.

Nun, ich habe dies begonnen, um zu sehen, wie weit wir von den gefürchteten 1,5°C oder 2°C Erwärmung entfernt sind. Lassen Sie mich mit der Temperaturaufzeichnung in Mittelengland beginnen, eine der längsten, die wir haben. Ja, es ist nicht global, und ja, es ist nur auf dem Land … aber für die Menschen, die in diesem Teil des Planeten leben, ist es das, was sie erlebt haben. Diese Aufzeichnung sieht so aus:

Abbildung 2: Die Temperatur-Aufzeichnung in Zentral-England 1659 – 2020. Die rot/schwarze Linie ist eine CEEMD-Glättung.

Wie in Abbildung 1 ist zu erkennen, dass die Temperatur um 1700 ihren Tiefpunkt in der Kleinen Eiszeit erreicht hat. Warum das so ist? Wer weiß das schon? Und seitdem ist sie um mehr als zwei Grad angestiegen … wieder, wer weiß warum? Aber wenn jemand von irgendwelchen „Klima-Notfällen“ weiß, die auf diese drei Jahrhunderte allmählicher Erwärmung zurückzuführen sind, dann wäre jetzt der richtige Zeitpunkt, sie anzusprechen. Ich weiß von keinem. In der Tat war diese langsame Erwärmung im Allgemeinen für Mensch und Tier gleichermaßen vorteilhaft.

Ein zu kleines Gebiet? OK, hier ist die Berkeley Earth Aufzeichnung der globalen Landtemperatur. Die Anmerkungen in der Grafik zeigen, wie tief die extremen niedrigen Temperaturen sanken, nicht die Durchschnittstemperaturen, die durch die rote Linie angezeigt werden.

Abbildung 3. Berkeley Earth Land only Temperaturaufzeichnung. Der graue Bereich zeigt die Unsicherheit. Die gelb/schwarze Linie ist eine Gauß’sche Glättung.

Leider haben wir die Daten nicht bis 1700 zurück … aber wie man an der roten Linie sehen kann, gab es seit 1750 eine Erwärmung von über 2°C. Und noch einmal, ich weiß von keiner „Klimakatastrophe“ seit dieser Zeit.

Mögen Sie die reine Landnutzung nicht? OK, hier ist die globale Aufzeichnung von Berkeley Earth … wiederum ist sie sogar kürzer als die Aufzeichnung an Land, weil die früheren Ozeantemperaturen fehlen.

Abbildung 4: Berkeley Earth globale Land- und Ozean-Temperaturanomalie, 1850 – 2020

Wenn man bedenkt, dass sich der Globus von 1700 bis 1850 um etwa ein halbes Grad erwärmt zu haben scheint, sieht man, dass wir die gefürchteten 2°C „postindustrielle katastrophale Erwärmung“, mit denen die Klimaforscher die Unvorsichtigen in Angst und Schrecken versetzen wollen, bereits hinter uns haben … und es gab keine negativen Auswirkungen.

Meine Schlussfolgerungen und weiteren Gedanken?

Niemand kann das Klima der Vergangenheit erklären, was die Vorhersagen der Klimastrologen über das Klima der Zukunft zu einem kranken Witz macht.

Um das IPCC höchstselbst zu zitieren (Hervorhebung von mir): „Das Klimasystem ist ein gekoppeltes, nicht-lineares, chaotisches System, und deshalb ist die langfristige Vorhersage zukünftiger Klimazustände nicht möglich.“ Dies scheint für die Klimastrologen sehr schwer zu verstehen zu sein, aus dem Grund, der gleich unten genannt wird.

Erwarten Sie nicht, dass die Klimastrologen ihre Ansichten ändern werden. Wie Upton Sinclair bemerkte: „Es ist schwierig, einen Mann dazu zu bringen, etwas zu verstehen, wenn sein Gehalt davon abhängt, dass er es nicht versteht.“

Wir sind bereits über die gefürchteten „2°C Erwärmung seit vorindustrieller Zeit“ hinaus, vor denen sie uns immer wieder warnen.

Es hat keinen „Klimanotstand“ oder eine „Klimakatastrophe“ gegeben, die aus dieser 300-jährigen allmählichen Erwärmung resultiert.

Im Allgemeinen hat die Erwärmung zu längeren Vegetationsperioden, weniger strengen Wintern und längeren Perioden geführt, in denen die nördlichen Häfen eisfrei sind, und sie war im Allgemeinen eher ein Vorteil als eine Gefahr.

Die Erwärmung fand hauptsächlich nachts, im Winter, in den außertropischen und subpolaren Regionen statt. Ich glaube nicht, dass sich die Leute in, sagen wir, Wladiwostok über etwas wärmere Winternächte beschweren, vor allem nicht die Obdachlosen.

Ein Übermaß an Kälte ist für die Armen viel tödlicher als ein Übermaß an Wärme.

Es gibt keine Anzeichen für den lange angekündigten, aber nie eintretenden „KLIMA-NOTFALL“!

Die Unkenrufe der Klimatastrophisten haben alle kläglich versagt. Hier gibt es eine Liste von fünfzig solcher katastrophalen Fehlvorhersagen.

Wenn eine Gruppe bei ihren Katastrophenvorhersagen null zu fünfzig liegt, ist es gerechtfertigt, auf ihren letzten Unkenruf zu zeigen und zu lachen.

Der Durchschnitt eines „Ensembles“ aus einer Anzahl ungenauer Klimamodelle ist so nützlich wie die römische Version, der Durchschnitt eines Ensembles aus den Eingeweiden einer Anzahl von Ziegen.

Klimawissenschaftler sollten aufhören, so zu tun, als wären sie das Orakel von Delphi, aus dem Chicken Little „THE SKY IS FALLING!!!“-Geschäft ganz aussteigen und nur daran arbeiten, das Klima der Vergangenheit zu verstehen. Erst wenn sie die Vergangenheit verstehen können, sollten sie anfangen, Vermutungen über die Zukunft anzustellen.

Ich sage „Vermutungen“, weil, wie das IPCC sagt, eine langfristige Vorhersage zukünftiger Klimazustände einfach nicht möglich ist.

Und schließlich, was können wir gegen all das tun? Hier ist der Schlüssel.
Alles, wovor uns die Leute in Bezug auf den gefürchteten „KLIMA-NOTFALL!“ warnen, haben wir schon immer erlebt. Sie warnen vor Dürreperioden? Was, als ob es die nicht schon früher gegeben hätte? Überschwemmungen? Stürme? Wirbelstürme? Gab es schon, gab es schon.

Waldbrände? Allmählicher Anstieg des Meeresspiegels? Hat es schon immer gegeben.
Das einzige Neue, das CO2 uns bringen könnte, ist die „Froschplage“, die in der Bibel erwähnt wird, und ich rechne nicht damit, dass das passiert. Außerdem … selbst das ist schon mal passiert.

Ich sehe keine Zunahme von irgendetwas Schlimmem, von dem die Alarmisten schreien. Ich kann nichts finden, was schief läuft, kein Thermageddon, keine Katastrophen, nada.

Aber wenn Sie immer noch glauben, dass in der nebligen Zukunft eine Katastrophe droht, Gretas berühmte schreckliche Sache, die immer zehn Jahre entfernt ist, dann empfehle ich Ihnen dringend, eine „No Regrets Option“ zu erwägen. Das heißt, etwas zu tun, das von Wert sein wird, egal ob CO2 die Haupt-Temperaturkontrolle ist oder nicht.

Wenn Sie zum Beispiel glauben, dass wir durch den CO2-Anstieg mehr Dürren bekommen werden, dann spenden Sie Geld an Organisationen, die in Afrika Brunnen bohren. Oder setzen Sie sich für dürreresistente Nutzpflanzen ein. Oder arbeiten Sie daran, Landwirten beizubringen, wie sie ihren Wasserverbrauch reduzieren können.

Denn jedes dieser Dinge wird von Wert sein, egal ob CO2 schlechte Nachrichten bringt oder nicht … und so werden Sie die Arbeit, die Sie geleistet haben, niemals bereuen, egal wie sie ausgeht.

Link: https://wattsupwiththat.com/2021/05/20/the-1-5c-hysteria/

Übersetzt von Chris Frey EIKE

 




Kalifornien: Ein Fünftel aller Hybrid-/Elektro-Autokunden will zurück zum Verbrenner

In Nature Energy publizierten gerade Wissenschaftler des Institutes für Transportstudien von der Universität von Kalifornien am Standort Davis UCD, daß 20% der Plugin-Hybridfahrer und 18% der E-Autokunden zum klassischen Verbrenner zurückkehren oder kehren wollen.

Hauptgrund ist gar nicht die Reichweite, wie man aus deutscher Erfahrung vermuten möchte – der geneigte EIKE-Leser erinnert sich an die Odyssee eines Freiburger Paares, das mit dem VW ID.3 nach Frankreich fuhr und nicht wie geplant mit zwei Batterieladungen hinkam. Nein, der Hauptgrund ist das zeitraubende und umständliche Aufladen des Li-Akkus. Dafür brauch man mindestens eine für Europa typische 240 Volt-Leitung; die Amis haben aber meist nur 120 Volt. Das geht schon – mein deutscher Rasierapparat funktionierte in New York tadellos. Man muß den Wagen über Nacht laden, oder noch länger. Die Installation einer speziellen Ladevorrichtung ist für viele Fahrer zu teuer. Seltsamerweise nutzen Kalifornier meist die öffentlichen Stationen nicht, was an der bekannten amerikanischen Weite liegen mag. Schon im engen Deutschland ist der nächste Ladepunkt meist nicht vorm Haus; man muß dann weit laufen, läßt das Auto die ganze Nacht an der Station stehen, dann kommt kein anderer dran…

„Es sollte nicht davon ausgegangen werden, dass ein Verbraucher nach dem Kauf eines E-Autos auch weiterhin eines besitzen wird“

..,lautet daher das ökonomische Fazit der Studie.

Andere Gründe für die Entscheidung, wieder zum Verbrenner zurückzukommen, sind laut Autoren eine geringe Zahl von Haushaltsfahrzeugen (also fehlende Alternativen, wenn der Stromer ewig am Netz hängt), und – das ist pikant – die Eigenschaft, „nicht männlich zu sein“. Eigentlich gelten Frauen als umweltbewußter, zumindest in Europa. Die FFF-Demos werden von Schülerinnen und Studentinnen dominiert. Man würde erwarten, daß Frauen daher die Wartezeiten und das Ladestation-Gesuche eher hinnehmen, was aber gerade nicht der Fall ist.

Die Drohungen von Eltern gegenüber ihren Töchtern, die Heizung im Kinderzimmer abzuschalten oder das Handy einzukassieren, könnten also erhebliche Wirkung zeigen…..

 




»Windkraft gehört zu unserer Kulturlandschaft!«

»Windkraft gehört zu unserer Kulturlandschaft!« Diese noch recht ungewohnte Ansicht vertrat der niedersächsische Minister für Umwelt, Energie, Bauen und Klimaschutz, Olaf Lies (SPD). »Das haben wir so übrigens auch in den Erlass geschrieben. Das ist zwar zunächst vor allem eine politische Botschaft, ohne tatsächliche rechtsbindende Wirkung. Es ist aber ein klares Bekenntnis zum Ausbau der Windkraft in Niedersachsen«, meinte der Minister in einem Interview mit der NWZ.

Mit aller Gewalt sollen auch in Niedersachsen mehr Windräder durchgedrückt werden, obwohl das Land vor allem in den Küstenregionen mit Windrädern zugepflastert wurde. Doch das reicht Lies nicht: »Unser Ziel ist es, spätestens ab 2030 genau 2,1 Prozent der Landesfläche für Windkraftanlagen zur Verfügung zu stellen.« Die niedersächsische Landesregierung hat bekanntlich einen Windenergieerlass beschlossen, nach dem Anlagen der Windindustrie im Raumordnungsprogramm eine Vorrangstellung bekommen sollen.

Der Schutz des Landschaftsbildes zählt nichts mehr, wenn Windräder den Blick auf jahrhundertealte Bauten verstellt. Lies verweist darauf, dass es klar definierte Abstandsgrenzen gebe, aber: »Natürlich lässt es sich dann nicht vermeiden, dass Windräder am Horizont zu sehen sind. Aber sie gehören dazu, wenn wir Klimaschutz in Realität umsetzen.«

Jedes Jahr müssten fast 500 Anlagen neu gebaut werden, denn Lies träumt davon, 2040 den Strom komplett aus sogenannten »erneuerbaren« Energien zu bekommen. Er hätte gerne 65 GW Leistung aus Fotovoltaikanlagen und 30 GW aus Windanlagen. Erstaunliche Zahlen, stehen bisher in Niedersachsen Ende 2020 insgesamt 6352 Windräder, die 11.325 Megawatt an Leistung liefern könnten, wenn, ja wenn der Wind weht. Wenn nicht, versinkt das Land im Dunkeln, wenn aus dem Ausland kein Strom importiert werden kann. Dabei wirken bereits jetzt weite Landstriche aufgrund der gigantischen Windindustrieanlagen unbewohnbar.

Das Land Niedersachsen geht immer brutaler gegen Bürger vor, die sich gegen diese monumentalen Industrieanlagen wehren wollen. Auch der Landesverband der Bürgerinitiativen in Hannover ist auf Linie gebracht und setzt gegenüber lokalen Initiativen den politischen Willen der Landesregierung durch. Zum Beispiel gegen die Windkraftgegner »Keine Windkraft im Emmertal e.V.« in der Nähe des Kernkraftwerks Grohnde.

Die lokale Gruppe und der Landesverband hatten gegen den Windpark Grohnde-Kirchohsen geklagt und Natur- und Umweltschutzgründe angeführt. TEberichtete. Dem mochte die erste Instanz nicht folgen. Anlass für den Landesverband der Bürgerinitiativen, nicht weiter fortzufahren, obwohl ein Rechtsgutachten gute Erfolgsaussichten für eine Berufung vor dem Oberverwaltungsgericht sah. Die lokale Bürgerinitiative »Keine Windräder im Emmerthal« sieht den Verband weiterhin als in der Pflicht, die Klage fortzusetzen. Immerhin existieren entsprechende Vereinbarungen. Doch der LBU lehnt ab, damit nicht die Ziele des LBU zum Atomausstieg und zur Nutzung erneuerbarer Energien »torpediert« würden. Der Verband führt übrigens auch TE-Veröffentlichungen zur Begründung für seine Haltung an.

Freuen können sich allerdings Rechtsanwälte und Steuerberater. Denn die Zahl der Auseinandersetzungen um die mangelnden Erträge der Windanlagen nimmt zu. Immer mehr Bürger, die ihre Spargroschen in die angeblichen »Bürgerwindparks« investiert haben, stellen nach ein paar Jahren mit langen Gesichtern fest, wie wenig Ertrag die Windräder erbracht haben.

»Sehr geehrte Damen und Herren«, so heißt es in einem wütenden Brief von Windbürgern, der TE vorliegt, »nach bislang drei weniger erfolgreichen Ertragsjahren Jahr 2020:  6.917.284 kWh  (88,4% der Prognose), Jahr 2019:  6.765.468 kWh  (86,5% der Prognose), Jahr 2018:  6.206.743 kWh  (79,3% der Prognose) produziert die Anlage im Jahr 2021 (Januar-April) 24,8% der Prognose bislang noch weniger Strom als im gleichen Zeitraum 2020 mit 43,7% der Prognose.« Sie glauben: »Das wird die Genossenschaftsmitglieder mit Sicherheit nicht erfreuen.«

»Die Frage stellt sich erneut auch im vierten Betriebsjahr der Windkraftanlage, hat der Vorstand die Anleger mit falschen Prognosen getäuscht?« Das schreibt die Energiegenossenschaft Weserbergland, die das erste »Bürger-Windrades« Hamelns betreibt. Erst wurde von einer langfristigen, »enkeltauglichen Geldanlage« gesprochen, doch heute stellen sie mit langen Gesichtern fest: »Haben Oma und Opa sich von falschen Versprechungen blenden lassen, weil sie es nicht besser wussten?«

MERKELS WORT »KLIMALEUGNER« MUSS ALARMIEREN

»Klimaschutz« als Generalvollmacht gegen Recht und Freiheit

Oma und Opa hätten es besser wissen können, denn die Spatzen pfeifen es von allen Dächern, dass die Windräder nur den Landverpächtern und den Projektierern nutzen. Die seifen wie Wolldeckenverkäufer auf Kaffeefahrt die potentiellen Anleger ein und versprechen als Rendite das Blaue vom Himmel. Doch das Blaue trügt genauso wie die windigen Ertragsprognosen.

Nichtsdestotrotz sieht die Windindustrie nach dem Skandalurteil des Bundesverfassungsgerichtes Aufwind und fordert noch viel mehr Windräder, allen voran Claudia Kemfert, die von 100.000 Windrädern in Deutschland träumt. Doch das auch 100.000 mal null immer noch null ist, es bei Flaute also keinen Strom gibt, hat ihr offenbar noch niemand gesagt. Ihre Antwort an Kritiker: Sie würden immer ein Extremszenario machen, was es einmal im Jahr für 10 Tage gebe, die restlichen Tage hätten wir erneuerbare Energie im Überschuss.

Allerdings bringen Windräder durchschnittlich maximal und rechnerisch nur rund 2.000 sogenannte Volllaststunden pro Jahr, das insgesamt 8.760 Stunden hat. Die restlichen 6.760 Stunden stehen die rechnerisch Dinger still, weil kein Wind weht.

Abgesehen davon, dass es deutlich mehr Tage ohne ausreichendes Windangebot als jene von Kemfert benannten 10 gibt, ist die Botschaft klar: Habt euch doch nicht so, was braucht ihr auch jeden Tag Strom?

 




Ist die jüngste Rekord-Kälte einfach nur La Niña geschuldet – oder dem Beginn einer globalen Abkühlung?

Von den Mainstream-Medien in ihrer Besessenheit von der globalen Erwärmung wenig beachtet, ist ein außergewöhnlich kalter Winter 2020-21 in der nördlichen Hemisphäre und ein ungewöhnlich früher Start des Winters in der südlichen Hemisphäre. Niedrige Temperatur- und Schneefallrekorde purzeln überall auf dem Globus. Die strenge Kälte hat bereits die diesjährigen Ernten und Reben in Europa lahmgelegt, während der US-Bundesstaat Texas vom subfrostigen Polarwirbel heimgesucht wurde.

Ist dies der Beginn des vorhergesagten großen solaren Minimums, von dem in einem früheren Beitrag die Rede war – oder einfach nur eine Manifestation des natürlich auftretenden La-Niña-Zyklus? Ein großes solares Minimum wird durch einen steilen Rückgang der maximalen Anzahl von Sonnenflecken während des 11-jährigen Sonnenzyklus gekennzeichnet – ein Rückgang, der bereits im Gange zu sein scheint.

Die bekannten El-Niño- und La-Niña-Zyklen entstehen durch wippende Veränderungen der Oberflächentemperaturen im tropischen Pazifik und dauern jeweils ein Jahr oder länger. Das anhaltende, aber unregelmäßige Muster ist in der untenstehenden Grafik erkennbar, die Satellitenmessungen der globalen Temperatur seit 1979 zeigt. Warme Spitzen wie in den Jahren 1998, 2010 und 2016 sind auf El Niño zurückzuführen; kühle Spitzen wie in den Jahren 2000 und 2008 sind auf La Niña zurückzuführen. Zu den klimatischen Auswirkungen von El Niño und La Niña gehören katastrophale Überschwemmungen im Westen Amerikas und Überschwemmungen oder schwere Dürren in Australien; La Niña wurde auch mit großen, auf das Festland übergreifenden Hurrikanen sowohl in den USA als auch im westlichen Pazifik in Verbindung gebracht.

Die Null-Basislinie in der Abbildung stellt die durchschnittliche Temperatur in der tropischen unteren Atmosphäre oder Troposphäre von 1991 bis 2020 dar (obwohl die Satellitenaufzeichnung 1979 begann). Beobachtungen in der Troposphäre sind ein zuverlässigerer Indikator für die globale Erwärmung als Oberflächendaten, die durch den städtischen Wärmeinseleffekt auf dem Land und durch unzureichende Messstationen auf den Ozeanen verzerrt sind.

Jetzt, im Mai 2021, ist es klar, dass wir eine weitere La Niña erleben, da die mittlere Temperatur im April auf den langfristigen Durchschnitt zurückgefallen ist. Das ist natürlich nicht von Dauer, und das Quecksilber wird mit zukünftigen El-Niño- und La-Niña-Schwankungen weiter steigen und fallen. Aber diese Schwankungen überlagern sich mit einem allgemeinen Erwärmungstrend von derzeit 0,14 Grad Celsius pro Jahrzehnt – die bekannte globale Erwärmung.

Ob die derzeitigen eisigen und schneereichen Bedingungen in weiten Teilen der Welt lediglich eine Folge von La Niña sind oder der Beginn eines längeren Abkühlungstrends, werden wir erst in einigen Jahren wissen. Das Klima ist schließlich ein langfristiger Durchschnitt des Wetters über einen längeren Zeitraum, bis hin zu Jahrzehnten.

Nichtsdestotrotz gibt es zahlreiche Anzeichen dafür, dass die aktuelle Kältewelle nicht nachlassen wird. Zur gleichen Zeit, als in Großbritannien die niedrigste durchschnittliche Temperatur im April seit 1922 gemessen wurde und sowohl die Schweiz als auch Slowenien Rekord-Tiefsttemperaturen in diesem Monat verzeichneten, wurde Australien, Neuseeland und sogar die normalerweise ohnehin schon frostige Antarktis in der südlichen Hemisphäre von klirrender Kälte heimgesucht. Die nächste Abbildung zeigt, wie die Meereisausdehnung 2021 (in blau) um die Antarktis über oder nahe dem 30-jährigen Durchschnitt von 1981 bis 2010 (in grau) liegt.

Auch auf der ganzen Welt wurden weiterhin Schneerekorde gebrochen. Belgrad, die Hauptstadt Serbiens, verzeichnete im April die höchste April-Schneemenge seit 1888; sowohl Finnland als auch Russland meldeten im April die höchste April-Schneemenge seit Jahrzehnten; und Großbritannien, Spanien und mehrere Länder im Nahen Osten erlebten von März bis Mai seltene Frühlingsschneefälle. Auf der anderen Seite des Globus fielen auf den Berggipfeln im Südosten Australiens bis zu 22 cm Schnee, und das ganze zwei Monate vor Beginn der Skisaison 2021.

Die Abbildung unten zeigt die Schneemasse der nördlichen Hemisphäre (ohne Berge) für die aktuelle Saison, basierend auf Daten des Finnischen Meteorologischen Instituts. Wie zu sehen ist, lag die Schneemasse über weite Teile der Saison mehr als eine Standardabweichung über dem Durchschnitt für 1982-2012, und im März 2021 überstieg sie den Durchschnitt um zwei Standardabweichungen. Die Masse wird in Milliarden Tonnen (Gigatonnen, Gt, wobei 1 Tonne = 1,102 U.S. Tons) angegeben.

Der ganze Beitrag steht hier.

Übersetzt von Chris Frey EIKE

 




Neue Studie: Meereis um die Antarktis WÄCHST

Tatsächlich hat die lästige Realität das Wasser so sehr getrübt, dass die „globale Erwärmung“ nun auch Rekordkälte und Schneefall erklärt, was absolut keinen Sinn ergibt.

Wetterextreme hat es immer gegeben und wird es immer geben, aber laut IPCC nimmt die Häufigkeit und Heftigkeit solcher Extreme zu, wobei die menschlichen Kohlendioxidemissionen der alleinige Schuldige sind.

Diese Erklärung sollte von jedem, der zu logischem Denken fähig ist, als verdächtig simpel angesehen werden, doch wenn man diese Hypothese öffentlich in Frage stellt, wird man geächtet, sein Charakter wird angegriffen, seine Qualifikationen werden abgelehnt und sogar seine früheren Auszeichnungen werden widerrufen.

Ein CO2-Anstieg kann nicht der Grund für die Temperaturextreme sein, die gerade Neuseeland betroffen haben.

Der heutige wissenschaftliche Konsens tut sich schwer, die beobachtete Zunahme dieser wellenförmigen, meridionalen Jetstreams (das Phänomen hinter den Schwankungen zwischen den Extremen) zu erklären, und ein Konsens wurde tatsächlich nicht erreicht – vielleicht, weil die Masse normalerweise nicht so tief schürft und daher das Aushecken einer abgestimmten Erzählung nicht erforderlich ist.

Es gibt jedoch einen schwachen Konsens zu diesem Thema: Er besagt, dass „weil sich die Polarregionen der Erde schneller erwärmen als der Rest der Welt, der Temperaturkontrast, der die Jetstreams antreibt, abgenommen hat“ – was zu schwächeren Jets führt.

„Polar Amplification“ ist die Theorie in Kurzform. Aber mindestens ein unüberwindbares Problem stellt sich, wenn es darum geht, die Extreme der südlichen Hemisphäre zu erklären – die Wissenschaft zeigt uns, dass sich die Antarktis tatsächlich nicht erwärmt.

[Hervorhebung im Original]

Satellitendaten zeigen, dass die Meereisausdehnung um den Südpol in den letzten 40+Jahren tatsächlich gewachsen ist, und zeigen auch, dass die Temperaturen auf dem gesamten Kontinent keinen wirklichen Trend zeigten.

Tatsächlich hat die südlichste Spitze Südamerikas in den letzten Jahrhunderten eine schnelle Abkühlung erfahren.

Und in den „jüngsten Jahrzehnten“ hat sich das Meerwasser auf die niedrigsten Temperaturen der letzten 10.000 Jahre abgekühlt (Bertrand et al., 2017).

Weitere Studien zeigen, dass nicht nur das Meereis um die Antarktis in den letzten Jahrzehnten zugenommen hat – im Tandem mit der Abkühlung des Südlichen Ozeans (Fan et al., 2014) – sondern dass die gesamte Meereisausdehnung der Südhalbkugel seit den 1970er Jahren schleichend nach Norden gewandert ist (Comiso et al., 2017).

Und nun zeigt eine neue Studie (Salame et al., 2021), dass das Meereis der südlichen Hemisphäre seit dem Jahr 2000 so weit nach Norden vorgedrungen ist, dass es jetzt bis in die südchilenischen Fjorde bei 54°S reicht, also bis zu 100 km weiter nördlich als die früheren Schätzungen des NSIDC (55°S).

Die täglichen mittleren Lufttemperaturen in den südlichsten Fjorden Südamerikas fielen 2015 während 74 % der vier Monate von Juni bis September unter 0 °C.

Ähnliche ausgedehnte Kälteperioden traten während der gesamten Temperaturaufzeichnung 2000-2017 für diese Region auf.

Diese anhaltenden Minusgrade werden als Hauptgrund für die Bildung von Meereis in den letzten Jahrzehnten in allen 13 analysierten Fjorden der Cordillera Darwin angesehen.

Auch die Gesamtdaten des NSIDC unterstützen einen allgemeinen Trend des Wachstums.

Das Antarktische Meereis-Diagramm dieser Agentur (siehe unten) zeigt, dass die diesjährige Ausdehnung seit Anfang Februar auf Hochtouren läuft. Und jetzt, am 10. Mai oder am Tag 130, liegt die Ausdehnung deutlich über dem Durchschnitt der Jahre 1979 bis 1990:

(NSIDC)

In der Antarktis befinden sich 90 % des Süßwassers der Erde.

Wenn Sie sich Sorgen um den Anstieg des Meeresspiegels machen, dann müssen Sie hier nachsehen.

Das Eis auf dem Planeten wächst insgesamt.

Dennoch wird diese imaginäre „Klimakrise“ nicht so bald verschwinden
Offensichtlich falsche Behauptungen über eine bevorstehende Katastrophe werden benutzt, um eine wirtschaftlich schädliche Politik umzusetzen.

Am 15. September 2020 gab die neuseeländische Regierung bekannt, dass das Kabinett die Einführung einer verpflichtenden klimabezogenen finanziellen Offenlegungsvorschrift beschlossen hat.

Wie viele Industrienationen stellt Neuseeland willentlich auf eine Wirtschaft mit niedrigeren Nettoemissionen um, mit dem Ziel, Netto-Null-Emissionen zu erreichen (auch bekannt als wirtschaftlicher Selbstmord).

Ironischerweise werden die Menschen jedoch bald nach all der Kohle, dem Holz und was auch immer sonst noch brennt, das sie bekommen können, schreien, denn die nächste große Abkühlungsepoche bricht an, das nächste Grand Solar Minimum steht vor der Tür.

Lehnen Sie die politisierten Narrative der linearen Erwärmung ab.

Bereiten Sie sich stattdessen auf die nächste große Abkühlung vor.

Das Klima ist schließlich zyklisch.

Link: https://electroverse.net/new-zealand-swings-to-cold-study-shows-antarctic-ice-is-growing/

Übersetzt von Chris Frey EIKE

 




Wirksamkeit von Impfstoffen: eine Frage der Präsentation

Es handelt sich dabei um die Verminderung des relativen Risikos, an einer schweren Form von Covid-19 zu erkranken.

Dieser Wert ist abhängig:

  • Von den Bedingungen des klinischen Tests,
  • Von den Personen, die daran teilgenommen haben,
  • Und vom Zeitpunkt, an dem der Test durchgeführt wurde.

Wenn die ausgewählten Personen z. B. älter gewesen wären oder mehr Vorerkrankungen gehabt hätten oder wenn der Test zum Zeitpunkt einer größeren Virenverbreitung durchgeführt worden wäre, wäre die relative Effizienz der Impfung viel kleiner gewesen.

Für die Personen, denen man eine Impfung oder reine Behandlung anbietet, ist das absolute Risiko wichtiger.

Das relative Risiko (auf Englisch abgekürzt RRR) ist eine Zahlenangabe, die Ihnen sagt, wie etwas, das Sie tun oder unterlassen, ihr Erkrankungsrisiko verändert.

Wenn Sie z.B. nicht rauchen, sinkt Ihr Risiko, an Herz-Kreislauf-Problemen zu erkranken, im Vergleich zu den Rauchern um 30 Prozent. Es geht dabei immer um den Vergleich zwischen zwei Gruppen. Wenn Sie wissen, zu welcher Gruppe Sie gehören, können Sie die Wahrscheinlichkeit einer Erkrankung abschätzen.

Diese Angabe ist also relativ und bezieht sich nicht unbedingt auf Ihren persönlichen Fall, sondern auf die Gruppe, der Sie angehören. Die Information über die relative Risikominderung ist sinnvoll für Forscher, die Meta-Analysen durchführen, denn sie erlaubt es die Ergebnisse verschiedener klinischer Studien zu kombinieren. Auf keinen Fall können Sie daraus ersehen, ob eine Behandlung ihnen persönlich nützt, denn sie berücksichtigt nicht ihr persönliches Erkrankungs-Risiko ohne Behandlung.

Für jeden von uns ist es wichtig zu wissen, was eine Behandlung oder Impfung für eine Einzelperson bewirken kann. Dafür braucht man den Wert der absoluten Risikominderung (auf Englisch abgekürzt ARR).

Das absolute Risiko ist Ihre anfängliche Wahrscheinlichkeit, eine Krankheit wie Krebs, Bluthochdruck …oder Covid-19 nach einer SARS-CoV-2-Infektion zu bekommen. Sie müssen deshalb wissen, wie hoch Ihr Risiko (in %) ist, diese Krankheit ohne Behandlung zu entwickeln. Von diesem Wert müssen Sie das in klinischen Studien ermittelte absolute Risiko abziehen.

  • Diesen Wert müssen Sie kennen, um eine rationale Entscheidung über den Nutzen einer Behandlung im Vergleich zu den damit verbundenen Nebenwirkungen treffen zu können.

Aber diese Prozentzahl der «absoluten Risikominderung» ist immer viel niedriger als die Zahl der «relativen Risikominderung» und ist deshalb nicht sexy genug, um eilig entwickelte Produkte an den Mann zu bringen. Aus diesem Grund benutzen die Pharma-Hersteller viel lieber den RRR als den ARR.

Hier ein einfaches Beispiel eines klinischen Tests:

Quelle 1: https://www.mdpi.com/1648-9144/57/3/199

Sie werden so leicht verstehen, warum die Pharma-Labore lieber den RRR als den ARR verwenden.

Die Prozentzahl der relativen Risikoreduktion wird von den Herstellern gerne im Marketing benutzt, weil sie den erwarteten Nutzen einer Behandlung übertreibt. Die gleichen Hersteller benutzen aber die ARR, um Nebenwirkungen zu verharmlosen.

Die Mediziner sollten den Personen, die sich für eine Behandlung oder Impfung entscheiden müssen, den ARR mitteilen, damit sie deren REALEN Nutzen beurteilen können. Das ist die Basis einer aufgeklärten Einwilligung.

Demonstrieren wir das am Beispiel der klinischen Studien, die den Corona-Impfstoffen von BionTech-Pfizer und Moderna zugrunde liegen. (Quelle 2) https://bestpractice.bmj.com/info/toolkit/learn-ebm/how-to-calculate-risk/

BionTech-Pfizer (Quelle 3) :

https://www.nejm.org/doi/full/10.1056/NEJMoa2034577

Wenn Sie also jung sind und ein gegen Null gehendes Risiko, an einer schweren Form von Covid-19 zu erkranken haben, würden Sie sich dann für eine Risikominderung von 0,71 % impfen lassen und dabei eventuell schwere Nebenwirkungen in Kauf nehmen? Selbst wenn ihr Covid-Risiko bei 30 Prozent läge, würde dann dessen Verminderung um 0,71% für Sie etwas ändern?

Für Ihre Entscheidung ist ein weiterer Wert von Interesse: der NNT. Das ist die Zahl der Geimpften, die erreicht werden muss, damit wenigstens eine Person davon profitieren kann.

Im Fall BionTech-Pfizer: NNT = 1 / ARR = 1 / 0.0071 = 141.

Das bedeutet, dass von 141 mit diesem Produkt geimpften Personen 140 das Risiko schwerer bis tödlicher Nebenwirkungen in Kauf nehmen müssen, ohne davon einen Nutzen zu haben!

Würden Sie dieses Risiko akzeptieren?

Hier noch eine Überraschung: Die Zahlen der in Israel durchgeführten massiven Impfkampagne bestätigen mit einem ermittelten RRR von 94% durchaus die Hersteller-Angaben. Aber der im realen Leben (mit Masken- und Abstandsgebot) ermittelte ARR sank gegenüber der klinischen Studie auf 0,46%! In diesem Fall musste man also 217 Personen impfen, damit eine einzige davon profitieren konnte. Aber die «Experten» haben sich gehütet, das an die große Glocke zu hängen.

Nun zum Impfstoff von Moderna (Quelle 4) :

https://www.nejm.org/doi/full/10.1056/nejmoa2035389

In diesem Fall ist der NNT = 1 / ARR = 1 / 0.011 = 91.

91 Personen müssen sich also impfen lassen, damit ein Individuum davon profitiert. Die 90 übrigen nehmen das Risiko schwerer bis tödlicher Nebenwirkungen in Kauf.

Das ist die ganze Wahrheit über die Impfstoffe, die die Welt retten sollen!

Zu den Vorschriften der US-Genehmigungsbehörde FDA für die Vermarktung von Pharma-Produkten (Quelle 5) gehört die Verpflichtung der Hersteller, der Öffentlichkeit alle diese Daten zugänglich zu machen, damit jede Person die Vor- und Nachteile einschätzen und sich bewusst entscheiden kann.

(Quelle 5):

P60. https://www.fda.gov/media/81597/download + https://www.fda.gov/about-fda/reports/communicating-risks-and-benefits-evidence-based-users-guide

2. Provide absolute risks, not just relative risks. Patients are unduly influenced when risk information is presented using a relative risk approach; this can result in suboptimal decisions. Thus, an absolute risk format should be used.

Doch für die hier zur Debatte stehenden Impfstoffe haben weder die FDA noch die EMA etwas derartiges verlangt. Sie haben nur auf die RELATIVE Risikominderung hingewiesen. Dieses Versäumnis ist nicht nur unehrlich, sondern auch gefährlich.

Wie ist es möglich, dass unsere Gesundheitsbehörden und unsere Minister uns auf dieser Datengrundlage erzählen können, dass die Covid-Impfstoffe funktionieren, dass ihr Nutzen größer ist als die Risiken und uns aus der Krise herausführen können?

Wie können sie ins Auge fassen, Personen ohne Risiko und sogar Kinder impfen zu lassen, wo ihnen doch diese Impfstoffe nicht nur nichts nützen und die Meldungen über schwere bis tödliche Nebenwirkungen täglich zahlreicher werden.

Allerdings weisen manche darauf hin, dass die Impfung doch funktioniere, indem sie auf die Beispiele Israel und England verweisen, wo es praktisch kaum noch Todesopfer gebe.

Betrachten wir deshalb die Mortalitätskurven dieser beiden Länder (Quellen 7 und 8). Israel und Großbritannien haben mit der Impfung der ältesten und fragilsten Personen begonnen: Nach dem Beginn der Impfkampagne kam es zu einer Explosion der Mortalität, ein Phänomen, das in allen Ländern mit Massenimpfungen beobachtbar ist. Das bezeichnen manche Epidemiologen als „Ernte-Effekt“: Die Impfung hat das Ableben von Personen beschleunigt, die ohnehin nicht mehr lange gelebt hätten.

https://www.worldometers.info/coronavirus/country/uk/

https://www.worldometers.info/coronavirus/country/israel/

So ist es kein Wunder, dass die Kurve der Sterblichkeit danach wieder absackt.

Überall auf der Welt vermehren sich die Infektionszahlen bei doppelt geimpften Personen. Die Insassen der Pflegeheime sterben weiter und niemand möchte der Wahrheit ins Auge blicken. Niemand wagt es, die richtigen Fragen zu stellen. Im Gegenteil versteift man sich in einer morbiden Flucht nach vorne.

Es wird also wohl im Herbst eine vierte Corona-Welle geben, die die verletzlichsten Personen, ob geimpft oder nicht, mitreißen wird. Anstatt die Nutzlosigkeit und Gefährlichkeit der Gen-Therapien anzuerkennen, hat man bereits ein Narrativ vorbereitet, um davon abzulenken. Die Rede ist von neuen Virus-Varianten, von der geringen Wirksamkeit von Impfstoffen, die nach sechs Monaten einer Auffrischung bedürfen. Es wird eine Art Jahres-Abo bei Pfizer geben. Dessen Chef hat das zynischer Weise selbst angekündigt (Quelle 9):

https://www.latribune.fr/economie/international/une-troisieme-dose-du-vaccin-pfizer-probablement-necessaire-selon-son-pdg-882539.html

Wie sind wir da hinein geraten? Es ist schwer, diesen wütenden Wahnsinn zu verstehen, der viele Kranke, Invalide und Tote zurücklassen wird. Welche Gesellschaft kann so etwas akzeptieren? Welche Gesellschaft, die sich ohnehin bereits gegenüber der jungen Generation versündigt hat, bereitet sich nun darauf vor, diese durch eine Gen-Therapie mit unabsehbarem Langzeit-Nebenwirkungen noch größeren Gefahren auszusetzen?

Um ihre Ziele zu erreichen, bereiten die europäischen Führer*innen den Impfpass vor. Sie halten die Bevölkerung in Angststarre, um sie am Nachdenken zu hindern.

Viele werden sich daran erinnern…und die Verantwortlichen werden Rechenschaft ablegen müssen! (Übersetzung: Edgar L. Gärtner)

Quelle: Collectif Citoyen für FranceSoir (https://www.francesoir.fr/opinions-tribunes/efficacite-des-vaccins-tout-est-une-question-de-presentation)




Wechselstromnetz – Gleichtakt ist wichtig

Auf der letzten Eike Konferenz in München (ach, schon wieder so lange her) und im privaten, bin ich wieder danach gefragt worden. Daher habe ich eine Basis für unsere Leser mit Fachwissen auf anderen Gebieten zusammengestellt.

Die Fachleute unter unseren Lesern sind hier nicht angesprochen. Diese Leser finden unter den u.g. Links fachlich tiefergehende Informationen. Wer kommentieren möchte, bitte schreiben Sie genau, was Sie meinen und wie Sie es ausdrücken würden, damit die o.g. Gruppe unserer Leser es besser versteht. Pauschale Kritik fällt auf den Kommentator zurück.

 

Wie entsteht Wechselspannung?

Zwischen den Polen eines Magneten dreht sich ein Leiter.

Durch die Bewegung in dem magnetischen Feld, wird in dem Leiter (Draht) eine Spannung induziert. Ist die Drahtschleife geschlossen, so fließt ein Strom, der periodisch zu-  und abnimmt. Steht die Leiterschleife gerade unter einem Pol, ist die Spannung (der Strom) am größten, steht die Leiterschleife zwischen den Polen – in der neutralen Zone-  wird keine Spannung induziert, durch die weitere Bewegung ändert die Spannung (der Strom) ihre Polarität (seine Richtung).

Es ist egal,  ob die Leiterschleife oder der Magnet bewegt wird – die induzierte Spannung und damit der Strom, pulsiert sinusförmig.

Anwendungsbeispiele sind Generatoren die Spannung erzeugen. Der Stromkreis ist dann über den Verbraucher geschlossen (Haushalte, Industrie, Straßenbeleuchtung, Bahnen, … )

Die Bewegung des stromdurchflossenen Leiters im Generator, erzeugt selbst ein der Drehbewegung entgegengesetztes Magnetfeld – das muss der Antrieb des Generators dann als mechanische Arbeit leisten – je geringer der fließende Strom (die abgenommene Leistung ) ist, umso weniger mechanische Antriebsleistung ist notwendig und umgekehrt.

Eine gute Beschreibung finden Sie hier

https://group.vattenfall.com/de/unternehmen/geschaeftsfelder/strom-gas/wie-wird-strom-erzeugt

 

Historische Ergänzung:

Am Anfang der Entwicklung konnte man mit „wechselndem Strom“ nicht viel anfangen. Man kannte nur Gleichstrom. Dazu baute man die Generatoren mit einem Kommutator „Stromwender“. Gut zu erkennen an diesem Generator

Demmig-Dynamo Schuckert 1881

Ausstellungsdynamo von Sigmund Schuckert, hergestellt für die Ausstellung „L’electricè“ in Paris 1881 – Foto vom Autor, Industriemuseum Tafelwerk, Nürnberg

Man sieht rechts und links die Erregerspulen (Magnetspulen), der Läufer ist im runden Mittelteil, links der Kommutator mit Kupferbürsten. Der Ausdruck „Bürste“ hat sich gehalten, auch für die später genutzten Kohlestifte.

1881 baute Werner von Siemens die erste elektrische Straßenbahn, damals mit 400 VDC Stromzuführung über die Schienen. (Prinzip Gleichstrom Modelleisenbahnen, ein Beispiel: Fleischmann)

Transformator

Ebenso, wie vorstehend beschrieben, erzeugt ein fließender Strom um einen Leiter ein Magnetfeld. Ist der Strom pulsierend, so wird in einer in einer daneben angebrachten Spule ebenfalls eine Spannung induziert. Diese Anordnung kann dann ein Trafo sein, bei dem die Wicklungen elektrisch (galvanisch) getrennt sind, aber einen gemeinsamen Kern aus zueinander isolierten Eisenblechen haben, das Joch. – die Energie wird dann durch das Magnetfeld übertragen. Die primär – sekundär Spannung wird dann im Verhältnis der jeweiligen Anzahl an Windungen herauf oder herabgesetzt.

https://www.udo-leuschner.de/basiswissen/index.htm

Motor

Grundsätzlich funktioniert ein Motor wie ein Transformator, nur dass beim Motor die sekundäre Wicklung dann der Läufer ist. Der Läufer dreht sich in einem Motor, wenn die Ständerwicklungen ein Drehfeld induzieren, quasi das Gegenteil des oben beschriebenen Generatoreffektes. (Das war am Anfang der Entwicklung nicht sofort klar!)

Wichtige Formeln:

Mit dem Ohmschen Gesetz kann der Strom errechnet werden, der bei einer bestimmten Spannung durch einen Widerstand (-sleiter) fließt:  Strom = Spannung / Widerstand,
als Formel I = U/R  – I in Ampere, U in Volt,  R in Ohm

Die Leistung, die notwendig ist, um den Strom zu treiben:  P = U * I , P in Watt,
Verlustleistung ist auch Leistung, nach Umstellen der Formeln gilt auch Pv = I² * R

Die geleistete Arbeit ergibt sich mit Leistung mal Zeit,
W = P * t, an den Stromanbieter zahlen wir meist nach verbrauchten kWh (Kilo Watt Stunden)

Nichts funktioniert ohne Verluste, was wir nutzen hat einen Wirkungsgrad. Fließt Strom durch eine Leitung, so sind die Verluste natürlich abhängig vom Widerstand des Leiters, wesentlich ist der Strom, der geht nach obiger Formel quadratisch ein.

Stromnetz im Gleichtakt

Wechselspannung bietet Vorteile, es ist einfach mit einen Transformator die Spannung herauf zusetzen, für verlustärmere Fernübertragung  (höhere Spannung, kleinerer Strom]. Für  den Verbraucher wird die Spannung wieder herab gesetzt.

Excel-Sinus

Der Nachteil ist, dass alle an das Netz angeschlossenen Generatoren, ihre Spannung im Gleichtakt einspeisen müssen. Der exakte Takt – die Frequenz, beträgt für z.B. Deutschland,  Österreich, Schweiz 50Hz, das sind 50 Zyklen / sec.  [Erst 1930 wurden in Deutschland die 50 Hertz als Normfrequenz festgeschrieben.]

Die aktuelle Netzfrequenz finden Sie hier: https://www.netzfrequenzmessung.de/,
Ein Ing. Büro, das auch professionelle Auswertungen zur Verfügung stellt.

Messung der Netzfrequenz

In jedem Augenblick muss von den Kraftwerken genau so viel Strom erzeugt werden, wie von den Verbrauchern abgenommen wird. Liegt die abgenommene Leistung über der den Generatoren zugeführten Leistung, dann wird das Leistungsdefizit zwischen zugeführter und abgenommener Leistung aus der Rotationsenergie der Generatoren gedeckt. Diese werden dadurch langsamer, d.h. die Netzfrequenz sinkt.

Verschiedene gestaffelte Regelmechanismen sorgen bei einer Abweichung von der Sollfrequenz zu einer Leistungsanpassung an den Generatoren, um wieder die 50,0 Hz zu erreichen. Links dargestellt ist die aktuelle Netzfrequenz. Die Skala ist so groß ausgeführt, um die geringen Frequenzänderungen detailliert darstellen zu können. Im normalen Netzbetrieb treten Abweichungen bis 0,150 Hz auf, die Primärregelleistung wird erst bei einer Abweichung von 0,200 Hz voll eingesetzt.

Die derzeit Primärregelleistung beträgt im obigen Screenshot gerade 521 MW, d.h., dass müssen konventionelle Kraftwerke gerade zusätzlich abgeben. Wind und Sonne können „kein Gas geben“.

Zeitlicher Verlauf der Netzfrequenz:  https://www.netzfrequenzmessung.de/verlauf.htm (etwas warten, die Grafik wird zeitlich aktuell erstellt)

Weicht nun ein Generator davon ab, kommt es zu Ausgleichsströmen, die je nach Frequenzabweichung bis zur Zerstörung der Netzkomponenten oder der Generatoren führen kann.

Um Generatoren miteinander zu koppeln, müssen übereinstimmen:
Die Frequenz, die Phasenlage (der Beginn), die Höhe der Spannung

Um es deutlich darzustellen, sehen Sie im obigen Beispiel  einen Frequenzunterschied von 1:2. Und auch eine Phasenverschiebung.  An vielen Stellen ist der Wert (die Spannung) der beiden Sinuswellen sehr unterschiedlich, im realen Netz kommt zu Ausgleichsströmen.

Die Pfeile könnten an allen Stellen angebracht sein, hier zeigen sie nur auf Beispiele:  „Blau“ hat den Maximalwert, „Rot ist fast maximal Negativ,  oder „Rot hat Maximalwert, „Blau“ ist fast maximal Negativ..

Wann kann es zu Frequenzabweichungen kommen?

Im ausgeglichenen Zustand, liefert der Generator gerade so viel Strom, wie gebraucht wird, der Motor dreht den Generator gleichmäßig, Wird mehr Energie (Strom) gefordert, so wird der Antrieb des Generators etwas langsamer werden, die Frequenz geht zurück-  der Antrieb muss nachgeregelt werden. Die wichtigste Regelgröße ist die Frequenz (was der Drehzahl entspricht).

Wird Last abgeschaltet, so leuchtet es ein, dass die Drehzahl und damit die Frequenz zunehmen.  Der Regler reduziert die Energiezufuhr des Antriebes.

  • die Frequenz ist im Stromnetz das Maß für ein Leistungsgleich- bzw. ungleichgewicht.
  • Solche Lastsprünge treten auch auf, wenn Wind und Sonne „Einspeise- bzw. Abfallsprünge“ verursachen.

Was ebenfalls nicht erwünscht ist: Blindleistung

In Wechselstrom-Netzen gilt: Wirkleistung + Blindleistung = Scheinleistung

Einfach erklärt: https://www.youtube.com/watch?v=p7AEHfs9EOA

Komplexer erklärt: https://docplayer.org/67158225-Blindleistung-blinde-leistung-ohne-nutzen.html

„Blindströme“ lassen sich grundsätzlich nicht vermeiden, sie sollten jedoch gering sein, da sie die Leitungen ebenfalls belasten und Übertragungsverluste nach obiger Formel Pv= I² *R ergeben.

Die Begriffe beziehen sich auf Wechselstromkreise. In diesen ist das Induktionsgesetz gültig, d.h. Spulen und Kondensatoren können in Form von Magnetfeldern und elektrischen Feldern Energie speichern (und wieder abgeben). Da im Falle von Spulen und Kondensatoren sowohl der Feldaufbau als auch der Feldabbau eine gewisse Zeit benötigt, verschieben sich Stromfluss und Spannungsverlauf zeitlich gegeneinander.

Auf dieser Webseite gibt es weitere interessante  Erklärungen.

https://www.emf.ethz.ch/de/emf-info/themen/physik/verknuepfung-von-elektrischen-und-magnetischen-feldern/wirkleistung-blindleistung-scheinleistung/


Obige Sinuskurven habe ich mit MS-Excel erstellt. Sie können die Exceldatei Sinus herunterladen und durch verändern der Parameter selbst sehen, wie sich die Kurvenverläufe – und vor allem die zusammengesetzten, verändern

Andreas Demmig

Ich hoffe, ich konnte den Einstieg in die Wirkungsweise der rotierenden Generatoren zur Stromerzeugung vermitteln. Eine Information wieviel Kraftwerke  bzw. welche Leistungen als Mindestreserve für die Stabilität unserer Energieversorgung wichtig sind, kommt in einem weiteren Beitrag.

***

Möglicherweise auch Interessant:

Übertragung elektrischer Energie, Prof. Dr.  Muhr, TU Graz

https://www.tugraz.at/fileadmin/user_upload/Events/Eninnov2014/files/pr/PR_Muhr.pdf

https://www.e-steiermark.com/pressemitteilungen/blackout-leitfaden-fuer-alle

http://publications.rwth-aachen.de/record/760181/files/760181.pdf

 

 




Woher kommt der Strom? Was für ein Wetter!

Abbildung

Abbildung 1

Ist zu viel Strom im Markt, muss dieser billig abgegeben, verschenkt oder gar mit einem Bonus versehen werden. Ist zu wenig Strom vorhanden, muss dieser teuer importiert (Abbildung 2) werden. Es ist immer das gleiche Spiel, welches heißt. Das Wetter, und damit die regenerative Stromerzeugung mittels Wind- und Photovoltaikanlagen richtet sich nicht nach dem Bedarf der Stromkunden. Das Regulativ bilden die konventionellen Stromerzeuger (Abbildung 3), die in dieser Woche wieder mal besonders viel zu tun hatten. Mehr als sonst. Denn es ist immer mehr als genug zu tun, um Strombedarf und regenerative Stromerzeugung in Einklang zu bringen.

In die Webseite www.stromdaten.info  wurde ein neues, sehr mächtiges Analysetool integriert. Beliebige Zeiträume können nicht nur nach diversen Kriterien untersucht werden. Es werden auch die entsprechenden Zeiträume der Vorjahre angezeigt. Auf einen Blick kann sofort ein Vergleich der Zeiträume vorgenommen werden.

Die aktuelle Analysewoche ist  voreingestellt mit den Werten Import/Export. Sie sehen, dass mit jeder MWh Strom, die per Saldo exportiert wurde, unter dem Strich 1,75 €/MWh Bonus mitgegeben wurden. Welche Länder profitiert haben, wird sichtbar, wenn die einzelnen Länder über das Dropdown-Menü aufgerufen werden. Gleichzeitig werden in den übrigen Ergebnisfeldern die jeweiligen Werte der Jahre 2016 bis 2020 ausgeworfen. Eine Entwicklung wird sicht- und beschreibbar.

Mit einem Klick auf das Kästchen ´Stromerzeugung und Bedarf ` werden diverse Werte zusätzlich angezeigt. Diese können mittels Dropdownmenü verfeinert werden. Mittels Klick auf eine Zeile wird diese ´unterlegt`, was die Jahres-Vergleiche erleichtert. Die Tagesvergleiche werden ab sofort in die Tagesanalysen integriert und sind wesentlicher Bestandteil der Analyse. Bitte immer einen Blick darauf werfen. Der Kurzkommentar wird mit Fakten unterlegt und verständlicher.

Die Tabelle mit den Werten der Energy-Charts und die daraus generierte Tabelle liegen unter Abbildung 4 ab. Es handelt sich um Werte der Nettostromerzeugung, der „Strom, der aus der Steckdose“ kommt, wie auf der Webseite der Energy-Charts ganz unten ausführlich erläutert wird.

Die Charts mit der angenommenen Verdoppelung und Verdreifachung liegen unter Abbildung 5 ab. Mit Abbildung 6 haben Sie wieder die Möglichkeit ihr eigener Energiewender zu werden.  Die Ausführungen von Prof. Claudia Kemfert finden Sie nochmals unter Abbildung 7.

Tagesanalysen

Montag, 3.5.2021: Anteil erneuerbare Energieträger an der Gesamtstromerzeugung 56,14 Prozent, davon Windstrom 27,7 Prozent, Solarstrom 17,9 Prozent, Strom Biomasse/Wasserkraft 12,54 Prozent. Stromdateninfo Tagesvergleich ab 2016. Die Agora-Chartmatrix: Hier klicken.

Der Wochenanfang startet mit zwei Stromlücken, die hochpreisig geschlossen werden müssen.  Die konventionelle Stromerzeugung versucht nicht ernsthaft, die Lücken zu schließen. Zu groß wäre der Überschuss über Tag. Der Handelstag.

Dienstag, 4.5.2021: Anteil erneuerbare Energieträger an der Gesamtstromerzeugung 76,43 Prozentdavon Windstrom 57,35 Prozent, Solarstrom 9,29 Prozent, Strom Biomasse/Wasserkraft 9,80 Prozent. Stromdateninfo Tagesvergleich ab 2016. Die Agora-Chartmatrix: Hier klicken.

Heute wird viel regenerativer Strom erzeugt. Rumms, da gehen die Preise teilweise Richtung 0€/MWh. Die Konventionellen erzeugen die zwecks Netzstabilität notwendigen 20 GW. Weniger geht nicht. Der Handelstag.

Mittwoch, 5.5.2021: Anteil erneuerbare Energieträger an der Gesamtstromerzeugung 72,96 Prozentdavon Windstrom 50,78 Prozent, Solarstrom12,27 Prozent, Strom Biomasse/Wasserkraft 9,91 Prozent. Stromdateninfo Tagesvergleich ab 2016. Die Agora-Chartmatrix: Hier klicken.

Viel Windstrom, viel Solarstrom. Viel zu viel Strom. Strom der mit Bonus verschenkt werden muss. Die Konventionellen bleiben am unteren Limit 20 GW. Bis zum Abend. Um 22:00 Uhr tut sich sogar eine Bedarfslücke auf. Der Handelstag.

Donnerstag, 6.5.2021: Anteil erneuerbare Energieträger an der Gesamtstromerzeugung 50,47 Prozentdavon Windstrom 26,28 Prozent, Solarstrom 11,94 Prozent, Strom Biomasse/Wasserkraft 12,25 Prozent. Stromdateninfo Tagesvergleich ab 2016. Die Agora-Chartmatrix: Hier klicken.

Die Windstromerzeugung nimmt über Tag massiv ab. Die PV-Stromerzeugung ist ohnehin nicht stark. Ab Mittag ergibt sich eine erheblich Stromlücke, die richtig Geld kostet. Die Konventionellen kommen nicht nach. Der Handelstag

Freitag, 7.5.2021: Anteil erneuerbare Energieträger an der Gesamtstromerzeugung 52,94 Prozent, davon Windstrom 25,66 Prozent, Solarstrom 14,68 Prozent, Strom Biomasse/Wasserkraft 12,60 Prozent. Stromdateninfo Tagesvergleich ab 2016. Die Agora-Chartmatrix: Hier klicken.

Auch in der Nacht muss Strom importiert werden. Über Mittag ist viel Strom vorhanden, der exportiert wird. Am Abend wieder eine Stromlücke. Die Konventionellen kommen nicht nach. Sie fahren eine ruhige Linie und nehmen die Stromlücken in Kauf. Der Handelstag.

Samstag, 8.5.2021: Anteil Erneuerbare an der Gesamtstromerzeugung 63,31 Prozent, davon Windstrom 25,36 Prozent, Solarstrom 23,41 Prozent, Strom Biomasse/Wasserkraft 14,55 Prozent. Stromdateninfo Tagesvergleich ab 2016. Die Agora-ChartmatrixHier klicken.

Zum Einstieg ins Wochenende wenig Wind, viel Sonne und geringer Bedarf. Dennoch morgens und abends Stromlücken, die im Verhältnis zum Exportstromertrag teuer geschlossen werden. Konventionell wird die Stromerzeugung über Tag ans untere Limit gebracht. Die Lücken können ohne erheblichen, ökonomisch unsinnigen Aufwand nicht geschlossen werden. Der Handelstag.

Sonntag, 9.5.2021: Anteil erneuerbare Energieträger an der Gesamtstromerzeugung 76,37 Prozent, davon Windstrom 38,44 Prozent, Solarstrom 24,95 Prozent, Strom Biomasse/Wasserkraft 12,97 Prozent. Stromdateninfo Tagesvergleich ab 2016. Die Agora-Chartmatrix: Hier klicken.

Der geringe Bedarf am Sonntag in Verbindung mit starker regenerativer Erzeugung lässt die Stromerzeugung in Deutschland mal wieder zu einem Verlustgeschäft werden. Die konventionellen Stromerzeuger liefern die notwendigen 20 GW (Netzstabilität). Der Handelstag. Ein ganz schwarzer Handelstag in Sachen Strom.

Noch Fragen? Ergänzungen? Fehler entdeckt? Bitte Leserpost schreiben! Oder direkt an mich persönlich: stromwoher@mediagnose.de. Alle Berechnungen und Schätzungen durch Rüdiger Stobbe nach bestem Wissen und Gewissen, aber ohne Gewähr.

Die bisherigen Artikel der Kolumne Woher kommt der Strom? mit jeweils einer kurzen Inhaltserläuterung finden Sie hier.

Rüdiger Stobbe betreibt seit über fünf Jahren den Politikblog www.mediagnose.de.




Die Klimaschau von Sebastian Lüning: Klima-Kipppunkte mit Notausgang




CO2-Zertifikate-Handel der EU treibt kleine Firmen in den Bankrott

Von wegen „Klimaschutz“ sei nicht kapitalistisch – mit den sogenannten CO2-Zertifikaten gibt es in der Europäischen Union sogar ein recht anrüchiges Produkt für Börsen-Spekulanten, das nach dem European Emissions Trading Scheme gehandelt wird. Der Haupthandelsplatz liegt in Leipzig, die European Energy Exchange AG, Augustusplatz 9 (zunächst die Seite aufrufen, dann auf das kleine Chart-Zeichen rechts unten in der weißen Leiste klicken).

Wie funktioniert der Emissionsrechtehandel? Nichts Neues unter der Sonne: Aus US-Großstädten ist der Luftrechte-Handel bekannt, der darauf basiert, daß die Stadtverwaltung eine maximale Bauhöhe der Wolkenkratzer vorgibt. Wer darunter bleibt, kann die Differenz an Nachbarn verkaufen, die dann darüber bauen dürfen. Analog dazu können heutzutage Unternehmen wie norwegische Wasserkraftwerke oder Tesla ihre angeblich nicht getätigten CO2-Emissionen in Form von „Verschmutzungsrechten“ an Konkurrenten verkaufen, die politisch nicht als „grün“ gelten.

Ein Witz – die norwegischen Wasserkraftwerke sind teilweise schon über 100 Jahre alt, da das Land im Norden seinen Strombedarf traditionell mit den vielen Gebirgsflüssen decken kann. (Logisch wäre, daß ein Wasserkraftwerk, das anstelle eines Kohle- oder Gaskraftwerks neu gebaut würde, Zertifikate anbieten könnte.) Und die Deutsche Bahn kauft dann von den alten Wasserkraftwerken einige Zertifikate, rechnet damit ihre Emissionen schön und behauptet frech, die ICE würden „klimaneutral“ fahren – auch nachts und bei Windstille. Ähnlich läuft es wohl bei vielen Produkten wie Wurst, die mittlerweile im Supermarkt als „klimaneutral“ angepriesen werden – die Fabrik stellt nicht ihre ganze Produktion um, was auch gar nicht ginge, sondern kauft bequem ein paar CO2-Aktien.

Gerade an Tesla ist der Irrsinn der CO2-Zertifikate besonders gut zu erkennen: Der Besitzer Elon Musk, abwechselnd mit Jeff Bezos und Bill Gates der reichste Mann der Welt, verkauft gar nicht so viele Autos und machte bislang auch gar keinen nennswerten Gewinn mit den Luxusstromern. Seine Milliarden (>100) kommen überwiegend von ebenjenen Verschmutzungsrechten, die ihm die Produzenten von Verbrennungsmotoren zahlen müssen. Und dabei sind Teslas noch gar nicht einmal CO2-ärmer – eher im Gegenteil. Die Stromboliden sind in der Herstellung wegen der Akkus deutlich aufwändiger, die viel mehr Ressourcen braucht und viel mehr Emissionen bewirkt als z.B. ein deutscher Diesel. Erst mit den Jahren soll sich das amortisieren – aber nur, wenn der Strom zur Ladung des Li-Akkus tatsächlich nur aus erneuerbaren Quellen käme (kommt er nicht, geht nicht), und der Akku ewig hielte (tut er nicht, acht Jahre etwa max.). Heißt: Der Zertifikatehandel ist eine klare Wettbewerbsverzerrung, der schein-grünen Unternehmen massive Vorteile einräumt.

Auch kleine finanzschwache Firmen ohne politische Lobby, die sich nicht „grün-waschen“ können (im Englischen ist der Begriff green washing bekannt), werden durch die Klimagesetze mittlerweile gezwungen, Anbietern wie Musk seine CO2-Aktien abzukaufen. Wer das nicht kann, muß Insolvenz anmelden, was die Massenmedien mittlerweile aufgreifen.

Wie der Emissionshandel erste Firmen in die Pleite treibt„, titelt gerade die Welt.

Oder zumindest bedroht, wenn die marktfreundliche Regierung nicht eingreift. Am 30. April 2019 wollte die EU-Kommission vom Stahlkonzern British Steel Geld für die CO2-Emissionen eintreiben, die das Management nicht durch Kauf von Zertifikaten „legalisiert“ hatte. Die Regierung Johnson griff ein und rettete so den Arbeitgeber von rund 25.000 Mitarbeitern (direkt oder Zulieferer; heute gehört die Firma der chinesischen Jingye-Gruppe). Im März 2021 nahm der Kohleförderer Oltenia bei der rumänischen Regierung einen Kredit in Höhe von 241 Millionen Euro auf, um einer Strafe von mehr als einer Milliarde zu entgehen.

Dummerweise wird die Zahl der umlaufenden Zertifikate von der EU jedes Jahr immer mehr reduziert, was nach und nach alle Hersteller zum „Grün-Waschen“ treibt – oder, wenn man politisch zu schwach ist, bankrott geht. Was auch daher kommt, daß Unternehmen in osteuropäischen Ländern von ihrer wenig öko-ideologischen Regierung geschützt werden, während zum Beispiel deutsche Firmen wie zuletzt die Papierfabrik Zanders in Bergisch Gladbach, die vom klimabegeisterten Kabinett Merkel keine Unterstützung erwarten können (von Laschet auch nicht). Das u.a. durch die Coronamaßnahmen in Schwierigkeiten Zanders hätte für rund drei Millionen Euro Zertifikate kaufen müssen, die man nicht hatte. Investoren wurden davon natürlich abgeschreckt, mit der Folge, daß das Unternehmen mit 380 Angestellten seit 1. Mai nicht mehr existiert.

Zudem gibt es im Rechtehandel mittlerweile wie an jeder Börse das Phänomen des Spekulantentums, das den Preis für eine erlaubte Tonne Kohlendioxid aktuell auf über 50 Euro trieb. Mittelständler, das wirtschaftliche Rückgrat der DACH-Länder, gehen nach Einschätzung eines Experten bereits ab 40 Euro pro Tonne „in die Knie“.




EIKE im Bundestag: Referent Prof. Herrmann Harde zur Weiterentwicklung der Treibhausgasminderungs-Quote

Anhörung im Ausschuß für Umwelt, Naturschutz und nukleare Sicherheit des Deutschen Bundestags am Mittwoch, 21. April 2021

Die von der Bundesregierung geplanten neuen Vorgaben für erneuerbare Energien im Verkehrssektor sind von Sachverständigen sehr unterschiedlich bewertet worden. Thema der öffentlichen Anhörung im Ausschuß für Umwelt, Naturschutz und nukleare Sicherheit am Mittwoch war der Entwurf eines Gesetzes zur Weiterentwicklung der Treibhausgasminderungs-Quote (19/27435, 19/28183).

In der von der Ausschussvorsitzenden Sylvia Kotting-Uhl (Bündnis 90/Die Grünen) geleiteten Anhörung forderten Vertreter der Biokraftstoffbranche bessere Bedingungen für ihre Kraftstoffe, während sich Vertreterinnen von Umweltverbänden für eine Abkehr vom Verbrennungsmotor und die verstärkte Förderung der Elektromobilität aussprachen.

„Von Technologieoffenheit weit entfernt“

Der Gesetzentwurf setzt die Erneuerbare-Energien-Richtline der EU (RED II) in deutsches Recht um und verfolgt das Ziel, den Anteil erneuerbarer Energien im Verkehrssektor zu erhöhen. Zu diesem Zweck soll die Treibhausgasminderungs-Quote (THG-Quote) von derzeit sechs Prozent bis zum Jahr 2030 schrittweise auf 22 Prozent steigen. Um dieses Ziel zu erreichen, werden Unternehmen, die Kraftstoffe in Verkehr bringen, verpflichtet, gewisse Quoten an erneuerbaren Energien einzuhalten.

Dafür sei Technologieoffenheit zwingend erforderlich, sagte Prof. Dr. Thomas Willner von der Hochschule für Angewandte Wissenschaften Hamburg. Der Gesetzentwurf sei von Technologieoffenheit jedoch weit entfernt, da er E-Mobilität bevorzuge, andere Maßnahmen zurückdränge und Investitionen in alternative Kraftstoffe verhindere. E-Mobilität binde Potenziale, die dann an anderer Stelle – etwa in der Industrie – fehlten, kritisierte Willner. Die im Gesetzentwurf vorgesehene Mehrfachanrechnung bestimmter Optionen lehnte er ab, da sie zu einer Wettbewerbsverzerrung führe.

„Gefahr, daß die E-Mobilität Biokraftstoffe verdrängt“

Die Mehrfachanrechnung sei grundsätzlich ein geeignetes Instrument, um Anreize für neue Technologien zu schaffen, sagte hingegen Prof. Dr.-Ing. Christian Küchen vom Mineralölwirtschaftsverband. Den Gesetzentwurf bezeichnet er als gute Grundlage, und auch das ambitionierte Ziel von 22 Prozent sei zu begrüßen. In einzelnen Punkten gebe es allerdings Verbesserungsbedarf.

Auch wenn sich der Gesetzentwurf gegenüber den Referentenentwürfen verbessert habe, verpasse er weiterhin viele Chancen, monierte Sandra Rostek vom Hauptstadtbüro Bioenergie. Der Entwurf schaffe es nicht, die Potenziale der verschiedenen Erfüllungsoptionen zu heben, und bewirke keine Weiterentwicklung der THG-Quote, sondern eine Stagnation. Insbesondere fehle eine ausreichende Anreizwirkung für Investitionen in neue Technologien und Erfüllungsoptionen. Zudem bestehe die Gefahr, dass die E-Mobilität Biokraftstoffe verdränge.

„Konventionelle Biokraftstoffe weiterhin unabdingbar“

Entscheidend sei es, den Endenergieverbrauch im Verkehrssektor zu senken, sagte Dr.-Ing. Franziska Müller-Langer von der Deutsche Biomasseforschungszentrum gemeinnützige GmbH. Die Nutzung konventioneller Biokraftstoffe sei dabei auch weiterhin unabdingbar. Die Mehrfachanrechnung ausgewählter Erfüllungsoptionen fördere die Unsicherheit für alle übrigen Optionen. Müller-Langer sprach sich deshalb für ein jährliches Monitoring und gegebenenfalls ein konsequentes Nachsteuern aus.

Einen gleichmäßigen Anstieg der THG-Quote bis 2030 forderte Elmar Baumann vom Verband der Deutschen Biokraftstoffindustrie. Er kritisierte, dass der jetzige Gesetzentwurf eine deutliche Steigerung erst ab dem Jahr 2028 vorsieht. Außerdem äußerte er die Befürchtung, dass durch das Gesetz abfallbasierte Biokraftstoffe und Biokraftstoffe aus Anbaubiomasse aus dem Markt verdrängt würden.

„Kein zusätzlicher Klimaschutzeffekt“

Nicht konkret zum Gesetzentwurf äußerte sich der emeritierte Prof. Dr. Hermann Harde. Vielmehr führte er neue Forschungsergebnisse an, die nach seinen Angaben beweisen, dass der Einfluss von CO2 auf das Klima deutlich geringer ist als vielfach behauptet. Es stehe kein Klimanotstand an, weshalb es auch keine Notwendigkeit für eine Quotierung von Treibhausgasen gebe.

Mehrfachanrechnungen führten zu Verzerrungen im Quotenhandel und hätten keinen zusätzlichen Klimaschutzeffekt, sagte Toni Reinholz von der Deutschen Energie-Agentur (dena). Um die Klimaschutzziele im Verkehr zu erreichen, sei der Einsatz von synthetischen Kraftstoffen nicht biogenen Ursprungs und damit auch von E-Fuels (strombasierte Kraftstoffe) notwendig.

Experten lehnen Verwendung von E-Fuels ab

Grundsätzliche Kritik am Gesetzentwurf äußerte Dr. Johanna Büchler von der Deutschen Umwelthilfe. Die vorgesehene THG-Quote von 22 Prozent sei zu hoch. Eine hohe, schnell ansteigende THG-Quote sei keineswegs mit ambitioniertem Klimaschutz gleichzusetzen, betonte Büchler. Um die Quote zu erfüllen, müssten nämlich Kraftstoffe eingesetzt werden, die dem Klima nur auf dem Papier hälfen. Auch die Verwendung von E-Fuels für Pkw lehnte sie als „hochgradig ineffizient“ ab. Hingegen sollte nach ihren Worten der Einsatz von Strom vierfach (und nicht nur dreifach) auf die THG-Quote angerechnet werden.

Eine ambitionierte THG-Quote sei erst dann sinnvoll, wenn die Elektromobilität einen hohen Marktanteil erreicht habe, betonte auch Jekaterina Boening von Transport & Environment Deutschland. Sie lehnte die Förderung von E-Fuels im Straßenverkehr ab und bezeichnete den Verbrennungsmotor als das eigentliche Problem. Zudem forderte sie bis zum Jahr 2030 den Ausstieg aus allen konventionellen Biokraftstoffen.

Gesetzentwurf der Bundesregierung

Die Bundesregierung will mit ihrem Entwurf die Treibhausgasminderungsquote für Otto- und Dieselkraftstoffe anheben. Für das Inverkehrbringen erneuerbarer strombasierter Flugturbinenkraftstoffe wird eine Mindestquote eingeführt, die auf den verpflichtenden nationalen Anteil erneuerbarer Energien am Endenergieverbrauch des Verkehrssektors angerechnet wird. Um einen wirksamen Anreiz für den Markthochlauf der PtX-Technologie zu schaffen, sollen ausschließlich strombasierte Kraftstoffe eingesetzt werden, um die Verpflichtung zu erfüllen.

Mitteilungspflichten für Unternehmen sowie der Vollzug sollen so wie das bestehende System für die Verpflichtung zur Treibhausgasminderung bei Otto- und Dieselkraftstoffen ausgestaltet werden. Zur Förderung von strombasierten Kraftstoffen wird unter anderem die Anrechnung von ausschließlich mit erneuerbaren Energien hergestellten flüssigen Kraftstoffen und Wasserstoff (sogenannter „grüner Wasserstoff“) sowohl im Straßenverkehr als auch zur Produktion konventioneller Kraftstoffe zugelassen.

„Erfüllungsoptionen“ statt „Biokraftstoffe“

Darüber hinaus plant die Regierung rechtsbereinigende Änderungen. Der Begriff „Biokraftstoffe“ soll an den erforderlichen Stellen durch das Wort „Erfüllungsoptionen“ ersetzt werden, um der Diversifizierung der Erfüllungsoptionen zur Treibhausgasminderung im Verkehr im kommenden Jahrzehnt Rechnung zu tragen und um die Lesbarkeit des Gesetzes auch in Verbindung mit dem untergesetzlichen Regelwerk zu verbessern. Regelungen zu der bis zum Jahr 2014 geltenden Biokraftstoffquote entfallen.

Der Entwurf berücksichtigt außerdem die weiteren Entwicklungen auf europäischer Ebene und die von der Europäischen Kommission zu erlassenden delegierten Rechtsakte. Um zeitnah weitere Vorschriften zu den neuen Erfüllungsoptionen zu erlassen, vor allem zu flüssigen und gasförmigen strombasierten Kraftstoffen, die abhängig von den zu erwartenden europäischen Rechtsakten sind, sollen die Ermächtigungen zum Erlass von Verordnungen geändert werden.

Stellungnahme des Bundesrates

Der Bundesrat weist in seiner Stellungnahme (19/28183) unter anderem darauf hin, dass die Bundesrepublik im Rahmen der Lastenteilungsverordnung einen überdurchschnittlichen Beitrag zur Treibhausgasminderung in der EU leisten müsse und derzeit ihre Ziele aus der Lastenteilungsverordnung verfehle. Unzureichende Emissionsminderungen im Verkehrssektor riskierten – mit Blick auf die erwartete Erhöhung des Treibhausgasminderungsziels – diese Verfehlung zu verschärfen, was zu hohen zusätzlichen Belastungen für den Bundeshaushalt führen könne.

Der Bundesrat ruft die Bundesregierung dazu auf, alle notwendigen Schritte zu unternehmen, um die Vorgaben der Lastenteilungsverordnung einzuhalten. Er weist darauf hin, dass die Nutzung von Biomassebrennstoffen, die aus Rohstoffen hergestellt werden, die auch als Nahrungs- und Futtermittel Verwendung finden, auf ein Mindestmaß begrenzt sein sollte. Die Nutzung von Rohstoffen zur Produktion von Biomassebrennstoffen, bei denen ein hohes Risiko von indirekten Landnutzungsänderungen bestehe, wie dies zum Beispiel bei bestimmten Palmölen der Fall sei, müsse ausgeschlossen werden. Dazu seien die notwendigen gesetzlichen und handelspolitischen Maßnahmen zu treffen. (chb/21.04.2021)




Die Null-Kohlenstoff-Pläne von Kalifornien: Beherrscht eigentlich noch jemand die Grundlagen der Arithmetik?

Im Jahr 2018 hat Kalifornien ein Gesetz mit der Bezeichnung SB100 erlassen, das einen 100 % kohlenstoffemissionsfreien Stromsektor bis 2045 vorschreibt. Aber wie kommt man von hier nach dort? Diese Frage wurde schließlich im März dieses Jahres beantwortet, als die für die Erreichung des Ziels zuständigen kalifornischen Behörden (California Energy Commission, California Public Utilities Commission und California Air Resources Board) einen gemeinsamen Bericht und ein dazugehöriges zusammenfassendes Dokument veröffentlichten, in dem sie ihre Pläne darlegten. Die Pläne können über diesen Link abgerufen werden.

Die Pläne zeigen, dass die kalifornischen Regulierungsbehörden absolut keine Ahnung haben, was sie da tun. Vielleicht liege ich falsch. Ich lade alle Leser ein, mich zu überprüfen und zu sehen, ob ich etwas übersehe. Aber ich glaube das nicht. Entweder verstehen diese Leute die grundlegenden Einheiten nicht, die für diese Berechnungen verwendet werden, oder sie können nicht einmal einfache Arithmetik, oder beides. Ich denke, dass sie bei der Hochrechnung der zusätzlichen Kosten um einen Faktor von 1000 oder mehr daneben liegen.

Die in den Plänen gegebene Antwort auf die Frage, wie man zu einem emissionsfreien Stromsektor kommt, ist der Bau von vielen, vielen Solar- und Windkraftanlagen. Natürlich funktionieren diese nicht immer, also muss man zunächst einmal viel mehr Kapazität bauen als der Spitzenverbrauch. Der Spitzenverbrauch in Kalifornien liegt derzeit bei etwa 40 GW, und es wird erwartet, dass dieser Wert erheblich ansteigt, wenn mehr Teile der Wirtschaft elektrifiziert werden, z. B. Autos. Daher fordern die Pläne den Zubau von etwa 97,6 GW an Solarkapazität und 22,6 GW an Windkapazität bis 2045, zusätzlich zu den 26,5 GW, die es derzeit gibt. (Die Pläne sehen auch den Zubau von 0,1 GW an geothermischer Kapazität vor, aber das ist ein Rundungsfehler). Mit den zusätzlichen Kapazitäten hätte Kalifornien insgesamt 146,7 GW an Wind- und Solarkapazität, was etwa dem Dreifachen des Spitzenverbrauchs entsprechen würde, wenn man die zunehmende Elektrifizierung der Wirtschaft bis 2045 berücksichtigt.

Aber dann sind Solar- und Windenergie „intermittierend“, das heißt, sie liefern den Strom nicht unbedingt dann, wenn man ihn braucht. Was machen wir mit der Stromversorgung in völlig windstillen Nächten, wenn Sonne und Wind nichts liefern? Die kalifornischen Regulierungsbehörden haben darauf eine Antwort parat, nämlich „Speicherung“. Und wie viel Speicher werden wir brauchen? Sie geben eine sehr konkrete Zahl an: 52,8 GW. Vielleicht mag das auf den ersten Blick sinnvoll erscheinen. Wenn der Spitzenverbrauch im Jahr 2045 bei etwa 50 GW liegt, dann könnten 52,8 GW Speicher mit einer sehr geringen Marge gerade ausreichen, um die Nachfrage zu befriedigen, wenn Solar- und Windkraftanlagen komplett abgeschaltet sind.

Und wie viel wird das alles kosten? Wir werden die gesamte derzeitige Stromerzeugung aus fossilen Brennstoffen durch Wind- und Solaranlagen ersetzen und zusätzlich genügend Speicher hinzufügen, damit das alles funktioniert. Hier ist die Berechnung:

Die Modellierungsergebnisse zeigen, dass das Erreichen von 100 Prozent sauberem Strom die jährlichen Gesamtkosten des Elektrizitätssystems bis 2045 um fast 4,6 Milliarden Dollar erhöhen wird. Das sind 6 Prozent mehr als die Kosten, die nach dem Renewables Portfolio Standard des Bundesstaates anfallen würden, der bis Ende 2030 mindestens 60 Prozent sauberen Strom vorsieht.

Im Grunde ist das Kleingeld. Immerhin beweisen es die „Modellierungsergebnisse“.

Aber übersehen wir vielleicht etwas? Hier ist ein Teil, der meiner Meinung nach mehr als nur ein wenig bedeutsam ist: Alle Diskussionen in den Plänen über Speicherbedarf und -kapazität werden in Einheiten von Gigawatt (GW) ausgedrückt. Nun, GW-Kapazität kann in diesem Zusammenhang durchaus relevant sein, denn die Sicherstellung, dass die Energie aus diesen riesigen Batterien schnell genug geliefert werden kann, um den Spitzenbedarf zu decken, ist definitiv eine wichtige technische Herausforderung. Aber ein ganz anderes Thema sind Gigawattstunden (GWH); mit anderen Worten, reicht die gesamte im System gespeicherte Energiemenge aus, um die längste mögliche Periode zu überbrücken, in der die Nachfrage das Angebot übersteigt? Wie sieht es aus, wenn es ganze Jahreszeiten gibt – wie z. B. „Winter“ – in denen die Tage kurz sind, viele Wolken vorherrschen, der Wind längere Zeit einschläft und die Batterien wochen- oder sogar monatelang entladen werden könnten? Wie viel GWH an Speicherkapazität werden Sie benötigen, um dieses reine Wind- und Solarsystem zu unterstützen; und wie viel wird das kosten?

Zu diesem Thema kann ich in diesen Plänen nichts finden. Können Sie es finden?

Im Jahr 2018 führte ein Mann namens Roger Andrews genau eine solche Berechnung durch und veröffentlichte diese auf einer Website namens Energy Matters. Ich habe das Thema in einem Beitrag vom November 2018 mit dem Titel „How Much Do The Climate Crusaders Plan To Increase Your Costs Of Electricity? – Part III“ behandelt. Herr Andrews verwendete tatsächliche tägliche Produktionsdaten von bestehenden kalifornischen Wind- und Solaranlagen, um zu projizieren, wie viel von diesen Anlagen benötigt würde, um die gesamte Jahresnachfrage Kaliforniens im Laufe eines ganzen Jahres zu befriedigen; und verwendete dann dieselben Daten, um tägliche Überschüsse und Defizite zu berechnen, um herauszufinden, wie viel Batteriekapazität in GWH benötigt würde, um die längste Periode niedriger Produktion zu überstehen. Die wichtigste Erkenntnis aus der Arbeit von Andrews – die sich aus der einfachen Betrachtung der Daten für die tatsächliche tägliche Produktion aus bestehenden Wind- und Solaranlagen ergibt – ist, dass die Produktion aus diesen Anlagen nicht nur innerhalb eines Tages oder einer Woche intermittierend ist, sondern auch stark saisonabhängig ist, mit einer höheren Produktion im Frühling und Herbst und einer niedrigeren Produktion vor allem im Winter.

Hier ist eine Grafik von Andrews, die die Produktion von bestehenden Wind- und Solaranlagen zeigt, normalisiert, um die gesamte Nachfrage im Laufe eines Jahres zu decken, aufgetragen gegen die tatsächliche Nachfrage auf Tagesbasis:

Die großen Frühjahrs-Überschüsse und Winterdefizite springen ins Auge. Andrews berechnete dann – und das ist eine reine Frage der einfachen Arithmetik – die täglichen Überschüsse und Defizite, um herauszufinden, wie viel Batteriekapazität Kalifornien benötigen würde, um ein ganzes Jahr zu überstehen. Hier sind seine Diagramme, die diese Arbeit zeigen:

Unterm Strich bräuchte man etwa 25.000 GWH an gespeicherter Energie, um das ganze Jahr zu überstehen. Die Batterien würden dieses Niveau etwa im August erreichen und bis März entladen werden. Und natürlich ist das bei einem Spitzenverbrauch von etwa 40 GW der Fall. Wenn man das auf einen Spitzenverbrauch von etwa 50 GW erhöht, braucht man etwa 32.000 GWH Speicher.
Wie viel wird das also kosten? In meinem Beitrag vom November 2018 lautete die Antwort für Kalifornien „rund 5 Billionen Dollar“. Schauen wir mal, ob wir eine aktuellere Zahl bekommen.

Laut diesem Beitrag bei Electrek vom 1. April 2021 plant Apple – um seine extreme unternehmerische Klimatugend zu demonstrieren – den Bau eines gigantischen Batterieprojekts, um seine Firmenzentrale ausschließlich mit Solarstrom betreiben zu können. Aus der Pressemitteilung von Apple:

Apple baut eines der größten Batterieprojekte des Landes, California Flats – ein branchenführendes Energiespeicherprojekt im Netzmaßstab, das 240 Megawattstunden Energie speichern kann, genug, um über 7.000 Haushalte einen Tag lang mit Strom zu versorgen. Dieses Projekt unterstützt den 130-Megawatt-Solarpark des Unternehmens, der die gesamte erneuerbare Energie in Kalifornien liefert, indem es die tagsüber erzeugte überschüssige Energie speichert und dann einsetzt, wenn sie am meisten gebraucht wird.“

Die Batterien werden von Tesla geliefert. Basierend auf Preisangaben von Tesla, die Kosten für solche Batterien im Bereich von 200 bis 300 Dollar pro Kilowattstunde angeben, berechnet Electrek Apples Kosten für die 240 MWH an Batteriekapazität auf etwa 50 Millionen Dollar. Wie hoch wären dann die Kosten für 32.000 Gigawattstunden dieser Batterien? Rechnen Sie selbst. Falls es Ihnen hilft: In einem GWH sind eine Million KWH enthalten. Ich komme auf etwa 6,7 Billionen $.

6,7 Billionen Dollar sind weit mehr als das Doppelte des jährlichen BIP von Kalifornien. Erinnern Sie sich daran, dass die Arbeitsgruppe der California Plans of Joint Agency sagte, dass die zusätzlichen Kosten des Systems aus Wind- und Solarenergie plus Speicher bei etwa 4,6 Milliarden Dollar liegen würden. Könnten sie wirklich um einen Faktor von weit über 1000 daneben liegen?

In der Zwischenzeit erweitert Kalifornien seine Netzbatteriekapazitäten in großem Umfang, angeblich um das Netz angesichts des Zubaus von Solar- und Windenergie auszugleichen. Aber sind die Erweiterungen für diese Aufgabe sinnvoll oder auch nur annähernd kosteneffektiv? Hier ist ein Beitrag von RenewEconomy vom 5. April:

Ein kürzlich von Bloomberg Green veröffentlichter Bericht, der sich auf neue Zahlen von BloombergNEF beruft, zeigt, dass die führenden Energieanalysten erwarten, dass Kalifornien nicht nur im Jahr 2021 neue Batteriespeicher im Wert von 1,7 GW installieren wird, sondern weitere 1,4 GW im Jahr 2022, gefolgt von 1,2 GW im Jahr 2023.

Immer GW, nie GWH. Der Versuch, aus diesen Leuten irgendwelche nützlichen Informationen herauszubekommen, ist fast unmöglich. Ich glaube, sie sind alle völlig ungebildet. Gibt es unter den 40 Millionen Menschen in Kalifornien nicht eine einzige Person, die auch nur eine relevante Frage stellen kann?

Der ganze Beitrag steht hier.

Link: https://wattsupwiththat.com/2021/05/12/californias-zero-carbon-plans-can-anybody-here-do-basic-arithmetic/

Übersetzt von Chris Frey EIKE

 




Grüne Naturschutzpolitik – WINDRÄDER IM EBERSBERGER FORST

Eines der größten Waldgebiete Süddeutschlands wird der Windkraft geopfert

VON HOLGER DOUGLAS

Der Ebersberger Forst in Bayern, eines der größten zusammenhängenden Waldgebiete Süddeutschlands, wird mit Windrädern gespickt. Für die Rodungen traten unter anderem die Grünen und der Bund Naturschutz ein.

Eine weitere wichtige Hürde Richtung Zerstörung eines der größten zusammenhängenden Waldgebiete Süddeutschlands wurde genommen: Bei einem Bürgerentscheid stimmte eine knappe Mehrheit von 52,7 Prozent der 111 000 stimmberechtigten Bewohner des Landkreises Ebersberg für die Waldrodungen in dem 9000ha großen Forst, der die grüne Lunge im Osten von München bildet. Die Beteiligung an dem Bürgerentscheid, der als reine Briefwahl ablief, lag bei 61,89 Prozent.

Zunächst sollen laut Bauantrag nur fünf riesige Windkraftanlagen in den westlichen Bereich des Ebersberger Forstes gebaut werden. Dazu muss der Ebersberger Forst in eine Großbaustelle verwandelt werden, autobahnbreite Zufahrtswege für die Schwerlaster planiert und 180 t Stahl, 1500 m³ Beton allein für die Fundamente herangekarrt werden. Bäume müssen fallen für die Bauplätze, auf denen Schwerlastkräne die Elemente für die knapp 250m hohen Türme, Maschinenhaus mit Generatoren und schließlich die überlangen Rotoren emporheben können.

Es handelt sich um ein Landschaftsschutzgebiet, in dem allerdings der Landschaftsschutz nicht mehr viel zählt. Für die Rodungen in dem Wald traten unter anderem die Grünen und der „Bund Naturschutz in Bayern“ ein. Eine Schutzgemeinschaft Ebersberger Forst (Aufgabe: »Verhinderung jeglicher Bebauung im Ebersberger Forst«) befürchtet dagegen, dass es nicht bei den fünf Windindustrieanlagen bleiben wird, sondern dass die veränderte Landschaftsschutzverordnung immer weiter durchlöchert wird. Sie erklärt, dass sie als anerkannte Naturschutzvereinigung ihr Klagerecht wahrnehmen werde.

Ich bin damit einverstanden, dass mir Inhalte von Twitter angezeigt werden.

Nach diesem Bürgerentscheid muss der Ebersberger Kreistag beschließen, dass ein Prüfverfahren in Gang gesetzt wird, bei dem eine Gutachtenschlacht unter anderem auch über artenschutzrechtliche Fragen beginnt.

Auch der für Wirtschaft und Energie zuständige bayerische Minister Hubert Aiwanger von den Freien Wählern hatte sich für das umstrittene Windradprojekt ausgesprochen und dies damit begründet, dass die Anlagen ein Fünftel aller Haushalte im Kreis Ebersberg mit Energie versorgen könnten. Er hat nichts dazu gesagt, wie das funktionieren soll, wenn Flaute herrscht und sich die Windräder nicht drehen und keinen Strom liefern können.

Im Wald, so Aiwanger weiter, würden sie auch nicht optisch auffallen. Ihm, den Grünen und dem Bund Naturschutz sind die vielen Vögel und Fledermäuse demnach offenbar gleichgültig, die den Windrädern zum Opfer fallen werden.

Ich bin damit einverstanden, dass mir Inhalte von Twitter angezeigt werden.

Keine größere Rolle spielten bisher die von der Schutzgemeinschaft ins Feld geführten Daten, dass der Ebersberger Forst laut Windatlas das schwächste Windgebiet dazu noch in einem Schwachwindgebiet ist. Kurz: Windräder lohnen praktisch nicht, spätere Klagen wegen nicht erfüllter Wirtschaftlichkeit dürfen wie in so vielen anderen Fällen als sicher gelten. Bayern ist wie Baden-Württemberg im Süden Deutschlands eben nicht ein von kräftigen Winden bevorzugtes Gebiet.

»Windräder in wertvolle und alte Laubmischwälder zu bauen, schadet diesem Waldökosystem eindeutig«, sagt der Waldgutachter und Forstwirt Rainer Kant in einem Interview mit der SZ und weist auf den Wald als CO2-Verbraucher und Sauerstoffspender hin. »Außerdem erzeugt der Wald selber Klimaschutz. Diesen Effekt kann man erhöhen, wenn die Förster die Anzahl der Bäume erhöhen oder die Stämme dicker werden lassen. Durch diesen natürlichen Weg der CO₂-Reduktion würden Windkraftanlagen quasi überflüssig, da der Wald selbst sein Klimaschutzpotenzial erhöht.«

Mehr als 7.000 Landkreisbewohner formulierten bereits früher in einer Petition»Hände weg vom Landschaftsschutzgebiet Ebersberger Forst«: »Unsere heutige Politikergeneration ist leider nicht willens, dieses Naturjuwel in seiner Gänze für nachkommende Generationen zu bewahren. Sie werben zwar in Landkreisbroschüren gerade mit der Einmaligkeit und zusammenhängenden Größe des Forstes. Mutwillig wird wider besseres Wissen dagegen verstoßen. Oder sind es alles nur Lippenbekenntnisse, und der Forst bedeutet den Politikern in Wirklichkeit nichts. Sie sägen an dem Ast, auf dem wir und – viel schlimmer – unsere Kinder und Enkel sitzen.«

Der Beitrag erschien zuerst bei TE hier