1

Dass die zurück­liegende Trockenheit nicht mehr nur ein Wetter­phänomen …

Plötzlich belegen 10 Jahre Wetter ein Klima

Leider stand im langen Artikel [1] nicht, wo diese Statistiken zu finden sind. Vielleicht antwortet der Amtsleiter jedoch auf die Nachfrage des Autors. So lange diese Antwort nicht vorliegt, muss man sich mit den Daten anderer Ämter begnügen, um herauszufinden, was den Amtsleiter zu seiner Aussage bewogen hat.

Nachtrag: Nach Abgabe des Artikels kam die Antwort des Amtsleiters. Da diese Antwort seine Aussage neu darstellt und auch erklärt, ist sie am Ende des Artikels beigefügt.

Dabei soll nicht gesagt werden, dass der Niederschlag während der letzten Zehn Jahre nicht geringer wurde. Doch wie (bewusst) irreführend diese Argumentation im klimahistorischen Gesamtkontext zu sehen ist, sei anbei gezeigt.

Wie unwissend muss ein Redakteur sein, der den Unterschied zwischen 10 % und

90 % nicht bemerkt?

Der Redakteur der Nordbayerischen Nachrichten (Politikredakteur), welcher meinte, sich nach seinen anderen Redakteurskollegen endlich auch einmal mit dem Klima versuchen zu müssen, interviewte neben dem Amtsleiter der Wasserwirtschaftsbehörde auch den Chef der staatlichen Forstbetriebe Nürnberg, wohl überzeugt, dadurch fundierte Information über den schlimmen Klimawandel-Einflusses im Großraum Nürnberg zu erhalten.

Und diese Fachperson belegte ihm auch sofort mit konkreten Zahlen die extreme Trockenheit in Mittelfranken:
[1] Johannes Wurm, Chef des staatlichen Forstbetriebs Nürnberg. Von Januar bis einschließlich April seien schließlich gut 90 Prozent weniger Niederschläge als im sonst üblichen Durchschnitt gefallen …

Leider hat der Redakteur jedoch absolut keine Ahnung vom Thema. Sonst hätte ihm der platte Fehler auch dieser Aussage sofort auffallen müssen. Der Forstbetriebschef (oder war es vielleicht der Redakteur selbst beim Niederschreiben?) hat in seiner Aussage zwei Zahlen vertauscht:
In Nürnberg sind in diesem Zeitraum nicht 90 % weniger Niederschlag gefallen, sondern der Rest zu 100 %, also gerade einmal 10 % weniger. Das macht in der Aussage allerdings einen gewaltigen Unterschied. Ein Leser hat es im Kommentarteil erklärt:
Phileas schrieb am 16.06.2020, 07:10
Die Aussage des Experten „von Januar bis einschließlich April seien schließlich gut 90 Prozent weniger Niederschläge als im sonst üblichen Durchschnitt gefallen. Dieses Defizit ist lange noch nicht ausgeglichen“ ist so etwas von falsch, falscher geht es nicht. Wie man auf der Seite:“ Monats- und Jahreswerte für Nürnberg“ unschwer feststellen kann sind in diesem Zeitraum 92,5 (!) Prozent der sonst üblichen Niederschläge gefallen. Dies deckt sich in etwa auch mit meinen eigenen Messungen. Wenn ich der bis gestern Nachmittag auf dieser Wetterseite angegebene Niederschlagsmenge noch die von mir für heute Nacht gemessenen 3 Liter hinzuzähle sind wir momentan, 5,5 Monate in diesem Jahr, genau bei 100,5 Prozent der üblichen Niederschlagsmenge. Also erstmal absolut normal. Es gibt heuer bis jetzt kein Niederschlagsdefizit in unserer Gegend.
Irgendwie habe ich den Eindruck, dass da manchmal gezielt Panik verbreitet werden soll. Wie kann der angebliche Experte sagen, dass von Januar bis April gut 90 Prozent weniger Niederschläge gefallen sind, wenn es tatsächlich nicht einmal weniger als 10 Prozent waren.

Beim Klimawandel ist Kenntnis in der Redaktion nicht erforderlich, da die „richtige“ Meinung ausreicht

Dabei „warnt“ der Autor die Redaktion der „Nordbayerischen Nachrichten“ schon fast regelmäßig vor ihren Eigentoren infolge ihrer sorgfältig „gepflegten“, fachlichen Unkenntnis zum Thema Klimawandel (und auch Ökoenergie), Beispiele:
EIKE 25. Mai 2020: [Link] Frühjahrstrockenheit mittels CO2-Reduktion bekämpfen. Wenn nicht gehandelt wird, hat die Durststrecke kein Ende
EIKE 08.06.2020: [Link] Corona ist vorbei. Nun hat uns der alltägliche Wahnsinn wieder
Und ganz konkret auch vor den „lokalen“ Förstern und deren (bewusst?) mangelhaften Klimakenntnissen:
EIKE 25. April 2020: [Link] Wenn Medien immer nur Personen mit der gleichen Meinung fragen, können sie (und diese Personen) nie gescheiter werden
Zwischenzeitlich hat es sich etwas eingespielt, dabei zwischen lokalen Klimamanager*innen und Förstern von Stadt und Land abzuwechseln. Das suggeriert Meinungsvielfalt, obwohl der Autor versichern kann, dass die Antworten der von den Medien ausgesuchten immer auf das Gleiche hinauslaufen: Ja, es kann nur der Klimawandel sein, zumindest scheint es ein deutliches Indiz dafür …

Dabei steht es sogar beim Umweltbundesamt, dass der Niederschlag zunimmt

[3] Umweltbundesamt 20.03.2020: Trends der Niederschlagshöhe
Seit 1881 hat die mittlere jährliche Niederschlagsmenge in Deutschland um rund 10 Prozent zugenommen. Dabei verteilt sich dieser Anstieg nicht gleichmäßig auf die Jahreszeiten. Vielmehr sind insbesondere die Winter deutlich nasser geworden, während die Niederschläge im Sommer geringfügig zurückgegangen sind.
Die Zeitreihe der jährlichen Niederschläge in Deutschland (Gebietsmittel) zeigt einen leichten Anstieg, der mit einer Irrtumswahrscheinlichkeit von 5 %-Niveau statistisch signifikant ist. Dieser Anstieg ist im Wesentlichen darauf zurückzuführen ist, dass bis etwa 1920 nur selten überdurchschnittlich niederschlagsreiche Jahre aufgetreten sind.
Deutlich stärker noch als bei der Temperatur ist dieser
Trend nicht gleichmäßig in allen Jahreszeiten ausgeprägt. Er beruht im Wesentlichen darauf, dass die Winterniederschläge um über 25 % zugenommen haben. Frühling und Herbst zeigen ebenfalls eine leichte, aber im Gegensatz zum Winter nicht signifikante Zunahme, während die Niederschläge im Sommer geringfügig zurückgegangen sind …

Statistiken der Wasserwirtschaftsbehörden

Sind wie der Autor schon sagte, ihm nicht bekannt. Eine Internetsuche danach blieb leider erfolglos. Über einen Link einer der regionalen Wasserwirtschaftsbehörden fand sich allerdings ein ganz aktuelles Dokument, welches vielleicht so etwas sein könnte:
[2] Bayerisches Landesamt für Umwelt, April 2020: Das Bayerische Klimaprojektionsensemble Audit und Ensemblebildung

Wie es schon der Name verrät, findet sich darin allerdings keine Statusdarstellung anhand von Messwerten, sondern – modern nach „Merkel“ ausgedrückt -, ist es die Sammlung einer Klima-Simulationsorgie.

Und das Ergebnis ganz kurz gefasst lautet (rein persönliche Meinung des Autors und durch keine Simulation erhärtet): Die Niederschlagssimulationen für Bayern sind grottenschlecht und können weder den aktuellen Status und sicher auch nicht die Zukunft abbilden. Man macht es aber trotzdem, weil es heute eben üblich ist (und gut bezahlt wird). Um „genauer“ zu werden, lässt man die zu offensichtlich falschen Simulationen weg und verwendet selbstverständlich nur die „richtigen“.

Die folgenden Diagramme zeigen daraus eine „Niederschlagszukunft“ für die Alpen. Erst einmal fällt auf, dass der Niederschlag in Zukunft auch im Frühling zunehmen soll.
Personen mit Ahnung von Statistik erkennen zusätzlich, dass es sich bei den Simulationsergebnissen um Punktwolken handelt. Das ist ein Beleg, dass zwischen den Simulationsergebnissen kein innerer Zusammenhang herrscht, genauer: Die Ergebnisse sind regellos und zufällig, also ohne statistischen Aussagewert. Jeder kann sich das „gewünschte“ Ergebnis heraussuchen und jedes „Ergebnis“ hat die gleiche Wahrscheinlichkeit richtig, oder falsch zu sein.

Bild 1 [2] Abb. 9: Beispiel für ein Thermopluviogramm der Änderungssignale für den Naturraum der Alpen in der mittleren Zukunft. Die Auswirkung einer Reduktion um 11 Projektionen wird anhand der Farbunterscheidung visualisiert
Das Gleiche gilt auch für die folgenden Simulationsläufe. Es überrascht, dass das extremste CO2-Emissionsszenario rcp8.5 zur Simulation verwendet wurde (der DWD verwendet in seinem Klimaviewer das Szenario A1B, welches eher mit dem IPCC-Scenario rcp2.5 vergleichbar ist).
Obwohl das Bayerische Landesamt für Umwelt auf ihrer Homepage zum Thema „Emissionsszenarien“ [Link] mitteilt: Ein großer Teil der zur Verfügung stehenden und derzeit am Bayerischen Landesamt für Umwelt betrachteten Klimaprojektionen basieren überwiegend auf dem Emissionsszenario A1B …
verwenden die Ersteller von Auftragsprojekten wohl „gerne“ das Extremszenario rcp8.5.

Das macht eigentlich nur (noch) das PIK, um regelmäßig den Weltuntergang vorzuführen. Inzwischen gilt dieses auch offiziell als unseriös, da übertrieben. In Bayern scheint die Verwendung dieses Extremszenarios trotzdem üblich zu sein, zumindest, wenn „Klimazukunft“ in Zusammenarbeit mit der Uni München erstellt wird, denn auch in der von dieser mit erstellten Pilotstudie „Klimawirkungskarten Bayern“ des Landesamtes für Umwelt wird auf Basis dieses extremsten Szenarios simuliert.

Bild 2 [2] Abb. 17: Streudiagramm der 21 Klimaprojektionen nach ihrer Bewertung durch das Audit in den vier Großlandschaften
Wie weit weg von der Wirklichkeit Niederschlagssimulationen bereits aktuell mit ihren Ergebnissen liegen, zeigen die folgenden Grafiken mit Messwert-/Simulationsvergleichen aus dem Dokument.

Bild 3 [2] Abb. 11: Gegenüberstellung des mittleren Niederschlagsjahresgangs der Projektion HadGEM2ES_r1i1p1_CLMcom-CCLM4-8-17_v1 (rote Kurven) im Vergleich zum Referenzdatensatz KliRef2014 (schwarze Kurven) in den vier bayerischen Naturräumen
Im Dokument wird es auch zugegeben:
[2] … Durch die beiden Modellfamilien (ESD und RCM) wird somit ein sehr breites Spektrum an Änderungssignalen aufgespannt. Dies erschwert eine klare Aussage insbesondere über das zukünftige Niederschlagsverhalten. Am deutlichsten ist die sommerliche Niederschlagsabnahme ausgeprägt, die im Einklang zu Ergebnissen früherer Studien auf Basis von SRES A1B-Projektionen aber auch zu Beobachtungen in anderen Regionen in Deutschland steht (HÜBENER ET AL. 2017a). Weiterhin lässt sich deutlich eine Tendenz zur winterlichen Niederschlagszunahme für Nordbayern ableiten. Für den Süden ist aufgrund der enormen Schwankung des Änderungssignals keine konkrete Aussage möglich.

Und in einem früheren Dokument direkt als Handlungshinweis herausgestellt:
[4] … Zudem wurde im Laufe des Jahres 2018 eine Methode zur Qualitätsprüfung von Klimaprojektionen am LfU entwickelt und angewendet. Mithilfe dieses Audits wurden gravierende Schwächen (z. B. inverse Jahresgänge des Niederschlags) der Projektionen 10 und 11 entdeckt. In-sofern wird von einer Verwendung der Klimawirkungskarten als Planungsgrundlage abgeraten. Vielmehr sollten die Karten als Anregung für vertiefende Untersuchungen und die Pilotstudie zur Erprobung und Bewertung der eingesetzten Methoden dienen …

Im DWD-Klimaviewer sieht man die eklatanten Mängel der Niederschlags-Klimasimulationen augenscheinlicher. Obwohl darin ein Standardszenario Verwendung findet, erfassen nur ganz, ganz wenige Simulationsläufe den aktuellen Niederschlag. Im Jahr 2100 werden ihn einige aber vielleicht trotzdem „erfolgreich“ vorhergesagt haben, denn bei dieser Streuung „trifft“ möglicherweise irgendeine der vielen Simulationsläufe – obwohl man selbst da nicht so ganz sicher sein kann …

Bild 4 Screenshot vom DWD-Klimaviewer

Bild 5 Screenshot vom DWD-Klimaviewer

Bild 6 Screenshot vom DWD-Klimaviewer

In einem Bundesland wird der Bürger darüber auch informiert:
Hessisches Landesamt für Naturschutz, Umwelt und Geologie Niederschlag: [Link] Zeitliche Trends
… Der lineare Trend zeigt für den Sommer –16 % und für die übrigen drei Jahreszeiten +17 % (Frühling) bzw. +12 % (Herbst und Winter). Man sollte diese Trends aber keinesfalls überbewerten: Alle hier aufgeführten Niederschlagstrends sind wegen der sehr großen Variabilität des Niederschlags nicht signifikant (auf dem 95%-Niveau) …

Interessant ist in dem Dokument die Aussage zur (simulierten) zukünftigen Trockenheit für Nordbayern, dass es dort keine Änderungen geben soll: [4] Beeinträchtigung wasserabhängiger Biotope durch Trockenheit

Bild 7 [4]

Die letzten 10 Jahre Niederschlag

Zur Erinnerung. Der Amtsleiter erklärte dem Redakteur, warum die gerade vergangene Frühjahrstrockenheit ein Zeichen des Klimawandels wäre: „Dass die zurückliegende Trockenheit nicht mehr nur ein Wetterphänomen, sondern Folge der Klimaveränderung ist, dafür sprechen die Statistiken der Wasserwirtschaftsbehörden. „Wir haben seit zehn Jahren ein Niederschlagsdefizit“, sagt Amtsleiter Fitzthum …

Es verwundert, warum von diesem „Klimafachmann“ ein kurzer Zeitraum von gerade einmal zehn Jahren angezogen wird, wo beim Niederschlag wegen dessen extremer Variabilität nicht einmal der 30-jährige, meteorologische Zeitraum für Trendaussagen ausreicht:
EIKE 03. Mai 2020: [Link] Wie der Bund Naturschutz Bayern vor der schlimmen Frühjahrstrockenheit rettet

Die folgenden Bilder zeigen jedoch, warum genau dieser, vollkommen unübliche Zeitraum gewählt wurde: Seit ca. 2005 zeigt der Niederschlag eine Abnahme.

Bild 8 Bayern, Jahresniederschlag (Daten von Bild 6). Grafik vom Autor anhand der DWD-Daten erstellt

Allerdings stellt sich die Frage, welche Verbindung diese Abnahme mit der globalen CO2-Emission haben soll.

Würde dies stimmen, dann hätte sich der Niederschlag vorher über 100 Jahre lang nach der „falschen“ CO2-Regel verhalten. Und nun, infolge weiteren Emissionsanstiegs durch „Besinnen“ auf die angeblich „richtige“, ausgerechnet den Niederschlag zu Beginn des „Klimawandels“ , mit dem damals geringem CO2-Anteil erreicht.
Unplausibler kann eine Argumentation kaum sein.

Bild 9 Bayern, Jahresniederschlag und CO2-Konzentration vom Autor übereinander kopiert

Stellt man den Mittelwert des Niederschlags auf den meteorologischen Zeitraum von Dreißig Jahren, sieht man es noch deutlicher:

Bild 10 Bayern, Jahresniederschlag und 30-jähriger Mittelwert

Nun gibt es zum Glück gerade im (angeblich) austrocknenden Mittelfranken eine sehr lange Niederschlagsreihe. Und diese zeigt geradezu lehrbuchgemäß, wie konsequent der behördliche „Klimafachmann“ des Wasserwirtschaftsamtes den kenntnis- und arglosen Redakteur mit seiner Aussage „über den Tisch“ gezogen hat:
Seit dem Beginn der langen Messreihe gibt es viele, viele Beispiele vergleichbarer, zyklisch niederschlagsreduzierender 10-Jahres-Zeiträume. Nur den angeblichen Beleg, dass ausgerechnet der aktuelle eine Auswirkung und Tendenz unserer CO2-Emission sein soll, findet sich nicht.

Bild 11 Niederschlag Bamberg seit 1879. Grafik vom Autor anhand der DWD-Daten erstellt

Vielleicht ging der Behördenleiter davon aus, im Einflussbereich der sich inzwischen ideologisch eng an der „Alpenprawda“ orientierenden, Nordbayerischen Nachrichten gäbe es keine(n) Leser mehr, dem es auffallen würde.

Der Klimawandel macht dumm

Der Autor hat schon länger vermutet, seitdem man in Deutschland als herausragend intelligent angesehen wird, sofern man Megawatt als Megabyte, Kobalt als Kobolde und Stromnetze als Stromspeicher bezeichnet, oder den zweithöchsten Strompreis der Welt als eine Kostenminderung dank dem billigen Ökostrom erklärt [6]. Er konnte es aber trotz seiner vielen EIKE-Publizierungen als Laie nie ausreichend, wissenschaftlich fundiert belegen.

Mit ausreichender Geduld kann man jedoch sicher sein, dass die enormen Klimawandeleinfluss-Forschungsmittel irgendwann zu jedem Problem rund um den Globus eine wissenschaftlich abgesicherte Expertise generieren.

So geschah es auch und wurde nun von einer Gruppe vorwiegend in der Klimawandelforschung zu findenden, herausragenden Wissenschaftlern in einer bahnbrechenden Publikation beschrieben:
[5] Der Klimawandel könnte uns mehr schaden, als wir vielleicht ahnen. Forscher glauben, dass uns eine „Verdummung“ der Menschheit bevorsteht
Ein Forscherteam der Universität von Colorado Boulder, der Colorado School of Public Health und der Universität von Pennsylvania deutet an, dass wir uns im Rahmen des
Klimawandels nicht nur wegen eines möglichen Weltuntergangs Sorgen machen sollten. Stattdessen könnten wir aufgrund der veränderten Umweltbedingungen immer dümmer werden.
Was uns anstelle eines Weltuntergangs, der von vielen Forschern, aber auch Persönlichkeiten wie Elon Musk bereits ab dem Jahr 2050 vorhergesagt wird, bevorstehen soll, ist erstaunlich. Den Forschern
zufolge sollen erhöhte Level an CO2 in der Erdatmosphäre zu kognitiven Beeinträchtigungen beim Menschen führen.
… Es gibt bereits Nachweise dafür, dass zu viel CO2 in der Luft zu kognitiven Problemen führen und die Fähigkeit zur Konzentration und zu Lernen senken kann. Frische Luft kann diesen Effekt aufheben, jedoch wird diese im Rahmen des Klimawandels immer knapper werden. Laut den Forschern könnte das zu eine „Verdummung“ der Menschheit führen
… Neben den neuen Erkenntnissen bleibt aber auch die Möglichkeit eines Weltuntergangs durch den Klimwandel ein Zukunftsszenario, dem keiner freudig entgegensieht.

Die Recherchen des Autors lassen vermutet, dass dieser wirklich schlimme und scheinbar nicht umkehrbare Klimawandeleinfluss bereits viel früher, als es diese Wissenschaftler terminieren und dazu noch mit einem Kipppunkt, der bereits eingetreten ist …

Nachtrag und Richtigstellung zur Aussage des Amtsleiters

Nach Abgabe des Artikels kam die Antwort des Amtsleiters vom Nürnberger Wasserwirtschaftsamt auf die Nachfrage zu seinen im Zeitungsartikel angegebenen – und hier heftig kritisierten – Aussagen. Da diese Antwort den Sachverhalt neu darstellt, anbei die Information (Auszüge):
Laut dem Amtsleiter wurde dem Redakteur der Sachverhalt erklärt, dass die letzten Zehn Jahre der Niederschlag abnimmt (Zitierung): … Grundlage meiner Aussage sind die Aufzeichnungen an Niederschlagsmessstationen in unserem Amtsgebiet. Diese ergeben z.B. für die Messstation Buch in Nürnberg für die Zeit 01.01.2010 bis 31.12.2019 einen Gesamtniederschlag von ca. 5978 mm. Im Vergleich zu langjährigen Mittelwerten von ca. 640 mm pro Jahr (1961 – 90: 644 mm, 1981 – 2010: 637 mm) bedeutet das ein Defizit von über 400 mm in zehn Jahren. An anderen Stationen fällt die Differenz noch deutlich negativer aus und beträgt bis zum Eineinhalbfachen des durchschnittlichen Jahresniederschlags. Diese Defizite spüren wir mittlerweile vor allem im Bodenwasserhaushalt …

Zu der weiterführenden – und speziell kritisierten – Aussage im Zeitungsartikel „Dass die zurückliegende Trockenheit nicht mehr nur ein Wetterphänomen, sondern Folge der Klimaveränderung ist“, kam der Hinweis:
„ … Sie deuten an, dass man mit solchen Auswirkungen allein noch nicht den Klimawandel belegen kann, was ich auch nicht getan habe. Von mir stammt die reine Tatsachenfeststellung: „Wir haben seit zehn Jahren ein Niederschlagsdefizit“.
Die Bewertung: „Dass die zurückliegende Trockenheit nicht mehr nur ein Wetterphänomen, sondern Folge der Klimaveränderung ist, dafür sprechen die Statistiken der Wasserwirtschaftsbehörden“ wurde vom Redakteur vorgenommen. Im Artikel ist insofern das erste Anführungszeichen, das ich gelb markiert habe, irreführend. Lässt man es weg, ist der Text zutreffender … „

Damit bleibt die Kritik am Redakteur „hängen“, der aus der nicht konsequent genug eingegrenzten Aussage zum Niederschlagsdefizit wohl eigenmächtig den Klimawandel dazu fabuliert hat, um seinem Artikel die vom GRÜNEN Zeitgeist geforderte Richtung zu geben.

Quellen

[1] nordbayern 16.06.2020: Experten: Regen ist für Felder und Wald „Rettung im letzten Moment

hans-peter.kastenhuber@pressenetz.de

[2] Bayerisches Landesamt für Umwelt April 2020 Das Bayerische Klimaprojektionsensemble Audit und Ensemblebildung

[3] Umweltbundesamt 20.03.2020: Trends der Niederschlagshöhe

[4] Bayerisches Landesamt für Umwelt: Pilotstudie „Klimawirkungskarten Bayern“

[5] FUTURE ZONE 24.12.2019: Der Klimawandel macht uns dumm – Studie zeigt Erschreckendes

[6] EIKE 08.06.2020: Corona ist vorbei. Nun hat uns der alltägliche Wahnsinn wieder

 

 

 




Ein Tag im Deutschland des Energiewende-Wahnsinns

Stefan Klinkigts Facebookseite

Das Ergebnis liest sich wie folgt:

“DEUTSCHLAND, AN EINEM GANZ NORMALEN SOMMERTAG…

Donnerstag, 17. Juni 2020, morgens 7:38 Uhr MESZ (https://www.electricitymap.org).

Deutschland hat in diesem Moment einen Elektroenergiebedarf von 51 GW.
Davon werden bereitgestellt (aus fossilen/nuklearen Quellen):

  • 12,74% aus Kernenergie durch Nutzung von 80,05% der installierten Leistung;
  • 32,58% aus Kohle durch Nutzung von 37,85% der installierten Leistung;
  • 19,13% aus Erdgas durch Nutzung von 32,66% der installierten Leistung;

Der Rest verteilt sich auf regenerative Quellen (sog. »erneuerbare Energien«):

  • 1,73% aus Windenergie durch Nutzung von 1,45% der installierten Leistung;
  • 4,24% aus Wasserkraft durch Nutzung von 44,98% der installierten Leistung;
  • 2,43% aus Photovoltaik durch Nutzung von 2,54% der installierten Leistung;
  • 8,39% aus Biomasse durch Nutzung von 52,35% der installierten Leistung;
  • -2,4% aus Pumpspeichern (Pumpspeicher werden derzeit gefüllt);

Insgesamt sind das 78,84%. Knapp ein Viertel des gegenwärtigen Strombedarfes muss also derzeit aus teuren Importen zugekauft werden. Wir importieren also jetzt teuren Strom (z.B. bösen Atomstrom aus Frankreich), obwohl wir unsere eigenen Kohlekraftwerke derzeit nur zu ca. 38% nutzen. Grotesker geht es nicht.

Und nun stellen wir uns dieselbe Bedarfssituation mal zehn Jahre später vor. (Es handelt sich hierbei noch nicht um den Extremfall einer sog. „Dunkelflaute“, bei der Wind und Photovoltaik Null Kilowattstunden erzeugen.) Alle »Atomkraftwerke« wurden abgeschaltet. Ebenso die bösen »dreckigen« Kohlekraftwerke. Strom aus fossilen Quellen gibt es nur noch aus Erdgas. Deutschland hat in diesem Moment einen Elektroenergiebedarf von 51 GW.Von den sog. »Erneuerbaren« haben die Haupterzeuger Wind und Photovoltaik zwar eine installierte Leistung von 111,7 GW, erbringen aber auf Grund ihrer Volatilität zu diesem Zeitpunkt nur lächerliche 2,12 GW Leistung. Der Rest muss also von den nicht volatilen Erzeugern Biomasse (installierte Leistung 8,17 GW), Wasserkraft (4,8 GW), Erdgas (29,9 GW) und Pumpspeicher (installierte Leistung 9,6 GW), bereitgestellt werden. Von diesen vier letztgenannten erfüllen letzten Endes nur Erdgas und Wasserkraft die Anforderungen, die zur Versorgungssicherheit „24/7/365“ beitragen. Wenn Pumpspeicher leergelaufen sind, erzeugen sie keine einzige Kilowattstunde mehr. Dasselbe gilt für Faulgas-Reaktoren („Biogas-Anlagen“ genannt).

Rechnen wir das also mal schnell durch. Biomasse, Wasserkraft, Erdgas und Pumpspeicher (vorausgesetzt, letztere sind auch gefüllt!) erbringen zusammen unter Volllast 49,83 GW Leistung. Zusammen mit den Zappelstromerzeugern Wind und Photovoltaik: 2,12 GW + 49,83 GW = 54,59 GW. Benötigt werden in unserem Beispiel 51 GW. (Wenn die Pumpspeicher leergelaufen sind und das Faulgas zum Betreiben der sog. »Biogasanlagen« alle ist, fallen diese beiden Erzeuger natürlich weg.)

Die Stromversorgung wäre also in diesem Moment auf Kante genäht. Steigt der Bedarf, was ja morgens immer der Fall ist, und stünde in diesem Moment keine Netzausregelungsreserve mehr zur Verfügung, dann kann ein Blackout nur noch mit Lastabwürfen* verhindert werden.
Die Situation, wenn es unseren linksgrünen Weltklimarettern gelänge, bis dahin auch noch das »klimaschädliche« Erdgas zu verbieten, mag ich mir gar nicht vorstellen.
* …by the way: »Lastabwürfe« sind regionale Stromabschaltungen.”

Wir haben schon vor einiger Zeit auf den “Bericht der deutschen Übertragungsnetzbetreiber zur Leistungsbilanz 2018-2022, mit Stand vom 18.02.2020” hingewiesen, in dem man nachlesen kann, dass spätestens 2022 der in Deutschland erzeugte Strom nicht mehr ausreicht, um den Bedarf der Stromkonsumenten in Deutschland zu decken. Was Stromunsicherheit für den Standort “Deutschland” bedeutet, das kann sich jeder selbst ausmalen. Rechnungen, wie die Rechnung, die die Übertragungsnetzbetreiber anstellen, basieren auf Jahres-, bestenfalls auf Monatsdaten. Hinter solchen Daten verbergen sich erhebliche Varianzen, die man am besten mit der Tatsache umschreiben kann, dass bereits heute an vielen Tagen der in Deutschland produzierte Strom nicht ausreicht, um die Inlandsnachfrage zu decken. Die Energiewende wird schon heute nicht nur – über die extraordinären Strompreise – auf dem Rücken der Verbraucher, sondern auch dem der ausländischen Stromerzeuger, der Betreiber der gescholtenen Kernkraftwerke in Frankreich, der Betreiber der ach so schmutzigen Kraftwerke, die Strom aus fossilen Brennstoffen erzeugen der Schweiz und Österreich ausgetragen.

Wir haben die Idee von Stefan Klinkigt aufgenommen und weitergesponnen und den Stromverbrauch sowie die Kapazitätsauslastung der Energieträger über den Tag verfolgt. Die beiden folgenden Abbildungen zeigen zunächst die Herkunft des verbrauchten Stroms, dann die Auslastung der einzelnen Energieträger am Morgen, Mittag und Abend des 17. Juni 2020.

Die Musik spielt im Vergleich der beiden Abbildungen, der zeigt:

  • Zu keinem Zeitpunkt des 17. Juni sind alternative Energieträger auch nur ansatzweise in der Lage, den Strombedarf in Deutschland zu decken;
  • Ohne Kohle- und Gaskraftwerke ist es nicht möglich, die Stromversorgung in Deutschland zu sichern;
  • Zu jedem Zeitpunkt morgens, mittags und abends, wird Strom importiert;
  • Zu jedem Zeitpunkt, morgens, mittags und abends, wären Kapazitäten vorhanden, um auf Importe verzichten zu können;
  • Biomasse und Wasserkraft ist die alternativen Energieträger, die konstante und hohe Auslastungsquoten erreichen. Selbst bei hohem Auslastungsgrad sind beide jedoch lediglich in der Lage, rund 7% (Biomasse) und 4% (Wasserkraft) der Stromnachfrage in Deutschland zu decken;
  • Mit dem Ausstieg aus der Kernenergie, der Ende 2021 erfolgt, fallen in Deutschland 10% der Stromerzeugung, die zur Deckung der Nachfrage gebraucht werden weg. Es sind dies 10%, die konstant, unabhängig von Wetter, Wind und Tageszeit erzeugt werden können. Weder Windenergie noch Solarenergie noch Wasserkraft oder Biomasse sind auch nur ansatzweise in der Lage, diese Lücke in der KONSTANTEN und somit verlässlichen Stromversorgung zu decken;
  • Sollte zudem ein Ausstieg aus der Verstromung von Kohle vollzogen werden, so dass ab 2038 keinerlei Strom aus Kohle mehr gewonnen wird, dann ist nicht ersichtlich, wo eine kontinuierliche Sicherung der Versorgungslücke von rund 40% der Stromnachfrage herkommen soll. Die einzigen Energieträger, die eine kontinuierliche und damit sichere Stromversorgung bieten, sind Biomasse, Wasserkraft und Gaskraftwerke. Erstere sind nicht in der Lage, eine Versorgungslücke von mehr als 10% zu decken. Die Kapazitäten von Gaskraftwerken reichen aus, um eine Versorgungslücke von rund 39% auf Basis der derzeit installierten Leistung, zu schließen, was indes eine 100%ige Auslastung erfordert. Bei der Erzeugung einer Kilowattstunde Strom durch Gas-Verbrennung, entstehen rund 490 Gramm CO2. Bei der Erzeugung von einer Kilowattstunde Strom durch Kernspaltung entstehen 12 Gramm CO2. Selbst wenn man einer der Gläubigen ist, die den Klimawandel auf menschliches Handeln zurückführen, kann man diese Art von Energiepolitik, die auf der einen Seite die Stromsicherheit Deutschlands aufs Spiel setzt, um auf der anderen Seite nicht einmal die angestrebte Reduzierung von CO2 Emissionen zu erreichen, nur als Kamikazestrategie ansehen.
Blühende Landschaften war früher!

Aber vielleicht ist das ja das Ziel der deutschen Bundesregierung: Die eigenen Klimaziele dadurch erreichen, dass der Wirtschaftsstandort Deutschland zerstört wird. Wo keine Nachfrage nach Strom mehr vorhanden ist, schon weil Privathaushalte ab 2038 ihren Strom entweder mit dem Fahrraddynamo selbst erzeugen oder um ein Lagerfeuer sitzen, um sich dort Geschichten aus der alten Zeit, als man noch Filme im Fernsehen sehen konnte, zu erzählen, da entstehen auch keine CO2-Emissionen, bei der Stromerzeugung. Das Lagerfeuer muss man jetzt einfach für das höhere Ziel der Reduktion von CO2-Emissionen bei der Stromerzeugung in Kauf nehmen.

Wir haben mehr und mehr das Gefühl, dass die Regierungen “Merkel” als Wegbereiter für einen Rückfall in das, was man eine sekundäre oder Neo-Primitivität nennen könnte, in die Geschichte eingehen werden.

Dencken außerhalb des politischen Mainstreams.
Das finden Sie bei ScienceFiles.

Unterstützen Sie unseren Fortbestand als freies Medium.
Vielen Dank!

 




Energieträger Wasserstoff: Jetzt wird der Wasserstoff grün angestrichen (Teil 1)

Nach Scheitern der Energiewende und der Elektromobilität lautet nun die neue Parole: ‚Wasserstoffrepublik‘. Nüchtern betrachtet ist das Element wenig aussichtsreich als Energieträger der Zukunft.

Nur wenige kurze Sätze in den 21 Seiten des Papiers »Zukunfts-Strategiedialog Energieforschung« sind dem Thema Wasserstoff gewidmet: »Auf absehbare Zeit geringe energiewirtschaftliche Bedeutung«, steht da. Und: »Forschung und Entwicklung nur verfolgenswert, wenn Wasserstoff als Energiespeicherungs-Medium eingesetzt wird.«  Das ist allerdings schon eine ganze Weile her, die Zeilen wurden bereits im Jahre 1995 formuliert.

Möglicherweise könne Wasserstoff irgendwann einmal seinen Part in einem umweltfreundlichen Energiesystem übernehmen. Vor »uneinlösbaren kurzfristigen Erwartungen« jedoch sei zu warnen. Das verkündete in holprigen Sätzen eine Umweltministerin bei der 11. Weltwasserstoffkonferenz in Stuttgart, der »Hydrogen ‘96«, über die auch der Spiegel berichtete. Ebenfalls ein paar Jahre her ist das, es war am 4. November 1996. Und die Ministerin, die das sagte – das war seinerzeit Angela Merkel. Sie hatte die Aufgabe, den kühnen Wasserstoffplänen der versammelten internationalen Fachleute und deren Erwartungen nach staatlichen Fördermillionen eine Absage zu erteilen. Denn kurz zuvor strich das Bundesforschungsministerium das Budget für die Wasserstoffforschung von bereits bescheidenen 15 Millionen auf fünf Millionen Mark zusammen.Neben vielen anderen hatte sich auch der frühere Bayerische Ministerpräsident Franz Josef Strauß zu seinen Lebzeiten für eine Wasserstoffwirtschaft stark gemacht – das müsste heute eigentlich ausreichen, sich dagegen auszusprechen.

Als »riesige Blendgranate« bezeichnete einst in einem erinnerungswürdigen Interview mit dem Deutschlandfunk der Energieexperte Dr. Ulf Bossel vom Europäischen Brennstoffzellenforum eine Wasserstoffwirtschaft. Angesichts der schlechten Energiebilanz werde »auch niemand so dumm sein, um hier in eine Wasserstoffinfrastruktur zu investieren«, meinte er, eigentlich ein ‚Wasserstoff-Fan‘. Wasserstoff sei ein denkbar ungeeigneter Energieträger, da bei seiner Herstellung viel Energie verbraucht und bei Transport und Lagerung viel Energie verloren gehe. 

Um Wasserstoff herzustellen, benötige man erhebliche Mengen an Strom. Er verwies auch darauf, dass viel Wasser bei der Herstellung durch die Elektrolyse gebraucht werde: »Um ein Kilo Wasserstoff herzustellen, das entspricht etwa drei Liter Benzin, brauche ich neun Kilogramm Wasser. Und das habe ich garantiert in der sauberen Form nicht dort, wo ich viel Sonnenenergie habe.«

»Wenn ich aus Wasser Wasserstoff mache durch Elektrolyse, verliere ich ungefähr ein Drittel der Energie, ein Drittel des Stroms ist weg. Dann muss ich den Wasserstoff ja transportfähig machen. Ich muss ihn entweder komprimieren, da verliere ich etwa 10 bis 15 Prozent der Energie, oder ich muss ihn verflüssigen, da verliere ich etwa 40 Prozent der Energie.«

»Und dann habe ich das Transportproblem«, listet er die Kehrseiten weiter auf. »Ich muss den Wasserstoff also, wenn ich ihn in Patagonien mache, muss ich ihn per Schiff nach Hamburg bringen. Das kostet wiederum Energie, ungefähr ein Drittel des Wasserstoffs, den ich im Schiff habe, verliere ich bei einer Fahrt von Patagonien nach Hamburg.«

»So viel?« Wirft erkennbar geschockt der Moderator ein.

»Ich kann nur ein Drittel der Ladung wirklich in Hamburg anlanden und nutzen«, rechnet Bossel ungerührt fort. Reiner Wasserstoff allein nutze nicht viel: »Ich muss ihn ja umsetzen, entweder in einer Brennstoffzelle mit 50 Prozent Wirkungsgrad, wenn es gut geht, oder in einem Wasserstoffmotor mit 40 Prozent, wenn es gut geht. Das heißt, da habe ich noch mal Verluste, bis ich nachher endlich wieder zu dem komme, was ich ursprünglich hatte, nämlich dem Strom. Das heißt, von dem Strom, wenn ich unter einem Atomkraftwerk zum Beispiel Wasserstoff bei uns herstellen wollte, dann kann ich über die Leitung etwa vier mal mehr Energie transportieren, als ich über den Wasserstoff transportieren kann. Ich brauche also vier Kernkraftwerke, um den gleichen Kundennutzen zu haben.«

Kein Wunder, dass Ulf Bossel zu dem Schluss kommt: »Wasserstoff löst keine Energieprobleme«. ( Leibniz-Institut, 2010). 

Aber auch das Interview ist schon zwölf Jahre alt. Unter Bundeswirtschaftsminister Altmaier und Bundesforschungsministerin Anja Karliczek haben sich die technischen Erkenntnisse gewandelt.

Die Energiewende scheitert und die Elektromobilität scheitert; da könnten möglicherweise irgendwann die Bürger wütend werden, wenn sie erkennen, dass für dieses Scheitern gut funktionsfähige Kernkraftwerke abgerissen und die Grundlagen eines Industrielandes in Schutt und Asche gelegt werden. Also müssen neue Parolen dringend her: die von der ‚Wasserstoffrepublik‘, in die sich Deutschland wandeln soll. In der bekommen erst einmal die armen Moleküle des Wasserstoffs genau wie die Elektronen des Stroms erst einmal eine Farbe und werden grün angestrichen.

Dazu feuern die Medien Jubelberichte über »Begeisterung nach Testphase mit Wasserstoff-angetriebenen Zügen« ab. Dieselloks würden damit verdrängt, wie es in schwärmerischen Berichten heißt, Lastwagen könnten damit angefeuert werden und Pkw sowieso.

‚Grüner Wasserstoff‘, durch Sonne und Wind erzeugt, sei der ‚Energieträger der Zukunft‘, so Karliczek. »Wir brauchen ein Cape Canaveral des Wasserstoffs in Deutschland«. Die Hotelfachfrau aus dem Münsterländischen stammt aus dem merkelschen Polit-Bollwerk, sitzt auf dem Chefsessel des Bundesforschungsministeriums und will bis zum Jahr 2025 eine Innovationsoffensive »Wasserstoffrepublik Deutschland« umsetzen. Milliarden sollen für einen guten Zweck fließen, zur Förderung der Wasserstofftechnologie: »Wir wollen Weltmeister auf dem Gebiet des Grünen Wasserstoffs werden. Wir wollen in Deutschland die Technologien erforschen, entwickeln und herstellen, die weltweit Standards setzen und das Potential haben für neue Exportschlager `Made in Germany`.«

Statt Cape Canaveral könnte Lakehurst der passendere Vergleich sein. 1937 verschwand der deutsche Super-Zeppelin »Hindenburg« nach einer Atlantik-Überquerung in einer gewaltigen Explosion beim Landeplatz in Lakehurst vom Himmel. Er war mit dem Wasserstoffgas gefüllt, das zwar leicht ist, jedoch extrem brennt. Ein schönes Sinnbild für den Knallgaseffekt. Helium, das wussten die deutschen Ingenieure zwar, ist unbrennbar, also besser, aber die USA rückten nichts von diesem raren Edelgas heraus.Lakehurst zeigte: Der Umgang mit Wasserstoff ist schwierig, ihn beherrschen die Fachleute trotz gelegentlich explodierender Tankstellen prinzipiell heute durchaus. Allerdings ist die aufwendige Handhabung entsprechend teuer.

Nichtsdestotrotz herrscht seit einiger Zeit wieder Goldgräberstimmung in der Branche. »Kaum ein Thema elektrisiert große Teile der deutschen Wirtschaft derzeit mehr als Wasserstoff«, notierte das Handelsblatt anläßlich einer Konferenz »Wasserstoff und Energiewende«. Die Gäste kommen angerannt, die Regierung »hat die Aufmerksamkeit von Stahl- und Chemiebranche, Energiewirtschaft, Autokonzernen, Anlagenbauern und Netzbetreibern«.

Kein Wunder, es werden horrende Summen verteilt. Da kann man schon mal wie Niedersachsens Ministerpräsident Stephan Weil rufen: »Deutschland braucht mehr Tempo bei der Energiewende – und muss auf Wasserstoff setzen 

Als Industrievertreter muss man dann auch peinliche Sprüche aus dem Munde des Wirtschaftsministers an sich abperlen lassen: »Gas ist sexy

Klar war den Experten stets, dass eine mächtige Energiequelle zur Erzeugung von Wasserstoff vonnöten sei. Die einzige Quelle, die preisgünstig gigantische Mengen an Strom erzeugen kann, ist jedoch die Kernkraft. Idee der frühen Wasserstoffbefürworter: Hochtemperaturreaktoren sollten preiswert Wasserstoff als Energieträger erzeugen.

Einer der Pioniere einer deutschen Wasserstofftechnologie nach dem Zweiten Weltkrieg war übrigens Ludwig Bölkow (1912-2003). Der hatte den »Deutschen Wasserstoffverband« mit begründet. Da war er allerdings schon »pensioniert« und zum »Ökopazifisten« gewandelt. Er hatte seine Ader zu den »Grenzen des Wachstums« und zur Rettung der Menschheit entdeckte. Zuvor hatte er mit der Entwicklung von tüchtigem Luftfahrtkriegsgerät kräftig, nun ja, eher zum Gegenteil beigetragen. Mit leistungsschwachem Elektro- oder Brennstoffzellenantrieb hätte Bölkow früher jedoch nie ein leistungsfähiges Kampfflugzeug in die Luft gebracht.Die auf seine Stiftung zurückgehende »Ludwig-Bölkow-Systemtechnik GmbH« zeichnet heute für »grüne« Energien und Wasserstoff mit verantwortlich und kann sich auch über die neuen Milliarden freuen.

»Weil es eine Riesen-Wasserstofflobby gibt«, antwortete seinerzeit Experte Bossel auf die Frage, warum die Politik trotz der desaströsen Energiebilanz dennoch am Wasserstoff festhalte, »weil sie bei ihren Anhörungen nicht die kritischen Stimmen hört, sondern lediglich die, die an Wasserstoffprogrammen beteiligt sind. Und für die ist das natürlich dann ein Selbstbedienungsladen. Sie befürworten die Wasserstoffprogramme, weil sie dann entsprechend partizipieren.« 

Jetzt riecht es wieder nach Desertec, jenem kolossalen Schwindel, der aus Nordafrika je nach Gusto Strom, Wasserstoff oder sonstige Energien nach Europa zu führen versprach. Die hochfliegenden Pläne versandeten. Grund: Neben technischen und politischen Schwierigkeiten sprach sich ihre Unwirtschaftlichkeit langsam überall herum. Das, was Sonne und Wind liefern, ist einfach deutlich zu wenig an Energie. Eine Technologie, die nur mit Förderung funktioniert, kann wohl schwerlich als »die Zukunftstechnologie« verkauft werden.

Das hätte sich Henry Cavendish wohl in seinen kühnsten Träumen nie vorgestellt. Er war zwar ein schrulliger Naturwissenschaftler, aber so schrullig nun auch wiederum nicht, dass ihm eingefallen wäre, Wasserstoff als wichtigsten Energieträger einzuführen, dazu noch mit dem albernen Modelabel »CO2 frei« etikettiert. Vollends vor Lachen geschüttelt hätte es ihn, hätte er den Spruch vom »Zeitalter einer Wasserstoffwirtschaft« gehört, der gerade losgelassen wird.

Der Engländer Cavendish hatte bereits 1766 reinen Wasserstoff als erster isolieren und zeigen können, dass es ein chemisch nicht weiter teilbares Element ist. Als nüchterner Naturforscher war sein Prinzip »beobachten, messen und Fakten sammeln«. Wasserstoff produziert bei der Verbrennung mit Sauerstoff Wasser. 20 Jahre später wollte in Paris der schon damals bedeutende französische Chemiker Antoine Laurent de Lavoisier zeigen, dass bei chemischen Reaktionen keine Masse verloren geht und erhitzte Wasser in einem abgeschlossenen System. Er ließ das entstandene Wasserstoffgas knallen, erschreckte mit »Knallgasexplosionen« sein Publikum. »Hydro-gène«, »wasserproduzierend« nannte er das Gas. Beiden Naturwissenschaftler gemein war, dass sie sich nicht nur dafür interessierten, dass etwas funktioniert. Entscheidend ist vielmehr: Wieviel kommt dabei heraus? Wie sehen Massenbilanzen und Reaktionsgleichungen aus? Lavoisier war bekannt dafür, dass er Messmethoden für Massen und Gewichte entwickelte und peinlich genau bei jedem Experiment seine Messergebnisse aufzeichnete. Fakten als Grundlage für Erkenntnisse und Schlussfolgerungen.Genau das unterscheidet sie von heutigen Berliner Energiewendern und Propagandisten einer Wasserstoffwirtschaft. Die ehernen Regeln gelten heute zunehmend als veraltet. Wissenschaft und Technik haben sich dem Politwillen zu unterwerfen, und der ist im Zweifel »grün«.

Nachzutragen ist, dass die fanatischen französischen Revolutionäre mit dem Jahrhundertkopf Antoine de Lavoisier einen der führenden Wissenschaftler der damaligen Zeit guillotinierten. Der blindwütige Richter des Revolutionstribunals soll bei dem Schnellverfahren erklärt haben: »Die Republik braucht keine Wissenschaftler, ein einziger Mann von Geist an der Spitze des Staates reicht.«


Im zweiten Teil gehen wir auf die vergeblichen Versuche der Autoindustrie ein, dem Auto das Fahren mit Wasserstoff beizubringen.

Der Beitrag erschien zuerst bei TE hier




Grüne Politik verschärft Rassendis­kriminierung

Der Sierra Club, „350.org“, der Environmental Defense Fund EDF und Andere veröffentlichten Erklärungen, in denen Rassendiskriminierung verurteilt wird. Die League of Conservation Voters und der EDF zum Beispiel waren in ihrer Art maßvoll und angemessen. Die Erklärung des Präsidenten des Sierra Clubs Michael Brune dagegen enthielt eine Tirade gegen gewisse Unternehmen: „Diejenigen Unternehmen, die von fossilen Treibstoffen profitiert und die Klimakrise befeuert haben, sind die gleichen, die Vorteile aus Umweltverschmutzung, Kolonialismus und Rassismus gezogen haben“.

Mr. Brune erwähnte keine Unternehmen namentlich, ebenso wenig wie er deren historische Sünden benannte. Könnte es sein, dass einige von genau diesen Unternehmen Geldgeber für den Sierra Club sind und sein üppiges Honorar zahlen? Falls das so ist, würde seine Nicht-Nennung von Namen Sinn machen. Ich habe aber den Verdacht, dass Brunes Attacken ein Versuch sein könnten, seine wenig schmeichelhafte Bloßstellung im jüngsten Michael-Moore-Film Planet of the Humans zu überspielen, wirft dieser Film doch Brune und dem Sierra Club vor, an profitierende Unternehmen immer wiederkehrend Falschmeldungen zu propagieren, wonach Energie durch Wind, Solar und Biomasse fossile Treibstoffe ersetzt. Vielmehr bestätigt der Film, dass jene „erneuerbaren“ Energiequellen stark abhängig sind von ebendiesen fossilen Treibstoffen.

Grüne Politik wie etwa die Förderung von Bevölkerungskontrollen waren für nicht-weiße Menschen in weniger entwickelten Nationen sehr schädlich. „Umweltaktivisten“ wie Paul Ehrlich warben lauthals für die Sterilisation von Völkern in der Dritten Welt, während Garret Hardin, Professor für „Human-Ökologie“ an der UC Santa Barbara den Hunger jener bedürftigen Bevölkerungen unterstützte.

Bevölkerungskontrolle ist nach wie vor ein Bestandteil der moderne grünen Agenda, jedoch mit wesentlich mehr Feinheiten. Unter prominenten Befürwortern findet sich auch der Britische Hybrid-Prinz Harry, welcher hinter der Begrenzung der Größe seiner Familie mit höchstens zwei Kindern steht, und der hinaus posaunt, dass jedermann sonst auch dieser Prämisse folgen sollte (Nebenbei: Ist er eigentlich immer noch Prinz?)

Andere Maßnahmen grüner Politik sind höchst schädlich für Amerikaner in Haushalten mit geringem Einkommen, wie das U.S. Census Bureau mitteilt, ebenso wie für Menschen in Entwicklungsländern. Das fängt an beim Green New Deal und dessen beabsichtigter Beseitigung der vielen und billigeren fossilen Treibstoffe. Von der Regierung erlassene Vorschriften bzgl. erneuerbarer Energie, welche fossile Treibstoffe wie Erdgas vertreiben und die Kernenergie verbieten soll, dienen nur dazu, die Energiekosten immer weiter steigen zu lassen.

Rein mathematisch bringen Menschen mit wenig Geld proportional einen viel höheren Prozentsatz ihres Einkommens für Notwendigkeiten wie Nahrung, Energie und Mobilität auf – deren Preise allesamt durch die Umsetzung grüner Politik steigen. Das ist nicht theoretisch, sondern es ist der Wirtschaftskurs 101, der sich in Amerika und weltweit durchgesetzt hat, wie CFACT berichtete. Unruhen in Chile, Frankreich und anderen Ländern wegen höherer Energie- und Transportkosten sind die Spitze des grünen Eisbergs.

Schwarze Amerikaner und andere Minderheiten profitieren in größerem Umfang von einer blühenden Industrie fossiler Treibstoffe, sowohl als Verbraucher als auch als Arbeiter. Daten des US-Arbeitsministeriums zufolge arbeiten größere Anteile schwarzer und hispanischer Amerikaner in Industrien wie Bergbau, Extraktion, Konstruktion und Transportwesen, die schwer von fossilen Treibstoffen abhängen – genau die Sektoren also, die Verwundbar gegenüber Verlusten von Arbeitsplätzen sind aufgrund der grünen Politik zur „Bekämpfung des Klimawandels“.

Viele städtische bedürftige Gemeinden, die unter Obdachlosigkeit, Müll, Drogenabhängigkeit und anderen Krisen leiden, wurden von vielen der gleichen Mandatsträger vernachlässigt, die eine nichtssagende Klimapolitik fordern, die nichts zur Lösung dieser unmittelbaren, greifbaren Probleme beiträgt. Die Opfer dieser politischen Vernachlässigung sind in der Regel Schwarze, hispanische Amerikaner und Einwandererfamilien.

Es sollte auch mehr getan werden, um junge Menschen mit einer qualitativ hochwertigen K-12-Ausbildung zu befähigen, aus solchen Vierteln besser in die Mittelschicht oder noch höher aufzusteigen. Genauso wie Polizeigewerkschaften zu Recht wegen der Misshandlung von Schwarzen durch einige ihrer Mitglieder unter die Lupe genommen werden, sollten auch Lehrergewerkschaften und andere wegen chronischer akademischer Benachteiligung in so vielen öffentlichen Schulen in Gemeinden mit hohem Bedarf unter die Lupe genommen werden.

Eine Politik der Bildungs-Auswahl beispielsweise wird von Lehrergewerkschaften wütend und egoistisch bekämpft, bietet jedoch Kindern aus Minderheiten eine gleichberechtigtere Chance, Aufstiegsmöglichkeiten zu haben, wie sie Kindern aus Haushalten mit höherem Einkommen zugute kommen.

Es ist gut zu sehen, dass einige grüne Organisationen, zumindest oberflächlich betrachtet, sich gegen Rassismus gegenüber schwarzen Amerikanern einsetzen und sich dagegen wehren. Alle Amerikaner sollten in dieser Sache geeint sein. Zur Verhinderung weiterer Ungerechtigkeit sollte jedoch eine umfassende Neuordnung der destruktiven Klimapolitik gehören, die vor allem einkommensschwachen, schwarzen Menschen und Minderheiten schadet.

Autor: Peter Murphy, a CFACT analyst, has researched and advocated for a variety of policy issues, including education reform and fiscal policy, both in the non-profit sector and in government in the administration of former New York Gov. George Pataki. He previously wrote and edited The Chalkboard weblog for the NY Charter Schools Association, and has been published in numerous media outlets, including The Hill, New York Post, Washington Times and the Wall Street Journal.

Link: https://www.cfact.org/2020/06/15/green-policies-compound-racial-injustice/

Übersetzt von Chris Frey EIKE




Streitthema Kernfusion: Höß – Replik auf Hofmann-Reinecke

Das einzige, was zumindest einige der Ökopuristen akzeptieren könnten, ist der Kernfusionsreaktor, an dem seit geraumer Zeit fleißig geforscht wird. Zwar fällt hier auch strahlender Abfall an; es kann aber auch keine Kernschmelze geben. Im Gegenteil; es ist sogar extrem schwierig, die Reaktion überhaupt aufrecht zu erhalten.

Unser Autor Hans Hofmann-Reinecke hatte dazu einige Betrachtungen angestellt, die unser Leser Paul Höß, Ingenieur aus München, aufgreift und weiterverarbeitet. Man sieht: Bei EIKE gibt es keine „97%“-Konsens-Themen, bei uns wird über Wissenschaft noch gestritten!

von Paul Höß

Ein äußerst gut geschriebener Artikel von Dr. Hofmann-Reinecke, leicht verständlich, der mir insbesondere deshalb gefällt, weil Kernfusion bisher gerne als Schimäre abgekanzelt wird.

Ein paar kleine Hinweise möchte ich anfügen:

Reagan und Gorbatschow waren zwar die Initiatoren des ITER-Projekts, Planungen für vergleichbare Experimente gab schon deutlich früher. Während meiner Diplomarbeit 1980 am Max-Planck-Institut für Plasmaphysik (IPP) in Garching erfuhr ich von einem ITER Vorgänger, dem INTOR (International Tokamak-Reaktor) mit vier Partnern, USA, Europa, Rußland und Japan. In meinen Unterlagen von damals sehe ich, Mitte der 70er geplant, einen praktisch baugleichen Vorläufer von ITER. Das folgende Diagramm wurde 1978 am MIT (Massachusetts Institute of Technology) verfaßt: Seither haben wir es geschafft, zuverlässig weniger auszugeben, als dort für das Projekt „Fusion never“ ausgewiesen wurde.

Noch Fragen?

Was der Beschreibung von Dr. Hofmann-Reinecke vollständig abgeht, ist die Darstellung der Situation in China und Südkorea. Die Planungen der beiden Staaten gehen dahin, deutlich vor 2050 fertig zu werden. Fertig werden heißt, ein 1.000 MW-Fusionskraftwerk ans Netz zu bringen. (siehe Dropbox)

Die Strategie Chinas zeigt dieser Link in komprimierter Form.

Christoph Schrader von der SZ Wissenschaftsredaktion hat diese Information schon 2013 als uninteressant zurückgewiesen:

„Wir sind eine deutsche Zeitung, es interessiert uns nicht was in China passiert.“

Dazu paßt auch, daß am 25. Juni 2011 die Grünen in Berlin beschlossen, die Entwicklung neuer „atomarer Großtechnologien“ wie Kernfusion und Transmutation, zu hintertreiben.

An den koreanischen Plänen ist besonders Folie 7 interessant, Samsung ist mit drei Unterfirmen beteiligt, warum nicht auch Siemens in ähnlicher Art an deutschen Projekten?
Sie können diese aus meiner Dropbox laden

Auf dem Parteitag der KP Chinas von 2015 wurde ein strategischer Entwicklungsplan beschlossen. Darin wurden zehn Schlüsselfelder definiert, in denen China bis 2049 Weltspitze sein soll. Dazu gehört auch ein Plan, 2.000 junge Fusionsforscher bis 2021 auszubilden, Europa hat vielleicht 200 davon.

Ein SPIEGEL-Bericht über China übersetzt das chinesische Original dieser Pläne fast richtig. Bei den zehn Schlüsselfeldern auf S. 71 müssen Sie allerdings Informationstechnologie durch KI und Energietechnik durch Kernfusion ersetzen. Dann erhalten sie den Parteitagsbeschluß von 2015 wie im Original der chinesischen Niederschrift.
Ein Vortrag der IPP-Direktorin Sibylle Günther am ifo-Institut vom April 2012 ist unter den folgenden Links verfügbar.

Einleitung
Vortrag
Diskussion
(Funktioniert nur in wenigen Browsern, z.B Firefox). In dem Vortrag erzählt Frau Günter etwa ab Minute 35 aufschlußreiche Details über Chinas Pläne und nochmals ab der 20. Minute in der Diskussion.

Ab Minute 7:48 erzählt sie auf Frage von Frau Pittel vom Umfeld in das Kernfusion eingebettet werden muß. Ab 10:20 Apollo-Programm, ab 11:00 die Frage nach Dauer und Kosten: 20 Jahre, 20 Milliarden, wir könnten schon in kaum über zehn Jahren (2032) fertig sein, wenn wir es denn gewollt hätten.

19:35, taz: Hightech muß grundsätzlich gefährlich sein …
Die grüne Kernphobie hindert uns daran: Kernkraft, Kernfusion, Kernobst, alles gleich teuflisch….

Auf Minute 2:45 meint Frau Günter auf Nachfrage des Herrn Thallemer, daß ihr der Plasmafokus pB11 unbekannt sei. Sie wird vielleicht wissen, daß es eine pB11- Fusionsreaktion gibt, aber offensichtlich nicht den Stand der Technik in der Forschung an Plasmafokusaufbauten! Den kannte ich damals auch noch nicht.

Mit dieser pB11-Reaktion lassen sich extrem kleine Generatoren bauen. 5.000 kW Leistung, aber so klein wie ein Kühlschrank. Verbrauch: Etwa 1 Gramm Bor11 (Diboran) pro Tag! ICEs, Schiffe, Großflugzeuge, alles mit einem kleinen Generator zu betreiben!

In dem Zusammenhang möchte ich unsere Arbeit über Plasmafokus in München erwähnen, die eine wesentliche Verringerung der Energieprobleme Afrikas zur Folge haben kann.

Zuerst kurze Infos über Plasmafokus, wir arbeiten speziell an der Startphase desselben Ansatzes. Als Einstieg über „alternative“ Kernfusion können Sie sich zwei kurze Videos von und über LPP-Fusion ansehen.

Das erste erklärt innerhalb von drei Minuten Aufbau und Funktion der Energieerzeugung basierend auf der pB11-Reaktion mittels eines Plasmafokusaufbaus.
Der Link dazu:
Es gibt auch Facebookinfos: https://www.facebook.com/LPPFusion
Die derzeit erreichte Temperatur ist etwa 260 keV (das ist die übliche Energieeinheit der Plasmaphysik, und somit das Maß für die Temperatur. 1keV entspricht etwa 11 Millionen Kelvin), also knapp 3.000 Millionen Grad schon hoch genug.  Der erreichte Druck ist knapp ein Gigabar, in der Mitte der Sonne herrschen 200 Gb. Ziel ist hier 4-5 Gb, also schon nahe am Zielwert. Einzig die Einschlußzeit (einige ns) muß noch um etwa einen Faktor 100 gesteigert werden, daran arbeiten wir auch in München.

In einem Interview der New York Times vom 15. Juli 2019 erwartet Eric Lerner (Vorstandsvorsitzender LPP-Fusion) eine Erreichbarkeit schon ab 2021! Ambitioniert, aber wahrscheinlich nicht absolut unmöglich.

Den Ausschnitt (zwei Minuten) mit Lerner gibt es direkt bei mir, der vollständige Acht-Minuten Beitrag über den Stand der Technik in der Kernfusion kann abgerufen werden, 
Auf unserer Webseite ist ein Beitrag über Lerner zu finden.
Wir haben hier in München eine 1:1-Kopie des Aufbaus und untersuchen die Symmetrierung der Startphase. Mein Mitstreiter Armin Azima hat bis August 2018 wie Hartmut Zohm vom IPP nur die kalifornische Firma TAE (Paul Allen ist über Alphabet einer der Investoren) als Betreiber der pB11-Forschung gekannt und in Vorträgen und Veröffentlichungen genannt.
Nach einem aufklärenden Anruf von mir hat Herr Azima sofort an meiner Forschung mitgearbeitet.

Paul Allen hat also einige hundert Millionen Dollar in Kernfusion investiert, Elon Musk, ja der mit dem Tesla, ist im gleichen Umfang bei General Fusion in Vancouver beteiligt.

Warren Buffet hat drei Milliarden Dolar in Windräder investiert. Ohne die Subventionen wäre das einfach nur sinnlos, sagt er im Wall Street Journal am 4. Mai 2014.

Nochmal ein kurzer Überblick:

Grundsätzlich gibt es zwei Varianten von Kernfusion:

  1. die „altbekannte“ Deuterium-Tritium-Fusion, bei der ein Neutron als Ergebnis der Fusion die Energie nach außen trägt. Damit kann man nur Wasser kochen und man gelangt zu Konzepten wie ITER. Dort findet die Fusion in einem Plasmaschlauch (analog zu einem Fahrradschlauch) mit einem großen Durchmesser von 30m und einem kleinen Durchmesser von 10m statt. Als Ergebnis bekommt man ein Fusionskraftwerk mit 1.000 MW elektrischer Leistung, China und Südkorea (Samsung) sind gerade dabei, uns zu überholen. Beide planen Fusionskraftwerke spätestens 2050 am Netz zu haben!
  2. Bei der Bor-Wasserstoff-Fusion (pB11) entstehen (geladene) Alphateilchen (Heliumkerne, 2p+2n0), die Reaktionsenergie wird direkt in Geschwindigkeit dieser Teilchen übersetzt. Dies entspricht einem gepulsten Strom, der mit sehr hohem Wirkungsgrad direkt über eine Spulenwicklung – ähnlich einem Transformator – als Sekundärstrom entnommen werden kann.

3He vom Mond, wie von China vorgeschlagen, ist wie 2., aber viel aufwendiger zu gewinnen, da dieses in nennenswerter Menge eben nur am Mond zu finden ist. Ein zu 10% Bor(11)-haltiges Waschmittel können Sie in jedem amerikanischen Drogeriemarkt für 17,50 Dollar pro Packung kaufen, Deutschland könnte mit dem Bor in dieser Packung mindestens fünf Minuten lang mit Strom versorgt werden, also braucht man 10.000 Packungen im Jahr um ganz Deutschland mit Strom zu versorgen, kostet dann etwa 170.000 € im Jahr.

Der entscheidende Vorteil der Bor-Variante ist die Kompaktheit!

Im US Patent 7.482.607 (Dropbox: Spalte 29, Zeile 25) wird durchgerechnet, daß etwa 5 MW als Ausgangsleistung einer Reaktionseinheit(-gefäß) mit etwa 700 ccm Nettovolumen erwartet werden könnten. Das Bauvolumen inklusive des Zubehörs wird etwa von Kühlschrankgröße bis einige cbm betragen. Die Material- und Fertigungskosten sollten bei einigen 100.000 EUR liegen, selbst eine Million wäre relativ gesehen nicht teuer.

Ein ICE3 bräuchte weniger als ein Gramm Treibstoff pro Tag. Auch fliegen könnte (wird wohl) elektrifiziert werden, ein Airbus A380 hätte einen Verbrauch von etwa 10g von München nach San Francisco. Kostet etwa einen US-Dollar.

Sie können uns gerne jederzeit auch in München besuchen, Ihre Neugierde würde mich sehr freuen.

Hier ist der Eingang zu allen meinen Dropbox-Einträgen.




EIKE, Windkraftgegner und Susanne Götze im Bayerischen Fernsehen

Wichtigste Erkenntnis der Grünfunker: EIKE hat überall seine klimaleugnenden Finger drin – sogar bei den Windkraftgegnern aus Pfettrach! Das ist der letzte, schlagende Beweis….

Nebenbei: Susanne Götze hat im Piper-Verlag ein Recherchebuch herausgebracht, in dem sie – leider, leider- unsere Machenschaften aufdeckt: 

Die KlimaSchmutzLobby – Wie Politiker und Wirtschaftslenker die Zukunft unseres Planeten verkaufen.

Für nur 20 Euro! Knallharter investigativer und garantiert vom politmedialen Komplex völlig unabhängiger Feindbild-Journalismus gegen die kapitalistisch-trumpische Verschwörung der Klimaleugner*innen!
€ 20,00 [D], € 20,60 [A]
Erschienen am 06.04.2020
mit dankenswerter Unterstützung der Kumpelinnen  Susanne Roser
und Johanna Walter vom Bayerischen Rundfunk der Öffentlichkeit zugänglich gemacht
256 Seiten, Hardcover mit Schutzumschlag
EAN 978-3-492-07027-0.
Das ideale Buch für Verschwörungstheoretiker mit Corona-Quarantäne-Koller!




Amtlich festgestellt: Energiewende ist vermurkst

Wie jetzt, die Energiewende und ein Schwachpunkt? Das kann doch nicht sein, schließlich ist Deutschland Vorreiter und Herr Minister Altmaier sagt: „die ganze Welt eifert uns nach“, eine einzige Erfolgsstory. Und Frau Professor Claudi Kemfert hat das sogar wissenschaftlich bestätigt. Und nun soll ein nicht existenter „Schwachpunkt“ verschwinden?

Eine halbe Billion Euro (500.000.000.000 Euro) haben Stromkunden und Steuerzahler bisher so ungefähr in die Energiewende investiert. Jeder Deutsche, vom Baby bis zum Greis, hat in den letzten Jahren über 6.000 Euro für die Energiewende zwangsbezahlt. Und nun stellen von der Bundesregierung berufene Experten fest, dass die Maßnahmen der Regierung „zu kleinteilig, kurzfristig und nicht miteinander verzahnt“ sind, was „einer kosteneffizienten Klimapolitik entgegensteht“. Zu gut Deutsch: Die Energiewende ist ein einziger Murks. Doch das Geld ist futsch, es haben jetzt eben Andere.

Wer den Energiewendepfusch bisher kritisiert hat, war Klimaleugner und wurde als psychisch krank diagnostiziert. Andere Kritiker wurden als Energiewende-Hasser etikettiert und waren AFD-nah-zi. Die Vorgaben zur Energiewende kamen schließlich doch von „Experten“. In den von der Bundesregierung berufenen Kommissionen saßen renommierte Mitglieder von Naturschutzgruppen, BUND, Greenpeace, Potsdamer „Klimaforscher“, Ökoexperten, Wind- und Solarlobbyisten und Kirchenvertreter. Die Créme de la Créme der deutschen Umweltlobby – ein Schelm, wer dabei an Absicht denkt.

Das Problem der Merkelschen Kommisionitis dabei war eigentlich nicht das Ergebnis, das Problem war die Auswahl der Kommissionsmitglieder und deren Aufgabenstellung. Neudeutsch heißt sowas: „shit in – shit out“. Folgerichtig kam der Kernenergieausstieg bei gleichzeitigem Kohleausstieg heraus. Die Regierung aber freut sich, jetzt, wo’s schiefgeht, ist sie fein raus. Sie hat ja die Verantwortung für ihren politischen Pfusch auf Kosten der Bürger an Kommissionen ausgelagert. Das ist so eine typische „Merkelnummer“: Jetzt ist es eben passiert. Kann doch mal passieren.

Steuern statt Umlagen

Die Gutachter der Bundesregierung von der „unabhängigen Expertenkommission zum Monitoring der Energiewende“ empfehlen nunmehr, die leidige EEG- und KWK-Umlage komplett zu streichen und die Stromsteuer zu halbieren. Damit fielen zur Finanzierung der Energiewende pro Jahr zunächst einmal rund 25 Milliarden Euro aus EEG- und KWK-Umlage sowie 6,7 Milliarden Euro Einnahmen aus der Stromsteuer weg – da wissen die Leser endlich mal, wo ihr Geld so bleibt.

Die Gutachter der Bundesregierung wären aber nicht Gutachter der Bundesregierung, wenn sie nicht der Regierung eine satte CO2-Steuererhöhung in Höhe von 50 Euro pro Tonne CO2 empfehlen würden, die überall gelten soll, wo fossile Kraft- und Brennstoffe genutzt werden: vom Kraftwerk über die Tankstelle bis zur Heizungsanlage, ja eigentlich bis zum Frühstücksbrötchen.

Das reicht aber nicht, um das ewige Loch im Energiewende-Staatssäckel zu stopfen. Deshalb sollen in einer „Übergangszeit“ zum Stopfen der Finanzierungslücken Steuergelder eingesetzt werden, um die Taschen der Ökogewinnler weiterhin zu füllen und die Stromkunden zu entlasten.

Wenn ich höre „Stromkunden entlasten“, gehen bei mir alle Warnlampen an. Die bundesamtlichen Experten sagen: „bei einem Wenigfahrer mit effizienter Heizung“ bleiben dann unterm Strich noch 30 Euro Entlastung übrig. Das ist doch was, Hosianna! Nur, für die entbeutelten Bürger, die nicht „Wenigfahrer“, sondern Pendler sind und die Mieter, die sich keine „effiziente Heizung“ leisten können, heißt das nichts anderes als Mehrkosten: rechte Tasche, linke Tasche, noch mehr Energieabzocke. Denn Steuerzahler oder Stromkunden sind in der Regel dieselben Leute.

Der von mir hochgeschätzte Journalist Daniel Wetzel stellt in einem Kommentar der Welt-Online der Bundesregierung ein vernichtendes Zeugnis aus: „Der Bürger zahlt für politische Verantwortungslosigkeit“. Dem ist nichts hinzuzufügen. Die Energiewende aber schreitet weiter voran, solange die Zahlmichel sich das gefallen lassen. Was stört uns da die Wirtschaftskrise nach Corona – wir benennen Krisen einfach in „Herausforderungen“ um.

Der Beitrag erschien zuerst bei ACHGUT hier




Abkühlung in vielen Regionen* untergräbt ,globale‘ Erwärmung

Vor einem Jahr hatte NoTricksZone (NTZ) gemeldet, dass sich Grönland während der letzten Jahre abgekühlt hat – 26 der 47 größten Gletscher dort zeigen sich jetzt stabil oder haben an Eismasse zugelegt (hier).

Vor 6 Monaten verwies NTZ auf viele wissenschaftliche Studien, die zeigen, dass es sich in der Region zwischen 50°S und 70°S seit den 1980er Jahren abgekühlt hat, während sich das Wasser des Nordatlantiks seit dem Jahr 2004 um 1°C abgekühlt hat (hier).

Vor drei Monaten berichteten wir, dass es in weiten Teilen des Nordatlantiks innerhalb von nur 8 Jahren (2008 bis 2016) zu einer massiven Abkühlung um 2°C gekommen war (hier).

Vor einigen Tagen stellten wir eine neue Studie vor, die zu dem Ergebnis gekommen war, dass sich das Larsen-Schelfeis (Antarktische Halbinsel, hier mit AP abgekürzt) seit dem Jahr 1991 um über 2°C abgekühlt hat (hier).

Jetzt wollen wir 3 weitere Studien vorstellen. In einer geht es um die „Abschätzung deutlicher Abkühlungstrends in Eurasien, Nordamerika, Afrika, Australien, Südamerika und Grönland“ von 2002 bis 2013 (Xu et al., 2020). In den beiden anderen Studien geht es um eine rapide Abkühlung seit Mitte der 2000er Jahre, sowohl in der West- als auch in der Ostantarktis (Hrbáček and Uxa, 2020 und Fatras et al., 2020).

An dieser Stelle muss die Frage aufgeworfen werden: wie global ist denn nun die jüngste „globale Erwärmung“?

Xu et al., 2020

Zugleich mit der Verlangsamung der globalen Erwärmung von 2002 bis 2013 zeigen die Wintertemperaturen auf dem Festland in Eurasien, Nordamerika, Afrika, Australien, Südamerika und Grönland deutliche Abkühlungstrends.Die Verlangsamung verläuft zur gleichen Zeit wie eine negative Phase der Pazifisch-Dekadischen Oszillation PDO. Dies zeigt, dass die PDO eine bedeutende Rolle spielt bei der Modulation des Signals der globalen Erwärmung. Nicht in allen Ensemble-Mitgliedern zeigen sich die Abkühlungstrends über dem Festland, was auf zusätzliche Beiträge im Zuge der internen atmosphärischen Variabilität hindeutet“.

Image Source: Xu et al., 2020

Hrbáček and Uxa, 2020

„Eine signifikante Abkühlung setzte um das Jahr 2000 im größten Teil der Westlichen AP ein. Die durch die natürliche Variabilität der Tiefdrucktätigkeit und zunehmendem Meereis an den Küsten ausgelöste Abkühlung erbrachte Abkühlungstrends von 0,16°C bis 0,05°C im Zeitraum 2006 bis 2015. Im Gegensatz dazu stieg der MAAT auf JRI mit einer nicht-signifikanten Rate von 0,10°C pro Jahr, was den Beobachtungen an anderen Standorten der nordöstlichen AP entspricht, wo positive, aber nicht signifikante Trends zwischen 0,02 und 0,08°C pro Jahr gemeldet wurden. Im Gegensatz zu MAAT gab es für MSAT 5 einen nicht signifikanten negativen Trend von -0,05°C pro Jahr. Interessanterweise waren die Trends von MSAT und MSGT 5 nur im Herbst (MAM) mit 0,30 bzw. 0,13°C pro Jahr positiv, während sie in den anderen drei Jahreszeiten negativ waren. Dennoch wies die nordöstliche AP-Region im Zeitraum 2006 bis 2015 eine um mehr als 1°C niedrigere MAAT im Vergleich zu 1996 bis 2005 auf, und die Lufttemperatur im Herbst (MAM) lag sogar um etwa 1,5°C niedriger.

Image Source: Hrbáček and Uxa, 2020

Fatras et al., 2020

Die mittleren jährlichen Schwankungen der Meeresoberflächentemperatur (SST) aus der ERA-Zwischendatenbank des ECMWF sind in Abb. 4b dargestellt. Sie zeigen keinen besonderen Trend für den Zeitraum 1979 bis 2018, lagen doch die Schwankungen zwischen -1°C und +0,15°C. Dennoch liegt die mittlere Temperatur zwischen 1979 und 2000 bei -0,45°C und sinkt im Zeitraum 2000 bis 2015 auf -0,64°C.

Image Source: Fatras et al., 2020

Link: https://notrickszone.com/2020/06/11/cooling-in-eurasia-north-america-africa-australia-south-america-greenland-antarctica-undercut-global-warming/

Übersetzt von Chris Frey EIKE




Ihre Meinung zum KIimagesetz ist gefragt – Antworten Sie der EU Kommission!

Die EU-Kommission hat eine Umfrage zum „Klimagesetz“ gestartet. Wir bitten unsere Leser mitzumachen.

https://ec.europa.eu/info/law/better-regulation/have-your-say/initiatives/12265-2030-Climate-Target-Plan/public-consultation

Es wird vermutlich zwar überhaupt nichts nützen, aber da der Aufwand minimal ist, sollten Sie es trotzdem versuchen.

 




Bürgerdiszi­plinierung: Mundschutz – Sterberaten – Abstand halten

In diesem Zusammenhang ein Beispiel, wie der WDR die „Corona-Übersterblichkeit“ darstellt und die Einordnung der gleichen Zahlen durch das Bundesamt für Statistik aussieht. Der WDR möchte wohl für die ´Gefahr sensibilisieren`, die von Corona, Covid-19 ausgeht. Die Grafik des Bundesamtes für Statistik belegt, dass

bei Betrachtung des Zeitraumes seit Beginn des Jahres von einer Übersterblichkeit keine Rede sein kann. Denn vor Corona lag die Zahl der Verstorbenen monatelang unter dem langjährigen Durchschnitt. Zur Ergänzung hier die Übersicht, welche worldometers.com regelmäßig aktualisiert.

Bemerkenswert ist, dass hier eine Einteilung in schwere und milde Fälle vorgenommen wird. Lediglich 2% der aktiven Fälle weltweit sind als schwer eingestuft. Selbstverständlich sterben auch weiterhin Menschen an und/oder mit einer Sars-Cov-2 Infektion. Weltweit liegt die Zahl der Verstorbenen Stand 16.6.2020, 6:53 Uhr bei 439.225. Das ist viel, das ist nennenswert, das ist im Verhältnis zu den Menschen, die jeden Tag weltweit allgemein versterben, eine relativ geringe Zahl, ähnlich wie bei unseren Beispiel Corona-Tote WDR/Statistisches Bundesamt.

Zurück zur Frage, ob Masken sinnvoll sind oder nicht. Ohne Frage ist die Maskenpflicht in bestimmten Situationen, an bestimmten Orten offensichtlicher Ausdruck dafür, dass die Pandemie auch „in Deutschland noch nicht vorbei“ sei. Im Gegenteil, man sei „mittendrin“. So die offizielle Version. Natürlich müssen die, die den Lockdown veranlasst haben, weiter die einschränkende Linie fahren. Sonst könnten Bürger in großer Anzahl auf die Idee kommen, dass die der Verlust von Freiheitsrechten, der wirtschaftliche Absturz praktisch umsonst war. Theoretisch also müssen über 100.000 Menschen vor dem sicheren Corona-Tod bewahrt worden sein. Lockdown sei Dank.

Ehe die Zahlen der Neuinfektionen, der aktiven Fälle usw. in den Medien erscheinen, ist ein realer Vorlauf von etwa 3 Wochen gegeben, welcher in dieser Grafik simuliert wird. Die Tatsache, dass die Infektionen (1), der Zuwachs von Genesungen (2), ein mehr von Genesungen als Neuinfektionen, und damit der Rückgang der aktiven Fälle (3) bereits vor dem Lockdown (4) eingesetzt haben, ist das große Geheimnis unserer „Wir sind mittendrin in der Pandemie“. Das Schlimmste war in Deutschland schon vorbei, bevor der Lockdown gestartet wurde. Meiner Meinung nach war die ´Pandemie`, wenn man bei 0,22% positiv Getesteten der gut 83 Millionen Menschen überhaupt von Pandemie sprechen kann, in Deutschland eine milde Erkrankung mit prozentual wenigen schweren Fällen, mit einer Anzahl von Verstorbenen, die bezogen auf die Sterberate in Deutschland gesamt kaum in´ s Gewicht fällt.

Die Maskenpflicht dient ebenso wie die Pflicht, Abstand zum Mitmenschen zu halten, der Disziplinierung des Bürgers. Um die faktische Nutzlosigkeit zu belegen, habe ich eine Tabelle erstellt, die dies belegt. Es gibt im Prinzip nur eine Situation, wo eine Maske vielleicht ein wenig nutzt, wo sie den Maskenträger ein wenig schützt*: Wenn der Maskenträger direkt von einem Covid-19 Erkrankten angeniest oder angehustet wird. Dann erreichen nur weniger virenhaltige Tröpfchen den Mund-, Nasenraum, als wenn der Angenieste keine Maske tragen würde. Dieser Fall dürfte im Alltag – rein praktisch gesehen – kaum vorkommen.

Zum Schluss möchte ich noch mal dringend darauf hinweisen, dass meine Meinung heute, die Meinung der Wissenschaft noch im Februar war: Laut Experten vom Robert-Koch-Institut (RKI) sind Desinfektionsmittel und Schutzmasken gegen das neuartige Coronavirus im Alltag unnötig. Im öffentlichen Umgang reichten Wasser und Seife aus, sagte der Vizepräsident des RKI, Lars Schaade, am Freitag in Berlin. Großflächige Desinfektionen seien nur beim Umgang mit Patienten und in den Krankenhäusern angebracht, ansonsten sei die Wahrscheinlichkeit, „dass man irgendwo auf das Virus trifft und das mit der Hand aufnimmt, nicht sehr groß“. […]

Niesen in Armbeuge und Einwegtaschentücher empfohlen

Das Virus wird durch Tröpfchen übertragen. Viel effektiver sind Schaade zufolge daher regelmäßiges Händewaschen und eine korrekte Nies- und Hustenetikette, also etwa Husten und Niesen in Ellbogen und Einwegtaschentücher.

Auch Mundschutz im Alltag laut Wissenschaft unnötig

Auch für die Verwendung eines Mund-Nasen-Schutzes gebe es keinen wissenschaftlichen Hinweis, dass dies im Alltag Sinn hätte, betonte der RKI-Experte. Menschen könnten aber üben, sich nicht so häufig ins Gesicht zu fassen. Immerhin greife sich jeder Mensch im Schnitt etwa 200 Mal am Tag ins Gesicht. Bei Kontakt mit Kranken oder für medizinisches Personal biete ein Nasen-Mund-Schutz freilich einen Schutz.

Fachleute betonen immer wieder, dass Panik im Zusammenhang mit dem Coronavirus derzeit völlig übertrieben sei.

Corona-Infektionen meist wie milde Erkältung

Die meisten Coronainfektionen verlaufen dem RKI zufolge mild. Sie laufen „wie eine milde Erkältung ab“ und seien meist nach zehn bis 14 Tagen überstanden, sagte Schaade. Bei einem Teil der Erkrankten verschlechtere sich der Zustand nach neun Tagen. Bei diesen schwereren Fällen könne es drei oder vier, im Extremfall auch bis sechs Wochen dauern. Quelle: Hier klicken

Weshalb sich diese m. E. richtige  Meinung innert 3 Monaten komplett geändert hat, wurde oben dargelegt. Neue wissenschaftliche Erkenntnisse, die in Form von belastbaren Studien vorliegen, gibt es nicht. Woher auch? Den Nutzen von handelsüblichen Alltagsmasken und selbst gebastelten Stofflappen mit Gummiband hätten unsere hochbezahlten Virologen, Immunologen, Epidemiologen usw., usw. schon längst erforschen und wissenschaftlich dokumentieren können. Haben sie aber nicht. Weil es Unfug gewesen wäre. Die Sachlage „Mundschutz unnötig“ war und ist klar. Ohne Wenn und Aber.

*Deshalb sind Masken in Krankenhäusern, Pflegeheimen usw. für das Personal durchaus sinnvoll. Zum Eigenschutz.

Ergänzungen:

  • Das Video, welches den Schutz diverser Strategien beim Niesen/Husten sichtbar macht: Hier klicken. Bemerkenswert ist, dass das kompakte, geschlossene Niesen in ein Papiertaschentuch, offensichtlich die effektivste Methode ist, kontaminiertes Material zurück zu halten.
  • Ein wissenschaftlicher Aufsatz: Masks Don’t Work // A review of science relevant to COVID-19 social policy // Denis G. Rancourt, PhD Researcher, Ontario Civil Liberties Association (ocla.ca) Working report, published at Research Gate (https://www.researchgate.net/profile/D_Rancourt) April 2020n



Zeit, sich der Realität zu stellen – Green New Deal ist ein Albtraum

[Hier der Kommentar eines Abgeordneten der Republikaner. In USA ist es Alexandria Ocasio-Cortez, In Europa haben wir Ursula von der Leyen. Wurde Ihnen im ÖR eine Gegenstellungnahme zu ähnlichen Plänen schon mal angeboten? Der Übersetzer]

Ich erinnere Sie daran, dass der Green New Deal GND die Theorie aufstellt, dass wir den Planeten retten könnten, wenn wir teilweise jedes Gebäude in den Vereinigten Staaten ersetzen oder [isolierend] aufrüsten und auf Flugzeuge und fossil betriebene Fahrzeuge verzichten würden.

Studien legen nahe, dass dieser „Deal“ in den nächsten 10 Jahren 93 Billionen US-Dollar kosten würde. Zu diesem Preis ist dies sicherlich kein gutes Geschäft, es ist eine Katastrophe.

Dies würde den durchschnittlichen amerikanischen Haushalt 600.000 Dollar kosten, ganz zu schweigen von den Millionen von Arbeitsplätzen, die verloren gehen würden. Während die Befürworter des GND für die neuen Arbeitsplätze werben, die dieser überwältigende Plan schaffen würde, hat sich die Schaffung grüner Arbeitsplätze in den letzten Jahren im Vergleich zu den rosigen Versprechungen, die für den Verkauf solcher Pläne verwendet wurden, als Luftschloss erwiesen. Selbst Kalifornien hat aufgehört, die Zahl der geschaffenen grünen Arbeitsplätze zu ermitteln.

Das, was mich nachts wach hält, ist die Vorstellung, dass dieser Albtraum von Green New Deal Wirklichkeit wird. Dieser Vorschlag ist wie der Verrückte in einem schlechten Horrorfilm, der jenseits jeder Logik immer wieder zurückkommt.

Als Landwirt in der sechsten Generation bin ich der festen Überzeugung, dass wir uns unserer Auswirkungen auf die Umwelt bewusst sein sollten, denn auf dem Land verdienen wir unseren Lebensunterhalt. Ich bin nicht gegen eine verbesserte Energieeffizienz und sauberere brennende Brennstoffe, aber Vorschläge zum Schutz der Umwelt müssen in der Realität begründet sein und die Kosten für hart arbeitende Amerikaner berücksichtigen.

Der Green New Deal ist zweifellos einer der belastetsten, unrealistischsten Vorschläge, die ich je gesehen habe. Wie viele Amerikaner können sich, „eine Kugel Eiscreme“ leisten, wenn diese 600.000 Dollar kostet?

Ich habe tiefe Bedenken, dass der Green New Deal unnötige konstruktive Gespräche verhindern und politisieren würde, die der Kongress und das Land über wichtige Themen wie Infrastruktur oder sauberere Energieerzeugung führen können, wo es viel Raum für realistische Maßnahmen gibt. Unser Ansatz in Bezug auf Infrastruktur und andere Probleme erfordert langfristige, praktikable Lösungen – eine Unmöglichkeit mit hartnäckigen Vorschlägen wie dem Green New Deal, die auf großen Regierungsmandaten [~durchgreifende Regularien] beruhen.

Es ist mir ein Rätsel, warum weit-linke Politiker das Gefühl haben, diktieren, besteuern und bestrafen zu müssen, um ihre sozialistische Agenda durchzusetzen – wenn wir tatsächlich bereits sehen, dass der Privatsektor auf verbraucherorientierte Marktanforderungen nach sauberer Energie und sauberere Technologie reagiert. Wir erleben weiterhin, wie Auto-, LKW-, Zug- und Flugzeugmotoren sauberer, sparsamer werden und bereits alternative Kraftstoffen nutzen. Immer mehr Amerikaner schauen auf diese Dinge und bietet Herstellern und Unternehmen einen starken, integrierten, marktorientierten Anreiz, sie anzubieten.

Dies mag für die Mainstream-Medien eine Neuigkeit sein, aber ein Ansatz, der die Realität erkennt, kann tatsächlich funktionieren. In den letzten Jahren haben wir im Rahmen republikanischer Kongresse ein überparteiliches Infrastrukturgesetz verabschiedet, das sich mit Umweltfragen befasst. Im Jahr 2018 wurde beispielsweise mit dem FAA Reauthorization Act eine Partnerschaft zwischen der FAA [Luftfahrtbehörde] und der Industrie zur Entwicklung energiearmer und emissionsarmer Technologien geschlossen, und der Disaster Recovery Reform Act  [Katastrophenhilfe] konzentrierte sich darauf, unsere Gemeinden widerstandsfähiger gegen Naturkatastrophen zu machen. Seit 2014 befassen sich drei Gesetze zur Entwicklung der Wasserressourcen mit Projekten zur Wiederherstellung des Ökosystems, zur Reduzierung des Hochwasserrisikos und zur Minderung des Sturmrisikos. Überparteiliche Vorschläge im Kongress würden jetzt Partnerschaften zwischen Regierung und Industrie vorsehen und Innovationen fördern.

Wenn es um Infrastruktur, Umwelt und andere Themen geht, muss der Kongress weiterhin parteiübergreifende, konsensbasierte Lösungen anbieten, die sicherstellen, dass Staaten, Kommunalverwaltungen und die Privatwirtschaft über die Werkzeuge und die Flexibilität verfügen, um auf ihre spezifischen Bedürfnisse einzugehen und vor allem weiter innovativ zu sein .

Umfassende und unerschwinglich kostspielige Regierungsmandate, die die besonderen Bedürfnisse unserer Gemeinden, das Leben fleißiger Amerikaner und die Funktionsweise der Wirtschaft ignorieren – Vorschläge wie der Green New Deal – haben keinen Platz in der nationalen Diskussion darüber, wie wir vorankommen werden.

Wer anders denkt, muss aufwachen und sich der Realität stellen.

Abgeordneter Sam Graves, Republikaner aus Missouri, ist ein ranghohes Mitglied des House Committee on Transportation and Infrastructure.

https://www.washingtontimes.com/news/2019/sep/9/time-to-face-reality-green-new-deal-is-a-nightmare/

Übersetzt durch Andreas Demmig

 

***

Zum Thema

James Bennet, Meinungs-Chef „New York Times“ (NYT) war am Wochenende gefeuert worden, nachdem er einen Gastbeitrag auf der von ihm dort betreuten „Op-Ed“-Seite abgedruckt hatte, in dem der republikanische Senator Tom Cotton – ausdrücklich als „Opinion“ – Argumente für einen möglichen Einsatz des Militärs gegen die marodierenden Banden und Plünderer im Rahmen der sogenannten „Black Lives Matter“-Proteste vorgetragen hatte.

… aus Sicht deutscher Meinungsmacher wie dem Spiegel-Redakteur Philipp Oemcke, der den fraglichen „Debattenbeitrag“ schrieb, ein absolutes Ding der Unmöglichkeit, wenn eine andere, ordnungs- und sicherheitspolitische, objektive Sichtweise auf die Vorgänge in den USA in einer der renommierten Major-Tageszeitungen veröffentlicht wird – und nicht mehr als recht und billig, wenn der verantwortliche Ressortleiter dafür seinen Hut nehmen muss. Denn das Kardinalverbrechen Bennets bestand nicht nur darin, dass er – so Oemcke – einen „Gastbeitrag im Trump-Duktus veröffentlicht hat“, sondern weil er „einem überholten Ideal von neutralem Journalismus nachhing“.

Dieser Meinung schließt sich Georg Restle, bekannt durch MONITOR mit Nachdruck an: „… überholter Journalismus … und Neutralität im Journalismus, gibt es nicht, gab es nie und wird es nie geben“.

Lesen Sie die ganze Geschichte hier:

https://www.journalistenwatch.com/2020/06/12/selbst-stalinisierung-journalisten/

 

Die Süddeutsche Zeitung übernimmt des Öfteren Artikel der New York Times. Zu vorstehender Angelegenheit wird unaufgeregt berichtet.

https://www.sueddeutsche.de/medien/new-york-times-meinung-streit-1.4928453

 

Aktuell: Antifa plante bereits vor Monaten einen regierungsfeindlichen Aufstand

Aktivisten der linken Antifa- Bewegung planten bereits im November, als die US-Präsidentschaftskampagne ernsthaft begann, einen landesweiten Aufstand gegen die Regierung auszulösen, so ein Polizeibeamter mit Zugang zu Informationen zu der Schattengruppe.

… Nach Angaben von US-Strafverfolgungsbeamten und privaten Sicherheitsexperten hat sich die radikale Bewegung nach gewalttätigen Protesten und Plünderungen im ganzen Land nach dem Tod von George Floyd in Polizeigewahrsam in Minneapolis zu einem zentralen Thema für Ermittler entwickelt.

.. “ Antifas Aktionen stellen einen harten Bruch mit der langen Tradition eines friedlichen politischen Prozesses in den Vereinigten Staaten dar“, sagte der ehemalige Mitarbeiter des Nationalen Sicherheitsrates, Rich Higgins . „Ihre marxistische Ideologie versucht nicht nur, die Wahlen kurzfristig zu beeinflussen, sondern auch die Verwendung von Wahlen als bestimmenden Faktor für die politische Legitimität zu zerstören.“

https://www.washingtontimes.com/news/2020/jun/3/antifa-planned-anti-government-insurgency-george-f/




„Kollapsologie“: Das Auftauchen eines neuen Untergangs-Kultes & die Rückkehr des Dunklen Zeitalters

Die Corona-Epidemie in Frankreich hat zu einer explosionsartigen Zunahme des Interesses an la collapsologie geführt – einem alten Ausdruck Galliens für das Ende der Welt. In der Folge suchen immer mehr Leute nach Ratschlägen, wie man sich auf den bevorstehenden Untergang der Zivilisation, so wie wir sie kennen, vorbereiten kann.

Die Bewegung, der sogar der französische Premierminister Edouard Philippe huldigt, hat eingestanden, dass „das mehr an den Leuten nagt als man denkt“. Sie beruht auf der Hypothese, dass Klimawandel, abnehmende Ressourcen und das Aussterben von Spezies die Welt mit alarmierendem Tempo ihrer Zerstörung entgegen treiben.

Den größten Teil der Anhänger dieser Bewegung stellen linksgerichtete Stadtbewohner mit mindestens einem Universitätsabschluss. Inspiriert durch den amerikanischen Autor und Akademiker Jared Diamond und seinem Bestseller aus dem Jahr 2005 mit dem Titel „Collapse: How Societies Choose to Fail or Succeed“ hat „Collapsologie“ die Denkwelt der Franzosen noch vor der Pandemie eingenommen. Etwa 65% geben ihrem Glauben Ausdruck, dass die Zivilisation während der kommenden Jahre untergehen könnte. Das geht aus einer jüngst durchgeführten Umfrage hervor. In UK waren es 56% der Befragten.

Aber seit Frankreich zu einem landesweiten Gefängnis geworden ist, haben Forderungen, Facebook-Gruppen und Trainings-Camps beizutreten, rasant zugenommen im Zuge der Behauptungen der Collapsologen, dass die Pandemie ein klares Anzeichen dafür ist, dass die „thermo-industrielle“ Ära in ihren Todeszuckungen liegt.

Einer der Hohepriester, nämlich Yves Cochet, hat den Beginn des Kollaps‘ für das Jahr 2030 prophezeit. Cochet ist ein ehemaliger Umweltminister, der das Stadtleben aufgegeben und sich stattdessen in eine ländliche Autarkie in der Bretagne zurückgezogen hatte mit Pferd und Wagen für Transporte. „Nun, es geht schneller vonstatten als gedacht“, sagte er der Zeitung Le Monde, und fügte hinzu, dass er als erste Stufe eine Petroleum-Krise oder ein Klima-Ereignis annimmt.

„Viele Menschen verleugneten sich“, sagte Loïc Steffan, ein Wirtschaftswissenschaftler und Autor von Don’t Be Scared of Collapse, dessen Facebook-Seite „The happy collapso“ während des Lockdowns 5.000 neue Mitglieder gewann, um sich insgesamt 30.000 zu nähern. Leugnen ist eine klassische erste Phase in einem Prozess, den Kollapsologen „Metanoia“ nennen, oder „endlich an das glauben, was man schon wusste“, sagte er gegenüber France Info. „Bei Covid rückt die Erkenntnis, dass unsere Gesellschaften auf brutale Weise zerbrechlich sind, in den Vordergrund. Ein winziges Virus ist in der Lage, die Welt in die Knie zu zwingen, die Hypervernetzung der Welt stellt ein Problem dar … die psychischen Schutzstrategien beginnen zu bröckeln“, behauptete er.

Covid-19 läutet nicht den totalen Zusammenbruch des Staates und der Rechtsstaatlichkeit ein, sondern ist eher eine „Generalprobe, eine Art Stresstest, bei dem wir sehen konnten, was funktioniert hat und was nicht“, sagte er. Im Gegensatz zu Überlebenskämpfern, die in die Berge rennen wollen, glauben Kollapsologen daran, sich gegenseitig zu helfen, um die Widerstandsfähigkeit der Gruppe zu verbessern. „Es ist der gleiche Ausgangspunkt, aber nicht die gleiche Antwort. Der Kollapsologe will die Gesellschaft retten. Der Überlebenskünstler ist ein Individualist“, sagte Mr. Steffan, ein bekennender Optimist.

Eine wachsende Zahl französischer Stadtbewohner trachtet nun danach, sich auf dem Land niederzulassen. Frédérique Porquet wird nächsten Monat das Val d’Oise bei Paris verlassen, um mit ihrem Mann und ihren Töchtern aufs Land zu fahren. Sie will „bereit sein“ und „nicht von Supermärkten abhängig sein, wenn man bedenkt, was zu Beginn der Epidemie einen Monat lang geschah, denn wir haben es mit eigenen Augen gesehen: es war jeder für sich“.

Auch die Nachfrage zu lernen, wie man Kollapsologe wird, steigt, so Rémi Richart, ein IT-Experte, der seit 10 Jahren mit seiner Frau und seinen drei Kindern im ländlichen Cantal ein autarkes, kohlenstoffarmes Leben führt. Sie verfügen über eine pedalbetriebene Waschmaschine und einen Solarofen. Ihr Kurs, der „Resilienz“ lehrt, ohne von einer Gesellschaft „am Rande“ abhängig zu sein, ist diesen Sommer bereits voll, und das Telefon hört nicht auf zu klingeln. „Viele Leute haben es eilig“, sagte er dem Figaro.

Der ganze Beitrag steht hier (Zahlschranke)

Link: https://www.thegwpf.com/collapsology-the-rise-of-a-new-doomsday-cult-return-of-the-dark-ages/

Übersetzt von Chris Frey EIKE

Kommentar des Übersetzers hierzu: Bei der Übersetzung dieses Betrages, den ernst zu nehmen mir schwerfällt, habe ich mich ganz stark an die Philosophie der „sich selbst erfüllenden Prophezeiung“ erinnert gefühlt. Wenn man diesen Beitrag weiter spinnt, dann geht die Gesellschaft ausschließlich nur deswegen zugrunde, weil sie ihren eigenen Untergang zu erleben glaubt.

Und dagegen hüpft kein Mensch auf den Straßen herum! – C. F.




Klimawissen­schaftler übertreiben das Klimanot­stands-Narrativ immer stärker

Wolkendaten: Worst-caseSzenarien könnten zu schwach sein.

Modellierungen legen nahe, dass das Klima deutlich sensitiver auf Kohlenstoff-Emissionen reagiert als bisher gedacht.

Jonathan Watts @jonathanwatts
Sat 13 Jun 2020 16.00 AEST

Modellergebnisse von über 20 Institutionen werden für den Sechsten Zustandsbericht des IPCC berücksichtigt, dessen Veröffentlichung für das nächste Jahr geplant ist.

Verglichen mit der letzten Bewertung im Jahr 2014 zeigen 25% von ihnen eine starke Verschiebung der Klimasensitivität von 3°C zu 5°C nach oben – dem Ausmaß der Erwärmung, das von einer Verdoppelung des atmosphärischen Kohlendioxids gegenüber dem vorindustriellen Niveau von 280 Teilen pro Million ausgeht. Dies hat viele altgediente Beobachter schockiert, da die Annahmen zur Klimasensitivität seit den 1980er Jahren relativ unverändert geblieben sind.

„Das ist eine sehr tiefe Besorgnis“, sagte Johan Rockström, der Direktor des Potsdam-Instituts für Klimafolgenforschung. „Klimasensitivität ist der heilige Gral der Klimawissenschaft. Sie ist der wichtigste Indikator für das Klimarisiko. Seit 40 Jahren liegt sie bei 3°C. Jetzt sehen wir plötzlich große Klimamodelle auf den besten Supercomputern, die zeigen, dass es schlimmer kommen könnte, als wir dachten“.

Timothy Palmer, Professor für Klimaphysik an der Universität Oxford und Mitglied des Beirats des Met Office, sagte, die hohe Zahl mache die Wissenschaftler zunächst nervös. „Sie lag weit außerhalb früherer Schätzungen. Die Leute fragten, ob es einen Fehler im Code gab“, sagte er. „Aber es lief auf relativ kleine Änderungen in der Art und Weise hinaus, wie die Wolken in den Modellen dargestellt werden“.

Mehr hier.

[*Bemerkung: Diesen Unsinn habe ich – anders als die übrigen Passagen von Worrall in diesem Beitrag! – dem Linguee-Übersetzer anvertraut. Anm. d. Übers.]

Klima-Sensitivitäten der CMIP6-Modelle. Quelle: Carbon Brief

Vor einem Monat berichtete WUWT hier von einer Studie, die nachwies, dass die neuen Projektionen höchster Klima-Sensitivität (vor allem CESM2) inkompatibel mit historischen Aufzeichnungen sind.

CESM2, eines der neuen Modelle, simuliert im Nachhinein [„Nachhersage“] Temperaturen in den Tropen über 55°C im frühen Eozän. Das sind Temperaturen, bei denen Photosynthese nicht mehr möglich ist, was leblose tropische Wüsten zur Folge gehabt hätte.

Die fossilen Aufzeichnungen sagen jedoch etwas gänzlich anderes; das frühe Eozän war eine Ära mit üppigem und blühendem tropischen Leben.

Einige der neuesten Modelle, die zur Erstellung von Zukunftsprognosen verwendet werden, reagieren möglicherweise zu empfindlich auf den Anstieg des atmosphärischen Kohlendioxids und prognostizieren daher eine zu starke Erwärmung„, sagte Chris Poulsen von der U-M, Professor im Department of Earth and Environmental Sciences der U-M und einer der drei Autoren der Studie.— Quelle: Science Daily

Poulsens Team besteht nicht aus Klimaskeptikern. Sie legten nahe, dass CESM1.2, der Vorgänger von CESM2, „bemerkenswert gut“ bei der Simulation der Temperatur im frühen Eozän war. CESM1.2 geht von einer Gleichgewichts-Klimasensitivität von 4,2°C aus, CESM2 von einer solchen von 5,2°C.

Link: https://wattsupwiththat.com/2020/06/13/climate-scientists-step-up-the-climate-emergency-narrative/

Übersetzt von Chris Frey EIKE




Dual-Fluid-Reaktor – ein enormes Echo

Neben vielen zustimmenden Meinungen überwiegt die Skepsis gegenüber einer Realisierung des Dual-Fluid-Reaktors speziell in Deutschland. Viele dieser Meinungen werden in heiteren Sarkasmus verpackt: „Und selbst wenn der DFR noch zusätzlich Vanilleeis produzieren und CO2 verbrennen würde, die Grünen wären dagegen“, schreibt HaJo W. „Der DFR, ein potentiell richtig schönes Stück Technik. Leider muss hier erst einmal der Karren richtig tief im Dreck stecken (Blackout mit allem Drum und Dran), bis vielleicht realisiert wird, dass wir uns seit Jahren auf einem völlig destruktiven und damit falschem Weg befinden.“, schreibt Benjamin H. Und Leser Hans B. schreibt:  „… Ich bin mal gespannt, ob wir noch die Kurve nach dem Scheitern der Energiewende schaffen, oder in die völlige Bedeutungslosigkeit fallen werden! Vielleicht sind dann die Chinesen so gnädig und bauen uns so einen Dual-Fluid-Reaktor. Wir bezahlen dann mit Kartoffeln und Kuckucks-Uhren.“ 

Keine Sorge, die Erfinder sind flexibel und prüfen natürlich mit offenen Augen, welche Länder noch als Standort infrage kommen, wenn Deutschland sich verweigert.

Der Leser A. O. fragt nach dem flüssigen Brennstoffgemisch, dessen Beschreibung im Artikel leider zu kurz kam: „Ganz ohne Nuklearphysik wird er nicht funktionieren. Ich höre immer was von flüssigem Brennstoff. Das ist in der Nuklearphysik keine ausreichende Beschreibung. Also doch Thorium?“

Antwort: Es ist vor allem der Aggregatszustand „flüssig“, der entscheidende Vorteile mitbringt – für Sicherheit, Brennstoffverwertung und vor allem Ökonomie. Der allgemeine Begriff „Brennstoff“ soll genau das suggerieren, wozu der DFR in der Lage ist: Er kann JEDEN spaltbaren Brennstoff, egal, ob aus abgebrannten Brennstäben, Uran, Plutonium oder Thorium, nutzen.

Leser Dietmar S. hat ernsthafte Bedenken bezüglich der Wärmeabfuhr aus dem Kühlkreislauf: „Das größte Problem sehe ich in der Wärmeabfuhr aus einem Volumen in der Größe eines Kleinwagens mit einer Leistung von 1000 MW. Entweder muss die Wärme in Strom umgewandelt werden oder in die Atmosphäre abgegeben werden“.

Antwort: Die Bezugsgröße ist natürlich hier der Reaktorkern – bei 1.000 MW elektrischer Leistung wäre das beim DFR grob ein Kleinstwagen, bei einem Leichtwasser-Reaktor einige davon übereinander gestapelt und bei einem gasgekühlten Hoch-Temperatur-Reaktor bräuchte man einen Supermarktparkplatz voll von ihnen. Entscheidend ist hier in der Tat das verwendete Kühlmittel: Gase führen die Wärme schlecht ab, Metallkühlmittel wie das flüssige Blei im DFR stellen hier die gegenwärtig beste Option dar. Dank der hohen Betriebstemperatur sind beim DFR auch kompakte, superkritische Systeme für die Stromerzeugung geeignet.

Alexandra K. bedenkt die Proliferationsgefahr beim DFR: „Das Konzept des DFR scheint schlüssig und interessant. Nach meinen bescheidenen kernphysikalischen Kenntnissen überwindet es auch das Hauptproblem des Thorium-Flüssigsalzreaktors: das Erbrüten von waffenfähigem Plutonium“.

Antwort: Im Gegenteil, wird der DFR zum ersten Start mit Plutonium aus heutigen Reaktoren gefüttert, so ist dieses ohnehin von Anfang an waffenuntauglich. Wird er mit Waffenplutonium gefüttert, so wird dieses nach einiger Zeit ebenfalls waffenuntauglich. Der DFR ist also eine Waffenentschärfungsmaschine.

Leser Uwe D. hegt ernsthafte Zweifel, dass die zugegebenermaßen hohe Leistungsdichte technisch nicht realisierbar ist: „Nicht ganz glaubwürdig, leider. 1000 MW = 1 GW; wie hoch soll da der Wirkungsgrad sein, damit nicht der ganze PKW nach wenigen Sekunden in die Metallschmelze geht? Oder meinten Sie 1 MW? Das wäre nur ein Tausendstel davon, aber noch immer müsste der Wirkungsgrad 99% sein, damit man die restlichen 10 kW abführen kann“.

Antwort: Hier gehen einige physikalische Begriffe durcheinander. Die Leistungsdichte hat weder etwas mit der Temperatur noch mit dem Wirkungsgrad zu tun. Die hohe Leistungsdichte des DFR-Kerns wird durch die Metallkühlung ermöglicht, die die Wärme drei- bis sechsmal so gut ableiten kann wie heißes Wasser. Das ist genau der Unterschied zu den herkömmlichen Flüssigsalzkonzepten, bei denen die Leistungsdichte beschränkt werden muss, da Brennstoff und Kühlmittel ein Medium sind. Dies macht den Reaktorkern groß und teuer. Durch die Trennung beider Funktionen (Dual-Fluid-Prinzip) wird diese hohe Leistungsdichte und damit kompakte und kostengünstige Bauweise ermöglicht.

Mit Temperatur und Wirkungsgrad hängt das insofern zusammen, dass die kompakte Bauweise die Verwendung teurer, hoch widerstandsfähiger Materialien ermöglicht, was eine Steigerung der Betriebstemperatur auf 1.000°C ermöglicht. Die hohe Temperatur hat zwei Vorteile: Sie ermöglicht eine effektive Wasserstoffproduktion für synthetische Kraftstoffe, und sie steigert den elektrischen Wirkungsgrad auf bis zu 60 Prozent.

Die Leser Tom W. und Ferdi G. beziehen sich auf einen Artikel von „Ausgestrahlt“, der das DFR-Konzept als komplette Illusion beschreibt: „Die Suchmaschine meiner Wahl warf aber auch unerfreuliches aus: “Dual-Myth-Reaktor: Das Illusionskraftwerk”. Vielleicht können Sie sich in einem weiteren Artikel mal dazu äußern? Ist da möglicherweise nicht doch das eine oder andere valide Gegenargument dabei? Ich bin gespannt“.

Antwort: Der Artikel des Historikers Armin Simon, dessen wichtigste Leistung nach eigenen Angaben wohl darin bestand, „so gut wie keinen Castor-Transport verpasst“ zu haben, enthält eine Reihe von Falschaussagen, z.B. gleich am Anfang, dass der Notablass nicht erprobt sei (war bereits in den 1960er Jahren im Flüssigsalzexperiment MSRE in Betrieb), sowie Suggestivfragen, wie „ob das im Ernstfall auch funktioniert?“ Der DFR ist ja nicht gebaut, daher kann man das natürlich erst hinterher beweisen. Offenbar hat Herr Simon die grundlegende doppelt begutachtete Fachpublikation zum DFR nicht gelesen, wo auf all diese Fragen und auch weitere eingegangen wird.

Der Rest des Artikels besteht aus altbekannten Legenden, z.B. dass verglaster Atommüll nicht mehr behandelbar sei. In einer Bundestagsdebatte vom 14.2.20 haben sich die Grünen offenbar aus diesem Artikel bedient. Das IFK hat dazu eine Stellungnahme verfasst, die als Lektüre dringend zu empfehlen ist.

Leser Nico S. meint, dass das Konzept in Deutschland nicht vermittelbar sei, da Kanada schon mit dem Bau des DFR viel weiter sei: „Kanada ist bei dem Bau von den Dual-Fluid-Reaktoren (mit deutscher Lizenz) weit vorne.“

Antwort: Für die einen ist der DFR sinnlos, weil nicht baubar, für die anderen, weil schon gebaut. Die Kanadische Firma (Terrestial Energy) baut allerdings einen völlig anderen Typus Flüssigkernreaktor und hat dafür 2019 eine Design-Lizenz der Behörden erhalten. Der wesentliche Unterschied zum DFR ist die ausgelagerte Kühlung: Der Reaktorkern ist bei den Kanadiern homogen und wird nicht vom Kühlmittel umgeben. Dies wird wirtschaftliche Folgen haben, wie schon weiter oben in der Antwort auf den Leser Uwe D. beschrieben.

Leser Dubert G. hat bezüglich der komplexen Werkstoffanforderungen einen ganzen Fragenkatalog: „Zum geplanten Keramik-Behälter gibt es keine Regelwerke, keine Normen, keine Kennwerte zur Berechnung und keine Erfahrungen… Die geplanten Keramik-Rohrleitung sind technisch nicht realisierbar, da Keramik die dazu notwendige Verformbarkeit nicht besitzt.

Für das Refraktär Metall-Exoskelett gibt es keine Regelwerke, keine Normen, keine Kennwerte zur Berechnung und keine Erfahrungen… Die Konstruktionseigenschaften von Refraktär Metalle, wie Schweißbarkeit und chemischer Beständigkeit sind sehr schwierig. Es wäre eine Jahrzehntelange Normung notwendig. Bis dahin sind die Patente abgelaufen. Die waren eh nur Show.

Das Zusammenspiel zwischen Keramik-Behälter und Exoskelett kann aufgrund unterschiedliche Wärmeausdehnungskoeffizienten nicht funktionieren… Das ganze stellt eine Fehlkonstruktion erster Güte dar“.

Antwort: Bei „Dubert G.“ handelt es sich um einen langjährigen und beharrlichen Kritiker des DFR, (siehe Forumsbeitrag bei EIKE). Die Forscher des IFK haben seine Behauptungen vor einiger Zeit in einer Stellungnahme widerlegt.

Der Kritik fehlt das grundlegende Verständnis des DFR-Prinzips, obwohl dies in der  doppelt begutachteten Publikation zum DFR bereits im Jahre 2013 beschrieben wurde. So wird immer wieder behauptet, das Exoskelett bestünde aus Refraktärmetall, was von den Erfindern aber nie gesagt wurde.

Auch das Verständnis der Funktion des „Kerntechnischen Ausschusses“ (KTA) ist befremdlich. Die dort aufgestellten Regelwerke sind keine Naturgesetze, sondern aus der Erfahrung mit bereits entwickelten Kernkraftwerken abgeleitete Regeln. Auf neue Reaktortypen treffen diese überhaupt nicht zu und müssen dann natürlich neu entwickelt werden. Das stellt kein Problem dar und ist im Übrigen auch die Auffassung des KTA selbst, der bereits mehrmals hoch interessiert beim IFK zu Besuch war.

Einige Leser (Lucius D.G., Karl B. und Karsten D.) äußerten Kritik über die Webseite des DFR: „Wer nicht einmal eine zeitgemäße Website auf Englisch hinbekommt, kann eigentlich gleich einpacken…“.

Antwort: An alle, die sich über die mangelnde Professionalität des Auftritts beschweren: Dafür werden ja gerade die Spenden gesammelt, damit der Auftritt professioneller wird. In einem weiteren Schritt werden dann professionelle Risikokapitalgeber angegangen.

Es gibt zwei Webseiten: Die nur sehr spartanisch gestaltete Webseite des Instituts für Festkörper-Kernphysik (IFK) und die aufwändigere Webseite des Projekts Dual-Fluid-Reaktor (DFR). Letztere soll in den nächsten Wochen einen zeitgemäßen Auftritt bekommen. Man muss einfach wissen: Die Erfinder werden weder für das DFR-Projekt noch für das IFK bisher bezahlt – woher sollen die Produktionskosten kommen?

Letztendlich hat Leser Lutz N. mit seiner dialektischen Anmerkung recht, wenn er feststellt, dass der DFR nur ein „Papierreaktor“ ist, da es ihn noch nicht gibt. Er schreibt: „Die westlichen Wasserreaktoren haben inzwischen 18 000 Reaktorbetriebsjahre auf dem Buckel … Erst wenn der DFR mehr als 18 000 Reaktorbetriebsjahre läuft ohne entsprechenden Fehler, kann man sagen das er besser ist“.

Antwort: Das stimmt zweifelsohne. Aber es ist ein Henne-Ei-Problem. Wenn als Kritik am DFR angeführt wird, dass es ihn ja noch nicht gibt, wird es ihn natürlich auch nie geben. Es hat dereinst auch eine Weile gedauert, bis das Auto auf die Betriebskilometer der Pferdefuhrwerke kam.

Der Autor möchte sich beim DFR-Team für die fachliche Unterstützung und bei allen Lesern für die interessante Diskussion herzlich bedanken, natürlich auch im Namen des DFR Teams für die beim DFR-Projekt eingegangenen Spenden.

Zuerst erschienen bei der Achse.

Manfred Haferburg ist der Autor des autobiografischen Romans „Wohn-Haft“ (90 Kundenbewertungen: 4,9 von 5 Sternen). Als Schichtleiter im Kernkraftwerk kämpft er gegen Macht und Dummheit der Bonzen. Es macht ihn verdächtig, weil er sich der SED verweigert. Hexenprobe der Stasi ist eine erfolglose Anwerbung als Spitzel. Bald steht er auf allen Schwarzen Listen seines Heimatlandes. Eine Flucht misslingt, und eine Odyssee durch die Gefängnisse des „sozialistischen Lagers“ beginnt. Der Mauerfall rettet ihm das Leben, und ein neues Leben in Paris wird aufgebaut, während sich in Deutschland die Spitzel im Bundestag breitmachen und die ehemaligen Genossen sich gegenseitig ums SED-Erbe den Schädel einschlagen. Ein Buch, das den Leser schier atemlos umblättern lässt




Woher kommt der Strom? – Grüne Wasserstoffstrategie

(Abbildung, bitte unbedingt anklicken. Alle Abbildungen und mehr öffnen sich auf einer Seite).

Es gab nicht nur den Strom, es gab auch noch hohe Zusatzzahlungen, damit sie den Strom überhaupt nahmen. In der Spitze waren es am Sonntag um 15:00 Uhr 45,05 €/MWh, die für insgesamt 8,712 GW Exportstrom mitgegeben werden mussten. Macht schlappe 392.476 €. Pfingstmontag waren es um 14:00 Uhr 48,17 €/MWh, für die Deutschland zahlen musste, damit die hier nicht benötigte Strommenge von 14,765 GW von unseren Nachbarn abgenommen wurde. Macht noch mal lockere 711.239 €. Das sind in Summe 1.103.706 € plus der nicht zu vergessenden 7 Stunden über Pfingsten, die ebenfalls einen negativen Strompreis auswarfen. Klicken Sie hier und rechnen Sie selber, wenn Sie möchten. Um geschätzte zwei Millionen € dürften die „glücklichen“ Nachbarn insgesamt kassiert haben.

Weil unsere Bundesregierung eine Nationale Wasserstoffstrategie (Abbildung 1) entwickeln will, die im klimatechnischen Sinn (= Null CO2) nur funktioniert, wenn der Wasserstoff mit Hilfe von Kernkraftstrom (Pfui!) oder Strom, der mittels Windkraft und Photovoltaik erzeugt wurde, gewonnen wird. Stammleser dieser Kolumne wissen, dass in Deutschland noch nicht in einer Stunde überschüssiger Strom aus erneuerbaren Energieträgern erzeugt wurde (Abbildung 2). Also habe ich die realen Erzeugungswerte „Strom aus Wind- und Sonnenkraft“ theoretisch verdoppelt. Was einen enormen Zubau von Windkraft- und Photovoltaikanlagen (über 20.000 WKA und weit über eine Million Solarmodule) bedeuteten würde. Strom aus Biomasse und Wasserkraft – praktisch kaum erweiterbar – wurden dazu gerechnet. Das Ergebnis sehen Sie in dieser Exceltabelle. Es ist ernüchternd. Faktisch wären bei verdoppelter installierter Leistung Wind- und Sonnenkraft bisher lediglich knapp 25 TWh Strom erzeugt worden, der zur Herstellung von Wasserstoff hätte verwendet werden können. Voraussetzung: Die Wasserstofferzeugung funktioniert auch mit sehr unregelmäßig vorhandenem Strom. Angenommen, das ginge, dann wären es am Ende 6–8 TWh Strom aus Wasserstoff (Abbildung 3), die übrig blieben. Das wird wohl nichts.

Die Tabelle zur 23. Analysewoche mit den Werten der Energy-Charts, die daraus generierte Tabelle sowie die Import-/Exportzahlen für das bisherige Jahr 2020 und die 23. Woche ergänzen die Analyse. Hier noch der Anteil der Erneuerbaren an der Stromerzeugung im Wochendurchschnitt (Abbildung 4):

Tagesanalysen

Sonntag, 31.5.2020: Anteil erneuerbare Energieträger an der Gesamtstromerzeugung 69,52 Prozent, davon Windstrom 29,52 Prozent, Sonnenstrom 24,76 Prozent, Strom Biomasse/Wasserkraft 15,24 Prozent. Die Agora-Chartmatrix: Hier klicken.

Am heutigen Pfingstsonntag gibt es gar nicht mal so viel Windstrom, dafür scheint die Sonne satt. Insgesamt viel zu viel Strom, der mittels erneuerbarer Energieträger erzeugt wurde. Das wirkt sich – wie oben gesehen – auf die Strompreise aus.

Montag, 1.6.2020: Anteil erneuerbare Energieträger an der Gesamtstromerzeugung 67,89 Prozent, davon Windstrom 23,85 Prozent, Sonnenstrom 29,36 Prozent, Strom Biomasse/Wasserkraft 114,68 Prozent. Die Agora-Chartmatrix: Hier klicken.

Der Pfingstmontag ist noch „schlimmer“. Noch mehr Sonnenstrom lässt die Preise über Tag in noch tiefer-negative Regionen fallen. Um 12:00 Uhr wird die Bedarfslinie mit 93% Strom aus Erneuerbaren fast erreicht.

Dienstag, 2.6.2020: Anteil erneuerbare Energieträger an der Gesamtstromerzeugung 50,68 Prozentdavon Windstrom 10,34 Prozent, Sonnenstrom 26,72 Prozent, Strom Biomasse/Wasserkraft 13,79 Prozent. Die Agora-Chartmatrix: Hier klicken.

Das Wetter bleibt schön, der Strombedarf steigt, die Stromerzeugung reicht aus. Zumindest in der Mittagsspitze. Morgens und abends reicht es nicht. Da muss Strom importiert werden. Der Spitzenpreis, den Deutschland hinlegt: 60,75 €/MWh um 20:00 Uhr für 8,196 GW. Morgens bleibt der Importstrompreis bis 6:00 Uhr moderat. Dann steigt er bis zu 47,66 €/MWh. Die ersten drei Tage unserer Analysewoche waren für Deutschland preismäßig nicht prickelnd. Ist das der Preis der Weltenrettung? Ist es die Bestätigung für das Energiewende-Paradoxon?

Mittwoch, 3.6.2020: Anteil erneuerbare Energieträger an der Gesamtstromerzeugung 49,59 Prozent, davon Windstrom 14,05 Prozent, Sonnenstrom 21,49 Prozent, Strom Biomasse/Wasserkraft 14,05 Prozent. Die Agora-Chartmatrix: Hier klicken.

Wieder ein schöner Tag. Kaum Wind, viel Sonne. Über Mittag reicht der erzeugte Strom. Morgens und abends kauft Deutschland zu. Heute liegt der Spitzenstrompreis, der gezahlt werden muss bei 51,47 €/MWh für 4,368 GW.

Donnerstag, 4.6.2020: Anteil erneuerbare Energieträger an der Gesamtstromerzeugung 43,70 Prozent, davon Windstrom 20,17 Prozent, Sonnenstrom 9,24 Prozent, Strom Biomasse/Wasserkraft 14,29 Prozent. Die Agora-Chartmatrix: Hier klicken.

Die Windstromerzeugung zieht an. Die Schönwettersonne, die Sonnenstromerzeugung wird weniger. Deutschland kauft den ganzen Tag Strom von seinen Nachbarn.

Freitag, den 5.6.2020: Anteil erneuerbare Energieträger an der Gesamtstromerzeugung 60,00 Prozent, davon Windstrom 34,62 Prozent, Sonnenstrom 12,31 Prozent, Strom Biomasse/Wasserkraft 13,08 Prozent. Die Agora-Chartmatrix: Hier klicken.

Über Tag steigt die Windstromerzeugung stark an. Ab Mittag braucht kein Strom mehr importiert werden. Die Preise, die Deutschland erzielt, liegen unter 32 €/MWh. Sie sind nicht auskömmlich, wenn ein Mindestpreis von 40 €/MWh hierfür angenommen wird.

Samstag, 6.6.2020: Anteil Erneuerbare an der Gesamtstromerzeugung 71,54 Prozent, davon Windstrom 43,09 Prozent, Sonnenstrom 14,63 Prozent, Strom Biomasse/Wasserkraft 13,82 Prozent. Die Agora-Chartmatrix: Hier klicken.

Wochenendanfang: Die erneuerbaren Energieträger erzeugen Strom satt. Es wird heute nur wenig Strom verschenkt. Und morgen überhaupt keiner. Das erste Mal seit Wochen, dass sonntags die Strompreise positiv bleiben.

Ordnen Sie Deutschlands CO2-Ausstoß in den Weltmaßstab ein. Zum interaktiven CO2-Rechner: Hier klicken. Noch Fragen? Ergänzungen? Fehler entdeckt? Bitte Leserpost schreiben! Oder direkt an mich persönlich: stromwoher@mediagnose.de. Alle Berechnungen und Schätzungen durch Rüdiger Stobbe nach bestem Wissen und Gewissen, aber ohne Gewähr. Die bisherigen Artikel der Kolumne Woher kommt der Strom? mit jeweils einer kurzen Inhaltserläuterung finden Sie hier.

Mit freundlicher Genehmigung. Zuerst erschienen auf der Achse des Guten.

Rüdiger Stobbe betreibt seit vier Jahren den Politikblog www.mediagnose.de.