1

Aktuelles Grand Solar Minimum wird globale Abkühlung bringen

In diesem Leitartikel werde ich anhand des neu entdeckten Proxy-Magnetfeldes für die Sonnenaktivität zeigen, dass die Sonne in das moderne Grand Solar Minimum (2020-2053) eingetreten ist, das zu einer signifikanten Reduktion des solaren Magnetfeldes und der Aktivität wie während des Maunder-Minimums führen wird, was zu einer spürbaren Abkühlung der Erdtemperatur führt.

Die Sonne ist die Hauptenergiequelle für alle Planeten des Sonnensystems. Diese Energie wird der Erde in Form von Sonnenstrahlung in verschiedenen Wellenlängen zugeführt, die als Total Solar Irradiance (TSI) bezeichnet wird. Die Schwankungen der solaren Bestrahlungsstärke führen zur Erwärmung der oberen Planetenatmosphäre und zu komplexen Prozessen des solaren Energietransports zur Planetenoberfläche.

Die Zeichen der Sonnenaktivität werden aus den zyklischen 11-Jahres-Schwankungen der Anzahl der Sonnenflecken auf der Sonnenoberfläche abgeleitet, wobei die gemittelte monatliche Anzahl der Sonnenflecken als Proxy für die Sonnenaktivität der letzten 150 Jahre verwendet wird. Die Sonnenzyklen wurden durch die Wirkung des solaren Dynamo-Mechanismus im Sonneninneren beschrieben, der magnetische Stränge am Boden der solaren Konvektionszone erzeugt.

Diese magnetischen Stränge wandern durch das Sonneninnere und erscheinen auf der Sonnenoberfläche, oder Photosphäre, als Sonnenflecken, die die Fußpunkte anzeigen, an denen diese magnetischen Stränge in die Photosphäre eingebettet sind.

Das Magnetfeld der Sonnenflecken bildet ein toroidales Feld, während das solare Hintergrundmagnetfeld ein poloidales Feld bildet. Der Solardynamo wandelt zyklisch das poloidale Feld in ein toroidales um und erreicht sein Maximum bei einem Sonnenzyklus-Maximum und dann das toroidale Feld zurück in das poloidale zu einem Sonnen-Minimum. Es ist offensichtlich, dass für die gleiche führende Polarität des Magnetfeldes in Sonnenflecken auf der gleichen Hemisphäre die Länge des Sonnenzyklus auf 22 Jahre verlängert werden sollte.

Trotz des Verständnisses des allgemeinen Bildes eines Sonnenzyklus war es ziemlich schwierig, die beobachteten Sonnenfleckenzahlen mit den modellierten in Einklang zu bringen, es sei denn, der Zyklus ist schon weit fortgeschritten. Diese Schwierigkeit ist ein deutlicher Hinweis auf einige fehlende Punkte in der Definition der Sonnenaktivität durch Sonnenfleckenzahlen, die unsere Aufmerksamkeit auf die Erforschung des solaren (poloidalen) Hintergrundmagnetfeldes (SBMF) lenkte [1].

Durch Anwendung der Principal Component Analysis (PCA) auf die niedrig aufgelösten Magnetogramme der gesamten Sonnenscheibe, die in den Zyklen 21-23 vom Wilcox Solar Observatory aufgezeichnet wurden, entdeckten wir nicht eine, sondern zwei Hauptkomponenten dieses solaren Hintergrundmagnetfeldes (siehe Abbildung 1, oberes Diagramm), die mit zwei magnetischen Wellen verbunden sind, die durch rote und blaue Linien markiert sind. Die Autoren leiteten mathematische Formeln für diese beiden Wellen ab, indem sie die Hauptkomponenten aus den Daten der Zyklen 21-23 mit der Reihe der periodischen Funktionen anpassten und diese Formeln zur Vorhersage dieser Wellen für die Zyklen 24-26 verwendeten. Es wurde festgestellt, dass diese beiden Wellen in verschiedenen Schichten des Sonneninneren erzeugt werden und nahe, aber nicht gleiche Frequenzen erreichen [1]. Die Summenkurve dieser beiden magnetischen Wellen (Abbildung 1, unterer Plot) zeigt die Interferenz dieser Wellen, die Maxima und Minima der Sonnenzyklen bilden.

Abbildung 1. Oberer Plot: zwei Hauptkomponenten (PC) des solaren Hintergrundmagnetfeldes (blaue und grüne Kurven, willkürliche Zahlen), ermittelt für die Zyklen 21-23 (historische Daten) und vorhergesagt für die Zyklen 24-26 unter Verwendung der mathematischen Formeln, abgeleitet aus den historischen Daten (aus den Daten von Zharkova et al. [1]). Der untere Plot: Die Summenkurve, abgeleitet aus den beiden obigen PCs für die „historischen“ Daten (Zyklen 21-23) und vorhergesagt für den Sonnenzyklus 24 (2008-2019), Zyklus 25 (2020-2031), Zyklus 26 (2031-2042) (aus den Daten von Zharkova et al. [1]).

Die Summenkurve zweier magnetischer Wellen erklärt viele Merkmale der 11-Jahres-Zyklen, wie z.B. Doppelmaxima in einigen Zyklen oder Asymmetrie der Sonnenaktivität in den gegenüberliegenden Hemisphären während verschiedener Zyklen. Zharkova et al. [1] verknüpften die Summenkurve des Moduls mit den gemittelten Sonnenfleckenzahlen für die Zyklen 21-23, wie in Abbildung 2 (oberer Plot) gezeigt, und erweiterten diese Kurve auf die Zyklen 24-26, wie in Abbildung 2 (unterer Plot) gezeigt. Es scheint, dass die Amplitude des zusammengefassten solaren Magnetfeldes, die in der Summenkurve dargestellt ist, in Richtung der Zyklen 24-25 abnimmt und im Zyklus 26 fast Null wird.

Abbildung 2. Obere Grafik: Die aus der Summenkurve (Abbildung 1, unterer Plot) erhaltene Modul-Summenkurve (schwarze Kurve) gegen die gemittelten Sonnenfleckenzahlen (rote Kurve) für die historischen Daten (Zyklen 21-23). Untere Grafik: Die Modul-Summenkurve in Verbindung mit den für die Zyklen 21-23 abgeleiteten (und für die Zyklen 24-26 berechneten) Sonnenfleckenzahlen (erstellt aus den Daten von Zharkova et al. [1]).

Zharkova et al. [1] schlugen vor, die Summenkurve als neuen Proxy für die Sonnenaktivität zu verwenden, der nicht nur die Amplitude eines Sonnenzyklus‘, sondern auch dessen führende magnetische Polarität des solaren Magnetfeldes markiert.

Abbildung 3. Rekonstruierte Kurve der Sonnenaktivität (Zusammenfassung) für 1200-3300 n. Chr. (erstellt aus den Daten von Zharkova et al. [1]).

Abbildung 3 zeigt die Summenkurve, die mit den abgeleiteten mathematischen Formeln für die kommenden 1200 Jahre und für die letzten 800 Jahre berechnet wurde. Diese Kurve zeigt das Auftreten von Großen Solarzyklen alle 350-400 Jahre, die durch die Interferenz von zwei magnetischen Wellen verursacht werden. Diese großen Zyklen werden durch die großen solaren Minima, oder Perioden sehr geringer Sonnenaktivität, getrennt [1]. Das vorhergehende große Sonnenminimum war das Maunder-Minimum (1645-1710), und das andere davor hieß Wolf-Minimum (1270-1350). Wie in Abbildung 3 aus der Vorhersage von Zharkova et al. [1] zu sehen ist, nähern sich in den nächsten 500 Jahren zwei moderne große solare Minima der Sonne: das moderne im 21. Jahrhundert (2020-2053) und das zweite im 24 Jahrhundert (2370-2415)

Die beobachteten Eigenschaften der beiden magnetischen Wellen und ihre Summenkurve wurden durch doppelte Dynamowellen, die von dipolaren magnetischen Quellen in zwei Schichten des Sonneninneren erzeugt werden, eng aneinander angepasst: innere und äußere Schichten [1], während andere drei Paare magnetischer Wellen von vierfachen, sechsfachen und achtfachen magnetischen Quellen erzeugt werden können, wobei die dipolare Quelle das sichtbare Erscheinungsbild der Sonnenaktivität an der Oberfläche bestimmt.

Derzeit hat die Sonne den Sonnenzyklus 24 abgeschlossen – den schwächsten Zyklus seit über 100 Jahren – und im Jahr 2020 beginnt der Zyklus 25. Während der Perioden geringer Sonnenaktivität, wie dem derzeitigen großen solaren Minimum, ist die Sonne oft frei von Sonnenflecken. Dies wird nun zu Beginn dieses Minimums beobachtet, denn im Jahr 2020 hat die Sonne bis August 115 fleckenfreie Tage (oder 78 %) gesehen, was bedeutet, dass 2020 auf dem besten Weg ist, den Weltraumrekord von 281 fleckenfreien Tagen (oder 77 %) für das gesamt Jahr zu übertreffen, der im Jahr 2019 beobachtet wurde. Der Start des Zyklus 25 ist jedoch immer noch langsam im Auftreten aktiver Regionen und Flares, so dass mit jedem zusätzlichen Tag/Woche/Monat, der vergeht, die Null in der Sonnenaktivität verlängert wird, was den Beginn des großen solaren Minimums markiert.* Welche Folgen hat dieser Rückgang der Sonnenaktivität für die Erde?

[*Der Beitrag datiert vom August 2020. Die aktuell immer noch fleckenfreie Sonne unterstreicht diese Aussagen. A. d. Übers.]

Die verringerte TSI während des Maunder-Minimums

Betrachten wir jetzt das Verhalten der Sonneneinstrahlung während des letzten großen Sonnenminimums – dem Maunder-Minimum. Während dieses Zeitraums erschienen nur sehr wenige Sonnenflecken auf der Sonnenoberfläche, und die Gesamthelligkeit der Sonne war leicht verringert.

Die Rekonstruktion der zyklusgemittelten solaren TSI zurück bis ins Jahr 1610 (Abbildung 4, oberes Diagramm) deutet auf eine Abnahme der TSI während des Maunder-Minimums um einen Wert von etwa 3 W/m² [2] hin, was etwa 0,22 % der gesamten solaren Bestrahlungsstärke im Jahr 1710 entspricht, nachdem das Maunder-Minimum beendet war.

Temperaturrückgang während des Maunder-Minimums

Von 1645 bis 1710 sanken die Temperaturen in weiten Teilen der nördlichen Hemisphäre der Erde, als die Sonne in eine Ruhephase eintrat, die heute als Maunder-Minimum bezeichnet wird. Dies geschah wahrscheinlich, weil die TSI um 0,22 % reduziert wurde, wie in Abbildung 4 (oberer Plot) [2] dargestellt, was zu einem Rückgang der durchschnittlichen Erdtemperatur, die hauptsächlich auf der Nordhalbkugel in Europa gemessen wurde, um 1,0-1,5 °C führte, wie in Abbildung 4 (unterer Plot) [3] dargestellt. Dieser scheinbar geringe Rückgang der Durchschnittstemperatur in der nördlichen Hemisphäre führte zu zugefrorenen Flüssen, kalten langen Wintern und kühlen Sommern.

Abbildung 4. Oberer Plot: Rekonstruierte TSI von 1600 bis 2014 von Lean et al. [2], modifiziert von Easterbrook [3], aus Lean, Beer, Bradley [2]. Unterer Plot: Mitteleuropa-Temperaturen (CET), die seit 1658 kontinuierlich aufgezeichnet wurden. Blaue Bereiche sind wiederkehrende kühle Perioden; rote Bereiche sind warme Perioden. Alle Zeiten der solaren Minima fielen mit kühlen Perioden in Mittelengland zusammen. Übernommen aus Easterbrook [3], mit Erlaubnis des Elsevier-Verlags.

Die Oberflächentemperatur der Erde sank überall auf dem Globus (siehe Abbildung 1 in [4]), besonders in den Ländern der nördlichen Hemisphäre. Europa und Nordamerika gerieten in eine Frostperiode: Die Alpengletscher dehnten sich über das Ackerland in den Tälern aus; das Meereis kroch von der Arktis nach Süden; die Flüsse Donau und Themse froren in diesen Jahren regelmäßig zu, ebenso wie die berühmten Kanäle in den Niederlanden.

Shindell et al. [4] konnten nachweisen, dass der Temperaturrückgang mit der Abnahme der Ozonmenge zusammenhängt, die durch das ultraviolette Licht der Sonne in der Stratosphäre gebildet wird, also der Schicht der Atmosphäre zwischen 10 und 50 Kilometern Höhe. Da die Sonne während des Maunder-Minimums insgesamt weniger Strahlung emittierte, einschließlich der starken ultravioletten Emission, wurde weniger Ozon gebildet, was sich auf die planetarischen hemisphärischen Wellen, die riesigen Mäander im Jetstream, auswirkte.

Shindell et al. [4] vermuten auf S. 2150, dass „eine Veränderung der planetarischen Wellen während des Maunder-Minimums die Nordatlantische Oszillation (NAO) – das Gleichgewicht zwischen einem permanenten Tiefdrucksystem in der Nähe von Grönland und einem permanenten Hochdrucksystem in seinem Süden – in eine negative Phase brachte, die dazu führte, dass es in Europa während des MM ungewöhnlich kalt blieb.“

Die Rolle des Magnetfeldes bei der terrestrischen Abkühlung in Grand Solar Minima

Doch nicht nur die Sonnenstrahlung zeigte sich während des Maunder-Minimums verändert. Es gibt noch einen weiteren Beitrag zur Reduzierung der Erdtemperatur während des Maunder-Minimums – das ist das solare Hintergrundmagnetfeld, dessen Rolle bisher übersehen wurde. Nach der Entdeckung [1] einer signifikanten Reduktion des Magnetfeldes im bevorstehenden modernen großen Sonnenminimum und während des Maunder-Minimums wurde erkannt, dass das solare Magnetfeld die Stärke der kosmischen Strahlung steuert, welche die planetaren Atmosphären des Sonnensystems einschließlich der Erde erreicht. Eine signifikante Reduktion des solaren Magnetfeldes während des großen solaren Minimums wird zweifellos zu einer Erhöhung der Intensität der galaktischen und extra-galaktischen kosmischen Strahlung führen, die wiederum zur Bildung von hohen Wolken in den terrestrischen Atmosphären führt und zur Abkühlung der Atmosphäre beiträgt, wie Svensmark et al. gezeigt haben [5].

Im letzten solaren Minimum zwischen den Zyklen 23 und 24 nahm die Intensität der kosmischen Strahlung um 19% zu. Gegenwärtig nimmt das in Abbildung 1 von Zharkova et al. [1] vorhergesagte solare Magnetfeld in der Sonne radikal ab, was wiederum zu einem starken Rückgang des interplanetaren Magnetfeldes der Sonne auf nur noch 4 nanoTesla (nT) von typischen Werten von 6 bis 8 nT führt. Diese Abnahme des interplanetaren Magnetfeldes führt natürlich zu einem signifikanten Anstieg der Intensität der kosmischen Strahlung, die in die Atmosphären der Planeten eindringt, wie von den jüngsten Weltraummissionen berichtet wird [6]. Daher schreitet dieser Prozess der Verringerung des solaren Magnetfeldes voran, wie von Zharkova et al. vorhergesagt [1], und sein Beitrag wird von den planetarischen Atmosphären, einschließlich der Erde, absorbiert werden. Dies kann die terrestrische Temperatur während des modernen großen solaren Minimums, das bereits im Jahr 2020 begonnen hat, verringern.

Der erwartete Rückgang der terrestrischen Temperatur während des derzeitigen Grand Solar Minimums

Diese Summenkurve zeigte auch das bevorstehende moderne große Sonnenminimum 1 in den Zyklen 25-27 (2020-2053) und das moderne große Sonnenminimum 2 (2370-2415) an. Dies wird in der modernen Zeit die einzigartigen niedrigen Aktivitätsbedingungen der Sonne bringen, die während des Maunder-Minimums auftraten. Es wird erwartet, dass während des modernen großen Sonnenminimums die Sonnenaktivität deutlich reduziert sein wird, wie dies während des Maunder-Minimums der Fall war (Abbildung 4, untere Grafik). Ähnlich wie beim Maunder-Minimum wird die Verringerung des solaren Magnetfelds, wie oben beschrieben, eine Abnahme der solaren Bestrahlungsstärke um etwa 0,22 % für die Dauer von drei Sonnenzyklen (25-27) für das erste moderne große Minimum (2020-2053) und vier Sonnenzyklen ab dem zweiten modernen großen Minimum (2370-2415) verursachen.

Dies wiederum kann während der nächsten drei Zyklen (25-27) des großen Minimums 1 zu einem Absinken der terrestrischen Temperatur um bis zu 1,0°C gegenüber der aktuellen Temperatur führen. Die stärksten Abkühlungsphasen werden während der lokalen Minima zwischen den Zyklen 25-26 und den Zyklen 26-27 auftreten, wenn das niedrigste Niveau der Sonnenaktivität erreicht wird, wenn man die Abschätzungen in Abbildung 2 (unterer Plot) und Abbildung 3 verwendet. Daher kann die Durchschnittstemperatur in der nördlichen Hemisphäre um bis zu 1,0°C im Vergleich zur aktuellen Temperatur sinken, die seit dem Maunder-Minimum um 1,4°C gestiegen war. Dies wird dazu führen, dass die Durchschnittstemperatur nur noch 0,4°C über der im Jahr 1710 gemessenen Temperatur liegt. Dann, nachdem das heutige große solare Minimum 1 vorbei ist, wird sich die Sonnenaktivität im Zyklus 28 in dem eher kurzen, aber kräftigen großen Sonnenzyklus zwischen 2053 und 2370 wieder normalisieren, wie in Abbildung 3 dargestellt, bevor es im Jahr 2370 zum nächsten großen solaren Minimum 2 kommt.

Conclusions

In diesem Leitartikel habe ich gezeigt, dass die jüngsten Fortschritte beim Verständnis der Rolle des solaren Hintergrundmagnetfeldes bei der Bestimmung der Sonnenaktivität und bei der Quantifizierung der beobachteten Größen des Magnetfeldes zu verschiedenen Zeiten eine zuverlässige langfristige Vorhersage der Sonnenaktivität auf einer Zeitskala von einem Jahrtausend ermöglichen. Dieser Ansatz zeigte, dass es nicht nur 11-jährige Sonnenzyklen gibt, sondern auch große Sonnenzyklen mit einer Dauer von 350-400 Jahren. Wir konnten zeigen, dass diese großen Zyklen durch die Interferenzen zweier magnetischer Wellen mit nahe beieinander liegenden, aber nicht gleichen Frequenzen gebildet werden, die durch die doppelte solare Dynamowirkung in unterschiedlichen Tiefen des Sonneninneren erzeugt werden. Diese großen Zyklen werden immer durch große solare Minima vom Typ des Maunder-Minimums getrennt, die in der Vergangenheit regelmäßig auftraten und die bekannten Maunder-, Wolf-, Oort-, Homeric- und andere große Minima bildeten.

Während dieser großen solaren Minima kommt es zu einer signifikanten Reduktion des solaren Magnetfeldes und der solaren Bestrahlungsstärke, die die Reduktion der terrestrischen Temperaturen erzwingen, die für diese Zeiträume aus der Analyse der terrestrischen Biomasse während der letzten 12.000 oder mehr Jahre abgeleitet wurden. Das jüngste große solare Minimum trat während des Maunder-Minimums (1645-1710) auf, das zu einer Verringerung der solaren Bestrahlungsstärke um 0,22 % gegenüber der heutigen und zu einer Verringerung der durchschnittlichen terrestrischen Temperatur um 1,0-1,5 °C führte.

Diese Entdeckung der doppelten Dynamowirkung in der Sonne brachte uns eine rechtzeitige Warnung vor dem bevorstehenden großen solaren Minimum 1, wenn das solare Magnetfeld und seine magnetische Aktivität um 70% reduziert sein werden. Diese Periode hat in der Sonne im Jahr 2020 begonnen und wird bis zum Jahr 2053 andauern. Während dieses modernen großen Minimums würde man eine Reduktion der durchschnittlichen terrestrischen Temperatur um bis zu 1,0°C erwarten, insbesondere während der Perioden der solaren Minima zwischen den Zyklen 25-26 und 26-27, z.B. in der Dekade 2031-2043.

Die Verringerung der terrestrischen Temperatur während der nächsten 30 Jahre kann für verschiedene Teile des Planeten wichtige Auswirkungen auf die wachsende Vegetation, die Landwirtschaft, die Nahrungsmittelversorgung und den Heizbedarf sowohl in der nördlichen als auch in der südlichen Hemisphäre haben. Diese globale Abkühlung während des bevorstehenden großen solaren Minimums 1 (2020-2053) kann für drei Jahrzehnte jegliche Anzeichen einer globalen Erwärmung ausgleichen und würde zwischenstaatliche Anstrengungen erfordern, um Probleme mit der Wärme- und Nahrungsmittelversorgung für die gesamte Erdbevölkerung anzugehen.

References

Link: https://www.tandfonline.com/doi/full/10.1080/23328940.2020.1796243

Übersetzt von Chris Frey EIKE

Anmerkung des Übersetzers: Noch einmal: der Beitrag datiert vom August 2020. Die gerade zu Ende gegangene 14-tägige Folge ohne Sonnenflecken unterstreicht die Aussagen der Autorin, auch wenn heute (19.2.) erstmals wieder Sonnenflecken auftauchen.

 




Abhängig­keit von Wind und Solar von fossilen Treib­stoffen ist eine Tatsache, an der man nicht vorbei kommt.

Chuck Schumer, der Vorsitzende der Demokraten im Senat, twitterte am 20. Januar 2021: „Die demokratische Mehrheit im Senat wird eine mutige Gesetzgebung auf den Weg bringen, um die Klimakrise zu besiegen, indem sie in saubere Infrastruktur und Produktion investiert. Es wird Millionen von guten Jobs für Amerikaner schaffen, unabhängig von der Postleitzahl.“

Biden kündigte Anfang des Monats an, dass er plant, die Genehmigung für die Keystone XL-Pipeline an seinem ersten Tag im Amt zu streichen. Bernie Sanders begrüßte den Schritt und twitterte: „“ch bin erfreut, dass Joe Biden die Keystone-Genehmigung aufheben wird[…] … Bei all den [sic] großen Krisen, mit denen Amerika konfrontiert ist, dürfen wir die existenziellste Bedrohung unseres Planeten nicht aus den Augen verlieren: den Klimawandel.“*

[*Siehe die Bemerkung des Übersetzers am Ende!]

Die Prämisse lautet also, dass fossile Brennstoffe den Klimawandel vorantreiben und große Ölprojekte wie die Keystone-Pipeline aufgegeben werden müssen. Sie erwarten, dass erneuerbare Energien die fossilen Brennstoffe ersetzen und nennen sie „sauber und grün“.

Aber ist das die Realität?

Es gibt ein dunkles Geheimnis, das weder die Biden-Administration noch die Mainstream-Medien zu diskutieren oder anzuerkennen bereit sind. Das ist die Tatsache, dass Energieerzeugungs-Technologien wie Wind und Solar von fossilen Brennstoffen abhängen.

Netz-Realität: Erneuerbare sind ohne fossile Treibstoffe absolut nutzlos!

Solarmodule können nachts oder bei starker Bewölkung keinen Strom erzeugen. Ebenso können Windturbinen keinen Strom erzeugen, wenn kein Wind weht, und selbst diejenigen in den Wind-Hotspots (wo es aufgrund der optimalen Windgeschwindigkeit ein höheres Potenzial zur Energieerzeugung gibt) sind nur zu bestimmten Jahreszeiten effizient.

Die Wind- und Solarindustrie plant, diese Nachteile durch den Einsatz von Backup-Strom zu kompensieren. Aber die derzeit verfügbaren Backup-Lösungen – einschließlich Batterien, Erdgas- (oder Diesel-) Turbinen mit offenem Kreislauf und Wasserkraftwerken – sind nicht in der Lage, Wind- und Solarenergie in einem groß angelegten Netzverbund zu unterstützen. Daher bleiben fossile Kraftwerke – und Kernkraftwerke – die einzigen zuverlässigen Backup-Lösungen, um die Netzversorgung aufrechtzuerhalten, wenn große Wind- und Solarnetzwerke keinen Strom erzeugen können.

Ein klassisches Beispiel für diese Ineffizienz und Unzuverlässigkeit der erneuerbaren Energien wurde Anfang dieses Monats in Deutschland beobachtet, wo die 110 Gigawatt installierte Kapazität der erneuerbaren Energien die Energienachfrage nicht decken konnte.

Abgesehen davon, dass sie nicht in der Lage waren, die Nachfrage zu befriedigen, war die Erzeugung in hohem Maße intermittierend und unvorhersehbar, was einen übermäßigen Druck auf die fossilen Kraftwerke ausübte, um die Nachfrage zu befriedigen.

Wenn weder Wind- noch Solarkraftwerke in Betrieb sind, werden die Auswirkungen der Volatilität in der Stromerzeugung an die Kunden weitergegeben, was zu Stromausfällen und erhöhten Stromkosten führt.

Wir brauchen kein zweites Kalifornien!

So auch bei den jüngsten Bränden in Kalifornien, als Gouverneur Gavin Newsom einräumte, dass erneuerbare Energien für die Stromausfälle im Bundesstaat verantwortlich waren.

„Wir können nicht die Zuverlässigkeit opfern, während wir weitergehen“, sagte er. „Wir haben es versäumt, diese Engpässe vorherzusagen und zu planen. Und das ist einfach inakzeptabel.“

Die Gleichung ist in Kalifornien ganz einfach: 36 % des Stroms in Kalifornien stammt aus erneuerbaren Energien, und wenn diese ausfallen – bei Bränden, Hitzewellen und in jeder Nacht – schaltet der Staat die Erdgaskraftwerke (fossile Brennstoffe) ein, um den Bedarf zu decken.

Aber auch Erdgaskraftwerke werden geschlossen, und der Staat importiert schließlich Strom von Nachbarn, die auf fossile Brennstoffe angewiesen sind, um ihn zu liefern.

Ab sofort sind die Staaten, die als „führend in erneuerbarer Technologie“ bezeichnet werden, auf fossile Brennstoffe angewiesen, um sie vor Stromausfällen zu bewahren.

Aber wenn das ganze Land dem Beispiel Kaliforniens folgt und die fossilen Kraftwerke abschaltet, wird es zu beispiellosen Stromausfällen kommen, wenn Wind und Sonne ausfallen, weil es keine Nachbarn gibt, von denen man den Strom importieren kann.

Erneuerbare Energien können einfach nicht den benötigten Strom zu einem erschwinglichen Preis liefern. Aber der blinde Glaube daran, dass sie es können, hat sich in Kalifornien und Deutschland als katastrophal erwiesen, die beide den Preis für ihre überschwängliche Umarmung der erneuerbaren Energien zahlen.

Bidens Clean Energy Plan und das Gerede seiner Regierung von der „Rettung des Planeten“ und der Entwicklung „sauberer Technologien“ zur Schaffung von Arbeitsplätzen mag moralisch ansprechend klingen. In Wirklichkeit ist es einfach nur himmelschreiender Unsinn.

[Hervorhebung vom Übersetzer]

This article was originally published on American Thinker.

Link: http://cornwallalliance.org/2021/02/wind-and-solar-dependency-on-fossil-fuels-is-a-fact-we-cannot-ignore

Übersetzt von Chris Frey EIKE

*Bemerkung des Übersetzers: Man fragt sich immer wieder, ob diese Herrschaften wirklich glauben, was sie da von sich geben. Wenn ja – Hilfe! Wer rettet uns vor dieser Katastrophe? Wenn nein – noch lauter: Hilfe! Was bezwecken diese Führer mit ihrer Politik?




GWPF klagt die Regierung an: Sie leistet Strompreisen und der Energie-Armut erheblich Vorschub

Summary

Die Kosten der Klimapolitik erhöhen die Energierechnungen um 10 Milliarden Pfund pro Jahr, die überproportional von ärmeren Menschen bezahlt werden.

Strompreise liegen um 40 % höher als ohne die Politik der Regierung

Menschen, die elektrisch heizen, zahlen bis zu £500 pro Jahr mehr

Während die Regierung immer mehr politische Kosten auf die Energierechnungen aufschlägt und die Verbraucher mit unerbittlichen Preissteigerungen konfrontiert werden, um für erneuerbare Energien und Notstrom zu bezahlen, hat die Regierung ihre neueste Politik zur Bekämpfung der Energiearmut veröffentlicht (Sustainable Warmth: Protecting Vulnerable Households in England).

Die Regierung ist eindeutig besorgt über die kombinierte Auswirkung von Abschalt- und Klimapolitikkosten auf einkommensschwache Haushalte und hat eine Reihe von Maßnahmen veröffentlicht, die diesen Verbrauchern Erleichterung verschaffen sollen. Die angekündigten Maßnahmen sind jedoch unzureichend und weichen dem Hauptproblem aus: der zunehmenden Belastung durch die steigenden Kosten der grünen Energiepolitik auf den Stromrechnungen.

Die Kosten der Klimapolitik erhöhen die nationale Stromrechnung um mehr als 10 Milliarden Pfund pro Jahr, wovon etwa ein Drittel von den Haushalten direkt über die Stromrechnung bezahlt wird, was den Preis um etwa 40 % (hier) im Vergleich zu dem Preis erhöht, der ohne die Politik angefallen wäre.

In Großbritannien gibt es ca. 2,2 Mio. Haushalte, die Strom zum Heizen verwenden. Davon befinden sich etwa 1,8 Mio. in England. Diese Haushalte haben in der Regel ein geringeres Einkommen, etwa ein Drittel hat ein Jahreseinkommen von weniger als £14.500 pro Jahr. Geht man von einem Preis von etwa £180/MWh (18p/kWh) aus, zahlt ein elektrisch beheizter Haushalt etwa £1.800 pro Jahr für die Heizung, wovon etwa £500 pro Jahr auf die Klima- und Energiepolitik entfallen.

Dr. John Constable, der Energieredakteur der GWPF, sagte:

Das Problem der Energiearmut, das elektrisch beheizte Haushalte mit niedrigem Einkommen betrifft, ist größtenteils das Ergebnis der Regierungspolitik und insbesondere der jährlichen Subventionskosten für erneuerbare Energien in Höhe von 10 Milliarden Pfund, von denen ein Drittel die Haushalte über ihre Stromrechnungen und der Rest über die allgemeinen Lebenshaltungskosten berappen müssen, da die Unternehmen ihre Kosten weitergeben.

Die Maßnahmen von Herrn Kwarteng sind völlig unzureichend, kratzen kaum an der Oberfläche des Stromrechnungsproblems und lassen das durch seine Klimapolitik verursachte Problem der Lebenshaltungskosten völlig unangetastet. Da Großbritannien auf elektrische Heizungen umsteigt, um die Emissionen zu reduzieren, wird dieses ohnehin schon ernste Problem nur noch schlimmer werden.“

Note for editors and bloggers

For further information:

* Green energy costs and fuel poverty

* GWPF calls on Government to suspend £10 billion green levy on suffering households

* Britain faces fuel poverty crisis as 7 million households face energy debt

* Rising electricity prices are forcing Britain’s poorest to underheat their homes

Link: https://www.thegwpf.com/gwpf-accuses-government-of-driving-up-electricity-prices-and-energy-poverty/

Übersetzt von Chris Frey EIKE

 




Hybrid-Golf explodiert in Nordhessen, und E-Auto verbrennt in Vorarlberg

Zum Glück wurden die Fahrer des Golfs nur leicht verletzt. RTL.de berichtet, daß der VW Golf 8 GTE nach nur 300 Kilometern auf dem Tacho während der Fahrt in Felsberg mit lautem Knall in Flammen aufging und völlig ausbrannte. Die Feuerwehr löschte (oder kühlte?) mit Wasser und verwandelte damit die Straße bei den in Nordhessen gerade herrschenden Temperaturen in eine Eislaufbahn. Der Explosionsknall war so heftig, daß die Scheiben des Wagens zerbrachen.

Obwohl Hybridstromer nur eine relativ kleine Batterie haben, entzündete sie sich während des Löschens immer wieder von neuem und mußte – wie üblich – vom Abschleppunternehmen in einem Container voller Wasser abtransportiert werden.

Ein ähnlicher Fall ereignete sich fast zeitgleich im Ambergtunnel bei Feldkirch in Österreich. Ein Stromer begann im Tunnel zu brennen; als der Fahrer den Gestank bemerkte, lenkte er das Fahrzeug schnell draußen auf den Notstreifen, wo das Fahrzeug dann komplett abbrannte. Die Marke des Wagens ist für und Fahrradfahrer uns Mietauto-Nutzer aus der EIKE-Redaktion nicht zu ermitteln. Vielleicht kann einer unserer Leser weiterhelfen?

Aktualisierung: Nach Kulmbach/Franken mit ihrer frisch sanierten Tiefgarage hat auch die Stadt Leonberg in Württemberg E-Autos die Zufahrt in ihrem Altstadt-Parkhaus untersagt.




Auswirkungen der Coronavirus-Maßnahmen auf das CO2-Niveau

Abbildung 1: Unter Verwendung einer einfachen Methode1 zur Entfernung des großen saisonalen Zyklus aus den Mauna Loa CO2-Daten sowie der durchschnittlichen Auswirkungen von El Nino- und La Nina-Ereignissen wurde kein offensichtlicher Rückgang der globalen CO2-Werte beobachtet4. Analyse von Dr. Roy Spencer.

Klimaaktivisten erwarteten, dass dieser wirtschaftliche Aufschwung zu einem geringeren Energieverbrauch und damit zu weniger CO2-Emissionen weltweit führen würde. Das ist zwar in der Tat geschehen, mit einem Rückgang der Emissionen in China um 40 % und einer erwarteten 11-prozentigen Reduktion der CO2-Emissionen aus der Energieerzeugung in den USA in diesem Jahr, aber es hat sich nicht in den von ihnen gesuchten Beweis umgesetzt. Was die Wissenschaftler suchen, sind Beweise für einen Rückgang der globalen atmosphärischen CO2-Konzentration, die stark genug wären, um sie dem wirtschaftlichen Abschwung zuzuschreiben.

Der Klimawissenschaftler Dr. Roy Spencer von der University of Alabama hat eine einfache Methode1 verwendet, um den großen saisonalen CO2-Zyklus2, der auf die jahreszeitlich bedingten Zu- und Abnahmen der pflanzlichen Photosynthese zurückzuführen ist, aus den CO2-Daten des Mauna Loa zu entfernen, ebenso wie die durchschnittlichen Auswirkungen von El-Nino- und La-Nina-Ereignissen, die die Rate der Ausgasung von CO2 im Ozean verändern. Das Ergebnis: Es wurde kein offensichtlicher Rückgang des globalen CO2-Gehalts beobachtet3,4.

Wie in Abbildung 1 zu sehen ist, zeigen die neuesten CO2-Daten keinen Abwärtstrend, sondern nur eine Welle, die anderen Wellen in der Grafik nicht unähnlich ist, als es noch keine Krise und keinen daraus resultierenden Wirtschaftsabschwung gab. Die Zeitung USA Today führte einen Faktencheck zu diesem Thema durch und kam zu dem gleichen Ergebnis.

Die Earth System Research Laboratories der NOAA untersuchten das Thema ebenfalls5 und kamen zu dem Schluss:

Der Rückgang der Emissionen muss groß genug sein, um sich von der natürlichen CO2-Variabilität abzuheben, die dadurch entsteht, wie Pflanzen und Böden auf saisonale und jährliche Schwankungen von Temperatur, Luftfeuchtigkeit, Bodenfeuchte usw. reagieren. Diese natürlichen Schwankungen sind groß, und bis jetzt fallen die ‚fehlenden‘ Emissionen nicht auf.“

Es gibt eindeutig keinen Hinweis darauf, dass die erzwungenen Reduktionen irgendeine Auswirkung auf den globalen CO2-Gehalt hatten, was darauf hindeutet, dass die natürlichen Kräfte, wie z.B. die Ausgasung von CO2 aus den Ozeanen, die vom Menschen verursachten Beiträge überwiegen. Dies deutet ferner darauf hin, dass die Aufrufe der Klimaalarmisten, den Verbrauch fossiler Brennstoffe, den Autoverkehr, Flugreisen, den Rindfleischkonsum und eine ganze Litanei von Beschwerden, die sie über moderne, das Leben erleichternde Energieanwendungen vorbringen, wenig oder gar keinen Effekt haben werden, falls sie wie gefordert umgesetzt werden.

Zusammengefasst sind folgende Punkte bedeutsam:

Einige Klimaaktivisten feierten die wirtschaftliche Abschaltung aufgrund der Coronavirus-Pandemie und stellten fest, dass sie den größten Rückgang der globalen CO2-Emissionen aller Zeiten verursachte.

Die gesamte Weltwirtschaft schrumpfte als Folge der Abschaltungen, und die Vereinigten Staaten sind auf dem Weg zu einer 40%igen Reduktion im zweiten Quartal 2020.

● Der Weltmarktführer bei den CO2-Emissionen China verzeichnete einen geschätzten Rückgang der CO2-Emissionen um 25 %, während die Energy Information Administration eine Reduktion der energiebedingten CO2-Emissionen in den USA um 11 % in diesem Jahr vorhersagt.

● Trotz abstürzender Volkswirtschaften und großer Kürzungen im Reiseverkehr, in der Industrie und bei der Energieerzeugung haben Klimawissenschaftler noch keinen Hinweis auf einen Rückgang der atmosphärischen CO2-Werte gefunden.

● Die Tatsache, dass trotz massiver globaler Sperrungen und wirtschaftlicher Härten die atmosphärischen CO2-Werte überhaupt nicht gesunken sind, deutet darauf hin, dass die Forderungen der Klimaaktivisten nach einer globalen Reduktion des Energieverbrauchs ineffektiv und katastrophal sind und Jahrzehnte dauern würden.

Further reading:

  1. Is the COVID-19 Economic Downturn Affecting Atmospheric CO2? Mauna Loa Data Say, Not Yet Dr. Roy Spencer March 22nd, 2020  https://www.drroyspencer.com/2020/03/is-the-covid-19-economic-downturn-affecting-atmospheric-co2-mauna-loa-data-say-not-yet/
  2. Seasonal Changes in Carbon Dioxide NASA’s Scientific Visualization Studio May 4th, 2017https://svs.gsfc.nasa.gov/4565
  3. March 2020 CO2 Levels at Mauna Loa Show No Obvious Effect from Global Economic Downturn Dr. Roy Spencer April 7th, 2020 https://www.drroyspencer.com/2020/04/march-2020-co2-levels-at-mauna-loa-show-no-obvious-effect-from-global-economic-downturn/
  4. Why the Current Economic Slowdown Won’t Show Up in the Atmospheric CO2 Record Dr. Roy Spencer May 15th, 2020 http://www.drroyspencer.com/2020/05/why-the-current-economic-slowdown-wont-show-up-in-the-atmospheric-co2-record/
  5. Can we see a change in the CO2 record because of COVID-19? NOAA Earth System Research Laboratories May 2020 https://www.esrl.noaa.gov/gmd/ccgg/covid2.html

View this page as a printable PDF: CAAG-coronavirus-vs-CO2Download

Link: https://climateataglance.com/climate-at-a-glance-coronavirus-impact-on-co2-levels/

Übersetzt von Chris Frey EIKE

 




Wetter-Kapriolen Ergebnis des Klimawandels?

Die eiskalten Tage im Dezember und Januar, die mit Schneestürmen einhergingen, paßten den Klima-Alarmisten überhaupt nicht ins Konzept, weswegen eiligst darauf hingewiesen wurde, daß die Erwärmung der Arktis für ein geringes Temperaturgefälle zum Äquatorbereich sorge, so der Polarwirbel langsamer werde und uns deswegen Kälte und Schnee schicke.

Aktuell scheint der Polarwirbel wieder beschleunigt zu sein, was Europa frühlingshafte Temperaturen beschert. Die Iberische Halbinsel war schon letzte Woche dran, berichtet unser Referent Sebastian Lüning. Die Wetter- und Klimafrösche atmen auf und melden erfreut, …

Februar-Tage mit über 20 Grad traten laut DWD im Zuge der Klimaerwärmung zuletzt immer häufiger auf: Zwischen 2001 und 2020 gab es in acht Jahren im Februar Höchsttemperaturen von 20 Grad und mehr. Zwischen 1981 und 2000 sowie von 1961 bis 1980 waren es jeweils nur drei Jahre.

Acht und drei in 2×20 Jahren, das ist natürlich extrem signifikant. Würde man den Gesamtzeitraum ab 1850 betrachten, und die Jahrhunderte zuvor (sofern meßtechnisch möglich) vergleichen, würde man vermutlich anderes, oder alles Mögliche schließen können. Es gilt das berühmte Zitat: Traue keiner Statistik, die Du nicht selber zusammengestellt hast.

Und in der Tat: Die Presseberichte widersprechen sich selbst ein wenig:

Es ist lange her, aber es gab auch schon mal 24,5 Grad im Februar: im nordrhein-westfälischen Arnsberg im Jahr 1900. 1960 war es in Müllheim (Baden-Württemberg) und Kaiserslautern (Rheinland-Pfalz) 22,5 Grad warm, 2019 in Saarbrücken-Burbach 21,7 Grad. Die nun vorhergesagten Höchsttemperaturen werden an diese Spitzenreiter wohl nicht herankommen, glaubt Meteorologe Adrian Leyser.

Und nicht vergessen: Wie unser Vizepräsident Michael Limburg betont, ist selbst aktuelle Meßtechnik keineswegs zuverlässig. Passend dazu stellte sich heraus, daß deutsche „Spitzentemperaturen“ der Station Lingen auf mangelhafte Wartung zurückzuführen waren.




Wissenschaft­liche Bildung in der Klassenstufe K-12* ist katastro­phal geworden

Barbash blickt zuerst auf die historische Entwicklung und dann darauf, wo wir heute stehen. Die Verankerung der großen grünen Botschaft kam in den 60er und 70er Jahren so richtig in Gang, bis zu dem Punkt, an dem es jetzt in der Lehrerausbildung und in den Lehrbüchern einfach zur Tagesordnung gehört. Kein Wunder, dass Millionen aufmarschieren.

Aber jetzt wird es systematisch noch viel schlimmer. Die sogenannten Next Generation Science Standards (NGSS) betreffen mehr als ein Drittel der K-12-Schüler an öffentlichen Schulen in Amerika, und es werden immer mehr. Die staatlichen Wissenschaftsstandards legen fest, was in den einzelnen Klassenstufen gelehrt werden soll. Die herkömmlichen staatlichen Standards sind relativ neutral, wenn es um grüne Propaganda geht, während die NGSS voll davon sind. Sie kümmern sich auch nicht viel um wissenschaftliche Kenntnisse.

Der Artikel steckt voller großartiger Zitate. Die Historie betreffend lautet ein gutes davon aus dem Jahr 1983:

Zumindest im Moment beherrschen ökologische Weltuntergangs-Propheten das kulturelle Geschehen. Feuer-und-Schwefel-Logik wird in Schulbüchern im ganzen Land mit Angst-und-Weltuntergangs-Psychologie kombiniert. Die Geschichte könnte Zehntausende Male erzählt werden, über Kinder in öffentlichen und privaten Schulen, in Gymnasien und Grundschulen, mit konservativen und mit liberalen Lehrern, in reichen und in armen Vierteln. Eine Flutwelle des Pessimismus ist über das Land geschwappt und hat Trauer, Verzweiflung, Unbeweglichkeit und Lähmung hinterlassen. … Warum sollten unsere Schüler in die Irre geführt werden?

Dieser „Moment“ hält seit fast 30 Jahren an, und die Unkenrufe werden mit dem Einsetzen der Klimawandel-Hysterie nur noch schlimmer.

Hier ist Barbashs knappe Zusammenfassung: „Diese Angst hat die Lehrpläne seit den 1970er Jahren mit einer immer länger werdenden Liste von Alarmen durchsetzt: Pestizide, Smog, Wasser- und Luftverschmutzung, Waldbrände, Artensterben, Überbevölkerung, Hungersnot, Regenwaldzerstörung, Verknappung natürlicher Ressourcen, Ozonabbau, saurer Regen und die große absorbierende Panik unserer Zeit: die globale Erwärmung.

Diese Prämissen bestimmen alles, was mit Umwelterziehung zu tun hat: die Lernstandards, die die Bundesstaaten den Schulbezirken auferlegen; die Stellungnahmen der Verbände der Wissenschaftslehrer; die Kursarbeit und die Texte in den Schulen; die Ausbildung, die Pädagogen während ihrer gesamten Laufbahn erhalten; und die Lehrbücher, Unterrichtspläne, Exkursionen und Hausaufgaben, die in allen Klassenstufen erteilt werden.“

Die NGSS setzen wirklich auf die Klimawandel-Hysterie. Hier ist, wie Barbash es erklärt:

Der Begriff ‚Klimawandel‘ erscheint in dem Dokument als „Kerngedanke‘ für die Mittel- und Oberstufe. Das Phänomen wird als Tatsache dargestellt, ebenso wie seine angeblichen Folgen – Verlust der Artenvielfalt, Aussterben von Arten, veränderte Niederschlagsmuster, Störung der globalen Nahrungsmittelversorgung, Verlust von Gletschereis und Massenmigration aufgrund des steigenden Meeresspiegels. Nirgendwo steht in den Standards, dass sowohl die Natur des Phänomens als auch seine Folgen Gegenstand heftiger Debatten sind oder dass es konkurrierende Theorien zur Erklärung des Klimawandels gibt – und zwar nicht von Flacherde-Anhängern oder ungläubigen Pfaffen, sondern von ernsthaften Wissenschaftlern.“

In den meisten konventionellen staatlichen Standards ist der Klimawandel ein untergeordnetes Thema, das im Erdkundeunterricht der High School unterrichtet wird, einem Wahlfach also, das viele Schüler nicht belegen. Die NGSS machen die Klimaschrecken jedoch zu einem Pflichtthema in der Mittelstufe, wenn die meisten Schüler noch zu jung sind, um sie zu hinterfragen. Bis heute haben 19 Staaten die alarmistischen NGSS angenommen.

Barbash sagt, dass auch die Bundesbehörden sehr aktiv sind, um die grüne Klimapropaganda voranzutreiben:

Mindestens 15 staatliche oder staatlich finanzierte Websites bieten kostenloses Unterrichtsmaterial über den Klimawandel und seine Gefahren an. Zu den Einrichtungen gehören die National Oceanic and Atmospheric Administration NOAA, die National Science Foundation, die National Aeronautics and Space Administration (NASA), die National Institutes of Health, das U.S. Energie-Ministerium und das U.S. Global Change Research Program. Die Websites bieten Tausende von Ressourcen, darunter Unterrichtspläne, Spiele und Videos für alle Klassenstufen. Keine einzige Website, die von der Regierung oder von Universitäten oder K-12-Bildungsgruppen finanziert wird, ist dem Unterricht über die wissenschaftliche Debatte gewidmet.“

Auch wie die NGSS Wissenschaft lehrt wird treffend beleuchtet:

Die Next Generation Science Standards (NGSS)sind so verworren, dass es schwer vorstellbar ist, wie sie irgendjemandem helfen sollen, überhaupt Wissenschaft zu unterrichten, geschweige denn eine sich schnell verändernde, umstrittene Wissenschaft wie die Klimatologie. Viele Konzepte sind zu allgemein gehalten. Hier ist einer für die dritte bis fünfte Klasse: ‚Die Bedürfnisse und Wünsche der Menschen ändern sich mit der Zeit, ebenso wie ihre Anforderungen an neue und verbesserte Technologien.‘ Viele Leistungserwartungen sind unklar. Hier ist einer für Kindergärtner: ‚Analysieren Sie Daten, um festzustellen, ob eine Konstruktionslösung wie beabsichtigt funktioniert, um die Geschwindigkeit oder Richtung eines Objekts durch Drücken oder Ziehen zu ändern.‘ Welche Art von Daten wird ein Fünfjähriger analysieren? Andere Standards packen zu viel Wissenschaft in eine Aussage, oft ohne ausreichende Anleitung aus früheren Klassenstufen. Dieser Standard für die High School würde einen Studenten herausfordern: ‚Analysieren Sie geowissenschaftliche Daten und die Ergebnisse globaler Klimamodelle, um eine evidenzbasierte Vorhersage über die aktuelle Geschwindigkeit des globalen oder regionalen Klimawandels und die damit verbundenen zukünftigen Auswirkungen auf das System Erde zu treffen‘.

Auch ich denke, die NGSS sind ein großer Schritt zurück, wenn es um den Unterricht in den Naturwissenschaften geht. An vielen Stellen ersetzen sie die detaillierten wissenschaftlichen Kenntnisse, die in den staatlichen Standards gefordert werden, durch hoffnungslos vage Konzepte.

Noch schlimmer ist, dass diese vagen Konzepte in eine 3-D-Matrix eingebettet sind. Die NGSS ersetzen nicht nur abstrakte Konzepte anstelle von wissenschaftlichem Wissen, sondern haben auch eine dreidimensionale Struktur. Sie erkennen nicht, dass, wenn jede Dimension nur 20 Konzepte hat, es 8.000 Kombinationen gibt. Bei je 100 Konzepten dann 1.000.000 Kombinationen.

Somit sind die NGSS ein Rezept für Verwirrung. In der Tat denke ich, dass sie Probleme mit den Tests haben. Im Fall der NGSS sollte es nationale oder internationale Testergebnisse geben, die auf staatlicher Ebene verfügbar werden, damit wir sehen können, wie gut oder schlecht der Unterricht unter diesen seltsamen neuen Standards abschneidet.

Kurz gesagt, die grüne Propaganda im K-12-Wissenschaftsunterricht ist schon seit Jahrzehnten ein wachsendes Problem. Aber jetzt, unter den Next Generation Science Standards, wird es schnell noch viel schlimmer. Es gibt viel mehr über diese grüne Welle in Barbashs Artikel, so dass ich ihn sehr empfehlen kann.

Die wissenschaftliche Bildung in Amerika befindet sich im Übergang – und auf einem verheerenden Weg.

Autor: David Wojick, Ph.D. is an independent analyst working at the intersection of science, technology and policy. For origins see http://www.stemed.info/engineer_tackles_confusion.html For over 100 prior articles for CFACT see http://www.cfact.org/author/david-wojick-ph-d/ Available for confidential research and consulting.

Link: https://www.cfact.org/2021/02/16/american-k-12-science-education-gone-bad/

Übersetzt von Chris Frey EIKE




Neue Studie: In den 1940er Jahren war es vor Grönland wärmer als heute

Mit Dank an Die kalte Sonne.

Karte des Gebiets Skjoldungen. Die Stelle, an welcher der Kern gezogen worden war, ist durch einen roten Stern gekennzeichnet. Bild: Wangner et al.

Der Kern umfasst die letzten 200 Jahre (1796-2013). Die Wissenschaftler stellen fest, dass der SST-Datensatz gut mit anderen Alkenon-basierten Rekonstruktionen aus SE-Grönland vergleichbar ist und somit eine regionale Schelfwasser-Variabilität aufweist.

Heute behaupten einige Wissenschaftler gerne, dass die Gegenwart wärmer ist als zu jedem anderen Zeitpunkt in den letzten 1000 Jahren und dass die grönländischen Eisschilde schnell schmelzen. Aber die Ergebnisse der Kern-Rekonstruktion zeigen, dass es in der Vergangenheit, vor etwa 80 Jahren, noch wärmer war.

Vor 80 Jahren war es wärmer

Die rekonstruierten SSTs zeigen in der Tat „hohe Amplitudenschwankungen zwischen 5°C und 12°C, insbesondere während des 20. Jahrhunderts“.


Wie die rekonstruierten Meeresoberflächentemperaturen in diesem Gebiet zeigen, war es in den 1940er Jahren genauso warm oder noch wärmer. Die Periode von 1915 – 1950 war auf einem ähnlichen Niveau wie heute, also passiert derzeit nichts Ungewöhnliches.

Die Autoren sagen auch, dass, obwohl die Schmelzwasserproduktion durch das Klima beeinflusst worden sein könnte, die Position des Gletscherrandes und das Kalben von Eisbergen im 20. Jahrhundert relativ konstant blieben.

Modelle bilden Grönland schlecht ab

Die dänischen Wissenschaftler fordern nun, dass die grönländischen Gletscher in den Klimamodellen besser berücksichtigt werden und sagen, dass die ungewöhnliche Wärme des frühen 20. Jahrhunderts mit einer komplexen Interaktion zwischen zwei großen ozeanischen Zyklen zusammenhängt: der AMO und der NAO.

Link: https://wattsupwiththat.com/2021/02/15/southeast-greenland-sea-surface-temperature-1-2c-warmer-in-1940-than-today-new-study-shows/

Übersetzt von Chris Frey EIKE

 




Modelle auf Schrottniveau: Sogar kurzfristig liegen die Klima- und Wetter-Modellierer völlig falsch

Vorhersage von TWC ist ein hoffnungsloser Fall

Es stellt sich heraus, dass sich die Modelle auf dem Niveau einer Müllhalde befinden, wenn es um die Vorhersagegüte geht. Beispielsweise hat The Weather Channel (TWC) vor noch gar nicht so langer Zeit seine Winter-Prognose bis zum März veröffentlicht:

Das Gebiet der USA, das jetzt von einer der schlimmsten Kältewellen der letzten 100 Jahre heimgesucht wird, wurde tatsächlich als „weit über normal“ oder „deutlich über normal“ prognostiziert. Bis jetzt ist genau das Gegenteil passiert. Sie haben es nicht kommen sehen.

Wir müssen uns fragen, was man heutzutage braucht, um eine Lizenz zur Wettervorhersage zu erhalten, und wir müssen Mitleid mit den Unternehmen und Industrien haben, die sich auf diese verpfuschten Vorhersagen verlassen haben.*

[Siehe hierzu die Ergänzung am Ende dieses Beitrags!]

Dennoch sind dies die Art von Vorhersagen, auf die die Politiker bestehen und daher sofortige (kostspielige) Maßnahmen ergreifen müssen und rechtfertigen.

Das El Nino-Debakel des PIK

Ein weiteres Beispiel für kurz- bis mittelfristige Vorhersagen sind die El-Niño-Ereignisse, die globale Auswirkungen haben. Die Fähigkeit, diese Ereignisse genau vorherzusagen, wäre ein sehr wertvolles Werkzeug.

Und vor nicht allzu langer Zeit behauptete das Potsdam-Institut für Klimafolgenforschung (PIK) in Deutschland, ein Modell entwickelt zu haben, das diese Ereignisse mit einer Wahrscheinlichkeit von 80% vorhersagen kann. In einer PIK-Pressemitteilung vom November 2019 rühmte sich das renommierte Forscherteam, ein neues, weitaus besseres Modell entwickelt zu haben, das in der Lage sei, ein El-Niño-Ereignis Ende 2020 ein Jahr im Voraus zu prognostizieren.

Jetzt, im Februar 2021, sind die Ergebnisse da und sie sind vernichtend: Die äquatoriale Pazifikregion 3.4 befindet sich in der Nähe von La-Nina-Bedingungen, also im völligen Widerspruch zu den warmen Prognosen des Potsdam-Instituts. Das „bahnbrechende“ PIK-Modell, das zum Teil von Prof. Hans-Joachim Schellnhuber entwickelt wurde, ist ein kompletter Fehlschlag und völlig falsch:

Die obige ECMWF-Grafik zeigt ENSO-Prognosen für den Zeitraum Juli 2020 bis Januar 2021 (viele dünne rote Linien) im Vergleich zu gemessenen SSTA im Nino-Gebiet 3.4 (blaue gestrichelte Linie).

Die ECMWF-Prognosen waren im Durchschnitt etwa ein Grad Celsius zu warm. Seit August 2020 gibt es La-Niña-Bedingungen mit Messwerten von -0,5°C Abweichung und kälter.

Müll-Modelle

„Das ‚bahnbrechende‘ PIK-Modell produzierte Modellmüll und brachte die deutsche ‚Klimawissenschaft‘ weltweit in Verruf. Zudem sieht es derzeit so aus, als wolle uns die kalte La Niña bis 2022 weiter abkühlen“, berichtet Schneefan hier [in deutscher Sprache]

Link: https://notrickszone.com/2021/02/19/junk-grade-models-even-short-term-climate-and-weather-modelers-get-it-all-wrong/

Übersetzt von Chris Frey EIKE

—————————–

Hier folgen jetzt noch ein paar Anmerkungen zum Thema Wettervorhersage/-prognose von einem Fachmann mit über 40 Jahren Erfahrung in diesem Bereich:

Ergänzung: Allgemeine Bemerkungen zu Vorhersagen und Prognosen

Dipl.-Met. Christian Freuer

Jeder erfahrene Synoptiker kann ohne weiteres allein aufgrund der aktuellen Meldungen (Boden-Wettermeldungen, Satellit, Radar, …) ziemlich exakte Prognosen für den aktuellen und immer noch recht genaue Prognosen für ein bis zwei Tage im Voraus erstellen. Für erwartete Tendenzen sind Modelle jedoch dienlich, wobei der Grenze zwischen „raten“ und „vorhersagen/prognostizieren“ immer mehr verschwimmt, je weiter man in die Zukunft schaut. Wenn man das als geschätztes Verhältnis ausdrückt, kommt man nach 72 Stunden (3 Tage) zu einem Verhältnis von etwa 70 zu 30, das ist schon eine recht große Unsicherheit. Nach 168 Stunden (7 Tage) schätzt der Autor dieses Verhältnis umgekehrt, also etwa auf 30 (Vorhersage) bis 70 (raten). Das variiert jedoch auch stark.

Hier hat der Autor schon ausführlicher zu diesem Problem Stellung genommen. Siehe am Ende jenes Beitrags.

Fazit: nach 7 Tagen (!) bleibt nur noch raten – da kann man sich leicht ausrechnen, wie die Prognosegüte nach 7 Jahren, um nicht zu sagen 70 Jahren aussieht – also bis etwa zum Ende dieses Jahrhunderts.

Außerdem ist es ein großer Unterschied, wie groß das Gebiet ist, für das man eine Prognose erstellen will. Ob es in Mitteleuropa (oder in den USA wie im obigen Beitrag) während der nächsten 7 Tage eine Witterungs-Änderung (nicht Wetter-Änderung!) gibt, ist noch ziemlich gut anhand von Modellsimulationen abzuschätzen (also im „large scale“). Je kleiner jedoch das Gebiet gemacht wird, umso mehr verkürzt sich der Zeitraum für halbwegs zuverlässige Prognosen. Ist das Gebiet sehr kleinräumig (im „meso-/small scale“), ist u. U. schon nach wenigen Stunden keine exakte Prognose mehr möglich. Jeder Prognostiker, der z. B. an einem heißen Sommertag morgens für den Nachmittag teils schwere Gewitter prognostizieren muss, kann davon ein Lied singen. Man weiß, dass es irgendwo in Süddeutschland zu solchen Ereignissen kommen wird, aber wo genau?

Sehr erfahrene Prognostiker können das aber anhand aktueller Meldungen tatsächlich mit einer gewissen Wahrscheinlichkeit über 50% abschätzen (Wahrscheinlichkeit ≤50% = raten). Dabei geht es darum, möglichst genau den Ort des ersten Auftretens einer solchen Entwicklung zu erkennen. Wenn die ersten Gewitter erst einmal entstanden sind, wird die Abschätzung der Verlagerung derselben wieder etwas einfacher.

Nun wird es auch in der numerischen Simulation kleinräumiger Starkniederschläge sicher noch Fortschritte geben. Der Autor ist vor 7 Jahren aus dem operationellen Dienst ausgeschieden und hat Weiterentwicklungen in diesem Bereich seitdem nicht mehr verfolgt.

Aber zurück zum Thema. Jahreszeiten-Prognosen sind derzeit nicht möglich und werden es nach Einschätzung des Autors auch nie sein. Das gilt zumindest für den numerischen Ansatz. Anders sieht es aus, wenn man statistische Verfahren zugrunde legt. Hierzu haben Kämpfe et al. schon viele Beiträge auf diesem Blog veröffentlicht, wobei gar nicht genug gewürdigt werden kann, wie Kämpfe et al. die Abschätzungen im Nachhinein auswerten wie zuletzt bzgl. des Winters 2019/2020 hier. Das werden sie sicher auch nach diesem Winter wieder tun.

Merke: Je kleiner das Gebiet, für das man eine Prognose erstellt, und je länger im Voraus eine solche erstellt wird, umso größer wird die Unsicherheit!

Und: Zumindest für den Kurzfristzeitraum gilt (im wörtlichen und übertragenen Sinne), was man sich heute fast schon abgewöhnt hat: Man sollte auch mal aus dem Fenster schauen! Draußen ist das Wetter, nicht im Bildschirm!

 




Virologin: Klimawandel erzeugt Pandemien – durch Waldzerstörung, statt Waldvermehrung

Die drei erwähnten Forscher vom Potsdam-Institut für Klimaforschungsfolgen PIK, der Uni Cambridge und Hawaii-Monoa meinten, daß der Lebensraum von Fledermäusen und Gürteltieren wegen der Erderwärmung größer geworden sei, und damit auch ihre Vielfalt und Virenlast gestiegen sei.

Sandra Junglen, Virologin aus dem Institut von Christian Drosten an der Berliner Charité, die über Arboviren forscht, meint nun im Interview mit der Zeit, daß die Abnahme von Lebensraum und Artenvielfalt der Grund für erhöhte Virengefahr sei.

Wer Pandemien verhindern will, muß ursprüngliche Ökosysteme wie den Regenwald erhalten, denn die Zerstörung von Ökosystemen und der damit einhergehende Verlust der Artenvielfalt begünstigen neuartige Infektionserkrankungen.

Also genau andersherum wie bei den Kollegen ein paar Tage zuvor. Was stimmt denn nun? Mehr Natur = Pandemie, oder weniger Natur = Pandemie? Man fühlt sich an die Aussagen von Latif, Rahmstorf & Co. erinnert, nach denen so ziemlich jede Wetterlage, superkalt wie sehr heiß, ein glasklares Anzeichen für den menschgemachten Klimawandel sei.

Das Verquicken zweier Mode-Themen in den Wissenschaften ist meist glasklares Anzeichen für Pseudowissenschaft, die sich an die politisch erwünschte Erzählung hängt, um an Forschungsmittel zu kommen. Soziologen nutzen seit langem den sogenannten „Intersektionalismus“ (die Schnittmengenbildung), um neue Forschungsthemen zu generieren.

Die Arboviren von Frau Junglen sind übrigens typisch für Insekten und andere Gliederfüßer (Arthropoden, z.B. Tausendfüßer, Spinnen, Silberfische, Krebse…) und gar nicht einmal unprominent: Gelb-, das West-Nil- und das Dengue- Fieber gehören zu den schweren Erkrankungen, die von Arboviren verursacht werden.

Wie schätzt die Virologin das Risiko einer neuen Pandemie ein?

In exakten Zahlen lässt sich das nicht ausdrücken. Aber natürlich ist es sehr hoch, und es ist in den vergangenen Jahren gestiegen. Über eine Million Tierarten ist vom Aussterben bedroht und das Aussterben einzelner Arten führt wiederum dazu, dass andere Arten als Folge aussterben und sich der Prozeß dadurch noch weiter beschleunigt. Der Klimawandel ist längst spürbar, und auch die durch ihn verursachten Veränderungen der Landschaft können zur Entstehung neuer Pandemien beitragen.

Pikanterweise erwähnt sie sogar die oben genannten Kollegen, thematisiert den Widerspruch aber nicht.




Klima-Versammlungen: Fake-Demokratie

Das bedeutet, dass es kein demokratisches Mandat dafür gibt, jede Regierungsentscheidung unter dem Aspekt des Klimas zu betrachten. Es gibt kein demokratisches Mandat dafür, Klimabelange zum Maßstab zu machen, nach dem alles in der Gesellschaft beurteilt, für mangelhaft befunden und dann zur Einhaltung gezwungen wird.

Gewählte Politiker sollten vermeintlich der Mechanismus sein, durch den die einfachen Menschen Einfluss auf die Regierungspolitik nehmen. Aber in den letzten Jahren haben die Politiker des gesamten politischen Spektrums den Faden verloren.

Die Stimme der menschlichen Wähler zu sein, die um Arbeitsplätze, sichere Wohnungen und gute Schulen kämpfen, ist so passé. Die selbsternannten und selbstbestimmten* Politiker haben beschlossen, dass ihre übergeordnete Verantwortung die Rettung des Planeten ist.

[*Unübersetzbares Wortspiel: Self-appointed and self anointed]

Aber diese Lockvogeltaktik ist nicht in Ordnung. Es ist nichts Bewundernswertes daran, den Wählern zu versprechen, ihr Leben zu verbessern, und sie dann zu verschaukeln, damit die Journalisten Sie als „Klima-Führer“ bezeichnen.

Die riesige Kluft zwischen dem, was die Menschen auf der Straße für wichtig halten, und dem, worüber die politische Klasse reden will, ist real. Sie hat sich über Jahrzehnte entwickelt und wird auch nicht verschwinden. Die Politiker haben daher das Bedürfnis, den Anschein öffentlicher Unterstützung für die drastischen Maßnahmen zu erwecken, auf denen ihre Träume von drastischer Emissionsreduktion beruhen.

In einem neu veröffentlichten Bericht mit dem Titel The UK Climate Assembly: Manufacturing Mandates erklärt Ben Pile, wie das funktioniert. 108 Mitglieder der Öffentlichkeit wurden rekrutiert, um an einem Konsultationsprozess teilzunehmen. Die absurde Prämisse scheint gewesen zu sein, dass in einer Nation mit 67 Millionen Menschen die Unterstützung einer Kerngruppe von 108 Personen ausreicht, um Regierungsmaßnahmen zu rechtfertigen.

Der Konsultationsprozess sollte ursprünglich vier Wochenenden umfassen, wurde aber wegen der Pandemie verlängert. Das ist ein weiteres Warnsignal. Menschen, die in der Lage und bereit sind, vier Wochenenden ihrer Zeit zu opfern, sind ungewöhnlich. Diese 108 Personen waren keineswegs eine Zufallsstichprobe der britischen Bürger.

Außerdem waren alle wichtigen Entscheidungen vorherbestimmt. Es gab keine Debatte darüber, ob der Klimawandel die Agenda der Regierung dominieren sollte. Das wurde einfach als gegeben hingenommen.

Es gab keine Debatte darüber, ob die Pläne der Regierung, „alle Sektoren der Wirtschaft und Gesellschaft“ dazu zu zwingen, bis zum Jahr 2050 Netto-Null-Emissionen zu erreichen, sinnvoll, machbar oder realistisch sind. Auch das wurde als selbstverständlich hingenommen.

Angepriesen als Gelegenheit, mit der Öffentlichkeit zu arbeiten, die Öffentlichkeit einzubeziehen und den Menschen ein Mitspracherecht bei der Gestaltung der Zukunft zu geben, war die Klima-Versammlung das Äquivalent dazu, 108 Menschen zu fragen, auf welchem Farbteller sie ihre Ration Brot und Wasser serviert haben möchten.

Das war vorgetäuschte Demokratie. Es war absoluter Fake.

Download Pile’s important report here

Link: https://nofrakkingconsensus.com/2021/02/08/climate-assemblies-faking-democracy/

Zu diesem Beitrag hat Donna Laframboise noch eine Ergänzung verfasst, die hier im Anschluss folgt:

9% Zustimmung: also machen wir es zur Politik der Regierung

<b>Donna Laframboise</b>
Strippenzieher der Klimaille machten „weniger Fleisch“ zu einem Schlüsselfaktor der Politik – trotz einer nur sehr geringen Zustimmung der Bevölkerung.

Es gibt eine seltsame neue Schöpfung da draußen. Bekannt als UK-Klimaversammlung [Climate Assembly], ist es eine aufwendige Fälschung – ein Prozess, bei dem Politiker, Bürokraten und Aktivisten versuchen, jeden zu überzeugen, dass die Öffentlichkeit drakonische Klimamaßnahmen unterstützt (siehe meinen Beitrag oben).

Ben Pile, der Autor eines Berichts über die jüngste Klimaversammlung in Großbritannien, hat das obige 8-minütige Video produziert. Er erklärt, dass die Klimaversammlung in kleinere Gruppen aufgeteilt wurde, als der Fleischkonsum diskutiert wurde. Nur 35 Personen – und nicht die volle Anzahl von 108 – befassten sich mit diesem Thema.

Diese 35 Personen hörten sich einseitige Präsentationen darüber an, dass rotes Fleisch nicht nur schlecht für die Gesundheit, sondern auch schlecht für den Planeten ist. Bei 2:42 Minuten im Video hören Sie, wie die Wissenschaftlerin Rosie Green, die sich auf „nachhaltige Ernährung“ spezialisiert hat, sie berät:

Wir wissen, dass rotes und verarbeitetes Fleisch mit einer Reihe von Gesundheitszuständen in Verbindung gebracht wird. So ist es mit Herzkrankheiten verbunden, es ist mit Schlaganfällen verbunden, es ist mit bestimmten Arten von Krebs verbunden, wie Darmkrebs, und es ist auch mit Diabetes verbunden.“

Given this tepid level of support it’s astonishing to read, on page 20 of the massive final report, that eating less meat is a Climate Assembly “key recommendation.” It’s astonishing to further read:

Später wurden diese 35 Personen gebeten, vier Ideen (aus einer längeren Liste) auszuwählen, von denen sie dachten, dass die Regierung sie „berücksichtigen“ sollte, wenn sie „Entscheidungen über Lebensmittel, Landwirtschaft und Landnutzung trifft.“ Weniger Fleisch zu essen war keine beliebte Wahl. Nur 29% stimmten dafür. Das bedeutet, dass es nur von 10 dieser 35 Personen unterstützt wurde.

Um es noch einmal zu wiederholen: Die meisten der 108 Mitglieder der Klimaversammlung wurden nicht zum Thema Fleischkonsum befragt. Zwei Drittel derjenigen, die gefragt wurden (25 von 35 Personen), unterstützten eine Reduzierung des Fleischkonsums als Mittel zur Bekämpfung des Klimawandels nicht. Nur 10 Personen taten dies – das sind gerade einmal 9% aller Mitglieder der Klimaversammlung.

[Hervorhebung im Original]

Angesichts dieser lauwarmen Unterstützung ist es erstaunlich, auf Seite 20 des umfangreichen Abschlussberichts zu lesen, dass weniger Fleisch zu essen eine „Schlüsselempfehlung“ der Klimaversammlung ist. Es ist noch erstaunlicher weiter zu lesen:

Die Mitglieder der Versammlung empfahlen…eine Änderung der Ernährung, um den Fleisch- und Milchkonsum um 20 bis 40 % zu reduzieren – die Versammlung betonte die Bedeutung der Bildung und sagte, dass diese Änderungen freiwillig und nicht zwingend sein sollten.

Wie bitte? Wie können 25 Personen, die nicht für weniger Fleisch sind, gegenüber 10 Personen, die dafür sind, zu einer allgemeinen Empfehlung führen, den Milch- und Käsekonsum fast zu halbieren?

Es wird noch schlimmer, denn Verzerrungen haben die Angewohnheit, immer verzerrter zu werden, und Übertreibungen werden immer übertriebener. Bei der 4:45-Minuten-Marke im Video erklärt Mike Thompson, ein Beamter des britischen Ausschusses für Klimawandel, schamlos:

Wow. Just wow. Does climate change render us incapable of distinguishing truth from lies?

Die Klimaversammlung sagte, dass sie mit einer 20- bis 40-prozentigen Reduktion des Fleischkonsums zufrieden wäre. Wir haben uns die Empfehlungen der Klimaversammlung sehr genau angeschaut… Falls man sich die Zeit nimmt, die Leute anzuleiten, ihnen zu erklären, warum die Veränderungen notwendig sind und was alles passieren muss, sind sie wirklich bereit zu handeln. (Fettdruck hinzugefügt)

Wow. Einfach nur wow. Macht uns der Klimawandel unfähig, die Wahrheit von der Lüge zu unterscheiden?

Link: https://nofrakkingconsensus.com/2021/02/10/9-support-lets-make-it-government-policy/

Übersetzt von Chris Frey EIKE

Anmerkung des Übersetzers: Dies ist sicher nur ein kleiner Teilaspekt, der jedoch zeigt, wie die Klimaille wirklich tickt. Nach Ansicht des Übersetzers kann man das gar nicht oft genug darlegen!

 




Sebastian Lüning im Bundestags-Ausschuß: Debatte zur CO2-Bepreisung

Ausschnitte eines Öffentlichen Fachgespräches zum Thema „CO2-Bepreisung“ aus dem Deutschen Bundestag am 3. April 2019. Der Geowissenschaftler Dr. Sebastian Lüning wirbt in seinem Redebeitrag sowie in den nachfolgenden zwei Fragerunden für mehr Realismus in der Klimadebatte. Zudem erinnert er daran, dass neben der ökologischen auch die soziale und wirtschaftliche Nachhaltigkeit berücksichtigt werden sollten. 

Original-Quelle des Videos: Deutscher Bundestag, https://www.bundestag.de/ausschuesse/… Dr. Lüning ist Mitautor des Buches „Unerwünschte Wahrheiten: Was Sie über den Klimawandel wissen sollten“: https://www.amazon.de/gp/product/3784…




Woher kommt der Strom? Das komplette Spektrum des Stromhandels

(Abbildung, bitte unbedingt anklicken. Es öffnen sich alle Abbildungen und & Mehr)

(Abbildung 1)

Ihre höchst anspruchsvolle Aufgabe ist es jetzt noch, den Strombedarf Deutschlands zu sichern. Denn der regenerativ erzeugte Strom reicht dafür bei weitem nicht aus. Ist die Bedarfsdeckung aus welchen Gründen auch immer mittels Eigenerzeugung bundesdeutscher Kraftwerke nicht möglich, muss der fehlende Strom importiert werden (Abbildung 2). Weil Deutschland den Strom dringend benötigt, sind die Preise, die von Deutschland gezahlt werden müssen, entsprechend hoch. Dieser Sachverhalt ist zu Beginn der fünften Woche zu beobachten.

Zum Ende der Woche ist das Gegenteil der Fall. Da reicht der erneuerbar erzeugte Strom zwar auch nicht aus. Er hat sich in der Spitze gegenüber dem Wochenanfang aber vervierfacht. Musste zu Beginn der Woche noch Strom importiert werden, muss nunmehr überschüssiger Strom exportiert werden. Die konventionellen Erzeuger haben die Stein- und Braunkohlestromerzeugung sowie die Gasstromerzeugung massiv und – ich gehe davon aus – so weit möglich herunterfahren. Dennoch ist so viel Strom im Markt, dass er verschenkt werden muss (Abbildung 3). Manchmal sogar mit einem kleinen Bonus.

In der Wochenmitte gelingt die Nachführung, die Anpassung der konventionellen Stromerzeugung an die regenerative bis auf eine Ausnahme recht ordentlich. Es muss kein Strom verschenkt oder hinzugekauft werden. Die Ausnahme am 4.2.2021 von 16:00 bis 20:00 Uhr belegt, wie unberechenbar, wie schwer kalkulierbar die regenerative Stromerzeugung ist. Wurden um 12:00 Uhr nach knapp 30 GW regenerativ produziert, waren es um 16:00 Uhr nur noch gut 13 GW. Da kamen die Konventionellen nicht nach: Der fehlende Strom musste hochpreisig importiert werden. Von dieser Ausnahme abgesehen bewegten sich die Preise in der Wochenmitte zwischen 30 und 60€/MWh. Zahlungen, die Deutschland für den Strom kassierte, den es exportierte (Abbildung 3).

Die Tabelle mit den Werten der Energy-Charts und der daraus generierte Chart: Abbildung 4. Unter Abbildung 5 liegen die Im-, Exportcharts des aufgelaufenen Jahres und der fünften Woche ab.

Bemerkenswert ist, dass der regenerativ erzeugte Strom auch in der fünften Woche nur zweimal ausgereicht hätte, wenn Wind- und Solarstrom doppelt so hoch gewesen wäre, als es tatsächlich der Fall war. In den 38 bisher analysierten Tagen des Jahr 2021 waren es insgesamt nur sechs Tage, an denen eine angenommene Verdoppelung Wind- und Solarstrom ausgereicht hätte, um den Strombedarf Deutschlands zumindest im Tagesdurchschnitt zu decken (Abbildung 6).

Selbstverständlich dürfen der Energierechner (Abbildung 7) und die Stromdatenanalyse (Abbildung 8) nicht fehlen. Mit diesem Tool/der neuen Analyse-Webseite können viele weitergehende Berechnungen und Simulationen in Sachen Strom und Energiewende gefahren werden. Mit tatsächlichen Werten und vollkommen ideologiefrei.

Die Tagesanalysen

Montag, 1.2.2021: Anteil erneuerbare Energieträger an der Gesamtstromerzeugung 29,80 Prozent, davon Windstrom 17,22 Prozent, Solarstrom 1,99 Prozent, Strom Biomasse/Wasserkraft 10,6 Prozent. Die Agora-Chartmatrix: Hier klicken.

Montag, Werktag. Der Strombedarf ist hoch. Die regenerative Stromerzeugung ist ab Mittag gering. Die Konventionellen kommen nicht nach. Stromimporte werden notwendig. Es werden die höchsten Preise der Woche aufgerufen. Diese Nachbarn profitieren.

Dienstag, 2.2.2021: Anteil erneuerbare Energieträger an der Gesamtstromerzeugung 28,86 Prozentdavon Windstrom 16,11 Prozent, Solarstrom 2,01 Prozent, Strom Biomasse/Wasserkraft 10,74 Prozent. Die Agora-Chartmatrix: Hier klicken.

Noch eine Preisspitze am heutigen Dienstag. Über Tag zieht die Stromversorgung mittels Wind- und Solarkraft an. Eine für Deutschland preisentspannte Wochenmitte wird ab Mittag eingeläutet. Die konventionellen Stromproduzenten passen ihre Erzeugung der regenerativen an. Die von Deutschland von diesen Nachbarn erzielten Exportpreise sind insgesamt nahezu auskömmlich.

Mittwoch, 3.2.2021: Anteil erneuerbare Energieträger an der Gesamtstromerzeugung 47,80 Prozentdavon Windstrom 36,48 Prozent, Solarstrom 1,26 Prozent, Strom Biomasse/Wasserkraft 10,06 Prozent. Die Agora-Chartmatrix: Hier klicken.

Gut ein Drittel des heutigen Bedarfs wird über den Tag erzeugt. Den konventionellen Stromproduzenten gelingt die Nachführung.  Spitzenpreise von über 50€/MWh erzielt Deutschland für seinen Exportstrom. Natürlich wie immer per Saldo von diesen Nachbarn. Bemerkenswert: Frankreich exportiert die gesamte Woche Strom nach Deutschland.

Donnerstag, 4.2.2021: Anteil erneuerbare Energieträger an der Gesamtstromerzeugung 39,10 Prozent, davon Windstrom 24,36 Prozent, Solarstrom 4,49 Prozent, Strom Biomasse/Wasserkraft 10,26 Prozent. Die Agora-Chartmatrix: Hier klicken.

Ein entspannter Tag bis auf die oben bereits erwähnte Ausnahme. Die schnell fallende regenerative Stromerzeugung verursacht eine Stromlücke zur Vorabendzeit, die hochpreisig geschlossen werden muss. Die konventionellen Stromproduzenten konnten oder wollten die Lücke nicht schließen. Viele Nachbarn machten Preisdifferenzgeschäfte.

Freitag, 5.2.2021: Anteil erneuerbare Energieträger an der Gesamtstromerzeugung 40,00 Prozent, davon Windstrom 27,10 Prozent, Solarstrom 2,58 Prozent, Strom Biomasse/Wasserkraft 10,32 Prozent. Die Agora-Chartmatrix: Hier klicken.

Ein ertragreicher Tag für die bundesdeutsche Stromerzeugung. Gleichmäßige, eine für die Konventionellen gut nachführbare regenerative Stromerzeugung. Immer leicht über dem Bedarf. Der Handelstag fällt wieder durch die hohen Stromexporte Frankreichs nach Deutschland auf. Der Südwesten benötigt Strom. Strom, der dort seit dem Abriss des Kernkraftwerks Philippsburgs eben aus Frankreich kommt.

Samstag, 6.2.2021: Anteil Erneuerbare an der Gesamtstromerzeugung 60,67 Prozent, davon Windstrom 48,00 Prozent, Sonnenstrom 2,00 Prozent, Strom Biomasse/Wasserkraft 10,67 Prozent. Die Agora-ChartmatrixHier klicken.Sonntag, 14.2.2021: Anteil erneuerbare Energieträger an der Gesamtstromerzeugung 65,33 Prozent, davon Windstrom 53,33 Prozent, Sonnenstrom 1,33 Prozent, Strom Biomasse/Wasserkraft 10,67 Prozent. Die Agora-Chartmatrix: Hier klicken.

Das Wochenende bringt viel erneuerbar erzeugten Strom. Die konventionellen Kraftwerke können nicht so stark gedrosselt werden, dass die Übererzeugung gering bleibt. Also fallen die Preise zeitweise ins Bodenlose. Die beiden Handelstage im Detail.

Peter Hager aus Lauf in Franken hat wesentliche Zahlen zur E-Mobilität zusammengestellt:

Wie vermutet sind die PKW-Neuzulassungen im Monat 01/2021 stark eingebrochen:

Gesamt: 169.754 (gegenüber dem Vorjahr -31,1%)

  • Hybrid (inkl. Plug-in): 45.449 (gegenüber dem Vorjahr +47,5%)
  • E-Antrieb: 16.315 (gegenüber dem Vorjahr +117,8%)

Mehr Zulassungen gegenüber dem Vorjahresmonat hatten bei den Herstellern lediglich:

  • Tesla: 453 Fahrzeuge (gegenüber dem Vorjahr +23,4%)
  • Volvo: 3.624 (gegenüber dem Vorjahr 9,4%)

Der Anteil an gewerblichen Anmeldungen lag im Gesamtjahr 2020 lag bei 63%. Wenn man 01/2021 mit 12/2020 vergleich schaut die Situation auch bei der E-Mobilität negativ aus:

Gesamt: 169.754 (gegenüber 12/2020: -45,5%)

  • Hybrid (incl. Plug-In): 45.449 (gegenüber. 12/2020: -43,9%)
  • E-Antrieb: 16.315 (gegenüber 12/2020: -62,6%)

Damit dürfte die MwSt. – Reduzierung im zweiten Halbjahr von 2020 einen beträchtlichen Vorzieheffekt bei den Neufahrzeugen gehabt haben.

Weitere detaillierte Auswertungen von Peter Hager bietet Abbildung 9

Noch Fragen? Ergänzungen? Fehler entdeckt? Bitte Leserpost schreiben! Oder direkt an mich persönlich: stromwoher@mediagnose.de. Alle Berechnungen und Schätzungen durch Rüdiger Stobbe nach bestem Wissen und Gewissen, aber ohne Gewähr.

Die bisherigen Artikel der Kolumne Woher kommt der Strom? mit jeweils einer kurzen Inhaltserläuterung finden Sie hier.




Die politische Ökonomie von Massenhysterie und Panik

Das optimale Risikoniveau ist niemals null. Sonst würde morgens niemand aufstehen. Aber selbst im Bett zu bleiben ist riskant (Menschen sterben im Schlaf). Wenn man von zu Hause zur Arbeit fahren, ist das Risiko zu sterben ungleich Null. Wenn man von New York nach Los Angeles fliegt, ist das Risiko zu sterben ungleich Null. Wenn man eine verkehrsreiche Straße überquert, ist das Sterberisiko ungleich Null. Wenn man mit dem Fahrrad fährt, ist das Risiko zu sterben nicht Null.

Warum verhalten sich dann die meisten von uns in solchen Situationen so, als wäre das Risiko tatsächlich gleich Null? Die Antwort ist, weil es so gering ist, dass wir uns praktisch so verhalten können, falls es Null wäre, obwohl wir wissen, dass es das theoretisch nicht ist. Schließlich sterben jeden Tag Menschen bei Autounfällen und als Fußgänger, sie sterben auch, wenn auch viel seltener, bei Flugzeugunfällen, und einige von ihnen (Hunderte) kommen sogar jedes Jahr durch Blitzschlag ums Leben!

In den USA sterben jährlich sieben Menschen an der Beulenpest!

Dennoch haben wir nicht jeden Tag Angst davor, aus dem Haus zu gehen, weil wir von einem Auto oder einem Blitz getroffen werden könnten oder vom Fahrrad fallen und an einer Gehirnerschütterung sterben oder wie die Europäer des 14. Jahrhunderts enden, dezimiert durch die Pest. In den meisten alltäglichen Situationen sind Individuen gut darin, das Risikoniveau ihres eigenen Verhaltens zu managen.

Es ist jedoch viel interessanter zu untersuchen, was passiert, wenn das Risiko unklar ist, wenn die Informationen über relevante Umstände, die das Risikoniveau beeinflussen, höchst unsicher und unvollständig oder zumindest komplizierter einzuschätzen sind. In diesen Situationen neigt die menschliche Gesellschaft, besonders wenn die Politik ins Spiel kommt – und diese Politik ist eine demokratische -, fast wie von selbst dazu, schreckliche und selbstzerstörerische Entscheidungen zu treffen, die allesamt irrationale Panik und übermäßige Risikoaversion erzeugen und aufrechterhalten.

Die Menschen verhalten sich übermäßig ängstlich und tun viele dumme und irrationale Dinge, um die unnötige Angst, die sie empfinden, zu lindern. Es gibt mehrere psychologische und politische Mechanismen, die diese Dynamik erzeugen, die man als „die politische Ökonomie von Hysterie und Panik“ beschreiben könnte. Sie beinhaltet psychologische Mechanismen der Verzerrung durch Informations-Verfügbarkeit, der Handlungsverzerrung, der Broken-Window-Illusion sowie die weit verbreitete ethische Sichtweise des pathologischen Altruismus und die politische Dynamik der demokratischen Kurzsichtigkeit. All diese Faktoren verschwören sich oft auf unheilvolle Weise, um eine hysterische und irrationale Geisteshaltung gegenüber Risiken zu erzeugen, die zu äußerst irrationalen Entscheidungen führt.

[Alle Hervorhebungen im Original]

Beginnen wir mit der Verzerrung durch Informations-Verfügbarkeit. Sie kennen wahrscheinlich die Meinungsumfragen, die besagen, dass sich das Klima schneller verändert als je zuvor in der Geschichte und dass Naturkatastrophen stärker und häufiger werden; dass wir mehr Hurrikane, Dürren, Überschwemmungen und Erdbeben haben. Vielleicht gehören Sie selbst zu den Menschen, die das glauben. Doch es ist nicht wahr. Alle Berichte, die vom UN Intergovernmental Panel on Climate Change (IPCC) und anderen „wissenschaftlichen“ Organisationen zusammengestellt wurden zeigen, dass die meisten Naturkatastrophen nicht stärker werden und teilweise sogar an Intensität abnehmen.

Warum glauben dann allzu viele Menschen genau das Gegenteil? Die Antwort ist, dass die Medien die Geschichten über Katastrophen jeden Tag obsessiv aufblähen und übertreiben. Im Zeitalter von Satellitenfernsehen und Internet gibt es kein globales Unglück oder keine Katastrophe, die nicht sofort für jeden sichtbar gemacht wird, der Zugang zu moderner Technik hat – Hurrikane, Erdbeben, Waldbrand – alles wird sofort gesendet und immer von dramatischen, oft katastrophalen Hiobsbotschaften und Bildern begleitet.

Vor hundert Jahren wäre ein großer Hurrikan in Florida in den Nachrichten auf Seite 2 oder 3 der New York Times zu finden gewesen – das wäre alles gewesen. Die Menschen in der direkt betroffenen Region würden leiden und darüber nachdenken, der Rest des Landes und der Welt würde einfach mit ihrem Leben weitermachen, als ob nichts passiert wäre. Wenn heute ein großer Hurrikan Florida bedroht, verfolgen die Meteorologen im Fernsehen zuerst fünf Tage im Voraus seine Verstärkung, Änderungen in seiner Bahn, Kategorisierungen (Kategorie 5, habt Angst, habt große Angst), alles gefolgt von den beängstigenden (Satelliten-!) Bildern des Auges des Sturms, und tun ihr Bestes, um alle in Angst und Schrecken zu versetzen.

Man kann heutzutage den Fernseher oder sogar soziale Netzwerke nicht einschalten, ohne mit der Angstmacherei über den Hurrikan bombardiert zu werden. Gouverneure und lokale Bürgermeister würden tagelang vor dem Hurrikan zur Freude der Medien alle evakuieren, was die Panik weiter anheizen würde. Die Medien würden eine Woche lang über kaum etwas anderes reden. Wenn der Sturm schließlich zuschlägt, würde Chris Cuomo von CNN im Regen stehen, um zu demonstrieren, wie zäh er ist und auch, wie beängstigend der Sturm ist. Das Gleiche gilt in unterschiedlichem Ausmaß für jede andere Katastrophe in jedem anderen Land: Sie wird sofort zu einer großen Nachricht und bleibt es für eine lange Zeit.

Es sollte also niemenden schockieren, dass die meisten Menschen denken, Katastrophen wie Hurrikane würden viel häufiger vorkommen und schlimmer werden als es tatsächlich der Fall ist. Es ist eine bekannte kognitive Illusion, für die jeder anfällig ist, Dinge, die direkt sichtbar und beobachtbar sind, für häufiger und in gewissem Sinne für realer zu halten als solche, die man weniger oft sieht. […]

Conclusion

Die durch Massenhysterie und Panik gekennzeichneten Situationen des kollektiven Wahnsinns sind in einer demokratischen Gesellschaft kaum vernünftig zu handhaben. Eine positive Rückkopplungsschleife zwischen der medialen „Berichterstattung“ über reale oder eingebildete Katastrophen, dem Gefühl des Schreckens, der Panik und dem Drang der Öffentlichkeit, etwas zu tun, und der Reaktion der Politiker, diese kollektive Forderung nach rituellem Handeln zu befriedigen, machen einen ruhigen und rationalen Umgang mit der Situation nahezu unmöglich.

Die Forderung nach Handeln erzeugt den Druck, nicht als schwach und unentschlossen seitens der Politiker wahrgenommen zu werden, während die Informationsasymmetrie zwischen den sichtbaren, konzentrierten und identifizierbaren Vorteilen des „Handelns“ und den verzögerten, spekulativen und stärker verteilten Kosten des Handelns eine irrationale und ineffektive, aber ritualisierte Politik viel wahrscheinlicher macht. Die Maßnahmen, die zur Bewältigung der Covid-19-Pandemie ergriffen wurden, veranschaulichen diese Wahrheiten sehr schmerzhaft.

Der ganze Beitrag steht hier.

Link: https://www.thegwpf.com/the-political-economy-of-mass-hysteria-panic/

Übersetzt von Chris Frey EIKE

 




Das grausame Versprechen einer Zukunft mit erneuerbaren Energien und Wasserstoff

Es dauerte ungefähr ein Jahrzehnt, bis Politiker und Börsenspekulanten die hoffnungslose Unzuverlässigkeit und chaotische Unterbrechung von Solar- und Windkraft erkannt [zugegeben] hatten. Dies erforderte einen völlig neuen Ansatz der Schönredner der Anleger.

In den letzten ein oder zwei Jahren wurden mythische Mega-Batterien als perfekte Antwort ausgewählt.

Aber die Wirtschaft setzt sich eindeutig nicht dafür ein: Die größte Batterie der Welt – die den Steuerzahler coole 150 Mio USD gekostet hat – befindet sich auf einer Schafskoppel in der Nähe von Jamestown im mittleren Norden Südaustraliens und würde diesen angeblich wind- und solarbetriebenen Staat mit Strom versorgen Vier Minuten lang, wenn die Sonne untergeht und ruhiges Wetter einsetzt.

Diese Batterie ist kaum das Geld wert, besonders wenn Südaustraliens letztes Kohlekraftwerk (das rund um die Uhr betrieben werden kann) jahrzehntelang für knappe 25 Millionen Dollar hätte tuckern können – der Betrag, den sein Betreiber von der damaligen Weatherill Labor-Regierung verlangt hatte. Stattdessen beschimpfte Jay Weatherill die Besitzer der Anlage und hüpfte vor Freude, als das Kraftwerk vor drei Jahren gesprengt wurde. Wirtschaft war nie seine Stärke.

In letzter Zeit haben die Propagandisten ihre Aufmerksamkeit jedoch auf die Vorstellung gelenkt, dass wir bald Sonnenschein und Brise in eine endlose Versorgung mit praktisch freiem Wasserstoffgas verwandeln werden. Wie wir schon ein- oder zweimal betont haben, ist es ein perfekter Unsinn.

Die Ökonomie ist total dagegen – was bedeutet, dass Klingelbeutel weiterhin auf die endlosen Subventionen aus sind, nach denen sich die Anleger sehnen. Auch die Gesetze der Physik und Thermodynamik verbreiten Missmut. Das Wasserstoffgas ist sehr schwer zu speichern und korrosiv gegenüber Metallrohre und -gefäße. Oh, und es verabschiedet sich auch mit einem „Knall“

Exlposion einer Tankstelle

Ungeachtet dessen hat der Premierminister Scott Morrison lyrisch darüber gesprochen, dass Wasserstoff das Herzstück seines Ziels für „Netto-Null“ -Kohlendioxid-Emissionen ist, und die oppositionelle Labor Party ALP scheint ebenso wenig wie er mit der irdischen Realität in Berührung zu sein.

Jennie George, eine ihrer ehemaligen Bundesarbeitsabgeordneten und Gewerkschaftsboss-innen, gehört zu einer wachsenden Zahl von ALP-Dissidenten, die den Niedergang der australischen Industrie im verarbeitenden Gewerbe und in der Mineralverarbeitung aufhalten wollen. All dies wurde durch die Besessenheit von stark subventioniertem Wind und Sonne und die daraus resultierenden rasanten Strompreise verursacht, da die Nacht auf den Tag folgt.

Jennie bietet eine hilfreiche Realitätsprüfung für diejenigen, die glauben, dass sich ein Nirvana mit Wind-, Sonnen- und Wasserstoffantrieb direkt über dem Horizont befindet.

Die falschen Versprechen der Grünen-Energie

The Australian, Jennie George, 4 February 2021

Im Vorfeld der nächsten Bundestagswahlen werden [können?] die Wähler die konkurrierende Politik zur Umstellung auf CO2-Neutralität abwägen. Das Wie und Wann wird entscheidend sein.

Auch wenn Sie feststellen, dass die Kosten für Untätigkeit niedriger sind als die Kosten für Maßnahmen, wird die Zwangsabgabe nicht mehr gesenkt. Genauso wenig wie die Förderung von Investitionen ohne Annahmen, Kostenberechnungen oder spezifische Arbeitsplatzdaten.

Zahlen der Investitionen, die kürzlich vom neuen oppositionellen Klimawandel und Energiesprecher Chris Bowen zitiert wurden, sind ein Beispiel dafür, wie man sich auf umfassende Verallgemeinerungen stützt. Laut Deloitte werden durch den Übergang zu Netto-Null-Emissionen 250.000 Arbeitsplätze geschaffen, während 880.000 durch Untätigkeit verloren gehen.

Die 100.000 „Kohlenstoffarbeiter“ in Australien in den Bereichen Kohlebergbau, Gas- und Ölförderung, Erzeugung fossiler Brennstoffe und integrierte Stahlherstellung (vom Erz bis zum Produkt) haben Besseres verdient. Die Auswirkungen sind bei ihnen und ihren Familien, bei den indirekt damit beschäftigten Menschen und oft ganze regionale Volkswirtschaften zu spüren, die für diese Branchen arbeiten.

Nehmen Sie den Betrieb von BlueScope Steel in Port Kembla südlich von Sydney, einem Gebiet, das ich von 2001 bis 2010 im Parlament vertreten habe. Wenn BlueScope als unverzichtbare Industrie überleben soll, ist eine stärkere staatliche Unterstützung erforderlich. In jüngster Zeit war es als handelsgefährdete Industrie mit minimalen Zugeständnissen belastet. Nun musste es einen seiner Hochöfen stilllegen, es musste Personal abbauen, um zu überleben, es konkurrierte mit ausländischem billigem Stahl und es wurde nicht einmal zum Bau der neuen Tribüne in Wollongong eingesetzt.

Das Versprechen von Import-Ersatz-Strategien und vorgeschriebenen Beschaffungsstrategien zur Stützung der heimischen Lieferkette blieb erfolglos. So auch der Vorschlag für eine Kraft-Wärme-Kopplung KWK, der überschüssigen Strom ins Netz eingespeist hätte.

Bei der Stahlherstellung entstehen große Mengen brennbarer Abgase, die in die Atmosphäre abgegeben werden. Ein integriertes KWK-System würde diese zur Erzeugung von Dampf nutzen, der sowohl industriell als auch zur Stromerzeugung verwendet werden kann.

Das ist ein Projekt, das Unterstützung verdient. Es hat das Potenzial, eines der größten Emissionsminderungsprojekte des Landes zu sein und überschüssigen [und zuverlässigen] Strom in das Netz einzuspeisen.

Aber anstatt von sofortigen praktischen Lösungen zur Sicherstellung der dauerhaften Lebensfähigkeit einer wichtigen Branche in Angriff zu nehmen,  erzählt man uns jedoch vom magischen Übergang zu „grünem Stahl“.

Das Grattan-Institut hat in dem Bestreben, neuen Technologien einen praktischen Schwerpunkt zu geben, zunächst die Möglichkeit eines „grünen Stahls“ in Bezug auf Australien angesprochen. Grattan sieht sein Potenzial für Exporte und die Schaffung von Arbeitsplätzen im regionalen Australien. Es würde Wasserstoff aus erneuerbaren Energien verwenden, um metallurgische Kohle zu ersetzen.

Es war interessant zu hören, wie Scott Morrison diese Woche das Mantra des grünen Stahls annahm. Das Problem ist, dass es zwar Möglichkeiten für Lichtbogenöfen in Minimühlen bietet, jedoch nicht für die Stahlherstellung in Hochofen in Port Kembla geeignet ist. Auch hier ist es wichtig, keine falschen Erwartungen zu wecken.

Es ist schade, dass Befürworter solcher Technologien der Kommunity nicht die ganze Wahrheit sagen: Es gibt keine bewährten und wirtschaftlich tragfähigen Technologien, um Kohle / Koks im Herstellungsprozess für Hochofenstahl zu ersetzen, bei BlueScope in der Illawarra nicht und wahrscheinlich auch nicht woanders. Ist es ein wünschenswerter Übergang, wenn die integrierte Stahlherstellung für die Nation verloren geht? Versuchen Sie, die Tausende von Arbeitern und ihren Familien davon zu überzeugen, dass dies den Preis wert ist, den sie zahlen müssen.

Ebenso gibt es in der Hunter-Region von New South Wales Tausende Arbeitsplätze im Bergbau und in der Kohleverstromung. Diese werden besonders anfällig für vorgeschlagene Schritte zur CO2-Neutralität sein.

Die Tomago-Aluminiumschmelze in der Nähe von Newcastle ist ein wichtiger Arbeitgeber, dessen Zukunft problematisch ist. Die neu gegründete Hunter Jobs Alliance, angeführt von der Australian Metal Workers Union und dem Labor Environment Action Network, weckt fälschlicherweise die Erwartung, dass die Schmelze in Zukunft mit erneuerbaren Energien betrieben werden könnte.

Das Unternehmen arbeitet rund um die Uhr, beschäftigt direkt 950 Mitarbeiter und produziert 25 Prozent des australischen Aluminiums. Das Unternehmen steht auf der Liste derer, die [für eine begrenzte Zeit] abgeschaltet werden können / müssen, um weit verbreitete Stromausfälle zu vermeiden, wenn ein Sicherheitsrisiko für das Verteilsystem besteht.

Erneuerbare Energien sind weder wirtschaftlich rentabel noch können sie die erforderliche Zuverlässigkeit für den weiteren Betrieb der Schmelze garantieren. Die größte südaustralische Batterie würde allein nur diese Schmelze für weniger als 15 Minuten lang mit Energie versorgen können.

Die Rede von Labor über einen Beschäftigungs- und Emissionsvertrag und die Technologie-Roadmap der Regierung werden für die Bewertung künftiger Pläne durch die Gemeinschaft von entscheidender Bedeutung sein. Falsche Technologielösungen sind ebenso unentschuldbar wie die Rhetorik eines „gerechten Übergangs“, ohne die realen wirtschaftlichen Kosten und Beschäftigungsauswirkungen einer Umstellung auf CO2-Neutralität

The Australian

[„Hypern“ des Links hat nicht funktioniert!?]

https://www.theaustralian.com.au/commentary/the-false-promises-of-greentech-energy/news-story/31cbeed93b4562377f43ed6a7d27f8c4

 

https://stopthesethings.com/2021/02/07/technology-tease-on-the-cruel-promise-of-a-renewables-hydrogen-fuelled-future/

Übersetzt durch Andreas Demmig

***

Auch auf Eike gibt es bereits viele Beiträge zum Thema Wasserstoff, hier zwei davon

https://eike.institute/2020/07/28/strom-wasserstoffumwandlung-macht-u-a-dann-sinn-wenn-es-darum-geht-sehr-teuren-strom-zu-erzeugen/

https://eike.institute/2020/07/20/warum-der-gruener-wasserstoff-hype-in-europa-wahrscheinlich-ein-flop-wird/

***

Fundstück zum Wasserstoff Auto

Auf YouTube habe ich ein Interview mit Prof. Fritz Indra gehört

Daimler und BMW hatten H2 Brennstoffzellen in der Entwicklung, als Antrieb für einen E-Motor. Beides ist drangegeben worden.

Daimler forscht zusammen mit Volvo noch beim LKW weiter. Ein Problem ist die enorme Hitzeentwicklung, wenn der LKW einen Berg hochfährt, dann werden 400 … bis 500 kW benötigt – wohin mir der Wärme?

BMW hat nun wieder mit H2 angefangen, allerdings als Brennstoff für einen Kolbenmotor.

Dann gibt es noch das Problem mit den Tanks und Tankstellen.

Auf der Straße dürfen Tanks nur mit max. 50 bar Druck transportiert werden. An der Tankstelle muss es dann auf 1.000 bar verdichtet werden, damit es die kleinen Fahrzeugtanks mit 800 bar überhaupt befüllen kann. Allein der Prozess der Verdichtung schlugt 25 % bis 30 % der Energie, die (noch) im Wasserstoff vorhanden ist – ohne die Verluste bei der Gewinnung von Wasserstoff aus Wasser oder Methan.

– Damit ist ein guter Verbrennungsmotor (vor allem Diesel) leicht konkurrenzfähig, ohne die ganzen Probleme damit.

Wiedergabe des Interviews von Prof. Fritz Indra , ab 20:00 min zu obigem Thema , https://www.youtube.com/watch?v=PkbjkXTBsyw

(vorher das Gespräch über Batterieautos und das unwirtschaftliche, viel zu teure und daher nicht gemachte Recycling von LI Batterien, trotz Eu verbindlicher Quote – mein Ansatz: Belastung des Käufers mit diesen Kosten?)