1

Aktuelles Grand Solar Minimum wird globale Abkühlung bringen

In diesem Leitartikel werde ich anhand des neu entdeckten Proxy-Magnetfeldes für die Sonnenaktivität zeigen, dass die Sonne in das moderne Grand Solar Minimum (2020-2053) eingetreten ist, das zu einer signifikanten Reduktion des solaren Magnetfeldes und der Aktivität wie während des Maunder-Minimums führen wird, was zu einer spürbaren Abkühlung der Erdtemperatur führt.

Die Sonne ist die Hauptenergiequelle für alle Planeten des Sonnensystems. Diese Energie wird der Erde in Form von Sonnenstrahlung in verschiedenen Wellenlängen zugeführt, die als Total Solar Irradiance (TSI) bezeichnet wird. Die Schwankungen der solaren Bestrahlungsstärke führen zur Erwärmung der oberen Planetenatmosphäre und zu komplexen Prozessen des solaren Energietransports zur Planetenoberfläche.

Die Zeichen der Sonnenaktivität werden aus den zyklischen 11-Jahres-Schwankungen der Anzahl der Sonnenflecken auf der Sonnenoberfläche abgeleitet, wobei die gemittelte monatliche Anzahl der Sonnenflecken als Proxy für die Sonnenaktivität der letzten 150 Jahre verwendet wird. Die Sonnenzyklen wurden durch die Wirkung des solaren Dynamo-Mechanismus im Sonneninneren beschrieben, der magnetische Stränge am Boden der solaren Konvektionszone erzeugt.

Diese magnetischen Stränge wandern durch das Sonneninnere und erscheinen auf der Sonnenoberfläche, oder Photosphäre, als Sonnenflecken, die die Fußpunkte anzeigen, an denen diese magnetischen Stränge in die Photosphäre eingebettet sind.

Das Magnetfeld der Sonnenflecken bildet ein toroidales Feld, während das solare Hintergrundmagnetfeld ein poloidales Feld bildet. Der Solardynamo wandelt zyklisch das poloidale Feld in ein toroidales um und erreicht sein Maximum bei einem Sonnenzyklus-Maximum und dann das toroidale Feld zurück in das poloidale zu einem Sonnen-Minimum. Es ist offensichtlich, dass für die gleiche führende Polarität des Magnetfeldes in Sonnenflecken auf der gleichen Hemisphäre die Länge des Sonnenzyklus auf 22 Jahre verlängert werden sollte.

Trotz des Verständnisses des allgemeinen Bildes eines Sonnenzyklus war es ziemlich schwierig, die beobachteten Sonnenfleckenzahlen mit den modellierten in Einklang zu bringen, es sei denn, der Zyklus ist schon weit fortgeschritten. Diese Schwierigkeit ist ein deutlicher Hinweis auf einige fehlende Punkte in der Definition der Sonnenaktivität durch Sonnenfleckenzahlen, die unsere Aufmerksamkeit auf die Erforschung des solaren (poloidalen) Hintergrundmagnetfeldes (SBMF) lenkte [1].

Durch Anwendung der Principal Component Analysis (PCA) auf die niedrig aufgelösten Magnetogramme der gesamten Sonnenscheibe, die in den Zyklen 21-23 vom Wilcox Solar Observatory aufgezeichnet wurden, entdeckten wir nicht eine, sondern zwei Hauptkomponenten dieses solaren Hintergrundmagnetfeldes (siehe Abbildung 1, oberes Diagramm), die mit zwei magnetischen Wellen verbunden sind, die durch rote und blaue Linien markiert sind. Die Autoren leiteten mathematische Formeln für diese beiden Wellen ab, indem sie die Hauptkomponenten aus den Daten der Zyklen 21-23 mit der Reihe der periodischen Funktionen anpassten und diese Formeln zur Vorhersage dieser Wellen für die Zyklen 24-26 verwendeten. Es wurde festgestellt, dass diese beiden Wellen in verschiedenen Schichten des Sonneninneren erzeugt werden und nahe, aber nicht gleiche Frequenzen erreichen [1]. Die Summenkurve dieser beiden magnetischen Wellen (Abbildung 1, unterer Plot) zeigt die Interferenz dieser Wellen, die Maxima und Minima der Sonnenzyklen bilden.

Abbildung 1. Oberer Plot: zwei Hauptkomponenten (PC) des solaren Hintergrundmagnetfeldes (blaue und grüne Kurven, willkürliche Zahlen), ermittelt für die Zyklen 21-23 (historische Daten) und vorhergesagt für die Zyklen 24-26 unter Verwendung der mathematischen Formeln, abgeleitet aus den historischen Daten (aus den Daten von Zharkova et al. [1]). Der untere Plot: Die Summenkurve, abgeleitet aus den beiden obigen PCs für die „historischen“ Daten (Zyklen 21-23) und vorhergesagt für den Sonnenzyklus 24 (2008-2019), Zyklus 25 (2020-2031), Zyklus 26 (2031-2042) (aus den Daten von Zharkova et al. [1]).

Die Summenkurve zweier magnetischer Wellen erklärt viele Merkmale der 11-Jahres-Zyklen, wie z.B. Doppelmaxima in einigen Zyklen oder Asymmetrie der Sonnenaktivität in den gegenüberliegenden Hemisphären während verschiedener Zyklen. Zharkova et al. [1] verknüpften die Summenkurve des Moduls mit den gemittelten Sonnenfleckenzahlen für die Zyklen 21-23, wie in Abbildung 2 (oberer Plot) gezeigt, und erweiterten diese Kurve auf die Zyklen 24-26, wie in Abbildung 2 (unterer Plot) gezeigt. Es scheint, dass die Amplitude des zusammengefassten solaren Magnetfeldes, die in der Summenkurve dargestellt ist, in Richtung der Zyklen 24-25 abnimmt und im Zyklus 26 fast Null wird.

Abbildung 2. Obere Grafik: Die aus der Summenkurve (Abbildung 1, unterer Plot) erhaltene Modul-Summenkurve (schwarze Kurve) gegen die gemittelten Sonnenfleckenzahlen (rote Kurve) für die historischen Daten (Zyklen 21-23). Untere Grafik: Die Modul-Summenkurve in Verbindung mit den für die Zyklen 21-23 abgeleiteten (und für die Zyklen 24-26 berechneten) Sonnenfleckenzahlen (erstellt aus den Daten von Zharkova et al. [1]).

Zharkova et al. [1] schlugen vor, die Summenkurve als neuen Proxy für die Sonnenaktivität zu verwenden, der nicht nur die Amplitude eines Sonnenzyklus‘, sondern auch dessen führende magnetische Polarität des solaren Magnetfeldes markiert.

Abbildung 3. Rekonstruierte Kurve der Sonnenaktivität (Zusammenfassung) für 1200-3300 n. Chr. (erstellt aus den Daten von Zharkova et al. [1]).

Abbildung 3 zeigt die Summenkurve, die mit den abgeleiteten mathematischen Formeln für die kommenden 1200 Jahre und für die letzten 800 Jahre berechnet wurde. Diese Kurve zeigt das Auftreten von Großen Solarzyklen alle 350-400 Jahre, die durch die Interferenz von zwei magnetischen Wellen verursacht werden. Diese großen Zyklen werden durch die großen solaren Minima, oder Perioden sehr geringer Sonnenaktivität, getrennt [1]. Das vorhergehende große Sonnenminimum war das Maunder-Minimum (1645-1710), und das andere davor hieß Wolf-Minimum (1270-1350). Wie in Abbildung 3 aus der Vorhersage von Zharkova et al. [1] zu sehen ist, nähern sich in den nächsten 500 Jahren zwei moderne große solare Minima der Sonne: das moderne im 21. Jahrhundert (2020-2053) und das zweite im 24 Jahrhundert (2370-2415)

Die beobachteten Eigenschaften der beiden magnetischen Wellen und ihre Summenkurve wurden durch doppelte Dynamowellen, die von dipolaren magnetischen Quellen in zwei Schichten des Sonneninneren erzeugt werden, eng aneinander angepasst: innere und äußere Schichten [1], während andere drei Paare magnetischer Wellen von vierfachen, sechsfachen und achtfachen magnetischen Quellen erzeugt werden können, wobei die dipolare Quelle das sichtbare Erscheinungsbild der Sonnenaktivität an der Oberfläche bestimmt.

Derzeit hat die Sonne den Sonnenzyklus 24 abgeschlossen – den schwächsten Zyklus seit über 100 Jahren – und im Jahr 2020 beginnt der Zyklus 25. Während der Perioden geringer Sonnenaktivität, wie dem derzeitigen großen solaren Minimum, ist die Sonne oft frei von Sonnenflecken. Dies wird nun zu Beginn dieses Minimums beobachtet, denn im Jahr 2020 hat die Sonne bis August 115 fleckenfreie Tage (oder 78 %) gesehen, was bedeutet, dass 2020 auf dem besten Weg ist, den Weltraumrekord von 281 fleckenfreien Tagen (oder 77 %) für das gesamt Jahr zu übertreffen, der im Jahr 2019 beobachtet wurde. Der Start des Zyklus 25 ist jedoch immer noch langsam im Auftreten aktiver Regionen und Flares, so dass mit jedem zusätzlichen Tag/Woche/Monat, der vergeht, die Null in der Sonnenaktivität verlängert wird, was den Beginn des großen solaren Minimums markiert.* Welche Folgen hat dieser Rückgang der Sonnenaktivität für die Erde?

[*Der Beitrag datiert vom August 2020. Die aktuell immer noch fleckenfreie Sonne unterstreicht diese Aussagen. A. d. Übers.]

Die verringerte TSI während des Maunder-Minimums

Betrachten wir jetzt das Verhalten der Sonneneinstrahlung während des letzten großen Sonnenminimums – dem Maunder-Minimum. Während dieses Zeitraums erschienen nur sehr wenige Sonnenflecken auf der Sonnenoberfläche, und die Gesamthelligkeit der Sonne war leicht verringert.

Die Rekonstruktion der zyklusgemittelten solaren TSI zurück bis ins Jahr 1610 (Abbildung 4, oberes Diagramm) deutet auf eine Abnahme der TSI während des Maunder-Minimums um einen Wert von etwa 3 W/m² [2] hin, was etwa 0,22 % der gesamten solaren Bestrahlungsstärke im Jahr 1710 entspricht, nachdem das Maunder-Minimum beendet war.

Temperaturrückgang während des Maunder-Minimums

Von 1645 bis 1710 sanken die Temperaturen in weiten Teilen der nördlichen Hemisphäre der Erde, als die Sonne in eine Ruhephase eintrat, die heute als Maunder-Minimum bezeichnet wird. Dies geschah wahrscheinlich, weil die TSI um 0,22 % reduziert wurde, wie in Abbildung 4 (oberer Plot) [2] dargestellt, was zu einem Rückgang der durchschnittlichen Erdtemperatur, die hauptsächlich auf der Nordhalbkugel in Europa gemessen wurde, um 1,0-1,5 °C führte, wie in Abbildung 4 (unterer Plot) [3] dargestellt. Dieser scheinbar geringe Rückgang der Durchschnittstemperatur in der nördlichen Hemisphäre führte zu zugefrorenen Flüssen, kalten langen Wintern und kühlen Sommern.

Abbildung 4. Oberer Plot: Rekonstruierte TSI von 1600 bis 2014 von Lean et al. [2], modifiziert von Easterbrook [3], aus Lean, Beer, Bradley [2]. Unterer Plot: Mitteleuropa-Temperaturen (CET), die seit 1658 kontinuierlich aufgezeichnet wurden. Blaue Bereiche sind wiederkehrende kühle Perioden; rote Bereiche sind warme Perioden. Alle Zeiten der solaren Minima fielen mit kühlen Perioden in Mittelengland zusammen. Übernommen aus Easterbrook [3], mit Erlaubnis des Elsevier-Verlags.

Die Oberflächentemperatur der Erde sank überall auf dem Globus (siehe Abbildung 1 in [4]), besonders in den Ländern der nördlichen Hemisphäre. Europa und Nordamerika gerieten in eine Frostperiode: Die Alpengletscher dehnten sich über das Ackerland in den Tälern aus; das Meereis kroch von der Arktis nach Süden; die Flüsse Donau und Themse froren in diesen Jahren regelmäßig zu, ebenso wie die berühmten Kanäle in den Niederlanden.

Shindell et al. [4] konnten nachweisen, dass der Temperaturrückgang mit der Abnahme der Ozonmenge zusammenhängt, die durch das ultraviolette Licht der Sonne in der Stratosphäre gebildet wird, also der Schicht der Atmosphäre zwischen 10 und 50 Kilometern Höhe. Da die Sonne während des Maunder-Minimums insgesamt weniger Strahlung emittierte, einschließlich der starken ultravioletten Emission, wurde weniger Ozon gebildet, was sich auf die planetarischen hemisphärischen Wellen, die riesigen Mäander im Jetstream, auswirkte.

Shindell et al. [4] vermuten auf S. 2150, dass „eine Veränderung der planetarischen Wellen während des Maunder-Minimums die Nordatlantische Oszillation (NAO) – das Gleichgewicht zwischen einem permanenten Tiefdrucksystem in der Nähe von Grönland und einem permanenten Hochdrucksystem in seinem Süden – in eine negative Phase brachte, die dazu führte, dass es in Europa während des MM ungewöhnlich kalt blieb.“

Die Rolle des Magnetfeldes bei der terrestrischen Abkühlung in Grand Solar Minima

Doch nicht nur die Sonnenstrahlung zeigte sich während des Maunder-Minimums verändert. Es gibt noch einen weiteren Beitrag zur Reduzierung der Erdtemperatur während des Maunder-Minimums – das ist das solare Hintergrundmagnetfeld, dessen Rolle bisher übersehen wurde. Nach der Entdeckung [1] einer signifikanten Reduktion des Magnetfeldes im bevorstehenden modernen großen Sonnenminimum und während des Maunder-Minimums wurde erkannt, dass das solare Magnetfeld die Stärke der kosmischen Strahlung steuert, welche die planetaren Atmosphären des Sonnensystems einschließlich der Erde erreicht. Eine signifikante Reduktion des solaren Magnetfeldes während des großen solaren Minimums wird zweifellos zu einer Erhöhung der Intensität der galaktischen und extra-galaktischen kosmischen Strahlung führen, die wiederum zur Bildung von hohen Wolken in den terrestrischen Atmosphären führt und zur Abkühlung der Atmosphäre beiträgt, wie Svensmark et al. gezeigt haben [5].

Im letzten solaren Minimum zwischen den Zyklen 23 und 24 nahm die Intensität der kosmischen Strahlung um 19% zu. Gegenwärtig nimmt das in Abbildung 1 von Zharkova et al. [1] vorhergesagte solare Magnetfeld in der Sonne radikal ab, was wiederum zu einem starken Rückgang des interplanetaren Magnetfeldes der Sonne auf nur noch 4 nanoTesla (nT) von typischen Werten von 6 bis 8 nT führt. Diese Abnahme des interplanetaren Magnetfeldes führt natürlich zu einem signifikanten Anstieg der Intensität der kosmischen Strahlung, die in die Atmosphären der Planeten eindringt, wie von den jüngsten Weltraummissionen berichtet wird [6]. Daher schreitet dieser Prozess der Verringerung des solaren Magnetfeldes voran, wie von Zharkova et al. vorhergesagt [1], und sein Beitrag wird von den planetarischen Atmosphären, einschließlich der Erde, absorbiert werden. Dies kann die terrestrische Temperatur während des modernen großen solaren Minimums, das bereits im Jahr 2020 begonnen hat, verringern.

Der erwartete Rückgang der terrestrischen Temperatur während des derzeitigen Grand Solar Minimums

Diese Summenkurve zeigte auch das bevorstehende moderne große Sonnenminimum 1 in den Zyklen 25-27 (2020-2053) und das moderne große Sonnenminimum 2 (2370-2415) an. Dies wird in der modernen Zeit die einzigartigen niedrigen Aktivitätsbedingungen der Sonne bringen, die während des Maunder-Minimums auftraten. Es wird erwartet, dass während des modernen großen Sonnenminimums die Sonnenaktivität deutlich reduziert sein wird, wie dies während des Maunder-Minimums der Fall war (Abbildung 4, untere Grafik). Ähnlich wie beim Maunder-Minimum wird die Verringerung des solaren Magnetfelds, wie oben beschrieben, eine Abnahme der solaren Bestrahlungsstärke um etwa 0,22 % für die Dauer von drei Sonnenzyklen (25-27) für das erste moderne große Minimum (2020-2053) und vier Sonnenzyklen ab dem zweiten modernen großen Minimum (2370-2415) verursachen.

Dies wiederum kann während der nächsten drei Zyklen (25-27) des großen Minimums 1 zu einem Absinken der terrestrischen Temperatur um bis zu 1,0°C gegenüber der aktuellen Temperatur führen. Die stärksten Abkühlungsphasen werden während der lokalen Minima zwischen den Zyklen 25-26 und den Zyklen 26-27 auftreten, wenn das niedrigste Niveau der Sonnenaktivität erreicht wird, wenn man die Abschätzungen in Abbildung 2 (unterer Plot) und Abbildung 3 verwendet. Daher kann die Durchschnittstemperatur in der nördlichen Hemisphäre um bis zu 1,0°C im Vergleich zur aktuellen Temperatur sinken, die seit dem Maunder-Minimum um 1,4°C gestiegen war. Dies wird dazu führen, dass die Durchschnittstemperatur nur noch 0,4°C über der im Jahr 1710 gemessenen Temperatur liegt. Dann, nachdem das heutige große solare Minimum 1 vorbei ist, wird sich die Sonnenaktivität im Zyklus 28 in dem eher kurzen, aber kräftigen großen Sonnenzyklus zwischen 2053 und 2370 wieder normalisieren, wie in Abbildung 3 dargestellt, bevor es im Jahr 2370 zum nächsten großen solaren Minimum 2 kommt.

Conclusions

In diesem Leitartikel habe ich gezeigt, dass die jüngsten Fortschritte beim Verständnis der Rolle des solaren Hintergrundmagnetfeldes bei der Bestimmung der Sonnenaktivität und bei der Quantifizierung der beobachteten Größen des Magnetfeldes zu verschiedenen Zeiten eine zuverlässige langfristige Vorhersage der Sonnenaktivität auf einer Zeitskala von einem Jahrtausend ermöglichen. Dieser Ansatz zeigte, dass es nicht nur 11-jährige Sonnenzyklen gibt, sondern auch große Sonnenzyklen mit einer Dauer von 350-400 Jahren. Wir konnten zeigen, dass diese großen Zyklen durch die Interferenzen zweier magnetischer Wellen mit nahe beieinander liegenden, aber nicht gleichen Frequenzen gebildet werden, die durch die doppelte solare Dynamowirkung in unterschiedlichen Tiefen des Sonneninneren erzeugt werden. Diese großen Zyklen werden immer durch große solare Minima vom Typ des Maunder-Minimums getrennt, die in der Vergangenheit regelmäßig auftraten und die bekannten Maunder-, Wolf-, Oort-, Homeric- und andere große Minima bildeten.

Während dieser großen solaren Minima kommt es zu einer signifikanten Reduktion des solaren Magnetfeldes und der solaren Bestrahlungsstärke, die die Reduktion der terrestrischen Temperaturen erzwingen, die für diese Zeiträume aus der Analyse der terrestrischen Biomasse während der letzten 12.000 oder mehr Jahre abgeleitet wurden. Das jüngste große solare Minimum trat während des Maunder-Minimums (1645-1710) auf, das zu einer Verringerung der solaren Bestrahlungsstärke um 0,22 % gegenüber der heutigen und zu einer Verringerung der durchschnittlichen terrestrischen Temperatur um 1,0-1,5 °C führte.

Diese Entdeckung der doppelten Dynamowirkung in der Sonne brachte uns eine rechtzeitige Warnung vor dem bevorstehenden großen solaren Minimum 1, wenn das solare Magnetfeld und seine magnetische Aktivität um 70% reduziert sein werden. Diese Periode hat in der Sonne im Jahr 2020 begonnen und wird bis zum Jahr 2053 andauern. Während dieses modernen großen Minimums würde man eine Reduktion der durchschnittlichen terrestrischen Temperatur um bis zu 1,0°C erwarten, insbesondere während der Perioden der solaren Minima zwischen den Zyklen 25-26 und 26-27, z.B. in der Dekade 2031-2043.

Die Verringerung der terrestrischen Temperatur während der nächsten 30 Jahre kann für verschiedene Teile des Planeten wichtige Auswirkungen auf die wachsende Vegetation, die Landwirtschaft, die Nahrungsmittelversorgung und den Heizbedarf sowohl in der nördlichen als auch in der südlichen Hemisphäre haben. Diese globale Abkühlung während des bevorstehenden großen solaren Minimums 1 (2020-2053) kann für drei Jahrzehnte jegliche Anzeichen einer globalen Erwärmung ausgleichen und würde zwischenstaatliche Anstrengungen erfordern, um Probleme mit der Wärme- und Nahrungsmittelversorgung für die gesamte Erdbevölkerung anzugehen.

References

Link: https://www.tandfonline.com/doi/full/10.1080/23328940.2020.1796243

Übersetzt von Chris Frey EIKE

Anmerkung des Übersetzers: Noch einmal: der Beitrag datiert vom August 2020. Die gerade zu Ende gegangene 14-tägige Folge ohne Sonnenflecken unterstreicht die Aussagen der Autorin, auch wenn heute (19.2.) erstmals wieder Sonnenflecken auftauchen.

 




Abhängig­keit von Wind und Solar von fossilen Treib­stoffen ist eine Tatsache, an der man nicht vorbei kommt.

Chuck Schumer, der Vorsitzende der Demokraten im Senat, twitterte am 20. Januar 2021: „Die demokratische Mehrheit im Senat wird eine mutige Gesetzgebung auf den Weg bringen, um die Klimakrise zu besiegen, indem sie in saubere Infrastruktur und Produktion investiert. Es wird Millionen von guten Jobs für Amerikaner schaffen, unabhängig von der Postleitzahl.“

Biden kündigte Anfang des Monats an, dass er plant, die Genehmigung für die Keystone XL-Pipeline an seinem ersten Tag im Amt zu streichen. Bernie Sanders begrüßte den Schritt und twitterte: „“ch bin erfreut, dass Joe Biden die Keystone-Genehmigung aufheben wird[…] … Bei all den [sic] großen Krisen, mit denen Amerika konfrontiert ist, dürfen wir die existenziellste Bedrohung unseres Planeten nicht aus den Augen verlieren: den Klimawandel.“*

[*Siehe die Bemerkung des Übersetzers am Ende!]

Die Prämisse lautet also, dass fossile Brennstoffe den Klimawandel vorantreiben und große Ölprojekte wie die Keystone-Pipeline aufgegeben werden müssen. Sie erwarten, dass erneuerbare Energien die fossilen Brennstoffe ersetzen und nennen sie „sauber und grün“.

Aber ist das die Realität?

Es gibt ein dunkles Geheimnis, das weder die Biden-Administration noch die Mainstream-Medien zu diskutieren oder anzuerkennen bereit sind. Das ist die Tatsache, dass Energieerzeugungs-Technologien wie Wind und Solar von fossilen Brennstoffen abhängen.

Netz-Realität: Erneuerbare sind ohne fossile Treibstoffe absolut nutzlos!

Solarmodule können nachts oder bei starker Bewölkung keinen Strom erzeugen. Ebenso können Windturbinen keinen Strom erzeugen, wenn kein Wind weht, und selbst diejenigen in den Wind-Hotspots (wo es aufgrund der optimalen Windgeschwindigkeit ein höheres Potenzial zur Energieerzeugung gibt) sind nur zu bestimmten Jahreszeiten effizient.

Die Wind- und Solarindustrie plant, diese Nachteile durch den Einsatz von Backup-Strom zu kompensieren. Aber die derzeit verfügbaren Backup-Lösungen – einschließlich Batterien, Erdgas- (oder Diesel-) Turbinen mit offenem Kreislauf und Wasserkraftwerken – sind nicht in der Lage, Wind- und Solarenergie in einem groß angelegten Netzverbund zu unterstützen. Daher bleiben fossile Kraftwerke – und Kernkraftwerke – die einzigen zuverlässigen Backup-Lösungen, um die Netzversorgung aufrechtzuerhalten, wenn große Wind- und Solarnetzwerke keinen Strom erzeugen können.

Ein klassisches Beispiel für diese Ineffizienz und Unzuverlässigkeit der erneuerbaren Energien wurde Anfang dieses Monats in Deutschland beobachtet, wo die 110 Gigawatt installierte Kapazität der erneuerbaren Energien die Energienachfrage nicht decken konnte.

Abgesehen davon, dass sie nicht in der Lage waren, die Nachfrage zu befriedigen, war die Erzeugung in hohem Maße intermittierend und unvorhersehbar, was einen übermäßigen Druck auf die fossilen Kraftwerke ausübte, um die Nachfrage zu befriedigen.

Wenn weder Wind- noch Solarkraftwerke in Betrieb sind, werden die Auswirkungen der Volatilität in der Stromerzeugung an die Kunden weitergegeben, was zu Stromausfällen und erhöhten Stromkosten führt.

Wir brauchen kein zweites Kalifornien!

So auch bei den jüngsten Bränden in Kalifornien, als Gouverneur Gavin Newsom einräumte, dass erneuerbare Energien für die Stromausfälle im Bundesstaat verantwortlich waren.

„Wir können nicht die Zuverlässigkeit opfern, während wir weitergehen“, sagte er. „Wir haben es versäumt, diese Engpässe vorherzusagen und zu planen. Und das ist einfach inakzeptabel.“

Die Gleichung ist in Kalifornien ganz einfach: 36 % des Stroms in Kalifornien stammt aus erneuerbaren Energien, und wenn diese ausfallen – bei Bränden, Hitzewellen und in jeder Nacht – schaltet der Staat die Erdgaskraftwerke (fossile Brennstoffe) ein, um den Bedarf zu decken.

Aber auch Erdgaskraftwerke werden geschlossen, und der Staat importiert schließlich Strom von Nachbarn, die auf fossile Brennstoffe angewiesen sind, um ihn zu liefern.

Ab sofort sind die Staaten, die als „führend in erneuerbarer Technologie“ bezeichnet werden, auf fossile Brennstoffe angewiesen, um sie vor Stromausfällen zu bewahren.

Aber wenn das ganze Land dem Beispiel Kaliforniens folgt und die fossilen Kraftwerke abschaltet, wird es zu beispiellosen Stromausfällen kommen, wenn Wind und Sonne ausfallen, weil es keine Nachbarn gibt, von denen man den Strom importieren kann.

Erneuerbare Energien können einfach nicht den benötigten Strom zu einem erschwinglichen Preis liefern. Aber der blinde Glaube daran, dass sie es können, hat sich in Kalifornien und Deutschland als katastrophal erwiesen, die beide den Preis für ihre überschwängliche Umarmung der erneuerbaren Energien zahlen.

Bidens Clean Energy Plan und das Gerede seiner Regierung von der „Rettung des Planeten“ und der Entwicklung „sauberer Technologien“ zur Schaffung von Arbeitsplätzen mag moralisch ansprechend klingen. In Wirklichkeit ist es einfach nur himmelschreiender Unsinn.

[Hervorhebung vom Übersetzer]

This article was originally published on American Thinker.

Link: http://cornwallalliance.org/2021/02/wind-and-solar-dependency-on-fossil-fuels-is-a-fact-we-cannot-ignore

Übersetzt von Chris Frey EIKE

*Bemerkung des Übersetzers: Man fragt sich immer wieder, ob diese Herrschaften wirklich glauben, was sie da von sich geben. Wenn ja – Hilfe! Wer rettet uns vor dieser Katastrophe? Wenn nein – noch lauter: Hilfe! Was bezwecken diese Führer mit ihrer Politik?




GWPF klagt die Regierung an: Sie leistet Strompreisen und der Energie-Armut erheblich Vorschub

Summary

Die Kosten der Klimapolitik erhöhen die Energierechnungen um 10 Milliarden Pfund pro Jahr, die überproportional von ärmeren Menschen bezahlt werden.

Strompreise liegen um 40 % höher als ohne die Politik der Regierung

Menschen, die elektrisch heizen, zahlen bis zu £500 pro Jahr mehr

Während die Regierung immer mehr politische Kosten auf die Energierechnungen aufschlägt und die Verbraucher mit unerbittlichen Preissteigerungen konfrontiert werden, um für erneuerbare Energien und Notstrom zu bezahlen, hat die Regierung ihre neueste Politik zur Bekämpfung der Energiearmut veröffentlicht (Sustainable Warmth: Protecting Vulnerable Households in England).

Die Regierung ist eindeutig besorgt über die kombinierte Auswirkung von Abschalt- und Klimapolitikkosten auf einkommensschwache Haushalte und hat eine Reihe von Maßnahmen veröffentlicht, die diesen Verbrauchern Erleichterung verschaffen sollen. Die angekündigten Maßnahmen sind jedoch unzureichend und weichen dem Hauptproblem aus: der zunehmenden Belastung durch die steigenden Kosten der grünen Energiepolitik auf den Stromrechnungen.

Die Kosten der Klimapolitik erhöhen die nationale Stromrechnung um mehr als 10 Milliarden Pfund pro Jahr, wovon etwa ein Drittel von den Haushalten direkt über die Stromrechnung bezahlt wird, was den Preis um etwa 40 % (hier) im Vergleich zu dem Preis erhöht, der ohne die Politik angefallen wäre.

In Großbritannien gibt es ca. 2,2 Mio. Haushalte, die Strom zum Heizen verwenden. Davon befinden sich etwa 1,8 Mio. in England. Diese Haushalte haben in der Regel ein geringeres Einkommen, etwa ein Drittel hat ein Jahreseinkommen von weniger als £14.500 pro Jahr. Geht man von einem Preis von etwa £180/MWh (18p/kWh) aus, zahlt ein elektrisch beheizter Haushalt etwa £1.800 pro Jahr für die Heizung, wovon etwa £500 pro Jahr auf die Klima- und Energiepolitik entfallen.

Dr. John Constable, der Energieredakteur der GWPF, sagte:

Das Problem der Energiearmut, das elektrisch beheizte Haushalte mit niedrigem Einkommen betrifft, ist größtenteils das Ergebnis der Regierungspolitik und insbesondere der jährlichen Subventionskosten für erneuerbare Energien in Höhe von 10 Milliarden Pfund, von denen ein Drittel die Haushalte über ihre Stromrechnungen und der Rest über die allgemeinen Lebenshaltungskosten berappen müssen, da die Unternehmen ihre Kosten weitergeben.

Die Maßnahmen von Herrn Kwarteng sind völlig unzureichend, kratzen kaum an der Oberfläche des Stromrechnungsproblems und lassen das durch seine Klimapolitik verursachte Problem der Lebenshaltungskosten völlig unangetastet. Da Großbritannien auf elektrische Heizungen umsteigt, um die Emissionen zu reduzieren, wird dieses ohnehin schon ernste Problem nur noch schlimmer werden.“

Note for editors and bloggers

For further information:

* Green energy costs and fuel poverty

* GWPF calls on Government to suspend £10 billion green levy on suffering households

* Britain faces fuel poverty crisis as 7 million households face energy debt

* Rising electricity prices are forcing Britain’s poorest to underheat their homes

Link: https://www.thegwpf.com/gwpf-accuses-government-of-driving-up-electricity-prices-and-energy-poverty/

Übersetzt von Chris Frey EIKE

 




Auswirkungen der Coronavirus-Maßnahmen auf das CO2-Niveau

Abbildung 1: Unter Verwendung einer einfachen Methode1 zur Entfernung des großen saisonalen Zyklus aus den Mauna Loa CO2-Daten sowie der durchschnittlichen Auswirkungen von El Nino- und La Nina-Ereignissen wurde kein offensichtlicher Rückgang der globalen CO2-Werte beobachtet4. Analyse von Dr. Roy Spencer.

Klimaaktivisten erwarteten, dass dieser wirtschaftliche Aufschwung zu einem geringeren Energieverbrauch und damit zu weniger CO2-Emissionen weltweit führen würde. Das ist zwar in der Tat geschehen, mit einem Rückgang der Emissionen in China um 40 % und einer erwarteten 11-prozentigen Reduktion der CO2-Emissionen aus der Energieerzeugung in den USA in diesem Jahr, aber es hat sich nicht in den von ihnen gesuchten Beweis umgesetzt. Was die Wissenschaftler suchen, sind Beweise für einen Rückgang der globalen atmosphärischen CO2-Konzentration, die stark genug wären, um sie dem wirtschaftlichen Abschwung zuzuschreiben.

Der Klimawissenschaftler Dr. Roy Spencer von der University of Alabama hat eine einfache Methode1 verwendet, um den großen saisonalen CO2-Zyklus2, der auf die jahreszeitlich bedingten Zu- und Abnahmen der pflanzlichen Photosynthese zurückzuführen ist, aus den CO2-Daten des Mauna Loa zu entfernen, ebenso wie die durchschnittlichen Auswirkungen von El-Nino- und La-Nina-Ereignissen, die die Rate der Ausgasung von CO2 im Ozean verändern. Das Ergebnis: Es wurde kein offensichtlicher Rückgang des globalen CO2-Gehalts beobachtet3,4.

Wie in Abbildung 1 zu sehen ist, zeigen die neuesten CO2-Daten keinen Abwärtstrend, sondern nur eine Welle, die anderen Wellen in der Grafik nicht unähnlich ist, als es noch keine Krise und keinen daraus resultierenden Wirtschaftsabschwung gab. Die Zeitung USA Today führte einen Faktencheck zu diesem Thema durch und kam zu dem gleichen Ergebnis.

Die Earth System Research Laboratories der NOAA untersuchten das Thema ebenfalls5 und kamen zu dem Schluss:

Der Rückgang der Emissionen muss groß genug sein, um sich von der natürlichen CO2-Variabilität abzuheben, die dadurch entsteht, wie Pflanzen und Böden auf saisonale und jährliche Schwankungen von Temperatur, Luftfeuchtigkeit, Bodenfeuchte usw. reagieren. Diese natürlichen Schwankungen sind groß, und bis jetzt fallen die ‚fehlenden‘ Emissionen nicht auf.“

Es gibt eindeutig keinen Hinweis darauf, dass die erzwungenen Reduktionen irgendeine Auswirkung auf den globalen CO2-Gehalt hatten, was darauf hindeutet, dass die natürlichen Kräfte, wie z.B. die Ausgasung von CO2 aus den Ozeanen, die vom Menschen verursachten Beiträge überwiegen. Dies deutet ferner darauf hin, dass die Aufrufe der Klimaalarmisten, den Verbrauch fossiler Brennstoffe, den Autoverkehr, Flugreisen, den Rindfleischkonsum und eine ganze Litanei von Beschwerden, die sie über moderne, das Leben erleichternde Energieanwendungen vorbringen, wenig oder gar keinen Effekt haben werden, falls sie wie gefordert umgesetzt werden.

Zusammengefasst sind folgende Punkte bedeutsam:

Einige Klimaaktivisten feierten die wirtschaftliche Abschaltung aufgrund der Coronavirus-Pandemie und stellten fest, dass sie den größten Rückgang der globalen CO2-Emissionen aller Zeiten verursachte.

Die gesamte Weltwirtschaft schrumpfte als Folge der Abschaltungen, und die Vereinigten Staaten sind auf dem Weg zu einer 40%igen Reduktion im zweiten Quartal 2020.

● Der Weltmarktführer bei den CO2-Emissionen China verzeichnete einen geschätzten Rückgang der CO2-Emissionen um 25 %, während die Energy Information Administration eine Reduktion der energiebedingten CO2-Emissionen in den USA um 11 % in diesem Jahr vorhersagt.

● Trotz abstürzender Volkswirtschaften und großer Kürzungen im Reiseverkehr, in der Industrie und bei der Energieerzeugung haben Klimawissenschaftler noch keinen Hinweis auf einen Rückgang der atmosphärischen CO2-Werte gefunden.

● Die Tatsache, dass trotz massiver globaler Sperrungen und wirtschaftlicher Härten die atmosphärischen CO2-Werte überhaupt nicht gesunken sind, deutet darauf hin, dass die Forderungen der Klimaaktivisten nach einer globalen Reduktion des Energieverbrauchs ineffektiv und katastrophal sind und Jahrzehnte dauern würden.

Further reading:

  1. Is the COVID-19 Economic Downturn Affecting Atmospheric CO2? Mauna Loa Data Say, Not Yet Dr. Roy Spencer March 22nd, 2020  https://www.drroyspencer.com/2020/03/is-the-covid-19-economic-downturn-affecting-atmospheric-co2-mauna-loa-data-say-not-yet/
  2. Seasonal Changes in Carbon Dioxide NASA’s Scientific Visualization Studio May 4th, 2017https://svs.gsfc.nasa.gov/4565
  3. March 2020 CO2 Levels at Mauna Loa Show No Obvious Effect from Global Economic Downturn Dr. Roy Spencer April 7th, 2020 https://www.drroyspencer.com/2020/04/march-2020-co2-levels-at-mauna-loa-show-no-obvious-effect-from-global-economic-downturn/
  4. Why the Current Economic Slowdown Won’t Show Up in the Atmospheric CO2 Record Dr. Roy Spencer May 15th, 2020 http://www.drroyspencer.com/2020/05/why-the-current-economic-slowdown-wont-show-up-in-the-atmospheric-co2-record/
  5. Can we see a change in the CO2 record because of COVID-19? NOAA Earth System Research Laboratories May 2020 https://www.esrl.noaa.gov/gmd/ccgg/covid2.html

View this page as a printable PDF: CAAG-coronavirus-vs-CO2Download

Link: https://climateataglance.com/climate-at-a-glance-coronavirus-impact-on-co2-levels/

Übersetzt von Chris Frey EIKE

 




Wissenschaft­liche Bildung in der Klassenstufe K-12* ist katastro­phal geworden

Barbash blickt zuerst auf die historische Entwicklung und dann darauf, wo wir heute stehen. Die Verankerung der großen grünen Botschaft kam in den 60er und 70er Jahren so richtig in Gang, bis zu dem Punkt, an dem es jetzt in der Lehrerausbildung und in den Lehrbüchern einfach zur Tagesordnung gehört. Kein Wunder, dass Millionen aufmarschieren.

Aber jetzt wird es systematisch noch viel schlimmer. Die sogenannten Next Generation Science Standards (NGSS) betreffen mehr als ein Drittel der K-12-Schüler an öffentlichen Schulen in Amerika, und es werden immer mehr. Die staatlichen Wissenschaftsstandards legen fest, was in den einzelnen Klassenstufen gelehrt werden soll. Die herkömmlichen staatlichen Standards sind relativ neutral, wenn es um grüne Propaganda geht, während die NGSS voll davon sind. Sie kümmern sich auch nicht viel um wissenschaftliche Kenntnisse.

Der Artikel steckt voller großartiger Zitate. Die Historie betreffend lautet ein gutes davon aus dem Jahr 1983:

Zumindest im Moment beherrschen ökologische Weltuntergangs-Propheten das kulturelle Geschehen. Feuer-und-Schwefel-Logik wird in Schulbüchern im ganzen Land mit Angst-und-Weltuntergangs-Psychologie kombiniert. Die Geschichte könnte Zehntausende Male erzählt werden, über Kinder in öffentlichen und privaten Schulen, in Gymnasien und Grundschulen, mit konservativen und mit liberalen Lehrern, in reichen und in armen Vierteln. Eine Flutwelle des Pessimismus ist über das Land geschwappt und hat Trauer, Verzweiflung, Unbeweglichkeit und Lähmung hinterlassen. … Warum sollten unsere Schüler in die Irre geführt werden?

Dieser „Moment“ hält seit fast 30 Jahren an, und die Unkenrufe werden mit dem Einsetzen der Klimawandel-Hysterie nur noch schlimmer.

Hier ist Barbashs knappe Zusammenfassung: „Diese Angst hat die Lehrpläne seit den 1970er Jahren mit einer immer länger werdenden Liste von Alarmen durchsetzt: Pestizide, Smog, Wasser- und Luftverschmutzung, Waldbrände, Artensterben, Überbevölkerung, Hungersnot, Regenwaldzerstörung, Verknappung natürlicher Ressourcen, Ozonabbau, saurer Regen und die große absorbierende Panik unserer Zeit: die globale Erwärmung.

Diese Prämissen bestimmen alles, was mit Umwelterziehung zu tun hat: die Lernstandards, die die Bundesstaaten den Schulbezirken auferlegen; die Stellungnahmen der Verbände der Wissenschaftslehrer; die Kursarbeit und die Texte in den Schulen; die Ausbildung, die Pädagogen während ihrer gesamten Laufbahn erhalten; und die Lehrbücher, Unterrichtspläne, Exkursionen und Hausaufgaben, die in allen Klassenstufen erteilt werden.“

Die NGSS setzen wirklich auf die Klimawandel-Hysterie. Hier ist, wie Barbash es erklärt:

Der Begriff ‚Klimawandel‘ erscheint in dem Dokument als „Kerngedanke‘ für die Mittel- und Oberstufe. Das Phänomen wird als Tatsache dargestellt, ebenso wie seine angeblichen Folgen – Verlust der Artenvielfalt, Aussterben von Arten, veränderte Niederschlagsmuster, Störung der globalen Nahrungsmittelversorgung, Verlust von Gletschereis und Massenmigration aufgrund des steigenden Meeresspiegels. Nirgendwo steht in den Standards, dass sowohl die Natur des Phänomens als auch seine Folgen Gegenstand heftiger Debatten sind oder dass es konkurrierende Theorien zur Erklärung des Klimawandels gibt – und zwar nicht von Flacherde-Anhängern oder ungläubigen Pfaffen, sondern von ernsthaften Wissenschaftlern.“

In den meisten konventionellen staatlichen Standards ist der Klimawandel ein untergeordnetes Thema, das im Erdkundeunterricht der High School unterrichtet wird, einem Wahlfach also, das viele Schüler nicht belegen. Die NGSS machen die Klimaschrecken jedoch zu einem Pflichtthema in der Mittelstufe, wenn die meisten Schüler noch zu jung sind, um sie zu hinterfragen. Bis heute haben 19 Staaten die alarmistischen NGSS angenommen.

Barbash sagt, dass auch die Bundesbehörden sehr aktiv sind, um die grüne Klimapropaganda voranzutreiben:

Mindestens 15 staatliche oder staatlich finanzierte Websites bieten kostenloses Unterrichtsmaterial über den Klimawandel und seine Gefahren an. Zu den Einrichtungen gehören die National Oceanic and Atmospheric Administration NOAA, die National Science Foundation, die National Aeronautics and Space Administration (NASA), die National Institutes of Health, das U.S. Energie-Ministerium und das U.S. Global Change Research Program. Die Websites bieten Tausende von Ressourcen, darunter Unterrichtspläne, Spiele und Videos für alle Klassenstufen. Keine einzige Website, die von der Regierung oder von Universitäten oder K-12-Bildungsgruppen finanziert wird, ist dem Unterricht über die wissenschaftliche Debatte gewidmet.“

Auch wie die NGSS Wissenschaft lehrt wird treffend beleuchtet:

Die Next Generation Science Standards (NGSS)sind so verworren, dass es schwer vorstellbar ist, wie sie irgendjemandem helfen sollen, überhaupt Wissenschaft zu unterrichten, geschweige denn eine sich schnell verändernde, umstrittene Wissenschaft wie die Klimatologie. Viele Konzepte sind zu allgemein gehalten. Hier ist einer für die dritte bis fünfte Klasse: ‚Die Bedürfnisse und Wünsche der Menschen ändern sich mit der Zeit, ebenso wie ihre Anforderungen an neue und verbesserte Technologien.‘ Viele Leistungserwartungen sind unklar. Hier ist einer für Kindergärtner: ‚Analysieren Sie Daten, um festzustellen, ob eine Konstruktionslösung wie beabsichtigt funktioniert, um die Geschwindigkeit oder Richtung eines Objekts durch Drücken oder Ziehen zu ändern.‘ Welche Art von Daten wird ein Fünfjähriger analysieren? Andere Standards packen zu viel Wissenschaft in eine Aussage, oft ohne ausreichende Anleitung aus früheren Klassenstufen. Dieser Standard für die High School würde einen Studenten herausfordern: ‚Analysieren Sie geowissenschaftliche Daten und die Ergebnisse globaler Klimamodelle, um eine evidenzbasierte Vorhersage über die aktuelle Geschwindigkeit des globalen oder regionalen Klimawandels und die damit verbundenen zukünftigen Auswirkungen auf das System Erde zu treffen‘.

Auch ich denke, die NGSS sind ein großer Schritt zurück, wenn es um den Unterricht in den Naturwissenschaften geht. An vielen Stellen ersetzen sie die detaillierten wissenschaftlichen Kenntnisse, die in den staatlichen Standards gefordert werden, durch hoffnungslos vage Konzepte.

Noch schlimmer ist, dass diese vagen Konzepte in eine 3-D-Matrix eingebettet sind. Die NGSS ersetzen nicht nur abstrakte Konzepte anstelle von wissenschaftlichem Wissen, sondern haben auch eine dreidimensionale Struktur. Sie erkennen nicht, dass, wenn jede Dimension nur 20 Konzepte hat, es 8.000 Kombinationen gibt. Bei je 100 Konzepten dann 1.000.000 Kombinationen.

Somit sind die NGSS ein Rezept für Verwirrung. In der Tat denke ich, dass sie Probleme mit den Tests haben. Im Fall der NGSS sollte es nationale oder internationale Testergebnisse geben, die auf staatlicher Ebene verfügbar werden, damit wir sehen können, wie gut oder schlecht der Unterricht unter diesen seltsamen neuen Standards abschneidet.

Kurz gesagt, die grüne Propaganda im K-12-Wissenschaftsunterricht ist schon seit Jahrzehnten ein wachsendes Problem. Aber jetzt, unter den Next Generation Science Standards, wird es schnell noch viel schlimmer. Es gibt viel mehr über diese grüne Welle in Barbashs Artikel, so dass ich ihn sehr empfehlen kann.

Die wissenschaftliche Bildung in Amerika befindet sich im Übergang – und auf einem verheerenden Weg.

Autor: David Wojick, Ph.D. is an independent analyst working at the intersection of science, technology and policy. For origins see http://www.stemed.info/engineer_tackles_confusion.html For over 100 prior articles for CFACT see http://www.cfact.org/author/david-wojick-ph-d/ Available for confidential research and consulting.

Link: https://www.cfact.org/2021/02/16/american-k-12-science-education-gone-bad/

Übersetzt von Chris Frey EIKE




Neue Studie: In den 1940er Jahren war es vor Grönland wärmer als heute

Mit Dank an Die kalte Sonne.

Karte des Gebiets Skjoldungen. Die Stelle, an welcher der Kern gezogen worden war, ist durch einen roten Stern gekennzeichnet. Bild: Wangner et al.

Der Kern umfasst die letzten 200 Jahre (1796-2013). Die Wissenschaftler stellen fest, dass der SST-Datensatz gut mit anderen Alkenon-basierten Rekonstruktionen aus SE-Grönland vergleichbar ist und somit eine regionale Schelfwasser-Variabilität aufweist.

Heute behaupten einige Wissenschaftler gerne, dass die Gegenwart wärmer ist als zu jedem anderen Zeitpunkt in den letzten 1000 Jahren und dass die grönländischen Eisschilde schnell schmelzen. Aber die Ergebnisse der Kern-Rekonstruktion zeigen, dass es in der Vergangenheit, vor etwa 80 Jahren, noch wärmer war.

Vor 80 Jahren war es wärmer

Die rekonstruierten SSTs zeigen in der Tat „hohe Amplitudenschwankungen zwischen 5°C und 12°C, insbesondere während des 20. Jahrhunderts“.


Wie die rekonstruierten Meeresoberflächentemperaturen in diesem Gebiet zeigen, war es in den 1940er Jahren genauso warm oder noch wärmer. Die Periode von 1915 – 1950 war auf einem ähnlichen Niveau wie heute, also passiert derzeit nichts Ungewöhnliches.

Die Autoren sagen auch, dass, obwohl die Schmelzwasserproduktion durch das Klima beeinflusst worden sein könnte, die Position des Gletscherrandes und das Kalben von Eisbergen im 20. Jahrhundert relativ konstant blieben.

Modelle bilden Grönland schlecht ab

Die dänischen Wissenschaftler fordern nun, dass die grönländischen Gletscher in den Klimamodellen besser berücksichtigt werden und sagen, dass die ungewöhnliche Wärme des frühen 20. Jahrhunderts mit einer komplexen Interaktion zwischen zwei großen ozeanischen Zyklen zusammenhängt: der AMO und der NAO.

Link: https://wattsupwiththat.com/2021/02/15/southeast-greenland-sea-surface-temperature-1-2c-warmer-in-1940-than-today-new-study-shows/

Übersetzt von Chris Frey EIKE

 




Modelle auf Schrottniveau: Sogar kurzfristig liegen die Klima- und Wetter-Modellierer völlig falsch

Vorhersage von TWC ist ein hoffnungsloser Fall

Es stellt sich heraus, dass sich die Modelle auf dem Niveau einer Müllhalde befinden, wenn es um die Vorhersagegüte geht. Beispielsweise hat The Weather Channel (TWC) vor noch gar nicht so langer Zeit seine Winter-Prognose bis zum März veröffentlicht:

Das Gebiet der USA, das jetzt von einer der schlimmsten Kältewellen der letzten 100 Jahre heimgesucht wird, wurde tatsächlich als „weit über normal“ oder „deutlich über normal“ prognostiziert. Bis jetzt ist genau das Gegenteil passiert. Sie haben es nicht kommen sehen.

Wir müssen uns fragen, was man heutzutage braucht, um eine Lizenz zur Wettervorhersage zu erhalten, und wir müssen Mitleid mit den Unternehmen und Industrien haben, die sich auf diese verpfuschten Vorhersagen verlassen haben.*

[Siehe hierzu die Ergänzung am Ende dieses Beitrags!]

Dennoch sind dies die Art von Vorhersagen, auf die die Politiker bestehen und daher sofortige (kostspielige) Maßnahmen ergreifen müssen und rechtfertigen.

Das El Nino-Debakel des PIK

Ein weiteres Beispiel für kurz- bis mittelfristige Vorhersagen sind die El-Niño-Ereignisse, die globale Auswirkungen haben. Die Fähigkeit, diese Ereignisse genau vorherzusagen, wäre ein sehr wertvolles Werkzeug.

Und vor nicht allzu langer Zeit behauptete das Potsdam-Institut für Klimafolgenforschung (PIK) in Deutschland, ein Modell entwickelt zu haben, das diese Ereignisse mit einer Wahrscheinlichkeit von 80% vorhersagen kann. In einer PIK-Pressemitteilung vom November 2019 rühmte sich das renommierte Forscherteam, ein neues, weitaus besseres Modell entwickelt zu haben, das in der Lage sei, ein El-Niño-Ereignis Ende 2020 ein Jahr im Voraus zu prognostizieren.

Jetzt, im Februar 2021, sind die Ergebnisse da und sie sind vernichtend: Die äquatoriale Pazifikregion 3.4 befindet sich in der Nähe von La-Nina-Bedingungen, also im völligen Widerspruch zu den warmen Prognosen des Potsdam-Instituts. Das „bahnbrechende“ PIK-Modell, das zum Teil von Prof. Hans-Joachim Schellnhuber entwickelt wurde, ist ein kompletter Fehlschlag und völlig falsch:

Die obige ECMWF-Grafik zeigt ENSO-Prognosen für den Zeitraum Juli 2020 bis Januar 2021 (viele dünne rote Linien) im Vergleich zu gemessenen SSTA im Nino-Gebiet 3.4 (blaue gestrichelte Linie).

Die ECMWF-Prognosen waren im Durchschnitt etwa ein Grad Celsius zu warm. Seit August 2020 gibt es La-Niña-Bedingungen mit Messwerten von -0,5°C Abweichung und kälter.

Müll-Modelle

„Das ‚bahnbrechende‘ PIK-Modell produzierte Modellmüll und brachte die deutsche ‚Klimawissenschaft‘ weltweit in Verruf. Zudem sieht es derzeit so aus, als wolle uns die kalte La Niña bis 2022 weiter abkühlen“, berichtet Schneefan hier [in deutscher Sprache]

Link: https://notrickszone.com/2021/02/19/junk-grade-models-even-short-term-climate-and-weather-modelers-get-it-all-wrong/

Übersetzt von Chris Frey EIKE

—————————–

Hier folgen jetzt noch ein paar Anmerkungen zum Thema Wettervorhersage/-prognose von einem Fachmann mit über 40 Jahren Erfahrung in diesem Bereich:

Ergänzung: Allgemeine Bemerkungen zu Vorhersagen und Prognosen

Dipl.-Met. Christian Freuer

Jeder erfahrene Synoptiker kann ohne weiteres allein aufgrund der aktuellen Meldungen (Boden-Wettermeldungen, Satellit, Radar, …) ziemlich exakte Prognosen für den aktuellen und immer noch recht genaue Prognosen für ein bis zwei Tage im Voraus erstellen. Für erwartete Tendenzen sind Modelle jedoch dienlich, wobei der Grenze zwischen „raten“ und „vorhersagen/prognostizieren“ immer mehr verschwimmt, je weiter man in die Zukunft schaut. Wenn man das als geschätztes Verhältnis ausdrückt, kommt man nach 72 Stunden (3 Tage) zu einem Verhältnis von etwa 70 zu 30, das ist schon eine recht große Unsicherheit. Nach 168 Stunden (7 Tage) schätzt der Autor dieses Verhältnis umgekehrt, also etwa auf 30 (Vorhersage) bis 70 (raten). Das variiert jedoch auch stark.

Hier hat der Autor schon ausführlicher zu diesem Problem Stellung genommen. Siehe am Ende jenes Beitrags.

Fazit: nach 7 Tagen (!) bleibt nur noch raten – da kann man sich leicht ausrechnen, wie die Prognosegüte nach 7 Jahren, um nicht zu sagen 70 Jahren aussieht – also bis etwa zum Ende dieses Jahrhunderts.

Außerdem ist es ein großer Unterschied, wie groß das Gebiet ist, für das man eine Prognose erstellen will. Ob es in Mitteleuropa (oder in den USA wie im obigen Beitrag) während der nächsten 7 Tage eine Witterungs-Änderung (nicht Wetter-Änderung!) gibt, ist noch ziemlich gut anhand von Modellsimulationen abzuschätzen (also im „large scale“). Je kleiner jedoch das Gebiet gemacht wird, umso mehr verkürzt sich der Zeitraum für halbwegs zuverlässige Prognosen. Ist das Gebiet sehr kleinräumig (im „meso-/small scale“), ist u. U. schon nach wenigen Stunden keine exakte Prognose mehr möglich. Jeder Prognostiker, der z. B. an einem heißen Sommertag morgens für den Nachmittag teils schwere Gewitter prognostizieren muss, kann davon ein Lied singen. Man weiß, dass es irgendwo in Süddeutschland zu solchen Ereignissen kommen wird, aber wo genau?

Sehr erfahrene Prognostiker können das aber anhand aktueller Meldungen tatsächlich mit einer gewissen Wahrscheinlichkeit über 50% abschätzen (Wahrscheinlichkeit ≤50% = raten). Dabei geht es darum, möglichst genau den Ort des ersten Auftretens einer solchen Entwicklung zu erkennen. Wenn die ersten Gewitter erst einmal entstanden sind, wird die Abschätzung der Verlagerung derselben wieder etwas einfacher.

Nun wird es auch in der numerischen Simulation kleinräumiger Starkniederschläge sicher noch Fortschritte geben. Der Autor ist vor 7 Jahren aus dem operationellen Dienst ausgeschieden und hat Weiterentwicklungen in diesem Bereich seitdem nicht mehr verfolgt.

Aber zurück zum Thema. Jahreszeiten-Prognosen sind derzeit nicht möglich und werden es nach Einschätzung des Autors auch nie sein. Das gilt zumindest für den numerischen Ansatz. Anders sieht es aus, wenn man statistische Verfahren zugrunde legt. Hierzu haben Kämpfe et al. schon viele Beiträge auf diesem Blog veröffentlicht, wobei gar nicht genug gewürdigt werden kann, wie Kämpfe et al. die Abschätzungen im Nachhinein auswerten wie zuletzt bzgl. des Winters 2019/2020 hier. Das werden sie sicher auch nach diesem Winter wieder tun.

Merke: Je kleiner das Gebiet, für das man eine Prognose erstellt, und je länger im Voraus eine solche erstellt wird, umso größer wird die Unsicherheit!

Und: Zumindest für den Kurzfristzeitraum gilt (im wörtlichen und übertragenen Sinne), was man sich heute fast schon abgewöhnt hat: Man sollte auch mal aus dem Fenster schauen! Draußen ist das Wetter, nicht im Bildschirm!

 




Klima-Versammlungen: Fake-Demokratie

Das bedeutet, dass es kein demokratisches Mandat dafür gibt, jede Regierungsentscheidung unter dem Aspekt des Klimas zu betrachten. Es gibt kein demokratisches Mandat dafür, Klimabelange zum Maßstab zu machen, nach dem alles in der Gesellschaft beurteilt, für mangelhaft befunden und dann zur Einhaltung gezwungen wird.

Gewählte Politiker sollten vermeintlich der Mechanismus sein, durch den die einfachen Menschen Einfluss auf die Regierungspolitik nehmen. Aber in den letzten Jahren haben die Politiker des gesamten politischen Spektrums den Faden verloren.

Die Stimme der menschlichen Wähler zu sein, die um Arbeitsplätze, sichere Wohnungen und gute Schulen kämpfen, ist so passé. Die selbsternannten und selbstbestimmten* Politiker haben beschlossen, dass ihre übergeordnete Verantwortung die Rettung des Planeten ist.

[*Unübersetzbares Wortspiel: Self-appointed and self anointed]

Aber diese Lockvogeltaktik ist nicht in Ordnung. Es ist nichts Bewundernswertes daran, den Wählern zu versprechen, ihr Leben zu verbessern, und sie dann zu verschaukeln, damit die Journalisten Sie als „Klima-Führer“ bezeichnen.

Die riesige Kluft zwischen dem, was die Menschen auf der Straße für wichtig halten, und dem, worüber die politische Klasse reden will, ist real. Sie hat sich über Jahrzehnte entwickelt und wird auch nicht verschwinden. Die Politiker haben daher das Bedürfnis, den Anschein öffentlicher Unterstützung für die drastischen Maßnahmen zu erwecken, auf denen ihre Träume von drastischer Emissionsreduktion beruhen.

In einem neu veröffentlichten Bericht mit dem Titel The UK Climate Assembly: Manufacturing Mandates erklärt Ben Pile, wie das funktioniert. 108 Mitglieder der Öffentlichkeit wurden rekrutiert, um an einem Konsultationsprozess teilzunehmen. Die absurde Prämisse scheint gewesen zu sein, dass in einer Nation mit 67 Millionen Menschen die Unterstützung einer Kerngruppe von 108 Personen ausreicht, um Regierungsmaßnahmen zu rechtfertigen.

Der Konsultationsprozess sollte ursprünglich vier Wochenenden umfassen, wurde aber wegen der Pandemie verlängert. Das ist ein weiteres Warnsignal. Menschen, die in der Lage und bereit sind, vier Wochenenden ihrer Zeit zu opfern, sind ungewöhnlich. Diese 108 Personen waren keineswegs eine Zufallsstichprobe der britischen Bürger.

Außerdem waren alle wichtigen Entscheidungen vorherbestimmt. Es gab keine Debatte darüber, ob der Klimawandel die Agenda der Regierung dominieren sollte. Das wurde einfach als gegeben hingenommen.

Es gab keine Debatte darüber, ob die Pläne der Regierung, „alle Sektoren der Wirtschaft und Gesellschaft“ dazu zu zwingen, bis zum Jahr 2050 Netto-Null-Emissionen zu erreichen, sinnvoll, machbar oder realistisch sind. Auch das wurde als selbstverständlich hingenommen.

Angepriesen als Gelegenheit, mit der Öffentlichkeit zu arbeiten, die Öffentlichkeit einzubeziehen und den Menschen ein Mitspracherecht bei der Gestaltung der Zukunft zu geben, war die Klima-Versammlung das Äquivalent dazu, 108 Menschen zu fragen, auf welchem Farbteller sie ihre Ration Brot und Wasser serviert haben möchten.

Das war vorgetäuschte Demokratie. Es war absoluter Fake.

Download Pile’s important report here

Link: https://nofrakkingconsensus.com/2021/02/08/climate-assemblies-faking-democracy/

Zu diesem Beitrag hat Donna Laframboise noch eine Ergänzung verfasst, die hier im Anschluss folgt:

9% Zustimmung: also machen wir es zur Politik der Regierung

<b>Donna Laframboise</b>
Strippenzieher der Klimaille machten „weniger Fleisch“ zu einem Schlüsselfaktor der Politik – trotz einer nur sehr geringen Zustimmung der Bevölkerung.

Es gibt eine seltsame neue Schöpfung da draußen. Bekannt als UK-Klimaversammlung [Climate Assembly], ist es eine aufwendige Fälschung – ein Prozess, bei dem Politiker, Bürokraten und Aktivisten versuchen, jeden zu überzeugen, dass die Öffentlichkeit drakonische Klimamaßnahmen unterstützt (siehe meinen Beitrag oben).

Ben Pile, der Autor eines Berichts über die jüngste Klimaversammlung in Großbritannien, hat das obige 8-minütige Video produziert. Er erklärt, dass die Klimaversammlung in kleinere Gruppen aufgeteilt wurde, als der Fleischkonsum diskutiert wurde. Nur 35 Personen – und nicht die volle Anzahl von 108 – befassten sich mit diesem Thema.

Diese 35 Personen hörten sich einseitige Präsentationen darüber an, dass rotes Fleisch nicht nur schlecht für die Gesundheit, sondern auch schlecht für den Planeten ist. Bei 2:42 Minuten im Video hören Sie, wie die Wissenschaftlerin Rosie Green, die sich auf „nachhaltige Ernährung“ spezialisiert hat, sie berät:

Wir wissen, dass rotes und verarbeitetes Fleisch mit einer Reihe von Gesundheitszuständen in Verbindung gebracht wird. So ist es mit Herzkrankheiten verbunden, es ist mit Schlaganfällen verbunden, es ist mit bestimmten Arten von Krebs verbunden, wie Darmkrebs, und es ist auch mit Diabetes verbunden.“

Given this tepid level of support it’s astonishing to read, on page 20 of the massive final report, that eating less meat is a Climate Assembly “key recommendation.” It’s astonishing to further read:

Später wurden diese 35 Personen gebeten, vier Ideen (aus einer längeren Liste) auszuwählen, von denen sie dachten, dass die Regierung sie „berücksichtigen“ sollte, wenn sie „Entscheidungen über Lebensmittel, Landwirtschaft und Landnutzung trifft.“ Weniger Fleisch zu essen war keine beliebte Wahl. Nur 29% stimmten dafür. Das bedeutet, dass es nur von 10 dieser 35 Personen unterstützt wurde.

Um es noch einmal zu wiederholen: Die meisten der 108 Mitglieder der Klimaversammlung wurden nicht zum Thema Fleischkonsum befragt. Zwei Drittel derjenigen, die gefragt wurden (25 von 35 Personen), unterstützten eine Reduzierung des Fleischkonsums als Mittel zur Bekämpfung des Klimawandels nicht. Nur 10 Personen taten dies – das sind gerade einmal 9% aller Mitglieder der Klimaversammlung.

[Hervorhebung im Original]

Angesichts dieser lauwarmen Unterstützung ist es erstaunlich, auf Seite 20 des umfangreichen Abschlussberichts zu lesen, dass weniger Fleisch zu essen eine „Schlüsselempfehlung“ der Klimaversammlung ist. Es ist noch erstaunlicher weiter zu lesen:

Die Mitglieder der Versammlung empfahlen…eine Änderung der Ernährung, um den Fleisch- und Milchkonsum um 20 bis 40 % zu reduzieren – die Versammlung betonte die Bedeutung der Bildung und sagte, dass diese Änderungen freiwillig und nicht zwingend sein sollten.

Wie bitte? Wie können 25 Personen, die nicht für weniger Fleisch sind, gegenüber 10 Personen, die dafür sind, zu einer allgemeinen Empfehlung führen, den Milch- und Käsekonsum fast zu halbieren?

Es wird noch schlimmer, denn Verzerrungen haben die Angewohnheit, immer verzerrter zu werden, und Übertreibungen werden immer übertriebener. Bei der 4:45-Minuten-Marke im Video erklärt Mike Thompson, ein Beamter des britischen Ausschusses für Klimawandel, schamlos:

Wow. Just wow. Does climate change render us incapable of distinguishing truth from lies?

Die Klimaversammlung sagte, dass sie mit einer 20- bis 40-prozentigen Reduktion des Fleischkonsums zufrieden wäre. Wir haben uns die Empfehlungen der Klimaversammlung sehr genau angeschaut… Falls man sich die Zeit nimmt, die Leute anzuleiten, ihnen zu erklären, warum die Veränderungen notwendig sind und was alles passieren muss, sind sie wirklich bereit zu handeln. (Fettdruck hinzugefügt)

Wow. Einfach nur wow. Macht uns der Klimawandel unfähig, die Wahrheit von der Lüge zu unterscheiden?

Link: https://nofrakkingconsensus.com/2021/02/10/9-support-lets-make-it-government-policy/

Übersetzt von Chris Frey EIKE

Anmerkung des Übersetzers: Dies ist sicher nur ein kleiner Teilaspekt, der jedoch zeigt, wie die Klimaille wirklich tickt. Nach Ansicht des Übersetzers kann man das gar nicht oft genug darlegen!

 




Die politische Ökonomie von Massenhysterie und Panik

Das optimale Risikoniveau ist niemals null. Sonst würde morgens niemand aufstehen. Aber selbst im Bett zu bleiben ist riskant (Menschen sterben im Schlaf). Wenn man von zu Hause zur Arbeit fahren, ist das Risiko zu sterben ungleich Null. Wenn man von New York nach Los Angeles fliegt, ist das Risiko zu sterben ungleich Null. Wenn man eine verkehrsreiche Straße überquert, ist das Sterberisiko ungleich Null. Wenn man mit dem Fahrrad fährt, ist das Risiko zu sterben nicht Null.

Warum verhalten sich dann die meisten von uns in solchen Situationen so, als wäre das Risiko tatsächlich gleich Null? Die Antwort ist, weil es so gering ist, dass wir uns praktisch so verhalten können, falls es Null wäre, obwohl wir wissen, dass es das theoretisch nicht ist. Schließlich sterben jeden Tag Menschen bei Autounfällen und als Fußgänger, sie sterben auch, wenn auch viel seltener, bei Flugzeugunfällen, und einige von ihnen (Hunderte) kommen sogar jedes Jahr durch Blitzschlag ums Leben!

In den USA sterben jährlich sieben Menschen an der Beulenpest!

Dennoch haben wir nicht jeden Tag Angst davor, aus dem Haus zu gehen, weil wir von einem Auto oder einem Blitz getroffen werden könnten oder vom Fahrrad fallen und an einer Gehirnerschütterung sterben oder wie die Europäer des 14. Jahrhunderts enden, dezimiert durch die Pest. In den meisten alltäglichen Situationen sind Individuen gut darin, das Risikoniveau ihres eigenen Verhaltens zu managen.

Es ist jedoch viel interessanter zu untersuchen, was passiert, wenn das Risiko unklar ist, wenn die Informationen über relevante Umstände, die das Risikoniveau beeinflussen, höchst unsicher und unvollständig oder zumindest komplizierter einzuschätzen sind. In diesen Situationen neigt die menschliche Gesellschaft, besonders wenn die Politik ins Spiel kommt – und diese Politik ist eine demokratische -, fast wie von selbst dazu, schreckliche und selbstzerstörerische Entscheidungen zu treffen, die allesamt irrationale Panik und übermäßige Risikoaversion erzeugen und aufrechterhalten.

Die Menschen verhalten sich übermäßig ängstlich und tun viele dumme und irrationale Dinge, um die unnötige Angst, die sie empfinden, zu lindern. Es gibt mehrere psychologische und politische Mechanismen, die diese Dynamik erzeugen, die man als „die politische Ökonomie von Hysterie und Panik“ beschreiben könnte. Sie beinhaltet psychologische Mechanismen der Verzerrung durch Informations-Verfügbarkeit, der Handlungsverzerrung, der Broken-Window-Illusion sowie die weit verbreitete ethische Sichtweise des pathologischen Altruismus und die politische Dynamik der demokratischen Kurzsichtigkeit. All diese Faktoren verschwören sich oft auf unheilvolle Weise, um eine hysterische und irrationale Geisteshaltung gegenüber Risiken zu erzeugen, die zu äußerst irrationalen Entscheidungen führt.

[Alle Hervorhebungen im Original]

Beginnen wir mit der Verzerrung durch Informations-Verfügbarkeit. Sie kennen wahrscheinlich die Meinungsumfragen, die besagen, dass sich das Klima schneller verändert als je zuvor in der Geschichte und dass Naturkatastrophen stärker und häufiger werden; dass wir mehr Hurrikane, Dürren, Überschwemmungen und Erdbeben haben. Vielleicht gehören Sie selbst zu den Menschen, die das glauben. Doch es ist nicht wahr. Alle Berichte, die vom UN Intergovernmental Panel on Climate Change (IPCC) und anderen „wissenschaftlichen“ Organisationen zusammengestellt wurden zeigen, dass die meisten Naturkatastrophen nicht stärker werden und teilweise sogar an Intensität abnehmen.

Warum glauben dann allzu viele Menschen genau das Gegenteil? Die Antwort ist, dass die Medien die Geschichten über Katastrophen jeden Tag obsessiv aufblähen und übertreiben. Im Zeitalter von Satellitenfernsehen und Internet gibt es kein globales Unglück oder keine Katastrophe, die nicht sofort für jeden sichtbar gemacht wird, der Zugang zu moderner Technik hat – Hurrikane, Erdbeben, Waldbrand – alles wird sofort gesendet und immer von dramatischen, oft katastrophalen Hiobsbotschaften und Bildern begleitet.

Vor hundert Jahren wäre ein großer Hurrikan in Florida in den Nachrichten auf Seite 2 oder 3 der New York Times zu finden gewesen – das wäre alles gewesen. Die Menschen in der direkt betroffenen Region würden leiden und darüber nachdenken, der Rest des Landes und der Welt würde einfach mit ihrem Leben weitermachen, als ob nichts passiert wäre. Wenn heute ein großer Hurrikan Florida bedroht, verfolgen die Meteorologen im Fernsehen zuerst fünf Tage im Voraus seine Verstärkung, Änderungen in seiner Bahn, Kategorisierungen (Kategorie 5, habt Angst, habt große Angst), alles gefolgt von den beängstigenden (Satelliten-!) Bildern des Auges des Sturms, und tun ihr Bestes, um alle in Angst und Schrecken zu versetzen.

Man kann heutzutage den Fernseher oder sogar soziale Netzwerke nicht einschalten, ohne mit der Angstmacherei über den Hurrikan bombardiert zu werden. Gouverneure und lokale Bürgermeister würden tagelang vor dem Hurrikan zur Freude der Medien alle evakuieren, was die Panik weiter anheizen würde. Die Medien würden eine Woche lang über kaum etwas anderes reden. Wenn der Sturm schließlich zuschlägt, würde Chris Cuomo von CNN im Regen stehen, um zu demonstrieren, wie zäh er ist und auch, wie beängstigend der Sturm ist. Das Gleiche gilt in unterschiedlichem Ausmaß für jede andere Katastrophe in jedem anderen Land: Sie wird sofort zu einer großen Nachricht und bleibt es für eine lange Zeit.

Es sollte also niemenden schockieren, dass die meisten Menschen denken, Katastrophen wie Hurrikane würden viel häufiger vorkommen und schlimmer werden als es tatsächlich der Fall ist. Es ist eine bekannte kognitive Illusion, für die jeder anfällig ist, Dinge, die direkt sichtbar und beobachtbar sind, für häufiger und in gewissem Sinne für realer zu halten als solche, die man weniger oft sieht. […]

Conclusion

Die durch Massenhysterie und Panik gekennzeichneten Situationen des kollektiven Wahnsinns sind in einer demokratischen Gesellschaft kaum vernünftig zu handhaben. Eine positive Rückkopplungsschleife zwischen der medialen „Berichterstattung“ über reale oder eingebildete Katastrophen, dem Gefühl des Schreckens, der Panik und dem Drang der Öffentlichkeit, etwas zu tun, und der Reaktion der Politiker, diese kollektive Forderung nach rituellem Handeln zu befriedigen, machen einen ruhigen und rationalen Umgang mit der Situation nahezu unmöglich.

Die Forderung nach Handeln erzeugt den Druck, nicht als schwach und unentschlossen seitens der Politiker wahrgenommen zu werden, während die Informationsasymmetrie zwischen den sichtbaren, konzentrierten und identifizierbaren Vorteilen des „Handelns“ und den verzögerten, spekulativen und stärker verteilten Kosten des Handelns eine irrationale und ineffektive, aber ritualisierte Politik viel wahrscheinlicher macht. Die Maßnahmen, die zur Bewältigung der Covid-19-Pandemie ergriffen wurden, veranschaulichen diese Wahrheiten sehr schmerzhaft.

Der ganze Beitrag steht hier.

Link: https://www.thegwpf.com/the-political-economy-of-mass-hysteria-panic/

Übersetzt von Chris Frey EIKE

 




Ein neues Buch des Analysten Andy May: „Politics & Climate Science – A HISTORY“ – Eine Rezension

William Happer, the Princeton Cyrus Fogg Brackett Professor of Physics, emeritus
„Andy Mays Buch „ Politics and Climate Change, a History“ sollte Pflichtlektüre für jeden nachdenklichen Amerikaner sein, der das Beste für unser Land will. Die neue Biden-Administration hat den Klimawandel-Alarmismus zu einem wichtigen Teil ihrer Agenda gemacht. Dieses wunderbar recherchierte Buch verdeutlicht die schmutzige Realität des Klimawandel-Establishments, mit seinen machtgierigen Politikern, gierigen ‚Non-Profit-Organisationen‘ wie Greenpeace und beklagenswert falsch informierten Horden von wahren Gläubigen. Es gibt auch charmante Skizzen von vielen ehrlichen Wissenschaftlern, von Tyndall bis Revelle, die wichtige Beiträge zu unserem heutigen Verständnis des Klimas geleistet haben. Die Diskussionen über die Klimawissenschaft selbst sind im Allgemeinen genau, gut illustriert und kurz.“

Professor Frank Hansen, emeritus, Copenhagen University, Math and Physics:
„Das Einzige, was kristallklar wird, ist, dass die Wissenschaft nicht settled ist und die Debatte nicht vorbei ist.“

Politics and Climate Change: A History

Hier ist die Geschichte der politischen Korruption der Wissenschaft. Politiker kontrollieren heute die wissenschaftliche Forschung und Forschungsergebnisse. Sie finanzieren Projekte, die nach möglichen Katastrophen suchen. Wissenschaftler haben sich von der Hilfe für die Menschen zu Plots für Katastrophenfilme entwickelt.

Link: https://andymaypetrophysicist.com/

Auf dem Blog der Wissenschaftler-Gruppe um CLINTEL, von der auf diesem Blog auch schon die Rede war, findet sich eine sehr ausführliche Rezension, von der hier aber nur das Abstract übersetzt wird. Autor dieser Rezension ist Patrice Poyet:

Abstract der Rezension:
Dieses Buch ist ein Muss für jeden, der sich für die Geschichte dessen interessiert, was man Klimawissenschaft nennt, und für die Menschen, die dazu beigetragen haben, die vorherrschenden Gedanken unserer Zeit zu formen. Es beschreibt auch, wie die Machtkämpfe der verschiedenen einflussreichen Gruppen bestimmt haben, wo wir heute stehen.

Obwohl sich das Buch auf die Menschen konzentriert, die das bewirkt haben, versäumt es nicht, uns wann immer nötig an die zugrunde liegenden wissenschaftlichen Erkenntnisse und Überlegungen zu erinnern, die bei rationalen Analysen und Entscheidungen in Klimaangelegenheiten vorherrschen – oder vielmehr vorherrschen sollten. Andy May zeigt auch das beträchtliche Maß an Ungewissheit auf, das nach 40 Jahren intensiver Forschung immer noch besteht, und räumt ein, dass einige Schlüsselvariablen für das Verständnis des Klimasystems heute leider nicht besser bekannt sind als vor 40 Jahren.

Die Wissenschaft ist wichtig, aber in der Historie geht es um Menschen, die etwas bewirken, und genau darum geht es in diesem ausgezeichneten Buch. Die Rolle all derer, die wichtige Beiträge leisteten, wird erzählt, die Wissenschaftler natürlich, aber vielleicht noch wichtiger, wie viele andere Akteure ins Spiel kamen. Das Buch endet mit einer Reflexion über die weitsichtige Analyse von Dwight D. Eisenhower, der voraussah, dass die öffentliche Politik zum Gefangenen einer wissenschaftlich-technologischen Elite geworden ist, die von der Finanzierung durch Bürokraten und Politiker kontrolliert wird. Andy May gibt einen faszinierenden Bericht über diesen wichtigen Teil der menschlichen Geschichte, der zweifellos die Zukunft unserer Zivilisationen prägen wird, und das nicht unbedingt zu dem größeren Wohl wie es seitens der Mächtigen kolportiert wird.

Das Buch besteht aus 8 Kapiteln, die in dieser Rezension alle ausführlich zusammen gefasst werden. Sie haben die folgenden Überschriften. Aus Zeitgründen wird hier auf deren Übersetzung verzichtet, aber es lohnt sich, hinein zu schauen. Für des Englischen nicht so mächtige Leser kann eine Übersetzungsmaschine (z. B. Linguee) gute Dienste leisten. – A. d. Übers.

Chapter 1: Politicians and Climate Change
Chapter 2: The News Media and Climate Change
Chapter 3: Non-profits and Climate Change
Chapter 4: Bureaucrats and Climate Change
Chapter 5: Lawsuits and Climate Change
Chapter 6: Facts and Theories
Chapter 7: The Beginning
Chapter 8: How much government involvement in research?
Politics & Climate Science – A HISTORY” by Andy May
Published by American Freedom Publications LLC, First Edition – October 31, 2020, respectively 978-1-63625-261-2
Hardback, 978-1-63625-262-9 Paperback, 978-1-63625-263-6 eBook Version, 342 pp.

Available at Amazon.com & Barnes and Noble

Patrice Poyet, Author of “The Rational Climate e-Book bei: https://patricepoyet.org

Also by Andy May: Climate Catastrophe! Science or Science Fiction?

Link: https://clintel.org/a-review-of-politics-climate-science-a-history-andy-mays-new-book/

Übersetzt und zusammengestellt von Chris Frey EIKE

 




Der Flaute-Winter 2021: Wenig Wind – warum?

Alle drei Wintermonate 2020/21 verliefen windschwach

Mangels geeigneter Winddaten (DWD-Flächenmittel gibt es monatsweise leider nur für Lufttemperaturen, Sonnenscheindauer und Niederschlagsmenge) lassen die Ergebnisse der deutschen Stromerzeugung gewisse Rückschlüsse auf die Windstärke zu, denn Deutschland möchte ja am liebsten ganz auf Fossile und Kernenergie verzichten, und hat in den letzten 30 Jahren den Ausbau der Windenergie massiv vorangetrieben – doch wenn der Wind einschläft, zeigt sich das ganze Dilemma der Deutschen Energiewende:

Abbildungen 1a bis c: Das hatte sich die Politik anders vorgestellt – Wind (hell blau-grau) und Sonne (kaum sichtbare, gelbliche Spitzen) sollten doch längst den meisten Strom erzeugen – aber das Wetter spielt nicht mit. Weder im Dezember 2020 (oben, 1a) noch im Januar 2021 (Mitte), noch im Februar 2021 (bis Monatsmitte vorliegend, unten) wehte über längere Zeiträume ausreichend Wind, der meist bloß kümmerliche 1 bis 15% des Stroms lieferte, selten mal deutlich über 20%. Da hätten auch doppelt so viele Windräder nicht geholfen – es fehlte an Wind, der sie antreiben könnte. Nur die verbliebenen Kohle- und Kernkraftwerke sowie neue Gaskraftwerke verhinderten massive Stromausfälle (Blackouts). Bildquellen energy-charts.info, ergänzt.

Die massiven physikalisch-meteorologisch-technisch-logistischen Probleme der Energiewende sollen hier nicht näher erläutert werden; Näheres unter anderem hier. Aber alle drei Abbildungen belegen das Fehlen langer, sehr windiger Phasen, wie es sie beispielsweise im Februar 2020 gegeben hatte. Das vom Autor gebildete Windmittel aus 25 DWD-Stationen in Norddeutschland ist nur bedingt repräsentativ, veranschaulicht aber ebenfalls die geringe Windstärke des endenden Winters 2021 sowie einen eher negativen Trend der winterlichen Windgeschwindigkeit, der sich so ähnlich auch in allen Jahreszeiten und folglich auch im Jahresmittel, zeigt:

Abbildung 2: Der Winter 2021 gehörte zu den windärmsten der letzten Jahrzehnte. Dabei wurde der Februar, dessen Daten noch nicht vorlagen, eher reichlich geschätzt; wahrscheinlich wird er noch windärmer ausfallen. Der Negativ-Trend ist wegen der großen Streuung nicht signifikant; doch der letzte, wirklich fast durchgängig sehr windige Winter liegt mit 2006/07 nun schon weit zurück.

Windschwache Winter der jüngeren Vergangenheit

Wegen des Fehlens verlässlicher Winddaten lassen sich windschwache Winter nur grob aus den NOAA-Datensätzen für den Zonal-und den Meridionalwind im 1000-hPa-Niveau erkennen. Diese sind immerhin seit Winter 1948/49 verfügbar. Für Norddeutschland erwiesen sich folgende Winter als deutlich windschwach: 1951/52, 1959/60, 1962/63, 1963/64, 1976/77, 1978/79, 1981/82, 1984/85, 2005/06, 2009/10, 2010/11 und 2012/13. Zeit- und gebietsweise windschwach waren auch noch die Winter 1995/96 und 1996/97. Hierbei geht es stets um das Wintermittel; einzelne, sehr windige oder gar stürmische Phasen gab es in jenen Wintern dennoch. Schon bei flüchtiger Betrachtung fällt aber auf: Es sind allesamt Winter, die entweder kalt oder normal temperiert waren, sehr milde fehlen. Warum das so ist, werden wir gleich noch sehen.

Windschwache Großwetterlagen

In erster Linie erweisen sich alle Hochdruckwetterlagen als meistens windschwach; besonders das Hochdruckgebiet über Mitteleuropa (HM) und die Hochdruckbrücke über Mitteleuropa (BM). Im Hochzentrum oder unter der Achse einer Hochdruckzone fehlt das für Wind erforderliche Luftdruck-Gefälle (es herrscht ein großer Abstand der Linien gleichen Luftdrucks, die in der Wetterkunde Isobaren genannt werden). Aber während bei sommerlichen Hochdrucklagen die Kraft der Sonne den Wind zumindest tagsüber teils merklich auffrischen lässt („Regionalwinde“ mit nachmittäglichem Maximum als Land-See-, Berg-Tal- oder Flurwind), ist ihre Kraft im Winter zu schwach. Und die bodennahe Kaltluft unter einer winterlichen Inversion kann selbst dann noch zur Flaute führen, wenn sich ein Tief schon genähert hat und der Wind in einigen hundert Metern Höhe längst wieder kräftig weht. Erst an den Rändern der Hochdruckgebiete kann man windigere Verhältnisse erwarten; mitunter kann es hier sogar stürmen. Zwei Wetterkarten-Beispiele verdeutlichen die winterlichen Verhältnisse bei Hochdruckwetter:

Abbildungen 3a und 3b: Schwache Brücke zwischen einem Atlantik- und einem Russland-Hoch am 2. Dezember 2020 19 Uhr mit Windstille über Deutschland; keine Isobaren, so begann der Flaute-Winter 2020/21 (3a, oben). Elf Jahre eher (1. Dezember 2010) begann der Winter gänzlich anders: Am Rande einer Hochdruckzone, welche vom Atlantik über Südskandinavien zum Baltikum reichte, blies bei deutlichen Minusgraden ein kräftiger Ostwind; es kam zu Schneeverwehungen; man erkennt viele Isobaren (unten, 3b). Bildquellen wetter3.de aus dem UKMO-Wetterkartenarchiv; ergänzt.

Aber die „richtige“ großräumige winterliche Sturmwetterlage geht meist mit westlichen Wetterlagen einher; diese hatten im aktuellen Winter Seltenheitswert; daher ein Beispiel aus dem stürmischen Februar 2020:

Abbildung 4: Südweststurm am 16. Februar 2020 (viele Isobaren über Deutschland). Bildquelle wetter3.de aus dem UKMO-Wetterkartenarchiv; ergänzt.

Nun wird auch klar, warum windarme Winter eher zu Kälte tendieren: Erstens fehlen die stürmischen Westlagen, welche die milde Atlantik-Luft nach Deutschland lenken (Warmluft-Advektion). Und zweitens kühlt sich ruhig lagernde Luft im Winter stets mehr oder weniger schnell ab (je nach Bewölkungsverhältnissen – je klarer und wasserdampfärmer die Winterluft, desto schneller deren Abkühlung). Letzteres ist oft bei „Hochdruckwetter“ der Fall. Wie wir gleich noch sehen werden, können jedoch auch winterliche Tiefdruckwetterlagen sehr windschwach verlaufen; das war eines der wesentlichen Merkmale des Winters 2020/21.

Besonderheiten der Winter-Witterung 2020/21

Eine längere, typische, windschwache Hochdruckwetterlage war nur während der Kältewelle um den 10. Februar zu beobachten (von Skandinavien nach Mitteleuropa ziehendes Hochdruckgebiet); auf diese soll hier nicht näher eingegangen werden. Aber warum verliefen auch Dezember und Januar, in welchen Kälte-Hochs fehlten, so windschwach? Die wesentliche Ursache findet sich in kleinen, mit Höhen-Kaltluft gefüllten Rand- und Teiltiefs, welche vom Atlantik und von Großbritannien immer wieder nach West- und Mitteleuropa zogen, sich hier abschwächten oder auflösten und dabei mehr oder weniger intensive Schnee- und Regenfälle auslösten, aber wegen ihrer geringen Stärke kaum noch Wind ermöglichten; zumal sich oft gleich mehrere dieser Tiefs in unserer Nähe befanden (zwischen zwei oder mehr Tiefs liegt ebenfalls eine nahezu windstille Zone). Schon Neujahr begann mit einer solchen Lage:

 

Ab Ende Januar kam dann noch die sich über Mitteleuropa bildende Luftmassengrenze hinzu. Kaltluft aus Nord bis Nordost traf auf sehr milde Süd- bis Südwestluft. Doch an einer solchen Grenzlinie heben sich die Geschwindigkeiten beider Luftmassen auf – es herrscht Flaute:

Abbildung 6: In einer schwachen Tiefdruckrinne treffen Warm- und Kaltluft aufeinander (Luftmassengrenze). Wenig Wind in weiten Teilen Deutschlands; Lage vom 4. Februar, Mittags. Bildquelle wetter3.de aus dem UKMO-Wetterkartenarchiv; ergänzt

Die langfristige Entwicklung der winterlichen Windstärke über Norddeutschland

Gewisse Rückschlüsse lassen die Daten des Amerikanischen Wetterdienstes (NOAA) über die Geschwindigkeiten des Zonalwindes (positive Werte bedeuten West-, negative Ostwind) und des Meridionalwindes (positive Werte Süd- und negative Nordwind) zu, welche seit Winter 1948/49 vorliegen. Addiert man die Beträge des Zonal- und Meridionalwindes, so erhält man eine Summe, welche brauchbare Rückschlüsse über die realen Werte der Windgeschwindigkeiten zulässt (je höher die Werte, desto windiger). Die folgende Grafik zeigt die Verhältnisse für die (bodennahe) 1000-hPa-Fläche über Norddeutschland und gleich eine der wichtigsten Einflussfaktoren auf die Windgeschwindigkeit – die NAO:

Abbildung 7: Nicht nur kurz-, sondern auch langfristig ist der Wind ein wankelmütiger Geselle, seine Stärke schwankt stark. Schwächephasen kurz nach Mitte des 20. Jh. und um 2010 stehen windigere um 1990 und gegenwärtig gegenüber – doch ist der sehr windschwache Winter 2020/21 noch nicht in der Grafik enthalten. Man beachte aber, dass es sich hierbei erstens nicht um reale Windgeschwindigkeiten handelt – die Rechengröße kommt diesen aber relativ nahe. Zweitens wirkt das hier genutzte „endbetonte“ 11-jährige Gleitmittel zeitlich leicht verzerrend – die tatsächlichen, gemittelten Minima und Maxima traten etwas eher ein. Signifikant wurde diese „indirekte“ Windstärke von der NAO beeinflusst, was auch logisch ist: Die NAO als Maß für das Luftdruckgefälle zwischen Portugal und Island im weitesten Sinne beeinflusst die Intensität der Westströmung über dem Ostatlantik, welche oft (nicht immer!) bis nach Mitteleuropa reicht – und damit die Häufigkeit und die Stärke der Westwetterlagen in Mitteleuropa. Bei stark negativen NAO-Werten kann sich gar eine Ostströmung über dem Ostatlantik einstellen – damit ist dann keine Zufuhr milder Atlantikluft nach Deutschland mehr möglich. Original-NAO-Werte nach HURRELL durch Addition (+7) aufgewertet, um sie besser in der Grafik zu platzieren; der Trend wird davon nicht beeinflusst.

Ob nun künftig wieder eine Abnahme der Windgeschwindigkeit erfolgt (oder gar mit dem Winter 2020/21 bereits begonnen hat), hängt also entscheidend von der NAO ab. Diese tendierte seit dem „Klimasprung“ von 1988 zu überwiegend positiven Werten – von einer kurzen Schwächephase um 2010 einmal abgesehen. Doch wird das auch so bleiben? Logischer, aber nicht sicher vorhersehbar, wäre eine Abnahme in nächster Zukunft. Ob auch die AMO gewisse Einflüsse ausübt, soll hier nicht erläutert werden. Zwar ließen sich hier keine statistischen Zusammenhänge zur indirekten Windgeschwindigkeit finden; doch ist bekannt, dass die AMO die Häufigkeit der Süd- und Südwestlagen positiv beeinflusst; Letztere können sich im Winter mitunter zu Sturmlagen entwickeln.

Abbildung 8: Tageswerte der NAO seit Mitte Oktober 2020 bis zum 14. Februar 2021. Aufrecht stehende Balken bedeuten positive, nach unten zeigende negative NAO-Indexwerte. Nach deutlich positiven NAO-Werten im Spätherbst überwogen im Winter ganz eindeutig negative Werte, allerdings nur in moderaten Ausmaßen. Bildquelle: NOAA

Die langfristige Häufigkeitsentwicklung winterlicher Großwetterlagen

Zumindest die Großwetterlagen-Klassifikation nach HESS/BREZOWSKY lässt eine Rückverfolgung der Häufigkeitsverhältnisse bis Winter 1881/82 zu; die Objektive Wetterlagen-Klassifikation des DWD nur bis 1979/80. Freilich lassen sich daraus, wie schon die vorstehenden Wetterkarten-Beispiele zeigen, nur äußerst vage Rückschlüsse auf die Windgeschwindigkeiten ziehen. Aber wie wir schon sahen, ist die NAO hierfür ein guter Indikator; und auch diese lässt sich bis ins 19. Jahrhundert zurückverfolgen:

Abbildung 9: Der langfristige, deutliche winterliche Temperaturanstieg in Deutschland ist größtenteils eine Folge leicht gestiegener NAO-Werte und deutlich gestiegener Westlagen-Häufigkeit, was auch mit mehr Winterwind einherging. Nach einer sehr milden, Westlagen-betonten Phase um 1910 folgte die Depression zur Mitte des 20. Jahrhunderts mit vielen Kaltwintern und ab 1988 („Klimasprung“) das aktuelle Optimum der Wintertemperaturen mit häufigen Stürmen (viele Westlagen). Winter 2020/21 noch nicht enthalten; Umrechnung aller Größen in Index-Werte zur besseren Darstellung in einer Grafik; auch hier „verzerrt“ das endbetonte Gleitmittel leicht.

Ein weiteres Indiz ist die langfristige Häufigkeitsentwicklung der zu Starkwind neigenden zyklonalen West-, Südwest- und Nordwestlagen im Verhältnis zu den (meist) schwachwindigen Hochdrucklagen:

Abbildung 10: Die merkliche, winterliche Häufigkeitsabnahme aller antizyklonalen (oberste Kurve), darunter aller HM- und BM-Lagen (unterste Kurve) gegenüber den zu Sturmlagen neigenden zyklonalen West-, Südwest- und Nordwestlagen (violette Kurve) ist deutlich erkennbar; Winter 2020/21 noch nicht enthalten.

Abschließend schauen wir uns die so genannten Unbestimmten Lagen der Objektiven Wetterlagen-Klassifikation des DWD an. Diese sind stets windarm. Nähere Erläuterungen zu diesen hier. Man erkennt einen nicht signifikanten Häufungstrend (in den übrigen Jahreszeiten und im Jahresmittel ist dieser deutlicher):

Abbildung 11: Bislang nur geringe Häufung unbestimmter (XX) Lagen im Winter. Nahezu alle Winter, die zu kalt oder wenigstens abschnittsweise kalt ausfielen, weisen eine überdurchschnittliche Anzahl dieser stets auch windarmen Lagen auf; einige sind markiert (Jahreszahl des jeweiligen Hochwinters). Im „aktuellen“ Winter 2020/21 waren bis zum 14. Februar schon 23 XX-Lagen zu verzeichnen – mehr als die durchschnittlich 15; ein paar könnten noch hinzukommen.

Fazit: Die winterliche Windstärke schwankt in unseren Breiten in längeren Perioden; sie wird stark von der NAO und der Häufigkeit und dem Charakter bestimmter Wetterlagen beeinflusst. Westwetterlagen begünstigen windiges Wetter, Hochdruck-, Zentraltief- und Grenzwetterlagen neigen zu Flauten, so wie auch im Winter 2020/21. In jüngster Vergangenheit überwog windig-mildes Westwetter, ob mit dem Flaute-Winter 2020/21 eine Trendwende beginnt, bleibt abzuwarten. Der Wind erweist sich sowohl lang- als auch kurzfristig als äußerst volatil, was seine Eignung als Hauptlieferant für Elektroenergie ernsthaft in Frage stellt. Denn seine Energieausbeute unterliegt dem Kubischen Gesetz – sie verachtfacht sich bei Verdoppelung und liefert nur noch ein Achtel an Energie bei Halbierung der Windgeschwindigkeit.

 




Die WHO und der „Klima-Notstand“

Die Schätzungen der WHO sehen so aus:

Wow … das ist schon ein verdammt großer „NOTFALL“. Die Todesursache „alle Naturgewalten“, nicht nur klimabedingte, sondern alle Kräfte, ist geringer als Mord, weit geringer als Selbstmord, und trivial im Vergleich zu Autounfällen. …

Gut zu sehen, dass zumindest bis heute die Weltgesundheitsorganisation nicht auch in die Klima-Posaune stößt …

Warum sind die klimabedingten Todesfälle so niedrig? Nun, weil die Menschen viel besser darin geworden sind, sich vor dem Wetter zu schützen. Hier ist eine Grafik, ursprünglich von Bjorn Lomborg. Da ich ein skeptischer Mensch bin, habe ich mich gefragt, ob sie nicht irgendeinen Fehler enthält. Also ging ich zur EMDAT Global Disaster Database, die Bjorn benutzt hatte … und ich erhielt genau das gleiche Ergebnis wie er. Hier ist meine Version des Diagramms. Informationen zu EMDAT finden Sie hier.

Warum ist die Zahl der klimabedingten Todesfälle so niedrig? Früher, in den schlechten alten Zeiten, starben viele Menschen durch klimabedingte Katastrophen. Aber bessere Kommunikation, verbesserte Warnsysteme, Heizungen für Häuser mit fossilen Brennstoffen, schnellere Transportmittel, verbesserte Getreidesorten, Bewässerung, Klimaanlagen und Ähnliches haben die jährlichen klimabedingten Todesfälle auf nur wenige pro Million Menschen sinken lassen.

Unter dem Strich: Seit vierzig Jahren und mehr hören wir unablässig Trompeten-Fanfaren über den bevorstehenden „KLIMA-NOTFALL!!!“

Man bedenke in diesem Zusammenhang Folgendes:

e·mer·gen·cy

əˈmərjənsē

Substantiv
1. eine ernste, unerwartete und oft gefährliche Situation, die sofortiges Handeln erfordert.
Nennen Sie mich verrückt, aber etwas, das nach vierzig Jahren endloser Warnungen absolut keine Anzeichen von Auftauchen gegeben hat, ist keine „unerwartete Situation, die sofortiges Handeln erfordert“.

Link: https://wattsupwiththat.com/2021/02/15/who-and-the-climate-emergency/

Übersetzt von Chris Frey EIKE

 




Der wahre Grund, warum die Linken nur Wind- und Solarenergie wollen

Der Fehler, den diejenigen von uns machen, die etwas mehr von Energiephysik verstehen, ist zu denken, dass die Führung unserer zunehmend sozialistischen politischen Elite dumm genug ist zu glauben, dass ihr Plan funktionieren wird, um Amerikas Lebensstandard zu erhalten. In Wirklichkeit wissen sie und ihre radikalen Umweltschützer sehr wohl, dass ihr Plan nicht funktionieren kann. Sie wissen ganz genau, dass ALLE ENERGIE VON DER REGIERUNG RATIONIERT WERDEN MUSS. Das ist genau das, was sie wollen. Wie könnte man die Gesellschaft besser kontrollieren als durch die Kontrolle der Energie, der Elektrizität und des Treibstoffs, den sie uns zugestehen. Sie wollen unsere gesamte Bevölkerung in die Knie zwingen und uns von den Diktaten der Regierung abhängig machen. Wenn ihre Lichter aus sind, ihre Geräte nicht funktionieren, ihre Autos nicht laufen, ihre Häuser im Winter kühl und im Sommer warm sind und die Preise für ihre Lebensmittel durch die Decke gehen, müssen sie sich an die Regierung wenden, um Hilfe zu bekommen. Ihre neuen Führer sind definitiv nicht dumm, aber sie sind sicherlich böse.

Am 27. Januar schrieb ich hier auf CFACT.org über das mysteriöse Stromnetz, das unseren Lebensstil in den Vereinigten Staaten unterstützt. Dieses Netz zu schwächen, bis wir alle „Uncle Sam“ um Hilfe bei der Energieversorgung anschreien, ist die Absicht unserer neuen Regierung.

Die meisten von uns sind froh, sich auf eine Uhr zum Ablesen der Zeit, ein Auto für den Transport und einen Fernseher für die Unterhaltung verlassen zu können, ohne genau verstehen zu müssen oder zu wollen, wie sie funktionieren. Das Gleiche gilt für die Elemente unseres Stromnetzes. Da es jedoch so aussieht, als ob der Energieplan unserer neuen Regierung uns zu Stromausfällen und Blackouts zwingen wird, sollte man wissen, was hinter dem Vorhang unserer Versorgungsunternehmen vor sich geht, um den Schaden zu minimieren.

Ein Aspekt des Netzes, den die meisten von uns nicht kennen ist, dass das Angebot an Strom jederzeit der Nachfrage entsprechen muss. An jedem Punkt, an dem dies nicht der Fall ist, bricht das Netz zusammen. Es ist nicht möglich, dass das Angebot nur annähernd der Nachfrage entspricht. Die universellen Gesetze der Elektrotechnik machen dies zu einer Realität, die die meisten von uns nur schwer begreifen werden. Es gibt jedoch eine Analogie in der Medizin, mit der sich der Leser leichter identifizieren kann, die mein Kollege Terigi Ciccone geliefert hat.

Stellen Sie sich einen Patienten vor, der permanent an einen IV-Schlauch angeschlossen ist, 24-7-365, der die richtige Menge an Medikamenten erhalten muss, um am Leben zu bleiben. Aber der Zeitplan für die Medikamentenabgabe ändert sich mit jeder Stunde, wie im folgenden Diagramm dargestellt. Sie muss langsam um 6:00 Uhr morgens ansteigen, beginnt dann um 9:00 Uhr abzunehmen, pendelt sich für viele Stunden ein und beginnt dann um 16:00 Uhr wieder anzusteigen, um nach 20:00 Uhr wieder abzufallen und dann wieder ein langes niedriges Niveau zu erreichen. Nun muss auch die abgegebene Medikamentenmenge sehr genau dosiert werden, etwa plus/minus 0,001 ML. Falls sie über oder unter diesem engen Bereich liegt, kann der Patient in ein Koma fallen (Brownout), oder falls sie weit außerhalb des Bereichs liegt, kann der Patient sterben (Blackout).

In einem großen Stromnetz kann das Fehlen einer kleinen Menge an Sonnen- oder Windenergie zum Zusammenbruch des Netzes führen, genauso wie eine ungenaue Medikation schlimme Folgen nach sich ziehen kann. Falls die gesamte verfügbare Versorgung aus Erdgas, Kohle, Kernkraft oder Wasserkraft maximal verfügbar ist, aber nur ein Prozent oder weniger der Online-Versorgung aus Wind oder Sonne nicht mehr verfügbar ist, weil der Wind nicht mehr weht oder die Sonne nicht mehr scheint, bricht das Netz zusammen. Kein Batterie-Backup-System ist jemals wirtschaftlich oder gar praktisch geworden.

Genau diese Situation trat kürzlich in Südaustralien ein, wo das letzte Kohlekraftwerk geschlossen wurde. Ein Sturm sorgte dafür, dass die Stromzufuhr durch Wind plötzlich ausfiel. Der gesamte Bundesstaat erlitt einen 24-stündigen Blackout.

Stromausfälle über weite Gebiete für längere Zeiträume sollten nicht mit kurzen Unterbrechungen verwechselt werden, die durch den Ausfall von Geräten verursacht werden. Ein unterirdisches Kabel kann in einer Gemeinde ausfallen, wodurch der Strom für eine Gemeinschaft von Häusern in einem Gebiet innerhalb einer Stadt abgeschaltet wird. Viele von uns haben dies über einen kurzen oder längeren Zeitraum erlebt, aber dies ist nicht der Ausfall der Stromversorgung für Millionen von Haushalten und Unternehmen, die das Stromnetz bereitstellt.

Ihr Strom von einem Versorgungsunternehmen in einem staatlich regulierten Markt hat nur vier Möglichkeiten, um einen Zusammenbruch zu vermeiden, falls Strom aus Wind oder Sonne plötzlich nicht mehr verfügbar ist.

1. Sie können die Last abwerfen, indem sie die Spannung im gesamten System absenken und so weit verbreitete Stromausfälle verursachen oder rollende Stromausfälle in ihrem Versorgungsgebiet verursachen. Dies wäre eine kurzfristige Lösung.

2. Für den Fall, dass die Nachfrage das Angebot über einen längeren Zeitraum deutlich übersteigt, haben die Versorgungsunternehmen Vereinbarungen mit Kunden getroffen, die ihre Last abstellen können, ohne ihren Betrieb zu beeinträchtigen. Beispiele hierfür wären eine Ladenkette, die einen günstigen Stromtarif erhält, wenn sie im Gegenzug eine kurzfristige Abschaltung erlaubt. Es könnte ein Supermarkt sein, der bereit ist, einige Lichter abzuschalten, oder ein Hersteller, der bereit ist, nicht benötigte Beleuchtung zu reduzieren.

3. Eine drastischere langfristige Reaktion ist der rollende Stromausfall, bei dem Bereiche einer Stadt für eine gewisse Zeit komplett abgeschaltet werden, dann wieder ans Netz gehen und der Stromausfall auf einen anderen Bereich verlagert wird. Dies ist in Ländern der Dritten Welt üblich – und genau die Richtung, in die uns unsere neue Regierung führen will.

4. Die letzte Option ist diejenige, die derzeit von fast allen Energieversorgern verwendet wird, die Wind- oder Solarenergie als Teil ihres Energieportfolios nutzen. Sie haben Gasturbinen in Reserve, die bereit sind, in Sekundenschnelle in Betrieb zu gehen, wenn der Wind nicht weht oder die Sonne nicht scheint, und die unzuverlässige Last abzunehmen. Natürlich will die neue Regierung alle fossilen Brennstoffe in Amerika abschaffen, also werden wir sehen, wie das funktioniert.

Unter dem Strich: Was sich in den kommenden zwei Jahren abspielen wird, ist ein komplettes Scheitern aller ihrer Pläne und eine Bestrafung des durchschnittlichen amerikanischen Bürgers, was ihre Amtszeit sehr kurz machen könnte.

Wesentliche Teile dieses Artikels wurden aus dem 2020 erschienenen Buch THE LOOMING ENERGY CRISIS: Are Blackouts Inevitable, mit Genehmigung des Autors Donn Dears. Es wird von diesem Autor sehr empfohlen.

Autor: CFACT Senior Science Analyst Dr. Jay Lehr has authored more than 1,000 magazine and journal articles and 36 books. Jay’s new book A Hitchhikers Journey Through Climate Change written with Teri Ciccone is now available on Kindle and Amazon.

Link: https://www.cfact.org/2021/02/09/the-real-reason-the-left-wants-only-wind-and-solar-to-supply-energy/

Übersetzt von Chris Frey EIKE




Bereit für die Klima-Lockdowns?

Da die globale Klima-Elite den Massen vorschreibt, Käfer zu essen und zu Hause zu bleiben, um die Erde zu retten, lohnt es sich, die Frage zu stellen: Was wird angemessen sein? Mit dem nahenden Weltwirtschaftsforum in Davos im April werden wir Begriffe wie „Klima-Gerechtigkeit“ und „Climate Reset“ (eine Anspielung auf den „Great Reset“ des WEF [=World Economic Forum]) immer häufiger hören. Wir werden wahrscheinlich auch erste Rufe nach Klimaverboten hören. Ich weiß, im Moment klingt das völlig absurd, aber finden diese verrückten Ideen nicht immer einen Weg, in den Mainstream überzugehen?

Die Möglichkeit von Klima-Lockdowns wird bereits von einigen unserer größten Denker ins Gespräch gebracht. Sie sehen das Zusammentreffen von globalen Krisen als Chance. Der perfekte Sturm, der durch COVID-19 und die daraus resultierende globale Wirtschaftskrise ausgelöst wurde, bietet eine Chance, das zu tun, was sie als mutige und dramatische Maßnahmen zur Rettung des Planeten ansehen. Die Biden-Regierung wird sicherlich die Folgen von COVID nutzen, um einige grüne Gesetze durchzusetzen, aber genau wie früher wird das in den Augen der Progressiven nicht ausreichen. Es muss immer mehr und noch mehr sein.

Mariana Mazzucato, eine Autorin und Professorin für innovative Ökonomie an der Universität London, stellte im vergangenen September in MarketWatch die Aussicht auf Klima-Lockdowns in Aussicht:

„Unter einem ‚Klima-Lockdown‘ würden Regierungen die Nutzung von Privatfahrzeugen einschränken, den Verzehr von rotem Fleisch verbieten und extreme Energiesparmaßnahmen auferlegen, während Unternehmen, die fossile Brennstoffe nutzen, ihre Bohrungen einstellen müssten. Um ein solches Szenario zu vermeiden, müssen wir unsere wirtschaftlichen Strukturen überarbeiten und den Kapitalismus anders machen“.

Der Gedanke, „den Kapitalismus anders zu machen“, ist die treibende rhetorische Motivation hinter dem Great Reset des Weltwirtschaftsforums (ein anderer Begriff für die Umsetzung des globalen Marxismus).

Karl Lauterbach, ein Abgeordneter der deutschen sozialdemokratischen Partei, schrieb im vergangenen Dezember in Die Welt, dass „Schritte nötig seien, die ‚analog‘ zu Einschränkungen der persönlichen Freiheit wegen der Pandemie sind“.* Wie lange wird es dauern, bis diese Theorie auch hier in UK den Weg in die Nachrichten und die Reden der Politiker findet?

[*Original, keine Rückübersetzung]

Natürlich wird diese Idee einfach als „der Wissenschaft folgend“ wegdiskutiert werden. Die Abschaltungen, die im Frühjahr 2020 begannen, trugen zu dem bei, was Wissenschaftler als den größten Rückgang der CO2-Emissionen seit Jahren bezeichnen. Der größte Grund dafür war ein Rückgang des Auto- und Flugverkehrs um rund 40 Prozent. Das Weltwirtschaftsforum lobte diese Zahl in einem Blogbeitrag mit dem Titel „Emissions fell during lockdown. Let’s keep it that way.“

Klima-Alarmisten wie Greta Thunberg und John Kerry werden sich freuen, wenn sie die Emissionsdaten nutzen können, um ihre Vorstellungen von einer methan- und flugzeugfreien Zukunft durchzusetzen. Wie können Sie es wagen, das zu widerlegen! Falls wir alle nur für zwei Wochen zu Hause bleiben können (aus denen unweigerlich vier Wochen werden würden), ist es das wert, um den Planeten zu retten. Jeder, der solche Vorschläge in Frage stellt, wird als Wissenschaftsleugner abgestempelt und beschuldigt, seine Mitmenschen umbringen zu wollen (Sie wissen schon, was Sie hören, falls Sie bei einem entspannenden Spaziergang um den Block keine Maske tragen).

Der ganze Beitrag steht hier.

Link: https://www.thegwpf.com/are-you-ready-for-the-climate-lockdowns/

Übersetzt von Chris Frey EIKE

 




Bidens Klima-‚Fix‘ kostet Phantastillionen und ist absolut sinnlos

Überall auf der Welt geben sich Politiker die größte Mühe, eine fantastisch teure Klimapolitik zu versprechen. Präsident Biden hat versprochen, Jedes Jahr 500 Milliarden Dollar für das Klima auszugeben – etwa 13 Prozent der gesamten Bundeseinnahmen. Die Europäische Union wird 25 Prozent ihres Budgets für das Klima ausgeben.

Die meisten reichen Länder versprechen nun, bis zur Mitte des Jahrhunderts Kohlenstoff-neutral zu werden. Schockierenderweise hat nur ein Land eine seriöse, unabhängige Schätzung der Kosten vorgenommen: Neuseeland fand heraus, dass es bis dahin optimistischerweise 16 Prozent seines BIP kosten würde, was dem gesamten aktuellen neuseeländischen Haushalt entspricht.

Die entsprechenden Kosten für die USA und die EU würden sich auf mehr als 5 Billionen Dollar belaufen. Und das jedes Jahr! Das ist mehr als der gesamte US-Bundeshaushalt, oder mehr als die EU-Regierungen über alle Budgets für Bildung, Freizeit, Wohnen, Umwelt, Wirtschaft, Polizei, Gerichte, Verteidigung und Gesundheit zusammen ausgeben.

Bezeichnenderweise hat der Vizepräsident der Europäischen Kommission Frans Timmermans kürzlich zugegeben, dass die Klimapolitik so kostspielig wäre, dass es ohne riesige, schützende Grenzsteuern eine „Frage des Überlebens für unsere Industrie“ wäre.

Der Klimawandel ist ein reales, vom Menschen verursachtes Problem [?]. Aber seine Auswirkungen sind viel geringer, als die atemlose Klimaberichterstattung vermuten lässt. Das IPCC kommt zu dem Schluss, dass falls wir nichts unternehmen, die Gesamtauswirkungen des Klimas in den 2070er Jahren einer Einkommensreduzierung von 0,2 bis 2 Prozent entsprechen werden. Da bis dahin jeder Mensch voraussichtlich 363 Prozent so reich sein wird wie heute, bedeutet der Klimawandel, dass wir „nur“ 356 Prozent so reich sein werden. Das ist nicht das Ende der Welt.

Die Klimapolitik könnte am Ende viel mehr schaden, indem sie das Wachstum dramatisch reduziert. Für reiche Länder bedeutet geringeres Wachstum ein höheres Risiko für Proteste und politischen Zusammenbruch. Das ist nicht überraschend. Falls man in einer aufstrebenden Wirtschaft lebt, weiß man, dass es allen in den kommenden Jahren viel besser gehen wird. Daher ist man nachsichtiger gegenüber der Gegenwart.

Falls das Wachstum nahezu ausbleibt, wird die Welt zu einem Nullsummenspiel. Bessere Bedingungen für andere bedeuten wahrscheinlich schlechtere Bedingungen für Sie, was zu einem Verlust des sozialen Zusammenhalts und des Vertrauens in eine lebenswerte Zukunft führt. Die Proteste der „Gelbwesten“ gegen die Ökosteuern, die Frankreich seit 2018 erschüttern, könnten zu einem festen Bestandteil vieler oder der meisten reichen Gesellschaften werden.

Dennoch konzentrieren sich Politiker zwanghaft auf das Klima. Wachstumskillende „Lösungen“ würden ein paar Akademiker auf sicheren Arbeitsplätzen erfreuen, aber sie würden zu tragischen Ergebnissen von Stagnation, Streit und Unfrieden für die einfachen Menschen führen.

Die meisten Wähler sind nicht bereit, für diese extravagante Klimapolitik zu zahlen. Während Biden vorschlägt, das Äquivalent von 1.500 Dollar pro Amerikaner und Jahr auszugeben, zeigte eine aktuelle Umfrage der Washington Post, dass mehr als die Hälfte der Bevölkerung nicht bereit ist, auch nur 24 Dollar zu zahlen.

Und wofür? Falls alle reichen Länder der Welt ihre Kohlenstoffemissionen morgen und für den Rest des Jahrhunderts auf Null reduzieren würden, würde diese Anstrengung bis zum Jahr 2100 zu einer fast unmerklichen Reduktion der Temperaturen führen.

Das liegt daran, dass mehr als drei Viertel der globalen Emissionen im Rest dieses Jahrhunderts aus Asien, Afrika und Lateinamerika kommen werden. Diese Nationen sind entschlossen, ihre Bevölkerungen aus der Armut zu befreien und eine breite Entwicklung zu gewährleisten, indem sie reichlich Energie nutzen, meist aus billigen fossilen Brennstoffen.

Die letzten 30 Jahre Klimapolitik haben hohe Kosten und steigende Emissionen gebracht. Die einzigen verlässlichen Wege, die Emissionen zu senken, waren Rezessionen und die COVID-19-Sperren, die beide nicht vertretbar sind. Von den Nationen zu erwarten, dass sie aufhören, billige Energie zu nutzen, wird nicht erfolgreich sein. Wir brauchen Innovation.

Nehmen wir die schreckliche Luftverschmutzung in Los Angeles in den 1950er Jahren. Sie wurde nicht behoben, indem man die Menschen naiv aufforderte, nicht mehr Auto zu fahren. Stattdessen wurde sie durch Innovation behoben – der Katalysator erlaubte es den Menschen, weiter zu fahren und trotzdem wenig zu verschmutzen. Wir müssen in die Forschung investieren, um grüne Energie viel billiger zu machen: von besseren Solar- und Windenergieanlagen und Batterien bis hin zu billigerer Kernspaltung, Kernfusion und Kohlenstoffabscheidung.

Wir sollten Dutzende von Milliarden ausgeben, um den Preis für grüne Energie unter den von fossilen Brennstoffen zu bringen. Billionen für enorme und verfrühte Emissionssenkungen auszugeben, ist ein unhaltbarer und ineffektiver Erste-Welt-Ansatz.

Link: https://wattsupwiththat.com/2021/02/14/bidens-climate-fix-is-fantastically-expensive-and-perfectly-useless-bjorn-lomborg/

Übersetzt von Chris Frey EIKE