1

CO2-induzierter Zyklon-Weltuntergang glatt widerlegt: 170 Jahre „absolut kein Trend“ bei Hurrikan-Intensität/Häufigkeit

Alarmistische Behauptungen kosten nichts, und sind so leicht gemacht. Zoe Phin untersucht, ob die Behauptung der Hurrikan-Alarmisten haltbar ist.

Häufigkeit

Zuerst hat sich Zoe die (HURDAT2)-Daten angesehen, um herauszufinden, ob die erste der beiden Behauptungen (zunehmende Häufigkeit) wahr ist. Auf den ersten Blick scheint es so zu sein.

Aber Zoe fragt, ob die Methode zur Messung der Frequenz wirklich sinnvoll ist und ob es nicht vielleicht besser wäre, die Zeit zu messen, die der Atlantik im Hurrikan-Modus verbringt? Um das herauszufinden, hat Zoe die Hurrikan-Stunden-Daten und den gleitenden 10-Jahres-Durchschnitt aufgetragen:

Aus den Daten folgert Zoe: „Die Anzahl der Hurrikanstunden pro Jahr zeigt absolut keinen Trend!“

Intensität

Als Nächstes betrachtet sie die zweite Behauptung: Die Intensität der Hurrikane wird stärker – und damit potenziell zerstörerischer.

Um das herauszufinden, verwendet Zoe sinnvollerweise den Kerndruck der Hurrikane als Proxy. „Je niedriger der Druck, desto intensiver der Sturm.“

Sie stellt die Daten für alle Hurrikane und ihre entsprechenden niedrigsten Werte des Kerndrucks dar:

Kein Trend seit 170 Jahren!

Es gab einen Aufwärtstrend von 1970 bis etwa 2005, aber dann ließ die Intensität nach, obwohl die CO2-Konzentration in der Atmosphäre stetig anstieg. Der Spitzenwert um 2005 war ähnlich wie in den 1920er Jahren, also vor etwa 100 Jahren, als der CO2-Gehalt viel niedriger war.

Zoe fasst ihre Ergebnisse zusammen:

„Es gibt absolut keinen Trend in der Hurrikan-Intensität seit fast 170 Jahren!

Offensichtlich liegen die Klima-Alarmisten in Bezug auf die atlantischen Hurrikane falsch.“

Dieses Ergebnis wird durch andere, unabhängig voneinander gefundene Ergebnisse gestützt

Die Ergebnisse der Expertin kommen natürlich keineswegs überraschend für jene, welche die Daten genauer betrachten.

Andere führende Wissenschaftler sind zu den gleichen Ergebnissen gekommen: Hurrikane nehmen weder an Stärke noch an Häufigkeit zu. Beispiel: Klotzbach et al. 2018:

Oder Dr. Ryan Maue über die globale Zyklon-Aktivität seit dem Jahr 1970, wobei er sich auf Dr. Roger Pielke Jr. bezieht:

Oder Zhao et al. 2018 über Zyklone im Nordwest-Pazifik:

Japan verzeichnet einen abnehmenden Taifun-Trend

Ein weiteres Beispiel kommt von der japanischen Autorin bei NTZ Kirye. Sie trägt die Daten der Japan Meteorological Agency JMA bzglö. Pazifischer Taifune auf:

Daten: JMA

Alarmisten leben offenbar im La-La-Land

Eindeutig ist die Diskussion mit Alarmisten über dieses Thema Zeitverschwendung. Die Daten liegen vor und sind in ihrer Aussage ziemlich eindeutig: CO2 treibt kaum etwas an, geschweige denn Taifune.

Link: https://notrickszone.com/2021/05/22/cyclone-doomsday-refuted-170-years-absolutely-no-trend-in-hurricane-intensity-frequency/

Übersetzt von Chris Frey EIKE

 




Projektionen der Zunahme von E-Fahrzeugen: könnten platzen wie eine Seifenblase

Zugegeben, die Hälfte der EV’s im ganzen Land [= den USA] sind in Kalifornien registriert. Aber die beunruhigende Nachricht ist, dass es möglicherweise Warnzeichen für ein Platzen der EV-Wachstumsblase gibt, wie die Statistiken aus Kalifornien zeigen:

● Die hochgebildeten und finanziell gut gestellten Menschen sind derzeit die Hauptbesitzer von E-Fahrzeugen.

● Die EV-Nutzung von etwas mehr als 5000 Meilen pro Jahr spiegelt wider, dass das EV ein Zweitfahrzeug ist und nicht das Arbeitspferd der Familie.

● Der wachsende Prozentsatz von EV-Besitzern, die wieder auf Benzinautos umsteigen, ist eine Botschaft, die die EV-Wachstumsprognosen dämpfen könnte.

● Die größeren und schwereren benzinbetriebenen SUVs machen derzeit die Hälfte der Neuwagenverkäufe aus.

Gouverneur Newsom hat offenbar die Pflichtlektüre für den nächsten EV-Besitzer nicht gelesen: Rückschläge für EV’s, bevor er am 23. September 2020 eine Durchführungs-Verordnung ankündigte, die den Verkauf von gasbetriebenen Fahrzeugen bis 2035 verbieten soll. Er weist den Staat an, dass bis 2035 alle in Kalifornien verkauften Neuwagen und Personenkraftwagen emissionsfreie Fahrzeuge sein müssen.

Vielleicht haben die Bewohner der anderen 49 Staaten, die zusammen die anderen 50 Prozent der EV’s in Amerika ausmachen (ungefähr ein Prozent pro Staat), gelesen, was der kalifornische Gouverneur Newsom nicht verstanden hat, nämlich die folgenden 20 Nachteile von EV’s, die von Motor Junkie bereitgestellt wurden:

20. Kurzstrecken-Angst. Reichweitenangst ist der Faktor Nummer eins, wenn es um die Nachteile von EVs geht. Moderne Elektrofahrzeuge haben aufgrund ihrer Batterien mit geringer Kapazität nur eine begrenzte Reichweite. Die meisten erschwinglichen Elektroautos auf dem Markt haben etwas mehr als eine 130-Meilen-Reichweite.

19. Lange Ladezeiten. Auch wenn Tesla und Porsche erhebliche Verbesserungen vorgenommen haben, ist das Aufladen immer noch weit von der Geschwindigkeit entfernt, mit der man einen Benzintank füllt. Das Tanken dauert nur ein paar Minuten, verglichen mit dem Aufladen Ihres Fahrzeugs über Nacht.

18. Probleme bei der Reiseplanung. Geringe Reichweiten und lange Ladezeiten können jede Reiseplanung über den Haufen werfen. Sie können keine schnelle Reise mit einem Elektroauto planen, ohne den Standort von Ladestationen zu kennen. Sie müssen auch die geschätzte Dauer des Aufladens oder der Aufladung kennen.

17. Meistens gut für den Einsatz in der Stadt. Die Reichweite des EVs ist größer, wenn Sie in der Stadt fahren. Zweitens gibt es in Ballungsgebieten viel mehr Ladestationen.

16. Nicht umweltfreundlich. Haben Sie jemals darüber nachgedacht, was es braucht, um ein einziges Elektrofahrzeug herzustellen? Offensichtlich ist der Prozess der Herstellung eines großen Teils der Lithium-Ionen-Batterien aus den exotischen Mineralien und Metallen, die in fremden Ländern abgebaut werden, sowie deren Entsorgung umweltschädlich, da sie nicht recycelbar sind. Das schwächste Glied bzgl. EV-Zunahme ist die Materiallieferkette. Es gibt möglicherweise nicht genug Mineralien und Metalle auf der Welt, um das geplante EV-Wachstum zu erreichen.

15. Zu teuer. Es gibt eine Reihe von Elektroautos auf dem aktuellen Markt zu kaufen, wobei die Topmodelle weit über 100.000 Dollar kosten. Obwohl es auch erschwingliche Modelle wie den Volkswagen Golf E oder den Nissan Leaf gibt, kosten Elektrofahrzeuge immer noch deutlich mehr als Modelle, die mit fossilen Brennstoffen betrieben werden.

14. Reparaturschwierigkeiten. Wenn Sie ein Elektroauto besitzen, können Sie es vergessen, zu Ihrer örtlichen Werkstatt zu gehen oder es kostengünstig zu reparieren. Unabhängig von Typ und Modell erfordern vollelektrische Fahrzeuge spezielle Wartungs- und Serviceverfahren sowie extrem hohe Sicherheitsstandards.

13. Zu schwer. Bei einigen der High-End-Modelle wie dem Tesla Model X wiegt das Batteriepaket über 1.000 Pfund. Auch das Auto selbst wiegt über 2,3 Tonnen. Schwere Fahrzeuge bedeuten mehr Reifenverschleiß, mehr Energieverbrauch und auch mehr Wartungsaufwand.

12. Probleme bei niedrigen Temperaturen. Wo die Winter kalt und schneereich sind, kann die Entladung der Batterie bei kaltem Wetter ein großes Problem für den täglichen Gebrauch darstellen. Besitzer berichten von einer verringerten Reichweite und sogar dem Ausfall des Betriebs bei besonders harten Winterbedingungen. Das kann lebensbedrohlich sein.

11. Geringe Höchstgeschwindigkeit. Die meisten normalen Alltags-EVs sind ziemlich langsam. Die Höchstgeschwindigkeit des Golf E oder des Kia Soul EV ist z.B. auf unter 100 mph begrenzt.

10. Verbrauch im Straßenverkehr. Die beworbene Reichweite, mit der viele Hersteller prahlen, ist die durchschnittliche oder Stadtfahr-Reichweite. Die Reichweite auf der Autobahn ist jedoch viel geringer, manchmal bis zu 50 Prozent weniger.

9. Hoher Verbrauch bei schwerer Last. Egal wie stark oder groß Ihr Akkupack ist, der Energieverbrauch unter schwerer Last ist zu hoch.

8. Leichtes Verfolgen Ihrer Bewegungen. Diese Systeme sind darauf ausgelegt, Ihre Fahrgewohnheiten, Standorte, Ladepunkte usw. zu verfolgen. Sind Sie sicher, dass Sie wollen, dass jede Ihrer Bewegungen auf einem Server aufgezeichnet wird?

7. Einfach nur hässlich. Es gibt einige Elektrofahrzeuge, die atemberaubende Schönheiten sind, aber die meisten von ihnen sind einfach nur hässlich oder zumindest gewöhnlich.

6. Bedrohung bestehender Wirtschaftsmodelle. Einige Wirtschaftsexperten befürchten, dass die Massenproduktion von Elektrofahrzeugen und die Konzentration auf diese Art von Technologie das aktuelle Wirtschaftsmodell zerstören wird. Denken Sie auch an die riesige Autoindustrie mit all den Unternehmen, die kraftstoffbezogene Produkte herstellen, wie Motorenteile, Kraftstoffeinspritzsysteme, Getriebe und Antriebsstrangkomponenten. All diese Unternehmen und Millionen von Menschen würden arbeitslos werden, was die Wirtschaft und die globalen Standards weiter belasten würde.

5. Große Autofirmen sind sich nicht so sicher. Obwohl fast alle großen Autohersteller mindestens ein Elektrofahrzeug in ihrem Programm haben, sind die meisten ihrer CEOs nicht völlig davon überzeugt, dass Elektroautos die Zukunft der Branche sind. Ihre Vorstände und Marketingverantwortlichen haben beobachtet, wie problematisch das Elektroauto-Segment ist, daher zögern sie, sich voll und ganz auf Elektroautos einzulassen.

4. Praktisch unbrauchbar in Ländern und Märkten der Dritten Welt. Der Elektroauto-Wahnsinn ist auf einige wenige Länder und Märkte der ersten Welt beschränkt. Aber darüber hinaus sind Elektrofahrzeuge in anderen Gebieten nicht existent. Selbst China, der größte Markt der Welt, tut sich schwer damit, irgendwelche Initiativen für Elektroautos umzusetzen.

3. Die Käufer halten sie immer noch für eine Spielerei. Die meisten Autokäufer betrachten EVs immer noch als eine Art Verkaufstrick. Ihre speziellen Betriebsabläufe, begrenzte Nutzbarkeit und andere Fahrdynamik machen sie zu Autos für Technikfreaks, aber nicht zu regulären Transportmitteln.

2. Ein EV kann nicht das einzige Auto in Ihrem Haushalt sein. Selbst wenn Sie ein Elektroauto besitzen oder sich ein solches anschaffen wollen, sollten Sie wissen, dass es nicht alle Ihre Transportbedürfnisse erfüllen kann. Das gilt besonders, wenn Sie eine Familie haben und ein zuverlässiges Fahrzeug für Ihre Familie brauchen.

1. Ein schwieriger Verkauf. Die meisten Fahrer leasen ihr Elektroauto und geben es nach ein paar Jahren an den Händler zurück, um ein neues Modell zu bekommen. Diejenigen, die ein Elektroauto gekauft haben, könnten jedoch große Schwierigkeiten haben, es auf dem Gebrauchtwagenmarkt zu verkaufen oder es beim Händler einzutauschen.

Die Zeit wird zeigen, ob der kalifornische Gouverneur Newsom mit einer einfachen Durchführungsverordnung, Änderungen im Lebensstil für die Transportbedürfnisse der Bewohner, Unternehmen und der Wirtschaft herbeiführen kann.

Link: https://wattsupwiththat.com/2021/05/22/a-bust-to-ev-growth-projections-may-be-in-the-making/

Übersetzt von Chris Frey EIKE

 




Die EPA „liquidiert“ die Daten der Hitze- und Dürreperiode der 1930er Jahre

Diese seit Langem unbestrittene Klimadaten-Graphik ist jetzt durch eine Graphik ersetzt worden, in welcher jeder Hinweis auf diese große Hitze- und Dürreperiode einfach „verschwunden“ ist:

Außerdem hat die EPA eine weitere Graphik mit „Hitzewellen“-Klimadaten hinzugefügt, welche die Periode aus den 1930er Jahren überhaupt nicht mehr enthält, liegt doch deren Startzeitpunkt in den 1960er Jahren:

Die Graphik bzgl. Dürren in den USA ist noch die gleiche, aber angesichts der Daten-Manipulationen in den anderen Graphiken dürfte sie vielleicht nicht mehr lange vorhanden sein:

Es sieht so aus, als wäre die Ära aus Sowjet-Zeiten angebrochen mit „verschwindenden“ Graphiken und Daten – aber jetzt in der Ära der „Klimawissenschafts-Säuberung unter Biden“.

Link: https://wattsupwiththat.com/2021/05/21/epa-disappears-the-1930s-drought-and-heat-wave-climate-data/

Übersetzt von Chris Frey EIKE

 




Kältereport Nr. 10

Extremer“ Mai-Schneefall in der Tschechischen Republik

19. Mai: Weite Regionen der Tschechischen Republik (Tschechien), darunter auch Labská bouda im Riesengebirge, bleiben auch Mitte Mai unter einer „großen Schneeschicht begraben“, berichtet krkonossky.denik.cz.

Es liegt sogar so viel Schnee, dass es nicht einmal ein Schneepflug geschafft hat, sich durch den Massenschnee zu bewegen.

Der Fahrer des Fahrzeugs, Jaroslav Palivoda, der diese Straße seit fast 40 Jahren pflügt, sagte, dass er nur drei Mal eine solche Schneemenge erlebt hat, und nie so spät in der Saison.

Aleš Hnízdo, Betriebsleiter von Labská bouda im Riesengebirge, fügte hinzu: „In diesem Jahr gibt es wirklich extrem viel Schnee“.

Link: https://electroverse.net/may-snowfall-hits-the-czech-republic-arctic-urope/

—————————————

Rekorde brechende Kälte in Australien

Graphik: Extreme Weather GSM

20. Mai: Weite Teile Australiens frösteln unter einem rekordverdächtigen Kälteeinbruch, und die frostigen Morgenstunden werden im Osten des Landes bis zum Wochenende anhalten.

Das Quecksilber in Sydney fiel am frühen Donnerstagmorgen um 7 Uhr auf 8,6 °C und markierte damit den fünften Tag in Folge mit Temperaturen unter 9 °C.

Seit dem Jahr 1967 hat Sydney keine kältere Phase im Mai erlebt. Damals fiel die Temperatur sechs Nächte in Folge unter 9C.

Darüber hinaus war dies nicht nur die kälteste Serie von Mai-Nächten in 54 Jahren, sondern auch „die kälteste Serie von Nächten so früh im Jahr seit 66 Jahren“, sagte ein Sprecher des Bureau of Meteorology.

Link: https://electroverse.net/record-breaking-cold-blasts-australia-and-canada-global-cooling/

—————————————

Delhi, Indien: Kältester Mai-Tag seit 70 Jahren

20.Mai: „Selten wird die Öffentlichkeit über diese eklatanten Diskrepanzen zwischen der Grundlagenwissenschaft und dem, was uns Politiker und Pop-Wissenschaftler erzählen, informiert. Es gibt keinen Klima-Notstand“, so Dr. Roy Spencer.

Indiens Hauptstadt Delhi erlebt im Mai normalerweise sengende Temperaturen.

Gestern wurden jedoch nur 23,8 Grad Celsius gemessen – der kälteste Maiwert seit 1951 und rund 16 Grad Celsius unter dem saisonalen Durchschnitt.

Die jüngsten Regenfälle waren ebenfalls rekordverdächtig.

Nach Angaben des India Meteorological Department war der bisherige 24-Stunden-Niederschlagsrekord für den Monat Mai mit 60 mm am 24. Mai 1976 aufgestellt worden. Aber am Mittwoch, dem 19. Mai 2021, wurde diese Rekordmarke noch unterboten.

Link: https://electroverse.net/delhi-india-suffers-coldest-may-day-in-70-years-earth-has-cooled-0-8c-since-2016/

—————————————

Rekordkälte und Mai-Schnee im Westen der USA

21.Mai: Der sich noch im Mai akkumulierende Schnee hüllt die höheren Lagen des Westens der Vereinigten Staaten ein – die neueste unbequeme Beobachtung aus der realen Welt, die das heiße Durcheinander von AGW mit kaltem Wasser begießt.

Ein Sturm brachte am 20. Mai schwere Schneefälle in weiten Teilen des zentralen und westlichen Montana und verursachte eine Reihe von Stromausfällen im ganzen Staat.

Link: https://electroverse.net/record-cold-and-late-may-snow-sweeps-western-us/

—————————————

Mitte Mai: Februar-Wetter in Kalifornien

21. Mai: „Die hohen Temperaturen werden eher an das erinnern, was wir im Februar oder Anfang März sehen könnten“, warnt der National Weather Service. Noch mehr Schneefall im Anmarsch.

Ungewöhnlich starke Kaltfront

Eine ungewöhnlich starke Kaltfront wird heute in die Region eindringen und starke Winde sowie zahlreiche Regen- und Schneeschauer mit sich bringen.


Die Temperaturen werden sinken

Frost: Die Temperaturen sinken von heute bis Samstag deutlich unter die Norm. In Kombination mit böigen Winden und Schauern wird es für diejenigen, die sich für längere Zeit im Freien aufhalten, ziemlich unangenehm werden. Die Höchstwerte der Temperatur erinnern eher an das, was wir im Februar oder Anfang März sehen könnten.

Gefrieren wahrscheinlich

Frost ist am Freitagmorgen und möglicherweise auch am Samstagmorgen wahrscheinlich, also stellen Sie sicher, dass Ihre frühen Pflanzen darauf vorbereitet sind. Eventuell müssen sie gewässert werden.

https://www.weather.gov/rev/

Link: https://www.iceagenow.info/february-in-mid-may-for-california/

—————————————

wird fortgesetzt …

Hier aber doch mal das andere Vorzeichen, weil es die einzige Meldung dieser Art ist, die ich derzeit weit und breit finden kann:

Hitzewelle im Mittleren Osten: Im Iran schon bis zu 48 Grad heiß

Eine extreme Hitzewelle mit Temperaturen bis fast 50 Grad rollt derzeit durch den Mittleren Osten. Im iranischen Omidieh wurde am Samstag ein Spitzenwert von 48 Grad gemessen. Ähnlich heiß war es in weiteren Städten im Iran, Irak und Kuwait. So waren es am Flughafen in Kuwait 47 Grad.

Verbreitet liegen die Temperaturen in den beiden Anrainerstaaten am Persischen Golf über 45 Grad.

Schon in den vergangenen Tagen hatte es in der Region ähnlich hohe Temperaturen gegeben.

Derart frühe Hitzewellen sind in der Region am Persischen Golf allerdings nicht ungewöhnlich. Temperaturen über 45 Grad kommen dort Ende Mai immer mal wieder vor.

Link: https://www.wetteronline.de/wetterticker/69ee5b44-bfb6-4e05-b0b3-68173d5442ec

Bemerkung: Obwohl der Blog wetteronline.de auf der alarmistischen Seite steht, kommt dieser Beitrag doch recht sachlich daher. Merkwürdig ist aber, dass in den MSM davon genauso wenig zu finden ist wie von den unzähligen Kaltereignissen.

Zusammengestellt und übersetzt von Chris Frey EIKE

 




China: Neuer Schwung beim Ausbau der Kernenergie?

Einer Meldung in der Online-Ausgabe der Hongkonger South China Morning Post zufolge hat Chinas Staatsrat am 12. Mai beschlossen, insgesamt fünf neue Kernkraftwerke errichten zu lassen. Diese Massnahme ist als Auftakt eines langfristigen Bauprogramms zur Errichtung zahlreicher weiterer Kernkraftwerke gedacht. Mit dieser Initiative will das Land schrittweise seiner Selbstverpflichtung zur Deckelung der „Treibhausgas“-Emissionen bis 2030 und der Erreichung von CO2-Neutralität bis 2060 näherkommen. Bei den jetzt vorgesehenen Neubauten handelt es sich um vier klassische KKW’s mit einer Leistung von je 1,2 Gigawatt (GW) sowie einen neuartigen SMR (Small Modular Reactor). Die vier konventionellen Reaktoren sind russische VVER-1200 Kraftwerke, der SMR-Reaktor mit einer Leistung von 125 MW ist der Demonstrator einer chinesischen Eigenentwicklung. Der Bau von zwei der VVER-Reaktoren soll noch in diesem Jahr beginnen, ihre Inbetriebnahme ist für 2026 geplant. Mit diesen Projekten wird die Gesamtkapazität der chinesischen KKW-Flotte, die bisher bei rund 48 GW lag, um rund 10 % zunehmen.

Bild 1. Mit derzeit rund 50 Reaktoren liegt China hinter den USA und Frankreich weltweit an dritter Stelle (Grafik: World Nuclear Association)

Neue Ausrichtung der Langfrist-Strategie im Kernkraftbereich

In einem weiteren Artikel der gleichen Online-Ausgabe finden sich interessante Zusatzinformationen, aus denen sich einiges über die Hintergründe und Stoßrichtung der neuen KKW-Strategie herauslesen lässt. Es wird darauf hingewiesen, dass China Solar- und Windenergie als zu unzuverlässig für eine stabile Energieversorgung des Landes einstuft. Andererseits scheint das Land aber auch nicht vollständig oder zumindest überwiegend auf Kernkraft setzen zu wollen. Für diese Änderung der früheren Zielsetzung eines massiven KKW-Zubaus werden drei wesentliche Gründe angeführt: Die Fukushima-Ereignisse, die zunehmende Feindseligkeit des Westens und die geringen Uranreserven des Landes. Darüber hinaus lassen sich nicht nur aus den vorhandenen, sondern auch aus manchen nicht vorhandenen Angaben zusätzliche interessante Schlussfolgerungen ziehen.

Bild 2. Unser Blick auf China ist auch heute noch von Vorurteilen aus der Kolonialzeit geprägt. Historische Aufnahme aus dem deutschen „Schutzgebiet“ Tsingtau (heute Kiautschou)

Moratorium nach Fukushima

China ist unbestritten ein autoritär regierter Staat. Vielfach wird deshalb unterstellt, die Parteiführung würde einfach durchregieren, ohne sich um die Meinung der Bevölkerung zu scheren. In der Praxis achtet die politische Führung des Landes jedoch sehr darauf, Unmut im Volk zu vermeiden, indem sie dessen Lebensstandard stetig anhebt. Dies gilt auch für die ärmeren Schichten aus den wirtschaftlich unterentwickelten ländlichen Regionen, aus dem auch das Millionenheer der bitterarmen Wanderarbeiter kommt. Diese Haltung der Verantwortlichen erklärt sich aus den Lehren der chinesischen Geschichte. In Deutschland waren die Bauernrevolten des Mittelalters blutig gescheitert. Über Jahrhunderte regierten danach absolutistische Herrscher „von Gottes Gnaden“ nach Gutdünken und Gutsherrenart.

In China wurden dagegen wiederholt missliebige Dynastien von Volksaufständen hinweggefegt. Selbst die Herrschaft der nicht gerade als zimperlich bekannten mongolischen Eroberer fand durch den Aufstand unzufriedener Volksmassenassen ein abruptes Ende. Die heutige Führung, die selbst aus Erben eines erfolgreichen Aufstands verarmter bäuerlicher Massen besteht, hat diese Lektionen nicht vergessen. Deshalb wurden nach den Fukushima-Ereignissen die bisherigen Planungen gestoppt und der weitere Ausbau der Kernkraftflotte weitgehend auf Eis gelegt. Zunächst wollte man die Lehren aus dem ziehen, was in Japan passiert war. Dafür nahm das Land sogar ein mehrjähriges faktisches Moratorium bei dem dringend benötigten Ausbau der Versorgung mit Strom aus Kernkraft in Kauf. Diese Pause wurde für eine umfassende Analyse und Bewertung der Risiken sowie möglicher Verbesserungen der diversen existierenden und in der Entwicklung befindlichen Reaktortypen genutzt. Dies erfolgte unter umfassender Einbeziehung von Fachleuten aus den Bereichen Energieerzeugung und Kernkrafttechnologie.

Besonderer Wert wurde auch auf die Einbeziehung der Öffentlichkeit gelegt. Das im Jahre 2017 veröffentlichte Gesetz über Kernkraftsicherheit enthält deshalb ein eigenes Kapitel über „Offenheit der Informationen und Teilnahme der Öffentlichkeit“. Die Betreiber chinesischer Kernkraftwerke legen daher viel Wert auf Kommunikation mit der Öffentlichkeit, um deren Akzeptanz zu erhöhen.

Man vergleiche dies mit der nonchalanten Art, wie Merkel die Kernenergie per „Ordre de Mutti“ abräumte. Als Feigenblatt diente ihr das Votum einer Ethikkommission aus handverlesenen „Fachleuten“, die über Qualifikationen von Soziologie über Philosophie bis zu höchsten Kirchenämtern verfügten. Energiefachleute hatte man allerdings nicht hinzugezogen.

Bild 3. China begann erst 1991 mit der Stromerzeugung aus Kernenergie. Der geplante schnelle Ausbau wurde durch das Moratorium nach Fukushima erheblich verzögert (Grafik: World Nuclear Association)

Zunehmender Druck aus westlichen Ländern

Als zusätzliche Komplikation kam zu diesen innenpolitischen Überlegungen noch ein neuer Trend im politischen Raum hinzu. Spätestens ab 2000 wurde mit dem Amtsantritt von Präsident Bush erkennbar, dass die USA die Konkurrenz durch das industriell aufstrebende China nicht nur als lästig, sondern zunehmend als Bedrohung des eigenen Machtmonopols empfand. Man begann selbst solche Verbündete zu sammeln, deren Ruf eher zweifelhaft war. Schon Bush räumte Indien im Nuklearbereich weitreichende Privilegien ein, obwohl das Land bis heute dem Atomwaffensperrvertrag nicht beigetreten ist. Zu einer zeitlichen Verzögerung kam es dann allerdings aufgrund des Terroranschlags vom 11 September. Infolgedessen konzentrierten sich die USA zunächst auf den Krieg gegen den islamistischen Terror. Dabei verrannte man sich wie auch schon früher in opferreiche und nicht zu gewinnende Konflikte, diesmal in Afghanistan, dem Irak und anderen Ländern. Nach Bush griff Obama die Langfriststrategie gegen China dann mit der „Hinwendung zum Pazifik“ wieder auf und führte die langfristige politische und militärische Neuausrichtung gegen China weiter. Auf diesem Fundament konnte dann der wesentlich aggressiver auftretende Trump die endgültige Ablösung der bisherigen Politik der friedlichen Koexistenz durch eine weitgehende Konfrontation vollenden. Seither und auch unter Biden betreiben die westlichen Industriestaaten unter der Führung der USA eine Politik, die sich immer mehr in Richtung eines kalten Krieges 2.0 entwickelt. Der Westen nimmt hierbei für sich das Recht in Anspruch, von China weitreichende Veränderungen des politischen und sozialen Systems zu fordern, während Versuche Chinas, seinerseits Einfluss in anderen Ländern auszuüben, als „Aggression“ gebrandmarkt werden. Inzwischen hat sich daraus neben einem ständig verschärften Handelskrieg auch eine immer massivere Serie diplomatischer und militärischer Geplänkel entwickelt, durch die sich China in seinen Lebensinteressen bedroht sieht.

Drohende Einkreisung

Mit Blick auf den freien Zugang zum Meer und damit zum weltweiten Handel befindet sich China in einer geographisch ungünstigen Lage. Auf drei Seiten von Landgrenzen umgeben, ist der Zugang zum Pazifik und zum indischen Ozean nur durch einen flachen (und damit leicht zu verminenden) Ozean möglich, der durch einen doppelten Ring von Inselfestungen der USA und ihrer Verbündeten abgeriegelt ist. Eine US-geführte Koalition könnte das ölarme Land daher bequem durch Abriegelung der Handels- und Tankerrouten in die Knie zwingen. Zusätzliche Bedrohungspotenziale ergeben durch einen immer stärkeren Boykott bei wesentlichen Technologien wie der Zusammenarbeit im Weltall oder – gerade ganz aktuell – im Bereich moderner IT-Technologien wie 5G-Netzwerke oder der Chipherstellung. Im Bereich Kernenergie hat China deshalb den Kauf westlich lizensierter Kraftwerkstechnologie heruntergefahren. Stattdessen konzentrierte sich das Land darauf, eigene Reaktortechnologien zu entwickeln – und den Schulterschluss mit Russland zu suchen.

Uran aus dem Meer

Als weiterer Bremsklotz erweist sich für das Land die Abhängigkeit von ausländischen Uranimporten. Die heimischen Reserven von gerade einmal 170.000 Tonnen liegen noch unter denen von Frankreich. Bei einem Baufortschritt von jährlich sechs bis acht Kernkraftwerken würde China schon 2035 jährlich 35.000 Tonnen Uran benötigen. Die eigenen Reserven würden nicht einmal bis dahin reichen. Um sich vom Uranimport unabhängig zu machen, plant China deshalb die Entwicklung einer Anlage zur Gewinnung von Uran aus Meerwasser. Die Ozeane enthalten rund 1.000 Mal mehr Uran, als an Land gewonnen werden kann. Zwar werden die Kosten für die Gewinnung aus dem Meer um mindestens das zehnfache über denen aus bergbaulicher Gewinnung geschätzt, doch könnte sich das Land auf diese Weise eine unabhängige Versorgung sichern. Die Entwicklung dieser Technologie ist allerdings sehr aufwendig, so dass mit einem Durchbruch erst in den 2030er Jahren zu rechnen ist.

Russische Kraftwerke sind ein Signal an den Westen

Von besonderem Interesse dürfte an den obigen Meldungen sein, dass sich China für diesen bedeutsamen Neustart für russische und damit gegen westliche Technologie entschieden hat. Die vier konventionellen Reaktoren werden von russischen Unternehmen gebaut und von chinesischen Gesellschaften finanziert. Das an den Westen damit gegebene Signal ist überdeutlich, denn China dürfte sich in den nächsten Jahrzehnten zum mit großem Abstand weltgrößten Markt für Kerntechnologie entwickeln. Die jetzt angekündigten Reaktoren werden die derzeitige KKW-Kapazität des Landes um rund 10 % erhöhen. Bis 2035 rechnet die China Nuclear Energy Association mit einer Steigerung auf 200 GW. Chinas Gesamt-Stromerzeugung aus allen Technologien liegt derzeit mit ca. 7500 Terawattstunden/ Jahr (TWh/a) rund 11-12 Mal so hoch wie die Deutschlands. Mit der weiter fortschreitenden Industrialisierung des Landes wird sich der Bedarf bis zur Mitte des Jahrhunderts vermutlich um mindestens 50 % erhöhen. Um diesen ohne fossile Kraftwerke zu decken, wird man in China wohl mindestens 1200 GW an nicht-fossiler Stromerzeugung installieren müssen, das entspricht der Kapazität von rund 1.000 KKW.

Natürlich will China an diesem gigantischen Markt künftig auch selbst partizipieren. Aktuell hält man sich jedoch noch zurück, obwohl das Land inzwischen mit dem Hualong 1 über eine ausgereifte eigene Technologie verfügt. Dennoch wird dieser Reaktortyp in den oben erwähnten Meldungen nur im Zusammenhang mit dem geplanten neuen Modell Hualong 2 erwähnt, dessen Ersterrichtung ab 2024 beginnen soll. Der Bau des Hualong 2 soll lediglich 2.000 US-$/kWe kosten und in vier statt der bisher erforderlichen fünf Jahre erfolgen. (Zum Vergleich: Europäische Reaktoren des EPR-Typs wie Flamanville und Olkiluoto kosten ca. 10.000 US-$/kWe bei Bauzeiten von teils > 10 Jahren). Anhand solcher Vergleiche wird deutlich, welche Bedeutung der Kernenergie in Asien zukommen wird. Allein der chinesische Markt für Kernkraftwerke dürfte bis 2050 ein Volumen von mehreren 1.000 Mrd. US-$ haben, vom Weltmarkt ganz zu schweigen. Auf diesem Zukunftsmarkt werden Russland und später auch China den Ton angeben, während Deutschland und Europa die selbstgewählte Rolle des Windbeutels spielen dürften.

Quellen:

https://www.scmp.com/news/china/politics/article/3129691/china-gives-green-light-five-nuclear-units-cut-carbon-and-aim

https://www.scmp.com/news/china/science/article/3133379/can-ocean-fuel-chinas-nuclear-boom?module=lead_hero_story_1&pgtype=homepage

https://www.scmp.com/news/china/politics/article/3125086/chinas-leaders-keep-focus-job-creation-and-better-living

https://www.bing.com/search?form=MOZLBR&pc=MOZI&q=2011-07-28-abschlussbericht-ethikkommission-data.pdf

https://deutsche-schutzgebiete.de/wordpress/projekte/kolonien/kiautschou/

https://www.world-nuclear.org/information-library/country-profiles/countries-a-f/china-nuclear-power.aspx

http://german.china.org.cn/txt/2019-08/02/content_75060373.htm

https://www.sueddeutsche.de/politik/atomwaffensperrvertrag-das-indische-problem-1.889347

 




Die 1,5°C-Hysterie

Greta Thunberg, zum Beispiel, schreit ständig darüber, dass wir nur noch zehn Jahre haben, um den Planeten zu retten. (Gerüchten zufolge plant Al Gore, sie wegen Plagiats zu verklagen, indem er sagt: „Sie hat meine Aussage gestohlen! Ich habe Vorrang, das sage ich schon seit fünfzig Jahren!!“ … aber ich schweife ab.)

Also schauen wir mal, wie weit wir von der 2°C- oder der 1,5°C-Klippe entfernt sind, über die wir angeblich mit katastrophalen Folgen stürzen werden. Beginnen möchte ich mit einer langfristigen Betrachtung …

Abbildung 1: Rekonstruktion der außertropischen Temperatur der Nordhemisphäre

Dies zeigt die römische Warmzeit, die etwa 150 n. Chr. endete. Die Temperaturen sanken und erreichten ihren Tiefpunkt während des dunklen Zeitalters, etwa 500 n. Chr.. Danach stiegen sie bis zum Höhepunkt der mittelalterlichen Warmzeit um 1000 n. Chr., bevor es bis zum Tiefpunkt der Kleinen Eiszeit um 1700 wieder kälter wurde, um sich danach wieder schubweise zu erwärmen.

Fragen:

● Warum endete die römische Warmzeit?

● Warum endete sie um 150 n. Chr. und nicht etwa um 400 n. Chr.?

● Warum hat die anschließende Abkühlung um 500 n. Chr. aufgehört und nicht etwa 350 oder 650 n. Chr.?

● Warum hat sich die Erwärmung bis zum Höhepunkt der Mittelalterlichen Warmzeit nicht einfach fortgesetzt?

● Warum endete die MWP um 1000 n. Chr. und nicht etwa um 1200 oder 800 n. Chr.?

● Warum hat die anschließende Abkühlung 1700 n. Chr. aufgehört, anstatt sich bis zu einer neuen Eiszeit fortzusetzen, wie es die Milankovich-Zyklen nahelegen würden?

● Warum hat sich die Erde seither 300 Jahre lang erwärmt?

● Warum begann die jüngste Erwärmung etwa 100 Jahre vor dem jüngsten Anstieg der CO2-Werte?

Tipp: Die Antwort auf alle diese Fragen ist offensichtlich nicht „CO2“.

Die schlechte Nachricht ist, dass ich die Antwort auf diese Fragen nicht kenne. Aber die noch schlechtere Nachricht ist, dass kein einziger Klimawissenschaftler auf diesem Planeten die Antworten auf diese Fragen kennt.

Lassen Sie mich also zu Beginn meinen Appell an die so genannten „Klimastrologen“ wiederholen, meine Bezeichnung für jene wohlmeinenden Leute, die behaupten, sie könnten die Klimazukunft voraussagen, indem sie in die Eingeweide eines Klimamodells blicken und diese interpretieren …

Wie wäre es, wenn Sie aufhören, uns zu erzählen, dass Sie die Zukunft vorhersagen können, bis Sie die Vergangenheit erklären können?

Im Ernst, Leute, wenn ihr die Vergangenheit nicht erklären könnt, wie könnt ihr dann behaupten, die Zukunft voraussagen zu können? Das macht überhaupt keinen Sinn. Wenn ein Mann Ihnen sagen würde, dass sein System den Gewinner des morgigen Pferderennens vorhersagen kann, aber er kann den Ausgang eines einzigen Pferderennens in der Vergangenheit nicht erklären, würden Sie ihn auslachen … Ich schlage vor, Sie wenden das gleiche ungläubige Lachen auf die Leute an, die über „Szenarien“ und „Durchschnittswerte von Ensembles von ‚hypermodernen‘ Klimamodellen“ säuseln.

Nun, ich habe dies begonnen, um zu sehen, wie weit wir von den gefürchteten 1,5°C oder 2°C Erwärmung entfernt sind. Lassen Sie mich mit der Temperaturaufzeichnung in Mittelengland beginnen, eine der längsten, die wir haben. Ja, es ist nicht global, und ja, es ist nur auf dem Land … aber für die Menschen, die in diesem Teil des Planeten leben, ist es das, was sie erlebt haben. Diese Aufzeichnung sieht so aus:

Abbildung 2: Die Temperatur-Aufzeichnung in Zentral-England 1659 – 2020. Die rot/schwarze Linie ist eine CEEMD-Glättung.

Wie in Abbildung 1 ist zu erkennen, dass die Temperatur um 1700 ihren Tiefpunkt in der Kleinen Eiszeit erreicht hat. Warum das so ist? Wer weiß das schon? Und seitdem ist sie um mehr als zwei Grad angestiegen … wieder, wer weiß warum? Aber wenn jemand von irgendwelchen „Klima-Notfällen“ weiß, die auf diese drei Jahrhunderte allmählicher Erwärmung zurückzuführen sind, dann wäre jetzt der richtige Zeitpunkt, sie anzusprechen. Ich weiß von keinem. In der Tat war diese langsame Erwärmung im Allgemeinen für Mensch und Tier gleichermaßen vorteilhaft.

Ein zu kleines Gebiet? OK, hier ist die Berkeley Earth Aufzeichnung der globalen Landtemperatur. Die Anmerkungen in der Grafik zeigen, wie tief die extremen niedrigen Temperaturen sanken, nicht die Durchschnittstemperaturen, die durch die rote Linie angezeigt werden.

Abbildung 3. Berkeley Earth Land only Temperaturaufzeichnung. Der graue Bereich zeigt die Unsicherheit. Die gelb/schwarze Linie ist eine Gauß’sche Glättung.

Leider haben wir die Daten nicht bis 1700 zurück … aber wie man an der roten Linie sehen kann, gab es seit 1750 eine Erwärmung von über 2°C. Und noch einmal, ich weiß von keiner „Klimakatastrophe“ seit dieser Zeit.

Mögen Sie die reine Landnutzung nicht? OK, hier ist die globale Aufzeichnung von Berkeley Earth … wiederum ist sie sogar kürzer als die Aufzeichnung an Land, weil die früheren Ozeantemperaturen fehlen.

Abbildung 4: Berkeley Earth globale Land- und Ozean-Temperaturanomalie, 1850 – 2020

Wenn man bedenkt, dass sich der Globus von 1700 bis 1850 um etwa ein halbes Grad erwärmt zu haben scheint, sieht man, dass wir die gefürchteten 2°C „postindustrielle katastrophale Erwärmung“, mit denen die Klimaforscher die Unvorsichtigen in Angst und Schrecken versetzen wollen, bereits hinter uns haben … und es gab keine negativen Auswirkungen.

Meine Schlussfolgerungen und weiteren Gedanken?

Niemand kann das Klima der Vergangenheit erklären, was die Vorhersagen der Klimastrologen über das Klima der Zukunft zu einem kranken Witz macht.

Um das IPCC höchstselbst zu zitieren (Hervorhebung von mir): „Das Klimasystem ist ein gekoppeltes, nicht-lineares, chaotisches System, und deshalb ist die langfristige Vorhersage zukünftiger Klimazustände nicht möglich.“ Dies scheint für die Klimastrologen sehr schwer zu verstehen zu sein, aus dem Grund, der gleich unten genannt wird.

Erwarten Sie nicht, dass die Klimastrologen ihre Ansichten ändern werden. Wie Upton Sinclair bemerkte: „Es ist schwierig, einen Mann dazu zu bringen, etwas zu verstehen, wenn sein Gehalt davon abhängt, dass er es nicht versteht.“

Wir sind bereits über die gefürchteten „2°C Erwärmung seit vorindustrieller Zeit“ hinaus, vor denen sie uns immer wieder warnen.

Es hat keinen „Klimanotstand“ oder eine „Klimakatastrophe“ gegeben, die aus dieser 300-jährigen allmählichen Erwärmung resultiert.

Im Allgemeinen hat die Erwärmung zu längeren Vegetationsperioden, weniger strengen Wintern und längeren Perioden geführt, in denen die nördlichen Häfen eisfrei sind, und sie war im Allgemeinen eher ein Vorteil als eine Gefahr.

Die Erwärmung fand hauptsächlich nachts, im Winter, in den außertropischen und subpolaren Regionen statt. Ich glaube nicht, dass sich die Leute in, sagen wir, Wladiwostok über etwas wärmere Winternächte beschweren, vor allem nicht die Obdachlosen.

Ein Übermaß an Kälte ist für die Armen viel tödlicher als ein Übermaß an Wärme.

Es gibt keine Anzeichen für den lange angekündigten, aber nie eintretenden „KLIMA-NOTFALL“!

Die Unkenrufe der Klimatastrophisten haben alle kläglich versagt. Hier gibt es eine Liste von fünfzig solcher katastrophalen Fehlvorhersagen.

Wenn eine Gruppe bei ihren Katastrophenvorhersagen null zu fünfzig liegt, ist es gerechtfertigt, auf ihren letzten Unkenruf zu zeigen und zu lachen.

Der Durchschnitt eines „Ensembles“ aus einer Anzahl ungenauer Klimamodelle ist so nützlich wie die römische Version, der Durchschnitt eines Ensembles aus den Eingeweiden einer Anzahl von Ziegen.

Klimawissenschaftler sollten aufhören, so zu tun, als wären sie das Orakel von Delphi, aus dem Chicken Little „THE SKY IS FALLING!!!“-Geschäft ganz aussteigen und nur daran arbeiten, das Klima der Vergangenheit zu verstehen. Erst wenn sie die Vergangenheit verstehen können, sollten sie anfangen, Vermutungen über die Zukunft anzustellen.

Ich sage „Vermutungen“, weil, wie das IPCC sagt, eine langfristige Vorhersage zukünftiger Klimazustände einfach nicht möglich ist.

Und schließlich, was können wir gegen all das tun? Hier ist der Schlüssel.
Alles, wovor uns die Leute in Bezug auf den gefürchteten „KLIMA-NOTFALL!“ warnen, haben wir schon immer erlebt. Sie warnen vor Dürreperioden? Was, als ob es die nicht schon früher gegeben hätte? Überschwemmungen? Stürme? Wirbelstürme? Gab es schon, gab es schon.

Waldbrände? Allmählicher Anstieg des Meeresspiegels? Hat es schon immer gegeben.
Das einzige Neue, das CO2 uns bringen könnte, ist die „Froschplage“, die in der Bibel erwähnt wird, und ich rechne nicht damit, dass das passiert. Außerdem … selbst das ist schon mal passiert.

Ich sehe keine Zunahme von irgendetwas Schlimmem, von dem die Alarmisten schreien. Ich kann nichts finden, was schief läuft, kein Thermageddon, keine Katastrophen, nada.

Aber wenn Sie immer noch glauben, dass in der nebligen Zukunft eine Katastrophe droht, Gretas berühmte schreckliche Sache, die immer zehn Jahre entfernt ist, dann empfehle ich Ihnen dringend, eine „No Regrets Option“ zu erwägen. Das heißt, etwas zu tun, das von Wert sein wird, egal ob CO2 die Haupt-Temperaturkontrolle ist oder nicht.

Wenn Sie zum Beispiel glauben, dass wir durch den CO2-Anstieg mehr Dürren bekommen werden, dann spenden Sie Geld an Organisationen, die in Afrika Brunnen bohren. Oder setzen Sie sich für dürreresistente Nutzpflanzen ein. Oder arbeiten Sie daran, Landwirten beizubringen, wie sie ihren Wasserverbrauch reduzieren können.

Denn jedes dieser Dinge wird von Wert sein, egal ob CO2 schlechte Nachrichten bringt oder nicht … und so werden Sie die Arbeit, die Sie geleistet haben, niemals bereuen, egal wie sie ausgeht.

Link: https://wattsupwiththat.com/2021/05/20/the-1-5c-hysteria/

Übersetzt von Chris Frey EIKE

 




Ist die jüngste Rekord-Kälte einfach nur La Niña geschuldet – oder dem Beginn einer globalen Abkühlung?

Von den Mainstream-Medien in ihrer Besessenheit von der globalen Erwärmung wenig beachtet, ist ein außergewöhnlich kalter Winter 2020-21 in der nördlichen Hemisphäre und ein ungewöhnlich früher Start des Winters in der südlichen Hemisphäre. Niedrige Temperatur- und Schneefallrekorde purzeln überall auf dem Globus. Die strenge Kälte hat bereits die diesjährigen Ernten und Reben in Europa lahmgelegt, während der US-Bundesstaat Texas vom subfrostigen Polarwirbel heimgesucht wurde.

Ist dies der Beginn des vorhergesagten großen solaren Minimums, von dem in einem früheren Beitrag die Rede war – oder einfach nur eine Manifestation des natürlich auftretenden La-Niña-Zyklus? Ein großes solares Minimum wird durch einen steilen Rückgang der maximalen Anzahl von Sonnenflecken während des 11-jährigen Sonnenzyklus gekennzeichnet – ein Rückgang, der bereits im Gange zu sein scheint.

Die bekannten El-Niño- und La-Niña-Zyklen entstehen durch wippende Veränderungen der Oberflächentemperaturen im tropischen Pazifik und dauern jeweils ein Jahr oder länger. Das anhaltende, aber unregelmäßige Muster ist in der untenstehenden Grafik erkennbar, die Satellitenmessungen der globalen Temperatur seit 1979 zeigt. Warme Spitzen wie in den Jahren 1998, 2010 und 2016 sind auf El Niño zurückzuführen; kühle Spitzen wie in den Jahren 2000 und 2008 sind auf La Niña zurückzuführen. Zu den klimatischen Auswirkungen von El Niño und La Niña gehören katastrophale Überschwemmungen im Westen Amerikas und Überschwemmungen oder schwere Dürren in Australien; La Niña wurde auch mit großen, auf das Festland übergreifenden Hurrikanen sowohl in den USA als auch im westlichen Pazifik in Verbindung gebracht.

Die Null-Basislinie in der Abbildung stellt die durchschnittliche Temperatur in der tropischen unteren Atmosphäre oder Troposphäre von 1991 bis 2020 dar (obwohl die Satellitenaufzeichnung 1979 begann). Beobachtungen in der Troposphäre sind ein zuverlässigerer Indikator für die globale Erwärmung als Oberflächendaten, die durch den städtischen Wärmeinseleffekt auf dem Land und durch unzureichende Messstationen auf den Ozeanen verzerrt sind.

Jetzt, im Mai 2021, ist es klar, dass wir eine weitere La Niña erleben, da die mittlere Temperatur im April auf den langfristigen Durchschnitt zurückgefallen ist. Das ist natürlich nicht von Dauer, und das Quecksilber wird mit zukünftigen El-Niño- und La-Niña-Schwankungen weiter steigen und fallen. Aber diese Schwankungen überlagern sich mit einem allgemeinen Erwärmungstrend von derzeit 0,14 Grad Celsius pro Jahrzehnt – die bekannte globale Erwärmung.

Ob die derzeitigen eisigen und schneereichen Bedingungen in weiten Teilen der Welt lediglich eine Folge von La Niña sind oder der Beginn eines längeren Abkühlungstrends, werden wir erst in einigen Jahren wissen. Das Klima ist schließlich ein langfristiger Durchschnitt des Wetters über einen längeren Zeitraum, bis hin zu Jahrzehnten.

Nichtsdestotrotz gibt es zahlreiche Anzeichen dafür, dass die aktuelle Kältewelle nicht nachlassen wird. Zur gleichen Zeit, als in Großbritannien die niedrigste durchschnittliche Temperatur im April seit 1922 gemessen wurde und sowohl die Schweiz als auch Slowenien Rekord-Tiefsttemperaturen in diesem Monat verzeichneten, wurde Australien, Neuseeland und sogar die normalerweise ohnehin schon frostige Antarktis in der südlichen Hemisphäre von klirrender Kälte heimgesucht. Die nächste Abbildung zeigt, wie die Meereisausdehnung 2021 (in blau) um die Antarktis über oder nahe dem 30-jährigen Durchschnitt von 1981 bis 2010 (in grau) liegt.

Auch auf der ganzen Welt wurden weiterhin Schneerekorde gebrochen. Belgrad, die Hauptstadt Serbiens, verzeichnete im April die höchste April-Schneemenge seit 1888; sowohl Finnland als auch Russland meldeten im April die höchste April-Schneemenge seit Jahrzehnten; und Großbritannien, Spanien und mehrere Länder im Nahen Osten erlebten von März bis Mai seltene Frühlingsschneefälle. Auf der anderen Seite des Globus fielen auf den Berggipfeln im Südosten Australiens bis zu 22 cm Schnee, und das ganze zwei Monate vor Beginn der Skisaison 2021.

Die Abbildung unten zeigt die Schneemasse der nördlichen Hemisphäre (ohne Berge) für die aktuelle Saison, basierend auf Daten des Finnischen Meteorologischen Instituts. Wie zu sehen ist, lag die Schneemasse über weite Teile der Saison mehr als eine Standardabweichung über dem Durchschnitt für 1982-2012, und im März 2021 überstieg sie den Durchschnitt um zwei Standardabweichungen. Die Masse wird in Milliarden Tonnen (Gigatonnen, Gt, wobei 1 Tonne = 1,102 U.S. Tons) angegeben.

Der ganze Beitrag steht hier.

Übersetzt von Chris Frey EIKE

 




Neue Studie: Meereis um die Antarktis WÄCHST

Tatsächlich hat die lästige Realität das Wasser so sehr getrübt, dass die „globale Erwärmung“ nun auch Rekordkälte und Schneefall erklärt, was absolut keinen Sinn ergibt.

Wetterextreme hat es immer gegeben und wird es immer geben, aber laut IPCC nimmt die Häufigkeit und Heftigkeit solcher Extreme zu, wobei die menschlichen Kohlendioxidemissionen der alleinige Schuldige sind.

Diese Erklärung sollte von jedem, der zu logischem Denken fähig ist, als verdächtig simpel angesehen werden, doch wenn man diese Hypothese öffentlich in Frage stellt, wird man geächtet, sein Charakter wird angegriffen, seine Qualifikationen werden abgelehnt und sogar seine früheren Auszeichnungen werden widerrufen.

Ein CO2-Anstieg kann nicht der Grund für die Temperaturextreme sein, die gerade Neuseeland betroffen haben.

Der heutige wissenschaftliche Konsens tut sich schwer, die beobachtete Zunahme dieser wellenförmigen, meridionalen Jetstreams (das Phänomen hinter den Schwankungen zwischen den Extremen) zu erklären, und ein Konsens wurde tatsächlich nicht erreicht – vielleicht, weil die Masse normalerweise nicht so tief schürft und daher das Aushecken einer abgestimmten Erzählung nicht erforderlich ist.

Es gibt jedoch einen schwachen Konsens zu diesem Thema: Er besagt, dass „weil sich die Polarregionen der Erde schneller erwärmen als der Rest der Welt, der Temperaturkontrast, der die Jetstreams antreibt, abgenommen hat“ – was zu schwächeren Jets führt.

„Polar Amplification“ ist die Theorie in Kurzform. Aber mindestens ein unüberwindbares Problem stellt sich, wenn es darum geht, die Extreme der südlichen Hemisphäre zu erklären – die Wissenschaft zeigt uns, dass sich die Antarktis tatsächlich nicht erwärmt.

[Hervorhebung im Original]

Satellitendaten zeigen, dass die Meereisausdehnung um den Südpol in den letzten 40+Jahren tatsächlich gewachsen ist, und zeigen auch, dass die Temperaturen auf dem gesamten Kontinent keinen wirklichen Trend zeigten.

Tatsächlich hat die südlichste Spitze Südamerikas in den letzten Jahrhunderten eine schnelle Abkühlung erfahren.

Und in den „jüngsten Jahrzehnten“ hat sich das Meerwasser auf die niedrigsten Temperaturen der letzten 10.000 Jahre abgekühlt (Bertrand et al., 2017).

Weitere Studien zeigen, dass nicht nur das Meereis um die Antarktis in den letzten Jahrzehnten zugenommen hat – im Tandem mit der Abkühlung des Südlichen Ozeans (Fan et al., 2014) – sondern dass die gesamte Meereisausdehnung der Südhalbkugel seit den 1970er Jahren schleichend nach Norden gewandert ist (Comiso et al., 2017).

Und nun zeigt eine neue Studie (Salame et al., 2021), dass das Meereis der südlichen Hemisphäre seit dem Jahr 2000 so weit nach Norden vorgedrungen ist, dass es jetzt bis in die südchilenischen Fjorde bei 54°S reicht, also bis zu 100 km weiter nördlich als die früheren Schätzungen des NSIDC (55°S).

Die täglichen mittleren Lufttemperaturen in den südlichsten Fjorden Südamerikas fielen 2015 während 74 % der vier Monate von Juni bis September unter 0 °C.

Ähnliche ausgedehnte Kälteperioden traten während der gesamten Temperaturaufzeichnung 2000-2017 für diese Region auf.

Diese anhaltenden Minusgrade werden als Hauptgrund für die Bildung von Meereis in den letzten Jahrzehnten in allen 13 analysierten Fjorden der Cordillera Darwin angesehen.

Auch die Gesamtdaten des NSIDC unterstützen einen allgemeinen Trend des Wachstums.

Das Antarktische Meereis-Diagramm dieser Agentur (siehe unten) zeigt, dass die diesjährige Ausdehnung seit Anfang Februar auf Hochtouren läuft. Und jetzt, am 10. Mai oder am Tag 130, liegt die Ausdehnung deutlich über dem Durchschnitt der Jahre 1979 bis 1990:

(NSIDC)

In der Antarktis befinden sich 90 % des Süßwassers der Erde.

Wenn Sie sich Sorgen um den Anstieg des Meeresspiegels machen, dann müssen Sie hier nachsehen.

Das Eis auf dem Planeten wächst insgesamt.

Dennoch wird diese imaginäre „Klimakrise“ nicht so bald verschwinden
Offensichtlich falsche Behauptungen über eine bevorstehende Katastrophe werden benutzt, um eine wirtschaftlich schädliche Politik umzusetzen.

Am 15. September 2020 gab die neuseeländische Regierung bekannt, dass das Kabinett die Einführung einer verpflichtenden klimabezogenen finanziellen Offenlegungsvorschrift beschlossen hat.

Wie viele Industrienationen stellt Neuseeland willentlich auf eine Wirtschaft mit niedrigeren Nettoemissionen um, mit dem Ziel, Netto-Null-Emissionen zu erreichen (auch bekannt als wirtschaftlicher Selbstmord).

Ironischerweise werden die Menschen jedoch bald nach all der Kohle, dem Holz und was auch immer sonst noch brennt, das sie bekommen können, schreien, denn die nächste große Abkühlungsepoche bricht an, das nächste Grand Solar Minimum steht vor der Tür.

Lehnen Sie die politisierten Narrative der linearen Erwärmung ab.

Bereiten Sie sich stattdessen auf die nächste große Abkühlung vor.

Das Klima ist schließlich zyklisch.

Link: https://electroverse.net/new-zealand-swings-to-cold-study-shows-antarctic-ice-is-growing/

Übersetzt von Chris Frey EIKE

 




Wirksamkeit von Impfstoffen: eine Frage der Präsentation

Es handelt sich dabei um die Verminderung des relativen Risikos, an einer schweren Form von Covid-19 zu erkranken.

Dieser Wert ist abhängig:

  • Von den Bedingungen des klinischen Tests,
  • Von den Personen, die daran teilgenommen haben,
  • Und vom Zeitpunkt, an dem der Test durchgeführt wurde.

Wenn die ausgewählten Personen z. B. älter gewesen wären oder mehr Vorerkrankungen gehabt hätten oder wenn der Test zum Zeitpunkt einer größeren Virenverbreitung durchgeführt worden wäre, wäre die relative Effizienz der Impfung viel kleiner gewesen.

Für die Personen, denen man eine Impfung oder reine Behandlung anbietet, ist das absolute Risiko wichtiger.

Das relative Risiko (auf Englisch abgekürzt RRR) ist eine Zahlenangabe, die Ihnen sagt, wie etwas, das Sie tun oder unterlassen, ihr Erkrankungsrisiko verändert.

Wenn Sie z.B. nicht rauchen, sinkt Ihr Risiko, an Herz-Kreislauf-Problemen zu erkranken, im Vergleich zu den Rauchern um 30 Prozent. Es geht dabei immer um den Vergleich zwischen zwei Gruppen. Wenn Sie wissen, zu welcher Gruppe Sie gehören, können Sie die Wahrscheinlichkeit einer Erkrankung abschätzen.

Diese Angabe ist also relativ und bezieht sich nicht unbedingt auf Ihren persönlichen Fall, sondern auf die Gruppe, der Sie angehören. Die Information über die relative Risikominderung ist sinnvoll für Forscher, die Meta-Analysen durchführen, denn sie erlaubt es die Ergebnisse verschiedener klinischer Studien zu kombinieren. Auf keinen Fall können Sie daraus ersehen, ob eine Behandlung ihnen persönlich nützt, denn sie berücksichtigt nicht ihr persönliches Erkrankungs-Risiko ohne Behandlung.

Für jeden von uns ist es wichtig zu wissen, was eine Behandlung oder Impfung für eine Einzelperson bewirken kann. Dafür braucht man den Wert der absoluten Risikominderung (auf Englisch abgekürzt ARR).

Das absolute Risiko ist Ihre anfängliche Wahrscheinlichkeit, eine Krankheit wie Krebs, Bluthochdruck …oder Covid-19 nach einer SARS-CoV-2-Infektion zu bekommen. Sie müssen deshalb wissen, wie hoch Ihr Risiko (in %) ist, diese Krankheit ohne Behandlung zu entwickeln. Von diesem Wert müssen Sie das in klinischen Studien ermittelte absolute Risiko abziehen.

  • Diesen Wert müssen Sie kennen, um eine rationale Entscheidung über den Nutzen einer Behandlung im Vergleich zu den damit verbundenen Nebenwirkungen treffen zu können.

Aber diese Prozentzahl der «absoluten Risikominderung» ist immer viel niedriger als die Zahl der «relativen Risikominderung» und ist deshalb nicht sexy genug, um eilig entwickelte Produkte an den Mann zu bringen. Aus diesem Grund benutzen die Pharma-Hersteller viel lieber den RRR als den ARR.

Hier ein einfaches Beispiel eines klinischen Tests:

Quelle 1: https://www.mdpi.com/1648-9144/57/3/199

Sie werden so leicht verstehen, warum die Pharma-Labore lieber den RRR als den ARR verwenden.

Die Prozentzahl der relativen Risikoreduktion wird von den Herstellern gerne im Marketing benutzt, weil sie den erwarteten Nutzen einer Behandlung übertreibt. Die gleichen Hersteller benutzen aber die ARR, um Nebenwirkungen zu verharmlosen.

Die Mediziner sollten den Personen, die sich für eine Behandlung oder Impfung entscheiden müssen, den ARR mitteilen, damit sie deren REALEN Nutzen beurteilen können. Das ist die Basis einer aufgeklärten Einwilligung.

Demonstrieren wir das am Beispiel der klinischen Studien, die den Corona-Impfstoffen von BionTech-Pfizer und Moderna zugrunde liegen. (Quelle 2) https://bestpractice.bmj.com/info/toolkit/learn-ebm/how-to-calculate-risk/

BionTech-Pfizer (Quelle 3) :

https://www.nejm.org/doi/full/10.1056/NEJMoa2034577

Wenn Sie also jung sind und ein gegen Null gehendes Risiko, an einer schweren Form von Covid-19 zu erkranken haben, würden Sie sich dann für eine Risikominderung von 0,71 % impfen lassen und dabei eventuell schwere Nebenwirkungen in Kauf nehmen? Selbst wenn ihr Covid-Risiko bei 30 Prozent läge, würde dann dessen Verminderung um 0,71% für Sie etwas ändern?

Für Ihre Entscheidung ist ein weiterer Wert von Interesse: der NNT. Das ist die Zahl der Geimpften, die erreicht werden muss, damit wenigstens eine Person davon profitieren kann.

Im Fall BionTech-Pfizer: NNT = 1 / ARR = 1 / 0.0071 = 141.

Das bedeutet, dass von 141 mit diesem Produkt geimpften Personen 140 das Risiko schwerer bis tödlicher Nebenwirkungen in Kauf nehmen müssen, ohne davon einen Nutzen zu haben!

Würden Sie dieses Risiko akzeptieren?

Hier noch eine Überraschung: Die Zahlen der in Israel durchgeführten massiven Impfkampagne bestätigen mit einem ermittelten RRR von 94% durchaus die Hersteller-Angaben. Aber der im realen Leben (mit Masken- und Abstandsgebot) ermittelte ARR sank gegenüber der klinischen Studie auf 0,46%! In diesem Fall musste man also 217 Personen impfen, damit eine einzige davon profitieren konnte. Aber die «Experten» haben sich gehütet, das an die große Glocke zu hängen.

Nun zum Impfstoff von Moderna (Quelle 4) :

https://www.nejm.org/doi/full/10.1056/nejmoa2035389

In diesem Fall ist der NNT = 1 / ARR = 1 / 0.011 = 91.

91 Personen müssen sich also impfen lassen, damit ein Individuum davon profitiert. Die 90 übrigen nehmen das Risiko schwerer bis tödlicher Nebenwirkungen in Kauf.

Das ist die ganze Wahrheit über die Impfstoffe, die die Welt retten sollen!

Zu den Vorschriften der US-Genehmigungsbehörde FDA für die Vermarktung von Pharma-Produkten (Quelle 5) gehört die Verpflichtung der Hersteller, der Öffentlichkeit alle diese Daten zugänglich zu machen, damit jede Person die Vor- und Nachteile einschätzen und sich bewusst entscheiden kann.

(Quelle 5):

P60. https://www.fda.gov/media/81597/download + https://www.fda.gov/about-fda/reports/communicating-risks-and-benefits-evidence-based-users-guide

2. Provide absolute risks, not just relative risks. Patients are unduly influenced when risk information is presented using a relative risk approach; this can result in suboptimal decisions. Thus, an absolute risk format should be used.

Doch für die hier zur Debatte stehenden Impfstoffe haben weder die FDA noch die EMA etwas derartiges verlangt. Sie haben nur auf die RELATIVE Risikominderung hingewiesen. Dieses Versäumnis ist nicht nur unehrlich, sondern auch gefährlich.

Wie ist es möglich, dass unsere Gesundheitsbehörden und unsere Minister uns auf dieser Datengrundlage erzählen können, dass die Covid-Impfstoffe funktionieren, dass ihr Nutzen größer ist als die Risiken und uns aus der Krise herausführen können?

Wie können sie ins Auge fassen, Personen ohne Risiko und sogar Kinder impfen zu lassen, wo ihnen doch diese Impfstoffe nicht nur nichts nützen und die Meldungen über schwere bis tödliche Nebenwirkungen täglich zahlreicher werden.

Allerdings weisen manche darauf hin, dass die Impfung doch funktioniere, indem sie auf die Beispiele Israel und England verweisen, wo es praktisch kaum noch Todesopfer gebe.

Betrachten wir deshalb die Mortalitätskurven dieser beiden Länder (Quellen 7 und 8). Israel und Großbritannien haben mit der Impfung der ältesten und fragilsten Personen begonnen: Nach dem Beginn der Impfkampagne kam es zu einer Explosion der Mortalität, ein Phänomen, das in allen Ländern mit Massenimpfungen beobachtbar ist. Das bezeichnen manche Epidemiologen als „Ernte-Effekt“: Die Impfung hat das Ableben von Personen beschleunigt, die ohnehin nicht mehr lange gelebt hätten.

https://www.worldometers.info/coronavirus/country/uk/

https://www.worldometers.info/coronavirus/country/israel/

So ist es kein Wunder, dass die Kurve der Sterblichkeit danach wieder absackt.

Überall auf der Welt vermehren sich die Infektionszahlen bei doppelt geimpften Personen. Die Insassen der Pflegeheime sterben weiter und niemand möchte der Wahrheit ins Auge blicken. Niemand wagt es, die richtigen Fragen zu stellen. Im Gegenteil versteift man sich in einer morbiden Flucht nach vorne.

Es wird also wohl im Herbst eine vierte Corona-Welle geben, die die verletzlichsten Personen, ob geimpft oder nicht, mitreißen wird. Anstatt die Nutzlosigkeit und Gefährlichkeit der Gen-Therapien anzuerkennen, hat man bereits ein Narrativ vorbereitet, um davon abzulenken. Die Rede ist von neuen Virus-Varianten, von der geringen Wirksamkeit von Impfstoffen, die nach sechs Monaten einer Auffrischung bedürfen. Es wird eine Art Jahres-Abo bei Pfizer geben. Dessen Chef hat das zynischer Weise selbst angekündigt (Quelle 9):

https://www.latribune.fr/economie/international/une-troisieme-dose-du-vaccin-pfizer-probablement-necessaire-selon-son-pdg-882539.html

Wie sind wir da hinein geraten? Es ist schwer, diesen wütenden Wahnsinn zu verstehen, der viele Kranke, Invalide und Tote zurücklassen wird. Welche Gesellschaft kann so etwas akzeptieren? Welche Gesellschaft, die sich ohnehin bereits gegenüber der jungen Generation versündigt hat, bereitet sich nun darauf vor, diese durch eine Gen-Therapie mit unabsehbarem Langzeit-Nebenwirkungen noch größeren Gefahren auszusetzen?

Um ihre Ziele zu erreichen, bereiten die europäischen Führer*innen den Impfpass vor. Sie halten die Bevölkerung in Angststarre, um sie am Nachdenken zu hindern.

Viele werden sich daran erinnern…und die Verantwortlichen werden Rechenschaft ablegen müssen! (Übersetzung: Edgar L. Gärtner)

Quelle: Collectif Citoyen für FranceSoir (https://www.francesoir.fr/opinions-tribunes/efficacite-des-vaccins-tout-est-une-question-de-presentation)




Die Null-Kohlenstoff-Pläne von Kalifornien: Beherrscht eigentlich noch jemand die Grundlagen der Arithmetik?

Im Jahr 2018 hat Kalifornien ein Gesetz mit der Bezeichnung SB100 erlassen, das einen 100 % kohlenstoffemissionsfreien Stromsektor bis 2045 vorschreibt. Aber wie kommt man von hier nach dort? Diese Frage wurde schließlich im März dieses Jahres beantwortet, als die für die Erreichung des Ziels zuständigen kalifornischen Behörden (California Energy Commission, California Public Utilities Commission und California Air Resources Board) einen gemeinsamen Bericht und ein dazugehöriges zusammenfassendes Dokument veröffentlichten, in dem sie ihre Pläne darlegten. Die Pläne können über diesen Link abgerufen werden.

Die Pläne zeigen, dass die kalifornischen Regulierungsbehörden absolut keine Ahnung haben, was sie da tun. Vielleicht liege ich falsch. Ich lade alle Leser ein, mich zu überprüfen und zu sehen, ob ich etwas übersehe. Aber ich glaube das nicht. Entweder verstehen diese Leute die grundlegenden Einheiten nicht, die für diese Berechnungen verwendet werden, oder sie können nicht einmal einfache Arithmetik, oder beides. Ich denke, dass sie bei der Hochrechnung der zusätzlichen Kosten um einen Faktor von 1000 oder mehr daneben liegen.

Die in den Plänen gegebene Antwort auf die Frage, wie man zu einem emissionsfreien Stromsektor kommt, ist der Bau von vielen, vielen Solar- und Windkraftanlagen. Natürlich funktionieren diese nicht immer, also muss man zunächst einmal viel mehr Kapazität bauen als der Spitzenverbrauch. Der Spitzenverbrauch in Kalifornien liegt derzeit bei etwa 40 GW, und es wird erwartet, dass dieser Wert erheblich ansteigt, wenn mehr Teile der Wirtschaft elektrifiziert werden, z. B. Autos. Daher fordern die Pläne den Zubau von etwa 97,6 GW an Solarkapazität und 22,6 GW an Windkapazität bis 2045, zusätzlich zu den 26,5 GW, die es derzeit gibt. (Die Pläne sehen auch den Zubau von 0,1 GW an geothermischer Kapazität vor, aber das ist ein Rundungsfehler). Mit den zusätzlichen Kapazitäten hätte Kalifornien insgesamt 146,7 GW an Wind- und Solarkapazität, was etwa dem Dreifachen des Spitzenverbrauchs entsprechen würde, wenn man die zunehmende Elektrifizierung der Wirtschaft bis 2045 berücksichtigt.

Aber dann sind Solar- und Windenergie „intermittierend“, das heißt, sie liefern den Strom nicht unbedingt dann, wenn man ihn braucht. Was machen wir mit der Stromversorgung in völlig windstillen Nächten, wenn Sonne und Wind nichts liefern? Die kalifornischen Regulierungsbehörden haben darauf eine Antwort parat, nämlich „Speicherung“. Und wie viel Speicher werden wir brauchen? Sie geben eine sehr konkrete Zahl an: 52,8 GW. Vielleicht mag das auf den ersten Blick sinnvoll erscheinen. Wenn der Spitzenverbrauch im Jahr 2045 bei etwa 50 GW liegt, dann könnten 52,8 GW Speicher mit einer sehr geringen Marge gerade ausreichen, um die Nachfrage zu befriedigen, wenn Solar- und Windkraftanlagen komplett abgeschaltet sind.

Und wie viel wird das alles kosten? Wir werden die gesamte derzeitige Stromerzeugung aus fossilen Brennstoffen durch Wind- und Solaranlagen ersetzen und zusätzlich genügend Speicher hinzufügen, damit das alles funktioniert. Hier ist die Berechnung:

Die Modellierungsergebnisse zeigen, dass das Erreichen von 100 Prozent sauberem Strom die jährlichen Gesamtkosten des Elektrizitätssystems bis 2045 um fast 4,6 Milliarden Dollar erhöhen wird. Das sind 6 Prozent mehr als die Kosten, die nach dem Renewables Portfolio Standard des Bundesstaates anfallen würden, der bis Ende 2030 mindestens 60 Prozent sauberen Strom vorsieht.

Im Grunde ist das Kleingeld. Immerhin beweisen es die „Modellierungsergebnisse“.

Aber übersehen wir vielleicht etwas? Hier ist ein Teil, der meiner Meinung nach mehr als nur ein wenig bedeutsam ist: Alle Diskussionen in den Plänen über Speicherbedarf und -kapazität werden in Einheiten von Gigawatt (GW) ausgedrückt. Nun, GW-Kapazität kann in diesem Zusammenhang durchaus relevant sein, denn die Sicherstellung, dass die Energie aus diesen riesigen Batterien schnell genug geliefert werden kann, um den Spitzenbedarf zu decken, ist definitiv eine wichtige technische Herausforderung. Aber ein ganz anderes Thema sind Gigawattstunden (GWH); mit anderen Worten, reicht die gesamte im System gespeicherte Energiemenge aus, um die längste mögliche Periode zu überbrücken, in der die Nachfrage das Angebot übersteigt? Wie sieht es aus, wenn es ganze Jahreszeiten gibt – wie z. B. „Winter“ – in denen die Tage kurz sind, viele Wolken vorherrschen, der Wind längere Zeit einschläft und die Batterien wochen- oder sogar monatelang entladen werden könnten? Wie viel GWH an Speicherkapazität werden Sie benötigen, um dieses reine Wind- und Solarsystem zu unterstützen; und wie viel wird das kosten?

Zu diesem Thema kann ich in diesen Plänen nichts finden. Können Sie es finden?

Im Jahr 2018 führte ein Mann namens Roger Andrews genau eine solche Berechnung durch und veröffentlichte diese auf einer Website namens Energy Matters. Ich habe das Thema in einem Beitrag vom November 2018 mit dem Titel „How Much Do The Climate Crusaders Plan To Increase Your Costs Of Electricity? – Part III“ behandelt. Herr Andrews verwendete tatsächliche tägliche Produktionsdaten von bestehenden kalifornischen Wind- und Solaranlagen, um zu projizieren, wie viel von diesen Anlagen benötigt würde, um die gesamte Jahresnachfrage Kaliforniens im Laufe eines ganzen Jahres zu befriedigen; und verwendete dann dieselben Daten, um tägliche Überschüsse und Defizite zu berechnen, um herauszufinden, wie viel Batteriekapazität in GWH benötigt würde, um die längste Periode niedriger Produktion zu überstehen. Die wichtigste Erkenntnis aus der Arbeit von Andrews – die sich aus der einfachen Betrachtung der Daten für die tatsächliche tägliche Produktion aus bestehenden Wind- und Solaranlagen ergibt – ist, dass die Produktion aus diesen Anlagen nicht nur innerhalb eines Tages oder einer Woche intermittierend ist, sondern auch stark saisonabhängig ist, mit einer höheren Produktion im Frühling und Herbst und einer niedrigeren Produktion vor allem im Winter.

Hier ist eine Grafik von Andrews, die die Produktion von bestehenden Wind- und Solaranlagen zeigt, normalisiert, um die gesamte Nachfrage im Laufe eines Jahres zu decken, aufgetragen gegen die tatsächliche Nachfrage auf Tagesbasis:

Die großen Frühjahrs-Überschüsse und Winterdefizite springen ins Auge. Andrews berechnete dann – und das ist eine reine Frage der einfachen Arithmetik – die täglichen Überschüsse und Defizite, um herauszufinden, wie viel Batteriekapazität Kalifornien benötigen würde, um ein ganzes Jahr zu überstehen. Hier sind seine Diagramme, die diese Arbeit zeigen:

Unterm Strich bräuchte man etwa 25.000 GWH an gespeicherter Energie, um das ganze Jahr zu überstehen. Die Batterien würden dieses Niveau etwa im August erreichen und bis März entladen werden. Und natürlich ist das bei einem Spitzenverbrauch von etwa 40 GW der Fall. Wenn man das auf einen Spitzenverbrauch von etwa 50 GW erhöht, braucht man etwa 32.000 GWH Speicher.
Wie viel wird das also kosten? In meinem Beitrag vom November 2018 lautete die Antwort für Kalifornien „rund 5 Billionen Dollar“. Schauen wir mal, ob wir eine aktuellere Zahl bekommen.

Laut diesem Beitrag bei Electrek vom 1. April 2021 plant Apple – um seine extreme unternehmerische Klimatugend zu demonstrieren – den Bau eines gigantischen Batterieprojekts, um seine Firmenzentrale ausschließlich mit Solarstrom betreiben zu können. Aus der Pressemitteilung von Apple:

Apple baut eines der größten Batterieprojekte des Landes, California Flats – ein branchenführendes Energiespeicherprojekt im Netzmaßstab, das 240 Megawattstunden Energie speichern kann, genug, um über 7.000 Haushalte einen Tag lang mit Strom zu versorgen. Dieses Projekt unterstützt den 130-Megawatt-Solarpark des Unternehmens, der die gesamte erneuerbare Energie in Kalifornien liefert, indem es die tagsüber erzeugte überschüssige Energie speichert und dann einsetzt, wenn sie am meisten gebraucht wird.“

Die Batterien werden von Tesla geliefert. Basierend auf Preisangaben von Tesla, die Kosten für solche Batterien im Bereich von 200 bis 300 Dollar pro Kilowattstunde angeben, berechnet Electrek Apples Kosten für die 240 MWH an Batteriekapazität auf etwa 50 Millionen Dollar. Wie hoch wären dann die Kosten für 32.000 Gigawattstunden dieser Batterien? Rechnen Sie selbst. Falls es Ihnen hilft: In einem GWH sind eine Million KWH enthalten. Ich komme auf etwa 6,7 Billionen $.

6,7 Billionen Dollar sind weit mehr als das Doppelte des jährlichen BIP von Kalifornien. Erinnern Sie sich daran, dass die Arbeitsgruppe der California Plans of Joint Agency sagte, dass die zusätzlichen Kosten des Systems aus Wind- und Solarenergie plus Speicher bei etwa 4,6 Milliarden Dollar liegen würden. Könnten sie wirklich um einen Faktor von weit über 1000 daneben liegen?

In der Zwischenzeit erweitert Kalifornien seine Netzbatteriekapazitäten in großem Umfang, angeblich um das Netz angesichts des Zubaus von Solar- und Windenergie auszugleichen. Aber sind die Erweiterungen für diese Aufgabe sinnvoll oder auch nur annähernd kosteneffektiv? Hier ist ein Beitrag von RenewEconomy vom 5. April:

Ein kürzlich von Bloomberg Green veröffentlichter Bericht, der sich auf neue Zahlen von BloombergNEF beruft, zeigt, dass die führenden Energieanalysten erwarten, dass Kalifornien nicht nur im Jahr 2021 neue Batteriespeicher im Wert von 1,7 GW installieren wird, sondern weitere 1,4 GW im Jahr 2022, gefolgt von 1,2 GW im Jahr 2023.

Immer GW, nie GWH. Der Versuch, aus diesen Leuten irgendwelche nützlichen Informationen herauszubekommen, ist fast unmöglich. Ich glaube, sie sind alle völlig ungebildet. Gibt es unter den 40 Millionen Menschen in Kalifornien nicht eine einzige Person, die auch nur eine relevante Frage stellen kann?

Der ganze Beitrag steht hier.

Link: https://wattsupwiththat.com/2021/05/12/californias-zero-carbon-plans-can-anybody-here-do-basic-arithmetic/

Übersetzt von Chris Frey EIKE

 




Kältereport Nr. 9

Arktische Meereis-Ausdehnung die höchste seit 8 Jahren

11. Mai: Seit dem Jahr 2013 war die arktische Eisausdehnung im Mai so groß wie in diesem Jahr.

Dies geht aus den jüngst veröffentlichten neuesten Zahlen des National Snow and Ice Data Center (NSIDC) hervor.

Betrachtet man das 21. Jahrhundert, dann ist die Ausdehnung für diese Zeit größer als in jedem Jahr seit 2013 und auch größer als in den Jahren 2006 und 2004.

Die Arktis sollte inzwischen eisfrei sein, zumindest im Sommer.

Hunderte düsterer Prophezeiungen sind über die letzten Jahre über uns herein gebrochen, von denen viele die Wirtschaftspolitik beeinflussten, mit der wir es heute zu tun haben – und alle sind gescheitert!

Link: https://electroverse.net/arctic-sea-ice-extent-highest-in-8-years/

——————————–

Neuseeland: von Rekord-Hitze zu Rekord-Kälte

12.Mai: In Neuseeland ist der Herbst in diesem Jahr ausgefallen, und auf Sommer folgte direkt der Winter.

Nach einer kurzen Hitzewelle wurde das Land jetzt von einem Kaltluftausbruch aus der Antarktis betroffen. Verbreitet gab es außerordentlich früh Frost und starke Schneefälle.

Link: https://electroverse.net/new-zealand-swings-to-cold-study-shows-antarctic-ice-is-growing/

——————————–

Winter kehrt plötzlich in manche Gebiete Russlands zurück

12. Mai: Die atmosphärische Kaltfront brachte den südlichen Regionen Russlands Schneefälle und einen deutlichen Temperatursturz. In Adygea, Inguschetien und Dagestan kam es am 10. Mai zu regelrechten Schneestürmen.

Schnee und Frost wurden auch in den Regionen Stawropol und Krasnodar sowie in Karatschai-Tscherkessien beobachtet.

Link: https://www.iceagenow.info/winter-suddenly-returns-to-russia/

——————————–

12. Mai: Winter-Wetterwarnung: Ungewöhnlich kaltes Wetter mit Schnee

Für das Gebiet um Colorado Springs wurde eine Warnung vor winterlichem Wetter ausgegeben. National Weather in Pueblo sprach von möglichen Schneefällen.

Rekord-Schnee für Mai

Am Montag wurde in Colorado Springs ein neuer Schneehöhen-Rekord aufgestellt: es waren ca. 3 cm Schnee gefallen. Der bisherige Rekord für den 10. Mai datiert aus dem Jahr 2006 mit ca. 1 cm.

And the Colorado Avalanche Information Center is warning of “considerable” avalanche danger for the northern mountains.

Der Lawinen-Warndienst warnt vor einer „erheblichen“ Lawinen.Gefahr in den nördlich gelegenen Bergen.

Mai-Schnee [outtherecolorado.com].

Link: https://www.iceagenow.info/colorado-springs-sets-snowfall-record/#more-35503

——————————–

Denver: Längste Schneefall-Saison seit Beginn von Aufzeichnungen

Am 11. Mai hat es in Denver noch einmal geschneit.

Damit dürfte die Stadt die zweitlängste Schneefall-Saison ihrer Geschichte erlebt haben. Der erste Schnee war am 8. September gefallen, wodurch sich eine Saison von 245 Tagen ergibt. Darin enthalten ist auch der schneereichste März jemals.

Rekord-Kälte in Jackson Hole, Wyoming

In der Stadt Jackson Hole in Wyoming war es am vergangenen Wochenende ungewöhnlich kalt, selbst nach den Verhältnissen dort, wo Mai-Frost während der letzten Jahre nichts Unbekanntes ist.

Erst im vergangenen Oktober, am 25. Oktober, wurde an der Klimastation von Jackson eine Tageshöchsttemperatur von nur -7,8°C gemessen – ein Wert, der den Rekord für die kälteste jemals gemessene Höchsttemperatur im Monat Oktober brach.

Der Abkühlungstrend ist eindeutig.

In einer Welt, die sich angeblich linear erwärmt und am Rande einer Katastrophe steht, erlebte Jackson, WY, 2019 das kälteste Jahr aller Zeiten. 2020 wurde dann die kälteste Oktobertemperatur aller Zeiten und der früheste Schneefall aller Zeiten registriert.

Und jetzt, im Mai 2021, berichtet buckrail.com, dass die Temperatur in Jackson am Sonntag, den 9. Mai, auf nur 12 Grad gefallen ist – ein Wert, der einen neuen Rekord-Tiefstwert für dieses Datum darstellt und den alten Richtwert von 13 Grad aus dem Jahr 2002 bricht.

Und man beachte: Der 9. Mai 2021 ist jetzt der kälteste 9. Mai in der Geschichte der Aufzeichnungen, in Büchern, die weit über ein Jahrhundert zurückgehen, bis 1905 (das Centennial Minimum).

Link: https://electroverse.net/co-breaks-cold-records-denvers-longest-snowfall-season-on-record/

——————————–

Ungewöhnlich früher Blizzard in Australien – mächtiger kaltlufteinbruch aus der Antarktis vorhergesagt

13.Mai: „Atemberaubender Blizzard trifft australische Skigebiete einen MONAT zu früh“, berichtet die Daily Mail, was zwar stimmt, aber vergisst zu erwähnen, dass es auch schon vor einem ganzen Monat geschneit hat!

Bereits am 11. April setzte auf dem tasmanischen Cradle Mountain starker Schneefall bis auf 600 m hinabein:

Photo: Cradle Mountain Hotel (12. April)

Ebenfalls am 11. April sammelte sich Schnee unterhalb von 900 Metern im gesamten Bundesstaat Victoria an. Regionen wie Mt Buller und Mt Baw Baw meldeten Mitte April Schneesummen von 22 cm, wobei der Schnee immer noch fällt:

Video: https://twitter.com/i/status/1381106737403490305

Quelle

Und jetzt, am 12. Mai, hat ein weiteres eiskaltes System Zentimeter um Zentimeter der globalen Erwärmung in die höheren Lagen von Tasmanien, Victoria und New South Wales (NSW) gebracht.


Während der letzten Jahre hat sich das Klima Australiens verändert – zum Kälteren und Nasseren.

Link: https://electroverse.net/early-season-blizzard-hits-australia/

——————————–

Rekord-Kälte in North Carolina

13.Mai: Um 4.08 Uhr morgens [Ortszeit] sank die Temperatur in Raleigh auf 2,7°C. Meteorologe Zack Maloch: „Es ist ziemlich kalt für Mai, und der bisherige Rekord aus dem Jahr 1960 von 4,4°C ist gebrochen worden“.

Link: https://www.iceagenow.info/record-cold-in-north-carolina-piedmont/

——————————–

Rocky Mountain-Nationalpark: dritthöchste Schneemenge jemals

14.Mai: „Man würde hiervon nichts in den MSM hören“, sagt ein Leser. „Bei uns in Colorado war es schon jetzt nasser als im gesamten vorigen Jahr, aber alles, was man hört, ist Dürre“.

„Fast eine Rekordschneedecke im Rocky Mountain Nationalpark (RMNP), weil es bisher kalt war“, sagt Ryan. „Es ist übrigens Mitte Mai, und Sie werden nichts davon hören. Ich musste extra danach suchen.“

In Bear Lake im RMNP liegen immer noch knapp 150 cm Schnee, das ist die dritthöchste Schneedecke in den Aufzeichnungen

„Nur“ die dritthöchste.

Allerdings liegt das an dem kalten Wetter, nicht unbedingt am Schneefall, obwohl es in letzter Zeit sicher auch Schnee gegeben hat. Ein Teil von Colorado hat bereits mehr Nässe als im gesamten letzten Jahr abbekommen, dennoch hört man nur von Dürre. Vielleicht gibt es jetzt welche, die verzweifelt irgendwo nach Dürre suchen.

Artikel:
https://kdvr.com/news/local/bear-lake-in-rmnp-still-has-58-inches-of-snow-on-the-ground-third-deepest-snowpack-on-record/

Link: https://www.iceagenow.info/rocky-mountain-national-park-third-deepest-snowpack-on-record/

——————————–

Wale gefangen im arktischen Eis – beispiellos seit den eisigen 1980er Jahren

16.Mai:

Vom Eis eingeschlossene Wale am 14. Mai 2021. Bild: FSBI National Park Beringia

Fünfzig Belugawale sitzen in der Penkigngei-Bucht fest. Vermutlich sind sie schon seit Januar in Eisgefangenschaft, aber Spezialisten entdeckten sie erst im April. Die Tiere werden gefüttert und ständig überwacht.

Link: https://www.iceagenow.info/whales-trapped-by-ice-in-the-arctic-unprecedented-since-the-icy-1980s/

——————————–

USA: 17.450 neue TIEFST-Temperaturrekorde in diesem Jahr im Vergleich zu 13.886 neuen HÖCHST-Temperaturen

17.Mai: Heißester Tag – Woche – Monat – Jahr JEMALS … stimmt’s? Das will man uns glauben machen …

Schaut man sich die offiziellen Daten der NOAA an – einer Behörde, die für ihre wärmelastige Voreingenommenheit bekannt ist – so zeigt die Zusammenfassung der US-Tagesrekorde seit Jahresbeginn, dass insgesamt 17.450 neue Tiefsttemperatur-Rekorde aufgestellt wurden, verglichen mit 13.886 neuen Höchsttemperatur-Rekorden.

Link: https://electroverse.net/17450-low-temperature-records-vs-13886-high-sinabung/

wird fortgesetzt …

Zusammengestellt und übersetzt von Chris Frey EIKE

 




Fakten-Check der von Steven Koonins Kritikern genannten „Fakten“

Die Redaktion des Wall Street Journal protestierte gegen diese Praxis mit einem stark formulierten Leitartikel. Sie wiesen darauf hin, dass der so genannte „Faktencheck“ nichts überprüft, sondern einfach gegen Koonins Analyse argumentiert. Mit Koonin zu argumentieren ist in Ordnung, argumentieren ist ein wichtiger Teil der Wissenschaft, aber man nenne es nicht einen Faktencheck. Der „Faktencheck“-Blogpost widerspricht oder bestreitet nichts in Koonins Buch. Koonin bietet eine Widerlegung in der heutigen WSJ hier.

Koonins detailliertere Punkt-für-Punkt-Widerlegung des Faktenchecks ist hier.

Am Samstag bemerkte ich, als ich auf Amazon.com nach Koonins Buch suchte, dass ich zu Büchern geführt wurde, die Koonins Buch kritisch gegenüberstanden, aber nicht zu seinem Buch. Amazon schien einen Bestseller „gestrichen“ zu haben. Später am selben Tag begann die Suche auf Amazon wieder richtig zu funktionieren, hoffentlich war es ein einfacher Programmierfehler und nicht der Versuch einer Unterdrückung durch einen schurkischen Mitarbeiter.

Sie können zu seinem Buch auf Amazon.com unter diesem Link gelangen, falls die Suche wieder fehlschlägt. Das Buch ist auch auf BarnesandNoble.com zu finden. Beide Käufe werden eBooks sein, die Printausgabe ist ausverkauft, wahrscheinlich bis Juni. Koonins Buch ist jetzt auf zwei der WSJ-Bestsellerlisten.

Wir haben uns schon früher mit betrügerischen Faktenchecks und Fake News beschäftigt, sie sind zahlreich. Siehe hier und hier. Wir haben auch schon eklatante Lügen über klimawissenschaftliche Debatten im Internet durch ansonsten seriöse Organisationen gesehen, wie Intelligence Squared (IQ2US), siehe hier. In diesem Fall zeigt die Aufzeichnung, dass die Klimaskeptiker, Michael Crichton, Richard Lindzen und Phillip Stott eine öffentliche Klimawandel-Debatte in New York entscheidend gewonnen haben. Ihre Gegner waren Brenda Ekwurzel, Gavin Schmidt, und Richard Somerville. Die korrekten Ergebnisse blieben zehn Jahre lang nach der Debatte von 2007 auf der Website, doch jemand bei IQ2US änderte die klaren und gut dokumentierten Ergebnisse irgendwann nach 2017, laut der Wayback Machine. Jetzt sagt die IQ2US-Website das Gegenteil, sie sagen, die Klimaalarmisten hätten gewonnen. Beschämend, aber wahr. Wir informierten sie über ihre fehlerhafte Berichterstattung im Dezember, aber die wild falschen Ergebnisse waren immer noch auf ihrer Website, Monate später, am 15. Mai 2021. Es ist wahrscheinlich immer noch da.

Den Nachrichtenmedien und unseren Institutionen kann man nicht mehr trauen. Ihre Faktenchecks zitieren eine Aussage, sagen, sie sei falsch, ändern sie dann subtil in eine wirklich falsche Aussage und widerlegen diese. Dann behaupten sie, das Original widerlegt zu haben. Zum Beispiel sagen Koonin und die Überprüfung: „Der grönländische Eisschild schrumpft heute nicht schneller als vor achtzig Jahren.“ Das ist richtig, Grönland schmolz 1940 sehr schnell, viel schneller als heute. Dennoch behauptet Twila Moons „Widerlegung“, dass Grönland von 2003 bis 2010 mehr Masse verloren hat als von 1900 bis 2003, was wahr sein mag, aber nicht das ist, was Koonin schrieb. Außerdem hat die Eismasse Grönlands in der Zeit von 1900 bis 2003 zu- und nicht abgenommen. Das Herauspicken einer siebenjährigen Periode ist klimatologisch nicht relevant.

Frederikse et al. zeigen deutlich, dass die schmelzenden Gletscher in Grönland von den späten 1930er bis Mitte der 1940er Jahre einen großen Beitrag zum Meeresspiegelanstieg leisteten, in den letzten Jahrzehnten aber nur noch einen geringen Einfluss hatten. Insgesamt ist die Rate des Meeresspiegelanstiegs in letzter Zeit durchaus vergleichbar mit der Rate, die in den späten 1930er bis Mitte der 1940er Jahre zu beobachten war. Diese trügerische Art der „Widerlegung“ ist im gesamten „Faktencheck“ verwendet, und Koonin nimmt sie alle auseinander in seinem detaillierten Beitrag. Dies ist der modus operandi der heutigen Faktenchecker, hüten Sie sich vor ihnen.

Link: https://andymaypetrophysicist.com/2021/05/16/fact-checking-steven-koonins-fact-checkers/

Übersetzt von Chris Frey EIKE

 




Antwort auf eine Rezension der Arbeit von Seim und Olsen: „Der Einfluss von IR-Absorption und Rück-Streu­strahlung von CO2

Das Experiment

Der Zweck des simulierten Erde/Atmosphäre-Experiments war es, a) die IR-Strahlung messen zu können, b) die thermischen Energieverluste an die Umgebung zu reduzieren und c) die Temperatur genauer zu messen.

Der Versuchsaufbau ist in Abbildung 1 dargestellt: Die vordere Wölbung wurde hinzugefügt, um das CO2-Gas von der Luft in der hinteren Kammer zu trennen. Dies reduziert den Wärmeverlust aus der hinteren Kammer durch die beiden Fenster aufgrund von Wärmeleitung.

Abbildung 1: Der Experiment-Aufbau

Die einen Meter lange, 50 cm breite und 30 cm hohe Box mit einem Volumen von 150 Litern besteht aus isolierenden 5 cm dicken Styroporplatten. Die beiden Kammern sind durch eine 0,03 mm dünne transparente Kunststofffolie getrennt. Das Fenster an der Vorderseite der Box wurde ebenfalls aus dieser Folie gefertigt. Die Innenwände der Kammern (außer der Rückwand) sind mit dünner, polierter Al-Folie verkleidet. Die Al-Folie reflektiert den größten Teil der IR-Strahlung und reduziert dadurch den Wärmeverlust durch die Wände. Die Länge der hinteren und vorderen Kammer beträgt 30 bzw. 70 cm. Die IR-Strahlung wurde durch Erhitzen einer schwarz lackierten Metallplatte (oder einer dünnen, schwarz lackierten Al-Folie) auf 100°C durch eine 500-W-Halogenlampe erzeugt. Ein Thermometer, das die Gastemperatur misst, wurde in jeder Kammer in der Nähe des Daches platziert und von der direkten Strahlung der Heizplatte abgeschirmt.

Ein IR-Strahlungsdetektor befindet sich vor dem Fenster an der Box (IR1). Ein weiterer Detektor befindet sich hinter der Box (IR2) und misst die IR-Rückstreustrahlung über ein 6×6 cm großes Fenster in der Rückwand. Um die Erwärmung der Innenseite der Styroporrückwand mit hoher Genauigkeit zu messen, wurden acht in Reihe geschaltete und schwarz lackierte Thermoelemente an der Rückwand angebracht.

Um lokale Konvektion und Temperaturgradienten in den beiden Kammern zu vermeiden, wurde in jeder Kammer ein kleiner Ventilator mit reduzierter Drehzahl angebracht. Die Energiezufuhr zu den Ventilatoren war gering, nur 0,6 Watt. Da sich das Gas während der Erwärmung ausdehnt, hat jede Kammer eine kleine 5 mm große Öffnung (abgedeckt mit einem Stück Kunststoff) im „Dach“, um eine Druckerhöhung zu vermeiden. Um zu überprüfen, ob die Infiltration aus der Umgebungsluft die CO2-Menge in der Front verändert, wurde der CO2-Pegel nach dem Experiment kontrolliert. Die Kammer war noch mit CO2 gefüllt.

Konstruktion, Kalibrierung und Anwendung der IR-Sensoren

Zur Messung der IR-Strahlung und der von CO2 erzeugten Rückstreuung haben wir zwei IR-Detektoren konstruiert, die breitbandige (3 bis 24 μm) Thermopil-Schaltungen mit einem nahezu flachen Frequenzgang verwenden.

Kalibrierung: Um ein Strahlungsspektrum zu erhalten, das dem eines schwarzen Heizkörpers nahe kommt, verwendeten wir eine schwarze Eisenpfanne, die mit 100°C heißem Wasser gefüllt war, und ließen die Temperatur auf 15°C fallen. Die gemessene Beziehung zwischen der Temperatur der Strahlungsquelle und dem Ausgang des Detektors (in mV), ist in Abbildung 2 dargestellt:

Abbildung 2: Temperatur-Kalibrierung

Wir sehen, dass die Beziehung nicht linear ist, wie vom Seebeck-Effekt erwartet. Stattdessen stellen wir fest, dass die Spannungsantwort linear von der Energiedichte der Strahlung der IR-Quelle abhängt. Wir berechneten die von der Pfanne abgegebene IR-Energiedichte E (W/m²) unter Verwendung der Gleichung E = σT4 (das Stefan-Boltzmann-Gesetz), wobei σ = 5,67 *10-8 W/(m²K4) und T die Temperatur in Kelvin ist. Das Ergebnis ist in Abbildung 3 dargestellt.

Abbildung 3: Kalibrierung der IR-Strahlung

Eine lineare Beziehung zu erhalten unterstützt die Annahme, dass wir die S-B-Gleichung verwenden können, um die IR-Strahlung mit dem Detektor zu quantifizieren. Der Gutachter wies jedoch darauf hin, dass die IR-Quelle kein perfekter schwarzer Körper ist und die emittierte IR-Strahlung dann etwas geringer sein könnte als durch das S-B-Gesetz angegeben (wahrscheinlich um ca. 5 % reduziert).

Der Gutachter wies auch darauf hin, dass es einen Spannungsoffset von ca. 20 – 30 mV im Ausgang der Detektorschaltung gibt. Dieser Offset ist sehr klein, verglichen mit dem Arbeitsbereich des IR-Detektors von mehr als ± 5 Volt. Die verwendete Schaltung ist bekannte, z. B. von Hamamatsu.

Der Rezensent schreibt: „Der Sensor enthält zusätzlich zu einer Thermosäule einen hochgenauen NTC-Thermistor (negativer Temperaturkoeffizient) zur Unterstützung beim Aufbau einer Temperatur-Kompensationsschaltung“.

Wir wurden davor gewarnt, den NTC- und den Thermopile-Schaltkreis zu kombinieren, um Schwankungen der Gerätetemperatur zu kompensieren. Es ist viel besser, separate Schaltungen für die Thermosäule zu erstellen und dann die Temperaturkorrektur im Rechenverfahren durchzuführen.

Blickfeld

Das Blickfeld des Detektors ist in Abbildung 4 dargestellt. Eine gängige Methode zur Definition des Blickfeld ist die Verwendung des Halbwinkels, d. h. des Wertes, bei dem die Empfindlichkeit auf 50 % des Maximalwertes reduziert wird. Abbildung 4 zeigt, dass der Halbwinkel nahe bei ±5 Grad liegt. Bei ±10 Grad sind ca. 98% des Blickfeldes eingeschlossen.

Bei einer Länge der Box von einem Meter „sieht“ der Detektor IR1 einen kreisförmigen Bereich mit einem Durchmesser von 35 cm, der die Heizplatte und den größten Teil der Rückwand abdeckt. Wenn der Detektor vor das Fenster gestellt wird, „sieht“ er dann einen 35 cm großen kreisförmigen Bereich der 30 x 50 cm großen Rückwand. Die komplette Metallplatte wird innerhalb des halbwinkligen Blickfeldes „gesehen“.

Wenn der Detektor IR2 die IR-Strahlung aus dem Inneren der Box misst, „sieht“ er hauptsächlich die vordere Kammer, in der das beheizte Gas und die Fenster strahlen. Die Strahlung ist homogen über die beiden Kammern verteilt, so dass die Messsituation ähnlich wie bei der Kalibrierung ist.

Abbildung 4

Wie der Rezensent anmerkt, „sieht“ der IR1-Detektor mehr als die Heizplatte, aber die Platte deckt den Hauptteil dessen ab, was das FOV misst.

Temperatur-Messungen

Der Temperaturanstieg in den beiden Kammern während der Erwärmung war gleich (innerhalb der Messgenauigkeit) mit Luft oder CO2 in der vorderen Kammer. Siehe Abbildung 5. Dies ist das wichtigste Ergebnis in unserer Studie.

Abbildung 5: Dargestellt ist die Erwärmung der Luft (mit ca. 400 ppm CO2) in der hinteren Kammer (obere Kurve). Die Kurve ist nahezu identisch, wenn Luft (schwarze Punkte) durch nahezu 100 % CO2 (rote Punkte) in der vorderen Kammer ersetzt wird. Die Erwärmung von Luft (graue Punkte) und CO2 (lila Punkte) in der vorderen Kammer folgt ebenfalls einer gemeinsamen Erwärmungskurve für beide Gase. Dargestellt sind Durchschnittswerte aus fünf Messungen.

Der Rezensent scheint Abbildung 5 falsch zu interpretieren:

Dieses Experiment wird nun wiederholt, wobei die vordere Kammer mit 100% CO2 gefüllt ist. Nun wird die von der Aluminiumplatte emittierte IR-Strahlung teilweise von CO2 absorbiert, wodurch die Temperatur des vorderen Fachs auf etwa 33 °C ansteigt. Dadurch sinkt die Strahlung, die durch die Frontscheibe hindurchgeht, vorübergehend“.

Dies ist definitiv nicht das, was wir sagen. Die hintere Kammer erwärmt sich von 20°C auf 46°C (obere zwei Kurven) und in der vorderen Kammer von 20°C auf 32°C (untere zwei Kurven). Der Punkt ist, dass die Kurven für reine Luft und für 100% CO2 in der vorderen Kammer identisch sind. Dies war für uns überraschend, da die NASA (und Al Gore) behaupteten, dass wir eine zusätzliche Erwärmung durch 100 % CO2 haben sollten. Auch die Strahlung, die durch das vordere Fenster hindurchgeht, fällt nicht vorübergehend ab, sondern nähert sich einem konstanten Wert. Siehe Abbildung 6.

Es wird vermutet, dass die fehlende IR-Strahlung in Richtung des hinteren Bereichs umgeleitet oder reflektiert wird“.

Wir messen und vermuten nicht, dass die CO2-IR-Strahlung in den hinteren Innenraum umgeleitet oder reflektiert wird.

IR-Messungen

Der IR1-Detektor misst die reduzierte IR-Leistung durch das Frontfenster mit CO2 in der vorderen Kammer.

Abbildung 6: Absorption von IR-Strahlung. Bereich: 2,5 – 20 µm. Die Heizung erfolgt mit der Al-Platte.

Der Detektor ist auf die Mitte der 100 oC Heizplatte gerichtet. Mit CO2 in der Vorkammer nahm die IR-Strahlung um 29,8 W/m² oder ca. 10% ab. Dies liegt nahe an den Werten aus der HITRAN-Datenbank, d.h. 11,6% für eine 70 cm lange Röhre. Die etwas geringere gemessene IR-Wert könnte darauf zurückzuführen sein, dass das Sichtfeld des Detektors etwas größer als die Heizplatte ist. Wie auch immer, ein Fehler von ein paar % wird unsere Ergebnisse und Schlussfolgerungen nicht wesentlich beeinflussen.

Um herauszufinden, wie viel IR-Strahlung durch das Frontfenster austritt, müssen wir wissen, wie stark sie an verschiedenen Positionen variiert. Hierfür haben wir einen Thermopile-Detektor ohne Linse verwendet, der ein breites Sichtfeld hat. Der Detektor wurde verwendet, um die IR-Leistung entlang des 50 cm breiten Frontfensters zu messen. Die spektrale Empfindlichkeit ist ein schmales Band im 4 μm-Bereich, in dem CO2 IR-Strahlung absorbiert/emittiert. Das Ergebnis ist in Abbildung 7 zu sehen. Es zeigt, dass die Leistung nahezu konstant ist, mit einer Abweichung von etwa ±4 %.

Abbildung 7: IR-Ausgangsverteilung entlang der Frontscheibe.

Der IR2-Detektor misst erhöhte IR-Strahlung, die auf die Rückwand mit CO2 in der vorderen Kammer trifft. Siehe Abbildung 8.

Abbildung 8: Die Rückstreuung (erhöhte IR-Strahlung, gemessen mit IR2), die von der Rückwand der Box empfangen wird, stieg um 17 W/m² mit CO2 in der vorderen Box. Die Erwärmung erfolgt über die Al-Folie.

Der IR2-Detektor „sieht“ hauptsächlich das von den beiden Fenstern und dem Gas innerhalb der beiden Kammern reflektierte IR. Die Verteilung des reflektierten IR ist relativ homogen in den Kammern verteilt, was durch Abbildung 7 bestätigt wird. Die Messsituation unterscheidet sich also nicht wesentlich von der, die zur Kalibrierung des Detektors verwendet wurde.

Die Begutachter haben einige Einwände:

Wenn die Apparatur in Betrieb ist, strahlt die Aluminiumplatte bei 100C IR ab und bewirkt, dass die Rückwand eine konstante Temperatur von etwa 46C erreicht. Die Autoren ‚berechnen‘ die Bestrahlungsstärke der Rückwand mit dem Stefan-Boltzmann-Gesetz.  Wenn die vordere Kammer mit Luft gefüllt ist, soll die gesamte „berechnete“ IR-Leistung aus dem vorderen Fenster austreten“.

Was wir tun: Wir verwenden den kalibrierten IR-Detektor IR1, um die IR-Menge zu messen, die durch das Frontfenster austritt, mit Luft und dann mit CO2 in der vorderen Kammer. Wir stellen fest, dass mehr IR-Energie in der Box mit CO2 in der vorderen Kammer absorbiert wird. Wir verwenden den kalibrierten IR-Detektor IR2, um die IR-Menge zu messen, die auf die Rückwand trifft. Wir stellen fest, dass mehr IR-Energie von der Rückwand mit CO2 in der vorderen Kammer empfangen wird.

Falsche Anwendung von Stefan-Boltzmann?

Kommentar des Begutachters:

„Der Apparat hier ist kein Hohlraum. Es ist transparent an einem Ende und teilweise auch am anderen. Da ein wesentlicher Teil der Oberfläche transparent ist, kommt es auf die Anordnung der Materialien und ihre detaillierten Strahlungseigenschaften an.“[2] Die erste Annäherung an die IR-Strahlung von etwas, das kein Hohlraum und nicht isotherm ist, besteht darin, das Stefan-Boltzmann-Gesetz zu verwenden, aber den verschiedenen Materialien geeignete Emissionsgrade von weniger als 1,0 zuzuweisen. Der geschwärzte Aluminiumstrahler hat einen Emissionsgrad nahe bei 1,0. Er liegt vielleicht bei 0,96, aber das blanke Styropor ist bei IR-Wellenlängen bei weitem nicht schwarz. Eine akzeptierte Schätzung des Emissionsgrades dieses Materials ist 0,60; d.h. bei jeder Temperatur strahlt es nur 60% so stark, wie das Stefan-Boltzmann-Gesetz vorhersagt“.

Der Rezensent stellt fest, dass wir den Emissionsgrad ε in die S-B-Gleichung einbeziehen müssen, um die richtige Beziehung zwischen Temperatur T und IR-Energiefluss E zu erhalten:

E = εσT4

Wir sind in einer vorteilhaften Situation, da wir die IR-Strahlung und die Temperatur von Styropor messen können, wenn es erwärmt wird! Dies wurde getan und wir fanden heraus, dass in unserem Versuchsaufbau der Wert von ε mit 1,0 ± 0,025 gemessen wurde, nicht mit 0,6! Vielleicht verhalten sich die Kammern also doch ein wenig wie ein Hohlraum… Dieses Ergebnis negiert auch die Kritik an der Verwendung der S-B-Gleichung bei der Kalibrierung.

Energiebilanz

Unter Energiebilanz behauptet der Gutachter, dass wir Energieverluste haben. Ja, das stimmt natürlich. Die Strahlungs- und Wärmeenergie fließt von der Rückwand durch das vordere Fenster (wie IR von der Erdoberfläche in den Raum). Nach 30 Minuten hat sich ein annähernd stationärer Zustand eingestellt. Die IR-Energie vom CO2 in der vorderen Kammer geht teilweise durch das vordere Fenster verloren, teilweise wird sie in die hintere Kammer zurückgeführt. Der Punkt ist, dass wir keine zusätzliche Erwärmung in der hinteren Kammer beobachten, trotz der dort gemessenen erhöhten IR-Strahlung. Deshalb sagen wir, dass die Theorie der Erderwärmung durch Rückstreuung falsch sein könnte.

Energiegehalt in Gasen

Der Rezensent präsentiert eine alternative Theorie:

Eine Atmosphäre, die 70 cm von 100% CO2 bei einem Druck von 100kPa enthält, hat einen effektiven Emissionsgrad von etwa 14%. Sobald dieses Gas seinen Grenzwert von 14% der IR-Strahlung aus der hinteren Kammer absorbiert (d.h. 14% von 80 Watt) und eine Gleichgewichtstemperatur erreicht hat, strahlt es diese nicht nach hinten ab, sondern in alle Richtungen. Es wird viele Male von der Aluminiumfolie reflektiert, wobei bei jeder Reflexion 4 % absorbiert werden, ein Teil geht durch das vordere EDTA-Fenster, ein Teil durch das dazwischen liegende EDTA-Fenster und erreicht den hinteren Raum. Dies könnte leicht nur 10% dessen sein, was im vorderen Fach absorbiert wurde“.

Es scheint, dass der Gutachter glaubt, dass die Energie einfach durch die Wände und Fenster verschwindet. Er suggeriert, dass nur 10 % des Energiestroms, der von CO2 in der vorderen Kammer absorbiert wurde, die hintere Kammer erreicht, das sind ca. 2W/m² von 20W/m². Wir messen jedoch einen erhöhten Energiestrom von 17 W/m², nicht 2 W/m², der in die hintere Kammer zurückkehrt.

Das Gas in der hinteren Kammer enthält so wenig CO2, dass sein Emissionsgrad (der seinem Absorptionsgrad entspricht) wahrscheinlich in der Nähe von nur 1% liegt. Daher sollte das Nullergebnis dieses Experiments, anstatt eine Überraschung zu sein, völlig erwartet werden“.

Es ist richtig, dass die Luft (wie auch die Fenster) IR-Strahlung absorbiert (und emittiert), aber die Absorption in Luft ist viel größer als 1%. Dies wurde von uns in einer 30 cm langen Styroporbox mit einem einzelnen Fenster getestet. Die IR-Emission aus der Luft in der Box stieg linear mit der Temperatur im Bereich von 15 – 35°C an. Der Anstieg der von der Luft emittierten IR-Strahlung war signifikant, etwa 30% der erhöhten Strahlung von den Styroporwänden. (Die relative Luftfeuchtigkeit betrug ca. 30 – 35%).

Bei der Messung der IR-Emission mit/ohne Fenster stellten wir fest, dass etwa 30% des Anstiegs der gemessenen IR-Strahlung vom Fenster emittiert wurde. Da die Temperatur der Fenster mit Luft und CO2 gleich ist, ist auch der IR-Beitrag von ihnen gleich.

In Abbildung 8 ist die Menge an IR-Strahlung dargestellt, die zurück zur Rückwand abgestrahlt wird, wobei sich in beiden Kammern Luft befindet (schwarze Kreise). Dies ist die IR-Strahlung, die von der erwärmten Luft und den beheizten Fenstern empfangen wird. Der gemessene IR-Zuwachs beträgt ca. 65 W/m², während der Zuwachs mit CO2 in der vorderen Kammer 17 W/m² beträgt, was einer Steigerung von ca. 25 % entspricht. Die von der Luft absorbierte Strahlung wird in alle Richtungen zurückgestrahlt und von den Al-Folienwänden reflektiert, wobei ein Teil der Strahlung absorbiert wird. Durch die Zugabe von CO2 in der vorderen Kammer verlässt weniger IR von der Heizplatte die Box durch das Frontfenster. Der IR2-Detektor zeigt, dass der IR-Pegel in der hinteren Kammer deutlich ansteigt – und hoch bleibt!

Ein abschließender entscheidender Kommentar:

Ein weiterer Fehler bei der Anwendung des Stefan-Boltzmann-Gesetzes tritt bei der Übersetzung der Kalibrierungsübertragungsfunktion in einen Bestrahlungsstärke-Wert auf. Die im Zitat erwähnte Berechnung über das Kalibrierverfahren impliziert eine einseitige Übertragung von der geschwärzten Pfanne zum Sensor, während die Übertragung in Wirklichkeit in beide Richtungen zwischen Sensor und Pfanne erfolgt“.

Theoretisch könnte dies zu einem Fehler führen, aber er ist zu klein, um messbar zu sein. Die mit Wasser gefüllte Pfanne wiegt 7 Kilo, während der kleine Detektor ca. 200 Gramm wiegt. Er wird nur wenige Sekunden vor die Pfanne gestellt und nach der IR-Messung wieder entfernt. Die Temperatur des Detektors liegt nahe an der des umgebenden Raumes. Die Detektorbox ist aus Aluminium gefertigt. Bei den Messungen reflektiert die Box hauptsächlich IR aus dem Raum, was die schwarze Pfanne zwischen den Messungen „sieht“!

Lektionen gelernt

Alle Aussagen des Gutachters zum Missbrauch des S-B-Gesetzes wurden widerlegt.

Wir waren in der Lage, die IR-Strahlung mit einer Genauigkeit von ±2,5 % zu messen.

Die IR-Rückstreuung von CO2 in der vorderen Kammer in die hintere Kammer erhöht nicht die Temperatur der Rückwand und der Luft in der Kammer, anders als von den Klimamodellen angenommen.

Link: https://wattsupwiththat.com/2021/05/15/answer-to-a-review-of-seim-and-olsen-paper-the-influence-of-ir-absorption-and-backscatter-radiation-from-co2/

Übersetzt von Chris Frey EIKE

 




Das bislang eher kühle Jahr 2021 in Deutschland – Hintergründe und weitere Aussichten

Enorme Temperaturkontraste seit Anfang Februar – warum?

Während seit dem Beginn der massiven, (vielleicht) solar bedingten Zirkulationsstörungen im Februar 2018 zunächst warme, südliche Großwetterlagen überwogen, zeigt sich seit dem Jahr 2021 ein ganz anders Bild: Zwar gab es noch einzelne, sehr warme Süd- und Südwestlagen, doch gewannen mehr und mehr kalte, nördliche Lagen und solche mit niedrigem Geopotential über Deutschland die Oberhand. Dabei verlief besonders die Februar-Witterung so extrem gegensätzlich, wie das noch niemals seit Aufzeichnungsbeginn 1881 beobachtet wurde, doch auch in den Folge-Monaten wechselten längere, teils sehr kühle Phasen mit kurzen, sehr warmen:

Abbildung 1: Täglicher Verlauf der Maximum-Temperaturen an der DWD-Station Erfurt/Weimar zwischen Ende Januar und Mitte Mai 2021. Immer wieder ereigneten sich rapide Abkühlungs- und Erwärmungsphasen; auch im „Wonnemonat“ stürzte die Maximum-Temperatur von hochsommerlichen fast 27 Grad auf kalte 12 Grad innerhalb von nur drei Tagen ab.

Diese jähen Temperatursprünge resultieren aus meridionalen Wetterlagen mit sich rasch abwechselnden Kalt- und Warmluftvorstößen. So brachte der Februar erst bergeweise Schnee und Nachtfröste weit unter minus 20°C, aber keine 14 Tage später mildestes Frühlingswetter mit um die 20 Grad und viel Sonnenschein, der aber oft durch Sahara-Staub getrübt wurde:

Abbildungen 2a und 2b: Enorme Schneemassen am 8. Februar 2021 im normalerweise sehr schneearmen Weimar. Das öffentliche Leben und der Verkehr brachen teilweise zusammen; viele Besitzer suchten verzweifelt ihr Auto (2a, oben). Nur 2 Wochen später war aller Schnee verschwunden; tagsüber herrschte T-Shirt-Wetter; die Sonnenuntergänge sahen in der Luftmasse cS wie in der Sahara aus.

Nachdem es Ende März erneut ein paar schon fast sommerliche Tage gab, überraschte der April mit anhaltender Kälte; in Erfurt/Weimar wurden 15 Frostnächte registriert. Näheres zur April-Kälte 2021 und deren Ursachen hier und hier. Auch im Mai setzten sich diese Kapriolen – wenngleich in etwas abgeschwächter Form, weiter fort. Es würde den Rahmen dieses Beitrages sprengen, die Ursachen dieser ungewöhnlichen Wetterlagen zu erörtern. Drei mögliche seien aber zumindest erwähnt: Die nachlassende Sonnenaktivität, die wohl bald endende AMO-Warmphase (im April lag der AMO-Index deutlich unter den Werten des Vorjahres; für den Mai ist Ähnliches zu erwarten), und der eventuelle Beginn einer Abkühlungsphase. Ähnlich wie am Übergang zur „Kleinen Eiszeit“ ab etwa 1300, könnten starke Schwankungen ein Hinweis dafür sein. Es gibt zeitweise (noch) das sehr warme Wetter des Klimaoptimums, zunehmend aber schon kältere Phasen. Für endgültige, seriöse Rückschlüsse ist es aber noch viel zu früh.

Häufig höhenkalte Luft im Januar 2021 – ein erster Hinweis auf eine kühlere Jahreswitterung?

In diesem Januar bestand oft ein großes Temperaturgefälle zwischen dem fast normal temperierten Flachland und den deutlich zu kalten Bergen. Schon kleinere Erhebungen präsentierten sich oft mit einer Schneehaube, während in tieferen Lagen der Schnee rasch wieder schmolz:

Abbildung 3: Starke Temperaturabnahme in der Luftmasse mP mit der Höhe: Nicht nur am 23. Januar 2021 war diese in der hügeligen Landschaft deutlich sichtbar. Der Gipfel des schneebedeckten Hügels (Großer Ettersberg bei Weimar) liegt nur etwa 200 Meter höher, als der Standort des Beobachters an einem Getreidefeld. Geschneit hatte es überall etwa gleich viel, aber nur oberhalb von 300 Metern blieb der Schnee auch liegen. Foto: Stefan Kämpfe

Die Höhenlage von etwa 5395 Metern der 500-hPa-Fläche über der Mitte Deutschlands war wegen der höhenkalten Luft in diesem Januar deutlich niedriger, als im Langjährigen Mittel (1948 bis 2020 am Gitterpunkt 50°N, 10°E 5481 Meter). Letztmalig war das so ähnlich im Januar 2004 zu beobachten; auch damals folgte ein eher verhaltener Jahresrest.

Abbildung 4: Tendenziell positiver Zusammenhang (Korrelation) zwischen der Höhenlage der 500-hPa-Fläche im Januar am Gitterpunkt 50°N, 10°E und dem Deutschland-Flächenmittel der Lufttemperatur im Jahresrest (Feb.-Dez.). Der Korrelationskoeffizient r ist nicht berauschend hoch, überschreitet aber das Signifikanzniveau. Die Streuung ist aber hoch, so dass allein mit diesem Zusammenhang noch kein kühler Jahresrest sicher prognostiziert werden kann! Einige charakteristische Jahre sind markiert, und für den Zeitraum bis zum Mai 2021 traf die Regel schon mal wieder zu.

Wie’s im April und Maien war, wird es auch so im restlichen Jahr?

Auch hier zeigt sich ein tendenzielles, freilich niemals generelles Zutreffen der Regel:

Abbildung 5: Positive Korrelation zwischen dem Deutschland-Temperatur-Flächenmittel im April und Mai (waagerechte Achse) und dem der folgenden sechs Monate (Sommer und Herbst, senkrechte Achse) im Zeitraum 1881 bis 2020. Die beiden Mittelwerte 1881 bis 2020 der Zeiträume (senkrechte für April und Mai, waagerechte für Sommer und Herbst) teilen das Diagramm in 4 Quadranten. Nur für alle Punkte, welche im linken, unteren und im rechten, oberen Quadranten liegen, trifft die Regel zu. Auch hier gilt also: Sichere Langfrist-Prognosen sind anhand dieser statistischen Zusammenhänge zwar nicht möglich, aber grobe Abschätzungen der weiteren Witterungstendenz schon.

Das experimentelle Langfrist-Vorhersagemodell CFSv2 des amerikanischen Wetterdienstes NOAA hatte uns lange einen eher warmen Sommer prophezeit; mittlerweile schwenkte es für die Monate Juni bis einschließlich Oktober auf „normal“ um:

Abbildung 6: Vorhersagen des CFSv2-Modells (Eingabezeitraum 6. bis 15. Mai) für die Monate Juli bis November 2021. Es dominiert die Farbe „Weiß“ für normale Temperaturen; erst der November soll wieder zu warm werden. Die Unsicherheit dieser Prognosen ist jedoch sehr hoch. Bildquelle: NOAA

Bliebe noch anzumerken, dass die Hochsommer-Witterung erst einigermaßen anhand des Witterungsverhaltens im „Siebenschläfer-Zeitraum“ (Ende Juni/Anfang Juli) abgeschätzt werden kann. Und freilich kann es auch bei verhalten temperierter Gesamtwitterung Hitzewellen oder einzelne, zu warme Monate geben; viel wird davon abhängen, ob die Zirkulationsstörungen weiter andauern; ohnehin tendiert die zweite Jahreshälfte eher zu warmen Süd- und Südwestlagen, als die erste.

Verspätungen 2021 in der Natur – Menetekel der Abkühlung?

In den vergangenen 20 Jahren kehrten die Mauersegler nicht selten schon um den 1. Mai nach Weimar zurück; letztmalig 2018 gar schon am 29.April. Doch in den letzten 3 Jahren verspäteten sie sich; in diesem Jahr wurden sie erst am 9. Mai gesichtet. Auch der in den letzten Jahrzehnten beobachtete, meist aber nicht sehr deutliche Verfrühungstrend in der Pflanzenwelt scheint gestoppt: Die den Frühsommerbeginn markierende Holunderblüte wird in diesem Jahr für Weimar erst so um oder gar nach dem 25. Mai erwartet:

Abbildung 7: Kein Verfrühungstrend mehr beim Einzug des Frühsommers in Weimar. Für 2021 wurde der Beginn optimistisch auf den 25.Mai geschätzt.

Dabei wird in den Mainstream-Medien doch stets von der angeblich immer schnelleren, immer schlimmeren Klimaerwärmung berichtet – ein Blick auf das Verhalten der Frühlingsmonate in dem etwa 1988 begonnenen „Klimaoptimum“ zeigt jedoch ein differenzierteres Bild:

Abbildung 8: Keine eindeutigen, signifikanten Trends beim DWD-Flächenmittel der Frühlingsmonate trotz stark steigender CO2-Konzentrationen. Während der April noch eine leichte Erwärmung, bedingt durch die stark zunehmende Besonnung, zeigt, stagnieren die Märzwerte; der Mai kühlte gar minimal ab. Das Mai-Mittel für 2021 wurde optimistisch auf 12°C geschätzt; es könnte auch etwas kühler ausfallen.

Ist der Mai kühl und nass – füllt’s dem Bauern Scheun‘ und Fass

In den meisten Teilen Deutschlands ließ die bislang recht feuchte Mai-Witterung die Getreidebestände üppig sprießen – sie sehen besser als in den Vorjahren um diese Zeit aus. Sollte es bis Ende Juni häufiger regnen, steht eine sehr gute, vielleicht gar rekordverdächtige Ernte ins Haus – dabei sollte es doch durch den „Klimawandel“ angeblich immer schlechtere Ernten geben. Nur bei Spargel- und Obstbauern herrscht – freilich bei weitem nicht überall – eher Katerstimmung: Spätfröste und anhaltende Kühle schmälern ihre Ertragsaussichten.

 




Unsinn vom Nordatlantik

Rahmstorf und seine Potsdamer Kollegen hämmern schon lange an diesem Thema herum.[2] Ihr neues Papier ist kurz und präsentiert ein Bündel von Proxies, die zeigen sollen, dass sich die Strömung des Golfstroms in den letzten Jahrzehnten abgeschwächt hat und damit das gleichmäßige maritime Klima Europas gefährdet.

Aber das ist eine irreführende Vereinfachung: In Wirklichkeit ist der Golfstrom nicht mehr als ein kurzes Segment des windgetriebenen Subtropischen Wirbels des Nordatlantiks und, wie Wyville-Thompson 1871 über den Golfstrom schrieb, „nach dem Verlassen der Straße von Florida … bei etwa 42°N wendet sich ein großer Teil … ostwärts und südwärts und verschmilzt, um die Sargassosee herumwirbelnd, mit dem nördlichen Rand des Äquatorialstroms und schließt sich wieder der Hauptzirkulation an.“[3]

Der Nordatlantikstrom, der weiter in Richtung Europa fließt und schließlich in den Arktischen Ozean eintritt, führt also nur einen sehr kleinen Teil des Wassers mit sich, das zuvor als Golfstrom an der Küste Floridas vorbeigezogen war, zusammen mit Hang- und Schelfwasser aus den Meeren um Neufundland und dem Sankt-Lorenz-Golf.

Langfristige Änderungen der SST sind schwer zu quantifizieren, aber die Entwicklung der Meeresoberflächentemperatur, die das HadNMAT2-Archiv für die nördlichen Ozeane anzeigt, ist unten dargestellt.[4] Obwohl die Autoren dieser Studie meinen, dass diese Daten „bestehende Schätzungen der globalen Erwärmung“ unterstützen, ist es schwer vorstellbar, dass sie ein fortschreitendes anthropogenes Signal enthalten: Die Daten werden dominiert (i) von den Folgen der Anzahl der Schiffe auf See, (ii) von der Ungenauigkeit der frühen Eimer-über-die-Seite-Beobachtungen und (iii) vom Aufkommen automatisierter freidriftender Instrumente. Diese Beobachtungen unterstützen nicht den Verlauf der nordatlantischen Temperatur-/Zirkulationsindizes, die von Potsdam angeboten wurden, um ihren Ansatz für eine außergewöhnliche Verlangsamung der nordatlantischen Zirkulation während ungefähr des gleichen Zeitraums zu unterstützen.[5]

Und das Muster der SST-Änderungen auf viel kleinerer Skala, das durch Küstenproben an Leuchttürmen, Pegelstandorten und so weiter erhalten wurde, legt nahe, dass sich die Südostküste der USA, die vom Golfstrom umspült wird, in der Tat nicht progressiv erwärmt hat. Hier sind die Daten für drei Regionen des westlichen Atlantiks.[6] Sie unterstützen nicht die Trends, die von den Potsdamer Proxies über die letzten 150 Jahre angezeigt werden.

Solche Aussagen bedürfen eines Beweises – die in diesem Fall nicht schwer zu finden sind: Die Folgen der fortschreitenden Anpassung, Bereinigung und Homogenisierung der ursprünglichen Beobachtungen, die zuvor als individuell eingefärbte Datenplots bei NASA Goddard gezeigt wurden, wurden kürzlich auf ihrer öffentlichen Website so bearbeitet, dass es schwierig wurde, irgendetwas außer den endgültigen homogenisierten Daten zu visualisieren. Zum Glück für uns, scheinen sie die Arbeit von Hand gemacht zu haben, und zwar schlampig.

So war ich in der Lage, die Originalplots für zwei Stationen zu finden – und wiederherzustellen – die für diese Diskussion sehr relevant sind: Valentia Observatory an der Küste von Galway und Vestmannaeyjar auf einer Insel südlich von Island. In beiden Fällen wurden die dunkleren Linien des früheren Jahres der homogenisierten Daten sehr deutlich nach unten verschoben, um eine signifikante Erwärmung einzuführen, wo es in den helleren Linien, die die unangepassten Daten repräsentieren, keine gab. Die NOAA führt nur eine sehr bescheidene Anpassung ihrer GHCN-all-Daten durch, indem sie nur die letzte Dekade erwärmt, um ihr GHCN-M (angepasstes) Archiv zu erstellen.

Das Muster der Galway-Daten, mit wärmeren Perioden um 1940 und auch am Ende des Jahrhunderts, wiederholt sich an ländlichen Stationen in Westeuropa; es spiegelt auch perfekt den wechselnden Wert der NAO und die Entwicklung des atmosphärischen Druckfeldes über dem Nordostatlantik wider.

Aber Warnungen wie die aus Potsdam hatten trotz Widerlegung eine lange Vorgeschichte: Die vermeintlichen Auswirkungen einer Verlangsamung der nordatlantischen Tiefenkonvektion auf das Klima, insbesondere auf Europa, wurden 2005 in Nature kurz vor einem Post-Kyoto-Klimatreffen in Bezug auf Beobachtungen der Tiefenströmung in niedrigeren Breiten diskutiert.[8] Diese Vorstellung wurde schnell durch einen Kommentar von Carl Wunsch mit dem Titel „The Atlantic Conveyor may have slowed, but don’t panic yet!“ in Frage gestellt. Und es ist nicht überraschend, dass er so dogmatisch reagierte, wie er es tat: „Europäische Leser sollten beruhigt sein, dass die Existenz des Golfstroms eine Folge des großräumigen Windsystems über dem Nordatlantik und der Natur der Flüssigkeitsbewegung auf einem rotierenden Planeten ist. Die einzige Möglichkeit, eine Ozeanzirkulation ohne Golfstrom zu erzeugen, besteht darin, entweder das Windsystem abzuschalten oder die Erdrotation anzuhalten oder beides.“[9]

Wunsch hätte auch bemerken können, dass der stärkste Wärmefluss vom Golfstrom in die Atmosphäre im westlichen Ozean südlich von Nova Scotia stattfindet, wo sonnenerwärmtes Wasser aus niedrigen Breiten auf sehr kalte Polarluft trifft. Dieser Prozess wird von der latenten Verdunstungswärme dominiert und ist eine Anomalie von globalem Ausmaß – aber entlang der Küsten Westeuropas bleibt wenig oder gar keine Wärme im Ozean, die an die Atmosphäre abgegeben werden könnte.[10]

Folglich ist es klar, dass das populäre Bild eines breiten Golfstroms, der bei etwa 45oN ostwärts über den Atlantischen Ozean fegt und die in den Tropen gewonnene Wärme trägt, um Europas maritimes Klima aufrechtzuerhalten, nicht hilfreich ist.

Tatsache ist, dass alle vergessen zu haben scheinen, dass an der Pazifikküste Nordamerikas – wo es kein Äquivalent des Golfstroms gibt – in ähnlichen Breitengraden ein perfektes maritimes Klima herrscht: Tatsächlich stammt die kalte Wassermasse, die entlang dieser Küste etwa auf dem gleichen Breitengrad wie Europa liegt, aus dem Golf von Alaska und bringt keine Wärme mit sich. Aber die Winter sind hier warm und die Sommer kühl, wie Richard Seager, ein scheinbar naiver englischer Ozeanograph, bei seinem ersten Besuch an der US-Westküste zu seiner Überraschung feststellte. Dieses maritime Klima, dem ein Golfstrom-Analogon fehlt, ist die Folge der Wärme, die von südwestlichen Winden aus dem fernen subtropischen Wirbel über die kalte Küstenströmung getragen wird.[11]

Die Wärme, die diese Winde mit sich bringen, geht dem Ozean beim Überqueren des kalten Küstenwassers von Alaska nicht verloren, da der sensible Wärmefluss zwischen Ozean und Atmosphäre fast überall ein Verlustterm ist. Das liegt an der Mikrostruktur der ozeanischen Hautschicht, in der die molekulare Diffusion dominiert; nur im Herbst und Winter in hohen Breiten, wenn starker Windstress brechende Wellen erzeugt, die die molekulare Hautschicht unterbrechen, gibt es einen signifikanten Fluss von fühlbarer Wärme vom Ozean zur Atmosphäre.[12]

Wenn diese „Anti-Passat“-Winde die Rocky Mountains überqueren, wird ihre Gyralstruktur vertikal gestaucht und horizontal ausgedehnt, um den Drehimpuls zu erhalten. Das zwingt die Sturmbahnen dazu, sich über dem Kontinent nach Süden zu krümmen, so dass sie auf einem deutlich niedrigeren Breitengrad wieder auf den Ozean treffen – in der nördlichen Karibik und östlich von Florida, wo die sensible Wärme sehr schnell an die kühle Atmosphäre abgegeben wird. Während ihrer nordöstlichen Bewegung über den Atlantik in Richtung Europa nimmt die oberirdische Luftmasse dann weitere Wärme von der Oberfläche des Ozeans durch fühlbaren Wärmefluss auf und transportiert sie mit einer Rate, die die im Ozean transportierte deutlich übersteigt.[13] Würden diese Winde den Ozean nach Europa auf demselben Breitengrad überqueren, auf dem sie auf die westlichen Rocky Mountains treffen, wäre ihre Auswirkung auf das europäische Klima viel weniger positiv.

Diese Bilder aus Ventusky-Simulationen für (links) die Lufttemperatur in Oberflächennähe am 30. November 2011 und (rechts) für den 31. Juli 2020. wurden gewählt, um die klassische Aufweichung des westeuropäischen Winterklimas durch warme Südwestwinde (links) und auch eine ganz andere Situation zu zeigen, über die in Bezug auf das europäische Klima nicht oft gesprochen wird und die unsere sehr ungemütlichen südlichen Nachbarn, Nordafrika und die Wüste Sahara, betrifft.

Solche Bedingungen können sich auch im Winter entwickeln wie am 6. Februar dieses Jahres, als mein Auto und alle anderen in der Stadt mit rosinengroßen Klecksen aus feuchtem Saharaschlamm besprenkelt waren, der sich aus Staubpartikeln zusammensetzte, die von einer niedrigen Altocumulusdecke heran getragen wurden.[14]

Der Mythos vom maritimen, ausgeglichenen Klima, das der Golfstrom nach Europa brachte, muss also wirklich als das gesehen werden, was er ist – ein Mythos. Er ist vielleicht für die Britischen Inseln und Skandinavien zutreffend, aber sicher nicht für den gesamten Subkontinent. Und dieser „Golfstrom auf dem niedrigsten Stand seit 1000 Jahren“ aus Potsdam, der von einer sensationslüsternen Presse hinaus posaunt wurde, ist vielleicht auch ein Mythos – aber sicherlich nicht hilfreich, um zu verstehen, wie die reale Welt tatsächlich funktioniert.

Aber ich fürchte, dass wir noch mehr, und wahrscheinlich noch viel mehr, vom Potsdam-Institut für Klimafolgenforschung hören werden, weil sie sich für einen versiegenden Golfstrom und ein abschreckendes Europa einsetzen – ein Konzept, das einer näheren Betrachtung nicht standhält: Sie werden schließlich finanziert, um die Bereiche „globaler Wandel, Klimaauswirkungen und nachhaltige Entwicklung“ zu untersuchen, und ich schließe aus ihren Schriften, dass dies nicht als Auftrag interpretiert wird, zu versuchen, die natürliche Welt zu verstehen – und so liegen sie immer wieder wie in diesem Fall falsch.

[1]Caesar, L e al.; (2021) . Nature Geoscience, 14, 118-120. 10.1038/s41561-021-00699-z.

[2]Rahmstorf, S. et al. (2015) Nature Climate Change 5, 475-480, DOI.10.1038NCLIM2554

[3]Nature (1871) vol. 4, 251-253.  Image from Tomczac and Godfrey’s indispensible “Regional Oceanography” of 2002, freely available on-line.

[4] Kent, E.C. et al. (2013)J. Geophys. Res. 118, 1281-1298.

[5]Rahmstorf, S. et al. (2015) Nat. Clim. Change 6, DOE. 10.1038/NCLIMATE2554

[6] from Shearman, R.K. and S.J. Lutz (2010) J. Phys. Oceanogr. 40, 1004-1017

[7]Neto, A.G. et al. (2021) Communications Earth Envir.| https://doi.org/10.1038/s43247-021-00143-

[8] Bryden, H.L. et al. (2005) Nature, 438, 655-657.

[9] Wuntsch, C. (2004) Nature, 428, 601.

[10] Broecker, W.S. (1991) Oceanography 4, 79-89; images, left – Tomczac and Godfrey again and, right, from  Bedford Inst. Oceanogr. Rev. 1984.

[11]Seager, R. et al. (2002) Quart. Roy. J. Meteor. Soc. 128, 2563-2586.

[12]images from  Seager, R.  (2006) Am. Scient. 94, 334341 and from Tomczak (2003).  Annual mean ocean-to-atmosphere heat flux (W.m2)

[13]Seager, R. et al. (2002) Quat. J. Roy. Met. Soc. 128, 2563  doi.10.1256/qj.01.128

[14]Cuadros, J. et al. (2015) Atmosph. Envir. 120, 160-172

Link: https://judithcurry.com/2021/05/12/north-atlantic-nonsense/

Übersetzt von Chris Frey EIKE