1

Steigt der Meeresspiegel immer schneller? (T1/2)

Leider allerdings nur wieder ein Beispiel, wie angebliche „Wissenschaftler“ gemeinsam mit unseren Medien den Bürger bewusst belügen bzw. ihm nicht die ganze Wahrheit sagen. Auf kaltesonne wurde es thematisiert [2]. Da die Info dort etwas kurz geraten ist und den Sachverhalt nur anreißt, anbei eine etwas längere Ausführung.

Der Meeresspiegel steigt. Und nicht nur das: Er steigt immer schneller…

…verkündete Prof. Rahmstorf (PIK) im Spiegel [1]. Und er wusste dazu zu erzählen, dass man auch wisse, warum das so ist: „[1] Wie stark der Klimawandel diesen Effekt treibt, ist inzwischen weitgehend entschlüsselt … “. Dazu erzählt er auch, dass die Satelliten den Meerespegel aus einer Bahnhöhe von ca. 1.320 km auf einen Millimeter genau ausmessen könnten: „Die Laufzeit der Wellen erlaubt es, den mittleren globalen Meerespegel auf einen Millimeter genau zu bestimmen“.

Um dann mit der Hiobsbotschaft zu ergänzen: „Seit 1992 ist der globale Meeresspiegel um neun Zentimeter gestiegen. Die Anstiegsgeschwindigkeit hat sich in dieser Zeit mehr als verdoppelt, von 2,1 auf 4,8 Millimeter pro Jahr ... „

Bild 1 [1] Meerespegelverlauf. Darstellung von Prof. Rahmstorf
Dazu passt auch die Wiederholung der Information, wonach der Meerespegel die letzten 2.000 Jahre fast unverändert blieb, nun aber ebenfalls so etwas wie einen „Hockeyschläger-Verlauf“ ausbildet:
[1] Doch schon dieser Anstieg ist einzigartig mindestens seit der Geburt Christi: Sedimentdaten zeigen, dass es seither in keinem Jahrhundert mehr als fünf Zentimeter Anstieg gegeben hat, und Jahrhunderte mit steigendem und fallendem Pegel hielten sich in etwa die Waage

Bild 2 [4] historischer und aktueller Meerespegelverlauf
Wenn irgend jemand vom PIK „spricht“, ist eine Erwähnung der Kipppunkte „unvermeidbar“, schließlich hat diese im Wesentlichen ihr ehemaliger Chef, Herr Schellnhuber, simuliert und propagiert:
[1] Die Eismassen haben seit Jahrzehnten bekannte Kipppunkte durch die Eis-Höhen-Rückkopplung in Grönland und die marine Eisschildinstabilität in der Antarktis. Der Kipppunkt für Grönland (genug für sieben Meter Meeresspiegel) liegt wahrscheinlich irgendwo zwischen einem und drei Grad globaler Erwärmung – nach der besten Abschätzung bei 1,6 Grad. Der Kipppunkt für die Westantarktis (genug für drei Meter Meeresspiegel) ist wahrscheinlich sogar schon überschritten …

Eine aktuelle Studie liest aus den gleichen Daten etwas anderes heraus

Beim Klimawandel bleibt und ist nichts im „Konsens“ oder gar wie oft behauptet „settled“. Wie immer gibt es Wissenschaftler, die zum genau gleichen Datensatz ganz anderes berichten. So auch wieder in diesem Fall:
[5] H. Bâkiİz and C.K. Shum, January 29, 2020: The certitude of a global sea level acceleration during the satellite altimeter era
Abstract: Recent studies reported a uniform global sea level acceleration during the satellite altimetry era (1993– 2017) by analyzing globally averaged satellite altimetry measurements. Here, we discuss potential omission errors that were not thoroughly addressed in detecting and estimating the reported global sea level acceleration in these studies. Our analyses results demonstrate that the declared acceleration in recent studies can also be explained equally well by alternative kinematic models based on previously well-established multi-decadal global mean sea level variations of various origins, which suggests prudence before declaring the presence of an accelerating global mean sea level with conidence during the satellite altimetry era.
(Leicht angepasste) deepl-Übersetzung: Zusammenfassung: Jüngste Studien berichteten über eine einheitliche globale Meeresspiegel-Beschleunigung während der Satellitenaltimetrie-Ära (1993- 2017) durch die Analyse von global gemittelten Satellitenaltimetrie-Messungen.
Hier diskutieren wir mögliche Auslassungsfehler die bei der Erkennung und Schätzung der berichteten globalen Meeresspiegelbeschleunigung in diesen Studien nicht gründlich behandelt wurden.
Unsere Analyseergebnisse zeigen, dass die angegebene Beschleunigung in den jüngsten Studien ebenso gut auch durch alternative kinematische Modelle erklärt werden kann, die auf gut etablierten multidekadischen globalen mittleren Meeresspiegelschwankungen unterschiedlicher Herkunft basieren. Was zur Vorsicht mahnt, bevor man Erklärungen vertraut, welchen das Vorhandensein eines sich beschleunigenden globalen mittleren Meeresspiegels während der Satelliten Altimetrie-Ära postulieren.
Dem Abstrakt setzten die zwei Studienautoren noch ein Zitat nach: “Nothing is always absolutely so” Sturgeon, The Claustrophile, 1956

In der Studie werden zuerst Daten verschiedener Studien, welche Beschleunigungen im Anstieg der Meerespegel- berichten gelistet und dazu, dass darin (fast immer) keine stichhaltigen Belege enthalten sind. Dann kommt eine eigene Analyse der Satellitendaten:
[5]We analyzed monthly and globally averaged satellite altimetry, SA, global sea level time series to demonstrate that one of the most important approaches to earliest possible detection of a signicant GMSL acceleration lies in recognizing and separating the eect of natural internal forcing of the oceans compounded with the variability of astronomical origin that are not limited to the SA era. We also quanti- ed unusually highly autocorrelated noise in the SA time series, which were not rigorously addressed in recent studies …
(Leicht angepasste) deepl-Übersetzung: ... Wir analysierten monatliche und global gemittelte Zeitreihen der Satellitenaltimetrie SA, (und) des globalen Meeresspiegels, um zu zeigen, dass einer der wichtigsten Ansätze zur frühestmöglichen Erkennung einer signifikanten GMSL-Beschleunigung in der Erkennung und Trennung des Effekts natürlicher interner Antriebe der Ozeane zusammen mit der Variabilität astronomischen Ursprungs (Einfügung. Bsp. Sonnenvariabilität) liegt, die nicht auf die Satelliten-Ära beschränkt sind.
Wir quantifizierten auch ungewöhnlich stark autokorreliertes Rauschen in den SA-Zeitreihen, das in den aktuellen Studien nicht konsequent behandelt wurde …

Dann kommt eine Übersichtsgrafik der Satelliten-Pegelreihe (Bild 3). Eigentlich zeigt dieses Bild schon (fast) alles über die alarmistische Aussage von Herrn Rahmstorf und was dieser bewusst dazu nicht gesagt hat: Dass die Pegel-Änderungsrate vom Messbeginn an zyklisch um +- diesen Wert pendelt und aktuell wieder bei Null angekommen ist.

Bildtext: Fig. 1. Globally and monthly averaged sea level anomalies as observed by Satellite Altimetry (Blue), superimposed with the residuals of the OLS. – Bild 3 [5] Satelliten-Pegelreihe (Anomalie) mit der Pegel-Änderungsrate (Residuals). Grafik vom Autor ergänzt
Beim Vergleich der erkennbaren Zyklen zeigt sich (was „Kaltesonne“ auch erwähnt), ein mehr als signifikanter Einfluss von Klimazyklen:

Fig. 3. MEI and Solution I monthly OLS residuals (mm) during the SA period. – Bild 4 [5] Korrelation der Pegel-Residuen (Bild 3) mit den ENSO-Zyklen

Schlussfolgerung

Was Herr Rahmstorf wie üblich als eine „gesicherte Kenntnis“ publiziert, zeigt sich beim näheren Betrachten (wieder) als höchst spekulativ:
[5] ... Conclusion
Recent analyses of SA time series by Nerem at al., (2018) and Ablain et al., (2019) and others declaring a GMSL acceleration are far from exhaustive for such an important topic. Uncertainty is one of the essential components in assessing variability in global sea level in the context of GMSL budget to ascertain anthropogenic contributions. The omission of the eect of potential confounders including a potential jerk or multidecadal sea level variations (Ablain at al., 2019), or using a conjecture that they will average out because of the superior global coverage of SA by Nerem at al. (2018) is a leap of faith without evidence in quantifying a GMSL acceleration and its uncertainty using globally averaged SA time series. Moreover, conducting projections as in Nerem at al. (2018) without ascribing proper uncertainties to the model estimates have no meaning. Until the uncertainty of a recent GMSL acceleration is established in the context of “total evidence”, i.e. in the light of systematic global sea level variations during the 20th century revealed by TG measurements together with the available SA time series, any prediction of a GMSL rise ought to be made with extreme prudence.

(Leicht angepasste) deepl-Übersetzung: Schlussfolgerung
Die jüngsten Analysen der SA-Zeitreihen von Nerem at al. (2018) und Ablain et al. (2019) und anderen, die eine GMSL-Beschleunigung erklären, sind bei weitem nicht erschöpfend für ein so wichtiges Thema.
Die Unsicherheit ist eine der wesentlichen Komponenten bei der Bewertung der Variabilität des globalen Meeresspiegels im Rahmen des GMSL-Budgets, um die anthropogenen Beiträge zu ermitteln. Die Auslassung des Einflusses potenzieller Störfaktoren, einschließlich eines potenziellen Rucks oder multidekadischer Meeresspiegelschwankungen (Ablain at al., 2019), oder die Verwendung einer Vermutung, dass sie sich aufgrund der überlegenen globalen Abdeckung von SA durch Nerem at al. (2018) ausmitteln werden, ist ein Vertrauensvorschuss ohne Beweise bei der Quantifizierung einer GMSL-Beschleunigung und ihrer Unsicherheit unter Verwendung global gemittelter SA-Zeitreihen. Darüber hinaus ist die Durchführung von Projektionen wie in Nerem at al. (2018), ohne den Modellschätzungen angemessene Unsicherheiten zuzuschreiben, sinnlos.
Solange die Unsicherheit einer rezenten GMSL-Beschleunigung nicht im Kontext der „Gesamtevidenz“, d. h. im Lichte systematischer globaler Meeresspiegelschwankungen während des 20. Jahrhunderts, die durch TG-Messungen zusammen mit den verfügbaren SA-Zeitreihen aufgedeckt wurden, ermittelt ist,
sollte jede Vorhersage eines GMSL-Anstiegs mit äußerster Vorsicht erfolgen.

Satellitepegel

Anbei anhand der Originaldaten eine Plausibilitätssichtung.
Die Satellitendaten werden gängig wie in Bild 5 dargestellt. Der quadratische, stetig schlimmer steigende Regressions-Fit erscheint in dieser Darstellung plausibel und „zwingend“:

Bild 5 Pegeldaten der verschiedenen Messsatelliten mit der quadratischen Pegel-Anstiegskurve

Im WEB sind die Satellitendaten hinterlegt und lassen sich laden. Daraus ergibt sich Bild 6, welches dem Bild 5 in höherer Auflösung entspricht.
Trägt man darin Verlaufsbegrenzungslinien ein, zeigt sich, dass der quadratisch – stetig schlimmer ansteigende – Fit überhaupt nicht zwingend ist. Ein bisheriger – und weiterhin – linearer Anstieg hat genau so gut seine „Berechtigung“ (wie es die Studie [5] auch feststellt).
Der quadratisch steigende Fit zeigt sich demnach lediglich als eine Hypothese und ist durch nichts (außer, dass der Verlauf mathematisch hineinpasst) begründet.

Man muss sich klar machen, dass die Satelliten aus ca. 1.320 km Entfernung den Meeres-Pegel auf den Millimeter genau messen können sollen (was auf Meereshöhe und direkt daneben angeblich nur ungenau erfolgt). Das mag theoretisch stimmen, wenn man alleine die Laufzeit-Messgenauigkeit betrachtet. In Wirklichkeit wird die Laufzeit das Messsignal jedoch durch externe Einflüsse verfälscht, teils driften die Messapparaturen und die Satelliten selbst „taumeln“ mit den Änderungen des Erd-Schwerefeldes. Den Pegelwert bekommt man erst nach vielen, vielen Korrekturen und Anpassungen. Teils werden diese sogar noch nach Jahren nachträglich korrigiert. Es ist also gar nicht sicher, dass die Satelliten-Pegelmesskurve wirklich mit der angegebenen Genauigkeit stimmt.

Herr Rahmstorf ist allerdings überzeugt – zumindest sagt er es -, dass die Satelliten es auf den Millimeter genau könnten. Allerdings ist immer noch ungeklärt, warum die ja weiterhin durchgeführten Tidenpegelmessungen und die Satellitenpegel eine große Abweichung im Pegeltrend aufweisen (Tidenpegel: 1,5 … 2 mm/pa, Satellitenpegel 3,3 mm/pa).
Anmerkung: Diese Abweichung ist der Grund, warum im Pegel-Verlaufsbild (Bild 1) mit den angefügten Satellitendaten so ein großer Beschleunigungsanstieg erfolgt. Es ist der gleiche „Datenbetrug“ wie beim Hockeystick, wo ebenfalls zwei unterschiedliche Messarten mit systembedingt unterschiedlichen Messergebnissen gekoppelt wurden.

Bild 6 Original-Satellitendaten (3,4 mm/pa). Grafik vom Autor erstellt

Aus diesen Originaldaten lässt sich auch der Verlauf der Pegel-Änderungsrate ermittelt (zum Vergleich mit Bild 3). Die von Rahmstorf genannten, 4,8 mm/pa mit steigender Tendenz erscheinen nun unplausibel und nur eine kurzfristige Momentaufnahme.

Bild 7 Satelliten-Pegel-Änderungsrate (Residuals) als Absolutwerte und als Steigungswerte der Regressionsgeraden. Grafik vom Autor erstellt

Fazit

Der von Prof. Rahmstorf dem Spiegel erzählte, hohe und beschleunigte Meerespegelanstieg ist eher falsch als richtig. Und dies ist anhand der Daten so deutlich erkennbar, dass von einer bewussten Alarmisierung ausgegangen werden muss.
Der „Spiegel“ macht sich dabei eindeutig einer „Mittäterschaft“ schuldig, da zumindest „er“ als unabhängige Institution auch auf die vorliegenden, der Aussage von Herrn Rahmstorf entgegenstehenden Studien und Daten hätte hinweisen müssen.

Damit endet Teil 1. Im zweiten Teil wird der aktuelle Meerespegel-Änderungszustand anhand von Pegeldaten in der (angeblich) am meisten davon betroffenen Region – der Südsee – gezeigt.

Quellen

[1] SPIEGEL Wissenschaft, Rahmstorf 15.12.2020: Klimakrise Warum der Meeresspiegel immer schneller steigt

[2] kaltesonne 23.12.2020: Die Welt säuft ab…wirklich?

[3] STERN, 26.12.2020: Wirtschaftswachstum: Corona-Turbo – China wird die USA schon 2028 hinter sich lassen

[4] RAHMSTORF 22. Feb 2016. SciLogs > KlimaLounge > Allgemein > Meeresspiegel über die Jahrtausende

[5] H. Bâkiİz* and C.K. Shum, January 29, 2020: The certitude of a global sea level acceleration during the satellite altimeter era

[6] EIKE 10. November 2019: Statt 80 sind plötzlich 300 Millionen Küstenbewohner vom Klimawandel bedroht

[7] DKK, Schrift: Zukunft der Meeresspiegel

 




Wärme und Kälte

Teilweise entspricht dies meinen Erwartungen. Aber ich habe keinesfalls erwartet, dass der größte Teil Südamerikas zu den sich am stärksten abkühlenden Gebieten der Erde gehört.

Hier ist das hervor stechende Phänomen, dass sich fast der gesamte Nordatlantik abkühlt … das habe ich nicht kommen sehen. Gleiches gilt für den zentralen Indischen Ozean.

Dadurch aufmerksam geworden wollte ich nun auch einen Blick auf die Hot Spots werfen. Hier also die gleichen Ansichten, nur diesmal mit den Gebieten, welche sich stärker als 0,25°C pro Dekade erwärmen:

Der gesamte östliche Pazifik erwärmt sich rasch … ebenso wie der zentrale Südliche Indische Ozean. In Australien ist das teilweise der Fall:

Einige Gebiete im östlichen Brasilien erwärmen sich rasch … während im westlichen Brasilien das Gegenteil der Fall ist. In Nordafrika wird es wärmer, in Südafrika kälter. Und in ganz Sibirien wird es wärmer … so etwas!

Ich ziehe jetzt keine übermäßigen Schlussfolgerungen aus all dem … außer dass ich überrascht war, dass rund ein Viertel der Welt sich abkühlt…

Link: https://wattsupwiththat.com/2020/12/28/blowing-hot-and-cold/

Übersetzt von Chris Frey EIKE




Neu entdeckter Lavadom unter Grönland treibt thermische Aktivitäten in der Arktis

„Das Wissen über den Lavadom unter Grönland wird unser Verständnis der vulkanischen Aktivitäten in diesen Regionen und der problematischen Frage des globalen Meeresspiegelanstiegs durch das Abschmelzen des grönländischen Eisschildes verbessern“, sagt Dr. Genti Toyokuni, Mitautor der Studien.

Die nordatlantische Region ist voll von geothermischer Aktivität. Auf Island und Jan Mayen gibt es aktive Vulkane mit ihren eigenen ausgeprägten Mantelplumes, während Spitzbergen – eine norwegische Inselgruppe im Arktischen Ozean – ein geothermisches Gebiet ist. Der Ursprung dieser Aktivitäten und ihre Verflechtung sind jedoch weitgehend unerforscht.

Das Forscherteam entdeckte, dass der Grönland-Dom von der Kern-Mantel-Grenze zur Mantelübergangszone unter Grönland aufstieg. Er hat außerdem zwei Verzweigungen im unteren Mantel, die in andere Plumes in der Region münden und aktive Regionen in Island und Jan Mayen sowie das geothermische Gebiet in Spitzbergen mit Wärme versorgen.

Abbildung: Ein schematisches Diagramm, das die wichtigsten tektonischen Merkmale und Mantelplumes unter Grönland und den umliegenden Regionen zeigt. Vp = P-Wellen-Geschwindigkeit; MAR = der Mittelatlantische Rücken; MTZ = die Mantelübergangszone (410-660 km Tiefe); CMB = die Kern-Mantel-Grenze in 2889 km Tiefe. ©Tohoku University

Ihre Erkenntnisse basierten auf Messungen der seismischen 3-D-Geschwindigkeitsstruktur der Kruste und des gesamten Mantels unter diesen Regionen. Um die Ergebnisse zu erhalten, nutzten sie die seismische Tomographie. Zahlreiche Ankunftszeiten seismischer Wellen wurden invertiert, um 3-D-Bilder der Untergrundstruktur zu erhalten. Die Methode funktioniert ähnlich wie ein CT-Scan des menschlichen Körpers.

Toyokuni konnte dabei Seismographen nutzen, die er im Rahmen des Greenland Ice Sheet Monitoring Network auf dem grönländischen Eisschild installiert hat. An diesem im Jahre 2009 ins Leben gerufenen Projekt arbeiten Forscher aus 11 Ländern zusammen. Das US-amerikanisch-japanische Team ist vor allem für den Bau und die Wartung der drei seismischen Stationen auf dem Eisschild verantwortlich.

Die ganze Presseerklärung steht hier. Links zu den entsprechenden Studien:

Title: P wave tomography beneath Greenland and surrounding regions: 1. Crust and upper mantle
Authors: Genti Toyokuni, Takaya Matsuno, Dapeng Zhao
Journal: Journal of Geophysical Research: Solid Earth
DOI: 10.1029/2020JB019837

Title: P wave tomography beneath Greenland and surrounding regions: 2. Lower mantle
Authors: Genti Toyokuni, Takaya Matsuno, Dapeng Zhao
Journal: Journal of Geophysical Research: Solid Earth
DOI: 10.1029/2020JB019839

Link: https://wattsupwiththat.com/2020/12/29/newly-discovered-greenland-plume-drives-thermal-activities-in-the-arctic/

Übersetzt von Chris Frey EIKE




Wassertemperatur der Ozeane – was wissen wir wirklich?

Der nächste Beitrag [auf Deutsch hier] behandelt die Mischschicht, die eine Schicht mit gleichmäßiger Temperatur direkt unter der Hautschicht ist. Die gemischte Schicht sitzt oberhalb der Sprungschicht, wo die Wassertemperatur schnell zu fallen beginnt. Der nächste Beitrag [auf Deutsch hier] behandelte die Unterschiede zwischen verschiedenen Schätzungen der SST, die verwendeten Daten und die Probleme mit den Messungen und den Korrekturen. Der Schwerpunkt lag dabei auf den beiden Hauptdatensätzen, HadSST und NOAAs ERSST [auf Deutsch hier]. Der letzte Beitrag diskutiert SST-Anomalien [auf Deutsch hier] war die Logik, wenn alle Messungen von knapp unter der Meeresoberfläche stammen, warum werden dann Anomalien benötigt? Warum können wir nicht einfach die Messungen verwenden, korrigiert auf eine nützliche Tiefe, wie 20 cm?

Hintergrund aller Beiträge ist es, die Analyse so nah wie möglich an den Messungen auszurichten. Zu viele Korrekturen und Datenmanipulationen verwirren die Interpretation, entfernen uns von den Messungen und homogenisieren die Messungen in einem solchen Ausmaß, dass wir ein falsches Gefühl von Vertrauen in das Ergebnis bekommen. Diese durch die Überarbeitung von Daten entstehende Illusion von Genauigkeit wird von William Brigg hier diskutiert. Sein Beitrag befasst sich mit der Glättung von Daten, aber die Argumente gelten auch für die Homogenisierung von Temperaturen, die Erzeugung von Anomalien vom Mittelwert und die Korrektur von Messungen durch statistische Verfahren. All diese Prozesse lassen „die Daten besser aussehen“ und geben uns ein falsches Gefühl von Vertrauen. Wir wissen nicht, wie viel von den resultierenden Diagrammen und Karten auf die Korrekturen und Datenmanipulationen zurückzuführen ist und wie viel auf die zugrunde liegenden Messungen. Wir sind Schritt für Schritt durch alle möglichen Verarbeitungen gegangen und haben bei jedem Schritt untersucht, wie die Temperaturen wirklich aussahen.

Wichtung nach Gebieten

Die in all diesen Beiträgen verwendeten Daten mit Ausnahme der frühesten Beiträge zu den Landmessungen im Hauptgebiet der USA stammen alle aus Breiten- und Längengrad-Gittern. Die Rasterung der Messungen ist global erforderlich, da die Messungen hauptsächlich auf der Nordhalbkugel konzentriert sind und anderswo nebst den beiden Polarregionen sehr spärlich. Wie wir bereits gezeigt haben, sind die Temperaturen der nördlichen Hemisphäre anomal, der Rest der Welt ist viel weniger variabel in seiner Oberflächentemperatur. Siehe hier eine Diskussion hierüber und einige Grafiken. Siehe diesen Beitrag von Renee Hannon und diesen vom gleichen Autor, für weitere Details zu den hemisphärischen Variationen in den Temperaturtrends.

Während eine Rasterung wahrscheinlich nicht notwendig ist und irreführend sein kann, müssen wir in Gebieten wie den USA, die gut mit guten Wetterstationen abgedeckt sind, die verfügbaren Daten rastern, um einen globalen SST-Durchschnitt zu erstellen. Das soll nicht heißen, dass die Rasterung gute Messungen ersetzt oder die Messungen verbessert, sondern nur, dass sie mit den uns zur Verfügung stehenden Daten notwendig ist.

Jede Gitterzelle repräsentiert einen anderen Bereich des Ozeans. Der Unterschied ist nur eine Funktion des Breitengrades. Jeder Breitengrad ist 111 km vom nächsten entfernt. Der Abstand de Längengrade am Äquator beträgt ebenfalls 111 km, nimmt aber an den Polen auf Null ab. Um also die Fläche jeder Gitterzelle zu berechnen, müssen wir nur den Breitengrad der Zelle und die Größe der Gitterzellen in Breiten- und Längengraden kennen. Die Lösung wird von Dr. Math (National Council of Teachers of Mathematics) bereitgestellt und abgeleitet, hier. Ich werde die Erzählung nicht mit einer Gleichung unterbrechen, aber der am Ende des Beitrags verlinkte R-Code zeigt die Gleichung und wie sie verwendet wurde.

Es mag seltsam erscheinen, eine so offensichtliche Korrektur an den Daten als letztes vorzunehmen, aber ich wollte ehrlich gesagt sehen, ob es einen großen Unterschied macht. Es stellt sich heraus, dass es einen erheblichen Unterschied in der berechneten Durchschnittstemperatur macht, aber wenig Unterschied in den Trends. Unten in Abbildung 1 ist die ursprüngliche Abbildung aus dem Beitrag über die gemischte Schicht zu sehen, die verschiedene Schätzungen der SST und der globalen Durchschnittstemperatur der gemischten Schicht vergleicht. Normalerweise, vor allem in der Nacht, liegen die gemischte Schicht und die SST sehr nahe beieinander, so dass man sie alle zusammen plotten kann.

Abbildung 1. Der Vergleich der globalen Temperaturschätzungen für die gemischte Schicht und die SST aus dem Beitrag über die gemischte Schicht. Für eine Erklärung des Plots siehe diesen Beitrag.

Die Kurven in Abbildung 1 sind alle auf eine Tiefe zwischen 20 cm und einem Meter korrigiert. Sie sind Gittermittelwerte, d.h. Mittelwerte von gerasterten Werten, aber sie sind nicht für das Gebiet korrigiert, das durch jeden Gitterwert repräsentiert wird. Abbildung 2 zeigt das gleiche Diagramm, ist aber mit flächengewichteten Gitterzellenwerten konstruiert worden. Wir haben auch eine neue Kurve hinzugefügt, die NOAA ERSST-Kurve, nachdem wir die ERSST-Werte gelöscht haben, die den Nullwerten im HadSST-Datensatz entsprechen. Auf diese Weise vergleichen wir ERSST und HadSST über die gleichen globalen Ozeanbereiche. Der normale ERSST-Datensatz (die untere grüne Linie in Abbildung 1 und die untere braune Linie in Abbildung 2) verwendet Interpolation und Extrapolation, um Gitterzellen zu füllen, die unzureichende Daten haben; diese Zellen sind in HadSST null.

Auf den ersten Blick sehen die beiden Diagramme sehr ähnlich aus, aber man beachte, dass sich die vertikale Skala geändert hat. Alles ist um zwei bis vier Grad nach oben verschoben, da die Polarregionen Zellen mit kleineren Flächen haben. Die NOAA ICOADS SST-Linie befindet sich an der gleichen Stelle, da sie bereits flächenkorrigiert wurde. Es ist auch die Linie, die den Messungen am nächsten kommt. Die Prozesse, die zur Erstellung dieser Linie verwendet werden, sind viel einfacher und weniger kompliziert als die von HadSST und ERSST verwendeten. Der Unterschied zwischen HadSST und ERSST ist immer noch da, aber kleiner. Diese beiden Temperaturaufzeichnungen verwenden ähnliche Daten, aber, wie oben beschrieben, ist ihre Rasterung unterschiedlich und sie decken verschiedene Gebiete ab. Sobald das ERSST-Gitter „maskiert“ ist, um mit HadSST übereinzustimmen, steigt es von 18,2 auf 22 Grad an.

Abbildung 2: Dies ist das gleiche Diagramm wie in Abbildung 1, mit dem Unterschied, dass alle Gitterwerte in den Datensätzen nach den Gitterzellenbereichen gewichtet sind, die sie darstellen. Man beachte, dass sich die vertikale Skala geändert hat.

Die mehrjährigen Gittermittelwerte von NOAA MIMOC und der Universität Hamburg liegen in beiden Diagrammen über dem NOAA ERSST-Datensatz, sind aber nach Anwendung des Algorithmus zur Flächengewichtung um etwa 4,5°C wärmer. NOAA MIMOC und die Universität Hamburg erstellen ihre Gitter unter Verwendung von mehr als 12 Jahre alten Daten, so dass sie viel mehr ihres Gitters bevölkern als die Einjahres-Datensätze. Sie wichten auch die Argo- und Bojendaten stark, genau wie NOAA ERSST.

Wie wir mit den ungewichteten Daten im letzten Beitrag [auf Deutsch hier] gesehen haben, tendieren die gemessenen Temperaturen von HadSST nach unten. Wenn das ERSST-Gitter mit den HadSST-Nullwerten maskiert wird, tendiert es ebenfalls nach unten. Dies ist in Abbildung 3 zu sehen.

Abbildung 3. Abnehmende SSTs über dem von HadSST abgedeckten Gebiet sind sowohl in den HadSST- als auch in den ERSST-Datensätzen erkennbar.

Der HadSST-Datensatz hat nur Gitterwerte aus Zellen, aus denen genügend Messungen vorhanden sind, um einen solchen Wert zu berechnen, sie extrapolieren keine Daten in angrenzende Gitterzellen wie ERSST. Somit repräsentieren die HadSST-Daten den Teil des Ozeans mit den besten Daten, und dieser Bereich nimmt eindeutig an Temperatur ab, wenn nur die Messungen verwendet werden. Die ERSST-Daten deuten auf einen Rückgang von 2,5 Grad/Jahrhundert hin. Der HadSST-Rückgang beträgt 1,6 Grad/Jahrhundert.

Die ERSST-Linie ohne Maske (Abbildung 2) zeigt einen steigenden Trend von 1,6 Grad/Jahrhundert. Die interpolierten und extrapolierten Bereiche zeigen also eine Erwärmung, die in den Zellen mit den besten Daten nicht zu sehen ist. Wie wir im letzten Beitrag gesehen haben und in diesem Beitrag als Abbildung 4 erneut zeigen, weisen die HadSST- und ERSST-Anomalien nichts von der Komplexität auf, für die wir sechs Beiträge gebraucht haben. Sie zeigen einen gemeinsamen Trend der Erwärmung, von etwa 1,7 Grad/Jahrhundert.

Abbildung 4. Die HadSST- und ERSST-Anomalien.

Schlussfolgerungen

Die beste Art und Weise, Daten zu analysieren, ist die Verwendung des absoluten Minimums an statistischer Manipulation, das erforderlich ist, um sie in einer brauchbaren Form zu präsentieren. Jede Korrektur, jede Berechnung, alle Glättungsoperationen, jeder Rasterungsschritt muss vollständig begründet werden. Es ist eine unglückliche Tatsache des heutigen wissenschaftlichen und technischen Lebens, dass unsere Kollegen ständig mit „das muss korrigiert werden“, „das muss korrigiert werden“ und so weiter kommen. Es wird wenig darüber nachgedacht, wie die Korrekturen unsere Wahrnehmung der resultierenden Diagramme und Karten beeinflussen. Mit genügend Korrekturen kann man einen Misthaufen in ein Schloss verwandeln, aber ist es wirklich ein Schloss?

Ich hatte einmal einen Chef, der sehr klug war. Er wurde schließlich CEO und Vorstandsvorsitzender der Firma, für die wir arbeiteten. Ich war damals viel jünger und gehörte zu den Wissenschaftlern auf der „Peanut Gallery“, die ständig fragten: „Was ist damit?“ „Was ist damit, haben Sie diese Dinge korrigiert?“ Mein Chef sagte dann: „Wir sollten uns nicht selbst übertreffen. Was sagen die Daten, so wie sie sind?“ Nachdem er CEO wurde, verkaufte er die Firma für das Fünffache des durchschnittlichen Basispreises meiner angesammelten Aktienoptionen. Ich war immer noch ein Wissenschaftler, wenn auch ein wohlhabender. Er hatte Recht, genau wie Dr. William Briggs. Studieren Sie die Rohdaten, behalten Sie sie in Ihrer Nähe, übertreffen Sie sich nicht selbst als Wissenschaftler.

——————————

Zu diesem Beitrag hat der Klima-Realist Marcel Crok von clintel.org eine Frage an den Autor gerichtet. Die Antwort desselben wird hier noch mit übersetzt. – Anm. d. Übers.:

Frage von Marcel Crok: Was schließen Sie aus Ihrer Abbildung 3? Wollen Sie damit sagen, dass die besten verfügbaren Daten darauf hindeuten, dass die Ozean-Temperatur abnimmt?

Antwort von Andy May:

Die allerbesten Daten sind in dieser Abbildung dargestellt. Aber sie repräsentiert nur einen Teil des Weltozeans, und das dargestellte Gebiet ändert sich ständig. Dieser sich ständig verändernde Bereich zeigt sinkende gemessene Temperaturen. Die Schiffe, Schwimmer und Bojen, die die Temperatur messen, sind ständig in Bewegung und verändern sich in jeder Zelle. Die Zellen mit Messungen ändern sich ständig. Die „Referenz“-Periode, zwischen 1961-2000, hat sehr schlechte Daten.

Die einzige Möglichkeit, mit diesen miserablen Daten eine positive Anomalie zu erhalten, besteht darin, monatliche Anomalien aus den Zellen mit vielen Messpunkten in diesem Monat zu erstellen und sie dann als einen Datensatz zu präsentieren. Aber es ist eine Aufzeichnung eines sich ständig ändernden Bereichs, was nützt das?

Weniger als die Hälfte des Ozeans hat gute Daten und diese Hälfte ändert sich ständig, da sich die Instrumente und Schiffe bewegen. Ich habe nur einen Jahresdurchschnitt gebildet, um saisonale Anomalien zu vermeiden. So ist die jährliche Durchschnittstemperatur der Zellen mit den besten Daten (wo auch immer sie sind) in den letzten 20 Jahren gesunken. Dies wurde in den letzten Stunden von Nick Stokes, einem australischen Klimatologen bei den WUWT-Kommentaren bestätigt.

Das Erzeugen von Anomalien, insbesondere die Art und Weise, wie HadSST und ERSST es getan haben, entfernt die gesamte zugrundeliegende Komplexität in den Daten und präsentiert eine irreführende Grafik, die auf sehr, sehr schlechten und nicht repräsentativen Daten basiert.

Meine persönliche Schlussfolgerung nach all dieser Arbeit? Wir haben keine Ahnung, was die durchschnittliche Temperatur des Weltozeans ist, noch wissen wir, ob er sich erwärmt oder abkühlt.

[Hervorhebung vom Übersetzer]

Link: https://andymaypetrophysicist.com/2020/12/23/ocean-sst-temperatures-what-do-we-really-know/

Übersetzt von Chris Frey EIKE




Der Nahe Osten setzt verstärkt auf Öl und Gas, während die UN vor einem „Klima-Notstand“ warnen

Der Generalsekretär fragte ernsthaft: „Kann irgendjemand noch leugnen, dass wir uns in einer dramatischen Notlage befinden?“ Die Frage verdeutlicht den tiefen Graben zwischen den politischen Positionen der wichtigsten westlichen Regierungen einerseits sowie den Öl- und Gasproduzenten im Nahen Osten andererseits. Für die Kohlenwasserstoffproduzenten im Nahen Osten, die von dem „doppelten Schlag“ des stark gesunkenen Öl- und Gaspreises – der Hauptstütze der Staatseinnahmen – und den Auswirkungen der Covid-19-Sperren auf die inländische Wirtschaftstätigkeit betroffen sind, ist die Strategie für das nationale Überleben klar und könnte nicht gegensätzlicher sein als die des UN-Generalsekretärs: das Tempo der Monetarisierung der Öl- und Gasreserven, mit denen ihre Länder gesegnet sind, stark erhöhen.

Naher Osten wird mehr Öl und Gas liefern

Innerhalb von zwei Wochen nach dem UN-Gipfel gab der saudi-arabische Energieminister am 27. Dezember die Entdeckung von vier neuen Öl- und Gasfeldern bekannt, darunter auch unkonventionelle Ressourcen. Die Entdeckungen werden den Plänen des Landes Auftrieb geben, seine maximale nachhaltige Rohölproduktionskapazität von derzeit 12 Mio. b/d [Barrel pro Tag] auf 13 Mio. b/d zu erhöhen sowie seine Gasressourcen zu erschließen, um mehr Öl für den Export freizusetzen, anstatt es für die Stromerzeugung zu verbrennen.

Der geschäftsführende Direktor Sultan Al Jaber von der ADNOC, einer der führenden nationalen Ölgesellschaften in der Golfregion, sagte, dass das Unternehmen aus Abu Dhabi „nichts unversucht lässt, um den Wert unserer reichhaltigen Kohlenwasserstoffressourcen freizusetzen“. Ende 2019 genehmigte die Regierung von Abu Dhabi einen Investitionsplan in Höhe von 122 Milliarden US-Dollar für die nächsten fünf Jahre, um die Öl- und Gasförderkapazitäten zu erhöhen. Mit massiven neu entdeckten Reserven und dem Startschuss für die Vergabe großer Lizenzen für die Öl- und Gas-Ausbeutung freut sich das Land darauf, seine Ölförderkapazität von derzeit 4 Mio. Barrel/Tag auf 5 Mio. Barrel/Tag zu steigern.

Während der Westen versucht, auf sie zu verzichten

Im Gegensatz dazu war der Klimagipfel eine Gelegenheit für Premierminister Boris Johnson, seine Führungsrolle in der Klimapolitik zu demonstrieren – als Aufwärmübung für die Weltklimakonferenz im nächsten Jahr, die in Glasgow stattfindet und von Großbritannien ausgerichtet wird. Großbritannien fordert ein radikales Ende der Abhängigkeit von fossilen Brennstoffen und hat bereits ein Verbot von neuen Diesel- und Benzinautos bis 2035 sowie eine Senkung der Kohlenstoffemissionen um satte 68% unter die Werte von 1990 bis 2030 angekündigt. Auf dem Klimagipfel versprach Premierminister Johnson, die Finanzierung von Öl- und Gasprojekten in Übersee „so bald wie möglich“ zu beenden. Er wiederholte auch seine Forderung, dass Großbritannien „das Saudi-Arabien der Windenergieerzeugung“ werden solle, um den „Fuß auf das Gaspedal zu setzen, und zwar auf Kohlenstoff-freundliche Weise“.

Die Politiker einer Reihe westlicher Länder, die ehrgeizige Null-Emissions-Reduktionsziele bis 2050 angekündigt hatten, haben sich darauf konzentriert, die Krise der Coronavirus-Pandemie in eine „Chance“ für eine „grüne industrielle Revolution“ (Boris Johnson) und den „Great Reset“ der globalen Wirtschaft (Klaus Schwab, Gründer des Weltwirtschaftsforums) zu verwandeln. Und uns wird versprochen, dass eine bevor stehende Biden-Präsidentschaft vom ersten Tag ihres Amtsantritts an das Versprechen „Netto-Null bis 2050“ unterschreiben wird.

Während die politischen Eliten im Westen vor den „drohenden“ katastrophalen Folgen einer ausbleibenden Emissionsreduzierung warnen, sehen sich die übrigen Länder der Welt mit der Notwendigkeit konfrontiert, harte Entscheidungen zur Wiederherstellung von Wachstum und Beschäftigung für ihre von Rezessionen betroffenen Bürger inmitten einer globalen Pandemie zu treffen. Kohlenwasserstoffe machen fast 85 % des weltweiten Energieverbrauchs aus, während erneuerbare Energietechnologien wie Wind, Sonne, moderne Biokraftstoffe und Batterien kaum 5 % liefern können. Können diese erneuerbaren Energietechnologien die Welt in absehbarer Zeit mit der benötigten Energie versorgen?

Dabei werden diese Öl- und Gasvorkommen dringend gebraucht

Trotz des beispiellosen Einbruchs der Nachfrage durch die Coronavirus-Pandemie seit März und trotz des endlosen Stroms von Meldungen über das robuste Wachstum erneuerbarer Energien steht die Welt vor einer langfristigen Versorgungslücke bei Öl und Gas. Laut der Energieberatungsfirma Wood Mackenzie ist nur etwa die Hälfte des bis 2040 benötigten Angebots aus produzierenden Feldern verfügbar, „der Rest erfordert neue Kapitalinvestitionen“.

Angesichts des jüngsten Einbruchs der Investitionen in die Öl- und Gasförderung wies das International Energy Forum IEF in einem aktuellen Bericht darauf hin, dass wir vor einem Versorgungsschock „historischen Ausmaßes“ stehen, wenn die Investitionen in die Öl- und Gasexploration und -produktion in den nächsten drei Jahren nicht jährlich um 25 % steigen. Dem Generalsekretär des IEF zufolge „führt die Kürzung von Investitionen in neue Förderanlagen zu einem geringeren Gesamtangebot… es wird nicht lange dauern, bis dieses geringere Angebot mit einer wiederauflebenden Nachfrage kollidiert. Das Ergebnis werden höhere und volatilere Ölpreise und Gegenwind für die Erholung der Weltwirtschaft nach der Pandemie sein.“

Der Zugang zu in großem Umfang verfügbaren fossilen Brennstoffen ist der einzige bekannte Weg zur wirtschaftlichen Entwicklung. Seit der industriellen Revolution im 18. und 19. Jahrhundert hat sich kein Land der Erde ohne die Nutzung von leicht zugänglichen Kohlenwasserstoffen entwickelt. Großbritannien kann durchaus das „Saudi-Arabien der Windenergie“ werden (auch wenn es viele Zweifler gibt), aber was die Entwicklungsländer brauchen, die mehr als drei Viertel der Weltbevölkerung ausmachen ist, dass Saudi-Arabien zusammen mit anderen Öl- und Gasproduzenten bereit und in der Lage ist, fossile Brennstoffe so zu liefern, wie sie für das menschliche Gedeihen benötigt werden.

Link: https://wattsupwiththat.com/2020/12/30/the-middle-east-doubles-down-on-oil-and-gas-as-the-un-warns-of-climate-emergency/

Übersetzt von Chris Frey EIKE




Dezember­rückschau: Kaum langfristige Erwärmung im Christmond – …

Der DWD beginnt mit seinen Aufzeichnungen 1881, wobei der Bereich von 1850 bis 1900 eine letzte Kaltphase der „Kleinen Eiszeit“ war, auf dem Hohenpeißenberg sogar kälter als die 50 Jahre davor. Die Kleine Eiszeit war in Mitteleuropa eigentlich erst ab 1900 zu Ende. Deshalb beginnen wir die Dezemberbetrachtung im Jahre 1900 und lassen auch außer Betracht, dass an den damaligen Wetterstationen im Kaiserreich unter ganz anderen Bedingungen an meist ländlicheren Orten gemessen wurde: Unbeheizte Klosterkirchen, Forsthäuser am Waldrand, singulär stehende große Gutshöfe. Und ein damaliges Institut mit Wetterstation am Stadtrand ist heute Bestandteil einer viel größeren Stadt.

Beginnen wir mit den DWD-Dezembertemperaturen seit 1900 bis 2020:

Abb. 1: Die Trendlinie zeigt in den letzten 120 Jahren einen leichten Anstieg. Ist das eine Bestätigung des CO2-Treibhauseffektes? Für die CO2-Erwärmungsgläubigen schon.

Schaut man sich den Verlauf genauer an, dann sieht man sofort, dass erst die letzten 10 Dezember wärmer sind, deswegen zerlegen wir die Kurve nun in zwei Teile:

  1. Der Dezemberverlauf von 1900 bis 2010: 110 Jahre keine Erwärmung

Abb. 2: Laut den Daten des Deutschen Wetterdienstes ist die Trendlinie im abgelaufenen Zeitraum fast eine Horizontale. Der minimale „Erwärmungstrend“ ist bei weitem nicht signifikant. Es gab zwar wärmere oder kältere Jahrzehnte, aber insgesamt keine Erwärmung bis 2010, trotz stark steigender CO2-Konzentration in der Atmosphäre.

  1. Der Dezember ab 2011 bis 2020: Der Temperatursprung

Abb. 3a: 2011 setzte beim Monat Dezember ein plötzlicher Temperatursprung von 2,5 Kelvin ein. Es gab kein Dezembermittel unter +1°C mehr, und alle Dezember lagen über dem Langjährigen Mittelwert von 1900 bis 2010. (0,9 C)

Zur besseren Verdeutlichung in gleichen Maßstäben nebeneinander:

Abb. 3b: Zwei mal ebene Trendlinien, nur ab 2011 gab es einen Temperatursprung im Dezember. Auf diesem milderem Niveau bewegte sich auch der Dezember 2020. Wie lange noch?

Ganz im Gegensatz zum Temperatursprung verhielt sich die CO2-Zunahme der Atmosphäre. Es gab einen sich beschleunigenden Anstieg, welcher etwa um 1850 begann und derzeit mit über 2 ppm pro Jahr verläuft. Zwischen den Dezembertemperaturen in Deutschland und der Keeling-Kurve der steigenden CO2-Konzentration besteht kein eindeutiger Zusammenhang. Während aber die meisten Monate des Jahres zwei bis vier Klimasprünge aufwiesen, deren nachfolgende Klimaphasen eine Länge von mindestens 25 Jahren oder mehr aufwiesen, fehlen diese im Dezember. Der wärmere Zeitraum von 2011 bis 2020 ist noch viel zu kurz – erst, wenn das sehr hohe Temperaturniveau bis mindestens zum Jahre 2035 bestehen bleiben sollte, handelt es sich um einen wirklichen Klimasprung „nach oben“. Bisher ist es einfach nur ein wärmeres Jahrzehnt, das sich vom starken CO2-Anstieg seit 2011 – über 20 ppm – überhaupt nicht beeinflussen ließ: keinerlei Korrelation. Das wärmere Jahrzehnt könnte genauso wieder abrupt enden wie es plötzlich begann.

Abb. 4: Die CO2-Konzentration der Atmosphäre steigt stetig, besonders seit etwa 1970. Aber zwischen 1970 und 2010 kühlte sich das Deutsche Dezembermittel um gut 0,8°C ab – erst mit dem Jahre 2011 wurde es plötzlich wärmer, was im Rekord-Dezember von 2015 mit +6,5°C gipfelte. Der karminrote Balken markiert das Dezember-Mittel von 1881 bis 2010, welches +0,8°C beträgt.

Wir stellen fest: Zwischen der CO2-Anstiegskurve und den Dezembertemperaturen gibt es keinerlei Zusammenhang.

Kohlendioxid kann auch nicht für den Dezember-Temperatursprung von 2010 auf 2011 verantwortlich gemacht werden. Temperatursprünge haben natürliche Ursachen, des sich ständig ändernden Klimas.

Auch Wärmeinseleffekte lösen keine Temperatursprünge aus und so zeigt sich der Temperatursprung auch bei WI-armen Stationen in Mitteleuropa mit einem ähnlichen Verlauf.

Anmerkung: Wärmeinseleffekte sind in den Wintermonaten eh schwächer ausgeprägt als in den Sommermonaten. Der Grund der WI-Effekte ist die Sonne. Sie heizt die Außenhüllen der Gebäude und die Straßen in einer Siedlung wesentlich stärker auf als die Gebäudeheizung. Und die mit Sickerschläuchen und Entwässerungsgräben durchzogene freie Landschaft fällt nur in den Sommermonaten so richtig trocken.

Gründe der plötzlich wärmeren Dezember ab 2011 in Mitteleuropa

Versuch einer Ursachenfindung: Ein wesentlicher Einflussfaktor auf die Lufttemperaturen in Mitteleuropa ist die Häufigkeitsverteilung der Großwetterlagen. Diese bestimmen, welche Luftmassen herangeführt werden. Während Atlantikluft stets mehr oder weniger mild, wolkenreich und feucht ist, was dazu führt, dass sie sich auch unter Hochdruckeinfluss nur ganz langsam abkühlt, sind Luftmassen aus Nord oder Ost im Dezember schon bei ihrer Ankunft meist kalt, und weil sie oft klar sind und die Dezembersonne kaum Kraft hat, kühlen sie oft noch weiter aus. Es zeigte sich nun eine plötzliche, starke Häufigkeitsabnahme der Nord- und Ostlagen im Dezember nach 2010:

Abb. 5: Die Häufigkeit der Nord- und Ostlagen schwankte im Dezember enorm; aber nur zwischen 1981 und 1994 war ihre Anzahl noch geringer als seit 2011. Hierbei ist zu beachten, dass unter bestimmten Umständen auch andere Großwetterlagen, so alle Hochdrucklagen über Mitteleuropa, die Südliche Westlage, das Tief Britische Inseln und der Trog über Westeuropa, zu mehr oder weniger kalter Dezemberwitterung führen können. Diese sind in der Grafík nicht enthalten; südliche Westlagen waren für die Schneekatastrophe über Norddeutschland zum Jahresende 1978 und für den schneereichen Dezember 1981 verantwortlich.

Als wesentliche Ursache der Großwetterlagen-Häufigkeit seien die NAO und die Sonnenaktivität genannt. Positive NAO-Werte (im weitesten Sinne ein hohes Luftdruckgefälle zwischen Azorenhoch und Islandtief) begünstigen milde West- und Südwestlagen. Außerdem kann vermutet werden, dass die aktuelle AMO-Warmphase in Einzelfällen milde Dezember und Winter begünstigen könnte, obwohl ihr Temperatureinfluss nur im April und von Juni bis November signifikant positiv ist.

Fazit: Neutrale Klimaforscher können immer erst hinterher feststellen, welche Faktoren in Mitteleuropa in einzelnen Monaten das Wetter und über 30 Jahre das Klima bestimmten. Der Monat Dezember verhält sich allerdings etwas außergewöhnlich: Zuerst 110 Jahre lang eine ebene Trendlinie, dann plötzlich ein viel wärmeres Jahrzehnt. Von keinem CO2-Treibhausanhänger wurde der Dezember-Temperatursprung ab 2011 vorhergesagt. Die letzten 10 milden Dezembermonate sind neben den drei warmen Sommermonaten natürlich mitverantwortlich für die letzten 10 warmen Jahre in Deutschland. Warme Sommer werden weiterhin gemeldet werden, weil die WI-Effekte in Deutschland weiter zunehmen und andere Messungen nicht berücksichtigt werden. Da beim Dezember die WI-Effekte minimaler wirken, kann sich das Wetter auch schneller wieder ändern.

Josef Kowatsch, Naturbeobachter und unabhängiger Klimaforscher

Stefan Kämpfe, unabhängiger Natur- und Klimaforscher




Hochwinter 2021 – etwas kälter als seine Vorgänger?

Ein Blick auf die Entwicklung der NAO (Nordatlantische Oszillation, ein Maß für das Luftdruckgefälle zwischen Azoren und Island) zeigt, dass sich im Dezember 2020 vorwiegend leicht negative NAO-Werte einstellten; die in den Vorjahren rege Westdrift fehlte:

Abbildung 1: Nach langer Positiv-Phase im Spätherbst herrschten von Anfang Dezember 2020 bis zum „Vorweihnachts-Tauwetter“ leicht negative NAO-Werte, „richtiges“ Winterwetter hatte das trotz der geschwächten Westdrift und der Meridionalisierung aber nicht zur Folge. Quelle: NOAA (Wetterdienst der USA)

Die NOAA-Vorhersagen gehen nun von rasch wieder fallenden NAO-Werten aus; was auch über den Jahreswechsel anhalten soll und ein wenig Hoffnung auf Winterwetter weckt.

Bauern- Regeln werden zwar oft als altmodisch belächelt; doch oftmals haben sie einen wahren Kern. Sie stellen oft (unbewusst) auf die Erhaltungsneigung der großräumigen Zirkulation ab, welche kurz nach der Wintersonnenwende besonders ausgeprägt ist. Die beiden Regeln „Dezember, wechselhaft und lind, der ganze Winter bleibt ein Kind.“ und „War bis Dreikönigstag kein (richtiger) Winter, so folgt (meist) keiner mehr dahinter“ machen den Winterfans wenig Mut, zumal auch fast alle Langfrist-Modelle eine sehr milde Witterung in den Monaten Januar und Februar erwarten, freilich mit großer Unsicherheit:

Abbildungen 2a und 2b: Momentan sieht das wichtigste experimentelle Langfristmodell, das CFSv2 des US- Wetterdienstes NOAA, einen zu milden Januar 2021 (oben) und einen sehr milden Februar vorher – fast so, wie vor dem Hochwinter 2020. Zur Beachtung: Diese Prognosen sind experimenteller Art und keinesfalls stets zutreffend; doch momentan erwarten auch die meisten anderen Institute einen mehr oder weniger deutlich zu milden Hochwinter 2021.

Nun ist es nicht so, dass wegen der angeblichen Klimaerwärmung keine großen Kaltluftmassen mehr im Nordwinter entstehen. Im Herbst 2020 wuchs die von Eis bedeckte Meeresoberfläche in der Arktis recht stark, aber die kälteste Luft sammelte sich, wie in den bei uns milden Vorwintern, über Nordostkanada und Grönland, nicht über Nordskandinavien/Nordwestrussland, was eine erste, wichtige Voraussetzung für einen Kaltwinter in Deutschland wäre. Anfang Januar 2021 könnte sich aber wegen einer starken Meridionalisierung zumindest die höhenkalte Luft, welche „zwischen den Jahren“ nach West- und Mitteleuropa gelangte, noch halten:

Abbildung 3 sieht nach Winter aus: Operativ-Prognose des GFS vom 26. 12. 2020 mittags für den 6. Januar 2021 mittags. Man erkennt eine Hochdruckbrücke Atlantik-Nordrussland und tiefen Luftdruck über dem südlichen Mitteleuropa, Südwesteuropa und dem nördlichen Mittelmeerraum. Mitteleuropa läge dabei unter mäßig-kalter Höhenluft – perfekt für gebietsweise Schneefälle und mindestens leichtem Frost bis ins Flachland. Aber das wird so nur mit mäßiger Wahrscheinlichkeit eintreten – die anderen 30 Modelle zeigen teils noch gänzlich andere Szenarien. Quelle der Abbildung: wetterzentrale.de .

Ein anderes, freilich ebenfalls nur experimentelles Prognoseverfahren basiert auf so genannten Analogfällen, das sind Jahre mit ähnlicher Luftdruckverteilung wie 2020 in den Vormonaten des zu prognostizierenden Winters. Eine solche fand sich in den Jahren 1948, 1955, 1966, 1970, 1971, 1973, 1975, 1988, 1999, 2007, 2008, 2010, 2017 und 2019. Berechnet man daraus die mittlere Luftdruckverteilung für Januar und Februar, so zeigt sich folgendes Bild:

Abbildungen 4a und 4b: Mögliche, aus den Analog-Fällen berechnete Abweichungen des Boden-Luftdrucks (umgerechnet auf Meeresspiegelhöhe) vom Langjährigen Mittel in hPa im Januar (oben, 4a) und im Februar. Rot bedeutet übernormalen, blau unternormalen Luftdruck. Man erkennt im Januar ein riesiges Gebiet übernormaler Abweichungen über fast ganz West-, Mittel-, Südost- und Osteuropa. Eine solche Verteilung begünstigt das Auftreten von Hochdruckgebieten über Süd- und Südosteuropa; keine guten Voraussetzungen für längere, sehr kalte Witterungsphasen. Im Februar sieht es wegen einer relativen Hochdruckzone vom Nordatlantik über Mittel- nach Osteuropa eher noch schlechter aus; doch sind diese Vorhersagen sehr unsicher. Quelle beider Abbildungen LARS THIEME

Wenn, wie auch 2020, im Jahresmittel ein deutlich zu hohes Geopotential über Deutschland herrschte, so erhöht das die Wahrscheinlichkeit für einen eher milden Folge-Januar:

Abbildung 5: Je höher die 500-hPa-Fläche über Deutschland im Vorjahr (Jahresmittel) lag, desto milder fällt tendenziell der folgende Januar in Deutschland aus; dies traf sehr gut auf die sehr milden Januare 1983, 1990, 2007, 2008 und 2020 zu. Freilich gilt aufgrund der hohen Streuung: Keine Regel ohne Ausnahme! So folgte dem recht niedrigen Geopotential 1974 ein extrem milder Januar 1975, und der Januar 1954 fiel trotz eines vorangehenden, relativ hohen Geopotentials deutlich zu kalt aus.

Die QBO wechselt aller Voraussicht nach erst weit nach dem Winter auch in den untersten Stratosphären-Schichten zur Ostwindphase. Etwas mehr Hoffnung macht der aktuell geschwächte, teils gar gesplittete Polarwirbel – ganz anders, als noch Anfang Dezember:

Abbildungen 6a und 6b: Für Anfang Dezember 2020 wurde noch ein fast ungestörter, extrem kalter Polarwirbel mit Zentrum über Grönland vorhergesagt (oben); für den 7. Januar hingegen ein „Polarwirbelsplitting“ mit zwei schwachen Kernen über Nordamerika und Westrussland (unten). Auch diese Prognosen sind aber sehr unsicher. Bildquelle meteociel.fr (Französischer Wetterdienst)

Fazit: Eindeutige, verlässliche Anzeichen für einen länger kalten Hochwinter 2021 in Deutschland fehlen zwar, manche Modell-Läufe, die NAO und der Polarwirbel machen aber deutlich mehr Hoffnung auf Winterwetter bis ins Flachland zumindest im Januar als in den Vorjahren; der Februar scheint nach jetzigem Stand mild bis sehr mild auszufallen; das wird sich aber erst zum Ende des Januars eindeutig zeigen.

Zusammengestellt von Stefan Kämpfe, unabhängiger Klimaforscher, am 26.12. 2020




China rekolonisiert Afrika

Joe Biden hat versprochen, dass eine seiner ersten Amtshandlungen als Präsident der Wiedereintritt in das Pariser Klima-Abkommen sein wird – worin China ein Aufschub bis mindestens zum Jahr 2030 gewährt wird, seine Emissionen zu reduzieren. Sogar Bidens designierter „Klimabeauftragter“, der ehemalige Außenminister John Kerry, sagt, dass der bestehende Vertrag „stärker sein muss“, behauptet dann aber, dass China irgendwie ein aktiver Partner werden wird, anstatt der Konkurrent und Gegner zu sein, der es eindeutig ist. Seine Begründung: „Klima ist zwingend notwendig, für China genauso wie für uns.“

Was die Tatsache betrifft, dass China mehr grüne Technologie einsetzt und sich an das Pariser Abkommen hält (geschweige denn es stärkt) – die Beweislage dafür ist bestenfalls lückenhaft, schlimmstenfalls das komplette Gegenteil. Präsident Trump hat die USA aus dem Pariser Abkommen herausgeholt, aber zwischen Januar 2017 und Mai 2019 haben die USA 50 Kohlekraftwerke stillgelegt und 51 weitere Stilllegungen angekündigt, was die Gesamtzahl der Stilllegungen seit 2010 auf 289 erhöht (330, wenn die angekündigten Stilllegungen auch stattfinden), so dass bald weniger als 200 noch in Betrieb sind.

In der Zwischenzeit, im Jahr 2019, hatte China 2.363 aktive Kohlekraftwerke und baute weitere 1.171 im Reich der Mitte – plus hunderte weitere in Afrika, Asien und anderswo. Eine Studie der CO2 Coalition von Kathleen Hartnett White und Caleb Rossiter enthüllt, dass China mittlerweile über moderne Technologien zur Entfernung von Schadstoffen bei über 80 % seiner Kohlekraftwerke verfügt, aber nichts dergleichen an irgendwelchen in China gebauten Kohlekraftwerken in Afrika (oder wahrscheinlich irgendwo sonst) einsetzt – und nirgendwo welche, die Kohlendioxid entfernen.

Der China-Spezialist der Harvard University, Edward Cunningham, sagt, dass China mehr als 300 Kohlekraftwerke baut, plant oder finanziert, und zwar an so unterschiedlichen Orten wie der Türkei, Ägypten, Vietnam, Indonesien, Bangladesch und den Philippinen. Auch Indien, Südkorea, Japan, Südafrika und sogar Deutschland errichten Hunderte Kohlekraftwerke. Egal, wie viele die USA schließen, es wird keinen globalen Unterschied machen.

Daten der Boston University deuten darauf hin, dass China in den letzten Jahren über 50 Milliarden Dollar in den Bau neuer Kohlekraftwerke in Übersee investiert hat, und mehr als ein Viertel der neuen Kohlekraftwerke außerhalb des Reichs der Mitte haben irgendeine Zusage oder ein Finanzierungsangebot von chinesischen Finanzinstituten.

Warum setzt China weltweit auf Kohle?“ fragt sich [die Denkfabirk] NPR. Das ist eine 40- oder sogar 50-jährige Verpflichtung, die Lebensdauer von Kohlekraftwerken. Die NPR-Autoren zitieren sogar den Südostasien-Analysten der Denkfabrik Stinson Center, der sagt: „Es ist nicht klar, wenn man sich die tatsächlichen Projekte ansieht, die China finanziert, dass sie wirklich grün sind.“ Sie sind offensichtlich nicht grün, und es geht offensichtlich mehr vor sich, als ihr schlechtes Sehvermögen wahrnehmen kann.

China weiß, dass es und die Welt noch jahrzehntelang Öl, Erdgas und Kohle brauchen werden. Es betrachtet „grün“ als die Farbe des Geldes und ist gerne bereit, Kredite zu für China sehr günstigen Bedingungen zu vergeben. Die kommunistische Parteiführung strebt nach globaler militärischer und wirtschaftlicher Macht – und nach globaler Kontrolle über die Stromerzeugung, die Rohstoffgewinnung und die Herstellung von Windturbinen, Solarpaneelen und Batteriemodulen, die sie verkaufen werden, um die Besessenheit des Westens von der „menschengemachten Klimakrise“ und „erneuerbarer, nachhaltiger“ Energie anzugehen.

Die Parteiführer wissen auch, dass ihre Produktion „grüner“ Technologien ein guter Deckmantel für all diese Kohlekraft ist – und nur wenige westliche Regierungen werden es wagen, China deswegen oder wegen Covid scharf zu kritisieren.

Ein aktueller Bericht* der Global Warming Policy Foundation beschreibt „Umweltschützer“ (wie John Kerry) als „nützliche Idioten“, die „das Ausmaß der chinesischen Ambitionen in Bezug auf den Klimawandel loben, während sie bei der Kritik an Chinas massiver Kohleexpansion nur Lippenbekenntnisse ablegen.“ Er stellt fest, dass China selten seine internationalen Vereinbarungen einhält und keine Bereitschaft zeigt, den Verbrauch fossiler Brennstoffe zu reduzieren.

[In deutscher Übersetzung findet sich eine Beschreibung dieses Berichtes hier. Anm. d. Übers.]

Aber was sollen Afrika und andere Entwicklungsländer tun? Der Westen wird nicht einmal saubere Kohleprojekte finanzieren, die die Umweltverschmutzung durch Dung und Holzfeuer beseitigen und gleichzeitig zuverlässigen, erschwinglichen Strom für Licht, Kühlschränke, Schulen, Geschäfte, Krankenhäuser, Fabriken und vieles mehr liefern würden. China wird es tun – und trotz des hohen Preises erfordert seine eigene Nachfrage nach Energie, dass es Strom mit allen Mitteln zur Verfügung hat.

Mit 1,1 Milliarden Menschen ist Afrika südlich der Sahara nach wie vor die ärmste Region der Welt – trotz riesiger Bodenschätze und einer jungen, tatkräftigen Bevölkerung mit einer Affinität zum Unternehmertum. Der niederländische Ökonom Wim Naudé sagt, dass Afrika sich industrialisieren muss, was bedeutet, dass es erschwingliche, zuverlässige Elektrizität haben muss, wenn es Armut und Krankheit überwinden, Arbeitsplätze schaffen und den Terrorismus eindämmen will.

Unglücklicherweise hat die Politik der USA, der EU, der UN und der Weltbank die Entwicklung der afrikanischen Energieressourcen behindert. Wie White und Rossiter anmerken, ist die US-Politik seit der Obama-Ära dagegen, dass die Afrikaner die reichlich vorhandene Kohle und das Gas des Kontinents zum Betreiben von Kraftwerken nutzen, mit der Begründung, dass Kohlendioxid aus fossilen Brennstoffen den Klimawandel verschärfen könnte.

Der Vorstandsvorsitzende der African Energy Chamber NJ Ayuk berichtete kürzlich, dass auch Großbritannien beschlossen hat, ab dem 4. November 2021, dem fünften Jahrestag des Pariser Abkommens, keine neuen Öl-, Gas- und Kohleprojekte mehr zu finanzieren. Die Entscheidung ist ein Kotau vor dem Widerstand der Grünen gegen die Unterstützung der britischen Exportfinanzierung für ein mosambikanisches Terminal zum Export von CO2-armem Flüssiggas.

Ayuk hatte Erdgas als zunehmende Option für afrikanische Kraftwerke angepriesen und damit geprahlt, dass in Afrika vier der 20 größten Erdölproduzenten der Welt beheimatet sind (Nigeria, Angola, Algerien und Libyen); Algerien und Nigeria gehören zu den 20 größten Erdgasproduzenten; und Mosambik verfügt ebenfalls über riesige Gasreserven.

Es ist beunruhigend“, sagte Ayuk, „dass eine aggressive, aus dem Ausland finanzierte anti-afrikanische Energiekampagne weiterhin das Potenzial untergräbt, Mosambik zu einer Oase für die Monetarisierung von Gas zu machen und unseren steigenden Energiebedarf zu decken.“ Trotz dieses Rückschlags, so Ayuk weiter, „müssen wir uns weiterhin unbeirrt für Afrikas Energiesektor, seine Arbeiter, die Reduzierung der Energiearmut und jene marktwirtschaftlichen Werte einsetzen, die unseren Kontinent für engagierte Energieinvestoren attraktiv machen.“

In weiten Teilen Afrikas übersteigt die Stromnachfrage das Angebot bei weitem. „In Fabriken, Unternehmen, Regierungsgebäuden und wohlhabenden Vierteln in jedem afrikanischen Land“, beobachten White und Rossiter, „bricht eine kakophonische Symphonie von Ruß speienden Notstrom-Dieselmotoren aus, wenn das Netz ausfällt, was normalerweise jeden Tag der Fall ist.“ Tatsächlich, so die International Finance Corporation der Weltbank, geben viele afrikanische Länder mehr für schmutzige Notstromversorgung aus als für den Strom für das Netz selbst; in Westafrika machen die Notstromkilowatt 40 % der gesamten Netzkilowatt aus.

Im Sudan, der 30 % seiner Energie aus Staudämmen am Nil bezieht, laufen dieselbetriebene Pumpen ständig, um Flusswasser für die Bewässerung zu heben, selbst am Zusammenfluss des Blauen und Weißen Nils. In Nigeria verbieten Hotels ihren Gästen das Joggen, weil sie den Ruß ihrer Dieselgeneratoren einatmen, die immer wieder anspringen, wenn es in den Vierteln dunkel wird. Im südlichen Afrika lassen Baustellen einfach den ganzen Tag über Generatoren laufen und füllen die umliegenden Straßen mit giftigen Wolken. Universitäten verlassen sich auf Dieselmotoren, um alte, ineffiziente Klimaanlagen zu betreiben.

White und Rossiter weisen darauf hin, dass die amerikanische saubere Kohletechnologie, wie sie das Turk-Kraftwerk in Arkansas aufweist, die Gesundheitsgefährdung durch Schwefeldioxid, Stickoxide und Feinstaub praktisch eliminiert. Sie fordern die USA auf, Vorschläge afrikanischer Regierungen zum Import dieser Technologie zu unterstützen, da Elektrizität „das zentrale Nervensystem einer modernen Wirtschaft und einer modernen Lebenserwartung sei. Afrikas Elektrizitätsdefizit bedeutet direkt eine Verkürzung der Lebenserwartung von 15 Jahren pro Person.“

Millionen Menschen sterben jedes Jahr unnötig an den unzähligen Krankheiten, die mit der Energieversorgung und der wirtschaftlichen Armut zusammenhängen.

Aber unter einer Biden-Harris-Regierung mit John Kerry an vorderster Front gibt es wenig Hoffnung, dass diese afrikanischen und anderen Bitten gehört werden. Mit europäischen Verbündeten im kurzsichtigen puritanischen Gleichschritt wird China weiterhin einen totalen Freifahrtschein für die Erfüllung grüner Forderungen erhalten – und wird freie Hand haben, Subsahara-Afrika in eine riesige chinesische Kolonie zu verwandeln, trotz der Umweltschäden, der monströsen Schulden, der Sklaven- und Kinderarbeit unter schrecklichen Arbeitsbedingungen und der wahrscheinlich bescheidenen Vorteile für die Afrikaner.

Das ist Öko-Imperialismus und Öko-Mord in seiner schlimmsten Form. Wo sind hier die gepriesenen Hüter der Klima- und Umweltgerechtigkeit?

Duggan Flanakin is Director of Policy Research at the Committee For A Constructive Tomorrow (www.CFACT.org)

Übersetzt von Chris Frey EIKE

Anmerkung: Dieser Beitrag ist dem Übersetzer per E-Mail zugesandt worden, so dass kein expliziter Link angegeben werden kann. Wer die Übersetzung überprüfen will, kann das hier mit dem beigefügten Original machen:

China recolonizes Africa




Alarmistische Prognosen für das Jahr 2020, die grandios gescheitert sind

Viele dieser Weltuntergangs-Prophezeiungen erwähnten ausdrücklich das annus horribilis des Jahres 2020. Diese Vorhersagen sind ebenfalls gescheitert, einige davon ziemlich spektakulär.

Steve Milloy, ein ehemaliges Mitglied des Trump/Pence EPA-Übergangsteams und Gründer von JunkScience.com, hat zehn Klima-Prophezeiungen* für 2020 zusammengestellt, die weit daneben lagen.

[*Unter diesem Link werden die hier genannten Punkte mit weiteren Bildern unterlegt. Anm. d. Übers.]

1. Die mittlere globale Temperatur soll um 3 Grad Celsius gestiegen sein

Screenshot der Ausgabe vom 2. Oktober 1987 der Zeitung Saskatoon Star-Phoenix

Im Jahr 1987 zitierte der Star-Phoenix in Saskatoon, Saskatchewan, Kanada, James Hansen vom Goddard Institute for Space Studies der NASA in New York. Sein Modell prophezeite einen durchschnittlichen Temperaturanstieg „zwischen einem halben und einem Grad Celsius bis Ende der 90er Jahre“.

„Und innerhalb von 15 bis 20 Jahren wird die Erde wärmer sein als in den letzten 100.000 Jahren“, sagte Hansen. Laut dem Star-Phoenix prophezeite sein Modell, dass „wir bis zum Jahr 2020 einen durchschnittlichen Temperaturanstieg von etwa drei Grad [Celsius] erleben werden, mit noch größeren Extremen.“

Milloy zitierte den ehemaligen NASA-Klimatologen Roy Spencer, dessen Daten nahelegen, dass die globalen Temperaturen seit 1987 um 0,64 Grad Celsius gestiegen sind. Die National Oceanic and Atmospheric Association (NOAA) zeigt eine Erwärmung von etwa 0,5 Grad Celsius seit 1987.

2. Globale Emissionen

Im Jahr 1978 zitierte die Vancouver Sun einen Artikel in der Zeitschrift Science. Ein Forscher der University of Washington namens Minze Stuiver prophezeite, dass sich die CO2-Konzentration in der Atmosphäre bis 2020 verdoppelt haben wird. „Wir müssen zur Kenntnis nehmen, dass sich die CO2-Konzentration bis zum Jahr 2020 verdoppelt haben wird, wenn der gegenwärtige Trend anhält und die Ökonomie die einzige Grenze für die Ausbeutung fossiler Brennstoffe darstellt. Vierzig bis 80 Jahre nach dem Höhepunkt der Brennstoffverbrennung – das wird Mitte des Jahrhunderts sein – wird die CO2-Konzentration fünf- bis zehnmal so hoch sein wie heute.“

Doch das CO2 in der Atmosphäre hat sich seit 1978 nicht annähernd verdoppelt. Laut NOAA befanden sich im März 1978, als die Sun diesen Artikel veröffentlichte, 335 Teile pro Million CO2 in der Atmosphäre. Im Februar 2020 meldete die NOAA 413 Teile pro Million in der Atmosphäre. Das entspricht einem Anstieg von 23 Prozent, weit entfernt von einer Verdoppelung der Konzentration (die bei 670 Teilen pro Million liegen würde).

3. Emissionen von China und Indien

Im Dezember 2009 berichtete der Springfield News-Leader, dass Indien und China sich verpflichtet haben, ihre Emissionen bis 2020 zu reduzieren. „Die Entwicklungsländer bieten zum ersten Mal eigene Maßnahmen an – keine direkten Reduktionen, sondern Projekte für saubere Energie und andere Schritte, um die Zunahme ihrer Emissionen zu verlangsamen.“

„China sagt, dass es bis 2020 die Emissionen um 40 bis 45 Prozent gegenüber dem ‚business as usual‘ reduzieren wird, d.h. gemessen an den Zahlen von 2005, was den Energieverbrauch und den wirtschaftlichen Input betrifft. Indien bietet eine Verlangsamung des Emissionswachstums um 20 bis 25 Prozent an.“

Diese Prognosen waren zwar mehr Versprechen als Vorhersagen, aber sie waren grandios falsch. Indien und China haben ihre Kohlenstoffemissionen seit 2005 erhöht. Laut Weltbank emittierte Indien im Jahr 2005 1,2 Millionen Kilotonnen CO2 und im Jahr 2018, dem letzten Jahr, für das Daten vorliegen, 2,4 Millionen Kilotonnen CO2 – ein Anstieg um 100 Prozent. China hingegen emittierte 2005 5,9 Millionen Kilotonnen und 2016 9,9 Millionen Kilotonnen, ein Anstieg um 168 Prozent.

4. Kein Schnee mehr auf dem Kilimandscharo

Screenshot einer Ausgabe der Vancouver Sun über die Prophezeiung eines Wissenschaftlers, der zufolge der Schnee auf dem Kilimandscharo bis zum Jahr 2020 verschwunden sein wird.

Im Jahr 2001 berichtete die Vancouver Sun: „Der Schnee des Kilimandscharo wird bis 2020 verschwinden.“

„Bei diesem Tempo wird das gesamte Eis zwischen 2010 und 2020 verschwunden sein“, sagte Lonnie Thompson, eine Geologin an der Ohio State University. Und das ist wahrscheinlich eine konservative Schätzung.“

Auch Al Gores Dokumentarfilm An Inconvenient Truth aus dem Jahr 2006 prophezeite, dass es im Jahr 2020 keinen Schnee mehr auf dem Kilimandscharo geben würde.

Doch im Februar 2020 berichtete die Londoner Times: „Die Ausdauer des Kilimandscharo-Schnees trotzt Al Gores düsterer Prognose.“

„Der Schnee hat meine Kunden auf jeden Fall ins Schwärmen gebracht“, sagte Methley Swai, Besitzer des Just-Kilimanjaro-Trekking-Unternehmens, gegenüber der Times. „Viele Leute haben den Kilimanjaro wegen der Al Gore Deadline zu einer Priorität auf ihrer Programmliste gemacht, aber wenn sie hier ankommen, sind sie angenehm überrascht, jede Menge Schnee zu finden.“

Screenshot der Times

5. Steigender Meeresspiegel in Florida

Der <i>Miami Herald</i> prophezeite einen Anstieg des Meeresspiegels in Florida bis zum Jahr 2020 um rund 60 cm.

Im Jahr 1986 prophezeite Jim Titus von der Environmental Protection Agency EPA, dass der Meeresspiegel um Florida bis zum Jahr 2020 um etwa 60 cm steigen würde, berichtete der Miami Herald.

Nach Angaben der NOAA ist der Meeresspiegel in Virginia Key aber nur um etwa 9 Zentimeter gestiegen.

Graphik der NOAA für den Meeresspiegel in Virginia Key, Florida

6. Menschen werden vergessen, was Schnee ist

Im März 2000 prophezeite David Viner, ein leitender Wissenschaftler an der HadCRU in East Anglia, dass Schneefall im Winter „ein sehr seltenes und aufregendes Ereignis“ werden wird, berichtete The Independent. „Kinder werden einfach nicht mehr wissen, was Schnee ist“.

Starke Schneefälle wird es gelegentlich geben, orakelte Viner, aber die Briten würden nicht darauf vorbereitet sein, wenn es passiert. „Wir werden wirklich überrumpelt werden. Schnee wird wahrscheinlich auch in 20 Jahren noch Chaos verursachen“, sagte er.

Von wegen! Schnee ist im Vereinigten Königreich immer noch sehr präsent, und die schottischen Schneepflüge – „gritters“ genannt – waren der Aufgabe sehr gut gewachsen. Anfang Dezember 2020 hatte Schottland an manchen Orten etwa 10 Zentimeter Schnee bekommen, berichtete der Daily Record. „Traffic Scotland sagt, dass seine aktuelle Winterflotte aus 213 Fahrzeugen besteht, die zum Pflügen und Streuen von Salz zur Verfügung stehen.“

7. Ökonomien der Pazifik-Inseln werden zerstört

Im Oktober 2000 prophezeite ein Greenpeace-Bericht, dass die globale Erwärmung „in den nächsten 20 Jahren einen massiven wirtschaftlichen Niedergang in mindestens 13 winzigen Pazifikstaaten verursachen könnte“, berichtete die australische Zeitung The Age. Die globale Erwärmung würde die meisten Korallenriffe des Pazifiks zerstören und damit den Tourismus und die Fischereiindustrie der kleinen Pazifikstaaten vernichten.

„Unter dem untersuchten Worst-Case-Szenario würden einige melanesische Nationen bis 2020 15 bis 20 Prozent ihres Bruttoinlandsprodukts verlieren, was einem Wert von etwa 1,9 bis 2,3 Milliarden US-Dollar entspricht, während andere, hauptsächlich polynesische Nationen noch verwundbarer sind und zwischen 4 und 5 Milliarden Dollar durch den Klimawandel verlieren könnten“, warnte der Bericht.

„Die Studie zeigt, dass die am meisten gefährdeten pazifischen Nationen Tuvalu und Kiribati sind, der Gastgeber des diesjährigen Pacific Islands Forum, gefolgt von den Cook-Inseln, Palau, Tonga und Französisch-Polynesien“, berichtete The Age.

Doch laut dem Finanzministerium der Regierung von Tuvalu „stiegen die Einnahmen aus der Fischerei von etwa 10 Millionen Dollar [australische Dollar] im Jahr 2012 auf 13,6 Millionen Dollar im Jahr 2014 und bis heute auf mehr als 30 Millionen Dollar jährlich.“

„Dem Budget 2019 zufolge hat Tuvalu ein beispielloses Wirtschaftswachstum sechs aufeinanderfolgende Jahre lang verzeichnet, ‚auf der Grundlage steigender Einnahmen aus Fischereilizenzen und Back-to-Back-Infrastrukturprojekten [?], die von Entwicklungspartnern finanziert und verwaltet wurden‘,“ berichtete das Ministerium.

Kiribati hat in den letzten fünf Jahren auch ein gesundes BIP-Wachstum verzeichnet. Wie bei so vielen Prophezeiungen des Klima-Armageddon ist der große Untergang der pazifischen Volkswirtschaften nicht eingetreten.

8. Globale Konflikte und Atomkrieg

Im Jahr 2004 berichtete der Guardian über einen Bericht des [US-]Verteidigungsministeriums, in welchem hinaus posaunt worden war, dass der Klimawandel die größte nationale Sicherheitsbedrohung für Amerika sein könnte. Unter anderem prophezeite der Bericht einen Atomkrieg, endemische Konflikte um Ressourcen und die Überflutung europäischer Städte bis 2020.

Der Pentagon-Bericht behauptete weiter, dass Frieden eintritt, wenn sich die Ressourcen vermehren oder wenn die Bevölkerung ausstirbt. „Aber solche friedlichen Perioden sind nur von kurzer Dauer, weil die Bevölkerung schnell wieder ansteigt, um erneut gegen die Belastungsgrenze zu stoßen, und die Kriegsführung beginnt erneut.“ In der Neuzeit sind die Opferzahlen zurückgegangen, aber „all dieses fortschrittliche Verhalten könnte zusammenbrechen, wenn die Tragfähigkeit überall plötzlich durch einen abrupten Klimawandel drastisch gesenkt würde.“

Wenn die endemische Kriegsführung wieder aufgenommen wird, wird sie zu einem Atomkrieg eskalieren, prophezeite der Bericht. „In dieser Welt der kriegführenden Staaten ist die Weiterverbreitung von Atomwaffen unvermeidlich.“

Ein Atomkrieg ist nicht nur ausgeblieben, sondern die Welt ist in den letzten 30 Jahren friedlicher geworden. Mathematiker der Universität York haben einen Algorithmus zur Messung der Todesfälle auf dem Schlachtfeld entwickelt und eine „abrupte Verschiebung hin zu einem höheren Maß an Frieden in den frühen 1990er Jahren festgestellt.“

9. Das Ende des arktischen Eises

Im April 2013 berichtete die Lancaster Eagle-Gazette, dass NOAA-Wissenschaftler „zeitliche Bereiche für eine eisfreie Arktis von 2020 bis nach 2040“ prophezeiten.

„Es ist vernünftig zu schlussfolgern, dass der Verlust des arktischen Eises sehr wahrscheinlich eher in der ersten als in der zweiten Hälfte des 21. Jahrhunderts eintreten wird, mit der Möglichkeit eines Verlustes innerhalb von ein oder zwei Jahrzehnten“, behauptete die Zeitung.

Laut dem National Snow and Ice Data Center (NSIDC) an der University of Colorado-Boulder gab es im September 2020 zum Zeitpunkt des jährlichen Minimums 3,9 Millionen Quadratkilometer Meereis im Arktischen Meer.

10. Die Gletscher im Glacier Natioal Park werden verschwinden

Im März 2009 prophezeite der Ökologe Daniel Fagre vom U.S. Geological Survey, dass die Gletscher im Glacier National Park in Montana bis 2020 verschwinden würden.

„Fagres aktuelle Forschung zeigt, dass die Temperaturen in dem Nationalpark stärker gestiegen sind als 1992 prophezeit wurde. Es wird nun erwartet, dass die Gletscher in Montana bis 2020 verschwunden sein werden“, berichtete die Los Angeles Times.

Im Jahr 2010 stellte der Glacier National Park Schilder auf, die davor warnten, dass seine charakteristischen Gletscher bis 2020 verschwunden sein würden. Dieses Jahr hatte die Parkverwaltung nichts Eiligeres zu tun als die Schilder zu ändern, da die Gletscher noch existierten. In Wahrheit warnte der U.S. Geological Survey den Park bereits 2017, dass das Prognosemodell nicht mehr ein gletscherfreies 2020 prophezeite, aber eine Parksprecherin sagte CNN, dass der Park nicht genug Geld hatte, um die Schilder zu ändern.

Der Park änderte die an den prominentesten Stellen stehenden Schilder im Jahr 2019, aber er wartete immer noch auf die Budgetgenehmigung, um die Schilder an zwei anderen Orten zu aktualisieren.

Auf den neuen Schildern wird stehen: „Wann sie vollständig verschwinden, hängt davon ab, wie und wann wir handeln. Eines ist jedoch sicher: Die Gletscher im Park schrumpfen.“

Seit mehr als 50 Jahren prophezeien Klima-Alarmisten den Untergang und scheitern immer wieder mit ihren Vorhersagen. Im Jahr 2018 sollten die winzigen Malediven-Inseln aufgrund des Klimawandels in den Fluten versinken – dabei sind die Inseln in den letzten Jahren sogar gewachsen!

Die Wahrheit ist, dass das Klima eine extrem komplizierte, noch lange nicht vollständig verstandene Angelegenheit ist. Obwohl es naheliegend ist, dass Kohlenstoffemissionen einen Einfluss auf das globale Klima haben, gibt es wenig konkrete Beweise dafür – und fast jede Vorhersage aufgrund dieser Hypothese hat sich als falsch erwiesen.

Tyler O’Neil is the author of Making Hate Pay: The Corruption of the Southern Poverty Law Center.

Weitere Links:

Best Decade Yet: Humanity Grew Richer and More Sustainable in the 2010s

Egg on Their Faces: The Maldives Still Above the Waves 30 Years After Environmentalist Prediction

3 Reasons Joe Biden Is NOT the Candidate of Science

Egg on Their Faces: 2004 DoD Climate Change Report Predicted Nuclear War by 2020

Joe Biden Promises Fewer Fires, Floods, and Hurricanes if He Wins in November

Green Activists Fuel China’s Dominance in a Sector Critical to the U.S. Economy and Green Energy

10 Things Climate Alarmists Don’t Want You to Be Thankful For

YouTube Pulls Michael Moore’s ‘Planet of the Humans’

Link: https://pjmedia.com/news-and-politics/tyler-o-neil/2020/12/28/egg-on-their-faces-10-climate-alarmist-predictions-for-2020-that-went-horribly-wrong-n1289371

Übersetzt von Chris Frey EIKE




Schock-Therapie durch Elektro-Fahrzeuge

Bidens von Kalifornien inspirierte Vision schließt Hybridfahrzeuge aus, beinhaltet die Installation von 500.000 EV-Ladestationen und bietet Rabatte im Stil der „Abwrackprämie“ für neue EV-Käufer. Im Jahr 2018 entfiel jedoch fast die Hälfte der EV-Registrierungen (256.800 von 543.600) auf Kalifornien, mit Hawaii, Washington und Oregon nicht weit dahinter. Dennoch machten E-Fahrzeuge 2018 weniger als 2 % der insgesamt 15 Millionen kalifornischen Fahrzeuge aus – und das trotz enormer Steuervergünstigungen, kostenloser Ladestationen, freiem Zugang zu HOV-Spuren* nebst anderer Subventionen und Anreize.

[*HOV-Spuren = reservierte und meist freie Spuren auf Autobahnen, die nur von Fahrzeugen mit zwei oder mehr Insassen benutzt werden dürfen. Die Polizei kontrolliert das sehr intensiv, und bei Missbrauch werden drastische Strafzahlungen fällig. Anm. d. Übers.]

Im Jahr 2019 wurden in den USA nur 727.000 Elektrofahrzeuge verkauft, fast die Hälfte davon waren Plug-in-Hybride. Die Hybrid-Verkäufe erreichten 2013 ihren Höhepunkt, aber bis 2019 waren sie auf 2,3 % (ca. 400.000 Fahrzeuge) aller Verkäufe von Light-Duty-Fahrzeugen gesunken, was größtenteils auf die Abneigung der EV-Puristen zurückzuführen ist. Man vergleiche diese Zahlen mit den 6,3 Millionen verkauften Fahrzeugen im Jahr 2016 oder mit den 273.600.000 Pkw, Motorrädern, Lkw, Bussen und anderen Fahrzeugen auf den Straßen der USA im Jahr 2018.

Dem Beispiel Chinas folgend, sind auch die US-Automobilhersteller – nicht nur Tesla – bei dieser großen Umstellung mit an Bord. Mit dem Austausch von Verbrennungsmotoren und der Umwandlung von Tankstellen in EV-Ladestationen wird der Druck steigen, die verbleibenden Verbrennungsmotoren loszuwerden und mehr EVs zu kaufen. Das China-freundliche Unternehmen General Motors plant, bis 2025 $20 Milliarden in die Technologie von E-Fahrzeugen und selbstfahrenden Fahrzeugen zu investieren, einschließlich 23 verschiedener E-Fahrzeuge bis 2023. Die Ford Motor Company hat zugesagt, bis 2022 11 Milliarden Dollar in die Entwicklung von Elektrofahrzeugen zu investieren.

Biden tritt damit in die Fußstapfen des britischen Premierministers Boris Johnson, dessen neuer Klimaplan ein Verkaufsverbot für benzinbetriebene Fahrzeuge bis 2030 und für Hybride bis 2035 vorsieht. Aber, wie der Ökonom und Direktor der Denkfabrik Global Britain Ewen Stewart argumentiert, ist dies „offen gesagt eine der illiberalsten und wirtschaftlich zerstörerischsten Politik, die je aus Whitehall kam. Sie riskiert Hunderttausende Existenzen und dringend benötigte Exporte ohne den geringsten Nutzen.

„Die Auswirkungen dieses Verbots (in einem Land mit nur 1 Prozent E-Autos) sind immens hinsichtlich Herstellung, Lieferketten, Investitionen, versenktem Kapital, Beschäftigung, Infrastruktur, Wahlmöglichkeiten der Verbraucher, Wert des bestehenden Bestands und so vieles mehr“, erklärte Stewart. „Noch nie hat es eine Regierung gewagt, eine ganze und kritische Industrie fast über Nacht per Diktat zu schließen. Es ist ein Irrglaube, dass die Zerstörung einer erfolgreichen britischen Industrie durch ein Verbot von Verbrennungsmotoren – anstatt die Wahl der Verbraucher den Markt bestimmen zu lassen – gut für die Wirtschaft sei. Der britische Automobilsektor macht heute ein Fünftel der Produktionsbasis des Landes aus, wobei über 80 Prozent der 1,3 Millionen produzierten Autos exportiert werden. Das sind 13 Prozent des gesamten britischen Exportmarktes.

Die britische Automobilindustrie beschäftigt über 180.000 Briten direkt und viele hunderttausend weitere indirekt. Aber das Vereinigte Königreich kann nicht mit China um den globalen EV-Markt konkurrieren, weil die Arbeitskosten in Großbritannien viel höher sind und die Energie zunehmend viel teurer und unzuverlässiger ist.

Schlimmer noch, so Stewart, dieses „virtue signaling“ wird bestenfalls einen winzigen Nutzen für die britische und globale Umwelt haben, aber verheerend für die Autobesitzer sein. Die britische Regierung hat bereits den Wert der 12 Millionen Dieselfahrzeuge des Landes mit Zuschlägen stark vermindert, die Besitzer von Dieselfahrzeugen vor 2015 bis zu 67 Dollar pro Woche kosten, nur um in „ultra-niedrigen Emissionszonen“ fahren zu dürfen. Weitere Kosten waren die Verdoppelung der Parkgebühren und höhere Steuern für Dieselfahrzeuge.

Die neuen Initiativen werden das Gleiche mit benzinbetriebenen Fahrzeugen machen. Sie werden die Benzinpumpen auslaufen lassen, den Wiederverkaufswert sinken lassen und den Exportmarkt des Landes ruinieren.

Andrew Montford, stellvertretender Direktor des Global Warming Policy Forum, sagt, dass der fehlgeleitete britische Plan die Autofahrer 700 Milliarden Pfund (938 Milliarden US-Dollar) kosten könnte. Mehrere Aspekte von Elektroautos, so Montford, machen diese teurer als Benzinautos: der Austausch der teuren Batterien, die Installation von Ladestationen zu Hause (die oft eine Aufrüstung der Hausverkabelung erfordern), Zeit und Unannehmlichkeiten beim Aufladen der Batterien und mehr.

Montford schätzt, dass ein durchschnittlicher Haushalt bis 2050 rund 19.000 Pfund (25.460 US-Dollar) mehr ausgeben könnte – sofern er sich überhaupt noch ein Fahrzeug leisten kann. Darüber hinaus könnten sich die Kosten für das Autofahren verdoppeln, da andere staatliche Auflagen die Stromkosten in die Höhe treiben und die arbeitende Bevölkerung komplett von der Straße verdrängen.

Die Absurdität dieses britischen Angriffs auf die eigene, bestehende Autoindustrie wird noch lächerlicher durch die Tatsache, dass eine weitreichende Elektrifizierung die aktuellen Mobilitätsmuster nicht verändert – und es nur schafft, die Treibhausgasemissionen des Verkehrs bis 2050 um 15 Prozent zu reduzieren, erklärte die spanische Systemtechnik-Expertin Margarita Mediaville. EVs als „grün“ oder „nachhaltig“ zu bezeichnen, ist schlichtweg absurd.

Margarita Mediavilles Firma hat außerdem herausgefunden, dass die Herstellung all dieser neuen EV-Batterien die nachgewiesenen globalen Reserven an Kupfer, Lithium, Nickel und Mangan aufbrauchen würde, es sei denn, die Abbau- und/oder Recyclingraten steigen bis 2050 enorm an. Aber die Eröffnung neuer Minen, meist in anderen Ländern, wie es die Europäische Union vorschlägt, hätte „verheerende Auswirkungen auf das Wasser, die Artenvielfalt und die Menschenrechte der lokalen Gemeinden.“

Der Abbau und die Verarbeitung von Erzen sowie die Herstellung von Batterien würden ebenfalls enorme Mengen an fossilen Brennstoffen verbrauchen, Hunderte oder Tausende von Tonnen Erz und Abraum für jede Tonne fertiger Metalle erfordern und zu gewaltigen Emissionen von Schadstoffen und Kohlendioxid führen. In der Tat kommt ein neuer Bericht des Analysten Ben Lieberman vom Competitive Enterprise Institute zu dem Schluss, dass der Ersatz von Benzin durch Strom als Energiequelle für Fahrzeuge diese Emissionen nicht beseitigt, sondern nur den Ort ändert, an dem sie emittiert werden.

Ein weiterer Nachteil des enormen Anstiegs der Anzahl von E-Fahrzeugen ist, dass die Metalle und Mineralien zunehmend aus Ländern wie China, Chile und dem Kongo kommen – wo faire Löhne, Kinderarbeit, Sicherheit am Arbeitsplatz und Umweltstandards weit unter allem liegen, was die USA oder die EU tolerieren würden. EV-Batterien benötigen außerdem mehr Energie in der Herstellung als Batterien und Motoren für Verbrennungsfahrzeuge. Ihr Recycling ist ebenfalls kompliziert, teuer und mit Risiken für die Umwelt und die öffentliche Gesundheit verbunden.

Das Finanzunternehmen UBS fand heraus, dass der Ersatz der weltweiten Verkäufe konventioneller Verbrennungsfahrzeuge durch elektrische Versionen eine 2.898-prozentige Steigerung der Lithiumproduktion, eine 1.928-prozentige Steigerung von Kobalt, eine 524-prozentige Steigerung von Graphit, eine 105-prozentige Steigerung von Nickel, eine 655-prozentige Steigerung von Seltenerdmineralien und mindestens eine Verdreifachung der Kupferproduktion erfordern würde. Die Verbrennung von Kohle, Diesel und Benzin würde ebenfalls in die Höhe schnellen.

Ein separater Bericht von Securing America’s Future Energy zeigt, dass China fast 70 Prozent der Fertigungskapazitäten für Elektrofahrzeugbatterien kontrolliert, verglichen mit nur 10 Prozent in den USA. Der Bericht geht davon aus, dass 107 der 142 Projekte zur Herstellung von Elektrofahrzeugbatterien, die bis 2021 geplant sind, in China angesiedelt sein werden, und nur neun in den USA.

Bevor Schritte zur Umstellung Amerikas auf E-Fahrzeuge und nicht-fossile Stromerzeugung unternommen werden, müssen die politischen Entscheidungsträger in den USA sorgfältig die Kosten für Mensch und Umwelt untersuchen – in genauen Zahlen, einschließlich steigender Lungenerkrankungen, Krebs, Verletzungen und Todesfälle in ausländischen Minen, Verarbeitungsanlagen und Fabriken.

Sie müssen auch die Auswirkungen der Auslagerung der Batterieproduktion an chinesische Firmen auf amerikanische Arbeiter und Gemeinden berücksichtigen. Die Chinesen werden mit der Unterstützung eines Präsidenten Biden die meisten dieser Produktionsjobs gerne zurück ins Reich der Mitte holen, während sie amerikanische Familien mit steigenden Kosten für unzuverlässige Elektrizität, Kurzstreckenfahrten und zusammenbrechende Industrien belasten. Unglaublicherweise wird unsere Abhängigkeit von China bei Mineralien und Bauteilen für High-Tech-Militärtechnik ebenfalls steigen!

All diese Themen verlangen die Aufmerksamkeit unserer Gesetzgeber und Regulierungsbehörden, Umweltschützer und Journalisten. Es sei denn, sie betreiben nur billige Tugendhaftigkeit und scheren sich einen Dreck um amerikanische Arbeiter und Energieverbraucher, um die Umwelt in den USA und weltweit oder um die erwachsenen und minderjährigen Arbeiter weltweit, die ihre Gesundheit und ihr Leben bei der Bereitstellung von EV- und anderen Technologien aufs Spiel setzen werden.

This article was originally published on Townhall.com.

Link: https://cornwallalliance.org/2020/12/electric-vehicle-shock-treatment/

Übersetzt von Chris Frey EIKE

 




New York kann sich nicht von Stromaus­fällen loskaufen

Der Direktor für Nachhaltigkeit der Stadt New York (er nennt sich wirklich so, und ich habe mir diesen Titel nicht ausgedacht) Mark Chambers ist begeistert und prahlt: „Der Ausbau von Batteriespeichern ist ein entscheidender Teil davon, wie wir die Dynamik vorantreiben, um dem Klimanotstand zu begegnen und gleichzeitig den Energiebedarf aller New Yorker zu decken. Die heutige Ankündigung zeigt, wie wir diesen Bedarf in erheblichem Umfang decken können.“

(Hervorhebung im Original hinzugefügt)

In Wirklichkeit ist das hier genannte Ausmaß unglaublich unbedeutend.

Auf die gleiche unsinnige Weise schwärmt Tim Cawley, der Präsident des New Yorker Energieversorgers Con Edison: „Batteriespeicher im zur Versorgung audreichenden Maßstab werden eine wichtige Rolle in New Yorks sauberer Energiezukunft spielen, besonders in New York City, wo sie helfen werden, den Nutzen der Windenergie, die vor der Küste erzeugt wird, zu maximieren.

Das bringt das „Con“ in „Con Edison“ zum Ausdruck.

Hier ist die Realität, wenn es um die Größenordnung geht, die benötigt wird, um intermittierende erneuerbare Energien zuverlässig zu unterstützen. Nehmen wir der Einfachheit halber an, dass New York City zu 100 % durch vom Wind erzeugten Strom versorgt wird. Die Einbeziehung von Solarenergie in den Stromerzeugungsmix macht die Sache komplizierter, ändert aber nicht viel an dem negativen Ergebnis.

NYC hat derzeit einen Spitzenwert von etwa 32.000 MW, die benötigt werden, um die Lichter am Leuchten zu halten. Wenn Mr. Biden alle Autos und LKWs elektrisch fahren lässt, könnten es eher 50.000 MW sein, aber bleiben wir bei der Realität.

Diese Spitze tritt während sommerlicher Hitzewellen auf, die durch stagnierende Hochdrucksysteme, die sogenannten Bermuda-Hochs, verursacht werden. Diese Hochs halten oft eine Woche lang an, und weil sie stagnieren, gibt es keine Windenergieerzeugung. Windturbinen benötigen etwa anhaltende Winde von 15 km/h [Stärke 3 Bft], um die Blätter zu bewegen, und eher pfeifende 50 km/h [Stärke 5-6 Bft], um volle Leistung zu erzeugen. Während eines Bermuda-Hochs sind die Leute froh, wenn sie gelegentlich eine Brise von 8 km/h haben. Diese riesigen Hochs erstrecken sich über viele Staaten, also ist es nicht so, dass wir den Strom von nebenan bekommen können.

Für die Zuverlässigkeit brauchen wir also, sagen wir, sieben Tage Backup, das sind 168 Stunden. Hier ist die Rechnung:

32.000 MW x 168 Stunden = 5.376.000 MWh an gespeichertem Saft werden benötigt, um es gerade so zu schaffen. Wohlgemerkt, für normale Zuverlässigkeit addieren wir normalerweise 20% oder so. Habe ich schon Elektroautos erwähnt?

Es ist leicht zu erkennen, dass die trivialen 400 MWh keine „signifikante Größe“ sind. Es ist ein unbedeutender Maßstab. Nichts. Nada. Es könnte genauso gut nicht existieren.

(Ich schätze, dass die Anlage für 45 Sekunden Notstrom liefert. Korrigiert mich, wenn ich falsch liege.)

Genauer gesagt, 5.376.000 geteilt durch 400 = 13.440, also nur noch 13.439.

Andererseits kann diese mickrige 400-MWh-Batterieanlage durchaus eine halbe Milliarde Dollar kosten, was vor allem für die New Yorker, die dafür bezahlen werden, von Bedeutung ist. Es werden keine Kostenangaben gemacht, weil das System in Privatbesitz ist, aber die EIA berichtet, dass ein durchschnittliches Batteriesystem im Versorgungsmaßstab etwa 1,5 Millionen Dollar pro MWh Speicherkapazität kostet. Das ergibt 600 Millionen Dollar für dieses unbedeutende Spielzeug.

Was würde es also kosten, die Windenergie bei diesen MWh-Kosten und in der Größenordnung von NYC zuverlässig zu sichern? Etwas mehr als $8.000.000.000.000 oder ACHT BILLIONEN DOLLAR. Ich habe nicht gesehen, dass diese gigantische Summe in den Medien erwähnt wurde. Vielleicht hat Con Ed sie nicht erwähnt.

Dann hat auch der Staat New York das gleiche Problem. Nur viel größer, wenn New York City mit einbezogen wird, was oft der Fall ist.

Aber hey, vielleicht werden die Kosten um ein paar Billionen sinken. Nicht, wenn wir einen Verkäufermarkt schaffen, indem wir uns auf intermittierende erneuerbare Energien stürzen, was sicherlich der Fall ist. Immerhin ist das hier nur New York City. Stellen Sie sich vor, was es kosten würde, Amerika mit Batterien zu versorgen. Machen Sie sich nicht die Mühe, denn es ist unmöglich.

Ich sollte auch hinzufügen, dass wir keine Ahnung haben, wie man 5 Millionen MWh Batterien zusammenarbeiten lässt. Die winzigen 400 werden eine Herausforderung sein. Vielleicht ist es nicht möglich.

Vielleicht ist Geothermie mit Fracking, die zuverlässige erneuerbare Energie, die Antwort. Oder wie wäre es mit Kohle, Öl, Gas und Kernkraft? Zu schade, dass sie alle aus der Mode gekommen sind.

Dieser ganze Batterie-Backup-Hype ist ein Betrug, und das nicht nur in New York. Die Zeitungen sind voll von diesem Schwindel, von Küste zu Küste. Die Versorgungsunternehmen wissen ganz genau, dass diese lautstark angepriesenen Batteriekäufe ein Schwindel sind, aber sie werden reich, indem sie die Wind- und Solarsysteme bauen, nach denen die Politiker rufen.

Die Wähler sind sich dieser unmöglichen Zahlen nicht bewusst, da ihnen gesagt wird, dass intermittierender Wind und Solar billiger sind als zuverlässige Kohle, Gas und Kernkraft. Nur wenn die Sonne hell scheint und der Wind kräftig bläst, was nicht allzu oft der Fall ist.

Die Realität sitzt einfach da und wartet. Es kann nicht funktionieren, also wird es nicht funktionieren. An diesem Punkt ist es nur eine Frage des Wie und wann wir es auf die harte Tour herausfinden

Link: https://wattsupwiththat.com/2020/12/24/new-york-cant-buy-its-way-out-of-blackouts/

Übersetzt von Chris Frey EIKE

 




Wo ist die Erwärmungs­wirkung des CO2-Treibhaus­effektes bei den Deutschland­temperaturen?

Nun lag zufälligerweise das Startjahr 1881 in einem Kältetal in Mitteleuropa, was man gut an der längeren Temperaturreihe des Hohenpeißenberges erkennen kann.

Abb.1: Das Startjahr des DWD für Temperaturvergleiche in Deutschland ist das Jahr 1881. Wie die viel längere Temperaturreihe des HPB zeigt, lag dieses Startjahr in einem Kältetal, aus dem heraus es überall in Mitteleuropa wärmer wurde.

Erst um 1900 wurde das Klima in Mitteleuropa durch einen Temperatursprung wieder milder, also einen Sprung aus dem Loch heraus. Temperatursprünge haben natürliche Ursachen der ständigen Klimaänderungen auf der Erde. Deswegen nehmen wir im weiteren Verlauf des Artikels als Betrachtungsjahr den Startbeginn 1898, das eigentliche Ende der kleinen Eiszeit.

Abb. 2: 90 Jahre lang gab es laut DWD-Temperaturreihe keinerlei Erwärmung in Deutschland, trotz stark steigender CO2-Konzentrationen in der Atmosphäre. Hat die CO2-Erwärmungswirkung etwa 90 Jahre lang ausgesetzt?

Steigende CO2-Konzentration der Atmosphäre

Abb. 3: Seit 1958 sind die Messungen der CO2-Konzentrationen einigermaßen vergleichbar. Beginn 1958 bei 315 ppm, 2020 wird bei 418 ppm enden. Trotz CO2-Reduzierung hatte der Lockdown keine Wirkung auf die weiter steigenden Konzentrationen in der Atmosphäre. Das mag ein Hinweis sein, dass der CO2-Anstieg hauptsächlich natürliche Ursachen hat und weniger anthropogene.

Fahren wir fort mit den Deutschlandtemperaturen, ermittelt aus etwa 1900 DWD-Messstationen, gleichmäßig über das heutige Deutschland mit seinen Grenzen von 1990 verteilt.

Der Temperatursprung im Erwärmungsjahr 1988

1988 erfolgte ein Temperatursprung, es wurde plötzlich wärmer in Mitteleuropa. Dieser Sprung ist bei allen deutschen Stationen nachweisbar, bei ländlichen und städtischen. Er beträgt etwas mehr als ein halbes Grad. Wir konnten den Temperatursprung nicht als Folge der deutschen Einheit identifizieren, wo wiederum Messstationen dazukamen für den Schnitt, dafür andere wegfielen. Da dieser Temperatursprung auch nicht CO2 als Ursache haben kann, bleiben nur natürliche Gründe: Änderung der Großwetterlagen. Und weiter: Seitdem wird es innerhalb des Sprunges auch noch wärmer. Wir fragen: Was ist die Ursache dieser weiteren Erwärmung auf dem höheren Temperaturplateau? Wir schicken die Antwort voraus: Die zunehmenden WI-effekte der DWD-Wetterstationen.

Abb. 4: 1988 erfolgte bei allen Wetterstationen Deutschlands ein Temperatursprung auf ein höheres Niveau. Die Jahre wurden plötzlich wärmer. Und innerhalb dieses Zeitraumes bis heute sind die Temperaturen im Schnitt aller DWD-Wetterstationen weiter angestiegen. Das Jahr 2020 wird diesen Erwärmungstrend bestätigen. Voraussichtlicher Schnitt 2020 10,4 C.

Nun kann der Kohlendioxidanstieg seit 1958 nicht die Ursache des Temperatursprunges 1988 sein, es handelt sich vielmehr um eine Umstellung der Großwetterlagen für Mitteleuropa. Und diese Umstellung der Großwetterlagen trifft auch nicht alle Jahreszeiten gleichmäßig, was im folgenden Teil gezeigt werden soll.

Schlüsselt man die Jahreswerte seit 1988 auf, dann sieht man, dass sich vor allem die drei Sommermonate stark erwärmt haben, die Winter gar nicht, was in der Summe auch eine Gesamterwärmung des Jahresschnittes erbringt. Damit scheidet CO2 als Erwärmungsfaktor wieder aus, denn CO2 wirkt nicht jahreszeitenbedingt. Will man also die Ursachen der ständig steigenden Jahreserwärmung suchen, dann muss man nach den Gründen der Sommererwärmung suchen.

Vor allem die drei Sommermonate sind seit 1988 wärmer geworden.

Abb. 5: Die drei Sommermonate haben sich seit 1988 doppelt so stark erwärmt wie das Gesamtjahr.

Vor allem in Süddeutschland haben aufmerksame Naturbeobachter diesen Trend der Sommererwärmung längst festgestellt. Die Sommer sind mediterraner geworden, was die allermeisten Menschen sehr begrüßen. Über die Mittagszeit sind die Temperaturen in den Innenstädten sommers oftmals bis fast an 40°C herangekommen, die dunklen Asphaltstraßen der freien Landschaft werden 50°C heiß und speichern die Wärme in die Nachtstunden hinein. Der Gründe des Sommertemperatursprunges seit 1988 haben natürliche Ursachen. Die weiteren Gründe der starken Sommererwärmung dürften ausschließlich menschengemacht sein: Die ständige Trockenlegung der freien Landschaft, aber auch die sich täglich fortsetzende ausufernde Bebauung der Siedlungen, Gewerbe- und Industriegebiete in die einst freie kühlende Landschaft hinein. Wo eine neue Siedlung entsteht, fällt die endotherm ablaufende Fotosynthese, die ein Großteil der Sonnenwärme in Wachstum umsetzt, weg, aber auch die kühlende Verdunstung der grünen Flora entfällt. Leider setzt sich die Bebauung der freien Landschaft in Deutschland ungebremst fort, auch jetzt beim Lesern dieses Fachaufsatzes, siehe hier.

Ein einfacher Versuch kann das zeigen, die dunkle Straße vor dem Haus des Autors wird bei Sonnenschein im Juli 50°C heiß, der grüne Rasen im Vorgarten nur 25°bis 30°C. In den einstigen Auwiesen Deutschlands, die heute nahezu vollständig trockengelegt oder gar bebaut sind, lagen die Temperaturen nochmals um 5 C niedriger.

Zwischenergebnisse:

  1. 1988 erfolgte ein Temperatursprung auf ein höheres Niveau.
  2. Die weitere Erwärmung bis 2020 innerhalb des höheren Temperaturplateaus findet vorwiegend in den Sommermonaten statt
  3. Dieser weitere Anstieg seit 1988 ist eine Folge der vom Menschen verursachten Wärmeinseleffekte in Deutschland.

Die Behauptung 3 kann man leicht durch die Temperaturreihenbetrachtung einer wärmeinselarmen im Vergleich zu einer ausgesprochenen Wärmeinselstation zeigen:

Amtsberg in Sachsen und Hof in Oberfranken.

Abb. 6: Wärmeinselarme Stationen zeigen wie alle deutschen Wetterstationen zwar den Temperatursprung 1988, die Temperaturen hielten sich jedoch auf dem milderen Niveau, während die Stationen in wachsenden Wärmeinseln insbesondere im Sommer weiter wärmer wurden. In den letzten Jahren hat die Wetterstation Hof, die seit Jahren in ein Gewerbegebiet eingebaut wird das tiefer liegende und ländliche Amtsberg-Dittersdorf im benachbarten Sachsen überholt.

Leider überwiegt im DWD-Messnetz die Anzahl der wachsenden Wärmeinselstationen, was der DWD durchaus erkannt hat und inzwischen so manche WI-starke Station wie Lingen und Konstanz versetzt. Neben diesen und Hof können wir weitere Beispiele nennen, die versetzt werden sollten: Holzkirchen, Rostock, Schwerin, Magdeburg, Greifswald und alle städtischen Stationen mit wachsender Einwohnerzahl oder Wetterstationen an Flughäfen mit steigendem Flugverkehr, wo die Digalthermometer im Einfluss der 650° C heißen Abgase messen. Alles menschenverursachte Erwärmungen, aber eben keine Folge der CO2-Zunahme.

Die drei Wintermonate in Deutschland seit 1988: keine Erwärmung.

Wir haben oben erwähnt, dass der Temperatursprung der milderen Jahre seit 1988 hauptsächlich eine Sommererwärmung ist, abschießend soll das auch an der Darstellung der Wintertemperaturen gezeigt werden.

Abb. 7: Die Wintertemperaturen sind seit 1988 in Deutschland nicht weiter angestiegen. Wo ist die Treibhauswirkung des Kohlendioxids im Winter? Antwort: Sie ist nicht existent!

Und der Wärmeinseleffekt im Winter?

Im Winter fällt dieser Wärme bildende Effekt auch weitgehend weg, weil die Sonne viel weniger und aufgrund des niedrigen Sonnenstandes viel schwächer scheint. Gebäude, Siedlungen und Straßen können sich kaum aufheizen. Und auch eine von Menschenhand trockengelegte Landschaft ist im Winter nass oder schneebedeckt.

Daran ändert auch die winterliche Heizwirkung nichts. WI-effekte gibt es auch im Winter, und zwar bei Stationen, die in der Stadt stehen. Solche, die sich an Flughäfen oder leicht außerhalb von Innenstädten befinden, ist der WI nicht so hoch. Erst im April setzen die WI-effekte in der Summe der DWD-Stationen wieder kräftig ein. Die WI-starke Station Hof hat nur eine geringfügig höhere Steigung als DWD-Deutschland, die WI-schwache Station Amtsberg nur ein geringes Gefälle (Winterabkühlung). Betrachtet man die zwei benachbarten Stationen Amtsberg und Hof für den Winter, dann ist der WI-effekt zwar erkennbar, aber für den Sommer sehen die Regressionslinien viel kräftiger aus:

Und CO2 ?

Ein erwärmendes Treibhausgas müsste im Winter genauso erwärmend wirken wie im Sommer. Geschieht aber nicht. Und dass CO2 einen Winterschlaf hält, diese Eigenschaft kennen wir auch nicht.

Die einzige wissenschaftlich richtige Folgerung daraus ist immer: CO2 hat gar keine oder kaum Erwärmungswirkung, weder im Sommer noch im Winter. Die vom Menschen verursachte Erwärmung heißt ständige Trockenlegung und Bebauung der einst freien Landschaft, d.h. eine fortwährende weitere Naturzerstörung.

Ergebnisse: Es gibt natürliche und dem Menschen geschuldete Ursachen der Erwärmung seit 1880 in Deutschland. Letztere kann man unter dem weiten Begriff „Zunahme der Wärmeinseleffekte“ zusammenfassen.

Die angebliche CO2-Treibhauserwärmung ist eine wissenschaftliche Verwechslung mit dem zunehmenden Wärmeinseleffekt. Diesen gibt es nicht nur in Deutschland, sondern überall auf der Welt hat die Bebauung zugenommen. Auf den Weltmeeren wirken die natürlichen Ursachen der Klimaerwärmung seit 1850, dem definierten Ende der kleinen Eiszeit.

Es wird endlich Zeit, dass Natur- und Umweltschutz in den Mittelpunkt des menschlichen Handelns gestellt werden. Saubere Luft, saubere und natürliche Bach- und Flussläufe, eine intakte Naturlandschaft mit vielfältiger Flora und Fauna sollten ein Grundrecht jedes Menschen sein.

Josef Kowatsch, Naturbeobachter, unabhängiger, weil unbezahlter Klimaforscher.




Alarmismus geht auf den Malediven unter:

Letztes Jahr veröffentlichte Dr. Virginie Duvat eine globale Bewertung, wie sich die Inseln und Atolle der Erde angesichts der anhaltenden Herausforderung des Meeresspiegelanstiegs seit Beginn der Satellitenüberwachung in den 1980er Jahren verhalten.

Glücklicherweise fand sie „keine weit verbreiteten Anzeichen einer physischen Destabilisierung angesichts des Meeresspiegelanstiegs.“ Tatsächlich hat a) keines der 30 analysierten Atolle Landfläche verloren, b) 88,6 % der 709 untersuchten Inseln waren entweder stabil oder haben an Fläche zugenommen, c) keine Insel, die größer als 10 Hektar (ha) ist, hat an Größe verloren und d) nur 4 von 334 Inseln (1,2 %), die größer als 5 ha sind, haben an Größe verloren.

Abbildung 1. Quelle: Duvat 2019

Bildinschrift: Während der letzten Jahrzehnte verzeichneten Atolle kein verbreitetes Signal einer physischen Destabilisierung angesichts des steigenden Meeresspiegels. Eine Neubewertung verfügbarer Daten von 30 Atollen im Pazifischen und dem Indischen Ozean mit 709 Inseln zeigt, dass kein Atoll Landverluste zu verzeichnen hat und dass 88,6% der Inseln entweder stabil geblieben waren oder an Größe zugenommen haben, während nur 11,4% der Inseln kleiner geworden sind. Durch einen rapiden Meeresspiegel-Anstieg betroffene Atolle zeigten kein besonderes Verhalten im Vergleich zu Inseln anderer Atolle. Eine Rolle spielte auch die Größe der Inseln, hat doch keine einzige Insel größer als 10 Hektar Landfläche verloren.

Diese Untersuchung bestätigt zuerst einmal, dass Atoll-Inseln während der letzte Jahrzehnte bzw. im vorigen Jahrhundert keine Anzeichen einer Destabilisierung durch den Meeresspiegel-Anstieg zeigten. Die globale, in dieser Studie untersuchte Stichprobe umfasst 30 Atolle und 709 Inseln. Sie zeigt, dass keines der Atolle Landfläche eingebüßt hat und dass 73,1% der Inseln bzgl. ihrer Landfläche stabil geblieben waren, darunter die am dichtesten besiedelten Inseln. 15,% der Inseln sind größer und 15,5% der Inseln kleiner geworden. Die Stabilität der Inseln und Atolle kann daher als globaler Trend angesehen werden. Wichtig: Inseln in Gebieten mit einem rapiden Meeresspiegel-Anstieg zeigten weder Kontraktionen noch einen markanten Rückzug von Küstenlinien. Dies zeigt, dass sie vermutlich noch nicht durch die vermutlich negativen, d. h. erosiven Auswirkungen des Meeresspiegel-Anstiegs betroffen sind.

Bedeutsam ist auch, dass eine Re-Analyse verfügbarer Daten zu Änderungen zeigt, dass während der vergangenen Jahrzehnte keine Insel größer als 10 Hektar und nur 4 der 334 Inseln größer als 5 Hektar (1,2%) an Größe abgenommen haben. Außerdem kam es auf diesen Inseln zu begrenzten Veränderungen der Landfläche (von +3% bis +10%).

In diesem Jahr hat sich Dr. Duvat auf die Inseln der Malediven konzentriert, eine Region, die als eine der anfälligsten für Störungen durch den Meeresspiegelanstieg gilt. Etwa 80 % der Inseln liegen weniger als 1 Meter (m) über dem Meeresspiegel.

In Anbetracht der Tatsache, dass sich die Bevölkerung der Malediven (>400.000) seit den 1960er Jahren alle 25 Jahre verdoppelt hat und fast 1,3 Millionen Touristen jedes Jahr viele der 188 bewohnten Inseln besuchen, sind die Malediven entscheidend für die laufende Bewertung der Auswirkungen des modernen Meeresspiegelanstiegs.

Und glücklicherweise geht es den Malediven, wie auch dem Rest des Globus‘, recht gut.

Aufgrund menschlicher Erfindungsgabe – Ingenieurskunst wie Inselaufschüttungen, künstliche Vergrößerung der Inselflächen und „Panzerung“ der Küsten – haben die meisten Inseln der Malediven in den letzten Jahrzehnten tatsächlich an Größe gewonnen.

Seit 2005 sind 110 (59,1%) der 186 untersuchten Inseln um ≥3% gewachsen. Von diesen 110 expandierenden Inseln wuchsen 57 um ≥10% und 19 um ≥50% (Duvat, 2020). Wiederum ist das nur in der letzten Dekade der Fall.

Von den Inseln, die sich nicht vergrößert haben, wurden 38,2% (71 Inseln) als stabil eingestuft (definiert als weder wachsend noch schrumpfend um mehr als 3%). Damit verbleiben nur 5 Inseln von 186 (2,7%), die seit den 1980er Jahren an Größe verloren haben.

Anders ausgedrückt: 97,3 % der Inseln auf den Malediven sind seit 2005 entweder stabil oder wachsen in ihrer Größe.

Abbildung 2. Quelle: Duvat, 2020

[Anmerkung: Da der Beitrag die Inhalte dieser Abbildung gut zusammenfasst, wird hier auf eine Übersetzung verzichtet]

Eine weitere neue Studie (Kench et al., 2020) stellt auf hilfreiche Weise den langfristigen Kontext des holozänen Meeresspiegels für die Malediven dar. Wir finden, dass Inseln, die heute über dem Meeresspiegel liegen, noch vor 3.000 Jahren unter Meerwasser lagen.

Von vor etwa 4.000 bis 2.000 Jahren lag der Meeresspiegel der Malediven etwa 0,5 m über dem heutigen Stand. Natürliche Schwankungen von ~0,8 m in wenigen Jahrhunderten sind in den letzten paar tausend Jahren aufgetreten, einschließlich Einbrüchen während der spätantiken Kleinen Eiszeit (vor ~1600 Jahren) und der Kleinen Eiszeit (vor ~400 Jahren).

Moderne Meeresspiegeländerungen scheinen nicht außerhalb des Bereichs der natürlichen Variabilität zu liegen.

Abbildung 3. Quelle: Kench et al., 2020

[Siehe Anmerkung zu Abbildung 2]

Link: https://wattsupwiththat.com/2020/12/22/alarmism-dies-in-the-maldives-97-of-186-island-coasts-have-grown-59-or-not-changed-38-since-2005/

Übersetzt von Chris Frey EIKE

 




Die grünen NGO-Klimapropaganda-Stoßtruppen von China

Dies war keineswegs ein Einzelfall. Die unbequeme Wahrheit: Die Umweltbewegung kämpfte auf der falschen Seite des Kalten Krieges. In den frühen 1980er Jahren nutzte sie die Angst vor dem „nuklearen Winter“, um zu versuchen, Ronald Reagans nukleare Aufrüstung zu stoppen und die Fähigkeit des Westens zu untergraben, das Waffenabkommen auszuhandeln, welches den Kalten Krieg effektiv beendete. Es stellte sich heraus, dass der nukleare Winter vom KGB ausgeheckt und von Führungskräften des Rockefeller Family Fund nach Amerika übermittelt worden war. Eine 1983 abgehaltene Atomwinter-Konferenz wurde von 31 Umweltgruppen unterstützt, darunter dem Environmental Defense Fund, Friends of the Earth und dem Natural Resources Defense Council (NRDC).
Dieses Muster, bei dem die Feinde des Westens die Umweltbewegung benutzen – ob NGOs wie Greenpeace, Stiftungen oder „besorgte Wissenschaftler“, um westliche Interessen zu untergraben – wiederholt sich nun, diesmal in Bezug auf China. Ein Bericht von Patricia Adams für die in London ansässige GWPF [in deutscher Sprache beim EIKE hier vorgestellt], der Anfang dieses Monats veröffentlicht wurde, legt die Rolle der grünen Bewegung als Chinas Propagandisten offen.

Bild: GWPF

Seit Xi Jinping vor acht Jahren Generalsekretär der Kommunistischen Partei Chinas wurde, hat fast jeder, der glaubte, Chinas kommunistisches Regime würde nach innen freundlicher und nach außen weniger bedrohlich werden, seine Meinung revidiert – jeder, das heißt, außer den Klimaaktivisten. „Anstatt vorsichtig zu werden, was Chinas Rolle in der Welt angeht, überhäufen diese Gruppen es mit Lob für seine Umweltbemühungen“, bemerkt Adams. Die Leiterin der Asienstrategie von NRDC, Barbara Finamore, hat sogar ein Buch geschrieben: Will China Save the Planet? Vielleicht die einzige Überraschung hier ist das Fragezeichen.

Chinas Wirtschaft basiert auf Kohlenwasserstoffen, die für 86% des Primärenergieverbrauchs stehen. China hat in den ersten sechs Monaten des Jahres 2020 11,4 Gigawatt an neuer Kohlekapazität hinzugefügt (im Gegensatz dazu wurden in den USA im gesamten Jahr 2019 15,1 GW an Kohlekapazität stillgelegt). Chinesische staatliche Energieversorger erweitern ihre Kohleflotten in den nächsten fünf Jahren um etwa 10%. Peking investiert stark in Ölraffinerie-Kapazitäten und verfügt nun über die größten Raffinerie-Kapazitäten nach den USA. China ist auch der weltweit größte Importeur von Erdgas. […]

Die Frage für die kommende Biden-Regierung lautet, wie Amerika reagieren soll: Als kleines Land, oder als Großmacht? Der Klimawandel ist eine nationale Sicherheitsbedrohung, aber nicht so, wie das nationale Sicherheitsestablishment denkt. Der obsessive Fokus auf den Klimawandel bedroht die vitalen Interessen der Vereinigten Staaten, indem er die nationalen Sicherheitsexperten für geopolitische Realitäten desensibilisiert und sie der Illusion einer planetarischen Rettung unterordnet. China und seine NGO-Verbündeten werden sich hüten, um sie von dieser Illusion zu befreien.

Der ganze Beitrag steht hier.

Link: https://www.thegwpf.com/rupert-darwall-chinas-green-ngo-climate-propaganda-enablers/

Übersetzt von Chris Frey EIKE




Klimamodelle: Von warmen Polen und kalten Tropen

Eine der Freuden von Diskussionen mit Klimawissenschaftlern ist, dass man einen Einblick in ihre Denkweise bekommt. Nehmen Sie zum Beispiel das oft postulierte: „Man sollte sich das große Ganze ansehen“. Was viele Klimawissenschaftler damit meinen, ist die Betrachtung der neuesten super-duper Ozean-Atmosphäre gekoppelten Modelle mit zeilenweisen Strahlungstransfer-Codes und was nicht noch alles. Ohne das, so die Behauptung, kann man nicht verstehen, wie das Klimasystem funktioniert. Seltsamerweise bedeutet „das große Ganze betrachten“ für einen Physiker wie mich genau das Gegenteil: das zu betrachtende System auf das Wesentliche zu reduzieren und Erkenntnisse über sein Innenleben aus der zugrundeliegenden Physik zu gewinnen, ohne sich von Details ablenken zu lassen.

Was ist hier also das große Ganze? In ihrer einfachsten Form ist die Erde ein Wärmeübertragungssystem im Nicht-Gleichgewicht (aber in einem stabilen Zustand), in dem Wärme (überwiegend) in den Äquatorregionen eintritt und Wärme (überwiegend) an den Polen verloren geht. Im Inneren wird die Wärme durch atmosphärische und ozeanische Strömungen von den Tropen zu den Polen transportiert, wodurch die Tropen abgekühlt und die Polarregionen erwärmt werden. Ohne diesen Transport würde die lokale Temperatur nur durch das Gleichgewicht zwischen Sonneneinstrahlung und Strahlungsverlusten bestimmt, wodurch die Tropen wärmer wären als sie sind und die Pole kälter. Die Tropen sind kühler, als sie es ohne diesen Transport wären, während die Polarregionen wärmer sind. Daher: kalte Tropen und warme Pole.

Jetzt kommt das Rätsel: Der Wärmetransport zwischen Tropen und Polargebieten wird durch deren Temperaturdifferenz bestimmt. Je größer diese ist, desto größer ist der Wärmestrom. Der Wärmetransport verringert aber diese Temperaturdifferenz und wirkt damit seiner eigenen Verursachung entgegen. Betrachten wir z. B. den Grenzfall eines sehr großen Wärmestroms, bei dem die Wärmeübertragung praktisch augenblicklich erfolgt. Als Ergebnis hätten die Pole die gleiche Temperatur wie die Tropen, aber dann kann es überhaupt keinen Wärmestrom geben, weil dieser durch eine Temperaturdifferenz angetrieben wird. Wir haben also einen Widerspruch. Von der umgekehrten Situation auszugehen, dass es keinen Wärmestrom gibt, ist ebenfalls unhaltbar, weil die große Temperaturdifferenz einen Wärmestrom hervorruft. Es gibt aber einen Wärmestrom, der daher mit der von ihm verursachten Temperaturdifferenz konsistent sein muss. Ein kleinerer Temperaturunterschied ist nicht möglich, denn das würde den Wärmestrom verringern und damit die Differenz wieder vergrößern; und ein größerer Temperaturunterschied würde den Wärmestrom vergrößern und damit verringern. Dies deutet stark darauf hin, dass sich die Atmosphäre als Ganzes in einem Zustand einpendelt, in dem die Temperaturdifferenz zwischen den Tropen und den Polen minimal ist, während gleichzeitig der von ihr verursachte Wärmestrom zwischen ihnen maximal ist. Wir können diese Einsicht nutzen, um seine Größe zu berechnen, indem wir das Prinzip der Maximalen Entropieproduktion MEP anwenden, eine Arbeitshypothese in der Nicht-Gleichgewichtsthermodynamik, die zunehmend Unterstützung in Beobachtungen findet (siehe Kleidon für eine ausgezeichnete Einführung, Ref. 1, 2).

Das MEP-Prinzip besagt, dass ein System, das weit vom (thermodynamischen) Gleichgewicht entfernt ist, sich an einen stationären Zustand anpasst, in dem Energie dissipiert und Entropie mit der maximal möglichen Rate produziert wird. Beachten Sie, dass „maximale Entropieproduktion“ etwas völlig anderes ist als „maximale Entropie“. Letztere bezieht sich auf ein geschlossenes System im thermodynamischen Gleichgewicht. Hier haben wir es mit einem offenen System zu tun, das sich nicht im thermodynamischen Gleichgewicht befindet, sondern in einem stetigen Nicht-Gleichgewichtszustand.

Ich fürchte, ich muss hier einige Formeln einführen. Was ich tun werde ist, die Grundgleichung und ihre Lösung hier anzugeben, während ich für die Kenner der Materie in einem Anhang erläutere, wie man diese Lösung findet. Diejenigen, die mit der Thermodynamik vertraut sind, werden diesen Ausdruck für die Produktion, also die Änderung, dS der Entropie S durch eine Änderung des Wärmeinhalts dQ bei der Temperatur T kennen:

Hieraus folgt direkt die Formel für die Entropie-Produktion durch einen Wärmefluss Q zwischen den Äquator-Gebieten mit der Temperatur Te und den Polen mit der Temperatur Tp:

Die Wärme verlässt die äquatorialen Regionen mit der Temperatur Te, daher das Minuszeichen, und erreicht die Pole mit der Temperatur Tp. Die Maximierung von S ist gleichbedeutend mit der Suche nach der optimalen Kombination von Q und Te -Tp. Die Lösung dieser Gleichung ist recht einfach (siehe Anhang). Die tatsächliche Differenz Te -Tp beträgt fast die Hälfte der Differenz, die sich ohne Energiefluss ergeben hätte. Halb, also nicht 0,3 oder 0,7 mal.

Testen wir dieses Ergebnis anhand von Modellen und Beobachtungen. Es scheint gut etabliert zu sein – aus Berechnungen mit Standard-Atmosphärenmodellen –, dass ohne den Wärmetransfer die äquatorialen Regionen etwa 15 Grad wärmer und die Pole etwa 25 Grad kälter wären (Celsius, ref 3). Ich nehme diese Abschätzungen für bare Münze; sie implizieren eine Asymmetrie β = 0,25, für die 1 – 2α ~ 0,51 gilt (siehe Anhang). Dann lautet die Vorhersage, dass der Temperaturunterschied zwischen den Tropen und den Polen mit dem Wärmetransfer etwa 41 Grad beträgt (also (15 + 25) × 0,51∕0,49), während der Unterschied ohne diesen Transfer etwa 80 Grad betragen würde. In der Tabelle sind einige reale Beobachtungen aufgeführt:

Gemessene Temperaturwerte (Grad Celsius) an den Polen und um den Äquator

Für die Antarktis habe ich die Daten der Byrd-Station verwendet, weil sie auf einem Plateau liegt und daher vermutlich weniger von einer möglichen Abschirmung durch Berge betroffen ist. Die gemittelte polare Temperatur scheint bei etwa -21°C zu liegen. Für die Tropen entspricht das untere Ende des Bereichs überwiegend den ozeanischen Daten und sollte daher ein größeres Gewicht im Mittelwert haben, der hier mit 24°C angenommen wird. Die beobachtete Temperaturdifferenz zwischen polaren und äquatorialen Regionen liegt also bei etwa 45 Grad, gegenüber einer Vorhersage von 41 Grad. Nicht schlecht für ein so einfaches Modell.

Es mag ein einfaches Modell sein, aber das MEP-Prinzip hat eine wichtige Implikation. Die Maximierung der Entropieproduktion für stationäre Bedingungen impliziert eine starke negative Rückkopplung auf Störungen (siehe Kleidon). Jede Störung wird per Definition zu einer Abnahme von S führen, und das System wird sich anpassen und versuchen, es wieder zu optimieren. Eine solche Störung in Klimamodellen ist bekannt und seit langem etabliert und weithin als gültiges Konzept akzeptiert: die „polare Verstärkung“. Sie besagt, dass sich in einer sich erwärmenden Atmosphäre die Polarregionen schneller erwärmen als die äquatorialen Regionen; daher nimmt Te – Tp ab. Es ist jedoch auch eines der seltsamsten Konzepte, die in der Klimamodellierung zu finden sind, weil es keine begrenzende Bedingung hat: Nirgendwo in der Literatur steht etwas wie „unter diesen und jenen Bedingungen, bei diesem Grad der Erwärmung, wird die polare Verstärkung aufhören“. Dies könnte zu einer Absurdität führen: Sollte die Atmosphäre heiß genug werden, würde der Temperaturunterschied zwischen Äquator und Pol komplett verschwinden oder sogar das Vorzeichen wechseln. Es muss also Bedingungen geben, unter denen die Verstärkung nicht mehr stattfindet. Warum ist das wichtig? Wenn es einen solchen Mechanismus gibt, der unter bestimmten Umständen einsetzt, dann muss man erklären, warum er gerade jetzt nicht funktioniert, und das könnte peinlich sein. Wie dem auch sei, aus dem Vorangegangenen sollte ersichtlich sein, dass das Konzept der polaren Verstärkung in der Tat ziemlich fragwürdig ist: Die verringerte Differenz von polaren und äquatorialen Temperaturen reduziert den Wärmefluss zu den Polarregionen, was eine Abkühlung zur Folge hätte. Ein realistisches Klimamodell sollte sich so verhalten, wie es die zugrundeliegende Physik vorgibt. Daraus lässt sich ableiten, dass eine solche Rückkopplung in den aktuellen Klimamodellen nicht vorhanden ist und dass folglich das ganze Konzept ein Artefakt eines unvollständigen Modells sein könnte. (Sie haben es hier zuerst gelesen.)

Aber wie das Leben so spielt hat sich die Arktis in den letzten 3 oder 4 Jahrzehnten erwärmt. Das würde das Konzept der polaren Verstärkung beweisen, oder? Nun, diese Erwärmung mag in der Arktis der Fall sein, aber sie sollte gleichzeitig auch für die Antarktis gelten, aber dort scheint das Konzept den Vergleich mit den Beobachtungen nicht zu bestehen (ref 4).

Was mag also in der Arktis vor sich gehen? Ich erlaube mir, hierzu meine Meinung zu verkünden. Für mich liegt der Schlüssel in der Tatsache, dass es zwei Pole gibt. Es wäre außergewöhnlich, wenn zu allen Zeiten genau der gleiche Anteil der äquatorialen Wärme auf jeden Pol verteilt würde. Die Übertragungsmechanismen, atmosphärische und insbesondere ozeanische Strömungen, sind von Natur aus chaotische Systeme, die dazu neigen, von einem bestimmten quasi-stabilen Strömungsmuster zu einem anderen zu wechseln. Bei den Meeresströmungen kennen wir dieses Verhalten als Pazifische Dekadische Oszillation, Atlantische Multidekadische Oszillation, Dipol des Indischen Ozeans und dergleichen. Die Zeitskala für solche Veränderungen beträgt viele Jahrzehnte, von 3 für die PDO bis zu 6-8 für die AMO, weil eine enorme Masse und ein enormer Impuls von sich bewegendem Wasser beteiligt ist und Wasser eine inkompressible Flüssigkeit ist, was bedeutet, dass die Veränderung über das gesamte Strömungsmuster gleichzeitig stattfindet. Daher ist zu erwarten, dass die Verteilung der Wärme nach Norden und Süden Änderungen auf einer Zeitskala von Jahrzehnten in einer erratischen Wippe unterliegt. Wir leben zufällig in einer Zeit, in der die nördliche Hemisphäre etwas mehr als ihren gerechten Anteil an der Wärme bekommt; in ein paar Jahrzehnten kann das ganz anders sein. Um solche Veränderungen von einem möglicherweise zugrunde liegenden langfristigen Erwärmungstrend zu unterscheiden, werden Daten über einen viel längeren Zeitraum benötigt, als wir jetzt haben.

Anmerkung von Dipl.-Met. Christian Freuer hierzu: die „bipolare Schaukel“ oder „- Wippe“ ist ihm vor Jahrzehnten schon einmal untergekommen, aber nur aufgrund von Beobachtungen und ohne dass die damaligen Autoren eine Erklärung dafür parat hatten. Es ist äußerst erhellend und erfreulich, hier in relativ einfacher Form jetzt endlich eine solche Erklärung dafür zu finden. – Ende Anmerkung

Link zum Original siehe unten. Bis hier Übersetzt von Chris Frey EIKE

References:

(1) Axel Kleidon (2009): ”Non-equilibrium thermodynamics and maximum entropy production in the Earth system”, https://link.springer.com/article/10.1007/s00114-009-0509-x

(2) A Kleidon, R D Lorenz (editors) ”Non-equilibrium thermodynamics and the production of entropy” (2005) Springer, ISBN 978-3-540-22495

(3) e.g. http://earthguide.ucsd.edu/virtualmuseum/virtualmuseum/EarthsClimateMachine.shtml

(4) e.g. https://wattsupwiththat.com/2019/04/10/the-curious-case-of-the-southern-ocean-and-the-peer-reviewed-journal/

Es folgt eine genaue theoretische Herleitung, deren Übersetzung ich hier mal weglasse. Anm. d. Übers.]

Solving the EP equation

The entropy production S for a heat flow Q between the equatorial regions of temperature Te and the polar regions of temperature Tp is given by:

The MEP hypothesis is that the atmospheric system tends to maximise S. This optimum can be found analytically as follows. Introduce Θe and Θp, the temperatures of the equatorial and polar regions respectively if there were no heat transport. That is, Θe and Θp stand for the radiative equilibrium temperatures of those regions. The actual temperatures (Te and Tp) are different because of the heat transport. Hence define ΔTe = Θe – Te and ΔTp = Tp – Θp. Let’s for the moment assume that they are both equal and equal to a fraction α of the range Θe – Θp:

Notice that the difference Te – Tp equals:

Obviously for α = 0 there is no heat transfer, hence S = 0, while for α = 0.5 we have Te equal to Tp and thus no entropy production either. In between these extremes the heat flux Q is somehow proportional to ΔTe, the larger the drop in temperature of the equatorial region, the larger the heat loss from it and one can assume the relation to be (close to) linear. This gives us an expression for S in terms of ΔT, hence as function of α :

The maximum of S in the range [0.0 – 0.5] is straightforwardly found with basic calculus techniques – you need to solve a cubic equation in α – and turns out to be almost exactly at α = 0.25. Alternatively, one could use the R analysis package, encode the function for S, find the maximum with Newton’s method and get a figure as a bonus.

The upshot of all this is that the MEP temperature difference Te -Tp is very nearly half the difference Θe – Θp which we would have had in the absence of any heat flow.

Let’s now revisit ΔTe and ΔTp. Adopting equality of ΔTe and ΔTp means assuming that for every degree drop in temperature of the equatorial regions the polar temperature rises by one degree. This is not very realistic; quite likely the polar temperature rises more because of area and heat capacity differences. We can include such an imbalance by slightly modifying the definitions of ΔTe and ΔTp and introduce an asymmetry parameter β:

With a value of β = 0.25, for instance, this would mean that for every 3 degrees drop in equatorial temperature the poles would gain 5 degrees. Notice that the difference Te – Tp remains as given earlier. Repeating the foregoing exercise for a range of β values presents us with an interesting result: the corresponding α values are practically unchanged: for β = 0 the maximum is at α = 0.2487, for β = 0.25 at 0.2441 and β = 0.33 at 0.2427. This means that irrespective of a possible asymmetry between equator and polar regions the temperature difference between the two remains firmly at about half the difference Θe – Θp, but that the centre of the range shifts according to the value of β

Link: https://wattsupwiththat.com/2020/12/21/of-warm-poles-and-cold-tropics/