1

Widerlegung der Wissenschafts-Aussage der Geological Society of London zum Klimawandel

Interessanterweise enthält das Papier diesen Haftungsausschluss:

Datenverfügbarkeit
Datenfreigabe ist für diesen Artikel nicht anwendbar, da während der aktuellen Studie keine Datensätze generiert oder analysiert wurden.

Wissenschaftliche Stellungnahme der Geological Society of London

Die Autoren stellen viele Behauptungen auf, bieten aber wenig unterstützendes Material an. Es wimmelt von Übertreibungen und zumindest ein paar internen Widersprüchen. Das Konzept der Langzeitbetrachtung und der Verlust der [zeitlichen] Auflösung in der geologischen Aufzeichnung im Vergleich zu modernen instrumentellen Beobachtungen scheint völlig zu fehlen.

Atmosphärisches CO2

Beobachtungen aus der geologischen Aufzeichnung zeigen, dass die atmosphärischen CO2-Konzentrationen jetzt auf dem höchsten Stand seit mindestens 3 Millionen Jahren sind.
Wissenschaftliche Erklärung der Geological Society of London

Dies ist sehr wahrscheinlich wahr. Die atmosphärischen CO2-Konzentrationen könnten sogar jetzt auf dem höchsten Stand der letzten 12 Millionen Jahre sein.

Abbildung 1. Neogen-Quartär Temperatur und Kohlendioxid (älter ist nach links). (WUWT)

Die geologische Aufzeichnung von atmosphärischem CO2 ist höchst unsicher, und wird immer unsicherer, je weiter wir in der Zeit zurückgehen. Diese Passage aus Evolution of the Earth (1976) ist heute genauso wahr wie damals, als wir Geologiestudenten im Pleistozän waren…

Leider können wir die Veränderungen des CO2-Gehalts in der Vergangenheit weder in der Atmosphäre noch in den Ozeanen genau abschätzen, und es gibt auch keine solide quantitative Grundlage für die Abschätzung des Ausmaßes des Rückgangs des Kohlendioxidgehalts, der notwendig ist, um eine Vergletscherung auszulösen. Außerdem ist das gesamte Konzept des atmosphärischen Treibhauseffekts umstritten, denn die Geschwindigkeit des Ausgleichs zwischen Ozean und Atmosphäre ist unsicher.

Dott & Batten, 1976

Obwohl sich die Verfahren zur Schätzung vergangener atmosphärischer CO2-Konzentrationen seit den 1970er Jahren verbessert haben, können wir nicht einmal sicher sein, dass die atmosphärische CO2-Konzentration während des viel wärmeren Klimatischen Optimums im Mittel-Miozän im Vergleich zu den extrem niedrigen Werten des Quartärs signifikant erhöht war.

Darüber hinaus ist die derzeitige Geschwindigkeit der vom Menschen verursachten CO2-Veränderung und Erwärmung fast ohne Beispiel in der gesamten geologischen Aufzeichnung, mit der einzigen bekannten Ausnahme des augenblicklichen, durch Meteoriten verursachten Ereignisses, das das Aussterben der nicht vogelartigen Dinosaurier vor 66 Millionen Jahren verursachte.

Wissenschaftliche Stellungnahme der Geological Society of London

Jeffrey Severinghaus und Kollegen wären über diese Aussage sehr überrascht. Sie zeigten, dass zu Beginn des Holozäns, vor etwa 11.700 Jahren, die Temperaturen der nördlichen Hemisphäre innerhalb weniger Jahrzehnte um „5 – 10ºC“ anstiegen (Severinghaus, Sowers, Brook, Alley, & Bender, 1998).

In Bezug auf CO2 ist dies möglich. Es gibt keine geologischen Aufzeichnungen von CO2-Änderungen, die eine ausreichende Auflösung haben, um diese Behauptung mit einem gewissen Grad an Sicherheit aufzustellen. Die einzige Ausnahme wären die Law-Dome-Eisbohrkerne in der Antarktis, die nur etwa 2.000 Jahre zurückreichen. Die mangelnde Auflösung der CO2– und Temperaturschätzungen der vorindustriellen Ära schränkt Vergleiche der geologischen Geschichte mit der Neuzeit stark ein.

Dieser zusammengesetzte Eisbohrkern-CO2-Datensatz (0-800 kyr BP) von Bereiter et al. (2014) scheint einen sehr überzeugenden Hockeystick zu zeigen:

Abbildung 2: Komposit der CO2-Aufzeichnung (0 bis 800.000 Jahre vor heute) von Bereiter et al. (2014).

Das Komposit wurde aus folgenden Eisbohrkernen erstellt:

Diese Eisbohrkerne haben sehr unterschiedliche Auflösungen.  Petit et al., 1999 geben an, dass die CO2-Auflösung für Vostok 1.500 Jahre beträgt. Lüthi et al., 2008 schlagen eine CO2-Auflösung von etwa 500 Jahren für Dome C vor. Es scheint, dass der hochauflösende Law Dome DE08-Kern einfach an die älteren Eiskerne mit niedrigerer Frequenz angeklebt wurde.

Wendet man auf den DE08-Eiskern Glättungsfilter an, um die Auflösung der niedriger aufgelösten Eiskerne anzugleichen, erhält man ein deutlich anderes Bild:

Abbildung 3. Ein 500-Jahre-Glättungsfilter entfernt die Klinge des Hockeysticks vollständig.

Die Eiskerne mit niedrigerer Frequenz sind nicht in der Lage, CO2-Verschiebungen im Jahrhundertmaßstab aufzulösen. Als solche können sie nicht verwendet werden, um die Möglichkeit von kurzzeitigen Schwankungen auszuschließen, die mit dem Anstieg des atmosphärischen CO2 im Industriezeitalter während des frühen Holozäns und Pleistozäns vergleichbar sind. Und sie widersprechen damit nicht den Schlussfolgerungen von Wagner et al., 1999:

Im Gegensatz zu konventionellen Eisbohrkern-Schätzungen von 270 bis 280 ppmv [parts per million by volume] legt das Signal der Stomatafrequenz nahe, dass die Kohlendioxid-Konzentration im frühen Holozän deutlich über 300 ppmv lag.

(…)
Die meisten der holozänen Eiskernaufzeichnungen aus der Antarktis haben keine ausreichende zeitliche Auflösung.

(…)

Unsere Ergebnisse falsifizieren das Konzept von relativ stabilen holozänen CO2-Konzentrationen von 270 bis 280 ppmv bis zur industriellen Revolution. SI [stomatal index]-basierte CO2-Rekonstruktionen könnten sogar darauf hindeuten, dass während des frühen Holozäns atmosphärische CO2-Konzentrationen, die 300 ppmv betrugen, eher die Regel als die Ausnahme gewesen sein könnten.

Wagner et al. (1999)

Oder Wagner et al., 2004:

Die Mehrheit der auf der Stomatafrequenz basierenden CO2-Schätzungen für das Holozän unterstützen nicht das weithin akzeptierte Konzept vergleichbar stabiler CO2-Konzentrationen während der letzten 11.500 Jahre. Um der Kritik zu begegnen, dass diese Stomata-Häufigkeitsschwankungen aus lokalen Umweltveränderungen oder methodischen Unzulänglichkeiten resultieren, wurden mehrere Stomata-Häufigkeitsaufzeichnungen für drei klimatische Schlüsselperioden während des Holozäns verglichen, nämlich die präboreale Oszillation, das 8.200 Jahre währende Abkühlungsereignis und die Kleine Eiszeit. Die hochgradig vergleichbaren Schwankungen in den paläoatmosphärischen CO2-Aufzeichnungen, die von verschiedenen Kontinenten und Pflanzenarten (sommergrüne Angiospermen sowie Nadelbäume) unter Verwendung unterschiedlicher Kalibrierungsansätze gewonnen wurden, liefern einen starken Beweis für die Integrität der blattbasierten CO2-Quantifizierung.

Wagner et al., 2004

Die GSL-Autoren präsentierten auch einen starken Widerspruch:

Kurz gesagt: Während die atmosphärischen CO2-Konzentrationen in der geologischen Vergangenheit aufgrund natürlicher Prozesse stark schwankten und oft höher waren als heute, ist die derzeitige Rate der CO2– (und damit Temperatur-) Veränderungen beispiellos in fast der gesamten geologischen Vergangenheit.

Wissenschaftliche Stellungnahme der Geological Society of London

Sie behaupten, dass „die aktuelle Rate der CO2– (und damit Temperatur-)Änderung beispiellos ist in fast der gesamten geologischen Vergangenheit“, um dann wenig später zu sagen:

Angesichts der Aufzeichnung vergangener Klimaveränderungen (Abschnitt 1) ist das Ausmaß der jüngsten beobachteten Klimaveränderungen nicht ungewöhnlich.

Wissenschaftliche Stellungnahme der Geological Society of London

Der moderne Klimawandel ist angeblich sowohl beispiellos als auch „nicht ungewöhnlich“. Sie scheinen CO2 und Temperatur zu verwechseln. Obwohl sie miteinander verwandt sind, sind sie nicht austauschbar.

CO2 und Meeresspiegel

Sie stellen auch die Behauptung auf, dass die geologische Aufzeichnung eine Beziehung zwischen CO2 und Meeresspiegel zeigt.

Die geologischen Aufzeichnungen stimmen mit den Vorhersagen überein, dass das langfristige Ausmaß und die Geschwindigkeit des zukünftigen Meeresspiegelanstiegs sehr empfindlich auf zukünftige CO2-Emissionsszenarien reagieren und Intervalle mit sehr schnellem Anstieg enthalten können.

Wissenschaftliche Stellungnahme der Geological Society of London

Es gibt jedoch keine Beziehung zwischen CO2 und Meeresspiegel in den geologischen Aufzeichnungen:

Abbildung 4. Von links nach rechts: Verallgemeinerter Querschnitt entlang der nördlichen GOM-Region (Galloway et al., 2009), Ablagerungsphasen sind nummeriert. Relativer Meeresspiegel (Miller et al., 2005), atmosphärisches CO2 (Berner & Kothavala, 2001) und Temperaturanomalien (Royer et al., 2004). Bild.

William Galloway von der Jackson School of Geosciences an der University of Texas hat die Ablagerungsgeschichte der Golfküste/des Golfs von Mexiko in dieser Arbeit zusammengefasst…

Die Ablagerungsgeschichte kann in sieben Phasen verallgemeinert werden: (1) Mittel- bis spätjurassische Evaporit- und Karbonatablagerung in einem breiten, flachen, auf ein offenes Meer beschränkten Becken. (2) Spätjurassisch-frühkreidezeitliche sandreiche klastische Progradation von den nördlichen Rändern. (3) Spät-frühkreidezeitliche Entwicklung eines umrandeten Karbonat-Schelfs. (4) Spätkreidezeitliche gemischte klastische und karbonatische Aggradation der Kontinentalränder. (5) Wiederauflebende paläogene klastische Progradation und Auffüllung mit Schwerpunkt im NW-Becken. (6) Miozäne Progradation und Beckenfüllung mit Schwerpunkt im zentralen und nordöstlichen Golf. (7) Spätneogene klimatisch und eustatisch beeinflusste Progradation entlang des zentralen Golfrandes. Im Gegensatz zu dem breiten, progradierenden Sedimentkeil des nördlichen Golfs ist der Florida-Rand eine primär aggradierende Karbonatplattform.

Galloway, 2008.

[Linguee-Übersetzer. Anm. d. Übers.]

Abbildung 4 zeigt deutlich die Bedeutung von Klima, atmosphärischem CO2 und Meeresspiegelzyklen in der Ablagerungsgeschichte der US-Golfküste/des Golfs von Mexiko; aber keine Korrelation von CO2 und Meeresspiegel. Beachten Sie, dass die meisten der Ausgangsgesteinsformationen abgelagert wurden, als das atmosphärische CO2 über 1.000 ppm lag und die Erde wesentlich wärmer war als heute, was auf mehr pflanzliches Leben in den wärmeren, CO2-reichen Zeiten schließen lässt.

Die Temperatur- und CO2-Diagramme haben eine Auflösung von 10 Millionen Jahren; sie sind stark geglättet. Diese spezielle Temperatur-Rekonstruktion (Royer et al., 2004) beinhaltet eine pH-Anpassung, abgeleitet von CO2. Sie demonstriert eine relativ gute Korrelation zwischen CO2 und Temperatur auf einer geologischen Zeitskala. Ein Cross-Plot ergibt jedoch nur eine Gleichgewichts-Klimasensitivität (ECS) von etwa 1,28 °C.

Die moderne Erwärmungsperiode begann am Tiefpunkt der Kleinen Eiszeit (ca. 1600 n. Chr.), der kältesten Periode des Holozäns. Dies war 300 Jahre bevor das atmosphärische CO2 den vermuteten normalen vorindustriellen Bereich deutlich überschritt.

Abbildung 5. Temperaturrekonstruktion (Moberg et al., 2005) und Law Dome CO2 (MacFarling Meure et al., 2006)

Der moderne Anstieg des Meeresspiegels begann am Ende der Neoglazialzeit. Die Meeresspiegel-Rekonstruktion von Jevrejeva et al., 2014 (J14) zeigt, dass der Meeresspiegel in den frühen 1800er Jahren sank:

Abbildung 6: Rekonstruktion des Meeresspiegels aus Tiden-Aufzeichnungen (Jevrejeva et al. 2014). Der Geologenhammer soll die Größenordnung verdeutlichen.

Abbildung 7: Meeresspiegel im Vergleich zur CO2-Aufzeichnung und Temperatur

Klima-Sensitivität (ECS)

Der IPCC (2014) gab eine 66%ige Wahrscheinlichkeit an, dass der ECS-Wert zwischen 1,5 und 4,5°C liegt. …

Um ECS aus der geologischen Aufzeichnung abzuschätzen, werden quantitative gepaarte Aufzeichnungen von atmosphärischem CO2 und globaler Temperatur aus Proxies benötigt …

Viele Studien der geologischen Vergangenheit haben den kanonischen Bereich für ECS von 1,5-4,5°C unterstützt

Wissenschaftliche Stellungnahme der Geological Society of London

Die erste, im Charney-Report 1979 veröffentlichte moderne Schätzung des ECS lag bei 1,5 bis 4,5 Grad Celsius pro Verdoppelung des CO2. Mit anderen Worten, der „kanonische Bereich“ hat sich seit über 40 Jahren nicht verändert. Moderne empirische Schätzungen von ECS, basierend auf instrumentellen Daten, liegen zwischen 0,44 Grad C (Lindzen und Choi, 2011) und 1,6 (Lewis und Curry, 2018). Diese Schätzungen beruhen auf hochauflösenden CO2– und Temperaturdaten, was bei geologischen Schätzungen nicht der Fall ist.

Auch wenn die geologischen Schätzungen des ECS höher sein könnten – die GSL sagt, dass die geologischen Schätzungen im Bereich von 2,6 bis 3,9 Grad liegen – können wir uns mit der Genauigkeit oder Präzision dieser Schätzungen nicht anfreunden. Die Daten, insbesondere die CO2-Daten, sind zu schlecht.

Außerdem präsentieren die Autoren eine Karikatur, die scheinbar eine starke Korrelation von CO2 und Temperatur über das Känozoikum darstellt:

Abbildung 8. GLS känozoische Klimasensitivität (modifiziert nach Lear, et al., 2012). Bild.

Die GSL-Karikatur zeigt eine Klimasensitivität von fast 7°C pro CO2-Verdoppelung. Dies würde zu einer Erwärmung von etwa 3,5 °C seit Mitte der 1800er Jahre führen, die eindeutig nicht stattgefunden hat. Moderne hochauflösende instrumentelle Messungen ergeben eine viel geringere Klimasensitivität.

Parallelen i n den geologischen Aufzeichnungen

Die Autoren versuchen, aus den geologischen Aufzeichnungen Parallelen zum gegenwärtigen Klimawandel zu finden:

Im mittleren Pliozän (vor 3,3-3,1 Millionen Jahren) lagen die atmosphärischen CO2-Konzentrationen zwischen 389 (-8 bis +38) ppm und 331 (-11 bis +13) ppm (de la Vega et al. 2020), was höher ist als die vorindustriellen Werte von ca. 280 ppm und etwas niedriger als die heutigen Werte (ca. 407,4 ± 0,1 ppm im Jahr 2018). Die kontinentalen Konfigurationen der Erde, die Landerhebungen und die Bathymetrie der Ozeane waren alle ähnlich wie heute (Haywood et al. 2016). Das Pliozän war durch mehrere Intervalle gekennzeichnet, in denen das orbitale Forcing dem der Neuzeit ähnlich war und bietet uns daher ein nahes Analogon zum Klima unter modernen CO2-Konzentrationen (McClymont et al. 2020). Während dieses Intervalls waren die globalen Temperaturen ähnlich wie die für das Jahr 2100 vorhergesagten (+2,6 bis 4,8 °C im Vergleich zur vorindustriellen Zeit) unter einem Business-as-usual-Szenario (d. h. ohne den Versuch, die Emissionen zu verringern). Mehrere Arbeitslinien deuten auf Ähnlichkeiten zwischen der modellierten Ozeanzirkulation der Zukunft und derjenigen der Warmzeit des mittleren Pliozäns hin, mit einer schwächeren thermohalinen Zirkulation, die mit der Erwärmung und Schichtung des oberen Ozeans zusammenhängt, aber auch mit einem Rückgang der Eisschilde und des Meereises, einer polwärts gerichteten Verschiebung der terrestrischen Biome und einer schwächeren atmosphärischen Zirkulation (Haywood and Valdes 2004; Cheng et al. 2013; Corvec and Fletcher 2017; Fischer et al. 2018). Der pliozäne Meeresspiegel könnte bis zu 20 m über dem heutigen Wert gelegen haben und im Durchschnitt um 13 ± 5 m über die pliozänen Glazial-Interglazial-Zyklen variiert haben, in Verbindung mit Schwankungen in der Ausdehnung des antarktischen Eisschildes (Grant et al. 2019).

Geological Society of London Wissenschaftliche Stellungnahme

Während „die kontinentalen Konfigurationen der Erde, die Landerhebungen und die Bathymetrie der Ozeane“ während des Pliozäns der heutigen Zeit ähnlicher waren als in früheren Zeitabschnitten, war es im mittleren Pliozän aufgrund tektonischer Unterschiede deutlich wärmer als heute. Der Panama-Seeweg war noch offen und ermöglichte einen viel effizienteren Wärmetransport durch den Ozean. Signifikante Hebungsepisoden in den Rocky Mountains und im Himalaya während des Pleistozäns waren auch treibende Faktoren für die Abkühlung der Erde in den letzten 2 Millionen Jahren.

Die geologischen Aufzeichnungen informieren uns darüber, dass die großen klimatischen Verschiebungen des Känozoikums mit tektonischen Veränderungen korreliert waren.

Abbildung 9. Känozoisches Klima, Tektonik und Kohlenstoff-Isotopen-Exkursionen. (Zachos et al., 2001)

Die Temperaturen in Abbildung 9 wurden aus δ18O in benthischen Foraminiferen unter Verwendung eines Modells ohne Meereis abgeleitet. Salzgehalt und Eisvolumen haben einen Einfluss auf die Umrechnung. Diese Temperaturen sind nur auf das untere Tertiär, das Warmhausklima, anwendbar.

Diese Behauptung über das Pliozän als Präzedenzfall für den modernen Klimawandel ist offenkundig lächerlich:

Während dieses Intervalls waren die globalen Temperaturen ähnlich wie die für das Jahr 2100 vorhergesagten (+2,6 bis 4,8 °C im Vergleich zum vorindustriellen Zeitalter) unter einem Business-as-usual-Szenario (d. h. ohne den Versuch, die Emissionen zu verringern).

Wissenschaftliche Stellungnahme der Geologischen Gesellschaft von London

Sie betrachten RCP8.5 eindeutig als „business as usual“.

Abbildung 10: Szenarien der Klimamodelle Bild

[Bildinschrift: Klimamodelle beruhen auf Szenarien:

RCP-Szenarien werden herangezogen, um zu evaluieren, wie sich das zukünftige Klima unter verschiedenen unterschiedlichen Szenarien von Treibhausgas-Emissionen ändern könnte:

Das RCP2.5 entspricht im Wesentlichen dem „Green New Deal“-Szenario, welchem zufolge die Emissionen darauf begrenzt sind, einen zusätzlichen Strahlungsangtrieb von mehr als 2,5W/m² zu verhindern.

Das RCP4.5 ist ein Szenario starker Abschwächung, etwa durch relativ hohe Kohlenstoff-Steuern. Gemessene Temperaturen folgen derzeit dieser Trajektorie.

Das RCP6.0 ist ein Szenario geringer Abschwächung. Die Emissionen folgen allgemein dieser Trajekgtorie.

Das RCP8.5-Szenario ist ein dystopisches Szenario mit rapidem wirtschaftlichen Wachstum und nur geringen technologischen Fortschritten. Dies wird oftmals als „business as usual“ angesehen und ist die Quelle der meisten Katastrophen-Prophezeiungen.]

Betrachtet man jedoch die gesamte Bandbreite der Modell-Simulationen, wird klar, dass das Klima mehr dem RCP4.5 als dem RCP8.5 folgt.

Abbildung 11. Modelle vs. Beobachtungen. (modifiziert nach Climate Lab Book)

Selbst bei einer zusätzlichen Erwärmung von 0,5 bis 1,0 °C bis zum Ende dieses Jahrhunderts wird sich das Klima immer noch im Bereich der pleistozänen Zwischeneiszeitstadien befinden, also deutlich unter dem mittleren Pliozän.

Abbildung 12. SST in hohen Breiten (°C) aus benthischen Foramen δ18O (Zachos, et al., 2001) und HadSST3 (Hadley Centre / UEA CRU über www.woodfortrees.org) im gleichen Maßstab, gebunden an 1950 n. Chr.

Es kommt alles auf den Kontext und die Auflösung an

Beachten Sie, dass die Auflösung der δ18O-Temperaturrekonstruktion viel geringer ist als die der instrumentellen Aufzeichnung und das HadSST-Signal nicht auflösen würde. Noch einmal: Die geologische Aufzeichnung liefert ein allgemeines Bild des vergangenen Klimawandels, kann aber nicht direkt mit hochauflösenden instrumentellen Aufzeichnungen verglichen werden, ohne sie explizit in den Kontext zu setzen. Die moderne Erwärmung erscheint nur aufgrund der höheren Auflösung der instrumentellen Aufzeichnungen und ihrer Position am Ende der Zeitreihe anomal.

Ljungqvist (2010) hat das Problem durch den direkten Vergleich von instrumentellen Daten mit Proxy-Rekonstruktionen deutlich erklärt.

Die Amplitude der rekonstruierten Temperaturvariabilität auf hundertjährigen Zeitskalen überschreitet 0,6°C. Diese Rekonstruktion ist die erste, die eine ausgeprägte Römische Warmzeit von ca. 1-300 n. Chr. zeigt, die bis zum mittleren Temperaturniveau von 1961-1990 reicht, gefolgt von der Dunkelzeit-Kaltzeit von ca. 300-800 n. Chr. Die mittelalterliche Warmzeit wird ca. 800-1300 n. Chr. gesehen und die kleine Eiszeit ist ca. 1300-1900 n. Chr. deutlich sichtbar, gefolgt von einem raschen Temperaturanstieg im 20 Jahrhundert. Die höchsten Durchschnittstemperaturen in der Rekonstruktion werden in der Mitte bis zum Ende des zehnten Jahrhunderts angetroffen und die niedrigsten im späten siebzehnten Jahrhundert. Die dekadischen Mitteltemperaturen scheinen während wesentlicher Teile der Römischen Warmzeit und der Mittelalterlichen Warmzeit das Niveau der Mitteltemperatur von 1961-1990 erreicht oder überschritten zu haben. Die Temperatur der letzten zwei Jahrzehnte ist jedoch möglicherweise höher als während jeder früheren Zeit in den letzten zwei Jahrtausenden, obwohl dies nur in den instrumentellen Temperaturdaten und nicht in der Multi-Proxy-Rekonstruktion selbst zu sehen ist.

(…)

Die Proxy-Rekonstruktion selbst zeigt keine solch beispiellose Erwärmung, aber wir müssen bedenken, dass nur wenige der in der Rekonstruktion verwendeten Aufzeichnungen bis in die 1990er Jahre reichen. Nichtsdestotrotz wird eine sehr vorsichtige Interpretation des Niveaus der Erwärmung seit 1990 n. Chr. im Vergleich zu den Spitzenwerten der Erwärmung während der römischen Warmzeit und der mittelalterlichen Warmzeit dringend empfohlen.

(… )

Die Amplitude der hier rekonstruierten Temperaturvariabilität auf dekadischen bis hundertjährigen Zeitskalen sollte vermutlich als das Minimum der wahren Variabilität auf diesen Zeitskalen betrachtet werden.

Ljungqvist, 2010

Direkte Vergleiche der modernen instrumentellen Aufzeichnung mit den älteren Proxy-Rekonstruktionen sind nicht robust, weil die Proxy-Daten eine viel geringere Auflösung haben. Die Proxydaten zeigen das „Minimum der wahren Variabilität auf diesen Zeitskalen.“ Die Instrumenten-Daten bilden etwas ab, das näher an der tatsächlichen Variabilität liegt.

Den Proxydaten fehlt die Hochfrequenz-Komponente des Signals. Wenn die Hochfrequenz-Komponente eines Signals herausgefiltert wird, schwächt dies die Amplitude ab. Das ist grundlegende Signaltheorie:

Abbildung 13. Sinuswelle mit 100-pt-Glättungs-Mittelwert angewendet. Beachten Sie die Reduktion der Amplitude aufgrund von Filterung und Glättung. (Wood for Trees) Der Ältere ist nach links gerichtet.

Der direkte Vergleich von Instrumentaldaten mit Proxydaten wird noch problematischer, wenn die Aufzeichnungslänge über 2.000 Jahre hinaus verlängert wird:

Abbildung 14. Holozäne Klima-Rekonstruktion, Andy May. Älter ist links.

Die vermeintlich „vier wärmsten Jahre seit Beginn der Aufzeichnungen“ sind nur etwa 300 Jahre nach dem kältesten Jahrhundert der letzten 100 Jahrhunderte aufgetreten.  Dies könnte nur von jemandem als „Klimakrise“ oder „Klimanotstand“ bezeichnet werden, der sich mit den wissenschaftlichen Grundlagen der Quartärgeologie und der Signalverarbeitung nicht auskennt.

Je länger die Datensatzlänge der Rekonstruktion, desto wichtiger wird die Konsistenz der zeitlichen Auflösung.

„Konsistenz der zeitlichen Auflösung“ bedeutet, dass die Auflösung der älteren Proxies mit den jüngeren Proxies konsistent ist. Die zeitliche Auflösung ist eine Funktion des Stichprobenintervalls…

Wir glauben, dass die größere Fehlerquelle in diesen Rekonstruktionen in der Auswahl der Proxies liegt. Wie in dieser Serie dokumentiert, sind einige der ursprünglichen 73 Proxies von Auflösungsproblemen betroffen, die bedeutende klimatische Ereignisse verbergen, und einige sind von lokalen Bedingungen betroffen, die keine regionale oder globale Bedeutung haben. Andere decken kurze Zeitspannen ab, die die beiden wichtigsten klimatischen Merkmale des Holozäns, die Kleine Eiszeit und das Holozäne Klimaoptimum, nicht abdecken.

(…)
Wir haben auch Proxies mit langen Stichprobenintervallen (größer als 130 Jahre) vermieden, weil sie dazu neigen, die Auflösung der Rekonstruktion zu verringern und wichtige Details abzuschwächen („auszugleichen“). Der kleinste Klimazyklus beträgt etwa 61 bis 64 Jahre, die sogenannte „Stadionwelle“, und wir wollen versuchen, ihrem Einfluss nahe zu kommen. In dieser einfachen Rekonstruktion haben wir versucht, diese Probleme zu berücksichtigen.

Andy May WUWT.

Für zusätzliche Lektüre zur Auflösung, siehe: Auflösung und Hockeyschläger, Teil 1.

Diskussion

Während geologische Daten bei der Untersuchung des Klimas sehr hilfreich sind, wie die GSL sagt, wird die Interpretation der Bedeutung des modernen Klimawandels wahrscheinlich nicht von geologischem Input profitieren. Die Erwärmung über das 20. Jahrhundert beträgt nur etwa ein Grad und die Erwärmung seit 1950, die vom IPCC als Richtwert verwendet wird, beträgt nur etwa 0,7 Grad. Die geologischen Zeiträume sind größer als 1.000 Jahre, wie das GSL-Papier feststellt, und die daraus folgenden Erwärmungs- und Abkühlungsereignisse in der geologischen Aufzeichnung sind größer als fünf Grad. Die geologischen Daten, die wir haben, sind sehr niedrig aufgelöst und werden sich wahrscheinlich nicht verbessern. Das Hauptproblem ist, dass die jüngste Erwärmung auf einer geologischen Skala unbedeutend ist.

[Hervorhebung vom Übersetzer]

Wie oben beschrieben, sind die CO2-Daten niedriger aufgelöst und weniger genau als die Temperaturdaten. Wir haben gesehen, dass der Vergleich von Temperatur-Proxydaten über die letzten 2.000 Jahre mit modernen instrumentellen Daten unangemessen ist, und es ist noch weniger angemessen, geologische Daten mit der modernen instrumentellen Aufzeichnung zu vergleichen. Weder das Ausmaß der jüngsten Erwärmung noch die jüngsten CO2-Konzentrationsänderungen sind über geologische Zeiträume hinweg ungewöhnlich.

Geowissenschaftler haben die Verantwortung, den geologischen Kontext des Klimawandels zu vermitteln, anstatt zu behaupten, dass jede Beobachtung, die nicht in der geologischen Aufzeichnung auflösbar ist, beispiellos und Grund für eine wirtschaftlich zerstörerische Regierungspolitik ist. Es sollte ausreichen zu sagen, dass die anthropogenen CO2-Emissionen wahrscheinlich die Ursache für den größten Teil des Anstiegs von ~280-400 ppm in den letzten 200 Jahren sind und dass dies einen Netto-Erwärmungseffekt auf die Atmosphäre hat. Obwohl so ziemlich jede aktuelle, auf Beobachtungen basierende Schätzung darauf hinweist, dass der Erwärmungseffekt minimal ist.

Obwohl es keinen „Klimanotstand“ gibt, existieren wirtschaftlich gangbare Wege, um die Kohlenstoffintensität unserer Energieproduktion zu reduzieren und das endgültige Wachstum des atmosphärischen CO2 auf ~600 ppm bis zum Ende dieses Jahrhunderts zu begrenzen. Dies würde uns im „Rauschpegel“ des Känozoikums halten.

Abbildung 15a. Marines pCO2 (Foram-Bor δ11B, Alkenon δ13C), atmosphärisches CO2 aus Pflanzenstomata (grüne und gelbe Rauten mit roten Umrissen), instrumentelles CO2 vom Mauna Loa (dicke rote Linie) und känozoische Temperaturänderung aus benthischen Foram δ18O (hellgraue Linie).

Abbildung 15b. Legende zu Abbildung 15a.

Anstatt Fristen für „Netto-Null-Emissionen“ und andere unerreichbare und willkürliche Kriterien festzulegen, sollte der Schwerpunkt auf der Reduktion der Kohlenstoffintensität der Energieerzeugung auf wirtschaftlich nachhaltige Weise liegen. Die Vereinigten Staaten haben dies, größtenteils durch unseren privaten Sektor, bereits getan. Die CO2-Emissionen bei der Stromerzeugung in den USA sind auf das Niveau der 1980er Jahre gesunken, was vor allem auf den Ersatz von Kohle- durch Erdgas-Strom zurückzuführen ist.

Abbildung 16. Quelle: U.S. Energy Information Administration, Monthly Energy Review

Geowissenschaftler werden in diesem Prozess eine entscheidende Rolle spielen, indem sie weiterhin wirtschaftlich förderbare Öl- und Gasreserven finden, die Methoden der geologischen Kohlenstoffabscheidung und -speicherung verbessern, den Weg für die Erweiterung unseres Zugangs zu der riesigen Bandbreite an mineralischen Ressourcen ebnen, die für den Ausbau der „erneuerbaren Energien“ (Wind und Sonne), Batterie- und andere Speichertechnologien benötigt werden, und die sichere geologische Entsorgung von nuklearen Abfallprodukten fördern, und all dies auf die sicherste Art und Weise, mit so wenig Umweltbelastung wie möglich. Wirtschafts-Geowissenschaftler in den Bereichen Öl & Gas und Mineralien sind aufgrund ihrer Erfahrung mit der Projektökonomie besonders gut positioniert, um den Weg zu weisen.

Energie, Wirtschaft und Umwelt sind untrennbar miteinander verbunden. Ohne erschwingliche, zuverlässige Energie kann eine Gesellschaft nicht die wirtschaftlichen Mittel haben, die Umwelt zu schützen. Nichts korreliert stärker mit menschlichem Wohlstand und einer sauberen Umwelt als der billige Zugang zu Energie (May, Climate Catastrophe! Science or Science Fiction?, 2018, S. 7, 18). Für eine Diskussion über Energie und Armut siehe hier.

[Hervorhebung vom Übersetzer]

Der texanische Staatsgeologe und Direktor des Bureau of Economic Geology Scott Tinker hat es in diesem Editorial über Kohlenstoff-Bepreisung sehr gut zusammengefasst:

Kohlenstoff-Bepreisung ist kein Allheilmittel für Klimawandel

Scott Tinker, 23. August 2019

Heute wird viel über die Bepreisung von Kohlendioxid gesprochen, um die CO2-Emissionen zu reduzieren und den Klimawandel zu bekämpfen. Anders als viele Umweltschadstoffe, die eine lokale oder regionale Auswirkung haben, ist Kohlendioxid (CO2) global – es gibt nur eine Atmosphäre. Wenn Maßnahmen zur Reduzierung der atmosphärischen Emissionen in einer Region zu erhöhten Emissionen an anderer Stelle führen, dann gilt das für die gesamte Atmosphäre.

Eine Form der Kohlenstoff-Bepreisung – -steuer, -handel, -gutschriften – wird von vielen Politikern, NGOs, Akademikern und sogar einigen in der Industrie favorisiert. Aber die Realität ist, dass ein Preis für Kohlenstoff von den Entwicklungs- und Schwellenländern nicht durchgesetzt werden wird, weil er ihre Energie teurer macht, und sie zu sehr damit beschäftigt sind, ihre Wirtschaft aufzubauen und sich aus der Armut zu befreien.

In den Industrieländern verteuert die Bepreisung von Kohlenstoff die Herstellung und die Produkte, was wiederum die Produktion in die Entwicklungsländer treibt, wo sie aufgrund niedrigerer Arbeitskosten und weniger strenger Umweltvorschriften und Emissionsstandards günstiger ist. Die globalen Emissionen steigen in der einen gesamten Atmosphäre.

Anders ausgedrückt: Die guten Absichten der Kohlenstoffbepreisung haben einen unbeabsichtigten negativen Einfluss auf den Klimawandel. Dies ist nicht hypothetisch. Es ist Realität.

Wenn die Kohlenstoff-Bepreisung nicht funktioniert, was dann? Die Energiewissenschaft sagt uns, wie wir die CO2-Emissionen in die Atmosphäre in dem erforderlichen Zeitrahmen tatsächlich senken können. Leider scheinen diejenigen, die den Klimawandel am leidenschaftlichsten angehen wollen, die Antworten der Energieexperten nicht zu mögen.

(…)

Welche Optionen mit großem Einfluss auf den Klimawandel schlagen also die Energiewissenschaftler vor?

Erdgas und Kernenergie als Ersatz für Kohle bei der Stromerzeugung in großen Entwicklungsländern wie Indien, China und Vietnam würden einen großen Einfluss haben. Kohlenstoffabscheidung, -nutzung und -speicherung, direkte Kohlenstoffabscheidung aus der Atmosphäre und vielleicht naturbasierte Lösungen wie die Vergrößerung der Wälder würden helfen, besonders in Regionen, die fossile Brennstoffe produzieren, wie die USA, Russland, China und der Nahe Osten.

(…)

Diese wissenschaftlich fundierten und wirtschaftlich untermauerten Energielösungen stellen ein Problem dar. Viele werden von den Menschen, die am meisten über den Klimawandel besorgt sind, nicht favorisiert. Daher werben Politiker, die auf der Suche nach Wählerstimmen für das Klima sind, weiterhin leidenschaftlich für Programme und Maßnahmen, die den Klimawandel nicht wirklich bekämpfen.

Aber wir haben eine bemerkenswerte Gelegenheit. Die Rechte kann die Notwendigkeit anerkennen, den Klimawandel zu bekämpfen. Die Linke kann die Energiewissenschaft anerkennen, die notwendig ist, um eine echte globale Reduktion der Emissionen in die Atmosphäre zu erreichen. Und die Entwicklungs- und Schwellenländer können sich weiter aus der Energiearmut befreien.

Leider scheint dies noch lange nicht der Fall zu sein. Klimapolitik scheint in Europa und den USA Energielösungen zu übertrumpfen, und die Entwicklungsländer verbrennen weiterhin Kohle.

Scott Tinker ist der Allday-Stiftungslehrstuhl für Untergrundgeologie und Direktor des Bureau of Economic Geology an der University of Texas in Austin.

UT News

Sollte der Klimawandel wirklich ein Problem sein, können wir ihn nur angehen, wenn wir wirtschaftlich tragfähige Wege verfolgen, die den Zugang zu erschwinglicher, zuverlässiger Energie bewahren und den weiteren Ausbau des menschlichen Wohlstands ermöglichen. Und der private Sektor ist weitaus besser darin, dies zu tun als jede Regierung.

AZ Quotes

Milton Friedman: „Die regierungsamtliche Lösung eines Problems ist normalerweise genauso schlimm wie das Problem selbst“.

References

Bereiter, Bernhard.  Sarah Eggleston, Jochen Schmitt, Christoph Nehrbass-Ahles, Thomas F. Stocker, Hubertus Fischer, Sepp Kipfstuhl and Jerome Chappellaz. 2015. Revision of the EPICA Dome C CO2 record from 800 to 600 kyr before present. Geophysical Research Letters. . doi: 10.1002/2014GL061957. LINK

Bereiter et al. (2014), Revision of the EPICA Dome C CO2 record from 800 to 600 kyr before present, Geophysical Research Letters, doi: 10.1002/2014GL061957.  Data

Berner, R.A. and Z. Kothavala, 2001. GEOCARB III: A Revised Model of Atmospheric CO2 over Phanerozoic Time, American Journal of Science, v.301, pp.182-204, February 2001.

Charney, J., Arakawa, A., Baker, D., Bolin, B., Dickinson, R., Goody, R., . . . Wunsch, C. (1979). Carbon Dioxide and Climate: A Scientific Assessment. National Research Council. Washington DC: National Academies Press. Doi: https://doi.org/10.17226/12181

Dott, Robert H. & Roger L. Batten.  Evolution of the Earth.  McGraw-Hill, Inc.  Second Edition 1976.  p. 441.

Galloway, William. (2008). “Chapter 15 Depositional Evolution of the Gulf of Mexico Sedimentary Basin”. Volume 5: Ed. Andrew D. Miall, The Sedimentary Basins of the United States and Canada., ISBN: 978-0-444-50425-8, Elsevier B.V., pp. 505-549.

Jevrejeva, S., J. C. Moore, A. Grinsted, and P. L. Woodworth (2008). “Recent global sea level acceleration started over 200 years ago?”. Geophys. Res. Lett., 35, L08715, doi:10.1029/2008GL033611.

Jevrejeva, S. , J.C. Moore, A. Grinsted, A.P. Matthews, G. Spada. 2014.  “Trends and acceleration in global and regional sea levels since 1807”.  Global and Planetary Change. %vol 113, 10.1016/j.gloplacha.2013.12.004 https://www.psmsl.org/products/reconstructions/jevrejevaetal2014.php

Lear, Caroline H., Pallavi Anand, Tom Blenkinsop, Gavin L. Foster, Mary Gagen, Babette Hoogakker, Robert D. Larter, Daniel J. Lunt, I. Nicholas McCave, Erin McClymont, Richard D. Pancost, Rosalind E.M. Rickaby, David M. Schultz, Colin Summerhayes, Charles J.R. Williams and Jan Zalasiewicz. Geological Society of London Scientific Statement: what the geological record tells us about our present and future climate.
Journal of the Geological Society, 178, jgs2020-239, 28 December 2020, https://doi.org/10.1144/jgs2020-239

Lewis, N., & Curry, J. (2018, April 23). The impact of recent forcing and ocean heat uptake data on estimates of climate sensitivity. Journal of Climate. Retrieved from https://journals.ametsoc.org/doi/10.1175/JCLI-D-17-0667.1

Lindzen, R., & Choi, Y.-S. (2011, August 28). On the Observational Determination of Climate Sensitivity and Implications. Asia-Pacific Journal of Atmospheric Sciences, 47(377). Retrieved from https://link.springer.com/article/10.1007/s13143-011-0023-x#citeas

Ljungqvist, F.C. 2010. “A new reconstruction of temperature variability in the extra-tropical Northern Hemisphere during the last two millennia”. Geografiska Annaler: Physical Geography, Vol. 92 A(3), pp. 339-351, September 2010. DOI: 10.1111/j.1468-459.2010.00399.x

MacFarling-Meure, C., D. Etheridge, C. Trudinger, P. Steele, R. Langenfelds, T. van Ommen, A. Smith, and J. Elkins (2006). “Law Dome CO2, CH4 and N2O ice core records extended to 2000 years BP“. Geophys. Res. Lett., 33, L14810, doi:10.1029/2006GL026152.

May, Andy. Climate Catastrophe! Science or Science Fiction? American Freedom Publications LLC, 2018.

Miller, Kenneth & Kominz, Michelle & V Browning, James & Wright, James & Mountain, Gregory & E Katz, Miriam & J Sugarman, Peter & Cramer, Benjamin & Christie-Blick, Nicholas & Pekar, S. (2005). “The Phanerozoic Record of Global Sea-Level Change”. Science (New York, N.Y.). 310. 1293-8. 10.1126/science.1116412.

Moberg, A., D.M. Sonechkin, K. Holmgren, N.M. Datsenko and W. Karlén. 2005.  “Highly variable Northern Hemisphere temperatures reconstructed from low- and high-resolution proxy data”. Nature, Vol. 433, No. 7026, pp. 613-617, 10 February 2005.

Nerem,  R. S.,  B. D. Beckley, J. T. Fasullo, B. D. Hamlington, D. Masters, G. T. Mitchum. “Climate-change–driven accelerated sea-level rise”. Proceedings of the National Academy of Sciences. Feb 2018, 115 (9) 2022-2025; DOI: 10.1073/pnas.1717312115

Pagani, Mark, Michael Arthur & Katherine Freeman. (1999). “Miocene evolution of atmospheric carbon dioxide”. Paleoceanography. 14. 273-292. 10.1029/1999PA900006.

Royer, D. L., R. A. Berner, I. P. Montanez, N. J. Tabor and D. J. Beerling. “CO2 as a primary driver of Phanerozoic climate”.  GSA Today, Vol. 14, No. 3. (2004), pp. 4-10

Severinghaus, J. P., Sowers, T., Brook, E. J., Alley, R. B., & Bender, M. L. (1998, January 8). Timing of abrupt climate change at the end of the Younger Dryas interval from thermally fractionated gases in polar ice. Nature, 391, pp. 141-146. Retrieved from http://shadow.eas.gatech.edu/~jean/paleo/Severinghaus_1998.pdf

Terando, A., Reidmiller, D., Hostetler, S.W., Littell, J.S., Beard, T.D., Jr., Weiskopf, S.R., Belnap, J., and Plumlee, G.S., 2020, Using information from global climate models to inform policymaking—The role of the U.S. Geological Survey: U.S. Geological Survey Open-File Report 2020–1058, 25 p., https://doi.org/10.3133/ofr20201058.

Tripati, A.K., C.D. Roberts, and R.A. Eagle. 2009.  “Coupling of CO2 and Ice Sheet Stability Over Major Climate Transitions of the Last 20 Million Years”.  Science, Vol. 326, pp. 1394 1397, 4 December 2009.  DOI: 10.1126/science.1178296

Wagner F, et al., 1999. Century-scale shifts in Early Holocene CO2 concentration. Science 284:1971–1973.

Wagner F, Kouwenberg LLR, van Hoof TB, Visscher H, 2004. Reproducibility of Holocene atmospheric CO2 records based on stomatal frequency. Quat Sci Rev 23:1947–1954.  LINK

Zachos, J. C., Pagani, M., Sloan, L. C., Thomas, E. & Billups, K. “Trends, rhythms, and aberrations in global climate 65 Ma to present”. Science 292, 686–-693 (2001).

Link: https://wattsupwiththat.com/2021/01/13/may-middleton-rebuttal-to-geological-society-of-london-scientific-statement-on-climate-change/

Übersetzt von Chris Frey EIKE




Biden könnte dabei helfen, die Bergbau-Tragödie in Entwicklungs­ländern zu lindern

Bidens „Krieg gegen die Umweltverschmutzung“ erfordert eine weltweite Transparenz der Lieferketten sowie Umwelt- und Arbeitsschutzgesetze und -standards, um die Umweltzerstörung und die Gräueltaten an der Menschheit zu kontrollieren, die auf der ganzen Welt durch den Bergbau in den fernen Ländern entstehen, die die Lieferkette der exotischen Mineralien und Metalle zur Herstellung von Windturbinen, Solarzellen und EV-Batterien dominieren.

Die dunkle Seite der erneuerbaren Wind-, Solar-, EV-Batterien und Biokraftstoff-Energie ist, dass sie nicht sauber, grün, erneuerbar oder nachhaltig sind. Sie sind entsetzlich zerstörerisch für die lebenswichtigen ökologischen Werte in fremden Ländern, die noch für Generationen bestehen werden.

[Hervorhebung vom Übersetzer]

Am Ende des Lebenszyklus von Windturbinen, Solarmodulen und EV-Batterien hat Biden die Möglichkeit, Stilllegungs-, Wiederherstellungs- und Recycling-Standards in fremden Ländern bis zum letzten Löwenzahn anzustreben, so wie wir es für stillgelegte Minen, Öl- oder Atomanlagen in Amerika haben.

Der Klimawandel bleibt eine der größten Bedrohungen für die Integrität des Lebens auf der Erde [?]. Aber wir brauchen unbedingt ein Mitgefühl für den Kompromiss, fossile Brennstoffe zu schnell zu eliminieren, weil sich dadurch der Tod von jährlich 11 Millionen Kindern weltweit fortsetzen dürfte. Diese Todesfälle sind auf vermeidbare Ursachen wie Durchfall, Malaria, Infektionen bei Neugeborenen, Lungenentzündungen, Frühgeburten oder Sauerstoffmangel bei der Geburt zurückzuführen, da viele Entwicklungsländer keinen oder nur minimalen Zugang zu den Tausenden von Produkten aus Erdölderivaten haben, deren sich die wohlhabenden und gesunden Länder erfreuen.

Biden kann der Welt die Notwendigkeit vermitteln zu begreifen, dass Energie mehr ist als intermittierende Elektrizität aus Wind und Sonne. Seit der Entdeckung der Vielseitigkeit der Produkte, die aus Erdölderivaten hergestellt werden können, und dem Beginn der Herstellung und Montage von Autos, Lastwagen, Flugzeugen und militärischer Ausrüstung in den frühen 1900er Jahren hatte die Welt fast 200 Jahre Zeit, etwas zu entwickeln, um die Erdölderivate zu ersetzen, welche die Grundlage für mehr als 6.000 Produkte bilden, die die Basis für den Lebensstil und Volkswirtschaften auf der ganzen Welt sind.

Die sozialen Bedürfnisse unserer materialistischen Gesellschaften, sowohl in den USA als auch weltweit, werden höchstwahrscheinlich weiterhin nach kontinuierlicher, unterbrechungsfreier und zuverlässiger Elektrizität aus Kohle, Erdgas oder Kernenergie als Backup für die intermittierenden erneuerbaren Energien und für all die chemischen Derivate verlangen, die aus Erdöl hergestellt werden und aus denen alles besteht, was Teil unseres täglichen Lebensstils und unserer Wirtschaft ist.

Der Schlüssel zu Reichtum und Wohlstand ist der kontinuierliche Zugang zu den Tausenden von Produkten, die aus Erdölderivaten hergestellt werden, sowie zu zuverlässiger, kontinuierlicher, unterbrechungsfreier und bezahlbarer Elektrizität. Die „unzuverlässigen“ Quellen Wind und Solar bedrohen sowohl Reichtum als auch Wohlstand.

In Amerika leben nur etwa vier Prozent der Weltbevölkerung (330 Millionen vs. 8 Milliarden). Biden weiß, dass Öl und Gas nicht nur ein amerikanisches Geschäft mit seinen 135 Raffinerien in den USA ist, sondern eine internationale Industrie mit mehr als 700 Raffinerien weltweit, die den Bedarf der 8 Milliarden Menschen auf der Erde bedienen.

Die unbeabsichtigte Folge von Bidens Ziel, bis 2050 in Amerika keine fossilen Brennstoffe mehr zu verwenden, wird sein, dass die Brennstoffe und Produkte aus dem Ausland importiert werden, wo die Umweltkontrollen wesentlich weniger streng sind. Dieser Plan kann zwar funktionieren, geht aber mit höheren Kosten für den amerikanischen Verbraucher einher und kann Amerika in ein nationales Sicherheitsrisiko mit erhöhter Abhängigkeit von ausländischen Ländern für die Produkte und Brennstoffe für Amerikas Wirtschaft setzen.

Biden muss das Rad nicht neu erfinden, indem er die Transparenz der weltweiten Umwelt- und Arbeitsgesetze einfordert, da die Handelsorganisation der Vereinten Nationen UNCTAD bereits einen Bericht herausgegeben hat, der einige der unbeabsichtigten negativen Folgen der grünen Bewegung oder der „Verlagerung“ von Emissionen ins Ausland aufschlüsselt, die sowohl ökologische Degradation als auch Menschenrechtsverletzungen umfassen.

Darüber hinaus hat Amnesty International dokumentiert, dass Kinder und Erwachsene Kobalt in engen, von Menschenhand geschaffenen Tunneln abbauen und die Exposition gegenüber den dabei freigesetzten gefährlichen Gasen, ganz zu schweigen von der Zerstörung der lokalen Ökosysteme, wenn das Abwasser und andere unbrauchbare Erze einfach in der Umgebung abgelagert werden. Sie haben keine andere Wahl, wenn sie überleben wollen, weil ihre Löhne so verschwindend gering sind. All dies sollte uns veranlassen, einen Schritt zurückzutreten und unsere moralischen Verpflichtungen gegenüber diesem Teil der Menschheit zu überprüfen.

[Hervorhebung vom Übersetzer]

Amerika könnte den nachhaltigen Bergbau in diesen Entwicklungsländern fördern, indem es das Land nach der Schließung der Mine zu einem gesunden Ökosystem zurückführt und den umliegenden Gemeinden mehr Wohlstand, Bildung, Gesundheitsversorgung und Infrastruktur hinterlässt, als sie vor der Inbetriebnahme der Mine hatten. Wie der Bergbau in Amerika muss auch der Bergbau in Entwicklungsländern das Ziel der sozialen Verantwortung von Unternehmen und das Ergebnis der erfolgreichen ökologischen Wiederherstellung von Landschaften sein.

Amerikas Leidenschaft für grünen Strom zur Reduzierung von Emissionen muss ethisch sein und sollte nicht von Menschenrechts- und Umweltverletzungen in den fremden Ländern leben, die die exotischen Mineralien und Metalle zur Unterstützung von Amerikas grüner Leidenschaft liefern.

Autor: Ronald Stein is an engineer who, drawing upon 25 years of project management and business development experience, launched PTS Advance in 1995. He is an author, engineer, and energy expert who writes frequently on issues of energy and economics.

Link: https://www.cfact.org/2021/01/09/biden-should-help-clean-up-the-developing-worlds-exotic-mining-tragedy/

Übersetzt von Chris Frey EIKE

 




Deutsche Bank: Green Deal der EU kann nur mit einem „gewissen Maß Öko-Diktatur erfolgreich sein“

Eine von der Deutschen Bank veröffentlichte Analyse kritisiert scharf die „unehrliche Debatte“, mit der die EU den Menschen in Europa ihren „Green Deal“ verkauft. Die massiven Risiken des Projekts für den Wohlstand, das Wirtschaftssystem und die Demokratie selbst dürften nicht verschwiegen, sondern müssten offen angesprochen werden.

Eric Heymann, leitender Ökonom bei Deutsche Bank Research, warnt, dass mit dem Green Deal und dem Ziel der Klimaneutralität bis 2050 eine europäische Megakrise droht, die zu einem „spürbaren Verlust von Wohlstand und Arbeitsplätzen“ führen wird. Und er warnt: Ohne „ein gewisses Maß an Ökodiktatur“ wird es nicht funktionieren.

Der Analyst bezeichnet es als unseriös, dass der Green Deal flächendeckend als „neue Wachstumsstrategie“ angepriesen wird, die es der EU ermöglichen würde, eine „gerechte und wohlhabende Gesellschaft“ zu werden. Das mag zwar auf dem Papier gut aussehen, schreibt Heymann, doch um bis 2050 klimaneutral zu werden, müssten Europas Wirtschaft sowie das gesamte politische und rechtliche System grundlegend verändert werden.

Vorerst seien die revolutionären Folgen der EU-Klimaagenda für den Alltag „noch relativ abstrakt“ und für die meisten Haushalte „noch akzeptabel.“ Bald aber werde der Weg zur Klimaneutralität drastische Eingriffe in die Wahl der Verkehrsmittel, die Wohnungsgröße, die Heizungsart, den Besitz von elektronischen Konsumgütern sowie Einschränkungen beim Konsum von Fleisch und Südfrüchten erfordern.

Und er warnt, dass diese Einschränkungen und Eingriffe unweigerlich „massiven politischen Widerstand“ auslösen werden.

Einige Parteien werden Argumente gegen eine strikte Klimaschutzpolitik finden, wenn diese zu einer deutlichen Erhöhung der Energiepreise oder zu Einschränkungen der persönlichen Freiheit oder der Eigentumsrechte führt. Und machen wir uns nichts vor: Diese Parteien werden Wählerunterstützung finden. Auf EU-Ebene wird es große Verteilungskonflikte geben, die zu einer (weiteren) Spaltung des Blocks beitragen können. Sind wir bereit, mit dieser Polarisierung umzugehen?

Im Folgenden finden Sie Auszüge aus der Analyse von Eric Heymann (Deutsche Bank Research).

Klima-Neutralität: Sind wir bereit zu einer ehrlichen Diskussion?

(…)

Ein gewisses Maß von Öko-Diktatur wird erforderlich sein!

Die Auswirkungen der aktuellen Klimapolitik auf das Alltagsleben der Menschen sind für viele Haushalte noch recht abstrakt und akzeptabel. Klimapolitik kommt in Form von höheren Steuern und Abgaben auf Energie, die das Heizen und die Mobilität verteuern. Einige Länder haben Mindeststandards für die Energieeffizienz von Gebäuden oder ähnliche Regeln in anderen Bereichen festgelegt. Die Klimapolitik bestimmt aber nicht unser Leben. Wir treffen wichtige Konsumentscheidungen, zum Beispiel ob wir überhaupt reisen, wie viel wir reisen und welche Verkehrsmittel wir nutzen, ob wir in einem großen Haus oder einer kleinen Wohnung leben und wie wir heizen, wie viele elektronische Geräte wir haben und wie intensiv wir sie nutzen oder wie viel Fleisch und exotische Früchte wir essen. Diese Entscheidungen werden in der Regel auf der Basis unseres Einkommens getroffen, nicht auf der Basis von Klimaüberlegungen.

Wenn wir wirklich Klimaneutralität erreichen wollen, müssen wir unser Verhalten in all diesen Lebensbereichen ändern. Das liegt ganz einfach daran, dass es noch keine adäquaten kosteneffizienten Technologien gibt, die es uns ermöglichen, unseren Lebensstandard klimaneutral zu halten. Das bedeutet, dass die Kohlenstoffpreise erheblich steigen müssen, um die Menschen dazu zu bewegen, ihr Verhalten zu ändern. Eine andere (oder vielleicht ergänzende) Möglichkeit ist eine deutliche Verschärfung des Ordnungsrechts. Ich weiß, dass „Ökodiktatur“ ein böses Wort ist. Aber wir müssen uns vielleicht die Frage stellen, ob und inwieweit wir bereit sind, eine Art Ökodiktatur (in Form von Ordnungsrecht) zu akzeptieren, um uns in Richtung Klimaneutralität zu bewegen. Hier ein Beispiel: Was sollen wir tun, wenn Immobilienbesitzer ihre Häuser nicht zu Nullemissionsgebäuden machen wollen; wenn sie nicht die finanziellen Mittel dazu haben; wenn dies aus technischen Gründen nicht möglich ist oder wenn sich die damit verbundenen Investitionen nicht rechnen?

Verlust der Wettbewerbsfähigkeit oder Einschränkungen des freien Handels

Wenn sich die EU deutlich schneller in Richtung Klimaneutralität bewegt als der Rest der Welt, werden auch die Kohlenstoffpreise in der EU schneller steigen. Dies wird die Wettbewerbsfähigkeit energieintensiver Unternehmen in der EU verringern. Sind wir bereit, diesen Preis zu zahlen? Wahrscheinlich nicht – denken Sie daran, niemand soll zurückgelassen werden. Werden wir also diese Unternehmen subventionieren, damit sie teure, aber klimafreundliche Technologie einsetzen können? Diese Option wird auf lange Sicht aufgrund von Budgetbeschränkungen nur schwer umsetzbar sein. Eine ehrliche Diskussion wird sich mit der Wahrheit auseinandersetzen müssen, dass jeder Euro, der für den Klimaschutz ausgegeben wird, nicht mehr für Ausgaben für Bildung, Forschung, öffentliche Gesundheit, digitale Infrastruktur, innere und äußere Sicherheit, Steuersenkungen oder höhere Renten zur Verfügung steht. Um das Wettbewerbsproblem zu lösen, plant die EU-Kommission die Einführung eines CO2-Grenzausgleichs. Glauben wir wirklich, dass dies die betroffenen Länder nicht zu Gegenmaßnahmen veranlassen wird? Sind wir wirklich bereit, die Vorteile des Freihandels zu Gunsten des Klimaschutzes aufzugeben?

Massiver politischer Widerstand wird sich erheben

Niemand soll auf dem Weg zur Klimaneutralität zurückgelassen werden. Diese Aussage des Green Deals läuft wohl auf den Versuch der Quadratur des Kreises hinaus. Eine große Kehrtwende in der Klimapolitik wird mit Sicherheit Verlierer unter den Haushalten und Unternehmen produzieren. Darüber hinaus dürften Wohlstand und Beschäftigung erheblich leiden. Wäre dies nicht der Fall, wäre Klimaschutz ein leichtes Unterfangen. Diese Entwicklungen werden natürlich auch Auswirkungen auf die politische Landschaft haben, sowohl auf nationaler als auch auf EU-Ebene.

Einige Parteien werden Argumente gegen eine strikte Klimaschutzpolitik finden, wenn diese zu einem deutlichen Anstieg der Energiepreise oder zu Einschränkungen der persönlichen Freiheit oder der Eigentumsrechte führt. Und machen wir uns nichts vor: Diese Parteien werden Wählerunterstützung finden. Auf EU-Ebene wird es große Verteilungskonflikte geben, die zu einer (weiteren) Spaltung des Blocks beitragen können. Sind wir bereit, mit dieser Polarisierung umzugehen? Oder werden wir unsere klimapolitischen Ambitionen anpassen, wenn wir feststellen, dass eine (zu) ehrgeizige Klimapolitik von einer Mehrheit der Menschen nicht akzeptiert wird?

Die vollständige Analyse steht hier.

Link: https://www.thegwpf.com/deutsche-bank-eu-green-deal-can-only-succeed-with-a-certain-degree-of-eco-dictatorship/

Übersetzt von Chris Frey EIKE

—————————

Kommentar des Übersetzers hierzu: Der Autor dieser Studie ist Ökonom und weiß daher nicht viel mehr über die Klima-Problematik als andere Laien. Seine Gedanken zur Wirtschaft sind allerdings sehr fundiert. Wenn man sich jetzt noch vor Augen führt, dass dieses ganze Klima-„Problem“ gar nicht existent ist, dann wird der vom Autor beschriebene Wahnsinn noch potenziert. Die Frage ist, ob man Derartiges an relevanter politischer Stelle liest oder nicht, und wenn ja, ob man daraus Konsequenzen zieht. Der Übersetzer fürchtet: Nein! – C. F.




Tausendfacher Vogeltod durch Herbstkälte – Medien machen globale Erwärmung dafür verantwortlich

Im Frühherbst meldeten Menschen in Nebraska, Colorado, Texas, New Mexico und Arizona fast 10.000 Vögel – eine ungewöhnlich hohe Zahl – an die Datenbank der entsprechenden Behörde für Wildtier-Sterblichkeit. Wissenschaftler fanden heraus, dass es sich bei den meisten um Zugvögel handelte, die verhungert waren. Normalerweise ziehen die Vögel später im Jahr nach Süden, aber das frühe kalte Wetter im oberen Mittleren Westen [der USA, südlich und westlich der Großen Seen, Anm. d. Übers.] sowie in Kanada und Alaska veranlasste die Vögel, vor ihrer normalen Wanderung zu ziehen und bevor sie genügend Gewicht und Kraft für die Wanderung aufgebaut hatten.

„Es ist wirklich schwer, direkte Kausalität zuzuschreiben, aber angesichts der engen Korrelation des Wetterereignisses mit dem Tod dieser Vögel denken wir, dass entweder das Wetterereignis diese Vögel gezwungen hat loszufliegen, bevor sie bereit waren. Vielleicht hat dies auch ihren Zugang zu Nahrungsquellen während ihrer Migration beeinflusst,“ sagte Jonathan Sleeman, Direktor des USGS National Wildlife Health Center in Madison, Wisconsin, dem britischen Guardian.

Klimaaktivisten und ihre Verbündeten in den Medien hatten jedoch nichts Eiligeres zu tun als die globale Erwärmung für den kalten Frühherbst verantwortlich zu machen, der zu dem Vogelsterben führte.

„Das ungewöhnlich kalte Wetter in den nördlichen [US-]Staaten zu Beginn des Jahres verschlimmerte das Sterben ebenfalls und verursachte frühere Vogelwanderungen als üblich“, berichtete der NBC-Fernsehsender KPNX in Phoenix.

„Zwei Experten der Arizona State University sehen den Bericht als eine weitere Tragödie in den vielfältigen Problemen des Klimawandels, mit denen der Staat konfrontiert ist“, fügte KPNX hinzu.

Laut dem britischen Guardian wurde das Vogelsterben „durch untypisch kaltes Wetter verschlimmert, das wahrscheinlich mit der Klimakrise zusammenhängt, so die Wissenschaftler.“

Google News bewirbt den Guardian-Artikel unter seinen Top-Suchergebnissen heute unter „Klimawandel“.

Klimaaktivisten haben in der Vergangenheit versucht, sehr kalte Winter auf die globale Erwärmung zu schieben, aber kalte Herbste hatten sie bisher nicht auf dem Schirm ihrer globalen Erwärmung. In der Tat haben Klimaaktivisten zuvor genau das Gegenteil behauptet. Zum Beispiel veröffentlichte Yale Climate Communications im November 2019 einen Artikel mit dem Titel „How is climate change affecting autumn? Da die Temperaturen steigen, verzögert sich die Herbstsaison.“ Als weiteres Beispiel veröffentlichte Climate Communications einen Artikel mit dem Titel: „Autumn Falling Back.“ [Etwa: Herbst kommt immer später]. Das Thema dieser und vieler anderer Artikel ist, dass die globale Erwärmung das Einsetzen des kalten Herbstwetters verzögert, nicht beschleunigt.

Nein, Google News, die globale Erwärmung verursacht nicht den frühen Beginn des kalten Herbstes, auch wenn die niedrigen Temperaturen ein politisch nützliches Vogelsterben verursachen.

Autor: James Taylor is the President of the Heartland Institute. Taylor is also director of Heartland’s Arthur B. Robinson Center for Climate and Environmental Policy. Taylor is the former managing editor (2001-2014) of Environment & Climate News, a national monthly publication devoted to sound science and free-market environmentalism

Link: http://climaterealism.com/2021/01/cold-autumn-kills-thousands-of-birds-media-blame-global-warming/

Übersetzt von Chris Frey EIKE

 




China umarmt Kohle viel mehr als Wind

China nutzt Windkraft ein wenig, aber sie sind klug genug, sich davon nicht beirren zu lassen (im Gegensatz zu uns). Die erneuerbaren Energien treiben unsere Stromkosten in die Höhe, während China klugerweise im billigen Saft schwelgt.

Zur Veranschaulichung: Vor nicht allzu langer Zeit verbrannten die USA etwa eine Milliarde Tonnen Kohle pro Jahr, um Strom zu erzeugen. Wir erzeugten etwa 2.000 Terawattstunden (TWh) Strom aus Kohle, etwa die Hälfte unserer gesamten 4.000 TWh. Der törichte Krieg gegen die Kohle hat diese Menge auf etwa 600 Millionen Tonnen reduziert, wobei weitere Reduktionen geplant sind.

Durch einen seltsamen Zufall hörte genau zu der Zeit, als der Kohleverbrauch vor etwa 12 Jahren von Wachstum auf Schrumpfung umschaltete, auch Amerikas Stromverbrauch auf zuzunehmen. Seitdem ist er bei etwa 4.000 TWh geblieben. Vielleicht wurden neue energieintensive industrielle Entwicklungen alle von Amerika nach China verlagert, in Erwartung der folgenden US-Strompreiserhöhungen.

China hingegen erzeugt jetzt satte 7.500 TWh Strom, also knapp das Doppelte von Amerika. Richtig gelesen: sie produzieren fast doppelt so viel Strom wie wir.

Noch schlimmer ist, dass weniger als 25 % unseres Stroms für industrielle Zwecke verwendet wird, während in China angeblich 70 % des Stroms industriellen Zwecken dient. Das sind etwa 1.000 TWh in Amerika gegenüber 5.000 in China, also fünfmal so viel industrielle Nutzung von Strom. Kein Wunder, dass China die meisten der Produkte herstellt, die wir verwenden (und für die wir bezahlen).

Darüber hinaus wird der Großteil des Stromes in China mittels Kohle erzeugt. Von ihren 7.500 TWh werden etwa 5.000 TWh, also ganze zwei Drittel, mit billiger Kohle betrieben. Zufälligerweise entspricht das ihrem gesamten industriellen Verbrauch. Oder vielleicht ist es kein Zufall, sondern der Grund, warum sie in der Weltwirtschaft so wettbewerbsfähig bleiben.

Auf jeden Fall erzeugt China mehr Strom mit Kohle als Amerika aus allen Quellen zusammen. Das ist eine riesige Menge. Chinas boomende Wirtschaft läuft im Wesentlichen mit Kohle.

Wenn es um Windenergie geht, ist die Geschichte ganz anders. China verfügt über einen gewissen Anteil, nämlich etwa 400 TWH aus Windkraft, das sind etwa 5 % der Gesamterzeugung. Das ist zwar nur eine symbolische Menge, aber sie nimmt zu, wie alle anderen Formen der Stromerzeugung auch.

Am interessantesten ist aber der angegebene „Kapazitätsfaktor“ für Windenergie. Der Kapazitätsfaktor (CF) ist das Verhältnis zwischen der in einem Jahr produzierten Strommenge und der Menge, die produziert werden könnte, wenn die Generatoren die ganze Zeit mit voller Leistung laufen würden. Letzteres wird als Nennleistung bezeichnet, so dass der CF gleich der produzierten Leistung geteilt durch die Nennleistung ist, ausgedrückt in Prozent.

Da Wind intermittierend ist, ist sein CF ziemlich niedrig, typischerweise 30 bis 35% in den USA. Aber China berichtet eine Wind-CF von weniger als 20%! Der Grund dafür ist ein wichtiger Baustein des wirtschaftlichen Erfolgs Chinas. Im Gegensatz zu uns drosseln sie nicht die Kohleverstromung, nur um Platz für Windkraft zu schaffen, wenn der Wind gerade weht.

China nutzt also die Windenergie, wenn sie sie brauchen, aber sonst nicht. Wir hingegen drosseln unsere mit Kohle und Gas befeuerten Kraftwerke, wenn Windstrom da ist, was wirklich dumm ist.

China erzeugt fast doppelt so viel Strom wie Amerika, und zwei Drittel dieses Stroms kommen aus Kohle. Wind ist mit 5 % ein Alibi-Generator und darf der Kohlekraft nicht in die Quere kommen.

Jeder, der glaubt, dass China die Kohle durch Wind ersetzen wird, ist einfach nur ein grüner Träumer. Kohle ist zentral für Chinas Macht.

[Hervorhebung vom Übersetzer]

Autor: David Wojick, Ph.D. is an independent analyst working at the intersection of science, technology and policy. For origins see http://www.stemed.info/engineer_tackles_confusion.html For over 100 prior articles for CFACT see http://www.cfact.org/author/david-wojick-ph-d/ Available for confidential research and consulting

Übersetzt von Chris Frey EIKE




Die arktische Eisausdehnung zum Jahresende 2020

Das obige Diagramm zeigt den verfügbaren Datensatz des Meereisindex (Sea Ice Index SII) seit 1989, zusammen mit dem vergleichbaren Datensatz von MASIE 2006 bis heute. Es zeigt, dass 2020 um 150k km2 (1 %) niedriger ist als 2019 und 300k km2 über dem Tiefstwert von 2017 liegt. Tatsächlich ist 2020 fast der Durchschnitt für das letzte Jahrzehnt.

Wie bereits in einem früheren Beitrag erwähnt, wurden im Oktober Befürchtungen geäußert, dass die Arktis langsamer als im Durchschnitt wieder zufriert. Diese Befürchtungen wurden erstens durch den Anstieg der Eisausdehnung im November und zweitens durch das schnelle Gefrieren der Arktis im Dezember ausgeräumt. Im November wurden 3,5 Wadhams Meereis im Laufe des Monats hinzugefügt.  (Die Metrik 1 Wadham = 1 Million km² stammt von den Vorhersagen des Professors über eine eisfreie Arktis, was weniger als 1 Million km² Ausdehnung bedeutet). Im Dezember kamen weitere 2,7 Wadhams hinzu. Die letzten beiden Monate haben das Defizit im Oktober mehr als ausgeglichen.

Hintergrund aus früherem Beitrag aktualisiert zum Jahresende

Als ich vor einigen Jahren einen Beitrag über die globale Erwärmung bei WUWT las, fiel mir der Kommentar einer Person auf: „Ich bin Versicherungsmathematiker mit begrenztem Wissen über Klimametriken, aber es scheint mir, wenn man Temperaturänderungen verstehen will, sollte man die Änderungen analysieren, nicht die Temperaturen“. Das ließ bei mir die Alarmglocken läuten, und ich wandte diese Einsicht in einer Reihe von Temperatur-Trend-Analysen von Temperaturaufzeichnungen von Oberflächenstationen an. Diese Beiträge sind unter dieser Überschrift verfügbar: Climate Compilation Part I Temperatures.

In diesem Beitrag wird versucht, die Schwankungen des arktischen Meereises mit einem ähnlichen Ansatz zu verstehen: Der Schwerpunkt liegt auf den Raten der Ausdehnungsänderungen und nicht wie üblich auf der Untersuchung der Eisausdehnung selbst. Glücklicherweise bietet der Sea Ice Index (SII) der NOAA einen geeigneten Datensatz für dieses Projekt. Wie viele wissen, stützt sich der SII auf passive Mikrowellensensoren von Satelliten, um Karten der arktischen Eisausdehnung zu erstellen, die bis ins Jahr 1979 zurückreichen. Die aktuelle Version 3 hat sich stärker an MASIE, der modernen Form der Marine-Eiskartenerstellung zur Unterstützung der arktischen Navigation, angelehnt. Wie man die SII-Daten lesen muss, steht hier.

Es sind statistische Analysen verfügbar, und diejenige, die von Interesse ist (Tabelle unten), heißt Sea Ice Index Rates of Change (hier). Wie der Titel schon andeutet, besteht diese Tabelle nicht aus monatlichen Ausdehnungen, sondern aus Änderungen der Ausdehnungen gegenüber dem Vormonat. Konkret wird ein Monatswert berechnet, indem der Durchschnitt der letzten fünf Tage des Vormonats vom Durchschnitt der letzten fünf Tage dieses Monats subtrahiert wird. Der Wert stellt also die Menge an Eis dar, die während des aktuellen Monats zu- oder abgenommen hat.

Diese monatlichen Änderungsraten wurden zu einer Basislinie für den Zeitraum 1980 bis 2010 zusammengestellt, die die Schwankungen der arktischen Eisausdehnung im Laufe eines Kalenderjahres zeigt. Unten ist ein Diagramm dieser durchschnittlichen monatlichen Veränderungen während des Basiszeitraums zu sehen. Diejenigen, die mit Studien zum arktischen Eis vertraut sind, werden von der Wellenform des Vorzeichens nicht überrascht sein. Ende Dezember ist ein relativ neutraler Punkt im Zyklus auf halbem Weg zwischen dem Minimum im September und dem Maximum im März.

Die Grafik verdeutlicht die sechs Frühjahrs-/Sommermonate mit Schmelzen und die sechs Herbst-/Wintermonate mit Gefrieren. Man beachte, dass Juni-August den Großteil der Verluste produzieren, während Oktober-Dezember den Großteil des Zuwachses zeigen. Auch die Maximum- bzw. Minimum-Monate März und September zeigen von Anfang bis Ende nur sehr geringe Änderungen in der Ausdehnung.

Die Tabelle der monatlichen Daten zeigt die Variabilität der Eisausdehnung während der letzten 4 Jahrzehnte:

Die Werte im Januar zeigen die Veränderungen gegenüber dem Ende des vorangegangenen Dezembers, und durch Summierung von zwölf aufeinanderfolgenden Monaten können wir eine jährliche Veränderungsrate für die Jahre 1979 bis 2019 berechnen:

Wie viele wissen, hat die Eisausdehnung in der Arktis in diesen 40 Jahren abgenommen, im Durchschnitt um 40.000 km² pro Jahr. Aber Jahr für Jahr wechseln die Veränderungen ständig zwischen Schrumpfen und Wachsen.

Außerdem scheint es Zufall zu sein, welche Monate für ein bestimmtes Jahr ausschlaggebend sind. Zum Beispiel wurde viel Aufhebens darüber gemacht, dass die Eisausdehnung im Oktober 2020 langsamer als erwartet zunahm. Wie es in diesem Datensatz der Fall ist, weist der Oktober die höchste Rate der Eiszunahme auf. Die folgende Tabelle zeigt die verschiedenen monatlichen Raten in der Aufzeichnung als Anomalien gegenüber der Basislinie 1980-2010. In dieser Darstellung ist eine rote Zelle eine negative Anomalie (weniger als die Basislinie für diesen Monat) und blau ist positiv (höher als die Basislinie).

Man beachte, dass die +/- Kursanomalien sind über das gesamte Netz verteilt sind, Sequenzen verschiedener Monate in verschiedenen Jahren, wobei sich Gewinne und Verluste gegenseitig ausgleichen. Ja, der Oktober 2020 verzeichnete einen unterdurchschnittlichen Zuwachs, aber einen höheren als 2016. Der Verlust im Juli 2020 war der größte in diesem Jahr wegen des heißen sibirischen Sommers. Außerdem beachte man, dass die Anomalie des Eiszuwachses im November 2020 die Anomalie des Defizits im Oktober um mehr als das Doppelte überstieg. Der Dezember fügte mehr Überschuss hinzu, so dass die Anomalie für das Jahr Null war. Die untere Zeile zeigt die durchschnittlichen Anomalien für jeden Monat über den Zeitraum 1979-2020. Die Raten der Gewinne und Verluste gleichen sich größtenteils aus, und der Durchschnitt aller Monate in der unteren rechten Zelle ist praktisch Null.

Eine letzte Betrachtung: Die Grafik unten zeigt die Jahresend-Eisausdehnung der Arktis für die letzten 30 Jahre.

Hinweis: Die tägliche SII-Eisausdehnungsdatei liefert keine vollständigen Werte vor 1988.

Die Eisausdehnung am Jahresende in der Arktis (die letzten 5 Tage im Dezember) zeigt drei verschiedene Regimes: 1989-1998, 1998-2010, 2010-2019. Die durchschnittliche Ausdehnung am Jahresende 1989-2010 betrug 13,4 Mio. km². In der letzten Dekade lag sie bei 13,0 Mio. k², und zehn Jahre später, 2019, bei 12,8 Mio. km². Bei all den Schwankungen betrug der Nettoverlust also 200k km² oder 1,5%. Das Gerede von einer Todesspirale des arktischen Eises ist Phantasterei.

Diese Daten zeigen ein höchst variables Naturphänomen. Es ist klar, dass unvorhersehbare Faktoren im Spiel sind, vor allem die Wasserstruktur und -zirkulation, atmosphärische Zirkulationen und auch Umwälzungen und Stürme. Und längerfristig gesehen sind die heutigen Ausmaße nicht ungewöhnlich.

Link: https://rclutz.wordpress.com/2021/01/04/arctic-ice-year-end-2020/?mc_cid=3231bff1ad&mc_eid=08ba9a1dfb

Übersetzt von Chris Frey EIKE

 




Wie genau sind unsere Messungen bzgl. Wetter und Klima?

Heute dagegen brauchen wir beispielsweise auf einem Flug von New York nach Los Angeles detailliertere und zuverlässigere Wetterinformationen, wie z. B. ob es bei der Zwischenlandung in St. Louis schneit. Oder der Landwirt in Nebraska, der die Vorhersage für die Frühjahrsweizenproduktion in der Ukraine sehen muss. Er braucht die bestmöglichen Informationen, um besser abschätzen zu können, wie viele Hektar Winterweizen er für die heutigen globalen Märkte anbauen sollte.

Wir brauchen vor allem bessere und zuverlässigere Informationen, um zu entscheiden, welche Maßnahmen wir zur Vorbereitung auf Klimaveränderungen in Betracht ziehen sollten.

Während Wissenschaftler, Ingenieure und Software-Programmierer die Bedeutung und die Notwendigkeit dieser Datengenauigkeit kennen, ist sich die breite Öffentlichkeit nicht bewusst, wie herausfordernd diese Aufgaben sein können.

Wenn wir langfristige Klimadaten betrachten, müssen wir unter Umständen mehrere Proxies (indirekte Messgrößen, von denen wir hoffen, dass sie direkt mit dem Wetter variieren) verwenden, die eine zusätzliche Ebene von Komplexität, Kosten und Fehlerquellen hinzufügen. Einer der am häufigsten verwendeten Proxies sind die alten Temperatur- und CO2-Werte aus Eiskernproben. In den letzten paar hundert Jahren waren auch Baumringdaten eine primäre Quelle für die Jahrestemperaturen. Aber seit dem letzten halben Jahrhundert werden direkte atmosphärische Messwerte verwendet, die sehr genau und zuverlässig sind.

Aus Abbildung 1 geht hervor, dass der CO2-Gehalt ab Mitte der 1950er Jahre dramatisch anstieg. Wir haben aufgehört, Proxies zur Messung des atmosphärischen CO2-Gehalts zu verwenden, und haben begonnen, direkte Messwerte von der Mauna Loa Wetterstation auf Hawaii zu verwenden. Wir müssen uns also fragen, ob dieser dramatische Anstieg des CO2-Gehalts real war, oder ob er durch die Änderung des Messverfahrens teilweise verzerrt wurde. Oder wir haben in den frühen 1960er Jahren aufgehört, Baumringdaten zu verwenden. In der Zeit, als wir sowohl Baumring- als auch Thermometer-Aufzeichnungen hatten, wurden gewisse Diskrepanzen festgestellt. Wir können solche Änderungen in den Messungen nicht vornehmen, ohne Raum für Zweifel zu lassen.

Abbildung 1 zeigt zum Beispiel den CO2-Gehalt der Jahrtausende alten antarktischen Eisschilde. Vor Mitte der 1950er Jahre wurden die CO2-Schätzungen auf der Grundlage des CO2-Gasgehalts der Eisbohrkerne berechnet. Die auf diese Weise gemessenen CO2-Gehalte schienen über einen Zeitraum von mehreren zehntausend Jahren nie viel über 280 ppm zu steigen.

Man beachte nun, dass wir, beginnend vor etwa 6.000 Jahren, einen kleinen, aber stetigen Anstieg sehen, wenn wir von links nach rechts schauen. Und der Anstieg scheint bis Mitte der 1990er Jahre einigermaßen konstant zu sein. Hier ist die klassische Annahme, dass sowohl das CO2 als auch die Temperaturen gestiegen sind.

Kürzlich haben sich Wissenschaftler die abwärts gehende Neigung angesehen, wenn wir in den 1950er Jahren stehen und von rechts nach links schauen. Dabei stellt sich die Frage, ob das CO2 durch das enorme Gewicht der Gletscher herausgedrückt wird, während sie altern, und vielleicht auch in Kombination mit CO2, das chemisch gebunden wird, und in welchen Anteilen. Ab Mitte der 1950er Jahre sehen wir einen sehr deutlichen und schnellen Anstieg der CO2-Werte, und wir sehen die inzwischen bekannten CO2-Hockeyschläger. Ist das CO2 so schnell angestiegen, oder war es Teil der Anomalie, die durch die Änderung der Messmethoden verursacht wurde? Wir denken Letzteres.

Woher soll der Durchschnittsbürger das wissen? Wurde diese dramatische Veränderung jemals genau und verständlich erklärt? Wir wollen das erst einmal allgemeiner als „Datenintegrität“ bezeichnen.

Hier ist ein weiteres einfaches Beispiel. Wenn wir die Temperatur in der Gegend von Boston vor 200 Jahren messen wollten, hätten wir vielleicht zwanzig Thermometer an zwanzig verschiedene Orte gebracht. Wir hätten einige allgemeine Entscheidungen getroffen, einige entlang der Küste und den Rest an verschiedenen Stellen in der Stadt und auf dem Land zu platzieren – vor allem auf Bauernhöfen. Wir hätten vielleicht nur ein oder zwei in den Bergen oder Wäldern aufgestellt, weil diese Stationen bemannt sein und die Daten mehrmals am Tag aufgezeichnet werden mussten. Dann, vielleicht ein- oder zweimal pro Tag oder Woche oder Monat, könnten sie konsolidiert worden sein, um eine durchschnittliche „Boston-Temperatur“ für Oktober 1820 zu erhalten. Wie würde es aussehen, wenn die Boston-Temperatur im Oktober 1920 bzw. 2020 verglichen werden, um zu sehen, ob sie gestiegen ist oder nicht? Nun, das stellt eine ziemliche Herausforderung dar:

In den letzten hundert Jahren könnten einige Bäume um das Thermometer herum gewachsen sein, während die Thermometer im Jahr 1920 vielleicht den ganzen Tag in der vollen Sonne standen. Was nun?

● Einige Instrumente wurden aus irgendeinem Grund verschoben, z. B. wegen einer großen Autobahnbaustelle; wie hat sich das auf die Temperaturmesswerte ausgewirkt?

● Einige Instrumente könnten nach und nach für Monate oder sogar Jahre nicht mehr kalibriert worden sein, bevor sie repariert oder ersetzt wurden. Was machen wir mit den verdächtigen Daten während des fraglichen Zeitraums? Ignorieren?

● Wenn die Instrumente ersetzt wurden, wie wurden sie ersetzt? Einige Variablen sind die gleiche Höhe über dem Boden, der gleiche Schutzkasten, Quecksilber ersetzt durch Alkoholthermometer oder Thermoelemente, usw.

● Eine Wetterstation befand sich in der Nähe einer unbefestigten Straße, bis sie 1926 mit Zement und 1963 mit Asphalt bedeckt wurde? Später wurde sie wieder zu einem Feldweg umgestaltet, als das Gebiet 2004 zu einem Naturpark wurde?

● Wie würden wir diese Temperaturen[iii] mit den Temperaturen bis zum Jahr 2020 vergleichen, kontrastieren und integrieren? Sehr unterschiedlich und sehr herausfordernd:

1) Instrumente, die einst auf einer Weide standen, befinden sich jetzt in der Nähe von Flughafenlandebahnen und Düsenabgasen!

2) Ein anderes war in der Nähe einer schattigen, sandigen Straße, die jetzt ein asphaltierter Parkplatz ist.

3) Thermoelemente haben viele Thermometer ersetzt; wie wurden die Messwerte „zusammengestoppelt“?

4) Andere Wetterstationen wurden einfach wegen der hohen Kosten für ihre Wartung aufgegeben oder durch ein ferngesteuertes Thermoelement oder Telemetrie ersetzt.

5) Wie kann man[i] die Auswirkungen der Umweltverschmutzung der 1960er bis 1990er Jahre mit dem unberührten Himmel der 1800er Jahre in Einklang bringen, wenn Wolken eine so wichtige Rolle spielen?

6) Und die Wolkendecke von 1820 war wahrscheinlich ganz anders als heute, als Folge der zunehmenden Menge an „Aerosolen“, die eine wichtige Rolle bei der Wolkenbildung, dem „Treibhaus“- und dem „Albedo“-Effekt spielen.

In den letzten Jahrzehnten, und vor allem seit der Satelliten-Ära, wurden Hunderte von erdgebundenen Wetterstationen aus verschiedenen Gründen aufgegeben, unter anderem aus Kostengründen und wegen der Zuverlässigkeit der Daten. In den letzten Jahrzehnten haben die NASA und die NOAA versucht, aktuelle und historische Wetteraufzeichnungen an Land und auf dem Meer zu „normalisieren“. Abbildung 2 zeigt zwei Sätze von genau denselben Daten! Die blaue Linie repräsentiert die tatsächlichen landbasierten Temperaturen von 1.218 Stationen in den USA, als die Messwerte aufgenommen wurden. Man vergleiche das mit der roten Linie, die genau die gleichen Temperaturaufzeichnungen darstellt, aber nachdem sie von der NOAA „normalisiert“ wurden*.

*In einem Beitrag bei Real Climate Science wird schon Ende 2016 festgestellt: „Das Problem mit der NOAA-Graphik besteht darin, dass es Fake-Daten sind. Die NOAA erzeugt den Erwärmungstrend künstlich mittels Veränderung der Daten. Die RohDaten der NOAA zeigen im vergangenen Jahrhundert keinerlei Erwärmung“.

„Normalisierung“ hat eine praktische Grundlage. Es ist ein bisschen so, als würde man die Menge des Obstes berechnen, wenn man Äpfel zu Orangen addiert. Allerdings ist der Prozess anfällig für fehlerhafte Annahmen und Ausführung. Der prominente Umweltwissenschaftler Donald Easterbrook behauptet, dass die bisherigen historischen Aufzeichnungen absichtlich manipuliert wurden, wie in Abb. 2 dargestellt. Es wurde der Vorwurf erhoben, dass diese Temperaturen verzerrt wurden, um in das aktuelle Narrativ des CO2-induzierten globalen Klimawandels zu passen. Die historischen Daten der blauen Linie wurden in den letzten Jahrzehnten mindestens viermal verändert, und nun in ihrer endgültigen Form zeigt die rote Linie einen dramatischeren, steileren Temperaturanstieg seit den 1980er Jahren, indem die Temperaturen in den vorangegangenen Jahrzehnten gesenkt wurden! Wenn wir heute aufgefordert werden, Multi-Billionen-Dollar-Entscheidungen zu treffen, die auf unserer Temperaturhistorie des letzten Jahrhunderts basieren, sind sie schwerwiegend und folgenreich geworden.

For more information we recommend our book A Hitchhikers Journey Through Climate Change, coming soon to the CFACT store at CFACT.org.

[i] http://www.clker.com/clipart-thermometer-in-beaker.html

Autoren: CFACT Senior Science Analyst Dr. Jay Lehr has authored more than 1,000 magazine and journal articles and 36 books. Jay’s new book A Hitchhikers Journey Through Climate Change written with Teri Ciccone is now available on Kindle and Amazon.

Terigi Ciccone is an Engineer, Science Enthusiast and Artist. Loves reading and travel, Naturalist, Author of the new book “A Hitchhiker’s Journey Through Climate Change.”

Link: https://www.cfact.org/2021/01/05/how-accurate-are-our-weather-and-climate-measurements/

Übersetzt von Chris Frey EIKE

 




Verlangsamung der CO2-Anreicherung in der Luft – durch COVID oder durch die Natur?

Hier möchte ich jetzt meine Hypothese überprüfen hinsichtlich des Löwenanteils der Ursachen für die CO2-Zunahme, selbst wenn ich sicher bin, dass dieses nur eine geringe Rolle bzgl. des Erdklimas spielt (wenn überhaupt eine).

Hier zunächst ein paar einfache Fakten:

1.Ozeane sind die größte CO2-Senke

2.Je wärmer die Ozeane, umso mehr CO2 wird freigesetzt

3.Die Ozeane sind wärmer geworden.

Beispiel: Man betrachte die Wassertemperatur heute (rechts) mit der vor 35 Jahren:

Meine Hypothese ist, dass sich durch die natürliche zyklische Erwärmung der Ozeane eine kumulative Ansammlung von CO2 entwickelt hat. Dies setzt sich so lange fort, bis ein Gleichgewicht erreicht ist. Der Planet versucht, dem mit immer mehr Laub entgegenzuwirken, was eines der Standbeine meiner „keine Schuld“-Lösung für die auf CO2 basierende und auf Indoktrination fußende AGW-Angst. Pflanzen Sie also genug Bäume, bauen Sie genug Kernkraftwerke und machen Sie Kohlenstoffabscheidung, und wenn Sie CO2 für die Erwärmung verantwortlich machen (was ich im Großen und Ganzen nicht tue), ist das Problem gelöst, egal was Sie glauben. Ich skizziere es in meinem neuen Buch, The Weaponization of Weather in the Phony Climate War. Das ist ein Novum: jemand, der tatsächlich eine fehlerfreie Lösung für ein Problem vorschlägt, das höchstwahrscheinlich gar nicht existiert und das unsere Lebensweise nicht zerstören wird.

Die andere „Lösung“ ist der „Green New Deal“, der als Nebenprodukt wahrscheinlich die wirtschaftliche Lebensader der US-Wirtschaft stören, wenn nicht gar zerstören wird und genau ins Herz des Systems geht, um das uns die Welt beneidet.

Tatsache ist jedoch, dass die Verlangsamung auf Covid zurückgeführt wird, da Covid im Frühjahr eine weltweite Abschaltung der Industrie für mehrere Wochen verursachte. Zu dieser Zeit sah die CO2-Kurve sehr ähnlich aus wie in den Vorjahren zu dieser Zeit. Wir konnten also nichts erkennen. Aber jetzt, später im Jahr, wird die Behauptung hinaus posaunt, dass es die Covid-Abschaltungen waren, die sie gesenkt haben, ohne überhaupt die andere Seite der Debatte zu betrachten. Die Ozeane kühlen sich ab und die Anstiegsrate sollte sich nach meiner Vorstellung etwas verlangsamen.

Um das „Problem“ der Schuldzuweisung weiter zu vergrößern, kann meine Seite der Debatte (diejenigen von uns, die an eine aufgeschlossene Debatte glauben) nicht vor der Tatsache davonlaufen, dass CO2 und Temperatur in den letzten 35 Jahren gestiegen sind. Was bedeutet, dass die andere Seite einen Grund hat, ihren Standpunkt zu vertreten. Das Problem ist, dass sie nicht denken, jemand könne deren Narrativ in Frager stellen. Also, was ist es? Wie in vielen Beiträgen zuvor, ziehe ich SUPER NINOS in Betracht, um die entsprechenden höheren Temperatur-Plateaus zu erklären – es ist weitgehend mehr Wasserdampf, nicht CO2.

Super-Nino’s setzen immense Mengen an Wasserdampf frei, welche die Temperatur beeinflussen, vor allem in den Polarregionen, wo sie niedrigere Temperaturen und Taupunkte viel mehr beeinflussen als dort, wo es warm und feucht ist. Wir haben keine Temperatur/CO2-Korrelationen. Wir haben Korrelationen zwischen Wasserdampf und Temperatur. Ich frage mich, warum? Empfohlene Lektüre in meinem Buch:

Kapitel 6: Die globale Temperatur als Waffe

Hier noch einmal die relevante Keeling-Graphik der letzten zwei Jahre (Quelle):

Hier möchte ich auf zweierlei hinweisen: 1) Es gibt eine Abflachung der Kurve von Januar bis März, die wahrscheinlich auf die maximale Ausdehnung des globalen Meereises zu dieser Zeit zurückzuführen ist, da dies die Ausgasung von CO2 aus dem Ozean verhindert, was wiederum die Bedeutung der Ozeane und des CO2 und nicht die des Menschen zeigt. Wären die Ozeane komplett vereist, dann gäbe es keine CO2-Ausgasung. Es gäbe wahrscheinlich auch keine Menschheit, ein kleiner Punkt. Immerhin hat Prinz Phillip gesagt, dass er als Virus, der die Menschen ausrottet, wieder ins Leben zurückkehren will.

„Wenn ich wiedergeboren werden würde, würde ich mir wünschen, als Killervirus auf die Erde zurückzukehren, um die menschliche Population zu senken.“

2) Seit dem Tiefpunkt in diesem Jahr bei 411,2 ppm am 1. Januar sind wir bei ca. 414,2 ppm, ein Anstieg um 3 ppm seit dem Tiefpunkt (Pflanzen werfen Laub ab, und die Erwärmung nimmt zu, daher der CO2 -Anstieg in der kalten Jahreszeit)

Im letzten Jahr hatten wir einen Tiefpunkt von ca. 408 und einen Anstieg auf 413 am 1. Januar. Grob gesagt, ist das ein Defizit von 2 ppm vom letzten Jahr bis zu diesem Jahr im Anstieg. Die Industrie hat wieder aufgeschlossen. Ich glaube nicht, dass es an Covid liegt, aber ich vermute, dass die Abkühlung des Ozeans etwas damit zu tun hat.

Aber man wird sehen, dass die Covid-Klima-Koalition davon ausgeht, dass die indoktrinierte Öffentlichkeit ihre Prämisse, dass nämlich CO2 ursächlich für die Verlangsamung ist, akzeptieren wird ohne auch nur ansatzweise auf die andere Seite des Problems hinzuweisen. Gewöhnen Sie sich daran: Sie sehen hier eine Generalprobe dessen, wofür hier das Klima instrumentalisiert wird.

Nun die ultimative Ironie: Ich beobachte, wie meine Gegner in dieser Sache meine Vorhersage verifizieren. Das ist irgendwie interessant, oder? Vielleicht sollte ich mich bei ihnen bedanken.

Autor: Joe Bastardi is a pioneer in extreme weather and long-range forecasting. He is the author of “The Climate Chronicles: Inconvenient Revelations You Won’t Hear From Al Gore — and Others” which you can purchase at the CFACT bookstore. His new book The Weaponization of Weather in the Phony Climate war can be found here. phonyclimatewar.com

Link: https://www.cfact.org/2021/01/03/is-covid-or-nature-slowing-the-increase-in-co2/

————————————

Zu diesem Thema hat sich auch Willis Eschenbach Gedanken gemacht. Einen davon beschreibt er so [Anm. d. Übers.]:

Eine CO2-Besonderheit

Willis Eschenbach

Jüngst kam mir der oben stehende Beitrag vor Augen. Die im Titel gestellte Frage wollte ich mir auch einmal vornehmen. Hier zeigen sich die Mauna Loa-Daten. Oben: Die CO2-Zunahme, unten: die mittlere Änderung des CO2-Gehaltes von Monat zu Monat:

Eines geht daraus ganz klar hervor.

Die Rate der CO2-Zunahme hat sich kein bisschen geändert. Ich biete dafür keine Erklärung an … aber das ist kein gutes Zeichen für all jene, die da behaupten, dass es Lockdowns á la Covid bedarf, um das CO2-Niveau zu senken.

Link: https://wattsupwiththat.com/2021/01/05/a-co2-oddity/

Übersetzt von Chris Frey EIKE

 




UK: Keinerlei Erwärmung mehr seit dem Jahr 2006

Quelle

Dies ist jedoch nicht mehr als ein Versuch, die höchst unbequeme Wahrheit zu vertuschen, nämlich dass die Erwärmung im Jahr 2006 aufgehört hat. Der 10-Jahres-Durchschnitt zeigt dies deutlich.
Wir können uns ein klareres Bild davon machen, wenn wir den Zeitraum seit 1991 heranzoomen.

Die 10-Jahres-Durchschnitte stiegen in den 1990er und frühen 2000er Jahren langsam an. Seitdem sind sie jedoch allmählich zurückgegangen und haben ihren Höhepunkt im Zeitraum von 1997 bis 2006 erreicht:

Das alles führt uns zu der Frage: was ist das „normale“ Klima für England?

Das Met Office würde sagen, dass dies der 30-Jahres-Durchschnitt ist, aber das ist nur ein künstliches Konstrukt aus Bequemlichkeit. Derzeit liegt der 10-Jahres-Durchschnitt der MEZ bei 10,40C, was kaum über dem Durchschnitt von 1991-2020 von 10,25C liegt. Die Differenz liegt deutlich innerhalb einer natürlichen Schwankungsbreite.

Immerhin stiegen die Jahrestemperaturen von 8,86C im Jahr 2010 auf 10,72C im darauffolgenden Jahr, rein aufgrund von Schwankungen des „Wetters“.

Die Grafik unten mit den höchsten und niedrigsten monatlichen Durchschnittstemperaturen für jeden Monat seit 1991 zeigt, wie variabel das englische Wetter sein kann:

Würden die „wärmsten“ Monate alle im gleichen Jahr auftreten, läge der Jahresmittelwert bei 12,8°C. Und wenn das Gleiche für die „kältesten“ Monate gelten würde, läge der Jahresmittelwert bei 7,3°C.

Die nächste Grafik zeigt diesen Bereich, wenn er mit den tatsächlichen Jahrestemperaturen überlagert wird:

Obwohl eine solche Eventualität statistisch äußerst unwahrscheinlich sein mag, sehe ich meteorologisch keinen Grund, warum sie nicht möglich sein sollte.

Zusammenfassend lässt sich sagen, dass die Auffassung, es gäbe eine „normale“ Jahrestemperatur oder gar ein „normales“ Klima in England, unwissenschaftlich ist. In der Tat ist sie nicht wissenschaftlicher als die Behauptung, es gäbe hier „normales“ Wetter.

Was das englische „Klima“ immer noch dominiert, ist die Variabilität des Wetters, von Tag zu Tag, von Monat zu Monat und sogar von Jahr zu Jahr. Alle zugrundeliegenden Klimatrends gehen im Rauschen unter.

[Hervorhebung vom Übersetzer]

Laut CET stiegen die Jahrestemperaturen zwischen den 1940er und 2000er Jahren um etwa 0,7 °C. Aber wie viel davon hing mit den zugrunde liegenden klimatischen Bedingungen zusammen, und wie viel war wetterbedingt?

Vielleicht ist der beste Anhaltspunkt, den wir haben, der Vergleich der wärmsten Jahre. Während 2014 mit 10,95°C das wärmste Jahr war, lag das Jahr 1949 mit 10,65°C nicht weit dahinter. Gehen wir weiter zurück, sehen wir Jahre wie 1733, 1779 und 1834, die alle über 10,4°C lagen.

Dies deutet darauf hin, dass der größte Teil der Erwärmung in den letzten drei Jahrzehnten mit dem Wetter und nicht mit dem Klimawandel zusammenhängt.

Quelle

Link: https://wattsupwiththat.com/2021/01/03/no-warming-in-uk-since-2006/

Übersetzt von Chris Frey EIKE

 




Zum Befeuern des Klima-Alarms werden gute Nachrichten grundsätzlich als Katastrophe verkauft

Kürzlich haben The Guardian und andere Medien behauptet, dass ein aktualisierter Atlas der Lebensräume von Vögeln zeigt, dass die globale Erwärmung die Vögel weiter nach Norden „drängt“. Die Geschichte des Guardian würde einen glauben machen, dass Vögel ein Scharen durch den Klimawandel aus schrumpfenden natürlichen Lebensräumen in ungeeignete Gebiete gedrängt werden. Dies ist jedoch nicht wahr. Wie der Präsident des Heartland Institute James Taylor in einem Beitrag bei Climate Realism als Reaktion auf den Artikel des Guardian schrieb, erzählt der Atlas selbst eine völlig andere Geschichte.

Anstatt Vögel aus ihrem normalen Verbreitungsgebiet zu „verdrängen“ und sie nach Norden zu zwingen, profitieren Vögel von einem sich erwärmenden Klima, indem sie ihr Gesamtverbreitungsgebiet ausweiten – sie gedeihen in neuen, nördlichen Regionen, während sie auch in südlichen Regionen weiterhin gut gedeihen. Das Ergebnis des Klimawandels ist kein negatives „Verdrängen“ von Vögeln aus ihrem Lebensraum, sondern Vögel erfreuen sich größerer Lebensräume, während sie zur biologischen Vielfalt in ihren neuen Gebieten beitragen.

In der Tat, trotz der irreführenden, alarmierenden Titel der Geschichte [übersetzt], „Atlas: Vögel sind inmitten der Klimakrise nach Norden gezwungen worden“, räumt der Guardian weiter unten ein, was der Atlas wirklich zeigt: „Insgesamt haben 35 Prozent der Vögel ihr Brutgebiet vergrößert, 25 Prozent haben ihr Brutgebiet verkleinert und der Rest hat keine Veränderung gezeigt, oder der Trend ist unbekannt.“ Das ist eine gute Nachricht, denn, so räumte die Zeitung ein, laut Atlas gilt: „Im Allgemeinen ist es weniger wahrscheinlich, dass eine Art ausstirbt, wenn sie in mehr Gebieten vorkommt.“

Ein weiteres beängstigendes, aber nachweislich unwahres Klima-Alarm-Narrativ wurde in diesem Jahr in Form von Dutzenden, wenn nicht Hunderten von Geschichten verbreitet, denen zufolge der Klimawandel (angeblich menschlichen Ursprungs) für eine Zunahme der Anzahl und Schwere von Hurrikanen und Waldbränden verantwortlich ist. Ein Beispiel für diese Kombination aus fehlerhafter Analyse und schlechter Berichterstattung findet sich in einer von Bloomberg veröffentlichten Geschichte mit dem Titel [übersetzt] „Klimawandel sorgte im Jahr 2020 für rekordhohe Versicherungsleistungen“.

Bloomberg schreibt: „Christian Aid, der Hilfsdienst von 41 Kirchen in Großbritannien und Irland, hat eine Rangliste der 15 verheerendsten Klimakatastrophen des Jahres erstellt, basierend auf den Versicherungsschäden.“ Die Studie von Christian Aid, über die auch der Guardian berichtete, als ob es sich um eine göttlich inspirierte, offenbarte Wahrheit handelte, behauptet, dass allein die 10 teuersten Wetterkatastrophen des Jahres 2020 Schäden in Höhe von 150 Milliarden Dollar anhäuften, wobei die Gesamtzahl aller mit dem Klimawandel zusammenhängenden Katastrophen im Jahr 2020 neue Rekorde aufstellte. Die Studie von Christian Aid macht insbesondere die durch den Klimawandel verschärften Waldbrände und Hurrikane für die gestiegenen Schäden und höheren Versicherungszahlungen verantwortlich. Und siehe da: Die realen Daten zu Waldbränden und Wirbelstürmen sprechen eine ganz andere Sprache, aber die guten Nachrichten wurden ignoriert.

Was die Waldbrände betrifft, so zeigen Langzeitdaten, dass die Anzahl der Waldbrände und die von ihnen verbrannte Fläche im letzten Jahrhundert dramatisch zurückgegangen ist. Wenn man nur das Jahr 2020 betrachtet, berichtet der Copernicus Atmosphere Monitoring Service, „dass 2020 eines der Jahre mit den wenigsten aktiven Bränden weltweit war.“

In der Tat berichtet die NASA über eine aktuelle Studie in Science, die herausfand, „dass die jedes Jahr von Bränden heimgesuchte Gesamtfläche zwischen 1998 und 2015 um 24 Prozent zurückgegangen ist. Insgesamt ist die jährlich verbrannte Fläche global um mehr als 540.000 Quadratmeilen zurückgegangen, von 1,9 Millionen Quadratmeilen zu Beginn des letzten Jahrhunderts auf heute 1,4 Millionen Quadratmeilen.“

Auch in den Vereinigten Staaten sind die Flächenbrände im Laufe des letzten Jahrhunderts stark zurückgegangen. Bei Climate at a Glance wird berichtet: Langzeitdaten des U.S. National Interagency Fire Center (NIFC) zeigen, dass die Anzahl und Schwere der Flächenbrände seit den frühen 1900er Jahren zurückgegangen ist. Die Auswertung von Daten über US-Flächenbrände, die bis ins Jahr 1926 zurückreichen, zeigt, dass die Größe der verbrannten Flächen heute weitaus geringer ist als zu Beginn des 20. Jahrhunderts, wobei die derzeit verbrannte Fläche nur ein Viertel bis ein Fünftel der Fläche beträgt, die in den 1930er Jahren niedergebrannt ist.

Die Daten über Hurrikane sind ebenso klar und überzeugend: Trotz der regen Hurrikansaison 2020 ist es entgegen der Behauptung des Guardian – und wie in einem früheren Artikel bei Climate Realism berichtet – durchaus möglich, dass 2020 keinen Rekord für atlantische Hurrikane aufgestellt hat. Vor 1950 war die Verfolgung von Hurrikanen relativ primitiv und spärlich, und es war unüblich, einen Sturm zu benennen, wenn er nicht irgendwo auf das Festland ü bergegriffen hatte.

Darüber hinaus berichtet das IPCC, dass es „nur geringes Vertrauen für die Zuordnung jeglicher nachweisbarer Veränderungen in der Aktivität tropischer Wirbelstürme zu anthropogenen Einflüssen gibt.“ Und Daten des National Hurricane Center (NHC) zeigen Climate at a Glance: Hurricanes zufolge, dass „die Vereinigten Staaten kürzlich mehr als ein Jahrzehnt (2005 bis 2017) ohne einen großen Hurrikan der Kategorie 3 oder höher erlebt haben, was die längste solche Periode in der aufgezeichneten Geschichte ist. Die Vereinigten Staaten erlebten kürzlich auch die geringste Anzahl von Hurrikanen in einem Achtjahreszeitraum (2009 bis 2017) in der aufgezeichneten Geschichte.“

Die Studie von Christian Aid konzentriert sich auf die möglicherweise rekordverdächtigen Kosten der wetterbedingten Naturkatastrophen des Jahres 2020. Dabei ignoriert sie jedoch, was Bjorn Lomborg in seinem Buch „False Alarm“ als den „expandierenden Bulls-Eye-Effekt“ bezeichnet. Die gestiegenen Kosten von Naturkatastrophen in den letzten Jahrzehnten sind darauf zurückzuführen, dass Gemeinden zunehmend in Gebiete vordringen, die historisch gesehen anfällig für Naturkatastrophen sind – wie Überschwemmungsgebiete, Wälder und Küstengebiete – und dort immer teurere Strukturen und Infrastrukturen errichten. Dies hat zur Folge, dass bei extremen Wetterereignissen immer mehr teures Eigentum zerstört wird. Die steigenden Kosten von Naturkatastrophen sind demnach nicht auf den vom Menschen verursachten Klimawandel zurückzuführen, sondern auf einen direkt messbaren anthropogenen Faktor: die Zunahme der Anzahl und des Wertes von Vermögenswerten, die durch die demografische Verschiebung von Wohnorten und Lebensstilen ins Visier geraten.

Eine weitere wichtige „gute Nachricht“, die die Klimaalarmisten im Jahr 2020 als Tragödie darzustellen versuchten, findet sich in den zahlreichen Nachrichten über einen Bericht der Weltbank, dem zufolge Wasserknappheit im Nahen Osten – verursacht durch den vom Menschen verursachten Klimawandel – die Pflanzenproduktion bedroht. Wieder einmal hatten sich die Autoren des Weltbankberichts und die linken Medien, die ihn veröffentlichten, nicht die Mühe gemacht, die tatsächlichen Daten zu überprüfen. Hätten sie das getan, hätten sie herausgefunden, dass die Pflanzenproduktion in den im Bericht genannten Ländern des Nahen Ostens boomt, zum großen Teil aufgrund des Kohlendioxid-Düngeeffekts.

Die Weltbank behauptet, dass die durch den Klimawandel verursachte Wasserknappheit die landwirtschaftliche Produktion vor allem im Iran, Irak, Jordanien, Libanon, Syrien und der Türkei verringern wird. Tatsächlich zeigen die Daten, dass trotz erheblicher politischer Unruhen und andauernder Konflikte in der Region die Getreideproduktion im von Natur aus trockenen Nahen Osten mit der leichten Erwärmung der Erde zugenommen hat.

Daten der Ernährungs- und Landwirtschaftsorganisation der Vereinten Nationen (FAO) zeigen, dass während der Zeit der leichten Erwärmung seit 1989:

– Die Getreideproduktion im Irak stieg um 91 Prozent, während die Erntefläche um 5 Prozent zurückging.

– Die Getreideproduktion im Iran stieg um 187 Prozent, während die geerntete Fläche nur um 2,6 Prozent zunahm.

– Die Getreideproduktion in Jordanien stieg um 15 Prozent, während die geerntete Fläche um 30 Prozent zurückging.

– Die Getreideproduktion im Libanon stieg um 115 Prozent, während die geerntete Fläche um 30 Prozent zunahm.

– Die Getreideproduktion in Syrien stieg um 22 Prozent, obwohl die geerntete Fläche um 66 Prozent zurückging.
– Die Getreideproduktion in der Türkei stieg um 46 Prozent, obwohl die geerntete Fläche um 19 Prozent zurückging.

Die Tatsache, dass die Länder des Nahen Ostens ihre Ernteproduktion gesteigert haben – obwohl viele von ihnen in interne politische Unruhen, offene Bürgerkriege und externe Konflikte verwickelt sind – ist eindeutig eine gute Nachricht. Es ist keinesfalls Beweis für eine Klimakrise.

Die globale Erwärmung verlängert die Vegetationsperioden, reduziert Frostereignisse und macht mehr Land für die Pflanzenproduktion geeignet. Außerdem ist Kohlendioxid Dünger für die Pflanzenwelt. Die Pflanzen nutzen das Wasser unter Bedingungen mit höherem Kohlendioxid effizienter und verlieren weniger Wasser durch Transpiration. Letzteres sollte die Sorge der Weltbank über eine durch den Klimawandel verursachte Wasserknappheit und damit zu Ernteausfällen zerstreuen.

Traurigerweise übernehmen machthungrige Bürokraten und linke Mainstream-Medienorganisationen eine Behauptung nach der anderen mit unbegründeten Spekulationen über verschiedene Klimakatastrophen – während sie Fakten ignorieren, die darauf hinweisen, dass keine solchen Klimakatastrophen bevorstehen. Ich kann nur spekulieren, dass sie dies tun, weil gute Nachrichten nicht zu einem Ansturm auf eine autoritäre Klimapolitik ermutigen, die den Eliten die Kontrolle über Unternehmen und das Leben der Menschen gibt.

[Hervorhebung vom Übersetzer]

Quellen: Climate Realism; The Guardian; Phys.org; Climate Realism; World Bank; Bloomberg; Food and Agriculture Organization

Link: https://wattsupwiththat.com/2021/01/01/to-promote-climate-alarm-good-news-is-regularly-portrayed-as-a-disaster/

Übersetzt von Chris Frey EIKE




Man glätte niemals Zeitreihen!

Der Originaltitel ist als Wortspiel nur schwer übersetzbar: Do not smooth times series, you hockey puck!

Der Ratschlag, der den Titel dieses Beitrags bildet, wäre der eines Statistikers, wie man keine Zeitreihenanalyse durchführt. Nach den Methoden zu urteilen, die ich regelmäßig auf Daten dieser Art angewendet sehe, ist diese Zurechtweisung dringend nötig.

Der Ratschlag ist jetzt besonders relevant, weil sich eine neue Hockeystick-Kontroverse zusammenbraut. Mann und andere haben eine neue Studie veröffentlicht, in der viele Daten zusammengeführt wurden, und sie behaupten, erneut gezeigt zu haben, dass das Hier und Jetzt heißer ist als das Damals und Dort. Man gehe zu climateaudit.org und lese alles darüber. Ich kann es nicht besser machen als Steve, also werde ich es nicht versuchen. Was ich tun kann, ist zu zeigen, wie man es nicht tun soll. Ich werde es auch schreien, denn ich möchte sicher sein, dass jeder es hört.

Mann stellt auf dieser Site eine große Anzahl von Temperatur-Proxy-Datenreihen zur Verfügung. Hier ist eine von ihnen mit der Bezeichnung wy026.ppd (ich habe einfach eine aus dem Haufen herausgegriffen). Hier ist das Bild dieser Daten:

Die verschiedenen schwarzen Linien sind die tatsächlichen Daten! Die rote Linie ist ein geglätteter 10-Jahres-Mittelwert! Ich nenne die schwarzen Daten die realen Daten, und die geglätteten Daten die fiktiven Daten. Mann hat einen „Tiefpassfilter“ verwendet, der sich vom laufenden Mittelwert unterscheidet, um seine fiktiven Daten zu erzeugen, aber eine Glättung ist eine Glättung, und was ich jetzt sage, ändert sich kein bisschen, je nachdem, welche Glättung man verwendet.

Jetzt werde ich die große Wahrheit der Zeitreihenanalyse verkünden. Solange die Daten nicht mit Fehlern gemessen werden, glätte man nie, niemals, aus keinem Grund, unter keiner Drohung, die Reihe! Und wenn man sie aus irgendeinem bizarren Grund doch glättet, verwende man die geglättete Reihe AUF KEINEN FALL als Input für andere Analysen! Wenn die Daten mit Fehlern gemessen werden, kann man versuchen, sie zu modellieren (was bedeutet, sie zu glätten), um den Messfehler abzuschätzen, aber selbst in diesen seltenen Fällen muss man eine externe (das gelehrte Wort ist „exogene“) Schätzung dieses Fehlers haben, d.h. eine, die nicht auf den aktuellen Daten basiert.

[Alle Hervorhebungen im Original]

Wenn man in einem Moment des Wahnsinns Zeitreihendaten glättet und sie als Eingabe für andere Analysen verwendet, erhöht man dramatisch die Wahrscheinlichkeit, sich selbst zu täuschen! Das liegt daran, dass die Glättung Störsignale hervorruft – Signale, die für andere Analysemethoden echt aussehen. Egal wie, man wird sich seiner Endergebnisse zu sicher sein! Mann et al. haben ihre Reihen erst dramatisch geglättet und dann separat analysiert. Unabhängig davon, ob ihre These stimmt – ob es wirklich einen dramatischen Temperaturanstieg in letzter Zeit gibt – sind sie sich ihrer Schlussfolgerung nun garantiert zu sicher.

Und jetzt zu einigen Details:

● Ein Wahrscheinlichkeitsmodell sollte nur für eine Sache verwendet werden: um die Unsicherheit von noch nicht gesehenen Daten zu quantifizieren. Ich gehe immer wieder darauf ein, weil diese einfache Tatsache aus unerfindlichen Gründen offenbar schwer zu merken ist.

● Die logische Folge dieser Wahrheit ist, dass die Daten in einer Zeitreihenanalyse die Daten sind. Diese Tautologie ist dazu da, um zum Nachdenken anzuregen. Die Daten sind die Daten! Die Daten sind nicht irgendein Modell derselben. Die realen, tatsächlichen Daten sind die realen, tatsächlichen Daten. Es gibt keinen geheimen, versteckten „zugrundeliegenden Prozess“, den man mit irgendeiner statistischen Methode herauskitzeln kann und der die „echten Daten“ zeigen wird. Wir kennen die Daten bereits und sie sind da. Wir glätten sie nicht, um uns zu sagen, was es „wirklich ist“, weil wir bereits wissen, was es „wirklich ist“.

● Es gibt also nur zwei Gründe (abgesehen von Messfehlern), jemals Zeitreihendaten zu modellieren:

1. Um die Zeitreihe mit externen Faktoren in Verbindung zu bringen. Dies ist das Standard-Paradigma für 99 % aller statistischen Analysen. Man nehme mehrere Variablen und versuche, die Korrelation usw. zu quantifizieren, aber nur mit dem Gedanken, den nächsten Schritt zu tun.

2. Um zukünftige Daten vorherzusagen. Wir brauchen die Daten, die wir bereits haben, nicht vorherzusagen. Wir können nur vorhersagen, was wir nicht wissen, nämlich zukünftige Daten. So brauchen wir die Baumring-Proxydaten nicht vorherzusagen, weil wir sie bereits kennen.

Die Baumringdaten sind nicht die Temperatur! Deshalb werden sie Proxy-Daten genannt. Ist es ein perfekter Proxy? War die letzte Frage eine rhetorische Frage? War das auch eine? Weil es ein Proxy ist, muss die Unsicherheit seiner Fähigkeit, die Temperatur vorherzusagen, in den Endergebnissen berücksichtigt werden. Hat Mann das getan? Und was genau ist eine rhetorische Frage?

Es gibt Hunderte von Zeitreihen-Analysemethoden, die meisten mit dem Ziel, die Unsicherheit des Prozesses zu verstehen, damit zukünftige Daten vorhergesagt werden können und die Unsicherheit dieser Vorhersagen quantifiziert werden kann (dies ist aus gutem Grund ein riesiges Studiengebiet, z. B. auf den Finanzmärkten). Dies ist eine legitime Verwendung von Glättung und Modellierung.

Wir sollten sicherlich die Beziehung zwischen dem Proxy und der Temperatur modellieren und dabei die sich im Laufe der Zeit verändernde Natur des Proxys berücksichtigen, die unterschiedlichen physikalischen Prozesse, die dazu führen, dass sich der Proxy unabhängig von der Temperatur verändert, oder wie die Temperatur diese Prozesse verstärkt oder auslöscht, und so weiter und so fort. Aber wir sollten nicht damit aufhören, wie es alle getan haben, etwas über die Parameter der Wahrscheinlichkeitsmodelle zu sagen, die zur Quantifizierung dieser Beziehungen verwendet werden. Dadurch wird man sich der Endergebnisse wieder einmal viel zu sicher. Uns interessiert nicht, wie der Proxy die mittlere Temperatur vorhersagt, uns interessiert, wie der Proxy die Temperatur vorhersagt.

Wir brauchen keinen statistischen Test, um zu sagen, ob eine bestimmte Zeitreihe seit einem bestimmten Zeitpunkt gestiegen ist. Warum? Wenn man es nicht weiß, gehe man zurück und lese diese Punkte von Anfang an. Es liegt daran, dass wir uns nur die Daten ansehen müssen: wenn sie einen Anstieg zeigen, dürfen wir sagen: „Sie [die Zeitreihe] hat zugenommen.“ Wenn sie nicht gestiegen sind oder gar abgenommen haben, dann dürfen wir nicht sagen: „sie hat zugenommen.“ So einfach ist es wirklich.

Man kann mir jetzt sagen: „OK, Herr Neunmalklug. Was wäre, wenn wir mehrere verschiedene Zeitreihen von verschiedenen Orten hätten? Wie können wir feststellen, ob es einen generellen Anstieg bei allen gibt? Wir brauchen sicherlich Statistiken und p-Werte und Monte-Carlo-Berechnungen, um uns zu sagen, dass sie zugenommen haben oder dass die ‚Nullhypothese‘ von keiner Zunahme wahr ist.“ Erstens hat mich niemand schon lange „Herr Neunmalklug“ genannt, also sollten Sie sich Ihre Sprache besser überlegen. Zweitens: Haben Sie nicht aufgepasst? Wenn Sie sagen wollen, dass 52 von 413 Zeitreihen seit einem bestimmten Zeitpunkt gestiegen sind, dann schauen Sie sich die Zeitreihen an und zählen Sie! Wenn 52 von 413 Zeitreihen gestiegen sind, dann können Sie sagen „52 von 413 Zeitreihen sind gestiegen.“ Wenn mehr oder weniger als 52 von 413 Zeitreihen gestiegen sind, dann können Sie nicht sagen, dass „52 von 413 Zeitreihen gestiegen sind.“ Sie können es zwar sagen, aber Sie würden lügen. Es gibt absolut keinen Grund, über Nullhypothesen usw. zu schwätzen.

Wenn Ihnen die Punkte – es ist wirklich nur ein Punkt – die ich anspreche, langweilig erscheinen, dann habe ich es geschafft. Die einzige faire Art, über vergangene, bekannte Daten in der Statistik zu sprechen, ist, sie einfach zu betrachten. Es ist wahr, dass das Betrachten von massiven Datensätzen schwierig ist und immer noch eine Art Kunst darstellt. Aber Schauen ist Schauen und es ist völlig gleichberechtigt. Wenn Sie sagen wollen, wie Ihre Daten mit anderen Daten in Beziehung standen, dann müssen Sie wiederum nur schauen.

Der einzige Grund, ein statistisches Modell zu erstellen, ist die Vorhersage von Daten, die man nicht gesehen hat. Im Fall der Proxy-/Temperaturdaten haben wir die Proxies, aber wir haben nicht die Temperatur, so dass wir sicherlich ein Wahrscheinlichkeitsmodell verwenden können, um unsere Unsicherheit in Bezug auf die nicht gesehenen Temperaturen zu quantifizieren. Aber wir können diese Modelle nur erstellen, wenn wir gleichzeitige Messungen der Proxies und der Temperatur haben. Nachdem diese Modelle erstellt sind, gehen wir wieder zu dem Punkt zurück, an dem wir die Temperatur nicht haben, und können sie vorhersagen (wobei wir daran denken müssen, dass wir nicht ihren Mittelwert, sondern die tatsächlichen Werte vorhersagen müssen; außerdem müssen wir berücksichtigen, wie die Beziehung zwischen Temperatur und Proxy in der Vergangenheit anders gewesen sein könnte, und wie die anderen vorhandenen Bedingungen diese Beziehung verändert haben könnten, und so weiter und so fort).

Was man nicht tun kann oder sollte ist, zuerst die Proxydaten zu modellieren/glätten, um fiktive Daten zu erzeugen und dann zu versuchen, die fiktiven Daten und die Temperatur zu modellieren. Dieser Trick wird einen immer – einfach immer – zu sicher machen und in die Irre führen. Man beachte, wie die gelesenen fiktiven Daten viel strukturierter aussehen als die realen Daten und es wird verständlich.

Der nächste Schritt ist, mit den Proxydaten selbst zu spielen und zu sehen, was zu sehen ist. Sobald mir der Wunsch erfüllt wird, jeden Tag mit 48 Stunden zu füllen, werde ich das tun können.

Link: https://wmbriggs.com/post/195/

Übersetzt von Chris Frey EIKE

 




Abschätzung der CO2-Klimasensivität auf Basis des GLOBAL TEMPERATURE REPORTS (GTR)

Abb 1: Links: Zollstock und digitaler Mess-Schieber. Unterschied der Genauigkeit Rechts: Bearbeitung einer Welle an einer Drehbank. Quelle: Jeweils Pixabay

Zur Verdeutlichung dieser Diskrepanz ein Vergleich aus einem Bereich der Technik, der leicht verständlich ist. Um die Kupfer-Welle (Abb.1, rechts) auf der Drehbank exakt zu messen bzw. zu bearbeiten, benötigt der Arbeiter einen Mess-Schieber. Ein Zollstock ist für ihn unbrauchbar. Genau diesen Widerspruch sehen wir jedoch in der Welt der Klimaforscher. Sie verwenden sprichwörtlich den Zollstock, um die Bauteile einer hoch präzisen Maschine zu fertigen. Die ungenauen Temperatur-Daten dienen als Basis für die komplizierten Simulationen auf Groß-Computern. Zu allem Überfluss postulieren die Klimaforscher ihre Methodik als die einzig gültige Wahrheit (IPCC). Welch eine unglaubliche Farce. Der Autor hat Erfahrung im Bereich „Computational Chemistry“, ein Hilfsmittel zur theoretischen Voraussage bzw. Bestätigung von Eigenschaften unterschiedlichster Moleküle, z. B. die 3D-Struktur, Reaktivität oder innere Beweglichkeit. Bei den Anwendern von Computer-Simulationen gibt es den geflügelten Satz für eine Ausgangs-Basis mit schlechten Anfangsdaten: „Shit in, shit out.

  1. GLOBAL TEMPERATURE REPORT (GTR)

Der GLOBAL TEMPERATURE REPORT [2] zeigt in monatlicher Abfolge die berechnete globale Temperatur der unteren Atmosphäre (s. Abb.2). Verantwortlicher Wissenschaftler hinter diesen Daten ist der bekannte Klimatologe Dr. John R. Christy von der University of Alabama in Huntsville. Seit 2013 werden satelliten-basierende Temperatur-Messungen zusammengeführt, verarbeitet und auf der Homepage veröffentlicht. Christy hat zusätzlich die ab 1979 verfügbaren Satelliten-Messungen nachträglich verarbeitet. Ergebnis ist ein Säulen-Diagramm (Abb.2) mit den monatlichen Temperatur Abweichungen zur Referenz-Linie (0-Linie). Diese wird als Durchschnitts-Temperatur von 1981 bis 2010 3 errechnet. Zusätzlich wird auch eine Karten-Darstellung der Erde mit farblich gekennzeichneten Bereichen zur Verfügung gestellt. Auch für den November 2020 schön zu erkennen, die leichte Erderwärmung findet tendenziell mehr auf der Nordhalbkugel statt. Besonders in Antarktis-Nähe kühlt es eher ab. Diese These ist in vielen Veröffentlichungen bestätigt worden.

Abb 2: GLOBAL TEMPERATURE REPORT von November 2020 [2]
Abb 3: GLOBAL TEMPERATURE REPORT von November 2020. Darstellung als Karte [2]

  1. Vorteile der Satelliten-Daten

Im bereits erwähnten Vorgänger-Artikel [1] zu diesem Aufsatz wird im Kapitel 5.1.) Zuverlässigkeit der Proxy-Daten auf die Vorteile von in sich konsistenten Datensätzen eingegangen. Die GTR-Daten wurden im gesamten Erfassungs-Zeitraum vom gleichen Messgerät ermittelt, die Methodik und die Randbedingungen bleiben konstant. Systematische Fehler können daher nahezu ausgeschlossen werden. Wie auch bei den Proxy-Daten liegt in der guten Genauigkeit der relativen Änderungen innerhalb der Messreihen. Wie oft in der Naturwissenschaft ist es nicht nötig, die absoluten Daten, hier die Temperaturen, zu ermitteln. Ob zum Beispiel die mittlere Temperatur für Deutschland im Jahr 2017 14,2 °C betrug, spielt für eine mathematisch physikalische Auswertung keine Rolle. Entscheidend ist die in sich geschlossene und verlässliche Messreihe und deren korrekte Auswertung.

  1. Bearbeitung der GTR-Daten und erster Überblick

4.1.) Erster Überblick und Erkenntnisse aus den GTR-Daten

Das von Dr. Christy veröffentlichte Balken-Diagramm (Abb.2) ist extrem detailreich und folglich wenig übersichtlich. Was ist relativ schnell zu ermitteln? Die relativen Temperatur-Daten sind in den 80er und 90er Jahren überwiegend blau (negative Abweichung) und in den 2000er Jahren überwiegend rot (positive Abweichung). Im Betrachtungs-Zeitraum von 40 Jahren wurde es grob geschätzt 0,7 K wärmer. Auffallend sind die beiden extremen Temperatur-Spitzen um die Jahre 1998 und 2016. Dazu später noch mehr. Wegen der starken Schwankungen fällt es schwer, noch weitere Erkenntnisse aus dem Diagramm zu ermitteln.

4.2.) Glättung und Bearbeitung der Koordinaten-Achsen

Die monatliche Auflösung auf der X-Achse und die Darstellung des betrachteten Zeitraums von 40 Jahren sind nicht optimal. Andererseits ist die Y-Achse mit Y(min.)= -1,0K und Y(max.) = +1,0K zu wenig aufgelöst. Als besten Kompromiss fand der Autor eine Darstellung, bei der die X-Achse gestaucht, die Y-Achse gestreckt und die „zappelnden“ Messwerte geglättet sind. Das Ergebnis ist in Abb.4 dargestellt. Tatsächlich ist es nun leichter möglich, zusätzliche Erkenntnisse aus dem Graphen zu erhalten.

4.3.) El Nino und langzeit-konstante Temperaturen

Beginnen wir mit den bereits erwähnten Warm-Peaks von 1998 und 2016. Klimatologen und andere Fachleute kennen die Ursache der beiden Temperatur-Spitzen. Beide Male ist ein extrem starker „El Nino“ schuld, eine Meeresströmungs-Umkehr im Pazifik. Dieses Phänomen tritt unregelmäßig in einem Durchschnitts-Abstand von 4 Jahren auf und hat Auswirkung auf die Temperaturen der gesamten Erde. Von Anfang 1979 bis Ende 1997 (19 Jahre) blieb die mittlere Erdtemperatur erstaunlich konstant. Ausgehend von einem Mittelwert -0,1 K schwankte die Temperatur nur ca. 0,2 K nach oben oder unten. Das gleiche Bild im Zeitraum von Anfang 1999 bis Mitte 2015 (16,5 Jahre). Nach dem El Nino von 1998 ist der Level der konstanten Temperatur um ca. 0,2K angestiegen. Schließlich begann nach dem
El Nino von 2016 eine 3. Phase konstanter Temperatur, die bis heute (4,5 Jahre) anhält. Der Anstieg des Levels beträgt diesmal knapp 0,4K.

Abb 4: Bearbeitete GTR-Daten. X-Achse gestaucht, Y-Achse gestreckt, Werte geglättet.

Schließlich hilft eine lineare Regression, die Temperaturanstiegs-Tendenz grob abzuschätzen. Die Gerade hat eine Steigung von 0,0132 K/Jahr, oder etwas greifbarer 0,26 K auf 20Jahre. Noch einfacher: Ein Temperatur-Anstieg von etwa einem Kelvin auf 80 Jahre, d. h. 1 K bis zum Jahr 2100!

4.4.) Interpretation der Ergebnisse

Es darf nicht außer Acht gelassen werden, dass der Betrachtungszeitraum von 40 Jahren für die Klimatologie ein sehr kurzer Zeitraum ist. Nach Definition handelt es sich nur um 1 1/3 aufeinander folgende 30-jährige Klima-Zeiträume. Deshalb muss bei der Interpretation der Ergebnisse eine vorsichtige und kritische halbquantitative Herangehensweise im Vordergrund stehen, nicht die blanken Zahlen-Werte.

Erstaunlich sind die relativ konstanten Temperaturen in den 3 angegebenen Zeiträumen. Der Autor sieht sich nicht in der Lage, dazu eine fundierte Interpretation abzugeben. Ein Vergleich kann trotzdem angestellt werden. Die Klimaforscher (IPCC) vertreten seit 2016 die These, das anthropogen verursachte CO2 sei die alleinige Ursache des Temperatur-Anstiegs der letzten 170 Jahre. Wie erklären diese Leute die Zeiträume von 16,5 Jahren und 19 Jahren, in denen das anthropogene CO2 einerseits massiv angestiegen ist, andererseits die Temperatur nahezu konstant blieb? Kaum zu beantworten für die Klima-Alarmisten. Nun zur ermittelten Steigung von etwa einem Kelvin auf 80 Jahre. Bitte unbedingt beachten! Dieser großzügig geschätzte Anstieg von 1 K ermittelt sich unter der Annahme eines unge-bremsten anthropogenen CO2-Ausstoßes bis zum Jahr 2100! Selbst ohne CO2-Reduzierungs-Maßnahmen, ohne regenerativen Strom und ohne Elektro-Autos entsteht daraus kein Weltuntergangs-Szenario.

  1. Abschätzung der CO2-Klimasensivität mit Hilfe bearbeiteten GTR-Daten

Durch die erstaunlichen Ergebnisse bei der Auswertung der GTR-Daten war es nahezu die zwangsmäßige Folgerung, auch die CO2-Klimasensivität aus den Rohdaten zu ermitteln. Wie bereits unter 4.4.) deutlich gemacht, soll hier keine exakte Berechnung durchgeführt werden. Vielmehr eine Abschätzung der Größenordnung der CO2-Klimasensivität.

5.1.) Was ist die CO2-Klimasensivität?

Die CO2-Klimasensivität ist einfach definiert: Der Anstieg der mittleren Erdtemperatur bei Verdoppelung der CO2-Konzentration in der Atmosphäre.

Das IPCC behauptet seit ca. 30 Jahren, die CO2-Klimasensivität liegt mit 95% Wahrscheinlichkeit zwischen 1,5 K und 4,5 K, mit größerer Wahrscheinlichkeit im Bereich zwischen 3 K und 4,5 K. Inzwischen tauchen im Umfeld des IPCC Computer-Modelle auf, die von einer CO2-Klimasensivität über 6 K ausgehen. Warten wir auf den neuen IPCC-Bericht, der für das Jahr 2021 angekündigt ist.

5.2.) CO2-Klimasensivität, die zentrale Größe im Klima-Streit

Seit Greta Thunberg und „Fridays For Future“ ist die Klima-Diskussion im Bewusstsein der breiten Öffentlichkeit angekommen. Vereinfacht ausgedrückt, der angenommene Wert der CO2-Klimasensivität ist der zentrale und wichtigste Punkt der gesamten Diskussion und Auseinandersetzung zwischen den Klima-Alarmisten und Klima-Skeptikern. Sollte der wahre Wert der CO2-Klimasensivität bei 2 K oder darunter sein, erübrigt sich jeglicher Streit. Die Auswirkung des anthropogenen CO2 auf die mittlere Erdtemperatur wäre zu gering, um katastrophale Auswirkungen zu erwarten (siehe 4.4.).

5.3.) Keeling-Kurve: CO2-Konzentration der Atmosphäre seit 1958

Dr. Ralph Keeling hat 1958 begonnen an der meteorologischen Wetterstation auf dem hawaiianischen Vulkan Mauna Loa kontinuierlich die CO2-Konzentration der Atmosphäre zu messen. Deshalb wurde das Diagramm in Abb.5 auch nach ihm als Keeling-Kurve benannt. Seit 1958 steigt die CO2-Konzentration in der Atmosphäre an, hauptsächlich verursacht durch anthropogenen Ausstoß. Hauptverursacher sind Industrie (Prozess-Wärme), Heizen und Verkehr.
5.4.) Zusammenhang von CO2-Konzentration und Temperatur

Der mathematische Zusammenhang zwischen CO2-Konzentration und der Temperatur ist den Physikern und Meteorologen bereits lange bekannt. Deshalb wurde auch der Terminus „CO2-Klimasensivität“ eingeführt. Nur bei einer logarithmischen Funktion vergrößert sich der Y-Wert um einen festen Betrag, wenn der X-Wert jeweils verdoppelt wird. Der große Vorteil einer logarithmischen Funktion ist die Unabhängigkeit der Betrachtung, egal wo ein Referenzpunkt auf der X-Achse gesetzt wird. Die ideale Voraussetzung zur Auswertung der relativen GTR-Werte.
Der Zusammenhang zwischen CO
2-Konzentration und Relativ-Temperatur ist somit eine

Logarithmische CO2-Funktion F(GTR) *

Abb 5: Keeling-Kurve. CO2-Konzentration der Atmosphäre seit 1958

Dabei ist die Temperatur-Änderung, F(GTR) ein Proportionalitäts-Faktor, im vorliegenden Fall die Konstante für die GTR-Daten, die CO2-Konzentration und eine Bezugs-CO2-Konzentration.

Die Keeling-Kurve weist für das Jahr 1980 eine CO2-Konzentration von ca. 337 ppm und für das Jahr 2020 eine CO2-Konzentration von 410 ppm aus. Die Temperatur-Differenz zwischen diesen Jahren beträgt ca. 0,60 Kelvin. Somit folgt:

Mit dem ermittelten Proportionalitäts-Faktor lässt sich nun sehr einfach die zugehörige CO2-Klimasensivität berechnen.

Abb 6: Ermittelte logarithmische Funktion der CO2-Konzentration anhand der GTR-Daten Y-Achse: in Kelvin

  1. Abschätzung der CO2-Klimasensivität

Die aus den GTR-Daten ermittelte rechnerische CO2-Klimasensivität beträgt somit
2 Kelvin. Was sagt dieser Wert aus? Die Voraussetzungen für die gerade ausgeführte Berechnung müssen unbedingt beachtet und angewendet werden.

Der logarithmische Graph, der sich aus der Berechnung ergibt, ist nur dann richtig, wenn ausschließlich das anthropogene CO2 die Erderwärmung bewirkt.

Unter Klimatologen wird weltweit diskutiert und spekuliert. Realistisch betrachtet, sollten maximal 50% der Erderwärmung 4 durch Einbringung großer Mengen an anthropogenem CO2 in die Atmosphäre mit der Erwärmung in Zusammenhang stehen. Die meisten Klimatologen und Klimaskeptiker postulieren niedrigere Werte (10-40%). Somit wird basierend auf den GTR-Daten die CO2-Klimasensivität auf einen Maximal-Wert von etwa 1 Kelvin geschätzt.

7.) Schlussfolgerungen

Die Abschätzung der CO2-Klimasensivität auf Basis der satellitengestützten GTR-Daten liefert ein Ergebnis in einer sinnvollen Größenordnung. Schwäche dieser Untersuchung ist der für Klimatologen kurze Betrachtungszeitraum von 40 Jahren. Der Autor hat sich bewusst darauf beschränkt, nur die in sich konsistenten Messdaten einer einzigen Mess-Quelle zu verwenden, um den im Vorgänger-Artikel [1] ausgearbeiteten Unwägbarkeiten der konventionell gewonnenen Global-Temperaturen aus dem Weg zu gehen.

Im Vergleich zu neuen Fach-Publikationen über das Thema CO2-Klimasensivität, die 2017 von Hans Penner 6 in einem Übersichts-Artikel zusammengefasst wurden, bewegt sich das Resultat in guter Gesellschaft. Abgesehen von den Verweisen auf die Werte des IPCC und des PIK-Mitarbeiters Stefan Rahmstorff liegen die Ergebnisse für die CO2-Klimasensivität im Bereich von 0,2 Kelvin bis 1,0 Kelvin. Die vorliegende Arbeit kommt auf einen Maximalwert von etwa 1 Kelvin.

Bereits 2014 veröffentlichte Koelle eine Übersicht der Forschungs-Ergebnisse zur

CO2-Klimasensivität und den zeitlich immer kleiner werdenden Ergebnissen [7].

Abb 7: Übersicht zur Entwicklung der ermittelten CO2-Klimasensivität. Scafetta 2017 [7]
Zum Schluss ein Zitat aus der Zusammenfassung der Arbeit von Hans Penner [6]:Aus diesen Befunden wird ersichtlich, dass nach dem heutigen Stand der Wissenschaft technische Kohlendioxid-Emissionen keinen schädlichen Einfluss auf das Klima ausüben.Dem ist nichts mehr hinzuzufügen!

Literatur-Verzeichnis

[1] https://kaltesonne.de/wie-zuverlaessig-sind-die-ermittelten-globaltemperaturen-der-letzten-170-jahre/

[2] https://www.nsstc.uah.edu/climate/

[3] https://www.nsstc.uah.edu/data/msu/v6.0beta/tlt/uahncdc_lt_6.0beta5.txt

[4] https://kaltesonne.de/schweizer-klimaszenarien-ch2018-bis-zur-halfte-der-beobachteten-erwarmung-der-letzte-50-100-jahre-hat-naturliche-ursachen/

[5] https://kaltesonne.de/zwei-weitere-studien-finden-eine-stark-reduzierte-co2-klimawirkung-von-13-grad-pro-co2-verdopplung/

[6] https://www.fachinfo.eu/fi036.pdf (Dr. Hans Penner)

[7] Scafetta et al., International Journal of Heat and Technology, Sept. 2017, Vol. 35, S.18-26

 




Steigt der Meeresspiegel immer schneller? (T2/2)

<span style=“ font-size: 12pt;“>

Was zeigen Pegeldaten?

Der Vergleich wird nicht global vorgenommen, sondern exemplarisch anhand von Daten des Süd-Pazifik (grob die im Bild schwarz umrandete Region), einer laut unseren Medien und erschütternden Berichten von Regierungsvertretern dortiger Inselrepubliken auf vielen Klimagipfeln besonders schwer vom Klimawandel betroffenen Region, wie es ja auch die Satellitendaten mit der tiefroten Einfärbung ausweisen.

Bild 1 Karte der Änderungsraten der Meeresoberflächenhöhe (geozentrischer Meeresspiegel) für den Zeitraum 1993–2012 aus Satellitenaltimetriedaten. Quelle: Deutsches Klima-Konsortium: KLIMA-FAQ 13.1 | MEERESSPIEGELANSTIEG. Bild vom Autor ergänzt

Zusammengefasst wurde diese erste Sichtung (ein weiteres Kapitel mit einer zweiten folgt) anhand der Pegeldaten der Inselgruppen: Cook Islands; Fiji; Kiribaty; Marshall Islands; Tuvalu; Vanuatu; Samoa
Entnommen sind die Pegeldaten dem Australischen Pazifik-Monitoringprogramm.

Bild 2 Die verwendeten original-Pegeldaten des Australischen Pazifik-Monitoringprogrammes von 1993 – 2019 (6 Atolle). Grafik vom Autor erstellt

Anbei das Übersichtsbild der auf den Endwert normierten Pegelverläufe von Bild 2. Der Pegelanstieg über den Zeitraum 1993 – 2020 beträgt laut Regressionsgeraden 3,27 mm/pa. Falls der Verlauf so bleibt, wären das bis zum Jahr 2100 ca. 26 cm zusätzlicher Pegel.

Bild 3 Pegeldaten des Australischen Pazifik-Monitoringprogrammes von 1993 – 2019 (Datenauszug 6 Atolle und Mittelwert mit Trendgeraden). Grafik vom Autor erstellt

Eine grobe Analyse dieses Pegelverlaufs zeigt das folgende Bild. Es zeigt, dass die über den gesamten Zeitraum gelegte Regressionsgerade einen zu hohen Wert liefert. Der wirkliche Pegeltrend ergibt sich aus den Einhüllenden. Und danach wäre der Tiden-Pegelanstieg in dieser (angeblich) besonders schlimm vom Meerespegelanstieg betroffenen Region nur ca. ca. 2,1 mm/pa, bis zum Jahr 2100 also noch +16,80 cm zusätzlicher Pegel (und meilenweit entfernt von den im Bild 1 durch die Einfärbung angegebenen Pegel-Steigungsraten).

Bild 4 Pegeldaten (Mittelwert) des Australischen Pazifik-Monitoringprogrammes (Datenauszug 6 Atolle) von 1993 – 2019. Grafik vom Autor erstellt

Stellt man diesem Tidenpegelverlauf die Satellitendaten gegenüber, sieht man, dass die einzelnen Satelliten immer grob einen Trend-Beschleunigungszyklus überstreichen. Nimmt man den Verlauf eines Satelliten, lässt sich „herrlich“ ein hoher Trend ableiten, wie es Prof. Rahmstorf in seiner Aussage für den Spiegel gemacht hat (siehe Teil 1). Wenn man dazu skrupellos verheimlicht, dass eine solche Aussage mit ziemlicher Sicherheit als Globalwert-“Feststellung“ falsch ist, gelingt die Pegel-Alarmmeldung perfekt.

Bild 5 Pegeldaten (Mittelwert) des Australischen Pazifik-Monitoringprogrammes (Datenauszug 6 Atolle) von 1993 – 2019 und Satellitenpegel im gleichen Zeitmaßstab gegenübergestellt. Grafik vom Autor erstellt

In den Grafiken (des Autors) steht immer „ohne Samoa“. Der Grund anbei:
Alle Südseeatolle liegen auf einer seismisch hoch aktiven Bruchkannte (Pazifischer Feuerring). Ein latentes, regelmäßig sich wiederholendes Problem sind dort Erdbeben mit als Folge auch vertikalen Landbewegungen. Und Samoa wurde durch solche seit 1993 um ca. 25 cm „gesenkt“, also weit, weit mehr, als der Meerespegel seitdem anstieg.

Bild 6 Pegeldaten Samoa und Teil-Mittelwert des Australischen Pazifik-Monitoringprogrammes (Datenauszug 6 Atolle) von 1993 – 2019. Grafik vom Autor erstellt

Solche Pegelverfälschungen durch Erdbeben sind in vielen Pegeldaten (nicht nur aus) dieser Weltgegend enthalten, da die Tidenpegeldaten grundsätzlich die originalen Messwerte sind und nicht berichtigt werden (im gezeigten Mittelwertverlauf sind Erdbebeneinflüsse auch erkennbar). Dies zum Unterschied gegenüber den weltweiten Temperaturmesswerten, welche oft mit Nachbearbeitungen (auf die „richtigen Werte“ geändert) hinterlegt sind.

Bild 7 Beispiel von Erdbeben im Tidenpegelverlauf. Quelle: PSMSL-Viewer

Anmerkung: Ein nicht vernachlässigbarer, zusätzlicher Pegeldaten-Verfälschungseinfluss (oft um mehrere Zentimeter pro Jahr, Tokyo soll dadurch gar um ganze 4 m gesunken sein [7]) sind auch die vom Menschen verursachten Landsenkungen vieler (im Küstensumpf) gebauten Küstenstädte:
[Link] EIKE 13.08.2017: Manila versinkt durch Wasserentnahme im austrocknenden Untergrund. Der (reiche) Westen mit seinem CO2 soll daran schuld sein – und zahlen
[7]
) … Viele Megastädte, besonders in Asien, sind gefährdet – zum Beispiel Jakarta, Ho-Chi-Minh-Stadt und Bangkok … Tokio ist nach Jahrzehnten der Grundwasserentnahme vier Meter abgesunken. Erst als diese beendet wurde, konnte das Absinken in den 1970er-Jahren gestoppt werden. Indonesien hingegen will die Hauptstadt von Jakarta nach Borneo verlegen, unter anderem, da die Stadt zu versinken droht.

Langfristverlauf anhand von PSMSL-Pegeldaten

Die Pegeldaten des australischen Pegel-Monitoringprogrammes haben den großen Vorteil, lückenlos, gepflegt, aktuell und damit vertrauenswürdig zu sein. Leider beginnen aber alle erst mit dem Jahr 1993 und sie sind regional begrenzt.

Zeitlich längere Daten und dazu noch rund um den Globus liefert PSMSL. Allerdings sind dessen Pegeldaten eher ein Beispiel, wie wenig Wert – und das gilt besonders für die (angeblich) besonders schlimm betroffenen Gegenden – auf diese gelegt wird, denn viele Datensätze sind ganz einfach nur Datenmüll. Man muss schon gezielt nach brauchbaren suchen, um realistische Auswertungen zu erhalten.

Mit den folgenden Pegelhinterlegungen: Honolulu; Johnston Island; Christmas Island II; Rikitea; Midway Island; Wake Island (Marshall-Inseln); Malakal-B; Bundabreg, Burnett heads Austr.; Brisbane (west inner bar),
fanden sich über einen längeren Zeitraum verlaufende, leidlich konsistente und vor allem auch bis mindestens 2018 reichende Datensätze.

Informativ daraus der längste Datensatz, Honolulu:

Bild 8 Pegelverlauf Honolulu von 1905 – 2019. Datenquelle: PSMSL. Grafik vom Autor erstellt

Alleine dieser Verlauf zeigt wieder, dass selbst in der „schlimm betroffenen“ Pazifikregion nicht entfernt von einem Pegelalarm aufgrund eines „schlimmen, sich ständig erhöhenden Pegelanstiegs“ gesprochen werden kann. Zusätzlich bestätigt wird dies durch die Pegel-Änderungs-Auswertung (äquivalent zu Bild 7 in Teil 1).
Die von Herrn Prof. Rahmstorf gemeldete, schlimme Pegelanstiegsrate von 4,8 mm/pa gibt es auch in dieser Gegend ab und zu, allerdings mit sich in Summe auf Null ausmittelndem Gesamtwert.

Bild 9 Honolulu. Pegel-Änderungsrate (Residuals) der 5Jahre-Zeitspanne als Absolutwerte und als Steigungswerte der Regessionsgeraden von 1905 – 2019. Datenquelle: PSMSL. Grafik vom Autor erstellt

Folgendes Pegelbild veranschaulicht ein Problem der kurzen Datensätze im australischen Monitoringprogramm (diese beginnen alle mit dem Jahr 1993).

Bild 10 Pegeldaten Brisbane (Australien Ostküste) ab ca. 1965. Pegel auf das Jahr 2018 normiert. Datenquelle: PSMSL. Grafik vom Autor erstellt

Nun die Darstellung mit allen Pegeldaten:

Bild 11 Pegeldaten der zuvor gelisteten PSMSL-Datensätze mit Mittelwert und Regressionsgeraden 1947 – 2019. Pegel auf das Jahr 2018 normiert. Grafik vom Autor erstellt

Herausgehoben sieht der Mittelwertverlauf wie folgt aus:

Bild 12 PSMSL-Datensätze: Mittelwert und Regressionsgeraden ab 1947. Pegel auf das Jahr 2018 normiert. Grafik vom Autor erstellt

Die Änderungsraten wiederholen mit ihrer Zyklik den schon bekannten – unspektakulären – Verlauf des Mittelwertes um Null:

Bild 13 PSMSL-Datensätze Mittelwert: Pegel-Änderungsrate (Residuals) als Absolutwerte und als Steigungswerte der Regessionsgeraden von 1947 – 2019. Datenquelle: PSMSL. Grafik vom Autor erstellt

Als Abschluss zur Darstellung der „Bedrohungslage“ im Pazifikraum durch den Pegelanstieg das folgende Pegelbild. Vergleichend muss man dazu berücksichtigen, dass die seit Jahrtausenden sich jährlich wiederholenden Hurricans Flutwellen von 3 … 5 m Höhe erzeugen (neben den zusätzlich erscheinenden, ebenfalls recht regelmäßigen Tsunamis).
Anmerkung: Warum die Minimalpegel so gestuft ansteigen, ist dem Autor ein Rätsel. Vielleicht kann irgend ein kenntnissreicherer Leser*in im Kommentarblock dazu etwas mitteilen.

Bild 14 PSMSL-Datensätze: Mittelwert und Regressionsgeraden ab 1947. Pegel auf das Jahr 2018 normiert. Grafik vom Autor erstellt

Der Pegelanstieg soll aber das Hauptproblem sein und der reiche Westen als angeblich daran Schuldiger bezahlt vorsorglich dafür noch Billionen (zum Start jährlich ca. 100 Milliarden Dollar) „Ablass“ an die „betroffenen“ Länder (die auf den Klimakongressen so werbewirksam – und unwidersprochen – weinen können). Mehr Irrsinn erscheint kaum möglich (wird mit Sicherheit aber noch kommen, nachdem die von den Laien als „Fachkraft“ im Verbrennen von Geld in der EU so erfolgreich „platziert“ wurde).

Fazit

Auch die Nachschau der Tidenpegeldaten belegt eher, dass die Aussage des hohen Pegelanstiegs von Herrn Rahmstorf viel eher falsch als richtig ist. Zudem werden die Küsten nicht durch den aus 1.320 km Höhe nach endlosen Korrektur(versuchen) „gemessenen“ Satellitenpegel, sondern weiterhin nur durch den an den Küsten wirklich vorhandenen beeinflusst.

Zufügung

Der Autor sichtet seit vielen Jahren auf der immer verzweifelteren Suche nach den viel berichteten, erschütternd schlimmen Pegelanstiegen und untergegangenen Inseln recht konsequent Pegelverläufe (und berichtet die Ergebnisse auf EIKE).
Die bisherige, leider auch hier wieder zu 100 Prozent zutreffende Feststellung bleibt: Es handelt sich bei solchen Meldungen immer um betrügerische nicht der wirklichen Faktenlage entsprechenden Aussagen.

In Deutschland darf man solche aber jederzeit wiederholen und beliebig publizieren. Denn kein Fachinstitut würde es wagen, öffentlich zu widersprechen (dann wären im Merkeldeutschland Karriere und Forschungsmittel dahin):
STERN, 26.12.2020: [3] Wirtschaftswachstum: Corona-Turbo – China wird die USA schon 2028 hinter sich lassen
… Das CEBR (Anm.: Center for Business and Economic Research) nimmt an, dass Umweltfragen in den nächsten 15 Jahren einen ernsthaften Einfluss auf die Form der Weltwirtschaft haben werden. „Es wird erwartet, dass der Meeresspiegel bis zum Jahr 2035 um 45 cm gegenüber dem Basisjahr 2000 steigen wird. Dies steht im Vergleich zu dem geringeren Anstieg von 20 cm bis 2030, der vor zwei Jahren vorhergesagt wurde“ …
Anmerkung: Das wäre ein Pegelanstieg von 12,86 mm/pa für die berichteten 35 Jahre. Da davon schon 20 Jahre mit nur maximal 2 mm/pa vergangen sind, müsste der Pegel nun spontan mit 27 mm/pa steigen. Man würde erwarten, dass das sogar einem STERN-Redakteur auffällt. Dann hätte er den erforderlichen Alarmartikel aber nicht schreiben können, und das hat eine höhere Priorität.

Dem STEN-Artikel gegenüber ist Herr Prof. Rahmstorf mit „seinem“ Pegelanstieg wirklich noch moderat. Ein Kollege von ihm im PIK macht das aber wieder wett. Prof. Levermann hält in einer Studie mit seiner Beteiligung „denkbare“ 8,9 m Pegelanstieg bis zum Jahr 2100 für möglich (das wären ab sofort ca. 100 mm/pa nötiger Pegelanstieg):
[6] EIKE 10. November 2019: Statt 80 sind plötzlich 300 Millionen Küstenbewohner vom Klimawandel bedroht

Bild 15 [6] Vorhersagen, „möglicher“ Meerespegel zum Jahr 2100. Die 8,9 m (mit Tolerierung stammen aus einer Studie unter Beteiligung von Herrn Prof. Levermann)
 

Die „Botschaft“ ist aber angekommen und ausschließlich darauf kommt es diesen Protagonisten an.

In der Frankenprawda (Nordbayerische Nachrichten) wird fast täglich in irgend einem Kommentar auch auf den schlimmen Klimawandel hingewiesen. Fehlt der Kommentar, erfolgt es in einem Artikel, Beispiel 02.01.2021, Nicole Quint (Reisereporterin, Ausbildung unbekannt): Artikel „Die Welt zu Tode liegen“, Zitat: „ … Mittel- bis Langfristig nützt eine Stelle als Zimmermädchen in einem Ressort auf den Malediven wenig, denn der Archipel droht in Folge des steigenden Meeresspiegels unterzugehen … “.
Gegendarstellung: Auf den Malediven scheint vielmehr etwas Anderes unterzugehen: EIKE 29.12.2020: Alarmismus geht auf den Malediven unter
… 97% der 186 Inseln haben entweder an Fläche zugelegt (59%) oder blieben in der Fläche unverändert (38%) …
Einfach immer das Gleiche, sowohl in der Politik wie auch bei unseren Medien: Keine Ahnung, dafür aber ein gefestigter Glaube, der sich in reinem Nachplappern äußert, was aber als (angebliche) Bildung ausgewiesen wird.

Quellen

[1] SPIEGEL Wissenschaft, Rahmstorf 15.12.2020: Klimakrise Warum der Meeresspiegel immer schneller steigt

[2] kaltesonne 23.12.2020: Die Welt säuft ab…wirklich?

[3] STERN, 26.12.2020: Wirtschaftswachstum: Corona-Turbo – China wird die USA schon 2028 hinter sich lassen

[4] RAHMSTORF 22. Feb 2016. SciLogs > KlimaLounge > Allgemein > Meeresspiegel über die Jahrtausende

[5] H. Bâkiİz* and C.K. Shum, January 29, 2020: The certitude of a global sea level acceleration during the satellite altimeter era

[6] EIKE 10. November 2019: Statt 80 sind plötzlich 300 Millionen Küstenbewohner vom Klimawandel bedroht

[7] DKK, Schrift: Zukunft der Meeresspiegel




Warum zeigen die Wassertem­peraturen von HadSST einen Abkühlungs­trend?

Zunächst ein Blick auf die fragliche Graphik in Abbildung 1 aus dem vorigen Beitrag:

Abbildung 1. Dieser Beitrag zeigt die globale Durchschnittstemperatur für den von HadSST abgedeckten Teil des Ozeans in diesem Jahr. Es werden sowohl die HadSST-Temperaturen als auch die ERSST-Temperaturen gezeigt, aber die ERSST-Gitterwerte sind auf den von HadSST abgedeckten Bereich zugeschnitten.

Wie wir in unseren vorherigen Beiträgen besprochen hatten, haben die mit Werten besetzten HadSST-Gitterzellen die besten Daten. Die Zellen sind 5° Breitengrad- und Längengrad-Boxen. Am Äquator sind diese Zellen über 300.000 qkm groß, größer als der Staat Colorado. Wenn Nicks Idee richtig wäre, würden wir erwarten, dass die Wertemenge in den Zellen an beiden Polen zunimmt. Abbildung 2 zeigt den prozentualen Anteil des globalen Gitters (einschließlich der 29% mit Land), der mit besiedelten SST-Zellen (Meeresoberflächentemperatur) bedeckt ist, nach Jahr. Die Anzahl der fehlenden Zellen variiert nicht sehr stark, das Minimum liegt bei 44% und das Maximum bei 48%. Es gibt zwar einen Abwärtstrend von 2001-2008, aber keinen Trend danach. Abbildung 1 flacht nach 2008 zwar ab, aber man muss sich schon anstrengen, um einen Anstieg von 2008 bis 2018 zu sehen.

Abbildung 2. Die Anzahl der monatlichen Nullzellen im HadSST-Datensatz, als Prozentsatz der gesamten globalen monatlichen Zellen pro Jahr (72x36x12=31.104).

Also, keine eindeutige Aussage aus diesem Diagramm. Schauen wir uns die Null-Zellen nach Jahr und Breitengrad in Abbildung 3 an.

Abbildung 3. Die Anzahl der monatlichen Null-Zellen, nach Jahr und Breitengrad.

Abbildung 3 zeigt, dass die Null-Zellen in den Polarregionen über den Zeitraum von 2001 bis 2018 ziemlich konstant sind. Ich habe 2018 zu einer dicken schwarzen Linie und 2001 zu einer dicken roten Linie gemacht, damit man den Anfang und das Ende der Reihe deutlicher sehen kann. Die wirkliche Variabilität liegt im südlichen Indischen, Pazifischen und Atlantischen Ozean von 55°S bis 30°S. Dies sind mittlere Breiten, nicht polare Breiten. Weder 2018 noch 2001 sind Ausreißer.

Das gleiche Muster ist zu erkennen, wenn wir uns einen Film der sich verändernden Nullzellen von 2001 bis 2018 ansehen. Klicken Sie auf die Karte unten, um den Film zu sehen.

Abbildung 4. Karte mit der Anzahl der monatlichen Nullzellen im HadSST-Datensatz für das Jahr 2001. Um zu sehen, wo die Nullzellen in allen Jahren bis 2018 sind, klicken Sie auf die Karte und ein Film wird abgespielt. Wie zuvor haben die weißen Bereiche keine Nullmonate in dem jeweiligen Jahr, die blaue Farbe ist entweder ein oder zwei Nullmonate und die anderen Farben sind mehr als zwei Nullmonate. Rot bedeutet, dass die gesamte Zelle null ist. [Sollte das mit dem Film nicht funktionieren, schaue man bitte im Original. Anm. d. Übers.]
Schlussfolgerungen

Die Anzahl der Nullzellen in den Polarregionen scheint sich von 2001 bis 2018 nicht wesentlich zu ändern. Die Änderungen treten in den südlichen mittleren Breiten auf. Die Anzahl der Nullzellen, als Prozentsatz des Globus, geht von 2001 bis 2008 etwas zurück, aber nur von 48 % auf 44 %, nicht genug, um einen Trend umzukehren. Nach 2008 gibt es keinen Trend bei den Nullzellen. Von 2008 bis 2018 ist der Temperaturtrend flach und nicht abnehmend, aber angesichts der Tatsache, wo sich die Anzahl der Zellen ändert, ist es schwer zu sagen, dass dies auf die Anzahl der besiedelten Zellen in den Polarregionen zurückzuführen ist.

Der Leser kann sich seine eigene Meinung bilden, aber meiner Meinung nach haben wir immer noch keine Ahnung, was die globale Ozeanoberflächentemperatur ist, oder ob sie steigt oder sinkt.

Link: https://wattsupwiththat.com/2020/12/26/why-do-the-hadsst-sea-surface-temperatures-trend-down/

Übersetzt von Chris Frey EIKE




Deutschland – ein Wintermärchen

Ab 2021 gilt eine neue Klima-Normalperiode, die von 1991 bis 2020

Auch wenn es Klima-Erwärmungsgläubigen schwerfällt – ab sofort wird auf Beschluss der Weltorganisation für Meteorologie (WMO) die alte, kalte und schon reichlich angestaubte Normalperiode von 1991 bis 1990 durch die aktuelle, wärmere von 1991 bis 2020 ersetzt. Das hat Konsequenzen – künftig liegt die Messlatte für warme Jahre und Jahreszeiten viel höher. Für den Winter im Deutschland-Mittel bedeutet es Folgendes: Von 1961 bis 1990 (Abkühlungsphase) betrug das Vergleichs-Wintermittel +0,3°C, von 1981 bis 2010 +0,9°C, 1991 bis 2020 aber +1,4°C. Betrachtet man nun aber die Entwicklung der Winter-Temperaturen im Deutschland-Mittel seit dem „Klimasprung“ von 1987/88, als es letztmalig plötzlich im Winter merklich wärmer wurde, so zeigt sich fast Stagnation; die weitere Erwärmung war gering und nicht signifikant. Der aktuelle Winter wurde dabei vom Verfasser dieses Beitrages eher optimistisch auf +2,0°C geschätzt, diese muss er erst einmal erreichen:

Abbildung 1: Seit Anfang 1987/88 erwärmte sich der Winter in Deutschland kaum noch; auch der aktuelle, recht milde wird wohl etwas kühler ausfallen, als die Winter von 1988 bis 1990. Der extrem milde Rekordwinter von 2006/07 mit fast +4,4°C liegt nun auch schon fast anderthalb Jahrzehnte zurück.

Immer weniger Arktisches Meereis im Winter?

Auch den flächen- und volumenmäßigen Rückgang des arktischen Meereises bestreitet niemand, doch sieht dieser weitaus dramatischer aus, als er tatsächlich ist, denn eine quantitative, kontinuierliche, relativ zuverlässige Erfassung war erst mit der Weiterentwicklung der Satelliten-Technik ab dem Jahre 1979 möglich – aber damals war gerade der Höhepunkt einer Abkühlungsphase erreicht; es wurden schon Wetten abgeschlossen, ob man bald über das Eis von Grönland nach Island laufen könne – und es kam dann ganz anders: Wegen der um 1990 einsetzenden AMO-Warmphase wurde viel Wärme in die Arktis eingetragen; das Eis zog sich zurück. Allerdings gab es derartige Rückzugsperioden auch schon während der AMO-Warmphase um 1930, und wie hätten die Wikinger im frühen Mittelalter Island, Grönland und Neufundland erreichen können, wenn es damals viel Eis gegeben hätte? So zeigt sich auch die aktuelle, winterliche Entwicklung der Meereisbedeckung nur leicht unterdurchschnittlich und keineswegs dramatisch:

Abbildung 2: Flächenentwicklung des Arktischen Meereises bis zum 4. Januar 2021 (hellblaue Linie). Noch im Oktober gab es, gemessen am Mittelwert von 1981 bis 2010, viel zu wenig Eis, doch in den vergangenen 10 Wochen verringerte sich dieses Defizit merklich. Bildquelle

Mehr Schneebedeckung in Eurasien?

In den vergangenen zwei Wintern hatten Schneefans in Mitteleuropa wenig Freude; die „weiße Pracht“ war, wenn überhaupt, nur im höheren Bergland zu bewundern. Doch Europa ist nur das bedeutungslose Anhängsel des Riesen-Kontinents Eurasien. Betrachtet man dessen Ausdehnung der Schneebedeckung zu verschiedenen Jahreszeiten, so zeigt sich folgendes Bild:

Abbildung 3: Seit 1978, dem Beginn der regelmäßigen Erfassung, hat sich die von Schnee bedeckte Fläche in Eurasien im Herbst deutlich und im Winter leicht vergrößert; im Frühling nahm sie, vermutlich durch längere und intensivere Besonnung, ab.

Beeinflusst die AMO die Wintertemperaturen in Deutschland?

Die Atlantische Multidekaden-Oszillation (Abkürzung AMO; engl. atlantic multidecadal oscillation) ist die Bezeichnung für eine zyklisch auftretende Zirkulationsschwankung der Ozeanströmungen im Nordatlantik. Sie bringt eine Veränderung der Meeresoberflächentemperaturen des gesamten nordatlantischen Beckens mit sich, wodurch Einfluss auf die Atmosphäre ausgeübt wird. Gegenwärtig befinden wir uns in einer AMO-Warmphase, die um 1990 begann und möglicherweise bald enden wird. Doch während für die Jahreszeiten Sommer und Herbst sowie für den April eindeutige, positive Einflüsse bestehen (in AMO-Warmphasen sind diese in Deutschland tendenziell wärmer), konnten für den Winter keine eindeutigen Zusammenhänge gefunden werden:

Abbildung 4: Fast Gleichlauf zwischen der schwarzen Kurve (NAO) und der violetten (Westlagen-Häufigkeit) im meteorologischen Winter. Deren langfristige Entwicklung erklärt recht gut die Entwicklung der Deutschen Wintertemperaturen (hellblau). Zur grünen Kurve (AMO) besteht mit r= 0,146 nur ein geringer, nicht signifikanter positiver Zusammenhang. Weil die vier Größen sehr unterschiedliche Werte haben, wurden sie zur besseren Veranschaulichung in einer Grafik in Indexwerte umgerechnet.

Tendenziell treten in AMO-Phasen mehr Süd- und Südwestlagen auf; doch bringen gerade Südlagen im Winter nicht immer deutlich übernormale Temperaturen. Trotzdem könnte es bei sehr hohen AMO-Werten, wie gegenwärtig, im Einzelfall zu verstärkten, gebietsweisen Warmluft-Einbrüchen im Winter kommen. Der sehr milde Dezember 2020, in dem Westlagen aber eher selten waren, deutet in diese Richtung. Er wies am Monatsanfang und am Monatsende zwei markante Troglagen über West- und Mitteleuropa auf. Dabei standen sich zeitweise ein Tief über dem südlichen Mitteleuropa und ein Russland-Hoch gegenüber; zwischen beiden strömte über Westpolen extrem milde Mittelmeer-Luft nordwärts, während in West-und Mitteleuropa sonst nasskaltes Wetter mit gebietsweisen Schneefällen in den Mittelgebirgen und extrem starken Schneefällen in den Alpen herrschte:

Abbildung 5: Winterlicher, räumlich eng begrenzter Warmlufteinbruch über den Balkan, Böhmen und Westpolen am 6. Dezember 2020. Dort wurden noch abends zweistellige Plusgrade gemessen, während es über Südrussland schon frostig kalt und in Mittel- und Westeuropa nasskalt war. Bildquelle

Winter und Energiewende – das passt nicht gut zusammen

Der Dezember 2020 zeichnete sich, ganz anders als seine beiden Vorgänger, durch viele Flauten aus; auch die Sonnenscheindauer blieb gering:

Abbildung 6: Während die Solarenergie im Dezember 2020 praktisch keinen nennenswerten Strom lieferte, war auch Windstrom bis zur Monatsmitte und am Monatsende Mangelware. Braun- und Steinkohle, Kernkraft und zunehmend Erdgas verhinderten, dass in Deutschland die Lichter ausgingen.

Und in den ersten Januartagen sah es für die „Erneuerbaren“ Energien auch alles andere als rosig aus:

Abbildung 7: Fehlstart der „Erneuerbaren“ bis zum 5. Januar 2021: An den ersten zwei Januartagen kaum Wind, auch danach unterdurchschnittliche Windausbeute. Und die Sonne lieferte praktisch Nichts – zum Glück gibt es (noch) Kohle- und Kernkraftwerke; bei deren Abschaltung werden wir wohl künftige Winter in Kälte und Dunkelheit verbringen müssen.

Im Winter steigt der Stromverbrauch tendenziell an, weil mehr Licht benötigt und die meisten Heizungsanlagen zwar mit Erdgas oder Öl befeuert, aber mit Strom gesteuert werden. Anders als in den übrigen Jahreszeiten, nahm im Winter die Anzahl der unbestimmten, schwachwindigen XX-Lagen nur geringfügig zu; dennoch sind die Produktionsergebnisse des Windstroms trotz weiteren Ausbaus gerade der Offshore-Anlagen unbefriedigend. Sollte sich der Trend zu mehr schwachwindigen Wetterlagen künftig auch im Winter beschleunigen, was durchaus zu erwarten ist, so dürfte das endgültige Scheitern der Energiewende nicht mehr zu verhindern sein.

Zusammengestellt von Stefan Kämpfe, unabhängiger Klimaforscher, am 05. 01. 2021