1

Viele Behauptungen bzgl. „Klima-Krise“ beruhen auf manipulierter Wissenschaft

Das ist eine Lüge, und ich vermute, dass die meisten der Leute, die diese apokalyptischen Prophezeiungen machen, das wissen. Für sie ist es das moderne Äquivalent zu Platons edler Lüge – sie belügen die Menschen, um sie dazu zu bringen, in einer Weise zu handeln, von der sie nicht wissen, dass sie in ihrem eigenen besten Interesse ist. Nicht zufällig profitieren diejenigen, die diese Lüge erzählen, davon in Form von Einfluss, Geld, Macht oder allen dreien.

Diese Lüge ist in der Tat weder edel, noch basiert sie auf fundierter Wissenschaft. Vielmehr wird sie durch die regelmäßige Unterdrückung unbequemer wissenschaftlicher Daten aufrechterhalten: Daten, die verändert, unterdrückt oder aus Zeitschriften und Lehrbüchern gestrichen wurden, die die unhaltbaren Behauptungen der politisch verbundenen Klimawissenschaftler Lügen strafen, dass eine anthropogene Klimaapokalypse bevorsteht.

Die große Lüge basiert auf der fehlerhaften Prämisse, dass die Wissenschaft die Ursache für die bescheidene Erwärmung der Erde in jüngster Zeit realistischerweise in erster Linie auf die menschlichen Treibhausgasemissionen zurückführen kann und dass wir daraus mit Sicherheit vorhersagen können, wie die Welt in 50, 100 und 300 Jahren aussehen wird. Der preisgekrönte Klimawissenschaftler Richard Lindzen, Ph.D., hat die große Lüge so beschrieben:

Ein Problem bei der Vermittlung unserer Botschaft ist die Schwierigkeit der Menschen, die Absurdität der alarmistischen Klimabotschaft zu erkennen. Sie können nicht glauben, dass etwas so Absurdes eine so universelle Akzeptanz finden kann. Stellen Sie sich die folgende Situation vor. Ihr Arzt erklärt, dass Ihre komplette Untersuchung darin bestehen wird, einfach Ihre Temperatur zu messen. Dies würde sofort darauf hindeuten, dass mit Ihrem Arzt etwas nicht stimmt. Er behauptet weiterhin, dass Sie an lebenserhaltende Maßnahmen angeschlossen werden müssen, wenn Ihre Temperatur 37,1°C und nicht 37,0°C F beträgt. Jetzt wissen Sie, dass er unzurechnungsfähig ist. Die gleiche Situation für das Klima wird als ’settled science‘ betrachtet.“

Zu den ungeheuerlichsten Versuchen, unbequeme Klimawissenschaft zu unterdrücken, gehörte der Versuch des IPCC im Jahre 2001, die tatsächliche Klimahistorie durch die Grafik des „Hockeysticks“ zu ersetzen. Der Hockeystick verzichtete auf die bekannte Mittelalterliche Warmzeit von ca. 950 n. Chr. bis 1250 n. Chr. und die Kleine Eiszeit, die von ca. 1350 n. Chr. bis 1850 n. Chr. dauerte. Die Erfinder des Hockeysticks postulierten, dass die globalen Temperaturen im letzten Jahrtausend relativ stabil gewesen seien, bis sie im 20. Dies passte in das IPCC-Narrativ des Klimawandels, so dass es als die Wahrheit angenommen wurde. Letztendlich konnte sogar der IPCC die Hockeyschläger-Temperaturrekonstruktion nicht mehr aufrecht erhalten, und in den nachfolgenden Berichten tauchte sie auch nicht mehr auf.

Dann kam Climategate, als eine Menge unbequemer E-Mails zwischen den Klimawissenschaftlern des IPCC gehackt und öffentlich wurden. In diesen E-Mails wurde detailliert darüber diskutiert, wie man die Tatsache, dass der jüngste, sich abzeichende Erwärmungstrend nicht historisch ungewöhnlich war und wie man die einer apohkalyptischen Erwärmung widersprechenden Forschungen untergraben und zensieren könne.

Das Surface Station Project enthüllte das schmutzige kleine Geheimnis, dass die Temperaturmessungen der überwiegenden Mehrheit der bodengestützten Temperaturstationen durch städtisches Wachstum beeinträchtigt wurden, wodurch die Temperaturmessungen nach oben verzerrt wurden. Tatsächlich fand die Forschung heraus, dass 89 Prozent der Bodenstationen – fast 9 von 10 – die Anforderungen des National Weather Service nicht erfüllen, wonach die Stationen 30 Meter oder mehr von einer künstlichen Wärmequelle entfernt sein müssen.

Zusätzliches wissenschaftliches Fehlverhalten tritt in Form von Temperatur-Überwachungsagenturen auf, welche Temperatur-Aufzeichnungen von unvoreingenommenen, isolierten Temperaturstationen „anpassen“ und sie in einer Weise veröffentlichen, die anzeigt, dass vergangene Temperaturen niedriger und die jüngsten Temperaturen höher waren als tatsächlich gemessen. Diese Manipulation erzeugt einen künstlich steilen Temperaturtrend, der die jüngste Erwärmung größer erscheinen lässt, als sie tatsächlich war. In einigen Fällen, als diese ruchlosen Handlungen aufgedeckt wurden, versuchten die beteiligten Regierungsbehörden, die offiziellen Aufzeichnungen der vergangenen Temperaturen zu löschen. Glücklicherweise sind im Zeitalter des Internets, in dem Daten, die einmal gepostet wurden, für immer sind, diese Orwellschen Versuche, die Klimageschichte umzuschreiben, weitgehend gescheitert.

Als die globale Erwärmung seit 15 Jahren zum Stillstand gekommen war und die Temperatur trotz stetig steigender Kohlendioxid-Emissionen stagnierte, änderte ein Team von Klimaforschern der National Oceanic and Atmospheric Administration (NOAA) die Art und Weise, wie die Meerestemperaturen gemessen wurden. Voilà, wie von Zauberhand verschwand der Stillstand. David Rose für die Daily Mail beschrieb den Vorgang so: „[NOAA-Forscher] nahmen zuverlässige Messwerte von Bojen, aber ‚korrigierten‘ sie dann nach oben – indem sie Messwerte von Kühlwasser-Einlässen auf Schiffen verwendeten, die als Wetterstationen fungieren … obwohl die Messwerte von den Schiffen schon lange dafür bekannt sind, viel zu hoch zu sein.“

Kürzlich haben einige der gleichen Personen, die der Welt den „Hockeystick“ bescherten, eine weithin kolportierte Studie mit der Behauptung veröffentlicht dass ein seit langem bekanntes Muster der Ozeanzirkulation, die Atlantische Multidekadische Oszillation (AMO), die das Klima beeinflusst, überhaupt nie existiert hat, sondern ein Artefakt vulkanischer Impulse war. Die Klimaforscherin Judith Curry, Ph.D., schreibt zu dieser Arbeit [auf Deutsch beim EIKE hier]:

Wow! Auf einen Schlag sind die lästigen Probleme des „Grand Hiatus“ Mitte des 20. Jahrhunderts, die Debatten über die Zuordnung der Erwärmung des 20. Jahrhunderts und die Rolle der multidekadischen internen Variabilität sowie die Schwierigkeit, die jüngste Zunahme der atlantischen Hurrikanaktivität dem AGW zuzuschreiben, alle verschwunden. Brillant! Fast so ‚brillant“ wie der Hockeystick.“

Es gibt wenig Zweifel daran, dass sich die Erde erwärmt [hat], aber die Liste der Verstöße gegen die wissenschaftliche Methode und die Ethik von Forschern, deren Karrieren eng mit der „Wahrheit“ des Klimaalarmismus verbunden sind, bietet mehr als genug Grund, an der Behauptung zu zweifeln, dass die Wissenschaft settled ist und die Erde dem Untergang geweiht ist, ohne dass die Regierung autoritäre Kontrolle über alle Aspekte des Lebens der Menschen erhält.

H. Sterling Burnett, Ph.D, is a senior fellow at The Heartland Institute, a nonpartisan, nonprofit research center headquartered in Arlington Heights, Illinois.

Link: https://townhall.com/columnists/hsterlingburnett/2021/03/23/many-climate-crisis-claims-are-based-on-manipulated-science-n2586662

Übersetzt von Chris Frey EIKE

 




PAGES 12K: Die Eiszeit geht weiter

Ich denke, das Papier stellt einen gutgläubigen Versuch dar, den globalen Klimawandel über die letzten 12.000 Jahre zu rekonstruieren. Die Autoren waren sehr transparent, was die Daten und Verfahren angeht, und merkten sogar an, dass niemand wirklich weiß, wie man das Klima auf dieser Art von Skala rekonstruieren kann. Obwohl es sich nicht um einen Mann’schen Hockeystick oder ein Marcott’sches Durcheinander handelt, bestanden sie darauf, die niederfrequente Komponente des Klimasignals auszublenden und die hochauflösende instrumentelle Aufzeichnung direkt mit der sehr niederfrequenten, stark geglätteten Multi-Proxy-Rekonstruktion zu vergleichen. Das heißt, eine ihrer fünf Rekonstruktions-Verfahren bewahrte das niederfrequente Klimasignal (ja, ich verwende das Wort „Signal“ korrekt). Dieser Beitrag soll auf zwei Dinge hinweisen:

1. Direkte Vergleiche der instrumentellen Daten mit der Rekonstruktion verletzen die Grundprinzipien der Signaltheorie.

2.Nur das Composite Plus Scale (CPS)-Verfahren ist mit den Beobachtungen konsistent.
Verletzung der Signaltheorie, 15-Yard-Raumstrafe* und Loss of Down*

[*Diese Begriffe stammen aus dem American Football und lassen sich nicht übersetzen. Sie sind sehr grob vergleichbar mit einem Elfmeter im Fußball. A. d. Übers.]

Dies ist aus der Einleitung der Studie:

Die Datenbank ist die umfassendste derzeit verfügbare globale Zusammenstellung von bisher veröffentlichten holozänen Proxy-Temperaturzeitreihen. Sie umfasst eine Qualitäts-kontrollierte Sammlung von hochauflösenden Zeitreihen (durchschnittlicher Probenabstand von 164 Jahren) mit gut etablierten Zeitskalen (durchschnittlich 1,0 Alterskontrollpunkte pro 1000 Jahre), die aus einer viel größeren Sammlung von Temperatur-sensitiven Proxy-Aufzeichnungen ausgewählt wurde. Die Multi-Proxy-Datenbank umfasst insgesamt 1319 Paläo-Temperaturaufzeichnungen von 470 terrestrischen und 209 maritimen Standorten, an denen ökologische, geochemische und biophysikalische Proxy-Indikatoren verwendet wurden, um auf vergangene Temperaturänderungen zu schließen. Unter der Vielzahl der Proxy-Typen sind Alkenone und Isotope die dominierenden Proxy-Typen für die Meeresoberflächentemperatur, während Pollen und Chironomiden die häufigsten terrestrischen Temperatur-Proxy-Typen sind. Die meisten Aufzeichnungen (97 %) sind als quantitative, auf °C kalibrierte Temperaturrekonstruktionen verfügbar, während die restlichen 42 Aufzeichnungen nicht-quantitative, Temperatur-sensitive Proxy-Aufzeichnungen darstellen.

Kaufman, D., McKay, N., Routson, C. et al., 2020

Dies ist aus „Timing and magnitude of peak Holocene global temperature“:

Um den wahrscheinlichen Bereich der zeitlichen Auflösung der GMST-Rekonstruktion einzugrenzen, konzentrieren wir uns auf Intervalle von 1000 und 200 Jahren und quantifizieren den Unterschied in der Größe und dem Zeitpunkt des Höhepunktes der Erwärmung (Abb. 4).

Kaufman, D., McKay, N., Routson, C. et al., 2020

In meinem vorherigen Beitrag habe ich die Rekonstruktion so behandelt, als hätte sie eine 100-Jahre-Auflösung…
Während ich immer noch denke, dass die Arbeit eine sehr gute paläoklimatologische Leistung ist, ist dieser Absatz in keiner Weise wissenschaftlich belegbar.

Die Verteilung der globalen Spitzentemperaturen während des Holozäns kann auch mit den jüngsten Temperaturen verglichen werden. Die GMST der letzten Dekade (2011-2019) lag im Durchschnitt 1 °C höher als 1850-190011. Für 80 % der Ensemblemitglieder übertraf kein 200-Jahres-Intervall während der letzten 12.000 Jahre die Wärme der jüngsten Dekade. Für die anderen 20 % der Fälle, die hauptsächlich aus der CPS-Rekonstruktion stammen, übertraf mindestens ein 200-Jahres-Intervall die jüngste Dekade. Dieser Vergleich ist konservativ im Kontext der für den Rest dieses Jahrhunderts und darüber hinaus prognostizierten Temperaturen, die sehr wahrscheinlich 1 °C über der vorindustriellen Temperatur liegen werden. Solche Projektionen stellen die Temperatur des letzten Jahrzehnts in einen langfristigen Kontext, der besser mit der holozänen GMST-Rekonstruktion vergleichbar ist. Wenn die Rekonstruktion außerdem durch eine Verzerrung des Sommers der nördlichen Hemisphäre beeinflusst wird (siehe unten), dann würde die Spitzenerwärmung überschätzt werden und die jüngste Erwärmung würde daher im Vergleich noch stärker hervorstechen.

Kaufman, D., McKay, N., Routson, C. et al., 2020

Die Rekonstruktion kann keine Temperaturänderungen auf dekadischer Skala auflösen. Bei der Auflösung der Rekonstruktion wäre HadCRUT4 ein einzelner Datenpunkt bei 0,23 °C.

Die Eiszeit geht weiter

Folgendes hatten die Autoren über die CPS-Rekonstruktionsmethode zu sagen…

Unter den fünf Rekonstruktionsverfahren sticht CPS mit seinen großen Temperaturänderungen hervor (Abb. 3), vor allem auf der Nordhemisphäre (Abb. 1 und 2). Zum Beispiel zeigt das mediane Ensemble-Mitglied der CPS-Rekonstruktion, dass sich die GMST zwischen 12 und 10 ka um etwa 3,9 °C erwärmt hat, verglichen mit etwa 1,1 °C für die anderen Verfahren. Die mediane GMST während des Zeitraums um 6 ka, dem langjährigen Zielwert für paläoklimatische Modellexperimente (z. B. Ref. 15), war in der CPS-Rekonstruktion um 1,1 °C wärmer als das 19. Jahrhundert, verglichen mit etwa 0,4-0,5 °C für die anderen Verfahren (Tabelle 1).

(…)

Obwohl es sich um einen Ausreißer handelt, haben wir keine unwiderlegbaren Beweise, um die CPS-Rekonstruktion auszuschließen, und können nicht ausschließen, dass die anderen Rekonstruktionsverfahren die Gesamtvarianz unterschätzen. Das Ergebnis des CPS-Verfahrens hängt von der Gültigkeit des für die Skalierung verwendeten Ziels ab, was schwer zu überprüfen ist. Die hohe Amplitude der durch CPS rekonstruierten Temperaturänderungen könnte chronologische und andere Unsicherheiten widerspiegeln, die die Temperaturvarianz auf der Hundertskala während des Zusammensetzens ausmitteln und dadurch die relative Größe der Varianz auf der Jahrtausendskala im Verbund erhöhen. Wenn das Komposit dann auf die Rekonstruktionen der letzten zwei Jahrtausende skaliert wird, die eine realistischere Varianz auf der Jahrtausendskala aufweisen, wird die Varianz auf der Jahrtausendskala (und damit die langfristigen Trends) künstlich aufgebläht. Nichtsdestotrotz trägt CPS als unabhängiger Ansatz zu einer vollständigeren Abtastung des Unsicherheitsraums bei. Daher behalten wir CPS als ein Fünftel des Multi-Methoden-Ensembles bei, und wir konzentrieren uns auf den Median und nicht auf den Mittelwert als beste Darstellung der zentralen Tendenz des Ensembles. Der Ausschluss von CPS aus dem Ensemble hat wenig Einfluss auf den Median der GMST-Rekonstruktion. Zum Beispiel ist der Median des Ensembles für das mittlere Holozän (6,5-5,5 ka) nur um 0,05 °C kühler, wenn man die CPS-Mitglieder ausschließt; der Median des Fünf-Methoden-Ensembles beträgt 0,51 °C (0,19, 1,35) gegenüber 0,46 °C (0,17, 0,79), wenn man die CPS-Mitglieder ausschließt.

Kaufman, D., McKay, N., Routson, C. et al., 2020

Sie ließen zähneknirschend CPS in der Mischung, denn: „Obwohl es ein Ausreißer ist, haben wir keine unwiderlegbaren Beweise, um die CPS-Rekonstruktion auszuschließen, und können die Möglichkeit nicht ausschließen, dass die anderen Rekonstruktionsverfahren die Gesamtvarianz unterschätzen.“

Allerdings hätten sie leicht Beweise finden können dafür, „dass die anderen Rekonstruktionsverfahren die Gesamtvarianz unterschätzen.“ CPS ist das einzige Verfahren, das das holozäne Klimaoptimum, die römische Warmzeit, die mittelalterliche Warmzeit und die Neu-Vergletscherung eindeutig auflöste…

Abbildung 3: CPS mit historischen Klima-Perioden und Neu-Vergletscherung (Grosjean et al., 2007)

[Hinweis: Die Abbildungen 1 und 2 sind bis Redaktionsschluss am 28.3. auch im Original nicht existent]

Ich habe einen Plot von CPS als Overlay von Abbildung 3 aus dem PAGES 12K-Paper erstellt und den 2K-Inset mit den historischen Klimaperioden und der Neoglazialisierung aus Grosjean et al., 2007 und einer Nordamerika-Eisausdehnungskarte aus Dyke et al., 2003 ersetzt. Ich habe auch ein 2σ-Konfidenzband aus den 500 Ensemblemitgliedern eingefügt. Meine Version des CPS-Mittelwerts ist die gestrichelte orangefarbene Kurve…

Abbildung 4. CPS mit historischen Klimaperioden und Neu-Vergletscherung (Grosjean et al., 2007) und früh-holozäne Eisausdehnungskarte (Dyke et al., 2003)

Sieht die nordamerikanische Eisausdehnung vor 12.000 Kalenderjahren eher 1 °C kühler aus als 1800-1900? Oder 4 °C kühler?

OK… geophysikalische Trägheit könnte erklären, wie es bei Temperaturen, die nur 1 °C kühler waren als 1800-1900, immer noch so viel Eis gegeben haben kann, aber ich glaube nicht, dass es das hier erklären kann:

Abbildung 5. CPS mit historischen Klimaperioden und Neoglazialisierung (Grosjean et al., 2007), frühholozäne Eisausdehnungskarte (Dyke et al., 2003) und Alpen-Baumgrenzenhöhe (Bohleber et al., 2021).

Die anderen vier Verfahren zeigen sehr geringe Temperaturänderungen von vor 9.500 Jahren bis 1850 n. Chr… Ein Zeitraum, von dem wir wissen, dass es in den ersten 5.000 Jahren einen massiven Eisrückgang und in den meisten der folgenden 4.500 Jahre einen Eisvorstoß (Neoglazial) gab. CPS ist das einzige der vier Verfahren, das mit der holozänen Entwicklung der Eisschilde und Gletscher in der nördlichen Hemisphäre übereinstimmt. Das ist auch konsistent mit der holozänen Entwicklung des arktischen Meereises.

Abbildung 6. CPS (rechts) mit Profilen der Ausdehnung des Meereises (Stein et al., 2017)

Das CPS-Verfahren ist eindeutig konsistent mit den nahezu eisfreien Bedingungen von vor 10.000 bis 5.000 Jahren und der neoglazialen Ausdehnung des Meereises von vor 5.000 Jahren bis Mitte des 18. Jahrhunderts. Die anderen vier Verfahren deuten auf eine sehr geringe Temperaturveränderung über diesen Zeitraum hin.

Was ist mit der Sommerverzerrung der nördlichen Hemisphäre?

Drei der vier Verfahren zeigen alle einen flachen Verlauf in der Arktis. Nur das PAI-Verfahren (Paarweiser Vergleich) zeigt eine angemessene Temperaturänderung für die Meereisentwicklung. Allerdings ist CPS das einzige Verfahren, das ein signifikantes ΔT im Bereich der gemäßigten Breiten der Nordhemisphäre aufweist.

Abbildung 7: Abbildung 2 aus Kaufman, D., McKay, N., Routson, C. et al., 2020

Die überwiegende Mehrheit der Alpen-/Talgletscher (wie in den Alpen und im Glacier National Park) befindet sich in den gemäßigten Breiten. Diese Gletscher bildeten sich nach dem holozänen Klimaoptimum, erreichten ihre Spitzenausdehnung in der Mitte des 18. Jahrhunderts und zogen sich dann im Allgemeinen auf ihre derzeitigen Positionen zurück. CPS ist das einzige Verfahren, das damit in Einklang zu stehen scheint.

Bestätigungs-Bias!

Falls man bei einer Frage die Möglichkeit hat, fünf Antworten auszuwählen:

1. Sieht korrekt aus

2. Sieht vermutlich korrekt aus

3. Offensichtlich falsch

4. Offensichtlich falsch

5. Offensichtlich falsch

Würden Sie die Antwort auswählen, die richtig aussah? Oder würden Sie den Durchschnitt der fünf Antworten bilden, um zu einem Konsens zu kommen?

Ausmerzen unbequemer Wahrheiten

Seit den Tagen von Climategate versucht Climate Cancel Culture aktiv, das niederfrequente Klimasignal auszulöschen. Dies ist kein neuer Kampf:

Was würde es also bedeuten, wenn die Rekonstruktionen eine größere (Esper et al., 2002; Pollack und Smerdon, 2004; Moberg et al., 2005) oder kleinere (Jones et al., 1998; Mann et al., 1999) Temperaturamplitude anzeigen? Wir vermuten, dass die erstere Situation, d.h. eine erhöhte Variabilität während der vorindustriellen Zeit, zu einer Umverteilung des Gewichts in Richtung der Rolle natürlicher Faktoren bei der Erzwingung von Temperaturänderungen führen würde, wodurch der Einfluss anthropogener Emissionen relativ abgewertet und zukünftige Vorhersageszenarien beeinflusst würden. Sollte sich dies bewahrheiten, wären Vereinbarungen wie das Kyoto-Protokoll, die auf eine Reduzierung der anthropogenen Treibhausgasemissionen abzielen, weniger effektiv als gedacht.

Esper et al., 2005

Hockeyschläger sind in der Regel das Ergebnis der Dämpfung der Amplitude des niederfrequenten Klimasignals und des anschließenden Aufspleißens der hochauflösenden Instrumentaldaten. Das Hockey-Team hat die Stempelkultur erfunden:

CRU-E-Mail #1140039406. Diese E-Mail, datiert auf den 15. Februar 2006, dokumentiert den Austausch zwischen mehreren Klimawissenschaftlern, einschließlich des stellvertretenden Direktors der CRU, in Bezug auf ihre Beiträge zu Kapitel sechs des IPCC AR4. In einem solchen Austausch warnte der stellvertretende Direktor der CRU seine Kollegen davor, „sich von [dem Co-Vorsitzenden der AR4 WGl] (oder [einem Forscher an der Pennsylvania State University]) über das hinaus drängen zu lassen, von dem wir wissen, dass es richtig ist“ in Bezug auf die Angabe von „Schlussfolgerungen im AR4, die über das hinausgehen, was wir sicher rechtfertigen können“.

Keith Briffa von der CRU warnte seine Kollegen davor, sich von Susan Solomon von der NOAA oder Michael Mann von der Penn State dazu zwingen zu lassen, unhaltbare Schlussfolgerungen zu ziehen. Dieser spezielle E-Mail-Austausch befasste sich ausgiebig mit Paläoklima-Rekonstruktionen. Briffa forderte seine Kollegen auch auf, Anders Moberg nicht „anzugreifen“, der vor kurzem eine Klimarekonstruktion veröffentlicht hatte, die die Daten tatsächlich würdigte und korrekte Verfahren der Signalverarbeitung verwendete.

Susan Solomon ist die NOAA-Beamtin, die behauptete, dass die Arbeit der NOAA im Zusammenhang mit dem IPCC nicht dem FOIA unterliege. Michael Mann war der Hauptautor des gründlich entlarvten Original-Hockeysticks. Der verstorbene Keith Briffa war der Hauptautor einer der problematischen Rekonstruktionen, in denen „Mikes Naturtrick“ angewendet wurde, um den Rückgang zu „verstecken“. Glücklicherweise haben sich Wissenschaftler wie Jan Esper, Anders Moberg, etc. nicht dem Mobbing unterworfen.

Also… Hut ab vor Kaufman, McKay, Routson und den et al dafür, dass sie die CPS-Rekonstruktion nicht gelöscht haben, um den Anstieg und den Rückgang des holozänen Klimaoptimums zu verbergen…

References

Bohleber, P., Schwikowski, M., Stocker-Waldhuber, M. et al. New glacier evidence for ice-free summits during the life of the Tyrolean Iceman. Sci Rep 10, 20513 (2020). https://doi.org/10.1038/s41598-020-77518-9

Dyke, A.S., Moore, A. and L. Robertson. [computer file]. Deglaciation of North America. Geological Survey of Canada Open File 1547. Ottawa: Natural Resources Canada, 2003.

Esper, J., R.J.S. Wilson,  D.C. Frank, A. Moberg, H. Wanner, & J. Luterbacher.  2005.  “Climate: past ranges and future changes”.  Quaternary Science Reviews 24: 2164-2166.

Grosjean, Martin, Suter, Peter, Trachsel, Mathias & Wanner, Heinz. (2007). “Ice‐borne prehistoric finds in the Swiss Alps reflect Holocene glacier fluctuations”. Journal of Quaternary Science. 22. 203 – 207. 10.1002/jqs.1111.

Kaufman, D., McKay, N., Routson, C. et al. Holocene global mean surface temperature, a multi-method reconstruction approach. Sci Data 7, 201 (2020). https://doi.org/10.1038/s41597-020-0530-7

Stein, R. , Fahl, K. , Schade, I. , Manerung, A. , Wassmuth, S. , Niessen, F. and Nam, S. (2017), Holocene variability in sea ice cover, primary production, and Pacific‐Water inflow and climate change in the Chukchi and East Siberian Seas (Arctic Ocean). J. Quaternary Sci., 32: 362-379. doi:10.1002/jqs.2929 stein2017

Link: https://wattsupwiththat.com/2021/03/26/pages-12k-the-ice-age-goeth/

Übersetzt von Chris Frey EIKE

 




Beseitigung der AMO

Seine Studie trägt den Titel „Multidecadal climate oscilliations during the past millennium driven by volcanic forcing. Daraus das

Abstract

Frühere Forschungen sprechen für eine interne multidekadische (40- bis 60-jährige) Oszillation, die sich vom Klimarauschen unterscheidet. Neuere Studien haben behauptet, dass diese so genannte Atlantische Multidekadische Oszillation stattdessen eine Manifestation konkurrierender zeitvariabler Effekte von anthropogenen Treibhausgasen und Sulfataerosolen ist. Diese Schlussfolgerung wird durch das Fehlen von robusten multidekadischen Klimaschwingungen in den Kontrollsimulationen der aktuellen Modellgeneration gestützt. Paläoklimadaten zeigen jedoch ein multidekadisches Oszillationsverhalten während der vorindustriellen Ära. Durch den Vergleich von Kontroll- und forcierten „Last Millennium“-Simulationen zeigen wir, dass diese scheinbaren multidekadischen Oszillationen ein Artefakt von Impulsen vulkanischer Aktivität während der vorindustriellen Ära sind, die sich deutlich auf das multidekadische (50- bis 70-jährige) Frequenzband projizieren. Wir kommen zu dem Schluss, dass es keine überzeugenden Beweise für interne multidekadische Oszillationen im Klimasystem gibt.

Mann hat einen Blog-Beitrag über das Papier bei RealClimate

Wow! Auf einen Schlag sind die lästigen Probleme des „Grand Hiatus“ Mitte des 20. Jahrhunderts, die Debatten über die Zuordnung der Erwärmung des 20. Jahrhunderts und die Rolle der multidekadischen internen Variabilität sowie die Schwierigkeit, die jüngste Zunahme der atlantischen Hurrikanaktivität dem AGW zuzuschreiben, alle verschwunden. Brillant! Fast so „brillant“ wie der Hockeystick.

Zufälligerweise habe ich den Entwurf eines Kapitels aus einem Bericht, den ich gerade schreibe, in der Tasche. Ich habe den relevanten Text unten auszugsweise wiedergegeben (ich bitte zu entschuldigen, dass ich keine Links zu den Referenzen habe):

9.Multidekadische Variabilität des Atlantiks

Der Atlantische Ozean ist für die globale Ozeanzirkulation besonders wichtig, da sich im nördlichen Nordatlantik das Nordatlantische Tiefenwasser (NADW) bildet, eine wichtige Komponente der Atlantic Meridional Overturning Circulation (AMOC). Die AMOC umfasst die nordwärts gerichtete Strömung des warmen, salzigen Wassers im oberen Atlantik und die südwärts gerichtete Strömung des umgewandelten, kalten, frischen NADW im tiefen Atlantik, die ein wesentlicher Treiber des beträchtlichen nordwärts gerichteten atlantischen Wärmetransports über den Äquator ist.

Hinsichtlich der Wassertemperatur im Atlantik (SST) wurden multidekadische Schwankungen in räumlicher Größenordnung der Ozeanbecken beobachtet. Die im Atlantik beobachtete großräumige multidekadische Variabilität wird als Atlantic Multidecadal Oscillation (AMO) bezeichnet. Der multidekadische Charakter der AMO unterscheidet sich von der interannualen Ozeanvariabilität, die durch den führenden Modus der atmosphärischen Zirkulations-Variabilität über dem Nordatlantik, die Nordatlantische Oszillation (NAO), verursacht wird. Der Begriff Atlantische Multidekadische Variabilität (AMV) wird oft verwendet, weil die beobachteten multidekadischen Schwankungen im Atlantik möglicherweise keine Oszillation mit einer einzigen Frequenz sind, sondern aus einem breiteren Band niederfrequenter Signale bestehen.

9.1 Index-Definition und Klimatologie

Die Atlantische Multidekadische Oszillation (AMO) ist mit beckenweiten Schwankungen der SST und des Meeresspiegeldrucks (SLP) verbunden. Für die positive AMO-Phase wird dies manchmal als eine fast gleichmäßige Erwärmung des Nordatlantiks dargestellt. Der traditionelle AMO-Index assoziiert die positive AMO-Phase mit einem Muster hufeisenförmiger SST-Anomalien im Nordatlantik mit ausgeprägter Erwärmung im tropischen und Teilen des östlichen subtropischen Nordatlantiks, einem anomal kühlen Gebiet vor der US-Ostküste und warmen Anomalien um die Südspitze Grönlands.

Abbildung 9.1: Index der Atlantischen Multidekadischen Oszillation von 1880 bis 2018

Die letzten 100 bis 150 Jahre der atlantischen SSTs sind durch einen Jahrhunderte langen Nettoanstieg und Perioden multidekadischer Erwärmung und Abkühlung gekennzeichnet. Die Begründung für die Trennung „Trend+AMO“ wird jedoch durch die fehlende Linearität des globalen Erwärmungstrends konterkariert, so dass die Trendbereinigung den AMO-Index verfremdet. Die Nichtlinearität ist besonders ausgeprägt während des Zeitraums 1945-1975, als die globalen SSTs einen leichten Abkühlungstrend zeigten.

Um die mit der Trendbereinigung verbundenen Unklarheiten bei der Formulierung des AMO-Index zu beseitigen, hat Johnstone (2017) einen atlantischen „Arc“-Index formuliert, der auf der führenden Hauptkomponente der nordatlantischen SST-Variabilität (60°N bis 0°, 70°W-0°W) basiert. Der atlantische „Arc“-SST-Index spiegelt die kohärente Variabilität innerhalb eines bogenförmigen Musters auf Beckenebene wider (manchmal als „Hufeisen“ bezeichnet), eine Signatur der AMO, die den tropischen Nordatlantik, die östliche Grenze der mittleren Breiten und einen Großteil des subpolaren Nordens umfasst (Abb. 9.2).

Abbildung 9.2: Das Bogenmuster wird durch die fette schwarze Linie abgegrenzt, die den tropischen Nordatlantik, die östliche Grenze der mittleren Breiten und einen Großteil des subpolaren Nordatlantiks umfasst.  Von Johnstone.

Das Arc-Muster wird als räumliche Signatur der AMO erkannt, die mit der gekoppelten Ozean-Atmosphären-Variabilität identifiziert wird, und ist eng mit einem „Tripol“-Muster der SST-Reaktion auf die NAO verbunden. Der Arc-Index zeigt eine Nettoerwärmung zusätzlich zu der multidekadischen Periode, die als kühle Phase der AMO anerkannt ist (Abbildung 9.3). Da der Arc-Index sowohl die AMO-Variabilität als auch den allgemeinen Erwärmungstrend kombiniert, ist es sinnvoller, ihn als Definition multidekadischer Regime und Verschiebungen zu interpretieren (siehe Abschnitt 9.4).

Der Arc Index (Abbildung 9.3) zeigt abrupte Verschiebungen in die warme Phase in den Jahren 1926 und 1995, die mit der konventionellen AMO-Analyse in Abbildung 9.1 übereinstimmen. Die Analyse von Johnstone zeigt eine Verschiebung in die kalte Phase im Jahr 1971, was sich von der Analyse in Abbildung 9.1 unterscheidet, die die Verschiebung in die kalte Phase im Jahr 1964 anzeigt. Der AMO-Index von Klotzbach und Gray (2008) zeigt ebenfalls eine Verschiebung in die kalte Phase im Jahr 1970 an.

Abbildung 9.3: Zeitreihe des atlantischen Arc-Index‘ von 1880 bis Anfang 2018. Nach Johnstone

9.2 Paläoklima-Rekonstruktionen

Die Kürze der verfügbaren instrumentellen Daten begrenzt unser Verständnis der Atlantischen Multidekadischen Variabilität (AMV). Paläoklima-Proxy-Rekonstruktionen von AMV-bezogenen Signalen, die über die instrumentelle Ära hinausreichen, bieten eine wichtige Grundlage für das Verständnis der Natur und der zeitlichen Stationarität der AMV.

Die jüngste AMV-Rekonstruktion von Wang et al. (2017) unter Verwendung von terrestrischen Proxy-Aufzeichnungen (Baumringe, Eisbohrkerne usw.) über die letzten 1.200 Jahre hat sowohl eine breite räumliche Abdeckung als auch eine hohe zeitliche (jährliche) Auflösung. Wang et al. (2017) fanden heraus, dass große Vulkanausbrüche und solare Einstrahlungsminima kühle Phasen der atlantischen multidekadischen Variabilität induzieren und zusammen etwa 30% der Varianz in der Rekonstruktion auf Zeitskalen größer als 30 Jahre erklären. Sie isolierten die intern erzeugte Komponente der atlantischen multidekadischen Variabilität, die sie als AMO definieren. Sie fanden heraus, dass die AMO den größten Beitrag zur atlantischen multidekadischen Variabilität in den letzten 1.200 Jahren leistet.

[Es folgen drei längere Abschnitte der Beschreibung von Rekonstruktionen von anderen Autoren. Auf deren Übersetzung wird hier der Länge wegen verzichtet. Alle Autoren kommen im Prinzip zu ähnlichen Ergebnissen. A. d. Übers.]

9.3 Klima-Dynamik

Trotz anhaltender Debatten über die Klimadynamik der AMV wird allgemein akzeptiert, dass die AMV eine komplexe Verschmelzung von natürlicher interner Variabilität der atlantischen meridionalen Umwälzzirkulation (AMOC), natürlichem stochastischem Rot-Rauschen des Ozeans durch die Atmosphäre (hauptsächlich die NAO) und externem Antrieb durch vulkanische Ereignisse, Aerosolpartikel und Treibhausgase darstellt.

9.3.1 Die AMO

Die Atlantische Multidekadische Oszillation (AMO) ist der prominenteste Modus der multidekadischen atlantischen Variabilität; die physikalischen Ursprünge der AMO bleiben jedoch ein Thema anhaltender Debatten. Die beobachteten SST-Änderungen der AMO werden seit langem auf langsame Variationen des nordwärts gerichteten Wärmetransports im oberen Ozean durch die AMOC zurückgeführt. Ozeanische Prozesse bieten einen plausiblen Mechanismus für große multidekadische Klimaschwankungen; solche Schlussfolgerungen basieren aufgrund der kurzen Aufzeichnung der AMOC-Zirkulation, die erst 2004 beginnt, weitgehend auf Klimamodell-Simulationen.

Es wurden mehrere zusätzliche Hypothesen für AMV-Prozesse vorgeschlagen. Es wurde angenommen, dass anthropogene Aerosole eine Hauptursache für die beobachtete AMV sind. Das Argument ist, dass ein Anstieg des linear verzögerten AMV-SST-Indexes durch den erhöhten abwärts gerichteten kurzwelligen Strahlungswärmefluss erzwungen wird, der durch die abnehmenden anthropogenen Aerosole durch ihre Wechselwirkung mit Wolken induziert wird. Der beobachtete Rückgang des subpolaren AMV-SST-Signals in der letzten Dekade steht jedoch im Widerspruch zu der kürzlich beobachteten Veränderung (eine leichte Abnahme) der anthropogenen Aerosole über der nordatlantischen Region. Wie von Zhang et al. (2019) zusammengefasst, widerspricht die Hypothese, dass Änderungen des externen Strahlungsantriebs ein Haupttreiber der AMV sind, vielen beobachteten Schlüsselelementen der AMV.

[Diese Problematik wird naturgemäß ebenfalls von mehreren anderen Autoren untersucht. Deren Zusammenfassungen werden hier der Ähnlichkeit der Ergebnisse wegen nicht mit übersetzt. A. d. Übers.]

Alles in allem ist die kombinierte Wirkung von NAO und EAP [= East Atlantic Pattern] für einen unregelmäßigen und gedämpften Modus der Variabilität der AMOC/AMV verantwortlich, der etwa 35-40 Jahre zum Aufbau und etwa 15-20 Jahre zum Abbau benötigt. Zusätzlich zur direkten NAO-/EAP-Wirkung wird die Beendigung von AMOC/AMV-Ereignissen auch durch die Advektion von anomalem Süßwasser aus dem subtropischen nordatlantischen Becken entlang der mittleren westlichen Grenzozeanzirkulation und auch aus der Arktis aufgrund des beträchtlichen Eisvolumenverlusts in Verbindung mit den insgesamt wärmeren atmosphärischen Bedingungen bei erhöhter AMOC induziert.

Abbildung 9.8:Schematisches Diagramm für ein Positiv-Ereignis von AMOC/AMV. Nach RuprichRobert und Cassou (2014)

Aktualisierung: Eine ausgezeichnete neue Publikation der American Meteorological Society bestätigt im Wesentlichen meine Ergebnisse.

9.4 Verschiebungen in jüngerer Zeit

Wie von Robson et al. (2012) zusammengefasst, erfuhr der subpolare Wirbel des Nordatlantiks Mitte der 1990er Jahre eine bemerkenswert schnelle Erwärmung, wobei die Wassertemperatur in nur 2 Jahren um etwa 1,8°C gestiegen war. Diese schnelle Erwärmung folgte auf eine lang anhaltende positive Phase der Nordatlantischen Oszillation (NAO), fiel aber auch mit einem ungewöhnlich negativen NAO-Index im Winter 1995/96 zusammen. Durch den Vergleich von Ozeananalysen und sorgfältig entworfenen Modellexperimenten zeigten sie, dass diese schnelle Erwärmung als eine verzögerte Reaktion auf die verlängerte positive Phase der NAO verstanden werden kann und nicht einfach als eine sofortige Reaktion auf den negativen NAO-Index von 1995/96. Außerdem folgerten sie, dass die Erwärmung teilweise durch einen Anstieg und anschließenden Rückgang der meridionalen Umwälzzirkulation und des nordwärts gerichteten Wärmetransports des Atlantiks verursacht wurde.

Robson et al. (2016) zeigten, dass sich seit 2005 ein großes Volumen des subpolaren Nordatlantiks deutlich abgekühlt hat und damit der vorherige Erwärmungstrend umgekehrt wurde. Durch die Analyse von Beobachtungen und einem hochmodernen Klimamodell zeigten sie, dass diese Abkühlung mit einer Abnahme der Stärke der Ozeanzirkulation und des Wärmetransports konsistent ist, die mit rekordverdächtig niedrigen Dichten in der tiefen Labradorsee verbunden ist. Die geringe Dichte in der tiefen Labradorsee ist in erster Linie auf die Erwärmung des tiefen Ozeans seit 1995 zurückzuführen, aber auch eine langfristige Auffrischung spielte eine Rolle. Sie schlossen daraus, dass die beobachtete Abkühlung einer großen Region des oberen Nordatlantiks seit 2005 nicht als direkte Reaktion auf Veränderungen der atmosphärischen Zirkulation im gleichen Zeitraum erklärt werden kann.

Johnstone (2017) beschreibt ein „coupled shift model“ des niederfrequenten nordatlantischen Klimawandels, das auf abrupten Übergängen zwischen quasi-stabilen Wassertemperaturen und gekoppelten atmosphärischen Zirkulationen basiert. Diese Hypothese beschreibt wiederkehrende stufenförmige Änderungen der nordatlantischen SST, wobei SST-Störungen mit großer Amplitude gelegentlich als anomale multidekadische Klimazustände durch positive Atmosphäre-Ozean-Rückkopplungen aufrechterhalten werden. Es wird der statistische Nachweis erbracht, dass niederfrequente SST-Änderungen keine graduellen Prozesse waren, wie sie üblicherweise beschrieben werden, sondern durch eine Reihe von kurzen, diskreten Ereignissen, gekennzeichnet durch abrupte ~1-Jahres-stufenartige Verschiebungen, die längere multidekadische Perioden mit relativ geringen Veränderungen trennen.

Die starke Erwärmung des Atlantiks Mitte der 1990er Jahre (Abbildung 9.1), die von gefilterten AMO-Indizes als ein allmählicher Prozess dargestellt wird, der sich über ein Jahrzehnt oder länger hinzieht, lässt sich auf einen abrupten und bemerkenswert kontinuierlichen Anstieg der SST auf der Beckenskala zurückführen, der im Oktober/November 1994 begann und im Wesentlichen als +0,8°C SST-Änderung über den größten Teil des Nordatlantiks bis Juli 1995 vollzogen wurde (Abbildung 9.3). Die abrupte Erwärmung von 1994-95 wurde in den folgenden Monaten, in den nächsten Jahren und in den darauffolgenden zwei Jahrzehnten bis zur Gegenwart nicht gebremst und führte schnell zu einem neuen wärmeren Klimazustand*. Die beckenweite Ausdehnung der Verschiebung von 1995 ist an der abrupten Verschiebung der monatlichen SST-Anomalien sowohl über dem subpolaren Nordatlantik (50-60oN) als auch über den subtropischen Rändern von NW-Afrika zu erkennen, die sich fast gleichzeitig erwärmten (Arc Index, Abbildung 9.2).

[*Siehe hierzu auch die Arbeiten von Kämpfe & Kowatsch zum „Temperatursprung“ in Mitteleuropa. A. d. Übers.]

Verschiebungen erscheinen in der jährlichen Arc-SST-Aufzeichnung (Abb. 9.3) als ausgeprägte Jahr-zu-Jahr-Sprünge in den Jahren 1925-26 (+0,5°C), 1970-71 (-0,3°) und 1994-95 (+0,6°), denen eine multidekadische Persistenz ähnlicher Anomalien in Bezug auf die Vorjahre folgte (1926-1970: +0,5°C, 1971-1994: -0,2°C und 1995-2014: +0,5°). In jedem dieser Intervalle fehlt ein signifikanter linearer Arc-SST-Trend, was darauf hindeutet, dass auf große vorübergehende Klimaänderungen eine Restabilisierung der Wärmebilanz des Oberozeans und die Persistenz neuer anomaler Bedingungen über Jahre bis zu mehreren Jahrzehnten folgte. Arc-SST-Änderungen 1926, 1971 und 1995 traten mit moderaten gleichgerichteten Anomalien der Winter (Oktober-März) Niño 3.4 SST auf, was auf eine systematische Rolle von ENSO bei der Erzeugung von niederfrequenten Klimaänderungen im Nordatlantik hindeutet.

Ein spezifischerer regionaler Indikator zeigt sich in der Korrespondenz der SST-Verschiebungen des Bogens mit hochamplitudigen SST-Änderungen vor Nordwestafrika, die im September 1925, August 1970 und November 1994 ihren Höhepunkt erreichten. Westafrikanische SSTs sind eine prominente Komponente des Atlantischen Multidekadischen Modus (AMM), der als Brücke über Zeitskalen hinweg dienen kann, indem er SST-Störungen als anhaltende Klimaanomalien aufrechterhält.

Eine physikalische Implikation des Verschiebungsmodells ist, dass niederfrequente Klimaveränderungen durch gelegentliche Impulse der Wärmeaufnahme und -abgabe des oberen Ozeans auftreten, und nicht durch allmähliche oder kumulative Prozesse.

Die Atmosphäre-Ozean-Bedingungen, die zur Erwärmung von 1994-95 führten, weisen bemerkenswerte Ähnlichkeiten mit der Erwärmung von 1925-26 und (entgegengesetzt) mit der Abkühlung von 1970-1971 auf, was auf die Vorhersagbarkeit größerer Klimaverschiebungen im Nordatlantik hindeutet. Allen drei Ereignissen gingen in den vorangegangenen 2-3 Jahren einzigartig starke Anomalien des Meeresspiegeldrucks (SLP) mit entgegengesetztem Vorzeichen um die Norwegische See innerhalb eines breiteren NAO-ähnlichen Musters voraus. In jedem Fall wies der Übergangswinter moderate ENSO-Bedingungen auf, die die sich entwickelnde Temperaturveränderung begünstigten, und jede Verschiebung zeichnete sich durch extreme lokale SST-Veränderungen vor NW-Afrika aus.

Historisch gesehen waren atlantische Verschiebungen durch extreme kurzfristige SST-Änderungen vor NW-Afrika gekennzeichnet: ein Verhalten, das derzeit nicht zu beobachten ist, da die subtropischen und tropischen Gebiete des Bogens in einem warmen Zustand verbleiben, der 1995 begann. 
Es ist jedoch bemerkenswert, dass die subpolaren SSTs von 50-60N Anzeichen einer abrupten Abkühlung seit 2015 zeigen (Abb. 9.10), ein Verhalten, das auf eine „partielle“ Verschiebung hindeutet, die bald den breiteren Nordatlantik, einschließlich der Tropen, betreffen könnte. Die aktuelle Divergenz zwischen subpolarer und tropischer nordatlantischer SST ist möglicherweise analog zu dem Verhalten, das in den späten 1960er- und frühen 1970er-Jahren zu beobachten war, als die schnelle subpolare Abkühlung 1969-70 dem starken Rückgang der tropischen SST 1971 etwas vorausging. Basierend auf historischen Mustern könnte ein abrupter Wechsel zu kühleren Bedingungen unmittelbar bevorstehen, obwohl die ungewöhnlich lange Zeitspanne von 1926 bis 1970 darauf hindeutet, dass auch eine erhebliche Verzögerung von bis zu 10-20 Jahren plausibel sein könnte.

Abbildung 9.10: Jährliche SST-Anomalien für den subpolaren und tropischen Nordatlantik. Die subpolare SST (blau, 60°-50°N) zeigt einen starken Abfall und anhaltend kühle Bedingungen seit 2015 (20°N- 0°, rot). Eine ähnliche Divergenz um 1970 könnte ein früher Hinweis auf eine Abkühlung des tropischen und breiteren Nordatlantiks in den nächsten Jahren sein.

Inwieweit war die AMO-Verschiebung von 1995 durch Klimamodelle vorhersagbar? Msadek et al. (2014) fassen die dekadischen Vorhersageexperimente zusammen, die mit dem GFDL-Klimamodell durchgeführt wurden. Die Initialisierung des Modells erzeugt eine hohe Kompetenz in der rückwirkenden Vorhersage der Erwärmung Mitte der 1990er Jahre, die von den nicht initialisierten Vorhersagen nicht erfasst wird. Alle Hindcasts, die in den frühen 1990er Jahren initialisiert wurden, zeigen eine Erwärmung des SPG (subpolarer Wirbel); allerdings sind nur die 1995 und 1996 initialisierten Hindcasts im Ensemble-Mittel in der Lage, die beobachtete abrupte Erwärmung und die damit verbundene Abnahme und Kontraktion des SPG zu reproduzieren. Die verbesserte dekadische Vorhersagefähigkeit des Atlantiks wird in erster Linie durch die Initialisierung der AMOC-Anomalien erreicht, anstatt die AMOC-Anomalien in den hohen nördlichen Breiten vorherzusagen.

Bei der Betrachtung einer möglichen zukünftigen Verschiebung in die kalte Phase der AMO ist es lehrreich, die vorherige Verschiebung in die kalte Phase zu betrachten, die in den 1960er und frühen 1970er Jahren stattfand, als sich die Meeresoberflächentemperaturen im Nordatlantik schnell abkühlten. Hodson et al. (2014) wiesen nach, dass die Abkühlung in mehreren unterschiedlichen Phasen verlief:

1964-68: Die anfängliche Abkühlung ist größtenteils auf die nordischen Meere und die Golfstromverlängerung beschränkt. In diesem Zeitraum gibt es keine nennenswerten atmosphärischen Zirkulationsanomalien, abgesehen von einer kleinen niedrigen MSLP-Anomalie über der Arktis im Oktober-Juni.

1968-72: Mit dem Fortschreiten der Abkühlung dehnen sich kühle Anomalien auf einen Großteil des subpolaren Wirbels (SPG) und der nördlichen mittleren Breiten aus. Es gibt einen Hinweis auf niedrige SLP-Anomalien über Nordafrika, aber der auffälligste Hinweis auf Zirkulationsanomalien ist eine antizyklonale Anomalie im Juli-September, die sich über Nordeuropa und nach Asien erstreckt.

1972-76: Die kühlen Anomalien erreichen in dieser Periode ihre maximale Größe und räumliche Ausdehnung. Der westliche Teil des subtropischen Nordatlantiks zeigt keine signifikante Abkühlung, was zu einem Tripol- (oder Hufeisen-) Muster führt. Das Muster der SLP-Anomalien projiziert sich auf die positive Phase der NAO.

9.5 Klimamodell-Simulationen

Viele gekoppelte Klimamodelle simulieren die Atlantische Dekadische Variabilität, die in mancher Hinsicht mit den verfügbaren Beobachtungen übereinstimmt. Die Mechanismen unterscheiden sich jedoch stark von Modell zu Modell, und die unzureichende Beobachtungsdatenbank erlaubt keine Unterscheidung zwischen „realistischen“ und „unrealistischen“ Simulationen (Latif und Keenlyside, 2011). Ruiz-Barradas et al. (2013) untersuchten historische Simulationen der AMO in CMIP3- und CMIP5-Modellen. Die Variabilität der AMO in den Bereichen 10-20/70-80 Jahre wird in den Modellen überschätzt/unterschätzt.

Cheng et al. (2013; 2015) untersuchten die Atlantische Meridionale Umwälzzirkulation (AMOC), die von 10 Modellen aus CMIP5 für das historische und zukünftige Klima simuliert wurde. Das Multimodel-Ensemblemittel der AMOC zeigt eine multidekadische Variabilität mit einer 60-jährigen Periode; alle Einzelmodelle projizieren sich konsistent auf diesen multidekadischen Modus.

Wie die NCA (2017) zusammenfasst, variiert die simulierte AMOC-AMV-Verknüpfung zwischen den gekoppelten globalen Klimamodellen beträchtlich, was wahrscheinlich aus der Streuung der Modellverzerrungen im Mittelwert im Nordatlantik resultiert. Die AMOC-AMV-Verknüpfung hängt von den Amplituden der niederfrequenten AMOC-Variabilität ab, die in Klimamodellen viel schwächer ist als in der realen Welt aufgrund der unterschätzten niederfrequenten AMOC-Variabilität, die die relative Rolle des externen Strahlungsantriebs oder des stochastischen atmosphärischen Antriebs in der AMV verstärkt.

Der Zeitpunkt einer Verschiebung in die AMO-Kaltphase ist nicht vorhersehbar; er hängt bis zu einem gewissen Grad von unvorhersehbaren Wettervariabilitäten ab. Die Analyse historischer und paläoklimatischer Aufzeichnungen legt jedoch nahe, dass ein Übergang in die kalte Phase vor 2050 zu erwarten ist. Enfield und Cid-Serrano (2006) verwendeten paläoklimatische Rekonstruktionen der AMO, um eine probabilistische Projektion der nächsten AMO-Verschiebung zu entwickeln. Die Analyse von Enfield und Cid-Serrano deutet darauf hin, dass eine Verschiebung in die kalte Phase innerhalb der nächsten 13 Jahre stattfinden sollte, mit einer Wahrscheinlichkeit von 50 %, dass die Verschiebung in den nächsten 6 Jahren stattfindet.

Evaluierung der Studie von Mann et al.:

Mit diesem Kontext können Sie sehen, warum ich die Aerosol-Erklärung (Verschmutzung und/oder Vulkane) als Erklärung für die Ursachen der AMO nicht akzeptiere.  Es gibt erhebliche Diskussionen und Meinungsverschiedenheiten in der Klimadynamik-Gemeinschaft zu diesem Thema, was angesichts der offensichtlichen komplexen Wechselwirkungen zwischen den Ozeanzirkulationen und der AMOC, dem Wetter und der interannuellen Klimavariabilität sowie dem externen Antrieb durch die Sonne und Vulkane nicht überraschend ist.

Was genau ist also falsch an Manns Analyse? Er verlässt sich auf globale Klimamodelle, die bei der Simulation der AMO unzureichend sind.  Dies wurde zuletzt von Kravtsov et al. (2018) hervorgehoben, die zu dem Schluss kamen, dass:

„Während die Klimamodelle verschiedene Niveaus der dekadischen Klimavariabilität und einige regionale Ähnlichkeiten mit den Beobachtungen aufweisen, stimmt keine der betrachteten Modellsimulationen mit dem beobachteten Signal in Bezug auf seine Größe, räumliche Muster und ihre zeitliche Entwicklung überein. Diese Ergebnisse unterstreichen ein erhebliches Maß an Unsicherheit in unserer Interpretation des beobachteten Klimawandels unter Verwendung der aktuellen Generation von Klimamodellen.“

Sich auf globale Klimamodelle zu verlassen, die die multidekadische interne Variabilität nicht adäquat simulieren, um zu „beweisen“, dass eine solche multidekadische interne Variabilität nicht existiert, ist ein Zirkelschluss (bestenfalls). Wie kann so etwas in einer Zeitschrift wie Science veröffentlicht werden?  Peer-Review ist sooooo kaputt.

Was Mann in den Klimamodell-Simulationen sieht, ist die kurzperiodische tropische Ausprägung der AMO, die auf den Nordatlantik beschränkt ist – nicht die multidekadische Variabilität, die mit der globalen Oszillation verbunden ist.  Diese tropische Ausprägung kann sehr wohl bis zu einem gewissen Grad durch tropische Vulkanausbrüche erzwungen werden, sagt aber wenig über die globale multi-dekadische Variabilität aus, die von größtem Interesse ist.

Die tatsächliche multidekadische Klimavariabilität wird größtenteils intern generiert, obwohl solare Variationen helfen können, das Tempo zu bestimmen, und große Vulkanausbrüche können die Variationen maskieren oder helfen, eine Verschiebung auszulösen.

Warum ist das wichtig?  Die verschiedenen Phasen der AMO sind verbunden mit: Die Aktivität der atlantischen Hurrikane, die Massenbilanz Grönlands und Witterung, die Nordamerika und Europa beeinflussen (insbesondere Dürren); ganz zu schweigen von der globalen Temperaturänderung.

Aus der Pressemitteilung der Penn State University geht hervor, dass ein Hauptmotiv für die Annullierung der AMO darin besteht, dass Mann die Zunahme der atlantischen Hurrikan-Aktivität seit 1995 dem AGW zuschreiben kann.  Die Annullierung der AMO wird hier nicht viel helfen.  Wie in meinem letzten Beitrag über den AIR-Versicherungssektor-Bericht diskutiert, war die Anzahl der großen Hurrikane (Cat 3+) im Atlantik während der 1950er und 1960er Jahre (frühere warme Phase der AMO) mindestens so groß wie in den letzten beiden Jahrzehnten bei deutlich niedrigeren SSTs.

Ein weiteres zentrales Problem mit der AMO ist, dass die gesamte Beschleunigung des Meeresspiegelanstiegs in den letzten Jahrzehnten von der Grönlandschmelze herrührt, die stark von der AMO beeinflusst wird.

Unter der Annahme, dass sich die Natur weiterhin so verhält, wie sie es in den letzten 8 Jahrtausenden getan hat, werden wir irgendwann (möglicherweise im nächsten Jahrzehnt) eine Verschiebung in die kalte Phase der AMO sehen, mit einer Abschwächung der atlantischen Hurrikanaktivität und des grönländischen Massenverlustes.

Abschließend sei gesagt, dass Manns Bestreben, die mittelalterliche Warmzeit und jetzt die AMO zu annullieren, um zu zeigen, dass die jüngste Erwärmung zu 100% anthropogen ist, für Wissenschaftler, die etwas von Klimadynamik und globalen Klimamodellen verstehen, überhaupt nicht überzeugend ist.

Link: https://judithcurry.com/2021/03/06/canceling-the-amo/

Übersetzt von Chris Frey EIKE

 




Klimapropa­ganda nun auch konse­quent für Kinder

Wenn es mit der Indoktrination besonders schlimm geworden ist, nimmt es der Autor zum Anlass, an die Redaktion und Verantwortlichen eine Gegendarstellung zu verfassen.

[1] „Naturkatastrophen aus Menschenhand“, Kritik

Vorbemerkung: Der Autor hat die Redaktion und für die Kinderseite verantwortlich Zeichnenden um eine Stellungnahme gebeten. Diese ist bisher nicht eingetroffen und wird auch nicht erwartet. Deshalb erfolgt die Publikation der Kritik mit geringfügigen Ergänzungen und Korrekturen. Sollte (doch) noch eine Stellungnahme der Redaktion kommen, wird diese nachgereicht.

Offener Brief an die Redaktion

An die Redaktion der FN, die für die Rubrik „Deine Kinderseite“ verantwortliche Frau Michaela Zimmermann und den Verfasser des Artikels, Hicran Songur (Bildung, Kinder und Familie).

Statement

Mit Entsetzen habe ich am vergangenen Wochenende den für Kinder geschriebenen Artikel über das Klima und dessen stetigen Wandel gelesen.

Er ist wieder (wie in den Nordbayerischen Nachrichten seit langem üblich) ein reinster Propagandaartikel, dem jegliche fachliche Substanz und neutrale Themenbetrachtung fehlt – und den Kindern als angebliches „Wissen“ nur absolute Desinformation bietet. Als kleine „Entschuldigung“ mag nur gelten, dass der Inhalt genau dem entspricht, was unsere Politikkaste in Berlin und ihre pseudowissenschaftlichen Einflüsterer „sehen“ möchten und politisch instrumentalisierte „Fachpersonen“ dazu liefern.

Von einer Redaktion kann man aber erwarten (zumindest war das früher so), dass nicht alles, was von solchen kommt, blind zusammen kopiert und als „Wissen“ veröffentlicht wird. Schon gar nicht für Kinder, welche das nicht erkennen können und dann felsenfest davon überzeugt sind, Fachperson geworden zu sein und wegen dem ständig vorhergesagten Klimauntergang am Freitag deshalb während der Schulzeit auf den Straßen hüpfen zu müssen.

Da der Artikel so exemplarisch zum Thema ist, möchte ich darüber für den Blog EIKE wieder eine Rezension schreiben, um die im Artikel gebrachten Angaben und meine Gegendarstellungen einem größeren – teils auch fachlich gut versiertem Publikum – zur Diskussion zu stellen.
An den Verfasser und die Redaktion habe ich deshalb die Bitte, zu den Darstellungen Belege und Fundstellen mitzuteilen.

Damit Redaktion und Verfasser ungefähr ahnen, um was es mir dabei geht und konkreter darauf eingehen können, anbei etwas Vorarbeit von mir, indem ich meine angedachte Rezension skizziere. Sollte die fachliche Antwort dazu nicht kommen, wird er ungefähr in dieser Form erscheinen.

Darstellungen im Artikel

Im Artikel wird berichtet:Naturkatastrophen sind oft unvorhersehbar … Es gab sie schon immer, aber in den letzten 20 Jahren sind es fast doppelt so viele geworden. Daran ist der Klimawandel schuld.

Gegendarstellung von mir:
Diese Behauptung kommt mir bekannt vor. Anbei, was ich dazu in meinem Infofoliensatz hinterlegt habe. Aber ihre Redakteure haben in öffentliche Aussagen – vor allem internationaler Institutionen – ja geradezu blindes Vertrauen.

Bild 1 Auszug aus einem Infofoliensatz des Autors

Im Artikel wird berichtet: Normalerweise verändert sich das Klima nur sehr langsam. In den letzten 100 Jahren ist geht der Klimawandel aber extrem schnell voran.

Gegendarstellung von mir:
„Nachplappern“ können, gilt heutzutage bereits als Wissen. Und diese Aussage wird regelmäßig nachgeplappert.

Nun aber zu Fakten.
In Deutschland beschleunigt sich die Änderung der Temperatur nicht:

Bild 2 Auszug aus einem Infofoliensatz des Autors

Das gilt auch global:

Bild 3 Auszug aus einem Infofoliensatz des Autors

Bild 4 Auszug aus einem Infofoliensatz des Autors

Wie kommt diese Aussage dann zustande?
Einfach durch den gleichen Trick wie beim „Hockeystick-Betrug“. Man koppelt zwei nach vollkommen verschiedenen Methoden ermittelte Datensätze (Proxidaten mit Geräte-Messdaten) und behaupte, sie wären kongruent. Dann mittelt man die Proxidaten noch stark, um deren extreme Spannen zu verschleiern. Nicht zu vergessen, die Reduzierung auf einen „geeigneten“ Zeitraum.

Fertig ist der „statistisch fundierte“ Datenbetrug. Er lässt sich mit einfachsten Mitteln erkennen – doch das will man partout nicht.

Bild 5 Auszug aus einem Infofoliensatz des Autors

Bild 6 Auszug aus einem Infofoliensatz des Autors

Bild 7 Auszug aus einem Infofoliensatz des Autors

Im Artikel wird berichtet: Grund für den rasanten Klimawandel sind wir Menschen. Wir verbrauchen viel Strom und Wasser. Dafür benötigen wir Energie … Dabei entsteht CO2 … Das ist ein Treibhausgas. Autos, Fabriken und Flugzeuge pusten sehr viel CO2 in die Luft … Jetzt kommt aber der von Menschen gemachte Treibhauseffekt mit den zusätzlichen Gasen … darum steigt die Temperatur.

Gegendarstellung von mir:
Einmal ist die Beschränkung auf „Strom und Wasser“ falsch. Beide haben an CO2-emittierenden Prozessen global einen geringen Anteil. Das gilt auch für „Autos, Fabriken und Flugzeuge“. Die Nennungen dürften damit weniger einem „Wissen“, sondern eher dem Kopieren GRÜNER Forderungen entsprungen sein.

Auf den wirklichen Wert(ebereich) des postulierten „Treibhauseffektes“ (Forcing), der immer niedriger angesetzt wird und bereits beim aktuellen Stand von ca. 1,5 K/Verdopplung zu keinem Klimaalarm mehr Anlass gibt, geht ihr Autor nicht ein. Auch, dass der Treibhauseffekt immer noch nicht belegt werden konnte, sondern seit Arrhenius eine Hypothese geblieben ist.

Dabei ist gerade dies die alleinige – und damit wichtigste – Basis des „menschengemachten Klimawandels“. Eine Information über diesen extrem strittigen Punkt des ganzen „AGW-Klimagebäudes“ müsste man auch Kindern geben, und darüber, welchen (extrem geringen) Einfluss zum Beispiel Deutschland mit seiner CO2-Reduktion am Klima „hat“.

Im gesamten Artikel findet sich kein Wort, welche immensen Verschuldungen unsere Politiker der aktuellen und kommenden Generationen zumuten, um eine selbst im Jahr 2100 mit Sicherheit nicht messbare „Temperaturverminderung“ – laut PIK erzielen die Maßnahmen Deutschlands 0,05 Grad Reduzierung im Jahr 2100 – zu „erreichen“. Wenigstens ein bisschen ökonomisches Denken darf auch Kindern zugemutet und beigebracht werden, damit diese nicht bedenkenlos freitags für mehr Steuern hüpfen, die später mehr als jegliche Klimaänderung vielen ihre Zukunft kaputt machen werden.

Bild 8 Auszug aus einem Infofoliensatz des Autors

Bild 9 Auszug aus einem Infofoliensatz des Autors

Im Artikel wird berichtet: Deshalb schmilzt das Eis an den Polen und der Meeresspiegel steigt an. Dieser Anstieg führt zu Überschwemmungen an den Küstengebieten …

Gegendarstellung von mir:
An den Polen schmilzt etwas Eis. Allerdings viel, viel weniger, als von „Klimafachpersonen“ vorhergesagt. Allerdings hat das Eis dies schon oft getan und ist im längerfristigen Kontext überhaupt kein Drama. Und eine Beschleunigung ist anhand von Messdaten nicht erkennbar. Eine solche existiert nur in Klimasimulationen – vorwiegend des PIK -, in denen aufgrund hypothetischer (wieder simulierter) Annahmen die Antarktischen Randgletscher plötzlich ins Meer rutschen.

Ganz neu sind Aussagen dazu wie im Artikel allerdings nicht. Ein Vorläufer wurde schon vor über 200 Jahren geschrieben. Damals empfand man es allerdings als positiv:

Bild 10 Auszug aus einem Infofoliensatz des Autors

100 Jahre später wiederholte es sich. Man erkennt: Klima-Katastrophenmeldungen gab es zu allen Zeiten:

Bild 11 Auszug aus einem Infofoliensatz des Autors

Bild 12 Auszug aus einem Infofoliensatz des Autors

Nun etwas Hintergrundinformation:

 

Bild 13 Auszug aus einem Infofoliensatz des Autors

Im Artikel wird berichtet: „ … und der Meeresspiegel steigt an. Dieser Anstieg führt zu Überschwemmungen an den Küstengebieten …

Gegendarstellung von mir:
Das ist eine der mantrahaft wiederholten, leider jedoch nur noch dämlichen Aussagen. Sie widerspricht nämlich allen Proxydaten und den aktuell gemessenen Meerespegeln. Ich recherchiere seit vielen Jahren dazu, und immer komme ich zum gleichen Ergebnis: Nirgendwo steigt der Tidenpegel übernatürlich! Alle „gemeldeten“, schlimmen Pegelanstiege entstammen Simulationen.

[Link] EIKE 04.07.2020: Ist die aktuelle Meerespegeländerung im Vergleich mit historischen Zeiten einzigartig?
[Link] EIKE 08.05.2020: Die SZ im Agitationsmodus. Und die Wahrheit bleibt wieder auf der Strecke

Wenn Küstengebiete als „überschwemmt“ gemeldet werden, ist die Ursache in aller Regel eine völlig andere als der Klimawandel, aber absolut exemplarisch:
[Link] EIKE 18.06.2019: Küstenstädte versinken, (auch) weil das Geld stattdessen zur CO2-Reduktion hinausgeworfen wird
[Link] EIKE 13.08.2017: Manila versinkt durch Wasserentnahme im austrocknenden Untergrund. Der (reiche) Westen mit seinem CO2 soll daran schuld sein – und zahlen

Bild 14 Auszug aus einem Infofoliensatz des Autors

Zitat aus meinem Klimawandel-Foliensatz:

Bild 15 Auszug aus einem Infofoliensatz des Autors

Bild 16 Auszug aus einem Infofoliensatz des Autors

Im Artikel wird berichtet: „ ... die Gefahr von Starkregen und Wirbelstürmen erhöht sich …

Gegendarstellung von mir:
Ihr Autor vergaß (wohl weil er es nicht wusste) zuzufügen: Ausschließlich in Simulationen.

Zum Beispiel für Deutschland und Europa gilt es den wirklichen Messdaten nach nicht, wie es der letzte Deutsche Klima-Monitoringbericht 2019 ausweist.

Bild 17 Darstellung aus dem Deutschen Klima-Monitoringbericht 2019

Geht man in der Historie einfach auch mal ein bisschen zurück, stellt man fest, dass die wirklich schlimmen und extremen Naturereignisse zur Zeit des „Natürlichen“ und kälteren Klimazeitraumes stattfanden.

Bild 18 Auszug aus einem Infofoliensatz des Autors

Bild 19 Auszug aus einem Infofoliensatz des Autors

Historisch weit zurückreichende Hochwassermarken sprechen darüber eine überdeutliche Sprache:

Bild 20 Auszug aus einem Infofoliensatz des Autors

Das gibt sogar der IPCC zu. Im letzten Klimabericht AR5 steht:

Bild 21 IPCC-Aussagen, AR5 Langbericht

Im Artikel wird berichtet: 2018 hat es in Indien viele Monate geregnet. Es handelte sich um die schlimmste Überschwemmung seit 100 Jahren …

Gegendarstellung von mir:
Wenn es vor 100 Jahren zum Zeitpunkt des „glücklichen Klimas“ schon mal so schlimm oder vielleicht sogar schlimmer war, warum ist ein Wiederauftreten dann etwas Überraschendes? Wie viele Jahre müssen vergehen, bis ihr Autor das Wieder-Auftreten nicht mehr dem Klimawandel negativ zuordnet? Hat er überhaupt auch nur im Ansatz eine Vorstellung davon?

Geradezu perfide ist die Textung.
Ein einmaliges Wetterereignis wird mit einer Bemerkung in den Raum gestellt, die einen direkten Bezug zum schlimmen, vom Menschen verursachten Klimawandel suggerieren soll.
Keiner der lesenden Kinder wäre wohl in der Lage, den Bezug nachzuprüfen – um festzustellen, was vielleicht wirklich dahinter steckt.

Anbei meine Interpretation des gleichen Ereignisses:
Wenn es lange 100 Jahre gedauert hat, bis der Monsunniederschlag überhaupt erst einmal den Pegel in der damals ausgehenden Kaltzeit erreicht, ist es ein Beleg für folgende Aussagen:
Laut Klimatheorie muss bei höherer Temperatur der Niederschlag deutlich zunehmen. Die Temperatur ist höher geworden, sogar der Extremniederschlag aber auf dem Stand zur Kaltzeit verblieben, wo er doch längst viel höher sein müsste, alleine um relativ gesehen gleich zu bleiben. Damit ist entweder die Klimatheorie falsch oder/und das Ereignis hat keinen Zusammenhang mit dem AGW-Klimawandel.

Eine solche alternative Interpretation wäre etwas für „Wissenschafts-Detektive“. Kinder lieben und sind stolz auf „detektivisches“ Arbeiten. Dabei bekämen sie Anregungen, wie man ein Thema angehen und glaubhafte Fakten herausschälen kann – und sich für wirkliche Wissenschaft begeistert. Nur mal so als Vorschlag.

Allerdings nicht auszudenken, wenn solche Wissenschaftsdetektive eventuell dann dahinter kämen, dass die Horrormeldungen zum AGW-Klimawandel hinten und vorne nicht mit den Messdaten übereinstimmen – sondern ausschließlich Simulationen entstammen – und es sich dabei um den wohl größten Wissenschaftsbetrug der Neuzeit handelt (meine rein persönlicher Meinung nach vielen Jahren tiefgehender Recherchen zum Klima und seinem stetigen Wandel).

Nun gut, vielleicht wird der Aluhut mal ein historisches Widerstands-Markenzeichen für trotz ständiger Klimapropaganda standhaft kritisch gebliebene Bürger, so wie der GRÜNE „Anzug“ Markenzeichen für herausragende Dummheit bezüglich technischer Aussagen in deren Führungsetage ist.

Mal sehen, ob eine kleine Recherche meine Interpretation zum Monsun unterstützt.
Eigentlich wollte ich dieser Aussage nicht nachrecherchieren. Habe es nun doch gemacht und mit wenig Aufwand Interessantes gefunden.

Zuerst den gemittelten Verlauf des Indischen Monsuns global von 1870 – 2010. Ich traue mich auszusagen, dass die fehlenden, letzten 10 Jahre daran nichts Grundlegendes verändert haben werden. Nur mit einem Brett vor dem Kopf – oder/und GRÜNER Verblendung lässt sich daraus ein schlimmer Klimawandeleinfluss ableiten. Den Kindern wird es aber erzählt.

Bild 22 India 31-year moving average of monsoon rainfall. Quelle: Grafik aus: Adaptation to climate change: historical evidence from the Indian monsoon, Published online by Cambridge University Press: 27 June 2017

Aus der Schadensdatenbank: EM-DAT, the International Disaster Database. CRED/UCLouvain 2020,

habe ich mit etwas Aufwand (privat macht man das, was sich bezahlte Redakteure heutzutage ersparen) die niederschlags-bedingten Mortalitätsdaten von Indien herausgefiltert, auf Jahreswerte summiert und grafisch dargestellt. Bedenkt man, wie die Bevölkerungszahl in dem Zeitraum explodiert ist und was für ein Siedlungsdruck in hochwassergefährdete Niederungen entstand, dann ist der Mortalitätsverlauf einfach nur als „glücklich“ zu bezeichnen.

Allerdings sieht man auch in dieser Grafik, wie Extremniederschlag spontan und ohne jegliche „Vorwarnung“ oder Trend auftritt.

Bild 23 Indien, Mortalitätswerte pa für Monsun- und Starkregenereignisse 1926 – 2010. Grafik von mir erstellt. Datenquelle: Schadensdatenbank EM-DAT, the International Disaster Database. CRED/UCLouvain 2020

Auch insgesamt scheint das inzwischen zum Glück wärmer gewordene Klima bezüglich der Todesrate für Indien mehr als segensreich zu wirken.

Bild 24 Relative Todesraten für Indien. Quelle: IIMA Working Paper W. P. No. 2020-12-03: Pandemics and Historical Mortality in India

Damit entlarvt sich die Aussage zum Monsun in Indien als das, was sie sein soll: Lupenreinste Propaganda.

Im Artikel wird berichtet: Durch die Erderwärmung nehmen gleichzeitig Dürren und Hitzewellen zu. In Ostafrika leiden die Menschen seit Jahren unter einer Dürre. Es fehlt an Wasser und die Ernten gehen kaputt, die Menschen haben Hunger und Durst.

Gegendarstellung von mir:
Wieder eine wohl abgeschriebene, mantrahaft wiederholte Falschbehauptung. Betrachten wir anstelle pauschal „Ostafrika“ den wichtigen Sahelgürtel, der einen Teil von Ostafrika einschließt.
So stellen alle Fachpersonen fest (sogar das PIK), dass der Niederschlag dort zunimmt. Letztes Jahr war es sogar zu viel und führte zu massiven Überschwemmungen.
Um die dort explodierende Bevölkerung und viel zu hohe „standesgemäß erforderliche“ Viehpopulation zu ernähren, kommt die Natur natürlich nicht nach. Auch die Probleme durch Clan-Misswirtschaft und ständig ausufernden Kriegshandlungen kann Regen nicht kompensieren.

Darüber zu lamentieren würde allerdings nicht viel bringen. Wenn man es dem Klimawandel zuschiebt und den reichen Westen dafür verantwortlich macht, bringt es allerdings einen Geldsegen aus dem Klima-Reparationsfond.

Zitierung: In der Fernsehreportage Planet Wüste, Folge 10: „Abenteuer Sahara“, gesendet am 12.12.2015 auf ARD alpha sagte der Reporter vor Ort:
… „In den 70er Jahren kam es im Sahel zu verheerenden Dürrekatastrophen, die Millionen Menschen verhungern ließen. Aufgrund des Klimawandels wird seit Mitte der 80err Jahre ein Ansteigen der Niederschläge beobachtet, so dass der Sahel grüner ist als damals.
… Dem steht ein Ausblühen der Wüste gegenüber – die sogenannte Desertifikation. Sie hat ihre Ursachen in einer Übernutzung der spärlichen Vegetation durch den Menschen. Überweidung und Brennholzeinschlag führen zur Verwüstung ganzer Landstriche.“

Im Artikel wird berichtet: Durch die große Trockenheit und den fehlenden Regen treten häufiger Waldbrände auf. In Australien kommt es fast jährlich zu Buschbränden …

Gegendarstellung von mir:
Was soll diese pauschale – mit nichts vergleichbare – Aussage den Kindern sagen? Klar, einen ganz schlimmen Einfluss des menschengemachten Klimawandels!
In Australien (und vielen anderen Ländern) kommt es seit Menschengedenken als natürlicher Vorgang jährlich zu Buschbränden. Nur über einen Verglich mit der Historie und gesetzlichen Gegebenheiten vor Ort lässt sich das einsortieren. Und dann sieht es vollkommen anders aus:

Bild 25 Auszug aus einem Infofoliensatz des Autors

Bild 26 Auszug aus einem Infofoliensatz des Autors

Bild 27 Auszug aus einem Infofoliensatz des Autors

Bild 28 Auszug aus einem Infofoliensatz des Autors

Bild 29 Auszug aus einem Infofoliensatz des Autors

Im Artikel wird berichtet: Not und Elend verursachen auch Stürme, die durch Extremwetter ausgelöst werden ... “

Gegendarstellung von mir:
Das stimmt. Nur, was hat das mit dem AGW-Klimawandel zu tun? Das war sicher schon immer so, seit Menschen auf der Erde leben. Ständiges Drücken auf die Tränendrüsen kommt bei Kindern aber immer gut an, weil die immer gerne helfen wollen.

Im Artikel wird berichtet: „ ... Auch bei uns in Deutschland nehmen Wetterextreme zu, die zu Überschwemmungen, heftige Stürme oder Trockenperioden zur Folge haben.

Gegendarstellung von mir:
Das könnte der Autor vom streng politisch gelenkten Umweltbundesamt herauskopiert haben. Nur wird es damit nicht richtiger.

Der jüngste Klimamonitoringbericht Deutschland belegt nämlich das Gegenteil:
[Link] EIKE 27.11.2019: Deutscher Klima-Monitoringbericht 2019, S. Schulze spricht über alarmierende Befunde
Es lässt sich auch über andere Quellen recherchieren:
[Link] EIKE 09. Oktober 2019: Gerade jetzt schlägt der Klimawandel noch viel schlimmer zu
[Link] EIKE 08. Juni 2018: Die Suche nach dem Klimawandel geht weiter. Denn in Deutschland ist er nicht zu finden
Was steht (bewusst?) nicht im Artikel!
Dass wir derzeit in der ruhigsten Klimazeit einer langen Klimageschichte leben dürfen und viel eher Angst vor der bereits überfälligen Eiszeit haben müssen (was man um 1970 bereits als eingetroffen befürchtete).

  • Die bisherigen Warmzeiten (seit dem Ende der letzten Eiszeit) immer kulturelle Blütezeiten waren, während die vielen zwischengeschalteten Kaltzeiten (auch die bis ca. 1850) immer mit Not, Völkerwanderungen und Kriegen verbunden waren.
  • Die Atmosphäre derzeit den niedrigsten CO2-Gehalt seit Jahrmilliarden hat und die darauf angewiesenen Grünpflanzen fast drohten, wegen diesem Mangel zu verhungern. Seit der CO2-Gehalt wieder zunimmt, ergrünt die Erde und die Ernten explodieren.
  • Der sehnlichste Wunsch von Arrhenius eingetroffen ist: Mehr CO2 könnte das Mittel sein, um die Welt aus der bitteren Kälte herauszuführen. Deshalb soll überall CO2 emittiert werden …
    [Link] EIKE 13. April 2020: Wurde schon 1912 vor dem schlimmen Klimawandel gewarnt? Ein Zeitungsartikel, doch zwei Interpretationen

Dazu noch ein Beispiel, wie die WHO selbst den Klimanotstand sieht. Nämlich so gering, dass sich selbst dessen Erwähnung nicht wirklich lohnt. Den Kindern vermittelt die Zeitung jedoch, es wäre wohl das Schlimmste, was verhindert werden muss.

Anmerkung: Die WHO-Daten sind bezüglich den „all Forces of Nature“ erkennbar grottenfalsch. Laut Redaktion dürfen sie aber nicht angezweifelt werden, da die WHO alle Bedingungen einer Institution erfüllt, die immer verlässliche Daten liefert denen Bürger blind vertrauen dürfen … Darüber hatte Trump zwar eine ganz andere Meinung, diese grundlegend falsche hat sein Nachfolger Biden aber sofort korrigiert.

Bild 30 WHO-Daten zur Mortalität durch klimatische Ereignisse

Tote durch Naturereignisse. WHO-Datensatz (letzte Ausgabe 2018)

Bild 31 Vergleich der Mortalität durch Klima-/nicht Klimaereignisse

Der mehr als segensreiche Einfluss des zum Glück wärmer gewordenen Klimas auf Mortalitäten

Bild 32 Tote durch Naturereignisse. Vorschaudaten von 2020 – 2060 aus dem WHO-Datensatz (letzte Ausgabe 2018). Das obere Bild zeigt die richtigen Verhältnisse, im unteren Bild ist die Mortalität aufgrund von Naturereignissen gedehnt, um den von der WHO erwarteten Verlauf zu zeigen. Grafik vom Autor erstellt

Liste von Petitionen gegen Klimahysterie 97 %

Um nun den Titel dieser News nicht zu vergessen: Erst jüngst vor wenigen Tagen haben 500 Klimawissenschaftler weltweit an den UN-Generalsekretär António Guterres eine Petition geschrieben unter dem Titel „Es gibt keinen Klimanotstand“ (hier), die Liste der Unterzeichner (Namensliste_500_Petition_2019) und die Thesen der Unterzeichner (Thesen_500_Petition).

Dabei sollen die bisherigen Petitionen und Manifeste aber nicht vergessen werden und zwar nachfolgend

  1. Eine (unvollständige) Zusammenstellung von begutachteten Klimafachveröffentlichungen mit anderen Ergebnisse, als denen, die vom IPCC bevorzugt werden (hier), ferner eine Aufzählung von prominenten, weltbekannten Physikern, die einer maßgebenden, gefährlichen globalen Erwärmung widersprechen (hier).
  2. Oregon-Petition, im Jahre 2008, 31.000 Unterzeichner, davon 9000 promoviert, die meisten aus dem Ingenieurbereich, aber auch zahlreiche Klimaforscher (hier).
  3. Das Heidelberger Manifest, 1992, 4000 Naturwissenschaftler, 72 Nobelpreisträger, überwiegend keine Klimaforscher (hier). Bemerkenswert ist, dass es diesen Wikipedia-Eintrag nur im Englischen Wikipedia gibt, im deutschen Wikipedia werden dem IPCC widersprechende Artikel zensiert.
  4. Leipziger Manifest, 1995, (80 Forscher der Naturwissenschaft, 25 Meteorologen), (hier). Auch hier nichts im deutschen Wikipedia.
  5. Der U.S. Senate Minority Report, 11.12.2008, 700 Naturwissenschaftler (hier).
  6. Offener Brief an Angela Merkel, 26.7.2009, (hier).
  7. Die Eingabe an US-Präsidenten Obama (100 Fachwissenschaftler, (hier).
  8. Offener Brief an UN Generalsekretär Ban Ki-Moon (125 Naturwissenschaftler, (hier).
  9. Petition an Präsident Donald Trump, (hier).
  10. Physiknobelpreisträger Ivar Giaever: Youtube gegen den Klimawahn.
  11. Petition italienischer Wissenschaftler, 6.7.2019, (hier).
  12. Erst jüngst vor wenigen Tagen haben 500 Klimawissenschaftler weltweit an den UN-Generalsekretär António Guterres eine Petition geschrieben unter dem Titel „Es gibt keinen Klimanotstand“ (hier)
  13. Es gibt vermutlich noch weitere Petitionen, die aber „erfolgreich“ aus dem Internet gelöscht wurden. Uns bekanntes Beispiel ist die von kanadischen Wissenschaftlern an den damaligen kanadischen Ministerpräsidenten Harper.

Schlussbetrachtungen

Seitens der Redaktion und den weiteren Angesprochenen erfordert das Lesen meiner Ausführung natürlich erheblichen Mut, wenn nicht gar konspiratives Vorgehen.

In der Wochenendausgabe vom 30./31. Januar hat ihr Chefredakteur in einem Artikel „Wenn zwei und zwei fünf ist“ über eine ganze Seite dargelegt, dass der Bürger der offiziellen Wissenschaft voll vertrauen darf und vor allem soll.
Kernsatz: „ Die Pandemie hat das Vertrauen in die Wissenschaft gestärkt – bei den meisten. Andere stellen Fakten und Erkenntnisse zusehends komplett in Frage. So entstehen zweierlei Wahrheiten …

Für mich hat die Pandemie mit den Datenverdrehungen des RKI und der Merkel treu ergebenen Hofwissenschaftler, sowie der (immer noch) unvorstellbare Dilettantismus unserer Politikkaste, das „Vertrauen in die Wissenschaft“ allerdings nachhaltig zerstört (was sie jedoch schon vorher war).
(Nachträgliche Zufügung:) Achgut 24.02.2021: Bericht aus der Grabkammer der deutschen Staats-Wissenschaft

Das gilt national, wo erstmals ein Minister vollkommen hemmungslos und vor aller Augen Wissenschaftler bezahlt, damit sie geforderte, falsche Aussagen liefern – was diese nicht etwa ablehnten, sondern pflichterfüllend taten:
Bestellte Wissenschaft: GAU heißt jetzt “Größte Anzunehmende Unglaubwürdigkeit”
Manipulation der Wissenschaft durch das Bundesinnenministerium (BMI) (tichyseinblick.de)

Und international
WHO hilft Biden: Künftig rapide sinkende Fallzahlen – dank geänderter PCR-Testkriterien
22. Januar 2021 traf die Weltgesundheitsorganisation (WHO) unmittelbar nach Joe Bidens Amtseinführung die Vorkehrungen, dass die Corona-Pandemie wie von Geisterhand einen Teil ihres Schreckens verlieren wird – und sich der neue Präsident bald schon mit wundersam „sinkenden Fallzahlen“ wird brüsten können: Durch geänderte Testrichtlinien nämlich …Konkret bedeute dies, dass „…ein PCR-Text nach Ansicht der WHO nutzlos ist, wenn ein Getesteter keine Symptome zeigt„. 

corona datenbetrug durch die WHO

Und es zeigt sich in der öffentlichen „Bewertung“ einer unangenehmen Studie. Über den toxischen Inhalt redet keiner der Experten, braucht es ja auch nicht, denn sie hat ja (geringfügige) formale Mängel:
Medien überschlagen sich: Wuhan-Studie „krude“, „toxisch“, „unwürdig“ (tichyseinblick.de)

Unsere Politikkaste ist unter Merkel zur reinen Karikatur verkommen:
Deutsche Welle und Heiko Maas – mal mit, mal ohne Maske (tichyseinblick.de)

Bild 33 Doppelstandards bei der Deutschen Welle: Maskierte Minister für die deutschsprachige Version, unmaskierte für die türkischsprachigen Leser. Der Artikel dazu war auch nicht derselbe.

Aber so unterschiedlich sind eben die Interpretationen des gleichen Geschehens und Darstellungen.

In der Zeitungs-Folgeausgabe vom Montag, dem 1. Februar wurde eine Christine Thurner dann konkreter. In einem wieder ganzseitigen Artikel „Richtig oder falsch?“ stellte sie dar, wann eine Publizierung Fakten-richtig darstellt und wann sie in einer Publizierung unbesehen falsch ist.
Das kann der brave, Merkel und GRÜN, – natürlich auch den Medien – blind vertrauende Bürger nämlich anhand weniger Kriterien erkennen,

Beispiele:
… Rechtschreib- und Grammatikfehler sprechen ebenso gegen eine offizielle Quelle …
Danach fielen fast alle Sätze unserer unfehlbaren Kanzlerin darunter, denn kaum einer von ihr ist ohne teils eklatante Grammatikfehler …
… wird beispielsweise in einem anderen Artikel der Klimawandel geleugnet …
gilt als absolut sicheres Merkmal einer Quelle, die der brave Bürger auf keinen Fall ansehen sollte, weil sie ziemlich sicher nur Unwahrheiten vermittelt.

Gelobt wird dagegen „correctiv“, der „Faktenchecker“, welche Studien mit parallel diametralen Aussagen erstellt, um jeden Auftragswunsch erfüllen zu können:
EIKE 13.08.2017: Manila versinkt durch Wasserentnahme im austrocknenden Untergrund. Der (reiche) Westen mit seinem CO2 soll daran schuld sein – und zahlen
und deren sonstige teils von bewussten Falschdarstellungen nur so strotzen:
EIKE 08.08.2017: Meerespegelanstieg: Europa kann nicht alle (vor Klimawandel-Desinformation) schützen T2 (2)
EIKE 07.08.2017: Meerespegelanstieg: Europa kann nicht alle (vor Klimawandel-Desinformation) schützen T1 (2)
EIKE 26.11.2016: Forscher des Weltklimarates IPCC rechnen, dass die globale Erwärmung 10 bis 50 % der jährlichen Ernte bedroht – Was steckt dahinter?
EIKE 30.12.2017: Ohne den Klimawandel hätte das gleiche Wetter nicht so schlimme Folgen…

Nach einem solchen „Dauerbeschuss“ meint man dann, dümmer kann es doch gar nicht mehr kommen.
Bis ihre Zeitung einen leibhaftigen Theologen als ausgewiesenen „Faktenchecker“ präsentierte. Da musste ich wirklich laut lachen.

Öfters habe ich die Redaktion schon darauf hingewiesen, dass beim Lesen der Zeitung der Eindruck entsteht, es wird zum Thema reihum der/die mit der geringsten Sachkenntnis ausgesucht, wohl um zu verhindern, dass Wissen oder ein Gedankenblitz politisch „unkorrekte“ Information zu den Bürgern gelangen lässt und damit der ja laufend neu zu erarbeitende, für ein Medium wichtige Merkel- und Söder-Bejubelungs-Score leidet.
Der für GRÜN natürlich auch, denn die sind wirklich nachtragend – und mit ziemlicher Sicherheit bald mit in der Regierung.
Bei diesem Artikel habe ich nicht nur den Eindruck, sondern bin mir sicher …

Nochmals die bitte nach Belegungen ihrer Darstellungen

Nun habe ich zwar einiges an kritischer Argumentation aufgeführt. Doch ist auch diese natürlich selektiv und muss nicht stimmen. Deshalb bin ich darauf gespannt, mit welchen die über wesentlich mehr Mittel und Wissen dazu ausgerüstete Redaktion meine widerlegt.

Mit freundlichem Gruß ein trotz permanenter Medien-Indoktrination weiterhin kritisch gebliebener Leser

24.02.2021

xxxx

Quellen

[1] Lokalausgabe der Nordbayerischen Nachrichten am 20.02.2021, Kinderseite, Artikel: „Naturkatastrophen aus Menschenhand“

[2] EIKE 09. April 2020:Wie kann Jimmy Kater die Inselgruppe Kiribati vor dem Untergang schützen? Alternativ: Auch während Corona in Klima-Agitation nicht nachlassen

 




Der Wechsel von Tag und Nacht erklärt das Fehlen eines äquatorialen Hotspots in der Atmosphäre

Ich bedanke mich bei der EIKE-Redaktion dafür, dass sie einem breiten Spektrum von konträren wissenschaftlichen Positionen jenseits des wissenschaftlichen „97%“-Mainstreams ein öffentliches Forum bietet. Sehr eigenartig finde ich dagegen die wiederkehrende Kritik einzelner Leser, EIKE würde keine einheitliche Realisten-Position abbilden. Denn eine solche einheitliche Realisten-Position gibt es gar nicht; aber alle diese Positionen konvergieren auf einer Meta-Ebene mit einem „natürlichen atmosphärischen Treibhauseffekt“ als einem „NON-PROBLEM“ und gar keinem oder einem sehr geringem Einfluss des Menschen auf das globale Klimageschehen.

Die wesentlichen Thesen zum sogenannten „natürlichen“ atmosphärischen Treibhauseffekt hatte ich bereits ausführlich diskutiert (Darstellung, Diskussion, Ergebnis). Allein mein hemisphärischer S-B-Ansatz kann die Widersprüche des konventionellen 24h-Tag=Nacht-THE-Ansatzes auflösen. Das THE-Paradigma behandelt Tag und Nacht völlig gleich und tut so, als würde überall auf der Welt zu jeder Zeit eine halbe Sonne mit einer temperaturwirksamen spezifischen Strahlungsleistung von 235W/m² senkrecht einstrahlen. Nun hat aber noch kein THE-Anhänger erklären können, wie aus einer planaren solaren Einstrahlung eine terrestrische radiale Abstrahlung entsteht. Und, was noch viel offensichtlicher ist, eine atmosphärische „Gegenstrahlung“ von ca. 300 W/m²würde verhindern, dass es irgendwo auf unserer Erde jemals kälter als 270K (-3°C) wird. Das konventionelle THE-Modell für unsere Erde mit den globalen Eckwerten von (33°C und 155W/m²) ist also streng eindimensional und beinhaltet keinerlei Abhängigkeit von der Tages- oder Jahreszeit und von der geographischen Breite. Mein hemisphärisches S-B-Modell kann dagegen die „gemessene“ Realität von etwa 15°C widerspruchsfrei abbilden und stimmt mit den tatsächlichen Beobachtungen überein (hier Tabelle 1).

Abbildung 1: Das hemisphärische S-B-Modell für die Temperaturgenese auf unserer Erde

Das 24h=Faktor4-THE-Paradigma benötigt dagegen eine zweite Sonne für die 235W/m² der Nachtseite

Das hemisphärische S-B-Modell kann als vieljährige Durchschnittsbetrachtung unserer realen Erde die oben genannten räumlichen und zeitlichen Abhängigkeiten der solaren Einstrahlung sehr wohl abbilden und erfasst damit alle drei räumlichen Dimensionen und die Tages-/Jahreszeit bei der Beschreibung der Temperaturgenese auf unserer Erde. Nehmen wir mal ein ganz einfaches Beispiel, die Erzeugung von Solarstrom in Deutschland:

Abbildung 2: Realisierte Erzeugungsleistung und tatsächlicher Stromverbrauch im Zeitraum 14.-25. September 2020 (Quelle: SMARD)

Aus dieser Abbildung wird unmittelbar der natürliche Tag&Nacht-Rhythmus bei der Erzeugung von Solarstrom deutlich. Im Umkehrschluss liefert also der Verlauf der Solarstromerzeugung den Beweis, dass der Wechsel von Tag und Nacht wesentliche physikalische Unterschied beinhaltet, ganz wie es mein hemisphärisches S-B-Modell beschreibt. Und dieser Tag&Nacht-Wechsel sollte sich eigentlich auch korrekt in den Klimamodellen abbilden, die sich aber lediglich auf einen 24h-Tag&Nacht-Durchschnitt stützen. Weiterhin wird die hemisphärische Tag&Nacht-Ungleichheit auf der realen Erde durch das Land-Seewind-System und dessen gegenläufigen Tag#Nacht-Verlauf nachgewiesen. Und auch die sogenannte oberflächennahe „Skin“-Schicht der Ozeane schwankt zwischen bis zu 10 Metern am Tage und weniger als einem Millimeter in der Nacht (hier, erster Absatz).

Kann ein globaler 24h-Durchschnitt solche Tag&Nacht-Unterschiede abbilden? – Nein, das kann er natürlich nicht: Es fängt schon damit an, dass die 24h-Tag&Nacht-Gleichheit des THE-Paradoxons im natürlichen Ablauf von Tag und Nacht gar nicht beobachtet werden kann. Und auch die besten mathematischen Ableitungen verlieren ihre physikalische Aussagekraft, wenn vorher die planare solare Einstrahlung auf der Tageshemisphäre der Erde in einen skalaren globalen Durchschnitt umgewandelt wird. Die Strahlungstransferberechnung leitet also aus der Differenz einer physikalisch fehlerhaften globalen 24h-S-B-Inversion als „Gleichgewichtstemperatur“ für die solare Einstrahlungsleistung (-18°C) und der sogenannten „gemessenen“ globalen Durchschnittstemperatur (NST=14,8°C) den ominösen THE (33°) her. Und auch das immer wieder vorgebrachte Argument, die ominöse „atmosphärische Gegenstrahlung“ würde den 2.HS der Thermodynamik erfüllen, entbehrt jeder physikalischen Beweiskraft.

So stellen Ozawa et al. (2003) in einer Veröffentlichung über das Prinzip der maximalen Entropie im globalen Klimasystem ein Berechnungsschema für die Entropie vor und wenden es auf die Erde an:

Abbildung 3: Fig.3 und 5a aus Ozawa et al. (2003) zur Entropie. Links Fig. 3: “A schematic of heat transport through a small system (C) between two thermal reservoirs with different temperatures (A, cold and B, hot). By the heat transport from hot to cold, entropy of the whole system increases…” Übersetzung: Ein Schema des Wärmetransports durch ein kleines System (C) zwischen zwei Wärmespeichern mit unterschiedlichen Temperaturen (A, kalt und B, heiß). Durch den Wärmetransport von heiß zu kalt nimmt die Entropie des gesamten Systems zu… Rechts Fig. 5a: “Energy and entropy budgets for the Earth. (a) Global-mean (surface-area mean) energy flux components (i.e., shortwave radiation, longwave radiation, vertical turbulent heat transport), in W/m². Übersetzung: Energie- und Entropiebudgets für die Erde. (a) Global-mittlere (Oberflächenmittelwert) Energieflusskomponenten (d. h. kurzwellige Strahlung, langwellige Strahlung, vertikaler turbulenter Wärmetransport) in W/m²

Einmal vorausgesetzt, das Schema von Ozawa et al. (2003) zur Ermittlung der Entropie in deren Fig.3 sei korrekt, dann ist es insofern auf die reale Erde adaptiert worden, als dass in deren Fig.5a die allgemein bekannten Durchschnittstemperaturen korrekt aufgeführt worden sind. Allerdings ist deren jeweilige Entsprechung als spezifisches S-B-Strahlungsäquivalent quantitativ nicht nachzuvollziehen. Zunächst fehlt in Fig.5a schon einmal die Solarkonstante von 1.367W/m², die schließlich das maximal mögliche S-B-Temperaturäquivalent von ca. 120°C auf unserer Erde bestimmt. Vielmehr wird dort der temperaturwirksame Anteil der solaren Einstrahlung nach dem Faktor4-Tag=Nacht-THE-Flacherdeansatz mit 240W/m² entsprechend einem S-B-Temperaturäquivalent von (-18°C=255K) beziffert. Und erstaunlicherweise taucht die ominöse „atmosphärische Gegenstrahlung“ im Betrag von 300-333W/m² ebenfalls nicht auf, sodass diese Abbildung aus sich heraus gar nicht erklären kann, wie sich aus einer Einstrahlung von 142W/m² an der Erdoberfläche die angegebenen 288K herleiten sollen; denn die (vernachlässigbare) natürliche mittlere Wärmestromdichte aus dem Erdinneren beträgt an der Erdoberfläche lediglich 0,065W/m².

Anmerkungen: Eine wissenschaftliche Abbildung sollte insoweit vollständig sein, als dass sie alle wesentlichen Komponenten zum Verständnis des beschriebenen Vorgangs enthält. Die näheren Erläuterungen können dann im Fließtext erfolgen. Eine unvollständige Abbildung, die ausgerechnet strittige Komponenten wie die ominöse „atmosphärische Gegenstrahlung“ ausschließt, ist völlig inakzeptabel und wahrscheinlich nicht einmal für THE-Gläubige verständlich.

Erklärung für den Begriff „Entropie“, Zitat Wikipedia: „In einem sich selbst überlassenen System in einem beliebigen Anfangszustand bewirken dann die spontan ablaufenden inneren Vorgänge, dass der Zustand des Systems sich mit größter Wahrscheinlichkeit demjenigen Makrozustand annähert, der bei gleicher Energie durch die größte Anzahl verschiedener Mikrozustände realisiert sein kann, also die höchstmögliche Entropie hat.“ Das ist schwerer Tobak, eine recht gute Ableitung findet man hier auf EIKE.

Und hier noch ein ganz einfaches Beispiel aus dem vollen Leben: Das Kinderzimmer war eben noch aufgeräumt, dann haben die lieben Kleinen den ganzen Nachmittag gespielt und am Ende herrscht dort Chaos. Im Kinderzimmer hat sich damit die Entropie als Maß für dessen Unordnungszustand erhöht. Und um diese Unordnung dann wieder zu beseitigen, müssen Sie Arbeit (=Leistung*Zeit) verrichten. Denn jedes System, auch das Kinderzimmer, kann seine Entropie nicht ohne zusätzlich eingebrachte Arbeit wieder verringern.

Ergebnis: Der 2. Hauptsatz der Thermodynamik macht auch vor dem Kinderzimmer nicht halt, denn die Aufräumungsarbeiten im Kinderzimmer machen sich nun mal nicht von alleine…

Fassen wir zusammen: Die von Ozawa et al. (2003) in Fig. 5a angegebenen Werte für die spezifische Strahlungsleistung entstammen einem unvollständigen Faktor4-Tag=Nacht-THE Flacherdeansatz und treffen daher nicht auf die reale Erde mit Tag und Nacht zu. Aber die dort angegebenen Temperaturen stimmen dann erstaunlicherweise trotzdem mit den realen Werten überein, Oberflächentemperatur gleich 288K (~+15°C) und Temperatur auf der „Abstrahlungshöhe“ von ca. 5.000 Metern gleich 255K (~-18°C). Ozawa et al. (2003) sagen nun, die theoretischen Abschätzungen von Paltridge (1978) würden in annehmbarer Übereinstimmung mit den tatsächlichen Beobachtungen stehen:

Abbildung 4: “Global distribution[s] of (a) mean air temperature, …, predicted with the constraint of maximum entropy production (equation (9)). Reprinted from Paltridge [1978]” aus Ozawa et al. (2003, Figure 4) Übersetzung: Globale Verteilung(en) von (a) mittlerer Lufttemperatur,…, vorhergesagt unter der Bedingung der maximalen Entropieproduktion (Gleichung (9)). Nachdruck aus Paltridge [1978]
Deutlich wird hier allerdings, dass die 273K (~0°C) Isotherme bei Paltridge (1978) deutlich polferner (um 50° N und S) verläuft, als die durchschnittliche Oberflächentemperatur der Ozeane in der NASA-Abbildung (um 70° N und S):

Abbildung 5: Globale Durchschnittstemperaturen (Abbildungen in E-W-Richtung gestaucht) Links: Paltridge [1978] aus Ozawa et al. (2003, Figure 4) “Global distribution[s] of (a) mean air temperature, …, predicted with the constraint of maximum entropy production (equation (9)).” Rechts: NASA “Annual Mean Ocean Surface Temperature” based on observed data up until 1994
Wir können also feststellen, dass der Faktor4-Tag=Nacht-THE-Flacherdeansatz trotz unklarer/fehlender Zwischenschritte von einer fehlerhaften „Gleichgewichtstemperatur“ (-18°C) zu einem vergleichbaren Ergebnis wie die tatsächlich gemessenen Daten (+15°C) kommt, sich also in der Zielsetzung streng an der gemessenen Realität orientiert. Ergebnis ist eine MATHEMATISCHE Strahlungstransfer-Berechnung zwischen einer PHYSIKALISCH fehlerhaften „Gleichgewichtstemperatur“ und der sogenannten „gemessenen globalen Durchschnittstemperatur“. Diese Lücke zwischen fehlerhafter Theorie und gemessener Realität wird dann mathematisch durch eine willkürliche „atmosphärische Gegenstrahlung“ als imaginärer Antrieb eines „natürlichen atmosphärischen Treibhauseffektes“ von 33° geschlossen, die dem 2.HS der Thermodynamik widerspricht. Denn ein Übergang von Wärme von einem kalten zu einem wärmeren Körper ist PHYSIKALISCH nach dem 2.HS der Thermodynamik ohne zusätzlich aufgebrachte Arbeit völlig unmöglich, wie eben auch das Aufräumen eines Kinderzimmers.

In der nachfolgenden Abbildung wird ein älteres Beispiel aus meinem hemisphärischen Modell, das die Entropie der solaren Strahlungsleistung beschreibt (A), durch eine aktuelle Abbildung von Joe Postma (B) nochmals bestätigt:

Abbildungen 6 A&B zum Wärmetransport nach dem 2.HS der Thermodynamik

A – Abbildung Weber: Der Strahlungsdurchschnitt von 470 W/m² (korrekt: 940W/m²*cosPHIi) umfasst einen Strahlungsbereich von 0-940W/m² für die tagseitige Hemisphäre mit einem maximalen S-B-Temperaturäquivalent von 85,7°C @ 940W/m². Bei der globalen Mittelung der tagseitigen solaren Einstrahlung (235W/m²) fällt also genau derjenige Teil der spezifischen solaren Strahlungsleistung (größer 235W/m²) weg, der Temperaturen oberhalb von (-18°C) erzeugen kann.

B – Abbildung Postma: Die schwarze Kurve zeigt die Differenz der IR-Spektren von (22°C=rot) und (-18°C=blau). Es wird deutlich, dass das (-18°C)-Spektrum diese Differenz, insbesondere zu den hohen IR-Frequenzen hin, gar nicht im erforderlichen Umfang enthält.

ERGO: Beide Abbildungen 6 A und B beweisen, dass ein kalter Körper (=hohe Entropie) gar nicht die notwendige physikalische Ordnung besitzt, um einen wärmeren Körper (=geringe Entropie) noch weiter zu erwärmen. Die Entropie erklärt übrigens auch die allgemein bekannten Vorgänge in der unbelebten Natur, beispielsweise die geologische Erosion. Denn während die inneren Kräfte der Erde gerade neue Gebirge auftürmen, beginnt an der Oberfläche bereits deren Erosion. Und das Ergebnis dieser Erosion landet zunächst als Erosionsschutt an der tiefsten topographischen Stelle mit der geringsten potentiellen Energie, also in irgendeinem Tal. Um diesen Schutt dann weiter zu bewegen, sind erneut Kräfte erforderlich, diesmal die Kräfte des gravitativ abfließenden Wassers.
Und die Entropie würde selbstverständlich auch „zerstreuend“ auf einen äquatorialen Hotspot wirken. Und deshalb kann sich ein solcher Hotspot nur in einem Computerprogramm entwickeln, das nach dem 24hTag=Nacht-THE-Ansatz entwickelt worden ist. Nach 10, 100, 1000 oder noch mehr 24h-Tag=Nacht-Zyklen entsteht dann eine solche digitale Wissenschaftsschimäre aus einem physikalischen Ansatz, der nicht mit der alltäglichen Tag#Nacht-Beobachtung in der realen Welt übereinstimmt. Und deshalb konnte dieser theoretische Hotspot bisher auch noch nirgendwo nachgewiesen werden, wie die nachstehende Abbildung aus Henney & Monckton zeigt:

Abbildung 7: (a) prophezeites und (b) gemessenes vertikales Temperaturprofil der Atmosphäre – links: IPCC (2007, Abb. 9.1c), rechts: Lanzante et al. (2006) (Abbildung 15 aus Henney & Monckton)

Denn ein solcher äquatorialer Hotspot würde eine ständige solare Energiezufuhr erfordern, wie sie nur rein rechnerisch in einem 24h-Tag=Nacht-Modell vorhanden ist. Die Realität des täglichen 24h-Zykus wird dagegen regelmäßig durch die hemisphärische Nacht unterbrochen. Und in dieser hemisphärischen Nacht wirkt die Entropie zerstreuend auf die geringste herausgehobene Energiekonzentration, sodass sich ein solcher vorhergesagter Hotspot aus 24h-durchschnittlichen Computerberechnungen in der Realität niemals aufbauen kann. Joe Postma fasst eine solche Situation mit den Worten zusammen, „Kann man Laufen speichern, um schneller zu laufen?“.

Die menschengemachte Klimakatastrophe ist auf eine Physik-Wende zurückzuführen

Highspeed-Computerspekulationen sind die Astrologie unserer Tage. Aufgebaut auf undurchsichtigen und/oder unzureichenden Algorithmen verbreiten sie Zukunftsvisionen, ohne je den Beweis für die physikalische Richtigkeit ihrer Algorithmen an historischen Daten nachgewiesen haben zu müssen. Und solange die Freiheit der Wissenschaft darin besteht, voll alimentiert gesellschaftspolitisch erwünschte Ergebnisse liefern zu dürfen, wird sich daran auch nichts ändern; den Plot dazu finden Sie hier. Das politisch und medial allgegenwärtige „Hört auf DIE Wissenschaft!“ müsste nämlich eigentlich heißen, „Hört auf UNSERE Wissenschaft!“.

Das hemisphärische S-B-Modell definiert den THEORETISCHEN GRENZWERT der terrestrischen Temperaturgenese aus sich selbst heraus zu (+15°C) und stimmt ohne einen sogenannten THE mit der „gemessenen globalen Durchschnittstemperatur“ von (+15°C) überein. Diese (+15°C) sind übrigens nur abhängig von der Solarkonstanten und der terrestrischen Albedo. Das THE-Paradigma definiert dagegen den fehlerhaften ANFANGSWERT („Gleichgewichtstemperatur“ von -18°C) seiner atmosphärischen Resonanzfunktion (-18°C=>Gegenstrahlung=>THE=>+15°C), kann aber einen konkreten Endpunkt dieser Resonanz aus sich selbst heraus gar nicht bestimmen. Es rekurriert mit seiner „Gegenstrahlung“ vielmehr direkt auf die „gemessene globale Durchschnittstemperatur“, und das könnten dann auch (-5°C), (+20°C) oder (+45°C) sein. So würden beispielsweise die Schwankungen des Paläoklimas allein durch eine veränderte „Gegenstrahlung“ erklärt werden können, man muss dort einfach nur die erforderlichen Zahlenwerte einsetzen.

Also noch einmal in aller Kürze: Es gibt keinen „natürlichen atmosphärischen Treibhauseffekt“, weil die Sonne nur am Tage scheint. Denn Photonen wandeln sich nun mal nicht freiwillig von kurzwellig (solar=niedrige Entropie) zu langwellig (terrestrisch=hohe Entropie) um; dazu bedarf es vielmehr in einem Zwischenschritt der Erwärmung von Materie, und das ist nur auf der Tagseite der Erde möglich:

(Solare HF-Einstrahlung) => (Erwärmung von Materie @2PIR²) => (IR-Abstrahlung @4PIR²)

Solange aber der Klimamainstream den längst widerlegten Hockeystick, der ein konstantes Paläoklima in den IPCC-Bericht AR3 hinein gezaubert hatte, weiterhin als Vorhersagekrücke benutzt, liefert eine Physik-Wende die für einen anthropogenen Klimawandel zwingend erforderliche sogenannte „Klimasensitivität“ des CO2-Moleküls. Und schon hat man sich durch eine solche Physik-Wende in den Klimawissenschaften einen schönen neuen CO2-Motor für das Paläoklima gebastelt, der dann eine Energie-Wende erfordert – und eine Agrar-Wende – und eine Verkehrs-Wende – und eine Industrie-Wende – und schließlich auch noch den Großen Reset mit einer anthropogenen Existenz-Wende zurück in ein ökologisches, ökonomisches und intellektuelles Mittelalter. Diesem Wahnsinn steht nicht nur mein hemisphärisches S-B-Modell entgegen, sondern auch das Aktualitätsprinzip der Geologie – aber wer kennt das nach der Bildungs-Wende überhaupt noch…

Es folgen drei Beispiele für den Fußabdruck meines hemisphärischen S-B-Modells in den real existierenden Klimawissenschaften: Das hemisphärische S-B-Modell ermöglicht in Form von einfachsten Plausibilitäten einen qualitativen Blick auf die räumlichen und zeitlichen Abhängigkeiten des Klimageschehens auf unserer realen Erde und entzaubert damit die supercomputer-gestützten Weissagungen der modernen Klimaforschung.

1. Beispiel: Die Sommerpole unserer Erde sind gar keine Temperatur-Hotspots.
Klimamodelle sind nicht in der Lage, die von jedermann zu beobachtende Realität in Form des natürlichen Wechsels von Tag und Nacht abzubilden. Und wenn dort auch noch auf die Polarzonen fokussiert wird, dann kommt es zu ganz eigenartigen klimawissenschaftlichen Stilblüten, die sich wiederum jeder realen Beobachtung entziehen. Eine der Kernerzählungen der Klimareligion ist das Abschmelzen der Polkappen durch den „menschengemachten Klimawandel“, wodurch weite Teile der heute besiedelten Tiefländer der Welt unbewohnbar werden sollen. Manche Klimarealisten sehen in dem Spiegel-Titel „Die Klima-Katastrophe“ Nr. 33/1986 mit dem versinkenden Kölner Dom den Beginn der medialen Klimahysterie.

In der Mainstream-Klimawissenschaft ist es üblich, die physikalischen Einheiten „Leistung (WATT)“ und „Arbeit (JOULE = WATT x ZEIT)“ über die ZEIT, meist den 24h-Tag, nach Belieben aus der jeweils anderen Größe abzuleiten. Der sogenannte „natürliche atmosphärische Treibhauseffekt“ leitet sich nun wiederum aus einer globalen 24-Stunden Mittelung der solaren Einstrahlung her, bei der ein gemeinsamer Mittelwert der Sonneneinstrahlung für Tag und Nacht für die Weiterverwendung in Klimamodellen berechnet wird. Das bedeutet, die tagseitige Sonneneinstrahlung (Solarkonstante S0=1.367W/m²) wird rechnerisch so verteilt, als würde überall auf der Welt zu jeder Zeit eine halbe Sonne mit einer temperaturwirksamen spezifischen Strahlungsleistung von lediglich 235W/m² (=S0*(1-Albedo)/4) senkrecht einstrahlen. Und um diesen physikalisch fehlerhaften Ansatz etwas zu verbessern, führen manche Wissenschaftler nun eine breitenabhängige (zonale) Mittelung der globalen Sonneneinstrahlung ein. So wird, wie bereits gezeigt wurde, aus 24h-Zeitintegralen der solaren Strahlungsleistung ein physikalisch sinnfreier breitenabhängiger spezifischer Leistungsdurchschnitt abgeleitet, der am Ende zu rein rechnerischen Temperaturen jenseits jeglicher realer Beobachtungen führt, wie die nachstehende linke Abbildung mit dem jeweiligen Sommerpol als globaler Temperatur-Hotspot beweist:

Abbildung 8: Vergleich der „Daily mean values of (a) slab temperature” von Kramm et al. (2017) – Creative Commons License CC BY 4.0 (links) mit dem Jahresverlauf des örtlichen Maximums der breitenabhängigen temperaturwirksamen spezifischen Strahlungsleistung der Sonne (rechts)

Die tatsächliche Maximaltemperatur auf unserer Erde wird zwischen den Wendekreisen und bis in mittlere Breiten der Sommerhemisphäre erreicht. Die Sommerpole unserer Erde sind nämlich gar keine Temperatur-Hotspots, sondern dort ist lediglich die aus einer 24h-durchschnittlichen ARBEIT in JOULE abgeleitete 24h-Durchschnittsleistung ((Leistung @ 24h)/24h) aufgrund der polaren Tageslängen um die jeweilige Sommersonnenwende global gesehen am größten („Max. Arbeit“ in der nachfolgenden Abbildung 9 rechts). Und aus solchen 24h-Durchschnittswerten sollte man tunlichst keine Ortstemperaturen ableiten, sonst kommt es halt zu wissenschaftlichen Verwerfungen…

2. Beispiel: Die „menschengemachten“ IPCC-Temperaturdifferenzen bilden lediglich das chaotische globale Wettergeschehen ab.

Der sogenannte „natürliche atmosphärische Treibhauseffekt“ soll durch eine „atmosphärische Gegenstrahlung“ verursacht werden, die wiederum aus der IR-Abstrahlung unserer Erde gespeist wird. Die beiden ursächlichen Steuergrößen für eine solche „atmosphärische Gegenstrahlung“, nämlich die aus den solaren Primärantrieben „tägliches solares Strahlungsmaximum“ und „örtliche Tageslängen“ induzierte Gesamtwärmemenge, lassen sich sekundär unter „jahreszeitlich maximale örtliche IR-Abstrahlung der Erde“ subsummieren. Der nachfolgende graphische Vergleich zeigt, dass die erforderliche Übereinstimmung zwischen den „menschengemachten“ IPCC-Temperaturdifferenzen und der maximalen örtlichen IR-Abstrahlung unserer Erde in der Farbgebung der IPCC-„Figure 1.SM.1“ jahreszeitlich nicht prägnant hervortritt:

Abbildung 9: Vergleich der IPCC-„Figure 1.SM.1“ (links) mit den tentativen jahreszeitlichen Auswirkungen von maximaler spezifischer solarer Strahlungsleistung und/oder maximaler örtlicher Tageslänge auf den sogenannten THE (rechts)

Anmerkung: Die jeweils zweistufige Farbskala für die Sommerhemisphäre in der Abb. links (Beispiel MAM und JJA für den Nordsommer) wurde im rechten Bild willkürlich in zwei einstufige Skalen für LEISTUNG (~JJA) und ARBEIT (~MAM) auf der jeweiligen Sommerhemisphäre aufgespalten und (nicht flächentreu) der tatsächlichen geographischen Lage zugeordnet. Deshalb können Farbsignaturen für Leistung/Arbeit (~JJA/MAM) in der jeweiligen geographischen Lage auch in umgekehrter Signatur (~MAM/JJA) auftreten; beispielsweise blau für LEISTUNG zwischen Äquator und mittleren Breiten.

Eigentlich müsste sich in der IPCC-Abbildung „Jahreszeit der größten menschen-induzierten Erwärmung für den Zeitraum 2006-2015“ der zusätzliche THE-Anteil aus dem „menschengemachten“ CO2 aufgrund seiner vorgeblichen IR-Abhängigkeit als Temperaturanomalie proportional zur jahreszeitlich maximalen örtlichen IR-Abstrahlung unserer Erde abbilden. Das ist aber ganz offensichtlich nicht der Fall, denn insgesamt finden wir in „Figure 1.SM.1“ lediglich eine globale und unspezifische jahreszeitliche Durchmischung und sogar jahreszeitlich stark gegenläufige Anomalien. Der vorstehende Vergleich von „Figure 1.SM.1“ (links) mit den tentativen Auswirkungen der jahreszeitlich maximalen örtlichen IR-Abstrahlung aus meinem hemisphärischen S-B-Modell (rechts) verdeutlicht vielmehr, dass sich die erratisch verteilten Temperaturanomalien nicht mit den jahreszeitlichen Schwankungen erklären lassen, sondern viel eher mit deren zeitlicher Veränderung (also der 1. Ableitung), wobei das Maximum dieser Veränderung um die Äquinoktien liegt und jeweils beide jahreszeitlichen Hemisphären betrifft. Die „menschengemachten“ IPCC-Temperaturdifferenzen bilden also lediglich das chaotische globale Wettergeschehen ab.

3. Beispiel: Der experimentelle Nachweis für den hemisphärischen S-B-Ansatz ist anhand von Satellitenmessungen gelungen.

Das IPCC-Modell KT97 gilt als Grundlage für alle computergestützten Klimamodelle. Herr Albert (Aulus) Agerius hatte auf Grundlage meines hemisphärischen Strahlungsmodells ein alternatives Klimamodell erstellt. In seinem BuchKritische Analyse zur globalen Klimatheorie: Widerlegung der Basisstudie KT97 des IPCC mit den Messwerten des ERBS Satelliten an einem neuen Modell“ deckt er erhebliche Widersprüche in der IPCC-Basisstudie KT97 auf:

Tabelle 1: Satellitenmesswerte des ERBS Satelliten in einem Modellvergleich (Quelle: A. Agerius)

Dem IPCC-Modell KT97 gelingt es also lediglich, 5 von 11 Messreihen abzubilden. Diesem IPCC-Modell KT97 stellt Agerius nun sein „Modell 5“ entgegen, das alle 11 Messreihen ohne einen atmosphärischen Treibhauseffekt abbildet und damit meinen hemisphärischen S-B-Ansatz voll betätigt.

Zum besseren Verständnis können Sie einmal die Perspektive eines Satelliten einnehmen: Die planare solare Einstrahlung erfolgt auf einer Kreisfläche (PIR²) und die jeweiligen Messwerte beziehen sich auf Schnittpunkte solcher Einstrahlungsflächen mit der entsprechenden Satellitenbahn (@4PIR²). Die Satellitenmesswerte für die Solarkonstante können die Erdkrümmung also gar nicht abbilden.

Nachtrag: Ich bitte höflich darum, im Interesse der objektiv interessierten Leser auf kreative Designerzitate und daraus abgeleitete sophistische Skandalisierungen zu verzichten. Das Stilmittel der sophistischen Skandalisierung einer ausschließenden gegenteiligen Eigenschaft (Disjunktion) fällt sofort auf, wenn es sich um Alltagswissen handelt. Ein Beispiel für den offensichtlichen Widersinn eines solchen skandalisierenden Sophismus‘ wäre die Aussage: „Der Dieselmotor widerspricht dem Prinzip der Elektromobilität“. Bei wissenschaftlichen Zusammenhängen, die zur Beurteilung einer Aussage zumindest die inhaltliche Abgrenzung zwischen Fachbegriffen erfordern, ist eine solche sophistische Skandalisierung für den interessierten Leser dagegen sehr viel schwerer zu erkennen, wie die nachfolgende Aussage beweist: „Ausgehend von dem Begriff des ‚solaren Klimas‘ wird nachgewiesen, dass die von Herrn WEBER (2019) in seinem Beitrag aufgestellten Behauptungen zur Ermittlung der global gemittelten Oberflächentemperatur einer Erde ohne Atmosphäre mit den theoretischen Grundlagen unvereinbar sind.“ Solche sophistischen Gegenargumente lassen sich nämlich für mein hemisphärisches S-B-Modell mittels einer oder mehrerer ausschließender gegenteiliger Eigenschaften jederzeit zurechtbiegen:

Sie können jetzt also sehr einfach mein hemisphärisches S-B-Modell skandalisieren, indem Sie ihm die Nichterfüllung seiner rechts aufgeführten ausschließenden Gegensätze vorhalten, also: Das hemisphärische S-B-Modell von Weber ist Mist, weil es

  • dem Prinzip der globalen Mittelung widerspricht,
  • dem Prinzip einer „Erde ohne Atmosphäre“ widerspricht,
  • dem anerkannten Lehrbuchwissen nach (Professor Dr. Beliebig) widerspricht.

Vielleicht erkennen Sie in diesen Aussagen ja den einen oder anderen Kommentar zu meinem hemisphärischen S-B-Modell wieder; sachlich korrekt oder gar verständnisfördernd sind solche Sophismen jedenfalls nicht. Für seriöse Verständnisfragen verweise ich gerne nochmals auf den Vergleich meines hemisphärischen Modells mit den wesentlichen Thesen zum sogenannten „natürlichen“ atmosphärischen Treibhauseffekt (Darstellung, Diskussion, Ergebnis) oder dessen direkten Abgleich mit dem sogenannten THE (hier Tabelle 1).

Einer physikalischen (nicht mathematischen) Beweisführung über eine Übereinstimmung der ominösen Faktor4-Tag=Nacht-Flacherde mit der tatsächlich beobachteten Tag#Nacht-Realität sehe ich mit Interesse entgegen.

 




Widerlegung der Wissenschafts-Aussage der Geological Society of London zum Klimawandel

Interessanterweise enthält das Papier diesen Haftungsausschluss:

Datenverfügbarkeit
Datenfreigabe ist für diesen Artikel nicht anwendbar, da während der aktuellen Studie keine Datensätze generiert oder analysiert wurden.

Wissenschaftliche Stellungnahme der Geological Society of London

Die Autoren stellen viele Behauptungen auf, bieten aber wenig unterstützendes Material an. Es wimmelt von Übertreibungen und zumindest ein paar internen Widersprüchen. Das Konzept der Langzeitbetrachtung und der Verlust der [zeitlichen] Auflösung in der geologischen Aufzeichnung im Vergleich zu modernen instrumentellen Beobachtungen scheint völlig zu fehlen.

Atmosphärisches CO2

Beobachtungen aus der geologischen Aufzeichnung zeigen, dass die atmosphärischen CO2-Konzentrationen jetzt auf dem höchsten Stand seit mindestens 3 Millionen Jahren sind.
Wissenschaftliche Erklärung der Geological Society of London

Dies ist sehr wahrscheinlich wahr. Die atmosphärischen CO2-Konzentrationen könnten sogar jetzt auf dem höchsten Stand der letzten 12 Millionen Jahre sein.

Abbildung 1. Neogen-Quartär Temperatur und Kohlendioxid (älter ist nach links). (WUWT)

Die geologische Aufzeichnung von atmosphärischem CO2 ist höchst unsicher, und wird immer unsicherer, je weiter wir in der Zeit zurückgehen. Diese Passage aus Evolution of the Earth (1976) ist heute genauso wahr wie damals, als wir Geologiestudenten im Pleistozän waren…

Leider können wir die Veränderungen des CO2-Gehalts in der Vergangenheit weder in der Atmosphäre noch in den Ozeanen genau abschätzen, und es gibt auch keine solide quantitative Grundlage für die Abschätzung des Ausmaßes des Rückgangs des Kohlendioxidgehalts, der notwendig ist, um eine Vergletscherung auszulösen. Außerdem ist das gesamte Konzept des atmosphärischen Treibhauseffekts umstritten, denn die Geschwindigkeit des Ausgleichs zwischen Ozean und Atmosphäre ist unsicher.

Dott & Batten, 1976

Obwohl sich die Verfahren zur Schätzung vergangener atmosphärischer CO2-Konzentrationen seit den 1970er Jahren verbessert haben, können wir nicht einmal sicher sein, dass die atmosphärische CO2-Konzentration während des viel wärmeren Klimatischen Optimums im Mittel-Miozän im Vergleich zu den extrem niedrigen Werten des Quartärs signifikant erhöht war.

Darüber hinaus ist die derzeitige Geschwindigkeit der vom Menschen verursachten CO2-Veränderung und Erwärmung fast ohne Beispiel in der gesamten geologischen Aufzeichnung, mit der einzigen bekannten Ausnahme des augenblicklichen, durch Meteoriten verursachten Ereignisses, das das Aussterben der nicht vogelartigen Dinosaurier vor 66 Millionen Jahren verursachte.

Wissenschaftliche Stellungnahme der Geological Society of London

Jeffrey Severinghaus und Kollegen wären über diese Aussage sehr überrascht. Sie zeigten, dass zu Beginn des Holozäns, vor etwa 11.700 Jahren, die Temperaturen der nördlichen Hemisphäre innerhalb weniger Jahrzehnte um „5 – 10ºC“ anstiegen (Severinghaus, Sowers, Brook, Alley, & Bender, 1998).

In Bezug auf CO2 ist dies möglich. Es gibt keine geologischen Aufzeichnungen von CO2-Änderungen, die eine ausreichende Auflösung haben, um diese Behauptung mit einem gewissen Grad an Sicherheit aufzustellen. Die einzige Ausnahme wären die Law-Dome-Eisbohrkerne in der Antarktis, die nur etwa 2.000 Jahre zurückreichen. Die mangelnde Auflösung der CO2– und Temperaturschätzungen der vorindustriellen Ära schränkt Vergleiche der geologischen Geschichte mit der Neuzeit stark ein.

Dieser zusammengesetzte Eisbohrkern-CO2-Datensatz (0-800 kyr BP) von Bereiter et al. (2014) scheint einen sehr überzeugenden Hockeystick zu zeigen:

Abbildung 2: Komposit der CO2-Aufzeichnung (0 bis 800.000 Jahre vor heute) von Bereiter et al. (2014).

Das Komposit wurde aus folgenden Eisbohrkernen erstellt:

Diese Eisbohrkerne haben sehr unterschiedliche Auflösungen.  Petit et al., 1999 geben an, dass die CO2-Auflösung für Vostok 1.500 Jahre beträgt. Lüthi et al., 2008 schlagen eine CO2-Auflösung von etwa 500 Jahren für Dome C vor. Es scheint, dass der hochauflösende Law Dome DE08-Kern einfach an die älteren Eiskerne mit niedrigerer Frequenz angeklebt wurde.

Wendet man auf den DE08-Eiskern Glättungsfilter an, um die Auflösung der niedriger aufgelösten Eiskerne anzugleichen, erhält man ein deutlich anderes Bild:

Abbildung 3. Ein 500-Jahre-Glättungsfilter entfernt die Klinge des Hockeysticks vollständig.

Die Eiskerne mit niedrigerer Frequenz sind nicht in der Lage, CO2-Verschiebungen im Jahrhundertmaßstab aufzulösen. Als solche können sie nicht verwendet werden, um die Möglichkeit von kurzzeitigen Schwankungen auszuschließen, die mit dem Anstieg des atmosphärischen CO2 im Industriezeitalter während des frühen Holozäns und Pleistozäns vergleichbar sind. Und sie widersprechen damit nicht den Schlussfolgerungen von Wagner et al., 1999:

Im Gegensatz zu konventionellen Eisbohrkern-Schätzungen von 270 bis 280 ppmv [parts per million by volume] legt das Signal der Stomatafrequenz nahe, dass die Kohlendioxid-Konzentration im frühen Holozän deutlich über 300 ppmv lag.

(…)
Die meisten der holozänen Eiskernaufzeichnungen aus der Antarktis haben keine ausreichende zeitliche Auflösung.

(…)

Unsere Ergebnisse falsifizieren das Konzept von relativ stabilen holozänen CO2-Konzentrationen von 270 bis 280 ppmv bis zur industriellen Revolution. SI [stomatal index]-basierte CO2-Rekonstruktionen könnten sogar darauf hindeuten, dass während des frühen Holozäns atmosphärische CO2-Konzentrationen, die 300 ppmv betrugen, eher die Regel als die Ausnahme gewesen sein könnten.

Wagner et al. (1999)

Oder Wagner et al., 2004:

Die Mehrheit der auf der Stomatafrequenz basierenden CO2-Schätzungen für das Holozän unterstützen nicht das weithin akzeptierte Konzept vergleichbar stabiler CO2-Konzentrationen während der letzten 11.500 Jahre. Um der Kritik zu begegnen, dass diese Stomata-Häufigkeitsschwankungen aus lokalen Umweltveränderungen oder methodischen Unzulänglichkeiten resultieren, wurden mehrere Stomata-Häufigkeitsaufzeichnungen für drei klimatische Schlüsselperioden während des Holozäns verglichen, nämlich die präboreale Oszillation, das 8.200 Jahre währende Abkühlungsereignis und die Kleine Eiszeit. Die hochgradig vergleichbaren Schwankungen in den paläoatmosphärischen CO2-Aufzeichnungen, die von verschiedenen Kontinenten und Pflanzenarten (sommergrüne Angiospermen sowie Nadelbäume) unter Verwendung unterschiedlicher Kalibrierungsansätze gewonnen wurden, liefern einen starken Beweis für die Integrität der blattbasierten CO2-Quantifizierung.

Wagner et al., 2004

Die GSL-Autoren präsentierten auch einen starken Widerspruch:

Kurz gesagt: Während die atmosphärischen CO2-Konzentrationen in der geologischen Vergangenheit aufgrund natürlicher Prozesse stark schwankten und oft höher waren als heute, ist die derzeitige Rate der CO2– (und damit Temperatur-) Veränderungen beispiellos in fast der gesamten geologischen Vergangenheit.

Wissenschaftliche Stellungnahme der Geological Society of London

Sie behaupten, dass „die aktuelle Rate der CO2– (und damit Temperatur-)Änderung beispiellos ist in fast der gesamten geologischen Vergangenheit“, um dann wenig später zu sagen:

Angesichts der Aufzeichnung vergangener Klimaveränderungen (Abschnitt 1) ist das Ausmaß der jüngsten beobachteten Klimaveränderungen nicht ungewöhnlich.

Wissenschaftliche Stellungnahme der Geological Society of London

Der moderne Klimawandel ist angeblich sowohl beispiellos als auch „nicht ungewöhnlich“. Sie scheinen CO2 und Temperatur zu verwechseln. Obwohl sie miteinander verwandt sind, sind sie nicht austauschbar.

CO2 und Meeresspiegel

Sie stellen auch die Behauptung auf, dass die geologische Aufzeichnung eine Beziehung zwischen CO2 und Meeresspiegel zeigt.

Die geologischen Aufzeichnungen stimmen mit den Vorhersagen überein, dass das langfristige Ausmaß und die Geschwindigkeit des zukünftigen Meeresspiegelanstiegs sehr empfindlich auf zukünftige CO2-Emissionsszenarien reagieren und Intervalle mit sehr schnellem Anstieg enthalten können.

Wissenschaftliche Stellungnahme der Geological Society of London

Es gibt jedoch keine Beziehung zwischen CO2 und Meeresspiegel in den geologischen Aufzeichnungen:

Abbildung 4. Von links nach rechts: Verallgemeinerter Querschnitt entlang der nördlichen GOM-Region (Galloway et al., 2009), Ablagerungsphasen sind nummeriert. Relativer Meeresspiegel (Miller et al., 2005), atmosphärisches CO2 (Berner & Kothavala, 2001) und Temperaturanomalien (Royer et al., 2004). Bild.

William Galloway von der Jackson School of Geosciences an der University of Texas hat die Ablagerungsgeschichte der Golfküste/des Golfs von Mexiko in dieser Arbeit zusammengefasst…

Die Ablagerungsgeschichte kann in sieben Phasen verallgemeinert werden: (1) Mittel- bis spätjurassische Evaporit- und Karbonatablagerung in einem breiten, flachen, auf ein offenes Meer beschränkten Becken. (2) Spätjurassisch-frühkreidezeitliche sandreiche klastische Progradation von den nördlichen Rändern. (3) Spät-frühkreidezeitliche Entwicklung eines umrandeten Karbonat-Schelfs. (4) Spätkreidezeitliche gemischte klastische und karbonatische Aggradation der Kontinentalränder. (5) Wiederauflebende paläogene klastische Progradation und Auffüllung mit Schwerpunkt im NW-Becken. (6) Miozäne Progradation und Beckenfüllung mit Schwerpunkt im zentralen und nordöstlichen Golf. (7) Spätneogene klimatisch und eustatisch beeinflusste Progradation entlang des zentralen Golfrandes. Im Gegensatz zu dem breiten, progradierenden Sedimentkeil des nördlichen Golfs ist der Florida-Rand eine primär aggradierende Karbonatplattform.

Galloway, 2008.

[Linguee-Übersetzer. Anm. d. Übers.]

Abbildung 4 zeigt deutlich die Bedeutung von Klima, atmosphärischem CO2 und Meeresspiegelzyklen in der Ablagerungsgeschichte der US-Golfküste/des Golfs von Mexiko; aber keine Korrelation von CO2 und Meeresspiegel. Beachten Sie, dass die meisten der Ausgangsgesteinsformationen abgelagert wurden, als das atmosphärische CO2 über 1.000 ppm lag und die Erde wesentlich wärmer war als heute, was auf mehr pflanzliches Leben in den wärmeren, CO2-reichen Zeiten schließen lässt.

Die Temperatur- und CO2-Diagramme haben eine Auflösung von 10 Millionen Jahren; sie sind stark geglättet. Diese spezielle Temperatur-Rekonstruktion (Royer et al., 2004) beinhaltet eine pH-Anpassung, abgeleitet von CO2. Sie demonstriert eine relativ gute Korrelation zwischen CO2 und Temperatur auf einer geologischen Zeitskala. Ein Cross-Plot ergibt jedoch nur eine Gleichgewichts-Klimasensitivität (ECS) von etwa 1,28 °C.

Die moderne Erwärmungsperiode begann am Tiefpunkt der Kleinen Eiszeit (ca. 1600 n. Chr.), der kältesten Periode des Holozäns. Dies war 300 Jahre bevor das atmosphärische CO2 den vermuteten normalen vorindustriellen Bereich deutlich überschritt.

Abbildung 5. Temperaturrekonstruktion (Moberg et al., 2005) und Law Dome CO2 (MacFarling Meure et al., 2006)

Der moderne Anstieg des Meeresspiegels begann am Ende der Neoglazialzeit. Die Meeresspiegel-Rekonstruktion von Jevrejeva et al., 2014 (J14) zeigt, dass der Meeresspiegel in den frühen 1800er Jahren sank:

Abbildung 6: Rekonstruktion des Meeresspiegels aus Tiden-Aufzeichnungen (Jevrejeva et al. 2014). Der Geologenhammer soll die Größenordnung verdeutlichen.

Abbildung 7: Meeresspiegel im Vergleich zur CO2-Aufzeichnung und Temperatur

Klima-Sensitivität (ECS)

Der IPCC (2014) gab eine 66%ige Wahrscheinlichkeit an, dass der ECS-Wert zwischen 1,5 und 4,5°C liegt. …

Um ECS aus der geologischen Aufzeichnung abzuschätzen, werden quantitative gepaarte Aufzeichnungen von atmosphärischem CO2 und globaler Temperatur aus Proxies benötigt …

Viele Studien der geologischen Vergangenheit haben den kanonischen Bereich für ECS von 1,5-4,5°C unterstützt

Wissenschaftliche Stellungnahme der Geological Society of London

Die erste, im Charney-Report 1979 veröffentlichte moderne Schätzung des ECS lag bei 1,5 bis 4,5 Grad Celsius pro Verdoppelung des CO2. Mit anderen Worten, der „kanonische Bereich“ hat sich seit über 40 Jahren nicht verändert. Moderne empirische Schätzungen von ECS, basierend auf instrumentellen Daten, liegen zwischen 0,44 Grad C (Lindzen und Choi, 2011) und 1,6 (Lewis und Curry, 2018). Diese Schätzungen beruhen auf hochauflösenden CO2– und Temperaturdaten, was bei geologischen Schätzungen nicht der Fall ist.

Auch wenn die geologischen Schätzungen des ECS höher sein könnten – die GSL sagt, dass die geologischen Schätzungen im Bereich von 2,6 bis 3,9 Grad liegen – können wir uns mit der Genauigkeit oder Präzision dieser Schätzungen nicht anfreunden. Die Daten, insbesondere die CO2-Daten, sind zu schlecht.

Außerdem präsentieren die Autoren eine Karikatur, die scheinbar eine starke Korrelation von CO2 und Temperatur über das Känozoikum darstellt:

Abbildung 8. GLS känozoische Klimasensitivität (modifiziert nach Lear, et al., 2012). Bild.

Die GSL-Karikatur zeigt eine Klimasensitivität von fast 7°C pro CO2-Verdoppelung. Dies würde zu einer Erwärmung von etwa 3,5 °C seit Mitte der 1800er Jahre führen, die eindeutig nicht stattgefunden hat. Moderne hochauflösende instrumentelle Messungen ergeben eine viel geringere Klimasensitivität.

Parallelen i n den geologischen Aufzeichnungen

Die Autoren versuchen, aus den geologischen Aufzeichnungen Parallelen zum gegenwärtigen Klimawandel zu finden:

Im mittleren Pliozän (vor 3,3-3,1 Millionen Jahren) lagen die atmosphärischen CO2-Konzentrationen zwischen 389 (-8 bis +38) ppm und 331 (-11 bis +13) ppm (de la Vega et al. 2020), was höher ist als die vorindustriellen Werte von ca. 280 ppm und etwas niedriger als die heutigen Werte (ca. 407,4 ± 0,1 ppm im Jahr 2018). Die kontinentalen Konfigurationen der Erde, die Landerhebungen und die Bathymetrie der Ozeane waren alle ähnlich wie heute (Haywood et al. 2016). Das Pliozän war durch mehrere Intervalle gekennzeichnet, in denen das orbitale Forcing dem der Neuzeit ähnlich war und bietet uns daher ein nahes Analogon zum Klima unter modernen CO2-Konzentrationen (McClymont et al. 2020). Während dieses Intervalls waren die globalen Temperaturen ähnlich wie die für das Jahr 2100 vorhergesagten (+2,6 bis 4,8 °C im Vergleich zur vorindustriellen Zeit) unter einem Business-as-usual-Szenario (d. h. ohne den Versuch, die Emissionen zu verringern). Mehrere Arbeitslinien deuten auf Ähnlichkeiten zwischen der modellierten Ozeanzirkulation der Zukunft und derjenigen der Warmzeit des mittleren Pliozäns hin, mit einer schwächeren thermohalinen Zirkulation, die mit der Erwärmung und Schichtung des oberen Ozeans zusammenhängt, aber auch mit einem Rückgang der Eisschilde und des Meereises, einer polwärts gerichteten Verschiebung der terrestrischen Biome und einer schwächeren atmosphärischen Zirkulation (Haywood and Valdes 2004; Cheng et al. 2013; Corvec and Fletcher 2017; Fischer et al. 2018). Der pliozäne Meeresspiegel könnte bis zu 20 m über dem heutigen Wert gelegen haben und im Durchschnitt um 13 ± 5 m über die pliozänen Glazial-Interglazial-Zyklen variiert haben, in Verbindung mit Schwankungen in der Ausdehnung des antarktischen Eisschildes (Grant et al. 2019).

Geological Society of London Wissenschaftliche Stellungnahme

Während „die kontinentalen Konfigurationen der Erde, die Landerhebungen und die Bathymetrie der Ozeane“ während des Pliozäns der heutigen Zeit ähnlicher waren als in früheren Zeitabschnitten, war es im mittleren Pliozän aufgrund tektonischer Unterschiede deutlich wärmer als heute. Der Panama-Seeweg war noch offen und ermöglichte einen viel effizienteren Wärmetransport durch den Ozean. Signifikante Hebungsepisoden in den Rocky Mountains und im Himalaya während des Pleistozäns waren auch treibende Faktoren für die Abkühlung der Erde in den letzten 2 Millionen Jahren.

Die geologischen Aufzeichnungen informieren uns darüber, dass die großen klimatischen Verschiebungen des Känozoikums mit tektonischen Veränderungen korreliert waren.

Abbildung 9. Känozoisches Klima, Tektonik und Kohlenstoff-Isotopen-Exkursionen. (Zachos et al., 2001)

Die Temperaturen in Abbildung 9 wurden aus δ18O in benthischen Foraminiferen unter Verwendung eines Modells ohne Meereis abgeleitet. Salzgehalt und Eisvolumen haben einen Einfluss auf die Umrechnung. Diese Temperaturen sind nur auf das untere Tertiär, das Warmhausklima, anwendbar.

Diese Behauptung über das Pliozän als Präzedenzfall für den modernen Klimawandel ist offenkundig lächerlich:

Während dieses Intervalls waren die globalen Temperaturen ähnlich wie die für das Jahr 2100 vorhergesagten (+2,6 bis 4,8 °C im Vergleich zum vorindustriellen Zeitalter) unter einem Business-as-usual-Szenario (d. h. ohne den Versuch, die Emissionen zu verringern).

Wissenschaftliche Stellungnahme der Geologischen Gesellschaft von London

Sie betrachten RCP8.5 eindeutig als „business as usual“.

Abbildung 10: Szenarien der Klimamodelle Bild

[Bildinschrift: Klimamodelle beruhen auf Szenarien:

RCP-Szenarien werden herangezogen, um zu evaluieren, wie sich das zukünftige Klima unter verschiedenen unterschiedlichen Szenarien von Treibhausgas-Emissionen ändern könnte:

Das RCP2.5 entspricht im Wesentlichen dem „Green New Deal“-Szenario, welchem zufolge die Emissionen darauf begrenzt sind, einen zusätzlichen Strahlungsangtrieb von mehr als 2,5W/m² zu verhindern.

Das RCP4.5 ist ein Szenario starker Abschwächung, etwa durch relativ hohe Kohlenstoff-Steuern. Gemessene Temperaturen folgen derzeit dieser Trajektorie.

Das RCP6.0 ist ein Szenario geringer Abschwächung. Die Emissionen folgen allgemein dieser Trajekgtorie.

Das RCP8.5-Szenario ist ein dystopisches Szenario mit rapidem wirtschaftlichen Wachstum und nur geringen technologischen Fortschritten. Dies wird oftmals als „business as usual“ angesehen und ist die Quelle der meisten Katastrophen-Prophezeiungen.]

Betrachtet man jedoch die gesamte Bandbreite der Modell-Simulationen, wird klar, dass das Klima mehr dem RCP4.5 als dem RCP8.5 folgt.

Abbildung 11. Modelle vs. Beobachtungen. (modifiziert nach Climate Lab Book)

Selbst bei einer zusätzlichen Erwärmung von 0,5 bis 1,0 °C bis zum Ende dieses Jahrhunderts wird sich das Klima immer noch im Bereich der pleistozänen Zwischeneiszeitstadien befinden, also deutlich unter dem mittleren Pliozän.

Abbildung 12. SST in hohen Breiten (°C) aus benthischen Foramen δ18O (Zachos, et al., 2001) und HadSST3 (Hadley Centre / UEA CRU über www.woodfortrees.org) im gleichen Maßstab, gebunden an 1950 n. Chr.

Es kommt alles auf den Kontext und die Auflösung an

Beachten Sie, dass die Auflösung der δ18O-Temperaturrekonstruktion viel geringer ist als die der instrumentellen Aufzeichnung und das HadSST-Signal nicht auflösen würde. Noch einmal: Die geologische Aufzeichnung liefert ein allgemeines Bild des vergangenen Klimawandels, kann aber nicht direkt mit hochauflösenden instrumentellen Aufzeichnungen verglichen werden, ohne sie explizit in den Kontext zu setzen. Die moderne Erwärmung erscheint nur aufgrund der höheren Auflösung der instrumentellen Aufzeichnungen und ihrer Position am Ende der Zeitreihe anomal.

Ljungqvist (2010) hat das Problem durch den direkten Vergleich von instrumentellen Daten mit Proxy-Rekonstruktionen deutlich erklärt.

Die Amplitude der rekonstruierten Temperaturvariabilität auf hundertjährigen Zeitskalen überschreitet 0,6°C. Diese Rekonstruktion ist die erste, die eine ausgeprägte Römische Warmzeit von ca. 1-300 n. Chr. zeigt, die bis zum mittleren Temperaturniveau von 1961-1990 reicht, gefolgt von der Dunkelzeit-Kaltzeit von ca. 300-800 n. Chr. Die mittelalterliche Warmzeit wird ca. 800-1300 n. Chr. gesehen und die kleine Eiszeit ist ca. 1300-1900 n. Chr. deutlich sichtbar, gefolgt von einem raschen Temperaturanstieg im 20 Jahrhundert. Die höchsten Durchschnittstemperaturen in der Rekonstruktion werden in der Mitte bis zum Ende des zehnten Jahrhunderts angetroffen und die niedrigsten im späten siebzehnten Jahrhundert. Die dekadischen Mitteltemperaturen scheinen während wesentlicher Teile der Römischen Warmzeit und der Mittelalterlichen Warmzeit das Niveau der Mitteltemperatur von 1961-1990 erreicht oder überschritten zu haben. Die Temperatur der letzten zwei Jahrzehnte ist jedoch möglicherweise höher als während jeder früheren Zeit in den letzten zwei Jahrtausenden, obwohl dies nur in den instrumentellen Temperaturdaten und nicht in der Multi-Proxy-Rekonstruktion selbst zu sehen ist.

(…)

Die Proxy-Rekonstruktion selbst zeigt keine solch beispiellose Erwärmung, aber wir müssen bedenken, dass nur wenige der in der Rekonstruktion verwendeten Aufzeichnungen bis in die 1990er Jahre reichen. Nichtsdestotrotz wird eine sehr vorsichtige Interpretation des Niveaus der Erwärmung seit 1990 n. Chr. im Vergleich zu den Spitzenwerten der Erwärmung während der römischen Warmzeit und der mittelalterlichen Warmzeit dringend empfohlen.

(… )

Die Amplitude der hier rekonstruierten Temperaturvariabilität auf dekadischen bis hundertjährigen Zeitskalen sollte vermutlich als das Minimum der wahren Variabilität auf diesen Zeitskalen betrachtet werden.

Ljungqvist, 2010

Direkte Vergleiche der modernen instrumentellen Aufzeichnung mit den älteren Proxy-Rekonstruktionen sind nicht robust, weil die Proxy-Daten eine viel geringere Auflösung haben. Die Proxydaten zeigen das „Minimum der wahren Variabilität auf diesen Zeitskalen.“ Die Instrumenten-Daten bilden etwas ab, das näher an der tatsächlichen Variabilität liegt.

Den Proxydaten fehlt die Hochfrequenz-Komponente des Signals. Wenn die Hochfrequenz-Komponente eines Signals herausgefiltert wird, schwächt dies die Amplitude ab. Das ist grundlegende Signaltheorie:

Abbildung 13. Sinuswelle mit 100-pt-Glättungs-Mittelwert angewendet. Beachten Sie die Reduktion der Amplitude aufgrund von Filterung und Glättung. (Wood for Trees) Der Ältere ist nach links gerichtet.

Der direkte Vergleich von Instrumentaldaten mit Proxydaten wird noch problematischer, wenn die Aufzeichnungslänge über 2.000 Jahre hinaus verlängert wird:

Abbildung 14. Holozäne Klima-Rekonstruktion, Andy May. Älter ist links.

Die vermeintlich „vier wärmsten Jahre seit Beginn der Aufzeichnungen“ sind nur etwa 300 Jahre nach dem kältesten Jahrhundert der letzten 100 Jahrhunderte aufgetreten.  Dies könnte nur von jemandem als „Klimakrise“ oder „Klimanotstand“ bezeichnet werden, der sich mit den wissenschaftlichen Grundlagen der Quartärgeologie und der Signalverarbeitung nicht auskennt.

Je länger die Datensatzlänge der Rekonstruktion, desto wichtiger wird die Konsistenz der zeitlichen Auflösung.

„Konsistenz der zeitlichen Auflösung“ bedeutet, dass die Auflösung der älteren Proxies mit den jüngeren Proxies konsistent ist. Die zeitliche Auflösung ist eine Funktion des Stichprobenintervalls…

Wir glauben, dass die größere Fehlerquelle in diesen Rekonstruktionen in der Auswahl der Proxies liegt. Wie in dieser Serie dokumentiert, sind einige der ursprünglichen 73 Proxies von Auflösungsproblemen betroffen, die bedeutende klimatische Ereignisse verbergen, und einige sind von lokalen Bedingungen betroffen, die keine regionale oder globale Bedeutung haben. Andere decken kurze Zeitspannen ab, die die beiden wichtigsten klimatischen Merkmale des Holozäns, die Kleine Eiszeit und das Holozäne Klimaoptimum, nicht abdecken.

(…)
Wir haben auch Proxies mit langen Stichprobenintervallen (größer als 130 Jahre) vermieden, weil sie dazu neigen, die Auflösung der Rekonstruktion zu verringern und wichtige Details abzuschwächen („auszugleichen“). Der kleinste Klimazyklus beträgt etwa 61 bis 64 Jahre, die sogenannte „Stadionwelle“, und wir wollen versuchen, ihrem Einfluss nahe zu kommen. In dieser einfachen Rekonstruktion haben wir versucht, diese Probleme zu berücksichtigen.

Andy May WUWT.

Für zusätzliche Lektüre zur Auflösung, siehe: Auflösung und Hockeyschläger, Teil 1.

Diskussion

Während geologische Daten bei der Untersuchung des Klimas sehr hilfreich sind, wie die GSL sagt, wird die Interpretation der Bedeutung des modernen Klimawandels wahrscheinlich nicht von geologischem Input profitieren. Die Erwärmung über das 20. Jahrhundert beträgt nur etwa ein Grad und die Erwärmung seit 1950, die vom IPCC als Richtwert verwendet wird, beträgt nur etwa 0,7 Grad. Die geologischen Zeiträume sind größer als 1.000 Jahre, wie das GSL-Papier feststellt, und die daraus folgenden Erwärmungs- und Abkühlungsereignisse in der geologischen Aufzeichnung sind größer als fünf Grad. Die geologischen Daten, die wir haben, sind sehr niedrig aufgelöst und werden sich wahrscheinlich nicht verbessern. Das Hauptproblem ist, dass die jüngste Erwärmung auf einer geologischen Skala unbedeutend ist.

[Hervorhebung vom Übersetzer]

Wie oben beschrieben, sind die CO2-Daten niedriger aufgelöst und weniger genau als die Temperaturdaten. Wir haben gesehen, dass der Vergleich von Temperatur-Proxydaten über die letzten 2.000 Jahre mit modernen instrumentellen Daten unangemessen ist, und es ist noch weniger angemessen, geologische Daten mit der modernen instrumentellen Aufzeichnung zu vergleichen. Weder das Ausmaß der jüngsten Erwärmung noch die jüngsten CO2-Konzentrationsänderungen sind über geologische Zeiträume hinweg ungewöhnlich.

Geowissenschaftler haben die Verantwortung, den geologischen Kontext des Klimawandels zu vermitteln, anstatt zu behaupten, dass jede Beobachtung, die nicht in der geologischen Aufzeichnung auflösbar ist, beispiellos und Grund für eine wirtschaftlich zerstörerische Regierungspolitik ist. Es sollte ausreichen zu sagen, dass die anthropogenen CO2-Emissionen wahrscheinlich die Ursache für den größten Teil des Anstiegs von ~280-400 ppm in den letzten 200 Jahren sind und dass dies einen Netto-Erwärmungseffekt auf die Atmosphäre hat. Obwohl so ziemlich jede aktuelle, auf Beobachtungen basierende Schätzung darauf hinweist, dass der Erwärmungseffekt minimal ist.

Obwohl es keinen „Klimanotstand“ gibt, existieren wirtschaftlich gangbare Wege, um die Kohlenstoffintensität unserer Energieproduktion zu reduzieren und das endgültige Wachstum des atmosphärischen CO2 auf ~600 ppm bis zum Ende dieses Jahrhunderts zu begrenzen. Dies würde uns im „Rauschpegel“ des Känozoikums halten.

Abbildung 15a. Marines pCO2 (Foram-Bor δ11B, Alkenon δ13C), atmosphärisches CO2 aus Pflanzenstomata (grüne und gelbe Rauten mit roten Umrissen), instrumentelles CO2 vom Mauna Loa (dicke rote Linie) und känozoische Temperaturänderung aus benthischen Foram δ18O (hellgraue Linie).

Abbildung 15b. Legende zu Abbildung 15a.

Anstatt Fristen für „Netto-Null-Emissionen“ und andere unerreichbare und willkürliche Kriterien festzulegen, sollte der Schwerpunkt auf der Reduktion der Kohlenstoffintensität der Energieerzeugung auf wirtschaftlich nachhaltige Weise liegen. Die Vereinigten Staaten haben dies, größtenteils durch unseren privaten Sektor, bereits getan. Die CO2-Emissionen bei der Stromerzeugung in den USA sind auf das Niveau der 1980er Jahre gesunken, was vor allem auf den Ersatz von Kohle- durch Erdgas-Strom zurückzuführen ist.

Abbildung 16. Quelle: U.S. Energy Information Administration, Monthly Energy Review

Geowissenschaftler werden in diesem Prozess eine entscheidende Rolle spielen, indem sie weiterhin wirtschaftlich förderbare Öl- und Gasreserven finden, die Methoden der geologischen Kohlenstoffabscheidung und -speicherung verbessern, den Weg für die Erweiterung unseres Zugangs zu der riesigen Bandbreite an mineralischen Ressourcen ebnen, die für den Ausbau der „erneuerbaren Energien“ (Wind und Sonne), Batterie- und andere Speichertechnologien benötigt werden, und die sichere geologische Entsorgung von nuklearen Abfallprodukten fördern, und all dies auf die sicherste Art und Weise, mit so wenig Umweltbelastung wie möglich. Wirtschafts-Geowissenschaftler in den Bereichen Öl & Gas und Mineralien sind aufgrund ihrer Erfahrung mit der Projektökonomie besonders gut positioniert, um den Weg zu weisen.

Energie, Wirtschaft und Umwelt sind untrennbar miteinander verbunden. Ohne erschwingliche, zuverlässige Energie kann eine Gesellschaft nicht die wirtschaftlichen Mittel haben, die Umwelt zu schützen. Nichts korreliert stärker mit menschlichem Wohlstand und einer sauberen Umwelt als der billige Zugang zu Energie (May, Climate Catastrophe! Science or Science Fiction?, 2018, S. 7, 18). Für eine Diskussion über Energie und Armut siehe hier.

[Hervorhebung vom Übersetzer]

Der texanische Staatsgeologe und Direktor des Bureau of Economic Geology Scott Tinker hat es in diesem Editorial über Kohlenstoff-Bepreisung sehr gut zusammengefasst:

Kohlenstoff-Bepreisung ist kein Allheilmittel für Klimawandel

Scott Tinker, 23. August 2019

Heute wird viel über die Bepreisung von Kohlendioxid gesprochen, um die CO2-Emissionen zu reduzieren und den Klimawandel zu bekämpfen. Anders als viele Umweltschadstoffe, die eine lokale oder regionale Auswirkung haben, ist Kohlendioxid (CO2) global – es gibt nur eine Atmosphäre. Wenn Maßnahmen zur Reduzierung der atmosphärischen Emissionen in einer Region zu erhöhten Emissionen an anderer Stelle führen, dann gilt das für die gesamte Atmosphäre.

Eine Form der Kohlenstoff-Bepreisung – -steuer, -handel, -gutschriften – wird von vielen Politikern, NGOs, Akademikern und sogar einigen in der Industrie favorisiert. Aber die Realität ist, dass ein Preis für Kohlenstoff von den Entwicklungs- und Schwellenländern nicht durchgesetzt werden wird, weil er ihre Energie teurer macht, und sie zu sehr damit beschäftigt sind, ihre Wirtschaft aufzubauen und sich aus der Armut zu befreien.

In den Industrieländern verteuert die Bepreisung von Kohlenstoff die Herstellung und die Produkte, was wiederum die Produktion in die Entwicklungsländer treibt, wo sie aufgrund niedrigerer Arbeitskosten und weniger strenger Umweltvorschriften und Emissionsstandards günstiger ist. Die globalen Emissionen steigen in der einen gesamten Atmosphäre.

Anders ausgedrückt: Die guten Absichten der Kohlenstoffbepreisung haben einen unbeabsichtigten negativen Einfluss auf den Klimawandel. Dies ist nicht hypothetisch. Es ist Realität.

Wenn die Kohlenstoff-Bepreisung nicht funktioniert, was dann? Die Energiewissenschaft sagt uns, wie wir die CO2-Emissionen in die Atmosphäre in dem erforderlichen Zeitrahmen tatsächlich senken können. Leider scheinen diejenigen, die den Klimawandel am leidenschaftlichsten angehen wollen, die Antworten der Energieexperten nicht zu mögen.

(…)

Welche Optionen mit großem Einfluss auf den Klimawandel schlagen also die Energiewissenschaftler vor?

Erdgas und Kernenergie als Ersatz für Kohle bei der Stromerzeugung in großen Entwicklungsländern wie Indien, China und Vietnam würden einen großen Einfluss haben. Kohlenstoffabscheidung, -nutzung und -speicherung, direkte Kohlenstoffabscheidung aus der Atmosphäre und vielleicht naturbasierte Lösungen wie die Vergrößerung der Wälder würden helfen, besonders in Regionen, die fossile Brennstoffe produzieren, wie die USA, Russland, China und der Nahe Osten.

(…)

Diese wissenschaftlich fundierten und wirtschaftlich untermauerten Energielösungen stellen ein Problem dar. Viele werden von den Menschen, die am meisten über den Klimawandel besorgt sind, nicht favorisiert. Daher werben Politiker, die auf der Suche nach Wählerstimmen für das Klima sind, weiterhin leidenschaftlich für Programme und Maßnahmen, die den Klimawandel nicht wirklich bekämpfen.

Aber wir haben eine bemerkenswerte Gelegenheit. Die Rechte kann die Notwendigkeit anerkennen, den Klimawandel zu bekämpfen. Die Linke kann die Energiewissenschaft anerkennen, die notwendig ist, um eine echte globale Reduktion der Emissionen in die Atmosphäre zu erreichen. Und die Entwicklungs- und Schwellenländer können sich weiter aus der Energiearmut befreien.

Leider scheint dies noch lange nicht der Fall zu sein. Klimapolitik scheint in Europa und den USA Energielösungen zu übertrumpfen, und die Entwicklungsländer verbrennen weiterhin Kohle.

Scott Tinker ist der Allday-Stiftungslehrstuhl für Untergrundgeologie und Direktor des Bureau of Economic Geology an der University of Texas in Austin.

UT News

Sollte der Klimawandel wirklich ein Problem sein, können wir ihn nur angehen, wenn wir wirtschaftlich tragfähige Wege verfolgen, die den Zugang zu erschwinglicher, zuverlässiger Energie bewahren und den weiteren Ausbau des menschlichen Wohlstands ermöglichen. Und der private Sektor ist weitaus besser darin, dies zu tun als jede Regierung.

AZ Quotes

Milton Friedman: „Die regierungsamtliche Lösung eines Problems ist normalerweise genauso schlimm wie das Problem selbst“.

References

Bereiter, Bernhard.  Sarah Eggleston, Jochen Schmitt, Christoph Nehrbass-Ahles, Thomas F. Stocker, Hubertus Fischer, Sepp Kipfstuhl and Jerome Chappellaz. 2015. Revision of the EPICA Dome C CO2 record from 800 to 600 kyr before present. Geophysical Research Letters. . doi: 10.1002/2014GL061957. LINK

Bereiter et al. (2014), Revision of the EPICA Dome C CO2 record from 800 to 600 kyr before present, Geophysical Research Letters, doi: 10.1002/2014GL061957.  Data

Berner, R.A. and Z. Kothavala, 2001. GEOCARB III: A Revised Model of Atmospheric CO2 over Phanerozoic Time, American Journal of Science, v.301, pp.182-204, February 2001.

Charney, J., Arakawa, A., Baker, D., Bolin, B., Dickinson, R., Goody, R., . . . Wunsch, C. (1979). Carbon Dioxide and Climate: A Scientific Assessment. National Research Council. Washington DC: National Academies Press. Doi: https://doi.org/10.17226/12181

Dott, Robert H. & Roger L. Batten.  Evolution of the Earth.  McGraw-Hill, Inc.  Second Edition 1976.  p. 441.

Galloway, William. (2008). “Chapter 15 Depositional Evolution of the Gulf of Mexico Sedimentary Basin”. Volume 5: Ed. Andrew D. Miall, The Sedimentary Basins of the United States and Canada., ISBN: 978-0-444-50425-8, Elsevier B.V., pp. 505-549.

Jevrejeva, S., J. C. Moore, A. Grinsted, and P. L. Woodworth (2008). “Recent global sea level acceleration started over 200 years ago?”. Geophys. Res. Lett., 35, L08715, doi:10.1029/2008GL033611.

Jevrejeva, S. , J.C. Moore, A. Grinsted, A.P. Matthews, G. Spada. 2014.  “Trends and acceleration in global and regional sea levels since 1807”.  Global and Planetary Change. %vol 113, 10.1016/j.gloplacha.2013.12.004 https://www.psmsl.org/products/reconstructions/jevrejevaetal2014.php

Lear, Caroline H., Pallavi Anand, Tom Blenkinsop, Gavin L. Foster, Mary Gagen, Babette Hoogakker, Robert D. Larter, Daniel J. Lunt, I. Nicholas McCave, Erin McClymont, Richard D. Pancost, Rosalind E.M. Rickaby, David M. Schultz, Colin Summerhayes, Charles J.R. Williams and Jan Zalasiewicz. Geological Society of London Scientific Statement: what the geological record tells us about our present and future climate.
Journal of the Geological Society, 178, jgs2020-239, 28 December 2020, https://doi.org/10.1144/jgs2020-239

Lewis, N., & Curry, J. (2018, April 23). The impact of recent forcing and ocean heat uptake data on estimates of climate sensitivity. Journal of Climate. Retrieved from https://journals.ametsoc.org/doi/10.1175/JCLI-D-17-0667.1

Lindzen, R., & Choi, Y.-S. (2011, August 28). On the Observational Determination of Climate Sensitivity and Implications. Asia-Pacific Journal of Atmospheric Sciences, 47(377). Retrieved from https://link.springer.com/article/10.1007/s13143-011-0023-x#citeas

Ljungqvist, F.C. 2010. “A new reconstruction of temperature variability in the extra-tropical Northern Hemisphere during the last two millennia”. Geografiska Annaler: Physical Geography, Vol. 92 A(3), pp. 339-351, September 2010. DOI: 10.1111/j.1468-459.2010.00399.x

MacFarling-Meure, C., D. Etheridge, C. Trudinger, P. Steele, R. Langenfelds, T. van Ommen, A. Smith, and J. Elkins (2006). “Law Dome CO2, CH4 and N2O ice core records extended to 2000 years BP“. Geophys. Res. Lett., 33, L14810, doi:10.1029/2006GL026152.

May, Andy. Climate Catastrophe! Science or Science Fiction? American Freedom Publications LLC, 2018.

Miller, Kenneth & Kominz, Michelle & V Browning, James & Wright, James & Mountain, Gregory & E Katz, Miriam & J Sugarman, Peter & Cramer, Benjamin & Christie-Blick, Nicholas & Pekar, S. (2005). “The Phanerozoic Record of Global Sea-Level Change”. Science (New York, N.Y.). 310. 1293-8. 10.1126/science.1116412.

Moberg, A., D.M. Sonechkin, K. Holmgren, N.M. Datsenko and W. Karlén. 2005.  “Highly variable Northern Hemisphere temperatures reconstructed from low- and high-resolution proxy data”. Nature, Vol. 433, No. 7026, pp. 613-617, 10 February 2005.

Nerem,  R. S.,  B. D. Beckley, J. T. Fasullo, B. D. Hamlington, D. Masters, G. T. Mitchum. “Climate-change–driven accelerated sea-level rise”. Proceedings of the National Academy of Sciences. Feb 2018, 115 (9) 2022-2025; DOI: 10.1073/pnas.1717312115

Pagani, Mark, Michael Arthur & Katherine Freeman. (1999). “Miocene evolution of atmospheric carbon dioxide”. Paleoceanography. 14. 273-292. 10.1029/1999PA900006.

Royer, D. L., R. A. Berner, I. P. Montanez, N. J. Tabor and D. J. Beerling. “CO2 as a primary driver of Phanerozoic climate”.  GSA Today, Vol. 14, No. 3. (2004), pp. 4-10

Severinghaus, J. P., Sowers, T., Brook, E. J., Alley, R. B., & Bender, M. L. (1998, January 8). Timing of abrupt climate change at the end of the Younger Dryas interval from thermally fractionated gases in polar ice. Nature, 391, pp. 141-146. Retrieved from http://shadow.eas.gatech.edu/~jean/paleo/Severinghaus_1998.pdf

Terando, A., Reidmiller, D., Hostetler, S.W., Littell, J.S., Beard, T.D., Jr., Weiskopf, S.R., Belnap, J., and Plumlee, G.S., 2020, Using information from global climate models to inform policymaking—The role of the U.S. Geological Survey: U.S. Geological Survey Open-File Report 2020–1058, 25 p., https://doi.org/10.3133/ofr20201058.

Tripati, A.K., C.D. Roberts, and R.A. Eagle. 2009.  “Coupling of CO2 and Ice Sheet Stability Over Major Climate Transitions of the Last 20 Million Years”.  Science, Vol. 326, pp. 1394 1397, 4 December 2009.  DOI: 10.1126/science.1178296

Wagner F, et al., 1999. Century-scale shifts in Early Holocene CO2 concentration. Science 284:1971–1973.

Wagner F, Kouwenberg LLR, van Hoof TB, Visscher H, 2004. Reproducibility of Holocene atmospheric CO2 records based on stomatal frequency. Quat Sci Rev 23:1947–1954.  LINK

Zachos, J. C., Pagani, M., Sloan, L. C., Thomas, E. & Billups, K. “Trends, rhythms, and aberrations in global climate 65 Ma to present”. Science 292, 686–-693 (2001).

Link: https://wattsupwiththat.com/2021/01/13/may-middleton-rebuttal-to-geological-society-of-london-scientific-statement-on-climate-change/

Übersetzt von Chris Frey EIKE




Man glätte niemals Zeitreihen!

Der Originaltitel ist als Wortspiel nur schwer übersetzbar: Do not smooth times series, you hockey puck!

Der Ratschlag, der den Titel dieses Beitrags bildet, wäre der eines Statistikers, wie man keine Zeitreihenanalyse durchführt. Nach den Methoden zu urteilen, die ich regelmäßig auf Daten dieser Art angewendet sehe, ist diese Zurechtweisung dringend nötig.

Der Ratschlag ist jetzt besonders relevant, weil sich eine neue Hockeystick-Kontroverse zusammenbraut. Mann und andere haben eine neue Studie veröffentlicht, in der viele Daten zusammengeführt wurden, und sie behaupten, erneut gezeigt zu haben, dass das Hier und Jetzt heißer ist als das Damals und Dort. Man gehe zu climateaudit.org und lese alles darüber. Ich kann es nicht besser machen als Steve, also werde ich es nicht versuchen. Was ich tun kann, ist zu zeigen, wie man es nicht tun soll. Ich werde es auch schreien, denn ich möchte sicher sein, dass jeder es hört.

Mann stellt auf dieser Site eine große Anzahl von Temperatur-Proxy-Datenreihen zur Verfügung. Hier ist eine von ihnen mit der Bezeichnung wy026.ppd (ich habe einfach eine aus dem Haufen herausgegriffen). Hier ist das Bild dieser Daten:

Die verschiedenen schwarzen Linien sind die tatsächlichen Daten! Die rote Linie ist ein geglätteter 10-Jahres-Mittelwert! Ich nenne die schwarzen Daten die realen Daten, und die geglätteten Daten die fiktiven Daten. Mann hat einen „Tiefpassfilter“ verwendet, der sich vom laufenden Mittelwert unterscheidet, um seine fiktiven Daten zu erzeugen, aber eine Glättung ist eine Glättung, und was ich jetzt sage, ändert sich kein bisschen, je nachdem, welche Glättung man verwendet.

Jetzt werde ich die große Wahrheit der Zeitreihenanalyse verkünden. Solange die Daten nicht mit Fehlern gemessen werden, glätte man nie, niemals, aus keinem Grund, unter keiner Drohung, die Reihe! Und wenn man sie aus irgendeinem bizarren Grund doch glättet, verwende man die geglättete Reihe AUF KEINEN FALL als Input für andere Analysen! Wenn die Daten mit Fehlern gemessen werden, kann man versuchen, sie zu modellieren (was bedeutet, sie zu glätten), um den Messfehler abzuschätzen, aber selbst in diesen seltenen Fällen muss man eine externe (das gelehrte Wort ist „exogene“) Schätzung dieses Fehlers haben, d.h. eine, die nicht auf den aktuellen Daten basiert.

[Alle Hervorhebungen im Original]

Wenn man in einem Moment des Wahnsinns Zeitreihendaten glättet und sie als Eingabe für andere Analysen verwendet, erhöht man dramatisch die Wahrscheinlichkeit, sich selbst zu täuschen! Das liegt daran, dass die Glättung Störsignale hervorruft – Signale, die für andere Analysemethoden echt aussehen. Egal wie, man wird sich seiner Endergebnisse zu sicher sein! Mann et al. haben ihre Reihen erst dramatisch geglättet und dann separat analysiert. Unabhängig davon, ob ihre These stimmt – ob es wirklich einen dramatischen Temperaturanstieg in letzter Zeit gibt – sind sie sich ihrer Schlussfolgerung nun garantiert zu sicher.

Und jetzt zu einigen Details:

● Ein Wahrscheinlichkeitsmodell sollte nur für eine Sache verwendet werden: um die Unsicherheit von noch nicht gesehenen Daten zu quantifizieren. Ich gehe immer wieder darauf ein, weil diese einfache Tatsache aus unerfindlichen Gründen offenbar schwer zu merken ist.

● Die logische Folge dieser Wahrheit ist, dass die Daten in einer Zeitreihenanalyse die Daten sind. Diese Tautologie ist dazu da, um zum Nachdenken anzuregen. Die Daten sind die Daten! Die Daten sind nicht irgendein Modell derselben. Die realen, tatsächlichen Daten sind die realen, tatsächlichen Daten. Es gibt keinen geheimen, versteckten „zugrundeliegenden Prozess“, den man mit irgendeiner statistischen Methode herauskitzeln kann und der die „echten Daten“ zeigen wird. Wir kennen die Daten bereits und sie sind da. Wir glätten sie nicht, um uns zu sagen, was es „wirklich ist“, weil wir bereits wissen, was es „wirklich ist“.

● Es gibt also nur zwei Gründe (abgesehen von Messfehlern), jemals Zeitreihendaten zu modellieren:

1. Um die Zeitreihe mit externen Faktoren in Verbindung zu bringen. Dies ist das Standard-Paradigma für 99 % aller statistischen Analysen. Man nehme mehrere Variablen und versuche, die Korrelation usw. zu quantifizieren, aber nur mit dem Gedanken, den nächsten Schritt zu tun.

2. Um zukünftige Daten vorherzusagen. Wir brauchen die Daten, die wir bereits haben, nicht vorherzusagen. Wir können nur vorhersagen, was wir nicht wissen, nämlich zukünftige Daten. So brauchen wir die Baumring-Proxydaten nicht vorherzusagen, weil wir sie bereits kennen.

Die Baumringdaten sind nicht die Temperatur! Deshalb werden sie Proxy-Daten genannt. Ist es ein perfekter Proxy? War die letzte Frage eine rhetorische Frage? War das auch eine? Weil es ein Proxy ist, muss die Unsicherheit seiner Fähigkeit, die Temperatur vorherzusagen, in den Endergebnissen berücksichtigt werden. Hat Mann das getan? Und was genau ist eine rhetorische Frage?

Es gibt Hunderte von Zeitreihen-Analysemethoden, die meisten mit dem Ziel, die Unsicherheit des Prozesses zu verstehen, damit zukünftige Daten vorhergesagt werden können und die Unsicherheit dieser Vorhersagen quantifiziert werden kann (dies ist aus gutem Grund ein riesiges Studiengebiet, z. B. auf den Finanzmärkten). Dies ist eine legitime Verwendung von Glättung und Modellierung.

Wir sollten sicherlich die Beziehung zwischen dem Proxy und der Temperatur modellieren und dabei die sich im Laufe der Zeit verändernde Natur des Proxys berücksichtigen, die unterschiedlichen physikalischen Prozesse, die dazu führen, dass sich der Proxy unabhängig von der Temperatur verändert, oder wie die Temperatur diese Prozesse verstärkt oder auslöscht, und so weiter und so fort. Aber wir sollten nicht damit aufhören, wie es alle getan haben, etwas über die Parameter der Wahrscheinlichkeitsmodelle zu sagen, die zur Quantifizierung dieser Beziehungen verwendet werden. Dadurch wird man sich der Endergebnisse wieder einmal viel zu sicher. Uns interessiert nicht, wie der Proxy die mittlere Temperatur vorhersagt, uns interessiert, wie der Proxy die Temperatur vorhersagt.

Wir brauchen keinen statistischen Test, um zu sagen, ob eine bestimmte Zeitreihe seit einem bestimmten Zeitpunkt gestiegen ist. Warum? Wenn man es nicht weiß, gehe man zurück und lese diese Punkte von Anfang an. Es liegt daran, dass wir uns nur die Daten ansehen müssen: wenn sie einen Anstieg zeigen, dürfen wir sagen: „Sie [die Zeitreihe] hat zugenommen.“ Wenn sie nicht gestiegen sind oder gar abgenommen haben, dann dürfen wir nicht sagen: „sie hat zugenommen.“ So einfach ist es wirklich.

Man kann mir jetzt sagen: „OK, Herr Neunmalklug. Was wäre, wenn wir mehrere verschiedene Zeitreihen von verschiedenen Orten hätten? Wie können wir feststellen, ob es einen generellen Anstieg bei allen gibt? Wir brauchen sicherlich Statistiken und p-Werte und Monte-Carlo-Berechnungen, um uns zu sagen, dass sie zugenommen haben oder dass die ‚Nullhypothese‘ von keiner Zunahme wahr ist.“ Erstens hat mich niemand schon lange „Herr Neunmalklug“ genannt, also sollten Sie sich Ihre Sprache besser überlegen. Zweitens: Haben Sie nicht aufgepasst? Wenn Sie sagen wollen, dass 52 von 413 Zeitreihen seit einem bestimmten Zeitpunkt gestiegen sind, dann schauen Sie sich die Zeitreihen an und zählen Sie! Wenn 52 von 413 Zeitreihen gestiegen sind, dann können Sie sagen „52 von 413 Zeitreihen sind gestiegen.“ Wenn mehr oder weniger als 52 von 413 Zeitreihen gestiegen sind, dann können Sie nicht sagen, dass „52 von 413 Zeitreihen gestiegen sind.“ Sie können es zwar sagen, aber Sie würden lügen. Es gibt absolut keinen Grund, über Nullhypothesen usw. zu schwätzen.

Wenn Ihnen die Punkte – es ist wirklich nur ein Punkt – die ich anspreche, langweilig erscheinen, dann habe ich es geschafft. Die einzige faire Art, über vergangene, bekannte Daten in der Statistik zu sprechen, ist, sie einfach zu betrachten. Es ist wahr, dass das Betrachten von massiven Datensätzen schwierig ist und immer noch eine Art Kunst darstellt. Aber Schauen ist Schauen und es ist völlig gleichberechtigt. Wenn Sie sagen wollen, wie Ihre Daten mit anderen Daten in Beziehung standen, dann müssen Sie wiederum nur schauen.

Der einzige Grund, ein statistisches Modell zu erstellen, ist die Vorhersage von Daten, die man nicht gesehen hat. Im Fall der Proxy-/Temperaturdaten haben wir die Proxies, aber wir haben nicht die Temperatur, so dass wir sicherlich ein Wahrscheinlichkeitsmodell verwenden können, um unsere Unsicherheit in Bezug auf die nicht gesehenen Temperaturen zu quantifizieren. Aber wir können diese Modelle nur erstellen, wenn wir gleichzeitige Messungen der Proxies und der Temperatur haben. Nachdem diese Modelle erstellt sind, gehen wir wieder zu dem Punkt zurück, an dem wir die Temperatur nicht haben, und können sie vorhersagen (wobei wir daran denken müssen, dass wir nicht ihren Mittelwert, sondern die tatsächlichen Werte vorhersagen müssen; außerdem müssen wir berücksichtigen, wie die Beziehung zwischen Temperatur und Proxy in der Vergangenheit anders gewesen sein könnte, und wie die anderen vorhandenen Bedingungen diese Beziehung verändert haben könnten, und so weiter und so fort).

Was man nicht tun kann oder sollte ist, zuerst die Proxydaten zu modellieren/glätten, um fiktive Daten zu erzeugen und dann zu versuchen, die fiktiven Daten und die Temperatur zu modellieren. Dieser Trick wird einen immer – einfach immer – zu sicher machen und in die Irre führen. Man beachte, wie die gelesenen fiktiven Daten viel strukturierter aussehen als die realen Daten und es wird verständlich.

Der nächste Schritt ist, mit den Proxydaten selbst zu spielen und zu sehen, was zu sehen ist. Sobald mir der Wunsch erfüllt wird, jeden Tag mit 48 Stunden zu füllen, werde ich das tun können.

Link: https://wmbriggs.com/post/195/

Übersetzt von Chris Frey EIKE

 




Steigt der Meeresspiegel immer schneller? (T1/2)

Leider allerdings nur wieder ein Beispiel, wie angebliche „Wissenschaftler“ gemeinsam mit unseren Medien den Bürger bewusst belügen bzw. ihm nicht die ganze Wahrheit sagen. Auf kaltesonne wurde es thematisiert [2]. Da die Info dort etwas kurz geraten ist und den Sachverhalt nur anreißt, anbei eine etwas längere Ausführung.

Der Meeresspiegel steigt. Und nicht nur das: Er steigt immer schneller…

…verkündete Prof. Rahmstorf (PIK) im Spiegel [1]. Und er wusste dazu zu erzählen, dass man auch wisse, warum das so ist: „[1] Wie stark der Klimawandel diesen Effekt treibt, ist inzwischen weitgehend entschlüsselt … “. Dazu erzählt er auch, dass die Satelliten den Meerespegel aus einer Bahnhöhe von ca. 1.320 km auf einen Millimeter genau ausmessen könnten: „Die Laufzeit der Wellen erlaubt es, den mittleren globalen Meerespegel auf einen Millimeter genau zu bestimmen“.

Um dann mit der Hiobsbotschaft zu ergänzen: „Seit 1992 ist der globale Meeresspiegel um neun Zentimeter gestiegen. Die Anstiegsgeschwindigkeit hat sich in dieser Zeit mehr als verdoppelt, von 2,1 auf 4,8 Millimeter pro Jahr ... „

Bild 1 [1] Meerespegelverlauf. Darstellung von Prof. Rahmstorf
Dazu passt auch die Wiederholung der Information, wonach der Meerespegel die letzten 2.000 Jahre fast unverändert blieb, nun aber ebenfalls so etwas wie einen „Hockeyschläger-Verlauf“ ausbildet:
[1] Doch schon dieser Anstieg ist einzigartig mindestens seit der Geburt Christi: Sedimentdaten zeigen, dass es seither in keinem Jahrhundert mehr als fünf Zentimeter Anstieg gegeben hat, und Jahrhunderte mit steigendem und fallendem Pegel hielten sich in etwa die Waage

Bild 2 [4] historischer und aktueller Meerespegelverlauf
Wenn irgend jemand vom PIK „spricht“, ist eine Erwähnung der Kipppunkte „unvermeidbar“, schließlich hat diese im Wesentlichen ihr ehemaliger Chef, Herr Schellnhuber, simuliert und propagiert:
[1] Die Eismassen haben seit Jahrzehnten bekannte Kipppunkte durch die Eis-Höhen-Rückkopplung in Grönland und die marine Eisschildinstabilität in der Antarktis. Der Kipppunkt für Grönland (genug für sieben Meter Meeresspiegel) liegt wahrscheinlich irgendwo zwischen einem und drei Grad globaler Erwärmung – nach der besten Abschätzung bei 1,6 Grad. Der Kipppunkt für die Westantarktis (genug für drei Meter Meeresspiegel) ist wahrscheinlich sogar schon überschritten …

Eine aktuelle Studie liest aus den gleichen Daten etwas anderes heraus

Beim Klimawandel bleibt und ist nichts im „Konsens“ oder gar wie oft behauptet „settled“. Wie immer gibt es Wissenschaftler, die zum genau gleichen Datensatz ganz anderes berichten. So auch wieder in diesem Fall:
[5] H. Bâkiİz and C.K. Shum, January 29, 2020: The certitude of a global sea level acceleration during the satellite altimeter era
Abstract: Recent studies reported a uniform global sea level acceleration during the satellite altimetry era (1993– 2017) by analyzing globally averaged satellite altimetry measurements. Here, we discuss potential omission errors that were not thoroughly addressed in detecting and estimating the reported global sea level acceleration in these studies. Our analyses results demonstrate that the declared acceleration in recent studies can also be explained equally well by alternative kinematic models based on previously well-established multi-decadal global mean sea level variations of various origins, which suggests prudence before declaring the presence of an accelerating global mean sea level with conidence during the satellite altimetry era.
(Leicht angepasste) deepl-Übersetzung: Zusammenfassung: Jüngste Studien berichteten über eine einheitliche globale Meeresspiegel-Beschleunigung während der Satellitenaltimetrie-Ära (1993- 2017) durch die Analyse von global gemittelten Satellitenaltimetrie-Messungen.
Hier diskutieren wir mögliche Auslassungsfehler die bei der Erkennung und Schätzung der berichteten globalen Meeresspiegelbeschleunigung in diesen Studien nicht gründlich behandelt wurden.
Unsere Analyseergebnisse zeigen, dass die angegebene Beschleunigung in den jüngsten Studien ebenso gut auch durch alternative kinematische Modelle erklärt werden kann, die auf gut etablierten multidekadischen globalen mittleren Meeresspiegelschwankungen unterschiedlicher Herkunft basieren. Was zur Vorsicht mahnt, bevor man Erklärungen vertraut, welchen das Vorhandensein eines sich beschleunigenden globalen mittleren Meeresspiegels während der Satelliten Altimetrie-Ära postulieren.
Dem Abstrakt setzten die zwei Studienautoren noch ein Zitat nach: “Nothing is always absolutely so” Sturgeon, The Claustrophile, 1956

In der Studie werden zuerst Daten verschiedener Studien, welche Beschleunigungen im Anstieg der Meerespegel- berichten gelistet und dazu, dass darin (fast immer) keine stichhaltigen Belege enthalten sind. Dann kommt eine eigene Analyse der Satellitendaten:
[5]We analyzed monthly and globally averaged satellite altimetry, SA, global sea level time series to demonstrate that one of the most important approaches to earliest possible detection of a signicant GMSL acceleration lies in recognizing and separating the eect of natural internal forcing of the oceans compounded with the variability of astronomical origin that are not limited to the SA era. We also quanti- ed unusually highly autocorrelated noise in the SA time series, which were not rigorously addressed in recent studies …
(Leicht angepasste) deepl-Übersetzung: ... Wir analysierten monatliche und global gemittelte Zeitreihen der Satellitenaltimetrie SA, (und) des globalen Meeresspiegels, um zu zeigen, dass einer der wichtigsten Ansätze zur frühestmöglichen Erkennung einer signifikanten GMSL-Beschleunigung in der Erkennung und Trennung des Effekts natürlicher interner Antriebe der Ozeane zusammen mit der Variabilität astronomischen Ursprungs (Einfügung. Bsp. Sonnenvariabilität) liegt, die nicht auf die Satelliten-Ära beschränkt sind.
Wir quantifizierten auch ungewöhnlich stark autokorreliertes Rauschen in den SA-Zeitreihen, das in den aktuellen Studien nicht konsequent behandelt wurde …

Dann kommt eine Übersichtsgrafik der Satelliten-Pegelreihe (Bild 3). Eigentlich zeigt dieses Bild schon (fast) alles über die alarmistische Aussage von Herrn Rahmstorf und was dieser bewusst dazu nicht gesagt hat: Dass die Pegel-Änderungsrate vom Messbeginn an zyklisch um +- diesen Wert pendelt und aktuell wieder bei Null angekommen ist.

Bildtext: Fig. 1. Globally and monthly averaged sea level anomalies as observed by Satellite Altimetry (Blue), superimposed with the residuals of the OLS. – Bild 3 [5] Satelliten-Pegelreihe (Anomalie) mit der Pegel-Änderungsrate (Residuals). Grafik vom Autor ergänzt
Beim Vergleich der erkennbaren Zyklen zeigt sich (was „Kaltesonne“ auch erwähnt), ein mehr als signifikanter Einfluss von Klimazyklen:

Fig. 3. MEI and Solution I monthly OLS residuals (mm) during the SA period. – Bild 4 [5] Korrelation der Pegel-Residuen (Bild 3) mit den ENSO-Zyklen

Schlussfolgerung

Was Herr Rahmstorf wie üblich als eine „gesicherte Kenntnis“ publiziert, zeigt sich beim näheren Betrachten (wieder) als höchst spekulativ:
[5] ... Conclusion
Recent analyses of SA time series by Nerem at al., (2018) and Ablain et al., (2019) and others declaring a GMSL acceleration are far from exhaustive for such an important topic. Uncertainty is one of the essential components in assessing variability in global sea level in the context of GMSL budget to ascertain anthropogenic contributions. The omission of the eect of potential confounders including a potential jerk or multidecadal sea level variations (Ablain at al., 2019), or using a conjecture that they will average out because of the superior global coverage of SA by Nerem at al. (2018) is a leap of faith without evidence in quantifying a GMSL acceleration and its uncertainty using globally averaged SA time series. Moreover, conducting projections as in Nerem at al. (2018) without ascribing proper uncertainties to the model estimates have no meaning. Until the uncertainty of a recent GMSL acceleration is established in the context of “total evidence”, i.e. in the light of systematic global sea level variations during the 20th century revealed by TG measurements together with the available SA time series, any prediction of a GMSL rise ought to be made with extreme prudence.

(Leicht angepasste) deepl-Übersetzung: Schlussfolgerung
Die jüngsten Analysen der SA-Zeitreihen von Nerem at al. (2018) und Ablain et al. (2019) und anderen, die eine GMSL-Beschleunigung erklären, sind bei weitem nicht erschöpfend für ein so wichtiges Thema.
Die Unsicherheit ist eine der wesentlichen Komponenten bei der Bewertung der Variabilität des globalen Meeresspiegels im Rahmen des GMSL-Budgets, um die anthropogenen Beiträge zu ermitteln. Die Auslassung des Einflusses potenzieller Störfaktoren, einschließlich eines potenziellen Rucks oder multidekadischer Meeresspiegelschwankungen (Ablain at al., 2019), oder die Verwendung einer Vermutung, dass sie sich aufgrund der überlegenen globalen Abdeckung von SA durch Nerem at al. (2018) ausmitteln werden, ist ein Vertrauensvorschuss ohne Beweise bei der Quantifizierung einer GMSL-Beschleunigung und ihrer Unsicherheit unter Verwendung global gemittelter SA-Zeitreihen. Darüber hinaus ist die Durchführung von Projektionen wie in Nerem at al. (2018), ohne den Modellschätzungen angemessene Unsicherheiten zuzuschreiben, sinnlos.
Solange die Unsicherheit einer rezenten GMSL-Beschleunigung nicht im Kontext der „Gesamtevidenz“, d. h. im Lichte systematischer globaler Meeresspiegelschwankungen während des 20. Jahrhunderts, die durch TG-Messungen zusammen mit den verfügbaren SA-Zeitreihen aufgedeckt wurden, ermittelt ist,
sollte jede Vorhersage eines GMSL-Anstiegs mit äußerster Vorsicht erfolgen.

Satellitepegel

Anbei anhand der Originaldaten eine Plausibilitätssichtung.
Die Satellitendaten werden gängig wie in Bild 5 dargestellt. Der quadratische, stetig schlimmer steigende Regressions-Fit erscheint in dieser Darstellung plausibel und „zwingend“:

Bild 5 Pegeldaten der verschiedenen Messsatelliten mit der quadratischen Pegel-Anstiegskurve

Im WEB sind die Satellitendaten hinterlegt und lassen sich laden. Daraus ergibt sich Bild 6, welches dem Bild 5 in höherer Auflösung entspricht.
Trägt man darin Verlaufsbegrenzungslinien ein, zeigt sich, dass der quadratisch – stetig schlimmer ansteigende – Fit überhaupt nicht zwingend ist. Ein bisheriger – und weiterhin – linearer Anstieg hat genau so gut seine „Berechtigung“ (wie es die Studie [5] auch feststellt).
Der quadratisch steigende Fit zeigt sich demnach lediglich als eine Hypothese und ist durch nichts (außer, dass der Verlauf mathematisch hineinpasst) begründet.

Man muss sich klar machen, dass die Satelliten aus ca. 1.320 km Entfernung den Meeres-Pegel auf den Millimeter genau messen können sollen (was auf Meereshöhe und direkt daneben angeblich nur ungenau erfolgt). Das mag theoretisch stimmen, wenn man alleine die Laufzeit-Messgenauigkeit betrachtet. In Wirklichkeit wird die Laufzeit das Messsignal jedoch durch externe Einflüsse verfälscht, teils driften die Messapparaturen und die Satelliten selbst „taumeln“ mit den Änderungen des Erd-Schwerefeldes. Den Pegelwert bekommt man erst nach vielen, vielen Korrekturen und Anpassungen. Teils werden diese sogar noch nach Jahren nachträglich korrigiert. Es ist also gar nicht sicher, dass die Satelliten-Pegelmesskurve wirklich mit der angegebenen Genauigkeit stimmt.

Herr Rahmstorf ist allerdings überzeugt – zumindest sagt er es -, dass die Satelliten es auf den Millimeter genau könnten. Allerdings ist immer noch ungeklärt, warum die ja weiterhin durchgeführten Tidenpegelmessungen und die Satellitenpegel eine große Abweichung im Pegeltrend aufweisen (Tidenpegel: 1,5 … 2 mm/pa, Satellitenpegel 3,3 mm/pa).
Anmerkung: Diese Abweichung ist der Grund, warum im Pegel-Verlaufsbild (Bild 1) mit den angefügten Satellitendaten so ein großer Beschleunigungsanstieg erfolgt. Es ist der gleiche „Datenbetrug“ wie beim Hockeystick, wo ebenfalls zwei unterschiedliche Messarten mit systembedingt unterschiedlichen Messergebnissen gekoppelt wurden.

Bild 6 Original-Satellitendaten (3,4 mm/pa). Grafik vom Autor erstellt

Aus diesen Originaldaten lässt sich auch der Verlauf der Pegel-Änderungsrate ermittelt (zum Vergleich mit Bild 3). Die von Rahmstorf genannten, 4,8 mm/pa mit steigender Tendenz erscheinen nun unplausibel und nur eine kurzfristige Momentaufnahme.

Bild 7 Satelliten-Pegel-Änderungsrate (Residuals) als Absolutwerte und als Steigungswerte der Regressionsgeraden. Grafik vom Autor erstellt

Fazit

Der von Prof. Rahmstorf dem Spiegel erzählte, hohe und beschleunigte Meerespegelanstieg ist eher falsch als richtig. Und dies ist anhand der Daten so deutlich erkennbar, dass von einer bewussten Alarmisierung ausgegangen werden muss.
Der „Spiegel“ macht sich dabei eindeutig einer „Mittäterschaft“ schuldig, da zumindest „er“ als unabhängige Institution auch auf die vorliegenden, der Aussage von Herrn Rahmstorf entgegenstehenden Studien und Daten hätte hinweisen müssen.

Damit endet Teil 1. Im zweiten Teil wird der aktuelle Meerespegel-Änderungszustand anhand von Pegeldaten in der (angeblich) am meisten davon betroffenen Region – der Südsee – gezeigt.

Quellen

[1] SPIEGEL Wissenschaft, Rahmstorf 15.12.2020: Klimakrise Warum der Meeresspiegel immer schneller steigt

[2] kaltesonne 23.12.2020: Die Welt säuft ab…wirklich?

[3] STERN, 26.12.2020: Wirtschaftswachstum: Corona-Turbo – China wird die USA schon 2028 hinter sich lassen

[4] RAHMSTORF 22. Feb 2016. SciLogs > KlimaLounge > Allgemein > Meeresspiegel über die Jahrtausende

[5] H. Bâkiİz* and C.K. Shum, January 29, 2020: The certitude of a global sea level acceleration during the satellite altimeter era

[6] EIKE 10. November 2019: Statt 80 sind plötzlich 300 Millionen Küstenbewohner vom Klimawandel bedroht

[7] DKK, Schrift: Zukunft der Meeresspiegel

 




Ein nachdenk­licher Blick auf die Klima­wissenschaft

Hier zunächst noch einmal wiederholt:

Die Standard-Behauptungen der Klimawissenschafts-Religion:

1.Die anthropogene globale Erwärmung sorgt für einen globalen Temperaturanstieg.

2.Dies wird katastrophale Konsequenzen nach sich ziehen, darunter verschwindende Inseln, Millionen Klima-Flüchtlinge, eine 6. große Aussterbe-Welle und Schlimmeres.

3.Aus diesen Gründen müssen wir uns bzgl. Energie in Sack und Asche hüllen – in Gestalt eines Green New Deal GND.

Die in meinen beiden früheren Beiträgen angesprochenen grundlegenden Probleme sind Folgende:

1.Sie können einen Anstieg der globalen Temperatur über die natürliche Variation hinaus nicht nachweisen.

2.Bislang gibt es seit 1988 keinerlei katastrophale Konsequenzen – trotz nunmehr vier Jahrzehnte langen Anbetens gescheiterter Prophezeiungen.

3.Die ,Lösungen‘ mit einem GND sind sowohl technisch als auch ökonomisch zum Scheitern verurteilt.

Wie also ist es möglich, dass diese furchtbare Alarm-Klimawandel-PR immer weitergeht?

Die Antwort, glaube ich, liegt in der Klage von Peter Ridd zum Thema Great Barrier Reef gegen die Cook University in Australien, die er höflich als „Mangel an Qualitätskontrolle“ betitelt. Ich gebe ihm einen anderen, präziseren Namen, für den es viele Beweise gibt: Akademisches Fehlverhalten im Streben nach staatlichen Fördergeldern. Ganz einfach: Es ist wissenschaftliche Finanzkorruption.

Es gibt viele Möglichkeiten, diese These zu beweisen, was bereits auch durchweg in der allgemeinen Literatur zu finden ist. Für diesen Hintergrund-Beitrag werden wir nur ein paar Beispielen ansprechen. Alle Beispiele stammen von Steve McIntyre, mir selbst, oder (einmal) von beiden. (Ich werde, wiederum aus Faulheit, nicht viele Links angeben, da die Details alle leicht im Internet oder über die Suchfunktionen von WUWT oder CE zugänglich sind – oder über mein billiges altes Buch).

1. MBH1999: der Hockeyschläger, die vorgestellte Grafik des AR3. Es gibt mindestens 3 Probleme, die zusammengenommen an wissenschaftliches Fehlverhalten grenzen:

Seine Paläoklimadaten sind zum Teil gefälscht (Biffas einzelne Jamal-Lärche, das invertierte Tilander-Sediment, die US-Streifenrinden-Borstenzapfen-Kiefern,… die alle ein Hockeyschläger-Blatt enthalten.

Seine Paläoklimadaten widersprechen auch der bekannten Mittelalterlichen Warmzeit (– der falsche Hockeyschläger-Griff, eine schlimmere Datensünde).

Seine neuartige Mann-Mathematik-Methode ist fatal fehlerhaft, sie produziert immer irgendeinen Hockeystick aus irgendeinem roten Rauschen. Für diejenigen, die sich nicht mit Klima/Statistik auskennen: rotes Rauschen in einer Zeitreihe ist etwas ganz anderes als weißes Rauschen. Rotes Rauschen hat ein „Gedächtnis“, auch bekannt als ein gewisses Maß an Autokorrelation. Es ist also nicht rein zufällig wie weißes Rauschen in der klassischen Statistik um eine normale Zufallsverteilung.

2. Der Hockeyschläger aus dem Jahr 2013 von Marcott

Er wiederholte diese These durch das Umdatieren ausgewählter oberer Abschnitte von Bohrkernen in seiner berüchtigten Wissenschafts-Studie. Ich BEWIES sein „verleugnetes“ wissenschaftliches Fehlverhalten DETAILLIERT ein paar Wochen nach der Veröffentlichung auf dem Blog von Judith Curry. Diesen Beweis sandte ich im Jahre 2013 an die Herausgeberin von Science Marcia McNutt. Deren Admin nahm den Entwurf an, aber sonst passierte nichts weiter. Man kann sich meine „enttäuschte Überraschung“ vorstellen.

3. Fabrizierte Behauptung in Nature Climate Change (1: s. 165 bis 169) im Jahre 2011: Ozean-Versauerung tötet Korallen in der Milne Bay.

Das wissenschaftliche Fehlverhalten bestand dabei darin, dass nur diese eine einzige Stelle betrachtet worden ist, wo Teile der Korallen ,getötet‘ wurden infolge einer H2S-Anreicherung vulkanischen Ursprungs bis 163 ppm. Das ist für alle einen Gehalt unter 50 ppm gewohnten Meereslebewesen genauso tödlich wie Zyanid für Menschen in Auschwitz.

4. Das NOAA PMEL behauptete, dass das Absterben des Laichs in der Austernzuchtanlage bei Whiskey Creek in der Netarts Bay, Oregon, ein „entscheidender Faktor“ bzgl. der Ozean-Versauerung sei.

Falsch. Eine komplette akademische Fehldarstellung aufsteigenden Tiefenwassers an der Pazifikküste und der Biologie der Flussmündungen bzgl. Austern. Nachgewiesene USG-Fehlinformation.

(Die Beispiele 3 und 4 sind beide mit Fußnoten und Illustrationen im Essay Shell Games in meinem E-Book Blowing Smoke versehen, Vorwort Judith Curry).

5. Es gibt viele Behauptungen, dass der antarktische Eisschild schon einmal kollabiert ist, und dass dies erneut zu einem sehr plötzlichen katastrophalen Anstieg des Meeresspiegels führen könnte.

Einer der jüngsten „Beweise“ war während des Eemian in Australien aufgetreten. Nur dass diese Studie die westaustralischen Daten, die in seiner eigenen Quellenangabe gefunden wurden, falsch darstellte und nachweislich absichtlich die Ergebnisse eines alten Erdbebens falsch interpretierte – gegen die aus seinen eigenen Daten hervor gehenden Beweise. Details mit Bildern, Grafiken und Fußnoten finden sich im Aufsatz ‚By Land or by Sea‚ im E-Book Blowing Smoke. Eindeutiges wissenschaftliches Fehlverhalten.

Und diejenigen, die denken, dies ist nur eine wiederholte E-Book-Werbung, liegen falsch. Ich habe fast drei Jahre an diesem E-Book gearbeitet, und es wird jetzt für etwa $7 auf Amazon Kindle verkauft (immer noch $9 auf iBooks). Ich habe nichts verdient und hatte auch nicht vor, etwas zu verdienen. Mein Verleger hat ein wenig verdient; mein Plan war es, ihm dafür zu danken, dass er es überhaupt veröffentlicht hat. Die Klimawahrheit herauszubringen war der ganze und einzige Punkt. Das ist es immer noch. Wir wiederholen hier nur einige der offensichtlichen wissenschaftlichen Verfehlungen, die schon vorher schriftlich bewiesen wurden, aber vielleicht den Neulingen in der Szene nicht so bekannt sind.

Link: https://wattsupwiththat.com/2020/12/09/i-got-to-ruminating-again-a-third-wuwt-retrospective-post/

Übersetzt von Chris Frey EIKE




Moderne Klimawandel-Wissenschaft

Sie liefern auch einen wahrscheinlichen Wert von 2,4°C auf Seite 9, obwohl sie auf Seite 2 einen Wert „nahe 3,0“ angeben. Der Wert auf Seite 9 ist nicht weit entfernt von der empirischen Schätzung von 2°C von Guy Callendar aus dem Jahr 1938, aber deutlich höher als der von Nic Lewis und Judith Curry (Lewis & Curry, 2018) angegebene Wert von 1,2°C bis 1,95°C (Bereich von 17% bis 83%, best estmate 1,5°C).

Das IPCC schätzt in seinem AR5-Bericht (Bindoff & Stott, 2013) die ECS auf einen Temperaturbereich zwischen 1,5°C und 4,5°C und liefert kein best estimate. Diese Spanne entspricht genau der des Charney-Berichts vor 34 Jahren. Während sich die empirischen, auf Beobachtungen basierenden Schätzungen deutlich verringert haben, hat sich die theoretische Bandbreite nicht verändert, obwohl Tausende von staatlich finanzierten Wissenschaftlern Milliarden von Dollar dafür ausgegeben haben. Die Daten sind heute sehr ähnlich, und es scheint keine Rolle zu spielen, dass sie mit leistungsfähigeren Computern und Milliarden von Dollar schneller ausgegeben werden. Mit Dung funktioniert es auf dieselbe Weise.

[Hervorhebung vom Übersetzer]

Wenn wir den AR5 genau unter die Lupe nehmen, wie es Monckton et al. in MSLB15 taten, einem Aufsatz mit dem Titel „Why Models run hot: results from a irreducially simple climate model“ (Monckton, Soon, Legates, & Briggs, 2015), sehen wir, dass die Elemente der theoretischen AR5-Berechnungen darauf hindeuten, dass sich der Bereich nach unten verengt. Angesichts des politischen Umfelds beim IPCC kann man leicht vermuten, dass die Politiker nicht zugeben wollen, dass die theoretischen Risiken des CO2-bedingten Klimawandels abnehmen. Je mehr empirische Schätzungen des CO2-Effekts erscheinen und je mehr theoretische Arbeit geleistet wird, desto mehr fragt man sich, wie lange die Politiker die deutlich überhöhte Spanne von 1,5°C bis 4,5°C noch unterstützen können.

Die Schätzungen der ECS sind seit langem rückläufig, wie Nicola Scafetta und Kollegen 2017 gezeigt haben. Abbildung 1 stammt aus ihrer Studie:

Abbildung 1: Der Rückgang der Schätzungen der ECS von 2000 bis 2015. Quelle: Scafetta, Mirandola und Bianchini, 2017.

In den 1980er Jahren wurde die Idee der katastrophalen, vom Menschen verursachten (oder anthropogenen) globalen Erwärmung (CAGW) entwickelt. Seitdem schlagen die Alarmisten Jahr für Jahr die Trommel. In den Vereinigten Staaten fand am 23. Juni 1988 im Dirksen-Senatsbürogebäude in Washington, DC eine Senatsausschusssitzung zum Thema CAGW statt, die von Senator Tim Wirth ausgerichtet wurde. Es war ein heißer und feuchter Tag im sumpfigen Washington, DC. Das Treffen war ein Wendepunkt, was nicht zuletzt Dr. James Hansen von der NASA zu verdanken war. In seiner Präsentation vor dem Kongressausschuss sagte er:

1988 ist es wärmer als jemals zuvor in der Geschichte der instrumentellen Messungen.

Alles in allem sind die Beweise dafür, dass sich die Erde um einen Betrag erwärmt, der zu groß ist, um eine zufällige Fluktuation zu sein, und die Ähnlichkeit der Erwärmung mit der durch den Treibhauseffekt zu erwartenden, ein sehr starker Fall. Meiner Meinung nach … ist der Treibhauseffekt entdeckt worden, und er verändert jetzt unser Klima.

Die gegenwärtig beobachtete globale Erwärmung liegt nahe 0,4 Grad C, relativ zur ‚Klimatologie‘, die als Mittelwert der dreißig Jahre (1951 – 1980) definiert ist. … können wir mit etwa 99-prozentiger Sicherheit feststellen, dass die gegenwärtigen Temperaturen eher einen echten Erwärmungstrend als eine zufällige Schwankung über den Zeitraum von 30 Jahren darstellen“. (Hansen, 1988)

ExxonMobil glaubte, dass die natürliche Variabilität ±0,5°C betrug. Man war der Meinung, dass eine Veränderung größer als diese sein musste, um signifikant zu sein. Offensichtlich schränkte Hansen diesen natürlichen Bereich irgendwie ein. Die Welt kühlte sich von 1944 bis 1977 global ab und begann sich dann 1978 zu erwärmen. Ein Anstieg von 0,4°C ist nicht viel, so dass die Verwendung dieses Wertes, um festzustellen, dass der „Treibhauseffekt“ nach einer langen Abkühlungsperiode festgestellt wurde, hätte Stirnrunzeln und Fragen hervorrufen müssen. Man beachte, dass Hansen „Treibhauseffekt“ sagt, wenn er den „vom Menschen verursachten Treibhauseffekt“ oder „verstärkter Treibhauseffekt“ meint. Es gibt einen natürlichen Treibhauseffekt, der durch natürliches CO2 und andere Treibhausgase, insbesondere Wasserdampf, verursacht wird. Dies ist der Beginn einer Täuschungstaktik, die von den Alarmisten häufig angewendet wird. Um die natürlichen Ursachen des Klimawandels zu ignorieren, setzen sie den „Treibhauseffekt“ mit dem „vom Menschen verursachten Treibhauseffekt“ gleich. Außerdem verwenden sie „globale Erwärmung“ als Synonym für „vom Menschen verursachte globale Erwärmung“, und „Klimawandel“ ist gleichbedeutend mit „vom Menschen verursachter Klimaänderung“. Diese Art von trügerischer und manipulativer Sprache wird auch heute noch verwendet.

Die IPCC-Berichte

Der erste IPCC-Bericht (FAR) unter dem Vorsitz von Bert Bolin stellte fest, dass die globale Erwärmung bis 1992, als der Bericht veröffentlicht wurde, in den Bereich der „natürlichen Klimavariabilität“ fiel und nicht unbedingt auf menschliche Aktivitäten zurückzuführen war (IPCC, 1990, S. XII). Sie hielten den eindeutigen Nachweis eines menschlichen Einflusses „für ein Jahrzehnt oder länger für unwahrscheinlich“. Bert Bolin war der Meinung, dass James Hansens Aussage im Kongress 1988 die Bedeutung der jüngsten globalen Erwärmung übertrieben habe.

Der zweite, 1996 veröffentlichte Bericht SAR kam zu dem Ergebnis, dass „die Abwägung der Beweise auf einen erkennbaren menschlichen Einfluss auf das globale Klima hindeutet“. (IPCC, 1996, S. 4). Dies basierte jedoch auf unveröffentlichten und nicht überprüften Arbeiten von Benjamin Santer und Kollegen. Seine Studie legte nahe, dass die Vorhersagen der Klimamodelle über die Erwärmung in der Troposphäre und die Abkühlung in der Stratosphäre dem entsprachen, was sich abspielte. Er nannte dies einen „Fingerabdruck“ des menschlichen Einflusses auf das Klima (Santer, et al., 1996a). Nach der Veröffentlichung der Studie stellte sich heraus, dass Santer bzgl. dieses Fingerabdrucks „Rosinenpickerei“ betrieben hatte (Michaels & Knappenberger, 1996). Die Studie wurde zurückgewiesen, und der IPCC wurde gedemütigt. Diese Demütigung wurde noch dadurch verstärkt, dass die für den IPCC verantwortlichen Politiker dabei erwischt wurden, wie sie die wissenschaftlichen Berichte innerhalb der SAR veränderten, um sie ihrer Summary for Policymakers anzupassen (Seitz, 1996).

Der 2001 veröffentlichte dritte Bericht TAR stellte fest, dass „der Großteil der in den letzten 50 Jahren beobachteten Erwärmung wahrscheinlich auf den Anstieg der Treibhausgaskonzentrationen zurückzuführen ist“. (IPCC, 2001, S. 10). Sie stützten diese Entscheidung auf den „Hockeyschläger“, der sich später als fehlerhaft erwies. Bis zur Veröffentlichung des vierten Berichts (AR4) im Jahr 2007 zeigten zahlreiche Untersuchungen des Hockeyschlägers, dass er fehlerhaft war und zu wenig Variabilität aufwies. Dies wurde im vierten Bericht, AR4, von Keith Briffa eingeräumt, der, etwas beschönigend, schrieb, dass der Hockeyschläger zu empfindlich auf bestimmte Proxies (Baumringe) und die statistischen Verfahren (Hauptkomponenten) reagierte, welche zu seiner Konstruktion verwendet worden waren (IPCC, 2007b, S. 436). Willie Soon und Sallie Baliunas zeigten, dass der Hockeyschläger nicht die Daten widerspiegelte, die zu seiner Konstruktion verwendet wurden (Soon & Baliunas, 2003). Der Hockeyschläger entpuppte sich als eine ausgeklügelte Fiktion, die einzig und allein aus einem fehlerhaften statistischen Verfahren und einem schlecht ausgewählten Satz von Temperaturproxies entstand (National Research Council, 2006, S. 112-116) und (Wegman, Scott, & Said, 2010, S. 4-5, 48-50).

Als AR4 im Jahr 2007 veröffentlicht wurde, hatte die Führung des IPCC aufgegeben, direkte Beweise dafür zu finden, dass der Mensch den Klimawandel beherrscht. Sie hatten es mit dem „Fingerabdruck“ von Santer und dem „Hockeyschläger“ von Michael Mann versucht und konnten die Öffentlichkeit mit beidem nicht überzeugen. So versuchten sie im AR4, die Öffentlichkeit mit Klimamodellen zu überzeugen, dass „der größte Teil des beobachteten Anstiegs der globalen Durchschnittstemperaturen seit Mitte des 20. (IPCC, 2007b, S. 10) sehr wahrscheinlich der beobachteten Zunahme von Treibhausgasen in der Atmosphäre geschuldet ist“. Sie präsentieren keine Beobachtungen, sondern lediglich Modellergebnisse. Der fünfte Bericht, AR5, war lediglich eine Wiederholung von AR4. Dieselben zwei Modelle, dasselbe Ergebnis. Wie bereits erwähnt, zeigte MSLB15 (Monckton, Soon, Legates, & Briggs, 2015), dass die neueren Ergebnisse des AR5-Modells darauf hindeuteten, dass die Schlagzeilen des IPCC die Empfindlichkeit des Klimas gegenüber CO2 überbewerten, aber dieses Ergebnis wurde im Bericht weder erklärt noch eingeräumt.

Während also die empirischen Berechnungen der Klimasensitivität gegenüber CO2 nun eine ECS zwischen 1,1°C und 2,45°C zeigen (siehe Tabelle 1), blieben die theoretischen Schätzungen bei 1,5 bis 4,5 – mit Ausnahme von AR4, als diese auf 2,0 bis 4,5 geändert wurde. Die Bereiche in Tabelle 1 sind allesamt 5% bis 95% Bereiche, soweit ich das beurteilen kann.

Tabelle 1. Verschiedene Schätzungen der ECS. Alle sind theoretische Berechnungen mit Ausnahme von Lewis und Curry, deren Schätzung auf Beobachtungen beruht:

Tausende von Wissenschaftlern und Milliarden von Dollar später haben wir also immer noch die gleiche theoretische Unsicherheit über die Auswirkungen von CO2 auf das Klima. Die einzige empirische Schätzung der ECS, die gezeigt wird, liegt bei etwa 1,5°C. Die meisten dieser empirischen Schätzungen liegen unter 2°C und gruppieren sich um 1,5°C bis 1,6°C (Lewis & Curry, 2018). Die empirische Schätzung von Guy Callendar lag bei 2°C (Callendar, 1938) und die theoretische Schätzung von Arrhenius (Arrhenius, 1908) bei 4°C. Man kann also sagen, dass die gesamte Arbeit und das Geld, das seit 1938 aufgewendet wurde, um den Klimawandel dem Menschen zuzuschreiben, verschwendet wurde.

[Hervorhebung vom Übersetzer]

Wird es nun besser? Wie steht es mit der neuesten Generation theoretischer Modelle, CMIP6? Erste Anzeichen deuten darauf hin, dass die Ergebnisse nicht besser, sondern schlechter werden, wie Ron Clutz und John Christy berichten. Während die meisten der neuen Modelle absurd überhöhte Werte für die ECS zeigen, ist es interessant, dass die neueste Version des russischen Modells, INM-CM4, auf das ich in meinem vorherigen Beitrag Bezug genommen habe, jetzt eine ECS von 1,83 vorhersagt. Mit Ausnahme des INM-CM4 haben wir also seit 1938 keine Fortschritte gesehen. Wie meine verstorbene Großmutter Marie McCartney sagen würde, „ist das jetzt nicht einfach großartig?“.

This is a condensed excerpt, with minor modifications, from my new book, Politics and Climate Change: A History.

To download the bibliography, click here.

Link: https://wattsupwiththat.com/2020/11/12/modern-climate-change-science/

Übersetzt von Chris Frey EIKE




Analyse, Kritik und Hintergründe des Klima-Paradigmas

Das Buch „Das Klima-Paradigma: Kritik und Hintergründe. Versuch einer Metaanalyse.“ wurde bereits am 20.10.2020  im Blog die kalte Sonne mit einer Kurzbeschreibung und dem ausführlichen Inhaltsverzeichnis vorgestellt. Nach Auffassung des Autors könnte das Buch als Ergänzung zu dem fast gleichzeitig erschienenen Buch „Unerwünschte Wahrheiten: Was Sie über den Klimawandel wissen sollten“ dienen insofern, als das Thema in einen größeren und übergeordneten Zusammenhang gestellt wird: im Rahmen der Wissenschaftstheorie, der politischen Hintergründe und der psychologischen Strategien der Meinungsbildung und -manipulation. Die strittigen klimatologischen Fragen werden auch diskutiert – sogar mit Hinweis auf einige weniger bekannte Fakten –, aber zur Vertiefung ist auf jeden Fall „Unerwünschte Wahrheiten“ zu empfehlen.

Anlaß zu der Studie war für den Autor die überraschende Beobachtung, daß frühere Arbeitskollegen, durchwegs diplomierte bzw. promovierte Naturwissenschaftler, vorwiegend Physiker, das offizielle (d.h. vom IPCC, den Leitmedien und der Regierung vertretenen) „strikte Klimaparadigma“ i.w. als zutreffend akzeptierten und nicht grundsätzlich in Frage stellten. Es ist schon zu verwundern: in ihrem Fach oft ganz hervorragend, aber anscheinend nicht bereit, das messerscharfe Denken, die Fähigkeit zu Kritik und kritischer Distanz bei ihrer täglichen Arbeit auf allgemeine Themen der Medienberichterstattung und der Politik zu übertragen. Das mag zum einen damit zusammenhängen, daß Physiker heute immer mehr in der virtuellen Realität ihrer Theorien und Simulationsprogrammsysteme zuhause sind, zum andern im Studium kaum mehr logische Propädeutik [1], Methodologie und wissenschaftstheoretische Grundlagen [2] eingeübt werden. Schließlich stellt die (schon seit langem reduzierte Allgemein-)Bildung der sogenannten Gebildeten keinerlei Schutzschild mehr gegen die in der Informationsindustrie der Medien und politischen Propaganda verwendeten raffinierten Methoden der angewandten Psychologie dar. [5]

Der Begriff „Paradigma“ wurde bewußt in Abgrenzung zu „Theorie“ oder „Hypothese“ gewählt, um herauszuheben, daß es sich hierbei um eine Überschneidung von Naturwissenschaft, Politik, Medien und Ideologie und somit um ein vielfältiges soziologisches Phänomen handelt, in Anlehnung an den Wissenschaftshistoriker Thomas Kuhn [3], der Paradigma im soziologischen Sinn als „die ganze Konstellation von Meinungen, Werten, Methoden usw., die von den Mitgliedern einer gegebenen Gemeinschaft geteilt werden„, definiert hat.

In ähnlicher Weise könnte man auch von einem „Corona-Paradigma“ sprechen. Beiden ist gemeinsam die Kopplung von Sachebene und Handlungsebene, von Wissenschaft und Politik, wobei politische Entscheidungen so tief in die Wirtschaft, das Sozialleben und die Privatsphäre eingreifen, daß deren Verhältnis- und Verfassungsmäßigkeit bereits von Fachjuristen in Zweifel gezogen wurde. Dabei ist die Wissenschaft nicht mehr durchwegs „normal“, im Sinne reinen Erkenntnisgewinns, sondern „postnormal“, d. h. zunehmend im Griff politischer und wirtschaftlicher Interessen.

Aus Sicht des Autors haben sich zur nüchternen Beurteilung drei Kriterien bzw. Fragestellungen bewährt:

1.  „die herrschende Meinung ist die Meinung der Herrschenden“ (wird Karl Marx zugeschrieben);

2.  wird das Prinzip „audiatur et altera pars“ (es soll auch die andere Seite gehört werden) gröblich verletzt?; und

3.  „cui bono?“ (wer profitiert davon?).

Die vierfache Kritik des Autors betrifft:

1. den Reduktionismus, erstens die Hauptprobleme unserer Welt auf das Klima zu reduzieren und dabei u.U. schwerwiegendere Probleme in den Hintergrund zu rücken,  und

2. den Klimawandel kausal fast ausschließlich auf das Treibhausgas Kohlenstoffdioxid zurückzuführen;

3. die Intoleranz und Arroganz, mit der die Klimadiskussion als „settled“ (abgeschlossen) vertreten und abweichende Meinungen mit dem Etikett „Klimaleugner“ diskreditiert werden;

4. die überstürzte planwirtschaftliche „Klimapolitik“, die immense Kosten verursacht, aber zum Scheitern verurteilt ist.

Immer dann, wenn man Theorien, Paradigmen, Behauptungen, etc. vor sich hat und man entscheiden will, inwieweit es sich um wissenschaftlich Solides handelt, dann sind Abgrenzungskriterien der Wissenschaftstheorie angebracht.

Und in der Tat: Wenn man wissenschaftstheoretische Kriterien wie Konsistenz (Fehlen von Widersprüchen und Zirkelschlüssen), prinzipielle Falsifizierbarkeit, Validierung, Prognosefähigheit,  Ergebnisoffenheit u.a. ansetzt, dann kommen starke Zweifel an der Wissenschaftlichkeit des strikten Klimaparadigmas auf. Dieses zeigt vielmehr doktrinäre Züge, und zwar den Charakter einer pseudo-religiösen Doktrin mit ähnlichen Erscheinungsformen wie „Heiligen“ (Greta Thunberg), „Pilgerfahrten und Prozessionen“ (Fridays for Future), „Konzilen“ (Klimagipfeltreffen und Klimaverträge), „Untergangspropheten und Inquisitoren“ (Al Gore, Schellnhuber und Rahmstorf).

Der Autor schlägt als Alternative ein offenes Klimaparadigma vor, welches von den unwissenschaftlichen und  doktrinären Zügen des offiziellen „strikten“ Paradigmas gereinigt ist. Dieses „offene Klimaparadigma“ streitet zwar einen menschenverursachten Klimaeinfluß nicht ab, bewertet diesen aber auf Grund des noch nicht endgültig geklärten quantitativen Anteils nicht dogmatisch als dominierend gegenüber den natürlichen Anteilen; insbesondere legt es sich nicht auf ein monokausales Erklärungsmodell basierend allein auf Kohlenstoffdioxid fest, sondern ist offen für die unvoreingenommene Berücksichtigung auch anderer Einflußphänomene, wie z.B. Aktivitätsschwankungen der Sonne und ozeanische Zyklen, u.a. In diesem Sinne ist das offene Klimaparadigma in sich konsistent und wissenschafts-theoretisch solide. Dem offenen Klimaparadigma kommt die Sicht von Vahrenholt/Lüning in „Die kalte Sonne“ und „Unerwünschte Wahrheiten“ nahe. Ein Unterschied besteht nur darin, daß das offene Paradigma im streng wissen-schafts- und erkenntnstheoretischen Sinn nicht von festen „Wahrheiten“ spricht, denn es muß prinzipiell offen bleiben für die Möglichkeit neuerer Erkenntnisse und Revisionen bisher als „wahr“ vermuteter Einsichten.

Das Buch enthält ein Kapitel „Wissenschaftlichkeit des (strikten) Klimparadigmas?“, in dem u.a. die Behauptungen der Einmaligkeit der Schnelligkeit und des Ausmaßes der Klimaerwärmung, der angeblichen Zunahme von Extremwetterereignissen, der Gefährlichkeit des Meeresspiegelanstiegs und Abtauens der Gletscher und des Permafrostbodens, etc. in Frage gestellt und auf widerlegende Fakten aus der Fachliteratur Bezug genommen werden. Leider konnte das erst kürzlich erschienene Fachbuch „Unerwünschte Wahrheiten“ nicht mehr berücksichtigt werden. Es ist sehr zu empfehlen, dieses zu den genannten Fragen zusätzlich als kompetente Quelle zu Rate zu ziehen.

Seiner Kritik stellt der Autor drei konstruktive Forderungen entgegen:

1. Rückbesinnung auf wissenschaftsethische Grundsätze statt doktrinärer Ausgrenzung;

2. systemisch-holistische statt reduktionistische Sichtweise;

3. mehr ökologische statt rein technokratische Lösungsansätze.

Systemisch-holistisch gesehen sind die wesentlichen Problemkomplexe unserer Welt: die immer noch wachsende Überbevölkerung, die Ausbeutung und Erschöpfung der Ressourcen durch verschwenderische Wachstumswirtschaft, die Umweltzerstörung und die massenhafte Ausrottung von Tier- und Pflanzenarten und Ökosystemen. Diese Weltprobleme werden im Buch auch in angemessener Kürze behandelt, da sie durch die einseitige Konzentration auf das Klima sonst immer mehr aus dem Blick verschwinden.

Das strikte Klimaparadigma wird von Medien und Politikern mit psychologischen Mitteln in die Köpfe der Menschen eingepflanzt (Stichworte: Framing, Astroturfing, Angstmache, instrumenteller Moralismus, Gleichrichtung der Medien, Grünwäsche, etc.). Die über-politischen Hintergründe, aktuell auch unterstrichen durch die Corona-Krise, aber geben zu dem starken Verdacht Anlaß, daß es den Vertretern des Klima-(bzw. Pandemie-)alarmismus weniger um eine „Rettung“ des Klimas (bzw. der Menschen) geht als um die Durchsetzung einer dirigistischen „Großen Transformation“ der gesamten Gesellschaft.

Das sind „postdemokratische“ Verhältnisse, wo die Rangfolge – das Volk ist Souverän und die gewählten Politiker sind dem Souverän Rechenschaft schuldig – auf den Kopf gestellt ist.

Dies muß man auch bei der Klimadebatte und –politik im Auge behalten. Selbst wissenschaftlich fundierte Auffassungen, die nicht auf der Linie des offiziellen Paradigmas liegen, werden entweder ignoriert oder mit dem Stigma „Klimaleugner“ diffamiert.

Auf dem unsicheren Boden des „postfaktischen“ Konstrukts einer auf „postnormale“ Wissenschaft gestützten „Klimakrise“ soll aber mit „postdemokratischen“ Mitteln eine „Klimapolitik“ zusammen mit einer großen gesellschaftlichen Umwälzung durchgesetzt werden.

Bedächtiges Handeln auf der Grundlage vernetzten Denkens, das verantwortungsethisch und ökonomisch sämtliche Kol-lateralwirkungen und Spätfolgen einbezieht, ist unerläßlich, um der Spirale der „Logik des Mißlingens“ (Dörner [4]) zu entgehen, in die vor allem die deutsche „Energiewende“-Politik verfangen ist.  Entsprechend sind Maßnahmen sowohl zur Anpassung an unvermeidliche Klimaänderungen (zu der nicht nur Wärme-, sondern auch Kältephasen gehören), als auch zur Vermeidung von Umweltschädigungen und Ressourcenerschöpfung notwendig. Einige Leitlinien als einzuhaltendes „ökologisches Minimum“ werden vorgeschlagen.

Der Autor vertritt die These: Das Klima ist nicht das Weltproblem Nummer eins, sondern allenfalls ein die globale Krise verschärfendes Teilproblem. Die aufgehäuften Weltprobleme sind riesig, aber sie lassen sich weder allein auf eine „Klimakrise“ reduzieren, noch durch eine einseitige Politik der „Klimarettung“ lösen.

Die umfangreichen Recherchen des Autors umfassen weit über 500 Quellen – Bücher, Fachpublikationen, Videos und Zeitschriftenartikel –, die thematisch gegliedert und zum großen Teil, allerdings nur in der E-Buch-Version, direkt über Internet-Hyperlinks zugänglich sind und zur weiteren Vertiefung anregen sollen. (funktioniert z.Zt. in der bei Thalia verfügbaren Version, aber noch nicht bei Amazon)

Die Recherchen führten auch zu einigen i.a. weniger bekannten Fakten:

Z.B. gibt es nicht nur die eine Hockeystick-Kurve von Michael Mann et al, sondern eine ganze Reihe solcher Hockeystick-Kurvenverläufe, die dadurch zustande kommen, daß die aus Proxydaten von Eisbohrkernen gewonnenen CO2-Konzentrationen und daraus abgeleiteten Temperaturwerte früherer Zeiten meßtechnisch bedingt zu niedrig sind und daher nach Anstückelung in neuerer Zeit direkt gemessener Daten der Anstieg überbetont erscheinen muß. Darauf hat der Forscher Jaworowski hingewiesen, wie er auch einen der größten Betrugsskandale aufgedeckt hat, nämlich die willkürliche Umdatierung von Eiskerndaten um 83 Jahre, damit sie nicht der vorgegebenen Doktrin widersprechen.

Ein weiteres Beispiel stammt von dem schwedischen Meeresspiegelforscher Prof. Mörner: auf einer Malediven-Insel die absichtliche Beseitigung eines offenkundigen Beweisstücks (ein seit Jahrzehnten stehengebliebener Baum) dafür, daß die Malediven keineswegs durch alarmierenden Meeresspiegelanstieg gefährdet sind.

Wenig bekannt dürfte auch das Konzept der „positiven Fußabdrucks“ der C2C-Denkschule (C2C = „cradle-to-cradle“) sein – der sich schon Industrieunternehmen angeschlossen haben –, mit dem ganz an der Ökologie orientierten Leitbild und Ziel einer Wirtschaft mit geschlossenen Stoffkreisläufen, in denen möglichst überhaupt keine nutzlosen Abfälle mehr vorkommen.

Da der Schwerpunkt des Buchs in der Analyse der Hintergründe liegt, wurde die Behandlung konkreter Lösungsansätze weitgehend ausgeklammert. Diese Lücke läßt sich großenteils füllen durch das Kapitel IX: Energie für eine nachhaltige Zukunft in „Unerwünschte Wahrheiten“, wo u.a. die Wasserstofftechnologien und die neue Generation der Kernenergietechnologie, gekennzeichnet durch die Rückführung des Brennstoffmülls in den Brennstoffkreislauf, verständlich erklärt werden.

Somit kann „Das Klima-Paradigma“ einerseits als Ergänzung zu „Unerwünschte Wahrheiten“ gelesen werden, und umgekehrt empfiehlt sich letzteres zur Ergänzung und Vertiefung des ersteren.

Literaturhinweise:

[1] Kamlah/ Lorenzen (1996 ff.): Logische Propädeutik, Vorschule des vernünftigen Redens,

[2] Bunge/ Mahner (2004): Über die Natur der Dinge. Materialismus und Wissenschaft,
(Kap. 6.2  Die Charakterisierung von Wissenschaft)

[3] Thomas Kuhn (10. Aufl., 1989): Die Struktur wissenschaftlicher Revolutionen,

[4] Dietrich Dörner (15. Aufl. 2018): Die Logik des Mißlingens. Strategisches Denken in komplexen Situationen.

[5] Daniele Ganser: Propaganda – Wie unsere Gedanken und Gefühle gelenkt werden,
Vortrag (am 10.03.2019 in Berlin): https://www.youtube.com/watch?v=ooM3rrBoiBA

 

Das Buch Das Klima-Paradigma: Kritik und Hintergründe. Versuch einer Metaanalyse des Autors ist als Taschenbuch (€ 9,80) und gebundene Ausgabe (16,80) erhältlich

Der Beitrag erschien zuerst bei „Die kalte Sonne“ hier




Klimafaktenverschweiger im Deutschlandfunk: Der „Zweifler“ bleibt

Unter dem Titel „Klimafaktenleugner: Der Zweifler bleibt“ setzten sich Sophie Stigler und Volker Mrasek im Deutschlandfunk (DLF) am 11.10.2020 zur besten Sendezeit mit dem neuen Buch von Fritz Vahrenholt und Sebastian Lüning auseinander, aber auch mit EIKE und mit der Bundestagsanhörung von Horst-Joachim Lüdecke. Die Klimarealisten sind also offenbar nicht mehr zu ignorieren. Nur leider zieht sich die Reportage in weiten Teilen auf folgendes Muster zurück: Anstelle sich mit Sachargumente der klimarealistischen Fachwissenschaftler auseinanderzusetzen, diskreditiert sie deren wissenschaftliche Reputation, so dass nur obskure „Zweifler“, nicht aber sachliche „Zweifel“ übrig bleiben. Hochkomplexe naturwissenschaftliche Probleme können damit scheinbar reduziert werden auf soziologische und politische. Entsprechend wurden die Experten ausgewählt, die in der Reportage zu Wort kommen.

Angesichts der Weiterentwicklung der realistischen Klimawissenschaft offenbart die Reportage mit dieser Strategie eine gewisse Verzweiflung der Alarmisten. Schopenhauer beschreibt sie in seiner eristischen Dialektik [1] so:


Letzter Kunstgriff

Wenn man merkt, daß der Gegner überlegen ist und man Unrecht behalten wird, so werde man persönlich, beleidigend, grob. Das Persönlichwerden besteht darin, daß man von dem Gegenstand des Streites (weil man da verlornes Spiel hat) abgeht auf den Streitenden und seine Person irgend wie angreift: man könnte es nennen argumentum ad personam, zum Unterschied vom argumentum ad hominem: dieses geht vom rein objektiven Gegenstand ab, um sich an das zu halten, was der Gegner darüber gesagt oder zugegeben hat. Beim Persönlichwerden aber verläßt man den Gegenstand ganz und richtet seinen Angriff auf die Person des Gegners: man wird also kränkend, hämisch, beleidigend, grob. […]

Die DLF-Reportage liegt in einer vorab veröffentlichten Textfassung vor sowie in einer Hörfassung, die am 11.10.2020 um 16.30 Uhr ausgestrahlt wurde und dem Text fast exakt entspricht. Man erhält sie durch Klicken des Pfeils unten links auf dem Titelbild.

Anhand einiger Beispiele zeigt dieser Kommentar, wie die DLF-Reportage sich der Sachdiskussion entzieht, indem sie den oben genannten Kunstgriff einsetzt. Ironischerweise treffen die DLF-Kritikpunkte damit oft mehr auf die Reportage selbst zu als auf die Objekte ihrer Kritik.

Das Titelbild der DLF-Reportage zeigt eine Malediven-Insel mit der Bildunterschrift:

Wenn die Prognosen von Klimawissenschaftlern zutreffen, haben die Einwohner der Malediven ein existenzielles Problem. Wenn die Prognosen von Klimaskeptikern“ zutreffen, nicht. Wer hat Recht?

Die Malediven, eine Inselgruppe im Indischen Ozean, mit über 1000 Inseln, die sich über sieben Breitengrade erstrecken, waren nie vom Meeresspiegelanstieg bedroht. Zahlreiche Arbeiten des schwedischen Ozeanographen Niels-Axel Mörner zeigen dies [2]. Mörner leitete viele Jahre ein Projekt auf den Malediven und stellte wiederholt und bis heute fest, dass Pegelmessungen dort keinerlei Meeresspiegelanstieg erkennen lassen (früher war der Wasserstand dort sogar höher, was an einem Baum erkennbar war). Der scheinbar alarmierende Anstieg, der für diese und andere Gebieten der Erde immer wieder berichtet wird, ist ein Artefakt, um nicht zu sagen, eine Manipulation der Satellitenmessung [3].  Bitte lesen Sie wenn möglich die Arbeitsberichte von Mörner im Original und urteilen Sie selbst, wer Recht hat. Wer dann immer noch den Alarmisten glaubt, sollte sich aber fragen, warum – völlig furchtlos vor einer prognostizierten Überschwemmung – auf den Malediven derzeit verstärkt künstliche Lagunen aufgeschüttet und neue Ferienanlagen gebaut werden.

 

Der DLF ignoriert trotz vielfältiger Widerlegung (z,B. hier, hier, hier), dass es keinen Konsens in der Klimaforschung gibt, und leugnet das Expertentum kritischer Wissenschaftler:

Stigler: In den USA – das ist sozusagen das Extrembeispiel – da sitzt ein Präsident im Weißen Haus, der gerne auch mal die gesamte Erderwärmung leugnet. In Deutschland sind Stimmen gegen den wissenschaftlichen Konsens leiser, und sie kommen eher vom Spielfeldrand als vom Schiedsrichter. Aber sie werden lauter, die Netzwerke werden größer. Warum gibt es diese Stimmen eigentlich immer noch? Warum stellen sich zum Teil auch Wissenschaftler hin und sagen Dinge wie: „Ja, das sagen zwar so gut wie alle Klimafachleute – aber die haben alle unrecht, ich weiß es besser. Obwohl ich kein Klimaexperte oder Expertin bin.“ Warum?

Ja, warum? Vielleicht, weil die Argumente eben gerade nicht seit Langem widerlegt sind? Weil die klimarealistische Fachwissenschaft Fortschritte macht? Weil sie immer noch erwartet, dass jemand von der anderen Seite mal sachlich auf ihre Daten und Argumente antwortet? (Dass die Schiedsrichter-Metapher für die Wissenschaft grundsätzlich fehl geht, sei nur am Rande bemerkt). Vielleicht ist das „Warum“ aber auch nur ein dialektischer Kunstgriff.

An dieser Stelle erscheint in der Textversion der DLF-Reportage zentral der Hinweis auf die kürzlich erschienenen „Basisfakten des Klimawandels“ des so genannten „Deutschen Klima-Konsortiums“:

Eine Zusammenfassung der bisherigen Erkenntnisse zu Klimawandel und Erderwärmung ist nachzulesen auf der Website Basisfakten zum Klimawandel, die das Deutsche Klimakonsortium erstellt hat. Sie entspricht dem Erkenntnisstand der überwältigenden Mehrheit aller mit dem Thema befassten Experten und Expertinnen. „Alternative“ Gegenmeinungen zu diesen Kernfakten stammen erstens überwiegend von Personen mit nicht ausgewiesener Fachexpertise. Und zum zweiten handelt es sich – trotz der gelegentlich erzielten Öffentlichkeitswirkung – um klare Minderheitsmeinungen. Der – laut überwältigender Mehrheit der Wissenschaftlerinnen und Wissenschaftler mit Fachexpertise – eingetretene „menschgemachte“ Klimawandel hat bereits konkrete Auswirkungen auf Wetterphänomene.

Interessant, dass gerade vor wenigen Tagen eine sehr gut begründete und belegte Widerlegung dieser „Basisfakten“ von Horst-Joachim Lüdecke ins Netz gestellt wurde. Bezeichnend, dass die Autoren der DLF-Reportage diese nicht kennen (oder nicht zu kennen vorgeben). Klar, Lüdecke soll als „Person mit nicht ausgewiesener Fachexpertise“ eingestuft und Hörer davon abgehalten werden, sie zu lesen. Denn weiter unten geht die Reportage näher auf ihn ein, und zwar so:

Klimafaktenleugner als „Experten“ im Umweltausschuss

Auf Lüdeckes Namenskärtchen vor ihm steht noch nicht mal, zu welcher Organisation er gehört oder wie man ihn einordnen soll. Wenn da etwas stehen könnte, dann würde da wahrscheinlich „Pressesprecher von EIKE“ stehen oder „Physiker mit Fachgebiet Strömungsmechanik“. 

Zum Vergleich: Obwohl Friedrich Nietzsche Professor für Gräzistik war, wird er von der Gesellschaft anhand seiner Schriften fraglos als Philosoph eingestuft. Lüdecke hat in den letzten Jahren bislang 10 internationale begutachtete Fachpublikationen in der Klimawissenschaft (mit)verfasst. Fraglos sollte auf seinem Namenskärtchen also „Klimawissenschaftler“ stehen. Man muss ihn also ernst nehmen. Aber das würde dem DLF und anderen Medien ihre Dialektik zerstören.

Lüdecke kritisiert nicht nur die Zusammensetzung des „Deutschen Klimakonsortiums“ (es fehlen die renommiertesten Klimaforschungsinstitute wie das Alfred-Wegener-Institut, und stattdessen ist der private Blog klimafakten.de dabei), sondern widerlegt vor allem gut belegt die folgenden Behauptungen des „Deutschen Klimakonsortiums“:

  • Der globale  Temperaturverlauf der letzten 2000 Jahre bis zu Beginn der Industrialisierung 1850 sei, von geringfügigen natürlichen Schwankungen abgesehen, weitgehend konstant verlaufen und hätte erst danach eine gleichsam explosionsartige Steigerung bis heute durchgemacht (Hockey-Stick-Kurve).
    => FALSCH
  • Seit den 1980er Jahren war jede Dekade wärmer als die vorherige und wärmer als alle vorangegangenen Jahrzehnte seit 1850 (offenbar als Beleg der 2-ten KLIMS-Kernaussage „Wir sind die Ursache“ gemeint).
    => formal korrekt, aber FRAGWÜRDIG
  • Meereis und Festland-Eis schwinden dramatisch.
    => FRAGWÜRDIG
  • Bestimmte Typen von Extremwetter-Ereignissen haben weltweit deutlich zugenommen.
    => FALSCH
  • Regional sinken Ernteerträge.
    => in der Allgemeinheit und mit Bezug auf Klimawandel FALSCH

Der ausführliche Text samt Belegen findet sich hier.

Aber zurück zur Reportage. Auf Lüdecke bei der Bundestagsanhörung im Umweltausschuss geht sie noch weiter ein:

Stigler: Also; alle diskutieren über ein komplexes Thema – nur einer sagt: Wir brauchen hier gar nicht zu reden, wir brauchen keine Grenzwerte und auch keinen Klimaschutz. Und das Interessante an der Anhörung ist: Alle Abgeordneten ignorieren ihn einfach – bis auf die von der AfD natürlich. Und das ist wohl nicht nur in den Anhörungen so, sagt Lukas Köhler:
„Also, ich sage mal, jeder darf seine Meinung vertreten. Aber ich habe natürlich auch das Recht, diese Meinung für mich zu bewerten. Und wenn da nichts Spannendes kommt, nichts Interessantes kommt, dann ignoriere ich das auch gerne mal.“ Das führt dazu, dass die AfD mit ihren Experten spricht und die restlichen Fraktionen mit den anderen. Köhler: „Die AfD ist raus aus dem Diskurs. Also wenn ich nicht im Diskurs teilnehmen will, muss sich nicht wundern, wenn ich dann auch nicht teilnehme.“

Lukas Köhler, der FDP-Obmann im Umweltausschuss, ist Philosoph. Welche klimawissenschaftliche Expertise befähigt ihn also, die Argumente von Lüdecke zu beurteilen? Ach, ich vergaß, das ist ja Teil der Dialektik. Ein Philosoph ist besser geeignet, die gesellschaftliche Problematik wissenschaftlich unerwünschter Mindermeinungen anzugehen als jemand, der die Argumente begreifen könnte. Lüdecke verlangte nämlich in der Anhörung, doch zunächst mal zu überprüfen, ob das CO2 wirklich die vom Weltlimarat (IPCC) seit Jahrzehnten behauptete, jedoch niemals bewiesene Wirkung hätte. Nach William von Ockham (Ockhams Rasiermesser oder Gesetz der Parsimonie) ist auch in den Naturwissenschaften zunächst nach den einfachsten Erklärungen zu suchen. Und die seien erfahrungsgemäß fast immer die richtigen. Auf die Temperaturerhöhung der letzten 150 Jahre angewendet, bedeutet dies, sie zunächst mit früheren natürlichen Variationen des Klimas zu vergleichen. Tut man dies, dann stellt man fest, dass die Änderungen der letzten 150 Jahre sich sehr genau innerhalb der natürlichen Variationen des Klimas bewegen. Eine zusätzliche Wirkung des CO2 braucht es dazu nicht. Diese und andere Argumente hatte Lüdecke zuvor in einem umfangreichen Statement den Ausschussmitgliedern zur Verfügung gestellt (hier).

Wer entzieht sich hier also dem Diskurs?

Nächster „Experte“ in der DLF-Reportage ist der Politikwissenschaftler Dieter Plehwe:

„Eine Gruppe von älteren weißen Männern, die aus dem Spektrum von Ingenieurswissenschaften insbesondere kommen, also schon eine gewisse Nähe zu den Naturwissenschaften haben, aber auch keine Klimaforscher sind im eigentlichen Sinne und eben auch in diesen Bereichen nie in der akademischen Welt etwas publiziert haben oder da irgendeine Anerkennung haben. Aber eben mit einem Habitus auftreten, dass man den Eindruck hat: Die sind die absoluten Experten in dem Gebiet.“

Vermutlich zielt diese Beschreibung gegen das weiter oben in der Reportage schon erwähnte Europäische Institut für Klima und Energie (EIKE). Es ist nicht nur seit 2015 aktiver geworden und veröffentlichen mehr“, sondern EIKE veröffentlicht sogar täglich mehrere Blog-Beiträge, und das seit 2009. Aber klar: Männlich, alt, weiß, AfD – die darf man nicht ernst nehmen. Dass das vielleicht aber auch einfach Menschen sind, die aus Verantwortung für das Fortbestehen unserer Gesellschaft ihre Freizeit investieren und keinen beruflichen Repressionen mehr unterliegen? Ein Schelm, der Böses dabei denkt. Denn setzt man ganz auf erneuerbare Energien, wie Deutschland es tut, ist es mit ein paar „Einschränkungen für die Wirtschaft“ nicht getan. Dann kann keine produktive Wirtschaft und kein Wohlstand in Deutschland mehr existieren. Wer diese Aussage anzweifelt, dem sei das kürzlich erschienene Buch [4] des Klimawissenschaftlers Lüdecke empfohlen, in dem in aller Kürze, aber gut belegt und zum Nachrechnen genau das bewiesen wird.

Als weiterer „Experte“ tritt im DLF stattdessen der US-Umweltsoziologe Riley Dunlap in der Reportage auf, der die psychologischen Motive der alten weißen männlichen Zweifler analysiert:

„Einige von ihnen haben eine Zeitlang gutes Geld verdient, andere sind von ihrer Persönlichkeit her echte Querköpfe. Und dann gibt es noch Leute, die nur eine mittelmäßige Karriere gemacht haben, jetzt aber Stars in der Welt der Leugner sind. Sie werden oft von konservativen Denkfabriken gesponsort. Man lädt sie zu Vorträgen ein, die Medien zitieren sie. Einige sind in den Filmen aufgetreten, die den Klimawandel leugnen und fühlen sich buchstäblich wie Berühmtheiten.“

Purer Narzissmus also. (Bei den hehren Mainstream-Klimawissenschaftlern gibt es so etwas natürlich gar nicht.) Aber wissen die DLF-Journalisten und ihre „Experten“ eigentlich, dass gerade jüngere Fachwissenschaftler/innen immer mehr hochrangige Arbeiten zu natürlichen Ursachen des Klimawandels publizieren (Beispiel: zwei junge Wissenschaftlerinnen, eine vom Alfred-Wegener-Institut, führen den Dürresommer 2018 auf natürliche Ursachen zurück [5])? Natürlich nicht, denn dann müsste man sich das ja ernsthaft ansehen.

Vahrenholt und Lüning haben in ihrem neuen Buch „Unerwünschte Wahrheiten“ [6] genau das getan: Eine unglaubliche Zahl, mehrere Tausend, klimarealistische Facharbeiten populärwissenschaftlich aufbereitet und in einen verständlichen Zusammenhang integriert. Die DLF-Reportage geht ausführlich auf dieses neue Buch ein. Nicht zuletzt wegen des Umfangs der wissenschaftlichen Quellen stellt es offenbar eine Bedrohung für die dialektische Strategie der Mainstream-Medien dar. Nach ausführlicher Beschäftigung mit scheinbar offenen Fragen:

„Stigler: In dem 350-Seiten-Buch sind auch enorm viele Literaturverweise, und zwar viele zu echten Klimastudien aus Fachzeitschriften – da hat man sich auf jeden Fall Mühe gegeben, dass es wissenschaftlich aussieht. Frage ist: Ist es das auch?“

lautet das abschließende Urteil des DLF:

„Rosinenpickerei und Fehler beim Studien-Zitieren.

Was durchgängig auffällt: Die Autoren betreiben das, was man „cherry picking“ nennt, also Rosinenpickerei: Es werden vor allem die Studien zitiert, die ihnen bei ihrer Argumentation in den Kram passen.“

Wie schon gesagt, das ganz große Verdienst des Buches ist es, diese Studien überhaupt erst einmal bekannt gemacht und verständlich in einen Zusammenhang integriert zu haben. Die Studien der Mainstream-Forscher werden dem naiven Leser ja täglich von Spiegel, FAZ, Süddeutscher u.v.m. vorgesetzt. Da erwartet auch niemand „Ausgewogenheit“.

An einer Stelle der DLF-Reportage scheint es so, als ob zu diesem Buch ausnahmsweise auch ein echter Klima-Experte sein Urteil abgibt:

„Das gilt zum Beispiel für Jochem Marotzke; er ist Direktor am Max-Planck-Institut für Meteorologie in Hamburg. Hier sein Eindruck: „Es ist die übliche Mischung aus einigen wenigen korrekt dargestellten Sachen, vielen Verdrehungen, vielen Sachen, die aus dem Zusammenhang gerissen sind, und vielem, was einfach falsch ist. Insofern nichts Überraschendes. Ich hab viel Zeit damit verbracht, die Kalte Sonne damals zu lesen und ich möchte mir nicht noch einmal antun, so etwas zu lesen.“

Wie bitte? Er hat das Buch nicht gelesen? Wie kommt er dann zu diesem Eindruck? Vielleicht hat er ihn einfach aus Lüdeckes oben genannter Widerlegung der „Basisfakten“ des Klimakonsortiums abgeschrieben? Da stehen nämlich fast dieselben Worte. Nur mit dem Unterschied, dass Lüdecke die „Basisfakten“ erkennbar gelesen hat, Marotzke die „Unerwünschten Wahrheiten“ nach eigener Aussage aber nicht. (Wer also seriöser arbeitet, mag der Leser selbst entscheiden.)

Die prominent hervorgehobenen „Fehler beim Studien-Zitieren“ werden mit „nur einem Beispiel“ verdeutlicht.

„Vahrenholt und Lüning schreiben, dass ein einziger inaktiver Vulkan auf Island für 4% der weltweiten CO2-Emissionen verantwortlich sei – da denkt man natürlich: Was, so viel kommt aus einer einzelnen natürlichen Quelle?! Schaut man sich dann die zugrundeliegende Studie an, dann steht da wirklich: Der Vulkan ist bloß für 4% der CO2-Emissionen aller inaktiven Vulkane verantwortlich, das ist also eine völlig vernachlässigbare Menge.“

Oh je, denkt man. Aber die Autoren haben schon ein Korrigendum veröffentlicht für diese im Zusammenhang korrekte, aber offenbar missverständlich formulierte Aussage über den Vulkan Katla. Fair wäre es also, wenn auch der DLF seine Behauptung über „Fehler beim Studien-Zitieren“ zurücknehmen würde.

Als weiteres Argument, die Autoren grundsätzlich nicht ernst zu nehmen, wird (mal wieder) angeführt, dass die prognostizierte Temperaturentwicklung aus ihrem Vorgängerbuch „Kalte Sonne“ nicht eingetreten sei. Nach diesem Kriterium wären sämtliche Klimamodelle des IPCC nicht ernst zu nehmen, denn auch deren Prognosen sind noch niemals eingetreten. Aber es ist klar, dass mit zweierlei Maß gemessen werden muss, will man die einen diskreditieren und die anderen überhöhen.

Aus Platzgründen kann hier nicht auf alle weiteren fachlich leicht kritisierbaren Punkte der DLF-Reportage eingegangen werden. Nur noch so viel:

Es überrascht schließlich nicht, dass der DLF die beiden Autoren Vahrenholt und Lüning wiederum nicht als Klimawissenschaftler vorstellt, sondern

Fritz Vahrenholt, promovierter Chemiker, in den 1990er Jahren Umweltsenator für die SPD in Hamburg. Wechsel in die Energiewirtschaft, zuerst zur deutschen Tochter des Öl- und Gaskonzerns Shell, dann als Vorstandschef zu einem Windkraftanlagen-Hersteller.[…]

Sebastian Lüning, Geowissenschaftler, hat mehrere Jahre in der Forschung gearbeitet, seit vielen Jahren aber in der Energiewirtschaft, und zwar bei der Suche nach neuen Öl- und Gasvorkommen (in Afrika und Südamerika). Mit dem Klimawandel beschäftigt er sich nach eigenen Angaben ausschließlich privat.[…]

„Klimawissenschaft“ ist kein Studienfach. Klimawissenschaftler setzen sich interdisziplinär zusammen. Die vom DLF ausführlich diskreditierten „Zweifler“ sind Lüning (29 internationale peer reviewed klimawissenschaftliche Fachpublikationen) und Lüdecke (10 internationale peer reviewed klimawissenschaftliche Fachpublikationen). Die Experten, die Stigler und Mrasow als Experten interviewen, sind der Philosoph Köhler, der Sozialwissenschaftler Plehwe und der Soziologe Dunlap. Ja, vor so viel Klima-Expertise muss man die Segel streichen.

Was empfiehlt Schopenhauer als Gegenmittel gegen diesen letzten Kunstgriff der eristischen Dialektik, das argumentum ad personam?

Die einzig sichere Gegenregel ist daher die, welche schon Aristoteles im letzten Kapitel der Topica gibt: Nicht mit dem Ersten dem Besten zu disputieren; sondern allein mit solchen, die man kennt, und von denen man weiß, daß sie Verstand genug haben, nicht gar zu Absurdes vorzubringen und dadurch beschämt werden zu müssen; und um mit Gründen zu disputieren und nicht mit Machtsprüchen, und um auf Gründe zu hören und darauf einzugehn; und endlich, daß sie die Wahrheit schätzen, gute Gründe gern hören, auch aus dem Munde des Gegners, und Billigkeit genug haben, um es ertragen zu können, Unrecht zu behalten, wenn die Wahrheit auf der andern Seite liegt. Daraus folgt, daß unter Hundert kaum Einer ist, der wert ist, daß man mit ihm disputiert. Die Übrigen lasse man reden, was sie wollen, denn desipere est juris gentium, und man bedenke, was Voltaire sagt: La paix vaut encore mieux que la vérité; und ein arabischer Spruch ist: »Am Baume des Schweigens hängt seine Frucht der Friede.

[1] Arthur Schopenhauer (Autor), Julius Frauenstädt (Hrsg.): Aus Arthur Schopenhauers handschriftlichen Nachlaß. Abhandlungen, Anmerkungen, Aphorisimen und Fragmente. Leipzig 1864, S. 3-43..

[2] Mörner, N. A. (2011). The Maldives: A measure of sea level changes and sea level ethics. Evidence-Based Climate Science, Elsevier, 197-209.

[3] Mörner, N. A. (2017). Sea level manipulation. International Journal of Engineering Science Invention, 6(8), 48-51.

[4] Lüdecke, H.-J. (4. überarbeitete Auflage 2020). Energie und Klima. Chancen, Risiken, Mythen. Expert-Verlag, Tübingen. ISBN 978-3816934851. Mit einem Geleitwort von Arnold Vaatz MdB.

[5] Ionita, M., & Nagavciuc, V. (2020). Forecasting low flow conditions months in advance through teleconnection patterns, with a special focus on summer 2018. Scientific reports, 10(1), 1-12.

[6] Vahrenholt, F. & Lüning, S. (2020). Unerwünschte Wahrheiten: Was Sie über den Klimawandel wissen sollten. Langen Müller Verlag München.




Der Westen beabsichtigt Energie-Selbstmord: Wird das Erfolg haben?

Der Indizienbeweis für gesellschaftlichen Selbstmord

Das erste Beweisstück ist ein erstaunlicher Artikel, der letzte Woche in der Boston Review von einem Professor für Anthropologie an der Rutgers University veröffentlicht wurde. Der gute Professor meinte, dass Simbabwe und Puerto Rico „Modelle für das liefern, was wir als ‚Stillstands‘-Elektrizität [pauseful electricity] bezeichnen könnten“. Der Westen, so fuhr er fort, habe eine riesige Infrastruktur für die Erzeugung und den Verbrauch von Elektrizität rund um die Uhr und an 365 Tagen im Jahr geschaffen. Da diese auf „den Planeten zerstörenden fossilen Brennstoffen und Atomkraft“ beruht, müssen wir den oben genannten armen Ländern nacheifern und das Klima retten, indem wir die Nachfrage nach der konstanten Versorgung mit Elektrizität aufgeben.

Fairerweise muss man aber auch den Professor mit den Worten zitieren, dass die Simbabwer und Puerto-Ricaner die Stromrationierung nicht akzeptiert haben, sondern durch die grobe Fahrlässigkeit und Korruption ihrer Regierungen aufgezwungen wurden. Der Professor kann nicht leichtfertig entlassen werden, und die Boston Review teilt ihren Sitz mit dem MIT und der Harvard-Universität, den Tempeln der Weisheit in der modernen westlichen Zivilisation. Und die Zeitschrift hat ihren Anteil an Anerkennung, zumindest für diejenigen, die einer bestimmten Überzeugung angehören: „Wenn es darum geht, neue und generative Ideen zu veröffentlichen, ist der Boston Review enmalig“, so Robin D. G. Kelley, Professor für Amerikanische Geschichte an der Universität von Kalifornien, Los Angeles. Und Naomi Klein, Aktivistin und Bestsellerautorin der New York Times, meint: „Der Boston Review ist im Moment so gut.“

Kommen wir nun zu unserem zweiten Beweisstück, diesmal von der anderen Seite des Komplexes „Klima-Notstand“. Professor Fritz Vahrenholt ist ein Gigant in der Umweltszene von Deutschland. (Das Land ist bekanntlich der weltweit führende nationale Vorkämpfer für alles, was mit Umwelt zu tun hat und dafür, dass Europa sich für „Netto-Null-Emissionen bis 2050“ einsetzt). Prof. Vahrenholt ist promovierter Chemiker und begann seine berufliche Laufbahn im Umweltbundesamt in Berlin (zuständig für die chemische Industrie), bevor er ins hessische Umweltministerium wechselte. Von 1984 bis 1990 war er Staatssekretär für Umwelt, von 1991 bis 1997 Minister für Energie und Umwelt des Landes Hamburg.

Einen Tag vor der Veröffentlichung des Artikels im Boston Review am 5. Oktober erklärte Prof. Vahrenholt in einem deutschen Fernsehinterview klipp und klar, dass die Klimawissenschaft „politisiert“, „übertrieben“ und voller „Phantasie“ und „Märchen“ sei. Er verkündete: „Das [Pariser] Abkommen ist bereits tot. Putin sagt, es sei Unsinn. […] Die Amerikaner sind draußen. Die Chinesen müssen gar nichts tun. Es ist alles auf eine Handvoll europäischer Länder konzentriert. Die Europäische Kommission steckt massiv mit drin. Und ich sage voraus, dass sie die Ziele nur erreichen wird, wenn die europäischen Industrien zerstört werden“. Er beschimpfte Deutschland als ein Land, „das die breitere globale Debatte über die Klimawissenschaft verleugnet“. Weiter charakterisierte er Europas jüngsten Vorstoß für noch strengere Emissions-Reduktionsziele als Wahnsinn, der mit der sowjetischen Planwirtschaft vergleichbar sei, die zum spektakulären Scheitern verurteilt sei.

Das materielle Beweismaterial

In diesem Stadium könnte der Verteidiger gegen den Vorwurf des gesellschaftlichen Selbstmordes durchaus vor den vorsitzenden Richter springen und sagen: „Genug, Euer Ehren, das sind nur Indizienbeweise! Zeigen Sie dem Gericht den Beweis!“ Die Geschworenen könnten nämlich durchaus der Vermutung zustimmen, dass es sich trotz der gewichtigen Referenzen der beiden Professoren immer noch um bloße Personen handelt, die naturgemäß zu Übertreibungen oder Überspitzung neigen könnten. Wo sind die Beweise dafür, dass die Gesellschaft von der sprichwörtlichen Brücke springt?

An dieser Wende im Gerichtsverfahren könnte die Anklage, möglicherweise mit stillschweigendem Vertrauen in ihren Fall von gesellschaftlichem Selbstmord, sagen: „Lassen Sie uns nun über die Indizien hinausgehen und in den Bereich der substantiellen Beweise gehen, Euer Ehren… Lassen Sie mich nun zum Beispiel Deutschland selbst kommen“. In einer Analyse von 126 Ländern, die kaufkraftbereinigte Daten verwendet hat, rangiert Deutschland im internationalen Ranking (dem höchsten in Europa) bei den Strompreisen für Haushalte auf Platz 16. Bei den meisten Ländern mit noch höheren Preisen handelt es sich um krisengeschüttelte Entwicklungsländer wie Ruanda, Sierra Leone und Burkina Faso, in denen sich manche Menschen Strom überhaupt nicht leisten können, oder um isolierte Inselstaaten wie Vanuatu, die Cook-Inseln und Tonga. Den Daten für März 2020 zufolge lag der Strompreis für Haushalte in Deutschland bei 0,38 Dollar pro Kilowattstunde (kWh), verglichen mit 0,15 Dollar für US-Haushalte, 0,17 Dollar für Schweden, 0,21 Dollar für Frankreich und 0,26 Dollar im Vereinigten Königreich.

Deutschland hat tausende Hektar seiner alten germanischen Wälder gefällt und opfert seine gefährdeten Vogel- und Fledermausarten auf dem Altar des Grünen Gottes, indem es tausende von Windmühlen-Kruzifixen mit Armen aus erdölbasierten glasfaserverstärkten Epoxid- oder Polyesterharzen weiht, die in erdgasbetriebenen Öfen hergestellt werden. Seine Motoren benötigen seltene Erden wie Dysprosium, Neodym und Praseodym, die mit fossilen Brennstoffen gewonnen werden. Windmühlen werden auf Tausenden von Tonnen von Stahlbetontürmen mit Zement und Stahl gebaut, die in intensiv mit fossilen Brennstoffen betriebenen Fabriken hergestellt werden. Am beunruhigendsten ist die Feststellung des führenden deutschen Nachrichtenmagazins Der Spiegel, dass im Jahr 2014 17% aller deutschen Haushalte aufgrund einer „Energiekosten-Explosion“ in Armut leben. Seitdem sind die durchschnittlichen Strompreise für einen Drei-Personen-Haushalt in den letzten 15 Jahren um fast 68% gestiegen, weil die Grünen die Atomreaktoren, Erdgas- und Kohlekraftwerke des Landes in aller Eile abgeschaltet haben [oder abschalten wollen].

Wenden wir uns einem weiteren führenden Beispiel für gesellschaftlichen Selbstmord zu. Es handelt sich um Kalifornien – von überbesteuerten und belagerten Kleinunternehmen manchmal ausgesprochen humorlos als „Volksrepublik Kalifornien“ bezeichnet – das jahrzehntelang ausschließlich von der Demokratischen Partei geführt wurde. Laut dem Ingenieur Ronald Stein „erhöhen Kaliforniens grüner Kreuzzug und seine Maßnahmen die Kosten für Strom und Brennstoffe, was das Wachstum der Obdachlosigkeit, von Armut und Sozialhilfe garantiert und die Krise der Erschwinglichkeit von Wohnraum weiter anheizt“.

Kalifornien, die fünftgrößte Volkswirtschaft der Welt, importiert heute den größten Teil seines Rohöls aus Übersee (da die Förderung seiner reichlich vorhandenen lokalen Ölressourcen praktisch verboten ist), und es importiert fast ein Drittel seines Stroms aus den Nachbarstaaten (da Atom- und erdgasbetriebene Kraftwerke nach und nach per Gesetz abgeschaltet werden). Zwischen 2011 und 2017 stiegen die kalifornischen Strompreise fünfmal schneller als in den übrigen USA, und heute zahlen die Kalifornier im Durchschnitt 60 Prozent mehr für Strom für Haushalte, Gewerbe und Industrie als der Rest des Landes. Mit wiederholten Stromausfällen hat sich Kalifornien selbst einen Status der Dritten Welt zuerkannt. In der Tat scheint der Staat den Rat des bekannten Anthropologieprofessors der Rutgers University vorweggenommen zu haben.

In einem bemerkenswerten Moment der Offenheit sagte Gouverneur Gavin Newsom Mitte August, dass die Abkehr des Bundesstaates von fossilen Brennstoffen ein Faktor ist, der zu den Stromausfällen im Bundesstaat beiträgt. Die Abschaffung von Produkten aus fossilen Brennstoffen und die Umstellung auf Sonnenenergie, Windmühlen und andere Formen grüner Energie hat zu dem geführt, was Newsom als „Lücken“ in der Zuverlässigkeit des Energienetzes bezeichnete. Zu allem Überfluss unterzeichnete der Gouverneur am 23. September eine Durchführungsverordnung, die den Verkauf neuer benzinbetriebener Fahrzeuge innerhalb von 15 Jahren verbietet, um die Luftverschmutzung zu verringern und die Ziele des Bundesstaates zur Reduzierung der Treibhausgasemissionen zu erreichen. Die Umweltschutzbehörde (EPA) übermittelte dem grünen Gouverneur dieses auf gesundem Menschenverstand beruhende Urteil: „Kaliforniens Rekord an Stromausfällen – in Größe und Umfang beispiellos – in Verbindung mit den jüngsten Stromnachfragen an die Nachbarstaaten wirft die Frage auf, wie Sie eine Elektroautoflotte betreiben wollen, die mit einem erheblichen Anstieg des Strombedarfs einhergeht, wenn Sie heute nicht einmal die Lichter eingeschaltet lassen können.“

Aber es geht um die Rettung des Planeten!

Zu diesem Zeitpunkt würde der Verteidiger an den obersten moralischen Schiedsrichter aller energiepolitischen Debatten appellieren: „Wir müssen den Planeten retten!“. Dies, so wird die Verteidigung abschließend feststellen, ist alles, was es zu diesem überlangen Gerichtsstreit zu sagen gibt. „Wir begehen keinen Selbstmord, Euer Ehren, aber wir tun unser Bestes, um diesen überstürzten Ansturm auf genau den Selbstmord zu vermeiden, den der Staatsanwalt so drastisch missversteht“. Und mit einem Paukenschlag legt die unerschrockene Verteidigung ihren Fall mit der Enthüllung der Hockeyschläger-Graphik der drohenden globalen Katastrophe für maximale Wirkung auf die Geschworenen zu den Akten.

Aber die Anklage hat noch einen Pfeil in ihrem Köcher. Die Anklägerin zieht die Arbeiten des Nobelpreisträgers William Nordhaus zu Rate – dessen bahnbrechende Arbeit über die Ökonomie des Klimawandels ihm die Auszeichnung einbrachte – und stellt fest, dass die beste aktuelle Forschung zeigt, dass die Kosten des Klimawandels bis zum Ende des Jahrhunderts, wenn wir nichts unternehmen, weniger als 4% des globalen BIP betragen werden. Das bedeutet, wie der Bestsellerautor der New York Times, der „umweltskeptische“ Autor Björn Lomborg es ausdrückt, „dass die Einkommen, anstatt bis 2100 auf 450% zu steigen, vielleicht ’nur‘ auf 434% steigen werden.“ Aber „wie können wir dieser Behauptung trauen“, könnte ein Geschworener oder der Richter selbst fragen. „Nun, so sehr wie man dem Hockeyschläger-Diagramm trauen kann“, kommt die unvermeidliche Antwort. Aber wie kann man einem langfristige Prophezeiungen zeigenden globalen Temperaturdiagramm vertrauen, das auf wundersame Weise die gut dokumentierten historischen römischen und mittelalterlichen Warmzeiten mit Temperaturen, die so hoch wie (oder höher als) heute sind, auf wunderbare Weise einfach eliminiert hat?

Ultimative Resolution: Das Volk wird handeln

In diesem Stadium könnte ein Zuschauer dieses Gerichtsdramas durchaus verärgert die Hand heben und sagen, dass eine unfähige Jury unvermeidlich ist. Aber während dies in unserem theoretischen Gerichtssaal der Fall sein könnte, wird es im wirklichen Leben zwangsläufig eine Lösung geben. Es ist nichts Theoretisches daran, dass die unaufhaltsame Kraft des Klima-Alarmismus auf das unbewegliche Objekt der Bindung der Menschen an ihren gewohnten materiellen Lebensstandard trifft. Und solche Entschließungen finden in verschiedenen Teilen der Welt in Echtzeit statt und könnten durchaus die Frühindikatoren dafür sein, ob Europa und vielleicht auch die USA nach Trump voraussichtlich gesellschaftlich Selbstmord zu begehen.

Vielleicht eines der markanteren Beispiele für eine Lösung zeigte sich bei den nationalen Wahlen 2019 in Australien, wo der von den Mitte-Rechts-Liberalen geführte Premierminister Scott Morrison trotz aller Meinungsumfragen, die einen leichten Sieg der Labour-Partei vorhersagten, an der Macht blieb. Die Wahlstrategie der oppositionellen Labour-Partei, Klima-Alarmismus und Anti-Kohle-Gesetzgebung zur Schlüsselfrage zu machen, schlug bei dem von vielen als „Klimawahlen“ bezeichneten Urnengang fehl. Ein australischer Kommentator bemerkte dazu: „Wie man die unverlierbare Wahl verliert: Anti-Kohle sein“. Der US-Wahlumsturz von 2016 weist ebenfalls einige Parallelen auf. Die gescheiterte Präsidentschaftskandidatin Hillary Clinton behauptete, dass sie es am meisten bedauere, dass sie den „Krieg gegen die Kohle“ von Ex-Präsident Obama verdoppelt habe, und erklärte in ihrem Wahlkampf, dass „wir viele Bergarbeiter und Kohleunternehmen aus dem Geschäft bringen werden“.

Die Jury ist sich einig: Das moderne Wirtschaftswachstum hat in keinem einzigen Fall gezeigt, dass sich ein Land erfolgreich ohne den gleichzeitigen Einsatz fossiler Brennstoffe entwickelt, und die einfachen Menschen auf der ganzen Welt sind sich dessen voll bewusst.

Link: https://wattsupwiththat.com/2020/10/11/the-west-intends-energy-suicide-will-it-succeed/

Übersetzt von Chris Frey EIKE




Falsche Klima-Aussagen des Klima-Konsortiums: Die Widerlegung

1. Allgemeines

Die an der Erstellung der Klimainformationsschrift [1] (im Folgenden kurz KLIMS) beteiligten Institutionen des „Klimakonsortiums“ weisen drei prominente Mitglieder auf, die Helmholtz-Gesellschaft, die deutsche Meteorologische Gesellschaft und den Deutschen Wetterdienst. Keine betreibt primär Klimaforschung. Die restlichen Mitglieder sind unbedeutend, insbesondere fragt man sich, was Aktivisten wie „klimafakten.de“ hier zu suchen haben.

Seriöse Klimaforschungs-Institute wie beispielsweise das Alfred-Wegener-Institut (AWI) ließen offenbar infolgedessen die Finger von diesem „Konsortium“. Einige der KLIMS-Aussagen sind sogar korrekt, weil sie den Messungen, oder der begutachteten (Peer reviewed) Fachliteratur [2], oder korrekten Aussagen der IPCC-Sachstandsberichte [3] entsprechen (nicht alle Aussagen des IPCC sind korrekt!). Die meisten Aussagen der KLIMS sind jedoch FALSCH, sie haben nichts mehr mit neutraler Wissenschaft zu tun und werden hier dem entsprechend widerlegt.

In summa ist die KLIMS eine Vermengung von wenigen unstrittigen Fakten und weit überwiegenden  Falschbehauptungen. Von wissenschaftlich neutraler Klima-Aufklärung kann nicht die Rede sein. Die Autoren der KLIMS  schließen sich erkennbar den fragwürdigen Klima-Behauptungen des heutigen Meinungs-Kanons von Politik, Kirchen und Medien an. Sie vertrauen offensichtlich einer bisher weitgehend erfolgreichen Desinformation der Öffentlichkeit, die sich nicht nur auf die Klimafrage beschränkt.

Die KLIMS umfasst 22 Seiten Text und Bilder. Es reicht freilich schon die Widerlegung weniger maßgebender Falschaussagen aus, um Unrichtigkeit und eine Klima-Angst erzeugende Agenda der KLIMS zu belegen. Als stellvertretend für grobe sachliche Falschaussagen der KLIMS wurden die folgenden Stellen gewählt

A: Die KLIMS-Grafik auf S. 6 „Entwicklung der globalen Mitteltemperatur“.

B1 bis B4: Die Abschnitte 7., 8., 9., 12. des KLIMS-Kapitels „Globaler Klimawandel“.

C: Klimamodelle, Abschnitt 5 der KLIMS.

Die hier vorliegende Widerlegung basiert ausschließlich auf Klima-Messwerten, Fachliteratur und korrekten Aussagen des IPCC. Gelegentlich werden auch Aussagen aus Sachbüchern herangezogen, die von Klimaexperten mit Fachliteratur-Veröffentlichungen verfasst wurden. Aussagen von Internet-Blogs werden nicht verwendet. Um die Anzahl der hier zitierten Quellen überschaubar zu halten, wird aber gelegentlich auch auf die vielen Fachliteraturnachweise in guten Internet-Blogs verwiesen.

Die Bewertungsmaßstäbe der hier vorliegenden Kritik der KLIMS sind „korrekt“, „FRAGWÜRDIG“ und „FALSCH“, je nach Abweichung der KLIMS-Behauptungen von Messdaten, Fachliteratur, oder korrekten IPCC-Ausagen.

Und abschließend: Das Klima in jeder Klimazone der Erde von polar bis tropisch hat sich seit Bestehen der Erde unaufhörlich geändert. „Klimawandel“ ist naturgesetzlich, konstantes Klima gab es noch nie. Leider wird diese Selbstverständlichkeit in der KLIMS nicht erwähnt oder gar betont. Daher ist die erste Kerninfo der KLIMS „der Klimawandel ist real“ zwar korrekt, aber überflüssig. Die Bemühungen der KLIMS um möglichst alarmistische Textgestaltung sind unübersehbar und für seriöse Publikationen eigentlich tabu. So kann beispielsweise der Leser an Hand der Grafik auf S. 8 der KLIMS (Mitteltemperatur 1880-2019) beispielhaft erkennen, wie durch geschickt gewählte Achsenformate ein Bild von „harmlos“ auf „gefährlich“ getrimmt wird. Dazu vergleiche man im Zeitraum von 1979 bis heute diese Grafik mit der inhaltlich gleichen Grafik des US-Klimaforschers Roy Spencer [4].

 

2. Die Widerlegungen von sachlich falschen KLIMS-Behauptungen

A. Die KLIMS-Grafik auf S. 6 „Entwicklung der globalen Mitteltemperatur“

DIE BEHAUPTUNG DER KLIMS: Der globale  Temperaturverlauf der letzten 2000 Jahre bis zu Beginn der Industrialisierung 1850 sei, von geringfügigen natürlichen Schwankungen abgesehen, weitgehend konstant verlaufen und hätte erst danach eine gleichsam explosionsartige Steigerung bis heute durchgemacht (Hockey-Stick-Kurve). So soll sich das Temperaturmittel ab Christi Geburt über die nächste 1850 Jahre lediglich um 0,2 °C verändert haben, in den jüngsten 170 Jahren dagegen um 1,2 °C.

DIE WIDERLEGUNG: Der KLIMS-Behauptung widerspricht zuerst einmal tradierter Historie. Im Mittelalter betrieben die Wikinger in Grönlands Küstennähe Landwirtschaft. Es war damit deutlich wärmer gewesen, als in den darauffolgenden Jahrhunderten. klimafakten.de, Mitautor der KLIMS, bestätigt bemerkenswerterweise ungewollt, dass die eigene KLIMS-Grafik FALSCH ist, indem es schreibt (Zitat) „Es stimmt, dass die Region um den Nordatlantik zu Beginn des zweiten Jahrtausends eine relativ warme Phase erlebte. In einigen Regionen der Welt war es damals tatsächlich ähnlich warm wie heute[5].

Dies bedeutet, dass In der KLIMS-Grafik auf S. 6 um das Jahr 1000 Temperaturwerte um 1,2 °C an Stelle von 0,2 °C zu sehen sein müssten, denn die mittelalterliche Warmzeit (MWP) war globalweit! Eine Zeitlang wurde zwar noch behauptet, die MWP sei nur ein lokaler Effekt in der Nordhemisphäre gewesen. Dies ist aber inzwischen umfangreich in der Fachliteratur widerlegt, unzählige Zitate dazu finden sich im Blog „kalte Sonne“ [6].

Die wissenschaftlich unbestrittene MWP und das römische Wärmeoptimum (RO) waren Warmzeiten, die mit unserer aktuellen Erwärmung vergleichbar sind. Von beiden Warmzeiten ist in der Grafik auf S. 6 nichts zu sehen.

Es liegt darüber hinaus reichlich Fachliteratur über weit höhere globale Mitteltemperaturen, als heute vor in dem noch weiter zurück reichenden Zeitraum bis Ende der letzten Eiszeit. So übertrafen die jeweils weit über tausend Jahre anhaltenden Warmzeiten vor 4000 und 6500 Jahren noch deutlich die MWP und das RO [7]. Für noch weiter zurückreihende Temperaturrekorde sei auf die Fachpublikation von Lecavalier et al. verwiesen [8]. Im frühen Holozän vor 8000 Jahren waren die Grönlandtemperaturen über 1000 Jahre sogar um 2 °C höher als gegenwärtig.

FAZIT: Die KLIMS-Grafik auf S. 6 ist FALSCH und endgültig erledigt. Auch ein fragwürdiger „PAGES2k-Versuch“ ihrer Wiederauferstehung ändert daran nichts. Inzwischen dürfte die Fachpublikation von Büntgen et al.[9] mit insgesamt 22 Autoren dem bodenlosen Unsinn der Hockey-Stick Kurve den endgültigen Garaus gemacht haben – die Liste der beteiligten Institute liest sich wie das Who is Who der internationalen Klimaforschung und, man staune, sogar das klima-alarmistische Potsdamer Institut für Klimafolgenforschung ist mit dabei. Die spannende und fast das Kriminelle streifende Geschichte der Hockey-Stick Kurve findet sich im Buch „Vahrenholt/Lüning, 2020, Unerwünschte Wahrheiten, was Sie über den Klimawandel wissen sollten“ im Kapitel 2.

 

B1. Rekorde, Abschnitt 7. der KLIMS und die 2-te KLIMS-Kernaussage „Wir sind die Ursache“

DIE BEHAUPTUNG DER KLIMS: Seit den 1980er Jahren war jede Dekade wärmer als die vorherige und wärmer als alle vorangegangenen Jahrzehnte seit 1850 (offenbar als Beleg der 2-ten KLIMS-Kernaussage „Wir sind die Ursache“ gemeint).

DIE WIDERLEGUNG: Die KLIMS-Dekadenaussage ist für sich genommen korrekt. Mitte des 19. Jahrhunderts endete nämlich die kleine Eiszeit (LIA). Danach erfolgte eine natürliche Wiedererwärmung, ansonsten würden wir immer noch in der LIA leben, in der Winter mit komplett zugefrorener Ostsee normal waren. Infolge der Klimaerwärmung nach Ende der LIA sind natürliche Temperaturrekorde nichts Ungewöhnliches. Der Effekt unnatürlicher Erhitzung in Städten durch Verkehr, Heizungen etc. (UHI) kommt dazu. Die von der KLIMS vorgenommene Schilderung der Temperaturentwicklung für die Zeit nach 1980, die mit 40 Jahren nur knapp für eine Klimaaussage ausreicht, muss freilich mit den Zeiten vor 1850 verglichen werden, ansonsten ist sie wissenschaftlich wertlos. Dieser Vergleich fehlt.

Bereits die berühmte mittelenglische Thermometer-Reihe, welche bis 1659 zurückreicht (Bild 1), kann die Verhältnisse zurechtrücken. Um wieviel mehr dann die zuvor geschilderten Warmzeiten des Holozän. Diese, die Temperaturen unserer heutigen Warmzeit oft weit übersteigenden Zeitabschnitte kann die Klimawissenschaft bis heute nicht schlüssig erklären.

Bild 1: Mittelenglische Temperaturreihe CET, die älteste lückenlose Thermometer-Reihe weltweit (blau) von 1659 bis 2019. Der stärkste Anstieg der gesamten CET über jeweils 50 Jahre fand von 1687–1737 mit 1,87 °C statt (rote gestrichelte Regressionsgerade), In jüngerer Zeit kamen dagegen maximal 1,32 °C in den 50 Jahren von 1961–2011 vor (schwarze gestrichelte Regressionsgerade). Bild: eigene Darstellung nach den Originaldaten.

FAZIT: Die Dekaden-Aussage der KLIMS ist zwar formal korrekt, trägt aber nichts zur behandelten Problematik bei und ist daher zumindest FRAGWÜRDIG. Die zweite KLIMS-Kernaussage „Wir sind die Ursache“ ist eine freie Behauptung, solange nicht die Ursachen der weit stärkeren natürlichen Warmperioden vor 1850 verstanden sind. Um offenbar dieser unangenehmen Kernfrage aus dem Weg zu gehen, wird von der KLIMS die falsche Grafik auf S. 6 propagiert.

 

B2. Meereis und Festlandeis, Abschnitte 8. und 9. der KLIMS

DIE BEHAUPTUNG DER KLIMS: Meereis und Festland-Eis schwinden dramatisch.

DIE WIDERLEGUNG: Zur korrekten Einordnung der Verhältnisse, ist daran zu erinnern, dass sich die Gletschermasse der Erde, also Festland-Eis, zu 90% in der Antarktis befindet. Die Arktis dagegen beherbergt mit dem Grönlandgletscher nur 8%, und der Rest von 2% findet sich in Alpen, Himalaya, Neuseeland etc. Das Arktis-Eis nimmt zurzeit ab, das Antarktis-Eis dagegen zu. Der Rest verhält sich uneinheitlich, die Alpengletscher gehören zu den aktuell abnehmenden Gletschern. Die Fachpublikation von Braithwaite [10] sagt aus, dass von dramatisch globalem Schmelzen keine Rede sein kann, wörtlich „There is no sign of any recent global trend towards increased glacier melting, and the data mainly reflect variations within and between region„. Andere Facharbeiten berichten von einer geringfügigen globalen Abnahme [11].

Der Gletscherforscher Prof. Gernot Patzelt (Univ. Innsbruck), bekannt durch seine intensiven Forschungsarbeiten vor Ort und weitere seiner Fachkollegen weisen in Fachpublikationen und Fachbüchern nach, dass in zwei Dritteln der letzten 10.000 Jahre die Waldgrenzen der Alpen höher und die Alpengletscher kleiner waren als heute [12]. Ferner, dass die Alpengletscher bereits im Jahre 1850 begonnen hatten, wieder einmal zu schmelzen – damals gab es noch kein anthropogenes CO2.

Auch der Grönlandgletscher mit seinen 2,6 Millionen Kubik-Kilometern (das sind 2,3 x 1015 Tonnen Eis) schmilzt. Die von der KLIMS vermutlich korrekt genannten 250 Milliarden = 2,5 x 1011 Tonnen Schmelze pro Jahr sind demnach gemäß 1011/1015 = 0,0001 der zehntausendste Teil der Gesamtmasse des Grönlandgletschers. Es bedarf daher schon einer starken Warmzeit von mehr als 1000 Jahren, um den Grönlandgletscher zum Abschmelzen zu bringen: Dies war in allen Warmzeiten der letzten 500.000 Jahre noch nie der Fall. In 1000 Jahren leben wir übrigens mit hoher Wahrscheinlichkeit in einer beginnenden neuen Eiszeit – sie ist längst überfällig.

Meereis, im Gegensatz zu Gletschern, ist ein Wetter-, kein Klimaphänomen, denn „Klima“ ist definiert als mindestens 30-jähriges statistisches, lokales Mittel von „Wetter“. KLIMS sagt nun aus, die Meereisoberfläche der Nordhemisphäre hätte in den letzten Jahrzehnten von 7 auf 3 Millionen km2 abgenommen. Dies ist zwar korrekt, KLIMS unterließ aber zu erwähnen, dass es sich um hochsommerliche Minimalwerte handelt. Die Oberflächenausdehnung vom Meereis der Nordhemisphäre schwankt regelmäßig zwischen September und März um 10 Millionen Quadratkilometer [13]. Im Winterhöhepunkt beträgt aktuell die Ausdehnung 15 Millionen km2, also mehr als das Doppelte der alarmistischen KLIMS-Angabe. Dieser Höchstwert hat über die letzten vier Jahrzehnte um etwa eine Million km2, also um 1/15 abgenommen. Die hier allein interessierenden Pauschalschwankungen des nordhemisphärischen Meer-Eis folgen dabei der atlantischen Multidekadenoszillation AMO [14] mit einer etwa 60-jährigen Periodendauer. Die AMO, zur Zeit noch im Maximum (kleinere Meereisfläche) beginnt sich wieder in Richtung Minimum zu bewegen (größere Meereisfläche). Die jahreszeitlich maximale Meereisoberfläche wird daher die nächsten Jahrzehnte wieder zunehmen.

FAZIT:  Zuerst zu den Gletschern: Die Angabe „dramatisch“ der KLIMS zur Festland-Eis-Schmelze ist FALSCH, sie widerspricht den hier geschilderten realen Zahlen und der Fachliteratur. Es ist wissenschaftlich unaufrichtig, mit einer dramatisch klingenden Zahl  aufzuwarten, ohne sie zur Realität in Beziehung zu setzen. Das von der KLIMS angegebene Fachzitat zum Thema Gletscher-Eis (Zitat 27) ist zudem unpassend, weil hier nur die Gletscherabnahme der letzten 20 Jahre behandelt wird, global glacier decline in the early 21st century titelt die Arbeit. Aus solch einem kurzen Wetter-Zeitraum Klima-Pauschalaussagen zur langfristigen Gletscherentwicklung zu suggerieren ist wissenschaftlich unseriös. Die hier zitierten wirklich relevanten Arbeiten [10,11,12] werden dagegen von der KLIMS unterschlagen.

Nun zum Meereis: Die dramatischen Angaben der KLIMS zum Meereis sind wegen willkürlicher Datenauswahl des Sommertiefpunkts eine unzulässige Pauschalaussage. Das Eisflächenverhältnis von 14 Mio. km2 zu 15 Mio. km2 zwischen 1980 und 2020 im Winterhöhepunkt [13] wird von der KLIMS verschwiegen. Ein solches Vorgehen ist irreführend. Daher ist die  KLIMS-Aussage zumindest  FRAGWÜRDIG.

 

B3. Wetterextreme, Abschnitt 12. in KLIMS

DIE BEHAUPTUNG DER KLIMS: Bestimmte Typen von Extremwetter-Ereignissen haben weltweit deutlich zugenommen.

DIE WIDERLEGUNG: Zu Wetterextremen hat das IPCC in seinem Sachstandsbericht AR5 von 2013 in einer ausführlichen und sorgfältigen Untersuchung Stellung genommen [15]. Die Daten beginnen hier ab 1950, weil es vorher zu wenige Messungen gab. Das vom IPCC angegebene Ergebnis darf im Klartext als „es wurde nichts Maßgebendes gefunden“ ausgedrückt werden. Hier stellvertretend einige Originalzitate (die IPCC-Sachstandsberichte gibt es leider nicht in Deutsch)

Tropische Stürme und Hurrikane [IPCC 2013, AR5, WGI, Kapitel 2, Seite 216]:No robust trends in annual numbers of tropical storms, hurricanes and major hurricanes counts have been identified over the past 100 years in the North Atlantic basin.”

Tropische Zyklone [IPCC 2013, AR5, WGI, Kapitel 2, Seite 216]: “Current datasets indicate no significant observed trends in global tropical cyclone frequency over the past century and it remains uncertain whether any reported long-term increases in tropical cyclone frequency are robust, after accounting for past changes in observing capabilities.”

Außer-tropischeZyklone [IPCC 2013, AR5, WGI, Kapitel 2, Seite 220]: “In summary, confidence in large scale changes in the intensity of extreme extratropical cyclones since 1900 is low. There is also low confidence for a clear trend in storminess proxies over the last century due to inconsistencies between studies or lack of long-term data in some parts of the world (particularly in the SH). Likewise, confidence in trends in extreme winds is low, owing to quality and consistency issues with analysed data.”

Dürren [IPCC 2013, AR5, WGI, Technical Summery, Seite 50]: ”There is low confidence in a global-scale observed trend in drought or dryness (lack of rainfall), owing to lack of direct observations, dependencies of inferred trends on the index choice and geographical inconsistencies in the trends.”

sowie in [IPCC 2013, AR5, WGI, Kapitel 2, Seite 215]:In summary, the current assessment concludes that there is not enough evidence at present to suggest more than low confidence in a global scale observed trend in drought ordryness (lack of rainfall) since the middle of the 20th century, owing to lack of direct observations, geographical inconsistencies in the trends, and dependencies of inferred trends on the index choice. Based on updated studies, AR4 conclusions regarding global increasing trends in drought since the 1970s were probably overstated. However, it is likely that the frequency and intensity of drought has increased in the Mediterranean and West Africa and decreased in central North America and north-west Australia since 1950.”

Überflutungen [IPCC 2013, AR5, WGI, Technical Summery, Seite 112]: ”There continues to be a lack of evidence and thus low confidence regarding the sign of trend in the magnitude and/or frequency of floods on a global scale over the instrumental record.”

Hagel und Gewitter [IPCC 2013, AR5, WGI, Kapitel 2, Seite 216]: “In summary, there is low confidence in observed trends in small-scale severe weather phenomena such as hail and thunderstorms because of historical data inhomogeneities and inadequacies in monitoring systems.”

Und schließlich fasst IPCC zusammen [IPCC 2013, AR5, WGI, Kapitel 2, Seite 219]: “There is limited evidence of changes in extremes associated with other climate variables since the mid-20th century.”

FAZIT: Die KLIMS-Aussage ist trotz ihrer bewussten Abschwächung und Ungenauigkeit – „bestimmte Typen“ sowie keine Angabe des Zeitraums – im hier behandelten Zusammenhang „Klimaänderungen“ FALSCH. Die IPCC-Aussagen sind eindeutig. Dass regional und kurzfristig Wetterextreme stets stark schwanken und dies natürlich auch weltweit, ist eine meteorologische Binsenweisheit und hat mit Klimaänderungen nichts zu tun. Meteorologen pflegen zu sagen „das Gewöhnliche am Wetter ist seine Ungewöhnlichkeit„. Dies ist den KLIMS-Autoren offenbar nicht bekannt.

 

B4. Ernteerträge, Abschnitt 12. in KLIMS

DIE BEHAUPTUNG DER KLIMS: Regional sinken Ernteerträge.

DIE WIDERLEGUNG: Global ist das genaue Gegenteil der Fall. Durch den anthropogenen CO2-Eintrag in die Luft (über die CO2-Zunahme berichtet die KLIMS korrekt) haben Pflanzenmasse der Erde und die Welternten maßgebend und messbar zugenommen. Als Folge davon werden viele Wüsten kleiner. Dieser Effekt ist inzwischen sogar von den Medien bemerkt und darüber berichtet worden [16].  Eine stellvertretende Fachstudie von Zu et al. [17] schildert die gemessenen Zahlenwerte dieses Effekts. Eine umfangreiche Fachliterurübersicht zur vorteilhaften biologischen Wirkung von zunehmendem CO2 findet sich bei Goklany [18].

FAZIT: Auch hier wieder eine KLIMS-Aussage, die an bewusster Schwammigkeit wie fehlenden Zeitraum und dem Zusatz „regional“ kaum zu überbieten ist. Sie ist natürlich in ihrer Allgemeinheit FALSCH. Selbstverständlich können auf Grund von lokalen Wettereffekten, Schädlingsbefall  o.ä.m. regionale Ernten kurzfristig sinken oder ansteigen, dies hat aber mit dem in der KLIMS behandelten Thema „Klimaänderungen“ nichts zu tun.

 

C. Klimamodelle, Abschnitt 5 der KLIMS.

DIE BEHAUPTUNG DER KLIMS: Moderne Klimamodelle können die reale Klimaentwicklung zutreffend abbilden.

DIE WIDERLEGUNG: Klimamodelle haben noch nie die Klimavergangenheit wiedergeben können, folgerichtig können sie es auch nicht für die Zukunft. Bild 2 zeigt Klimamodelle im Realitätsvergleich.

Bild 2: Temperaturen aus 102 Klimamodellen vs. reale Temperaturmessungen mit Ballons und Satelliten, Bildquelle: Prof. John Christy (Univ. Alabama), gezeigt bei einer Anhörung vor dem US-Senat [19].

Insbesondere in jüngster Zeit ist die Fachkritik an Klimamodellen fast schon zu einem Sturm angewachsen, es gibt zu diesem Themen inzwischen zahlreiche Fachpublikationen [20].

FAZIT: Die KLIMS-Behauptungen über Klimamodelle sind FALSCH.

 

Schlussbemerkung

Die hier überprüften KLIMS-Behauptungen haben sich sämtlich als falsch erwiesen und desavouieren daher auch den Rest der KLIMS-Aussagen, selbst wenn sich noch Zutreffendes darunter befinden sollte. Das Vorgehen der KLIMS basiert offensichtlich auf folgenden Fehlern, Versäumnissen und bewussten Irreführungen:

  1. Natürliche Wetterextreme werden zu „Klimawandel“ umgedeutet.
  2. Klimavorgänge seien heute verstanden. Bislang ist nur der Wechsel von Eiszeiten mit Warmzeiten in Hunderttausenden Jahren grob verstanden (Milankovitch-Zyklen), dies aber noch keineswegs vollständig. Die Ursachen der hier allein interessierenden Klimaänderungen von mehreren Jahrzehnten bis Jahrhunderten sind dagegen immer noch unbekannt.
  3. Die oft wesentlich stärkeren Klimavariationen in den Zeiten vor Beginn der Industrialisierung 1850 werden ignoriert. Solange dies der Fall ist, sind Aussagen über rezente anthropogene Klima-Einflüsse wertlos.
  4. Der auffällige Klima-Einfluss des Sonnenmagnetfelds (nicht der Sonnen-Leuchtkraft!) wird heute in zahlreichen Fachpublikationen mit Klimaänderungen in Verbindung gebracht. Diese Hypothese ist zwar noch umstritten, dennoch ist es unseriös, die betreffenden Facharbeiten auszublenden und gar von „zuverlässigen“ Klimamodellen zu sprechen. Solange in Klimamodellen die Sonneneinflüsse unberücksichtigt bleiben, darf man sich über ihre mangelnde Aussagekraft nicht wundern.

Da eine Widerlegung in der Regel länger ist, als die zugehörige Behauptung, konnten hier nur die wichtigsten sachlichen Falschaussagen der KLIMS abgehandelt werden. In den beiden Sachbüchern

  1. Horst-Joachim Lüdecke, 2020, Energie und Klima: Chancen, Risiken, Mythen, 4. Auflage, expert Verlag Tübingen.
  2. Fritz Vahrenholt und Sebastian Lüning, 2020, Unerwünschte Wahrheiten: Was Sie über den Klimawandel wissen sollten, Langen Müller Verlag GmbH München.

gehören dagegen automatisch auch alle hier nicht behandelten Aussagen der KLIMS zu den behandelten Themen. Im erstgenannten Buch ist zudem auf S. 17 beschrieben, wie man überraschend viele Fachpublikationen (dazu gehören auch die meisten der hier zitierten Quellen) mit Hilfe von Google Scholar barrierefrei aus dem Internet herunterladen kann. Dies ist für Leser [21] wichtig, die sich in Details weiter informieren möchten.

Hier noch das pdf der Widerlegung zum Weitergeben Widerlegung_Klimakonsortium

 

Quellenangaben

[1] Was wir heute übers Klima wissen, Basisfakten zum Klimawandel, die in der Wissenschaft unumstritten sind: Deutsches Klima-Konsortium, Deutsche Meteorologische Gesellschaft, Deutscher Wetterdienst, Extremwetterkongress Hamburg, Helmholtz-Klima-Initiative, klimafakten.de. https://www.deutsches-klima-konsortium.de/fileadmin/user_upload/pdfs/Publikationen_DKK/basisfakten-klimawandel.pdf

[2] im Folgenden wird „begutachtet“ weggelassen, unter Fachliteratur ist stets begutachtete zu verstehen.

[3] https://www.ipcc.ch/, hier „view all reports“.

[4] Global warming, Roy Spencer: Forschungsleiter an der Universität Alabama in Huntsville und Leiter des US-Wissenschaftlerteams für das Advanced Microwave Scanning Radiometer (AMSR-E) des NASA-Satelliten Aqua, https://www.drroyspencer.com/latest-global-temperatures/

[5] klimafakten.de zu „Grönland war früher eine grüne Insel“.

[6] https://kaltesonne.de/die-mittelalterliche-warmeperiode/

[7] Prof. H. Kehl, ehem. TU Berlin, Ergänzungen zur Vorlesung TWK an der TU Berlin, Institut für Ökologie, Abb. A2-4 in https://www.science-e-publishing.de/project/lv-twk/002-klimageschichte-kleiner%20ueberblick.htm, ferner C. Schönwiese, Klima im Wandel – Von Treibhauseffekt, Ozonloch und Naturkatastrophen. 1994, rororo 9555.e

[8] Lecavalier et al., 2013, Revised estimates of Greenland ice sheet thinning histories based on ice-core records. Quaternary Science Reviews, 63, 73-82.

[9] Büntgen et al., 2020,  Prominent role of volcanism in Common Era climate variability and human history, Dendrochronologia 64, 125757.

[10] Braithwaite, R.J., 2002. Glacier mass balance: the first 50 years of international monitoring. Progress in Physical Geography, 26(1), 76-95.

[11] Dyurgerov, M.B., 2002. Glacier mass balance and regime: data of measurements and analysis. In: M.F. Meier, R. Armstrong (eds.) Institute of Arctic and Alpine Research, Occasonal Paper No. 55. Boulder: University of Colorado.

[12] Patzelt, G., 2019. Gletscher: Klimazeugen von der Eiszeit bis zur Gegenwart. Berlin: Hatje Cantz. Sowie Holzhauser, H., 1982. Neuzeitliche Gletscherschwankungen. Geographica Helvetica, 37(2), 115-126. Sowie:
Holzhauser, H., 2009. Auf dem Holzweg zur Gletschergeschichte. Mitteilungen der Naturforschenden Gesellschaft in Bern, 66, 173-208. Sowie Nicolussi, K., 2009. Klimaentwicklung in den Alpen während der letzten 7000 Jahre. In: K. Oeggland, M. Prast (Hrsg.). Die Geschichte des Bergbaus in Tirol und seinen angrenzenden Gebieten, S. 109–124. Innsbruck: University Press.

[13] Danish Meteorological Institute (DMI), Arctic Sea Ice Extent. http://ocean.dmi.dk/arctic/icecover.uk.php

[14] https://de.wikipedia.org/wiki/Atlantische_Multidekaden-Oszillation

[15] Alle IPCC-Berichte sind online verfügbar unter: https://www.ipcc.ch/ und barrierefrei. Hier insbesondere die IPCC-Berichte unter view all reports“ beachten.

[16] „Ergrünen der Welt durch mehr CO2″ googeln liefert unzählige Artikel von SPIEGEL, Focus, Frankfurter Rundschau, .. bis hin zur NZZ. Auch klimafakten.de, Mitautor der KLIMS, befindet sich darunter.

[17] Zhu, Z. et al., 2016, Greening of the Earth and its drivers, Nature Climate Change, Vol. 6.

[18] Goklany, I. M., 2015. Carbon dioxide: The good news. The Global Warming Policy Foundation, GWPF Report 18.

[19] Christy, J. R., 2016. Testimony of of John R. Christy, University of Alabama in Huntsville, presented to the U.S. House Committee on Science, Space & Technology, 2 Feb 2016, p. 2 Fig. 1.

[20] Die entsprechende Fachliteratur wird im Blog Kalte Sonne angegeben. In der Suchfunktion der kalten Sonne „Klimamodelle“ eingeben oder direkt https://kaltesonne.de/?s=Klimamodelle

[21] mit Leser sind stets auch Leserinnen gemeint. Sprachlicher Genderunsinn wird hier generell nicht mitgemacht.

 




Projekt „Green Zero“ der TU Berlin: TU jetzt völlig übergeschnappt!

So heißt es in der Pressemitteilung der TU vom 11.August 2020: „Teil des Projektes war es auch, Maßnahmen zur ökologischen Verbesserung des Lebensstils zu erarbeiten und umzusetzen.“ Umzusetzen, also sich von grün-roten Öko-Irren einen neuen Lebensstil vorschreiben zu lassen? NICHT MIT UNS!

In der TU-Medieninformation vom 11.August 2020 heißt es weiter „Wissenschaftler erstellten erstmals eine Ökobilanz über das Leben eines Mannes (Anm. der Mann ist der Unternehmer Dirk Gratzel) um die 50/ Buch über das „Projekt Green Zero“ erschienen“.

Hier das Buch zu dem Projekt für diejenigen, die sich solch einen Unfug reinziehen wollen. Wie man schnell sieht, geht es bei dem Projekt gar nicht um allgemeine ökologische Fragen, sondern – vielleicht nicht im Buch, aber zumindest im TU-Artikel – ausschließlich um CO2. Das im Projekt-Text Vorgeschlagene hört sich dann nach Mittelalter an, inkl. „Wiedergutmachung“. Man denkt zuerst einmal an „Kirche“, dann „Läuterung“ und schließlich an „Inquisition“ und „Scheiterhaufen“.

Aus der unterstellten Hauptursache – CO2 Erzeugung – wurden im TU-Projekt rund 60 Gegenmaßnahmen abgeleitet, um den CO2-Ausstoß zu minimieren und um Gratzels eigentliches Ziel zu erreichen, bei seinem Tod eine ausgeglichene Ökobilanz vorweisen zu können. Die Maßnahmen umzusetzen führten für Dirk Gratzel zu einer radikalen Lebenswandeländerung: keine Flüge mehr, kombinierte Mobilität aus Autofahren und öffentlichen Verkehrsmitteln wie Bus und Bahn mit dem Fokus auf Letzterem, kein industriell hergestelltes Fleisch mehr, nur das, was er als Jäger selbst schießt, keine Milchprodukte, nur noch saisonales, regionales Gemüse, energetische Sanierung seines Hauses, nur noch 45 Sekunden duschen – um nur einige wenige zu nennen. Auf seinen täglichen Morgenkaffee zu verzichten, hat er nicht geschafft, und von seinem Hund Emil konnte er sich auch nicht trennen.

Im Fachbereich Sustainable Engineering  (gibt es diese Bezeichnung nicht in Deutsch?) von Prof. Matthias Finkbeiner der TU Berlin wurde dann eine zweite Ökobilanz für ein drastisch verändertes Leben von Gratzel errechnet. Wieder musste Gratzel dafür sein Leben inventarisieren – nun unter den neuen Bedingungen. Durch die etwa 60 Maßnahmen drückte er seinen CO2-Emmissionen von 27 Tonnen pro Jahr auf 7,8 Tonnen. Für Finkbeiner ist das Ergebnis beeindruckend und belegt eindrücklich, dass Fliegen, Autofahren und Fleisch essen dem Klima und damit dem Planeten enorm zusetzten.

Aber es zeige eben auch, wie weit Dirk Gratzel noch von dem 2-Tonnen-Ziel des Weltklimarates entfernt sei. Ob die Gruppe um Finkbeiner auch einmal errechnet hat, wie nahe Herr Gratzel seinem Ziel käme, wenn er einfach das Ausatmen einstellen würde – macht schließlich zwischen 0,2 bis 2 Tonnen CO2 pro Jahr für einen Erwachsenen aus (hier).

Finkbeiner sagt „Angesichts der Tatsache, dass das Ergebnis nur durch einen extremen Lebenswandel erzielt werden konnte, der mit schmerzhaften Einschnitten verbunden war, stellt sich die Frage, wie realistisch das 2-Tonnen-Ziel in unserer westlichen Welt ist, wenn wir weiterhin an den Mindeststandards unseres zivilisierten Lebens wie essen, kleiden, wohnen, arbeiten, Bildung, gesundheitliche Fürsorge, digitale Kommunikation, Mobilität und Kultur festhalten“ und fragt bewusst provozierend, „oder ob es sich nur umsetzen lässt, wenn wir nackt und in Zelten wohnend leben.“ Finkbeiner gesteht, dass er darauf keine Antwort hat.

Wir von EIKE  haben aber zumindest eine Antwort auf den Weltklimarat mit seinen 2-Tonnen-Ziel – nämlich alle Mitglieder des IPCC in grünen Tonnen ökogerecht im Amazonas-Dschungel freizusetzen! Wir fürchten bloß, dass wir diese Knallköppe schneller als erwartet wieder am Hals haben werden.

Ein Leben ohne ökologische Belastung zu führen„, hält Matthias Finkbeiner für schlichtweg unrealistisch, was wir hier als einen lichten Moment dieses Fachbereichsleiters  anerkennen. Deshalb setzen sich er und Gratzel in einer dritten Phase des Projektes mit dem Thema der Wiedergutmachung auseinander …. War wohl zu vorschnell mit seinem lichten Moment. In Bayern pflegt man zu solchen Projektphasen und vor allem solchen Projektleitern zu stöhnen „Oh Herr, lass Hirn regnen.“

In den Details des TU-Berichts wird es dann gänzlich gaga: „Ein Desaster: jährlich 27 Tonnen CO2“ heißt es in einer weiteren Abschnittsüberschrift der TU-Projektwerbung. Wieso Desaster, fragt sich jeder naturwissenschaftlich Gebildete. CO2 ist D E R Baustein des Lebens, die begrüßenswerte Zunahme dieses Spurengases in unserer Luft hat die Erde ergrünen lassen und die Welternten stark verbessert (hier, hier, hier, hier, hier, hier, hier, hier, und [1, 2]. Das Kampfwort des TU Projekts „Projekt Green Zero“ bedeutet im Grunde nichts anderes als Abwürgen, oder in letzter Konsequenz Tötung von höheren Lebewesen infolge CO2-Entzugs. Ob dies der Projektleitung bewusst ist?

Von Schäden durch den atmosphärischen CO2-Anstieg ist nichts bekannt, daher werden entsprechende Unsinns-Behauptungen ideologisch interessierter Stellen salopp in die ferne Zukunft 2100 verschoben. Belege für diese Behauptungen sind natürlich nicht beizubringen, es handelt sich um Fiktionen. Noch nicht einmal ernsthaft diskutable Anhaltspunkte existieren.

Unsere Erde wies schon einmal das Fünfzehnfache des heutigen CO2-Gehalts der Luft auf [3], auf Land und im Ozean wimmelte es nur so von Leben. Kein Ozean war versauert, Korallen gibts schon seit mindestens einer halben Milliarde Jahren. Niemand bestreitet die nur theoretisch belegbare, segensreiche und sehr schwache Erwärmungswirkung durch menschgemachtes CO2. Ihr genauer Zahlenwert (Klimasensitivität) ist freilich unbekannt [4]. Unzählige Fachveröffentlichungen belegen, dass Maximaltemperaturen, Minimaltemperaturen und all ihre Veränderungsgeschwindigkeiten allein schon im Holozän (nacheiszeitliche Periode) und vor der Industrialisierung 1850 fast beliebig oft stärkere Werte aufwiesen als heute. Kohlekraftwerke gabs damals bekanntlich noch nicht.Es ist unverständlich, dass sich ein Professor (hier Finkbeiner), für den wissenschaftliche Literaturrecherchen zum täglichen Brot gehören, sich über diese Fakten nicht informiert hat, bevor er sein Unsinnsprojekt in Angriff nahm. Schade für die vergeudeten Mittel und die vergeudete Zeit.

Da die Fakten über Klima und CO2 immer schwerer unter der Decke zu halten sind, behilft sich die Klimakatastrophen-Mafia mit dem Ausblenden aller Klima-Erkenntnisse v o r 1850. Erkenntnisse vor 1850? „Die jibbet doch jaa nich, wir kennen nur einen konstanten Temperaturstrich seit vielen Tausend Jahren, und klaro, nur die letzten Jahrzehnte geht’s hockeystickmäßig nach oben“. Das darf als glatte Verarschung bezeichnet werden, um ein bekanntes Bonmot des Klimaforscher Prof. Hans von Storch zu zitieren.

Die Ergebnisse von Hunderttausenden Messungen und Tausenden Fachpublikationen der Klimaerforschung unserer weiteren Vergangenheit werden durch diese Mafia einfach zur Seite gewischt. Der Protagonist des oben beschrieben Temperatur-Hockey-Sticks, ein USA-Prof. Michael Mann, erfreut sich verständlicherweise großer Hochachtung bei der Katastrophenfraktion. Seine steilen Behauptungen und Grafiken sind aber leider als wissenschaftliche Mogelei entlarvt geworden (hier). Um den wissenschaftlichen Ruf dieses sauberen Herrn beneidet ihn heute kaum noch ein Kollege.

Der blanke Unsinn des hier beschrieben TU-Projekts wird leider auch nicht dadurch gemildert, dass einige der dort vorgeschlagenen Maßnahmen sogar vernünftig sind – dies aber einzig und allein der Gesundheit wegen. Übergewicht durch zu viel Nahrungsaufnahme, zu wenig Bewegung und das Rauchen sind nun einmal lebensverkürzend. Aber darum geht es der TU-Projektleitung nicht. Es geht um CO2, also um Grünideologie, genauer, um einen Angriff auf unsere Selbstbestimmtheit und persönliche Freiheit. Ziel ist ein Ökoüberwachungsstaat kommunistischer Prägung, daher auch das oben zitierte Wörtchen „umsetzen“.

Manche werden sich nach durchlesen der TU-Broschüre vielleicht fragen, ob der Projektleiter Prof. Matthias Finkbeiner in ein wissenschaftliches Forschungsinstitut noch so recht hinpasst. Als Kernaufgabe eines technischen Fachbereichs mit der Bezeichnung „sustainable“ darf wohl gelten, technische Prozesse und Methoden auf minimalen Energieverbrauch über ihren gesamten Lebenszyklus zu trimmen. Ökobilanzen von biologischen Systemen, hier dem Menschen – und die auch noch unübersehbar mit grünideologischem Einschlag – gehören wohl kaum dazu. 

Wer ein wenig den Hochschulbetrieb in heutigen Zeiten kennt, kann zugegebenermaßen etwas Verständnis für diesen Projektunsinn des Fachbereichs Sustainable Engineering der TU aufbringen. Heutzutage steht die Einwerbung von Drittmitteln an erster Stelle, Berufungen auf Professorenstellen werden von dieser Fähigkeit abhängig gemacht und natürlich auch spätere Besoldungszulagen, was Speichellecker der jeweiligen Hochschulleitung oder genauer der diese Leitung verantworteten Politik züchtet. Es entstehen langsam aber sicher wissenschaftsfreie Räume, in welchen die Drittmittelseuche grassiert. Forschung wird in die Richtung gelenkt, welcher dem Wunsch des Geldes folgt.

Heraus kommt reine Auftragsforschung, die zwar nicht völlig sinnlos ist, aber einen zu hohen Preis hat. Wertvolle („nachhaltige“) wissenschaftliche Erkenntnisse entstehen dabei meist nicht. Diese Art Forschung gehört in einschlägige Industrieunternehmen, und die Politik sollte die Forschungsgelder besser dort ausgeben.

Gute Hochschulforschung – angewandte Forschung in Fachhochschulen steht wegen deren Praxisausrichtung auf einem anderen Blatt – gibt es nur nur bei echter Forschungsfreiheit. Dabei muss man auch einmal eine Durststrecke von mehreren Jahren in Kauf nehmen, ohne die betreffende Fachgruppe abzustrafen, weil sie in dieser Zeit keine Ergebnisse geliefert hat. Was dagegen hier auf der TU-Seite beworben wird, ist ein Forschungsprojekt der Grünideologie. Ideologie hat in einer Demokratie keinen Platz und in einer freien Wissenschaft schon gar nicht. Randbedingungen sowie Ergebnis des TU-Projekts „Green Zero“ stehen nämlich bereits fest, es besteht überhaupt kein Forschungsbedarf: Der Mensch ist ein Klimaschädling, seine Ökobilanz ist katastrophal, Verzicht ist angesagt. „Von der Socke bis zum Auto“ so lautet eine aufschlussreiche Abschnittsüberschrift des TU-Berichts.

Vor allem bedarf es sicher keiner „Wiedergutmachung“, die besser im Fach Theologie verortet wird.  Vielleicht werden wir Hernn Finkbeiner aber auch bald auf Wahl-Listen der Grünen finden, wo er nach unserer Auffassung besser als in einen technischen Fachbereich aufgehoben wäre. 

 Quellenangaben

[1] Die Welt wird grüner. Der Spiegel, 29.04.2016

[2] Focus 48, 2010, Treibhausgas verbessert Ernte

[3] Veizer, J., Godderis, Y., François, L.M., 2000. Evidence for decoupling of atmospheric CO2 and global climate during the Phanerozoic eon. Nature, 408(6813), 698, sowie Berner, R.A., 2003. The long-term carbon cycle, fossil fuels and atmospheric composition. Nature, 426(6964), 323

[4] „No best estimate for equilibrium climate sensitivity can now be given because of a lack of agreement on values across assessed lines of evidence and studies„, IPCC, 2013: Summary for Policymakers, S. 16, Fußnote. IPCC, 2013.