1

Speisen natürliche Quellen den CO2-Anstieg in der Atmosphäre?

Im November 2020 fand man im Fachjournal “nature communications“ (1) eine Arbeit, die sich mit den CO2-Emissionan aus den Böden befasste. Die Forscher der Universität im britischen Exter wollen herausgefunden haben, dass bei einer Temperaturerhöhung von 2°C im Vergleich zum vorindustriellen Zeitalter, etwa 230 Milliarden Tonnen Kohlenstoff aus den Böden in die Atmosphäre freigesetzt werden. Umgerechnet sind das 843 Milliarden Tonnen Kohlendioxid.

Nun bewegt sich die Erde nachweislich aus einer kalten Phase, der kleinen Zwischeneiszeit, die um das Jahr 1850 endete, heraus. Diese Erwärmung ist also durchaus eine ganz natürliche Erscheinung und hat mit Kohlendioxid nichts zu tun. Aber durch diese natürliche Erwärmung wird natürlich, so wie die britischen Forscher festgestellt haben, Kohlendioxid aus den sich erwärmenden Böden freigesetzt.

Lauf IPCC erwärmten sich die globalen Landflächen seit der industriellen Revolution um ca. 1,53 °C (2).

Wenn nun eine Temperaturerhöhung um 2°C 843 Milliarden Tonnen Kohlendioxid freisetzen, dann bewirkt die bisherige Temperaturerhöhung von 1,53 °C eine Freisetzung von 645 Milliarden Tonnen Kohlendioxid.

Der vorindustrielle Gehalt an Kohlendioxid in der Atmosphäre soll um die 270 ppm betragen haben. Das sind 2100 Milliarden Tonnen Kohlendioxid in der Atmosphäre.

Nun ist der Gehalt des Kohlendioxids in der Atmosphäre auf 410 ppm angestiegen; es sind nun also 3190 Milliarden Tonnen, also 1090 Milliarden Tonnen mehr.

Wir haben aber gerade gesehen, dass allein durch die Ausgasung der Böden 645 Milliarden Tonnen Kohlendioxid in die Atmosphäre gelangten. Das bedeutet, dass 59% der Konzentrationssteigerung des Kohlendioxids in der Atmosphäre aus den Böden stammt und nicht aus den Auspuffen und Kaminen!

Derselbe Effekt tritt natürlich auch in den Meeren auf. Diese haben sich seit Beginn der industriellen Revolution um 0,87°C erwärmt (2).

Pro Kelvin gasen rund 0,06 g CO2 aus einem Kilogramm Wasser aus.

Eine Temperaturerhöhung von 0,87 Kelvin setzt also rechnerisch 10815 Milliarden Tonnen CO2 frei (vorausgesetzt man setzt eine homogene Durchmischung der Meere in allen Tiefen voraus, was sicher nicht der Fall ist).

Das ist dreimal mehr, als sich derzeit überhaupt in der Atmosphäre befinden!

D.h. die Ausgasung von CO2 aus Böden und den Meeren durch die natürliche Temperaturerholung seit Ende der kleinen Zwischeneiszeit ist der treibende Faktor bei der Erhöhung der CO2– Konzentration in der Atmosphäre.

Es gibt einen weiteren Indikator, der dies stützt.

Durch die Corona-Krise sank die Industrieproduktion in Deutschland um 9,2% (3). Ähnlich dürfte es in anderen Ländern sein. Das Handelsblatt meldete, dass Russlands Industrieproduktion um 9,6% gesunken ist (4). BNEF, das Analyse- und Beratungsunternehmen der Nachrichtenagentur Bloomberg schreibt in seinem neuesten * New Energy Outlook 2020‘: „Infolge der Covid-19-Pandemie gingen die Energieemissionen im Jahr 2020 um etwa 8% zurück“ (5). Hinzu kommen die deutlich reduzierten Fahrten mit dem Auto, der völlig weggebrochene Flugverkehr usw.

Wenn nun die jährlich steigende Konzentration des CO2 in der Atmosphäre auf die menschlichen Aktivitäten zurückzuführen ist, wie ja behauptet wird, dann müsste sich der massive weltweite Rückgang der CO2-Emissionen auf die Konzentration des CO2 in der Atmosphäre auswirken. Mann müsste eine Abschwächung, eine Delle in der Steigungskurve erkennen können.

Diese ist aber nicht zu erkennen (6)! Der drastische Einbruch der Produktion, der nahezu weltweite Lockdown, der Zusammenbruch der Flugindustrie und des Tourismus hinterlässt keinerlei Spuren in der Atmosphäre.

Folglich wird der Anstieg des CO2 nahezu ausschließlich aus natürlichen Quellen gespeist.

Und deswegen werden auch die zahllosen, rein ideologisch begründeten und billiardenschweren CO2-Einsparmaßnahmen nicht annähernd den Effekt haben, den man behauptet.

Allgemein ist man der Meinung dass der Gehalt des Kohlendioxid in den letzten tausenden von Jahren relativ konstant war und um die 280 ppm betrug.

Wie kommt man zu diesem Wert?

Nun, man untersucht beispielsweise Bohrkerne von Gletschereis, das man verschiedenen Epochen zuordnet. Die im Eis eingeschlossenen Luftbläschen, so glaubt man, zeigen die Kohlendioxid- Konzentration der damaligen Atmosphäre an. Danach soll vor Beginn der Industrialisierung eine CO2-Konzentration von nur 260 ppm geherrscht haben. 

Das ist höchst verwunderlich wenn man die Ergebnisse verschiedener Forschungsgruppen sieht. Messungen in Gletschereis ergaben im norwegischen Strobreen eine Konzentration zwischen 200 und 2900 ppm Coachman, L.K., E. Hemmingsen and P.F. Scholander, 1956. Gas enclosures in a temperate glacier. Tellus, 8: 415-423. und Coachman, L.K., T. Ennis and P.F. Scholander, 1958 a. Gas loss from a temperate glacier. Tellus, 10: 493-495.] und in der Antarktis von 280 bis 2900 ppm [Matsuo, S. and Y. Miyake, 1966. Gas composition in ice samples from Antarctica. J. Geophys. Res., 71 (22): 5235-5241. Messungen, die auf verschiedenen Gebieten Grönlands durchgeführt wurden, fanden folgende Konzentrationen: 100-800 ppm Scholander, P.F., E.A. Hemmingsen, L.K. Coachman and D.C. Nutt, 1961. Composition of gas bubbles in Greenland icebergs. J. Glaciol., 3: 813-822., 1700 bis 7400 ppm Raynaud D., and R. Delmas, 1977. Composition des gaz contenus dans la glace polaire. In: Isotopes and Impurities in Snow and Ice. International Association of Hydrological Sciences (Washington, D.C.) Publ., 118: 371-381, 400 bis 1200 ppm [Berner, W., B. Stauffer and H. Oeschger, 1978. Past atmospheric composition and climate, gas parameters measured on ice cores. Nature, 276: 53-55 und 250 -1000 ppm Stauffer, B., W. Berner, H. Oeschger, J. Schwander, 1981. Atmospheric CO2 history from ice core studies. Zeitschr. für Gletcherkunde und Glaziol., 17: 1-15.

Und dennoch behauptet man, die vorindustrielle Konzentration lag dauerhaft und unverändert bei 260 -280 ppm.

  1. https://www.nature.com/articles/s41467-020-19208-8, A spatial emergent constraint on the sensitivity of soil carbon turnover to global warming
  2. https://www.ipcc.ch/site/assets/uploads/2019/08/4.-SPM_Approved_Microsite_FINAL.pdf
  3. https://www.tagesschau.de/wirtschaft/boerse/industrie-produktion-103.html
  4. https://www.handelsblatt.com/politik/international/industrie-corona-trifft-russlands-wirtschaft-hart-industrieproduktion-bricht-um-9-6-prozent-ein/25924010.html
  5. https://about.bnef.com/blog/emissions-and-coal-have-peaked-as-covid-19-saves-2-5-years-of-emissions-accelerates-energy-transition/

  6. https://www.esrl.noaa.gov/gmd/ccgg/trends//graph.html

Über den Autor: Günter Vogl ist Chemietechniker, mit fundierter naturwissenschaflicher Ausbildung. Er befasst mich seit über 30 Jahren mit diesem Thema, was inzwischen zu drei Büchern geführt hat (Die erfundene Katastrophe (2016) und Klimadiktatur (2020) sind die aktuellen.




KLIMA DES IRRTUMS: Die schweren physikalischen Fehler, welche einen Klima-‚Notstand‘ erschufen

Alles war ein ungeheurer Fehler. Die Befürchtungen über eine gefährliche globale Erwärmung ergaben sich aus einem schwerwiegenden Fehler der Physik aus dem Jahr 1984. Niemand hatte es bisher bemerkt, weil die Klimawissenschaftler die Rückkopplungsmathematik aus der Kontrolltheorie, einem anderen Zweig der Physik, übernommen hatten, ohne sie zu verstehen. Die Kontrolltheoretiker, deren Wissenschaft die Klimatologen ausgeliehen hatten, hatten nicht erkannt, wie sie missbraucht worden war.

Ein internationales Team hervorragender Klimatologen und Kontrolltheoretiker, das von Christopher Monckton aus Brenchley zusammengestellt wurde, verbrachte Jahre mit der Jagd nach dem Fehler. Ihre 70-seitige wissenschaftliche Arbeit errechnet, dass die vom Menschen verursachte globale Erwärmung nach Korrektur des Fehlers nur ein Drittel dessen betragen wird, was die Klimawissenschaftler vorhergesagt hatten.

Es wird zu wenig globale Erwärmung geben, um uns zu schaden. Eine kleine, langsame Erwärmung wird insgesamt eine gute Sache sein. Es gibt keinen Klima-Notstand. Den hat es nie gegeben. Die Billionen, die für die Vernichtung von Arbeitsplätzen und Industrien verschwendet wurden, können jetzt für die vielen echten Umweltprobleme der Welt ausgegeben werden. Die globale Erwärmung gehört nicht dazu.

EINIGE DEFIITIONEN: Emissions-Temperatur angetrieben durch die Wärme der Sonne, an der Oberfläche ohne Treibhausgase in der Luft erhalten würde. Die Rückkopplungsreaktion ist eine zusätzliche Erwärmung, vor allem durch mehr Wasserdampf in der wärmeren Luft, ausgelöst durch direkte Erwärmung (z.B. durch CO2). Die solare Rückkopplungsreaktion wird durch die Emissionstemperatur ausgelöst. Zu den nicht kondensierenden Treibhausgasen gehören CO2, Methan, Ozon, Distickstoffoxid und FCKW, nicht aber Wasserdampf. Der natürliche Treibhauseffekt ist die Differenz zwischen der Emissionstemperatur und der Temperatur im Jahre 1850, als das Industriezeitalter begann. Die Gleichgewichts-Klimasensitivität (ECS) ist letztlich die endgültige Erwärmung durch verdoppeltes CO2.

Infolge des Fehlers waren die Klimawissenschaftler davon ausgegangen, dass, obwohl nur etwa 1 °C – also ein Viertel der globalen Erwärmung, die sie durch die Verdoppelung des CO2 in der Luft vorhersagten – direkt von dem hinzugefügten CO2 herrührte, zu dieser direkten Erwärmung weitere 3 °C zusätzliche Erwärmung kommen würden, die als Rückkopplungsreaktion bezeichnet wird, hauptsächlich durch mehr Wasserdampf – ein Treibhausgas – der in die durch CO2 erwärmte Luft verdunstete.

Sie hatten angenommen, dass der natürliche Treibhauseffekt – die Differenz zwischen der Emissionstemperatur an der Oberfläche ohne Treibhausgase und der Oberflächentemperatur im Jahr 1850, zu Beginn des Industriezeitalters – 32 °C betrug. Davon hatten sie 8 °C für eine direkte Erwärmung durch die vorindustriellen Treibhausgase gehalten mit den verbleibenden 24 °C als Rückkopplung (Abb. 1a).

Abbildung 1: (a) irrige und (b) korrigierte Darstellung des natürlichen Treibhauseffektes

Die direkte Erwärmung durch verdoppeltes CO2 beträgt nur etwa 1°C, was nach irrtümlicher Vorstellung der Klimawissenschaftler eine Rückkopplung von 3°C auslösen wird, so dass 1°C direkte Erwärmung zu einer Enderwärmung von 4°C wird.

Sie hatten zwei Fehler gemacht, einen kleinen und einen sehr großen. Ihr kleiner Fehler: Sie hatten vergessen, dass es ohne Treibhausgase in der Luft keine Wolken gäbe, welche die Sonnenstrahlung wie ein Spiegel harmlos in den Weltraum reflektieren würden. Die wahre Emissionstemperatur – die Temperatur, die an der Oberfläche herrschen würde, wenn sich anfangs keine Treibhausgase in der Luft befänden – wäre etwa 12 °C größer als von ihnen berechnet. Der wahre natürliche Treibhauseffekt war also nicht 32 °C, sondern 12 °C kleiner, bei nur 20 °C.

Ihr sehr großer Fehler: Sie haben vergessen, dass die Sonne scheint. Denn fast die gesamte vorindustrielle Rückkopplung bis 1850 – die zusätzliche Erwärmung, von der sie alle dachten, sie sei durch nicht kondensierende Treibhausgase (andere Gase als Wasserdampf) ausgelöst worden – wurde in Wirklichkeit nicht durch diese Gase, sondern durch die Wärme der Sonne ausgelöst. Tatsächlich fügten sie hinzu, dass die solare Rückkopplung als Teil der vorindustriellen Treibhausgas-Rückkopplung, die sie um 3200% überbewertet hatten, falsch berechnet wurde.

Die Argonauten berechnen, dass von den echten 19,9 °C des natürlichen Treibhauseffekts (Abb. 1b) 13,1 °C eine Rückkopplung auf die durch die Sonnenwärme getriebene Emissionstemperatur waren (solare Rückkopplung). Nur 0,7 °C war eine vorindustrielle Rückkopplung auf die 6,1 °C direkte Erwärmung durch Treibhausgase.

Die 24 °C Rückkopplung der Klimawissenschaftler war um das 33-fache zu groß. Deshalb haben sie die Rückkopplung nicht nur der direkten vorindustriellen Erwärmung der Treibhausgase überbewertet, sondern auch die direkte Erwärmung im industriellen Zeitalter, die weitgehend durch unsere eigenen Treibhausgasemissionen von 1850-2020 verursacht wurde.

Die Auswirkungen der Überbewertung durch die Klimawissenschaftler waren gravierend. Die Argonauten sind der Ansicht, dass aufgrund des Irrtums die gegenwärtig vorhergesagte vom Menschen verursachte globale Erwärmung etwa dreimal zu groß ist. Eine Korrektur beendet die Krise.

Klimawissenschaftler hatten weit mehr globale Erwärmung prophezeit als tatsächlich eingetreten ist

In der Wissenschaft ist jede Theorie – wie schön oder gewinnbringend sie auch sein mag – falsch und muss geändert oder sogar ersetzt werden, wenn Daten aus der realen Welt ihr widersprechen. Die große Diskrepanz zwischen vorhergesagter und realer Erwärmung in den letzten Jahrzehnten hat in der Tat gezeigt, dass mit der offiziellen Theorie etwas sehr falsch sein muss.

IPCC (1990, S. xxiv) hatte zuversichtlich eine mittelfristige, vom Menschen verursachte Erwärmung von 3,4 °C pro Jahrhundert vorhergesagt. Die gemessene vom Menschen verursachte globale Erwärmung von 1990-2020 entsprach jedoch nur 1,15 °C pro Jahrhundert (Abb. 2).

Abbildung 2: Mittelfristige projizierte im Vergleich zu vom Menschen verursachten Erwärmungsraten, 1990 bis 2020

Die vom IPCC vorhergesagte mittelfristige vom Menschen verursachte Erwärmung hat sich als um das Dreifache zu groß erwiesen. Diese enorme Glaubwürdigkeitslücke zwischen Vorhersage und realem Wandel stimmt mit den Berechnungen der Argonauten überein.

Die Klimamodelle hatten auch die fast 19-jährige Pause der Erwärmung von 1997-2015 nicht vorhergesagt (Abb. 3). Gegen Ende dieses Zeitraums, als ein Drittel unseres Klimaeinflusses eingetreten war, aber keine Erwärmung eingetreten war, ersetzte das IPCC die Modellprojektionen durch sein „Expertenurteil“ und kürzte seine mittelfristigen Vorhersagen stark ab.

Abbildung 3: Keine Erwärmung während der 18 Jahre von Juli 1997 bis Januar 2016 (UAH)

Widersprüchlicherweise hat der IPCC nicht auch seine langfristige globale Erwärmungsvorhersage reduziert, die trotz Milliardenausgaben für die Klimaforschung bei 1,5-4,5 °C pro CO2-Verdoppelung bleibt. Diese Vorhersage ist seit dem Charney-Bericht (1979) vor mehr als 40 Jahren unverändert geblieben. Sie war und ist übertrieben.

Wie der Nobelpreisträger und Physiker Richard Feynman zu sagen pflegte: „Wenn Experimente mit der Theorie nicht übereinstimmen, ist die Theorie falsch. In dieser einfachen Aussage liegt der Schlüssel zur Wissenschaft.“ Vorhersagen über die globale Erwärmung stimmen nicht mit beobachteten und gemessenen Temperaturänderungen in der realen Welt überein. Die Korrektur des Fehlers löst diese Diskrepanz auf.

Wie der Fehler zustande kam: Klimawissenschaftler hatten übersehen, dass die Sonne scheint

Die Entstehungsgeschichte des Fehlers ist interessant. Zu Beginn des 20. Jahrhunderts hatten Arrhenius (1906) und Callendar (1938) vorausgesagt, dass die endgültige Erwärmung durch verdoppeltes CO2 in der Luft etwa 1,5 °C betragen würde. Obwohl die Rückkopplungstheorie damals noch in den Kinderschuhen steckte, waren ihre Schätzungen mehr oder weniger korrekt.

Eine der frühesten Arbeiten, die die mathematischen Grundlagen der Rückkopplungstheorie legten, war Black (1934). Eines Morgens im Jahr 1927 befand sich Harold S. Black auf dem Weg zur Arbeit in den Bell Labs in Manhattan, wo er Verfahren zur Reduzierung des Lärms auf Ferngesprächsleitungen entwickelte. Die Gleichungen für Rückkopplungen in dynamischen Systemen kamen ihm in den Sinn, und er notierte sie in der Zeitung jenes Tages, die bis heute im Bell Labs Museum ausgestellt ist.

Die rückgekoppelte Verstärkerschaltung von Black (Abb. 4) zeigt nicht nur den μ Verstärker (im Klima, direkte Erwärmung durch Treibhausgase) und den β Rückkopplungsblock, sondern auch das Eingangssignal e (die durch die Sonnenwärme getriebene Emissionstemperatur bei Abwesenheit von Treibhausgasen). Das Papier von Black nennt e die „Signaleingangsspannung“.

Die Klimawissenschaftler hatten nicht erkannt, dass man keinen Verstärker ohne ein zu verstärkendes Eingangssignal haben kann.

Der Verstärkungsblock μ im Blockdiagramm von Black (Abb. 4) verstärkt das Eingangssignal e, so wie die direkte Treibhausgas-Erwärmung die Emissionstemperatur verstärkt. Der β-Rückkopplungsblock erzeugt eine Rückkopplung nicht nur auf den μ-Verstärkungsblock (direkte Treibhausgas-Erwärmung), sondern auch auf das Eingangssignal e.

Abbildung 4: R+ckkopplungs-Verstärkungs-Blockdiagramm, welches das Eingangssignal e zeigt, also die Nicht-Treibhausgas-Emissionstemperatur, welche die Klimawissenschaftler übersehen hatten.

Wenn man die große solare Rückkopplung übersieht, addiert man sie effektiv zu der eigentlich winzigen vorindustriellen Rückkopplung auf die direkte Erwärmung durch nicht kondensierende Treibhausgase (wie CO2, Methan, Distickstoffoxid und Ozon, denn Änderungen in der Konzentration des wichtigsten kondensierenden Treibhausgases, Wasserdampf, werden als Rückkopplung behandelt) und zählt sie falsch. Diese falsche Zuordnung bläht die Rückkopplung auf die Treibhauserwärmung auf und führt dazu, dass Klimawissenschaftler die globale Erwärmung überbewerten. Die Klimawissenschaftler hatten vergessen, dass die Sonne scheint und ihre eigene substanzielle Rückkopplung antreibt.

1945 schrieb Harold Blacks Kollege bei Bell Labs, Hendrik Wade Bode, das Standard-Lehrbuch über das Design von Rückkopplungsverstärkern. Es erwies sich als so populär, dass es 30 Jahre lang jährlich veröffentlicht wurde.

Das Blockschaltbild des Rückkopplungs-Verstärkers (Bild 5) ist praktisch identisch mit dem von Black. Hier ist E0 das Eingangssignal, dessen große Rückkopplung Klimawissenschaftler irrtümlicherweise zur Rückkopplung der direkten Erwärmung durch Treibhausgase addieren hatten.

Abbildung 5: Blockdiagramm des Rückkopplungsverstärkers (Bode, 1945), welches das Eingangssignal E0 (in Klima, Emissionstemperatur) zeigt, das die Klimawissenschaftler übersehen hatten, wodurch versehentlich die solare Rückkopplung zur Rückkopplung der direkten Erwärmung durch vorindustrielle, nicht kondensierende Treibhausgase addiert wurde.

1945 schrieb Harold Blacks Kollege bei Bell Labs Hendrik Wade Bode das Standardlehrbuch über die Konstruktion von Rückkopplungsverstärkern. Es erwies sich als so populär, dass es 30 Jahre lang jährlich veröffentlicht wurde.

Das Blockschaltbild des Rückkopplungs-Verstärkers (Abb. 5) ist funktionell identisch mit dem von Black. Hier ist E0 das Eingangssignal, dessen große Rückkopplung Klimawissenschaftler irrtümlicherweise zur Rückkopplung der direkten Erwärmung durch Treibhausgase addiert hatten.

Leider zitierten die Klimaforscher Bodes Buch, ohne es jedoch zu verstehen, gerade in dem Moment, als die Digitalisierung die Bedeutung der Rückkopplungstheorie geschmälert hatte. So schrieb zum Beispiel Hansen (1984):

Wir verwenden Verfahren und Terminologie von Rückkopplungsstudien in der Elektronik (Bode, 1945), um die Beiträge verschiedener Rückkopplungsprozesse analysieren zu können. Wir definieren die Systemverstärkung als das Verhältnis des Netto-Rückkopplungsanteils der Temperaturänderung zur gesamten Temperaturänderung“.

Hier beschreibt Hansen fälschlicherweise den Rückkopplungsanteil (den Anteil der End- oder Gleichgewichtstemperatur oder Erwärmung, der durch die Rückkopplung dargestellt wird) als „Systemverstärkung“. Der Systemverstärkungsfaktor ist eigentlich die Größe, mit der die direkte Temperatur oder Erwärmung vor der Rückkopplung multipliziert wird, um die End- oder Gleichgewichtstemperatur oder -erwärmung zu erhalten, nachdem die Rückkopplung gewirkt und das Klima wieder ins Gleichgewicht gebracht hat.

Hansens schwerwiegenderer Fehler ist jedoch nicht der einer bloßen Nomenklatur. Er versäumt es, die solare Rückkopplung zu erwähnen, geschweige denn sie zu erklären. Deshalb stellt er sich vor, dass die direkte Erwärmung von wenig mehr als 1 °C durch das verdoppelte CO2 in der Luft zu einer schlussendlichen oder Gleichgewichtserwärmung von etwa 4 °C wird, so wie es Lacis et al., Hansens Kollegen am NASA Goddard Institute for Space Studies, in den Jahren 2010 und 2013 getan haben und so wie es heutige Modelle tun (z.B. Zelinka et al., 2020, Sherwood et al., 2020).

Schlesinger (1988) verschlimmerte Hansens Fehler und zementierte ihn. Sein Rückkopplungs-Blockdiagramm (Abb. 6) zeigt Verstärkungs- und Rückkopplungsblöcke, aber wie Hansen berücksichtigte er weder die Emissionstemperatur noch ihre große Rückkopplung, die er effektiv als Teil der Rückkopplung auf die direkte Erwärmung durch die vorindustriellen, nicht kondensierenden Treibhausgase falsch berechnet hat.

Abbildung 6: Fehlerhaftes Rückkopplungs-Blockdiagramm (Schlesinger 1988). Das Eingangssignal, die Emissionstemperatur, ist nicht vorhanden. Schlesinger impliziert somit, dass die große solare Rückkopplung darauf Teil der eigentlich winzigen Rückkopplung auf die vorindustrielle direkte Erwärmung durch nicht kondensierende Treibhausgase ist.

So stellte sich Schlesinger vor, dass der Rückkopplungsanteil – der Anteil der End- oder Gleichgewichtserwärmung, der durch die Rückkopplung repräsentiert wird – bis zu 71% betragen würde, ähnlich wie die 75% in Lacis et al.

1988 sagte Hansen vor dem US-Senat aus und prophezeite eine sehr schnelle globale Erwärmung. Seine Vorhersagen waren jedoch in seinem Irrtum verwurzelt. In jenem Jahr wurde das IPCC ins Leben gerufen. Sein Erster Sachstandsbericht sagte 1990, ebenfalls aufgrund des Irrtums, mittelfristig dreimal so viel globale Erwärmung voraus als während der folgenden 30 Jahre bis heute eingetreten ist (Abb. 2). Sein fünfter und jüngster Sachstandsbericht (IPCC 2013, S. 1450) definierte die Klima-Rückkopplung so:

Klima-Rückkopplung: Eine Wechselwirkung, bei der eine Störung in einer Klimagröße eine Änderung in einer zweiten bewirkt und die Änderung der zweiten Größe letztlich zu einer zusätzlichen Änderung der ersten führt. Eine negative Rückkopplung ist eine Rückkopplung, bei der die anfängliche Störung durch die von ihr verursachten Änderungen abgeschwächt wird; eine positive Rückkopplung ist eine Rückkopplung, bei der die anfängliche Störung verstärkt wird … die Klimagröße, die gestört wird, ist die globale mittlere Oberflächentemperatur, die wiederum Änderungen des globalen Strahlungshaushalts verursacht. … Die anfängliche Störung … kann von außen erzwungen werden oder als Teil der internen Variabilität auftreten“.

Die IPCC-Definition spiegelt nicht die in der Kontrolltheorie inzwischen fundierte Tatsache wider, dass das Eingangssignal – in Klima, Emissionstemperatur – selbst eine große solare Rückkopplung erzeugt.

Das IPCC verfügt über ein Fehlerbericht-Erstattungsprotokoll, zu dessen Annahme er von seinen Mitgliedsstaaten verpflichtet worden war, nachdem es eine Reihe von peinlichen Fehlern veröffentlicht hatte. Nach diesem Protokoll wurde der vorliegende Fehler dem IPCC gemeldet. Das IPCC weigerte sich jedoch sogar, den Erhalt des Fehlerberichts zu bestätigen, obwohl er zweimal an mehrere IPCC-Beamte und an das Sekretariat geschickt wurde. Nun, da der Fehler ans Licht gekommen ist, wird das IPCC nicht mehr benötigt.

Konsequenzen des Fehlers

Die direkteste Folge des Fehlers ist, dass, wenn die Emissionstemperatur weggelassen wird (Abb. 6-7), die große solare Rückkopplung fälschlicherweise zur eigentlich winzigen vorindustriellen Rückkopplung auf die direkte Erwärmung durch Treibhausgase addiert und entsprechend falsch gezählt wird.

Abbildung 7: Klimawissenschaftler stellen sich vor, dass 8°C direkte Erwärmung durch vorindustrielle, nicht kondensierende Treibhausgase eine Rückkopplung von 24°C bewirkten. Ihr Systemverstärkungsfaktor beträgt also 32 / 8 oder 4: Mit anderen Worten, sie multiplizieren jede direkte vom Menschen verursachte Erwärmung mit etwa 4, um die endgültige Erwärmung zu erhalten. Da die direkte Erwärmung als Reaktion auf das verdoppelte CO2 in der Luft etwa 1°C beträgt, sagen heutige Modelle nach Berücksichtigung der Rückkopplung eine mögliche Erwärmung von etwa 4°C voraus.

Das Team korrigierte diesen Fehler und berechnete, dass man die 6,1 °C direkte Erwärmung durch die vorindustriellen, nicht kondensierenden Treibhausgase nicht mit einem Systemgewinnfaktor von 32 / 8 oder 4 multiplizieren sollte, wie es Klimawissenschaftler tun. Stattdessen sollte man sie mit einem Systemverstärkungsfaktor von 6,8 / 6,1 oder nur mit 1,11 multiplizieren. Da sich die Erwärmung mit zunehmender Oberflächentemperatur ein wenig beschleunigt, wird aus dem Faktor 1,11 heute etwa 1,19.

Daher wird die direkte globale Erwärmung von 1,06 °C als Reaktion auf die Verdoppelung des CO2-Gehalts in der Luft zu einer Enderwärmung von nur 1,19 x 1,06, also nur 1,25 °C.
Die globale Erwärmung wird also weniger als ein Drittel der 4 °C betragen, die sich die Klimaforscher vorgestellt hatten.

Abb. 8 vergleicht die korrigierte Erwärmung mit aktuellen Vorhersagen.

Abbildung 8: Korrigierte Enderwärmung im Vergleich zu den Vorhersagen der Klimatologen.

Abb. 1 und 8 können kombiniert werden, um Abb. 9 zu erhalten, die die signifikante Kohärenz zwischen (a) der dreifach überhöhten Vorhersage der Klimawissenschaftler von 1990 über die mittelfristige, vom Menschen verursachte globale Erwärmung bis 2020 im Vergleich zur realen Erwärmung und (b) der dreifach überhöhten Vorhersage der Klimawissenschaftler von 1990 über die langfristige, endgültige Erwärmung durch verdoppeltes CO2 im Vergleich zu den korrigierten 1,25 °C zeigt.

Später wird sich auch zeigen, dass diese dreifach überhöhten Vorhersagen der mittel- und langfristigen globalen Erwärmung mit der dreifach überhöhten Vorhersage der mittelfristigen Erwärmung der tropischen Mitteltroposphäre über die letzten Jahrzehnte zusammenhängen (Abb. 19). 

Die von den Argonauten nach Korrektur des physikalischen Fehlers der Klimaforscher abgeleitete Enderwärmung von 1,25°C stimmt mit der Rate der beobachteten Erwärmung von 1850-2020 überein, aber die gesamte Bandbreite der Vorhersagen der Klimaforscher über die Enderwärmung stimmt nicht mit der Rate der beobachteten Erwärmung überein.

Abbildung 9: Klimatologen haben (a) die mittelfristige globale Erwärmung seit 1990 und (b) die langfristige, endgültige globale Erwärmung (d.h. die gleichgewichtige Klimasensitivität oder ECS) im Vergleich zu den auf Beobachtungen basierenden Werten überprognostiziert. Mittel- und langfristige Erwärmungsvorhersagen sind kohärent, wenn die Erwärmung um das Dreifache überbewertet wird.

Die Seiten 8-9, die ein wenig technisch sind, zeigen, wie die Argonauten fünf Tests zur Bewertung von Vorhersagen der globalen Erwärmung entwickelt haben. Zunächst nutzten sie die Tests, um ihre eigene Berechnung zu überprüfen, dass es nach Korrektur des Fehlers der Klimawissenschaftler zu einer Enderwärmung von 1,25°C durch verdoppeltes CO2 kommen würde (bekannt als Gleichgewichtsklimaempfindlichkeit oder ECS), mit einem Bereich von 1,05 bis 1,50°C. Als nächstes überprüften sie den gesamten Bereich der von den Klimawissenschaftlern vorhergesagten ECS von 2,0 bis 5,7°C, wobei sie Werte in diesem vorhergesagten Bereich als Input für einen Algorithmus verwendeten, um herauszufinden, ob und in welchem Ausmaß jede Vorhersage zu einem Widerspruch führte.

Die fünf Tests zum Nachweis, dass die Prophezeiungen der Klimawissenschaftler exzessiv sind

Lewis & Curry (2015) zeigten, dass man ohne ein gigantisches Klimamodell die endgültige Erwärmung durch verdoppeltes CO2 aus der beobachteten globalen Erwärmung des Industriezeitalters, den offiziell geschätzten Veränderungen, die durch unsere Treibhausgasemissionen verursacht werden, und dem gemessenen Strahlungsungleichgewicht der Erde berechnen kann. Sie kamen zu dem Schluss, dass die endgültige Erwärmung etwa 1,5°C betragen würde, so wie es Arrhenius und Callendar vor einem Jahrhundert getan hatten.

Ungeachtet einer ähnlich geringen Erwärmung, die in Lewis & Curry und vielen anderen Arbeiten (z.B, Lindzen & Choi 2011; Aldrin et al. 2012; Otto et al. 2013; Akasofu 2013; Spencer & Braswell 2014; Skeie et al. 2014; Soon et al. 2015; Bates 2016), haben die Klimaforscher ihre Vorhersagen von etwa 4 °C Enderwärmung als Reaktion auf die Verdoppelung des CO2-Gehalts in der Luft nicht reduziert, um die Reduktion zu erreichen, zu der sie die langsame Erwärmung der realen Welt in ihren mittelfristigen Vorhersagen der vom Menschen verursachten globalen Erwärmung gezwungen hatte.

Deshalb entwickelten die Argonauten fünf mathematische Tests, um festzustellen, ob ein Wert der Enderwärmung durch verdoppeltes CO2 aus dem Vorhersagebereich der Klimawissenschaftler von 2 °C bis 5,7 °C möglich war.

Test 1 basierte auf den Berechnungen des Teams, die zeigten, dass nach Korrektur des Fehlers der Klimawissenschaftler der wahre Bereich der Enderwärmung durch verdoppeltes CO2 1,05 bis 1,5 °C beträgt, mit einer mittleren Schätzung von 1,25 °C.

Selbst die geringste Vorhersage der Klimaforscher, 2 °C, scheitert bei diesem Test (Abb. 10).

Abbildung 10: Die neuesten offiziellen Vorhersagen der endgültigen Erwärmung oder ECS (Sherwood et al. 2020), verglichen mit der von Monckton of Brenchley et al. korrigierten ECS.

Die Tests 2-5 basieren auf Unit-Feedback-Reaktionen (UFR), d.h. Rückmeldungen pro 1 °C direkter Erwärmung.

Test 2 geht davon aus, dass die UFRs als Reaktion auf die direkte Treibhausgas-Erwärmung mit der Erwärmung der Oberfläche wachsen.

Die UFR ab 2020 sollte die UFR von 1850-2020 übertreffen, die wiederum die vorindustrielle UFR übertreffen sollte.

Doch selbst UFRs auf der Grundlage der geringsten Vorhersage der Klimatologen (ECS) von 2°C durch verdoppeltes CO2 basieren, scheitern bei diesem Test (siehe Einbruch der orangefarbenen Linie in Abb. 11).

Alle Vorhersagen über 2 °C fallen in Test 2 noch stärker durch.

Abbildung 11: Rückkopplungs-Reaktionen der Einheit U0 ≤ U1 ≤ U2 (solche pro 1 °C direkter Treibhauserwärmung) sollten mit der Erwärmung zunehmen. Sie tun genau das unter der Annahme einer Enderwärmung von 1,25°C durch verdoppeltes CO2 (equilibrium climate sensitivity, oder ECS: die grüne Linie). Basierend auf der vorhergesagten ECS ≥ 2°C in aktuellen Klimamodellen geht die Reihe jedoch unweigerlich nach unten statt nach oben.

Test 3 ermittelt, wie stark sich die Erderwärmung zwischen 1850 und 2020 hätte sein sollen, wenn eine gegebene Vorhersage der endgültigen Erwärmung durch verdoppeltes CO2 (ECS) zutreffen würde. Von 1850-2020 gab es eine gemessene globale Erwärmung von 0,9 °C. Allerdings impliziert selbst die vorhergesagte abschließende Erwärmung um 2 °C durch verdoppeltes CO2 (ECS) eine Erwärmung um 1,4 °C von 1850-2020, was wiederum das Eineinhalbfache der Erwärmung um 0,9 °C in diesem Zeitraum darstellt.

Test 3: Bei der mittleren ECS von 1850-2020 von 3,7 °C hätte es nicht 0,9 °C, sondern 2,5 °C Erwärmung geben müssen.

Die Obergrenze der Enderwärmung von 5,7°C würde eine Erwärmung um 3,6 °C von 1850-2020 bedeuten: das Vierfache der realen 0,9 °C (Abb. 12).

Somit fallen alle Vorhersagen der Klimawissenschaftler in Test 3 durch.

Abbildung 12: Alle derzeitigen Prognosen der Enderwärmung (ECS) von 2°C oder mehr aufgrund einer CO2-Verdoppelung im Zeitraum 1850 bis 2020 liegen weit über den gemessenen 0,9°C.

Test 4 leitet den vorindustriellen UFR und den durch die Emissionstemperatur ausgelösten UFR aus einer ECS-Vorhersage ab und nimmt deren Verhältnis X.
Selbst die von Klimawissenschaftlern prophezeite untere Grenze der Bandbreite von
2 °C impliziert einen vorindustriellen UFR, der zehnmal so hoch ist wie der UFR bei der Emissionstemperatur. Bei 1,25 °C ECS ist sie nur 2,4-mal so hoch.
Bei größeren Vorhersagen wächst der Überschuss rasch an (Abb. 13).

Abbildung 13: Der Anstieg des Basis-UFR-Verhältnisses X (das vorindustrielle UFR geteilt durch die Emissions-Temperatur UFR), der durch die vorhergesagte Enderwärmung ΔE2 impliziert wird, verdoppelte das CO2, wobei die Emissionstemperatur (a) 267,6 K und (b) 255,3 K beträgt.

Test 5 leitet die verdoppelten CO2– und 1850-2020 UFR-Werte aus einer gegebenen ECS-Vorhersage ab und nimmt deren Verhältnis X2.

Auch hier ist selbst bei 2 °C vorhergesagter ECS die Verdoppelung von CO2UFR das 5-fache von 1850-2020 UFR.

Bei 3,7 °C vorhergesagter ECS im mittleren Bereich ist der verdoppelte CO2UFR 14-mal so hoch wie der 1850-2020 UFR.

Bei 5,7 °C vorhergesagter ECS des oberen Bereichs ist der verdoppelte CO2UFR-Wert 24-mal so hoch wie der von 1850-2020 UFR.

Werte von X2 weit über 1 sind unmöglich.

Der gesamte Bereich der ECS-Vorhersagen der Klimaforscher fällt in Test 5 durch.

Abbildung 14: Der Anstieg des zeitweiligen UFR-Verhältnisses X2 (das von den UFR-Klimawissenschaftlern verdoppelte CO2-Verhältnis geteilt durch das UFR-Verhältnis 1850-2020), das sich aus der vorhergesagten Enderwärmung ΔE2 durch den gesamten Bereich der ECS ergibt, verdoppelte das CO2, wobei die Emissionstemperatur (a) 267,6 K und (b) 255,3 K beträgt, fallen die Vorhersagen fallen in Test 5 durch.

Dementsprechend versagt das gesamte Spektrum der aktuellen Vorhersagen zur globalen Erwärmung in allen fünf Tests; und wie die Abbildungen 10 bis 14 zeigen, ist das Versagen umso größer, je höher die Vorhersage ist. Im Gegensatz dazu entspricht die vom Team berechnete Enderwärmung von 1,25 °C durch verdoppeltes CO2, die als Grundlage für Test 1 dient, den Tests 2-5.

Wie die Klimamodelle die Zunahme des Wasserdampfes in der oberen Atmosphäre überbewerteten

Nachdem die Argonauten den physikalischen Fehler der Klimawissenschaftler korrigiert und mit Hilfe der fünf Tests theoretisch festgestellt hatten, dass die Klimamodelle eine um das Dreifache zu hohe globale Erwärmung vorhersagen, suchten sie nach einer physikalischen Diskrepanz zwischen der Art und Weise, wie die Modelle das Verhalten eines relevanten Aspektes des Klimas simulieren, und dessen gemessenem, realen Verhalten.

Da Klimamodelle die vorindustrielle Rückkopplungsreaktion um 3200% überbewerten, begannen die Argonauten zu untersuchen, wie die Modelle die Wasserdampfrückkopplung darstellen, die von den Klimawissenschaftlern als der mit Abstand wichtigste Rückkopplungsprozess im Klima angesehen wird, löst dieser doch alle oder fast alle Netto-Rückkopplungsreaktionen aus.

Tatsächlich wurde eine bemerkenswerte Diskrepanz zwischen den Vorhersagen der Modelle und der beobachteten Realität festgestellt. Klimamodelle sagen voraus, dass sich die tropische Mitteltroposphäre in 10.000 m Höhe mehr als doppelt so schnell erwärmen dürfte wie die Oberfläche. In Wirklichkeit gibt es jedoch keinen solchen Hotspot. Die tropische obere Atmosphäre erwärmt sich nur ein wenig schneller als die Oberfläche. Alle Modelle waren falsch. Wo immer die Daten aus der realen Welt zeigen, dass die Modelle falsch sind, sind die Daten zu bevorzugen. Irgendwo lauert ein großer Fehler.

Abb. 15a (IPCC (2007, Abb. 9.1c) sagt diesen tropischen Hotspot in der Mitte der Troposphäre voraus, aber es gibt keinen Hotspot im realen vertikalen Temperaturprofil von bis zu 26.000 Metern Höhe, gemessen von Millionen von Ballonsensoren (Abb. 15b: Lanzante et al. 2006)

Abbildung 15: (a) prophezeites und (b) gemessenes vertikales Temperaturprofil der Atmosphäre

Der Hotspot wird von vielen einschlägigen Klimamodellen simuliert (Abbildung 16). Fehlt dieser, kann die Wasserdampf-Rückkopplung nicht so substantiell sein wie von den Modellen simuliert. Warum aber fehlt dieser prophezeite Hotspot?

Abbildung 16 Der Hotspot in vier Modellen (Lee at al. 2007: jedes Farbband repräsentiert 1°C)

IPCC 2007 (Abb. 9.1: hier Abb. 17) nahm an, dass der Hotspot der Fingerabdruck der vom Menschen verursachten Erwärmung sei.

Natürliche Einflüsse durch die Sonne, Vulkane, künstliches Ozon (O3) und Aerosole schienen den Hotspot nicht zu verursachen, wohl aber die vom Menschen verursachte Treibhausgas-Erwärmung.

Doch das IPCC hatte sich geirrt. Klimawissenschaftler sagen nun, dass der Hotspot ein Zeichen der globalen Erwärmung wäre, wie auch immer verursacht.

Abbildung 17: Der imaginäre Hotspot als Fingerabdruck der vom Menschen verursachten globalen Erwärmung.

Aber der Hotspot ist und bleibt abwesend. IPCC 2007 (Abbildung 10.7, hier Abbildung 18) prophezeite, dass sich der Hotspot mit der Zeit und der globalen Erwärmung ausbilden werde. Aber das IPCC hatte sich erneut geirrt.

Abbildung 18: Der Hotspotsoll sich angeblich im Zuge der Erwärmung bilden.

Obwohl das IPCC eine rasche Erwärmung der tropischen Oberluft vorhersagte, wurde sie in den Modellen von 1981-2016 im Vergleich zu den Daten aus der realen Welt um das Dreifache überbewertet (Christy 2019: hier Abb. 19).

Die Modelle wurden so programmiert, dass sie davon ausgehen, dass Wasserdampf, wie CO2, Methan, Distickstoffoxid und Ozon, in der gesamten Atmosphäre gut vermischt wäre. Das ist natürlich Unsinn.

Abbildung 19: Die Modelle überbewerten die Erwärmung der tropischen mittleren Troposphäre um das Dreifache zu hoch.

Die Modelle sagen voraus, dass der Wasserdampf in allen Höhenlagen zunehmen wird. Das ist falsch. In der mittleren Troposphäre sinkt die spezifische Feuchtigkeit seit 70 Jahren (NASA ESRL 1948-2020: hier Abb. 20).

Kein Hot Spot bedeutet eine geringe Wasserdampfrückkopplung und sehr geringe Erwärmung, was die Analyse des Teams bestätigt und belegt, dass sie mit den Beobachtungen in der realen Welt übereinstimmt.

Abbildung 20: In der mittleren Troposphäre nimmt die spezifische Feuchtigkeit ab (Kalnay et al. 1996).

Schlussfolgerung: Der moralische Imperativ lautet: Zugang zu bezahlbarem Strom für alle!

Nachdem der schwerwiegende physikalische Fehler der Klimaforscher korrigiert worden war, beträgt die globale Erwärmung ein Drittel dessen, was prophezeit worden ist, kohärent mit der realen Erwärmung, die ein Drittel der von ihnen vorhergesagten beträgt, und kohärent mit dem Rückgang des Wasserdampfes in der mittleren tropischen Troposphäre und mit dem Fehlen des vorhergesagten Hot Spots.

Aufgrund des Fehlers vergeben viele Banken keine Kredite mehr an Entwicklungsländer für Kohlekraftwerke: ab 2010 die Weltbank; ab 2015 Credit Agricole, Citibank, ANZ und Goldman Sachs; ab 2016 JP Morgan, Deutsche Bank, PNC, Credit Suisse, ABN Amro, Standard Chartered, US Bancorp, Commerzbank und Barclays; ab 2017 DZ Bank und NAB; ab 2018 DBS; ab 2019 sogar die Afrikanische Entwicklungsbank.

Doch laut Weltgesundheitsorganisation sterben 4 Millionen Menschen pro Jahr in Haushalten ohne Strom durch das Einatmen von Kochfeuerrauch und 500.000 Frauen pro Jahr bei der Geburt – nur zwei der zahlreichen Ursachen für vorzeitigen Tod durch fehlenden Zugang zu Elektrizität. Die Internationale Energieagentur definiert „Zugang“ als nicht mehr als die Kapazität, eine 60-Watt-Glühbirne vier Stunden täglich zu benutzen. Eine Milliarde Menschen haben keinen Zugang zu elektrischer Energie – eine Entwicklungspriorität, die heutzutage sicher und erschwinglich durch Kohleverstromung erfüllt werden kann.

Die ungerechtfertigte Furcht vor einer großen, raschen und gefährlichen globalen Erwärmung hat Mittel für Umweltverbesserungen verschlungen, die für erschwingliche und praktikable Lösungen für die vielen realen Umweltprobleme hätten ausgegeben werden müssen, die sich aus Armut und Elend in den Entwicklungsländern ergeben – Lösungen wie die universelle, erschwingliche, kontinuierliche, zuverlässige, kohle- und gasbefeuerte Elektrifizierung, die jetzt wieder möglich ist.

Nach der Korrektur des Fehlers wird die Indoktrination von Kindern über die globale Erwärmung von Cannow eingestellt. Viele haben ihre Kindheit durch grundlose Angst ruiniert, manche haben sich sogar aus Verzweiflung umgebracht.

Es gibt viele wirkliche Umweltprobleme, aber die langsame, leichte und insgesamt vorteilhafte Erwärmung, die nach der Korrektur des langjährigen und kostspieligen Fehlers der Klimawissenschaftler zu erwarten ist, gehört nicht dazu.Die Palette von Klimaregeln, Beschränkungen, Steuern, Auflagen, Konferenzen, Reden und Verträgen ist unnötig. Die vom Menschen verursachte globale Erwärmung verursachte, verursacht keinen „Klima-Notstand und wird dies auch niemals verursachen“. Es ist alles vorbei.

References

Akasofu S-I (2013) On the present halting of global warming. Climate 1(1):4–11.

Aldrin M, Horden M, Guttorp P, Skeie RB, Myhre G, Berntsen TK (2012) Bayesian estimation of climate sensitivity based on a simple climate model fitted to observations of hemispheric temperature and global ocean heat content. Environmetrics 23:253–271. https://doi.org/10.1002/env.2140

Andrews T, Gregory JM, Webb MJ, Taylor KE (2012) Forcing, feedbacks and climate sensitivity in CMIP5 coupled atmosphere– ocean climate models. Geophys Res Lett 39:L09712. https://doi.org/10.1029/2012GL051607

Arrhenius S (1906) Die vermutliche Ursache der Klimaschwankungen (“The possible cause for climate variability”) Meddelanden från K Vetenskapsakademiens Nobelinstitut 1(2):1ff

Bates JR (2016) Estimating climate sensitivity using two-zone energy–balance models. Earth Space Sci 3(5):207–225. https://doi.org/10.1002/2015EA000154

Black HS (1934) Stabilized feedback amplifiers. Bell System Tech J 1–18

Bode HW (1945) Network analysis and feedback amplifier design. Van Nostrand Reinhold, New York, 31–43

Callendar GS (1938) The artificial production of carbon dioxide and its influence on temperature. Q.J.R. Met. Soc. 64(275), 223– 240. https://doi.org/10.1002/qj.49706427503

Charney JG, Arakawa A, Baker DJ, Bolin B, Dickinson RE, Goody RM, Leith CE, Stommel HM, Wunsch CI, (1979) Carbon

Dioxide and Climate: A Scientific Assessment Report of an Ad-Hoc Study Group on Carbon Dioxide and Climate. Climate Research Board, Assembly of Mathematical and Physical Sciences, National Research Council, Woods Hole, Massachusetts Christy J (2019) The tropical skies: falsifying climate alarm. Global Warming Policy Foundation, London.

Hansen J, Lacis A, Rind T, Russel G, Stone P, Fung I, Ruedy R, Lerner J (1984) Climate sensitivity 1984: Analysis of feedback mechanisms. In: Climate Processes and Climate Sensitivity (AGU Geophysical Monograph 29). Hansen J Takahashi T (eds).

American Geophysical Union 130-163

IPCC (1990) Climate change – The IPCC Assessment: Report prepared for the Intergovernmental Panel on Climate change by Working Group 1. Houghton JT, Jenkins GJ, Ephraums JJ (eds). Cambridge University Press

IPCC (2001) Climate Change 2001: The scientific basis Contribution of Working Group I to the Third Assessment Report of the Intergovernmental Panel on Climate Change. Houghton JT et al (eds). Cambridge University Press

IPCC (2007) Climate Change 2007: The physical science basi.s Contribution of Working Group I to the Fourth Assessment Report of the Intergovernmental Panel on Climate Change. Solomon S et al (eds). Cambridge University Press

IPCC (2013) Climate change 2013: The physical science basis. Contribution of Working Group I to the Fifth Assessment Report of the Intergovernmental Panel on Climate Change. Stocker TF et al (eds). Cambridge University Press

Kalnay E, Kanamitsu M, Kistler R, Collins W, Deaven D, Gandin L, Iredell M, Saha S, White G, Woollen J, Zhu Y, Chelliah M,

Ebisuzaki W, Higgins W, Janowiak J, Mo KC, Ropelewski C, Wang J, Leetmaa A, Reynolds R, Jenne R, Joseph D (1996) The NCEP/NCAR Reanalysis 40–year Project. Bull Amer Meteor Soc 77:437–471

Lacis AA, Schmidt GA, Rind D, Ruedy RA (2010) Atmospheric CO2: principal control knob governing Earth’s temperature. Science

330: 356–359

Lacis AA, Hansen JE, Russel GL, Oinas V, Jonas J (2013) The role of long-lived greenhouse gases as principal LW control knob that governs the global surface temperature for past and future climate change. Tellus B 65:19734: https://doi.org/10.3402/tellusb.v65i0.19734

Lanzante JR, Peterson TC, Wentz FJ, Vinnikov KY (2006) CCSP synthesis and assessment report 11. In: Temperature Trends in the lower atmosphere: steps for understanding and reconciling differences. US Climate Change Science Program and Subcommittee on

Global Change Research (Karl TR, Hassol SJ, Miller CD, Murray WL, eds.). National Oceanographic & Atmospheric Administration, National Climatic Data Center, Asheville North Carolina

Lee MI, Suarez MJ, Kang IS, Held IM, Kim D (2007) A moist benchmark calculation for the atmospheric general-circulation models. J Clim 21:4934–4954

Lewis N, Curry JA (2015) The implications for climate sensitivity of AR5 forcing and heat uptake estimates. Clim Dyn 45:1009–

1023. https://doi.org/10.1007/s003820142342y

Lindzen RS, Choi Y-S (2011) On the observational determination of climate sensitivity and its implications. Asia-Pacific J Atmos Sci 47(4):337–290. https://doi.org/10.1007/s131430110023x

Meehl GA, Senior CA, Eyring V, Flato G (2020) Context for interpreting equilibrium climate sensitivity and transient climate response from the CMIP6 Earth system models. Sci Adv 6(26). https://doi.org/10.1126/sciadv.aba1981

HadCRUT4 dataset: metoffice.gov.uk/hadobs/hadcrut4/data/current/time_series/HadCRUT.4.6.0.0.monthly_ns_avg.txt (accessed

November 2020)

Otto A, Otto F, Boucher O et al (2013) Energy budget constraints on climate response. Nat Geosci 6:415–416. https://doi.org/10.1038/ngeo1836

Schlesinger ME (1988) Feedback analysis of results from energy balance and radiative–convective models In: MacCracken MC, Luther FM (eds). The potential climatic effects of increasing carbon dioxide. US Dept of Energy, Washington DC, pp 280–319

Sherwood SC, Webb MJ, Annan JD, Armour KC, Forster PM, Hargreaves JC, Hegerl G, Klein SA, Marvel KD, Rohling EJ, Watanabe M, Andrews T, Braconnot P, Bretherton CS, Foster GL, Hausfather Z, von der Heydt AS, Knutti R, Mauritsen T, Norris JR, Proistosescu C, Rugenstein M, Schmidt GA, Tokarska KB, Zelinka MD (2020) An assessment of Earth’s climate sensitivity using multiple lines of evidence. Rev Geophys. https://doi.org/10.1029/2019RG000678

Skeie RB, Berntsen T, Aldrin M, Holden M, Myhre G (2014) A lower and more constrained estimate of climate sensitivity using updated observations and detailed radiative forcing time series. Earth Syst Dyn 5:139–175

Soon WW-H, Connolly R, Connolly M (2015) Re-evaluating the role of solar variability on Northern Hemisphere temperature trends since the 19 century. Earth-Sci Rev 150:409–452. https://doi.org/10.1016/j.earscirev.2015.08.010

Spencer RW, Braswell WD (2014) The role of ENSO in global ocean temperature changes during 1955–2011 simulated with a 1D climate model. Asia–Pacific J Atmos Sci 50(2):229–237

UAH dataset: monthly global mean land and sea lower-troposphere temperature anomalies (accessed November 2020). http://www.nsstc.uah.edu/data/msu/v6.0/tlt/uahncdc_lt_6.0.txt

Wu T, Hu A, Gao F, Zhang J, Meehl GA (2019) New insights into natural variability and anthropogenic forcing of global/regional climate evolution. Clim Atmos Sci 2(18). https://doi.org/10.1038/s4161201900757

Zelinka MD, Myers TA, McCoy DT, Po-Chedley S, Caldwell PM, Ceppi P, Klein SA, Taylor KE (2020) Causes of higher climate sensitivity in CMIP6 models. Geophys Res Lett. https://doi.org/10.1029/2019GL085782

Autoren (die Argonauten):

Christopher Monckton of Brenchley (monckton@mail.com) is a former adviser to Margaret Thatcher on science and policy at 10 Downing Street. He discovered climate scientists’ error and gathered the Argonauts to investigate it.

Dr Dietrich Jeschke is Professor of Control Theory at the Flensburg University of Applied Sciences.

Dr Willie Soon is an award-winning astrophysicist at the Harvard-Smithsonian Center for Astrophysics.

Dr David Legates is Professor of Climatology at the University of Delaware and a former State Climatologist. He is currently Executive Director of the U.S. Global Change Research Program.

Dipl.-Ing. Michael Limburg is a control engineer and climate specialist at the Europäisches Institut für Klima und Energie.

Alex Henney (alexhenney@aol.com) advises governments worldwide on the global electricity market and grid development.

He conceived the idea for this plain man’s guide and wrote the first draft.

John Whitfield is a control engineer. He designed and built the test apparatus on which this research was verified. His work was later confirmed by a similar test apparatus at a government physical laboratory.

James Morrison is an environmental consultant who once sold wind turbines to Napa Valley wineries.

Dr Tom Sheahen is a physicist and alumnus of the Massachusetts Institute of Technology.

William Rostron is an award-winning control engineer who designed and programmed the world-leading integrated control system at the Oconee Nuclear Facility, Seneca, South Carolina.

Acknowledgements

The Argonauts thank Mr William Bailey, Professor Matt Briggs, Mr Edward Bullerdieck, the late Professor Freeman Dyson,

Professor Chris Essex, Professor Pat Frank, Professor Dr Hermann Harde, Mr Michael Haseler, President Václav Klaus,

Professor Dr Mojib Latif, Mr Nic Lewis, Professor Adrian Mathias, The Viscountess Monckton of Brenchley, Dr Benoît Rittaud, Academician Dr Vladimir Semenov, Professor Nir Shaviv, Dr Roger Taguchi, Mr George White and Academician Dr

Nina Zaytseva for discussions, Professor Ray Bates, The Baron Clanmorris of Newbrook, Dr Michael Connolly, Dr Ronan

Connolly, Professor Will Happer, Dr David Heald, Professor Murry Salby and the

Global Warming Policy Foundation for pre-submission reviews; Professor Maria da Assunção Ferreira Pedrosa de Araújo, The Rev. David Foster, Mr G. Edward Griffin, Ms Pamela Matlack-Klein, the late Professor Nils-Axel Mörner, Mr Hal Shurtleff, the Cambridge Union Society, the Charles University at Prague, the Government of Colombia, the Committee for a Constructive Tomorrow, the Government of the Czech Republic, the Deutscher Bundestag, the Europäisches Institut für Klima und Energie, the European Parliament, Hancock Prospecting, the Heartland Institute, the Hong Kong and Shanghai Banking Corporation, the International Committee on Geoethics, the Moscow City Government, the Oxford Union Society, the St Andrews University Union, the Conference of the Parties to the United Nations Framework Convention on Climate Chance and the U.S. House of Representatives for facilitating discussion of these and related ideas at international conferences; and Professor Antonino Zichichi for having provided, at the Centre for Scientific Culture in Erice, Sicily, the high-level scientific forum from which these ideas sprang. Those acknowledged may or may not endorse the Argonauts’ conclusions.

Übersetzt von Chris Frey EIKE

Bemerkung: Wer die Übersetzung überprüfen will, der klicke auf das beigefügte PDF im Original. Die über die Formatierungen in dieser Übersetzung hinaus gehenden Formatierungen konnten nicht mit übernommen werden.

climate-error-guide




Die Klima-Inquisition von Senator Sheldon Whitehouse geht weiter

Amerika und die Welt brauchen nicht noch mehr Zensur. Sie brauchen eine offene, robuste Debatte: über die Stichhaltigkeit der Behauptungen zur Klimakrise, über die Auswirkungen, die buchstäblich Millionen von Windturbinen und Milliarden von Sonnenkollektoren und Batteriemodulen auf unsere Umwelt und die Tierwelt haben, über die Auswirkungen, die ein teures, nur vom Wetter abhängiges Energiesystem auf Arbeitsplätze, Lebensstandard und Arbeiterfamilien haben. In meinem Artikel geht es um diese Fragen.

Vor fünf Jahren sagte ich, dass Senator Sheldon Whitehouse (D-RI) sich wie Torquemada verhält, indem er inquisitionsähnliche Taktiken anwendet, um Skeptiker der „menschengemachten Klimakrise“ zu schikanieren, und damit droht, sie wegen Erpressung zu verfolgen. Tomas de Torquemada war der Großinquisitor der spanischen Inquisition, die Tausende wegen religiöser Ketzerei verhörte, folterte, einsperrte und hingerichtet hat.

Der Senator nahm großen Anstoß daran und prangerte mich in den Kammern des Senats an, in denen ich einst arbeitete. Aber er änderte sein Verhalten nicht. Wenn überhaupt, dann ist er intoleranter und rachsüchtiger geworden.

Kürzlich sagte er, dass die Kontrolle des Senats durch die Demokraten es ihm und seinen Kollegen ermöglichen würde, Ermittlungen einzuleiten, Klima-Realisten vor Komitees zu bringen (für Schauprozesse prominenter Natur) und sogar große Geschworenenjurys und Strafverfolgungen einzusetzen – um Nichtgläubige bzgl. Klimakrise einzuschüchtern, zum Schweigen zu bringen und zu bestrafen.

Sicher würde sich der dünnhäutige Senator in der Inquisition Spaniens, im stalinistischen Russland, bei der Roten Garde und im Xi Jinping China oder im buchverbrennenden vor-holocaust-faschistischen Europa zu Hause fühlen. Ihre Geschichte, Dissidenten zum Schweigen zu bringen, sie aus der Geschichte auszulöschen und sie in Gulags und Salzminen (oder noch schlimmer) zu schicken, ist legendär. Ihre Wirtschafts- und Regierungsideologie ist der klassische Faschismus:

… ein extremes, intolerantes System, in dem eine autoritäre Regierung Unternehmen und Industrien nicht direkt besitzt, sondern ihnen diktiert, was sie herstellen, tun, verkaufen und sagen dürfen – während sie die Gedanken, die Rede und die Entscheidungen der Bürger kontrolliert – und zwar durch Einschüchterung, zum Schweigen bringen, Verhaftung, Strafverfolgung und aus Angst davor, mit einer Geldstrafe belegt, eingesperrt, entlassen, in Strafkolonien oder Umerziehungskolonien geschickt und geschlagen oder hingerichtet zu werden.

Diese Taktiken sind verwerflich und diktatorisch. Sie sind unamerikanisch und wissenschaftsfeindlich. Tatsächlich erzielt die Wissenschaft ohne Dissens, Diskussion und Debatte keinen Fortschritt. Sie benötigt nicht nur Hypothesen, Theorien und Computermodelle, sondern solide, empirische Beweise, um Hypothesen, Modelle und Vorhersagen zu bestätigen oder zu widerlegen.

Diskussion, Auseinandersetzung, Dissens und Beweise sind besonders wichtig, um der Behauptung zu begegnen, dass die Menschheit vor einer beispiellosen, von Menschen verursachten Klimakrise steht. Diese Behauptung wird benutzt, um Forderungen an die Vereinigten Staaten, Europa und die Industrieländer zu rechtfertigen, die fossilen Brennstoffe, die über 80% unserer Energie liefern, sowie petrochemische und pharmazeutische Rohstoffe, Düngemittel und zahllose andere Vorteile zu eliminieren.

Sie wird benutzt, um Forderungen zu rechtfertigen, dass wir diese zuverlässige, erschwingliche Energie- und Rohstoffbasis durch Wind-, Sonnen-, Batterie- und Biokraftstoffenergie ersetzen. Diese Alternativen sind nicht nur intermittent, wetterabhängig und weitaus teurer. Sie sind mit umfangreichem Bergbau, Landnutzung, Vernichtung von Wildnis, Umweltverschmutzung und anderen Umweltauswirkungen verbunden. Sie sind nicht erneuerbar, nachhaltig, umweltfreundlich oder klimasicher.

Allein in den Vereinigten Staaten müssten wir jährlich etwa 7,5 Milliarden Megawattstunden Strom und das Strom-Äquivalent fossiler Brennstoffe ersetzen, enorme Mengen an Erdöl- und Erdgasrohstoffen ersetzen und unsere Verkehrs-, Hausheizungs- und sonstigen Systeme überholen. Dazu wären Millionen von Windturbinen, Milliarden von Sonnenkollektoren, Milliarden von 1000-Pfund-Batteriemodulen, zig Millionen Hektar Mais, Raps, Soja und andere Biokraftstoffpflanzen erforderlich – und zig Billionen von Dollar.

Die demokratische Stadtbevölkerung und die Wählerzentren werden sich wahrscheinlich gegen diese Anlagen im industriellen Maßstab in ihren Hinterhöfen stellen. Sie hätten wenig dagegen, sie in einem Land anzusiedeln, das von vielen Herrschafts-, Medien- und Hollywood-Eliten herrisch und spöttisch als „Überflugsland“* bezeichnet wird – in den westlichen, mittelwestlichen und südlichen US-Staaten.

[*Gemeint sind die dünn besiedelten US-Staaten, in denen man „nicht wohnt“. Anm. d. Übers.]

Diese „Umgestaltung“ – im Rahmen des Pariser Klimaabkommens, eines Green New Deal oder eines Biden-Harris-Regulierungsprogramms – würde die Wirtschaft, die Arbeitsplätze, den Lebensstandard, die Gesundheit und das Wohlergehen der Amerikaner massiv beeinträchtigen, was insbesondere für arme Familien und Gemeinschaften, die einer Minderheit angehören, für Arbeiter, Festverdiener und für Familien und Gemeinschaften in den dünn besiedelten US-Staaten gilt.

Klima-Alarmisten bestehen darauf, dass alle verlorenen Arbeitsplätze durch „grüne“ Arbeitsplätze ersetzt würden. Aber das wären zumeist Mindestlohnpositionen: Ziehen, Installieren, Warten, Demontieren, Entfernen und Deponieren von Turbinen, Paneelen und Batterien. Darüber hinaus würden die meisten dieser grünen Technologien in Übersee hergestellt werden, insbesondere in China, da Umweltschützer gegen jeden Bergbau in den USA kämpfen und ein klimaorientiertes Energiesystem den Fabriken nicht genügend zuverlässigen und erschwinglichen Strom liefern würde.
Diese riesigen und beispiellosen Mengen an Bergbau und Produktion würden fossile Brennstoffe erfordern. Das Einzige, was sich also ändern würde, sind die Örtlichkeiten des Verbrauchs und der Emissionen fossiler Brennstoffe stattfinden.

Es wären vor allem Länder in Asien und Afrika, Länder also, die nach dem Pariser Klimaabkommen nicht verpflichtet sind, ihren Verbrauch an fossilen Brennstoffen oder Treibhausgasemissionen (THG) zu reduzieren; Länder, die so viele Hunderte oder Tausende von Kohle- und Gaskraftwerken bauen werden, wie nötig sind, um ihre Bevölkerung aus der Armut zu befreien … und welche „grüne Energie“-Technologien herstellen, die sie gerne nach Amerika, Australien, Kanada und Europa verkaufen werden.

Das heißt, selbst wenn die USA fossilen Brennstoffen entsagen würden, würde dies keinen Unterschied bei den globalen Treibhausgasemissionen oder der globalen atmosphärischen Konzentration machen. Und das bedeutet, selbst wenn Kohlendioxid der Hauptfaktor des Klimawandels wäre, würde die Zerstörung der USA und anderer moderner Volkswirtschaften keinen Nutzen für das Klima bringen.

Der unerschütterliche Glaube der EU und Großbritanniens an die vom Menschen verursachten Klimakatastrophen erschüttert bereits jetzt ihre Industrien, Arbeiter und Familien, wie zahlreiche Artikel belegen: hier, hier, hier und hier zum Beispiel.

Glücklicherweise wird jedoch immer deutlicher, dass die Behauptungen zum Klimaarmageddon falsch berechnet, übertrieben oder erfunden wurden. Die globalen Durchschnittstemperaturen steigen weit langsamer als von den Klimamodellen vorhergesagt.

Starke (F4-F5) Tornados in den USA haben in den letzten 35 Jahren (1985-2020) gegenüber den 35 Jahren davor (1950-1984) sogar abgenommen; und 2018 ist nicht ein einziger F5-Tornado in den Vereinigten Staaten registriert worden. Zwölf Jahre lang, von Wilma im Jahr 2005 bis Harvey und Irma im Jahre 2017, traf kein Hurrikan der Kategorie 3 bis 5 auf das Festland der Vereinigten Staaten. Insgesamt gibt es kaum einen Trend bei der Aktivität oder Intensität tropischer Wirbelstürme.

All dies ist nicht überraschend angesichts neuer Forschungsergebnisse von Dr. William Happer und Dr. Willem van Wijngaarden, die stark darauf hinweisen, dass selbst eine Verdoppelung von Kohlendioxid (und anderen Treibhausgasen) in der Erdatmosphäre nur minimale Auswirkungen auf die globalen Temperaturen und das Klima hätte (aber dem Pflanzenwachstum zugute käme).

In der Tat ist es unmöglich, menschliche Einflüsse von natürlichen Faktoren, Schwankungen und Zyklen in Bezug auf Temperaturen, Polareis, Stürme und Dürren zu unterscheiden. Einige Wissenschaftler behaupten sicherlich etwas anderes – und geben im Allgemeinen einfach dem Menschen die Schuld. Aber sie haben wenig oder gar keine tatsächlichen, empirischen Beweise, um ihre Behauptungen, Vorhersagen und Modelle zu untermauern. Sie sagen einfach, die Wissenschaft sei settled, und wir müssten fossile Brennstoffe verbieten, also seien Sie still.

Bei so viel, was für Amerika und die Welt auf dem Spiel steht, ist dies völlig untragbar. Zumindest von denjenigen, die behaupten, wir stünden vor einer Klimakatastrophe, muss von ihnen verlangt werden, dass sie solide empirische Beweise vorlegen, um ihre Behauptungen zu untermauern – und dass sie sich auf robuste, transparente Debatten mit den vom Menschen verursachten Klimaskeptikern einlassen.

Genau das scheint Senator Torquemada verhindern und bestrafen zu wollen, während er „das größte beratende Gremium der Welt“ in ein russisches Politbüro oder einen Chinesischen Nationalen Volkskongress verwandelt – und in einen integralen Bestandteil des Klima-industriellen Komplexes mit einem Volumen von mehreren Billionen Dollar pro Jahr.

Bei diesem Unterfangen würden ihm sicherlich die Mogule von Big Media und Big Tech helfen, die seine Ansichten zum Klimawandel teilen, und Wissenschaftler und Beweise, die dem Katechismus der Klimakatastrophe widersprechen, zum Schweigen bringen sowie „Klimaketzer“ in Regierungs-, Wissenschafts- und Unternehmenskreisen auf die schwarze Liste setzen.

Die Menschen sind darauf konditioniert worden, vor den Lockdown-Verfügungen der Regierung Kotau zu machen, um die Menschheit vor Covid zu retten. Klima-Alarmisten gehen davon aus, dass wir jetzt ausreichend gefügig sein werden, fossile Brennstoffe zu verbieten, um „den Planeten zu retten“, wenn wir versuchen, uns von Covid zu erholen. Oder ihre Torquemadas werden uns gefügig machen.

Es ist an der Zeit, politisierte Schrottwissenschaft zurückzuweisen, eine Debatte zu fordern und uns gegen grüne Klima- und Energieerlasse zu wehren. Vielleicht muss der US-Senat vor allem seine Verantwortung für Beratung und Zustimmung zum Pariser Klimaabkommen geltend machen, dem weitreichendsten internationalen Abkommen denn je, das zu ratifizieren den Amerikanern geboten wurde.

Paul Driessen is senior policy analyst for the Committee For A Constructive Tomorrow (www.CFACT.org) and author of books and articles on energy, environment, climate and human rights issues.

Link: https://www.iceagenow.info/sheldon-whitehouses-climate-inquisition-continues/

Übersetzt von Chris Frey EIKE




Das Kernkraft­werk Fukushima hat den härtesten Sicherheits­test der Natur bestanden

Wie viele Menschen in diesem Land sind sich dieses Ergebnisses bewusst? Die Antwort ist sehr wenige, weil sich die hysterischen Warnungen in den Medien vor radioaktiven Abfällen, die unsere Küsten erreichten, nicht materialisiert hatten, nicht einmal ansatzweise. Eine weitere Feier wäre angebracht.

Doch ohne wissenschaftlichen Grund schalteten Japan und Deutschland die meisten ihrer Kernreaktoren ab. Der Bau weiterer Kernkraftwerke auf der ganzen Welt wurde fast das ganze Jahrzehnt lang verlangsamt. Jetzt sind sie weitgehend wieder auf dem richtigen Weg, aber nicht in den Vereinigten Staaten – und Deutschland.

VORSORGLICH HERBEIGEFÜHRTE TODESFÄLLE

Ungefähr 160.000 Menschen wurden aus dem Gebiet um das Kernkraftwerk Fukushima evakuiert, kurz nachdem es durch das Erdbeben und den Tsunami vom 11. März 2011 beschädigt worden war. Ein Evakuierungsbefehl zwang 70.000 Menschen, das Gebiet zu verlassen, und weitere 90.000 verließen es freiwillig. Sie kehrten bald darauf zurück. Auch die 70.000 Zwangsevakuierten kehrten schließlich in ihre Häuser zurück.

Traurigerweise wird geschätzt, dass 1.600 Menschen während des Evakuierungsprozesses vorzeitig an stressbedingten Krankheiten starben. Die „vorsorglichen“ Maßnahmen, die als Reaktion auf hypothetische Gesundheitsrisiken ergriffen wurden, waren schädlicher als die Risiken selbst. Dieses tragische Ereignis verdeutlicht die Notwendigkeit, dass politische Entscheidungen auf der Grundlage solider wissenschaftlicher Erkenntnisse getroffen werden müssen und nicht auf der Grundlage von unbestätigten Umweltängsten. Die Wissenschaft war sich vor dem Ereignis darüber im Klaren, dass die Befürchtungen im Zusammenhang mit dem beschädigten Kernkraftwerk bei weitem übertrieben waren.

SCHLIESSEN DES BUCHES ÜBER FUKUSHIMA

Trotz der hysterischen Medienberichte über Strahlenbedrohungen, die unmittelbar nach dem Erdbeben und dem Tsunami herausgegeben und bis heute wiederholt wurden und werden, haben Gesundheitsexperten der Vereinten Nationen die Bücher über die behaupteten Risiken durch die Schäden an den Kernkraftwerken geschlossen. Der Wissenschaftliche Ausschuss der Vereinten Nationen über die Auswirkungen der Atomstrahlung (UNSCEAR) gab zwei Jahre später eine Pressemitteilung heraus, in der es hieß: „Die Strahlenbelastung nach dem Reaktorunfall von Fukushima-Daiichi hat keine unmittelbaren gesundheitlichen Auswirkungen verursacht. Acht Jahre später sind immer noch keine aufgetreten. Es ist unwahrscheinlich, dass in der Zukunft irgendwelche gesundheitlichen Auswirkungen auf die allgemeine Öffentlichkeit und die große Mehrheit der Beschäftigten zurückgeführt werden können“.

UNSCEAR erklärte: „Bis heute wurden keine gesundheitlichen Auswirkungen der Strahlenbelastung zugeschrieben, die bei den Arbeitern, den Menschen mit den höchsten Strahlenexpositionen, beobachtet wurden“.

Warum bleibt die Unsicherheit über die Auswirkungen schwach radioaktiver Strahlung angesichts etwaiger langfristiger negativer Auswirkungen bestehen? Alle lebenden Organismen befinden sich seit ihrem ersten Auftreten in einem Meer von Strahlung, und die Strahlung hat die ganze Zeit über ihre Gene beeinflusst. Ungefähr 15.000 Gammastrahlen oder Partikel treffen den Durchschnittsmenschen jede Sekunde. Und nach mehr als 120 Jahren umfangreicher Studien über die Auswirkungen auf die Gesundheit wissen wir mehr über ionisierende Strahlung als über jeden anderen Stressfaktor auf die menschliche Gesundheit.

Lauriston Taylor, einer der Gründer der Internationalen Strahlenschutzkommission (International Commission on Radiological Protection – ICRP), bemerkte bereits 1934: „Niemand wurde bei der Arbeit innerhalb der ersten Norm, die von der US National Commission on Radiological Protection (NCRP) auf 0,2 Röntgen/Tag festgelegt wurde, durch Strahlung identifizierbar verletzt“. Jetzt wiederholt die ICRP genau dies.

Bedeutung der Dosis

Nach der Entdeckung der Röntgenstrahlen und der Radioaktivität vor mehr als 120 Jahren begannen Hunderte von Medizinern damit, die eindringende Strahlung zu testen und zu nutzen, um innere Verletzungen und Krankheiten zu untersuchen und so das Rätselraten bei der Diagnose von Krankheiten zu verringern. Sie entdeckten, dass schwach radioaktive Strahlung bemerkenswerte positive Wirkungen hervorruft, während sie auch wussten, dass hohe Kurzzeitbelastungen erhebliche Schäden verursachen.

Gibt es ein sicheres Strahlungs-Niveau? Ja sicher … aber!

Warum gibt es also ein wahrgenommenes Strahlungsproblem? Was ist der Grund für die Angst, Unsicherheit und Zweifel bezüglich der Auswirkungen von Strahlung? Um dies zu verstehen, müssen wir den Ursprung des linearen Dosis-Wirkungs-Konzepts ohne Schwellenwert (LNT) betrachten, das die Grundlage für Strahlenschutzaktivitäten und Krebsrisikokalkulationen bildet, welche jahrzehntelang kostspielige Fehler waren.

Die Erfindung und der Einsatz von Atombomben 1945, das nukleare Wettrüsten und der Aufstieg der Anti-Atom-Bewegung dürften viele besorgte Wissenschaftler dazu veranlasst haben, 70 Jahre Forschung und Erfahrung auf dem Gebiet der Nutzung von Strahlung zur Stimulierung der Schutzsysteme lebender Organismen außer Acht zu lassen. Viele Wissenschaftler akzeptierten stattdessen das neue Angst erzeugende LNT-Konzept, das besagt, dass das Risiko für Krebs und genetische Krankheiten linear mit der Strahlendosis eines einzelnen Strahlungsatoms zunimmt.

Die Internationale Strahlenschutzkommission (ICRP) machte eine 180-Grad-Drehung, indem sie ihre Norm von 1934 ablehnte, die auf der Toleranzdosis basierte, die viele Jahre lang ohne Probleme anerkannt worden war. Sie gab neue Empfehlungen heraus, die auf der Verwendung des linearen LNT-Modells (Linear No Threshold) basierten, um das statistische Krebsrisiko durch jegliche Strahlenbelastung zu bewerten. Dies ist die Grundlage für unsere unbegründete Strahlungsangst.

Dr. Edward Calabrese, ein weltbekannter Strahlentoxikologe an der Universität von Massachusetts, sagte in den Archives of Toxicology 2013: „1956 gab das US National Academy of Sciences Committee on Biological Effects of Atomic Radiation Genetics Panel die weitreichendste Empfehlung in der Geschichte der Risikobewertung heraus, dass genomische Risiken, die mit der Exposition gegenüber ionisierender Strahlung verbunden sind, mit einem linearen Dosis-Wirkungs-Modell bewertet werden sollten, und nicht mehr über das Schwellenwert-Dosis-Wirkungs-Modell, das lange Zeit der ‚Goldstandard‘ für Medizin und Physiologie war. Die Mitglieder des Genetik-Gremiums waren der Ansicht, dass es keine sichere Exposition von Fortpflanzungszellen gegenüber ionisierender Strahlung gebe, wobei das Mutationsrisiko selbst bei einer einzigen Ionisierung erhöht sei. 1958 wurde das LNT-Konzept vom Nationalen Komitee für Strahlenschutz und -messung auf somatische Zellen und die Bewertung des Krebsrisikos verallgemeinert“.

[Absatz übersetzt mit LINGUEE]

Dr. Calabrese entdeckte, dass viele Podiumsmitglieder bei der Festlegung dieser fehlerhaften Regel in einen Interessenkonflikt gerieten. So wie sie von der modernen Strahlenschutzgemeinschaft praktiziert wird, ist die LNT-Hypothese einer der größten wissenschaftlichen Skandale unserer Zeit.

Ich habe diesen Betrug aus Calabreses Forschung über die Lügen und Voreingenommenheiten in der Arbeit der frühen Forscher in einem Aufsatz bei CFACT.org am 18. August 2020 dokumentiert.

Es ist höchste Zeit diese furchtbare LNT-Politik zu korrigieren

Wir müssen unbedingt auf den ICRP-Standard von 1934 und das Konzept der Toleranzdosis für den Strahlenschutz zurückkehren. Diese Änderung würde viele Einschränkungen für den Einsatz von Röntgenstrahlen, CT-Scans und nuklearmedizinischen Techniken für die Diagnose vieler Krankheiten beseitigen. Sie würde auch den Weg für klinische Studien über viele potenzielle Anwendungen niedriger Strahlung zur Behandlung sehr bedeutsamer Krankheiten wie Alzheimer und Parkinson ebnen, indem die Einschränkungen reduziert werden, welche adaptive Schutzsysteme regulieren.

Die dringende Rechtfertigung für diesen Konzeptwechsel ist die Divergenz zwischen Angst und Fakten bezüglich Fukushima. Die Radiophobie brach trotz des wissenschaftlich erwarteten Fehlens ernsthafter Strahlenschäden weltweit aus. Deutschland und Japan beschlossen den Ausstieg aus der Kernenergie, und lebensrettende medizinische Anwendungen von Strahlung werden weiterhin behindert. Lasst uns die Verfügbarkeit dieser lebensrettenden Technologie feiern, anstatt sie zu stoppen, um Eigeninteressen zu beschwichtigen, was heute definitiv der Fall ist.

Autor: CFACT Senior Science Analyst Dr. Jay Lehr has authored more than 1,000 magazine and journal articles and 36 books. Jay’s new book A Hitchhikers Journey Through Climate Change written with Teri Ciccone is now available on Kindle and Amazon

Link: https://www.cfact.org/2020/12/01/the-fukushima-nuclear-plant-passed-natures-hardest-safety-test/

Übersetzt von Chris Frey EIKE




Wird Trump wirklich das Paris-Abkommen dem US-Senat vorlegen?

Seit seiner Kandidatur für das Präsidentenamt machte Donald Trump den Austritt aus dem Pariser Abkommen zu einem zentralen Bestandteil seines Wahlprogramms 2016 und argumentierte, dass ein Rückzug aus dem Abkommen dazu beitragen würde, die US-Wirtschaft mit einer boomenden Energieproduktion zu beleben und die USA zur führenden Energiesupermacht der Welt zu machen.

Trump lehnte das Pariser Abkommen mit der Begründung ab, dass es den USA gegenüber äußerst unfair sei, da es den aufstrebenden asiatischen Supermächten, insbesondere China, die Nutzung billiger fossiler Brennstoffe ermögliche, um die chinesische Produktion wesentlich wettbewerbsfähiger zu machen und ihre Energieinvestitionen weltweit zu erhöhen, während die USA gezwungen seien, die Nutzung ihrer reichlich vorhandenen billigen Energieressourcen einzuschränken, während sie gleichzeitig einen Großteil des jährlichen grünen Transferfonds in Höhe von 100 Milliarden US-Dollar an die Entwicklungsländer zahlen müssten, der Teil des Pariser Abkommens ist.

Präsident Trump kündigte den Rückzug bereits im Juni 2017 an, aber die Obama-Administration hatte dafür gesorgt, dass sich die USA nicht so leicht zurückziehen konnten. Es dauerte mehr als drei Jahre, bis dies geschah. Am 4. November, einen Tag nach den US-Präsidentschaftswahlen, zogen sich die USA formell aus dem Pariser Klimaabkommen zurück. Die Verzögerung war auf die Hürden zurückzuführen, die absichtlich in das Pariser Abkommen eingebaut worden waren, um die Möglichkeit zu minimieren, dass ein zukünftiger US-Präsident beschließen würde, die USA aus dem Abkommen zu lösen – so wie es die republikanische Führung des US-Senats versprochen hatte.

Nun hat Joe Biden natürlich versprochen, die Umkehrung rückgängig zu machen, indem er versprach, dass seine neue Regierung dem Pariser Abkommen wieder beitreten wird, höchstwahrscheinlich am 20. Januar 2021, am Tag seines Amtsantritts.

Diese weithin vorhergesagte Entwicklung hat zu einer verärgerten Reaktion von Präsident Trump geführt. Während des jüngsten G20-Treffens der Staats- und Regierungschefs der Welt wiederholte Trump seine Hauptgründe für seinen Rückzug aus dem UN-Klimaabkommen.

Doch Trump kann nur sich selbst die Schuld für eine Situation geben, in der ein einfacher Brief von Präsident Biden an die UNO das, was er mit einem Federstrich beschlossen hat, rückgängig machen kann. Indem er es versäumt hat, das Pariser Abkommen dem US-Senat zur Ratifizierung oder wahrscheinlichen Ablehnung vorzulegen, hat er es der neuen US-Regierung ermöglicht, dem Klimaabkommen auf dieselbe Weise wieder beizutreten, wie er es zurückgezogen hat, indem er einfach einen Brief an die UNO geschickt hat.

Heute hat das Wall Street Journal einen Aufruf an Donald Trump veröffentlicht, seine verbleibende Amtszeit zu nutzen, um das Pariser Abkommen endlich an den US-Senat zu schicken.

Joe Biden hat versprochen, dem Pariser Klimaabkommen am ersten Tag wieder beizutreten, aber Präsident Trump könnte verhindern, dass es rechtlich bindend wird.

Präsident Obama unterzeichnete das internationale Abkommen durch exekutive Maßnahmen im Jahr 2015, was bedeutete, dass Präsident Trump auf die gleiche Weise aus dem Abkommen austreten könnte wie 2017. Gemäß den Bedingungen des Abkommens wurde dieser Rückzug am 4. November 2020 wirksam. Obamas Versprechen, die Treibhausgasemissionen bis 2025 um mindestens 26% zu reduzieren, war rechtlich nicht bindend. Nur der Senat hätte der Ratifizierung zustimmen können – und die obere Kammer hätte das Abkommen ohne weiteres abgelehnt, wenn Obama es vorgelegt hätte.

Doch wenn Mr. Biden die USA wieder in das Abkommen einbinden würde, würde es möglicherweise das Gewicht des Gesetzes übernehmen. Obwohl es nichts über die Bedingungen des Abkommens oder die Art und Weise, wie die USA ihm beigetreten sind, gibt, das es für die USA rechtlich bindend macht, könnte eine grüne Gruppe ein befreundetes Bundesgericht finden, um dieses Ergebnis zu erreichen.

Beispiel: Mr. Trump hob Obamas 2012 aufgeschobene Aktion für die Einwanderung von Kindern im Jahr 2012 auf, doch sie bleibt bestehen. Obwohl das DACA durch eine Exekutivmaßnahme sowohl geschaffen als auch aufgehoben wurde, blockierte der Oberste Gerichtshof seine Aufhebung im Juni mit der Begründung, dass die Entscheidung der Trump-Administration gemäß dem Verwaltungsverfahrensgesetz „willkürlich und unbegründet“ sei. Die Begründung des Gerichts war verfahrensrechtlicher Natur; die Richter leugneten nicht, dass der Präsident die exekutive Handlung eines Vorgängers rückgängig machen kann. Aber kreative Anwälte und Richter können Wege finden, einen neuen Präsidenten daran zu hindern, seine Politik zu ändern, ohne dass der Kongress ein Mitspracherecht hat.

Um zu verhindern, dass das Pariser Klimaabkommen solch eine übermäßige Macht erhält, sollte Herr Trump es dem Senat vorlegen, und der Mehrheitsführer Mitch McConnell sollte eine schnelle Abstimmung ansetzen. Es würde mit Sicherheit abgelehnt werden – für die Ratifizierung ist eine Zweidrittelmehrheit erforderlich – und es ist unwahrscheinlich, dass irgendein Gericht einen vom Gesetzgeber verworfenen Vertrag später wieder aufleben lassen könnte. Ohne die Hilfe von Richtern bräuchte Mr. Biden eine siegreiche Ratifizierungsabstimmung, um das Abkommen verbindlich zu machen, was er wahrscheinlich nicht erreichen könnte, egal wie gut die Demokraten bei den Stichwahlen im Januar in Georgien und bei den Zwischenwahlen 2022 abschneiden.

Die nächsten Monate werden zeigen, ob sich die neue Biden-Regierung durchsetzen und dem Pariser Klimaabkommen wieder beitreten wird, oder ob die scheidende Trump-Regierung versuchen wird, dies zu verhindern, indem sie versucht, das Abkommen dem US-Senat vorzulegen – trotz großer rechtlicher Hürden.

Link: https://www.thegwpf.com/will-trump-send-the-paris-agreement-to-the-us-senate/

Übersetzt von Chris Frey EIKE




Lügen, verdammte Lügen und Gesundheits­statistiken – die tödliche Gefahr von Falsch­meldungen

Während wir den Daten große Aufmerksamkeit schenkten, konzentrierten wir uns zunächst alle auf die traurige Angelegenheit der Todesfälle. Ich fand es bemerkenswert, dass die meisten Menschen, mit denen ich bei der Erörterung der Todesfälle im Zusammenhang mit COVID-19 sprach, keine Ahnung von einer großen Zahl hatten. Auf die Frage, wie viele Menschen pro Jahr im Vereinigten Königreich im gewöhnlichen Verlauf der Ereignisse sterben, jeder eine persönliche Tragödie, wussten sie in der Regel nichts davon. Ich musste ihnen mitteilen, dass es etwa 620.000 sind, manchmal weniger, wenn wir einen milden Winter hatten, manchmal etwas mehr, wenn wir eine schwere „Grippesaison“ hatten. Ich erwähne diese Zahl, weil wir wissen, dass etwa 42.000 Menschen mit oder an COVID-19 gestorben sind. Das ist zwar eine riesige Zahl von Menschen, aber es sind „nur“ 0,06% der britischen Bevölkerung. Es ist kein Zufall, dass dies in jedem der stark infizierten europäischen Länder – zum Beispiel in Schweden – fast der gleiche Anteil ist, der mit oder an COVID-19 gestorben ist. Die jährliche Gesamtmortalität von 620.000 liegt bei 1.700 Todesfällen pro Tag, die im Sommer niedriger und im Winter höher sind. Das war schon immer das Los der Menschen in den gemäßigten Zonen. Für den Kontext bedeutet 42.000 also eine normale Sterblichkeit von ~24 Tagen. Ich versichere, dass ich das nicht verharmlosen, sondern nur versuchen will, einen Überblick darüber zu bekommen. Todesfälle dieser Größenordnung sind nicht ungewöhnlich und können in jeder schwereren Grippesaison auftreten. Grippeimpfstoffe helfen ein wenig, aber nur bei drei Gelegenheiten in den letzten zehn Jahren erreichte die Impfung eine Wirksamkeit von 50%. Sie sind gut, aber sie waren noch nie Wunderwaffen für Atemwegsviren. Stattdessen haben wir gelernt, mit solchen Viren zu leben, die von zahlreichen Erkältungen bis hin zu Lungenentzündungen reichen, die tödlich sein können. Medikamente und menschliche Fürsorge tun ihr Bestes.

Also, zu diesem Artikel. Es geht um die Tests, die wir mit der so genannten PCR durchführen, einer Amplifikationstechnik, den Biologen besser bekannt als ein in unseren Laboren verwendetes Forschungsinstrument, Krankheitsmechanismen zu entschlüsseln. Ich war ehrlich gesagt erstaunt, als ich feststellte, dass sie manchmal beim Bevölkerungsscreening auf Krankheiten eingesetzt werden – erstaunt deshalb, weil es sich um eine sehr anspruchsvolle Technik handelt, die anfällig für unsichtbare Fehler ist, und weil es ziemlich schwierig ist, zuverlässige Informationen daraus zu gewinnen, vor allem wegen der ungeheuren Mengen an Amplifikation, die mit dem Versuch verbunden sind, einen Strang des viralen genetischen Codes aufzuspüren. Der Test kann nicht zwischen einem lebenden Virus und einem kurzen RNA-Strang eines Virus unterscheiden, das vor Wochen oder Monaten in Stücke zerbrochen ist.

Ich glaube, ich habe einen ernsthaften, wirklich fatalen Fehler in dem PCR-Test identifiziert, der in dem von der britischen Regierung als Säule-2-Screening bezeichneten Screening verwendet wird – d.h. viele Menschen in ihren Gemeinden zu testen. Ich werde das mit Sorgfalt und im Detail durchgehen, weil ich Wissenschaftler bin und es mir nicht gefällt, wohin mich diese Untersuchung führt. Ich bin nicht besonders politisch, und ich ziehe eine kompetente, ehrliche Verwaltung der tatsächlich gewählten Politik vor. Wir sind im Vereinigten Königreich vernünftige Menschen und halten nicht viel von Extremen. Was mir besonders widerstrebt ist, dass ich, indem ich den Beweisen folge, keine andere Wahl habe, als zu zeigen, dass der Gesundheitsminister Matt Hancock das Unterhaus in die Irre geführt und auch in einem Radiointerview irreführende Aussagen gemacht hat. Das sind ernste Anschuldigungen. Das weiß ich. Ich bin kein skrupelloser Mensch. Aber ich schreibe das trotzdem, denn was ich aufgedeckt habe, ist von monumentaler Bedeutung für die Gesundheit und das Wohlergehen aller Menschen, die in der Nation leben, die ich immer mein Zuhause genannt habe.

Zurück zum Artikel und dann zu den Beweisen. Als die erste (und, wie ich glaube, einzige) COVID-19-Welle das Vereinigte Königreich traf, hatte ich zusammen mit fast allen anderen große Angst. Ich bin 60 Jahre alt und bei guter Gesundheit, aber als ich erfuhr, dass ich im Falle einer Ansteckung mit dem Virus ein zusätzliches Sterberisiko von etwa 1 % hatte, stellte ich fest, dass ich noch lange nicht so weit war. Ich war also weder überrascht noch verärgert, als der erste Lockdown kam. Es muss eine sehr schwierige Entscheidung gewesen sein. Doch bevor der erste Drei-Wochen-Zeitraum vorbei war, hatte ich begonnen zu verstehen, was vor sich ging. Die Infektionsrate, die nach Berechnungen weit über 100.000 neue Menschen jeden Tag um den Höhepunkt herum infiziert hat, begann zu sinken und war vor dem Lockdown rückläufig. Die Ansteckung breitete sich weiter aus, mit einer immer geringeren Rate, und wir sahen dies am Wendepunkt der täglichen Todesfälle, jeden Nachmittag auf einer düsteren Pressekonferenz. Wir wissen jetzt, dass der Lockdown keinerlei Einfluss auf die Ausbreitung des Virus hatte. Wir können dies feststellen, weil die Zeitspanne zwischen dem Einfangen des Virus und dem Tod derjenigen, die es nicht schaffen, länger ist als die Zeitspanne zwischen dem Lockdown und dem Höhepunkt der täglichen Todesfälle. Es gibt keine Kontroverse über diese Tatsache, die leicht nachzuweisen ist, aber ich weiß, dass einige Leute gerne so tun, als ob die Abriegelung die Pandemie umgedreht hätte, vielleicht um den außerordentlichen Preis zu rechtfertigen, den wir alle dafür bezahlt haben. Dieser Preis war nicht nur wirtschaftlicher Natur. Er beinhaltete vermeidbare Todesfälle durch andere Krankheiten als COVID-19, da die medizinische Versorgung eingeschränkt wurde, um sich auf das Virus zu konzentrieren. Einige sagen, dass die Abriegelung, direkt und indirekt, so viele Menschen tötete wie das Virus. Ich weiß es nicht. Das ist nichts, was ich zu ergründen versucht habe. Aber ich erwähne es, weil Eingriffe in unser aller Leben nicht leichtfertig vorgenommen werden sollten. Es sind nicht nur Unannehmlichkeiten, sondern wirkliches Leid, der Verlust von Lebensgrundlagen, Freundschaften, Anker von enormer Bedeutung für uns alle, die durch solche Handlungen durchtrennt werden. Wir müssen sicher sein, dass der Preis seinen Preis wert ist. Es ist zwar ungewiss, dass es so war, selbst beim ersten Lockdown, aber auch ich habe ihn unterstützt, weil wir nicht wussten, was auf uns zukommt, und ehrlich gesagt, fast alle anderen haben es getan, außer Schweden. Ich bin jetzt entschieden gegen weitere Eingriffe in das, wovon ich inzwischen überzeugt bin, dass es ein fruchtloser Versuch ist, „das Virus unter Kontrolle zu bringen“. Meiner Meinung nach sind wir – wie auch andere, von denen einige die Lage gut einschätzen können – dem Ende der Pandemie, was die Zahl der Todesopfer betrifft, näher als ihrer Mitte. Ich bin der Meinung, dass wir allen gefährdeten Menschen den bestmöglichen Schutz bieten und ansonsten vorsichtig mit unserem Leben umgehen sollten. Ich denke, dass wir alle mit der Zeit ein wenig mehr schwedisch werden.

In den letzten Wochen kann es jedoch niemandem entgangen sein, dass es einen Paukenschlag gab, der sich für die ganze Welt wie ein Vorspiel zu noch fruchtloseren und schädlicheren Einschränkungen anfühlt. Denken Sie an den Hochsommer zurück. Wir waren gerade erst aus dem Lockdown herausgekommen, und trotz der Besorgnis über überfüllte Strände, große Demonstrationen, die Eröffnung von Geschäften und Kneipen, war die wichtigste Nachricht in den Nachrichten im Zusammenhang mit COVID-19 der beruhigende und unerbittliche Rückgang der täglichen Todesfälle. Mir fiel auf, dass unser Gefälle im Vergleich zu den sinkenden Todesfällen in vielen nahe gelegenen Ländern zu flach war. Ich erwähnte sogar gegenüber befreundeten Wissenschaftlern, dass dies auf das Vorhandensein eines festen Signals hindeutete, das mit echten COVID-19-Todesfällen verwechselt wurde. Stellen Sie sich vor, wie erfreulich es war, als die Definition eines COVID-19-Todesfalles geändert wurde, um sich an diejenige in anderen Ländern anzugleichen, und im Handumdrehen wurde unsere Linie der rückläufigen Zahl der Todesopfer an diejenige in anderen Ländern angeglichen. Ich war mir sicher: Was wir erlebt und miterlebt haben, ist eine schreckliche Art des Gleichgewichts. Ein Virus, das nur wenige tötet und dann Überlebende hinterlässt, die mit ziemlicher Sicherheit immun sind – ein Virus, gegen das vielleicht 30-50% bereits immun waren, weil es Verwandte hat und einige von uns ihnen bereits begegnet sind -, macht den ganzen schrecklichen, aber auch faszinierenden biologischen Prozess aus. Es gab in den letzten Tagen im BMJ ein sehr interessantes Stück, das eine mögliche Unterstützung für diese Behauptung bietet.

Jetzt haben wir einige der ungewöhnlichen Eigenschaften des neuen Virus kennen gelernt sowie bessere Behandlungsmethoden (entzündungshemmende Steroide, Blutgrinnungshemmer und insbesondere Sauerstoffmasken und nicht in erster Linie Beatmungsgeräte), die „Todesfallrate“ selbst bei den am stärksten betroffenen Personen ist heute weitaus niedriger als noch vor sechs Monaten.

Da es keine grundlegende, medizinische oder wissenschaftliche Literatur gibt, die uns eine „zweite Welle“ erwarten lässt, begann ich, dem Satz mehr Aufmerksamkeit zu schenken, wie er im Fernsehen, im Radio und in den Printmedien erschien – alles am selben Tag – und seitdem unerbittlich wiederholt wird. Vor kurzem wurde ich von Julia Hartley-Brewer in ihrer Talkshow talkRADIO interviewt, und bei dieser Gelegenheit forderte ich die Regierung auf, uns die Beweise offenzulegen, auf die sie sich bei der Vorhersage dieser zweiten Welle stützte. Sicherlich haben sie einige Beweise? Ich glaube nicht, dass sie welche haben. Ich habe recherchiert und bin dafür sehr qualifiziert, wobei ich mich auf akademische Freunde gestützt habe, und wir waren alle überrascht, als wir feststellten, dass es überhaupt keine Beweise gibt. Die letzten beiden neuartigen Coronaviren, Sar (2003) und MERS (2012), waren von jeweils einer Welle. Sogar die „Wellen“ der Grippe im Ersten Weltkrieg waren mit ziemlicher Sicherheit eine Reihe von Einzelwellen, an denen mehr als ein Virus beteiligt war. Ich glaube, jede Rede von einer zweiten Welle ist reine Spekulation. Oder vielleicht ist sie irgendwo in einem Modell enthalten, das für mich von der Welt der Beweise abgekoppelt ist? Es wäre vernünftig, ein begrenztes „Wiederaufleben“ eines Virus zu erwarten. Am meisten Kontakt haben Sie mit Familie, Freunden und Arbeitskollegen, und das sind die Menschen, mit denen Sie im Allgemeinen Erkältungen austauschen.

Eine lange Periode auferlegter Einschränkungen, zusätzlich zu denen unseres gewöhnlichen Lebens, verhinderte, dass sich die letzten paar Prozent des Virus mit der Bevölkerung vermischten. Mit den Urlaubsbewegungen, neuen Arbeitsplätzen, Besuchen bei entfernten Verwandten, dem Beginn neuer Semester an Universitäten und Schulen ist diese endgültige Vermischung im Gange. Es sollte kein erschreckender Prozess sein. Das passiert bei jedem neuen Virus, auch bei der Grippe. Es ist nur so, dass wir es noch nie zuvor in unserer Geschichte mit einer Technik durch die Landschaft gejagt haben, die sich besser für das Biologielabor als für einen Supermarktparkplatz eignet.

Ein sehr langer Auftakt, aber notwendig. Ein Teil der eher zu offensichtlichen „Projektangst“, welche eine zweite Welle umfasst, war die tägliche Zählung der „Fälle“. Es ist wichtig zu verstehen, dass nach Ansicht der Spezialisten für Infektionskrankheiten, mit denen ich gesprochen habe, das Wort „Fall“ mehr bedeuten muss als nur das Vorhandensein eines fremden Organismus‘. Er muss Zeichen (Dinge, die Mediziner bemerken) und Symptome (Dinge, die Sie bemerken) aufweisen. Und in den meisten so genannten Fällen hatten diejenigen, die positiv getestet wurden, überhaupt keine Anzeichen oder Symptome einer Krankheit. Es war viel von einer asymptomatischen Ausbreitung die Rede, und als Biologe hat mich das überrascht. In fast allen Fällen ist eine Person symptomatisch, weil sie eine hohe Viruslast hat, und entweder greift es ihren Körper an oder ihr Immunsystem bekämpft es, im Allgemeinen eine Mischung. Ich bezweifle nicht, dass es einige Fälle einer asymptomatischen Übertragung gegeben hat, aber ich bin zuversichtlich, dass das nicht wichtig ist.

Dennoch beschloss die Regierung, eine Person als „Fall“ zu bezeichnen, wenn ihre Testung positiv auf virale RNA war, was in der PCR gemessen wird. Die Probe einer Person kann positiv sein, wenn sie das Virus hat, und das sollte sie auch. Sie kann auch positiv sein, wenn sie das Virus vor einigen Wochen oder Monaten hatte und sich davon erholt hat. Es ist schwach möglich, dass hohe Mengen verwandter, aber unterschiedlicher Coronaviren, die einige der häufigen Erkältungen, die wir bekommen, verursachen können, ebenfalls im PCR-Test reagieren, obwohl es für mich unklar ist, ob dies der Fall ist.

Aber es gibt ein endgültiges Szenario, in dem eine Person positiv sein kann, und das ist ein zufälliger Prozess. Dies kann mehrere Ursachen haben, z.B. dass die Amplifikationstechnik nicht perfekt ist und deshalb die mit der Probe eingebrachten „Köder“-Sequenzen verstärkt werden, mit dem Ziel, sich mit der verwandten viralen RNA von SARS-CoV-2 zu verbinden. Es wird viele andere Beiträge zu solchen positiven Ergebnissen geben. Diese werden als falsch positiv bezeichnet.

Denken Sie an irgendeinen diagnostischen Test, den ein Arzt bei Ihnen anwenden könnte. Der ideale diagnostische Test bestätigt alle, die an der Krankheit leiden, korrekt und gibt niemals fälschlicherweise an, dass gesunde Menschen an der Krankheit leiden. Es gibt keinen solchen Test. Alle Tests haben eine gewisse Schwäche bei der Erzeugung falsch positiver Ergebnisse. Es ist wichtig zu wissen, wie oft dies geschieht, und das nennt man die Falsch-Positiv-Rate. Wenn 1 von 100 krankheitsfreien Proben fälschlicherweise positiv ist, die Krankheit nicht vorhanden ist, nennen wir das eine Falsch-Positiv-Rate von 1%. Die tatsächliche oder operationelle falsch-positive Rate unterscheidet sich, manchmal erheblich, unter verschiedenen Einstellungen, technischen Bedienern, Nachweismethoden und Geräten. Ich konzentriere mich ausschließlich auf die Falsch-Positiv-Rate in Säule 2, weil die meisten Menschen das Virus nicht haben (kürzlich etwa 1 von 1000 Menschen und früher im Sommer war es etwa 1 von 2000 Menschen). Gerade wenn die Krankheitsmenge, die so genannte Häufigkeit, gering ist, kann jede Menge einer falsch-positiven Rate ein großes Problem darstellen. Dieses Problem kann so schwerwiegend sein, dass der Test, sofern keine Änderungen vorgenommen werden, hoffnungslos ungeeignet für die Arbeit ist, die von ihm verlangt wird. In diesem Fall war und ist der Test in Säule 2 mit der Aufgabe betraut, Menschen mit dem Virus zu identifizieren, doch wie ich zeigen werde, ist er dazu nicht in der Lage.

Aufgrund der hohen Falsch-Positiv-Rate und der geringen Prävalenz war fast jeder positive Test, ein sogenannter Fall, der seit Mai dieses Jahres von Säule 2 identifiziert wurde, ein FALSCH POSITIV. Nicht nur ein paar Prozent. Nicht ein Viertel oder auch nur die Hälfte der Positiven sind FALSCH POSITIV, sondern rund 90%. Einfach ausgedrückt, die Zahl der Personen, von denen Herr Hancock uns düstererweise erzählt, ist eine Überschätzung um etwa das Zehnfache. Zu Beginn des Sommers war es eine Überschätzung um etwa das 20-fache.

Lassen Sie mich Sie durch das Ganze führen, aber wenn Sie zuerst den deutlich geschriebenen Beitrag von Prof. Carl Heneghan lesen können, bin ich zuversichtlicher, dass es mir gelingen wird, Ihnen dieses dramatische Ende zu erklären. (Hier ist ein Link zu den Aufzeichnungen über die Anzahl der Tests, die Säule 1 (Krankenhaus) und Säule 2 (Gemeinde) kombinieren).

Stellen Sie sich vor, 10.000 Menschen lassen sich mit diesen Abstrichen, die Sie im Fernsehen sehen, testen. Wir haben eine gute Schätzung der allgemeinen Prävalenz des Virus von der ONS, die völlig unabhängig sind (von den Tests der Säule 2) und nur wenige Menschen pro Tag testen, etwa ein Prozent der Zahlen, die kürzlich in der Säule 2 getestet wurden. Es kann davon ausgegangen werden, dass die getesteten Personen in den meisten Fällen keine Symptome haben. Die Menschen wurden gebeten, nur dann einen Test zu suchen, wenn sie Symptome haben. Wir wissen jedoch aus Fernsehnachrichten und Berichten in sozialen Medien von Mitarbeitern der Stichprobennahme, von der strengen Anleitung der Gesundheitsministerin und der überraschenden Tatsache, dass an zahlreichen Orten im ganzen Land der Gemeinderat Straße für Straße den Menschen Flugblätter zuschickt, damit sie sich testen lassen.

Unter dem Strich kann man vernünftigerweise davon ausgehen, dass die Prävalenz des Virus in der Nähe der von der ONS festgestellten Zahl liegt, da sie nach dem Zufallsprinzip Stichproben nehmen und symptomatische und asymptomatische Personen im Verhältnis zu ihrer Anwesenheit in der Gemeinschaft aufnehmen würden. Bei der letzten ONS-Erhebung wurde das Virus in einer ersten Näherung bei 1 von 1000 Personen gefunden. Dies kann auch mit 0,1% angegeben werden. Wenn also alle diese 10.000 Personen in Säule 2 getestet werden, würde man erwarten, dass 10 echte Positivbefunde gefunden werden (falsche Negativbefunde können ein Problem sein, wenn das Virus sehr häufig vorkommt, aber in dieser Gemeinde ist es statistisch gesehen unwichtig, und deshalb habe ich mich entschieden, es zu ignorieren und mich besser nur auf falsche Positivbefunde zu konzentrieren).

Wie hoch ist also die Falsch-Positiv-Rate von Tests in Säule 2? Dies ist seit Monaten ein Problem. Es scheint nicht bekannt zu sein, obwohl man es, wie gesagt, unbedingt wissen muss, um herauszufinden, ob der diagnostische Test einen Wert hat! Was wissen wir über die Falsch-Positiv-Rate? Nun, wir wissen, dass die eigenen Wissenschaftler der Regierung sehr besorgt darüber waren, und ein Bericht über dieses Problem wurde am 3. Juni 2020 an SAGE geschickt. Ich zitiere: „Wenn wir die operationelle Falsch-Positiv-Rate des britischen RT-PCR-Testsystems nicht verstehen, laufen wir Gefahr, die COVID-19-Inzidenz, die Nachfrage nach Track-and-Trace und das Ausmaß der asymptomatischen Infektion zu überschätzen“. In demselben Bericht listeten die Autoren hilfreich die niedrigste bis höchste falsch-positive Rate von Dutzenden von Tests mit derselben Technologie auf. Der niedrigste Wert für die falsch-positive Rate betrug 0,8%.

Gestatten Sie mir, die Auswirkungen einer falsch-positiven Rate von 0,8% auf Säule 2 zu erläutern. Wir kehren zu unseren 10.000 Personen zurück, die sich freiwillig getestet haben, und die erwarteten zehn mit Virus (0,1% Prävalenz oder 1:1000) wurden durch den PCR-Test identifiziert. Aber jetzt müssen wir berechnen, wie viele falsch positive Ergebnisse sie begleiten werden. Die schockierende Antwort lautet 80. 80 ist 0,8% von 10.000. So viele falsch-positive Ergebnisse würden Sie jedes Mal erhalten, wenn Sie einen Säule-2-Test bei einer Gruppe dieser Größe anwenden würden.

Die Auswirkung ist in diesem Beispiel von 10.000 getesteten Menschen in Säule 2 könnte in einer Überschrift wie dieser zusammengefasst werden: „90 neue Fälle wurden heute identifiziert“ (10 wirklich positive Fälle und 80 falsch positive Fälle). Aber wir wissen, dass dies völlig falsch ist. Dem armen Techniker ist nicht bekannt, dass es in diesem Beispiel nur 10 echte Fälle gab. 80 hatten nicht einmal ein Stück virale RNA in ihrer Probe. Das sind wirklich falsch positive Ergebnisse.

Ich werde erklären, wie schlimm dies auf eine andere Art und Weise ist, und damit zurück zur Diagnostik. Wenn Sie sich einem Test unterzogen haben und dieser positiv war, würden Sie erwarten, dass der Arzt Ihnen mitteilt, dass Sie eine Krankheit haben, worauf auch immer sie getestet wurde. Normalerweise werden sie aber eine etwas andere Frage beantworten: „Wenn der Patient bei diesem Test positiv ist, wie hoch ist die Wahrscheinlichkeit, dass er die Krankheit hat? Bei einem guten diagnostischen Test kann der Arzt in der Regel etwa 95% sagen, und Sie und er können damit leben. Sie könnten einen anderen, bestätigenden Test machen, wenn das Ergebnis sehr schwerwiegend ist, wie zum Beispiel Krebs. Aber wie hoch ist in unserem Beispiel zu Säule 2 die Wahrscheinlichkeit, dass eine Person, die in Säule 2 positiv getestet wurde, tatsächlich COVID-19 hat? Die schreckliche Antwort ist 11% (10 geteilt durch 80 + 10). Der Test übertreibt die Zahl der Fälle von Covid-19 um fast das Zehnfache (90 geteilt durch 10). Schon erschrocken? Das tägliche Bild, das sie Ihnen zeigen, mit den „Fällen“, die auf der rechten Seite nach oben klettern? Es ist schrecklich übertrieben. Es ist kein Fehler, wie ich zeigen werde.

Zu Beginn des Sommers zeigte das ONS, dass die Virusprävalenz etwas niedriger war, nämlich 1 im Jahr 2000 oder 0,05%. Das klingt nicht nach einem großen Unterschied, ist es aber. Jetzt wird der Säule-2-Test von unseren fiktiven 10.000 Freiwilligen halb so viele reale Fälle finden, also 5 reale Fälle. Aber der Fehler im Test bedeutet, dass immer noch 80 falsch-positive Fälle gefunden werden (0,8% von 10.000). Es ist also noch schlimmer. Die Überschrift würde lauten: „85 neue Fälle wurden heute identifiziert“. Aber jetzt liegt die Wahrscheinlichkeit, dass eine Person, die positiv getestet wird, das Virus hat, bei absurd niedrigen 6% (5 geteilt durch 80 + 5). Zu Beginn des Sommers hatte derselbe Test die Zahl der COVID-19-Fälle um das 17-fache übertrieben (85 geteilt durch 5). Es ist so einfach, auf diese Weise eine scheinbar große Epidemie zu erzeugen. Ignorieren Sie einfach das Problem der falsch positiven Ergebnisse. Geben Sie vor, es sei Null. Aber es ist niemals Null.

Dieser Test ist mit fatalen Mängeln behaftet und MUSS sofort zurückgezogen und nie wieder in dieser Einstellung verwendet werden, es sei denn, er wird nachweislich repariert. Die Beispiele, die ich genannt habe, kommen dem sehr nahe, was tatsächlich jeden Tag geschieht, wenn Sie dies lesen.

Ich muss fragen: Hat Herr Hancock von diesem fatalen Fehler gewusst? Wusste er von den Auswirkungen, die er unweigerlich nicht nur auf die gemeldete Fallbelastung, sondern auch auf den Angstzustand der Nation haben würde und immer noch hat? Ich würde gerne glauben, dass das alles ein unbeabsichtigter Fehler ist. Wenn es aber ein solcher wäre, müsste er wegen schierer Inkompetenz zurücktreten. Aber ist es so? Wir wissen, dass interne Wissenschaftler an SAGE geschrieben haben, und sicherlich wäre die Gesundheitsministerin auf dieses kurze, aber schockierende Warndokument aufmerksam gemacht worden? Wenn das der einzige Beweis wäre, könnten Sie geneigt sein, ihn im Zweifelsfall zu entlasten. Aber die Beweise werden immer belastender.

Kürzlich habe ich zusammen mit meinen Co-Autoren ein kurzes Positionspapier veröffentlicht. Ich glaube nicht, dass bis dahin, vor etwa einem Monat oder so, der Groschen bei mir gefallen war. Und ich bin ein erfahrener Wissenschaftler in der biomedizinischen Forschung, der es gewohnt ist, mit komplexen Datensätzen und Wahrscheinlichkeiten umzugehen.

Am 11. September 2020 war ich zu Gast in Julia Hartley-Brewers talkRADIO-Show. Unter anderem forderte ich Herrn Hancock auf, das Beweismaterial herauszugeben, das sein Vertrauen in die „zweite Welle“ und seine Planung dafür unterstreicht. Dieses Beweismaterial ist der Öffentlichkeit bisher von niemandem gezeigt worden. Ich forderte ihn auch auf, die operative Falsch-Positiv-Rate bei den Tests im Rahmen der zweiten Säule offen zu legen.

Am 16. September war ich wieder in Julias Show und konzentrierte mich diesmal auf die Frage der falsch-positiven Rate (1m 45s – 2min 30s). Ich hatte die Analyse von Carl Heneghan gelesen, aus der hervorging, dass selbst wenn die falsch-positive Rate nur 0,1 % betrug, d.h. achtmal niedriger als bei jedem ähnlichen Test, sie immer noch eine Mehrheit falsch-positiver Ergebnisse ergibt. Meine Kritik gilt also auch, wenn die tatsächliche falsch-positive Rate niedriger ist als die von mir angenommenen 0,8%.

Am 18. September trat Herr Hancock wieder, wie so oft, in der Show von Julia Hartley-Brewer auf. Julia fragte ihn direkt (1min 50s – on), was die Falsch-Positiv-Rate in Säule 2 sei. Herr Hancock sagte: „Sie liegt unter 1%“. Julia fragte ihn erneut genau, was das sei, und wusste er es überhaupt? Er antwortete nicht, sagte dann aber: „Das bedeutet, dass für alle positiven Fälle die Wahrscheinlichkeit, dass einer davon falsch positiv ist, sehr gering ist“.

Das ist eine ernsthaft irreführende Aussage, da sie falsch ist. Die Wahrscheinlichkeit, dass es sich bei einem scheinbar positiven Fall um ein falsches Positiv handelt, liegt zwischen 89-94% oder nahezu sicher. Bemerkenswert ist, dass selbst zu der Zeit, als die ONS ihre bisher niedrigste Prävalenz verzeichnete, die Positivrate bei Tests im Rahmen der Säule 2 nie unter 0,8% fiel.

Für den Gesundheitsminister wird es noch schlimmer. Am 17. September, glaube ich, nahm Herr Hancock eine Frage von Sir Desmond Swayne über falsch-positive Ergebnisse entgegen. Es ist klar, dass Sir Desmond nach Säule 2 fragt.

Herr Hancock antwortete: „Ich mag meinen rechten ehrenwerten Freund sehr, und ich wünschte, es wäre wahr. Der Grund, warum wir Überwachungstests durch das ONS durchführen lassen, besteht darin sicherzustellen, dass wir ständig eine landesweit repräsentative Stichprobe im Hinblick auf die Fallzahlen betrachten. Die jüngste, am Freitag veröffentlichte ONS-Umfrage zeigt einen Anstieg, der mit der gestiegenen Anzahl von Tests, die positiv zurückgekommen sind, vollzogen (sic) ist“.

Er antwortete nicht auf die Frage von Sir Desmond, sondern auf eine Frage seiner Wahl. Hat der Gesundheitsminister das Haus wissentlich in die Irre geführt? Indem er sich nur auf die ONS bezog und nicht einmal die falsch-positive Rate des Tests in Säule 2 erwähnte, raubte er sozusagen das Gewand der sorgfältigeren Arbeit der ONS, die eine niedrigere falsch-positive Rate hat, um die versteckte und sehr viel höhere falsch-positive Rate in Säule 2 durchzuschmuggeln. Der Leser wird selbst entscheiden müssen.

Die Tests im Rahmen der Säule 2 laufen seit Mai, aber erst in den letzten Wochen wurden mehrere hunderttausend Tests pro Tag durchgeführt. Die Wirkung des täglichen Anstiegs der Zahl der Personen, die als „Fälle“ bezeichnet werden, kann nicht hoch genug eingeschätzt werden. Ich weiß, dass sie Angst, Besorgnis und Beunruhigung über die Möglichkeit neuer und ungerechtfertigter Einschränkungen, einschließlich Sperren, hervorruft. Ich habe keine Ahnung, was die Beweggründe von Herrn Hancock sind. Aber er nutzte und nutzt nach wie vor den enorm überhöhten Output eines verhängnisvoll fehlerhaften Säule-2-Tests und erscheint häufig in den Medien, wobei er die Notwendigkeit zusätzlicher Interventionen ernsthaft untermauert (von denen sich, ich wiederhole, keine als wirksam erwiesen hat).

Sie werden mit der Darstellung der Fälle, die derzeit in den meisten Fernsehübertragungen gezeigt wird, sehr vertraut sein. Sie soll zeigen, dass die Zahl der Fälle, die angestiegen sind, im Frühjahr zurückgegangen ist und dass die Zahl der Fälle in letzter Zeit gestiegen ist. Diese Grafik wird immer von der Überschrift begleitet, dass „in den letzten 24 Stunden so viele Tausende neuer Fälle aufgedeckt wurden“.

Sie sollten wissen, dass es in diesem Bild zwei große Täuschungen gibt, die zusammen sehr wahrscheinlich sowohl irreführend sind als auch Angstzustände hervorrufen. Die Allgegenwart dieses Bildes zeigt, dass es sich um eine bewusste Entscheidung handelt.

Erstens ist sie sehr irreführend in Bezug auf den Höhepunkt der Fälle im Frühjahr. Das liegt daran, dass wir zu diesem Zeitpunkt keine Screening-Kapazitäten in der Gemeinde hatten. Ein Kollege hat die Darstellung so angepasst, dass sie die Zahl der Fälle zeigt, die wir entdeckt hätten, wenn es eine geeignete Testkapazität in der Gemeinde gegeben hätte. Der Effekt besteht darin, dass der Spitzenwert der Frühjahrsfälle stark zunimmt, weil es sehr viele Fälle pro Krankenhausaufenthalt und viele Krankenhausaufenthalte pro Todesfall gibt.

Zweitens sollten, wie ich Ihnen hoffentlich gezeigt und überzeugend dargestellt habe, die Fälle im Sommer und gegenwärtig, die durch ernsthaft fehlerhafte Säule-2-Tests hervorgerufen werden, um etwa das Zehnfache nach unten korrigiert werden.

Ich glaube, dass die echten Fälle etwas zunehmen. Das gilt aber auch für die Grippe, die wir weder täglich messen noch in jeder Nachrichtensendung etwas hören. Wenn wir das täten, würden Sie verstehen, dass es in Zukunft sehr wahrscheinlich ist, dass die Grippe ein größeres Risiko für die öffentliche Gesundheit darstellt als COVID-19. Die Darstellung der korrigierten Fälle (siehe oben) stellt meiner Meinung nach den jüngsten Anstieg der Inzidenz von COVID-19 in einen viel vernünftigeren Zusammenhang. Ich dachte, Sie sollten diesen Unterschied erkennen, bevor Sie Ihr eigenes Urteil über diese traurige Geschichte fällen.

Die groteske Überschätzung der so genannten Fälle in den Tests der Säule 2, die meiner Meinung nach wissentlich durchgeführt wurden, hat sehr ernste Folgen. Vielleicht glaubt Herr Hancock seine eigene Kopie über das Risikoniveau, dem die Öffentlichkeit jetzt ausgesetzt ist? Es steht mir nicht zu, daraus Schlüsse zu ziehen. Was diese enorme Überschätzung bewirkt hat ist, dass sie die Normalisierung des NHS verlangsamt hat. Wir alle wissen, dass der Zugang zu medizinischen Leistungen in unterschiedlichem Maße eingeschränkt ist. Viele Fachrichtungen wurden im Frühjahr stark eingeschränkt, und nach einer gewissen Genesung liegen einige immer noch zwischen einem Drittel und der Hälfte unter ihren normalen Kapazitäten. Dies hat sowohl zu anhaltenden Verzögerungen als auch zum Anwachsen der Wartelisten für zahlreiche Operationen und Behandlungen geführt. Ich bin nicht qualifiziert, den Schaden für die Gesundheit der Nation und Einzelpersonen als direkte Folge dieser verlängerten Wartezeit auf eine zweite Welle zu beurteilen. Mit dieser Konfiguration in den Winter zu gehen, wird, zusätzlich zu dem bereits seit sechs Monaten eingeschränkten Zugang, unweigerlich zu einer großen Zahl vermeidbarer, nicht von den Covids verursachter Todesfälle führen. Das ist bereits ein schwerwiegender Vorwurf. Weniger offensichtlich, aber insgesamt ergeben sich aus der Furcht vor dem Virus zusätzliche Auswirkungen, die meines Erachtens unangemessen verstärkt werden. Dazu gehören: Beschädigung oder sogar Zerstörung einer großen Zahl von Unternehmen, insbesondere von Kleinbetrieben, und damit einhergehender Verlust der Lebensgrundlage, Verlust von Bildungsmöglichkeiten, Belastung der Familienbeziehungen, Essstörungen, zunehmender Alkoholismus und häusliche Gewalt und sogar Selbstmorde, um nur einige zu nennen.

Abschließend möchte ich darauf hinweisen, dass es allein in den letzten 40 Jahren in Großbritannien sieben offizielle Epidemien/Pandemien gegeben hat: AIDS, Schweinegrippe, CJK, SARS, MERS, Vogelgrippe sowie die jährliche, saisonale Grippe. Alle waren sehr besorgniserregend, aber die Schulen blieben offen, und der NHS behandelte alle, und die meisten der Bevölkerung waren nicht betroffen. Das Land wäre selten offen gewesen, wenn es jedes Mal geschlossen worden wäre.

Ich habe erklärt, wie ein hoffnungslos schlechter diagnostischer Test nicht zur Diagnose von Krankheiten, sondern, wie es scheint, einzig und allein zur Erzeugung von Angst eingesetzt wurde und weiterhin eingesetzt wird.

Dieser Machtmissbrauch muss aufhören. Auch bei der Abwägung der Restrisiken für die Gesellschaft aus dem COVID-19 und den gegebenenfalls zu ergreifenden Maßnahmen stehen alle oben genannten Kosten auf dem Konto. Was auch immer sonst geschieht, der in Säule 2 verwendete Test muss sofort zurückgezogen werden, da er keine brauchbaren Informationen liefert. Ohne die stark überhöhten Fallzahlen, die sich aus diesem Test ergeben, würde die Pandemie als fast vorbei angesehen und gefühlt werden.

Dr Mike Yeadon is the former CSO and VP, Allergy and Respiratory Research Head with Pfizer Global R&D and co-Founder of Ziarco Pharma Ltd.

Link: https://lockdownsceptics.org/lies-damned-lies-and-health-statistics-the-deadly-danger-of-false-positives/

Übersetzt von LINGUEE, bearbeitet von Chris Frey




Will unsere Regierung ab jetzt bei jeder neuen Grippewelle das Land zugrunde richten?

Schlimm, schlimmer, Corona

Seit unsere Politiker meinen, mit „Coronamanagement“ den Bürgern ihre Führungsqualitäten zeigen zu können müssen, überbieten sie sich gegenseitig mit immer härteren Anordnungen, parallel „unterstützt“ durch pausenlose Alarm-Berichterstattung in unseren Medien:

Die Corona-Lage in Bayern, BR Fernsehen 26.11.2020: Quarantänepflicht für Tagestouristen ins Ausland – Wer für einen Tagesausflug ins Ausland fährt, muss in Bayern künftig für zehn Tage in Quarantäne. Das beschloss das bayerische Kabinett, um den Skitourismus nach Österreich einzudämmen. Der Teil-Lockdown wird verlängert, Kontakte weiter beschränkt.
t-online, 28.11.2020: Volle Intensivstationen Corona-Aufnahmestopp in mehreren Berliner Kliniken
Fast ein Viertel der Intensivbetten in Berliner Krankenhäusern ist mit Corona-Patienten belegt. In einigen Kliniken scheint die Lage noch dramatischer. Auch die Schließung einer Notaufnahme scheint möglich.
Abendzeitung, 25. Nov. 2020: Corona-Krise: Die ersten Kliniken in Bayern stoßen ans Limit
Wegen Corona sind erste Kliniken in Bayern am Limit, ebenso wie viele Pfleger und Ärzte. Droht nun ein Kollaps des Gesundheitssystems?
Merkur.de, 01.12.2020: Merkels Regierung lässt plötzlich Corona-Sorgen eskalieren – und entsetzt Experten: „Falsch und gefährlich“
Spiegel 24.11.2020: Kampf gegen Corona – Söder drängt auf noch schärfere Regeln

Doch was zeigen die Daten?

Zuerst wieder die absoluten Sterbezahlen:

Bild 2 Statistisches Bundesamt. Grafik wöchentliche Sterbefallzahlen Deutschland incl. KW44

Das statistische Bundesamt vergleicht bewusst mit dem Mittelwert der vergangenen vier Jahre (die von noch viel schlimmeren Grippejahren davor lässt es ganz weg), um eine „Corona“-Übermortalität überhaupt darstellen zu können.

Wie hoch die Sterblichkeit von schlimmen Grippepandemien (gegenüber dem aktuellen Corona) allerdings schon war, lässt sich nachlesen:
Spiegel, 20.04.2020: Historische Pandemien Als die Grippe in Nachkriegsdeutschland wütete
Bis zu 50.000 Westdeutsche sowie einige Tausend Ostdeutsche fielen der sogenannten Hongkong-Grippe zwischen 1968 und 1970 zum Opfer (Zufügung: Auf die heutige Einwohnerzahl hochgerechnet: ca. 67.000) … Die andere – die sogenannte Asiatische Grippe – hatte rund zehn Jahre zuvor 30.000 Menschen (Zufügung: Auf die heutige Einwohnerzahl hochgerechnet: ca. 39.000) in Bundesrepublik und DDR dahingerafft …
Lungenärzte im Netz: Während der letzten großen Grippe-Epidemie von 1995/96 mit etwa 8,5 Millionen Erkrankungsfällen starben allein in Deutschland ca. 30.000 Menschen an den Folgen der Influenza ...
Ärzteblatt.de, 30. September 2019: Berlin – Die außergewöhnlich starke Grippewelle 2017/18 hat nach Schätzungen rund 25.100 Menschen in Deutschland das Leben gekostet.

Bei Statista beginnt die Grafik zu Grippefällen nach dem schlimmen Jahr 1996 und die (nicht nur für 2018) weichen mehr als drastisch von den Angaben des RKI ab.

Bild 3 Statista: Anzahl der Sterbefälle infolge von Grippe in Deutschland in den Jahren 1998 bis 2018

Aber daran, dass im Merkel-Deutschland nichts mehr (überein)stimmt, muss man sich gewöhnen. Schließlich benötigt die hohe Politik „passgenaue“ Zahlen (wie ja auch Wahlergebnissse nur noch gelten, wenn sie der unfehlbaren Merkel passen).
Je nachdem, welche Zahlen man haben möchte, kann man bei ereignisbezogenen Mortalitäten die RKI-„Express-Schätzwerte“, oder die bestätigten Fälle zählen.
Presseportal 17.04.2020: dpa-Faktencheck: Falsche Berechnung: Zahlen zu Grippetoten nicht vergleichbar
Die Frage, ob es aktuell mehr Todesfälle in Zusammenhang mit dem Corona-Virus als mit der Grippe gibt, beschäftigt viele Menschen. Nach Angaben des Robert Koch-Instituts (RKI) wurden 411 Grippetote zwischen Oktober 2019 und Anfang April 2020 gemeldet. Das seien „24.689 Tote weniger als vor zwei Jahren“, wird in sozialen Medien behauptet …
BEWERTUNG: Die Grundlage der Berechnung ist falsch. Die 25 100 Todesfälle aus der Saison 2017/18 sind eine Schätzung, die laborbestätigten Todesfälle lagen mit 1674 deutlich darunter …
Bei der „Exzess-Schätzung“ wird „die der Influenza zugeschriebene Sterblichkeit mittels statistischer Verfahren“ geschätzt. Dabei wird zuerst eine Hintergrundmortalität, also die erwartete Todesrate ohne Einfluss von Influenza, errechnet. „Die mittels statistischer Verfahren geschätzte Anzahl zusätzlicher Todesfälle wird als Exzess-Mortalität bezeichnet,“ schreibt das RKI …
Demgegenüber stehen „laborbestätigte Todesfälle“, die auch in den Wochenberichten aufgeführt sind. Dabei handelt es sich um aus Meldedaten der an das RKI übermittelten „Todesfälle mit laborbestätigter Influenzainfektion gemäß Infektionsschutzgesetz“. Diese Zahl spielt für die „Exzess-Schätzung“ keine Rolle.
In der Saison 2017/18 war Deutschland einer ungewöhnlich starken Grippewelle ausgesetzt (dpaq.de/pG2uu). Im RKI-Bericht werden 25.100 Todesfälle durch die Exzess-Schätzung aufgelistet, daneben stehen 1674 laborbestätigte Todesfälle.

Als Unbedarfter fragt man sich, warum es über die vielen Jahre nicht gelungen ist, die gemeldeten Fälle mit den „Express-Schätzwerten“ wenigstens im Ansatz in Einklang zu bringen. Aktuell muss man wohl an beiden Werten massiv zweifeln.

Die folgende Grafik mit den Daten von Bild 2 zeigt allerding mit richtigen Daten die in der Streuung „verschwindende“ Corona-Übermortalität, da ausschließlich die hoffentlich ausreichend genau ermittelten Verstorbenen gezählt sind:

Bild 3a Wöchentliche Sterbefallzahlen Deutschland incl. KW44 mit den Einzeljahren. Grafik vom Autor erstellt. Datenquelle: Statistisches Bundesamt

Und nun das gleiche Bild nochmals mit Unterteilung der Risiko-Altersgruppe. Selbst bei der Hoch-Risikogruppe über 70 Jahre ist die „Übermortalität“ (aktuell) kaum sichtbar:

Bild 4 Wöchentliche Sterbefallzahlen Deutschland incl. KW44 mit den Einzeljahren, aufgeteilt in Alter bis 70 und Alter über 70 Jahre. Grafik vom Autor erstellt. Datenquelle: Statistisches Bundesamt

Belastungen der Krankenhäuser

Anbei die Belegungsdaten zum 01.12.2020 vom amtlichen Intensivregister DIVI und einer Auswertung der Helios-Klinikgruppe. Zumindest im Durchschnitt ist keine Überlastung feststellbar. Die Helios-Klinikgruppe „stöhnt“ sogar wegen mangelnder Auslastung (fehlendem Umsatz und damit Ergebnisminderung).

Bild 5 COVID-19 Zahlen im DIVI-Register, Tabelle „Fallzahlen in Deutschland“. Tabelle des DIVI vom Autor erweitert

Bild 6 Daten Helios-Kliniken gesamt. Original-Tabellenwerte vom Autor erweitert

Bild 7 Zusammenfassung und Vergleich von Fallzahlen des DIVI-Registers und den Helios-Kliniken

Interessant ist, dass die Helios-Kliniken diesen ganzen Corona-November gegenüber dem Vorjahr eine Minderauslastung von ca. -11 % ausweisen. Die Klinikgruppe macht demnach in diesem schlimmen Corona-Pandemiejahr wegen deutlich weniger Patientenbelegung mindestens ein schlechteres Ergebnis:
Zur Datenquelle der Helios-Klinikgruppe noch eine Info: Achgut, 01.12.2020: Bericht zur Coronalage vom 01.12.2020: Gefährliche Daten

Bild 8 Helios-Kliniken: Auslastung November im Vergleich zum Vorjahr. Man sieht schön, wie die Patienten zu jedem Wochenende „ausgekehrt“ werden

Nun noch ein Überblick, wie nahe Covid-19 und Influenza in ihren Auswirkungen beieinander liegen. Vor allem der Anteil benötigter Intensivbetten liegt mit 37/32 % und beatmet 57/42 % nicht weit auseinander. Da selbst die gegenüber früheren wirklichen Grippejahren noch moderat mortalen Grippejahre der vergangenen vier Jahre weit höhere Fallzahlen als bisher Corona hatten, müsste ein konsequentes Weiterführen der politisch verordneten „Sterbeverhinderung“ alle zwei – vier Jahre zu einem Lockdown und erneuten Zerstörung von Wirtschaft und öffentlichem Leben führen.

Bild 9 Vergleich Covid-19 Behandlung/Influenza-Behandlung (Stand Frühjahr 2020, aktuell dürften die Unterschiede wegen der medizinischen Lernkurve erheblich geringer sein). Quelle: RKI 08. Okt. 2020:

AKTUELLE DATEN UND INFORMATIONEN ZU INFEKTIONSKRANKHEITEN UND PUBLIC HEALTH Epidemiologisches Bulletin

Bild 10 Stand 30.11. (kumuliert): Anzahl registrierte Covid-19-Infektionen (Fallzahlen) 1.071.345 und Todesfälle 16.694 (1,56 %)

Doch selbst wenn nun doch nicht mit jeder Grippewelle ein neuer Lockdown droht, haben die Politiker eines daraus gelernt: Das Geld der Bürger kann man auch in Deutschland problemlos in beliebiger Menge verschleudern:
Kühnert bei Abschied: Jusos sollen Links-Kurs beibehalten – ZDFheute
ZDF … Kühnert rief die Jusos auf, an ihrem linken Kurs festzuhalten. Gerade in der Corona-Krise zeige sich, dass sich viele ihrer Jahre alten Forderungen umsetzen ließen: Die Aussetzung der Schuldenbremse, hohe staatliche Investitionen, Jobgarantien durch ein ausgeweitetes Kurzarbeitergeld, … „Warum soll das eigentlich nur in Krisenzeiten möglich sein?“, fragte Kühnert.

Vielleicht ist der SPD-Kevin aber doch so genial, wie es die SPD annimmt. Denn schmeißt Deutschland sein Geld nicht endlich selbst zum Fenster hinaus, machen es die anderen für uns, aber in ihre Taschen und dann haben wir gar nichts davon. Dass dies entgegen allen ursprünglichen Politiker-Versprechungen und „sicheren EU-Verträgen“ doch so kommen konnte, hat Merkel gesorgt.
Warum heute höhere, sehr viel höhere Staatsschulden besser sind (tichyseinblick.de):
Die sogenannte Eckrente beträgt in Deutschland 1.264 €, in Frankreich 1.638 €, und Italien gönnt seinen Alten 1.724 € … Renteneintrittsalter: Frankreich 62 Jahre, D 67 Jahre …
Das durchschnittliche Nettovermögen (also nach Abzug der Schulden) beträgt in Deutschland pro Kopf gerade 51.400 €, in Italien 163.000 €.
… Dabei geht es auch um die geheimnisvollen „Target-Salden“, also jenen Betrag, den die Bundesbank anderen Euro-Ländern als Kredit gewährt, wenn sie deutsche Produkte kaufen. Diese belaufen sich derzeit (Stand September) auf 1.056 Milliarden. Für 520 Milliarden, also ziemlich genau die Hälfte, hat sich Italien bei der Deutschen Bundesbank verschuldet.
Ein italienischer Schuldenschnitt wäre also nichts anderes als eine großangelegte Entreicherung Deutschlands über die Target-Salden …
Wer Schulden macht, ist der Schlaue, zumindest in der EU. Er macht sich das Leben schöner und lässt andere dafür zahlen.
Auch Frankreich geht sehr erfolgreich den italienischen Weg, schickt seine Arbeitskräfte früh in eine wohldotierte Rente und greift in das EU-Schuldenfass, das die Deutschen füllen sollen.




Ältere Menschen starben 2020 in Deutschland mit COVID-19 später als 2016 bis 2019 ohne COVID-19.

In seinem Artikel „Die Maskenpflicht wird immer zweifelhafter.“ stellt Dr. med. Ziegler – eher am Rande – (hier) fest, „ … mit einem Durchschnittsalter der Verstorbenen von 80 Jahren oder darüber ist COVID eine natürliche Todesursache, man stirbt daran in der Regel aus Altersschwäche“.

Randbemerkung zu den Masken

Zunächst aber eine Randbemerkung zu seinem eigentlichem Thema: Nicht nur er begründet die Unwirksamkeit der Masken u.a. mit der Größe des einzelnen Virions von unter 0,1 Mikrometer Durchmesser, deren Eindringen selbst durch die aufwendigeren Masken nicht verhindert würde. Das ist zwar richtig aber insofern nicht ganz stichhaltig, als die Infektionswahrscheinlichkeit proportional der Anzahl der eingedrungen Virionen ist. Grundsätzlich werden sie nicht als einzelne Viruspartikel transportiert sondern in Tröpfchen bzw. Aerosolen. Ihre Anzahl in denselben ist wiederum in etwa proportional dem Volumen des Trägers, Tröpfchen oder Aerosol. Mit den gemessenen mittleren Durchmessern aus Abb. 1 ist dieses Volumenverhältnis ca. 2 Millionen zu Eins (Tröpfchen: d=520 μm zu Aerosol: d=4 μm). Damit dürfte der überwiegende Anteil der Infektionen über Tröpfchen verlaufen.

Abbildung 1: Gemessene Größenverteilungen von Aerosolen und Tröpfchen bei Husten (Quadrate) und normalem Sprechen (Kreise). https://doi.org/10.1101/2020.07.16.20155572

Dieser dominierende Übertragungsweg wird auch durch weniger aufwendige Masken behindert, allerdings nicht so sehr durch das Zurückhalten der Tröpfchen und Aerosole. Ihre Schutzwirkung besteht vor allem in der Abbremsung der ausgestoßenen Teilchen, deren räumliche Ausbreitung dadurch auf ca. 40 bis 50 cm reduziert wird gegenüber sonst ca. 150. Ihre Anzahl wird dagegen kaum mehr als um 30% verringert. Schuld sind die Undichtigkeiten an den Rändern, durch die insgesamt gut 70% entweichen – allerdings eben abgebremst. Eine Randbedingung für geschlossene Räume bleibt aber – mit oder ohne Masken – zu beachten, dass nämlich ausreichende Frischluftzufuhr die Akkumulation von Aerosolen mit ihrer geringeren Sedimentationsgeschwindigkeit verhindert. Soweit die Randbemerkung.

Datenbasis

Wie zuvor schon (hier) begründet, sind statistische Daten zu Todesfällen – ohne jede Berücksichtigung der Todesursache – die mit Abstand solideste quantitative Information, die zu den gesundheitlichen Folgen einer Epidemie erhoben werden kann. Für die z. Zt. erhobenen und meist unkritisch weiter verbreiteten Zahlen von „Covid-19 Opfern“ gilt das schon nicht mehr. Die Verursachung des Todes durch SARS-CoV-2 wird in aller Regel ohne ausreichende pathologische Untersuchung getroffen und auf dem Totenschein so bescheinigt allein auf Grund der Tatsache, dass der Verstorbene – auch – klinische COVID-19 Symptome zeigte. Das RKI hatte sogar ausdrücklich gerügt, wo Kliniken diese Verursacherfrage mittels dieses wichtigen Instruments der medizinischen Qualitätssicherung hatten klären wollen. Als ‘harte‘ Angabe kann also nur die Tatsache gelten, dass ein Patient mit Covid-19 verstarb. Der Bruchteil derer, die nicht nur mit sondern an Covid-19 d.h. hauptursächlich wegen der Infektion mit SARS-CoV-2 verstorben sind, wird nur mit großer Unsicherheit feststellbar sein, so dass solche Angaben keine verlässlichen Schlussfolgerungen erlauben.

Als Quelle wurden wieder Daten des Statistischen Bundesamtes (DeStatis, hier) und von STATISTA (hier) ausgewertet. DeStatis stellt die Altersverteilung der bundesrepublikanischen Sterbefälle zur Verfügung. STATISTA verbreitet neben unzähligen anderen statistischen Daten die vom RKI aufbereiteten Zahlen von Sterbefällen mit Covid-19 Symptomatik. Beide Quellen bieten Klassifizierung auch nach Alter und Geschlecht an. Zuverlässigere Quellen sind mir nicht bekannt.

Altersverteilung der Sterbefälle mit Covid-19

Für seine Einstufung von COVID-19 als „natürliche Todesursache“ verweist Dr. Ziegler auf eine aktuell vom RKI publizierte Altersverteilung der Sterbefälle mit COVID-19 Diagnose, wie sie von STATISTA (siehe oben) mit dem Stand vom 17.11.2020 verbreitet wurde. Als erfahrenem Arzt genügte ihm offensichtlich der Blick auf die dort als Balkendiagramm dargestellte Häufigkeitsverteilung von Frauen und Männern in Abhängigkeit vom Sterbealter. Abbildung 2, links zeigt dieses Balkendiagramm.

Dem weniger Erfahrenen bestätigt das rechte Feld in Abb. 2 die Aussage, daß das mittlere Sterbealter mit COVID-19 (im Median) für Männer mit etwas über 81 und für Frauen mit etwas über 85 Jahren sich von einer ‘normalen‘ Alterssterblichkeit nicht unterscheiden lässt.

Abbildung 2: Altersverteilungen der Sterbefälle mit COVID-19 in Deutschland. Links als differentielle, rechts als integrale Häufigkeitsverteilung. Quelle: https://tinyurl.com/yyzgkomj

Altersverteilung der Sterbefälle mit und ohne Covid-19

Nachdem die Gesamtsterblichkeit der COVID-19 Wellen des Jahres 2020 gemessen an den Grippewellen der vorhergehenden Jahre deutlich bis erheblich geringer ausfällt (hier), sollte doch wenigsten der stellenweise als dramatisch beklagte Verlust an Lebenszeit in den Altentagesstätten und bei den alten Mitbürgern überhaupt sich in der Altersverteilung der COVID-19 Sterbefälle bemerkbar mache.

Zur Prüfung dieser Vermutung bietet sich der Vergleich an mit den Daten der Altersverteilungen der Gesamtsterblichkeit, d.h. ohne Berücksichtigung von Todesursachen, die das Statistische Bundesamt für die Jahre 2016 bis 2019 in einer Sonderauswertung (siehe oben) am 20.11.2020 bereitstellte. Für die Jahre 2016 bis 2019 kann postuliert werden, dass COVID-19 als Todesursache keinen Betrag zur Sterblichkeit in diesen Jahren geliefert hat. Somit sollten ein Vergleich der Altersverteilungen der Sterbefälle, die den Kurven in der Abb. 2, rechts entsprechen, unter Umständen die Behauptung Dr. Zieglers widerlegen können. Die mit Covid-19 Verstorbenen verstarben möglicherweise doch verfrüht!

Als Vergleichswert wurde für jede Altersklasse in den DeStatis Tabellen der arithmetische Mittelwert der jährlichen Gesamtsterblichkeit in den Referenz-Jahren 2016 bis 2019 gebildet (notiert als <2016-2109> in den Abbildungen 3 bis 6). Die Altersverteilung dieser Mittelwerte stellt insofern eine ‘normale‘ Referenzkurve dar, als SARS-CoV-2 in diesen Jahren nichts zur Sterblichkeit hat beitragen können und auch die Gesundheitsbehörden diese Jahre als ‘normal‘ bewerteten. Auch sind keinerlei der in 2020 für die Eingrenzung der SARS-CoV-2 als unverzichtbar postulierten Katstrophenschutzmaßnahmen zuvor jemals nur angedacht, geschweige denn verhängt worden.

Abbildung 3: Vergleich der Altersverteilung der weiblichen Sterbefälle mit COVID-19 (grüne Kurve) mit der Altersverteilung des Mittelwerts aller weiblichen Sterbefälle der Jahre 2016-2019 in DE (ockergelbe Linie). Gestrichelte Linien markieren die Schätzung eines Medianwerts des Sterbealters.

Die detailliertere Darstellung in Abb. 3 bestätigt Dr. Zieglers Beurteilung, dass die Alterssterblichkeit mit Covid-19 nicht schlimmer ausfiel als in den Referenzjahren. Tendenziell scheinen Frauen mit Covid-19 sogar später als in den Referenzjahren zu sterben. Was in Abb. 3 bei den Frauen nur tendenziell so erscheint, das ist bei Männer in Abb. 4 nicht mehr zu übersehen. Sie sterben in 2020 mit Covid-19 ca. 3 Jahre später, als die Männer in den 4 Jahren, als SARS-CoV-2 noch nicht in Europa angekommen waren.

Abbildung 4: Vergleich der Altersverteilung der männlichen Sterbefälle mit COVID-19 (grüne Kurve) mit der Altersverteilung des Mittelwerts aller männlichen Sterbefälle der Jahre 2016-2019 in DE (ockergelbe Linie). Gestrichelte Linien markieren die Schätzung eines Medianwerts des Sterbealters.

Die Fragestellung, ob Dr. Ziegler recht hatte, daß die Covid-19 Sterblichkeit von einer normalen Alterssterblichkeit nicht zu unterscheiden ist, war von der Alternativhypothese angeregt worden, dass sie eventuell doch wenigstens früher sterben, wenn schon rein zahlenmäßig in 2020 deutlich weniger Epidemie Opfer sterben als in üblichen Grippewellen. In Abb. 4 ist für Männer das Gegenteil einer solchen Tendenz zu erkennen. Hier verschiebt sich der Medianwert der Sterbealter mit Covid-19 um rund 3 volle Jahre von ca.78,3 auf 81,3 Jahre. Ein – nicht ernst gemeinter aber prinzipiell denkbarer – Vorschlag zur Deutung dieses Befundes wäre, dass Covid-19 überdurchschnittlich oft überdurchschnittlich Gesunde befällt, die ohne Covid-19 noch deutlich länger hätten leben können, so dass nur deren Überschuss Lebenserwartung durch Covid-19 ein wenig verringert würde. Bei Frauen fiele diese Wirkung deutlich geringer aus, weil diese sowieso schon deutlich älter als Männer werden.

Zur Verdeutlichung zeigt Abb. 5 den Kurvenverlauf, den man erwarten würde, wenn die Alternativhypothese zuträfe, dass Covid-19 das Sterbealter auffällig vorverlegt hätte – bei jeweils gleicher Gesamtopferzahl. Die in Abb. 3 und 4 gegebenen Kurvenverläufe zeigen genau das Gegenteil der unter der Alternativhypothese erwarteten Verläufe in Abb. 5.

Abbildung 5: Erwartete Verteilung der Sterbealter, wenn die Covid-19 Sterbealter durch gleichgewichtete gleitende Mittewertbildung der Altersklassen fiktiv auf frühere Sterbealter vorverlegt werden. Die minimal unterschiedlichen Gesamtzahlen entstehen durch Rundungsfehler.

Der Vollständigkeit halber sei ergänzt, dass die (noch vorläufige) Altersverteilung der Gesamtzahl der Sterbefälle in 2020, d.h. einschließlich der mit Covid-19 gemeldeten Sterbefälle, sich von dem entsprechenden Mittelwert der Jahre 2016 bis 2020 nicht unterscheidet. Jedenfalls nicht ausreichend dafür, um mit einer generellen Reduktion der Sterblichkeit in 2020 in den Altersklassen ab etwa 70 Jahren – aus welchen Gründen auch immer(!) – die beobachtete Reduktion bei den Covid-19 Fällen erklären zu können. Wie zuvor (hier) und (hier) gezeigt ist auch die Gesamtzahl der Todesfälle in 2020 bisher von denen der Jahre 2016 bis 2019 nicht zu unterscheiden – mit Ausnahme der Todesfälle in den typischen ‘Grippe-Wellen‘, die in 2020 unterdurchschnittlich ausfielen.

Abbildung 6: Altersverteilung der Sterbealter (i) ohne Covid-19, gemittelt in den Jahren 2016-2019 (Rauten, ockergelbe Kurven), (ii) in 2020 insgesamt (Quadrate, grüne gestrichelte Kurven) sowie (iii) nur mit Covid-19 (Kreise ,grüne durchgezogene Kurven). Werte für 2020 sind noch vorläufig.

Bewertung

Die Erwartung, dass Covid-19 wenigstens gemessen an der Größe der verlorenen Lebenserwartung die Gesellschaft als Ganzes bedrohen könnte, ist mit den hier ausgewerteten Daten nicht zu vereinbaren. Bei dieser Erwartung hätte der Vergleich mit der Altersverteilung von Sterbefällen ohne Covid-19 tendenziell wie in Abb. 5 ausfallen müssen. Wenn überhaupt eine Wirkung, so offenbaren die Daten in Abb. 3 und 4 die genau entgegengesetzte Wirkung. Die bisher 12804 mit Covid-19 in 2020 Verstorbenen haben länger gelebt als in den 4 Vergleichsjahren zuvor die ohne Covid-19 Verstorbenen. Für die Behauptung, dass SARS-CoV-2 auch im Hinblick auf die zur Verfügung stehende Lebenszeit keine messbare schädliche Wirkung entfaltet, reicht dieser qualitative Vergleich aus. Insofern hat Dr. Ziegler richtig gesehen.

Als Nebenbefund sei bemerkt, daß die in Abb. 3 und 4 sichtbare Verschiebung der Sterbefälle zu höheren Sterbealtern auch statistisch hoch signifikant ist. Der 2-Stichproben Kolmogorov-Smirnov Test für den Vergleich von empirischen Verteilungsfunktionen ergibt Testwerte, die noch weit über den kritischen Testgrößen bei einer zweiseitigen Irrtumswahrscheinlichkeit von 10-6 liegen(Tabelle 1).

Zu erinnern ist:

  1. Quellen für verlässlichere Daten kenne ich nicht.
  2. Vor allem soweit es 2020 betrifft sind die Daten vorläufig. Nur eine dramatische Verlaufsänderung der inzwischen auch schon wieder abflauenden Sterblichkeit könnte die Bewertung jedoch noch ändern.

  3. Die Daten gelten nur für Deutschland. Neben dem biologischen Gefährdungspotential eines Erregers ist für die Zahl der Sterbefälle und deren Altersverteilung sowohl der allgemeine Gesundheitszustand der befallenen Bevölkerung als auch die Leistungsfähigkeit des Gesundheitssystems maßgebend. Ohne explizite Berücksichtigung dieser Faktoren sind Hinweise über dramatische Verläufe in anderen Ländern belanglos.

  4. Weder in der Gesamtzahl der bisher mit Covid-19 Verstorbenen noch in der verringerten Lebenszeit der Verstorbenen ist aus diesen Daten eine Bedrohung der Allgemeinheit zu erkennen.

  5. Die tatsächliche Anzahl der Verstorbenen, für deren Tod Covid-19 die entscheidenden Ursache war, ist kleiner als die Zahl der von STATISTA weitergegebenen Todesfälle mit Erwähnung von Covid-19 auf dem Totenschein.

  6. Die Vermutung, daß die Schutzwirkung des am 23. März verhängten Lockdown die Ursache für diesen ‘glimpflichen‘ Verlauf darstellt, wird durch die Tatsache widerlegt, daß er deutlich nach dem Ende der exponentiellen Welle verhängt wurde. Auch das Ausbleiben einer auf den Lockdown folgenden weiteren Absenkung der effektiven Reproduktionszahl paßt schlecht zu dieser Erklärung.

Das immer tragische Sterben vergleichsweise weniger Einzelner in Deutschland kann insofern keine Rechtfertigung für drakonische Eingriffe in das Leben der Allgemeinheit liefern.




November­rückschau: Wirkte Kohlendioxid fast 70 Jahre lang abkühlend in Deutschland?

Inzwischen existiert der selbst ernannten Weltklimarat und das PIK Potsdam, die praktisch per Satzung festgeschrieben haben, dass CO2 der alleinige Hauptverursacher einer fortdauernden menschengemachten Erwärmung wäre. Und dass die CO2-Zunahme ausschließlich menschenerzeugt wäre, was auch bezweifelt werden darf. Den Kohlendioxidanstieg der Atmosphäre bestreitet niemand. Die Messung am Mouna LOA, nach der eigentlich alle anderen CO2-Messstationen der Welt geeicht sind, zeigt die erste Abbildung.

Abb. 1: Seit 1958, dem Messbeginn nimmt der CO2-Gehalt in der Atmosphäre zu. Derzeit um etwa 2 ppm pro Jahr. Aktueller Stand 2020: 418 ppm

Dieser CO2-Zunahme stellen wir die Deutschlandtemperaturen des Novembers der letzten 95 Jahre gegenüber:

Abb. 2: Neben extrem kalten Novembermonaten wie 1993 mit 0,37C im Schnitt gibt es wärmere wie 2015, wo uns der November mit Sonnenschein und milden Temperaturen verwöhnte. Vergleiche auch 1926 mit 2020: 6,1 zu 6,0°C. Also gleich. Wo ist die angeblich besorgniserregende Novembererwärmung der letzten 95 Jahre aufgrund des CO2-Anstieges um etwa 140 ppm?

Viele Klimawissenschaftler glauben aufgrund ihrer Berechnungen an eine schwache bis fast gar keine Wirkung des Treibhauseffektes, es gibt aber auch eine Minderheit an Angstrompetern, die sich selbst Klimafolgenwissenschaftler nennen, und diese taxieren die CO2-Klimasensitiviät in einen Größenbereich von 1,5 °C bis 4,5 °C aufgrund ihrer Computersimulationen und Szenarien. Also überdimensioniert hoch, um daraus ihre Angstprognosen entwickeln zu können. Versuchsbeweise: gar keine.

Dass auch ein großer Anteil des leichten Novemberanstieges vom menscherzeugten Wärmeinseleffekt bei den Stationen verursacht wird, soll hier zunächst außer Acht gelassen werden, genauso die Frage nach der Höhe des WI-Anteils. Wir gehen im Folgenden von der falschen Annahme aus als wären die Novemberreihen Deutschlands wissenschaftlich vergleichbar und die leichte Erhöhung würde ausschließlich durch vom Menschen verursachtes CO2 erzeugt.

Betrachten wir nun einzelne Zeitabschnitte der letzten 95 Novembermonate.

  1. Von 1926 bis 1993: 68 Jahre gleichmäßige leichte Abkühlung

Abb. 3: Von 1926 bis 1993 zeigen die Novembermonate einen leichten Temperaturrückgang, wobei 1993 ein ausgesprochen kalter November war. Ein Anzeichen für einen Temperaturwechsel

2. Seit 1994: Mit einem Temperatursprung setzte die Novembererwärmung ein.

Abb. 4: 1994 wurde der Monate November durch einen Temperatursprung angenehm wärmer und die Erwärmung setzte sich in den letzten 27 Jahren kontinuierlich fort.

Zwischenergebnis

Im Zeitraum 1926 bis 1993, also 68 November lang kühlte der Monat in Mitteleuropa ab. Ein Zeitraum, in welchem diverse Klimawissenschaftler eine neue kleine Eiszeit vorhersagten.

Dieser 68-jährige Abkühlungszeitraum zeigt bereits, dass CO2 nichts oder nur sehr wenig mit der Temperaturentwicklung zu tun haben kann.

Unsere Frage war: Wirkte Kohlendioxid im November zunächst 70 Jahre lang abkühlend?

Antwort: Nein, CO2 hat entweder gar keine Wirkung oder eine nur sehr untergeordnete Wirkung auf die Entwicklung der Novembertemperaturen in Deutschland.

Zum Wärmeinseleffekt: In beiden Zeitphasen der Betrachtung ist dieser bei den deutschen Wetterstationen gestiegen. Bei einer Herausrechnung des WI-effektes wäre die Trendlinie in Phase 1 etwas stärker fallend und in Phase 2 weniger steil ausgefallen wie…?

Ja wie wenn sich Deutschland seit 1926 überhaupt nicht verändert hätte. Von der leichten Gesamterwärmung des Betrachtungszeitraumes wäre wohl nichts übrig geblieben.

Leider gibt es diese Voraussetzung einer vergleichenden Temperaturbetrachtung in Deutschland nicht, wir haben lediglich eine Wetterstation in Virginia, in den USA gefunden, deren unmittelbare Standortumgebung in den letzten 100 Jahren fast unverändert blieb.

Abb. 5: Bei der Dale-Enterprise Wetterstation bei einer solitären Farm in Virginia/USA gibt es kaum einen Wärmeinseleffekt, da sich die Umgebung weniger verändert hat wie bei den deutschen Wetterstationen. Sogar über den gesamten Betrachtungszeitraum der letzten 95 Jahre wurde der Monat November leicht kälter. Der Temperatursprung 1994 fehlt.

Die fast wärmeinselfreie Wetterstation in Virginia zeigt, dass sich die Novembertemperaturen seit Anbeginn der Betrachtung immer noch abkühlen. CO2 hat dort keine Erwärmungswirkung und würde sogar seit 95 Jahren abkühlend wirken, wenn es denn eine Kausalität gäbe. Folglich hat auch die DWD Erwärmung über den gesamten Zeitraum 2 Gründe: a) den ständig steigenden WI-effekt und b) natürliche Ursachen an Klimaveränderungen.

Fazit: Will man den menschengemachten Anteil an der Erwärmung bekämpfen, dann müsste man die weitere Bebauung, Asphaltierung und Trockenlegung der Landschaft einstellen. Nur dann wären seriöse Temperaturvergleiche möglich. Leider stehen (fast) alle DWD-Wetterstationen da, wo es mehr oder weniger starke Eingriffe in die Landschaft gab und gibt (Flughäfen, Zersiedelung, neuerdings auch WI-Effekte in der freien Landschaft durch Wind- und Solarparks sowie den Ausbau der Stromnetze für die völlig vergeigte, teure, umweltschädliche Energiewende).

Derartiges Grundwissen einer soliden Langzeitmessung lernen die Studenten der naturwissenschaftlichen Fächer in den Anfangssemestern.

Temperatursprünge im November

Wie schon bei den Vormonaten, wollen wir uns den Verlauf der Novembertemperaturen in Deutschland seit dem Beginn regelmäßiger, flächendeckender Aufzeichnungen einmal näher ansehen. Gab es da Klimasprünge? Dieser Begriff ist zwar nicht exakt statistisch oder klimatologisch definiert – aber markante Sprünge, welche eine mindestens 25ig-jährige, einigermaßen konstante Klimaphase zugunsten einer neuen, mindestens ebenso langen ablösen und somit von mindestens einer Generation erlebt werden, können als solche gelten:

Abb. 6: Im November lassen sich drei markante Klimaphasen finden. Eine erste, recht kühle mit deutlichem Abkühlungstrend bis 1925, dann eine mildere Phase zwischen 1926 und 1993, welche aber immer wieder einzelne, kältere November bei leichtem Abkühlungstrend aufwies. Letztlich die aktuelle, sehr milde Phase seit 1994 mit deutlichem Erwärmungstrend. Der November 2020 schaffte es aber bei weitem nicht unter die fünf wärmsten Novembermonate seit Aufzeichnungsbeginn. Die roten Balken markieren die arithmetischen Mittel der drei Phasen, deren Streuungen sich kaum unterscheiden. Nur auf Kosten der aktuellen, vermutlich nicht ewig andauernden Warmphase erwärmte sich der November seit 1881 in Deutschland merklich.

Nun lohnt es sich, die aktuelle, 1994 beginnende Warmphase einmal genauer zu betrachten; dazu verglichen wird deren Verlauf in Deutschland mit dem nicht weit entfernten Zentralengland:

Abb. 7: Seit 1994 hat sich der November in Deutschland erheblich erwärmt – in Zentralengland blieb diese Erwärmung trotz überall stark steigender CO2-Konzentrationen aus.

Aber wie ist nun dieses unterschiedliche Erwärmungsverhalten zu erklären? Wie schon öfters erläutert, beeinflusst die AMO die Häufigkeitsverhältnisse der Großwetterlagen und damit die Temperaturverhältnisse. Die aktuelle AMO-Warmphase führte zu häufigeren Süd- und Südwestlagen, welche aber nur deshalb erwärmend wirkten, weil Mitteleuropa auf der „warmen“ Vorderseite der Tiefs liegt. England, eher auf deren Rückseite liegend, konnte von deren Erwärmungswirkung nicht profitieren.

Wir hoffen, dass Deutschland noch recht lange von der warmen Vorderseite des Tiefs profitieren darf.




Erneuerbare und Kernkraft: Falsche Hoffnungen und unbegründete Ängste

Aber unter den verfügbaren alternativen Energiequellen lag der Schwerpunkt hauptsächlich auf den „erneuerbaren“ Energien, und nur selten wird in den Medien die Bedeutung der Kernenergie angesprochen. Hier werden wir analysieren, welche der beiden das Potenzial hat, uns die benötigte Energie zu liefern, und die überraschenden Fakten analysieren, über welche die Menschen zu informieren sich die Medien weigern.

Wind und Sonne sind die am häufigsten hervorgehobenen erneuerbaren Quellen. Die anderen erneuerbaren Quellen (wie Biomasse und Erdwärme) sind praktisch keine praktikablen Optionen für groß angelegte Stromerzeugungen weltweit und daher kaum von Interesse für ein großes Land, das es mit seiner Energieunabhängigkeit ernst meint. Aber selbst der Hype um Wind und Solar scheint jetzt unpraktikabel zu sein.

Ich bin in einer malerischen, mit Windmühlen übersäten Landschaft aufgewachsen. Das Konzept der Windenergie war mir vertraut. Solarenergie war keine Seltenheit, denn selbst in ländlichen Gegenden Indiens gab es Häuser, die mit Sonnenkollektoren ausgestattet waren.

Was ich nicht kannte, waren die sowohl mit Wind als auch mit Solar verbunden Probleme. Ich hörte zunehmend negative Rückmeldungen von meinen Freunden, deren Industriemaschinen aufgrund der intermittierenden Energieversorgung durch diese Windmühlen beeinträchtigt waren. Die Energie aus diesen Windmühlen bereitete den Verbrauchern und Energieunternehmen viel Kopfzerbrechen.

Das liegt daran, dass sowohl Wind als auch Sonne intermittierende Energiequellen sind. Sie sind nicht in der Lage – selbst mit Reservequellen – kontinuierlich Grundlaststrom in der gleichen Weise zu erzeugen, wie ein Kohle- oder ein Kernkraftwerk. Das bedeutet, dass ohne genügend Wind oder Sonnenlicht der Mangel an Strom aus diesen Quellen durch Energie aus konventionellen Quellen wie Wärme-, Kern- und Wasserkraftwerken ersetzt werden muss. Es gibt keinerlei Anzeichen, dass sich dies in naher Zukunft ändern wird.

Kernkraftwerke hingegen sind eine bewährte und zuverlässige Quelle der Stromerzeugung. Allerdings hat die Kernenergie in den letzten Jahrzehnten wegen der Unfälle von Fukushima und Tschernobyl und der anschließenden Behauptungen über ihren unsicheren Charakter in den Medien viel Negatives erfahren.

Doch die Realität sieht ganz anders aus als die öffentliche Wahrnehmung. Der Reaktorunfall von Tschernobyl ereignete sich zum Teil aufgrund der vorsätzlich missachteten Fehlerhaftigkeit eines Reaktors der Anlage. Auch die Medien haben die Auswirkungen des Unfalls überbewertet. Den UN zufolge sind nur zwei Arbeiter bei dem Unfall ums Leben gekommen.

Physiker der UCLA [= University of California, Los Angeles] sagen, dass in der Nähe von Tschernobyl geborene Kinder bei ihrer Geburt keine erkennbaren Anomalien aufwiesen. Der Umweltschützer Michael Shellenberger erinnert uns daran, dass „die Strahlung von Tschernobyl (Unfall in der Vergangenheit) höchstens 200 Menschen töten wird, während die Strahlung von Fukushima und Three Mile Island (andere große Nuklearunfälle) Null Menschen töten wird“.

Im Gegensatz zu Wind und Sonne wurde die Kernenergie in den Medien nur extrem einseitig dargestellt, obwohl sie den erneuerbaren Energien überlegen ist. Beispielsweise stoßen Kernkraftwerke pro erzeugter Energieeinheit 300 Mal weniger Giftmüll aus als die so genannte „saubere“ Sonnenenergie. Auch die Windenergie ist mit einer Giftmarke versehen.

Außerdem ist die Kernenergie eine ressourceneffiziente Energiequelle. Windparks benötigen bis zu 360 Mal mehr Landfläche, um die gleiche Menge an Elektrizität zu erzeugen wie eine Kernenergieanlage. Während Sonne und Wind für steigende Energiepreise berüchtigt sind, produzieren Kernkraftwerke Strom zu erschwinglichen Kosten und halten die Strompreise unter Kontrolle.

Erneuerbare Energien wurden auf der Grundlage einer versprochenen Zukunft auch dann noch gefördert, wenn sie nachweislich nicht in der Lage sind, zuverlässig grundlastfähigen Strom zu liefern, und obwohl es keine nicht-fossile Reservequelle gibt, die sie unterstützt, wenn sie nicht funktionieren. Im Gegensatz dazu wurde die Kernenergie aus Sicherheitsgründen auf eine schwarze Liste gesetzt, obwohl ein bewährter Sicherheitsstandard und kein größerer Verlust an Menschenleben durch die drei schweren Unfälle in der jüngsten Vergangenheit zu verzeichnen war.

Wenn es uns wirklich darum geht, unsere Energiequellen zu diversifizieren, Energie für unsere Gemeinschaften erschwinglich zu machen, eine stabile Energiequelle zu haben, die die boomende Wirtschaft unterstützen kann, dann ist es an der Zeit, falsche Ängste abzulegen und die Kernenergie einzuführen.

Autor: Vijay Raj Jayaraj (M.Sc., Environmental Science, University of East Anglia, England), is an Environmental Researcher based in New Delhi, India. He served as a Graduate Research Assistant at the University of British Columbia, Canada and has worked in the fields of Conservation, Climate change and Energy.

Link: https://www.cfact.org/2020/11/29/renewables-and-nuclear-false-hopes-and-unfounded-fears/

Übersetzt von Chris Frey EIKE




Kulturelle Anreize für die Installation von Wind und Solar

Genau hier bei Climate Etc. hat in der ersten der ausgezeichneten Analysen des „Planungsingenieurs“ (bei seiner Pensionierung stellte sich heraus, dass es sich um Russ Schussler handelt, den ehemaligen Vize-PP der Übertragungsplanung bei Georgia Transmission Corporations), lobenswerterweise die Beschränktheit der technischen Analysen mit seiner allerersten Zeile hervorgehoben: „Energie-Systemplaner haben nicht das Fachwissen oder die Kenntnisse, um sagen zu können, ob die Vorteile einer Reduktion der Kohlenstoffemissionen die Kosten wert sind oder nicht. Sie sollten jedoch als Experten respektiert werden, um ein besseres Verständnis für die Auswirkungen und Kosten solcher Programme zu erhalten“.

Wer verfügt also über dieses kritische Wissen und die Fachkenntnisse in Bezug auf die letztendlichen Kosten/Nutzen? Die Antwort wird höchstwahrscheinlich lauten: niemand, denn diese Frage ist nicht nur zutiefst umstritten, sie ist auch kulturell (wie auch technisch) umstritten. In der Tat, in dem Maße, wie das überwältigende öffentliche und behördliche Narrativ über den Klimawandel der Mainstream-Wissenschaft widerspricht, ganz zu schweigen von jeder skeptischen Wissenschaft, was auch bedeutet, dass es, insbesondere in einigen Nationen wie den USA, kulturelle Gegen-Narrative gibt. Daher werden Debatten über Politik, einschließlich des Einsatzes erneuerbarer Energien, nicht legitimerweise gelöst, weil der starke kulturelle Blickwinkel eine solche Debatte korrumpiert oder polarisiert oder einfach überlagert.

Schussler erkennt diesen Kulturstreit an, indem er in der Zeile nach dem obigen Zitat sagt: „Leider haben viele Nicht-Experten, getrieben von der Furcht vor AGW, viel getan, um kritische Fragen rund um die Kosten und Möglichkeiten erneuerbarer Energien und die Realitäten im Zusammenhang mit der Bereitstellung von elektrischer Energie zu vernebeln, zu verzerren und zu ignorieren“. Auch er kehrt ganz am Ende seines Beitrags zu diesem Thema zurück: „… ich glaube, die meisten Planer und Versorgungsunternehmen erkennen an, dass die Gesamtauswirkungen auf die Gesellschaft (sofern sie nicht zur Abwendung einer Umweltkatastrophe erforderlich sind) alles in allem äußerst schädlich wären. Ich hoffe, dass die Stimmen der besorgten Versorgungsexperten nicht durch den Lärm der ‚wahren Gläubigen‘ übertönt werden oder aufgrund falscher Anschuldigungen des Eigeninteresses ungläubig sind“. Sicherlich ist ‚wahrer Glaube‘ ein kulturelles Merkmal und kann oft zu ‚falschen Anschuldigungen‘ führen. Außerdem ist der Vorbehalt „es sei denn, er wird gebraucht“, oder subtiler ausgedrückt, „wie sehr er gebraucht wird“, ein wichtiger Punkt in dem oben erwähnten Streitfall. Ein offensichtliches Bedürfnis könnte teilweise oder ganz das Ergebnis eines emotionalen Glaubens sein, bei dem die „Angst vor [C]AGW“ eine wichtige Komponente ist.

Schusslers Titel, „Mythen und Realitäten der erneuerbaren Energien“, (Hervorhebung von mir), schließt das Element ein, das die technische Analyse hinsichtlich Charakter und Wirkung letztlich nicht untersuchen kann, denn Mythen sind kulturelle Phänomene. Andere zitieren Mythen als Motivation für Erneuerbare Energien, und David Archibald geht noch weiter, indem er dieses Element direkt als „religiös“ einordnet (Religionen sind nur eine Marke kultureller Einheiten). In einem kürzlich bei Jo Nova erschienenen Artikel über erneuerbare Energien (mit Schwerpunkt auf Wasserstoff) verwendet er religiös orientierte Begriffe wie „Gläubige“ und „Regierungsenzykliken“:

Kurz gesagt, der einzige Grund, warum man Solar- und Windkraft betrachtet ist, dass Sonnenkollektoren und Windturbinen mit Energie aus Kohle zu einem Preis von 0,04 Dollar pro kWh hergestellt werden und Strom zu 0,20 Dollar pro kWh produzieren… …Man kann Solar- und Windkraft nicht zur Herstellung von Solar- und Windkraftanlagen nutzen; als solche sind sie weder erneuerbar noch nachhaltig. Und sie werden sicherlich nicht fossile Brennstoffe ersetzen, wenn die fossilen Brennstoffe zur Neige gehen.

Sogar einige Linksradikale fanden das heraus und damit den Dokumentarfilm Planet of the Humans. Also müssen sich die Kleriker der Erderwärmung, die hierzulande [in Australien] von Alan Finkel angeführt werden, immer wieder neue Inhalte ausdenken, um ihre einfältigen Gläubigen zufrieden zu stellen… …Für Wasserstoff sollen riesige Summen ausgegeben werden. Die Sprache der Regierungsenzykliken suggeriert, dass Wasserstoff eine neue Energiequelle ist, die nur noch erschlossen werden muss, um eine wunderbare Zukunft zu garantieren“.

Unnötig zu sagen, dass Archibald diesen „religiösen“ Einfluss als überwältigend negativ betrachtet und als Teil seiner Schlussfolgerung hinzufügt: „Die globale Erwärmung führt nicht zum Bau von Waisenhäusern oder Krankenhäusern. Als Religion nützt sie überhaupt nichts“. Und andere behaupten ebenfalls eine kultische/religiöse Motivation. Doch unabhängig davon, ob man Kultur nur als einen trübenden/verzerrenden Einfluss oder als eine überwältigend negative Kraft betrachtet, werden technische Analysen, die den erneuerbaren Energien kritisch gegenüberstehen, unweigerlich ins Wanken geraten oder spekulativ werden, wenn es darum geht, kulturellen Einfluss zu demonstrieren (z.B. zwischen Nationen, die in erneuerbare Energien investieren). Um hier Fortschritte zu erzielen, ist ein alternativer Ansatz erforderlich.

Es gibt weniger kritische / optimistischere Analysen der „erneuerbaren“ Sonnen- oder Windenergie, die jedoch dazu tendieren, ein gewisses Maß an Einbußen bei der Erreichung rosigerer Endszenarien zu rechtfertigen, unter der Prämisse, dass dies notwendig ist, um eine ansonsten unvermeidliche und unmittelbar bevorstehende globale Katastrophe zu vermeiden (abgesehen von der äußerst optimistischen, in der alle Veränderungen scheinbar schmerzlos sind). Doch die Mainstream-Wissenschaft hält eine solche Rechtfertigung für unbegründet (ungeachtet des oben erwähnten Kulturstreits).

In der Zwischenzeit schreitet die Umsetzung von Solar- und Windenergie rasch voran, in einigen Ländern bereits seit Jahrzehnten. Ist diese globale Umsetzung also weitgehend auf pragmatische Erwägungen zurückzuführen, die mit der Mainstream-Wissenschaft im Einklang stehen? Schließlich produzieren diese Dinger tatsächlich Strom. Oder ist sie stattdessen weitgehend auf eine kulturelle Motivation zurückzuführen, die Sonnenkollektoren und Windturbinen als bloße Ikonen für die „säkulare Religion“ eines bestimmten und katastrophalen Klimawandels verbreitet? Und das unabhängig von den Kosten, seien sie nun steuerlicher oder ökologischer Natur. Diese Frage ist lösbar, da harte soziale Daten über die kulturelle Einstellung vieler Nationen zum Klimawandel es erlauben, die nationalen Motivationen auf den Einsatz erneuerbarer Energien abzubilden.

Kulturelle Einstellungen zum Klimawandel in nationalen Gesellschaften

Frühere Beiträge hier zeigen, dass eine unterstützende Haltung gegenüber dem Klimawandel (CC) in allen nationalen Gesellschaften eine duale und systemisch starke Beziehung zur Religiosität hat. Unterstützende Antworten bzgl. des CC in der Öffentlichkeit auf ungebundene Fragen der Klima-Umfrage korrelieren mit der nationalen Religiosität, während umgekehrt unterstützende Antworten bzgl. des CC auf realitätsgebundene Fragen nicht mit der nationalen Religiosität korrelieren. Realitätsgebundene Fragen zwingen die Umfrageteilnehmer dazu, andere Realitätsfragen im Zusammenhang mit dem Klimawandel zu betrachten und zu vergleichen, indem sie typischerweise gebeten werden, das „wichtigste“ X aus einer größeren Liste von Y-Fragen zu benennen, von denen eine ein Thema des Klimawandels darstellt, oder buchstäblich nur „Klimawandel“. Unbeschränkte Fragen erzwingen eine solche vergleichende Wahl nicht. Unter Verwendung einiger Datenreihen aus den früheren Beiträgen fasst Diagramm 1 unten diese doppelte Beziehung zusammen. Für viele Nationen und gegen die nationale Religiosität aufgetragen, zeigt es die CC-unterstützenden öffentlichen Antworten, gemessen (und für die gestrichelten Linien intuitiv) für unterschiedliche Stärken sowohl der ungebundenen als auch der realitätsgebundenen Umfragen.

Die Stärke für die ungebundenen Fragen (blaue Linien) spiegelt wider, wie sehr diese auf die emotionalen und existentiellen Werte der Kultur des katastrophalen Klimawandels (CCCC) ausgerichtet sind und wie sehr dies auf das Persönliche abzielt. Eine andere Art, über diese Stärke nachzudenken ist, wie voreingenommen die Fragen auf den CCCC ausgerichtet sind, wobei der emotionale Inhalt ein Merkmal der Voreingenommenheit und nicht der Rationalität ist. Die Stärke für Fragen mit Realitätseinschränkungen (orangefarbene Linien) spiegelt die Enge der Einschränkung wider. Die Auswahl des „wichtigsten“ Einzelthemas von 12 ist beispielsweise eine stärkere Einschränkung der Realität, ein stärkerer Konflikt mit den anderen Themen, als beispielsweise die Auswahl der Top 3 von 12, die wiederum stärker ist als die Top 5 von 12. Tabelle 1 am Ende dieses Beitrags zeigt, welche tatsächlichen Fragen der Umfrage zum Klimawandel die Datenreihen generiert haben, die jede Zeile repräsentiert (jede Zeile wird nur als eigenständige Trendlinie dargestellt), zusammen mit den zugehörigen r/r²/p-Werten.

Die wichtigste Schlussfolgerung aus diesen Tendenzen lautet, dass – wie aus ihrer starken Beziehung zur Religiosität (einem rein kulturellen Phänomen) hervorgeht – die Einstellung zum Klimawandel in den verschiedenen Nationen ebenfalls kulturell geprägt ist. Tatsächlich sind sie das Nettoergebnis der Interaktion zwischen zwei Kulturen, d.h. CCCC und Religion. Das bedeutet also, dass sie nicht auf Rationalität (kulturelle Einstellungen sind emotional getrieben) oder auf etwas Physisches wie die Eigenschaften des Klimasystems oder die besonderen Klimabedingungen oder Klimaexpositionen von Nationen zurückzuführen sind oder auf Ansichten, die von der allgemeinen (oder einer anderen) Klimawissenschaft vertreten werden.

Mit Ausnahme einer historischen Koinzidenz (jährliche Sonnenscheindauer – siehe später) würden keine Angelegenheiten, die unter diese Kategorien fallen, eine systemische Beziehung zur Religiosität aufweisen. Und mit Sicherheit kann keine gleichzeitig Korrelation und Antikorrelation auftreten, die nur von der Art der gestellten Frage abhängt; dennoch ist dies bei kulturellen Antworten durchaus möglich. Diese Dualität wirft offensichtliche Widersprüche auf. Zum Beispiel treten maximale Klimabedenken (rechte Enden der blauen Trends in Grafik 1) in denselben Nationen auf wie minimale Unterstützung für Klimamaßnahmen / Priorität (rechte Enden der orangenen Trends). Aber solche offensichtlichen Widersprüche sind für kulturelle Ursachen nicht ungewöhnlich. Aus der vorherigen Serie bei Climate Etc. siehe: Apparent Paradoxes in the relationship of Climate ‘Concerns, Skepticism, Activism, and Priority’ explained by Religiosity [etwa: Scheinbare Paradoxe in der Beziehung von Klima-‚Sorgen, Skepsis, Aktivismus und Priorität‘, erklärt durch Religiosität].

Tatsächlich ist die Gesamtsituation komplexer als in Schaubild 1 dargestellt. Weitere Erläuterungen findet man in der unten verlinkten Zusammenfassungsdatei (und vor allem in Diagramm 2 dort, nicht im Hauptbeitrag), die durch weitere Reihen und Merkmale visualisiert wird, die dem obigen Diagramm 1 hinzugefügt wurden. Es bleibt jedoch die Schlussfolgerung, dass die Einstellung zum Klimawandel in den verschiedenen Ländern hauptsächlich kulturell bedingt ist, also weder von der Rationalität noch von physischen Faktoren abhängt. [Hinweis: Die beigefügte Zusammenfassung ist konzentrierter und leichter verständlich als die 3 oben verlinkten früheren Beiträge. Was die USA betrifft, siehe die Notiz ganz am Ende dieses Beitrags].

Motive für das Engagement für erneuerbare Energien untersuchen

Falls ein bestimmtes Thema von kulturellen Einstellungen dominiert wird, sollten Ausgaben und politische Unterstützung innerhalb dieser Domäne letztlich in diesen Einstellungen verwurzelt sein. Ausgehend von den oben genannten kulturellen Einstellungen zum Klimawandel müssen wir nun die Beziehungen über Nationen hinweg und zwischen denselben sowie dem tatsächlichen Einsatz erneuerbarer Energien untersuchen. Es ist nicht so, dass die Massenöffentlichkeit hinausstürmt und Windkraftanlagen mit ihren Kreditkarten kauft, im Verhältnis zu ihrer nationalen Einstellung. Das tatsächliche Engagement funktioniert über Eliten, die Politik machen. Doch die Grenzen einer solchen Politik sollten immer noch im Verhältnis zu den nationalen öffentlichen Einstellungen stehen (was nicht bedeutet, dass man sich in einem absoluten Sinne ausrichtet).

Die Kultur setzt sich dafür ein, unabhängig davon, ob eine Nation eine Demokratie ist oder nicht, oder im letzteren Fall, ob es sich tatsächlich um demokratische Prozesse handelt oder nicht (z.B. wurde im Vereinigten Königreich „Gesamt-Null bis 2050“ ohne eine parlamentarische Abstimmung und im Wesentlichen ohne Kostenberechnung oder Prüfung oder sinnvolle Opposition durchgewunken). Wie in der Einleitung oben ausgeführt, ist die primäre Rechtfertigung für erneuerbare Energien in der Tat der Klimawandel. Falls also die Kultur in diesem speziellen Politikbereich die Hauptrolle spielt, sollte der Einsatz erneuerbarer Energien pro Nation von der (kulturellen) Einstellung zum Klimawandel bestimmt werden. In diesem Fall müssen wir eine sehr starke Korrelation zwischen diesen beiden Aspekten sehen.

Aber welche der oben genannten Haltungen zum Klimawandel sind relevant, wenn man sie auf nationaler Ebene mit dem Engagement für erneuerbare Energien vergleicht? Da es zumindest einen gewissen Realitätsdruck auf den Einsatz erneuerbarer Energien gibt (weil alle Nationen über Budgets verfügen und um diese konkurrieren), sollte sich, wenn schon der Ausdruck der Politik für erneuerbare Energien hauptsächlich kultureller Natur ist, dies an einem realitätsbedingten (orangefarbenen) Trend orientieren und nicht an einem ungebundenen (blauen) Trend. Da zudem das Wissen der Öffentlichkeit und auch der Eliten/Behörden über erneuerbare Energien im Durchschnitt wahrscheinlich sehr gering ist, ist der Vorbehalt bestenfalls schwach (wenn die Nachteile des Einsatzes besser verstanden würden, dann wäre der Vorbehalt stärker).

Wir sollten uns also einen Vergleich mit den Einstellungsdaten aus der „WC“-Reihe in Graphik 1 ansehen. Diese stammen aus einer umfangreichen UN-Umfrage über politische Prioritäten in vielen Ländern, wobei der Stimmenanteil für „Maßnahmen gegen den Klimawandel“ die Y-Werte der Serie bildet. Nationen aus dieser Serie können mit denjenigen verglichen werden, die in großem Umfang Solaranlagen (40 Nationen), Windturbinen (ebenfalls 40, mit 5 Nationen, die von der Solarliste abweichen) einsetzen, sowie einen gemeinsamen Satz (von 35), die beide einsetzen.

Die Betrachtung des Engagements für Wind und Solar zusammen dürfte zu einem zuverlässigeren Ergebnis führen, da jede der beiden Arten von Technologien / Politik Eigenheiten aufweisen kann, die in gewisser Weise gegen den Trend verlaufen könnten, die aber im Durchschnitt eher über der Kombination von beiden liegen (obwohl wir damit beginnen können, jede Art nacheinander zu untersuchen). In der Praxis ist es höchst unwahrscheinlich, dass es keine oder eine vollständige Korrelation gibt. Politische Entscheidungen sind sehr selten zu 100 Prozent frei von kulturellen Faktoren, aber sie wären auch selten ganz und gar kulturell. Wir können also angemessene Schwellenwerte für den Test festlegen. Wenn das „r“ für die Korrelation des Engagements für erneuerbare Energien mit einer schwach eingeschränkten Klimapolitik ~0,33 oder weniger beträgt, dann können wir sagen, dass die Kultur (per o.a. in diesen Einstellungen) nicht dominiert. Liegt das r~0,66 oder höher, dann können wir sagen, dass die kulturelle Motivation das Engagement für erneuerbare Energien sehr wohl dominiert. Wenn der Wert dazwischen liegt, dann müssen wir wohl sehen, wo und wie wir über duale Modi nachdenken müssen.

Engagement für Windkraftanlagen in 40 Ländern

Präambel: 1] Aufgrund verschiedener Auswirkungen auf die sehr langfristige soziale Entwicklung ist bekannt, dass mit einigen Ausnahmen (die hier nicht thematisiert werden) das Pro-Kopf-BIP über Länder hinweg stark negativ mit der Religiosität korreliert (siehe Graphik 1 in der Xcel-Datendatei).

2] Wenn also der Einsatz von Windkraftanlagen tatsächlich durch eine Klimabewegung vom Typ „WC“ motiviert ist, die ihrerseits negativ mit Religiosität korreliert (siehe Graphik 1), dann sollte die nationale Religiosität, aufgetragen gegen die Pro-Kopf-Kapazität der Windkraftanlagen jeder Nation, eine Funktion des Leistungstyps ergeben. Das tut sie (siehe Diagramm F2 in der EXCEL-Datendatei).

3] Leistungsfunktionen sind schwieriger zu handhaben oder unsere Testschwellenwerte für „r“ (basierend auf linear) anzuwenden.

Eine Normierung der Pro-Kopf-Windenergieanlagenkapazität auf das Pro-Kopf-BIP (ich habe das spanische BIP als willkürlichen Standard verwendet) wird also den langfristigen Effekt der Religiosität auf die Gesellschaften und jede ungleiche Erfüllung der Motivation beseitigen (dieselbe Motivation, also ~Bruchteil des BIP, wird mehr Windenergieanlagen kaufen, wenn das BIP größer ist). Dies setzt also unsere Erwartung zurück auf eine lineare Funktion…

Graphik: Über die 40 Nationen hinweg zeigt der Stimmenanteil der UNO für „Maßnahmen gegen den Klimawandel“ (aus den „WC“-Daten) im Vergleich zum normalisierten Pro-Kopf-BIP (bis 2018) eine +ve-Korrelation zwischen der Kapazität von Windkraftanlagen und der Bevölkerung. Dies deutet darauf hin, dass Windturbinen signifikant durch eine kulturelle Einstellung zum Klimawandel vom Typ „WC“ motiviert sind:

Ein „r“ von 0,64 verfehlt knapp unsere Testschwelle für Dominanz; aber das ist erst die halbe Wahrheit. Und es sieht so aus, als gäbe es Eigenheiten in Bezug auf einzelne nationale Richtlinien für den Windeinsatz. So hat z.B. die Tschechische Republik trotz eines hohen Votums für „Maßnahmen gegen den Klimawandel“ sehr wenig. Und mit einem etwas geringeren Stimmenanteil scheint Portugal dennoch eine enorme Windkapazität zu haben. Zusammenfassend lässt sich sagen, dass mit steigender Motivation nach rechts, vor allem jenseits der grünen Linie, die Bandbreite der Ausprägung pro Windkraftanlagen zu wachsen scheint. Dies ist wahrscheinlich auf eine umfangreichere und gezieltere Politik im Bereich der erneuerbaren Energien zurückzuführen, die sich daher von der Begeisterung für Windkraftanlagen bis hin zu einem minimalen Einsatz ausbreitet, weil andere erneuerbare Energien stattdessen eine höhere Priorität erhalten oder nicht (z.B. Solar, Biomasse usw.). Um besser gegen die Auswirkungen gezielter Maßnahmen zu isolieren, können wir also die identische Analyse für den Einsatz der Solarenergie in den Mix aufnehmen.

Engagement für Solarenergie in 40 Ländern

Präambel: 1] Die äquivalenten Diagramme für F1 und F2 im Fall der Windkraftanlage sind F3 und F4 (siehe die Excel-Datei).

2] Bei der Solarenergie gibt es jedoch ein zusätzliches Problem, nämlich dass wir die MW, die jede Nation eingesetzt hat, entsprechend ihrer jährlichen Sonnenscheinstunden anpassen müssen. Andernfalls wird ein und dieselbe Ausgabe (wobei die Ausgabe der Motivation entspricht), daher die Bezeichnung MW, in verschiedenen Ländern pro Jahr unterschiedlich viel Strom produzieren. In Diagramm 4 wird also die eingesetzte Solarkapazität (auf Spanien) für die jährliche SonnenscheindauerP1 normalisiert.

Grafik: Über die 40 Nationen hinweg (5 davon verschieden vom Windturbinensatz) zeigt der Stimmenanteil der UNO für „Maßnahmen gegen den Klimawandel“ (aus den „WC“-Daten) im Vergleich zum BIP pro Kopf – normalisierte jährliche sonnenbereinigte Solarkapazität/Bevölkerung (bis 2018) – eine +ve Korrelation. Siehe Schaubild F7 in der Excel-Datendatei. Dieses Diagramm ist dem obigen Diagramm 2 sehr ähnlich, wobei rechts von der grünen Linie ein größerer Schwankungsbereich bei der Solarenergie zu erkennen ist. Allerdings sind innerhalb dieses Bereichs andere Nationen als in Diagramm 2 entweder hoch oder niedrig, da die Eigenheiten der Solarenergie anders sind als die der Windkraftanlagen.

Ein „r“ von 0,48 ist etwas niedriger als für Windturbinen allein; ein Großteil der Reduzierung scheint darauf zurückzuführen zu sein, dass Japan trotz nur geringerer Klimabedenken verrückt nach Solaranlagen geworden ist, während Schweden trotz sehr großer Klimabedenken sehr wenige Solaranlagen hat. Aber auch dies ist nur die Hälfte der Geschichte. Wenn wir die Ergebnisse für beide Technologien kombinieren, erhalten wir ein robusteres Bild der Motivation für erneuerbare Energien insgesamt.

Engagement für kombinierte Wind-/Solar-Erneuerbare Energien in 35 ( gewöhnlichen) Nationen

Über 35 Nationen hinweg zeigt Diagramm 3 unten den Stimmenanteil der UN für „Maßnahmen gegen den Klimawandel“ (aus den „WC“-Daten) im Vergleich zum BIP pro Kopf der Bevölkerung (bis 2018). Die Korrelation +ve hat sich verbessert. Das „r“ liegt nun bei 0,73 und übertrifft die obere Testschwelle um Einiges.

Die größere Streuung der Nationen an der RHS hat sich erheblich verringert (mit Ausnahme von Deutschland), was mit der erwarteten Gesamtmotivation für erneuerbare Energien übereinstimmt, die sich jedoch für eine bestimmte einzelne Nation viel stärker in Windturbinen als in Solaranlagen ausdrücken kann oder umgekehrt. Die Linse, mit der wir in erster Linie sehen konnten, dass die Einstellung zum Klimawandel kulturell bedingt ist, d.h. die Religiosität der Nationen, ist in Diagramm 3 farblich gekennzeichnet. Diese fällt von links nach rechts, wenn auch unscharf, weil neben einem zufälligen Rauschen auch eine kleine sekundäre Variable im Spiel ist, die sich auf die Religiosität, wie sie in dieser Ansicht zu sehen ist, auswirkt (siehe Postskript 2).

Diskussion

Ungeachtet eines gewissen Nutzens ist die Hauptmotivation für Wind- und Sonnenenergie kulturell geprägt. Daher ähneln ihre Anlagen eher Kirchen als Kraftwerken. Das bedeutet auch, dass der Einsatz erneuerbarer Energien pro Nation, genau wie die kulturelle Einstellung, in der sie verwurzelt ist, in direkter Gegenkorrelation zur Religiosität steht; siehe Postskriptum 2.

Es scheint zwar sehr intuitiv, dass sich die nationalen Einstellungen zu Maßnahmen gegen den Klimawandel mit der entsprechenden Bereitschaft für erneuerbare Energien decken würden, aber wenn man direkt auf die Halsschlagader zusteuert, wird man vielleicht nicht genau verstehen, wie genau man vergleichen soll (oder es wäre zumindest wahrscheinlicher, dass man dabei einen Fehler macht) oder was das Ergebnis tatsächlich bedeutet. Ohne den Nutzen des Gesamtbildes in Graphik 1 und der damit verbundenen kulturellen Bedeutung hätten wir zum Beispiel nicht gewusst, dass diese Einstellungen nicht der Rationalität geschuldet sind. Außerdem hätten wir am Ende vielleicht die Einstellungen aus einer ungebundenen Klimaumfrage verglichen und würden uns immer noch fragen, warum mehr Erneuerbare Energien mit dramatisch weniger Sorge um den Klimawandel korreliert. Und die Schritte in den obigen Präambeln bestätigen in nützlicher Weise die Rolle des Pro-Kopf-BIP und der Sonnenscheindauer.

Anmerkung: Ein weitverbreitetes öffentliches Wissen über Fragen der erneuerbaren Energien würde die politischen Zwänge verstärken und wahrscheinlich die Motivation von der „WM“-Linie in Schaubild 1 auf die „FC“-Linie absinken lassen. Anmerkung: Dieser Beitrag sagt weder etwas über den tatsächlichen physischen Klimawandel noch über die Mainstream-Wissenschaft hierzu aus (was den Erzählungen der CCCC widerspricht). Es geht nur um die Haltung der Öffentlichkeit und deren Haltung bzgl. der Politik für erneuerbare Energien.

Michael Shellenberger, der Umweltschützer, der sich unermüdlich für die Kernenergie als Lösung für unseren Energiebedarf einsetzt, sagt Folgendes über die Erneuerbaren Energien (und er spricht vor allem von Solar- und Windkraftanlagen): „Für mich stellt sich jetzt die Frage: Jetzt, da wir wissen, dass die erneuerbaren Energien den Planeten nicht retten können, werden wir zulassen, dass diese denselben weiter zerstören“? Eine Einsicht, die mit der Tatsache übereinstimmt, dass der „Zweck“ kultureller Erzählungen darin besteht, emotionales Engagement zu gewinnen, das wiederum nur dazu dient, die kulturelle Gruppe zusammenzuhalten; für diesen eigentlichen Zweck ist es irrelevant, dass die daraus resultierenden Handlungen ihren erklärten Zweck untergraben oder sogar umkehren können – es geschieht.

Im Klappentext zu seinem Buch „Apocalypse Never“ spricht Shellenberger auch über den Charakter des modernen Umweltschutzes, die Motivation dahinter, die zusammen mit vielem anderen den Einsatz erneuerbarer Energien antreibt (und auch einen Netto-Widerstand gegen die Kernkraft als „Lösung“): „Was steckt wirklich hinter dem Aufstieg des apokalyptischen Umweltschutzes? Es gibt mächtige finanzielle Interessen. Es gibt den Wunsch nach Status und Macht. Vor allem aber gibt es bei vermeintlich säkularen Menschen den Wunsch nach Transzendenz. Dieser spirituelle Impuls kann natürlich und gesund sein. Aber indem die neue Religion Angst ohne Liebe und Schuld ohne Erlösung predigt, versagt sie darin, unsere tiefsten psychologischen und existentiellen Bedürfnisse zu befriedigen“. Hervorhebung von mir.

Shellenberger bezeichnet die allgemeine Motivation zu Recht als kulturell. Er verwendet den Begriff „Religion“, wie viele andere auch, einfach deshalb, weil dies das bekannteste Beispiel für eine begrenzte kulturelle Einheit ist, zu der Menschen neigen. In Bezug auf eine „Klimakatastrophe“ im Allgemeinen stimmen die sozialen Daten völlig mit ihm überein, wie aus Graphik 1 hervorgeht (und ausführlicher an anderer Stelle, siehe die Zusammenfassung unten). Und wie oben gezeigt wurde, gilt dies auch für die spezifische Motivation hinter dem Einsatz erneuerbarer Energien.

Allerdings glaube ich, dass Shellenberger in einem Punkt Unrecht hat. Die Kultur des katastrophalen Klimas ist gerade deshalb so allgegenwärtig, weil sie wirklich tiefe psychologische Bedürfnisse befriedigt, die sich aus der Identifikation mit einer Gruppe durch emotionale und vorzugsweise existenzielle Erzählungen ergeben. Diese wiederum aktivieren tiefe psychische Mechanismen, die unsere Rationalität umgehen, sei es der Rat eines Planungsingenieurs oder irgendein anderer bloßer Grund, über welches Fachwissen, welche Erfahrung oder Analyse auch immer. Jeder oder jede Gruppe, die den gruppeninternen Erzählungen widerspricht oder sie sogar in Frage stellt, steht automatisch außerhalb der Gruppe und leistet so leidenschaftlichen Widerstand.

Postscript 1: Historischer Zufall und die Ironie bzgl. Solar

Durch den historischen Zufall, dass sich der Atheismus von Nordwesteuropa und damit von meist sehr wolkigen (im Jahresdurchschnitt) Ländern in typisch sonnigere Klimazonen ausbreitete, hat die jährliche Sonnenscheindauer der Länder eine recht ordentliche lineare Korrelation mit der nationalen Religiosität, wenn auch mit einigen größeren individuellen Ausnahmen. Siehe Schaubild F5 in der Datendatei, „r“ ist 0,56. Hinweis: Die jährliche Sonnenscheindauer pro Land ergibt sich aus den durchschnittlichen Messungen für 2 Städte (kleinere Länder) und 5 Städte (größere Länder, mit Ausnahme von 10 für Russland); siehe die Excel-Datendatei für Tabellen derselben, plus Originalquellen. Wenn also die nationalen Sonnenscheinstunden als Proxy für die nationale Religiosität in Diagramm F4 ersetzt werden, zeigt dies immer noch eine Funktion des Leistungstyps, siehe Diagramm F6 in der Datendatei. Ähnlich wie oben können wir dann dieses wrt BIP pro Kopf normalisieren und damit den einfachen Effekt der Kaufkraft (und auch ihre langfristige Beziehung zur Religiosität) entfernen. Dies zeigt die relative Priorität des Solareinsatzes (und damit die relative Motivation) für jede der Nationen.

Das Ergebnis dieser Operation, das in Graphik 4 unten dargestellt ist, zeigt eine bedeutende Ironie, die aus der kulturellen Motivation hinter den Erneuerbaren resultiert. Diese besteht darin, dass mit abnehmender jährlicher Sonnenscheindauer in den einzelnen Ländern mehr Länder sich dafür entscheiden, mehr Solar-MW pro Kopf einzusetzen – d.h. in genau den Regionen, in denen dies am wenigsten sinnvoll ist.

Die zunehmende Streuung der Nationen von rechts nach links im grünen Dreieck repräsentiert den gleichen zunehmenden Bereitschafts-Bereich in Solar, der auch in F7 zu sehen ist (siehe Datendatei), und ebenso für Windkraftanlagen in Diagramm 2 oben, der in beiden Fällen rechts von den grünen Linien deutlicher zu erkennen ist. Diese zunehmende Bandbreite ist auf eine zunehmende kulturelle Motivation für Erneuerbare Energien zurückzuführen, verbunden mit einer gezielten Politik, die für bestimmte Nationen bis zu einem gewissen Grad andere Optionen für Erneuerbare Energien gegenüber der Solarenergie bevorzugen kann.

Postskript 2: Pro-Erneuerbare-Engagement versus Religiosität

In Schaubild 1 wird die Religiosität als „Linse“ verwendet, die es uns erlaubt, zu „sehen“, dass die nationalen Einstellungen zum Klimawandel tatsächlich kulturell bedingt sind. Die beiden starken Kulturen interagieren miteinander, um die verschiedenen Tendenzen zu erzeugen, und insbesondere die Korrelation mit der Religiosität von den Klimawandel unterstützenden Antworten auf ungebundene Fragen, aber auch die Anti-Korrelation mit der Religiosität von Klimawandel unterstützenden Antworten auf realitätsgebundene Fragen ist sicherlich kaum anders zu erklären. Man würde nicht erwarten, dass diese Linse oder dieser Proxy selbst eine so robuste Korrelation mit der nationalen Verpflichtung zu erneuerbaren Energien hat wie die „WC“-Klimaeinstellung, aber es ist eine nützliche „Paritätsprüfung“, um dies grafisch darzustellen und zu zeigen, dass sie immer noch ziemlich stark sein sollte. Diagramm F9 in der Excel-Datendatei zeigt dies. „r“ liegt bei ~0,65 gegenüber der Rangliste „Renewables Commitment“ (komprimiert einige der Ausreißer ein wenig, insbesondere Deutschland) und ~0,6 gegenüber den tatsächlichen Werten. In der Praxis gibt es mehr als nur zusätzliche Zufälligkeit, wenn man durch diesen Proxy schaut.

Die Reihe der „schwächeren Merkmale“ in Graphik 1 (also „WC“ und „WA“) weisen aufgrund des Pro-Kopf-BIP jeder Nation im Verhältnis zu ihrer religiös-regionalen Gruppe eine gewisse systemische Trendvariabilität auf. Diese Variabilität wird in Diagramm F9 getreu wiedergegeben und ist darin farblich gekennzeichnet. Siehe auch die Diagramme F10 und F11, die die Übereinstimmung der Durchschnittswerte des Pro-Kopf-BIP der religiös-regionalen Gruppen zwischen den Reihen „WC“ und „Renewables Commitment“ zeigen. Eine vollständige Erklärung findet man in der Zusammenfassungsdatei, sowie einige „schwächere“ Klimaeinstellungsreihen als Volldaten-Visualisierungen, um den Roheffekt besser erkennen zu können. Eine Version der „WM“, bei der die gleichen 35 Nationen wie in Diagramm 3 verwendet werden, wobei sowohl das „hoch / niedrig-Renewables Commitment“ als auch das „hoch / niedrig“ der „GDP-per-religio-regional-group“ kodiert sind, findet man in Diagramm F8 in der Datendatei.

  1. Climate Survey Data-source: International 2019 YouGov climate-change attitudes survey.
  2. Climate Survey Data-source: European Perceptions of Climate Change (EPCC) 2016 survey.
  3. Climate Survey Data-source: UK government 2015 public attitudes tracker.
  4. Climate Survey Data-source: YouGov ‘What the world thinks’ (2016), composite with ‘Special Eurobarometer 459’ (2017).
  5. Climate Survey Data-source: The huge 2015 UN ‘My World’ poll with ~10 million participants across many nations.
  6. Climate Survey Data-source: Climate questions in the Reuters / University of Oxford ‘Digital News Report 2020’ survey.
  7. Original Excel chart: ‘3xy’ here (24 nations, x/y reversed, raw X scale, delete US & Vietnam rows).
  8. Original Excel chart: ‘1yx’ here (22 nations, debiased X scale), ‘2xy’ here (24 nations, x/y reversed, raw X scale, delete US & Vietnam rows).
  9. Original Excel chart: ‘F1yx’ here (22 nations, debiased X scale), ‘4xy’ here (24 nations, x/y reversed, raw X scale, delete US & Vietnam rows).
  10. Original Excel chart: See ‘3yx’ here (red crosses, and just left of chart, column G and J for data).
  11. Original Excel chart: See ‘F6’ here (and superimposed on other series, chart 3yx just to the left).
  12. Original Excel chart: See ‘4yx’ and ‘5yx’ here (4yx faith color-coded, 5yx religio-regional color-coded).
  13. Original Excel chart: Not on the Internet yet, see Footnote 9 in the attached Summary File below.

Link to Summary File regarding the generic relationship between national religiosities and attitudes to climate change: [SUMMARY Religiosity Predicts CC Beliefs 2]

Link zur Zusammenfassungs-Datei bzgl. der allgemeinen Beziehung zwischen nationalen Religiositäten und Einstellungen zum Klimawandel: [SUMMARY Religiosity Predicts CC Beliefs 2].

Anmerkung: die obige Datei enthält einen kurzen separaten Abschnitt über die Situation in den USA, wo es einen 4-Wege-Kultur-Gegensatz gibt (die zusätzlichen Akteure sind die Kulturen Republikaner / Konservative sowie Demokraten / Linke). Siehe Fußnote 14 in der Datei. In den anderen 59 erfassten Nationen gibt es einen einfacheren 2-Wege-Kulturgegensatz (d.h. religiöser Glaube sowie katastrophale Kultur des Klimawandels). Es gelten jedoch die gleichen Grundprinzipien, so dass der aus den 59 Nationen abgeleitete Rahmen einen gewissen Einblick in die Lage der USA ermöglicht. Ich werde dies vielleicht in einem späteren Beitrag näher ausführen. Außerhalb der USA stellt die Religiosität als Prädiktor der nationalen Einstellung zum Klimawandel alle netto-politischen Überlegungen in den Schatten. (Und nebenbei bemerkt ist innerhalb der Nationen in dieser Frage die Polarisierung aufgrund der politischen Zugehörigkeit viel geringer als in den USA; verschiedentlich in der Literatur wird die Situation in den USA als außergewöhnlich bezeichnet).

Link zum Excel Datafile: [Wind and Solar motivations Data]

Link: https://wattsupwiththat.com/2020/11/25/cultural-motivations-for-wind-and-solar-renewables-deployment/

Übersetzt von Chris Frey EIKE




Wassertempe­ratur der Ozeane: Aktuali­sierung

Die allgemeine Definition des Begriffs „Klima“ beschreibt eine insgesamte Änderung der Temperatur oder des Niederschlags über einen Zeitraum länger als 30 Jahre. 100 Jahre wären viel besser. In diesem Zeitmaßstab erlangen Wassertemperaturen immer größere Signifikanz.

Die Ozeane bedecken 71% der Erde und enthalten 99,93% der Wärmeenergie („Wärme“) an der Oberfläche. Hier definieren wir die Erdoberfläche als alles zwischen dem Meeresboden und dem oberen Ende der Atmosphäre, ~22 km. Diese Berechnung und die notwendigen Referenzen sind in dieser Tabellenkalkulation detailliert aufgeführt. Zur Veranschaulichung der gewaltigen Auswirkungen der Ozeane sollten wir berücksichtigen, dass die Ozeane der Erde mehr Wärmeenergie enthalten als auf der Oberfläche und in der Atmosphäre der Venus, wo die Temperatur 464°C beträgt. Tatsächlich enthalten die Ozeane der Erde viermal mehr thermische Energie als die Venusatmosphäre, und dennoch haben die Ozeane eine Durchschnittstemperatur von weniger als 5°C. Eine Tabelle mit dieser Berechnung und den notwendigen Referenzen kann hier heruntergeladen werden.

Wir haben immer noch keine genauen Informationen über den gesamten Ozean, aber wir haben viel mehr als im Jahr 2016. CSIRO zeigt hier einen schönen Datensatz von 2009 mit Temperaturdaten bis 5.500 Meter (Ridgeway, Dunn, & Wilken, 2002). Die Universität Hamburg hat hier mehrjährige Daten bis 6500 Meter, aber ich konnte ihre NetCDF-Dateien mit R nicht lesen. Ich habe beide R-NetCDF-Pakete (ncdf4 und RNetCDF) ausprobiert, und keines von beiden konnte ihre Dateien öffnen. Wenn jemand weiß, wie man diese Dateien lesen kann, lassen Sie es mich wissen. In der Zwischenzeit konnten die CSIRO NetCDF-Dateien problemlos geöffnet werden, und wir können mit ihren Daten arbeiten, auch wenn sie nur ein Jahr umfassen. Abbildung 1 ist die durchschnittliche globale CSIRO-Ozeantemperatur von der Oberfläche bis 5.500 Meter.

Abbildung 1: CSIRO 2009 globale Durchschnittstemperatur von der Oberfläche bis 5.500 Meter. Datenquelle: CSIRO.

Die Temperatur fällt auf ein Minimum von 1°C in ~4.250 Metern und beginnt dann zu steigen. Die Verteilung der Temperatur in 4.500 Metern Höhe ist in Abbildung 2 dargestellt.

Abbildung 2. CSIRO Meerestemperatur auf 4.500 Metern. Die weißen Flächen auf der Karte sind flacher als 4.500 Meter.

Bei diesen Temperaturen sind Anzeichen der thermohalinen Zirkulation zu erkennen. Es ist noch unklar, wie oft das Ozeanwasser vollständig umgewälzt wird. Unter Umwälzen verstehen wir die Zeit, die das Oberflächenwasser benötigt, um vollständig mit dem Tiefenwasser einen Kreislauf zu bilden und dann wieder an die Oberfläche zurückzukehren. Dieser Prozess dauert wahrscheinlich mindestens 1.000 Jahre. Es ist der wichtigste langfristige Wärmeaustauschprozess an der Erdoberfläche. Wenn die Erde also mehr Wärmeenergie von der Sonne oder CO2 – oder was auch immer die Erwärmung verursacht – erhält, dauert es tausend Jahre oder länger, bis sie durch die Ozeane zirkuliert. Abbildung 3 zeigt eine Karte, die die Wege zeigt, die das Wasser durch die Tiefsee nimmt.

Abbildung 3. Die Hauptwege, die das Tiefenwasser auf seinem Weg von der Oberfläche in die Tiefsee nimmt und dann tausend oder mehr Jahre später wieder auftaucht. Beachten Sie, dass sich die Antarktis in der Mitte der Karte befindet. Das liegt daran, dass sich alle Ozeane nur im Südlichen Ozean treffen, der die Antarktis umgibt. Quelle: Von Avsa – Wikimedia, CC BY-SA 3.0.

Wie wir in Abbildung 3 sehen können, sinkt Oberflächenwasser im Nordatlantik und im Südlichen Ozean in die Tiefe. Dann beginnt es, um die Welt zu reisen, durch alle Ozeane. Es steigt vor allem im Indischen Ozean, im Südlichen Ozean und im Pazifik wieder auf. Da sich das Tiefenwasser aus dem Atlantik heraus bewegt, aber hauptsächlich in den anderen Ozeanen aufsteigt, hat der Atlantik einen etwas niedrigeren Meeresspiegel als die anderen Ozeane. Siehe auch (Reid, 1961). Aufsteigendes Tiefenwasser ist weiter verbreitet als absinkendes Oberflächenwasser. Diese NASA-Website enthält eine gute Diskussion und Animation der thermohalinen Zirkulation.

Abbildung 2 zeigt einige gemischte Temperaturen im südlichen Atlantik, neben Südamerika und dem südlichen Afrika, was darauf hindeutet, dass dort ein gewisser Auftrieb stattfinden könnte. Der meiste Auftrieb scheint jedoch im Pazifik, im südlichen und im Indischen Ozean zu erfolgen.

Diskussion und Fehlerabschätzung

Leider reichen gute Daten zur Meerestemperatur nur bis ins Jahr 2004 zurück. Die uns vorliegenden Daten deuten darauf hin, dass sich die Ozeane mit einer Rate von 0,4°C pro Jahrhundert [in deutscher Übersetzung beim EIKE hier] erwärmen. Die Zykluszeit der Ozeane beträgt jedoch über 1.000 Jahre, und die Aufzechnung reicht nur etwa 15 Jahre zurück, so dass dies sehr spekulativ ist. Wenn sich die Ozeane jedoch wirklich nur um 0,4°C pro Jahrhundert erwärmen, scheint es sehr unwahrscheinlich, dass die Spekulationen über eine rasche und gefährliche Erwärmung der Atmosphäre Anlass zur Sorge geben.

Das Raster von Jamstec (Hosoda, Ohira, & Nakamura, 2008), das wir für den flacheren (< 2.000 m) Teil unserer Analyse verwendet haben, liefert uns eine Fehlerabschätzung. Es handelt sich um eine Schätzung des räumlichen Fehlers, der auch als Gitterfehler bezeichnet werden kann. Mit anderen Worten, haben wir genug Daten, um die Karte genau zu erstellen? Abbildung 4 ist eine Karte dieses Fehlers nach Jahr und Tiefe.

Abbildung 4. Jamstec-Gitterfehler in Grad C. Datenquelle: Jamstec.

Wie wir in Abbildung 4 sehen können, war der Fehler im Jahr 2001 recht hoch, bis eine Tiefe von etwa 1400 Metern erreicht wurde. Bis 2004 waren Tiefen unter 1.000 Meter in Ordnung. Wie Abbildung 1 zeigt, sind Tiefen unter 1.000 Meter sehr variabel, und es werden hohe Fehler erwartet. Diese flacheren Gewässer interagieren mit dem Oberflächenwetter, insbesondere in der so genannten „gemischten Schicht“. Die gemischte Schicht ist eine seichte Zone, in der Turbulenzen eine nahezu konstante Temperatur von der Ober- bis zur Unterseite der Schicht verursacht haben. Die Dicke der gemischten Schicht variiert je nach Jahreszeit und Gebiet, liegt aber im Durchschnitt bei etwa 60 Metern. Die Temperatur der gemischten Schicht spiegelt auf komplexe Weise die Oberflächentemperatur der letzten Wochen wider.

Unserer Ansicht nach ist der Versuch, das Ausmaß und die Geschwindigkeit der atmosphärischen Erwärmung nur aus Messungen der Meeresoberflächen- und der atmosphärischen Temperatur abzuleiten, töricht und zum Scheitern verurteilt. Der wahre „Kontrollknopf“ der langfristigen Temperaturveränderung sind die Ozeane. Sie regulieren die Oberflächentemperaturen durch ihre enorme Wärmekapazität. Allein die gemischte Schicht hat über 22 Mal die Wärmekapazität der gesamten Atmosphäre bis in eine Höhe von 22 km. Die Regulierung der atmosphärischen Temperaturen durch die Ozeane gibt uns auch viel Zeit, um festzustellen, ob die globale Erwärmung wirklich eine Bedrohung darstellt. Derzeit liegen uns nur etwa fünfzehn Jahre Daten über die Meerestemperaturen vor, aber in weiteren fünfzehn Jahren werden wir Daten über einen „klimatischen“ Zeitraum haben. Wenn der Erwärmungstrend der Ozeane im Jahr 2035 immer noch weniger als ein Grad pro Jahrhundert beträgt, haben wir sehr wenig Grund zur Sorge.

Ich habe R für die Berechnungen in den Abbildungen verwendet, aber Excel, um die Grafiken zu erstellen. Wenn Sie die Details meiner Berechnungen überprüfen möchten, können Sie meinen CSIRO R-Quellcode hier herunterladen.

Link: https://wattsupwiththat.com/2020/11/28/ocean-temperature-update/

Übersetzt von Chris Frey EIKE




Bewertung der diesjährigen Wetterbe­dingungen in den Tropen der Nord­hemisphäre

Ich sage das jetzt, weil es in meinem Buch „The Weaponization of Weaponization of Weather in the Phony Climate War“ (Die Mobilisierung von Wetter als Waffe im Pseudo-Klimakrieg) einige Kapitel über die Covid-Klimaverknüpfungsstrategie gibt, von der ich wusste, dass sie zum Einsatz kommen würde, als wir das Ende der Covid-Situation erreichten. Aber der Punkt ist, dass diese Leute uns global über das Unheil und die Düsternis nachdenken machen wollen, die der Klimawandel ihrer Meinung nach darstellt.

1) Ja, wir hatten die meisten benannten Stürme im Atlantik. Ich war bei den Namen insgesamt unterdurchschnittlich. Ich hatte. 20 vor der Saison. Aber wir werden weiter unten herausfinden, was in einem Namen steckt, und in diesem Fall gibt es eine Geschichte hinter dem, womit Sie bombardiert werden, die Ihnen nicht erzählt wird. Wo haben wir das bloß schon mal gesehen?

2) Ja, es war das Jahr mit den größten Auswirkungen an der US-Küste (keine Überraschung, da wir ab April eine große Sache daraus gemacht haben).

Sehen Sie sich diese Auswirkungsprognose vom 7. April an. WO SIE GEHEN WÜRDEN, NICHT NUR ZAHLEN*. Niemand sonst hat dies getan, ich bin seit 2014 für Kunden da und wir zeigen es.

[*Dem Übersetzer ist nicht ganz klar, was Bastardi hiermit meint. Vermutung: Er will ausdrücken, dass er nicht nur Zahlen verbreitet, sondern auch gebietsmäßig festlegt, wo es am stärksten wird. Bastardi ist Wettervorhersage-Dienstleister und hat viele Kunden. Anm. d. Übers.]

Nun schauen Sie sich an, was passiert ist. Die Zahlen sind die Phasen der MJO, in denen diese einschlugen, um zu zeigen, dass wir durch die korrekte Vorhersage, dass wir in bestimmten Phasen für die Saison sein würden, die größten Auswirkungen auf die Saison hätten*.

[*Gleiches gilt für diesen Absatz. Vermutung: Die Zahlen geben die Anzahl der Ereignisse an, woraus Bastardi schließt, dass seine korrekte Vorhersage geholfen hat]

3) Der ACE-Index bei. 180 innerhalb unserer ACE-Reihe ab März! Der 10. höchste jemals verzeichnete Wert

Was ist der ACE-Index? Nun, während ich die von mir entwickelte Leistungs- und Wirkungsskala für viel anschaulicher halte, ist der ACE ein weitaus besseres Maß für die Wetterereignisse in den Tropen als die Anzahl der Stürme.

Hier ist eine nette Lektüre dazu.

4)Here is where it gets interesting: and what is being hidden from the public as the weaponization of this for climate change would be neutralized with these facts: The ACE/Storm. Was 6. ranking LAST, DEAD LAST, way back in Last, as far as ACE/Storm in an active season. In fact how bad was it? The AVERAGE ACE/STORM in the other 21 hyper active seasons was 12.! The closest to this year was another mega name year 2005, but that was a respectable 9. That 6 per/storm is in the bottom 25% for any year!

4) Hier wird es interessant: Was der Öffentlichkeit vorenthalten wird ist, dass die Mobilisierung der Stürme als Waffe bzgl. Klimawandel durch diese Fakten neutralisiert wird: Das Verhältnis von ACE pro Sturm* lag an 6. Stelle. Wie schlimm war das nun eigentlich? Das durchschnittliche Verhältnis ACE pro Sturm in den anderen 21 sehr aktiven Jahren lag bei 12! Das Jahr mit der zweithöchsten Zahl von Namen nach diesem Jahr war 2005 mit einem beachtlichen Wert von 9! Diese Zahl 6pro Sturm gehört zu den niedrigsten 25% für jedes Jahr*.

[*Weil dieser Abschnitt sehr frei übersetzt ist, bleibt er oben im Original stehen. Bastardi liebt es offenbar, seine Beiträge recht kryptisch abzufassen. – ACE = Accumulated Cyclone Energy. Unter dem Link oben findet man es ausführlich und m. E. auch nicht tendenziös. Anm. d. Übers.]

Die offensichtliche Schlussfolgerung für jeden objektiven Beobachter lautet: Einige dieser Stürme hätten gar nicht mit Namen versehen werden dürfen oder wären in den vergangenen Jahren nicht benannt worden. Das bedeutet mehr, aber schwächere Stürme. Es ist absolut erstaunlich, dass der ACE/pro Sturm heuer nur halb so groß ist wie der Durchschnitts aller anderen Fälle.

Nebenbei bemerkt: Wir haben gerade ein Jahrzehnt abgeschlossen, in dem wir hinsichtlich der stärksten Ereignisse auf der Saffir-Simpson-Skala seit über 100 Jahren am NIEDRIGSTEN lagen!

Aber es wird noch schlimmer, bis hin zum Hype, sozusagen. Das völlige Ignorieren der mangelnden Aktivität im Pazifikbecken. Ich höre immer wieder global dies und global das, was natürlich nur dann zutrifft, wenn man die Tatsache ignoriert, dass das Gebiet Nummer eins für den ACE so weit unter der Norm lag.

Aber bzgl. der „Waffe“ Stürme wird es noch schlimmer: Ignoriert wird die fehlende Aktivität im Pazifischen Becken. Man hört alles Mögliche über die globale Sturmaktivität, doch gilt das nur, wenn man die Tatsache ignoriert, dass das Gebiet Nummer eins bzgl. des ACE so erheblich unter normal lag: Westpazifik 52%, Ostpazifik 56%.

Zusammen bei beiden liegt der Wert normalerweise bei 426, dieses Jahr wurden 226 verzeichnet. Ergo: Das Becken mit einem vier mal so hohen Durchschnitt wie der Atlantik wurde nur 53% des Normalwertes erreicht. Für die Nordhemisphäre insgesamt war es 80%. Folglich lag der ACE trotz der starken Saison im Atlantik GLOBAL UNTER dem Mittelwert.

Es steht also außer Frage, dass die Auswirkungen der westlichen Hemisphäre eine riesige Blase heißer Luft ist, über den man sprechen sollte. Aber wenn Sie die Perspektive und das Gesamtbild wollen, gibt es viel, was der Idee widerspricht, dass dies ein Beispiel für eine Art atmosphärische Apokalypse ist. Die Natur findet einen Weg, die Dinge auszugleichen, egal wie viel Geld wir aus unserer wirtschaftlichen Lebensader abziehen wollen, um sie zu verändern.

Natürlich scheint die Medaille, die heute umgedreht wird, wenn es darum geht, Ideen voranzutreiben, immer in eine Richtung zu gehen, nämlich Hysterie zu schüren. Kommt Ihnen das bekannt vor?

Autor: Joe Bastardi is a pioneer in extreme weather and long-range forecasting. He is the author of “The Climate Chronicles: Inconvenient Revelations You Won’t Hear From Al Gore — and Others” which you can purchase at the CFACT bookstore. His new book The Weaponization of Weather in the Phony Climate war can be found here: www.phonyclimatewar.com

Link: https://www.cfact.org/2020/11/27/summing-up-the-northern-hemisphere-tropical-season/

Übersetzt von Chris Frey EIKE




Winter 2020/21 – darf es diesmal etwas kälter sein?

1. Die Bauernregeln

2020 verlief der September relativ warm. In solchen Fällen könnte die Regel „Ist der September gelind, bleibt der Winter ein Kind.“ zutreffen. Allerdings zählte dieser September nicht zu den 15 wärmsten in Deutschland; daher ist Vorsicht geboten; zumal sein Luftdruck wegen einer intensiven Tiefdruckphase in der letzten Dekade nur leicht überdurchschnittlich war.

Ist Martini trüb und feucht, wird gewiss der Winter leicht.“ Um den 10.11.2020 herrschte im Tiefland meist mildes, trübes, trockenes Wetter; am Nordrand der Berge, auf diesen und im Westen war es aber teils sonnig. Wegen der Kalenderreform von 1583 (10 Tage Verschiebung aller Lostage) ist auch die Witterung um den 20.11. beachtenswert, welche trüb-feucht war. „Elisabeth (19.11., diesmal wolkig, Regenschauer, fast normale Temperaturen) sagt an, was der Winter für ein Mann“. „Wie’s Wetter an Kathrein (25.11., diesmal nach Nachtfrost fast normal temperiert, trocken, stellenweise sonnig), so wird es auch im Januar sein.“ Solche Regeln haben nur einen sehr groben Wahrheitswert. Insgesamt trafen auf das Unglücksjahr 2020 auffallend wenige Bauernregeln zu; diese wenigen deuten nur vage auf einen milden bis normalen Winter hin.

[Ausführlich auf das Thema Bauernregeln geht dieser Beitrag ein.]

2. La Nina oder El Nono – was bedeutet das?

Bislang herrschen im Herbst 2020 im tropischen Südost- Pazifik einschließlich der Südamerikanischen Küste deutlich zu niedrige Meeresoberflächentemperaturen; deutliche Merkmale für „La Nina“. Die Aussichten Richtung Winter sind aber noch unklar. Direkte Auswirkungen auf die Winterwitterung in Deutschland lassen sich aus El Nino- oder La Nina-Ereignissen ohnehin kaum ableiten; deshalb sind auch alle im Netz kursierenden Meldungen, es werde „wegen La Nina einen sehr kalten Winter in Deutschland geben“, unseriös!

3. Nachlassende Sonnenaktivität – Menetekel der Abkühlung

Direkte Sonnen- und Infrarotstrahlung schwanken nur wenig, umso mehr aber das solare Magnetfeld, die Teilchenstrahlung („Solarwind“, verantwortlich u.a. für Polarlichter), die Radiostrahlung und die von der oberen Erdatmosphäre weitgehend absorbierte kurzwellige Strahlung (Röntgen, kurzwelliges UV). Sie beeinflussen Wetter und Klima wesentlich; allerdings besteht noch Forschungsbedarf. Die Sonnenfleckenanzahl bildet die Sonnenaktivität grob ab; je mehr Sonnenflecken, desto höher die Sonnenaktivität. Die Sonnenaktivität wirkt auf verschiedenen Zeitskalen; hierzu wird intensiv geforscht. Im Jahr 2019 war die Fleckenzahl sehr gering; oftmals blieb die Sonne völlig fleckenlos, was Kältewellen in den kommenden Monaten begünstigen könnte, aber nicht zwangsläufig muss.

Dem noch intensiven 23. folgte der schwache 24. SCHWABE- Zyklus; und aktuell beginnt der ebenfalls sehr schwache 25. SCHWABE-Zyklus; im November 2020 zeigten sich aber erstmals wieder recht zahlreiche Sonnenflecken.

Das Minimum zwischen den Zyklen 24 und 25 trat also zwischen Herbst 2019 und Frühherbst 2020 ein und zog sich damit sehr lange hin. Das solare Verhalten ähnelt damit dem des DALTON-Minimums im frühen 19. Jahrhundert; einer Kaltphase, die aber auch durch eine ungewöhnlich hohe vulkanische Tätigkeit begünstigt wurde (u.a. Tambora-Ausbruch). Der Winter 2020/21 ist der siebente nach dem Maximum des SCHWABE-Zyklus. Die 12 Vergleichswinter seit 1881/82 liegen mit etwa +0,1°C etwas unter dem Wintermittel des gesamten Zeitraumes 1881/82 bis 2019/20, das etwa 0,3°C beträgt. Von diesen 12 Vergleichswintern waren die von 1889/90, 1899/1900, 1923/24, 1953/54, 1985/86 und 1995/96 deutlich, aber nicht herausragend, zu kalt, zwei Winter waren etwa normal, vier zu mild, darunter 1974/75 und 2007/08 extrem mild. Betrachtet man alle Winter nach ihrem Rang im SCHWABE-Zyklus, so verliefen der sechste und der neunte nach dem Zyklus-Maximum im DWD-Deutschlandmittel am mildesten; freilich ist der „Vorhersagewert“ wegen des geringen Stichprobenumfangs mit Vorsicht zu genießen:

Sehr kalte Winter treten bevorzugt zum Minimum des Schwabe-Zyklus oder 1 bis 2 Jahre nach diesem auf; letztmalig 2009/10, davor 1995/96 und 1996/97 sowie 1986/87. Dreizehn der zwanzig kältesten Winter nach 1945 in Deutschland traten in der Nähe des Sonnenminimums auf, nur sieben in der Nähe des Maximums. Hier zeigt sich schon eine gewisse Verzögerung, mit der die Wintertemperaturen der solaren Aktivität folgen.

In den kommenden Jahrzehnten sinkt die Sonnenaktivität aber vermutlich weiter (neues Dalton- oder Maunder-Minimum), was weltweit abkühlend wirkt und in Mitteleuropa Meridionale Lagen (im Winter oft kalt) begünstigt. Das träge Klimasystem reagiert nur mit Verzögerungen von etwa 10 bis 30 Jahren auf die schon nach 1990 beginnende tendenzielle Abschwächung der Sonnenaktivität, so dass sich negative Auswirkungen erst ab den 2020er Jahren deutlicher zeigen werden. Vermutlich gab es deswegen bereits in den letzten 23 Jahren zwar noch eine Erwärmung in Deutschland; in Zentralengland kühlte es sich dagegen trotz der stark steigenden CO2-Konzentrationen schon leicht ab:

Insgesamt lässt die geringe Sonnenaktivität 2020 eher einen normalen bis zu kalten Winter erwarten.

4. Die Zirkulationsverhältnisse: Mehr Winter als in den Vorjahren?

Westliche Luftströmungen (Zonale Großwetterlagen) bringen milde Atlantikluft nach Deutschland, nördliche und vor allem östliche Kaltluft. Bei Süd- und Zentralhochlagen muss ein starker Wind die bodennah aus Ost einsickernde oder vor Ort immer wieder neu entstehende Kaltluftschicht vertreiben, ansonsten können auch sie im Tiefland bitterkalt sein, während es auf den Berggipfeln sehr mild ist. Der Zusammenhang zwischen der Häufigkeit der Luftströmungen mit Westanteil (Großwettertypen W, SW und NW) sowie den Wintertemperaturen in Deutschland ist sehr eng (folgende Grafik):

Für längerfristige Vorhersagen muss man die Zirkulationsverhältnisse vorhersehen können, was kaum möglich ist. Im Herbst 2020 war die Zonalzirkulation zwischen etwa dem 10.September und dem 20. Oktober fast völlig zusammengebrochen, nach kurzer Beschleunigung ab dem 3. November dann ebenfalls meist schwach entwickelt, was ein versteckter Hinweis auf einen Kaltwinter ist. Ob die seit der Jahrtausendwende zu beobachtende leichte Abnahme der Westlagenhäufigkeit in diesem Jahr eine Rolle spielt, ist mehr als fraglich. Die seit 2018 gehäuften Zirkulationsstörungen, welche auch 2020 die Westdrift zeitweise schwächten oder gar blockierten, machen gewisse Hoffnungen auf zeitweise winterliches Wetter. Wegen der aktuell herrschenden Westwind-Phase der QBO (Erklärung siehe Punkt 7) muss eine spätere Zonalisierung mit milden Westlagen leider jedoch in Betracht gezogen werden.

5. Die mittelfristigen Modelle: Kühlerer Dezember als in den Vorjahren?

Die verbesserte Kurzfrist-Vorhersagegüte (etwa 1 bis 4 Tage im Voraus) resultierte aus der Entwicklung und Verfeinerung numerischer Modelle, basierend auf Gleichungen der Thermodynamik, in Verbindung mit immer schnelleren Computern sowie mehr und besseren Mess- oder Beobachtungsdaten per Satelliten und Automaten. Für längerfristige Vorhersagen dienen sogenannte Ensemble-Modelle, bei denen man die Ergebnisse mehrerer Modell-Läufe (gerechnet mit leicht variierten Anfangsparametern) mittelt. Sie liefern keine detaillierten Vorhersagen, doch gute Abschätzungen der Luftdruckverhältnisse für etwa eine Woche im Voraus und vage für bis zu 15 Tagen. Die Ensemble-Vorhersagekarte des NOAA (USA- Wetterdienst) vom 25.11. für den 10.12.2020 zeigt tiefen Luftdruck von Island zum Eismeer, hohen Luftdruck über Iberien und westlich davon. Interessant ist der tiefe Luftdruck im östlichen Mittelmeer; er könnte die Westdrift schwächen (Quelle: NOAA). Sollte das so eintreten (noch sehr unsicher), so würde über Mitteleuropa eine mäßige, eher milde Westströmung herrschen, nach tiefem Winter sieht das zwar nicht aus, aber zumindest zeitweise könnte subpolare Meeresluft für Flockenwirbel im Bergland und vielleicht gar für nassen Schnee und häufigere Nachtfröste im Tiefland sorgen:

Allerdings zeigten die einzelnen Modell-Läufe des GFS, es gibt deren je 30 für jeden Startzeitpunkt, seit etwa dem 20.11. vermehrt Fälle, in denen zumindest zeitweise entweder hoher Luftdruck über dem nördlichen Mitteleuropa und Skandinavien herrschen soll, oder es zu einer mehr oder weniger deutlichen Troglage über Mitteleuropa und dem Mittelmeer kommt; Beides eröffnet Chancen für zumindest teilweise winterliche Verhältnisse; hier zwei Beispiele (Quelle):

Die obere Karte ähnelt einer Troglage über Mitteleuropa; Schnee wäre möglich, besonders im Bergland. Die untere Karte zeigt ein Hoch über Nordwest-Russland mit Keil nach Skandinavien, was Kälte und vielleicht auch etwas Schnee bedeutet. Leider zeigen aber auch noch einige Modell-Läufe in diesem stets extrem unsicheren „Glaskugel-Bereich“ mildes Westwetter; immerhin verlief aber der Monatswechsel Nov./Dez. recht kalt; so dass man sich größere Hoffnungen auf einen mehr oder weniger winterlichen Dezember, vielleicht gar mit der ein oder anderen „Weißen Überraschung“ bis ins Flachland, machen kann.

6. Die aktuelle Tendenz der Wintertemperaturen in Deutschland

Trends erlauben nie Rückschlüsse auf den Einzelfall und keine Extrapolation in die Zukunft. Die Wintertemperaturen entwickelten sich in den letzten gut 30 Jahren folgendermaßen:

Trotz der sehr milden Winter 2013/14, 2015/16, 2018/19 und 2019/20 sowie kontinuierlich steigender CO2-Konzentration (obere, grüne Linie) stieg das Wintermittel seit 33 Jahren als einziges Jahreszeitenmittel kaum noch, weil die schon erwähnte nachlassende Sonnenaktivität und schwächere Zonalzirkulation bereits Wirkung zeigen. Und die DWD-Daten sind nicht wärmeinselbereinigt. Einen deutlicher fallenden Trend zeigt die wärmeinselarme Station Amtsberg/Erzgebirge:

Aber die „richtige“ Kälte dürfte indes wegen der Trägheit des Klimasystems erst in wenigen Jahren bis Jahrzehnten zuschlagen („Kleine Eiszeit“). Die seit einigen Jahren wieder leicht steigende Zahl von Nebeltagen weist gleichfalls auf eine sehr langsam beginnende Abkühlung hin.

7. Die Nordatlantische Oszillation (NAO), die AMO, die QBO und der Polarwirbel – verderben uns QBO-Westwindphase und Polarwirbel mal wieder den Winter?

Der NAO-Index ist ein Maß für die Intensität der Westströmung über dem Ostatlantik im Vergleich zum Langjährigen Mittel. Positive NAO-Werte bedeuten häufigere und intensivere, im Winter eher milde Westwetterlagen. Bei negativen NAO-Werten schwächt sich die Intensität der Zonalströmung ab, bei stark negativen Werten kann sie gar in eine Ostströmung umschlagen oder meridional verlaufen. Im Juli und bis Mitte Oktober überwogen negative, danach und im August/September positive NAO-Werte bei merklichen Schwankungen (Quelle):

Mitunter verändert sich die NAO sprunghaft (schwere Vorhersagbarkeit). Die AMO (ein Maß für die Wassertemperaturschwankungen im zentralen Nordatlantik) beendet vermutlich bald ihre Warmphase. Ein kompletter AMO-Zyklus dauerte seit Beginn regelmäßiger Messungen meist etwa 50 bis 80 Jahre, somit ist in naher Zukunft ein Wechsel in die Kaltphase möglich. Mehr zum Zusammenhang von AMO, NAO und den Temperaturverhältnissen in Deutschland unter anderem hier.

AMO-Warmphasen erhöhen die Wahrscheinlichkeit für einen kalten Winter nur leicht, weil diese Konstellation kalte, nordöstliche Strömungen („Wintermonsun“) begünstigen könnte. Und die sogenannte QBO (Windverhältnisse in der unteren Stratosphäre der Tropen, die etwa alle 2,2 Jahre zwischen West und Ost pendeln), wechselte im Herbst fast in allen Schichten zur Westwind-Phase, was eher für eine Begünstigung der milden Westlagen spricht. In diesem Zusammenhang lohnt noch ein Blick auf die mögliche Entwicklung des Polarwirbels. Ein ungestörter, sehr kalter Polarwirbel im 10-hPa-Niveau (gut 25 Km Höhe, Stratosphäre) ist kreisrund und in der Arktis extrem kalt, was Westwetterlagen begünstigt, welche in Deutschland mild sind. Für den 11. Dezember wird ein Polarwirbel vorhergesagt, der relativ gut entwickelt und nur leicht gestört ist; in seinem Zentrum östlich von Grönland sollen so um die minus 84°C herrschen – leider ein wichtiges Vorzeichen für eher milde Dezember-Witterung in Mitteleuropa (Quelle: Französischer Wetterdienst):

NAO, QBO, AMO und das Verhalten des Polarwirbels deuten also auf einen eher milden bis sehr milden Winter hin.

8. Verursacht das angeblich verschwindende Arktische Meereis kältere Winter? Für die relativ kalten Winter 2009/10 und 2012/13 wurde das schwindende arktische Meereis, speziell im September, verantwortlich gemacht. Mit etwa 3,9 Millionen Km² gab es im Septembermittel 2020 nur eine etwas größere Eisfläche, als zum bisherigen Negativ-Rekordmittel von 3,57 Millionen Km² (Sept. 2012) (Daten: NSIDC, National Snow and Ice Data Center der USA). Bei AMO-Warmphasen wird mehr Wärme in die europäische Arktis eingetragen. Die minimale Eisausdehnung und die geringere Westlagenhäufigkeit der 2000er Jahre „passen“ gut zum AMO-Maximum. Genaueres Zahlenmaterial zur Eisausdehnung liegt leider erst seit 1979 vor (Einführung der flächendeckenden, satellitengestützten Überwachung). Zumindest in diesem relativ kurzen Zeitraum von gut 40 Jahren bestand ein signifikanter Zusammenhang zwischen der AMO und der Fläche des winterlichen Arktis-Meereises:

Ähnlich wie in den 1930er Jahren, als während der damaligen AMO-Warmphase ebenfalls ein Meereisrückgang sowie vor allem ein starkes Abschmelzen der Grönland-Gletscher herrschte. Näheres dazu hier. Die These „weniger Arktiseis – mehr Winterkälte in Deutschland“ ist unhaltbar; tatsächlich gibt es nur einen geringen, nicht signifikanten Zusammenhang:

Auch bei Betrachtung anderer Bezugszeiträume besteht keine signifikante Korrelation. Die aktuelle Meereisbedeckung im Vergleich zu den Vorjahren auf der Nordhalbkugel kann man hier abrufen. Laut einer Fehlprognose von Al Gore sollte der Nordpol schon im Spätsommer 2013 eisfrei sein. Näheres hier. Im Herbst 2020 setzte das Eiswachstum relativ spät und erst verhalten, ab Mitte Oktober dann beschleunigt ein, zeitweise gab es weniger Eisflächen, als im Herbst 2012; die starke Eiszunahme im Spätherbst könnte den Temperaturgegensatz zwischen niederen und hohen Breiten aber verstärken und milde Westlagen im Frühwinter begünstigen. Insgesamt hat das komplizierte, wenig erforschte Zusammenspiel zwischen Meeresströmungen, AMO, Meereis und Großwetterlagen wahrscheinlich großen Einfluss auf die Witterungsverhältnisse. Die Ausdehnung der Schneebedeckung im Spätherbst (Okt/Nov) in Eurasien hat ebenfalls keine eindeutigen Auswirkungen auf die deutsche Winterwitterung. So bedeckte der Schnee in den Spätherbsten 1968, 70, 72, 76, 93, 2002, 09, 14,15 und 16 auf der größten zusammenhängenden Landmasse der Erde eine deutlich überdurchschnittliche Fläche, doch nur die 3 Winter 1968/69, 2002/03 und 2009/10 waren danach zu kalt, während die anderen 7 zu mild ausfielen; letztmalig der von 2016/17, trotz des kalten Januars. Eine große Überraschung bot dieser Analyseteil trotzdem. Im Herbst und Winter wächst nämlich die mit Schnee bedeckte Fläche Eurasiens; nur im Frühling und Sommer nimmt sie ab. Sollte es Dank des „Klimawandels“ nicht immer weniger Schneeflächen in allen Jahreszeiten geben?? Und die wahre Ursache für die Abnahme im Frühjahr/Sommer ist nicht das CO2, sondern vermutlich mehr Sonnenschein (siehe folgende Abbildung):

9. Analogfälle (ähnliche Witterung wie 2019)

Bei dieser Methode werden die dem Winter vorangehenden Monate hinsichtlich ihres Witterungsverlaufs untersucht. Betrachtet man alle mehr oder weniger zu kalten Winter der vergangenen 4 Jahrzehnte inklusive solcher, die bei milder Gesamtwitterung mindestens eine mehrwöchige Kälteperiode aufwiesen, so gingen diesen Wintern bis auf die Ausnahme von 2011 Herbste voraus, die schon mindestens einen auffälligen Kälteeinbruch hatten. Dabei war nur selten der Herbst insgesamt zu kalt, aber er wies dann mindestens einen zu kalten Monat oder wenigstens eine markante Kaltphase auf (November 1978, 1980, 1981, 1984, 1985, September 1986, September 1990, November 1993, November 1995, September 1996, September/Oktober 2002, November 2005, September 2008, Oktober 2009, November 2010, Oktober 2012, 2015, Oktober/November 2016, September 2017). Schneite es bereits im Oktober stellenweise bis ins Flachland (2002, 2009, 2012 und 2015), so war in den ersten 3 Fällen der gesamte Winter zu kalt; 2015/16 kam es nur im Januar besonders in Nordostdeutschland zu längeren, winterlichen Phasen. Vor den meisten fast durchgängig milden Wintern (1973/74,1974/75,1987/88,1988/89,1989/90, 2006/07, 2007/08, 2013/14, 2014/15) waren die Herbste entweder rau, gemäßigt oder extrem mild; markante Kälteeinbrüche fehlten jedoch oder waren, so wie auch 2020, nur undeutlich und kurz (November 1988 und 1989). Das Witterungsverhalten im September/Oktober 2020 (Sept. zu trocken und zu warm, Oktober zu mild und zu nass) deutet eher auf einen mehr oder weniger milden Winter hin.

Zu warmen Sommern folgen meist zu milde Winter (positiver Zusammenhang). Für seriöse Vorhersagen ist diese Beziehung allein freilich viel zu schwach. Zwischen den Herbst- und Wintertemperaturen findet sich sogar ein etwas deutlicherer positiver Zusammenhang; der insgesamt recht milde Herbst 2020 deutet also eher auf einen milden Winter hin. Bei Betrachtung des Deutschland-Temperaturmittels aus den meteorologischen Jahreszeiten Sommer und Herbst zusammen ergibt sich ein bemerkenswerter Zusammenhang; besonders, wenn man nur diejenigen Zeiträume betrachtet, in denen das zu hohe Temperaturmittel von Juni bis November die einfache Standardabweichung von1881 bis 2019 erreicht oder überschreitet:

Von den 19 Fällen mit deutlich zu hohem Sommer- und Herbstmittel folgten also nur zwei zu kalte Winter; die übrigen 16 waren allesamt mehr oder weniger deutlich zu mild. Betrachtet man von diesen 19 Fällen nur die 8, bei denen auch der Sommer und der Herbst für sich ihre einfache Temperatur-Standardabweichung erreichten oder überschritten (pink markiert), so waren sogar alle ihnen folgenden Winter zu mild, darunter die extrem milden 2006/07 und 2019/20. Aber der Spätsommer 2020 (August und September) liefert dazu widersprüchliche Hinweise. Er stellte nach der Objektiven Wetterlagen-Klassifikation des DWD (seit 1979 verfügbar) mit 31 Tagen einen neuen Häufigkeitsrekord der Unbestimmten Wetterlagen (solche ohne eindeutige Anströmrichtung, als XX-Lagen bezeichnet) auf. Ähnlichen Spätsommern folgten in der Vergangenheit tendenziell kalte Frühwinter; zum Februar besteht keinerlei Zusammenhang:

Vage in die andere Richtung weist die Sonnenscheindauer des vorangehenden Frühlings und Sommers. War sie, wie auch 2020, zu hoch, so folgt tendenziell eher ein milder Winter. Lohnender ist ein Blick auf die mittlere Höhenlage der 500-hPa-Fläche über Deutschland. Lag diese im Jahresmittel, so wie auch 2020 zu erwarten, höher als im Langjährigen Mittel, so deutet das mit erhöhter Wahrscheinlichkeit auf einen Mildwinter hin, besonders dann, wenn diese zu hohe Lage zwischen Januar und September auftrat, was, mit Ausnahme des Junis, auch 2020 zutraf. In den Fällen, bei denen das Höhenlage-Mittel von Januar bis September die einfache Standardabweichung des Zeitraumes von 1948 bis 2019 überschritt, das war erstmals 1989 und insgesamt zwölfmal zu verzeichnen, waren 11 der Folgewinter, vor allem der Januar, mehr oder weniger deutlich zu mild, nur der von 2002/03 zu kalt. Und 2020 war das Geopotential dieses Zeitraumes mit etwa 5653 gpdm so hoch, wie noch nie. Auch die deutlich zu geringe Anzahl der Wetterlagen mit nördlichem Strömungsanteil (dafür zu viele südliche) zwischen Juli und September 2020 ist ein gewisser Hinweis auf einen eher milden Winter. Insgesamt deutet sich nach den Analogfällen bei extremer Widersprüchlichkeit der Signale also eine erhöhte Wahrscheinlichkeit für einen bestenfalls normalen, wahrscheinlicher viel zu milden Winter an, aber vielleicht trotzdem mit einer längeren Kaltphase oder einem einzelnen, kalten Monat.

10. Die Hurrikan-Aktivität (Nordatlantik) und Zyklonen-Aktivität (nördlicher Indik)

Mit gewissen Abstrichen (mangelnde Beobachtungsmöglichkeiten vor Einführung der Satellitentechnik) ist die jährliche Anzahl der Tropischen Wirbelstürme im Nordatlantik (Hurrikane) und der Zyklone (nördlicher Indischer Ozean) etwa bis zur Mitte des 19. Jahrhunderts bekannt. Die verheerenden, meist wenige Tage bis selten länger als zwei Wochen existierenden Hurrikane gelangen nie nach Mitteleuropa. Aber sie beeinflussen unsere Witterung. Sie schwächen bei bestimmten Zugbahnen das Azorenhoch oder kommen bei Einbeziehung in die Westdrift als normale Tiefs nach Europa, wo sie im Spätsommer/Herbst mitunter einen markanten Witterungsumschwung einleiten. Auch die Anzahl der im nördlichen Indischen Ozean jährlich vorkommenden Wirbelstürme (Zyklone) könnte einen gewissen Einfluss auf unsere Winterwitterung haben; es gibt von 1890 bis 2018 eine leicht negative Korrelation (tendenziell kältere Winter, wenn dort viele Zyklone auftraten). Im Mittel von 1851 bis 2017 sind gut 5 Hurrikane pro Jahr (die Saison beginnt meist erst zwischen Mai und Juli, doch 2016 gab es schon im Januar einen Hurrikan, und endet spätestens Anfang Dezember) aufgetreten. Erreichte ihre Zahl mindestens 10 (1870, 1878, 1886, 1887, 1893, 1916, 1933, 1950, 1969, 1995, 1998, 2005, 2012 und 2017), so waren von den 14 Folgewintern 11 zu kalt, und nur 3 (1998/99, 1950/51 und 2017/18, da aber kalter Februar!) zu mild. Bei fast all diesen Fällen brachte allerdings schon der Spätherbst markante Kältewellen; selbst vor zwei der milden Wintern waren diese zu beobachten; besonders markant 1998, und 2017 war der September zu kalt. Bei deutlich übernormaler Hurrikan-Anzahl besteht eine erhöhte Neigung zur Bildung winterlicher Hochdruckgebiete zwischen Grönland und Skandinavien. In diesem Jahr gab es bislang schon 13 Hurrikane und damit erheblich zu viele, bloß vor dem Kaltwinter 2005/06 gab es mit 15 Hurrikanen noch mehr, was für einen kalten Winter spricht. Von den bisher 15 Fällen mit mindestens 10 Hurrikanen pro Saison waren 10 Folge-Winter mehr oder weniger kalt, darunter die von 1916/17, 1969/70, 1995/96 und 2010/11; zwei normal und drei zu mild, letztmalig 2017/18. Aber diese fünf normalen bis wärmeren Winter wiesen stets wenigstens kältere Abschnitte oder gar einen zu kalten Monat auf; letztmalig den Februar 2018. Im Indischen Ozean war die Zyklon-Aktivität 2020 aber deutlich unterdurchschnittlich, was aber nur vage auf einen Mildwinter hindeutet. Die Wirbelsturm-Aktivität gibt diesmal also eher Hinweise auf einen Kaltwinter in Deutschland.

11. Die Langfrist- Vorhersagen einiger Institute, Wetterdienste und Privatpersonen:

UKMO-Metoffice (Großbritannien): Stand 11.11.2020 Winter (D, J, F) mit deutlich erhöhter Wahrscheinlichkeit in ganz Deutschland zu mild (folgende Karte):

Anmerkung: Hier wird nur die Metoffice- Karte mit der Wahrscheinlichkeit des Abweichens vom Median gezeigt. Es gibt zwei weitere. Diese Median-bezogene Wahrscheinlichkeitsaussage zeigt, wie die anderen Karten auch, eine sehr stark erhöhte Wahrscheinlichkeit für über dem Median liegende Wintertemperaturen besonders in Mittel- und Nordosteuropa sowie über dem Eismeer und Teilen des Mittelmeeres:

Die aktuellen Karten jederzeit hier

Meteo Schweiz Stand Nov. 2020: Je leicht erhöhte Wahrscheinlichkeit für einen normalen und einen zu milden Winter. Zusammen ergibt das eine Wahrscheinlichkeit von gut 80% für „normal“ bis „zu mild.“ Zu kalter Winter zu kaum 20% wahrscheinlich; normaler zu etwa 40%, milder etwas mehr. Die „doppelten T“ sind die Fehlerbalken; die Prognose gilt nur für die Nordostschweiz, ist aber auch für Süddeutschland repräsentativ:

ZAMG (Wetterdienst Österreichs) Stand Nov. 2020: Dezember mit je ganz leicht erhöhter Wahrscheinlichkeit normal oder mild; immerhin noch gut 25% Wahrscheinlichkeit für einen kalten Dezember. Im Januar 2021 erhöht sich die Wahrscheinlichkeit für „normal“ oder „zu mild“ etwas; für Februar lag noch keine Aussage vor (Prognose hier)

LARS THIEME (langfristwetter.com) Vorhersage von Anfang November 2020: Dezember und Januar normal, Februar sehr mild. Winter daher insgesamt eher zu mild. Die Prognose bezieht sich vorrangig auf Mittel- und Nordostdeutschland; leider diesmal ohne „von-bis-Temperaturintervalle“ für die einzelnen Monate:

IRI (folgende Abbildung), Vorhersage vom Nov. 2020: Kaum Aussagen für Deutschland; lediglich in Südost-Sachsen und Süd-Bayern leicht erhöhte Wahrscheinlichkeit für einen zu kalten Winter; zu mild in weiten Teilen Nord- und Osteuropas:

DWD (Offenbach): In Deutschland 0,5 bis 2°C zu mild, je nach Ensemble-Auswahl, bezogen auf den DWD-Mittelwert der Jahre 2004 bis 2019, der ca. 1,4°C beträgt (Stand 11. Nov. 2020):

NASA (US-Weltraumbehörde) Karten vom November 2020: Dezember in Nordwestdeutschland normal, sonst etwa um 0,5°C zu mild, Januar normal, Februar deutlich zu mild; Winter insgesamt also überall zu mild:

CFSv2- Modell des NOAA (Wetterdienst der USA, folgende 3 Abbildungen, Eingabezeitraum 14. bis 24.11. 2020): Winter insgesamt etwa 1 bis 2 K zu mild. Dezember (oben) 0,5 bis 2 K, Januar (Mitte) 1 bis 3 K, Februar (unten) 0,5 bis 2 K zu mild. Die vorhergesagten Temperaturabweichungen beziehen sich auf die Mittelwerte der Periode 1981 bis 2010. Bemerkenswert ist, dass der Mildwinter von diesem Modell schon seit dem Sommer 2020 nahezu durchgängig vorhergesagt wird. Diese experimentellen, fast täglich aktualisierten, aber unsicheren Prognosen unter http://www.cpc.ncep.noaa.gov/products/people/wwang/cfsv2fcst/ (Europe T2m, ganz unten in der Menütabelle; E3 ist der aktuellste Eingabezeitraum):

Die Mehrzahl dieser experimentellen, nicht verlässlichen Langfristprognosen deutet also einen eher normalen bis deutlich zu milden Winter an.

Fazit: Eindeutige, verlässliche Anzeichen für einen Winter in die extrem kalte Richtung fehlen; für die extrem milde Richtung gibt es nur ganz wenige Signale. Die Prognosesignale waren selten so widersprüchlich und instabil; lassen aber Raum für mehr Kälte. Die Vorhersagen der Wetterdienste und Institute tendieren jedoch bei extrem großer Unsicherheit in Richtung eines normalen bis sehr milden Winters. Allerdings verdichten sich die Anzeichen für einen kälteren Dezember als in den Vorjahren, weil unter anderem zumindest anfangs die Westdrift blockiert und geschwächt ist. Insgesamt fällt der Winter 2020/21 nach momentanem Stand also bei enormer Unsicherheit fast normal aus und wird im Deutschland-Mittel auf minus 1,0 bis +3,0°C geschätzt (LJM 1991 bis 2020 +1,4°C). In den Kategorien „zu kalt“, „normal“ und „zu mild“ stellen sich die Wahrscheinlichkeiten des Winters 2020/21 folgendermaßen dar:

Die Schneesituation für Wintersport besonders in Lagen unter 1.000m bleibt zumindest in der ersten Dezemberdekade eher schlecht, weil eine ausreichende Schneeauflage fehlt und sehr ergiebige Schneefälle vorerst nicht sehr wahrscheinlich sind. Geschätzte Dezember- Monatsmitteltemperatur für Erfurt-Bindersleben (Mittel 1981- 2010 +0,5°C) minus 1,5 bis +2,5°C (fast normal). Für Jan/Feb. 2021 lässt sich noch kein Temperaturbereich schätzen; doch deuten viele Signale auf einen eher normalen bis milden Januar hin; Richtung Februar ist die Entwicklung noch völlig offen. Das Schneeaufkommen nach Mitte Dezember ist kaum vorhersehbar (langfristige Niederschlagsprognosen sind besonders unsicher; doch dürfte das enorme Niederschlagsdefizit der Dürregebiete in Ostdeutschland wohl nicht ausgeglichen werden). Zur Winterlänge fehlen bisher ebenfalls noch Hinweise. Die Hochwinterwitterung (Jan/Feb.) kann erst anhand des Witterungstrends zum Jahreswechsel etwas genauer abgeschätzt werden; momentan ist ein normaler bis milder Hochwinter etwas wahrscheinlicher, als ein durchgehend zu kalter. Wegen einer möglichen Westwindphase in der unteren Stratosphäre (QBO) sind mildere Phasen möglich. Sollte der Dezember aber tatsächlich eher kühl ausfallen, so erhöht das die Wahrscheinlichkeit für einen kalten Hochwinter 2021, besonders im Januar, zumindest etwas.

Dieses Fazit wurde aus 10% der Tendenz der Bauern- Regeln, 10% Sonnenaktivität, 20% Zirkulationsverhältnisse, 10% Mittelfrist- Modelle, 10% NAO, AMO,QBO, Polarwirbel, 15% Analogfälle, 10% Wirbelsturm-Aktivität und 15% der vorwiegenden Tendenz der Langfristprognosen gewichtet. Aktualisierung voraussichtlich Ende Dezember.




Der nationale Temperatur-Index der USA – beruht er auf Daten oder auf Korrekturen?

GHCN-Daily enthält die qualitäts-geprüften Rohdaten, die anschließend korrigiert und dann zum Auffüllen von GHCN-Monthly, einer Datenbank mit Monatsdurchschnittswerten, sowohl roh als auch endgültig, verwendet werden. Am 10. Oktober 2020 habe ich Version 4.0.1 der GHCN-Monats-Datenbank heruntergeladen. Zu diesem Zeitpunkt zählte sie weltweit 27.519 Stationen, und 12.514 (45%) davon befanden sich in den Vereinigten Staaten, einschließlich Alaska und Hawaii. Von den 12.514 US-Stationen befanden sich 11.969 in „CONUS“ [= CONtinental USA], den zusammen hängenden 48 Bundesstaaten. Die aktuelle Stationsabdeckung ist in Abbildung 1 dargestellt.

Abbildung 1. Die Abdeckung durch die GHCN-Wetterstation in den Vereinigten Staaten ist sehr gut, mit Ausnahme von Nordalaska. Es gibt zwei Stationen im westlichen Pazifik, die nicht abgebildet sind.

Wir haben mehrere Fragen zur landgestützten Temperaturaufzeichnung, die die langfristige (~170 Jahre) globale Temperaturaufzeichnung dominiert. Die landgestützten Messungen dominieren, weil die Angaben zur Temperatur über den Ozeanen sehr spärlich sind, bis etwa 2004 bis 2007, als das ARGO-Netzwerk von Bojen vollständig genug war, um gute Daten zu liefern. Aber sogar noch 2007 war der Gitterfehler an der Meeresoberfläche größer als die festgestellte Erwärmung des Ozeans.

Erwärmung der Ozeane

Wir haben geschätzt, dass sich die 71% der Erdoberfläche bedeckenden Ozeane mit einer Rate von 0,4°C pro Jahrhundert erwärmen, basierend auf dem in Abbildung 2 gezeigten linearen Trend der kleinsten Quadrate. Dies ist eine sehr grobe Schätzung und beruht nur auf Daten aus den Jahren 2004 bis 2019 und auf Temperaturen aus den oberen 2.000 Metern der Ozeane. Die Daten vor 2004 sind so spärlich, dass wir sie nicht verwenden wollten. Der Fehler in dieser Schätzung beträgt etwa ±0,26°C von der Oberfläche bis 2.000 Meter, und darunter ist er unbekannt.

Die Argo-Messungen der Meerestemperatur der oberen 2.000 Meter ergeben eine ziemlich konstante Temperatur von 2,4°C. Wir nahmen also eine Temperatur von 0,8°C bei einer durchschnittlichen Meerestiefe von 3.688 Metern und darunter an. Im Zusammenhang damit liegt der Gefrierpunkt des Meerwassers bei 2900 PSI (etwa 2.000 Meter oder 2.000 Dezibar) bei -17°C. Der Wert von 0,8°C stammt aus tiefen Argo-Daten, wie sie von Gregory Johnson und Kollegen beschrieben wurden (Johnson, Purkey, Zilberman, & Roemmich, 2019). Es gibt nur sehr wenige Messungen von Tiefsee-Temperaturen, und jede Schätzung weist erhebliche mögliche Fehler auf (Gasparin, Hamon, Remy, & Traon, 2020). Die Anomalien in Abbildung 2 basieren auf diesen Annahmen. Die berechneten Temperaturen wurden aus dem Mittelwert der Ozeantemperaturen von 2004 bis 2019 in Anomalien umgerechnet. Die zur Erstellung von Abbildung 2 verwendeten Daten stammen aus Jamstec. Ein R-Programm zum Lesen und Plotten der Jamstec-Daten kann hier heruntergeladen werden, die Zip-Datei enthält auch eine Tabellenkalkulation mit weiteren Details. Unsere Berechnungen gehen von einer durchschnittlichen Gesamttemperatur des Ozeans im Zeitraum 2004-2019 von 4,6°C aus.

Abbildung 2. Eine Darstellung des globalen Rasters der Ozeantemperaturen von JAMSTEC. Es ist hauptsächlich aus ARGO-Floats und Triton-Bojendaten aufgebaut. Jamstec ist die Quelle des Gitters, das zur Berechnung dieser Anomalien verwendet wird.

Die beobachtete Erwärmung der Ozeane ist keineswegs alarmierend und ziemlich linear und zeigt keine Anzeichen einer Beschleunigung. Die Ozeane enthalten 99,9% der thermischen Energie („Wärme“) auf der Erdoberfläche, die Atmosphäre enthält den größten Teil des Rests. Dies erschwert es der Erdoberfläche, sich sehr stark zu erwärmen, da die Ozeane als Wärmeregulator wirken. Verschiedene Berechnungen und Konstanten bezüglich der in den Ozeanen und der Atmosphäre gespeicherten Wärme finden Sie in einer Tabelle, die ich hier vorbereitet habe. Referenzen sind in der Tabelle enthalten. Die Ozeane steuern die Erwärmung mit ihrer hohen Wärmekapazität, d.h. mit der Menge an thermischer Energie, die erforderlich ist, um die durchschnittliche Temperatur der Ozeane um ein Grad zu erhöhen. Die Wärmeenergie, die benötigt wird, um die Temperatur der Atmosphäre um 1000 Grad C zu erhöhen, würde die durchschnittliche Meerestemperatur nur um ein Grad erhöhen.

Ich erwähne dies nur, weil die landgestützten Wetterstationen uns zwar wertvolle Informationen über das Wetter liefern, aber nur sehr wenig über den Klimawandel. Längerfristige Veränderungen des Klimas erfordern viel mehr Informationen über die Erwärmung der Ozeane, als uns derzeit zur Verfügung stehen. Dennoch wollen wir die in den Vereinigten Staaten gesammelten GHCN-Daten einmal unter die Lupe nehmen.

Die GHCN-Stationsdaten

In den USA und im Rest der Welt machen die landgestützten Wetterstationen den größten Teil der durchschnittlichen Temperaturaufzeichnungen des 19. und 20. Jahrhunderts aus. Es ist wichtig zu wissen, wie genau sie sind und welchen Einfluss die Korrekturen haben, die in Bezug auf die beobachtete Erwärmung angewendet werden. Es ist viel Arbeit geleistet worden, um Probleme mit den landgestützten Daten zu dokumentieren. Anthony Watts und Kollegen dokumentierten 2011 mit ihrem Projekt für Landstationen zahlreiche Probleme mit der Stationsauswahl und -ausrüstung. Wichtige Informationen zu dieser Studie von John Neison-Gammon können hier und hier eingesehen werden. Die Veröffentlichung im Journal of Geophysical Research finden Sie hier. Viele der radikalen Veränderungen im US-Temperaturindex der NOAA und in der zugrunde liegenden Datenbank im Zeitraum zwischen 2009 und 2014 sind auf die Arbeit von Watts und seinen Kollegen zurückzuführen, die von Matthew Menne von der NOAA in seinem Einführungspapier zur Version 2 des U.S. Historical Climatology Network (USHCN) beschrieben wurde:

Darüber hinaus gibt es Hinweise darauf, dass ein großer Teil der HCN-Standorte in Bezug auf die vom U.S. Climate Reference Network verwendeten Standortklassifizierungskriterien schlechte Bewertungen haben (persönliche Mitteilung von A. Watts 2008; siehe auch www.surfacestations.org)“. (Menne, Williams, & Vose, 2009)

Menne, et al. bestätigten Watts und Kollegen in ihrem Einführungspapier zum überarbeiteten USHCN-Stationsnetz, was darauf hindeutet, dass das Projekt der Oberflächenstationen ein wichtiger Grund für die Revision war. USHCN war eine qualitativ hochwertige Teilmenge des gesamten Wetterstationsnetzes des Cooperative Observer Program (COOP) der NOAA). Die USHCN-Stationen wurden laut Matthew Menne auf der Grundlage ihrer räumlichen Abdeckung, Aufzeichnungslänge, Datenvollständigkeit und historischen Stabilität ausgewählt. Zur Bereinigung der ausgewählten Aufzeichnungen wurde eine Reihe von Qualitätskontrollprüfungen und Korrekturen entwickelt, die in den Veröffentlichungen von Matthew Menne und Kollegen beschrieben sind. Aus der Hauptstudie stammt das Zitat oben, aber er schrieb auch einen Beitrag zur Beschreibung ihres paarweisen Homogenisierungs-Algorithmus, abgekürzt „PHA“ (Menne & Williams, 2009a). Stationen mit Problemen, wie sie von Watts u.a. gefunden und dokumentiert worden waren, wurden aus USHCN entfernt. Infolgedessen schrumpften die ursprünglichen 1218 USHCN-Stationen bis 2020 auf ~832. Die abgebauten Stationen wurden nicht ersetzt, die Werte wurden statistisch anhand von Daten benachbarter Stationen „aufgefüllt“.

Anfang 2014 wurde die Teilmenge USHCN als Quelldaten für den Nationalen Temperaturindex aufgegeben und durch eine gerasterte Version von GHCN ersetzt, aber die für USHCN entwickelten Korrekturen wurden beibehalten. Sie wurden nur auf alle 12.514 U.S.-GHCN-Stationen angewandt und nicht auf die kleinere USHCN-Untermenge von 1.218 Stationen (oder weniger).

NOAA scheint dem in einer anderen Webseite über GHCN-Daily-Verfahren zu widersprechen. Auf dieser Seite heißt es, dass GHCN-Daily keine Anpassungen für historische Stationsänderungen oder tageszeitliche Verzerrungen enthält. Aber sie merken an, dass GHCN-Monthly dies tut. Es scheint also, dass die Korrekturen nach der Extraktion der täglichen Daten und während der Erstellung des monatlichen Datensatzes vorgenommen werden. Die NOAA manipuliert die GHCN-Tagesrohdaten nicht, aber wenn sie sie extrahieren, um den GHCN-Monatsdatensatz zu erstellen, wenden sie einige dramatische Korrekturen an, wie wir sehen werden. Einige NOAA-Webseiten weisen darauf hin, dass die Korrekturen der Tageszeitverzerrung für spätere Versionen von GHCN-Monatlich entfallen sind, aber die meisten sagen ausdrücklich, dass sie immer noch verwendet werden, so dass wir annehmen, dass genau das immer noch der Fall ist. Eine der beunruhigendsten Erkenntnisse war, wie oft und wie radikal die NOAA ihre „Korrektur“-Verfahren zu ändern scheint.

Die Entwicklung des US-Temperaturindex‘

Der aktuelle US-amerikanische „National Temperature Index“ bezieht Daten aus den Fünf-Kilometer-Rastern des GHCN-Monatsdatensatzes. Der monatliche gerasterte Datensatz wird nClimGrid genannt und besteht aus einem Satz von Kartengittern und enthält keine tatsächlichen Stationsdaten. Die Gitternetze werden mittels „klimatologisch unterstützter Interpolation“ (Willmott & Robeson, 1995) erstellt. Die Gitter werden verwendet, um einen monatlichen Durchschnittstemperatur-Datensatz, nClimDiv genannt, zu füllen. Dieser wird dann zur Erstellung des Index‘ verwendet.

Gegenwärtig ist die NOAA-Basisperiode für nClimDiv-, USHCN- und USCRN-Anomalien 1981-2010. Wir haben unsere Stationsanomalien, die unten dargestellt sind, unter Verwendung derselben Basisperiode konstruiert. Wir akzeptierten alle Stationen, die während der Basisperiode mindestens 12 Monatswerte hatten, und lehnten Stationen mit weniger Werten ab. Dadurch verringerte sich die Anzahl der CONUS-Stationen von 11.969 auf 9.307. In dieser Studie wurden keine Stationen interpoliert oder „aufgefüllt“.

Einige Quellen haben vorgeschlagen, dass Daten außerhalb des GHCN-Daily-Datensatzes verwendet werden könnten, um die nClimDiv-Monatsraster und den Temperaturindex zu erstellen, insbesondere einige nahegelegene kanadische und mexikanische Monatsdurchschnitte. NOAA/NCEI erwähnen dies jedoch kaum auf ihrer Website. nClimDiv enthält Klimadaten, einschließlich Niederschlag und einen Dürreindex, sowie die monatliche Durchschnittstemperatur. Wie bereits erwähnt, werden an den Daten der GHCN-Station dieselben Korrekturen vorgenommen, die auch im älteren USHCN-Datensatz verwendet wurden. Auf der NOAA-Website liest man:

Die erste (und einfachste) Verbesserung des nClimDiv-Datensatzes besteht in der Aktualisierung des zugrunde liegenden Stationsnetzes, das jetzt zusätzliche Stationsdatensätze und zeitnahe Bias-Korrekturen enthält (d.h. diejenigen, die im U.S. Historical Climatology Network Version 2 verwendet werden)“ Quelle

Neben dem neuen vollständig korrigierten GHCN-Monatsdatensatz und dem kleineren USHCN-Satz korrigierter Stationsdaten gab es früher noch einen dritten Datensatz, den ursprünglichen NOAA-climate divisional-Datensatz. Wie GHCN-Daily und nClimDiv verwendete diese ältere Datenbank das gesamte COOP-Stationsnetz. Die im älteren Klimaabteilungsdatensatz (in Fenimore u.a. „TCDD“ genannt) verwendeten COOP-Daten waren jedoch unkorrigiert. Dies wird in einem Whitepaper von Chris Fenimore und Kollegen erläutert (Fenimore, Arndt, Gleason, & Heim, 2011). Darüber hinaus wurden die Daten in dem älteren Datensatz einfach nach Klimaeinteilung und Bundesstaat gemittelt, sie waren nicht gerastert, wie nClimDiv und USHCN. Es gibt einige neue Stationen in nClimDiv, aber die meisten sind die gleichen wie in TCDD. Der Hauptunterschied zwischen den beiden Datensätzen sind die Korrekturen und die Rasterung. Daten aus dieser früheren Datenbank sind in den Abbildungen 6 und 7 unten als blaue Linie eingezeichnet.

Die einfachen Mittelwerte, die zur Zusammenfassung des TCDD verwendet wurden, ignorierten Veränderungen in der Höhe, Stationsverschiebungen und andere Faktoren, die in vielen Bereichen falsche interne Trends (Diskontinuitäten) einführten. Das neuere nClimDiv-Team für die monatliche Datenbank behauptet, die Stationsdichte und -höhe mit ihrer „klimatologisch gestützten Interpolations“-Rastermethode explizit zu berücksichtigen (Fenimore, Arndt, Gleason, & Heim, 2011). Die Methode liefert den vollständig korrigierten und gerasterten nClimGrid Fünf-Kilometer-Rasterdatensatz.

nClimDiv ist nützlicher, da die Gradienten innerhalb der Vereinigten Staaten in Bezug auf Temperatur, Niederschlag und Dürre genauer sind und weniger Diskontinuitäten enthalten. Aber, wie wir bereits in früheren Beiträgen erklärten, ist nClimDiv, wenn nClimDiv auf einen jährlichen gleichzeitigen Temperaturrekord der Vereinigten Staaten (CONUS) reduziert wird, dem Rekord des älteren, offiziellen Temperaturrekords namens USHCN sehr ähnlich, wenn beide auf die gleiche Weise gerastert werden. Dies mag daran liegen, dass nClimDiv zwar viel mehr Wetterstationen hat, auf diese jedoch dieselben Korrekturen angewandt werden wie auf die USHCN-Stationen. USHCN hat zwar weniger Stationen, aber sie sind von höherer Qualität und haben längere Aufzeichnungen. Die zusätzlichen nClimDiv-Stationen ändern, wenn sie auf die gleiche Weise wie die USHCN-Stationen verarbeitet werden, nichts, zumindest nicht auf nationaler und jährlicher Ebene. Wie in einem früheren Beitrag [in deutscher Übersetzung hier] erwähnt, spielt das schnellere Umrühren des Dungs mit leistungsfähigeren Computern und Milliarden von Dollar für weit verbreitete Durchschnittswerte keine Rolle.

Es gibt gute Gründe für all die Korrekturen, die die NOAA auf die Daten anwendet. Der Gridding-Prozess verbessert zweifellos den Nutzen der Daten intern. Künstliche Kartierungsdiskontinuitäten werden geglättet und Trends werden klarer erkennbar. Aber die Korrekturen und der Gridding-Prozess sind statistischer Natur, sie tragen nicht zur Verbesserung der Genauigkeit des Nationalen Temperaturindex bei. Wenn ein spezifisches Problem mit einem bestimmten Thermometer festgestellt und behoben wird, wird die Genauigkeit verbessert. Wenn die Ursache nicht bekannt ist und die Messwerte mit Hilfe benachbarter Thermometer oder eines statistischen Algorithmus „angepasst“ oder „aufgefüllt“ werden, sehen die resultierenden Tabellen besser aus, sind aber nicht genauer.

Der Übergang von USHCN zu nClimDiv für den National Temperature Index

Wie viel des nationalen Temperaturindex-Trends ist auf die tatsächliche Erwärmung zurückzuführen und wie viel auf die Korrekturen und die Rastermethode? Wie groß ist der Fehler in den endgültigen Schätzungen der Temperaturanomalien? Jahrzehntelange Kritik und die Revisionen der NOAA an der Berechnung haben diese Frage nicht beantwortet oder das Ergebnis verändert. Abbildung 3 zeigt den Nationalen Temperaturindex, extrahiert von der NOAA-Website am 18. November 2020. Sowohl die USHCN- als auch die nClimDiv-Berechnungen sind eingezeichnet. Erinnern Sie sich an die Steigung der Linie der kleinsten Quadrate, 1,5°C pro Jahrhundert, sie wird später im Beitrag wichtig sein.

Abbildung 3. Die nClimDiv- und USHCN-Klimaanomalien gegenüber dem Durchschnitt der Jahre 1981-2010. Die Daten wurden von ihrer Website heruntergeladen. Beide aufgezeichneten Datensätze stammen aus Gitternetzen, nicht aus Stationsdaten.

Es ist seit langem bekannt, dass der Nationale Temperaturindex nicht den zugrunde liegenden veröffentlichten Daten folgt. Anthony Watts hat dies berichtet, ebenso wie Jeff Masters, Christopher Burt und Ken Towe. Die Probleme bestehen sowohl in den GHCN-Daten als auch in den USHCN-Daten, wie von Joseph D’Aleo berichtet. Brendan Godwin argwöhnt, dass die heute verwendeten „Homogenisierungs“-Algorithmen (siehe die Diskussion über PHA oben) daran schuld sind. Wenn die „korrigierten“ Daten einen ganz anderen Trend aufweisen als die Rohdaten, sollte man skeptisch sein.

Anthony Watts glaubt nicht, dass die zugrunde liegenden Probleme mit dem vollständigen COOP-Netzwerk von Wetterstationen behoben sind, wie er hier im vergangenen Jahr erklärte. Er glaubt, dass die NOAA das Problem „unter den Teppich kehrt“. Die in Abbildung 3 dargestellten Daten sind vollständig korrigiert und gerastert, es handelt sich nicht um eine Darstellung von Stationsdaten. In Abbildung 4 sind die vollständig korrigierten Stationsdaten in Blau und die Rohdaten in Orange aus dem CONUS-Teil des GHCM-Monatsheftes eingezeichnet. Dies sind die gleichen Daten, die zur Erstellung der in Abbildung 3 gezeichneten nClimDiv-Kurve verwendet wurden, aber bei Abbildung 4 handelt es sich um die tatsächlichen Stationsdaten.

Abbildung 4. Die orangefarbene Linie ist die unkorrigierte monatliche Durchschnittstemperatur, die in der NOAA-Terminologie als „qcu“ bezeichnet wird. Die blaue Linie ist korrigiert oder die „qcf“ der NOAA.

Abbildung 4 zeigt die tatsächlichen Messungen von den Stationen, es sind keine Anomalien und die Daten sind nicht gerastert. Die Rohdaten zeigen, dass sich CONUS um 0,3°C pro Jahrhundert abkühlt, während die korrigierten Daten zeigen, dass sich CONUS um 0,3°C Grad pro Jahrhundert erwärmt. Diese Linien sind, wie alle eingepassten Linien in diesem Beitrag, Excel-Trendlinien der kleinsten Quadrate. Die Linien dienen lediglich dazu, den wahrscheinlichsten linearen Trend in den Daten zu identifizieren, daher ist das R2 irrelevant, wir versuchen nicht, Linearität zu demonstrieren.

Der Unterschied zwischen den beiden Kurven in Abbildung 4 ist in Abbildung 5 dargestellt. Die Steigung der Differenz ist ein Erwärmungstrend von 0,57°C pro Jahrhundert. Dies ist der Anteil der Erwärmung in Abbildung 3, der direkt auf die Korrekturen der Messungen zurückzuführen ist.

Abbildung 5. Damit wird die Differenz (Final-Raw) zwischen den beiden tatsächlichen Stationstemperaturkurven in Abbildung 4 dargestellt. Man erkennt, dass die Differenz zwischen den Trends der End- und Rohkurve seit 1890 etwa 0,8°C beträgt, was in etwa der behaupteten Erwärmung der Welt in diesem Zeitraum entspricht.

Vielen Lesern wird Abbildung 4 bekannt vorkommen. Steven Goddards Real Science-Blog veröffentlichte im Jahr 2012 eine NASA-GISS-Version der CONUS-Rohdatenanomalien aus dem Jahr 1999. Der von ihm verwendete Datensatz ist inzwischen von der NASA-Website gelöscht worden, aber eine Kopie kann hier heruntergeladen werden und ist in Abbildung 6 zusammen mit den aktuellen (Oktober 2020) GHCN-M-Rohdaten eingezeichnet. Wir wechseln von den tatsächlichen Temperaturmessungen in Abbildung 4 zu den Anomalien der Wetterstation vom Mittelwert 1981-2010 in Abbildung 6.

Abbildung 6. Die NASA GISS-CONUS-Temperaturanomalien von 1999 im Vergleich zu den GHCN-M-Roh-CONUS-Temperaturanomalien von 2020. Die NASA-Anomalien von 1999 sind um 0,32°C nach unten verschoben, so dass die Mittelwerte von 1890 bis 1999 übereinstimmen. Dies dient dazu, die Grundlinienunterschiede auszugleichen. Man beachte, dass die Trends der kleinsten Quadrate sehr genau übereinstimmen. Hansens Daten zeigen einen Erwärmungstrend von 0,25°C pro Jahrhundert und die modernen Daten zeigen eine Erwärmung von 0,26°C pro Jahrhundert. Die Gleichungen für die Linien befinden sich in der Legende. Siehe den Text für die Datenquellen.

Sowohl die aktuellen Daten als auch die Daten von 1999 zeigen eine Erwärmung von etwa 0,25°C pro Jahrhundert. Abbildung 7 zeigt die gleichen GISS 1999 Rohdatenanomalien im Vergleich zu den 2020 GHCN-M Endtemperaturanomalien. Alle drei Darstellungen deuten darauf hin, dass es in den Jahren 1931 und 1933 in den angrenzenden US-Bundesstaaten genauso warm wie oder wärmer war als heute. Die verschiedenen Korrekturen, die auf die Rohdaten angewendet wurden und die tatsächlichen Temperaturen in Anomalien verwandeln, haben den Effekt, den Unterschied zwischen den 1930er Jahren und heute zu verringern, aber sie beseitigen ihn nicht, zumindest nicht in den Stationsdaten selbst. Wenn die Daten gerastert werden, wie es in Abbildung 3 der Fall war, kehrt sich der Trend vollständig um, und die modernen Temperaturen sind plötzlich viel wärmer als in den 1930er Jahren. Die Daten von 1999 zeigen erneut eine Erwärmung von 0,25°C pro Jahrhundert, aber die korrigierten Daten zeigen eine Erwärmung von 0,6°C pro Jahrhundert. Dies ist der in Abbildung 5 dargestellten Erwärmung sehr ähnlich, d.h. der Erwärmung, die allein auf die Korrekturen zurückzuführen ist.

Abbildung 7. Die endgültigen und vollständig korrigierten Stationsdaten von GHCN-M für 2020 werden mit den NASA/GISS CONUS-Anomalien von 1999 verglichen. Die Gleichungen für die Linien befinden sich in der Legende.

Die blauen Linien der GISS-Anomalie von 1999 in den Abbildungen 6 und 7 sind identisch, die orangefarbene Linie in Abbildung 6 sind Rohdaten und die orangefarbene Linie in Abbildung 7 sind endgültige, korrigierte Daten. Die größten Korrekturen liegen in den früheren Zeiten und die kleineren Korrekturen liegen in den jüngeren Temperaturen.

Der in WUWT schreibende Witzbold und rundum gute Kerl Dave Middleton kommentierte dies 2016:

Ich sage nicht, dass ich weiß, dass die Anpassungen falsch sind; aber immer, wenn eine Anomalie ausschließlich auf Datenanpassungen zurückzuführen ist, wird bei mir die rote Flagge gehisst.“ Middleton, 2016

Ich stimme zu, Logik und gesunder Menschenverstand legen nahe, dass Dave zu Recht skeptisch ist.

James Hansen schrieb 1999 über dieses Thema:

Was geschieht mit unserem Klima? War die Hitzewelle und Dürre im Osten der Vereinigten Staaten 1999 ein Zeichen der globalen Erwärmung?

Empirische Beweise unterstützen die Vorstellung kaum, wonach das Klima auf eine extremere Hitze und Dürre zusteuert. Die Dürre von 1999 betraf ein kleineres Gebiet als die Dürre von 1988, als der Mississippi fast ausgetrocknet war. Und 1988 war eine vorübergehende Unannehmlichkeit im Vergleich zu den wiederholten Dürreperioden während der „Dust Bowl“ in den 1930er Jahren, die einen Exodus aus den Prärien verursachte, wie in Steinbecks „Trauben des Zorns“ beschrieben wird. Quelle.

Nun, hier stimme ich mit Hansen vollkommen überein.

Zeke von rankexploits.com, der „Tafel“, versuchte, die Korrekturen im Jahr 2014 zu verteidigen. Er erklärt uns, dass USHCN und GHCN zunächst um den Time-of-Measurement Bias („TOB“) [etwa: Messzeitpunkt] korrigiert werden, dann werden die Stationen mit ihren Nachbarn verglichen, und ein paarweiser Homogenisierungsalgorithmus (PHA) wird verwendet, um vermutete Anomalien zu glätten. Diese sind vermutlich auf Stationsverschiebungen, Änderungen in der Stationsumgebung oder Geräteänderungen zurückzuführen. Schließlich werden fehlende Stationsdaten ergänzt, wobei benachbarte Stationen als Anhaltspunkt dienen. Der letzte Schritt zur Erstellung von nClimDiv ist die Rasterung der Daten.

Zeke stellt fest, dass die Korrekturen der TOB und der PHA nicht wirklich notwendig sind, da der Rasterungsprozess allein wahrscheinlich Gleiches bewirken wird. Da ich nicht alle Details all dieser Glättungsoperationen für statistische Daten verstehe, werde ich keine Stellungnahme zu Zekes Kommentar abgeben. Aber aus einer allgemeinen Mapping-Perspektive hat er einen Punkt. Sie wollen einen Datensatz kartieren, der den Messungen so nahe wie möglich kommt. Wenn man drei Glättungsalgorithmen auf die Messungen anwenden, bevor man sie konturiert und rastert, was haben wir dann? Was bedeutet dieser Algorithmus?

Wir werden hier nicht auf die Einzelheiten der NOAA-Korrekturen eingehen, sie sind statistischer Natur und keine Korrekturen an spezifischen Instrumenten zur Korrektur bekannter Probleme. Es handelt sich also um verschiedene Arten von Glättungsoperationen, die nacheinander auf die Messungen angewendet werden. Die TOB-Korrektur wird von Thomas Karl und Kollegen beschrieben (Karl, Williams, Young, & Wendland, 1986). NOAA mittelt die minimalen und maximalen Tagestemperaturen, um die durchschnittliche Tagestemperatur abzuleiten, daher ist es wichtig, ob die beiden Temperaturmessungen vom Min-Max-Thermometer um Mitternacht oder zu einer anderen Tageszeit aufgezeichnet werden. Wenn Berechnungen mit Monatsdurchschnitten durchgeführt werden, ist dieser Unterschied sehr gering. Einige NOAA-Webseiten legen nahe, dass die TOB-Korrektur für neuere Versionen von GHCN-Monatsblatt entfallen ist, andere sagen, dass sie immer noch verwendet wird. So oder so macht sie wahrscheinlich keinen großen Unterschied in GHCN-Monatlich oder nClimDiv.

Die zweite Korrektur ist der paarweise Homogenisierungsalgorithmus oder PHA. Dieser Algorithmus vergleicht jede Station mit ihren Nachbarn, um festzustellen, ob es ungewöhnliche Anomalien gibt, und versucht dann, diese zu beheben. Dieser Prozess ist ein rein statistischer Glättungsalgorithmus. Er wird von Matthew Menne und Claude Williams beschrieben (Menne & Williams, 2009a). Dieses Verfahren wird definitiv in der neuesten Version von GHCN-Monthly verwendet.

Der letzte Schritt im Glättungsprozess ist das Auffüllen fehlender Werte mit Daten von Nachbarstationen. Dies geschieht vor der Rasterung, so dass mehr Rasterzellen gefüllt werden. Das Auffüllen wird wahrscheinlich noch in der neuesten Version durchgeführt.

Zeke weist darauf hin, dass die grafische Darstellung der tatsächlichen Temperaturen, wie wir es in Abbildung 4 getan haben, irreführend sein kann. Im Laufe der letzten 130 Jahre sind Stationen verschoben, hinzugefügt, entfernt worden, und die räumliche Verteilung der Stationen hat sich verändert. Die mittlere Höhe der Stationen hat sich im Laufe der Zeit verändert. Diese Veränderungen wirken sich auf die Stationsanomalien weniger stark aus als die absoluten Temperaturen. Das ist richtig, und dies erklärt einen Teil der Differenz zwischen Abbildung 4 und den Abbildungen 6 und 7. Ab einem bestimmten Punkt spielt die Anzahl der Stationen keine Rolle mehr, wie in Abbildung 3 zu sehen ist. Wir beginnen unsere Beobachtungen im Jahr 1890 oder 1895, weil wir dann davon ausgehen, dass genügend Stationen in CONUS vorhanden sind, um einen aussagekräftigen Mittelwert zu erhalten. Der USHCN-Datensatz umfasst 143 Stationen im Jahr 1890 und 608 Stationen im Jahr 1895, und dies sind die Stationen mit den längsten Aufzeichnungen und der besten Platzierung.

Schlussfolgerungen und Diskussion

Zekes nächster Punkt ist, dass Goddard seine Daten nicht gerastert hat. Er hat sich also nicht mit der ungleichmäßigen Verteilung der Stationen und der sich im Laufe der Zeit verändernden Verteilung der Stationen befasst. Dies sind echte Probleme, die sich zwar auf interne Trends innerhalb von CONUS auswirken, aber die Rasterung und die anderen Korrekturen glätten die Daten nur. Keine dieser Operationen verbessert die Genauigkeit. Tatsächlich ist es wahrscheinlicher, dass sie die Genauigkeit verringern. Wenn wir Karten von CONUS-Daten zur Ermittlung von Trends innerhalb des Landes verwenden würden, würde ich Zeke zustimmen und die Daten glätten. Aber hier geht es uns nur um den nationalen Temperaturindex, der außerhalb von CONUS liegt. Der Index ist eine Durchschnittstemperatur für das ganze Land, keine statistische Glättung oder Rasterung wird ihn verbessern. Die Verwendung von Anomalien gegenüber den tatsächlichen Temperaturen ist wichtig, ansonsten nicht.

Ein Mittelwert der Anomalien der Stationsdaten ist geeigneter als die Verwendung eines Gitters zur Erstellung eines nationalen durchschnittlichen Temperaturtrends. Der Mittelwert kommt den tatsächlichen Beobachtungen so nahe wie möglich. Die Korrekturen und die Rasterung entfernen uns mit mehreren verwirrenden Schritten von den Messungen.

Wenn die Korrekturen bekannte Probleme in den Instrumenten beheben würden, würde das der Genauigkeit helfen. Aber sie sind statistischer Natur. Sie machen die Stationsmessungen glatter, wenn sie kartiert werden, und sie glätten Diskontinuitäten. Meiner Meinung nach hat die NOAA es übertrieben. TOB, PHA, Ausfüllung und Rasterung sind ein Overkill. Dies ist in Abbildung 7 und beim Vergleich von Abbildung 3 mit Abbildung 6 oder Abbildung 5 leicht zu erkennen. Entspricht der endgültige Trend in Abbildung 3 eher den Messungen (Abbildung 6) oder den Netzkorrekturen in Abbildung 5? Der Jahrhundert-Trend der Daten beträgt 0,25°, die Korrekturen addieren dazu 0,35° und der „klimatologische Rasteralgorithmus“ fügt nochmals 0,9° hinzu! Es lohnt sich, noch einmal zu sagen, dass die Art der statistischen Operationen, die wir diskutieren, nichts zur Verbesserung der Genauigkeit des Nationalen Temperaturindexes beitragen, und sie reduzieren dieselbe wahrscheinlich.

CONUS ist ein gutes Gebiet, um zu überprüfen, ob die „Korrekturen“ an den Stationsdaten und die Wirksamkeit des Temperatur-Gridding-Prozesses gerechtfertigt sind. Die aktuelle Stationsabdeckung ist sehr dicht, wie in Abbildung 1 zu sehen ist, und man würde erwarten, dass die gerasterten Daten recht gut mit den Stationsdaten übereinstimmen. Abbildung 3 sieht wie die orangefarbene „Endkurve“ in Abbildung 7 aus, aber sie ist irgendwie steiler, und das sagt alles, was ma wissen muss.

Dave Middleton und ich sind (in meinem Fall „war“) schon seit langer Zeit im Öl- und Gasgeschäft tätig. Zusammen haben wir mehr kartografierte BS gesehen, als man auf den Lagerplätzen von Kansas City finden konnte. Mein interner BS-Meter zeigt rote Linien, wenn ich eine Wäscheliste mit Glättungsalgorithmen, Korrekturalgorithmen, Bias-Anpassungen usw. höre. Ich möchte schreien: „Halten Sie Ihre &#$@ing Karten und Berechnungen so nah wie möglich an den echten Daten!“

Im ersten Teil dieses Postens habe ich darauf hingewiesen, dass wir zur Untersuchung des Klimawandels mehr über die Erwärmung der Ozeane und die Verteilung und den Transport von Wärmeenergie in den Ozeanen wissen müssen. Landgestützte Wetterstationen helfen bei der Vorhersage des Wetters, aber nicht des Klimas. Wir streiten viel über relativ kleine Unterschiede in den Landoberflächentemperaturen. Diese Argumente sind interessant, aber aus der Sicht des Klimawandels spielen sie keine große Rolle. Die Ozeane kontrollieren das, die Atmosphäre über Land hat wenig damit zu tun. Die Rohdaten von GHCN-Daily zu nehmen und sie durch vier verschiedene Glättungsalgorithmen (TOB, PHA, Infilling und Gridding) laufen zu lassen, ist, bei allem Respekt, lächerlich. Meine Empfehlung? Glauben Sie nichts davon, auch nicht, dass es bzgl. des Klimas eine große Rolle spielt.

Ein besserer Indikator für den Klimawandel oder die globale Erwärmung ist der in Abbildung 2 dargestellte Trend der Erwärmung der Ozeane. Beachten Sie, dass der Trend der letzten 16 Jahre nur 0,4°C pro Jahrhundert beträgt. Vergleicht man dies mit den landgestützten CONUS-Messungen der letzten 130 Jahre, so sagen sie 0,25°C voraus, wie in Abbildung 6 dargestellt, aber der vollständig „korrigierte“ NOAA-Wert beträgt 1,5°C, wie in Abbildung 3 dargestellt. Wem glauben Sie wirklich?

Ich benutzte R für die Berechnungen, die in den Abbildungen dargestellt sind, aber Excel, um die Diagramme zu erstellen. Wenn Sie die Details meiner Berechnungen überprüfen möchten, können Sie meinen GHCN R-Quellcode hier herunterladen.

None of this is in my new book Politics and Climate Change: A History but buy it anyway.

You can download the bibliography here

Link: https://wattsupwiththat.com/2020/11/24/the-u-s-national-temperature-index-is-it-based-on-data-or-corrections/

Übersetzt von Chris Frey EIKE