1

Paris-Panik: Regierungen können ihren Klima-Verpflich­tungen nicht genügen, und einige entfernen sich sogar davon

Im Gegensatz zu dem, was fast täglich in den Mainstream-Medien berichtet wird, zeigen die Daten des IPCC und der NOAA keine Zunahme extremer Wetterereignisse mit der leichten Erwärmung der Erde über die letzten 150 Jahre. Tatsächlich zeigen die Daten des IPCC und der NOAA, dass Fälle von extremen Kälteperioden, Dürren, Überschwemmungen, Hitzewellen, Hurrikanen, Tornados und Waldbränden seit Ende der 1870er Jahren alle leicht zurückgegangen oder relativ stabil geblieben sind.

Trotz dieser unwiderlegbaren Fakten haben die Führer von Nationen auf der ganzen Welt mehrere internationale Abkommen unterzeichnet, zuletzt das Pariser Klimaabkommen von 2015, das eine angeblich drohende Klimakatastrophe abwenden soll.

Das Problem ist, dass ihre Taten, sowohl als Individuen als auch durch die Politik, die sie als Regierungsführer umsetzen, nicht mit ihren Worten übereinstimmen.

Wenn der Klimabeauftragte von Präsident Joe Biden, der ehemalige US-Außenminister John Kerry, mit einem Privatjet um die Welt fliegt und dabei Zehntausende Tonnen Treibhausgase in die Atmosphäre pustet, um Auszeichnungen für seine klimapolitische Führungsrolle entgegenzunehmen oder um zu Tagungen zu reisen, bei denen er dazu aufruft, die Flugreisen der Durchschnittsbürger durch eine internationale Steuer auf Flugzeugemissionen einzuschränken, klingt seine Behauptung hohl, er mache sich Sorgen um das Schicksal der Erde. Die Behauptungen des ehemaligen Präsidenten Barack Obama, dass der Klimawandel bald Küsten und kleine Inseln überschwemmen wird, wirken ebenso unaufrichtig, wenn man erfährt, dass er nach seinem Ausscheiden aus dem Amt ein Grundstück direkt am Meer auf einer kleinen Insel gekauft hat, die kaum einen Meter über dem Meeresspiegel liegt.

Es ist schlimm, wenn die persönliche Heuchelei von Politikern zum Klimawandel öffentlich zur Schau gestellt wird. Noch schlimmer ist es, wenn sie Verträge unterzeichnen, in denen sie sich verpflichten, die Emissionen ihrer Länder zu begrenzen, nur um dann nach Hause zu gehen und eine Politik zu betreiben, die die Emissionen erhöht. Den UN zufolge ist dies genau das, was die führenden Politiker der Welt tun. Die meisten Länder stellen das heimische Wirtschaftswachstum über das Fortbestehen eines lebenswerten Planeten, sagt die U.N..

Einem aktuellen Bericht der Vereinten Nationen über die Fortschritte bei der Erfüllung der Verpflichtungen zufolge, welche die Regierungen im Pariser Klimaabkommen zur Reduzierung der Emissionen eingegangen sind, erreichen die Länder nicht ihre Ziele. In dieser Hinsicht unterscheidet sich das Pariser Klimaabkommen nicht von früheren Abkommen wie dem Kyoto-Protokoll von 1997 und der UN-Klimarahmenkonvention von 1992, in denen sich die Länder ebenfalls verpflichteten, ihre Emissionen bis zu bestimmten Terminen zu reduzieren, und munter zusahen, wie diese Termine kamen und gingen, während ihre Emissionen weiter stiegen.

Wohl nirgendwo hat sich die Beobachtung von Thomas Hobbes im „Leviathan“, dass „Pakte ohne das Schwert nur Worte sind“, mehr bewahrheitet als bei internationalen Klimaabkommen.

Mit Stand vom 26. Februar haben laut UN nur 75 der mehr als 190 Länder, die das Pariser Klimaabkommen ratifiziert haben, feste Zusagen und detaillierte Pläne zur Emissionssenkung vorgelegt, obwohl sie sich verpflichtet haben, diese Pläne bis 2020 zu erfüllen. Die meisten der Länder, die solche Pläne einreichen, sind Entwicklungsländer, die weniger als 30 Prozent der globalen Treibhausgasemissionen ausmachen. Selbst dort, so die UNO, „deutet das Niveau der Ambitionen … darauf hin, dass die Veränderungen in den Gesamtemissionen dieser Länder gering wären, weniger als -1% im Jahr 2030 im Vergleich zu 2010 … [wohingegen der] IPCC im Gegensatz dazu angedeutet hat, dass die Emissions-Reduktionsbereiche zur Erreichung des 1,5°C-Temperaturziels etwa -45% im Jahr 2030 im Vergleich zu 2010 betragen sollten.“

Ob von großen oder kleinen Emittenten – die Pariser Klimazusagen sind unzureichend, um das Ziel zu erreichen, und selbst diese begrenzten Zusagen fallen auf die Realitäten der Nationen zurück, die die Armutsbekämpfung und das Wirtschaftswachstum (meiner Meinung nach zu Recht) über die Klimaschutzmaßnahmen stellen, welche notwendigerweise den Energieverbrauch und den wirtschaftlichen Fortschritt einschränken.

Schauen wir uns einige Beispiele an. Indien ist der drittgrößte Treibhausgasemittent der Welt (obwohl Indien für IPCC-Zwecke als viertgrößter Emittent zählt, weil die Nationen der EU verlangen, dass sie als ein einziges Land gezählt werden). Im Rahmen des Pariser Abkommens verpflichtete sich Indien nicht, seine Emissionen zu senken, sondern versprach stattdessen, die Emissionsintensität (Emissionen in Prozent des BIP) zu reduzieren. Infolgedessen stellt die UNO fest: „Mit den derzeitigen Energiezielen und -politiken werden [Indiens] Emissionen voraussichtlich weiter ansteigen (um 24-25 Prozent über das Niveau von 2019 im Jahr 2030) und zeigen keine Anzeichen für ein Erreichen des Höchststandes, insbesondere aufgrund des Fehlens einer Politik zur Abkehr von Kohle. Ein solcher Anstieg der Emissionen ist nicht mit dem Pariser Abkommen vereinbar.“

Siebzig Prozent des indischen Stroms werden heute durch die Verbrennung von Kohle erzeugt, und das Land eröffnet oder erweitert 32 neue Kohleminen und Dutzende neuer Kohlekraftwerke. Indiens jüngste Schätzungen gehen davon aus, dass der Einsatz von Kohle zur Energieerzeugung bis 2030 um 40 Prozent steigen wird.

Noch schlimmer sind die Nachrichten aus China, dem größten Emittenten der Welt. Mit einem Anteil von etwa 25 Prozent an den weltweiten Emissionen ist Chinas Kohlendioxidausstoß bereits jetzt etwa doppelt so hoch wie der der Vereinigten Staaten. China hat vage angedeutet, dass es erwartet, dass seine Kohlendioxidemissionen bis 2030 ihren Höhepunkt erreichen werden. Das war seine Pariser Klimaverpflichtung. Die Frage ist, auf welchem Niveau der Höhepunkt erreicht wird.

Es könnte sogar schwierig sein, den Anstieg bis 2030 zu stoppen: Chinas kürzlich veröffentlichter Fünfjahresplan für die wirtschaftliche Entwicklung sieht keine Reduzierung der Kohlenutzung vor. Es wäre überraschend, wenn dies doch der Fall wäre. In den letzten Jahren hat China Dutzende neuer, großer Kohlekraftwerke in Betrieb genommen, und Hunderte weitere befinden sich in verschiedenen Bau-, Entwicklungs- und Planungsstadien, sowohl in China selbst als auch in Afrika, im restlichen Asien und im Nahen Osten.

Unterdessen entmutigt China den Bau neuer Wind- und Solaranlagen, die von der Nationalen Energiebehörde (NEA) als „unzuverlässig“ bezeichnet werden. Die NEA hat den Provinzen mitgeteilt, dass sie Netzkapazitäten für neue Wind- und Solarprojekte versteigern dürfen, vorausgesetzt, ein Drittel der Verträge ist für Entwickler reserviert, die bereit sind, auf Geld zu verzichten, das Chinas Regierung ihnen derzeit für zuvor entwickelte Wind- und Solarkraftwerke schuldet. Darüber hinaus werden die erfolgreichen Bieter nach der neuen Politik der NEA auf einen festen Tarif für die von den neuen Anlagen erzeugte Energie beschränkt.

Selbst Argentinien, ein relativ kleiner Emittent, wird Schwierigkeiten haben, seine Entwicklungsziele mit seiner Pariser Klimaverpflichtung in Einklang zu bringen. Auf einer kürzlich abgehaltenen Konferenz sagte Präsident Alberto Fernandez, Argentinien habe die „wahre Verpflichtung“, bis 2050 netto null Treibhausgasemissionen zu erreichen. Rigzone merkt an: „Um das zu erreichen, muss das Land bis 2025 ein Fünftel seiner Energie aus erneuerbaren Quellen gewinnen, statt wie bisher etwa 10 Prozent.“ In der Zwischenzeit kündigte Fernandez auf dem argentinischen Schiefergasvorkommen Vaca Muerta – weit weg vom Rampenlicht der internationalen Klimakonferenzen – sagt, dass die Regierung die fossilen Brennstoffe verdoppeln werde: „Heute bringen wir die Öl- und Gaswirtschaft wieder in Schwung“, sagte er, beginnend mit 5 Milliarden Dollar an staatlichen Subventionen zur Erschließung von Schiefergas-Feldern.

Unter dem Strich bleibt, dass die Welt dem Untergang geweiht ist, wenn die großen und kleinen Länder ihre Anstrengungen nicht deutlich verstärken und ihre Emissionen nicht nur auf dem Papier, sondern tatsächlich reduzieren. Obwohl ich denke, dass den Beweisen zufolge keine Klimaapokalypse bevorsteht, sagt die U.N. etwas anderes, und alle Länder im Pariser Abkommen stimmen dem zu.

Im Endeffekt verneigen sich die Regierungen vor den Klimagöttern, während sie ihr Tagesgeschäft weiterführen, indem sie ihre Leute zur Arbeit bringen und ihre Wirtschaft wachsen lassen. Wirtschaftswachstum ist notwendig, um die Massen vom Aufstand abzuhalten, und das bringt notwendigerweise einen wachsenden Energieverbrauch mit sich, einschließlich fossiler Brennstoffe. Gleichzeitig erlangen die politischen Eliten im Hintergrund immer mehr Macht und Kontrolle über das Leben der Menschen, und genau das ist es, worum es bei der Klimapanik eigentlich immer ging und geht.

[Hervorhebung vom Übersetzer]

Quellen: United Nations; Climate Realism; Gizmodo; Rigzone; EnergyWorld; The New Indian Express

Link: https://www.heartland.org/news-opinion/news/paris-panic-governments-fail-to-meet-their-climate-commitments-and-some-are-getting-farther-away

Übersetzt von Chris Frey EIKE

 




PAGES 12K: Die Eiszeit geht weiter

Ich denke, das Papier stellt einen gutgläubigen Versuch dar, den globalen Klimawandel über die letzten 12.000 Jahre zu rekonstruieren. Die Autoren waren sehr transparent, was die Daten und Verfahren angeht, und merkten sogar an, dass niemand wirklich weiß, wie man das Klima auf dieser Art von Skala rekonstruieren kann. Obwohl es sich nicht um einen Mann’schen Hockeystick oder ein Marcott’sches Durcheinander handelt, bestanden sie darauf, die niederfrequente Komponente des Klimasignals auszublenden und die hochauflösende instrumentelle Aufzeichnung direkt mit der sehr niederfrequenten, stark geglätteten Multi-Proxy-Rekonstruktion zu vergleichen. Das heißt, eine ihrer fünf Rekonstruktions-Verfahren bewahrte das niederfrequente Klimasignal (ja, ich verwende das Wort „Signal“ korrekt). Dieser Beitrag soll auf zwei Dinge hinweisen:

1. Direkte Vergleiche der instrumentellen Daten mit der Rekonstruktion verletzen die Grundprinzipien der Signaltheorie.

2.Nur das Composite Plus Scale (CPS)-Verfahren ist mit den Beobachtungen konsistent.
Verletzung der Signaltheorie, 15-Yard-Raumstrafe* und Loss of Down*

[*Diese Begriffe stammen aus dem American Football und lassen sich nicht übersetzen. Sie sind sehr grob vergleichbar mit einem Elfmeter im Fußball. A. d. Übers.]

Dies ist aus der Einleitung der Studie:

Die Datenbank ist die umfassendste derzeit verfügbare globale Zusammenstellung von bisher veröffentlichten holozänen Proxy-Temperaturzeitreihen. Sie umfasst eine Qualitäts-kontrollierte Sammlung von hochauflösenden Zeitreihen (durchschnittlicher Probenabstand von 164 Jahren) mit gut etablierten Zeitskalen (durchschnittlich 1,0 Alterskontrollpunkte pro 1000 Jahre), die aus einer viel größeren Sammlung von Temperatur-sensitiven Proxy-Aufzeichnungen ausgewählt wurde. Die Multi-Proxy-Datenbank umfasst insgesamt 1319 Paläo-Temperaturaufzeichnungen von 470 terrestrischen und 209 maritimen Standorten, an denen ökologische, geochemische und biophysikalische Proxy-Indikatoren verwendet wurden, um auf vergangene Temperaturänderungen zu schließen. Unter der Vielzahl der Proxy-Typen sind Alkenone und Isotope die dominierenden Proxy-Typen für die Meeresoberflächentemperatur, während Pollen und Chironomiden die häufigsten terrestrischen Temperatur-Proxy-Typen sind. Die meisten Aufzeichnungen (97 %) sind als quantitative, auf °C kalibrierte Temperaturrekonstruktionen verfügbar, während die restlichen 42 Aufzeichnungen nicht-quantitative, Temperatur-sensitive Proxy-Aufzeichnungen darstellen.

Kaufman, D., McKay, N., Routson, C. et al., 2020

Dies ist aus „Timing and magnitude of peak Holocene global temperature“:

Um den wahrscheinlichen Bereich der zeitlichen Auflösung der GMST-Rekonstruktion einzugrenzen, konzentrieren wir uns auf Intervalle von 1000 und 200 Jahren und quantifizieren den Unterschied in der Größe und dem Zeitpunkt des Höhepunktes der Erwärmung (Abb. 4).

Kaufman, D., McKay, N., Routson, C. et al., 2020

In meinem vorherigen Beitrag habe ich die Rekonstruktion so behandelt, als hätte sie eine 100-Jahre-Auflösung…
Während ich immer noch denke, dass die Arbeit eine sehr gute paläoklimatologische Leistung ist, ist dieser Absatz in keiner Weise wissenschaftlich belegbar.

Die Verteilung der globalen Spitzentemperaturen während des Holozäns kann auch mit den jüngsten Temperaturen verglichen werden. Die GMST der letzten Dekade (2011-2019) lag im Durchschnitt 1 °C höher als 1850-190011. Für 80 % der Ensemblemitglieder übertraf kein 200-Jahres-Intervall während der letzten 12.000 Jahre die Wärme der jüngsten Dekade. Für die anderen 20 % der Fälle, die hauptsächlich aus der CPS-Rekonstruktion stammen, übertraf mindestens ein 200-Jahres-Intervall die jüngste Dekade. Dieser Vergleich ist konservativ im Kontext der für den Rest dieses Jahrhunderts und darüber hinaus prognostizierten Temperaturen, die sehr wahrscheinlich 1 °C über der vorindustriellen Temperatur liegen werden. Solche Projektionen stellen die Temperatur des letzten Jahrzehnts in einen langfristigen Kontext, der besser mit der holozänen GMST-Rekonstruktion vergleichbar ist. Wenn die Rekonstruktion außerdem durch eine Verzerrung des Sommers der nördlichen Hemisphäre beeinflusst wird (siehe unten), dann würde die Spitzenerwärmung überschätzt werden und die jüngste Erwärmung würde daher im Vergleich noch stärker hervorstechen.

Kaufman, D., McKay, N., Routson, C. et al., 2020

Die Rekonstruktion kann keine Temperaturänderungen auf dekadischer Skala auflösen. Bei der Auflösung der Rekonstruktion wäre HadCRUT4 ein einzelner Datenpunkt bei 0,23 °C.

Die Eiszeit geht weiter

Folgendes hatten die Autoren über die CPS-Rekonstruktionsmethode zu sagen…

Unter den fünf Rekonstruktionsverfahren sticht CPS mit seinen großen Temperaturänderungen hervor (Abb. 3), vor allem auf der Nordhemisphäre (Abb. 1 und 2). Zum Beispiel zeigt das mediane Ensemble-Mitglied der CPS-Rekonstruktion, dass sich die GMST zwischen 12 und 10 ka um etwa 3,9 °C erwärmt hat, verglichen mit etwa 1,1 °C für die anderen Verfahren. Die mediane GMST während des Zeitraums um 6 ka, dem langjährigen Zielwert für paläoklimatische Modellexperimente (z. B. Ref. 15), war in der CPS-Rekonstruktion um 1,1 °C wärmer als das 19. Jahrhundert, verglichen mit etwa 0,4-0,5 °C für die anderen Verfahren (Tabelle 1).

(…)

Obwohl es sich um einen Ausreißer handelt, haben wir keine unwiderlegbaren Beweise, um die CPS-Rekonstruktion auszuschließen, und können nicht ausschließen, dass die anderen Rekonstruktionsverfahren die Gesamtvarianz unterschätzen. Das Ergebnis des CPS-Verfahrens hängt von der Gültigkeit des für die Skalierung verwendeten Ziels ab, was schwer zu überprüfen ist. Die hohe Amplitude der durch CPS rekonstruierten Temperaturänderungen könnte chronologische und andere Unsicherheiten widerspiegeln, die die Temperaturvarianz auf der Hundertskala während des Zusammensetzens ausmitteln und dadurch die relative Größe der Varianz auf der Jahrtausendskala im Verbund erhöhen. Wenn das Komposit dann auf die Rekonstruktionen der letzten zwei Jahrtausende skaliert wird, die eine realistischere Varianz auf der Jahrtausendskala aufweisen, wird die Varianz auf der Jahrtausendskala (und damit die langfristigen Trends) künstlich aufgebläht. Nichtsdestotrotz trägt CPS als unabhängiger Ansatz zu einer vollständigeren Abtastung des Unsicherheitsraums bei. Daher behalten wir CPS als ein Fünftel des Multi-Methoden-Ensembles bei, und wir konzentrieren uns auf den Median und nicht auf den Mittelwert als beste Darstellung der zentralen Tendenz des Ensembles. Der Ausschluss von CPS aus dem Ensemble hat wenig Einfluss auf den Median der GMST-Rekonstruktion. Zum Beispiel ist der Median des Ensembles für das mittlere Holozän (6,5-5,5 ka) nur um 0,05 °C kühler, wenn man die CPS-Mitglieder ausschließt; der Median des Fünf-Methoden-Ensembles beträgt 0,51 °C (0,19, 1,35) gegenüber 0,46 °C (0,17, 0,79), wenn man die CPS-Mitglieder ausschließt.

Kaufman, D., McKay, N., Routson, C. et al., 2020

Sie ließen zähneknirschend CPS in der Mischung, denn: „Obwohl es ein Ausreißer ist, haben wir keine unwiderlegbaren Beweise, um die CPS-Rekonstruktion auszuschließen, und können die Möglichkeit nicht ausschließen, dass die anderen Rekonstruktionsverfahren die Gesamtvarianz unterschätzen.“

Allerdings hätten sie leicht Beweise finden können dafür, „dass die anderen Rekonstruktionsverfahren die Gesamtvarianz unterschätzen.“ CPS ist das einzige Verfahren, das das holozäne Klimaoptimum, die römische Warmzeit, die mittelalterliche Warmzeit und die Neu-Vergletscherung eindeutig auflöste…

Abbildung 3: CPS mit historischen Klima-Perioden und Neu-Vergletscherung (Grosjean et al., 2007)

[Hinweis: Die Abbildungen 1 und 2 sind bis Redaktionsschluss am 28.3. auch im Original nicht existent]

Ich habe einen Plot von CPS als Overlay von Abbildung 3 aus dem PAGES 12K-Paper erstellt und den 2K-Inset mit den historischen Klimaperioden und der Neoglazialisierung aus Grosjean et al., 2007 und einer Nordamerika-Eisausdehnungskarte aus Dyke et al., 2003 ersetzt. Ich habe auch ein 2σ-Konfidenzband aus den 500 Ensemblemitgliedern eingefügt. Meine Version des CPS-Mittelwerts ist die gestrichelte orangefarbene Kurve…

Abbildung 4. CPS mit historischen Klimaperioden und Neu-Vergletscherung (Grosjean et al., 2007) und früh-holozäne Eisausdehnungskarte (Dyke et al., 2003)

Sieht die nordamerikanische Eisausdehnung vor 12.000 Kalenderjahren eher 1 °C kühler aus als 1800-1900? Oder 4 °C kühler?

OK… geophysikalische Trägheit könnte erklären, wie es bei Temperaturen, die nur 1 °C kühler waren als 1800-1900, immer noch so viel Eis gegeben haben kann, aber ich glaube nicht, dass es das hier erklären kann:

Abbildung 5. CPS mit historischen Klimaperioden und Neoglazialisierung (Grosjean et al., 2007), frühholozäne Eisausdehnungskarte (Dyke et al., 2003) und Alpen-Baumgrenzenhöhe (Bohleber et al., 2021).

Die anderen vier Verfahren zeigen sehr geringe Temperaturänderungen von vor 9.500 Jahren bis 1850 n. Chr… Ein Zeitraum, von dem wir wissen, dass es in den ersten 5.000 Jahren einen massiven Eisrückgang und in den meisten der folgenden 4.500 Jahre einen Eisvorstoß (Neoglazial) gab. CPS ist das einzige der vier Verfahren, das mit der holozänen Entwicklung der Eisschilde und Gletscher in der nördlichen Hemisphäre übereinstimmt. Das ist auch konsistent mit der holozänen Entwicklung des arktischen Meereises.

Abbildung 6. CPS (rechts) mit Profilen der Ausdehnung des Meereises (Stein et al., 2017)

Das CPS-Verfahren ist eindeutig konsistent mit den nahezu eisfreien Bedingungen von vor 10.000 bis 5.000 Jahren und der neoglazialen Ausdehnung des Meereises von vor 5.000 Jahren bis Mitte des 18. Jahrhunderts. Die anderen vier Verfahren deuten auf eine sehr geringe Temperaturveränderung über diesen Zeitraum hin.

Was ist mit der Sommerverzerrung der nördlichen Hemisphäre?

Drei der vier Verfahren zeigen alle einen flachen Verlauf in der Arktis. Nur das PAI-Verfahren (Paarweiser Vergleich) zeigt eine angemessene Temperaturänderung für die Meereisentwicklung. Allerdings ist CPS das einzige Verfahren, das ein signifikantes ΔT im Bereich der gemäßigten Breiten der Nordhemisphäre aufweist.

Abbildung 7: Abbildung 2 aus Kaufman, D., McKay, N., Routson, C. et al., 2020

Die überwiegende Mehrheit der Alpen-/Talgletscher (wie in den Alpen und im Glacier National Park) befindet sich in den gemäßigten Breiten. Diese Gletscher bildeten sich nach dem holozänen Klimaoptimum, erreichten ihre Spitzenausdehnung in der Mitte des 18. Jahrhunderts und zogen sich dann im Allgemeinen auf ihre derzeitigen Positionen zurück. CPS ist das einzige Verfahren, das damit in Einklang zu stehen scheint.

Bestätigungs-Bias!

Falls man bei einer Frage die Möglichkeit hat, fünf Antworten auszuwählen:

1. Sieht korrekt aus

2. Sieht vermutlich korrekt aus

3. Offensichtlich falsch

4. Offensichtlich falsch

5. Offensichtlich falsch

Würden Sie die Antwort auswählen, die richtig aussah? Oder würden Sie den Durchschnitt der fünf Antworten bilden, um zu einem Konsens zu kommen?

Ausmerzen unbequemer Wahrheiten

Seit den Tagen von Climategate versucht Climate Cancel Culture aktiv, das niederfrequente Klimasignal auszulöschen. Dies ist kein neuer Kampf:

Was würde es also bedeuten, wenn die Rekonstruktionen eine größere (Esper et al., 2002; Pollack und Smerdon, 2004; Moberg et al., 2005) oder kleinere (Jones et al., 1998; Mann et al., 1999) Temperaturamplitude anzeigen? Wir vermuten, dass die erstere Situation, d.h. eine erhöhte Variabilität während der vorindustriellen Zeit, zu einer Umverteilung des Gewichts in Richtung der Rolle natürlicher Faktoren bei der Erzwingung von Temperaturänderungen führen würde, wodurch der Einfluss anthropogener Emissionen relativ abgewertet und zukünftige Vorhersageszenarien beeinflusst würden. Sollte sich dies bewahrheiten, wären Vereinbarungen wie das Kyoto-Protokoll, die auf eine Reduzierung der anthropogenen Treibhausgasemissionen abzielen, weniger effektiv als gedacht.

Esper et al., 2005

Hockeyschläger sind in der Regel das Ergebnis der Dämpfung der Amplitude des niederfrequenten Klimasignals und des anschließenden Aufspleißens der hochauflösenden Instrumentaldaten. Das Hockey-Team hat die Stempelkultur erfunden:

CRU-E-Mail #1140039406. Diese E-Mail, datiert auf den 15. Februar 2006, dokumentiert den Austausch zwischen mehreren Klimawissenschaftlern, einschließlich des stellvertretenden Direktors der CRU, in Bezug auf ihre Beiträge zu Kapitel sechs des IPCC AR4. In einem solchen Austausch warnte der stellvertretende Direktor der CRU seine Kollegen davor, „sich von [dem Co-Vorsitzenden der AR4 WGl] (oder [einem Forscher an der Pennsylvania State University]) über das hinaus drängen zu lassen, von dem wir wissen, dass es richtig ist“ in Bezug auf die Angabe von „Schlussfolgerungen im AR4, die über das hinausgehen, was wir sicher rechtfertigen können“.

Keith Briffa von der CRU warnte seine Kollegen davor, sich von Susan Solomon von der NOAA oder Michael Mann von der Penn State dazu zwingen zu lassen, unhaltbare Schlussfolgerungen zu ziehen. Dieser spezielle E-Mail-Austausch befasste sich ausgiebig mit Paläoklima-Rekonstruktionen. Briffa forderte seine Kollegen auch auf, Anders Moberg nicht „anzugreifen“, der vor kurzem eine Klimarekonstruktion veröffentlicht hatte, die die Daten tatsächlich würdigte und korrekte Verfahren der Signalverarbeitung verwendete.

Susan Solomon ist die NOAA-Beamtin, die behauptete, dass die Arbeit der NOAA im Zusammenhang mit dem IPCC nicht dem FOIA unterliege. Michael Mann war der Hauptautor des gründlich entlarvten Original-Hockeysticks. Der verstorbene Keith Briffa war der Hauptautor einer der problematischen Rekonstruktionen, in denen „Mikes Naturtrick“ angewendet wurde, um den Rückgang zu „verstecken“. Glücklicherweise haben sich Wissenschaftler wie Jan Esper, Anders Moberg, etc. nicht dem Mobbing unterworfen.

Also… Hut ab vor Kaufman, McKay, Routson und den et al dafür, dass sie die CPS-Rekonstruktion nicht gelöscht haben, um den Anstieg und den Rückgang des holozänen Klimaoptimums zu verbergen…

References

Bohleber, P., Schwikowski, M., Stocker-Waldhuber, M. et al. New glacier evidence for ice-free summits during the life of the Tyrolean Iceman. Sci Rep 10, 20513 (2020). https://doi.org/10.1038/s41598-020-77518-9

Dyke, A.S., Moore, A. and L. Robertson. [computer file]. Deglaciation of North America. Geological Survey of Canada Open File 1547. Ottawa: Natural Resources Canada, 2003.

Esper, J., R.J.S. Wilson,  D.C. Frank, A. Moberg, H. Wanner, & J. Luterbacher.  2005.  “Climate: past ranges and future changes”.  Quaternary Science Reviews 24: 2164-2166.

Grosjean, Martin, Suter, Peter, Trachsel, Mathias & Wanner, Heinz. (2007). “Ice‐borne prehistoric finds in the Swiss Alps reflect Holocene glacier fluctuations”. Journal of Quaternary Science. 22. 203 – 207. 10.1002/jqs.1111.

Kaufman, D., McKay, N., Routson, C. et al. Holocene global mean surface temperature, a multi-method reconstruction approach. Sci Data 7, 201 (2020). https://doi.org/10.1038/s41597-020-0530-7

Stein, R. , Fahl, K. , Schade, I. , Manerung, A. , Wassmuth, S. , Niessen, F. and Nam, S. (2017), Holocene variability in sea ice cover, primary production, and Pacific‐Water inflow and climate change in the Chukchi and East Siberian Seas (Arctic Ocean). J. Quaternary Sci., 32: 362-379. doi:10.1002/jqs.2929 stein2017

Link: https://wattsupwiththat.com/2021/03/26/pages-12k-the-ice-age-goeth/

Übersetzt von Chris Frey EIKE

 




Das haut sogar ein Pferd um: Die Deutsche Geophysi­kalische Gesell­schaft und ihr Verständnis für wissen­schaftliche Diskussionen jedweder Art

Treibt der mittelalterliche Wind der gesellschaftspolitischen Klimareligion auch die seriöse Wissenschaft vor sich her?

Sie erinnern Sich vielleicht noch an meinen Postergucker-Artikel hier auf EIKE, wo ich die Widersprüche aus zwei Academia-Veröffentlichungen von Kramm (2020-1 und 2020-2) gegenübergestellt hatte. Später hatte Kramm sein Academia-Paper (2020-2), „Kommentar zu WEBERS Beitrag ‚Weitere Überlegungen zur hemisphärischen Herleitung einer globalen Durchschnittstemperatur‘“ als Kommentar zu Weber (2019) in den Mitteilungen der Deutschen Geophysikalischen Gesellschaft Nr. 2/2020 untergebracht, ohne dass dies als Zweitveröffentlichung gekennzeichnet worden war.

Nach althergebrachtem Wissenschaftsverständnis hatte ich der DGG unverzüglich meine Erwiderung zu diesem Kommentar übersandt, in der die Skandalisierungen meines hemisphärischen S-B-Modells durch ausschließende gegenteilige Eigenschaften (Disjunktionen) sowie in ihr Gegenteil verkürzte Textzitate nachprüfbar bewiesen werden; weiterführende Informationen finden Sie im Addendum. Trotz ihrer wissenschaftlichen Verantwortung aus der Veröffentlichung des besagten Kommentars von Kramm (@DGG 2/2020) hatte die Deutsche Geophysikalische Gesellschaft in neuhergebrachtem Wissenschaftsverständnis eine Veröffentlichung dieser Erwiderung abgewiesen. Die DGG fühlte sich sogar ermächtigt, die von ihr selbst ausgelöste öffentliche Diskussion auf eine rein persönliche Ebene zu verschieben, Zitat aus der betreffenden E-Mail vom 17.02.2021:

[…..] Nach intensiver Diskussion innerhalb der Redaktion und in Absprache mit dem Präsidium der DGG haben wir uns allerdings entschlossen, Ihren Beitrag nicht in das Heft 1/2021 aufzunehmen. Diese Entscheidung möchten wir im Folgenden begründen:

Ihre in den Mitteilungsheften 2/2016 und 1/2019 erschienenen Arbeiten sollten eine wissenschaftliche Diskussion Ihrer Ansätze anregen. Leider ist der umfangreiche Beitrag von Herrn Kramm im Heft 2/2020 der einzige Kommentar zu diesen Arbeiten, der uns erreicht hat. Daher sind wir der Meinung, dass die DGG-Mitteilungen nicht das richtige Medium für diese Fragen und die zwischen Herrn Kramm und Ihnen geführte Diskussion sind. Stattdessen sollten Sie die wissenschaftliche Kommunikation zumindest zum jetzigen Zeitpunkt am sinnvollsten direkt mit Herrn Kramm führen. […..]

Wir haben Ihre Erwiderung jedoch zum Anlass genommen, im Mitteilungsheft 1/2021 noch einmal Sinn und Zweck der DGG-Mitteilungen darzustellen.“

Allerdings hieß es ein paar Monate vorher im „Vorwort der Redaktion“ zu den Mitteilungen der Deutschen Geophysikalischen Gesellschaft Nr. 2/2020 noch vollmundig, Zitat mit Hervorhebungen:

Im vorliegenden Heft gibt es diesmal nur einen wissenschaftlichen Beitrag, den Kommentar von Gerhard KRAMM zu einem kontroversen Artikel von Ulrich O. Weber. Dies zeigt, dass die Roten Blätter auch eine Plattform für wissenschaftliche Diskussionen jedweder Art sind.“

Und ausgerechnet dieser Diskussion hatte die Deutsche Geophysikalische Gesellschaft dann auch noch das Titelbild ihrer Mitteilungen Nr. 2/2020 gewidmet:

Abbildung 1: Ausschnitt von der Titelseite der DGG-Mitteilungen Nr. 2/2020 mit „Figure 2“ aus Kramm et al. (2017)

Aktueller Stand: Meiner konkreten E-Mail-Nachfrage vom 19.02.2021 zur wissenschaftlichen Verantwortung der Deutschen Geophysikalischen Gesellschaft für die von ihr selbst initiierte öffentliche wissenschaftliche Diskussion in ihren Mitteilungen 2/2020 hatte sich deren Vorstand nicht gestellt – o tempora, o mores – tu quoque, Societas Germanica Geophysical?

Aber das muss ja noch längst nicht das Ende sein: In seiner E-Mail* vom 17. Januar 2021 um 05:05 Uhr an mich und den üblichen Skeptiker-Email-Verteiler hatte Dr. Gerhard Kramm mit ausdrücklichem Bezug auf William et al. (2017) eine Abbildung, nachfolgend „Kramm (2021)“, mit einem eigenartigen Vergleich zwischen meinen hemisphärischen S-B-Temperaturen für die Tagseite des Mondes und einem „zonalen lunaren Mittel“ verschickt, Zitat aus dieser E-Mail*:

Dass der Ansatz des lokalen Strahlungsgleichgewichtes, worauf Ihr hemisphärischer Stefan-Boltzmann-Ansatz beruht, im Falle des Mondes Ergebnisse liefert, die völlig realitätsfern sind, belegt der nachfolgend veranschaulichte Vergleich der Modellergebnisse mit den bolomentrischen Temperaturen des ‘LRO Diviner Lunar Radiometer Experiment‘ (siehe William et al., 2017).

Diese Abbildung ist als Nachtrag zu meinem Kommentar [bei der Deutschen Geophysikalischen Gesellschaft] vorgesehen, der in den kommenden Tagen eingereicht wird.“

Abbildung 2: „Vergleich der Modellergebnisse mit den bolomentrischen Temperaturen des ‘LRO Diviner Lunar Radiometer Experiment‘ (siehe William et al., 2017)“ von Dr. Gerhard Kramm (2021)*

Für den Fall der Fälle nehme ich meiner Deutschen Geophysikalischen Gesellschaft gern die intellektuelle Bürde ab, die Abbildung Kramm (2021) VOR einer möglichen Veröffentlichung auf ihre physikalische Substanz hin zu überprüfen, denn HINTERHER ist ihr ja nicht mehr zu helfen:

Halten wir hier zu Abbildung 2 zunächst einmal fest: Die Messergebnisse von Williams et al. (2017, schwarz) und das Modell von Kramm et al. (2017, rot) stimmen in etwa überein, während mein hemisphärischer S-B-Ansatz (Teq = grün) offenbar geringere Temperaturwerte aufweist. Ist das ein Beweis gegen meinen hemisphärischen S-B-Ansatz? – Nun, dazu müssen wir zunächst einmal wissen, was dort überhaupt als „veranschaulichte[r] Vergleich der Modellergebnisse“ dargestellt worden ist, also schauen wir mal:

Fragestellung 1: Sind Diffamierungen mittels ausschließender Eigenschaften (Disjunktionen) zulässige Beweise in den Naturwissenschaften?

Dargestellt wurde hier eine „zonal gemittelte Temperatur in Kelvin“ auf dem Mond gegen die geographische Breite von 90° bis -90°. Die Angabe „PhiSS=180°E“ bedeutet, dass die Sonne senkrecht auf der geographischen Länge 180° steht, also auf der Rückseite des Mondes; und damit herrscht aus Sicht von der Erde gerade Neumond. Einer solchen Darstellung steht schon mal die Gültigkeit meines hemisphärischen S-B-Ansatzes entgegen. Denn meine hemisphärisch berechneten Mondtemperaturen waren lediglich ein Beweis für das maximal erreichbare S-B-Temperaturäquivalent auf der Tagseite eines erdähnlichen Himmelskörpers ohne Atmosphäre (Beschreibung hier auf EIKE). Anders als die üblichen Mond-Modellierungen mit einem begrenzten Regolith-Wärmespeicher, ergibt sich in meinem hemisphärischen S-B-Modell aufgrund der fehlenden Sonneneinstrahlung eine nachtseitige Temperatur von 0 Kelvin, wobei dieser modellimmanente Unterschied zwischen 0k und ca. 70K nach dem Stefan-Boltzmann-Gesetz lediglich ca. 2W/m² beträgt. Die Darstellung Kramm (2021) stellt also 3 breitenabhängige Temperaturkurven mit gemittelten Durchschnittswerten für die Tag-und Nachtseite des Mondes dar, wobei verschwiegen wird, dass mein hemisphärischer S-B-Ansatz ausdrücklich nicht für die Nachseite des Mondes gilt. Denn in meinem hemisphärischen S-B-Modell wird die Temperatur der Nachtseite unserer Erde über die S-B-Umgebungsgleichung und den Wärmeinhalt von Atmosphäre und Ozeanen erklärt. Dieses Graphik-Konstrukt soll also offensichtlich meinen hemisphärischen S-B-Ansatz für die Tagseite des Mondes durch eine ausschließende Eigenschaft (Disjunktion) zielgerichtet diskreditieren, nämlich durch eine verschleierte Einbeziehung der nachtseitigen Temperaturen.

Anstelle der von Kramm üblicherweise propagierten Faktor4-Tag=Nacht-Mittelung hatten Kramm et al. (2017) in ihrer „Figure 10“ dieses breitenabhängige Stefan-Boltzmann-Temperaturäquivalent und die breitenabhängige solare Leistungsdichte über den 24h-Tag sogar selbst dargestellt:

Abbildung 3: Variation of the (a) surface temperature and (b) absorbed solar radiation for numerous parallels of latitude in case of the Earth in the absence of its atmosphere. Figure 10 aus Kramm et al. (2017), Creative Commons Attribution International License (CC BY 4.0)

Stellen Sie Sich in Abbildung 3a (links) für jede einzelne Temperaturkurve jetzt einmal deren Mittelwert vor (PHI=0°-89°, alle Kurven = 0K von 6h bis 18h) und tragen diesen Wert jeweils nördlich und südlich gegen die geographische Breite (PHI=-89°-0°-89°) auf. Der äquivalente lunare Verlauf einer solchen breitenabhängigen Durchschnittskurve würde ausgerechnet auf die grüne Kurve in Abbildung 2 fallen, von der Kramm behauptet hatte, sie sei „voellig realitaetsfern“.

Auffälligkeit 1: Es handelt sich bei der Graphik „Kramm (2021)“ um einen willkürlichen Äpfel&Birnen-Vergleich, bei dem die Birnen dafür diskreditiert werden, dass sie keine Äpfel sind.

Fragestellung 2: Sind mathematische Konstruktionen jenseits jeder physikalischen Relevanz bereits Manipulationen?

Was für Temperaturen werden in der Graphik von Kramm (2021) nun genau dargestellt? Schauen wir uns dazu einmal einen direkten Abgleich zwischen Kramm (2021) und Williams et al. (2017) an. Dort ist festzustellen, dass letztere ihre zonalen Mond-Temperaturen streng nach Tag und Nacht unterschieden hatten:

Abbildungen 4: Zonaler Mittelwert Kramm (2021*, links), Abbildungen 8(a=Tag, Mitte) und (c=Nacht, rechts) von Williams et al. (2017) mit insgesamt 24 zonalen Temperaturkurven entlang der lunaren Zeitzonen

Anmerkung: Alle Abbildungen haben unterschiedliche Vertikalmaßstäbe für die Temperatur

Kramm (2021) führt jetzt also, entgegen den 24 Temperaturkurven von Williams et al. (2017) entlang der Zeitzonen, einen einzigen „zonalen Mittelwert“ für die Tag- und Nachtseite über die Breitenkreise des Mondes ein. Ein solcher Durchschnittswert erscheint in der Arbeit von Williams et al. (2017) aber gar nicht, vielmehr ergibt sich die Abbildung Kramm (2021) als breitenabhängiger Mittelwert aus den Temperaturen 8(a=Tagseite) und 8(c=Nachtseite) von Williams et al. (2017), also als ein zonales Tag&Nacht-Mittel. Schaunmeralsomal anhand einer Originalabbildung von Williams et al. (2017), wie die Graphik von Kramm (2021) zu verstehen ist:

Abbildung 5: Williams et al. (2017) Fig. 5a, „Global instantaneous temperatures of the Moon in (a) cylindrical equidistant projection (ϕ = 180°)” mit der Nachtseite im Zentrum (Neumond) — Übersetzung: Globale Momentantemperaturen des Mondes in (a) zylindrischer äquidistanter Projektion

Die 24 Kurven von Williams et al. (2017) in der Abbildung 4 für die stündlichen Zeitzonen (hour0 – hour23) zeigen also alle 15° geographischer Länge ein Nord-Süd-Temperaturprofil auf der Mondoberfläche, die den jeweiligen N-S-Temperaturverläufen in Abbildung 5 entspricht. Dagegen stellt Kramm (2021) den jeweiligen Durchschnittswert über alle 24 Zeitzonen derselben geographischen Breite in einer einzigen Nord-Süd-Temperaturkurve für die gesamte Mondoberfläche dar. Natürlich ist die Berechnung eines solchen realitätsfernen zonalen lunaren Tag&Nacht-Mittels rein mathematisch möglich, ergibt allerdings physikalisch überhaupt keinen Sinn. Der Unterschied zwischen Mathematik und Physik sind nämlich nicht nur die physikalischen Einheiten, sondern auch die zwingende Notwendigkeit, dass sich physikalische Ergebnisse in die beobachtete Realität zurückentwickeln lassen.

Für die Tagseite des Mondes sind die bei Kramm (2021) gezeigten Durchschnittswerte aber nun zu niedrig und für die Nachtseite zu hoch. Deren physikalische Aussage spielt sich also in Abbildung 5 irgendwo in der türkis-gelb-orangen Zone zwischen Mond-Tag (rot) und Mond-Nacht (blau) ab. Für die breitenabhängigen Durchschnittswerte nach Kramm (2021) existiert zu einem beliebigen Zeitpunkt des 24h-Mond-Tages also in jeder der beiden Dämmerungszonen (türkis-gelb-orange) jeweils eine einzige nicht näher definierte Ortslage, die diesen Kramm‘schen Mittelwert zwischen minimaler und maximaler Temperatur annimmt. Eine solche Darstellung erinnert an den folgenden Witz aus der Frühzeit der Künstlichen Intelligenz, wo ein Atmosphärenphysiker seinen Supercomputer fragt:

Mir sind da zwei analoge Uhren angeboten worden, eine geht am Tag eine Sekunde nach und die andere ist kaputt. Welche von beiden soll ich nehmen?

Sagt der Computer: „Nimm die kaputte Uhr!

Fragt der Atmosphärenphysiker: „Warum denn das?

Sagt der Computer: „Die kaputte Uhr zeigt zwei Mal am Tag die richtige Zeit an.“

Beiden, der kaputten Uhr und der Temperaturkurve von Kramm (2021), fehlt ohne zusätzliche Informationen jeglicher Zugang zur Realität. Man könnte auch sagen, die jeweiligen Angaben sind zwar mathematisch korrekt, können aber im physikalischen Raum-Zeit-Kontinuum aus sich selbst heraus gar nicht konkret verortet werden. Gemessen an der gewöhnlichen Qualität solcher Kunstprodukte, die bereits von kritischen Laien durchschaut werden können, ist die vorliegende Graphik allerdings als hervorragende Wissenschaftsmimikry einzustufen. Selbst Fachleute dürften der dort zielweisend vorgegebenen Aussage ohne eigenes Hintergrundwissen oder eine tiefergehende eigene Recherche nichts entgegenzusetzen haben.

Auffälligkeit 2: Wir haben es bei „Kramm (2021)“ also nicht etwa mit einer Graphik zu tun, die real existierende physikalische Daten darstellt, aus denen dann konkrete wissenschaftliche Aussagen abgeleitet werden. Vielmehr werden hier die physikalischen Unterschiede zwischen Tag und Nacht mathematisch verschleiert, um ein gegebenes Vorurteil zu bestätigen.

Fragestellung 3: Ist eine Beweisunterdrückung ein taugliches Argument gegen ein unerwünschtes wissenschaftliches Modell?

 

Das S-B-Temperaturäquivalent liefert lediglich für die sonnenbeschienene Tagseite des Mondes korrekte Ergebnisse. Und die grüne Kurve in Kramm (2021) repräsentiert irgendeinen konstruierten zonalen Tag&Nacht-Durchschnitt, das die Temperaturen auf der Nachseite des Mondes einschließt. Williams et al. (2017) stützen nun aber ausdrücklich meinen hemisphärischen S-B-Ansatz für die Tagseite des Mondes, Zitat mit Hervorhebungen:

 

The lunar regolith is highly insulating due to its low density and thermal conductivity (Linsky, 1966, Cremers and Birkebak, 1971, Keihm and Langseth, 1973) and therefore heat flow into the subsurface during the day is small compared to the incident solar flux (Vasavada et al., 1999, 2012). Daytime temperatures can therefore be approximated from the balance of incoming solar flux and outgoing thermal emission:”

Der Google-Übersetzer: „Der Mondregolith ist aufgrund seiner geringen Dichte und Wärmeleitfähigkeit hochisolierend (Linsky, 1966, Cremers und Birkebak, 1971, Keihm und Langseth, 1973) und daher ist der Wärmefluss in den Untergrund während des Tages im Vergleich zum einfallenden Sonnenfluss gering (Vasavada et al., 1999, 2012). Die Tagestemperaturen können daher aus dem Gleichgewicht des einfallenden Sonnenflusses und der ausgehenden Wärmeabgabe angenähert werden:“

Also: Bis auf eine Emissivität EPSILON von 0,95 (WEBER 2019 ohne Speicherung: EPSILON = 1) und einer breitenabhängigen Albedo (WEBER 2019: Albedo = const.) entspricht mein hemisphärischer S-B-Ansatz dem Ansatz von Williams et al. (2017) für die Tagseite des Mondes, Zitat (übersetzt): „Die Tagestemperaturen können daher aus dem Gleichgewicht des einfallenden Sonnenflusses und der ausgehenden Wärmeabgabe angenähert werden“. Einen Abgleich meiner hemisphärischen Tagestemperaturen mit Williams et al. (2017) in gleicher Farbgebung hatte ich bereits in meinem EIKE-Artikel „Neues von Willis Eschenbach“ vom 23. Februar 2020 dargestellt:

Abbildung 6: Qualitativer Temperaturvergleich für die Tagseite des Mondes. Links: Montage aus der Abbildung 5a von Williams et al. (2017) mit der Tagseite des Mondes im Zentrum. Rechts: Das S-B-Temperaturäquivalent @12h, hinterlegt mit der Farbskala von Williams et al. (2017)

Wenn man die Mond-Temperaturen aus der Abbildung von Williams et al. (2017) über den Tagesverlauf mit der hemisphärischen S-B-Temperaturkurve vergleicht, ergibt sich eine sehr ordentliche qualitative Übereinstimmung; es wird aber auch deutlich, dass die Nachttemperaturen unter 50K (violett) bei Williams et al. (2017) nicht erreicht werden. Die unterschiedlichen radialen Farbverläufe bei Williams et al. (2017) spiegeln die Variabilität der örtlichen Mondalbedo und die Topographie wider, die in einem solchen pauschalen S-B-Ansatz nicht berücksichtigt werden können.

Auffälligkeit 3: Die Graphik „Kramm (2021)“ verbreitet eine hochartifizielle und realitätsferne mathematische Mittelwertbildung unter Berufung auf Williams et al. (2017), wobei ausgerechnet deren eindeutige Bestätigung meines hemisphärischen S-B-Ansatzes für die Temperaturberechnung auf der Tagseite des Mondes unterdrückt wurde.

Fazit: In der Überzeugung, eine rein mathematische Designer-Graphik wie „Kramm (2021)“ bei der Deutschen Geophysikalischen Gesellschaft einfach mal eben als Nachtrag zu seinem Kommentar unterbringen zu können, schwingt auch die Geringschätzung eines international bekannten Atmosphärenphysikers gegenüber deren fachlicher Kompetenz mit; schließlich war ein solches „ad auditores“ (vordergründig plausibel für ein Publikum ohne tiefere Sachkenntnis) bereits einmal erfolgreich gewesen. Ich hoffe daher, der DGG mit meiner Analyse dieser Graphik ggf. rechtzeitig aufs wissenschaftliche Pferd helfen zu können…

Addendum: Den Link zur Kramms Academia-Veröffentlichung finden Sie hier und die entsprechende DGG-Version auf seiner Homepage (im Kommentar einfach den Namen anklicken); meine DGG-Veröffentlichung aus 2019 finden Sie hier ab Seite 18, und die Erwiderung zu Kramm@DGG 2/2020 ist nachstehend verlinkt:

2020-12-07 Erwiderung auf Kramms DGG-Kommentar-uw

Konkurrierende physikalische Modelle schließen sich gegenseitig aus. Deshalb können sich solche Modelle auch nicht gegenseitig widerlegen; eine solche Widerlegung kann nur über die gemeinsamen physikalischen Grundlagen erfolgen. Gerne wiederhole ich für meine Kritiker daher abschließend noch einmal die Widerlegungsanforderung für meinen hemisphärischen S-B-Ansatz über einen physikalischen Tag=Nacht-Beweis, Zitat:

Wenn also wissenschaftlich eindeutig nachgewiesen würde, dass die Gleichsetzung der Energiebilanz unserer Erde (Fläche einer Kugel) mit der strengen thermischen Gleichgewichtsforderung des Stefan-Boltzmann Gesetzes für die bestrahlte Fläche (Halbkugel) physikalisch korrekt ist, dann bin ich tatsächlich widerlegt.“

*) Erklärung: Um jedweden Beschwerden vorzubeugen, bestätige ich hiermit, ein direkter „An“-Empfänger der o. g. E-Mail vom 17. Januar 2021 um 05:05 Uhr mit der Abbildung „Kramm (2021)“ (hier Abb.2 und Abb.3 links) zu sein, ebenso, wie u. a. auch die Herren Lüdecke, Limburg und Kirstein, und beweise nachfolgend mit der „Confidentiality Warning“ des Dr. Gerhard Kramm die rechtmäßige Nutzung der Graphik „Kramm (2021)“, Zitat:

CONFIDENTIALITY WARNING: The information transmitted is intended only for the person or entity to which it is addressed and may contain confidential and/or privileged material. Any review, retransmission, dissemination or other use of, or taking any action in reliance upon, this information by persons or entities other than the intended recipient is prohibited. If you receive this in error, please contact the sender and delete the material from any computer.”

Der unbestechliche Google-Übersetzer bestätigt mir ausdrücklich, den Inhalt der besagten E-Mail Kramm vom 17. Januar 2021 um 05:05 Uhr rechtmäßig zitiert zu haben:

„VERTRAULICHKEITSWARNUNG: Die übermittelten Informationen sind nur für die Person oder Organisation bestimmt, an die sie gerichtet sind, und können vertrauliches und / oder privilegiertes Material enthalten. Jegliche Überprüfung, Weiterverbreitung, Verbreitung oder sonstige Verwendung oder Ergreifung dieser Informationen durch andere Personen oder Organisationen als den beabsichtigten Empfänger ist untersagt. Wenn Sie dies irrtümlich erhalten, wenden Sie sich bitte an den Absender und löschen Sie das Material von einem beliebigen Computer.

ERGO: Es verbleiben für eine erlaubte „Überprüfung, Weiterverbreitung, Verbreitung oder sonstige Verwendung oder Ergreifung dieser Informationen“ also ausschließlich die von Dr. Kramm „beabsichtigten Empfänger“, und ich bin definitiv der ERSTE „AN“-EMPFÄNGER dieser E-Mail.




Mittlere Winter-Temperatur sinkt weiter seit Beginn des Jahrhunderts

Die Winter in Island weisen seit dem Jahr 2001 Abkühlung auf

Die JMA-Daten für drei Stationen in Island (mit hinreichender Datenlage) sind hier geplottet. Ergebnis: Keine Erwärmung über die letzten 18 Winter!

Daten: JMA

Man sieht, dass einige Winter-Daten aus Island fehlen, aber die vorhandenen Daten reichen aus zu zeigen, dass die Winter dort allgemein kälter und nicht wärmer geworden sind.

Anfang dieses Jahres plotteten wir jährliche Daten für diese drei Stationen auf Island. Dabei stellte sich heraus, dass an 2 Stationen Abkühlung aufgetreten war, während an der dritten Station keine Änderung zu verzeichnen ist.

Daten: JMA 

Offensichtlich gab es in dieser Insel im Nordatlantik seit Beginn des Jahrhunderts keinerlei Erwärmung. Die Alarmisten schreien um nichts.

An Stationen in Grönland ist es kälter geworden

Schauen wir als Nächstes auf Grönland. Hier folgen die Graphiken mit den JÄHRLICHEN mittleren JMA-Daten von sechs Stationen auf Grönland. Einige davon weisen Datenlücken auf, aber sie geben dennoch ein ziemlich gutes Bild dessen, was da vor sich geht.

Daten: JMA

Auch in Grönland ist keine wirkliche Erwärmung erkennbar. Dort war seit dem Jahr 2001 alles weitgehend stabil.

Und was ist mit den Wintern in Grönland? Hier sieht man die Verhältnisse an den sechs Stationen:

Daten: JMA

Noch einmal: Die JMA-Daten für Grönland sind teilweise fragmentarisch, aber immer noch viel besser als die Baumringe von Michael Mann. Alles in allem gab es hinsichtlich der Winter in Grönland in diesem Jahrhundert nichts Ungewöhnliches.

2021: Die jahreszeitliche Schmelze in der Arktis weigert sich anzufangen

Und schließlich: Die Eisausdehnung in der Arktis setzte seinen Anstieg bis zum 21. März fort:

Vollständige Graphik und Bildinschrift von hier (deutsch).

Inschrift: Die NSIDC-Grafik (rechts) zeigt die Entwicklung der arktischen Meereisflächen (extent/Ausdehnung) im laufenden Fünf-Tage-Mittel (blaue Linie) vom 1.1.2021 bis zum Stand 23.3.2021. Nach dem Eisflächenmaximum von 14,866 Millionen km² am 11.3.2021 (Tabelle links) gab es bis zum 14.3.2021 einen leichten Rückgang auf 14,596 Mio km², dann aber bis zum 21.3.2021 ein überraschendes erneutes Wachstum der Meereisflächen auf 14.788 Millionen km². Aktuell liegen die Meereisflächen über dem Mittel 2011-2019 (hellblaue Linie). Ursache dürfte die anhaltende tief winterliche Kälte in der Zentralarktis mit Durchschnittstemperaturen im jahreszeitlichen Normalbereich um -27°C sein. Quelle: NSIDC Arctic Sea Ice Tabelle und NSIDC Arctic Sea Ice Chart

Link: https://notrickszone.com/2021/03/24/greenland-and-iceland-mean-winter-temperatures-continue-cooling-since-start-of-the-century/

Übersetzt von Chris Frey EIKE




Die Profiteure der Panikmache (1): Die Deutsche Umwelthilfe DUH

Der DUH-Chef Jürgen Resch wurde vom Spiegel bereits 2007 wegen seiner ökologischen Doppelmoral angeprangert, als das Blatt feststellte, daß der DUH-Boß fast schon am Flughafen wohne. Er hat den höchsten Vielfliegerstatus HON Circles bei der Lufthansa. Dafür muß man mindestens  600.000 Meilen innerhalb von zwei Jahren fliegen – das sind etwa 28 Erdumrundungen.

2007 war fast ein Annus horribilis für die deutsche Klimaszene, wie unser vielgelesener Artikel über die RTL-Reportage Der Klimaschwindel zeigte. Aber wie Luisa Neubauer, die nach dem Abitur bei den Grünen ein- und gleichzeitig eine regelrechte Welttournee antrat, war und ist die Doppelmoral Reschs problemlos möglich, weil fast alle ökologisch Bewegten das Thema nur für ihre Zwecke nutzen und der Statistik zufolge meist sogar einen viel größeren Öko-Fußbadruck haben als der Normal-Steuerzahlende.

Zunächst ein wenig Geschichte:

Die DUH ist erstaunlich alt – sie wurde schon 1975 gegründet und diente der Geldbeschaffung für den BUND, den Bund für Umwelt und Naturschutz. Gesammelt wurde von Anfang an bei Industrie und Bürgern. Wie das PIK und EIKE ist die DUH „nur“ ein eingetragener Verein (e.V.), mit einigen Hundert Mitgliedern. Sie beschäftigt rund 100 Mitarbeiter, die jährlich im Schnitt rund 49.000 Euro machen. Geschäftsstellen und Büros der DUH befinden sich in Berlin, Hannover, Radolfzell, Hannover, Erfurt, Wolgast (Pommern) und Köthen (Anhalt). Die Hauptstadtvertretung befindet in einem noblen Gebäude in erstklassiger Lage am Hackeschen Markt 4. Prominente Projekte waren der Diesel-Skandal der deutschen Automobilindustrie und das Dosenpfand.

Heute wird die DUH von der Doppelspitze Jürgen Resch und Sascha Müller-Kraenner als Geschäftsführer geleitet; Vorstandsvorsitzender ist Harald Kächele. Der heutige Macher Jürgen Resch ist erst seit 1986 dabei; verdiente aber wohl von Anfang an so gut, daß er sein Studium aufgab und nur noch bei der DUH reüssierte.

Neben diesen Positionen gibt es nur noch die Delegiertenversammlung als Gremium; weitere innere Kontrollorgane scheinen nicht vorhanden zu sein.

Der Abmahnverein – eine Goldgrube

Welche Rolle spielte und spielt die DUH bei der Diffamierung der deutschen Diesel-Aggregate? Die rotgrüne Regierung unter Schröder, namentlich Umweltminister Trittin, setzte sich nach Beratung durch Öko-Lobbygruppen wie die Umwelthilfe für strengere Grenzwerte der Stickoxide (NOx) in der Außenluft ein (DUH-Geschäftsführer Rainer Baake, 2009-13, war zuvor Staatssekretär unter Trittin). Die EU-Richtlinie 2008/50/EG, gültig ab 2010, änderte den Wert dann von 200 auf nur 40μg/Kubikmeter Luft. Unrealistisch und willkürlich, wurde von Experten sogleich bescheinigt, da der Grenzwert für Arbeitsplätze prächtige 950 μg/Kubikmeter beträgt! Nun wäre die gelungene Lobbyarbeit für die DUH schon ein politischer Erfolg, der Medienpräsenz und Macht bringt. Damit nicht genug, Rotgrün hat der DUH 2004 den Status einer „Qualifizierten Einrichtung“ eingeräumt, die an der Marktüberwachung teilnimmt und damit das Recht hat, Verstöße gegen Verbraucherschutzvorschriften zu verfolgen und abzumahnen. Was die DUH denn auch fleißig tut – weit über 1000 mal im Jahr! Daß der kleine Verein so effektiv ist und politische Privilegien erhält, liegt auch an seinem gut vernetzten und medienerfahrenen Personal. Gerd Rosenkranz zum Beispiel war lange bei taz, Süddeutscher, FR und Spiegel, machte dann von 2004 bis 2013 die DUH-Pressearbeit und war danach bis zur Rente bei Agora Energiewende.

Daß die DUH ihr Geld zum Großteil durch Abmahnungen verdient, ist nicht nur EIKE-Lesern bekannt, weil auch die Massenpresse nicht allzu positiv über Resch und seine Umwelthilfe berichtet. Aber was heißt das eigentlich? Der Jurist formuliert es so: Die Umwelthilfe ist ein klageberechtigter Verbraucherschutzverband. Einige Mitarbeiter suchen in Produktwerbung und Medien-Aussagen von Herstellern nach gesetzlichen Verstößen und finden pro Woche etwa 30 (Quelle: Bild). Die DUH verschickt dann Mahnschreiben an die Wirtschaftsunternehmen und kann von diesen Gebühren verlangen. Dabei geht es nicht nur um große Anbieter, sondern auch um grotesk kleine Fälle. Ein lokaler Möbelhändler wurde abgemahnt, weil in der Küchen-Ausstellung die Zettel mit der Energiekennzeichnung fehlten.

„Da kommt ein Brief von einem Verein, den man nicht kennt, den man nicht kennen lernen will. Und dann muß ich zahlen, zahlen für eine Sache, die nicht einmal so richtig in meinem Einflußbereich liegt.“

2015/16 nahm man damit rund 2,5 Millionen Euro ein, was etwa 30% der jährlichen Gesamteinnahmen entspricht. Zusätzlich zu diesen Gebühren gibt es auch noch Geldauflagen (Bußgelder), zum Beispiel in Höhe von 158.000 Euro (2015).

Neben diesem ersten Drittel über Abmahnungen erhält die DUH „Projektzuschüsse“ – der geneigte Leser ahnt schon, woher – es sind zur Hälfte Steuergelder aus Deutschland und Brüssel. Private Stiftungen liefern die zweite Hälfte – auch dort dürften versteckt weitere Transferzahlungen der Bürger zu finden sein. Diese Transfers ohne konkrete Gegenleistung sind sogar der größte Einzelposten mit 38% (2015).

Sogar aus Übersee kommt Geld für die deutschen Kollegen, von der 2008 gegründeten ClimateWorksFoundation CWF. 2014 erhielt die DUH 700.000 Dollar aus San Francisco. Wer ist CWF? Aufschluß gibt die Tatsache, daß John Podesta, Berater von Barack Obama und Wahlkampfleiter von Hillary Clinton, einer der wichtigsten Köpfe dort ist. Zudem wird die NGO von den beiden Stiftungen von Hewlett und Packard, und von der Ford Foundation unterstützt.

Welche Industrieunternehmen fördern die DUH? Da wäre in erster Linie Toyota zu nennen, mit dem schon seit 20 Jahren Verbindungen bestehen, und das jährlich mit bis zu 80.000 € zwei Projekte der DUH unterstützt. Dafür empfiehlt die DUH den Kauf von Prius und anderen Hybridmodellen. 2005 erhielt die DUH 100.000 Euro von Filterherstellern. Der Kampf für das Dosenpfand von Umweltminister Trittin soll Verbindungen zur Flaschen-Brauindustrie und zu einem norwegischen Unternehmen, das Apparate für die Rücknahme der Pfandflaschen herstellt, geschuldet sein.

Gesamt nahm man 2015 und 16 damit 8,1 Millionen Euro ein; die man soweit auch ausgab – wohl hauptsächlich für die üppigen Gehälter.

Man könnte nun sagen, das sind doch nur Peanuts im Vergleich zu den Summen, die zum Beispiel in Konzernen anfallen. Man darf dabei aber nicht vergessen, daß die Deutsche Umwelthilfe nur die gut sichtbare Spitze des Eisberges ist. Die international vernetzte Panikmacher-Szene in NGOs und Medien, die Basis des Eisberges, ist riesig. Da kommen jährlich Milliarden (oder gar Billionen?) an Transferleistungen zusammen, die von Bürgern in der Wirtschaft und der Infrastruktur erwirtschaftet werden müssen.

Außerdem darf man nicht übersehen, wie effizient die Weltrettungs-NGOs sind, siehe Diesel-Affäre. Wenn 100 Leute einer NGO, mutmaßlich mehrheitlich mit Kommunikations-, Psychologie- und Medienstudium, nichts anderes zu tun haben, als vor angeblichen Gesundheits- und Umweltgefahren zu warnen und diesbezügliche Kampagnen und Projekte in ihren Netzwerken zu stricken, hat das sehr wohl eine Wirkung.

Tipp: Die Seite von Mario Mieruch gibt noch mehr Details zur Umwelthilfe und zum Diesel-Skandal bekannt!

Die Katastrophen-NGOs sind unter anderem deswegen so erfolgreich, weil es kein ähnlich mächtiges Gegenstück der Industrie und der Verbraucher gibt. Früher sah es anders aus; da galten die Auto-Lobbyisten sogar als zu mächtig. Sie bauten und bauen aber mehr auf die klassischen Kanäle via Beeinflussung und „Schmierung“ bürgerlicher Politiker; ähnlich den Masken-Skandalen der CDU/CSU, die wir gerade erlebten.

Die Durchsetzung des kulturellen Sektors, also Schulen, Unis, Redaktionen, das hingegen ist die langfristig wesentlich erfolgreichere Strategie der Öko- und Gesundheits-Alarmisten. Daher bietet es sich an, eine Art „Anti-DUH“ zu gründen, die den Pseudo-Argumenten von Panik-Luxusschnorrern Paroli bietet. Genau das fordert nun Michael Haberland vom Autoclub Mobil in Deutschland, einem ADAC-Mitbewerber.

Im Interview mit dem Focus sagt er unter anderem:

Viele Nichtregierungsorganisationen wie beispielsweise die DUH wollen die Mobilität mit dem Automobil einschränken oder teilweise verbieten. In vielen Städten gewinnt man sogar den Eindruck, als wolle man Autofahrer ganz ausgrenzen und den Menschen die Lust und Freude am Auto nehmen. (…)
Man darf nicht vergessen, dass das Auto das Verkehrsmittel Nr. 1 ist und besonders durch die Covid-19 Pandemie geradezu eine Renaissance verzeichnen konnte. (…) Man darf auch nicht vergessen, dass die Autoindustrie noch immer die wichtigste Wertschöpfungsquelle für unser Land liefert. Man könnte sagen: Wir sägen mit jeder Entscheidung gegen Autofahrer kräftig an dem Ast, auf dem wir sitzen. (…)
Die Deutsche Umwelthilfe gibt an, sich für den Verbraucher einzusetzen und die Mobilitätswende im Sinne der Menschen zu treffen. Wir sehen das anders: Die Umwelthilfe lebt auch von Steuergeldern und tobt sich auf dem Rücken der Autofahrer aus. Mit einem ganz dubiosen Geschäftsmodell.

 

 




Forsythie: Der Erstfrühlings­zeiger des Deutschen Wetter­dienstes in Hamburg verspätet sich seit über 35 Jahren – wo bleibt die Besorgnis erregende Klima­erwärmung?

Angeblich käme der Frühling immer früher. Und das wäre ein eindeutiger Beweis der Klimaerwärmung, die wiederum ausschließlich CO2-bedingt wäre. Dem unbedarften Leser soll suggeriert werden, dass die Forsythien vor 40 bis 50 Jahren viel später geblüht hätten und jetzt rücke der Termin von Jahr zu Jahr weiter vor. Als Beweis wird dann oftmals nicht die Grafik des Blühbeginns gezeigt, sondern die Grafik des CO2-Anstieges, eines Anstiegs also, den niemand bezweifelt. Derzeit: 418 ppm.

Wir sind der Sache nachgegangen und fragen uns: Blühen die Forsythien wirklich früher? Hält der Lenz tatsächlich immer einen früheren Einzug in Deutschland? Zu 2021: Für dieses Jahr legte der Phänologe Jens Iska Holtz den Referenzbusch an der Hamburger Lombardsbrücke mit dem Blütenbeginn 25. März fest. Das sind 84 Tage seit Jahresbeginn.

Wie verhalten sich die Blühtermine im Vergleich zu früher?

Anfang der 80-er Jahre war der Wiederaufbau der Innenstadt Hamburg weitgehend abgeschlossen, so dass zusätzliche anthropogene Wärmeinseleffekte wohl nur noch gering auf die Temperaturen einwirken. Gemeint ist, seit den 80-er Jahren dürfte die vom Menschen erzeugte Zusatzwärme durch Heizungen und Änderungen der Strahlungsbilanz in der Innenstadt annähernd gleich geblieben sein. Interessant wäre aber ein Temperaturverlauf der Alster, denn der Strauch steht direkt am Ufer und die Wassertemperatur und andere Parameter bestimmen den Blütentermin ebenfalls mit. Eine Zunahme warmer Abwässer infolge des gestiegenen Lebensstandards seit 1980 hätten selbstverständlich Auswirkungen auf die Erstblüte, aber genauso auch eine Nitrat-Zunahme des Gewässers und natürlich auch die CO2-Zunahme der erdnahen Luft. Beide wirken wie ein zusätzlicher Dünger und damit günstig auf die Vegetation.

Doch nun zur Grafik: Vor allem Laien und Medienvertreter bitte beachten: In der folgenden Grafik sind auf der y-Achse die Blühtermine der Forsythie als Tage nach Neujahr aufgetragen, ein Ausschlag nach oben bedeutet somit einen späteren Blühtermin.

Abbildung 1: Vorsicht, nicht verwechseln, die violette Trendlinie steigt seit 36 Jahren, das bedeutet Verspätung. Auf der linken senkrechten y-Achse sind nicht die Temperaturen aufgetragen, sondern die Kalendertage seit Jahresbeginn. Je mehr Kalendertage, desto später der Forsythien-Blütenbeginn.

Ergebnis: Der CO2-Gehalt der Luft steigt, aber die Forsythienblüte verspätet sich.

Wir stellen nur fest: Obwohl die Beobachtungsreihe mitten in der großen Wärmeinsel Hamburg aufgenommen wurde, und damit gar nicht die Bedingungen einer objektiven Beobachtung erfüllt, ist der Blütenbeginn des DWD Vergleichsbusches an der Lombardsbrücke seit 1986 Jahren eindeutig verspätet. Genau das Gegenteil behaupten aber der Deutsche Wetterdienst und die Medien.

Ob und wie der steigende CO2-Gehalt der Luft die phänologische Entwicklung beeinflusst, bedarf noch intensiver Forschungen. Die jetzt auch in Hamburg für den Klimaschutz demonstrierenden Schulschwänzer haben allesamt Nachhilfestunden in Biologie bitter nötig, denn ohne ausreichend CO2 in der Atmosphäre gäbe es keine Photosynthese und damit kein höheres Leben auf unserer Erde. CO2 ist genauso essentiell für alle grünen Pflanzen wie Wasser, Mineralstoffe, Licht und Wärme. Die erhöhten CO2-Konzentrationen verbessern die Ertragsleistungen unserer Kulturpflanzen. Gegenwärtig sind nur etwa 4 von 10.000 Volumenteilen in der Luft CO2. Unserer Pflanzenwelt würde eine Verdopplung bis Verdreifachung der derzeitigen CO2-Konzentration gut bekommen; in Gewächshäusern wird CO2 seit Jahrzehnten zur Düngung erfolgreich eingesetzt.

Es gibt andere Gründe für die leichte Verspätung der letzten 36 Jahre, und die überwiegen. Allen voran: Die Temperaturen von Januar bis März sind etwas gesunken, wobei der Januar wohl nur noch sehr wenig den Blühtermin entscheidet. Wichtiger ist die Wärme der beiden Monate Februar und März, sowie die Besonnung der letzten Woche vor Blühbeginn.

Der Monat Februar, Wetterstation am Flughafen Hamburg:

Die DWD-Wetterstation liegt 7 km nördlich der Innenstadt.

Abbildung 2: Der Februar wurde etwas kälter in Hamburg. Man beachte den kalten Februar 2018 und den verspäteten Blütenbeginn 2018 am 4.April.

Der März in Hamburg

Noch mehr als der Monat Februar beeinflussen die Märztemperaturen den Blühtermin der Forsythie an der Hamburger Lombardsbrücke, insbesondere die letzten Tage vor dem Aufblühen. Und die erste Märzhälfte war in Hamburg sogar leicht unter dem Februar-Gesamtschnitt, was den Blütenbeginn 2021 wohl doch um einige Tage verzögerte.

Beide Monate zusammen bezeichnen wir als Vorfrühling, hier die Grafik dazu:

Abb.3: Februar und März bezeichnen wir als Vorfrühling. Der Temperaturverlauf beider Monate zusammen ist auch in Hamburg leicht fallend.

Wir stellen vollkommen in Einklang mit unseren Erwartungen fest:

Die Temperaturen des Monates Februar und März bestimmen im Wesentlichen den Blütenbeginn des Forsythienstrauches in der Innenstadt von Hamburg. Neben den Temperaturen gibt es auch noch andere Gründe, wie im weiteren Artikel genannt.

Längere Betrachtungszeiträume:

Wie wir aus diversen Artikeln nicht nur der Autoren Kämpfe/Kowatsch wissen, lagen die Temperaturen Deutschlands seit etwa 1940 bis 1987 in einer Depression. Zum einen wegen der Umstellung der Großwetterlagen, das sind natürlich Gründe, aber auch wegen der fehlenden Wärmeinseleffekte bei den Wetterstationen, speziell Hamburg: Weil die Städte ausgebombt waren und das Überleben auf Sparflamme kochte und Eistage auch in den Häusern wahrgenommen wurden. Der steigende Wohlstand, die rege Bautätigkeit und die Beheizung aller Räume nebst steigendem Warmwasserverbrauch im Haus, sowie die zunehmende Industrialisierung brachten wieder Wärme in Deutschlands Städte. Diese positive Nachkriegsentwicklung begünstigte zunächst den früheren Frühlingsbeginn in einer Stadt, er folgte dem Wohlstand, aber auch zu mehr Innenstadtwärme. Ein Vorgang, der in den 80-er Jahren in Hamburg wohl sein Ende gefunden hat. In der Innenstadt Hamburgs scheint der anthropogene Wärmeinseleffekt zwar auf hohem Niveau, aber ausgereizt zu sein. Das zeigt uns auch die nächste Grafik

Abb.4: Seit 1972, also seit 50 Jahren stagniert der Blühbeginn des Hamburger Forsythienstrauches bei etwa 79 Tagen nach Neujahr.

Die wilde Stachelbeere

Ähnlich wie die Forsythie verhält es sich mit dem etwas früheren Laubaustrieb der Wilden Stachelbeere, welcher ebenfalls seit der Deutschen Einheit in der Stadt Weimar stagniert. Wegen eines tendenziell etwas wärmeren Aprils hat sich jedoch der Einzug des Vollfrühlings (Beginn der Apfelblüte) leicht verfrüht. Aus der Differenz beider Eintrittstermine ergibt sich die Dauer des Erstfrühlings. Bei der Analyse der Forsythie- Daten käme man zu ähnlichen Ergebnissen mit insgesamt geringeren Tageszahlen der Erstfrühlingsdauer:

Abbildung.5: Kein Trend beim Austrieb der Wildstachelbeere an einem festen Standort im Weimarer Ilmpark. Daraus darf nicht auf künftige Entwicklungen geschlossen werden. Im letzten Jahr 2020 trieb die Stachelbeere in Weimar schon am 12. Februar aus; in 2021 erst am 13. März. Mit einer eher mittelspäten Apfelblüte 2021 wird gerechnet.

Blühbeginn und Laubaustrieb der Wildstachelbeere werden hauptsächlich durch das Temperaturverhalten der Monate Januar bis März bestimmt – je milder dieser Zeitraum ist, desto früher treten sie ein (1990, 2007, 2020). Aber schon seit 1988 gibt es in diesem Zeitraum in Deutschland keinerlei Erwärmung mehr:

Abbildung 6: Seit 1988, das sind nunmehr schon stattliche 34 Jahre, hat es sich im Zeitraum von Januar bis März in Deutschland nicht mehr erwärmt – folglich war auch keine Verfrühung des Erstfrühlingsbeginns in diesem Zeitraum zu beobachten.

Bitte beachten: Die DWD-Daten sind nicht wärmeinselbereinigt. Die Mehrzahl der DWD-Wetterstationen steht in Wärmeinseln. Für wärmeinselarme Stationen ist die Temperatur-Trendlinie der ersten drei Monate deutlicher fallend, siehe Amtsberg, Zeitz, Neugersdorf, usw…)

Abbildung 7: Die Wetterwarte Zeitz steht am Stadtrand von Zeitz, die Temperaturen der ersten drei Monate zeigen seit 34 Jahren eine deutlichere Abkühlung als das DWD-Mittel für Deutschland.in Abbildung 6

Neben dem Hauptfaktor Wärme sind noch andere Gründe für Erstblüte und Laubaustrieb mitbestimmend: Tageslänge, die Sonnenscheindauer und der UV- Anteil im Sonnenlicht, Feuchtigkeit und Nachtfröste, die Bodentemperatur am Standort sowie Düngefaktoren im weitesten Sinne. Bekanntlich hat der Nitratgehalt im Fließ- und Grundwasser zugenommen, was das Pflanzenwachstum beeinflusst.

Zusammenfassung:

Wir leben keinesfalls mittendrin in einer gefährlichen Erwärmung. Kohlendioxid ist ein sauberes Gas, das mit dem Klima wenig zu tun hat. Kohlendioxid ist neben Sauerstoff und Wasser die Grundbedingung des Lebens auf der Erde. Die Erde braucht mehr und nicht weniger Kohlendioxid. Das Klima wandelt sich immer, und das aus vielerlei Gründen, aber Kohlendioxid hat keine oder kaum eine Erwärmungswirkung. Nur der steigende Wohlstandsfaktor, der Wärmeinseleffekt, forciert durch mehr Sonnenstunden auch wegen den Luftreinhaltemaßnahmen, ist zumindest in Deutschland der immer noch zunehmende Wärmeinseleffekt der wesentliche anthropogene Einflussfaktor auf die Temperaturen. Seitdem dieser in Hamburg ausgereizt ist, also Ende der 80er Jahre, seitdem fallen die Temperaturen der ersten drei Monate leicht, und das auch in der Innenstadt von Hamburg.

Insgesamt sei betont, dass unsere Grafiken einen längeren Zeitraum erfassen. Wir argumentieren nicht wie die Katastrophenverkünder mit Einzelbeobachtungen und verkünden dann falsche Vorhersagen. Die Grafiken sollen sprechen. Die Frühjahrsblüher Scharbockskraut, Buschwindröschen, Märzenveilchen und Lerchensporn finden sich auch in freier Natur auf einem unveränderten Stand wie um 1990. Weiterhin gilt: Klima lässt sich nicht schützen; es ist als „chaotisches System“ viel zu komplex und erst recht wenig erforscht. Oder anders ausgedrückt: Die Forschung ist noch absolut ergebnisoffen. Notwendig wäre jedoch ein umfangreicher Natur- und Umweltschutz. Sauberes Wasser, saubere Luft und saubere Nahrungsmittel sind ein Grundgut, das allen Menschen zusteht. Natur- und Umweltschutz sind notwendig, Klimaschutz gibt es nicht. Mehr CO2 in der Luft wäre für das Wachstum und die Ernteerträge der Welt besser. Eine CO2-Steuer dient nur den Staatskassen.

Der Forsythienstrauch in Hamburg-Stadtmitte zeigt sich vom Klimaklamauk völlig unbeeindruckt. Schade, dass der Forsythienstrauch den Artikel nicht selbst schreiben kann.

Noch eine Anmerkung an die Ortskundigen: Falls sich die Umgebung des Hamburger Strauches geändert haben sollte, bitte ich um ein aktuelles Foto, am besten vom selben Standort aus wie in den Grafiken.




Haben mitteleuropäische Dürren in jüngster Zeit zugenommen?

Der Artikel von Büntgen et al., Recent European drought extremes beyond Common Era background variability hat 17 Autoren, erschien 2021 in nature Geoscience und unterliegt der Bezahlschranke.

Der Artikel von Ionita et al., Past megadroughts in central Europe were longer, more severe and less warm than modern droughts hat 5 Autoren, erschien (auch 2021) in Communications earth & environment als „open“ Version, kann also von jedermann mit Google Scholar kostenlos heruntergeladen werden.

Zum paper von Büntgen et al.

Es stützt sich hauptsächlich auf Baumringanalysen und den „Old World Drought Atlas“ (OWDA). Der vermuteten Zuverlässigkeit von Baumringanalysen wird ein großer Teil des Artikels gewidmet – verständlich, denn Büntgen zählt zu den renommiertesten Baumringexperten weltweit.  So heißt es dementsprechend im paper „We argue that tree-ring stable isotopes (TRSI) are a superior archive for high-resolution reconstructions of hydroclimate variability in temperate areas where conventional tree-ring parameters often fail„. Die Isotopenmethode wird als vorteilhafter gegenüber der früher ausschließlich zur Verfügung stehenden Baumringdicken-Methode (tree-ring width TRW) angesehen, weil sie keine störenden Alterungseffekte der Bäume mehr aufweisen soll.

Die Kernaussage des Büntgen papers beschränkt sich auf die jüngsten Dürren im extrem kurzen Zeitraum von 2015 bis heute, die gemäß Kernaussage der Arbeit stärker als alle Dürren in den letzten 2110 Jahren gewesen sein sollen. Zu finden ist diese Aussage bereits im Abstract, wo es heißt

Our reconstruction demonstrates that the sequence of recent European summer droughts since 2015 CE is unprecedented in the past 2110 years. This hydroclimatic anomaly is probably caused by anthropogenic warming and associated in the psotion of the summer jet stream“ (Anmerkung: BC = AD = n.Chr.)

Zweifellos sind dies zwei steile Kernaussagen. Es ist dabei zu beachten, dass es in der Untersuchung nur um die Sommermonate Juni-August geht, weil hier das „Baumsignal“ am stärksten ist. Belegt wird die erste Kernaussage des papers im Wesentlichen mit folgender Fig. 4 der Arbeit

Fig. 4: Rekonstruierter „self-calibrated Palmer Drought Severity Index (scPDSI) für das Mittel über die Monate Juni-August (JJA). Bildquelle: Büntgen et al., 2021, Recent European drought extremes beyond Common Era background variability, nature Geoscience.

Den Antriebsgründen für Dürren wird in der Büntgen-Studie nur der relativ kurze Abschnitt „forcing factors of European summer droughts“ gewidmet. Bemerkenswert  ist dabei die explizite Ablehnung von Klimamodellen bereits auf S.1 des papers, die (völlig zutreffend) als unzuverlässig beurteilt werden: „Earth system models are still not able to mimic monthly soil moisture deficits at ecologically and economically relevant scales. In summary, the existing generation of proxy reconstructions and model simulations (or any combination thereof) are unable to place the alarming sequence of Earth’s recent drought extremes ……“.

Zum paper von Ionita et al.

Dieser Artikel setzt zwar auch auf Baumringe bzw. den „Old World Drought Atlas“, stützt sich aber zusätzlich noch auf direkte historische Messdaten, Meeresobeflächen-Temperaturen (SST), Meerwassersalzgehalt, atmosphärische Zirkulationsrekonstruktionen und Methoden der Paleo Reanalysis. Im Gegensatz zu Büntgen et al. wird von „megadroughts“ gesprochen, wobei keine Differenzierung in Monate vorgenommen wird.  Insbesondere werden auch die lang andauernden trocken-heißen Sommer der Jahre 2003, 2010, 29013, 2015 und 2018 betont. Die Ungewöhnlichkeit dieser Trockenereignisse infolge höherer Temperaturen wird zwar nicht  bestritten, dennoch zeigt die Arbeit aber, dass die trockensten Jahre des letzten Jahrtausends 1102, 1419, 1503, 1504, 1858, 1868 und 1921 waren und keineswegs die Jahre ab 2015 bis heute. Als megadroughts werden die Perioden von 1400-1480 und 1770-1840 identifiziert.

Hervorzuheben und wissenschaftlich erfreulich am Ionita et al. paper ist der längere Abschnitt „Links between solar forcing and the megadroughts“, in welchem der Einfluss der Sonnenaktivität auf Niederschläge thematisiert wird. So wird beispielsweise darauf hingewiesen, dass der Zeitraum 1420-1550 mit dem Spörer (Sonnen)Minimum zusammenfiel. Hierbei beschränkt sich der Artikel  allerdings auf die TSI der Sonne (TSI = total solar irradiance). Die interessante Theorie von Henrik Svensmark über den Einfluss des Sonnenmagnetfeldes, welches vermittels Modulation der einfallenden kosmischen Strahlung die Wolkenbedeckung und das Klima beeinflusst, bleibt unerwähnt und die zugehörigen Fachpublikationen sind leider nicht zitiert. Nebenbei ist sprachlich erfreulich, dass im paper das bisher allein übliche AD (anno domini) steht und das übervorsichtige „CE“, um  bei   intoleranten religiösen Auffassungen nicht anzuecken, ignoriert wird.

Erstes Fazit

Beide Arbeiten haben es unternommen einem inzwischen populären Thema mit hohem wissenschaftlichen Aufwand auf den Grund zu gehen. Dabei wurden (das ist heute leider bereits mutig) auch Aspekte und Ergebnisse ausgesprochen, die der IPCC-Mainstream nicht gerne hört. Der Nature Verlag hat dennoch beide Artikel veröffentlicht. Neutrale und offene Klimawissenschaft waren somit siegreich. Zweifellos keine schlechte Basis für eine nicht ideologisch geprägte Fachdiskussion über beide Arbeiten, die in den EIKE-News allein schon aus Platzgründen nicht geführt werden kann.

Welche Arbeit hat Recht?

Kann diese Frage überhaupt in der hier nötigen Kürze zuverlässig beantwortet werden? Der Autor meint JA. Es ist dabei nicht einmal nötig, auf die Schwächen von Baumringanalysen näher einzugehen (jede Proxymethode hat im Übrigen ihre Schwächen!). Baumringe bilden vorwiegend die jahreszeitlichen Wachstumsphasen ab, vernachlässigen also den größeren Rest des Jahres. Ferner ist eine Unterscheidung zwischen Temperaturen und Niederschlägen mit Hilfe von Baumringanalysen problematisch – ein Baum wächst bekanntlich besser sowohl bei Wärme als auch Niederschlag. Kurz, die starke Konzentration auf Baumringe von Büntgen et al. ist anfälliger für Fehler zu vermuten als die Verwendung eines umfangreicheren Proxy-Reservoirs zusammen mit direkten historischen Messwerten wie es Ionita et al. gewählt haben.

Entscheidend sind nach Auffassung des Autors aber die direkten historischen Messungen. Und die zeigen ein eindeutiges Bild. So z.B. für Deutschland bis 1881 zurück, als der von Büntgen et al. schon im Abstract  bemühte anthropogene CO2-Effekt als potentieller Dürre-Ursache noch praktisch keine Rolle spielen konnte. Die Messungen lassen im Zeitraum von 2015-2018 beim Vergleich mit der Vergangenheit nichts Ungewöhnliches erkennen (Bild 1a und 1b)

Bild 1a: Jahresniederschlags-Anomalie  Deutschlands von 1881 bis heute. Es sind keine Häufungen oder ungewöhnliche  Dürre-Extreme ab 2015 bis heute zu erkennen. Der Leser kann den gleichen Tatbestand auch für jedene Einzelmonat auf der zugangsfreien DWD-Webseite selber nachprüfen (Klima+Umwelt => Klimaüberwachung => Deutschland => Daten+Produkte => Zeitreihen+Trends).

Und nun speziell der Sommer wie er von Büntgen et al. untersucht wurde

Bild 1b: Niederschlagsanomalie der Sommermonate Deutschland von 1881 bis heute. Auch hier sind keine Häufungen oder ungewöhnliche  Dürre-Extreme zu erkennen. Man beachte auch den langfristigen schwachen Trend, der im Sommer nach unten, ganzjährig (Bild 1a) jedoch nach oben zeigt.

Verlässt man Mitteleuropa in Richtung Westeuropa, ändern sich kaum etwas am bisherigen Befund. So etwa in der Niederschlagsreihe von Mittelengland (CEP) , welche die Schwester ihrer bekannteren und weiter zurückreichenden mittelenglischen Temperaturreihe CET ist:

Bild 2: Regensumme Juni bis August der mittelenglischen Regenreihe von 1873-2020. Mittelwert = 179,4 mm, Standardabweichung = 54,4 mm. Grafik vom Autor aus den Originaldaten erstellt.

 

Oder ein anderes Beispiel aus Nordeuropa, die Niederschlagsreihe von Stockholm, die bis ins 18. Jahrhundert zurückreicht.

Bild 3: Stockholm Regensumme Juni-August. Mittelwert = 176,8 mm, Standardabweichung = 60 mm. Grafik vom Autor aus den Originaldaten des Swedish Meteorological and Hydological Institute erstellt.

Verlässt man Europa in Richtung Afrika, sind dort im Allgemeinen auch kaum ungewöhnliche Dürren in jüngster Zeit zu entdecken. So zum Beispiel in Kenia (Bild 4), ein Land welches in Sachen Niederschlag neben allen anderen Ländern Afrikas im paper von „H.-J. Lüdecke, G. Müller-Plath, M. G. Wallace, and S. Lüning, 2021, Decadal and multidecadal natural variability of African rainfall, Journal of Hydrology: Regional Studies” gründlich untersucht wurde

Bild 4: Regenjahressummen von Kenia von 1901 bis 2019, vom Autor erstellt aus der Datenbasis von CRU CEDA

 

Zusammenfassung, Bewertung, wer hat Recht?

Die direkten instrumentellen Messungen, denen zweifellos am meisten zu vertrauen ist, zeigen im von Büntgen et al. ausgesuchten Zeitraum 2015 bis heute  keine ungewöhnlichen Dürre-Ereignisse im historischen Vergleich der letzten 140 Jahre für Deutschland (Mitteleuropa!) an – weder ganzjährig, noch in den von Büntgen et al. untersuchten Sommermonaten Juni-August. Daher sind die beiden Kernaussagen des papers von Büntgen et al. falsch – unbeschadet aller fachlichen Qualität der Arbeit. Zwei außerhalb des mitteleuropäischen Bereichs liegende europäische Länder zeigen ebensowenig ungewöhnliche Dürren in diesem Zeitbereich, ebensowenig wie (weltweit) ein Beispiel aus Afrika (Kenia).

Nach Auffassung des Autors wäre in beiden Arbeiten trotz ihrer eindeutigen Eingrenzungen im Titel „European“ bzw. „central  Europe“ eine Diskussion über die Grenzen der jeweiligen Aussagen infolge der Beschränkung auf Mitteleuropa angebracht gewesen. Was zeichnete Mitteleuropa in beiden Arbeiten aus, dass es gewählt wurde? Warum nicht auch West-, Ost-, Süd- und Nord-Europa? Die gute Datenbasis? Man hätte es gerne erfahren.

Insbesondere die in der Arbeit von Büntgen et al. vorgenommene Verknüpfung der nicht ungewöhnlichen lokalen Dürren der jüngsten Zeit mit der vermuteten globalweiten Wirkung des anthropogenen CO2 ist mehr als fragwürdig. Bereits ein kurzer Blick auf die Messungen (Bild 1a bis Bild 4) zeigt die maßgebenden Diskrepanzen mit den Kernaussagen des papers von Büntgen et al.. Diese Diskrepanzen, die den Autoren der Studie hätten bekannt sein müssen, hätten zumindest eine sorgfältige Diskussion erfordert.

Da der Autor dieser News inzwischen von zwei begutachteten Klimajournalen regelmäßig als anonymer Reviewer eingeladen wird (Review ist generell unbezahlt, mit viel Arbeit verbunden und nur der Wissenschaft dienend) erlaubt er sich seine Verwunderung darüber auszusprechen, dass die Arbeit von Büntgen et al. ohne „major revisions“ vom Nature-Review durchgelassen wurde.




Klimaspaß mit EIKE: Bill Gates will die Atmosphäre mit Kalkstaub kühlen

Wir berichteten bereits über Bill Gatesens Pläne zur Rettung des Klimas, die er bei Maischberger erläuterte. Dabei trat er erstaunlich mutig für sinnvolle Maßnahmen wie Kernkraft ein.

Allerdings will er nun zusätzlich Kühlungsmethoden erforschen lassen. Dazu finanziert er die berüchtigte Harvard-Forschungseinheit vom neuen „Dr. Seltsam“, die, wir berichteten, allen Ernstes Schwefeldioxid (SO2) in die Atmosphäre pusten will, das reflektierend wirken soll und so die Albedo, die Rückstrahlkraft der Erde, erhöhen kann.

Ein anderer „Dr. Seltsam“ aus Deutschland, Frank Keutsch, will statt SO2 Kalkstaub nutzen, um die Sonnenstrahlen zu reflektieren. Dazu ist geplant, im Juni fast 20 km über Kiruna in Schweden zwei Kilogramm Kalk-Körnchen via Ballon herabrieseln zu lassen. Das bißchen kühlt zwar rein gar nichts, soll aber Daten dazu liefern, was passierte, wenn man im großtechnischen Maßstab die Atmosphäre zustaubt.

Nun, da können wir von EIKE faktenbasiert prognostizieren: Würde man weit über den Wolken Kilo- oder Megatonnen von Kalkstaub ausbringen, hätte das einen möglicherweise jahrelangen nuklearen Winter zur Folge. Genau das passiert nämlich nach dem Abwurf mehrerer Wasserstoffbomben oder nach einem ordentlichen Vulkanausbruch wie dem des Tambora, der 1816 auf der Nordhalbkugel ein „Jahr ohne Sommer“ auslöste.

Das wissen die Physiker aus Harvard natürlich auch und würden wohl „dosiert“ vorgehen; oder den Staub vielleicht tiefer im Wolkenbereich verteilen, wo er nach und nach vom Regen sicher ausgewaschen wird. Das wäre dann aber ineffektiv oderoderoder…. Wahrscheinlich geht es ihnen sowieso nur um die üblichen fünf Minuten Ruhm bei CNN und natürlich üppig fließende Fördergelder.

Würden Gates und seine Seltsams Ernst machen, wäre das für die Menschheit sogar richtig gefährlich, weil es dank der „Kalten Sonne“ in den nächsten Jahrzehnten sowieso kälter wird. Im schlimmsten Fall könnte das passieren, was der Science-Fiction-Film Hell freezes over mit „Morpheus“ Larry Fishburne als Geschichte nutzt: Um die Klimaerwärmung zu stoppen, wurden im Film ominöse „Wettertürme“ aufgestellt, die viel zu effektiv arbeiten und eine Supereiszeit bewirken. Die Reste der Menschheit versuchen nun, die Dinger abzuschalten, um wieder außerhalb von Isolierbunkern leben zu können.




Verschiedene Namen, ein Ziel: Von der Industriegesellschaft zur tödlichen Mangelwirtschaft

In der Realität ist es aber überraschend einfach. Es geht bei all den oben genannten Begriffen und Bewegungen um ein und dasselbe Programm: Industriegesellschaft war gestern – nun soll zugunsten eines angeblich nachhaltigen Finanzsystems der Mangel Einzug halten und diktatorisch verwaltet werden. Die Bundesregierung, spätestens seit dem Umweltgipfel in Rio in dieser Denkrichtung engagiert, nahm mit dem im Februar 2019  gebildeten „Sustainable-Finance-Beirat“ eine weitere folgenschwere Weichenstellung vor – zugunsten der Finanzbranche und ganz ausdrücklich gegen die Industrie. Ihr nun am 25. Februar 2021 veröffentlichte Abschluss-Bericht mit dem programmatischen Titel “Shifting the Trillions„, ein nachhaltiges Finanzsystem für die große Transformation“, macht völlig unmissverständlich deutlich, dass die Realwirtschaft jetzt völlig den Interessen der Finanzbranche auf Kosten der deutschen Bevölkerung geopfert werden soll.

Aus Gründen, die in diesem Artikel erklärt werden, ist leider zu erwarten, dass die Bundesregierung den 31 Empfehlungen des Beirats blindlings folgen und entsprechende Gesetzesänderungen einleiten wird. Eine ausreichend starke parlamentarische Opposition, die diesen Plänen in den Arm fallen könnte, gibt es nicht mehr. Sollten die Empfehlungen Gesetzeskraft erhalten, gehört Industriepolitik in Deutschland definitiv der Vergangenheit an. Genauer: langfristig wird energieintensive Industrie aus Deutschland verschwinden. Zum Inhalt des Berichts: Der Beirat setzt auf starken Staat und fordert eine „unverzügliche“ Umsetzung zugunsten eines „Nachhaltigen Finanzsystems“. Er empfiehlt, umgehend eine anfängliche Quote von 40%  der Bundes- und Landeshaushalte in sogenannte nachhaltige  Projekte zu investieren. „Bislang entfielen nur 5,4 % des deutschen Kapitalmarktes auf den Bereich Nachhaltigkeit“ schreiben die Autoren des Abschlussberichts und fordern eine deutliche Steigerung sogar noch über die 40% hinaus. Dafür sei es entscheidend, die Privatwirtschaft zur Teilnahme zu verpflichten oder, genauer gesagt, zu zwingen!

Von Seiten der Privatbanken wurde bereits in den letzten Wochen warnend ausgesprochen, dass die Vorgaben des Green Deals zwangsläufig  auf eine Ökodiktatur hinauslaufen. Sogar für den Export fordert der Sustainable-Finance-Beirat, alle staatlichen Garantien mit den Zielen des „Pariser Klimaabkommens“, des „Green Deals der EU“ und den „UN-Nachhaltigkeitszielen“ kompatibel zu machen. Für andere Projekte sollen keine Staatsgarantien mehr gewährt werden, und es sollten Strafzölle auf Importe von Produkten aus Nicht- EU-Ländern erhoben werden, die nicht den CO2-Emissionszielen entsprechen. Zum Beirat gehören Vertreter von BNP Paribas, Deutsche Bank, Triodos Bank Deutschland, der Allianz-Gruppe sowie von Großunterehmen wie BMW, ENBW, RWE, Goldbeck Solar sowie den unvermeidlichen Vertretern Germanwatch und WWF Deutschland.

Illusionen?

Viele sind in Deutschland immer noch der Hoffnung, dass es nach Angela Merkel wieder besser werden könne. Leider muß man aber der Tatsache ins Auge sehen, dass die Bundesrepublik, getragen von CDU, SPD und FDP, seit Jahrzehnten nicht nur bei der Energiewende gegen die Interessen der Industrie und damit der deutschen Arbeitnehmer handelte und auf allen Gebieten schon seit längerem den transformativen Rückschritt plante. Was dabei für gewöhnlich ausgeblendet bleibt, stellt der Bericht des Beirats „Sustainable Finance“ nun sogar in den Mittelpunkt. Denn die politische Mehrheitslage von Rot/Grün, zu der inzwischen auch die ehemals wertekonservative CDU/CSU zählt, erlaubt Freimütigkeit und Ablegen aller strategischer Fesseln. Die eigentliche politische Absicht, mit weitreichenden Folgen seit Jahrzehnten in Planung, lautet jetzt nämlich ganz unverblümt:

Der Bericht des Sustainable-Finanz-Beirats verwendet den Begriff „Transformation“ im Sinne der „Großen Transformation“. Sie bezeichnet einen umfassenden Umbau von Technik, Ökonomie und Gesellschaft, um mit den sozialen und ökologischen Herausforderungen des 21.Jahrhunderts umzugehen ( Wuppertal-Institut für Klima, Umwelt, Energie 2018 ). Das Hauptgutachten des WBGU „Welt im Wandel-Gesellschaftsvertrag für eine große Transformation“ nahm auf den Begriff bereits 2011 als zentrales Leitmotiv Bezug“. Und das ist leider die Realität. Diese Schriften repräsentieren Pläne für einen radikalen Systemwechsel, das Ende der Industriegesellschaft, das Ende des Wohlstands und die zwanghafte Einführung einer grünen Weltordnung, die eine drastische Reduktion der Bevölkerungszahl zur Folge haben soll. Wir wollen diese Dokumente wegen ihrer steilen Aussagen hier etwas unter die Lupe nehmen.

  1. Im Jahr 2011 veröffentlichte der Wissenschaftliche Beirat der Bundesregierung Globale Umweltveränderungen ( WBGU ) unter dem damaligen Vorsitzenden Prof. Schellnhuber ein Papier mit dem Titel „Welt im Wandel. Gesellschaftsvertrag für eine Große Transformation“. Der Beirat wurde nach dem Klima-Gipfel von Rio von der deutschen Bundesregierung auch noch als angeblich „unabhängiges wissenschaftliches Beratungsgremium“ eingerichtet. Seine Mitglieder werden vom Bundeskabinett vorgeschlagen und berufen. Die WBGU-Aussagen und die wissenschaftlichen Zugehörigkeiten der WBGU-Mitglieder lassen interessante Rückschlüsse auf das in maßgebenden Teilen inzwischen katastrophale akademische Niveau Deutschlands zu.

In dem Bericht des WBGU von 2011 heißt es: „Das Wirtschaftsmodell der vergangenen 250 Jahre mit seinen Regelwerken, Forschungslandschaften, Ausbildungssystemen, gesellschaftlichen Leitbildern sowie Außen-, Sicherheits-,Entwicklungs-, Verkehrs-, Wirtschafts- und Innovationspolitiken war nahezu alternativlos auf die Nutzung fossiler Energieträger zugeschnitten. Dieses komplexe System muß nun grundlegend umgebaut und auf die Dekarbonisierung der Energiesysteme sowie radikale Energieeffizienzsteigerungen ausgerichtet werden“. Und eine Seite weiter heißt es „Das Ausmaß des vor uns liegenden Übergangs ist kaum zu überschätzen. Er ist hinsichtlich der Eingriffstiefe vergleichbar mit den beiden fundamentalen Transformationen der Weltgeschichte: der Neolithischen Revolution, also der Erfindung und Verbreitung von Ackerbau und Viehzucht, sowie der Industriellen Revolution, die von Karl Polanyi als Great Transformation beschrieben wurde und den Übergang von der Agrar- zur Industriegesellschaft beschreibt“.

Dass es sich mit dieser vollmundigen Prophezeiung allerdings nicht etwa um eine Vorwärtsentwicklung, sondern um eine dramatische Rückwärtsentwicklung handelt, stellte Prof. Schellnhuber schon längere Zeit zuvor unmissverständlich klar, als er am 15.3.2017 in einem Interview mit der Deutschen Welle Folgendes von sich gab:

„….Es ist ziemlich umwerfend– zum Beispiel bis 2030 müssen wir den Verbrennungsmotor auslaufen lassen. Und wir müssen den Einsatz von Kohle zur Stromerzeugung komplett ausschalten. Bis 2040 müssen wir wahrscheinlich Beton und Stahl für den Bau durch Holz, Ton und Stein ersetzen… und tun wir das nicht…. Es wäre das Ende der Welt, wie wir es wissen, und ich habe alle Beweise….

Das Ende der Welt und auch noch Beweise? Entsprechend nahmen viele diese Aussagen vor 5 Jahren nicht ernst. Das war ein Fehler. Man fühlt sich dabei ein wenig daran erinnert, dass schon einmal in der deutschen Geschichte kaum jemand das Buch eines Irren namens Hitler las und wenn doch, auch die dort gemachten  Aussagen erst dann ernst nahm, als es längst zu spät war.

  1. 2017 erschien das vom Wuppertaler Institut publizierte Buch mit dem Titel „Die Große Transformation. Eine Einführung in die Kunst gesellschaftlichen Wandels“. Federführend war auch hier ein Professor des WBGU und Mitglied des Club of Rom: Prof. Uwe Schneidewind unter Mitwirkung einer ganzen Reihe von Mitarbeitern.

Auch das Wuppertal-Institut war eine Schöpfung der deutschen Politik. Unter Johannes Rau  als Ministerpräsident wurde es 1991 mit finanziellen Mitteln der Landesregierung Nordrheinwestfalens aus der Taufe gehoben. Was unter der „Großen Transformation“ zu verstehen ist, wird in dem Buch „Die große Transformation, Eine Einführung in die Kunst gesellschaftlichen Wandels“ auf fast 500 Seiten als „identitätsstiftendes transdisziplinäres Narrativ“ beschrieben, in klassischer Dialektik oder gemäß Orwell 1984 also Rückschritt ist Fortschritt, vorausgesetzt, dass die Menschen das „Haben“ durch das „Sein“ ersetzen. Aber es lohne, „sich auf den Weg dieses radikalen inkrementellen Wandels einzulassen.“ Was konkret darunter zu verstehen ist, wird dann im letzten Drittel des Buches genauer formuliert, wobei zugegeben wird, dass das ganze Gerede von mehr Effizienz falsch gewesen sei, und die Transformation nunmehr eine knallharte Begrenzungspolitik vorsehe.

So lautet es nun seitens des Wuppertaler Instituts dem Sinne nach “…. lange war die Umweltpolitik von einer Effizienzhoffnung geprägt. Auch die Arbeiten des Wuppertal Instituts vom „Faktor 4“ oder gar vom „Faktor 10“ waren davon getrieben. „Doppelter Wohlstand bei halbem Umweltverbrauch“ war die Formel, die Ernst Ulrich von Weizäcker 1995 in seinem Buch „Faktor 4“ prägte. Das alles sei freilich falsch gewesen, und statt dessen gelte heute Es gilt vielmehr, über absolute ökologische Begrenzungspolitiken nachzudenken, die einen effektiven Schutz knapper ökologischer  Ressourcen gewährleisten: dazu gehören die schon bestehenden Zielwerte für den absoluten Energieverbrauch- vor allem die Halbierung des Primärenergieverbrauchs in Deutschland bis 2050- und die Treibhausgasemissionen, die es vollständig zu vermeiden gilt. Hinzu müssen beispielweise Moratorien zum Abbau fossiler Energien, der Ausweis von umfassenden Schutzgebieten auf dem Land, aber insbesondere auch in den Meeren, und absoluten Mengenbegrenzungen treten“.

Wer in dem einfacher gestrickten Teil der deutschen Bevölkerung weiß eigentlich, was die Halbierung des Primärenergieverbrauchs bedeuten würde? Oder der Verzicht auf Stahl? Es würde im Klartext bedeuten, dass selbst in den von Schellnhuber propagierten Hütten aus Holz, Ton und Stein nur ein Bruchteil der heutigen Bewohner überleben könnte. Und so ist es ja wohl auch gewollt. Das Wuppertal-Institut will die brutale „Komplettumstellung“ als Verkehrswende, Ernährungswende, Lebensstilwende, Urbane Wende, Konsumwende. Am Ende steht der „Great Mindshift“ zum „One World-Lifestyle“.

Es ist daher nur konsequent, dass beide hier zitierten Schriften nach dem starken Staat rufen, nach einer Art Weltregierung, nach „zentralen Arenen globalen Regierens“, nach „international festgelegten Klimaschutzzielen“ und weiteren diktatorischen Forderungen. Unter demokratischen Regeln ließe sich der geschilderte radikale Umbau mit Sicherheit nicht bewerkstelligen – es muss also eine Diktatur her. Das gerade veröffentlichte Papier des Beirats „Shifting the Trillions“ ist dann nach eigener Aussage so gestaltet, dass es die in diesem Sinne geplante Große Transformation vorantreiben wird.

Die Tatsache, dass die Bundesregierung, seit 30 Jahren in diktatorischer Öko-Umgestaltung engagiert, diese irren Pläne fördert, finanziert und sich bisweilen damit auch noch rühmt, ist mehr als schauerlich. Haben nicht sämtliche Minister und Kanzler einstmals gelobt, alles zu tun, um Unheil von der Bevölkerung abzuwenden?  Man muß sich daher die Frage stellen, ob wir aus unserer jüngeren Vergangenheit rein gar nichts gelernt haben und die gleichen Fehler im Dienste einer Finanzmafia ein zweites Mal machen. Mit dem einzigen Unterschied: diesmal unter grüner Flagge ?




National Review gewinnt, Michael Mann verliert!

Rich Lowry, der NR-Chefredakteur, sagte: „Es ist absolut lächerlich, dass wir mehr als acht Jahre gebraucht haben, um von den Gerichten Erleichterung von dieser völlig verdienstlosen Klage zu bekommen.“

Lesen Sie hier mehr.

Das Oberste Gericht von D.C. hat dem Antrag von National Review stattgegeben, die langjährige Verleumdungsklage des Klimaforschers Michael Mann abzuweisen.

Vor mehr als acht Jahren hatte Mann die NR verklagt und schrieb privat, dass er diese Klage als eine Gelegenheit sah, diese „schmutzige Organisation“ zu „ruinieren“.

Geklagt hatte er aufgrund eines Blog-Beitrags auf The Corner von Mark Steyn im Jahre 2012, in welchem Manns Arbeit kritisiert worden war. Der Klimawissenschaftler drohte mit einer Klage, falls NR den Beitrag nicht entferne und sich entschuldige. NR lehnte es ab, das zu tun. Mann verklagte daraufhin NR, Steyn und das Competitive Enterprise Institute (Steyn zitierte einen CEI-Artikel in seinem Beitrag).

NR hat von Anfang an geltend gemacht, dass der Beitrag nicht verleumderisch sei, sondern eine geschützte Meinung, und dass NR außerdem keinesfalls böswillig gehandelt haben könnte, nur weil der Beitrag nicht im Voraus überprüft und von einem Nicht-Mitarbeiter veröffentlicht wurde.

Das Gericht akzeptierte heute das letztere Argument, was bedeutet, dass die Klage noch gegen Steyn und CEI steht.

„Es ist absolut lächerlich, dass es uns mehr als acht Jahre dauerte, bis das Gericht diese völlig unsinnige Klage zurückwies“ sagte NR Chefredakteur Rich Lowry. „Und es ist empörend, dass Mann immer noch erlaubt wird, Steyn und das CEI zu belästigen.“

Mann wird wohl gegen das Urteil Berufung einlegen, während NR die Möglichkeit hat, von Mann Anwaltskosten zu verlangen. Es hat NR bereits Millionen von Dollar gekostet, sich gegen den Rechtsstreit zu verteidigen.

„Sagen wir einfach, wenn ich er wäre, wäre ich sehr besorgt über diese Möglichkeit,“ sagte Lowry.

Mehr bei Law & the Courts:

A Victory, but Miles to Go

A Harvard Law Professor Wants Democrats to Disenfranchise Republican Voters

How Trump Got Control of the Border

Joe Biden Shouldn’t Be Able to Start Wars on His Own

Aktualisierung:

Es gab viele Diskussionen um die Details der Klage. Manns ursprüngliche Klage gegen die National Review und Mark Steyn kann hier heruntergeladen werden.

Mark Steyn aktualisiert uns über den Fortschritt der Klage hier. Einer der früheren Richter in diesem Fall hatte folgendes zu sagen:

Der Hauptgedanke des Artikels des Beklagten [Steyn] sind die unzureichenden und ineffektiven Untersuchungen, die die Pennsylvania State University gegen ihre Mitarbeiter, einschließlich Jerry Sandusky und den Kläger [Michael E. Mann], durchgeführt hat“.

In der Tat.

Link: https://wattsupwiththat.com/2021/03/19/national-review-wins-michael-mann-loses/

Übersetzt von Chris Frey EIKE

 




Panik über durchgesickerte EU-Pläne, Gasanlagen als „grün“ zu kennzeichnen

[Radio France Internationale ist der Auslandsdienst des öffentlichen Hörfunks in Frankreich. RFI wird vom französischen Außenministerium finanziert.]

„Gas ist ein fossiler Brennstoff“, sagte Sebastien Godinot, Ökonom beim World Wildlife Fund, einer von 225 Wissenschaftlern, Finanzinstituten und NGOs, die in einem offenen Brief  an die EU-Exekutive  des durchgesickerten Planes wegen alarmiert sind.

Die Idee, es als umweltverträglich einzustufen, ist eine Schande.

Um „Greenwashing“ zu vermeiden und einen Goldstandard für nachhaltige Finanzierungen festzulegen, hat die EU-Kommission an einem Klassifizierungsschema bzw. einer Taxonomie gearbeitet, [ein Bewertungsschema für steuerliche Belastungen zugunsten des Klimaschutzes] die im nächsten Monat fertiggestellt werden soll.

EU taxonomy technical report by the TEG – June 2019
Textauszug Seite 14, Kasten (grobe Übersetzung)

Wirtschaftlicher Übergang zur Erreichung klimapolitischer Ziele

Um gefährliche anthropogene Eingriffe in das Klimasystem zu vermeiden, verpflichtet das Pariser Abkommen die Länder, den globalen Temperaturanstieg auf deutlich unter 2 Grad Celsius zu begrenzen und Anstrengungen zu unternehmen, um den Temperaturanstieg auf 1,5 Grad Celsius zu begrenzen. Darüber hinaus zielt das Abkommen darauf ab, die Fähigkeit der Länder zu stärken, mit den Auswirkungen des Klimawandels umzugehen.

Der IPCC-Sonderbericht über die Auswirkungen der globalen Erwärmung über 1,5 Grad erkennt dies an. Der Ehrgeiz des nächsten Jahrzehnts ist entscheidend für die Eindämmung und Anpassung des Klimawandels. Die langfristige Dekarbonisierungsstrategie der Europäischen Kommission sieht vor, dass Europa die CO2-Neutralität bis 2050 als Teil der weltweiten Bemühungen anstrebt, diese Ziele zu erreichen. Die Strategie der EU-Anpassung zielt darauf ab, Europa klimaresistenter zu machen und die Bereitschaft und Fähigkeit aller Regierungsebenen zu verbessern auf die Auswirkungen des Klimawandels zu reagieren.

Aktivitäten. Der Übergang zu einer Netto-Null-Emissionsökonomie erfordert den Übergang von einer hohen zu einer niedrigen Emission. Um dies zu erreichen, ist es notwendig, Anreize für das Wachstum sehr kohlenstoffarmer und net-zero-Aktivitäten zu schaffen und gleichzeitig erhebliche Emissionsminderungen bei anderen zu erzielen.

Das Kapital muss in Aktivitäten umgeleitet werden, die erhebliche Emissionsreduzierungen verursachen können und tragen zu einem Übergang zu einer Netto-Null-Wirtschaft bei, die aber noch nicht Netto-Null sind. Diese Aktivitäten können einen wesentlichen Beitrag zur Eindämmung des Klimawandels leisten, wenn die zugrunde liegenden Aktivitäten weder ihre Ziele untergraben noch zu einer Bindung an kohlenstoffintensive Aktivitäten, Vermögenswerte oder Prozesse führen.

https://ec.europa.eu/info/sites/info/files/business_economy_euro/banking_and_finance/documents/190618-sustainable-finance-teg-report-taxonomy_en.pdf

 

Die Spaltungen unter den 27 Mitgliedern über die Klassifizierung von Erdgas, das hauptsächlich aus Methan besteht, haben Brüssel jedoch gezwungen, sein Regelwerk neu zu formulieren.

Laut einem durchgesickerten Dokument könnten Gasanlagen, die Energie zum Heizen oder Kühlen liefern und gleichzeitig Strom erzeugen, unter strengen Bedingungen als umweltfreundliche Investitionen angesehen werden.

Die Anlagen müssen „ineffiziente“, umweltschädliche Kraftwerke ersetzen und dürfen nicht mehr als 270 Gramm CO2-Äquivalent pro kWh Energie ausstoßen.

„Die gasbetriebene Stromerzeugung spielt eine wichtige Rolle bei der Gewährleistung der Zuverlässigkeit der Stromversorgung“, heißt es in dem durchgesickerten Bericht.

Bild: Erdgas wird allgemein als Schlüssel zur Bekämpfung der globalen Erwärmung angesehen, könnte aber genauso problematisch sein wie andere fossile Brennstoffe, sagen Kritiker AFP / File

Grüne Ökonomie

Die EU hofft, bis 2050 der erste klimaneutrale Kontinent der Welt zu werden  und um dieses Ziel zu erreichen, will sie die CO2-Emissionen in diesem Jahrzehnt um 55 Prozent senken. Um dieses Versprechen zu erfüllen, versucht Brüssel, mehr Kapital in umweltfreundliche Projekte umzuleiten.

Während Länder wie Dänemark und Spanien davor warnen, die grünen Ambitionen des Blocks zu schwächen, argumentieren andere, darunter Polen und Deutschland, dass Gas ein notwendiges Sprungbrett für den Ausstieg aus der Kohle ist.

Umweltverbände, die der EU vorwerfen, „viele Schattierungen von Grün“ zu haben, sagen, dass die Taxonomie-Regeln, die im nächsten Jahr in Kraft treten sollen, selbst zu einem Greenwashing-Instrument werden könnten.

„Der Zweck der EU-Taxonomie besteht darin, Green Finance [~grüne Investitionen] korrekt zu kennzeichnen. Dies bedeutet, den besten wissenschaftlichen Erkenntnissen über die Umweltauswirkungen einer Aktivität zu folgen„, heißt es in dem offenen Brief.

 „Wenn Gas als grüne Energie  angesehen wird, werden die erheblichen Umweltauswirkungen von Methan ignoriert, dessen Auswirkungen auf den Klimawandel bis zu 84-mal höher sind als die von CO2.“

Die EU-Kommission hat sich geweigert, zu dem durchgesickerten Vorschlag Stellung zu nehmen.

https://www.rfi.fr/en/europe/20210323-alarm-over-leaked-eu-plans-to-label-gas-plants-as-green-taxonomy-fossil-fuel-environment

Übersetzt durch Andreas Demmig




Prominente und Nutznießer fordern „5 Minuten Klima“ vor der Tagesschau

Hier der Text des offenen Briefes (Auszug):

Sehr geehrter Herr Buhrow,
wir wenden uns an Sie in Ihrer Funktion als Vorsitzender der ARD.
Wir, die Vertreter:innen und Unterstützer:innen der Initiative KLIMA° vor acht, fordern Sie auf, eine wissenschaftlich fundierte und verständliche Klimaberichterstattung anzubieten, täglich und zur besten Sendezeit.
Seit gut einem Jahr können wir beobachten, wie schnell die Sender der ARD auf die Pandemie reagieren. Neuigkeiten zur aktuellen Entwicklung finden täglich Platz zur besten Sendezeit, vor und in der Tagesschau sowie in Sondersendungen im Anschluss daran. Damit leistete die ARD einen entscheidenden Beitrag zur Aufklärung der Bevölkerung und somit auch zur Bewältigung dieser Krise. Die ARD handelte hier schnell, angemessen und vorbildlich, denn COVID-19 wurde von Beginn an als Krise begriffen.
Ganz anders stellt sich das im Fall der Klimakrise dar, einer existenziellen Krise für die menschliche Zivilisation. Während wir die Auswirkungen der Erderhitzung immer deutlicher auch in Deutschland spüren, finden Berichterstattung, Einordnung und Aufklärung zu diesem Thema in den Fernsehprogrammen nur unzureichend statt. (…)
Seit 20 Jahren produziert die ARD eine börsentägliche Nachrichtensendung zur Entwicklung an den Finanzmärkten. Eine Sendung, deren Inhalte und Präsentation derart spezifisch sind, dass sie kaum viele Menschen betreffen oder interessieren. Liegt es aber nicht in der Verantwortung des öffentlich-rechtlichen Rundfunks, umfassend über eine existenzielle Krise aufzuklären, die alle Menschen betrifft?
Ein Format wie KLIMA° vor acht könnte genau das leisten. Dabei ginge es um die Vermittlung von wissenschaftlichen Fakten, Berichterstattung zu aktuellen Entwicklungen sowie Einordnung neuer Erkenntnisse. Ein tägliches Kurzformat könnte Lust auf eine lebenswerte Zukunft machen,
 Perspektiven und Lösungsansätze aufzeigen und die Notwendigkeit zum Handeln verdeutlichen.(…)
Wir haben nachgezählt: Im Jahre 2020 gab es bei der ARD 128 Sendungen, deren Titel oder Beschreibung den Begriff “Klima” beinhalteten, Wiederholungen nicht mitgezählt. Dem Thema Wirtschaft hingegen widmeten sich fast dreimal so viele, nämlich 365 Sendungen—wobei die 253 Folgen der „Börse vor acht“ noch nicht mit eingerechnet sind. Diese Gewichtung ist nicht angemessen angesichts einer existenziellen Krise, die sich beschleunigt und intensiviert.

Interessant ist hier die Gegenüberstellung von Wirtschaft und Klimarettung. Man bekommt den Eindruck, daß hier Marktwirtschafts- und Börsenkritiker (-Feinde?) eine kapitalistische Verschwörung in der ARD vermuten und fühlt sich unangenehm an das Schimpfwort von den „fossilkapitalistischen Konzernen“ erinnert, die alleine das Klima zerstör(t)en (die sozialistischen Betriebe aber nicht). Der Brief atmet ganz offen den sozialistischen Geist der Berliner taz – was die Unterzeichner trotz ihrer teils recht etablierten Positionen nicht daran hindert, ihren guten Namen dafür herzugeben.

Unterschrieben haben bislang unter anderem:

Wolfgang Niedecken / BAP

Prof. Dr. Hans-Otto Pörtner, Alfred-Wegener-Institut, Helmholtz-Institut für Polar- und Meeresforschung

Prof. Dr. Dr. Sabine Gabrysch, Professur für Klimawandel und Gesundheit an der Charité – Universitätsmedizin Berlin

Annette Frier, Schauspielerin

Prof. Dr. Stefan Rahmstorf, Professor für Physik der Ozeane, Universität Potsdam

Prof. Dr. Detlev Ganten, Founding President, World Health Summit, Charité – Universitätsmedizin Berlin

Prof. Dr. Friederike Otto, Klimawissenschaftlerin, University of Oxford, UK

Bastian Pastewka, Schauspieler

Katrin Bauerfeind, Moderatorin, Autorin und Schauspielerin

Karsten Schwanke, ARD-Meteorologe und Moderator

Prof. Hans Joachim Schellnhuber, Direktor Emeritus des Potsdam-Instituts für Klimafolgenforschung (PIK), Mitglied der Deutschen Nationalakademie Leopoldina, Träger des Bundesverdienstkreuzes 1. Klasse

WWF Deutschland

Carolin Kebekus, Comedienne, Schauspielerin, Moderatorin und Sängerin

Max Mutzke, Sänger, Songwriter, Musiker und Moderator

Prof. Dr. Harald Welzer, Honorarprofessor für Transformationsdesign an der Europa-Universität Flensburg und Direktor der Stiftung Zukunftsfähigkeit. FuturZwei in Berlin.

Hannes Jaenicke, Schauspieler und Umweltaktivist

Annika Joeres, Journalistin und Autorin

Nina Eichinger, Moderatorin

Elton (Alexander Duszat), Moderator und Entertainer

Bjarne Mädel, Schauspieler

De Bläck Föös, Musiker

Luisa Neubauer, Autorin und Klimaaktivistin

Prof. Dr. James E. Hansen, Director Climate Science, Awareness and Solutions Program Columbia University Earth Institute

Prof. Dr. Michael E. Mann, Distinguished Professor of Atmospheric Science, Penn State University, USA.

Prof. Dr. Volker Quaschning, Professor für Regenerative Energiesysteme an der Hochschule für Technik und Wirtschaft, Berlin

Germanwatch e.V., Bonn

Jean Pütz, Fernsehmoderator und Journalist

Rebecca Immanuel, Schauspielerin und Sängerin

Miriam Stein, Schauspielerin

Marcus Mittermeier, Schauspieler

Ralph Ruthe, Cartoonist

Man sieht – die üblichen Verdächtigen aus der universitären und NGO-Nutznießerszene, die von Steuergeldtransfers für „Problemlösung“ nach dem Prinzip von Helmut Schelsky leben („Die Arbeit tun die anderen„). Hinzu kommen die Stars und Sternchen, die man aus dem öffentlich-rechtlichen Rundfunk kennt, die zwar unmittelbar nicht von der Klimarettung profitieren, sich mittelbar aber für Verträge von ARD und ZDF qualifizieren und dort dann die „richtige Gesinnung“ lehren.

Die Vereinsmitglieder von KLIMA° vor acht kennt man als Laie nicht – es handelt sich nach eigener Angabe um Wissenschaftler und Journalisten, aber auch Studenten (ohne Familiennamen?).




Klimaschau 22 – die Tagesschau von Sebastian Lüning




Verlauf von CO2 und Temperatur über Jahrtausende

Abbildung 1: CO2-Gehalt laut Eisbohrkern und laut instrumentellen Messungen am Mauna Loa

Beachten Sie, dass es eine gute Übereinstimmung zwischen den dreizehn verschiedenen Eiskernen gibt, ebenso wie eine gute Übereinstimmung während der Periode der Überlappung zwischen den Eiskern- und den instrumentellen CO2-Daten.

Um zu sehen, wie das CO2 mit der Temperatur seit dem Jahrespunkt zusammenhängt, nahm ich diesen CO2-Datensatz und überlagerte ihn mit der Ljundqvist-Rekonstruktion der Temperatur-Variabilität der außertropischen nördlichen Hemisphäre von 30°N bis 90°N. Es ist ein dekadischer Durchschnittswert, der vom Jahr 1 bis zum Jahr 1999 reicht. Ich habe auch die aktuellen dekadischen Mittelwerte von Berkeley Earth für den Zeitraum seit dem Ende der Studie, für 2000-2009 und 2010-2019, hinzugefügt. (Da es sich bei dem einen Datensatz um einen Proxy-Datensatz und bei dem anderen um einen instrumentellen Datensatz handelt, habe ich die Varianz des Berkeley Earth-Datensatzes so angepasst, dass sie mit der Varianz des Proxy-Datensatzes über den Zeitraum ihrer Überlappung übereinstimmt, also von 1850 bis 1999. Dies ist das gleiche Verfahren, das Ljundqvist für die schwarze gestrichelte Linie in seiner Rekonstruktion verwendet hat).

Hier ist die Grafik:

Abbildung 2: dekadische Temperatur-Rekonstruktion nach Ljungqvist 90-30°N, zu der ich Eiskern- und instrumentelles CO2 hinzugefügt habe, sowie die beiden letzten Dekaden der Berkeley Earth Mitteltemperaturen 90-30°N (blaue Kreise). Die Eiskerndaten sind eine Lowess-Glättung der einzelnen Eiskerndatenpunkte, die in Abbildung 1 dargestellt sind.

In Abbildung 2 sehen wir die frühe „Römische Warmzeit“, die bis etwa zum Jahr 200 n. Chr. andauerte. Danach sanken die Temperaturen bis etwa zum Jahr 500 n. Chr.. Danach erwärmte sich die Welt wieder bis zur „Mittelalterlichen Warmzeit“, gefolgt von einer weiteren Abkühlung bis zur „Kleinen Eiszeit“ ab, die etwa um das Jahr 1700 n. Chr. Endete. Danach schließlich ist die Temperatur über die folgenden drei Jahrhunderte seit der Kleinen Eiszeit in Schüben wieder gestiegen.

Hier sind meine Fragen zu dieser historischen Temperaturaufzeichnung:

● Warum begann die Temperatur nach der Römischen Warmzeit zu sinken? Warum ist es nicht einfach warm geblieben?

● Warum begann die Abkühlung im Jahr 200 n. Chr. und nicht etwa im Jahr 600 n. Chr.?

● Warum begannen die Temperaturen um 550 n. Chr. zu steigen bis zum Höhepunkt der Mittelalterlichen Warmzeit um 1000 n. Chr.? Es hätte kalt bleiben können … blieb es aber nicht.

● Warum erfolgte die Erwärmung von 550 bis 1000 n. Chr., und nicht von, sagen wir, 800 bis 1300 n. Chr.?

● Was verursachte die stetige Abkühlung von etwa 1000 n. Chr. bis zum Tiefpunkt der Kleinen Eiszeit um 1700 n. Chr.?

● Warum fand diese Abkühlung von etwa 1000-1700 n. Chr. stzatt und nicht z. B. von 1250-1850 n. Chr.?

● Warum hat sich die Welt nicht weiter abgekühlt bis zu einer echten Vergletscherung, anstatt dass die Abkühlung um das Jahr 1700 n. Chr. aufhörte? Angesichts der Milankovich-Zyklen und der Länge der anderen warmen Zwischeneiszeiten ist eine weitere echte Eiszeit überfällig.

● Warum begann sich die Temperatur am Ende der Kleinen Eiszeit wieder zu steigen anstatt einfach bei der Temperatur von 1700 n. Chr. zu verharren?

● Warum ist es von der Kleinen Eiszeit bis zur Gegenwart in Schüben wieder wärmer geworden?

Der Grund, warum das alles so wichtig ist, ist Folgender:

NICHT EIN KLIMAWISSENSACHAFTLER KENNT DIE ANTWORT AUF DIESE FRAGEN.

Kein Einziger zu keiner einzigen Frage.

Und aus Abbildung 2 geht eindeutig hervor, dass die Antwort NICHT CO2 lautet.

[Hervorhebungen im Original]

Ohne ein ausreichendes Verständnis des Klimas zu haben, um die Antworten auf diese Fragen zu kennen, gibt es absolut keine Möglichkeit zu sagen, ob die jüngste Erwärmung nicht einfach nur eine weitere natürliche Schwankung der Erdtemperatur ist.

Apropos Schwankungen, ich stelle in Abbildung 2 fest, dass die Oberflächentemperatur der außertropischen Nordhemisphäre der Erde in den letzten 2000 Jahren in einem Bereich von etwa 1,5°C variiert hat. Die Oberflächentemperatur der Erde liegt in der Größenordnung von 288 Kelvin, so dass dies einschließlich der Varianzanpassung eine Temperaturschwankung in der Größenordnung von einem Prozent über einen Zeitraum von zweitausend Jahren darstellt … für mich ist dies das Interessanteste am Klima – nicht wie sehr es sich im Laufe der Zeit verändert, sondern wie wenig es sich verändert.

Diese thermische Stabilität ist nicht auf thermische Trägheit zurückzuführen – die Temperatur auf dem Festland jeder Hemisphäre schwankt im Laufe eines jeden Jahres um etwa 15°C, und der Ozean auf jeder Hemisphäre variiert jedes Jahr um etwa 5°C.

Ich behaupte, dass diese überraschende und außergewöhnliche Stabilität auf die thermoregulierende Wirkung von emergenten Klimaphänomenen zurückzuführen ist, darunter Staubteufel, tropische Kumulusfelder und Gewitter, der El Nino/La Nina-Prozess, der überschüssige Wärme zu den Polen pumpt, Tornados und Hurrikane. Ich beschreibe diese Theorie der emergenten Thermoregulation in einer Reihe von Beiträgen, die in meinem Index 2021 meiner Beiträge hier im Abschnitt „Emergenz“ aufgeführt sind. Diese wirken, um die Erde entweder vor übermäßiger Erwärmung oder Abkühlung zu bewahren.

Jedenfalls habe ich in letzter Zeit immer wieder daran gedacht – an 2000 Jahre des Temperaturverlaufs und dass dieser Verlauf in keiner Weise vom CO2-Gehalt bestimmt wird …

——————————
Technische Anmerkung: Einige Leute haben gefragt, ob es in Ordnung ist, Proxy- und Instrumentaldaten oder allgemeiner zwei Datensätze, die angeblich dasselbe Phänomen messen, zu verbinden.

Meine Antwort ist absolut ja, FALLS zwei Bedingungen erfüllt sind:

Bedingung 1: Es gibt genügend zeitliche Überlappung zwischen den Datensätzen, um zu überprüfen, ob die beiden Datensätze die gleiche Antwort geben. In diesem Fall gibt es zum Beispiel eine Überlappung zwischen instrumentellen und Proxydaten sowohl für die Eiskern-/Instrumental-CO2-Aufzeichnungen als auch für die Proxy-/Instrumental-Temperaturaufzeichnungen. Abbildung 1 zeigt die Überlappung von Eiskern/Mauna Loa CO2. Hier ist eine Nahaufnahme der Überlappung zwischen der Ljungqvist-Temperatur und der varianzbereinigten Berkeley Earth-Temperatur:

Abbildung 3. Nahaufnahme, Überlappung von Ljungqvist-Temperatur und varianzbereinigter Berkeley-Earth-Temperatur

 

Wenn Sie die Abbildungen 1 und 3 betrachten, können Sie die Überlappung in jedem Fall sehen und überprüfen, dass die Proxy- und die instrumentellen Aufzeichnungen eindeutig in guter Übereinstimmung sind.

Bedingung 2: Die Tatsache der Überlappung wird klar und deutlich gemacht, ohne dass versucht wird, sie zu verbergen. In beiden Diagrammen ist der Überlappungszeitraum klar dargestellt, und die Existenz des Spleißes wird auch im Text bestätigt.

Hier ist ein Beitrag von mir, der das Spleißen diskutiert, passenderweise mit dem Titel „Splicing Clouds“ …

Link: https://wattsupwiththat.com/2021/03/22/millennial-co2-and-temperature/

Übersetzt von Chris Frey EIKE

 




Wer schützt uns endlich vor der wild geworde­nen Politiker­meute?

Nun haben wir eine neue Pandemie

Am 22.03. wurden die neuen Coronamaßnahmen verkündet [2] und der Bayerische Lokalfürst Söder (Jurist) klärte seine Untertanen wieder auf, warum diese leider, aber unvermeidbar, immer härter erforderlich werden; dpa 23.03.2021 [3]: Söder: Die Lage ist ernst und wird sehr viel ernster werden «Die dritte Welle rollt durch Bayern», sagte er. Und diese sei deutlich gefährlicher, es handle sich quasi um eine komplett neue Pandemie. Sechs Wochen sei es bei den Corona-Zahlen abwärts gegangen, seit vier Wochen gehe es wieder nach oben …
Der selbsternannte Chef-Epidemiologe Söder korrigierte sich inzwischen und verschärfte seine Aussage (Zitierung aus einer Tageszeitung): „Es ist eine neue Pandemie“, sagte der CSU-Politiker. „Es ist nicht einfach der dritte Aufguss“.

Irgendwelche Hemmungen hat er dabei nicht. Denn seine Untertanen sind daran ja selbst schuld, weil sie sich nicht strengstens an seine Regeln halten.

Wenn unsere Staats-Orakel sprechen

Unsere unfehlbare Merkel soll am 22.03. in der Kanzlerrunde mit einem ihrer typischen Schwurbelsätze gesagt haben (Zitierung aus einer Tageszeitung): „Insgesamt verhehle ich nicht, dass wir eigentlich den Reisehinweis geben, dass man dieses Jahr eben nicht reisen sollte“.
Einst berichtete die gleiche Zeitung, dass Informationen mit Grammatikfehlern von guten Bürgern nicht gelesen werden sollen, da solche grundsätzlich räääääächts sind und damit nur Unwahrheiten enthalten können …

Doch Ironie beiseite. Wie schon damals bei der griechischen Variante, können ausschließlich „Eingeweihte“ (damals Priester) Orakelsätze richtig deuten. Regierungssprecher Seibert ist der Priester für unser Staatsorakel und deutete die Aussage wie folgt (Zitierung aus der Tageszeitung): Doch Regierungssprecher Seibert stellte später auf Twitter dar, dass es bei diesen Aussagen Angela Merkels vor allem um die Osterzeit und die kommenden Wochen danach gehen sollte.
Der damit neu geknüpfte, Gordische Knoten lässt sich wohl entwirren, indem man davon ausgeht, dass sich „die kommenden Wochen“ über das gesamte Jahr erstrecken. Ob zur „Vermeidung“ eines Dauer-Lockdown die eben erfundenen Corona-Ruhetage dazu bis zum Jahresende verlängert werden, wird wohl eine der nächsten Nachtsitzungen (inzwischen offiziell als „Geisterstunden“ in die Geschichte eingehend) in kleiner Runde entscheiden …

Es gibt aber noch weitere Orakel. Karin Maag, die gesundheitspolitische Sprecherin der Union im Bundestag (Juristin) sagte in „hart aber fair, Der verschobene Frühling: Dritter Lockdown statt weiter lockern? (ARD)“ am 22.03.2021 allen Ernstes: „Wir hatten nie einen Lockdown“
Berichtet wurde es in [9]. Der Autor hat sich angewöhnt, alles nachzuprüfen. Also hat er das Video auf YouTub angesehen (Link) und wirklich, bei 26:23 kommt diese Aussage von ihr als Einwurf in einer Diskussion.
Da steckt zwar kein Grammatikfehler drin. Doch ist der Unterschied zwischen „Corona leugnen“ und „Lockdown leugnen“ wirklich groß? Jedenfalls bestätigt es das Bild über unseren Politikzirkus in Berlin.

Bisher haben unsere Maßnahmen nichts bewirkt. Deshalb müssen alle verschärft so weiter machen ….

ist im Wesentlichen das Einzige, was denen in Berlin und leider auch den Landesfürsten nach über einem Jahr Corona einfällt:
[2] Tichys Einblick, 23.03.2021: Karwoche mit Merkel – Lockdown total: Lebensmittelgeschäfte zu, kein Urlaub, keine Gottesdienste, „Ansammlungsverbot“
Merkel erreicht bei diesem Corona-Gipfel eine nie dagewesene Radikalität. Sie wollte für fünf Tage alle Geschäfte schließen – wirklich alle. Das konnte noch abgeschwächt werden. Zu den Ergebnissen fehlen einem dennoch die Worte.
… Am Karsamstag soll der Lebensmitteleinzelhandel im engen Sinne geöffnet bleiben dürfen, am Gründonnerstag sollen aber sogar der Lebensmitteleinzelhandel und Supermärkte geschlossen werden. Dazu kommt für fünf Tage ein „Ansammlungsverbot“, bei dem grundsätzlich nur noch Personen aus zwei verschiedenen Haushalten zusammenkommen dürfen. Ostern mit der Familie fällt also genauso aus wie Demonstrationen und Gottesdienste. Man wolle auf die Religionsgemeinschaften zugehen mit einer „Bitte“ – wie freiwillig diese Bitte dann angenommen werden muss, bleibt offen.
… Mitfahrer im Auto, die nicht zum eigenen Haushalt gehören, sind zum Tragen einer medizinischen Maske verpflichtet

Wer den Originalbeschluss lesen will: [5] Videokonferenz der Bundeskanzlerin mit den Regierungschefinnen und Regierungschefs der Länder am 22. März 2021 Beschluss
Warum unseren Politikern weiterhin nichts Sinnvolleres einfällt, brachte Söder vorher im Bayerischen Landtag auf den Punkt: Söder verteidigt seinen Kurswechsel, erklärt, dass der Inzidenzwert weiter die einzig belastbare Größe sei und dass ihm noch niemand eine tragfähige Alternative genannt hat …

Aber es vermittelt immerhin ein Erwartungs-Gefühl wie vor Weihnachten, nachdem nun auch das Osterfest angeordnet ausfällt.

Bild 1

Die Untertanen müssen endlich erkennen, dass das Grundgesetz nicht für sie, sondern für „die Partei“ zur freien Verfügung geschaffen wurde.

Großzügig lassen wir aber in ganz kleinem Rahmen zu, dass unter strengsten Auflagen „getestet“ wird, ob das, was sich woanders seit Langem bewährt hat, vielleicht bewähren könnte

Nachdem ein kleines Städtchen im Land belegt, dass man mit Überlegen und sinnvollen Maßnahmen wesentlich billiger und vor allem viel erfolgreicher zurechtkommt, was allerdings auch ein ganzes Land im Norden zeigt, dessen Erfolg trotzt aller negativen Stör-Propaganda unserer Medien doch zu bekannt wurde, war es politisch wohl nicht mehr möglich, dies weiterhin vollkommen zu ignorieren.

Und so wurde nun nach über einem Jahr Corona erstmals „erlaubt“ die seit langer Zeit funktionierenden Öffnungsmodelle von Tübingen und Schweden für ganz Wenige unter sturer Einhaltung regulatorischer und technisch noch gar nicht in funktionierende Form verfügbarer Maßnahmen „an-testen“ zu dürfen:
[5] 6. Im Rahmen von zeitlich befristeten Modellprojekten können die Länder in einigen ausgewählten Regionen, mit strengen Schutzmaßnahmen und einem Testkonzept einzelne Bereiche des öffentlichen Lebens öffnen, um die Umsetzbarkeit von Öffnungsschritten unter Nutzung eines konsequenten Testregimes zu untersuchen.
Zentrale Bedingungen dabei sind lückenlose negative Testergebnisse als Zugangskriterium, IT-gestützte Prozesse zur Kontaktverfolgung und ggf. auch zum Testnachweis, räumliche Abgrenzbarkeit auf der kommunalen Ebene, eine enge Rückkopplung an den Öffentlichen Gesundheitsdienst und klare Abbruchkriterien im Misserfolgsfalle.

Nehme man einmal an, das immerwährende Problem nicht funktionierender „IT-gestützter Prozesse“ in öffentlicher Verantwortung würde von unserer zwischenzeitlich von der medialen Bildfläche gänzlich verschwundenen Ministerin für Digitalisierung gelöst werden, stellt sich die Frage, ob schon jemand bedacht hat, wie verblüffend (katastrophal) Schnelltest derzeit funktionieren. Dazu ein aktuelles Beispiel:
Im beschaulichen, fränkischen Städtchen Altdorf wurden 180 Schüler eines Gymnasiums von Fachpersonen (Leitung: BRK, Testpersonal: Mehrere Ärzte, Krankenschwestern und ein Rettungssanitäter) einem Corona-Schnelltest unterzogen [6]. Der Schnelltest meldete davon 29 Schüler als Corona-Positiv. Im Schnelltest positiv gemeldete müssen dann einem weiteren PCR-Test unterzogen werden. Danach blieb nur noch ein!!! positives Ergebnis übrig.
Wenn solche „Testqualitäten“ massenhaft eingesetzt werden, ist das völlige Chaos vorhersehbar.

Beschlossene Maßnahmen und vergleichende Datenbasis

Als Bürger versucht man manchmal, Entscheidungswege unserer „Intelligenz“ Politiker nachzuvollziehen. Obwohl das (nicht nur) bezüglich „Corona“ dem Autor seit Langem nicht mehr gelingt, anbei wieder recherchierte und teils aufbereitete Daten, anhand derer jeder Leser entscheiden mag ob er die Maßnahmen und Verlautbarungen unserer Politiker und deren Hofberaterschranzen für sinnvoll und notwendig hält.

Eine Übersicht lieferte Achgut: [1] Achgut 22.03.2021: Lockdown für die Panikmacher! Oder: Lest doch bitte die RKI-Zahlen
Darin wird der RKI-Coronabericht [7] 2021-03-18-de.pdf (rki.de) rezensiert.
Denn dieser Bericht widerlegt in vielen Details die alarmistischen Aussagen des gleichen Instituts. Das möge aber bitte jeder selbst nachlesen. Anbei nur ein paar „Auszugsplitter“:

Bild 2 RKI-Bericht Auszug [7]
Bild 3 RKI-Bericht Auszug [7]
Anbei wieder lokale Beispiele, weil solche die Diskrepanz zwischen behördlichen Maßnahmen und der (nicht erkennbaren) Gefährdung konkreter aufzeigen.

Nürnberg und Fürth

Die direkt nebeneinander liegenden Städte Nürnberg und Fürth haben eine 7-Tage-Inzidenz von deutlich über 100 und deshalb die vorgeschriebenen, vom Landesvater Söder verordneten Einschränkungen unerbittlich umgesetzt.

Nur wenn zum Beispiel durch (den Behörden bekannte) Meldeverzögerungen die Inzidenz doch mal kurzzeitig unter 100 rutscht, wagt es eine der Städte, wieder – teilweise nur für einen Tag – von den verordneten Restriktionen abzuweichen, da es „die Zahl“ erlaubt. Eine perfekte Demonstration, dass die Verantwortlichen in den Behörden jegliches „Wissen“ (so solches vorhanden sein sollte) vergessen und streng nach Zahlenwertvorgaben handeln.

Ansonsten wagen es beide „Städte“ selbst bei der kleinsten Inzidenz-Abweichung partout nicht, von den verordneten Vorgaben abzuweichen, denn eigenständiges Denken und Mut zu entscheiden ist den dafür Zuständigen und den Stadtspitzen vollkommen fremd. Weder die Bayerische SPD, noch die CSU erkennen, wie sinnvoll es sein könnte, für „spätere Zeiten“ einen Märtyrer – wie es die GRÜNEN (notgedrungen) mit (dem renitenten) B. Palmer „machen“ – walten zu lassen, zur Belegung, wie mutig und richtig (jemand von der Partei) schon gehandelt hat, als sich noch alle vehement dagegen stemmten …

Dabei ist weder in Nürnberg, noch im kleinen Städtchen Fürth auch nur entfernt eine Corona-Gefährdung der Bevölkerung erkennbar.
Um das zu „sehen“, muss man sich allerdings die Daten des RKI laden und die Werte mühsam „zusammenfieseln“, um sie grafisch darstellen zu können:

Nürnberg Datenabruf: 21.03.2021; Datenstand: 20.03.2021
Fürth Datenabruf: 22.03.2021; Datenstand: 21.03.2021
Zuerst der überall gemeldete, „exponentielle Anstieg“ der Fallzahlen. Beide Städte verweigern sich vehement, dabei „mitzumachen“. Man gewinnt den Eindruck, dass „exponentiell“ inzwischen als reines Modewort verwendet wird, um „mathematische Kompetenz“ auszuweisen:

Bild 4 Städte Fürth und Nürnberg, Tageswerte Corona-Meldefälle seit dem 01.01.2021. Grafik vom Autor erstellt. Datenquelle: RKI-Coronadaten

Ein Vergleich der Fallzahlen mit den Corona-Todesfällen zeigt immer neu, dass die Inzidenz keinerlei Aussage über eine Gefährlichkeit liefert (mögen es die unfehlbare Merkel und der heilige Söder auch immer neu behaupten) – und, dass eine solche in beiden Städten auch weiterhin nicht entfernt besteht:

Bild 5 Städte Fürth und Nürnberg, Tageswerte Corona-Todesfälle seit dem 01.01.2021. Grafik vom Autor erstellt. Datenquelle: RKI-Coronadaten

Zum Schluss zeigt ein Vergleich der altersbedingten Coronamortalität, dass alleine schon der Schutz der Hoch-Risikogruppe ab ca. 75+ zur Eindämmung der restlichen Gefährdung ausreicht, weil für die Altersgruppen darunter die Mortalitätsgefahr gering bis sehr gering ist.
Auszug aus [8]: Bisher sind in ganz Deutschland an oder mit Corona gestorben:
10 Kinder und Jugendliche unter 20 Jahren
60 Menschen unter 30 Jahren
193 Menschen unter 40 Jahren
591 Menschen unter 50 Jahren
2.502 Menschen unter 60 sind bisher an oder mit Corona gestorben
8.181 Menschen unter 70 sind bisher an oder mit Corona gestorben
65.264 Menschen, die älter sind als siebzig Jahre, sind bisher an oder mit Corona gestorben

Insgesamt sind über grob ein „Coronajahr“ bisher 73.445 Menschen in Deutschland an oder die Meisten eher mit Corona verstorben. Im Jahr 2018 sind „ohne“ Corona 953.295 Personen verstorben. Der Anteil an- oder vor allem mit Corona-Verstorbenen beträgt also ungefähr 7,7 … 10 %.

Grafik Nürnberg-Fürth:

Bild 6 Städte Fürth und Nürnberg, Tageswerte Corona-Todesfälle unter und über dem Alter 80+ seit dem 01.01.2021. Grafik vom Autor erstellt. Datenquelle: RKI-Coronadaten

Herr Dr. Wagner vom Klinikum Fürth sagte dazu (Zitierung aus einer Lokalausgabe vom 24.03.): „ … ich könnte mir schon vorstellen, dass es weniger Tote gibt ...

Wird die Hysterie so weitergeführt (der Klimawandel ist ein Beispiel, dass es passiert, wenn der „Nutzen“ für Günstlinge eine Kippschwelle überschreitet), dann wird ab jetzt jede Grippewelle zum Problem „Jahrhundert + x“ und eine Goldgrube für Pharmakonzerne.

Wöchentlicher „Coronabericht“ des statistischen Instituts der Uni München

Danach hat es weder im Jahr 2020 eine Übersterblichkeit gegeben, noch besteht derzeit eine. Auch eine Überlastung der Intensivstationen ist nicht erkennbar.

Im aktuellen Bericht „CODAG Bericht Nr. 11 19.03.2021“ steht: … In allen drei Graphiken ist ein Rückgang der tödlichen COVID-19 Fälle bis einschließlich Kalenderwoche 9 zu erkennen. Für ganz Deutschland sind nach unseren Berechnungen weniger als 200 tödliche Todesfälle im Tagesschnitt zu erwarten. Dies ist ca. 75% weniger als noch um den Jahreswechsel. Für Kalenderwoche 10 setzt sich der abfallende Trend der tödlichen COVID-19 Fälle sowohl bei den unter 80-Jährigen als auch bei den über 80-Jährigen nicht fort. Allerdings ist zu beachten, dass die Schätzung mit statistischer Unsicherheit belegt ist, was durch den grauen Hintergrund in Form eines 95% Konfidenzintervall visualisiert ist …

Bild 7 Bundesländer, tägliche Neuaufnahmen ICU/100 Tsd. Einwohner. Bild aus CODAG Bericht Nr. 11 19.03.2021

Bild 8 Bayern Mortalitätsrate. Bild aus CODAG Bericht Nr. 11 19.03.2021

Bild 9 Deutschland, tägliche, tödliche COVID-19 Infektionen. Bild aus CODAG Bericht Nr. 11 19.03.2021

Trotzdem wurde ein noch schlimmererer Lockdown beschlossen.

Wie sehen es unsere Medien

Unsere Medien ereifern sich über die gerade beschlossenen Maßnahmen. Allerdings nicht, weil sie diese für übertrieben halten, sondern, weil sie diese „Härte“ schon längst gesehen haben wollten.

WELT, 23.03.2021: „Deutschlands Regierung kapituliert vor den Grundzügen der Vernunft“
„… Das eigentliche Versagen ist nicht, was gestern beschlossen wurde. Das eigentliche Versagen ist, dass die deutsche Politik gar keine Alternativen mehr zum Shutdown hatte. Weil in den vergangenen Monaten so viel versemmelt wurde, dass Lockerungen in der Tat nun keine Option mehr waren …
Dabei wären die anhaltenden Einschränkungen der Freiheitsrechte vermeidbar gewesen, hätte die Politik in der Vergangenheit konsequenter und entschlossener gehandelt. Das gilt für beide Disziplinen der Pandemiebekämpfung. Für das Shutdown-Management. Und für die Beschaffung von Hilfsmitteln und deren systematischen Einsatz …

So steht die Bundesregierung im März 2021 ähnlich hilflos da wie im März 2020. Damals war das verständlich, heute ist es unverzeihlich.“
Die „Welt“ zitiert hier den „Spiegel“. Nur fragt man sich: Haben die Redaktionen dieser Medien überhaupt schon einmal die wirklichen Zahlen angesehen? Wohl kaum.

Aber es ging wohl um etwas anderes. Die unfehlbare Merkel muss weiterhin gelobt und unfehlbar bleiben:
WELT, 23.03.2021: (Hier zitiert sie aus der taz) … „Dass sich die Länderchef:innen beim letzten Treffen Anfang März mit ihrer Linie gegen Merkel durchgesetzt haben, nicht mehr die Unterschreitung der Schwelle von 35 Neuinfektionen pro 100.000 Einwohner:innen binnen sieben Tagen als Kriterium für mögliche Lockerungen zu definieren, rächt sich inzwischen.
Als ob das nicht reicht, werden schon die nächsten Horrorszenarien vermittelt. Wie beim Klimawandel nun als Simulation:
Tagesspiegel, 22.03.2021: „Notbremse wird daran nichts ändern“: Modellierung zeigt dramatische, dritte Corona-Welle in Deutschland
Berliner Forscher warnen in einer Studie für den Bund-Länder-Gipfel vor stark steigenden Inzidenzen. Sie empfehlen, auf jegliche Kontakte in Räumen zu verzichten.
Die dritte Welle der Covid-19-Pandemie könnte zu deutlich höheren Inzidenzen führen als die zweite. Das ist das Ergebnis einer neuen Modellierung vom Fachgebiet Verkehrssystemplanung und Verkehrstelematik von
Kai Nagel an der TU Berlin.

Daran wird auch eine potenzielle Notbremse, wie sie eventuell am 22. März 2021 in der Bund-Länder-Konferenz entschieden wird, nichts mehr ändern“, schreiben die Forschenden in einer Untersuchung, die am Montag auf dem Corona-Gipfel von Bund und Ländern vorgestellt werden sollte.

Berater“

„Verlassen“ wir einmal die sattsam bekannten Hofberaterschranzen, welche ausschließlich das liefern – inzwischen sogar auf Bestellung – was die Politikkasperriege in Berlin hören möchte. Auch lokale Fachpersonen scheuen sich nicht, wirklich Sonderbares zu publizieren.

Der Pandemiebeauftragte des Fürther Klinikums „geht“ nun auch ins Fernsehen, um seine Ansicht über erforderliche Coronamaßnahmen in die Breite zu bringen (und vielleicht, um irgendwo zu zeigen, dass man auf ihn zählen kann):

Bild 10 Link zum Video

In der lokalen Zeitung führte es Herr Dr. M. Wagner aus und erklärte dazu in einem Artikel: „Wieder harsche Politik-Schelte aus dem Klinikum“, dass er von der Ministerpräsidentenkonferenz bezüglich der Coronaeinschränkungen für die Bevölkerung ein „agileres“ – also härteres Vorgehen – fordert.

Begründet wurde dies mit (Zitierungen aus dem Zeitungsartikel):
… das Aufschieben eines erneuten Lockdowns … dieser ist … aufgrund des exponentiellen Anstiegs der Neuinfektionen … aus medizinischer und epidemiologischer Sicht unausweichlich geworden
… Zum anderen steige die Zahl der Coronatoten … „dieses Mal werden es Jüngere sein“ …
… Bitte passen Sie ihre Entscheidungsprozesse und Strategien dem Virus und den damit verbundenen Herausforderungen an. wir können es uns einfach nicht mehr leisten zu warten …

Dabei hatte dieser Mediziner in der lokalen Tageszeitung am 05.03. noch stolz berichtet, wie erfolgreich man in seinem Klinikum Covid-Infizierte inzwischen behandeln kann:
Herr Dr. Wagner: „Inzwischen gebe es gute Therapiemöglichkeiten bei einer Covid-19-Erkrankung, zum Beispiel mit Antikörpern … sechs Patienten hatten sich mit dem Virus infiziert … kein Einziger ist danach an Covid erkrankt … “.

Wie in solch extremen Fällen von Diskrepanz zwischen Aussagen und Daten (hier den lokalen von Fürth und Nürnberg) „üblich“, fragte der Autor bei dieser Fachperson nach Belegen an:
Corona-Daten Fürth und Nürnberg
Die aktuellen Daten des RKI für Fürth und Nürnberg (sowie alle weiter gelisteten), von mir grafisch aufbereitet, zeigen weder:
einen „exponentiellen Anstieg“ der Fallzahlen,
noch eine erhöhte Sterblichkeit an Corona,
noch eine Erhöhung der Sterblichkeit jüngerer Jahrgänge an Corona
erkennbar ist dazu, dass die Inzidenz keinerlei Aussage zur wirklichen Gefährdung liefert
Daraus würde ich ableiten, dass mit gesichertem Schutz der einzig wirklich gefährdeten Personen über 75 eine „Freigabe“ des öffentlichen- und beruflichen Lebens problemlos durchführbar und damit dringend angebracht wäre …

Eine Antwort wird nicht erwartet. Sollte sie doch noch kommen, wird sie mindestens im Kommentarteil nachgetragen.

Die Intensivstationen füllen sich wieder“

Aktuell häufen sich Meldungen von Kliniken, dass ihre Intensivstationen durch die „Dritte Welle“ – oder laut Söder „neue Pandemie“ überlastet sind, beziehungsweise es werden könnten.

So meldete eine Lokalzeitung am 24.03., dass die Zahl der Corona-Intensivpatienten in Bayern zwar von 912 auf 428 reduzierte, nun aber wieder auf 519 erhöht hat.
Das Klinikum Fürth meldete, dass es zwar einst einen Höchststand von 68 Covid-Patienten hatte, heute aber schon wieder 25. Ein Problem sei, dass teils bei nur einem Intensivpatienten mehr, eine ganze Intensiveinheit mit 5 Betten für Coronapatienten „umgewidmet“ werden muss.
In den Krankenhäusern des Rettungsdienstbereiches Nürnberg liegt die Zahl der Covid-19-Patienten bei etwa einem Drittel der Behandlungszeiten während der zweiten Welle und bei den Intensivpatienten bei ca. der Hälfte.
Beim Intensivregister sieht man, dass in Bayern die Anzahl der belegten Notfallbetten seit dem 1. April letzten Jahres gleich geblieben ist (da Corona im Sommer eine längere Pause machte, ist es wohl die Belegung mit allen Fällen), und die Notfallreserve zwischenzeitlich (wohl aus Kostengründen?) erheblich abgebaut wurde.

Bild 11 Angaben des DIVI für Bayern

Vergleicht man mit den Angaben der Helios-Klinikgruppe, wird man den Verdacht nicht los, dass bei den Darstellungen auch Geldthemen eine nicht zu unterschätzende Rolle spielen.

Die Helios-Klinikgruppe gibt wöchentlich Auslastungsdaten zu Corona heraus.
Helios Kliniken Information zu aktuellen COVID-19-Fallzahlen Übersicht Sonntag, 21. März 2021:

Bild 12 Helios Kliniken, Daten ab dem 27.10.2021. Datenstand: 21. März 2021, COVID-19-Daten

Bild 13 Helios Kliniken, Daten ab dem 27.10.2021. Datenstand: 21. März 2021, COVID-19-Daten

Wie beim Klimawandel: Sicher ist nur, dass nichts sicher ist

Nach dem Absenden dieses Artikels kam die Meldung: dpa – Mittwoch, 24. März 2021: Kreise: Osterruhe soll gekippt werden – Kanzlerin Angela Merkel (CDU) hat nach massiver Kritik entschieden, den Bund-Länder-Entscheid zur sogenannten Osterruhe zu stoppen.

Insofern interessant, weil genau solches Vorgehen bei „hart aber fair“ massivst angeprangert wurde. Aber nach über einem Jahr „Corona“ wundert einen wirklich nichts mehr …

Quellen

[1] Achgut 22.03.2021: Lockdown für die Panikmacher! Oder: Lest doch bitte die RKI-Zahlen

[2] Tichys Einblick, 23.03.2021: Karwoche mit Merkel – Lockdown total: Lebensmittelgeschäfte zu, kein Urlaub, keine Gottesdienste, „Ansammlungsverbot“

[3] dpa 23.03.2021: Söder: Die Lage ist ernst und wird sehr viel ernster werden

[4] EIKE 11. März 2021: Wartet Nürnberg nun auf Corona-Auferstehungen…

[5] Videokonferenz der Bundeskanzlerin mit den Regierungschefinnen und Regierungschefs der Länder am 22. März 2021 Beschluss

[6] Lokalausgabe der Nordbayerischen Nachrichten vom 17.03.2021: „Schnelltests werfen Fragen auf“

[7] RKI-Coronabericht 2021-03-18-de.pdf (rki.de)

[8] Achgut, 16. März 2021: Ein Jahr Corona – Die aktuellen Zahlen

[9] Tichys Einblick 23. März 2021: Verzweifeltes Regierungs-Retten bei Hart aber Fair : „Wir hatten nie einen Lockdown“