1

PAGES 12K: Die Eiszeit geht weiter

Ich denke, das Papier stellt einen gutgläubigen Versuch dar, den globalen Klimawandel über die letzten 12.000 Jahre zu rekonstruieren. Die Autoren waren sehr transparent, was die Daten und Verfahren angeht, und merkten sogar an, dass niemand wirklich weiß, wie man das Klima auf dieser Art von Skala rekonstruieren kann. Obwohl es sich nicht um einen Mann’schen Hockeystick oder ein Marcott’sches Durcheinander handelt, bestanden sie darauf, die niederfrequente Komponente des Klimasignals auszublenden und die hochauflösende instrumentelle Aufzeichnung direkt mit der sehr niederfrequenten, stark geglätteten Multi-Proxy-Rekonstruktion zu vergleichen. Das heißt, eine ihrer fünf Rekonstruktions-Verfahren bewahrte das niederfrequente Klimasignal (ja, ich verwende das Wort „Signal“ korrekt). Dieser Beitrag soll auf zwei Dinge hinweisen:

1. Direkte Vergleiche der instrumentellen Daten mit der Rekonstruktion verletzen die Grundprinzipien der Signaltheorie.

2.Nur das Composite Plus Scale (CPS)-Verfahren ist mit den Beobachtungen konsistent.
Verletzung der Signaltheorie, 15-Yard-Raumstrafe* und Loss of Down*

[*Diese Begriffe stammen aus dem American Football und lassen sich nicht übersetzen. Sie sind sehr grob vergleichbar mit einem Elfmeter im Fußball. A. d. Übers.]

Dies ist aus der Einleitung der Studie:

Die Datenbank ist die umfassendste derzeit verfügbare globale Zusammenstellung von bisher veröffentlichten holozänen Proxy-Temperaturzeitreihen. Sie umfasst eine Qualitäts-kontrollierte Sammlung von hochauflösenden Zeitreihen (durchschnittlicher Probenabstand von 164 Jahren) mit gut etablierten Zeitskalen (durchschnittlich 1,0 Alterskontrollpunkte pro 1000 Jahre), die aus einer viel größeren Sammlung von Temperatur-sensitiven Proxy-Aufzeichnungen ausgewählt wurde. Die Multi-Proxy-Datenbank umfasst insgesamt 1319 Paläo-Temperaturaufzeichnungen von 470 terrestrischen und 209 maritimen Standorten, an denen ökologische, geochemische und biophysikalische Proxy-Indikatoren verwendet wurden, um auf vergangene Temperaturänderungen zu schließen. Unter der Vielzahl der Proxy-Typen sind Alkenone und Isotope die dominierenden Proxy-Typen für die Meeresoberflächentemperatur, während Pollen und Chironomiden die häufigsten terrestrischen Temperatur-Proxy-Typen sind. Die meisten Aufzeichnungen (97 %) sind als quantitative, auf °C kalibrierte Temperaturrekonstruktionen verfügbar, während die restlichen 42 Aufzeichnungen nicht-quantitative, Temperatur-sensitive Proxy-Aufzeichnungen darstellen.

Kaufman, D., McKay, N., Routson, C. et al., 2020

Dies ist aus „Timing and magnitude of peak Holocene global temperature“:

Um den wahrscheinlichen Bereich der zeitlichen Auflösung der GMST-Rekonstruktion einzugrenzen, konzentrieren wir uns auf Intervalle von 1000 und 200 Jahren und quantifizieren den Unterschied in der Größe und dem Zeitpunkt des Höhepunktes der Erwärmung (Abb. 4).

Kaufman, D., McKay, N., Routson, C. et al., 2020

In meinem vorherigen Beitrag habe ich die Rekonstruktion so behandelt, als hätte sie eine 100-Jahre-Auflösung…
Während ich immer noch denke, dass die Arbeit eine sehr gute paläoklimatologische Leistung ist, ist dieser Absatz in keiner Weise wissenschaftlich belegbar.

Die Verteilung der globalen Spitzentemperaturen während des Holozäns kann auch mit den jüngsten Temperaturen verglichen werden. Die GMST der letzten Dekade (2011-2019) lag im Durchschnitt 1 °C höher als 1850-190011. Für 80 % der Ensemblemitglieder übertraf kein 200-Jahres-Intervall während der letzten 12.000 Jahre die Wärme der jüngsten Dekade. Für die anderen 20 % der Fälle, die hauptsächlich aus der CPS-Rekonstruktion stammen, übertraf mindestens ein 200-Jahres-Intervall die jüngste Dekade. Dieser Vergleich ist konservativ im Kontext der für den Rest dieses Jahrhunderts und darüber hinaus prognostizierten Temperaturen, die sehr wahrscheinlich 1 °C über der vorindustriellen Temperatur liegen werden. Solche Projektionen stellen die Temperatur des letzten Jahrzehnts in einen langfristigen Kontext, der besser mit der holozänen GMST-Rekonstruktion vergleichbar ist. Wenn die Rekonstruktion außerdem durch eine Verzerrung des Sommers der nördlichen Hemisphäre beeinflusst wird (siehe unten), dann würde die Spitzenerwärmung überschätzt werden und die jüngste Erwärmung würde daher im Vergleich noch stärker hervorstechen.

Kaufman, D., McKay, N., Routson, C. et al., 2020

Die Rekonstruktion kann keine Temperaturänderungen auf dekadischer Skala auflösen. Bei der Auflösung der Rekonstruktion wäre HadCRUT4 ein einzelner Datenpunkt bei 0,23 °C.

Die Eiszeit geht weiter

Folgendes hatten die Autoren über die CPS-Rekonstruktionsmethode zu sagen…

Unter den fünf Rekonstruktionsverfahren sticht CPS mit seinen großen Temperaturänderungen hervor (Abb. 3), vor allem auf der Nordhemisphäre (Abb. 1 und 2). Zum Beispiel zeigt das mediane Ensemble-Mitglied der CPS-Rekonstruktion, dass sich die GMST zwischen 12 und 10 ka um etwa 3,9 °C erwärmt hat, verglichen mit etwa 1,1 °C für die anderen Verfahren. Die mediane GMST während des Zeitraums um 6 ka, dem langjährigen Zielwert für paläoklimatische Modellexperimente (z. B. Ref. 15), war in der CPS-Rekonstruktion um 1,1 °C wärmer als das 19. Jahrhundert, verglichen mit etwa 0,4-0,5 °C für die anderen Verfahren (Tabelle 1).

(…)

Obwohl es sich um einen Ausreißer handelt, haben wir keine unwiderlegbaren Beweise, um die CPS-Rekonstruktion auszuschließen, und können nicht ausschließen, dass die anderen Rekonstruktionsverfahren die Gesamtvarianz unterschätzen. Das Ergebnis des CPS-Verfahrens hängt von der Gültigkeit des für die Skalierung verwendeten Ziels ab, was schwer zu überprüfen ist. Die hohe Amplitude der durch CPS rekonstruierten Temperaturänderungen könnte chronologische und andere Unsicherheiten widerspiegeln, die die Temperaturvarianz auf der Hundertskala während des Zusammensetzens ausmitteln und dadurch die relative Größe der Varianz auf der Jahrtausendskala im Verbund erhöhen. Wenn das Komposit dann auf die Rekonstruktionen der letzten zwei Jahrtausende skaliert wird, die eine realistischere Varianz auf der Jahrtausendskala aufweisen, wird die Varianz auf der Jahrtausendskala (und damit die langfristigen Trends) künstlich aufgebläht. Nichtsdestotrotz trägt CPS als unabhängiger Ansatz zu einer vollständigeren Abtastung des Unsicherheitsraums bei. Daher behalten wir CPS als ein Fünftel des Multi-Methoden-Ensembles bei, und wir konzentrieren uns auf den Median und nicht auf den Mittelwert als beste Darstellung der zentralen Tendenz des Ensembles. Der Ausschluss von CPS aus dem Ensemble hat wenig Einfluss auf den Median der GMST-Rekonstruktion. Zum Beispiel ist der Median des Ensembles für das mittlere Holozän (6,5-5,5 ka) nur um 0,05 °C kühler, wenn man die CPS-Mitglieder ausschließt; der Median des Fünf-Methoden-Ensembles beträgt 0,51 °C (0,19, 1,35) gegenüber 0,46 °C (0,17, 0,79), wenn man die CPS-Mitglieder ausschließt.

Kaufman, D., McKay, N., Routson, C. et al., 2020

Sie ließen zähneknirschend CPS in der Mischung, denn: „Obwohl es ein Ausreißer ist, haben wir keine unwiderlegbaren Beweise, um die CPS-Rekonstruktion auszuschließen, und können die Möglichkeit nicht ausschließen, dass die anderen Rekonstruktionsverfahren die Gesamtvarianz unterschätzen.“

Allerdings hätten sie leicht Beweise finden können dafür, „dass die anderen Rekonstruktionsverfahren die Gesamtvarianz unterschätzen.“ CPS ist das einzige Verfahren, das das holozäne Klimaoptimum, die römische Warmzeit, die mittelalterliche Warmzeit und die Neu-Vergletscherung eindeutig auflöste…

Abbildung 3: CPS mit historischen Klima-Perioden und Neu-Vergletscherung (Grosjean et al., 2007)

[Hinweis: Die Abbildungen 1 und 2 sind bis Redaktionsschluss am 28.3. auch im Original nicht existent]

Ich habe einen Plot von CPS als Overlay von Abbildung 3 aus dem PAGES 12K-Paper erstellt und den 2K-Inset mit den historischen Klimaperioden und der Neoglazialisierung aus Grosjean et al., 2007 und einer Nordamerika-Eisausdehnungskarte aus Dyke et al., 2003 ersetzt. Ich habe auch ein 2σ-Konfidenzband aus den 500 Ensemblemitgliedern eingefügt. Meine Version des CPS-Mittelwerts ist die gestrichelte orangefarbene Kurve…

Abbildung 4. CPS mit historischen Klimaperioden und Neu-Vergletscherung (Grosjean et al., 2007) und früh-holozäne Eisausdehnungskarte (Dyke et al., 2003)

Sieht die nordamerikanische Eisausdehnung vor 12.000 Kalenderjahren eher 1 °C kühler aus als 1800-1900? Oder 4 °C kühler?

OK… geophysikalische Trägheit könnte erklären, wie es bei Temperaturen, die nur 1 °C kühler waren als 1800-1900, immer noch so viel Eis gegeben haben kann, aber ich glaube nicht, dass es das hier erklären kann:

Abbildung 5. CPS mit historischen Klimaperioden und Neoglazialisierung (Grosjean et al., 2007), frühholozäne Eisausdehnungskarte (Dyke et al., 2003) und Alpen-Baumgrenzenhöhe (Bohleber et al., 2021).

Die anderen vier Verfahren zeigen sehr geringe Temperaturänderungen von vor 9.500 Jahren bis 1850 n. Chr… Ein Zeitraum, von dem wir wissen, dass es in den ersten 5.000 Jahren einen massiven Eisrückgang und in den meisten der folgenden 4.500 Jahre einen Eisvorstoß (Neoglazial) gab. CPS ist das einzige der vier Verfahren, das mit der holozänen Entwicklung der Eisschilde und Gletscher in der nördlichen Hemisphäre übereinstimmt. Das ist auch konsistent mit der holozänen Entwicklung des arktischen Meereises.

Abbildung 6. CPS (rechts) mit Profilen der Ausdehnung des Meereises (Stein et al., 2017)

Das CPS-Verfahren ist eindeutig konsistent mit den nahezu eisfreien Bedingungen von vor 10.000 bis 5.000 Jahren und der neoglazialen Ausdehnung des Meereises von vor 5.000 Jahren bis Mitte des 18. Jahrhunderts. Die anderen vier Verfahren deuten auf eine sehr geringe Temperaturveränderung über diesen Zeitraum hin.

Was ist mit der Sommerverzerrung der nördlichen Hemisphäre?

Drei der vier Verfahren zeigen alle einen flachen Verlauf in der Arktis. Nur das PAI-Verfahren (Paarweiser Vergleich) zeigt eine angemessene Temperaturänderung für die Meereisentwicklung. Allerdings ist CPS das einzige Verfahren, das ein signifikantes ΔT im Bereich der gemäßigten Breiten der Nordhemisphäre aufweist.

Abbildung 7: Abbildung 2 aus Kaufman, D., McKay, N., Routson, C. et al., 2020

Die überwiegende Mehrheit der Alpen-/Talgletscher (wie in den Alpen und im Glacier National Park) befindet sich in den gemäßigten Breiten. Diese Gletscher bildeten sich nach dem holozänen Klimaoptimum, erreichten ihre Spitzenausdehnung in der Mitte des 18. Jahrhunderts und zogen sich dann im Allgemeinen auf ihre derzeitigen Positionen zurück. CPS ist das einzige Verfahren, das damit in Einklang zu stehen scheint.

Bestätigungs-Bias!

Falls man bei einer Frage die Möglichkeit hat, fünf Antworten auszuwählen:

1. Sieht korrekt aus

2. Sieht vermutlich korrekt aus

3. Offensichtlich falsch

4. Offensichtlich falsch

5. Offensichtlich falsch

Würden Sie die Antwort auswählen, die richtig aussah? Oder würden Sie den Durchschnitt der fünf Antworten bilden, um zu einem Konsens zu kommen?

Ausmerzen unbequemer Wahrheiten

Seit den Tagen von Climategate versucht Climate Cancel Culture aktiv, das niederfrequente Klimasignal auszulöschen. Dies ist kein neuer Kampf:

Was würde es also bedeuten, wenn die Rekonstruktionen eine größere (Esper et al., 2002; Pollack und Smerdon, 2004; Moberg et al., 2005) oder kleinere (Jones et al., 1998; Mann et al., 1999) Temperaturamplitude anzeigen? Wir vermuten, dass die erstere Situation, d.h. eine erhöhte Variabilität während der vorindustriellen Zeit, zu einer Umverteilung des Gewichts in Richtung der Rolle natürlicher Faktoren bei der Erzwingung von Temperaturänderungen führen würde, wodurch der Einfluss anthropogener Emissionen relativ abgewertet und zukünftige Vorhersageszenarien beeinflusst würden. Sollte sich dies bewahrheiten, wären Vereinbarungen wie das Kyoto-Protokoll, die auf eine Reduzierung der anthropogenen Treibhausgasemissionen abzielen, weniger effektiv als gedacht.

Esper et al., 2005

Hockeyschläger sind in der Regel das Ergebnis der Dämpfung der Amplitude des niederfrequenten Klimasignals und des anschließenden Aufspleißens der hochauflösenden Instrumentaldaten. Das Hockey-Team hat die Stempelkultur erfunden:

CRU-E-Mail #1140039406. Diese E-Mail, datiert auf den 15. Februar 2006, dokumentiert den Austausch zwischen mehreren Klimawissenschaftlern, einschließlich des stellvertretenden Direktors der CRU, in Bezug auf ihre Beiträge zu Kapitel sechs des IPCC AR4. In einem solchen Austausch warnte der stellvertretende Direktor der CRU seine Kollegen davor, „sich von [dem Co-Vorsitzenden der AR4 WGl] (oder [einem Forscher an der Pennsylvania State University]) über das hinaus drängen zu lassen, von dem wir wissen, dass es richtig ist“ in Bezug auf die Angabe von „Schlussfolgerungen im AR4, die über das hinausgehen, was wir sicher rechtfertigen können“.

Keith Briffa von der CRU warnte seine Kollegen davor, sich von Susan Solomon von der NOAA oder Michael Mann von der Penn State dazu zwingen zu lassen, unhaltbare Schlussfolgerungen zu ziehen. Dieser spezielle E-Mail-Austausch befasste sich ausgiebig mit Paläoklima-Rekonstruktionen. Briffa forderte seine Kollegen auch auf, Anders Moberg nicht „anzugreifen“, der vor kurzem eine Klimarekonstruktion veröffentlicht hatte, die die Daten tatsächlich würdigte und korrekte Verfahren der Signalverarbeitung verwendete.

Susan Solomon ist die NOAA-Beamtin, die behauptete, dass die Arbeit der NOAA im Zusammenhang mit dem IPCC nicht dem FOIA unterliege. Michael Mann war der Hauptautor des gründlich entlarvten Original-Hockeysticks. Der verstorbene Keith Briffa war der Hauptautor einer der problematischen Rekonstruktionen, in denen „Mikes Naturtrick“ angewendet wurde, um den Rückgang zu „verstecken“. Glücklicherweise haben sich Wissenschaftler wie Jan Esper, Anders Moberg, etc. nicht dem Mobbing unterworfen.

Also… Hut ab vor Kaufman, McKay, Routson und den et al dafür, dass sie die CPS-Rekonstruktion nicht gelöscht haben, um den Anstieg und den Rückgang des holozänen Klimaoptimums zu verbergen…

References

Bohleber, P., Schwikowski, M., Stocker-Waldhuber, M. et al. New glacier evidence for ice-free summits during the life of the Tyrolean Iceman. Sci Rep 10, 20513 (2020). https://doi.org/10.1038/s41598-020-77518-9

Dyke, A.S., Moore, A. and L. Robertson. [computer file]. Deglaciation of North America. Geological Survey of Canada Open File 1547. Ottawa: Natural Resources Canada, 2003.

Esper, J., R.J.S. Wilson,  D.C. Frank, A. Moberg, H. Wanner, & J. Luterbacher.  2005.  “Climate: past ranges and future changes”.  Quaternary Science Reviews 24: 2164-2166.

Grosjean, Martin, Suter, Peter, Trachsel, Mathias & Wanner, Heinz. (2007). “Ice‐borne prehistoric finds in the Swiss Alps reflect Holocene glacier fluctuations”. Journal of Quaternary Science. 22. 203 – 207. 10.1002/jqs.1111.

Kaufman, D., McKay, N., Routson, C. et al. Holocene global mean surface temperature, a multi-method reconstruction approach. Sci Data 7, 201 (2020). https://doi.org/10.1038/s41597-020-0530-7

Stein, R. , Fahl, K. , Schade, I. , Manerung, A. , Wassmuth, S. , Niessen, F. and Nam, S. (2017), Holocene variability in sea ice cover, primary production, and Pacific‐Water inflow and climate change in the Chukchi and East Siberian Seas (Arctic Ocean). J. Quaternary Sci., 32: 362-379. doi:10.1002/jqs.2929 stein2017

Link: https://wattsupwiththat.com/2021/03/26/pages-12k-the-ice-age-goeth/

Übersetzt von Chris Frey EIKE

 




Das haut sogar ein Pferd um: Die Deutsche Geophysi­kalische Gesell­schaft und ihr Verständnis für wissen­schaftliche Diskussionen jedweder Art

Treibt der mittelalterliche Wind der gesellschaftspolitischen Klimareligion auch die seriöse Wissenschaft vor sich her?

Sie erinnern Sich vielleicht noch an meinen Postergucker-Artikel hier auf EIKE, wo ich die Widersprüche aus zwei Academia-Veröffentlichungen von Kramm (2020-1 und 2020-2) gegenübergestellt hatte. Später hatte Kramm sein Academia-Paper (2020-2), „Kommentar zu WEBERS Beitrag ‚Weitere Überlegungen zur hemisphärischen Herleitung einer globalen Durchschnittstemperatur‘“ als Kommentar zu Weber (2019) in den Mitteilungen der Deutschen Geophysikalischen Gesellschaft Nr. 2/2020 untergebracht, ohne dass dies als Zweitveröffentlichung gekennzeichnet worden war.

Nach althergebrachtem Wissenschaftsverständnis hatte ich der DGG unverzüglich meine Erwiderung zu diesem Kommentar übersandt, in der die Skandalisierungen meines hemisphärischen S-B-Modells durch ausschließende gegenteilige Eigenschaften (Disjunktionen) sowie in ihr Gegenteil verkürzte Textzitate nachprüfbar bewiesen werden; weiterführende Informationen finden Sie im Addendum. Trotz ihrer wissenschaftlichen Verantwortung aus der Veröffentlichung des besagten Kommentars von Kramm (@DGG 2/2020) hatte die Deutsche Geophysikalische Gesellschaft in neuhergebrachtem Wissenschaftsverständnis eine Veröffentlichung dieser Erwiderung abgewiesen. Die DGG fühlte sich sogar ermächtigt, die von ihr selbst ausgelöste öffentliche Diskussion auf eine rein persönliche Ebene zu verschieben, Zitat aus der betreffenden E-Mail vom 17.02.2021:

[…..] Nach intensiver Diskussion innerhalb der Redaktion und in Absprache mit dem Präsidium der DGG haben wir uns allerdings entschlossen, Ihren Beitrag nicht in das Heft 1/2021 aufzunehmen. Diese Entscheidung möchten wir im Folgenden begründen:

Ihre in den Mitteilungsheften 2/2016 und 1/2019 erschienenen Arbeiten sollten eine wissenschaftliche Diskussion Ihrer Ansätze anregen. Leider ist der umfangreiche Beitrag von Herrn Kramm im Heft 2/2020 der einzige Kommentar zu diesen Arbeiten, der uns erreicht hat. Daher sind wir der Meinung, dass die DGG-Mitteilungen nicht das richtige Medium für diese Fragen und die zwischen Herrn Kramm und Ihnen geführte Diskussion sind. Stattdessen sollten Sie die wissenschaftliche Kommunikation zumindest zum jetzigen Zeitpunkt am sinnvollsten direkt mit Herrn Kramm führen. […..]

Wir haben Ihre Erwiderung jedoch zum Anlass genommen, im Mitteilungsheft 1/2021 noch einmal Sinn und Zweck der DGG-Mitteilungen darzustellen.“

Allerdings hieß es ein paar Monate vorher im „Vorwort der Redaktion“ zu den Mitteilungen der Deutschen Geophysikalischen Gesellschaft Nr. 2/2020 noch vollmundig, Zitat mit Hervorhebungen:

Im vorliegenden Heft gibt es diesmal nur einen wissenschaftlichen Beitrag, den Kommentar von Gerhard KRAMM zu einem kontroversen Artikel von Ulrich O. Weber. Dies zeigt, dass die Roten Blätter auch eine Plattform für wissenschaftliche Diskussionen jedweder Art sind.“

Und ausgerechnet dieser Diskussion hatte die Deutsche Geophysikalische Gesellschaft dann auch noch das Titelbild ihrer Mitteilungen Nr. 2/2020 gewidmet:

Abbildung 1: Ausschnitt von der Titelseite der DGG-Mitteilungen Nr. 2/2020 mit „Figure 2“ aus Kramm et al. (2017)

Aktueller Stand: Meiner konkreten E-Mail-Nachfrage vom 19.02.2021 zur wissenschaftlichen Verantwortung der Deutschen Geophysikalischen Gesellschaft für die von ihr selbst initiierte öffentliche wissenschaftliche Diskussion in ihren Mitteilungen 2/2020 hatte sich deren Vorstand nicht gestellt – o tempora, o mores – tu quoque, Societas Germanica Geophysical?

Aber das muss ja noch längst nicht das Ende sein: In seiner E-Mail* vom 17. Januar 2021 um 05:05 Uhr an mich und den üblichen Skeptiker-Email-Verteiler hatte Dr. Gerhard Kramm mit ausdrücklichem Bezug auf William et al. (2017) eine Abbildung, nachfolgend „Kramm (2021)“, mit einem eigenartigen Vergleich zwischen meinen hemisphärischen S-B-Temperaturen für die Tagseite des Mondes und einem „zonalen lunaren Mittel“ verschickt, Zitat aus dieser E-Mail*:

Dass der Ansatz des lokalen Strahlungsgleichgewichtes, worauf Ihr hemisphärischer Stefan-Boltzmann-Ansatz beruht, im Falle des Mondes Ergebnisse liefert, die völlig realitätsfern sind, belegt der nachfolgend veranschaulichte Vergleich der Modellergebnisse mit den bolomentrischen Temperaturen des ‘LRO Diviner Lunar Radiometer Experiment‘ (siehe William et al., 2017).

Diese Abbildung ist als Nachtrag zu meinem Kommentar [bei der Deutschen Geophysikalischen Gesellschaft] vorgesehen, der in den kommenden Tagen eingereicht wird.“

Abbildung 2: „Vergleich der Modellergebnisse mit den bolomentrischen Temperaturen des ‘LRO Diviner Lunar Radiometer Experiment‘ (siehe William et al., 2017)“ von Dr. Gerhard Kramm (2021)*

Für den Fall der Fälle nehme ich meiner Deutschen Geophysikalischen Gesellschaft gern die intellektuelle Bürde ab, die Abbildung Kramm (2021) VOR einer möglichen Veröffentlichung auf ihre physikalische Substanz hin zu überprüfen, denn HINTERHER ist ihr ja nicht mehr zu helfen:

Halten wir hier zu Abbildung 2 zunächst einmal fest: Die Messergebnisse von Williams et al. (2017, schwarz) und das Modell von Kramm et al. (2017, rot) stimmen in etwa überein, während mein hemisphärischer S-B-Ansatz (Teq = grün) offenbar geringere Temperaturwerte aufweist. Ist das ein Beweis gegen meinen hemisphärischen S-B-Ansatz? – Nun, dazu müssen wir zunächst einmal wissen, was dort überhaupt als „veranschaulichte[r] Vergleich der Modellergebnisse“ dargestellt worden ist, also schauen wir mal:

Fragestellung 1: Sind Diffamierungen mittels ausschließender Eigenschaften (Disjunktionen) zulässige Beweise in den Naturwissenschaften?

Dargestellt wurde hier eine „zonal gemittelte Temperatur in Kelvin“ auf dem Mond gegen die geographische Breite von 90° bis -90°. Die Angabe „PhiSS=180°E“ bedeutet, dass die Sonne senkrecht auf der geographischen Länge 180° steht, also auf der Rückseite des Mondes; und damit herrscht aus Sicht von der Erde gerade Neumond. Einer solchen Darstellung steht schon mal die Gültigkeit meines hemisphärischen S-B-Ansatzes entgegen. Denn meine hemisphärisch berechneten Mondtemperaturen waren lediglich ein Beweis für das maximal erreichbare S-B-Temperaturäquivalent auf der Tagseite eines erdähnlichen Himmelskörpers ohne Atmosphäre (Beschreibung hier auf EIKE). Anders als die üblichen Mond-Modellierungen mit einem begrenzten Regolith-Wärmespeicher, ergibt sich in meinem hemisphärischen S-B-Modell aufgrund der fehlenden Sonneneinstrahlung eine nachtseitige Temperatur von 0 Kelvin, wobei dieser modellimmanente Unterschied zwischen 0k und ca. 70K nach dem Stefan-Boltzmann-Gesetz lediglich ca. 2W/m² beträgt. Die Darstellung Kramm (2021) stellt also 3 breitenabhängige Temperaturkurven mit gemittelten Durchschnittswerten für die Tag-und Nachtseite des Mondes dar, wobei verschwiegen wird, dass mein hemisphärischer S-B-Ansatz ausdrücklich nicht für die Nachseite des Mondes gilt. Denn in meinem hemisphärischen S-B-Modell wird die Temperatur der Nachtseite unserer Erde über die S-B-Umgebungsgleichung und den Wärmeinhalt von Atmosphäre und Ozeanen erklärt. Dieses Graphik-Konstrukt soll also offensichtlich meinen hemisphärischen S-B-Ansatz für die Tagseite des Mondes durch eine ausschließende Eigenschaft (Disjunktion) zielgerichtet diskreditieren, nämlich durch eine verschleierte Einbeziehung der nachtseitigen Temperaturen.

Anstelle der von Kramm üblicherweise propagierten Faktor4-Tag=Nacht-Mittelung hatten Kramm et al. (2017) in ihrer „Figure 10“ dieses breitenabhängige Stefan-Boltzmann-Temperaturäquivalent und die breitenabhängige solare Leistungsdichte über den 24h-Tag sogar selbst dargestellt:

Abbildung 3: Variation of the (a) surface temperature and (b) absorbed solar radiation for numerous parallels of latitude in case of the Earth in the absence of its atmosphere. Figure 10 aus Kramm et al. (2017), Creative Commons Attribution International License (CC BY 4.0)

Stellen Sie Sich in Abbildung 3a (links) für jede einzelne Temperaturkurve jetzt einmal deren Mittelwert vor (PHI=0°-89°, alle Kurven = 0K von 6h bis 18h) und tragen diesen Wert jeweils nördlich und südlich gegen die geographische Breite (PHI=-89°-0°-89°) auf. Der äquivalente lunare Verlauf einer solchen breitenabhängigen Durchschnittskurve würde ausgerechnet auf die grüne Kurve in Abbildung 2 fallen, von der Kramm behauptet hatte, sie sei „voellig realitaetsfern“.

Auffälligkeit 1: Es handelt sich bei der Graphik „Kramm (2021)“ um einen willkürlichen Äpfel&Birnen-Vergleich, bei dem die Birnen dafür diskreditiert werden, dass sie keine Äpfel sind.

Fragestellung 2: Sind mathematische Konstruktionen jenseits jeder physikalischen Relevanz bereits Manipulationen?

Was für Temperaturen werden in der Graphik von Kramm (2021) nun genau dargestellt? Schauen wir uns dazu einmal einen direkten Abgleich zwischen Kramm (2021) und Williams et al. (2017) an. Dort ist festzustellen, dass letztere ihre zonalen Mond-Temperaturen streng nach Tag und Nacht unterschieden hatten:

Abbildungen 4: Zonaler Mittelwert Kramm (2021*, links), Abbildungen 8(a=Tag, Mitte) und (c=Nacht, rechts) von Williams et al. (2017) mit insgesamt 24 zonalen Temperaturkurven entlang der lunaren Zeitzonen

Anmerkung: Alle Abbildungen haben unterschiedliche Vertikalmaßstäbe für die Temperatur

Kramm (2021) führt jetzt also, entgegen den 24 Temperaturkurven von Williams et al. (2017) entlang der Zeitzonen, einen einzigen „zonalen Mittelwert“ für die Tag- und Nachtseite über die Breitenkreise des Mondes ein. Ein solcher Durchschnittswert erscheint in der Arbeit von Williams et al. (2017) aber gar nicht, vielmehr ergibt sich die Abbildung Kramm (2021) als breitenabhängiger Mittelwert aus den Temperaturen 8(a=Tagseite) und 8(c=Nachtseite) von Williams et al. (2017), also als ein zonales Tag&Nacht-Mittel. Schaunmeralsomal anhand einer Originalabbildung von Williams et al. (2017), wie die Graphik von Kramm (2021) zu verstehen ist:

Abbildung 5: Williams et al. (2017) Fig. 5a, „Global instantaneous temperatures of the Moon in (a) cylindrical equidistant projection (ϕ = 180°)” mit der Nachtseite im Zentrum (Neumond) — Übersetzung: Globale Momentantemperaturen des Mondes in (a) zylindrischer äquidistanter Projektion

Die 24 Kurven von Williams et al. (2017) in der Abbildung 4 für die stündlichen Zeitzonen (hour0 – hour23) zeigen also alle 15° geographischer Länge ein Nord-Süd-Temperaturprofil auf der Mondoberfläche, die den jeweiligen N-S-Temperaturverläufen in Abbildung 5 entspricht. Dagegen stellt Kramm (2021) den jeweiligen Durchschnittswert über alle 24 Zeitzonen derselben geographischen Breite in einer einzigen Nord-Süd-Temperaturkurve für die gesamte Mondoberfläche dar. Natürlich ist die Berechnung eines solchen realitätsfernen zonalen lunaren Tag&Nacht-Mittels rein mathematisch möglich, ergibt allerdings physikalisch überhaupt keinen Sinn. Der Unterschied zwischen Mathematik und Physik sind nämlich nicht nur die physikalischen Einheiten, sondern auch die zwingende Notwendigkeit, dass sich physikalische Ergebnisse in die beobachtete Realität zurückentwickeln lassen.

Für die Tagseite des Mondes sind die bei Kramm (2021) gezeigten Durchschnittswerte aber nun zu niedrig und für die Nachtseite zu hoch. Deren physikalische Aussage spielt sich also in Abbildung 5 irgendwo in der türkis-gelb-orangen Zone zwischen Mond-Tag (rot) und Mond-Nacht (blau) ab. Für die breitenabhängigen Durchschnittswerte nach Kramm (2021) existiert zu einem beliebigen Zeitpunkt des 24h-Mond-Tages also in jeder der beiden Dämmerungszonen (türkis-gelb-orange) jeweils eine einzige nicht näher definierte Ortslage, die diesen Kramm‘schen Mittelwert zwischen minimaler und maximaler Temperatur annimmt. Eine solche Darstellung erinnert an den folgenden Witz aus der Frühzeit der Künstlichen Intelligenz, wo ein Atmosphärenphysiker seinen Supercomputer fragt:

Mir sind da zwei analoge Uhren angeboten worden, eine geht am Tag eine Sekunde nach und die andere ist kaputt. Welche von beiden soll ich nehmen?

Sagt der Computer: „Nimm die kaputte Uhr!

Fragt der Atmosphärenphysiker: „Warum denn das?

Sagt der Computer: „Die kaputte Uhr zeigt zwei Mal am Tag die richtige Zeit an.“

Beiden, der kaputten Uhr und der Temperaturkurve von Kramm (2021), fehlt ohne zusätzliche Informationen jeglicher Zugang zur Realität. Man könnte auch sagen, die jeweiligen Angaben sind zwar mathematisch korrekt, können aber im physikalischen Raum-Zeit-Kontinuum aus sich selbst heraus gar nicht konkret verortet werden. Gemessen an der gewöhnlichen Qualität solcher Kunstprodukte, die bereits von kritischen Laien durchschaut werden können, ist die vorliegende Graphik allerdings als hervorragende Wissenschaftsmimikry einzustufen. Selbst Fachleute dürften der dort zielweisend vorgegebenen Aussage ohne eigenes Hintergrundwissen oder eine tiefergehende eigene Recherche nichts entgegenzusetzen haben.

Auffälligkeit 2: Wir haben es bei „Kramm (2021)“ also nicht etwa mit einer Graphik zu tun, die real existierende physikalische Daten darstellt, aus denen dann konkrete wissenschaftliche Aussagen abgeleitet werden. Vielmehr werden hier die physikalischen Unterschiede zwischen Tag und Nacht mathematisch verschleiert, um ein gegebenes Vorurteil zu bestätigen.

Fragestellung 3: Ist eine Beweisunterdrückung ein taugliches Argument gegen ein unerwünschtes wissenschaftliches Modell?

 

Das S-B-Temperaturäquivalent liefert lediglich für die sonnenbeschienene Tagseite des Mondes korrekte Ergebnisse. Und die grüne Kurve in Kramm (2021) repräsentiert irgendeinen konstruierten zonalen Tag&Nacht-Durchschnitt, das die Temperaturen auf der Nachseite des Mondes einschließt. Williams et al. (2017) stützen nun aber ausdrücklich meinen hemisphärischen S-B-Ansatz für die Tagseite des Mondes, Zitat mit Hervorhebungen:

 

The lunar regolith is highly insulating due to its low density and thermal conductivity (Linsky, 1966, Cremers and Birkebak, 1971, Keihm and Langseth, 1973) and therefore heat flow into the subsurface during the day is small compared to the incident solar flux (Vasavada et al., 1999, 2012). Daytime temperatures can therefore be approximated from the balance of incoming solar flux and outgoing thermal emission:”

Der Google-Übersetzer: „Der Mondregolith ist aufgrund seiner geringen Dichte und Wärmeleitfähigkeit hochisolierend (Linsky, 1966, Cremers und Birkebak, 1971, Keihm und Langseth, 1973) und daher ist der Wärmefluss in den Untergrund während des Tages im Vergleich zum einfallenden Sonnenfluss gering (Vasavada et al., 1999, 2012). Die Tagestemperaturen können daher aus dem Gleichgewicht des einfallenden Sonnenflusses und der ausgehenden Wärmeabgabe angenähert werden:“

Also: Bis auf eine Emissivität EPSILON von 0,95 (WEBER 2019 ohne Speicherung: EPSILON = 1) und einer breitenabhängigen Albedo (WEBER 2019: Albedo = const.) entspricht mein hemisphärischer S-B-Ansatz dem Ansatz von Williams et al. (2017) für die Tagseite des Mondes, Zitat (übersetzt): „Die Tagestemperaturen können daher aus dem Gleichgewicht des einfallenden Sonnenflusses und der ausgehenden Wärmeabgabe angenähert werden“. Einen Abgleich meiner hemisphärischen Tagestemperaturen mit Williams et al. (2017) in gleicher Farbgebung hatte ich bereits in meinem EIKE-Artikel „Neues von Willis Eschenbach“ vom 23. Februar 2020 dargestellt:

Abbildung 6: Qualitativer Temperaturvergleich für die Tagseite des Mondes. Links: Montage aus der Abbildung 5a von Williams et al. (2017) mit der Tagseite des Mondes im Zentrum. Rechts: Das S-B-Temperaturäquivalent @12h, hinterlegt mit der Farbskala von Williams et al. (2017)

Wenn man die Mond-Temperaturen aus der Abbildung von Williams et al. (2017) über den Tagesverlauf mit der hemisphärischen S-B-Temperaturkurve vergleicht, ergibt sich eine sehr ordentliche qualitative Übereinstimmung; es wird aber auch deutlich, dass die Nachttemperaturen unter 50K (violett) bei Williams et al. (2017) nicht erreicht werden. Die unterschiedlichen radialen Farbverläufe bei Williams et al. (2017) spiegeln die Variabilität der örtlichen Mondalbedo und die Topographie wider, die in einem solchen pauschalen S-B-Ansatz nicht berücksichtigt werden können.

Auffälligkeit 3: Die Graphik „Kramm (2021)“ verbreitet eine hochartifizielle und realitätsferne mathematische Mittelwertbildung unter Berufung auf Williams et al. (2017), wobei ausgerechnet deren eindeutige Bestätigung meines hemisphärischen S-B-Ansatzes für die Temperaturberechnung auf der Tagseite des Mondes unterdrückt wurde.

Fazit: In der Überzeugung, eine rein mathematische Designer-Graphik wie „Kramm (2021)“ bei der Deutschen Geophysikalischen Gesellschaft einfach mal eben als Nachtrag zu seinem Kommentar unterbringen zu können, schwingt auch die Geringschätzung eines international bekannten Atmosphärenphysikers gegenüber deren fachlicher Kompetenz mit; schließlich war ein solches „ad auditores“ (vordergründig plausibel für ein Publikum ohne tiefere Sachkenntnis) bereits einmal erfolgreich gewesen. Ich hoffe daher, der DGG mit meiner Analyse dieser Graphik ggf. rechtzeitig aufs wissenschaftliche Pferd helfen zu können…

Addendum: Den Link zur Kramms Academia-Veröffentlichung finden Sie hier und die entsprechende DGG-Version auf seiner Homepage (im Kommentar einfach den Namen anklicken); meine DGG-Veröffentlichung aus 2019 finden Sie hier ab Seite 18, und die Erwiderung zu Kramm@DGG 2/2020 ist nachstehend verlinkt:

2020-12-07 Erwiderung auf Kramms DGG-Kommentar-uw

Konkurrierende physikalische Modelle schließen sich gegenseitig aus. Deshalb können sich solche Modelle auch nicht gegenseitig widerlegen; eine solche Widerlegung kann nur über die gemeinsamen physikalischen Grundlagen erfolgen. Gerne wiederhole ich für meine Kritiker daher abschließend noch einmal die Widerlegungsanforderung für meinen hemisphärischen S-B-Ansatz über einen physikalischen Tag=Nacht-Beweis, Zitat:

Wenn also wissenschaftlich eindeutig nachgewiesen würde, dass die Gleichsetzung der Energiebilanz unserer Erde (Fläche einer Kugel) mit der strengen thermischen Gleichgewichtsforderung des Stefan-Boltzmann Gesetzes für die bestrahlte Fläche (Halbkugel) physikalisch korrekt ist, dann bin ich tatsächlich widerlegt.“

*) Erklärung: Um jedweden Beschwerden vorzubeugen, bestätige ich hiermit, ein direkter „An“-Empfänger der o. g. E-Mail vom 17. Januar 2021 um 05:05 Uhr mit der Abbildung „Kramm (2021)“ (hier Abb.2 und Abb.3 links) zu sein, ebenso, wie u. a. auch die Herren Lüdecke, Limburg und Kirstein, und beweise nachfolgend mit der „Confidentiality Warning“ des Dr. Gerhard Kramm die rechtmäßige Nutzung der Graphik „Kramm (2021)“, Zitat:

CONFIDENTIALITY WARNING: The information transmitted is intended only for the person or entity to which it is addressed and may contain confidential and/or privileged material. Any review, retransmission, dissemination or other use of, or taking any action in reliance upon, this information by persons or entities other than the intended recipient is prohibited. If you receive this in error, please contact the sender and delete the material from any computer.”

Der unbestechliche Google-Übersetzer bestätigt mir ausdrücklich, den Inhalt der besagten E-Mail Kramm vom 17. Januar 2021 um 05:05 Uhr rechtmäßig zitiert zu haben:

„VERTRAULICHKEITSWARNUNG: Die übermittelten Informationen sind nur für die Person oder Organisation bestimmt, an die sie gerichtet sind, und können vertrauliches und / oder privilegiertes Material enthalten. Jegliche Überprüfung, Weiterverbreitung, Verbreitung oder sonstige Verwendung oder Ergreifung dieser Informationen durch andere Personen oder Organisationen als den beabsichtigten Empfänger ist untersagt. Wenn Sie dies irrtümlich erhalten, wenden Sie sich bitte an den Absender und löschen Sie das Material von einem beliebigen Computer.

ERGO: Es verbleiben für eine erlaubte „Überprüfung, Weiterverbreitung, Verbreitung oder sonstige Verwendung oder Ergreifung dieser Informationen“ also ausschließlich die von Dr. Kramm „beabsichtigten Empfänger“, und ich bin definitiv der ERSTE „AN“-EMPFÄNGER dieser E-Mail.




Mittlere Winter-Temperatur sinkt weiter seit Beginn des Jahrhunderts

Die Winter in Island weisen seit dem Jahr 2001 Abkühlung auf

Die JMA-Daten für drei Stationen in Island (mit hinreichender Datenlage) sind hier geplottet. Ergebnis: Keine Erwärmung über die letzten 18 Winter!

Daten: JMA

Man sieht, dass einige Winter-Daten aus Island fehlen, aber die vorhandenen Daten reichen aus zu zeigen, dass die Winter dort allgemein kälter und nicht wärmer geworden sind.

Anfang dieses Jahres plotteten wir jährliche Daten für diese drei Stationen auf Island. Dabei stellte sich heraus, dass an 2 Stationen Abkühlung aufgetreten war, während an der dritten Station keine Änderung zu verzeichnen ist.

Daten: JMA 

Offensichtlich gab es in dieser Insel im Nordatlantik seit Beginn des Jahrhunderts keinerlei Erwärmung. Die Alarmisten schreien um nichts.

An Stationen in Grönland ist es kälter geworden

Schauen wir als Nächstes auf Grönland. Hier folgen die Graphiken mit den JÄHRLICHEN mittleren JMA-Daten von sechs Stationen auf Grönland. Einige davon weisen Datenlücken auf, aber sie geben dennoch ein ziemlich gutes Bild dessen, was da vor sich geht.

Daten: JMA

Auch in Grönland ist keine wirkliche Erwärmung erkennbar. Dort war seit dem Jahr 2001 alles weitgehend stabil.

Und was ist mit den Wintern in Grönland? Hier sieht man die Verhältnisse an den sechs Stationen:

Daten: JMA

Noch einmal: Die JMA-Daten für Grönland sind teilweise fragmentarisch, aber immer noch viel besser als die Baumringe von Michael Mann. Alles in allem gab es hinsichtlich der Winter in Grönland in diesem Jahrhundert nichts Ungewöhnliches.

2021: Die jahreszeitliche Schmelze in der Arktis weigert sich anzufangen

Und schließlich: Die Eisausdehnung in der Arktis setzte seinen Anstieg bis zum 21. März fort:

Vollständige Graphik und Bildinschrift von hier (deutsch).

Inschrift: Die NSIDC-Grafik (rechts) zeigt die Entwicklung der arktischen Meereisflächen (extent/Ausdehnung) im laufenden Fünf-Tage-Mittel (blaue Linie) vom 1.1.2021 bis zum Stand 23.3.2021. Nach dem Eisflächenmaximum von 14,866 Millionen km² am 11.3.2021 (Tabelle links) gab es bis zum 14.3.2021 einen leichten Rückgang auf 14,596 Mio km², dann aber bis zum 21.3.2021 ein überraschendes erneutes Wachstum der Meereisflächen auf 14.788 Millionen km². Aktuell liegen die Meereisflächen über dem Mittel 2011-2019 (hellblaue Linie). Ursache dürfte die anhaltende tief winterliche Kälte in der Zentralarktis mit Durchschnittstemperaturen im jahreszeitlichen Normalbereich um -27°C sein. Quelle: NSIDC Arctic Sea Ice Tabelle und NSIDC Arctic Sea Ice Chart

Link: https://notrickszone.com/2021/03/24/greenland-and-iceland-mean-winter-temperatures-continue-cooling-since-start-of-the-century/

Übersetzt von Chris Frey EIKE




Forsythie: Der Erstfrühlings­zeiger des Deutschen Wetter­dienstes in Hamburg verspätet sich seit über 35 Jahren – wo bleibt die Besorgnis erregende Klima­erwärmung?

Angeblich käme der Frühling immer früher. Und das wäre ein eindeutiger Beweis der Klimaerwärmung, die wiederum ausschließlich CO2-bedingt wäre. Dem unbedarften Leser soll suggeriert werden, dass die Forsythien vor 40 bis 50 Jahren viel später geblüht hätten und jetzt rücke der Termin von Jahr zu Jahr weiter vor. Als Beweis wird dann oftmals nicht die Grafik des Blühbeginns gezeigt, sondern die Grafik des CO2-Anstieges, eines Anstiegs also, den niemand bezweifelt. Derzeit: 418 ppm.

Wir sind der Sache nachgegangen und fragen uns: Blühen die Forsythien wirklich früher? Hält der Lenz tatsächlich immer einen früheren Einzug in Deutschland? Zu 2021: Für dieses Jahr legte der Phänologe Jens Iska Holtz den Referenzbusch an der Hamburger Lombardsbrücke mit dem Blütenbeginn 25. März fest. Das sind 84 Tage seit Jahresbeginn.

Wie verhalten sich die Blühtermine im Vergleich zu früher?

Anfang der 80-er Jahre war der Wiederaufbau der Innenstadt Hamburg weitgehend abgeschlossen, so dass zusätzliche anthropogene Wärmeinseleffekte wohl nur noch gering auf die Temperaturen einwirken. Gemeint ist, seit den 80-er Jahren dürfte die vom Menschen erzeugte Zusatzwärme durch Heizungen und Änderungen der Strahlungsbilanz in der Innenstadt annähernd gleich geblieben sein. Interessant wäre aber ein Temperaturverlauf der Alster, denn der Strauch steht direkt am Ufer und die Wassertemperatur und andere Parameter bestimmen den Blütentermin ebenfalls mit. Eine Zunahme warmer Abwässer infolge des gestiegenen Lebensstandards seit 1980 hätten selbstverständlich Auswirkungen auf die Erstblüte, aber genauso auch eine Nitrat-Zunahme des Gewässers und natürlich auch die CO2-Zunahme der erdnahen Luft. Beide wirken wie ein zusätzlicher Dünger und damit günstig auf die Vegetation.

Doch nun zur Grafik: Vor allem Laien und Medienvertreter bitte beachten: In der folgenden Grafik sind auf der y-Achse die Blühtermine der Forsythie als Tage nach Neujahr aufgetragen, ein Ausschlag nach oben bedeutet somit einen späteren Blühtermin.

Abbildung 1: Vorsicht, nicht verwechseln, die violette Trendlinie steigt seit 36 Jahren, das bedeutet Verspätung. Auf der linken senkrechten y-Achse sind nicht die Temperaturen aufgetragen, sondern die Kalendertage seit Jahresbeginn. Je mehr Kalendertage, desto später der Forsythien-Blütenbeginn.

Ergebnis: Der CO2-Gehalt der Luft steigt, aber die Forsythienblüte verspätet sich.

Wir stellen nur fest: Obwohl die Beobachtungsreihe mitten in der großen Wärmeinsel Hamburg aufgenommen wurde, und damit gar nicht die Bedingungen einer objektiven Beobachtung erfüllt, ist der Blütenbeginn des DWD Vergleichsbusches an der Lombardsbrücke seit 1986 Jahren eindeutig verspätet. Genau das Gegenteil behaupten aber der Deutsche Wetterdienst und die Medien.

Ob und wie der steigende CO2-Gehalt der Luft die phänologische Entwicklung beeinflusst, bedarf noch intensiver Forschungen. Die jetzt auch in Hamburg für den Klimaschutz demonstrierenden Schulschwänzer haben allesamt Nachhilfestunden in Biologie bitter nötig, denn ohne ausreichend CO2 in der Atmosphäre gäbe es keine Photosynthese und damit kein höheres Leben auf unserer Erde. CO2 ist genauso essentiell für alle grünen Pflanzen wie Wasser, Mineralstoffe, Licht und Wärme. Die erhöhten CO2-Konzentrationen verbessern die Ertragsleistungen unserer Kulturpflanzen. Gegenwärtig sind nur etwa 4 von 10.000 Volumenteilen in der Luft CO2. Unserer Pflanzenwelt würde eine Verdopplung bis Verdreifachung der derzeitigen CO2-Konzentration gut bekommen; in Gewächshäusern wird CO2 seit Jahrzehnten zur Düngung erfolgreich eingesetzt.

Es gibt andere Gründe für die leichte Verspätung der letzten 36 Jahre, und die überwiegen. Allen voran: Die Temperaturen von Januar bis März sind etwas gesunken, wobei der Januar wohl nur noch sehr wenig den Blühtermin entscheidet. Wichtiger ist die Wärme der beiden Monate Februar und März, sowie die Besonnung der letzten Woche vor Blühbeginn.

Der Monat Februar, Wetterstation am Flughafen Hamburg:

Die DWD-Wetterstation liegt 7 km nördlich der Innenstadt.

Abbildung 2: Der Februar wurde etwas kälter in Hamburg. Man beachte den kalten Februar 2018 und den verspäteten Blütenbeginn 2018 am 4.April.

Der März in Hamburg

Noch mehr als der Monat Februar beeinflussen die Märztemperaturen den Blühtermin der Forsythie an der Hamburger Lombardsbrücke, insbesondere die letzten Tage vor dem Aufblühen. Und die erste Märzhälfte war in Hamburg sogar leicht unter dem Februar-Gesamtschnitt, was den Blütenbeginn 2021 wohl doch um einige Tage verzögerte.

Beide Monate zusammen bezeichnen wir als Vorfrühling, hier die Grafik dazu:

Abb.3: Februar und März bezeichnen wir als Vorfrühling. Der Temperaturverlauf beider Monate zusammen ist auch in Hamburg leicht fallend.

Wir stellen vollkommen in Einklang mit unseren Erwartungen fest:

Die Temperaturen des Monates Februar und März bestimmen im Wesentlichen den Blütenbeginn des Forsythienstrauches in der Innenstadt von Hamburg. Neben den Temperaturen gibt es auch noch andere Gründe, wie im weiteren Artikel genannt.

Längere Betrachtungszeiträume:

Wie wir aus diversen Artikeln nicht nur der Autoren Kämpfe/Kowatsch wissen, lagen die Temperaturen Deutschlands seit etwa 1940 bis 1987 in einer Depression. Zum einen wegen der Umstellung der Großwetterlagen, das sind natürlich Gründe, aber auch wegen der fehlenden Wärmeinseleffekte bei den Wetterstationen, speziell Hamburg: Weil die Städte ausgebombt waren und das Überleben auf Sparflamme kochte und Eistage auch in den Häusern wahrgenommen wurden. Der steigende Wohlstand, die rege Bautätigkeit und die Beheizung aller Räume nebst steigendem Warmwasserverbrauch im Haus, sowie die zunehmende Industrialisierung brachten wieder Wärme in Deutschlands Städte. Diese positive Nachkriegsentwicklung begünstigte zunächst den früheren Frühlingsbeginn in einer Stadt, er folgte dem Wohlstand, aber auch zu mehr Innenstadtwärme. Ein Vorgang, der in den 80-er Jahren in Hamburg wohl sein Ende gefunden hat. In der Innenstadt Hamburgs scheint der anthropogene Wärmeinseleffekt zwar auf hohem Niveau, aber ausgereizt zu sein. Das zeigt uns auch die nächste Grafik

Abb.4: Seit 1972, also seit 50 Jahren stagniert der Blühbeginn des Hamburger Forsythienstrauches bei etwa 79 Tagen nach Neujahr.

Die wilde Stachelbeere

Ähnlich wie die Forsythie verhält es sich mit dem etwas früheren Laubaustrieb der Wilden Stachelbeere, welcher ebenfalls seit der Deutschen Einheit in der Stadt Weimar stagniert. Wegen eines tendenziell etwas wärmeren Aprils hat sich jedoch der Einzug des Vollfrühlings (Beginn der Apfelblüte) leicht verfrüht. Aus der Differenz beider Eintrittstermine ergibt sich die Dauer des Erstfrühlings. Bei der Analyse der Forsythie- Daten käme man zu ähnlichen Ergebnissen mit insgesamt geringeren Tageszahlen der Erstfrühlingsdauer:

Abbildung.5: Kein Trend beim Austrieb der Wildstachelbeere an einem festen Standort im Weimarer Ilmpark. Daraus darf nicht auf künftige Entwicklungen geschlossen werden. Im letzten Jahr 2020 trieb die Stachelbeere in Weimar schon am 12. Februar aus; in 2021 erst am 13. März. Mit einer eher mittelspäten Apfelblüte 2021 wird gerechnet.

Blühbeginn und Laubaustrieb der Wildstachelbeere werden hauptsächlich durch das Temperaturverhalten der Monate Januar bis März bestimmt – je milder dieser Zeitraum ist, desto früher treten sie ein (1990, 2007, 2020). Aber schon seit 1988 gibt es in diesem Zeitraum in Deutschland keinerlei Erwärmung mehr:

Abbildung 6: Seit 1988, das sind nunmehr schon stattliche 34 Jahre, hat es sich im Zeitraum von Januar bis März in Deutschland nicht mehr erwärmt – folglich war auch keine Verfrühung des Erstfrühlingsbeginns in diesem Zeitraum zu beobachten.

Bitte beachten: Die DWD-Daten sind nicht wärmeinselbereinigt. Die Mehrzahl der DWD-Wetterstationen steht in Wärmeinseln. Für wärmeinselarme Stationen ist die Temperatur-Trendlinie der ersten drei Monate deutlicher fallend, siehe Amtsberg, Zeitz, Neugersdorf, usw…)

Abbildung 7: Die Wetterwarte Zeitz steht am Stadtrand von Zeitz, die Temperaturen der ersten drei Monate zeigen seit 34 Jahren eine deutlichere Abkühlung als das DWD-Mittel für Deutschland.in Abbildung 6

Neben dem Hauptfaktor Wärme sind noch andere Gründe für Erstblüte und Laubaustrieb mitbestimmend: Tageslänge, die Sonnenscheindauer und der UV- Anteil im Sonnenlicht, Feuchtigkeit und Nachtfröste, die Bodentemperatur am Standort sowie Düngefaktoren im weitesten Sinne. Bekanntlich hat der Nitratgehalt im Fließ- und Grundwasser zugenommen, was das Pflanzenwachstum beeinflusst.

Zusammenfassung:

Wir leben keinesfalls mittendrin in einer gefährlichen Erwärmung. Kohlendioxid ist ein sauberes Gas, das mit dem Klima wenig zu tun hat. Kohlendioxid ist neben Sauerstoff und Wasser die Grundbedingung des Lebens auf der Erde. Die Erde braucht mehr und nicht weniger Kohlendioxid. Das Klima wandelt sich immer, und das aus vielerlei Gründen, aber Kohlendioxid hat keine oder kaum eine Erwärmungswirkung. Nur der steigende Wohlstandsfaktor, der Wärmeinseleffekt, forciert durch mehr Sonnenstunden auch wegen den Luftreinhaltemaßnahmen, ist zumindest in Deutschland der immer noch zunehmende Wärmeinseleffekt der wesentliche anthropogene Einflussfaktor auf die Temperaturen. Seitdem dieser in Hamburg ausgereizt ist, also Ende der 80er Jahre, seitdem fallen die Temperaturen der ersten drei Monate leicht, und das auch in der Innenstadt von Hamburg.

Insgesamt sei betont, dass unsere Grafiken einen längeren Zeitraum erfassen. Wir argumentieren nicht wie die Katastrophenverkünder mit Einzelbeobachtungen und verkünden dann falsche Vorhersagen. Die Grafiken sollen sprechen. Die Frühjahrsblüher Scharbockskraut, Buschwindröschen, Märzenveilchen und Lerchensporn finden sich auch in freier Natur auf einem unveränderten Stand wie um 1990. Weiterhin gilt: Klima lässt sich nicht schützen; es ist als „chaotisches System“ viel zu komplex und erst recht wenig erforscht. Oder anders ausgedrückt: Die Forschung ist noch absolut ergebnisoffen. Notwendig wäre jedoch ein umfangreicher Natur- und Umweltschutz. Sauberes Wasser, saubere Luft und saubere Nahrungsmittel sind ein Grundgut, das allen Menschen zusteht. Natur- und Umweltschutz sind notwendig, Klimaschutz gibt es nicht. Mehr CO2 in der Luft wäre für das Wachstum und die Ernteerträge der Welt besser. Eine CO2-Steuer dient nur den Staatskassen.

Der Forsythienstrauch in Hamburg-Stadtmitte zeigt sich vom Klimaklamauk völlig unbeeindruckt. Schade, dass der Forsythienstrauch den Artikel nicht selbst schreiben kann.

Noch eine Anmerkung an die Ortskundigen: Falls sich die Umgebung des Hamburger Strauches geändert haben sollte, bitte ich um ein aktuelles Foto, am besten vom selben Standort aus wie in den Grafiken.




Die Wahrheit über Windenergie: Die Kosten steigen – und sinken nicht

Der jüngst ernannte Chef von Siemens Gamesa ist mit Druck durch sterigende Kosten konfrontiert

Die Hersteller von Offshore-Windturbinen stehen vor einem härteren Wettbewerb und Preisdruck, warnte der Chef des größten Unternehmens der Branche.

Andreas Nauen, Vorstandschef von Siemens Gamesa, sagte, die hohen Summen, die kürzlich für Offshore-Windentwicklungsrechte geboten wurden, würden „den Druck auf uns erhöhen, wettbewerbsfähigere Turbinen zu liefern“.

Nauen übernahm den Vorstandsvorsitz im vergangenen Juni mit dem Auftrag, eine Strategie zu entwickeln, um die im Kalenderjahr 2020 aufgetretenen hohen Verluste und rückläufigen Umsätze umzukehren.

Während neue Verträge im Wert von Milliarden von Dollar in Offshore-Windprojekte in Europa und den USA fließen, werden die Turbinenhersteller durch hohe Investitionskosten und hohe Stahlpreise einerseits sowie den Druck von Entwicklern, die billigere Turbinen wollen, andererseits unter Druck gesetzt…

Eine Auktion im letzten Monat in Großbritannien, dem größten Offshore-Windmarkt der Welt, führte zu Rekordpreisen, da eine Reihe von relativen Neulingen in diesem Sektor, darunter mehrere Ölkonzerne, um die Rechte am Meeresboden zur Entwicklung von Projekten kämpften.

Die steigenden Preise haben zu Fragen über die möglichen Auswirkungen auf die Lieferkette und die Stromkosten für die Verbraucher geführt, da die Entwickler Wege finden müssen, um sicherzustellen, dass sie eine akzeptable Rendite erzielen.

Der ganze Beitrag steht hier (£)

Link: https://www.thegwpf.com/the-truth-about-wind-energy-costs-are-rising-not-falling/

Übersetzt von Chris Frey EIKE




Preisdaten des Energie-Ministeriums beleuchten die regressive Natur, alles zu elektrifi­zieren

Der Vorhersage zufolge wird Elektrizität auf einer Energie-Äquivalent-Basis etwa 39 Dollar pro Million Btu kosten. Außerdem wird prognostiziert, dass eine Million Btu in Form von Erdgas ca. 11, Propan ca. 19, Heizöl Nr. 2 ca. 20 und Kerosin ca. 23 Dollar kosten wird. Somit wird Strom fast viermal so viel wie Erdgas und doppelt so viel wie Propan kosten, ein Brennstoff, der von ländlichen Amerikanern in ihren Häusern und auf ihren Farmen und Höfen häufig verwendet wird.

Der „electrify everything“-Vorstoß wird einkommensschwachen Verbrauchern regressive Energiesteuern auferlegen.

Im vorigen Monat schrieb ich auf diesen Seiten während des tödlichen Schneesturms, der Texas fast eine Woche lang lahmlegte, dass es eine Unzahl von Problemen bei dem Versuch gibt, alle unsere Transport-, Industrie- und Hausenergie-Systeme zu elektrifizieren. Ich schrieb: „Der Versuch, alles zu elektrifizieren, wäre das Gegenteil von anti-fragil. Anstatt unsere Netze und kritischen Systeme widerstandsfähiger und weniger anfällig für Störungen zu machen, die durch extreme Wetterbedingungen, böswillige Akteure, umstürzende Bäume oder einfach Fahrlässigkeit verursacht werden, würde die Elektrifizierung aller Systeme unsere Abhängigkeit von einem einzigen Netz, nämlich dem Stromnetz, konzentrieren und damit fast jeden Aspekt unserer Gesellschaft anfällig für katastrophale Ausfälle machen, falls – oder besser gesagt, wenn* – ein großflächiger oder längerer Stromausfall eintritt.“

[*Im Englischen gibt es einen großen Unterschied zwischen „if“ (falls) und „when“. „If“ = kann eintreten oder auch nicht. „When“ = tritt auf jeden Fall ein; ist nur eine Frage der Zeit. A. d. Übers.]

In der Tat sind die Risiken für unsere Energiesicherheit sowie für Belastbarkeit und Zuverlässigkeit [der Stromversorgung] offensichtlich. Aber das größere und unmittelbarere Problem ist die regressive Natur, die Verbraucher dazu zwingt, Elektrizität anstelle von Energiequellen wie Erdgas und Propan zu nutzen, die für ein Viertel oder die Hälfte [des Preises] der Energie verkauft werden, die Verbraucher aus dem Stromnetz beziehen können.

Letztes Jahr habe ich einen Bericht für die Foundation for Research on Equal Opportunity [etwa: Forschungs-Fonds für die Chancengleichheit] veröffentlicht, der sich mit den in Dutzenden von Gemeinden in Kalifornien umgesetzten Erdgasverboten befasste. Nach Angaben des Sierra Club haben inzwischen 42 kalifornische Gemeinden Verbote verhängt. Auf seiner Website behauptet der Club, die größte Umweltgruppe Amerikas, dass Häuser ohne Gasverbrauch „ein Gewinn für unser Klima, unsere Gesundheit und unsere Sicherheit“ sind. Im Januar veröffentlichte die Stadt Denver einen Plan, der vorsieht, Erdgasanschlüsse in Neubauten bis 2027 zu verbieten. Im Februar erließ die Stadt Seattle ein Gesetz, das die Verwendung von Erdgas in neuen Geschäftsgebäuden und großen Mehrfamilienhäusern verbietet. In Massachusetts haben sich etwa ein Dutzend Städte mit dem Rocky Mountain Institute zusammengetan, das kürzlich eine 10-Millionen-Dollar-Förderung vom Bezos Earth Fund erhalten hat, um für das Recht auf ein Verbot der Verwendung von Erdgas in Wohn- und Gewerbegebäuden einzutreten.

Das Verbot von Erdgas zwingt die Verbraucher, teureren Strom zu verwenden, um ihre Häuser zu heizen, ihr Essen zu kochen und das Wasser zu erhitzen, das sie zum Waschen ihrer Kleidung und ihres Geschirrs benötigen. Die Befürworter der Elektrifizierung von allem, einschließlich des Natural Resources Defense Council, das 100 Millionen Dollar vom Bezos Earth Fund erhalten hat, ziehen es vor, ihre Bemühungen „nützliche Elektrifizierung“ zu nennen. Der korrektere Begriff ist aber „Zwangselektrifizierung“, weil sie die Energiekosten für Verbraucher mit niedrigem und mittlerem Einkommen erhöhen wird.

Die Erhöhung der Energiekosten in Staaten wie Kalifornien mit einer der höchsten Armutsraten des Landes ist nicht zu rechtfertigen. Wenn man die Lebenshaltungskosten berücksichtigt, leben 18,1 % der Einwohner des Staates in Armut. Wenn man nun die armen Kalifornier zwingt, Strom statt des günstigeren Erdgases zu nutzen, erhöht man deren Energiekosten und verschlimmert die Armut.

Trotz dieser Fakten werden Verbote für Erdgas von einigen der profiliertesten Klimaaktivisten Amerikas bejubelt. Im Januar veröffentlichte Bill McKibben, der Gründer von 350.org, einen Artikel im New Yorker, in dem er sagte, wenn es eine „grundlegende Faustregel für den Umgang mit der Klimakrise gibt, dann wäre es: aufhören, Dinge zu verbrennen“, einschließlich Erdgas. McKibben sagt, wir sollten unseren Energiebedarf auf Solar- und Windenergie umstellen. Ebenfalls im Januar erklärte Bürgermeister Bill de Blasio, dass New York City „vollständig auf fossile Brennstoffe verzichten“ und „bis zum Ende dieses Jahrzehnts den Anschluss fossiler Brennstoffe in der Stadt verbieten wird.“

Im März erklärte Peter Iwanowicz, Exekutivdirektor der Environmental Advocates of New York [so etwas Ähnliches wie die DUH bei uns! A. d. Übers.], dass die Politik aufhören sollte, sich mit alternativen Brennstoffen wie erneuerbarem Erdgas zu befassen, weil sie „von der grundlegenden Aufgabe ablenken, die New Yorker dazu zu bringen, mit dem Verbrennen aufzuhören.“

Ich bin für Elektrizität. Aber die Auffassung, dass wir Menschen im Namen des Klimawandels „aufhören sollten, Dinge zu verbrennen“, ignoriert die Notwendigkeit von Energiesicherheit, Widerstandsfähigkeit und grundlegender Fairness. In den letzten fünf Jahren bin ich nach Indien, Island, Libanon, Puerto Rico, Colorado und New York gereist, um die Welt durch die Linse der Elektrizität zu betrachten. Vor kurzem habe ich ein Buch veröffentlicht (A Question of Power: Electricity and the Wealth of Nations) und zusammen mit meinem Kollegen Tyson Culver einen Dokumentarfilm produziert (Juice: How Electricity Explains the World), der die Elektrizität in den Mittelpunkt stellt. Das Buch und der Film zeigen, dass wir viele Terawatt an neuen Erzeugungskapazitäten brauchen, um die 3 Milliarden Menschen auf der Welt, die heute in Energiearmut leben, aus der Dunkelheit in das helle Licht der Moderne zu bringen.

Kurzum: Die Menschen auf der Welt brauchen mehr Strom. Sehr viel mehr. Aber die Blackouts in Texas haben bewiesen, dass wir vielfältige und widerstandsfähige Energienetze brauchen, die auch bei extremen Wetterereignissen riesige Mengen an Energie liefern können. Der Versuch, alles zu elektrifizieren, ist ein Rezept für mehr Ungleichheit und weniger Energiesicherheit und Widerstandsfähigkeit.

Follow me on Twitter or LinkedIn. Check out my website or some of my other work here.

Robert Bryce is the host of the Power Hungry Podcast. An author and journalist, Bryce has been writing about energy, politics, and the environment for more than 30 years.

Link: http://icecap.us/index.php/go/new-and-cool

Übersetzt von Chris Frey EIKE

 




National Review gewinnt, Michael Mann verliert!

Rich Lowry, der NR-Chefredakteur, sagte: „Es ist absolut lächerlich, dass wir mehr als acht Jahre gebraucht haben, um von den Gerichten Erleichterung von dieser völlig verdienstlosen Klage zu bekommen.“

Lesen Sie hier mehr.

Das Oberste Gericht von D.C. hat dem Antrag von National Review stattgegeben, die langjährige Verleumdungsklage des Klimaforschers Michael Mann abzuweisen.

Vor mehr als acht Jahren hatte Mann die NR verklagt und schrieb privat, dass er diese Klage als eine Gelegenheit sah, diese „schmutzige Organisation“ zu „ruinieren“.

Geklagt hatte er aufgrund eines Blog-Beitrags auf The Corner von Mark Steyn im Jahre 2012, in welchem Manns Arbeit kritisiert worden war. Der Klimawissenschaftler drohte mit einer Klage, falls NR den Beitrag nicht entferne und sich entschuldige. NR lehnte es ab, das zu tun. Mann verklagte daraufhin NR, Steyn und das Competitive Enterprise Institute (Steyn zitierte einen CEI-Artikel in seinem Beitrag).

NR hat von Anfang an geltend gemacht, dass der Beitrag nicht verleumderisch sei, sondern eine geschützte Meinung, und dass NR außerdem keinesfalls böswillig gehandelt haben könnte, nur weil der Beitrag nicht im Voraus überprüft und von einem Nicht-Mitarbeiter veröffentlicht wurde.

Das Gericht akzeptierte heute das letztere Argument, was bedeutet, dass die Klage noch gegen Steyn und CEI steht.

„Es ist absolut lächerlich, dass es uns mehr als acht Jahre dauerte, bis das Gericht diese völlig unsinnige Klage zurückwies“ sagte NR Chefredakteur Rich Lowry. „Und es ist empörend, dass Mann immer noch erlaubt wird, Steyn und das CEI zu belästigen.“

Mann wird wohl gegen das Urteil Berufung einlegen, während NR die Möglichkeit hat, von Mann Anwaltskosten zu verlangen. Es hat NR bereits Millionen von Dollar gekostet, sich gegen den Rechtsstreit zu verteidigen.

„Sagen wir einfach, wenn ich er wäre, wäre ich sehr besorgt über diese Möglichkeit,“ sagte Lowry.

Mehr bei Law & the Courts:

A Victory, but Miles to Go

A Harvard Law Professor Wants Democrats to Disenfranchise Republican Voters

How Trump Got Control of the Border

Joe Biden Shouldn’t Be Able to Start Wars on His Own

Aktualisierung:

Es gab viele Diskussionen um die Details der Klage. Manns ursprüngliche Klage gegen die National Review und Mark Steyn kann hier heruntergeladen werden.

Mark Steyn aktualisiert uns über den Fortschritt der Klage hier. Einer der früheren Richter in diesem Fall hatte folgendes zu sagen:

Der Hauptgedanke des Artikels des Beklagten [Steyn] sind die unzureichenden und ineffektiven Untersuchungen, die die Pennsylvania State University gegen ihre Mitarbeiter, einschließlich Jerry Sandusky und den Kläger [Michael E. Mann], durchgeführt hat“.

In der Tat.

Link: https://wattsupwiththat.com/2021/03/19/national-review-wins-michael-mann-loses/

Übersetzt von Chris Frey EIKE

 




In den Entwicklungs­ländern ist die Kohle immer noch König!

Zum Entsetzen zentraler Planer (und hochbezahlter Umweltschützer) ist die Vetomacht der UN in letzter Zeit erheblich geschwächt worden. China, Indien und sogar afrikanische und andere asiatische Nationen bauen Kohlekraftwerke und erschließen Kohleressourcen viel schneller, als die USA ihre eigenen Anlagen abschalten können. Der große Masterplan, den Planeten durch ein weltweites Verbot fossiler Brennstoffe zu retten, wird systematisch von den Hungernden untergraben.

Laut dem indischen Journalisten und Ingenieur Sudhanva Shetty wird in Indien bis 2030 – und darüber hinaus – „Kohle wahrscheinlich König bleiben“. Der Grund: Kohle deckt mehr als die Hälfte des inländischen Energiebedarfs Indiens. Das staatliche Unternehmen Coal India verkündete am 10. März Pläne für die Erweiterung von 24 bestehenden Kohleminen und den Bau bis zu acht neuer Kohleminen auf der „grünen Wiese“ an.

Kohle macht weiterhin etwa 56 Prozent des gesamten indischen Primärenergieverbrauchs aus. Obwohl die Nachfrage 2020 durch die COVID-Pandemie gebremst wird, soll der Kohleverbrauch in Indien 2021 um 3,8 Prozent steigen.

Auch China plant in den nächsten fünf Jahren einen erheblichen Anstieg der Investitionen in die Kohleenergie, so eine Anfang März veröffentlichte Regierungserklärung, die laut Agence France-Presse „nur bescheiden erhöhte Ambitionen im Bereich der erneuerbaren Energien“ enthält.

Letztes Jahr hat China genug Kohlekraftwerke gebaut, um 38,4 Gigawatt Strom zu liefern, was die 8,6 GW, die durch die Stilllegung älterer Kohlekraftwerke verloren gingen, weit übertrifft. Nikkei Asia merkt an, dass dieser Zuwachs dem Äquivalent von 30 neuen Atomkraftwerken entspricht, „was darauf hindeutet, dass die Kohle in China auf absehbare Zeit König bleiben wird.“

[Hervorhebung im Original]

China verspricht nicht mehr, als dass bis zum Jahr 2025 (nur) 20 Prozent seiner Energie aus erneuerbaren Quellen stammen werden – das Ziel waren 15 Prozent im Jahr 2020. Chinas Plan huldigt zwar der „Kohlenstoffneutralität“ bis 2060 (30 Jahre nach den westlichen Zielen), signalisiert aber „wenig Dringlichkeit“ bei der Senkung der Treibhausgasemissionen, ganz zu schweigen vom Gesamtenergieverbrauch.

Präsident Xi Jinping sagt, dass China den Höhepunkt der Emissionen bis 2030 erreichen wird, aber es gibt keine Garantien. Selbst während der COVID-Sperre im Jahr 2020 waren Chinas CO2-Emissionen um 1,5 Prozent höher als im Jahr 2019, und mit einem prognostizierten Wirtschaftswachstum von 6 Prozent im Jahr 2021 wird China erneut einen Nettoanstieg der CO2-Emissionen verzeichnen.

Chinas starker Aufschwung nach der Pandemie wurde durch hohe Investitionen in die Infrastruktur gefördert, die den Wandel zu einer „grüneren“ Politik eindämmen könnten. Der 5-Jahres-Energieplan des größten Umweltverschmutzers der Welt enthält keine spezifischen Ziele für den Ausbau von Wind-, Solar- oder Wasserkapazitäten. Und weder die Vereinten Nationen noch westliche Milliardäre können etwas dagegen tun. Ebenso wenig können sie Chinas Finanzierung von Kohlekraftwerken und Kohleabbau in kleineren Ländern stoppen.

[Hervorhebung im Original]

Zwei der letzten drei US-Präsidenten haben versprochen, die US-Kohleindustrie zu zerstören, doch gleichzeitig haben sie auch versucht, die Gewinnung von Erdgas durch Hydrofracking (Fracking) zu beenden. Amerikanische Städte und Bundesstaaten, die behaupten, es gäbe einen „Klimanotstand“, erlassen sogar Gesetze, die die Verschiffung amerikanischer Kohle in asiatische Häfen verbieten. Das Lustige daran ist, dass diese Amerikaner (und ihre UN-Anhänger) eine verlorene Schlacht mit den Entwicklungsländern führen.

Der Null-Kohlenstoff-Mob ist stinksauer, weil die Entwicklungsländer nicht ihrem Beispiel folgen und Kohle, geschweige denn andere fossile Brennstoffe, aus ihrer Wirtschaft verbannen. Aber weinen der jetsettende US-Klimabeauftragte John Kerry und seine Kollegen, weil sie wirklich eine „außerordentliche Klimakrise“ befürchten? Sicherlich, wenn es einen echten Konsens in der Klimapolitik gäbe (so wie es ihn für die COVID-Pandemie gab), wäre die ganze Welt in ihrer Reaktion geeint.

Was aber, wenn die westlichen Eliten, die seit langem daran gewöhnt sind, die armen Nationen so zu tyrannisieren, dass sie ihren oft skurrilen Befehlen folgen, einfach nicht mehr davon abzubringen sind, Kohle für den Aufbau einer Energieinfrastruktur zu verwenden? Das scheint die These eines kürzlich erschienenen Bloomberg-Artikels zu sein, der behauptet, dass Chinas Beteiligung an der Finanzierung von Kohleprojekten sowohl im eigenen Land als auch in noch ärmeren Ländern „es weiter vom Rest der Welt isoliert.“

Die Bloomberg-Schlagzeile schreit, „China ist praktisch allein“ bei der Finanzierung neuer Kohleminen und -kraftwerke. Sie versuchen dann, China zu tyrannisieren, indem sie zuerst bemerken, dass („tugendhafte“) Finanzinstitutionen in den USA, Europa und Japan Investitionen in Kohle meiden, um dann dann behaupten, dass die oft staatlich unterstützten chinesischen Investmentgesellschaften dies tun, „selbst auf die Gefahr hin, den Geist von Chinas internationalen Verpflichtungen zur Bekämpfung des Klimawandels zu untergraben.“

[Hervorhebung im Original]

Caleb Dengu, Vorsitzender des simbabwischen Unternehmens RioZim Energy, dankte chinesischen Investoren für die Finanzierung eines milliardenschweren Kraftwerks, „das nach über zwei Jahrzehnten der Blockade durch westliche Geldgeber zu Hilfe kam“ und „insbesondere, da die großen Banken der Welt gezwungen sind, die Finanzierung von Kohlekraftwerken einzustellen.“

Und Lefoko Moagi, Botswanas Minister für Bodenschätze, grüne Technologie und Energiesicherheit, ließ den Westen wissen, dass sein Land beabsichtige, seine 200-Milliarden-Tonnen-Kohleressourcen zu entwickeln. „Wir sind alle für eine grünere Welt“, räumte er ein, „aber wir glauben, dass wir einen Überfluss an einer gottgegebenen natürlichen Ressource nicht einfach so liegen lassen können.“

[Hervorhebung im Original]

Moagi erklärte im vergangenen Februar: „Wir würden sehr gerne mit allen zusammenarbeiten, die saubere, grüne Technologien wollen. Aber wir sagen: ‚Wenn ihr uns keine Alternative zur Stromerzeugung gebt – meint ihr damit, dass unsere Wirtschaft zusammenbrechen muss, weil Strom alles am Laufen hält? Wenn es keinen Strom gibt, steht das Land still.“

Wie Dengu weiß Moagi, dass westliche Banken die Finanzierung von Entwicklungsprojekten „auf die Begrünung der Ausbeutung stützen“, aber, so fügte er hinzu, „abgesehen von den Banken gibt es Leute, die darauf brennen, sich zu beteiligen, und es ist ihr Raum und ihre Zeit.“ Unter dem vorherigen Präsidenten gehörten die USA zu diesen „Leuten“.

Yu Zirong, Leiter der Chinesischen Akademie für internationalen Handel und wirtschaftliche Zusammenarbeit, sagte in einer Rede im Rahmen der Belt and Road Initiative, dass es keinen „Einheitsansatz“ für grüne Entwicklung in ärmeren Ländern geben sollte. Stattdessen sollten Entscheidungen auf den natürlichen Ressourcen des Gastlandes basieren. „Für Länder mit reichen Kohlevorkommen“, so Yu, „ist es unmöglich, ihnen die Nutzung von Kohle komplett zu verbieten. Der Schlüssel ist, wie man sie vernünftiger nutzen kann.“

Irina Slav, Journalistin bei OilPrice, sagt, dass westliche Eliten, die ein komplett erneuerbares Energieportfolio auch für Entwicklungsländer fordern, oft die Realität ignorieren, dass viele afrikanische Länder (insbesondere) einfach nicht über eine ausreichend große Übertragungs-Infrastruktur verfügen, um Solar- und Windkraftanlagen im großen Maßstab wirtschaftlich zu betreiben. Selbst in Ländern (wie Kenia) mit einem gut ausgebauten Stromnetz sind Wind- und Solarenergie (abzüglich der unverschämten Subventionen durch reiche westliche Nationen) immer noch unwirtschaftlich.

Slav zitiert Kommentare von Cecily Davis, der Leiterin der Africa Group, die zwar Mini-Netze für Wind- und Solarprojekte in afrikanischen Ländern anpreist, aber sagt, es sei „bedauerlich, dass einige afrikanische Länder weiterhin Öl- und Gas- (und Kohle-) Ressourcen ausbeuten. „Wenn sie die fossilen Brennstoffe zurückfahren“, beklagt sie, „verlieren sie die Steuereinnahmen, um für andere Infrastrukturen zu zahlen; wenn sie die Öl- und Gasproduktion aufrechterhalten, macht das es für erneuerbare Energien schwieriger, zu konkurrieren.“

Als ob es die höchste Priorität für die armen Nationen der Dritten Welt wäre, die westlichen Eliten glücklich zu machen.

Autor: Duggan Flanakin is the Director of Policy Research at the Committee For A Constructive Tomorrow. A former Senior Fellow with the Texas Public Policy Foundation, Mr. Flanakin authored definitive works on the creation of the Texas Commission on Environmental Quality and on environmental education in Texas. A brief history of his multifaceted career appears in his book, „Infinite Galaxies: Poems from the Dugout.“

Link: https://www.cfact.org/2021/03/19/in-the-developing-world-coal-is-still-the-king/

Übersetzt von Chris Frey EIKE

 




Es braucht Big Energy zum Backup von Wind und Solar

Meines Wissens hat diese große Zahl keinen Namen, aber das sollte sie. Nennen wir sie die „Mindest-Reserve-Anforderung“ für Wind- und Solarenergie, oder MBR. Die Mindest-Backup-Anforderung gibt an, wie viel Erzeugungskapazität ein System haben muss, um zuverlässig Strom zu produzieren, wenn Wind und Sonne ausfallen.

Für die meisten Orte ist die Größenordnung der MBR sehr einfach. Es ist der gesamte Strom, der in der heißesten oder kältesten windschwachen Nacht benötigt wird. Es ist Nacht, also gibt es keine Sonnenenergie. Der anhaltende Wind beträgt weniger als acht Meilen pro Stunde, also gibt es keine Windenergie. Es ist sehr heiß oder kalt, so dass der Bedarf an Strom sehr hoch ist.

An vielen Orten wird der MBR nahe an der maximalen Leistung liegen, die das System jemals benötigt, da Hitzewellen und Kälteperioden oft windschwache Ereignisse sind. In Hitzewellen kann es tagsüber etwas heißer sein, aber nicht so sehr. Bei Kälteeinbrüchen ist es nachts oft am kältesten.

Der so genannte „Spitzenbedarf“ ist also ein guter Näherungswert für den maximalen Reservebedarf. Mit anderen Worten: Es muss genügend zuverlässige Erzeugungskapazität vorhanden sein, um die gesamte maximale Leistung bereitzustellen, die das System jemals benötigt. Für ein öffentliches Stromversorgungssystem ist das eine sehr große Zahl, so groß wie es eben geht.

Eigentlich ist sie sogar noch ein bisschen größer, denn es muss auch eine Sicherheitsmarge oder eine so genannte „Reservekapazität“ vorhanden sein. Damit soll verhindert werden, dass etwas nicht so funktioniert, wie es sollte. Fünfzehn Prozent ist eine typische Reserve in amerikanischen Systemen. Das macht die MBR zu etwa 115 % des Spitzenbedarfs.

Wir lesen oft, dass Wind- und Solarenergie billiger sind als Kohle-, Gas- und Atomstrom, aber das beinhaltet nicht den MBR für Wind- und Solarenergie. Was bei Wind- und Solarenergie relativ günstig ist, sind die Kosten für die Erzeugung einer Stromeinheit. Dies wird oft als LCOE oder „Levelized Cost of Energy“ bezeichnet. Aber wenn man die zuverlässige Unterstützung hinzufügt, die erforderlich ist, um den Menschen die benötigte Energie zu liefern, werden Wind und Solar sehr teuer.

Kurz gesagt, die wahren Kosten von Wind- und Solarenergie sind LCOE + MBR. Das sind die enormen Kosten, von denen man nie hört. Aber wenn jeder Staat auf Wind- und Solarenergie umsteigt, dann muss jeder Staat MBR für ungefähr seinen gesamten Spitzenbedarf haben. Das ist eine gewaltige Menge Erzeugungskapazität.

Natürlich hängen die Kosten für MBR von der Erzeugungstechnologie ab. Die Speicherung scheidet aus, weil die Kosten astronomisch sind. Gasbefeuerte Kraftwerke sind vielleicht am besten, aber sie werden mit fossilen Brennstoffen betrieben, ebenso wie Kohle. Wenn man auf einem Verzicht auf fossile Brennstoffe besteht, ist Kernkraft wahrscheinlich die einzige Option. Kernkraftwerke als intermittierendes Backup zu betreiben, ist dumm und teuer, aber keine fossile Energieerzeugung ist es auch.

Was eindeutig ausgeschlossen ist, sind 100 % erneuerbare Energien, denn dann gäbe es häufig überhaupt keinen Strom. Es sei denn, man könnte die Geothermie in großem Maßstab zum Laufen bringen, was viele Jahrzehnte dauern würde.

Es ist klar, dass das Ziel der Biden-Administration, bis 2035 keinen Strom aus fossilen Brennstoffen zu erzeugen (ohne Atomkraft), aufgrund der Mindestanforderungen an die Unterstützung von Wind- und Solarenergie wirtschaftlich unmöglich ist. Man kann von hier aus nicht dorthin gelangen.

Man fragt sich, warum wir nie von diesen offensichtlichen enormen Kosten bei Wind und Solar gehört haben. Nun, die Versorgungsunternehmen, die ich mir angesehen habe, vermeiden dies mit einem Trick.

Dominion Energy, das den größten Teil des Stromes von Virginia liefert, ist ein gutes Beispiel. Der Staat Virginia hat ein Gesetz verabschiedet, dem zufolge Dominions Stromerzeugung bis 2045 ohne fossile Brennstoffe auskommen muss. Dominion entwickelte einen Plan, wie sie dies erreichen wollten. Ganz beiläufig, auf Seite 119, heißt es, dass Dominion seine Kapazitäten für den Import von Strom, der von anderen Energieversorgern gekauft wird, ausbauen wird. Diese Erhöhung entspricht zufällig der Höhe ihres Spitzenbedarfs.

Der Plan ist, den ganzen MBR-Saft von den Nachbarn zu kaufen! Aber wenn alle auf Wind- und Solarenergie umsteigen, wird niemand Strom zum Verkaufen haben! Tatsächlich werden sie alle kaufen, was nicht funktioniert. Beachten Sie, dass die Hochdruckzonen mit ihrer Windschwäche riesig sein können und ein Dutzend oder mehr Staaten abdecken. Im Übrigen hat heute niemand diese Art von überschüssiger Erzeugungskapazität.

Zusammenfassend lässt sich sagen, dass es für jedes Energieversorgungsunternehmen Zeiten geben wird, in denen es keine Wind- und Solarenergie in Kombination mit einer nahezu maximalen Nachfrage gibt. Die Deckung dieses enormen Bedarfs ist die minimale Backup-Anforderung. Die enormen Kosten für die Erfüllung dieser Anforderung sind Teil der Kosten für Wind- und Solarenergie. MBR macht Wind- und Solarenergie extrem teuer.

Die einfache Frage, die man der Biden-Administration, den Staaten und ihren Energieversorgern stellen sollte, ist folgende: Wie werden Sie Strom in heißen oder kalten windarmen Nächten bereitstellen?

Autor: David Wojick, Ph.D. is an independent analyst working at the intersection of science, technology and policy. For origins see http://www.stemed.info/engineer_tackles_confusion.html. For over 100 prior articles for CFACT see http://www.cfact.org/author/david-wojick-ph-d/. Available for confidential research and consulting

Link: https://www.cfact.org/2021/03/21/it-takes-big-energy-to-back-up-wind-and-solar/

Übersetzt von Chris Frey EIKE

Anmerkung des Übersetzers hierzu: Die Frage am Ende des Beitrags an Präsident Biden kann man auch Radio Eriwan stellen: „Frage an Radio Eriwan: Ist ein Leben allein mit Wind und Solar möglich? Radio Eriwan antwortet: Im Prinzip ja, wenn man bereit ist, auch mal ein paar Wochen ohne Strom zu leben“.




Verlauf von CO2 und Temperatur über Jahrtausende

Abbildung 1: CO2-Gehalt laut Eisbohrkern und laut instrumentellen Messungen am Mauna Loa

Beachten Sie, dass es eine gute Übereinstimmung zwischen den dreizehn verschiedenen Eiskernen gibt, ebenso wie eine gute Übereinstimmung während der Periode der Überlappung zwischen den Eiskern- und den instrumentellen CO2-Daten.

Um zu sehen, wie das CO2 mit der Temperatur seit dem Jahrespunkt zusammenhängt, nahm ich diesen CO2-Datensatz und überlagerte ihn mit der Ljundqvist-Rekonstruktion der Temperatur-Variabilität der außertropischen nördlichen Hemisphäre von 30°N bis 90°N. Es ist ein dekadischer Durchschnittswert, der vom Jahr 1 bis zum Jahr 1999 reicht. Ich habe auch die aktuellen dekadischen Mittelwerte von Berkeley Earth für den Zeitraum seit dem Ende der Studie, für 2000-2009 und 2010-2019, hinzugefügt. (Da es sich bei dem einen Datensatz um einen Proxy-Datensatz und bei dem anderen um einen instrumentellen Datensatz handelt, habe ich die Varianz des Berkeley Earth-Datensatzes so angepasst, dass sie mit der Varianz des Proxy-Datensatzes über den Zeitraum ihrer Überlappung übereinstimmt, also von 1850 bis 1999. Dies ist das gleiche Verfahren, das Ljundqvist für die schwarze gestrichelte Linie in seiner Rekonstruktion verwendet hat).

Hier ist die Grafik:

Abbildung 2: dekadische Temperatur-Rekonstruktion nach Ljungqvist 90-30°N, zu der ich Eiskern- und instrumentelles CO2 hinzugefügt habe, sowie die beiden letzten Dekaden der Berkeley Earth Mitteltemperaturen 90-30°N (blaue Kreise). Die Eiskerndaten sind eine Lowess-Glättung der einzelnen Eiskerndatenpunkte, die in Abbildung 1 dargestellt sind.

In Abbildung 2 sehen wir die frühe „Römische Warmzeit“, die bis etwa zum Jahr 200 n. Chr. andauerte. Danach sanken die Temperaturen bis etwa zum Jahr 500 n. Chr.. Danach erwärmte sich die Welt wieder bis zur „Mittelalterlichen Warmzeit“, gefolgt von einer weiteren Abkühlung bis zur „Kleinen Eiszeit“ ab, die etwa um das Jahr 1700 n. Chr. Endete. Danach schließlich ist die Temperatur über die folgenden drei Jahrhunderte seit der Kleinen Eiszeit in Schüben wieder gestiegen.

Hier sind meine Fragen zu dieser historischen Temperaturaufzeichnung:

● Warum begann die Temperatur nach der Römischen Warmzeit zu sinken? Warum ist es nicht einfach warm geblieben?

● Warum begann die Abkühlung im Jahr 200 n. Chr. und nicht etwa im Jahr 600 n. Chr.?

● Warum begannen die Temperaturen um 550 n. Chr. zu steigen bis zum Höhepunkt der Mittelalterlichen Warmzeit um 1000 n. Chr.? Es hätte kalt bleiben können … blieb es aber nicht.

● Warum erfolgte die Erwärmung von 550 bis 1000 n. Chr., und nicht von, sagen wir, 800 bis 1300 n. Chr.?

● Was verursachte die stetige Abkühlung von etwa 1000 n. Chr. bis zum Tiefpunkt der Kleinen Eiszeit um 1700 n. Chr.?

● Warum fand diese Abkühlung von etwa 1000-1700 n. Chr. stzatt und nicht z. B. von 1250-1850 n. Chr.?

● Warum hat sich die Welt nicht weiter abgekühlt bis zu einer echten Vergletscherung, anstatt dass die Abkühlung um das Jahr 1700 n. Chr. aufhörte? Angesichts der Milankovich-Zyklen und der Länge der anderen warmen Zwischeneiszeiten ist eine weitere echte Eiszeit überfällig.

● Warum begann sich die Temperatur am Ende der Kleinen Eiszeit wieder zu steigen anstatt einfach bei der Temperatur von 1700 n. Chr. zu verharren?

● Warum ist es von der Kleinen Eiszeit bis zur Gegenwart in Schüben wieder wärmer geworden?

Der Grund, warum das alles so wichtig ist, ist Folgender:

NICHT EIN KLIMAWISSENSACHAFTLER KENNT DIE ANTWORT AUF DIESE FRAGEN.

Kein Einziger zu keiner einzigen Frage.

Und aus Abbildung 2 geht eindeutig hervor, dass die Antwort NICHT CO2 lautet.

[Hervorhebungen im Original]

Ohne ein ausreichendes Verständnis des Klimas zu haben, um die Antworten auf diese Fragen zu kennen, gibt es absolut keine Möglichkeit zu sagen, ob die jüngste Erwärmung nicht einfach nur eine weitere natürliche Schwankung der Erdtemperatur ist.

Apropos Schwankungen, ich stelle in Abbildung 2 fest, dass die Oberflächentemperatur der außertropischen Nordhemisphäre der Erde in den letzten 2000 Jahren in einem Bereich von etwa 1,5°C variiert hat. Die Oberflächentemperatur der Erde liegt in der Größenordnung von 288 Kelvin, so dass dies einschließlich der Varianzanpassung eine Temperaturschwankung in der Größenordnung von einem Prozent über einen Zeitraum von zweitausend Jahren darstellt … für mich ist dies das Interessanteste am Klima – nicht wie sehr es sich im Laufe der Zeit verändert, sondern wie wenig es sich verändert.

Diese thermische Stabilität ist nicht auf thermische Trägheit zurückzuführen – die Temperatur auf dem Festland jeder Hemisphäre schwankt im Laufe eines jeden Jahres um etwa 15°C, und der Ozean auf jeder Hemisphäre variiert jedes Jahr um etwa 5°C.

Ich behaupte, dass diese überraschende und außergewöhnliche Stabilität auf die thermoregulierende Wirkung von emergenten Klimaphänomenen zurückzuführen ist, darunter Staubteufel, tropische Kumulusfelder und Gewitter, der El Nino/La Nina-Prozess, der überschüssige Wärme zu den Polen pumpt, Tornados und Hurrikane. Ich beschreibe diese Theorie der emergenten Thermoregulation in einer Reihe von Beiträgen, die in meinem Index 2021 meiner Beiträge hier im Abschnitt „Emergenz“ aufgeführt sind. Diese wirken, um die Erde entweder vor übermäßiger Erwärmung oder Abkühlung zu bewahren.

Jedenfalls habe ich in letzter Zeit immer wieder daran gedacht – an 2000 Jahre des Temperaturverlaufs und dass dieser Verlauf in keiner Weise vom CO2-Gehalt bestimmt wird …

——————————
Technische Anmerkung: Einige Leute haben gefragt, ob es in Ordnung ist, Proxy- und Instrumentaldaten oder allgemeiner zwei Datensätze, die angeblich dasselbe Phänomen messen, zu verbinden.

Meine Antwort ist absolut ja, FALLS zwei Bedingungen erfüllt sind:

Bedingung 1: Es gibt genügend zeitliche Überlappung zwischen den Datensätzen, um zu überprüfen, ob die beiden Datensätze die gleiche Antwort geben. In diesem Fall gibt es zum Beispiel eine Überlappung zwischen instrumentellen und Proxydaten sowohl für die Eiskern-/Instrumental-CO2-Aufzeichnungen als auch für die Proxy-/Instrumental-Temperaturaufzeichnungen. Abbildung 1 zeigt die Überlappung von Eiskern/Mauna Loa CO2. Hier ist eine Nahaufnahme der Überlappung zwischen der Ljungqvist-Temperatur und der varianzbereinigten Berkeley Earth-Temperatur:

Abbildung 3. Nahaufnahme, Überlappung von Ljungqvist-Temperatur und varianzbereinigter Berkeley-Earth-Temperatur

 

Wenn Sie die Abbildungen 1 und 3 betrachten, können Sie die Überlappung in jedem Fall sehen und überprüfen, dass die Proxy- und die instrumentellen Aufzeichnungen eindeutig in guter Übereinstimmung sind.

Bedingung 2: Die Tatsache der Überlappung wird klar und deutlich gemacht, ohne dass versucht wird, sie zu verbergen. In beiden Diagrammen ist der Überlappungszeitraum klar dargestellt, und die Existenz des Spleißes wird auch im Text bestätigt.

Hier ist ein Beitrag von mir, der das Spleißen diskutiert, passenderweise mit dem Titel „Splicing Clouds“ …

Link: https://wattsupwiththat.com/2021/03/22/millennial-co2-and-temperature/

Übersetzt von Chris Frey EIKE

 




Wer schützt uns endlich vor der wild geworde­nen Politiker­meute?

Nun haben wir eine neue Pandemie

Am 22.03. wurden die neuen Coronamaßnahmen verkündet [2] und der Bayerische Lokalfürst Söder (Jurist) klärte seine Untertanen wieder auf, warum diese leider, aber unvermeidbar, immer härter erforderlich werden; dpa 23.03.2021 [3]: Söder: Die Lage ist ernst und wird sehr viel ernster werden «Die dritte Welle rollt durch Bayern», sagte er. Und diese sei deutlich gefährlicher, es handle sich quasi um eine komplett neue Pandemie. Sechs Wochen sei es bei den Corona-Zahlen abwärts gegangen, seit vier Wochen gehe es wieder nach oben …
Der selbsternannte Chef-Epidemiologe Söder korrigierte sich inzwischen und verschärfte seine Aussage (Zitierung aus einer Tageszeitung): „Es ist eine neue Pandemie“, sagte der CSU-Politiker. „Es ist nicht einfach der dritte Aufguss“.

Irgendwelche Hemmungen hat er dabei nicht. Denn seine Untertanen sind daran ja selbst schuld, weil sie sich nicht strengstens an seine Regeln halten.

Wenn unsere Staats-Orakel sprechen

Unsere unfehlbare Merkel soll am 22.03. in der Kanzlerrunde mit einem ihrer typischen Schwurbelsätze gesagt haben (Zitierung aus einer Tageszeitung): „Insgesamt verhehle ich nicht, dass wir eigentlich den Reisehinweis geben, dass man dieses Jahr eben nicht reisen sollte“.
Einst berichtete die gleiche Zeitung, dass Informationen mit Grammatikfehlern von guten Bürgern nicht gelesen werden sollen, da solche grundsätzlich räääääächts sind und damit nur Unwahrheiten enthalten können …

Doch Ironie beiseite. Wie schon damals bei der griechischen Variante, können ausschließlich „Eingeweihte“ (damals Priester) Orakelsätze richtig deuten. Regierungssprecher Seibert ist der Priester für unser Staatsorakel und deutete die Aussage wie folgt (Zitierung aus der Tageszeitung): Doch Regierungssprecher Seibert stellte später auf Twitter dar, dass es bei diesen Aussagen Angela Merkels vor allem um die Osterzeit und die kommenden Wochen danach gehen sollte.
Der damit neu geknüpfte, Gordische Knoten lässt sich wohl entwirren, indem man davon ausgeht, dass sich „die kommenden Wochen“ über das gesamte Jahr erstrecken. Ob zur „Vermeidung“ eines Dauer-Lockdown die eben erfundenen Corona-Ruhetage dazu bis zum Jahresende verlängert werden, wird wohl eine der nächsten Nachtsitzungen (inzwischen offiziell als „Geisterstunden“ in die Geschichte eingehend) in kleiner Runde entscheiden …

Es gibt aber noch weitere Orakel. Karin Maag, die gesundheitspolitische Sprecherin der Union im Bundestag (Juristin) sagte in „hart aber fair, Der verschobene Frühling: Dritter Lockdown statt weiter lockern? (ARD)“ am 22.03.2021 allen Ernstes: „Wir hatten nie einen Lockdown“
Berichtet wurde es in [9]. Der Autor hat sich angewöhnt, alles nachzuprüfen. Also hat er das Video auf YouTub angesehen (Link) und wirklich, bei 26:23 kommt diese Aussage von ihr als Einwurf in einer Diskussion.
Da steckt zwar kein Grammatikfehler drin. Doch ist der Unterschied zwischen „Corona leugnen“ und „Lockdown leugnen“ wirklich groß? Jedenfalls bestätigt es das Bild über unseren Politikzirkus in Berlin.

Bisher haben unsere Maßnahmen nichts bewirkt. Deshalb müssen alle verschärft so weiter machen ….

ist im Wesentlichen das Einzige, was denen in Berlin und leider auch den Landesfürsten nach über einem Jahr Corona einfällt:
[2] Tichys Einblick, 23.03.2021: Karwoche mit Merkel – Lockdown total: Lebensmittelgeschäfte zu, kein Urlaub, keine Gottesdienste, „Ansammlungsverbot“
Merkel erreicht bei diesem Corona-Gipfel eine nie dagewesene Radikalität. Sie wollte für fünf Tage alle Geschäfte schließen – wirklich alle. Das konnte noch abgeschwächt werden. Zu den Ergebnissen fehlen einem dennoch die Worte.
… Am Karsamstag soll der Lebensmitteleinzelhandel im engen Sinne geöffnet bleiben dürfen, am Gründonnerstag sollen aber sogar der Lebensmitteleinzelhandel und Supermärkte geschlossen werden. Dazu kommt für fünf Tage ein „Ansammlungsverbot“, bei dem grundsätzlich nur noch Personen aus zwei verschiedenen Haushalten zusammenkommen dürfen. Ostern mit der Familie fällt also genauso aus wie Demonstrationen und Gottesdienste. Man wolle auf die Religionsgemeinschaften zugehen mit einer „Bitte“ – wie freiwillig diese Bitte dann angenommen werden muss, bleibt offen.
… Mitfahrer im Auto, die nicht zum eigenen Haushalt gehören, sind zum Tragen einer medizinischen Maske verpflichtet

Wer den Originalbeschluss lesen will: [5] Videokonferenz der Bundeskanzlerin mit den Regierungschefinnen und Regierungschefs der Länder am 22. März 2021 Beschluss
Warum unseren Politikern weiterhin nichts Sinnvolleres einfällt, brachte Söder vorher im Bayerischen Landtag auf den Punkt: Söder verteidigt seinen Kurswechsel, erklärt, dass der Inzidenzwert weiter die einzig belastbare Größe sei und dass ihm noch niemand eine tragfähige Alternative genannt hat …

Aber es vermittelt immerhin ein Erwartungs-Gefühl wie vor Weihnachten, nachdem nun auch das Osterfest angeordnet ausfällt.

Bild 1

Die Untertanen müssen endlich erkennen, dass das Grundgesetz nicht für sie, sondern für „die Partei“ zur freien Verfügung geschaffen wurde.

Großzügig lassen wir aber in ganz kleinem Rahmen zu, dass unter strengsten Auflagen „getestet“ wird, ob das, was sich woanders seit Langem bewährt hat, vielleicht bewähren könnte

Nachdem ein kleines Städtchen im Land belegt, dass man mit Überlegen und sinnvollen Maßnahmen wesentlich billiger und vor allem viel erfolgreicher zurechtkommt, was allerdings auch ein ganzes Land im Norden zeigt, dessen Erfolg trotzt aller negativen Stör-Propaganda unserer Medien doch zu bekannt wurde, war es politisch wohl nicht mehr möglich, dies weiterhin vollkommen zu ignorieren.

Und so wurde nun nach über einem Jahr Corona erstmals „erlaubt“ die seit langer Zeit funktionierenden Öffnungsmodelle von Tübingen und Schweden für ganz Wenige unter sturer Einhaltung regulatorischer und technisch noch gar nicht in funktionierende Form verfügbarer Maßnahmen „an-testen“ zu dürfen:
[5] 6. Im Rahmen von zeitlich befristeten Modellprojekten können die Länder in einigen ausgewählten Regionen, mit strengen Schutzmaßnahmen und einem Testkonzept einzelne Bereiche des öffentlichen Lebens öffnen, um die Umsetzbarkeit von Öffnungsschritten unter Nutzung eines konsequenten Testregimes zu untersuchen.
Zentrale Bedingungen dabei sind lückenlose negative Testergebnisse als Zugangskriterium, IT-gestützte Prozesse zur Kontaktverfolgung und ggf. auch zum Testnachweis, räumliche Abgrenzbarkeit auf der kommunalen Ebene, eine enge Rückkopplung an den Öffentlichen Gesundheitsdienst und klare Abbruchkriterien im Misserfolgsfalle.

Nehme man einmal an, das immerwährende Problem nicht funktionierender „IT-gestützter Prozesse“ in öffentlicher Verantwortung würde von unserer zwischenzeitlich von der medialen Bildfläche gänzlich verschwundenen Ministerin für Digitalisierung gelöst werden, stellt sich die Frage, ob schon jemand bedacht hat, wie verblüffend (katastrophal) Schnelltest derzeit funktionieren. Dazu ein aktuelles Beispiel:
Im beschaulichen, fränkischen Städtchen Altdorf wurden 180 Schüler eines Gymnasiums von Fachpersonen (Leitung: BRK, Testpersonal: Mehrere Ärzte, Krankenschwestern und ein Rettungssanitäter) einem Corona-Schnelltest unterzogen [6]. Der Schnelltest meldete davon 29 Schüler als Corona-Positiv. Im Schnelltest positiv gemeldete müssen dann einem weiteren PCR-Test unterzogen werden. Danach blieb nur noch ein!!! positives Ergebnis übrig.
Wenn solche „Testqualitäten“ massenhaft eingesetzt werden, ist das völlige Chaos vorhersehbar.

Beschlossene Maßnahmen und vergleichende Datenbasis

Als Bürger versucht man manchmal, Entscheidungswege unserer „Intelligenz“ Politiker nachzuvollziehen. Obwohl das (nicht nur) bezüglich „Corona“ dem Autor seit Langem nicht mehr gelingt, anbei wieder recherchierte und teils aufbereitete Daten, anhand derer jeder Leser entscheiden mag ob er die Maßnahmen und Verlautbarungen unserer Politiker und deren Hofberaterschranzen für sinnvoll und notwendig hält.

Eine Übersicht lieferte Achgut: [1] Achgut 22.03.2021: Lockdown für die Panikmacher! Oder: Lest doch bitte die RKI-Zahlen
Darin wird der RKI-Coronabericht [7] 2021-03-18-de.pdf (rki.de) rezensiert.
Denn dieser Bericht widerlegt in vielen Details die alarmistischen Aussagen des gleichen Instituts. Das möge aber bitte jeder selbst nachlesen. Anbei nur ein paar „Auszugsplitter“:

Bild 2 RKI-Bericht Auszug [7]
Bild 3 RKI-Bericht Auszug [7]
Anbei wieder lokale Beispiele, weil solche die Diskrepanz zwischen behördlichen Maßnahmen und der (nicht erkennbaren) Gefährdung konkreter aufzeigen.

Nürnberg und Fürth

Die direkt nebeneinander liegenden Städte Nürnberg und Fürth haben eine 7-Tage-Inzidenz von deutlich über 100 und deshalb die vorgeschriebenen, vom Landesvater Söder verordneten Einschränkungen unerbittlich umgesetzt.

Nur wenn zum Beispiel durch (den Behörden bekannte) Meldeverzögerungen die Inzidenz doch mal kurzzeitig unter 100 rutscht, wagt es eine der Städte, wieder – teilweise nur für einen Tag – von den verordneten Restriktionen abzuweichen, da es „die Zahl“ erlaubt. Eine perfekte Demonstration, dass die Verantwortlichen in den Behörden jegliches „Wissen“ (so solches vorhanden sein sollte) vergessen und streng nach Zahlenwertvorgaben handeln.

Ansonsten wagen es beide „Städte“ selbst bei der kleinsten Inzidenz-Abweichung partout nicht, von den verordneten Vorgaben abzuweichen, denn eigenständiges Denken und Mut zu entscheiden ist den dafür Zuständigen und den Stadtspitzen vollkommen fremd. Weder die Bayerische SPD, noch die CSU erkennen, wie sinnvoll es sein könnte, für „spätere Zeiten“ einen Märtyrer – wie es die GRÜNEN (notgedrungen) mit (dem renitenten) B. Palmer „machen“ – walten zu lassen, zur Belegung, wie mutig und richtig (jemand von der Partei) schon gehandelt hat, als sich noch alle vehement dagegen stemmten …

Dabei ist weder in Nürnberg, noch im kleinen Städtchen Fürth auch nur entfernt eine Corona-Gefährdung der Bevölkerung erkennbar.
Um das zu „sehen“, muss man sich allerdings die Daten des RKI laden und die Werte mühsam „zusammenfieseln“, um sie grafisch darstellen zu können:

Nürnberg Datenabruf: 21.03.2021; Datenstand: 20.03.2021
Fürth Datenabruf: 22.03.2021; Datenstand: 21.03.2021
Zuerst der überall gemeldete, „exponentielle Anstieg“ der Fallzahlen. Beide Städte verweigern sich vehement, dabei „mitzumachen“. Man gewinnt den Eindruck, dass „exponentiell“ inzwischen als reines Modewort verwendet wird, um „mathematische Kompetenz“ auszuweisen:

Bild 4 Städte Fürth und Nürnberg, Tageswerte Corona-Meldefälle seit dem 01.01.2021. Grafik vom Autor erstellt. Datenquelle: RKI-Coronadaten

Ein Vergleich der Fallzahlen mit den Corona-Todesfällen zeigt immer neu, dass die Inzidenz keinerlei Aussage über eine Gefährlichkeit liefert (mögen es die unfehlbare Merkel und der heilige Söder auch immer neu behaupten) – und, dass eine solche in beiden Städten auch weiterhin nicht entfernt besteht:

Bild 5 Städte Fürth und Nürnberg, Tageswerte Corona-Todesfälle seit dem 01.01.2021. Grafik vom Autor erstellt. Datenquelle: RKI-Coronadaten

Zum Schluss zeigt ein Vergleich der altersbedingten Coronamortalität, dass alleine schon der Schutz der Hoch-Risikogruppe ab ca. 75+ zur Eindämmung der restlichen Gefährdung ausreicht, weil für die Altersgruppen darunter die Mortalitätsgefahr gering bis sehr gering ist.
Auszug aus [8]: Bisher sind in ganz Deutschland an oder mit Corona gestorben:
10 Kinder und Jugendliche unter 20 Jahren
60 Menschen unter 30 Jahren
193 Menschen unter 40 Jahren
591 Menschen unter 50 Jahren
2.502 Menschen unter 60 sind bisher an oder mit Corona gestorben
8.181 Menschen unter 70 sind bisher an oder mit Corona gestorben
65.264 Menschen, die älter sind als siebzig Jahre, sind bisher an oder mit Corona gestorben

Insgesamt sind über grob ein „Coronajahr“ bisher 73.445 Menschen in Deutschland an oder die Meisten eher mit Corona verstorben. Im Jahr 2018 sind „ohne“ Corona 953.295 Personen verstorben. Der Anteil an- oder vor allem mit Corona-Verstorbenen beträgt also ungefähr 7,7 … 10 %.

Grafik Nürnberg-Fürth:

Bild 6 Städte Fürth und Nürnberg, Tageswerte Corona-Todesfälle unter und über dem Alter 80+ seit dem 01.01.2021. Grafik vom Autor erstellt. Datenquelle: RKI-Coronadaten

Herr Dr. Wagner vom Klinikum Fürth sagte dazu (Zitierung aus einer Lokalausgabe vom 24.03.): „ … ich könnte mir schon vorstellen, dass es weniger Tote gibt ...

Wird die Hysterie so weitergeführt (der Klimawandel ist ein Beispiel, dass es passiert, wenn der „Nutzen“ für Günstlinge eine Kippschwelle überschreitet), dann wird ab jetzt jede Grippewelle zum Problem „Jahrhundert + x“ und eine Goldgrube für Pharmakonzerne.

Wöchentlicher „Coronabericht“ des statistischen Instituts der Uni München

Danach hat es weder im Jahr 2020 eine Übersterblichkeit gegeben, noch besteht derzeit eine. Auch eine Überlastung der Intensivstationen ist nicht erkennbar.

Im aktuellen Bericht „CODAG Bericht Nr. 11 19.03.2021“ steht: … In allen drei Graphiken ist ein Rückgang der tödlichen COVID-19 Fälle bis einschließlich Kalenderwoche 9 zu erkennen. Für ganz Deutschland sind nach unseren Berechnungen weniger als 200 tödliche Todesfälle im Tagesschnitt zu erwarten. Dies ist ca. 75% weniger als noch um den Jahreswechsel. Für Kalenderwoche 10 setzt sich der abfallende Trend der tödlichen COVID-19 Fälle sowohl bei den unter 80-Jährigen als auch bei den über 80-Jährigen nicht fort. Allerdings ist zu beachten, dass die Schätzung mit statistischer Unsicherheit belegt ist, was durch den grauen Hintergrund in Form eines 95% Konfidenzintervall visualisiert ist …

Bild 7 Bundesländer, tägliche Neuaufnahmen ICU/100 Tsd. Einwohner. Bild aus CODAG Bericht Nr. 11 19.03.2021

Bild 8 Bayern Mortalitätsrate. Bild aus CODAG Bericht Nr. 11 19.03.2021

Bild 9 Deutschland, tägliche, tödliche COVID-19 Infektionen. Bild aus CODAG Bericht Nr. 11 19.03.2021

Trotzdem wurde ein noch schlimmererer Lockdown beschlossen.

Wie sehen es unsere Medien

Unsere Medien ereifern sich über die gerade beschlossenen Maßnahmen. Allerdings nicht, weil sie diese für übertrieben halten, sondern, weil sie diese „Härte“ schon längst gesehen haben wollten.

WELT, 23.03.2021: „Deutschlands Regierung kapituliert vor den Grundzügen der Vernunft“
„… Das eigentliche Versagen ist nicht, was gestern beschlossen wurde. Das eigentliche Versagen ist, dass die deutsche Politik gar keine Alternativen mehr zum Shutdown hatte. Weil in den vergangenen Monaten so viel versemmelt wurde, dass Lockerungen in der Tat nun keine Option mehr waren …
Dabei wären die anhaltenden Einschränkungen der Freiheitsrechte vermeidbar gewesen, hätte die Politik in der Vergangenheit konsequenter und entschlossener gehandelt. Das gilt für beide Disziplinen der Pandemiebekämpfung. Für das Shutdown-Management. Und für die Beschaffung von Hilfsmitteln und deren systematischen Einsatz …

So steht die Bundesregierung im März 2021 ähnlich hilflos da wie im März 2020. Damals war das verständlich, heute ist es unverzeihlich.“
Die „Welt“ zitiert hier den „Spiegel“. Nur fragt man sich: Haben die Redaktionen dieser Medien überhaupt schon einmal die wirklichen Zahlen angesehen? Wohl kaum.

Aber es ging wohl um etwas anderes. Die unfehlbare Merkel muss weiterhin gelobt und unfehlbar bleiben:
WELT, 23.03.2021: (Hier zitiert sie aus der taz) … „Dass sich die Länderchef:innen beim letzten Treffen Anfang März mit ihrer Linie gegen Merkel durchgesetzt haben, nicht mehr die Unterschreitung der Schwelle von 35 Neuinfektionen pro 100.000 Einwohner:innen binnen sieben Tagen als Kriterium für mögliche Lockerungen zu definieren, rächt sich inzwischen.
Als ob das nicht reicht, werden schon die nächsten Horrorszenarien vermittelt. Wie beim Klimawandel nun als Simulation:
Tagesspiegel, 22.03.2021: „Notbremse wird daran nichts ändern“: Modellierung zeigt dramatische, dritte Corona-Welle in Deutschland
Berliner Forscher warnen in einer Studie für den Bund-Länder-Gipfel vor stark steigenden Inzidenzen. Sie empfehlen, auf jegliche Kontakte in Räumen zu verzichten.
Die dritte Welle der Covid-19-Pandemie könnte zu deutlich höheren Inzidenzen führen als die zweite. Das ist das Ergebnis einer neuen Modellierung vom Fachgebiet Verkehrssystemplanung und Verkehrstelematik von
Kai Nagel an der TU Berlin.

Daran wird auch eine potenzielle Notbremse, wie sie eventuell am 22. März 2021 in der Bund-Länder-Konferenz entschieden wird, nichts mehr ändern“, schreiben die Forschenden in einer Untersuchung, die am Montag auf dem Corona-Gipfel von Bund und Ländern vorgestellt werden sollte.

Berater“

„Verlassen“ wir einmal die sattsam bekannten Hofberaterschranzen, welche ausschließlich das liefern – inzwischen sogar auf Bestellung – was die Politikkasperriege in Berlin hören möchte. Auch lokale Fachpersonen scheuen sich nicht, wirklich Sonderbares zu publizieren.

Der Pandemiebeauftragte des Fürther Klinikums „geht“ nun auch ins Fernsehen, um seine Ansicht über erforderliche Coronamaßnahmen in die Breite zu bringen (und vielleicht, um irgendwo zu zeigen, dass man auf ihn zählen kann):

Bild 10 Link zum Video

In der lokalen Zeitung führte es Herr Dr. M. Wagner aus und erklärte dazu in einem Artikel: „Wieder harsche Politik-Schelte aus dem Klinikum“, dass er von der Ministerpräsidentenkonferenz bezüglich der Coronaeinschränkungen für die Bevölkerung ein „agileres“ – also härteres Vorgehen – fordert.

Begründet wurde dies mit (Zitierungen aus dem Zeitungsartikel):
… das Aufschieben eines erneuten Lockdowns … dieser ist … aufgrund des exponentiellen Anstiegs der Neuinfektionen … aus medizinischer und epidemiologischer Sicht unausweichlich geworden
… Zum anderen steige die Zahl der Coronatoten … „dieses Mal werden es Jüngere sein“ …
… Bitte passen Sie ihre Entscheidungsprozesse und Strategien dem Virus und den damit verbundenen Herausforderungen an. wir können es uns einfach nicht mehr leisten zu warten …

Dabei hatte dieser Mediziner in der lokalen Tageszeitung am 05.03. noch stolz berichtet, wie erfolgreich man in seinem Klinikum Covid-Infizierte inzwischen behandeln kann:
Herr Dr. Wagner: „Inzwischen gebe es gute Therapiemöglichkeiten bei einer Covid-19-Erkrankung, zum Beispiel mit Antikörpern … sechs Patienten hatten sich mit dem Virus infiziert … kein Einziger ist danach an Covid erkrankt … “.

Wie in solch extremen Fällen von Diskrepanz zwischen Aussagen und Daten (hier den lokalen von Fürth und Nürnberg) „üblich“, fragte der Autor bei dieser Fachperson nach Belegen an:
Corona-Daten Fürth und Nürnberg
Die aktuellen Daten des RKI für Fürth und Nürnberg (sowie alle weiter gelisteten), von mir grafisch aufbereitet, zeigen weder:
einen „exponentiellen Anstieg“ der Fallzahlen,
noch eine erhöhte Sterblichkeit an Corona,
noch eine Erhöhung der Sterblichkeit jüngerer Jahrgänge an Corona
erkennbar ist dazu, dass die Inzidenz keinerlei Aussage zur wirklichen Gefährdung liefert
Daraus würde ich ableiten, dass mit gesichertem Schutz der einzig wirklich gefährdeten Personen über 75 eine „Freigabe“ des öffentlichen- und beruflichen Lebens problemlos durchführbar und damit dringend angebracht wäre …

Eine Antwort wird nicht erwartet. Sollte sie doch noch kommen, wird sie mindestens im Kommentarteil nachgetragen.

Die Intensivstationen füllen sich wieder“

Aktuell häufen sich Meldungen von Kliniken, dass ihre Intensivstationen durch die „Dritte Welle“ – oder laut Söder „neue Pandemie“ überlastet sind, beziehungsweise es werden könnten.

So meldete eine Lokalzeitung am 24.03., dass die Zahl der Corona-Intensivpatienten in Bayern zwar von 912 auf 428 reduzierte, nun aber wieder auf 519 erhöht hat.
Das Klinikum Fürth meldete, dass es zwar einst einen Höchststand von 68 Covid-Patienten hatte, heute aber schon wieder 25. Ein Problem sei, dass teils bei nur einem Intensivpatienten mehr, eine ganze Intensiveinheit mit 5 Betten für Coronapatienten „umgewidmet“ werden muss.
In den Krankenhäusern des Rettungsdienstbereiches Nürnberg liegt die Zahl der Covid-19-Patienten bei etwa einem Drittel der Behandlungszeiten während der zweiten Welle und bei den Intensivpatienten bei ca. der Hälfte.
Beim Intensivregister sieht man, dass in Bayern die Anzahl der belegten Notfallbetten seit dem 1. April letzten Jahres gleich geblieben ist (da Corona im Sommer eine längere Pause machte, ist es wohl die Belegung mit allen Fällen), und die Notfallreserve zwischenzeitlich (wohl aus Kostengründen?) erheblich abgebaut wurde.

Bild 11 Angaben des DIVI für Bayern

Vergleicht man mit den Angaben der Helios-Klinikgruppe, wird man den Verdacht nicht los, dass bei den Darstellungen auch Geldthemen eine nicht zu unterschätzende Rolle spielen.

Die Helios-Klinikgruppe gibt wöchentlich Auslastungsdaten zu Corona heraus.
Helios Kliniken Information zu aktuellen COVID-19-Fallzahlen Übersicht Sonntag, 21. März 2021:

Bild 12 Helios Kliniken, Daten ab dem 27.10.2021. Datenstand: 21. März 2021, COVID-19-Daten

Bild 13 Helios Kliniken, Daten ab dem 27.10.2021. Datenstand: 21. März 2021, COVID-19-Daten

Wie beim Klimawandel: Sicher ist nur, dass nichts sicher ist

Nach dem Absenden dieses Artikels kam die Meldung: dpa – Mittwoch, 24. März 2021: Kreise: Osterruhe soll gekippt werden – Kanzlerin Angela Merkel (CDU) hat nach massiver Kritik entschieden, den Bund-Länder-Entscheid zur sogenannten Osterruhe zu stoppen.

Insofern interessant, weil genau solches Vorgehen bei „hart aber fair“ massivst angeprangert wurde. Aber nach über einem Jahr „Corona“ wundert einen wirklich nichts mehr …

Quellen

[1] Achgut 22.03.2021: Lockdown für die Panikmacher! Oder: Lest doch bitte die RKI-Zahlen

[2] Tichys Einblick, 23.03.2021: Karwoche mit Merkel – Lockdown total: Lebensmittelgeschäfte zu, kein Urlaub, keine Gottesdienste, „Ansammlungsverbot“

[3] dpa 23.03.2021: Söder: Die Lage ist ernst und wird sehr viel ernster werden

[4] EIKE 11. März 2021: Wartet Nürnberg nun auf Corona-Auferstehungen…

[5] Videokonferenz der Bundeskanzlerin mit den Regierungschefinnen und Regierungschefs der Länder am 22. März 2021 Beschluss

[6] Lokalausgabe der Nordbayerischen Nachrichten vom 17.03.2021: „Schnelltests werfen Fragen auf“

[7] RKI-Coronabericht 2021-03-18-de.pdf (rki.de)

[8] Achgut, 16. März 2021: Ein Jahr Corona – Die aktuellen Zahlen

[9] Tichys Einblick 23. März 2021: Verzweifeltes Regierungs-Retten bei Hart aber Fair : „Wir hatten nie einen Lockdown“




Kein Schnee mehr? Finnland glaubt, dass der Winter­schnee in diesem Sommer nicht vollständig abtaut

Im Gebiet der finnischen Hauptstadt könnten die zusammen gekehrten Schneehaufen im Sommer nicht vollständig abtauen

DIE HAUPTSTADT Finnlands hat in diesem Winter so viel Schnee erhalten, dass die meterhohen Haufen, die zu ausgewiesenen Schneedeponien geschleppt werden, im Laufe des Sommers möglicherweise nicht schmelzen, berichtet Helsingin Sanomat.

In Uusimaa zum Beispiel war die Schneemenge laut Foreca im Januar 1,7 Mal höher als im letzten Jahr.

Helsingin Sanomat schrieb am Freitag, dass die Schneehaufen auf der Mülldeponie in Herttoniemi, östlich von Helsinki, eine Höhe von fast 20 Metern erreichen. In Maununneva, einem nordwestlichen Stadtteil, haben Lastwagen etwa 16.000 Ladungen Schnee auf der Müllkippe abgeladen, wie Tero Koppinen, Produktionsleiter bei Helsinki City Construction Services (Stara), mitteilte.
Der von den Straßen geräumte Schnee bildet auch auf der einzigen Schneedeponie in Espoo, in Vanttila, eine eine riesige Formation, die von den Einheimischen den Spitznamen „Alpen“ verliehen bekam.

Mehr dazu hier [auf Englisch].

Die Fins scheinen dies hauptsächlich als Scherz zu betrachten, vielleicht als eine Möglichkeit, sich an warmen Sommertagen abzukühlen. Und höchstwahrscheinlich wird dieses Ereignis keine langfristigen Folgen haben.

Aber die Geschichte lehrt, dass Eiszeiten sehr abrupt und ohne Vorwarnung auftreten können.

Vor 12.800 Jahren fror die Welt abrupt ein. Die Temperaturen fielen auf eiszeitliche Bedingungen zurück und blieben über 1000 Jahre lang auf dem niedrigen Niveau.

Im Jahr 2009 behauptete eine Gruppe von Wissenschaftlern, die hochauflösende Sedimentproben aus dem Lough Monreach, einem alten See in Irland, untersuchten, dass die Rückkehr zu eiszeitlichen Bedingungen in einem Zeitraum von weniger als einem Jahr stattgefunden haben könnte. In den Worten des leitenden Forschers: „Das wäre so, als würde man das heutige Irland nach Spitzbergen verlegen und in sehr kurzer Zeit eisige Bedingungen schaffen“.

Es gibt nichts Ungewöhnliches an Eiszeiten in unserer aktuellen geologischen Epoche. Es ist die Gnadenfrist der kalten Temperaturen, die ungewöhnlich ist, nicht die Vergletscherung. Die meiste Zeit der letzten 115.000 Jahre war die Welt in einer strengen Eiszeit eingeschlossen, mit riesigen Eisschilden, die Europa und Kanada bedeckten. Das Holozän, unsere derzeitige kurze Atempause von der extremen Vergletscherung, erstreckt sich nur über die letzten 12.000 Jahre.

Während die Klimaalarmisten ihre wertlosen Computermodelle vorführen und schreien, dass die Welt sich überhitzt, wissen Paläoklimatologen, dass die Welt weit davon entfernt ist, ungewöhnlich warm zu sein, und dass sie sich derzeit im Griff der Quartären Vergletscherung befindet, einer Periode ungewöhnlicher Kälte, die bisher 2,6 Millionen Jahre gedauert hat. Was wir gerade erleben, ist das Holozän, eine kurze Atempause von den riesigen Eisschilden, die einen Großteil des Quartärs bestimmen.

Es ist unwahrscheinlich, dass eine Rückkehr zu extremer Kälte zu unseren Lebzeiten stattfindet. Bemerkenswerte Ereignisse von geologischem Ausmaß geschehen selten in einem menschlichen Zeitrahmen. Aber eine Rückkehr zur Vergletscherung ist irgendwann in der Zukunft unausweichlich. Hoffen wir, dass unsere Nachkommen die technologischen und ingenieurtechnischen Fähigkeiten beibehalten, die sie brauchen werden, um das Eis zurückzuhalten, wenn das Eis schließlich zurückkehrt, um unsere schöne Heimat herauszufordern.

Link: https://wattsupwiththat.com/2021/03/21/global-warming-finland-thinks-their-winter-snow-might-not-melt-this-summer/

Übersetzt von Chris Frey EIKE

 




Die widersprüch­liche Politik der Grünen zur Begren­zung der CO2-Emissionen

[Hervorhebung im Original]

Die Verbrennung von Biomasse erhöht den momentanen Ausstoß von CO2-Emissionen massiv .

● Diese sofortigen CO2-Emissionen aus der Verbrennung von Biomasse heben alle potenziellen CO2-Emissionseinsparungen durch den Einsatz wetterabhängiger erneuerbarer Erzeugungstechnologien auf.

Sie ist in hohem Maße zerstörerisch für natürliche Umgebungen und Lebensräume, wo immer sie im notwendigen industriellen Maßstab abgeschöpft wird.

Deutschland und Großbritannien sind führend in der Entwicklung von Erneuerbaren Energien in Europa. Dieser Beitrag verwendet stündliche Erzeugungsdatensätze für 2019, die das Ausmaß verschiedener Erzeugungstechnologien über das Jahr hinweg zeigen.  Er kombiniert diese Stromerzeugungsdaten mit Daten zu den CO2-Emissionen verschiedener fossiler Brennstoffe, um das Ausmaß der CO2-Emissionen im Jahr 2019 zu zeigen.

Er stellt die Wirksamkeit der Verwendung von Biomasse zur Reduzierung der CO2-Emissionen überhaupt in Frage, weil:

In beiden Kontexten hebt das Ausmaß der CO2-Emissionen aus Biomasse jede potenzielle CO2-Emissionseinsparung durch die Nutzung wetterabhängiger erneuerbarer Energien auf.

Die Nutzung von Biomasse zur Stromerzeugung in Großbritannien und Deutschland hat die CO2-Emissionen erhöht und den vermeintlich negativen Effekt auf das Klima verschlimmert.

[Hervorhebung im Original]

Die gesamte grüne Politik, die Mehrausgaben und die staatlichen Subventionen für die Verbrennung von Biomasse und wetterabhängigen erneuerbaren Energien in Großbritannien und Deutschland haben also nichts anderes bewirkt, als die globalen CO2-Emissionen insgesamt zu erhöhen.

Vergleich der CO2-Emissionen bei der Verbrennung fossiler Treibstoffe zur Stromerzeugung:

Die Eigenschaften von fossilen Brennstoffen und Biomasse, die sich aus ihrer molekularen Struktur, ihren Produktionsprozessen und ihrer Brennbarkeit ergeben, bestimmen ihre CO2-Emissionseigenschaften wie folgt:

die geringsten CO2-Emissionen für den erzeugten Strom entstehen bei der Verbrennung von Erdgas, das sinnvollerweise durch Fracking gewonnen werden kann: Dies war der Ursprung der massiven CO2-Emissions-Reduktionen, die in den USA erreicht wurden.

alle Formen von Kohle produzieren im Vergleich zu Erdgas etwa doppelt so viel CO2 für den erzeugten Strom.

Die Abholzung von Waldgebieten, die anschließende Verwendung eines Teils des Holzes selbst oder die Verwendung fossiler Brennstoffe für die Trocknung, die Verarbeitung und den Transport des Holzes zur Verbrennung in abgelegenen Kraftwerken führt jedoch zu etwa 3,6-mal so hohen CO2-Emissionen wie Erdgas für die gleiche Stromleistung.

Realistsische Vetrfahren zur Reduktion von CO2-Emissionen

Die Fortschritte der Dekarbonisierung, die seit 1990 weltweit gemacht wurden, sind unten als CO2-Emissionen pro Kopf der Bevölkerung ausgedrückt zu sehen.

Aus der obigen Grafik wird deutlich, dass es nur begrenzte Möglichkeiten gibt, die CO2-Emissionen aus der Stromerzeugung effektiv zu reduzieren:

1. die massive Nutzung der Kernenergie wie in Frankreich ließ die CO2-Emissionen pro Kopf jetzt auf ein Niveau unter dem globalen Durchschnitt sinken, nachdem sich Frankreich seit über 50 Jahren der Kernenergie verschrieben hatte. Die Franzosen haben jetzt den niedrigsten CO2-Emissionswert pro Kopf aller entwickelten Nationen. Sie beweisen damit die Wirksamkeit der Nutzung der Kernenergie zur Begrenzung der CO2-Emissionen. Die Kernenergie hat seit 1990 zu einer CO2-Reduktion von ~200 Mio. Tonnen pro Jahr beigetragen (~-28%). Frankreich produziert nun weniger als 1% der globalen CO2-Emissionen, gegenüber ~1,5% im Jahr 1990: dies entspricht einer Reduzierung der globalen CO2-Emissionen im Jahr 2019 um ~0,6%.

2. der Übergang von der Kohle- zur Gasverbrennung für die Stromerzeugung und eine Fracking-Revolution, wie in den USA, wo die jährlichen Emissionen seit 2005 um ~1.600 Millionen Tonnen pro Jahr (~-20%) gesunken sind. Die USA produzieren nun weniger als 15 % der globalen CO2-Emissionen, gegenüber ~22 % im Jahr 2000: Dies entspricht einer Reduzierung der globalen CO2-Emissionen 2019 um ~4,7 %.

3. In Großbritannien hat die frühere Politik der 1990er Jahre, „Dash for Gas“, im Wesentlichen Kohle für die Stromerzeugung durch Erdgas ersetzt. Dies hat zu einer CO2-Reduktion von ~160 Millionen Tonnen pro Jahr seit 1995 beigetragen (~-30%). Großbritannien ist für ~1,1 % der globalen CO2-Emissionen verantwortlich: Dies entspricht einer Reduzierung der globalen CO2-Emissionen für 2019 um ~0,47 %.

Unlogischerweise werden diese effektiven Mechanismen zur Reduktion der CO2-Emissionen, so diese denn erforderlich wäre, vom „grünen Denken“ abgelehnt. Die Verwendung von wetterabhängigen erneuerbaren Energien (Wind und Sonne) mag keine direkten Brennstoffkosten haben, aber sie sind in hohem Maße von der Verwendung fossiler Brennstoffe für ihre Herstellung, Installation und Wartung abhängig. Auch wenn ihr „Brennstoff“ nominell kostenlos ist, sind wetterabhängige erneuerbare Energien nicht in der Lage, echte CO2-Neutralität zu erreichen.

Der Kontext für westliche CO2-Reduktionspolitik

Die Stromerzeugung ist für etwa 1/4 der CO2-Emissionen einer Industrienation verantwortlich, die restlichen 3/4 werden durch Raumheizung, Verkehr und Industrie emittiert. Die Bekämpfung der für die Stromerzeugung verwendeten fossilen Brennstoffe betrifft also nur einen Teil des vermeintlichen CO2-Emissionsproblems. Der Ersatz dieser anderen Quellen von CO2-Emissionen wird sich als wesentlich problematischer und kostspieliger erweisen.

Es sollte beachtet werden, dass die EU(28) als Ganzes im Jahr 2019 weniger als 10 % der globalen CO2-Belastung emittierte: Von dieser CO2-Belastung machten die Emissionen Großbritanniens ~1,1% des globalen CO2 aus und Deutschlands CO2-Emissionen beliefen sich auf etwa 2%. Welche Maßnahmen auch immer von den westlichen Nationen ergriffen werden – sie können immer nur einen marginalen Teil der globalen „CO2-Emissionslast“ beeinflussen, die vom Denken der Klimaaktivisten als so schädlich angesehen wird.

Daher kann jede Maßnahme in der westlichen Welt, in der es eine aggressive Bewegung zur Reduzierung der CO2-Emissionen gibt, nur selbstschädigend sein angesichts des unvermeidlichen Anstiegs der Nachfrage seitens der Entwicklungsländer, die einen verbesserten Zugang zu verlässlicher elektrischer Energie benötigen, da sie das Wohlergehen ihrer Bevölkerungen entwickeln.

Quantifizierung der Vergeblichkeit: eine Schätzung der zukünftigen CO2-Emissionen für 2020

Die wichtigsten Maßnahmen westlicher Regierungen zur Begrenzung der CO2-Emissionen bestanden darin, einen Wechsel der zur Stromerzeugung verwendeten Brennstoffe vorzuschreiben. Das grüne Denken verlangt die Substitution von fossilen Brennstoffen und deren vollständigen Ersatz durch nominell „CO2-emissionsfreie“ Brennstoffe wie Wind- und Solarenergie sowie Biomasse.

Diese Maßnahmen zur Substitution von Stromquellen haben der Zuverlässigkeit der Stromnetze in Deutschland, Großbritannien, Südaustralien, Texas und Kalifornien bereits nachweislich massiv geschädigt, und sie machen die Stromversorgung überall dort zunehmend anfällig, wo diese Maßnahmen eingeführt werden. Eine windarme Periode in Großbritannien und Europa im November 2020 hätte beinahe den Ausfall des britischen Stromnetzes verursacht; eine windstille, kalte Periode im Februar dieses Jahres in Texas machte das texanische Stromnetz für mehr als eine Woche funktionsunfähig mit mehreren Millionen Haushalten ohne Strom und wahrscheinlichen Kosten und Schäden, die die eines großen Hurrikans übersteigen. Dieser Schaden wurde von der Politik selbst verursacht, nicht vom Klima.

[Hervorhebung vom Übersetzer]

Die Politik der Förderung von Biomasse

Energiequellen aus Biomasse werden von der Politik als nachhaltig und CO2-frei bezeichnet, nicht aber von der Vernunft. Deren Rationalität besteht darin, dass verbranntes Pflanzenmaterial durchaus nachwachsen kann und das bei der Verbrennung entstehende CO2 wieder aufnimmt.

● Diese Politik ist im Wesentlichen selbstzerstörerisch bei dem Ziel, die CO2-Emissionen zu begrenzen, um „das Klima zu retten“:

– Obwohl sie von der EU- und UK-Politik als „Kohlenstoff-neutral“ deklariert wird, ist sie in ihrer Wirkung bei weitem nicht kohlenstoffneutral: für die gleiche erzeugte Energie setzt die Verbrennung von Biomasse viel mehr CO2 frei als andere fossile Brennstoffe (Kohle, Braunkohle und vor allem Erdgas).

– Sie ist massiv zerstörerisch für die Wälder, egal wo das Holz geerntet wird.  In Europa reicht der Holzvorrat nicht einmal aus, um die Stromerzeugung teilweise aufrechtzuerhalten.

Eine solche Politik…

● benötigt bis zu 100 Jahre, um den zerstörten Lebensraum der einheimischen Waldtiere und die unberührte Umwelt vollständig wiederherzustellen und somit das gesamte CO2 zu absorbieren, das bei der Verbrennung der Biomasse in Kraftwerken sofort freigesetzt wird.

● erfordert erhebliche Wärmeenergie zum Trocknen und Verarbeiten des geernteten Holzmaterials, um es in das pelletierte, transportable Produkt umzuwandeln.

● erfordert einen erheblichen Einsatz fossiler Brennstoffe für den Transport über lange Strecken.

● hat beim Drax-Kraftwerk in UK, wo die britische Biomasse verbrannt wird, bereits eine erhebliche, subventionierte und kostspielige Umrüstung der Technologien für Erzeugung und die lokale Versorgung erfordert.

● diese Faktoren in Kombination zu einer zusätzlichen, sofortigen CO2-Freisetzung in die Atmosphäre führen, die etwa 3,6 Mal so hoch ist wie bei der Verbrennung von Erdgas für dieselbe Leistung.

The excess costs of Weather Dependent Renewable power generation in the EU(28): 2020

Review of Biomass Calculations in Achieving Net Zero Emissions Scenario.

Bildinschrift: Die derzeitige Praxis, Bäume als erneuerbare und kohlenstoffneutrale Option zu nutzen, macht in Theorie und Praxis einfach keinen Sinn. Wenn wir unsere Kohlenstoffemissionen reduzieren und trotzdem eine unterbrechungsfreie Stromversorgung haben wollen, könnten wir sofort damit beginnen, alle bestehenden, in Betrieb befindlichen Kohlekraftwerke auf Erdgas umzustellen, und das Gleiche mit allen alten Kohlekraftwerken tun, die auf Holzpellets umgestellt werden

Drax Destroying Louisiana Forests [Das Drax-Kraftwerk in UK zerstört Wälder in Louisiana]

Diese Vergleichswerte werden verwendet, um die Folgen der CO2-Emissionen zu ermitteln, die entstehen, wenn man versucht, die Nutzung fossiler Brennstoffe im Gegensatz zu geernteter Biomasse zu vermeiden. Der Fortschritt der Dekarbonisierung seit 1990, der weltweit gemacht wurde, kann unten als CO2-Emissionen pro Kopf der Bevölkerung ausgedrückt werden.

Abschätzung der Effektivität der Politik zur CO2-Reduktion

Der Übergang von Kohle/Braunkohle/Biomasse zu Erdgas würde sowohl in Großbritannien als auch in Deutschland zu erheblichen CO2-Einsparungen führen. Die USA haben ihre CO2-Emissionen seit dem Jahr 2000 bereits erheblich reduziert, indem sie unter dem Einfluss der Marktkräfte von Kohle auf Fracking-Erdgas zur Stromerzeugung umgestiegen sind (um ~20 %).

In der britischen Regierungspolitik jedoch trägt die Umstellung auf importierte Biomasse anstelle von Kohle, die hauptsächlich am Drax-Standort ~7 % der Stromerzeugung ausmacht, den größten Teil der überschüssigen CO2-Emissionen bei, nämlich ~29 Mio. Tonnen pro Jahr für nur ~7 % der britischen Stromerzeugung. Auf der anderen Seite liegt das absolute Maximum an potenzieller CO2-Reduktion durch den Einsatz von wetterabhängigen erneuerbaren Energien (Wind und Sonne) bei etwa 20 Millionen Tonnen pro Jahr (ohne Berücksichtigung des CO2-Ausstoßes, der für ihre Herstellung, Installation und Wartung notwendig ist).

Somit macht die Politik zur Verwendung von importierter Biomasse in Großbritannien alle potenziellen CO2-Emissionseinsparungen durch die Verwendung von wetterabhängigen erneuerbaren Energien (Wind und Solar) mehr als zunichte und erhöht darüber hinaus direkt die angeblich schädlichen CO2-Emissionen.

[Hervorhebung im Original]

Die folgende Tabelle fasst die groben Einschätzungen der Effektivität von Maßnahmen zur Reduzierung der CO2-Emissionen durch die beiden Hauptakteure in Europa, Großbritannien und Deutschland, zusammen. Sie schätzt, dass die britische Stromindustrie aufgrund des hohen Anteils von Erdgasfeuerungen mit geringen CO2-Emissionen im Gegensatz zu anderen fossilen Brennstoffen nur 20 % der CO2-Emissionen verursacht, während Deutschland mit einem geschätzten Normalwert von 25 % der CO2-Emissionen für seine Stromindustrie bewertet wird.

Die Studie schätzt erstens, dass durch den vollständigen Übergang von anderen fossilen Brennstoffen zu Erdgas die CO2-Emissionen vermieden werden könnten:

UK: minus 23,2 Millionen Tonnen pro Jahr

Deutschland: minus 72,9 Millionen Tonnen pro Jahr

Folglich negiert die Politik der Nutzung von Biomasse mit ihrer übermäßigen CO2-Belastung jegliche CO2-Reduzierung, die durch die Nutzung von Solar- und Windenergie sowohl in Großbritannien als auch in Deutschland erreicht werden könnte.

[Hervorhebung im Original]

Parallele Berechnungen werden oben für die deutsche Situation gezeigt, wo es immer noch eine starke Abhängigkeit von Kohle und Braunkohle und zu einem geringeren Anteil von Biomasse für die Stromerzeugung gibt. Nichtsdestotrotz ist der deutsche Biomasseeinsatz etwas größer als die britischen CO2-Emissionen. Die deutsche Biomasse wird sowohl importiert als auch aus den einheimischen Wäldern Deutschlands bezogen, was bereits zu einer erheblichen Schädigung des Lebensraums führt.

Diese einfachen Berechnungen zeigen, dass alle bisherigen Investitionen in „Low Carbon“-Technologien“ nichts zur CO2-Reduktion beigetragen, sondern nur die CO2-Emissionen und Stromkosten sowohl in Großbritannien als auch in Deutschland erhöht haben.

[Hervorhebung im Original]

CO2-Emissionen des Vereinigten Königreichs 2019

Die untenstehende Grafik zeigt den stündlichen Mix der britischen Stromerzeugung nach Technologie im Jahr 2019. Die durchschnittliche Leistung entspricht ~28 Gigawatt.

Seit der „Dash for Gas“-Politik in den 1990er Jahren sind die vorherrschenden britischen Brennstoffe für die Stromerzeugung Erdgas und Kernkraft. Die Verwendung von Kohle für die Stromerzeugung in Großbritannien ist jetzt weitgehend eingeschränkt. Sie wird nur noch gelegentlich eingesetzt und liefert ~2 % der Stromerzeugung. Nichtsdestotrotz hat die Not-Wiederinbetriebnahme von Kohlekraftwerken das britische Stromnetz in den Jahren 2019 und 2020 vor einem Ausfall bewahrt. Dieser Übergang hat die CO2-Emissionen reduziert. Die britischen CO2-Emissionen pro Kopf liegen jetzt nur noch 23 % über dem globalen Durchschnitt.

Obwohl das Vereinigte Königreich immer noch über eine beträchtliche Anzahl von Kernkraftwerken verfügt, die immer noch ~22 % der Stromproduktion liefern, werden die meisten dieser Kernkraftwerke vor 2030 das Ende ihrer Lebensdauer erreichen. Die britische Politik hat diese Grundlastkapazität nur langsam durch alternative Grundlastkraftwerke ersetzt. Auf der anderen Seite hat Großbritannien die Installationen von intermittenten und unzuverlässigen wetterabhängigen erneuerbaren Energien deutlich erhöht.

Auch im Jahr 2019 ist das Vereinigte Königreich kontinuierlich von ~7 % importiertem Strom abhängig, wobei es hauptsächlich Strom aus Frankreich importiert, der durch Kernenergie erzeugt wurde. Die Abhängigkeit Großbritanniens von Stromimporten sollte als existenzielles Risiko für die britische Stromversorgung in der unmittelbaren Zukunft betrachtet werden, insbesondere seit dem Brexit.

[Hervorhebung im Original]

Die Kohleverbrennung wurde in erheblichem Maße durch den Einsatz von Biomasse ersetzt, die hauptsächlich von der Ostküste der USA importiert wird, wo die Abholzung von Urwäldern den Bedarf deckt. Das einheimische Holzangebot im Vereinigten Königreich selbst ist nicht ausreichend.

Der Drax-Kraftwerkskomplex in Yorkshire wurde weitgehend auf die Verbrennung von Holzpellets umgestellt, die größtenteils aus den USA importiert werden, und ersetzt damit das Kohlekraftwerk.  Dies liefert etwa 7 % des britischen Stroms.  Die Substitution wurde durch die Klimapolitik der Regierung erzwungen, die behauptet, dass importierte Biomasse „Kohlenstoff-neutral“ ist, da sie schließlich das gesamte emittierte CO2 wieder absorbieren wird. Dieser Wiederherstellungsprozess wird jedoch etwa 100 Jahre dauern, wenn überhaupt, um den Wald und die natürlichen Lebensräume wiederherzustellen, die in diesem Prozess zerstört wurden.

Ursprünglich wurde der Drax-Kraftwerkskomplex absichtlich auf einem noch produktiven Kohleflöz platziert. Würde man also weiterhin diese Kohle anstelle von importierter Biomasse verbrennen, würde dies bei gleicher Leistung zu etwa der Hälfte der CO2-Emissionen führen wie die Verbrennung von importierter Biomasse.  Kürzlich, im November 2020, haben alternde Kohlekraftwerke das britische Stromnetz vor dem Zusammenbruch bewahrt. Diese Anlagen sollen alle innerhalb weniger Jahre geschlossen werden, um die Welt vor dem menschengemachten Klimawandel zu retten.

Wetterabhängige erneuerbare Energien (Windkraft On- und Offshore sowie Solar) machen bereits mehr als 55 % des installierten britischen Kraftwerksparks aus, tragen aber unzuverlässig nur ~23 % zur britischen Stromerzeugung bei. Insgesamt erreichen sie eine kombinierte Produktivität von ~21%. Wind- und Solarkraftwerke sind nicht disponierbar und liefern nur dann Strom, wenn die Sonne scheint und der Wind mit einer geeigneten Geschwindigkeit weht: Allein das ist ein echtes Problem für die Aufrechterhaltung einer gleichmäßigen Stromversorgung, die für eine entwickelte Wirtschaft unerlässlich ist.

Weather Dependent Renewables Productivity: what do the numbers mean?

The performance of UK Weather Dependent Renewables: 2002 – 2019

Hinweis: Diese Schätzungen des Umfangs der installierten regelbaren Erzeugungsanlagen gehen davon aus, dass diese Erzeugungsquellen mit ihrer vollen Produktivität von 90 % arbeiten, und unterschätzen daher möglicherweise die Größe der tatsächlichen Anlagen. Die von der Politik vorgeschriebene und bevorzugte Nutzung von intermittierenden „wetterabhängigen erneuerbaren“ Erzeugungstechnologien verringert die Effektivität, Produktivität und Rentabilität von regelbaren Gas- oder Kohlekraftwerken und erhöht deren Wartungskosten.

Die drei CO2-emittierenden Technologien in Großbritannien sind ein großer Anteil an Erdgas, eine sehr begrenzte und gelegentliche Kohleerzeugung und ~7% der kontinuierlichen, einsatzfähigen Stromerzeugung aus Biomasse.  Diese 7% Biomasseerzeugung sind für ~37% der gesamten CO2-Emissionen der britischen Stromerzeugung verantwortlich.  Die Politik, die behauptet, dass Biomasse CO2-neutral ist, bedeutet, dass die CO2-Emissionen gegenüber der Verwendung von Erdgas zur Stromerzeugung um schätzungsweise 23 Millionen Tonnen pro Jahr erhöht werden.

Die Verteilung und das Ausmaß der britischen CO2-Emissionen über das Jahr sind unten dargestellt.

Die CO2-Emissionen von Deutschland im Jahre 2019

Die folgenden Graphiken zeigen stündliche Werte der Stromerzeugung in Deutschland aufgeschlüsselt nach Technologie. Der mittlere Ausstoß ist äquivalent zu ~65 Gigawatt:

Deutschland verfolgt seit 2011 seine „Energiewende-Politik“* und hat infolgedessen ~102 GW an wetterabhängigen erneuerbaren Energien (Wind und Solar) installiert, ~65 % des Kraftwerksparks.  Diese erneuerbaren Energien liefern ~30% des deutschen Stroms, aber intermittierend mit einer kombinierten Gesamtproduktivität von nur ~19%.   Deutschland hat sogar ein neues Kohlekraftwerk in Betrieb genommen, um das Stromdefizit durch die Abschaltung der Kernenergie zu kompensieren.

[*Der Terminus „Energiewende“ in Bezug auf Deutschland steht so im Original und scheint auch zu einer englischen Vokabel zu werden wie etwa das englische (!) Wort „kindergarten“. A. d. Übers.]

Trotz seiner langjährigen „Energiewende“-Politik ist Deutschland immer noch massiv von fossilen und CO2-emittierenden Brennstoffen für seine Stromerzeugung abhängig:

Erdgas 16%

Biomasse 5%

Kohle 9%

Braunkohle 19%

CO2-emittierende Erzeugung 48,8% der Energie-Ausbeute

Das macht insgesamt etwa 49% der Stromerzeugung aus. Die Stromerzeugung aus Kohle und Braunkohle nimmt in Deutschland zu, um die selbstverschuldete Politik der Schließung von Kernkraftwerken zu kompensieren, die immer noch ~13% der gesamten produktiven Flotte ausmachen. Die durch die Fukushima-Katastrophe von 2011 ausgelöste Politik der Schließungen von Kernkraftwerken wird noch in der ersten Hälfte dieses Jahrzehnts abgeschlossen sein.

Die Energiewende mag die CO2-Emissionen etwas reduziert haben. Aber die deutschen CO2-Emissionen liegen mit 8,4 Tonnen pro Kopf und Jahr immer noch 87% über dem globalen Durchschnitt und gehören zu den höchsten der EU(28), ~30% über dem EU(28)-Durchschnitt.

Deutschland ist immer noch abhängig von einer bedeutenden Stromerzeugung durch Kernkraft, die ~12% der Stromproduktion liefert. Doch seit der Katastrophe von Fukushima hat die deutsche Politik ihre Kernkraftwerke vor dem Ende ihrer Nutzungsdauer abgeschaltet, was ein erhebliches Defizit in der Stromerzeugung hinterlässt. Die deutsche Politik erwartet, dass das Stromdefizit durch die Flotte der intermittierenden wetterabhängigen erneuerbaren Energien kompensiert wird.

Deutschland hat einen signifikanten Strombeitrag aus Biomasse, ~4,6%. Doch ob importiert oder aus heimischen Wäldern, sie trägt bereits zu den deutschen CO2-Emissionen von ~20% bei.

Wetterabhängige Erneuerbare Energien (Windkraft On- und Offshore sowie Solar) machen mittlerweile mehr als 64% des installierten deutschen Kraftwerksparks aus, tragen aber nur unzuverlässig ~28% des produzierten Stroms bei.

Die Überproduktion von Strom durch übermäßige Windkraftproduktion in den Wintermonaten bedeutet, dass Deutschland gezwungen ist, diesen überschüssigen Strom in die Nachbarländer zu exportieren, oft zu negativen Preisen. Dies stellt eine weitere Kostenbelastung für die deutschen Stromkunden dar. Deutschland ist auch von Stromimporten abhängig, vor allem von Kernkraftstrom aus Frankreich im Sommer, wenn die Windstrom-Erzeugung in der Regel gering ist.

Ausmaß und Größenordnung der deutschen CO2-Emissionen im Jahresverlauf sehen so aus:

Conclusions

Falls die Verringerung der CO2-Emissionen ein rationales Ziel zur Kontrolle des „Klimawandels“ wäre, ist der Übergang zur Verwendung von Erdgas zur Stromerzeugung ein wirksames Mittel zur Verringerung der CO2-Emissionen, nicht zur Beseitigung. Die Verwendung von Erdgas erfüllt nicht die „Net Zero“-Ansprüche der Klimaaktivisten.

● Die Verwendung von importierter Biomasse in Großbritannien und Deutschland ist als Mittel zur Reduzierung von CO2-Emissionen, die das Klima beeinträchtigen könnten, im Grunde selbstzerstörerisch. Die obigen Schätzungen zeigen, dass in Großbritannien die grüne Politik für erneuerbare Energien und Biomasse tatsächlich zu zusätzlichen CO2-Emissionen führt.

● In Großbritannien macht die Politik zur Nutzung von Biomasse bei Drax alle Bemühungen zur Reduzierung der CO2-Emissionen vollständig zunichte, die durch den Einsatz von wetterabhängigen erneuerbaren Energien (Windkraft, Onshore- und Offshore-Anlagen sowie Solarenergie) hätten erreicht werden können.

[Hervorhebung im Original]

● Da Deutschland viel stärker auf die Nutzung von Kohle und Braunkohle sowie Biomasse setzt, macht dies die Investitionen in Wind- und Solarenergie zunichte und führt zu zusätzlichen CO2-Emissionen von ca. 20 Millionen Tonnen pro Jahr.

● Wo auch immer die Biomasse herkommt, z.B. aus Afrika, Nordamerika, Indonesien usw., die Umweltschäden, die die Industrie verursacht, sind auch mittelfristig weitgehend irreparabel.

Der jüngste Film von Michael Moore machte einen aufschlussreichen Punkt, dass es in den gesamten USA nur genug Waldholz gibt, um das Versorgungsnetz für ein einziges Jahr zu betreiben: danach sind die Wälder weg. Wohingegen Gas und andere fossile Brennstoffreserven noch längerfristig zur Verfügung stehen werden.

Alle Investitionen in wetterabhängige Erneuerbare Energien werden durch die widersprüchliche CO2-Reduktionspolitik der Verbrennung von Biomasse zunichte gemacht, die sowohl in Großbritannien und Deutschland als auch überall sonst, wo sie eingesetzt wird, zu einer Erhöhung der CO2-Emissionen führt.  Eine Schätzung der zusätzlichen Kosten, die durch den Einsatz von wetterabhängigen erneuerbaren Energien in ganz Europa entstehen, ist hier zu sehen:

The excess costs of Weather Dependent Renewable power generation in the EU(28): 2020

Wenn Regierungen eine Politik einführen und ihre finanzielle Unterstützung anordnen, dann sind Unternehmen gezwungen, die künstlich geschaffenen Geschäftsmöglichkeiten zu nutzen, auch wenn sie kontraproduktiv sein mögen.

Die anhaltende Abhängigkeit von großen Mengen fossiler Brennstoffe, Kohle und Braunkohle, in Deutschland macht die Klimaschutzziele der Energiewende zu einer großen Herausforderung, insbesondere mit der zusätzlichen Politik des Ausstiegs aus der CO2-freien Kernkraft-Stromerzeugung in den kommenden Jahren.

Der Import von Biomasse, wie in Großbritannien, belastet die Zahlungsbilanz und damit die Kunden der Stromerzeugungsindustrie.

All die Ausgaben für wetterabhängige erneuerbare Energien in Kombination mit der Verbrennung von Biomasse haben die CO2-Emissionen in Großbritannien und Europa sogar erhöht.

Das Ausmaß des wirtschaftlichen und im Übrigen auch „Klima“-Schadens, den die Klimaaktivisten mit der sentimentalen, aber effektiven Beendigung von Fracking zur Gewinnung von Erdgas in Großbritannien und ganz Europa angerichtet haben, ist massiv.

Ein hervorragender Weg, die westlichen Volkswirtschaften zu untergraben, ist es, ihre Energieerzeugung unzuverlässig und teuer zu machen.  Dieses Ziel des grünen Denkens wird nach und nach durch die Regierungspolitik in der gesamten westlichen Welt erreicht, jedoch ohne jedwedes Mandat der Wähler.

[Hervorhebung im Original]

Data sources

This post gratefully uses the following data sources:

  • Germany Renewables provided at hourly intervals

https://www.agora-energiewende.de/en/

  • United Kingdom Renewables output at 5 minute intervals, condensed to hourly intervals

https://www.gridwatch.templar.co.uk

  • France Renewables output at 15 minute intervals, condensed to hourly intervals

https://www.gridwatch.templar.co.uk/france

  • For the scale of EU(28) installations by the end of 2019, EurObserver’ER publish their Renewable Energy “Barometers” for each type of Renewable generation annually, for an example, see:

www.EurObservER-Wind-Energy-Barometer-2020.pdf

Link: https://wattsupwiththat.com/2021/03/20/the-contradictory-green-policies-to-limit-co2-emissions/

Übersetzt von Chris Frey EIKE

 




Nationen handeln nicht so, als ob der Klimawandel eine existenzielle Krise darstellt

Entgegen der fast täglichen Berichterstattung in den Mainstream-Medien zeigen die Daten des IPCC und der NOAA keine Zunahme extremer Wetterereignisse, da sich die Erde in den letzten 150 Jahren nur mäßig erwärmt hat. Tatsächlich zeigen die Daten des IPCC und der NOAA, dass die Zahl der extremen Kälteperioden, Dürren, Überschwemmungen, Hitzewellen, Hurrikane, Tornados und Waldbrände seit den späten 1870er Jahren entweder leicht zurückgegangen oder relativ stabil geblieben ist.

Trotz dieser unwiderlegbaren Fakten haben die Führer von Nationen auf der ganzen Welt mehrere internationale Abkommen unterzeichnet, zuletzt das Pariser Klimaabkommen von 2015, mit dem eine angeblich drohende Klimakatastrophe abgewendet werden soll.

Allerdings stimmen ihre Taten nicht mit ihren Worten überein. Die UN berichteten kürzlich, dass dieselben politischen Führer, die öffentlich das Pariser Klimaabkommen unterzeichneten und sich damit verpflichteten, die Emissionen ihrer Länder einzuschränken, innenpolitische Maßnahmen ergriffen haben, die die Emissionen in Wirklichkeit erhöhen.

Mit Stand vom 26. Februar sagen die Vereinten Nationen, dass nur 75 der mehr als 190 Länder, die das Pariser Klimaabkommen ratifiziert haben, feste Verpflichtungen und detaillierte Pläne zur Emissionsreduzierung vorgelegt haben, obwohl sie sich verpflichtet haben, diese Pläne bis 2020 umzusetzen. Um das Ganze noch schlimmer zu machen, sagt die UNO, dass „der Grad der Ambition, der durch diese NDCs kommuniziert wird, darauf hindeutet, dass die Veränderungen in den Gesamtemissionen dieser Länder gering sein würden, weniger als -1% im Jahr 2030 im Vergleich zu 2010 … während das IPCC im Gegensatz dazu darauf hingewiesen hat, dass die Emissions-Reduktions-Bereiche, um das Temperaturziel von 1,5°C zu erreichen, etwa 45% im Jahr 2030 im Vergleich zu 2010 betragen sollten.“

Egal, ob es sich um große oder kleine Emittenten handelt, die Realität ist, dass die Nationen die Armutsbekämpfung und das Wirtschaftswachstum (meiner Meinung nach zu Recht) über die Klimaschutzmaßnahmen stellen.

Schauen wir uns ein paar Beispiele an.

Indien ist der drittgrößte Treibhausgas-Emittent der Welt. Im Rahmen des Pariser Abkommens hat sich Indien nicht verpflichtet, seine Emissionen zu senken, sondern gesagt, es würde die Emissionsintensität (Emissionen in Prozent des BIP) reduzieren. Das Problem dabei ist, dass selbst wenn Indien seine Ziele zur Verringerung der Kohlenstoffintensität übertrifft, seine Gesamtemissionen immer noch erheblich steigen werden. Als Ergebnis stellt die UNO fest: „Mit den aktuellen Energiezielen und -politik werden die Emissionen voraussichtlich weiter steigen (um 24-25 Prozent über das Niveau von 2019 im Jahr 2030) und zeigen keine Anzeichen für ein Erreichen des Höchststandes, insbesondere aufgrund des Fehlens einer Politik zur Abkehr von der Kohle. Ein solcher Anstieg der Emissionen ist nicht mit dem Pariser Abkommen vereinbar.“

In der Tat werden 70 Prozent des indischen Stroms durch die Verbrennung von Kohle erzeugt. Und Indiens jüngste Schätzungen gehen davon aus, dass der Kohleverbrauch bis 2030 um 40 Prozent steigen wird.

Noch schlimmer sind die Nachrichten aus China, dem größten Emittenten der Welt. China, das für etwa 25 Prozent der weltweiten Emissionen verantwortlich ist, hat vage angedeutet, dass es erwartet, dass die Kohlendioxid-Emissionen im Jahr 2030 ihren Höhepunkt erreichen werden. Auf welchem Niveau?

Die Kommunistische Partei Chinas hat vor kurzem ihren Fünfjahresplan für die wirtschaftliche Entwicklung veröffentlicht, und er enthält keine Reduzierung des Kohleverbrauchs. Es wäre überraschend, wenn dies der Fall wäre. In den letzten Jahren hat China Dutzende von neuen Kohlekraftwerken gebaut und Hunderte weitere befinden sich in verschiedenen Bau-, Entwicklungs- und Planungsstadien. China beabsichtigt, kohlebefeuerte Kraftwerke in Afrika, in ganz Asien und im Nahen Osten zu errichten.

Gleichzeitig bremst China den Neubau von Wind- und Solaranlagen, die von der National Energy Administration (NEA) als „unzuverlässig“ bezeichnet werden.

Selbst Argentinien, ein relativ kleiner Emittent, wird Schwierigkeiten haben, seine Entwicklungsziele mit seiner Pariser Klimaverpflichtung in Einklang zu bringen. Auf einer kürzlich abgehaltenen Konferenz sagte Präsident Alberto Fernandez, Argentiniens Ziel sei es, bis 2050 netto null Treibhausgasemissionen zu erreichen. Währenddessen kündigte Fernandez zu Hause, weit weg vom Rampenlicht der internationalen Klimakonferenzen, an, dass die Regierung die fossilen Brennstoffe verdoppeln werde: „Heute bringen wir die Öl- und Gaswirtschaft wieder in Schwung“, beginnend mit 5 Milliarden Dollar an staatlichen Subventionen, um die Schieferfelder zu entwickeln.

Die politischen Eliten fürchten nicht wirklich, dass eine Klimaapokalypse bevorsteht. Vielmehr nutzen sie die Bedrohung durch das Schreckgespenst „Klimawandel“, um immer mehr Macht und Kontrolle über das Leben der Menschen zu erlangen. Das ist es, worum es den Politikern bei der Klima-Angst geht und schon immer ging.

[Hervorhebung vom Übersetzer]

H.L. Mencken witzelte einst: „Der Drang, die Menschheit zu retten, ist fast immer eine falsche Fassade für den Drang zu herrschen.“ Nirgendwo ist das wahrer als bei dem Versuch, die Welt vor dem Klimawandel zu retten.

H. Sterling Burnett, Ph.D. is a senior fellow at The Heartland Institute, a nonpartisan, nonprofit research center headquartered in Arlington Heights, Illinois.

Link: https://redstate.com/heartlandinstitute/2021/03/17/nations-arent-acting-as-if-climate-change-poses-existential-crisis-n343694?_

Übersetzt von Chris Frey EIKE

 




Dürren in Europa seit 2015 „die schlimmsten seit mehr als 2000 Jahren“ …

Die für die Jahre 2003, 2015 und 2018 ermittelten Werte zur Trockenheit gingen weit über das hinaus, was für den gesamten untersuchten Zeitraum von 2.110 Jahren galt.

Informiert sein ist alles

Bild 1 Meldung

Frau Simone Peter (Mitglied und ehemals mit-Vorsitzende der GRÜNEN), seit 2018 Präsidentin des Bundesverbandes Erneuerbare Energie e.V. (BEE), seit 2018 Vorstandsvorsitzende der Agentur für Erneuerbare Energien e.V. (AEE), seit 2018 Schirmherrin des Women of Wind Energy Deutschland e.V. (WoWED), twitterte sofort, wie man dieses Problem einzig zu lösen vermag:

Bild 2 Tweet

Was sagt die Studie?

Die Meldung selbst bezieht sich auf die gerade veröffentlichte Studie:
[1] Büntgen at al, 15.03.2021: Recent European drought extremes beyond Common Era background variability
Herr Büntgen und seine Mitautoren haben (wieder) herausgefunden, wie schlimm es wirklich um das Klimaeuropa steht. Dazu haben sie wie dafür üblich Baumringe aus Tschechien und einige aus Ostbayern analysiert, und daraus auf ganz Europa geschlossen:
Büntgen at al.: [1] … Here, we use 13,496 δ18O measurements and 13,584 δ13C measurements that are annually resolved and absolutely dated from 147 oaks (Quercus spp.) that grew over the past 2,110 years in what are today the Czech Republic and parts of south-eastern Bavaria

Deepl-Übersetzung: Hier verwenden wir 13.496 δ18O-Messungen und 13.584 δ13C-Messungen, mit jährlicher Auflösung und absoluter Datierung von 147 Eichen, die in den vergangenen 2.110 Jahren in der heutigen Tschechischen Republik und Teilen Südostbayerns gewachsen sind …

Das Ergebnis ist ein Verlauf der Sommer-Trockenheit (Zufügung: Eigentlich nur der Monate Juni – August) seit dem Jahr 100 – 2018 mit der verdichteten Aussage, dass das Jahr 2018 die trockenste Periode nach dem Jahr 1510 im Zeitraum der letzten 2000 Jahre gewesen sei (Anm.: JJA scPDSI bezeichnet die Monate: JJA: Juni, Juli, August und scPDSI den summer drought Palmer Drought Severity Index).
Man beachte in der Tabelle die geringe Mittelwertdifferenz und die enorme Streuung. Man wagt fast zu bezweifeln, dass die Differenzen überhaupt signifikant sind:

Bild 3 [1] Extended Data Fig. 6 Reconstructed hydroclimatic extremes.
Den Verlauf des Trockenheitsindex‘ zeigt das folgende Bild:

Bild 4 [1] Sommervariabilität des Trockenheitsindexes von -75 … 2018
Diese Grafik zeigt:
– eine stetige „Verdürrung“ seit über 2000 Jahren
– eindeutige und enorme Zyklen der Dürren

Unbedarft würde man daraus schließen, dass die aktuelle „Dürre“ damit rein klimadynamisch bedingt sein kann und ein Einfluss des „Klimawandels“ daran – falls überhaupt – nur eine marginale Randerscheinung darstellt.

Bild 5 [1] Sommervariabilität des Trockenheitsindexes von -75 … 2018 mit Ergänzungen durch den Autor

Fortschreibung

Die Studie ist eine der wenigen, zu der man auch Daten laden kann. Vergleicht man den Verlauf des Dürreindex von 1375 – 1512 mit dem von 1881 – 2018, stellt man eine verblüffende Übereinstimmung fest. Danach erleben wir heutzutage eine „Dürre-Index-Zeitreise“ in die Renaissance.

Bild 6 Sommervariabilität des Trockenheitsindexes von -1375 – 1512 und 1881 – 2018. Grafik vom Autor anhand der Daten [1] erstellt
Wenn der Verlauf der Dürre damals und heute so identisch ist, darf angenommen werden, dass sich das natürliche Klima weiterhin wie die letzten 2000 Jahre „fortschreibt“ und es müssten bald wieder – und das für mehrere Hundert Jahre – richtig nasse Zeiten kommen.
Und die Weiterschreibung zeigt, wie plötzlich und nachhaltig das geschehen kann. Der Schlager von 1975, „Wann wirds mal wieder richtig Sommer“, kann demnach bald eine Wiederauferstehung feiern:

Bild 7 Sommervariabilität des Trockenheitsindexes von 1881 – 2100. Grafik vom Autor anhand der Daten [1] und Annahmen erstellt
Das widerspricht zwar etwas der Klimasimulation des DWD für Deutschland. Aber in diese sind die „Erkenntnisse“ der Studie sicher noch nicht eingearbeitet.

Bild 8 Deutschland, Sommerniederschlag von 1881 – 2100. Quelle: DWD-Datenviewer

Über das Gesamtjahr könnte es aber dann doch noch klappen:

Bild 9 Deutschland, Jahresniederschlag von 1881 – 2100. Quelle: DWD-Datenviewer

Beim Klimawandel ist nur sicher, dass nichts sicher ist

Herr Büntgen erstellt schon länger Studien zur Trockenheit. Anbei ein Vergleich zwischen dem „Wissen“ 2010 und dem „Wissen“ 2020. In der Studie von 2010 gab es in der Vergangenheit einige schlimmere Dürren und die im Zeitraum 1510 war bei Weitem nicht die schlimmste.

Bild 10 Zusammenstellung Büntgen 2020 [1] und Büntgen 2010 [4] im gleichen Maßstab. Grafik vom Autor erstellt
Es ist allerdings nicht so, dass Herr Büntgen solches nicht bemerken würde. In den Supplements zur Studie gibt es dazu eine Gegenüberstellung:

Bild 11 [1] Supplements. Vergleiche aus verschiedenen Studien
Eine weitere Studie, welche ebenfalls Eichen und diese ebenfalls in Tschechien analysierte, kommt auch zu anderen Ergebnissen als Herr Büntgen. Leider nicht als Dürreindex dargestellt, aber als Extremereignisse der Vergangenheit. Und da stellt sich der aktuelle Zeitraum nicht mehr als extrem dar.

[6] P. Dobrovolný at al., 23 October 2015: A tree-ring perspective on temporal changes in the frequency and intensity of hydroclimatic extremes in the territory of the Czech Republic since 761 AD

Bild 12 [6] mit Zufügungen durch den Autor. Anmerkung: Negative TRW (three ring width) bedeutet Trockenextreme
Als ob es nicht ausreichen würde, haben weitere Wissenschaftler Eichen in Tschechien analysiert. Und wieder weichen diese vom Ergebnis der aktuellen Büntgen-Studie ab:
[2] Rudolf Brázdil at al, 20. Juli 2020: Central Europe, 1531–1540 CE: The driest summer decade of the past five centuries?
Abstract. Based on three drought indices (SPI, SPEI, Z-index) reconstructed from documentary evidence and instrumental records, the summers of 1531–1540 were identified as the driest summer decade during the 1501–2015 period in the Czech Lands. Based on 25 documentary data, extended from the Czech scale to central Europe, dry patterns of various intensities (represented, for example, by dry spells, low numbers of precipitation days, very low rivers and drying-out of water sources) occurred in 1532, 1534–1536, 1538 and particularly 1540, broken by wetter or normal patterns in 1531, 1533, 1537 and 1539. Information relevant to summer droughts extracted from documentary data in central Europe 30 were confirmed in summer precipitation totals from a multi-proxy reconstruction for Europe by Pauling et al. (2006) and further by self-calibrated summer PDSI reconstruction from treering widths in OWDA by Cook et al. (2015) … Reconstructions based on documentary data indicate that the summers of 1531–1540 constitute the driest summer decade in central Europe for the past five centuries, between 1501 and 2010 CE.

Deepl-Übersetzung: Die trockenste Sommerdekade der letzten fünf Jahrhunderte?
Zusammenfassung. Basierend auf drei Dürre-Indizes (SPI, SPEI, Z-Index), die aus dokumentarischen Belegen und instrumentellen Aufzeichnungen rekonstruiert wurden, wurden die Sommer 1531-1540 als die trockenste Sommerdekade während des Zeitraums 1501-2015 in den Böhmischen Ländern identifiziert. Basierend auf 25 dokumentarischen Daten, die von der böhmischen Skala auf Mitteleuropa ausgedehnt wurden, traten trockene Muster unterschiedlicher Intensität (dargestellt z. B. durch Trockenperioden, geringe Anzahl von Niederschlagstagen, sehr niedrige Flüsse und Austrocknung von Wasserquellen) in den Jahren 1532, 1534-1536, 1538 und insbesondere 1540 auf, unterbrochen von feuchteren oder normalen Mustern in den Jahren 1531, 1533, 1537 und 1539. Die für die Sommerdürren relevanten Informationen aus den dokumentarischen Daten in Mitteleuropa 30 wurden durch die Sommerniederschlagssummen aus einer Multiproxy-Rekonstruktion für Europa von Pauling et al. (2006) und weiter durch die selbstkalibrierte Sommer-PDSI-Rekonstruktion aus den Baumbreiten in OWDA von Cook et al. (2015) bestätigt. … Rekonstruktionen auf der Grundlage dokumentarischer Daten zeigen, dass die Sommer 1531-1540 die trockenste Sommerdekade in Mitteleuropa in den letzten fünf Jahrhunderten zwischen 1501 und 2010 n. Chr. darstellen.

Bild 13 [2] Figure 15. Decadal fluctuations in hydroclimatic characteristics: (a) JJA SPI, JJA SPEI and JJA Z-index for the Czech Republic, 1501–2015 (Brázdil et al., 2016a); (b) JJA precipitation 5 totals within the 5°–25°E and 45°–55°N window, 1501–2000 (Pauling et al., 2006)
Und als ob das immer noch nicht reichen würde:
[7] Edward R. Cook at al., 06 Nov 2015: Old World megadroughts and pluvials during the Common Era
… In addition, megadroughts reconstructed over north-central Europe in the 11th and mid-15th centuries reinforce other evidence from North America and Asia that droughts were more severe, extensive, and prolonged over Northern Hemisphere land areas before the 20th century, with an inadequate understanding of their causes.
Deepl-Übersetzung: … Darüber hinaus verstärken Megadürren, die über Nordmitteleuropa im 11. und in der Mitte des 15. Jahrhunderts rekonstruiert wurden, andere Beweise aus Nordamerika und Asien, dass Dürren vor dem 20. Jahrhundert über Landgebieten der nördlichen Hemisphäre schwerer, ausgedehnter und länger andauerten, wobei ihre Ursachen nur unzureichend verstanden wurden.

Bild 14 [7]
In Amerika ist es ganz schlimm. Da fehlen seit mehreren Hundert Jahren die früher „üblichen“, ganz großen Dürren. So wie irgendwann ein erneutes, großes zyklisches Erdbeben am Andreasgraben erwartet wird, wartet man drüben nun auch auf eine zyklische Wiederholung solch großer Dürren:
[8] Nathan J. Steiger at al., 24. Juli 2019: Oceanic and radiative forcing of medieval megadroughts in the American Southwest
… The absence of any megadroughts after the 16th century in the Southwest raises critical questions surrounding their causes, their predominant clustering during the Medieval period, and whether there is a substantial risk of these droughts returning in the near future as a consequence of either natural or anthropogenic causes
Deepl-Übersetzung: Ozeanischer und radiativer Antrieb von mittelalterlichen Megadurchgängen im amerikanischen Südwesten
… Das Ausbleiben jeglicher Megadürren nach dem 16. Jahrhundert im Südwesten wirft kritische Fragen bezüglich ihrer Ursachen, ihrer vorherrschenden Häufung während der mittelalterlichen Periode und der Frage auf, ob ein erhebliches Risiko besteht, dass diese Dürren in naher Zukunft als Folge entweder natürlicher oder anthropogener Ursachen zurückkehren …

Bild 15 [8] Fig. 1 Time series and megadrought state changes. (C) The mean NINO3.4 and AMO [corresponding to black lines in (A) and (B)] along with a global mean forcing estimate (see Materials and Methods) and highlighted megadrought periods.
Biden macht aber endlich wieder etwas dagegen: Er „betet“, dass sie nicht kommen, indem er an den Weltklimavertrag seine CO2-„Verhinderungsspenden“ gibt.

Werden unsere Medien und Frau Simone Peter darüber auch berichten?

Während dieser Artikel getippt wurde, erschien wieder eine Studie zu Dürren in Europa:

[5] M. Ionita at al., 19 March 2021: Past megadroughts in central Europe were longer, more severe and less warm than modern droughts

Darin steht: [5] … here we show that central Europe has experienced much longer and severe droughts during the Spörer Minimum (~AD 1400–1480) and Dalton Minimum (~AD 1770–1840), than the ones observed during the 21st century … we show that the recent drought events (e.g., 2003, 2015, and 2018), are within the range of natural variability and they are not unprecedented over the last millennium … Future climate projections indicate that Europe will face substantial drying, even for the least aggressive pathways scenarios (SSP126 and SSP245)49. Although the greenhouse gases and the associate global warming signal will substantially contribute to future drought risk49, our study indicates that future drought variations will also be strongly influenced by natural variations.

Deepl-Übersetzung: … Hier zeigen wir, dass Mitteleuropa während des Spörer-Minimums (~AD 1400-1480) und des Dalton-Minimums (~AD 1770-1840) viel längere und schwerere Dürren erlebt hat, als die im 21. Jahrhundert beobachteten … Wir zeigen, dass die jüngsten Dürreereignisse (z. B. 2003, 2015 und 2018) im Bereich der natürlichen Variabilität liegen und im letzten Jahrtausend nicht beispiellos sind … Zukünftige Klimaprojektionen deuten darauf hin, dass Europa selbst bei den am wenigsten aggressiven Pfadszenarien (SSP126 und SSP245) mit erheblicher Trockenheit konfrontiert sein wird. Obwohl die Treibhausgase und das damit verbundene globale Erwärmungssignal wesentlich zum zukünftigen Dürrerisiko beitragen werden, zeigt unsere Studie, dass zukünftige Dürrevariationen auch stark von natürlichen Variationen beeinflusst werden.

Bild 16 [5] (Teilbild) a Regional mean Old World Drought Atlas (OWDA) PDSI index for central Europe (3°E-20°E, 45°N-56°N, black line) for the 1000–2012 period and the instrumental June through August scPDSI (solid red line) for the 1901–2018 period. Decadal frequency of the seasonal precipitation over the central part of Europe based on proxy reconstructions and documentary evidence: (d) summer . The seasonal precipitation data is based on the seasonal decadal precipitation index from Glaser (2013)
Bild 17 [5] a egional mean Old World Drought Atlas (OWDA) PDSI index for central Europe (3°E-20°E, 45°N-56°N, black line) for the 1000–2012 period and the instrumental June through August scPDSI (solid red line) for the 1901–2018 period; (b) Time series of annual total solar irradiance; (c) Aerosol optical depth (AOD); (d) δ18O (T. quinqueloba) measurements of planktonic foraminifera as a proxy for changes in the surface hydrography of the eastern Labrador Sea over the last millenium; (e) Reconstructed Atlantic Multidecadal Oscillation index (AMO) and (f) as in (e) but based on tree rings.

Wenn Mehrheiten recht hätten

… dann hätte Herr Büntgen at al. 2020 mit seiner Studie daneben getroffen.
Aber selbst wenn es nicht so sein sollte, bleibt die Aussage von Frau Peters (Bild 2) das, was man von dieser GRÜNEN Frau zum Klimawandel kennt: Reinster Unsinn.

Denn wer würde Billiarden EUR in CO2-Vermeidung investieren, wenn er schon in wenigen Jahren rein „natürlich“ mit Regen überschüttet wird (Bild 7). Aber „Parteien-Amigo“ gibt es ja nur bei Corona-Mundschutz-Masken. Beim Klima ist alles anders. Da macht man „sich“ Gesetze oder sitzt zumindest dabei und gründet dann eine Firma, um die soeben mit beschlossenen Subventionen optimal abzugreifen … nichts Verwerfliches ist daran erkennbar.

Doch unerbittlich schlägt der Klimawandel immer schlimmer zu

Bisher scheinen unsere Ozeane eine physikalische Eigenschaft des Wassers nicht „gekannt“ zu haben. Denn nirgendwo – außer in Klimasimulationen – steigt der Meerespegel „übernatürlich“.
Doch bald werden es die Ozeane „wissen“ und sich (endlich) nach den schlimmsten Klimasimulationen richten:

Bild 18

Quellen

[1] Büntgen at al, 15.03.2021: Recent European drought extremes beyond Common Era background variability

[2] Rudolf Brázdil at al, 20. Juli 2020: Central Europe, 1531–1540 CE: The driest summer decade of the past five centuries?

[3] Zeit Online, 15. März 2021: Dürren in Europa seit 2015 „die schlimmsten seit mehr als 2000 Jahren“

[4] Ulf Büntgen at al., 6. Januar 2010: Tree-ring indicators of German summer drought over the last millennium

[5] M. Ionita at al., 19 March 2021: Past megadroughts in central Europe were longer, more severe and less warm than modern droughts

[6] P. Dobrovolný at al., 23 October 2015: A tree-ring perspective on temporal changes in the frequency and intensity of hydroclimatic extremes in the territory of the Czech Republic since 761 AD

Old World megadroughts and pluvials during the Common Era

[7] Edward R. Cook at al., 06 Nov 2015: Old World megadroughts and pluvials during the Common Era

[8] Nathan J. Steiger at al., 24. Juli 2019: Oceanic and radiative forcing of medieval megadroughts in the American Southwest