1

Anomalien der Meeres­oberflächen-Temperatur

Die meisten SST-Messungen werden von fahrenden Schiffen, Bojen oder Argo-Floats durchgeführt, der Referenzmittelwert wird an einem bestimmten Ort von einer Vielzahl von Instrumenten und in einer Vielzahl von Tiefen ermittelt. Im Fall von HadSST wird die Referenz für 5° mal 5° Breiten- und Längengrad „Gitterzellen“ berechnet. Die Zellen überdecken 308.025 Quadratkilometer am Äquator, ein Quadrat, das auf einer Seite 556 Kilometer lang ist. Der Abstand zwischen den einzelnen Längengraden wird kleiner, je näher wir uns den Polen nähern, aber bei 40° nördlicher oder südlicher Breite sind 5° Längengrad immer noch 425 Kilometer. Diese „Referenzzellen“ sind riesige Gebiete in den mittleren und niedrigen Breiten, aber sie sind klein in der Nähe der Pole.

Erschwerend kommt hinzu, dass die Technologie, die in den Referenzzeiträumen 1961-1990 oder 1971-2000 verwendet wurde, weit weniger genau ist als die heute durchgeführten Messungen. Tatsächlich korrigiert die NOAA die in den frühen 2000er Jahren eingeführten Argo-Float- und Driftbojen um das 6,8-fache im Vergleich zu den Schiffsdaten (Huang, et al., 2017). Das Hadley Centre sagt, dass Argo-Floats ihre Unsicherheit um 30 % reduzieren (Kennedy, Rayner, Atkinson, & Killick, 2019). Während der beiden Referenzperioden stammten fast alle Daten von Schiffen. Das bedeutet, dass die größere Ungenauigkeit der Messungen, relativ zu heute, in den 30-jährigen Referenzzeiträumen signifikant ist. Man könnte annehmen, dass die zusätzliche Unsicherheit zufällig ist, aber das ist wahrscheinlich nicht der Fall.

An Land können alle Messungen während des Referenzzeitraumes von der gleichen Wetterstation stammen. Diese Wetterstation kann sich die ganze Zeit über an genau demselben Ort befunden haben. Es gibt ernsthafte Probleme mit vielen landgestützten Wetterstationen, wie von Fall, Watts und Kollegen dokumentiert (Fall, et al., 2011), aber zumindest sind die Wetterstationen nicht ständig in Bewegung. Landgestützte Stationen sind fest, aber ihre Höhenlagen sind alle unterschiedlich und da die Lufttemperatur eine Funktion der Höhe ist, ist die Erzeugung von Anomalien zur Erkennung von Veränderungen und Trends sehr sinnvoll. Wetterstationen, auf dem Meer und an Land, sind ungleichmäßig verteilt, so dass eine Rasterung der Werte notwendig ist, wenn die Abdeckung nicht ausreicht. In einigen Gebieten, wie z. B. den Conterminous United States (CONUS), gibt es so viele Wetterstationen, dass eine Rasterung unnötig [beim EIKE in deutscher Übersetzung hier] ist und, wenn sie durchgeführt wird, sogar die Genauigkeit des berechneten durchschnittlichen Temperaturtrends verringern kann.

CONUS nimmt eine Fläche von 3,1 Millionen Quadratmeilen ein mit 11.969 Wetterstationen im GHCN (Global Historical Climatology Network). Das sind etwa 260 Quadratmeilen pro Station. Jede Station liefert ungefähr 365 Beobachtungen pro Jahr, in einigen Fällen sogar mindestens 4,4 Millionen Beobachtungen. Dies entspricht etwa 1,4 Beobachtungen pro Quadratmeile. Die Abdeckung ist ausreichend, die Stationen befinden sich an festen Standorten und sind einigermaßen genau. Der Ozean umfasst 139,4 Millionen Quadratmeilen. Im Jahr 2018 hatte HadSST insgesamt 18.470.411 Beobachtungen. Das sind etwa 0,13 Beobachtungen pro Quadratmeile oder 9 % der Abdeckung im Gebiet der kontinentalen USA.

Jede Berechnung einer Durchschnittstemperatur oder eines Temperaturtrends sollte so nah wie möglich an den ursprünglichen Messungen vorgenommen werden. Es sollten nur die erforderlichen Korrekturen und Datenmanipulationen vorgenommen werden. Mehr ist nicht besser. Die Messungen der Meeresoberflächentemperatur sind bereits auf eine Meerestiefe von 20 cm korrigiert. Ihre Referenztiefe ändert sich nicht. Die Quelle und die Qualität der Messungen an jedem Ozeanstandort ändern sich ständig. Die Berechnung der Referenztemperatur erfolgt nicht von einer einzigen Plattform, nicht einmal von einem einzigen Gerätetyp oder in einer einzigen Tiefe, so dass die Referenz sehr fehleranfällig ist und schwere Unstimmigkeiten aufweist. Wer kann schon sagen, dass die Referenztemperatur, die von den Messungen abgezogen wird, genauso genau ist wie die Messung? Es ist allgemein anerkannt, dass Bojen- und Argo-Float-Daten genauer sind als Schiffsdaten und 2018 sind die Bojen- und Float-Daten zahlreicher, das Gegenteil war von 1961-1990 der Fall (Huang, et al., 2017).

Auf den ersten Blick glauben wir, dass die Umwandlung genauer Messungen in ungenaue Anomalien ein unnötiger und verwirrender Schritt ist, der vermieden werden sollte. Als nächstes fassen wir zusammen, wie die Anomalien berechnet werden.

HadSST-Anomalien

Zunächst werden die In-situ-Messungen einer Qualitätsprüfung unterzogen, und die verbleibenden Messungen werden in 1° x 1° Breiten- und Längengrade sowie 5-Tage-Zeitabschnitte unterteilt. Der 5-Tage-Bereich wird als Pentade bezeichnet. Es gibt immer 73 Pentaden in einem Jahr, so dass Schaltjahre eine 6-tägige „Pentade“ haben (Kennedy, Rayner, Atkinson, & Killick, 2019). Die Pentaden werden zu Pseudo-Monaten gruppiert und durch Monatswerte aus teilweise mit Eis bedeckten Zellen ergänzt. Schließlich wird jede Ein-Grad-Pentade in eine Anomalie umgewandelt, indem ihr Mittelwert vom Mittelwert 1961-1990 subtrahiert wird. Die Ein-Grad-Pentad-Anomalien werden als „Superbeobachtungen“ bezeichnet (Rayner, et al., 2006). Schließlich werden die Ein-Grad-Pentaden mit einem gewichteten „korrigierten Mittel“ zu einem monatlichen Fünf-Grad-Gitter kombiniert, welches das grundlegende HadSST-Produkt darstellt. Vor der Berechnung des monatlichen Mittelwertes für die Fünf-Grad-Gitterzelle wird versucht, alle Messungen auf eine Tiefe von 20 cm zu korrigieren.

Während der letzten zwanzig Jahre enthielt die durchschnittliche besiedelte Fünf-Grad-Zelle 761 Beobachtungen, was einer Beobachtung alle 404 Quadratkilometer am Äquator entspricht. Wir halten dies subjektiv für eine gute Abdeckung und betrachten die besiedelten Zellen als solide Werte. Wie wir jedoch in unserem letzten Beitrag gesehen haben, enthält nicht jede Fünf-Grad-Zelle im Weltozean einen Gitterwert oder Beobachtungen. In runden Zahlen ausgedrückt, weisen nur 37 % der Weltozeanzellen im Jahr 2018 monatliche Werte auf, das sind 8.186 monatliche Ozeanzellen von 22.084. Man beachte, dass die polaren Zellen, die den Großteil der Zellen ohne Werte ausmachen, im Vergleich zu den Zellen in den mittleren und unteren Breitengraden flächenmäßig klein sind. Daher ist die Fläche, die von den besiedelten Zellen abgedeckt wird, viel größer als 8.186/22.084 oder 37 % des Ozeans. Ich habe die abgedeckte Fläche nicht berechnet, aber es ist wahrscheinlich mehr als die Hälfte des Weltozeans.

ERSST-Anomalien

Die grundlegenden, bei der Erstellung des ERSST-Datensatzes verwendeten Einheiten sind monatliche Bereiche von 2°x2° Breiten- und Längengraden. Für jedes Feld wird ein Durchschnitt der Jahre 1971 bis 2000 aus qualitätskontrollierten Messungen berechnet. Dieser Mittelwert wird von jeder Messung in diesem Bereich subtrahiert, um eine Anomalie zu erzeugen. Danach werden die verschiedenen Messungen (Schiff, Boje und Argo) angepasst, um den globalen Durchschnittsunterschied in ihren Werten zu berücksichtigen. Die angepassten Werte werden dann zu monatlichen 2°x2°-„Superbeobachtungen“ gemittelt. Bojen- und Argo-Daten werden um das 6,8-fache der Schiffsbeobachtungen gewichtet (Huang, et al., 2017). Seit dem Jahr 2000 dominieren Argo- und Bojendaten den ERSST-Datensatz, sowohl in Qualität als auch in Quantität. Dies ist in Abbildung 1 unseres letzten Beitrags leicht zu erkennen, da die von Argo dominierten mehrjährigen Temperaturschätzungen der Universität Hamburg und des NOAA MIMOC über die ERSST-Linie fallen. Dies wird auch von Huang, et al. bestätigt (Huang, et al., 2017).

Die für ERSST verwendeten 2°x2°-Zellen sind am Äquator 49.324 Quadratkilometer groß. Sobald der ERSST-Gitterprozess abgeschlossen ist und die Interpolationen, Extrapolationen und Ausfüllungen abgeschlossen sind, sind 10.988 Zellen von 11.374 Ozeanzellen gefüllt. Nur 3% sind Null, man vergleiche dies mit den 63% Null-Gitterzellenwerten in HadSST. Die Anzahl der Beobachtungen pro Zelle war in den Datensätzen, die ich von NOAA heruntergeladen habe, nicht verfügbar, aber das ist in ihrem Datensatz weniger wichtig, da sie einen komplizierten Gitteralgorithmus verwenden, um die Zellenwerte zu berechnen.

Die Begründung zur Erzeugung von SST-Anomalien

In den primären HadSST- oder ERSST-Referenzen wird keine Begründung für die Erstellung von SST-Anomalien angeboten, die ich gesehen habe. Sie nehmen es einfach kommentarlos in ihr Verfahren auf. Ein Grund, den wir uns vorstellen können ist, dass Anomalien es einfacher machen, die SSTs mit terrestrischen Aufzeichnungen zu kombinieren. Anomalien werden an Land aufgrund der Höhenunterschiede der Wetterstationen benötigt. Aber das hilft uns nicht bei unserer Aufgabe, die darin besteht, den durchschnittlichen globalen Ozeantemperaturtrend zu bestimmen. Landtemperaturen sind recht variabel, machen aber nur 29 % der Erdoberfläche aus.

In der WUWT-Diskussion zu meinem letzten Beitrag sagte Nick Stokes (sein Blog ist hier):
„Nur ein weiterer in einer endlosen Reihe von Gründen, warum man niemals absolute Temperaturen mitteln sollte. Sie sind zu inhomogen, und sie sind der Art und Weise ausgeliefert, wie auch immer Ihre Stichprobe ausgearbeitet wurde. Man mache das nicht, sondern man nehme zuerst die Anomalien. Sie sind viel homogener, und der ganze Kram mit Masken und fehlenden Gittern spielt keine Rolle. Das ist es, was jeder vernünftige Wissenschaftler tut.

Es stimmt also, dass die Durchschnittstemperatur schlecht definiert ist. Aber wir haben eine ausgezeichnete Vorstellung davon, ob sie sich erwärmt oder abkühlt. Das ergibt sich aus der durchschnittlichen Anomalie.“

Obwohl die Referenzperioden, 1961-1990 für HadSST und 1970-2000 für ERSST mit deutlich schlechteren und weniger konsistenten Daten berechnet wurden, als wir sie heute haben, sollen wir also immer noch Anomalien verwenden, weil sie homogener sind und weil „jeder vernünftige Wissenschaftler es tut“? Macht Homogenität die Anomalien genauer oder weniger genau? Nick sagt, dass Anomalien die Erkennung von Trends ermöglichen, unabhängig davon, wie sich das Gebiet oder die Messungen im Laufe der Zeit verändert haben. Aber die Anomalien mischen Post-Argo-Daten mit Prä-Argo-Daten.

Wie wir im letzten Beitrag gesehen haben, zeigen die Anomalien einen steigenden Temperaturtrend, aber die Messungen, gewichtet mit den Argo- und Driftbojendaten um das 6,8-fache, zeigen einen sinkenden Temperaturtrend. Was sollen wir glauben? Die neueren Messungen sind eindeutig genauer. Huang, et al. nennen die Argo-Daten „einige der besten verfügbaren Daten“. Warum werden diese guten Daten absichtlich herabgestuft, indem minderwertige Referenzmittel von den Messungen subtrahiert werden?

Nick erklärt, dass die Anomalien einen steigenden Temperaturtrend zeigen, weil sich seiner Meinung nach das Klima tatsächlich erwärmt. Er glaubt, dass die gemessenen Temperaturen eine Abkühlung zeigen, weil sich die Abdeckung der kalten Regionen mit der Zeit verbessert und dies einen künstlichen Abkühlungstrend erzeugt. Der Abkühlungstrend ist in Abbildung 1 zu sehen, die eine Darstellung der gemessenen HadSST- und ERSST-Temperaturen über derselben Ozeanregion zeigt. Nur 18% der Weltozeanzellen, im Jahr 2018, sind in Abbildung 1 dargestellt, hauptsächlich in den mittleren Breiten. Die in Abbildung 1 dargestellte Ozeanfläche ist viel größer als 18 %, da die fehlenden nördlichen und südlichsten Zellen kleinere Gebiete abdecken.

Abbildung 1. Die ERSST- und HadSST-Aufzeichnungen über dem gleichen Ozeangebiet. Beide zeigen sinkende Ozeantemperaturen. Die Linien der kleinsten Quadrate dienen nicht dazu, Linearität zu demonstrieren, sondern nur dazu, eine Steigung zu berechnen. Beide Trends liegen bei etwa -3,5 Grad C pro Jahrhundert.

Der Plot unten zeigt fast den gesamten Ozean, unter Verwendung des ERSST-Gitters, das nur 3% Nullzellen hat. Die Zellen sind größtenteils mit interpolierten und extrapolierten Werten gefüllt. Die gemessenen Temperaturen sind stark gewichtet zugunsten der hochwertigsten Argo- und Bojenmessungen.

Abbildung 2. Wenn wir die ERSST-Gittertechnik der NOAA verwenden, sehen wir einen leicht steigenden Trend bei den Oberflächentemperaturen, etwa 1,6 Grad C pro Jahrhundert.

Der ERSST-Trend von 1,6 Grad pro Jahrhundert liegt nahe dem Trend, der in den HadSST- und ERSST-Anomalien zu sehen ist, wie aus Abbildung 3 hervorgeht:

Abbildung 3. Die HadSST- und ERSST-Anomalien wurden auf den gleichen Bezugszeitraum verschoben.

Nick hat also einen Punkt. Abbildung 2 zeigt den ERSST-Trend, der größtenteils aus extrapolierten und interpolierten Daten besteht, aber fast den gesamten Ozean repräsentiert. Er zeigt eine Erwärmung von 1,6°/Jahrhundert. Dies liegt nahe an den 1,7°C/Jahrhundert, die von den HadSST-Anomalien und den ERSST-Anomalien gezeigt werden. Die eigentliche Frage ist, warum die HadSST-Anomalien, die dieselben Daten wie in Abbildung 1 verwenden und dasselbe Ozeangebiet abdecken, zunehmen? ERSST ist konsistent zwischen den Messungen und den Anomalien und HadSST ist es nicht, wie ist das passiert? Nick würde sagen, es ist die kontinuierliche Hinzufügung von polaren Daten, ich bin mir da nicht so sicher. Die Anzahl der besiedelten ERSST-Zellen nimmt nicht viel zu, und sie tendiert auch im HadSST-Gebiet nach unten.

Es ist wahrscheinlicher, dass sich die von HadSST abgedeckte Ozeanfläche abkühlt und der globale Ozean sich leicht erwärmt. Wenn das CO2 die Erwärmung verursacht und global ansteigt, warum nehmen dann die Temperaturen der Ozeane in den mittleren und niedrigen Breiten ab und die Polarregionen erwärmen sich? Siehe den letzten Beitrag, um Karten des Teils der Ozeane zu sehen, der von HadSST abgedeckt wird. Eine der Karten aus diesem Beitrag ist in Abbildung 4 dargestellt. Die weißen Bereiche in Abbildung 4 haben keine Werte im HadSST-Gitter, dies sind die Bereiche, die nicht zu Abbildung 1 beitragen. Das farbige Gebiet in Abbildung 4 zeigt eine abnehmende Ozeantemperatur.

Abbildung 4. Der farbige Bereich enthält Werte, diese Werte sind in Abbildung 1 eingezeichnet. Die weißen Bereiche enthalten keine Werte.

Erkennen wir durch die Verwendung von Anomalien einen zugrunde liegenden globalen Trend? Oder verdecken die Anomalien eine zugrunde liegende Komplexität? Man betrachte die zusätzlichen Informationen, die wir durch die Verwendung der tatsächlichen Temperaturen aufgedeckt haben. Ein Großteil des Ozeans kühlt sich ab. Global gesehen erwärmt sich der Ozean vielleicht um 1,6 bis 1,7 Grad pro Jahrhundert, kaum etwas, worüber man sich Sorgen machen müsste.

Ein weiterer zu berücksichtigender Faktor ist, dass die Anzahl der HadSST-Beobachtungen von 2000 bis 2010 stark gestiegen ist, nach 2010 sind sie einigermaßen stabil. Dies ist in Abbildung 5 zu sehen. Der Temperaturrückgang in Abbildung 1 ist jedoch sehr gleichmäßig.

Abbildung 5. Gesamte HadSST-Messungen nach Jahren

Schlussfolgerungen

In einem Punkt sind sich alle einig: Der Trend der Meeresoberflächentemperatur ist die wichtigste Einzelvariable bei der Messung des Klimawandels. Es sollte richtig und mit den besten Daten gemacht werden. Die Verwendung von minderwertigen Daten aus dem 20. Jahrhundert, um Anomalien zu berechnen, erzeugt einen Trend, der mit dem ERSST-Gitter übereinstimmt, was eine vernünftige Schätzung dessen ist, was global passiert, aber es gibt so viel Interpolation und Extrapolation in der Schätzung, dass wir nicht sicher sein können. Der Teil des Ozeans, für den wir genügend Daten haben, das HadSST-Gebiet, zeigt einen abnehmenden Trend. Das ist etwas, was man bei der Verwendung von Anomalien nicht sieht. Der abnehmende Trend ist auch in den ERSST-Daten über dem gleichen Gebiet zu sehen. Dies deutet darauf hin, dass es sich nicht um die Hinzufügung von neuen polaren Daten im Laufe der Zeit handelt, sondern um einen echten Trend für diesen Teil des Weltozeans.

Wahrscheinlich steigt die SST des gesamten Ozeans leicht an, mit der unauffälligen Rate von etwa 1,6°C/Jahrhundert. Dies zeigt sich in den Anomalien und in der ERSST-Darstellung. Aber dies ignoriert die offensichtliche Komplexität des Trends. In dem Teil des Ozeans mit den besten Daten sinkt die Temperatur. Unterm Strich wissen wir nicht sehr viel darüber, was die Ozeantemperaturen tun und wo es passiert. Da der Trend der Ozeantemperatur die wichtigste Variable bei der Feststellung des Klimawandels ist, wissen wir auch nicht viel über den Klimawandel. Nick hatte Recht, dass Anomalien in der Lage waren, den wahrscheinlichen Trend herauszupicken, vorausgesetzt, dass ERSST korrekt ist, aber durch die Verwendung von Anomalien wurden wichtige Details verschleiert.

Link: https://wattsupwiththat.com/2020/12/20/sea-surface-temperature-anomalies/

Übersetzt von Chris Frey EIKE




Die Anti-Kernkraft-Bewegung von Kernkraft überzeugen

Es ist nun fünfundsiebzig Jahre her, dass die USA den Krieg gegen Japan beendeten, indem sie Atombomben auf Hiroshima und Nagasaki abwarfen (beide Städte florieren). Acht Jahre später lud Präsident Eisenhower in seiner weltberühmten Atoms for Peace“-Rede vor den Vereinten Nationen die Bürger zur Debatte über die Nutzung der Atomwissenschaft und -technologie zur Energiegewinnung ein.

Präsident Kennedy lenkte die Aufmerksamkeit der Nation von der Kernenergie auf das Raumfahrtprogramm, aber beginnend in der Regierung Nixon (und verstärkt nach dem Ölembargo von 1973) bis zum Three-Mile-Island-Zwischenfall im Jahr 1979 genehmigten die USA die meisten der 99 Kernreaktoren in 61 Anlagen, die 2017 noch in Betrieb sind.* Als Präsident Trump sein Amt antrat, veröffentlichte das Aspen Institute einen Bericht des Inhalts: „Die Kernenergie in den USA befindet sich in einer existenziellen Krise. Wenn die gegenwärtigen Herausforderungen nicht angegangen werden, könnte die Zukunft der Kernenergie weit weniger vielversprechend sein und die überlegene nukleare Kompetenz der USA geschmälert werden.“

[*Anmerkung: Präsident Obamas Clean Energy Plan stellte Mittel für die Kernenergie zur Verfügung, einschließlich der Schaffung des Gateway for Accelerated Innovation in Nuclear (GAIN). Und 2012 genehmigte die Nuclear Regulatory Commission (NRC) trotz der Einwände des Vorsitzenden den Bau und Betrieb von zwei neuen Reaktoren im Kernkraftwerk Vogtle in Georgia durch Southern Co., dem ersten in den USA seit 1979].

Der Aspen-Bericht behauptete kühn, dass die USA ein starkes inländisches Atomprogramm brauchen, um ihre außergewöhnliche Kompetenz in Fragen der Sicherheit, der Bedrohungsminderung und der Nichtverbreitung [von Kernwaffen] zu erhalten. Sie umwarben die Umweltschützer mit dem Hinweis, dass die Kernenergie ein notwendiger Bestandteil im Kampf gegen den Klimawandel ist, wenn wir auch eine angemessene Versorgung mit bezahlbarem Strom aufrechterhalten wollen. „Eine Welt ohne Kernkraft“, so die Aspen-Autoren, „würde eine unglaubliche – und wahrscheinlich unrealistische – Menge an erneuerbaren Energien erfordern, um die Klimaziele zu erreichen.“

Die Aspen-Autoren stellten weiter fest, dass die US-Öffentlichkeit die Kernkraft generell unterstützt, aber über den Atommüll besorgt ist. Schlimmer noch, viel zu viele Kernkraftwerke in der Entwicklung haben Budgets gesprengt und sind hinter den Zeitplan zurückgefallen. Angesichts des fehlenden politischen Willens oder einer nationalen Energiekrise zu dieser Zeit setzten die Autoren ihre Hoffnung darauf, dass fortschrittliche Reaktoren, die neue Arten von Kühlmitteln verwenden und die mit anderen Drücken und Temperaturen arbeiten oder kleiner und modularer sind, eine breite Zustimmung finden würden.

Atommüll wird heute als überbewertetes, unwissenschaftliches Thema angesehen. In einer Studie aus dem Jahr 2019 argumentiert der Treuhänder des Aspen-Instituts Bill Budinger dass die Angst vor Atommüll weitgehend unbegründet ist – ein Thema, das „gewaltig übertrieben wurde, als wir versuchten, die Menschen von der Atomkraft abzuschrecken.“ Die Gesamtmenge an Atommüll, die sich in den letzten 60 Jahren in allen US-Kernkraftwerken angesammelt hat, würde in ein zweistöckiges Gebäude passen, das einen Stadtblock einnimmtt. Und Kostenüberschreitungen und Verzögerungen sind größtenteils die Folge von Anti-Atomkraft-Einstellungen, die die Vorschriften-Flut auf die Spitze getrieben haben (und die für neuere Reaktorkonstruktionen unangemessen sind).

Im April 2020 stellte Präsident Trump seine „Strategy to Restore American Nuclear Energy Leadership vor, eine Initiative zur Wiederherstellung des lange verlorenen nuklearen Wettbewerbsvorteils der USA. Der erste in dem Plan skizzierte Schritt ist die Wiederbelebung und Stärkung der US-Uranbergbauindustrie, die Unterstützung von Uranumwandlung, die Beendigung der Abhängigkeit von ausländischer Urananreicherung und der Erhalt der aktuellen Flotte von Flugzeugträgern und U-Booten mit Atomantrieb.

Unter den vielen Zielen des Trump-Plans war die Schaffung einer Uranreserve, die Straffung der Vorschriftenflut und des Landzugangs für die Urangewinnung (Abbau von Bürokratie), die Unterstützung des National Reactor Innovation Center und des Versatile Test Reactors, die Demonstration der Verwendung von Small Modular Reactors (SMRs), Mikroreaktoren zur Stromversorgung von Bundeseinrichtungen und die Hinzufügung von Schutzmaßnahmen, um zukünftiges Uran-Dumping auf dem US-Markt zu verhindern. (Die vollständige Liste findet man hier.)

Im November berichtete die Associated Press, dass das Idaho National Laboratory die erste Wahl des Energieministeriums für den Bau und Betrieb des Versatile Test Reactor (VTR) ist. Dieser erste neue Testreaktor, der seit Jahrzehnten in den USA gebaut wird, würde der Nation eine dedizierte „Fast-Neutron-Spectrum“-Testkapazität geben. Energieminister Dan Brouillette erklärte, dass der VTR „weiterhin ein Projekt von hoher Priorität für das DOE ist, um sicherzustellen, dass die Kernenergie eine Rolle im Energieportfolio unseres Landes spielt.“

In der Zwischenzeit berichtete Llewellyn King im Oktober in Forbes, dass es eine aktive Gemeinschaft von Unternehmern gibt, die Reaktoren verschiedener Bauarten (einschließlich modularer Salzschmelz-Reaktoren SMRs) vorantreiben und dabei zum Teil Startkapital für SMRs nutzen, das durch das GAIN-Programm der Obama-Ära bereitgestellt wurde. Die Zunahme privater Investitionen in die Nukleartechnologie und -entwicklung ist ein starkes Zeichen dafür, dass die Kernenergie das durch die Medien verursachte Stigma von Three Mile Island, Tschernobyl und Fukushima endlich überwunden haben könnte.*

(*Anmerkung: Wie der indische Forscher Vijay Raj Jayaraj kürzlich berichtete [in deutscher Übersetzung beim EIKE hier], geschah der Unfall von Tschernobyl zum Teil aufgrund von vorsätzlicher Fahrlässigkeit bzgl. eines fehlerhaften Reaktors. Der Umweltschützer Michael Shellenberger wies kürzlich darauf hin, dass „die Strahlung von Tschernobyl höchstens 200 Menschen töten wird, während die Strahlung von Fukushima und Three Mile Null Menschen töten wird.“ Außerdem und trotz der Tatsache, dass Hunderttausende von Frauen ihre Babys nach dem Tschernobyl-Vorfall abgetrieben haben, fanden UCLA-Forscher, dass die Kinder, die in der Nähe von Tschernobyl geboren wurden, keine nachweisbaren Anomalien während ihrer Geburt aufwiesen.“)

Und gerade in der vergangenen Woche hat das Senate Committee on Environment and Public Works des US-Senats einen überparteilichen Gesetzesentwurf, den American Nuclear Infrastructure Act (ANIA), verabschiedet, der die Initiative von Präsident Trump zur Einrichtung einer nationalen strategischen Uranreserve in den USA vorantreibt. Der Gesetzesentwurf erhielt starke Unterstützung von Vertretern der Industrie, einschließlich Amir Adnani, CEO der Uranium Energy Corp.

Adnani sagte in einer Erklärung: „Der überparteiliche [American] Nuclear Infrastructure Act ist eine weitreichende Gesetzgebung, die wichtig für die Unterstützung der US-Kernkraftindustrie, die nationale Sicherheit und saubere Energie ist. Die Gesetzgebung wird einen klaren Weg für die Umsetzung der US-Uranreserve vorgeben und eine starke Plattform zur Wiederbelebung der US-Uranindustrie bieten.“

Unter ANIA darf das Energieministerium nur Uran kaufen, das aus Anlagen gewonnen wurde, die von der Nuclear Regulatory Commission oder gleichwertigen Behörden der Vertragsstaaten lizenziert sind. Der Bezug von Uran von Unternehmen, die Russland oder China gehören, von ihnen kontrolliert werden oder deren Gerichtsbarkeit unterliegen, wäre ausgeschlossen.

Nach Ansicht mehrerer Prognostiker wird die voraussichtliche Biden-Administration die von Präsident Obama begonnene und von Präsident Trump vorangetriebene Arbeit zur Wiederbelebung und Priorisierung des US-Atomenergieprogramms fortsetzen oder sogar beschleunigen. Der progressive Analyst James Conca schrieb während des Parteitags der Demokraten, dass der Hauptunterschied zwischen Trumps und Bidens Atompolitik lediglich darin bestehe, dass Bidens Politik Teil einer Klimawandel-Agenda sei, während Trumps Fokus auf den nationalen Sicherheitselementen der Krnenergie liege.

Laut Conca „sagen alle führenden Klimawissenschaftler, dass wir den Klimawandel nicht ohne einen signifikanten Ausbau der Kernkraft angehen können, also ist die Unterstützung der Kernkraft – oder auch nicht – ein klares Signal dafür, wie ernst es einem Kandidaten mit dem Klimawandel ist und wie ernst es ihm mit der Unterstützung der Wissenschaft gegenüber bloßem Aktivismus ist.“ Er betonte weiter: „wenn die Demokraten wollen, dass ein Plan für saubere Energie überhaupt erfolgreich ist, sollte er besser die Kernenergie einschließen.“

Auch Josh Siegel, der im Washington Examiner schrieb, stimmte zu, dass „Bidens Unterstützung für die Kernkraft … einer der seltenen Fälle von energiepolitischer Kontinuität zwischen der neuen und der alten Regierung zu sein verspricht.“ Siegel räumte auch ein, dass die Demokraten, die erkannt haben, dass Wind- und Solarenergie allein nicht ausreichen, um das Stromnetz zu dekarbonisieren, ihren langjährigen Widerstand gegen die Kernkraft größtenteils aufgeben.

Es gibt nur einen Vorbehalt. Sollte Kamala Harris aus irgendeinem Grunde Biden als Oberbefehlshaber ablösen, waren ihre Antworten während des Präsidentschaftswahlkampfes 2020 auf die Frage, ob sie die Kernenergie unterstütze, nicht so zuversichtlich. Mehrfach lautete ihre Antwort: „Ja, vorübergehend, während wir die Investitionen in sauberere erneuerbare Alternativen erhöhen.“
Nicht gerade eine klingende Bestätigung oder Anerkennung der wachsenden überparteilichen Energie-Realität.

Autor: Duggan Flanakin is the Director of Policy Research at the Committee For A Constructive Tomorrow. A former Senior Fellow with the Texas Public Policy Foundation, Mr. Flanakin authored definitive works on the creation of the Texas Commission on Environmental Quality and on environmental education in Texas. A brief history of his multifaceted career appears in his book, „Infinite Galaxies: Poems from the Dugout.“

Link: https://www.cfact.org/2020/12/17/nuking-the-anti-nuke-crowd/

Übersetzt von Chris Frey EIKE

 




Winter – der Erwärmungs­verweigerer?

Über die Januar-Abkühlung in höheren Luftschichten wurde bereits hier berichtet. Diese zeigt sich, wenngleich etwas schwächer, auch im Mittel der drei Wintermonate für ein größeres, etwa Mitteleuropa umfassendes Gebiet anhand der aerologischen Daten, welche der Amerikanische Wetterdienst (NOAA) weltweit bereitstellt:

Abbildung 1: Seit dem Klimasprung von 1987/88 erwärmten sich die bodennahen Luftschichten (grau, oben) noch minimal; aber schon in knapp 1.500 Metern Höhe (entspricht dem 850-hPa-Niveau) zeigt sich ein leichter (nicht signifikanter) Rückgang trotz des enorm milden, letzten Winters. Fast genauso sieht das auch in etwa 5.500 Metern Höhe aus (entspricht dem 500-hPa-Niveau, mittlere Troposphäre). Weil die Temperaturen in 5.500 Metern sehr niedrig sind, wurden ihre Werte durch einfache Addition um 22°C angehoben, damit sie mit den beiden anderen Höhenniveaus anschaulich in einer Grafik dargestellt werden konnten; der reale Trend verändert sich dadurch nicht.

Nun könnten kritische Leser einwenden, diese leichte Höhen-Abkühlung sei doch ohne Belang, da große Teile Mitteleuropas aus Tiefland bestehen. Doch halt – da sind ja noch die Gipfel unserer Mittelgebirge und die Alpen. Und wird in unseren Mainstream-Medien nicht stets unisono behauptet, wegen der immer stärkeren Winter-Erwärmung sei Wintersport bald schon unmöglich? Ein Blick auf die winterliche Temperaturentwicklung in den Bergen, stellvertretend hier Zugspitze und Sankt-Bernhard-Pass, zeigt das Gegenteil:

Abbildung 2: Seit nun schon 33 Jahren wird es im höheren Bergland etwas kälter.

Die fehlende Winter-Erwärmung blieb keinesfalls nur auf Mitteleuropa beschränkt, was folgende Beispiele illustrieren:

Abbildung 3: Totalverweigerer Zentralengland: Während sich der Winter in Deutschland bodennah wenigstens noch minimal erwärmte, verläuft die Trendlinie in Zentralengland völlig eben, trotz stark steigender CO2-Konzentrationen (grün).

Abbildung 4: Die ländliche, in den Appalachen gelegene Station Dale Enterprise erwärmte sich ebenfalls nicht.

Abbildung 5: Sapporo auf Hokkaido, ehemaliger Ausrichter der Olympischen Winterspiele, zeigt eine minimale Winter-Abkühlung.

Abbildung 6: Auch in Östersund/Mittelschweden am Ostabhang des Skandinavischen Gebirges blieben die Wintertemperaturen unverändert.

Den sprichwörtlichen Vogel aber schießt eine Station ab, an der momentan Sommer herrscht – Neumayer in der Antarktis. Im dortigen Südwinter (Juni bis August) ist eine markante, signifikante Abkühlung zu verzeichnen – aber in unserer öffentlich-rechtlichen Medienlandschaft verliert man darüber kein Sterbenswörtchen, obwohl der Winter 2020 mit minus 28,5°C dort der kälteste seit Aufzeichnungsbeginn im Jahre 1985 gewesen ist:

Abbildung 7: Signifikante Winter-Abkühlung an der von Deutschland betriebenen Neumayer-Station in der Antarktis.

Also keine Winter-Erwärmung nicht nur in weiten Teilen West-, Mittel- und Nordeuropas schon seit über drei Jahrzehnten, sondern in höheren Luftschichten gar leichte Abkühlung, und auch andernorts stagnierende oder gar fallende Wintertemperaturen. Man sollte das Ganze nicht überbewerten und deshalb muss auch keine neue Eiszeit ausgerufen werden, aber man fragt sich schon, warum in unseren ideologisch verblendeten, mit Zwangsgebühren finanzierten Medien darüber nicht berichtet wird.




Quantifizierung des marginalen anthropogenen CO2-Gehaltes in der Atmosphäre – ein seit Jahrzehnten überfälliger Schritt

Die Vernachlässigbarkeit der 4,7 ppm/a wird bei einem Bezug auf den Gesamt-CO2-Gehalt in der Atmosphäre von 410 ppm vollends deutlich.
Maßnahmen zur Absenkung des anthropogenen CO
2-Anteiles sind daher wertlos.
Das Verglühen der Erde durch einen anthropogenen CO
2-Anstieg (Modellrechnungen IPCC) gehört in den Bereich der Fabeln.

1. Einleitung
Seit den 1980er Jahren wird den Menschen durch die vom „Intergovernmental Panel on Climate Change“ (IPCC) der Vereinten Nationen entwickelten Modelle über die tödliche Wirkung des vom Menschen verursachten CO2-Gehaltes in der Atmosphäre auf das Klima bis hin zum Verglühen der Erde bei weiter ansteigenden CO2-Gehalten Angst eingejagt.
Es zeigte sich aber sehr bald, dass die Modelle nicht mit der Realität übereinstimmten.
Dennoch wurden weltweit – insbesondere in Deutschland – Maßnahmen zur Absenkung des anthropogenen CO
2-Ausstosses massiv ergriffen wie der Bau von Windanlagen, Solaranlagen, etc. mit erheblichen Kosten.
Ein Einfluss des CO
2– Gehaltes in der Atmosphäre auf den sog. „Treibhauseffekt“ konnte nie nachgewiesen, zudem der Anteil des anthropogenen CO2-Gehaltes nicht quantifiziert werden.

2. Einfluss der anthropogenen CO22-Einträge in die Atmosphäre auf die CO2-Gehalte
Die Atmosphäre enthält z.Z. etwa 410 ppm CO2 (0,041%). Über das Gewicht der Atmosphäre errechnen sich 3190 Giga Tonnen (Gt) CO2 bzw. 870 Gt C in der Atmosphäre. 1 ppm CO2 entspricht dann bei vollkommener Durchmischung von CO2 in der Atmosphäre (vgl. später) bilanzmäßig 2,12 GtC. (1)
Es wird bisher davon ausgegangen, dass es einen jährlichen CO
2-Kreislauf von etwa 210 GtC gibt, der sich in 2020 wie folgt zusammensetzt (Spalte 1,2):

Entsprechend dieser Aufstellung in Tafel 1 ordnet sich der prozentuale Wert von 4,7% (Spalte 2) für den anthropogenen Anteil gut in die im Schrifttum genannten Werte von 4-5% ein.
Abgesehen von dem messbaren menschlichen Einfluss über die fossile Verbrennung sind die physikalischen, chemischen und biologischen Prozesse, die den CO
2-Kreislauf steuern, jedoch äußerst komplex und nicht messbar und daher nur unsicher zu quantifizieren. Außerdem wird bei dieser Betrachtung der einzelnen Komponenten des CO2-Kreislaufes nur ein Anteil von 210 GtC bei einer gesamten Kohlenstoffmenge von 870 GtC berücksichtigt.
Aus diesen Gründen ist eine Betrachtung des CO
2-Kreislaufes nur unter Einbeziehung ausschließlich messbarer Größen wie die gemessenen CO2-Gehalte der Atmosphäre in ppm sowie das Gewicht der Atmosphäre zwingend erforderlich.
Daher werden in
Tafel 1 in Spalte 3 die einzelnen Kreislaufkomponenten auch auf die Gesamt – Kohlenstoffmenge der Atmosphäre von 870 GtC sowie die gemessenen CO2-Konzentrationen in der Atmosphäre von 410 ppm CO2 bezogen (Spalte 3).
In
Tafel 2 werden nun die verschiedenen Teilnehmer des CO2-Kreislaufes auf den Gesamt – CO2– Gehalt der Atmosphäre nämlich 410 ppm sowie 0,041% CO2 bezogen, um den anthropogenen CO2-Anteil in der Atmosphäre sichtbar machen zu können:

Tafel 2

Die über die fossilen Brennstoffe in die Atmosphäre eingebrachten CO2-Mengen liegen dann in 2020 mit 4,7 ppm/a bzw. 0,00047%/a vernachlässigbar niedrig bei einem Gesamtgehalt von 410 ppm bzw. 0,0410%.

3. Beweis für die kurzzeitige komplette Durchmischung des anthropogenen CO2-Ausstoßes mit der Atmosphäre als Beweis für die Richtigkeit der Einbeziehung der gesamten CO2– Menge der Atmosphäre in die durchgeführten Überlegungen.

Das Maß aller Dinge für die Diskussion der Entwicklung der CO2-Gehalte in der Atmosphäre sind die seit 1958 durchgeführten CO2-Messungen auf dem Vulkan Mauna Loa auf Hawaii, die sog. genannte Keeling-Kurve, sowie die inzwischen u.a. auch in Alaska und Tasmanien durchgeführten Messungen (Bild 1). (2)

Bild 1: CO2-Messungen Alaska, Mauna Loa (Hawaii) und Tasmanien

Die Messungen auf Mauna Loa und Alaska zeigen starke Schwankungen der gemessenen CO2-Gehalte mit einem Maximum jeweils im Mai und einem Minimum im September.
Dabei zeigen die Messstellen in hohen Breiten der nördlichen Hemisphäre in Alaska eine viel größere Amplitude als auf Mauna Loa auf Hawaii. Diese Schwankungen sind auf den Einfluss der Biosphäre (Photosynthese, etc.) zurückzuführen.
Die kurzzeitigen unterschiedlichen jährlichen Schwankungen der CO2-Gehalte und der dennoch gleiche Anstieg der mittleren CO2-Gehalte aller Messstellen weisen auf eine unmittelbare komplette Durchmischung des CO2-Gases mit der Atmosphäre hin.
Im Übrigen wird die Verweilzeit von CO2 in der Atmosphäre allgemein bei etwa 4 Jahren gesehen. (3)
Die NOAA, die für die Messungen verantwortlich zeichnet, schätzt die Zeitverzögerung zwischen CO2-Emissionen und der Messung auf Mauna Loa auf wenige Wochen.

4. Berechnung der zeitlichen Entwicklung des anthropogenen CO2-Anteiles in der Atmosphäre von 1870 bis 2020

Tafel 3 zeigt auszugsweise die weltweite zeitliche Entwicklung des anthropogenen CO2– Ausstoßes von 1870 (vorindustrielle Zeit) bis 2020:

Tafel 3

Lag in 1870 der weltweite CO2-Ausstoß noch bei 1 Gt CO2/a, so stieg der Wert in 2020 auf 37 Gt CO22/a (10,1 GtC/a) an.
Wie bereits erwähnt, führt die in 2020 in die Atmosphäre gelangende anthropogene CO2-Menge von 37 Gt CO2/a zu einem CO2-Anstieg in der Atmosphäre von 4,7 ppm/a (0,000 47%/a) bei einem Gesamt-CO2-Gehalt von 410 ppm (0,0410%).

5. Darstellung des CO2-Zuwachses aus dem anthropogenen CO2-Eintrag von 1870 bis 2020 mit den gemessenen CO2-Gehalten der Atmosphäre

In Bild 2 sind nun die nach (4) und die auf Mauna Loa gemessenen CO2-Gehalte sowie die Temperaturanstiege nach Aussagen von HADCRUT4 von 0,85°C (1969-2020) sowie (1) bis 2020 dargestellt.
Zudem wurden die in
Tafel 3 auf der Basis der anthropogenen CO2-Einträge in die Atmosphäre von 1870 bis 2020 und die daraus errechenbaren CO2-Anstiege in der Atmosphäre dargestellt.

Bild 2: Anteil des anthropogenen CO2-Gehaltes in der Atmosphäre


Der CO2-Anstieg durch die anthropogen eingebrachte CO2-Menge führt – wie in Tafel 2 bereits dargestellt – in 2020 zu einem CO2-Anstieg von nur 4,7 ppm/a und ist gemessen an dem durch die Temperaturerhöhung der Atmosphäre wie der Meere verursachten CO2-Anstieg praktisch vernachlässigbar.
Das bedeutet zusammen gefasst für 2020:
– CO
2-Anstieg durch Temperaturerhöhung: 115 ppm (95,8%)
– CO
2-Anstieg durch anthropogene Maßnahmen: 4,7 ppm (4,2%).
Es verwundert nun auch nicht mehr, dass die durch die Corona-Krise um 17% vermindert eingebrachte CO
2-Emissionen in die Atmosphäre messtechnisch nicht nachgewiesen werden konnten. (1)
Die Maßnahmen zur Absenkung des anthropogenen CO
2-Gehaltes zur Beeinflussung des Klimas sind daher völlig wertlos.
Das gilt für Deutschland umso mehr, da der anthropogene Anteil Deutschlands am weltweiten bei 2% von 4,7 ppm/a oder 0.09 ppm/a bzw. 0,000 009%/a in der Atmosphäre liegt, eine in Deutschland mit mehreren Billionen € belastete CO
2-Spur. (5)
Aus Gründen der Vollständigkeit ist noch darauf hinzuweisen, dass das IPCC von der absurden Vorstellung ausgeht, dass der Abbau der anthropogenen Emissionen in der Atmosphäre Hunderte von Jahren dauert, womit dem „CO
2 anthropogen“ die Fähigkeit abgesprochen wird, sich wie das „CO2 thermisch“ an den chemischen Umsetzungen der Biosphäre wie z.B. der Photosynthese zu beteiligen.
Insgesamt wurden seit der Industrialisierung in 1870 etwa 2 000 Gt CO
2 anthropogen freigesetzt. Das „Pariser Abkommen“ sieht eine Begrenzung des Anstieges der Temperatur von 1,5°C bei einem anthropogenen CO2-Ausstoß von 3 000 Gt CO2, einen Grenzwert von 2°C bei 4 000 Gt CO2.
6. Schlussbetrachtung

Bei dem gegebenen CO2-Anteil in der Atmosphäre von 4,7 ppm/a in 2020 werden vom IPCC Modellrechnungen zum Einfluss von anthropogenem CO2 auf die Temperaturentwicklung bei Verdopplung des Gesamt-CO2-Gehaltes in der Atmosphäre angestellt (ausgehend von 280 ppm CO2 in der vorindustrialisierten Zeit). Das ist meilenweit entfernt von dem weitweiten anthropogen verursachten CO2– Anstieg von 4,7 ppm/a – ein Verglühen der Erde durch anthropogenes CO2 nach den Aussagen des IPCC gehört demnach in den Bereich der Fabeln.
Auf den Aussagen des IPCC zum Verglühen der Erde bei weiter ansteigenden CO
2-Gehalten aufbauend entschied sich Deutschland für eine Energiewende, die ohne Stromspeicher nicht funktionieren kann. Zudem kostet die Energiewende nach Berechnungen einiger Institute etwa 6-7 Billionen €. (5)
Aber weder die vernachlässigbaren weltweiten anthropogenen CO
2-Gehalte von 4,7 ppm/a – geschweige denn die 0,09 ppm/a Deutschlands – noch die Nichtfunktionalität der Energiewende halten Deutschland davon ab, die Atomkraftwerke bis 2022, die Kohlekraftwerke bis 2038 stillzulegen.
Da Einigen dieser Weg nicht mehr gangbar erscheint, wird nun eine neue Sau durch´s Dorf getrieben: Die „Wasserstoff-Strategie“ .
Aber alleine für die Umstellung der Verbrennungsmotoren auf H2-Technologie müsste die Stromleistung von z.Z. etwa 60-80 GW um mindestens 135 GW erhöht werden. (6)
Im „Sektor Verkehr“ wird der Kraftstoff verteuert, im „Sektor Strom“ liegen in 2020 die EEG-Kosten für die alternativen Energien einschließlich der Ausgaben für „Engpassmanagement“, „Offshore-Umlage“ sowie „KWK-Umlage“ bei inzwischen 35 Mrd.€/a – mit dem Ergebnis des Anstieges des Strompreises auf 32 ct./KWh.
Die EEG-Umlage in 2020 liegt bei 6,765 ct./KWh, die zum Jahreswechsel mit 10,8 Mrd.€ auf 6,5 ct./KWh abgesenkt werden soll, 12 Monate später auf 6,0 ct./KWh.
Dabei haben sich die EEG-Kosten in 2020 auf 9,651 ct./KWh erhöht, die dann auf 6,0 ct./KWh heruntergebracht werden sollen.
Das wird dann das finanzielle Ende des begonnenen Kulturkampfes werden, mit Stromausfällen und nicht mehr bezahlbarem Strom – der Weg ins Mittelalter.
Zu diesem Drama gehört auch noch, dass der „Sektor Strom“ nur ein Teil von knapp 40% des deutschen „Primärenergieverbrauches“ ausmacht, der alle „Sektoren“ umfasst.
Die Ökoquote in diesem „Primärenergieverbrauch“ liegt z.Z. bei nur 17% (davon 50% Biomasse, 25% Wind, 10% Solar) („Arbeitsgemeinschaft Energiebilanzen“, letzter Quartalsbericht), ein hoffnungsloser Weg bis 100% in 2050.
Quellen
1. Beppler, E.: „Zur Fragwürdigkeit der Gründe für den angeblichen anthropogenen CO
2-Anstieg in der Atmosphäre und seinen möglichen Einfluss auf das Klima“, EIKE, 18.10 2020
2. Schönfeld, Ch.: „Der globale Kohlenstoff-Haushalt: schöne Zahlen, vorgetäuschtes Vertrauen, aber höchst fragwürdig“, EIKE, 13.06.2020
3. Harde, H.: https://dx.doi.org/10 1016/j. glopacha.2017.02.009
4. Döhler, K.D.: „Sonnenzyklen, globale Temperatur und atmosphärische CO2-Konzentrationen seit Beginn der Industrialisierung“, EIKE, 04.09.2020
5. Beppler, E.: „Der industrielle Niedergang Deutschlands wird nun durch den Beschluss des Bundestages zum Kohleausstieg besiegelt, obwohl die Wirkung von CO
2 auf den sog. „Treibhauseffekt“ marginal ist“, EIKE, 26.03.2020
6. Beppler,E.: „Der Stoff hat das Zeug zu einem Hollywoodstreifen (BWMi, Juni 2020). Die „Nationale Wasserstoff-Strategie“ soll u.a. die Energiewende retten, die Mobilität über Wasserstoff betreiben: eine quantitative Energiebetrachtung zu einer Wasserstoff-Illusion“, EIKE, 30.07.2020




Does Trapping Running Make Running Run Faster?

1. Das von Satelliten gemessene Absorptions-Spektrum von CO2 beweist, dass Wärme „eingeschlossen“ ist.

Wir wissen, dass es ihre primäre Taktik ist, die Sprache der Thermodynamik zu missbrauchen, wie es hier getan wird. Da Wärme ein vorübergehendes Phänomen ist, wenn Energie über die Grenze einer kühleren Oberfläche im Vergleich zur Oberfläche der Energiequelle übertragen wird, hat diese Aussage keine erkennbare Bedeutung. Aus dem 1. Gesetz, dU = H + W, sehen wir, dass Wärme (H) mit Arbeit (W ) identisch ist, da sie zusammen addiert auftreten. Die Arbeit, die die Wärme verrichtet, besteht in der Erhöhung der Bewegung, in der Beschleunigung der thermischen Schwingungen, der kühleren Oberfläche. Die Wärmeübertragung steht in direktem Zusammenhang mit der erhöhten Bewegung auf der mikroskopischen Skala der Moleküle des kühleren Objekts, so wie wir normalerweise an Arbeit denken, wenn wir etwas bewegen.

Was würde also „Arbeit einschränken“ bedeuten? Wenn überhaupt, könnte es möglicherweise bedeuten, die Arbeit zu stoppen, die ausgeführt wird? Das wäre unwirksam, da es sich um das Aufhören von etwas handelt, das stattfindet. Oder bedeutet es, die Bewegung, die die Arbeit gemacht hat, „einzufangen“? Auch das wäre unwirksam, da die Bewegung ja trotzdem ausgeführt wurde.

Aber genau das ist die Absicht der Sophisterei: Begriffe zu kreieren und Konzepte zu implizieren, die keinen Bezug zur Realität und überhaupt keine rationale Bedeutung haben. Es gibt so etwas wie „gefangene Wärme“ nicht und auch keine Möglichkeit zu interpretieren, was es tatsächlich bedeuten würde. Der Wärmestrom ist spontan und flüchtig und stellt die Leistung von Arbeit dar, die auf molekularer Ebene verrichtet wird – es bedeutet nichts zu sagen, dass man dies „einfangen“ kann; es ist so, als würde man sagen, dass wir „Laufen einfangen“ können, oder dass wir „Schwimmen einfangen“ können, oder dass wir „Tippen einfangen“ können. Wärme ist kein Substantiv, sie ist ein Verb, genauso wie Arbeit ein Verb ist. Dies ist der Grund, warum im Ersten Gesetz Wärme und Arbeit gleichgesetzt werden mit einem Delta, d.h. mit einer ÄNDERUNG, der dU, also einer Änderung der inneren Energie.

Wenn man jemals wieder einem begegnet, der von „Wärme einfangen“ spricht (das ist natürlich eine Konstante), dann frage man ihn, wie man „Laufen“ einfängt. Wärme ist eine Aktion von Energie, nicht Energie selbst, und Energie kann diese Aktion nur durchführen, wenn sie genügend Potential hat. Das ist genau wie bei der Arbeit: Energie kann aufgewendet werden, um etwas zu bewegen, aber wenn es keine Bewegung gibt, weil die Energie nicht stark genug ist, dann wird auch keine Arbeit verrichtet. Natürlich versucht man deshalb, alle Energie mit Wärme gleichzusetzen, aber das ist identisch mit der Aussage, dass ein Schuh dasselbe ist wie Laufen. Energie ist ein Substantiv, ein Objekt; Wärme (und Arbeit) ist ein Verb, eine Aktion.

Was das Absorptionsspektrum angeht: Das bedeutet, dass entweder IR-Energie resonant gestreut wurde, da CO2 bereits durch intermolekulare Kollisionen schwingungsaktiviert ist, und/oder dass das CO2 die Energie absorbiert hat und dadurch „erwärmt“ wurde. Im letzteren Fall würde das Absorptionsspektrum bei den CO2-Wellenlängen darauf hinweisen, dass die Wärme tatsächlich übertragen und nicht „eingefangen“ wurde. Es ist natürlich nichts falsch daran, dass die wärmere Oberfläche die kühlere Atmosphäre erwärmt, und dies ist NICHT der Treibhauseffekt, von dem die Alarmisten fortwährend sprechen.

2. Die Zunahme des „effektiven Strahlungs-Nivaus“ durch mehr CO2 führt zu Erwärmung.

3. IR-Kameras wie FLIR belegen den Gegenstrahlungs-Effekt.Diese können zusammengehen, weil sie sich sofort widersprechen.

Wie wir wissen, ist es wiederum ihr Ziel, eine Sprache zu schaffen, die keinen rationalen Sinn hat und die sich ständig selbst widerspricht. Das meiste ihres Ziels scheint nur zu sein, das Denken zu verwirren… was natürlich ein Schritt auf dem Weg zu ihren Zielen ist, Pseudowissenschaft zu implementieren, um sie dann für die politische Kontrolle zu verwenden, usw.

Wird die Erwärmung durch den Treibhauseffekt durch 2 oder 3 verursacht? Welcher davon ist es? Das sind unterschiedliche Mechanismen. Typischerweise wird ihr Treibhauseffekt zuerst über 3 beschrieben. Die Zahl 3 sagt aber nur aus, dass die Atmosphäre eine Temperatur hat. Wir können mit FLIR die Temperatur eines Eiswürfels aus der Ferne messen. Wie ein Eiswürfel ist auch die Atmosphäre lediglich ein passives Objekt, das durch eine vorher durchgeführte Erwärmung irgendwie eine Temperatur erreicht hat. Durch welchen Prozess hat die Atmosphäre ihre Temperatur erhalten? Natürlich: von der Sonne. Aus der Ferne zu erkennen, dass ein Objekt eine Temperatur hat, bedeutet nicht, dass das Objekt in der Lage ist, einem wärmeren Objekt die Leistung von Wärme zu liefern.

Das atmosphärische Gas in Anwesenheit eines Gravitationsfeldes und einer harten Oberfläche am Boden sortiert sich dann selbst so, dass der durchschnittliche thermische Energiezustand irgendwo in den mittleren Regionen zu finden ist: Es ist mathematisch unmöglich, dass der durchschnittliche thermische Zustand der Atmosphäre entweder ganz unten in der Atmosphäre oder ganz oben zu finden ist, *obwohl* der größte Teil der Erwärmung der Atmosphäre am Boden über die Konduktion mit der vom Sonnenlicht erwärmten Oberfläche stattfindet. Aufgrund der Schwerkraft, weil es sich um ein freies Gas handelt, und aufgrund der statistischen Mechanik (Mathematik) muss der durchschnittliche thermische Zustand der Atmosphäre um den Durchschnitt der Atmosphäre herum gefunden werden, d. h. um die mittleren Höhen (der Troposphäre).

Dies geht nun zu 2, indem die einzige Möglichkeit, die Höhe des durchschnittlichen thermischen Zustands der Atmosphäre zu erhöhen, darin bestünde, *mehr Atmosphäre* zu haben. Das ist der Grund, warum Nikolov und Zeller ihre Lösung bestimmt haben, dass die oberflächennahe Lufttemperatur nur eine Funktion der Solarkonstante und der Masse der Atmosphäre ist.

Wie man also sieht, erfinden die Alarmisten eine Sprache und Begriffe, die undefinierbar und unverständlich sind, und die nicht mit den grundlegenden mathematischen Gesetzen übereinstimmen, usw. Mit anderen Worten, sie lügen und sophistizieren einfach, weil sie damit durchkommen, weil nur wenige Menschen auf der Welt die Fähigkeit haben, ihre Aussagen zu analysieren und zu dekonstruieren. Das Wunder ist, dass sie die Unterstützung der Medien sowie einiger Regierungen und die Finanzierung durch NGOs haben, welche beabsichtigen, mit ihrer Sprache der Öffentlichkeit Sand in de Augen zu streuen. Das belegt, dass hier eine ganze und sehr gut durchdachte Kampagne im Spiel ist.

Wenn man schließlich über „Trapping“ sprechen möchte, dann sollten wir über das Einfangen der von einer Oberfläche ausgehenden Wärmestrahlung sprechen. Die Emissions-Fähigkeit einer Oberfläche wird als „Emissionsgrad“ bezeichnet. Der Emissionsgrad ist eine natürliche Eigenschaft einer Oberfläche und kann nicht aus der Ferne verändert werden. Wenn ein Objekt jedoch einen niedrigen Emissionsgrad hat, dann ist seine Fähigkeit, Energie thermisch abzustrahlen, tatsächlich „gefangen“, und das Objekt steigt dadurch in seiner Temperatur bis zu dem Punkt, an dem ihm Energie zugeführt werden muss. Das ganze Prinzip der Treibhausgase ist, dass sie gute Emittenten sein sollen, um Energie abzustrahlen, und dass sie ihre Energie in den Weltraum und auch zurück an die Oberfläche abstrahlen sollen. Nicht-THGs haben jedoch ein schlechtes Emissionsvermögen und strahlen ihre Energie weder in den Weltraum noch zurück an die Oberfläche. Wenn also ein Gas Energie in den Weltraum abstrahlen kann, ein anderes aber nicht, welches Gas erleichtert dann den Energieverlust und welches Gas erleichtert das Einfangen von Energie? Vermeintliche Treibhausgase müssen dazu dienen, zu kühlen, da sie emittieren können, während Nicht-THGs bereits dazu dienen, thermische Energie festzuhalten und einzufangen. Dies ist also nur ein weiteres Beispiel für die logischen und philosophischen und wissenschaftlichen Umkehrungen, die durch die Flat-Earth-Treibhaustheorie entstehen.

Ich nehme an, der korrekte Titel, um ganz im Einklang mit der alarmistischen Pseudowissenschaft zu sein, wäre: „Does trapping running make shoes move faster?“ [Etwa: Macht das Einfangen des Laufens die Schuhe schneller?]

„Laufen einfangen“ ist natürlich „Wärme einfangen“. „Schuhe bewegen sich schneller“ ist natürlich „höhere Temperatur“. Das heißt: „Lässt das Einfangen von Wärme die Temperatur steigen?“

Aber der von mir verwendete Titel ist eingängiger.

„Lässt das Einfangen von Wärme die Temperatur steigen?“ klingt doch völlig plausibel, oder nicht?

Does trapping running make shoes move faster?“ klingt wie Kauderwelsch … was das Vorhergehende natürlich thermodynamisch gesehen auch ist.

Übersetzt von Chris Frey EIKE




Klimawandel: Haben die Länder ihre Versprechungen gehalten?

Autor Matt McGrath zeigt eine Graphik für jedes dieser „Länder“:

Da ich wusste, dass Matt McGraths Einschätzung sehr politisch geprägt sein würde, war meine Erwartung ein „OK“ für die EU und China, ein „gescheitert“ für Australien und ein „Weiß nicht“ für Großbritannien und die Philippinen. Warum wurden Australien und die Philippinen einbezogen und nicht viel bedeutendere CO2-Emittenten wie Indien oder Japan? Der Grund für die Einbeziehung Australiens ist ziemlich offensichtlich – ein Zweck des Artikels war es, Australien schlecht aussehen zu lassen (man bedenke, dass Australien von der jüngsten virtuellen „Klima“-Konferenz ausgeschlossen wurde, also ist es für Australien jetzt wichtiger denn je, schlecht auszusehen). Der Grund für die Aufnahme der Philippinen ist für mich weniger offensichtlich, vielleicht wollten sie ein kleineres Land in die Liste aufnehmen, damit Australien nicht offensichtlich in einer anderen Liga spielt als die anderen (hat jemand andere Vorschläge?).

Wenn wir uns diese Diagramme ansehen, was können wir erkennen?

1. Australien wurde „ohne Forstwirtschaft“ bewertet. Warum wurde die Forstwirtschaft ausgeschlossen? Bei den anderen wurde nichts ausgeschlossen. Nun, ich denke, die Antwort liegt hier:

[Australiens] Emissionen aus dem Landsektor sind zwischen 2005 und 2016 um 80% gesunken

{..} Die THG-Emissionen des Landsektors in Queensland sanken von 97,7 Millionen Tonnen Kohlendioxid-Äquivalent (MtCO2e) im Jahr 1990 auf 12 MtCO2e im Jahr 2016

(Ich habe nicht die Gesamtzahl von Australien, aber Queensland ist ein großer Teil). Matt McGrath wäre nicht in der Lage gewesen, Australien so schlecht aussehen zu lassen, wenn er das ganze Bild betrachtet hätte. Die Unehrlichkeit in gewissen Kreisen kennt keine Grenzen. Wahrscheinlich hat er eine ganze Weile gebraucht, um herauszufinden, wie er die Zahlen Australiens fälschen kann. Unter Einbeziehung der Forstwirtschaft wäre Australien das einzige der fünf Länder gewesen, das seine Ziele für 2020 und 2030 deutlich übertroffen hätte.

2. Die prozentuale und gesamte Änderung der CO2-Emissionen im Zeitraum 1990 bis 2019 betrug laut den Graphiken in etwa:

UK: –45% (–350 Mt)

Australien (ohne Forstwirtschaft): +30% (+135 Mt)

EU: –30% (–170 Mt)

China: +350% (+10.500 Mt)

Philippinen: +30% (+110 Mt)

Wenn man seekrank ist, sollte man auf die leeseitige (windabgewandte) Seite des Schiffes zu gehen, damit man nicht sein Erbrochenes ins Gesicht bekommt. Großbritannien und die EU haben sich mit ihren „Klima“-Bemühungen ziemlich kaputt gemacht, aber wenn man sich die Zahlen Chinas ansieht, muss man sich fühlen, als wäre man auf die Luvseite gegangen. Nur dass es nicht von einem selbst stammte, was man ins Gesicht bekommen hat.

Das BBC kam in seiner Abschätzung bzgl. der fünf „Länder“ und deren Versprechungen zu folgender Einschätzung:

UK: „überwiegend ja“

Australien: „Nicht wirklich“

EU: „überwiegend ja“

China: „meist ja, aber mit Schwächen“

Philippinen: „Die Maßnahmen dieses Landes sind kompatibel damit, die Erwärmung in diesem Jahrhundert deutlich unter 2°C zu halten“.

Meine Einschätzung: Dieser Artikel ist so hochgradig politisiert, dass er nichts als ein schlechter Witz ist.

Es gibt einen sehr guten Grund dafür, dass die USA nicht im BBC-Artikel vorkommen – sie sind nicht im Pariser Abkommen – aber nur aus Interesse, ihre Zahlen für 1990-2019 sind (ungefähr):

USA: 0% (0Mt) –4.800Mt in 1990, 5.800Mt in 2007, 4.800Mt in 2019 (Daten von hier und hier).

Der BBC-Artikel ist hier zu finden. Ich habe nicht überprüft, ob die Zahlen von Matt McGrath korrekt sind. Er gibt keine Quellen an. Wer den Projektionen im China-Chart Glauben schenkt, befindet sich sicherlich in Wolkenkuckucksheim.

Link: https://wattsupwiththat.com/2020/12/13/climate-change-have-countries-kept-their-promises/

Übersetzt von Chris Frey EIKE

 




Das Geschäft mit der Angst, die unendliche Geschichte….oder, lernen wir Deutsche gar nichts aus der Geschichte? Teil 2: Die Corona-Maßnahmen

Bereits Abb.15 lässt Zweifel darauf kommen, dass der jetzige Lockdown zum Schutz der Bevölkerung notwendig ist. Seit Anfang November bewegen sich die Ansteckungszahlen auf hohem Niveau seitlich und pendeln um die 30.000-Marke. Wenn z.B. der saarländische Ministerpräsident am vergangenen Montag nach dem Lockdown-Beschluss vom 13.12.2020 vor dem saarländischen Landtag als Rechtfertigung, neben den vielen Todesopfern, für das widersprüchliche Verhalten – noch 10 Tage vor dem Beschluss verkündete die Kanzlerin eine Lockerung der Maßnahmen zu Weihnachten – der Politik verkündet, man könne bei Corona nur „auf Sicht fahren“, so ist dies natürlich blanker Unsinn.

Bevor man aufgrund einer Grippe stirbt, muss man zuerst an dieser erkranken. Dieser inne liegenden Weisheit wird sich auch der saarländische Ministerpräsident nicht entziehen können. So beträgt der „Nachlauf“ 2-4 Wochen. D.h. Ende November war das absehbar, was jetzt als Begründung herhalten muss. Wie gesagt, da haben Kanzlerin und Ministerpräsidenten noch von einer Lockerung gesprochen.

Nach Angaben des RKI starben an der schweren „üblichen“ Grippesaison 2017/18 25.100 Menschen (hier). Das Bundesgesundheitsamt sprach von einer Epidemie, Abb.16.

Abb.16 zeigt, dass es sich bei nahezu allen Grippewellen um Epidemien handelte. Dem Autor ist entgangen, dass vor Weihnachten 2017 alle Einzelhandelsgeschäfte, etc. geschlossen wurden.

25.000 Todesfälle laut RKI. Dies sind auf 4 Grippewintermonate (18 Wochen) verteilt, im Mittel knapp 1.400 Tote/Woche. Da die Kurve nicht digital, sondern analog verläuft, sind dies 3.000 – 5.000 Tote in Spitzenzeiten. Also bis zu 700/Tag. Ob nun 700/Tag oder 800/Tag wie bei COVID-19, 700 sind genauso 700 zu viel wie 800. Wenn dann der Autor in den (Staats)Medien hört, dass die EU weitaus mehr als die 300 Mio. Impfdosen von Biontech hätte erhalten können, so kommen ihm Zweifel, ob der Schutz der Bevölkerung der Grund für den jetzigen Lockdown ist.

Wenn Wirtschaftsminister Altmaier am Montag nach dem Beschluss verkündet, der Lockdown würde die Wirtschaft nicht ruinieren, so hat er damit unbedingt recht. Wird doch die deutsche Wirtschaft und mit ihr die deutsche Industrie, seit Jahren mit einer verfehlten, Energie-, Klima-und Verkehrspolitik ruiniert. Geschaffene Arbeitsplätze für ein Batteriewerk für E-Autos, das in der Produktionsspitze ca. 2.000 Arbeitsplätze schafft, werden gepriesen, dass dabei anderweitig 200.000 Arbeitsplätze vernichtet werden, wird verschwiegen. Niemand würde z.B. ein Geschäft abschließen, dass ihn 200.000€ kostet, er dafür aber nur 2.000€ bekommt. In der deutschen Verkehrspolitik wird aber genau dass gemacht.

Die nachfolgenden Zeilen haben keinen Anspruch auf Richtigkeit, sie stellen lediglich den Versuch dar, die Frage zu beantworten, warum die Politik am 13.12.2020 die rasante Kehrtwende vollzog, die in den Staatsmedien von ARD und ZDF bereits Tage zuvor angekündigt wurde. Man könnte sagen „die Bevölkerung wurde weich geklopft“. Der Autor geht dabei der Frage nach, wer den Hauptnutzen von dem Lockdown hat?

Auf euronews war am 01.05.2020 zu lesen:

Mehr Umsatz, mehr Kosten

Sein Online-Riese ist gefragter denn je – das bestätigen die jetzt veröffentlichen Zahlen für das erste Quartal. Der Amazon-Umsatz kletterte im Vergleich zum Vorjahr um 26 Prozent auf 75,5 Milliarden Dollar.

Doch beim Gewinn sieht es schlechter aus – er fiel um rund 30 Prozent auf 2,5 Milliarden Dollar. Das liegt vor allem an den Kosten in Milliardenhöhe, die die Pandemie mit sich bringt – etwa für Tests und Schutzausrüstung.“ (hier)

Sowohl der 1. Absatz, als auch der 2. sind heute längst überholt, wie Abb.17 zeigt.

Abb.17 (Quelle) zeigt den Quartalsgewinn von Amazon. Zu dieser Graphik bedarf es keiner weiteren Worte.

Wurde nicht auch der Verkauf von Silvesterfeuerwerk im Handel untersagt. Wo wird man sich wohl dann die Sachen besorgen? Na, im EU-Onlinehandel. Wer macht auch dort den Gewinn? Richtig: Amazon!

Gegen Ende der 1970-Jahre war im Spiegel zu lesen, die Stasi habe im deutschen Bundestag Fraktionsstärke. Damit meinte Der Spiegel, das die Agenten, die die Stasi (sicherlich nicht ohne Wissen/Unterstützung des „großen Bruders“ KGB) in den Bundestagsfraktionen CDU/CSU, SPD und FDP platziert hat, zusammen Fraktionsstärke erreichen. Die Stasi und die DDR gibt es nicht mehr, den KGB auch nicht. Wohl aber dessen Nachfolgeorganisation.

Nun hat der FSB sicherlich ähnliche Bestrebungen wie die Stasi, seine Zuarbeiter im deutschen Bundestag zu platzieren, so wie dies jedem Geheimdienst zu Grunde liegt, alles wissen und die Dinge in seine Richtung lenken zu wollen. Allerdings ist die Welt von 2020 eine ganz andere, wie die Welt von 1979. Zu den staatlichen Akteuren kommen private. Deren Firmen ein Umsatzvolumen erreichen, dass größer als das der meisten Staaten ist. So beträgt der in der Corona-Krise sprunghaft gestiegene Jahresumsatz von Amazon in 2020 mit gut 320 Milliarden Euro (nicht Dollar) fast so viel wie der Bundeshaushalt 2020 mit seinen knapp 360 Milliarden Euro.

Und all die Zahlen stammen noch von vor dem Lockdown-Beschluss, den Einzelhandel zu ruinieren. Amazon hat es übrigens nicht versäumt, am Dienstag, Mittwoch und Donnerstag nach dem Beschluss Werbung zu platzieren. Leider kennt der Autor nicht den Vorlauf für das Senden von Werbung bei den Öffentlich-rechtlichen, um dies näher zu beleuchten.

In Anbetracht der o.g. Zeilen im Spiegel, soll der Autor davon ausgehen, dass Amazon die „Aktienmehrheit“ am Deutschen Bundestag übernommen hat?

Abb.18, Deutscher Bundestag mit leeren Bänken (die bräuchte man dann auch nicht mehr) unter Amazon-Logo. Quelle, ergänzt

Mit diesen Überlegungen hat indes der Autor ganz sicher Unrecht, denn es ist ja gar nicht das vom Volk gewählte Parlament, welches solche Einschneidungen in den Persönlichkeitsrechten beschließt, fast hätte der Autor „Hinterhofrunde“ gesagt, sondern vom Volk nicht gewählte, willkürlich (will heißen, dem Parteienproporz geschuldet) benannte Personen. Daher ist Abb.19 wohl in diesem Szenario zutreffender.

Abb.19, ergänzt nach Quelle

In den Überlegungen des Autors, warum die o.g. Runde diese Kehrtwende zum Lockdown vollzog, ist dann die Kanzlerin die Filialleiterin.

Abb.20, ergänzt nach Quelle

Aktualisierung vom 26.12.2020: (Kommentator Frank Grabitz stellt in seinem Kommentar mehrere Fragen, die zu beantworten sich der Autor dieses Beitrages viel Mühe gemacht hat. Weil das in der Kommentarfunktion zu lang wäre und er seine Ausführungen außerdem mit zwei Graphiken unterstreicht, folgt die Antwort des Autors hier. Anm. v. Admin)

Sehr geehrter Herr Grabitz, Sie schreiben:

“ Wieso fiel wegen des Maskentragens die Grippewelle zusammen ?“

Deswegen:

Abbildung 21. Quelle

Das RKI schreibt dazu:

„Abrupter Rückgang der Raten an Atemwegserkrankungen in der deutschen Bevölkerung Insgesamt ist zu beobachten, dass die ARE-Raten seit der 10. KW (2.3. – 8.3.2020) stark gesunken sind. Diese Entwicklung ist sowohl bei Kindern (bis 14 Jahren) und bei den Jugendlichen und Erwachsenen (ab 15 Jahren) zu verzeichnen. Insbesondere bei den Erwachsenen ist ein so deutlicher Abfall der ARE-Raten über mehrere Wochen extrem ungewöhnlich und konnte in keiner der drei Vorsaisons verzeichnet.“

Sie schreiben:

„…gehen Sie nach Italien rüber, die haben schon 6 Wochen vor uns Masken im öffentlichen Raum getragen,…“ Nochmals, eine UND-Verknüpfung ist keine ODER-Verknüpfung. Beides sind math. zwei ganz andere Dinge…

Sie schreiben:

„Und ich bin nicht der Meinung, dass dies eine 2. Welle ist. Es ist sozusagen eine Dauerwelle wie bei der Grippe.“

Dass ist Ihr gutes Recht. Indes sind Sie damit auf der falschen Interpretation, wie Abb.22 zeigt:

Abb.22, Quelle wie Abb.15.

Sie schreiben:

„Was nützen FFP3 Masken, oder die normalen, wenn derjenige Bartträger ist und die meisten haben Vollbart, also unter dem Kinn, und 2-5 cm Bart. Sollte der Bart dann nicht verboten werden ? Vielleicht fehlt dem Verbots-Lauterbach noch dieser Hinweis.“

Da es sich bei Corona nicht um eine gasförmige „Substanz“ wie z.B. bei einem chem. Kampfstoff handelt – da sind bekanntlich Gasmasken wegen eines Bartes wenig hilfreich, da die Barthaare die Abdichtung der Maske zur Haut behindern – sondern um eine Tröpfcheninfektion, nützt eine Maske hier auch bei Bartträgern. Einfach mal die Strömungslehre beim Einatmen anwenden.

Sie schreiben:

„Übrigens : die Mutation b.1.1.7 (eine von bisher 9650) die jetzt für so viel Aufregung sorgt, ist seit dem 20. Sept. in der englischen Datenbank vom COG erfasst…“

Hier haben Sie mit Ihren Bedenken aus meiner Sicht vollkommen Recht. Auch ich gehe davon aus, dass die ergriffenen Maßnahmen nicht zum Schutz der Bevölkerung vorgenommen wurden, sondern rein politischer Natur sind. So lies z.B. auch das RKI kurz nach den Grenzschließungen verlauten, dass es davon ausgeht, das die Virus-Variante bereits in Deutschland ist. Lassen Sie mich den Grund für die Maßnahmen mal so umschreiben:

Ich kann mir sehr gut vorstellen, dass unter Führung (oder gar Initiative) Frankreichs, Herrn Johnson mal gezeigt werden sollte, was Großbritannien bevorsteht, wenn es zu einem ungeregelten Brexit kommt. Hat ja auch seine Wirkung nicht verfehlt.




Das Geschäft mit der Angst, die unendliche Geschichte….oder, lernen wir Deutsche gar nichts aus der Geschichte? Teil 1: anthropo­gener Klima­wandel

Abb.1, links Quelle: Bild vom Gemälde von Peter Paul Rubens: Papst Leo X. Rechts: UN-Generalsekretär Guterres, einer der Haupttreiber beim sog. anthropogenen Klimawandel, Quelle: Deutscher Bundestag.

Der Artikel soll zeigen, dass wir in der Tat einen menschengemachten Klimawandel (Erderwärmung) haben, aber nicht auf der Basis sog. Treibhausgase wie CO2, sondern auf der Basis manipulierter Maßsysteme/Messungen. Die Dreistigkeit, mit der dabei vorgegangen wird, wird mit zunehmender Abnahme der solaren Tätigkeit, immer dreister. EIKE berichtete darüber hier , hier oder hier. Zuerst will der Autor einen Blick darauf werfen, inwieweit die Aussage vom Rückgang der solaren Tätigkeit, z.B. einer „kalten“ Sonne berechtigt ist.

Abb.2 (Quelle) zeigt den 11-jährigen Schwabe-Zyklus (Zyklus 23 und 24) der Sonne bis 2020, sowie den projizierten 25 Sonnenzyklus bis 2030. Deutlich zu erkennen, dass die solare Aktivität, gemessen an der Sonnenfleckenzahl – diese betrachtet der Schwabe-Zyklus – deutlich zurück gegangen ist.

Nun lässt sich die Aktivität der Sonne nicht an einem einzigen Parameter festmachen, wie z.B. die (unsinnige) Behauptung, die Erderwärmung hinge einzig am CO2, sondern die solare Aktivität ist weitaus komplexer. In seinem 8-teiligen Eike-Bericht, „Dynamisches Sonnensystem – die tatsächlichen Hintergründe des Klimawandels“ hatte der Autor dies 2011 dezidiert aufgezeigt.

Wichtig für die Erdtemperatur ist neben der solaren Einstrahlung, der Grad der Wolkenbedeckung, die die Sonnenscheindauer bestimmt. Niemand wird bestreiten wollen, dass ein wolkenloser Himmel für höhere Tagestemperaturen sorgt, als ein wolkenverhangener Himmel zur gleichen Jahreszeit und geographischer Breite. Dem interessierten Leser fällt hier sicherlich zuerst der Svensmark-Effekt ein, der darlegt, dass die Wolkenbedeckung mit dem Maß der solaren Aktivität (über die Modulation der kosmischen Strahlung durch den Sonnenwind) zusammenhängt. Der Sonnenwind wiederum wird (zumindest tlw.) durch die Sonnenflecken und die solaren Flares (Sonneneruptionen) beeinflusst.

Wie gesehen, ist die Fleckenaktivität seit Jahren vglw. gering und auch die magn. Aktivität der Sonne, die für die Flares mitverantwortlich ist, ist fallend (Abb.3).

Abb.3 (Quelle) zeigt die jährliche Anzahl magnetischer Stürme (blau) und die geglättete Sonnenfleckentätigkeit. Im 20. Jahrhundert ist eine deutliche Zunahme der magnetischen Aktivität der Sonne zu verzeichnen, die etwa um das Jahr 1900 begann. Seit Beginn des Jahrtausends fällt die magn. Aktivität der Sonne wieder.

Abb.3 zeigt einen etwa 100 jährigen Anstieg der solaren Aktivität. Diese fällt zusammen mit dem Anstieg im Hauptsonnenzyklus, dem im Mittel 208-jährigen de Vries-Suess-Zyklus.

Warum Hauptsonnenzyklus? Den Grund zeigt Abb.4.

Abb.4, Quelle: Orgutschov et al. Aanhand der Fourier-Analyse werden in der Sonnenfleckenzahl verschieden Perioden sichtbar. Die dominanteste ist die 205-Jahres-Periode, was dem Hauptsonnenzyklus, dem im Mittel 208-jährigen de Vries/Suess-Zyklus entspricht. Darüber hinaus ist eine 85-Jahres-Periode, der Gleissberg-Zyklus, eine 60-Jahres-Periode (Landscheidt-Zyklus) und die 1.020-Jahres-Periode erkennbar.

In ihrer Arbeit „Multi-periodic climate dynamics: spectral analysis of long-terminstrumental and proxy temperature records“ untersuchten die Wissenschaftler Lüdecke, Hempelmann und Weiss den Einfluss des de Vries-Suess-Zyklus auf die Erdtemperaturen und fanden den in Abb. 5 dargestellten Verlauf der Temperaturanomalien.

Abb.5, Quelle: Lüdecke, Hempelmann und Weiss zeigt die Temperaturanomalie der letzten 250 Jahre. Der Verlauf folgt dem de Vries-Suess-Zyklus der Sonne, der in 2002/2003 sein Aktivitätsmaximum erreichte.

Bezogen auf seine mittlere (statistische) Länge von 208 Jahren, lag sein (statistisches) Minimum um das Jahr 1899. Das Jahr 2020 liegt 17 Jahre nach seinem letzten Maximum. Normiert auf die Zeit (Jahre) sind dies 16% entfernt vom Maximum. Das Jahr 2020 liegt somit noch 84% vom nächsten Minimum entfernt. In diesem Zusammenhang von einer schwachen Sonne oder gar „kalten“ Sonne zu reden, ist denn auch fehl am Platz und weitaus verfrüht. Dies zeigt Abb.6.

Abb.6 (Quelle) zeigt die heliosphärische Stromschicht (current sheet = HCS), den die Sonne in den Orbit schickt. Neben dem Sonnenwind ist sie der entscheidende Parameter, der Aufschluss über die magnetische Aktivität der Sonne gibt. Die Abb. zeigt, dass die Sonne (obwohl schwach im Schwabe-Zyklus, siehe Abb. 2, Zyklus 24) im 24. Schwabezyklus ihren zweitstärksten Aktivitätszyklus ausgebildet hat. Beim HCS ist nicht das Maximum ausschlaggebend, sondern das Flächenintegral. Im Zeitraum, als der Hauptsonnenzyklus sein Maximum erreichte (um 2003) hatte die Sonne ihre stärkste Aktivität, wie Abb.6 transparent zeigt.

Eine kurze Erklärung.

Heliospheric Current Sheet (HCS)

Das Interplanetarische Magnetfeld ist auf der Erdbahn mit einer Stärke von 1 – 10 nT 100 bis 1000-fach stärker, als das Dipolfeld der Sonne dies erwarten lässt (magnetische Dipolfelder klingen mit der dritten Potenz des Abstandes ab). Deshalb muss es einen Effekt geben, der es verstärkt. Dies ist die Heliosphärische Stromschicht, die bis an die Grenzen des Sonnenwindes reicht. Dabei hat sie eine Breite von ca. 60.000 km. Der elektrische Strom in der HCS ist radial einwärts gerichtet und liegt bei ca. 104 A/km².

Die Heliosphärische Stromschicht dreht sich mit der Sonne und braucht für einen Umlauf knapp 4 Wochen. In diesem Zeitfenster befindet sich die Erde einmal über und einmal unterhalb der HCS. Da sich die Erde in 365 Tagen einmal um die Sonne bewegt, gerät sie mehrfach abwechselnd in den Bereich von südlich, bzw. nördlich gerichteten Magnetfeldern der Sonne, wobei sie jedes Mal die Heliosphärische Stromschicht durchquert. Die Lage der HCS im Orbit ist dabei abhängig von der solaren Aktivität (in Abb.6 ist daher als Maß der Aktivität der Winkel – Inclination = Neigung – angegeben).

In seiner Abhandlung „Dynamisches Sonnensystem – die tatsächlichen Hintergründe des Klimawandels“ ist der Autor im Teil 4b (hier) näher auf die HCS eingegangen.

Was hat das nun mit dem Klima und der Erdtemperaturen zu tun? Nun, eine ganze Menge. Hat die HCS doch direkten Einfluss auf die irdische Wolkenbedeckung und niemand wird ernsthaft bestreiten wollen, dass eine strahlende Sonne am Himmel (mit wenig Wolken), die Temperaturen höher steigen lässt, als ein wolkenverhangener Himmel. Mit ihrem Einfluss auf die Gewitteraktivität hat sie einen weiteren unmittelbaren Einfluss auf trockene oder nasse Sommer. Siehe hierzu z.B.:

„Lightning as a space‐weather hazard: UK thunderstorm activity modulated by the passage of the heliospheric current sheet“, Owens et al. 2015, Geophysical Reseach Letters (https://agupubs.onlinelibrary.wiley.com/doi/10.1002/2015GL066802)

„Daily changes in global cloud cover and Earth transits of the heliospheric current sheet“, D.R. Kniveton und B.A. Tinsley., Journal of Geophysical Research Atmospheres. (https://www.researchgate.net/publication/238494062_Daily_Changes_in_Global_Cloud_Cover_and_Earth_Transits_of_the_Heliospheric_Current_Sheet)

Zum Einfluss der solaren Aktivität auf den irdischen Niederschlag siehe auch Stanford University (hier).

Im Teil 7 seiner Arbeit „Dynamisches Sonnensystem – die tatsächlichen Hintergründe des Klimawandels“ hat der Autor mögliche Zusammenhänge der HCS mit der nordatlantischen Hurrikanaktivität dargelegt (hier, darin Abbildung 179)

Wie gezeigt, haben warme und trockene Jahre nichts mit sog. Treibhausgasen zu tun, sondern sind allein auf die solare Aktivität zurückzuführen, wie Abb. 7 und 8 weiter zeigen.

Abb. 7a stammt aus der Arbeit von Wang et al 2000 (hier) und zeigt die Polarität des Sonnenmagnetfeldes*.

* Der magnetische Zyklus wird Hale-Zyklus (der Astronom George Hale maß Anfang des 20. Jahrhunderts erstmals Magnetfelder in den Sonnenflecken) genannt und beträgt 22,1 Jahre. Dies ist der eigentliche Zyklus der Sonnenfleckenaktivität. Fleckengruppen setzen sich aus nordmagnetischen und südmagnetischen Flecken zusammen, die bipolar angeordnet sind. Während eines 11-jährigen Zyklus (Schwabe-Zyklus: 8 – 15 Jahre) laufen bei der Rotation der Sonne entweder die Nordpole oder die Südpole ständig voraus (Hale´s Polaritätsgesetz). Nach 11 Jahren kehrt sich diese Polarität um. Es vergehen also zwei 11-jährige Zyklen, bis die gleiche Anordnung wieder erscheint.

Abb.8 (Quelle) zeigt den Hale-Zyklus von 1800 – 2009 (obere Datenreihe). Die Rauten geben US-Trockenjahre an und die untere Datenreihe zeigt El-Niño-Ereignisse. Während El-Niño-Ereignisse keinen direkten Zusammenhang mit dem Hale-Zyklus erkennen lassen, zeigen die US-Trockenjahre, also bewölkungsschwache Jahre, eine deutlich Häufung zum Hale-Zyklus und zwar immer dann, wenn die Polarität des Sonnenmagnetfeldes N+ und S- beträgt.

Abb.7b, in Abb.2 hat der Autor die Informationen aus Abb.7a bis in unsere Zeit (Jahr 2020) erweitert. Aufgrund der solaren Aktivität sind die Jahre 2017 bis 2020 als „Trockenjahre“ zu bezeichnen, was wohl in 2021 anhalten wird. Mit irgendwelchen sog. Treibhausgasen oder einem angeblichen menschengemachten Klimawandel hat das rein gar nichts zu tun, sondern sind wiederkehrende Ereignisse, wie sie im 22-jährigen Hale-Zyklus und/oder im 208-jährigen de Vries-Suess-Zyklus „üblich*“ sind.

* So verlor z.B. der bekannte Pilgervater und spätere Gouverneur von Plymouth, William Bradford, aufgrund mehrerer nachfolgender Trockenjahre in der Mitte der 1590-Jahre in England, die die Ernten vernichteten, sein (bescheidenes) Vermögen. Quelle: ARTE-Sendung „Aufbruch in die neue Welt“, Doku USA 2015 „Die Pilgerväter“.

Abb.9 zeigt die Kälteperioden der letzten 1.100 Jahre (Dreiecke ergänzt nach Quelle: United States Geological Survey). Die Maxima der Warmperioden korrelieren jeweils mit dem Maximum des de Vries/Suess-Zyklus (grüne Dreiecke). In der Zeit der 1590-Jahre hatte der Hauptsonnenzyklus sein Maximum.

Auch das Temperaturverhalten nach einem Hauptsonnenzyklus ähnelt dem des anderen, wie ein Blick auf historische Temperaturaufzeichnungen zeigt (Abb.10).

Abb. 10, Quelle: Prof. Ewert, zeigt die Temperaturen in München im Zeitraum von 1781 – 1991. Die rote Linie gibt den Zeitpunkt des Maximums im Hauptsonnenzyklus an. Bis zu einem Zeitraum von 20 – 30 Jahren nach dem Hauptsonnenzyklus schwanken die Temperaturen noch stark zwischen warm und kalt (rote Fläche). Im Vergleich zu heute bis zum Jahr 2025 – 2035.

Bis zum erreichen seines Minimums, sind immer noch relativ hohe Temperaturausschläge zu verzeichnen, jedoch auf insgesamt niedrigerem Niveau (grüne Fläche). Unmittelbar vor und nach dessen Minimum ist das Klimasystem sozusagen in seinem eingeschwungenen, kalten Zustand und die Ausschläge sind am geringsten (blaue Fläche). Vor einem erneuten Temperaturanstieg (steigender Sonnenzyklus), fallen die Temperaturen auf ein Minimum und steigen dann kontinuierlich an (schwarze Linien).

Dies gilt auch für die übrigen europäischen Städte, deren Temperaturaufzeichnungen bis in diese Zeit zurückreichen. Für Mittelengland liegen noch weiter in die Vergangenheit zurückreichende Temperaturaufzeichnungen vor. Diese zeigen, dass der Temperaturgang bei dem davorliegenden Maximum im Hauptsonnenzyklus nach dem gleichen Muster verlaufen, Abb.11.

Abb. 11: Temperaturgangreihe Zentralenglands von 1659 – 2000 (Quelle: Prof. Ewert). Mit seinem ausgeglichenen Seeklima zwischen Atlantik und Nordsee nimmt England sicherlich eine Sonderstellung ein. Dies zeigt sich, dass hier die „grüne“ Phase von der „roten“ Phase nicht so stark differiert wie in Mitteleuropa. Aber auch hier ist das Muster, trotz der Moderation durch den Ozean, vorhanden. Auch beim davor liegenden Hauptsonnenzyklus, fallen zuerst die Temperaturen stark, bevor sie dann wieder ansteigen (schwarze Linien).

Fazit

1. Sowohl die heutigen Temperaturen, als auch deren Wechselverhalten, wie die Trockenperioden sind natürlich wiederkehrende Ereignisse nach dem Maximum im Hauptsonnenzyklus. Mit sog. Treibhausgasen hat dies nichts zu tun.

2. In Anbetracht, dass die Sonne noch 86% (normiert auf die Zeit) von ihrem Aktivitätsminimum in ihrem Hauptzyklus entfernt ist, sind Aussagen von einer schwachen oder gar „kalten“ Sonne unangebracht und fehl am Platz. Wir Menschen neigen lediglich dazu, Dinge, die wir sehen (hier deren Fleckenaktivität in Abb.2), höheres Gewicht zukommen zu lassen. Bei der Sonne, die neben ihrer Fusionsenergie die Erde mit ihrer magn. Energie direkt und vor allem indirekt beeinflusst, eine falsche Gewichtung.

3. Meldungen von „höchsten“ Temperaturen, etc. sind auf dreiste Temperaturfälschungen, sowohl bei den Daten (bitte erinnern Sie sich an „Climategate“), wie bei der Messerfassung (vor 50 oder 100 Jahren wurde mit Quecksilber gemessen, heute durchweg elektronisch), aber vor allem bei der Auswahl der Messstationen zurück zuführen. Siehe Abb.12.

4. Aus 3 folgt, dass bei Temperaturvergleichen von heute zu früher durchweg „Äpfel mit Birnen“ verglichen werden und damit sämtliche Temperaturvergleich von DWD (Deutschem Wetterdienst, etc.) wertlos sind.

Abb.12 (Quelle) zeigt, dass mittlerweile fast ausschließlich Messstationen, die für die Mittelwertvergleiche herangezogen werden, aus städtischen Regionen stammen. Die der ländlichen hat drastisch abgenommen. Jeder braucht nur auf die Anzeige der Fahrzeugaußentemperatur zu schauen, um zu wissen, dass die Temperatur in Städten um bis zu 3°C höher ist, als in ländlichen Gebieten.

Weiter wird in vielen Gebieten der Erde überhaupt nicht gemessen und doch dreist von einer Globaltemperatur gesprochen. Vgl. Bericht im o.g. Link und die Vorgehensweise des Met Office.

Wie sehr sich die Temperatur allein durch die Bodenbeschaffenheit ändert, zeigt Abb.13.

Abb.13 zeigt den Tagesgang der Temperatur an einem sonnigen Sommertag in Bodenhöhe für verschiedene Böden, nach Fezer 1975.

Zu Abb. 13: Nicht nur, dass über Beton und insbesondere Asphalt die Temperaturen z.B. sehr stark über denen des Waldbodens liegen, sondern auch, dass ein deutlicher Temperaturunterschied von mehreren °C zwischen Gras, Wald oder landwirtschaftlichen Flächen vorliegt. Messstationen, die ursprünglich auf freiem Feld standen und zwischenzeitlich in einer Gras, Hecken oder offenen Waldlandschaft stehen, weil sich das Landschaftsbild über die Jahrzehnte änderte oder städtische Messstationen, die fast 90% der Datenquelle ausmachen, geben somit deutlich höhere Temperaturwerte wieder und verzerren jeglichen Temperaturvergleich.

Mittlerweile räumt sogar der DWD ein, dass mit solchen Aussagen wie „heißester“… etwas nicht stimmt und diese falsch sind, Abb.14.

Abb.14, Quelle: Bildzeitung vom 18.12.2020.

Es ist eine geradezu unverantwortlich, das auf solch einer falschen, auf Lügen und Betrug aufgebauten Metapher, gemeint ist der sog. anthropogene Klimawandel, hunderte von Milliarden Euro von unten nach oben verteilt werden, unsere Wirtschaft und Industrie ruiniert wird und letztendlich unsere Arbeitsplätze vernichtet werden.

Von Politik und Staatsmedien hochgepriesene neue Wirtschaftszweige, die stattdessen für vernichtete Branchen (als eine der letzten ist die Automobilindustrie dran) entstehen würden, entpuppen sich denn auch als nicht überlebensfähig (z.B.: Solarindustrie) oder als schlichte Betrugsfirmen, wie wirecard, die parasitengleich das Volksvermögen abzweigen, dass über Jahre der „Karle vom Band“ oder die „Jutta vom Einzelhandel“ erwirtschaftet haben.

Für solche Firmen macht dann die Kanzlerin auch noch Werbung. Aber Intelligenz ist offenbar nicht jedermanns (oder jederfraus) Sache.

(Teil 2 folgt demnächst)




Was macht die Temperatur?

Die Computermodelle des IPCC (Intergovernmental Panel on Climate Change, Weltklimarat) sind nach wie vor von sehr begrenztem Wert, die resultierenden Vorhersagen so gut wie unbrauchbar – das Weltklima ist einfach zu kompliziert. So reichen die Prognosen des IPCC für die CO2-Klimasensitivität (Temperaturanstieg bei Verdoppelung des CO2) von 1,6 bis 5,6 Grad C, aber nur mit einer Wahrscheinlichkeit von 66%. Vor diesem unbefriedigenden Hintergrund haben, wie überall in der Physik, Messungen das letzte Wort. Und die gibt es inzwischen schon seit längerer Zeit. Ist es da nicht besser, man orientiert sich an konkreten Messergebnissen anstelle von fragwürdigen und in aller Regel übertriebenen Alarm-Prognosen?

Die Temperatur-Werte, ermittelt von vielen tausend Stationen, enthalten allerdings auch Fehlerquellen wie unregelmäßig verteilte Messstationen, welche Stationen ausgewählt werden, Messungenauigkeiten sowie die meist intransparenten Adjustierungen und Homogenisierungen der Messdaten. Über den Ozeanen und vor allem auf der Südhalbkugel gibt es weniger Messstationen. Je älter die Temperaturdaten, desto größer sind die Ungenauigkeiten. Belege für „gezielte“ Anpassungen gibt es ebenfalls. Nachfolgende HadCRUT4-Bodendaten werden auch vom IPCC verwendet – schon deshalb ist eine „Untertreibung“ eher unwahrscheinlich.

Unschwer ist zu erkennen, dass den Temperaturverläufen Periodizitäten überlagert sind, für die es teilweise gute Beschreibungsansätze gibt (Ozeanische Oszillationen, El Niño, Nord-Süd-Klimaschaukel, Solarzyklen verstärkt durch kosmische Strahlung und Wolkenbildung), die aber in den Klimamodellen bisher kaum Berücksichtigung finden. Auch ist bis heute nicht sicher bekannt, welche natürlichen Vorgänge die historischen Klimaschwankungen verursacht haben – wie damals die Mittelalterlichen Warmzeit, als u.a. die Wikinger Grönland besiedelten, und die vorausgegangenen Warmzeiten davor.

Die Ozeane stellen einen riesigen Wärmespeicher dar, mehr als 100mal größer als die gesamte Atmosphäre. Insbesondere in den tieferen Ozeanbereichen folgen die Meerestemperaturen einer Erderwärmung nur sehr langsam, von bis etwa 1000 Jahren Verzögerung ist die Rede. Auch wird über den Ozeanen weniger Temperaturanstieg gemessen als über Land. Zusätzlich sind die Temperaturanstiege auf der Nordhalbkugel größer als auf der Südhalbkugel (Klimaschaukel?).

Zusätzliche Einflüsse wie die Wärmeinseleffekte durch zunehmende Bebauung und möglicherweise der Luftverkehr (Eintrag von Aerosolen in die Stratosphäre) bis hin zur wachsenden Energiefreisetzung von immer mehr Menschen spielen ebenfalls eine Rolle. Worauf hier nicht näher eingegangen wird, weil der Einfluss von natürlichen Ursachen auf den Temperaturverlauf zwar oftmals plausibel ist, aber aus heutiger Sicht dennoch meist spekulativ. Die Vorgaben der 1,5 Grad bzw. 2 Grad-Ziele gemäß Paris-Abkommen beziehen sich immer auf globale Mitteltemperaturen, worauf auch hier der Schwerpunkt gelegt wird.

Der Temperaturanstieg seit Beginn der Industrialisierung fand vor allem im Laufe des letzten 120 Jahre statt (Darstellung unten nach Dr Kevin Cowtan – University of York, gefunden bei Kalte Sonne). Der Temperaturrückgang/-stillstand nach dem Jahr 2000 („Hiatus“), der den Temperaturrückgang zwischen 1945 und 1975 im Ansatz zu wiederholen schien, wurde seit 2016 von zwei El Niños unterbrochen. Was den Medien Gelegenheit gibt, fortlaufend „hohe“ Temperaturwerte zu vermelden, auch wenn es nur Zehntelgrad-Rekorde sind. Dennoch, in den kommenden zehn Jahren wird es spannend, wie es mit den Temperaturen weitergeht.

Setzt man diesen 120-jährigen Temperaturtrend fort, dann ist bis 2100 ein weiterer Temperaturanstieg von nur etwa 0,66 +/- 0,07 Grad C zu erwarten, was niemanden beunruhigen muss.

Von 1978 bis etwa 2005 korrelierten das CO2 und die Temperaturen kurzzeitig, was der Alarmforschung bekanntlich Auftrieb gab. Dazu in der nachfolgenden Grafik (von climate4you) rot eingetragen die CO2-Konzentration in der Atmosphäre, gemessen auf dem Mauna Loa. Davor und danach ist die Korrelation deutlich schlechter. Die beiden Peaks seit 2016 sind, wie bereits erwähnt, Folge des unregelmäßig wiederkehrenden Klimaphänomens El Niño, das von den Klimamodellen ebenfalls nicht dargestellt werden kann. Der CO2-Anstieg müsste genau genommen logarithmisch eingetragen werden, weil auch die spektroskopische Erwärmung nur dem Logarithmus der CO2-Konzentration folgt. Was dann den CO2-Anstieg etwas weniger „dramatisch“ aussehen lässt.

Seit etwa 1979 gibt es Satellitenmessungen, bei denen ebenfalls global gemessen wird und zwar die Mikrowellenstrahlung von O2 (Sauerstoff) in der Troposphäre:

Bei den Satellitendaten wird offenbar weniger manipuliert, doch auch hier gibt es einige Fragen: Man misst die Temperaturen in der Troposphäre und nicht in Bodennähe. Auch sind Nachjustierungen bei den Bahnparametern von Zeit zu Zeit erforderlich – zumindest, wenn dies bei den Satelliten nicht automatisch erfolgt. Auch gibt es z.B. bei El Niño Zeitverzögerungen, bis die Troposphäre den Bodentemperaturen folgt. Die hier gezeigten Satellitendaten schneiden immerhin gut ab beim Vergleich mit Ballonmessungen und sog. Nachrechnungen – siehe hier.

Bei Satellitendaten ist ferner zu beachten, dass es sie erst seit 1979 gibt, also seit Beginn der relativ steilen Anstiegsphase, ähnlich, wie sie auch schon von 1910 bis 1945 aufgetreten ist – was für eine „Übertreibung“ aufgrund der Auswahl des Zeitfensters spricht. In diesem kurzen Zeitabschnitt ist der Temperaturanstieg pro Dekade beinahe doppelt so hoch wie in den letzten 120 Jahren. Auch ist das Unsicherheitsintervall mehr als fünfmal größer.

Statistisch gesehen erlaubt deshalb der 120-jährige Messzeitraum, wie in der ersten Abbildung oben dargestellt, die verlässlichste Prognose mit einem Temperaturanstieg von nur 0,66 +/- 0,07 Grad C bis 2100. Wobei mit längerer Messdauer die Unsicherheitsintervalle immer kleiner werden.

Der reale Temperaturanstieg dürfte in Wirklichkeit sogar noch kleiner sein, wie z.B. der dänische Geologe Prof. em. Dr. Johannes Krüger ausführte:

Die offizielle, von NOAA (National Oceanic and Atmospheric Administration) entwickelte Temperaturkurve der globalen Temperatur für den Zeitraum 1900-1999, die das IPCC in seinen Berichten vorgestellt hat, wurde umfassend angepasst, um einen viel höheren Temperaturanstieg als die ursprünglichen Temperaturdaten zu zeigen. Die Anpassung trägt bis zu 0,3 ° C der postulierten globalen Erwärmung von 0,7–0,8 ° C während des 20. Jahrhunderts bei. Die Schlussfolgerung ist daher, dass die globale Temperatur zwischen 0,4 ° C und 0,7 ° C angestiegen ist, wobei die erste Zahl auf der ursprünglichen Temperaturreihe und die letzte auf angepassten und manipulierten Daten basiert. Keiner dieser Werte ist in irgendeiner Weise alarmierend.“

Was folgt daraus? Man sollte die Temperaturen unaufgeregt weiter beobachten, zumal Ozeane und Pflanzen immer mehr von dem atmosphärischen CO2 aufnehmen. Was auch die stark zunehmende Begrünung der Erde sowie die gestiegenen Ernteerträge beweisen. Und hinzu kommt, dass die Temperaturen, wenn überhaupt, aus spektroskopischer Sicht nur logarithmisch mit dem CO2 ansteigen. Auch gehen die „Fossilen“ sowieso früher oder später zur Neige. Selbst wenn nicht, was vor allem russische Wissenschaftler behaupten, ist genügend Zeit vorhanden, Temperaturen und das CO2 in der Atmosphäre vorerst weiter zu beobachten. Auch sollte man notwendige Folgetechniken möglichst dem Markt überlassen und nicht einer grünen Staatsplanwirtschaft!

Da die deutsche Energiewende kein tragfähiges Energiekonzept für die Zukunft bietet, wird voraussichtlich an Dual Fluid-Reaktoren der 4. Generation längerfristig kein Weg vorbei führen – sie sind inhärent sicher. Auch sind damit die bisher gelagerten Brennstäbe zu 90 bis 95% nutzbar. Bereits heute ist die Kerntechnik die mit Abstand sicherste Energietechnik – und dies trotz der Tschernobyl-Katastrophe. Letztere trat ein als Folge eines untauglichen Reaktorkonzepts sowie unglaublicher Bedienungsfehler. Die 20.000 Fukushima-Opfer waren ausschließlich dem Tsunami geschuldet, und nicht, wie es uns Grüne suggerieren, der Reaktor-Havarie, die sich dank unzureichendem Tsunami-Schutz ereignete. Der Kernbrennstoff Thorium sollte bei dem neuen Reaktorkonzept für mindestens 1 Mio. Jahre reichen. Bis dahin funktioniert auch die Fusion… Prozesswärme für synthetische Kraftstoffe gäbe es dann auch – Mobilität mit gewohntem Komfort und Reichweiten wäre möglich.

Die erhofften Resultate der geplanten CO2-Reduktion sind dagegen in jeder Hinsicht höchst ungewiss. Das beginnt mit der Frage, welche Staaten dabei überhaupt mitmachen – Deutschland alleine ist hier vollkommen bedeutungslos! Schon deshalb bleibt offen, wie viel CO2 überhaupt reduziert werden kann, und was, last but not least, bei den Temperaturen damit letztlich erreicht werden wird (und welches Temperaturziel überhaupt gelten soll). Auf die Klimamodelle kann man sich dabei nicht verlassen. Somit ist die Dekarbonisierung eine jahrzehntelange sehr kostspielige Geisterfahrt mit höchst ungewissem Ergebnis – die nachhaltige Schädigung des Industriestandorts Deutschland ist dagegen gewiss!

Wenn überhaupt, wären für eine CO2-Reduktion weltweite Aufforstungsprogramme sinnvoller und  für eine zuverlässige Temperaturabsenkung Geoengineering billiger, zeitnah und effektiver!

Ärgerlich, warum sieht das Frau Merkel nicht genauso? Klar, sie hat bereits Billionen auf „Klima-Weltrettung“ durch Dekarbonisierung gesetzt, da gibt es kein Zurück…

Über den Autor

Dr. Roland Ullrich ist Physiker und promovierte an der LMU über Plasmaphysik.Sein Berufsweg führte ihn von der Plasmaphysik, einem kurzen Ausflug in die Welt der Metallhydridspeicher zu einer überwiegend gutachterlichen Tätigkeit in der technisch-wissenschaftlichen Analyseabteilung einer Bundesbehörde.

 




Wassertem­peratur an der Ozean-Oberfläche: Vergleich Hadley Centre und NOAA

Abbildung 1. Der ursprüngliche Vergleich von ERSST und HadSST aus meinem vorherigen Beitrag.

Ich habe Kennedy gefragt, ob er eine Maske des besiedelten Gebiets in seinem SST-Gitter hat, aber das hat er nicht, was bedauerlich ist. Eine Maske ist ein Bereich von Längen- und Breitengraden, der digital auf einer Karte überlagert werden kann und verwendet wird, um alle Daten auszuschneiden, die außerhalb dieses Bereichs liegen. Außerdem wies Kennedy darauf hin, dass sich die Maske von Monat zu Monat ändert, da ein Großteil der Daten von Schiffen, treibenden Bojen und Schwimmern stammt. Schade, mehr Arbeit für mich.

HadSST ist ein Fünf-Grad-mal-Fünf-Grad-Gitter für Breiten- und Längengrade, und ERSST ist ein Zwei-Grad-Gitter. Sie sind nicht einmal Vielfache voneinander, so dass das Erstellen einer Maske von Nullbereichen in HadSST, die zum Abschneiden von ERSST-Daten verwendet werden kann, kompliziert und zeitaufwändig ist. Glücklicherweise war ich nach der Programmierung von zwei „cleveren“ Lösungen, die fehlschlugen, bei meinem dritten Versuch erfolgreich, obwohl mein Computer vielleicht nie mehr derselbe sein wird. Die „cleveren“ Methoden hätten dem Computer Zeit gespart, aber keine von beiden hat funktioniert. Am Ende verwendete ich eine „Brute-Force“-Methode, die eine schrecklich aussehende, fünf tiefe Computerschleife war, die jede Gitterzelle mit jeder Gitterzelle verglich. Hässlich, aber es funktionierte, und es ist relativ sicher vor Fehlern.

Die Ergebnisse meiner hässlichen Logik sind in Abbildung 2 zu sehen. Diese Abbildung zeigt den originalen NOAA ERSST-Datensatz, der mit der Linie in Abbildung 1 identisch ist, den „HadSST maskierten“ ERSST-Datensatz und HadSST selbst, der ebenfalls mit der Linie in Abbildung 1 identisch ist. Zumindest HadSST fällt zwischen die beiden NOAA-Linien.

Abbildung 2. Die globale NOAA ERSST-Durchschnittstemperatur vor Anwendung der HadSST-Maske (Original) und nach Anwendung der Maske. HadSST ist ebenfalls dargestellt.

Wir erinnern uns aus dem ersten Beitrag, dass HadSST durch Mittelwertbildung der Punkte innerhalb jeder 5-Grad-Gitterzelle konstruiert wird. Wenn es nicht genügend Punkte in einer Zelle gibt, wird die Zelle leer gelassen. NOAA beginnt im Wesentlichen mit den gleichen Daten, verwendet aber eine andere Methode, um ihre Zellen zu füllen. Sie verwenden einen Gitteralgorithmus, der jede ihrer 2-Grad-Zellen mit Interpolation und etwas Extrapolation auffüllt. Auf diese Weise erhalten sie ein Gitter, das viel weniger Nullzellen und eine fast globale Abdeckung hat. Da die meisten HadSST-Nullzellen in der Nähe der Pole liegen, hat die NOAA ERSST-Aufzeichnung eine niedrigere Temperatur, wie in den Abbildungen 1 und 2 zu sehen ist. Um den Unterschied zu verdeutlichen, ist es aufschlussreich, einen Teil des ursprünglichen 2-Grad ERSST-Gitters zu betrachten, siehe Tabelle 1. Der gezeigte Bereich liegt im Arktischen Ozean, nördlich von Russland und Alaska.

Tabelle 1. Ein Teil des ERSST-2-Grad-Gitters der SSTs 2018 im Arktischen Ozean, nördlich von Alaska und Russland. Beachten Sie den konstanten „Füllungs“-Wert von 1,8 °C über einem Großteil des Gebiets.

Als Nächstes sehen wir uns das HadSST-Gitter über demselben Teil des Arktischen Ozeans in Tabelle 2 an. Diese Werte sind keine Temperaturen, sondern die Anzahl der Nullmonate 2018 für diese Zelle. Mit unserer Methodik, nur einen Nullmonat pro Jahr zuzulassen, würde nur eine dieser Zellen, Breitengrad = 62,5 und Längengrad = -177,5, in unserem Mittelwert verwendet werden. Während der in Tabelle 1 gezeigte Teil des Arktischen Ozeans im ERSST-Gitter vor der Anwendung der HadSST-Maske vollständig gefüllt ist, werden alle Werte nach Anwendung der Maske null.

Tabelle 2. Arktischer Ozean HadSST-Gitterzellen. Die Werte sind die Anzahl der fehlenden Monatswerte im Jahr 2018.

Abbildung 3 ist die ursprüngliche ERSST-Durchschnittstemperaturkarte für 2018. Wie man sieht, hat sie Werte über den größten Teil des Globus, die Nullen sind im Allgemeinen in den polaren Ozeanen unter Meereis. Der blaue Fleck im äußersten Nordwesten, nördlich von Alaska und Russland, ist das Gebiet, das in den Tabellen eins und zwei gezeigt wird. Abbildung 3 ist die Karte, die die untere ERSST-Linie in den Abbildungen 1 und 2 darstellt. Die Linie zeigt einen steigenden Temperaturtrend von etwa 1,6°C pro Jahrhundert.

Abbildung 3. Die ursprünglichen ERSST-Gitterzellen in 2-Grad-Breiten- und Längengraden. Weiße Regionen sind Null.

Abbildung 4 zeigt die gleichen Daten wie in Abbildung 3, aber jede HadSST-Zelle, die mehr als einen Monat ohne Wert im Jahr 2018 hat, wurde gelöscht. Man beachte, dass der blaue Fleck nördlich von Alaska und Russland, im Arktischen Ozean, verschwunden ist. Die Null-Zellen sind in weiß dargestellt. Wir haben subjektiv zugelassen, dass ein Monat keinen Wert hat, aber zwei wurden als zu viel angesehen. Die großen saisonalen Temperaturschwankungen in den Polarregionen hätten dazu führen können, dass mehr als ein Nullmonat den Durchschnitt beeinflusst. Die oberste Linie in Abbildung 2 wird durch Abbildung 4 dargestellt. Die Linie liegt zwischen 20°C und 21,5°C. Durch das Ausblenden genau der Zellen, in denen HadSST mehr als einen Nullmonat hatte, sprang der ERSST-Mittelwert von 14°C auf 21°C, ein Anstieg von 7°! Außerdem ist die neue Linie mehr als 2°C wärmer als HadSST. Die neue ERSST-Linie hat auch ihren Trend umgekehrt, sie zeigt jetzt einen abnehmenden Temperaturtrend von 3,5°C/Jahrhundert, fast genau so wie HadSST (3,48°C/Jahrhundert).

Abbildung 4. Die ERSST-Karte mit einer angewandten HadSST-Null-Gitterzellenmaske. Weiße Regionen sind null.

Abbildung 5 zeigt die Maske, die verwendet wurde, um die HadSST-Nullzellen in der ERSST-Karte in Abbildung 4 zu löschen. Die Farben in Abbildung 5 repräsentieren die Anzahl der fehlenden HadSST-Monatswerte. Wir haben einen fehlenden Monat zugelassen, also sind einige der blauen Zellen null, die eine „1“ darstellen und einige nicht, die eine „2“ darstellen. Alle anderen Farben sind „nulled“. Weiße Bereiche haben keine fehlenden Monate. Bitte beachten, dass die Formen in Abbildung 4 nicht exakt mit den Formen in Abbildung 5 übereinstimmen werden. Das ERSST-Gitter ist ein 2-Grad-Gitter und wir wenden eine 5-Grad-Gittermaske darauf an. Dazu musste ich von jeder Zelle aus 2,5 Grad in alle Richtungen suchen und ein 2-Grad-Zellengitter mit den fehlenden Monaten aus einem 5-Grad-Gitter auffüllen. Dieses Verfahren ist so genau wie möglich, kann aber die Nullbereiche um bis zu einer Zwei-Grad-Zelle verzerren. Es gibt keinen genaueren Weg, dies zu tun, ohne zwei Gitter mit übereinstimmenden Gitterzellengrößen zu haben.

Abbildung 5. Die HadSST-Maske, die auf Abbildung 3 angewendet wurde, um Abbildung 4 zu erhalten. Wir akzeptierten Zellen, die einen monatlichen Nullwert (dunkelblau) oder keine monatlichen Nullwerte (weiß) hatten. Zwei monatliche Nullwerte oder mehr wurden abgelehnt. Die Farben stellen die Anzahl der Monate im Jahr 2018 dar, die keine Werte aufweisen. Daher sind die meisten der farbigen Boxen in Abbildung 4 Nullen. Einige der tiefblauen Kästchen werden akzeptiert, die für „1“ stehen, einige nicht, die für „2“ stehen.

Diskussionen und Schlussfolgerungen

John Kennedy hatte recht, dass die Anwendung der HadSST-Nullmaske auf die NOAA ERSST-Aufzeichnung einen Unterschied machte, die durchschnittliche globale Temperatur sprang um 7°C! Was vielleicht noch wichtiger ist: Der Trend kehrte sich von einem Erwärmungstrend von 1,6°C/Jahrhundert zu einem Abkühlungstrend von 3,5°C/Jahrhundert um. Da die Polarregionen die meisten der neu ausgefallenen Zellen enthalten, könnte man daraus schließen, dass sich die Polarregionen ziemlich stark erwärmen und der Rest des Weltozeans sich abkühlt. Dies ist konsistent mit den Beobachtungen, insbesondere in der Region um den Nordpol. Aber es ist nicht konsistent mit der „CO2-Kontrollknopf“-Hypothese (Lacis, Schmidt, Rind, & Ruedy, 2010). Wenn steigendes CO2 die jüngste Erwärmung verursacht, warum sollte sich dann der größte Teil der Welt abkühlen?

Wir werden nicht beurteilen, welche Schätzung der globalen Ozeanoberflächentemperatur besser ist, beide haben einen Nutzen. Die HadSST-Schätzung spiegelt die zugrunde liegenden Daten genau wider, Durchschnittswerte repräsentieren Daten besser als Interpolation und Extrapolation. Wenn das Ziel jedoch darin besteht, die bestmögliche Schätzung der globalen Durchschnittstemperatur mit den uns zur Verfügung stehenden Daten zu erreichen, dann ist das ERSST-Gitter besser. Unser Ziel war es, die beiden Gitter zu vergleichen, ohne Anomalien zu verwenden, die hier nicht benötigt werden. Kennedys Kommentare haben uns dabei geholfen, und wir sind dankbar für die Hilfe. Das Ergebnis zeigt, dass die ERSST-Schätzung, die auf die Mehrjahresschätzungen der Universität Hamburg und des NOAA MIMOC fällt, zwar wahrscheinlich die beste Schätzung der globalen Ozeanoberflächentemperatur, aber dennoch spekulativ ist. Die wahren Ozeanmessungen, die durch HadSST gut repräsentiert werden, unterstützen ERSST nicht. Daher ist die ERSST-Schätzung zwar logisch, aber sie leitet sich nicht aus den zugrunde liegenden Daten ab. Nur weil eine Karte so aussieht, wie sie Ihrer Meinung nach aussehen „sollte“, ist sie noch lange nicht richtig.

Wir können auch folgern, dass wir keine Ahnung haben, was die globale durchschnittliche Oberflächentemperatur der Ozeane ist oder ob sie sich erwärmt oder abkühlt. Die in den Abbildungen 1 und 2 dargestellten Daten zeigen eine riesige Temperaturspanne, und alle basieren im Wesentlichen auf den gleichen Rohdaten. Der Fehler, den die Schätzungen implizieren, liegt bei mindestens ±3,5°C. Die von HadSST/ERSST geschätzte Erwärmung über unnötige und irreführende Anomalien beträgt 1,7°C/Jahrhundert für diesen 19-jährigen Zeitraum. Doch sowohl die HadSST- als auch die ERSST-Ist-Temperaturen zeigen eine Abkühlung von 3,5°C/Jahrhundert über denselben Zeitraum.

Jeder, der glaubt, er wisse, was das Klima heute tut oder in zehn Jahren tun wird, hat einfach nicht aufgepasst. Es sollte jedem klar sein, dass die Ozeane der wichtigste Treiber unseres langfristigen Klimas sind, und die Aufzeichnungen, auf die wir uns verlassen, um uns zu sagen, wie sich die Temperaturen der Meeresoberfläche und der gemischten Schicht verhalten, sind dieser Aufgabe nicht gewachsen. Man könnte genauso gut Würfel benutzen, um eine Temperatur zu wählen.

[Hervorhebung vom Übersetzer]

I processed a lot of data to make this post, I think I did it correctly, but I do make mistakes. For those that want to check my work, you can find my R code here.

None of this is in my new book Politics and Climate Change: A History but buy it anyway.

Works Cited

Lacis, A., Schmidt, G., Rind, D., & Ruedy, R. (2010, October 15). Atmospheric CO2: Principal Control Knob Governing Earth’s Temperature. Science, 356-359. Retrieved from https://science.sciencemag.org/content/330/6002/356.abstract

Link: https://wattsupwiththat.com/2020/12/16/sea-surface-temperatures-hadley-centre-v-noaa/

Übersetzt von Chris Frey EIKE




Energiewende 2020 – das Wetter als Spielverderber

Näheres zum Stand und den Problemen der Energiewende sowie zu den meteorologischen Hintergründen finden Sie hier. Diese Ausführungen werden im Folgenden um die Daten des Jahres 2020 ergänzt und einige Monate, Monatsabschnitte oder Jahreszeiten näher betrachtet; außerdem wird sich zeigen, welcher Energieträger der „Gewinner“ des Jahres bei der Stromerzeugung ist.

Zwischen Mangel und Überproduktion – der Hochwinter 2020

Gerade in der „dunklen“ Jahreszeit wird viel Strom verbraucht. Leider fällt die Sonne mit meist nur ein bis 2 Sonnenstunden pro Tag als Stromlieferant fast gänzlich aus; und die Windenergieerzeugung schwankt in dieser Jahreszeit zwischen totaler Flaute und Überangebot so stark wie zu keiner anderen Zeit des Jahres. Die Monate Januar und Februar 2020 waren enorm gegensätzlich; im von Hochdrucklagen dominierten Januar häuften sich Flauten; im extrem milden Februar jagte ein Wintersturm den nächsten:

Abbildung 1: Nur wenig Wind, kaum Solarenergie (gelbliche Spitzen) im Januar 2020. Um den 22.01. schlief der Wind für mehrere Tage fast völlig ein; 60 bis 70% des Stroms mussten konventionell erzeugt werden; die gut 30.000 Windräder und Millionen Solarpaneele standen völlig nutzlos in der Landschaft. Effektive Speicher, die Strom aus besseren Zeiten bereitstellen könnten, fehlen und sind in naher Zukunft auch nicht in technisch machbarer Reichweite. Die schwarze Zackenlinie stellt die Last (Stromverbrauch) dar. Bildquelle: Fraunhofer-Institut, ergänzt

Abbildung 2: Enorm hohe Schwankungen der verschiedenen Stromerzeugungsquellen im stürmischen Februar 2020. Häufig überstieg die Windstromproduktion die Nachfrage – andere Energiequellen mussten hektisch gedrosselt und der Stromüberschuss entweder zu Schleuderpreisen exportiert, oder Windkraftanlagen zeitweise vom Netz genommen werden. Aber selbst in diesem für die Windenergie so rekordverdächtigen Monat gab es Phasen mit Hochdruckeinfluss fast ohne Windstrom – so um den 6., 14. und 26. Februar. Bildquelle: Fraunhofer-Institut, ergänzt

Ein schönes Beispiel für den extremen, über längere Zeit währenden Mangel an Wind- und Solarenergie findet sich im vom 22. Bis zum 26.Januar 2020; Näheres zu den meteorologischen Besonderheiten des Januars 2020 hier:

Abbildung 3: Über fast fünf Tage kaum Wind- und Solarenergie vom späten Nachmittag des 22. bis zum frühen Nachmittag des 26. Januars 2020. Der Wind lieferte in der Nacht zum 23. Januar bloß mickrige 1 bis 2 GW! Die hellblauen Zacken sind Strom aus Pumpspeichern – hübsch anzusehen, doch fast bedeutungslos; auch die Solarenergie spielt kaum eine Rolle; mehr als zwei Drittel der Stromproduktion entstammten konventionellen Quellen. Bildquelle: Fraunhofer-Institut, ergänzt

Zeitweise sonnig-windiger Frühling – aber ohne konventionelle Kraftwerke ging es auch da nicht

Der März 2020 liefert ein schönes Beispiel, wie rasch sich die Bedingungen zur Stromerzeugung ändern können:

Abbildung 4: Bis etwa Mitte März ähnelten die Bedingungen denen des Februars – zeitweise viel Wind, aber auch kurze, flaue Phasen mit viel konventioneller Nettostromproduktion. Danach insgesamt weniger Wind und mehr Solarstrom; der aber nur tagsüber verfügbar ist. Bildquelle: Fraunhofer-Institut, ergänzt

Das ganze Dilemma der Solar- und Windstromproduktion wird deutlich, wenn man nur deren Erzeugung im März 2020 betrachtet:

Abbildung 5: Solarstromproduktion (gelb-orange Spitzen) und Windstrom (verschiedene grau-grüne Töne für Anlagen diverser Firmen an Land; bläulich für Anlagen auf See). Immer wieder fallen beide Quellen auch in der Summe fast völlig aus; auch sonst ergänzen sie sich nur selten. Und auch die von Energiewende-Befürwortern oft geäußerte Behauptung, dass irgendwo in Deutschland immer Wind wehe, besonders auf dem Meer, erweist sich als falsch. Bildquelle: Fraunhofer-Institut, ergänzt

Der April 2020 bescherte uns mit über 290 Sonnenstunden im DWD-Mittel rekordverdächtig viel Sonnenschein – zu dumm nur, dass unser Zentralgestirn im Erdschatten der Nacht keinen Strom liefern kann:

Abbildung 6: Erzeugung von Wind- und Solarstrom im sehr sonnigen April 2020. Tagsüber reichlich Sonne, manchmal viel, oft aber auch kaum Wind. Symbolik wie in Abbildung 5. Bildquelle: Fraunhofer-Institut, ergänzt

Im Mai, der hier nicht näher behandelt werden soll, gab es das typische Wechselspiel aus vielen Mangel- und wenigen Überproduktionsphasen.

Schwüler, flauer Sommer

Besonders im Juni und August herrschten bei geringen Luftdruckgegensätzen schwüle, zu Gewittern neigende Luftmassen vor; Wind fehlte oder war nur tagsüber als schwacher Lokalwind vorhanden; und die Sonne zeigte sich auch keinesfalls immer. Am Beispiel des Juni zeigen sich wieder die Probleme der unzuverlässigen Wind- und Solarstromproduktion; man spricht auch von VEE (Volatile Erneuerbare Energien):

Abbildung 7: Erzeugung von Wind- und Solarstrom im fast durchschnittlichen Juni 2020. In den Nächten fast immer kaum Strom, doch auch sonst viele über Tage währende Mangelphasen. Aber mitunter auch kurzzeitige Stromschwemmen – die Maxima von Wind- und Solarstromerzeugung fallen oft gegen Mittag zusammen. Dieser kurzzeitige Überfluss kann nicht gespeichert werden und führt, wie der Mangel, zur Destabilisierung der Stromnetze. Ganz ähnliche Produktionsergebnisse waren im August 2020 zu verzeichnen. Bildquelle: Fraunhofer-Institut, ergänzt

Auf den ersten Blick schien wenigstens der Juli 2020 den Erneuerbaren Energien gewogen zu sein – es gab im Norden Deutschlands zeitweise viel Wind, im Süden viele Sonnenstunden. Das Produktionsergebnis sieht aber ernüchternd aus:

Abbildung 8: Auch im Juli war Windstrom meist Mangelware, und die über die schwarze Lastlinie ragenden, mittäglichen Erzeugungsspitzen der Solarenergie konnten nicht verwertet werden (Überproduktion). Beim genauen Hinsehen erkennt man in den Nächten mitunter weiße Flächen unter der Lastlinie – das sind Strommangelphasen, welche beispielsweise durch teure Stromimporte ausgeglichen werden müssen, um Brown- oder Blackouts zu vermeiden. Bildquelle: Fraunhofer-Institut, ergänzt

Herbst: Sonniger, flauer September, trüber Oktober, seltene Stürme

Der September zählt im Jahresverlauf mit den Singularitäten des Spät- und Altweibersommers ohnehin zu den meist windschwachen Schönwettermonaten des Jahres; doch diesmal waren die sonnigen Hochdruckphasen besonders ausgeprägt:

Abbildung 9: Für einen Herbstmonat fiel die Windstromproduktion im September 2020 äußerst mager aus. Bildquelle:Fraunhofer-Institut, ergänzt

Im sehr trüben Oktober gab es endlich mal mehr Wind, doch immer wieder durch Flauten unterbrochen:

Abbildung 10: Im Oktober probte die Sonne schon mal den Winterurlaub – sie schien kaum. Und weil es auch nur zeitweise reichlich Wind gab, mussten die konventionellen Kraftwerke hektisch herauf- und heruntergefahren werden – deshalb der äußerst „zackige“ Verlauf bei Gas, Braun- und Steinkohle. Bildquelle: Fraunhofer-Institut, ergänzt

Es war wie verhext: Im November erschien die Sonne wieder übernormal häufig, doch bei von etwa 10 auf 8 Stunden abnehmender Tageslänge lieferte sie dennoch nur wenig Strom. Und der Wind schlief wieder über längere Phasen fast ganz ein:

Abbildung 11: Viele „Fehlzeiten“ bei den Volatilen Erneuerbaren Energien (Sonne und Wind) auch im sonnigen November 2020. Bildquelle: Fraunhofer-Institut, ergänzt

Eine ernüchternde Erkenntnis im Christmond: „And the Winner is – Natural Gas!“

Zum Jahresabschluss werfen wir noch einen Blick auf das erste Dezemberdrittel, welches 2020 ungewöhnlich trüb und windstill verlief. So richtig spannend wird aber erst ein Vergleich mit demselben Zeitraum 2016, der liegt nur vier Jahre zurück:

Abbildungen 12a und 12b: Nettostromproduktion im reichlich ersten Dezemberdrittel 2020 (oben) und 2016 (unten). Man achte auf die starke Zunahme der orangerosa Fläche (Erdgas!) in 2020, während fast alle anderen Energieträger Federn lassen mussten; besonders Steinkohle und Kernkraft. Biomasse, Solar und Wasserkraft blieben etwa gleich unbedeutend; Wind gab es in beiden Vergleichszeiträumen nur wenig. Bildquellen: Fraunhofer-Institut, ergänzt

Das nennt man dann wohl eine lupenreine Mogelpackung – Kohle und Kernkraft werden, weil Wind und Sonne sie niemals ganz ersetzen können, durch umweltpolitisch inkorrektes Erdgas ersetzt – klammheimlich wird wohl Nord-Stream 2 nun doch noch vollendet, und still und leise wie in der Heiligen Nacht hat die Bundesnetzagentur vier Gaskraftwerke mit je 300 Megawatt Leistung im Süden Deutschlands genehmigt. Sie werden unter anderem in Biblis durch RWE und in Irsching durch Uniper gebaut. Man darf nun gespannt sein, wann die Gutmenschen der GRÜNEN und von Greenpeace die Erdgas-Verdichterstationen und die Schornsteine der Gaskraftwerke blockieren werden… .

Zirkulationsarme, unbestimmte (XX)-Wetterlagen häufen sich – schlecht für die Wind- und Solarenergie

Was zirkulationsarme, unbestimmte Großwetterlagen sind, wird hier näher erläutert. Eine Häufung dieser Lagen deutet sich bei freilich großer Streuung an:

Abbildung 13: Entwicklung der Anzahl der Tage mit XX-Lagen (unbestimmte Lagen nach der Objektiven Wetterlagen-Klassifikation des DWD) im Jahr. Im Langjährigen Mittel sind diese für die Erzeugung Erneuerbarer Energien problematischen Wetterlagen an fast 70 Tagen zu erwarten – mit steigender Tendenz. Das sind mehr als zwei Monate pro Jahr, an denen besonders die Windenergie, aber im Winterhalbjahr auch der Solarstrom, kaum zur Verfügung stehen; man achte nur auf die Kalamitäten im Januar und Dezember 2020!

Folglich nahm auch die Windgeschwindigkeit in den letzten 3 Jahrzehnten merklich ab, was möglicherweise auch eine Folge des zu massiven Windkraftausbaus ist:

Abbildung 14: Weil es kein DWD-Flächenmittel der Windgeschwindigkeit gibt, wurde ein solches aus 25 Stationen in Norddeutschland, also dort, wo die meisten Windräder stehen, berechnet. Seit etwa 30 Jahren sinkt die Windgeschwindigkeit, leider nur in Beaufort verfügbar, merklich. Das Jahr 2020 wird mit etwa 2,92 Beaufort trotz des extrem stürmischen Februars sehr windschwach ausfallen.

Düsterer Ausblick

All die vielen, teuren, verzweifelten Forschungs- und Modellprojekte konnten bislang keine Energieform und keine Energiespeicher finden, die umweltfreundlich, wirtschaftlich, zuverlässig und effektiv sind. Die physikalischen Gesetze machen da auch für die kommenden Jahrzehnte wenig Hoffnung. Und sollte der große Wurf, etwa mit der Kernfusion, doch noch gelingen, so würden bis zur technisch-ökonomischen Reife weitere Jahrzehnte ins Land gehen. Wegen ihrer geringen Energiedichte und ihrer schlechten Speicherbarkeit müssten Wind- und Solarkraft um das etwa fünfzehn- bis zwanzigfache ihrer heurigen Anzahl ausgebaut werden; hinzu kämen enorm teure, ebenfalls umwelt- und ressourcenschädigende Großspeicher. Für die Windkraft würde das gegenüber den heurigen gut 30.000 Anlagen weit über 300.000 Anlagen bedeuten; auf nahezu jedem Quadratkilometer Deutschlands stände dann etwa ein großes Windrad, auch in Städten, Wäldern, Naturschutzgebieten… . Nach den Berechnungen des Autors Klaus Maier („Die Abrechnung … mit der Energiewende“) würde bei dieser Vorgehensweise Strom im Jahre 2050 mit über 1,3 Euro/Kilowattstunde zum unbezahlbaren Luxusgut – schöne, neue Energiewendewelt, mir graut vor Dir… .




Das Hähnchen­grill-Paradoxon

Würden Sie ein solches Angebot tatsächlich annehmen?

Vielleicht würden Sie die Funktionsweise eines solchen Turbobräuners auf das Prinzip eines Hähnchengrills zurückführen, dessen Leistung man einfach auf das ganze Hähnchen inklusive seiner Rückseite herunterrechnet. Und daher könnten Sie zu der Erkenntnis gelangen, dass die Wirkung einer doppelt so großen direkten Strahlungsleistung Ihrer Gesundheit nicht ganz zuträglich wäre. Und genauso berechnet man jetzt umgekehrt einen viel zu geringen Wert für die tatsächliche „natürliche“ Temperatur unsere Erde. Man verteilt nämlich einfach die tatsächliche spezifische Strahlungsleistung der Sonne auf der Tagseite unserer Erde rechnerisch über die gesamte Erdoberfläche, also auch auf deren Nachtseite. Dabei kommt man fälschlicher Weise auf eine „theoretische Globaltemperatur“ von (-18°C) und behauptet, die Sonne sei gar nicht stark genug, um mit ihrer direkten Einstrahlung die gemessenen Temperaturen auf unserer Erde zu erzeugen. Als Erklärung für die Differenz zur sogenannten „gemessenen globalen Durchschnittstemperatur“ (NST) von ca. (15°C) postuliert man dann eine ominöse „atmosphärische Gegenstrahlung“, die konstruktionsbedingt jede Differenz zu einer beliebigen NST erklären kann, weil sie quantitativ lediglich an der sogenannten „Abstrahlungstemperatur“ von (-18°C) „festgemacht“ ist. Damit schaltet man dann eben mal den natürlichen Klimaantrieb aus, dessen Einfluss in den vergangenen 420.000 Jahren immerhin um ca. +3°C/-9°C geschwankt hatte. Mit diesem „Hähnchentrick“ beweist man also einen vorgeblich „natürlichen atmosphärischen Treibhauseffekt“ als alleinigen Antrieb unseres Klimageschehens, denn man muss ja immer nur die „Gegenstrahlung“ passend nachjustieren. Die direkte spezifische Strahlungsleistung der Sonne kann auf unserer Erde im äquatorialen Zenit aber eine Maximaltemperatur von bis zu ca. 120°C erzeugen. Abzüglich des durchschnittlich reflektierten Anteils und durch eine Mittelung über die gesamte Erdoberfläche ergeben sich nach herkömmlicher Rechnung aber lediglich -18°C.

Bezogen auf einen Hähnchengrill, bei dem man ebenfalls die Leistung des Heizstrahlers auf das gesamte Hähnchen inklusive seiner Rückseite herunterrechnet, würde das den Unterschied zwischen einem gegrillten (120°C) und einem tiefgefrorenen (-18°C) Hähnchen ausmachen.
(Aus meinem Buch „Mehr geht nicht“ mit Änderungen und Ergänzungen.)

Also, je nachdem, ob man sich auf die tatsächlich bestrahlte Fläche beschränkt oder ob man, wie beim Hähnchen, „aufgrund der Rotation“ fälschlicherweise unbestrahlte Flächen in diese S-B-Inversion einbezieht, kommt man für unsere Erde zu ganz unterschiedlichen „theoretischen“ Temperaturen, von denen nur eine richtig sein kann. Und beim THE-Paradigma wird ohne weitere Erklärung der planare solare Poynting Vektor (Einstrahlung) gegen einen radialen terrestrischen Poynting Vektor (Abstrahlung) ausgetauscht, indem einfach nur mit Beträgen gerechnet wird. Bei meinem hemisphärischen S-B-Modell wird dagegen bei der solaren Einstrahlung auf der Tagseite der Erde der solare Zenitwinkel berücksichtigt.

Definition: Als Temperaturgenese sei derjenige Prozess bezeichnet, mit dem der Vektor (Betrag&Richtung) der Strahlstärke von der solaren Einstrahlungsrichtung zur terrestrischen Abstrahlungsrichtung hin verändert wird. Es ist in einer physikalischen Betrachtung nicht statthaft, die Richtung eines Vektors zu unterdrücken und nur mit seinem Betrag zu rechnen.

ERGO: Mein hemisphärisches S-B-Modell ist das einzige Modell für die Temperaturgenese auf unserer Erde, das die „gemessene“ Realität von etwa 15°C widerspruchsfrei abbilden kann.

Abbildung 1: Das hemisphärische S-B-Modell für die Temperaturgenese auf unserer Erde

Das hemisphärische S-B-Modell kann als vieljährige Durchschnittsbetrachtung unserer realen Erde die räumlichen und zeitlichen Abhängigkeiten der solaren Einstrahlung abbilden und erfasst damit qualitativ alle drei räumlichen Dimensionen und die Tages-/Jahreszeit bei der Temperaturgenese.

Das Modell einer „Erde ohne Atmosphäre“ orientiert sich am Mond

Die hemisphärische S-B-Inversion ist nicht auf eine ominöse „Erde ohne Atmosphäre“ anwendbar, aus der sich dann ein „natürlicher atmosphärischer Treibhauseffekt herleitet. Nur zur Erinnerung, Klima kommt aus dem Griechischen und bedeutet ‚Krümmung/Neigung [des Sonnenstandes]‘ – und eine solche Neigung des Sonnenstandes gibt es nachts nun einmal nicht. Der unvoreingenommene Betrachter kann das schon daran erkennen, dass der Lichtschutzfaktor der – selbstverständlich nur am Tage – benutzten Sonnencreme üblicherweise umgekehrt proportional zur geographischen Breite des jeweiligen Einsatzortes ist. Eine solche „Erde ohne Atmosphäre“ entspricht übrigens viel eher dem Mond, dessen Tagestemperatur mein hemisphärischer S-B-Ansatz (hier und hier) ganz hervorragend abbilden kann. Dabei ist zu beachten, dass, abweichend von der Situation auf dem Mond, auf der Erde das S-B-Temperaturäquivalent niemals erreicht wird. Denn mit der örtlichen Erwärmung beginnen hier unmittelbar auch Konvektion und Verdunstung, durch die fortlaufend Energie in die globalen Zirkulationssysteme abgeführt wird.

Also noch mal zur Erinnerung der Unterschied zwischen dem S-B-Gesetz und einer S-B-Inversion:

Das Stefan-Boltzmann-Gesetz: Temperatur (primär) => Spezifische Strahlungsleistung (sekundär)

Formel: S=P/A=SIGMA T4

In Worten: Ein schwarzer Körper mit einer gegebenen Temperatur T (>0K) in [K] strahlt zeitgleich eine durch das S-B-Gesetz fest verknüpfte Strahlungsleistung [W] über seine gesamte Oberfläche „A“ in [m²] aus. Die Abstrahlung erfolgt in Richtung der Flächennormalen. Das S-B-Gesetz enthält weder nicht strahlende Flächen „B“ noch Zeit [s] oder zeitlich abgeleitete Mittelwerte [J/s].

Jede Berechnung einer Temperatur (sekundär) aus einer bestimmten Strahlungsleistung (primär) stellt eine Inversion (Strahlung=>Temperatur) des Stefan-Boltzmann-Gesetzes dar, die nur zulässig ist, wenn alle genannten Randbedingungen des S-B-Gesetzes strikt 1:1 erfüllt werden:

Die Stefan-Boltzmann-Inversion: Spezifische Strahlungsleistung (primär) => Temperatur (sekundär)

Formel: T=(S/SIGMA)1/4

In Worten: Eine gegebene spezifische Strahlungsleistung [W/m²] beleuchtet einen (schwarzen) Körper mit einer Oberfläche „A“ in [m²] und erzeugt dort zeitgleich ein über das S-B-Gesetz fest verknüpftes Temperaturäquivalent in T [K], und zwar strikt abhängig vom Einfallswinkel der Strahlungsleistung auf die Fläche „A“. Eine Stefan-Boltzmann-Inversion darf weder unbeleuchtete Flächen „B“ noch Zeit [s] oder zeitlich abgeleitete Mittelwerte [J/s] enthalten.

Die PHYSIKALISCHE Gleichzeitigkeit im Stefan-Boltzmann-Gesetz: Die Zeit „t“ ist NICHT im S-B-Gesetz enthalten. Daher müssen alle mathematischen Prozesse im Zusammenhang mit S-B (S-B-Berechnung, S-B-Inversion) unmittelbar zeitgleich erfolgen.

Die fehlerhafte Durchschnittsberechnung: In einem physikalischen T4-Gesetz folgt eine Durchschnittsberechnung nicht der ursprünglichen Funktion, Beispiel:
0 W/m² entsprechen nach dem S-B-Gesetz -273 °C und 470 W/m² entsprechen 28 °C. Der daraus gemittelte Temperaturwert von etwa -122,5 °C für einen Strahlungsdurchschnitt von 235 W/m² entspricht aber keineswegs der diesem Strahlungswert direkt zugeordneten S-B-Temperatur von -19°C.

Im Stefan-Boltzmann-Gesetz ist der Rechenweg nicht austauschbar:

PHYSIK(=MEAN@S-B-Inversionen[W/m²]) # MATHEMATIK(=S-B-Inversion@MEAN[J/m²s])

In jede Gleichung können Sie ohne Veränderung der mathematischen Lösung beliebige Größen einfügen, solange diese gleichzeitig im Zähler UND Nenner auftauchen, also zum Beispiel:

(Lichtgeschwindigkeit/Lichtgeschwindigkeit) oder (Gewicht der Erde/Gewicht der Erde) oder (Sekunde/Sekunde) oder…

Wenn Sie also auf Ihrem Rechenweg zwischendurch die spezifische Leistung mit Sekunden multiplizieren (=Arbeit [s*W/m²=J/m²]) und am Ende wieder durch Sekunden teilen (Leistung [J/m²s=W/m²]), macht das der Mathematik gar nichts; anders ist es mit der Physik, denn die ist hinterher nicht mehr dieselbe. Denn in der Physik muss der Gegenstand der Betrachtung physikalisch anwesend sein. Beim S-B-Gesetz selbst ist das ganz profan, weil der Schwarzkörper eine ganz konkrete Temperatur besitzt und daher die gleichzeitige spezifische Strahlungsleistung über seine gesamte Fläche „A“ konstant ist. Bei der S-B-Inversion darf dagegen ein Temperaturdurchschnitt nur aus den UNMITTELBAR GLEICHZEITIGEN S-B-Ortstemperaturen berechnet werden, eine MITTELBARE Durchschnittsbildung über die zeitliche Summation/Integration der spezifischen Strahlungsleistung mit nachfolgender S-B-Anwendung ist dagegen nicht erlaubt.

Unbeleuchtete Flächen und zeitliche Ableitungen haben in einer S-B-Inversion nichts zu suchen.

AUFFORDERUNG: Die Faktor4-Tag=Nacht-THE-Fraktion möge den PHYSIKALISCHEN Beweis erbringen, dass das Stefan-Boltzmann-Gesetz (S=P/A=SIGMA T^4) Flächen (B) enthält, die NICHT zur Strahlungsleistung (P) des Schwarzkörpers beitragen.

 

 

ERGEBNIS: Es gibt im streng „gleichzeitigen“ Stefan-Boltzmann-Gesetz keine Flächen (B), die nicht zur Strahlungsleistung (P) des Schwarzkörpers beitragen. Daher sind auch keine unbeleuchteten Flächen (B) in einer „gleichzeitigen“ S-B-Inversion erlaubt. Physikalisch „gleichzeitig“ bedeutet übrigens auch nicht, dass unterschiedliche „Gleichzeitigkeiten“ in einer einzigen S-B-Berechnung aufaddiert und gemittelt werden dürften…

Die „zweite Sonne“ im hemisphärischen S-B-Modell sind die Ozeane

Und jetzt betrachten wir einmal, wie sich die Flächen (A=beleuchtet) und (B=unbeleuchtet) auf die sogenannte „gemessene globale Durchschnittstemperatur“ von 14,8°C auswirken. Diese Durchschnittstemperatur NST kann über ihren 24h-Verlauf nur ganz minimal schwanken. Schließlich soll dieser Wert aus weltweit zeitgleich ermittelten Temperaturen berechnet werden und bildet deshalb für jeden Zeitpunkt des 24h-Tages einen globalen Tag&Nacht-Durchschnitt ab. Die Tagseite (A) und die Nachtseite (B) der Erde sind an diesem Durchschnittswert also gleichberechtigt beteiligt. Lediglich die unterschiedliche geographische Verteilung von Land- und Ozeanflächen und deren Position zum aktuellen Stand der Sonne dürften einen merklichen Einfluss auf den globalen tages- und jahreszeitlichen Temperaturdurchschnitt ausüben.

Die Nachtseite unserer realen Erde erhält in der erlebten Realität also keinerlei Sonneneinstrahlung, hat aber trotzdem keine Mond-Temperatur von etwa minus 200°C. Denn die Nachttemperatur hängt im Wesentlichen von der Wärmespeicherfähigkeit des passiv bestrahlten Himmelskörpers ab. Und auf der Erde wird der Nachtseite die erforderliche Wärme von ihrer kombinierten Luft-Wasser-Heizung aus den globalen Zirkulationen (Atmosphäre und Ozeane) zur Verfügung gestellt. Allein die Ozeane, die zwei Drittel unserer Erdoberfläche bedecken, enthalten ein Wärmeäquivalent von etwa 50.000 24h-Tagen Sonneneinstrahlung, und diese Wärmespeicher werden wiederum fortwährend durch die solare Einstrahlung auf der Tagseite unserer Erde „aufgeladen“. In der nachfolgenden Abbildung ist die jahresdurchschnittliche Oberflächentemperatur der Ozeane dargestellt, also der Durchschnitt zwischen Tag und Nacht sowie Frühling, Sommer, Herbst und Winter auf beiden jahreszeitlichen Hemisphären:

Abbildung 2: “Annual Mean Ocean Surface Temperature” based on observed data up until 1994 (NASA)

Diese Ozean-Daten repräsentieren also schon einmal zwei Drittel der „gemessenen“ globalen Ortstemperaturen. Die mittlere jährliche Oberflächentemperatur der Ozeane liegt bis etwa 70° nördlicher und südlicher geographischer Breite zwischen 0°C – 30°C und fällt erst jenseits davon auf bis zu -5°C ab; ein globaler Durchschnitt dürfte also in etwa bei der NST von ca. 15°C kumulieren. Dieser Verlauf bestätigt mein hemisphärisches S-B-Modell, das den 0°C-Durchgang des tagseitigen S-B-Temperaturäquivalentes ebenfalls bei etwa 70° nördlicher und südlicher geographischer Breite berechnet, wie die nachfolgende Abbildung beweist:

Abbildung 3: Das breitenabhängige S-B-Temperaturäquivalent im Äquinoktium

Links: Das vom Zenitwinkel abhängige tagseitige S-B Temperaturäquivalent für 1°-Segmente zwischen 0° und 90° nördlicher und südlicher Breite in [°C]

Berechnungsschema:

Lotrechter Sonnenstand auf dem Äquator,
Berechnung des S-B-Temperaturäquivalents aus der lokalen solaren Einstrahlung auf Mantelringen von 1° Breite mit dem Radius ri und dem Zenitwinkel i nach der Formel:

Der Grenzwert (n->oo) für die Summation über alle Segmente „n“ zwischen 0° und 90° nördlicher und südlicher Breite auf der Tagseite der Erde ergibt sich als meine Korrektur der Integrallösung von G&T (2009) zu 2 x 144,15K = 288,3K = 15,15°C

Rechts: Das maximale breitenabhängige S-B-Temperaturäquivalent über den 24h-Tag

Und nun erkläre bitte irgendein Anhänger der ominösen „Erde ohne Atmosphäre“, wie die globale Nachttemperatur in meinem hemisphärischen S-B-Modell für die reale Erde auch nur auf -18°C oder sogar auf Mond-Temperaturen von ca. -200°C absinken sollte. Die NASA-Abbildung der jährlichen mittleren ozeanischen Oberflächentemperatur weist vielmehr nach, dass die Ozeane genügend Wärme enthalten, um die Nachttemperaturen über die Umgebungsgleichung des S-B-Gesetzes nicht unter ihr eigenes Temperaturniveau absinken zu lassen (Ozean=>Atmosphäre=>Land). Denn schließlich tragen die dort abgebildeten Durchschnittstemperaturen nicht nur zu zwei Dritteln zur globalen Durchschnittstemperatur bei, nachts/im Winter/in höheren geographischen Breiten erfolgt aus diesem Wärmereservoir auch noch ein stetiger Wärmefluss vom Meer zum Land (hier Punkt 6). Auf dem Hamburger Bildungsserver Klimawandel heißt es unter „Ozean im Klimasystem“ bestätigend, Zitat mit Hervorhebungen:
Zwischen Ozean und Atmosphäre herrscht ein ständiger Energie-/Wärmeaustausch: Energie wird immer an das Subsystem gegeben, welches gerade weniger Energie besitzt. Im Sommer/ am Tag ist der Ozean kälter als die Atmosphäre, da diese sich schneller durch die höhere solare Einstrahlung erwärmt. Es wird also Wärme von der Atmosphäre in den Ozean transportiert, der diese speichert. Auch im Winter/ in der Nacht reagiert der Ozean nur sehr langsam auf die viel geringere Einstrahlung. Während die Atmosphäre schon wieder stark abgekühlt ist, ist in der oberen Schicht des Ozeans noch viel Wärme gespeichert und erwärmt somit die über ihm liegende Atmosphäre. Der Ozean dämpft also den Einfluss der Sonneneinstrahlung, sodass Landgebiete in Meeresnähe im Winter eher wärmer, im Sommer kühler als meerferne Gebiete sind. Sie zeigen somit einen schwächeren Jahresgang. Analoges gilt für Tag- und Nachttemperaturen.“

ALSO:Energie wird immer an das Subsystem gegeben, welches gerade weniger Energie besitzt“, und dieser Energietransfer wird durch die S-B-Umgebungsgleichung beschrieben:

DELTA S = SIGMA (T4 – T04)
An dieser Stelle bietet es sich an, auch gleich noch das viel diskutierte Jacken-Paradoxon aufzulösen. Wenn es draußen kalt ist, dann ist die Umgebungstemperatur T0 niedrig, nehmen wir mal 273K; Ihre Körpertemperatur beträgt dagegen 310K. Ihr Körper strahlt also mit DELTA S = SIGMA (3104K – 2734K) und Sie frieren. Wenn Sie jetzt eine Jacke anziehen, erwärmt sich deren Innenseite durch Ihre Körpertemperatur, sagen wir einmal auf 305K, das ist also Ihre neue Umgebungstemperatur. Ihr Körper strahlt dann nur noch mit DELTA S = SIGMA (3104K – 3054K) und Sie frieren nicht mehr, weil Ihr Körper durch die Jacke besser gegen den Wärmeverlust isoliert ist. Die Jacke erhöht also Ihre Körpertemperatur nicht, sondern verhindert lediglich dass Sie auskühlen. Anders ist es, wenn Sie in dieser Jacke Sport treiben. Dann produziert Ihr Körper mehr Wärme, als durch diese Jacke abgeleitet werden kann und Sie fangen an zu schwitzen. Da hilft dann nur noch eine dünnere Jacke, die schlechter isoliert…

Die hemisphärische S-B-Inversion ist ein qualitatives 3D&T-Modell unserer Erde

Da nun einmal die tagseitige solare Einstrahlung als Primärquelle für die Temperaturgenese auf unserer Erde anzusehen ist, stellt die hemisphärische S-B-Inversion ein realistisches 3D&T-Modell unserer Erde dar. Dieses Modell erklärt die Temperaturgenese, die Nachttemperatur und die globale Abstrahlung widerspruchsfrei zu den Hauptsätzen der Thermodynamik, wie die drei nachfolgenden Abbildungen belegen:

Tagseitige Einstrahlung @2PIR² und Temperaturgenese: Die hemisphärische Temperaturgenese folgt dem Sonnenstand auf der Tagseite der Erde:
S0*(1-ALBEDO) * COS(örtl. Zenitwinkel der Sonne)

Abbildung 4: Maximales breitenabhängiges S-B-Temperaturäquivalent im Äquinoktium.

Die Temperatur auf den Landmassen der Nachtseite unserer Erde kann nicht unter die Temperatur der globalen Wärmespeicher absinken und wird durch die S-B-Umgebungsgleichung DELTA S=SIGMA(T4-T04) beschrieben:
Die globalen Wärmespeicher unserer Erde (@T0) verhindern ein Mond-ähnliches Absinken der Nachttemperaturen auf unserer Erde. Der nächtliche Abstrahlungsverlust der Landoberfläche (@T) wird durch Advektion und Kondensation kompensiert.

Abbildung 5: “Annual Mean Ocean Surface Temperature” based on observed data up until 1994 (NASA).

Globale Abstrahlung @4PIR²:

Der Energiefluss bei der Abstrahlung (@4PIR²) vom Warmen (Erdoberfläche@390W/m²) zum Kalten (Abstrahlungshöhe@235W/m²) gehorcht den Hauptsätzen der Thermodynamik.

Abbildung 6: Die Richtung des Poynting-Vektors im globalen Abstrahlungsmodell (@4PIR2). Mit perspektivisch angepasster Mollweide-Projektion (Copyright L. Rohwedder – Lizenz CC BY-SA 3.0)

QED: Mein hemisphärisches S-B-Modell geht vom prinzipiellen Unterschied zwischen Tag und Nacht aus und erfordert keinen „natürlichen atmosphärischen Treibhauseffekt“ zur Erklärung der terrestrischen Temperaturgenese. Dieses S-B-Modell liefert vielmehr ein qualitatives Bild von den räumlichen und zeitlichen Veränderungen, die unser globales Klimageschehen bestimmen. Das hemisphärische S-B-Modell wäre also eine einmalige Möglichkeit, die Position der Klimarealisten in der Auseinandersetzung um unserer aller Zukunft zu stärken und die gesamte CO2-Klimahysterie ad absurdum zu führen; meinen damaligen Ausführungen ist also nichts hinzuzufügen…

Das Treibhaus-Paradoxon macht die Nacht zum Halbtag – den Tag aber leider auch…

Aber GLAUBEN Sie mir bitte ja nichts, schon gar nicht mein hemisphärisches S-B-Modell. PRÜFEN Sie vielmehr alles sehr sorgfältig, und widerlegen Sie mein S-B-Modell, indem Sie den wissenschaftlichen Nachweis über eine eindeutige physikalische Tag&Nacht-Gleichheit führen. In der nachfolgenden Tabelle können Sie noch einmal die Unterschiede der beiden konkurrierenden Modelle überprüfen:

Tabelle 1: Direkter Vergleich der konkurrierenden S-B-Modelle für die Globaltemperatur mit meiner Bewertung – können Sie hier vielleicht einen Vorteil für das 4PIR2-THE-Paradoxon erkennen?

2PIR² = Das hemisphärische S-B-Modell 4PIR² = Das THE-Tag=Nacht-Flacherdeparadigma
[Hinweis von Admin: Die in der Tabelle in der rechten Spalte genannten Links konnten im EIKE-Editor nicht übernommen werden. Sie folge hier entsprechend der Numerierung links.

Links: 1. 2. 3. 4. 5. 6. 7. 8. 9. 10. 11. 12. 13. 14. 15. 16. 17. 18.

Ende Hinweis]

Die tatsächliche Abfolge von Tag und Nacht im realen Leben entspricht nicht dem 4PIR2-Tag=Nacht-THE-Halbdunkel, sondern spiegelt vielmehr das Kindergarten-Alltagswissen, nachts sei es dunkler als draußen. Von daher müsste jeder Betrachter erkennen können, dass unsere Sonne ausschließlich am Tage (@2PIR2) Arbeit (=Leistung*Zeit) zu verrichten gewillt ist und nachts (ebenfalls @2PIR2) einfach streikt. Der Ausgangspunkt der herkömmlichen THE-Ableitung, die „-18°C-S-B-Globalinversion“ ist also definitiv falsch, weil sie mit der Tag&Nacht-Realität auf unserer Erde nichts zu tun hat und erst durch das Kunstprodukt „THE“ wieder an diese Realität anzuschließen vermag. Wer also meinen hemisphärischen 2PIR2-Ansatz ablehnt, der möge sich gerne etwas ganz Neues ausdenken; der 4PIR2-Tag=Nacht-THE-Ansatz kann es jedenfalls wirklich nicht sein. Es ist schon sehr erstaunlich, dass der astronomische Gebrauch des Stefan-Boltzmann-Gesetzes für aktiv leuchtende Sterne einstmals kritiklos auf einen passiv bestrahlten Planeten wie unsere Erde übertragen worden ist. Es ist noch erstaunlicher, dass mehr als drei Jahrzehnte intensiv alimentierte Klimaforschung den Unterschied zwischen Tag und Nacht nicht erkannt haben will. Am erstaunlichsten aber ist, dass selbst bei den sogenannten Klimarealisten eine überwiegende Mehrheit diese fehlerhafte S-B-Inversion hochemotional verteidigt.

 




Corona: Gibt es intelligente Lösungen oder nur die unserer Politiker?

Coronadaten

Anmerkung: Warum immer wieder „Corona“? Weil es eine vorgezogene Blaupause für die Maßnahmen zum Klimawandel ist. Genau so Unsinnig und an vielen Fakten vorbei wird auch dort entschieden. Nur, dass man es bei Corona besser erkennen kann.

Lediglich die Zeithorizonte unterscheiden sich und etwas ganz Wichtiges: Bei „Covid“ schmeißen die Politiker das Geld zum Fenster hinaus und es kommt nie wieder zurück. Beim Klimawandel passiert das Erste auch, doch bekommt das Geld gezielt ein bestimmtes Klientel und die anderen müssen es über Jahrzehnte über die Luftsteuer zurückbringen.

Schaut man sich (nur) die Grafiken auf amtlichen Seiten – und die immer verzweifelteren Hilferufe unserer Politiker – an, dann kann einem mit Corona wirklich Angst und Bange werden.

 

Bild 1 Corona-Fallzahlen. Quelle: RKI Täglicher Lagebericht des RKI zur Coronavirus-Krankheit-2019 (COVID-19) 16.12.2020 – AKTUALISIERTER STAND FÜR DEUTSCHLAND

Bild 2 Corona-Daten. Grafik vom Autor erstellt. Quelle: RKI: Die dem RKI übermittelten COVID-19-Fälle nach Meldewoche und nach Geschlecht sowie Anteile mit für COVID-19 relevanten Symptomen, Anteile Hospitalisierter und Verstorbener für die Meldewochen KW 10 – 49

Bild 3 Corona-Daten von Bild 2.Blaue und rote Linie rechte Werteachse. Grafik vom Autor erstellt. Quelle: RKI: Die dem RKI übermittelten COVID-19-Fälle nach Meldewoche und nach Geschlecht sowie Anteile mit für COVID-19 relevanten Symptomen, Anteile Hospitalisierter und Verstorbener für die Meldewochen KW 10 – 49

Bild 4 Corona-Daten, summiert. Anzahl Todesfälle (rot) Maßstab rechte Werteachse. Grafik vom Autor erstellt. Quelle: RKI: Gesamtübersicht der pro Tag ans RKI übermittelten Fälle, Todesfälle und 7-Tages-Inzidenzen nach Bundesland und Landkreis

Erste Zweifel sollten einem jedoch spätestens kommen, wenn man sich die Mühe macht, Verläufe anderer Länder, wie zum Beispiel der Schweiz zu betrachten:

Bild 5 Schweiz: Covid-19 Fallzahlen und Todesfälle, Schweiz und Liechtenstein, 24.02.2020 bis 13.12.2020. Rote Linie rechte Werteachse. Grafik vom Autor erstellt. Quelle: Covid-19 Schweiz

Auswertung

Die Darstellungen auf den üblichen Dashboards sind in aller Regel so aufgebaut, dass ein Alarm „sichtbar“ ist, Datenhintergründe aber wenig, bis gar nicht erkennbar werden.
Deshalb anbei der Versuch, solche Hintergrundaussagen nachzubilden.

Dazu eine Ableitung der Mortalität der ersten und der zweiten Welle:

Bild 6 Aufteilung der „zwei Wellen“-Darstellung zum Ableiten der Zahlen in Tabelle, Bild 7

Bild 7 Daten von Bild 6 (RKI-Corona-Werte)

Der „Fall Tübingen“

In dieser Stadt hat ausgerechnet der GRÜNE Bürgermeister ein Experiment gewagt, welches aufzeigt, wie sehr an der Wirklichkeit vorbei die globalen Corona-Maßnahmen der hohen Politik sind und vor allem, mit wie wenig Aufwand – aber eben mit Köpfchen – das Coronaproblem in den Griff zu bekommen ist.

Aus irgend einem Grund finden sich ausgerechnet zur Stadt Tübingen keine Coronazahlen! Das hat dazu geführt, dass „Der Tagesspiegel“ aus Berlin – die „Berlinprawda“ als Pendant zur Alpenprawda – sich genötigt sah, ihren „Verriss“ dieser Maßnahmen mit den Zahlen des Landkreises zu „belegen“:
[8] Der Tagesspiegel, 11.12.2020: Statistik-Diskrepanz in Palmer-Aussagen Doch kein Corona-Wunder in Tübingen?
… Anders als von Oberbürgermeister Palmer behauptet, gibt es Infektionen bei den Über-75-Jährigen. Die Landkreiszahlen sind teils sogar höher als in Berlin …
Zum Glück wurde dieser dämliche Artikel nicht über die dpa verbreitet, sonst wäre laut unserem Bundespräsidenten(Versuch) diesem Pamphlet der bewussten Falschdarstellung noch ein „Wahrheitstempel“ aufgedrückt worden (Laut unsrem Präsidentenversuch sagt die dpa immer die reine Wahrheit).

Wie gesagt, finden sich aus irgend einem Grund zur Stadt keine Zahlen. Allerdings veröffentlicht die Uniklinik Tübingen auf ihrer Homepage „ihre“ Corona-Behandlungszahlen.
In der Datennot kann man diese sicher als eine grobe Stichprobe betrachten und die Wahrheit wenigstens im Ansatz ergründen. Aus irgend eine Grund macht es die Uniklinik schwer, deren Hinterlegung auszuwerten, denn die Angaben sind in einer katastrophal ausgeführten Textdatei hinterlegt, deren Umsetzung auf Excel viel, viel händische Nacharbeit erfordert. Für eine Uniklink eigentlich eine Schande und schade. Aber in Deutschland gewöhnt man sich daran und fragt sich nur, woher unsere Politiker ihr „Wissen“ beziehen. Dass diese (oder ihre Büromitarbeiter) sich solche Mühen machen, kann der Autor kaum glauben.

Anbei nun ein Vergleich von Verläufen Deutschland und Stadt Tübingen. Leider fehlen zu Tübingen die „Fälle gesamt“. Die „Fälle“ Uniklinik und „Anzahl hospitalisiert“ sollten aber vergleichbar sein. Auch listet die Uniklinik keine Mortalität. Man muss von einer „Ähnlichkeit“ des Verlaufes Intensivfälle und Mortalität ausgehen (diese stimmt allerdings nicht ganz, da in der zweiten Welle die Mortalität niedriger ist).
Um sich allerdings ein grobes Bild über Erfolg oder Misserfolg zu machen sollte es ausreichen (und es gibt derzeit nichts Besseres):

Bild 8 RKI Deutschlandzahlen

Bild 9 Fallzahlen der Uniklinik Tübingen. Die Differenz von „Fälle gesamt“ zu „Intensivfälle“ sind Patienten auf Bettenstation Grafik vom Autor erstellt. Datenquelle: Uniklinikum Tübingen, Corona-Fallzahlen Behandlungen

Dazu nochmals parallel die Deutschlandwerte mit einem Korrekturversuch der Mortalitätswerte:

Bild 8a RKI-Deutschlanddaten. Anzahl Intensivbehandelt aus der Mortalitätszahl hochgerechnet. Für die 1. Welle mal 2; für die 2. Welle mal 1,5). Grafik vom Autor erstellt

Fazit
In der Stadt Tübingen scheinen in der zweiten Welle im Deutschlandvergleich die Hospitalisierungen und die Sterbezahlen wesentlich niedriger zu sein! Herr Palmer hat also richtig erkannt, wo und wie man zur wirklichen Problemlösung ansetzen muss und dass das verzweifelte, blinde „Schießen mit der Schrotflinte“ nur immens Geld verpulvert, aber nichts bringt.

Gut, weil Klugheit – und sich zu trauen, es auch noch leibhaftig umzusetzen – in seiner Partei mit das Schlimmste ist, was eine Führungskraft haben kann, will ihn seine Partei auch am liebsten „entlassen“. Und die Landesfürsten Deutschlands und unsere Kaiserin interessieren sich sowieso nicht dafür.
Große, aufwühlende Reden zu halten (was unsere unfehlbare Kanzlerin aber definitiv nicht kann, da deren furchtbares Grammatik-Geschwurbel jegliches Zuhören zur Qual macht, Söder damit allerdings „staatsmännisch“ brilliert, weshalb er es so oft wie möglich anbringt) ist werbewirksamer und leichter, als sich in die Niederungen von Lösungsversuchen zu begeben.

Übersterblichkeit“

Immer neu muss man sich klarmachen, dass der totale Lockdown mit einer hohen Übersterblichkeit begründet wird:
[9] … Söder sagte, er könne nicht nachvollziehen, warum in der Öffentlichkeit die hohen Todeszahlen nicht zu mehr Anteilnahme führen würden. Er sprach in diesem Zusammenhang von einer „ethischen Kapitulation“.

Nur, diese „Übersterblichkeit“ ist in den Daten des Statistischen Bundesamtes nicht zu finden. Das „darf“ aber nicht sein. Also hat dieses Amt einfach selbstherrlich festgelegt, dass eine Abweichung vom Mittelwert der letzten 4 Jahre ein Übersterblichkeit begründet.

Um zu zeigen, was die Zahlen dieses Amtes wirklich aussagen, anbei nochmals Grafiken dazu. Muss man sich natürlich selbst erstellen, denn solche sind zu aussagekräftig und belegen die Falschdarstellung des Amtes:

Bild 9a Deutschland, Sterbezahlen der letzten Jahre. Die Covid-Mortalität zugefügt. Grafik vom Autor erstellt. Datenquellen: Statistisches Bundesamt; RKI

Nun sind die Gesamt-Verstorbenen vielleicht nicht ganz aussagekräftig. Also die Grafik für die Hoch-Risikogruppe ab 70 Jahren. Auch bei dieser Gruppe sieht man keine Übersterblichkeit:

Bild 10 Deutschland, Sterbezahlen der letzten Jahre für die Altersgruppe ab 70. Grafik vom Autor erstellt. Datenquellen: Statistisches Bundesamt

Auch die Uni München findet keine Übermortalität

Bei der Uni München gibt es scheinbar noch ein paar „renitente“ Professoren, die nicht bedingungslos die unfehlbare Merkel und den heiligen Landespapst Söder anhimmeln, sondern sich noch trauen, die Zahlen anzusehen und der eigenen Auswertung mehr zu glauben als den Corona-Landtagsreden von Herrn Söder oder den „Verzweiflungsaufrufen“ an das Volk von Frau Merkel.
Deren Bericht zur (nicht vorhandenen) „Übermortalität“ von Corona ist für jeden nachlesbar:
[5] LMU: CoDAG-Bericht Nr. 4 11.12.2020

Den Autor freut es, denn diese Professoren haben genau das gemacht, was der Autor auch laufend durchführt:
[6] EIKE 11.12.2020: Corona-Daten zum 07.12.2020. Nirgends ist die berichtete, besonders hohe „Übersterblichkeit“ zu finden
[7] EIKE 04. Dez. 2020: Will unsere Regierung ab jetzt bei jeder neuen Grippewelle das Land zugrunde richten?

… und sind dabei zum gleichen Ergebnis gekommen. Auf Achgut gibt es dazu eine kleine Rezension:
[1] Achgut, 16.12.2020: Bericht zur Coronalage vom 16.12.2020 – die totale Angstkommunikation
Die wichtigsten Schlussfolgerungen (Anm.: Originalzitierungen aus der Studie):
1. Todesfälle durch COVID-19 – Adjustiert auf die Einwohnerzahl, zeigt sich keine ausgeprägte Übersterblichkeit
2. Problematische Entwicklung der Fallzahlen bei den Hochbetagten – Die bisherigen Corona-Maßnahmen verfehlen notwendigen Schutz der Ältesten
3. Aktuelle Analysen zum Verlauf der Pandemie: Kein deutlicher Rückgang nach dem Lockdown. Seit der dritten Oktoberwoche gibt es insgesamt einen stabilen Verlauf
Wobei wir als Negativbeispiel wieder beim Robert-Koch-Institut landen. Was sind dessen Corona Lageberichte eigentlich wert? Nehm
en wir den vom 13. Dezember 2020. Das RKI bringt es fertig, uns die täglichen Todeszahlen zu präsentieren, ohne zu beantworten, ob diese Teil des normalen Sterbegeschehens von ca. 2.700 Toten täglich sind oder nicht.
Offensichtlich sind sie es, wie die LMU errechnet, doch wieso interessiert sich das RKI nicht für diese gute Nachricht? Mögliche Corona-Impftote dagegen stellt Lothar Wieler schon einmal 
vorsorglich in den Kontext des normalen Sterbens. Ich muss mich leider wiederholen: Das RKI ist in der Corona-Krise ein Totalausfall.

Aus der Studie einige Grafiken:

Bild 11 [5] LMU: CoDAG-Bericht
Bild 12 [5] LMU: CoDAG-Bericht
 

Bild 13 [5] LMU: CoDAG-Bericht
Das Ergebnis der Studie:
[5] LMU: CoDAG-Bericht: … Die November-Maßnahmen waren nicht hinreichend geeignet die Entwicklung steigender Fallzahlen in der besonders vulnerablen Gruppe der Ältesten zu stoppen. Insgesamt zeigen die Analysen einen Beginn des starken exponentiellen Wachstums in den letzten Septemberwochen. Eine Stabilisierung bei den gemeldeten Ansteckungen gab es schon in der 3. Oktoberwoche, also vor Inkrafttreten des “Lockdown Light” …
Ein deutlicher Rückgang der Zahlen im November ist in keiner der untersuchten räumlichen Ebenen zu erkennen … Problematisch ist, dass die Eindämmung der Entwicklung steigender Fallzahlen in der besonders vulnerablen Gruppe der Ältesten nicht ausreichend gelungen ist …

Ein bisschen Vorbild – ist auch die Schweiz

[1] Achgut: … Peak in der Schweiz schon Ende Oktober erreicht
… Es klingt hart, aber die Politik instrumentalisiert auf diese Weise die Covidtoten, um Grundängste anzuheizen, die sich im Vergleich zu der normalen Sterberate schnell relativieren ließen. Es würde derzeit vielen Menschen mental sehr helfen, davon zu erfahren. Aber wohl nicht den Umfragewerten.
Vielleicht sollte man zum schweizerischen Bundesamt für Gesundheit nach Bern schauen, die machen das nämlich deutlich besser. Zum Beispiel im letzten 
Situationsbericht vom 9. Dezember 2020. Dort erkennt man, dass der Peak schon Ende Oktober erreicht wurde und die Belegungen sinken, und das alles ohne Lockdown. Wir erfahren außerdem die genaue Altersverteilung und das Medianalter der Verstorbenen, welches bei 86 Jahren liegt. 

Anbei einige Grafiken aus der Schweiz, Sehr gut sieht man darin die Altersverteilung::

Bild 14 Schweiz: Laborbestätigte Hospitalisationen, Schweiz und Liechtenstein, 08.06.2020 bis 17.12.2020, pro 100 000 Einwohner. Quelle: Covid-19 Schweiz

Bild 15 Schweiz: Laborbestätigte Hospitalisationen nach Altersklassen, Schweiz und Liechtenstein, 08.06.2020 bis 13.12.2020, pro 100 000 Einwohner. Quelle: Covid-19 Schweiz

Bild 16 Schweiz: Laborbestätigte Todesfälle, Schweiz und Liechtenstein, 24.02.2020 bis 17.12.2020, pro 100 000 Einwohner

Bild 17 Schweiz: Laborbestätigte Todesfälle, Schweiz und Liechtenstein, 24.02.2020 bis 13.12.2020, pro 100 000 Einwohner. Quelle: Covid-19 Schweiz

Das ist mit Sicherheit falsch: „Es gebe zwar Alternativen zum Lockdown, „aber keine ist besser

BR24, 15.12.2020: … Der bayerische Ministerpräsident Markus Söder hat in einer Regierungserklärung die Notwendigkeit des Lockdowns ab Mittwoch betont. „Die Lage wird von Tag zu Tag dramatischer“, die Zahlen gingen „sprunghaft“ nach oben, sagte der CSU-Politiker im Bayerischen Landtag. Die Folgen seien „absolut dramatisch“, Corona sei „die Katastrophe unserer Zeit“. Deswegen müsse nun die Notbremse gezogen werden. „Wenn wir jetzt nicht konsequent runterfahren, sind die Schäden enorm.“ Es gebe zwar Alternativen zum Lockdown, „aber keine ist besser“

Dazu lässt sich nur sagen: Entweder spinnen die Zahlen, oder unsere Politiker. Was davon zutrifft, soll jeder Leser für sich entscheiden.

Quellen

[1] Achgut, 16.12.2020: Bericht zur Coronalage vom 16.12.2020 – die totale Angstkommunikation

[2] Achgut, 12.12.2020: Corona-Stellungnahme: Der Lieferservice der Leopoldina

[4] DW, 17.12.2020: Corona-Hotspots abriegeln? In Sachsen liegen die Nerven blank

[5] LMU: CoDAG-Bericht Nr. 4 11.12.2020

[6] EIKE 11.12.2020: Corona-Daten zum 07.12.2020. Nirgends ist die berichtete, besonders hohe „Übersterblichkeit“ zu finden

[7] EIKE 04. Dez. 2020: Will unsere Regierung ab jetzt bei jeder neuen Grippewelle das Land zugrunde richten?

[8] Der Tagesspiegel, 11.12.2020: Statistik-Diskrepanz in Palmer-Aussagen: Doch kein Corona-Wunder in Tübingen?

[9] FAZ, 03.12.2020: Söder erwägt strengere Beschränkungen von Kontakten

 




Durchmischungs-Schicht in den Ozeanen, Wasser­temperatur SST und Klimawandel

Die Mischschicht ist eine Zone, in der Turbulenzen, verursacht durch Oberflächenströmungen und Wind, das Wasser so gründlich vermischt haben, dass Temperatur, Dichte und Salzgehalt in der gesamten Schicht relativ konstant sind. Ursprünglich wurde die „Mischschichttiefe“, die Bezeichnung für die Basis der Schicht, als der Punkt definiert, an dem die Temperatur 0,5 °C von der Oberfläche abweicht (Levitus, 1982). Dies erwies sich im Winter in der Nähe der Pole als unzureichende Definition, da die Temperatur dort in bestimmten Bereichen bis zu 2.000 m nahezu konstant sein kann, die turbulente Zone der Mischschicht aber nicht so tief ist (Holte & Talley, 2008). Zwei der Gebiete, die bei der Auswahl der Mischschichttiefe mit dem 0,5°C-Kriterium Probleme bereiten, sind der Nordatlantik, zwischen Island und Schottland und im Südlichen Ozean südwestlich von Chile. Die Gebiete sind in Abbildung 1 durch hellblaue Kästen gekennzeichnet.

Abbildung 1. Die Gebiete des Nordatlantiks und des Südlichen Ozeans, in denen die Definition der Tiefe der Mischschicht aufgrund des abwärtsströmenden Oberflächenwassers während des lokalen Winters schwierig ist.

Die in Abbildung 1 gezeigten Regionen sind Gebiete, in denen ein signifikantes Absinken von Oberflächenwasser in die Tiefsee stattfindet. Dies sind nicht die einzigen Gebiete, in denen dies geschieht, aber diese Gebiete enthalten oft nahezu konstante Temperaturprofile für die oberen 1.000 Meter oder sogar tiefer. Abbildung 2 zeigt das durchschnittliche Juli-Temperaturprofil für das Gebiet des Südlichen Ozeans in Abbildung 1.

Abbildung 2. Ein durchschnittliches Juli-Temperaturprofil des Südlichen Ozeans aus der blauen Region, die in Abbildung 1 dargestellt ist. Die Daten, die zur Erstellung des Profils verwendet wurden, stammen aus mehr als 12 Jahren, zentriert auf 2008. Die Daten stammen von NOAA MIMOC.

Wie von James Holte und Lynne Talley erläutert (Holte & Talley, 2008), hat die Tiefenkonvektion in diesem Teil des Südlichen Ozeans das Temperaturprofil so stark verzerrt, dass eine einfache Temperaturgrenze nicht verwendet werden kann, um die Tiefe der Mischungsschicht festzulegen. Im Laufe der Jahre wurden zahlreiche Lösungen für dieses Problem vorgeschlagen, die in ihrem Artikel aufgeführt und diskutiert werden. Das von ihnen vorgeschlagene Verfahren wird von Sunke Schmidtko verwendet, um die Mischungsschicht im NOAA MIMOC-Datensatz zu definieren, der weiter unten diskutiert wird (Schmidtko, Johnson, & Lyman). Die Methode von Holte und Talley ist kompliziert, wie viele der anderen Lösungen auch. Es scheint, dass bis heute kein allgemein akzeptiertes Verfahren zur Definition der gemischten Schicht gefunden worden ist.

Je nach Ort und Jahreszeit ändert sich die Tiefe der Mischschicht. Am dicksten ist sie im lokalen Winter in den höheren Breiten. Dort kann sie sich nach der Logik von Holte und Talley bis zu 400 m unter der Oberfläche oder noch weiter erstrecken, und bei Verwendung der Temperaturgrenze von 0,5 °C noch viel tiefer. Abbildung 3 zeigt eine Karte der Mischschichttiefe im Januar.

Abbildung 3. Mischschichttiefe des Ozeans im Januar nach dem Vergahren von Holte und Talley. Die orangenen und roten Farben kennzeichnen 400 bis 500 Meter. Daten von NOAA MIMOC.

Die Mischungsschichtdicke der nördlichen Hemisphäre wird jedoch in den nördlichen Sommermonaten dünner und in der südlichen Hemisphäre dicker, insbesondere im südlichen Ozean um die Antarktis, wie in Abbildung 4 dargestellt.

Abbildung 4. Die Mischschichttiefe des Ozeans im Juli unter Verwendung des Verfahrens von Holte und Talley. Wieder kennzeichnen die orangenen und roten Farben 400 bis 500 Meter. Daten von NOAA MIMOC.

Die dickeren Zonen der Mischungsschicht treten immer im lokalen Winter auf und erreichen ihren Höhepunkt in der Nähe des 60° Breitengrades, wie in Abbildung 5 zu sehen ist.

Abbildung 5. Durchschnittliche Mischschichtdicke nach Breitengrad und Monat. Die dickste Mischungsschicht wird auf der Südhalbkugel bei etwa 55 Grad Süd erreicht. In der nördlichen Hemisphäre wird der Spitzenwert bei etwa 60 Grad erreicht. Die Mischschichttiefe in diesem Diagramm wurde nach dem von Holte und Talley entwickelten Verfahren berechnet. Daten von NOAA MIMOC.

Die Bedeutung der Mischschicht

Im vorherigen Beitrag wurde betont, dass die gemischte Schicht in thermischem Kontakt mit der Atmosphäre steht, mit einer kleinen Verzögerung von ein paar Wochen. Außerdem hat sie etwa die 22-fache Wärmekapazität der Atmosphäre, wodurch die durch Wetterereignisse verursachten drastischen Änderungen der Lufttemperatur geglättet werden. Wenn man also das Klima betrachtet, das viel längerfristig ist als das Wetter, erscheint die Beobachtung des Trends der Mischschichttemperatur ideal. In Abbildung 6 vergleichen wir die jährlichen globalen Durchschnittswerte der Mischschichttemperatur von Jamstec, MIMOC und der Universität Hamburg mit den globalen Schätzungen der Meeresoberflächentemperatur (SST) von der Hadley Climatic Research Unit (HadCRU) und der NOAA. Das sind keine Anomalien, das sind tatsächliche Messungen, aber sie sind alle korrigiert und gerastert. Ich habe einfach die jeweiligen globalen Raster gemittelt.

Abbildung 6. Die von Jamstec berechnete globale Mischschichttemperatur ist in schwarzer Farbe aufgetragen. Sie wird mit der HadSST Version 4, der ICOADS SST der NOAA und der ERSST der NOAA verglichen. Die Mischschichttemperaturen von NOAA MIMOC und der Universität Hamburg sind nahezu identisch und zentriert auf das Jahr 2006, sie sind als Kästchen gezeichnet, die sich gegenseitig überlagern. Die Daten stammen von den jeweiligen Agenturen.

Eine vernünftige Ozeanabdeckung ist erst seit 2004 verfügbar, daher sind die Jahre davor suspekt. In Abbildung 6 sind alle Daten als Jahresmittelwerte aufgetragen. Die Hadley-CRU-Temperaturen stimmen gut mit dem Jamstec-Datensatz für die gemischte Schicht überein, und überraschenderweise zeigen beide Datensätze ähnliche abnehmende Temperaturtrends von etwa zwei bis drei Grad pro Jahrhundert. Der ICOADS (International Comprehensive Ocean-Atmosphere Data Set) SST-Trend der NOAA ist flach bis steigend und über ein Grad wärmer als die beiden anderen Aufzeichnungen. Die Anzahl der Jamstec-Mischschichtbeobachtungen ist in orange eingezeichnet (rechte Skala), um uns zu helfen, die Datenqualität für jedes Jahr zu beurteilen. Jamstec erreichte im Jahr 2004 150.000 Beobachtungen, und wir waren der subjektiven Meinung, dass dies ausreichend sei.

Die Mischschichttemperaturen von NOAA MIMOC und der Universität Hamburg sind viel niedriger als HadSST und die Jamstec Mischschichttemperaturen. Dennoch fallen diese beiden mehrjährigen Mittelwerte, die auf das Jahr 2006 zentriert sind, entsprechen genau den Aufzeichnung der ERSST SST und liegen über vier Grad niedriger als HaddSST und Jamstec. Der Unterschied kann nicht einfach darin liegen, wo die Temperaturen gemessen werden. Er kann nicht einmal in den Daten liegen, da alle diese Aufzeichnungen fast die gleichen Eingangsrohdaten verwenden, er muss in den Korrekturen und Verfahren liegen.

Die verschiedenen Schätzungen der Mischschichttemperaturen sind unterschiedlich, ebenso die SSTs. Warum sind zwei Aufzeichnungen rückläufig und der Rest gleichbleibend oder steigend? Die verschiedenen Schätzungen stimmen weder bei der Temperatur noch beim Trend überein.

Meeresoberflächen- und Mischschichttemperaturen sollten nicht in Anomalien umgewandelt werden müssen, es sei denn, sie werden mit terrestrischen Temperaturen verglichen. Sie werden alle auf ungefähr der gleichen Höhe und im gleichen Medium gemessen. Alle Datensätze sind global, mit ähnlichen Eingangsdaten. Alle sind gerastert, um die Auswirkungen einer ungleichmäßigen Datenverteilung zu reduzieren. Die Raster sind unterschiedlich groß und die gerasterten Gebiete unterscheiden sich in ihren nördlichen und südlichen Grenzen, aber alle Raster decken alle Längengrade ab. Tabelle 1 listet die Breitengrad-Datengrenzen der Gitter auf, sie sind nicht so unterschiedlich.

Tabelle 1. Die nördlichen und südlichen Datengrenzen für jeden Datensatz im Jahr 2019.

In Abbildung 7 haben wir die HadSST- und ERSST-Anomalien aufgetragen. Wie haben sie diese Anomalien aus den Messungen in Abbildung 6 erhalten?

Abbildung 7. HadSST und ERSST Version 4 Temperaturanomalien.

Der HadSST-Datensatz wird von John Kennedy und seinen Kollegen an der MET Hadley Climatic Research Unit gepflegt (Kennedy, Rayner, Atkinson, & Killick, 2019). Sie stellen fest, dass sich ihr Datensatz von ERSST unterscheidet und geben zu, dass dies auf die Unterschiede bei den Korrekturen und Anpassungen der Rohdaten zurückzuführen ist. Kennedy erwähnt, dass die SST „entscheidend zur Charakterisierung des Klimas der Erde beiträgt.“ Wir stimmen zu. Kennedy schreibt auch:

Eine der größten Unsicherheitsquellen bei Schätzungen der globalen Temperaturänderung ist die Korrektur systematischer Fehler bei Messungen der Meeresoberflächentemperatur (SST). Trotz der jüngsten Arbeiten zur Quantifizierung und Reduzierung dieser Fehler in der gesamten historischen Aufzeichnung bleiben die Unterschiede zwischen den Analysen größer als durch die geschätzten Unsicherheiten erklärt werden kann.“ (Kennedy, Rayner, Atkinson, & Killick, 2019)

Ein Blick auf Abbildung 6 bestätigt, dass diese Aussage richtig ist. Der größte Teil von Kennedys 90-seitiger Studie katalogisiert die Schwierigkeiten bei der Erstellung einer genauen SST-Aufzeichnung. Er stellt fest, dass selbst subtile Änderungen in der Art und Weise, wie SST-Messungen vorgenommen werden, zu systematischen Fehlern von bis zu einem Grad führen können, und das ist die geschätzte globale Erwärmung des 20. Jahrhunderts. Wir glauben nicht, dass die SST-Aufzeichnung von 1850 bis 2005 sinnvoll ist. Die mehrdeutigen Datenquellen (hauptsächlich Schiffsmessungen mit Eimern bis zum Zweiten Weltkrieg und Messungen im Kühlwasser der Schiffsmotoren danach) sowie die ungenauen Korrekturen ersticken jedes potenzielle Klimasignal. Die Daten sind seit 2005 viel besser, aber Abbildung 6 zeigt große Unterschiede in den Zusammenstellungen der verschiedenen Agenturen. Als nächstes überprüfen wir die Definitionen der Agenturen für die in Abbildung 6 dargestellten Variablen.

[Es folgt eine genaue Beschreibung der verschiedenen Datensätze. Wem das zu theoretisch ist, der gehe gleich zum Abschnitt „Schlussfolgerungen“. Weil der Übersetzer aber interessant findet, wie unterschiedlich Temperatur-Rohdaten bearbeitet werden nebst den daraus resultierenden Unterschieden der als „absolut“ angegebenen Temperaturwerte, sind diese Bewertungen hier mit übersetzt. Anm. d. Übers.]

Der HadSST 4-Datensatz des UKMO

Diese Daten wurden aus einer HadSST NetCDF-Datei gelesen. NetCDF-Dateien sind die Art und Weise, wie die meisten Klimadaten geliefert werden. Ich habe in einem früheren Beitrag erklärt, wie man sie mit R (einem hochwertigen kostenlosen Statistikprogramm) liest. Die Variable, die aus der HadSST-Datei gelesen wurde, war mit „tos“ beschriftet, es ist ein 5-Grad-Gitter aus Breiten- und Längengraden, definiert als „Meerwassertemperatur“. Die Dokumentation sagt, dass es sich um die Ensemble-Mitteltemperatur der Meeresoberfläche aus HadSST v4 handelt. Die angegebene Referenz ist die bereits erwähnte Arbeit von John Kennedy (Kennedy, Rayner, Atkinson, & Killick, 2019). HadSST verwendet Daten aus ICOADS Release 3, ergänzt durch Daten von Treibbojen des Copernicus Marine Environment Monitoring Service (CMEMS). Kennedy erwähnt den Unterschied zwischen seinem Datensatz und ERSST v5, der in Abbildung 6 deutlich zu sehen ist. Die SST des Hadley Centre ist auf eine Tiefe von 20 cm korrigiert.

ERSST v5 der NOAA

In Abbildung 6 stellen wir die jährlichen globalen Mittelwerte der ERSST v5 NetCDF-Variable „sst“ dar, die als „Erweiterte rekonstruierte Meeresoberflächentemperatur“ definiert ist. Sie merken an, dass die tatsächliche Messtiefe von 0,2 bis 10 m variiert, aber alle Messungen sind auf die optimale Bojenmesstiefe von 20 cm korrigiert, genau die gleiche Referenztiefe wie HadSST. Wie HadSST bezieht auch ERSST seine Daten aus ICOADS Release 3 und verwendet Argo-Float- und Driftbojen zwischen 0 und 5 m zur Berechnung der SST. Dies ist sinnvoll, da ERSST mit dem Datensatz der Universität Hamburg und den MIMOC (mixed layer)-Datensätzen der NOAA übereinstimmt, die ebenfalls stark auf Argo-Float-Daten beruhen. Wie oben besprochen, sollten die SST (bei 20 cm) und die Mischschichttemperatur fast immer gut übereinstimmen. Die ERSST-Anomalien, die in Abbildung 7 aufgetragen sind, stammen von der Variable „ssta“. Ich habe ssta auf die HadSST-Referenzperiode von 1961-1990 verschoben, von der ursprünglichen Referenz von 1970-2000. Die grundlegende Referenz zu ERSST v5 ist ein Beitrag von Boyin Huang und Kollegen (Huang, et al., 2017).

Wie Kennedy geht auch Boyin Huang direkt auf die Unterschiede zwischen ERSST und HadSST ein. Huang glaubt, dass die Unterschiede auf die unterschiedlichen Korrekturen an den Rohdaten zurückzuführen sind, die vom Hadley Centre und der NOAA angewendet wurden.

NOAA MIMOC

Das globale Mittel der „konservativen Temperatur“ der NOAA-MIMOC ist in Abbildung 6 als Kasten dargestellt, der auf die ERSST-Linie fällt. Sie wird als ein Punkt im Jahr 2006 eingezeichnet, weil der MIMOC-Datensatz Argo- und Bojendaten über mehr als 12 Jahre verwendet, die auf dieses Jahr zentriert sind. Die globale Durchschnittstemperatur all dieser Daten beträgt 13,87°C von 0 bis 5 Meter Tiefe. Die konservative Temperatur ist nicht dasselbe wie die SST. Die SST wird gemessen, die konservative Temperatur wird so berechnet, dass sie mit dem Wärmeinhalt des Wassers in der Mischschicht übereinstimmt und den Salzgehalt und die Dichte des Wassers berücksichtigt. Wir würden jedoch erwarten, dass die SST sehr nahe an der konservativen Temperatur liegt. Da die konservative Temperatur den Wärmeinhalt der Mischungsschicht genauer charakterisiert, ist sie für Klimastudien nützlicher als die SST. Die primäre Referenz für diesen Datensatz ist die bereits erwähnte Arbeit von Schmidtko (Schmidtko, Johnson, & Lyman).

Der Datensatz der Universität Hamburg

Der Datensatz der Universität Hamburg ist MIMOC insofern ähnlich, als dass es nicht nach Jahren unterteilt ist, sondern alle verfügbaren Daten der letzten 20 bis 40 Jahre zusammenfasst, um einen hochauflösenden Datensatz und eine Reihe von Gitterpunkten für die Ozeantemperatur nach Tiefe zu erstellen. Wie ERSST und MIMOC stützt es sich stark auf Argo- und Bojendaten. Die globale Durchschnittstemperatur der oberen fünf Meter der Ozeane in diesem Datensatz beträgt 13,88°C und unterscheidet sich damit kaum vom MIMOC-Wert. Die verwendete NetCDF-Variable ist „Temperatur“. Sie ist definiert als die „optimal interpolierte Temperatur“. In der Dokumentation steht, dass es sich um die SST handelt, nicht um die „konservative Temperatur“. Der Wert ist jedoch nahezu identisch mit der konservativen Temperatur. Die Hauptreferenz für diesen Datensatz ist ein Ocean Science-Artikel von Viktor Gouretski (Gouretski, 2018).

NOAA ICOADS

Die NOAA ICOADS-Linie in Abbildung 6 wurde vom KNMI Climate Explorer heruntergeladen und mit „sst“ beschriftet. Die Beschreibung lautet: „Sea Surface Temperature Monthly Mean at Surface“. Die Daten von ICOADS Version 3 werden in allen anderen hier beschriebenen Datensätzen der Behörde verwendet, aber die Organisation führt nicht viele Analysen durch. Nach eigenem Bekunden bieten sie ein paar „einfache gerasterte monatliche zusammenfassende Werte“ an. Ihre Linie ist in Abbildung 6 als Referenz dargestellt, aber es ist keine ernsthafte Analyse und sollte wahrscheinlich ignoriert werden. Sie hilft zu zeigen, wie ungenau die Daten sind.

Jamstec ML Temperatur

Das Jamstec MILA GPV-Produkt passt gut zu HadSST, wie in Abbildung 6 zu sehen ist. Diese Linie stammt von der NetCDF-Variablen „MLD_TEMP“. Sie ist die zentrale Temperatur der Mischungsschicht. Die Temperatur ist keine echte „konservative Temperatur“, aber die Art und Weise, wie sie berechnet wird, stellt sicher, dass sie nahe diesem Wert liegt. Die Referenz für dieses Produkt ist ein Artikel im Journal of Oceanography von Shigeki Hosada und Kollegen (Hosada, Ohira, Sato, & Suga, 2010). Jamstec verwendet hauptsächlich Argo-Float- und Bojendaten.

Schlussfolgerungen

Die in Abbildung 6 gezeigte Gesamttemperaturspanne beträgt mehr als 5,5 °C, und dennoch gehen diese Agenturen im Wesentlichen von denselben Daten aus. Dies ist kein Versuch, die SST und die Temperatur der gemischten Schicht vor hundert Jahren zu charakterisieren, sondern ein Versuch, uns die durchschnittliche Oberflächentemperatur des Ozeans heute zu sagen. Um Abbildung 6 in die richtige Perspektive zu rücken: Der gesamte Wärmeinhalt unserer Atmosphäre beträgt ungefähr 1,0×1024 Joule. Der Unterschied zwischen der HadSST-Linie in Abbildung 6 und der ERSST-Linie beträgt unter der Annahme einer durchschnittlichen Mischschichttiefe von 60 Metern (von Jamstec) 3,9×1023 Joule oder fast 39% der gesamten Wärmeenergie in der Atmosphäre.

Ich habe keine Ahnung, ob die Temperaturen von HadSST oder von ERSST korrekt sind. Sie können nicht beide korrekt sein. Ich neige zu den ERSST-Temperaturen, da es schwer ist, einen 18-Grad-Ozean in einer 15-Grad-Welt zu haben, aber warum sind dann die HadSST-Temperaturen so hoch? Die wichtigste Variable, um festzustellen, wie schnell sich die Welt erwärmt oder abkühlt, ist die Aufzeichnung der Ozeantemperatur. Seit etwa 2004 haben wir bessere Daten zur Verfügung, aber offensichtlich kein vereinbartes Verfahren, um sie zu analysieren. Wenn es um die globale Erwärmung (oder vielleicht die globale Abkühlung) geht, lautet die beste Antwort: Wir wissen es nicht.

Angesichts der Tatsache, dass die Ozeane 71 % der Erdoberfläche bedecken und 99 % der Wärmekapazität enthalten, sind die Unterschiede in Abbildung 6 enorm. Diese Diskrepanzen müssen aufgelöst werden, wenn wir jemals einen Klimawandel, ob menschlich oder natürlich, feststellen wollen.

[Hervorhebung vom Übersetzer]

I processed an enormous amount of data to make this post, I think I did it correctly, but I do make mistakes. For those that want to check my work, you can find my R code here.

None of this is in my new book Politics and Climate Change: A History but buy it anyway.

You can download the bibliography here

Link: https://wattsupwiththat.com/2020/12/13/the-ocean-mixed-layer-sst-and-climate-change/

Übersetzt von Chris Frey EIKE

Anmerkung M.Limburg

Es ist sehr erfreulich, dass nun, 10 Jahre nach meinem Versuch, die unvermeidlichen und fast immer unbekannten systematischen Fehler jeder historischen meteorologischen Messung, in einer Dissertation öffentlich zu machen, deren Ergebnisse eine so umfassend begründete und überzeugende Bestätigung bekommen haben. Dank an Andy May!




Temperatur der Meeresoberfläche

Der Versuch, die Richtung, Geschwindigkeit und Ausmaß des Klimawandels durch Messung und Mittelwertbildung der atmosphärischen Oberflächentemperaturen aufzuzeigen, ist meiner Meinung nach sinnlos. Die Aufzeichnungen, die wir über die atmosphärischen und ozeanischen Oberflächentemperaturen haben, sind zu kurz und viel zu ungenau, um uns nützliche Trends auf einer klimatischen Zeitskala (30 Jahre +) zu liefern. Außerdem handelt es sich bei diesen Aufzeichnungen um sporadische Messungen in einer chaotischen Oberflächenzone, die große Temperaturschwankungen aufweist. In Montana, USA, zum Beispiel, lag die Tiefst- und Höchsttemperatur in letzter Zeit bei -57°C bzw. 47°C. Diese enormen Schwankungen machen es äußerst schwierig, globale Durchschnittsunterschiede von 0,1 °C von Jahr zu Jahr zu messen. Dies ist jedoch die Genauigkeit, die erforderlich ist, um ein Klima richtig zu charakterisieren, das sich nur mit einer Rate von etwa 1,4°C pro Jahrhundert erwärmt, was 0,014°C pro Jahr und 0,14°C/Dekade entspricht.

Die Messungen sind besonders nützlich für die Vorhersage des Wetters, aber ungeeignet für die Messung von Änderungen von weniger als einem halben Grad über klimatische Zeitspannen. Wir müssen für diesen Zweck etwas Stabileres und weniger Chaotisches messen. Dieser und der nächste Beitrag zeigen, dass die Mischschicht im Ozean für diese Aufgabe gut geeignet zu sein scheint.

Meiner Meinung nach müssen wir, um die Richtung und Geschwindigkeit der globalen Erwärmung richtig in den Griff zu bekommen, die Temperaturveränderungen im Ozean betrachten. Besonders die Teile des Ozeans, die in ständigem Kontakt mit der Atmosphäre stehen. Bei sehr langfristigen Klimaveränderungen, d.h. über einen Zeitraum von tausend Jahren, ist der gesamte Ozean betroffen. Aber für Zeiträume von hundert Jahren oder weniger haben wir es hauptsächlich mit den oberen paar hundert Metern des Ozeans zu tun.

Das Temperaturprofil des oberen Ozeans ist sehr komplex. Dies wird durch die schlechte Qualität unserer Messungen der Oberflächentemperatur des Ozeans erschwert, insbesondere vor der Einführung von Argo-Bojen und anderen Bojenmessungen im Ozean wie den Triton-Bojen in den letzten 20 Jahren. Schiffe decken nur einen begrenzten Bereich des Ozeans ab und die Tiefe, Konsistenz und Qualität ihrer Temperaturmessungen sind unsicher. Satellitenmessungen des obersten Teils des Ozeans sind möglich, aber diese Messungen werden durch den so genannten Ozean-Skin-Effekt erschwert.

Die Ozean-Haut

An der Ozean-Luft-Grenzfläche ändern sich die Temperaturen schnell. Das Ausmaß der Änderung und die Dicke der betroffenen obersten Ozeanhaut wird durch die Bewölkung, ob es Tag oder Nacht ist, und die Windgeschwindigkeit bestimmt. Diese „Haut“ ist an ruhigen, wolkenlosen Tagen dicker und in der Nacht und an windigen, bewölkten Tagen dünner. Die Temperatur an der Ozean-Luft-Grenzfläche („SST“) ist das, was von Radiometern und Satelliten gemessen wird. Leider ist die Beziehung zwischen dieser Temperatur und der stabileren Temperatur der gemischten Schicht oder der „Basistemperatur“ unbekannt. Die Beziehung ändert sich schnell und ist kompliziert. Es wurden verschiedene Modelle vorgeschlagen (Horrocks, O’Carroll, Candy, Nightingale, & Harris, 2003), aber keines hat die erforderliche Zuverlässigkeit und Genauigkeit.

Erschwerend kommt hinzu, dass sich direkt an der Oberfläche eine Population von Cyanobakterien befindet, die daran arbeitet, die Temperatur zu verändern und den Salzgehalt des Oberflächenwassers zu senken (Wurl, et al., 2018). Das Problem der Meeresoberflächentemperatur lässt sich am besten mit dem Diagramm in Abbildung 1 veranschaulichen, das von der Group for High Resolution Sea Surface Temperature (GHRSST) stammt. Sie sind bestrebt, die Hautschicht des Ozeans zu verstehen, damit Satellitenmessungen der Meeresoberflächentemperatur angemessen mit gemessenen Ozeantemperaturen kombiniert werden können.

Abbildung 1. Das GHRSST-Diagramm der Temperatur an der Meeresoberfläche. Die Meeresbedingungen, insbesondere die Windgeschwindigkeit und die Tages- oder Nachtzeit, können einen Unterschied von 2,5 °C oder mehr im Temperaturgradienten von der Oberfläche zur Temperatur des Untergrunds (stabiler Teil der Mischschicht) ausmachen. Die Tiefe bis zum oberen Ende des stabilen Teils der Mischschicht kann zwischen Null und 10 Metern variieren. Quelle: GHRSST.

Der Temperaturunterschied zwischen der SST und dem stabilen Teil der Mischschicht kann täglich drei bis sechs Grad betragen (Wick & Castro, 2020). Wie Gary Wick und Sandra Castro erklären:

Der Tageszyklus der Sonneneinstrahlung führt zu einer periodischen Erwärmung der oberflächennahen Schicht des Ozeans. Bei geringen Windgeschwindigkeiten wird die turbulente Durchmischung reduziert und es kann sich tagsüber eine warme Schicht und eine tageszeitliche Thermokline nahe der Meeresoberfläche bilden. In der Nacht wird diese Schicht durch die Durchmischung normalerweise abgetragen. Während die Amplitude der täglichen Erwärmung im Durchschnitt relativ klein ist [0,5 K], kann die Erwärmung an der Oberfläche, die von Satelliten erfasst wird, unter Bedingungen mit sehr niedrigen Windgeschwindigkeiten und ausreichender Sonneneinstrahlung sehr signifikant sein… In-situ-Beobachtungen haben eine Erwärmung von mehr als 5 K in Tiefen von 0,3-0,6 m gezeigt. Satellitenbeobachtungen von mehreren Sensoren haben extreme Erwärmungsereignisse von bis zu 7 K an der Oberfläche beobachtet, und es wurde vermutet, dass Ereignisse von mehr als 5 K nicht selten sind.“ (Wick & Castro, 2020)

Die Temperaturen im Zitat sind in Kelvin (K) angegeben und entsprechen Grad Celsius. Der Hauptpunkt ist, dass außergewöhnlich große Unterschiede in der SST des Ozeans bei ruhigen Bedingungen an klaren (wolkenlosen) Tagen auftreten. Abbildung 1 zeigt, dass die Temperaturerhöhungen das Wasser bis zu einer Tiefe von zehn Metern betreffen können. Aber Unterschiede von mehr als 0,5 °C sind fast immer auf den obersten Meter des Ozeans beschränkt. Wie wir im nächsten Beitrag über die gemischte Schicht sehen werden, werden diese bekannten Hautanomalien in Ozeantemperatur-Datensätzen ignoriert. Sie haben oft eine Messung, die als Nulltiefe gekennzeichnet ist, aber sie wird unter der Oberfläche gemessen, normalerweise in einer Tiefe von 20 cm oder mehr. Die Temperatur der Mischschicht wird oft als die Temperatur der Schicht definiert, die eine Temperatur innerhalb von 0,5°C der Oberflächentemperatur hat (Levitus, 1982). Dies ist nicht genau, gemeint ist die Temperatur des Ozeans direkt unter der Oberfläche, vielleicht 20 bis 100 cm. Außer an klaren, windstillen Tagen wird dies die „Grundtemperatur“ sein. In der Nacht und an bewölkten oder windigen Tagen wird die Temperatur immer die „Fundament“-Temperatur sein.

Die Mischschicht hat aufgrund der turbulenten Vermischung homogene Eigenschaften und die Verwendung einer Temperaturdifferenzgrenze von 0,5 °C ist eine bequeme Definition, die jedoch im Winter in der Nähe der Pole versagt, wo eine komplexere Definition erforderlich ist. Es wurden zahlreiche Methoden vorgeschlagen, zu viele, um sie hier aufzulisten, aber die komplexe Methode, die von James Holte und Lynne Talley (Holte & Talley, 2008) beschrieben wurde, wird derzeit bevorzugt. Ihre Technik wird heute weithin verwendet, um eine „Mischschichttiefe“ zu wählen, d. h. den Boden der Mischschicht. Sie ist notwendig, weil in den Polarregionen im Winter die tiefe Konvektion, angetrieben durch den Wärmeverlust an der Oberfläche, die Wassersäule bis zu 2000 Meter oder noch tiefer durchmischen kann. Wie wir im nächsten Beitrag sehen werden, wird in diesen Bereichen die Wärmeenergie von der Oberfläche in die Tiefsee übertragen.

Es gibt viele Ozeantemperatur-Datensätze, und wir werden die Daten von mehreren von ihnen im nächsten Beitrag diskutieren. Abbildung 2 ist eine Darstellung der globalen durchschnittlichen Dezember-Ozeantemperaturen von der Oberfläche bis zu 140 Metern aus den Datensätzen der Universität Hamburg. Diese Darstellung veranschaulicht die besprochenen Begriffe des Temperaturprofils mit echten globalen Daten.

Abbildung 2. Globales durchschnittliches Dezember-Temperaturprofil von der Oberfläche bis 140 Meter. Diese Grafik zeigt die „Basis“-Temperatur in der Mischschicht. Die Temperatur ist von der Oberfläche bis etwa 20 Meter nahezu konstant und beginnt dann zu sinken. Sobald sie sich um 0,5 °C von der Temperatur knapp unter der Oberfläche unterscheidet, ist die „Mischschichttiefe“ erreicht. Datenquelle: Universität Hamburg.

Die von der Universität Hamburg ausgewiesenen Temperaturen sind Durchschnittstemperaturen über mehr als 12 Jahre und repräsentieren nicht ein bestimmtes Jahr. Die NOAA-MIMOC-Temperaturen, die wir im nächsten Beitrag betrachten werden, sind die gleichen. Abbildung 3 zeigt das durchschnittliche Jahr der Messungen und die Standardabweichung der Jahre.

Abbildung 3. Die in Abbildung 2 verwendeten Daten stammen nicht aus einem einzigen Jahr, sondern sind der Durchschnitt der Daten aus über 12 Jahren. Das zentrale Jahr für jede Tiefe ist blau dargestellt (linke Skala) und die Standardabweichung aller verwendeten Jahre ist orange dargestellt (rechte Skala). Datenquelle: Universität Hamburg.

Sowohl die Universität Hamburg als auch die NOAA räumen ein, dass die den Großteil ihrer Rohdaten ausmachenden Argo-Daten spärlich sind. Es gibt einen Schwimmer pro 3° Breiten- und Längengrad (~84.916 Quadratkilometer bei 40° Nord oder Süd, der alle zehn Tage ein vollständiges Profil an uns sendet. Die Universität und die NOAA haben beschlossen, dass sie, um den Mangel an Daten zu bekämpfen, monatliche Durchschnittswerte aller Daten, die sie finden konnten, zusammenstellen sollten. Wie wir im nächsten Beitrag sehen werden, treten die großen Veränderungen in der Mischschicht je nach Monat und Ort auf, so dass dies durchaus Sinn macht.

Oberhalb der Fundament- oder Mischschicht gibt es weitere Zonen, die in Abbildung 1 gekennzeichnet sind. Diese werden von GHRSST wie folgt definiert. Ich habe den GHRSST-Text der Übersichtlichkeit halber bearbeitet, der Originaltext kann hier eingesehen werden.

Die Grenzflächentemperatur (SSTint)

An der exakten Luft-Meer-Grenzfläche wird eine hypothetische Temperatur, die sogenannte Grenzflächentemperatur (SSTint), definiert, die allerdings keinen praktischen Nutzen hat, da sie mit heutiger Technik nicht gemessen werden kann.

Die Hauttemperatur der Meeresoberfläche (SSTskin)

Die Meeresoberflächentemperatur (SSTskin) ist definiert als die von einem Infrarot-Radiometer gemessene Temperatur, die typischerweise bei Wellenlängen von 3,7 bis 12 µm (aus Gründen der Konsistenz mit den meisten Infrarot-Satellitenmessungen gewählt) gemessen wird und die Temperatur innerhalb der leitfähigen, von Diffusion dominierten Unterschicht in einer Tiefe von ~10-20 Mikrometern darstellt. SSTskin-Messungen unterliegen einem großen potenziellen Tageszyklus, der Auswirkungen der kühlen Hautschicht (besonders nachts bei klarem Himmel und geringer Windgeschwindigkeit) und solche der warmen Schicht während des Tages beinhaltet.

Die Unteroberflächentemperatur der Meeresoberfläche (SSTsub-skin)

Die Subskin-Temperatur (SSTsubskin) stellt die Temperatur an der Basis der leitfähigen laminaren Unterschicht der Meeresoberfläche dar. Für praktische Zwecke kann die SSTsubskin gut an die Messung der Oberflächentemperatur durch ein Mikrowellenradiometer angenähert werden, das im Frequenzbereich von 6-11 GHz arbeitet, aber die Beziehung ist weder direkt noch invariant gegenüber wechselnden physikalischen Bedingungen oder der spezifischen Geometrie der Mikrowellenmessungen.

Die Oberflächentemperatur in der Tiefe (SSTz oder SSTdepth)

Alle Messungen der Wassertemperatur unterhalb der SSTsubskin werden als Tiefentemperaturen (SSTdepth) bezeichnet, die mit einer Vielzahl von Plattformen und Sensoren wie driftenden Bojen, vertikale Profile messende Bojen (wie Argo) oder tiefen Thermistorketten in Tiefen von 10 bis 750 m (wie Triton und Tao) gemessen werden. Diese Temperaturbeobachtungen unterscheiden sich von denen, die mit Fernerkundungstechniken (SSTskin und SSTsubskin) gewonnen werden und müssen durch eine Messtiefe in Metern qualifiziert werden.

Die Basistemperatur (SSTfnd)

Die Basis-SST, SSTfnd, ist die Temperatur, die frei vom Tagesgang der Temperatur ist. Das heißt, die Oberseite des stabilen Teils der Mischschicht. Nur die In-situ-Kontaktthermometrie kann die SSTfnd messen.

Schlussfolgerungen

Zusammenfassend lässt sich sagen, dass die SST und die Lufttemperaturen zu sehr vom Wetter und der tageszeitlichen Variabilität beeinflusst werden, um Klimaveränderungen zuverlässig und präzise zu messen. Die Gesamttemperaturen des Ozeans oder der Tiefsee geben uns einen Hinweis auf lange klimatische Veränderungen von tausend Jahren oder mehr, aber sie sagen uns wenig über Veränderungen im Hundert-Jahre-Zeitraum.

Die ozeanische Mischschicht ist eine Zone, die zwischen einem Millimeter und etwa zehn Metern unterhalb der Meeresoberfläche beginnt. Oberhalb dieser Tiefe werden die Temperaturen Minute für Minute von der Atmosphäre und dem Sonnenlicht beeinflusst. Nachts bewegt sich die Oberseite der Mischschicht näher an die Oberfläche, kann aber durch Windgeschwindigkeit, Niederschlag und Bewölkung beeinflusst werden. Unterhalb des oberen Teils der Mischschicht ist die Temperatur stabiler als in der Atmosphäre und an der Meeresoberfläche. Die Temperatur, der Salzgehalt und die Dichte der Schicht sind aufgrund von Turbulenzen von oben nach unten nahezu konstant. Sie spiegelt die Oberflächentemperaturen wider, ist aber eine Funktion des Durchschnitts der vorangegangenen mehreren Wochen. Die Dicke der gemischten Schicht variiert saisonal von einigen zehn Metern bis zu mehreren hundert Metern. Wir werden die gemischte Schicht im nächsten Beitrag ausführlicher behandeln.

None of this is in my new book Politics and Climate Change: A History but buy it anyway.

You can download the bibliography here.

Link: https://andymaypetrophysicist.com/2020/12/09/sea-surface-skin-temperature/

Übersetzt von Chris Frey EIKE

Anmerkung: Der wiederholt angesprochene nächste Beitrag erscheint demnächst ebenfalls hier in deutscher Übersetzung.