1

Corona-Sars2 heute – Corona-Mers morgen. Bereitet Drosten die nächste „Pandemie“ vor?

Die reiferen unter den EIKE-Lesern können sich noch an das Corona-Sars1-Virus erinnern, das im Jahre 2002 auftrat. Nicht ganz folgenlos: Ein Mann, der damals um die 40 war, berichtete mir, daß er eine Lungenentzündung hatte, die es ihm versagte, auch nur drei Treppenstufen hochzugehen. Warum hatte die Regierung damals keinen „Lockdown“ ausgerufen?

Ähnlich sieht es bei der Grippe-Pandemie (Influenza) im Winter 2017/18 aus: Viele Intensivstationen pfiffen vor drei Jahren auf dem letzten Loch wegen der hohen Patientenzahl. Ein Leser schrieb mir, daß er Anfang 2020, kurz vor der Sars2-Quarantäne, wegen des aktuellen Influenzavirus in Lebensgefahr schwebte.

„Wenn das Geschäftsmodell mit den erfundenen Pandemien für die die Erfinder so gut läuft, warum nicht schon die nächste vorbereiten?“ warf unser Vizepräsident Michael Limburg ein, als ich ihm von der aktuell anlaufenden Mers-Forschung des Dr. (?) Drosten erzählte. Was ist Corona-Mers, das laut des Charité-Chefvirologen „nächste Kandidat für eine Pandemie“ sei? Das Akronym steht für Middle East respiratory syndrome-related coronavirus, deutsch Atmungssyndrom-bezogenes Coronavirus aus dem Mittleren Osten. Das Virus stammt von der arabischen Halbinsel und tritt in Europa (noch) nicht auf. Es verursacht schwere Infektion der Atemwege, Lungenentzündung und Nierenversagen. Man sieht – eine bunte Palette an Symptomen, die viel „Interpretationsspielraum“ lassen. So erklärt Christian Drosten in Capital, daß Mers der „nächste Pandemiekandidat“ sein könne und wolle sich nach dem „Rummel“ um Corona-Sars2 im Labor der Erforschung um dieses Virus kümmern.

Hat Drosten mit seiner Einschätzung Recht? Das wird die Realität zeigen, die Drosten bislang aber Lügen strafte. Im Jahre 2009/10 hatte der Arzt, damals noch in Bonn auf dem Posten Streecks, bezüglich der Schweinegrippe H1N1 ähnlich Panik geschürt wie heute. Wolfgang Wodarg, Amtsarzt und SPD-Parlamentarier, widersprach ihm und behielt Recht. Trotzdem machte die Pharmaindustrie einen ordentlichen Schnitt, weil die Regierung für Hunderte Millionen Tamiflu und andere Mittel kaufte, die nach recht kurzer Zeit abliefen und aufwendig vernichtet werden mußten.

Die Schweinegrippe-Affäre, in der neben Drosten auch das Robert-Koch-Institut, die WHO und natürlich die immer katastrophen-affinen Qualitätsmedien mitmischten, war wahrscheinlich so eine Art Testlauf für die aktuelle „Pandemie“. Nicht, daß unbedingt etwas geplant war, aber Menschen mit zu viel Macht und gleichen Interessen handeln gleich. Da tut es nicht Wunder, daß die Politiker um Merkel, die finanziell immer abhängigeren Medien, die „Wissenschaftler“ und pikanterweise nun sogar die Antifa dasselbe Märchen erzählen, weil es ihren Interessen dient.

Da die Querdenker-Demonstrationen sich in Grenzen halten und die Massenmedien es erfolgreich geschafft haben, alle Maßnahmenkritiker als verantwortungslose Spinner oder gleich Nazis darzustellen, ist wahrscheinlich, daß der politmediale Komplex nach der Abwicklung der Sars2-Erzählung zum nächsten „Supervirus“ übergehen wird. Der MDR und das Redaktionsnetzwerk von der SPD laufen  sich schon warm. Ich hoffe, daß wir da nicht Recht haben.




Bewertung der diesjährigen Wetterbe­dingungen in den Tropen der Nord­hemisphäre

Ich sage das jetzt, weil es in meinem Buch „The Weaponization of Weaponization of Weather in the Phony Climate War“ (Die Mobilisierung von Wetter als Waffe im Pseudo-Klimakrieg) einige Kapitel über die Covid-Klimaverknüpfungsstrategie gibt, von der ich wusste, dass sie zum Einsatz kommen würde, als wir das Ende der Covid-Situation erreichten. Aber der Punkt ist, dass diese Leute uns global über das Unheil und die Düsternis nachdenken machen wollen, die der Klimawandel ihrer Meinung nach darstellt.

1) Ja, wir hatten die meisten benannten Stürme im Atlantik. Ich war bei den Namen insgesamt unterdurchschnittlich. Ich hatte. 20 vor der Saison. Aber wir werden weiter unten herausfinden, was in einem Namen steckt, und in diesem Fall gibt es eine Geschichte hinter dem, womit Sie bombardiert werden, die Ihnen nicht erzählt wird. Wo haben wir das bloß schon mal gesehen?

2) Ja, es war das Jahr mit den größten Auswirkungen an der US-Küste (keine Überraschung, da wir ab April eine große Sache daraus gemacht haben).

Sehen Sie sich diese Auswirkungsprognose vom 7. April an. WO SIE GEHEN WÜRDEN, NICHT NUR ZAHLEN*. Niemand sonst hat dies getan, ich bin seit 2014 für Kunden da und wir zeigen es.

[*Dem Übersetzer ist nicht ganz klar, was Bastardi hiermit meint. Vermutung: Er will ausdrücken, dass er nicht nur Zahlen verbreitet, sondern auch gebietsmäßig festlegt, wo es am stärksten wird. Bastardi ist Wettervorhersage-Dienstleister und hat viele Kunden. Anm. d. Übers.]

Nun schauen Sie sich an, was passiert ist. Die Zahlen sind die Phasen der MJO, in denen diese einschlugen, um zu zeigen, dass wir durch die korrekte Vorhersage, dass wir in bestimmten Phasen für die Saison sein würden, die größten Auswirkungen auf die Saison hätten*.

[*Gleiches gilt für diesen Absatz. Vermutung: Die Zahlen geben die Anzahl der Ereignisse an, woraus Bastardi schließt, dass seine korrekte Vorhersage geholfen hat]

3) Der ACE-Index bei. 180 innerhalb unserer ACE-Reihe ab März! Der 10. höchste jemals verzeichnete Wert

Was ist der ACE-Index? Nun, während ich die von mir entwickelte Leistungs- und Wirkungsskala für viel anschaulicher halte, ist der ACE ein weitaus besseres Maß für die Wetterereignisse in den Tropen als die Anzahl der Stürme.

Hier ist eine nette Lektüre dazu.

4)Here is where it gets interesting: and what is being hidden from the public as the weaponization of this for climate change would be neutralized with these facts: The ACE/Storm. Was 6. ranking LAST, DEAD LAST, way back in Last, as far as ACE/Storm in an active season. In fact how bad was it? The AVERAGE ACE/STORM in the other 21 hyper active seasons was 12.! The closest to this year was another mega name year 2005, but that was a respectable 9. That 6 per/storm is in the bottom 25% for any year!

4) Hier wird es interessant: Was der Öffentlichkeit vorenthalten wird ist, dass die Mobilisierung der Stürme als Waffe bzgl. Klimawandel durch diese Fakten neutralisiert wird: Das Verhältnis von ACE pro Sturm* lag an 6. Stelle. Wie schlimm war das nun eigentlich? Das durchschnittliche Verhältnis ACE pro Sturm in den anderen 21 sehr aktiven Jahren lag bei 12! Das Jahr mit der zweithöchsten Zahl von Namen nach diesem Jahr war 2005 mit einem beachtlichen Wert von 9! Diese Zahl 6pro Sturm gehört zu den niedrigsten 25% für jedes Jahr*.

[*Weil dieser Abschnitt sehr frei übersetzt ist, bleibt er oben im Original stehen. Bastardi liebt es offenbar, seine Beiträge recht kryptisch abzufassen. – ACE = Accumulated Cyclone Energy. Unter dem Link oben findet man es ausführlich und m. E. auch nicht tendenziös. Anm. d. Übers.]

Die offensichtliche Schlussfolgerung für jeden objektiven Beobachter lautet: Einige dieser Stürme hätten gar nicht mit Namen versehen werden dürfen oder wären in den vergangenen Jahren nicht benannt worden. Das bedeutet mehr, aber schwächere Stürme. Es ist absolut erstaunlich, dass der ACE/pro Sturm heuer nur halb so groß ist wie der Durchschnitts aller anderen Fälle.

Nebenbei bemerkt: Wir haben gerade ein Jahrzehnt abgeschlossen, in dem wir hinsichtlich der stärksten Ereignisse auf der Saffir-Simpson-Skala seit über 100 Jahren am NIEDRIGSTEN lagen!

Aber es wird noch schlimmer, bis hin zum Hype, sozusagen. Das völlige Ignorieren der mangelnden Aktivität im Pazifikbecken. Ich höre immer wieder global dies und global das, was natürlich nur dann zutrifft, wenn man die Tatsache ignoriert, dass das Gebiet Nummer eins für den ACE so weit unter der Norm lag.

Aber bzgl. der „Waffe“ Stürme wird es noch schlimmer: Ignoriert wird die fehlende Aktivität im Pazifischen Becken. Man hört alles Mögliche über die globale Sturmaktivität, doch gilt das nur, wenn man die Tatsache ignoriert, dass das Gebiet Nummer eins bzgl. des ACE so erheblich unter normal lag: Westpazifik 52%, Ostpazifik 56%.

Zusammen bei beiden liegt der Wert normalerweise bei 426, dieses Jahr wurden 226 verzeichnet. Ergo: Das Becken mit einem vier mal so hohen Durchschnitt wie der Atlantik wurde nur 53% des Normalwertes erreicht. Für die Nordhemisphäre insgesamt war es 80%. Folglich lag der ACE trotz der starken Saison im Atlantik GLOBAL UNTER dem Mittelwert.

Es steht also außer Frage, dass die Auswirkungen der westlichen Hemisphäre eine riesige Blase heißer Luft ist, über den man sprechen sollte. Aber wenn Sie die Perspektive und das Gesamtbild wollen, gibt es viel, was der Idee widerspricht, dass dies ein Beispiel für eine Art atmosphärische Apokalypse ist. Die Natur findet einen Weg, die Dinge auszugleichen, egal wie viel Geld wir aus unserer wirtschaftlichen Lebensader abziehen wollen, um sie zu verändern.

Natürlich scheint die Medaille, die heute umgedreht wird, wenn es darum geht, Ideen voranzutreiben, immer in eine Richtung zu gehen, nämlich Hysterie zu schüren. Kommt Ihnen das bekannt vor?

Autor: Joe Bastardi is a pioneer in extreme weather and long-range forecasting. He is the author of “The Climate Chronicles: Inconvenient Revelations You Won’t Hear From Al Gore — and Others” which you can purchase at the CFACT bookstore. His new book The Weaponization of Weather in the Phony Climate war can be found here: www.phonyclimatewar.com

Link: https://www.cfact.org/2020/11/27/summing-up-the-northern-hemisphere-tropical-season/

Übersetzt von Chris Frey EIKE




Corona: „Es geht um Leben und Tod“

Die Mitarbeiter des Statistischen Bundesamtes haben eine Sonderauswertung der Sterbefälle in Deutschland von 2016 bis 2020 gemacht, sie ist am Ende dieses Berichtes als xls-Datei angehängt, damit sich jeder die Originalzahlen anschauen kann.

Aus den Zahlen des Statistischen Bundesamtes sollte ersichtlich sein, wie der „hochansteckende Killervirus“ gewütet und die Menschen dahin gerafft hat. Ich habe aus den Daten übersichtliche Diagramme gemacht:

 

 

Quelle: www.destatis.de   Sonderauswertung Sterbefälle mit Stand vom 6.11.2020

 

Aus den Diagrammen und aus den unten beigefügten Originaltabellen ist zu sehen:

  • In 2020 und 2016 hat es keine ausgesprochene Grippewelle mit Übersterblichkeit gegeben. Der Lockdown wurde in der zweiten Märzhälfte angeordnet, das sind die KW12 und KW13. Weder vorher noch nachher ist eine Übersterblichkeit erkennbar. Die bei den PCR-Tests festgestellten Viren ( = Bruchstücke von Genmaterial) verursachten weder Symptome einer Erkältung wie Schnupfen, / Fieber / Gliederschmerzen / Müdigkeit, noch darüber hinaus Sterbefälle.
  • In 2018 gab es im Februar und der ersten Märzhälfte eine Übersterblichkeit mit etwa 30 000 Todesfällen. Die Sterblichkeit war um ca. 50% gegenüber den Sommermonaten erhöht war und damit deutlich erkennbar. Es hat offensichtlich ein Virus gewütet, bei dem die Bezeichnung „Killervirus“ zutrifft. Allerdings war im nachfolgenden Sommer die Sterblichkeit geringer, d.h. es sind viele Menschen etwas früher gestorben. Daher ist es zur Kennzeichnung einer Grippewelle irreführend, dieses mit der Zahl von Todesfällen zu messen. Es ist besser, die Zahl der verlorenen Lebensjahre zu betrachten
  • Diese Übersterblichkeit gab es nur bei älteren Leuten. Im Altersbereich 0 bis 30 fehlt der Peak. Das Leben geht nun einmal immer im Alter zu Ende.
  • Eine zweite Welle hat es bei diesem Killervirus vom Frühjahr nicht gegeben.
  • Viren kommen und gehen, das haben die Profs. Karina Reiss und Sucharit Bhakdi gut verständlich erklärt [1]. Auch wenn recht stabile und gefährliche Exemplare entstehen, dann leben sie auch nur begrenzte Zeit wie im Februar / März 2018.
  • Die Peaks in den Sommern von 2020, 2019, 2018 sind verursacht durch Hitzewellen, in 2017 und 2016 gab es keine derart heftigen Hitzewellen. Auch hier starben die Alten, die Jugend steckt große Hitze ohne weiteres weg.
  • Damit kommt man aber auch unweigerlich zu dem Schluß, daß der in Wuhan aufgetretene „hochansteckende Killervirus“ uns in Europa nicht erreicht hat. Er ist schon lange verschwunden. Eine „zweite Welle“ kann es nicht geben, es sei denn, es tritt ein neuer Virus mit ähnlichen Eigenschaften auf.

 

Die Maskenpflicht

Corona-Viren haben eine Größe von 20nm bis 130nm (Pschyrembel 1986). Die Größe des „hochansteckende Killervirus“ ist bekannt, wurde in den Medien nicht genannt. Herr Prof. Drosten kennt die Größe, denn er hat mit Kenntnis des Virus seinen PCR-Test entwickelt. Einen Virus im zig-Nanometer-Bereich „mit Masken aufhalten zu wollen ist etwa so effektiv, wie sich vor Mücken mittels eines Maschendrahtzauns schützen zu wollen“ so nannte es Frau Vera Lengsfeld treffend. Durch den normal immer vorhandenen Spalt zwischen Maske und Haut können 10 000 bis 100 000 Viren nebeneinander hindurch schlüpfen.

Kinder von 6 Jahren haben eine Atemfrequenz von 25 pro Minute (siehe Pschyrembel) und 1/3 des Gewichtes eines Erwachsenen. Das ergibt ein Atemvolumen von 110ml. Es folgt:

Diese Kinder atmen durch die Maske Luft mit CO2-Gehalt »4% und reduziertem ständig abnehmenden Sauerstoffgehalt ein.

Im Römpp Chemielexikon steht zu physiologischen Wirkung von Kohlendioxid: „es (kann) in größeren Mengen durch Verdrängung des Sauerstoffs erstickend wirken. Der Mensch erträgt bis zu 2,5% K. auch bei stundenlanger Einatmung ohne große Schädigung. Anteile von 8–10% K. rufen Kopfschmerzen, Schwindel, Blutdruckanstieg u. Erregungszustände, solche über 10% Bewußtlosigkeit, Krämpfe u. Kreislaufschwäche u. die über 15% apoplexieähnliche Lähmungen hervor. Sehr hohe Konz. – z.B. bei Ansammlung in Gärkellern od. Höhlen (K. ist schwerer als Luft!) – führen rasch zum Tode, wenn nicht genügend Sauerstoff zugeführt werden kann“.

Die genannten Symptome werden bei Kindern beobachtet. Ich meine: Die Pflicht des Maskentragens für Grundschulkinder ist als Folter anzusehen.

 

Es drängen sich folgende Gedanken auf:

  1. Der Ausstieg Deutschlands aus der Kernenergie wurde durch eine (fast) nicht existierende Gefahr der Radioaktivität bewirkt. Die ursächlichen Fehler wurden in den 1940-er Jahren gemacht und haben sich weltweit verbreitet und wurden in Gesetzen fest geklopft.
  2. Der geplante und allmählich Fahrt aufnehmende Ausstieg der EU aus den fossilen Energien als Klimaschutzmaßnahme wurde durch einen (fast) nicht existierenden Einfluß von CO2 auf die Wettervorgänge in der Atmosphäre initiiert. Das begann vor etwa 50 Jahren.
  3. Die jetzige Coronahysterie mit seinen (fast) nicht existierenden Gefahren für die Gesundheit der Menschen wurde durch einen erfundenen Virus an unbekannter Stelle von Unbekannten ins Leben gerufen. Nach einer Schlagzeile in DIE WELT werden für 150 Millionen Menschen die wirtschaftlichen Grundlagen für deren Existenz vernichtet.

Um die Dinge zu verstehen, sind ist weit gefächertes naturwissenschaftliches Grundwissen erforderlich. Wo das nicht vorhanden oder nur lückenlos vorhanden ist, werden die Menschen in die Irre geführt. Der Autor muß gestehen, daß er beim Punkt 2 ebenfalls lange irrte, bevor er durch ein Sachbuch [2] zum Nachdenken und Umdenken kam.

Eine wichtige Rolle kommt den Medien zu. Sie kommen ihrer Pflicht zu ausgewogener Berichterstattung nicht nach. Bei

  1. dem Thema „Strahlung“ kam immer nur Prof. Edmund Lengfelder zu Wort, niemals jedoch die deutschen Profs. Klaus Becker oder Ludwig Feinendegen.
  2. dem Thema Klima und Energie erlebt man in den Medien immer nur Frau Prof. Claudia Kemfert, niemals jedoch Prof. Helmut Alt, den ich hier stellvertretend für sehr viele andere Namen nenne.
  3. dem Thema Corona erscheinen bevorzugt die Herren Drosten und Wieler. Die vielen anderen Mediziner jedoch nicht, von denen ich hier stellvertretend die Herren Dr. Wodarg und Prof. Bhakdi nennen möchte.

Es gibt einen Verbesserungsvorschlag, wie regierungsunabhängige Information gestaltet werden kann [3]: Man sollte die Medien per Gesetz zu kontroversen Diskussionen verpflichten, damit der Bürger selber über richtig oder falsch entscheiden kann.

Es bleiben zu einer Information der Bürger nur private Vereine mit ihren Mitteilungen, Büchern und Diskussionsforen im Internet. Hier ist es EIKE ( = Europäisches Institut für Klima und Energie). Auch Vereine sind (noch) in den Grundrechten geschützt, aber sie müssen leben, dazu braucht es engagierte Bürger. Ich danke den Helfern dieser Vereine für ihr zeitliches und finanzielles Engagement.

sonderauswertung-sterbefaelle

[1] Karina Reiss, Sucharit Bhakdi, „Corona Fehlalarm, Zahlen, Daten und Hintergründe“
[2] Michael Limburg, „Klimahysterie – was ist dran?“ ISBN 978-3-940431-10-3

[3] Detlef Rostock, “DEUTSCHLAND das glaubt man nicht“, ISBN 978-3-943168-93-8




Winter 2020/21 – darf es diesmal etwas kälter sein?

1. Die Bauernregeln

2020 verlief der September relativ warm. In solchen Fällen könnte die Regel „Ist der September gelind, bleibt der Winter ein Kind.“ zutreffen. Allerdings zählte dieser September nicht zu den 15 wärmsten in Deutschland; daher ist Vorsicht geboten; zumal sein Luftdruck wegen einer intensiven Tiefdruckphase in der letzten Dekade nur leicht überdurchschnittlich war.

Ist Martini trüb und feucht, wird gewiss der Winter leicht.“ Um den 10.11.2020 herrschte im Tiefland meist mildes, trübes, trockenes Wetter; am Nordrand der Berge, auf diesen und im Westen war es aber teils sonnig. Wegen der Kalenderreform von 1583 (10 Tage Verschiebung aller Lostage) ist auch die Witterung um den 20.11. beachtenswert, welche trüb-feucht war. „Elisabeth (19.11., diesmal wolkig, Regenschauer, fast normale Temperaturen) sagt an, was der Winter für ein Mann“. „Wie’s Wetter an Kathrein (25.11., diesmal nach Nachtfrost fast normal temperiert, trocken, stellenweise sonnig), so wird es auch im Januar sein.“ Solche Regeln haben nur einen sehr groben Wahrheitswert. Insgesamt trafen auf das Unglücksjahr 2020 auffallend wenige Bauernregeln zu; diese wenigen deuten nur vage auf einen milden bis normalen Winter hin.

[Ausführlich auf das Thema Bauernregeln geht dieser Beitrag ein.]

2. La Nina oder El Nono – was bedeutet das?

Bislang herrschen im Herbst 2020 im tropischen Südost- Pazifik einschließlich der Südamerikanischen Küste deutlich zu niedrige Meeresoberflächentemperaturen; deutliche Merkmale für „La Nina“. Die Aussichten Richtung Winter sind aber noch unklar. Direkte Auswirkungen auf die Winterwitterung in Deutschland lassen sich aus El Nino- oder La Nina-Ereignissen ohnehin kaum ableiten; deshalb sind auch alle im Netz kursierenden Meldungen, es werde „wegen La Nina einen sehr kalten Winter in Deutschland geben“, unseriös!

3. Nachlassende Sonnenaktivität – Menetekel der Abkühlung

Direkte Sonnen- und Infrarotstrahlung schwanken nur wenig, umso mehr aber das solare Magnetfeld, die Teilchenstrahlung („Solarwind“, verantwortlich u.a. für Polarlichter), die Radiostrahlung und die von der oberen Erdatmosphäre weitgehend absorbierte kurzwellige Strahlung (Röntgen, kurzwelliges UV). Sie beeinflussen Wetter und Klima wesentlich; allerdings besteht noch Forschungsbedarf. Die Sonnenfleckenanzahl bildet die Sonnenaktivität grob ab; je mehr Sonnenflecken, desto höher die Sonnenaktivität. Die Sonnenaktivität wirkt auf verschiedenen Zeitskalen; hierzu wird intensiv geforscht. Im Jahr 2019 war die Fleckenzahl sehr gering; oftmals blieb die Sonne völlig fleckenlos, was Kältewellen in den kommenden Monaten begünstigen könnte, aber nicht zwangsläufig muss.

Dem noch intensiven 23. folgte der schwache 24. SCHWABE- Zyklus; und aktuell beginnt der ebenfalls sehr schwache 25. SCHWABE-Zyklus; im November 2020 zeigten sich aber erstmals wieder recht zahlreiche Sonnenflecken.

Das Minimum zwischen den Zyklen 24 und 25 trat also zwischen Herbst 2019 und Frühherbst 2020 ein und zog sich damit sehr lange hin. Das solare Verhalten ähnelt damit dem des DALTON-Minimums im frühen 19. Jahrhundert; einer Kaltphase, die aber auch durch eine ungewöhnlich hohe vulkanische Tätigkeit begünstigt wurde (u.a. Tambora-Ausbruch). Der Winter 2020/21 ist der siebente nach dem Maximum des SCHWABE-Zyklus. Die 12 Vergleichswinter seit 1881/82 liegen mit etwa +0,1°C etwas unter dem Wintermittel des gesamten Zeitraumes 1881/82 bis 2019/20, das etwa 0,3°C beträgt. Von diesen 12 Vergleichswintern waren die von 1889/90, 1899/1900, 1923/24, 1953/54, 1985/86 und 1995/96 deutlich, aber nicht herausragend, zu kalt, zwei Winter waren etwa normal, vier zu mild, darunter 1974/75 und 2007/08 extrem mild. Betrachtet man alle Winter nach ihrem Rang im SCHWABE-Zyklus, so verliefen der sechste und der neunte nach dem Zyklus-Maximum im DWD-Deutschlandmittel am mildesten; freilich ist der „Vorhersagewert“ wegen des geringen Stichprobenumfangs mit Vorsicht zu genießen:

Sehr kalte Winter treten bevorzugt zum Minimum des Schwabe-Zyklus oder 1 bis 2 Jahre nach diesem auf; letztmalig 2009/10, davor 1995/96 und 1996/97 sowie 1986/87. Dreizehn der zwanzig kältesten Winter nach 1945 in Deutschland traten in der Nähe des Sonnenminimums auf, nur sieben in der Nähe des Maximums. Hier zeigt sich schon eine gewisse Verzögerung, mit der die Wintertemperaturen der solaren Aktivität folgen.

In den kommenden Jahrzehnten sinkt die Sonnenaktivität aber vermutlich weiter (neues Dalton- oder Maunder-Minimum), was weltweit abkühlend wirkt und in Mitteleuropa Meridionale Lagen (im Winter oft kalt) begünstigt. Das träge Klimasystem reagiert nur mit Verzögerungen von etwa 10 bis 30 Jahren auf die schon nach 1990 beginnende tendenzielle Abschwächung der Sonnenaktivität, so dass sich negative Auswirkungen erst ab den 2020er Jahren deutlicher zeigen werden. Vermutlich gab es deswegen bereits in den letzten 23 Jahren zwar noch eine Erwärmung in Deutschland; in Zentralengland kühlte es sich dagegen trotz der stark steigenden CO2-Konzentrationen schon leicht ab:

Insgesamt lässt die geringe Sonnenaktivität 2020 eher einen normalen bis zu kalten Winter erwarten.

4. Die Zirkulationsverhältnisse: Mehr Winter als in den Vorjahren?

Westliche Luftströmungen (Zonale Großwetterlagen) bringen milde Atlantikluft nach Deutschland, nördliche und vor allem östliche Kaltluft. Bei Süd- und Zentralhochlagen muss ein starker Wind die bodennah aus Ost einsickernde oder vor Ort immer wieder neu entstehende Kaltluftschicht vertreiben, ansonsten können auch sie im Tiefland bitterkalt sein, während es auf den Berggipfeln sehr mild ist. Der Zusammenhang zwischen der Häufigkeit der Luftströmungen mit Westanteil (Großwettertypen W, SW und NW) sowie den Wintertemperaturen in Deutschland ist sehr eng (folgende Grafik):

Für längerfristige Vorhersagen muss man die Zirkulationsverhältnisse vorhersehen können, was kaum möglich ist. Im Herbst 2020 war die Zonalzirkulation zwischen etwa dem 10.September und dem 20. Oktober fast völlig zusammengebrochen, nach kurzer Beschleunigung ab dem 3. November dann ebenfalls meist schwach entwickelt, was ein versteckter Hinweis auf einen Kaltwinter ist. Ob die seit der Jahrtausendwende zu beobachtende leichte Abnahme der Westlagenhäufigkeit in diesem Jahr eine Rolle spielt, ist mehr als fraglich. Die seit 2018 gehäuften Zirkulationsstörungen, welche auch 2020 die Westdrift zeitweise schwächten oder gar blockierten, machen gewisse Hoffnungen auf zeitweise winterliches Wetter. Wegen der aktuell herrschenden Westwind-Phase der QBO (Erklärung siehe Punkt 7) muss eine spätere Zonalisierung mit milden Westlagen leider jedoch in Betracht gezogen werden.

5. Die mittelfristigen Modelle: Kühlerer Dezember als in den Vorjahren?

Die verbesserte Kurzfrist-Vorhersagegüte (etwa 1 bis 4 Tage im Voraus) resultierte aus der Entwicklung und Verfeinerung numerischer Modelle, basierend auf Gleichungen der Thermodynamik, in Verbindung mit immer schnelleren Computern sowie mehr und besseren Mess- oder Beobachtungsdaten per Satelliten und Automaten. Für längerfristige Vorhersagen dienen sogenannte Ensemble-Modelle, bei denen man die Ergebnisse mehrerer Modell-Läufe (gerechnet mit leicht variierten Anfangsparametern) mittelt. Sie liefern keine detaillierten Vorhersagen, doch gute Abschätzungen der Luftdruckverhältnisse für etwa eine Woche im Voraus und vage für bis zu 15 Tagen. Die Ensemble-Vorhersagekarte des NOAA (USA- Wetterdienst) vom 25.11. für den 10.12.2020 zeigt tiefen Luftdruck von Island zum Eismeer, hohen Luftdruck über Iberien und westlich davon. Interessant ist der tiefe Luftdruck im östlichen Mittelmeer; er könnte die Westdrift schwächen (Quelle: NOAA). Sollte das so eintreten (noch sehr unsicher), so würde über Mitteleuropa eine mäßige, eher milde Westströmung herrschen, nach tiefem Winter sieht das zwar nicht aus, aber zumindest zeitweise könnte subpolare Meeresluft für Flockenwirbel im Bergland und vielleicht gar für nassen Schnee und häufigere Nachtfröste im Tiefland sorgen:

Allerdings zeigten die einzelnen Modell-Läufe des GFS, es gibt deren je 30 für jeden Startzeitpunkt, seit etwa dem 20.11. vermehrt Fälle, in denen zumindest zeitweise entweder hoher Luftdruck über dem nördlichen Mitteleuropa und Skandinavien herrschen soll, oder es zu einer mehr oder weniger deutlichen Troglage über Mitteleuropa und dem Mittelmeer kommt; Beides eröffnet Chancen für zumindest teilweise winterliche Verhältnisse; hier zwei Beispiele (Quelle):

Die obere Karte ähnelt einer Troglage über Mitteleuropa; Schnee wäre möglich, besonders im Bergland. Die untere Karte zeigt ein Hoch über Nordwest-Russland mit Keil nach Skandinavien, was Kälte und vielleicht auch etwas Schnee bedeutet. Leider zeigen aber auch noch einige Modell-Läufe in diesem stets extrem unsicheren „Glaskugel-Bereich“ mildes Westwetter; immerhin verlief aber der Monatswechsel Nov./Dez. recht kalt; so dass man sich größere Hoffnungen auf einen mehr oder weniger winterlichen Dezember, vielleicht gar mit der ein oder anderen „Weißen Überraschung“ bis ins Flachland, machen kann.

6. Die aktuelle Tendenz der Wintertemperaturen in Deutschland

Trends erlauben nie Rückschlüsse auf den Einzelfall und keine Extrapolation in die Zukunft. Die Wintertemperaturen entwickelten sich in den letzten gut 30 Jahren folgendermaßen:

Trotz der sehr milden Winter 2013/14, 2015/16, 2018/19 und 2019/20 sowie kontinuierlich steigender CO2-Konzentration (obere, grüne Linie) stieg das Wintermittel seit 33 Jahren als einziges Jahreszeitenmittel kaum noch, weil die schon erwähnte nachlassende Sonnenaktivität und schwächere Zonalzirkulation bereits Wirkung zeigen. Und die DWD-Daten sind nicht wärmeinselbereinigt. Einen deutlicher fallenden Trend zeigt die wärmeinselarme Station Amtsberg/Erzgebirge:

Aber die „richtige“ Kälte dürfte indes wegen der Trägheit des Klimasystems erst in wenigen Jahren bis Jahrzehnten zuschlagen („Kleine Eiszeit“). Die seit einigen Jahren wieder leicht steigende Zahl von Nebeltagen weist gleichfalls auf eine sehr langsam beginnende Abkühlung hin.

7. Die Nordatlantische Oszillation (NAO), die AMO, die QBO und der Polarwirbel – verderben uns QBO-Westwindphase und Polarwirbel mal wieder den Winter?

Der NAO-Index ist ein Maß für die Intensität der Westströmung über dem Ostatlantik im Vergleich zum Langjährigen Mittel. Positive NAO-Werte bedeuten häufigere und intensivere, im Winter eher milde Westwetterlagen. Bei negativen NAO-Werten schwächt sich die Intensität der Zonalströmung ab, bei stark negativen Werten kann sie gar in eine Ostströmung umschlagen oder meridional verlaufen. Im Juli und bis Mitte Oktober überwogen negative, danach und im August/September positive NAO-Werte bei merklichen Schwankungen (Quelle):

Mitunter verändert sich die NAO sprunghaft (schwere Vorhersagbarkeit). Die AMO (ein Maß für die Wassertemperaturschwankungen im zentralen Nordatlantik) beendet vermutlich bald ihre Warmphase. Ein kompletter AMO-Zyklus dauerte seit Beginn regelmäßiger Messungen meist etwa 50 bis 80 Jahre, somit ist in naher Zukunft ein Wechsel in die Kaltphase möglich. Mehr zum Zusammenhang von AMO, NAO und den Temperaturverhältnissen in Deutschland unter anderem hier.

AMO-Warmphasen erhöhen die Wahrscheinlichkeit für einen kalten Winter nur leicht, weil diese Konstellation kalte, nordöstliche Strömungen („Wintermonsun“) begünstigen könnte. Und die sogenannte QBO (Windverhältnisse in der unteren Stratosphäre der Tropen, die etwa alle 2,2 Jahre zwischen West und Ost pendeln), wechselte im Herbst fast in allen Schichten zur Westwind-Phase, was eher für eine Begünstigung der milden Westlagen spricht. In diesem Zusammenhang lohnt noch ein Blick auf die mögliche Entwicklung des Polarwirbels. Ein ungestörter, sehr kalter Polarwirbel im 10-hPa-Niveau (gut 25 Km Höhe, Stratosphäre) ist kreisrund und in der Arktis extrem kalt, was Westwetterlagen begünstigt, welche in Deutschland mild sind. Für den 11. Dezember wird ein Polarwirbel vorhergesagt, der relativ gut entwickelt und nur leicht gestört ist; in seinem Zentrum östlich von Grönland sollen so um die minus 84°C herrschen – leider ein wichtiges Vorzeichen für eher milde Dezember-Witterung in Mitteleuropa (Quelle: Französischer Wetterdienst):

NAO, QBO, AMO und das Verhalten des Polarwirbels deuten also auf einen eher milden bis sehr milden Winter hin.

8. Verursacht das angeblich verschwindende Arktische Meereis kältere Winter? Für die relativ kalten Winter 2009/10 und 2012/13 wurde das schwindende arktische Meereis, speziell im September, verantwortlich gemacht. Mit etwa 3,9 Millionen Km² gab es im Septembermittel 2020 nur eine etwas größere Eisfläche, als zum bisherigen Negativ-Rekordmittel von 3,57 Millionen Km² (Sept. 2012) (Daten: NSIDC, National Snow and Ice Data Center der USA). Bei AMO-Warmphasen wird mehr Wärme in die europäische Arktis eingetragen. Die minimale Eisausdehnung und die geringere Westlagenhäufigkeit der 2000er Jahre „passen“ gut zum AMO-Maximum. Genaueres Zahlenmaterial zur Eisausdehnung liegt leider erst seit 1979 vor (Einführung der flächendeckenden, satellitengestützten Überwachung). Zumindest in diesem relativ kurzen Zeitraum von gut 40 Jahren bestand ein signifikanter Zusammenhang zwischen der AMO und der Fläche des winterlichen Arktis-Meereises:

Ähnlich wie in den 1930er Jahren, als während der damaligen AMO-Warmphase ebenfalls ein Meereisrückgang sowie vor allem ein starkes Abschmelzen der Grönland-Gletscher herrschte. Näheres dazu hier. Die These „weniger Arktiseis – mehr Winterkälte in Deutschland“ ist unhaltbar; tatsächlich gibt es nur einen geringen, nicht signifikanten Zusammenhang:

Auch bei Betrachtung anderer Bezugszeiträume besteht keine signifikante Korrelation. Die aktuelle Meereisbedeckung im Vergleich zu den Vorjahren auf der Nordhalbkugel kann man hier abrufen. Laut einer Fehlprognose von Al Gore sollte der Nordpol schon im Spätsommer 2013 eisfrei sein. Näheres hier. Im Herbst 2020 setzte das Eiswachstum relativ spät und erst verhalten, ab Mitte Oktober dann beschleunigt ein, zeitweise gab es weniger Eisflächen, als im Herbst 2012; die starke Eiszunahme im Spätherbst könnte den Temperaturgegensatz zwischen niederen und hohen Breiten aber verstärken und milde Westlagen im Frühwinter begünstigen. Insgesamt hat das komplizierte, wenig erforschte Zusammenspiel zwischen Meeresströmungen, AMO, Meereis und Großwetterlagen wahrscheinlich großen Einfluss auf die Witterungsverhältnisse. Die Ausdehnung der Schneebedeckung im Spätherbst (Okt/Nov) in Eurasien hat ebenfalls keine eindeutigen Auswirkungen auf die deutsche Winterwitterung. So bedeckte der Schnee in den Spätherbsten 1968, 70, 72, 76, 93, 2002, 09, 14,15 und 16 auf der größten zusammenhängenden Landmasse der Erde eine deutlich überdurchschnittliche Fläche, doch nur die 3 Winter 1968/69, 2002/03 und 2009/10 waren danach zu kalt, während die anderen 7 zu mild ausfielen; letztmalig der von 2016/17, trotz des kalten Januars. Eine große Überraschung bot dieser Analyseteil trotzdem. Im Herbst und Winter wächst nämlich die mit Schnee bedeckte Fläche Eurasiens; nur im Frühling und Sommer nimmt sie ab. Sollte es Dank des „Klimawandels“ nicht immer weniger Schneeflächen in allen Jahreszeiten geben?? Und die wahre Ursache für die Abnahme im Frühjahr/Sommer ist nicht das CO2, sondern vermutlich mehr Sonnenschein (siehe folgende Abbildung):

9. Analogfälle (ähnliche Witterung wie 2019)

Bei dieser Methode werden die dem Winter vorangehenden Monate hinsichtlich ihres Witterungsverlaufs untersucht. Betrachtet man alle mehr oder weniger zu kalten Winter der vergangenen 4 Jahrzehnte inklusive solcher, die bei milder Gesamtwitterung mindestens eine mehrwöchige Kälteperiode aufwiesen, so gingen diesen Wintern bis auf die Ausnahme von 2011 Herbste voraus, die schon mindestens einen auffälligen Kälteeinbruch hatten. Dabei war nur selten der Herbst insgesamt zu kalt, aber er wies dann mindestens einen zu kalten Monat oder wenigstens eine markante Kaltphase auf (November 1978, 1980, 1981, 1984, 1985, September 1986, September 1990, November 1993, November 1995, September 1996, September/Oktober 2002, November 2005, September 2008, Oktober 2009, November 2010, Oktober 2012, 2015, Oktober/November 2016, September 2017). Schneite es bereits im Oktober stellenweise bis ins Flachland (2002, 2009, 2012 und 2015), so war in den ersten 3 Fällen der gesamte Winter zu kalt; 2015/16 kam es nur im Januar besonders in Nordostdeutschland zu längeren, winterlichen Phasen. Vor den meisten fast durchgängig milden Wintern (1973/74,1974/75,1987/88,1988/89,1989/90, 2006/07, 2007/08, 2013/14, 2014/15) waren die Herbste entweder rau, gemäßigt oder extrem mild; markante Kälteeinbrüche fehlten jedoch oder waren, so wie auch 2020, nur undeutlich und kurz (November 1988 und 1989). Das Witterungsverhalten im September/Oktober 2020 (Sept. zu trocken und zu warm, Oktober zu mild und zu nass) deutet eher auf einen mehr oder weniger milden Winter hin.

Zu warmen Sommern folgen meist zu milde Winter (positiver Zusammenhang). Für seriöse Vorhersagen ist diese Beziehung allein freilich viel zu schwach. Zwischen den Herbst- und Wintertemperaturen findet sich sogar ein etwas deutlicherer positiver Zusammenhang; der insgesamt recht milde Herbst 2020 deutet also eher auf einen milden Winter hin. Bei Betrachtung des Deutschland-Temperaturmittels aus den meteorologischen Jahreszeiten Sommer und Herbst zusammen ergibt sich ein bemerkenswerter Zusammenhang; besonders, wenn man nur diejenigen Zeiträume betrachtet, in denen das zu hohe Temperaturmittel von Juni bis November die einfache Standardabweichung von1881 bis 2019 erreicht oder überschreitet:

Von den 19 Fällen mit deutlich zu hohem Sommer- und Herbstmittel folgten also nur zwei zu kalte Winter; die übrigen 16 waren allesamt mehr oder weniger deutlich zu mild. Betrachtet man von diesen 19 Fällen nur die 8, bei denen auch der Sommer und der Herbst für sich ihre einfache Temperatur-Standardabweichung erreichten oder überschritten (pink markiert), so waren sogar alle ihnen folgenden Winter zu mild, darunter die extrem milden 2006/07 und 2019/20. Aber der Spätsommer 2020 (August und September) liefert dazu widersprüchliche Hinweise. Er stellte nach der Objektiven Wetterlagen-Klassifikation des DWD (seit 1979 verfügbar) mit 31 Tagen einen neuen Häufigkeitsrekord der Unbestimmten Wetterlagen (solche ohne eindeutige Anströmrichtung, als XX-Lagen bezeichnet) auf. Ähnlichen Spätsommern folgten in der Vergangenheit tendenziell kalte Frühwinter; zum Februar besteht keinerlei Zusammenhang:

Vage in die andere Richtung weist die Sonnenscheindauer des vorangehenden Frühlings und Sommers. War sie, wie auch 2020, zu hoch, so folgt tendenziell eher ein milder Winter. Lohnender ist ein Blick auf die mittlere Höhenlage der 500-hPa-Fläche über Deutschland. Lag diese im Jahresmittel, so wie auch 2020 zu erwarten, höher als im Langjährigen Mittel, so deutet das mit erhöhter Wahrscheinlichkeit auf einen Mildwinter hin, besonders dann, wenn diese zu hohe Lage zwischen Januar und September auftrat, was, mit Ausnahme des Junis, auch 2020 zutraf. In den Fällen, bei denen das Höhenlage-Mittel von Januar bis September die einfache Standardabweichung des Zeitraumes von 1948 bis 2019 überschritt, das war erstmals 1989 und insgesamt zwölfmal zu verzeichnen, waren 11 der Folgewinter, vor allem der Januar, mehr oder weniger deutlich zu mild, nur der von 2002/03 zu kalt. Und 2020 war das Geopotential dieses Zeitraumes mit etwa 5653 gpdm so hoch, wie noch nie. Auch die deutlich zu geringe Anzahl der Wetterlagen mit nördlichem Strömungsanteil (dafür zu viele südliche) zwischen Juli und September 2020 ist ein gewisser Hinweis auf einen eher milden Winter. Insgesamt deutet sich nach den Analogfällen bei extremer Widersprüchlichkeit der Signale also eine erhöhte Wahrscheinlichkeit für einen bestenfalls normalen, wahrscheinlicher viel zu milden Winter an, aber vielleicht trotzdem mit einer längeren Kaltphase oder einem einzelnen, kalten Monat.

10. Die Hurrikan-Aktivität (Nordatlantik) und Zyklonen-Aktivität (nördlicher Indik)

Mit gewissen Abstrichen (mangelnde Beobachtungsmöglichkeiten vor Einführung der Satellitentechnik) ist die jährliche Anzahl der Tropischen Wirbelstürme im Nordatlantik (Hurrikane) und der Zyklone (nördlicher Indischer Ozean) etwa bis zur Mitte des 19. Jahrhunderts bekannt. Die verheerenden, meist wenige Tage bis selten länger als zwei Wochen existierenden Hurrikane gelangen nie nach Mitteleuropa. Aber sie beeinflussen unsere Witterung. Sie schwächen bei bestimmten Zugbahnen das Azorenhoch oder kommen bei Einbeziehung in die Westdrift als normale Tiefs nach Europa, wo sie im Spätsommer/Herbst mitunter einen markanten Witterungsumschwung einleiten. Auch die Anzahl der im nördlichen Indischen Ozean jährlich vorkommenden Wirbelstürme (Zyklone) könnte einen gewissen Einfluss auf unsere Winterwitterung haben; es gibt von 1890 bis 2018 eine leicht negative Korrelation (tendenziell kältere Winter, wenn dort viele Zyklone auftraten). Im Mittel von 1851 bis 2017 sind gut 5 Hurrikane pro Jahr (die Saison beginnt meist erst zwischen Mai und Juli, doch 2016 gab es schon im Januar einen Hurrikan, und endet spätestens Anfang Dezember) aufgetreten. Erreichte ihre Zahl mindestens 10 (1870, 1878, 1886, 1887, 1893, 1916, 1933, 1950, 1969, 1995, 1998, 2005, 2012 und 2017), so waren von den 14 Folgewintern 11 zu kalt, und nur 3 (1998/99, 1950/51 und 2017/18, da aber kalter Februar!) zu mild. Bei fast all diesen Fällen brachte allerdings schon der Spätherbst markante Kältewellen; selbst vor zwei der milden Wintern waren diese zu beobachten; besonders markant 1998, und 2017 war der September zu kalt. Bei deutlich übernormaler Hurrikan-Anzahl besteht eine erhöhte Neigung zur Bildung winterlicher Hochdruckgebiete zwischen Grönland und Skandinavien. In diesem Jahr gab es bislang schon 13 Hurrikane und damit erheblich zu viele, bloß vor dem Kaltwinter 2005/06 gab es mit 15 Hurrikanen noch mehr, was für einen kalten Winter spricht. Von den bisher 15 Fällen mit mindestens 10 Hurrikanen pro Saison waren 10 Folge-Winter mehr oder weniger kalt, darunter die von 1916/17, 1969/70, 1995/96 und 2010/11; zwei normal und drei zu mild, letztmalig 2017/18. Aber diese fünf normalen bis wärmeren Winter wiesen stets wenigstens kältere Abschnitte oder gar einen zu kalten Monat auf; letztmalig den Februar 2018. Im Indischen Ozean war die Zyklon-Aktivität 2020 aber deutlich unterdurchschnittlich, was aber nur vage auf einen Mildwinter hindeutet. Die Wirbelsturm-Aktivität gibt diesmal also eher Hinweise auf einen Kaltwinter in Deutschland.

11. Die Langfrist- Vorhersagen einiger Institute, Wetterdienste und Privatpersonen:

UKMO-Metoffice (Großbritannien): Stand 11.11.2020 Winter (D, J, F) mit deutlich erhöhter Wahrscheinlichkeit in ganz Deutschland zu mild (folgende Karte):

Anmerkung: Hier wird nur die Metoffice- Karte mit der Wahrscheinlichkeit des Abweichens vom Median gezeigt. Es gibt zwei weitere. Diese Median-bezogene Wahrscheinlichkeitsaussage zeigt, wie die anderen Karten auch, eine sehr stark erhöhte Wahrscheinlichkeit für über dem Median liegende Wintertemperaturen besonders in Mittel- und Nordosteuropa sowie über dem Eismeer und Teilen des Mittelmeeres:

Die aktuellen Karten jederzeit hier

Meteo Schweiz Stand Nov. 2020: Je leicht erhöhte Wahrscheinlichkeit für einen normalen und einen zu milden Winter. Zusammen ergibt das eine Wahrscheinlichkeit von gut 80% für „normal“ bis „zu mild.“ Zu kalter Winter zu kaum 20% wahrscheinlich; normaler zu etwa 40%, milder etwas mehr. Die „doppelten T“ sind die Fehlerbalken; die Prognose gilt nur für die Nordostschweiz, ist aber auch für Süddeutschland repräsentativ:

ZAMG (Wetterdienst Österreichs) Stand Nov. 2020: Dezember mit je ganz leicht erhöhter Wahrscheinlichkeit normal oder mild; immerhin noch gut 25% Wahrscheinlichkeit für einen kalten Dezember. Im Januar 2021 erhöht sich die Wahrscheinlichkeit für „normal“ oder „zu mild“ etwas; für Februar lag noch keine Aussage vor (Prognose hier)

LARS THIEME (langfristwetter.com) Vorhersage von Anfang November 2020: Dezember und Januar normal, Februar sehr mild. Winter daher insgesamt eher zu mild. Die Prognose bezieht sich vorrangig auf Mittel- und Nordostdeutschland; leider diesmal ohne „von-bis-Temperaturintervalle“ für die einzelnen Monate:

IRI (folgende Abbildung), Vorhersage vom Nov. 2020: Kaum Aussagen für Deutschland; lediglich in Südost-Sachsen und Süd-Bayern leicht erhöhte Wahrscheinlichkeit für einen zu kalten Winter; zu mild in weiten Teilen Nord- und Osteuropas:

DWD (Offenbach): In Deutschland 0,5 bis 2°C zu mild, je nach Ensemble-Auswahl, bezogen auf den DWD-Mittelwert der Jahre 2004 bis 2019, der ca. 1,4°C beträgt (Stand 11. Nov. 2020):

NASA (US-Weltraumbehörde) Karten vom November 2020: Dezember in Nordwestdeutschland normal, sonst etwa um 0,5°C zu mild, Januar normal, Februar deutlich zu mild; Winter insgesamt also überall zu mild:

CFSv2- Modell des NOAA (Wetterdienst der USA, folgende 3 Abbildungen, Eingabezeitraum 14. bis 24.11. 2020): Winter insgesamt etwa 1 bis 2 K zu mild. Dezember (oben) 0,5 bis 2 K, Januar (Mitte) 1 bis 3 K, Februar (unten) 0,5 bis 2 K zu mild. Die vorhergesagten Temperaturabweichungen beziehen sich auf die Mittelwerte der Periode 1981 bis 2010. Bemerkenswert ist, dass der Mildwinter von diesem Modell schon seit dem Sommer 2020 nahezu durchgängig vorhergesagt wird. Diese experimentellen, fast täglich aktualisierten, aber unsicheren Prognosen unter http://www.cpc.ncep.noaa.gov/products/people/wwang/cfsv2fcst/ (Europe T2m, ganz unten in der Menütabelle; E3 ist der aktuellste Eingabezeitraum):

Die Mehrzahl dieser experimentellen, nicht verlässlichen Langfristprognosen deutet also einen eher normalen bis deutlich zu milden Winter an.

Fazit: Eindeutige, verlässliche Anzeichen für einen Winter in die extrem kalte Richtung fehlen; für die extrem milde Richtung gibt es nur ganz wenige Signale. Die Prognosesignale waren selten so widersprüchlich und instabil; lassen aber Raum für mehr Kälte. Die Vorhersagen der Wetterdienste und Institute tendieren jedoch bei extrem großer Unsicherheit in Richtung eines normalen bis sehr milden Winters. Allerdings verdichten sich die Anzeichen für einen kälteren Dezember als in den Vorjahren, weil unter anderem zumindest anfangs die Westdrift blockiert und geschwächt ist. Insgesamt fällt der Winter 2020/21 nach momentanem Stand also bei enormer Unsicherheit fast normal aus und wird im Deutschland-Mittel auf minus 1,0 bis +3,0°C geschätzt (LJM 1991 bis 2020 +1,4°C). In den Kategorien „zu kalt“, „normal“ und „zu mild“ stellen sich die Wahrscheinlichkeiten des Winters 2020/21 folgendermaßen dar:

Die Schneesituation für Wintersport besonders in Lagen unter 1.000m bleibt zumindest in der ersten Dezemberdekade eher schlecht, weil eine ausreichende Schneeauflage fehlt und sehr ergiebige Schneefälle vorerst nicht sehr wahrscheinlich sind. Geschätzte Dezember- Monatsmitteltemperatur für Erfurt-Bindersleben (Mittel 1981- 2010 +0,5°C) minus 1,5 bis +2,5°C (fast normal). Für Jan/Feb. 2021 lässt sich noch kein Temperaturbereich schätzen; doch deuten viele Signale auf einen eher normalen bis milden Januar hin; Richtung Februar ist die Entwicklung noch völlig offen. Das Schneeaufkommen nach Mitte Dezember ist kaum vorhersehbar (langfristige Niederschlagsprognosen sind besonders unsicher; doch dürfte das enorme Niederschlagsdefizit der Dürregebiete in Ostdeutschland wohl nicht ausgeglichen werden). Zur Winterlänge fehlen bisher ebenfalls noch Hinweise. Die Hochwinterwitterung (Jan/Feb.) kann erst anhand des Witterungstrends zum Jahreswechsel etwas genauer abgeschätzt werden; momentan ist ein normaler bis milder Hochwinter etwas wahrscheinlicher, als ein durchgehend zu kalter. Wegen einer möglichen Westwindphase in der unteren Stratosphäre (QBO) sind mildere Phasen möglich. Sollte der Dezember aber tatsächlich eher kühl ausfallen, so erhöht das die Wahrscheinlichkeit für einen kalten Hochwinter 2021, besonders im Januar, zumindest etwas.

Dieses Fazit wurde aus 10% der Tendenz der Bauern- Regeln, 10% Sonnenaktivität, 20% Zirkulationsverhältnisse, 10% Mittelfrist- Modelle, 10% NAO, AMO,QBO, Polarwirbel, 15% Analogfälle, 10% Wirbelsturm-Aktivität und 15% der vorwiegenden Tendenz der Langfristprognosen gewichtet. Aktualisierung voraussichtlich Ende Dezember.




Kein Strom aus Sonne und Wind

In 400 Tagen müssen wir leider, leider auf Morgenkaffee und Rührei verzichten, wenn wieder typische herbstliche Hochdruckwetterlagen wie heute auftreten sollten. Straßenbahnen und Züge dürften nicht fahren, für stromverbrauchende Industrieanlagen bietet sich ein Lockdown an. Der Grund: In genau 400 Tagen werden die letzten Kernkraftwerke Deutschlands abgeschaltet, wie Horst Arlt von der Bürgerinitiative »Keine Windkraft im Emmerthal« hinweist. Ohne diese Stromerzeuger und ohne konventionelle Kohlekraftwerke hätten wir Freitag früh, 27. November, kaum mehr Strom gehabt.

Kein Wind, wenig Sonne – nix! Typische herbstliche Wetterlage mit Flaute und verbreiteter Wolkendecke. Um 7:00 Uhr morgens können die Windräder und Fotovoltaikanlagen ganze 774 MW liefern. Damit produzieren die rund 30.000 Windräder und Millionen an Fotovoltaikanlagen in Deutschland nicht einmal mehr die Strommenge eines mittleren Kohlekraftwerks. Doch zu diesem Zeitpunkt wurden 72,613 GW Strom verbraucht. Eine gigantische Lücke also klafft zwischen den minimalen Strommengen von Wind und Sonne und dem Stromverbrauch – hier mit der roten Linie dargestellt:

Erst mit den erheblichen Leistungen von konventionellen Kohlekraftwerken und Kernkraftwerken konnte die Lücke geschlossen werden.

Tagsüber kommt ein wenig die Sonne hervor –  erkennbar an der kleinen gelben Blase. Die Fotovoltaikanlagen können erst um die Mittagszeit magere 8,38 GW liefern. Die Sonne steht im Winter bekanntlich über der Südhalbkugel und kann bei uns im Norden nur eine sehr geringe Strahlungsleistung liefern. Zudem ist der Einstrahlwinkel für die meisten Fotovoltaikanlagen deutlich kleiner als im Sommer, was sich ebenfalls in drastisch gesunkener Leistung bemerkbar macht.

Dieses Bild zeigt auch den erheblichen Anteil von Stein- und Braunkohlekraftwerken. Die sollen abgeschaltet werden.

Der Strompreis erreicht schwindelnde Höhen. Er schoss um 8:00 Uhr kurzfristig bereits auf über 91,54 Euro je Megawattstunde, wurde um 17:00 Uhr noch übertroffen von sagenhaften 106,35 Euro pro MWh. 

Zufall, dass 400 Tage, bevor die Merkel-Regierung die letzten Kernkraftwerke Brokdorf, Grohnde und Gundremmingen C abgeschalten will, aufgrund der Wetterlage drastisch vor Augen geführt wird, wohin die Reise geht.

Da nutzt auch die Forderung von begeisterten Energiewendlern wie Claudia Kemfert und Genossen nichts, es müssten nur noch mehr Windräder aufgestellt werden. Auch hunderttausend mal Null ist Null.

In zwei Jahren müssen wir bei solchen Wetterlagen also auf den morgendlichen Kaffee und das erhitzte Ei verzichten. Es gibt keinen Strom mehr. Allein auf Stromhilfen aus dem benachbarten Ausland verlassen ist für ein noch Industrieland reichlich unsicher. In allen Ländern hat im Zweifel die nationale Stromversorgung Vorrang vor Stromhilfen für ein dunkles Deutschland. 

Im Süden Deutschlands wird bereits Strom aus Frankreich importiert, seitdem im Dezember vor einem Jahr das Kernkraftwerk Philippsburg II abgeschaltet und in diesem Frühjahr von der grün-schwarzen Regierung Kretschmann in Baden-Württemberg in die Luft gesprengt wurde. Früher lieferte sogar Deutschland im Winter Strom nach Frankreich; dort wird zur kalten Jahreszeit viel benötigt, weil die Franzosen häufig mit Strom heizen.

TE hat die Energiewendeministerien von Bundeswirtschaftsminister Altmaier und Umweltministerin Schulze darum gebeten, darzulegen, woher in solchen Fällen der Strom kommen soll. Die Antwort werden wir veröffentlichen, sobald sie da ist.

Der Beitrag erschien zuerst bei TE hier




Kernfusion auf Bayrisch

Der neue Porsche
Sicherlich sind Sie beim Blättern in Illustrierten schon über attraktive Lotteriegewinne gestolpert – ein Porsche etwa, neuestes Modell, Farbe und Ausstattung nach Wunsch. Gemeinsam mit Ihrer Liebsten überlegen Sie Farbkombinationen: Dunkelblau mit cremefarbenen Sitzen, oder vielleicht lieber knallrot und schwarz? Vor Ihrem inneren Auge können Sie das deutlich sehen. Was Sie nicht sehen können ist die Wahrscheinlichkeit von eins zu einer Million, mit der das Auto Ihnen gehören wird.
Ähnlich attraktive Angebote machen derzeit diverse Startups. Sie versprechen unerschöpfliche, saubere Energie aus Kernfusion. Was sie nicht verraten ist die Wahrscheinlichkeit, mit der das gelingen wird.
Eine dieser Firmen plant, sich im bayerischen Penzberg anzusiedeln; dort soll das Wunder der kontrollierten Kernfusion wahr werden. Der Name der Firma: Marvel Fusion.
Ich schlage vor, wir schauen uns das mal an.

Wege auf den Vulkan
Es besteht kein Zweifel, durch Verschmelzen von Atomkernen kann beliebig viel Energie erzeugt werden – die Sonne macht uns das ja täglich vor. Auf Erden müssen wir allerdings eine Nummer kleiner anfangen, und da wird’s schwierig.
Atomkerne sind positiv geladen, sie stoßen sich gegenseitig ab, und zwar umso mehr, je näher sie sich kommen. Wenn sie sich aber ganz nahe sind, wenn sie sich berühren, dann setzt plötzlich eine starke Anziehungskraft ein, sie verschmelzen und enorm viel Energie wird frei.
Stellen Sie sich einen klassisch geformten Vulkan vor. Je höher oben, desto steiler ist der Hang. Es wäre verdammt schwierig eine Bowling-Kugel vom Fuß des Vulkans bis zum Gipfel zu rollen, aber wenn Sie das schaffen, dann fällt sie in den Krater und stürzt jetzt völlig mühelos in Richtung Mittelpunkt der Erde. Und bei diesem Fall wird ein Vielfaches der Energie frei, die bergauf verbraucht wurde.
So ist das mit der Kernfusion, an deren praktischer Nutzung man sich seit Jahrzehnten die Zähne ausbeißt. Man muss den kleinen Bowling-Kugeln, den Atomkernen, so viel Energie geben, dass sie den mühsamen Weg durch die gegenseitigen Abstoßung überwinden; wenn das aber gelingt, dann bekommt man ein mehrfaches an Energie zurück.
Gigantische Projekte dazu laufen bei ITER in Frankreich (siehe auch hier) und bei NIF in Kalifornien; bisher ohne Erfolg.
Man versucht es dort mit den Wasserstoff-Isotopen Deuterium und Tritium, die man auf viele Millionen Grad erhitzt. Dabei werden einige Atomkerne so schnell, dass sie die erwähnte Abstoßung überwinden und tatsächlich verschmelzen. Die allermeisten Kerne aber sind zu langsam, um nahe genug an einen Partner zu kommen, sie werden umsonst erhitzt.
Das ist so, als würden Sie eine Ladung von einer Million Bowlingkugeln gegen den Abhang des besagten Vulkans schleudern und hoffen, dass wenigsten ein oder zwei oben ankommen. Dabei vergeuden Sie mehr Energie, als die wenigen Treffer erzeugen, die in Krater fallen.

Zu gut um wahr zu sein
Die erwähnte Marvel Fusion – und ein paar andere Startups – versuchen es mit einem neuen Verfahren. Jetzt sollen Kerne von Wasserstoff, auch Protonen genannt, mit Kernen des chemischen Elements Bor verschmelzen. Letztere haben fünf Protonen und meistens sechs Neutronen, macht insgesamt 11 Teilchen. Daher wird dieser Kern B11 abgekürzt. Die Reaktion zur Verschmelzung mit dem zusätzlichen Proton heißt dann „HB11“, wobei das „H“ für Wasserstoff steht.
Dabei entsteht vorübergehend ein Gebilde aus sechs Neutronen und sechs Protonen, das explosionsartig in drei Fragmente zerfällt. Diese Fragmente, es sind Kerne des Elements Helium, bestehen aus je zwei Neutronen und zwei Protonen, wobei letztere elektrisch geladen sind.
Das ist eine praktische Sache, denn schnell fliegende elektrische Ladungen kann man dazu überreden, ihre Bewegungsenergie direkt in Elektrizität umzuwandeln. Man spart sich also den Umweg über Hitze, Dampf, Turbinen und Generatoren, und auch die bösen Kühltürme braucht man nicht mehr.
Was also fehlt noch? Warum haben wir nicht längst diese neuen Wundermaschinen?

Der Zauberstab
Muss denn bei HB11 nicht auch die elektrische Abstoßung zwischen den Atomkernen überwunden werden? Aber Hallo, das erwähnte Bor hat immerhin fünf elektrische Ladungen im Kern, und entsprechend größer sind die Kräfte. Mit Aufheizen, so wie man es bei der herkömmlichen Kernfusion versucht, geht da gar nichts. Aber mit Hilfe eines Zauberstabs könnte es klappen.
Dieser Zauberstab ist ein bestimmter Typ von Laser. Der wird nun nicht etwa benutzt, um das Material aufzuheizen, das fusionieren soll, sondern er erzeugt extrem starke elektromagnetische Felder, in denen einige Kerne so beschleunigt werden, dass sie mit anderen verschmelzen.
Im Gegensatz zu ganzen Ladungen von Bowlingkugeln, die gegen den Abhang des Vulkans geschleudert werden, schießt man jetzt mit Kanonen in Richtung Krater. Das ist erheblich effizienter.
Besagte Laser – gewissermaßen die Kanonen – sind aber erst seit Kurzem verfügbar, und das hat den aktuellen HB11-Hype ausgelöst.

Kommt die Rettung aus Bayern?
Marvel Fusion hat nun ein Team von Experten gebildet, die mit Hilfe des neuen Zauberstabs ein richtiges Kraftwerk entwickeln wollen. Man hat die Stadt Penzberg ersucht, ein Areal von rund 3ha im „Nonnenwald“, für die notwendigen Bauten zur Verfügung zu stellen. Penzberg liegt rund 40km südlich von München im schönen Alpenvorland. Wird das klappen?
Politik in Bayern ist nicht weniger grün als im restlichen Deutschland, mit anderen Worten, alles ist entweder sehr gut (Mutti und Maske) oder sehr böse (Trump und Atom). Es wird für Marvel Fusion schwierig sein, die neue Kernfusion als gut zu verkaufen, aber man tut alles, um zu zeigen, dass sie zumindest nicht böse ist. Man schlägt die Trommeln des Zeitgeistes.
In der PR der Firma stehen daher der CO2-lose Betrieb und die Freiheit von jeglicher Atomgefahr, wie Radioaktivität, Bomben und Explosionen, im Vordergrund. Und auch der TÜV Süd hat schon seinen Segen dazu gegeben.
Auf ihrer Präsentation für die Stadt Penzberg zeigt Marvel Fusion sehr prominent Bilder der geplanten Gebäude im Nonnenwald. Das ist sicher nicht das Wesentliche und es erinnert an die eleganten Bilder der Traglufthalle, welche die Firma Cargolifter einst im Norden Deutschlands hinstellte. Dort konnte man zwar das versprochene Luftschiff nicht bauen, aber immerhin die Halle, in der es gebaut worden wäre.

Chancen und Risiken
Bei der übertriebenen Rücksicht auf die kleinlichen Ängste des Zeitgeistes geht der Blick für die Proportionen natürlich verloren. Es geht hier ja um ein Projekt von epochaler Bedeutung. Wenn die Sache klappt, dann haben wir den heiligen Gral der Energieerzeugung auf Erden. Da ist es egal, was der TÜV Süd dazu sagt und es ist egal, ob Marvel Fusion in der Cafeteria Plastikbecher verwendet. Sollte man nicht erst einmal die Chancen betrachten, bevor man mit dem Mikroskop nach Risiken sucht?
Das Ziel des Projektes rechtfertigt jeden Aufwand. Die Frage ist nur, ob dieses Ziel auch erreicht wird, und ob ausgerechnet Marvel Fusion die Firma ist, die das schafft.
Die haben nun Meilensteine gesetzt, welche den Weg zum Ziel aufzeigen. Bis Ende 2023 soll eine Anlage stehen, in der die besagten Laser den HB11 Prozess durchführen, ohne dass man dabei schon Energie erntet. Das hört sich nicht unrealistisch an, vorausgesetzt, dass die riesigen Mengen an Strom für den Betrieb der Laser zur Verfügung stehen. Da muss sich Penzberg was einfallen lassen, denn mit Windmühlen allein wird das nicht klappen.
Bis Ende 2028 soll dann eine Anlage stehen, die immerhin 100 Megawatt liefert und die als Modell für große industrielle Kraftwerke dient. Nach 2030 will man dann im Gigawatt-Maßstab ins Netz einspeisen.
Diese beiden letzteren Meilensteine nun sind extrem sportlich, aber wir wollen den Forschern keine unlauteren Absichten unterstellen, sondern eher, dass der notwendige unternehmerische Optimismus da etwas mit ihnen durchgegangen ist.

Fazit
Wir leben in einer Zeit, in der Startups wie Marvel Fusion relativ leicht Investoren finden. Nun neigen solche Gründer dazu, mehr zu zeigen als sie haben – so geht Marketing. Es kommt auch vor, dass sie schließlich die eigenen üppigen Versprechungen selbst glauben. Da ist es nun wichtig, dass unter den Geldgebern kompetente Entscheider sind, welche die Logik eines Vorhabens und dessen Fortschritt realistisch beurteilen können; die rechtzeitig die Reißleine ziehen, falls nötig. Ist das nicht der Fall, dann kommt es zu Skandalen wie um die amerikanischen Hochstaplerin Elizabeth Holmes mit Theranos (sie auch hier) oder beim bayerischen Lufttaxi (siehe auch hier).
Die Kompetenz der Entscheider muss primär auf fachlichem Gebiet liegen; wer das beherrscht, der hat allemal die kognitiven Fähigkeiten, um auch die Finanzen zu verstehen. Umgekehrt ist das nicht der Fall. Gibt es in der Politik solche Experten?
Unsere Minister zitieren gerne die enorme Komplexität ihres Aufgabengebietes, die es unmöglich macht, überall Experte zu sein. Dafür haben sie Berater.
Berater haben nun ein gutes Gespür dafür, was der Auftraggeber gerne hören möchte. Letzterer muss also zumindest die Qualifikation haben, um zu erkennen, wem er in sachlicher und ethischer Hinsicht vertrauen kann. In Sachen Corona ist das ganz sicher nicht der Fall.

Dieser Artikel erschien zuerst im Blog des Autors Think-Again. Sein Bestseller „Grün und Dumm“ ist bei Amazon erhältlich.




Zahlen Sie um den Planeten zu retten, vielleicht haben Sie dann noch Geld, um auch zu fahren

Berichten zufolge erwägt Rishi Sunak (UK Finanzminister) , den Autofahrern für jede Meile, die sie auf den britischen Straßen fahren, Gebühren in Rechnung zu stellen, um ein Steuerloch von 40 Milliarden Pfund zu füllen, das durch die Umstellung auf Elektroautos entstanden ist.

Der Minister sei „sehr interessiert“ an der Idee einer nationalen Straßenbenutzungsgebühr, das Autofahrer in ein neues „Pay-as-you-Drive“ -System lenken würde.

Eine ähnliche Art von Regelung wurde von Labour im Jahr 2007 zurückgestellt, nach einem öffentlichen Protest, dass den Fahrern bis zu 1,50 GBP pro Meile in Rechnung gestellt werden könnte.

Aber ein nationales Mautsystem wird derzeit [wieder] in Erwägung gezogen, da befürchtet wird, dass die Umstellung auf Elektrofahrzeuge einen massiven Steuermangel verursachen wird. Nach Angaben der Times sind wichtige Einnahmensteigerungen des Finanzministeriums aus Kraftstoff- und Kfz-Steuer betroffen.

Die Meldung kam inmitten von Berichten, dass Boris Johnson seine grünen Pläne beschleunigen will – einschließlich eines Verbots des Verkaufs neuer Benzin- und Dieselautos bis 2030 – während Kritiker behaupten, die Verlobte des Premierministers, Carrie Symonds, eine Umweltaktivistin, treibe den Vorstoß an [Benzin / Diesel angetriebene Autos schon eher zu verbieten].

Was ist ein Mautsystem und wie funktioniert es?

Straßenbenutzungsgebühren sind direkte Gebühren, die für die Nutzung einer Straße erhoben werden. Dazu gehören gebührenpflichtige Straßen, entfernungs- und zeitabhängige Gebühren sowie Stoßzeiten-Gebühren.

Mautgebühren sind für England nicht typisch. Die drei Hauptregelungen sind die M6-Maut in den Midlands, die Dartford Crossing auf der M25 und die Stauzone Zone in London. Es gibt andere kleinere Projekte wie die Itchen Bridge in Southampton und die Humber Bridge in Hull.

Die Idee wurde erstmals in Großbritannien im Smeed-Report von 1964 bekannt – einer Studie über alternative Methoden zur Erhebung von Gebühren für den Straßenverkehr. Der Bericht konzentrierte sich jedoch hauptsächlich auf die Verwendung solcher Systeme, um Verkehrsstaus in städtischen Gebieten zu verringern. Die Pläne für ein „nationales“ System wurden 2004 erneut bekannt, als der damalige Verkehrsminister Alistair Darling Pläne für ein nationales  Mautgebührenprogramm ankündigte.

Nach den Plänen, bei denen die örtlichen Verwaltungen „Pay-as-you-go“ –Gebiete ausweisen sollten, hätten die Fahrer dafür bezahlt, eine Black Box in ihre Autos einzubauen, damit sie durch elektronische Verfolgung über Satelliten- oder Straßenbaken überwacht werden konnten. Die Autofahrer würden dann je nach Tageszeit und Überlastungsgrad zwischen 2 Pence und 1,50 GBP pro Meile zahlen. Das Programm wurde jedoch 2007 eingestellt, nachdem 1,8 Millionen Menschen eine Online-Petition dagegen unterzeichnet hatten.

Das damalige Verkehrsministerium sagte, es sei „Müll“, zu behaupten, die Regierung habe jemals ein nationales Mautsystem geplant, und bestand darauf, nur Überlegungen für lokale Mautgebühren aufgestellt zu haben.

Ein solches System tauchte zwei Jahre später erneut auf, als das Climate Change Committee unter der Leitung des ehemaligen CBI-Chefs Lord Turner erklärte, die Minister müssten obligatorische Straßenbenutzungsgebühren einführen, um die globale Erwärmung zu verhindern.

Ein Verbot des Verkaufs neuer Benzin- und Dieselfahrzeuge wird sich massiv auf die Staatskasse auswirken. Die Mehrwertsteuer auf Kraftstoff erwirtschaftet derzeit fast 6 Mrd. GBP pro Jahr. Die Kraftstoffsteuer, die derzeit für Benzin- und Dieselfahrzeuge mit 57,95 Pence pro Liter berechnet wird, soll in diesem Geschäftsjahr 27,5 Mrd. GBP einbringen. In der Zwischenzeit  wird erwartet, dass die Kfz-Steuer (VED), die für den Kauf von Autos aufgrund ihrer Emissionswerte erhoben wird, 7,1 Mrd. GBP einbringt.

Eine Regierungsquelle teilte The Times mit, dass das Finanzministerium mögliche Optionen für eine nationale Straßenbenutzungsgebühr analysiert habe, während Beamte überlegen, wie verlorene Steuereinnahmen ersetzt werden können. Die Quelle sagte jedoch, ein solches System stehe nicht unmittelbar bevor.

Edmund King, Präsident der AA, [~ADAC] sagte, ein solcher Schritt wäre zurzeit „politischer Selbstmord für jede Partei“.

Herr Johnson forderte letzte Woche mehr Maßnahmen, da er sagte, es sei keine Zeit [bei der Bekämpfung des Klimawandels] zu verlieren, und forderte die Staats- und Regierungschefs der Welt auf, ehrgeizige Verpflichtungen zur Bewältigung der Klimakrise einzugehen. Die Erwartung wächst, dass der Premierminister bald das geplante Verbot für den Verkauf neuer Benzin- und Dieselautos bekannt geben wird, das von [bislang] 2040 vorgezogen wird.

Herr Johnson hat bereits gesagt, dass er dies für 2035 wünschen würde, aber Insider glauben, dass er sich verpflichten wird, die Frist bis 2030 vorzuverlegen.

….

Die Autofirmen bereiten sich bereits auf die Änderungen vor, da die Zahlen des Verkehrsministeriums zeigen, dass die Verkäufe von Elektrofahrzeugen in Großbritannien in diesem Jahr um fast 170 Prozent gestiegen sind.

Source: Society of Motor Manufacturers and Traders, October 2020

Herr Johnson versprach letzte Woche, einen Zehn-Punkte-Aktionsplan zur Bekämpfung des Klimawandels aufzustellen, da er für nächstes Jahr die Ausrichtung des COP26-Klimagipfels der Vereinten Nationen in Großbritannien markiert hatte.

Seine Pläne umreißen Maßnahmen in Bereichen wie der Reduzierung der Emissionen aus Verkehr, Elektrizität und Gebäuden sowie dem Einsatz von Wasserstoff und anderen neuen Technologien. Das gesetzliche Ziel des Vereinigten Königreichs ist, es die Treibhausgase bis 2050 auf „Netto-Null“ zu senken. Johnson hat den Ehrgeiz, diese bereits vor dem COP26-Treffen im nächsten Jahr festzulegen.

Rainer Sturm / pixelio.de Ausflug mit der Familie- Zurück in die Zukunft?

https://www.dailymail.co.uk/news/article-8951969/Rishi-Sunak-considers-plan-charge-motorists-mile-drive-Britains-roads.html

Übersetzt und zusammengestellt durch Andreas Demmig

Zum Thema

Statistik auf EuroStat

Im Jahr 2017 waren in den Mitgliedstaaten der Europäischen Union (EU) 262 Millionen Autos zugelassen. Rund 2 Millionen (0,8%) davon wurden entweder als Elektroautos oder als Hybrid-Elektroautos eingestuft, die in Kombination mit einem Benzin- oder Dieselmotor gefahren werden können.

Anzahl der elektrischen und Hybrid Fahrzeuge in der EU

Legende, rechts neben der Grafik, von oben nach unten

  • Plug-in hybrid diesel -elektric (Diesel Motor, zusätzliche Batterieaufladung an der der Steckdose)
  • Hybrid diesel electric (wie vorstehend, ohne Steckdosenaufladung)
  • Plug-in hybrid petrol elektric (Benzin Motor,  zusätzliche Batterieaufladung an der der Steckdose)
  • Electricity (reine Batteriefahrzeuge)
  • hybrid petrol elektric (Benzin Motor, ohne Steckdosenaufladung)



Interner Streit bei Klima-Alarmisten: Fundis gegen Realos – worum geht es wirklich?

Die beiden prominenten Klimaschützerinnen Luisa Neubauer und Carola Rackete schrieben gemeinsam beim Spiegel einen Artikel mit dem Titel Wer hat die Macht, Verträge zu brechen?, in dem sie forderten, das 1,5°-Begrenzungsziel einzuhalten, weil wir sonst

Gefahr laufen, uns Rückkopplungseffekten im Klimasystem auszusetzen, die nicht mehr aufzuhalten sind.

Die Autorinnen beziehen sich damit auf die unbewiesene Theorie der „Kipp-Punkte“, die besagt, daß nach x Jahren weiterer CO2-Emissionen alles zu spät sei und die Atmosphäre sich nun unweigerlich aufheizen werde. „x“ bedeutet aktuell nach Greta Thunbergs Einschätzung etwa elf oder zwölf Jahre ab 2019; 2007 meldete die BILD auf dem Titel, es seien noch 13 Jahre. Einen anderen Wert lieferte Luisa Neubauer selbst, als sie Anfang 2020 im Interview meinte, wir hätten nur noch dieses Jahr Zeit, das Klima zu retten. Nach heftigem Einspruch der anwesenden Greta nahm die Hamburgerin aus der Reemtsma-Familie ihre Einschätzung aber sofort zurück.

Im Interview mit der Berliner Tageszeitung taz widerspricht nun der Klima-Physiker Anders Levermann vom PIK der Notwendigkeit der Begrenzung auf 1,5° Klimaerwärmung. Levermann ist EIKE-Lesern bekannt, da wir bereits darüber berichteten, daß der Professor der Universität Potsdam im Bundestag ein ähnlich wie Wasser gewinkeltes CO2 postulierte und später die abschmelzende West-Antarktis mit Schneekanonen beschneien wollte.

Zur Kipp-Punkt-These meint er, daß nur einzelne Bereiche der Erdoberfläche kippen könnten, so die Arktis oder Korallenriffe. Eine selbstverstärkende Spirale der Erderwärmung auf dem gesamten Planeten verneint er. Auch meint er, daß eine Erhitzung der unteren Luftschichten um 2° unsere Gesellschaften wohl nicht fundamental bedrohen würden.

Ganz anders sähe es aus, wenn man, wie die jungen radikalen Bürgerkinder der Millennial-Generation es gern fordern, schlagartig alle Kraftwerke und Verbrennungsmaschinen verbieten würde. Die USA zum Beispiel müßten genau dies bis 2023 tun, um „klimaneutral“ zu werden. Angesichts von „70 Millionen Trump-Wählern, die man nicht mögen muß, die aber eine Realität sind“ warnt er davor. Als Alternative empfiehlt Levermann, die Treibhausgasemissionen bis 2050 ganz herunterzufahren. Und nicht „gegen die kämpfen, die 2 Grad fordern“.

Welche Taktik mag hinter diesen Worten stecken? Im Interview erwähnt der Physiker, daß Teile der Klimaretterszene (gemeint sind wohl Extinction Rebellion XR und FFF) sich auf die grünen Realos eingeschossen hätten. Das klingt so, als habe Levermann stellvertretend für viele andere „Alte“ Angst vor den Geistern, die er selbst rief. Die akademischen Klimamodellierer der Professorengeneration macht sich offenbar Sorgen, daß die bürgerlichen Millennials, die gerne fordern und fordern, aber wegen ihrer Verwöhntheit und mangels Verantwortungs- und Realitätssinn zu sehr auf die Tube drücken, eine sofort wirksame katastrophale Politik durchsetzen. Die dann wieder auf Levermann, Schellnhuber, Rahmstorf und Co. zurückfiele. Zumindest, wenn die Folgen unsinniger KKW-Abschaltung und Verbrennerverbot radikal bis 2035 durchgesetzt würden. Dann sind die drei genannten Profs nämlich nach aktueller Lebenserwartung alle noch am Leben, Levermann noch nicht einmal pensioniert. 2050, weitere 15 Jahre später, sähe es anders aus; die politischen Maßnahmen zur „Klimarettung“ bis dahin wären nur halb so schnell vom Zaun gebrochen, und Levermann könnte da seine üppige Rente unter südlicher Sonne genießen (während Solarzyklus-bedingt in Deutschland das nächste Temperaturminimum begonnen hat).

Man sieht, wie in Goethes Zauberlehrling neigen Leute, die es gern bequem haben, statt etwas zu leisten, dazu, zu riskanten Mitteln zu greifen, die eine aus dem Ruder laufende Entwicklung bewirken können. Unser großer Dichter beschrieb das Problem in seinem Gedicht über einen Jungzauberer, der die Abwesenheit seines weisen Lehrers nutzt und ohne ausreichende Fertigkeit einen verhexten Wischmop zum Wasserholen fürs Bad nutzt, aber nicht in der Lage ist, den seelenlosen Diener zu stoppen und nun zusehen muß, wie das Haus überschwemmt wird.

Hat der alte Hexenmeister 
Sich doch einmal wegbegeben! 
Und nun sollen seine Geister 
Auch nach meinem Willen leben. 
Seine Wort‘ und Werke 
Merkt ich und den Brauch, 
Und mit Geistesstärke 
Tu ich Wunder auch.

Walle! walle 
Manche Strecke, 
Daß, zum Zwecke, 
Wasser fließe 
Und mit reichem, vollem Schwalle 
Zu dem Bade sich ergieße.

Und nun komm, du alter Besen! 
Nimm die schlechten Lumpenhüllen; 
Bist schon lange Knecht gewesen: 
Nun erfülle meinen Willen! 
Auf zwei Beinen stehe, 
Oben sei ein Kopf, 
Eile nun und gehe 
Mit dem Wassertopf!

Walle! walle 
Manche Strecke, 
Daß, zum Zwecke, 
Wasser fließe 
Und mit reichem, vollem Schwalle 
Zu dem Bade sich ergieße.

Seht, er läuft zum Ufer nieder, 
Wahrlich! ist schon an dem Flusse, 
Und mit Blitzesschnelle wieder 
Ist er hier mit raschem Gusse. 
Schon zum zweiten Male! 
Wie das Becken schwillt! 
Wie sich jede Schale 
Voll mit Wasser füllt!

Stehe! stehe! 
Denn wir haben 
Deiner Gaben 
Vollgemessen! – 
Ach, ich merk es! Wehe! wehe! 
Hab ich doch das Wort vergessen!

Ach, das Wort, worauf am Ende 
Er das wird, was er gewesen. 
Ach, er läuft und bringt behende! 
Wärst du doch der alte Besen! 
Immer neue Güsse 
Bringt er schnell herein, 
Ach! und hundert Flüsse 
Stürzen auf mich ein.

Nein, nicht länger 
Kann ichs lassen; 
Will ihn fassen. 
Das ist Tücke! 
Ach! nun wird mir immer bänger! 
Welche Miene! welche Blicke!

O, du Ausgeburt der Hölle! 
Soll das ganze Haus ersaufen? 
Seh ich über jede Schwelle 
Doch schon Wasserströme laufen. 
Ein verruchter Besen, 
Der nicht hören will! 
Stock, der du gewesen, 
Steh doch wieder still!

Willsts am Ende 
Gar nicht lassen? 
Will dich fassen, 
Will dich halten 
Und das alte Holz behende 
Mit dem scharfen Beile spalten.

Seht, da kommt er schleppend wieder! 
Wie ich mich nur auf dich werfe, 
Gleich, o Kobold, liegst du nieder; 
Krachend trifft die glatte Schärfe. 
Wahrlich! brav getroffen! 
Seht, er ist entzwei! 
Und nun kann ich hoffen, 
Und ich atme frei!

Wehe! wehe! 
Beide Teile 
Stehn in Eile 
Schon als Knechte 
Völlig fertig in die Höhe! 
Helft mir, ach! ihr hohen Mächte!

Und sie laufen! Naß und nässer. 
Wirds im Saal und auf den Stufen. 
Welch entsetzliches Gewässer! 
Herr und Meister! hör mich rufen! – 
Ach, da kommt der Meister! 
Herr, die Not ist groß! 
Die ich rief, die Geister 
Werd ich nun nicht los.

»In die Ecke, 
Besen! Besen! 
Seids gewesen. 
Denn als Geister 
Ruft euch nur, zu seinem Zwecke, 
Erst hervor der alte Meister.«

Johann Wolfgang von Goethe (1749 – 1832)




Umfrageergebnis: Skeptiker des menschlichen Einflusses auf das Klima halten sich beim Klimaschutz zurück

Die Ablehnung des [menschlichen Einflusses auf den] Klimawandels führt zu Untätigkeit

Dienstag, 24. November 2020

Neue Forschungsergebnisse in Europa und den USA zeigen, dass weniger als die Hälfte der Öffentlichkeit in den untersuchten Ländern den wissenschaftlichen Konsens über den Klimawandel kennt.

Die Umfrage , die von dpart, einem Berliner Think Tank, und dem Open Society European Policy Institute (OSEPI) in Auftrag gegeben wurde, wurde gestern veröffentlicht. Die Datenerhebung für die Umfrage erfolgte im August. Insgesamt basiert die Umfrage auf den Antworten von 10.233 Personen im Alter von 18 bis 74 Jahren in Deutschland, Frankreich, Italien, Spanien, Schweden, Polen, der Tschechischen Republik, Großbritannien und den USA.

„Viele Bürger in ganz Europa und den USA wissen immer noch nicht, dass der wissenschaftliche Konsens über die menschliche Verantwortung für den Klimawandel überwältigend ist“, sagte Heather Grabbe, Direktorin von OSEPI. „Obwohl völliger Ablehnung selten ist, gibt es eine weit verbreitete falsche Überzeugung, die von berechtigten Interessen gegen Emissionsminderungen gefördert wird: Wissenschaftler sind gespalten, ob Menschen den Klimawandel verursachen.“

„Unsere Umfragen zeigen, dass je überzeugter die Menschen davon sind, dass der Klimawandel das Ergebnis menschlicher Aktivitäten ist, desto genauer schätzen sie seine Auswirkungen ein und desto mehr sind sie für Maßnahmen“, fügte sie hinzu.

Große Minderheiten – von 17 Prozent in Spanien bis zu 44 Prozent in Frankreich – glauben immer noch, dass der Klimawandel gleichermaßen durch Menschen und natürliche Prozesse verursacht wird. Dies ist wichtig, da diejenigen, die akzeptieren, dass der Klimawandel das Ergebnis menschlichen Handelns ist, doppelt so häufig glauben, dass er negative Folgen für ihr eigenes Leben haben wird.

Zusätzlich zu den „harten“ Skeptikern, die nicht glauben, dass menschliche Aktivitäten einen Beitrag zum Klimawandel leisten, bilden diese Skeptiker zusammen die Mehrheit in Frankreich, Polen, der Tschechischen Republik und den USA.

Hier der Bericht: https://www.brusselstimes.com/news/142255/denial-of-climate-change-leads-to-inaction/

Die Umfrage (in englischer Sprache) finden Sie hier.

Die Umfrage versuchte auch, die Unterstützung für Klimaschutzmaßnahmen zu messen und stellte fest, dass die Skepsis gegenüber Klimaschutzmaßnahmen stark mit der Klimaskepsis korreliert.

Kosten spielen eine Rolle – Die Umfrage ergab auch, dass die Menschen teure Klimaschutzmaßnahmen nur ungern unterstützen. „… Insgesamt sehen die Menschen in allen Ländern Maßnahmen gegen den Klimawandel größtenteils aus einer eher persönlichen Perspektive. Es ist wahrscheinlicher, dass sie erwägen, ihren persönlichen Konsum zu ändern, als kollektive Maßnahmen zu ergreifen. In Bezug auf die Politik befürworten sie eine Reaktion der Regierung, scheinen jedoch nicht bereit zu sein, Strategien zu unterstützen, die sie auf kostspielige Weise direkt betreffen. … ”

Warum sorgen sich die Menschen um Kosten, wenn die Zukunft des Planeten nicht  im Gleichgewicht steht?

Ich vermute, dass die Inkonsistenzen in der Klimaerzählung ein viel größeres Hindernis für die Akzeptanz kostspieliger Klimainterventionen darstellen als alles, was Klimaskeptiker tun oder sagen.

Zum Beispiel behaupten Befürworter erneuerbarer Energien häufig, erneuerbare Energien seien billiger als fossile Brennstoffe , aber aus irgendeinem Grund müssen Politiker immer noch Billionen von Steuergeldern in Form von umweltfreundlichen neuen Deals oder anderen kostspieligen Interventionen bereitstellen, um die kohlenstoffarme Revolution voranzutreiben.

Befürworter erneuerbarer Energien haben noch nie eine zufriedenstellende Erklärung dafür geliefert, warum die [angeblich] rentabelste und kostengünstigste Energieoption so viel staatliche Unterstützung benötigt?

Frühere kostengetriebene Energiewenden wie die Umstellung von Walöl auf kostengünstigeres Kerosin erforderten keinerlei staatliche Eingriffe. Von 1858 bis 1860 brach die Anzahl der US-Walfangschiffe von 199 Schiffen im Jahr 1858 auf 167 Schiffe im Jahr 1860 zusammen. Bis 1876 waren nur noch 39 Walfangschiffe in Betrieb. Ein plötzlicher Zusammenbruch wie dieser ist das Muster, das Sie von einer echten kostengetriebenen Energiewende erwarten würden.

Die Leute sind nicht dumm. Keine zufriedenstellende Antwort auf offensichtliche Fragen zu haben, ist der einfachste Weg, die Begeisterung für eine geplante Investition zu töten, selbst wenn viele Leute mit der Idee an Bord sind, dass die Investition notwendig ist.

https://wattsupwiththat.com/2020/11/24/german-think-tank-climate-deniers-are-holding-back-climate-action/

Übersetzt durch Andreas Demmig




„Black Friday“: Greta sagt Bürgern, was sie zu tun haben

Selbsternannte Weltretter unterschiedlichster Couleur lieben es, den Bürgern zu sagen, wie diese zu leben haben. Seit sich das marxistische Argument der 68er in den westlichen Ländern als stumpf erwiesen hat, schalten Linke auf Wohlstandskritik um, weil man lieber „sein statt haben“ soll und Konsum irgendwie die Umwelt belaste, aktuell mit CO2.

Daß der Wohlstand der ökologischen Bürger dabei im Vergleich der höchste ist und sie selber den größten ökologischen Fußabdruck haben, wird gern verschwiegen. So auch die Familie Thunberg: Schon in Gretas Biografie steht, daß die Familie neben einer Stadtwohnung im teuren Stockholm ein Haus auf den Schären hat. Eine Fotografie der Wohnung, die einmal durchs Netz ging, zeigt ausgesuchte Designermöbel.

Aber andere sollen gefälligst keine preiswerten Waren am Black Friday kaufen:

https://twitter.com/GretaThunberg/status/1332222374083702785




Der nationale Temperatur-Index der USA – beruht er auf Daten oder auf Korrekturen?

GHCN-Daily enthält die qualitäts-geprüften Rohdaten, die anschließend korrigiert und dann zum Auffüllen von GHCN-Monthly, einer Datenbank mit Monatsdurchschnittswerten, sowohl roh als auch endgültig, verwendet werden. Am 10. Oktober 2020 habe ich Version 4.0.1 der GHCN-Monats-Datenbank heruntergeladen. Zu diesem Zeitpunkt zählte sie weltweit 27.519 Stationen, und 12.514 (45%) davon befanden sich in den Vereinigten Staaten, einschließlich Alaska und Hawaii. Von den 12.514 US-Stationen befanden sich 11.969 in „CONUS“ [= CONtinental USA], den zusammen hängenden 48 Bundesstaaten. Die aktuelle Stationsabdeckung ist in Abbildung 1 dargestellt.

Abbildung 1. Die Abdeckung durch die GHCN-Wetterstation in den Vereinigten Staaten ist sehr gut, mit Ausnahme von Nordalaska. Es gibt zwei Stationen im westlichen Pazifik, die nicht abgebildet sind.

Wir haben mehrere Fragen zur landgestützten Temperaturaufzeichnung, die die langfristige (~170 Jahre) globale Temperaturaufzeichnung dominiert. Die landgestützten Messungen dominieren, weil die Angaben zur Temperatur über den Ozeanen sehr spärlich sind, bis etwa 2004 bis 2007, als das ARGO-Netzwerk von Bojen vollständig genug war, um gute Daten zu liefern. Aber sogar noch 2007 war der Gitterfehler an der Meeresoberfläche größer als die festgestellte Erwärmung des Ozeans.

Erwärmung der Ozeane

Wir haben geschätzt, dass sich die 71% der Erdoberfläche bedeckenden Ozeane mit einer Rate von 0,4°C pro Jahrhundert erwärmen, basierend auf dem in Abbildung 2 gezeigten linearen Trend der kleinsten Quadrate. Dies ist eine sehr grobe Schätzung und beruht nur auf Daten aus den Jahren 2004 bis 2019 und auf Temperaturen aus den oberen 2.000 Metern der Ozeane. Die Daten vor 2004 sind so spärlich, dass wir sie nicht verwenden wollten. Der Fehler in dieser Schätzung beträgt etwa ±0,26°C von der Oberfläche bis 2.000 Meter, und darunter ist er unbekannt.

Die Argo-Messungen der Meerestemperatur der oberen 2.000 Meter ergeben eine ziemlich konstante Temperatur von 2,4°C. Wir nahmen also eine Temperatur von 0,8°C bei einer durchschnittlichen Meerestiefe von 3.688 Metern und darunter an. Im Zusammenhang damit liegt der Gefrierpunkt des Meerwassers bei 2900 PSI (etwa 2.000 Meter oder 2.000 Dezibar) bei -17°C. Der Wert von 0,8°C stammt aus tiefen Argo-Daten, wie sie von Gregory Johnson und Kollegen beschrieben wurden (Johnson, Purkey, Zilberman, & Roemmich, 2019). Es gibt nur sehr wenige Messungen von Tiefsee-Temperaturen, und jede Schätzung weist erhebliche mögliche Fehler auf (Gasparin, Hamon, Remy, & Traon, 2020). Die Anomalien in Abbildung 2 basieren auf diesen Annahmen. Die berechneten Temperaturen wurden aus dem Mittelwert der Ozeantemperaturen von 2004 bis 2019 in Anomalien umgerechnet. Die zur Erstellung von Abbildung 2 verwendeten Daten stammen aus Jamstec. Ein R-Programm zum Lesen und Plotten der Jamstec-Daten kann hier heruntergeladen werden, die Zip-Datei enthält auch eine Tabellenkalkulation mit weiteren Details. Unsere Berechnungen gehen von einer durchschnittlichen Gesamttemperatur des Ozeans im Zeitraum 2004-2019 von 4,6°C aus.

Abbildung 2. Eine Darstellung des globalen Rasters der Ozeantemperaturen von JAMSTEC. Es ist hauptsächlich aus ARGO-Floats und Triton-Bojendaten aufgebaut. Jamstec ist die Quelle des Gitters, das zur Berechnung dieser Anomalien verwendet wird.

Die beobachtete Erwärmung der Ozeane ist keineswegs alarmierend und ziemlich linear und zeigt keine Anzeichen einer Beschleunigung. Die Ozeane enthalten 99,9% der thermischen Energie („Wärme“) auf der Erdoberfläche, die Atmosphäre enthält den größten Teil des Rests. Dies erschwert es der Erdoberfläche, sich sehr stark zu erwärmen, da die Ozeane als Wärmeregulator wirken. Verschiedene Berechnungen und Konstanten bezüglich der in den Ozeanen und der Atmosphäre gespeicherten Wärme finden Sie in einer Tabelle, die ich hier vorbereitet habe. Referenzen sind in der Tabelle enthalten. Die Ozeane steuern die Erwärmung mit ihrer hohen Wärmekapazität, d.h. mit der Menge an thermischer Energie, die erforderlich ist, um die durchschnittliche Temperatur der Ozeane um ein Grad zu erhöhen. Die Wärmeenergie, die benötigt wird, um die Temperatur der Atmosphäre um 1000 Grad C zu erhöhen, würde die durchschnittliche Meerestemperatur nur um ein Grad erhöhen.

Ich erwähne dies nur, weil die landgestützten Wetterstationen uns zwar wertvolle Informationen über das Wetter liefern, aber nur sehr wenig über den Klimawandel. Längerfristige Veränderungen des Klimas erfordern viel mehr Informationen über die Erwärmung der Ozeane, als uns derzeit zur Verfügung stehen. Dennoch wollen wir die in den Vereinigten Staaten gesammelten GHCN-Daten einmal unter die Lupe nehmen.

Die GHCN-Stationsdaten

In den USA und im Rest der Welt machen die landgestützten Wetterstationen den größten Teil der durchschnittlichen Temperaturaufzeichnungen des 19. und 20. Jahrhunderts aus. Es ist wichtig zu wissen, wie genau sie sind und welchen Einfluss die Korrekturen haben, die in Bezug auf die beobachtete Erwärmung angewendet werden. Es ist viel Arbeit geleistet worden, um Probleme mit den landgestützten Daten zu dokumentieren. Anthony Watts und Kollegen dokumentierten 2011 mit ihrem Projekt für Landstationen zahlreiche Probleme mit der Stationsauswahl und -ausrüstung. Wichtige Informationen zu dieser Studie von John Neison-Gammon können hier und hier eingesehen werden. Die Veröffentlichung im Journal of Geophysical Research finden Sie hier. Viele der radikalen Veränderungen im US-Temperaturindex der NOAA und in der zugrunde liegenden Datenbank im Zeitraum zwischen 2009 und 2014 sind auf die Arbeit von Watts und seinen Kollegen zurückzuführen, die von Matthew Menne von der NOAA in seinem Einführungspapier zur Version 2 des U.S. Historical Climatology Network (USHCN) beschrieben wurde:

Darüber hinaus gibt es Hinweise darauf, dass ein großer Teil der HCN-Standorte in Bezug auf die vom U.S. Climate Reference Network verwendeten Standortklassifizierungskriterien schlechte Bewertungen haben (persönliche Mitteilung von A. Watts 2008; siehe auch www.surfacestations.org)“. (Menne, Williams, & Vose, 2009)

Menne, et al. bestätigten Watts und Kollegen in ihrem Einführungspapier zum überarbeiteten USHCN-Stationsnetz, was darauf hindeutet, dass das Projekt der Oberflächenstationen ein wichtiger Grund für die Revision war. USHCN war eine qualitativ hochwertige Teilmenge des gesamten Wetterstationsnetzes des Cooperative Observer Program (COOP) der NOAA). Die USHCN-Stationen wurden laut Matthew Menne auf der Grundlage ihrer räumlichen Abdeckung, Aufzeichnungslänge, Datenvollständigkeit und historischen Stabilität ausgewählt. Zur Bereinigung der ausgewählten Aufzeichnungen wurde eine Reihe von Qualitätskontrollprüfungen und Korrekturen entwickelt, die in den Veröffentlichungen von Matthew Menne und Kollegen beschrieben sind. Aus der Hauptstudie stammt das Zitat oben, aber er schrieb auch einen Beitrag zur Beschreibung ihres paarweisen Homogenisierungs-Algorithmus, abgekürzt „PHA“ (Menne & Williams, 2009a). Stationen mit Problemen, wie sie von Watts u.a. gefunden und dokumentiert worden waren, wurden aus USHCN entfernt. Infolgedessen schrumpften die ursprünglichen 1218 USHCN-Stationen bis 2020 auf ~832. Die abgebauten Stationen wurden nicht ersetzt, die Werte wurden statistisch anhand von Daten benachbarter Stationen „aufgefüllt“.

Anfang 2014 wurde die Teilmenge USHCN als Quelldaten für den Nationalen Temperaturindex aufgegeben und durch eine gerasterte Version von GHCN ersetzt, aber die für USHCN entwickelten Korrekturen wurden beibehalten. Sie wurden nur auf alle 12.514 U.S.-GHCN-Stationen angewandt und nicht auf die kleinere USHCN-Untermenge von 1.218 Stationen (oder weniger).

NOAA scheint dem in einer anderen Webseite über GHCN-Daily-Verfahren zu widersprechen. Auf dieser Seite heißt es, dass GHCN-Daily keine Anpassungen für historische Stationsänderungen oder tageszeitliche Verzerrungen enthält. Aber sie merken an, dass GHCN-Monthly dies tut. Es scheint also, dass die Korrekturen nach der Extraktion der täglichen Daten und während der Erstellung des monatlichen Datensatzes vorgenommen werden. Die NOAA manipuliert die GHCN-Tagesrohdaten nicht, aber wenn sie sie extrahieren, um den GHCN-Monatsdatensatz zu erstellen, wenden sie einige dramatische Korrekturen an, wie wir sehen werden. Einige NOAA-Webseiten weisen darauf hin, dass die Korrekturen der Tageszeitverzerrung für spätere Versionen von GHCN-Monatlich entfallen sind, aber die meisten sagen ausdrücklich, dass sie immer noch verwendet werden, so dass wir annehmen, dass genau das immer noch der Fall ist. Eine der beunruhigendsten Erkenntnisse war, wie oft und wie radikal die NOAA ihre „Korrektur“-Verfahren zu ändern scheint.

Die Entwicklung des US-Temperaturindex‘

Der aktuelle US-amerikanische „National Temperature Index“ bezieht Daten aus den Fünf-Kilometer-Rastern des GHCN-Monatsdatensatzes. Der monatliche gerasterte Datensatz wird nClimGrid genannt und besteht aus einem Satz von Kartengittern und enthält keine tatsächlichen Stationsdaten. Die Gitternetze werden mittels „klimatologisch unterstützter Interpolation“ (Willmott & Robeson, 1995) erstellt. Die Gitter werden verwendet, um einen monatlichen Durchschnittstemperatur-Datensatz, nClimDiv genannt, zu füllen. Dieser wird dann zur Erstellung des Index‘ verwendet.

Gegenwärtig ist die NOAA-Basisperiode für nClimDiv-, USHCN- und USCRN-Anomalien 1981-2010. Wir haben unsere Stationsanomalien, die unten dargestellt sind, unter Verwendung derselben Basisperiode konstruiert. Wir akzeptierten alle Stationen, die während der Basisperiode mindestens 12 Monatswerte hatten, und lehnten Stationen mit weniger Werten ab. Dadurch verringerte sich die Anzahl der CONUS-Stationen von 11.969 auf 9.307. In dieser Studie wurden keine Stationen interpoliert oder „aufgefüllt“.

Einige Quellen haben vorgeschlagen, dass Daten außerhalb des GHCN-Daily-Datensatzes verwendet werden könnten, um die nClimDiv-Monatsraster und den Temperaturindex zu erstellen, insbesondere einige nahegelegene kanadische und mexikanische Monatsdurchschnitte. NOAA/NCEI erwähnen dies jedoch kaum auf ihrer Website. nClimDiv enthält Klimadaten, einschließlich Niederschlag und einen Dürreindex, sowie die monatliche Durchschnittstemperatur. Wie bereits erwähnt, werden an den Daten der GHCN-Station dieselben Korrekturen vorgenommen, die auch im älteren USHCN-Datensatz verwendet wurden. Auf der NOAA-Website liest man:

Die erste (und einfachste) Verbesserung des nClimDiv-Datensatzes besteht in der Aktualisierung des zugrunde liegenden Stationsnetzes, das jetzt zusätzliche Stationsdatensätze und zeitnahe Bias-Korrekturen enthält (d.h. diejenigen, die im U.S. Historical Climatology Network Version 2 verwendet werden)“ Quelle

Neben dem neuen vollständig korrigierten GHCN-Monatsdatensatz und dem kleineren USHCN-Satz korrigierter Stationsdaten gab es früher noch einen dritten Datensatz, den ursprünglichen NOAA-climate divisional-Datensatz. Wie GHCN-Daily und nClimDiv verwendete diese ältere Datenbank das gesamte COOP-Stationsnetz. Die im älteren Klimaabteilungsdatensatz (in Fenimore u.a. „TCDD“ genannt) verwendeten COOP-Daten waren jedoch unkorrigiert. Dies wird in einem Whitepaper von Chris Fenimore und Kollegen erläutert (Fenimore, Arndt, Gleason, & Heim, 2011). Darüber hinaus wurden die Daten in dem älteren Datensatz einfach nach Klimaeinteilung und Bundesstaat gemittelt, sie waren nicht gerastert, wie nClimDiv und USHCN. Es gibt einige neue Stationen in nClimDiv, aber die meisten sind die gleichen wie in TCDD. Der Hauptunterschied zwischen den beiden Datensätzen sind die Korrekturen und die Rasterung. Daten aus dieser früheren Datenbank sind in den Abbildungen 6 und 7 unten als blaue Linie eingezeichnet.

Die einfachen Mittelwerte, die zur Zusammenfassung des TCDD verwendet wurden, ignorierten Veränderungen in der Höhe, Stationsverschiebungen und andere Faktoren, die in vielen Bereichen falsche interne Trends (Diskontinuitäten) einführten. Das neuere nClimDiv-Team für die monatliche Datenbank behauptet, die Stationsdichte und -höhe mit ihrer „klimatologisch gestützten Interpolations“-Rastermethode explizit zu berücksichtigen (Fenimore, Arndt, Gleason, & Heim, 2011). Die Methode liefert den vollständig korrigierten und gerasterten nClimGrid Fünf-Kilometer-Rasterdatensatz.

nClimDiv ist nützlicher, da die Gradienten innerhalb der Vereinigten Staaten in Bezug auf Temperatur, Niederschlag und Dürre genauer sind und weniger Diskontinuitäten enthalten. Aber, wie wir bereits in früheren Beiträgen erklärten, ist nClimDiv, wenn nClimDiv auf einen jährlichen gleichzeitigen Temperaturrekord der Vereinigten Staaten (CONUS) reduziert wird, dem Rekord des älteren, offiziellen Temperaturrekords namens USHCN sehr ähnlich, wenn beide auf die gleiche Weise gerastert werden. Dies mag daran liegen, dass nClimDiv zwar viel mehr Wetterstationen hat, auf diese jedoch dieselben Korrekturen angewandt werden wie auf die USHCN-Stationen. USHCN hat zwar weniger Stationen, aber sie sind von höherer Qualität und haben längere Aufzeichnungen. Die zusätzlichen nClimDiv-Stationen ändern, wenn sie auf die gleiche Weise wie die USHCN-Stationen verarbeitet werden, nichts, zumindest nicht auf nationaler und jährlicher Ebene. Wie in einem früheren Beitrag [in deutscher Übersetzung hier] erwähnt, spielt das schnellere Umrühren des Dungs mit leistungsfähigeren Computern und Milliarden von Dollar für weit verbreitete Durchschnittswerte keine Rolle.

Es gibt gute Gründe für all die Korrekturen, die die NOAA auf die Daten anwendet. Der Gridding-Prozess verbessert zweifellos den Nutzen der Daten intern. Künstliche Kartierungsdiskontinuitäten werden geglättet und Trends werden klarer erkennbar. Aber die Korrekturen und der Gridding-Prozess sind statistischer Natur, sie tragen nicht zur Verbesserung der Genauigkeit des Nationalen Temperaturindex bei. Wenn ein spezifisches Problem mit einem bestimmten Thermometer festgestellt und behoben wird, wird die Genauigkeit verbessert. Wenn die Ursache nicht bekannt ist und die Messwerte mit Hilfe benachbarter Thermometer oder eines statistischen Algorithmus „angepasst“ oder „aufgefüllt“ werden, sehen die resultierenden Tabellen besser aus, sind aber nicht genauer.

Der Übergang von USHCN zu nClimDiv für den National Temperature Index

Wie viel des nationalen Temperaturindex-Trends ist auf die tatsächliche Erwärmung zurückzuführen und wie viel auf die Korrekturen und die Rastermethode? Wie groß ist der Fehler in den endgültigen Schätzungen der Temperaturanomalien? Jahrzehntelange Kritik und die Revisionen der NOAA an der Berechnung haben diese Frage nicht beantwortet oder das Ergebnis verändert. Abbildung 3 zeigt den Nationalen Temperaturindex, extrahiert von der NOAA-Website am 18. November 2020. Sowohl die USHCN- als auch die nClimDiv-Berechnungen sind eingezeichnet. Erinnern Sie sich an die Steigung der Linie der kleinsten Quadrate, 1,5°C pro Jahrhundert, sie wird später im Beitrag wichtig sein.

Abbildung 3. Die nClimDiv- und USHCN-Klimaanomalien gegenüber dem Durchschnitt der Jahre 1981-2010. Die Daten wurden von ihrer Website heruntergeladen. Beide aufgezeichneten Datensätze stammen aus Gitternetzen, nicht aus Stationsdaten.

Es ist seit langem bekannt, dass der Nationale Temperaturindex nicht den zugrunde liegenden veröffentlichten Daten folgt. Anthony Watts hat dies berichtet, ebenso wie Jeff Masters, Christopher Burt und Ken Towe. Die Probleme bestehen sowohl in den GHCN-Daten als auch in den USHCN-Daten, wie von Joseph D’Aleo berichtet. Brendan Godwin argwöhnt, dass die heute verwendeten „Homogenisierungs“-Algorithmen (siehe die Diskussion über PHA oben) daran schuld sind. Wenn die „korrigierten“ Daten einen ganz anderen Trend aufweisen als die Rohdaten, sollte man skeptisch sein.

Anthony Watts glaubt nicht, dass die zugrunde liegenden Probleme mit dem vollständigen COOP-Netzwerk von Wetterstationen behoben sind, wie er hier im vergangenen Jahr erklärte. Er glaubt, dass die NOAA das Problem „unter den Teppich kehrt“. Die in Abbildung 3 dargestellten Daten sind vollständig korrigiert und gerastert, es handelt sich nicht um eine Darstellung von Stationsdaten. In Abbildung 4 sind die vollständig korrigierten Stationsdaten in Blau und die Rohdaten in Orange aus dem CONUS-Teil des GHCM-Monatsheftes eingezeichnet. Dies sind die gleichen Daten, die zur Erstellung der in Abbildung 3 gezeichneten nClimDiv-Kurve verwendet wurden, aber bei Abbildung 4 handelt es sich um die tatsächlichen Stationsdaten.

Abbildung 4. Die orangefarbene Linie ist die unkorrigierte monatliche Durchschnittstemperatur, die in der NOAA-Terminologie als „qcu“ bezeichnet wird. Die blaue Linie ist korrigiert oder die „qcf“ der NOAA.

Abbildung 4 zeigt die tatsächlichen Messungen von den Stationen, es sind keine Anomalien und die Daten sind nicht gerastert. Die Rohdaten zeigen, dass sich CONUS um 0,3°C pro Jahrhundert abkühlt, während die korrigierten Daten zeigen, dass sich CONUS um 0,3°C Grad pro Jahrhundert erwärmt. Diese Linien sind, wie alle eingepassten Linien in diesem Beitrag, Excel-Trendlinien der kleinsten Quadrate. Die Linien dienen lediglich dazu, den wahrscheinlichsten linearen Trend in den Daten zu identifizieren, daher ist das R2 irrelevant, wir versuchen nicht, Linearität zu demonstrieren.

Der Unterschied zwischen den beiden Kurven in Abbildung 4 ist in Abbildung 5 dargestellt. Die Steigung der Differenz ist ein Erwärmungstrend von 0,57°C pro Jahrhundert. Dies ist der Anteil der Erwärmung in Abbildung 3, der direkt auf die Korrekturen der Messungen zurückzuführen ist.

Abbildung 5. Damit wird die Differenz (Final-Raw) zwischen den beiden tatsächlichen Stationstemperaturkurven in Abbildung 4 dargestellt. Man erkennt, dass die Differenz zwischen den Trends der End- und Rohkurve seit 1890 etwa 0,8°C beträgt, was in etwa der behaupteten Erwärmung der Welt in diesem Zeitraum entspricht.

Vielen Lesern wird Abbildung 4 bekannt vorkommen. Steven Goddards Real Science-Blog veröffentlichte im Jahr 2012 eine NASA-GISS-Version der CONUS-Rohdatenanomalien aus dem Jahr 1999. Der von ihm verwendete Datensatz ist inzwischen von der NASA-Website gelöscht worden, aber eine Kopie kann hier heruntergeladen werden und ist in Abbildung 6 zusammen mit den aktuellen (Oktober 2020) GHCN-M-Rohdaten eingezeichnet. Wir wechseln von den tatsächlichen Temperaturmessungen in Abbildung 4 zu den Anomalien der Wetterstation vom Mittelwert 1981-2010 in Abbildung 6.

Abbildung 6. Die NASA GISS-CONUS-Temperaturanomalien von 1999 im Vergleich zu den GHCN-M-Roh-CONUS-Temperaturanomalien von 2020. Die NASA-Anomalien von 1999 sind um 0,32°C nach unten verschoben, so dass die Mittelwerte von 1890 bis 1999 übereinstimmen. Dies dient dazu, die Grundlinienunterschiede auszugleichen. Man beachte, dass die Trends der kleinsten Quadrate sehr genau übereinstimmen. Hansens Daten zeigen einen Erwärmungstrend von 0,25°C pro Jahrhundert und die modernen Daten zeigen eine Erwärmung von 0,26°C pro Jahrhundert. Die Gleichungen für die Linien befinden sich in der Legende. Siehe den Text für die Datenquellen.

Sowohl die aktuellen Daten als auch die Daten von 1999 zeigen eine Erwärmung von etwa 0,25°C pro Jahrhundert. Abbildung 7 zeigt die gleichen GISS 1999 Rohdatenanomalien im Vergleich zu den 2020 GHCN-M Endtemperaturanomalien. Alle drei Darstellungen deuten darauf hin, dass es in den Jahren 1931 und 1933 in den angrenzenden US-Bundesstaaten genauso warm wie oder wärmer war als heute. Die verschiedenen Korrekturen, die auf die Rohdaten angewendet wurden und die tatsächlichen Temperaturen in Anomalien verwandeln, haben den Effekt, den Unterschied zwischen den 1930er Jahren und heute zu verringern, aber sie beseitigen ihn nicht, zumindest nicht in den Stationsdaten selbst. Wenn die Daten gerastert werden, wie es in Abbildung 3 der Fall war, kehrt sich der Trend vollständig um, und die modernen Temperaturen sind plötzlich viel wärmer als in den 1930er Jahren. Die Daten von 1999 zeigen erneut eine Erwärmung von 0,25°C pro Jahrhundert, aber die korrigierten Daten zeigen eine Erwärmung von 0,6°C pro Jahrhundert. Dies ist der in Abbildung 5 dargestellten Erwärmung sehr ähnlich, d.h. der Erwärmung, die allein auf die Korrekturen zurückzuführen ist.

Abbildung 7. Die endgültigen und vollständig korrigierten Stationsdaten von GHCN-M für 2020 werden mit den NASA/GISS CONUS-Anomalien von 1999 verglichen. Die Gleichungen für die Linien befinden sich in der Legende.

Die blauen Linien der GISS-Anomalie von 1999 in den Abbildungen 6 und 7 sind identisch, die orangefarbene Linie in Abbildung 6 sind Rohdaten und die orangefarbene Linie in Abbildung 7 sind endgültige, korrigierte Daten. Die größten Korrekturen liegen in den früheren Zeiten und die kleineren Korrekturen liegen in den jüngeren Temperaturen.

Der in WUWT schreibende Witzbold und rundum gute Kerl Dave Middleton kommentierte dies 2016:

Ich sage nicht, dass ich weiß, dass die Anpassungen falsch sind; aber immer, wenn eine Anomalie ausschließlich auf Datenanpassungen zurückzuführen ist, wird bei mir die rote Flagge gehisst.“ Middleton, 2016

Ich stimme zu, Logik und gesunder Menschenverstand legen nahe, dass Dave zu Recht skeptisch ist.

James Hansen schrieb 1999 über dieses Thema:

Was geschieht mit unserem Klima? War die Hitzewelle und Dürre im Osten der Vereinigten Staaten 1999 ein Zeichen der globalen Erwärmung?

Empirische Beweise unterstützen die Vorstellung kaum, wonach das Klima auf eine extremere Hitze und Dürre zusteuert. Die Dürre von 1999 betraf ein kleineres Gebiet als die Dürre von 1988, als der Mississippi fast ausgetrocknet war. Und 1988 war eine vorübergehende Unannehmlichkeit im Vergleich zu den wiederholten Dürreperioden während der „Dust Bowl“ in den 1930er Jahren, die einen Exodus aus den Prärien verursachte, wie in Steinbecks „Trauben des Zorns“ beschrieben wird. Quelle.

Nun, hier stimme ich mit Hansen vollkommen überein.

Zeke von rankexploits.com, der „Tafel“, versuchte, die Korrekturen im Jahr 2014 zu verteidigen. Er erklärt uns, dass USHCN und GHCN zunächst um den Time-of-Measurement Bias („TOB“) [etwa: Messzeitpunkt] korrigiert werden, dann werden die Stationen mit ihren Nachbarn verglichen, und ein paarweiser Homogenisierungsalgorithmus (PHA) wird verwendet, um vermutete Anomalien zu glätten. Diese sind vermutlich auf Stationsverschiebungen, Änderungen in der Stationsumgebung oder Geräteänderungen zurückzuführen. Schließlich werden fehlende Stationsdaten ergänzt, wobei benachbarte Stationen als Anhaltspunkt dienen. Der letzte Schritt zur Erstellung von nClimDiv ist die Rasterung der Daten.

Zeke stellt fest, dass die Korrekturen der TOB und der PHA nicht wirklich notwendig sind, da der Rasterungsprozess allein wahrscheinlich Gleiches bewirken wird. Da ich nicht alle Details all dieser Glättungsoperationen für statistische Daten verstehe, werde ich keine Stellungnahme zu Zekes Kommentar abgeben. Aber aus einer allgemeinen Mapping-Perspektive hat er einen Punkt. Sie wollen einen Datensatz kartieren, der den Messungen so nahe wie möglich kommt. Wenn man drei Glättungsalgorithmen auf die Messungen anwenden, bevor man sie konturiert und rastert, was haben wir dann? Was bedeutet dieser Algorithmus?

Wir werden hier nicht auf die Einzelheiten der NOAA-Korrekturen eingehen, sie sind statistischer Natur und keine Korrekturen an spezifischen Instrumenten zur Korrektur bekannter Probleme. Es handelt sich also um verschiedene Arten von Glättungsoperationen, die nacheinander auf die Messungen angewendet werden. Die TOB-Korrektur wird von Thomas Karl und Kollegen beschrieben (Karl, Williams, Young, & Wendland, 1986). NOAA mittelt die minimalen und maximalen Tagestemperaturen, um die durchschnittliche Tagestemperatur abzuleiten, daher ist es wichtig, ob die beiden Temperaturmessungen vom Min-Max-Thermometer um Mitternacht oder zu einer anderen Tageszeit aufgezeichnet werden. Wenn Berechnungen mit Monatsdurchschnitten durchgeführt werden, ist dieser Unterschied sehr gering. Einige NOAA-Webseiten legen nahe, dass die TOB-Korrektur für neuere Versionen von GHCN-Monatsblatt entfallen ist, andere sagen, dass sie immer noch verwendet wird. So oder so macht sie wahrscheinlich keinen großen Unterschied in GHCN-Monatlich oder nClimDiv.

Die zweite Korrektur ist der paarweise Homogenisierungsalgorithmus oder PHA. Dieser Algorithmus vergleicht jede Station mit ihren Nachbarn, um festzustellen, ob es ungewöhnliche Anomalien gibt, und versucht dann, diese zu beheben. Dieser Prozess ist ein rein statistischer Glättungsalgorithmus. Er wird von Matthew Menne und Claude Williams beschrieben (Menne & Williams, 2009a). Dieses Verfahren wird definitiv in der neuesten Version von GHCN-Monthly verwendet.

Der letzte Schritt im Glättungsprozess ist das Auffüllen fehlender Werte mit Daten von Nachbarstationen. Dies geschieht vor der Rasterung, so dass mehr Rasterzellen gefüllt werden. Das Auffüllen wird wahrscheinlich noch in der neuesten Version durchgeführt.

Zeke weist darauf hin, dass die grafische Darstellung der tatsächlichen Temperaturen, wie wir es in Abbildung 4 getan haben, irreführend sein kann. Im Laufe der letzten 130 Jahre sind Stationen verschoben, hinzugefügt, entfernt worden, und die räumliche Verteilung der Stationen hat sich verändert. Die mittlere Höhe der Stationen hat sich im Laufe der Zeit verändert. Diese Veränderungen wirken sich auf die Stationsanomalien weniger stark aus als die absoluten Temperaturen. Das ist richtig, und dies erklärt einen Teil der Differenz zwischen Abbildung 4 und den Abbildungen 6 und 7. Ab einem bestimmten Punkt spielt die Anzahl der Stationen keine Rolle mehr, wie in Abbildung 3 zu sehen ist. Wir beginnen unsere Beobachtungen im Jahr 1890 oder 1895, weil wir dann davon ausgehen, dass genügend Stationen in CONUS vorhanden sind, um einen aussagekräftigen Mittelwert zu erhalten. Der USHCN-Datensatz umfasst 143 Stationen im Jahr 1890 und 608 Stationen im Jahr 1895, und dies sind die Stationen mit den längsten Aufzeichnungen und der besten Platzierung.

Schlussfolgerungen und Diskussion

Zekes nächster Punkt ist, dass Goddard seine Daten nicht gerastert hat. Er hat sich also nicht mit der ungleichmäßigen Verteilung der Stationen und der sich im Laufe der Zeit verändernden Verteilung der Stationen befasst. Dies sind echte Probleme, die sich zwar auf interne Trends innerhalb von CONUS auswirken, aber die Rasterung und die anderen Korrekturen glätten die Daten nur. Keine dieser Operationen verbessert die Genauigkeit. Tatsächlich ist es wahrscheinlicher, dass sie die Genauigkeit verringern. Wenn wir Karten von CONUS-Daten zur Ermittlung von Trends innerhalb des Landes verwenden würden, würde ich Zeke zustimmen und die Daten glätten. Aber hier geht es uns nur um den nationalen Temperaturindex, der außerhalb von CONUS liegt. Der Index ist eine Durchschnittstemperatur für das ganze Land, keine statistische Glättung oder Rasterung wird ihn verbessern. Die Verwendung von Anomalien gegenüber den tatsächlichen Temperaturen ist wichtig, ansonsten nicht.

Ein Mittelwert der Anomalien der Stationsdaten ist geeigneter als die Verwendung eines Gitters zur Erstellung eines nationalen durchschnittlichen Temperaturtrends. Der Mittelwert kommt den tatsächlichen Beobachtungen so nahe wie möglich. Die Korrekturen und die Rasterung entfernen uns mit mehreren verwirrenden Schritten von den Messungen.

Wenn die Korrekturen bekannte Probleme in den Instrumenten beheben würden, würde das der Genauigkeit helfen. Aber sie sind statistischer Natur. Sie machen die Stationsmessungen glatter, wenn sie kartiert werden, und sie glätten Diskontinuitäten. Meiner Meinung nach hat die NOAA es übertrieben. TOB, PHA, Ausfüllung und Rasterung sind ein Overkill. Dies ist in Abbildung 7 und beim Vergleich von Abbildung 3 mit Abbildung 6 oder Abbildung 5 leicht zu erkennen. Entspricht der endgültige Trend in Abbildung 3 eher den Messungen (Abbildung 6) oder den Netzkorrekturen in Abbildung 5? Der Jahrhundert-Trend der Daten beträgt 0,25°, die Korrekturen addieren dazu 0,35° und der „klimatologische Rasteralgorithmus“ fügt nochmals 0,9° hinzu! Es lohnt sich, noch einmal zu sagen, dass die Art der statistischen Operationen, die wir diskutieren, nichts zur Verbesserung der Genauigkeit des Nationalen Temperaturindexes beitragen, und sie reduzieren dieselbe wahrscheinlich.

CONUS ist ein gutes Gebiet, um zu überprüfen, ob die „Korrekturen“ an den Stationsdaten und die Wirksamkeit des Temperatur-Gridding-Prozesses gerechtfertigt sind. Die aktuelle Stationsabdeckung ist sehr dicht, wie in Abbildung 1 zu sehen ist, und man würde erwarten, dass die gerasterten Daten recht gut mit den Stationsdaten übereinstimmen. Abbildung 3 sieht wie die orangefarbene „Endkurve“ in Abbildung 7 aus, aber sie ist irgendwie steiler, und das sagt alles, was ma wissen muss.

Dave Middleton und ich sind (in meinem Fall „war“) schon seit langer Zeit im Öl- und Gasgeschäft tätig. Zusammen haben wir mehr kartografierte BS gesehen, als man auf den Lagerplätzen von Kansas City finden konnte. Mein interner BS-Meter zeigt rote Linien, wenn ich eine Wäscheliste mit Glättungsalgorithmen, Korrekturalgorithmen, Bias-Anpassungen usw. höre. Ich möchte schreien: „Halten Sie Ihre &#$@ing Karten und Berechnungen so nah wie möglich an den echten Daten!“

Im ersten Teil dieses Postens habe ich darauf hingewiesen, dass wir zur Untersuchung des Klimawandels mehr über die Erwärmung der Ozeane und die Verteilung und den Transport von Wärmeenergie in den Ozeanen wissen müssen. Landgestützte Wetterstationen helfen bei der Vorhersage des Wetters, aber nicht des Klimas. Wir streiten viel über relativ kleine Unterschiede in den Landoberflächentemperaturen. Diese Argumente sind interessant, aber aus der Sicht des Klimawandels spielen sie keine große Rolle. Die Ozeane kontrollieren das, die Atmosphäre über Land hat wenig damit zu tun. Die Rohdaten von GHCN-Daily zu nehmen und sie durch vier verschiedene Glättungsalgorithmen (TOB, PHA, Infilling und Gridding) laufen zu lassen, ist, bei allem Respekt, lächerlich. Meine Empfehlung? Glauben Sie nichts davon, auch nicht, dass es bzgl. des Klimas eine große Rolle spielt.

Ein besserer Indikator für den Klimawandel oder die globale Erwärmung ist der in Abbildung 2 dargestellte Trend der Erwärmung der Ozeane. Beachten Sie, dass der Trend der letzten 16 Jahre nur 0,4°C pro Jahrhundert beträgt. Vergleicht man dies mit den landgestützten CONUS-Messungen der letzten 130 Jahre, so sagen sie 0,25°C voraus, wie in Abbildung 6 dargestellt, aber der vollständig „korrigierte“ NOAA-Wert beträgt 1,5°C, wie in Abbildung 3 dargestellt. Wem glauben Sie wirklich?

Ich benutzte R für die Berechnungen, die in den Abbildungen dargestellt sind, aber Excel, um die Diagramme zu erstellen. Wenn Sie die Details meiner Berechnungen überprüfen möchten, können Sie meinen GHCN R-Quellcode hier herunterladen.

None of this is in my new book Politics and Climate Change: A History but buy it anyway.

You can download the bibliography here

Link: https://wattsupwiththat.com/2020/11/24/the-u-s-national-temperature-index-is-it-based-on-data-or-corrections/

Übersetzt von Chris Frey EIKE




Und täglich grüßt das EEG

Zum wiederholten Male begab sich am 18. November in einem unserer Parlamente, mit dem Bundestag sogar dem höchsten, eine Anhörung zum Thema EEG (Erneuerbare Energien Gesetz). Neben vielen anderen Gesetzeswerken bildet das  EEG das in Gesetzesform gegossene energiepolitische Elend des Landes in besonderer Weise ab. Weil es nicht mehr funktioniert wie gewünscht, weil es inzwischen überkomplex, kaum mehr überschaubar und in seinen Wirkungen reaktionär ist, versucht man regierungsseitig durch weitere Änderungen die Wirksamkeit zu verbessern. Das Drehen kleiner Stellschrauben, eine noch  kleinteiligere Regelungswirkung soll den Dekarbonisierungs- und Anti-Atom-Kurs zum Erfolg führen. Da es am großen Ziel keinerlei Zweifel mehr gibt, lud man als Sachverständige die passenden sachverständigen Lobbyisten ein. So Vertreter von „Agora Energiewende“, dem „Bundesverband Solarwirtschaft“ und dem inzwischen vollvergrünten BDEW (Bundesverband der Energie- und Wasserwirtschaft e.V.).

An kaum einer anderen Stelle als in solchen Anhörungen wird deutlich, dass es in Deutschland eine Kohle- oder Atomlobby nicht mehr gibt. Dennoch werden ihre Schatten noch gebraucht als Feindbilder, gegen die die infantilen Kräfte von FFF, Extinction Rebellion und andere in den Kampf geschickt werden können, um vom Versagen der „Erneuerbaren“ abzulenken.

Und so entwickelte sich in der Anhörung eine Diskussion um die  „Komplexitätsfalle“ des EEG, ohne etwas zu seiner Vereinfachung vorzuschlagen. Es ging um Bagatellgrenzen, PPA, eine angebliche „Sonnensteuer“, Genehmigungsverfahren, einzelne Paragrafen und natürlich die Erweiterung der Ausbaumengen oder –korridore. Elektrolysestrom soll von der EEG-Umlage befreit werden – dann würde es für alle anderen teurer. Angeblich seien die Marktpreise zu niedrig, um die Förderung nach zwanzig Jahren auslaufen lassen zu können. Natürlich wäre der Branche die unbefristete Dauersubventionierung lieber, am Ende wird dieses Ziel durch die zunehmende staatliche Planwirtschaft wohl erreicht werden.

Immerhin gab es die Erkenntnis, dass die Direktvermarktung regenerativen Stroms auch nach 20 Jahren üppiger Förderung noch in den „Kinderschuhen“ stecke. Nicht thematisiert wurde von den Lobbyisten die Tatsache, dass wir schon in wenigen Jahren einen Mangel an gesicherter Stromeinspeisung haben werden. Der Wagen läuft immer weiter auf den Abgrund mit Namen Energiemangel zu, die Möglichkeiten zum Bremsen werden immer weniger, aber im U-Boot Bundestag diskutiert man die Farbe der Außenspiegel. Äußeres Zeichen der ungebremsten Talfahrt ist die Progression der Kosten, die sich nicht mehr aufhalten lässt. Da man keinesfalls die EE-Lobby verärgern und an den Gewinnen der einschlägigen Branche und der Betreiber kratzen will, steht das Problem, die Umlage zu sichern.

Weltklimarettung auf Pump

Würde man die Stromkunden wie bisher zur Kasse bitten, beliefe sich die EEG-Umlage im Jahr 2021 auf satte 9,651 Cent pro Kilowattstunde. Rechnet man die Mehrwertsteuer hinzu, würde die 10-Cent-Marke geknackt werden. Dieser hohe Betrag kommt zustande, weil die bisherige Liquiditätsreserve im Umlagekonto bereits im Juni ins Minus rutschte. Die Netzbetreiber waren gezwungen, mit mehr als vier Milliarden Euro kreditfinanziert in Vorkasse zu gehen, um die Ansprüche der EE-Anlagenbetreiber zu befriedigen. Die aufzubringende Umlage für 2021 enthält 1,19 Cent für den Abbau des Defizits des Umlagekontos, 0,772 Cent für den Aufbau einer Liquiditätsreserve und 7,688 Cent für die laufende Umlage. Insgesamt steigen die EEG-Kosten um 38,3 Prozent.

Nun ist es für die Energiewende-PR der Regierung, man könnte es auch Propaganda nennen, nur schwer möglich, einen derartigen Anstieg der EEG-Umlage als Erfolg des eingeschlagenen Kurses zu verkaufen. Deshalb deckelt man die Umlage für 2021 auf 6,5 Cent und zapft für den verbleibenden Rest die nie versiegende Quelle des Bundeshaushalts an. Das Absenken verkauft man dann als „Entlastung“ der Stromkunden (für einen Normalhaushalt etwa 10 Euro im Jahr). Für 2021 kündigten indes bereits 47 Versorger1 Preiserhöhungen an, im Durchschnitt sei mit 38 Euro mehr pro Jahr zu rechnen.

Der Bundeszuschuss zur EEG-Umlage wird 3,151 Cent betragen (fast so viel wie die gesamte Umlage im Jahr 2011) und sich auf knapp 11 Milliarden Euro belaufen. Reichte bisher die Umlage auf den Strompreis für die üppige Finanzierung der „Erneuerbaren“ aus, muss man künftig drei Quellen anzapfen: Die Stromkunden, den Staatshaushalt und die Staatsschulden. Unsere nachfolgenden Generationen werden einen Teil der heutigen Verspiegelung und Verspargelung des Landes bezahlen und künftig in Teilen den Rückbau und die Entsorgung sowie die Folgeschäden des exzessiven und beileibe nicht umweltfreundlichen Ausbaus.

Die absoluten Kosten der EEG-Umlage 2020 werden sich auf etwa  33.081 Milliarden Euro belaufen, die Differenzkosten zum Marktstrompreis auf etwa 26,35 Milliarden. Für die gesamte Infrastruktur  des Bundes  wurden 2019 nur 22,24 Milliarden ausgegeben. Pro Kopf der Bevölkerung – vom Säugling bis zum Greis – werden nun 317 Euro pro Jahr für die Ökostrombetreiber fällig – über Umlagen, Steuern oder Schulden.

Auf diese Weise wird es nicht möglich sein, mittels Strom über die so genannte Sektorenkopplung Emissionen zu senken. Das Versprechen, fossile Brennstoffe zu verteuern und dafür den Strompreis zu senken, ist gerade am Scheitern. Die Netzentgelte werden den Preis dynamisieren. Der Netzausbau wird noch nicht  aus dem Staatshaushalt finanziert, er muss auf allen Spannungsebenen bis hin zum Tesla-Supercharger an der letzten Milchkanne erfolgen und kostet enorme Summen. Der verpflichtende Anschluss von EE-Anlagen,  finanziert von allen Stromkunden, macht neben Einspeisevorrang und gesicherten Vergütungen über 20 Jahre überhaupt erst die Installation von Zufallsenergieerzeugern möglich. Ein hypothetischer Entfall dieser Bedingungen des Streichelzoos würde die „Erneuerbaren“-Branche schlagartig kollabieren lassen, ungeachtet der immer wieder gefeierten niedrigen Stromgestehungskosten.

Der Weg zur Planwirtschaft und zu absehbarem Mangel hat Folgen auf der Verbraucherseite. Industrieinvestitionen finden nur noch im Subventionsbereich statt, abgesehen von einem amerikanischen Milliardär, der in Brandenburg gerade die Behörden vor sich her treibt. Rein marktgetriebene Investitionen gibt es kaum noch, selbst am Erhalt der Anlagen wird gespart.

„In unserem Fall ist es so – ich denke, ich spreche für weite Teile der Industrie –, dass selbst Ersatzinvestitionen derzeit verschoben werden“,

 hatte Volker Backs von der Wirtschaftsvereinigung Metalle e.V. bereits im Juli 2019 bei einer Anhörung zum gleichen Thema im NRW-Landtag gesagt. Der Abschied der Industrie wird leise sein, die Folge dramatisch. Nun steht die Schließung des Grobblechwerks von Thyssenkrupp in Duisburg an. Welcher Investor, zumal aus dem Ausland, sollte sich Deutschland noch als Standort aussuchen, wenn unvorhersehbare und damit unkalkulierbare Strompreise und weitere Kostensteigerungen durch das Brennstoffemissionshandelsgesetz (BEHG), hohe Lohnkosten, Behördendickicht und viele Regalmeter voller Regelungswut den „Kapitalisten“ erwarten?

Flach, flacher, Grün

„Energiewende und Klimaschutz sind voller Irrungen und Wirrungen“2, sagte der Chef der Deutschen Energieagentur (dena), was im krassen Gegensatz zum eitel Sonnenschein auf der Homepage des Bundeswirtschaftsministeriums steht. Sie ist ein einziges Feuerwerk an Energiewende-Erfolgsmeldungen. Die Erinnerung an das Zentralorgan „Neues Deutschland“ liegt nahe. Die auf Politikerebene geführten Energiewendediskusionen bewegen sich oft auf sehr flachem Niveau, was nicht ausschließt, dieses Niveau noch nach unten zu durchstoßen. Dafür sind insbesondere Politiker der Grünen in der Lage. Auf eine energiewendekritische Mail antwortete Dr. jur. Thomas Griese, Staatssekretär im Umweltministerium von Rheinland-Pfalz, wie folgt:

„. . . Zu Ihren Ausführungen zum Thema Netzstabilität muss man wissen, dass die Stromproduktion ständig der im Tagesverlauf stark schwankenden Stromnachfrage angepasst werden muss. Dies wird durch die alten, unflexiblen und behäbigen Atom- und Kohlekraftwerke immer schwieriger, weil sie voll weiterlaufen, die Netze verstopfen und kurzfristig nicht abzuregeln sind. Das Ganze ist ein weiteres Argument dafür, auch aus Gründen der Netzstabilität auszusteigen.“

Das muss man erst mal sacken lassen. Unabhängig von der Frage, wer denn bisher die Netze ausregelte, bleibt die offene Frage, wer denn nun auf die stark schwankende Stromnachfrage künftig reagieren soll. Fahren dann die Solarkraftwerke hoch, wenn die Leute das Licht einschalten, weil die Sonne untergeht?

Der jüngste Grünen-Online-Parteitag wurde von den Medien wieder freundlich eskortiert. In einem Beitrag der FAZ3 meinte man eine gewisse Abkehr von der grünen Zwangsbeglückungs-Ideologie früherer Zeiten erkennen zu können. Die Grünen würden sich gegen geschlossene Weltbilder stellen. Nichts ist falscher als das. Die geschlossene Ideologie der Grünen, vom Atomausstieg über die Dekarbonisierung bis hin zum Genderismus ändert sich nicht, selbst wenn sie sich jetzt vom „Gendreck weg“ verabschieden wollen, weil der Druck zur Einführung eines so behandelten Corona-Impfstoffs zu groß ist. Wie andere Parteien auch versprechen die Grünen im Vorfeld von Wahlen allen alles,  um in alle Richtungen anschlussfähig zu sein und Wähler aus der Mitte in Volksparteimanier abgreifen zu können. Sollte sie einen Zipfel der Macht erhaschen,  werden sie ihre alten Instrumente wieder hervorholen: Belehrungen, Verbote, Subventionen und Moralkeulen.

Es blieb in oben genannter Anhörung Professor Lüdecke von der Hochschule für Technik und Wirtschaft des Saarlandes vorbehalten, auf das Wetter hinzuweisen. Er meinte damit nicht Wetterextreme und Klimawandel, sondern schlicht die Wetterabhängigkeit der exzessiv ausgebauten und weiter auszubauenden Wind- und Sonnenstromerzeuger. Heute schon bringen Hellbrise wie Dunkelflaute das System an den Rand der Funktionsfähigkeit. Wie sich das beim weiteren ungebremsten Trend des Zubaus von Zufallsenergieerzeugern gestalten wird, ist offenbar nicht Bestandteil regierungsamtlichen Nachdenkens.

Alle reden vom Klima, wir sollten mehr vom Wetter reden.

————————–

Dieser Beitrag entstand mit freundlicher Unterstützung von Christian Rückert

www.rueckert-enerwa.de

1         –           https://strom-report.de/strompreise/strompreiserhoehung/

2         –           Andreas Kuhlmann, Chef der Deutschen Energieagentur (Dena)

im Tagesspiegel v. 4.11.20

3         –           FAZ v. 20.11., S. 4 „Dekarbonisierter Spagat“

Quellen:

https://www.bundestag.de/ausschuesse/a09/Anhoerungen#url=L2F1c3NjaHVlc3NlL2EwOS9BbmhvZXJ1bmdlbi84MDU1NjAtODA1NTYw&mod=mod543440

https://www.netztransparenz.de/EEG/EEG-Umlagen-Uebersicht

https://www.bundesfinanzministerium.de/Web/DE/Home/home.html

Der Beitrag erschien zuerst bei TE hier




Das Endspiel

In Wirklichkeit sind jedoch nur wenige Wähler bereit für extreme politische Maßnahmen wie den Green New Deal (GND), der, wie sein weithin anerkannter Architekt Saikat Chakrabarti anerkannt hat, wirklich eine offen sozialistischere und antikapitalistische Version der Ära der Weltwirtschaftskrise ist.

Es ist jedoch eine Verschwendung emotionaler Energie, emotional  gegenüber Leuten wie Alexandria Ocasio-Cortez (AOC) zu werden, [die mit Eifer den GND promoted]. Die wahre Kraft der Umweltbewegung beruht auf denen, die „die beherrschenden Höhen“ unserer Gesellschaft einnehmen – im Unternehmens-, Medien- und akademischen Bereich. Obwohl die Ansichten der Wirtschaft wohl nicht so lächerlich sind wie die der AOC, ist es weitaus wahrscheinlicher, dass Mainstream-Grüne uns ihre Version der Umweltgerechtigkeit erfolgreich aufzwingen.

Ein feinerer Grünton

Die moderne Umweltbewegung wurde von der Spitze der wirtschaftlichen Nahrungskette aus ins Leben gerufen. Die Rockefeller Brothers finanzierten zum Beispiel einige der frühesten Umweltagendas, insbesondere zur Bevölkerungskontrolle . Heute sind diese mit fossilen Brennstoffen reich gewordenen Unternehmer, darunter nicht nur die Rockefellers, sondern auch die Fords , zu führenden Befürwortern radikaler Klimapolitik geworden.

1972 wurde das einflussreiche Buch Limits to Growth {Grenzen des Wachstums) mit Unterstützung wichtiger Unternehmensinteressen unter der Leitung von Aurelio Peccei, Fiat veröffentlicht. Die Autoren des Buches suggerierten, dass der Erde die natürlichen Ressourcen bald ausgehen und forderten die Schaffung eines „globalen Gleichgewichts“ durch Wachstumsbeschränkungen und ein „sorgfältig kontrolliertes Gleichgewicht“ von Bevölkerung und Kapital. Diese Schlussfolgerungen, die größtenteils in Top-Medien, akademischen und politischen Kreisen akzeptiert wurden, erweisen sich heutzutage fast als komisch, da die Produktion von Nahrungsmitteln, Energie und Rohstoffen nicht zu der vorhergesagten Massenhungersnot wurde, sondern zu dem wohl größten Anstieg des globalen Lebensstandards in der Geschichte .

Trotz dieses Rekords nimmt eine wachsende und mächtige Fraktion der Unternehmensaristokratie immer noch die Ideale des Club of Rome an, um den menschlichen Konsum zu senken und den wirtschaftlichen Fortschritt zu begrenzen. Die heutigen Umweltschützer agieren wie religiöse Prälaten im Mittelalter –von Alexander Cockburn, The Nation so  treffend „Treibhaus Paniker“ genannt – und sehen keinen Widerspruch zwischen Einführung strenger Einschränkungen für die Massen und der Entschuldigung von Exzessen ihrer ultra-reichen Unterstützer. Wie sündige Aristokraten und Handelsprinzen im Mittelalter, können unsere „grünen Reichen“ sogar eine moderne Version von Ablässen durch Emissionsgutschriften und andere Tugendzeichen kaufen. Dies ermöglicht es ihnen, den Planeten mit Stil zu retten. Im Jahr 2019 flogen schätzungsweise 1.500 THG-speiende Privatjets nach Davos, um die Teilnehmer zu einer Konferenz zu bringen und die Umweltkrise zu erörtern. Nur wenige hochkarätige Klimaaktivisten, darunter Prominente, scheinen bereit zu sein, ihre zahlreichen Häuser, Yachten oder eine Vielzahl von Autos [für die propagierten Klimaziele] aufzugeben [denken Sie beim Anschauen daran, dass diese Prominente oft in guten Filmen zu sehen waren. Ihr dortiges Handeln stand allerdings im Drehbuch und gab der Regiseur vor. Der Übersetzer]

Die Rückbildung von Wachstum

Diese Würdenträger teilen wahrscheinlich nicht die Vorstellung von Barry Commoner, einem Gründungsvater des modernen Umweltschutzes, dass „der Kapitalismus der Feind Nummer eins der Erde ist“. Die heutigen grünen Eliten haben kein Interesse daran, Tech-Oligarchien aufzubrechen, die Finanzkraft der Wall Street einzuschränken oder die Belastungen der grünen Politik für die Armen und die Arbeiterklasse zu verringern. Ebenso wenig dürften sie – zumindest bis jetzt, keines der Dinge favorisieren, wie sie von den extremen grünen Akademikern und Aktivisten gefordert werden: Insektennahrung, beschränkter Fleischkonsum,  Eindämmung der Fortpflanzung  oder sogar insgesamt die Ausrottung der Menschheit zu befürworten [natürlich immer der anderen].

Vielmehr haben sich viele Eliten dem Konzept des „Degrowth“ (Rückbildung) verschrieben, das eine geringere wirtschaftliche Expansion, einen Bevölkerungsrückgang und ein radikales Ende von Mobilität vorsieht. Eine Reihe von Vorschlägen des IPCC stützt diesen Gedanken und lehnt ganz offen eine „kapitalorientierte Kultur“ ab und sieht einen zentraleren Ansatz als entscheidend für die Rettung des Planeten an. Der Gründer des Weltwirtschaftsforums, Klaus Schwab, der Herr von Davos, sieht beispielsweise den Aufstieg einer neuen „Business Class“ vor, die durch „tugendhafte Instinkte“ motiviert ist, zu denen unter anderem die Beseitigung fossiler Brennstoffe gehört. Diese Corporate Geisteshaltung wird als eine Form des „Stakeholder – Kapitalismus“  [~ Aktienbesitzer, Interessen der Anleger] verkauft, während die progressiven Transformationen  von Gesellschaft, Geschlecht und Rasse [als gut] verfolgt werden.

Obwohl diese Agenda in lobenswerten Absichten formuliert ist, ist sie auch bemerkenswert eigennützig. Der britische marxistische Historiker James Heartfield schlägt vor, dass der „grüne Kapitalismus“ eine perfekte Gelegenheit bietet, die Rendite künstlich knapperer Ressourcen wie Land und landwirtschaftlicher Produkte zu maximieren, insbesondere durch Mandate und Steuererleichterungen für erneuerbare Energien. Die grüne Wirtschaft hat bereits ihren ersten Mega-Milliardär hervorgebracht, Elon Musk , dessen Kerngeschäft enorm von der Regulierungs- und Steuerpolitik profitierte, die seine Produkte begünstigt. Erwarten Sie in Zukunft andere, weniger innovative Oligarchen, die gerne die zentral auferlegte Knappheit ausnutzen und unter dem Vorwand des „menschlichen Überlebens“ Geld verdienen.

Wer bezahlt, wenn die Dinge nicht funktionieren?

Die Reichen wie Jeff Bezos, der Anfang dieses Jahres 10 Milliarden US-Dollar an Umweltverbände gespendet hat, können leicht strenge Maßnahmen zur Eindämmung des Klimawandels fordern, weil sie sich die Auswirkungen dieser Maßnahmen leisten können. Es wird ihre Fähigkeit nicht einschränken, Milliarden zu verdienen, Villen im Stil der Habsburger Könige zu unterhalten oder in Privatjets zu fliegen. Im Gegensatz dazu werden Arbeiter in der Ölindustrie, Fabrikangestellte oder Bauarbeiter, die mit alten Autos zur Arbeit fahren, durch Verbote fossiler Brennstoffe ernsthaft geschädigt. Für sie wird der erzwungene Marsch zu einer abgekarteten grünen Utopie nicht so süß sein und Versprechen auf vielleicht mal kommende „grüne Jobs“  sind kein Ersatz für die Realität.

Für diese Arbeiter und ihren Familien ist der Preis für grüne Frömmigkeit eine Reduzierung von Ressourcen für Schulbildung, Arztrechnungen oder sogar Lebensmittel. Kalifornien leidet mit seinem Löwenanteil an Multimillionären unter der höchsten kostenbereinigten Armutsquote aller Staaten und einer massiven Ausweitung der Energiearmut. Diese Politik erhöht bereits die Lebenshaltungs-kosten an der Ostküste. Die Strompreise aus Windenergie werden bereits auf das Fünffache der konventionellen Stromerzeugung geschätzt. In ähnlicher Weise haben bereits jeder vierte Deutsche und drei Viertel der Griechen andere Ausgaben gekürzt, um ihre Stromrechnungen zu bezahlen. Dies ist die wirtschaftliche Definition von „Energiearmut“.

Bis heute haben diese Negative wenig dazu beigetragen, den verrückten Versuch Kaliforniens zu verlangsamen, „ rein elektrisch“ zu fahren. Diese Politik ist zum Scheitern verurteilt, da sie den Stromverbrauch steigert und gleichzeitig die kostengünstigsten und zuverlässigsten Möglichkeiten zur Versorgung beseitigen will. Schlimmer noch, diese Politik wird auch schädliche Auswirkungen auf die Umwelt haben, durch die Schaffung massiver neuer Solaranlagen in den am stärksten gefährdeten landwirtschaftlichen Gebieten und Freiflächen des Staates. Eine Studie der Carnegie Institution for Science und der Stanford University aus dem Jahr 2015 legt nahe, dass für den Bau einer ausreichenden Solarenergie zur Reduzierung der US-Emissionen um 80 Prozent im Jahr 2050, mehr als 27.500 Quadratmeilen [~ 72.000 km²} erforderlich sein könnten, wodurch sowohl Ackerland als auch einzigartige natürliche Lebensräume zerstört werden. [Deutschland hat ~ 357.000 km²]

Kalifornien strebt ähnliche Emissionsreduzierungen an, indem es die Elektrifizierung von Gebäuden und Verkehrsmitteln mit Solar- und Windkraft vorschreibt. Die staatlichen Klimaführer wollten bislang jedoch noch nicht den Standort oder das Ausmaß des zu zerstörenden Landes offenlegen, das ihre Politik erfordert. Laut einem Bericht von The Nature Conservancy aus dem Jahr 2019 und den eigenen Experten des Bundesstaates könnten bis 2050 bis zu 3 Millionen Morgen – fast 12.000 km² dafür geopfert werden, einschließlich eines Großteils des Central Valleys und, wenn die Nachbarstaaten zustimmen, für eine weitläufige grün-industrielle Entwicklung im gesamten Westen der USA. Insgesamt stellen die Produktion von Elektroautos und Solaranlagen ihre eigenen, wenn auch selten angesprochenen Umweltprobleme dar, insbesondere im Zusammenhang mit dem Abbau von Seltenerdmaterialien

Der „Testlauf“

Die tragischen und unerbittlich nervenden Coronavirus-Lockdowns könnten als echte Reaktion auf eine klare, gegenwärtige und manchmal tödliche Gefahr gerechtfertigt werden. Aber einige Grüne sehen den „Lockdown“ als Testlauf für die Arten von Regelungen an, die uns im Rahmen der künftigen grünen Agenda bevorstehen können. Der „visionäre“ Davoser Mogul Schwab sieht die Pandemie beispielsweise als Chance für einen großen „Reset“, der vor einem „De-Wachstums-Regime“ auf der Grundlage der erhellenden Werte der [selbst] auserwählten Wirtschaftselite erfolgt.

Diese neue Weltordnung würde dem Davoser Drehbuch folgen, ganze Teile der Wirtschaft blockieren und die Wahlmöglichkeiten der Verbraucher einschränken, insbesondere für Wohnen und Transport. Um diese etwas unangenehme Agenda zu verkaufen, haben die Grünen und ihre Elite-Verbündeten eine ideologische Strenggläubigkeit verkündet, die Dissens ausschließt. Eine offene rationale Diskussion darüber, wie der Planet am besten geschützt werden kann, ist heute so selten wie eine offene Debatte über die Existenz Gottes in der katholischen Kirche des elften Jahrhunderts. Es gibt sogar eine Bewegung, die bereits in Frankreich und Belgien verabschiedet wurde, um den sogenannten „ Ökozid “ zum Verbrechen zu machen.

Selbst langjährige Klimaforscher wie Roger Pielke, Judith Curry oder der Mitbegründer von Greenpeace, Patrick Moore, werden heute als Ketzer behandelt, welche die Orthodoxie der globalen Erwärmung in Frage stellen. Langjährige Aktivisten wie Michael Shellenberger und sogar der radikalere Propagandist Michael Moore, dessen jüngster Dokumentarfilm „Planet of Humans“ die ökologischen Auswirkungen und das Profitieren von „grüner“ Macht durch Unternehmen enthüllte, haben unter der Zensur auf sozialen Plattformen gelitten, weil sie die Sensibilität grüner Aktivisten und ihrer Milliardärskumpanen verletzt haben. Dies ist ein schlechter Weg, um ein komplexes wissenschaftliches Problem anzugehen, bei dem offene Untersuchungen und Debatten erforderlich sind, bemerkt Steve Koonin , Präsident Obamas Unterstaatssekretär für Energiewissenschaft.

Gibt es bessere und gerechtere Lösungen?

Was das Grüne-End-Spiel wahrscheinlich hervorbringen wird, ist eine zunehmend statische und hierarchische Gesellschaft, die möglicherweise durch einen wütenden Klassenkonflikt zwischen den Oligarchen und ihren Verbündeten einerseits und der bedrängten Mittel- und Arbeiterklasse andererseits auseinandergerissen wird. Wir können bereits Anzeichen dafür in Kalifornien sehen, wo lateinamerikanische und afroamerikanische Aktivisten es ablehnen, für die Fantasien der grünen Granden zu bezahlen. Ein Phänomen, das auch in Graswurzelbewegungen in Frankreich , in Niederlanden  und Norwegen. zu beobachten ist. Insbesondere die Auswirkungen auf die Entwicklungsländer könnten schwerwiegend sein und möglicherweise grausame Folgen haben.

Letztendlich müssen wir uns aber möglicherweise nicht zwischen einer besseren Wirtschaft und einer besseren Umwelt entscheiden. Zum Beispiel könnten wir die Substitution von Brennstoffen mit höheren Emissionen wie Kohle oder Diesel durch billiges und reichlich vorhandenes Erdgas fördern und nicht verbieten. Diese Strategie hat bereits bewiesen, dass sie die US-Emissionen erheblich reduziert und bei Kohlenstoffabscheidung und Speicherung oder Gasherstellung aus Erneuerbaren sogar noch wirksamer werden könnte. Wir könnten auch den aktuellen Trend zum „home office“ fördern, was nicht nur hervorragende Möglichkeiten zur Emissionsreduzierung, sondern auch zur Wiederbelebung des Familienlebens und zum Nutzen der Unternehmer bieten könnte .

Wir dürfen nicht zulassen, dass unser Leben durch die konzentrierte Macht einer nicht gewählten herrschenden Klasse eingeschränkt wird, deren Agenda eine Version der hierarchischen Gesellschaft der Feudalzeit wiederherstellen würde.

Joel Kotkin ist Presidential Fellow für Urban Futures an der Chapman University und Executive Director des Urban Reform Institute. Sein neues Buch The Coming of Neo-Feudalism ist jetzt bei Encounter erhältlich. Sie können ihm auf Twitter @joelkotkin folgen

Weitere Themen: RCE-Originale

https://www.realclearenergy.org/articles/2020/11/18/the_end_game_650132.html

Übersetzt durch Andreas Demmig




Der solare Retrograd-Zyklus

Hier folgt ein Auszug aus meinem Buch Not by Fire but by Ice, in welchem ich das Phänomen des solaren Retrograd-Zyklus‘ beschrieben habe:

Zuvor erwähnte ich die Kleine Eiszeit, die in den frühen 1600er Jahren begann. Was ich nicht erwähnt habe, ist, dass kleine Eiszeiten in Zyklen wiederkehren. Bahnbrechende Studien von Rhodes W. Fairbridge und John E. Sanders von der Columbia University zeigen, dass unser Klima – warm zu kalt, kalt zu warm – in einem verlässlichen, vorhersehbaren Zyklus schwankt und alle 178,73 (±0,27) Jahre viel kühler und feuchter wird.

Der Zyklus wird durch die rückläufige oder im Uhrzeigersinn erfolgende Bewegung der Sonne um das Massenzentrum – das Baryzentrum – des Sonnensystems verursacht. Dieser Zyklus, der als solarer retrograder Zyklus bezeichnet wird, beinhaltet Änderungen sowohl der Sonnenrotationsrate als auch der Sonnenleistung (die Sonnenleistung nimmt abrupt ab). Die rückläufige Bewegung selbst wird durch die Anziehungskraft der Planeten, vor allem von Saturn und Jupiter, erzeugt. Wenn sich Saturn und Jupiter beide im gleichen Quadranten des Sonnensystems befinden, üben sie eine größere Anziehungskraft auf die Sonne aus. Der Zyklus ist unbestreitbar. „Die Sonnenzyklizität muss jetzt als eine Tatsache des Lebens betrachtet werden“, sagten die beiden emeritierten Professoren. (Sowohl Fairbridge als auch Sanders waren emeritierte Professoren für Geologie an der Columbia University. Jeder von ihnen veröffentlichte Vieles in Geologie und Astronomie).

Die wahrscheinlich wichtigste Figur auf dem Gebiet des solaren Retrograd-Zyklus‘ war der verstorbene Dr. Theodor Landscheidt, Gründer des Schroeter-Instituts zur Erforschung von Zyklen der Sonnenaktivität in Waldmünchen, Deutschland. Dr. Landscheit begann 1976 mit der Veröffentlichung seiner Ergebnisse.

Auf der Erde löst der solare Retrograd-Zyklus Schwankungen der Intensität des Erdmagnetfeldes aus und führt zu abrupten – und extremen – Klimaänderungen. Die Veränderungen sind so stark, dass die Erde bei jedem zweiten Takt des Zyklus – etwa alle 360 Jahre – in eine Kleine Eiszeit eintaucht.

Dieser Zyklus wirkt sich auf unserem Planeten seit Hunderten von Millionen Jahren aus.

„Der 360-jährige Zyklus der Kleinen Eiszeit zeigt sich in der Morrison-Formation deutlich zurück im Jura“, sagt der Forschungsgeologe Jack Sauers. „Er korreliert mit dem Untergang des Römischen Reiches. Er korreliert mit dem Untergang des Sumerischen Reiches. Sie korreliert mit dem Untergang des Osmanischen Reiches (als Ghengis Kahn [Dschingis Khan?] aus dem Norden einfiel). Er korreliert mit dem Untergang des Griechischen Reiches. Und er fällt nun mit dem Zusammenbruch mehrerer moderner Reiche zusammen“.

Leider fand der letzte Takt des Zyklus‘ der Kleinen Eiszeit vor fast genau 360 Jahren statt. „Wenn dieses Muster anhält“, so Fairbridge und Sanders, „dann ist zu erwarten, dass eine vergleichbare Kleine Eiszeit … zu Beginn des einundzwanzigsten Jahrhunderts einsetzen wird“.

Aber Moment, es wird noch schlimmer. Multipliziert man den Zyklus der Kleinen Eiszeit mit vier, erhält man einen Zyklus von 1440 Jahren mit noch härteren Klimabedingungen. Über diesen Zyklus, der im grönländischen Eisschild entdeckt worden war, hat 1997 Paul Mayewski et al. berichtet. (Zeitschrift für geophysikalische Forschung, 30. November 1997)

Der 1440-Jahres-Zyklus bringt „dramatische und schnelle“ Klimaveränderungen (in einigen Gebieten trocken, in anderen feucht) und eine weltweite Ausdehnung der Gletscher mit sich. Der Zyklus scheint mit internen Oszillationen im Ozean-Klima-System zusammenzuhängen, sagt Mayewski (die ich dem Unterwasser-Vulkanismus zuschreibe, der durch Veränderungen der geomagnetischen Intensität ausgelöst wird, diese wiederum ausgelöst durch die Veränderungen der Sonne).

Was auch immer die Ursache ist, ein ähnlicher 1440-Jahres-Zyklus wurde in den Tiefseekernen des Nordatlantiks gefunden (Bond et al., Science, 14. November 1997). Unser Klima htte sich vor etwa 4200 Jahren plötzlich abgekühlt, sagte Bond. Ähnliche Rückgänge gab es vor etwa 2800 Jahren und vor 1400 Jahren, was bedeutet, dass der nächste Takt des 1400-Jahres-Zyklus fällig ist.

Als ob das noch nicht genug wäre – multipliziert man den 1440-jährigen Zyklus mit acht, erhält man 11.520, was verdächtig nahe am 11.500-jährigen Eiszeitzyklus liegt.

Hier sitzen wir also. Der nächste Takt des 179-jährigen solaren Retrograd-Zyklus‘ ist fällig. Der nächste Takt des 360-jährigen Zyklus‘ der Kleinen Eiszeit ist fällig. Der nächste Takt des 1440-jährigen Eiszeitzyklus‘ ist fällig. Der nächste Takt des 11.500-jährigen Eiszeitzyklus‘ ist fällig. Der nächste Takt des 100.000-jährigen Eiszeitzyklus‘ ist fällig. . . . und wir sind besorgt über die globale Erwärmung?

Es ist lächerlich, sich über die globale Erwärmung Sorgen zu machen.

Wir müssen uns auf eine Eiszeit vorbereiten. Wie Fairbridge und Sanders es ausdrückten: „Die Würfel der Natur halten wirklich etwas bereit. Wenn wir die historischen Vorgänge in den geologischen Aufzeichnungen so klar erkennen können, können wir diese Würfel vielleicht zu unseren Gunsten auswerten.

Link: https://www.iceagenow.info/the-solar-retrograde-cycle/

Übersetzt von Chris Frey EIKE




Helden-Doku im Ersten: ein Jahr mit FFF-Aktivisten

Am 18. November, spät im Anschluß an den Film „Ökozid“ und die zugehörige ‚Maischberger‘-Rederunde mit nur einem  Alibi-Kritiker sendete das erste eine Fridays-for-future-FFF-Doku über Aktivisten vor allem aus der Hauptstadt. Luisa Neubauer war natürlich häufiger auch zu sehen, der Focus lag aber auf jüngeren Gesichtern wie Clara Meyer. Clara hatte, Sie erinnern sich vielleicht, mit einem Rundzopf auf dem Kopf 2019 eine feurige Rede auf einem Aktionärstreffen gehalten bzw. vorgelesen.

Die Abiturientin ist im Film mit einem Freund zu sehen, wie sie in einer öffentlichen Diskussion in Frankfurt (O) dem FDP-Chef Christian Lindner Vorwürfe – nun ja – vorliest und sich dann schnell aus dem Staub machen will. Der konsternierte Politiker wäscht den beiden Teens sogleich den Kopf und mahnt eine demokratische Diskussion an, woraufhin Clara ihm zugleich hilflos und herablassend bedeutet, er solle bei irgendeinem Demonstriertag von FFF vorbeischauen und sich rechtfertigen. Die Zuschauer im Saal quittieren das kindische Verhalten der beiden mit Buhrufen. Clara und ihr Mitstreiter versuchen indes draußen vor dem Saal ihre Blamage mit triumphalen Gesten zu überspielen. Die Pointe: Zuvor, auf der Hinfahrt nach Frankfurt (im Zug natürlich), machen sich die beiden darüber lustig, daß Politiker wie Lindner FFF-Kindern aufgrund ihres Alters und fehlender Bildung die Kompetenz absprechen, beim Klima mitreden zu können. Nun ja, offenbar nicht ganz zu Unrecht, wie die beiden bewiesen.

Diese Szene war in der ganzen Sendung eine der wenigen, die die wahren Motive der Fridays-for-no-future-Bewegung offenbart. Zumindest ausdrücklich. Unterschwellig bekommt man im Film durchaus noch mehr Wahrheit mit, wenn man genau hinsieht. Trotz daß Deutschland, wie ein aktueller Edeka—Weihnachtsspot gerade betont, eine bunte Gesellschaft besitzt, sieht man im Film mit der Ausnahme eines Asiaten nur deutsche Bürgerkinder bei FFF. Der Kleidungsstil der Frauen (z.B. C.M.) und die Attitüden der Protagonisten lassen fast durchweg auf das obere Viertel der Gesellschaft schließen. Ein junger Mann mit blonden Haaren, der als Fotograf für die FFF-Demos in Berlin fungiert, kündigt beispielsweise an, sich aus der Bewegung zurückzuziehen und nun eine Weltreise anzutreten. Im Hintergrund sieht man eine riesige Weltkarte an der Wand, die teilweise mit Fotos verziert ist. Die Position der Schnappschüsse auf den Kontinenten läßt darauf schließen, daß der junge Fotograf dort schon war und –ähnlich wie Luisa Neubauer auf Instagram – mit seiner Globetrotterei ein wenig angeben will. Typisch für das Milieu der Großbürgerkinder: Reisen kann jeder HartzIV-Empfänger; aber die Elite fliegt laufend und Langstrecke.

Am Ende der Dokumentation kommt wieder etwas expliziter schlechte Stimmung auf, als die Protagonisten von ihrer Corona-Depression (gerne denglisch Depreschen ausgesprochen – man ist schließlich Weltbürger*in) erzählen, die auch daher rührt, daß mit der Viruspanik seitens der Regierung und der Medien die Klimapanik deutlich zurückgefahren wurde und die kameraaffinen Aktivisten wie Luisa N., die sich auch deutlich verärgert zeigt, nicht mehr die gewohnte Aufmerksamkeit erhalten.

Ein Junge, der erst 15 Jahre ist, zeigt in einer Aussage eine erstaunliche Reife, als er meint, durch seinen Aktivismus habe er andere Menschen nur noch als Klimaschädlinge wahrgenommen, und nun, in der Depressionsphase, habe er gemerkt, daß er damit etwas tat, was er eigentlich ablehne.

Ein weiterer Lichtblick am Ende des Films: Aktivistin Clara macht im Krankenhaus ein Praktikum als Hilfsschwester in der Intensivstation. Wenn es lange genug geht, kann ihr das nur guttun, wenn sie die Realität des Lebens außerhalb ihres behüteten wohlhabenden Elternhauses kennenlernt. Wer weiß, vielleicht studiert sie ja Medizin, oder noch besser: Sie macht eine Ausbildung zur Krankenschwester.