1

Die Temperaturen im Dezember 2020 und das deutsche Stromabschaltungsgesetz

Aber zunächst zur Temperaturentwicklung.Die globale Mitteltemperatur der satellitengestützten Messungen ging im Dezember stark zurück. Die Abweichung vom 30-jährigen Mittel (1981 bis 2010) betrug nur noch 0,27 Grad Celsius (November 0,53 Grad Celsius). 2020 blieb allerdings das zweitwärmste Jahr seit 1979 (hinter 2016). La Nina wird sich in den nächsten Monaten noch stärker bemerkbar machen, so dass im neuen Jahr 2021 mit einem weiteren Temperaturrückgang zu rechnen ist.

Trotz Rückgang der CO2– Emissionen steigt die Konzentration in der Atmosphäre

Die weltweiten CO2-Emissionen gingen in 2020 um 6,7 % zurück, und zwar von 36,4 Milliarden Tonnen CO2 auf 34,1 Milliarden Tonnen. Die Emissionen gingen Coronamaßnahmen-bedingt in den USA um 12,1 %, in Europa um 11,2 % zurück. In China blieben die Emissionen aus Kohlekraftwerken unverändert ; die Gesamtemissionen gingen nur um 1,7 % zurück. Der Anteil Chinas an der Gesamtemission der Welt stieg demzufolge auf 29,3 %. Fast jede dritte Tonne CO2 stammt nunmehr aus China. Der Anteil wird weiter steigen, da China nach dem Pariser Abkommen für sich den Status eines Entwicklungslandes beansprucht und demzufolge bis 2030 die Emissionen an CO2 weiter ansteigen lassen darf. Allein der Anstieg in diesem Jahrzehnt bis 2030 entspricht der Gesamtemission von Europa.

Die Verteilung des Rückgangs der CO2-Emissionen zeigt die Grafik des Global carbon projekts. Sie zeigt eindrucksvoll, dass es seit Mai keinen Rückgang der CO2-Emissionen in China mehr gegeben hat.


Und warum gehen die CO2 Konzentrationen nicht zurück ?

Trotz des Rückgangs der Emissionen gehen die Konzentrationen in der Luft nicht etwa zurück, sondern steigen weiter. Im Jahre 2019 hatten wir eine CO2– Konzentration von 409,5 ppm im Jahresmittel und 2020 von 412 ppm.

In 2020 wurden nur noch 34 Milliarden Tonnen CO2 emittiert. Zusammen mit den Landnutzungsänderungen ergeben sich rund 40 Milliarden Tonnen CO2. Mehr als die Hälfte wurden durch die Pflanzen und die Meere aufgenommen, so dass 19 Milliarden Tonnen in der Luft verblieben. Das entspricht einem Anstieg von 2,5 ppm in 2020 gegenüber 2019. In 2018 war der Anstieg 1,9 ppm, in 2019 betrug er 2,8 ppm. Die Messungen von Mauna Loa zeigen die Entwicklung sehr anschaulich. Die rote Kurve zeigt die jahreszeitlichen Schwankungen. Bei der schwarzen Linie sind die jahreszeitlichen Schwankungen herausgemittelt.

Die Schwankungen entstehen durch die Vegationsunterschiede von Sommer zu Winter in der Nordhemisphäre und der unterschiedlichen Aufnahme des CO2 von Sommer zu Winter durch die größeren Ozeanflächen der Südhemisphäre. Die CO2-Zunahme würde langfristig erst gestoppt, wenn die Emissionen um die obengenannten 19 Milliarden Tonnen vermindert würden. Eine Emissionsminderung um 40 Milliarden Tonnen auf Null ist nicht erforderlich,denn die Aufnahme von etwa 21 Milliarden Tonnen CO2 durch Pflanzen und Meere richtet sich allein nach der Gesamtkonzentration von 412 ppm und wird sich daher nach einer Emissionssenkung nicht wesentlich ändern.

Das deutsche „steuerbare-Verbrauchseinrichtungen-Gesetz“ oder Stromabschaltungsgesetz

Wenn man sich die oben beschriebenen globalen CO2-Emissionsentwicklungen vergegenwärtigt und betrachtet die völlig aus den Fugen geratenen europäischen und deutschen Massnahmen zur Energiewende, so wird man sprachlos.

Das neueste Produkt der Energiewende ist das Steuerbare-Verbrauchseinrichtungen Gesetz. Die Politik hat sich einreden lassen, dass der Umstieg auf die Elektromobilität aus Klimaschutzgründen dringend geboten sei (wer sich vom Gegenteil überzeugen will, sollte dies in unserem Buch „Unerwünschte Wahrheiten“ nachlesen). Das Niederspannungsnetz, das unsere Häuser und Wohnungen versorgt, kommt aber mit steigender Zahl an Ladestationen für E-Autos an seine Kapazitätsgrenze. Das gleiche Problem einer Überlastung der Netze ensteht auch beim Umstieg von Gas-und Ölheizungen auf elektrisch betriebene Wärmepumpen. Beides zusammen kann den Strombedarf und den Anschlusswert einer Wohnung oder eines Hauses schnell verdoppeln bis verdreifachen und die Niederspannungnetze zum Zusammenbruch führen, wenn die E-Auto -Besitzer nach Hause kommen und ihr E-Auto aufladen wollen oder wenn alle Wärmepumpenbesitzer gleichzeitig ihre Wohnung mit Strom heizen wollen.

Der Gesetzentwurf des Bundesministers für Wirtschaft schreibt nun vor, dass bei einem Anschluss einer Ladestation oder einer Wärmepumpe der Netzbetreiber das Recht hat, den Strom für zwei Stunden abzuschalten. Wir kennen das aus Entwicklungsländern, in denen reihum der Strom abgeschaltet wird. Dort nennt man es „load shedding“ ( Lastabwurf oder Stromabschaltung). Im deutschen Gesetzentwurf nennt man dies schönfärberisch Spitzenglättung:

„Die Einführung der Spitzenglättung ist ein erster Schritt, um die Flexibilität in den Verteilernetzen zu stärken.“ In der Begründung heisst es, „das Gesetz ist erforderlich, um Flexibilität in den Verteilernetzen zu stärken und den bevorstehenden Hochlauf der Elektromobilität zu unterstützen“.

Wir können uns schon vorstellen, wie das Gesetz als Vorkehrung bei tagelangen Dunkelflauten weiterentwickelt wird. Denn selbstverständlich wird der Stromkunde auch verpflichtet, über smart meter seine Stromverbrauchsdaten durch den Netzbetreiber rund um die Uhr per internet überwachen zu lassen. Eine beeindruckende Kritik dieses Gesetzentwurfes gibt es hier durch Dr. Humpich.
Nachdenklich stimmt, dass kaum eine deutsche Zeitung über diesen geplanten Eingriff in die autonomen Entscheidungen der Bürger über ihre Energieversorgung berichtet hat. Wird nicht berichtet, weil es vielleicht eher ein Zeichen für die bevorstehende Strom-Mangel-Wirtschaft ist ? Oder ist es gar eine zu abschreckende Nachricht für alle, die beabsichtigen, sich ein E-Auto anzuschaffen ?
Es ist ein Offenbarungseid der Energiewende und der Einstieg in die planwirtschaftliche Zuteilung von Strom und Energie. Und darüber berichtet man ungern, wenn man die bejubelte Energiewende für alternativlos hält.




Wind und Sonne verlieren an Anteilen zum Energiemix

Amüsant ist, dass die gasbefeuerte Stromerzeugung, ein fossiler Brennstoff ohne Subvention, immer noch schneller wächst als Wind und Sonne. Wind und Sonne sind weit davon entfernt, im amerikanischen Stromkapazitätsmix an fossilen Brennstoffen zu verlieren.

Das letzte Jahr, für das wir umfassende Übersichtsdaten von der US Energy Information Administration haben, ist 2018. Dies war ein gutes Jahr, denn es gab einen kleinen Ansturm für den Ausbau erneuerbarer Energien, bevor die Subventionen wie geplant eingestellt wurden. [Aufgrund der politischen Änderungen, wird von den Demokraten wieder verstärkt auf EE gedrängt]

Schauen wir uns zunächst die Basiszahlen der sogenannten Stromerzeugungskapazität an, die in Megawatt oder kurz MW gemessen wird. Ein großes [fossiles] Kraftwerk hat typischerweise eine Nennkapazität von rund 600 MW.

In 2018 wurden Gaskraftwerke mit rund 19.000 MW neu gebaut, bei Windkraft 9.000 MW t und bei Solarstrom 7.000 gebaut. (Kleinere private PV Anlagen – „hinter dem Zähler“, sind nicht enthalten.)

Es wurde also mehr Kapazität an zuverlässigen  Gaskraftwerken, als die zusammengezählten Wind- und Solarkraftwerke ergeben. Der Anteil von Wind und Sonne an der amerikanischen Erzeugungskapazität ging tatsächlich zurück, die erneuerbaren Energien verloren an Boden.

Dies ist jedoch nur die [von Befürwortern der Erneuerbaren gerne genannte] Spitze des Unterschieds. Bei Wind- und Sonne werden die Nennleistungen nur selten und unbestimmbar geliefert,  das kann nur unter idealen Bedingungen aus Wind und Sonne in Strom umgewandelt werden.

Für Sonnenenergie stellen sich diese idealen Bedingungen nur bei klarem Himmel mit der Sonne im Zenit und ohne Schnee oder Schmutz usw. auf dem Kollektor ein. Bei Wind benötigt es einen anhaltenden Luftstrom von mehr als 48 km/h. Beachten Sie, dass diese Bedingungen nicht allzu oft auftreten.

Aus diesem Grund werden Wind und Sonne als „intermittierend“ bezeichnet, da sie häufig weit weniger Strom produzieren als auf dem Typenschild angegeben,  oft wird überhaupt kein Strom produziert, wenn der „Brennstoff“ fehlt. Im Gegensatz dazu läuft das Gaskraftwerk, bis auf geringe,  planbare Wartungszeiten rund um die Uhr – wenn es gewünscht wird.

Der Unterschied zwischen der tatsächlichen Stromerzeugung und dem Typenschild wird als „Kapazitätsfaktor“ [CF] bezeichnet. Die typischen Kapazitätsfaktoren für verschiedene Erzeugungstechnologien sind ziemlich bekannt, obwohl sie von Standort zu Standort variieren können.

Um gegenüber erneuerbaren Energien großzügig zu sein, nehmen wir an, dass Solar einen CF von 15% und Wind einen CF von 40% hat. (In der Realität meist niedriger) Gaskraftwerke erreichen leicht 80% und mehr. Die Anwendung dieser Faktoren auf unsere Ernergieerzeuger gibt den folgenden Vergleich:

  • Gas: 19.000 x 0,8 = 15.200 MW
  • Wind: 9.000 x 0,4 = 3.600 MW
  • Solar: 7.000 x 0,15 = 1.050 MW

Die neu gebauten Gaskraftwerke liefern also rund dreimal so viel Strom wie die Erneuerbaren – und das auch zuverlässig planbar.

Anders ausgedrückt, Amerika hat damit seine Kapazität der Stromerzeugung aus fossilem Gasbrennstoff um das Dreifache gegenüber erneuerbaren Energien erhöht. Offensichtlich fallen erneuerbare Energien in dem was sie liefern,  weit hinter fossile Brennstoffe zurück.

Aber 2018 fällt nicht aus dem Rahmen. In den sechs Jahren 2013 bis 2018 hat die nutzbare Erzeugungskapazität, die mit gasbefeuerten Kraftwerken hinzugefügt wurde, in jedem Fall die von Wind plus Sonne überhaupt gelieferten Strommengen überschritten. Geht es um die tatsächlich gelieferten Strommengen, verlieren Erneuerbare Energien immer den Vergleich.

Die Befürworter von Strom aus Erneuerbaren fordern nun riesige Batteriesysteme im Netzmaßstab, die eines Tages unseren Saft liefern sollen, wenn die intermittierenden erneuerbaren Energien dies nicht tun. Die im Jahr 2018 hinzugefügte Gesamtkapazität betrug rund 200 MW, was im Grunde genommen fast nichts zum Bedarf beiträgt. Gleiches gilt für die Vorjahre.

Zum jetzigen Zeitpunkt sind Batterien nur ein aus der Not heraus geborenes, kostenintensives Zusatzteil, das zur Aufrechterhaltung der Netzstabilität verwendet wird. Ironischerweise ist dieses Bedürfnis aufgrund der [von den Befürwortern unvorhergesehenen] Unregelmäßigkeit der Wind- und Sonnenstrom-Erzeugung entstanden. Batterien sind keine Stromerzeuger, sondern müssen aus Strom-Überschüssen erstmal  aufgeladen werden, bevor sie für eine begrenzte Zeit diesen zurück liefern können – natürlich abzüglich der Lade- Entladeverluste.

Amerika hat damit keine Chance auf eine gesicherte Stromerzeugung aus Wind und Sonne zur Stromerzeugung; Erneuerbaren Energien sind damit nur ein Alibi für mehr und mehr Subventionen, ohne fossile Stromerzeugung keine Industrie und kein Wohlstand. Das würde man nie erfahren, wenn man der Presse und den Politikern zuhört.

https://wattsupwiththat.com/2020/12/28/wind-and-solar-are-losing-ground-to-gas/

Übersetzung (mit technischer Korrektur) durch Andreas Demmig

***

Zum Thema – hier ein Klage von Befürwortern der Erneuerbaren [vor den letzten Wahlen in USA]

Die Trump-Administration unterdrückt erneuerbare Energien auf öffentlichen Grundstücken und Gewässern

Von Nicole Gentile und Kate Kelly 25. Juni 2020, 00:01 Uhr

Während der Coronavirus-Pandemie rückt die mangelnde Unterstützung und Behinderung der Trump-Regierung für die Branche der erneuerbaren Energien in den Fokus.

… Präsident Trump hat jedoch unbegründete Behauptungen aufgestellt, dass Windkraftanlagen Krebs verursachen und die Immobilienwerte drücken. 2…   Trumps Abneigung gegen die Entwicklung erneuerbarer Energien spiegelt sich in der Politik seiner Regierung wider – von der Einführung von Zöllen bis zur Ablehnung von Steuergutschriften -, die den Sektor Arbeitsplätze gekostet, das Wachstum gebremst und die Fähigkeit des Landes behindert hat, den Klimawandel durch reduzierte Energie- Emissionen zu bekämpfen.

Inmitten der globalen Pandemie, in der die Branche für erneuerbare Energien erhebliche Arbeitsplatzverluste verzeichnet, zeigt die Trump-Regierung weiterhin zu gleichen Teilen Vernachlässigung und Feindseligkeit gegenüber Wind- und Solarunternehmen und ihren Arbeitnehmern. Nirgendwo ist diese Dynamik so offensichtlich wie im US-Innenministerium, das versucht hat, einer bereits in Schwierigkeiten geratenen Öl- und Gasindustrie während der Krise rasche Hilfe zu gewähren, aber keine ähnlichen Aussagen für die Industrie erneuerbarer Energien gemacht hat, die in derselben Öffentlichkeit tätig . Im Gegenteil, die Behörde hat Solar- und Windentwicklern große, rückwirkende Nachzahlungen [für nicht erfüllte Lieferverpflichtungen] in Rechnungen gestellt, zu einer Zeit, in der sich die Branche diese am wenigsten leisten kann.

Diese Analyse des Center for American Progress bietet neue Informationen darüber, wie die Regierung vor und während der Pandemie die Weiterentwicklung verantwortungsbewusster Wind- und Solarenergieprojekte auf öffentlichen Grundstücken und Gewässern behindert und die von der Obama-Regierung erzeugte Dynamik verschleudert hat. …. die für die Förderung erneuerbarer Energien auf öffentlichen Flächen und Gewässern von entscheidender Bedeutung sind. Dabei stellte sie fest, dass die Trump-Regierung weniger Projekte für erneuerbare Energien genehmigt hat als die Obama-Regierung zum gleichen Zeitpunkt während ihrer ersten Amtszeit….

https://www.americanprogress.org/issues/green/reports/2020/06/25/486852/trump-administration-stifling-renewable-energy-public-lands-waters/

 

EWE und Enercon: Wind-Joint-Venture nimmt Form an

Von Dr. Stefan Preiß -23. Dezember 2020

Die Aloys Wobben Stiftung, Alleingesellschafterin des Auricher Windenergieanlagenherstellers Enercon, und der Oldenburger Energiedienstleister EWE sind der Gründung eines Gemeinschaftsunternehmens zum Ausbau der Windenergie an Land einen wichtigen Schritt näher gekommen. …

… Das neue Unternehmen wird den Angaben zufolge über mehr als 2.300 MW installierte Leistung im Bestand und eine Projektpipeline von über 9.400 MW verfügen. Damit sei man Marktführer im Bereich Onshore Wind in Deutschland. Ziel ist es, mehr als 200 MW Zubau jährlich zu realisieren und den Bestand auf bis zu 5 GW im Jahr 2030 zu steigern.

https://www.euwid-energie.de/ewe-und-enercon-wind-joint-venture-nimmt-form-an/




Europa ist vorgestern wohl gerade an einem Blackout vorbeigeschrammt

Das europäische Stromnetz ist ein meist verlässliches, aber auch fragiles System. Es bringt sich diesbezüglich hin und wieder in Erinnerung.

Freitag, 8. Januar 2021, 13:04:55 Uhr (MEZ)

Zu diesem Zeitpunkt kam es im europäischen Höchstspannungsnetz (ENTSO-E) zu einem deutlichen Frequenzeinbruch. Innerhalb von 14 Sekunden erfolgte ein Frequenzabfall von 50,027 auf 49,742 Hertz.

Damit wurde der Regelbereich mit einer Untergrenze von 49,8 Hertz verlassen, eine ernsthafte Gefahr bestand noch nicht. Die in diesem Fall vorgesehenen Maßnahmen – Einsatz positiver Regelenergie, Stopp des eventuellen Pumpbetriebes in Pumpspeicherwerken – reichten aus, nach wenigen Sekunden die Frequenz wieder über die 49,8 Hertz nach oben zu bringen. In folgendem Bild wurde der oben gelb angegebene Bereich nur kurzzeitig nach links überschritten, dennoch war es der stärkste Frequenzeinbruch seit November 2006 (der damals zu einem großflächigen Blackout in Westeuropa führte):

Zunächst gab es Unklarheit zur örtlichen Herkunft der Störung, die sich aber bald dem Versorgungsgebiet der Transelectrica im Nordwesten Rumäniens, auf Transsilvanien und Siebenbürgen, zuordnen ließ. Zu den Ursachen gibt es noch keine Erkenntnisse, eher offene Fragen: Ein Kraftwerksausfall, selbst mehrerer Blöcke, hätte einen solchen Einbruch kaum verursachen können. Missverständnisse im Handelsgeschehen können auch ausgeschlossen werden, denn der Zeitpunkt lag deutlich nach der vollen Stunde. Eine großflächige Abschaltung des regionalen Netzes in Rumänien wiederum hätte die Frequenz nach oben und nicht nach unten abweichen lassen. Gesicherte Informationen muss man abwarten.

Bei deutschen Netz- und Kraftwerksbetreibern liefen entsprechende Meldungen aus der Leittechnik auf. In Frankreich, das zu diesem Zeitpunkt viel Strom importierte, wurden Verbraucher aufgefordert, ihren Bezug zu verringern.

Gridradar.net äußerte sich zu begünstigenden Faktoren. Zum einen ist derzeit die Last pandemiebedingt geringer, was zur Folge hat, dass weniger konventionelle Kraftwerke am Netz sind. Dadurch sinkt der Effekt der rotierenden Massen, die im Netzverbund die Mikroschwankungen wegbügeln und die in einem solchen Störfall die erste Verteidigungslinie bilden. Ein 500-Megawatt-Braunkohleblock bringt zum Beispiel mit seinem Turbosatz 170 Tonnen Schwungmasse – vom Turbinen-Hochdruckteil bis zum Generator-Induktor – auf die Waage. Diese Masse an Stahl und Kupfer und einer Drehzahl von 3.000 Umdrehungen pro Minute stellt eine erhebliche Schwungmasse dar. Gekoppelt über das Netz sind also mehrere tausend Tonnen Massenträgheit mit dem entsprechenden Drehmoment wirksam.Mit der sinkenden Zahl in Betrieb befindlicher Turbo-Generator-Sätze geht nicht nur die Massenträgheit, sondern auch die Menge der verfügbaren Primär- und Sekundärregeleistung zurück, die nur von konventionellen Kraft- und Pumpspeicherwerken bereit gestellt werden kann. Die innerhalb weniger Sekunden erforderliche Primärregelleistung könnte auch durch Großbatterien erbracht werden, dies jedoch zu erheblichen Kosten und gegenwärtig sind sie nicht in nennenswerter Zahl verfügbar.

Was leisteten die massenhaft installierten Wind- und Solaranlagen in Deutschland im fraglichen Zeitraum? Bei einer Netzlast von 66,26 Gigawatt (GW) um 13 Uhr lieferten sie gemäß Einspeisevorrang des EEG alles, was sie konnten: 4,34 GW Windstrom (6,5 Prozent des Bedarfs) und 2,12 GW Solarstrom (3,2 Prozent)1. Da sie in keiner Form an der Netzregelung und Netzdienstleistungen beteiligt sind, waren sie bezüglich der Störung weder betroffen noch beteiligt. Sie waren, um eine populäre Kanzlerinnenformulierung zu gebrauchen, „nicht hilfreich“. Eine frequenzstabilisierende Wirkung durch die Massenträgheit der Rotoren der Windkraftanlagen gibt es nicht, da die Netzkopplung elektrisch über Umrichter erfolgt. Der erzeugte Gleichstrom wird in eine digitalisierte Sinuskurve überführt und als Drehstrom abgeführt, bei zu starker Abweichung von der Netzfrequenz schalten sich die Anlagen ab.

Nun soll ausgerechnet der massenhafte Ausbau dieser Technologien das künftige Stromversorgungssystem dominieren. Die Fragen der rotierenden Massen, der Frequenzhaltung und der Spannungsregelung wird im Zusammenhang mit dem fortschreitenden Zubau volatiler Einspeiser schon lange in der Branche diskutiert. Nur im politischen Raum mit der ausschließlich CO2-zentrierten Sicht auf die Energieversorgung nicht. Schon längst hätte man den „Erneuerbaren“ Systemverantwortung übertragen müssen.

Unterdessen steigt die Anfälligkeit des Systems durch immer höhere Komplexität, durch die erhöhte Einspeisung von Strom in die unteren Spannungsebenen (dezentrale Erzeugung, vor allem regenerativ), durch verstärkten Handel, durch stärkere Erzeugungsschwankungen und Verringerung der gesicherten Einspeisung.
Einige Störungen aus jüngerer Vergangenheit zeigen verschiedene Ursachen. Bedenklich dabei ist, dass einige Ereignisse nicht oder nicht vollständig aufgeklärt werden konnten:

14. Dezember 2018: Abschaltungen von Teilen der deutschen Aluminiumindustrie („Prognosefehler bei den erneuerbaren Energien aufgrund einer komplexen Wetterlage“).

10. Januar 2019: Frequenzabfall auf 49,8 Hz – zwei gestörte Kraftwerke in Frankreich, in Verbindung mit einer defekten Messstelle im Netz. Dennoch hätte es diesen Einbruch nicht geben dürfen

24. Januar 2019: Überfrequenz von fast 50,2 Hz, Ursache unbekannt, evtl. hat sich das Netz „aufgeschaukelt“.

3. April 2019: Frequenzabfall 49,84 Hz – Ursache unklar

20. Mai 2019 „Alarmstufe rot“ bei Swissgrid

6., 12. und 25. Juni 2019: bis zu 7 GW Unterdeckung im deutschen Netz – Auswirkung des „Mischpreisverfahrens“ – Spotmarktpreis höher als Regelenergiepreis, Bilanzkreisverantwortliche haben gepokert. Inzwischen sind die Regularien geändert.

7. Juni 2019 Datenpanne bei der europäischen Strombörse EPEX, dadurch Entkopplung des europäischen Marktes. Ursache war vermutlich ein „korruptes“ Datenpaket.

8. Januar 2021 Unterfrequenz 49,742 Hz ?

(Aufzählung nicht vollständig)

Wie man sieht, können die Störungsursachen vielfältig sein und unglückliche Kombinationen verschiedener Ursachen unabsehbare Folgen haben. Dass die richtunggebende Politik dies wahrgenommen hat, ist nicht zu erkennen.

Daten aus: https://energy-charts.info/

Der Beitrag erschien zuerst bei TE hier




Klimaschau 6 – die Tagesschau von Sebastian Lüning

Keine Vorschau zu sehen? HIER KLICKEN




UK: Keinerlei Erwärmung mehr seit dem Jahr 2006

Quelle

Dies ist jedoch nicht mehr als ein Versuch, die höchst unbequeme Wahrheit zu vertuschen, nämlich dass die Erwärmung im Jahr 2006 aufgehört hat. Der 10-Jahres-Durchschnitt zeigt dies deutlich.
Wir können uns ein klareres Bild davon machen, wenn wir den Zeitraum seit 1991 heranzoomen.

Die 10-Jahres-Durchschnitte stiegen in den 1990er und frühen 2000er Jahren langsam an. Seitdem sind sie jedoch allmählich zurückgegangen und haben ihren Höhepunkt im Zeitraum von 1997 bis 2006 erreicht:

Das alles führt uns zu der Frage: was ist das „normale“ Klima für England?

Das Met Office würde sagen, dass dies der 30-Jahres-Durchschnitt ist, aber das ist nur ein künstliches Konstrukt aus Bequemlichkeit. Derzeit liegt der 10-Jahres-Durchschnitt der MEZ bei 10,40C, was kaum über dem Durchschnitt von 1991-2020 von 10,25C liegt. Die Differenz liegt deutlich innerhalb einer natürlichen Schwankungsbreite.

Immerhin stiegen die Jahrestemperaturen von 8,86C im Jahr 2010 auf 10,72C im darauffolgenden Jahr, rein aufgrund von Schwankungen des „Wetters“.

Die Grafik unten mit den höchsten und niedrigsten monatlichen Durchschnittstemperaturen für jeden Monat seit 1991 zeigt, wie variabel das englische Wetter sein kann:

Würden die „wärmsten“ Monate alle im gleichen Jahr auftreten, läge der Jahresmittelwert bei 12,8°C. Und wenn das Gleiche für die „kältesten“ Monate gelten würde, läge der Jahresmittelwert bei 7,3°C.

Die nächste Grafik zeigt diesen Bereich, wenn er mit den tatsächlichen Jahrestemperaturen überlagert wird:

Obwohl eine solche Eventualität statistisch äußerst unwahrscheinlich sein mag, sehe ich meteorologisch keinen Grund, warum sie nicht möglich sein sollte.

Zusammenfassend lässt sich sagen, dass die Auffassung, es gäbe eine „normale“ Jahrestemperatur oder gar ein „normales“ Klima in England, unwissenschaftlich ist. In der Tat ist sie nicht wissenschaftlicher als die Behauptung, es gäbe hier „normales“ Wetter.

Was das englische „Klima“ immer noch dominiert, ist die Variabilität des Wetters, von Tag zu Tag, von Monat zu Monat und sogar von Jahr zu Jahr. Alle zugrundeliegenden Klimatrends gehen im Rauschen unter.

[Hervorhebung vom Übersetzer]

Laut CET stiegen die Jahrestemperaturen zwischen den 1940er und 2000er Jahren um etwa 0,7 °C. Aber wie viel davon hing mit den zugrunde liegenden klimatischen Bedingungen zusammen, und wie viel war wetterbedingt?

Vielleicht ist der beste Anhaltspunkt, den wir haben, der Vergleich der wärmsten Jahre. Während 2014 mit 10,95°C das wärmste Jahr war, lag das Jahr 1949 mit 10,65°C nicht weit dahinter. Gehen wir weiter zurück, sehen wir Jahre wie 1733, 1779 und 1834, die alle über 10,4°C lagen.

Dies deutet darauf hin, dass der größte Teil der Erwärmung in den letzten drei Jahrzehnten mit dem Wetter und nicht mit dem Klimawandel zusammenhängt.

Quelle

Link: https://wattsupwiththat.com/2021/01/03/no-warming-in-uk-since-2006/

Übersetzt von Chris Frey EIKE

 




Grüne Energie sollte alle durch sie verursachten Kosten selbst tragen

Jetzt, da immer mehr Strom aus Wind und Sonne kommt, macht es viel Ärger, wenn diese Anlagen nicht funktionieren oder nur Bruchteile der [optimistischen] Nennleistung in Strom umwandeln können, wie die Befürworter uns immer gerne vorrechnen: „…versorgt so viele Haushalte …“.

[das Verhältnis von tatsächlicher gelieferter Energie / Nenn-Anschlussleistung (beides aufs Jahr bezogen) wird Kapazitätsfaktor oder load factor genannt. Das ist immer weniger als 1]

Im Januar 2017 hatte Belgien die Aussicht auf Stromausfälle, als es eine satte neuntägige Ruhe und Langeweile erlebte. Um Störungen zu vermeiden, musste der Netzversorger sich bemühen, genügend Strom liefern zu können, um Störungen [der Bürokratie in Brüssel] zu vermeiden. Erneuerbare Quellen konnten nur 9% ihrer Nennleistung in das Netz des Landes liefern.

Auch ohne Dunkelflaute – im Allgemeinen ein europäisches Phänomen –bereiteten  erneuerbare Energiesysteme auch in weiter entfernten Ländern Probleme. Kalifornien verärgerte seine Einwohner kürzlich durch Stromabschaltungen [Lastabschaltungen], nachdem ein Waldbrand zu Beschädigungen der Schaltanlagen geführt hatte.

Der Umgang mit Intermittenz  [hier:  chaotische, unplanbare Stromlieferung] ist eine der Herausforderungen wetterabhängiger Stromerzeugung. Es geht nicht nur darum, für das zuverlässige back-up System zu bezahlen, das im Hintergrund ständig bereit gehalten werden muss, um im Bedarfsfall möglichst blitzartig einzuspringen, damit die [empfindlichen] Verbraucher  keine Unterbrechung erleiden, wenn die Natur sich weigert, den Energierohstoff zu liefern. Manchmal können glühende Sonne und böige Winde das gegenteilige Problem verursachen: zu viel Strom wenn gerade wenig gebraucht wird [so wie am Wochenende]. Dann müssen die Erneuerbaren trotzdem bezahlt werden, obwohl sie nicht gebraucht und – wenn möglich, abgeschaltet werden, um eine Überlastung des Netzwerks zu verhindern.

Es gibt jedoch eine melancholische Konstante in all diesen Ausgleichs- und Sicherungsaktivitäten: Die Verursachung von zusätzlichen Systemkosten, die ausschließlich bei dieser Art von einspeisenden Energiequellen anfallen.

Ein kürzlich veröffentlichter Bericht des britischen Ministerium für Wirtschaft, Energie und Industriestrategie (Department for Business, Energy and Industrial Strategy BEIS) zeigt, wie die Berücksichtigung dieser Faktoren die relative Wirtschaftlichkeit verschiedener kohlenstoffarmer Energiequellen verändern können.

Ein Großteil der jüngsten Geschichte unterstellte sinkende Kosten für erneuerbare Energien. Zum Beispiel schätzte die britische Regierung 2013, dass eine Offshore-Windparkeröffnung im Jahr 2025 Strom für 140 GBP pro Megawattstunde (MWh) erzeugen würde. Es wird jetzt prognostiziert, dass dies für nur 54 GBP / MWh erreicht werden könnte.

Der Bericht geht davon aus, dass sich dieser Trend fortsetzt. Schätzungen zufolge könnte ein Offshore-Windpark bis 2035 im Durchschnitt nur 41 GBP / MWh Strom produzieren. und großflächige Solar nur £ 33. In diesen Zahlen sind diese Systemkosten jedoch nicht enthalten, hauptsächlich weil der Solar- oder Windentwickler sie nicht tragen muss. Gegenwärtig sind diese einfach über das gesamte Netzwerk verteilt.

[[ Einschub aus dem Bericht

Anmerkung:  auf Seite 10 des o.g. Berichts.pdf, wird für onshore-Wind ein Kapazitätsfaktor von 35%, konstant über 25 Jahre angenommen

Anmerkung:  auf Seite 11 des o.g. Berichts.pdf, wird für offshore-Wind mit steigender Größe auch ein steigender load factor angenommen

Anmerkung:  auf Seite 11 des o.g. Berichts.pdf, werden für offshore-Wind trotz steigender Größe fallende Kosten für Construction und Operation & Maintenance  angenommen. Das und die Lebensdauer halte ich für Anlagen im Seewasser äußerst unrealistisch. Vergleichen Sie mal die Zahlen unter dem Jahr 2040 mit den onshore Werten. Der Übersetzer]]

 

Wenn Sie diese Kosten,  wie im Beis-Bericht, der sie generierenden Quelle zuordnen, die sie verursacht hat, ändert sich das Bild. Nehmen Sie das Jahr 2035 mit der Schätzung von 41 GBP / MWh für Offshore-Wind. Beis geht davon aus, dass der Gesamtpreis angesichts der geschätzten Systemkosten näher bei 59 bis 79 GBP liegt (43 bis 92 Prozent höher). Für Solar werden 33 GBP / MWh zu 45 bis 61 GBP. In jedem Fall hängt es davon ab, wieviel Leistung [Gigawatt / Megawatt] an erneuerbare Energien ans Netz angeschaltet sind / einspeisen, ohne jedoch die genauen Annahmen darzulegen, die im Bericht verwendet werden.

Im Wesentlichen steigen die Grenzkosten für jede zusätzliche erneuerbare Energiequelle im System mit zunehmender Nutzung / Einspeisung weiter an. Dies untergräbt nicht nur ihren Vorteil gegenüber anderen Alternativen wie der nuklearen und [der im großen Maßstab] noch nicht erprobten Kohlenstoffabscheidung und -speicherung (CCS). Es deutet darauf hin, dass 100 Prozent erneuerbare Energien zu teuer sein werden.

Könnten diese Kosten gesenkt werden? Einige argumentieren, dass es durch Hilfsmittel wie den Bau von mehr Verbindungsleitungen zu / mit anderen Ländern möglich sein könnte, bei Bedarf Strom länderübergreifend auszugleichen oder Elektrofahrzeuge als verteilte Batteriespeicherung zu verwenden. Die Idee ist, dass wenn Sie Ihr Auto nachts anschließen, sie Batteriestrom zurück ins Netz speisen. Obwohl dies technisch möglich ist, würde es eine Infrastruktur und eine weitaus größere Flotte von Elektrofahrzeugen erfordern.

[Zusätzliche Zyklenzahl geht auf die Lebensdauer der Batterie. Die Entladung muss überwacht werden. Was machen Sie, wenn Sie ihr Batterieauto morgens für den Weg zur Arbeit brauchen?]

All diese Innovationen werden jedoch immer noch zusätzliches Geld kosten, um das Problem der Intermittenz zu mildern. Wenn diese Kosten nicht für jedes Solar-, Wind- oder CCS-Projekt berechnet werden, besteht das Risiko, dass wir ein teureres dekarbonisiertes System erhalten, als wir benötigen. [Alle Industrieländer hatten vor den Hype der Erneuerbaren eine zuverlässige und preiswerte Energieversorgung – die bislang aber nicht komplett abgeschaltet werden kann]

Ein einfacher Vorschlag des Ökonomen Dieter Helm besteht darin, alle Betreiber dazu zu bringen, die Systemkosten zu tragen, für die sie verantwortlich sind. Anstatt den Betreibern erneuerbarer Energien die kostenlose Möglichkeit zu geben, den von ihnen erzeugten Strom wie derzeit abgenommen zu bekommen, wenn Wind oder die Sonne gerade Lust dazu haben –sollten die sich selbst Energielieferanten nennenden Betreiber der Anlagen, dazu vertraglich verpflichtet werden, zu bestimmten Tageszeiten bestimmte Strommengen zu liefern, mit Strafen, wenn sie zu viel oder zu wenig liefern[gibt es zum Teil in USA]. Das würde sie zu anderen Strom Lieferanten  gleichberechtigter machen.

Eine solche Reform könnte etwas näher die tatsächlichen Kosten erneuerbarer Megawattstunden aufzeigen und Wind- und Solarparks Anreize bieten, keine zusätzlichen Systemkosten zu verursachen. Wenn dann die nächste Dunkelflaute kommt, wäre es weniger wahrscheinlich, dass wir im Dunkeln bleiben.

https://www.newscabal.co.uk/green-power-needs-to-account-for-all-its-costs/

 

Übersetzt durch Andreas Demmig

PS: Letzteres wissen die Betreiber von Wind- oder Solarparks schon selbst und meiden es daher wie „der Teufel  das Weihwasser“ so in die Verpflichtung genommen zu werden – der Übersetzer




CO2-Steuer: ordentlicher Anstieg der Kraftstoffpreise

Wie?
So:

Quelle: https://www.benzinpreis-aktuell.de/benzinpreise-entwicklung

In Zahlen:

  • 30.12.2020: 1 Liter Benzin: 1,30 Euro;
  • 31.12.2020: 1 Liter Benzin: 1,32 Euro;
  • 01.01.2021: 1 Liter Benzin: 1,37 Euro;
  • 02.01.2021: 1 Liter Benzin: 1,38 Euro;

8 Cent Preiserhöhung innerhalb von vier Tagen sind das Ergebnis des neuen CO2-Preises der Bundesregierung auf fossilen Brennstoff.
8 Cent mehr, das wird ihnen die Umwelt doch wert sein – oder? Die 8 Cent gibt es als dritte Zugabe zur CO2-Abgabe, die über die Kfz-Steuer zu entrichten ist und zur Ökosteuer, die ohnehin auf Kraftstoffe erhoben wird.

Damit reiht sich Deutschland in die Reihe der Hochpreisländer in Europa ein. Der Liter Benzin kostet in Schweden: 1,39 Euro,

in Dänemark: 1,43 Euro,

in Griechenland: 1,45 Euro.

Billiger ist der Liter Benzin in Frankreich: 1,36 Euro,

im Vereinigten Königreich: 1,28 Euro,

in Spanien: 1,19 Euro,

in der Tschechei: 1,06 Euro,

in Taiwan: 0,74 Euro oder

in Ägypten: 0,44 Euro.

Doch Deutsche werden nicht nur bei fossilen Brennstoffen für die Umwelt geschröpft, auch beim Strompreis ist Deutschland Spitze. Derzeit zahlt ein deutscher Endverbraucher für eine Kilowattstunde 34,71 Cent. Damit liegt der Strompreis für deutsche Konsumenten weit über dem Strompreis, den die meisten anderen Europäer pro Kilowattstunde Strom bezahlen müssen. Eine Auswahl (Durchschnittspreise):

  • Spanien: 21,8 Cent/kwh;
  • Italien: 20,8 Cent/kwh;
  • Schweden: 19,9 Cent/kwh;
  • Vereinigtes Königreich: 18,6 Cent/kwh;
  • Frankreich: 17,6 Cent/kwh;
  • Griechenland: 16,2 Cent/kwh;
  • Tschechien: 14,9 Cent/kwh;

Die hohen Kosten entstehen, weil die deutsche Bundesregierung einen Spleen mit Erneuerbaren Energien verfolgt, einen Spleen, der nicht nur dazu führt, dass die Strompreise in Deutschland steigen, wenn sie an den Strombörsen fallen, eine Perversion mit System, die wir hier erklärt haben, sondern der auch dazu führt, dass die Stromsicherheit in Deutschland zunehmend gefährdet wird. In den letzten Tagen haben Erneuerbare Energien die folgenden Beiträge zur Deckung des Stromverbrauchs in Deutschland erbracht:

Angeblich erneuerbare Energieträger (angeblich, weil Windräder und Solarzellen natürlich nicht erneuerbar sind. Sie stellen vielmehr Sondermüll dar, dessen Entsorgung nach wie vor ungeklärt ist) haben in den letzten Tagen zwischen 22% und 62,7% zur Deckung der Stromnachfrage beigetragen. Wie man es dreht und wendet, die Abschaltung konventioneller Kraftwerke und die Stilllegung von Kernkraftwerken erhöht die Abhängigkeit von Stromimporten und damit die Unsicherheit der Stromversorgung.

Während derzeit alle Augen auf den Dilettantismus der deutschen Regierung im Zusammenhang mit der Corona-Hysterie gerichtet sind, vollzieht sich mehr oder weniger abseits des medialen Hypes eine schleichende Katastrophe, die dem Wirtschaftsstandort Deutschland und dem Wohlstand seiner Bürger einen Schaden zufügt, der die Vokabel “Katastrophe” rechtfertigt und die Vokabel “Apokalypse” vielleicht nahelegt.


ScienceFiles steht für rationalen Diskurs und rationalen Widerstand.




Woher kommt der Strom? Volatile Weihnachtswoche

52. Woche 2020 (Abbildung, es öffnen sich alle Abbildungen und Mehr).

Eine verlässliche Kalkulation der Entwicklung der regenerativen Stromerzeugung war unmöglich. Man mühte sich redlich (Abbildung 1). Dennoch: Die Weihnachtswoche war Bescherungswoche (Abbildung 2) für unsere Nachbarn. Dreimal wurde der Strom nicht nur verschenkt. Negative Strompreise sorgten für Bonusschecks, die unsere Nachbarn mit dem Gratisstrom entgegennahmen. Die Augen glänzten vor Freude (Abbildung 3).  

Abbildung 4 bildet die Ex-/Importzahlen des aufgelaufenen Jahres 2020 und die der 52. Woche ab. Die Tabelle mit den Werten der Energy Charts und der daraus generierte Chart liegen unter Abbildung 5 ab. Dreimal musste Deutschland zusätzlich Geld zum geschenkten Strom mitgeben. Dreimal reichte die angenommene Verdoppelung von Wind- und Sonnenstromerzeugung aus, um den Strombedarf Deutschlands zu decken (Abbildung 6). Der Energierechner nebst Benutzerhinweisen liegt als Download unter Abbildung 7 ab. Sie können vielfältige Simulationen berechnen. Energiewende live. Probieren Sie es aus. Es ist richtig spannend. 

Tagesanalysen

Sonntag, 20.12.2020: Anteil erneuerbare Energieträger an der Gesamtstromerzeugung 47,15 Prozent, davon Windstrom 33,33 Prozent, Sonnenstrom 2,44 Prozent, Strom Biomasse/Wasserkraft 11,38 Prozent. Die Agora-Chartmatrix: Hier klicken.

Der Sonntag wartet mit einer ruhigen, kontinuierlichen regenerativen Stromerzeugung auf. Die konventionelle Stromerzeugung wird von Ingenieuren und Technikern (Wie viele Frauen sind in diesem Bereich tätig? Weiß das jemand?) sehr gut der erneuerbaren Stromerzeugung angepasst, so dass die Strompreise überwiegend im auskömmlichen Bereich liegen.  Diese Nachbarn kaufen, verkaufen Strom.

Montag, 21.12.2020: Anteil erneuerbare Energieträger an der Gesamtstromerzeugung 51,77 Prozent, davon Windstrom 39,72 Prozent, Sonnenstrom 2,13 Prozent, Strom Biomasse/Wasserkraft 9,93 Prozent. Die Agora-Chartmatrix: Hier klicken.

Montag, Werktag. Der Strombedarf wird größer. Bis zum Abend gelingt die Nachführung durch die Konventionellen. Dann steigt die Windstromerzeugung. Der Bedarf sinkt. Der Strompreis auch. Gegen Null €/MWh. Weil die Konventionellen die Produktion nicht stark genug absenken (können/wollen). Um die 20 GW Strom aus konventionellen Kraftwerken muss in das Netz gespeist werden, um die Netzsicherheit zu gewährleisten. Diese Nachbarn kaufen, verkaufen den Strom.

Dienstag, 12.12.2020: Anteil erneuerbare Energieträger an der Gesamtstromerzeugung 61,49 Prozentdavon Windstrom 49,32 Prozent, Sonnenstrom 1,35 Prozent, Strom Biomasse/Wasserkraft 10,81 Prozent. Die Agora-Chartmatrix: Hier klicken.

Heute ist es umgekehrt. Die Windstromerzeugung sinkt ab Mittag rapide ab. Die Konventionellen gleichen aus, so gut es geht. Um 17:00 Uhr passt es: Deutschland erzielt den Stromhöchstpreis des Tages. Zahlen tun diese Nachbarn.

Mittwoch, 23.12.2020: Anteil erneuerbare Energieträger an der Gesamtstromerzeugung 37,70 Prozentdavon Windstrom 23,77 Prozent, Sonnenstrom 0,82 Prozent, Strom Biomasse/Wasserkraft 13,11 Prozent. Die Agora-Chartmatrix: Hier klicken.

Der Tag vor Heiligabend zeichnet sich durch Stromerzeugung auf Kante aus. Leichte Lücken müssen per Import geschlossen werden. Ab Mittag zieht die Windstromerzeugung an. Die Preise fallen.  Nur in der Vorabendzeit passt die Stromerzeugung. Da wird teuer exportiert. Dann fallen die Preise weiter. Ins Bodenlose, wie der Heiligabend zeigen wird. Der Verlauf der konventionellen Stromerzeugung und die Nachbarn, die Strom kaufen/verkaufen.

Donnerstag, 24.12.2020: Anteil erneuerbare Energieträger an der Gesamtstromerzeugung 60,33 Prozent, davon Windstrom 45,45 Prozent, Sonnenstrom 1,65 Prozent, Strom Biomasse/Wasserkraft 13,22 Prozent. Die Agora-Chartmatrix: Hier klicken.

Heiligabend, Tag der Bescherung. Strom wird für unter 5€/MWh abgegeben. Um 3:00 Uhr sogar mit Minibonus verschenkt. Die Konventionellen geben ihr Bestes in Sachen Stromnachführung. Ihnen ist zu verdanken, dass Strom nur billig abgegeben werden und nicht teuer importiert werden muss. Diese Nachbarn handeln den Strom.

Freitag, 25.12.2020: Anteil erneuerbare Energieträger an der Gesamtstromerzeugung 45,45 Prozent, davon Windstrom 26,26 Prozent, Sonnenstrom 3,03 Prozent, Strom Biomasse/Wasserkraft 16,16 Prozent. Die Agora-Chartmatrix: Hier klicken.

Der erste Weihnachtstag. Stromgeschenke werden nachgereicht. Der morgens billig verkaufte Strom wird – es ist nicht derselbe Strom – teuer zurückgekauft. Die Konventionellen schaffen heute es nicht, die Versorgungslücke zu schließen. Diese Nachbarn kaufen/verkaufen den Strom.

Samstag, 26.12.2020: Anteil Erneuerbare an der Gesamtstromerzeugung 62,50 Prozent, davon Windstrom 46,67 Prozent, Sonnenstrom 2,50 Prozent, Strom Biomasse/Wasserkraft 13,33 Prozent. Die Agora-ChartmatrixHier klicken.

Die Weihnachtstage gehen mit einem fetten Stromgeschenk zu Ende. Die Windstromerzeugung zieht heftig an, was die Preise folgen lässt. Allerdings nach unten. Es ist auch angesichts des geringen Bedarfs zu viel Strom im Markt. Die konventionelle Stromerzeugung liegt knapp über der 20 GW-Grenze, kann als nicht mehr gedrosselt werden. Folge: Ab Mittag kontinuierlicher Preisverfall, der erst tags drauf um 6:00 Uhr mit -33,58€/MWh sein erstes Tief erreicht. Macht einen Bonus von gut 381.000 € zusätzlich zu den 11,586 GW geschenkten Strom. Nur um 6:00 Uhr. Nachbarn, die das Weihnachtsabschlussgeschenk gerne genommen haben. 

Dieser Artikel erscheint bereits im Jahr 2021, behandelt aber die 52. Woche 2020. Am 10.1.2021 wird die 53. Woche das Jahr 2020 abschließen. Mit Sonntag, dem 3.1. 2021. Die 1. Woche 2021 unserer Betrachtungen wird am Montag den 4.1.beginnen. Womit der korrekte Wochenrhythmus Montag bis Sonntag für diese Kolumne eingeführt wird. Der Versatz um jeweils eine Woche wird selbstverständlich beibehalten. Nur so sind die Werte der Energy-Charts und von Agora zumindest einigermaßen verlässlich. Wobei von deren Seite Änderungen/Korrekturen immer möglich sind und manchmal sogar weit in der Vergangenheit vorgenommen werden. Da die Werte, welche in der Kolumne analysiert werden, alle per Hand eingetragen werden und deshalb fix sind, kann es zu Differenzen zwischen den offiziellen Werten und den von mir verarbeiteten/berechneten Werten kommen. Erst wenn alle möglichen Differenzen und Unstimmigkeiten geklärt sind, werde ich einen Jahresrückblick 2020 wagen.

Ordnen Sie Deutschlands CO2-Ausstoß in den Weltmaßstab ein. Zum interaktiven CO2-Rechner: Hier klicken. Noch Fragen? Ergänzungen? Fehler entdeckt? Bitte Leserpost schreiben! Oder direkt an mich persönlich: stromwoher@mediagnose.de. Alle Berechnungen und Schätzungen durch Rüdiger Stobbe nach bestem Wissen und Gewissen, aber ohne Gewähr. 

Die bisherigen Artikel der Kolumne Woher kommt der Strom? mit jeweils einer kurzen Inhaltserläuterung finden Sie hier.




Zum Befeuern des Klima-Alarms werden gute Nachrichten grundsätzlich als Katastrophe verkauft

Kürzlich haben The Guardian und andere Medien behauptet, dass ein aktualisierter Atlas der Lebensräume von Vögeln zeigt, dass die globale Erwärmung die Vögel weiter nach Norden „drängt“. Die Geschichte des Guardian würde einen glauben machen, dass Vögel ein Scharen durch den Klimawandel aus schrumpfenden natürlichen Lebensräumen in ungeeignete Gebiete gedrängt werden. Dies ist jedoch nicht wahr. Wie der Präsident des Heartland Institute James Taylor in einem Beitrag bei Climate Realism als Reaktion auf den Artikel des Guardian schrieb, erzählt der Atlas selbst eine völlig andere Geschichte.

Anstatt Vögel aus ihrem normalen Verbreitungsgebiet zu „verdrängen“ und sie nach Norden zu zwingen, profitieren Vögel von einem sich erwärmenden Klima, indem sie ihr Gesamtverbreitungsgebiet ausweiten – sie gedeihen in neuen, nördlichen Regionen, während sie auch in südlichen Regionen weiterhin gut gedeihen. Das Ergebnis des Klimawandels ist kein negatives „Verdrängen“ von Vögeln aus ihrem Lebensraum, sondern Vögel erfreuen sich größerer Lebensräume, während sie zur biologischen Vielfalt in ihren neuen Gebieten beitragen.

In der Tat, trotz der irreführenden, alarmierenden Titel der Geschichte [übersetzt], „Atlas: Vögel sind inmitten der Klimakrise nach Norden gezwungen worden“, räumt der Guardian weiter unten ein, was der Atlas wirklich zeigt: „Insgesamt haben 35 Prozent der Vögel ihr Brutgebiet vergrößert, 25 Prozent haben ihr Brutgebiet verkleinert und der Rest hat keine Veränderung gezeigt, oder der Trend ist unbekannt.“ Das ist eine gute Nachricht, denn, so räumte die Zeitung ein, laut Atlas gilt: „Im Allgemeinen ist es weniger wahrscheinlich, dass eine Art ausstirbt, wenn sie in mehr Gebieten vorkommt.“

Ein weiteres beängstigendes, aber nachweislich unwahres Klima-Alarm-Narrativ wurde in diesem Jahr in Form von Dutzenden, wenn nicht Hunderten von Geschichten verbreitet, denen zufolge der Klimawandel (angeblich menschlichen Ursprungs) für eine Zunahme der Anzahl und Schwere von Hurrikanen und Waldbränden verantwortlich ist. Ein Beispiel für diese Kombination aus fehlerhafter Analyse und schlechter Berichterstattung findet sich in einer von Bloomberg veröffentlichten Geschichte mit dem Titel [übersetzt] „Klimawandel sorgte im Jahr 2020 für rekordhohe Versicherungsleistungen“.

Bloomberg schreibt: „Christian Aid, der Hilfsdienst von 41 Kirchen in Großbritannien und Irland, hat eine Rangliste der 15 verheerendsten Klimakatastrophen des Jahres erstellt, basierend auf den Versicherungsschäden.“ Die Studie von Christian Aid, über die auch der Guardian berichtete, als ob es sich um eine göttlich inspirierte, offenbarte Wahrheit handelte, behauptet, dass allein die 10 teuersten Wetterkatastrophen des Jahres 2020 Schäden in Höhe von 150 Milliarden Dollar anhäuften, wobei die Gesamtzahl aller mit dem Klimawandel zusammenhängenden Katastrophen im Jahr 2020 neue Rekorde aufstellte. Die Studie von Christian Aid macht insbesondere die durch den Klimawandel verschärften Waldbrände und Hurrikane für die gestiegenen Schäden und höheren Versicherungszahlungen verantwortlich. Und siehe da: Die realen Daten zu Waldbränden und Wirbelstürmen sprechen eine ganz andere Sprache, aber die guten Nachrichten wurden ignoriert.

Was die Waldbrände betrifft, so zeigen Langzeitdaten, dass die Anzahl der Waldbrände und die von ihnen verbrannte Fläche im letzten Jahrhundert dramatisch zurückgegangen ist. Wenn man nur das Jahr 2020 betrachtet, berichtet der Copernicus Atmosphere Monitoring Service, „dass 2020 eines der Jahre mit den wenigsten aktiven Bränden weltweit war.“

In der Tat berichtet die NASA über eine aktuelle Studie in Science, die herausfand, „dass die jedes Jahr von Bränden heimgesuchte Gesamtfläche zwischen 1998 und 2015 um 24 Prozent zurückgegangen ist. Insgesamt ist die jährlich verbrannte Fläche global um mehr als 540.000 Quadratmeilen zurückgegangen, von 1,9 Millionen Quadratmeilen zu Beginn des letzten Jahrhunderts auf heute 1,4 Millionen Quadratmeilen.“

Auch in den Vereinigten Staaten sind die Flächenbrände im Laufe des letzten Jahrhunderts stark zurückgegangen. Bei Climate at a Glance wird berichtet: Langzeitdaten des U.S. National Interagency Fire Center (NIFC) zeigen, dass die Anzahl und Schwere der Flächenbrände seit den frühen 1900er Jahren zurückgegangen ist. Die Auswertung von Daten über US-Flächenbrände, die bis ins Jahr 1926 zurückreichen, zeigt, dass die Größe der verbrannten Flächen heute weitaus geringer ist als zu Beginn des 20. Jahrhunderts, wobei die derzeit verbrannte Fläche nur ein Viertel bis ein Fünftel der Fläche beträgt, die in den 1930er Jahren niedergebrannt ist.

Die Daten über Hurrikane sind ebenso klar und überzeugend: Trotz der regen Hurrikansaison 2020 ist es entgegen der Behauptung des Guardian – und wie in einem früheren Artikel bei Climate Realism berichtet – durchaus möglich, dass 2020 keinen Rekord für atlantische Hurrikane aufgestellt hat. Vor 1950 war die Verfolgung von Hurrikanen relativ primitiv und spärlich, und es war unüblich, einen Sturm zu benennen, wenn er nicht irgendwo auf das Festland ü bergegriffen hatte.

Darüber hinaus berichtet das IPCC, dass es „nur geringes Vertrauen für die Zuordnung jeglicher nachweisbarer Veränderungen in der Aktivität tropischer Wirbelstürme zu anthropogenen Einflüssen gibt.“ Und Daten des National Hurricane Center (NHC) zeigen Climate at a Glance: Hurricanes zufolge, dass „die Vereinigten Staaten kürzlich mehr als ein Jahrzehnt (2005 bis 2017) ohne einen großen Hurrikan der Kategorie 3 oder höher erlebt haben, was die längste solche Periode in der aufgezeichneten Geschichte ist. Die Vereinigten Staaten erlebten kürzlich auch die geringste Anzahl von Hurrikanen in einem Achtjahreszeitraum (2009 bis 2017) in der aufgezeichneten Geschichte.“

Die Studie von Christian Aid konzentriert sich auf die möglicherweise rekordverdächtigen Kosten der wetterbedingten Naturkatastrophen des Jahres 2020. Dabei ignoriert sie jedoch, was Bjorn Lomborg in seinem Buch „False Alarm“ als den „expandierenden Bulls-Eye-Effekt“ bezeichnet. Die gestiegenen Kosten von Naturkatastrophen in den letzten Jahrzehnten sind darauf zurückzuführen, dass Gemeinden zunehmend in Gebiete vordringen, die historisch gesehen anfällig für Naturkatastrophen sind – wie Überschwemmungsgebiete, Wälder und Küstengebiete – und dort immer teurere Strukturen und Infrastrukturen errichten. Dies hat zur Folge, dass bei extremen Wetterereignissen immer mehr teures Eigentum zerstört wird. Die steigenden Kosten von Naturkatastrophen sind demnach nicht auf den vom Menschen verursachten Klimawandel zurückzuführen, sondern auf einen direkt messbaren anthropogenen Faktor: die Zunahme der Anzahl und des Wertes von Vermögenswerten, die durch die demografische Verschiebung von Wohnorten und Lebensstilen ins Visier geraten.

Eine weitere wichtige „gute Nachricht“, die die Klimaalarmisten im Jahr 2020 als Tragödie darzustellen versuchten, findet sich in den zahlreichen Nachrichten über einen Bericht der Weltbank, dem zufolge Wasserknappheit im Nahen Osten – verursacht durch den vom Menschen verursachten Klimawandel – die Pflanzenproduktion bedroht. Wieder einmal hatten sich die Autoren des Weltbankberichts und die linken Medien, die ihn veröffentlichten, nicht die Mühe gemacht, die tatsächlichen Daten zu überprüfen. Hätten sie das getan, hätten sie herausgefunden, dass die Pflanzenproduktion in den im Bericht genannten Ländern des Nahen Ostens boomt, zum großen Teil aufgrund des Kohlendioxid-Düngeeffekts.

Die Weltbank behauptet, dass die durch den Klimawandel verursachte Wasserknappheit die landwirtschaftliche Produktion vor allem im Iran, Irak, Jordanien, Libanon, Syrien und der Türkei verringern wird. Tatsächlich zeigen die Daten, dass trotz erheblicher politischer Unruhen und andauernder Konflikte in der Region die Getreideproduktion im von Natur aus trockenen Nahen Osten mit der leichten Erwärmung der Erde zugenommen hat.

Daten der Ernährungs- und Landwirtschaftsorganisation der Vereinten Nationen (FAO) zeigen, dass während der Zeit der leichten Erwärmung seit 1989:

– Die Getreideproduktion im Irak stieg um 91 Prozent, während die Erntefläche um 5 Prozent zurückging.

– Die Getreideproduktion im Iran stieg um 187 Prozent, während die geerntete Fläche nur um 2,6 Prozent zunahm.

– Die Getreideproduktion in Jordanien stieg um 15 Prozent, während die geerntete Fläche um 30 Prozent zurückging.

– Die Getreideproduktion im Libanon stieg um 115 Prozent, während die geerntete Fläche um 30 Prozent zunahm.

– Die Getreideproduktion in Syrien stieg um 22 Prozent, obwohl die geerntete Fläche um 66 Prozent zurückging.
– Die Getreideproduktion in der Türkei stieg um 46 Prozent, obwohl die geerntete Fläche um 19 Prozent zurückging.

Die Tatsache, dass die Länder des Nahen Ostens ihre Ernteproduktion gesteigert haben – obwohl viele von ihnen in interne politische Unruhen, offene Bürgerkriege und externe Konflikte verwickelt sind – ist eindeutig eine gute Nachricht. Es ist keinesfalls Beweis für eine Klimakrise.

Die globale Erwärmung verlängert die Vegetationsperioden, reduziert Frostereignisse und macht mehr Land für die Pflanzenproduktion geeignet. Außerdem ist Kohlendioxid Dünger für die Pflanzenwelt. Die Pflanzen nutzen das Wasser unter Bedingungen mit höherem Kohlendioxid effizienter und verlieren weniger Wasser durch Transpiration. Letzteres sollte die Sorge der Weltbank über eine durch den Klimawandel verursachte Wasserknappheit und damit zu Ernteausfällen zerstreuen.

Traurigerweise übernehmen machthungrige Bürokraten und linke Mainstream-Medienorganisationen eine Behauptung nach der anderen mit unbegründeten Spekulationen über verschiedene Klimakatastrophen – während sie Fakten ignorieren, die darauf hinweisen, dass keine solchen Klimakatastrophen bevorstehen. Ich kann nur spekulieren, dass sie dies tun, weil gute Nachrichten nicht zu einem Ansturm auf eine autoritäre Klimapolitik ermutigen, die den Eliten die Kontrolle über Unternehmen und das Leben der Menschen gibt.

[Hervorhebung vom Übersetzer]

Quellen: Climate Realism; The Guardian; Phys.org; Climate Realism; World Bank; Bloomberg; Food and Agriculture Organization

Link: https://wattsupwiththat.com/2021/01/01/to-promote-climate-alarm-good-news-is-regularly-portrayed-as-a-disaster/

Übersetzt von Chris Frey EIKE




Man glätte niemals Zeitreihen!

Der Originaltitel ist als Wortspiel nur schwer übersetzbar: Do not smooth times series, you hockey puck!

Der Ratschlag, der den Titel dieses Beitrags bildet, wäre der eines Statistikers, wie man keine Zeitreihenanalyse durchführt. Nach den Methoden zu urteilen, die ich regelmäßig auf Daten dieser Art angewendet sehe, ist diese Zurechtweisung dringend nötig.

Der Ratschlag ist jetzt besonders relevant, weil sich eine neue Hockeystick-Kontroverse zusammenbraut. Mann und andere haben eine neue Studie veröffentlicht, in der viele Daten zusammengeführt wurden, und sie behaupten, erneut gezeigt zu haben, dass das Hier und Jetzt heißer ist als das Damals und Dort. Man gehe zu climateaudit.org und lese alles darüber. Ich kann es nicht besser machen als Steve, also werde ich es nicht versuchen. Was ich tun kann, ist zu zeigen, wie man es nicht tun soll. Ich werde es auch schreien, denn ich möchte sicher sein, dass jeder es hört.

Mann stellt auf dieser Site eine große Anzahl von Temperatur-Proxy-Datenreihen zur Verfügung. Hier ist eine von ihnen mit der Bezeichnung wy026.ppd (ich habe einfach eine aus dem Haufen herausgegriffen). Hier ist das Bild dieser Daten:

Die verschiedenen schwarzen Linien sind die tatsächlichen Daten! Die rote Linie ist ein geglätteter 10-Jahres-Mittelwert! Ich nenne die schwarzen Daten die realen Daten, und die geglätteten Daten die fiktiven Daten. Mann hat einen „Tiefpassfilter“ verwendet, der sich vom laufenden Mittelwert unterscheidet, um seine fiktiven Daten zu erzeugen, aber eine Glättung ist eine Glättung, und was ich jetzt sage, ändert sich kein bisschen, je nachdem, welche Glättung man verwendet.

Jetzt werde ich die große Wahrheit der Zeitreihenanalyse verkünden. Solange die Daten nicht mit Fehlern gemessen werden, glätte man nie, niemals, aus keinem Grund, unter keiner Drohung, die Reihe! Und wenn man sie aus irgendeinem bizarren Grund doch glättet, verwende man die geglättete Reihe AUF KEINEN FALL als Input für andere Analysen! Wenn die Daten mit Fehlern gemessen werden, kann man versuchen, sie zu modellieren (was bedeutet, sie zu glätten), um den Messfehler abzuschätzen, aber selbst in diesen seltenen Fällen muss man eine externe (das gelehrte Wort ist „exogene“) Schätzung dieses Fehlers haben, d.h. eine, die nicht auf den aktuellen Daten basiert.

[Alle Hervorhebungen im Original]

Wenn man in einem Moment des Wahnsinns Zeitreihendaten glättet und sie als Eingabe für andere Analysen verwendet, erhöht man dramatisch die Wahrscheinlichkeit, sich selbst zu täuschen! Das liegt daran, dass die Glättung Störsignale hervorruft – Signale, die für andere Analysemethoden echt aussehen. Egal wie, man wird sich seiner Endergebnisse zu sicher sein! Mann et al. haben ihre Reihen erst dramatisch geglättet und dann separat analysiert. Unabhängig davon, ob ihre These stimmt – ob es wirklich einen dramatischen Temperaturanstieg in letzter Zeit gibt – sind sie sich ihrer Schlussfolgerung nun garantiert zu sicher.

Und jetzt zu einigen Details:

● Ein Wahrscheinlichkeitsmodell sollte nur für eine Sache verwendet werden: um die Unsicherheit von noch nicht gesehenen Daten zu quantifizieren. Ich gehe immer wieder darauf ein, weil diese einfache Tatsache aus unerfindlichen Gründen offenbar schwer zu merken ist.

● Die logische Folge dieser Wahrheit ist, dass die Daten in einer Zeitreihenanalyse die Daten sind. Diese Tautologie ist dazu da, um zum Nachdenken anzuregen. Die Daten sind die Daten! Die Daten sind nicht irgendein Modell derselben. Die realen, tatsächlichen Daten sind die realen, tatsächlichen Daten. Es gibt keinen geheimen, versteckten „zugrundeliegenden Prozess“, den man mit irgendeiner statistischen Methode herauskitzeln kann und der die „echten Daten“ zeigen wird. Wir kennen die Daten bereits und sie sind da. Wir glätten sie nicht, um uns zu sagen, was es „wirklich ist“, weil wir bereits wissen, was es „wirklich ist“.

● Es gibt also nur zwei Gründe (abgesehen von Messfehlern), jemals Zeitreihendaten zu modellieren:

1. Um die Zeitreihe mit externen Faktoren in Verbindung zu bringen. Dies ist das Standard-Paradigma für 99 % aller statistischen Analysen. Man nehme mehrere Variablen und versuche, die Korrelation usw. zu quantifizieren, aber nur mit dem Gedanken, den nächsten Schritt zu tun.

2. Um zukünftige Daten vorherzusagen. Wir brauchen die Daten, die wir bereits haben, nicht vorherzusagen. Wir können nur vorhersagen, was wir nicht wissen, nämlich zukünftige Daten. So brauchen wir die Baumring-Proxydaten nicht vorherzusagen, weil wir sie bereits kennen.

Die Baumringdaten sind nicht die Temperatur! Deshalb werden sie Proxy-Daten genannt. Ist es ein perfekter Proxy? War die letzte Frage eine rhetorische Frage? War das auch eine? Weil es ein Proxy ist, muss die Unsicherheit seiner Fähigkeit, die Temperatur vorherzusagen, in den Endergebnissen berücksichtigt werden. Hat Mann das getan? Und was genau ist eine rhetorische Frage?

Es gibt Hunderte von Zeitreihen-Analysemethoden, die meisten mit dem Ziel, die Unsicherheit des Prozesses zu verstehen, damit zukünftige Daten vorhergesagt werden können und die Unsicherheit dieser Vorhersagen quantifiziert werden kann (dies ist aus gutem Grund ein riesiges Studiengebiet, z. B. auf den Finanzmärkten). Dies ist eine legitime Verwendung von Glättung und Modellierung.

Wir sollten sicherlich die Beziehung zwischen dem Proxy und der Temperatur modellieren und dabei die sich im Laufe der Zeit verändernde Natur des Proxys berücksichtigen, die unterschiedlichen physikalischen Prozesse, die dazu führen, dass sich der Proxy unabhängig von der Temperatur verändert, oder wie die Temperatur diese Prozesse verstärkt oder auslöscht, und so weiter und so fort. Aber wir sollten nicht damit aufhören, wie es alle getan haben, etwas über die Parameter der Wahrscheinlichkeitsmodelle zu sagen, die zur Quantifizierung dieser Beziehungen verwendet werden. Dadurch wird man sich der Endergebnisse wieder einmal viel zu sicher. Uns interessiert nicht, wie der Proxy die mittlere Temperatur vorhersagt, uns interessiert, wie der Proxy die Temperatur vorhersagt.

Wir brauchen keinen statistischen Test, um zu sagen, ob eine bestimmte Zeitreihe seit einem bestimmten Zeitpunkt gestiegen ist. Warum? Wenn man es nicht weiß, gehe man zurück und lese diese Punkte von Anfang an. Es liegt daran, dass wir uns nur die Daten ansehen müssen: wenn sie einen Anstieg zeigen, dürfen wir sagen: „Sie [die Zeitreihe] hat zugenommen.“ Wenn sie nicht gestiegen sind oder gar abgenommen haben, dann dürfen wir nicht sagen: „sie hat zugenommen.“ So einfach ist es wirklich.

Man kann mir jetzt sagen: „OK, Herr Neunmalklug. Was wäre, wenn wir mehrere verschiedene Zeitreihen von verschiedenen Orten hätten? Wie können wir feststellen, ob es einen generellen Anstieg bei allen gibt? Wir brauchen sicherlich Statistiken und p-Werte und Monte-Carlo-Berechnungen, um uns zu sagen, dass sie zugenommen haben oder dass die ‚Nullhypothese‘ von keiner Zunahme wahr ist.“ Erstens hat mich niemand schon lange „Herr Neunmalklug“ genannt, also sollten Sie sich Ihre Sprache besser überlegen. Zweitens: Haben Sie nicht aufgepasst? Wenn Sie sagen wollen, dass 52 von 413 Zeitreihen seit einem bestimmten Zeitpunkt gestiegen sind, dann schauen Sie sich die Zeitreihen an und zählen Sie! Wenn 52 von 413 Zeitreihen gestiegen sind, dann können Sie sagen „52 von 413 Zeitreihen sind gestiegen.“ Wenn mehr oder weniger als 52 von 413 Zeitreihen gestiegen sind, dann können Sie nicht sagen, dass „52 von 413 Zeitreihen gestiegen sind.“ Sie können es zwar sagen, aber Sie würden lügen. Es gibt absolut keinen Grund, über Nullhypothesen usw. zu schwätzen.

Wenn Ihnen die Punkte – es ist wirklich nur ein Punkt – die ich anspreche, langweilig erscheinen, dann habe ich es geschafft. Die einzige faire Art, über vergangene, bekannte Daten in der Statistik zu sprechen, ist, sie einfach zu betrachten. Es ist wahr, dass das Betrachten von massiven Datensätzen schwierig ist und immer noch eine Art Kunst darstellt. Aber Schauen ist Schauen und es ist völlig gleichberechtigt. Wenn Sie sagen wollen, wie Ihre Daten mit anderen Daten in Beziehung standen, dann müssen Sie wiederum nur schauen.

Der einzige Grund, ein statistisches Modell zu erstellen, ist die Vorhersage von Daten, die man nicht gesehen hat. Im Fall der Proxy-/Temperaturdaten haben wir die Proxies, aber wir haben nicht die Temperatur, so dass wir sicherlich ein Wahrscheinlichkeitsmodell verwenden können, um unsere Unsicherheit in Bezug auf die nicht gesehenen Temperaturen zu quantifizieren. Aber wir können diese Modelle nur erstellen, wenn wir gleichzeitige Messungen der Proxies und der Temperatur haben. Nachdem diese Modelle erstellt sind, gehen wir wieder zu dem Punkt zurück, an dem wir die Temperatur nicht haben, und können sie vorhersagen (wobei wir daran denken müssen, dass wir nicht ihren Mittelwert, sondern die tatsächlichen Werte vorhersagen müssen; außerdem müssen wir berücksichtigen, wie die Beziehung zwischen Temperatur und Proxy in der Vergangenheit anders gewesen sein könnte, und wie die anderen vorhandenen Bedingungen diese Beziehung verändert haben könnten, und so weiter und so fort).

Was man nicht tun kann oder sollte ist, zuerst die Proxydaten zu modellieren/glätten, um fiktive Daten zu erzeugen und dann zu versuchen, die fiktiven Daten und die Temperatur zu modellieren. Dieser Trick wird einen immer – einfach immer – zu sicher machen und in die Irre führen. Man beachte, wie die gelesenen fiktiven Daten viel strukturierter aussehen als die realen Daten und es wird verständlich.

Der nächste Schritt ist, mit den Proxydaten selbst zu spielen und zu sehen, was zu sehen ist. Sobald mir der Wunsch erfüllt wird, jeden Tag mit 48 Stunden zu füllen, werde ich das tun können.

Link: https://wmbriggs.com/post/195/

Übersetzt von Chris Frey EIKE

 




Neue grüne Energiewelt: Rationierung aus Mangel war mal Stromsperre ist jetzt Spitzenglättung

Die Netzfrequenz von 50 Hertz ist die Regelgröße, die unter allen Bedingungen eingehalten werden muss, um einen Kollaps zu vermeiden. Dazu braucht es das Gleichgewicht von Erzeugung und Verbrauch. Da der volatile, unplanbare Anteil an der Erzeugung stetig zunimmt, die Anzahl der regelbaren Kraftwerke aber ab, müssen sich Verbraucher mit steuerbaren Verbrauchseinrichtungen künftig an der Systemregelung beteiligen. Sie können sich auch dagegen entscheiden, zahlen dann aber mehr.

Spitzenglättung wie bei Struwelpeter, Bild Strom R. Schuster, Scherenmann: Struwelpeter, Komposition EIKE Redaktion

Kurz vor Weihnachten und medial fast unbeachtet wurde das „Steuerbare-Verbrauchseinrichtungen-Gesetz (SteuVerG)“ in die Abstimmungsrunden gegeben, der zustimmende Beschluss ist absehbar. Es soll die Gleichzeitigkeit des Strombezugs bei denjenigen Stromverbrauchern beeinflussen, die steuerbar sind wie die Betreiber von Wärmepumpen, Elektroheizungen, Wallboxen oder auch die Prosumer, die nicht nur Verbraucher, sondern auch Erzeuger sind. Durch zeitweise, variable und wechselseitige Abschaltungen sollen örtliche Überlastungen wie auch ein Teil des aufwändigen Netzausbaus vermieden werden. Es ist eine Form des geregelten Brownouts, die den Blackout verhindern soll. In jedem Fall muss dieses System flächendeckend zur Anwendung kommen, denn absehbar werden Zeiten kommen, in denen unsere Nachbarländer mit der Aushilfe im deutschen Netz überfordert sein werden. Selbst in der verbrauchsarmen Weihnachtszeit schwankten Export und Import kräftig. Schoben wir am 28. Dezember 2020 noch mehr als 12 Gigawatt über die Grenzen, brauchten wir einen Tag später fast 5 Gigawatt retour. Der deutsche Außenhandelssaldo  weist beim Strom noch einen Überschuss von mehr als 19 Terawattstunden auf, geht aber seit 2017 (52 Terawattstunden) kontinuierlich zurück. Die Importmenge erhöhte sich seit 2016 von 14 auf 33 Terawattstunden. Bei diesem Strom von außen herrscht betretenes Schweigen zu seiner Herkunft. Während heimischer Atom- und Kohlestrom verteufelt wird, ist der graue Importstrom grundsätzlich positiv.

So sieht es in der Praxis aus, wenn „Wind, Sonne und Co. die Oberhand über fossile Kraftwerke erlangen“, wie strom-report.de begeistert berichtet, weil 2020 mehr als 50 Prozent des Stroms von „Erneuerbaren“ geliefert wurde. 47 Versorger erhöhen 2021 die Preise, trotz staatlicher Deckelung der EEG-Umlage. Grund sind steigende Netzentgelte.

Ein anderes Windraftvorreiterland, Dänemark, ist Vizemeister beim Strompreis und hat ähnlich starke Schwankungen des Stromsaldos zu verzeichnen. Am 29. Dezember importierte das Land ein Drittel seines gesamten Strombedarfs. Bei fünfeinhalb Millionen Einwohnern und wenig Großindustrie ist das machbar, zumal mit Norwegen und Schweden sichere Lieferanten zur Verfügung stehen.

Die Macht der Paragrafen

Der Entwurf des SteuVerG enthält 5 Artikel, die Änderungen in anderen Regularien wie zum Beispiel dem Energiewirtschaftsgesetz bewirken. Insgesamt 61 Seiten sind nötig, dies zu formulieren und erklären. Es sind dann – nach meiner Zählung und ohne Gewähr – 26 nationale Gesetze zum Energiesystem in Kraft, hinzu kommen mindestens 33 Verordnungen und 26 EU-Strategien, -Verordnungen, -Richtlinien und -Leitlinien. Noch vor zwanzig Jahren kam das Energierecht mit 200 Einzelnormen aus, heute sind es etwa 13.750. 

„Kein Staat kann ohne Recht, kein Recht ohne Staat bestehen“, wusste der alte Römer Aurelius. Tacitus. Ein anderer alter Römer und später lebend, formulierte dann wohl Erfahrungen mit dem Rechtssystem: „Der verdorbenste Staat hat die meisten Gesetze.“

Dieses Wachstum der Regularien ist allerdings folgerichtig. Die Energiewende als staatsplanerisch angelegtes Projekt zwingt zu immer weiteren Detailregelungen mit zunehmender Regelungstiefe, weil marktliche Selbstregelung nicht mehr stattfindet. Jede neue Regelung schafft Umgehungstatbestände, denen dann wiederum begegnet werden muss. Die Kreativität der Erneuerbaren-Investoren geht nicht mehr in den technischen Fortschritt (die Anlagen sind weitgehend ausentwickelt), sondern in das Anzapfen möglichst vieler Fördertöpfe und Subventionen. Dabei schützt die Politik vor eventuellen Belastungen. Selbst die in der EEG-Novelle festgelegte Vergütung, die Windkraftinvestoren an betroffene Kommunen zahlen müssen, wird über die Netzentgelte, also durch alle Stromverbraucher, finanziert.

Technisch ist es natürlich möglich, die Verbraucherseite zu regeln, die Idee des demand site managements (DSM) gibt es schon lange. Absehbar ist aber, dass man dieses Instrument nur bis zu einem gewissen Umfang ausbauen kann. Zum einen entstehen den Netzbetreibern wie den Kunden Kosten, zum anderen muss man die teilnehmenden Kunden belohnen für ihren Beitrag. Das geht realistisch nur über den Strompreis. Wer für seine regelbare Verbrauchsstelle durchgängig Strom haben möchte, wird künftig kräftig draufzahlen. Wer sich abschalten lässt zahlt weniger. Je länger, öfter und flexibler er sich abschalten lässt, umso billiger der Strom. Auch dadurch wird sich die soziale Spaltung des Landes verstärken. Wer wenig Geld hat und sparen muss, bekommt seltener Strom. Der normale Haushaltsstrom soll davon ausgenommen sein. Wie lange noch? Regelungen zu planmäßigen Lastabwürfen der Haushalte (load-shedding) sind international durchaus üblich, zum Beispiel in Südafrika.

Da seit Jahrzehnten keinerlei Aktivitäten erfolgen, die „Erneuerbaren“ grundlast- und regelfähig zu machen, wird auch das DSM an Grenzen stoßen. Wir wollen zwar mit aller Kraft dekarbonisieren, aber es gibt kein Zielbild für das künftige Energiesystem. Welcher Strommix soll es sein? Im Netz wird es zunehmend spannender, zeitweise wird es eben auch spannungslos sein.

Die Regelung und die Speicherung des Stroms verschiebt man auf das Wunderelement Wasserstoff. Für die Kohle- und Kernkraftwerke gibt es in Gesetzen fixierte Abschalttermine beziehungsweise Ausschreibungen zu solchen Terminen. Wann wir Wasserstoff aus marokkanischer oder australischer Sonnen- und Windkraft bekommen werden oder aus einem im Kongo noch zu bauenden Wasserkraftwerk samt Staudamm, wie von deutschen Politikern ins Auge gefasst, ist zeitlich offen und auf der Kostenseite nicht kalkulierbar. Aber der Glaube daran ist fest.

Das Gesetz wird problemlos den Bundestag passieren. Die praktische Umsetzung dürfte sich über viele Jahre hinziehen und die Unterdeckung im deutschen Netz wird zunehmen. Spitzenglättung in absehbaren Zeiten des Mangels bedeutet nichts anderes als Rationierung. Es klingt aber besser.

Ergänzung der Redaktion

Der Artikel erschien unter einer anderen Überschrift zuerst bei TE hier

Leser R.J. Machte dazu folgenden Vorschlag

Sehr geehrter Herr Hennig, vielen Dank für diese Analyse. Gleichwohl würde ich mich vor Pessimismus und Spott hüten wollen. Sie erwähnen den Wasserstoff. Das ist der Stoff, aus dem Wasser ist, darum heißt er ja so. Wasser kreist in der Attmossfähre wie Strom. Folglich kreist auch Stoff. Stoff ist für alle da. Doch dies nur am Rande. Alles ist mit kulturell sensibler, diskriminierungsfreier 1-2-3-viele-Mathematik genau ausgerechnet. Sie können es schon der genialen Doktorarbeit von Dr. Merkel entnehmen (die nicht ohne Grund gesperrt ist, na sehen Sie). Mit dem Kongoo ist das so. Der Staudamm hat einen Wasserstoffabscheider. Wenn das Wasser über denselben flutet, wird an ökologisch einwandfreien Nanorechen (Patent Dr. Habeck, aus natürlich gefallenem Hanf hergestellt) ganz ohne Zusatzstoffe der Wasserstoff abgestreift. Sauerstoff zum Atmen bleibt übrig. Sie fragen sich, woher die erforderliche Energie kommt. Nun, hier konnten die Physiker*innen Dr. Roth & Dr. Künast die Heisenbergsche Unschärferelation erweitern. Nach dieser kann man ja Energie borgen, wenn man sie eine Zeit später zurückgibt. Die numerischen Beträge hängen vom Planckschen Wirkungsquantum ab. Wenn man das passend vergrößert (Parteitagsbeschluss), geht das Borgen über Jahrhunderte. So schlägt man den Physikern der AfD ein Schnippchen. Ein weiterer Trick ist dabei. Im Vakuum, besonders im geistigen, entstehen laufend virtuelle Teilchen und Antiteilchen, die sich sodann annihilieren. Diese Annihilationsenergie kann man nutzen, wenn man auf beschriebene Weise die Zeitskalen streckt. Ich hörte diese geniale Idee von Prof. Altmaier und Prof. Dr. Dr. Dr. Prof. Dr. Dr. Dr. Prof. Lauterbach-Lauterbach. Es klingt wie ein Perpetuum mobile, ist aber etwas ganz anderes: ein Perpetuum merkile. In diesem Sinne: ad multos annos.

 




Abschätzung der CO2-Klimasensivität auf Basis des GLOBAL TEMPERATURE REPORTS (GTR)

Abb 1: Links: Zollstock und digitaler Mess-Schieber. Unterschied der Genauigkeit Rechts: Bearbeitung einer Welle an einer Drehbank. Quelle: Jeweils Pixabay

Zur Verdeutlichung dieser Diskrepanz ein Vergleich aus einem Bereich der Technik, der leicht verständlich ist. Um die Kupfer-Welle (Abb.1, rechts) auf der Drehbank exakt zu messen bzw. zu bearbeiten, benötigt der Arbeiter einen Mess-Schieber. Ein Zollstock ist für ihn unbrauchbar. Genau diesen Widerspruch sehen wir jedoch in der Welt der Klimaforscher. Sie verwenden sprichwörtlich den Zollstock, um die Bauteile einer hoch präzisen Maschine zu fertigen. Die ungenauen Temperatur-Daten dienen als Basis für die komplizierten Simulationen auf Groß-Computern. Zu allem Überfluss postulieren die Klimaforscher ihre Methodik als die einzig gültige Wahrheit (IPCC). Welch eine unglaubliche Farce. Der Autor hat Erfahrung im Bereich „Computational Chemistry“, ein Hilfsmittel zur theoretischen Voraussage bzw. Bestätigung von Eigenschaften unterschiedlichster Moleküle, z. B. die 3D-Struktur, Reaktivität oder innere Beweglichkeit. Bei den Anwendern von Computer-Simulationen gibt es den geflügelten Satz für eine Ausgangs-Basis mit schlechten Anfangsdaten: „Shit in, shit out.

  1. GLOBAL TEMPERATURE REPORT (GTR)

Der GLOBAL TEMPERATURE REPORT [2] zeigt in monatlicher Abfolge die berechnete globale Temperatur der unteren Atmosphäre (s. Abb.2). Verantwortlicher Wissenschaftler hinter diesen Daten ist der bekannte Klimatologe Dr. John R. Christy von der University of Alabama in Huntsville. Seit 2013 werden satelliten-basierende Temperatur-Messungen zusammengeführt, verarbeitet und auf der Homepage veröffentlicht. Christy hat zusätzlich die ab 1979 verfügbaren Satelliten-Messungen nachträglich verarbeitet. Ergebnis ist ein Säulen-Diagramm (Abb.2) mit den monatlichen Temperatur Abweichungen zur Referenz-Linie (0-Linie). Diese wird als Durchschnitts-Temperatur von 1981 bis 2010 3 errechnet. Zusätzlich wird auch eine Karten-Darstellung der Erde mit farblich gekennzeichneten Bereichen zur Verfügung gestellt. Auch für den November 2020 schön zu erkennen, die leichte Erderwärmung findet tendenziell mehr auf der Nordhalbkugel statt. Besonders in Antarktis-Nähe kühlt es eher ab. Diese These ist in vielen Veröffentlichungen bestätigt worden.

Abb 2: GLOBAL TEMPERATURE REPORT von November 2020 [2]
Abb 3: GLOBAL TEMPERATURE REPORT von November 2020. Darstellung als Karte [2]

  1. Vorteile der Satelliten-Daten

Im bereits erwähnten Vorgänger-Artikel [1] zu diesem Aufsatz wird im Kapitel 5.1.) Zuverlässigkeit der Proxy-Daten auf die Vorteile von in sich konsistenten Datensätzen eingegangen. Die GTR-Daten wurden im gesamten Erfassungs-Zeitraum vom gleichen Messgerät ermittelt, die Methodik und die Randbedingungen bleiben konstant. Systematische Fehler können daher nahezu ausgeschlossen werden. Wie auch bei den Proxy-Daten liegt in der guten Genauigkeit der relativen Änderungen innerhalb der Messreihen. Wie oft in der Naturwissenschaft ist es nicht nötig, die absoluten Daten, hier die Temperaturen, zu ermitteln. Ob zum Beispiel die mittlere Temperatur für Deutschland im Jahr 2017 14,2 °C betrug, spielt für eine mathematisch physikalische Auswertung keine Rolle. Entscheidend ist die in sich geschlossene und verlässliche Messreihe und deren korrekte Auswertung.

  1. Bearbeitung der GTR-Daten und erster Überblick

4.1.) Erster Überblick und Erkenntnisse aus den GTR-Daten

Das von Dr. Christy veröffentlichte Balken-Diagramm (Abb.2) ist extrem detailreich und folglich wenig übersichtlich. Was ist relativ schnell zu ermitteln? Die relativen Temperatur-Daten sind in den 80er und 90er Jahren überwiegend blau (negative Abweichung) und in den 2000er Jahren überwiegend rot (positive Abweichung). Im Betrachtungs-Zeitraum von 40 Jahren wurde es grob geschätzt 0,7 K wärmer. Auffallend sind die beiden extremen Temperatur-Spitzen um die Jahre 1998 und 2016. Dazu später noch mehr. Wegen der starken Schwankungen fällt es schwer, noch weitere Erkenntnisse aus dem Diagramm zu ermitteln.

4.2.) Glättung und Bearbeitung der Koordinaten-Achsen

Die monatliche Auflösung auf der X-Achse und die Darstellung des betrachteten Zeitraums von 40 Jahren sind nicht optimal. Andererseits ist die Y-Achse mit Y(min.)= -1,0K und Y(max.) = +1,0K zu wenig aufgelöst. Als besten Kompromiss fand der Autor eine Darstellung, bei der die X-Achse gestaucht, die Y-Achse gestreckt und die „zappelnden“ Messwerte geglättet sind. Das Ergebnis ist in Abb.4 dargestellt. Tatsächlich ist es nun leichter möglich, zusätzliche Erkenntnisse aus dem Graphen zu erhalten.

4.3.) El Nino und langzeit-konstante Temperaturen

Beginnen wir mit den bereits erwähnten Warm-Peaks von 1998 und 2016. Klimatologen und andere Fachleute kennen die Ursache der beiden Temperatur-Spitzen. Beide Male ist ein extrem starker „El Nino“ schuld, eine Meeresströmungs-Umkehr im Pazifik. Dieses Phänomen tritt unregelmäßig in einem Durchschnitts-Abstand von 4 Jahren auf und hat Auswirkung auf die Temperaturen der gesamten Erde. Von Anfang 1979 bis Ende 1997 (19 Jahre) blieb die mittlere Erdtemperatur erstaunlich konstant. Ausgehend von einem Mittelwert -0,1 K schwankte die Temperatur nur ca. 0,2 K nach oben oder unten. Das gleiche Bild im Zeitraum von Anfang 1999 bis Mitte 2015 (16,5 Jahre). Nach dem El Nino von 1998 ist der Level der konstanten Temperatur um ca. 0,2K angestiegen. Schließlich begann nach dem
El Nino von 2016 eine 3. Phase konstanter Temperatur, die bis heute (4,5 Jahre) anhält. Der Anstieg des Levels beträgt diesmal knapp 0,4K.

Abb 4: Bearbeitete GTR-Daten. X-Achse gestaucht, Y-Achse gestreckt, Werte geglättet.

Schließlich hilft eine lineare Regression, die Temperaturanstiegs-Tendenz grob abzuschätzen. Die Gerade hat eine Steigung von 0,0132 K/Jahr, oder etwas greifbarer 0,26 K auf 20Jahre. Noch einfacher: Ein Temperatur-Anstieg von etwa einem Kelvin auf 80 Jahre, d. h. 1 K bis zum Jahr 2100!

4.4.) Interpretation der Ergebnisse

Es darf nicht außer Acht gelassen werden, dass der Betrachtungszeitraum von 40 Jahren für die Klimatologie ein sehr kurzer Zeitraum ist. Nach Definition handelt es sich nur um 1 1/3 aufeinander folgende 30-jährige Klima-Zeiträume. Deshalb muss bei der Interpretation der Ergebnisse eine vorsichtige und kritische halbquantitative Herangehensweise im Vordergrund stehen, nicht die blanken Zahlen-Werte.

Erstaunlich sind die relativ konstanten Temperaturen in den 3 angegebenen Zeiträumen. Der Autor sieht sich nicht in der Lage, dazu eine fundierte Interpretation abzugeben. Ein Vergleich kann trotzdem angestellt werden. Die Klimaforscher (IPCC) vertreten seit 2016 die These, das anthropogen verursachte CO2 sei die alleinige Ursache des Temperatur-Anstiegs der letzten 170 Jahre. Wie erklären diese Leute die Zeiträume von 16,5 Jahren und 19 Jahren, in denen das anthropogene CO2 einerseits massiv angestiegen ist, andererseits die Temperatur nahezu konstant blieb? Kaum zu beantworten für die Klima-Alarmisten. Nun zur ermittelten Steigung von etwa einem Kelvin auf 80 Jahre. Bitte unbedingt beachten! Dieser großzügig geschätzte Anstieg von 1 K ermittelt sich unter der Annahme eines unge-bremsten anthropogenen CO2-Ausstoßes bis zum Jahr 2100! Selbst ohne CO2-Reduzierungs-Maßnahmen, ohne regenerativen Strom und ohne Elektro-Autos entsteht daraus kein Weltuntergangs-Szenario.

  1. Abschätzung der CO2-Klimasensivität mit Hilfe bearbeiteten GTR-Daten

Durch die erstaunlichen Ergebnisse bei der Auswertung der GTR-Daten war es nahezu die zwangsmäßige Folgerung, auch die CO2-Klimasensivität aus den Rohdaten zu ermitteln. Wie bereits unter 4.4.) deutlich gemacht, soll hier keine exakte Berechnung durchgeführt werden. Vielmehr eine Abschätzung der Größenordnung der CO2-Klimasensivität.

5.1.) Was ist die CO2-Klimasensivität?

Die CO2-Klimasensivität ist einfach definiert: Der Anstieg der mittleren Erdtemperatur bei Verdoppelung der CO2-Konzentration in der Atmosphäre.

Das IPCC behauptet seit ca. 30 Jahren, die CO2-Klimasensivität liegt mit 95% Wahrscheinlichkeit zwischen 1,5 K und 4,5 K, mit größerer Wahrscheinlichkeit im Bereich zwischen 3 K und 4,5 K. Inzwischen tauchen im Umfeld des IPCC Computer-Modelle auf, die von einer CO2-Klimasensivität über 6 K ausgehen. Warten wir auf den neuen IPCC-Bericht, der für das Jahr 2021 angekündigt ist.

5.2.) CO2-Klimasensivität, die zentrale Größe im Klima-Streit

Seit Greta Thunberg und „Fridays For Future“ ist die Klima-Diskussion im Bewusstsein der breiten Öffentlichkeit angekommen. Vereinfacht ausgedrückt, der angenommene Wert der CO2-Klimasensivität ist der zentrale und wichtigste Punkt der gesamten Diskussion und Auseinandersetzung zwischen den Klima-Alarmisten und Klima-Skeptikern. Sollte der wahre Wert der CO2-Klimasensivität bei 2 K oder darunter sein, erübrigt sich jeglicher Streit. Die Auswirkung des anthropogenen CO2 auf die mittlere Erdtemperatur wäre zu gering, um katastrophale Auswirkungen zu erwarten (siehe 4.4.).

5.3.) Keeling-Kurve: CO2-Konzentration der Atmosphäre seit 1958

Dr. Ralph Keeling hat 1958 begonnen an der meteorologischen Wetterstation auf dem hawaiianischen Vulkan Mauna Loa kontinuierlich die CO2-Konzentration der Atmosphäre zu messen. Deshalb wurde das Diagramm in Abb.5 auch nach ihm als Keeling-Kurve benannt. Seit 1958 steigt die CO2-Konzentration in der Atmosphäre an, hauptsächlich verursacht durch anthropogenen Ausstoß. Hauptverursacher sind Industrie (Prozess-Wärme), Heizen und Verkehr.
5.4.) Zusammenhang von CO2-Konzentration und Temperatur

Der mathematische Zusammenhang zwischen CO2-Konzentration und der Temperatur ist den Physikern und Meteorologen bereits lange bekannt. Deshalb wurde auch der Terminus „CO2-Klimasensivität“ eingeführt. Nur bei einer logarithmischen Funktion vergrößert sich der Y-Wert um einen festen Betrag, wenn der X-Wert jeweils verdoppelt wird. Der große Vorteil einer logarithmischen Funktion ist die Unabhängigkeit der Betrachtung, egal wo ein Referenzpunkt auf der X-Achse gesetzt wird. Die ideale Voraussetzung zur Auswertung der relativen GTR-Werte.
Der Zusammenhang zwischen CO
2-Konzentration und Relativ-Temperatur ist somit eine

Logarithmische CO2-Funktion F(GTR) *

Abb 5: Keeling-Kurve. CO2-Konzentration der Atmosphäre seit 1958

Dabei ist die Temperatur-Änderung, F(GTR) ein Proportionalitäts-Faktor, im vorliegenden Fall die Konstante für die GTR-Daten, die CO2-Konzentration und eine Bezugs-CO2-Konzentration.

Die Keeling-Kurve weist für das Jahr 1980 eine CO2-Konzentration von ca. 337 ppm und für das Jahr 2020 eine CO2-Konzentration von 410 ppm aus. Die Temperatur-Differenz zwischen diesen Jahren beträgt ca. 0,60 Kelvin. Somit folgt:

Mit dem ermittelten Proportionalitäts-Faktor lässt sich nun sehr einfach die zugehörige CO2-Klimasensivität berechnen.

Abb 6: Ermittelte logarithmische Funktion der CO2-Konzentration anhand der GTR-Daten Y-Achse: in Kelvin

  1. Abschätzung der CO2-Klimasensivität

Die aus den GTR-Daten ermittelte rechnerische CO2-Klimasensivität beträgt somit
2 Kelvin. Was sagt dieser Wert aus? Die Voraussetzungen für die gerade ausgeführte Berechnung müssen unbedingt beachtet und angewendet werden.

Der logarithmische Graph, der sich aus der Berechnung ergibt, ist nur dann richtig, wenn ausschließlich das anthropogene CO2 die Erderwärmung bewirkt.

Unter Klimatologen wird weltweit diskutiert und spekuliert. Realistisch betrachtet, sollten maximal 50% der Erderwärmung 4 durch Einbringung großer Mengen an anthropogenem CO2 in die Atmosphäre mit der Erwärmung in Zusammenhang stehen. Die meisten Klimatologen und Klimaskeptiker postulieren niedrigere Werte (10-40%). Somit wird basierend auf den GTR-Daten die CO2-Klimasensivität auf einen Maximal-Wert von etwa 1 Kelvin geschätzt.

7.) Schlussfolgerungen

Die Abschätzung der CO2-Klimasensivität auf Basis der satellitengestützten GTR-Daten liefert ein Ergebnis in einer sinnvollen Größenordnung. Schwäche dieser Untersuchung ist der für Klimatologen kurze Betrachtungszeitraum von 40 Jahren. Der Autor hat sich bewusst darauf beschränkt, nur die in sich konsistenten Messdaten einer einzigen Mess-Quelle zu verwenden, um den im Vorgänger-Artikel [1] ausgearbeiteten Unwägbarkeiten der konventionell gewonnenen Global-Temperaturen aus dem Weg zu gehen.

Im Vergleich zu neuen Fach-Publikationen über das Thema CO2-Klimasensivität, die 2017 von Hans Penner 6 in einem Übersichts-Artikel zusammengefasst wurden, bewegt sich das Resultat in guter Gesellschaft. Abgesehen von den Verweisen auf die Werte des IPCC und des PIK-Mitarbeiters Stefan Rahmstorff liegen die Ergebnisse für die CO2-Klimasensivität im Bereich von 0,2 Kelvin bis 1,0 Kelvin. Die vorliegende Arbeit kommt auf einen Maximalwert von etwa 1 Kelvin.

Bereits 2014 veröffentlichte Koelle eine Übersicht der Forschungs-Ergebnisse zur

CO2-Klimasensivität und den zeitlich immer kleiner werdenden Ergebnissen [7].

Abb 7: Übersicht zur Entwicklung der ermittelten CO2-Klimasensivität. Scafetta 2017 [7]
Zum Schluss ein Zitat aus der Zusammenfassung der Arbeit von Hans Penner [6]:Aus diesen Befunden wird ersichtlich, dass nach dem heutigen Stand der Wissenschaft technische Kohlendioxid-Emissionen keinen schädlichen Einfluss auf das Klima ausüben.Dem ist nichts mehr hinzuzufügen!

Literatur-Verzeichnis

[1] https://kaltesonne.de/wie-zuverlaessig-sind-die-ermittelten-globaltemperaturen-der-letzten-170-jahre/

[2] https://www.nsstc.uah.edu/climate/

[3] https://www.nsstc.uah.edu/data/msu/v6.0beta/tlt/uahncdc_lt_6.0beta5.txt

[4] https://kaltesonne.de/schweizer-klimaszenarien-ch2018-bis-zur-halfte-der-beobachteten-erwarmung-der-letzte-50-100-jahre-hat-naturliche-ursachen/

[5] https://kaltesonne.de/zwei-weitere-studien-finden-eine-stark-reduzierte-co2-klimawirkung-von-13-grad-pro-co2-verdopplung/

[6] https://www.fachinfo.eu/fi036.pdf (Dr. Hans Penner)

[7] Scafetta et al., International Journal of Heat and Technology, Sept. 2017, Vol. 35, S.18-26

 




Klimaschutz und Virenhysterie: Instrumente des kommenden Machtmodells – Teil 2

Etwas später (1979) startete George Soros die Open Society Foundations, unter der er noch heute seine Aktivitäten zur Vertiefung der Globalisierung bündelt. Diese und viele andere private und staatliche Institutionen arbeiten seit Jahrzehnten an einem neuen Herrschaftsmodell, das die im Nationalstaat gegründete, rechtstaatlich-repräsentative Demokratie ablösen soll. Was ist die Agenda dieser Vordenker, die das reichste Promille der Eigentumspyramide vertreten? [1]

Einerseits hat das bisherige Modell die Entstehung der heutigen globalen Eigentumselite ermöglicht. Andererseits erkennen deren Vordenker, dass das Modell ökonomisch wegen der ohne Staatsbankrotte nicht mehr aufzulösenden Überschuldung am Ende ist und dass es Alternativen gibt, die ihre Vorherrschaft noch deutlich besser absichern.

Das neue Herrschaftsmodell soll die Trennung von Eigentum und politischer Macht, die mit dem Ende des Absolutismus zumindest formell und teilweise auch de facto erfolgte, rückgängig machen, und Oligopoleigentum wieder mit der vollständigen politischen Macht vereinigen – wie zur Zeit des Feudalismus, aber mit besseren Herrschaftstechniken. Das Modell hat folgende essenzielle Komponenten:

  1. Eine Schwächung des Nationalstaats mit dem mittelfristigen Ziel seiner Ablösung durch supranationale Regierungsformen ohne wirksame Gewaltenteilung und effektive demokratische Kontrolle – ein Verzicht auf die „veraltete“, aufklärerische Fiktion der Volkssouveränität.
  2. Eine Ablösung der traditionellen Rechtsstaatlichkeit des Common Law (USA, Commomwealth) und des römischen Rechtsprinzips (Kontinentaleuropa und Einflussgebiete) durch politisiertes Recht in Form einer Modifikation des klassischen Rechts mit Aufhebung der Isonomie und der Einführung eines Zuteilungsrechts.
  3. Eine möglichst umfassend Kontrolle von Medien, Kultur und politischer Willensbildung. Insbesondere eine hoheitliche Definition der Realität – was real ist, soll von den Eliten gesetzt werden.
  4. Eine Verwendung der großen Mehrheit derjenigen, die kein Eigentum an Produktionsmitteln haben, als passive Angestellte und Konsumenten der möglichst globalen Unternehmen.
  5. Eine umfassende Überwachung der Bevölkerung über die Nutzung des Internets.

Dabei wird der dekonstruktivistische Westmarxismus eingesetzt, um die Reste des noch bestehenden, legitimen Modells zu diskreditieren, wie etwa bei Derrida oder Butler. Der aufklärerisch-liberale Westmarxismus wird hingegen verwendet, um das neue Herrschaftsmodell als Gipfel der Aufklärung zu idealisieren. So, wie es sich etwa in den politischen Schriften von Jürgen Habermas findet, wo er sich für den Europäischen Zentralstaat einsetzt. Die ideologische Begleitung der Herrschaftskomponenten ist ubiquitär und penetrant. Sie beruft sich nur scheinbar auf die Werte der Aufklärung.

Die optimale Verwaltung

Was sind die Motive für diese Hauptkomponenten und wie sollen sie durchgesetzt werden? Die Schwächung des Nationalstaats ist in der Europäischen Union am weitesten fortgeschritten. Das Ziel ist ein Supranationalstaat, der die optimale Verwaltung einer von der Partizipation weitgehend ausgeschlossenen Bevölkerung erlaubt. Die nicht oder nur scheinbar gewählten, von der Elite bestimmten Politiker sollen die Interessen der Eigentumseliten möglichst reibungslos durchsetzen, deutlich effektiver als im Nationalstaat.

Dabei sollen Besteuerung und Steuermittelverwendung willkürlich festgelegt werden, es soll wieder das Prinzip der „taxation without representation“ (eine Abkehr vom Bill of Rights von 1688) gelten. Dies ist in der Eurozone dank der EZB bereits partiell gelungen. Die EZB-Bilanz wird durch Gelddrucken und den Kauf von Schrott-Assets Mitte nächsten Jahres wohl das Volumen des Bruttosozialproduktes der Eurozone erreichen, was bedeutet, dass dort gewaltige zukünftige Verpflichtungen des Staates angehäuft werden. Für diese wird der Steuerzahler oder, im Fall des Staatsbankrotts, jeder Immobilienbesitzer, aufkommen müssen. Bei anderen Zentralbanken ist das Legitimitätsdefizit zwar nicht ganz so groß wie bei der EZB, weil die Institutionen national sind, doch auch diese handeln nicht im Interesse der Bürger, sondern verwerten zukünftige Steuereinnahmen. In beiden Fällen fließen die Erträge der Geldschöpfung den Reichsten und den Politikern zu. Letztere nutzen sie zum Legitimitätskauf über Staatskonsum in Form von Sozialausgaben. Die nächste Stufe des Vorgangs ist die Abschaffung des Bargeldes und die Einführung einer internationalen Fiktivwährung, die von einem demokratisch nicht legitimierten Zentralkomitee verwaltet werden könnte, wie dies etwa von Facebook, aber auch von staatlichen Akteuren und NGOs vorgeschlagen wird.

Der Umbau des klassischen abendländischen römischen Rechts und des Common Law in ein neues Willkürrecht soll es ermöglichen, gesellschaftliche Normen nicht durch spontane Herausbildung oder politische Willensbildung zu verrechtlichen, sondern Normen beliebig zu setzen. Entscheidend für die Eliten des neuen Modells ist dabei die Aufhebung der Isonomie, aber ein vollständiger Ersatz wäre nicht zielführend, da ohne Rechtsrahmen keine moderne Wirtschaft funktionieren kann. Ein wichtiges Beispiel dafür sind die (medizinisch sinnlosen) Corona-Gesetze, die fast überall im Westen ohne Beteiligung der Parlamente von den Regierungen durchgesetzt wurden. Andere Beispiele sind Energiewende, Atomausstieg oder die willkürliche Bekämpfung des Individualverkehrs durch technisch nicht umsetzbare Abgasverordnungen. An der chaotischen und widersprüchlichen Ausformulierung solcher Vorhaben lässt sich schon ablesen, welche Folgen diese Art der Normensetzung hat.

Doch insbesondere ist die Corona-Politik nicht nur Symptom des neuen Herrschaftsmodells, sondern, nachdem die Errichtung globaler Herrschaftsstrukturen mit Hilfe der Klimapanik nicht recht gelungen ist, derzeit auch deren wichtigstes Durchsetzungsmittel. Denn diese Politik beschleunigt die globale Eigentumskonzentration gewaltig, da sie große Unternehmen schützt, gleichzeitig aber kleine und mittlere, oft eigentümergeführte oder zumindest im kleinteiligen Eigentum befindliche Unternehmen zerstört. Damit geht noch mehr Eigentum an den Finanzsektor und dessen Eigentümer über. Hier nutzt der Globalismus die klassische Rechtsordnung des Westens (Schuldeintreibung statt Erlass), um die Eigentumskonzentration so lange voranzutreiben, bis man sich wesentlicher Elemente des Rechtsmodells entledigen zu können glaubt.

Gestaltete Alarmrealität

Die Kontrolle der Medien ist ein weiteres wichtiges Herrschaftsinstrument, dessen Ausbau bereits weit fortgeschritten ist. In Deutschland ist der Marktanteil von Facebook, das die hier geschilderte Herrschaftsagenda vorbildlich vertritt, an Selbstdarstellungsplattformen nahe 100 Prozent. Das Internetoligopol aus Facebook, Google, Netflix, Amazon und wenigen anderen bedient in der Wahl der Inhalte und der Art, wie Suchergebnisse angezeigt und Produkte empfohlen oder beworben werden, ebenfalls diese Ideologie. Klassische private Medien, wie die traditionellen Zeitungen und Zeitschriften, private Radio- und Fernsehsender, sind unter dem hohen Druck des dekonstruktivistischen Westmarxismus (Rassismus- und Genderkampagnen, Kampf-gegen-Rechts, Kontaktschuldkampagnen) weitgehend eingeknickt und mehrheitlich sogar begeisterte Verbreiter dieses nihilistischen Kulturmarxismus; von den staatlichen Medien ganz zu schweigen. Alle beteiligen sich an der propagandistischen Diffamierung und Diskreditierung von Kritikern des Herrschaftsgeschehens als „Rechtsextremisten“. Doch die Propaganda erreicht ein neues Niveau, wenn Tatsachen der Realität verfälscht werden, um die Subjekte besser zu kontrollieren. Orwell beschreibt es in „1984“ überdeutlich: Geschichte, Gegenwart und die Aussicht auf die Zukunft werden nach Belieben der Partei beschrieben, und die Ideologie entscheidet alleine über die Wahrnehmung der Wirklichkeit. Es wird ein Framing über die Realität gelegt, wie man neuerdings sagt. Schon heute wird die Realität des endemischen Virus SARS-CoV-X, eines medizinisch in seiner Gefährlichkeit unter der von Influenza liegenden Erregers grippaler Infekte [11], von NGOs und Regierungen zur Pandemie erklärt. Sie setzen damit die eigentliche Realität außer Kraft und ersetzen sie durch eine gestaltete Alarmrealität, die die Journalisten und Bürger dann wahrnehmen und verbreiten. Entsprechend reagieren die Bürger mit Panik und befürworten totalitäre Maßnahmen – das Herrschaftsnarrativ ist bisher erfolgreich, die Herrschaft wird stabilisiert.

Besonders radikale Befürworter des neuen Herrschaftsmodells setzen sich für weitere Migration von Menschenmassen aus Gegenden mit geringem Zivilisationsniveau in die OECD-Staaten ein. Diese Menschen, die im Westen nach Wohlstand und Frieden suchen, aber lediglich Sozialität in Form der Vergemeinschaftung kennen und nicht in der Lage sind, sich in moderne Vergesellschaftungsstrukturen einzugliedern, sollen die Zusammengehörigkeit unterminieren und dadurch die zivilgesellschaftliche Willensbildung zur Abwehr der Herrschaftsagenda verhindern.

Eine weitere Komponente des neuen Modells ist die Überwachung. Jede Aktivität im Internet, ob durch Surfen oder der Nutzung von Gegenständen, die mit dem Internet verbunden sind (Autos, Zahlungsmittel, Wearables, Haushaltsgegenstände) erzeugt Spuren, die zur Überwachung von Individuen genutzt werden können. In einer Gesellschaftsordnung ohne Repräsentation und durchgehende Rechtsstaatlichkeit ist Überwachung essenziell, um Widerstand aufzuspüren und zu brechen.

Die führenden politischen Parteien in Westeuropa und Nordamerika, die die Prinzipien der repräsentativen politischen Willensbildung und der Amtstreue im Wesentlichen im Parteienstaat ausgelöscht haben, tragen diese Herrschaftsagenda weitgehend mit [1]; die einzige echte Ausnahme ist Donald Trump, dessen Wirkungsradius allerdings beschränkt blieb.

Es handelt sich allerdings nicht um eine Verschwörung, und dieser Aufsatz skizziert keine Theorie einer solchen, sondern Vertreter von Machtinteressen und ihre Vordenker erkennen Möglichkeiten und nutzen diese.

Die Probleme des neuen Modells

Was sind die Probleme dieses Herrschaftsmodells?

Erstens Widerstand der Bürger der Nationalstaaten, die das etablierte Legitimitätsmodell behalten wollen. Dazu könnten auch die Ordnungskräfte gehören. Der dauerhafte Wechsel von einem legitimen zu einem illegitimen Modell ist schwierig. Russland und China sind keine Gegenbeispiele, denn in beiden Ländern stehen totalitärer Zentralismus und lokale Patronatsstrukturen in langer Tradition der absolutistischen Vorgängerstaaten. Zwar wurden die Eliten ausgetauscht, aber nicht die Strukturen.

Zweitens eine Erosion der ökonomischen Produktivität infolge der Effekte der Migration und der aktiven (kulturmarxistischen) Normenzerstörung im Bildungswesen, aber auch in der parlamentarischen Normengestaltung und deren exekutiver Durchsetzung. Doch ohne die hohe Produktivität der voll ausgebauten Industriegesellschaft verfällt die wichtigste Legitimitätsgrundlage der Herrschaft. So kann es von der raschen Wohlstandserosion, deren Zeugen wir gerade werden, bis zur Versorgungskrise kommen.

Drittens die mangelnde machttechnische Absicherung des Modells. Wenn es zu der Versorgungskrise kommt, auf die wir uns gerade zubewegen, werden westliche Staaten mit datensetzender, instrumenteller und autoritativer Macht und Machtmitteln wie Propaganda, Sprachkontrolle und Diffamierung nicht mehr auskommen, sondern auf die Urform der Herrschaftssicherung, die Aktionsmacht [7], zurückgreifen müssen. Wo werden dann die bewaffneten Ordnungskräfte stehen?

Teil 1 finden Sie hier.

Zuerst erschienen bei der Achse, mit freundlicher Genehmigung.

Literaturhinweise

  1. Hans Herbert von Arnim. Staat ohne Diener: was schert die Politiker das Wohl des Volkes? Rowohlt Verlag GmbH, 2018.
  2. Egon Flaig. Die Niederlage der politischen Vernunft: wie wir die Errungenschaften der Aufklärung verspielen. zu Klampen Verlag GbR, 2017.
  3. Friedrich A von Hayek. Denationalisation of money: The argument refined. Ludwig von Mises Institute, 2009.
  4. Gertrude Himmelfarb. On looking into the abyss: Untimely thoughts on culture and society. Knopf New York, 1994.
  5. Bernard Manin. The principles of representative government. Cambridge University Press, 1997.
  6. Thomas Piketty. “About capital in the twenty-first century”. In: American Economic Review 105.5 (2015), S. 48–53.
  7. Heinrich Popitz. Phänomene der Macht. Tübingen: Mohr Siebeck, 1992.
  8. Guido Preparata. The Ideology of Tyranny: Bataille, Foucault, and the Postmodern Corruption of Political Dissent. Springer, 2007.
  9. Richard Rorty. Achieving our country: Leftist thought in twentieth-century America. Harvard University Press Cambridge, MA, 1998.
  10. Murray N Rothbard. Man, economy, and state. Ludwig von Mises Institute, 2009
  11. John P. A. Ioannidis: Global perspective of COVID‐19 epidemiology for a full‐cycle pandemic, E J Clin Invest, 10/2020. https://doi.org/10.1111/eci.13423



Steigt der Meeresspiegel immer schneller? (T2/2)

<span style=“ font-size: 12pt;“>

Was zeigen Pegeldaten?

Der Vergleich wird nicht global vorgenommen, sondern exemplarisch anhand von Daten des Süd-Pazifik (grob die im Bild schwarz umrandete Region), einer laut unseren Medien und erschütternden Berichten von Regierungsvertretern dortiger Inselrepubliken auf vielen Klimagipfeln besonders schwer vom Klimawandel betroffenen Region, wie es ja auch die Satellitendaten mit der tiefroten Einfärbung ausweisen.

Bild 1 Karte der Änderungsraten der Meeresoberflächenhöhe (geozentrischer Meeresspiegel) für den Zeitraum 1993–2012 aus Satellitenaltimetriedaten. Quelle: Deutsches Klima-Konsortium: KLIMA-FAQ 13.1 | MEERESSPIEGELANSTIEG. Bild vom Autor ergänzt

Zusammengefasst wurde diese erste Sichtung (ein weiteres Kapitel mit einer zweiten folgt) anhand der Pegeldaten der Inselgruppen: Cook Islands; Fiji; Kiribaty; Marshall Islands; Tuvalu; Vanuatu; Samoa
Entnommen sind die Pegeldaten dem Australischen Pazifik-Monitoringprogramm.

Bild 2 Die verwendeten original-Pegeldaten des Australischen Pazifik-Monitoringprogrammes von 1993 – 2019 (6 Atolle). Grafik vom Autor erstellt

Anbei das Übersichtsbild der auf den Endwert normierten Pegelverläufe von Bild 2. Der Pegelanstieg über den Zeitraum 1993 – 2020 beträgt laut Regressionsgeraden 3,27 mm/pa. Falls der Verlauf so bleibt, wären das bis zum Jahr 2100 ca. 26 cm zusätzlicher Pegel.

Bild 3 Pegeldaten des Australischen Pazifik-Monitoringprogrammes von 1993 – 2019 (Datenauszug 6 Atolle und Mittelwert mit Trendgeraden). Grafik vom Autor erstellt

Eine grobe Analyse dieses Pegelverlaufs zeigt das folgende Bild. Es zeigt, dass die über den gesamten Zeitraum gelegte Regressionsgerade einen zu hohen Wert liefert. Der wirkliche Pegeltrend ergibt sich aus den Einhüllenden. Und danach wäre der Tiden-Pegelanstieg in dieser (angeblich) besonders schlimm vom Meerespegelanstieg betroffenen Region nur ca. ca. 2,1 mm/pa, bis zum Jahr 2100 also noch +16,80 cm zusätzlicher Pegel (und meilenweit entfernt von den im Bild 1 durch die Einfärbung angegebenen Pegel-Steigungsraten).

Bild 4 Pegeldaten (Mittelwert) des Australischen Pazifik-Monitoringprogrammes (Datenauszug 6 Atolle) von 1993 – 2019. Grafik vom Autor erstellt

Stellt man diesem Tidenpegelverlauf die Satellitendaten gegenüber, sieht man, dass die einzelnen Satelliten immer grob einen Trend-Beschleunigungszyklus überstreichen. Nimmt man den Verlauf eines Satelliten, lässt sich „herrlich“ ein hoher Trend ableiten, wie es Prof. Rahmstorf in seiner Aussage für den Spiegel gemacht hat (siehe Teil 1). Wenn man dazu skrupellos verheimlicht, dass eine solche Aussage mit ziemlicher Sicherheit als Globalwert-“Feststellung“ falsch ist, gelingt die Pegel-Alarmmeldung perfekt.

Bild 5 Pegeldaten (Mittelwert) des Australischen Pazifik-Monitoringprogrammes (Datenauszug 6 Atolle) von 1993 – 2019 und Satellitenpegel im gleichen Zeitmaßstab gegenübergestellt. Grafik vom Autor erstellt

In den Grafiken (des Autors) steht immer „ohne Samoa“. Der Grund anbei:
Alle Südseeatolle liegen auf einer seismisch hoch aktiven Bruchkannte (Pazifischer Feuerring). Ein latentes, regelmäßig sich wiederholendes Problem sind dort Erdbeben mit als Folge auch vertikalen Landbewegungen. Und Samoa wurde durch solche seit 1993 um ca. 25 cm „gesenkt“, also weit, weit mehr, als der Meerespegel seitdem anstieg.

Bild 6 Pegeldaten Samoa und Teil-Mittelwert des Australischen Pazifik-Monitoringprogrammes (Datenauszug 6 Atolle) von 1993 – 2019. Grafik vom Autor erstellt

Solche Pegelverfälschungen durch Erdbeben sind in vielen Pegeldaten (nicht nur aus) dieser Weltgegend enthalten, da die Tidenpegeldaten grundsätzlich die originalen Messwerte sind und nicht berichtigt werden (im gezeigten Mittelwertverlauf sind Erdbebeneinflüsse auch erkennbar). Dies zum Unterschied gegenüber den weltweiten Temperaturmesswerten, welche oft mit Nachbearbeitungen (auf die „richtigen Werte“ geändert) hinterlegt sind.

Bild 7 Beispiel von Erdbeben im Tidenpegelverlauf. Quelle: PSMSL-Viewer

Anmerkung: Ein nicht vernachlässigbarer, zusätzlicher Pegeldaten-Verfälschungseinfluss (oft um mehrere Zentimeter pro Jahr, Tokyo soll dadurch gar um ganze 4 m gesunken sein [7]) sind auch die vom Menschen verursachten Landsenkungen vieler (im Küstensumpf) gebauten Küstenstädte:
[Link] EIKE 13.08.2017: Manila versinkt durch Wasserentnahme im austrocknenden Untergrund. Der (reiche) Westen mit seinem CO2 soll daran schuld sein – und zahlen
[7]
) … Viele Megastädte, besonders in Asien, sind gefährdet – zum Beispiel Jakarta, Ho-Chi-Minh-Stadt und Bangkok … Tokio ist nach Jahrzehnten der Grundwasserentnahme vier Meter abgesunken. Erst als diese beendet wurde, konnte das Absinken in den 1970er-Jahren gestoppt werden. Indonesien hingegen will die Hauptstadt von Jakarta nach Borneo verlegen, unter anderem, da die Stadt zu versinken droht.

Langfristverlauf anhand von PSMSL-Pegeldaten

Die Pegeldaten des australischen Pegel-Monitoringprogrammes haben den großen Vorteil, lückenlos, gepflegt, aktuell und damit vertrauenswürdig zu sein. Leider beginnen aber alle erst mit dem Jahr 1993 und sie sind regional begrenzt.

Zeitlich längere Daten und dazu noch rund um den Globus liefert PSMSL. Allerdings sind dessen Pegeldaten eher ein Beispiel, wie wenig Wert – und das gilt besonders für die (angeblich) besonders schlimm betroffenen Gegenden – auf diese gelegt wird, denn viele Datensätze sind ganz einfach nur Datenmüll. Man muss schon gezielt nach brauchbaren suchen, um realistische Auswertungen zu erhalten.

Mit den folgenden Pegelhinterlegungen: Honolulu; Johnston Island; Christmas Island II; Rikitea; Midway Island; Wake Island (Marshall-Inseln); Malakal-B; Bundabreg, Burnett heads Austr.; Brisbane (west inner bar),
fanden sich über einen längeren Zeitraum verlaufende, leidlich konsistente und vor allem auch bis mindestens 2018 reichende Datensätze.

Informativ daraus der längste Datensatz, Honolulu:

Bild 8 Pegelverlauf Honolulu von 1905 – 2019. Datenquelle: PSMSL. Grafik vom Autor erstellt

Alleine dieser Verlauf zeigt wieder, dass selbst in der „schlimm betroffenen“ Pazifikregion nicht entfernt von einem Pegelalarm aufgrund eines „schlimmen, sich ständig erhöhenden Pegelanstiegs“ gesprochen werden kann. Zusätzlich bestätigt wird dies durch die Pegel-Änderungs-Auswertung (äquivalent zu Bild 7 in Teil 1).
Die von Herrn Prof. Rahmstorf gemeldete, schlimme Pegelanstiegsrate von 4,8 mm/pa gibt es auch in dieser Gegend ab und zu, allerdings mit sich in Summe auf Null ausmittelndem Gesamtwert.

Bild 9 Honolulu. Pegel-Änderungsrate (Residuals) der 5Jahre-Zeitspanne als Absolutwerte und als Steigungswerte der Regessionsgeraden von 1905 – 2019. Datenquelle: PSMSL. Grafik vom Autor erstellt

Folgendes Pegelbild veranschaulicht ein Problem der kurzen Datensätze im australischen Monitoringprogramm (diese beginnen alle mit dem Jahr 1993).

Bild 10 Pegeldaten Brisbane (Australien Ostküste) ab ca. 1965. Pegel auf das Jahr 2018 normiert. Datenquelle: PSMSL. Grafik vom Autor erstellt

Nun die Darstellung mit allen Pegeldaten:

Bild 11 Pegeldaten der zuvor gelisteten PSMSL-Datensätze mit Mittelwert und Regressionsgeraden 1947 – 2019. Pegel auf das Jahr 2018 normiert. Grafik vom Autor erstellt

Herausgehoben sieht der Mittelwertverlauf wie folgt aus:

Bild 12 PSMSL-Datensätze: Mittelwert und Regressionsgeraden ab 1947. Pegel auf das Jahr 2018 normiert. Grafik vom Autor erstellt

Die Änderungsraten wiederholen mit ihrer Zyklik den schon bekannten – unspektakulären – Verlauf des Mittelwertes um Null:

Bild 13 PSMSL-Datensätze Mittelwert: Pegel-Änderungsrate (Residuals) als Absolutwerte und als Steigungswerte der Regessionsgeraden von 1947 – 2019. Datenquelle: PSMSL. Grafik vom Autor erstellt

Als Abschluss zur Darstellung der „Bedrohungslage“ im Pazifikraum durch den Pegelanstieg das folgende Pegelbild. Vergleichend muss man dazu berücksichtigen, dass die seit Jahrtausenden sich jährlich wiederholenden Hurricans Flutwellen von 3 … 5 m Höhe erzeugen (neben den zusätzlich erscheinenden, ebenfalls recht regelmäßigen Tsunamis).
Anmerkung: Warum die Minimalpegel so gestuft ansteigen, ist dem Autor ein Rätsel. Vielleicht kann irgend ein kenntnissreicherer Leser*in im Kommentarblock dazu etwas mitteilen.

Bild 14 PSMSL-Datensätze: Mittelwert und Regressionsgeraden ab 1947. Pegel auf das Jahr 2018 normiert. Grafik vom Autor erstellt

Der Pegelanstieg soll aber das Hauptproblem sein und der reiche Westen als angeblich daran Schuldiger bezahlt vorsorglich dafür noch Billionen (zum Start jährlich ca. 100 Milliarden Dollar) „Ablass“ an die „betroffenen“ Länder (die auf den Klimakongressen so werbewirksam – und unwidersprochen – weinen können). Mehr Irrsinn erscheint kaum möglich (wird mit Sicherheit aber noch kommen, nachdem die von den Laien als „Fachkraft“ im Verbrennen von Geld in der EU so erfolgreich „platziert“ wurde).

Fazit

Auch die Nachschau der Tidenpegeldaten belegt eher, dass die Aussage des hohen Pegelanstiegs von Herrn Rahmstorf viel eher falsch als richtig ist. Zudem werden die Küsten nicht durch den aus 1.320 km Höhe nach endlosen Korrektur(versuchen) „gemessenen“ Satellitenpegel, sondern weiterhin nur durch den an den Küsten wirklich vorhandenen beeinflusst.

Zufügung

Der Autor sichtet seit vielen Jahren auf der immer verzweifelteren Suche nach den viel berichteten, erschütternd schlimmen Pegelanstiegen und untergegangenen Inseln recht konsequent Pegelverläufe (und berichtet die Ergebnisse auf EIKE).
Die bisherige, leider auch hier wieder zu 100 Prozent zutreffende Feststellung bleibt: Es handelt sich bei solchen Meldungen immer um betrügerische nicht der wirklichen Faktenlage entsprechenden Aussagen.

In Deutschland darf man solche aber jederzeit wiederholen und beliebig publizieren. Denn kein Fachinstitut würde es wagen, öffentlich zu widersprechen (dann wären im Merkeldeutschland Karriere und Forschungsmittel dahin):
STERN, 26.12.2020: [3] Wirtschaftswachstum: Corona-Turbo – China wird die USA schon 2028 hinter sich lassen
… Das CEBR (Anm.: Center for Business and Economic Research) nimmt an, dass Umweltfragen in den nächsten 15 Jahren einen ernsthaften Einfluss auf die Form der Weltwirtschaft haben werden. „Es wird erwartet, dass der Meeresspiegel bis zum Jahr 2035 um 45 cm gegenüber dem Basisjahr 2000 steigen wird. Dies steht im Vergleich zu dem geringeren Anstieg von 20 cm bis 2030, der vor zwei Jahren vorhergesagt wurde“ …
Anmerkung: Das wäre ein Pegelanstieg von 12,86 mm/pa für die berichteten 35 Jahre. Da davon schon 20 Jahre mit nur maximal 2 mm/pa vergangen sind, müsste der Pegel nun spontan mit 27 mm/pa steigen. Man würde erwarten, dass das sogar einem STERN-Redakteur auffällt. Dann hätte er den erforderlichen Alarmartikel aber nicht schreiben können, und das hat eine höhere Priorität.

Dem STEN-Artikel gegenüber ist Herr Prof. Rahmstorf mit „seinem“ Pegelanstieg wirklich noch moderat. Ein Kollege von ihm im PIK macht das aber wieder wett. Prof. Levermann hält in einer Studie mit seiner Beteiligung „denkbare“ 8,9 m Pegelanstieg bis zum Jahr 2100 für möglich (das wären ab sofort ca. 100 mm/pa nötiger Pegelanstieg):
[6] EIKE 10. November 2019: Statt 80 sind plötzlich 300 Millionen Küstenbewohner vom Klimawandel bedroht

Bild 15 [6] Vorhersagen, „möglicher“ Meerespegel zum Jahr 2100. Die 8,9 m (mit Tolerierung stammen aus einer Studie unter Beteiligung von Herrn Prof. Levermann)
 

Die „Botschaft“ ist aber angekommen und ausschließlich darauf kommt es diesen Protagonisten an.

In der Frankenprawda (Nordbayerische Nachrichten) wird fast täglich in irgend einem Kommentar auch auf den schlimmen Klimawandel hingewiesen. Fehlt der Kommentar, erfolgt es in einem Artikel, Beispiel 02.01.2021, Nicole Quint (Reisereporterin, Ausbildung unbekannt): Artikel „Die Welt zu Tode liegen“, Zitat: „ … Mittel- bis Langfristig nützt eine Stelle als Zimmermädchen in einem Ressort auf den Malediven wenig, denn der Archipel droht in Folge des steigenden Meeresspiegels unterzugehen … “.
Gegendarstellung: Auf den Malediven scheint vielmehr etwas Anderes unterzugehen: EIKE 29.12.2020: Alarmismus geht auf den Malediven unter
… 97% der 186 Inseln haben entweder an Fläche zugelegt (59%) oder blieben in der Fläche unverändert (38%) …
Einfach immer das Gleiche, sowohl in der Politik wie auch bei unseren Medien: Keine Ahnung, dafür aber ein gefestigter Glaube, der sich in reinem Nachplappern äußert, was aber als (angebliche) Bildung ausgewiesen wird.

Quellen

[1] SPIEGEL Wissenschaft, Rahmstorf 15.12.2020: Klimakrise Warum der Meeresspiegel immer schneller steigt

[2] kaltesonne 23.12.2020: Die Welt säuft ab…wirklich?

[3] STERN, 26.12.2020: Wirtschaftswachstum: Corona-Turbo – China wird die USA schon 2028 hinter sich lassen

[4] RAHMSTORF 22. Feb 2016. SciLogs > KlimaLounge > Allgemein > Meeresspiegel über die Jahrtausende

[5] H. Bâkiİz* and C.K. Shum, January 29, 2020: The certitude of a global sea level acceleration during the satellite altimeter era

[6] EIKE 10. November 2019: Statt 80 sind plötzlich 300 Millionen Küstenbewohner vom Klimawandel bedroht

[7] DKK, Schrift: Zukunft der Meeresspiegel




Warum zeigen die Wassertem­peraturen von HadSST einen Abkühlungs­trend?

Zunächst ein Blick auf die fragliche Graphik in Abbildung 1 aus dem vorigen Beitrag:

Abbildung 1. Dieser Beitrag zeigt die globale Durchschnittstemperatur für den von HadSST abgedeckten Teil des Ozeans in diesem Jahr. Es werden sowohl die HadSST-Temperaturen als auch die ERSST-Temperaturen gezeigt, aber die ERSST-Gitterwerte sind auf den von HadSST abgedeckten Bereich zugeschnitten.

Wie wir in unseren vorherigen Beiträgen besprochen hatten, haben die mit Werten besetzten HadSST-Gitterzellen die besten Daten. Die Zellen sind 5° Breitengrad- und Längengrad-Boxen. Am Äquator sind diese Zellen über 300.000 qkm groß, größer als der Staat Colorado. Wenn Nicks Idee richtig wäre, würden wir erwarten, dass die Wertemenge in den Zellen an beiden Polen zunimmt. Abbildung 2 zeigt den prozentualen Anteil des globalen Gitters (einschließlich der 29% mit Land), der mit besiedelten SST-Zellen (Meeresoberflächentemperatur) bedeckt ist, nach Jahr. Die Anzahl der fehlenden Zellen variiert nicht sehr stark, das Minimum liegt bei 44% und das Maximum bei 48%. Es gibt zwar einen Abwärtstrend von 2001-2008, aber keinen Trend danach. Abbildung 1 flacht nach 2008 zwar ab, aber man muss sich schon anstrengen, um einen Anstieg von 2008 bis 2018 zu sehen.

Abbildung 2. Die Anzahl der monatlichen Nullzellen im HadSST-Datensatz, als Prozentsatz der gesamten globalen monatlichen Zellen pro Jahr (72x36x12=31.104).

Also, keine eindeutige Aussage aus diesem Diagramm. Schauen wir uns die Null-Zellen nach Jahr und Breitengrad in Abbildung 3 an.

Abbildung 3. Die Anzahl der monatlichen Null-Zellen, nach Jahr und Breitengrad.

Abbildung 3 zeigt, dass die Null-Zellen in den Polarregionen über den Zeitraum von 2001 bis 2018 ziemlich konstant sind. Ich habe 2018 zu einer dicken schwarzen Linie und 2001 zu einer dicken roten Linie gemacht, damit man den Anfang und das Ende der Reihe deutlicher sehen kann. Die wirkliche Variabilität liegt im südlichen Indischen, Pazifischen und Atlantischen Ozean von 55°S bis 30°S. Dies sind mittlere Breiten, nicht polare Breiten. Weder 2018 noch 2001 sind Ausreißer.

Das gleiche Muster ist zu erkennen, wenn wir uns einen Film der sich verändernden Nullzellen von 2001 bis 2018 ansehen. Klicken Sie auf die Karte unten, um den Film zu sehen.

Abbildung 4. Karte mit der Anzahl der monatlichen Nullzellen im HadSST-Datensatz für das Jahr 2001. Um zu sehen, wo die Nullzellen in allen Jahren bis 2018 sind, klicken Sie auf die Karte und ein Film wird abgespielt. Wie zuvor haben die weißen Bereiche keine Nullmonate in dem jeweiligen Jahr, die blaue Farbe ist entweder ein oder zwei Nullmonate und die anderen Farben sind mehr als zwei Nullmonate. Rot bedeutet, dass die gesamte Zelle null ist. [Sollte das mit dem Film nicht funktionieren, schaue man bitte im Original. Anm. d. Übers.]
Schlussfolgerungen

Die Anzahl der Nullzellen in den Polarregionen scheint sich von 2001 bis 2018 nicht wesentlich zu ändern. Die Änderungen treten in den südlichen mittleren Breiten auf. Die Anzahl der Nullzellen, als Prozentsatz des Globus, geht von 2001 bis 2008 etwas zurück, aber nur von 48 % auf 44 %, nicht genug, um einen Trend umzukehren. Nach 2008 gibt es keinen Trend bei den Nullzellen. Von 2008 bis 2018 ist der Temperaturtrend flach und nicht abnehmend, aber angesichts der Tatsache, wo sich die Anzahl der Zellen ändert, ist es schwer zu sagen, dass dies auf die Anzahl der besiedelten Zellen in den Polarregionen zurückzuführen ist.

Der Leser kann sich seine eigene Meinung bilden, aber meiner Meinung nach haben wir immer noch keine Ahnung, was die globale Ozeanoberflächentemperatur ist, oder ob sie steigt oder sinkt.

Link: https://wattsupwiththat.com/2020/12/26/why-do-the-hadsst-sea-surface-temperatures-trend-down/

Übersetzt von Chris Frey EIKE