1

Neuer Report: Behauptungen bzgl. eines Klima-„Notstandes“ werden durch Daten der realen Welt fundamental ad absurdum geführt

„Fast überall, wo man hinschaut, hat der Klimawandel nur geringe und oft harmlose Auswirkungen. Die Auswirkungen von extremen Wetterereignissen – Hurrikanen, Tornados, Überschwemmungen und Dürren – sind rückläufig. Die wirtschaftlichen Schäden sind im Verhältnis zum globalen BIP zurückgegangen. Die Todesraten durch solche Ereignisse sind seit den 1920er Jahren um 99 % gesunken. Klimabedingte Krankheiten haben abgenommen. Und es sterben mehr Menschen durch Kälte asls durch Wärme.“

Und selbst der Anstieg des Meeresspiegels – der als die schädlichste Auswirkung der globalen Erwärmung vorhergesagt wird – scheint ein weitaus geringeres Problem zu sein als angenommen. Laut Dr. Goklany haben Überprüfungen von historischen Karten und Satellitenbildern gezeigt, dass die Orte, die längst verschwunden sein sollten, tatsächlich noch vorhanden sind.

„Eine aktuelle Studie hat gezeigt, dass die Erde in den letzten 30 Jahren in den Küstengebieten tatsächlich mehr Land gewonnen hat, als sie durch den Anstieg des Meeresspiegels verloren hat. Wir wissen jetzt mit Sicherheit, dass Korallenatolle nicht verschwinden und sogar Bangladesch durch Verschlickung mehr Land gewinnt als es durch den Anstieg des Meeresspiegels verliert.“

Empirische Daten zeigen auch, dass die Nahrungsmittelproduktion pro Kopf seit 1961 um 30% gestiegen ist, obwohl sich die Weltbevölkerung mehr als verdoppelt hat. Hunger und Unterernährung sind zurückgegangen, die durch Waldbrände verbrannte Fläche ist zurückgegangen, und seit 1950 ist die Armut zurückgegangen, die Menschen sind wohlhabender und die globale Lebenserwartung ist von 46 auf 73 Jahre gestiegen.

Dr. Goklanys Arbeit Impacts of Climate Change: Perception and Reality wurde von der Global Warming Policy Foundation veröffentlicht und kann hier heruntergeladen werden (pdf).

Autor: Indur M. Goklany is an independent scholar and author. He was a member of the US delegation that established the IPCC and helped develop its First Assessment Report. He subsequently served as a US delegate to the IPCC, and as an IPCC reviewer.
Link: https://www.thegwpf.com/new-report-climate-emergency-claims-falsified-by-real-world-data/

———————————–

Aus der oben verlinkten und unten Studie werden im Folgenden Auszüge übersetzt, und zwar die Abschnitte The Standard Narrative, Discussion und Conclusion. A. d. Übers.

Auswirkungen des Klimawandels: Gefühl und Realität

Indur M. Goklany

1.The Standard Narrative

Das Standard-Narrativ in Bezug auf den Klimawandel, wie es in den Zitaten [der Studie vorangestellt, A. d. Übers.] von einigen der einflussreichsten Personen und Institutionen der Welt dargestellt wird ist, dass der Klimawandel bereits die Häufigkeit und Intensität von extremen Wetterereignissen (EWEs) und Flächenbränden erhöht, das Trinkwasser und die Ernteerträge knapp werden, Krankheiten, Hunger, Armut und die menschliche Sterblichkeit erhöht und die Produktivität der Biosphäre und den verfügbaren Lebensraum für Arten reduziert. Es wird behauptet, dass diese und andere Auswirkungen des Klimawandels das Wohlergehen von Mensch und Umwelt beeinträchtigen und weiter verringern werden, wenn nicht „drastische Maßnahmen ergriffen werden, um so schnell wie möglich null Netto-Treibhausgasemissionen zu erreichen“.

In diesem Papier wird untersucht, ob die Daten zu Klima-relevanten Indikatoren mit diesem Narrativ übereinstimmen. Insbesondere werden empirische Trends bei Extremereignissen, Flächenbränden, Wasserverfügbarkeit, Infektionskrankheiten und einige Indikatoren für das menschliche und ökologische Wohlergehen, wie wirtschaftliche Entwicklung, Armutsraten, Lebenserwartung, biologische Produktivität und Anbaufläche pro Kopf untersucht. Da der Klimawandel ein globales Phänomen ist, konzentriert sich die Studie in erster Linie auf Indikatoren auf der globalen Ebene. Es werden aber auch Trends für die USA, in geringerem Maße für China und Indien (die zusammen mehr als ein Drittel der Menschheit ausmachen), und, soweit verfügbar, aggregierte Daten aus Entwicklungsländern oder Ländern mit niedrigem Einkommen untersucht. Allerdings sollte man sich darüber im Klaren sein, dass die Existenz eines Trends in einem Land (oder einem Teil des Globus) nicht auf einen globalen Trend hindeutet.

Da der Klimawandel nicht mit Schwankungen des Wetters verwechselt werden darf, liegt der Schwerpunkt zudem auf langfristigen Trends. Idealerweise sollte die untersuchte Zeitreihe lang genug sein, um erstens eine Veränderung des Klimas zu erfassen. Das Klima wird oft in Form von 30-Jahres-Mittelwerten definiert. Er sollte also lang genug sein, um mindestens zwei sich nicht überschneidende 30-Jahres-Perioden zu definieren. Zweitens sollte er auch mindestens eine, wenn nicht mehrere, vollständige Perioden umfassen, die alle bedeutenden atmosphärischen oder ozeanischen Zyklen einschließen, die das Phänomen für die untersuchte Region signifikant beeinflussen könnten. Beispielsweise hat die Atlantische Multidekadische Oszillation, die laut Theorie Niederschläge und Dürren auf beiden Seiten des Atlantiks sowie die Hurrikan-Aktivität im nordatlantischen Becken beeinflussen kann, einen Zeitraum von 60-80 Jahren. Daher sollte die zeitliche Aufzeichnung zur Bestimmung von Trends für diese Region idealerweise lang genug sein, um einige dieser Perioden zu umfassen.

Discussion

Ich habe empirische Trends untersucht in: einer Vielzahl von klima- und wetterbezogenen Phänomenen; allgemein akzeptierte Indikatoren für das Wohlbefinden von Mensch und Umwelt, um zu überprüfen, ob sie sich im Laufe der Zeit aufgrund höherer atmosphärischer Kohlendioxid-Konzentrationen (und des daraus resultierenden Klimawandels) verschlechtern, wie es allgemein angenommen wird. Die Ergebnisse sind in den Tabellen 5 bzw. 6 zusammengefasst. Sie zeigen, dass mit Ausnahme der Tatsache, dass die heißen Tage zugenommen haben, während die kalten Tage abgenommen haben, keiner der Trends mit der verbreiteten Empfindung übereinstimmt. Hinsichtlich der Wetter- und Klimaphänomene (Tabelle 5):

Wirbelstürme, Tornados, Überschwemmungen und Dürreperioden werden nicht schlimmer;

Flächenbrände sind weniger ausgedehnt als früher;

die Getreideerträge und die Nahrungsmittelversorgung sind gestiegen;

Küstenränder und Strände sind nicht geschrumpft.

Klima und Wetter: Standard-Narrativ vs. Realität

Hinsichtlich des menschlichen Wohlergehens (Tabelle 9.2):

Die Sterblichkeit und die wirtschaftlichen Verluste durch extreme Wetterereignisse sind zurückgegangen;

der Zugang zu sauberem Wasser ist gestiegen;

Todesraten durch klima- und wetterabhängige, durch Bakterien/Viren übertragene und parasitäre Krankheiten sind zurückgegangen.

Am wichtigsten ist, dass mit dem Anstieg der Kohlendioxid-Emissionen seit Beginn der industriellen Revolution praktisch jeder messbare und signifikante objektive Indikator für das menschliche Wohlergehen gestiegen ist:

Lebenserwartung und Einkommensniveau haben sich verbessert;

das Armutsniveau ist gesunken;

die Menschen leben länger und gesünder;

der Index der menschlichen Entwicklung hat sich praktisch überall verbessert.

Es gibt auch keine Anzeichen für eine anhaltende Trendwende bei diesen Indikatoren in jüngster Zeit, obwohl es von Jahr zu Jahr geringfügige Schwankungen gibt. Diese Ergebnisse bestätigen die Erkenntnisse mehrerer früherer Studien, die entgegen den vorherrschenden dystopischen Erzählungen festgestellt haben, dass sich der Zustand der Menschheit seit Beginn der industriellen Revolution verbessert hat und sich bis in die Gegenwart hinein weiter verbessert, die Armut nimmt ab und die globale Ungleichheit verringert sich in Bezug auf die Einkommen und kritische Indikatoren für das menschliche Wohlbefinden: Lebenserwartung, Index der menschlichen Entwicklung und Zugang zu sauberem Wasser.

Was den Rest der Natur betrifft, so ist die Erde grüner und produktiver. Die gesteigerte Landproduktivität – eine Folge der Nutzung fossiler Brennstoffe – bedeutet, dass die Fläche, die für die menschliche Nutzung umgewandelt wurde, um das Jahr 2000 herum ihren Höhepunkt erreichte. Ohne fossile Brennstoffe müsste die Anbaufläche deutlich zunehmen, um die aktuelle Nahrungsmittelproduktion aufrechtzuerhalten. Somit haben fossile Brennstoffe den Verlust von Lebensraum um mindestens 14 % der globalen Landfläche reduziert und zahlreiche Arten und Ökosysteme gerettet. Diese Tatsache widerlegt die Behauptung, dass fossile Brennstoffe schädlich für die Artenvielfalt und Ökosysteme sind.

Conclusion

Das Klima mag sich zwar zum Wärmeren verändert haben:

Die meisten extremen Wetterphänomene sind nicht extremer, tödlicher oder zerstörerischer geworden.

Empirische Beweise widersprechen direkt den Behauptungen, dass erhöhtes Kohlendioxid das menschliche Wohlergehen verringert hat. Tatsächlich war das menschliche Wohlergehen noch nie so hoch.

Welche schädlichen Auswirkungen die Erwärmung und der höhere Kohlendioxidgehalt auch immer auf terrestrische Arten und Ökosysteme gehabt haben mögen, sie wurden durch den Beitrag der fossilen Brennstoffe zur Steigerung der biologischen Produktivität überlagert. Dies hat den Lebensraumverlust gestoppt und ins Gegenteil verkehrt.

Übersetzt von Chris Frey EIKE




Biden-Kabinett: Nominierte Ministerin offen für neue Steuern, um für die „Klima-Agenda“ zu zahlen

Eine Kandidatin für das Kabinett er Regierung Biden ist offen für neue Steuern, um die „Klima-Agenda“ zu bezahlen. Sie hat bereits Energie-Unternehmen verklagt, um von denen einen „nachhaltigen Finanzierungs-Strom“ zu erhalten, weil die Legislative das abgelehnt hat.*

[*Es ist nicht eindeutig, was der Autor hiermit ausdrücken will. Obiges ist die Interpretation des Übersetzers. Im Original lautet die Passage: Biden Cabinet Nominee Open to New Taxes to Pay for “Climate Agenda” — as Gov., Sued Energy Cos. to Obtain “Sustainable Funding Stream” Because Legislature Refused]

WEBEDITOR GAO

„Commerce Secretary“ entspricht in etwa unserem Wirtschaftsminister.

Die Leser von GAO [= Government Accountability & Oversight] und ClimateLitigationWatch sind mit den Bemühungen des Staates Rhode Island vertraut, Energieunternehmen vor dem Staatsgerichtshof wegen der Verursachung des Klimawandels zu verklagen, in der Hoffnung, damit Kasse zu machen, nachdem die Verwaltung zu dem Schluss gekommen war, dass die „Versammlung eine sehr konservative Führung hatte – die sich nicht um die Umwelt kümmert“, so dass der Gouverneur „auf der Suche nach einem nachhaltigen Finanzierungsstrom“ war.

Da sollte niemand überrascht sein, dass die von Präsident Biden nominierte Wirtschaftsministerin, die Gouverneurin von Rhode Island Gina Raimondo, bei ihrer Anhörung zu ihrer Nominierung die Linie vorgegeben hatte, dass die Ausgaben für die ambitionierte „Klima-Agenda“ viel Geld kosten und dafür „Mittel benötigt werden“, die man irgendwie aus der Bevölkerung saugen muss.

Die nominierte Wirtschaftsministerin Gina Raimondo: „Wir brauchen Geld!“

Laut zwei gleichzeitig aufgetauchten Notizen von einem Treffen in der Rockefeller-Villa – eine handschriftlich von einem Mitarbeiter des Rocky Mountain Institute, eine andere von einem Vertreter von Tom Steyers Energy Foundation – legte Raimondos eigene Beraterin im Kabinett, die Leiterin des Umweltministeriums Janet Coit fest, dass dies bedeutete, „vor einem staatlichen Gericht“ auf die „Priorität eines nachhaltigen Finanzierungsstromes“ zu klagen.

Fazit: Sie haben eine Geldausgeben-Agenda. Und ihr seid die Leute, das zu bezahlen!

Link: https://wattsupwiththat.com/2021/01/30/biden-cabinet-nominee-open-to-new-taxes-to-pay-for-climate-agenda/

Übersetzt von Chris Frey EIKE

Anmerkung: Die Abbildungen sind auch im Original kaum leserlich.

 




Corona: „Es geht um Leben und Tod“ – 2. Teil mit Gedanken dazu

Quelle: www.destatis.de Sonderauswertung Sterbefälle mit Stand vom 22.1.2021

Beim ersten totalen Lockdown vom Frühjahr 2020 ist kein Wirken eines Killervirus zu sehen. Im November / Dezember 2020 sieht es anders aus. Der erneute Lockdown hat nichts bewirkt. Die Zahlen steigen dennoch, hat da ein Killervirus gewütet? Aber es gibt auch andere Erklärungsmöglichkeiten. Der erste Lockdown im Frühjahr 2020 und dann der zweite Lockdown im November / Dezember 2020 zerstören die Existenzgrundlage von Millionen Menschen in Deutschland (weltweit 150 Millionen zerstörte Existenzen sagt DIE WELT).

Es drängen sich die Gedanken auf

Haben zunehmende Suizide den Anstieg verursacht? Sind in den täglich in Medien den genannten Zahlen „…  1000 Todesfälle in Verbindung mit Covid-19“ die Suizide der Menschen enthalten, deren wirtschaftliche Existenz vernichtet wurde? Dann hätte der Schutz vor dem geheimnisvollen Killervirus mehr Opfer zur Folge als das Virus selber.

Vergleichszahlen: Um 1980 nennt das Stat. Jahrbuch 350 Suizide pro Woche, um 2000 etwa 200 pro Woche.

Gedanken zur Weltlage

Es ist im Herbst 2020 still geworden um die täglichen von der John-Hopkins Universität veröffentlichten Zahlen. Man muss selber dort nachschauen. Die Karte vom 23.11.2020 11:00 Uhr: https://coronavirus.jhu.edu/map.html sieht so aus:

Gedanken zu dieser Weltkarte

Das Virus Covid-19 hat in China das Licht der Welt erblickt, es ist also ein sozialistisches Virus. Und dann hat es die Welt erobert, natürlich nur die kapitalistischen Länder, denn das sind seine Feinde: Man erkennt an der Pandemie sehr deutlich das Ergebnis des Klassenkampfes, nämlich den Sieg des Sozialismus über den Kapitalismus — mit einer List haben die Sozialisten die Kapitalisten herein gelegt.

Am 26.1.2021 sah die Karte ebenso aus, und aus den angegebenen Daten Fälle pro Land errechneten sich die Infektionszahlen pro 100 000 Einwohner (wie z.Z. bei uns üblich) zu 7 in China und 10 000 in USA. Das gibt zu denken?

Gedanken zum Maskenzwang

Die atmenden Lebewesen haben sich im Laufe von vielen Millionen Jahren entwickelt, schon die Saurier vor 60 Millionen Jahren brauchten Luft zum atmen. Der Mensch ist die Krone der Entwicklung.

Man kann berechnen: in jeder Sekunde muss jede Zelle des Körpers mit einer Millionen Sauerstoff-Molekülen versorgt werden, und je eine Million CO2-Moleküle müssen abtransportiert werden. Das ist der Grundumsatz des Körpers mit 100 Watt.

Ein Bergsteiger steigt in einer Stunde normal 300 Höhenmeter hoch, junge Menschen sind schneller. Das ergibt eine Mechanische Leistung von 100 Watt. Bei einem Wirkungsgrad der Wärmekraftmaschine „menschlicher Körper“ von 5% kommen zum Grundumsatz noch einmal 2000 Watt hinzu, die der Körper aufbringen muss. Das ist eine gigantische Leistung des Organismus, die Natur (oder Gott) hat dieses in grandioser Weise ermöglicht. Der Atmungsapparat schafft das, aber für die Versorgung mit Sauerstoff und den Abtransport des Verbrennungsproduktes CO2 ist freies atmen unerlässlich. Jetzt ist der Mensch dabei, entgegen der Natur das freie atmen durch Maskenzwang als Schutz vor einer virtuellen „Gefahr“ [1] wieder einzuschränken.

Gedanken zu den Möglichkeiten bei sportlicher Betätigung

Sportliche Betätigung ist sehr wichtig zum Erhalt der Gesundheit. Ich als Bergsteiger gehe in die Natur, aber bei Schlechtwetter in die Halle. Jetzt ist das verboten. Die Möglichkeit, etwas für meine Gesundheit zu tun, ist stark reduziert.

Die Maßnahmen der Politik haben Einfluss auf das mittlere Gewicht der Menschen und damit auf den Body-Mass-Index (hier): mittlere Gewichtszunahme in einem Jahr um 1kg und BMI-Zunahme um 0,5.

Es gibt zusammenfassende Arbeiten über den Einfluss des BMI auf Tod durch Herz-Kreislauf-Krankheiten [2]. Dem kann entnommen werden:

Bei BMI = 25 ist RR = 1, bei BMI = 30 ist RR = 3,4. 15kg Gewichtszunahme ergeben eine Erhöhung des relativen Todesrisikos bei HKK um +2,4 – (RR = relatives Risiko)

Zwischen dem BMI = 25 und BMI = 30 ist bei Mittelung über viele Studien eine deutliche Linearität zu sehen. Für 1kg Gewichtszunahme ergibt sich eine Zunahmen des RR = 0,16

Damit errechnet sich bei 400 000 Todesfällen durch HKK eine Zunahme von 65 000 Todesfällen in Deutschland durch 1kg Zusatzgewicht. Diese Zahl kann nur eine Abschätzung sein, sie verdeutlicht jedoch die immensen Nebenwirkungen der getroffenen Einschränkungen durch die Politik.

In den USA haben die Menschen wegen verbreiteter Adipositas eine um 3 bis 5 Jahre geringere Lebenserwartung.

Gedanken zur Information durch die Medien

Die täglichen Horrormeldungen mit den durch PCR-Test festgestellten „Neuinfektionen“ pro 100 000 Einwohner sind abhängig davon, wieviel Personen getestet werden. Diese Zahl ist beeinflussbar und nichtssagend.

Nützlich wäre die Quote von positiv getesteten dividiert durch die Anzahl der Testungen zu wissen. Diese Positiv-Quote lag im Sommer 2020 in KW27 bei 0,6% und in Winter in KW50 bei 11% [3].

Nützlich wäre eine Qualifizierung des PCR-Tests, d.h. zu wissen, wie viele Personen von den positiv getesteten echt krank werden (Fieber, Gliederschmerzen, notwendige Bettlägerigkeit) und wie viele von den negativ getesteten krank werden [1]. Das fehlt.

Der Anteil der Verstorbenen (an oder mit?) Covid-19 lag in Deutschland im Sommer zwischen 0,1% und 1% [3]. Das ist identisch mit den Zahlen im Bulletin der WHO vom Oktober 2020 (Ioannidis, 7.10.2020: Global infection fatality rate is 0.15-0.20% (0,03-0,04% in those <70 years) with large variability with different age-structure, intitutiolalization rates, socioeconomic inequalities, population-level clinical risk profile, public health measures, and health care. Das scheint die normale Sterbequote bei Erkältung alter Menschen zu sein.

Es beeindruckt besonders ein Kernsatz des Urteils des Amtsgerichtes Weimar vom 11. Januar 2021: „Es gab keine ‚epidemische Lage von nationaler Tragweite‘, wenngleich dies der Bundestag mit Wirkung ab dem 28.03.2020 festgestellt hat.“ (6 OWi-523 Js 202518/20)

Gedanken zur politischen Absicht

Diese werden uns nicht mitgeteilt. Jeder Bürger mag sich selber dazu Überlegungen anstellen. Ein uraltes deutsches Volkslied sagt dazu „Die Gedanken sind frei…“ – noch?

[1] Karina Reiss, Sucharit Bhakdi, Buchtitel „Corona Fehlalarm, Zahlen, Daten und Hintergründe“
[2] Jim Mann, Prof. in Human Nutrition and Medicine, z.B. https://www.bmj.com/content/346/bmj.e7492

[3] https://www.rki.de/ Lageberichte des RKI zu COVID-19




Die schockierende Klima-Graphik, die uns @climateofgavin* nicht zeigen will

Die Stationen mit der höchsten Bevölkerungsdichte verzeichneten einen Erwärmungstrend von ~0,25°C pro Dekade, wobei dieser Trend geringer war an Messpunkten mit geringerer Bevölkerungsdichte…“

Er fügt hinzu:

Bezeichnenderweise würde die Extrapolation auf eine Bevölkerungsdichte von Null im Wesentlichen keine Erwärmung in den Vereinigten Staaten während 1973-2011 ergeben. Wie wir sehen werden (unten), sagen offizielle Temperaturdaten, dass dieser Zeitraum einen erheblichen Erwärmungstrend hatte, der mit der Erwärmung in den Orten mit der höchsten Bevölkerungsdichte übereinstimmt.

Wie kann man dieses Ergebnis anders erklären, als dass – zumindest für den Zeitraum 1973-2011 – (1) eine falsche Erwärmung an den Stationen mit höherer Bevölkerungsdichte auftrat und (2) die Beweise dafür sprechen, dass es im Wesentlichen gar keine Erwärmung gab, falls es keine Menschen (keine Bevölkerungsdichte) gab, die das Mikroklima um die Thermometerstandorte verändert hätten?

Ich behaupte nicht, dass es keine globale Erwärmung gegeben hat (was auch immer die Ursache ist). Ich behaupte, dass es Beweise für eine falsche Erwärmung der Temperatur-Messungen gibt, die entfernt werden muss.“

Er hat auch aus meiner Arbeit zitiert, die 2015 auf der AGU veröffentlicht wurde:

Beachten Sie, dass dies ungefähr dem Trend entspricht, den ich mit den Stationen mit der höchsten (und nicht der niedrigsten) Bevölkerungsdichte erhalte. Anthony Watts berichtet über qualitativ ähnliche Ergebnisse mit anderen Daten zurück in 2015.

In einem Tweet von heute hatte ich meiner Bestürzung Ausdruck verliehen, dass Dr. Gavin Schmidt zu einem der Leitenden Berater bzgl. Klima im Weißen Haus ernannt worden war. In gleichem Sinne hatte der Atmosphären-Wissenschaftler Dr. Wei Zhang Folgendes dazu zu sagen:

Wir wissen, dass mit Gavin an der Spitze, die Temperatur steigen wird… Egal was die Thermometer sagen. Ich warte immer noch auf eine plausible Erklärung, warum Temperaturanpassungen fast perfekt mit Kohlendioxid korreliert sind. Ich würde erwarten, dass die Korrelation gegen Null geht.

Wei Zhang fügt in einem nachfolgenden Tweet als Antwort auf ein anderes Poster hinzu, welches ignorant versucht, ihm zu sagen, er negiere den Treibhauseffekt (Hervorhebung von mir):

Das ist nicht das, was ich gesagt habe. Warum korrelieren die Temperatur-ADJUSTIERUNGEN mit dem CO2? Die Wahrscheinlichkeit, dass dies zufällig geschieht, ist schockierend nahe bei Null.

Falls jemand die Bedeutung dieser Feststellung nicht gleich erfasst, folgt hier Klartext:

Was Wei Zhang veranschaulicht hat, ist eine fast perfekte Korrelation zwischen den Adjustierungen der Temperaturdaten, die von NASA GISS (und Gavin Schmidt) vorgenommen wurden, und der CO2-Konzentration in der Atmosphäre. Sie haben die Vergangenheit vor 1960 (etwa zu der Zeit, als die CO2-Messungen auf dem Mauna Loa begannen) künstlich abgekühlt und von 1960 bis heute künstlich erwärmt.

Das Ergebnis? Ein steilerer Erwärmungstrend (plus 0,24°C) als das, was tatsächlich in den unangepassten Daten existiert.

Es ist ein Beweis für den menschengemachten Klimawandel – geschaffen durch die Adjustierung der Temperaturdaten, um zu einer Prämisse zu passen – dass das vom Menschen erzeugte CO2, das in die Atmosphäre freigesetzt wird, die Temperatur treibt.

Aber es scheint aus der Analyse von Dr. Wei Zhang sehr klar zu sein, dass statistische Tricksereien hier die Haupttreiber des Temperaturanstiegs sind.

Meiner Meinung nach ist dies entweder wissenschaftliche Inkompetenz oder Betrug, möglicherweise beides. Ich verwende selten das Wort „Betrug“ in meiner Kritik, aber wenn Millionen von Dollar an Fördergeldern und das Prestige, zum Klimaberater des Weißen Hauses ernannt zu werden, auf dem Spiel stehen, was bleibt mir dann noch übrig? Falls es sich um echte wissenschaftliche Experten handelt – wie kann eine solche wissenschaftliche Inkompetenz über Jahre hinweg fortbestehen?

Wissbegierige Geister wollen es wissen.

Link: https://wattsupwiththat.com/2021/02/03/the-shocking-climate-graph-climateofgavin-doesnt-want-you-to-see/

Übersetzt von Chris Frey EIKE




Bidens großer Fehler bzgl. des Pariser Klima-Abkommens

Obwohl Präsident Bill Clinton das Protokoll unterzeichnete, folgte er dem gesunden Menschenverstand und legte das Abkommen nicht zur erforderlichen Vertragsratifizierung vor, obwohl der damalige Vizepräsident Al Gore die Klimakrise anfeuerte.

Im März 2001, kurz nach seinem Amtsantritt, hielt die Regierung von Präsident George W. Bush die USA davon ab, das Protokoll auch nur in Erwägung zu ziehen. Bushs Gründe für den Rückzug waren die gleichen wie die des Senats, nämlich dass es der US-Wirtschaft schaden, zu höheren Energiepreisen führen und andere Länder dazu einladen würde, von einem schlechten Deal für Amerika zu profitieren, der keinen wirklichen Nutzen für das Klima hat.

Basierend auf demselben ungeheuerlich fehlerhaften, von den Vereinten Nationen gesponserten politikwissenschaftlichen Spielbuch, das Kyoto vorausging und untermauerte, ist das Pariser Abkommen genauso schlecht oder noch schlechter für Amerika.

Präsident Trump hat richtig und verantwortungsbewusst gehandelt, als er sich von den katastrophalen Bedingungen verabschiedete, die von Präsident Obama ausgehandelt worden waren und deren Ratifizierung durch den Senat wiederum unwahrscheinlich war.

Das im Jahre 2012 ausgelaufene Kyoto-Protokoll basierte auf einem alarmistischen Bericht des UN-Weltklimarates (IPCC) aus dem Jahr 1995. Zu diesem schrieb Dr. Frederick Seitz, einer der angesehensten Wissenschaftler Amerikas und emeritierter Präsident der Rockefeller University:

In meinen mehr als 60 Jahren als Mitglied der amerikanischen wissenschaftlichen Gemeinschaft, einschließlich der Tätigkeit als Präsident sowohl der National Academy of Sciences als auch der American Physical Society, habe ich nie eine beunruhigendere Korruption des Peer-Review-Prozesses erlebt als die Ereignisse, die zu diesem IPCC-Bericht führten.“

Kyoto war vom ersten Tag an ein Betrug um Politik und Geld.

Falls man die eigenen Zahlen des IPPC akzeptieren würde, würde die zusätzliche Erwärmung von 1,39 Grad Celsius, die sie vorhergesagt hatten, nur 1,33 Grad C reduziert werden, ein unmerklicher Unterschied. Hinzu kommt, dass die IPCC-Klimaprojektionsmodelle zwei- bis dreimal höhere Temperaturen simuliert hatten als es die tatsächlichen Beobachtungen gezeigt haben.

Um diese höchst hypothetische Kleinigkeit zu erreichen, verpflichtete der Vertrag die Unterzeichner, die atmosphärischen Kohlendioxid-Emissionen zwischen 2008 und 2012 um durchschnittlich 5,2 Prozent gegenüber 1990 zu reduzieren. In jedem Fall ist es dem Protokoll nie gelungen, das globale CO2 zu reduzieren; stattdessen ist die atmosphärische Konzentration seit 1997 um etwa 1-2 Teile pro Million (ppm) pro Jahr gestiegen.

Die Wahl von 1990 als Basisjahr begünstigte Europa, Großbritannien, Deutschland und Russland – auf Kosten der USA. Großbritannien stellte damals von Kohle auf Erdgas um und verringerte damit den CO2-Ausstoß. Auch die Sowjetunion war kurz zuvor zusammengebrochen, was Deutschland dazu veranlasste, ineffiziente Kohlekraftwerke in seinem östlichen Teil zu übernehmen und zu schließen.

China und die großen Entwicklungsländer erhielten einen Freifahrtschein, nachdem sie alle Bemühungen zurückgewiesen hatten, ihren Verbrauch an fossilen Brennstoffen zu begrenzen.

Die Planungen für ein Kyoto-Nachfolgeabkommen wurden 2009 auf der zwanzigsten von den Vereinten Nationen gesponserten „Konferenz der Vertragsparteien“ (COP 20) in Kopenhagen vorangetrieben, auf der weitere reißerische Vorhersagen über weltweite Temperaturkatastrophen gemacht wurden.

Nur wenige Wochen vor Beginn dieses Klimakrisen-Klamauks wurden jedoch Kopien tausender entwendeter E-Mails von einem Computerserver der britischen Universität East Anglia, Climatic Research Unit (CRU), veröffentlicht, was einen abschreckenden Effekt auf die Diskussionen hatte.

Der berüchtigte „Climategate“-Skandal enthüllte, dass ein internationales Netzwerk von Klimawissenschaftlern, die diese düsteren Prognosen erstellt hatten, im Wesentlichen die Temperaturaufzeichnungen gefälscht hatten.

Neben vielen verdammenswerten Enthüllungen stellte der E-Mail-Austausch Versuche prominenter Wissenschaftler bloß, einen „Temperaturrückgang zu verbergen“ [hide the decline], und zwar im Zusammenhang mit einer untauglichen und inzwischen entlarvten, zusammengeschusterten „Hockeyschläger“-Graphik der Klimageschichte, die vom IPCC und Al Gore in den Mittelpunkt gestellt wurde, um einen Armageddon-Alarm zu schüren.

Als die COP-20-Verhandlungen mit China, Indien und anderen Entwicklungsländern ins Stocken gerieten, handelte Präsident Obama in letzter Minute ein gesichtswahrendes, zahnloses Abkommen mit den Führern der BASIC-Ländergruppe (Brasilien, Südafrika, Indien und China) aus.

Diese „Kopenhagener Vereinbarung“ diente als Vorläufer, um die Vorbereitungen für die COP-21-Treffen 2015 zu leiten, die das Pariser Abkommen hervor würgten.

Obama verpflichtete die USA zu einer 32-prozentigen Reduktion der CO2-Emissionen bis 2030 im Vergleich zu 2005. Darüber hinaus versprach er, bis zum Jahr 2020 3 Milliarden Dollar aus US-Steuergeldern in den Grünen Klimafonds der Vereinten Nationen einzuzahlen, und er befürwortete ein noch ehrgeizigeres Ziel, wonach die Industrieländer schließlich 100 Milliarden Dollar an die Entwicklungsländer zahlen sollten, um den Klimawandel abzumildern.

Eifrig bemüht, von Kopenhagen in die USA zurückzukehren, um die Verabschiedung seiner Gesundheitsinitiative Obamacare zu verkünden, brach der Präsident mit anderen Industrieländern, indem er China und Indien erlaubte, festen Verpflichtungen zur CO2-Reduktion zu entgehen.

Obwohl Chinas Vertreter zustimmten, ihre Emissionen bis 2030 zu reduzieren, weigerten sie sich, die Zunahme schon vor diesem Termin einzudämmen.

Und obwohl Indien sich verpflichtet hat, seine Emissionen nur noch bis irgendwann um die Mitte des Jahrhunderts zu steigern, wird ein 2019 angekündigter Plan die heimische Kohleproduktion des Landes in den nächsten fünf Jahren verdoppeln und die Nutzung fossiler Brennstoffe zur Stromerzeugung auf unbestimmte Zeit fortsetzen.

Wahrscheinlich in Erinnerung an die durchschlagend negative Reaktion auf Kyoto hat Präsident Obama das Abkommen nie dem US-Senat zur Zustimmung vorgelegt. Präsident Trump zog die USA komplett aus dem Abkommen zurück.

In der Folge erfüllt keiner der Unterzeichner des Pariser Klimaabkommens seine aktuellen Ziele für die Reduktion der Emissionen bis 2030. Nur fünf von ihnen – Luxemburg, die Niederlande, Frankreich, Portugal und Schweden – erreichen 50% ihrer Ziele. Die übrigen hinken alle noch weiter hinterher.

China und Indien, auf die 80 % des Emissionsanstiegs entfallen, treiben die Entwicklung von Kohle- und Ölkraftwerken im Einklang mit dem Anstieg des Gesamtenergiebedarfs drastisch voran. Reuters hat berichtet, dass China auch etwa ein Dutzend Kohlekraftwerke in Pakistan baut.

Das Land, das am meisten getan hat, um seine Emissionen zu reduzieren, ist eines, welches das Pariser Abkommen nie unterzeichnet hat. Dank einer bemerkenswerten Öl- und Erdgas-Fracking-Revolution führte Amerika 2019 die ganze Welt bei der Reduktion von CO2-Emissionen an.

Als Teil seiner 2 Billionen Dollar schweren „Equitable Clean Energy Future“-Agenda hat Präsident Biden versprochen, Amerika wieder an das Pariser Klimaabkommen von 2015 zu binden: die Beseitigung von Kohlenstoffemissionen bei der Stromerzeugung bis 2035 und die Umstellung von Öl, Erdgas und Kohle, um bis 2050 „Netto-Null-Kohlenstoff“-Emissionen zu erreichen.

Kurz gesagt, die Biden-Agenda wird eine Energieressource beenden, die über 200 Milliarden Dollar an Investitionen in neue Fabriken angeregt, Millionen von Arbeitsplätzen geschaffen, lebenswichtige Bundes- und Staatseinnahmen erzeugt, das Handelsdefizit um mehrere hundert Milliarden Dollar reduziert und Amerikas politische Flexibilität und Einfluss gegenüber ausländischen Gegnern und Verbündeten gleichermaßen erweitert hat.

Während Obama Bedingungen zustimmte und diese sogar anstrebte, von denen er wusste, dass sie in einem verbindlichen Vertrag nicht ratifiziert werden würden, sollten wir nicht damit rechnen, dass Präsident Biden diese Einsicht teilt. Wir können nur beten, dass eine Mehrheit des Senats im Jahr 2021 ein vernünftigeres Urteilsvermögen an den Tag legen wird.

Autor: CFACT Advisor Larry Bell heads the graduate program in space architecture at the University of Houston. He founded and directs the Sasakawa International Center for Space Architecture. He is also the author of „Climate of Corruption: Politics and Power Behind the Global Warming Hoax.“

Link: https://www.cfact.org/2021/01/31/bidens-paris-climate-agreement-blunder/

Übersetzt von Chris Frey EIKE

 




Gefährdeter Nebelwald, Wolken und Klimawandel

Der Gnarled Mossy Cloud Forest befindet sich auf der 5,6 Quadratmeilen großen Lord Howe Insel zwischen Australien und Neuseeland. Zum Vergleich: 54 Inseln könnten in die Grenzen von New York City passen. Dennoch ist Lord Howe Island ein evolutionäres Wunderwerk. Vierundvierzig Prozent (105) der Pflanzenarten auf der Insel und 37% aller wirbellosen Tierarten sind endemisch, also nirgendwo sonst auf der Welt zu finden. Außerdem beherbergt die Insel das am weitesten polwärts gelegene aller Korallenriffe. Daher wurde Lord Howe Island 1982 zum Weltnaturerbe erklärt.

Der Nebelwald in „kritischem Zustand“ ist begrenzt auf ein lediglich 0,1 Quadratmeilen großes Gebiet um den Gipfel des erloschenen Vulkans der Insel. Forscher befürchten, dass die einzigartige Artenvielfalt des Nebelwaldes sich nirgendwo mehr entfalten kann, falls die globale Erwärmung ihr Gedeihen stört. Dementsprechend bezeichnet die IUCN Ökosysteme mit solch begrenztem Verbreitungsgebiet als „in kritischem Zustand“. Obwohl die Arten auf ein kleines Gebiet beschränkt sind, sind sie sehr widerstandsfähig gegenüber klimatischen Veränderungen. Hunderttausende von Jahren waren nötig, damit sich die einzigartigen Arten der Insel aus ihren Vorfahren (nach ihrer Ankunft aus Australien, Neuseeland und Neukaledonien) entwickeln konnten. Während dieser Zeit überlebten sie abwechselnde Eiszeiten und warme Zwischeneiszeiten.

Unveränderliche geographische Gegebenheiten ermöglichen die Existenz von Nebelwäldern. Die meisten sind in den Tropen zu finden bei einer jährlichen Regenmenge von 2000 bis 2500 l/m². (Zum Vergleich: Im „regenreichen“ Seattle fallen im Durchschnitt nur knapp 1000 l/m² Regen.) Das folgende Foto verdeutlicht auch, warum Nebelwälder typischerweise auf Zonen innerhalb von 350 km von der Küste und über Höhen von 500 m beschränkt sind. Der Seewind ist mit Wasserdampf beladen. Wenn diese feuchte Luft aufsteigt und sich abkühl, kondensiert der Wasserdampf und bildet Wolken. Der „Gnarled Mossy Cloud Forest“ (knorriger, moosiger Nebelwald) existiert in einer Höhe von etwa 850 m.*

[*Alle Zahlenangaben sind von amerikanischen Maßeinheiten im Original auf mitteleuropäische Maße umgerechnet worden.]

Wolken hüllen den Gnarled Mossy Cloud Forest auf der Lord Howe-Insel ein.

Als die menschliche Bevölkerung zunahm, bedrohte die Landwirtschaft die Nebelwälder auf der ganzen Welt. Aufgrund der geringen menschlichen Besiedlung und der steilen Hänge wurde der Gnarled Mossy Cloud Forest jedoch von übermäßigen Verlusten verschont. Doch wie bei Hawaii und allen einzigartigen Inselarten der Erde sind eingeschleppte Arten die größte Bedrohung für die Artenvielfalt. Eingeführte Katzen, Schweine und Ziegen haben Lord Howe Island seit Mitte der 1800er Jahre geschädigt. Nachdem die Menschen diese Bedrohung erkannt hatten, starteten sie Programme zur Erhaltung der Arten auf der Insel. Schweine und Ziegen wurden in den 1980er Jahren ausgerottet, aber die Rattenplage auf der Insel ist nach wie vor problematisch. Bis heute kämpfen eine ausgesetzte Eule und Giftköderprojekte damit, die Rattenpopulationen zu begrenzen.

Zusätzlich zu den Ratten vermuteten die Wissenschaftler, dass der Nebelwald durch einen „Feuchtigkeitsverlust durch abnehmende Regenfälle und Wolkenbedeckung aufgrund des Klimawandels“ bedroht sei. Die Wissenschaftler gaben jedoch zu, dass ihre Schätzungen „auf begrenzten Informationen basieren“ und der tatsächliche Grad der Bedrohung für den Nebelwald von „kaum gefährdet“ bis „kollabiert“ reichen könnte. „Kaum gefährdet“ könnte sich als die richtige Bezeichnung erweisen, da langfristige globale Niederschlagsdaten einen leicht steigenden Trend in der Region zeigen.

Um ihre Katastrophen-Behauptungen zu untermauern, berufen sie sich jedoch unklugerweise auf eine längst widerlegte Studie aus dem Jahr 1999, in der behauptet wurde, dass durch die CO2-verursachte Erwärmung die Nebelwälder in Costa Rica austrocknen, indem die Wolkenhöhe steigt und angeblich die Gelbbauchunke zum Aussterben brachte. Diese Zuordnung zum Klimawandel war absolut falsch. Die Nebelwald-Amphibien wurden durch einen eingeschleppten Chytrid-Pilz getötet, der durch Sammler im Tierhandel, Forscher und Tiere wie eingeschleppte Ochsenfrösche verbreitet wurde. Bemerkenswert ist, dass die vermeintlich Besorgnis erregende Erwärmung und Austrocknung den Amphibien tatsächlich zugute kam, wurde doch der Pilz dadurch abgetötet. In ähnlicher Weise ist die Vegetation des Nebelwaldes von Lord Howe potenziell durch eingeschleppte Pilze (Phytophthora) bedroht, die von Touristen verbreitet werden. Daher werden Schritte unternommen, um eine „soziale Distanzierung“ in der Nähe gefährdeter einheimischer Pflanzen zu fördern.

Wie in Costa Rica gibt es auch auf Lord Howe Island periodische Trockenzeiten, die mit El-Nino-Zyklen verbunden sind. Die niedrigste aufgezeichnete Niederschlagsmenge auf der Insel fiel während des El Nino 1997. Um den Klimawandel für einen kurzfristigen Trockentrend verantwortlich zu machen, ignorierten die Forscher bezeichnenderweise die Tatsache, dass die zweitniedrigste Niederschlagsmenge im kühlen Jahr 1888 verzeichnet worden war und sich vom „Rekord-Minimum“ von 1997 um gerade einmal 8 l/m² Zoll unterschied. Darüber hinaus haben Forschungen ergeben, dass sich die Wolkendecke im Pazifik aufgrund von El-Nino-Zyklen und der Pazifischen Dekadischen Oszillation verschiebt, und regionale Baumring-Analysen zeigen 55-jährige Trockenzyklen, die durch El Nino verstärkt werden.

Ökologen wissen, dass sich überlebende Spezies im Nebelwald an die natürlichen Zyklen periodischer Trockenheit anpassen mussten, was über die Jahrtausende auch kein Problem für sie war. Ein Beispiel ist die Kentia-Palme. Sie stammt nur von der Lord Howe Insel und ist eine weltweit beliebte Zimmerpflanze, unter anderem, weil sie lange Zeiträume der Vernachlässigung und unregelmäßige Bewässerung übersteht. Also, nur Mut. Der Gnarled Mossy Cloud Forest wird durch den Klimawandel nicht zusammenbrechen. Und obwohl eingeschleppte Arten sicherlich eine Bedrohung darstellen, ist dies etwas, das die Menschen inzwischen zu korrigieren versuchen.

Jim Steele is Director emeritus of San Francisco State’s Sierra Nevada Field Campus, authored Landscapes and Cycles: An Environmentalist’s Journey to Climate Skepticism, and a member of the CO2 Coalition

Link: https://wattsupwiththat.com/2021/01/27/endangered-cloud-forests-clouds-and-climate-change/

Übersetzt von Chris Frey EIKE

 




Zwei Nuklear-Optionen

Mit einem wiederauflebenden Staatsapparat im Rücken bringt das Team Biden-Harris Amerika wieder unter die Fuchtel des Pariser Klima-Abkommens und blockiert mittels Exekutiv-Anordnungen die Keystone Pipeline sowie Öl- und Gas-Leasing ebenso wie Bohren, Fracking und Produktion (unter vielen anderen). Tausende von hochbezahlten Arbeitsplätzen werden fast sofort weg sein, Hunderttausende, dann Millionen mehr in den nächsten Jahren – desgleichen Zehnmilliarden Dollar in Löhnen, Lizenzgebühren und Steuereinnahmen.

Biden mag „das vielfältigste Kabinett der Geschichte“ nominieren – nach Rasse, Geschlecht und sexueller Präferenz. Aber es wird keine Vielfalt in Gedanken oder Sprache sein. Jeder Nominierte ist ein wahrer Gläubiger an das „Klimachaos“ sein, und unsere vermeintliche Fähigkeit, das Klima der Erde zu kontrollieren, indem wir Amerika auf „saubere, erneuerbare“ Energie „umstellen“:

Gina McCarthy als Nationale Klimaberaterin, John Kerry als präsidialer Klimabeauftragter, Michael Regan als Leiter der EPA, Jennifer Granholm für Energie, Pete Buttigieg für Transport, Debra Haaland als Leiterin des Innenministeriums und viele mehr, sogar im Verteidigungsministerium und USAID [eine US-Hilfsorgasnisation]. Das Klima wird die Energie- und Wirtschaftspolitik bestimmen, während Big Media und Big Tech die Biden-Agenda fördern und Klimachaos-Skeptiker, Republikaner und andere konservative Stimmen in den USA und darüber hinaus zensieren und zum Schweigen bringen. So viel zu Demokratie und Einigkeit.

Wahrscheinlich werden sie die „sue-and-settle“-Prozesse wieder aufleben lassen, bei denen Umweltschützer Regierungsbehörden verklagen, um Regeln durchzusetzen, die sowohl die Kläger als auch die Regulierungsbehörden wollen, aber nicht durch den Prozess der Gesetzgebung bekommen können. Die Parteien finden freundliche Gerichte, und die Regierungsbehörde stimmt zu, die Fälle zu vorher vereinbarten Bedingungen beizulegen. Das Pariser Abkommen wird der Klimaprozessindustrie unzählige Möglichkeiten bieten.

Ihr Ziel ist es, so viele fossile Brennstoffe wie möglich sofort zu regulieren und einzuschließen, dann den Verkauf von Verbrennungsfahrzeugen bis 2035 zu verbieten und die Nutzung von Öl, Erdgas und Kohle in den USA bis 2050 zu beenden. Das sind 80% der Energie, die Amerikas Industrien, Arbeitsplätze, Häuser, Krankenhäuser und Lebensstandard antreibt. Vorbei.

Covid Lockdowns werden ein Testlauf unserer Gefügigkeit gegenüber ihren Forderungen sein – und von ihrer Fähigkeit zu diktieren, wie viel und welche Art von Energie, Häuser, Autos, Arbeitsplätze, Lebensmittel und Freiheiten wir „haben dürfen“. Familien, die von den Lockdowns betroffen sind, werden noch härter und länger drangsaliert werden.

Der Kongress bereitet sich auch darauf vor, voll auf Kernkraft zu setzen. Die Sprecherin des Repräsentantenhauses Nancy Pelosi bereitet ihren eigenen Kraftakt vor, während Senator Chuck Schumer geschworen hat, dass er „sich nicht die Mühe macht, Mehrheitsführer zu werden, um wenig oder gar nichts zu tun“. Die Abschaffung des Filibusters könnte der Vorbote eines Green New Deal sein, den viele Demokraten als eine „Wie-veränderst-du-die-gesamte-Wirtschaft-Sache“ ansehen.

Unter Berufung auf Computermodelle und Studien, die oft Daten verbergen und die planetarische Realität falsch darstellen, bestehen sie darauf, dass wir vor einer Klimakrise stehen, die radikale Maßnahmen rechtfertigt. Der Klimatologe Dr. Roy Spencer betont, dass die Klimamodelle jetzt „mindestens doppelt so viel Erwärmung“ erechnen und prognostizieren als tatsächlich vorhanden. Es gibt einfach keinen Klimanotstand: nicht bei den Temperaturen und nicht bei Hurrikanen, Tornados, Überschwemmungen, Dürren, Flächenbränden oder anderen vermeintlich CO2-bedingten Ereignissen. Die Klimakatastrophen sind frei erfunden.

[Hervorhebung vom Übersetzer]

Sie bestehen auch darauf, dass der Rest der Welt „unserem Beispiel folgen wird“. In der realen Welt bauen China, Indien und andere Länder Tausende von Kohle- und Gaskraftwerken und bringen Millionen von nicht-elektrischen Autos auf ihre Straßen. Diese Länder wollen Strom, Arbeitsplätze, Mobilität und moderne Lebensstandards. Sie sind nicht an die Emissionsgrenzwerte oder Zeitpläne von Paris gebunden und haben auch nicht die Absicht, sich daran zu halten. Sie wissen, dass fossile Brennstoffe der Schlüssel zu einem besseren Leben sind, während Wind und Solar Armut, Elend und häufige Stromausfälle verewigen würden.

[Hervorhebung vom Übersetzer]

Am erstaunlichsten ist vielleicht, dass sie sich selbst eingeredet haben, dass wir die fossilen Brennstoffe in den USA (und weltweit) schnell, einfach, erschwinglich und ökologisch durch Wind-, Solar-, Batterie- und Biokraftstoffenergie ersetzen können. Sie haben keine Vorstellung davon, wie monumental diese Aufgabe sein würde. Allein in den USA müssten wir 7,5 Milliarden Megawattstunden pro Jahr an Strom und stromäquivalenter Kohle, Öl und Erdgas in den heutigen Fahrzeugen, Fabriken, beim Heizen, Kochen und zahlreichen anderen Anwendungen ersetzen. Dabei sind noch nicht einmal die petrochemischen Ausgangsstoffe für Farben, Kunststoffe, Pharmazeutika, synthetische Fasern und andere Produkte berücksichtigt.

Wir würden bezahlbare 24/7/365-Zuverlässigkeit* gegen teure, subventionierte, wetterabhängige Energie eintauschen. Sie reden, als ob es eine leicht überschaubare, kaum wahrnehmbare Anzahl von Windturbinen, Sonnenkollektoren, Backup-Batterien, Übertragungsleitungen und Mais- und Sojafarmen erfordern würde. Rechnen Sie nach – und berücksichtigen Sie die Notwendigkeit, viele Turbinen, Paneele und Biokraftstoff-Farmen in suboptimalen Gebieten zu installieren. Wir haben es hier mit industriellen Energieanlagen, Bergbau und Fabriken zu tun, wie es sie in der Geschichte der Menschheit noch nie gegeben hat. Die Auswirkungen auf die Landschaft, die Lebensräume, die Tierwelt sowie die Luft- und Wasserqualität in den USA und weltweit wären verheerend.

[*24/7/365 = 24 Stunden an 7 Tagen der Woche und an 365 Tagen im Jahr]

Zum Glück gibt es eine zweite nukleare Option. Falls das Team Biden-Harris entschlossen ist, fossile Brennstoffe zu eliminieren, könnte es mehr für die Förderung der Kernkraft tun. Das könnte auch Afrika tun – und Europa, Asien und der Rest der Welt. Die Nukleartechnologie macht rasante Fortschritte, und moderne Kernkraftwerkskonzepte sind allen bisher gebauten weit überlegen (und kostengünstiger).

Kraftwerke der 3. und 4. Generation haben eingebaute passive Sicherheitsmerkmale, die eine Kernschmelze verhindern. Kleine modulare Reaktoren (Small Modular Reactors SMRs) können so klein wie 100 MW sein. Ein Reaktor kann eine Stadt mit Strom versorgen, weitere können hinzugefügt werden, wenn der Strombedarf steigt, und mehrere können zusammengeschaltet werden, um eine große Metropole zu versorgen. Pebble Bed Modular Reactors verwenden Uran in Form von Pellets in der Größe von Zuckerkörnern, von denen jedes einzelne speziell beschichtet und dann in Graphitkugeln von der Größe von Cricket- oder Lacrosse-Bällen eingebunden ist. Auch an anderen Technologien wird mit >Hochdruck geforscht.

In der Vergangenheit bauten die USA riesige, einmalige Anlagen, wie die Palo Verde Anlage außerhalb von Phoenix, AZ: drei 1.270-MW-Reaktoren, die jährlich 32 Millionen MWh erzeugen. Deren Bau dauerte in der Regel Jahre, nach einem Jahrzehnt von Prüfungen, Änderungen, Genehmigungen und Rechtsstreitigkeiten. Heute könnten wir einen „Flottenansatz“ verwenden, um die gleichen bewährten, sicheren Designs immer wieder zu bauen, oft von den gleichen erfahrenen, spezialisierten Crews.

Mehrere fortschrittliche Reaktorkonzepte amerikanischer Unternehmen befinden sich bereits in verschiedenen Entwicklungsstadien. Holtec International versucht, die Forschungs- und Entwicklungsarbeiten an einem modernen SMR-160 der nächsten Generation abzuschließen, der in Lacey Township, NJ, gebaut werden könnte, wo früher das 636-MW-Siedewasser-Kernkraftwerk Oyster Creek betrieben wurde. Es würde etwa 160.000 Haushalte mit Strom versorgen und verwendet keine Pumpen oder Ventile; alle wichtigen Komponenten, einschließlich des Kühlwassers, sind in Containment-Anlagen versiegelt.

Die Nuclear Regulatory Commission genehmigte den Entwurf von NuScale Power für einen Leichtwasserreaktor und den von Oklo Power für eines der ersten Kernkraftwerke, das kein Wasser als Kühlmittel verwendet. (Es ist gasgekühlt.) Oklo, NuGen und andere Unternehmen bauen auch 1,5 bis 20-MW-„Mikroreaktoren“, die im Weltraum und in abgelegenen, netzfernen Gemeinden, im Bergbau, in Industrieanlagen und auf Militärstützpunkten eingesetzt werden könnten. Das US-Energieministerium hat kürzlich einen Zuschuss für ein Demonstrationsprogramm für Nicht-Leichtwasserreaktoren bewilligt, die schon bald einsatzbereit sein könnten. Auch Schmelzsalz- und Thoriumreaktoren sind im Kommen.

Es sind wichtige Perspektiven – ob durch die „Klimakrise“ oder andere Gründe angetrieben. Und während einige weiterhin behaupten, Atomkraft sei „eine Bedrohung für Gesundheit und Sicherheit“, müssen das Team Biden-Harris, der Kongress, echte Umweltschützer und nachdenkliche Bürger eine zentrale Realität anerkennen: Es ist relativ einfach, fossile Brennstoffe abzusperren und abzuschalten, ohne triftigen Grund. Sie zu ersetzen ist dagegen kostspielig und schwierig.

Die alte Kernkraft hat sicherlich ihre Wahrnehmungs- und Sicherheitsprobleme, obwohl selbst bei den am meisten publizierten Unfällen in Tschernobyl und Fukushima nur sehr wenige Menschen starben. Moderne Kernkraftwerke werden weitaus bessere, sicherere, kostengünstigere und zuverlässigere Quellen für reichlich vorhandenen, bezahlbaren (CO2-freien) Strom sein.

Darüber hinaus bringt pseudo-erneuerbare Energie ihre eigenen Probleme mit sich: Millionen von Turbinen, die weit höher sind als das Washington Monument; Milliarden von Paneelen, die sich über Dutzende oder Hunderte von Quadratkilometern ausbreiten; Tausende von 1200-Pfund-Batteriemodulen in Lagerhäusern, die darauf warten, monströse Feuer zu entfachen; Minen in China und der Dritten Welt mit Landzerstörung, Verschmutzung und Menschenrechtsverletzungen. Es gibt nichts umsonst!

[Hervorhebung im Original].

Autor: Paul Driessen is senior policy advisor for CFACT and author of Cracking Big Green and Eco-Imperialism: Green Power – Black Death.

Link: https://www.cfact.org/2021/01/29/two-nuclear-options/

Übersetzt von Chris Frey EIKE

 




BLACKOUT – kleines Handbuch zum Umgang mit einer wachsenden Gefahr – Folge 7

Empfehlung: Die Nutzung eines benzingetriebenen Notstomaggregats sollte nur in Erwägung gezogen werden, wenn damit Verbraucher mit einer geringen Gesamtleistung versorgt werden sollen.

Empfehlung: Um eine längerfristige Stromversorgung – auch mit etwas höheren Leistungen – bei einem Blackout sicherzustellen, ist die Anschaffung eines Diesel-Modells die beste Wahl. Herausgehobene Qualität findet man beim Marktführer PRAMAC.

6.10.4 Kraftstoffe von der Tankstelle sind nicht lagerfähig!

In einem thüringischen Dorf wurde 1985 beim Abriss einer alten Scheune unter Gerümpel ein Fass mit Dieselkraftstoff gefunden, welches noch vor 1945 betankt worden sein musste. Die LPG-Bauern hatten keine Hemmungen, den mindestens 40 Jahre alten Diesel in den Tank eines Traktors vom Typ Belarus zu schütten, der damit klaglos fuhr. Würde man sich heute mit einem 5 Jahre alten Dieselkraftstoff etwas Vergleichbares erlauben, müsste man damit rechnen, dass der Traktor stehen bliebe, weil Zersetzungsprodukte des modernen Kraftstoffs die Düsen in seinem Motor verstopften. Seit dem 1. Januar 2015 gilt die in §37a des Bundes-Immissionsschutzgesetzes geregelte sogenannte Treibhausgas-Minderungspflicht. Die vom Gesetzgeber für 2015 festgesetzte Treibhausgas-Minderungsquote (THG-Quote) von zunächst 3,5 % wurde ab dem Jahr 2017 auf 4 % und Anfang 2020 auf 6 % erhöht. Dem Dieselkraftstoff wird deshalb der zumeist aus Raps hergestellte Biodiesel in steigender Konzentration beigemischt. Benzin erhält einen Zusatz aus Bioethanol, welches hauptsächlich aus den Nahrungsmittelpflanzen Mais, Weizen und Zuckerrüben produziert wird. Damit sind Benzin und Diesel – vor allem unter Sauerstoffeinfluss – nicht mehr dauerhaft stabil und beginnen nach wenigen Monaten zu zerfallen. Viele Hersteller garantieren lediglich eine Haltbarkeit von 60 Tagen. Danach beginnt der Kraftstoff sich zu entmischen.

Die Konsequenzen für die Notstromversorgung sind durchaus dramatisch. Eine Untersuchung des Instituts für Wärme und Oeltechnik belegte bereits 2016, dass die zuverlässige Einsatzbereitschaft von mehr als 80 % der untersuchten Netzersatzanlagen aufgrund der Qualitätsminderungen des Kraftstoffs nicht sicher gegeben war. Als Konsequenz aus solchen Untersuchungen wird die Verwendung von schwefelarmem Heizöl anstelle von Dieselkraftstoff empfohlen. Ein Heizöl mit den entsprechenden Qualitätsparametern ist aber in den geringen, für die Bevorratung eines privaten Notstromaggregats erforderlichen Mengen gar nicht erhältlich. Was kann man tun?

Empfehlung: Legen Sie sich – wenn irgend möglich – einen Vorrat von 200 Litern eines extrem lange lagerfähigen Sonderkraftstoffs zu, wie er im Mineralölwerk Georg Oest in Freudenstadt hergestellt und in luftdicht verschlossenen Spezialkanistern angeliefert wird.

6.11 Nutzung der Fotovoltaikanlage beim Blackout?

Derzeit gibt es in Deutschland mehr als 1,7 Millionen Photovoltaik-Anlagen.

1. Frage: Kann man sie bei einem Blackout noch nutzen?

Die Antwort ist: „Nein“, denn sie schalten sich sofort ab, wenn es keine Netzspannung gibt, an der sich ihre Wechselrichter bezüglich Frequenz und Phasenlage ausrichten können.

Nun sind einige davon bereits mit Batteriespeichern ausgerüstet, die auch dann noch Strom liefern, wenn keine Sonne mehr scheint.

2. Frage: Liefern diese Speicher auch bei einem Blackout noch Strom?

Auch hier ist die Antwort „Nein“, denn auch diese Speicher funktionieren nur mit Netzstrom. Das führt zur

3. Frage: Gibt es dennoch eine Möglichkeit, aus der PV-Anlage bei Stromausfall Elektroenergie zu beziehen?

Diese Frage kann grundsätzlich mit „Ja“ beantwortet werden – Voraussetzung ist die vorherige Umrüstung zu einer Inselanlage für eine Netzspannung von 220 Volt oder für Drehstrom. Bei einem Stromausfall lässt sich dann die PV-Anlage auf Inselbetrieb umschalten oder schaltet sogar automatisch um. Spezialisierte Firmen, wie die RCT Power GmbH in Konstanz erbringen die dafür notwendige Komplettleistung.

Empfehlung: Überlegen Sie gemeinsam mit dem Elektroplaner sorgfältig, ob der von Ihrer PV-Anlage erzeugte Strom und die Kapazität des Batteriespeichers ausreichen, um eine sinnvolle Nutzung als Inselanlage zu garantieren.

Grundsätzlich wäre auch der Parallelbetrieb einer PV-Anlage mit einem Notstromaggregat möglich. Technische Voraussetzung ist dabei eine gute Frequenzkonstanz des Aggregats. Jedoch ist eine solche Kombination nicht erlaubt, weil man mit ihr den Strom des Notstromaggregats in das Netz einspeisen könnte.

6.12 Woran man sonst noch denken sollte

– an einen Vorrat Ihrer ständig benötigten Medikamente für mindestens zwei Wochen,

– an eine gut ausgestattete Hausapotheke, über deren empfehlenswerten Inhalt alle Krankenkassen im Internet Auskunft geben. Bei der Planung ist jedoch zu bedenken, dass die Apotheke in einem Zeitraum mit stark eingeschränkter Hygiene hilfreich sein soll.

Empfehlung: Zur Vorbeugung von Wundinfektionen sollte die Hausapotheke reichlich antiseptische Wundsalben (wie Jodsalbe) enthalten.

– an ein batteriebetriebenes Radio,

– an genügend Zündmittel für Kerzen, Petroleumlampen, Propangaskocher,

– an Toilettenpapier, Feuchttücher (als Duschersatz), Küchenrollen (für die Reinigung benutzten Geschirrrs),

– an antibakterielles Handreinigungsgel

– an Tampons, Babywindeln

– an den Bedarf Ihrer Haustiere für mindestens zwei Wochen,

– an einen gefüllten Reservekanister für Ihr Auto.

7. Der Blackout ist eingetreten – oder ist es doch nur eine lokale Störung beim örtlichen Stromversorger?

An irgendeinem späten Abend erlöschen in Ihrer Wohnung plötzlich alle Lampen; Fernseher und Radio verstummen. Wenn nur Sie von der Störung betroffen sind, könnte es am Hausanschluss liegen. Sie treten ans Fenster und stellen fest, dass nirgendwo mehr Licht zu sehen ist. Nun haben Sie die prinzipielle Möglichkeit, über Störungsauskunft.de in Erfahrung zu bringen, ob es sich nur um eine lokale Störung bei Ihrem Stromversorger handelt. Das Portal lässt sich zwar über Google Internet Explorer nicht anwählen und verlangt Microsoft Edge oder Mozilla Firefox als Browser, doch erfährt man dabei wenigstens, ob das Internet noch funktioniert. Sollte dies nicht der Fall sein, müssen Sie von einem großflächigen Stromausfall ausgehen. Auch der Ausfall von Mobilfunk oder Festnetz kann als ein sicheres Indiz für einen Blackout gelten. Wenn Sie sich rechtzeitig ein batteriebetriebenes Radio zugelegt haben, können Sie jetzt darauf einen Sender suchen, der vermutlich sehr bald sein Programm unterbrechen wird, um über den eingetretenen Blackout zu berichten.

Und wenn sie inzwischen mittels Notstromaggregat Ihren Fernseher in Betrieb nehmen konnten: zappen Sie kurz die Senderfolge durch! Wenn Sie nur noch wenige (notstromversorgte) Sender empfangen, ist auch dies ein untrügliches Zeichen für den Blackout.

7.1 Sofortmaßnahmen .….

Was jetzt unverzüglich zu tun ist, hängt von Ihrer persönlichen Situation ab.

Wenn Sie nicht von einer weiteren Versorgung mit Trinkwasser ausgehen können (s. Punkt 6.1) …..

Empfehlung: Füllen Sie sofort alle verfügbaren Gefäße und die Badewanne mit Leitungswasser.

Wenn Sie nicht über ein Notstromaggregat verfügen …..

Empfehlung: Decken Sie Tiefkühltruhe, Tiefkühlschrank und Kühlschrank mit Bettdecken zu, um deren Erwärmung so lange wie möglich hinauszuzögern.

Wenn Sie über ein Notstromaggregat verfügen …..

Empfehlung: – Schalten Sie (sicherheitshalber) sämtliche elektrischen Verbraucher aus.

– Nehmen Sie das Aggregat in Betrieb.

– Schalten Sie die Geräte ein, die jetzt unbedingt laufen sollen.

7.2 ….. und Empfehlungen für längere Dauer des Stromausfalls

Bei längerer Dauer des Stromausfalls ist unausweichlich an die Prognose des Bundestagsausschusses für Bildung, Forschung und Technikfolgenabschätzung zu denken: „…ein Kollaps der gesamten Gesellschaft wäre kaum zu verhindern“. Anders ausgedrückt: Der öffentlichen Ordnung und Sicherheit droht der vollständige Zerfall. Wie schnell sich ein solcher Zerfall vollziehen kann, zeigt das Beispiel des Stromausfalls in New York vom 21. Juli 1977. Er wurde durch zwei Blitzeinschläge verursacht und dauerte nur 25 Stunden. Dennoch war seine Bilanz verheerend /29/:

– 9 Millionen Menschen saßen im Dunkeln.

– 1.616 Geschäfte wurden geplündert.

– 1037 Brände wurden gelegt.

– Es gab Schießereien; 463 Polizisten, 80 Feuerwehrleute und 204 Zivilisten wurden verletzt,

zwei Menschen starben.

Die Plünderer rückten mit Schubkarren, Einkaufswagen und Kleinlastern an und griffen sich alles, was nicht niet- und nagelfest war: Fernseher, Kühlschränke, Öfen, Lebensmittel, Windeln, Schmuck, Alkohol, Möbel, Medikamente. Der Gesamtschaden des Blackouts wurde später auf mehr als eine Milliarde Dollar beziffert.

Nun lassen sich New Yorker Verhältnisse nicht eins zu eins auf Deutschland übertragen, doch auch hier ist mit einem Aufflammen der Kriminalität zu rechnen, bei dem man nicht mit Hilfe der Polizei rechnen kann. Wenn nach einigen Tagen die Lebensmittelvorräte bei vielen Menschen aufgebraucht sind, werden marodierende Gruppen auf der Suche nach etwas Essbarem auch in Häuser einbrechen.

Empfehlung: Verlassen Sie Ihr Haus / Ihre Wohnung nur, wenn es unumgänglich ist.

Empfehlung: Versuchen Sie, mit Nachbarn gegenseitige Hilfe und Unterstützung zu vereinbaren.

Empfehlung: Verstecken Sie möglichst den größten Teil Ihrer Vorräte. Ein kleiner Teil könnte als „Opfer“ dienen, um aggressive Eindringlinge wieder loszuwerden.

7.3 Horrorvorstellung: im Fahrstuhl ohne Strom

Sind Sie vielleicht schon einmal in einem Fahrstuhl stecken geblieben? Dann wissen Sie, wie die Befreiung aus dieser Situation abläuft: Drücken des Notknopfes, über den eine rund um die Uhr besetzte Notrufzentrale erreichbar ist. Diese ist als Personenbefreiungsdienst gesetzlich verpflichtet, spätestens 30 Minuten nach dem Notruf zwecks Befreiung vor Ort zu sein. Dort kann sie dann entweder durch eine elektrische Rückholsteuerung den Fahstuhl holen oder ihn „händisch“ in die nächstniedrigerere Etage ablassen und die Fahrstuhltür öffnen. Das funktioniert bei jeglichem Defekt des Fahrstuhls.

Doch bei einem Blackout ist alles anders, weil der Notruf außer Funktion ist. Vom Personenbefreiungsdienst ist jetzt ein außergewöhnliches Maß an Verantwortungsbewusstsein gefordert: bei allen Fahrstuhlanlagen, für die er verantwortlich ist – und das sind in der Regel sehr viele – selbsttätig zu prüfen, ob Personen darin eingeschlossen sind. Weil ihm die Position des Fahrstuhls unten nicht mehr elektrisch angezeigt wird, muss er die Treppen hochsteigen, um Eingeschlossene zu finden; wenn es keine gibt, hat er sich bis in die oberste Etage zu quälen – auch bei Zwölfgeschossern. Weil wegen der Seltenheit von technischen Fahrstuhldefekten die Personenbefreiungsdienste personell nur sehr sparsam besetzt sind, dürfte das Vorhaben mehrere Tage in Anspruch nehmen.

Für die Eingeschlossenen im Fahrstuhl wird das Ganze rasch zur physischen und psychischen Folter. Nach dem Erlöschen der Innenbeleuchtung sind sie ohne Kontakt mit der Außenwelt in völliger Dunkelheit, in einer Ungewißheit, die sich nach ein paar Stunden des Stehens in der Enge mit knapp werdendem Sauerstoff zur Panik steigern kann. Irgendwann verrichtet der Erste seine Notdurft auf den Boden, ungeachtet der Tatsache, dass dort schon Leidensgenossen sitzen, die nicht mehr stehen können – Aggressivität brandet in dem winzigen Räumchen auf. Empfehlungen zum Verhalten in einer solchen Ausnahmesituation können wohl kaum gegeben werden.

Aber wäre Vorbeugung möglich? Durchaus! Für den Fall eines langandauernden Stromausfalls müsste prophylaktisch zusätzliches Personal (z. B. in der Nähe wohnhafte Rentner) rekrutiert und eingewiesen werden, die dann im Ernstfall selbständig an vorbestimmten Fahrstühlen tätig werden.

Doch der Autor ist sich sicher, dass eine solche Initiative der vorbeugenden Gefahrenabwehr keine Chance hat, tatsächlich umgesetzt zu werden. Ihr steht eine übermächtige Truthahnillusion entgegen.

8. Schlusswort

Heute, am trüben, windstillen Morgen des 27.11.2020 lieferten die fast 30.000 Windräder und mehr als 1,7 Millionen Fotovoltaikanlagen in Deutschland Strom mit einer Leistung von 774 Megawatt. Das war lediglich ein Prozent des Bedarfs von 72,6 Gigawatt /35/. Heute konnten Kohle- und Kernkraftwerke das gigantische Defizit noch ausgleichen, doch in nur 400 Tagen wird auch das letzte der verbliebenen Kernkraftwerke Brokdorf, Grohnde und Gundremmingen C abgeschaltet. Das Ausland kann Situationen wie die heutige nicht abfangen. Und unter dem politischen Druck, Abschaltungen von Verbrauchern möglichst zu vermeiden, werden die Netzbetreiber das Stromnetz zunehmend am Rande seiner Leistungsfähigkeit fahren. Das macht einen großflächigen langandauernden Stromausfall – auch Blackout genannt – immer wahrscheinlicher.

Nach einem einwöchigen Blackout wäre Deutschland zweifellos ein anderes Land. In diesem Land würde dann sofort die Suche nach jenen beginnen, denen man die Schuld zuweisen kann für zehntausende Tote, für den Ruin ganzer Wirtschaftszweige und eine Schadenshöhe, die sich nach Billionen Euro bemisst. Man wird sie sehr schnell ausmachen: „Gegner der Energiewende, welche in unverantwortlicher Weise den Ausbau der erneuerbaren Energien behindert haben“. Zu den Wortführern einer solchen Argumentation gehörte wohl auch die staatsnahe „Denkfabrik“ Agora Energiewende, von der sich die Bundesregierung beraten lässt. Dabei hat diese „Denkfabrik“ jüngst ein Konzept zur Erreichung der verschärften CO2 – Ziele für 2030 vorgelegt, das man als einen weiteren Nagel am Sarg der Versorgungssicherheit mit Elektroenergie bezeichnen kann. Der wirklich fachkundige Wirtschaftsredakteur Daniel Wetzel berichtete in einem WELT-Artikel /35/ am 14.11.2020 über die Forderung von Agora, weitere fünf Millionen Wärmepumpen in Deutschland zu installieren.

Wärmepumpen brauchen Strom – im Winter besonders viel, weil ihr Wirkungsgrad dann sehr schlecht ist. Und eine Studie des Energiewirtschaftlichen Instituts der Universität Köln für ganz Westeuropa zeigt, dass Millionen von Wärmepumpen an kalten Wintertagen das Stromnetz leersaugen, so dass in den Ländern Westeuropas ein Defizit von bis zu 70 Gigawatt auftreten könnte.

Fällt Meinungsführern der Energiewende wie Agora noch rechtzeitig jemand in den Arm? Anderenfalls müssen wir wohl alle gemeinsam die von ihren Ideen verschuldeten Folgen eines langandauernden großflächigen Stromausfalls tragen.

Teil 1 steht hier, Teil 2 hier, Teil 3 hier, Teil 4 hier, Teil 5 hier, Teil 6 hier

—————————————-

Hinweis: Das PDF mit dem vollständigen Inhalt ist beigefügt. Es kann aber auch beim Kaleidoscriptum-Verlag berstellt werden (www.kaleidoscriptum-verlag.de)

blackout




Die Story des globalen Eises: Was man uns verschweigt

[Anmerkung: Alle Temperaturangaben im Original sind in Grad Fahrenheit genannt, werden aber hier vom Übersetzer gleich in Grad Celsius umgerechnet.]

Die Erwärmung der Arktis und das Schmelzen des arktischen Eises sind keineswegs beispiellos (dazu kommt es vorhersehbar in multidekadischen Zeiträumen mit einer Periode von etwa 60 Jahren) und sind tatsächlich völlig natürlichen Ursprungs. Die Erwärmung resultiert zum Teil aus der Reduktion der arktischen Eisausdehnung aufgrund des Zustroms warmen Wassers in die Arktis aus dem Pazifik durch die Beringstraße sowie aus dem Atlantik durch den fernen Nordatlantikstrom. Das wärmere Wasser dünnt das Eis von unten aus, verlangsamt das Wiedergefrieren und begrenzt in unterschiedlichem Maße die Tiefe und Ausdehnung des Eises.

Das arktische Eis schwimmt im Gegensatz zu den Gletschern auf dem Festland in Grönland, der Antarktis und in den Gebirgszügen der Welt auf dem Wasser und das Schmelzen hat keinen Einfluss auf den Meeresspiegel (ähnlich wie Eis in kalten Getränken nicht dazu führt, dass die Flüssigkeit das Glas zum Überlaufen bringt, wenn es schmilzt).

Die Monthly Weather Review warnte 1922 vor dem Beginn dieser Erwärmungsperiode vor „einer radikalen Veränderung der klimatischen Bedingungen und bisher noch nie da gewesenen hohen Temperaturen“ (hier)

Polyakov et al. (2002) erstellten eine Temperaturaufzeichnung unter Verwendung von Stationen nördlich von 62 Grad N. Die späten 1930er bis frühen 1940er Jahre waren eindeutig die wärmsten des letzten Jahrhunderts. Außerdem ist die Anzahl der verfügbaren Beobachtungen in den späten 1930-frühen 1940er Jahren (etwas mehr als 50) vergleichbar mit den letzten Jahrzehnten. ‘

Temperaturen im gesamten Arktischen Becken (Polyakov 2003)

Multidekadische ozeanische Zyklen und die Arktis

Die Japan Agency for Marine-Earth Science and Technology (JAMSTEC) in Yokosuka, Präfektur Kanagawa, beobachtete einem Bericht in Yahoo Asia News zufolge im Jahr 2005 einen Eisschwund im westlichen Arktischen Ozean von 1997 bis 1998, den sie „… auf den Zustrom von warmem Wasser aus dem Pazifischen Ozean in das Gebiet zurückführten, nicht auf atmosphärische Einflüsse, wie bisher angenommen“. Dies stand im Zusammenhang mit dem Super-El-Nino von 1997/98. Koji Shimada von JAMSTEC, der Vize-Leiter der Gruppe, sagte, dass die Schrumpfung auf der pazifischen Seite des Arktischen Ozeans besonders stark war. Der Anteil der im Sommer mit Eis bedeckten Fläche des Ozeans lag von den 1980er bis Mitte der 1990er Jahre bei etwa 60-80 Prozent, aber nach 1998 ging er auf 15-30 Prozent zurück, sagte er. Auch Trenberth (1999) hat diesen erwärmenden Effekt von El Nino auf die Arktis bestätigt.

Der Zyklus in Bezug auf die arktischen Temperaturen und das Eis steht im Zusammenhang mit den multidekadischen Zyklen der Ozeantemperaturen sowohl im Pazifik (Pazifische Dekadische Oszillation oder PDO) als auch im Atlantik (Atlantische Multidekadische Oszillation oder AMO).

Die Pazifisch-dekadische Oszillation (PDO)

Der pazifische Warmmodus begünstigt mehr El Ninos und wärmeres Wasser im weit nördlichen Pazifik einschließlich der Beringstraße. Die PDO wechselte 1978 in ihren warmen Modus und die Temperaturen in der Arktis begannen zu steigen mit der Folge, dass das Eis zu schmelzen begann, genau wie in der Zeitspanne von 1910 bis Anfang der 1940er Jahre.

Man beachte wie die Temperatur in Alaska stufenweise den Schwingungen der PDO folgt (Keen 2011)

Im Winter 2019/20 lag die durchschnittliche Tageshöchsttemperatur in Fairbanks bei -19°C, während die Tiefsttemperatur bei -29°C lagen. Die Tagesmitteltemperatur betrug -24°C! Das absolute Minimum betrug -42°C, während es am 9. Dezember mit -1°C am mildesten war. 33 Tage lang lag die Temperatur bei oder unter -34°C, an 5 Tagen bei oder unter -40°C. Der Winter war im Durchschnitt um 2,1 K zu kalt, der drittkälteste seit der Großen Pazifischen Klimaverschiebung (eine Verschiebung der so genannten Pazifischen Dekadischen Oszillation zum Positiven) in den späten 1970er Jahren, als wärmeres Pazifikwasser höhere Temperaturen in Alaska und dem westlichen Nordamerika begünstigte.

Die Rolle des Atlantiks

Auch im Atlantik treten Zyklen mit einer Periode von 60 bis 70 Jahren auf. Die Atlantisch-Multidekadische Oszillation (AMO) wechselte im Jahre 1995 in ihre Warmphase.

Frances et al. (GRL 2007) zeigten, wie die Erwärmung in der Arktis und das schmelzende Eis mit warmem Wasser (+3C) in der Barentssee zusammenhängt, das sich langsam in die sibirische Arktis bewegt und das Eis schmilzt. Sie wies auch auf die positive Rückkopplung der veränderten „Albedo“ durch offenes Wasser hin, die dann die Erwärmung weiter verstärkt.

Das International Arctic Research Center an der University of Alaska in Fairbanks zeigte, wie die arktischen Temperaturen mit dem Eindringen von atlantischem Wasser zyklisch verlaufen – kalt und warm unter dem Eis.

Von den beiden Ozeanen ist für das größere arktische Becken möglicherweise der Atlantik wichtiger.

Pryzbylak (2000) sagt:

Es besteht Übereinstimmung in der Einschätzung der Temperaturtendenzen vor 1950. Praktisch alle (alten und neuen) Arbeiten, die diesen Zeitraum abdecken, konzentrieren sich auf die Analyse der signifikanten Erwärmung, die in der Arktis von 1920 bis etwa 1940 auftrat….In der Arktis traten die höchsten Temperaturen seit Beginn der instrumentellen Beobachtung eindeutig in den 1930er Jahren auf. Darüber hinaus hat sich gezeigt, dass sogar in den 1950er Jahren die Temperatur höher war als in den letzten 10 Jahren.

Für die arktische Temperatur ist der wichtigste Faktor die Änderung der atmosphärischen Zirkulation über dem Nordatlantik. Der Einfluss der Änderungen der atmosphärischen Zirkulation über dem Pazifik (sowohl im nördlichen Teil als auch in den tropischen Teilen) ist deutlich geringer.“
Wie bei den US-Temperatur wirkt sich die Kombination aus PDO- und AMO-Index (PDO+AMO) auch stark auf die arktische Durchschnittstemperatur aus.

Temperaturen im gesamten arktischen Becken aus Polyakov (2003) gegenüber PDO+AMO (STD). Dunkelblau ist das jährliche und lila das 5-Jahres-Mittel.

In den letzten 140 Jahren gab es zwei Perioden mit signifikanten Erwärmungen in der Arktis. Die erste begann um 1918-1920 und dauerte bis 1938 und wurde als ‚1930er Erwärmung‘ bezeichnet (Bengtsson et al. 2004). Andere Arbeiten bezeichnen diese Periode als „Early Twentieth Century Warming“ (ETCW, Brönnimann 2009) oder als „Early Twentieth Century Arctic Warming“ (ETCAW, Wegmann et al. 2017, 2018).

Karlen (2005) berichtete über historische Temperaturen in Spitzbergen (Lufthavn auf 78 Grad nördlicher Breite) und behauptete, dass das Gebiet einen großen Teil der Arktis repräsentiert. Es wird berichtet, dass die „mittlere Jahrestemperatur von den 1910er bis in die späten 1930er Jahre schnell anstieg“. Später sanken die Temperaturen, „und ein Minimum wurde um 1970 erreicht“. Wiederum „wurde Spitzbergen danach wärmer, aber die mittlere Temperatur lag in den späten 1990er Jahren immer noch etwas niedriger als in den späten 1930er Jahren.“

Drinkwater (2006) kam zu dem Schluss, dass „in den 1920er und 1930er Jahren eine dramatische Erwärmung der Luft- und Ozeantemperaturen im nördlichen Nordatlantik und in der hohen Arktis stattfand, wobei die größten Veränderungen nördlich von 60°N auftraten“, was „zu einer reduzierten Eisbedeckung in den arktischen und subarktischen Regionen und höheren Meerestemperaturen führte.“ Dies war „der bedeutendste Regimewechsel im Nordatlantik im 20. Jahrhundert“.

Hanna et al. (2006) schätzten die Meeresoberflächentemperaturen (SSTs) in der Nähe von Island über einen Zeitraum von 119 Jahren, basierend auf Messungen an zehn Küstenstationen zwischen 63°’N und 67°’N Breite. Sie kamen zu dem Schluss, dass es „im Allgemeinen kalte Bedingungen während des späten 19. und frühen 20. Jahrhunderts gab; eine starke Erwärmung in den 1920er Jahren, mit Spitzenwerten der SSTs, die typischerweise um 1940 erreicht wurden; und eine Abkühlung danach bis in die 1970er Jahre, gefolgt von einer erneuten Erwärmung – aber nicht generell zurück auf das Niveau der Warmzeit der 1930er/1940er Jahre“.

Der Effekt der Eisbedeckung

Sowohl der Atlantik als auch der Pazifik spielen eine Rolle bei der arktischen Eisausdehnung. Diese verringerte sich nach der Großen Pazifischen Klimaverschiebung (Umkehrung der PDO ins Positive) Ende der 1970er Jahre. Sie blieb relativ stabil bis Anfang der 2000er Jahre, als ein stärkerer Rückgang einsetzte, der mit einem Anstieg der Wärme im Nordatlantik und einer positiven Arktischen Oszillation (AO) zusammenhing.

Dmitrenko und Polyokov (2003) beobachteten, dass warmes Atlantikwasser in den frühen 2000er Jahren von der warmen AMO, die sich Mitte der 1990er Jahre entwickelte, unter das Eis bis vor die arktische Küste Sibiriens vordrang, wo es das Eis um 30 % ausdünnte, ähnlich wie es in der letzten warmen AMO-Periode der 1880er bis 1930er Jahre der Fall war.

Das National Snow and Ice Data Center (NSIDC) der University of Colorado hat die Rolle der Ozeanzyklen im Oktober 2007 sehr gut so zusammengefasst:

Ein prominenter Forscher, Igor Polyakov von der University of Fairbanks in Alaska, weist darauf hin, dass Impulse von ungewöhnlich warmem Wasser vom Atlantik in den Arktischen Ozean gelangen, die einige Jahre später im Ozean nördlich von Sibirien zu sehen sind. Diese Wasserimpulse tragen zur Erwärmung des oberen Arktischen Ozeans bei, was zur sommerlichen Eisschmelze beiträgt und das Wachstum des Wintereises reduziert.

Ein anderer Wissenschaftler, Koji Shimada von der Japan Agency for Marine-Earth Science and Technology, berichtet über Hinweise auf Veränderungen der Ozeanzirkulation auf der pazifischen Seite des Arktischen Ozeans. Durch eine komplexe Wechselwirkung mit dem abnehmenden Meereis wird warmes Wasser, das im Sommer durch die Beringstraße in den Arktischen Ozean gelangt, von der Küste Alaskas in den Arktischen Ozean geschoben, wo es den weiteren Eisverlust fördert.

Viele Fragen müssen noch beantwortet werden, aber diese Veränderungen in der Ozeanzirkulation könnten wichtige Schlüssel zum Verständnis des beobachteten Verlustes des arktischen Meereises sein.“

Die Sonne als ultimativer Treiber des Klimas in der Arktis

Was den Treiber für die multidekadischen Ozeanzyklen betrifft, so könnten es durchaus die Sonnenzyklen sein. Bald (GRL 2005) zeigte, wie die arktischen Temperaturen (Polyakov) extrem gut mit der gesamten Sonneneinstrahlung (Hoyt-Schattem) korrelierten (r-Quadrat von 0,79). Dies im Vergleich zu einer r-Quadrat-Korrelation von nur 0,22 mit dem CO2.

Grönland

Grönland wird oft als ein Zeichen für den Klimawandel angesehen. Auch hier deuten die Daten darauf hin, dass alles zyklisch verläuft und mit Ozeanzyklen im Zeitmaßstab von Jahrhunderten und länger zusammenhängt. M;an beachte, dass die Eiskerndaten der aktuellen Zwischeneiszeit uns sagen, dass die letzten 10.000 Jahre 1000-jährige Zyklen zeigen. Sie sind langsam zurückgegangen, während wir uns auf das Ende der Zwischeneiszeit zubewegen (normalerweise etwas mehr als 10.000 Jahre lang). In der letzten Warmzeit, der so genannten mittelalterlichen Warmzeit, zog sich das Eis in Grönland so weit zurück, dass die Wikinger Grönland besiedelten und dort Getreide anbauten, darunter auch Trauben für Wein. Das mussten sie aber mit dem Aufkommen der Kleinen Eiszeit wieder aufgeben.

Daten aus Nuuk in Westgrönland zeigen die stärkste Erwärmung von 1880 bis zu den 1930er Jahren mit einer sekundären Erwärmung seit der Erwärmung des Atlantiks seit den 1990er Jahren:

Die Antarktis

Die Abbildung unten zeigt die Temperaturveränderungen der letzten 30 Jahre im Vergleich zu den Temperaturen, die zwischen 1950 und 1980 aufgezeichnet wurden. Der größte Teil der Antarktis kühlt sich ab, während nur ein kleiner Teil des Kontinents, der in den Südlichen Ozean hineinragt, erwärmt wird. Diese Region ist vulkanisch geprägt, mit Schloten an der Oberfläche und am Meeresboden. Sie unterliegt auch einer periodischen Erwärmung durch Winde, die hangabwärts wehen und sich durch Kompression lokal erwärmen.

Die antarktischen Eisschilde wachsen und schmelzen nicht

Frühere Studien zeigten eine Abkühlung über den gesamten viel größeren Ostantarktischen Eisschild und eine Erwärmung, die auf die Antarktische Halbinsel in der Westantarktis beschränkt war. Im Jahr 2009 veröffentlichten Steig et al. in Nature eine kontroverse Studie mit dem Titel „Warming of the Antarctic Ice-Sheet Surface Since the 1957 International Geophysical Year“, in der sie behaupteten, dass stattdessen eine Erwärmung stattfand.

Die Temperatur der Antarktis belegt, dass sich der Kontinent abkühlt und nicht erwärmt.

Die via Satellit gemessenen Temperaturen bestätigen das Fehlen einer Erwärmung in den meisten Gebieten der Antarktis. Die Satelliten-Aufzeichnungen von UAH und RSS sind am umfassendsten.

UAH-Temperaturmessungen via Satelliten zeigen seit 37 Jahren keine Erwärmung.

Auch die RSS-Messungen zeigen dort seit 37 Jahren keine Erwärmung.

Antarktische Temperaturwerte seit 1957 nach HadCRUT)

Die wichtigste Schlussfolgerung aus diesen Daten lautet, dass mindestens 95 % des Gletschereises in der Antarktis zunimmt und nicht schmilzt.

Abkühlung des Südlichen Ozeans um die Antarktis

Der Südliche Ozean um die Antarktis ist seit 2006 deutlich kälter geworden. Das Meereis hat deutlich zugenommen, insbesondere seit 2012.

Temperatur-Anomalien des Südlichen Ozeans belegen eine abrupte Abkühlung seit dem Jahr 2006

Der Westantarktische Eisschild

Der Westantarktische Eisschild überdeckt ein tiefes Becken westlich des Ostantarktischen Haupt-Eisschildes. Er umfasst nur etwa 8% des Gletschereises in der Antarktis. Die Antarktische Halbinsel kühlt sich seit 2006 stark ab. Die Ozeantemperaturen sinken seit etwa 2007, das Meereis hat Allzeithochs erreicht, und die Oberflächentemperaturen an 13 Stationen auf oder in der Nähe der Antarktischen Halbinsel sind seit 2000 gesunken. Ein Diagramm der Temperaturanomalien an 13 antarktischen Stationen auf oder in der Nähe der Antarktischen Halbinsel zeigt, dass sich die Antarktische Halbinsel bis zum Jahr 2000 erwärmt hat, sich aber seither dramatisch abkühlt.

Temperaturanomalien an 13 antarktischen Stationen auf oder in der Nähe der Antarktischen Halbinsel, die zeigen, dass sich die Antarktische Halbinsel bis zum Jahr 2000 erwärmte, sich seitdem aber dramatisch abkühlt.

Die Larsen-Schelfeisstation kühlt seit 1995 mit einer erstaunlichen Rate von 1,8° C pro Jahrzehnt (18°C pro Jahrhundert) ab (Abb. 8). Die nahe gelegene Butler-Insel verzeichnet eine noch schnellere Abkühlung mit 1,9 C/Dekade. Das Meereis um die Antarktis nimmt zu, weil die Temperatur des Ozeans von der Oberfläche bis in 100 m Tiefe im Jahr 2008 unter den Gefrierpunkt fiel und seitdem dort verharrte.

Die jährliche Durchschnittstemperatur am Larsen-Schelfeis zeigt eine starke Abkühlung (1,8° C/Dekade). (Easterbrook, 2016) (Aus GISTemp.)

Summary

Multidekadische Oszillationen im Pazifik und im Atlantik sind anerkanntermaßen das Ergebnis natürlicher Prozesse. Der warme Modus des Pazifiks führt zu warmem Wasser vor Alaska, das durch die Beringstraße in die Arktis eindringen und arktische Eisschmelze verursachen kann. Der warme Modus der AMO führt auch zu einer Erwärmung der nordatlantischen Gewässer, die durch den Nordatlantikstrom in die Arktis getragen werden und die Eistiefe und -ausdehnung verringern. Wenn man die beiden Zyklen kombiniert, kann man die Abweichungen von Temperatur und Eisbedeckung der letzten 110 Jahre für die Arktis erklären. Die Daten aus Grönland deuten darauf hin, dass die jüngste Erwärmung weit hinter früheren Erwärmungsperioden während des aktuellen Interglazials und hinter der Erwärmung zu Beginn des 20. Jahrhunderts zurückbleibt. Die Antarktis hat sich in den letzten Jahren abgekühlt und das Eis hat zugenommen, obwohl Vulkanismus in der Nähe der antarktischen Halbinsel zu einer lokalen Erwärmung des Wassers und zum Abschmelzen des Meereises führt. Vor der jüngsten Schmelze erreichte die Eisbedeckung ein langjähriges Rekordhoch.

Man sollte auch berücksichtigen, dass der beschriebene Schmelz-Report im Science Journal kaum als langjährige Aufzeichnungen betrachtet werden kann hinsichtlich der globalen Ozean-Daten vor der Satelliten-Ära (ab 1980) und der ARGO-Bojen-Ära (ab 2004). Die Abdeckung in Daten damals war höchstens punktuell.

Selbst falls die Behauptungen über das freigesetzte Wasser wahr wären, zeigen Berechnungen, dass der globale Meeresspiegel nur 10 cm pro Jahrhundert steigen würde (was mit den globalen Daten übereinstimmt) und nicht wie vor Jahrzehnten versprochen bis zu 7 Meter. Siehe die Meeresspiegel-Story hier.

References:

Arctic Climate Assessment (ACIA), 2004. Impacts of a warming Arctic.

Cambridge University Press, Cambridge,UK

Changnon, S., Winstanley, D.:2004: Insights to Key Questions about Climate Change, Illinois State Water Survey http://www.sws.uiuc.edu/pubdoc/IEM/ISWSIEM2004-01.pdf

Christy, J.R., R.W. Spencer and W.D. Braswell, 2000: MSU tropospheric temperatures: Dataset construction and radiosonde comparisons. J. Atmos. Oceanic Tech., 17, 1153-1170.

Climate Change Impacts on the United States: The Potential Consequences of Climate Variability and Change National Assessment Synthesis Team USGRCP, June 2000

Delworth, T.L. ,and M.E. Mann, 2000: Observed and simulated multidecadal variability in the Northern Hemisphere. Climate Dyn., 16, 661–676.

Drinkwater, K.F. 2006. The regime shift of the 1920s and 1930s in the North Atlantic. Progress in Oceanography68: 134-151.

Gray, S.T., et al., 2004: A tree-ring based reconstruction of the Atlantic Multidecadal Oscillation since 1567 A.D.Geophys. Res. Lett., 31, L12205, doi:10.1029/2004GL019932

Hanna, E., Jonsson, T., Olafsson, J. and Valdimarsson, H. 2006. Icelandic coastal sea surface temperature records constructed: Putting the pulse on air-sea-climate interactions in the Northern North Atlantic. Part I: Comparison with HadISST1 open-ocean surface temperatures and preliminary analysis of long-term patterns and anomalies of SSTs around Iceland. Journal of Climate 19: 5652-5666.

Hass, C., Eicken, H., 2001: Interannual Variability of Summer Sea Ice thickness in the Siberian and central Arctic under Different Atmospheric Circulation Regiomes, JGR, 106, 4449-4462

 IPCC Fourth Assessment 2007

Johannessewn, O.M., Shalina, E.V., Miles, M. W., (1999): Satellite Evidence for an Arctic Sea Ice Cover in Transformation, Science, 286, 1937-1939

Karlen, W. 2005. Recent global warming: An artifact of a too-short temperature record? Ambio 34: 263-264.

Kerr, R. A., A North Atlantic climate pacemaker for the centuries,
Science, 288 (5473), 984-1986, 2000.

Latif, M. and T.P. Barnett, 1994: Causes of decadal climate variability over the North Pacific and North America. Science 266, 634-637.

Polyakov, I., Walsh, D., Dmitrenko, I., Colony, R.L. and Timokhov, L.A. 2003a. Arctic Ocean variability derived from historical observations. Geophysical Research Letters 30: 10.1029/2002GL016441.

Polyakov, I., Alekseev, G.V., Timokhov, L.A., Bhatt, U.S., Colony, R.L., Simmons, H.L., Walsh, D., Walsh, J.E. and Zakharov, V.F., 2004. Variability of the Intermediate Atlantic Water of the Arctic Ocean over the Last 100 Years. Journal of Climate 17: 4485-4497.

Proshutinsky, A.Y., Johnson, M.A., 1997: Two Circulation Regimes of the Wind Driven Arctic, JGR, 102, 12493-12514

Przybylak, R., 2000, Temporal And Spatial Variation Of Surface Air Temperature Over The Period Of Instrumental Observations In The Arctic, Intl Journal of Climatology, 20: 587–614

Rigor, I.G., Wallace, J.M. and Colony, R.L., 2002. Response of Sea Ice to the Arctic Oscillation. Journal of Climate 15: 2648-2663.

Rothrock, D.A., Yu, Y., Maykut, G.A., 1999: Thinning of the Arctic Sea-Ice Cover, GRL, 26, no23 3469-3472

Soon, W.H., “Variable Solar Irradiance as a Plausible Agent for Multidecadal Variationsin the Arctic-wide Surface Air Temperature Record of the Past 130 Years,” Geophysical Research Letters , Vol. 32,doi:10.1029/2005GL023429.

Thomas, R., Akins, T., Csatho, B., Fahenstock, M., Goglneni, P., Kim, C., Sonntag, J., (2000): Mass Balance of the Greenland Ice Sheet at High Elevations, Science, 289, 427

Trenberth, K.E., and J.W. Hurrell, 1999: Decadal atmosphere-ocean variations in the Pacific. Clim. Dyn., 9, 303-319.

Venegas, S.A., Mysak, L.A., 2000: Is There a Dominant Time scale of Natural Climate Variability in the Arctic, Journal of Climate, October 2000,13, 3412-3424

Wadhams , P., Davis, N.R., 2000: Further Evidence of Ice thinning in the Arctic Ocean, GRL, 27, 3973-3975 Winsor, P.,(2001) Arctic Sea ice Thickness Remained Constant During the 1990s: GRL 28, no6 1039-1041

Link: https://wattsupwiththat.com/2021/01/28/global-ice-story/

Übersetzt von Chris Frey EIKE

 




BLACKOUT – kleines Handbuch zum Umgang mit einer wachsenden Gefahr – Folge 6

Doch im 19. Jahrhundert trat ein überlegener Beleuchtungskörper seinen Siegeszug in Europa und Amerika an: heller und kostengünstiger als die Kerze, einfach in der Handhabung sowie bei richtiger Einstellung praktisch rußfrei – die Petroleumlampe. Nachdem eine ganze Reihe von Innovationen in ihre Komponenten Brenner, Glaszylinder und Docht geflossen waren und man die Teile aufeinander abgestimmt hatte, erhellten diese Lampen millionenfach die Haushalte in Deutschland. In ihrer manchmal sehr aufwändigen handwerklichen Ausführung wurden sie zu einem Teil der bürgerlichen Wohnkultur. All diese Eigenschaften sprechen dafür, sie als Notbeleuchtung beim Stromausfall in Betracht zu ziehen – vorher können sie als Dekoration in der Wohnung dienen. Man muss solche Lampen nicht beim Antikhandel erwerben, sondern kann sie auch nagelneu kaufen.

Empfehlung: Kaufen Sie sich ein paar neue, schöne Petroleumlampen mitsamt eines Vorrats an Lampenöl.

Die einzelnen Typen unterscheiden sich durch die Art des Brenners und des Zylinders. Bei den Brennern gibt es drei Bauformen für unterschiedliche Helligkeiten: Flachbrenner, Runddochtbrenner (Kosmosbrenner) und Flammscheibenbrenner (Idealbrenner, Matadorbrenner). Der Runddochtbrenner ist deutlich heller als der Flachbrenner und verbraucht weniger Petroleum als der noch hellere Flammscheibenbrenner.

Bild 13: Von links nach rechts steigt die Helligkeit der Brenner: Flachbrenner, Runddochtbrenner und Flammscheibenbrenner. Der Flammscheibenbrenner hat allerdings einen vergleichsweise hohen Verbrauch.

Zu jedem Brenner gehört der passende Zylinder, bei denen man Wiener Zylinder (für Flachbrenner), Kosmos Zylinder (für Runddochtbrenner) und Matador Zylinder (für Flammscheibenbrenner) unterscheidet. Die Wahl eines falschen Zylinders kann zur Zerstörung desselben führen.

Bild 14: Formen der unterschiedlichen Zylinder

Es sei noch erwähnt, dass die unterschiedliche Größe der Brenner und Zylinder, wie auch die der Dochte, in der Maßeinheit der „Pariser Linie“ angegeben wird.

Bild 15: Diese Lampe mit 14-linigem Runddocht-Brenner strahlt mit der Helligkeit von 11 Haushaltskerzen (ca. 10 Lumen). Eine Tankfüllung reicht für 75 Stunden, Quelle: Heinze Metallwarenmanufaktur

Empfehlung: Damit eine Petroleumlampe rußfrei brennt, sollte man nach dem Anzünden fünf Minuten warten, ehe man den Docht auf maximale Lichtstärke einstellt.

6.8 Geld

Bei einem Blackout fallen alle elektronischen Zahlungssysteme aus. Zahlungen mit EC- oder Kreditkarte sind nicht mehr möglich. Den Menschen wird plötzlich bewusst, dass sie nur noch für Bargeld etwas bekommen und versuchen, an den Geldautomaten welches zu ziehen. Doch diese Automaten funktionieren nicht. Ob Bankschalter völlig ohne Strom eine Bargeldauszahlung vornehmen können, ist zu bezweifeln. Und selbst wenn Bankfilialen noch für ein paar Stunden notstromversorgt sein sollten, werden sie dem Ansturm nicht gewachsen sein und die Höhe der Auszahlungen begrenzen. In dieser Situation kann das Anwachsen einer kollektiven Angst der Kunden zu einem Bankenrun führen, der dann das Schließen der letzten arbeitsfähigen Filialen zur Folge hat.

Empfehlung: Halten Sie ständig zu Hause eine Summe Bargeld in kleinen Scheinen vor. Die Höhe dieser Summe hängt natürlich von Ihren finanziellen Möglichkeiten ab.

6.9 Wird die Heizung bei einem Blackout noch warm?

Raumheizungen mit Öfen, welche mit Holz oder Briketts beschickt werden, sind gefeit gegen einen Stromausfall, doch besitzen sie inzwischen Seltenheitswert. Einer BDEW-Studie zum Heizungsmarkt /34/ lassen sich die Angaben für eine Abschätzung jenes Teils der Wohnungen entnehmen, in denen es bei einem Blackout in Deutschland unabänderlich kalt wird (s. Bild 16).

Bild 16: Verteilung der Energieträger auf die Heizungen in Deutschland (nach /5/)

Es steht fest, dass bei einem Stromausfall die drei leitungsgebundenen Heizsysteme mit Strom, Fernwärme und Erdgas ausfallen. Erdgas wird nicht mehr zu den Verbrauchern transportiert, weil die Verdichterstationen in den Leitungen für ihren Betrieb auf elektrischen Strom angewiesen sind. Damit werden bereits rund 67% aller Heizungen kalt.

Die Besitzer von Ölheizungen haben sich ja prinzipiell bevorratet und sind damit erst einmal auf einen Zufluss ihres Energieträgers nicht angewiesen. Ähnlich sieht es bei den „Sonstigen“ aus. Und doch fallen auch bei ihnen die Heizungen aus. Grund dafür ist die Tatsache, dass es sich bei ihnen praktisch immer um Zentralheizungen mit einer elektrischen Steuerung und elektrischen Umwälzpumpen handelt. Aber im Gegensatz zu den ersten 67% aller Heizungsbesitzer können die Besitzer von Heizungen mit Vorratshaltung Vorsorge gegen eine kalte Wohnung treffen – durch Anschaffung eines Notstromaggregats.

6.10 Notstromversorgung

Der Gedanke liegt nahe: Wenn kein Strom mehr von außen kommt, erzeugt man halt selber welchen; Notstromaggregate gibt es ja in jedem Baumarkt. Doch vor dem Kauf eines solchen Gerätes sind einige Überlegungen anzustellen – die Gefahr, ein ungeeignetes Gerät zu erwerben ist sonst beträchtlich. Die nachstehenden Ausführungen sollen helfen, einen Fehlkauf zu vermeiden.

6.10.1 Welche Leistung wird benötigt?

Zunächst sollte man sich eine Übersicht darüber verschaffen, welche elektrische Leistung die in der Wohnung / im Haus vorhandenen Geräte aufnehmen. Dazu gibt die folgende Tabelle eine Hilfestellung:

Für einen langandauernden Stromausfall sollte man keine Notstromversorgung der „Stromfresser“ Kochfeld, Backherd, Wasserkocher, Geschirrspüler, Waschmaschine und Wäschetrockner vorsehen. Der Kraftstoffverbrauch eines Notstromaggregats wäre für ihre Nutzung zu hoch, und es gibt Alternativen (s. Punkt 6.5).

Empfehlung: Überlegen Sie sich, welche Geräte im Falle eines Blackout für Sie unverzichtbar sind, und wie viele davon höchstens gleichzeitig in Betrieb wären.

Beispiel: Es soll sich bei dem mit Notstrom zu versorgenden Objekt um ein relativ neues Einfamilienhaus mit voll biologischer Kläranlage und Ölheizung handeln. Die Heizanlage arbeitet mit zwei Strängen. Die Küche ist u. a. mit Kühlschrank und separatem Gefrierschrank ausgestattet.

Annahmen:

Der Eintritt des Blackouts erfolgt in der kalten Jahreszeit; damit die Ölheizung weiter arbeitet, müssen die Heizungssteuerung und die Umwälzpumpen in den beiden Heizungssträngen mit Strom versorgt werden.

– Propangas und Kocher sind vorhanden.

– Während des Blackout wird verzichtet auf die Nutzung von: Backherd, Mikrowelle, Kaffeemaschine, Wasserkocher, Mikrowelle, Fön, Geschirrspüler, Wäschetrockner, Fernseher (kein Bild), Laptop bzw. PC(kein Internet) und Musikanlage.

Unverzichtbare Geräte:

Über welche Leistung muss ein zu diesem Bedarf passendes Notstromaggregat verfügen? Vom Hersteller wird stets die sogenannte Scheinleistung S als Nennleistung angegeben, die größer ist als die benötigte Wirkleistung P (in unserem Beispiel 1,76 Kilowatt) und mit ihr über den Faktor 0,8 zusammenhängt:

P = 0,8 S.

Außerdem empfiehlt es sich, zur Bewältigung sogenannter Anlaufströme noch 20% Leistungsreserve zuzugeben. Das Aggregat für unser Beispielobjekt müsste dann eine Nennleistung von S = 1,76 Kilowatt 1,25 ∙ 1.2 = 2,64 Kilowatt aufweisen. Doch es gibt noch weitere Dinge zu beachten, auf die im folgenden Punkt eingegangen wird.

6.10.2 Lichtstrom oder Drehstrom?

Moderne Häuser und auch Wohnungen sind grundsätzlich mit Dreiphasenstrom (Drehstrom) versorgt. Das bedeutet: Es werden drei spannungsführende Leiter (Phasen genannt) in den Haus- (Wohnungs-) anschluss geführt, deren Wechselspannungen zeitlich gegeneinander versetzt (phasenverschoben) sind, wie Bild 23 zeigt.

Bild 23: zeitlicher Verlauf der Spannungen in den drei Phasen

Zwischen jeder Phase und dem Nullleiter (Erde) liegt eine Wechselspannung von 220 Volt an; zwischen den Phasen beträgt (wegen der Phasenverschiebung) die Spannung 380 Volt. Die Installation der festverdrahteten Verbraucher und Steckdosen versucht man stets einigermaßen gleichmäßig auf die drei Phasen zu verteilen. Wenn man bei einem Stromausfall die freie Wahl haben möchte, welche Verbraucher vom Notstromaggregat gespeist werden, wird ein Drehstromaggregat benötigt. Ein Drehstromaggregat ist auch erforderlich, wenn nur ein einziger (beim Stromausfall unverzichtbarer) Verbraucher von drei Phasen gespeist wird, wie das häufig bei Pumpen der Fall ist. Die Einspeisung in die drei Phasen von Haus oder Wohnung erfordert eine spezielle Installation.

Empfehlung: Lassen Sie von Ihrem Hauselektriker hinter der Hauseingangs- (Wohnungseingangs-) sicherung einen mit der Hand zu bedienenden Drehstromschalter mit den drei Stellungen „Netz“, „leer“ und „Notstromaggregat“ anbringen.

Empfehlung: Bei Stromausfall schalten Sie dann zunächst alle verzichtbaren Verbraucher aus. Danach starten Sie das Aggregat. Anschließend schalten Sie den Schalter von der Stellung „Netz“ über „leer“ in die Position „Notstromaggregat“.

Eine Automatik für die Einschaltung des Aggregats muss bei der Bundesnetzagentur angemeldet werden.

Nach der vorstehenden Erläuterung der Grundbegriffe des Drehstroms müssen wir noch einmal zu unserem Beispiel zurückkehren, bei dem wir eine Wirkleistung des Notstromaggregats von 1,76 Kilowatt als ausreichend festgestellt hatten. Wenn es sich bei der Kläranlagenpumpe mit einer Leistung von 1,25 Kilowatt nicht um eine Drehstrompumpe, sondern um eine einphasige (Lichtstrom-) Pumpe handelt, ist eine höhere Leistung des Aggregats erforderlich. In jeder Phase des von uns berechneten Aggregats steht nur ein Drittel der Gesamtleistung, also nur 0,59 Kilowatt zur Verfügung, was für den Betrieb der Pumpe nicht ausreicht. In Anbetracht solcher, den Nichtfachmann vermutlich überfordernden Fakten ergeht die

Empfehlung: Lassen Sie sich bei der Auswahl eines Notstromaggregats von der Elektrofachfirma Ihres Vertrauens beraten.

Doch eine Grundsatzentscheidung lässt sich auch ohne Konsultation eines Elektrikers treffen. Wenn Sie während eines Stromausfalls nur wenige Elektrogeräte nutzen wollen, die sämtlich einphasig (mit normaler Netzschnur) zu betreiben sind und von denen keines fest verdrahtet ist, können Sie auch ohne weiteren Aufwand ein Kabel mit mehreren Abgängen von einem einphasigen Notstromaggregat mit ausreichender Leistung zu diesen Verbrauchern führen.

Empfehlung: Wenn elektronische Geräte betrieben werden sollen, bevorzugen Sie ein Gerät mit AVR-Regelung. Dabei wird die Spannung des Generators unabhängig von der Belastung weitgehend konstant gehalten.

Empfehlung: Wenn Sie ein Aggregat mit Batteriestarter erworben haben, sollten Sie ein passendes Ladegerät für die Erhaltungsladung der Batterie installieren, damit das Gerät stets betriebsbereit ist.

Es versteht sich von selbst, dass die Abgase eines Notstromaggregats so ins Freie abzuleiten sind, dass sie weder eine Gefährdung für Menschen, noch eine Brandgefahr darstellen. Ein Beispiel zeigt Bild 24:

Bild 24: Durchleitung der Abgase eines Dieselaggregats durch eine Laubenwand mittels flexiblem Edelstahl-Abgasschlauch

Von vielen Herstellern der Notstromaggregate wird ein halbjährlicher Probebetrieb unter Last empfohlen. Weil Notsituationen generell geübt werden sollten, legt dies eine weitere Empfehlung nahe.

Empfehlung: Opfern Sie wenigstens einmal einen Tag für eine komplette Notfallübung. Sie ist zwar unbequem, aber lehrreich. Beginnen Sie die Übung am besten an einem Samstagabend und beenden Sie diese am Nachmittag des folgenden Tages.

<Folge 7 kommt demnächst> Teil 1 steht hier, Teil 2 hier, Teil 3 hier, Teil 4 hier, Teil 5 hier

—————————————-

Hinweis: Das PDF mit dem vollständigen Inhalt ist beigefügt. Es kann aber auch beim Kaleidoscriptum-Verlag berstellt werden (www.kaleidoscriptum-verlag.de)

blackout




BLACKOUT – kleines Handbuch zum Umgang mit einer wachsenden Gefahr – Folge 5

Bild 9: Anzahl ungeplanter Unterbrechungen in den Stromnetzen europäischer Länder Quelle: Bundesamt für Bevölkerungsschutz und Katastrophenhilfe /2/

Die Frage führt uns zum Begriff des „Schwarzen Schwans“, der in der Natur extrem selten ist, aber immerhin vorkommt. Seit dem 2007 erschienenen Buch von Nassim Nicholas Taleb „Der Schwarze Schwan: Die Macht höchst unwahrscheinlicher Ereignisse“ /27/ hat sich dieser Begriff als Bezeichnung für Ereignisse eingebürgert, die wegen ihrer geringen Eintrittswahrscheinlichkeit üblicherweise gar nicht in Betracht gezogen werden. Das Erscheinen eines Schwarzen Schwanes widerlegt alle Prognosen und trifft uns üblicherweise völlig unvorbereitet, weil wir immer wieder der „Truthahn-Illusion“ erliegen.

Bild 10: 1001 Tage im Leben eines amerikanischen Truthahns bis zum Thanksgiving-Day. Quelle: Nasim Taleb, The Black Swan

Mit jedem Tag, den der Truthahn gefüttert und umsorgt wird, steigt seine Gewissheit, dass dies auch so bleibt. Für ihn ist ausgerechnet am Tag vor der Schlachtung die Wahrscheinlichkeit weiteren Wohlergehens am größten. Wir erliegen der gleichen Illusion häufig bei der Beurteilung sehr komplexer Systeme; ein Beispiel ist das weltweite Finanzsystem. In diesem System ereignete sich 2008 nach vielen Jahren ungebrochener Prosperität gänzlich unvermutet eine Krise, die es fast völlig zum Absturz gebracht hätte.

Komplexe Systeme weisen besondere Eigenschaften auf, welche ihre Steuerung erschweren und ein komplettes Systemversagen möglich machen /28/. Es sind dies:

– lange Ursache-Wirkungsketten,

Rückkopplungen, die zu schwer durchschaubarer Eigendynamik führen können,

zeitverzögerte Wirkung von Eingriffen,

– kleine Ursachen, die große Wirkungen entfalten (Schmetterlingseffekt),

mögliche Irreversibilität von Eingriffen.

Daraus resultieren mögliche Konsequenzen:

einfache Ursache-Wirkungszusammenhänge sind nicht mehr gegeben; es entsteht die Gefahr einer Übersteuerung,

– es entstehen indirekte, kaum abschätzbare Wirkungen, die durch etablierte Risikobewertungsmethoden nicht erfasst werden,

– es kommt zu Domino- und Kaskadeneffekten, deren negative Folgen mit dem Umfang der Vernetzung zunehmen,

Die Steuerbarkeit des Systems wird signifikant erschwert und geht im Extremfall völlig verloren.

Ein Beispiel zur Auswirkung der vorbeschriebenen Phänomene auf das Stromnetz ist der unter Punkt 4.4 beschriebene europaweite Blackout vom 4.November 2004, der erst Jahre später durch das Braess-Paradoxon erklärt werden konnte. Gerade im Fall unseres Stromnetzes sollten wir die Existenz Schwarzer Schwäne für möglich halten und nicht der Truthahn-Illusion unterliegen.

6. Vorsorge vor einem Blackout

Das schon auf Seite 2 dieser Broschüre zitierte Fazit aus der 2013 herausgegebenen Schrift des Bundesamtes für Bevölkerungsschutz und Katastrophenhilfe: „Kapazitäten der Bevölkerung bei einem Stromausfall, Empirische Untersuchung für das Bezugsgebiet Deutschland“ lautet:

Entweder lebt die Bevölkerung bewusst mit dem Restrisiko einer eingeschränkten bzw. fehlenden Versorgung im Falle eines lang anhaltenden flächendeckenden Stromausfalles, oder aber sie ergreift selbst Maßnahmen, um ein solches Risiko abzuwenden.“

Die Wahl des Begriffs „Restrisiko“ stellt dabei eine schwer erträgliche Bagatellisierung dar, die in krassem Widerspruch zu der vom Bundestagsausschusses für Bildung, Forschung und Technikfolgenabschätzung in /1/ für einen großflächigen lang dauernden Stromausfall gegebenen Aussage steht: „… ein Kollaps der gesamten Gesellschaft wäre kaum zu verhindern.“ Und die Aufforderung an die Bevölkerung, selbst Maßnahmen zur Abwendung des Risikos zu ergreifen, klingt in Anbetracht der völlig unzureichenden Mittel, welche dem einzelnen Bürger zur Verfügung stehen, geradezu zynisch. Dennoch liegt es im ureigenen Interesse eines Jeden, sämtliche Möglichkeiten einer Vorsorge auszuschöpfen – auch wenn diese vielleicht für sich genommen marginal erscheinen.

6.1 Trinkwasser

Der Pro-Kopf-Verbrauch von Trinkwasser liegt in Deutschland bei etwa 125 Litern pro Tag. Es wird zum Trinken, Kochen, Abwaschen des Geschirrs, Duschen, Baden, Zähneputzen, Wäschewaschen und die Spülung der Toilette benötigt. Für den Transport des Trinkwassers im Leitungssystem werden zumeist elektrische Pumpen eingesetzt, die bei einem Blackout natürlich ausfallen. Für eine Notstromversorgung gibt es bei den Wasserversorgern keine einheitliche Regelung – bei Vorhandensein könnte sie die Versorgung mit Trinkwasser für einen Zeitraum sichern, der sich nach Stunden bemisst. Druckerhöhungsanlagen für Hochhäuser fallen sofort aus und sind auch nicht notstromgepuffert. In der Broschüre „Stromausfall – Vorsorge und Selbsthilfe“ des Bundesamtes für Bevölkerungsschutz und Katastrophenhilfe findet man die weise Empfehlung, sich „ausreichende Vorräte an Trinkwasser anzulegen.“ Was ausreichend ist, darf sich der Leser selbst überlegen – wir wollen ihm dabei helfen.

Zunächst sollte er der Frage nachgehen, ob bei ihm überhaupt ein Stromausfall den Ausfall der Trinkwasserversorgung zur Folge hat. Wenn Wasserversorgungsnetze durch natürliches Gefälle betrieben werden, kann das Wasser in den Leitungen grundsätzlich weiter fließen. So zum Beispiel auch in der Stadt Erfurt, die nur 30 Prozent ihres Trinkwassers aus Tiefbrunnen gewinnt und den Hauptteil über die Thüringer Fernwasserversorgung aus der Ohra-Talsperre erhält. Die ebenfalls in Thüringen gelegene Stadt Gera wird dagegen aus Hochbehältern versorgt, welche mittels Pumpen nachzufüllen sind. Grundsätzlich ist festzustellen, dass die Art und Weise der Versorgung mit Trinkwasser von Ort zu Ort sehr unterschiedlich ist. Das führt zu der

Empfehlung: Fragen Sie schon jetzt bei Ihrem Wasserversorger an, für welchen Zeitraum er bei einem längeren Stromausfall die Versorgung mit Trinkwasser garantieren kann. Sollte er nicht gewillt sein zu antworten, beauftragen sie einen gewählten Stadtverordneten oder Landtagsabgeordneten mit dieser wichtigen Fragestellung.

Wenn die Trinkwasserversorgung vom Stromausfall gar nicht betroffen ist, kann die Empfehlung des Bundesamtes zur Bevorratung getrost ignoriert werden; anderenfalls sollte man für einen Zeitraum von zehn Tagen Vorsorge treffen. Dabei kann sich wohl kaum jemand einen Notvorrat in Höhe des zehnfachen statistischen Pro-Kopf-Verbrauchs anlegen, was für einen Drei-Personen-Haushalt 3.750 Liter wären. Wirklich überlebensnotwendig ist nur der Trinkwasserbedarf von durchschnittlich 2,5 Litern täglich, der auch durch Flaschengetränke gedeckt werden kann. Wasser zum Kochen ist nur einzuplanen, wenn stromloses Kochen – z. B. mittels eines Propangaskochers – möglich ist. Dann sollte man für das Kochen und die Reinigung des Geschirrs pro Person und Tag zwei Liter ansetzen.

Empfehlung: Auch wenn die Trinkwasserversorgung weiterläuft, sollten Sie dieses Wasser nicht unabgekocht genießen. Vielfach gehört zur Wasseraufbereitung auch eine Desinfektion mit UV-Licht, die bei Stromausfall nicht mehr funktioniert.

Empfehlung: Sie können das Wasser für die Geschirrreinigung sparen, wenn Sie sich mit Einweggeschirr bevorraten.

Zähneputzen dürfte mit einem halben Liter und eine notdürftige tägliche Körperreinigung mit einem Liter möglich sein.

Empfehlung: Mit einem Vorrat an Einweghandschuhen und Hygienetüchern kann Wasser für die Reinigung der Hände gespart werden.

Mit dem Verzicht auf das Waschen von Wäsche ergibt sich für volle 10 Tage und einen Drei-Personen-Haushalt ein notwendiger Wasservorrat von 170 Litern. Wenn wenigstens für die ersten 48 Stunden vom Wasserversorger noch Trinkwasser garantiert werden kann, vermindert sich diese Menge auf 136 Liter.

Haben Sie ein Haustier?

Empfehlung: Wenn Sie ein Haustier besitzen, vergessen Sie bei der Planung des Wasser-Notvorrats dessen Bedarf nicht.

Unbeachtet blieb bislang die Toilettenspülung – dazu mehr unter Punkt 6.2. Aber auch die ständige Bevorratung von 170 oder 136 Liter Trinkwasser (und deren regelmäßige Erneuerung) in einer kleinen Wohnung ist eine Zumutung. Kann man, um ihr aus dem Wege zu gehen, an eine Nutzung eines der Trinkwasser-Notbrunnen Deutschlands im Falle eines Blackout denken?

6.1.1 Trinkwasser-Notbrunnen

Es gibt in Deutschland etwa 4.800 leitungsunabhängige Trinkwasser-Notbrunnen, die sich fast ausschließlich in Ballungsgebieten befinden /31/. In /31/ lesen wir auch: „Eine Aufbereitung des Brunnenwassers im eigentlichen Sinne findet nicht statt. Im Bedarfsfall erfolgt lediglich eine Desinfektion mit Chlortabletten, welche für alle Brunnen vorgehalten werden.“ und „Die Nutzung im Katastrophenfall ist vom Amtsarzt freizugeben“. Viele dieser Brunnen dürften im Ernstfall über keine ausreichende Schüttung verfügen, wie der Kommentar zu Bild 11 zeigt. Außerdem müsste man für eine Nutzung des Brunnens dessen Lage kennen, um mittels Schubkarre, Handwagen oder auch Fahrrad von ihm Wasser zu holen – eine Versorgung in der Fläche durch Behörden ist undenkbar. Kann man die Lage des nächsten Notbrunnens rechtzeitig in Erfahrung bringen? Unter /32/ ist nachzulesen, wie im März 2020 eine entsprechende Anfrage an die Wasserbehörde Stuttgart ausging: Die Auskunft wurde mit der Begründung verweigert, dass die Information für Sabotage oder einen terroristischen Angriff auf die Trinkwassernotbrunnen genutzt werden könnte.

Bild 11: Brunnen mit Schwengelpume, wie er u. a. in Magdeburg und Berlin als Notbrunnen deklariert ist. Mit einer Förderleistung von ca. 1.200 Liter pro Stunde könnte er innerhalb von 12 Stunden den Minimalbedarf von 900 Menschen decken. Sein Versorgungsgebiet dürfte wohl die zehnfache Einwohnerzahl enthalten. Quelle: /31/

Empfehlung: Ziehen Sie die Nutzung eines Trinkwasser-Notbrunnens gar nicht erst in Betracht.

6.2 Die Toilette……

Die Patentanmeldung für ein Wasserklosett durch den englischen Erfinder Alexander Cumings im Jahre 1775 war eine Revolution der Toilettenhygiene, der wir übrigens einen großen Teil unserer gestiegenen Lebenserwartung verdanken. Auch wenn moderne Toiletten nicht mehr 10 bis 16 Liter Wasser für einen einzigen Spülvorgang verschwenden, wie die Spülkästen früherer Jahrzehnte, sind es immer noch 6 bis 8 Liter für das große Geschäft und 3 bis 5 Liter mit der Spartaste für das kleine. Für den unter 6.1 bereits erwähnten Drei-Personen-Haushalt lässt sich ein täglicher Spülbedarf von mindestens 57 Litern abschätzen, was eine Bevorratung mit 570 Litern Brauchwasser nahelegt, die unter normalen Wohnverhältnissen illusorisch ist. Was kann man tun? Der größte Teil des Trinkwassers lässt sich nach seiner Verwendung auffangen und zur Spülung der Toilette einsetzen. Das könnten bis zu 140 Liter sein.

Empfehlung: Halten Sie Eimer für das Auffangen von benutztem Trinkwasser bereit.

Für die Deckung des Defizits könnten Sie während des Blackout Brauchwasser heranschaffen, wenn fußläufig welches erreichbar ist.

Empfehlung: Prüfen Sie schon jetzt, ob sich in der Nähe Ihrer Wohnung ein Bach oder stehende Gewässer befinden, aus denen Wasser geschöpft werden kann.

Wenn diese Suche ergebnislos verläuft, gibt es noch eine weitere Möglichkeit der Gewinnung von Brauchwasser. In die Fallrohre der Dachentwässerung lassen sich verschließbare Regenwasserklappen einsetzen, wie sie Bild 12 zeigt.

Bild 12: Regenwasserklappe aus Zink. Preis ca. 15 €

Empfehlung: Prüfen Sie bereits jetzt die Möglichkeiten, eine solche Regenwasserklappe in ein stark mit Niederschlagswasser beaufschlagtes Fallrohr einbauen zu lassen.

Damit können – wenn es regnet – in Abhängigkeit von der Dachfläche nennenswerte Mengen an Brauchwasser aufgefangen werden. Bei Mietverhältnissen sollte die Genehmigung des Hauseigentümers eingeholt werden. Und was kann man noch tun, wenn alle diese Behelfe unmöglich sind? Der Verzicht auf Spülung nach dem kleinen Geschäft hilft ein wenig; auf die ultima ratio wird im nächsten Punkt eingegangen.

6.3 …und das Abwasserproblem

Von einem Blackout ist die Abwasserversorgung in zweifacher Weise betroffen: Zum einen fallen Schmutzwasserpumpen und Hebeanlagen, die zur Überwindung von Höhenunterschieden eingesetzt werden, sofort aus. Zum anderen fließt nach einiger Zeit das mit Exkrementen beladene Abwasser auf den Gefällestrecken nicht mehr, weil zu wenig Spülwasser in das Kanalsystem eingebracht wird. Das führt relativ rasch zu Staus in den Kanälen und in der Folge zum Schließen von Rückschlagventilen in den Abwasserleitungen der Häuser. Dann kann nichts mehr aus den Häusern abgeführt werden. Bei weiterer Nutzung der Toiletten tritt Schmutzwasser zuerst in den Kellern aus und schließlich laufen die Toiletten in den Geschossen über – Wohnungen werden unbewohnbar.

Empfehlung: Stellen Sie beim ersten Anzeichen einer Verstopfung in den Abwasserleitungen jegliche Nutzung der Toiletten sofort ein.

Dies ist der Zeitpunkt, zu dem Menschen beginnen, ihre Notdurft irgendwo im Außenbereich zu verrichten – Not kennt kein Gebot. Doch wenn man sich an einer solchen Verschmutzung des Außenbereichs nicht beteiligen will, gibt es die oben erwähnte ultima ratio:

Empfehlung: Legen Sie sich einen ausreichenden Vorrat an stabilen Müllbeuteln sowie geruchsdicht schließende Verschlussklemmen an. Nach dem Ende des Blackout dürfte es Möglichkeiten einer Entsorgung dieser Nottoiletten geben.

Es sei noch erwähnt, dass die Kläranlagen, die zu den größten kommunalen Energieverbrauchern zählen, vom Stromausfall in besonderer Weise betroffen sind. Ihr Abwasser fließt dann ungeklärt in die Vorfluter und verunreinigt Kanäle und Flüsse – mit entsprechenden Folgen für Fauna und Flora.

6.4 Lebensmittel …..

Wenn nach einem Blackout Strom und Trinkwasser wieder zur Verfügung stehen, kann noch nicht mit einer funktionierenden Lebensmittelversorgung gerechnet werden. Supermärkte sind leer – durch freiwillige Abgabe der Waren oder durch Plünderung; Kühllager müssen von den darin verdorbenen Lebensmitteln befreit werden; in Geflügelfarmen und Mastbetrieben stapeln sich die Tierkadaver; vom Milchkuhbestand hat nur ein verschwindend kleiner Teil überlebt. Deshalb sollten Lebensmittel für einen größeren Zeitraum bevorratet werden als für das Wasser – mindestens zwei Wochen. Die Frage, aus welchen Lebensmitteln sich der Vorrat zusammensetzen sollte, wird im Internet vielfältig und ausführlich beantwortet. Diesen Kalkulationen (die alle ein wenig reichlich erscheinen) soll hier keine weitere gegenübergestellt werden. Stattdessen folgen Empfehlungen für Maßnahmen, die dem Autor nützlich erscheinen.

Empfehlung: Ein Teil der eingelagerten Lebensmittel sollte aus Dauerkonserven mit einer Haltbarkeit von mindestens 10 Jahren bestehen. Diese, bei Spezialanbietern (wie Feddeck Dauerwaren GmbH, Hildesheim) erhältlichen Konserven müssen nicht in vergleichsweise kurzen Zeiträumen umgewälzt werden.

Empfehlung: Lagern Sie nach Möglichkeit Lebensmittel ein, die in Ihren üblichen Speieseplan passen. Das macht das Umwälzen nach Ablauf der Haltbarkeitsdauer angenehmer.

Tierische Schädlinge sind für Lebensmittel mit Langzeitlagerung eine oft unterschätzte Gefahr. Mehlmilben und Brotkäfer als die bekanntesten unter ihnen können eine breite Palette von stärkehaltigen Produkten in kurzer Zeit unbrauchbar machen.

Empfehlung: Verstauen Sie sämtliche in Tüten oder Schachteln (gleich aus welchem Material) verpackten Lebensmittel unmittelbar nach dem Kauf in luftdicht verschließbaren Plastikboxen.

6.5 …. und wie man sie zubereitet

Sogar, wenn man bereit ist, während eines Blackout ausschließlich „aus der Büchse“ zu leben, braucht man zu deren Erwärmung einen Kocher. Campingausrüster bieten Kocher an, die entweder mit Gas oder mit Benzin bzw. Spiritus betrieben werden können. Doch ihre Handhabung ist nicht sehr komfortabel, und zur Versorgung einer ganzen Familie sind sie wenig geeignet.

Empfehlung: Zur vorsorglichen Absicherung des Kochens empfiehlt sich die Anschaffung einer 11Liter – Propangasflasche mit zugehörigem Druckminderer und eines zweiflammigen Gaskochers.

Die Flaschenfüllung dürfte bei sparsamem Verbrauch für einen Zeitraum von zehn Tagen reichen. Es gibt jedoch auch Möglichkeiten, bei der Speisenzubereitung Gas zu sparen.

Empfehlung: Das Einweichen trockener Hülsenfrüchte vor dem Kochen senkt den Energiebedarf erheblich. Kartoffeln, Reis oder Gemüse kann man in Wasser nur aufkochen und den heißen Topf in eine dicke Decke wickeln, in der sie dann fertiggaren – eine in früheren Zeiten weit verbreitete Methode.

Das bereits unter Punkt 1 erwähnte „Notfallkochbuch“ des Bundesamtes für Bevölkerungsschutz und Katastrophenhilfe, dessen Rezepte nicht nur ohne Strom, sondern sogar ohne Leitungswasser auskommen sollen, lässt noch auf sich warten; der Einsendeschluss für Rezeptvorschläge aus der Bevölkerung wurde vom 31. Mai 2020 auf den 31. August verschoben. Doch in diesem Jahr erschien ein Kochbuch für Notfall und Krise /33/, welches allerdings nicht den Anspruch erhebt, bei seinen Rezepten ohne Wasser auszukommen. Dafür bietet es einen sehr detaillierten Vorrats- und Speiseplan für 28 Tage sowie allerlei kleine Tipps.

6.6 Kann man auf die Zivile Notfallreserve setzen?

Bei Wikipedia lesen wir: „Die Zivile Notfallreserve der Bundesrepublik Deutschland dient der Versorgung der Bevölkerung mit Grundnahrungsmitteln im Krisenfall. Dieser Notvorrat soll eine tägliche Mahlzeit während kurzfristiger Engpässe von bis zu mehreren Wochen Dauer ermöglichen.“ Ein wahrlich hoher Anspruch! Die Zivile Notfallreserve ist ein Erbe des Kalten Krieges und lagert an ca. 150 geheimen Standorten, die sich vorrangig an den Rändern von Ballungsgebieten befinden, Lang- und Rundkornreis sowie Erbsen und Linsen ein. Außerdem sollen Kondensmilch und Vollmilchpulver bei den Herstellern bereitstehen. Daneben gibt es zur Versorgung mit Mehl und Brot noch die Bundesreserve Getreide, die aus Weizen, Roggen und Hafer besteht. Beide Reserven umfassen zusammen etwa 800.000 Tonnen Lebensmittel (ca. 9,7 kg/Bundesbürger).

Es ist geplant, im Krisenfall die Vorräte nicht zu verteilen, sondern in öffentlichen Küchen für die Bevölkerung aus dem Lang- und Rundkornreis sowie Erbsen und Linsen Mahlzeiten zuzubereiten. Bei einem Blackout ist dieser Plan illusorisch. Und auch eine alternative Verteilung der Nahrungsmittel in der Fläche kann nicht stattfinden.

Empfehlung: Ziehen Sie die Nutzung der Zivilen Notfallreserve im Falle eine Blackout gar nicht erst in Betracht.

<Folge 6 kommt demnächst> Teil 1 steht hier, Teil 2 hier, Teil 3 hier, Teil 4 hier

———————————-

Hinweis: Das PDF mit dem vollständigen Inhalt ist beigefügt. Es kann aber auch beim Kaleidoscriptum-Verlag berstellt werden (www.kaleidoscriptum-verlag.de)

blackout




BLACKOUT – kleines Handbuch zum Umgang mit einer wachsenden Gefahr – Folge 4

Bild 9: Diese Grafik zeigt den realen Fall einer zehntägigen Dunkelflaute in Mitteleuropa (Quelle: Infografik Die Welt)

Daher müssten im Gleichtakt mit der Abschaltung konventioneller Kraftwerke zügig regelbare „Schattenkraftwerke“ erstellt werden, für die als Energieträger das teure, und angeblich „klimafreundliche“ Erdgas im Gespräch ist. Doch wie ist es um die Klimafreundlichkeit des Erdgases überhaupt bestellt? Bei seiner Verstromung emittiert es im Vergleich zu Steinkohle nur rund die Hälfte von dessen CO2. Mit dieser Feststellung begnügt sich die offizielle Meinung und verschließt dabei geflissentlich die Augen vor einer anderen Tatsache, die Erdgas zum größeren Klimaschädling macht als die Kohle. Es ist dies der sogenannte „Schlupf“ von Methangas, der bei seiner Förderung freigesetzt wird und etwa 5 bis 11 Prozent der Fördermenge beträgt /16/. Aber werden dessen ungeachtet wenigstens genug Gaskraftwerke gebaut, um den Kahlschlag bei Kernkraft und Kohle auszugleichen? Diese Frage kann nur mit einem klaren „Nein“ beantwortet werden. Wie der Bundesverband der Energie- und Wasserwirtschaft (BDEW) am 01.04.2019 auf der Hannover-Messe kritisierte, waren zu diesem Zeitpunkt nur vier Gaskraftwerke mit insgesamt 572 Megawatt (das sind nur 0,572 Gigawatt!) Leistung im Bau; acht befanden sich im Genehmigungsverfahren und für drei weitere lag eine Genehmigung vor. Ursächlich für diese Misere ist die fehlende Neigung von Investoren, ihr Geld in Gaskraftwerke zu stecken, die nur dann angefahren werden dürfen, wenn Wind und Sonne Pause machen. Bei einer solchen Fahrweise steht fest, dass die Betriebskosten exorbitant hoch sein werden; doch ihre genaue Höhe lässt sich nicht kalkulieren. Der vermutlich beschrittene Ausweg wird darin bestehen, die gesamten Kosten dieser katastrophalen Unrentabilität auf die Stromkunden abzuwälzen /17/.

Die Abschaltung thermischer Kraftwerke hat in Deutschland höchste politische Priorität. Und sie erfolgt offenbar nach dem Prinzip „Augen zu und durch!“. Ein beeindruckendes Beispiel dafür ist der Umgang mit der am 31.12.2019 erfolgten Abschaltung des Kernkraftwerks Philippsburg in Baden-Württemberg. Wie FOCUS online berichtete, war bereits vorher klar, dass dem Ländle danach 14 Prozent der benötigten Elektroenergie fehlen würden /18/. Man beauftragte eine Studie: „Versorgungssicherheit in Süddeutschland bis 2025 – sichere Nachfragedeckung auch in Extremsituationen?“. Sie kam erwartungsgemäß zu dem Schluss, dass „Deutschland in deutlichem Umfang auf Importe aus Nachbarländern angewiesen sein werde“. Doch: „Ob die Nachbarländer die von Deutschland benötigten Erzeugungsleistungen zur Verfügung stellen können und werden, wurde in der Untersuchung nicht überprüft“ zitiert der SWR aus der Studie. Insgesamt beurteile die Studie die Versorgungssituation optimistischer als Vorgängerstudien. Vor allem aus einem Grund: Insbesondere in Frankreich und in Polen würden Kern- und Kohlekraftwerke länger laufen als geplant.“

Das bedeutet: Die Politik in Baden-Württemberg hat so lange Studien anfertigen lassen, bis – unter Weglassung entscheidender Fakten – das gewünschte Ergebnis herauskam! Tatsächlich wurde in Frankreich, dessen Stromerzeugung im Winter immer wieder unzureichend ist, das Atomkraftwerk Fessenheim am 29. Juni 2020 abgeschaltet, weitere 14 Reaktoren (von insgesamt 58) sollen bis 2035 folgen. Polen wird von der EU massiv zur Einhaltung von „Klimazielen“ gedrängt, und die Niederlande legen wegen Klagen von Umweltschützern vorzeitig Kohlekraftwerke still.

Am 15.01.2020 erschien in der WELT ein Artikel unter dem Titel: „Die Stromlücke kommt später – dafür aber schlimmer“, in dem die Entwicklung der Stromproduktion in Deutschland aus der Perspektive der Netzbetreiber analysiert wird /19/. Die wesentlichen Aussagen von Amprion, TenneT, 50Hertz und TransnetBw in dieser Veröffentlichung lauten:

Die vorhandenen Leistungsreseven an einem Stichtag jeweils im Januar sinken ständig. 2017 betrugen sie noch 42,2 Gigawatt, 2019 waren es noch 3,5 Gigawatt, was etwa der Leistung von drei Großkraftwerken entspricht.

Unter möglichen ungünstigen Bedingungen (die glücklicherweise nicht eingetreten sind) hätte Deutschland seinen Strombedarf zu Zeiten einer angenommenen Spitzenlast am 20. Januar 2020 bereits nicht mehr aus eigener Kraft decken können und wäre auf den Import von 0,5 Gigawatt aus dem Ausland angewiesen gewesen.

Unter Annahme der gleichen Bedingungen ergibt sich für 2021 ein gesteigertes Defizit von 5,5 Gigawatt.

Am deutlichsten wird die Gefahr eines Blackouts in einem WELT-Artikel vom 09.03.2020 benannt, der auch den Titel trägt: „Die Gefahr eines Blackouts ist da/20/. In einem Interview mit der Zeitung warnt der Vorstandschef des Energiekonzerns Uniper, Andreas Schierenbeck vor einer erheblichen „Stromlücke“ von bis zu sieben Gigawatt in Deutschland und steigenden Blackout-Gefahren, auf die er derzeit keine energiepolitische Antwort sehe. Hier zwei Zitate aus dem lesenswerten Interview:

Wenn der Anteil von Solar und Wind aber deutlich über 40, 50 oder 60 Prozent steigt, wird es ohne eine solide Rückendeckung durch fossile Reservekraftwerke nicht mehr gehen. Das hat man kürzlich in Großbritannien gesehen. Der große Blackout im August vergangenen Jahres geschah an einem Tag, an dem fast 65 Prozent Windenergie im System waren.“

Ich gehe davon aus, dass wir in den nächsten drei Jahren eine Lücke von mehr als sieben Gigawatt an sicherer Erzeugungskapazität in Deutschland haben können, um die Spitzenlast zu decken. Es wird also die Kapazität von mindestens sieben Großkraftwerken fehlen. Ich halte das für bedenklich.“

4.7.1 … und ihre wahrscheinlichen Folgen

Womit müssen wir als Verbraucher von Elektroenergie in Deutschland angesichts der vorstehend beschriebenen defizitären Entwicklungen rechnen? Natürlich mit weiter steigenden Strompreisen. Doch als weitere Folge werden Häufigkeit und Dauer der Zeitintervalle zunehmen, in denen Elektroenergie nicht mehr dem Bedarf entsprechend bereitgestellt werden kann. Damit werden Zwangsabschaltungen (die aktuell euphemistisch mit dem Wort „Spitzenglättung“ umschrieben werden) unumgänglich. Industrielle Großverbraucher trifft dieses Los schon seit einiger Zeit. Im Jahr 2018 musste die deutsche Aluminiumindustrie 78 Abschaltungen erdulden. Mit dem wachsenden Defizit der deutschen Stromproduktion wird auch die Häufigkeit solcher kontrollierten Lastabwürfe anwachsen. Zweifellos wird man so lange wie möglich versuchen, sie auf die Industrie zu beschränken. Doch in Verbindung mit den welthöchsten Strompreisen und mit einer CO2-Steuer, die in Deutschland bis 2030 auf 180 Euro pro Tonne ansteigt, bedeutet dies eine sehr ernsthafte Gefährdung von Arbeitsplätzen. Deshalb werden die Netzbetreiber immer wieder unter dem politischen Druck stehen, das Netz an der Grenze seiner Leistungsfähigkeit zu fahren, um eigentlich gebotene kontrollierte Abschaltungen zu vermeiden. Dass eine derartige Fahrweise das Risiko eines Blackouts signifikant erhöht, bedarf keiner näheren Erläuterung.

Nach der aktuellen Vorstellung der Bundesregierung sollen bis 2030 auf deutschen Straßen zehn Millionen Elektro-Pkw und 500.000 Elektro-Nutzfahrzeuge unterwegs sein, die dann Strom aus 300.000 Ladepunkten ziehen /21/. Es lässt sich abschätzen, dass für diese Fahrzeuge jährlich zusätzliche Elektroenergie von rund 40 Milliarden Kilowattstunden zu erzeugen und im Netz bis zu den Ladestationen fortzuleiten ist. Das entspricht dem Energieverbrauch von fast 20 Millionen Zwei-Personenhaushalten – keine Kleinigkeit. Sollte sich dieser Traum der Regierung erfüllen, geriete er zum Albtraum für das Netz.

Die Batterieautos in gigantischer Zahl sollen übrigens nicht nur der Fortbewegung von Menschen und dem Transport von Gütern dienen; nebenbei sind sie auch für eine Stabilisierung des Stromnetzes vorgesehen: „Werden Elektroautos gerade nicht genutzt und sind an das Stromnetz angeschlossen, können ihre Batterien zukünftig als Puffer dienen und damit die Stabilität des Stromnetzes unterstützen/22/. Wann schließt wohl der Besitzer eines Batterieautos sein Fahrzeug an das Stromnetz an? Die richtige Antwort auf diese Frage lautet: Wenn es geladen werden muss. Damit wird das Auto aber über den Ladestecker zur „flexibel zuschaltbaren Last“, der ein Bilanzkreisverantwortlicher des Stromnetzes nach eigener Entscheidung die noch vorhandene Ladung auch wieder entziehen kann. Dass der Besitzer einer solchen Form der Fremdnutzung seines Fahrzeugs freiwillig zustimmt, ist schwer vorstellbar. Zudem muss er ja auch noch eine signifikante Verringerung der Lebensdauer der Batterie hinnehmen, die nur eine begrenzte Zahl von Ladezyklen verträgt. Doch diese Vorstellung von der Zukunft unserer Mobilität soll eine tragende Säule der Energiewende werden. An ihrer Abwegigkeit kann allerdings auch die hochtrabende Bezeichnung „Sektorenkopplung“ nichts ändern.

4.8 Abnahme der Schwarzstartfähigkeit

Unter Schwarzstartfähigkeit versteht man die Fähigkeit eines Erzeugers von Elektroenergie, unabhängig vom Stromnetz aus dem abgeschalteten Zustand hochzufahren. Die Schwarzstartfähigkeit von Stromerzeugern im Netz beeinflusst nicht die Eintrittswahrscheinlichkeit eines Blackouts; stattdessen ist sie von entscheidender Bedeutung für seine Dauer. Schwarzstartfähig sind:

Pumpspeicherkraftwerke

– Laufwasserkraftwerke

– Gaskraftwerke, die dabei allerdings einen Batteriespeicher oder ein großes Notstromaggregat benötigen.

Kern- und Kohlekraftwerke können noch einige Stunden nach dem Netzausfall die für ihren Betrieb erforderliche Eigenenergie produzieren; danach brauchen sie zum Wiederanfahren Fremdleistung. Die schwarzstartfähigen Energieerzeuger sind die Lebensversicherung des Stromnetzes; ohne sie könnte seine Funktion nach einem Blackout nicht wieder aufgebaut werden. Für einen solchen Wiederaufbau gibt es Pläne. Zunächst werden praktisch alle Trennschalter im Netz auf „Aus“ gestellt. Dann sollen in einem ersten Schritt die autarken Schwarzstarter durch sogenannte Impulsproduktion thermische Großkraftwerke hochfahren, damit diese ihre normale Stromproduktion wieder aufnehmen. Mit ihnen erfolgt der schrittweise Aufbau von Teilnetzen, welche dann nach einer Synchronisierung miteinander verbunden werden können. Wie kompliziert der gesamte Prozess bis zur völligen Wiederherstellung des Netzes ist, können Interessierte in dem Artikel von F. Prillwitz und M. Krüger Netzwiederaufbau nach Großstörungen“ /23/ nachlesen.

Doch was ist, wenn die Forderungen von Fridays For Future erfüllt werden und es keine thermischen Großkraftwerke mehr gibt? Windräder und Solaranlagen sind nicht schwarzstartfähig. Dann sind die bisherigen Pläne Makulatur, und es ist fraglich, ob das Netz – selbst mit gigantischem Zeitaufwand – im Falle eines Blackouts überhaupt wieder aufgebaut werden kann. Gelegentlich werden von den Verfechtern der Energiewende Batteriespeicher als möglicher Ausweg aus der Misere genannt /24/, doch der damit verbundene Aufwand dürfte kaum zu bewältigen sein.

4.9 Mangelnde Sachkunde der Politik

Vor etwas mehr als einem Jahrhundert gab es in Deutschland schon einmal eine Energiewende; auch sie war mit einem Strukturwandel der Wirtschaft verbunden. Im Deutschen Kaiserreich existierten 1895 nach regierungsamtlicher Zählung 18.362 betriebene Windmühlen; 1907 war ihre Zahl bereits auf 8.170 gesunken. Ursächlich für dieses Windmühlensterben war das Aufkommen des Elektromotors, für den Strom zur Verfügung stand, der aus Kohle gewonnen wurde. Mit dieser neuen Technik galt für einen Kontrakt über das Mahlen von Getreide auf einmal nicht mehr der Vorbehalt: „Wenn der Wind weht“. Außerdem stand nun ein Vielfaches der früheren Antriebsleistung von bestenfalls 10 Kilowatt zur Verfügung. Und man benötigte für den Mahlprozess keine windgünstigen Standorte mehr auf Hügeln mit schlechter Zuwegung; große Mühlen in verkehrsgünstiger Lage übernahmen diese Aufgabe zu einem Bruchteil der bisherigen Kosten. Das Brot beim Bäcker wurde billiger.

Diese schon fast vergessene Energiewende erfolgte nicht auf kaiserliche Anordnung. Als alleinige Triebkraft reichte die erhebliche Steigerung der Effizienz einer Wertschöpfungskette aus. Man hatte sie erreicht, indem man sich von einem stochastisch schwankenden Energieträger mit geringer Energiedichte verabschiedete und stattdessen auf eine stets verfügbare Energiequelle mit unvergleichlich höherer Energiedichte setzte. Die Folge dieser dezentral von vielen Menschen getroffenen Entscheidung war ein Wohlstandswachstum der gesamten Gesellschaft, von dem wir heute noch zehren.

Die heutige Energiewende ist die Umkehrung des damaligen Prozesses: Wir verabschieden uns von gesicherten Energieträgern mit hoher Energiedichte und setzen wieder auf schwankende Energien, die über riesige Flächen eingesammelt werden müssen. Als Triebkraft wirkt dabei nicht die Steigerung von Effizienz und Wohlstand, sondern ausschließlich die Politik. Nur aufgrund der zu bezweifelnden Behauptung, damit könne das Klima gerettet werden, hat sie ein „Große Transformation/25/ genanntes Gesellschaftsexperiment mit dramatischen Auswirkungen auf fast alle Bereiche von Wirtschaft und Technik angeordnet. So ist beispielsweise das Ende des Verbrennungsmotors kein normaler „Strukturwandel“ – es wurde durch die willkürliche Vorschrift angeordnet, dass er nur noch 59,4 Gramm CO2 pro Kilometer ausstoßen darf (ab 2030), was schlicht unmöglich ist. Besonders betroffen ist allerdings unser Stromnetz wegen der Gefahr eines Blackouts. Weil bei der Großen Transformation spontan wirkende Triebkräfte durch politische Entscheidungen ersetzt werden, ist leicht einzusehen, dass der Qualifikation politischer Entscheidungsträger eine herausgehobene Bedeutung zukommt. Vor allem sollte sie bei Politiker*innen der Partei DIE GRÜNEN zweifelsfrei vorhanden sein, denn sie treiben die vorbeschriebene Entwicklung direkt und indirekt maßgeblich voran. Mit Widerspruch seitens der Industrie müssen sie übrigens kaum noch rechnen, denn deren Repräsentanten haben sich dem politisch-medialen Druck bereits gebeugt. So ließ Uniper-Vorstandschef Schierenbeck in dem unter Punkt 4.7 erwähnten Interview /20/ den bemerkenswerten Satz fallen: „Es geht vor allem um Haltung.“

Wie sieht es nun mit Sachkenntnis gerade bei grünen Spitzenpolitiker*innen aus?

Die Parteivorsitzende der Grünen, Annalena Baerbock, gab im Januar 2018 dem Deutschlandfunk ein bemerkenswertes Interview, in dem sie behauptete, dass Netz wäre ein Energiespeicher.

Es ist dem Autor nicht bekannt, dass sich Frau Baerbock inzwischen von diesr und von ähnlichen Aussagen, zu deren Diskussion sie „keine wirkliche Lust hat, mir gerade mit den politischen Akteuren, die das besser wissen, zu sagen, das kann nicht funktionieren.“ distanziert hätte.

Aber Frau Baerbock steht mit ihren Wissenslücken und realitätsfernen Vorstellungen nicht allein. Cem Özdemir verwechselte in seinem „Gigabyte“-Interview zur Stromproduktion aus dem Jahre 2011 nicht nur die Maßeinheiten Gigawatt für Leistung und Gigabyte für Datenmenge; er postulierte auch einen völlig falschen Zahlenwert von 140 „Gigabyte“, die in Deutschland an Leistung erzeugt werden könnten. Und bei der „Kugel Eis“, die der ehemalige Bundesumweltminister Jürgen Trittin als monatliche Kosten der Energiewende für Haushalte prophezeite, hatte er sich ungefähr um den Faktor 100 geirrt.

Doch naturwissenschaftlich-technische Unwissenheit und haarsträubende Fehlprognosen sind keine exklusive Domäne der Grünen. Nachdem das ursprüngliche Ziel der Bundesregierung, im Jahr 2020 auf deutschen Straßen eine Million Batterieautos rollen zu lassen, mit einer derzeitigen Stückzahl von 83.000 verfehlt wurde, will Verkehrsminister Scheuer (CSU) ihre Zahl bis 2030 auf 10 Millionen zzgl. einer halben Million batteriegetriebener Nutzfahrzeuge steigern (s. auch Punkt 4.7.1). Allein die Schaffung der dafür erforderlichen Ladestruktur ist eine Generationenaufgabe. Wer soll solche Phantastereien noch ernst nehmen?

Doch welcher Grad von Unwissenheit bei Politiker*innen, die in Regierungsverantwortung stehen oder eine solche anstreben, ist noch tolerabel? In Anbetracht des menschlichen Leids und der gigantischen materiellen Verluste, die ein langdauernder und großflächiger Stromausfall mit sich bringen würde, müssen der Toleranz Grenzen gesetzt werden. Und so ist es wohl weniger riskant, ahnungslosen Politiker*innen ein Verteidigungsministerium anzuvertrauen als die Verantwortung über unser Stromnetz. Zumindest, solange Deutschland nicht auf die Idee kommt, Krieg zu führen.

<Folge 5 kommt demnächst> Teil 1 steht hier, Teil 2 hier, Teil 3 hier

—————————————-

Hinweis: Das PDF mit dem vollständigen Inhalt ist beigefügt. Es kann aber auch beim Kaleidoscriptum-Verlag berstellt werden (www.kaleidoscriptum-verlag.de)

blackout




Der Januar verweigert sich der CO2-Klima­erwärmung.

Der Januar 2021 zeigte sich in Mittel- und Süddeutschland als kalter Wintermonat. In den Alpen und im Vorland wieder mal mit reichlich Schnee. Der Niederschlag lag reichlich über den Vergleichsjahren und die Sonnenstunden deutlich darunter. Auffallend waren auch die Messstationen über 700 m, die zu ihrem eigenen Mittel deutlich kälter ausfielen.

Wir fragen uns natürlich, wo sich dieser Januar 2021 mit seinen 0,6°C in die bis 1881 zurückreichende Klimareihe Deutschlands einreiht und wie sich der Monat langfristig entwickelt hat. In früheren Beiträgen hatten wir die freilich subjektive Aufteilung längerer Messreihen in Klimasprünge oder Entwicklungsphasen diskutiert.

Wir wählen zunächst DWD-Betrachtungszeitraum seit 1881 und erkennen sofort in Grafik 1, dass die kleine Eiszeit in Mitteleuropa eigentlich erst um 1900 endete. Einzuwenden wäre natürlich, dass um 1900 ein ganz anderes Deutschland mit anderen Grenzen bestand und die Wetterstationen samt ihren Daten von damals mit den heutigen nur bedingt vergleichbar sind. Deutschland hatte damals 104 Einwohner pro Quadratkilometer; heuer sind es mit etwa 220 gut doppelt so viele, was erwärmend wirkte. Die Wetterstationen stehen heute in den von Menschen geschaffenen Wärmeinseln und damals gab es noch typische ländliche Stationen bei Klöstern oder Forsthäusern am Waldrand oder bei frei stehenden Gutshöfen. Diese menschengemachte Erwärmung durch Einwohnerzunahme, geänderte Flächennutzung und Versetzten der Stationen an wärmere Orte lassen wir zunächst außer Betracht. Beim Monat Januar sehen die vom Deutschen Wetterdienst aneinandergereihten Einzelwerte so aus:

Abbildung 1: Der Januar seit 1881 in Deutschland zeigt drei Entwicklungsphasen: Er erwärmte sich zwischen 1881 und 1921 stark, was man als letzte Erholungsphase der endenden „Kleinen Eiszeit“ interpretieren kann. In der zweiten Phase streuten die Einzelwerte am stärksten bei insgesamt minimaler Abkühlung; in diese fallen die kalten Kriegs-Januare 1940 bis 1942 oder 1963, als der Bodensee einfror, aber auch extrem milde wie 1936, 1975 oder 1983. Diese Phase endet mit dem sehr kalten Januar 1987; danach (Klimasprung) fehlten sehr kalte Januare, aber insgesamt kühlte es sich seit 1988 wieder minimal ab. Mit der kontinuierlich und immer stärker steigenden CO2-Konzentration (grüne Kurve) lassen sich diese drei Phasen und auch die Temperaturentwicklung insgesamt nicht erklären – der größte Temperaturanstieg fand zu der Zeit statt, als die CO2-Werte kaum anstiegen, und momentan sinken die Temperaturen bei am stärksten steigenden CO2-Werten.

Betrachten wir nun den Zeitraum der beiden letzten Temperatursprünge isoliert:

Abbildung 2: Der Betrachtungszeitraum zeigt, ausgehend von zwei warmen Januarjahrzehnten, eine leichte Temperaturabnahme, wobei die drei Kriegs-Januare 1940 bis 1942 herausragend kalt waren.

Im Jahre 1987 auf 1988 setzte auch beim Monat Januar ein Temperatursprung auf ein höheres Niveau ein, auf dem wir uns heute noch befinden.

Abbildung 3: 1987 auf 1988 erreichte der Januar mit einem Temperatursprung ein höheres Wärmeniveau, ein Plateau, das seitdem anhält.

Zur besseren Vergleichbarkeit legen wir die beiden Grafiken mit gleichen Intervallen nebeneinander:

Abbildung 4: Seit 1988 wurde der Januar durch einen Temperatursprung von etwa 1,5°C wärmer. Dieser Temperatursprung ist auch zugleich etwa der Unterschied zwischen dem alten Vergleichswert 1961/90 und dem neuen 1991 bis 2020

Die CO2– Zunahme in der Atmosphäre: starker Anstieg

Gebetsmühlenartig werden CO2 und Klimaerwärmung in Zusammenhang gebracht.

Wir gehen von einer erheblichen CO2-Konzentrationszunahme aus, ob diese jedoch ausschließlich anthropogenen Ursprunges ist, wollen wir nicht diskutieren, sondern lediglich die behauptete starke CO2-Kimasensitiviät anhand des Artikels in Frage stellen – siehe Abbildung 1.

Wir stellen fest:

1) Die CO2-Kurve der Konzentrationszunahme zeigt im Vergleich zur Entwicklung der deutschen Januartemperaturen keinerlei Ähnlichkeit. Im Gegenteil: Nach dem letzten Januartemperatursprung nehmen die DWD-Januartemperaturen wieder leicht ab.

2) Auch für den Temperatursprung im Jahre 1987 auf 88 kann CO2 nicht verantwortlich sein, das wird allerdings auch nicht behauptet. Der Temperatursprung auf ein wärmeres Plateau hat somit ausschließlich natürliche Ursachen (Zirkulationsverhältnisse – mehr Westwetterlagen bei positiven NAO-Werten).

Der Mensch wirkt mit bei der Klimaveränderung durch Wärmeinseleffekte (WI). Klima verändert sich seit 4 Milliarden Jahren. Von Interesse wäre der Temperaturverlauf ohne die wärmenden menschlichen Veränderungen bei den Stationen. Vor allem in den letzten vier Jahrzehnten hat sich die Bebauung in die einst freie Fläche hinein erweitert, derzeit um 50 Hektar täglich und innerhalb der Städte und Gemeinden werden Baulücken weiter geschlossen, damit die Flächenerweiterung ins Umland – eigentlich eine Naturzerstörung – rein statistisch geringer ausfällt, was die Politik uns dann wieder als Naturschutz andrehen will. Im Winter wärmt zusätzlich die Abwärme der Industrie, der Haushalte und des Verkehrs, die Siedlungen und deren näheres Umfeld auf. Im Umland heizen „Biogas“-, Solar- und Windkraftanlagen ebenfalls. Insgesamt sind die WI- Effekte nach unseren bisherigen Untersuchungen im Winter aber etwas geringer als in den Frühjahrs- und Sommermonaten.

Kurzum, bei den Messstationen des DWD hat der Wärmeeintrag, bedingt durch die Bebauungsveränderungen zugenommen und die Thermometer der Stationen messen diese Zusatzwärme aus den sich vergrößernden Wärmeinseln mit. Natürlich gibt es auch Stationen mit geringen wärmenden Veränderungen. Eine solche wäre in Amtsberg-Dittersdorf südlich von Chemnitz, deren Temperaturverlauf wir in der Grafik 5 wiedergeben.

Abbildung 5: Die Wetterstation in einem Vorort von Amtsberg, am Fuße des Erzgebirges zeigt seit 1988 eine kräftigere Abkühlung als die DWD-Deutschlandtrendlinie.

Ähnlich verhalten sich auch viele andere WI-arme Stationen wie Rosenheim, Memmingen, Alfhausen und Netzstall und dergleichen mehr. Daneben gibt es natürlich auch WI-belastete Stationen, deren Umfeld sich seit 1988 durch menschliche Bebauung stark verändert hat. Als Beispiel soll hier die einst ländliche Wetterstation Hof im Vergleich zu Netzstall einem Aussiedlerhof bei Nürnberg gezeigt werden.

Abbildung 6: Die WI-belastete Wetterstation Hof zeigt seit 1988, dem letzten Temperatursprung, keine Abkühlung – sie wurde in ein Gewerbegebiet eingemauert – dagegen die nicht sehr weit entfernte Station Netzstall schon. Anzumerken ist allerdings, dass der DWD die Station Netzstall vor etwa 15 Jahren von einem Außenbezirk Nürnbergs zum Aussiedlerhof versetzt hat; dort ist es etwas kühler.

Höher gelegene Wetterstationen: Noch stärkere Januarabkühlung – warum?

Abbildung 7: Die Wetterstation Zugspitze zeigt eine sehr starke Januarabkühlung in den letzten 34 Jahre

Der Feldberg im Schwarzwald, knapp unter 1500 m NN

Abbildung 8: Der Feldberg in Ba-Wü zeigt gleichfalls eine starke Januarabkühlung, obwohl dort die CO2-Konzentrationen wie überall in Deutschland um etwa 70 ppm im Betrachtungszeitraum gestiegen sind.

Der Hohenpeißenberg im Allgäu, knapp unter 800 m NN

Abbildung 9: Selbst der Hohenpeißenberg zeigt eine deutliche Januarabkühlung

Deutlich zeigt sich diese offenbar durch höhenkalte Luft bedingte Januar-Abkühlung auch an den Daten des Amerikanischen Wetterdienstes NOAA für den Sektor Deutschland, und zwar selbst dann, wenn die Reihe mit dem wegen starker, dynamischer Antizyklonen sehr warmen Januar 2020 endet (das NOAA-Flächenmittel für Januar 2021 lag zu Redaktionsschluss noch nicht vor; er war extrem stark von höhenkalter Luft bestimmt). Näheres zum ungewöhnlichen Januar 2020 hier und zur Höhen-Abkühlung im Januar hier.

Abbildung 10: Während sich die Januar-Temperatur in den bodennahen Luftschichten (1000 hPa-Niveau) kaum abkühlte, ist über der Grundschicht eine deutliche Abkühlung zu verzeichnen – trotz des in der Höhe extrem milden Januars 2020, mit dem diese Reihe endet. Sie zeigt sich auch noch in der mittleren Troposphäre (500 hPa).

Ein Wetterkartenbeispiel vom 25. Januar 2021 zeigt die Höhenkaltluft, welche für reichlich Schnee und Kälte in den Mittel- und Hochgebirgen sorgte:

Abbildung 11: Höhenkalte Subpolar- und Arktikluft (mA, xP, mP) bestimmte im Januar 2021 oft das Wetter und sorgte für ergiebige Schneefälle mitunter gar bis ins Flachland. Man erkennt die Höhenkälte an dem niedrigen Geopotential, das von Ostgrönland über Skandinavien bis zum Alpenraum reicht (bläuliche Färbung). Bildquelle wetterzentrale.de

Die genauen Ursachen dieser Januar-Höhenabkühlung bedürfen noch einer Erforschung. Möglicherweise hat sie mit dem bevorstehenden Ende der AMO-Warmphase zu tun: Während die Randmeere Ost- und Nordsee durch die endende AMO-Warmphase (noch) recht warm sind, stellen sich die Zirkulationsverhältnisse in höheren Luftschichten bereits auf Abkühlung um, die später auch die bodennahen Luftschichten erfasst – ob das so eintritt, kann aber nur die Zukunft zeigen.

Zwischenergebnis der Januar-Temperaturbetrachtung:

1) Bei WI-belasteten Stationen wie Hof, München, Frankfurt sind sie gleich geblieben.

2) Seit 1988 sind die Januartemperaturen im DWD-Mittel leicht, aber nicht signifikant gefallen.

3) Bei WI-armen Stationen sind sie stärker gefallen.

4) Bei Höhenstationen ab 800m und aufwärts erleben wir eine viel stärkere Januarabkühlung, der Grund ist niedrigeres Geopotential mit höhenkalter Luft.

Ein Wonnemonat Januar oder gar eine bevorstehende Erwärmungskatastrophe mitten im Winter ist überhaupt nicht in Sicht. Die Trendlinie lässt eher gegenteiliges vermuten. Das Klimamonitoring des DWD zusammen mit den zwei Umweltministerien Bayerns und Baden-Württembergs im Herbst 2016 war ein Treffen der Märchenerzähler, genauso wie das Falschorakel eines Mojib Latif im Jahre 2000, dass Deutschland keine Winter und keinen Schnee mehr erleben wird. Oft argumentiert die meist nicht naturwissenschaftlich ausgebildete Führungsriege des DWD gegen die eigenen Daten. Wie lange werden sich das die Fachleute in der zweiten Reihe des DWD und all die Stationsleiter außerhalb der Städte noch gefallen lassen müssen?

Wohin geht der Januartrend in Deutschland?

Nach unten, er wird lediglich durch die vom Menschen verursachten WI-Effekte und die AMO-Warmphase gebremst. Jedoch werden kalte Januarnächte einfach aus den Siedlungen hinaus geheizt.

Ist vielleicht Deutschland eine Ausnahme oder gar ein Sonderfall? Wird nur bei uns der Januar kälter? Wir werfen einen Blick in die USA, zur Dale-Enterprise Weather Station in Virginia, der ältesten Wetterstation in diesem Bundesstaat. Die Station hat den Vorteil, dass sie noch ländlicher und noch einen Tick wärmeinselärmer ist als deutsche Stationen. Das Wetterhäuschen steht unverändert bei einer einsamen Farm.

Abbildung 12: Während im WI-belasteten Washington die Januar-Temperatur fast unverändert blieb, kühlte sich das ländliche Dale Enterprise leicht ab. Die CDC-Daten für Januar 2021 lagen noch nicht vor, deshalb endet diese Grafik mit dem 2020er Januar

Auch andernorts finden sich immer wieder Stationen ohne Januar-Erwärmung; abschließend zwei Beispiele:

Abbildung 13: Geringe Januar-Abkühlung in Zentralengland.

Abbildung 14: Im ehemaligen Winter-Olympiaort Sapporo wurde der Januar nicht wärmer. Werte nur bis 2020 verfügbar

Auch in Teilen Sibiriens, in Korea oder in Mittelskandinavien, blieb eine Januar-Erwärmung seit gut 30 Jahren aus; oder es war gar eine Abkühlung zu beobachten. Gerade in Skandinavien verlief der 2021er Januar bitterkalt.

Winter-Nachschlag im Februar?

Wie schwierig „Langfristprognosen“ sind, zeigt ein Vergleich zweier Modell-Läufe des CFSv2 (NOAA) für die erwarteten Temperaturabweichungen im Februar 2021. Der erste Modell-Lauf, endend mit dem 8. Januar 2021, zeigt einen viel zu warmen Februar über ganz Europa. Nur drei Wochen später kommt das „Modell“ zu einem gänzlich anderen Ergebnis, und die Mittelfrist-Modelle sowie der Witterungscharakter Ende Januar lassen gar noch Spielraum für zeitweise Februar-Kälte in ganz Mitteleuropa; die genaue Entwicklung bleibt freilich unsicher, zumindest etwa südlich des 53. Breitengrades verlaufen die ersten Februar-Tage noch sehr mild:

Abbildungen 15 a und b: Noch in der ersten Januar-Woche (15 a, oben) prophezeite uns das CFSv2 einen sehr milden Februar 2021 über ganz Europa – zum Monatsende sagte es, zumindest in der Nordhälfte Europas, einen kalten Februar vorher. Die Kälte könnte möglicherweise aber auch noch weiter nach Süden reichen – zumindest zeitweise. Bildquellen: NOAA

Fazit: Gerade der Monat Januar zeigt, dass Kohlendioxid keine oder fast gar keine Wirkung auf den Temperaturverlauf haben kann. Sogar stark Wärmeinsel-geprägte Orte wie Frankfurt zeigen eine – wenn auch geringere – Temperaturabnahme.

Die Kohlendioxidzunahme hat in den letzten 34 Jahren beim Januar keine Erwärmung bewirkt, für die leichte Abkühlung gibt es hingegen viele Gründe.

Die ständige Zunahme der Wärmeinseleffekte sind der einzige menschengemachte Temperaturtreiber. Eine Einwirkung mittels CO2 gibt es nicht, das zeigen auch alle wissenschaftlich sauber durchgeführten Versuche.

Wollen wir den menschengemachten Anteil an der Erwärmung bekämpfen, dann müssen wir im Winter weniger heizen und den Lebensstandard wieder auf das Niveau des Mittelalters Jahre zurückfahren. Wollen wird das?




Mit der Übernahme der Energiepolitik durch Sozialisten werden die Energiepreise drastisch steigen!

Uns wird gesagt, dass große Änderungen in unserer Energiepolitik notwendig sind, um von Kohlenstoff-basierten fossilen Brennstoffen zu Wind und Sonne überzugehen, um den Planeten vor der Kohlenstoff-Verschmutzung und den daraus resultierenden katastrophalen Klimaveränderungen zu retten. Man sagt uns, dass grüne Energie uns Geld sparen wird, weil Sonne und Wind kostenlos sind, und dass das Entfernen von Kohlendioxid aus der Luft Leben retten wird. Jede dieser Behauptungen ist durch Beispiele aus der realen Welt leicht zu widerlegen. Die Wissenschaft dahinter ist absolut fehlerhaft, und die Maßnahmen führen zu genau den gegenteiligen, kostspieligen und sogar gefährlichen Ergebnissen.

Was ignoriert wird, ist der Mangel an globalen Daten, liegen doch Daten hauptsächlich nur aus den USA und Europa sowie Teilen Australiens vor. Über den Ozeanen gibt es nur sehr wenige Daten, obwohl sie 71% der Erdoberfläche bedecken.

Bei den ersten Versuchen, globale Trends zu bewerten, wurde erkannt, dass die Datenlage ein Problem darstellt, und die Analyse beschränkte sich auf die Landgebiete der nördlichen Hemisphäre. Sie zeigte starke Erwärmungs- und dann Abkühlungstrends von den 1880er bis zu den 1970er Jahren.


Im Laufe des 20. Jahrhunderts nahm die Anzahl der Stationen zu.

Man erkennt im US-Datensatz mit der höchsten Dichte und der am weitesten zurück reichenden Reihe, dass sich die Temperaturen mit CO2 nur in 40% der Zeit in die gleiche Richtung verändert haben.



In den 1980er Jahren begannen Satelliten, die Oberflächentemperaturen der Ozeane zu messen, wenn es die Wolken zuließen, und später, nach 2000, lieferte ein Netzwerk globaler Bojen genaue Ozeantemperaturen in Echtzeit. Es war das erste Mal, dass wir eine echte globale Abdeckung beanspruchen konnten, aber es entwickelten sich andere Probleme. Modelle wurden integriert, und wenn man unterschiedliche Daten mit Modellen kombiniert, kommt häufig Unsinniges heraus. Wir haben die globalen Datenprobleme hier und vor langer Zeit hier diskutiert.

Eine genaue, begutachtete Analyse hier konnte nicht feststellen, dass die stetig steigenden atmosphärischen CO2-Konzentrationen eine statistisch signifikante Auswirkung auf eine der 13 analysierten entscheidenden Temperatur-Zeitreihen hatten.

Niemand bezweifelt, dass sich das Klima in multidekadischen und noch längeren Zyklen ändert, die mit der Sonne und den Ozeanen zusammenhängen und von denselben gesteuert werden. Was die Behauptungen betrifft, dass die Wetterextreme mit der Erwärmung der Erde zunehmen, so können sie leicht mit realen Daten und natürlichen Faktoren widerlegt werden, wie wir es hier getan haben.

Eine der größten Bedrohungen für die Wirtschaft unseres Landes werden die in die Höhe schießenden Energiekosten und dadurch der weitere Verlust von Arbeitsplätzen sein, wobei die Wirtschaft bereits von Schließungen und COVID und radikalen Unruhen im Zusammenhang mit dem Scheitern kleiner Unternehmen taumelt. In diesem Land sind die Vorboten davon in den Staaten mit frühen grünen Energieverpflichtungen und Kohlenstoffreduktion oder versteckten Steuern. Kalifornien ist das bekannteste Beispiel, aber der Nordosten (rot in der Tabelle) mit der Regional Greenhouse Gas Initiative RGGI weist die mit Abstand höchsten Strompreise auf.

[Hervorhebung vom Übersetzer]


Weltweit sind die durchschnittlichen Strompreise unserer Bundestaaten am niedrigsten. In den grünen Staaten mit starken Investitionen in „grün“ liegen sie jedoch bis zu 5 mal höher. Bundesstaaten mit einem hohen Anteil Erneuerbarer sind von Stromausfällen und Blackouts betroffen (Kalifornien führt die Staaten an, da Blackouts während der Bedrohung durch Flächenbrände implementiert werden). Global gesehen sind Blackouts und Stromausfälle üblich, da Wind und Sonne nicht zuverlässig sind. Die hohen Stromkosten treiben die Industrie in Länder wie China und Indien, wo die Kosten niedrig sind, weil dort zur Energieerzeugung zuverlässige und billige Kohle verwendet wird.


Der Ökonom Gabriel Calzada, Professor der Ökonomie an der King Juan Carlos University in Spanien, schätzte 2010, dass jeder geschaffene grüne Arbeitsplatz Spanien 774.000 Dollar an Subventionen kostete. Dies führte jedoch zu einem Verlust von 2,2 realen Arbeitsplätzen. Nur 1 von 10 grünen Arbeitsplätzen war dauerhaft. Die Industrie verließ Spanien und die Arbeitslosigkeit stieg auf 27,5 %. In Italien gingen 3,4 reale Arbeitsplätze verloren.

Die Energiekosten beschränken sich nicht auf Strom, da die Abschaffung fossiler Brennstoffe zu einem erzwungenen Übergang zu Elektroautos führen würde, was die Nachfrage nach Strom weiter erhöht. Obama ließ die Benzinpreise auf 5 Dollar [pro Gallone ≈ 4 Liter] steigen und prophezeite, dass innerhalb von 2 Jahren jeder ein Elektroauto fahren würde, da seine Regierung 8 Dollar [pro Gallone] Benzin vorhersagte. Stattdessen – dank Fracking und dann mit der durch COVID erzwungenen Arbeit von zu Hause aus sanken die Benzinpreise auf 2 Dollar oder niedriger während Trumps Amtszeit, als wir endlich echte Energieunabhängigkeit erreicht hatten.


Viele „grüne“ Länder waren gezwungen, die Umstellung auf „grün“ zu verlangsamen oder sogar zu stoppen und Kohlekraftwerke zu bauen, um Energie zu liefern, wenn die Sonne nicht scheint oder der Wind nicht weht.


Wenn der Strom ausfällt, sind die Menschen der Gefahr durch Winterkälte ausgesetzt. Die Gefahr, die mit der Falschbehauptung „Hitze tötet“ verbunden ist, besteht darin, dass kaltes Wetter 20 mal so viele Menschen tötet wie heißes Wetter. Dies ergab eine internationale Studie, die über 74 Millionen Todesfälle an 384 Orten in 13 Ländern analysierte. Die Ergebnisse wurden in der Zeitschrift Lancet veröffentlicht. Viele Haushalte sollen sich in „Energiearmut“ befinden (25% Großbritannien, 15% Deutschland). Ältere Menschen sind gezwungen, „zwischen Heizung und Essen zu wählen“, während sie in ihren Mänteln und Pullovern in ihrer Wohnung sitzen.


In Kanada, den USA und in UK ist die Wintersterblichkeit.


Völlig eindeutig ist, dass die am meisten geschädigten Menschen diejenigen sind, die sich das am wenigsten leisten können. Haushalte mit einem Einkommen unter 20.000 Dollar pro Jahr geben über 40% ihres Einkommens für Energie aus.

„Den Armen helfen heißt Energie billiger machen. – Die Armen schädigen heißt Energie teurer machen“

Das Global Energy Institute der Handelskammer kommt zu dem Schluss, dass „ein Verbot von Fracking in den USA – einfach gesagt – katastrophal für unsere Wirtschaft wäre.

Unsere Analyse zeigt, dass falls ein solches Verbot im Jahr 2021 verhängt werden würde, bis zum Jahr 2025 19 Millionen Arbeitsplätze vernichtet und das Bruttoinlandsprodukt (BIP) der USA um 7,1 Billionen Dollar reduziert werden würde. Der Verlust von Arbeitsplätzen in den großen Energie erzeugenden Staaten wäre unmittelbar und schwerwiegend; allein in Texas würden mehr als drei Millionen Arbeitsplätze verloren gehen. Die Steuereinnahmen auf lokaler, bundesstaatlicher und föderaler Ebene würden um insgesamt fast 1,9 Billionen Dollar sinken, da das Verbot eine wichtige Finanzierungsquelle für Schulen, Rettungsdienste, Infrastruktur und andere wichtige öffentliche Dienste abschneidet.

Auch die Energiepreise würden bei einem Fracking-Verbot in die Höhe schießen. Die Erdgaspreise würden um 324 Prozent in die Höhe schnellen, wodurch sich die Energierechnungen der Haushalte mehr als vervierfachen würden. Bis 2025 würden Autofahrer an der Zapfsäule doppelt so viel bezahlen (5 Dollar pro Gallone +).“

In den letzten Jahren hat [das Einkommen eines] Durchschnittshaushaltes dank niedriger Steuern, rekordverdächtig niedriger Arbeitslosigkeit und billiger Energie im Schnitt um 4500 Dollar pro Jahr und Familie zugelegt. Jetzt werden die Kosten aufgrund von politisch bedingten Erhöhungen für Strom, Heizstoffe und Benzin drastisch steigen – Familien werden bis 2024 Verluste von bis zu 10.000 Dollar pro Jahr erleiden. Die Arbeit von zu Hause aus würde dies für die unmittelbare Zukunft etwas begrenzen, aber es ist klar, dass der erzwungene Wechsel zu grüner Energie mit einem enormen Preis verbunden ist. Das gilt selbst noch vor Berücksichtigung der enormen Materialkosten für den Bau von Turbinen und Solarparks. Es wurde sogar von einem Biden-Beauftragten vorgeschlagen, dass wir die Wind- und Solaranlagen in den wunderschönen Nationalparks des Landes errichten.

Ich habe einflussreiche Freunde und Führungskräfte in vielen Ländern auf fünf Kontinenten, in denen die Grünen gewütet haben. Sie haben unser Land beneidet und gehofft, dass ihre Länder unseren Vorteil sehen und unseren Ansatz übernehmen würden. Sie sind schockiert, dass unser Land nicht erkannt hat, wie gut wir es haben. Ein Freund schrieb auf einer anderen Seite: „… Wir stehen am Rande des Abgrunds. Ein Biden-Regime wird das Ende der Freiheit sein. Europa und Kanada sind bereits weit auf dem „Weg der Armut nach Venezuela“ voran gekommen. Falls Amerika fällt, wird es nirgendwo mehr etwas geben, wohin man fliehen kann.“

Link: http://icecap.us/index.php/go/joes-blog vom 19. Januar 2021
Übersetzt von Chris Frey EIKE

 




BLACKOUT – kleines Handbuch zum Umgang mit einer wachsenden Gefahr – Folge 3

Bild 6: Typisches Schadensbild an den vom Eis überlasteten Hochspannungsmasten im Münsterland 2005 (Quelle. WDR)

Den „größten Stromausfall der deutschen Nachkriegsgeschichte“ hat jedoch die Schneekatastrophe zum Jahreswechsel 1978/79 verursacht – wenn die DDR dabei mit betrachtet wird. Dort waren die Folgen geradezu dramatisch, und so nahm die Katastrophe ihren Lauf:

Das Szenario: In der Nacht vom 28. zum 29. Dezember stürzt im Norden der DDR die Temperatur von zehn Grad über Null auf minus zwanzig Grad. Die nördlichen Bezirke versinken bei gefrierendem Regen binnen weniger Stunden unter einem dicken Eispanzer, dann setzt dort ein dreitägiger Schneesturm ein. Während Erich Honecker zu einem Freundschaftsbesuch nach Afrika aufbricht und seine Minister sich schon zur Silvesterfeier verabschieden, dringt die Kaltfront nach Süden vor und legt dabei den Arbeiter- und Bauernstaat lahm. Bei der Bahn frieren die Weichen ein, Züge mit festgefrorener Braunkohle können nicht mehr entladen werden, und bei minus zwanzig Grad müssen die Braunkohlentagebaue ihre Förderung einstellen. Weil die Energieversorgung auf ständigen Nachschub angewiesen ist, gerät das Stromnetz der DDR immer mehr aus dem Takt. In den Energiekombinaten Thüringens wird schließlich die „Geheime Verschlusssache“ geöffnet; sie enthält den Befehl zur Abschaltung aller Verbraucher – der Süden der DDR versinkt ausgerechnet in der Silvesternacht in völliger Dunkelheit. Die komplette Stromversorgung kann dort erst nach Tagen wiederhergestellt werden.

Dass der „Jahrhundertwinter“ 1978/79 die DDR viel schwerer traf als die damalige Bundesrepublik, war vor allem ihrer fast vollständigen Abhängigkeit von der Braunkohle als Energieträger geschuldet. Zudem gab es keine Vorsorge für den Eintritt eines solchen Ereignisses. Andererseits wurden dessen Folgen sowohl durch eine gewisse, dem Sozialismus systemimmanente Bevorratungsmentalität der Bevölkerung gemildert, als auch durch die im Vergleich zu heute noch sehr geringe Abhängigkeit vom elektrischen Strom.

Der weltweit größte durch ein Extremwetterereignis verursachte Blackout ereignete sich im Januar 1998 in der kanadischen Provinz Quebec. Warme Luftmassen hatten tagelang über kalten Schichten gelegen, bis es am 7. Januar plötzlich zu Niederschlägen kam, die noch gefroren, bevor sie den Boden erreichten. Das ganze Land wurde durch eine Eisschicht praktisch versiegelt. Bäume waren auf einmal von einer mehr als vier Zentimeter starken Glasur bedeckt und knickten wie Streichhölzer. Und die Masten der Hochspannungsleitungen taten es ihnen nach.

Die kleine Auswahl wetterbedingter Gefahrensituationen für das Stromnetz soll durch ein Ereignis abgeschlossen werden, bei dem am 28. März 2012 in Ostdeutschland ein Blackout für das Verbundnetz gerade noch verhindert werden konnte. An diesem Tag herrschte ein außergewöhnlich hohes Angebot an regenerativem Strom, vor allem aus Windenergieanlagen. Die Netzbetreiber waren durch das seit 1991 geltende Stromeinspeisungsgesetz (2000 abgelöst durch das Erneuerbare-Energien-Gesetz) zu seiner Abnahme verpflichtet. Nur die zu gewährleistende Netzstabilität setzte dieser Verpflichtung Grenzen. Am Abend des 28. März fiel die 380 kV-Hochspannungsleitung von Wolmirstedt nach Helmstedt aus; damit standen nur noch zwei Leitungen für den Leistungsausgleich zwischen alten und neuen Bundesländern zur Verfügung. Die im Osten erzeugte Leistung mit einem großen Anteil von Windstrom aus dem Norden konnte nicht mehr ausreichend abgeführt werden, als Folge erhöhte sich die Netzfrequenz. Die daraufhin vorgenommene massive Reduzierung von konventioneller und schließlich auch regenerativer Stromerzeugung von mehreren Tausend Megawatt vermochte diese bedrohliche Entwicklung nicht zu beenden; die Frequenz stieg immer weiter an. Gegen 20.00 Uhr stand das Netz kurz vor der bei 51,5 Hz zu erwartenden Notabschaltung. Rettung brachte schließlich die Schaltung der Pumpspeicherwerke Goldisthal (Thüringen) und Markersbach (Sachsen) auf die Funktion „Pumpen“. Binnen weniger Minuten stieg ihre Leistungsentnahme aus dem Netz auf 2.400 Megawatt – der Blackout mit hoch wahrscheinlich länderübergreifenden Auswirkungen konnte gerade noch vermieden werden.

Heute scheint diese überaus wichtige Fähigkeit der Pumpspeicherwerke zur Netzstabilisierung im Bewusstsein der Politik nicht mehr existent zu sein /30/.

4.4 Menschliches Versagen

Im Stromnetz laufen bestimmte Stabilisierungsmaßnahmen automatisch ab; andere erfordern planvolles menschliches Agieren unter Beachtung von sehr komplexen Bedingungen. Das beginnt mit der auch als „Dispatch“ bezeichneten, unter Punkt 2 beschriebenen Einsatzplanung der Kraftwerke auch für den Folgetag auf der Basis von Prognosen für die benötigte Leistung sowie die Erzeugung von regenerativem Strom. „Redispatch“ sind dann tagesaktuelle Eingriffe in die Erzeugungsleistung von Kraftwerken zur Vermeidung von Überlastungen. Wenn z. B. die Überlastung einer Leitung befürchtet wird, müssen vor dem Engpass befindliche Kraftwerke heruntergefahren werden, während die Leistung der dahinter befindlichen gesteigert wird. Sowohl Dispatch als auch Redispatch erfordert sorgfältige Abstimmungen zwischen mehreren Partnern.

Dass diese anspruchsvolle Tätigkeit nicht immer gut geht, zeigen mehrere Beispiele. So fiel In der Nacht des 28. September 2003 in ganz Italien um 3.27 Uhr der Strom aus, je nach Landesteil für bis zu 18 Stunden. Die Ursache dafür lag nicht in Italien, sondern in der Schweiz. Dort war eine Stromleitung durch eine menschliche Fehlentscheidung überbeansprucht worden und versagte – mit der Folge, dass 57 Millionen Menschen stundenlang ohne elektrische Energieversorgung waren.

Ein besonders markantes und auch lehrreiches Beispiel ist mit dem Kreuzfahrtschiff „Norwegian Pearl“ verbunden, das am 4. November 2006 auf der Ems die Meyer-Werft in Papenburg verließ. Dabei musste aus Sicherheitsgründen die den Fluss querende 380 kV-Hochspannungsleitung abgeschaltet werden, wie es schon etwa 20 Mal zu gleichen Anlässen geschehen war. Doch diesmal saßen nach der Abschaltung plötzlich zehn Millionen Menschen in Westeuropa ohne Strom da. Teile von Deutschland, Belgien, Frankreich, Österreich, Italien und Spanien waren betroffen. In kaskadenartiger Weise pflanzte sich die Störung fort; das Europäische Verbundnetz zerfiel in Teilnetze, welche glücklicherweise relativ rasch stabilisiert und dann wieder miteinander synchronisiert werden konnten, so dass dieser Blackout nur rund zwei Stunden dauerte. Sein Ablauf bestätigte die allgemeine Einschätzung des BBK (in /13/ auf S. 84): „Im Stromnetz entwickeln sich großflächige Ausfälle durchaus kaskadenartig: Ausgehend von der ursprünglich lokalen Störung können Blackouts entstehen, die sich über die Regelzonen in der Fläche fortsetzen. Demgegenüber ist aber auch ein flächendeckender Ausfall denkbar, der durch mehrere Einzelausfälle bedingt ist.“

Die Schuld an dem ziemlich kostenträchtigen, von der 380 kV-Leitung über die Ems ausgehenden Störfall wies der Netzbetreiberverband UCTE nach einer Untersuchung dem Energiekonzern Eon zu, welcher die Abschaltung vorgenommen hatte. Der konnte sich das Ganze nicht erklären und wollte sogar „höhere Gewalt“ nicht ausschließen. Aber der Schuldvorwurf mit seinen juristischen Folgen blieb an dem Konzern haften. Doch sechs Jahre später legte das Max-Planck-Institut für Dynamik und Selbstorganisation in Göttingen eine verblüffende Erklärung vor, die auf umfangreichen Computersimulationen beruhte: Ursächlich für den Blackout vom November 2006 sei das sogenannte Braess-Paradoxon /8/ gewesen. Dieses erst 1968 von dem deutschen Mathematiker Dietrich Braess eigentlich für das Verkehrswesen postulierte Paradoxon besagt, dass in der Verkehrsführung eine zusätzliche Straße unter Umständen eine Verschlechterung des Verkehrsflusses bewirkt. Es lässt sich auch auf Stromflüsse in elektrischen Leitungen anwenden: Die Installation einer neuen Leitung kann zu vorher nicht vorhandenen Engpässen im System führen. Für den zuständigen Eon-Dispatcher war es am 4. November 2006 natürlich nicht möglich, eine umfangreiche Computersimulation der Netzführung vorzunehmen.

Die Erklärung des Max-Planck-Instituts führt schlaglichtartig vor Augen, welchen Grad der Komplexität unser Stromnetz erreicht hat und mit welchem Risiko deshalb menschliche Eingriffe verbunden sein können (s. dazu auch Punkt 6).

In Anbetracht der möglichen Folgen eines Blackouts sollte die Zahl der menschlichen Eingriffe also möglichst verringert werden, doch ist das Gegenteil der Fall, wie Bild 7 zeigt. Damit steigt unbestreitbar die Eintrittswahrscheinlichkeit für einen durch menschliches Fehlverhalten verursachten Blackout. Und noch etwas ist bei der Retrospektive auf das nunmehr fast 14 Jahre zurückliegende Ereignis festzustellen: Heute wären seine Auswirkungen schwerer und die Zeit bis zur Wiederherstellung der Funktionsfähigkeit des Netzes länger. Denn inzwischen ist unsere Abhängigkeit von elektrischem Strom noch vollkommener, das Netz komplexer und die Schwarzstartfähigkeit der Energieerzeuger geringer geworden (s. dazu Punkt 7).

Bild 7: Entwicklung der Zahl von Redispatch-Maßnahmen im Schweizer Stromnetz, das ein Teil des Europäischen Verbundnetzes ist (Quelle: Swissgrid)

4.5. Cyberangriffe

In seinem Buch „Blackout. Morgen ist es zu spät“ lässt der Autor Marc Elsberg das Europäische Verbundnetz durch einen Hackerangriff zusammenbrechen. Wie realistisch ist ein solches Szenario? Einen Hinweis liefert ein Geschehnis, das sich kurz vor Weihnachten 2015 in der westukrainischen Provinz Iwano-Frankiwsk abspielte. 30 Kraftwerke fallen plötzlich aus, worauf eine Viertelmillion Haushalte keinen Strom mehr haben. Wohnungen, Unternehmen und öffentliche Einrichtungen bleiben tagelang ohne Elektrizität. Was sich erst später herausstellte: Es handelte sich bei dem Vorfall um den weltweit ersten großen Stromausfall, der von Hackern verursacht wurde. Nach Aussagen des US-Heimatschutzministeriums hatten von Russland aus agierende Hacker Spear Phishing E-Mails eingesetzt, um sich über einen Schadcode Zugangsberechtigungen zu den Steuerungseinheiten zu beschaffen. Das Programm war in einem manipulierten Word-Dokument enthalten, das als E-Mail des ukrainischen Parlaments getarnt war /9/. Nach der Implementierung des Schadcodes besaßen sie die völlige Verfügungsgewalt über die Energieversorgung.

Es ist denkbar, dass diese Aktion nur ein Scharmützel aus dem schon längst begonnenen kalten digitalen Krieg zwischen Russland und den USA war, bei dem man der anderen Seite zeigen wollte, wozu man ohne weiteres in der Lage ist. Offenbar versuchen beide Großmächte schon seit einiger Zeit, in den IT-Systemen der Kritischen Versorgungsstrukturen des potentiellen Gegners „logische Bomben“ zu platzieren – inaktive Schadprogramme, die im Fall einer „Zündung“ das öffentliche Leben vollständig lahmlegen /10/. Besonders verheerend ist dabei ihre Fähigkeit, alle Daten und Programme des angegriffenen Systems zu löschen, was einen Neustart unmöglich macht.

Aber auch unterhalb der Ebene globaler Auseinandersetzungen tobt bereits ein Partisanenkrieg der Hacker mit unterschiedlichen Motivationen. Wir zitieren dazu aus einer Wirtschaftsdokumentation von 3sat vom 21.06.2019 /11/:

Das Bundesamt für Sicherheit in der Informationstechnik (BSI) warnt immer wieder vor Cyberangriffen auf Energieversorger. „Jeden Tag gibt es tausendfache Anklopfversuche aus dem Internet“, bestätigt auch Florian Haacke, Leiter der Konzernsicherheit bei Deutschlands größtem Stromnetzbetreiber Innogy. In der Essener Konzernzentrale wehren rund 130 Spezialisten solche Attacken ab. Mit ernsten Bedrohungen haben sie es bis zu 40 Mal im Jahr zu tun.
Haacke mahnt zur Wachsamkeit: „Letztendlich zeigen die Vorfälle in der Ukraine, dass es Angreifer oder Angreifergruppen gibt, die über die logistischen und methodischen Fähigkeiten solcher Angriffe verfügen und diese auch tatsächlich in der Praxis umsetzen. Das war tatsächlich eine neue Dimension für den Energiesektor. Und wir sollten auch in Deutschland nicht annehmen, dass es unmöglich ist –
auch unsere Stromnetze sind nicht unverwundbar. Eine hundertprozentige Sicherheit kann es nicht geben.“

Wie sind nun die Perspektiven in dem digitalen Krieg um die Herrschaft im Stromnetz? Die Antwort kann nur lauten: rosig – und zwar für die Angreifer. Denn unserem Netz stehen fundamentale Veränderungen bevor, die seine Verwundbarkeit dramatisch erhöhen werden.

Im Rahmen der Energiewende ist die Umrüstung von einigen Millionen Haushalten auf „Smart Meter“ (intelligente Stromzähler) und deren Integration in „Smart Grids“ (intelligente Netze) vorgesehen. Der Grund dafür ist eine fundamentale Änderung der Versorgungsphilosophie: Wurde bislang die Erzeugung von Elektroenergie an den jeweiligen Bedarf angepasst, hat sich in Zukunft der Verbrauch an die stark schwankende Stromerzeugung aus Wind und Sonne zu adaptieren. Das soll mittels smarter Bauteile wie „Smart Plugs“ (intelligente Steckdosen) oder smarter Lüsterklemmen geschehen. Damit diese kleinen Intelligenzbestien ihre Befehle von zentralen Steuereinheiten erhalten können, bekommt das vorhandene Leitungsnetz eine ganz neue Aufgabe: Es dient nicht mehr nur der Energieversorgung, sondern auch der Übertragung von Informationen – es ist zum Datennetz geworden. Und damit lastet auf ihm plötzlich die ganze Problempalette der Cyber-Sicherheit.

Für technisch versierte Hacker (und das sind leider die meisten), die das Stromnetz mit dem Ziel der Herbeiführung eines Blackout angreifen wollen, eröffnen sich ganz neue Möglichkeiten. Jede dieser smarten Steckdosen oder Lüsterklemmen ist für sie ein potentielles Einfallstor in das Datennetz der Energieversorgung, das ihnen sogar physisch zur Verfügung steht. Natürlich gibt es auf der anderen Seite ernsthafte Bemühungen um Cybersicherheit. Doch bei der Vielzahl der erfolgreichen Angriffe auf Firmen, Kommunen und Behörden gewinnt man den Eindruck, die Angreifer seien den Verteidigern stets einen Schritt voraus. Jüngste beeindruckende Beispiele sind die Hackerangriffe auf das Berliner Kammergericht, welches daraufhin monatelang nicht arbeitsfähig war, /12/ sowie auf die Funke-Mediengruppe.

4.6 Zunahme stochastischer Energien im Netz

Stochastische Größen zeichnen sich durch einen irregulären zeitlichen Verlauf mit großen und raschen Fluktuationen aus. Wind ist eine rein stochastische Energiequelle; der Solarenergie ist ein (weitgehend) deterministischer Anteil der Sonneneinstrahlung auf die Erdatmosphäre überlagert. Die Bruttostromerzeugung in Deutschland wurde 2019 zu 25,2 Prozent aus Windkraft zu 9,5 Prozent aus Photovoltaik gespeist.

Das Erneuerbare-Energien- Gesetz gewährt diesen fluktuierenden Energien Vorrang bei der Einspeisung in das Stromnetz. Doch diese Energien beteiligen sich nicht an der Regelung von Spannung und Frequenz im Netz. Damit ändert sich dessen Steuerung dramatisch. Wurde früher die Energieerzeugung alleine nach dem Bedarf geregelt, muss sie sich jetzt nach dem schwankenden Aufkommen von Wind und Sonne richten und im Extremfall sogar den Stromverbrauch anpassen, indem Verbraucher „abgeworfen“ werden.

Die Lösung der immer größer werdenden Regelaufgabe wird immer weniger Kraftwerken auferlegt.

Folgerichtig können die Autoren der vom Bundesamt für Bevölkerungsschutz und Katastrophenhilfe am 11.09.2019 herausgegebenen Publikation Stromausfall – Grundlagen und Methoden zur Reduzierung des Ausfallrisikos der Stromversorgung /13/ die Freude über die Zunahme von Wind- und Sonnenstrom im Netz nicht so recht teilen. In offenbarer Sorge um dessen Systemstabilität schreiben sie auf Seite 113/114:

Die Betreiber von Übertragungsnetzen, die durch § 13 EnWG verpflichtet sind, in der Bundesrepublik einen sicheren Netzbetrieb zu gewährleisten, können die ‚Stellschrauben‘ Frequenzhaltung, Spannungshaltung, Versorgungswiederaufbau und Betriebsführung nicht mehr so nutzen, wie das vor der Energiewende der Fall war. (Hervorhebungen durch den Autor)

Wie schon in Punkt 2 erwähnt, wurde das Stromnetz für Energieflüsse von den höheren zu den niedrigeren Spannungsebenen konzipiert. Doch mit der bevorrechtigten Einspeisung von Strom aus Wind, Biogas und Sonne auf unteren Spannungsebenen fließt ein erheblicher Teil des Stromes im Netz „rückwärts“. Das hat Konsequenzen, die nur dem fachkundigen Kraftwerkstechniker vollständig bekannt sind; in der Publikation /13/ des BBK heißt es dazu auf Seite 102:

Die vermehrte Einspeisung in das Niederspannungsnetz über Wechselrichter erschwert die Bereitstellung von Blindleistung als Systemdienstleistung zur Spannungshaltung. Eine erschwerte Spannungshaltung erhöht aber das Risiko von Versorgungsproblemen und stellt deshalb eine Verwundbarkeit für die Netzsteuerung dar.“

Und noch eine Textstelle aus /13/ auf Seite 102 ist beachtenswert:

Durch die Zunahme von fluktuierenden Erzeugern wird das Engpassmanagement erschwert, da sie einerseits Netzengpässe verursachen, andererseits aber nicht zum Engpassmanagement beitragen können.“

Dass die stochastischen Erzeuger im Gegensatz zu den regelbaren Generatoren grundsätzlich nicht zum Engpassmanagement beitragen können, kann am Beispiel der unter Punkt 2 erwähnten Momentanreserve erläutert werden Die Momentanreserve ist als kinetische Energie in gewaltigen Schwungmassen der Generatoren gespeichert und wird bei Abbremsung des Generators infolge erhöhter Verbraucherlast automatisch im Millisekundenbereich freigesetzt; Photovoltaikanlagen leisten so etwas natürlich nicht. Wie sieht es aber mit der kinetischen Energie der Windräder aus? Die Wechselrichter, mit denen die Windgeneratoren an das Netz angeschlossen sind, eignen sich für eine derartige Regelaufgabe nicht. Dies ließe sich prinzipiell mittels einer geeigneten Leistungselektronik ändern. Ob sich das lohnt, zeigt eine einfache physikalische Betrachtung, die ein Verhältnis der kinetischen Energien von konvetionellem Generator und Windrad von

WGenerator : Wrotor = 90.000 : 1

ergibt. Eine Wiedereinspeisung der vergleichsweise verschwindend geringen Rotationsenergie des Windrotors in das Stromnetz lohnt sich also nicht.

Ohne eine Lösung des Problems der fehlenden Momentanreserve kann aber ein (fast) ausschließlich aus fluktuierenden Energien gespeistes Netz nicht betrieben werden.

Nicht zu unterschätzen ist auch das Gefahrenpotential, das durch den Bedeutungswandel des Wetterberichtes für die Netzsteuerung entstanden ist. Mit dem Wetter ändert sich auch die bevorrechtigte Einspeisung des „grünen“ Stroms – und dies manchmal recht plötzlich entgegen der Voraussage. Windräder beginnen mit der Stromproduktion bei Windgeschwindigkeiten von etwa 10 km/h, bei einem Zehn-Sekunden-Mittel von 70 km/h schalten die ersten Anlagen aus Sicherheitsgründen ab; die letzten gehen bei 108 km/h vom Netz. Wenn ein vorhergesagter starker Wind der Stärke 7 sich auf einmal nicht mehr an die Prognose hält und Sturmstärke entwickelt, entstehen jähe Verminderungen der Einspeisung, weil die sich abschaltenden Windräder ja unmittelbar vor der Abschaltung ihre Maximalleistung entwickelt haben. Dies macht sofortige Redispatchmaßnahmen in einzelnen Bilanzkreisen oder gar Regelzonen erforderlich, wie sie früher nicht nötig waren.

Der Strom aus Sonne und Wind wird in das Netz über Wechselrichter eingespeist. Diese benötigen als „Vorgabe“ für den Betrieb eine externe Wechselspannung von 50 Hz. Ohne eine solche Vorgabe, die derzeit im wesentlichen von den regelbaren konventionellen Großkraftwerken kommt, „wüssten“ sie gar nicht, was für einen Strom sie erzeugen sollen. Der NAEB e. V. Stromverbraucherschutz /14/ vertritt die These, dass für einen stabilen Netzbetrieb mindestens 40% regelbare Energie auf der Erzeugerseite zur Verfügung stehen muss. Es ist zu beachten, dass die weiter oben genannten 37,4 Prozent nur einen Mittelwert darstellen; in Spitzen kamen Wind und Sonne auf mehr als 50 Prozent. Nach der These von NAEB und den obigen Zitaten aus der Veröffentlichung /13/ des BBK dürfte mit Rücksicht auf die unbedingt zu bewahrende Netzstabilität eine weitere Steigerung des Anteils stochastischer Energien im Netz kaum noch zugelassen werden. Doch das Gegenteil ist der Fall! Im Koalitionsvertrag der Bundesregierung ist eine Erhöhung des Anteils der „Erneuerbaren“ an der Bruttostromerzeugung auf 65 Prozent bis 2030 festgeschrieben. Und für den Ausstieg aus gesicherter Erzeugung gibt es auch schon einen Fahrplan, den Bild 8 zeigt.

Bild 8: Geplante Abschaltung der mit Kernenergie, Braunkohle und Steinkohle betriebenen Kraftwerke (Quelle: MIBRAG vom 30.08.2019)

Nach der Abschaltung von 52 Gigawatt nicht fluktuierender Energie stünden dann im Jahr 2038 als gesicherte Energielieferanten noch Wasserkraft, Biomasse und Erdgas zur Verfügung, die heute etwa 23 Prozent des Bedarfs abdecken können. Um die fehlende Leistung nur theoretisch auszugleichen, müsste die Energieerzeugung aus Wind und Sonne mehr als verdreifacht werden.

<Folge 4 kommt demnächst> Teil 1 steht hier, Teil 2 hier

—————————————–

Hinweis: Das PDF mit dem vollständigen Inhalt ist beigefügt. Es kann aber auch beim Kaleidoscriptum-Verlag berstellt werden (www.kaleidoscriptum-verlag.de)