1

BLACKOUT – kleines Handbuch zum Umgang mit einer wachsenden Gefahr – Folge 6

Doch im 19. Jahrhundert trat ein überlegener Beleuchtungskörper seinen Siegeszug in Europa und Amerika an: heller und kostengünstiger als die Kerze, einfach in der Handhabung sowie bei richtiger Einstellung praktisch rußfrei – die Petroleumlampe. Nachdem eine ganze Reihe von Innovationen in ihre Komponenten Brenner, Glaszylinder und Docht geflossen waren und man die Teile aufeinander abgestimmt hatte, erhellten diese Lampen millionenfach die Haushalte in Deutschland. In ihrer manchmal sehr aufwändigen handwerklichen Ausführung wurden sie zu einem Teil der bürgerlichen Wohnkultur. All diese Eigenschaften sprechen dafür, sie als Notbeleuchtung beim Stromausfall in Betracht zu ziehen – vorher können sie als Dekoration in der Wohnung dienen. Man muss solche Lampen nicht beim Antikhandel erwerben, sondern kann sie auch nagelneu kaufen.

Empfehlung: Kaufen Sie sich ein paar neue, schöne Petroleumlampen mitsamt eines Vorrats an Lampenöl.

Die einzelnen Typen unterscheiden sich durch die Art des Brenners und des Zylinders. Bei den Brennern gibt es drei Bauformen für unterschiedliche Helligkeiten: Flachbrenner, Runddochtbrenner (Kosmosbrenner) und Flammscheibenbrenner (Idealbrenner, Matadorbrenner). Der Runddochtbrenner ist deutlich heller als der Flachbrenner und verbraucht weniger Petroleum als der noch hellere Flammscheibenbrenner.

Bild 13: Von links nach rechts steigt die Helligkeit der Brenner: Flachbrenner, Runddochtbrenner und Flammscheibenbrenner. Der Flammscheibenbrenner hat allerdings einen vergleichsweise hohen Verbrauch.

Zu jedem Brenner gehört der passende Zylinder, bei denen man Wiener Zylinder (für Flachbrenner), Kosmos Zylinder (für Runddochtbrenner) und Matador Zylinder (für Flammscheibenbrenner) unterscheidet. Die Wahl eines falschen Zylinders kann zur Zerstörung desselben führen.

Bild 14: Formen der unterschiedlichen Zylinder

Es sei noch erwähnt, dass die unterschiedliche Größe der Brenner und Zylinder, wie auch die der Dochte, in der Maßeinheit der „Pariser Linie“ angegeben wird.

Bild 15: Diese Lampe mit 14-linigem Runddocht-Brenner strahlt mit der Helligkeit von 11 Haushaltskerzen (ca. 10 Lumen). Eine Tankfüllung reicht für 75 Stunden, Quelle: Heinze Metallwarenmanufaktur

Empfehlung: Damit eine Petroleumlampe rußfrei brennt, sollte man nach dem Anzünden fünf Minuten warten, ehe man den Docht auf maximale Lichtstärke einstellt.

6.8 Geld

Bei einem Blackout fallen alle elektronischen Zahlungssysteme aus. Zahlungen mit EC- oder Kreditkarte sind nicht mehr möglich. Den Menschen wird plötzlich bewusst, dass sie nur noch für Bargeld etwas bekommen und versuchen, an den Geldautomaten welches zu ziehen. Doch diese Automaten funktionieren nicht. Ob Bankschalter völlig ohne Strom eine Bargeldauszahlung vornehmen können, ist zu bezweifeln. Und selbst wenn Bankfilialen noch für ein paar Stunden notstromversorgt sein sollten, werden sie dem Ansturm nicht gewachsen sein und die Höhe der Auszahlungen begrenzen. In dieser Situation kann das Anwachsen einer kollektiven Angst der Kunden zu einem Bankenrun führen, der dann das Schließen der letzten arbeitsfähigen Filialen zur Folge hat.

Empfehlung: Halten Sie ständig zu Hause eine Summe Bargeld in kleinen Scheinen vor. Die Höhe dieser Summe hängt natürlich von Ihren finanziellen Möglichkeiten ab.

6.9 Wird die Heizung bei einem Blackout noch warm?

Raumheizungen mit Öfen, welche mit Holz oder Briketts beschickt werden, sind gefeit gegen einen Stromausfall, doch besitzen sie inzwischen Seltenheitswert. Einer BDEW-Studie zum Heizungsmarkt /34/ lassen sich die Angaben für eine Abschätzung jenes Teils der Wohnungen entnehmen, in denen es bei einem Blackout in Deutschland unabänderlich kalt wird (s. Bild 16).

Bild 16: Verteilung der Energieträger auf die Heizungen in Deutschland (nach /5/)

Es steht fest, dass bei einem Stromausfall die drei leitungsgebundenen Heizsysteme mit Strom, Fernwärme und Erdgas ausfallen. Erdgas wird nicht mehr zu den Verbrauchern transportiert, weil die Verdichterstationen in den Leitungen für ihren Betrieb auf elektrischen Strom angewiesen sind. Damit werden bereits rund 67% aller Heizungen kalt.

Die Besitzer von Ölheizungen haben sich ja prinzipiell bevorratet und sind damit erst einmal auf einen Zufluss ihres Energieträgers nicht angewiesen. Ähnlich sieht es bei den „Sonstigen“ aus. Und doch fallen auch bei ihnen die Heizungen aus. Grund dafür ist die Tatsache, dass es sich bei ihnen praktisch immer um Zentralheizungen mit einer elektrischen Steuerung und elektrischen Umwälzpumpen handelt. Aber im Gegensatz zu den ersten 67% aller Heizungsbesitzer können die Besitzer von Heizungen mit Vorratshaltung Vorsorge gegen eine kalte Wohnung treffen – durch Anschaffung eines Notstromaggregats.

6.10 Notstromversorgung

Der Gedanke liegt nahe: Wenn kein Strom mehr von außen kommt, erzeugt man halt selber welchen; Notstromaggregate gibt es ja in jedem Baumarkt. Doch vor dem Kauf eines solchen Gerätes sind einige Überlegungen anzustellen – die Gefahr, ein ungeeignetes Gerät zu erwerben ist sonst beträchtlich. Die nachstehenden Ausführungen sollen helfen, einen Fehlkauf zu vermeiden.

6.10.1 Welche Leistung wird benötigt?

Zunächst sollte man sich eine Übersicht darüber verschaffen, welche elektrische Leistung die in der Wohnung / im Haus vorhandenen Geräte aufnehmen. Dazu gibt die folgende Tabelle eine Hilfestellung:

Für einen langandauernden Stromausfall sollte man keine Notstromversorgung der „Stromfresser“ Kochfeld, Backherd, Wasserkocher, Geschirrspüler, Waschmaschine und Wäschetrockner vorsehen. Der Kraftstoffverbrauch eines Notstromaggregats wäre für ihre Nutzung zu hoch, und es gibt Alternativen (s. Punkt 6.5).

Empfehlung: Überlegen Sie sich, welche Geräte im Falle eines Blackout für Sie unverzichtbar sind, und wie viele davon höchstens gleichzeitig in Betrieb wären.

Beispiel: Es soll sich bei dem mit Notstrom zu versorgenden Objekt um ein relativ neues Einfamilienhaus mit voll biologischer Kläranlage und Ölheizung handeln. Die Heizanlage arbeitet mit zwei Strängen. Die Küche ist u. a. mit Kühlschrank und separatem Gefrierschrank ausgestattet.

Annahmen:

Der Eintritt des Blackouts erfolgt in der kalten Jahreszeit; damit die Ölheizung weiter arbeitet, müssen die Heizungssteuerung und die Umwälzpumpen in den beiden Heizungssträngen mit Strom versorgt werden.

– Propangas und Kocher sind vorhanden.

– Während des Blackout wird verzichtet auf die Nutzung von: Backherd, Mikrowelle, Kaffeemaschine, Wasserkocher, Mikrowelle, Fön, Geschirrspüler, Wäschetrockner, Fernseher (kein Bild), Laptop bzw. PC(kein Internet) und Musikanlage.

Unverzichtbare Geräte:

Über welche Leistung muss ein zu diesem Bedarf passendes Notstromaggregat verfügen? Vom Hersteller wird stets die sogenannte Scheinleistung S als Nennleistung angegeben, die größer ist als die benötigte Wirkleistung P (in unserem Beispiel 1,76 Kilowatt) und mit ihr über den Faktor 0,8 zusammenhängt:

P = 0,8 S.

Außerdem empfiehlt es sich, zur Bewältigung sogenannter Anlaufströme noch 20% Leistungsreserve zuzugeben. Das Aggregat für unser Beispielobjekt müsste dann eine Nennleistung von S = 1,76 Kilowatt 1,25 ∙ 1.2 = 2,64 Kilowatt aufweisen. Doch es gibt noch weitere Dinge zu beachten, auf die im folgenden Punkt eingegangen wird.

6.10.2 Lichtstrom oder Drehstrom?

Moderne Häuser und auch Wohnungen sind grundsätzlich mit Dreiphasenstrom (Drehstrom) versorgt. Das bedeutet: Es werden drei spannungsführende Leiter (Phasen genannt) in den Haus- (Wohnungs-) anschluss geführt, deren Wechselspannungen zeitlich gegeneinander versetzt (phasenverschoben) sind, wie Bild 23 zeigt.

Bild 23: zeitlicher Verlauf der Spannungen in den drei Phasen

Zwischen jeder Phase und dem Nullleiter (Erde) liegt eine Wechselspannung von 220 Volt an; zwischen den Phasen beträgt (wegen der Phasenverschiebung) die Spannung 380 Volt. Die Installation der festverdrahteten Verbraucher und Steckdosen versucht man stets einigermaßen gleichmäßig auf die drei Phasen zu verteilen. Wenn man bei einem Stromausfall die freie Wahl haben möchte, welche Verbraucher vom Notstromaggregat gespeist werden, wird ein Drehstromaggregat benötigt. Ein Drehstromaggregat ist auch erforderlich, wenn nur ein einziger (beim Stromausfall unverzichtbarer) Verbraucher von drei Phasen gespeist wird, wie das häufig bei Pumpen der Fall ist. Die Einspeisung in die drei Phasen von Haus oder Wohnung erfordert eine spezielle Installation.

Empfehlung: Lassen Sie von Ihrem Hauselektriker hinter der Hauseingangs- (Wohnungseingangs-) sicherung einen mit der Hand zu bedienenden Drehstromschalter mit den drei Stellungen „Netz“, „leer“ und „Notstromaggregat“ anbringen.

Empfehlung: Bei Stromausfall schalten Sie dann zunächst alle verzichtbaren Verbraucher aus. Danach starten Sie das Aggregat. Anschließend schalten Sie den Schalter von der Stellung „Netz“ über „leer“ in die Position „Notstromaggregat“.

Eine Automatik für die Einschaltung des Aggregats muss bei der Bundesnetzagentur angemeldet werden.

Nach der vorstehenden Erläuterung der Grundbegriffe des Drehstroms müssen wir noch einmal zu unserem Beispiel zurückkehren, bei dem wir eine Wirkleistung des Notstromaggregats von 1,76 Kilowatt als ausreichend festgestellt hatten. Wenn es sich bei der Kläranlagenpumpe mit einer Leistung von 1,25 Kilowatt nicht um eine Drehstrompumpe, sondern um eine einphasige (Lichtstrom-) Pumpe handelt, ist eine höhere Leistung des Aggregats erforderlich. In jeder Phase des von uns berechneten Aggregats steht nur ein Drittel der Gesamtleistung, also nur 0,59 Kilowatt zur Verfügung, was für den Betrieb der Pumpe nicht ausreicht. In Anbetracht solcher, den Nichtfachmann vermutlich überfordernden Fakten ergeht die

Empfehlung: Lassen Sie sich bei der Auswahl eines Notstromaggregats von der Elektrofachfirma Ihres Vertrauens beraten.

Doch eine Grundsatzentscheidung lässt sich auch ohne Konsultation eines Elektrikers treffen. Wenn Sie während eines Stromausfalls nur wenige Elektrogeräte nutzen wollen, die sämtlich einphasig (mit normaler Netzschnur) zu betreiben sind und von denen keines fest verdrahtet ist, können Sie auch ohne weiteren Aufwand ein Kabel mit mehreren Abgängen von einem einphasigen Notstromaggregat mit ausreichender Leistung zu diesen Verbrauchern führen.

Empfehlung: Wenn elektronische Geräte betrieben werden sollen, bevorzugen Sie ein Gerät mit AVR-Regelung. Dabei wird die Spannung des Generators unabhängig von der Belastung weitgehend konstant gehalten.

Empfehlung: Wenn Sie ein Aggregat mit Batteriestarter erworben haben, sollten Sie ein passendes Ladegerät für die Erhaltungsladung der Batterie installieren, damit das Gerät stets betriebsbereit ist.

Es versteht sich von selbst, dass die Abgase eines Notstromaggregats so ins Freie abzuleiten sind, dass sie weder eine Gefährdung für Menschen, noch eine Brandgefahr darstellen. Ein Beispiel zeigt Bild 24:

Bild 24: Durchleitung der Abgase eines Dieselaggregats durch eine Laubenwand mittels flexiblem Edelstahl-Abgasschlauch

Von vielen Herstellern der Notstromaggregate wird ein halbjährlicher Probebetrieb unter Last empfohlen. Weil Notsituationen generell geübt werden sollten, legt dies eine weitere Empfehlung nahe.

Empfehlung: Opfern Sie wenigstens einmal einen Tag für eine komplette Notfallübung. Sie ist zwar unbequem, aber lehrreich. Beginnen Sie die Übung am besten an einem Samstagabend und beenden Sie diese am Nachmittag des folgenden Tages.

<Folge 7 kommt demnächst> Teil 1 steht hier, Teil 2 hier, Teil 3 hier, Teil 4 hier, Teil 5 hier

—————————————-

Hinweis: Das PDF mit dem vollständigen Inhalt ist beigefügt. Es kann aber auch beim Kaleidoscriptum-Verlag berstellt werden (www.kaleidoscriptum-verlag.de)

blackout




GWPF fordert die Regierung auf, die grüne Abgabe von 10 Mrd. GBP für leidende Haushalte auszusetzen

Diese Aussetzung sollte so lange bestehen bleiben, wie Maßnahmen im Bereich der öffentlichen Gesundheit zur Bekämpfung des Coronavirus erforderlich sind und weitere Reformen anstehen.

Etwa ein Drittel der klimapolitischen Auswirkungen der Regierung trifft die Haushalte direkt über ihre Stromrechnungen und da [vor allem] Haushalte mit niedrigem Einkommen eine elektrische Heizung nutzen, sind sie überproportional betroffen.

Die anderen zwei Drittel dieser klimapolitischen Kosten betreffen alle Haushalte indirekt über die allgemeinen Lebenshaltungskosten, da Industrie- und Gewerbeunternehmen ihre zusätzlichen Energiekosten an die Verbraucher weitergeben. Wenn die Stromrechnung eines Supermarkts aufgrund von Subventionen für erneuerbare Energien steigt, muss auch der Kaufpreis für eine gekühlte Flasche Milch steigen.

Diese indirekten Auswirkungen werden selbst von Wohltätigkeitsorganisationen, die sich mit Energiearmut befassen, zu wenig gewürdigt. Letztere äußern aber bereits ihre Bedenken, dass die Maßnahmen im Bereich der öffentlichen Gesundheit zur Bekämpfung des Coronavirus, die Probleme für Haushalte mit niedrigem Einkommen verschärfen.

Action for Children schreibt dazu:

Wir sehen, wie Mütter und Väter in der Kälte zu Hause unterrichten, weil sie es sich nicht leisten können, den Stromzähler aufzufüllen, Mahlzeiten auszulassen, um ihre Kinder zu ernähren, und uns nach Winterkleidung und Lebensmittelpaketen fragen. “

[In GB gibt es viele Stromzähler mit Vorrauszahlung – Prepayment meters, gerade in ärmeren Haushalten. Ältere Strom- und Gaszähler hatten / haben Münzeinwurf, modernere [smart ..] funktionieren ähnlich wie ein Handy mit pre-paid Vertrag: Geld zu ende, kleiner Nachlauf und dann abschalten. Ich kann mich erinnern, hatte meine Oma bei Gas – der Übersetzer]

End Fuel Poverty Ende der Energiearmut hat beobachtet

Die Energiekosten werden nach den neuesten Regeln für Home-office steigen. „Die Arbeit von zu Hause aus wird einige Haushalte in diesem Winter zusätzliche 45 GBP pro Monat mehr kosten, wenn die Heiz- und Stromkosten steigen.“

Ein Sprecher der Wohltätigkeitsorganisation erklärte gegenüber der BBC:

Immer mehr Menschen im ganzen Land müssen sich für Heizen oder Essen entscheiden. Da die Temperaturen weiterhin um Null schwanken und Ausgangssperren bestehen, verbringen die Menschen mehr Zeit zu Hause, sodass die Energiekosten steigen werden. “

Citizens Advice hat berechnet, dass weitere 600.000 Haushalte aufgrund früherer Sperrungen in Energiearmut geraten sind, und ein ähnlicher oder noch schwerwiegenderer Effekt wird aufgrund der derzeitigen Sperrungen befürchtet.

GWPF stellt fest, dass das Problem aufgrund der indirekten Auswirkungen auf die allgemeinen Lebenshaltungskosten tatsächlich viel schlimmer ist als es scheint, was Haushalte mit niedrigem Einkommen stärker trifft und sogar Haushalte mit mittlerem Einkommen beeinflusst. Der Lockdown hat gezeigt, dass das britische Stromsystem aufgrund der übermäßigen Abhängigkeit von erneuerbaren Energien als technisch und wirtschaftlich schwach einzustufen ist.

Die Kosten für das Netzmanagement, die bereits vor dem Coronavirus mit 1,5 Mrd. GBP pro Jahr hoch waren, sind während der Sperrung in die Höhe geschossen, da der Stromnetzbetreiber in Zeiten geringer und höherer Nachfrage [aka Angebote der Erneuerbaren] extreme Maßnahmen ergreifen musste, um die schwankende Wind- und Sonnenleistung auszugleichen. Jetzt wird es voraussichtlich rund 2 Milliarden Pfund pro Jahr betragen. [In Deutschland „redispatch“ genannt]

Das volle Ausmaß dieser zusätzlichen Kosten hat die Verbraucher noch nicht erreicht, da es den Lieferanten gestattet wurde, die Zahlung an National Grid aufzuschieben. Wenn, wie wir befürchten, Millionen von Haushalten einfach nicht in der Lage sind, ihre Rechnungen zu bezahlen, wenn diese Gebühren durchgereicht werden, können große und kleine Lieferanten in finanzielle Schwierigkeiten geraten, was die Krise weiter verschärft.

Dr. John Constable, GWPF-Energieredakteur, sagte:

Das neue Team der Abteilung für Unternehmens-, Energie- und Industriestrategie, Kwasi Kwarteng und Anne-Marie Trevelyan, steht vor einer nicht beneidenswerten Wahl. Wenn sie nichts tun, wird die Not der Verbraucher nur noch schlimmer. Wenn Sie jedoch kurzfristig die erforderlichen Sofortmaßnahmen ergreifen und eine längerfristige Strategie zur Kostenminimierung verfolgen, müssen Sie zugeben, dass die grüne Politik versagt.“

https://www.thegwpf.com/gwpf-calls-on-government-to-suspend-10-billion-green-levy-on-suffering-households/

Übersetzt durch Andreas Demmig

 

Fundstück

CO2-Bepreisung (Emissionshandel) und die Auswirkungen auf den Energiepreis

Verkäufer von Heizöl, Erdgas, Benzin und Diesel müssen seit Anfang 2021 einen CO2-Preis zahlen. Für den Treibhausgas-Ausstoß dieser Brennstoffe werden sogenannte Emissionsrechte erworben. Das geschieht über den nationalen Emissionshandel bei der Deutschen Emissionshandelsstelle (DEHSt). Wie der Emissionshandel funktioniert, erklärt die DEHSt in einem Video. Die Höhe des CO2-Preises ist von 2021 bis 2025 gesetzlich vorgegeben, er beträgt pro Emissionszertifikat:

  • 2021: 25,00 Euro
  • 2022: 30,00 Euro
  • 2023: 35,00 Euro
  • 2024: 45,00 Euro
  • 2025: 55,00 Euro

Es ist davon auszugehen, dass einige Unternehmen ihre zusätzlichen Kosten weiterreichen, so dass es am Ende auch zu höheren Energiekosten bei den Haushaltskunden kommt.

Der Anteil des CO2-Preises muss gegenüber dem Haushaltskunden in der Energierechnung nicht gesondert ausgewiesen werden.

https://www.bundesnetzagentur.de/DE/Sachgebiete/ElektrizitaetundGas/Verbraucher/PreiseRechnTarife/preiseundRechnungen-node.html

 




NRW Enquete-Kommission – Anhörung V zum Thema „Klimaschutz und nachhaltige Ressourcennutzung“ – 01.2.2021

Vorbemerkung (Die schriftlich eingereichte Lang-Version finden Sie hier):

Jedem der vier Experten wurden 5 Minuten für ein Eingangsstatement zugestanden, anschließend gab es drei Fragerunden der Abgeordneten an von ihnen benannten Experten, für die diese rd. 4 Minuten Antwortzeit pro Frage zugestanden bekamen.

Frau Prof. Schlacke beanspruchte fast 9 Minuten Redezeit, ohne vom Vorsitzenden unterbrochen zu werden, und war auch sonst die Expertin mit der höchsten Fragefrequenz.

Ein besonderes Highlight, in meinen Augen, war ihr Hinweis, dass ihre beiden Töchter inzwischen schon zu Vegetarierinnen konvertiert seien, und dass sie sich wünsche, dass diese nachhaltige Denk- und Verhaltensweise schon ab der Kita den Kleinsten und dann den Schülern etc. nahegebracht würden. Dafür würde sie werben.

Aber auch die anderen Statements, insbesondere von Herrn Dr. Springmann waren beachtenswert, insbesondere wegen ihrer stupenden Radikalität, den Fleischkonsum drastisch zu reduzieren, weil wir sonst „wohl 2 Erden“ benötigten.

Hier nun der Text meiner kurzen Rede anlässlich der Expertenanhörung im NRW Landtag vom 01.2.2021. Die Sitzung selbst dauerte rd. 2 1/2 Stunden. Es gilt das gesprochene Wort, es kann leicht vom schriftlichen abweichen.

 

Kurzstatement M. Limburg zu den Mitgliedern der Enquetekommission „?Gesundes Essen. Gesunde Umwelt. Gesunde Betriebe“ zum Thema „Klimaschutz und nachhaltige Ressourcennutzung“

Die Enquetekommission soll Lösungen finden, die den Spagat zwischen Klimaschutz, Umweltschutz und gesunder Ernährung, ermöglichen soll. Gesichert durch, vorzugsweise lokale,  landwirtschaftliche Betriebe kleiner und mittlerer Größe.

Der Vorsatz ist löblich, doch – wie so oft in der Politik- wird schon im Ansatz das wünschenswerte mit dem machbaren verwechselt.

Denn, machen wir uns nichts vor!

Die Kiste ist bereits vor längerer Zeit in den Sand gesetzt worden. Wenn nicht revolutionäres, umwälzendes passiert, ist der Zug abgefahren.

Warum?

Auf Grund der begrenzten Zeit, – und weil die Zahl der notwendigerweise zu ändernden Vorschriften und Vorgaben, die den hiesigen Betrieben das Leben schwer machen,  schier Legion ist, kann ich mich hier nur auf den Klimaaspekt, beschränken.

Er beschreibt die neue Religion unserer Zeit.

Im Antrag und in den Fragen wird diverse Male der Begriff „Klimaschutz“ imperativ verwendet.

Die Autoren versteigen sich sogar zu der Formulierung, dass der „Klimawandel uns vor große und drängende Herausforderungen stelle, …und dass die Landwirtschaft selbstverständlich einen Beitrag zu Erreichung der „Pariser Klimaschutzziele“ leisten müsse.

Das ist ein Ding der Unmöglichkeit….. und nicht nur für die Landwirtschaft, wie ich Ihnen gleich zeigen werde.

Im Ihnen bereits vorliegenden schriftlichen Statement konnte ich darlegen, dass sich das Klima nicht von dem im gesamten Deutschland unterscheidet und welches die Ursachen für dessen Entwicklung waren. Und daraus kann man die wichtigste Frage ableiten

Ist die Landwirtschaft in NRW, ob mit oder ohne staatliche Maßnahme überhaupt in der Lage, das Regionalklima in NRW positiv zu beeinflussen?

Die Antwort darauf schlicht lautet:

Nein

(vom Mikroklima mal abgesehen)

Das wissen eigentlich alle. Doch sobald das so festgestellt wird, kommt die merkwürdige Idee – man müsse doch Vorreiter sein.

Nur, und das wissen auch alle, so gut wie niemand – außerhalb der EU- folgt dem Vorreiter. Und ob die USA jetzt mehr als Lippenbekenntnisse ablegen, muss sich auch erst noch zeigen.

Doch zurück zu Deutschland und NRW´s Landwirtschaft.

Es wird seit langem unterstellt, wenngleich auch nie, nach objektiven wissenschaftlichen Kriterien, bewiesen, dass die anthropogen induzierten Treibhausgase die Temperatur der Atmosphäre nach oben treiben. Und zwar in gefährliche Höhen. Das zeigten die Klimamodelle.

Doch, dass dies für NRW ebenso wenig gilt wie für Deutschland als Ganzes, habe ich Ihnen im schriftlichen Statement gezeigt.

Doch gesetzt den Fall, das stimmte! Was bedeutet das für NRW?

Deutschland emittiert knapp 900 Mio t CO2 äqu. Treibhausgase jährlich.

NRW hat daran insgesamt einen Anteil von rd. 25 %.

Das sind rd. 225 Mio t.

Seine Landwirtschaft allein nur 7,5 Mio t.

Schon das ist also in jeder Hinsicht völlig bedeutungslos.

Doch zurück zur Haupt-Frage

Das IPCC, bzw. seine zuarbeitenden Wissenschaftler, hat Formeln entwickelt, nach denen man glaubt, den Einfluss der Treibhausgase auf die Temperatur berechnen zu können. In vereinfachter Form erlauben diese, die Temperaturänderung zu berechnen, die durch die Änderung der Konzentration dieser Treibhausgase, irgendwann in ferner unbekannter Zukunft, eintreten würde.

Bei Anwendung der theoretisch stärksten Einflussgrößen, nämlich, dass sich die Temperatur bei Verdopplung um über 3 Grad erhöhte, ergibt sich, wenn Deutschland seine Emissionen sofort auf null senkte, also von heute auf morgen von der Klimalandkarte dauerhaft komplett verschwände, und mit ihr nicht nur seine gesamte Industrie, sondern auch die gesamte Landwirtschaft, dann eine max. Minderung der potentiellen Steigerung von nur

0,000.658 Kelvin.

Und NRW´s Anteil betrüge nur ¼ davon. Also nur ca. 1,66 zehntausendstel Grad!!!

Streckte man die Reduktion hingegen bis zum Jahr 2100, und verwendet geringfügig andere Randbedingungen, dann betrüge der Einfluss immerhin

0,01 Grad bis 0,05 Grad.

Das ist zwar deutlich mehr, aber immer noch so wenig, dass es weder messbar noch fühlbar noch in irgendeiner weise wirksam wäre.

Selbst der größte Beitrag ist dünner als die Strich-Dicke  der Gradeinteilung Ihres Außenthermometers.

Es ist buchstäblich nichts!

Doch nicht mal das wird eintreten, denn die anderen Länder– voran China und Indien – denken nicht im Traum daran ihr CO2 Emissionen zu drosseln.

Seit Kyoto sind die CO2-Emissionen um mehr als 50% [1] gestiegen.

China, USA, Indien, Russland emittieren zusammen mehr als 50 % der weltweiten CO2 Emissionen. Die USA sind zwar wieder eingestiegen, die anderen 4 aber fahren ihre Emissionen hoch oder tun nichts. Und haben auch gute Gründe dafür. Sie wollen raus aus der Armut.

Das Problem liegt also ganz woanders. Z.B. in Afrika

Es emittiert zwar nicht viel CO2, schickt aber dafür viele junge, und manchmal aggressive Menschen nach Europa.  Ihr Motive sind Armut, und Überbevölkerung. Über 800 Millionen Menschen haben dort so gut wie keinen Zugang zu Elektrizität!

Zugang heißt lt. UNO mindestens eine 60 W Lampe für 4 h am Tag.

4,3 Millionen Menschen sterben jährlich wegen der Luftverschmutzung durch offene Kochstellen. 500.000 Gebärende müssen jährlich sterben, weil die Geburt im Dunkeln ausgeführt werden muss.

Das werden die, das dürfen wir, nicht länger zulassen.

Deswegen werden dort fossil befeuerte Kraftwerke gebaut, Kraftwerke, die billigen Strom erzeugen.

Wenn also hierzulande etwas geändert werden sollte, dann befreien Sie die Landwirtschaft von den bürokratischen Fesseln, die ständig enger angezogen werden, befreien Sie sie voran von zu engen Grenzwerten, wie sie bspw. durch die Düngemittelverordnung weltfremd verlangt wird und lassen sie die Landwirte ihren Job machen.

Dann wird es auch was mit gesunder effektiv erzeugter Ernährung, geliefert von lokalen Betrieben.

So einfach ist das.

 

[1] Quelle: Global Carbon Project




BLACKOUT – kleines Handbuch zum Umgang mit einer wachsenden Gefahr – Folge 5

Bild 9: Anzahl ungeplanter Unterbrechungen in den Stromnetzen europäischer Länder Quelle: Bundesamt für Bevölkerungsschutz und Katastrophenhilfe /2/

Die Frage führt uns zum Begriff des „Schwarzen Schwans“, der in der Natur extrem selten ist, aber immerhin vorkommt. Seit dem 2007 erschienenen Buch von Nassim Nicholas Taleb „Der Schwarze Schwan: Die Macht höchst unwahrscheinlicher Ereignisse“ /27/ hat sich dieser Begriff als Bezeichnung für Ereignisse eingebürgert, die wegen ihrer geringen Eintrittswahrscheinlichkeit üblicherweise gar nicht in Betracht gezogen werden. Das Erscheinen eines Schwarzen Schwanes widerlegt alle Prognosen und trifft uns üblicherweise völlig unvorbereitet, weil wir immer wieder der „Truthahn-Illusion“ erliegen.

Bild 10: 1001 Tage im Leben eines amerikanischen Truthahns bis zum Thanksgiving-Day. Quelle: Nasim Taleb, The Black Swan

Mit jedem Tag, den der Truthahn gefüttert und umsorgt wird, steigt seine Gewissheit, dass dies auch so bleibt. Für ihn ist ausgerechnet am Tag vor der Schlachtung die Wahrscheinlichkeit weiteren Wohlergehens am größten. Wir erliegen der gleichen Illusion häufig bei der Beurteilung sehr komplexer Systeme; ein Beispiel ist das weltweite Finanzsystem. In diesem System ereignete sich 2008 nach vielen Jahren ungebrochener Prosperität gänzlich unvermutet eine Krise, die es fast völlig zum Absturz gebracht hätte.

Komplexe Systeme weisen besondere Eigenschaften auf, welche ihre Steuerung erschweren und ein komplettes Systemversagen möglich machen /28/. Es sind dies:

– lange Ursache-Wirkungsketten,

Rückkopplungen, die zu schwer durchschaubarer Eigendynamik führen können,

zeitverzögerte Wirkung von Eingriffen,

– kleine Ursachen, die große Wirkungen entfalten (Schmetterlingseffekt),

mögliche Irreversibilität von Eingriffen.

Daraus resultieren mögliche Konsequenzen:

einfache Ursache-Wirkungszusammenhänge sind nicht mehr gegeben; es entsteht die Gefahr einer Übersteuerung,

– es entstehen indirekte, kaum abschätzbare Wirkungen, die durch etablierte Risikobewertungsmethoden nicht erfasst werden,

– es kommt zu Domino- und Kaskadeneffekten, deren negative Folgen mit dem Umfang der Vernetzung zunehmen,

Die Steuerbarkeit des Systems wird signifikant erschwert und geht im Extremfall völlig verloren.

Ein Beispiel zur Auswirkung der vorbeschriebenen Phänomene auf das Stromnetz ist der unter Punkt 4.4 beschriebene europaweite Blackout vom 4.November 2004, der erst Jahre später durch das Braess-Paradoxon erklärt werden konnte. Gerade im Fall unseres Stromnetzes sollten wir die Existenz Schwarzer Schwäne für möglich halten und nicht der Truthahn-Illusion unterliegen.

6. Vorsorge vor einem Blackout

Das schon auf Seite 2 dieser Broschüre zitierte Fazit aus der 2013 herausgegebenen Schrift des Bundesamtes für Bevölkerungsschutz und Katastrophenhilfe: „Kapazitäten der Bevölkerung bei einem Stromausfall, Empirische Untersuchung für das Bezugsgebiet Deutschland“ lautet:

Entweder lebt die Bevölkerung bewusst mit dem Restrisiko einer eingeschränkten bzw. fehlenden Versorgung im Falle eines lang anhaltenden flächendeckenden Stromausfalles, oder aber sie ergreift selbst Maßnahmen, um ein solches Risiko abzuwenden.“

Die Wahl des Begriffs „Restrisiko“ stellt dabei eine schwer erträgliche Bagatellisierung dar, die in krassem Widerspruch zu der vom Bundestagsausschusses für Bildung, Forschung und Technikfolgenabschätzung in /1/ für einen großflächigen lang dauernden Stromausfall gegebenen Aussage steht: „… ein Kollaps der gesamten Gesellschaft wäre kaum zu verhindern.“ Und die Aufforderung an die Bevölkerung, selbst Maßnahmen zur Abwendung des Risikos zu ergreifen, klingt in Anbetracht der völlig unzureichenden Mittel, welche dem einzelnen Bürger zur Verfügung stehen, geradezu zynisch. Dennoch liegt es im ureigenen Interesse eines Jeden, sämtliche Möglichkeiten einer Vorsorge auszuschöpfen – auch wenn diese vielleicht für sich genommen marginal erscheinen.

6.1 Trinkwasser

Der Pro-Kopf-Verbrauch von Trinkwasser liegt in Deutschland bei etwa 125 Litern pro Tag. Es wird zum Trinken, Kochen, Abwaschen des Geschirrs, Duschen, Baden, Zähneputzen, Wäschewaschen und die Spülung der Toilette benötigt. Für den Transport des Trinkwassers im Leitungssystem werden zumeist elektrische Pumpen eingesetzt, die bei einem Blackout natürlich ausfallen. Für eine Notstromversorgung gibt es bei den Wasserversorgern keine einheitliche Regelung – bei Vorhandensein könnte sie die Versorgung mit Trinkwasser für einen Zeitraum sichern, der sich nach Stunden bemisst. Druckerhöhungsanlagen für Hochhäuser fallen sofort aus und sind auch nicht notstromgepuffert. In der Broschüre „Stromausfall – Vorsorge und Selbsthilfe“ des Bundesamtes für Bevölkerungsschutz und Katastrophenhilfe findet man die weise Empfehlung, sich „ausreichende Vorräte an Trinkwasser anzulegen.“ Was ausreichend ist, darf sich der Leser selbst überlegen – wir wollen ihm dabei helfen.

Zunächst sollte er der Frage nachgehen, ob bei ihm überhaupt ein Stromausfall den Ausfall der Trinkwasserversorgung zur Folge hat. Wenn Wasserversorgungsnetze durch natürliches Gefälle betrieben werden, kann das Wasser in den Leitungen grundsätzlich weiter fließen. So zum Beispiel auch in der Stadt Erfurt, die nur 30 Prozent ihres Trinkwassers aus Tiefbrunnen gewinnt und den Hauptteil über die Thüringer Fernwasserversorgung aus der Ohra-Talsperre erhält. Die ebenfalls in Thüringen gelegene Stadt Gera wird dagegen aus Hochbehältern versorgt, welche mittels Pumpen nachzufüllen sind. Grundsätzlich ist festzustellen, dass die Art und Weise der Versorgung mit Trinkwasser von Ort zu Ort sehr unterschiedlich ist. Das führt zu der

Empfehlung: Fragen Sie schon jetzt bei Ihrem Wasserversorger an, für welchen Zeitraum er bei einem längeren Stromausfall die Versorgung mit Trinkwasser garantieren kann. Sollte er nicht gewillt sein zu antworten, beauftragen sie einen gewählten Stadtverordneten oder Landtagsabgeordneten mit dieser wichtigen Fragestellung.

Wenn die Trinkwasserversorgung vom Stromausfall gar nicht betroffen ist, kann die Empfehlung des Bundesamtes zur Bevorratung getrost ignoriert werden; anderenfalls sollte man für einen Zeitraum von zehn Tagen Vorsorge treffen. Dabei kann sich wohl kaum jemand einen Notvorrat in Höhe des zehnfachen statistischen Pro-Kopf-Verbrauchs anlegen, was für einen Drei-Personen-Haushalt 3.750 Liter wären. Wirklich überlebensnotwendig ist nur der Trinkwasserbedarf von durchschnittlich 2,5 Litern täglich, der auch durch Flaschengetränke gedeckt werden kann. Wasser zum Kochen ist nur einzuplanen, wenn stromloses Kochen – z. B. mittels eines Propangaskochers – möglich ist. Dann sollte man für das Kochen und die Reinigung des Geschirrs pro Person und Tag zwei Liter ansetzen.

Empfehlung: Auch wenn die Trinkwasserversorgung weiterläuft, sollten Sie dieses Wasser nicht unabgekocht genießen. Vielfach gehört zur Wasseraufbereitung auch eine Desinfektion mit UV-Licht, die bei Stromausfall nicht mehr funktioniert.

Empfehlung: Sie können das Wasser für die Geschirrreinigung sparen, wenn Sie sich mit Einweggeschirr bevorraten.

Zähneputzen dürfte mit einem halben Liter und eine notdürftige tägliche Körperreinigung mit einem Liter möglich sein.

Empfehlung: Mit einem Vorrat an Einweghandschuhen und Hygienetüchern kann Wasser für die Reinigung der Hände gespart werden.

Mit dem Verzicht auf das Waschen von Wäsche ergibt sich für volle 10 Tage und einen Drei-Personen-Haushalt ein notwendiger Wasservorrat von 170 Litern. Wenn wenigstens für die ersten 48 Stunden vom Wasserversorger noch Trinkwasser garantiert werden kann, vermindert sich diese Menge auf 136 Liter.

Haben Sie ein Haustier?

Empfehlung: Wenn Sie ein Haustier besitzen, vergessen Sie bei der Planung des Wasser-Notvorrats dessen Bedarf nicht.

Unbeachtet blieb bislang die Toilettenspülung – dazu mehr unter Punkt 6.2. Aber auch die ständige Bevorratung von 170 oder 136 Liter Trinkwasser (und deren regelmäßige Erneuerung) in einer kleinen Wohnung ist eine Zumutung. Kann man, um ihr aus dem Wege zu gehen, an eine Nutzung eines der Trinkwasser-Notbrunnen Deutschlands im Falle eines Blackout denken?

6.1.1 Trinkwasser-Notbrunnen

Es gibt in Deutschland etwa 4.800 leitungsunabhängige Trinkwasser-Notbrunnen, die sich fast ausschließlich in Ballungsgebieten befinden /31/. In /31/ lesen wir auch: „Eine Aufbereitung des Brunnenwassers im eigentlichen Sinne findet nicht statt. Im Bedarfsfall erfolgt lediglich eine Desinfektion mit Chlortabletten, welche für alle Brunnen vorgehalten werden.“ und „Die Nutzung im Katastrophenfall ist vom Amtsarzt freizugeben“. Viele dieser Brunnen dürften im Ernstfall über keine ausreichende Schüttung verfügen, wie der Kommentar zu Bild 11 zeigt. Außerdem müsste man für eine Nutzung des Brunnens dessen Lage kennen, um mittels Schubkarre, Handwagen oder auch Fahrrad von ihm Wasser zu holen – eine Versorgung in der Fläche durch Behörden ist undenkbar. Kann man die Lage des nächsten Notbrunnens rechtzeitig in Erfahrung bringen? Unter /32/ ist nachzulesen, wie im März 2020 eine entsprechende Anfrage an die Wasserbehörde Stuttgart ausging: Die Auskunft wurde mit der Begründung verweigert, dass die Information für Sabotage oder einen terroristischen Angriff auf die Trinkwassernotbrunnen genutzt werden könnte.

Bild 11: Brunnen mit Schwengelpume, wie er u. a. in Magdeburg und Berlin als Notbrunnen deklariert ist. Mit einer Förderleistung von ca. 1.200 Liter pro Stunde könnte er innerhalb von 12 Stunden den Minimalbedarf von 900 Menschen decken. Sein Versorgungsgebiet dürfte wohl die zehnfache Einwohnerzahl enthalten. Quelle: /31/

Empfehlung: Ziehen Sie die Nutzung eines Trinkwasser-Notbrunnens gar nicht erst in Betracht.

6.2 Die Toilette……

Die Patentanmeldung für ein Wasserklosett durch den englischen Erfinder Alexander Cumings im Jahre 1775 war eine Revolution der Toilettenhygiene, der wir übrigens einen großen Teil unserer gestiegenen Lebenserwartung verdanken. Auch wenn moderne Toiletten nicht mehr 10 bis 16 Liter Wasser für einen einzigen Spülvorgang verschwenden, wie die Spülkästen früherer Jahrzehnte, sind es immer noch 6 bis 8 Liter für das große Geschäft und 3 bis 5 Liter mit der Spartaste für das kleine. Für den unter 6.1 bereits erwähnten Drei-Personen-Haushalt lässt sich ein täglicher Spülbedarf von mindestens 57 Litern abschätzen, was eine Bevorratung mit 570 Litern Brauchwasser nahelegt, die unter normalen Wohnverhältnissen illusorisch ist. Was kann man tun? Der größte Teil des Trinkwassers lässt sich nach seiner Verwendung auffangen und zur Spülung der Toilette einsetzen. Das könnten bis zu 140 Liter sein.

Empfehlung: Halten Sie Eimer für das Auffangen von benutztem Trinkwasser bereit.

Für die Deckung des Defizits könnten Sie während des Blackout Brauchwasser heranschaffen, wenn fußläufig welches erreichbar ist.

Empfehlung: Prüfen Sie schon jetzt, ob sich in der Nähe Ihrer Wohnung ein Bach oder stehende Gewässer befinden, aus denen Wasser geschöpft werden kann.

Wenn diese Suche ergebnislos verläuft, gibt es noch eine weitere Möglichkeit der Gewinnung von Brauchwasser. In die Fallrohre der Dachentwässerung lassen sich verschließbare Regenwasserklappen einsetzen, wie sie Bild 12 zeigt.

Bild 12: Regenwasserklappe aus Zink. Preis ca. 15 €

Empfehlung: Prüfen Sie bereits jetzt die Möglichkeiten, eine solche Regenwasserklappe in ein stark mit Niederschlagswasser beaufschlagtes Fallrohr einbauen zu lassen.

Damit können – wenn es regnet – in Abhängigkeit von der Dachfläche nennenswerte Mengen an Brauchwasser aufgefangen werden. Bei Mietverhältnissen sollte die Genehmigung des Hauseigentümers eingeholt werden. Und was kann man noch tun, wenn alle diese Behelfe unmöglich sind? Der Verzicht auf Spülung nach dem kleinen Geschäft hilft ein wenig; auf die ultima ratio wird im nächsten Punkt eingegangen.

6.3 …und das Abwasserproblem

Von einem Blackout ist die Abwasserversorgung in zweifacher Weise betroffen: Zum einen fallen Schmutzwasserpumpen und Hebeanlagen, die zur Überwindung von Höhenunterschieden eingesetzt werden, sofort aus. Zum anderen fließt nach einiger Zeit das mit Exkrementen beladene Abwasser auf den Gefällestrecken nicht mehr, weil zu wenig Spülwasser in das Kanalsystem eingebracht wird. Das führt relativ rasch zu Staus in den Kanälen und in der Folge zum Schließen von Rückschlagventilen in den Abwasserleitungen der Häuser. Dann kann nichts mehr aus den Häusern abgeführt werden. Bei weiterer Nutzung der Toiletten tritt Schmutzwasser zuerst in den Kellern aus und schließlich laufen die Toiletten in den Geschossen über – Wohnungen werden unbewohnbar.

Empfehlung: Stellen Sie beim ersten Anzeichen einer Verstopfung in den Abwasserleitungen jegliche Nutzung der Toiletten sofort ein.

Dies ist der Zeitpunkt, zu dem Menschen beginnen, ihre Notdurft irgendwo im Außenbereich zu verrichten – Not kennt kein Gebot. Doch wenn man sich an einer solchen Verschmutzung des Außenbereichs nicht beteiligen will, gibt es die oben erwähnte ultima ratio:

Empfehlung: Legen Sie sich einen ausreichenden Vorrat an stabilen Müllbeuteln sowie geruchsdicht schließende Verschlussklemmen an. Nach dem Ende des Blackout dürfte es Möglichkeiten einer Entsorgung dieser Nottoiletten geben.

Es sei noch erwähnt, dass die Kläranlagen, die zu den größten kommunalen Energieverbrauchern zählen, vom Stromausfall in besonderer Weise betroffen sind. Ihr Abwasser fließt dann ungeklärt in die Vorfluter und verunreinigt Kanäle und Flüsse – mit entsprechenden Folgen für Fauna und Flora.

6.4 Lebensmittel …..

Wenn nach einem Blackout Strom und Trinkwasser wieder zur Verfügung stehen, kann noch nicht mit einer funktionierenden Lebensmittelversorgung gerechnet werden. Supermärkte sind leer – durch freiwillige Abgabe der Waren oder durch Plünderung; Kühllager müssen von den darin verdorbenen Lebensmitteln befreit werden; in Geflügelfarmen und Mastbetrieben stapeln sich die Tierkadaver; vom Milchkuhbestand hat nur ein verschwindend kleiner Teil überlebt. Deshalb sollten Lebensmittel für einen größeren Zeitraum bevorratet werden als für das Wasser – mindestens zwei Wochen. Die Frage, aus welchen Lebensmitteln sich der Vorrat zusammensetzen sollte, wird im Internet vielfältig und ausführlich beantwortet. Diesen Kalkulationen (die alle ein wenig reichlich erscheinen) soll hier keine weitere gegenübergestellt werden. Stattdessen folgen Empfehlungen für Maßnahmen, die dem Autor nützlich erscheinen.

Empfehlung: Ein Teil der eingelagerten Lebensmittel sollte aus Dauerkonserven mit einer Haltbarkeit von mindestens 10 Jahren bestehen. Diese, bei Spezialanbietern (wie Feddeck Dauerwaren GmbH, Hildesheim) erhältlichen Konserven müssen nicht in vergleichsweise kurzen Zeiträumen umgewälzt werden.

Empfehlung: Lagern Sie nach Möglichkeit Lebensmittel ein, die in Ihren üblichen Speieseplan passen. Das macht das Umwälzen nach Ablauf der Haltbarkeitsdauer angenehmer.

Tierische Schädlinge sind für Lebensmittel mit Langzeitlagerung eine oft unterschätzte Gefahr. Mehlmilben und Brotkäfer als die bekanntesten unter ihnen können eine breite Palette von stärkehaltigen Produkten in kurzer Zeit unbrauchbar machen.

Empfehlung: Verstauen Sie sämtliche in Tüten oder Schachteln (gleich aus welchem Material) verpackten Lebensmittel unmittelbar nach dem Kauf in luftdicht verschließbaren Plastikboxen.

6.5 …. und wie man sie zubereitet

Sogar, wenn man bereit ist, während eines Blackout ausschließlich „aus der Büchse“ zu leben, braucht man zu deren Erwärmung einen Kocher. Campingausrüster bieten Kocher an, die entweder mit Gas oder mit Benzin bzw. Spiritus betrieben werden können. Doch ihre Handhabung ist nicht sehr komfortabel, und zur Versorgung einer ganzen Familie sind sie wenig geeignet.

Empfehlung: Zur vorsorglichen Absicherung des Kochens empfiehlt sich die Anschaffung einer 11Liter – Propangasflasche mit zugehörigem Druckminderer und eines zweiflammigen Gaskochers.

Die Flaschenfüllung dürfte bei sparsamem Verbrauch für einen Zeitraum von zehn Tagen reichen. Es gibt jedoch auch Möglichkeiten, bei der Speisenzubereitung Gas zu sparen.

Empfehlung: Das Einweichen trockener Hülsenfrüchte vor dem Kochen senkt den Energiebedarf erheblich. Kartoffeln, Reis oder Gemüse kann man in Wasser nur aufkochen und den heißen Topf in eine dicke Decke wickeln, in der sie dann fertiggaren – eine in früheren Zeiten weit verbreitete Methode.

Das bereits unter Punkt 1 erwähnte „Notfallkochbuch“ des Bundesamtes für Bevölkerungsschutz und Katastrophenhilfe, dessen Rezepte nicht nur ohne Strom, sondern sogar ohne Leitungswasser auskommen sollen, lässt noch auf sich warten; der Einsendeschluss für Rezeptvorschläge aus der Bevölkerung wurde vom 31. Mai 2020 auf den 31. August verschoben. Doch in diesem Jahr erschien ein Kochbuch für Notfall und Krise /33/, welches allerdings nicht den Anspruch erhebt, bei seinen Rezepten ohne Wasser auszukommen. Dafür bietet es einen sehr detaillierten Vorrats- und Speiseplan für 28 Tage sowie allerlei kleine Tipps.

6.6 Kann man auf die Zivile Notfallreserve setzen?

Bei Wikipedia lesen wir: „Die Zivile Notfallreserve der Bundesrepublik Deutschland dient der Versorgung der Bevölkerung mit Grundnahrungsmitteln im Krisenfall. Dieser Notvorrat soll eine tägliche Mahlzeit während kurzfristiger Engpässe von bis zu mehreren Wochen Dauer ermöglichen.“ Ein wahrlich hoher Anspruch! Die Zivile Notfallreserve ist ein Erbe des Kalten Krieges und lagert an ca. 150 geheimen Standorten, die sich vorrangig an den Rändern von Ballungsgebieten befinden, Lang- und Rundkornreis sowie Erbsen und Linsen ein. Außerdem sollen Kondensmilch und Vollmilchpulver bei den Herstellern bereitstehen. Daneben gibt es zur Versorgung mit Mehl und Brot noch die Bundesreserve Getreide, die aus Weizen, Roggen und Hafer besteht. Beide Reserven umfassen zusammen etwa 800.000 Tonnen Lebensmittel (ca. 9,7 kg/Bundesbürger).

Es ist geplant, im Krisenfall die Vorräte nicht zu verteilen, sondern in öffentlichen Küchen für die Bevölkerung aus dem Lang- und Rundkornreis sowie Erbsen und Linsen Mahlzeiten zuzubereiten. Bei einem Blackout ist dieser Plan illusorisch. Und auch eine alternative Verteilung der Nahrungsmittel in der Fläche kann nicht stattfinden.

Empfehlung: Ziehen Sie die Nutzung der Zivilen Notfallreserve im Falle eine Blackout gar nicht erst in Betracht.

<Folge 6 kommt demnächst> Teil 1 steht hier, Teil 2 hier, Teil 3 hier, Teil 4 hier

———————————-

Hinweis: Das PDF mit dem vollständigen Inhalt ist beigefügt. Es kann aber auch beim Kaleidoscriptum-Verlag berstellt werden (www.kaleidoscriptum-verlag.de)

blackout




Klimaschau 12 – die Tagesschau von Sebastian Lüning




EIKE Statement zur Anhörung im NRW Landtag -„Klimaschutz und nachhaltige Ressourcennutzung“ am 1.2.21

Die Diskussion verlief bis auf eine kleine Ausnahme (Experte Dr. Marco Springmann unterstellte mir in der Diskussion nicht getätigte Aussagen zur Arbeit des IPCC) sachlich und ohne Polemik.  Das ist zu begrüßen. Ansonsten verlief die Anhörung wie üblich. Die Expertenmeinungen wurden zur Kenntnis genommen, es war jedoch nicht zu erkennen, dass irgendein Mitglied der Kommission deswegen von seiner vorgefassten Linie abweichen würde. (NRW Landtag Drucksache 18/8414 )

Hier meine Stellungnahme – die zusätzliche mündliche Stellungnahme folgt in einer weiteren News.

Zusammenfassung

Es wird dargelegt, dass die klimatische Entwicklung in NRW sich abgesehen von der absoluten Höhe der Mitteltemperatur wenig von der deutschen Klimaentwicklung unterscheidet. Diese wurde vorwiegend durch geänderte Großwetterlagen ausgelöst, die auch auf NRW, ebenso wie auf Deutschland als Ganzes wirken, und wegen einer verlängerten Sonnenscheindauer im Sommer zu einem entsprechenden Anstieg der jährlichen Mitteltemperatur führten. Einen weiteren großen Anteil hat daran auch der sog. Wärmeinseleffekt, der durch die deutliche Zunahme der Bebauung und des privaten wie öffentlichen Energieverbrauches in Haushalten, Industrie und Transport bewirkt wird. Er wird seitens des Deutschen Wetterdienstes DWD nicht aus den zur Verfügung gestellten Daten heraus gerechnet. Eine Grundregel methodisch wissenschaftlichen Arbeitens wird als Occams Rasiermesser[1] bezeichnet. Sie bestimmt bei Vorliegen mehrerer möglicher Erklärungen für wissenschaftlich untersuchte Phänomene, der jeweils einfachsten der Vorzug zu geben. Sie stimmen fast immer. Danach ist für eine maßgeblich Wirkung anthropogen emittierter Treibhausgase, im Wesentlichen dem CO2, kein Platz mehr.

Auf Grund dieser Tatsachen wird der Hinweis auf die notwendige Bekämpfung des Klimawandels im Antrag wie auch in den Forschungsfragen zum Thema Klimaschutz kritisch hinterfragt und die dort gemachten Annahmen durchgehend als nicht korrekt und damit weder als notwendig noch als zielführend und daher für unverhältnismäßig befunden. Deswegen wird zum Schluss die Einengung des Antrages auf das sinnvoll Machbare, bei gleichzeitiger ersatzloser Abschaffung unsinniger Klimaschutz-  Vor- und Folgegesetze bzw. Verordnungen empfohlen.

 

Einleitung

Der Antrag der FDP Fraktion im NRW Landtag gem. Drucksache 18/8414 enthält – vor allem im Teil A – sehr sinnvolle und stimmige Ausführungen, wie bspw. die Anerkennung der hohen Qualität der landwirtschaftlichen Arbeit in NRW durch die dort Beteiligten, die Würdigung von deren Förderung von Innovationen, der korrekte Hinweis auf deren verantwortungsvollen Umgang mit knappen Ressourcen, wie auch weiterer vielfach bekannter und auch anerkannter Anforderungen und Gepflogenheiten. Soweit so bekannt.

Bei dem im Text eingeflochtenen Hinweis, dass auch eine wachsende Weltbevölkerung zu ernähren sei, darf aber schon die Frage gestellt werden, ob damit der NRW Landwirtschaft nicht zu viel des Guten abverlangt wird. Denn gleichzeitig wird indirekt beklagt, dass durch die hohen Anforderungen u.a. an Tier-/Artenschutz, eine permanente Absenkung von Grenzwerten und eine „nachhaltige“ Landwirtschaft kleine Betriebe benachteiligt werden, weswegen ihre Zahl ständig sinke, um im falsch verstandenen Umkehrschluss man ihnen mehr „Förderung“, sprich Subventionen, zukommen lassen müsse.

Das soll aber hier nicht Thema sein, obwohl es eine ausführliche Untersuchung z.B. der geforderten Enquetekommission verdient hätte.

Hauptteil

Hier soll Thema sein, ob die dann folgende Behauptung, dass „uns der Klimawandel vor große und drängende Herausforderungen“ stelle, in irgendeiner Weise stichhaltig ist. Ebenso wird untersucht, ob die Prämissen im Teil (Forschungs-)Fragen zum „Klimaschutz“ eine Relevanz haben, und wenn sie eine solche haben, welche Wirk-Möglichkeiten sich für das Land NRW daraus ergeben.

Sich über „den Klimawandel“ zu beklagen und auch ein „Bekenntnis“ zu dessen Bekämpfung nach der Pariser Klimaübereinkunft abzulegen, gehört zwar inzwischen zur Litanei fast aller politischer Parteien, trotzdem muss es erlaubt sein deren Sinnhaftigkeit zu hinterfragen. Insbesondere auch deswegen, weil hierzu erhebliche Steuermittel und sonstige Ressourcen dauerhaft eingesetzt werden und noch viel mehr eingesetzt werden sollen, die anderswo zwangsläufig fehlen. Außerdem ist im Antrag deutlich erkennbar, dass munter die Begriffe Klimaschutz und Umweltschutz zu einem Einheitsbrei vermengt werden, wobei dann noch der schillernde Begriff „der Nachhaltigkeit“ als verbaler Schmiernippel und Drehgelenk eingesetzt wird.

Abgesehen von diesem Politsprech, ist es sinnvoll sich zunächst mit der Klimaentwicklung in NRW zu beschäftigen, denn nur dieses könnte überhaupt von Maßnahmen in NRW beeinflusst werden. NRW´s Klimaentwicklung weicht erfreulicherweise nur unwesentlich von der in Gesamt-Deutschland ab, was die Datenerhebung und – Auswertung stark vereinfacht.

Nach den Daten des Deutschen Wetterdienstes (DWD) ist die Mitteltemperatur in NRW im linearen Trend bezogen seit 1910 um  ca. 1,6 Kelvin gestiegen und liegt damit leicht über dem Anstieg in Deutschland. Insgesamt stieg dort die Mitteltemperatur seit Beginn der Aufzeichnung ab 1880 um ca. 1,45 Kelvin an. Der ist fast allein dem Anstieg von 1988 bis 2020 geschuldet (Siehe Abbildung 1 und Abbildung 2), der insgesamt ebenfalls bei 1,45 Kelvin liegt. Die Trendlinie der Jahrzehnte zuvor zeigt bis 1988 so gut wie keinen Anstieg.

Anmerkung: Die folgenden Ausführungen und Graphen wurden dem Beitrag von J. Kowatsch „Wo ist die Erwärmungs­wirkung des CO2-Treibhaus­effektes bei den Deutschland­temperaturen?“ [2] entnommen, und soweit zitiert, in Parenthese gesetzt (Hervorhebungen vom Autor). Sie illustrieren perfekt die aktuelle Klimaentwicklung in Deutschland und damit auch in NRW.

Zitat:

Nun kann der Kohlendioxidanstieg seit 1958 nicht die Ursache des Temperatursprunges 1988 sein, es handelt sich vielmehr um eine Umstellung der Großwetterlagen für Mitteleuropa. Und diese Umstellung der Großwetterlagen trifft auch nicht alle Jahreszeiten gleichmäßig, was im folgenden Teil gezeigt werden soll.

Schlüsselt man die Jahreswerte seit 1988 auf, dann sieht man, dass sich vor allem die drei Sommermonate stark erwärmt haben, die Winter gar nicht, was in der Summe auch eine Gesamterwärmung des Jahresschnittes erbringt. Damit scheidet CO2 als Erwärmungsfaktor wieder aus, denn CO2 wirkt nicht jahreszeitenbedingt. Will man also die Ursachen der ständig steigenden Jahreserwärmung suchen, dann muss man nach den Gründen der Sommererwärmung suchen.

Abbildung 1 90 Jahre lang gab es laut DWD-Temperaturreihe keinerlei Erwärmung in Deutschland, trotz stark steigender CO2-Konzentrationen in der Atmosphäre. Hat die CO2-Erwärmungswirkung etwa 90 Jahre lang ausgesetzt?

Abbildung 2: 1988 erfolgte bei allen Wetterstationen Deutschlands ein Temperatursprung auf ein höheres Niveau. Die Jahre wurden plötzlich wärmer. Und innerhalb dieses Zeitraumes bis heute sind die Temperaturen im Schnitt aller DWD-Wetterstationen weiter angestiegen. Das Jahr 2020 wird diesen Erwärmungstrend bestätigen. Voraussichtlicher Schnitt 2020 10,4 C.

Abbildung 3 Die drei Sommermonate haben sich seit 1988 doppelt so stark erwärmt wie das Gesamtjahr.

Vor allem in Süddeutschland haben aufmerksame Naturbeobachter diesen Trend der Sommererwärmung längst festgestellt. Die Sommer sind mediterraner geworden, was die allermeisten Menschen sehr begrüßen. Über die Mittagszeit sind die Temperaturen in den Innenstädten sommers oftmals bis fast an 40°C herangekommen, die dunklen Asphaltstraßen der freien Landschaft werden 50°C heiß und speichern die Wärme in die Nachtstunden hinein. Der Gründe des Sommertemperatursprunges seit 1988 haben natürliche Ursachen. Die weiteren Gründe der starken Sommererwärmung dürften ausschließlich menschengemacht sein: Die ständige Trockenlegung der freien Landschaft, aber auch die sich täglich fortsetzende ausufernde Bebauung der Siedlungen, Gewerbe- und Industriegebiete in die einst freie kühlende Landschaft hinein. Wo eine neue Siedlung entsteht, fällt die endotherm ablaufende Fotosynthese, die ein Großteil der Sonnenwärme in Wachstum umsetzt, weg, aber auch die kühlende Verdunstung der grünen Flora entfällt.“ Zitatende.

Wie im Zitat kurz ausgeführt ist ein wesentlicher Aspekt auch die Tatsache, dass seit den 60er Jahren des vorigen Jahrhunderts die Entwicklung in Deutschland insgesamt, aber auch die in NRW, in ein massiv urbanisiertes Industrieland – über das bereits bestehende hinaus- vollzogen wurde, was mit einer kräftigen Erhöhung des städtischen Wärmeinseleffektes durch Ausbreitung der Städte, Befestigung, Verbreiterung und Neuanlegen von Straßen, etc. etc. einher ging. Das führte dazu, dass sich ein großer Teil, besonders der Erwärmung seit den 80er Jahren des vorigen Jahrhunderts, durch diese Veränderung erklären lässt, während der Rest sich ebenso zwanglos, wie oben ausführlich dargestellt, von den Änderungen der Großwetterlagen, insbesondere im Süden Deutschlands, zurückführen lässt. Die bis dahin vorherrschende Westwetterlage wurde zunehmend durch eine Südwestströmung ergänzt, was automatisch zu wärmerer Luftzufuhr und mehr Sonnentagen führt.

Als weiterer Effekt kommt hinzu, dass, aufgrund der Luftreinhaltemaßnahmen und den Umweltschutzverschärfungen in den 80-er Jahren, die Bewölkung (weniger Aerosole, weniger Wolkenbildung) abgenommen hat, was ebenfalls mit einer erhöhten Sonnenscheindauer verbunden war. Da die Sonne im Sommer wie gezeigt eine stärkere Wirkung zeigt, sind entsprechend die Sommertemperaturen besonders angestiegen.

Auf Grund dieser unbestreitbaren, durch amtliche Messungen belegten Tatsachen, ist es weder zielführend noch angemessen noch erforderlich sich weiter mit vermeintlich „klimaschädlichen“ Emissionen, wie auch der Vermeidung derselben, bspw. durch die ebenso nutz- wie maßlose Förderung „Erneuerbarer“ Energie (Siehe dazu insbesondere die Forschungsfragen zum Thema „Klimaschutz“) zu befassen, bzw. groß angelegte Subventionstatbestände zu schaffen.Zielführend allein wären Unterstützungsmaßnahmen, welche die Landwirtschaft in die Lage versetzen wertvolle Ressourcen zu schonen, in dem die unterstützten Betriebe noch effektiver mit diesen umgehen könnten. Das ist und bleibt eine lohnende Daueraufgabe.

 

Das Gebot der Verhältnismäßigkeit und Empfehlung

Jede staatlich verordnete „Klimaschutz“-Maßnahme, auch die, die auf CO2 Vermeidung bzw. Absenkung ausgerichtet ist, muss am grundgesetzlich vorgeschriebenen Gebot der Verhältnismäßigkeit gemessen werden, dem sich alles staatliche Handeln unterzuordnen hat.  Es schreibt nicht nur den legitimen Zweck vor, sondern ebenso bindend die Geeignetheit, die Erforderlichkeit und die Angemessenheit.

Wie gezeigt, liegen der Klimaentwicklung in NRW als Teil Deutschlands andere Ursachen zugrunde als die anthropogenen Treibhausgasemissionen. Daher erfüllt der im Antrag festgestellte Handlungsbedarf für daraus abzuleitende Maßnahmen nicht den Zweck durch ihre Anwendung einen Anstieg der globalen, wie lokalen Mitteltemperatur zu verhindern. Darauf hat NRW überhaupt keinen Einfluss. Und kann dies noch nicht mal im Ansatz erreichen. Deswegen sind sie diesbezüglich weder geeignet, das Ziel zu erreichen, egal wie oft der Klimaschutz als Begründung herangezogen wird, noch sind die erforderlich und auch nicht angemessen.

Daher kann die Empfehlung nur lauten dem Entwurf nur insofern zu folgen, als er der Verringerung des Ressourceneinsatzes dient, und insbesondere die kleinen und mittleren Betriebe von den z.T. wahnwitzigen Auflagen, insbesondere wegen des „Klimaschutzes“, befreien kann. Dazu gehört vorrangig die Überprüfung und nachfolgende Aufhebung aller bereits bestehenden Gesetze und Verordnungen zum Klimaschutz, sowie die Beendigung aller weiteren Aktivitäten in dieser Richtung zu veranlassen.

Mit einer Einschränkung.

Maßnahmen zur Anpassung an den unbeeinflussbaren weil natürlichen Klimawandel, wenn diese unabdingbar geboten sein sollten, müssen zwar dem Markt überlassen bleiben, dürfen aber durch staatliches Handeln nicht behindert werden. Sofern sie denn erforderlich würden, was sie zurzeit nicht sind.

 

Michael Limburg, Dipl. Ing.

Vizepräsident EIKE

20.01.2021

Anhang Temperaturentwicklung NRW nach Daten des DWD

[1] Siehe https://de.wikipedia.org/wiki/Ockhams_Rasiermesser

[2] Quelle: https://eike.institute/2020/12/30/wo-ist-die-erwaermungswirkung-des-co2-treibhauseffektes-bei-den-deutschlandtemperaturen/

Mit Dank an Herrn J. Kowatsch für die fachliche Untersützung




Schmilzt das Eis der Arktis? Die Statistik sagt „nein“

Jeder kennt den Versuch aus Schule und Kneipe: Cola oder Whisky „on the rocks“ ändert das Volumen nicht (bzw. kaum), wenn das Eis darin schmilzt. Das liegt an der Dichte-Anomalie des Wassers, die dazu führt, daß festes Wasser weniger wiegt als ein gleiches Volumen flüssiges Wasser.
Dennoch wird gern behauptet, daß das schmilzende Eis der Arktis den Meeresspiegel erhöhe oder die Eisbären ausrotte. Stimmt alles nicht; das im Sommer teils ordentlich abnehmende Arktiseis nimmt im Winter wieder derart zu, daß die Bären dort auf Robbenjagd gehen können und sich so seit 50 Jahren fleißig vermehren.
Die Facebook-Gruppe Fakten gegen Klimahysterie stellte gerade die Eisbedeckungszahlen von Arktis und Antarktis mit den Daten des Alfred-Wegener-Institutes AWI ins Netz.
Das Ergebnis ist eindeutig:



BLACKOUT – kleines Handbuch zum Umgang mit einer wachsenden Gefahr – Folge 4

Bild 9: Diese Grafik zeigt den realen Fall einer zehntägigen Dunkelflaute in Mitteleuropa (Quelle: Infografik Die Welt)

Daher müssten im Gleichtakt mit der Abschaltung konventioneller Kraftwerke zügig regelbare „Schattenkraftwerke“ erstellt werden, für die als Energieträger das teure, und angeblich „klimafreundliche“ Erdgas im Gespräch ist. Doch wie ist es um die Klimafreundlichkeit des Erdgases überhaupt bestellt? Bei seiner Verstromung emittiert es im Vergleich zu Steinkohle nur rund die Hälfte von dessen CO2. Mit dieser Feststellung begnügt sich die offizielle Meinung und verschließt dabei geflissentlich die Augen vor einer anderen Tatsache, die Erdgas zum größeren Klimaschädling macht als die Kohle. Es ist dies der sogenannte „Schlupf“ von Methangas, der bei seiner Förderung freigesetzt wird und etwa 5 bis 11 Prozent der Fördermenge beträgt /16/. Aber werden dessen ungeachtet wenigstens genug Gaskraftwerke gebaut, um den Kahlschlag bei Kernkraft und Kohle auszugleichen? Diese Frage kann nur mit einem klaren „Nein“ beantwortet werden. Wie der Bundesverband der Energie- und Wasserwirtschaft (BDEW) am 01.04.2019 auf der Hannover-Messe kritisierte, waren zu diesem Zeitpunkt nur vier Gaskraftwerke mit insgesamt 572 Megawatt (das sind nur 0,572 Gigawatt!) Leistung im Bau; acht befanden sich im Genehmigungsverfahren und für drei weitere lag eine Genehmigung vor. Ursächlich für diese Misere ist die fehlende Neigung von Investoren, ihr Geld in Gaskraftwerke zu stecken, die nur dann angefahren werden dürfen, wenn Wind und Sonne Pause machen. Bei einer solchen Fahrweise steht fest, dass die Betriebskosten exorbitant hoch sein werden; doch ihre genaue Höhe lässt sich nicht kalkulieren. Der vermutlich beschrittene Ausweg wird darin bestehen, die gesamten Kosten dieser katastrophalen Unrentabilität auf die Stromkunden abzuwälzen /17/.

Die Abschaltung thermischer Kraftwerke hat in Deutschland höchste politische Priorität. Und sie erfolgt offenbar nach dem Prinzip „Augen zu und durch!“. Ein beeindruckendes Beispiel dafür ist der Umgang mit der am 31.12.2019 erfolgten Abschaltung des Kernkraftwerks Philippsburg in Baden-Württemberg. Wie FOCUS online berichtete, war bereits vorher klar, dass dem Ländle danach 14 Prozent der benötigten Elektroenergie fehlen würden /18/. Man beauftragte eine Studie: „Versorgungssicherheit in Süddeutschland bis 2025 – sichere Nachfragedeckung auch in Extremsituationen?“. Sie kam erwartungsgemäß zu dem Schluss, dass „Deutschland in deutlichem Umfang auf Importe aus Nachbarländern angewiesen sein werde“. Doch: „Ob die Nachbarländer die von Deutschland benötigten Erzeugungsleistungen zur Verfügung stellen können und werden, wurde in der Untersuchung nicht überprüft“ zitiert der SWR aus der Studie. Insgesamt beurteile die Studie die Versorgungssituation optimistischer als Vorgängerstudien. Vor allem aus einem Grund: Insbesondere in Frankreich und in Polen würden Kern- und Kohlekraftwerke länger laufen als geplant.“

Das bedeutet: Die Politik in Baden-Württemberg hat so lange Studien anfertigen lassen, bis – unter Weglassung entscheidender Fakten – das gewünschte Ergebnis herauskam! Tatsächlich wurde in Frankreich, dessen Stromerzeugung im Winter immer wieder unzureichend ist, das Atomkraftwerk Fessenheim am 29. Juni 2020 abgeschaltet, weitere 14 Reaktoren (von insgesamt 58) sollen bis 2035 folgen. Polen wird von der EU massiv zur Einhaltung von „Klimazielen“ gedrängt, und die Niederlande legen wegen Klagen von Umweltschützern vorzeitig Kohlekraftwerke still.

Am 15.01.2020 erschien in der WELT ein Artikel unter dem Titel: „Die Stromlücke kommt später – dafür aber schlimmer“, in dem die Entwicklung der Stromproduktion in Deutschland aus der Perspektive der Netzbetreiber analysiert wird /19/. Die wesentlichen Aussagen von Amprion, TenneT, 50Hertz und TransnetBw in dieser Veröffentlichung lauten:

Die vorhandenen Leistungsreseven an einem Stichtag jeweils im Januar sinken ständig. 2017 betrugen sie noch 42,2 Gigawatt, 2019 waren es noch 3,5 Gigawatt, was etwa der Leistung von drei Großkraftwerken entspricht.

Unter möglichen ungünstigen Bedingungen (die glücklicherweise nicht eingetreten sind) hätte Deutschland seinen Strombedarf zu Zeiten einer angenommenen Spitzenlast am 20. Januar 2020 bereits nicht mehr aus eigener Kraft decken können und wäre auf den Import von 0,5 Gigawatt aus dem Ausland angewiesen gewesen.

Unter Annahme der gleichen Bedingungen ergibt sich für 2021 ein gesteigertes Defizit von 5,5 Gigawatt.

Am deutlichsten wird die Gefahr eines Blackouts in einem WELT-Artikel vom 09.03.2020 benannt, der auch den Titel trägt: „Die Gefahr eines Blackouts ist da/20/. In einem Interview mit der Zeitung warnt der Vorstandschef des Energiekonzerns Uniper, Andreas Schierenbeck vor einer erheblichen „Stromlücke“ von bis zu sieben Gigawatt in Deutschland und steigenden Blackout-Gefahren, auf die er derzeit keine energiepolitische Antwort sehe. Hier zwei Zitate aus dem lesenswerten Interview:

Wenn der Anteil von Solar und Wind aber deutlich über 40, 50 oder 60 Prozent steigt, wird es ohne eine solide Rückendeckung durch fossile Reservekraftwerke nicht mehr gehen. Das hat man kürzlich in Großbritannien gesehen. Der große Blackout im August vergangenen Jahres geschah an einem Tag, an dem fast 65 Prozent Windenergie im System waren.“

Ich gehe davon aus, dass wir in den nächsten drei Jahren eine Lücke von mehr als sieben Gigawatt an sicherer Erzeugungskapazität in Deutschland haben können, um die Spitzenlast zu decken. Es wird also die Kapazität von mindestens sieben Großkraftwerken fehlen. Ich halte das für bedenklich.“

4.7.1 … und ihre wahrscheinlichen Folgen

Womit müssen wir als Verbraucher von Elektroenergie in Deutschland angesichts der vorstehend beschriebenen defizitären Entwicklungen rechnen? Natürlich mit weiter steigenden Strompreisen. Doch als weitere Folge werden Häufigkeit und Dauer der Zeitintervalle zunehmen, in denen Elektroenergie nicht mehr dem Bedarf entsprechend bereitgestellt werden kann. Damit werden Zwangsabschaltungen (die aktuell euphemistisch mit dem Wort „Spitzenglättung“ umschrieben werden) unumgänglich. Industrielle Großverbraucher trifft dieses Los schon seit einiger Zeit. Im Jahr 2018 musste die deutsche Aluminiumindustrie 78 Abschaltungen erdulden. Mit dem wachsenden Defizit der deutschen Stromproduktion wird auch die Häufigkeit solcher kontrollierten Lastabwürfe anwachsen. Zweifellos wird man so lange wie möglich versuchen, sie auf die Industrie zu beschränken. Doch in Verbindung mit den welthöchsten Strompreisen und mit einer CO2-Steuer, die in Deutschland bis 2030 auf 180 Euro pro Tonne ansteigt, bedeutet dies eine sehr ernsthafte Gefährdung von Arbeitsplätzen. Deshalb werden die Netzbetreiber immer wieder unter dem politischen Druck stehen, das Netz an der Grenze seiner Leistungsfähigkeit zu fahren, um eigentlich gebotene kontrollierte Abschaltungen zu vermeiden. Dass eine derartige Fahrweise das Risiko eines Blackouts signifikant erhöht, bedarf keiner näheren Erläuterung.

Nach der aktuellen Vorstellung der Bundesregierung sollen bis 2030 auf deutschen Straßen zehn Millionen Elektro-Pkw und 500.000 Elektro-Nutzfahrzeuge unterwegs sein, die dann Strom aus 300.000 Ladepunkten ziehen /21/. Es lässt sich abschätzen, dass für diese Fahrzeuge jährlich zusätzliche Elektroenergie von rund 40 Milliarden Kilowattstunden zu erzeugen und im Netz bis zu den Ladestationen fortzuleiten ist. Das entspricht dem Energieverbrauch von fast 20 Millionen Zwei-Personenhaushalten – keine Kleinigkeit. Sollte sich dieser Traum der Regierung erfüllen, geriete er zum Albtraum für das Netz.

Die Batterieautos in gigantischer Zahl sollen übrigens nicht nur der Fortbewegung von Menschen und dem Transport von Gütern dienen; nebenbei sind sie auch für eine Stabilisierung des Stromnetzes vorgesehen: „Werden Elektroautos gerade nicht genutzt und sind an das Stromnetz angeschlossen, können ihre Batterien zukünftig als Puffer dienen und damit die Stabilität des Stromnetzes unterstützen/22/. Wann schließt wohl der Besitzer eines Batterieautos sein Fahrzeug an das Stromnetz an? Die richtige Antwort auf diese Frage lautet: Wenn es geladen werden muss. Damit wird das Auto aber über den Ladestecker zur „flexibel zuschaltbaren Last“, der ein Bilanzkreisverantwortlicher des Stromnetzes nach eigener Entscheidung die noch vorhandene Ladung auch wieder entziehen kann. Dass der Besitzer einer solchen Form der Fremdnutzung seines Fahrzeugs freiwillig zustimmt, ist schwer vorstellbar. Zudem muss er ja auch noch eine signifikante Verringerung der Lebensdauer der Batterie hinnehmen, die nur eine begrenzte Zahl von Ladezyklen verträgt. Doch diese Vorstellung von der Zukunft unserer Mobilität soll eine tragende Säule der Energiewende werden. An ihrer Abwegigkeit kann allerdings auch die hochtrabende Bezeichnung „Sektorenkopplung“ nichts ändern.

4.8 Abnahme der Schwarzstartfähigkeit

Unter Schwarzstartfähigkeit versteht man die Fähigkeit eines Erzeugers von Elektroenergie, unabhängig vom Stromnetz aus dem abgeschalteten Zustand hochzufahren. Die Schwarzstartfähigkeit von Stromerzeugern im Netz beeinflusst nicht die Eintrittswahrscheinlichkeit eines Blackouts; stattdessen ist sie von entscheidender Bedeutung für seine Dauer. Schwarzstartfähig sind:

Pumpspeicherkraftwerke

– Laufwasserkraftwerke

– Gaskraftwerke, die dabei allerdings einen Batteriespeicher oder ein großes Notstromaggregat benötigen.

Kern- und Kohlekraftwerke können noch einige Stunden nach dem Netzausfall die für ihren Betrieb erforderliche Eigenenergie produzieren; danach brauchen sie zum Wiederanfahren Fremdleistung. Die schwarzstartfähigen Energieerzeuger sind die Lebensversicherung des Stromnetzes; ohne sie könnte seine Funktion nach einem Blackout nicht wieder aufgebaut werden. Für einen solchen Wiederaufbau gibt es Pläne. Zunächst werden praktisch alle Trennschalter im Netz auf „Aus“ gestellt. Dann sollen in einem ersten Schritt die autarken Schwarzstarter durch sogenannte Impulsproduktion thermische Großkraftwerke hochfahren, damit diese ihre normale Stromproduktion wieder aufnehmen. Mit ihnen erfolgt der schrittweise Aufbau von Teilnetzen, welche dann nach einer Synchronisierung miteinander verbunden werden können. Wie kompliziert der gesamte Prozess bis zur völligen Wiederherstellung des Netzes ist, können Interessierte in dem Artikel von F. Prillwitz und M. Krüger Netzwiederaufbau nach Großstörungen“ /23/ nachlesen.

Doch was ist, wenn die Forderungen von Fridays For Future erfüllt werden und es keine thermischen Großkraftwerke mehr gibt? Windräder und Solaranlagen sind nicht schwarzstartfähig. Dann sind die bisherigen Pläne Makulatur, und es ist fraglich, ob das Netz – selbst mit gigantischem Zeitaufwand – im Falle eines Blackouts überhaupt wieder aufgebaut werden kann. Gelegentlich werden von den Verfechtern der Energiewende Batteriespeicher als möglicher Ausweg aus der Misere genannt /24/, doch der damit verbundene Aufwand dürfte kaum zu bewältigen sein.

4.9 Mangelnde Sachkunde der Politik

Vor etwas mehr als einem Jahrhundert gab es in Deutschland schon einmal eine Energiewende; auch sie war mit einem Strukturwandel der Wirtschaft verbunden. Im Deutschen Kaiserreich existierten 1895 nach regierungsamtlicher Zählung 18.362 betriebene Windmühlen; 1907 war ihre Zahl bereits auf 8.170 gesunken. Ursächlich für dieses Windmühlensterben war das Aufkommen des Elektromotors, für den Strom zur Verfügung stand, der aus Kohle gewonnen wurde. Mit dieser neuen Technik galt für einen Kontrakt über das Mahlen von Getreide auf einmal nicht mehr der Vorbehalt: „Wenn der Wind weht“. Außerdem stand nun ein Vielfaches der früheren Antriebsleistung von bestenfalls 10 Kilowatt zur Verfügung. Und man benötigte für den Mahlprozess keine windgünstigen Standorte mehr auf Hügeln mit schlechter Zuwegung; große Mühlen in verkehrsgünstiger Lage übernahmen diese Aufgabe zu einem Bruchteil der bisherigen Kosten. Das Brot beim Bäcker wurde billiger.

Diese schon fast vergessene Energiewende erfolgte nicht auf kaiserliche Anordnung. Als alleinige Triebkraft reichte die erhebliche Steigerung der Effizienz einer Wertschöpfungskette aus. Man hatte sie erreicht, indem man sich von einem stochastisch schwankenden Energieträger mit geringer Energiedichte verabschiedete und stattdessen auf eine stets verfügbare Energiequelle mit unvergleichlich höherer Energiedichte setzte. Die Folge dieser dezentral von vielen Menschen getroffenen Entscheidung war ein Wohlstandswachstum der gesamten Gesellschaft, von dem wir heute noch zehren.

Die heutige Energiewende ist die Umkehrung des damaligen Prozesses: Wir verabschieden uns von gesicherten Energieträgern mit hoher Energiedichte und setzen wieder auf schwankende Energien, die über riesige Flächen eingesammelt werden müssen. Als Triebkraft wirkt dabei nicht die Steigerung von Effizienz und Wohlstand, sondern ausschließlich die Politik. Nur aufgrund der zu bezweifelnden Behauptung, damit könne das Klima gerettet werden, hat sie ein „Große Transformation/25/ genanntes Gesellschaftsexperiment mit dramatischen Auswirkungen auf fast alle Bereiche von Wirtschaft und Technik angeordnet. So ist beispielsweise das Ende des Verbrennungsmotors kein normaler „Strukturwandel“ – es wurde durch die willkürliche Vorschrift angeordnet, dass er nur noch 59,4 Gramm CO2 pro Kilometer ausstoßen darf (ab 2030), was schlicht unmöglich ist. Besonders betroffen ist allerdings unser Stromnetz wegen der Gefahr eines Blackouts. Weil bei der Großen Transformation spontan wirkende Triebkräfte durch politische Entscheidungen ersetzt werden, ist leicht einzusehen, dass der Qualifikation politischer Entscheidungsträger eine herausgehobene Bedeutung zukommt. Vor allem sollte sie bei Politiker*innen der Partei DIE GRÜNEN zweifelsfrei vorhanden sein, denn sie treiben die vorbeschriebene Entwicklung direkt und indirekt maßgeblich voran. Mit Widerspruch seitens der Industrie müssen sie übrigens kaum noch rechnen, denn deren Repräsentanten haben sich dem politisch-medialen Druck bereits gebeugt. So ließ Uniper-Vorstandschef Schierenbeck in dem unter Punkt 4.7 erwähnten Interview /20/ den bemerkenswerten Satz fallen: „Es geht vor allem um Haltung.“

Wie sieht es nun mit Sachkenntnis gerade bei grünen Spitzenpolitiker*innen aus?

Die Parteivorsitzende der Grünen, Annalena Baerbock, gab im Januar 2018 dem Deutschlandfunk ein bemerkenswertes Interview, in dem sie behauptete, dass Netz wäre ein Energiespeicher.

Es ist dem Autor nicht bekannt, dass sich Frau Baerbock inzwischen von diesr und von ähnlichen Aussagen, zu deren Diskussion sie „keine wirkliche Lust hat, mir gerade mit den politischen Akteuren, die das besser wissen, zu sagen, das kann nicht funktionieren.“ distanziert hätte.

Aber Frau Baerbock steht mit ihren Wissenslücken und realitätsfernen Vorstellungen nicht allein. Cem Özdemir verwechselte in seinem „Gigabyte“-Interview zur Stromproduktion aus dem Jahre 2011 nicht nur die Maßeinheiten Gigawatt für Leistung und Gigabyte für Datenmenge; er postulierte auch einen völlig falschen Zahlenwert von 140 „Gigabyte“, die in Deutschland an Leistung erzeugt werden könnten. Und bei der „Kugel Eis“, die der ehemalige Bundesumweltminister Jürgen Trittin als monatliche Kosten der Energiewende für Haushalte prophezeite, hatte er sich ungefähr um den Faktor 100 geirrt.

Doch naturwissenschaftlich-technische Unwissenheit und haarsträubende Fehlprognosen sind keine exklusive Domäne der Grünen. Nachdem das ursprüngliche Ziel der Bundesregierung, im Jahr 2020 auf deutschen Straßen eine Million Batterieautos rollen zu lassen, mit einer derzeitigen Stückzahl von 83.000 verfehlt wurde, will Verkehrsminister Scheuer (CSU) ihre Zahl bis 2030 auf 10 Millionen zzgl. einer halben Million batteriegetriebener Nutzfahrzeuge steigern (s. auch Punkt 4.7.1). Allein die Schaffung der dafür erforderlichen Ladestruktur ist eine Generationenaufgabe. Wer soll solche Phantastereien noch ernst nehmen?

Doch welcher Grad von Unwissenheit bei Politiker*innen, die in Regierungsverantwortung stehen oder eine solche anstreben, ist noch tolerabel? In Anbetracht des menschlichen Leids und der gigantischen materiellen Verluste, die ein langdauernder und großflächiger Stromausfall mit sich bringen würde, müssen der Toleranz Grenzen gesetzt werden. Und so ist es wohl weniger riskant, ahnungslosen Politiker*innen ein Verteidigungsministerium anzuvertrauen als die Verantwortung über unser Stromnetz. Zumindest, solange Deutschland nicht auf die Idee kommt, Krieg zu führen.

<Folge 5 kommt demnächst> Teil 1 steht hier, Teil 2 hier, Teil 3 hier

—————————————-

Hinweis: Das PDF mit dem vollständigen Inhalt ist beigefügt. Es kann aber auch beim Kaleidoscriptum-Verlag berstellt werden (www.kaleidoscriptum-verlag.de)

blackout




Der Januar verweigert sich der CO2-Klima­erwärmung.

Der Januar 2021 zeigte sich in Mittel- und Süddeutschland als kalter Wintermonat. In den Alpen und im Vorland wieder mal mit reichlich Schnee. Der Niederschlag lag reichlich über den Vergleichsjahren und die Sonnenstunden deutlich darunter. Auffallend waren auch die Messstationen über 700 m, die zu ihrem eigenen Mittel deutlich kälter ausfielen.

Wir fragen uns natürlich, wo sich dieser Januar 2021 mit seinen 0,6°C in die bis 1881 zurückreichende Klimareihe Deutschlands einreiht und wie sich der Monat langfristig entwickelt hat. In früheren Beiträgen hatten wir die freilich subjektive Aufteilung längerer Messreihen in Klimasprünge oder Entwicklungsphasen diskutiert.

Wir wählen zunächst DWD-Betrachtungszeitraum seit 1881 und erkennen sofort in Grafik 1, dass die kleine Eiszeit in Mitteleuropa eigentlich erst um 1900 endete. Einzuwenden wäre natürlich, dass um 1900 ein ganz anderes Deutschland mit anderen Grenzen bestand und die Wetterstationen samt ihren Daten von damals mit den heutigen nur bedingt vergleichbar sind. Deutschland hatte damals 104 Einwohner pro Quadratkilometer; heuer sind es mit etwa 220 gut doppelt so viele, was erwärmend wirkte. Die Wetterstationen stehen heute in den von Menschen geschaffenen Wärmeinseln und damals gab es noch typische ländliche Stationen bei Klöstern oder Forsthäusern am Waldrand oder bei frei stehenden Gutshöfen. Diese menschengemachte Erwärmung durch Einwohnerzunahme, geänderte Flächennutzung und Versetzten der Stationen an wärmere Orte lassen wir zunächst außer Betracht. Beim Monat Januar sehen die vom Deutschen Wetterdienst aneinandergereihten Einzelwerte so aus:

Abbildung 1: Der Januar seit 1881 in Deutschland zeigt drei Entwicklungsphasen: Er erwärmte sich zwischen 1881 und 1921 stark, was man als letzte Erholungsphase der endenden „Kleinen Eiszeit“ interpretieren kann. In der zweiten Phase streuten die Einzelwerte am stärksten bei insgesamt minimaler Abkühlung; in diese fallen die kalten Kriegs-Januare 1940 bis 1942 oder 1963, als der Bodensee einfror, aber auch extrem milde wie 1936, 1975 oder 1983. Diese Phase endet mit dem sehr kalten Januar 1987; danach (Klimasprung) fehlten sehr kalte Januare, aber insgesamt kühlte es sich seit 1988 wieder minimal ab. Mit der kontinuierlich und immer stärker steigenden CO2-Konzentration (grüne Kurve) lassen sich diese drei Phasen und auch die Temperaturentwicklung insgesamt nicht erklären – der größte Temperaturanstieg fand zu der Zeit statt, als die CO2-Werte kaum anstiegen, und momentan sinken die Temperaturen bei am stärksten steigenden CO2-Werten.

Betrachten wir nun den Zeitraum der beiden letzten Temperatursprünge isoliert:

Abbildung 2: Der Betrachtungszeitraum zeigt, ausgehend von zwei warmen Januarjahrzehnten, eine leichte Temperaturabnahme, wobei die drei Kriegs-Januare 1940 bis 1942 herausragend kalt waren.

Im Jahre 1987 auf 1988 setzte auch beim Monat Januar ein Temperatursprung auf ein höheres Niveau ein, auf dem wir uns heute noch befinden.

Abbildung 3: 1987 auf 1988 erreichte der Januar mit einem Temperatursprung ein höheres Wärmeniveau, ein Plateau, das seitdem anhält.

Zur besseren Vergleichbarkeit legen wir die beiden Grafiken mit gleichen Intervallen nebeneinander:

Abbildung 4: Seit 1988 wurde der Januar durch einen Temperatursprung von etwa 1,5°C wärmer. Dieser Temperatursprung ist auch zugleich etwa der Unterschied zwischen dem alten Vergleichswert 1961/90 und dem neuen 1991 bis 2020

Die CO2– Zunahme in der Atmosphäre: starker Anstieg

Gebetsmühlenartig werden CO2 und Klimaerwärmung in Zusammenhang gebracht.

Wir gehen von einer erheblichen CO2-Konzentrationszunahme aus, ob diese jedoch ausschließlich anthropogenen Ursprunges ist, wollen wir nicht diskutieren, sondern lediglich die behauptete starke CO2-Kimasensitiviät anhand des Artikels in Frage stellen – siehe Abbildung 1.

Wir stellen fest:

1) Die CO2-Kurve der Konzentrationszunahme zeigt im Vergleich zur Entwicklung der deutschen Januartemperaturen keinerlei Ähnlichkeit. Im Gegenteil: Nach dem letzten Januartemperatursprung nehmen die DWD-Januartemperaturen wieder leicht ab.

2) Auch für den Temperatursprung im Jahre 1987 auf 88 kann CO2 nicht verantwortlich sein, das wird allerdings auch nicht behauptet. Der Temperatursprung auf ein wärmeres Plateau hat somit ausschließlich natürliche Ursachen (Zirkulationsverhältnisse – mehr Westwetterlagen bei positiven NAO-Werten).

Der Mensch wirkt mit bei der Klimaveränderung durch Wärmeinseleffekte (WI). Klima verändert sich seit 4 Milliarden Jahren. Von Interesse wäre der Temperaturverlauf ohne die wärmenden menschlichen Veränderungen bei den Stationen. Vor allem in den letzten vier Jahrzehnten hat sich die Bebauung in die einst freie Fläche hinein erweitert, derzeit um 50 Hektar täglich und innerhalb der Städte und Gemeinden werden Baulücken weiter geschlossen, damit die Flächenerweiterung ins Umland – eigentlich eine Naturzerstörung – rein statistisch geringer ausfällt, was die Politik uns dann wieder als Naturschutz andrehen will. Im Winter wärmt zusätzlich die Abwärme der Industrie, der Haushalte und des Verkehrs, die Siedlungen und deren näheres Umfeld auf. Im Umland heizen „Biogas“-, Solar- und Windkraftanlagen ebenfalls. Insgesamt sind die WI- Effekte nach unseren bisherigen Untersuchungen im Winter aber etwas geringer als in den Frühjahrs- und Sommermonaten.

Kurzum, bei den Messstationen des DWD hat der Wärmeeintrag, bedingt durch die Bebauungsveränderungen zugenommen und die Thermometer der Stationen messen diese Zusatzwärme aus den sich vergrößernden Wärmeinseln mit. Natürlich gibt es auch Stationen mit geringen wärmenden Veränderungen. Eine solche wäre in Amtsberg-Dittersdorf südlich von Chemnitz, deren Temperaturverlauf wir in der Grafik 5 wiedergeben.

Abbildung 5: Die Wetterstation in einem Vorort von Amtsberg, am Fuße des Erzgebirges zeigt seit 1988 eine kräftigere Abkühlung als die DWD-Deutschlandtrendlinie.

Ähnlich verhalten sich auch viele andere WI-arme Stationen wie Rosenheim, Memmingen, Alfhausen und Netzstall und dergleichen mehr. Daneben gibt es natürlich auch WI-belastete Stationen, deren Umfeld sich seit 1988 durch menschliche Bebauung stark verändert hat. Als Beispiel soll hier die einst ländliche Wetterstation Hof im Vergleich zu Netzstall einem Aussiedlerhof bei Nürnberg gezeigt werden.

Abbildung 6: Die WI-belastete Wetterstation Hof zeigt seit 1988, dem letzten Temperatursprung, keine Abkühlung – sie wurde in ein Gewerbegebiet eingemauert – dagegen die nicht sehr weit entfernte Station Netzstall schon. Anzumerken ist allerdings, dass der DWD die Station Netzstall vor etwa 15 Jahren von einem Außenbezirk Nürnbergs zum Aussiedlerhof versetzt hat; dort ist es etwas kühler.

Höher gelegene Wetterstationen: Noch stärkere Januarabkühlung – warum?

Abbildung 7: Die Wetterstation Zugspitze zeigt eine sehr starke Januarabkühlung in den letzten 34 Jahre

Der Feldberg im Schwarzwald, knapp unter 1500 m NN

Abbildung 8: Der Feldberg in Ba-Wü zeigt gleichfalls eine starke Januarabkühlung, obwohl dort die CO2-Konzentrationen wie überall in Deutschland um etwa 70 ppm im Betrachtungszeitraum gestiegen sind.

Der Hohenpeißenberg im Allgäu, knapp unter 800 m NN

Abbildung 9: Selbst der Hohenpeißenberg zeigt eine deutliche Januarabkühlung

Deutlich zeigt sich diese offenbar durch höhenkalte Luft bedingte Januar-Abkühlung auch an den Daten des Amerikanischen Wetterdienstes NOAA für den Sektor Deutschland, und zwar selbst dann, wenn die Reihe mit dem wegen starker, dynamischer Antizyklonen sehr warmen Januar 2020 endet (das NOAA-Flächenmittel für Januar 2021 lag zu Redaktionsschluss noch nicht vor; er war extrem stark von höhenkalter Luft bestimmt). Näheres zum ungewöhnlichen Januar 2020 hier und zur Höhen-Abkühlung im Januar hier.

Abbildung 10: Während sich die Januar-Temperatur in den bodennahen Luftschichten (1000 hPa-Niveau) kaum abkühlte, ist über der Grundschicht eine deutliche Abkühlung zu verzeichnen – trotz des in der Höhe extrem milden Januars 2020, mit dem diese Reihe endet. Sie zeigt sich auch noch in der mittleren Troposphäre (500 hPa).

Ein Wetterkartenbeispiel vom 25. Januar 2021 zeigt die Höhenkaltluft, welche für reichlich Schnee und Kälte in den Mittel- und Hochgebirgen sorgte:

Abbildung 11: Höhenkalte Subpolar- und Arktikluft (mA, xP, mP) bestimmte im Januar 2021 oft das Wetter und sorgte für ergiebige Schneefälle mitunter gar bis ins Flachland. Man erkennt die Höhenkälte an dem niedrigen Geopotential, das von Ostgrönland über Skandinavien bis zum Alpenraum reicht (bläuliche Färbung). Bildquelle wetterzentrale.de

Die genauen Ursachen dieser Januar-Höhenabkühlung bedürfen noch einer Erforschung. Möglicherweise hat sie mit dem bevorstehenden Ende der AMO-Warmphase zu tun: Während die Randmeere Ost- und Nordsee durch die endende AMO-Warmphase (noch) recht warm sind, stellen sich die Zirkulationsverhältnisse in höheren Luftschichten bereits auf Abkühlung um, die später auch die bodennahen Luftschichten erfasst – ob das so eintritt, kann aber nur die Zukunft zeigen.

Zwischenergebnis der Januar-Temperaturbetrachtung:

1) Bei WI-belasteten Stationen wie Hof, München, Frankfurt sind sie gleich geblieben.

2) Seit 1988 sind die Januartemperaturen im DWD-Mittel leicht, aber nicht signifikant gefallen.

3) Bei WI-armen Stationen sind sie stärker gefallen.

4) Bei Höhenstationen ab 800m und aufwärts erleben wir eine viel stärkere Januarabkühlung, der Grund ist niedrigeres Geopotential mit höhenkalter Luft.

Ein Wonnemonat Januar oder gar eine bevorstehende Erwärmungskatastrophe mitten im Winter ist überhaupt nicht in Sicht. Die Trendlinie lässt eher gegenteiliges vermuten. Das Klimamonitoring des DWD zusammen mit den zwei Umweltministerien Bayerns und Baden-Württembergs im Herbst 2016 war ein Treffen der Märchenerzähler, genauso wie das Falschorakel eines Mojib Latif im Jahre 2000, dass Deutschland keine Winter und keinen Schnee mehr erleben wird. Oft argumentiert die meist nicht naturwissenschaftlich ausgebildete Führungsriege des DWD gegen die eigenen Daten. Wie lange werden sich das die Fachleute in der zweiten Reihe des DWD und all die Stationsleiter außerhalb der Städte noch gefallen lassen müssen?

Wohin geht der Januartrend in Deutschland?

Nach unten, er wird lediglich durch die vom Menschen verursachten WI-Effekte und die AMO-Warmphase gebremst. Jedoch werden kalte Januarnächte einfach aus den Siedlungen hinaus geheizt.

Ist vielleicht Deutschland eine Ausnahme oder gar ein Sonderfall? Wird nur bei uns der Januar kälter? Wir werfen einen Blick in die USA, zur Dale-Enterprise Weather Station in Virginia, der ältesten Wetterstation in diesem Bundesstaat. Die Station hat den Vorteil, dass sie noch ländlicher und noch einen Tick wärmeinselärmer ist als deutsche Stationen. Das Wetterhäuschen steht unverändert bei einer einsamen Farm.

Abbildung 12: Während im WI-belasteten Washington die Januar-Temperatur fast unverändert blieb, kühlte sich das ländliche Dale Enterprise leicht ab. Die CDC-Daten für Januar 2021 lagen noch nicht vor, deshalb endet diese Grafik mit dem 2020er Januar

Auch andernorts finden sich immer wieder Stationen ohne Januar-Erwärmung; abschließend zwei Beispiele:

Abbildung 13: Geringe Januar-Abkühlung in Zentralengland.

Abbildung 14: Im ehemaligen Winter-Olympiaort Sapporo wurde der Januar nicht wärmer. Werte nur bis 2020 verfügbar

Auch in Teilen Sibiriens, in Korea oder in Mittelskandinavien, blieb eine Januar-Erwärmung seit gut 30 Jahren aus; oder es war gar eine Abkühlung zu beobachten. Gerade in Skandinavien verlief der 2021er Januar bitterkalt.

Winter-Nachschlag im Februar?

Wie schwierig „Langfristprognosen“ sind, zeigt ein Vergleich zweier Modell-Läufe des CFSv2 (NOAA) für die erwarteten Temperaturabweichungen im Februar 2021. Der erste Modell-Lauf, endend mit dem 8. Januar 2021, zeigt einen viel zu warmen Februar über ganz Europa. Nur drei Wochen später kommt das „Modell“ zu einem gänzlich anderen Ergebnis, und die Mittelfrist-Modelle sowie der Witterungscharakter Ende Januar lassen gar noch Spielraum für zeitweise Februar-Kälte in ganz Mitteleuropa; die genaue Entwicklung bleibt freilich unsicher, zumindest etwa südlich des 53. Breitengrades verlaufen die ersten Februar-Tage noch sehr mild:

Abbildungen 15 a und b: Noch in der ersten Januar-Woche (15 a, oben) prophezeite uns das CFSv2 einen sehr milden Februar 2021 über ganz Europa – zum Monatsende sagte es, zumindest in der Nordhälfte Europas, einen kalten Februar vorher. Die Kälte könnte möglicherweise aber auch noch weiter nach Süden reichen – zumindest zeitweise. Bildquellen: NOAA

Fazit: Gerade der Monat Januar zeigt, dass Kohlendioxid keine oder fast gar keine Wirkung auf den Temperaturverlauf haben kann. Sogar stark Wärmeinsel-geprägte Orte wie Frankfurt zeigen eine – wenn auch geringere – Temperaturabnahme.

Die Kohlendioxidzunahme hat in den letzten 34 Jahren beim Januar keine Erwärmung bewirkt, für die leichte Abkühlung gibt es hingegen viele Gründe.

Die ständige Zunahme der Wärmeinseleffekte sind der einzige menschengemachte Temperaturtreiber. Eine Einwirkung mittels CO2 gibt es nicht, das zeigen auch alle wissenschaftlich sauber durchgeführten Versuche.

Wollen wir den menschengemachten Anteil an der Erwärmung bekämpfen, dann müssen wir im Winter weniger heizen und den Lebensstandard wieder auf das Niveau des Mittelalters Jahre zurückfahren. Wollen wird das?




Die Kosten für den Wiedereintritt der USA zu dem Pariser Klimaabkommen

Das Pariser Klimaabkommen ist ein unmoralisches, selbstzerstörerisches Abkommen, das die USA auf dem Papier kurzfristig zu enormen Produktivitätsverlusten und langfristig zu totaler wirtschaftlicher Zerstörung verpflichtet. Leider ist Joe Bidens Plan, die Pariser Abkommen umzusetzen, weitaus schlimmer.

  1. 2015 verpflichtete die Regierung Obama / Biden die USA ohne Genehmigung des Senats zu den Pariser Klimaabkommen. In den Abkommen wurde eine Reduzierung der Emissionen um 28% bis 2025 und eine Reduzierung der Emissionen um mindestens 80% bis 2050 gefordert.
  2. Die Kosten von Obamas Pariser Klima Engagement wären enorm gewesen. Die überparteilichen National Economic Research Associates kamen zu dem Schluss, dass Obamas Plan bis 2040 einen steigenden wirtschaftlichen Schaden verursachen würde, der 2 Billionen US-Dollar pro Jahr erreicht – etwa 15.000 US-Dollar pro Haushalt.
  3. Die Kosten von Obamas Pariser Plan für Industriearbeiter wären besonders hoch gewesen. Die überparteilichen National Economic Research Associates NERA [Beratendes Wirtschaftsinstitut,  ähnlich ifo München] kamen zu dem Schluss, dass Obamas Plan bis 2040 6,5 Millionen amerikanische Industriearbeitsplätze zerstören würde. [was große Gegenstellungnahmen der MSM hervorrief]
  4. Der Pariser Klimaplan von Joe Biden ist weitaus belastender als der von Obama: Die Beseitigung der CO2-Emissionen aus Elektrizität bis 2035 und die Beseitigung aller CO2-Emissionen bis 2050. Tatsächlich ist dies unmöglich, da alle industrielle Energieanwendungen viel fossilen Brennstoff verbraucht, für Bergbau, Transport und Hoch –Temperatur Prozesse.
  5. Obwohl Bidens Emissionsminderungsziele nicht erreicht werden können, wäre der Versuch, sie zu erreichen, verheerend. Einer von Bidens Plänen sieht vor, die Amerikaner zu zwingen, 2 Billionen US-Dollar – 15.000 US-Dollar pro Haushalt – zu zahlen, um ein Stromnetz allein auf Solar und Wind zu erbauen, das nicht funktionieren kann.
  6. Für das unmögliche Ziel „Netto-Null bis 2050“ sind keine Kostenschätzungen möglich. Aber die einzige Nation, die überhaupt eine unabhängige Kostenschätzung versuchte, Neuseeland, berechnete 16% des BIP – das entspricht 5 Billionen US-Dollar pro Jahr in den USA. Das sind ungefähr 30.000 Dollar pro Haushalt.
  7. Selbst 30.000 USD pro Haushalt und Jahr sind eine Unterschätzung für Bidens Pariser Klimaplan, da davon ausgegangen wird, dass er nach den kostengünstigsten Möglichkeiten zur Emissionsreduzierung suchen wird. Aber bereits am ersten Tag * erhöhte * Biden die Emissionen, indem er eine Pipeline stoppte, womit die Emissionen reduziert und mehr als 10.000 Arbeitsplätze geschaffen worden wären.
  8. Hier finden Sie eine vollständige Aufschlüsselung, warum der Beitritt zu den Pariser Klimaabkommen unamerikanisch und unmoralisch ist.

Jede ordnungsgemäße Entscheidung zum Abschluss eines internationalen Abkommens der USA muss drei Bedingungen erfüllen:

  • Sie muss verfassungsrechtlich sein.
  • Es muss den Vereinigten Staaten zugutekommen.
  • Es muss legal sein. Joe Biden, der ohne Genehmigung des Senats wieder in die Pariser Klimaabkommen eintritt, verletzt alle 3. Punkte.

Weitere Kommunikation finden Sie auf

 

Alexander Joseph Epstein ist ein US-amerikanischer Autor, Energietheoretiker und Experte für Industriepolitik. Er ist Gründer und Präsident des Center for Industrial Progress, einer gemeinnützigen Organisation in San Diego, Kalifornien.

Kommentar erhalten mit News Letter vom 27.01.2021

https://industrialprogress.com/the-cost-of-rejoining-the-paris-climate-accords/

Übersetzt durch Andreas Demmig




Mit der Übernahme der Energiepolitik durch Sozialisten werden die Energiepreise drastisch steigen!

Uns wird gesagt, dass große Änderungen in unserer Energiepolitik notwendig sind, um von Kohlenstoff-basierten fossilen Brennstoffen zu Wind und Sonne überzugehen, um den Planeten vor der Kohlenstoff-Verschmutzung und den daraus resultierenden katastrophalen Klimaveränderungen zu retten. Man sagt uns, dass grüne Energie uns Geld sparen wird, weil Sonne und Wind kostenlos sind, und dass das Entfernen von Kohlendioxid aus der Luft Leben retten wird. Jede dieser Behauptungen ist durch Beispiele aus der realen Welt leicht zu widerlegen. Die Wissenschaft dahinter ist absolut fehlerhaft, und die Maßnahmen führen zu genau den gegenteiligen, kostspieligen und sogar gefährlichen Ergebnissen.

Was ignoriert wird, ist der Mangel an globalen Daten, liegen doch Daten hauptsächlich nur aus den USA und Europa sowie Teilen Australiens vor. Über den Ozeanen gibt es nur sehr wenige Daten, obwohl sie 71% der Erdoberfläche bedecken.

Bei den ersten Versuchen, globale Trends zu bewerten, wurde erkannt, dass die Datenlage ein Problem darstellt, und die Analyse beschränkte sich auf die Landgebiete der nördlichen Hemisphäre. Sie zeigte starke Erwärmungs- und dann Abkühlungstrends von den 1880er bis zu den 1970er Jahren.


Im Laufe des 20. Jahrhunderts nahm die Anzahl der Stationen zu.

Man erkennt im US-Datensatz mit der höchsten Dichte und der am weitesten zurück reichenden Reihe, dass sich die Temperaturen mit CO2 nur in 40% der Zeit in die gleiche Richtung verändert haben.



In den 1980er Jahren begannen Satelliten, die Oberflächentemperaturen der Ozeane zu messen, wenn es die Wolken zuließen, und später, nach 2000, lieferte ein Netzwerk globaler Bojen genaue Ozeantemperaturen in Echtzeit. Es war das erste Mal, dass wir eine echte globale Abdeckung beanspruchen konnten, aber es entwickelten sich andere Probleme. Modelle wurden integriert, und wenn man unterschiedliche Daten mit Modellen kombiniert, kommt häufig Unsinniges heraus. Wir haben die globalen Datenprobleme hier und vor langer Zeit hier diskutiert.

Eine genaue, begutachtete Analyse hier konnte nicht feststellen, dass die stetig steigenden atmosphärischen CO2-Konzentrationen eine statistisch signifikante Auswirkung auf eine der 13 analysierten entscheidenden Temperatur-Zeitreihen hatten.

Niemand bezweifelt, dass sich das Klima in multidekadischen und noch längeren Zyklen ändert, die mit der Sonne und den Ozeanen zusammenhängen und von denselben gesteuert werden. Was die Behauptungen betrifft, dass die Wetterextreme mit der Erwärmung der Erde zunehmen, so können sie leicht mit realen Daten und natürlichen Faktoren widerlegt werden, wie wir es hier getan haben.

Eine der größten Bedrohungen für die Wirtschaft unseres Landes werden die in die Höhe schießenden Energiekosten und dadurch der weitere Verlust von Arbeitsplätzen sein, wobei die Wirtschaft bereits von Schließungen und COVID und radikalen Unruhen im Zusammenhang mit dem Scheitern kleiner Unternehmen taumelt. In diesem Land sind die Vorboten davon in den Staaten mit frühen grünen Energieverpflichtungen und Kohlenstoffreduktion oder versteckten Steuern. Kalifornien ist das bekannteste Beispiel, aber der Nordosten (rot in der Tabelle) mit der Regional Greenhouse Gas Initiative RGGI weist die mit Abstand höchsten Strompreise auf.

[Hervorhebung vom Übersetzer]


Weltweit sind die durchschnittlichen Strompreise unserer Bundestaaten am niedrigsten. In den grünen Staaten mit starken Investitionen in „grün“ liegen sie jedoch bis zu 5 mal höher. Bundesstaaten mit einem hohen Anteil Erneuerbarer sind von Stromausfällen und Blackouts betroffen (Kalifornien führt die Staaten an, da Blackouts während der Bedrohung durch Flächenbrände implementiert werden). Global gesehen sind Blackouts und Stromausfälle üblich, da Wind und Sonne nicht zuverlässig sind. Die hohen Stromkosten treiben die Industrie in Länder wie China und Indien, wo die Kosten niedrig sind, weil dort zur Energieerzeugung zuverlässige und billige Kohle verwendet wird.


Der Ökonom Gabriel Calzada, Professor der Ökonomie an der King Juan Carlos University in Spanien, schätzte 2010, dass jeder geschaffene grüne Arbeitsplatz Spanien 774.000 Dollar an Subventionen kostete. Dies führte jedoch zu einem Verlust von 2,2 realen Arbeitsplätzen. Nur 1 von 10 grünen Arbeitsplätzen war dauerhaft. Die Industrie verließ Spanien und die Arbeitslosigkeit stieg auf 27,5 %. In Italien gingen 3,4 reale Arbeitsplätze verloren.

Die Energiekosten beschränken sich nicht auf Strom, da die Abschaffung fossiler Brennstoffe zu einem erzwungenen Übergang zu Elektroautos führen würde, was die Nachfrage nach Strom weiter erhöht. Obama ließ die Benzinpreise auf 5 Dollar [pro Gallone ≈ 4 Liter] steigen und prophezeite, dass innerhalb von 2 Jahren jeder ein Elektroauto fahren würde, da seine Regierung 8 Dollar [pro Gallone] Benzin vorhersagte. Stattdessen – dank Fracking und dann mit der durch COVID erzwungenen Arbeit von zu Hause aus sanken die Benzinpreise auf 2 Dollar oder niedriger während Trumps Amtszeit, als wir endlich echte Energieunabhängigkeit erreicht hatten.


Viele „grüne“ Länder waren gezwungen, die Umstellung auf „grün“ zu verlangsamen oder sogar zu stoppen und Kohlekraftwerke zu bauen, um Energie zu liefern, wenn die Sonne nicht scheint oder der Wind nicht weht.


Wenn der Strom ausfällt, sind die Menschen der Gefahr durch Winterkälte ausgesetzt. Die Gefahr, die mit der Falschbehauptung „Hitze tötet“ verbunden ist, besteht darin, dass kaltes Wetter 20 mal so viele Menschen tötet wie heißes Wetter. Dies ergab eine internationale Studie, die über 74 Millionen Todesfälle an 384 Orten in 13 Ländern analysierte. Die Ergebnisse wurden in der Zeitschrift Lancet veröffentlicht. Viele Haushalte sollen sich in „Energiearmut“ befinden (25% Großbritannien, 15% Deutschland). Ältere Menschen sind gezwungen, „zwischen Heizung und Essen zu wählen“, während sie in ihren Mänteln und Pullovern in ihrer Wohnung sitzen.


In Kanada, den USA und in UK ist die Wintersterblichkeit.


Völlig eindeutig ist, dass die am meisten geschädigten Menschen diejenigen sind, die sich das am wenigsten leisten können. Haushalte mit einem Einkommen unter 20.000 Dollar pro Jahr geben über 40% ihres Einkommens für Energie aus.

„Den Armen helfen heißt Energie billiger machen. – Die Armen schädigen heißt Energie teurer machen“

Das Global Energy Institute der Handelskammer kommt zu dem Schluss, dass „ein Verbot von Fracking in den USA – einfach gesagt – katastrophal für unsere Wirtschaft wäre.

Unsere Analyse zeigt, dass falls ein solches Verbot im Jahr 2021 verhängt werden würde, bis zum Jahr 2025 19 Millionen Arbeitsplätze vernichtet und das Bruttoinlandsprodukt (BIP) der USA um 7,1 Billionen Dollar reduziert werden würde. Der Verlust von Arbeitsplätzen in den großen Energie erzeugenden Staaten wäre unmittelbar und schwerwiegend; allein in Texas würden mehr als drei Millionen Arbeitsplätze verloren gehen. Die Steuereinnahmen auf lokaler, bundesstaatlicher und föderaler Ebene würden um insgesamt fast 1,9 Billionen Dollar sinken, da das Verbot eine wichtige Finanzierungsquelle für Schulen, Rettungsdienste, Infrastruktur und andere wichtige öffentliche Dienste abschneidet.

Auch die Energiepreise würden bei einem Fracking-Verbot in die Höhe schießen. Die Erdgaspreise würden um 324 Prozent in die Höhe schnellen, wodurch sich die Energierechnungen der Haushalte mehr als vervierfachen würden. Bis 2025 würden Autofahrer an der Zapfsäule doppelt so viel bezahlen (5 Dollar pro Gallone +).“

In den letzten Jahren hat [das Einkommen eines] Durchschnittshaushaltes dank niedriger Steuern, rekordverdächtig niedriger Arbeitslosigkeit und billiger Energie im Schnitt um 4500 Dollar pro Jahr und Familie zugelegt. Jetzt werden die Kosten aufgrund von politisch bedingten Erhöhungen für Strom, Heizstoffe und Benzin drastisch steigen – Familien werden bis 2024 Verluste von bis zu 10.000 Dollar pro Jahr erleiden. Die Arbeit von zu Hause aus würde dies für die unmittelbare Zukunft etwas begrenzen, aber es ist klar, dass der erzwungene Wechsel zu grüner Energie mit einem enormen Preis verbunden ist. Das gilt selbst noch vor Berücksichtigung der enormen Materialkosten für den Bau von Turbinen und Solarparks. Es wurde sogar von einem Biden-Beauftragten vorgeschlagen, dass wir die Wind- und Solaranlagen in den wunderschönen Nationalparks des Landes errichten.

Ich habe einflussreiche Freunde und Führungskräfte in vielen Ländern auf fünf Kontinenten, in denen die Grünen gewütet haben. Sie haben unser Land beneidet und gehofft, dass ihre Länder unseren Vorteil sehen und unseren Ansatz übernehmen würden. Sie sind schockiert, dass unser Land nicht erkannt hat, wie gut wir es haben. Ein Freund schrieb auf einer anderen Seite: „… Wir stehen am Rande des Abgrunds. Ein Biden-Regime wird das Ende der Freiheit sein. Europa und Kanada sind bereits weit auf dem „Weg der Armut nach Venezuela“ voran gekommen. Falls Amerika fällt, wird es nirgendwo mehr etwas geben, wohin man fliehen kann.“

Link: http://icecap.us/index.php/go/joes-blog vom 19. Januar 2021
Übersetzt von Chris Frey EIKE

 




BLACKOUT – kleines Handbuch zum Umgang mit einer wachsenden Gefahr – Folge 3

Bild 6: Typisches Schadensbild an den vom Eis überlasteten Hochspannungsmasten im Münsterland 2005 (Quelle. WDR)

Den „größten Stromausfall der deutschen Nachkriegsgeschichte“ hat jedoch die Schneekatastrophe zum Jahreswechsel 1978/79 verursacht – wenn die DDR dabei mit betrachtet wird. Dort waren die Folgen geradezu dramatisch, und so nahm die Katastrophe ihren Lauf:

Das Szenario: In der Nacht vom 28. zum 29. Dezember stürzt im Norden der DDR die Temperatur von zehn Grad über Null auf minus zwanzig Grad. Die nördlichen Bezirke versinken bei gefrierendem Regen binnen weniger Stunden unter einem dicken Eispanzer, dann setzt dort ein dreitägiger Schneesturm ein. Während Erich Honecker zu einem Freundschaftsbesuch nach Afrika aufbricht und seine Minister sich schon zur Silvesterfeier verabschieden, dringt die Kaltfront nach Süden vor und legt dabei den Arbeiter- und Bauernstaat lahm. Bei der Bahn frieren die Weichen ein, Züge mit festgefrorener Braunkohle können nicht mehr entladen werden, und bei minus zwanzig Grad müssen die Braunkohlentagebaue ihre Förderung einstellen. Weil die Energieversorgung auf ständigen Nachschub angewiesen ist, gerät das Stromnetz der DDR immer mehr aus dem Takt. In den Energiekombinaten Thüringens wird schließlich die „Geheime Verschlusssache“ geöffnet; sie enthält den Befehl zur Abschaltung aller Verbraucher – der Süden der DDR versinkt ausgerechnet in der Silvesternacht in völliger Dunkelheit. Die komplette Stromversorgung kann dort erst nach Tagen wiederhergestellt werden.

Dass der „Jahrhundertwinter“ 1978/79 die DDR viel schwerer traf als die damalige Bundesrepublik, war vor allem ihrer fast vollständigen Abhängigkeit von der Braunkohle als Energieträger geschuldet. Zudem gab es keine Vorsorge für den Eintritt eines solchen Ereignisses. Andererseits wurden dessen Folgen sowohl durch eine gewisse, dem Sozialismus systemimmanente Bevorratungsmentalität der Bevölkerung gemildert, als auch durch die im Vergleich zu heute noch sehr geringe Abhängigkeit vom elektrischen Strom.

Der weltweit größte durch ein Extremwetterereignis verursachte Blackout ereignete sich im Januar 1998 in der kanadischen Provinz Quebec. Warme Luftmassen hatten tagelang über kalten Schichten gelegen, bis es am 7. Januar plötzlich zu Niederschlägen kam, die noch gefroren, bevor sie den Boden erreichten. Das ganze Land wurde durch eine Eisschicht praktisch versiegelt. Bäume waren auf einmal von einer mehr als vier Zentimeter starken Glasur bedeckt und knickten wie Streichhölzer. Und die Masten der Hochspannungsleitungen taten es ihnen nach.

Die kleine Auswahl wetterbedingter Gefahrensituationen für das Stromnetz soll durch ein Ereignis abgeschlossen werden, bei dem am 28. März 2012 in Ostdeutschland ein Blackout für das Verbundnetz gerade noch verhindert werden konnte. An diesem Tag herrschte ein außergewöhnlich hohes Angebot an regenerativem Strom, vor allem aus Windenergieanlagen. Die Netzbetreiber waren durch das seit 1991 geltende Stromeinspeisungsgesetz (2000 abgelöst durch das Erneuerbare-Energien-Gesetz) zu seiner Abnahme verpflichtet. Nur die zu gewährleistende Netzstabilität setzte dieser Verpflichtung Grenzen. Am Abend des 28. März fiel die 380 kV-Hochspannungsleitung von Wolmirstedt nach Helmstedt aus; damit standen nur noch zwei Leitungen für den Leistungsausgleich zwischen alten und neuen Bundesländern zur Verfügung. Die im Osten erzeugte Leistung mit einem großen Anteil von Windstrom aus dem Norden konnte nicht mehr ausreichend abgeführt werden, als Folge erhöhte sich die Netzfrequenz. Die daraufhin vorgenommene massive Reduzierung von konventioneller und schließlich auch regenerativer Stromerzeugung von mehreren Tausend Megawatt vermochte diese bedrohliche Entwicklung nicht zu beenden; die Frequenz stieg immer weiter an. Gegen 20.00 Uhr stand das Netz kurz vor der bei 51,5 Hz zu erwartenden Notabschaltung. Rettung brachte schließlich die Schaltung der Pumpspeicherwerke Goldisthal (Thüringen) und Markersbach (Sachsen) auf die Funktion „Pumpen“. Binnen weniger Minuten stieg ihre Leistungsentnahme aus dem Netz auf 2.400 Megawatt – der Blackout mit hoch wahrscheinlich länderübergreifenden Auswirkungen konnte gerade noch vermieden werden.

Heute scheint diese überaus wichtige Fähigkeit der Pumpspeicherwerke zur Netzstabilisierung im Bewusstsein der Politik nicht mehr existent zu sein /30/.

4.4 Menschliches Versagen

Im Stromnetz laufen bestimmte Stabilisierungsmaßnahmen automatisch ab; andere erfordern planvolles menschliches Agieren unter Beachtung von sehr komplexen Bedingungen. Das beginnt mit der auch als „Dispatch“ bezeichneten, unter Punkt 2 beschriebenen Einsatzplanung der Kraftwerke auch für den Folgetag auf der Basis von Prognosen für die benötigte Leistung sowie die Erzeugung von regenerativem Strom. „Redispatch“ sind dann tagesaktuelle Eingriffe in die Erzeugungsleistung von Kraftwerken zur Vermeidung von Überlastungen. Wenn z. B. die Überlastung einer Leitung befürchtet wird, müssen vor dem Engpass befindliche Kraftwerke heruntergefahren werden, während die Leistung der dahinter befindlichen gesteigert wird. Sowohl Dispatch als auch Redispatch erfordert sorgfältige Abstimmungen zwischen mehreren Partnern.

Dass diese anspruchsvolle Tätigkeit nicht immer gut geht, zeigen mehrere Beispiele. So fiel In der Nacht des 28. September 2003 in ganz Italien um 3.27 Uhr der Strom aus, je nach Landesteil für bis zu 18 Stunden. Die Ursache dafür lag nicht in Italien, sondern in der Schweiz. Dort war eine Stromleitung durch eine menschliche Fehlentscheidung überbeansprucht worden und versagte – mit der Folge, dass 57 Millionen Menschen stundenlang ohne elektrische Energieversorgung waren.

Ein besonders markantes und auch lehrreiches Beispiel ist mit dem Kreuzfahrtschiff „Norwegian Pearl“ verbunden, das am 4. November 2006 auf der Ems die Meyer-Werft in Papenburg verließ. Dabei musste aus Sicherheitsgründen die den Fluss querende 380 kV-Hochspannungsleitung abgeschaltet werden, wie es schon etwa 20 Mal zu gleichen Anlässen geschehen war. Doch diesmal saßen nach der Abschaltung plötzlich zehn Millionen Menschen in Westeuropa ohne Strom da. Teile von Deutschland, Belgien, Frankreich, Österreich, Italien und Spanien waren betroffen. In kaskadenartiger Weise pflanzte sich die Störung fort; das Europäische Verbundnetz zerfiel in Teilnetze, welche glücklicherweise relativ rasch stabilisiert und dann wieder miteinander synchronisiert werden konnten, so dass dieser Blackout nur rund zwei Stunden dauerte. Sein Ablauf bestätigte die allgemeine Einschätzung des BBK (in /13/ auf S. 84): „Im Stromnetz entwickeln sich großflächige Ausfälle durchaus kaskadenartig: Ausgehend von der ursprünglich lokalen Störung können Blackouts entstehen, die sich über die Regelzonen in der Fläche fortsetzen. Demgegenüber ist aber auch ein flächendeckender Ausfall denkbar, der durch mehrere Einzelausfälle bedingt ist.“

Die Schuld an dem ziemlich kostenträchtigen, von der 380 kV-Leitung über die Ems ausgehenden Störfall wies der Netzbetreiberverband UCTE nach einer Untersuchung dem Energiekonzern Eon zu, welcher die Abschaltung vorgenommen hatte. Der konnte sich das Ganze nicht erklären und wollte sogar „höhere Gewalt“ nicht ausschließen. Aber der Schuldvorwurf mit seinen juristischen Folgen blieb an dem Konzern haften. Doch sechs Jahre später legte das Max-Planck-Institut für Dynamik und Selbstorganisation in Göttingen eine verblüffende Erklärung vor, die auf umfangreichen Computersimulationen beruhte: Ursächlich für den Blackout vom November 2006 sei das sogenannte Braess-Paradoxon /8/ gewesen. Dieses erst 1968 von dem deutschen Mathematiker Dietrich Braess eigentlich für das Verkehrswesen postulierte Paradoxon besagt, dass in der Verkehrsführung eine zusätzliche Straße unter Umständen eine Verschlechterung des Verkehrsflusses bewirkt. Es lässt sich auch auf Stromflüsse in elektrischen Leitungen anwenden: Die Installation einer neuen Leitung kann zu vorher nicht vorhandenen Engpässen im System führen. Für den zuständigen Eon-Dispatcher war es am 4. November 2006 natürlich nicht möglich, eine umfangreiche Computersimulation der Netzführung vorzunehmen.

Die Erklärung des Max-Planck-Instituts führt schlaglichtartig vor Augen, welchen Grad der Komplexität unser Stromnetz erreicht hat und mit welchem Risiko deshalb menschliche Eingriffe verbunden sein können (s. dazu auch Punkt 6).

In Anbetracht der möglichen Folgen eines Blackouts sollte die Zahl der menschlichen Eingriffe also möglichst verringert werden, doch ist das Gegenteil der Fall, wie Bild 7 zeigt. Damit steigt unbestreitbar die Eintrittswahrscheinlichkeit für einen durch menschliches Fehlverhalten verursachten Blackout. Und noch etwas ist bei der Retrospektive auf das nunmehr fast 14 Jahre zurückliegende Ereignis festzustellen: Heute wären seine Auswirkungen schwerer und die Zeit bis zur Wiederherstellung der Funktionsfähigkeit des Netzes länger. Denn inzwischen ist unsere Abhängigkeit von elektrischem Strom noch vollkommener, das Netz komplexer und die Schwarzstartfähigkeit der Energieerzeuger geringer geworden (s. dazu Punkt 7).

Bild 7: Entwicklung der Zahl von Redispatch-Maßnahmen im Schweizer Stromnetz, das ein Teil des Europäischen Verbundnetzes ist (Quelle: Swissgrid)

4.5. Cyberangriffe

In seinem Buch „Blackout. Morgen ist es zu spät“ lässt der Autor Marc Elsberg das Europäische Verbundnetz durch einen Hackerangriff zusammenbrechen. Wie realistisch ist ein solches Szenario? Einen Hinweis liefert ein Geschehnis, das sich kurz vor Weihnachten 2015 in der westukrainischen Provinz Iwano-Frankiwsk abspielte. 30 Kraftwerke fallen plötzlich aus, worauf eine Viertelmillion Haushalte keinen Strom mehr haben. Wohnungen, Unternehmen und öffentliche Einrichtungen bleiben tagelang ohne Elektrizität. Was sich erst später herausstellte: Es handelte sich bei dem Vorfall um den weltweit ersten großen Stromausfall, der von Hackern verursacht wurde. Nach Aussagen des US-Heimatschutzministeriums hatten von Russland aus agierende Hacker Spear Phishing E-Mails eingesetzt, um sich über einen Schadcode Zugangsberechtigungen zu den Steuerungseinheiten zu beschaffen. Das Programm war in einem manipulierten Word-Dokument enthalten, das als E-Mail des ukrainischen Parlaments getarnt war /9/. Nach der Implementierung des Schadcodes besaßen sie die völlige Verfügungsgewalt über die Energieversorgung.

Es ist denkbar, dass diese Aktion nur ein Scharmützel aus dem schon längst begonnenen kalten digitalen Krieg zwischen Russland und den USA war, bei dem man der anderen Seite zeigen wollte, wozu man ohne weiteres in der Lage ist. Offenbar versuchen beide Großmächte schon seit einiger Zeit, in den IT-Systemen der Kritischen Versorgungsstrukturen des potentiellen Gegners „logische Bomben“ zu platzieren – inaktive Schadprogramme, die im Fall einer „Zündung“ das öffentliche Leben vollständig lahmlegen /10/. Besonders verheerend ist dabei ihre Fähigkeit, alle Daten und Programme des angegriffenen Systems zu löschen, was einen Neustart unmöglich macht.

Aber auch unterhalb der Ebene globaler Auseinandersetzungen tobt bereits ein Partisanenkrieg der Hacker mit unterschiedlichen Motivationen. Wir zitieren dazu aus einer Wirtschaftsdokumentation von 3sat vom 21.06.2019 /11/:

Das Bundesamt für Sicherheit in der Informationstechnik (BSI) warnt immer wieder vor Cyberangriffen auf Energieversorger. „Jeden Tag gibt es tausendfache Anklopfversuche aus dem Internet“, bestätigt auch Florian Haacke, Leiter der Konzernsicherheit bei Deutschlands größtem Stromnetzbetreiber Innogy. In der Essener Konzernzentrale wehren rund 130 Spezialisten solche Attacken ab. Mit ernsten Bedrohungen haben sie es bis zu 40 Mal im Jahr zu tun.
Haacke mahnt zur Wachsamkeit: „Letztendlich zeigen die Vorfälle in der Ukraine, dass es Angreifer oder Angreifergruppen gibt, die über die logistischen und methodischen Fähigkeiten solcher Angriffe verfügen und diese auch tatsächlich in der Praxis umsetzen. Das war tatsächlich eine neue Dimension für den Energiesektor. Und wir sollten auch in Deutschland nicht annehmen, dass es unmöglich ist –
auch unsere Stromnetze sind nicht unverwundbar. Eine hundertprozentige Sicherheit kann es nicht geben.“

Wie sind nun die Perspektiven in dem digitalen Krieg um die Herrschaft im Stromnetz? Die Antwort kann nur lauten: rosig – und zwar für die Angreifer. Denn unserem Netz stehen fundamentale Veränderungen bevor, die seine Verwundbarkeit dramatisch erhöhen werden.

Im Rahmen der Energiewende ist die Umrüstung von einigen Millionen Haushalten auf „Smart Meter“ (intelligente Stromzähler) und deren Integration in „Smart Grids“ (intelligente Netze) vorgesehen. Der Grund dafür ist eine fundamentale Änderung der Versorgungsphilosophie: Wurde bislang die Erzeugung von Elektroenergie an den jeweiligen Bedarf angepasst, hat sich in Zukunft der Verbrauch an die stark schwankende Stromerzeugung aus Wind und Sonne zu adaptieren. Das soll mittels smarter Bauteile wie „Smart Plugs“ (intelligente Steckdosen) oder smarter Lüsterklemmen geschehen. Damit diese kleinen Intelligenzbestien ihre Befehle von zentralen Steuereinheiten erhalten können, bekommt das vorhandene Leitungsnetz eine ganz neue Aufgabe: Es dient nicht mehr nur der Energieversorgung, sondern auch der Übertragung von Informationen – es ist zum Datennetz geworden. Und damit lastet auf ihm plötzlich die ganze Problempalette der Cyber-Sicherheit.

Für technisch versierte Hacker (und das sind leider die meisten), die das Stromnetz mit dem Ziel der Herbeiführung eines Blackout angreifen wollen, eröffnen sich ganz neue Möglichkeiten. Jede dieser smarten Steckdosen oder Lüsterklemmen ist für sie ein potentielles Einfallstor in das Datennetz der Energieversorgung, das ihnen sogar physisch zur Verfügung steht. Natürlich gibt es auf der anderen Seite ernsthafte Bemühungen um Cybersicherheit. Doch bei der Vielzahl der erfolgreichen Angriffe auf Firmen, Kommunen und Behörden gewinnt man den Eindruck, die Angreifer seien den Verteidigern stets einen Schritt voraus. Jüngste beeindruckende Beispiele sind die Hackerangriffe auf das Berliner Kammergericht, welches daraufhin monatelang nicht arbeitsfähig war, /12/ sowie auf die Funke-Mediengruppe.

4.6 Zunahme stochastischer Energien im Netz

Stochastische Größen zeichnen sich durch einen irregulären zeitlichen Verlauf mit großen und raschen Fluktuationen aus. Wind ist eine rein stochastische Energiequelle; der Solarenergie ist ein (weitgehend) deterministischer Anteil der Sonneneinstrahlung auf die Erdatmosphäre überlagert. Die Bruttostromerzeugung in Deutschland wurde 2019 zu 25,2 Prozent aus Windkraft zu 9,5 Prozent aus Photovoltaik gespeist.

Das Erneuerbare-Energien- Gesetz gewährt diesen fluktuierenden Energien Vorrang bei der Einspeisung in das Stromnetz. Doch diese Energien beteiligen sich nicht an der Regelung von Spannung und Frequenz im Netz. Damit ändert sich dessen Steuerung dramatisch. Wurde früher die Energieerzeugung alleine nach dem Bedarf geregelt, muss sie sich jetzt nach dem schwankenden Aufkommen von Wind und Sonne richten und im Extremfall sogar den Stromverbrauch anpassen, indem Verbraucher „abgeworfen“ werden.

Die Lösung der immer größer werdenden Regelaufgabe wird immer weniger Kraftwerken auferlegt.

Folgerichtig können die Autoren der vom Bundesamt für Bevölkerungsschutz und Katastrophenhilfe am 11.09.2019 herausgegebenen Publikation Stromausfall – Grundlagen und Methoden zur Reduzierung des Ausfallrisikos der Stromversorgung /13/ die Freude über die Zunahme von Wind- und Sonnenstrom im Netz nicht so recht teilen. In offenbarer Sorge um dessen Systemstabilität schreiben sie auf Seite 113/114:

Die Betreiber von Übertragungsnetzen, die durch § 13 EnWG verpflichtet sind, in der Bundesrepublik einen sicheren Netzbetrieb zu gewährleisten, können die ‚Stellschrauben‘ Frequenzhaltung, Spannungshaltung, Versorgungswiederaufbau und Betriebsführung nicht mehr so nutzen, wie das vor der Energiewende der Fall war. (Hervorhebungen durch den Autor)

Wie schon in Punkt 2 erwähnt, wurde das Stromnetz für Energieflüsse von den höheren zu den niedrigeren Spannungsebenen konzipiert. Doch mit der bevorrechtigten Einspeisung von Strom aus Wind, Biogas und Sonne auf unteren Spannungsebenen fließt ein erheblicher Teil des Stromes im Netz „rückwärts“. Das hat Konsequenzen, die nur dem fachkundigen Kraftwerkstechniker vollständig bekannt sind; in der Publikation /13/ des BBK heißt es dazu auf Seite 102:

Die vermehrte Einspeisung in das Niederspannungsnetz über Wechselrichter erschwert die Bereitstellung von Blindleistung als Systemdienstleistung zur Spannungshaltung. Eine erschwerte Spannungshaltung erhöht aber das Risiko von Versorgungsproblemen und stellt deshalb eine Verwundbarkeit für die Netzsteuerung dar.“

Und noch eine Textstelle aus /13/ auf Seite 102 ist beachtenswert:

Durch die Zunahme von fluktuierenden Erzeugern wird das Engpassmanagement erschwert, da sie einerseits Netzengpässe verursachen, andererseits aber nicht zum Engpassmanagement beitragen können.“

Dass die stochastischen Erzeuger im Gegensatz zu den regelbaren Generatoren grundsätzlich nicht zum Engpassmanagement beitragen können, kann am Beispiel der unter Punkt 2 erwähnten Momentanreserve erläutert werden Die Momentanreserve ist als kinetische Energie in gewaltigen Schwungmassen der Generatoren gespeichert und wird bei Abbremsung des Generators infolge erhöhter Verbraucherlast automatisch im Millisekundenbereich freigesetzt; Photovoltaikanlagen leisten so etwas natürlich nicht. Wie sieht es aber mit der kinetischen Energie der Windräder aus? Die Wechselrichter, mit denen die Windgeneratoren an das Netz angeschlossen sind, eignen sich für eine derartige Regelaufgabe nicht. Dies ließe sich prinzipiell mittels einer geeigneten Leistungselektronik ändern. Ob sich das lohnt, zeigt eine einfache physikalische Betrachtung, die ein Verhältnis der kinetischen Energien von konvetionellem Generator und Windrad von

WGenerator : Wrotor = 90.000 : 1

ergibt. Eine Wiedereinspeisung der vergleichsweise verschwindend geringen Rotationsenergie des Windrotors in das Stromnetz lohnt sich also nicht.

Ohne eine Lösung des Problems der fehlenden Momentanreserve kann aber ein (fast) ausschließlich aus fluktuierenden Energien gespeistes Netz nicht betrieben werden.

Nicht zu unterschätzen ist auch das Gefahrenpotential, das durch den Bedeutungswandel des Wetterberichtes für die Netzsteuerung entstanden ist. Mit dem Wetter ändert sich auch die bevorrechtigte Einspeisung des „grünen“ Stroms – und dies manchmal recht plötzlich entgegen der Voraussage. Windräder beginnen mit der Stromproduktion bei Windgeschwindigkeiten von etwa 10 km/h, bei einem Zehn-Sekunden-Mittel von 70 km/h schalten die ersten Anlagen aus Sicherheitsgründen ab; die letzten gehen bei 108 km/h vom Netz. Wenn ein vorhergesagter starker Wind der Stärke 7 sich auf einmal nicht mehr an die Prognose hält und Sturmstärke entwickelt, entstehen jähe Verminderungen der Einspeisung, weil die sich abschaltenden Windräder ja unmittelbar vor der Abschaltung ihre Maximalleistung entwickelt haben. Dies macht sofortige Redispatchmaßnahmen in einzelnen Bilanzkreisen oder gar Regelzonen erforderlich, wie sie früher nicht nötig waren.

Der Strom aus Sonne und Wind wird in das Netz über Wechselrichter eingespeist. Diese benötigen als „Vorgabe“ für den Betrieb eine externe Wechselspannung von 50 Hz. Ohne eine solche Vorgabe, die derzeit im wesentlichen von den regelbaren konventionellen Großkraftwerken kommt, „wüssten“ sie gar nicht, was für einen Strom sie erzeugen sollen. Der NAEB e. V. Stromverbraucherschutz /14/ vertritt die These, dass für einen stabilen Netzbetrieb mindestens 40% regelbare Energie auf der Erzeugerseite zur Verfügung stehen muss. Es ist zu beachten, dass die weiter oben genannten 37,4 Prozent nur einen Mittelwert darstellen; in Spitzen kamen Wind und Sonne auf mehr als 50 Prozent. Nach der These von NAEB und den obigen Zitaten aus der Veröffentlichung /13/ des BBK dürfte mit Rücksicht auf die unbedingt zu bewahrende Netzstabilität eine weitere Steigerung des Anteils stochastischer Energien im Netz kaum noch zugelassen werden. Doch das Gegenteil ist der Fall! Im Koalitionsvertrag der Bundesregierung ist eine Erhöhung des Anteils der „Erneuerbaren“ an der Bruttostromerzeugung auf 65 Prozent bis 2030 festgeschrieben. Und für den Ausstieg aus gesicherter Erzeugung gibt es auch schon einen Fahrplan, den Bild 8 zeigt.

Bild 8: Geplante Abschaltung der mit Kernenergie, Braunkohle und Steinkohle betriebenen Kraftwerke (Quelle: MIBRAG vom 30.08.2019)

Nach der Abschaltung von 52 Gigawatt nicht fluktuierender Energie stünden dann im Jahr 2038 als gesicherte Energielieferanten noch Wasserkraft, Biomasse und Erdgas zur Verfügung, die heute etwa 23 Prozent des Bedarfs abdecken können. Um die fehlende Leistung nur theoretisch auszugleichen, müsste die Energieerzeugung aus Wind und Sonne mehr als verdreifacht werden.

<Folge 4 kommt demnächst> Teil 1 steht hier, Teil 2 hier

—————————————–

Hinweis: Das PDF mit dem vollständigen Inhalt ist beigefügt. Es kann aber auch beim Kaleidoscriptum-Verlag berstellt werden (www.kaleidoscriptum-verlag.de)




Nachruf Dr. Heinrich Röck

Heinrich Röck wurde am 15. Juli 1928 in Gladenbach/Hessen geboren. Er studierte Chemie in Darmstadt und promovierte 1955 in Göttingen zu einem Thema aus der Physikalischen Chemie. 1957 und 1960 erschienen zwei Bücher aus sei­ner Feder: „Ausgewählte moderne Trennungsverfahren zur Reinigung organischer Stoffe“ und „Destillation im Laboratorium, extraktive und azeotrope Destillation“. Von 1956 bis 1989 war er bei der SKW Trostberg AG als Mitarbeiter in der Forschung und Entwicklung, als Werkleiter und seit 1966 als Mit­glied des Vorstandes tätig.

Im Ruhestand danach beschäftigte er sich intensiv mit Umweltproblemen und speziell mit dem Thema Klima. Er war stets bemüht, seine daraus resultierenden Erkenntnisse einem möglichst großen Kreis interessierter Fachleute und Mitbürger zu vermitteln. Dabei entstanden Zeitungsbeiträge, Bücher und Vorträge. Besonders bemerkenswert sind mehrere Broschüren, die er im Eigenverlag herausgab, so beispielsweise „Klima und Politik“ (2001), „Extremes Wetter als Folge anthropogenen Klimawandels?“ (2003) oder „Wissenschaft, Klima, Politik – Wohin ändert sich das Klima?“ (2010). Diese Schriften ließ er in hohen Auflagen drucken und verteilte sie kostenlos. Sie waren durchgehend von hoher fachlicher Qualität – allein schon die Vielzahl der benutzten Quellen bezeugt das – und wurden so Anlass für Menschen aller Altersgruppen, sich über die Klimaproblematik zu informieren und mit diesem wissenschaftlichen Fachgebiet intensiver zu beschäftigen. Ein großer Freundes- und Bekanntenkreis unterstützte ihn bei der Verbreitung seines umfangreichen und tiefgründigen Wissens.

Mehr und mehr beschäftigte sich Heinrich Röck in den letzten Jahren mit den Konsequenzen der Klimapolitik, wie sie in Deutschland mit der verhängnisvollen „Energiewende“-Politik praktiziert wird. In einer letzten Arbeit, datiert vom September 2020, macht er noch einmal deutlich, dass mit Sonne und Wind allein keine gesicherte Stromversorgung möglich ist.

Heinrich Röck war nicht nur ein exzellenter Naturwissenschaftler sondern zugleich ein Mensch mit außerordentlich hohem Allgemeinwissen, der bestrebt war, seinen Wissenshorizont ständig auszuweiten. Seine intensive Lektüre, von der Fachliteratur bis zur Tagespresse, erweiterte seinen Wissensschatz und ermöglichte ihm treffsichere Urteile zu aktuellen wissenschaftlichen, ökonomischen und gesellschaftlichen Fragen. Er wird unvergessen bleiben!

Dietmar Ufer, 27. Januar 2021

Veröffentlichungen (Auswahl)

2003: Extremes Wetter als Folge des anthropogenen Klimawandels?

2004: Wohin ändert sich das Klima?

2010: Wissenschaft – Klima – Politik: Wohin ändert sich das Klima? (Als Beitrag beim EIKE hier)