1

Schon wieder E-Auto-Brände, sogar mehrfach

In Nettetal, Kreis Viersen, ging nachts ein Tesla mit lautem Knall in Flammen auf. Die herbeigerufene Feuerwehr versuchte zu löschen, was bei Lithium-Akkus mit ihren organischen Elektrolyten aber kaum möglich ist, und versenkte das Fahrzeug daher zur Dauerkühlung gemäß Experten-Empfehlung in einem großen Wassertank. Batteriebrände sind tückisch: Nachdem der Stromer scheinbar gelöscht war, schossen kurze Zeit danach schon wieder Flammen aus dem Tesla. Es bestand Gefahr, daß das Feuer auf die nahen Wohnhäuser übergriff, was die (noch) gut funktionierende Feuerwehr trotz wohl mangelnder Diversität kompetent verhindern konnte (“Heterosexuelle, weiße Männer aus der Arbeiterschicht sind bei der Feuerwehr unter sich”). Der Besitzer des Wagens war im Urlaub und hatte keinen Einfluß auf das Geschehen.

Es stellt sich die Frage, warum der Wagen überhaupt explodierte. Kein Unfall, es ist kühl draußen, und die teuren Teslas dürften gut verarbeitet sein. Nage-Angriff eines Marders? EIKE empfiehlt: Wenn Sie Ihr Elektroauto mehr als 48 Stunden nicht bewegen, sehen Sie zu, daß die Batterie fast leer ist. Vielleicht bietet der Markt ja Sicherheits-Entladegeräte an (mitlesende Ingenieure werden gebeten, zu kommentieren).

Nicht weit entfernt in Alpen bei Wesel hat es einen BMW i3 erwischt. Der Dienstwagen des Bürgermeisters, vorm Rathaus geparkt, fing unvermittelt an zu rauchen. Die örtliche Feuerwehr brauchte fünf Stunden, um die Brandquelle, der Akku, zu löschen. Da die ländliche Gemeinde keine Spezial-Löschausrüstung für die neuartige Gefahr der dauerheißen Akkus besitzt, mußten die Kollegen aus Duisburg mit einem wasserdichten Großbehälter anrücken. Für solche Container gibt es mittlerweile besondere Hersteller, wie die Firma Ellermann mit ihrer „Red Boxx“.

EIKE fragt: Werden E-Auto-Hersteller an den zusätzlichen Kosten der Feuerwehr-Ausrüstung und -Einsätze beteiligt, die nötig ist, um die verheerenden Akkubrände zu löschen? Ansonsten werden ja auch gerne Hintergrundkosten der Industrie in Rechnung gestellt, wie das Beispiel CO2-Steuer zeigt. Nebenbei: Tesla-Besitzer Elon Musk, einer der reichsten Männer der Welt, macht seine Gewinne fast ausschließlich mit Klima-Zertifikaten, die letztlich vom Verbraucher bezahlt werden.

Ein tödlicher Unfall ereignete sich in Poggendorf/ Vorpommern. Ein Tesla kam aus unbekanntem Grund von der Straße ab und rammte einen Baum. Ersthelfer konnten wegen des extrem heißen Batteriebrandes nicht löschen. Der Fahrer, ein Geschäftsreisender aus Schwerin, verbrannte bis zur Unkenntlichkeit.

Ein weiterer Unfall mit Todesfolge in den USA ist noch mysteriöser: In Texas ist nach Polizeiangaben ein führerloser (!) Tesla mit zwei Passagieren an Bord ebenfalls gegen einen Baum geprallt und verbrannt. Die Toten wurden von der Polizei auf dem Beifahrersitz und auf der Rückbank gefunden, weswegen die Beamten davon ausgehen, daß das Autopilot-Assistenzsystem den Wagen steuerte. Elon Musk dementiert diese Aussage, da die Datenaufzeichnungen des Wagens (so etwas hat ein Tesla?) die Aktivität des Autopiloten nicht zeigen.

Als letztes sei noch der Großbrand in einem Busdepot in Düsseldorf erwähnt, über den wir schon kurz berichteten. Es gab keine Personenschäden, aber das Gebäude und 38 Busse im Wert von rund 50 Millionen Euro brannten ab. Solche Großbrände in Depots kennt man eigentlich nur von gezielten Brandstiftungen durch Autonome bei der Bundeswehr.  Daher ist es interessant, daß sich unter den 38 zerstörten Fahrzeugen acht Elektrobusse befanden. Nachdem, was wir bei den PKW sehen, ist zumindest zu vermuten, daß der Lithiumakku eines Busses Feuer fing und die nah geparkten anderen Fahrzeuge schnell mit-entzündet wurden. Das geht erstaunlich schnell; Experten zufolge reicht es in vollgestellten Hallen, wenn nur ein Fahrzeug brennt. Durch die Hitzestauung im Gebäude und andere Effekte brennen auch Konstrukte aus Stahl und Glas rasch. Es gab noch keinen offiziellen Bericht; der wird im Mai erwartet.

Sollte sich herausstellen, daß sich ein Lithium-Akku entzündet hat, dürfte das erhebliche Konsequenzen für die E-Mobilität in den Städten und Gemeinden haben, wo Bürgermeister und Räte deutschlandweit Klimarettung durch den ÖPNV verordnet haben. Daß die Busse mitten im Betrieb auf der Straße in Flammen aufgehen, ist kaum möglich, da der Akku in der Entladungsphase meist nicht überhitzt. Abgestellt oder in der Ladephase sieht das anders aus. Das Beispiel Düsseldorf wird – hoffentlich – dazu führen, daß E-Busse nicht mehr dicht an dicht in Hallen, sondern möglichst einzeln mit Abstand auf dem Hof geparkt werden. Außerdem sind die Betreiber oder die Feuerwehr gut beraten, schnellstmöglich riesige Wassertanks und passende Hebekräne anzuschaffen.

Daß das die teils schon recht üppigen Fahrpreise weiter verteuern wird, liegt auf der Hand. Treffen tut es die Geringverdiener, wie die „Energiewende“ im Ganzen.

 




Direktor der Stromver­sorgung Kaliforniens: „stehen vor ernsten Problemen!“

Eigentlich hat er eine Menge verraten, wenn man die Polit-Sprache richtig liest. Ernsthafte Probleme liegen vor uns. Nachfolgend einige interessante Einblicke, mit Übersetzung, wo nötig.

Zuerst erklärt Mainzer seinen Job: „CAISO betreibt das Hochspannungsübertragungsnetz und den Energiemarkt für etwa 80% von Kalifornien und einen kleinen Teil von Nevada. Wir sind die Instanz, die das Echtzeit-Stromangebot mit der Nachfrage abgleicht und für die effiziente Integration der nächsten Generation sauberer Energiequellen in das Netz verantwortlich ist. Zusätzlich zu unserer grundlegenden Verantwortung als unabhängiger Netzbetreiber in einem einzelnen Bundesstaat übernehmen wir zunehmend weitere Aufgaben im Westen der USA. Dazu gehören die Überwachung der Zuverlässigkeit und der Betrieb eines Energieausgleichsmarktes, der uns den Kauf und Verkauf von Energie mit großen Gebieten der westlichen USA ermöglicht.“

Die Aufgabe von CASIO ist es also, die Lichter am Leuchten zu halten, genau wie ERCOT in Texas. Es ist ein wenig beängstigend zu erfahren, dass Kalifornien auch den Energie-Ungleichgewichtsmarkt für die gesamte Western Interconnection betreibt, also das westliche Netz, das etwa ein Drittel des zusammenhängenden Amerikas umfasst. Wenn also in Kalifornien der Strom ausfällt, was immer wahrscheinlicher wird, wird vielleicht auch das westliche Netz mitgerissen!

Was die Stromausfälle des letzten Sommers angeht, gibt Mainzer natürlich dem Klimawandel die Schuld. Aber dann zeigt er mit dem Finger auf die Solarenergie:

„Kalifornien hatte bei der Planung übersehen, dass zu Spitzenlastzeiten nicht genug Kapazität zur Verfügung steht, um ein Super-Heizungsereignis effektiv zu überstehen. Wenn die Menschen abends nach Hause kommen, die Geräte einschalten und die Klimaanlagen hochfahren, um ihre Häuser zu kühlen, ist das der maximale Punkt der Belastung für das System. Diese Netzspitze kurz nach Sonnenuntergang ist auch der Zeitpunkt, an dem über 10.000 Megawatt Solarstrom nicht mehr erzeugt werden. Die meiste Zeit des Tages wirkt die Solarenergie wie eine negative Last, welche die Nachfrage nach Strom aus anderen Quellen reduziert. Wenn die Sonne untergeht, müssen diese anderen Ressourcen schnell hochgefahren werden, um die Last im System zu decken. Kalifornien hatte einfach nicht genug einplanbare Kapazität zur Verfügung, um die Nachfrage zu decken. Die Standards für die Planung und Beschaffung von Ressourcen hatten nicht ganz Schritt gehalten.“

Sie haben also vergessen, dass die Sonne untergeht. Klingt ungefähr richtig für Kalifornien. Ich denke, sein „nicht ganz mithalten können“ ist stark untertriebene Politsprache.

Ganz nebenbei gibt Mainzer zu, dass die Unterbrechung der erneuerbaren Energien das grundlegende Problem ist. Hier ist, wie er es ausdrückt, wieder Bezug nehmend auf die Stromausfälle des letzten Jahres:

„Die Wind- und Solarenergieressourcen haben weitgehend wie erwartet funktioniert. Aber es handelt sich um Ressourcen, die Brennstoffe verdrängen und dem System kohlenstofffreie Energie zuführen. Wir wissen, dass sie keine planbare Kapazität liefern, also müssen wir sie mit anderen Ressourcen kombinieren. Sicherlich haben die laufenden Veränderungen im Stromsystem dazu beigetragen, was im August in Kalifornien passiert ist. Es ist klar, dass wir diese Kopplung beschleunigen und besser machen müssen. Das wird im Laufe der Zeit der entscheidende Faktor für die Aufrechterhaltung der Zuverlässigkeit sein.“

Natürlich handelt es sich bei seinen abschaltbaren „anderen Ressourcen“ um Zukunftstechnologien, die nicht existieren, und nicht um die offensichtlichen Atom-, Kohle- und Gasressourcen, die Kalifornien gerade abschaltet. Das ist Wunschdenken, keine Energieplanung.

Hier ist der sogenannte Plan: „Wir werden einen Portfolio-Ansatz verfolgen, der neue Brennstoffe, neue Speichertechnologien, Investitionen in Energieeffizienz und Reaktionrn auf Nachfrage-Spitzen erschließt. Kalifornien fängt an, sich mit Offshore-Windkraft zu beschäftigen. Wir erforschen neue Energiespeichertechnologien, die Strom für längere Zeiträume liefern können, verglichen mit der vierstündigen Dauer von Lithium-Ionen-Batterien.“

Das Prinzip ist jedoch klar. Erneuerbare Energien müssen mit planbarem Strom gepaart werden.

Was den kommenden heißen Sommer angeht, ist Mainzer zu Recht besorgt. Er weist darauf hin, dass es im Vergleich zum letzten Jahr fast keine neuen einsatzfähigen Kapazitäten gibt:

„Wir erwarten nicht, dass zwischen jetzt und dem Sommer eine Tonne neuer Kapazitäten ans Netz geht; das ist ein zu enger Zeitrahmen. Aber die zusätzliche abschaltbare Kapazität, die ins Netz kommt, sind etwa 2.000 Megawatt an Lithium-Ionen-Batterien, die während der Netto-Spitzenzeit der maximalen Belastung des Systems, kurz nach Sonnenuntergang in heißen Sommernächten, Strom ins Netz einspeisen können.“

Man beachte, dass 2000 MW Speicher die 10.000 MW an Solarstrom, die bei Sonnenuntergang verloren gehen, nicht ausgleichen. Außerdem sind die 2000 MW nur die Entladerate der Batterie, nicht die Speichermenge, die in MWh gemessen wird. Wenn 10.000 MW an Solarstrom für 16 Stunden verloren gehen, was der Standard ist, sind das 160.000 MWh an Saft. Die Batterien sind nur für 4 Stunden gut, das sind gerade einmal 8.000 MWh oder fast nichts im Vergleich zu den verlorenen Sonnenstunden. Batterien sind in Fällen wie diesem ein Witz.

Was den langfristigen Übergang betrifft, ist die Elektrifizierung ein wichtiges Thema. Er stellt fest:

„Wir werden auch zusätzliche Kapazitäten benötigen, um die Elektrifizierung der Fahrzeugflotte zu unterstützen und um den Platz von fossilen Brennstoffsystemen einzunehmen, die vom Netz gehen. Die California Public Utilities Commission sorgt dafür, dass die Versorgungsunternehmen die Anreize und Kostendeckungsmechanismen haben, um erweiterte Kapazitäten zu kaufen. CAISO und die großen Übertragungsnetzbetreiber in Kalifornien müssen dafür sorgen, dass das Netz, die Umspannwerke und die Übertragungsleitungen in einem Tempo aktualisiert, erweitert und modernisiert werden, das sicherstellt, dass neue Ressourcen, wenn sie ans Netz gehen, auch physisch an das System angeschlossen werden können. Die Leute, mit denen ich arbeite, sind unglaublich engagiert. Es ist eine echte Herausforderung, aber es ist auch inspirierend, Teil dieser sauberen Energiewende zu sein.“

Kein Wort darüber, was all diese riesige abschaltbare neue Kapazität, die weder fossil noch nuklear ist, sein wird. Wind ist auch nicht planbar. Es muss Magie sein! Es gibt nichts mehr außer Magie.

Und natürlich werden all diese neuen magischen Kapazitäten und ein aufgerüstetes Netz, um sie zu handhaben, ein riesiges Vermögen kosten. Hier zeigt sich Mainzers Talent für politisch korrektes, grobes Understatement. Er sagt einfach: „Die Strompreis-Erhöhungen, die nötig sind, um diese saubere Energiewende zu vollenden, könnten unbequem werden, wenn sie nicht sehr effektiv gehandhabt werden.“

Unbequem? Wie wäre es mit erdrückend oder strafend? Wir reden hier über potenziell Billionen von Dollar.

Er schafft es, einen guten Seitenhieb auf die Trittbrettfahrer unter den Solarkäufern auf den Dächern loszulassen: „Es gibt auch Bedenken bezüglich der Gerechtigkeit. Leute, die Solaranlagen und Batterien auf dem Dach kaufen, hinterlassen erhebliche Fixkosten, die von einer schrumpfenden Gruppe von Verbrauchern bezahlt werden müssen. Viele dieser Verbraucher können es sich nicht leisten, sich vom Netz zu lösen.“

Im wahren kalifornischen Stil schafft es CAISO-Präsident Mainzer sogar, mit einem schreienden Widerspruch zu enden: „Der Staat ist mit voller Geschwindigkeit auf dem Weg, seine Ziele für saubere Energie zu erreichen, während er gleichzeitig versteht, dass Energietarife und Gerechtigkeit kritische Variablen sind, die angegangen werden müssen.“

Es gibt keinen erschwinglichen Weg, ein elektrifiziertes Kalifornien ohne fossile Brennstoffe und Kernkraft zu betreiben. In der Tat ist es zu jedem Preis physikalisch unmöglich. Die CAISO sollte dies laut und oft sagen. Aber zumindest geben sie stillschweigend zu, dass es Probleme gibt.

Das ganze Interview steht hier.

Autor: David Wojick, Ph.D. is an independent analyst working at the intersection of science, technology and policy. For origins see http://www.stemed.info/engineer_tackles_confusion.html For over 100 prior articles for CFACT see http://www.cfact.org/author/david-wojick-ph-d/ Available for confidential research and consulting.

Link: https://www.cfact.org/2021/04/19/ca-electric-power-chief-says-serious-problems-lie-ahead/

Übersetzt von Chris Frey EIKE




Klimaspaß mit EIKE: Fraunhofer-Forscher wollen Autobahnen mit Solardächern überspannen

Wissenschaftler vom Austrian Institute of Technology AIT und vom Fraunhofer-Institut für Solare Energiesysteme entwickelten eine Technologie, um die Versiegelung natürlicher Flächen durch Photovoltaik-Paneele zu vermeiden. Sie kamen auf den Gedanken, bereits zuasphaltieren Boden zu überdachen – und da bietet sich Deutschlands dichtes Autobahnnetz an, das eine Länge von mindestens 13.000 Kilometern hat und eine Fläche von rund 330 qkm bedeckt (entspricht Fläche von München).

Klingt für den Laien erst einmal interessant – die Autobahnen gehören dem Bund, daher könnte man die Überdachung und Wartung zentral unkompliziert steuern. Fraglich ist allerdings, wie eine „wurmförmige“ Autobahn effizient überdacht werden kann. Baut man eine PV-Anlage auf eine Wiese, kann man die geringst mögliche Zahl von Stützen nehmen, die zudem nur etwa 1m hoch sein müssen. Aber über der Autobahn muß man ja mehr als 5m hohe Gerüste bauen, die aus Sicherheitsgründen sehr robust sein müssen. Hinzu kommt auch noch die Notwendigkeit der Reinigung, da verschmutzte Paneele deutlich weniger Sonnenstrahlung umsetzen. Müssen dann einmal die Woche Spezialreinigungsunternehmen mit Fassadenkletterern die Siliziumplatten abwischen? Oder wird das von zu entwickelnden Robotern erledigt, die es noch nicht gibt?

Man sieht – schon wieder eine Schnapsidee zur Rettung der Energiewende, die zwar „beforscht“ wird, aber höchstwahrscheinlich nicht über die geplante Pilotanlage hinauskommen wird.

Neben der grundsätzlichen Umständlichkeit der Autobahnüberdachung müssen ad hoc etliche neue Verfahren und Maschinen entwickelt werden, die anfangs noch nicht richtig funktionieren und zudem sehr teuer sind. Die klassische Fossiltechnologie hingegen wurde Stück für Stück entwickelt und immer wieder auf Wirtschaftlichkeit geprüft. So funktioniert Kapitalismus – dezentral, mit der Notwendigkeit, sich in der Wirklichkeit beweisen zu müssen.

Die Weltretter, beziehungsweise die Umverteiler, wollen eine völlig neue Technologie zentral-planwirtschaftlich aus der Taufe heben, was nach aller Erfahrung nicht funktioniert und nur Millionen oder Milliarden kostet, die der kleine Steuerzahler an die „da oben“ abführen muß.

Einen Vorgeschmack gibt der „Solar-Radweg“ des Potsdamer Unternehmens Solmove in Erftstadt (NRW). Erst soff das Konstrukt im Regenwasser ab, dann schmorten elektrische Anschlüsse durch. Schuld daran ist natürlich nur die Stadtverwaltung. Aus Sicherheitsgründen wurden die Zellen nun abgedeckt, damit sie keine Energie mehr sammeln können, durch die die beschädigten Leitungen dann glühen und qualmen.




SMR-2021, Xe-100

Das TRi Energy Partnership – ein Wortspiel aus dem TRISO-Brennstoff bzw. der Tri-Cities area – übernimmt die Projektentwicklung für die Genehmigung, den Bau und Betrieb des Kraftwerks. Der angedachte Standort ist neben dem Kernkraftwerk Columbia, einem 1,174-MWe Siedewasserreaktor nahe Richland im Bundesstaat Washington. An diesem Standort sind alle Voraussetzungen für den Transport (Schiene, Straße, Wasserweg) sowie fachkundiges Personal vorhanden. Damit sind erst einmal alle Bedingungen für eine hälftige Finanzierung (50% Staat, 50% privates Risikokapital) nach dem Advanced Reactor Demonstration Program des „US Energieministeriums“ erfüllt.

Der Entwurf

Der Xe-100 besteht aus zwei Zylindern: Dem Reaktor mit einem Durchmesser von etwa 4,9m und einer Höhe von 19,5m und dem Dampferzeuger mit einem Durchmesser von etwa 6,5m und einer Höhe von 25m. Der Reaktor dürfte etwa 200 to wiegen und der Dampferzeuger etwa 700 to. Beides Maße und Gewichte, wie sie z. B. bei Raffinerien und Chemieanlagen heute üblich sind. Insofern sind Montage und Transport für einschlägige Unternehmen kein Problem. Beide Zylinder sind nur durch ein Doppelrohr für das Helium miteinander verschraubt. Eine solche Einheit soll eine Wärmeleistung von 200 MWth und eine elektrische Leistung von etwa 75 MWel haben. Die Eintrittstemperatur in den Reaktor beträgt 260°C und die Austrittstemperatur 750°C. Um überhaupt mit dem Gas Helium ausreichend Wärme bei akzeptabler Strömungsgeschwindigkeit transportieren zu können (kein Phasenübergang), beträgt der Betriebsdruck 70bar. Damit muß man wieder die Festigkeitsprobleme beherrschen, die sich aus der Kombination von hohem Druck bei hoher Temperatur ergeben. Mit anderen Worten: Die beiden „Zylinder“ werden entsprechend dickwandig und damit teuer. Ähnliches gilt für die spiralförmigen Rohre des Dampferzeugers, da sie auf Werte (165bar, 565°C) konventioneller Kraftwerke ausgelegt sind. Alles technisch beherrschbar, aber schon vom Ansatz her teuer.

Die Leistung eines solchen Moduls ist auch durch das „Kugelhaufen-Prinzip“ begrenzt. Das Ganze funktioniert wie ein Silo: Es werden ständig oben frische Brennstoffkugeln dem Reaktor zugeführt (ca. 175 Kugeln täglich) und unten wieder die entsprechende Menge abgebrannter Brennelemente abgezogen. Da die spezifische Leistung bei diesem Prinzip etwa 30 mal geringer als in einem konventionellen Druckwasserreaktor ist, ergibt sich ein „Haufen“ aus rund 220 000 Kugeln. Je größer jedoch ein Reaktorkern ist, um so mehr neigt er zu einem „Eigenleben“. Die sich ergebenden ungleichen Zustände müssen durch Regelstäbe im Griff behalten werden. Ab einer gewissen Größe ist es aber praktisch unmöglich, Regelstäbe in solch einen Haufen einzufahren ohne die Kugeln und die Regelstäbe zu beschädigen.

Sicherheit

Zentrales Sicherheitselement sind auch hier die TRISO-Brennelemente. In jeder einzelnen „Brennstoffkugel“ (6 cm Durchmesser) befinden sich rund 18 000 einzelne „Brennelemente“. Jedes einzelne Körnchen hat seine eigene Schutzhülle aus mehreren Schichten aus denen Spaltprodukte erst einmal entkommen müssen. Hätten sie es geschafft, müßten sie noch die Speicher- und Schutzschichten der Kugel durchdringen. Erst dann könnten sie ins „Kühlmittel“ Helium – das ständig (mit einfachen Mitteln) überwacht wird – gelangen. Bis an die Umwelt müßten sie dann noch den Druckbehälter, das Gebäude etc. überwinden. Die Sicherheitsfrage konzentriert sich damit auf die Beständigkeit der Kugeln. Die Tests über Bestrahlung und Temperatur sind bereits erfolgreich abgeschlossen. Für die Freisetzung von radioaktiven Stoffen ist die Stabilität von Brennelementen (Harrisburg, Fukushima) maßgeblich. Graphitkugeln können nicht schmelzen, sondern sublimieren (unmittelbare Verdampfung ohne Verflüssigung) bei über 3900°C. Diese Temperatur kann aber unter keinen Umständen (nicht im Betrieb und auch nicht durch Nachzerfallswärme) im Reaktor erreicht werden. Jede einzelne Kugel übernimmt quasi die Funktion des Containments von konventionellen Reaktoren (Verhinderung der Freisetzung radioaktiver Stoffe an die Umgebung).

Die Menge an spaltbarem Material (auf 15,5% angereichertes Uran) bzw. der Spaltprodukte (maximaler Abbrand 160 MWd/kg) ist schon durch das Volumen des Reaktors begrenzt. Es ist nur soviel „Überschussreaktivität“ vorhanden, daß die Veränderungen im Betrieb (z. B. Xenonvergiftung im Lastfolgebetrieb) über die Regelstäbe (2 mal 9 Stück) kompensiert werden können. Selbst wenn alle Regelstäbe vollständig gezogen sind, bricht die Kettenreaktion (stark negativer Temperaturkoeffizent) lange vor Erreichen der zulässigen Temperaturen in sich zusammen – der Reaktor ist „walk away sicher“. Fehlbedienungen sind ausgeschlossen bzw. der Reaktor könnte (zeitweise) ohne Personal betrieben werden. Selbst bei einem Ausfall der Kühlung (entweichen des Heliums) reicht die passive Wärmeabfuhr über Strahlung und Wärmeleitung aus um ein Unglück zu verhindern (Fukushima).

Revolutionärer Bestandteil des Genehmigungsverfahrens wird der Nachweis sein, daß keine unzulässige Strahlenbelastung außerhalb des Betriebsgeländes (400m um den Reaktor im Gegensatz zu 10 Meilen) auftreten kann. Alle erforderlichen Nachweise und Auflagen (Besiedelungsdichte, Evakuierungspläne etc.) für eine Genehmigung würden entfallen. Mit anderen Worten: Ein solcher Reaktor könnte unmittelbar neben einem Wohngebiet (z. B. Fernwärme) oder in einem Industriegebiet (Raffinerie, Chemiepark) gebaut werden.

Geschichte

X-energy wurde 2009 von Dr. Kam Ghaffarian gegründet. Es gelang ihm einige Fachleute mit Erfahrung auf dem Gebiet der Kugelhaufenreaktoren anzuwerben. Leitender Ingenieur z. B. ist Dr. Eben Mulder, der schon in Südafrika in der Entwicklung von Hochtemperaturreaktoren tätig war und einst auf diesem Gebiet in Deutschland promovierte. X-energy wuchs schnell und hatte bis 2017 bereits über $34 Millionen Kapital eingeworben. In diesem Jahr startete das Projekt eines 320 MWel Kraftwerks, bestehend aus vier Reaktormodulen. Federführend beteiligt ist Southern Nuclear (betreibt mehrere Kernkraftwerke und baut Vogtle) als Energieversorger und Burns & McDonnell als Ingenieurunternehmen. Richtungsweisend für andere Industriezweige ist die Entwicklung eines „Digitalen Zwillings“ des Reaktors (separat gefördert durch das Energieministerium). Stark vereinfacht gesagt, ist die gesamte Konstruktion als 3D-Modell digital vorhanden und verknüpft mit einschlägigen Programmen zur probabilistischen Sicherheitsanalyse, virtual reality usw. Ziel ist die systematische Ermittlung von Schwachstellen bereits in der Konstruktionsphase und z. B. der Test von Fertigungsrobotern etc. vorab am digitalen Modell. Dieser Ansatz hat sich bereits als revolutionär bei der Entwicklung von Kampfflugzeugen gezeigt. Wie schon immer, ist die Kerntechnik das Labor des technischen Fortschritts für die gesamte Industrie. Nur hier (außerhalb der Rüstungsindustrie) arbeiten die notwendigen Spitzenkräfte aus unterschiedlichen Disziplinen eng zusammen.

Bei den gasgekühlten Hochtemperaturreaktoren handelt es sich nicht um eine neue Erfindung, sondern eine evolutionäre Entwicklung in verschiedenen Ländern: USA (1944 ORNL, 1966–1974 Peach Bottom, 1967–1988 Fort St. Vrain, ab 2005 NGNP), UK (1966–1975 Dragon), Deutschland (1967–1988 AVR, 1986–1989 THTR), Japan (ab 1998 HTTR) und China (ab 2000 HTR-10). Es kommen über 70 Jahre Forschung und Entwicklung allein in Demonstrationsanlagen zusammen. Dieser Schatz an Daten ist für ein schnelles Genehmigungsverfahren von ausschlaggebender Bedeutung.

Marktpotential

Die Demonstrationsanlage soll aus vier Reaktoren bestehen und eine Leistung von 320 MWel haben. Damit wäre der Beweis für ein funktionstüchtiges Kraftwerk zum Ersatz alter fossiler Kraftwerke an einem gegebenen Standort erbracht. Ob es allerdings eine schlaue Idee ist, ein „Großkraftwerk“ aus zig Modulen zusammenzusetzen, muß sich noch erweisen. Allerdings muß man ganz klar feststellen, daß das Prinzip Kugelhaufenreaktor aus physikalischen Gründen nicht beliebig skalierbar ist. Dieses Reaktorprinzip bleibt nur kleineren Leistungen vorbehalten. Man braucht zur Produktion elektrischer Energie auch keine hohen Temperaturen. Eine Verbesserung des Wirkungsgrades ist bei heutigen Uranpreisen eher eine akademische Fragestellung. Das (bisherige) Alleinstellungsmerkmal liegt vielmehr in der „Walk Away Sicherheit“: Gelingt es, eine Zulassung als Reaktor zu bekommen, der auch bei einem schweren Störfall nur Auswirkungen auf das Betriebsgelände, aber nicht auf die Nachbarschaft hat, eröffnen sich völlig neue Anwendungen:

  • Man kann unmittelbar neben chemischen Anlagen bauen,
  • man kann nukleare Fernwärme nahe Wohngebieten betreiben,
  • man kann einen zeitweiligen Betrieb ohne Personal anstreben,
  • man kann solche SMR dezentral einsetzen, bzw. an abgelegenen Verbrauchsschwerpunkten.

Die Produktion von Heißdampf mit 565°C erlaubt nicht nur den Kauf von Dampfturbinen von der Stange, sondern zielt auch auf typische verfahrenstechnische Anwendungen ab (Raffinerien, Grundchemikalien etc.). So hat X-energy allein in den petrochemischen Anlagen an der Golfküste 41 Dampferzeuger ermittelt. Letztendlich stellt sich die Frage, was eine MWhth bzw. MWhel aus einem Xe-100 Reaktor kostet. Liegt der Preis unterhalb einer Kesselanlage mit Erdgas, läuft das Geschäft in großem Maßstab an. Wenn nicht, ist das Reaktorkonzept eher eine Totgeburt. Die Branche steht nicht zum ersten Mal wieder vor einem Henne-Ei Problem…

Internationale Kontakte

Jordanien ist ein typischer Vertreter von Ländern, deren Mangel an Kühlwasser das Hauptproblem bei der Elektrifizierung ist. Hochtemperaturreaktoren lassen sich auch mit Trockenkühltürmen betreiben. Auch das keine ganz neue Idee: Der THTR in Hamm-Uentrop hatte bereits einen solchen. Schon 2017 hat die Jordan Atomic Energy Commission (JAEC) mit X-energy eine Kooperation abgeschlossen. Zusätzlich haben Saudi Arabien und Jordanien auch Verhandlungen mit China über Hochtemperaturreaktoren geführt.

Letztes Jahr hat X-energy auch ein Genehmigungsverfahren in Kanada gestartet. Es gibt dort die sog. Vendor Design Review (VDR). Ein Verfahren das risikoorientiert ist und drei Schritte umfaßt: Im ersten Schritt wird lediglich geprüft, ob der Reaktor grundsätzlich alle kanadischen Vorschriften erfüllt. Im folgenden zweiten Schritt werden die als kritisch empfundenen Punkte näher betrachtet und diskutiert. In der dritten Phase kann der Antragsteller alle Auflagen aus den vorhergehenden Schritten noch nachbessern. Diese Vorgehensweise erlaubt dem Antragsteller besonders bei innovativen Konzepten jederzeit die Notbremse ziehen zu können, wenn die Kosten explodieren sollten und eine Genehmigung zumindest in weiter Ferne erscheint. Da die Entwicklung des Xe-100 schon weit fortgeschritten ist, werden die ersten beiden Phasen zusammen abgehandelt. Eine Zulassung in Kanada ist für X-energy äußerst wertvoll, da Kanada über eine starke kerntechnische Industrie mit vollständigen Lieferketten verfügt. Die Zulieferer sind aber verständlicherweise erst bereit zu investieren, wenn sie genau wissen, was sie produzieren müssen. So konnte bereits Hatch als Partner für die Detailkonstruktion und den weltweiten Vertrieb gewonnen werden. Ontario Power Generation (OPG) hat in Zusammenarbeit mit anderen Provinzen federführend den (geplanten) Bau eines SMR und den Aufbau der Lieferketten in Angriff genommen. In die engere Betrachtung ist neben dem Xe-100 von X-energy, der Integral Molten Salt Reactor (IMSR) von Terrestrial Energy und der BWRX-300 von General Electric gekommen. Im Moment setzt kein Land außerhalb der USA so konsequent auf die Entwicklung von SMR, wie Kanada. Das macht Sinn, da Kanada mit dem Ausbau seiner Schwerwasserreaktoren mittlerer Größe langsam an die Grenzen stößt. Ein so weites Land mit seinen umfangreichen Bergbauaktivitäten, Ölsänden usw. braucht dringend dezentrale Einheiten. Hinzu kommt der erhebliche Heizwärmebedarf eines nördlichen Landes: Sonne geht gar nicht und mit Windparks hat man nur schlechte Erfahrungen gemacht.

Der Beitrag erschien zuerst auf dem Blog des Autors hier




Sogar noch früher als erwartet taucht es auf: der Beginn der Umwelt-Katastrophe durch die Batterien für Elektro-Fahrzeuge

Wenn es um E-Fahrzeuge mit Lithium-Ionen-Batterien und Umweltgrünen bzw. den Profiteuren derselben geht:

Sie wissen, dass es eine Katastrophe ist.

● Wir wissen, dass es eine Katastrophe ist

● Sie wissen, dass wir wissen, dass sie um die Katastrophe wissen

● Aber sie tun immer noch so, als sei es keine Katastrophe

Die gewaltigen Umweltprobleme der E-Autos zeichnen sich ab

Jetzt beginnt es den Grünen zu dämmern: Sie haben ein kolossales Umweltproblem am Hals – ein Problem, vor dem sie schon vor langer Zeit gewarnt wurden und das für real zu halten sie sich geweigert haben, weil es mit ihrer Vision einer grünen Utopie kollidiert.

Grüne spielen es herunter und hoffen auf Lösungen

Im Moment spielen sie es herunter und bestehen darauf, dass Lösungen zur Abwendung des Umweltproblems der Lithium-Ionen-Batterie rechtzeitig gefunden werden. Aber sie werden eindeutig unruhig, da die astronomischen Dimensionen des Problems der Produktion von 200 Millionen Lithium-Ionen-Autobatterien – nebst deren späterer Entsorgung – unübersehbar werden.

Experte: „Dringendes Umweltproblem“

Vor nicht allzu langer Zeit warnte der japanische Chemienobelpreisträger und Lithiumbatterie-Forscher Akira Yoshino, dass Lösungen für das Recycling dieser Batterien dringend benötigt würden und dass es zu einem „drängenden Umweltproblem“ werde.

Riesiges Chaos für die nächsten Generationen

E-Auto-Batterien können, nachdem sie ihren Zweck in E-Fahrzeugen erfüllt haben – nach etwa 8 Jahren – für andere Zwecke mit geringerem Bedarf wiederverwendet werden – ein sogenanntes zweites Leben – etwa als Hausbatterie. Doch das Recycling ist unumgänglich – und es ist kompliziert, energieaufwändig und teuer. Niemand weiß, wie viele derzeit tatsächlich recycelt werden oder einfach nur auf die Mülldeponie geworfen werden.

Wir schaffen ein gigantisches, teures Chaos für die nächsten Generationen.

Vorzeitig im Müll landen“

Schlimmer noch: Claudia Scholz berichtet hier beim Handelsblatt [deutsch], dass E-Auto-Akkus schon jetzt zunehmend im Müll landen – und zwar „vorzeitig“. „Das E-Auto-Problem: Tausende Tonnen Batterien landen vorzeitig im Müll.“

Schon jetzt Tausende Tonnen Batterie-Müll

Das Handelsblatt berichtet, wie „erstaunt“ der Geschäftsführer der Recycling-Firma Erlos Matthias Schmidt ist:

„Eigentlich hatte meine Branche damit gerechnet, erst in acht oder zehn Jahren mit Batterien aus jüngst produzierten Elektroautos überhäuft zu werden. Denn mit einer solchen Lebensdauer kalkuliert die Autobranche beim Akku, der wichtigsten Komponente eines E-Autos“.

Tatsächlich aber landen schon jetzt Tausende Tonnen Antriebsbatterien bei Entsorgungsbetrieben. „Wir hätten nie gedacht, welche Mengen nach so kurzer Zeit schon anfallen würden“, sagt Schmidt. Allein sein Unternehmen und Konkurrent Duesenfeld, die sich beide auf das Recycling von Autobatterien spezialisiert haben, verwerten dieses Jahr über 4000 Tonnen Akkus aus nahezu allen E-Modellen – darunter auch solche, die erst kürzlich auf den Markt gekommen sind.*

[*Aus dem Original. Keine Rückübersetzung]

Das gefährliche Halbwissen der grünen Zentral-Planer:

Aber so ist das nun einmal mit diesen selbsternannten Vordenkern, die an ihren Universitäten dagegen immunisiert wurden, die Gefahren ihres Halbwissens zu begreifen. Es folgt, wie verhängnisvolle linke Ideen ihren Lauf nehmen:

● Sie sind davon überzeugt, dass es eine brillante Idee ist.

● Ignorieren Anzeichen und Warnungen, dass es eine Katastrophe gibt

● Spielen das Desaster herunter, wenn es sich abzeichnet

● Die Katastrophe anerkennen, aber darauf bestehen, dass Lösungen kommen werden

● Verschieben Sie die Torpfosten, wenn die Lösung nicht kommt

● Leugnen Sie die Katastrophe, egal was passiert. Aber wenn Sie es nicht können:

● Dann geben Sie zu, dass es eine Katastrophe gibt.

● Und dann darauf bestehen, dass es nie Ihre Idee war

● Hoffen Sie, dass es vergessen wird

● Schieben Sie alles auf andere, wenn es nicht so ist

Die Zeilen am Anfang sind die Abwandlung eines Spruches von Alexander Solschenitzyn: „Wir wissen, dass sie lügen, sie wissen, dass sie lügen, sie wissen sogar, dass wir wissen, dass sie lügen, wir wissen auch, dass sie wissen, dass wir wissen, dass sie auch lügen, sie wissen natürlich, dass wir sicher wissen, dass sie wissen, dass wir auch wissen, dass sie lügen, aber sie lügen trotzdem“.

Link: http://notrickszone.com/2021/04/17/the-dawn-of-the-e-vehicle-battery-environmental-disaster-discarded-even-sooner-than-expected/

Übersetzt von Chris Frey EIKE

 




Das China-Problem der „erneuerbaren“ Energie

Hier sind die Fakten bzgl. „erneuerbarer“ Energie:

1. Fünf der Top-10-Windturbinenhersteller der Welt sind in chinesischem Besitz oder werden von China betrieben

2. Neun der Top-10-Solarmodulhersteller der Welt sind in chinesischem Besitz oder werden von China betrieben.

3. Mehr als zwei Drittel (2/3) der weltweiten Solarmodule und die Hälfte der Windturbinen werden in China produziert

4. 1954 waren die Vereinigten Staaten bei acht Mineralien, die im Strategic Minerals Act von 1939 aufgeführt sind, zu 100 % von Importen abhängig; heute sind die Vereinigten Staaten bei 17 strategischen Mineralien zu 100 % und bei über 50 % von 28 weit verbreiteten Mineralien von Importen abhängig. China ist eine bedeutende Quelle für die Hälfte dieser 28 Mineralien.

5. China ist verantwortlich für 37% der elektrischen Personenfahrzeuge und 99% der E-Busse, die seit 2011 weltweit verkauft wurden.

6. China kontrolliert 90% der Kobalt-Lieferkette der Batterieindustrie

7. Die Dinge, die China herstellt, werden mit zu zwei Dritteln aus Kohle-erzeugter Energie hergestellt

Jede nennenswerte Einführung von Wind- und Solarenergie macht Amerika also noch abhängiger von China – einem kommunistischen Land, das zunehmend aggressiv und imperialistisch ist, ohne Rücksicht auf die Umwelt oder die Menschenrechte. „Im Jahr 2020 hat China die Menschenrechte in Xinjian missachtet, Cyber-Krieg geführt und seine Nachbarn bedroht.“ Doch, wie der Economist schreibt, beschönigen globale Firmen diese Gräueltaten bereitwillig: Siemens bezeichnet China als „sehr glücklich“. „Phänomenal“ sagt Apple, „bemerkenswert“ sagt Starbucks.

Leider führt die Einführung erneuerbarer Energien dazu, dass die Welt immer stärker auf Dinge wie Konfliktmineralien angewiesen ist. Dies hat bereits zu Vorwürfen von Menschenrechtsverletzungen gegen große Technologieunternehmen wie Apple, Google und Tesla geführt. Eine Studie zeigt, dass 1.500 Tonnen Erde abgebaut werden müssen, um eine Tonne Kobalt zu gewinnen – und der Großteil des weltweiten Kobalts wird in der Demokratischen Republik Kongo abgebaut.

Eine andere Studie fand heraus, dass der Abbau der Materialien, die für die Herstellung einer einzigen EV-Batterie benötigt werden, den Abbau, den Transport und die Verarbeitung von mehr als 500.000 Pfund an Materialien erfordert. Das ist das Zwanzigfache (20x) der gesamten Erdölmenge, die ein Verbrennungsmotor über seine gesamte Lebensdauer verbraucht. Um es mit den Worten von Dr. Scott Tinker zu sagen: „Das ist so, als ob man der Natur den Schwarzen Peter zuschiebt, um das Klima zu bezahlen.“

Dann gibt es noch das Problem der Energiedichte, das Bill Gates in seinem neuen Buch dankenswerterweise anerkennt, und das zu einer Verschlechterung der Umwelt führt. Erdgas (CH4; meist Wasserstoff) erzeugt etwa 10.000 Watt pro Quadratmeter (W/m²) im Vergleich zu 20 W/m² bei Solar und 2 W/m² bei Wind (ja, nur zwei). Aufgrund der unterschiedlichen Energieerzeugung von Wind und Sonne sind 227.800 Quadratmeilen an Turbinen und Paneelen in den USA erforderlich, um Bidens Ziel für 2030 zu erreichen. Zum Vergleich: Das ist mehr Land als ganz Kalifornien und New York zusammen!

Tatsächlich gibt es gute wissenschaftliche Gründe für die Annahme, dass energiedichte Brennstoffe wie Erdgas (CH4; hauptsächlich Wasserstoff) und Kernkraft uns bis 2050 in die Nähe von Netto-Null bringen können. Darüber hinaus sind die Vereinigten Staaten das erste und einzige Land, das seine Pariser Klimaziele aufgrund unseres reichlich vorhandenen CH4, vor allem Wasserstoff, erreicht hat – und zwar ein Jahrzehnt früher.

Wenn es Grund zu der Annahme gibt, dass wir unsere reichhaltigen und energiereichen natürlichen Ressourcen nutzen können, um den Klimawandel zu bekämpfen, warum scheinen wir dann so begierig darauf zu sein, unsere nationale Souveränität in die Hände eines zunehmend imperialistischen kommunistischen Chinas zu legen?

This article was originally published at Hefner.Energy.

Link: https://cornwallalliance.org/2021/04/renewable-energys-china-problem/

Übersetzt von Chris Frey EIKE

 




Der sündhaft teure Unfug von Subventionen für Windparks

Hornsea und die Subventions-Flut für Offshorte-Windparks

Andrew Montford, GWPF

Diese Woche wurden die ersten Betriebsergebnisse eines der größten britischen Windparks für das gesamte Jahr veröffentlicht. Beatrice wurde im Moray Firth mit einem Kostenaufwand von fast 2 Milliarden Pfund gebaut und scheint mit einer Auslastung von rund 48 % recht gut zu laufen.

Die Details der Buchhaltung zeigen jedoch, was für eine finanzielle Katastrophe es wirklich ist. Es stellt sich heraus, dass satte 280 Millionen Pfund der Einnahmen – 75% der Gesamtsumme – in Form von Subventionen kamen, wie dieser Auszug zeigt:

Ohne dieses Geld von den Verbrauchern hätte das Unternehmen im vergangenen Jahr etwa 100 Millionen Pfund Verlust gemacht.

Die Subvention ist natürlich eine fortlaufende Zahlung, so dass die Zahler der Stromrechnung noch weit in die Zukunft hinein in gleichem Umfang blechen müssen. In nur sieben Jahren werden sie den Entwicklern genug gezahlt haben, um die Kosten für den Bau des Windparks zu decken.

Die Zahl von 281 Millionen Pfund – über eine Viertelmilliarde Pfund – brachte mich dazu, über einige der anderen Offshore-Windparks nachzudenken, die in den nächsten Jahren in Betrieb gehen werden. Nehmen Sie zum Beispiel Hornsea 1, das nächstes Jahr in Betrieb gehen soll. Er ist mehr als doppelt so groß wie Beatrice, und sein Subventionsvertrag ist nur ein paar Cent mehr pro Megawattstunde wert. Außerdem verwendet es die gleiche Größe von Turbinen, und obwohl es viel weiter südlich steht, ist es viel weiter vom Land entfernt, so dass man eine ähnliche Leistung erwarten kann.

Wenn das stimmt, dann können wir abschätzen, wie hoch seine jährliche Subvention ausfallen wird.

£628 Millionen Pfund pro Jahr. Das ist richtig – mehr als eine halbe Milliarde Pfund pro Jahr.
Gute Arbeit, wenn man sie bekommen kann.

Link: https://www.thegwpf.com/hornsea-windfarm-subsidies/

——————————–

Obszöne“ Subventionen für Windparks enthüllt

Presseerklärung, Global Warming Policy Forum

Das Global Warming Policy Forum hat die „Obszönität“ der Subventionen für Windparks verurteilt und ein komplettes Umdenken in der Energiepolitik gefordert.

GWPF-Recherchen haben gezeigt, dass allein sechs Offshore-Windparks jetzt jedes Jahr 1,6 Milliarden Pfund an Subventionen unter sich aufteilen. Drei erhalten jährliche Subventionen von über einer Viertelmilliarde Pfund pro Jahr. An einem einzigen Tag im April letzten Jahres erhielt Hornsea 1 eine Subventionszahlung von fast 1,5 Millionen Pfund.

Die Höhe der Subventionen reicht aus, um die Baukosten dieser Windparks in nur sechs oder sieben Jahren zu decken, was bedeutet, dass die zukünftigen Zahlungen für die Betreiber fast reinen Gewinn darstellen.

Die Kosten für das System der Contracts for Difference beschleunigen sich und stiegen allein im letzten Jahr um 0,7 Milliarden Pfund und werden 2020 2,3 Milliarden Pfund erreichen. Die Verbraucher zahlen bereits 6 Mrd. £ im Rahmen der Renewables Obligation und weitere 1 Mrd. £ im Rahmen des Kapazitätsmarktes.

Die direkten Subventionen belaufen sich also auf eine jährliche Zahlung von 350 £ pro Haushalt, eine Summe, die jährlich um mindestens 25 £ steigt.

Es gibt noch weitere Rechnungen, die zu zahlen sind, weil Windparks eine Destabilisierung des Stromnetzes verursachen. Die Kosten für den Ausgleichsmechanismus im Stromnetz steigen rapide und kosten jeden Haushalt £65 pro Jahr, eine Zahl, die um £20 pro Jahr steigt.

Und auch für die Aufrüstung des Stromnetzes muss der Verbraucher zahlen.

Lord Lawson, Direktor des GWPF, sagte:

Wir befinden uns mitten in einer Wirtschaftskrise und die Verbraucher werden mit astronomischen Kosten für unzuverlässige Windenergie belastet. Diese milliardenschweren Subventionen sind nicht nur ein massiver Vermögenstransfer von den Armen zu den Reichen, sondern schaden der britischen Wirtschaft als Ganzes. Dieser Wahnsinn muss aufhören.“

Dr. Benny Peiser sagte:

Die Höhe der Subventionen ist eine Schande. Jedes Mal, wenn ein neuer Windpark in Betrieb genommen wird, wird der Verbraucher mit einem doppelten Schlag getroffen – einem unerbittlichen Anstieg der jährlichen Subventionszahlungen an die Windparkbetreiber und einer jährlichen Rechnung für die Behebung der Schäden, die der Netzstabilität zugefügt werden. Das lässt sich nicht mehr lange verheimlichen. Die Lämmer werden schon sehr bald erkennen, wie sie zur Schlachtbank geführt werden, und es wird ein hoher politischer Preis zu zahlen sein!“

Link: https://www.thegwpf.com/high-wind-subsidies/

Zusammengestellt und übersetzt von Chris Frey EIKE

 




Rekord-Kälte 2021 erinnert uns: Man lasse höchste Vorsicht walten bei Klima-Prognosen und Energie-Prioritäten walten

Japan meldete 13 Todesfälle und Hunderte von Krankenhausaufenthalten in der vergangenen Woche aufgrund der intensiven Schneefälle im Land. In Spanien staunten die Bewohner über den Rekordschneefall auf ihren Straßen. Hier in Indien erlebte Delhi einen der härtesten Winter seit langem mit intensiven Kältewellen.

Ist damit die globale Erwärmung widerlegt? Sicherlich nicht! Allerdings werfen die extremen Kälteereignisse Fragen über das Medien-Narrativ auf, dass der Klimawandel mildere Winter verursacht und die Temperaturen auf gefährliche Werte ansteigen.

Der beunruhigendste Aspekt dabei: diese extremen Kälteereignisse sind eine Erinnerung daran, dass wir in großer Gefahr sein könnten, wenn unsere Regierungen weiterhin eine Klimapolitik verfolgen, die auf fehlerhaften Prognosen und unzuverlässigen erneuerbaren Energien basiert. Hier ist der Grund dafür.

[Hervorhebung vom Übersetzer]

Der Kalt-Winter 2020-2021

Mein Besuch in Delhi in diesem Dezember war ziemlich denkwürdig. Die Stadt befand sich in einer intensiven Kälteperiode. Die Tiesttemperaturen in den Monaten Oktober, November und Dezember brachen viele Rekorde.

Mit nur 2 Grad Celsius erlebte Indiens Hauptstadt am 14. Januar einen der kältesten Wintermorgen. Srinagar in Jammu und Kaschmir verzeichnete einen Tiefstwert von minus 8,4 Grad Celsius, den niedrigsten seit 30 Jahren.

Für die Bewohner war das allerdings keine Überraschung. Der vorherige Winter (Dezember 2019) brach 100-Jahres-Rekorde. Intensive Kälte ist über die letzten Jahren zur Norm geworden.

[Hervorhebung vom Übersetzer]

In den USA wurden in diesem Jahr landesweit Rekordkälte- und -schnee-Ereignisse registriert. In Spanien sanken historisch tiefe Temperaturen auf 20-Jahres-Tiefstwerte. Drüben in Sibirien, Russland und Japan war es nicht anders. Peking verzeichnete den kältesten 7. Januar seit den 1960er Jahren.

Diese Kälteereignisse müssen unter Berücksichtigung der vielfältigen klimatischen Faktoren analysiert werden, die sie beeinflussen können. Die Sonnenaktivität, die Erdrotation, Veränderungen der magnetischen Pole, arktische Kälteeinbrüche und viele andere Faktoren bestimmen regionale und globale Wettermuster mit.

Hysterische Klimatheorien bewahrheiten sich nicht

Während diese Rekordkälte- und Schneefallereignisse die globale Erwärmung nicht widerlegen, informieren sie uns darüber, dass sich Kälteeinbrüche und Schneefälle in der realen Welt sowohl in ihrer Intensität als auch in ihrer Häufigkeit erheblich von der klassischen Erzählung über die globale Erwärmung/Klimawandel unterscheiden.

Al Gore hat zum Beispiel behauptet, dass die Sommer in der Arktis bis 2013 eisfrei werden würden, aber das ist nicht eingetreten. Ebenso sagten Wissenschaftler voraus, dass Schnee eine „Sache der Vergangenheit“ sein würde und dass unsere Kinder nicht wissen werden, was Schnee ist. Aber seit 2017 gab es historische Schneefallereignisse auf der ganzen Welt, einschließlich derer in New York und der jüngsten in Spanien und Japan.

Heiße und kalte Wetterereignisse können jederzeit auftreten. Obwohl es seit dem 18. Jahrhundert einen allmählichen Anstieg der globalen Durchschnittstemperaturen gegeben hat, bedeutet das nicht, dass die Zukunft intensiver heißer sein wird als bisher oder dass unsere Winter milder sein werden. Keines der Computer-Klimamodelle war bisher in der Lage, die Temperaturschwankungen oder das Eintreten von Kälte- oder Wärmeereignissen genau vorherzusagen.

Die Zukunft nie auf Erneuerbare oder die Klimamodelle bauen

Die Entwicklung der Kalt-Wetterereignisse und das Scheitern der Klimaprophezeiungen sollten uns helfen, den zukünftigen Kurs des Energiesektors zu bestimmen. Wind und Sonne erzeugen bei Kälte wenig oder gar keinen Strom. Das bedeutet, dass die Volkswirtschaften immer noch zuverlässige Energie aus Kohle und Öl benötigen werden, egal wie viele Wind- und Solarfabriken wir bauen.

[Hervorhebung vom Übersetzer]

Dies wurde bei den jüngsten extremen Kälteereignissen in China und Europa deutlich, wo die Wind- und Solarnetze keinen Strom erzeugen konnten. Erschwerend kam hinzu, dass die extreme Kälte eine erhebliche Energienachfrage (zum Heizen) mit sich brachte, so dass sich die Energieversorger beeilten, mehr Strom aus wetterunabhängigen Kohlekraftwerken zu erzeugen.

Pekings einziges Kohlekraftwerk nahm im Dezember den Betrieb wieder auf, um den gestiegenen Energiebedarf zu decken. Peking erklärte: „Die (jüngste) historische Spitzenlast kam, als extrem kaltes Wetter die Nachfrage nach strombetriebenen Heizungsanlagen erhöhte, die 48,2 % der Gesamtlast ausmachen.“

Mit einfachen Worten: Die Länder sollten ihre Zukunft nicht auf erneuerbare Energien setzen. Selbst im Sommer sind sowohl Wind als auch Solar unzuverlässig und teuer. Abgesehen davon, dass sie die Strompreise für die Verbraucher unnötig in die Höhe treiben (wie in Deutschland und Kalifornien bewiesen), stellen sie auch eine Belastung für die Netzfunktionalität dar. Trotzdem werden Wind- und Solarenergie auf Kosten der Steuerzahler subventioniert und als die Zukunft der Welt gepriesen.

[Hervorhebung vom Übersetzer]

This article was originally published on Townhall.com.

Link: https://cornwallalliance.org/2021/02/record-cold-of-2021-reminds-us-be-wary-of-climate-predictions-and-energy-priorities/

Übersetzt von Chris Frey EIKE

 




Die Energiewende führt zur Strommangel-Wirtschaft und zur sozialen Spaltung

Während Politik und Medien nicht müde werden, vom Erfolg der Energiewende zu künden, stellt sich die reale Entwicklung anders dar. Sie kann als „alarmierend“ bezeichnet werden.

Henrik Paulitz denkt tiefer und weiter, als es Politiker in den Spinnennetzen der Macht können und wollen. Alles hängt mit allem zusammen. Die fundamentale Wirkung von absehbarem Mangel an Energie auf den inneren und äußeren Frieden hat in dieser Form noch niemand thematisiert.

 

Sehr geehrter Herr Paulitz, Sie haben in Ihrem Buch „StromMangelWirtschaft“ eindrucksvoll dargelegt, dass wir in Deutschland Zeiten des Strom- und Energiemangels entgegen gehen. In Ländern der Dritten Welt bildet er das gravierendste Hemmnis wirtschaftlicher Entwicklung. Oft sind es Wachstumsschmerzen. Erstmalig entscheidet sich mit Deutschland ein führendes Industrieland mit einer hoch arbeitsteiligen Wirtschaft für eine Entwicklung hin zu  begrenzter Verfügbarkeit von Energie. Welche Folgen wird das haben?

 

Der Bevölkerung ist es derzeit kaum bewusst, dass der Strom künftig nicht mehr zuverlässig aus der Steckdose kommen wird. Auch die extrem kritischen Bereiche wie Mobilität, Warmwasser, Beheizen von Häusern und Wohnungen, die Energieversorgung der gesamten Wirtschaft sind bald schon nicht mehr zuverlässig gewährleistet.

 

In der Öffentlichkeit ist dies nicht zu vernehmen.

 

In den Talk-Shows von Sandra Maischberger, Anne Will, Maybrit Illner, Frank Plasberg und Markus Lanz ist es seltsamerweise kein Thema, dass die Industrienation Deutschland ihrer Industrie heute schon regelmäßig den Strom abschalten muss. Im allabendlichen Polit-Talk werden keine Manager etwa der energieintensiven Aluminiumindustrie eingeladen, denen man beispielsweise 2018 fast 80-mal den Strom abgeschaltet hat. Stellen Sie sich mal ein Land vor, das vom Fischexport lebt, ohne dass man dort im Fernsehen regelmäßig über die Exportchancen von Fisch spräche. In Deutschland gelingt aber das fragwürdige Meisterstück, dass man sich mehr für die Kaiserpinguine in der Antarktis interessiert als für das ökonomische Überleben der Bevölkerung und der eigenen Exportwirtschaft. Das ist der Wesenskern des Versagens von Politik, Wissenschaft und Publizistik in unserem Land. Am Ende lassen wir es zu, dass die Grundlagen unseres Wohlstands innerhalb kürzester Zeit zerstört werden könnten.

 

Das ist großes Kaliber. Die meisten Menschen im Land, auch Politiker, Manager und Journalisten, scheinen dies nicht zu sehen.

 

Die Problemanalyse ist im Grunde sehr trivial: Laut dem Verband der Familienunternehmer ist die zuverlässige Versorgung mit Strom und anderer Energie der letzte große Vorteil des europäischen und deutschen Wirtschaftsstandortes gegenüber den globalen Wettbewerbern. Das Institut der deutschen Wirtschaft legte 2013 eine Studie vor, wonach ein Abwandern der energieintensiven Industrie einen Großteil der übrigen gewerblichen Wirtschaft mit in den Abgrund ziehen könnte. Die Deindustrialisierung Deutschlands hat längst eingesetzt und eine immer unzuverlässigere Energieversorgung würde Deutschland und Europa den Rest geben.

 

Welcher Denkfehler liegt dieser fatalen Entwicklung zugrunde?

 

Jedes Fisch-exportierende Entwicklungsland weiß, dass es Fisch exportieren muss. In Deutschland aber glauben manche, man könne mit der Bazooka „Helikoptergeld“, ein bedingungsloses Grundeinkommen und auch alle möglichen sonstigen Wohltaten „verteilen“, ohne noch irgendetwas auf dem Weltmarkt erfolgreich verkaufen zu müssen. Man meint, man könne reiche Kaufleute mit einer „Reichensteuer“ belasten, während man ihnen und ihren Beschäftigten zugleich die Geschäftsgrundlage entzieht. Man glaubt, der Staat könne Geld verteilen, welches die Europäische Zentralbank in x-beliebiger Menge aus dem Nichts schöpft, ohne dass dies negative Folgen hätte.

 

Deutschland plant nun Herstellung und Export von „grünem Stahl“: Aus Wind- und Solarstrom erzeugt man Wasserstoff, mit dem „klimaneutraler“ Stahl erzeugt und exportiert werden soll. Ist das eine realistische Option für den „Klimaschutz“?

 

Das mit dem grünen Stahl ist in der Theorie eine wunderschöne Idee. Tatsächlich kann man sich Wasserstoff als quasi „universelle Schnittstelle“, als Speicher und Sekundärenergieträger für eine fluktuierende Stromerzeugung mit Wind und Sonne und für alle möglichen Energieverbräuche sehr gut vorstellen. Diese wirklich schöne Vision einer all-umfassenden „Wasserstoffwirtschaft“ ist aber, das muss man wissen, alles andere als neu. Sie wird spätestens seit den 1970er, 1980er Jahren umfassend erforscht, entwickelt und im Rahmen von Pilotprojekten erprobt. Und, auch das muss man wissen: Wesentliche technisch-ökonomische Probleme einer solchen Wasserstoffwirtschaft wurden schon vor vier, fünf Jahrzehnten sehr umfassend beschrieben und diskutiert, und in der Substanz hat sich an den wesentlichen Problemfeldern seitdem nicht allzu viel geändert.

 

Warum „fliegt“ das Thema nicht, so wie es sich der Bundeswirtschaftsminister wünscht?

 

Die technischen Herausforderungen zur Handhabung des leicht flüchtigen Wasserstoffs sind hoch, der Systemwirkungsgrad einer Wasserstoffwirtschaft ist katastrophal schlecht, die dafür erforderliche Wind- und Solarstromproduktion wäre deswegen riesig und entsprechend wäre auch der Subventionsbedarf gigantisch hoch. Selbst die Wissenschaftsredaktion des „Spiegel“ weist darauf hin, dass sämtliche  2019 in Deutschland installierten Windräder an Land und zur See benötigt werden würden, „wollte die Stahlindustrie ihren Energiebedarf aus erneuerbaren Quellen decken“. Da aber selbst laut Umweltbundesamt die praktisch verfügbaren Windenergiepotenziale noch nicht einmal für den konventionellen Stromsektor ausreichen, ist bei nüchterner Betrachtung klar, dass für „grünen Stahl“ und anderes kein überschüssiger Windstrom erzeugt werden kann – was ThyssenKrupp in einer Stellungnahme für den Düsseldorfer Landtag im Mai 2020 auch unmissverständlich klarstellte. Ebenso schreibt auch die Deutsche Bank Research in einer aktuellen Analyse, schnelle Lösungen sollte man nicht erwarten, und auch die Bundesregierung verfalle beim Thema Wasserstoff nicht in Euphorie.

 

Welche Folgen werden aus der Wasserstoffstrategie der Bundesregierung erwachsen?

 

In der Öffentlichkeit versucht man, ein Bild zu zeichnen, wonach Deutschland bald schon „grünen Stahl“ exportiert. Tatsächlich aber greift ThyssenKrupp für sein „Vorzeigeprojekt“ in Duisburg zur Herstellung von Wasserstoff-Stahl notgedrungen auf Wasserstoff zurück, der aus Erdgas gewonnen wird. Mehr noch: Ein hochrangiger Vertreter der Wasserstoffforschung machte bei einer Veranstaltung der CDU/CSU-Bundestagsfraktion im Dezember 2019 ganz offen deutlich, dass es gar nicht darum geht, auf Dauer Stahl-Arbeitsplätze in Deutschland zu sichern. Vielmehr solle Deutschland ganz selbstlos als „Geschenk an die Welt“ die Markteinführung von grünen Wasserstoffprojekten subventionieren. Ähnlich wie bei den Photovoltaik-Modulen, die inzwischen nicht mehr in Deutschland, sondern in Asien produziert werden und dort Arbeitsplätze sichern, solle es nun auch für den grünen Wasserstoff zunächst in Deutschland „Geschäftsmodelle in geschützten Bereichen“ geben, nach der Technologie-Einführung würde der Solarwasserstoff dann aber beispielsweise in Saudi-Arabien produziert. Einem Bericht des Deutschlandfunks zufolge sollen nun mit Milliarden aus dem Corona-Konjunkturpaket „Produktionsanlagen in sonnenreichen Partnerländern entstehen“.

 

Was bedeutet das für Deutschland und die EU?

 

Deutschland wird so zu einem Land der Pilotprojekte und Markteinführungsprogramme, die dazu dienen, die Industrie in andere Länder zu verlagern. Laut einem Handelsblatt-Bericht von 2019  gilt es in der Stahlbranche als ausgemacht, dass die EU eines Tages harte Regeln für eine klimaneutrale Industrie festlegen wird. Der damalige EU-Kommissar für Klimaschutz und Energie, Miguel Arias Cañete, habe erklärt, bei einer vollständigen Dekarbonisierung Europas könnten möglicherweise ganze Industriezweige verschwinden. Ebenso mahnte auch IG Metall-Chef Jörg Hofmann im September 2019, es sei nicht möglich, die deutsche Industrie bis 2035 völlig emissionsfrei zu machen, ohne dass dann Massenarbeitslosigkeit und Wohlstandsverluste drohen.

 

Kommen wir zu den Privathaushalten. Der Energiemangel wird zwangsläufig zu steigenden Preisen für alle Endenergieformen und zu einer Suffizienzwirtschaft führen, angeheizt auch durch die CO2-Steuern.

 

Mit der in diesem Jahr eingeführten CO2-Abgabe gerät der Energieverbrauch im Gebäude- und im Verkehrsbereich von Jahr zu Jahr stärker unter Druck. In den nächsten fünf Jahren können da fürs Heizen leicht 1800 Euro Mehrkosten pro Haushalt entstehen, wie Modellrechnungen zeigen. Preissteigerungen beim Öl kommen möglicherweise noch on top dazu. Hinzu kommt auch das Verbot reiner Ölheizungen ab 2026, die Grünen wollten sogar ein Gasheizungs-Verbot. Man möchte die Bevölkerung zwingen, kostspielige Elektrowärmepumpen zu installieren, ohne dass man für diese den zusätzlichen Strom mit Wind und Sonne erzeugen könnte. Was machen Menschen, die sich das Heizen oder den teuren Austausch einer Heizungsanlage nicht leisten können?

 

Das alles wird die sozial Schwächsten am stärksten treffen. Was bedeutet dies für den sozialen Frieden und die grundgesetzliche Ordnung in Deutschland?

 

Der jetzt zum Teil abstürzenden Mittelschicht, Mietern und den sozial Schwächsten wird es immer schwerer fallen, im Winter ihre Wohnungen zu beheizen. Bei der populistischen Verzichtsdebatte wird gerne der Anschein erweckt, als ginge es um den SUV oder die Shopping-Trips nach New York. In Wirklichkeit aber stellt eine solche Klima- und Verzichtspolitik knallhart die Befriedigung von Grundbedürfnissen wie Raumwärme und die Warmwasserversorgung in Frage. Es geht nicht um den Verzicht auf Luxus oder um „Konsumterror“, wie es gerne gesagt wird, sondern um unmittelbar lebensnotwendige Dinge. Der soziale Friede wird so in höchstem Maße gefährdet. Warum eigentlich diskutiert man in den politischen Talkshows und im Deutschen Bundestag nicht regelmäßig über all das?

 

Absehbar sind Eingriffe auf der Verbraucherseite, beginnend mit einer „Spitzenglättung“, später vielleicht sogar mit einer Rationierung von Energie. Führen diese damit verbundenen Zielverletzungen zum Beispiel des Paragrafen eins des Energiewirtschaftsgesetzes (die „möglichst sichere, preisgünstige, verbraucherfreundliche, effiziente und umweltverträgliche leitungsgebundene Versorgung der Allgemeinheit . . .“) zur Gefährdung des inneren Friedens und welche Konfliktlinien sind absehbar?

 

Weil Wind- und Solaranlagen mal zu viel und mal zu wenig Strom produzieren und die nötigen Langzeitspeicher weder verfügbar sind, noch im erforderlichen Umfang verfügbar gemacht werden können, sollen sich nun die Verbraucher „flexibel“ an das extrem schwankende Stromangebot anpassen. Aktuell ist ein Gesetz in der Diskussion, auf dessen Grundlage die Netzbetreiber bei Strommangel den Elektroautos und den Elektrowärmepumpen ferngesteuert den Strom abschalten können. Christoph Müller, Chef des Netzbetreibers Netze BW, spricht von einer „Engpassbewirtschaftung“. Es handelt sich um die Rationierung von Strom – um den Einstieg in eine „StromMangelWirtschaft“. Interessant ist, dass man laut Bundesverband Solarwirtschaft Besserverdienenden die Möglichkeit einräumen möchte, sich von den Stromabschaltungen freizukaufen. Für einen Netznutzungs-Preis von beispielsweise 2000 Euro pro Jahr soll bei den somit Privilegierten weiterhin der Strom zuverlässig aus der Steckdose kommen, während anderen bei Knappheit der Strom abgeschaltet wird. Die Stromversorgung wird also schon bald zu einer Frage des Geldbeutels. Eine solche Energiewende- und Klimaschutzpolitik führt zu einer extremen sozialen Spaltung, zu massivster sozialer Ungerechtigkeit, letztlich zur Wiederkehr der sozialen Frage. Es ist zur Bewahrung des inneren Friedens überfällig, diese Politik grundlegend zu überdenken.

 

Sind unter den absehbar eintretenden Bedingungen noch technisch-ökonomischer Fortschritt und eine Verbesserung der Lebensbedingungen – ein so genannter „Green Deal“ – möglich?

 

Die Verbesserung der Lebensbedingungen ist inzwischen eigentlich gar kein Thema mehr, längst geht es nur noch um einen substanziellen Wohlstandsverlust. Es werden Diskussionen geführt, ob nicht 20 Quadratmeter Wohnfläche für vier Personen genug seien. Dabei könnte es auch ganz handfest ans Eigentum der kleinen Leute gehen: Das Wuppertal Institut für Klima, Umwelt, Energie hat 2020 im Auftrag von „Fridays For Future“ ein Konzept entwickelt, wonach Hauseigentümer zu technisch fragwürdigen energetischen Gebäudesanierungen gezwungen werden sollen, die der Staat „vorfinanzieren“ soll. Da kann man sich die Frage stellen: Kommt es, wenn die Eigentümer die eventuellen Zwangshypotheken nicht zurückzahlen können, zu Zwangsversteigerungen und somit zu kalten Enteignungen von Wohngebäuden? Das Grundproblem besteht darin, dass der so genannte „Green Deal“ in seinen realen Konsequenzen in der Öffentlichkeit überhaupt nicht durchdekliniert wird. Es wird einfach nur postuliert, es handele sich um etwas Gutes und die Deutschen sind natürlich immer sehr dafür, Gutes zu tun. Was aber ist, wenn der Green Deal die Industrie aus Europa vertreibt und Massenarbeitslosigkeit und Massenelend hervorbringt?

 

Sowohl der Ausstieg aus der Kernenergie als auch der aus der Kohle sind nationale Vorhaben, die mit den Nachbarländern und anderen Ländern der EU und Europas nicht abgestimmt wurden. Welche Folgen sind für die Außenbeziehungen Deutschlands und vor dem Hintergrund der „ever closer union“ zu erwarten?

 

Dass in Deutschland die Energiewende völlig fehlgesteuert ist, ist das eine. Das andere ist die Tatsache, dass andere europäische Länder andere Wege gehen. Polen beispielsweise möchte auch weiterhin Kohlekraftwerke betreiben, um zuverlässig preiswerten Strom zu produzieren. Da drängt sich die Frage auf: Gelten auch weiterhin die europäischen Verträge, wonach die Mitgliedstaaten der EU über ihre Energieversorgungsstruktur selbst bestimmen können? Oder wird man auf Staaten wie Polen massivsten Druck ausüben? Und was ist, wenn die Zwangsmaßnahmen nicht zum Ziel führen sollten – führen wir dann „Klimaschutzkriege“ gegen Polen und andere Staaten, um dort Kohlekraftwerke, Kohlebergwerke und anderes mehr zu zerstören? Der Krieg in der Ostukraine zeigt, dass Kohlebergwerke und die sonstige Energie-Infrastruktur sehr wohl aktuelle Kriegsziele sind. Wir Deutschen sollten uns angesichts einer sich zuspitzenden Ideologisierung der Politik der Gefahr bewusst sein, stets Gutes tun zu wollen, aber gerade dadurch eventuell neue historische Schuld auf uns zu laden.

 

Wozu würden Sie raten?

 

Wenn wir Deutschen wirklich Gutes tun wollen, dann sollten wir dringend über solche Zusammenhänge nachdenken. Anstelle von verbissenen, ideologischen Streitigkeiten um Kleinlichkeiten, sollten wir versuchen, gangbare Wege zur Bewahrung des Wohlstands und des Friedens zu finden. Aktuell könnte die Entschleunigung anstelle einer Beschleunigung von Veränderungsprozessen überlebensnotwendig sein. Gerade in Krisenzeiten kommt es nicht zuletzt auf die Bewahrung einer robusten Infrastruktur an, möglichst auch in enger Abstimmung mit unseren europäischen und außereuropäischen Nachbarstaaten. Wenn es gelänge, einen fairen Ausgleich der energiewirtschaftlichen und der sonstigen Interessen zu finden, beispielsweise im Rahmen einer „Eurasischen Energie- und Friedenskonferenz“, wäre das möglicherweise die beste Garantie für den Erhalt des Friedens in Europa.

 

In Ihrem Buch zeigen Sie den absehbaren Mangel an Strom ab spätestens 2023 eindrucksvoll auf. Welche Optionen bleiben Ihrer Ansicht nach, durch kurzfristige Änderungen des politischen Kurses eine bedarfsgerechte Stromversorgung zu erhalten?

 

Dass ausgerechnet der Bundesverband Solarwirtschaft vor einer unmittelbar bevorstehenden, gigantischen Stromlücke von bis zu 30 Gigawatt warnt, sollte die Republik zum Nachdenken bringen. Aufgrund der Versäumnisse der vergangenen Jahre ist es jetzt kurzfristig gar nicht mehr möglich, den Empfehlungen der Kohlekommission folgend, rechtzeitig neue Gaskraftwerke als Ersatz für stillzulegende Atom- und Kohlekraftwerke ans Netz zu bringen. Es ist daher nicht zu verantworten, weitere Kraftwerke stillzulegen.

Henrik Paulitz (geb. 1968) ist Gründer und Leiter der „Akademie Bergstraße für Ressourcen-, Demokratie- und Friedensforschung“. Er ist der Autor mehrerer Bücher, darunter „StromMangelWirtschaft“ (2020), „Kriegsmacht Deutschland?“ (2018) und „Anleitung gegen den Krieg“ (2016).

Die Akademie Bergstraße befasst sich mit Ressourcen-, Demokratie- und Friedensforschung. Aktuelle Schwerpunkte sind die „Gefährdung der Versorgungssicherheit und des Wohlstands“ sowie ein „Atlas der Kriege und Ressourcenkonflikte“. Als Forschungsmethode entwickelte die Akademie die „deskriptive, ökonomisch orientierte Friedens- und Konfliktforschung“, mit der wesentliche, universelle Kriegsziele identifiziert und daraus friedenspolitische Empfehlungen abgeleitet werden können. Die Akademie Bergstraße stellt ihre Analysen und Empfehlungen der interessierten Öffentlichkeit, sowie Wirtschaft, Verbänden und Politik zur Verfügung.

https://www.akademie-bergstrasse.de/

 

 

[Buchhinweis]

ISBN 978-3-981-8525-3-0

20,00 €




Woher kommt der Strom? Es wird richtig teuer

Nach meiner Erfahrung kalkulieren die konventionellen Stromerzeuger (Abbildung)

ihre Stromerzeugung so, dass nicht so viel Strom über die Mittagsspitze produziert wird, dass er mit hohen Verlusten (negative Strompreise) verschenkt werden muss. Das allerdings hat zur Folge, dass am Morgen und am Nachmittag zu wenig Strom in Deutschland produziert wird. Da reicht auch der massive Einsatz der Pumpspeicherkraftwerke nicht aus. Es fehlt Strom (Abbildung 1), der letztendlich von unseren Nachbarn dem Industriestaat Deutschland zur Verfügung gestellt wird (Abbildung 2). Die Rechnung der konventionellen Stromproduzenten geht an einem Tag der Woche nicht auf. Da fallen dann doch negative Strompreise an. Bleibt die Frage, ob sich die an sich vernünftige und einleuchtende Kalkulation unter dem Strich rechnet. Schließlich muss der Importstrom auch bezahlt werden. Allerdings nicht von den Kraftwerksbetreibern. Es sind direkt die Stromkunden, denen der Import in Rechnung gestellt wird. Konventionelle Kraftwerke werden nur dann betrieben, wenn Gewinne in Aussicht stehen oder eine echte Notlage – es ist nicht genügend Strom im Markt – zu bewältigen. Dass die gesamte Gemengelage der Stromerzeugung und die damit verbundene Versorgungs(un)sicherheit höchst komplex ist, leuchtet ein, wenn man Abbildung 1 noch mal betrachtet. Die Windstromerzeugung ist sehr volatil. Sie reicht von annähernd 0 GW bis über 30 GW innerhalb von nicht mal 72 Stunden. Dazu zusätzlich zweimal die starke Sonnenstromerzeugung in einem eingeschränkten Zeitfenster.

Das Preis-Ergebnis sieht in der Übersicht so aus: Abbildung 3. Wenn man die realen Zahlen saldiert, kommt dieses Ergebnis heraus: Insgesamt wurden unter dem Strich 43,59 GWh exportiert und zusätzlich neun Millionen € mitgegeben. Der Preis pro MWh lag im Export, also der Betrag, den Deutschland erhielt bei 38,77 €. Für eine MWh, die Deutschland importierte, mussten 50,93 € bezahlt werden. Die Zahlen im Detail finden Sie unter Abbildung 4.

Abbildung 5 enthält die Charts mit den Im- und Exporten Strom der 13. Woche und seit Beginn des Jahres 2021. Grundlage sind die Werte der Energy-Charts. Ebenfalls mit den Werten der Energy-Charts wurde die Tabelle sowie der aus dieser Tabelle generierte Chart hergestellt (Abbildung 6).

Die nach Energieträgern aufgeschlüsselte Stromerzeugung der 13. Analysewoche liegt unter Abbildung 7. Klicken Sie dort auf den Ergebnislink. Schalten Sie z. B. den per Kernkraft erzeugten Strom ab. Sie sehen sofort, welche Stromlücken sich zu den bereits vorhandenen – geschlossen durch den rot gekennzeichneten Importstrom – auftun. Nun noch z. B. die Braunkohle wegklicken. Da bekommt man eine schöne Aussicht auf die kommende Stromversorgung. Oder glaubt irgendjemand, dass zusätzliche Wind- und Sonnenkraftwerke die entstehenden Lücken bis Ende 2022 und Zug-um-Zug bis Ende 2038, manche fabulieren gar bis Ende 2030, weil sonst die Welt unterginge, wirklich nachhaltig schließen könnten? Nein, es wird Strom aus Kernkraft und auch fossil hergestellter Strom importiert werden. Hinzu kommt konventioneller Strom (Gas) aus heimischer Produktion. Nochmal und immer wieder: Der Ausstieg aus der Kernenergie ist und bleibt im Sinn der Verminderung des CO2-Ausstoßes in Deutschland kontraproduktiv.

Jetzt kommt Peter Hager aus Lauf an der Pegnitz mit seiner Anfrage an die Bundesnetzagentur ins Spiel. Abbildung 8 enthält die leicht modifizierte Anfrage, die von jedem Leser dieser Kolumne kopiert und an den für sie zuständigen Bundestagsabgeordneten und/oder Landtagsabgeordneten gemailt werden sollte. Damit am Ende niemand der Verantwortlichen sagen kann, er hätte nichts gewusst.

Bedenken Sie bitte: Es geht nicht nur um Strom, ein warmes Zuhause und heiße Mahlzeiten. Es geht um die Art und Weise, wie wir in Zukunft leben wollen. In einer Strom-Mangelwirtschaft mit Stromzuteilung oder in einem freiheitlichen und sicheren Rechtsstaat, in der jeder Mensch seine Grundbedürfnisse individuell erfüllen kann. Eine dauerhaft-sichere und nachhaltige Energieversorgung auch mittels Strom gehört unbedingt dazu.

Tagesanalysen

Montag, 29.3.2021: Anteil erneuerbare Energieträger an der Gesamtstromerzeugung 65,50 Prozent, davon Windstrom 38,64 Prozent, Solarstrom 15,33 Prozent, Strom Biomasse/Wasserkraft 11,53 Prozent. Die Agora-Chartmatrix: Hier klicken.

Zum Wochenbeginn tut sich am Nachmittag die bereits hinlänglich bekannte Stromlücke auf. Nachdem der Strom über Tag preiswert verkauft wurde, steigen die Preise zum späten Nachmittag. Stromimport ist nötig. Reicht am Vormittag der konventionelle Pumpspeicherstrom noch aus, um gute Preise zu erzielen; am frühen Abend ist es hoffnungslos. Zu groß ist die Stromlücke. Der Handelstag im Detail. Vor allem Frankreich macht feine Preisdifferenzgeschäfte.

Dienstag, 30.3.2021: Anteil erneuerbare Energieträger an der Gesamtstromerzeugung 49,02 Prozentdavon Windstrom 15,59 Prozent, Solarstrom 20,17 Prozent, Strom Biomasse/Wasserkraft 13,26 Prozent. Die Agora-Chartmatrix: Hier klicken.

Viel Solarstrom. Aber die Windstromerzeugung sinkt komplett ab. Jetzt gibt es morgens und abends eine Stromlücke. Ach was, Lücke. Da klaffen fast schon Canyons. Gut, wir wollen nicht übertreiben. Doch nur um die Stromübererzeugung um die Mittagsspitze gering zu halten, ist es m. E. ökonomisch kaum zu verantworten, die Importmenge so zu steigern. Oder doch? Billig war es jedenfalls nicht. Selbstverständlich werden Pumpspeicher eingesetzt. Selbstverständlich geben unsere Nachbarn ihren Strom gerne an Deutschland ab. Noch brauchen sie ihn nicht selbst.

Mittwoch, 31.3.2021: Anteil erneuerbare Energieträger an der Gesamtstromerzeugung 39,77 Prozentdavon Windstrom 4,06 Prozent, Solarstrom 21,40 Prozent, Strom Biomasse/Wasserkraft 14,31 Prozent. Die Agora-Chartmatrix: Hier klicken.

Fast kein Windstrom. Dafür gibt’s es viel Solarstrom. Und wieder Stromlücken, die hochpreisig geschlossen werden müssen. Natürlich bullern die Konventionellen. Doch es reicht nicht. Es soll nicht reichen. Sonst würde die Gasverstromung hochgefahren. Das aber wäre wohl teurer als der Stromimport. Ich weiß es nicht, ich kann es nicht beurteilen. Teuer, teuer aber ist es so oder so. Energiewende pur.  Der Handelstag.

Donnerstag, 1.4.2021: Anteil erneuerbare Energieträger an der Gesamtstromerzeugung 52,26 Prozent, davon Windstrom 23,63 Prozent, Solarstrom 15,42 Prozent, Strom Biomasse/Wasserkraft 13,21 Prozent. Die Agora-Chartmatrix: Hier klicken.

Die Windstromerzeugung nimmt über Tag wieder zu. Die Solarstromerzeugung lässt etwas nach. Die Stromlücken werden kleiner. Bleiben aber dennoch teuer. Am Vorabend ist es fast schon tragisch, dass trotz erheblichem Pumpspeichereinsatz eine Mini-Lücke über bleibt, die fast 70€/MWh kostet. Der Handelstag.

Freitag, 2.4.2021: Anteil erneuerbare Energieträger an der Gesamtstromerzeugung 64,65 Prozent, davon Windstrom 35,42 Prozent, Solarstrom 15,13 Prozent, Strom Biomasse/Wasserkraft 14,10 Prozent. Die Agora-Chartmatrix: Hier klicken.

Windstrom plus Solarstrom steigen über Mittag Richtung Bedarf. Prompt fällt der Strompreis in den negativen Bereich. Die konventionelle Stromerzeugung fährt komplett herunter. Nur die für die Netzstabilität notwendigen 20 GW, es ist zum Teil etwas mehr, zum Teil etwas weniger, werden produziert. Der Handelstag. Dänemark, Frankreich und Schweden machen gute Geschäfte.

Samstag, 3.4.2021: Anteil Erneuerbare an der Gesamtstromerzeugung 64,43 Prozent, davon Windstrom 30,71 Prozent, Solarstrom 17,72 Prozent, Strom Biomasse/Wasserkraft 16,01 Prozent. Die Agora-ChartmatrixHier klicken.

Wochenende: Wenig Bedarf. Geht heute die Kalkulation der Konventionellen auf? Sie denken jedenfalls nicht daran, die Produktion hochzufahren. Die entstehenden Lücken werden hochpreisig geschlossen. Der Exportstrom wird billig abgegeben. Diese Nachbarn profitieren.

Sonntag, 4.4.2021: Anteil erneuerbare Energieträger an der Gesamtstromerzeugung 64,35 Prozent, davon Windstrom 28,93 Prozent, Solarstrom 19,77 Prozent, Strom Biomasse/Wasserkraft 15,65 Prozent. Die Agora-Chartmatrix: Hier klicken.

Noch weniger Bedarf. Deutschland steht praktisch still. Ab 8:00 Uhr zieht die Windstromerzeugung an. Zusammen mit dem Sonnenstrom kann ab 9:00 Uhr für den Rest des Tages Strom exportiert werden. Bis dahin kostet der Importstrom trotz der Nacht- und Morgenstunden – da ist Strom in aller Regel günstig – richtig Geld. Zum Vorabend wird massiv Pumpspeicherstrom produziert, damit zum Abend mal Kasse gemacht werden kann. Von Deutschland. Und es funktioniert. Da fällt kaum ins Gewicht, dass um 15:00 Uhr der Strom verschenkt wurde, oder?

Die 13. Analysewoche belegt, dass das Handling, das optimale Nachführen der konventionellen Stromerzeugung bezogen auf die Wind- und PV-Stromerzeugung faktisch unmöglich ist. Die möglichen Szenarien sind so vielfältig, dass sie kaum korrekt kalkuliert werden können. Solange unsere Nachbarn den fehlenden Strom nach Deutschland liefern können und wollen, ist es nur teuer. Wenn aber wesentliche konventionelle Stromerzeuger (Kernkraft, Kohle) vom Netz genommen werden, dann wird es schwierig.

Es wird oft übersehen, dennoch ist es äußerst wichtig:

In diesem Jahr fällt die Förderung der ersten Windkraft- und PV- Anlagen weg. Die 20 Jahre und mehr sind vorbei. Was nun mit den oft noch funktionstüchtigen Anlagen geschehen soll, dass analysiert ein Artikel der enexion group, den Sie unter Abbildung 9 aufrufen können. Das Problem: Das Entsorgen dieser Anlagen wäre nicht im Sinn der Energiewende, der Weiterbetrieb ist meist unwirtschaftlich, weil ohne Subventionen. Ein typisches Energiewendeproblem, oder?

Noch Fragen? Ergänzungen? Fehler entdeckt? Bitte Leserpost schreiben! Oder direkt an mich persönlich: stromwoher@mediagnose.de. Alle Berechnungen und Schätzungen durch Rüdiger Stobbe nach bestem Wissen und Gewissen, aber ohne Gewähr. 

Die bisherigen Artikel der Kolumne Woher kommt der Strom? mit jeweils einer kurzen Inhaltserläuterung finden Sie hier.

 




Düngung durch Kohlen­dioxid und Gentechnik-Getreide sind die Schlüssel, um Hunger zu beenden

Tatsache ist, dass das meiste pflanzliche Leben entstand, als der Kohlendioxidgehalt viel höher war als er heute ist. Während der letzten Eiszeit sank der Kohlendioxidgehalt in der Atmosphäre auf gefährlich niedrige Werte: nur 180 Teile pro Million (ppm). Pflanzen beginnen zu sterben, wenn der Kohlendioxidgehalt bei oder unter 150 ppm liegt, weil sie dann nicht mehr in der Lage sind, das Sonnenlicht für die Photosynthese von Nahrung aus Kohlendioxid und Wasser zu nutzen. Nachdem die Erde die letzte Eiszeit hinter sich gelassen hatte, stieg der Kohlendioxidgehalt wieder auf ca. 280 ppm, was immer noch weit unter den Werten lag, die zu Beginn der Besiedlung von Land seitens der Pflanzen.

Die Zugabe von ca. 135 ppm Kohlendioxid in die Atmosphäre hat dazu beigetragen, den Hunger unermesslich zu reduzieren.

Seit der weit verbreiteten Entwicklung und Nutzung fossiler Brennstoffe sind Armut und Hunger in der Welt rapide zurückgegangen. Obwohl seit 1968 3,2 Milliarden Menschen hinzugekommen sind, sind Armut und Hunger schneller zurückgegangen als zu jedem anderen Zeitpunkt in der Geschichte der Menschheit. Obwohl weltweit immer noch 840 Millionen Menschen unterernährt sind, ist die Zahl der Hungernden nach Angaben der Vereinten Nationen seit 1990 um zwei Milliarden zurückgegangen. Untersuchungen zeigen, dass heute 17 Prozent mehr Nahrungsmittel pro Person zur Verfügung stehen als noch vor 30 Jahren – und das alles in der Zeit eines angeblich gefährlichen Klimawandels.

Der Grund ist nicht schwer zu finden. Der Anstieg der atmosphärischen Kohlendioxidkonzentration hat die landwirtschaftliche Produktion pro Einheit Anbaufläche bei C3-Getreide (wie Reis, Weizen, Hafer, Baumwolle und immergrüne Bäume) um 70 Prozent, bei C4-Getreide (wie Sorghum, Mais und verschiedene Gräser) um 28 Prozent, bei Obst und Melonen um 33 Prozent, bei Hülsenfrüchten um 62 Prozent, bei Wurzel- und Knollengewächsen um 67 Prozent und bei Gemüse um 51 Prozent erhöht.

Tausende von Experimenten und die Arbeit von Agronomen, Botanikern, Landwirten und Gewächshaus-Betreibern weltweit zeigen, dass sowohl Nutzpflanzen als auch Nicht-Nutzpflanzen bei höheren Kohlendioxidwerten besser gedeihen.

Fossile Brennstoffe sind ein wesentlicher Bestandteil der groß angelegten Nahrungsmittelproduktion, die sich als entscheidend für die Ernährung der wachsenden Weltbevölkerung erwiesen hat. Benzin- und dieselbetriebene Traktoren werden für das Pflanzen, Düngen und Ernten von Nutzpflanzen sowie für den Transport und die Pflege von Nutztieren eingesetzt. Benzin- und dieselbetriebene Lastwagen liefern die Ernte an Lagerhäuser, Verkaufsregale, Speisekammern und Notunterkünfte. Fossile Brennstoffe treiben Bewässerungssysteme an und sorgen für klimatisierte Lagerräume und Kühlsysteme, damit die Ernte nicht verrottet oder von Schädlingen zerfressen wird. Darüber hinaus sind fossile Brennstoffe die Grundlage für moderne chemische Düngemittel und Pestizide, die das Wachstum der Ernte verbessern und beschleunigen und Verluste durch Unkraut, Insekten und andere Schädlinge verhindern.

Fossile Brennstoffe und die absehbare Menge an Kohlendioxid können jedoch wahrscheinlich nicht allein den Hunger beseitigen und die wachsende Weltbevölkerung mit einer ausreichend nahrhaften Tagesration versorgen. Hier kommen gentechnisch veränderte Nutzpflanzen (genetically modified crops, GMC) ins Spiel.

Um die wachsende Weltbevölkerung zu ernähren, ist eine industrielle Landwirtschaft auf Steroiden erforderlich, wobei große Farmen bis 2050 300 Prozent und bis 2100 500 Prozent mehr Nahrungsmittel produzieren werden. Selbst wenn alles Land gleichermaßen als Ackerland genutzt werden könnte (was nicht der Fall ist) und wir massive neue Süßwasserquellen für die Pflanzenproduktion finden könnten, wäre eine erhebliche Ausweitung der aktiv bewirtschafteten Fläche eine Katastrophe für Wildtiere und einheimische Pflanzen. Der Grund dafür ist, dass die Flächen, die am ehesten für die Landwirtschaft umgewandelt werden, Wälder, Weideland und andere Wildnisgebiete sind.

Die effizienteste, effektivste und umweltfreundlichste Strategie für die Ernährung einer größeren Anzahl von Menschen besteht darin, die derzeit bewirtschafteten Flächen intensiver zu bewirtschaften, indem die besten Technologien eingesetzt werden, einschließlich eines hohen Einsatzes von Pestiziden und Düngemitteln und einer breiteren Verwendung von GVOs.

In den letzten 20 Jahren habe ich ausführlich über die Vorzüge des Einsatzes der Biotechnologie geschrieben, um die Ernteerträge und die Ernährung zu verbessern, die Resistenz gegen Schädlinge zu erhöhen und die Fähigkeit der Pflanzen zu verbessern, zu wachsen und Inputs wie Wasser und Mineralien im Boden angesichts extremer Klima- und Wetterbedingungen effizienter zu nutzen. Diejenigen, die sich gegen die Gentechnik aussprechen, sind entweder falsch informiert – ignorant gegenüber der überwältigenden Menge an Beweisen und der Wissenschaft, die wiederholt gezeigt hat, dass die Technologien sicher sind – oder sie sind Misanthropen, also Menschenfeinde.

In einem kürzlich erschienenen Artikel erörtert der indische Forscher Vijay Jayaraj wortgewandt, wie gentechnisch veränderte Nutzpflanzen, die wohl am gründlichsten geprüften Produkte, die jemals entwickelt wurden, für die Lösung der immer noch bestehenden Hungerkrise unerlässlich sind:

Mit dem Fortschritt der Gentechnologie können Wissenschaftler jetzt noch größere Verbesserungen mit höherer Präzision in kürzerer Zeit [als durch konventionelle Kreuzung] erreichen. Viele [GMCs] sind wissenschaftlich getestet, von den weltbesten medizinischen Agenturen zugelassen und von Hunderten von Nobelpreisträgern für sicher erklärt.

Mehr als 100 unabhängige, US-amerikanische, europäische und internationale wissenschaftliche Gesellschaften haben G.M.-Pflanzen für ihre Sicherheit zugelassen und erkennen an, dass sie kein Risiko für die Umwelt oder die menschliche Gesundheit darstellen.

Laut Wissenschaftlern sind die Vorteile von G.M.-Pflanzen u.a. höhere Erträge, verbesserte Qualität und Anpassungsfähigkeit an bestimmte abiotische und biotische Stressfaktoren wie Trockenheit, Schädlinge und Krankheiten.

Eine Studie, die die Auswirkungen von G.M.-Pflanzen auf die Umwelt weltweit untersuchte ergab, dass durch den Einsatz von G.M.-Pflanzen zwischen 1996 und 2008 352 Millionen Kilogramm weniger Pestizide versprüht wurden.

G.M.-Varianten von Reis, Mais, Weizen, Baumwolle, Raps, Kartoffeln, Auberginen, Kürbis, Sojabohnen, Papaya und Zuckerrüben sind bereits zugelassen und werden weltweit auf mehr als 185 Millionen Hektar kommerziell angebaut.

Menschen und Wildtiere auf der ganzen Welt würden von der weiteren Entwicklung und dem breiteren Einsatz von GMCs profitieren. Darüber hinaus würden die größten Vorteile den Ärmsten der Armen in Afrika, Asien sowie Mittel- und Südamerika zugute kommen, also den Gebieten, in denen noch immer bittere Armut, Hunger und Unterernährung bei einem großen Teil der jeweiligen Bevölkerung herrschen.

Der Klimawandel, was auch immer seine Ursachen und Auswirkungen sein mögen, verursacht heute und in Zukunft nicht annähernd so viel menschliches Leid wie Hunger und Unterernährung und die Übel, die sie mit sich bringen, wie frühzeitige Kindersterblichkeit und verkümmerte körperliche und geistige Entwicklung. Das ist seit dem Ende der letzten Eiszeit so und wird wohl auch bis zur nächsten Eiszeit so bleiben.

[Hervorhebung vom Übersetzer]

Quellen: Cornwall Alliance; National Center for Policy Analysis; Roanoke Times; Nongovernmental International Panel on Climate Change; Climate Realism

Link: https://www.heartland.org/news-opinion/news/carbon-dioxide-fertilization-and-biotech-crops-are-the-keys-to-ending-hunger

Übersetzt von Chris Frey EIKE

 




Für den Präsidenten von Mexiko ist erneuerbare Energie nicht die Zukunft – sondern Kohle

Während sie zugeben, dass Umweltschützer verärgert sind, versuchen die Autoren, ihn nicht nur als einen bösen Leugner hinzustellen.

López Obradors Hingabe an fossile Brennstoffe und seine Ablehnung von sauberer Energie zu einer Zeit, in der die meisten Nationen sich in die entgegengesetzte Richtung bewegen, hat Umweltschützer bestürzt, die davor warnen, dass Mexiko nicht in der Lage sein wird, seine Verpflichtungen zur Emissionsreduzierung im Rahmen des Pariser Klimaabkommens zu erfüllen, ebenso wie Wirtschaftsführer, die davor warnen, dass die Energiekosten steigen werden, weil Kohle und Gas etwa doppelt so viel kosten wie Wind und Sonne.

Experten sagen, dass seine Politik weniger in der Leugnung des Klimawandels als vielmehr in Nationalismus und Nostalgie verwurzelt ist.

Der Populist López Obrador spielt mit der stolzen Geschichte Mexikos als fossilem Energielieferanten.

Er wuchs im ölreichen Bundesstaat Tabasco in den Jahrzehnten auf, nachdem Präsident Lázaro Cárdenas das Vermögen ausländischer Energieunternehmen, die in Mexiko tätig waren, enteignete und die Ölreserven und den Rohstoff-Reichtum des Landes verstaatlichte. Jahrzehntelang war die staatliche Ölgesellschaft, bekannt als Pemex, ein Hauptmotor der mexikanischen Wirtschaft.

Sie blieb Teil der nationalen Tradition, selbst als Missmanagement und eine veraltete Infrastruktur die Position des Landes als Top-Ölproduzent schließlich untergruben.

Man beachte: “Experten sagen“ …

Es sieht so aus, als würde Obrador im Namen des mexikanischen Wohlstands und des Nationalismus handeln. Das können wir nicht durchgehen lassen.

Lisa Viscidi, eine Energieexpertin der US-amerikanischen Denkfabrik Inter-American Dialogue sagte, das Ziel des Präsidenten sei es, „ihre Monopole zurückzugeben“, indem er den Energiesektor unter staatliche Kontrolle bringe – auch wenn das bedeute, schmutzigere fossile Brennstoffe zu fördern und mehr Kohlenstoffemissionen zu verursachen.

All diese Dinge wurden für das Ziel der Energie-Souveränität geopfert“, sagte sie.

Dutzende von Unternehmen aus dem Bereich der erneuerbaren Energien haben Klagen eingereicht, um die Änderungen zu stoppen, von denen sie sagen, dass sie sie unfairerweise verdrängen. Mit vielem seiner Politik in der rechtlichen Schwebe hat López Obrador gesagt, er könnte eine Verfassungsänderung einführen, um seine Ziele zu erreichen.

Mexikos Präsident scheint in der Lage zu sein, Big Green die Stirn zu bieten:

Aber der Präsident scheint seine Rolle als Klimaparia zu genießen. Er hat Bedenken über die Umweltauswirkungen seiner Pläne als „Spitzfindigkeiten“ seiner politischen Gegner und der Elite des Landes abgetan.

Seit wann machen sich die Konservativen Sorgen um die Umwelt?“, sagte er im Januar auf einer seiner täglichen Pressekonferenzen. „Sie haben die Fahne der sauberen Energie genauso gekapert, wie sie die Fahne des Feminismus oder der Menschenrechte gekapert haben.“

Als er im letzten Herbst bei der Reaktivierung eines Kohlekraftwerks im nördlichen Coahuila sprach, wetterte er gegen mehrere Dutzend US-Gesetzgeber ob deren Veröffentlichung eines Briefes, in welchem sie seine Energiepolitik kritisierten, weil sie Mexikos Staatsunternehmen bevorzugten.

„“ch bin sehr glücklich, hier zu sein … um denen, die die neoliberale Politik verteidigen zu sagen, dass wir nicht einen Schritt zurückweichen werden“, sagte er.

Sein Anliegen erhielt im Februar unerwarteten Auftrieb, als ein Wintersturm den Strom in Texas ausschaltete. Der Gouverneur dieses US-Bundesstaates untersagte daraufhin den Export von Erdgas, was dazu führte, dass mehr als 4 Millionen Menschen in Mexiko, das stark auf Erdgas aus den USA angewiesen ist, ohne Strom blieben.

López Obrador sagte, das sei ein klares Signal: „Wir müssen produzieren.“

Full article is here, paywalled. I used a “Private Window and slipped through.

Der ganze Beitrag steht hier hinter einer Zahlschranke. Ich benutzte ein „privates Fenster und schlich mich hindurch“.

Link: https://wattsupwiththat.com/2021/04/13/for-mexicos-president-the-future-isnt-renewable-energy-its-coal/

Übersetzt von Chris Frey EIKE

 




Appell an die Fossile-Treibstoffe-Industrie: Wacht endlich auf und kämpft!

Wie sind wir hierher gekommen? Wie konnte es passieren, dass fossile Brennstoffe – die technologische Erfindung, die mehr als jede andere das Gedeihen der modernen Gesellschaft ermöglicht hat – gehasst und verachtet wurden? Wie konnte das Nebenprodukt ihrer Verbrennung – CO2, ein geruchloses, farbloses, geschmackloses, unsichtbares Gas, das für das Pflanzenwachstum und damit für das Leben auf der Erde unerlässlich ist – zu einem Paria werden? Laut dem aufgeweckten Mob ist CO2 die Ursache für eine drohende „Klimakrise“.

CO2 in der Atmosphäre wird erst seit den 1970er Jahren offiziell gemessen, und es existiert in so winzigen Mengen, dass es in Teilen pro Million geeicht wird. Wenn ein erdölbasiertes CO2-Molekül in einem 10.000-Molekül-Basketballstadion sitzen würde, wäre es umgeben von 7.900 Molekülen Stickstoff, 2.000 Molekülen Sauerstoff und gerade einmal 4 Molekülen CO2, von denen nur eines (höchstens) aus fossilen Brennstoffen stammen würde. Ein einziges Molekül!

Klimaaktivisten sagen uns, dass eine Art Klima-Armageddon eintreten wird, wenn dieses eine vom Menschen verursachte CO2-Molekül bis zum Jahr 2100 auf insgesamt zwei ansteigen sollte. Ist es nicht seltsam, dass in der 4,5-Milliarden-Jahre-Geschichte der Erde, als ausbrechende Vulkane das atmosphärische CO2 um Tausende von Teilen pro Million auf- und abschwingen ließen, ein ähnliches Armageddon nie stattfand? Erst jetzt, im Jahr 2021 n. Chr., im ersten Jahr der Biden-Regierung, befindet sich die Erde in dieser misslichen Lage.

Die Theorie ist mehr als seltsam und bizarr. Sie ist kompletter Unsinn. Sie ist die große Lüge unserer Zeit.

Die Umweltschutzbehörde der Obama-Regierung erklärte CO2 zu einem „Schadstoff“. Das lasse man sich mal auf der Zunge zergehen: Wenn das wahr ist, dann ist jedes Mitglied der menschlichen Rasse ein Verschmutzer. Jeder von uns atmet jeden Tag 2,5 Pfund CO2 aus. Genauso wie jede der 6.000 Säugetierarten, die 18.000 Vogelarten, jede Fischart, eine Million Billion Zooplankton im Ozean – jedes Lebewesen, das auf dem Planeten Sauerstoff aufnimmt, „emittiert“ CO2 als Abfallprodukt. Die gesamte Biosphäre der Erde ist, laut EPA, ein Verursacher.

All diese sogenannte „Verschmutzung“ durch die Biosphäre der Erde stellt die winzigen Mengen, die durch die menschliche Verbrennung fossiler Brennstoffe emittiert werden, in den Schatten. Jedes Molekül des vom Menschen verursachten CO2 sieht aus und verhält sich chemisch wie jedes andere CO2-Molekül. Wenn wir glauben wollen, dass CO2 aus fossilen Brennstoffen das Klima bestimmt, müssen wir die gesamte Biosphäre der Erde anklagen.

Es gibt keine Wissenschaft, keine Fakten und keine geologische Geschichte, um diese Theorie zu untermauern. Aber es gibt viele Segmente der Gesellschaft, für die diese Theorie – so verrückt und dumm sie auch ist – sich als unglaublich nützlich erwiesen hat, um ihre jeweiligen Agenden voranzutreiben.

Internationale Bürokratien, wie die UN und der IPCC, finden sie wunderbar bequem, um ihre Budgets und ihre Existenz zu rechtfertigen. Westliche Regierungsbürokratien wie die NOAA, die NASA und das Hadley Center, die immer kompliziertere, verwickeltere und absurdere Erklärungen für die Gültigkeit der Theorie fabrizieren, sind ebenfalls von deren Fähigkeit angetan, ihre Budgets und ihren Zweck zu rechtfertigen.

Liberale, Millennials und Prominente strömen ihr zu, um ihre Unterstützung für die „Rettung des Planeten“ zu signalisieren. Akademiker klettern auf den Zug als verzweifelter Versuch, ihre Relevanz zu demonstrieren. Verlorene Seelen, ohne Familie oder einen Grund, klammern sich daran als falscher Gott für eine Religion, die in ihrem Leben fehlt. Intellektuelle sind glühende Verfechter als Demonstration ihres überlegenen Intellekts.

Die Theorie ist absolutes Katzenfutter für Politiker, die ständig versuchen, irgendeine Krise zu fabrizieren, die nur gelöst werden kann, indem man für sie stimmt. Sie ist ein gefundenes Fressen für moralische Narzissten und Eliten der herrschenden Klasse. Sie ist zu einem Geldsegen für Umweltgruppen geworden. China kann sich das Lachen nicht verkneifen, während es weiterhin Hunderte von neuen Kohlekraftwerken baut.

Auch Russland lacht, ebenso wie die vielen anderen Konkurrenten und Feinde unseres Landes, die uns scheitern und zerfallen sehen wollen.

Selten hat eine grundlose Idee den Verstand und die Seelen so vieler unterschiedlicher Gruppen erobert und deren individuellen Agenden gedient.

Aber der Schuldigste von allen, der uns in dieses Dilemma hat schlittern lassen, ist die fossile Brennstoffindustrie selbst nebst den Versorgungsunternehmen und Automobilherstellern, die auf ihre Produkte angewiesen sind.

Das American Petroleum Institute hätte von Anfang an aufstehen und erklären können, wie furchtbar falsch und antiwissenschaftlich diese Theorie eigentlich ist. Es hätte eine Kampagne starten können, um die Öffentlichkeit über die Wissenschaft, die geologische Geschichte und das rationale Denken aufzuklären, das die völlige Absurdität der Definition von CO2 als Schadstoff entlarvt.

Stattdessen zogen sie es vor, die Ideologen und Eiferer zu beschwichtigen, die diese traurige und korrupte Sache unterstützen. Sie zogen es vor, tatsächlich zuzugeben, dass CO2 eine schädliche „Emission“ ist, und zogen sich daher, nachdem sie die Wahrheit und die Oberhand an die Klimaschläger abgetreten hatten, auf die defensive Position zurück, dass Erdgas ein Brennstoff ist, der „hilft, Emissionen zu reduzieren.“

Vielleicht dachten sie, dies sei eine niedliche und clevere Taktik, die ihnen Lob von der New York Times, von der UNO und von all den aufrichtigen Liberalen in ihrem Kundenstamm einbringen würde.

„Schaut, was für nette, gute, fürsorgliche Menschen wir sind. Auch wir wollen den Planeten retten. Wir werden beglückwünscht werden von der fachwelt, von der politischen Klasse und von den klügsten Leuten im Raum. Oder? Die wären doch nicht wirklich so verrückt, die Abschaffung aller fossilen Brennstoffe zu fordern, oder?“

Oh ja, sie würden – und sie haben. Die schlaue und clevere Taktik hat sich in ein Desaster verwandelt. Und jetzt, fossile Brennstoffindustrie, Sie stecken in Dünkirchen, an den Stränden der Normandie, vom Feind umzingelt, mit keinem mehr Boden mehr zum Ausweichen. Die Biden-Regierung hat die Kapitulation gefordert – werfen Sie Ihre Waffen weg und steigen Sie aus dem Transport- und Stromgeschäft aus.

Sie haben jetzt keine andere Wahl. Sie werden sich den Weg nach draußen erkämpfen müssen. Sie werden die Wahrheit sagen müssen – und Sie wissen, dass es die Wahrheit ist – und erklären, warum CO2 kein schädlicher Schadstoff ist: warum es töricht ist, so zu denken; warum diese Vorstellung von der „Rettung des Planeten“ ein Mythos ist; warum fossile Brennstoffe ein wesentlicher Teil des nächsten Kapitels der Menschheitsgeschichte sein werden – die Ausrottung von Armut, Pestilenz und Verschmutzung in der unterentwickelten Welt. Warum reichlich vorhandene fossile Brennstoffe der Schlüssel zur Verhinderung des nächsten Krieges sind; warum fossile Brennstoffe und Kernenergie all unseren Bedarf an reichlich vorhandener, erschwinglicher und zuverlässiger Elektrizität decken können, soweit das Auge reicht.

Vergessen Sie alberne Kompromisse oder geringfügig bessere Bedingungen für die Kapitulation, wie z. B. „Kohlenstoffabscheidung“, Kohlenstoffsteuern oder die Verlängerung des Datums der Ausführung von 2035 auf 2045. Sie haben zwei Möglichkeiten: Stehen Sie zu Ihren Prinzipien – oder kapitulieren Sie. Wenn Sie sich für Letzteres entscheiden, wird die Geschichte hart über Sie urteilen, wie sie es auch tun sollte.

Wollen Sie wirklich so in Erinnerung bleiben?

Sicher, es wird Verluste geben. Einige von Ihnen werden von der aufgehetzten Klima-Menge abgeholt und zerquetscht werden. Einige von Ihnen werden von ernsthaften Liberalen, Politikern, Akademikern und den Medien lächerlich gemacht, geächtet und in Teer und Federn die Hauptstraße hinunter getrieben werden. Einige von Ihnen werden gezwungen sein, sich zurückzuziehen, um „mehr Zeit mit ihren Familien zu verbringen“. Aber wenn Sie sich jetzt nicht erheben, wird die gesamte Branche zerschlagen werden, und der Rest der Welt wird unter Ihrer Feigheit leiden.

Edmund Burke hat es am besten gesagt: „Alles, was notwendig ist, damit das Böse triumphiert, ist, dass gute Menschen nichts tun.“

Es ist böse, wenn Ideologen den Armen die Vorteile der fossilen Brennstoffe vorenthalten. Wenn nicht böse, dann absolut gefühllos und unmenschlich.

Wenn Sie die Kapitulation wählen, dann verdienen Sie, was Sie bekommen, aber es ist die Welt, die die Konsequenzen Ihres Defätismus erleiden wird. Beschwichtigungen funktionieren nie bei Ideologen und Eiferern. Und jetzt, nachdem Sie sich selbst in eine Ecke manövriert haben, können Sie sich nirgendwo anders mehr hinwenden. Die Biden-Regierung hat Ihre bedingungslose Kapitulation gefordert. Sie können entweder um Frieden bitten und die Schmach einer Niederlage erleiden oder sich den Weg freikämpfen.

Die ganze Welt sieht zu.

Autor: Collister Johnson has spent the last four decades working in the public and private sectors in Virginia, primarily in the fields of project finance and maritime transportation. He began his career in public service as Chairman of the Board of the Virginia Port Authority. He was appointed by President George W. Bush, and confirmed by the Senate, as a member of the Overseas Private Investment Corporation, and most recently, as Administrator of the St. Lawrence Seaway Development Corporation. In that capacity, he became knowledgeable in the field of climate and its impact on the Great Lakes. He currently serves on CFACT’s Board of Advisors. Johnson holds a B.A. degree from Yale University, and a J.D. from the University of Virginia

Link: https://www.cfact.org/2021/04/11/memo-to-the-fossil-fuel-industry-wake-up-and-fight/

Übersetzt von Chris Frey EIKE

 




Regierungsamt­liche Phantasterei: Aufladen von Elektro-Fahrzeugen

Die Bundesbehörden bauen große Dinge wie Postämter, Bundesgebäude, Militärbasen, Hochwasserschutzdämme und Grenzmauern. Sie bauen nicht eine halbe Million EV-Ladestationen, im Wettbewerb mit dem privaten Sektor, aber nur mal so wollen wir uns überlegen, wie sie es versuchen könnten.

Der einfachste Weg ist es, es einfach wie ein Postamt zu machen. Die Regierung kauft das Land, baut die Station, und die Betreiber sind Bundesangestellte. Wir schaffen eine neue Behörde, sagen wir die EV Charging Administration (EVCA), wahrscheinlich in der GSA. Sie hat eine Million Vollzeitangestellte, genau wie die Armee. Oh, Moment, die Armee hat nur 800.000.

Die Regierung kauft den Strom, plus Snacks für den integralen Lebensmittelladen. Kein Laden! Wie finanzieren sie sich selbst? Oh, das tun sie nicht, sie bekommen eine jährliche Bewilligung, genau wie der Rest der Regierung. Aber der Strom ist trotzdem sehr teuer.

Vielleicht wollen wir nicht so eine große Behörde, also machen sie es so, wie das Energieministerium die nationalen Labore betreibt. Diese Ladestationen sind im Besitz der Regierung, werden aber von einer Fremdfirma betrieben. Sie wird GOCO genannt, reimt sich auf LOCO. In der Tat denkt ein Großteil der Bundesregierung so. Viele Bundesbehörden sind in Wirklichkeit Zweigstellenleiter, die einen Kader von unterstützenden Auftragnehmern beaufsichtigen.

Aber das ist immer noch ein riesiger, schwerfälliger, laufender Betrieb mit etwa einer Million Angestellten (nur nicht alle vom FBI). Die offensichtliche Alternative ist, die Ladestationen von privaten Unternehmen betreiben zu lassen. Die Bundesregierung würde nur den Bau finanzieren und es dabei bewenden lassen.

Stattdessen haben wir also ein Förderprogramm in Höhe von 178 Milliarden Dollar? Das sind verdammt viele Zuschüsse, so dass wir eine sehr große Organisation benötigen, um alle Anträge zu bearbeiten, alle Gewinner auszuwählen (sorry, Verlierer, ihr verliert) und dann die Zuschüsse zu verwalten, was auch immer das bedeutet. Es könnten Millionen von Anträgen sein, also brauchen wir immer noch eine riesige EVCA.

Wer bekommt diese 178 Milliarden Dollar an Zuschüssen? Eine sehr gute Frage! Wird der Zuschuss bei 100.000 Dollar oder 100.000.000 Dollar oder irgendwo dazwischen liegen? Es macht einen großen Unterschied, wer sich bewerben kann.

Eine Möglichkeit sind die Versorgungsunternehmen, die den Strom verkaufen. Schließlich wird ein großer Teil der Kosten, vielleicht sogar der größte, darin bestehen, die Versorgungsunternehmen dafür zu bezahlen, dass sie ihre Verteilersysteme aufrüsten, damit diese Ladestationen funktionieren können. Dies gilt vor allem für ländliche Gebiete, wie z.B. entlang der 50.000 Meilen Interstate Highways [vergleichbar mit unseren Bundes-Autobahnen, A. d. Übers.] und Hunderttausende von Meilen entlang anderer großer Autobahnen.

Oder wie wäre es, wenn die Benzinfirmen das machen würden? Sie sind bereits flächendeckend mit Tankstellen ausgestattet. In der Tat könnten die Ladestationen an den Tankstellen sein, wo die Autos bereits fahren. Außerdem gäbe es auf diese Weise eine Menge Wettbewerb, im Gegensatz zu den monopolistischen Stromversorgern. Allerdings könnte es den grünen Befürwortern von E-Fahrzeugen schwerfallen, den verhassten Ölkonzernen fast 200 Milliarden Dollar freizur Verfügung zu stellen.

Einige Experten sind jedoch der Meinung, dass die Ladestationen in Supermärkten, großen Geschäften, Fast-Food-Läden und anderen Vergnügungsstätten aufgestellt werden sollten, da das Aufladen sehr lange dauert. Die meisten dieser Orte haben bereits Platz für Autos und einige haben sogar Tankstellen. Allerdings haben sie keine Erfahrung mit dem Pumpen von Strom.

Eine vierte Möglichkeit ist, diese vielen Milliarden an die wenigen bestehenden Unternehmen zu geben, die bereits Ladestationen bauen. Sie wissen, wie man es macht. Wohlgemerkt, sie sind sehr klein und könnten an so viel Geld ersticken.

Das führt zu einer fünften Möglichkeit, nämlich diese Zuschüsse nur an Teams von Unternehmen zu geben. Die Voraussetzung für die Teambildung könnte sein, dass sie das Land, das Know-how und die finanzielle Stärke haben.

Dann ist da noch die lästige Frage, wohin mit all diesen Stationen? Die Zuschüsse sollten so vergeben werden, dass eine angemessene geografische Abdeckung erreicht wird, sonst werden die E-Fahrzeuge nicht funktionieren. Angesichts dieser riesigen Menge an kostenlosem Geld werden sie vielleicht dort gebaut, wo es keinen Bedarf gibt, wie z.B. in nutzlosen Clustern. Große finanzielle Verluste werden folgen und die Nutzung von E-Fahrzeugen wird nicht unterstützt.

Es ist klar, dass der Kongress die Aufgabe haben wird zu entscheiden, wem er diese enorm hohen Summen zukommen lassen will und wie. Und es wird eine große Aufgabe für die EVCA sein, sie in den Ring zu werfen.

Der grundlegende Punkt ist, dass dies von Anfang an eine dumme Idee ist. Wenn EV-Ladestationen Geld einbringen, dann wird der private Sektor sie bauen.

Die Bundesregierung hat in diesem Geschäft nichts zu suchen.

Autor: David Wojick, Ph.D. is an independent analyst working at the intersection of science, technology and policy. For origins see http://www.stemed.info/engineer_tackles_confusion.html. For over 100 prior articles for CFACT see http://www.cfact.org/author/david-wojick-ph-d/. Available for confidential research and consulting

Link: https://www.cfact.org/2021/04/10/fed-funding-fantasy-ev-charging/

Übersetzt von Chris Frey EIKE




Inzidenzwert-Ermittlung und dessen Anwendung unter einem „Aluhut“ betrachtet

Warnhinweis

Lange hat der Autor überlegt, ob er diesen Artikel überhaupt veröffentlichen kann.
Grund ist, dass die Sichtung über die Durchführung und Fehler der Inzidenzermittlung so katastrophale Mängel aufdeckt, dass man am Verstand vieler Personen welche daraus Lockdownmaßnahmen ableiten, zweifeln müsste (rein persönliche Meinung des Autors, allerdings durch viele „Fachpersonen“ längst widerlegt).

Das (mit dem fehlenden Verstand hochbezahlter „Intelligenz“) kann und darf aber nicht sein, sofern man den Berichten unserer Medien glauben darf, wie es gerade wieder bewiesen wurde: Zeit Online, 8. April 2021: Langzeitstudie: Vertrauen in Medien deutlich gestiegen
Dann bleibt aber die einzige, logische Folgerung: Die in diesem Artikel gebrachten Überlegungen und somit Ableitungen sind hoffnungslos falsch.

Leider hat der Autor jedoch ein dickes „Brett vorm Kopf“ und findet seine Fehler nicht. Notgedrungen stellt er diesen Artikel also doch auf EIKE ein, damit die kompetenteren Leser seine Fehler finden und diese im Blog (dann bitte mit Richtigstellung) aufzeigen.

Den Inzidenzwert kann jedes Schulkind berechnen

Der Inzidenzwert ist mittels einfachem Dreisatz ermittelbar:
[1] Stuttgarter Nachrichten (stark gekürzt und teils ergänzt): Wie berechnet man die 7-Tage-Inzidenz?
Falls Sie die 7-Tage-Inzidenz … brauchen Sie zunächst die folgenden Zahlen:
– Die Summe der Neuinfektionen der letzten 7 Tage
– Die Einwohnerzahl
Und so berechnen Sie den 7-Tages-Wert:
Summe Neuinfektionen der letzten 7 Tage, geteilt durch die Einwohnerzahl Ihres Landkreises … Anschließend multiplizieren Sie das Ergebnis mit 100.000.
Formel: (Neuinfektionen / Einwohnerzahl) x 100.000 = 7-Tage-Inzidenz

Diese Berechnung ist plausibel und ermittelt auch mathematisch bis auf beliebige Nachkommastellen genau (verwendet werden vom RKI zwei Nachkommastellen) den Inzidenzwert.

Anmerkung: Amtlich wird bei einem positiven PCR-Testergebnis automatisch von „Neuinfektionen“ gesprochen und damit immer eine entdeckte „Gefahr“ suggeriert.
Dabei sagt ein Positivergebnis lediglich aus, dass beim Test Reste entsprechender DNA-Sequenzen gefunden wurden.
Ob diese wirklich von einer aktuellen Infektion stammen, (noch) aktiv sind, und wirklich zur Krankheit führen (würden) ist damit nicht ausgesagt (siehe dazu am Schluss die Grafiken der PCR-Positivmeldungen und der in keinem Zusammenhang dazu verlaufenden Mortalität).
Da der Begriff „Neuinfektionen“ amtlicherseits durchgehend verwendet wird, ist er hier wenn im „Amtston“ getextet wurde ebenfalls verwendet und nicht mit einem richtigeren, wie zum Beispiel „ die DNA-Sequenzsuche hat welche, die einen Verdacht auf Kontakt mit Covid-19-Virus nicht ausschließen lassen gemeldet“. Richtige Information klingt oft zu sperrig.

Größenordnungen

An einem Beispiel sei gezeigt, wie viele Personen oder positive Testergebnisse es benötigt, um anhand der Inzidenz Lockdown-Entscheidungen auszulösen:
Eine Beispiel-Stadt mit 100.000 Einwohnern habe in der Einwohnerschaft eine durchgängige (gleich verteilte) Neu-Infektionsrate von 14 Einwohnern täglich (0,014 % der Einwohner), in Summe der 7 Tage somit 98 Personen (ca. 0,1 % aller Einwohner).

Als Folge hat diese Beispiel-Stadt einen Inzidenzwert von 98 und kann Erleichterungen beim Lockdown veranlassen.

Bild 1 Beispielstadt, Neuinfektionen und Inzidenzwert

Beträgt die Summe der Neuinfektionen nun zwei zusätzliche Personen (zusätzlich 0,002 % aller Einwohner) innerhalb der 7 Messtage, in Summe also 100 Personen, berechnet sich ein Inzidenzwert von 100 und laut Politikbeschluss sind gnadenlos Restriktionsmaßnahmen vorzugeben (und werden von den Kommunen auch wirklich buchstabengetreu, pedantisch umgesetzt).

Stellt sich nicht schon da die Frage, ob es wirklich sinnvoll ist, wegen zusätzlich +0,001 .. 0,002 % „Corona-Positivbefall“ – also weder Krankheit, ev. nicht einmal mit Symptomäußerung – innerhalb einer Woche, massivste, zusätzliche Lockdown-Restriktionen durchzusetzen?
Die Antwort kennt jeder: Diese Frage wird nicht gestellt. Wenn einmal doch, dann wird sie konsequent als rääääächts abgebürstet“. Im Deutschland der unfehlbaren Merkel und eines heiligen Söder fragt man nicht, sondern freut sich, wieder Anordnungen umsetzen und damit Staatstreue zeigen zu dürfen … wie es früher bewährte Bürgersitte war:
Es ziemt dem Untertanen, seinem Könige und Landesherrn schuldigen Gehorsam zu leisten und sich bei Befolgung der an ihn ergehenden Befehle mit der Verantwortlichkeit zu beruhigen, welche die von Gott eingesetzte Obrigkeit dafür übernimmt; aber es ziemt ihm nicht, die Handlungen des Staatsoberhauptes an den Maßstab seiner beschränkten Einsicht anzulegen und sich in dünkelhaftem Übermute ein öffentliches Urteil über die Rechtmäßigkeit derselben anzumaßen.
Gustav von Rochow (1792 – 1847), preußischer Innenminister und Staatsminister

Regelungstechnik

Mit Erreichen des Inzidenzwertes 100 treten sofort erhebliche, zusätzliche Lockdown-Verschärfungen in Kraft. Damit soll der Inzidenzwert wieder unter Hundert, besser bis maximal 50 reduziert werden.

Technisch-mathematisch bilden Inzidenzwert und Lockdown eine Regelstrecke.
Da die Lockdown-Maßnahmen mit Erreichen des Inzidenzwertes 100 sofort ohne Stufung(en) (hätte dann eine integrale, also eigendämpfende Regelwirkung zur Folge) erfolgen, handelt es sich um einen Proportionalregler.
Dazu um eine Regelstrecke, welche aufgrund der Verzögerung zwischen Inzidenzwertmeldung und Wirkung der Lockdownmaßnahmen im Wirkungsweg eine recht lange Totzeit beinhaltet.

Jedes Kind Student lernt bereits im Grundlagenfach Regelungstechnik, dass ein Proportionalregler bei zu hoher „Verstärkung“ – und vor allem, wenn dann noch wie in diesem Fall eine Hysterese fehlt – konsequent oszilliert.
Extrem verstärkt und dann viel, viel schwieriger lösbar wird diese Neigung zur Oszillation, wenn in der Strecke zusätzlich Phasenverschiebungen, hier noch schlimmer „Totzeiten“ dazukommen. Dann wird diese einfache Art der Regelung eigentlich unbeherrschbar.

Genau diese Auswirkungen lassen sich bundesweit live erleben:
Stadt Nürnberg: An einem Montag Öffnung von Präsenzunterricht und Kindergärten, am Dienstag wieder alles schließen … , einfach ein „ewiges“ Hin- und Her, was Eltern, Handel und Sonstige zur Verzweiflung treibt.

Nicht, dass dies kommunale „Lenker“ nicht bemerken. Aber bisher wagte nur ein kleines Eckchen von Deutschland, welches sich etwas Obrigkeitsrenitenz bewahrt hat, zumindest informellen „Widerstand“, indem sie es wenigstens meldeten:
Stadt Lößnitz an die Sächsische Staatskanzlei, 15.03.2021: Offener Brief der Bürgermeister des Erzgebirges

Bild 2

Bild 3

Bild 4

Was machen unsere „hohen Politiker“ und deren Berater zur Lösung? Sie orientieren sich nicht an der seit weit über 100 Jahren bewährten und in weltweit Milliarden von Installationen als richtig belegten Regelungstechnik, sondern „vertrauen“ auf Epidemie-Simulationen, welche laufend exponentielle Anstiege vorhersagen, die noch nie und auch aktuell nicht – da epidemiologisch unmöglich – eingetroffen sind (siehe vorletztes Kapitel).

Wo sie doch „eintreffen“ – schließlich „sieht“ den exponentiellen Anstieg auch unsere unfehlbare Kanzlerin – verhält es sich so, wie in der Theologie: Wenn man etwas lange genug „eingebläut“ bekommt – hier: Täglich in der Zeitung liest und von Medien erzählt -, können es psychisch entsprechend eingestellte Personen in besonders „lichten“ Momenten plötzlich „sehen“, so wie „KlimaGreta“ das unsichtbare und geschmacklose CO2, wenn es zum Beispiel aus Kraftwerken „schießt“ . Weitere Beispiele aus der Theologie ließen sich nahezu unendlich fortführen.

Was wäre, wenn die ermittelten Inzidenzwerte gar nicht stimmen würden?

Alles bisher Gesagte geht davon aus, dass der Inzidenzwert stimmt. Vom RKI wird er immer mit zwei Nachkommastellen angegeben. Wer würde es also wagen, daran zu zweifeln, dass nicht alle dieser Stellen auch signifikant sind?

Eine Fundstelle macht jedoch auf scheinbare Probleme aufmerksam. Nicht unbedingt didaktisch gut aufbereitet, für etwas mit Statistik Vertraute aber gut lesbar:
[4] IWIKIPEDIA: Inzidenz (Epidemiologie): Kritik
... Die für den Vergleich und zur Festlegung von Schwellenwerten herangezogene sogenannte 7-Tage-Inzidenz ist nicht gleichzusetzen mit einer epidemiologischen Inzidenz, die auf repräsentativen Stichproben basiert. Die Testprävalenzen werden auf die Gesamtbevölkerung oder Region umgerechnet, ohne die Dunkelziffer in der nicht-getesteten Bevölkerung zu berücksichtigen. Ohne Bezug zu einer bekannten Grundgesamtheit (Nenner) fehlt der Fallzahl die epidemiologische Aussagekraft und damit die Geeignetheit für seuchenpolitische Maßnahmen. Die Reduktion der Lageeinschätzung auf die 7-Tages-Inzidenz sei epidemiologisch nicht begründbar und entspreche nicht dem Stand der verfügbaren wissenschaftlichen Evidenz.
Auch Politik und Justiz sehen allein die Inzidenz zur Begründung von Grundrechtseinschränkungen als unzureichend an …

Eine Folge davon sind Gerichtsentscheide von Richtern, die diesen Sachverhalt umzusetzen wagen:
Tichys Einblick: Gericht kippt Ausgangssperre in Hannover: „Nicht nachprüfbare Behauptungen“ reichen zur Rechtfertigung nicht aus!
Allerdings auch von Politikern, denen jeglicher Sachverstand fehlt, solchen auch gar nicht haben wollen:
Tagesspiegel vom 22.03.2021: NRW Stunden nachdem ein Gericht die Beschränkungen für den Handel für rechtswidrig erklärt hatte, beschließt die Politik noch härtere Regeln

Grundgesamtheit und Stichprobentheorie

Und damit steht eine weitere Fragestellung im Raum, welche weder juristisch und soziologisch, sondern einfach statistisch-mathematisch begründbar ist: Wie genau, besser fehlerhaft, Ist die Ermittlung des Inzidenzwertes?

Dazu nehmen wir die Beispielstadt vom Anfang (Bild 1):
Deren Daten: Von 100.000 Einwohnern mit 0,1 % gut durchgemischten (damit gleichverteilten) Positiven (sind 100 Personen in der Stadt, somit ein Inzidenzwert von 100), werden rein statistisch täglich 14 Bewohner neu infiziert.
Am Ende der 7 Inzidenz-Messtage sind es somit 98 neu hinzugekommene, positive Bewohner und damit wieder ein Inzidenzwert von 98.
Nun versuchen wir, diese Corona-positiven Personen mittels RKI-Coronatestungen und darüber die Inzidenz zu ermitteln.

Beispielstichproben

Leider findet sich nirgendwo eine Angabe, wie viele Testungen wo durchgeführt werden. Deshalb muss man diese Zahl versuchen indirekt abzuleiten.
Laut RKI wurden in der KW13 deutschlandweit 1.149.297 PCR-Testungen durchgeführt. Heruntergerechnet auf unsere Beispielstadt wären das für den Zeitraum der Inzidenz-Ermittlung 1.385 Testungen.

Stichprobe A
Bei 0,1 % Positivanteil in der Grundgesamtheit sind in einer Stichprobe von 1.385 Personen im Mittel 1,385 Personen positiv zu finden. Halbe Personen gibt es nicht, weshalb die Stichprobe entweder 1 oder 2 Personen meldet. Die RKI-Inzidenzberechnung meldet also eine Inzidenz von:
Formel: (Neuinfektionen / Einwohnerzahl) x 100.000 = 7-Tage-Inzidenz
Rechnung: (2/100.000) x 100.000) =
2 (anstelle des wirklichen Inzidenzwertes von 100), oder
Rechnung: (1/100.000) x 100.000) = 1 (anstelle des wirklichen Inzidenzwertes von 100)

Stichprobe B
Früher war das auch die ungefähre Testungs-Anzahl, da nur PCR-Tests vorgenommen wurden. Inzwischen testen aber zusätzlich Apotheken und bald auch Hausärzte mit Einfachtests, die nur bei positiven Befunden mittels zusätzlichem PCR-Test verifiziert werden müssen. Deshalb wird nun die dreifache Anzahl an Testungen angenommen.
Für die Beispielstadt wären es nun 4.154 Testungen in einer KW.
Bei 0,1 % Positivanteil der Grundgesamtheit sind in einer Stichprobe von 4.154 Personen 4,154 Personen positiv (Mittelwert). Die RKI-Inzidenzberechnung meldet also eine Inzidenz von:
Formel: (Neuinfektionen / Einwohnerzahl) x 100.000 = 7-Tage-Inzidenz
Rechnung: (4/100.000) x 100.000) =
4 (anstelle des wirklichen Inzidenzwertes von 100)

Stichprobe B
Nun verzehnfachen wir die Anzahl Testungen auf 13.850, also jede Woche 14 % der Einwohner getestet:
Rechnung: (14/100.000) x 100.000) = 14 (anstelle des wirklichen Inzidenzwertes von 100)

Bei diesen Inzidenzmeldungen kommt man fast gezwungenermaßen zu der Erkenntnis:
Die Inzidenz – ermittelt und berechnet nach RKI-Formel – ermittelt irgend etwas, aber niemals auch nur weit, weit entfernt den „Befall“ einer kommunalen Einheit durch das Coronavirus.
Daran ändert auch nicht, dass die Inzidenzwerte vom RKI auf zwei Nachkomastellen angegeben werden (über die feststellbare, mathematische Idiotie von Personen welche vor Rechnern sitzen und Werte, welche zwei Stellen vor dem Komma schon nicht mehr stimmen fein säuberlich mit zwei danach angeben weil es der Rechner so anzeigt, sei hier gnädig hinweggesehen).

Als Fazit bleibt:
Mittels dem in Deutschland seit über einem Jahr ausschließlich angewandtem RKI-Inzidenz-Ermittlungsverfahren wird niemals die wirkliche Inzidenz – und damit Gefahrenlage – der Grundgesamtheit ermittelt.
Eine wichtige Feststellung ist zudem: Der Inzidenzwert ist bei diesen Stichprobengrößen fast linear nur ein Ergebnis des Testumfangs, gibt also diesen und nicht die Anzahl neu Infizierter wieder!

Und warum bemerkt das keiner? Weil in der Berechnungsformel der wichtige Stichprobenumfang fehlt:
RKI: (Neuinfektionen / Einwohnerzahl) x 100.000 = 7-Tage-Inzidenz
Was zu der Erkenntnis führt, dass diese Formel und damit die gesamte Methodik zur Ermittlung einer wirklichen Gefahrenlage ganz einfach vollkommen unbrauchbar sind.

Dass es „keiner“ bemerkt, stimmt allerdings nicht ganz. Laut der Professorin V. Priesemann (siehe gegen Ende des Artikels) wurde das zum Beispiel in England erkannt und dort wird deshalb statistisch richtig(er) mit wenigen, dafür aber extrem großen Stichprobenumfängen geprüft.

Der Student

Sein Einwand zur Inzidenz

Ein Student publizierte vor kurzem Einwände zur Inzidenzermittlung.
[2] FOCUS ONLINE, 23.03.2021: Inzidenz bei 18 statt 78? Mathe-Student wirft RKI verzerrte Corona-Zahlen vor – Physikerin kontert
Auch Correktiv schrieb dazu:
[3] Correktiv: Er kritisiert, der Inzidenzwert beziehe die Anzahl der durchgeführten Tests in einer Region nicht mit ein: Bei Landkreisen mit gleich hohem Anteil von Corona-Fällen pro Einwohner hätten angeblich diejenigen eine höhere Inzidenz, die mehr testen würden. Er schlägt daher eine alternative Berechnungsmethode vor ….

Seine Begründung, angelehnt an die Ausführung im „FOCUS“ dargestellt:
[2] Focus: … Er nennt ein Beispiel:
Landkreis A und Landkreis B haben jeweils 50.000 Einwohner und jeweils ein Prozent Infizierte (Zufügung: 1 % Infizierte in der Grundgesamtheit ergeben einen wahren Inzidenzwert dieses Beispiels von 1.000).
– Landkreis A: testet 5000 Einwohner, findet circa 50 Infizierte (Anmerkung: Mittelwert der Stichprobe). Die Inzidenz liegt hier bei 100 (Anmerkung: Anstelle der wahren Inzidenz der Grundgesamtheit von 1.000)
– Landkreis B: testet 2000 Einwohner, findet circa 20 Infizierte (Anmerkung: Mittelwert der Stichprobe). Die Inzidenz liegt hier bei 40 (Anmerkung: Anstelle der wahren Inzidenz der Grundgesamtheit von 1.000)
Die Länder befinden sich also in der gleichen pandemischen Lage, haben aber eine unterschiedliche Inzidenz „Es wird mehr getestet. Es werden mehr positive Fälle entdeckt. Die Inzidenz steigt“, so die Schlussfolgerung des Mathematik-Studenten. „Rückschlüsse auf das Pandemiegeschehen lässt dieser Inzidenzwert also derzeit nicht zu.“

Dieses Beispiel erfreut den Autor. Dieser Student steht nämlich noch mitten im „Lernsaft“, was der Autor, dessen Studium weit über 40 Jahre zurückliegt, von sich nicht behaupten kann. Trotzdem hat er das Problem ähnlich abgeleitet, wie es der Autor im Kapitel „Stichprobentheorie“ beschrieb und ist auch darauf gekommen, dass der Inzidenzwert nicht von der Anzahl Positiver abhängt, sondern vorwiegend vom Stichprobenumfang (Anmerkung: Dieser Artikel wurde vor der Sichtung der „Studentenargumentation“, welche ursprünglich hier gar nicht gebracht werden sollte, getippt).

Sein Vorschlag einer Verbesserung

Nun schlägt der Student etwas vor, was das Stichprobenproblem (ausreichend genaue Rückrechnung, wie viele Positive sich wirklich in der Stadt aufhalten) zwar nicht löst (weil nicht möglich), aber wenigstens für eine ganz grobe, relative Vergleichsfähigkeit zwischen den Stichproben sorgen soll:
[2] Schönherr schlägt demnach vor, das Verhältnis der Tests auf die Gesamtbevölkerung mit in die Inzidenzberechnung einzubeziehen, „also eine Art Testpositivenquote“.
Hierfür wäre es nur nötig, die Zahl der Tests
(Anm.: Gemeint ist der Stichprobenumfang) zu normen und am bundesdeutschen Durchschnitt zu orientieren. Seit November würden durchschnittlich rund 1,5 Prozent der Bevölkerung (Anmerkung: Das ist ungefähr die vom RKI angegebene Anzahl der PCR-Testungen) pro Woche getestet. Damit ließe sich dann anhand der „Testpositivenquote“ eine neue, normierte Inzidenzzahl berechnen.

Dazu rechnet der Student als Beispiel die Inzidenz für das Berchtesgadener Land (Einwohnerzahl 106.000) in der KW9 „neu“ (gekürzt).

Zuerst die Rechnung des RKI:
Getestet wurden in der KW9 83 Menschen positiv, die Einwohnerzahl beträgt 106.000 Personen.
Formel: (Neuinfektionen / Einwohnerzahl) x 100.000 = 7-Tage-Inzidenz
Rechnung: (83/106.000)*100.000 = 78,3

Nun der Student mit seiner „Testpositivenquote“:
Insgesamt wurden 6817 der 106.000 Einwohner auf Sars-CoV-2 getestet, das entspricht 6,4 Prozent der Bevölkerung (Anmerkungen: Woher „er“ die Anzahl der wirklichen Testungen weiß, bleibt dem Autor ein Rätsel, denn nirgendwo findet der Autor die eigentlich überaus wichtige Anzahl durchgeführter Tests veröffentlicht).
83 Tests davon waren positiv, das bedeutet eine „Testpositivenquote“ von 1,2 Prozent
(Anmerkung: Statistisch bezeichnet das Kunstwort „Testpositivenquote“ ganz banal den Mittelwert Positiver in der Stichprobe).
Die Berechnung zur neuen Inzidenz funktioniert nun wie folgt:
– Normierung: 1,5 Prozent der Einwohner entsprechen 1590. Die „neue“ Fallzahl bei nur 1590 Tests würde demnach bei 19,08 liegen (entspricht 19 positiven Tests).
– Diese positiven Tests werden nun wiederum wie üblich für die Berechnung der Inzidenz genutzt:
19,08 x (100.000 / 106.000) = 18,0
-Die Inzidenz läge also anstatt bei 78, nun bei 18.

Was hätte man mit der „Testpositivenquote“ gewonnen?

Es werden nicht allzu viele sein, welche diesen Vorschlag des Studenten auf Anhieb „begreifen“. Auch dem Autor war das nicht beschieden. Deshalb anbei ein Erklärungsversuch seines Gedankenganges.

Mit seiner „Testpositivenquote“ bringt er den Stichproben-Mittelwert ins Spiel. Im Kern ist das der Versuch, die Inzidenzermittlung wenigstens im Ansatz als Stichprobenverfahren „aufzubauen“.
Nun weiß er (?) dass dies bei diesem Datenmaterial nicht funktionieren kann und versucht in der Not einen Kunstgriff.

Er geht wohl davon aus, dass alle Stichproben die gleiche Fehlerauswirkung haben, diesbezüglich also korrelieren. Und es deshalb möglich wäre, die Stichprobenergebnisse nach einer „Normierung“ – die nichts anderes ist, als das Hochrechnen jedes Stichprobenmittelwertes auf eine einheitliche Stichproben-Normgröße – untereinander wenigstens relativ vergleichen zu können.

Den Mut zu einer solch pauschalen Annahme hätte der Autor nicht. Ob es trotzdem – und mit welcher Ergebnisgenauigkeit – möglich ist, müssten (und könnten) Statistiker allerdings problemlos berechnen.

Wieder etwas über die (Un-)Möglichkeit von Statistik

Nun „spaßeshalber“, um ein Gefühl für die extreme (Un-)Genauigkeit der Inzidenz-Stichproben zu bekommen, ein paar informelle Rückrechnungen.

Nochmals die Basisdaten:
Grundgesamtheit: 106.000 Einwohner; angenommener wahrer Inzidenwert 100 (+0,1 % aller Bewohner, also +106 in der Inzidenz-Messwoche neu positiv).
Stichprobenumfang für die 7-Tage-Inzidenz: 1590 Einwohner
Anmerkung: Die Rückrechnung kann – da niedrige Fallzahl und geringer Stichprobenumfang – mittels Binomial, Hypergeometrischer oder Poissonverteilung erfolgen. Der Autor musste allerdings feststellen, dass das Ergebnis stark vom verwendeten Tool abhängig ist, da nicht alle gleich (rück-)rechnen. Die hier angegebenen, auf die Grundgesamtheit rückgerechneten Werte deshalb nur als Anhaltspunkte für die Größenordnung nehmen.

Beispiel:
Anzahl durch die Stichprobe gefundener Positiver (deren Mittelwert): 1,59 (ergibt einen Positiven-Mittelwert von 1 oder 2)
Daraus errechnet die statistische Rückrechnung für den möglichen Anteil an Infizierten unter den insgesamt 106.000 Einwohnern (Irrtumswahrscheinlichkeit 10 %) einen Bereich:
Bei 2 Positiven in der Stichprobe: Rückgerechnete Anzahl Positiver in der Grundgesamtheit:
22 … 395 (entsprechen einem Inzidenzwert zwischen 21 … 373)
Bei 1 Positiven in der Stichprobe: Rückgerechnete Anzahl Positiver in der Grundgesamtheit:
3 … 298 (entsprechen einem Inzidenzwert zwischen 3 … 281)

Selbst „Statistiker“ sind immer wieder überrascht, welche Grenzen – oder wie wenig Nutzen im Verhältnis zum Aufwand – attributive Prüfungen haben.

Trotzdem gibt es ein weltweit verbreitetes und oft angewandtes, attributives Stichprobenverfahren welches darauf basiert, das AQL-Stichprobensystem. Dieses hat das gleiche Problem (es entdeckt kleine Fehlermengen praktisch nicht). Doch ist es vorbildlich tabelliert und man benötigt zur sturen Anwendung nur 10 Minuten Einweisung.
Entsprechend stur und oft, doch ohne wirklichen Nutzen wird es häufig angewandt (Erfahrungen des Autors).

A: Hochrangige Fachpersonen haben sich mit der Problemstellung bereits beschäftigt

[2] FOCUS ONLINE: … Physikerin Priesemann nimmt Stellung
… Schönherrs Video wurde von vielen geteilt und blieb deutschen Top-Wissenschaftlern nicht verborgen. So nahm etwa Physikerin Viola Priesemann vom Max-Plank-Institut auf Twitter Stellung dazu.
Laut ihr greift das Video „ein wichtiges Thema“ auf. Vermehrtes Testen werde „kurzfristig ‚bestraft‘“, da man dann mehr Infektionsketten entdecke. Langfristig lohne es sich aber, gibt die Physikerin zu bedenken. „Denn es stoppt die Ketten.“
Allerdings kontert Priesemann daraufhin Schönherrs Theorie: „Das Video hört sich logisch an, macht aber eine falsche Annahme. Und also ist die Schlussfolgerung falsch.“
Schönherr gehe in seinem Video davon aus, dass Tests zufällig gemacht würden. „Das ist nicht der Fall“, so die Physikerin. „Menschen werden nicht zufällig getestet, sondern meistens, weil es einen Verdachtsmoment gibt.“ Dazu zählten etwa Symptome, Kontakte oder ein positiver Schnelltest.

Folgeergebnisse nicht zutreffend“
Laut Priesemann müsse man zwischen zwei Kausalitäten unterscheiden:
– Fall A: Es werden mehr Fälle gefunden, weil mehr getestet wird.
– Fall B: Es wird mehr getestet, weil es mehr Verdachtsfälle gibt.
„Am Ende spielen beide Beiträge eine Rolle“, erklärt sie. „Aber im Video wird angenommen, dass wirklich allein und nur A zutrifft.“ Alle weiteren Rechnungen nach dieser Folie bauen auf dieser falschen Annahme auf. Also sind die Folgeergebnisse nicht zutreffend.
„Nach der Rechnung in dem Video könnte man die Inzidenzen im Landkreis ganz einfach drücken“, warnt Priesemann zudem. Man mache für jeden Test auf Verdacht einen Test bei Personen, die sehr wahrscheinlich negativ sind (oder einen Zufallstest). „Schon ist die Inzidenz (fast) halbiert.“

Priesemann macht danach ebenfalls einen Lösungsvorschlag: „Am besten wäre es, wenn wir, genauso wie UK, ein Screening hätten, also rund 100.000 Zufallstests, die jede Woche ein objektives Bild des Ausbruchsgeschehen liefern. – Dann müssten wir hier nicht diskutieren.“

Was hat die Physikerin, Frau Priesemann damit gesagt?

Im Kern redet sie gekonnt (?) „um den heißen Brei“ herum. Sie gibt der Basiskritik nämlich recht!: „Vermehrtes Testen werde „kurzfristig ‚bestraft‘ … “ und am Schluss beschreibt sie sogar die einzige, wirklich richtige Lösung (anstelle der in ganz Deutschland eingesetzten vollkommen unbrauchbaren vielen kleinen Teststichproben, ganz wenige mit wirklich großer Testmenge) und weist auch noch darauf hin, in welchem Land es so richtig gemacht wird:
„Am besten wäre es, wenn wir, genauso wie UK, ein Screening hätten, also rund 100.000 Zufallstests, die jede Woche ein objektives Bild des Ausbruchsgeschehen liefern
Ganz konkret bestätigt Sie, dass sich bei der derzeitigen Testdurchführung durch mehr Tests lediglich die Fallzahlen erhöhen:
Fall A: Es werden mehr Fälle gefunden, weil mehr getestet wird
Weil das aber nicht sein darf, denn diese Physikerin ist erkennbar eine Befürworterin des RKI-Verfahrens und wohl auch der Lockdown-Maßnahmen: „ … Nach der Rechnung in dem Video könnte man die Inzidenzen im Landkreis ganz einfach drücken“, warnt Priesemann zudem …“, (pseudo-)argumentiert sie dagegen mit geradezu hanebüchenen „Argumenten“:
„ … Schönherr gehe in seinem Video davon aus, dass Tests zufällig gemacht würden. „Das ist nicht der Fall“,
Fall B: Es wird mehr getestet, weil es mehr Verdachtsfälle gibt.

Man muss sich die Aussagen überlegen: Das RKI berechnet für Deutschland, jedes Bundesland, jeden Landkreis und jede Gemeinde eine fortlaufende Inzidenzzahl auf zwei Stellen hinter dem Komma, auf deren Basis schlimmste Lockdownmaßnahmen immer eiserner – da angeblich immer notwendiger – beschlossen werden.
Wohl die meisten Bürger denken, diese Inzidenzzahlen würden stimmen und wären vor allem auch untereinander vergleichbar, da entsprechend sachgerecht ermittelt (während sie in Wirklichkeit sicher um mehr als einige Stellen vor dem Komma bereits falsch sind).

Und nun bestätigt eine Frau Priesemann, dass genau das (seien sachgerecht und damit mit der erforderlichen Genauigkeit ermittelt) überhaupt nicht der Fall ist, erzählt aber, das sei ja auch vollkommen unwichtig. Denn es gehe doch gar nicht um den Inzidenzwert. Dieser sei ja nur ein reines Alibi als Begründung der sowieso durchgeführten Maßnahmen: „… Langfristig lohne es sich aber, gibt die Physikerin zu bedenken. „Denn es stoppt die Ketten.

B: Hochrangige Fachpersonen haben sich mit der Problemstellung bereits beschäftigt

Correktiv gibt auch zu Beginn zu, dass die „Basiskritik“ berechtigt ist „Dennoch ist an der Kritik grundsätzlich etwas dran“. Lenkt dann aber gleich ab und verweist auf den strittigen Lösungsvorschlag des Studenten, der keine Lösung wäre: „ … Die alternative Berechnungsmethode, die der Student vorschlägt, ist aber auch nicht besser geeignet. Denn ihr liegt eine falsche Annahme zugrunde“
Gut, das hat der Autor in etwa auch so gesagt. Correktiv hat sich allerdings etwas „vertiefter“ als der FOCUS mit dem Thema beschäftigt, allerdings auch nur, um mitzuteilen, dass alles „wie bisher gemacht“ doch zwar nicht richtig, aber eben das Beste wäre:

[3] Correktiv: … Er kritisiert, der Inzidenzwert beziehe die Anzahl der durchgeführten Tests in einer Region nicht mit ein: Bei Landkreisen mit gleich hohem Anteil von Corona-Fällen pro Einwohner hätten angeblich diejenigen eine höhere Inzidenz, die mehr testen würden. Er schlägt daher eine alternative Berechnungsmethode vor.
Mehrere Medien berichteten darüber … Diese Formulierungen sind nach Recherchen von CORRECTIV.Faktencheck irreführend.
Der Inzidenzwert beinhaltet keinen „Rechenfehler“. Dennoch ist an der Kritik grundsätzlich etwas dran. Denn es gibt bei der Inzidenz ein Problem: die lückenhafte Datengrundlage bei den Testzahlen. Forschende stellen auch schon länger die Frage, ob der Inzidenzwert als einziger Indikator für die Pandemie-Lage in Deutschland herangezogen werden sollte. Die alternative Berechnungsmethode, die der Student vorschlägt, ist aber auch nicht besser geeignet. Denn ihr liegt eine falsche Annahme zugrunde.

Dass der Inzidenzwert „keinen Rechenfehler“ hätte, bezieht sich alleine darauf, dass er auf einer Formel beruht und dessen sture Berechnung auf beliebig viele Nachkommastellen mittels Taschenrechner oder Excel-Sheet fehlerfrei möglich ist.
Dass es sich um eine statistisch hoffnungslos falsch ermittelte Maßzahl mit extremen Fehlern aufgrund des riesigen Vertrauensbereiches handelt, kommt bei Correktiv nicht vor. Und dann wird noch jegliche statistische Betrachtung ignorierend einfach behauptet, die Inzidenzwerte wären vergleichbar, was im Kern schon so etwas wie eine Lüge bei genauerer Betrachtung nicht ausreichend belegbare Information ist:
[3] Correktiv: … Was ist der Inzidenzwert?
Die 7-Tage-Inzidenz .. So lässt sich eine Inzidenz auf 100.000 Einwohner für verschiedene Städte, Landkreise, Bundesländer und auch bundesweit berechnen. Der Wert schafft eine Vergleichbarkeit für Regionen mit unterschiedlich hoher Einwohnerzahl.
Das erforderliche Lob an unsere unfehlbare Kanzlerin darf bei Correktiv natürlich nicht fehlen:
[3] … Den Grund hatte Bundeskanzlerin Angela Merkel am 6. Mai 2020 in einer Pressekonferenz erklärt: Man arbeite mit dem Schwellenwert von 50 neuen Fällen pro 100.000 Einwohnern, weil man glaube, bei dieser Menge die Infektionsketten noch nachverfolgen zu können.
Ein bisschen „Einsicht“ darf dann sein, allerdings nicht am Inzidenzwert selbst, sondern an dessen „Verwendung“:
[3] … Es gibt jedoch immer wieder Kritik an der Fokussierung auf den Inzidenzwert … kritisierten Expertinnen und Experten, dass er als einziger Parameter für die Corona-Maßnahmen herangezogen wird. … Gérard Krause vom Helmholtz-Zentrum für Infektionsforschung, der sagte, man sollte auch auf die Zahl der freien Intensivbetten oder die Altersverteilung der Fälle schauen. Bei den Neuinfektionen handele es sich zudem um Laborbefunde – und deren Häufigkeit sei stark abhängig davon, wer wie getestet werde.
Haben Regionen, die mehr testen, eine höhere Inzidenz?
.. Als „mathematisches Problem“ bezeichnet er, dass die Anzahl der insgesamt an einem Ort durchgeführten Tests bei der Inzidenzberechnung nicht einbezogen wird … Wenn es in zwei Landkreisen gleich viele Infektionen gäbe, dann würden in dem Kreis, in dem mehr getestet wird, mehr positive Fälle entdeckt und die Inzidenz liege höher, behauptet er.
Dann kommt dazu: Nichts. Dieses eigentliche Hauptthema wird nicht beantwortet, wohl weil man weiß, was dann herauskäme.

Und weiter geht es:
[3] … Am Beispiel des Berchtesgadener Lands erklärt er seine alternative Berechnungsmethode. … Er schlägt vor, sich bei der Berechnung der Inzidenz an dem bundesweiten Durchschnitt der durchgeführten Tests zu orientieren, den genannten 1,5 Prozent. So ergebe sich für das Berchtesgadener Land eine Inzidenz von 18 – diese Zahl sei die „korrigierte Inzidenz“, behauptet der Student. Die Inzidenzwerte verschiedener Landkreise seien mit seiner Methode besser vergleichbar, weil die Anzahl der dort jeweils durchgeführten Tests keine Rolle mehr spiele.
Zur Erklärung wird dann auf die Physikerin V. Priesemann verwiesen, welche bereits im Rahmen des FOCUS-Artikels zitiert wurde:
[3] … Laut der Physikerin Viola Priesemann vom Max-Planck-Institut für Dynamik und Selbstorganisation liegt in dem Video aber ein grundlegender Denkfehler vor …

Der Inzidenzwert

Correctiv „erinnert“ in ihrer „Argumentation“ [3] daran, wozu der Inzidenzwert dienen sollte, nämlich einzig als (ursprünglich auf 50 festgelegten) Grenzwert, ab dem die Gesundheitsämter Kontaktpersonen angeblich nicht mehr nachverfolgen können:

Bild 5 Politische Betrachtung zur Inzidenz, zitiert in [3]
Fazit
Nach über einem Jahr „Corona“ werden die Kontakte immer noch wie im digitalen Mittelalter mit Personal händisch anhand von angelieferter „Zettelwirtschaft“ verfolgt (wobei böse Stimmen behaupten, dass das teils gar nicht mehr konsequent gemacht würde).

Unsere Digitalministerin im Bund – und auch die in den Ländern -, welche es modern lösen müsste(n), ist(sind) seit Langem abgetaucht (was bei dieser Fehlbesetzung(en) allerdings auch niemand vermisst).
Und so dient der Inzidenzwert wohl nur noch als Planungsgrundlage zur Stellenaufblähungbesetzung für Personalverantwortliche in zuständigen Referaten der Gesundheitsämter.

Nach der Definition bräuchte jedes Bundesland, Landkreis, Gemeinde, nur ihre Kontaktverfolgung zu optimieren und könnte dann „ihre“ kritischen Inzidenzschwellen anhand der erreichten Nachverfolgungsgeschwindigkeit selbst festsetzen.
Optimal wäre es unter diesem Lösungs-Gesichtspunkt, wenn die bisher wegen der Kontaktverfolgungs-Unfähigkeit mit nur immer neuen, massivsten Corona-Restriktionen gemaßregelten Bürger aufständen, zu den in den Kommunen Verantwortlichen zögen und anstelle ihrer zunehmenden Drangsalierung dort mehr Effizienz verlangten …

(Mehr als) unverständlich findet es deshalb der Autor, was Herr Söder bezüglich des Inzidenzwertes nach wie vor allen Ernstes behauptet: Söder im Bayerischen Landtag: … Söder verteidigt seinen Kurswechsel, erklärt, dass der Inzidenzwert weiter die einzig belastbare Größe sei und dass ihm noch niemand eine tragfähige Alternative genannt hat …
So etwas kommt heraus, wenn man anstelle von Fachpersonen einen Ethikrat unter Vorsitz einer (ehemaligen) Regionalbischöfin errichtet, und darin (Kompetenz-) nicht ausreichend Unterwürfigkeit zeigende Personen sofort entfernt.
Danach hat man wirklich „niemand“, der einen sachkundig informiert.
Wobei man sich auch hier fragt, wozu dann die aufgeblähte, bestens honorierte Ministerialbürokratie dienlich ist.
Alternativ und viel billiger könnte er auch EIKE, Achgut, oder Tichys Einblick lesen, wo darüber genügend fundierte Information geboten wird, aber igittigittigitt, dies sind doch rääääächte Publizierer.

Für den Autor ist damit klar, dass Söder „Corona“ nicht wirklich kann (Achtung, eine rein persönliche Meinung des Autors). Nun soll er aber „Kanzler“ können. Und (auch) das mit Wohlwollen unserer Kanzlerin. Böse Zungen munkeln, da entwickle sich ein gegendertes Double einer von den Laien …

Im Kern bleibt der Inzidenzwert auch vollkommen egal. Für die Gefährdung bietet er keine Aussage und damit keine Handhabe

Dazu immer wieder die Grafiken der Corona-Meldewerte und deren „Auswirkungen“ – die Corona-Mortalität – der Städte Nürnberg und Fürth.
Man sieht:
– die Lockdown-Maßnahmen haben keinen Einfluss auf die Meldewerte
– die Meldewerte (über 7 Tage zusammengefasst die Inzidenz) haben wenig bis keinen Einfluss (mehr) auf die Corona-Mortalität

Bild 6 Stadt Nürnberg, Anzahl Meldefälle, Zeitraum 01.01. – 06.04.2021. Grafik vom Autor erstellt. Datenquelle: RKI Datensatz

Bild 7 Stadt Nürnberg, Anzahl Corona-Todesfälle, Zeitraum 01.01. – 06.04.2021. Grafik vom Autor erstellt. Datenquelle: RKI Datensatz

Bild 8 Stadt Fürth, Anzahl Meldefälle, Zeitraum 01.01. – 06.04.2021. Grafik vom Autor erstellt. Datenquelle: RKI Datensatz

Bild 9 Stadt Fürth, Anzahl Corona-Todesfälle, Zeitraum 01.01. – 06.04.2021. Grafik vom Autor erstellt. Datenquelle: RKI Datensatz

Nun die Grafiken für die Stadt Hof, welche mit aktuell 563 den höchsten Inzidenzwert von Bayern ausweist.

Bild 10 Stadt Hof, Anzahl Meldefälle, Zeitraum 01.01. – 11.04.2021. Grafik vom Autor erstellt. Datenquelle: RKI Datensatz

Hinweis: Rein statistisch versterben in Hof täglich 1,35 Personen.

Bild 11 Stadt Hof, Anzahl Corona-Todesfälle, Zeitraum 01.01. – 11.04.2021. Grafik vom Autor erstellt. Datenquelle: RKI Datensatz

Wie geht unsere politische „Führungsintelligenz“ damit um?

Weiterhin vollkommen ideen- und planlos. Einfach nur: Wir wissen auch nicht warum, aber weiter so. Und auf gar keinen Fall schauen wir, ob es sinnvoll ist und/oder wie es andere machen:

Achgut, 2.04.2021: So werden Inzidenzen aufgeblasen

Achgut, 08.04.2021: Zahlen zum Tage: Wir testen uns zu Tode, wir fürchten uns zu Tode
EIKE. 07.
April 2021: Corona–Vorbild Schweden
Tichys Einblick, 7. April 2021: 40.000 MENSCHEN IN STADIEN Vor einem Monat hob Texas alle Corona-Restriktionen auf: Zahl der Neuinfektionen sinkt auf Rekordtief

Dazu fällt einem ein:

Bild 12

Aber dass bitte kein*e Leser*in auf die Idee kommt, der Autor könnte damit auch nur entfernt unsere „Intelligenz“ meinen. Nein, nein, nein. Wenn überhaupt welche, dann einen Teil des Volkes, welches falsche Parteien wählt und friedlich, aber ohne Maske demonstriert und ganz offensichtlich (ver-)quer denkt. Nur diese dürfen laut unserem Bundespräsidenten von den „Guten“ übelst beschimpft werden.

Mit welch überragenden Kenntnis, ausgesuchter Sorgfalt und hellseherischen Weitsicht unsere „Intelligenz“ dagegen vorgehen kann, hat Minister Spahn kürzlich erneut bewiesen und so umgesetzt, wie es Bundespräsident Steinmeier in seiner Osteransprache sagte: „Du, Staat, tust Deinen Teil, ich Bürger tue meinen“, wobei er wohl meinte: Der Staat entsprechend seinen geistigen Fähigkeiten und der Bürger entsprechend seiner Fähigkeit, immer höhere Steuern zu bezahlen.
In solche Führungskräfte gewinnt man bedingungsloses Vertrauen, dass jeder Lockdown und jeder Einzelpunkt der Lockdown-Maßnahmen sorgfältig überlegt, verifiziert und auf Wirkung „abgeklopft“ wurde und damit sinnvoll sein muss …

Bild 13

Dabei hat Minister Spahn wohl ein Vorbild im Auge gehabt:
The European, Wolfgang Kubicki 29.03.2021: Entweder ist die Kanzlerin verwirrt oder sie will die Bevölkerung auf den Arm nehmen
In ihrer Regierungserklärung im Deutschen Bundestag am 25.März 2021 hat Angela Merkel ausgeführt:
„Ich will an dieser Stelle einmal sagen: Wir sind ein föderaler Staat. Es ist keinem Oberbürgermeister und keinem Landrat verwehrt, das zu tun, was in Tübingen und Rostock getan wird. Alle können das machen, und der Bund wird immer unterstützend tätig sein.“
Bei Anne Will am Sonntag, sagte sie das genaue Gegenteil. Die Infektionszahlen gäben eine Lockerung derzeit nicht her. „Das ist nicht der Zeitpunkt, so etwas ins Auge zu fassen.“ Und weiter: „Ich weiß wirklich nicht, ob Testen und Bummeln, wie es in Berlin heißt, die richtige Antwort auf das ist, was sich gerade abspielt.“

Bild 14

Bild 15

Bild 16

Bild 17

Bild 18

Bild 19 Quelle: Tichys Einblick

Quellen

[1] Stuttgarter Nachrichten: Wie berechnet man die 7-Tage-Inzidenz?

[2] FOCUS ONLINE, 23.03.2021: Inzidenz bei 18 statt 78? Mathe-Student wirft RKI verzerrte Corona-Zahlen vor – Physikerin kontert

[3] Correktiv: HINTERGRUND Der Inzidenzwert wird nicht „falsch“ berechnet, aber es gibt Kritik daran, ihn als einzigen Maßstab zu nutzen

[4] WIKIPEDIA: Inzidenz (Epidemiologie): Kritik

[5] Tichys Einblick, 10.04.2021: ÄNDERUNG DES INFEKTIONSSCHUTZGESETZES Merkels Entwurf für den Bundeslockdown: Ausgangssperren, Schulschließungen, Einzelhandel dicht