1

Regierungsamt­liche Phantasterei: Aufladen von Elektro-Fahrzeugen

Die Bundesbehörden bauen große Dinge wie Postämter, Bundesgebäude, Militärbasen, Hochwasserschutzdämme und Grenzmauern. Sie bauen nicht eine halbe Million EV-Ladestationen, im Wettbewerb mit dem privaten Sektor, aber nur mal so wollen wir uns überlegen, wie sie es versuchen könnten.

Der einfachste Weg ist es, es einfach wie ein Postamt zu machen. Die Regierung kauft das Land, baut die Station, und die Betreiber sind Bundesangestellte. Wir schaffen eine neue Behörde, sagen wir die EV Charging Administration (EVCA), wahrscheinlich in der GSA. Sie hat eine Million Vollzeitangestellte, genau wie die Armee. Oh, Moment, die Armee hat nur 800.000.

Die Regierung kauft den Strom, plus Snacks für den integralen Lebensmittelladen. Kein Laden! Wie finanzieren sie sich selbst? Oh, das tun sie nicht, sie bekommen eine jährliche Bewilligung, genau wie der Rest der Regierung. Aber der Strom ist trotzdem sehr teuer.

Vielleicht wollen wir nicht so eine große Behörde, also machen sie es so, wie das Energieministerium die nationalen Labore betreibt. Diese Ladestationen sind im Besitz der Regierung, werden aber von einer Fremdfirma betrieben. Sie wird GOCO genannt, reimt sich auf LOCO. In der Tat denkt ein Großteil der Bundesregierung so. Viele Bundesbehörden sind in Wirklichkeit Zweigstellenleiter, die einen Kader von unterstützenden Auftragnehmern beaufsichtigen.

Aber das ist immer noch ein riesiger, schwerfälliger, laufender Betrieb mit etwa einer Million Angestellten (nur nicht alle vom FBI). Die offensichtliche Alternative ist, die Ladestationen von privaten Unternehmen betreiben zu lassen. Die Bundesregierung würde nur den Bau finanzieren und es dabei bewenden lassen.

Stattdessen haben wir also ein Förderprogramm in Höhe von 178 Milliarden Dollar? Das sind verdammt viele Zuschüsse, so dass wir eine sehr große Organisation benötigen, um alle Anträge zu bearbeiten, alle Gewinner auszuwählen (sorry, Verlierer, ihr verliert) und dann die Zuschüsse zu verwalten, was auch immer das bedeutet. Es könnten Millionen von Anträgen sein, also brauchen wir immer noch eine riesige EVCA.

Wer bekommt diese 178 Milliarden Dollar an Zuschüssen? Eine sehr gute Frage! Wird der Zuschuss bei 100.000 Dollar oder 100.000.000 Dollar oder irgendwo dazwischen liegen? Es macht einen großen Unterschied, wer sich bewerben kann.

Eine Möglichkeit sind die Versorgungsunternehmen, die den Strom verkaufen. Schließlich wird ein großer Teil der Kosten, vielleicht sogar der größte, darin bestehen, die Versorgungsunternehmen dafür zu bezahlen, dass sie ihre Verteilersysteme aufrüsten, damit diese Ladestationen funktionieren können. Dies gilt vor allem für ländliche Gebiete, wie z.B. entlang der 50.000 Meilen Interstate Highways [vergleichbar mit unseren Bundes-Autobahnen, A. d. Übers.] und Hunderttausende von Meilen entlang anderer großer Autobahnen.

Oder wie wäre es, wenn die Benzinfirmen das machen würden? Sie sind bereits flächendeckend mit Tankstellen ausgestattet. In der Tat könnten die Ladestationen an den Tankstellen sein, wo die Autos bereits fahren. Außerdem gäbe es auf diese Weise eine Menge Wettbewerb, im Gegensatz zu den monopolistischen Stromversorgern. Allerdings könnte es den grünen Befürwortern von E-Fahrzeugen schwerfallen, den verhassten Ölkonzernen fast 200 Milliarden Dollar freizur Verfügung zu stellen.

Einige Experten sind jedoch der Meinung, dass die Ladestationen in Supermärkten, großen Geschäften, Fast-Food-Läden und anderen Vergnügungsstätten aufgestellt werden sollten, da das Aufladen sehr lange dauert. Die meisten dieser Orte haben bereits Platz für Autos und einige haben sogar Tankstellen. Allerdings haben sie keine Erfahrung mit dem Pumpen von Strom.

Eine vierte Möglichkeit ist, diese vielen Milliarden an die wenigen bestehenden Unternehmen zu geben, die bereits Ladestationen bauen. Sie wissen, wie man es macht. Wohlgemerkt, sie sind sehr klein und könnten an so viel Geld ersticken.

Das führt zu einer fünften Möglichkeit, nämlich diese Zuschüsse nur an Teams von Unternehmen zu geben. Die Voraussetzung für die Teambildung könnte sein, dass sie das Land, das Know-how und die finanzielle Stärke haben.

Dann ist da noch die lästige Frage, wohin mit all diesen Stationen? Die Zuschüsse sollten so vergeben werden, dass eine angemessene geografische Abdeckung erreicht wird, sonst werden die E-Fahrzeuge nicht funktionieren. Angesichts dieser riesigen Menge an kostenlosem Geld werden sie vielleicht dort gebaut, wo es keinen Bedarf gibt, wie z.B. in nutzlosen Clustern. Große finanzielle Verluste werden folgen und die Nutzung von E-Fahrzeugen wird nicht unterstützt.

Es ist klar, dass der Kongress die Aufgabe haben wird zu entscheiden, wem er diese enorm hohen Summen zukommen lassen will und wie. Und es wird eine große Aufgabe für die EVCA sein, sie in den Ring zu werfen.

Der grundlegende Punkt ist, dass dies von Anfang an eine dumme Idee ist. Wenn EV-Ladestationen Geld einbringen, dann wird der private Sektor sie bauen.

Die Bundesregierung hat in diesem Geschäft nichts zu suchen.

Autor: David Wojick, Ph.D. is an independent analyst working at the intersection of science, technology and policy. For origins see http://www.stemed.info/engineer_tackles_confusion.html. For over 100 prior articles for CFACT see http://www.cfact.org/author/david-wojick-ph-d/. Available for confidential research and consulting

Link: https://www.cfact.org/2021/04/10/fed-funding-fantasy-ev-charging/

Übersetzt von Chris Frey EIKE




Inzidenzwert-Ermittlung und dessen Anwendung unter einem „Aluhut“ betrachtet

Warnhinweis

Lange hat der Autor überlegt, ob er diesen Artikel überhaupt veröffentlichen kann.
Grund ist, dass die Sichtung über die Durchführung und Fehler der Inzidenzermittlung so katastrophale Mängel aufdeckt, dass man am Verstand vieler Personen welche daraus Lockdownmaßnahmen ableiten, zweifeln müsste (rein persönliche Meinung des Autors, allerdings durch viele „Fachpersonen“ längst widerlegt).

Das (mit dem fehlenden Verstand hochbezahlter „Intelligenz“) kann und darf aber nicht sein, sofern man den Berichten unserer Medien glauben darf, wie es gerade wieder bewiesen wurde: Zeit Online, 8. April 2021: Langzeitstudie: Vertrauen in Medien deutlich gestiegen
Dann bleibt aber die einzige, logische Folgerung: Die in diesem Artikel gebrachten Überlegungen und somit Ableitungen sind hoffnungslos falsch.

Leider hat der Autor jedoch ein dickes „Brett vorm Kopf“ und findet seine Fehler nicht. Notgedrungen stellt er diesen Artikel also doch auf EIKE ein, damit die kompetenteren Leser seine Fehler finden und diese im Blog (dann bitte mit Richtigstellung) aufzeigen.

Den Inzidenzwert kann jedes Schulkind berechnen

Der Inzidenzwert ist mittels einfachem Dreisatz ermittelbar:
[1] Stuttgarter Nachrichten (stark gekürzt und teils ergänzt): Wie berechnet man die 7-Tage-Inzidenz?
Falls Sie die 7-Tage-Inzidenz … brauchen Sie zunächst die folgenden Zahlen:
– Die Summe der Neuinfektionen der letzten 7 Tage
– Die Einwohnerzahl
Und so berechnen Sie den 7-Tages-Wert:
Summe Neuinfektionen der letzten 7 Tage, geteilt durch die Einwohnerzahl Ihres Landkreises … Anschließend multiplizieren Sie das Ergebnis mit 100.000.
Formel: (Neuinfektionen / Einwohnerzahl) x 100.000 = 7-Tage-Inzidenz

Diese Berechnung ist plausibel und ermittelt auch mathematisch bis auf beliebige Nachkommastellen genau (verwendet werden vom RKI zwei Nachkommastellen) den Inzidenzwert.

Anmerkung: Amtlich wird bei einem positiven PCR-Testergebnis automatisch von „Neuinfektionen“ gesprochen und damit immer eine entdeckte „Gefahr“ suggeriert.
Dabei sagt ein Positivergebnis lediglich aus, dass beim Test Reste entsprechender DNA-Sequenzen gefunden wurden.
Ob diese wirklich von einer aktuellen Infektion stammen, (noch) aktiv sind, und wirklich zur Krankheit führen (würden) ist damit nicht ausgesagt (siehe dazu am Schluss die Grafiken der PCR-Positivmeldungen und der in keinem Zusammenhang dazu verlaufenden Mortalität).
Da der Begriff „Neuinfektionen“ amtlicherseits durchgehend verwendet wird, ist er hier wenn im „Amtston“ getextet wurde ebenfalls verwendet und nicht mit einem richtigeren, wie zum Beispiel „ die DNA-Sequenzsuche hat welche, die einen Verdacht auf Kontakt mit Covid-19-Virus nicht ausschließen lassen gemeldet“. Richtige Information klingt oft zu sperrig.

Größenordnungen

An einem Beispiel sei gezeigt, wie viele Personen oder positive Testergebnisse es benötigt, um anhand der Inzidenz Lockdown-Entscheidungen auszulösen:
Eine Beispiel-Stadt mit 100.000 Einwohnern habe in der Einwohnerschaft eine durchgängige (gleich verteilte) Neu-Infektionsrate von 14 Einwohnern täglich (0,014 % der Einwohner), in Summe der 7 Tage somit 98 Personen (ca. 0,1 % aller Einwohner).

Als Folge hat diese Beispiel-Stadt einen Inzidenzwert von 98 und kann Erleichterungen beim Lockdown veranlassen.

Bild 1 Beispielstadt, Neuinfektionen und Inzidenzwert

Beträgt die Summe der Neuinfektionen nun zwei zusätzliche Personen (zusätzlich 0,002 % aller Einwohner) innerhalb der 7 Messtage, in Summe also 100 Personen, berechnet sich ein Inzidenzwert von 100 und laut Politikbeschluss sind gnadenlos Restriktionsmaßnahmen vorzugeben (und werden von den Kommunen auch wirklich buchstabengetreu, pedantisch umgesetzt).

Stellt sich nicht schon da die Frage, ob es wirklich sinnvoll ist, wegen zusätzlich +0,001 .. 0,002 % „Corona-Positivbefall“ – also weder Krankheit, ev. nicht einmal mit Symptomäußerung – innerhalb einer Woche, massivste, zusätzliche Lockdown-Restriktionen durchzusetzen?
Die Antwort kennt jeder: Diese Frage wird nicht gestellt. Wenn einmal doch, dann wird sie konsequent als rääääächts abgebürstet“. Im Deutschland der unfehlbaren Merkel und eines heiligen Söder fragt man nicht, sondern freut sich, wieder Anordnungen umsetzen und damit Staatstreue zeigen zu dürfen … wie es früher bewährte Bürgersitte war:
Es ziemt dem Untertanen, seinem Könige und Landesherrn schuldigen Gehorsam zu leisten und sich bei Befolgung der an ihn ergehenden Befehle mit der Verantwortlichkeit zu beruhigen, welche die von Gott eingesetzte Obrigkeit dafür übernimmt; aber es ziemt ihm nicht, die Handlungen des Staatsoberhauptes an den Maßstab seiner beschränkten Einsicht anzulegen und sich in dünkelhaftem Übermute ein öffentliches Urteil über die Rechtmäßigkeit derselben anzumaßen.
Gustav von Rochow (1792 – 1847), preußischer Innenminister und Staatsminister

Regelungstechnik

Mit Erreichen des Inzidenzwertes 100 treten sofort erhebliche, zusätzliche Lockdown-Verschärfungen in Kraft. Damit soll der Inzidenzwert wieder unter Hundert, besser bis maximal 50 reduziert werden.

Technisch-mathematisch bilden Inzidenzwert und Lockdown eine Regelstrecke.
Da die Lockdown-Maßnahmen mit Erreichen des Inzidenzwertes 100 sofort ohne Stufung(en) (hätte dann eine integrale, also eigendämpfende Regelwirkung zur Folge) erfolgen, handelt es sich um einen Proportionalregler.
Dazu um eine Regelstrecke, welche aufgrund der Verzögerung zwischen Inzidenzwertmeldung und Wirkung der Lockdownmaßnahmen im Wirkungsweg eine recht lange Totzeit beinhaltet.

Jedes Kind Student lernt bereits im Grundlagenfach Regelungstechnik, dass ein Proportionalregler bei zu hoher „Verstärkung“ – und vor allem, wenn dann noch wie in diesem Fall eine Hysterese fehlt – konsequent oszilliert.
Extrem verstärkt und dann viel, viel schwieriger lösbar wird diese Neigung zur Oszillation, wenn in der Strecke zusätzlich Phasenverschiebungen, hier noch schlimmer „Totzeiten“ dazukommen. Dann wird diese einfache Art der Regelung eigentlich unbeherrschbar.

Genau diese Auswirkungen lassen sich bundesweit live erleben:
Stadt Nürnberg: An einem Montag Öffnung von Präsenzunterricht und Kindergärten, am Dienstag wieder alles schließen … , einfach ein „ewiges“ Hin- und Her, was Eltern, Handel und Sonstige zur Verzweiflung treibt.

Nicht, dass dies kommunale „Lenker“ nicht bemerken. Aber bisher wagte nur ein kleines Eckchen von Deutschland, welches sich etwas Obrigkeitsrenitenz bewahrt hat, zumindest informellen „Widerstand“, indem sie es wenigstens meldeten:
Stadt Lößnitz an die Sächsische Staatskanzlei, 15.03.2021: Offener Brief der Bürgermeister des Erzgebirges

Bild 2

Bild 3

Bild 4

Was machen unsere „hohen Politiker“ und deren Berater zur Lösung? Sie orientieren sich nicht an der seit weit über 100 Jahren bewährten und in weltweit Milliarden von Installationen als richtig belegten Regelungstechnik, sondern „vertrauen“ auf Epidemie-Simulationen, welche laufend exponentielle Anstiege vorhersagen, die noch nie und auch aktuell nicht – da epidemiologisch unmöglich – eingetroffen sind (siehe vorletztes Kapitel).

Wo sie doch „eintreffen“ – schließlich „sieht“ den exponentiellen Anstieg auch unsere unfehlbare Kanzlerin – verhält es sich so, wie in der Theologie: Wenn man etwas lange genug „eingebläut“ bekommt – hier: Täglich in der Zeitung liest und von Medien erzählt -, können es psychisch entsprechend eingestellte Personen in besonders „lichten“ Momenten plötzlich „sehen“, so wie „KlimaGreta“ das unsichtbare und geschmacklose CO2, wenn es zum Beispiel aus Kraftwerken „schießt“ . Weitere Beispiele aus der Theologie ließen sich nahezu unendlich fortführen.

Was wäre, wenn die ermittelten Inzidenzwerte gar nicht stimmen würden?

Alles bisher Gesagte geht davon aus, dass der Inzidenzwert stimmt. Vom RKI wird er immer mit zwei Nachkommastellen angegeben. Wer würde es also wagen, daran zu zweifeln, dass nicht alle dieser Stellen auch signifikant sind?

Eine Fundstelle macht jedoch auf scheinbare Probleme aufmerksam. Nicht unbedingt didaktisch gut aufbereitet, für etwas mit Statistik Vertraute aber gut lesbar:
[4] IWIKIPEDIA: Inzidenz (Epidemiologie): Kritik
... Die für den Vergleich und zur Festlegung von Schwellenwerten herangezogene sogenannte 7-Tage-Inzidenz ist nicht gleichzusetzen mit einer epidemiologischen Inzidenz, die auf repräsentativen Stichproben basiert. Die Testprävalenzen werden auf die Gesamtbevölkerung oder Region umgerechnet, ohne die Dunkelziffer in der nicht-getesteten Bevölkerung zu berücksichtigen. Ohne Bezug zu einer bekannten Grundgesamtheit (Nenner) fehlt der Fallzahl die epidemiologische Aussagekraft und damit die Geeignetheit für seuchenpolitische Maßnahmen. Die Reduktion der Lageeinschätzung auf die 7-Tages-Inzidenz sei epidemiologisch nicht begründbar und entspreche nicht dem Stand der verfügbaren wissenschaftlichen Evidenz.
Auch Politik und Justiz sehen allein die Inzidenz zur Begründung von Grundrechtseinschränkungen als unzureichend an …

Eine Folge davon sind Gerichtsentscheide von Richtern, die diesen Sachverhalt umzusetzen wagen:
Tichys Einblick: Gericht kippt Ausgangssperre in Hannover: „Nicht nachprüfbare Behauptungen“ reichen zur Rechtfertigung nicht aus!
Allerdings auch von Politikern, denen jeglicher Sachverstand fehlt, solchen auch gar nicht haben wollen:
Tagesspiegel vom 22.03.2021: NRW Stunden nachdem ein Gericht die Beschränkungen für den Handel für rechtswidrig erklärt hatte, beschließt die Politik noch härtere Regeln

Grundgesamtheit und Stichprobentheorie

Und damit steht eine weitere Fragestellung im Raum, welche weder juristisch und soziologisch, sondern einfach statistisch-mathematisch begründbar ist: Wie genau, besser fehlerhaft, Ist die Ermittlung des Inzidenzwertes?

Dazu nehmen wir die Beispielstadt vom Anfang (Bild 1):
Deren Daten: Von 100.000 Einwohnern mit 0,1 % gut durchgemischten (damit gleichverteilten) Positiven (sind 100 Personen in der Stadt, somit ein Inzidenzwert von 100), werden rein statistisch täglich 14 Bewohner neu infiziert.
Am Ende der 7 Inzidenz-Messtage sind es somit 98 neu hinzugekommene, positive Bewohner und damit wieder ein Inzidenzwert von 98.
Nun versuchen wir, diese Corona-positiven Personen mittels RKI-Coronatestungen und darüber die Inzidenz zu ermitteln.

Beispielstichproben

Leider findet sich nirgendwo eine Angabe, wie viele Testungen wo durchgeführt werden. Deshalb muss man diese Zahl versuchen indirekt abzuleiten.
Laut RKI wurden in der KW13 deutschlandweit 1.149.297 PCR-Testungen durchgeführt. Heruntergerechnet auf unsere Beispielstadt wären das für den Zeitraum der Inzidenz-Ermittlung 1.385 Testungen.

Stichprobe A
Bei 0,1 % Positivanteil in der Grundgesamtheit sind in einer Stichprobe von 1.385 Personen im Mittel 1,385 Personen positiv zu finden. Halbe Personen gibt es nicht, weshalb die Stichprobe entweder 1 oder 2 Personen meldet. Die RKI-Inzidenzberechnung meldet also eine Inzidenz von:
Formel: (Neuinfektionen / Einwohnerzahl) x 100.000 = 7-Tage-Inzidenz
Rechnung: (2/100.000) x 100.000) =
2 (anstelle des wirklichen Inzidenzwertes von 100), oder
Rechnung: (1/100.000) x 100.000) = 1 (anstelle des wirklichen Inzidenzwertes von 100)

Stichprobe B
Früher war das auch die ungefähre Testungs-Anzahl, da nur PCR-Tests vorgenommen wurden. Inzwischen testen aber zusätzlich Apotheken und bald auch Hausärzte mit Einfachtests, die nur bei positiven Befunden mittels zusätzlichem PCR-Test verifiziert werden müssen. Deshalb wird nun die dreifache Anzahl an Testungen angenommen.
Für die Beispielstadt wären es nun 4.154 Testungen in einer KW.
Bei 0,1 % Positivanteil der Grundgesamtheit sind in einer Stichprobe von 4.154 Personen 4,154 Personen positiv (Mittelwert). Die RKI-Inzidenzberechnung meldet also eine Inzidenz von:
Formel: (Neuinfektionen / Einwohnerzahl) x 100.000 = 7-Tage-Inzidenz
Rechnung: (4/100.000) x 100.000) =
4 (anstelle des wirklichen Inzidenzwertes von 100)

Stichprobe B
Nun verzehnfachen wir die Anzahl Testungen auf 13.850, also jede Woche 14 % der Einwohner getestet:
Rechnung: (14/100.000) x 100.000) = 14 (anstelle des wirklichen Inzidenzwertes von 100)

Bei diesen Inzidenzmeldungen kommt man fast gezwungenermaßen zu der Erkenntnis:
Die Inzidenz – ermittelt und berechnet nach RKI-Formel – ermittelt irgend etwas, aber niemals auch nur weit, weit entfernt den „Befall“ einer kommunalen Einheit durch das Coronavirus.
Daran ändert auch nicht, dass die Inzidenzwerte vom RKI auf zwei Nachkomastellen angegeben werden (über die feststellbare, mathematische Idiotie von Personen welche vor Rechnern sitzen und Werte, welche zwei Stellen vor dem Komma schon nicht mehr stimmen fein säuberlich mit zwei danach angeben weil es der Rechner so anzeigt, sei hier gnädig hinweggesehen).

Als Fazit bleibt:
Mittels dem in Deutschland seit über einem Jahr ausschließlich angewandtem RKI-Inzidenz-Ermittlungsverfahren wird niemals die wirkliche Inzidenz – und damit Gefahrenlage – der Grundgesamtheit ermittelt.
Eine wichtige Feststellung ist zudem: Der Inzidenzwert ist bei diesen Stichprobengrößen fast linear nur ein Ergebnis des Testumfangs, gibt also diesen und nicht die Anzahl neu Infizierter wieder!

Und warum bemerkt das keiner? Weil in der Berechnungsformel der wichtige Stichprobenumfang fehlt:
RKI: (Neuinfektionen / Einwohnerzahl) x 100.000 = 7-Tage-Inzidenz
Was zu der Erkenntnis führt, dass diese Formel und damit die gesamte Methodik zur Ermittlung einer wirklichen Gefahrenlage ganz einfach vollkommen unbrauchbar sind.

Dass es „keiner“ bemerkt, stimmt allerdings nicht ganz. Laut der Professorin V. Priesemann (siehe gegen Ende des Artikels) wurde das zum Beispiel in England erkannt und dort wird deshalb statistisch richtig(er) mit wenigen, dafür aber extrem großen Stichprobenumfängen geprüft.

Der Student

Sein Einwand zur Inzidenz

Ein Student publizierte vor kurzem Einwände zur Inzidenzermittlung.
[2] FOCUS ONLINE, 23.03.2021: Inzidenz bei 18 statt 78? Mathe-Student wirft RKI verzerrte Corona-Zahlen vor – Physikerin kontert
Auch Correktiv schrieb dazu:
[3] Correktiv: Er kritisiert, der Inzidenzwert beziehe die Anzahl der durchgeführten Tests in einer Region nicht mit ein: Bei Landkreisen mit gleich hohem Anteil von Corona-Fällen pro Einwohner hätten angeblich diejenigen eine höhere Inzidenz, die mehr testen würden. Er schlägt daher eine alternative Berechnungsmethode vor ….

Seine Begründung, angelehnt an die Ausführung im „FOCUS“ dargestellt:
[2] Focus: … Er nennt ein Beispiel:
Landkreis A und Landkreis B haben jeweils 50.000 Einwohner und jeweils ein Prozent Infizierte (Zufügung: 1 % Infizierte in der Grundgesamtheit ergeben einen wahren Inzidenzwert dieses Beispiels von 1.000).
– Landkreis A: testet 5000 Einwohner, findet circa 50 Infizierte (Anmerkung: Mittelwert der Stichprobe). Die Inzidenz liegt hier bei 100 (Anmerkung: Anstelle der wahren Inzidenz der Grundgesamtheit von 1.000)
– Landkreis B: testet 2000 Einwohner, findet circa 20 Infizierte (Anmerkung: Mittelwert der Stichprobe). Die Inzidenz liegt hier bei 40 (Anmerkung: Anstelle der wahren Inzidenz der Grundgesamtheit von 1.000)
Die Länder befinden sich also in der gleichen pandemischen Lage, haben aber eine unterschiedliche Inzidenz „Es wird mehr getestet. Es werden mehr positive Fälle entdeckt. Die Inzidenz steigt“, so die Schlussfolgerung des Mathematik-Studenten. „Rückschlüsse auf das Pandemiegeschehen lässt dieser Inzidenzwert also derzeit nicht zu.“

Dieses Beispiel erfreut den Autor. Dieser Student steht nämlich noch mitten im „Lernsaft“, was der Autor, dessen Studium weit über 40 Jahre zurückliegt, von sich nicht behaupten kann. Trotzdem hat er das Problem ähnlich abgeleitet, wie es der Autor im Kapitel „Stichprobentheorie“ beschrieb und ist auch darauf gekommen, dass der Inzidenzwert nicht von der Anzahl Positiver abhängt, sondern vorwiegend vom Stichprobenumfang (Anmerkung: Dieser Artikel wurde vor der Sichtung der „Studentenargumentation“, welche ursprünglich hier gar nicht gebracht werden sollte, getippt).

Sein Vorschlag einer Verbesserung

Nun schlägt der Student etwas vor, was das Stichprobenproblem (ausreichend genaue Rückrechnung, wie viele Positive sich wirklich in der Stadt aufhalten) zwar nicht löst (weil nicht möglich), aber wenigstens für eine ganz grobe, relative Vergleichsfähigkeit zwischen den Stichproben sorgen soll:
[2] Schönherr schlägt demnach vor, das Verhältnis der Tests auf die Gesamtbevölkerung mit in die Inzidenzberechnung einzubeziehen, „also eine Art Testpositivenquote“.
Hierfür wäre es nur nötig, die Zahl der Tests
(Anm.: Gemeint ist der Stichprobenumfang) zu normen und am bundesdeutschen Durchschnitt zu orientieren. Seit November würden durchschnittlich rund 1,5 Prozent der Bevölkerung (Anmerkung: Das ist ungefähr die vom RKI angegebene Anzahl der PCR-Testungen) pro Woche getestet. Damit ließe sich dann anhand der „Testpositivenquote“ eine neue, normierte Inzidenzzahl berechnen.

Dazu rechnet der Student als Beispiel die Inzidenz für das Berchtesgadener Land (Einwohnerzahl 106.000) in der KW9 „neu“ (gekürzt).

Zuerst die Rechnung des RKI:
Getestet wurden in der KW9 83 Menschen positiv, die Einwohnerzahl beträgt 106.000 Personen.
Formel: (Neuinfektionen / Einwohnerzahl) x 100.000 = 7-Tage-Inzidenz
Rechnung: (83/106.000)*100.000 = 78,3

Nun der Student mit seiner „Testpositivenquote“:
Insgesamt wurden 6817 der 106.000 Einwohner auf Sars-CoV-2 getestet, das entspricht 6,4 Prozent der Bevölkerung (Anmerkungen: Woher „er“ die Anzahl der wirklichen Testungen weiß, bleibt dem Autor ein Rätsel, denn nirgendwo findet der Autor die eigentlich überaus wichtige Anzahl durchgeführter Tests veröffentlicht).
83 Tests davon waren positiv, das bedeutet eine „Testpositivenquote“ von 1,2 Prozent
(Anmerkung: Statistisch bezeichnet das Kunstwort „Testpositivenquote“ ganz banal den Mittelwert Positiver in der Stichprobe).
Die Berechnung zur neuen Inzidenz funktioniert nun wie folgt:
– Normierung: 1,5 Prozent der Einwohner entsprechen 1590. Die „neue“ Fallzahl bei nur 1590 Tests würde demnach bei 19,08 liegen (entspricht 19 positiven Tests).
– Diese positiven Tests werden nun wiederum wie üblich für die Berechnung der Inzidenz genutzt:
19,08 x (100.000 / 106.000) = 18,0
-Die Inzidenz läge also anstatt bei 78, nun bei 18.

Was hätte man mit der „Testpositivenquote“ gewonnen?

Es werden nicht allzu viele sein, welche diesen Vorschlag des Studenten auf Anhieb „begreifen“. Auch dem Autor war das nicht beschieden. Deshalb anbei ein Erklärungsversuch seines Gedankenganges.

Mit seiner „Testpositivenquote“ bringt er den Stichproben-Mittelwert ins Spiel. Im Kern ist das der Versuch, die Inzidenzermittlung wenigstens im Ansatz als Stichprobenverfahren „aufzubauen“.
Nun weiß er (?) dass dies bei diesem Datenmaterial nicht funktionieren kann und versucht in der Not einen Kunstgriff.

Er geht wohl davon aus, dass alle Stichproben die gleiche Fehlerauswirkung haben, diesbezüglich also korrelieren. Und es deshalb möglich wäre, die Stichprobenergebnisse nach einer „Normierung“ – die nichts anderes ist, als das Hochrechnen jedes Stichprobenmittelwertes auf eine einheitliche Stichproben-Normgröße – untereinander wenigstens relativ vergleichen zu können.

Den Mut zu einer solch pauschalen Annahme hätte der Autor nicht. Ob es trotzdem – und mit welcher Ergebnisgenauigkeit – möglich ist, müssten (und könnten) Statistiker allerdings problemlos berechnen.

Wieder etwas über die (Un-)Möglichkeit von Statistik

Nun „spaßeshalber“, um ein Gefühl für die extreme (Un-)Genauigkeit der Inzidenz-Stichproben zu bekommen, ein paar informelle Rückrechnungen.

Nochmals die Basisdaten:
Grundgesamtheit: 106.000 Einwohner; angenommener wahrer Inzidenwert 100 (+0,1 % aller Bewohner, also +106 in der Inzidenz-Messwoche neu positiv).
Stichprobenumfang für die 7-Tage-Inzidenz: 1590 Einwohner
Anmerkung: Die Rückrechnung kann – da niedrige Fallzahl und geringer Stichprobenumfang – mittels Binomial, Hypergeometrischer oder Poissonverteilung erfolgen. Der Autor musste allerdings feststellen, dass das Ergebnis stark vom verwendeten Tool abhängig ist, da nicht alle gleich (rück-)rechnen. Die hier angegebenen, auf die Grundgesamtheit rückgerechneten Werte deshalb nur als Anhaltspunkte für die Größenordnung nehmen.

Beispiel:
Anzahl durch die Stichprobe gefundener Positiver (deren Mittelwert): 1,59 (ergibt einen Positiven-Mittelwert von 1 oder 2)
Daraus errechnet die statistische Rückrechnung für den möglichen Anteil an Infizierten unter den insgesamt 106.000 Einwohnern (Irrtumswahrscheinlichkeit 10 %) einen Bereich:
Bei 2 Positiven in der Stichprobe: Rückgerechnete Anzahl Positiver in der Grundgesamtheit:
22 … 395 (entsprechen einem Inzidenzwert zwischen 21 … 373)
Bei 1 Positiven in der Stichprobe: Rückgerechnete Anzahl Positiver in der Grundgesamtheit:
3 … 298 (entsprechen einem Inzidenzwert zwischen 3 … 281)

Selbst „Statistiker“ sind immer wieder überrascht, welche Grenzen – oder wie wenig Nutzen im Verhältnis zum Aufwand – attributive Prüfungen haben.

Trotzdem gibt es ein weltweit verbreitetes und oft angewandtes, attributives Stichprobenverfahren welches darauf basiert, das AQL-Stichprobensystem. Dieses hat das gleiche Problem (es entdeckt kleine Fehlermengen praktisch nicht). Doch ist es vorbildlich tabelliert und man benötigt zur sturen Anwendung nur 10 Minuten Einweisung.
Entsprechend stur und oft, doch ohne wirklichen Nutzen wird es häufig angewandt (Erfahrungen des Autors).

A: Hochrangige Fachpersonen haben sich mit der Problemstellung bereits beschäftigt

[2] FOCUS ONLINE: … Physikerin Priesemann nimmt Stellung
… Schönherrs Video wurde von vielen geteilt und blieb deutschen Top-Wissenschaftlern nicht verborgen. So nahm etwa Physikerin Viola Priesemann vom Max-Plank-Institut auf Twitter Stellung dazu.
Laut ihr greift das Video „ein wichtiges Thema“ auf. Vermehrtes Testen werde „kurzfristig ‚bestraft‘“, da man dann mehr Infektionsketten entdecke. Langfristig lohne es sich aber, gibt die Physikerin zu bedenken. „Denn es stoppt die Ketten.“
Allerdings kontert Priesemann daraufhin Schönherrs Theorie: „Das Video hört sich logisch an, macht aber eine falsche Annahme. Und also ist die Schlussfolgerung falsch.“
Schönherr gehe in seinem Video davon aus, dass Tests zufällig gemacht würden. „Das ist nicht der Fall“, so die Physikerin. „Menschen werden nicht zufällig getestet, sondern meistens, weil es einen Verdachtsmoment gibt.“ Dazu zählten etwa Symptome, Kontakte oder ein positiver Schnelltest.

Folgeergebnisse nicht zutreffend“
Laut Priesemann müsse man zwischen zwei Kausalitäten unterscheiden:
– Fall A: Es werden mehr Fälle gefunden, weil mehr getestet wird.
– Fall B: Es wird mehr getestet, weil es mehr Verdachtsfälle gibt.
„Am Ende spielen beide Beiträge eine Rolle“, erklärt sie. „Aber im Video wird angenommen, dass wirklich allein und nur A zutrifft.“ Alle weiteren Rechnungen nach dieser Folie bauen auf dieser falschen Annahme auf. Also sind die Folgeergebnisse nicht zutreffend.
„Nach der Rechnung in dem Video könnte man die Inzidenzen im Landkreis ganz einfach drücken“, warnt Priesemann zudem. Man mache für jeden Test auf Verdacht einen Test bei Personen, die sehr wahrscheinlich negativ sind (oder einen Zufallstest). „Schon ist die Inzidenz (fast) halbiert.“

Priesemann macht danach ebenfalls einen Lösungsvorschlag: „Am besten wäre es, wenn wir, genauso wie UK, ein Screening hätten, also rund 100.000 Zufallstests, die jede Woche ein objektives Bild des Ausbruchsgeschehen liefern. – Dann müssten wir hier nicht diskutieren.“

Was hat die Physikerin, Frau Priesemann damit gesagt?

Im Kern redet sie gekonnt (?) „um den heißen Brei“ herum. Sie gibt der Basiskritik nämlich recht!: „Vermehrtes Testen werde „kurzfristig ‚bestraft‘ … “ und am Schluss beschreibt sie sogar die einzige, wirklich richtige Lösung (anstelle der in ganz Deutschland eingesetzten vollkommen unbrauchbaren vielen kleinen Teststichproben, ganz wenige mit wirklich großer Testmenge) und weist auch noch darauf hin, in welchem Land es so richtig gemacht wird:
„Am besten wäre es, wenn wir, genauso wie UK, ein Screening hätten, also rund 100.000 Zufallstests, die jede Woche ein objektives Bild des Ausbruchsgeschehen liefern
Ganz konkret bestätigt Sie, dass sich bei der derzeitigen Testdurchführung durch mehr Tests lediglich die Fallzahlen erhöhen:
Fall A: Es werden mehr Fälle gefunden, weil mehr getestet wird
Weil das aber nicht sein darf, denn diese Physikerin ist erkennbar eine Befürworterin des RKI-Verfahrens und wohl auch der Lockdown-Maßnahmen: „ … Nach der Rechnung in dem Video könnte man die Inzidenzen im Landkreis ganz einfach drücken“, warnt Priesemann zudem …“, (pseudo-)argumentiert sie dagegen mit geradezu hanebüchenen „Argumenten“:
„ … Schönherr gehe in seinem Video davon aus, dass Tests zufällig gemacht würden. „Das ist nicht der Fall“,
Fall B: Es wird mehr getestet, weil es mehr Verdachtsfälle gibt.

Man muss sich die Aussagen überlegen: Das RKI berechnet für Deutschland, jedes Bundesland, jeden Landkreis und jede Gemeinde eine fortlaufende Inzidenzzahl auf zwei Stellen hinter dem Komma, auf deren Basis schlimmste Lockdownmaßnahmen immer eiserner – da angeblich immer notwendiger – beschlossen werden.
Wohl die meisten Bürger denken, diese Inzidenzzahlen würden stimmen und wären vor allem auch untereinander vergleichbar, da entsprechend sachgerecht ermittelt (während sie in Wirklichkeit sicher um mehr als einige Stellen vor dem Komma bereits falsch sind).

Und nun bestätigt eine Frau Priesemann, dass genau das (seien sachgerecht und damit mit der erforderlichen Genauigkeit ermittelt) überhaupt nicht der Fall ist, erzählt aber, das sei ja auch vollkommen unwichtig. Denn es gehe doch gar nicht um den Inzidenzwert. Dieser sei ja nur ein reines Alibi als Begründung der sowieso durchgeführten Maßnahmen: „… Langfristig lohne es sich aber, gibt die Physikerin zu bedenken. „Denn es stoppt die Ketten.

B: Hochrangige Fachpersonen haben sich mit der Problemstellung bereits beschäftigt

Correktiv gibt auch zu Beginn zu, dass die „Basiskritik“ berechtigt ist „Dennoch ist an der Kritik grundsätzlich etwas dran“. Lenkt dann aber gleich ab und verweist auf den strittigen Lösungsvorschlag des Studenten, der keine Lösung wäre: „ … Die alternative Berechnungsmethode, die der Student vorschlägt, ist aber auch nicht besser geeignet. Denn ihr liegt eine falsche Annahme zugrunde“
Gut, das hat der Autor in etwa auch so gesagt. Correktiv hat sich allerdings etwas „vertiefter“ als der FOCUS mit dem Thema beschäftigt, allerdings auch nur, um mitzuteilen, dass alles „wie bisher gemacht“ doch zwar nicht richtig, aber eben das Beste wäre:

[3] Correktiv: … Er kritisiert, der Inzidenzwert beziehe die Anzahl der durchgeführten Tests in einer Region nicht mit ein: Bei Landkreisen mit gleich hohem Anteil von Corona-Fällen pro Einwohner hätten angeblich diejenigen eine höhere Inzidenz, die mehr testen würden. Er schlägt daher eine alternative Berechnungsmethode vor.
Mehrere Medien berichteten darüber … Diese Formulierungen sind nach Recherchen von CORRECTIV.Faktencheck irreführend.
Der Inzidenzwert beinhaltet keinen „Rechenfehler“. Dennoch ist an der Kritik grundsätzlich etwas dran. Denn es gibt bei der Inzidenz ein Problem: die lückenhafte Datengrundlage bei den Testzahlen. Forschende stellen auch schon länger die Frage, ob der Inzidenzwert als einziger Indikator für die Pandemie-Lage in Deutschland herangezogen werden sollte. Die alternative Berechnungsmethode, die der Student vorschlägt, ist aber auch nicht besser geeignet. Denn ihr liegt eine falsche Annahme zugrunde.

Dass der Inzidenzwert „keinen Rechenfehler“ hätte, bezieht sich alleine darauf, dass er auf einer Formel beruht und dessen sture Berechnung auf beliebig viele Nachkommastellen mittels Taschenrechner oder Excel-Sheet fehlerfrei möglich ist.
Dass es sich um eine statistisch hoffnungslos falsch ermittelte Maßzahl mit extremen Fehlern aufgrund des riesigen Vertrauensbereiches handelt, kommt bei Correktiv nicht vor. Und dann wird noch jegliche statistische Betrachtung ignorierend einfach behauptet, die Inzidenzwerte wären vergleichbar, was im Kern schon so etwas wie eine Lüge bei genauerer Betrachtung nicht ausreichend belegbare Information ist:
[3] Correktiv: … Was ist der Inzidenzwert?
Die 7-Tage-Inzidenz .. So lässt sich eine Inzidenz auf 100.000 Einwohner für verschiedene Städte, Landkreise, Bundesländer und auch bundesweit berechnen. Der Wert schafft eine Vergleichbarkeit für Regionen mit unterschiedlich hoher Einwohnerzahl.
Das erforderliche Lob an unsere unfehlbare Kanzlerin darf bei Correktiv natürlich nicht fehlen:
[3] … Den Grund hatte Bundeskanzlerin Angela Merkel am 6. Mai 2020 in einer Pressekonferenz erklärt: Man arbeite mit dem Schwellenwert von 50 neuen Fällen pro 100.000 Einwohnern, weil man glaube, bei dieser Menge die Infektionsketten noch nachverfolgen zu können.
Ein bisschen „Einsicht“ darf dann sein, allerdings nicht am Inzidenzwert selbst, sondern an dessen „Verwendung“:
[3] … Es gibt jedoch immer wieder Kritik an der Fokussierung auf den Inzidenzwert … kritisierten Expertinnen und Experten, dass er als einziger Parameter für die Corona-Maßnahmen herangezogen wird. … Gérard Krause vom Helmholtz-Zentrum für Infektionsforschung, der sagte, man sollte auch auf die Zahl der freien Intensivbetten oder die Altersverteilung der Fälle schauen. Bei den Neuinfektionen handele es sich zudem um Laborbefunde – und deren Häufigkeit sei stark abhängig davon, wer wie getestet werde.
Haben Regionen, die mehr testen, eine höhere Inzidenz?
.. Als „mathematisches Problem“ bezeichnet er, dass die Anzahl der insgesamt an einem Ort durchgeführten Tests bei der Inzidenzberechnung nicht einbezogen wird … Wenn es in zwei Landkreisen gleich viele Infektionen gäbe, dann würden in dem Kreis, in dem mehr getestet wird, mehr positive Fälle entdeckt und die Inzidenz liege höher, behauptet er.
Dann kommt dazu: Nichts. Dieses eigentliche Hauptthema wird nicht beantwortet, wohl weil man weiß, was dann herauskäme.

Und weiter geht es:
[3] … Am Beispiel des Berchtesgadener Lands erklärt er seine alternative Berechnungsmethode. … Er schlägt vor, sich bei der Berechnung der Inzidenz an dem bundesweiten Durchschnitt der durchgeführten Tests zu orientieren, den genannten 1,5 Prozent. So ergebe sich für das Berchtesgadener Land eine Inzidenz von 18 – diese Zahl sei die „korrigierte Inzidenz“, behauptet der Student. Die Inzidenzwerte verschiedener Landkreise seien mit seiner Methode besser vergleichbar, weil die Anzahl der dort jeweils durchgeführten Tests keine Rolle mehr spiele.
Zur Erklärung wird dann auf die Physikerin V. Priesemann verwiesen, welche bereits im Rahmen des FOCUS-Artikels zitiert wurde:
[3] … Laut der Physikerin Viola Priesemann vom Max-Planck-Institut für Dynamik und Selbstorganisation liegt in dem Video aber ein grundlegender Denkfehler vor …

Der Inzidenzwert

Correctiv „erinnert“ in ihrer „Argumentation“ [3] daran, wozu der Inzidenzwert dienen sollte, nämlich einzig als (ursprünglich auf 50 festgelegten) Grenzwert, ab dem die Gesundheitsämter Kontaktpersonen angeblich nicht mehr nachverfolgen können:

Bild 5 Politische Betrachtung zur Inzidenz, zitiert in [3]
Fazit
Nach über einem Jahr „Corona“ werden die Kontakte immer noch wie im digitalen Mittelalter mit Personal händisch anhand von angelieferter „Zettelwirtschaft“ verfolgt (wobei böse Stimmen behaupten, dass das teils gar nicht mehr konsequent gemacht würde).

Unsere Digitalministerin im Bund – und auch die in den Ländern -, welche es modern lösen müsste(n), ist(sind) seit Langem abgetaucht (was bei dieser Fehlbesetzung(en) allerdings auch niemand vermisst).
Und so dient der Inzidenzwert wohl nur noch als Planungsgrundlage zur Stellenaufblähungbesetzung für Personalverantwortliche in zuständigen Referaten der Gesundheitsämter.

Nach der Definition bräuchte jedes Bundesland, Landkreis, Gemeinde, nur ihre Kontaktverfolgung zu optimieren und könnte dann „ihre“ kritischen Inzidenzschwellen anhand der erreichten Nachverfolgungsgeschwindigkeit selbst festsetzen.
Optimal wäre es unter diesem Lösungs-Gesichtspunkt, wenn die bisher wegen der Kontaktverfolgungs-Unfähigkeit mit nur immer neuen, massivsten Corona-Restriktionen gemaßregelten Bürger aufständen, zu den in den Kommunen Verantwortlichen zögen und anstelle ihrer zunehmenden Drangsalierung dort mehr Effizienz verlangten …

(Mehr als) unverständlich findet es deshalb der Autor, was Herr Söder bezüglich des Inzidenzwertes nach wie vor allen Ernstes behauptet: Söder im Bayerischen Landtag: … Söder verteidigt seinen Kurswechsel, erklärt, dass der Inzidenzwert weiter die einzig belastbare Größe sei und dass ihm noch niemand eine tragfähige Alternative genannt hat …
So etwas kommt heraus, wenn man anstelle von Fachpersonen einen Ethikrat unter Vorsitz einer (ehemaligen) Regionalbischöfin errichtet, und darin (Kompetenz-) nicht ausreichend Unterwürfigkeit zeigende Personen sofort entfernt.
Danach hat man wirklich „niemand“, der einen sachkundig informiert.
Wobei man sich auch hier fragt, wozu dann die aufgeblähte, bestens honorierte Ministerialbürokratie dienlich ist.
Alternativ und viel billiger könnte er auch EIKE, Achgut, oder Tichys Einblick lesen, wo darüber genügend fundierte Information geboten wird, aber igittigittigitt, dies sind doch rääääächte Publizierer.

Für den Autor ist damit klar, dass Söder „Corona“ nicht wirklich kann (Achtung, eine rein persönliche Meinung des Autors). Nun soll er aber „Kanzler“ können. Und (auch) das mit Wohlwollen unserer Kanzlerin. Böse Zungen munkeln, da entwickle sich ein gegendertes Double einer von den Laien …

Im Kern bleibt der Inzidenzwert auch vollkommen egal. Für die Gefährdung bietet er keine Aussage und damit keine Handhabe

Dazu immer wieder die Grafiken der Corona-Meldewerte und deren „Auswirkungen“ – die Corona-Mortalität – der Städte Nürnberg und Fürth.
Man sieht:
– die Lockdown-Maßnahmen haben keinen Einfluss auf die Meldewerte
– die Meldewerte (über 7 Tage zusammengefasst die Inzidenz) haben wenig bis keinen Einfluss (mehr) auf die Corona-Mortalität

Bild 6 Stadt Nürnberg, Anzahl Meldefälle, Zeitraum 01.01. – 06.04.2021. Grafik vom Autor erstellt. Datenquelle: RKI Datensatz

Bild 7 Stadt Nürnberg, Anzahl Corona-Todesfälle, Zeitraum 01.01. – 06.04.2021. Grafik vom Autor erstellt. Datenquelle: RKI Datensatz

Bild 8 Stadt Fürth, Anzahl Meldefälle, Zeitraum 01.01. – 06.04.2021. Grafik vom Autor erstellt. Datenquelle: RKI Datensatz

Bild 9 Stadt Fürth, Anzahl Corona-Todesfälle, Zeitraum 01.01. – 06.04.2021. Grafik vom Autor erstellt. Datenquelle: RKI Datensatz

Nun die Grafiken für die Stadt Hof, welche mit aktuell 563 den höchsten Inzidenzwert von Bayern ausweist.

Bild 10 Stadt Hof, Anzahl Meldefälle, Zeitraum 01.01. – 11.04.2021. Grafik vom Autor erstellt. Datenquelle: RKI Datensatz

Hinweis: Rein statistisch versterben in Hof täglich 1,35 Personen.

Bild 11 Stadt Hof, Anzahl Corona-Todesfälle, Zeitraum 01.01. – 11.04.2021. Grafik vom Autor erstellt. Datenquelle: RKI Datensatz

Wie geht unsere politische „Führungsintelligenz“ damit um?

Weiterhin vollkommen ideen- und planlos. Einfach nur: Wir wissen auch nicht warum, aber weiter so. Und auf gar keinen Fall schauen wir, ob es sinnvoll ist und/oder wie es andere machen:

Achgut, 2.04.2021: So werden Inzidenzen aufgeblasen

Achgut, 08.04.2021: Zahlen zum Tage: Wir testen uns zu Tode, wir fürchten uns zu Tode
EIKE. 07.
April 2021: Corona–Vorbild Schweden
Tichys Einblick, 7. April 2021: 40.000 MENSCHEN IN STADIEN Vor einem Monat hob Texas alle Corona-Restriktionen auf: Zahl der Neuinfektionen sinkt auf Rekordtief

Dazu fällt einem ein:

Bild 12

Aber dass bitte kein*e Leser*in auf die Idee kommt, der Autor könnte damit auch nur entfernt unsere „Intelligenz“ meinen. Nein, nein, nein. Wenn überhaupt welche, dann einen Teil des Volkes, welches falsche Parteien wählt und friedlich, aber ohne Maske demonstriert und ganz offensichtlich (ver-)quer denkt. Nur diese dürfen laut unserem Bundespräsidenten von den „Guten“ übelst beschimpft werden.

Mit welch überragenden Kenntnis, ausgesuchter Sorgfalt und hellseherischen Weitsicht unsere „Intelligenz“ dagegen vorgehen kann, hat Minister Spahn kürzlich erneut bewiesen und so umgesetzt, wie es Bundespräsident Steinmeier in seiner Osteransprache sagte: „Du, Staat, tust Deinen Teil, ich Bürger tue meinen“, wobei er wohl meinte: Der Staat entsprechend seinen geistigen Fähigkeiten und der Bürger entsprechend seiner Fähigkeit, immer höhere Steuern zu bezahlen.
In solche Führungskräfte gewinnt man bedingungsloses Vertrauen, dass jeder Lockdown und jeder Einzelpunkt der Lockdown-Maßnahmen sorgfältig überlegt, verifiziert und auf Wirkung „abgeklopft“ wurde und damit sinnvoll sein muss …

Bild 13

Dabei hat Minister Spahn wohl ein Vorbild im Auge gehabt:
The European, Wolfgang Kubicki 29.03.2021: Entweder ist die Kanzlerin verwirrt oder sie will die Bevölkerung auf den Arm nehmen
In ihrer Regierungserklärung im Deutschen Bundestag am 25.März 2021 hat Angela Merkel ausgeführt:
„Ich will an dieser Stelle einmal sagen: Wir sind ein föderaler Staat. Es ist keinem Oberbürgermeister und keinem Landrat verwehrt, das zu tun, was in Tübingen und Rostock getan wird. Alle können das machen, und der Bund wird immer unterstützend tätig sein.“
Bei Anne Will am Sonntag, sagte sie das genaue Gegenteil. Die Infektionszahlen gäben eine Lockerung derzeit nicht her. „Das ist nicht der Zeitpunkt, so etwas ins Auge zu fassen.“ Und weiter: „Ich weiß wirklich nicht, ob Testen und Bummeln, wie es in Berlin heißt, die richtige Antwort auf das ist, was sich gerade abspielt.“

Bild 14

Bild 15

Bild 16

Bild 17

Bild 18

Bild 19 Quelle: Tichys Einblick

Quellen

[1] Stuttgarter Nachrichten: Wie berechnet man die 7-Tage-Inzidenz?

[2] FOCUS ONLINE, 23.03.2021: Inzidenz bei 18 statt 78? Mathe-Student wirft RKI verzerrte Corona-Zahlen vor – Physikerin kontert

[3] Correktiv: HINTERGRUND Der Inzidenzwert wird nicht „falsch“ berechnet, aber es gibt Kritik daran, ihn als einzigen Maßstab zu nutzen

[4] WIKIPEDIA: Inzidenz (Epidemiologie): Kritik

[5] Tichys Einblick, 10.04.2021: ÄNDERUNG DES INFEKTIONSSCHUTZGESETZES Merkels Entwurf für den Bundeslockdown: Ausgangssperren, Schulschließungen, Einzelhandel dicht

 




Die Temperaturen im März und energiepolitische Wirrungen

Die weitere Entwicklung wird maßgeblich davon abhängig sein, ob La Niña ausläuft oder sich in der 2.Hälfte des Jahres verstärkt fortsetzt. Die Chancen stehen laut der US- amerikanischen Wetter- und Ozeanografiebehörde NOAA  60 zu 40, dass der Ost- Pazifik wieder bis Juni zu normalen Temperaturen (graue Balken) zurückkehrt. Danach erwartet die NOAA eher eine zweite La Niña (blaue Balken). Dann sind kühlere Temperaturen wie vor zehn Jahren zu erwarten.

von Prof. Vahrenholt

von Prof. Vahrenholt

Die Wirrungen der Energiewende: die Zerstörung des Schwarzwaldes durch Grün-Schwarz

Die Koalitionsgespräche in Baden-Württemberg zwischen Grünen und CDU haben den ersten Verlierer fest vereinbart den baden-württembergischen Wald. Die erste und offenbar wichtigste Vereinbarung der Sondierungsgespräche ist die Festlegung der „Vermarktung von Staatswald- und Landesflächen für die Windkraftnutzung. So können bis zu 1000 neue Windkraftanlagen entstehen“.
 Die bedeutendste Fläche des Landes ist in der Tat der Staatswald mit 329 000 ha Fläche. Zieht man von dieser Fläche die Nationalparkflächen ab (dort wird man es wohl nicht wagen, Schneisen zu schlagen), bleibt immer noch eine Fläche von 190 000 ha übrig. Davon müsste man eigentlich noch die Vogelschutzgebiete und FFH Gebiete, soweit sie nicht in den Nationalparkflächen enthalten sind, abziehen. Aber selbst wenn man das nicht tut, kommt ein Windrad (Minister Altmaier: Die Kathedralen der Energiewende) auf 190 ha. Das ist eine Fläche von 1,4 mal 1,4 km². Also stehen dann im Abstand von 1,4 km jeweils ein Windrad mit den entsprechenden Zufahrtsstraßen, die die Waldstücke zerschneiden.
Damit die Verbreitung in Windkraftanlagen in naturempfindlichen Gebieten besser vorankommt, hatte ja bereits im November 2020 AGORA Energiewende, der Thinktank, der die Bundesregierung berät, die Lockerung des Tötungsverbots geschützter Arten im Naturschutzrecht verlangt.

Doch selbst 1.000 Windkraftanlagen bieten keine gesicherte Stromversorgung im windschwachen Ländle. Der Wegfall der Kernkraftwerke wie Philippsburg 2 (immerhin 13 % der Stromversorgung), kann nur durch stärkeren Import von Strom aus dem Ausland kompensiert werden, darunter das älteste Kernkraftwerk der Welt, das Kernkraftwerk Beznau, das nur sechs Kilometer südlich der baden-württembergischen Grenze im Kanton Aargau steht. Baden-Württemberg verteufelt die Kernkraft, nimmt aber gerne den Strom aus ausländischen Kernkraftwerken.
Wer mag, kann ja mal 1000 Windkraftwerke in die dunkelgrünen Flächen der untenstehenden Grafik einzeichnen.

Quelle für die Grafik: ForstBW

Die Energiewende vor dem Scheitern 

Aber was für Baden-Württemberg schiefgehen wird, geht auch in ganz Deutschland nicht auf. Der Bundesverband der Energie- und Wasserwirtschaft BDEW rechnet durch den Kernenergieausstieg (-8 GW) und den Kohleausstieg (-10 GW) trotz eines Zubaus von 4 GW Gaskraftwerken bis Ende 2022 mit einer Unterversorgung Deutschlands mit Strom. Dadurch „sinkt bis 2023 die konventionelle Kraftwerkskapazität von heute 90 GW auf 75,3 GW. Die Jahreshöchstlast hingegen wird laut Prognose der Bundesnetzagentur dann etwa 81,8 GW betragen“. Da weder Wind- noch Solarenergie gesicherte Leistung liefern, wird es dann, so der BDEW, „eine Lücke an gesicherter Leistung“ geben.

Das ist mittlerweile auch dem Bundesrechnungshof (BRH) aufgefallen. In seiner Pressemitteilung zum Sonderbericht vom 30.März 2021 titelt der Rechnungshof: „Sichere und bezahlbare Stromversorgung zunehmend in Gefahr“. Es lohnt sich die Langfassung des Berichtes zu lesen. Selten ist ein Bundesministerium so abgewatscht worden, wie das Wirtschaftsministerium unter Peter Altmaier. Der Rechnungshof kommt zum Ergebnis, dass die durch den Kernenergie- und Kohleausstieg entstehenden Netzengpässe bis 2025 nicht beseitigt werden (S.30).
Der Bundesrechnungshof geht weiter davon aus, dass die Letztverbrauchspreise für Strom in den kommenden Jahren weiter steigen werden. Schon heute liegen die Strompreise um 43% über dem Durchschnitt in Europa.
Nach seiner Auffassung wirken sich folgende Faktoren gleichzeitig auf die Strompreise aus:

•Der weitere Zubau nachfrageunabhängig produzierender Erneuerbare-Energien-Anlagen.

•der dadurch in großem Umfang notwendige Netzausbau und

derzeit noch fehlende Speicherkapazitäten für Strom aus erneuerbaren Energien.

Das Fazit ist alarmierend: „Der Bundesrechnungshof sieht die Gefahr, dass die Energiewende in dieser Form den Wirtschaftsstandort Deutschland gefährdet, die finanzielle Tragkraft der letztverbrauchenden Unternehmen und Privathaushalte überfordert und damit letztlich die gesellschaftliche Akzeptanz aufs Spiel setzt. Nach Schätzungen aus dem Jahr 2016 müssen in den Jahren 2000 bis 2025 rund 520 Mrd. Euro (nominal) einschließlich der Netzausbaukosten für die Energiewende im Bereich der Stromerzeugung aufgebracht werden.“
Der Bundesrechnungshof bekräftigt deshalb seine Auffassung, dass es nicht vorrangig Ziel sein kann, die Energiewende „um jeden Preis“ umzusetzen.“(S.48)

Das hätte ich nicht besser formulieren können.
Mehr zu diesen Themen sehen Sie auf der Klimaschau Nr. 26 von Sebastian Lüning.




Klimaschau von Sebastian Lüning: Ökostrom-Anteil gesunken, Reemtsma-Girls bei FfF, gescheiterte Klimaklage




Rolle der Sonne bzgl. Klima erneut bestätigt

Oben: Sechsmonatige geglättete monatliche Sonnenfleckenzahl aus SILSO. Unten: Ozeanischer El Niño Index von NOAA. Rote und blaue Kästen markieren die El Niño- und La Niña-Perioden im sich wiederholenden Muster. Quelle: Climate Etc, September 2019

Wenn Sie die meisten Klimawissenschaftler fragen, werden sie Ihnen sagen, dass die solare Variabilität viel zu gering ist, um das Klima zu beeinflussen. Sie müssen ihre Meinung vielleicht ändern, wenn sich eine neue Forschungslinie bestätigt. Es scheint, dass die Sonnenvariabilität die Klimavariabilität auf der Erde auf dekadischen Zeitskalen beeinflussen kann (die dekadische Klimavariabilität, von der Michael Mann kürzlich „bewiesen“ hat, dass sie nicht existiert). Das ist die Schlussfolgerung einer neuen Studie, die eine Korrelation zwischen dem Ende von Sonnenzyklen und einem Wechsel von El Nino- zu La Nina-Bedingungen im Pazifischen Ozean zeigt. Ein Ergebnis, das die Vorhersagbarkeit der größten El-Nino- und La-Nina-Ereignisse, die mehrere globale Klimaauswirkungen haben, deutlich verbessern könnte.

Die Energie der Sonne ist der Hauptantrieb für unser gesamtes Erdsystem und macht das Leben auf der Erde überhaupt erst möglich“, sagt Scott McIntosh vom National Center for Atmospheric Research, ein Mitautor der Studie.Die wissenschaftliche Gemeinschaft war sich bisher nicht im Klaren darüber, welche Rolle die Sonnenvariabilität bei der Beeinflussung von Wetter- und Klimaereignissen hier auf der Erde spielt. Diese Studie zeigt, dass es Gründe zu der Annahme gibt, dass dies absolut der Fall ist und warum der Zusammenhang in der Vergangenheit übersehen worden sein könnte“.

Der etwa 11-jährige Sonnenzyklus – das Erscheinen (und Verschwinden) von Flecken auf der Sonne – ist seit Hunderten von Jahren bekannt. In dieser neuen Studie verwenden die Forscher eine 22-jährige „Uhr“ für die Sonnenaktivität, die aus dem magnetischen Polaritätszyklus der Sonne abgeleitet wurde und die sie für eine regelmäßigere Alternative zum 11-jährigen Sonnenzyklus halten. Die Ergebnisse dieser Forschung wurde letztes Jahr veröffentlicht.

Zufall ist unwahrscheinlich“

Bei der Anwendung auf Klimastudien fanden die Forscher heraus, dass die fünf Zeitpunkte des Endes eines Sonnenzyklus‘, die zwischen 1960 und 2010-11 auftraten, alle mit einem Umschwung von einem El Nino (wenn die Meeresoberflächen-Temperaturen höher als der Durchschnitt sind) zu einem La Nina (wenn die Meeresoberflächen-Temperaturen niedriger als der Durchschnitt sind) zusammenfielen. Das Ende des jüngsten Sonnenzyklus – der jetzt stattfindet – fällt ebenfalls mit dem Beginn eines La Nina-Ereignisses zusammen. Robert Leamon von der University of Maryland-Baltimore County sagte: „Fünf aufeinanderfolgende Fälle, die mit einem Wechsel in der El-Nino-Oszillation zusammenfallen, sind wahrscheinlich kein Zufall.“

Tatsächlich besteht nur eine Chance von 1 zu 5.000 oder weniger (je nach statistischem Test), dass alle fünf Terminator-Ereignisse, die in der Studie berücksichtigt wurden, zufällig mit dem Umschwung der Meerestemperaturen zusammenfallen. Jetzt, da ein sechstes Terminator-Ereignis – und der entsprechende Beginn eines neuen Sonnenzyklus im Jahr 2020 – ebenfalls mit einem La Nina-Ereignis zusammenfällt, ist die Chance eines zufälligen Auftretens noch geringer.

Die Arbeit geht nicht darauf ein, welche physikalische Verbindung zwischen der Sonne und der Erde für die Korrelation verantwortlich sein könnte, aber die Autoren merken an, dass es mehrere Möglichkeiten gibt, die weitere Untersuchungen rechtfertigen, einschließlich des Einflusses des Magnetfeldes der Sonne auf die Anzahl der kosmischen Strahlen, die in das Sonnensystem entweichen und schließlich die Erde bombardieren. Eine robuste physikalische Verbindung zwischen den Schwankungen der kosmischen Strahlung und dem Klima muss jedoch noch ermittelt werden.

„Wenn weitere Forschungen belegen können, dass es eine physikalische Verbindung gibt und dass Veränderungen auf der Sonne tatsächlich Schwankungen in den Ozeanen verursachen, dann können wir vielleicht unsere Fähigkeit verbessern, El-Nino- und La-Nina-Ereignisse vorherzusagen“, sagte McIntosh.

Link: https://www.thegwpf.com/the-suns-climate-role-confirmed/

Übersetzt von Chris Frey EIKE

 




Umweltakti­vismus als Kohlenstoff-Imperia­lismus: Alptraum für die Armen

Indien befindet sich in einem Wettlauf mit der Zeit, um wirtschaftlichen Fortschritt zu erreichen. In den letzten drei Jahrzehnten ist seine Wirtschaft sprunghaft gewachsen und hat Hunderte von Millionen Menschen aus der Armut befreit. Dennoch hat das Land noch einen weiten Weg vor sich, bevor es wie die Nationen im entwickelten Westen werden kann.

Eine der größten Hürden ist die Versorgung aller Menschen in Indien mit zuverlässiger, erschwinglicher Elektrizität. Unterbrechungsfreier Strom ist immer noch ein Luxus, den nur wenige Inder genießen.

Obwohl Indien überwiegend agrarisch geprägt ist, erlebt es ein massives Wachstum im industriellen und verarbeitenden Sektor. Auch der Dienstleistungssektor und die Informationstechnologie boomen. Der Energiesektor des Landes ist das Rückgrat des Wirtschaftswachstums.

Aber das Land steht vor ständigen Herausforderungen bei seinen Energiezielen. Vor allem Kohlenwasserstoffprojekte werden von gut organisierten und von westlichen Geldgebern unterstützten Umweltaktivisten behindert.

Blockierung fossiler Projekte verzögert Armutsbekämpfung

Eine Reihe von Entwicklungsprojekten in Indien liegt derzeit auf Eis, obwohl das Green Tribunal, das indische Äquivalent zur U.S. Environmental Protection Agency, die Genehmigung erteilt hat.

Ein Beispiel dafür ist das Kohlenwasserstoffprojekt in Neduvasal, das nur wenige hundert Kilometer von meiner Heimatstadt in Tamil Nadu entfernt liegt. Trotz der Genehmigung durch das Green Tribunal gingen die Proteste weiter, und das Projekt ist in der Schwebe.

Mehrere andere wichtige Energieprojekte wurden aufgrund des starken Umweltaktivismus in diesem speziellen Teil Indiens verzögert oder aufgegeben, wodurch die Region des wirtschaftlichen Fortschritts beraubt wurde.

Darunter waren ein Titandioxidprojekt, ein Kernkraftprojekt, ein Teilchenphysik-Forschungsprojekt, ein Kupferherstellungsprojekt und ein Gasexplorationsprojekt. Einige dieser Projekte wurden vom Obersten Gerichtshof Indiens genehmigt und von technischen Experten als sicher eingestuft, dennoch wurden sie verzögert oder bleiben wegen der Proteste auf Eis gelegt.

Es kostet viel Mühe und Zeit, Menschen über die Armutsgrenze zu bringen. Manchmal werden durch entwicklungsfeindliche Proteste – von Umweltgruppen, die von radikalen Elementen im Ausland finanziert werden – die dringend benötigten Entwicklungsprojekte ganz einfach durch Fehlinformationskampagnen an der Basis abgesagt.

Das Traurigste daran ist, dass die Auswirkungen dieser wirtschaftlichen Hürden in den Entwicklungsländern viel bedeutender sind, wo sie die Armen und diejenigen, die sehr nahe an der Armutsgrenze leben, treffen können. Ein paar Monate COVID-19-Sperrung in Indien haben Millionen Menschen in extreme Armut zurückgeschickt, in der sie sich nicht einmal drei Mahlzeiten am Tag leisten können.

Während kleine Umweltgruppen und ihre regionalen Proteste den Fortschritt auf diese Weise behindern, fördern große internationale Gruppen eine Umwelt- und Energiepolitik, die einen viel größeren Einfluss auf die Wirtschaft hat.

Kohlenstoff-Imperialismus

Die internationale Klimapolitik, insbesondere das Pariser Abkommen, hat das Potenzial, die indische Wirtschaft zu stören. Aber die indischen Behörden haben sich immer gegen die Auferlegung einer restriktiven Energiepolitik durch das anti-fossile Establishment im Westen gewehrt

Indiens Vorbehalte diesbezüglich wurden von Indiens ehemaligem Chef-Wirtschaftsberater des Premierministers, Arvind Subramaniam, sehr gut ausgedrückt. In Anerkennung der subtilen Bemühungen der Vereinten Nationen und der westlichen Mächte, die Nutzung fossiler Brennstoffe in Indien zu unterdrücken, nannte Subramaniam ihre kollektiven Bemühungen „Kohlenstoff-Imperialismus“.

Das sind starke Worten von einer Person aus einem Land, das die härteste Form des Kolonialismus erduldet hat. Subramaniam bezeichnete die Auferlegung von Kohlenstoffsteuern als etwas Unrealistisches, vor allem, wenn die westlichen Mächte ihren wirtschaftlichen Erfolg durch die vollständige Nutzung eben jener aus fossilen Brennstoffen gewonnenen Energie erreicht haben, die sie nun verurteilen.

[Hervorhebung vom Übersetzer]

Außerdem können keine Ersatzstoffe die verlorene Energie aus fossilen Brennstoffen ausgleichen. Erneuerbare Energien sind teurer und unzuverlässiger.

Subramaniam warnte das Land: “Erneuerbare Quellen kommen mit versteckten Kosten, die wir in unserer kopflastigen Umarmung mit erneuerbaren Energien nicht übersehen sollten.“ Er fuhr fort: „Kohle wird bleiben und sollte bleiben. Die Zeit ist reif für eine grüne und saubere Kohlekoalition.“

[Hervorhebung vom Übersetzer]

Seine politischen Ansichten wurden im Jahr 2020 erneut bestätigt, als der Wirtschaftsbericht des Landes erneut die Abhängigkeit von fossilen Brennstoffen unterstrich, um sinnvolle Fortschritte zu erzielen. Tatsächlich kündigte Indien kürzlich an, dass es in den nächsten zehn Jahren 55 Milliarden Dollar in saubere Kohleprojekte (Hochtechnologie, reduzierte Emissionen) investieren wird.

Die nationale Regierung hat sich phänomenal gegen den Druck aus dem Westen gewehrt und investiert weiterhin in erschwingliche, reichlich vorhandene und zuverlässige Energiequellen. Aber die Proteste an der Basis müssen angegangen werden, und dafür müssen der radikale Umweltschützer und seine übergreifenden Wurzeln ausgeschaltet werden. Und wie? Indem man die Öffentlichkeit über die Schäden aufklärt, die er mit sich bringt, und ihm so die Unterstützung der Bevölkerung entzieht, ohne die er keinen Erfolg haben kann.

Für die 300 Millionen Armen in Indien sind die Umweltgruppen – die von radikalen Elementen in den USA und Europa finanziert werden – das größte Hindernis auf dem Weg in die Mittelschicht – gesund, wohlhabend und langlebig.

[Hervorhebung vom Übersetzer]

This article was originally published on MasterResource.org.

Photo by Aravind Kumar on Unsplash.

Link: https://cornwallalliance.org/2021/04/environmental-activism-as-carbon-imperialism-nightmare-for-the-poor-2/

Übersetzt von Chris Frey EIKE

 




Man braucht Big Energy als Backup für Little Wind und Solar

Meines Wissens hat diese große Zahl keinen Namen, aber das sollte sie. Nennen wir sie die „Mindestreserveanforderung“ für Wind- und Solarenergie, oder MBR [Minimum Backup Requirement]. Die Mindest-Backup-Anforderung gibt an, wie viel Stromerzeugungskapazität ein System haben muss, um zuverlässig den Strom zu erzeugen, den wir brauchen, wenn Wind und Sonne ausfallen.

Für die meisten Orte ist die Größenordnung der MBR sehr einfach. Sie ist der gesamte Saft, der in den heißesten oder kältesten windschwachen Nächten benötigt wird. Es ist Nacht, also gibt es keine Sonneneinstrahlung. Der anhaltende Wind beträgt weniger als acht Meilen pro Stunde, also gibt es keine Windenergie. Es ist sehr heiß oder sehr kalt, also ist der Bedarf an Strom sehr hoch.

An vielen Orten wird der MBR nahe an der maximalen Leistung liegen, die das System jemals benötigt, denn Hitzewellen und Kälteperioden sind oft auch windarme Ereignisse. Sowohl Hitze- als auch Kälteperioden werden oft durch große Hochdrucksysteme verursacht, die sehr wenig Wind mit sich bringen.

Während Hitzewellen kann es tagsüber etwas heißer sein, aber nicht so sehr. Während Kälteperioden ist es nachts oft am kältesten, wenn die Menschen am meisten Strom brauchen, damit sie nicht im Dunkeln erfrieren. Man denke an Texas.

Die so genannte „Spitzenlast“ ist also ein guter Näherungswert für den maximalen Backup-Bedarf. Mit anderen Worten: Es muss genügend zuverlässige Erzeugungskapazität vorhanden sein, um die gesamte maximale Leistung, die das System jemals benötigt, bereitzustellen. Für jedes öffentliche Stromversorgungssystem ist das eine sehr große Zahl; so groß, wie es nur sein kann, um genau zu sein.

Eigentlich ist sie sogar noch ein bisschen größer, denn es muss auch eine Sicherheitsmarge geben, oder was man „Reservekapazität“ nennt. Diese soll zur Verfügung stehen, wenn etwas nicht so funktioniert, wie und wann es sollte. Fünfzehn Prozent ist eine typische Reserve in amerikanischen Systemen. Das macht die MBR zu etwa 115 % des Spitzenbedarfs.

Uns wird oft gesagt, dass Wind- und Solarenergie billiger sind als Kohle-, Gas- und Kernkraftstrom. Aber das umfasst nicht die MBR für Wind und Solar. Was bei Wind- und Solarenergie relativ günstig ist, sind die Kosten für die Produktion einer Stromeinheit unter optimalen Bedingungen. Dies wird oft als LCOE oder „Levelized Cost of Energy“ bezeichnet.

Worüber wir wirklich reden müssen, ist die Notwendigkeit, zuverlässige Reserveenergie hinzuzufügen, um den Menschen den Strom zu geben, den sie brauchen, wenn sie ihn brauchen. Diese Gesamtkosten machen Wind- und Solarenergie sehr teuer.

Kurz gesagt, die wahren Kosten von Wind und Solar sind LCOE + MBR. Das sind die enormen Kosten, von denen man nie hört. Aber wenn jeder Staat auf Wind- und Solarenergie umsteigt, dann braucht jeder Staat eine MBR für ungefähr seinen gesamten Spitzenbedarf. Das ist eine enorme Menge an Erzeugungskapazität.

Es bedeutet mehr als eine Verdoppelung der normalerweise benötigten Erzeugungskapazität … die Rohstoffe für den Bau dieser doppelten Kapazität … und die realen Kosten für unzureichende, weit verstreute, flächenintensive, wetterabhängige, unzuverlässige Wind- und Solarkraftwerke, plus die minimale Backup-Anforderung. Einfach ausgedrückt: Man braucht viel Energie, um das zu stützen, was oft zu wenig Wind- und Sonnenenergie ist.

Natürlich hängen die Kosten für MBR von der Erzeugungstechnologie ab. Batteriespeicher scheiden aus, da die Kosten für die Milliarden von Halbtonnen-Batteriemodulen, die benötigt würden, um genügend Energie für eine Stadt, einen Staat, eine Region oder ein Land während mehrerer Tage mit wenig Wind und wenig Sonne zu speichern, astronomisch sind.

Gaskraftwerke sind vielleicht am besten, aber sie werden mit fossilen Brennstoffen betrieben, ebenso wie Kohlekraftwerke. Wenn man auf null fossile Brennstoffe besteht, dann ist Kernkraft wahrscheinlich die einzige Option. Kernkraftwerke als intermittierendes Backup zu betreiben ist dumm und teuer, aber keine fossile Energieerzeugung – oder keine Stromerzeugung – ist es auch. Und den Bau neuer Kernkraftwerke fast überall auf dem Planeten Erde durchzusetzen, ist im heutigen politischen Klima so gut wie unmöglich.

Was eindeutig ausgeschlossen ist, sind 100 % erneuerbare Energien, denn dann gäbe es häufig überhaupt keinen Strom. Das heißt, es sei denn, man könnte die Geothermie in einem enormen Ausmaß zum Laufen bringen, was viele Jahrzehnte dauern würde. (Und viele der besten traditionellen geothermischen Standorte befinden sich in oder in der Nähe von Nationalparks und anderen landschaftlich reizvollen oder natürlichen Gebieten wie Yellowstone, was den Widerstand der Umweltschützer zu einer ausgemachten Sache macht).

Es ist klar, dass das Ziel der Biden-Administration, bis 2035 keinen Strom aus fossilen Brennstoffen zu erzeugen (ohne Kernkraft), aufgrund der Mindestanforderungen für die Unterstützung von Wind- und Solarenergie wirtschaftlich unmöglich ist. Man kann vom jetzigen Stand aus nicht dorthin gelangen.

Wir sollten uns nicht wundern, warum wir fast nie etwas über diese offensichtlich enormen Kosten für Wind und Solar hören. Sie an die Öffentlichkeit zu bringen, würde die Argumente für „erschwingliche, saubere, grüne, erneuerbare, nachhaltige“ Energie ernsthaft untergraben. Also vermeiden die Versorgungsunternehmen, die ich mir angesehen habe, dies mit einem cleveren Trick.

Dominion Energy, das den größten Teil des Stroms in Virginia liefert, ist ein gutes Beispiel. Die Legislative von Virginia verabschiedete ein Gesetz (den „2020 Virginia Clean Energy Act“), welches vorscxhreibt, dass die Stromerzeugung von Dominion bis 2045 ohne fossile Brennstoffe erfolgen muss. Dominion entwickelte einen Plan, in dem sie erklärten, wie sie dies angeblich erreichen würden.

Ganz beiläufig, auf Seite 119, sagt das Unternehmen, dass es seine Kapazitäten für den Import von Strom, den es von anderen Energieversorgern bezieht, erweitern wird. Diese Erweiterung entspricht zufällig dem Spitzenbedarf des Unternehmens.

Der Plan ist, den ganzen MBR-Strom von den Nachbarn zu kaufen! Aber wenn alle auf Wind- und Solarenergie setzen, wird niemand mehr Strom zum Verkaufen haben. Tatsächlich werden sie alle versuchen, Strom zu kaufen – was unmöglich funktionieren kann.

Man vergesse nicht, dass Hochdruckgebiete mit ihrem windschwachen Bereich riesig sein können und ein Dutzend oder mehr Staaten abdecken. Sie können tagelang andauern. Im Übrigen hat heute niemand diese Art von überschüssiger Stromerzeugungskapazität, wenn wir immer noch reichlich Kohle, Gas und Kernkraft für die primäre Stromerzeugung und als Backup haben.

Die meisten Energieversorger decken schon jetzt kaum ihren eigenen Bedarf. Sobald jedes Versorgungsunternehmen in jedem Bundesstaat verpflichtet ist, zu 100 % auf fossile Brennstoffe zu verzichten, wird es garantiert zu einem Debakel kommen, immer und immer wieder.

Große Städte wie New York werden sich nicht mehr von wiederholten Stromausfällen freikaufen können.

Zusammenfassend lässt sich sagen, dass es für jeden Energieversorger Zeiten geben wird, in denen es keine Wind- und Solarenergie gibt, auch in Zeiten maximaler Nachfrage. Die Deckung dieses enormen Bedarfs ist die minimale Backup-Anforderung. Die enormen Kosten für die Erfüllung dieser Anforderung sind Teil der Kosten für Wind- und Solarenergie – der Teil, über den niemand reden will, insbesondere Politiker, Umweltschützer und Versorgungsunternehmen nicht. MBR macht Wind- und Solarenergie extrem teuer.

Die einfache Frage, die man der Biden-Regierung, den Bundesstaaten und ihren Energieversorgern stellen muss, ist diese: Wie werden Sie in heißen oder kalten windarmen Nächten Strom bereitstellen?

Wenn Sie diese Frage stellen, bleiben Sie in der Nähe des Mikrofons, damit Sie mehr verlangen können als die Doppelzüngigkeit, die falschen Zusicherungen und die offenen Lügen, die Sie mit Sicherheit bekommen werden, wenn sie zum ersten Mal auf diese lebenswichtige, unbequeme und wachrüttelnde Frage antworten.

[Originally posted on Townhall]

Link: https://www.heartland.org/news-opinion/news/it-takes-big-energy-to-back-up-little-wind-and-solar

Übersetzt von Chris Frey EIKE

 




Alles zusammen

Wenn die Reihe also z. B. (1, 3, 7, 10) lautet, ist die neue Reihe, die die kumulative Summe der alten Reihe ist, (1, 4, 11, 21). Sie wird berechnet als

  • 1
  • 1 + 3 = 4
  • 4 + 7 = 11
  • 11 + 10 = 21

Warum ist eine kumulierte Summe von Interesse? Sie kann zugrunde liegende Trends und Veränderungen in Datensätzen aufzeigen. Man nehme zum Beispiel die „Pazifische Dekadische Oszillation“ PDO. Dies ist eine langsame Veränderung im Pazifik, bei der der nördlichste Teil alternierend kühler und wärmer wird.

Abbildung 1: Die beiden Extreme der Wassertemperatur des Pazifiks bzgl. der PDO.

Und hier eine Graphik des PDO-Index‚, einer Maßzahl für die Phase der PDO:

Abbildung 2. PDO-Index, und das Datum der „Großen Pazifischen Klimaverschiebung“ von 1976-1977.

Und was ist die „Große Pazifische Klimaverschiebung“, wenn sie stattfindet? Es war das Datum der ersten Verschiebung der Pazifischen Dekadischen Oszillation, die von Wissenschaftlern identifiziert wurde. (Als langjähriger kommerzieller Lachsfischer weiß ich die Tatsache sehr zu schätzen, dass die PDO zuerst in Aufzeichnungen von Lachsfängen im pazifischen Nordwesten bemerkt wurde … aber ich schweife ab). Aus dem Journal of Climate Artikel „The Significance of the 1976 Pacific Climate Shift in the Climatology of Alaska“:

Im Jahr 1976 erfuhr die nordpazifische Region, einschließlich Alaska, eine dramatische Verschiebung zu einem Klimaregime, das einen großen Anstieg der Winter- und Frühlingstemperaturen und einen geringeren Anstieg der Sommer- und Herbsttemperaturen im Vergleich zu den vorangegangenen 25 Jahren sah“.

Und was hat die pazifische Klimaverschiebung von 1976 mit den kumulierten Summen zu tun? Es wird deutlich, wenn wir die kumulative Summe des PDO-Index‘ wie unten gezeigt graphisch darstellen:

Abbildung 3. Kumulative Summe des PDO-Index‘, und das Datum der pazifischen Klimaverschiebung von 1977

Wie man sieht, zeigt die kumulative Summe des PDO-Index‘ eindeutig das Datum der Verschiebung des pazifischen Klimas in die warme Phase der PDO.

Was können kumulative Summen noch tun? Sie können uns zeigen, ob zwei Datensätze in Beziehung zueinander stehen. Hier sind die kumulativen Summen von:

zusammen mit der PDO:

Abbildung 4. Kumulative Summe des PDO-Index und das Datum der pazifischen Klimaverschiebung von 1977

Diese vier Indizes des Klimas beruhen auf sehr unterschiedlichen Dingen. Der PDO-Index ist die erste Hauptkomponente der Meeresoberflächentemperaturen nördlich von 20°N. Der Southern Ocean Index basiert auf der Differenz des Luftdrucks zwischen Tahiti und Australien. Der NINO34-Index basiert auf den Meeresoberflächentemperaturen in der Region 5°N-5°S und 170°W-120°W. Und der Nordpazifik-Index basiert auf dem flächengewichteten Meeresspiegeldruck über der Region 30°N-65°N, 160°E-140°W.

Und trotzdem zeigen sie alle deutlich die pazifische Klimaverschiebung von 1976 …

Was können wir noch mit kumulativen Summen machen? Nun, wir können sie auch verwenden, um zu zeigen, welche Datensätze nicht zusammenhängen … hier sind ein paar Beispiele:

Abbildung 5 Kumulative Summen, Pazifischer Dekadischer Oszillationsindex, Nordatlantischer Oszillationsindex und monatliche Sonnenflecken

Es gibt nicht viele Gemeinsamkeiten bei diesen drei. Und das zeigt, dass die Sonnenflecken und die Nordatlantische Oszillation auch nicht eng mit den in Abbildung 4 gezeigten El-Nino-Indizes zusammenhängen … und das war’s mit den kumulativen Summen für den Moment.

Aktualisierung: Ein Kommentator wies mich darauf hin, dass ich die Atlantische Multidekadische Oszillation (AMO) nicht in die Analyse einbezogen hatte. Hier ist die Grafik:

Anmerkung: Kumulative Summen sind sehr empfindlich gegenüber Anfangsbedingungen und Anomalien. Wenn es einen Aufwärtstrend in den Daten gibt, oder wenn der Nullpunkt niedriger ist als die Werte, wird eine kumulative Summe in den Himmel steigen und umgekehrt. Die Anomalie der gleichen Daten wird sich jedoch ganz anders verhalten. Alle obigen kumulativen Summen wurden zunächst als Anomalie um den Mittelwert des jeweiligen Datensatzes ausgedrückt. Für trendlose Indizes macht dies kaum einen Unterschied. Es stellt jedoch sicher, dass sie zu dem Wert zurückkehren, bei dem sie begonnen haben. Nimmt man sie als Anomalien um einen beliebigen anderen Nullpunkt, so ergibt sich je nach gewähltem Punkt ein Gesamttrend. Infolgedessen ist der Trend einer kumulativen Summe im Allgemeinen bedeutungslos, aber wie oben gezeigt, können die Variationen in der kumulativen Summe recht aussagekräftig sein.

Link: https://wattsupwiththat.com/2021/04/09/adding-it-up/

Übersetzt von Chris Frey EIKE

 




Klimafreundliche Wasserstoff-Flugzeuge von Airbus ab 2035?

Guillaume Faury, der Chef von Airbus, hält klimafreundliche Nurflügel-Jets ab 2035 für realistisch. Wie soll ein Wasserstoff-Antrieb im Flugzeug aussehen? Wenn man nicht mit Kolben und Propeller langsam fliegen will, braucht man schnelle Strahlturbinen. Aber können die statt Kerosin mit dem leichten Gas funktionieren? Offenbar schon; mitlesende Maschinenbauer können in den Kommentaren gern ergänzen.

Faury will zunächst Kerosin-Turbinen umrüsten, um dann später zu Brennzellen zu wechseln. Wie treibt eine Zelle aber ein Flugzeug an? Mit Propeller über Elektromotor? Oder wird die Turbinenschaufel elektrisch gedreht und verdichtet die kalte Ansaugluft? Wird der entstehende Wasserdampf mit verdichtet? Gibt es überhaupt Prototypen, die zeigen, wie man wirtschaftlich in Serie produzieren kann?

Man will auch die Form der Zelle (also das Flugzeug ohne Antrieb) revolutionieren: Faury favorisiert das Nurflügelkonzept ohne durchgehenden Rumpf. Neu ist diese Konstruktion nicht; schon die Gebrüder Horten haben im Zweiten Weltkrieg die legendäre Ho-229 gebaut, die aber nie eingesetzt wurde und bei Erprobung Testpiloten das Leben kostete.

Das Konzept wurde seit den 1980ern bei der US-Luftwaffe umgesetzt, bei den legendären Tarnflugzeugen Lockheed F-117 und Northrop B-2. Militärisch gesehen hat der Nurflügel den Vorteil, ein geringes Radarprofil zu besitzen, was bei Zivilflugzeugen hingegen nicht erwünscht ist, weil die Luftüberwachung die Jets ja sehen und Zusammenstöße verhindern will.

Wirtschaftlich ist die Bumerang-Form interessant, weil der Luftwiderstand geringer und der Auftrieb höher als bei der klassischen Vogel-Form sind, was Sprit spart. Daß von Böing, Airbus & Co. bislang keine Nurflügler gebaut wurden, liegt an der komplizierteren Steuerung des Bumerangs. Man braucht hier viel Elektronik, weil der Mensch mit seinem Nervensystem nicht schnell genug reagieren kann. Bei Militärjets ist das juristisch nicht relevant, weil die Piloten berufsmäßig sowieso ihr Leben riskieren, und weil sie keine zivilen Passagiere transportieren.

Stürzte hingegen ein ziviler Nurflügler mit seiner komplizierten Elektronik ab, würde es Klageverfahren wegen „riskanter Technik“ hageln. Man darf also davon ausgehen, daß der Airbus-Chef hier nur eine PR-Note abgab, die wahrscheinlich in absehbarer Zeit keinerlei Umsetzung erfahren wird. Es sei denn, die Minderleister in der EU und den Nationalregierungen setzen sich durch und erzwingen das unsichere und unwirtschaftliche Wasserstoff-Bumerang-Konzept. Dafür müßte allerdings gesetzlich dafür gesorgt werden, daß das besonders in USA typische Klagewesen deutlich verkleinert wird.

Faury deutet im Interview etwas ähnliches an: „Für die Umsetzung der Wasserstofftechnik brauche man ein weltweit einheitliches Regelwerk“.




25jährige CDU-Politikerin will „Klima-Union“ als Gegenstück zu „Fridays for future“ gründen.

Wiebke Winter ist Juristin, gerade 25 Jahre alt und will im September (?) in den Bundestag einziehen. Sie ist 2021 als Jüngste in den Bundesvorstand gewählt worden – wahrscheinlich nicht gegen den Willen der Eisernen Vorsitzenden.

Im Interview mit der FAZ stellt sie ihre neue Parteivereinigung Klimaunion vor, die noch nicht anerkannt ist. Man kann vermuten, daß die Klimaunion als Gegenstück zur Werteunion agieren wird und rot-grüne Inhalte in der CDU/CSU noch fester verankern will.

Was will Winter offiziell mit ihrer Klimaschutzgruppe erreichen? Soweit alles, was Grüne und FFF, Extinction Rebellion XR auch wollen, nur soziale Marktwirtschaft und Industrie sollen bestehen bleiben; Verbote hingegen solle es nicht geben.

Die Bürger sollen weiterhin eine Bratwurst essen und in den Urlaub fliegen dürfen.

Das ist aber großzügig von Wiebke, finden Sie nicht? Interessant ist, mit welchen Mitteln sie Desindustrialisierung und Verarmung verhindern will:

Windkraft vom Deich statt Öl vom Scheich.

Das könnte ihr noch um die Ohren fliegen, weil die Grünen und Massenmedien schon bei den eigenen Leuten und Begriffen wie „Indianerhäuptling“ rot bzw. braun sehen.

Neben der „Erneuerbaren“-Förderung will Winter das Klimaschutzziel mit der Begrenzung auf 1,5°C Erwärmung einhalten und Deutschland, aber nicht China und Indien, bis 2040 klimaneutral machen. Außerdem will sie die Windrad-Stromtrassen ausbauen, CO2-Emissionen ordentlich besteuern (natürlich „sozial gerecht“), und Kernkraft abschaffen, weil sie umweltfeindlich sei (!).

Man sieht – die Juristin hat genau wie ihre grüne Kollegin Analena Baerbock keinen blassen Schimmer von Wirtschaft und Technologie und verspricht nur, daß die grüne Desindustrialisierung mit ihr nicht so schlimm werden würde. Daß Bratwurst essen und fliegen nach der großen Klima-Transformation so teuer werden könnte, daß sich der leichtgläubige CDU/CDU-Wähler sich das kaum noch leisten kann, erwähnt sie natürlich nicht. Es interessiert sie wahrscheinlich auch nicht – sie hat nämlich eine Biografie, die Aktivistinnen und Politikerinnen wie Baerbock, Luisa Neubauer oder Clara Mayer recht ähnlich ist. Erste Demo-Teilnahme gegen ein Kernkraftwerk, schon mit 16 in der Parteijugend, großbürgerliche Herkunft mit gymnasialer Ausbildung, Engagement im Gender-Bereich, Auslandsstudium, und Finanzierung durch eine Parteistiftung (KAS). Man merkt: Eine weitere höhere Tochter nutzt ihre Privilegien und will möglichst streßarm Karriere machen; womit sie allerdings ihre Partei zu einer weiteren grünen Organisation macht.




Die EU verliert den Kampf um die Energie-Zukunft

Seit fast einen halben Jahrhundert mehr oder weniger gleichzeitig in zwei Nachbarländern lebend, habe ich anfangs aus naheliegenden Gründen sogar die Einführung des Euro begrüßt. (Ich kann mich noch gut daran erinnern, als Journalist mitgefeiert zu haben, als Wim Duisenberg im Frankfurter BfG-Hochhaus auf provisorisch verlegten blauen Teppichen die ersten Euro-Banknoten vorstellte.) Der Franzose Jean Monnet, einer der Architekten des westlichen Nachkriegs-Europa, war kein Berufspolitiker, sondern ein Geschäftsmann, der zunächst mit Cognac handelte, was ihn in meinen Augen ohnehin sympathisch machte. International bekannter wurde Jean Monnet allerdings als Koordinator eines kriegswirtschaftlichen Beschaffungs-Kartells der Entente im Ersten Weltkrieg. Eine ähnliche Funktion übte er im Zweiten Weltkrieg für die Alliierten in den USA aus. Das hatte zwar wenig mit freier Marktwirtschaft zu tun, doch wie auf dem freien Markt kam es dabei darauf an, die wirtschaftlich effizientesten Problemlösungen zu finden. Was er dabei gelernt hatte, setzte Monnet nach dem Zweiten Weltkrieg beim Wiederaufbau der im Krieg weitgehend zerstörten europäischen Volkswirtschaften um.

Monnet wurde 1946 erster Chef des französischen Plan-Kommissariats. Er setzte dort ein umfassendes Modernisierungsprogramm der französischen Wirtschaft („Monnet-Plan“) ins Werk. Dieses beruhte auf einem starken Ausbau der französischen Stahl-Kapazität. Zusammen mit dem mit ihm befreundeten französischen Außenminister Robert Schumann gewann Monnet den deutschen Bundeskanzler Konrad Adenauer für die Gründung der Europäischen Gemeinschaft für Kohle und Stahl (Montanunion) im Jahre 1952. Monnet war von 1952 bis 1955 deren Präsident. Doch die Verwaltungsarbeit lag ihm nicht. Deshalb gab er das Amt wieder auf, blieb aber bis 1975 politisch einflussreich und engagierte sich insbesondere für die friedliche Nutzung der Kernenergie. Schon drei Jahre später, im Juni 1955 stellten die Außenminister der sechs Gründerstaaten der Europäischen Wirtschaftsgemeinschaft (EWG) bei einem wichtigen Treffen im sizilianischen Messina fest, dass Ludwig Erhards Vision vom „Wohlstand für alle“ eines großen Marktes für preiswerte Energie im Überfluss bedarf. Dabei gingen sie bereits davon aus, dass die friedliche Nutzung der Atomenergie (die damals in den offiziellen Dokumenten tatsächlich noch so hieß) bald die Kohle als wichtigste Energiequelle ablösen würde. Sie bereiteten damit den Weg für den Abschluss des Euratom-Vertrages im Jahre 1957. Euratom wurde im Jahre 1965 mit der Montanunion und den Kommissionen der EWG zur Europäischen Kommission fusioniert. Somit war die Bereitstellung preiswerter Energie, insbesondere in Form der Kernenergie als Bedingung für Wachstum und Wohlstand von Beginn an ein Grundanliegen der westeuropäischen Einigung. Die wichtigsten Impulse gingen dabei im Zeichen des Kalten Krieges mit dem kommunistisch beherrschten Osten eindeutig von der Politik, nicht von der Wirtschaft aus.

Doch seit der Jahrtausendwende gelten in der inzwischen zur politischen Union von 27 Staaten weiterentwickelten Europäischen Wirtschaftsgemeinschaft für die Energiepolitik auf einmal ganz andere Regeln: Energie soll zu einem immer knapperen, wetterabhängigen und dementsprechend immer teureren Gut werden. Und das wird den staunenden Europäern auch noch als entscheidender Schritt auf dem Weg in eine leuchtende Zukunft verkauft. Begründet wird die Kehrtwende zur archaischen Energieversorgung durch Sonne und Wind mit der für die Rettung des Weltklimas angeblich notwendigen Dekarbonisierung. Das wäre nun eigentlich die Stunde der Kernenergie, die über den gesamten Lebenszyklus der Energiegewinnung mit weniger als 6 Gramm je Kilowattstunde am wenigsten Kohlenstoffdioxid erzeugt – zehnmal weniger als die Photovoltaik und etwa dreimal weniger als Windkraftwerke. Doch sowohl die EU-Kommission als auch das EU-Parlament haben sich bislang geweigert, die Kernkraft in die Liste (Taxonomie) als „grün“ deklarierter Energien aufzunehmen. Die vereinbarten „Klima-Ziele“ (55 Prozent weniger CO2-Ausstoß bis 2030 und Kohlenstoff-Neutralität bis 2050) sollen nach Meinung der Ton angebenden Grünen ausschließlich durch den Einsatz so genannter regenerativer Energien erreicht werden. Und deren Bereitstellung ist so ineffizient und teuer, dass sie durch staatliche Vorschriften erzwungen werden muss. Allenfalls das im Vergleich zu Kohle und Kernenergie ebenfalls teure Erdgas, soll als „Übergangsenergie“ zeitweise geduldet werden.

Dabei decken die so genannten „Erneuerbaren“ (Wind und Solar) bislang in der EU gerade einmal zweieinhalb Prozent des Primärenergie-Bedarfs. Mit ihnen den Energiebedarf zu 100 Prozent decken zu wollen, kommt einem Selbstmordprogramm gleich, was ich im Untertitel der zweiten Auflage meines Buches „Öko-Nihilismus“ („Selbstmord in Grün“) bereits ausgedrückt habe. Was ich im Jahre 2012 geschrieben habe, hat leider nichts an Aktualität eingebüßt. (Lediglich über China würde ich heute etwas anders urteilen.) Kurz: „100 Prozent Erneuerbare“ ist eine Idee von Menschen, denen es zu gut geht. Die 1,2 Milliarden Menschen, die nach Angaben der Internationalen Energie-Agentur noch immer keinen Zugang zur Elektrizität haben, würden wohl nicht auf solche Ideen kommen. Die Grünen nähren sich vom enttäuschten Narzissmus bzw. vom Selbsthass einer in Zeiten des Nachkriegs-“Wirtschaftswunders“ herangewachsenen und daher verhätschelten Generation. Wer das Buch „Der Todestrieb in der Geschichte“ des russischen Top-Mathematikers Igor R. Schafarewitsch nicht gelesen hat, wird schlecht verstehen, was sich heute in Europa abspielt.

Heute wird klar, wie illusorisch es war, nach dem Ende des Kalten Krieges geopolitische Erwägungen in der Energiepolitik als überflüssig zu erachten. Denn Westeuropa und vor allem Deutschland sind in der Energiepolitik, wie der ehemalige EU-Spitzenbeamte für Energiefragen, der Top-Ingenieur Samuel Furfari (heute Professor an der Freien Universität Brüssel) in einem aktuellen Aufsatz im Fachmagazin „La Revue de l’Énergie“ (n° 654) demonstriert, durch ihre Kapitulation vor der weltfremden Heilslehre der Grünen zum Spielball fremder geopolitischer Interessen geworden. Obwohl es der damalige französische Staatspräsident François Mitterand im letzten Moment schaffte, in der EU durchzusetzen, dass die Wahl der Energiequellen der nationalen Souveränität unterworfen bleibt, konnte er dadurch den französischen Alleingang bei der militärischen und zivilen Nutzung der Kernenergie nur dem Schein nach retten. Die französische Nuklearwirtschaft ist wegen des „Fadenrisses“ infolge einer langen Pause bei der Errichtung neuer Kernkraftwerke heute kaum noch in der Lage, Großaufträge in eigener Regie abzuwickeln. Davon zeugt die unendliche Geschichte des Reaktors der 4. Generation von Druckwasserreaktoren (EPR) in Flamanville am Ärmelkanal und auf der finnischen Insel Olkiluoto. Das mindestens 23 Milliarden Pfund teure Prestigeprojekt von Électricité de France (EdF) im südwestenglischen Hinkley Point kann nur mithilfe des chinesischen Projektpartners China General Nuclear Power (CGN) realisiert werden.

Chinesische Ingenieure haben immerhin gezeigt, dass auch die 4. Generation von Druckwasserreaktoren, die wegen ihrer überdimensionierten Sicherheitsvorkehrungen bei den meisten Fachleuten als technische und wirtschaftliche Sackgasse gilt, realisierbar ist. Sie stellten den Reaktor „Hualong“ (Drache) des Kraftwerks Fuqing in nur fünf Jahren fertig. Dieser nahm Ende Januar 2021 seinen kommerziellen Betrieb auf. Am gleichen Standort wird im Laufe dieses Jahres ein weiterer Reaktor des Typs HPR-1000 seinen Betrieb aufnehmen. Furfari erwartet, dass das, was von der französischen Nuklearindustrie noch übrig ist, d.h. der Konzern Framatome, bald zum Subunternehmen der chinesischen CGN oder auch der russischen Rosatom werden wird.

Die staatliche Rosatom konstruiert zurzeit die meisten Kernkraftwerke weltweit und verfolgt dabei nach Ansicht von Furfari ein höchst effizientes Geschäftsmodell, das den Kunden so gut wie alle Risiken abnimmt: Rosatom liefert die Kraftwerke und deren  Brennstoff und kümmert sich auch um die Wiederverwertung radioaktiver „Abfälle“. Alles bleibt Eigentum von Rosatom. Abzahlen müssen das die Kunden lediglich längerfristig mit einem Teil der Erlöse der mit den Rosatom-Kraftwerken erzeugten Elektrizität. So liegt das gute Funktionieren der Kraftwerke auch im ureigensten Interesse ihrer Konstrukteure. Die heute von Rosatom gebauten Reaktoren des Typs WWER haben mit dem 1986 bei einem waghalsigen Experiment explodierten Reaktor von Tschernobyl so gut wie nichts gemein und gelten sicherheitstechnisch als durchaus mit westlichen Standards vergleichbar. So konnten die Russen auch den ungarischen Staatschef Viktor Orbán überzeugen, das ältere Kernkraftwerk Paks um einen solchen Reaktor zu erweitern. Orbán konnte die damalige EU-Energiekommissarin im Jahre 2016 überzeugen, dass für diesen Erweiterungsbau keine internationale Ausschreibung erforderlich war.

Noch interessanter ist das Geschäftsmodell, das Rosatom mit dem Bau modularer und mobiler Klein-Kernkraftwerken verfolgt. Die Fahrt der in Sankt Petersburg gebauten Barke „Akademik Lomonosov“ mit zwei Kernreaktoren durch die Weltmeere zur sibirischen Halbinsel Kamtschatka ging durch die Weltpresse – allerdings überwiegend mit negativen Schlagzeilen. Sogar von einer „nuklearen Titanic“ oder „Tschernobyl auf Eis“ war dort die Rede. Das sind Parolen der teuflischen Firma Greenpeace. Das schwimmende Kraftwerk versorgt die schwer zugängliche Siedlung Pevek zuverlässig mit Strom. Rosatom bietet solche schwimmenden Kraftwerke heute weltweit zu den gleichen Konditionen an: Die Kraftwerke bleiben Eigentum ihres Konstrukteurs. Bezahlt wird der Service über die Strom-Erlöse. Da viele Millionenstädte Asiens, Afrikas und Lateinamerikas an der Küste liegen, dürfte sich Rosatom über mangelnde Nachfrage nicht zu beklagen haben. Allerdings versucht die US-Regierung unter dem neuen alten Präsidenten Joe Biden mit allen Mitteln, Rosatoms Geschäftserfolg zu vereiteln.

Noch während der Amtszeit Donald Trumps haben sich die US-Republikaner und Demokraten auf eine Renaissance der Kernenergie in den USA geeinigt. Allerdings geht das wegen der in den USA noch längeren Pause bei der Konstruktion neuer Reaktoren nicht von heute auf morgen. Schon spielen die USA aber auf dem Feld der Nuklearenergie wieder eine aktive geopolitische Rolle. Offenbar um die dort bereits engagierten Chinesen aus dem Geschäft zu drängen, schlossen die USA im vergangenen Jahr einen Vertrag mit Rumänien über den Bau eines Natururan-Reaktors des kanadischen Typs CANDU in Cernavodã. Davon abgesehen, konzentrieren sich US-amerikanische  National-Laboratorien, Technische Universitäten und Ingenieur-Firmen auf die Entwicklung von Small Modular Reactors (SMR), die in Fabriken in Serie gebaut, mit Barken, Zügen oder LKWs an den Ort ihres Bedarfs transportiert und dort eventuell aus Gründen der Sicherheit vergraben werden können. Was mir besonders interessant erscheint: Die Verbreitung von SMR würde es endlich erlauben, die Nuklearenergie marktwirtschaftstauglich zu machen.

Bei diesem von prominenten Geschäftsleuten und Physikern wie dem Multimilliardär Bill Gates, dem Physik-Nobelpreisträger (und Energieminister unter Barrack Obama) Steven Chu und dem MIT-Professor Ernest Moniz angeheizten Wettlauf um einsatzfähige und preisgünstige SMR spielt Westeuropa nur die Rolle eines Zuschauers. Und das, obwohl die zivile Nutzung der Kernenergie in Frankreich 1948 in Fontenay-aux-Roses südöstlich von Paris mit der Inbetriebnahme eines vom Kommunisten Fréderick Joliot-Curie und dem kanadischen Kernphysiker Lew Kowarski konzipierten experimentellen Klein-Reaktors mit schwerem Wasser als Moderator und einem Graphit-Mantel begann, der gar nicht Reaktor, sondern „Pile“ (Batterie) hieß, nämlich „Pile Zoé“. Später hat sich Frankreich nicht zuletzt aus militärischen Gründen ganz auf den Bau großer Kernkraftwerke spezialisiert und sich zuletzt beim Bau der aufwändigen 4. Generation von Druckwasserreaktoren offenbar übernommen. Zurzeit gibt es keine nennenswerten europäischen Initiativen in Richtung SMR. Stattdessen verspricht sich die EU-Kommission viel von einer „Wasserstoff-Strategie“, die sich, so Samuel Furfari, als Neuauflage illusorischer Initiativen von vor hundert Jahren erweisen wird, sofern sie nicht auf der Kernenergie basiert.

Erst seit kurzem erinnern sich manche Politiker daran, dass die Förderung der zivilen Nutzung der Kernenergie einmal an der Wiege der westeuropäischen Einigung stand. Denn die Gemeinsame Forschungsstelle JRC = Joint Research Institut) der EU-Kommission, ein Überbleibsel des Euratom-Vertrags von 1957, meldete sich mit einem 2020 in Auftrag gegebenen Gutachten über die Einordnung der Kernenergie in die EU-Taxonomie zu Wort. Diese Taxonomie, eine Art Ampel soll ab 2022 anzeigen, welche Investitionen in der EU des „Green Deal“ als „grün“ akzeptiert werden können. Es gebe „keine wissenschaftlich fundierten Belege dafür, dass die Atomenergie die menschliche Gesundheit oder die Umwelt stärker schädigt als andere Technologien zur Elektrizitätsgewinnung“, steht ganz nüchtern im JRC-Gutachten zu lesen. Das war für Sylvia Kotting-Uhl, die atompolitische Sprecherin der Grünen im Deutschen Bundestag, schon zu viel. Sie forderte die Bundesregierung auf, eine Gegen-Expertise in Auftrag zu geben. (In anderen Ländern zeichnet sich dagegen eher eine Spaltung der Grünen über die Einschätzung der Kernenergie ab.)

Die Staatschefs von Tschechien, Frankreich, Ungarn, Polen, Rumänien, der Slowakei und Slowenien nahmen das zum Anlass, die aktuelle Präsidentin der EU-Kommission, ihren Stellvertreter sowie die Kommissare für Finanzen und Energie in einem gemeinsamen offenen Brief an die Ziele des Euratom-Vertrages zu erinnern. Die Kernenergie dürfe nicht aus der Energie- und Klimapolitik der EU verbannt werden, fordern sie. Ohne die Kernenergie seien die „Klimaziele“ der EU nicht erreichbar. Überdies schaffe die Kernenergie-Industrie zahlreiche hoch qualifizierte und längerfristig sichere Arbeitsplätze und biete in Form von Hochtemperatur-Reaktoren die Möglichkeit, auf wirtschaftlich und ökologisch vertretbare Weise Wasserstoff zu erzeugen. Man kann nur hoffen, dass diese Mahnung nicht zu spät kommt.

 

Kasten

In den Diskussionsbeiträgen zu meinem kürzlich hier veröffentlichten Beitrag über Emmanuel Macrons Klimagesetz wurde die Angabe, dass moderne Kernkraftwerke, gerechnet über ihren gesamten Lebenszyklus (einschließlich der Urananreicherung) nur etwa 6 Gramm CO2 je Kilowattstunde freisetzen, angezweifelt. Diese aufgerundete Zahlenangabe (genau 5,29 g CO2/kWh) stammt aus einer Publikation des französischen Kommissariats für die Atomenergie (CEA) von 2014. Im gleichen Jahr veröffentlichte die französische Energiewende-Agentur ADEME eine mehr als zehnmal so hohe Zahl, nämlich 66 g CO2/kWh. Offenbar addierte ADEME dabei alle bislang für kommerzielle wie für experimentelle Kernkraftwerke verfügbaren CO2-Bilanzen, die von 1,4 bis 288 g CO2/kWh reichen, und bildete daraus den arithmetischen Mittelwert. Wer auch nur ein wenig Ahnung von Statistik hat, weiß dass eine Mittelwertangabe bei einer so großen Varianz unsinnig ist. Die Zahlengabe des CEA trägt im Unterschied zur Zahl der ADEME der Tatsache Rechnung, dass die Urananre1icherung heute fast ausschließlich mithilfe von Ultrazentrifugen erfolgt. Deren Strombedarf ist fünfzigmal geringer als der Bedarf des früher gebräuchlichen Diffusionsverfahrens. Die Anlage EURODIF bei Pierrelatte im Rhônetal ging im Jahre 2012 außer Betrieb. Sie fraß so viel Strom, dass man drei Kernreaktoren brauchte, um sie zu versorgen. Diese Reaktoren stehen heute für die Elektrizitätsversorgung Südfrankreichs zur Verfügung.

__________________________________________________________________________________

 

 




Die Klimaschau von Sebastian Lüning: Bundeswirtschaftsministerium erhält Note „mangelhaft“ für Energiewende

Mit Dank an Leser Jens Fetköter




Woher kommt der Strom? Viel Strom plus Bonus wird verschenkt

 Abbildung

Bis zum Freitag ist die erneuerbare Stromproduktion recht gering. Zum bedarfsarmen Wochenende steigt sie massiv an. Einen erheblichen Unterschied aber gibt es. Die Stromerzeugung mittels Photovoltaik (PV) ist in der 12. Woche erheblich stärker als in Woche 11. Was für die konventionellen Stromerzeuger (Abbildung 1) das Problem der ´Strom-Lücke zum Vorabend` aufwirft. Für sie ist es ökonomisch praktisch nicht möglich, diese Lücke zu schließen. Dafür dauert sie regelmäßig nicht lange genug. Denn zum späteren Abend sinkt der Bedarf wieder. So erkennt man die Lücke nicht nur an der weißen, erzeugungsfreien Fläche, sondern auch an den Preisspitzen (Abbildung 2), die diese Woche von Montag bis einschließlich Freitag aufgerufen werden. Samstag, Sonntag zieht die Windstromerzeugung so stark an, dass viel zu viel Strom im Markt ist. Negative Preise (Zum verschenkten Strom wird noch Geld mitgegeben) in erheblichem Umfang sind die Folge. Zum Vorabend kann mit erheblichem Pumpspeichereinsatz wenigstens ein guter Preis jeweils zum Vorabend der beiden Wochenendtage abgegriffen werden (Abbildung 3). Abbildung 4 bildet die Strom-Erzeugungsbestandteile komplett ab. Ein Klick auf den dortigen Ergebnislink erlaubt das Ab- und Zuschalten diverser Energieträger. So wird z. B. der Wegfall des Stroms, der Ende 2023 wegen der abgeschalteten Kernkraftwerke nicht mehr produziert wird, mit der sich auftuenden weißen Fläche sehr schön sichtbar gemacht. Das gleiche gilt für die Kohlestromerzeugung. Wo soll der Strom herkommen, der dann fehlt? In 2 und mehr Jahren? Eine geringe Menge des dann fehlenden Stroms kann vielleicht importiert werden. Doch das ist oft alles andere als CO2-freie erzeugter Strom. Bleibt Gasstrom. Wenn denn genug Gas vorhanden ist. So wird bereits von der ´Gaswende` fabuliert (Abbildung 5). Gas aber ist unter dem Strich genauso CO2-intensiv wie zum Beispiel Braunkohle. Zwar entstehen bei der Stromherstellung, der Gasverbrennung nur etwa 50% des Co2 im Vergleich zur Kohle. Bei der Gasförderung hingegen – egal ob Fracking oder konventionell – wird viel Methan = Erdgas freigesetzt, welches wesentlich klimaschädlicher ist als CO2. Zusätzliche Gasverluste beim Transport schaden dem Klima wesentlich 25 x mehr als die gleiche Menge CO2.  (Abbildung 6).

Die Tabelle mit den Werten der Energy-Charts und die daraus generierte Tabelle finden Sie unter Abbildung 7. Die Jahres- und Wochencharts mit der Aufschlüsselung der ex- und importierenden Länder sind unter Abbildung 8 abgelegt. Abbildung 9 enthält die Auswertung des Im- und Exports der 12. Woche inkl. Preisanalyse. Es war eine teure Woche. Der Importpreis, den Deutschland bezahlen musste, betrug 56,81€/MWh. Für seinen Stromexport konnte Deutschland lediglich 39,66€/MWh vereinnahmen.

Selbstverständlich dürfen die Charts mit der angenommenen Verdoppelung/Verdreifachung der Wind- und Photovoltaikstromerzeugung nicht fehlen. Beachten Sie bei der Umwandlung von Strom in Wasserstoff und zurück, dass nur etwa 25% des ursprünglich eingesetzten Stroms übrigbleiben. Abbildung 10 enthält die Charts ebenso, wie den Link zu Energierechner, mit dem die Auswirkungen des Wegfalls bzw. die Einschränkung von diversen Energieträgern kalkuliert werden kann.

Abbildung 11 schließlich beinhaltet Ausführungen zur Grundlast, also der Menge Strom, die in einem Industrieland wie Deutschland praktisch jederzeit! benötigt wird.

Tagesanalysen

Montag, 22.3.2021: Anteil erneuerbare Energieträger an der Gesamtstromerzeugung 36,18 Prozent, davon Windstrom 17,12 Prozent, Solarstrom 8,03 Prozent, Strom Biomasse/Wasserkraft 11,03 Prozent. Die Agora-Chartmatrix: Hier klicken.

Das Wochenende 11. Woche mit der starken Windstromerzeugung ist vorbei. Die regenerative Erzeugung sinkt am ersten Werktag der 12. Woche ab. Auch die PV-Stromerzeugung kann es nicht herausreißen. Ab Mittag entsteht eine immer größer werdende Stromlücke, die trotz des nahezu durchgängigen Pumpspeichereinsatzes nicht geschlossen wird. Folge sind hohe Preise. In der Spitze sind es gut 90€/MWh. Der Handelstag im Detail.

Dienstag, 23.3.2021: Anteil erneuerbare Energieträger an der Gesamtstromerzeugung 28,89 Prozentdavon Windstrom 11,50 Prozent, Solarstrom 6,11 Prozent, Strom Biomasse/Wasserkraft 11,28 Prozent. Die Agora-Chartmatrix: Hier klicken.

Die erneuerbare Stromerzeugung ist heute schwach. Sowohl die Windstromproduktion als auch die mittels PV. Die Konventionellen bullern, der erzeugte Strom reicht dennoch nicht aus. Am Vormittag, am Vorabend werde besonders knackige Preise aufgerufen. Es lohnt sich für die konventionellen Stromerzeuger offensichtlich nicht, weitere Kraftwerke hochzufahren. Da bezahlt man lieber an die Nachbarn

Mittwoch, 24.3.2021: Anteil erneuerbare Energieträger an der Gesamtstromerzeugung 40,36 Prozentdavon Windstrom 14,38 Prozent, Solarstrom 15,20 Prozent, Strom Biomasse/Wasserkraft 10,78 Prozent. Die Agora-Chartmatrix: Hier klicken.

Heute beginnt die oben bereits angesprochene erhöhte PV-Stromproduktion. Ab 17:00 Uhr fehlt Strom. Die Sonne geht unter, der Bedarf zieht an. Bis etwa 19:00 Uhr. Die Preise bis 21:00 Uhr sind entsprechend. Die Konventionellen fahren für diese Stunden kein Kraftwerk hoch. Jedenfalls nicht so viele, dass die Lücke geschlossen werden könnte. Unsere Nachbarn profitieren

Donnerstag, 25.3.2021: Anteil erneuerbare Energieträger an der Gesamtstromerzeugung 34,97 Prozent, davon Windstrom 9,23 Prozent, Solarstrom 14,43 Prozent, Strom Biomasse/Wasserkraft 11,30 Prozent. Die Agora-Chartmatrix: Hier klicken.

Die Windstromerzeugung kommt fast zum Erliegen. Aber die Sonne scheint wieder recht ordentlich. Aber nur bis 16:00 Uhr reicht die PV-Stromerzeugung plus Windstrom aus, den Bedarf zu decken. Die berühmte Lücke tut sich auf. Heute dauert sie bis etwa 22:00 Uhr. Pumpspeicherkraftwerke  vermögen sie nicht zu schließen. Dementsprechend importiert Deutschland hochpreisigen Strom. Der Handelstag.

Freitag, 26.3.2021: Anteil erneuerbare Energieträger an der Gesamtstromerzeugung 54,14 Prozent, davon Windstrom 26,96 Prozent, Solarstrom 15,15 Prozent, Strom Biomasse/Wasserkraft 12,04 Prozent. Die Agora-Chartmatrix: Hier klicken.

Die Windstromerzeugung zieht an. Dennoch bleibt auch heute eine Stromlücke zum Vorabend offen. Mit entsprechenden Preisen. Der Handelstag

Samstag, 27.3.2021: Anteil Erneuerbare an der Gesamtstromerzeugung 72,63 Prozent, davon Windstrom 50,34 Prozent, Solarstrom 10,11 Prozent, Strom Biomasse/Wasserkraft 12,17 Prozent. Die Agora-Chartmatrix: Hier klicken. & Sonntag, 28.3.2021: Anteil erneuerbare Energieträger an der Gesamtstromerzeugung 71,37 Prozent, davon Windstrom 44,42 Prozent, Solarstrom 14,35 Prozent, Strom Biomasse/Wasserkraft 12,60 Prozent. Die Agora-Chartmatrix: Hier klicken.

´Freunde der Energiewende` jubilieren wahrscheinlich. Wind- und Sonnenstrom plus Strom Biomasse, Wasserkraft erreichen über am Wochenende über 70% der Gesamtstromerzeugung. Bezahlen brauchen sie dafür nicht. Das muss der Stromkunde. Zum Teil mit saftigen negativen Strompreisen. Nach unserer  Berechnung auf dem vorläufigen Analysetool erhält Deutschland gerade noch mal 14,69€/MWh für die 478 GWh Strom. macht 7 Millionen €. Ok, da muss Oma lange für stricken. Im Stromhandel aber ist das ein riesiges Verlustgeschäft. Der Importstrom, das kommt noch hinzu, muss dagegen teuer bezahlt werden. Es sind 42,12 €/MWh. Für insgesamt mickrige 84,84 GWh werden dementsprechend 3,57 Millionen € bezahlt. Per Saldo hat Deutschland 393,2 GWh exportiert und unter dem Strich dafür 3,43 Millionen erhalten. Macht 8,72€/GWh. Die konventionellen Stromproduzenten erzeugen um die 20 GW. 20 GW, die notwendig sind, um die Netzstabilität zu gewährleisten. 20 GW, die umso mehr zur Stromüberproduktion beitragen, desto näher der regenerativ erzeugte Strom an die Bedarfslinie reicht.

Eingedenk der oben beschriebenen und analysierten Sachverhalte ist es höchst erfreulich, dass der Bundesrechnungshof das Bundeswirtschaftsministerium in die Pflicht nimmt und fragt, wie die Versorgungssicherheit der deutschen Stromversorgung in Zeiten der immer dynamischer werdenden Abschaltungen sicherer konventioneller Stromerzeugung gewährleistet werden soll. Auch die Preiswürdigkeit des Stroms ist Thema beim Bundesrechnungshof. Er bezieht sich auf § 1 (1) des Energiewirtschaftsgesetzes, welches bereits 2005 geschaffen wurde:  

Zweck des Gesetzes ist eine möglichst sichere, preisgünstige, verbraucherfreundliche, effiziente und umweltverträgliche leitungsgebundene Versorgung der Allgemeinheit mit Elektrizität und Gas, die zunehmend auf erneuerbaren Energien beruht.

Wir bleiben am Ball. Mal schauen, ob und was das Ministerium antwortet.

Noch Fragen? Ergänzungen? Fehler entdeckt? Bitte Leserpost schreiben! Oder direkt an mich persönlich: stromwoher@mediagnose.de. Alle Berechnungen und Schätzungen durch Rüdiger Stobbe nach bestem Wissen und Gewissen, aber ohne Gewähr. 

Die bisherigen Artikel der Kolumne Woher kommt der Strom? mit jeweils einer kurzen Inhaltserläuterung finden Sie hier.

 

 

 

 




Nachbarschaftsstreit: E-Autofahrer drücken Anwohnern eigene Kosten auf

Erfahrene Anlageberater warnen: Wohneigentum ist heutzutage keine verläßliche Altersvorsorge mehr. Nicht nur die immer höheren Abgaben und Steuern, die zunehmend nur der Alimentierung akademischer Kostgänger und ihrer instrumentalisierten Gruppen dienen, sondern auch „Verbesserungsmaßnahmen“ der Straße oder der Nachbarhäuser können derart teuer werden, daß Rentner ihr Häuschen oder ihre Wohnung verkaufen müssen, weil sie nicht genug Geld haben. Und dabei geht es häufig nur um Verschönerung, die ein ästhetisch anspruchsvoller Nachbar mit Kontakten zum Stadtrat auf Kosten aller Anwohner durchsetzen will.

Wegen der angeblich grünen Politik der Bundesregierung und der Promovierung „klimaschonender“ E-Autos kommen nun auf Häuslebesitzer weitere Überraschungen zu. Nicht nur müssen alte Ölheizungen durch „Erneuerbare“ Quellen und Gasaggregate für Zehntausende Euros ersetzt werden; nun können auch noch selbsternannte Klimaretter die Kosten des eigenen Elektro-Luxusautos auf die Nachbarn abwälzen. Von der allgemeinen Quersubventionierung abgesehen, die z.B. Elon Musk via Klimazerftifikate zum Milliardär gemacht hat, müssen Eigenheimbesitzer nun auch noch die Kosten für die Ladesäulen von Nachbarn mittragen. Das Problem scheint schon so groß geworden zu sein, daß sogar die ARD es in Beiträgen aufgreift.

Der SWR zeigte vor kurzem ein Video, das einen Nachbarschaftsstreit im Hunsrück dokumentiert. Ein örtlicher Wirt und Hotelier will eine Ladesäule für Gäste errichten. Ob ein Dorfhotel im Hunsrück so viele reiche Gäste mit E-Auto hat, ist fraglich; aber wenn mal einer kommt, nutzt er wegen der geringen Ladekapazität natürlich jede sich bietende Gelegenheit und Wartezeit, um Reichweite zu gewinnen.

Weil die bestehende Infrastruktur nicht ausreicht, muß der Hotelier die Straße für eine bessere Leitung aufreißen lassen. Womit er sich prompt bei den Nachbarn unbeliebt macht, weil die zum Beispiel 1.500 Euro berappen sollen. Bodenständige Dorfbewohner sind mit den Vorstellungen von akademischen Großstädtern meist nicht zu beeindrucken, weswegen der Wirt, der ja nur mehr zahlende Gäste aus der Metropole anlocken will, mit seinem „Fortschritt“-Argument auf Granit beißt.

Er versucht es unverschämterweise auch noch damit, daß der Wert der Nachbarhäuser sich durch die neue Leitung erhöhen würde. Das ist aber erstens nur theoretisch der Fall, wenn jemand verkaufen will und genügend finanzstarke Interessenten hat. Und zweitens kann kein Bürger zwingen, den Wert des eigenen Besitzes zu erhöhen. Was würde unser Hotelier wohl sagen, wenn die Nachbarn versuchen würden, ihm eine Sanierungsmaßnahme aufzudrücken, zum Beispiel eine Neuverputzung seines Hauses, weil die Farbe den anderen nicht gefällt?

Insofern ist eine Nachbarin auch erbost und meint:

Ich werde teuer bestraft und du wirst gefördert vom Staat.

Der Wirt antwortet taktisch, in dem er sein egoistisches Interesse hinter moralischer Allgemeinnützigkeit verbirgt:

Weil du deinen Diesel weiterfahren möchtest, verhinderst du sozusagen anderen den Fortschritt.

Wie stehen die Chancen für die „Fortschrittsverweigerer“? Ein Anwalt des Stromlieferers schätzt sie als gering ein, da nach aller Erfahrung Klagen gegen grüne Interessen von der Justiz abgewiesen werden. Wa auch nicht verwunderlich ist, weil der Staat zunehmend den Interessen bestimmter Gruppen dient, die mit den zeitgeistigen Top-Themen wie „Klima“ oder „Migration“ enorme Mittel in die eigene Tasche umverteilen können.

Kläger gegen E-Mobilität oder Windrad-Wälder können aber meist ein Moratorium erwirken, was heißt, daß die Schnorrer ihre finanziellen Interessen nicht so schnell gegen die Mehrheit durchsetzen können, was viele Projekte schon wieder unattraktiv werden läßt. Seit 2019, dem Gretajahr ausgerechnet, kommen in Deutschland netto so keine Windräder hinzu, weil die Dorfbewohner und Naturschützer vor Ort die Betreiber mit Sammelklagen überziehen. Jahrelange Gerichtsverfahren können vor allem kleine Profiteure, die einen teuren Anwalt alleine anheuern müssen, effizient frustrieren. Die ökogeschädigten Anwohner im Ort hingegen können sich zusammentun, und müssen einen Juristen nur anteilig bezahlen.

 




Die Kernkraft erlebt eine Renaissance – nur nicht in Deutschland

„Es ist schlimmer als befürchtet“, stöhnte Sylvia Kotting-Uhl, „die Schlußfolgerungen des Joint-Research-Center sind eine Märchenstunde über die Harmlosigkeit der Atomkraft, deren Schadenspotential auch nicht größer sei als das der Erneuerbaren Energien“.

Denn so hatten sich die grüne Bundestagsabgeordnete Kotting-Uhl und grüne Umweltorganisationen das nicht vorgestellt: Da soll die EU in einem „Green Deal“ in ein neues gelobtes Zeitalter „transformiert“ werden, bei dem keine „Klimagase“ mehr ausgestoßen und eine Weltklimakatastrophe abgewendet werden kann. Das Heilsversprechen sieht klares Klima, Wohlstand und Gerechtigkeit für alle vor, die EU müsse nur „ambitioniert“ genug sein und Milliarden fließen lassen, sie „nachhaltig“ investieren, dann sei das Paradies nahe.

Expertengruppen der EU-Kommission sollten verschiedene Technologien analysieren und unter anderem empfehlen, wie ein „nachhaltiges“ Energiesystem aussehen soll. Doch die Empfehlung einer Expertengruppe sorgte für Aufsehen. Die kam, nachdem sie verschiedene Energieerzeugungstechnologien verglichen hatte, zu dem Schluß: Die Kernkraft ist nachhaltig. Mit ihr sei der Weg in eine „saubere“ und „nachhaltige“ Energieerzeugung möglich.

EU-Expertenkommmission lobt Kernkraft als nachhaltig

Jetzt müßte sich nur die EU-Kommission noch dieser Empfehlung anschließen, dann wäre der Weg für Anleger und Investoren für Investitionen in Atomkraft frei. Denn die sollen ihre Finanzströme nur noch in jene Energiesysteme lenken, die von der EU-Kommission als „nachhaltig“ und „sauber“ eingestuft wurden. „Die Analysen ergaben keine wissenschaftlich fundierten Beweise dafür“, so der Joint-Research-Centre-Report 2021, „daß die Kernenergie der menschlichen Gesundheit oder der Umwelt mehr Schaden zufügt als andere Stromerzeugungstechnologien, die bereits in der Taxonomie als Aktivitäten zur Unterstützung des Klimaschutzes aufgeführt sind“.

Auch der Atommüll, erklären die Experten, bereite keine Probleme mehr: „Gegenwärtig besteht ein breiter wissenschaftlicher und technischer Konsens darüber, daß die Endlagerung hochradioaktiver, langlebiger Abfälle in tiefen geologischen Formationen nach heutigem Kenntnisstand als ein geeignetes und sicheres Mittel angesehen wird, um sie für sehr lange Zeiträume von der Biosphäre zu isolieren.“

Ungelöste Fragen der Atommüll-Entsorgung waren für die Experten des vergangenen Berichtes vor zwei Jahren noch der Grund, die Atomkraft abzulehnen. Doch gerade Atomländer wie Frankreich und damals noch Großbritannien sowie andere osteuropäischen Länder mochten sich dieser Einschätzung nicht anschließen und beauftragten eine neue Analyse.

Man kann sich den Schock von Kotting-Uhl und anderen „Umweltschutzorganisationen“ ausmalen, die jetzt befürchten, daß die Atomlobby den „Green Deal“ kapern könnte, den sie doch so schön im Griff haben. Die grüne Bundestagsabgeordnete, unter anderem ehemalige Germanistikstudentin, Kindergartenleiterin, Fördermitglied von Greenpeace und jetzt Vorsitzende des Bundestagsausschusses für Umwelt, Naturschutz und nukleare Sicherheit, empfindet das Votum als persönliche Beleidigung, ist doch das Joint-Research-Centre – ehedem Institut für Transurane (ITU) – gewissermaßen Nachbar in ihrem Wahlkreis Karlsruhe-Stadt. „Das Joint-Research-Center mit seinem Sitz in meinem Wahlkreis Karlsruhe enttäuscht und entsetzt mich hier zutiefst.“

Früher wurden hier die Grundlagen der deutschen Kernindustrie gelegt, befand sich an diesem Flecken doch mit dem 1956 gegründeten ehemaligen Kernforschungszentrum Karlsruhe die Wiege der deutschen Kernkraftnutzung. Wissenschaftler erforschten hier die wesentlichen Grundlagen der Kernnutzung, die heute noch der Kernkraft dienen. Weltweit zumindest – in Deutschland nicht mehr.

Deutschland koppelt sich ab, weltweit werden Kraftwerke gebaut

Für die Sozialdemokraten war die Kernkraft – so hieß es 1959 noch im Godesberger Programm der Partei – „die Hoffnung dieser Zeit, daß der Mensch im atomaren Zeitalter sein Leben erleichtern, von Sorgen befreien und Wohlstand für alle schaffen kann“. Erst als die Kernkraft in Mißkredit gebracht wurde, war das Ende des Forschungszentrums besiegelt, und die Grünen verordneten dem Zentrum grüne Luftblasenforschung und begannen mit der systematischen Zerstörung der Energieversorgung Deutschlands. Ganz in der Nähe sprengten die Grünen vor genau einem Jahr das stillgelegte Kernkraftwerk Philippsburg in die Luft, ein voll funktionstüchtiges Kraftwerk im Wert von rund drei Milliarden Euro.

Zum Ende dieses Jahres sollen in Deutschland drei weitere Kernkraftwerke vom Netz gehen, die letzten drei dann Ende 2022. Klar ist niemandem, woher der Strom dann kommen soll. Der wird in Deutschland Mangelware, Bundeswirtschaftsminister Peter Altmaier (CDU) denkt über Rationierung der wichtigsten Lebensader eines Industrielandes nach und hofft, Strom aus Nachbarländern importieren zu können. Die aber haben selbst teilweise zu wenig Strom und werden im Zweifel ihren eigenen Bedarf zuerst decken.

Bundesumweltministerin Svenja Schulze (SPD): „Deutschland ist das einzige Land, das gleichzeitig aus Kohle und Atom aussteigt. Das sollte man nicht unterschätzen – und das wird auch international anerkannt.“ Schulze scheint höfliches Kopfschütteln mit Anerkennung zu verwechseln, bemerkt nicht das komplette Unverständnis, wie ein Industrieland seine Energieversorgung kappen kann.

Deutschland koppelt sich von einer sicheren und preiswerten Energieversorgung ab, während weltweit neue Kernkraftwerke gebaut werden. In den meisten Industrieländern der Welt erlebt die Kernkraft einen richtigen Boom. So wird im Nachbarland Frankreich gerade in Flamanville ein neuer Druckwasserreaktor gebaut; in der EU erzeugen derzeit 109 Kernkraftwerke Strom, allein 96 davon in Frankreich. In Finnland wird ein Reaktor fertiggestellt, in Slowenien zwei. Tschechien und Bulgarien planen ebenfalls neue Reaktoren, Ungarn und Rumänien sogar zwei. In Rußland stehen 39 Reaktoren. In China arbeiten 49 Anlagen, 15 neue Kernkraftwerke sind im Bau, weitere 34 geplant. In den USA wird eine neue 1.250-Megawatt-Anlage in diesem Mai eingeschaltet. Insgesamt produzieren 96 Reaktoren in den USA 20 Prozent des Stromes.

Nur in Deutschland glauben Grüne, SPD, Linke und andere, man könne mit Wind- und Sonnenstrom den Energiebedarf eines Industrielandes decken. Windenergie – die wurde früher vor allem im Norden von Windmüllern genutzt, die ihr Getreide mit Windmühlen zu mahlen versuchten, während bei Flaute eben nichts mehr ging. Der Grund liegt in der zu geringen Energiedichte von Wind- und Sonnenenergie.

Nicht umsonst benötigten Segelschiffe möglichst große Flächen, um den Wind für den Vortrieb von relativ geringen Lasten zu nutzen. Wesentlich besser sieht es beim Dieselantrieb aus, mit dem eine verhältnismäßig geringe Menge an Kraftstoff mit hohem Energiegehalt die riesigen Schiffe mit über 20.000 Containern über die Ozeane treiben kann. Noch besser sieht das Verhältnis bei Kernantrieben aus, bei denen geringe Mengen Uranbrennstoff gewaltigen Flugzeugträgern monatelang Dampf machen können.

Denn das ist das Reizvolle an der Kernenergie: Sie ist viele Millionen Mal stärker als die Energie aus Kohle- oder Ölverbrennung oder – noch ungünstiger – aus Sonnenstrahlung oder Windenergie.

Im Kern schlummert eine enorme Energie

Die Ursache dafür liegt im Aufbau des Atoms. Außen umgibt jedes Atom eine negativ geladene Hülle von Elektronen. In dieser Ebene spielt sich das ab, was wir täglich erfahren: die Zustandsänderungen von Stoffen, wenn sich Atome mit anderen zu neuen Stoffen verbinden oder auch bei Verbrennungsprozessen und, natürlich, wenn elektrischer Strom fließt.

Doch diese Energien sind vergleichsweise schwach gegenüber denen im Innern des Atomkerns. Dringen wir in den Kern des Atoms vor, so herrschen hier 100 Millionen Mal stärkere Energien als außen in der Elektronenhülle. Die Protonen des Atomkerns werden durch extrem starke Kräfte zusammengehalten, während außen in der Hülle mal schnell ein Elektron abgegeben oder aufgenommen werden kann.

Genau diese Verhältnisse machen die Nutzung der Atomkraft so reizvoll. Spaltet man die Protonen des Atomkerns, so werden dabei gigantische Mengen an Energie frei – entweder explosionsartig wie bei der Atombombe oder kontinuierlich über einen längeren Zeitraum bei der Erzeugung von Strom in einem Kernkraftwerk.

Deutschland wird zum energiepolitischen Problemfall Europas

Zum ersten Mal erkannten deutsche Forscher wie Otto Hahn, daß die Spaltung bestimmter Isotope des Urans oder Plutoniums einen Teil der extremen Energie des Atomkerns freisetzt. Und – Zukunftsmusik – um noch ein Vielfaches höhere Energien verspricht die Verschmelzung von Wasserstoff-Isotopen, der sogenannten Kernfusion. Dieser Vorgang liefert die unvorstellbar großen Energiemengen in der Sonne.

Dies alles bedeutet: Deutschland schreitet mit voller Kraft rückwärts, greift auf die spärliche Energieversorgung früherer Jahrhunderte zurück und wird damit zum energiepolitischen Problemfall Europas. Die derzeit installierte Leistung von rund 63 Gigawatt an Windanlagen nutzt nichts, wenn der Wind nicht weht. Da hilft auch nicht, was die neue alte grün-schwarze Landesregierung in Baden-Württemberg plant: mindestens 1.000 neue Windräder. Auch 0 mal 1.000 bleibt null, kein Wind – kein Strom.

Microsoft-Mitbegründer Bill Gates will sich da nicht weiter in die deutsche Diskussion einmischen, betont er gern. Doch er rät zur Kernkraft, die das Klima retten soll: „Das Einzige, was ich den Deutschen sagen würde, ist dies: Falls es eine komplett neue Generation von Kernkraftwerken geben sollte, deren Wirtschaftlichkeit, Sicherheit und Müllbilanz dramatisch besser sind, dann solltet ihr angesichts des Klimawandels vielleicht dafür offen sein, zu schauen, ob sie Teil der Lösung sein könnten.“

Gates hatte bereits vor 15 Jahren das Unternehmen Terrapower mitbegründet, das neue Reaktortechnologien entwickeln soll. Die sollen vor allem die „Abfälle“ der bisherigen Reaktoren zur Energiegewinnung nutzen können. Mit diesen Resten könnten, so hat Terrapower ausgerechnet, fast alle Menschen über ein Jahrtausend mit Energie versorgt werden. Denn die bisherige Reaktortechnologie aus den fünfziger Jahren konnte nicht mehr als drei Prozent der Energie aus dem Brennstoff herausholen. Der Rest steckt immer noch in den atomaren Abfällen.

Deswegen ist es keine besonders gute Idee, radioaktive „Abfälle“ aus den Kernkraftwerken in Schächten zu vergraben. Sie sind der Brennstoff künftiger Generationen von Reaktoren. Und ja, die sind CO2-frei, sollte jemand auf dieses Argument Wert legen.

Der Beitrag erschien zuerst bei der JF hier