1

Neue-Daten-Intermezzo: Arktis und Antarktis schmelzen NICHT

Zum Beispiel von den Klimaexperten beim renommierten FakeNews-Blatt “Spiegel”:

Nicht zu vergessen, die nicht minder Anfälligen für zur eigenen Haltung passende FakeNews der BBC:

Nun haben wir uns alle bereits auf den Sommerurlaub in der Antarktis gefreut, ein gut gekühltes Bier im Liegestuhl, die Amundsen-Scott Station hinter uns, Pinguine um uns und die Sonne über uns, manche haben auch darauf gehofft, Grönland einmal als grüne Insel zu sehen, ohne Eisschild, und, nix wird’s.

Ausdehnung von Meereseis zum 18. März 2020:

 

Das Eis in der Antarktis, die derzeit von so viele Spezialisten zum Schmelzen phantasiert wird, wächst noch schneller als das in der Arktis. Derzeit findet sich so viel Eis in der Antarktis, wie im Durchschnitt der Jahre 1981-2010. Auch in der Arktis wächst das Eis, hinkt dem Durchschnitt der Jahre 1981-2010 aber noch ein wenig hinterher.

Das Eis wächst. Es wächst sowohl im Norden als auch im Süden, was bedeutet, nicht nur das Coronavirus, auch die Erde macht ihren Pauschalurlaubsplänen einen Strich durch die Rechnung.

Bleiben Sie also zuhause, schon weil es in der Antarktis, dort ist noch Sommer, saukalt ist.

Der Beitrag erschien zuerst bei ScienceFiles hier




Mit bedeutungslosen Zahlen im Blindflug durch das Virenmeer

 Und haben Sie der Dauerberichterstattung entnehmen können, was helfen soll, dass ausgerechnet nach den Osterferien das „normale“ Leben wieder beginnen kann? Wahrscheinlich geht es Ihnen wie allen, den Politikern, den Unternehmen, den Alten, wie den Jungen: Wir segeln im Blindflug durch das Virenmeer.

Dabei gibt es seit Wochen nur noch ein beherrschendes Thema auf allen Kanälen: die Corona Krise. Ihr herausragendes Merkmal ist die stetig steigende Zahl der positiv getesteten Fälle. In der Schweiz sind diese bis zum 24. März laut corona-data.ch auf 10.247 Fälle gestiegen, in Deutschland laut Risklayer bei 36.116 Fällen, und in Italien laut denBehörden bei mehr als70,000 Fällen. Jedoch sind diese Zahlen bedeutungslos.

Sie geben nicht den wahren Infektionsgrad der Bevölkerung wieder, sie bezeichnen auch nicht den Belastungsgrad des Gesundheitssystems, sie sagen nichts über das Überlebensrisiko aus, und sie helfen nicht zu verstehen wie die Krise entstanden ist, oder wie sie zu bewältigen ist. Der Reihe nach.

Der wahre Infektionsgrad

Die wichtigste Zahl, die wir wissen müssten, wäre wie hoch der wahre Infektionsgrad der Bevölkerung ist, denn daraus ergeben sich alle anderen wichtigen Werte. Seit dem Wochenende am 21. März gibt es einen guten Anhaltspunkt dafür. In Island wurden in der Woche zuvor 5571 einigermaßen zufallsmäßige Tests in der gesunden und nicht unter Quarantäne stehenden Bevölkerung durchgeführt. Das Ergebnis ist verheerend: 0,86% waren infiziert, wie am 21. März veröffentlicht wurde.

Dank den täglichen Analysen von Professor Mark Handley der University College London ist bekannt, dass Island eine ähnliche Infektionsdynamik hat wie alle anderen kerneuropäischen Länder auch, und im Verlauf ungefähr gleich früh wie Italien und der Schweiz liegt. Daher ist zu vermuten, dass in Italien und der Schweiz um den 16. März herum ebenso ca 0,9% der gesunden Bevölkerung mit Covid 19 infiziert waren. Also anstatt der damals offiziellen 28.000 Fälle in Italien waren es 540.000, und respektive in der Schweiz 78.000 echte Infektionen. Die Dunkelziffer läge demnach bei Faktor 20. Bis zum 25. März müssten sich diese Zahlen vom 16. März bereits verdreifacht haben, entsprechend dem jetzigen Epidemieverlauf. Es ist daher damit zu rechnen, dass Italien mittlerweile 1,5 Million Infizierte hat und zu 2,7% durchseucht ist, und die Schweiz etwa 240.000 – also etwa jeder 37 ster Schweizer ist oder war bereits infiziert, wenn man der isländischen Stichprobe glaubt.

Deutschland 10 Tage hinterher

Laut Professor Handley liegt Deutschland im Epidemieverlauf etwa 10 Tage hinter Italien. Im jetzigen Stadium des deutschen Epidemieverlaufs bedeuten 10 Tage etwa zwei Verdoppelungen der Fallzahlen, oder Faktor 4. Das heißt per 25. März, würde Deutschland im Vergleich bei etwa 0,68% Durchseuchungsrate liegen, bzw 564.,000 echten Infizierten. Das wird dann bis zum 4. April auf um die 2 Millionen gestiegen sein, wenn Deutschland dann dort ist, wo Italien und Schweiz am 25. März sind.

Die isländische Stichprobe ist nicht der einzige Anhaltspunkt für diese echte Infektionsrate die etwa 20 mal höher liegt als die bedeutungslosen Fallzahlen, die täglich vermeldet werden. Die mathematischen Epidemiologen Professor Kenji Mitsumoto der hochrenommierten japanischen Kyoto Universität, und Professor Gerardo Chowell der Georgia State University haben sich einen eigentlich für alle offensichtlichen Sachverhalt angeschaut. Als in der letzten Januarwoche Evakuierungsflüge aus Wuhan stattfanden, gab es unter den Passagieren Fälle, die zwar gesund in das Flugzeug einstiegen, aber zuhause positiv getestet wurden. Diese Infektionsrate lag bei den zuverlässig erhobenen japanischen, deutschen und singapurianischen Flügen bei etwa 1,5%, also noch etwas höher als die isländische Stichprobe. Zu diesem Zeitpunkt lagen die chinesischen offiziellen Testergebnisse für Wuhan Stadt bei 2500 Fällen, oder 0,025% der 10 Millionen Metropole Wuhan, ähnlich der Rate, die heute für Deutschland kommuniziert wird. Wenn die Stichprobe dieser Flüge repräsentativ für Wuhan ist, dann hätte Wuhan bereits 150.000 Infizierte zu jenem Zeitpunkt gehabt, anstatt nur 2500. Die Dunkelziffer wäre also in Wuhan 60-fach höher gewesen.

Drei konsistente, aber leider nur magere Anhaltspunkte

Es gibt noch einen dritten Hinweis. Vor zwei Wochen um den 11. März herum fiel auf, dass in allen großen Parlamenten Europas, also Deutschland, Frankreich, Großbritannien und Spanien, mindestens ein Abgeordneter bereits infiziert war. Außerdem war in jeder großen ersten europäischen Fußballliga jeweils ein Spieler infiziert. Das sind alles jeweils diskrete, begrenzbare und nicht miteinander korrelierte Stichproben von jeweils circa 600 Mitgliedern. Wenn von denen jeweils ein Teilnehmer infiziert war, dann war die Infektionsrate in diesen Gruppen bereits 0.17%. Zwischen den ersten Symptomen, dem Test und schließlich Bekanntgabe des Ergebnisses lagen etwa 5 Tage, also müssen die Parlamente und Fußballigen bereits am 6. März herum zu 0,17% infiziert gewesen sein.

Es ist schwer zu sagen ob Parlamentarier und Fußballer mehr oder weniger verseucht sein müssten als die allgemeine Bevölkerung. Vermutlich sind sie aufgrund ihrer häufigeren Kontaktrate mehr verseucht. Jedenfalls dürften sich in diesen beiden Gruppen und ihrem Umfeld, zwischen dem 6. und dem 16. März, dem Datum der isländischen Stichprobe, die Infektionsraten etwa versechsfacht haben – also auf eine Infektionsrate von etwa 1%. Das wäre dann genauso hoch wie die isländische Stichprobe – und scheint daher plausibel zu sein.

Das sind drei konsistente, aber leider nur magere Anhaltspunkte für die wahren Infektionsraten in Europa. Daher ist die viel wichtigere Frage: Warum gibt es nur diese drei? Warum haben nicht etwa das Bundesamt für Gesundheit (BAG) in der Schweiz oder das Robert Koch Institut (RKI) in Deutschland schon längst verlässlichere Zufallsstichproben in ihren Bevölkerungen durchgeführt, um zu wissen was der echte Stand der Lage ist?

Es werden zur Zeit Billionen Euro an volkswirtschaftlichen Werten vernichtet, auf der Basis von Zahlen, die nahezu keine Aussagekraft besitzen. Das Erheben von epidemiologischen Stichproben wäre das grundlegendste Handwerkszeug dieser Zunft. Warum werden sie jetzt nicht durchgeführt – jetzt und nicht erst im Sommer?

Warum gibt es keine vernünftigen Zahlen aus China

Es gibt noch andere wichtige Werte, die genauso unbekannt sind. Das ist die Ansteckungsrate, mittlerweile landläufig bekannt als R, die Symptomatikrate, sowie die Inkubations- und Ansteckungsdauer. Selbst nur kleine Abweichungen von 0,1%, oder nur von Stunden, in diesen Werten machen in der Endabrechnung einen Unterschied von Millionen von Fällen aus. Wer mit den Annahmen in einem epidemiologischen Modell spielen möchte, der kann das im Internet hier tun.

Die Ausschläge des Modells sind erschreckend groß für nur kleine Änderungen. Gut dokumentierte Werte gibt es bislang nur für die ersten 41 Fälle in China, noch aus dem Dezember und frühen Januar. Seit dem Wuhan-Lockdown gibt es keine verlässlichen Daten mehr aus China über Ansteckungsraten, Ansteckungsdauern und Symptomentwicklung. Und für Europa gibt es sie auch immer noch nicht.

Alle Politiker Europas steuern daher im Blindflug durch diese Krise. Die Professoren Mitsumoto und Chowell berechnen, dass, wenn eine Woche nach dem Wuhan Lockdown, am 30. Januar als die Flüge stattfanden, die wahre Infektionsrate 1,5% war, dann muss die wahre Ansteckungsrate R auch nach dem Lockdown noch bei über 5 gelegen haben. Das wiederum bedeutet: Zwischen dem 30. Januar und dem 11. Februar wäre somit die wahre Infektionsrate auf knapp 20% der Wuhanbevölkerung gestiegen, trotz des Lockdowns. Das würde implizieren, dass es auch jetzt nach dem Ende des Lockdowns Mitte März, noch viele tausende asymptomatische Infektionsketten in China gibt, aus denen jederzeit der Ausbruch wieder in die Risikogruppen übergreifen kann und in der Folge das Gesundheitssystem überlastet. Ist das der Grund warum ausländische Journalisten des Landes verwiesen wurden? Ist das der Grund warum es praktisch keine vernünftigen Zahlen aus China gibt?

Können die Berechnungen des japanischen Professors auf europäische Verhältnisse übertragen werden? Das würde bedeuten, dass in vier bis fünf Wochen jeder fünfte Europäer bereits einmal infiziert sein wird, trotz dem jetzigen Lockdowns. Und was bedeutet das? Solange keine Daten erhoben werden, ist das alles unmöglich zu wissen.

Es ist immerhin bekannt, dass sowohl auf dem Kreuzfahrtschiff Diamond Princess, das in Japan ankerte, die Ansteckungsrate R bis zu dem Wert 11 lag, also jeder Infizierte steckte 11 weitere Personen innerhalb von etwa 6 Tagen an. Dasselbe galt wohl auch für die koreanische Sekte in Daegu, die weitgehend im Alleingang Südkorea infizierte. Um zu verdeutlichen was das heißt: ein R von 11 erreicht, dass innerhalb zwei Wochen nach dem ersten bekannten Todesfall bereits zwei Millionen Menschen infiziert sind. Ein R von 11 durchseucht jede Gemeinschaft in kürzester Zeit.

Politische Verschleppungen und Vertuschungen

Die Ansteckungskarten von Europa lassen ähnlich dramatische Infektionsherde vermuten, die mit extrem hohen R Werten die Infektionswelle vorangetrieben haben. Es waren die Apres Ski Zentren in den Alpen, allen voran Ischgl und Verbier, es waren die Karnevalhochburgen, und es waren die Fußballzeremonien mit den starken Fanaufläufen. Im Elsass kam noch eine Sektenveranstaltung in Mülhausen dazu, ähnlich wie in Korea. Politische Verschleppungen und Vertuschungen trugen das ihre bei.

Mit den wenigen anekdotischen Hinweisen, die sich in den Wissenschaften ansammeln, zeigt sich zunehmend, wie sich Corona verbreitet und wen es angreift. Es überträgt sich wohl in erster Linie durch die Atemluft. Besonders beim lauten Reden (oder Gröhlen beim Apres-Ski und im Stadion) werden die im Rachenraum residierenden Viren nach draußen gerissen, und landen bei dem Gegenüber in den Augen oder in der Nase. Nicht umsonst war der erste chinesische Whistleblower Dr Li Wenliang, der dann mysteriös verstarb, ein Augenarzt, der sich wunderte warum sich bei ihm so viele Patienten mit schwersten Lungenentzündungen ansammelten. Übertragungen über Flächen, insbesondere im ÖPNV scheinen dagegen eine untergeordnete Rolle zu spielen. Die Pendlerstadt Frankfurt hat als Verkehrsdrehkreuz Deutschlands die niedrigsten offiziellen Fallzahlen aller Großstädte in Deutschland. Pro Einwohner liegen sie bei einem Viertel von Köln, Stuttgart oder München. Vielleicht weil Frankfurt weder eine Karnevals- noch eine Skifahrertradition hat?

Die durch die isländische Stichprobe angezeigte hohe Infektionsrate, bedeutet dass die allermeisten Infizierer kerngesund sind und nichts wissen von ihrer Krankheit. Sie verbreiten das Virus im Apres Ski und im Fußballstadion an ihre Umgebung. Von dort wird es nach Hause oder an den Arbeitsplatz getragen und infiziert die Risikogruppen, die Älteren, die Immungeschwächten und die Lungenerkrankten, die dann in der Folge die Intensivbetten benötigen, mit alarmierend hohen Sterblichkeitsraten. Auch wer eine besonders hohe Dosis abbekommen hat, kann leicht bis schwer erkranken, aber das ist nicht der Regelfall. Und jeder kann in seltenen Ausnahmen das Pech haben, dass das Virus sich in einem schwachen Moment in den Körper schmuggelt und dort eine scharfe Immunreaktion in Form einer Lungenentzündung auslöst, die nicht mit Antibiotika behandelbar ist.

Sollten die Daten aus Island und von dem japanischen Professor auch nur zum Teil stimmen, dann steht fest, dass es ein Mythos ist zu glauben, man könne Corona wieder aus unserer Gesellschaft verbannen, auch wenn Lothar Wieler vom Robert Koch-Institut sich das noch so wünscht. Denn dann wissen wir, dass wir ständig tausende von stillen symptomfreien Infektionsketten in unserer Gesellschaft haben werden, die nicht sicher unterbrochen werden können.

Der Ursprung dieses Mythos ist zweifellos China, auf deren Propaganda die Europäer schon seit Wochen fortlaufend ausrutschen. Es steht zu vermuten, dass die Chinesen der Welt heute genauso glauben machen wollen, dass sie erfolgreich Corona in Wuhan besiegt haben, wie sie bis zum 20. Januar beharrlich behauptet haben, dass es keine menschlichen Infektionsketten gab. Dabei wurde die medizinische Evidenz für eine menschliche Infektionskette schon am 6. Dezember in dem wissenschaftlichen internationalen Journal Lancet veröffentlicht. Taiwan, Südkorea und Japan haben China vom ersten Tag an nichts geglaubt und ihre eigenen Strategien ergriffen – die Europäer dagegen fliegen blind und glauben fest an das chinesische Wuhanwunder, dass bald alles wieder vorbei ist.

In der jetzigen Phase des Lockdowns der Welt, kann es daher nicht darum gehen die Infektionsketten zu stoppen – denn das ist unmöglich. Es kann nur darum gehen, wie wir die Infektionsketten auf eine Weise verlangsamen, ohne dabei die Wirtschaft in einen Infarkt zu versetzen, und ohne dabei die Risikogruppen einer Gefahr auszusetzen. Wie das geht, das machen uns Japan und Südkorea vor. Wir sollten von diesen freien und demokratischen Gesellschaften lernen, anstatt uns von den Chinesen weiter Geschichten erzählen zu lassen.

Deswegen wäre es so wichtig mit echten Daten zu wissen wie hoch die Infektionsraten wirklich sind, was die Übertragungswege sind, was dieI nkubations- und Ansteckungsdauern sind. Es werden allerdringends epidemiologische Daten benötigt, damit ein ökonomisches, politisches und soziales Leben in unseren Gesellschaften sobald wie möglich wieder einkehren kann.

Der Beitrag erschien zuerst bei ACHGUT hier




Der industrielle Niedergang Deutschlands wird nun durch den Beschluß des  Bundestages zum Kohleausstieg besiegelt, obwohl die Wirkung von CO2 auf den sog. Treibhauseffekt marginal ist

Bis zum Kohleausstieg in 2038 können weder die erforderlichen Stromspeicherkapazitäten beigestellt, noch die hohen stündlichen Stromschwankungen über Gaskraftwerke ausgeglichen werden. Zudem erfordert die Umstellung aller Verbrennungsmotoren auf die nun hochgepriesene Wasserstofftechnologie bis 2050 eine doppelt so hohe Stromerzeugung gemessen an 2019.
Die Wirkung des beeinflußbaren anthropogenen CO2-Anteiles in der Atmosphäre auf das Klima ist marginal. Dennoch will Deutschland für seinen beeinflußbaren, nicht meßbaren CO2-Anteil von 0,000 03% mehrere Billionen Euro aufwenden, Ausgaben für ein „Nichts“ und der Folge eines industriellen Niederganges.

Fazit

1. Bis zum Jahre 2038 erfordert der Kohleausstieg eine tägliche Stromspeicherkapazität von 23,6 GW entsprechend 567 GWh oder 47 Gaskraftwerke (Leistung 0,5 GW), für eine 10-tägige Windflaute 236 GW entsprechend 11 340 GWh oder 94 Gaskraftwerke.

2. Die in 2019 erforderliche Stromerzeugungskapazität von 69,1 GW müßte bei kompletter Umstellung auf E-Autos in 2050 auf 107 GW erhöht werden, bei Umstellung auf Wasserstofftechnologie sogar auf 145 GW, eine Verdoppelung des Strombedarfes gemessen an 2019. Entsprechend würden vermehrt Stromspeicher oder Gaskraftwerke erforderlich.

3. Zudem scheitert die Energiewende an den abzudeckenden stündlichen Stromschwankungen. Bereits 2019 liegen die stündlichen Schwankungen bei +/- 8 GW/h, deren Schwankungen nach unten noch über Importe abgedeckt werden können.
In 2038 werden diese plötzlich auftretenden stündlichen Schwankungen durch die ausschließliche Stromerzeugung über Wind und Sonne auf etwa +/- 22 GW/h ansteigen. Diese Schwankungen können bei fehlenden Stromspeichern und bei dem gegebenen Anfahrverhalten von Gaskraftwerken nicht ausgeglichen werden.
Ein Ausgleich wäre nur über Stromimporte möglich. Dazu müßten allerdings z.B die Nachbarländer Schweiz, Österreich, Tschechien ihre gesamte stündliche Stromerzeugung abliefern.

4. Der Temperaturanstieg in der jetzigen Warmphase der Erde wird vom Klimarat der Vereinten Nationen (IPCC) seit 30 Jahren auf der Basis von nicht funktionierenden Modellen als ein apokalyptisches Ereignis bezeichnet und das vom Menschen verursachte CO2 für diesen Temperaturanstieg über den sog. Treibhauseffekt verantworlich gemacht, obwohl alle Warmphasen nach der letzten Eiszeit ohne menschlich verursachtes CO2 wärmer waren als die Jetzige.
Der anthropogene Anteil am CO2-Gehalt in der Atmosphäre von etwa 0,040% liegt bei 3% oder 0,0012%, wovon Deutschland wiederum für 2,5% verantwortlich zeichnet, entsprechend 0,000 03% (nicht meßbar).
Die nicht korrekte Einbeziehung des CO2-Anteiles in die Modelle (ohne den Einfluß von H2O) lassen u. a. erwartungsgemäß diese Modelle des IPCC scheitern.
Dennoch glaubt Deutschland der Welt zeigen zu müssen, wie das Verglühen der Erde durch den Abbau des deutschen CO2-Anteils von 0,000 03% vermieden werden kann.
Die Kosten betragen einige Billionen Euro für ein „Nichts“ mit der Folge eines industriellen Niederganges.

                                       ———————————————————–

1. Einleitung

Innerhalb des letzten Jahres ist hinsichtlich einer möglichen Klimaerwärmung durch CO2 eine aus dem Mittelalter bekannte Endzeitstimmung aufgekommen.
In einigen deutschen Städten wurde der Klimanotstand ausgerufen, sogar das EU-Parlament beschließt den Klimanotstand. Die EU- Kommissarin v.d.Leyen verkündet, die EU solle bis 2030 eine Billionen Euro in die Klimarettung stecken und CO2-Klimaneutralität bis 2050 aufweisen.
Wir erleben eine von links-grünen Lobbygruppen und Medien ausgelöste regelrechte Klimahysterie, die mit der Panik vor dem durch CO2 verursachten bevorstehenden Weltuntergang alles andere verdrängt.
Nahezu alle gesellschaftlichen Gruppen – Arbeitgeberverbände, Gewerkschaften, Kirchen, Medien, fast alle Parteien- schließen sich dem Klimawahn an.
Aber wen wundert diese Entwicklung, wenn die Medien ihren Bürgern keine zuverlässige Informationen über Staat, Politik und Gesellschaft mehr liefern – aus dem „Informationsjournalismus “ ist ein „Haltungsjournalismus“ geworden.
Eine wünschenswerte Medienlandschaft mit kritischem investikativem Journalismus gibt es nicht mehr, stattdessen einen Gleichklang im Sinne einer „political correctness“ zwischen den Regierenden und einem verbandelten Staatsfernsehen. In den vielen auf rudimentären Kenntnissen zu Klimafragen agierenden Talkshows werden Klimarealisten nicht zugelassen.
Einwände gegen Aussagen des Klimarates der Vereinten Nationen (IPCC) werden im grün-linken Milieu in Deutschland hypermoralisch in die rechte Ecke gestellt.
Die Angst der Deutschen hat eine lange Tradition, kürzlich sichtbar am Atomausstieg, nun kommt der Kohleausstieg, der Ausstieg aus dem Verbrennungsmotor, etc. wird folgen.
Die Ängste werden insbesondere durch den IPCC ständig durch neue Hiobsbotschaften gefördert, nicht zuletzt durch die betrügerische Aussage, es gäbe einen 97%igen Konsens der Wissenschaftler in Klimafragen   https://youtu.be/YoxNPl2meCQ. 

2. Probleme Kohleausstieg

2.1 Ohne Stromspeicherung ist der Kohleausstieg eine Illusion

Wie kein anderes Land auf dieser Erde reagierte Deutschland auf diese vom IPCC ausgelösten Untergangsscenarien mit ständig sich überschlagenden Energiewenden mit dem Ziel der Absenkung des CO2-Ausstoßes:
– Energiewende 2000
– Energiewende 2014
– Eckpunkte für die geplante Novelle EEG in 2016
– „Klimaschutzplan 2050“ in 2016 (Dekarbonisierung neben der Stromerzeugung für alle Sektoren wie „Industrie und Gewerbe“, „Handel und Dienstleistungen“, „Gebäude“, „Verkehr“, „Land- und Forstwirtschaft“)
– Koalitionsvertrag vom 14.03.2018 mit neben dem „Klimaschutzplan 2050“ erweiterten Zielen wie Anhebung der erneuerbaren Energien auf 65% bereits in 2030
– Ausstieg aus der Kohle bis 2038 nach dem Plan der Kohlekommission von Anfang 2019
– Verabschiedung des „Klimapaketes“ zur Bepreisung von CO2 vom Bundesrat am 20.12.2019
– Verabschiedung des Ausstieges aus der Kohle bis 2038 mit einer ausgeglichenen CO2-Bilanz für alle Sektoren bis 2050 von der Bundesregierung in 2020

Die Stilllegung der deutschen Braunkohlekraftwerke scheint sich nach vielen Diskussionen wie folgt abzuzeichnen, wobei der Abbau der Steinkohlekraftwerke noch nach einem Bieterverfahren bis 2026 vorgenommen werden soll:
2022  2,8 GW, 2025-2029  5,7 GW, 2034-2038  8,7 GW.
Für das Gesamtpaket für den Ausstieg aus der Kohle wird ein Betrag von etwa 50 Mrd. € genannt.
Wie in früheren Arbeiten werden hier auf der Basis des in 2020 zu verabschiedenten Kohleausstieges die vorläufigen Verbrauchskennzahlen des Strommixes von 2019 nach AGEB herangezogen und die zeitliche Abnahme des Kohlestromes und die daraus folgenden Veränderungen des Strommixes über die Zeit errechnet und in Tafel 1 und in Bild 1 dargestellt.

 

Tafel 1

Dabei wird von einer gleichbleibenden Stromerzeugung von 606 TWh entsprechend 69,1 GW bis 2050 ausgegangen – einschließlich Exportüberschuß -, auch wenn weltweit bis 2040 von einer Steigerung des Energiebedarfes von 25% ausgegangen wird. Der Stromimportsaldo wurde nicht berücksichtigt.

Bild 1:  Stromerzeugungskapazitäten der verschiedenen Stromerzeuger 2019 bis 2050

In Bild 1 wird über den nicht fluktuierenden erneuerbaren Energien einschließlich der „Sonstigen“ zunächst die Stromerzeugungskapazität über Erdgas und Öl zuerst bis 2038 als konstant, um von 2038 bis 2050 im Sinne der ausgeglichenen CO2-Bilanz gegen Null angesetzt.

Darüber zeigt Bild 1 die  Stromerzeugung über Kernkraft und Kohle, bis schließlich Wind und Sonne die in 2038 erforderliche Leistung bis 69,1 GW abdecken, wobei gleichzeitig das Ausmaß der Fluktuation von Wind und Sonne sichbar wird.
Für die Berechnung der zu installierenden Wind- und Solaranlagen wird von einem Nutzungsgrad von Wind+Sonne von 2019 ausgegangen: 17,6%.
Der Anteil der erneuerbaren Energien liegt in 2019 bei 38,8%.
Wenn Agora in 2019 von einem Anteil an erneuerbaren Energien von 42,6% berichtet, so muß berücksichtigt werden, dass die von Betrieben vorgenommene Eigenstromerzeugung einschließlich Verbrauch und Verlusten von Agora nicht berücksichtigt werden. (1)

Aus den Angaben zum Kohleausstieg ergibt sich ein Kapazitätsabbau der sicheren Stromerzeuger einschließlich der Herausnahme der Kernkraft  in 2022 wie folgt: KKW -8,1 GW, BKK -2,8 GW, SKK -1,3 GW (Linearität unterstellt), zusammen rd. 12 GW (Bild 1).
Der starke Leistungsabbau bis 2022 müßte dann über erhöhte Stromerzeugung über Wind+Sonne oder Gaskraftwerke vorgenommen werden (vgl. dazu auch Kapitel 3).
Nach Angabe der Netzbetreiber könnte bereits in 2021 ein Worst-Case-Scenario eintreten, bei dem mit -5,5 GW eine Versorgung aus eigener Kraft nicht mehr möglich wäre, im Wesentlichen über das Auslaufen der Reservekraftwerksverordnung. (2)

In diesem Zusammenhang muß immer wieder herausgestellt werden, dass die mittlere Stromleistung von 69,1 GW nur aufrecht erhalten werden kann, wenn der oberhalb dieses Mittelwertes anfallende Strom aus Wind+Sonne gespeichert und bei Stromleistungen über Wind+Sonne unterhalb dieses Mittelwertes wieder eingespeist werden kann. (Bild 1)
So müßten z.B. in 2038 durch die fluktuierende Stromerzeugung über Wind+Sonne der zwischen 291 GW und 69,1 GW anfallende Strom in Stromspeichern gesammelt werden, um ihn bei nicht ausreichender Stromleistung zwischen 22 GW und 69,1 GW wieder einzuspeisen.
Die dann erforderliche Speicherleistung liegt dann nach Bild 1
– in 2038 bei    (69,1-22)/2 = 23,6 GW entsprechend 567 GWh/Tag bei einer täglichen Erzeugung von 1660 GWh
– in 2050 bei    (69.1-10)/2 =  30 GW entsprechend 720 GWh/Tag
– bei möglichen täglichen Spitzenleistungen von 80 GW sogar bei 35 GW (vgl.auch (3).

Stehen diese Speicher nicht zur Verfügung – wovon wegen der Verfügbarkeit und Kosten auszugehen ist (vgl. später) – muß auf teure Gaskraftwerke zurückgegriffen werden. Bei einer Größe der Gaskraftwerke von 0,5 GW entspräche das in 2038 einer Anzahl von 47 Gaskraftwerken, in 2050 von 60, was aber einer ausgeglichenen CO2-Bilanz in 2050 nicht entspräche.
Nach Aussage der Bundesnetzagentur sind z.Z. Gaskraftwerke mit einer Leistung von 30 GW installiert, davon 25,1 GW am Markt und 2,9 GW in Reserve (Kraftwerksliste Monitoringreferat Bundesnetzagentur 11.11.2019).
In Anbetracht der dringend erforderlichen Stromspeicher spricht die Aussage, dass in 2030 eine Speicherkapazität von 7,5 GW über Power-to-Gas-Anlagen installiert sein soll (4), für eine hoffnungslose Überforderung.

Hinzu kommt, dass bei der bisherigen Betrachtung von durchschnittlichen jährlichen Kennzahlen in 2019 ausgegangen wurde. Es können jedoch im Winter sog. Windflauten von z.B. 10 Tagen auftreten, in denen praktisch weder Wind noch Sonne Strom erzeugen können. Dann gilt:
– in 2038:  2×567 GWh/Tag x 10 Tage = 11 340 GWh (472 GW), die gespeichert sein müßten oder über 94 Gaskraftwerke, die täglich den geforderten Strom liefern
– in 2050:  2×720 GWh/Tag x 10 Tage = 14 400 GWh (600 GW), die gespeichert werden müßten. Eine Abdeckung der Stromnachfrage über 120 Gaskraftwerke entfällt wegen der für 2050 festgelegten CO2-Neutralität.

Der Gesamtenergieverbrauch in Deutschland liegt bei etwa 2 500 TWh, der Stromanteil macht dabei etwa 20% aus. Ziel ist CO2-Neutralität in allen Sektoren.
Im Wärmesektor liegt der Anteil der regenerativen Energien bei etwa 14%, im Verkehrssektor bei weniger als 6% – auch diese Zahlen lassen die Hoffnungslosigkeit des Vorhabens „Energiewende“ erahnen.
Dennoch werden im folgenden Kapitel die Themen Elektromobilität und Wasserstofftechnologie behandelt.

2,2 Die Bedeutung der Elektromobilität und Wasserstofftechnologie für die Stromerzeugung

In einer früheren Arbeit (5) war die zu erbringende Stromerzeugung bei einer Umstellung von 45 Mio. Verbrennungsmotoren für PKW sowie diversen Nutzfahrzeugen und Bussen errechnet worden: 337 000 GWh/a bei einer gleichmäßigen Aufladung über 24 Stunden entsprechend 38,5 GW (Bild 1).
Der Hype der Umstellung von Verbrennungsmotoren auf E-Mobilität fußte auf der Vorstellung, dass
a) die Energiewende funktioniert und der Strom ausschließlich über regenerative Energien CO2-frei hergestellt werden kann
b) die Anforderungen an den überhöhten Abbau des CO2-Ausstoßes über Verbrennungsmotoren je Flotte nur mit einem hohen Anteil an E-Autos erfüllt werden können.
Aber der Hype um die E-Mobilität läßt nach, da
a) CO2-freier Strom über die Energiewende ohne die genannten Stromspeicher nicht erzeugt werden kann
b) nach den zuletzt veröffentlichen Studien der „CO2-Rucksack“, der bei der Batterieherstellung anfällt, erst nach einer Fahrleistung von 219 000 km ein elektrisches Auto der Golfklasse ein entsprechendes Auto mit Dieselmotor im Hinblick auf seinen CO2-Ausstoß schlägt. Die durchschnittliche Lebenserwartung eines PKW liegt in Deutschland bei 180 000 km. (vgl. auch FAZ, 10.01.2020)

Nun muß ein neuer Hype her: die Wasserstofftechnologie. Aber der Energieaufwand für die Wasserelektrolyse ist gewaltig.
Geht man von den thermodynamischen Daten der Wasserspaltung aus nach
     H2O = H2+ 1/2 O2       -57810 kcal/kmol
errechnet sich für die Herstellung von einem Nm3 H2 ein Energieverbrauch von 3 KWh bzw. ein Energieverbrauch für
       1 kg H2  von 33 KWh.
Da der energetische Wirkungsgrad der Wasserelektrolyse bei etwa 70% und niedriger liegt, kann von einem Energieverbrauch für die Herstellung von
     1 kg H2 von etwa 50 KWh
ausgegangen werden.
Da die Entwicklung der Wasserstoffverbrennungsmotoren wie der Brennstoffzellen- PKW noch in den Anfängen steckt, sind die Angaben über die H2-Verbräuche noch spärlich. Nach den bisherigen Angaben ist von einem Verbrauch von etwa
       1 kg H2/100 km
auszugehen.
Bei den Betrachtungen nach (5) war bei E-Autos von einem mittleren Verbrauch von
         25,5 KWh/100 km
ausgegangen worden, so dass bei Umstellung von der E-Mobilität auf die Wasserstofftechnologie von einem etwa doppelt so hohen Stromverbrauch auszugehen ist (Bild 1), ohne auf all die technischen Vor-und Nachteile dieser Verfahren eingehen zu wollen.
Das bedeutet gleichzeitig in 2050 eine Verdopplung des Strombedarfes gemessen an 2019.

Damit ergeben sich folgende aufzubringende Stromerzeugungs- und Speicherkapazitäten von 2019 über 2038 bis 2050 (Bild 1):

Bild 1

Aus Gründen der Übersichtlichkeit wurden die erforderlichen Stromspeicherkapazitäten für die E-Mobilität und H2-Technologie nicht in Bild 1 eingetragen.
Die Diskussion mit dem Umgang mit Windflauten oder die Verfügbarkeit von Gaskraftwerken erübrigt sich nach dem bereits Ausgeführten. (vgl. auch später)

Nicht unerwähnt soll die mögliche Weiterverarbeitung des Wasserstoffes zu Methan nach dem Power-to-Gas-Verfahren bleiben, den sog. E-Fuels. Schließlich läge der Vorteil in der Nutzung der bestehenden Infrastruktur (Fahrzeuge, Tankstellen, Erdgasnetz, etc.).
Der unüberbrückbare Nachteil dieses Verfahrens liegt in dem niedrigen Wirkungsgrad in der Größenordnung von rd. 30% (Wärmeverluste), so dass das Verfahren weder im Rahmen der Wasserstofftechnik für PKW noch als Verfahren für eine Wiederverstromung bezahlbar ist. 

3. Die Energiewende scheitert nicht nur an den fehlenden Stromspeichern sondern auch an den abzudeckenden stündlichen Stromschwankungen

3.1 Die stündlichen Stromschwankungen in 2019

In den vorigen Kapiteln waren bereits die mit dem Kohleausstieg verbundenen unüberbrückbaren Schwachstellen auf der Basis der Betrachtung von Jahresmittelwerten herausgestellt worden.
Aber die ganze Hoffnungslosigkeit dieses Unternehmens Energiewende wird erst bei der Diskussion des auf Stundenwerte heruntergebrochenen Strombedarfes und der dazugehörigen Stromerzeugung deutlich.

Bild 2: Tägliche Stromerzeugung und Strombedarf sowie Strompreise im Dezember 2019

Bild 2 (6) zeigt zunächst am Beispiel Dezember 2019 den täglich erforderlichen Strombedarf (Last) mit seinen Schwankungen zwischen etwa 35 und 75 GW, dem gegenüber ein Stromangebot aus Wind offshore und onshore einschließlich kleiner Solarspitzen zwischen 4 und 45 GW bei einer installierten Leistung Wind+Sonne von 110 GW (vgl. Tafel 1). Zudem ist der Stromimport- und -export dargestellt sowie die an der Strombörse gehandelten Strompreise zwischen etwa minus 50 und plus 75 €/MWh – eine Perversion von Marktwirtschaft.
Bemerkenswert ist der stets stark ansteigende Stromexport bei steigendem Stromangebot über Wind, weil die konventionellen Stromerzeuger nicht so schnell nachgesteuert werden können, außerdem für den möglichen schnell abfallenden Windstrom genügend Reserve vorgehalten werden muß, schließlich muß stets exakt so viel Strom erzeugt werden wie verbraucht wird. Ebenso fallen erwartungsgemäß die Strompreise bei viel Windstrom.
Nun soll ab 2038 Strombedarf und Stromangebot über die alternativen Energien zur Deckung gebracht werden – und auch noch von Nord nach Süd transportiert werden -, ein hoffnungsloses Unterfangen ohne eine Armada an Stromspeichern. Stromspeicher dieses Ausmaßes sind – wie bereits erwähnt –  über die Wasserstoffherstellung nicht bezahlbar, außerdem noch im Labormaßstab. (7)
Auch die Stromspeicherung über Großbatterien (Lausitz, Australien) liegen bei einigen €/KWh. (8)
Diese in Bild 2 sichtbaren Schwankungen der Stromerzeugung werden mit dem Anstieg der installierten Wind-und Solaranlagen in 2030 auf 269 GW und in 2050 auf 331 GW massiv zunehmen (vgl. später).
Auffallend ist die niedrige Stromerzeugung über Wind+Sonne in der Weihnachtszeit – eine Art Windflaute über 3 Tage – mit einer Leistung über Wind von etwa nur 5 GW bei kurzzeitigen Spitzen über Solar, die einen hohen Stromimport erforderlich machen – in Bild 3 besser erkennbar.

Bild 3: Stromimporte und -exporte auf Stundenbasis sowie die Strompreise vom 22.12.2019 bis 02.01.2020

In Bild 3 (Agora Energiewende) wird diese Zeit (in einer erweiterten Darstellung vom 22.12.2019 bis 02.01.2020) mit der Auftragung der Stromexporte und -importe getrennt nach Ländern sowie die Schwankung der Strompreise in einem Stundenraster verfolgt.
Die notwendigen Stromimporte bis etwa 8 GW/h (entsprechend der Leistung von etwa 8 Kernkraftwerken) über die 3 Tage über Weihnachten werden insbesondere durch Frankreich, die Schweiz, Österreich und Tschechien – Länder mit z.T. hohem Anteil an Atomstrom – vorgenommen bei ansehlichen Strompreisen.
Die Stromexporte steigen zum Jahresende bei zunehmendem Wind auf 15 GW/h wieder an, die bei fallenden Strompreisen von den Nachbarländern z.Z. noch gerne übernommen werden.
Damit wird jedoch bereits jetzt bei einem mittleren Stromanteil über die konventionellen Stromerzeger von 56% (Tafel 1) das erforderliche Ausmaß des Stromimportes vom 26.-28.12.2019 von durchschnittlich 5 GW/h deutlich. Das entspricht in diesen 3 Tagen einer täglichen importierten Strommenge von 120 GWh.
Viel bemerkenswerter für die Stromversorgungssicherheit ist jedoch die mögliche schnelle Änderung des erforderlichen Stromangebotes oder des erforderlichen Exportes.
So ist in Bild 3 zu erkennen, dass sich der Strombedarf von einer Stunde auf die andere um 5 GW verändern kann.
Wesentlich deutlicher wird die schnelle Änderung der Einspeiseleistung über Wind+Sonne  bei der Darstellung aller stündlicher Abweichungen im Zeitraum 2010 bis 2019 (Bild 4).(9)

Bild 4: Stündliche Änderungen der Einspeiseleistungen von 2010 bis 2019

Bereits in 2016 werden stündliche Veränderungen nach oben (Export) wie nach unten (Import) bis 8 GW und z.T. höher gefunden.
Das bedeutet für die Stromversorgungsicherheit, dass ohne mögliche Stromimporte bereits spätstens ab 2019 16 Gaskraftwerke (Leistung 0,5 GW) für die Stromversorgung von 8 GW/h gleichzeitig hätten einspringen müssen.
Große Kraftwerke scheiden wegen ihres zu Anfahrverhaltens ohnehin aus, aber selbst Gaskraftwerke der GuD-Klasse zeigen kein ausreichendes Ansprechverhalten.
GuD-Kraftwerke sollen zwar inzwischen ein Anfahrverhalten von 30 Minuten aufweisen (energie spektrum). Aber nach umfassenden Auswertungen wird jedoch in 2013 auf ein „Anfahrverhalten kalt“ von 2-4 Stunden hingewiesen, bei Bestandsanlagen in 2023 von 1,5-3,5 Stunden. Selbst für das „Anfahrverhalten heiß“ werden Zeiten von 0,5-1,5 bzw. 0,4-1,3 Stunden zitiert  (Ältere Anlagen nicht eingeschlossen). (10) Ähnliches gilt für GuD-Anlagen mit KWK-Einsatz.
Das bedeutet, dass das Problem des Ausgleiches der kurzzeitigen bis stündlichen Stromangebotsschwankungen über Gaskraftwerke nicht ausgeglichen werden kann.
Mit anderen Worten: Deutschlands Energiewende ist ohne Stromspeicher zwingend auf auf Stromimporte angewiesen.
Aber die Nachbarn sind dabei, ihre konventionellen Kapazitäten zu reduzieren (u.a. „Green Deal“). Außerdem sind die Zeiten, in denen viel Strom nachgefragt wird, in Europa nahezu deckungsgleich (Deutscher Bundestag 2019: „Sicherstellung der Stromversorgung bei Dunkelflauten“).

3.2 Die bis 2038 zu erwartenden stündlichen Stromschwankungen

Wie bereits erwähnt, muß mit zunehmender Stromerzeugung über alternative Stromerzeuger und gleichzeitiger Abnahme  der konventionellen Stromerzeuger die stündliche Abweichung der Einspeiseleistung zunehmen.
Es läßt sich über Bild 4 abgreifen – linearität unterstellt -, welche Ausmaße die stündlichen Abweichungen der Stromerzeugung bei einem Anstieg der installierten Wind-+Solarleistungen (40 GW in 2010, 110 GW in 2019) auf 269 GW in 2038 und 331 GW in 2050 annehmen:
     Bis 2038:             +/- 22 GW/h, entsprechend einer Strommenge von +/- 529 GWh.
Da bei Schwankungen nach unten selbst Gaskraftwerke hier nicht aushelfen können – die erforderliche Armada an bezahlbaren Stromspeichern  kann bis 2038 ohnehin nicht vorhanden sein -, bliebe nur der Import. Dazu müßten die Nachbarländer Schweiz, Österreich, Tschechien ihre gesamte stündliche Stromerzeugung abliefern.
Sicher wäre zu prüfen, ob die stündlichen Abweichungen der Stromversorgung von kleinen Gaskraftwerken (0,02-0,250 GW) abgefangen werden können (s. Energie-Monitoringbericht Bundeswirtschaftsministerium 2019). Dazu wären dann für eine stündliche Stromversorgung von +/- 22GW/h   220 Gaskraftwerke der Größe von z.B. 0,1 GW erforderlich.
Auf eine Berechnung der für eine 10-tägige Windflaute erforderliche Anzahl an kleinen Gaskraftwerken wird hier verzichtet.
Zudem stellt sich die Frage, welches Nachbarland die Stromüberschußmengen aufnehmen kann.
Nach diesen Ausführungen überrascht es nicht, dass in 2019 das deutsche Stromnetz wiederholt kurz vor dem Kollaps stand. Europaweit mußten Industriebetriebe vom Netz genommen werden. Österreichische Pumpspeicherwerke mußten hochgefahren werden, da alle konventionellen Kraftwerke – einschließlich Gaskraftwerke  – zeitlich dem Stromausgleich nicht gewachsen waren.
Selbst die 4 großen Übertragungsnetzbetreiber hatten vor 2 Jahren ausgerechnet, dass Deutschland in weniger als 24 Monaten nicht mehr in der Lage sein werde, Extremsituationen im Stromnetz aus eigener Kraft bewältigen zu können (Bericht der deutschen Übertragungsnetzbetreiber zur Leistungsbilanz 2016-2020).

So steigen auch die Redispatch- Maßnahmen im deutschen Stromnetz (die Menge der kurzfristig notwendigen Energie zur Stabilisierung der Netze) von 2012 bis 2017 von 5 000 auf 20 000.
Die Kosten werden 2018 auf 1,4 Milliarden beziffert.
Zum Schluß sei bemerkt, dass die Fachwelt davon ausgeht, dass die Primärregelung für entstehende Sekundenstörungen (die Bewegungsenergie aller rotierenden Massen in Kohle-und Kerkraftwerken) 30-50% der Stromgesamtleistung für ein stabiles Stromnetz betragen sollte.

4. Der sog. Treibhauseffekt durch CO2

Der CO2-Gehalt der Atmosphäre lag in der Klimageschichte der Erde noch nie so niedrig wie heute (Bild 5). Offensichtlich ist die Erde nicht verglüht trotz um Potenzen höherer CO2-Gehalte. Vor 35 Mio. Jahren vereiste die Antarktis, vorher war die Erde überwiegend eisfrei.

Bild 5: Entwicklung der CO2-Gehalte in der Atmosphäre

Nach der letzten Eiszeit stieg die Erdtemperatur vor 4000-8000 Jahren zunächst an (Bild 6). Die Alpen waren eisfrei, die Menschen wurden seßhaft (Neolitische Revolution). Es folgte dann eine Reihe von Warmphasen, alle wärmer als die jetzige.

Bild 6: Temperaturentwicklung nach der letzten Eiszeit

Der Temperaturanstieg in der jetzigen Warmphase wird nun vom Klimarat der Vereinten Nationen (IPCC) seit 30 Jahren als ein apokalyptisches Ereignis bezeichnet und das vom Menschen verursachte CO2 für diesen Temperaturanstieg über den sog. Treibhauseffekt verantwortlich gemacht, obwohl die Warmphasen vor der jetzigen ohne menschlich verursachtes CO2 alle wärmer waren (Bild 6).

Die vom IPCC verbreitete Angst vor dem Verglühen der Erde beruht u.a. auf einer nicht korrekten Einbeziehung  des CO2-Anteiles in der Atmosphäre in ihre Modelle.
Erwartungsgemäß können diese Modelle die Vergangenheit nicht nachvollziehen, geschweige denn die Zukunft voraussagen.

Das Versagen dieser Modelle beruht im Wesentlichen auf folgenden Kriterien:

1. Die Atmosphäre enthält etwa 0,040% CO2, davon sind nur 3% anthropogenen Ursprungs  entsprechend 0,0012%, wovon Deutschland wiederum nur 2,5% von 0,0012% verursacht, nämlich 0,000 03% – nicht meßbar.

2. Nun soll weltweit der vom Menschen verursachte CO2-Anteil von 0,0012% abgebaut werden zur Begrenzung des Temperaturanstieges auf 1,5 bis 2,0 °C.
Das würde bedeuten, dass
   12 Moleküle CO2 fähig wären, 1 000 000 Moleküle Luft von einer Temperaturerhöhung von 1,5 bis 2,0 °C abzuhalten – ein thermodynamisches Wunderwerk.

3. Zudem hat – gemessen an CO2 –  H2O den weitaus größeren Einfluß auf den sog. Treibhauseffekt
a) wegen seiner viel ausgeprägteren Absorption der terrestrischen Abstrahlung und zudem der Überlagerung mit den Absorptionslinien von CO2 (H2O und CO2 sind mehratomige Gase, die durch Infrarot-Absorption zu Schwingungen angeregt werden, deren Schwingungsenergie sie an Luftmoleküle abgeben)
b) wegen der viel höheren Konzentrationen an H2O von etwa 2% (0,6-4.3% schwankend) in unseren Breiten (Pole etwa 0%, Tropen etwa 4%) gemessen an CO2 mit 0,0012%.
c) Wasserdampf wird daher die Infrarotstrahlen bereits in den unteren Atmosphärenschichten absorbieren, so dass für CO2 wenig verbleibt.
d) Diese marginalen 0,0012% CO2 sollen zudem im Sinne des Treibhauseffektes 324 W/m2 nach der Vorstellung des IPCC aus der Atmosphäre zurück zur Erde bewegen können gegen den 2.Hauptsatz der Wärmelehre.
Bei korrekter Anwendung der hemisphärischen Sonneneinstrahlung wäre keine thermische Lücke für die Erfordernis eines Treibhauseffektes geblieben und der 2.Hauptsatz der Thermodynamik hätte nicht bemüht werden müssen. Allerdings ist dann auch ein Treibhauseffekt zum Schließen dieser thermischen Lücke nicht mehr erforderlich. (11,12)Erwartungsgemäß wird daher die Wirkung von CO2 auf den Treibhauseffekt als marginal angesehen: 4,6% (13), 5% (14) – bezogen auf den Gesamt-CO2-Gehalt, nicht auf den anthropogenen Anteil.

4. Das Konstrukt Treibhauseffekt (IPCC, Kiel und Trenberth) hält vielen wissenschaftlichen Kriterien nicht stand, ohne das hier vertiefen zu können. Einen Treibhauseffekt kann es – wie erwähnt – nicht geben. (11,12)
„Die Klimawissenschaft des IPCC basiert nicht auf Physik sondern auf Schätzungen“. (15)

Freimütig gesteht das IPCC auch, dass das komplexe Verhalten von H2O – ausgerechnet das Gas mit dem stärksten Einfluß auf den Treibhauseffekt – nicht in die Modelle eingebaut werden kann, auch nicht der beträchliche Einfluß der Wolken und Aerosole. Dennoch verbreitet das IPCC ständig neue Weltuntergangsscenarien.

Die Modelle des IPCC operieren damit ausschließlich mit einem in seiner Wirkung vernachläßigbaren anthropogenen CO2-Anteil, wobei großzügig mit dem Einbau unterschiedlicher „CO2-Klimasensitivitäten“ (Temperaturerhöhung bei Verdopplung des CO2-Gehaltes in der Atmosphäre) hantiert wird.
Zu dieser fehlende Wissenschaftlichkeit zählen dann auch z.B. Aussagen der deutschen Bundesumweltministerin vor der Klimakonferenz in Madrid zum sog. gefährlichen Temperaturanstieg in Deutschland von 1881 bis heute von 1,5°C. Es interessiert bei Unkenntnis der Faktenlage bei dieser Aussage natürlich nicht, dass sich im Jahre 1881 Europa noch in der „Kleinen Eiszeit“ befand mit Hungersnöten und vielen Toten und ausgeprägten Gletschern in den Alpen (vgl. Bild 6).

5. Schlußbetrachtung

Ungeachtet dieser Fakten ist in 2019 eine nie dagewesene Klimahysterie ausgebrochen, die vor der panischen Angst vor einem durch CO2 ausgelösten Weltuntergang alles andere verdrängt. An das Mittelalter erinnernde Sekten-artige Aufmärsche, die Ausrufung eines Klimanotstandes in deutschen Städten oder gar in der EU, beherrschen alle gesellschaftliche Gruppen. 

Der sinnlose Ausstieg aus der Kohle und die sinnlose CO2-Bepreisung wird in 2020 gesetzlich vollzogen im nationalen Alleingang bei einem Anteil Deutschlands am weltweiten anthropogenen CO2-Anteil von 0,000 03%.
Dieses nicht meßbare „CO2-Nichts“ kostet Deutschland nach einer Reihe von verschiedenen Verfassern                      6-8 Billionen €.
Damit will Deutschland der Welt zeigen, wie der CO2-Ausstoß vermindert werden kann, ohne zu wissen, dass damit die Deindustrialisierung vollzogen und der Weg ins Mittelalter geebnet wird.
Tröstlich ist da nur noch, dass alle aus der Angst entstandenen Apokalypsen der Vergangenheit nicht zugetroffen sind, so wird es auch dieser CO2-Hysterie gehen. Es ist nur zu hoffen, dass diese Erkenntnis möglichst bald einkehrt.
Wie sagte noch Horaz vor 2000 Jahren: „Sapere aude“ (wage zu verstehen, deinen Verstand zu gebrauchen).
Im religiösen Mittelalter wurde dieser Verantwortung nicht nachgekommen, Hexen wurden bei klimatischen Veränderungen verbrannt.
Bei der dann folgenden Aufklärung übersetzte Kant das „Sapere aude“ mit „Habe den Mut, dich deines Verstandes zu bedienen“.
Bei der geistigen Schaffung und Austragung dieser Energiewende zur Vermeidung einer Klimaänderung wird die Anwendung des eigenen Verstandes außer Kraft gesetzt.
Es werden heute zwar keine Menschen mehr verbrannt, aber die Energie in Deutschland wird zum Luxusgut, inzwischen sind schon 300 000 Stromsperrungen ausgesprochen worden und 4,9 Mio. Sperrandrohungen. (16)

Quellen

1. Konstaedt, L.: „CO2-Ausstoß 2019 stark gesunken? Die Glaubwürdigkeit der Medien auch“?; EIKE, 13.01.2020
2. Bericht der deutschen Übertragungsnetzbetreiber zur Leistungsbilanz 2017-2021
3. Beppler, E.: „Bevor der Planet kollabiert, versinkt Deutschland in Stomausfällen“; 02.09.2019
4. „“Klimaschutz für alle“;Bahke, R.: „Wirksamkeit von Power-to-Gas-Anlagen bewiesen“
5. Beppler, E.: „Der Kohleausstieg ist im Sinne einer Absenkung des CO2-Ausstoßes ein Flop – und nun wird auch noch der Hype um die E-Mobilität zum Flop – quo vadis Industrieland Deutschland“; EIKE, 06.05.2019
6. Schuster, R.: Mitteilung Januar 2020
7. Beppler, E.: „Energiewende zeichnet nach 10 Jahren ohne Absenkung des CO2-Ausstoßes für ein 3-stelliges Milliardengrab verantwortlich und nun soll über eine CO2-Bepreisung bei der Erfordernis einer unbezahlbaren Armada an Stromspeichern ein neues Milliardengrab gestartet werden“; EIKE,23.08 2019
8. Kuntz, H.: „Die Ökoenergie Speicherlösung ist so einfach. Es muß sie nur jemand bezahlen“; EIKE 03.02.2020
9. Schuster, R.: Mitteilung vom 06.01.2020
10. Nationale Akademie der Wissenschaften Leopoldina acatech: Schriftreihe „Energiesßstem der Zukunft“, Feb. 2016
11. Weber, U.: „Kelvin allein zu Hause: Der Unterschied zwischen 2 Watt und deren Umgebungstemperatur“; EIKE, 10 12.2019
12. Agerius, A.: https://eike.institute/wp-content/uploads/2020/02/Langversion-des-Artikels-Kritisches-Hinterfragen-des-IPCC-Basis-Modell-KT97-von-A.Agerius-2020-.pdf
13. Harde, H.: „Radiation and heat tranfer in the atmosphere: A comprehensive approach on a Molekular Basis“; 2013. (Online). Available: http:// dx .doi.org./10.1155/2013/503727
14. Schnell, M.: 13.IKEK in München 2019
15. Limburg, M.: 13.IKEK in München 2019
16. EIKE, 06.01.2020
 

 




Corona oder: welche Katastrophe hätten Sie denn gerne?

Das Problem: im Verlauf von 10 Jahren kann man vieles noch korrigieren, was nicht passt, in einer Tageshektik erfolgte Entscheidungen lassen sich nicht mehr rückgängig machen. Ein Grund für jeden, sich nicht nur vorschreiben zu lassen, was er für richtig zu halten hat, sondern (für sich) selbst eine solide Bewertung vorzunehmen. Das führt zunächst in das mediale Gewimmel.

Die mediale Schlammschlacht

Alles starrt gespannt wie die sprichwörtliche Maus auf die Schlange auf zwei täglich aktualisierte Zahlen: in medialer Darstellung die Zahl der Infizierten und die Zahl der an Covid-19 Verstorbenen (bitte auf den Zusatz mediale Darstellung achten; den brauchen wir noch). Die Mainstream-Medien sind sich einig: in einer komplizierten mathematischen Operation, zu deren Erläuterung für Abiturienten aus Bremen oder Berlin hier der Platz fehlt (also bitte glauben!), wird aus den beiden Zahlen ausgerechnet, dass sich eine Sterblichkeitsrate von 0,5 bis 7% ergibt, das sei 5-70x so hoch wie bei einer normalen Grippe-Epidemie.

Inzwischen tauchen im Internet immer mehr Stimmen von Epidemiologen, Virologen, Klinik-Chefs und sonstigen Medizinern auf, die alles für eine normale Grippeepdiemie halten und dafür plädieren, die Zwangsmaßnahmen umgehend einzustellen. Da diese Stimmen immer weniger zu ignorieren sind, schließen die Mainstreammedien ihre Reihen und befeuern die Diskussion mit den bekannten Argumenten: das seien alles Pensionäre, selbsternannte Fachleute, Verharmloser, Faktenignorierer und sowieso unseriös. Covid-19 sei so gefährlich, dass überall die Krematorien nicht mehr nachkämen mit der Beseitigung der Leichen (ein in Deutschland etwas fragwürdiges, aber sehr wirkungsvolles Bild). Informationen werden, wenn vorhanden, unter „schockierenden Bildern“ versteckt und insgesamt wird ein Bild portiert, das bei Leuten, die es nicht hinterfragen, zu dem Eindruck führt, Covid-19 operiere irgendwo zwischen Ebola und Pest. Man wird auch nicht müde, ständig neue selbsternannte Fachleute zu präsentieren, die unter eindrucksvollen grammatikalischen Verrenkungen (3. Futur Plusquamperfekt mit doppeltem Konjunktiv) Covid-19 auf Marburg-Niveau (Todesrate >90%) anzuheben.

Video Interview 23.3.20 – Professor Hockertz zu Corona: Nicht gefährlicher die früher gehabten Influenza-Viren

Aus dem Off meldet sich Stefan Rahmstorf vom PIK (Potsdam Institut für Klimafolgenforschung) zu Wort und setzt die Verharmloser mit Klimaleugnern gleich und politische Experten wie Karl „die Fliege“ Lauterbach fordern gar eine Zensur und Bestrafung der Kritik an der offiziellen Linie. Kurz: tauscht man Covid-19 gegen CO2 und Verharmloser gegen Klimaleugner aus, kann man mit ansonsten ungeändertem Text auch einer „Diskussion“ in einem anderen Themenbereich beiwohnen.

So kommt man nicht weiter. Man muss sich wohl oder übel die Daten selbst anschauen.

Normale Grippewelle oder nicht?

Covid-19 sei 5-70x so tödlich wie eine normale Influenza, heißt es unter Berufung auf das Robert-Koch-Institut (RKI). Das RKI ist so etwas wie das Umweltbundesamt, nur halt für mikroskopisch kleine Scheusale. Dessen Intervall zwar etwas kleiner ist als 5-70, aber problematisch wird es schon bei der Frage „was ist eine normale Influenza?“.

Die diesjährige Influenza-Saison wird es voraussichtlich auf etwa 250-300 Opfer bringen (aktuell laut RKI 220, aber die Saison neigt sich bereits dem Ende zu). Zumindest lassen das die tagesaktuellen Berichte des RKI vermuten. Vor 2 Jahren in der Saison 2017/18 waren es 25.000, das ist eben mal ein Faktor 100 in der Mortalitätsstatistik nur innerhalb der Influenza-Familie! 5-70 wäre im normalen Bereich, wenn man die diesjährige Saison zu Grunde legt, und für den Faktor 100 vor zwei Jahren hat sich niemand aus Politik und Medien auch nur ansatzweise interessiert.

Lassen wir das erst mal beiseite und schauen wir in die Statistik der WHO. Die weist für China bislang ca. 3.260 Todesopfer aus, wobei kaum noch welche dazu kommen. Die Lage scheint sich dort beruhigt zu haben und nach Informationen aus dem RKI beginnt China, die Produktion langsam wieder hochzufahren. Bezogen auf die Region, in der etwa 70 Mio Menschen leben, sind das etwa 10x so viele Todesopfer wie hier in der derzeitigen Influenza-Saison. Da diese aber eher sehr schwach ausfällt, kann man daraus schließen, dass Covid-19 nicht schlimmer ist als eine mittelstarke Influenza, womit die Kritiker bestätigt wären. Die europäischen Zahlen aus Italien, Frankreich und Spanien sind zwar düster, aber letztlich immer noch im Influenza-Normalbereich. Also Entwarnung?

Aber halt! In China gibt es nur ca. 81.000 Infizierte, in Italien etwa 50.000. Also doch weitaus gefährlicher? Wie passt das denn nun wirklich zusammen.

Fragen wir dazu am Besten die Fachleute vom RKI. Ich habe da einen gewissen Heimvorteil durch diverse akademische Grade (Dr.rer.nat. Und Prof.): (1) Ich kann vermutlich intelligentere Fragen stellen als der Normalbürger, (2) bekomme ich von akademischen Korrespondenzpartnern ausführlichere Antworten und (3) bin ich nicht nur in der Lage, das zu verstehen, was gesagt wird, sondern auch das, was nicht gesagt wird. Die ernüchternde Antwort vom RKI auf die Frage „was wisst Ihr noch“ lautet „ja … äh … nix“. Außer den Zahlen im WHO-Report oder von der RKI-Seite weiß man tatsächlich fast nichts, betreibt Simulationen aufgrund von plausiblen Vermutungen und Annahmen, die zutreffen können oder eben auch nicht.

Was gleich am Anfang platzt, ist die mediale Darstellungsblase. Bei der ersten Zahlen handelt es sich nicht um Infizierte, sondern die Anzahl der positiv verlaufenen Tests. Es ist nicht bekannt, wer warum überhaupt getestet wurde und wie viele Tests negativ ausgegangen sind. Mit anderen Worten: die Zahl derjenigen, die mit Covid-19 infiziert sind oder waren, liegt für Deutschland irgendwo zwischen ~21.000 positiven Testfällen und 54.000.000, das wäre der voraussichtliche „Durchseuchungsgrad“ bei dem die Epidemie nach den Modellen spätestens zum Erliegen kommt.

Wie das RKI eingesteht, kann man sich mit Covid-19  infizieren und immun werden, ohne dass man das überhaupt merkt. Die Symptome, die in leichteren Fällen nicht von anderen Erkältungskrankheiten zu unterscheiden sind, können auch völlig unterbleiben und man kann nicht sagen, ob Menschen, die sich mit Schnupfen zur Arbeit begeben haben oder vom Hausarzt mit einer Packung Paracetamol nach Hause geschickt wurden, nun Influenza, Corona oder etwas anderes hatten. Das steht völlig im Einklang mit „normaler Grippe“, die in den meisten Jahren so verläuft. Dem RKI bleibt nichts anderes übrig, als seinen Ball bei den Simulationen in den weiten Raum von 21.000 bis 54 Mio zu werfen.

Wovon alle, also auch das RKI ausgehen: das Virus kann man nicht ausrotten. Wenn wir nach China schauen, sind die 81.000 positiven Nachweise seit Wochen stabil. Was? Das kann nicht sein! Die Zahlen müssen doch exponentiell steigen. Ein Blick hinter die Kulissen zeigt, dass die Chinesen im betroffenen Gebiet mutmaßlich gar keine Tests mehr durchführen, außer an letal endenden Fällen. Getestet werden Personen, die die Region verlassen. Man will das Zeug nicht exportieren. Da China (RKI-Info) die Region langsam wieder hochfährt, deutet das darauf hin, dass dort der Sättigungsgrad bereits weitgehend erreicht ist. Auch der stabile Bodycount spricht dafür. Blöderweise muss man sich das selbst zusammen reimen, denn diese Info würden die derzeitigen Maßnahmen ebenfalls platzen lassen wie eine Seifenblase.

Wie infektiös Covid-19 ist, weiß man beim RKI ebenfalls nicht. Leute, die in Quarantäne geschickt worden sind, beobachtet man nicht weiter. Wenn sie nach 14 Tagen wieder zur Arbeit gehen, wird das nirgendwo erfasst. Es scheint allerdings wie eine normale Influenza ziemlich infektiös zu sein, wenn trotz aller auch bisher schon getroffener Vorsichtsmaßnahmen positive Testergebnisse in Regionen gefunden werden, in denen im weiten Umkreis kein einziger weiterer Fall bekannt ist. Man weiß es schlicht nicht und stellt plausible Vermutungen an, die zutreffen können oder eben auch nicht.

Ebenfalls völlig unbekannt ist die Zahl derer, die eine Infektion hinter sich haben und folglich erst einmal immun sind. Antikörper-Screenings, mit denen man das feststellen könnte, werden laut dem RKI frühestens in vielen Monaten durchgeführt.

Auch bei der Opferzahl handelt es sich nicht um die Zahl derjenigen, die an Covid-19 gestorben sind, sondern derjenigen, bei denen ein Test positiv verlaufen ist, und wenn dieser auf dem Totenbett durchgeführt wurde. Egal, was nun der Hauptgrund für den Tod war, er landet auf dem Konto von Covid-19. Als typisches Beispiel sei der nach bangem Warten medial fast schon gefeierte erste Covid-19-Tode in Brandenburg genannt. Steckbrief: 81-jähriger Mann auf der Palliativ-Station einer Klinik, also der Abteilung für baldiges humanes Sterben, wobei nicht klar ist, ob das Virus schon vor der Einlieferung im Patienten steckte oder erst in der Klinik auf ihn aufmerksam wurde. Obwohl der Patient also ohnehin in den nächsten Tagen gestorben wäre, wird er vom RKI nach eigenem Bekunden und ohne Bedenken Covid-19 aufs Konto geschrieben (vermutlich freut sich jetzt irgendeine Krebsart über eine bessere Statistik) und der Landrat hält sich nicht lange zurück, trotz des fehlenden Sachbezugs die „Schutzmaßnahmen“ zu verschärfen.

Man muss sich das wirklich noch einmal klar machen: das RKI gibt freimütig genau das zu, was die Verharmloser ihm vorwerfen: ohne Covid-19-Test und diese spezielle Art der Verbuchung würden sehr viele Todesfälle unter einem anderen Etikett verbucht werden. Das RKI kann allerdings auch nicht anders, wie man zugestehen muss, denn über die Todesumstände weiß es, ebenfalls nach eigenem Bekunden, nichts außer eben dem positiven Befund. Natürlich wird man der Sache genauer auf den Grund gehen, aber aus verschiedenen Gründen auch erst in vielen Monaten, wenn sich der Rauch verzogen hat.

Bleibt noch die Sache mit den „rauchenden Krematorien“ zu klären, die in den Medien hochgespielt werden. Auch davon bleibt nicht viel übrig. Covid-19 ist offiziell als Seuche eingestuft und da entfällt bei Verstorbenen die Aufbahrung und der feierliche Vorbeimarsch am offenen Sarg. Aus guten Gründen werden die Leichen verbrannt, weil man nur dann sicher sein kann, dass der kleine Bösewicht auch tot. Einige tausend Leichen, die normalerweise in einem Sarg beerdigt worden wären, nun aber im Krematorium landen, führen natürlich zu einem erhöhten Aufkommen.

Fassen wir zusammen: wenn man die wenigen bekannten Fakten, die Vielzahl der völlig unbekannten Daten und ein paar plausible Überlegungen, die auch beim RKI neben anderen angestellt werden, in einen logischen Zusammenhang stellt, komme zumindest ich zu dem Schluss: bei Covid-19 handelt es sich mit hoher Wahrscheinlichkeit um eine normale Grippeepidemie. Wenn es aber eine „normale Grippe“ war, warum waren dann die Chinesen so erschreckt und haben so drastische Maßnahmen ergriffen?

Gründe für die Panik

An der Stelle verlassen wir die Datensammlung des RKI, denn da wird man zunächst nicht weiter fündig, und schauen wieder nach China. Während Influenza eher unspezifisch zuschlägt, hat Corona eine sehr hohe Affinität zur Lunge, also einem sehr empfindlichen Organ. Durch ständiges Ein- und Ausatmen, von niemandem bezweifelt eine sehr nützliche Angewohnheit des Körpers, wenn er sein Überleben sichern will, gelangen nicht nur jede Menge Stoffe in die Lunge, die dort Schäden verursachen können, sondern auch jede Menge anderer Keime, die Krankheiten auslösen. Hat der Körper bereits ein Problem, sich gegen das Virus zu wehren, wird es noch schwerer, wenn eine Horde Pneumokokken die Gelegenheit ergreift und ebenfalls über das Opfer her fällt, und umgekehrt gilt das natürlich auch, wenn Covid-19 auf eine bestehende leichte Lungenentzündung trifft. Diese Sekundärinfektionen, die sich viele Patienten erst im Krankenhaus einfangen, weil das ein idealer Platz zum Lauern für die Burschen ist, haben ihren Anteil am Aufwand einer Behandlung und auch an einem relativ schnellen Ableben (was nebenbei bemerkt über Jahrhunderte der normale Tod war, aber anscheinend ist da die Nostalgie bei gewissen Publikumskreisen weniger ausgeprägt).

Da liegt das Problem mit Covid-19 gegenüber Influenza: obwohl nach unseren vorhergehenden Betrachtungen kaum schlimmer als eine Influenza-Epidemie ist bei ähnlich vielen schweren Fällen der Anteil der Patienten, die eine intensive Apparatemedizin benötigen, anscheinend sehr viel höher. Da die Ressourcen begrenzt sind, kommt das Gesundheitssystem schneller an die Kapazitätsgrenze. Auch darüber weiß das RKI derzeit anscheinend recht wenig. Es ist zwar halbwegs bekannt, wie viele Patienten schließlich in einer Klinik landen, aber wie viele nun aus welchen Gründen auf der Intensivstation ist vorläufig völlig unbekannt (wir werden die Fragen in einigen Monaten klären).

Das scheint der Grund für die Heftigkeit der chinesischen Reaktion gewesen zu sein: hauptsächlich durch räumliche Eindämmung genügend Ressourcen für die Apparatemedizin zu schaffen (behalten Sie das Wort „räumlich“ im Hinterkopf; natürlich spielt auch eine zeitliche Streckung eine Rolle, aber vermutlich nur untergeordnet).

Zudem hat das Virus noch eine andere unangenehme Eigenschaft: es behindert gewisse Signalbahnen des Immunsystems. Bei jungen und gesunden Menschen macht das nicht viel aus, weil deren Immunsystem spielend damit fertig wird, aber mit zunehmenden Alter wird auch das Immunsystem schwächer, weshalb das Virus besonders bei älteren Menschen seine hässliche Wirkung entfalten kann (wenn einzelne junge Menschen wie der chinesische Arzt, der auf das Virus aufmerksam gemacht hat, ihm trotzdem zum Opfer fallen, ist das normal und nicht außergewöhnlich, lässt sich aber blendend medial auschlachten). Aber auch das genügt nicht, wie inzwischen aus den italienischen Statistiken hervorgeht: mindestens eine medizinische Vorschädigung ist hilfreich für den vorzeitigen Tod, zwei oder drei noch besser. Auch für gesunde alte Menschen ohne Vorschädigung ist die Gefahr relativ überschaubar, wie inzwischen auch in den Mainstreammedien erscheinende italienische Statistiken zeigen. Nur wird die Wahrscheinlichkeit, auf solche zu stoßen, bei zunehmendem Alter geringer; normal für viele Ältere ist eher, dass 30% der täglichen Nahrung aus Medikamenten besteht und sie damit zum idealen Opfer werden.

Es gibt also anscheinend eine bevorzugte und halbwegs gut definierbare Zielgruppe für Covid-19. Das könnte man bei Maßnahmen natürlich berücksichtigen. Beim RKI prüft man inzwischen, ob die Erkenntnisse statistisch überhaupt signifikant sind (und wird in einigen Monaten sicher zu irgendeinem Ergebnis kommen; Anmerkung des Verfassers).

Nebenbei bemerkt: In Richtung Behandlung von Erkrankten haben die Chinesen ebenfalls inzwischen weiter gedacht. Wenn das Virus einen Botenstoff im Immunsystem hemmt, führen wir ihn eben per Spritze zu. Gesagt, getan. In China wird nach einigen Berichten der Flurfunkmedien erfolgreich mit Interferon (und auch anderen Substanzen) behandelt, was allerdings gute ärztliche Überwachung verlangt, damit das Immunsystem nicht übertreibt. Passende Intereferonpräparate gibt es – man lese und staune – bei den Kubanern. Hier beobachtet man natürlich zunächst die Statistik und stellt Überlegungen über Zulassungsverfahren sowie die politischen Implikationen an, wenn man sich bei einem Land bedient, das US-Sanktionen unterliegt. Aber zumindest ist in Italien jetzt einer Gruppe kubanischer Ärzte zur Unterstützung eingetroffen.

Italien und Deutschland

In Italien gibt es bislang über 4.000 Tote, in Deutschlandist die Zahl langsam über 70 geklettert und auch aus anderen Ländern liegen eigenartig abweichende Bodycounts vor (die Fallzahlen muss man aus den genannten Gründen hier ausblenden). Woran könnte das liegen? Sind Italiener empfindlicher als Deutsche?

Antworten lassen sich relativ schnell finden, d.h. zumindest die Verharmlosergruppe hat sie parat, wobei der Widerspruch dieses Mal großenteils ausbleibt. Der Bodycount in den verschiedenen Ländern lässt sich zum Einen recht gut mit dem Grad der Luftverschmutzung korrelieren. In Italien ist die Luftverschmutzung im Schnitt deutlich höher als in Deutschland und damit die allgemeine Lungenschädigung intensiver, besonders wenn man die Luft schon 60-90 Jahre einatmet. Ähnliches gilt für China. Man muss zugeben, dass das zunächst eine Arbeitshypothese ist, aber die Korrelation ist nicht zu übersehen.

Hinzu kommt zum Anderen, dass das italienische Gesundheitssystem noch maroder ist als unseres und deutlich mehr Keime resistent sind gegen Antibiotika. Kommt zu Covid-19 eine Sekundärinfektion hinzu (oder umgekehrt), ist es für die Mediziner ungleich schwerer, solche Leute erfolgreich zu behandeln. Alles zusammen ergibt eine Mischung, die mutmaßlich zu diesen doch sehr drastischen Unterschieden beim Bodycount führt. Aber das letzte Wort wird auch hier erst in vielen Monaten gesprochen, wenn die Jungs vom RKI Zeit finden, sich intensiver damit zu beschäftigen.

Der Shutdown der EU

Natürlich möchte man die chinesischen Erfahrungen, dass das Gesundheitssystem aus sehr spezifischen Gründen apparatemedizinisch überlastet wird, hier nicht wiederholen. Ob man hier auf einen Überlastungszustand hinsteuert, ist nicht eindeutig feststellbar. Die Medien liefern einerseits Schockberichte aus Norditalien und Madrid, andererseits stellen sowohl italienische als auch deutsche Klinikchefs – äh, ich meine natürlich Verharmloser in Interviews klar, dass keine Engpässe vorhanden sind. Wer hat nun Recht? Ich würde auf die Klinikchefs tippen, weil man als Mediziner im Gegensatz zum Mainstreamjournalist zumindest zählen können muss, aber das darf jeder anders sehen.

Halten wir fest: es dreht sich derzeit in Deutschland um ca. 70 Tote, Endbilanz unbekannt, Prozentsatz der Intensivbehandlungen unbekannt, bei ca. 950.000 Todesfällen insgesamt, die in Deutschland pro Jahr ohnehin eintreten. Welcher Aufwand ist verhältnismäßig bei einer mit hoher Wahrscheinlichkeit eher normalen Grippeepidemie mit gut definierter Risikogruppe und höherem apparatemedizinisch notwendigem Aufwand?

Der einfachste Weg ist, den chinesischen Shutdown der Region Wuhan zu kopieren. Man kann dem RKI keinen Vorwurf machen, wenn es aus epidemiologischer Sicht ebenfalls einen Shutdown vorschlägt, um auf der sicheren Seite zu sein. Wobei man beim RKI den Unterschied zu China schon richtig verstanden hat: liegt die chinesische Absicht vorzugsweise in einer räumlichen Begrenzung (s.o.), liegt die deutsche Absicht in einer zeitlichen Dehnung. Die medizinische Versorgbarkeit soll dadurch gewährleistet werden, dass die Infektionsrate so langsam fortschreitet, dass nie zu viele aus der Risikogruppe ernsthaft erkranken. Wobei die Verlangsamung bislang anscheinend nur bedingt notwendig ist, alternative Maßnahmen zum Schutz der Risikogruppe aber nicht in Betracht gezogen werden, zumindest nicht öffentlich und auch nicht in den RKI-Emails an mich.

Zwischen RKI und Realität hat die Verfassung die Politik gesetzt, und die müsste nun auch andere Gesichtspunkte als die epidemiologischen ins Kalkül ziehen. Die EU mit Deutschland mitten drin ist nämlich nicht China. Mit der räumlichen Isolation in China waren ca. 70 Mio Menschen vom Shutdown betroffen, China besitzt aber ein Backup-System von weiteren 930 Mio Menschen, die das betroffene Gebiet versorgen und Hilfe beim Wiederhochfahren leisten können, was jetzt offenbar bereits geschieht. In der EU sind mit der Strategie der zeitlichen Verzögerung fast 400 Mio Menschen über einen strategisch bedingten sehr viel längeren Zeitraum betroffen, wobei hier keinerlei Backupsystem vorhanden ist, weil der Shutdown nahezu EU-weit erfolgt. Die großen Motoren der EU – Deutschland, Frankreich, Italien, Spanien – werden abgeschaltet.

Wobei in Deutschland die Hauptabschaltung noch folgt. Anscheinend plant die Merkel-Administration eine bundesweite absolute Ausgangssperre, Besuchs- und Versammlungsverbot außerhalb des engen Familienkreises, Zwangsschließung aller Geschäfte außer Supermärkten. Man muss sich klarmachen, dass so mancher Knastinsasse mehr Freiheiten genießt als das, was auf den Normalbürger zukommt. Und das aus nicht vorhandenen Gründen, wie wir festgestellt haben. Und das obendrein als Open-End-Version. Null soziale Kontakte über 3, 4, 5 Monate, vielleicht sogar über Jahre. Ausgeschlossen wird selbst das von der Politik nicht.

Dabei ist wieder alles hervorragend organisiert. „Niemand wird zurückgelassen“ war von der GröKaZ zu hören, wobei in Deutschland ca. 1,5 Mio Menschen den Namen Niemand besitzen und zurückgelassen werden. Das sind die ca. 1,5 Mio Menschen, die auf die Tafeln angewiesen sind. Die Tafelmitarbeiter, i.d.R. Ehrenamtliche aus der Risikogruppe, bleiben zu Hause und die Tafeln geschlossen, zumal die Supermarktketten derzeit ohnehin nichts abzugeben haben. Wie diese Leute jetzt überleben sollen, scheint niemanden zu interessieren.

Unternehmen sollen von der KfW Hilfen bekommen, wenn sie schließen müssen, doch Unternehmen, die das wollen, erfahren von ihrer Hausbank, dass keine weiß, wie das geht. Vermutlich in einigen Monaten, wenn wir an der Stelle mal die Ansagen des RKI reproduzieren.

Quarantäne verhängen? Kein Problem. Um die Versorgung mit Nahrungsmitteln und um Haustiere soll sich der Betroffene aber selbst kümmern. Mit Hilfe der Nachbarn versteht sich. Denen wird aber gerade verboten, sich mit den Nachbarn zu treffen und etwas zu organisieren. Zwar müssten Behörden zumindest Ansprechpartner vermitteln können, geben aber auch der Mainstreampresse gegenüber zu, dass sie dazu nicht in der Lage sind. Derweil schalten ohnehin immer mehr Behörden in den Selbstverwaltungsmodus: Publikumsverkehr stark reduziert bis ausgesetzt, obwohl absehbar mehr Bedarf besteht.

Die Folgen der Shutdowns

Natürlich ist auch der chinesische Geschäftsmann nach einigen Wochen Shutdown pleite, aber das riesige chinesische Backupsystem ermöglicht Hilfen in nahezu jeder Größenordnung. China kann in kurzer Zeit wieder durchstarten.

Hier sieht das anders aus. Ob sich die Infektion exponentiell verbreitet, weiß niemand, aber jedem Wirtschaftsfachmann ist klar, dass mit jedem Tag die Zahl der Arbeitslosen exponentiell steigt. Den kleinen Unternehmen bleibt gar nichts anderes übrig, da die Kosten weiter laufen, und die mittleren und großen werden nachziehen, sobald die Tarifverträge das zulassen. Es ist genauso klar, dass mit jedem Tag der verordneten Zwangsschließung die Anzahl der Betriebe, die nicht wieder öffnen werden, ebenfalls exponentiell ansteigt. Wenn der Shutdown länger anhält, werden ganze Branchen mehr oder weniger komplett verschwinden. Nicht (nur) meine Ansage, auch die von Wirtschaftsfachleuten.

Selbst die, die wieder öffnen, werden Probleme haben, denn mit dem Übergang in die Arbeitslosigkeit fallen auch zahlungskräftige Kunden fort. Vieles wird ins Internet verlagert werden, was Amazon oder ebay nützt, denn dort ist vieles günstiger und die Kunden gewöhnen sich daran, dort zu bestellen als nach geöffneten Geschäften zu suchen. Wenn die Internetkäufe zunehmen, wird es aber auch für die Lieferdienste eng. Amazon Prime liefert dann wohl nicht mehr am nächsten Tag, sondern in der nächsten Woche.

Das Aussetzen der sozialen Kontakte zerstört obendrein die Gesellschaft und fördert das Clansystem. Wenn Aldi, Lidl, Rewe und andere Supermärkte damit anfangen, Kunden nur noch einzeln ins Geschäft zu lassen und sich Schlangen vor den Geschäften und an den Kassen bilden – mindestens 1,5 m Abstand! – werden nach Erfahrungen mit der menschlichen Psyche Schlägereien an der Tagesordnung sein. Fallweise wird bereits jetzt nach einer Woche über so etwas berichtet. Läuft das im größeren Stil an, wird entgegen dem martialischen Geschrei aus den Politikzentralen die Polizei dem höchstwahrscheinlich nicht mehr gewachsen sein. Auf die Bundeswehr wird man kaum zählen können, auch wenn Kramp-Karrenbauer 75.000 Reservisten einziehen will. Auch die Ausgangssperren werden sich allenfalls kurz durchsetzen lassen. Die Fridays-4-Future-Jugend und die Bewohner nicht biodeutscher Stadtviertel sind zu sehr gewohnt, auf die Staatsgewalt zu pfeifen, um sich lange aufhalten zu lassen.

Sind das jetzt genauso überzogene Horrorszenarien, wie sie uns die Mainstreammedien präsentieren? Überlegen Sie an dieser Stelle einmal, wie die menschliche Psyche funktioniert und was für Zustände sich anderswo entwickeln, wenn die Bevölkerung unter einen derartigen Druck gesetzt wird. Oder fragen Sie Ihren Therapeuten, falls Sie den noch besuchen dürfen.

Möglicherweise könnte aber schon früher Schluss sein. Durch den ganzen Wirrwarr ist nämlich bereits jetzt die Logistik behindert bis blockiert. Polnische LKWs und deren Fahrer bleiben in Polen und die Lager der Supermärkte sind begrenzt, da auch im Nahrungsmittelbereich die Just-in-Time-Strategie bei freien Grenzen zählt. Noch laufende Transporte kleckern derzeit mit Zeitverzögerungen über die Grenzen. Wer nach Anzeichen sucht, wie es mit der Lieferkette steht, dem sei empfohlen, Frischwaren und Tiefkühlkosttruhen im Supermarkt zu beobachten. Tiefkühlkost kann man nämlich im Gegensatz zu vielem anderen nicht hamstern. In den Truhen ist nur begrenzt Platz und meist sind sie ohnehin voll. Werden die Auslagen in den Truhen der Supermärkte geringer, könnte das auf das Zusammenbrechen der Lieferketten hinweisen. Da staatlicherseits außer der Verbreitung von pompösen Latrinenparolen absolut nichts organisiert ist, sind sicher auch die Lieferketten der Supermärkte nicht organisiert. Bricht die Versorgung zusammen, ist es aber schnell Schluss mit der Disziplin. Wenn die Menschen nichts mehr zu verlieren haben, verlieren sie auch die letzten Hemmungen.

————————-

Fassen wir zusammen:

  • Es gibt keinen rationalen Grund, aus den verfügbaren Daten auf etwas anderes als einen normalen Grippe-Epidemie-Verlauf zu schließen.
  • Es gibt einen rationalen Grund, davon auszugehen, dass die Covid-19-Epidemie die Kapazität der Intensivmedizin schneller an ihre Grenzen bringt.
  • Es gibt in Deutschland seitens der Kliniken aber noch keine Signale, dass die Grenzen bereits erreicht sind oder man kurz davor steht.
  • Nach den verfügbaren Daten ist die Hochrisikogruppe älterer, bereits erkrankter Menschen gut definierbar.
  • Es sind wesentlich mildere Maßnahmen denkbar, die Hochrisikogruppe so zu schützen, dass es zu keinerlei Engpässen kommen wird.
  • Die ergriffenen Maßnahmen führen mit großer Wahrscheinlichkeit in eine wirtschaftliche und gesellschaftliche Katastrophe, die selbst eine schlimmen Epidemieverlauf in den Schatten stellen dürfte.

Eigentlich sollte man erwarten, dass wenigstens einige Politiker auch so weit logisch denken können. Doch derzeit haben die Hardliner Oberhand und bei aller Dramatik ist es irgendwie faszinierend, wie stumpf trotzdem fast die gesamte Bevölkerung bereitwillig in diese Richtung marschieren. Zumal es in der Geschichte das eine oder andere Vorbild gibt, wo solcher Aktionismus hinführt. Wie hat jedoch einmal jemand sehr korrekt bemerkt: „Das Einzige, was man aus der Geschichte lernen kann, ist, dass niemand aus der Geschichte lernt“.

 

Der Autor, Jahrgang 1952 und damit der primären Zielgruppe des Virus zuzurechnen, ist promovierter Chemiker und hat 20 Jahre lang eine Informatik-Professur inne gehabt. Seine Arbeitsgebiete waren Bereiche der Hardcore-Informatik, d.h. Mathematik, Numerik, Kryptologie, Computergrafik, Quanteninformatik und Parallelcomputing.

 




„Klimahysterie – Strahlenhysterie“

Ich konnte meinen Vortrag nicht zu Ende führen, es fehlte mir die Zeit zur Behandlung von Tschernobyl und der nuklearen Abrüstung. Daher habe ich aus meinem Vortrag einen 9-seitigen schriftlichen Bericht gemacht, der unten zur beliebigen Verwendung als pdf-Datei angefügt ist.

Das wichtigste hier in kurzen Worten:

Klimahysterie

Wer CO2 sagt, ist schon auf die Demagogie herein gefallen, denn der Wasserkreislauf bestimmt das Wetter und damit alle Klimate an allen Stellen der Erde. Dabei wird alles gesteuert von der Sonne. CO2 hat keinen Einfluß auf die Wettervorgänge in der Atmosphäre.

Die Strahlungsvorgänge in der Atmosphäre werden bestimmt von den beiden Molekülen mit Dipolmoment, und das sind H2O und CO2. In einem beliebigen Volumen Luft etwa 50-mal so viele H2O-Moleküle wie CO2-Moleküle, was ein Ingenieur in der Regel nachprüfen kann (erfordert eine Taupunkttabelle und Berücksichtigung der Molekulargewichte). Da H2O überwiegt, ist es das bestimmende Molekül in der Atmosphäre. Und wenn sich die CO2-Konzentration verdoppeln würde, dann macht das von der Anzahl der bestimmenden Moleküle gerade eine Zunahme von 2% auf 4% aus.

Das Wetter und damit das Klima wird gesteuert von der Sonne, wie allseits bekannt ist: Die Variationen zwischen Tag und Nacht; Sommer und Winter; Eiszeit und Warmzeit bestimmt die Sonne.

 

Fukushima

Fukushima war keine radiologische Katastrophe, sondern es war eine soziale Katastrophe. Der Unfall zerstörte ein technisches Gerät, brachte aber keine Schädigung der Menschen durch die Strahlung. Nur die Evakuierungen hatten mehr als 1000 tödliche Strahlen“schutz“opfer zur Folge. Viel wichtiger als der Strahlenschutz wäre daher ein Schutz vor den Strahlenschützern.

Das Kernkraftwerk in Fukushima direkt an der durch Tsunamis bedrohten Küste war nicht gegen hohe Wellen geschützt, daher musste irgendwann das Unglück kommen. Das Kraftwerk wurde von der Flutwelle unter Wasser gesetzt. Die zuvor vom Erdbeben schon abgeschalteten Reaktoren wurde nicht mehr gekühlt. Der Druck in den Reaktoren stieg auf ein gefährliches Maß an, so daß Druck abgelassen werden mußte und damit Radioaktivität ins Freie gelangte. Es gab Wasserstoffexplosionen – es gab keine nuklearen Explosionen.

Die freigesetzte Radioaktivität war so gering, daß niemand dadurch zu Schaden kommen konnte. Dennoch verlangte das Gesetz die Evakuierung der Bevölkerung in der Umgebung. Und es wurden sogar die Altersheime und Krankenhäuser evakuiert. Nach anfänglichem Zögern wurden auch die Intensivpatienten abtransportiert, etwa 50 Intensivpatienten starben daran. Dieses war per Gesetz befohlener Übergang vom Leben zum Tod für unschuldige Japaner.

Die Unsinnigkeit der Strahlenschutzgesetzgebung wird an vier Beispielen gezeigt: Es gelten im Umgang mit Kernbrennstoffen Grenzen, die unter viel Aufwand eingehalten werden müssen. Im Flugverkehr gelten diese Grenzen NICHT, sie werden täglich von Millionen Menschen auf der Erde überschritten. Im medizinischen Bereich zeigen sich Heileffekte durch alpha-Strahlung des Edelgases Radon im ähnlichen Dosisbereich.

Die Strahlenschutzgesetzgebung sollte dringend korrigiert werden, denn durch sie wird keine reale Gefahr abgewehrt. Diese Forderung wurde bereits weltweit von unzähligen Wissenschaftlern in mehreren 1000 Veröffentlichungen begründet.

In Deutschland wird dieses ignoriert, es geht sogar den entgegengesetzten Weg, denn es verschärft die unsinnige Strahlenschutzgesetzgebung.

 

Wie konnte zu der als falsch kritisierten Strahlenschutzgesetzgebung kommen?

Jede noch so kleine Dosis ist schädlich und daher zu vermeiden.   (§28 StrlSchV1989)

Bei den Überlebenden der Kernwaffenexplosionen von Hiroshima und Nagasaki hat sich eine Zunahme des Krebsrisikos ab etwa der Dosis 0,5 Sievert gezeigt. Mit dem Vorsorgeprinzip wurde angenommen, daß ein bei hoher Dosis nachgewiesenes Risiko auch bei jeder noch so kleinen Dosis existieren würde (Konjunktiv!). Eine einfache Modellvorstellung – jedes Strahlenteilchen KANN Krebs erzeugen – hat diesen Annahme plausibel gemacht.

Der Fehler dieser Modellvorstellung wird ersichtlich, wenn man sie auf andere Stoffe überträgt, zum Beispiel das allseits beliebte Gift und Kanzerogen Ethanol: Die Flasche Schnaps in Minuten hinunter gekippt ist schädlich und kann tödlich sein. Bei Verteilung der gleichen Dosis des Giftes in kleinen Portionen über lange Zeit gibt es keinen Schaden, eher eine kleine biopositive Wirkung.

Mit der Modellvorstellung, daß jedes Strahlenteilchen Krebs erzeugen kann, werden gern virtuelle Strahlenopfer berechnet. Das Wort „virtuell“ bedeutet so viel wie „das gibt es nicht“. Strahlenopfer, die es nicht gibt, sind wie Gespenster. So wird es auch von Mitgliedern der International Commission on Radiological Protection (ICRP) benannt. In Deutschland kann man virtuelle Opfer auch relotiusierte Opfer nennen.

Nur Deutschland steigt nach dem Unfall in Fukushima aus Angst vor solchen Gespenstern aus seiner Stromversorgung aus.

 

Tschernobyl

Hätte man die Helfer der ersten Stunde nach dem Unfall mit Strahlungsmeßgeräten versehen, bzw. nicht in die Bereiche mit hoher Strahlung geschickt, dann wären sie nicht durch zu viel Strahlung erkrankt und es hätte auch keine Todesopfer durch Strahlung gegeben.

Auch in Tschernobyl gab es mehr Evakuierungsopfer als Strahlenopfer.

Der Tschernobyl-Reaktor ist von gänzlich anderer Bauart als alle anderen Reaktoren der Welt. Er wurde erfunden, um in der Anfangszeit der 1940-er und 1950-er Waffen-Plutonium zu erzeugen. Auch in den USA gab es solche Reaktoren, aber sie wurden bald wieder still gelegt, weil man deren gefährliches Verhalten erkannt hatte. In der Sowjetunion wurden diese Reaktoren zur Stromerzeugung optimiert und sicher betrieben, das geschieht auch heute noch.

Mit dem Reaktor am Standort Tschernobyl hatte man ein Experiment gemacht, daß auf unvorhergesehene Weise fehlschlug. Viele Warnsignale wurden mißachtet, dann kam es zu einer Leistungsexkursion und zur Zerstörung des Reaktors.

Die Reaktionen in Tschernobyl mit Evakuierung der Bevölkerung in der „Todeszone“ kann man nur hysterisch nennen, sie waren die Folge von unsinniger Strahlenschutzgesetzgebung. Das Zuschütten des Reaktors und der Bau eines 1-sten Sarkophags waren gut und ausreichend, der 2-te Sarkophag war eine Folge der europaweiten Strahlenangst.

Heute ist Tschernobyl ein Touristenmagnet geworden, dort erleben die Touristen mit tickenden Geigerzählern an bestimmten hot-spots ein Erschaudern mit Gänsehaut, so wie es die Kinder im Mittelalter beim Vorlesen der Geschichte von bösen Wolf und den sieben Geißlein erfuhren.

 

Nukleare Abrüstung von 34 t Waffen-Plutonium

Die Strahlenhysterie führt zu immer neuen Auflagen durch die Politik und hat inzwischen in den USA die Abrüstung von 34 Tonnen Waffen-Plutonium zum Erliegen gebracht. Hoffen wir, dass dieses Material gut bewacht wird und niemals in falsche Hände gerät — das wäre eine wirkliche Gefahr, mehr als 1000-fach größer als die friedliche Nutzung der Kerntechnik.

Zwischen Gorbatschow und Reagan wurde vor langer Zeit die Abrüstung eines Teiles der nuklearen Sprengköpfe aus der Zeit der Ost-West-Konfrontation im Kalten Krieg vereinbart. Das Waffen-Uran ist inzwischen durch Einsatz in Kernkraftwerken zur Stromerzeugung benutzt worden und also verschwunden.

Es ist noch die vereinbarte Abrüstung eines Teiles des Waffen-Plutoniums zu bewerkstelligen. In Rußland kann dieses Material in Schnellen Reaktoren nützliche Dienste leisten und so verschwinden. Probleme bleiben in den USA, denn dort wurden viele Aktivitäten im nuklearen Bereich unter der Präsidentschaft des Demokraten Jimmy Carter zum Erliegen gebracht. Deutschland hätte helfen können, aber auch bei uns hat grüne Angst-Politik Hindernissen geschaffen.

Jetzt hat die Strahlenhysterie mit ihren immer weiter getriebenen Vorschriften die nukleare Abrüstung zum Erliegen gebracht – ein Skandal, für den sich niemand zu interessieren scheint.

 

Durch ein Dauerfeuer gegen ionisierende Strahlung wurde in vielen Jahrzehnten eine Strahlenangst erzeugt, die heute katastrophale Ergebnisse zeitigt. Es wurden Gesetze geschaffen, die falsch sind. Besonders in Deutschland ist das der Fall.

Unsere Medien sind nicht bereit, dagegen vorzugehen, obwohl sie die Macht hätten. Sie gehorchen der falschen Politik. Es werden nur noch „Experten“ gehört, die Fachleute werden ignoriert. Allein private Vereine wie EIKE und einige andere mit ihren Internetseiten bieten sachliche Information.

Bitte, lesen Sie die unten angefügte ausführlichere 9-seitige pdf-Datei.Vortrag Klimahysterie – Strahlenhysterie EIKE-Tagung 2019




Es gibt sie wirklich: Die Mega-EEG-Batteriesimulation

Nachfolgend wird eine solche Graphik für den Zeitraum 10. bis 20. März 2020 dargestellt:

Abbildung: Screenshot (20.03.2020) von https://www.smard.de/home

Wenn man in der obigen Abbildung die rote Verbrauchslinie mit der Summe der Stromerzeugung vergleicht, dann ist die Übereinstimmung zwischen beiden sehr gering. Das wiederum drückt sich in einem erratischen Verlauf beim Strom-Import- und -Export für Deutschland aus, der auf SMARD ebenfalls abgerufen werden kann:

Abbildung: Screenshot (20.03.2020) von https://www.smard.de/home („0“-Linie rot herausgehoben)

Im Zeitraum vom 10. bis 20. März 2020 ergeben sich danach die nachfolgend dargestellten Extreme im kommerziellen Strom-Außenhandel. Das Maximum im deutschen Erzeugungsüberschuss fällt auf den 15. März 2020 mit einem Stromexport von knapp 15 Gigawattstunden (GWh) um 8.00 Uhr:

Abbildung: Screenshot (20.03.2020) von https://www.smard.de/home

Und am 14. März 2020 mussten um 4.00 Uhr morgens knapp 9 GWh Strom importiert werden:

Abbildung: Screenshot (20.03.2020) von https://www.smard.de/home

Es darf nicht zu viel und nicht zu wenig Erzeugungsleistung im Netz vorhanden sein, um die Netzfrequenz bei 50 Hertz stabil halten zu können. Stromerzeugung und -verbrauch müssen sich also jederzeit die Waage halten, um einen Blackout zu vermeiden. Das Problem bei Just-in-Time Produkten wie elektrischem Strom ist nun, dass sowohl die Käufer als auch die Verkäufer diesen zwingenden zeitlichen Zusammenhang kennen, wenn man kaufen oder verkaufen muss. Man zahlt deshalb bei jedem unnötigen Handel drauf, egal, ob man gezwungen ist, dringend erforderlichen zusätzlichen Strom zu kaufen oder zufällig erzeugten „unverbrauchbaren“ Strom zu verkaufen.

Unsere Nachbarländer simulieren also eine riesige kostenpflichtige Mega-EEG-Batterie, an die wir unseren Strom billig verkaufen oder für dessen Abnahme sogar noch zuzahlen, und von der wir dann umgekehrt Strom teuer zukaufen können, wenn Wind und Sonne plötzlich schlappmachen.

Das ist kein wirklich nachhaltiges und zukunftweisendes Geschäftsmodell für die sichere und kostengünstige Stromversorgung einer Industrienation…




Wenn der Elefant aus Angst vor der Katze die Klippe hinunterspringt

Seit 29 Jahren bin ich Arzt und begleite seitdem sterbende, meist ältere Menschen. Anfangs in Krankenhäusern später als Hausarzt. Viele kannte ich seit Jahren. Bitte bedenken Sie dies, falls sie im ersten Moment die folgenden Zeilen als herzlos empfinden. Sie sind es nicht. Wenn man nur die Wahl zwischen zwei unschönen Möglichkeiten hat, dann ist Emotionalität oder Moralismus ein schlechter Ratgeber. Vernunft dagegen hilft bei einer solch scheußlichen Wahl, die zu treffen, die am wenigsten Schaden anrichten wird. Das nennt man auch Verantwortungsethik.

Extremmeinungen dominieren

Die Corona-Diskussion wird derzeit von Extremen bestimmt. Einerseits von frühen Warnern, wie die inzwischen bekannten Virologen oder auch in dieser Sache gut recherchierende Blogs wie sciencefiles.org. Sie haben, vollkommen richtig, früh auf die gefährliche Pandemie hingewiesen und darauf, dass wir dafür schlecht gerüstet sind. Andererseits von Stimmen wie die des Lungenarztes und Politikers Wolfgang Wodarg, es handele sich um eine rein ökonomisch motivierte Täuschung.

Einfügung der Redaktion: Prof. Dr. med. Sucharit Bhakdi – Einschätzung eines unabhängigen, anerkannten Experten: „Das was beschlossen wurde ist eigentlich sinnlos; 99 % haben keine bis geringe Symptome“ Und: Frage: Was halten Sie denn von den Maßnahmen? Antwort: Ich halte sie für grotesk, überfordernd und direkt gefährlich!“

Nun weiß ich, und ich habe das in einem Buch 2012 publiziert, dass die Schweinegrippe Pandemie 2009 tatsächlich so etwas wie eine rein ökonomisch motivierte Aufführung war, bei der auch das Robert-Koch-Institut keine rühmliche Rolle spielte. Doch Wodarg kann die jetzige Situation in Italien und jetzt im Elsass damit nicht schlüssig erklären. Wir müssen davon ausgehen, dass das Coronavirus, oder genauer Covid-19, eine neue gefährliche Erkrankung ist und keine Erfindung.

Die Warner lagen also richtig in der Voraussage der Pandemie. Sie schlugen frühzeitig auch Maßnahmen vor, die Ausbreitung des neuen Virus zu verhindern. Singapur gelang dies beispielsweise durch frühe Testung und Kontaktortung. Wie erfolgreich solche Maßnahmen bei einem, von einem Wildtier übertragenen, hochansteckenden Virus auf lange Sicht tatsächlich sind und ob sich solche Maßnahmen mit einer freiheitlichen Demokratie vertragen, ist sicher Gegenstand einer späteren Diskussion, wenn die Krise überstanden ist. Doch diese Fragen sind im Moment nicht relevant, denn das Virus hat sich verbreitet und ist nicht mehr zu stoppen.

Die Warner liegen aber aller Voraussicht nach falsch mit der Forderung nach einer umfassenden sozialen Eindämmung, welches der Blockierung des öffentlichen Lebens gleichkommt. Durch Horrorszenarien und hochemotionale Berichte, die nicht in einem faktenbasierten Gesamtkontext eingebettet sind, treiben sie, in Verbund mit den dankbaren Medien, Politiker zu irrationalen Handlungen, die wahrscheinlich in der Nachbetrachtung mehr Schaden angerichtet haben werden als Covid-19 selbst.

<center

Einfügung der Redaktion: Dr. Claus Köhnlein (Kiel) zum Thema Corona – Virus

daraus:

Minute 1.00 ..dass dieser Test sehr unzuverlässig ist. Das ist ein PCR Test, also ein Test auf PCR Basis, wo falsch positive vorprogrammiert sind, Reporterin..aber davon kann man ja jetzt nicht ausgehen, dass alle Corona ..mittleweile 160.000 Tests fehlerhaft sind

Antwort ..Nee, aber die Hälfte..könnten fehlerhaft sein,…Sie müssen mal den Prof. Gigerenzer in Berlin dazu fragen.

Minute 3:40 Ich sehe keine Neuerkrankung am Horizont. Wenn Sie den Test wegnehmen würden, dann wäre das Leben wie vorher, dann wäre überhaupt nichts zu sehen sein, an verstärkter Sterblichkeit oder Mortalität oder Erkrankungshäufigkeit. Ist überhaupt nichts zu sehen, ist überhaupt nichts los im Moment. Im städtischen Krankenhaus haben wir 20 Intensivmedizin betten aufgebaut und warten jetzt dringend auf die ersten Opfer. Da wird nichts kommen, da bin ich ganz sicher

Minute 7:00 Und das ist eigentlich Gefahr die jetzt droht, dass die Ärzte nach diesem Schema vorgehen die Leute dadurch eine höhere Lethalität erzeugen.. und sofort wirkt das Ganze wesentlich bedrohlicher…Sie sind immer auf sicheren Seite wenn Sie alles machen und wenn der Patient hinterher stirbt, haben Sie keinen Fehler gemacht. Wenn Sie nichts gemacht haben und er Patient stirbt hinterher, dann haben Sie ein Problem…Da sind die Politiker übrigens in der gleichen Lage, deswegen reagieren die auch so überschießend, weil sie ihren Posten ganz schnell los werden, wenn sie zu wenig gemacht haben. 

Wie komme ich zu dieser Behauptung?

Drei Veröffentlichungen der letzten Tage machen diese Aussage plausibel:

Was sagt die Modellrechnung aus dem Imperial College?

Die folgenden Berechnungen basieren auf Daten, die höchst unsicher sind. Wir kommen gleich darauf zu sprechen. Dennoch sind sie hilfreich, Grundsätzliches zu verstehen. Dazu sollten wir uns zwei im folgenden erklärte Grafiken ansehen.

Klicken Sie dazu auf diesem Link und betrachten Figure 2 auf Seite 8. Diese Grafik bezieht sich auf verschiedene Stufen der sozialen Eindämmung – der Fachbegriff lautet: nicht-pharmakologische Interventionen (NPI) – und ihre Beeinflussung der Covid-19 Epidemie. Die untere Linie steht für die Anzahl der zu Verfügungen stehenden Intensivbetten. Sie sehen verschiedene Kurven, die exponentiell ansteigen, aber auch wieder rasch abfallen. Diese Kurven repräsentieren die Folgen von Nichtstun bis hin zu verschiedenen Quarantäne-Maßnahmen.

Daraus ergeben sich folgende Errkenntnisse: 

1. Jede exponentiell anwachsende Infektion, sinkt auch exponentiell, also sehr schnell. Irgendwann findet das Virus nur noch wenige Menschen, die es anstecken kann, weil die Immunität sich ausgebreitet hat, um nur einen Grund für den rapiden Infektionsabfall zu nennen. Wann bei Covid-19 dieser Umkehrpunkt erreicht wird, kann im Moment niemand voraussagen.

2. Jede Abflachung der Kurve zieht auch eine Verlängerung des zeitlichen Absinkens nach sich.

3. Jede Abflachung bedeutet eine weniger ausgeprägte Überlastung der Intensivabteilungen, dafür aber eine längere.

Nun zur zweiten Grafik. Klicken Sie dazu nochmal auf diesen Link und betrachten Sie Figure 3 (A) auf Seite 10.

4. Jede erfolgreiche Massenabschottung hat den Nachteil, dass die Zahl der immunisierten Menschen, die die Krankheit überlebt haben, niedrig bleibt (Herdenimmunität). In dem Moment, in dem die Quarantäne aufgehoben wird, grüne und orange Kurve, wird wieder der Vorgang wie in Grafik 1 ausgelöst, nur später. Eine Gesellschaft, die, wie in Singapur, die Ausbreitung erfolgreich gestoppt hat, hat deshalb im Rahmen einer Pandemie keine Sicherheit, nicht doch noch vom Virus befallen zu werden. Allerdings besteht die Hoffnung, dass bis dahin ein Impfstoff entwickelt wurde.

John P. A. Iaonnidis

Lassen wir zwei Beiträge daraus ihre Schlüsse ziehen. Fangen wir an mit John Iaonnidis, den ich überaus schätze. Er ist einer der meist zitierten Wissenschaftler weltweit. Er weiß wie niemand anders, was Zahlen tatsächlich bedeuten und was nicht. Sein Artikel trägt die Überschrift: „A fiasco in the making? As the coronavirus pandemic takes hold, we are making decisions without reliable data.“ (Vergleichen Sie dazu auch den Beitrag von Carl Christian Jancke vorgestern auf Achgut.) Es lohnt sich sehr, den gesamten Text zu lesen. Hier eine kurze Zusammenfassung seiner Kernaussagen:

Sterblichkeit

Das riesige Problem ist, dass wir nichts wissen. Die einzige geschlossene Population, in der sich die Zahl der wirklich Infizierten mit den Todesfällen vergleichen ließ, war die auf dem Kreuzfahrschiff Diamond Princess. Hier war die Sterberate 1.0%. Einer von hundert starb. Aber die Population war sehr alt und hatte Vorerkrankungen. Würde man diese Daten auf die USA übertragen, wäre die Sterberate 0,125%, etwas mehr als eine Person auf 1.000. Es gibt jedoch so viele Unsicherheiten bei dieser Berechnung, dass man eine Bandbreite von 0,05 bis 1% annehmen muss. Bei 0,05% läge sie niedriger als bei einer normalen Grippe, und das Blockieren des weltweiten öffentlichen Lebens wäre komplett irrational. Es wäre, wie wenn ein frustrierter Elefant aus Angst, auf eine Hauskatze zu treffen, die Klippen hinunterspringt und stirbt.

Hohe Sterberaten wie 8% für andere „milde“ Coronaviren sind bereits seit Jahren bekannt, wenn sie sich in einem Seniorenheim ausbreiten. Millionen stecken sich jedes Jahr an „milden“ Coronaviren an. Dabei sterben zwischen 3–11% derer, die wegen eines Ateminfektes im Krankenhaus behandelt werden müssen, jeden Winter. Tausende Tote, die in der Gesamtstatistik nicht auffallen.

Wenn das neue Covid-19 Virus 1 Million Amerikaner ansteckt, würden bei einer mittleren Sterblichkeit, bezogen auf die Diamond Princess, ca. 10.000 Tote resultieren. Eine normale jährliche Anzahl an jährlichen Grippetoten.

Wir wissen aber nicht, ob diese Schätzungen zutreffen. Es fehlt an belastbaren Daten, die vor allem gute Bevölkerungsstichproben liefern könnten, die dann getestet und gemessen würden. Solche Daten gibt es jedoch nicht. 

Soziale Eindämmung

Wir wissen auch nicht, was Schulschließungen bringen. Schüler verbringen dann vielleicht mehr Zeit mit Älteren, und die Herdenimmunität in der ungefährdeten Gruppe der Jüngeren kann sich schlechter ausbreiten. Niemand weiß, ob die Strategie, deshalb die Schulen eine Weile eben nicht zu schließen wie in Großbritannien, brillant oder katastrophal ist.

Die Abflachung der Ansteckungskurve vermindert zwar die punktuelle Überlastung des Gesundheitswesens. Aber in diesem Zeitraum werden auch vermehrt Tote aufgrund anderer Krankheit zu beklagen sein, weil die Behandlungsplätze fehlen. Das Abflachen verlängert diese Phase. Keiner weiß, ob dies nicht sogar die schlechtere Strategie ist.

Was wir jedoch wissen, ist, dass die Strategie der sozialen Eindämmung das Funktionieren der Gesellschaft massiv belastet. Wie lange dies durchgehalten werden kann, kann jedoch auch niemand sagen.

Covid-19 kann zu einem Jahrhundertfiasko der falschen Entscheidungen auf mangelhafter Datengrundlage werden. “If we decide to jump off the cliff, we need some data to inform us about the rationale of such an action and the chances of landing somewhere safe.”

Soweit Iaonnidis. Im Moment kann man schöne Szenen der Solidarität beobachten. Doch wie lange noch. Je nachdem, wo man hinschaut, sieht man verzweifelte Menschen, die jetzt schon nicht mehr wissen, wie sie die nächsten Raten bezahlen sollen.

Das evidenzbasierte Netzwerk Deutschland e.V.

Der dritte Beitrag stammt vom evidenzbasierten Netzwerk Deutschland, einer Vereinigung von Wissenschaftlern, die daraufhin hinwirkt, Entscheidungen in der Medizin auf der Basis wirklich belastbarer Daten zu treffen (der Begriff Evidenz hat in der Medizin die Bedeutung eines wissenschaftlichen Nachweises). Die Stellungnahme „COVID-19: Wo ist die Evidenz?“ wurde gestern auf deren Homepage veröffentlicht. Sie ist für eine wissenschaftliche Leserschaft geschrieben, aber mit ein wenig Vorkenntnis gut zu verstehen. Auch hier empfehle ich, das Original zu lesen. Eine kurze Zusammenfassung, teilweise wörtlich:

Keine Evidenz

Weder zu COVID-19 selbst noch zur Effektivität der derzeit ergriffenen Maßnahmen gibt es bisher belastbare Evidenz. Kein Epidemiologe glaubt noch daran, dass es gelingen kann, das Virus durch Isolierung und Quarantäne vollständig zu eliminieren. Die Frage, die sich angesichts der heutigen Situation vordringlich stellt, ist, wie es gelingt, dass das Virus möglichst wenig Schaden anrichtet. Hier gilt es, direkten Schaden durch Todesfälle, Arbeitsausfall oder Überlastung des Gesundheitssystems gegen indirekte Schäden wie die Folgen von sozialer Isolierung und Wirtschaftsstillstand abzuwägen.

Dabei prognostizieren Hochrechnungen, dass die Kapazitäten der Kliniken und Spitäler für die Versorgung der Erkrankten im deutschsprachigen Raum spätestens Anfang April erschöpft sein werden. Man kann aber sicher davon ausgehen, dass u.a. aufgrund der Dunkelziffer wirklich infizierter die angenommen Letalität als zu hoch angesehen wird. Die Todesfälle werden drastisch ansteigen, aber die derzeit für Deutschland gemessene Sterblichkeit 0,2% liegt jedoch unter den Daten des RKI errechneten für Influenza der Jahre 2017/18 von 0,5% und von 2018/19 von 0,4%. Aber es fehlen Messungen an repräsentativen Stichproben, um derzeit eine belastbare Schätzung vornehmen zu können.

Effektivität von sozialer Eindämmung (NPI)

Derzeit setzen sich Maßnahmen der sozialen Eindämmung durch (nicht-pharmakologischen Interventionen (NPI). Als historisches Beispiel wird stets die spanische Grippe 1918 und ihre Auswirkung in den Städten Philadelphia und St. Louis herangezogen. St. Louis hatte wesentlich weniger Todesopfer, weil dort viel konsequenter die soziale Eindämmung umgesetzt wurde. Doch die Tatsachen, dass damals hinsichtlich der Todesfälle vor allem junge Leute betroffen waren und dass weder Hygienestandards noch medizinische Versorgung 1918/19 mit heute vergleichbar sind, spricht eher gegen eine Übertragbarkeit.

Es gibt wenig Evidenz, dass NPIs bei COVID-19 tatsächlich zu einer Verringerung der Gesamtmortalität führen. Frühere, allerdings mangelhafte, Studien zur Wirksamkeit waren eher ernüchternd. Eine systematische Übersichtsarbeit aus dem Jahr 2015 findet moderate Evidenz für Schulschließungen, um die Ausbreitung einer Influenza-Epidemie zu verzögern, allerdings verbunden mit hohen Kosten. Isolation im Haushalt verlangsamt zwar die Ausbreitung, führt aber zur vermehrten Infektion von Familienangehörigen. Bei all diesen Erkenntnissen stellt sich die Frage nach der Übertragbarkeit von der Influenza auf COVID-19.

Es ist gänzlich unklar, wie lange die NPIs aufrechterhalten werden müssen und welche Effekte in Anhängigkeit von Zeit und Intensität damit erzielt werden könnten. Möglicherweise wird die Zahl der Toten nur auf einen späteren Zeitpunkt verschoben, ohne dass sich an der Gesamtzahl etwas ändert. 

Schädlichkeit der sozialen Eindämmung

Andererseits haben die derzeit ergriffenen NPIs massive Auswirkungen, die weit über den wirtschaftlichen Einbruch und das Abstürzen der Aktienkurse hinausgehen. Welche psychischen und gesellschaftlichen Auswirkungen haben soziale Isolierung? Wie viele ausländische Betreuungskräfte wollen oder können aufgrund der Grenzschließung und der Auflagen zum Coronavirusschutz, wie der 14-tägigen Quarantäne, nach Heimkehr, nicht mehr ihren Dienst bei unseren pflegebedürftigen älteren Menschen antreten und welche Auswirkungen hat das? Wie viele Arbeitsplätze werden verlorengehen, wie viele Unternehmen werden kollabieren? Wen werden die wirtschaftlichen Folgen am härtesten treffen? Werden die NPIs dazu beitragen, soziale Unterschiede zu vergrößern?

Das Schließen der Schulen mag die Ansteckungsraten unter Kindern reduzieren, aber wird es wirklich helfen, die Pandemie zu stoppen und – das ist ja das wichtigste Ziel – die Todesraten zu senken? Werden die Kinder sich nicht außerhalb der Schule treffen, die Eltern in Ermangelung von Betreuung von der Arbeit abhalten und dann die Großeltern besuchen – und damit genau die Personengruppe einem Risiko aussetzen, die am meisten geschützt werden muss?

Es ist unmöglich, zum jetzigen Zeitpunkt abzuschätzen, ob durch unbeeinflusste rasche Ausbreitung der Erkrankung oder durch ein Hinauszögern der Ausbreitung und eine dadurch bedingte Verlängerung des gesamten Erkrankungszeitraums der größere Schaden angerichtet wird, der dann auch wieder indirekte Auswirkungen auf Gesundheit, Lebensqualität und Lebenserwartung haben kann.

Mediale Verzerrung

Viele Fragen bleiben offen. Wir sind einerseits mit den nackten Zahlen einer exponentiell steigenden Anzahl von Erkrankten und Toten weltweit konfrontiert, die uns die Medien tagtäglich in beängstigender Form vor Augen halten. Doch die Frage, inwieweit es aus ethischer Sicht gerechtfertigt ist, nun in den Medien exemplarisch schwer verlaufende Einzelfälle zu berichten, ohne Einordnung in das Gesamtspektrum von Krankheit und Tod, sollte diskutiert werden. Die mediale Berichterstattung berücksichtigt in keiner Weise die von uns geforderten Kriterien einer evidenzbasierten Risikokommunikation, vor allem auf welche Gesamtzahl und zeitlicher Rahmen sich Opferzahlen beziehen sollten. Die Nennung von Rohdaten ohne Bezug zu anderen Todesursachen führt zur Überschätzung des Risikos. In Deutschland versterben etwa 2.500 Personen pro Tag. Die Angaben zu den Todesfällen durch Covid-19 sollten daher entweder die täglich oder wöchentlich verstorbenen Personen mit Angabe der Gesamttodesfälle in Deutschland berichten. Auch ein Bezug zu Todesfällen durch andere akute respiratorische Infektionen wäre angemessen.

Hier stoppe ich. Es steht noch vieles, sehr Aufschlussreiches in dieser Stellungnahme, zur Influenza, zu China und vor allem dazu, welche Forschungen notwendig sind, Licht ins Dunkel zu bringen.

Mein persönliches Fazit:

  • Derzeit erkaufen wir uns mit einer wochen-, vielleicht monatelangen Politik der sozialen Eindämmung das wahrscheinlich nur geringfügige Abfedern von Covid-19 Folgen mit dem wachsenden Risiko eines Systemcrashs.
  • Politiker, angefeuert von Experten, die nicht den Gesamtkontext bedenken, überbieten sich mit wahrscheinlich nur begrenzt sinnvollen Maßnahmen, die jedoch die Handlungsfähigkeit unserer Gesellschaft gefährden. Was für das Thema Klima, Energie oder Einwanderung gilt, gilt erst recht bei einer Pandemie wie Covid-19. Nicht Panik und Moralismus wird eine Herausforderung meistern, sondern Sachverstand und Vernunft auf der Basis belastbarer Daten, die am zuverlässigsten eine freie und nicht gegängelte Wissenschaft liefern kann.
  • Speziell Medien müssen endlich, ganz besonders angesichts einer derartigen Krise, aufhören, die Wahrnehmung ihrer Zuhörer und Zuschauer zu verzerren, weil sie rein emotional über schreckliche Einzelsituationen berichten, ohne den Gesamtkontext zu beachten. Sie verkleinern auf diese Weise den Spielraum für vernünftige Entscheidungen.
  • Die Funktionsfähigkeit unserer Gesellschaft fußt auf einem funktionierenden Wirtschaftsleben. Es ist kein Zynismus, sondern Verantwortungsethik, wenn man festzustellt, dass Covid-19 nicht die Potenz hat, das Erwerbsleben selbst lahmzulegen, weil es vor allem eine Gefahr für Ältere und Kranke darstellt. Andererseits, sollten sich selbst die schlimmsten Berechnungen bewahrheiten, lässt sich die beste Versorgung der Betroffenen langfristig nur durch eine stabile Versorgungslage meistern. Und diese wird zunehmend durch die Politik der sozialen Eindämmung gefährdet.
  • Deshalb müssen derzeit Alte und schwerkranke Menschen so optimal wie möglich und so human wie möglich noch in Quarantäne verbleiben (siehe dazu auch Bericht zur Coronalage 15.03.2020), um dann die Politik der sozialen Eindämmung spätestens ab Ostern zu beenden.

Wenn Sie diesen Beitrag überzeugend finden, dann sorgen Sie für seine weitere Verbreitung.

 

Dr. med. Gunter Frank, geb. 1963 in Buchen im Odenwald, ist niedergelassener Allgemeinarzt in Heidelberg und Dozent an der Business School St. Galle




Das Stromnetz – ein Wirtschaftsunternehmen aus lauter Unbekannten

Wenn sich die Entwicklung der Netzentgelte in Deutschland so weiterentwickelt, wie in nachfolgender Grafik für die Zeit zwischen 2009 und 2014 dargestellt, dann ist zu erwarten, dass in nicht allzu ferner Zeit die Stromkunden in den neuen Bundesländern die Zeche allein bezahlen für etwas, was sie gar nicht bestellt haben und was sie so wohl auch nicht haben wollten. Nichts deutet darauf hin, dass sich die dargestellte Entwicklung nicht genauso wie bisher auch zukünftig so vollziehen wird. Zumindest bis einschließlich 2018 war das der Fall.

Die Grafik wurde einer im Auftrag der Agora Energiewende erarbeiteten Studie[1], im Folgenden „Agora Studie“, entnommen und scheint direkt von der Bundesnetzagentur veröffentlicht worden zu sein.

Grund genug sicherlich, um sich unter dem Eindruck permanent steigender Strompreise für den Verbraucher einmal ausführlicher aus dessen Sicht mit diesen Netzentgelten zu beschäftigen, die zunehmend einen immer größeren Anteil an der Stromrechnung der Verbraucher ausmachen.

In der Agora Studie heißt es dazu:

„Netzentgelte machen in der Regel zwischen 10 und 25 Prozent der Stromrechnung aus, wobei die Spanne jedoch bundesweit – je nach Abnahmefall und Region – wesentlich größer ist und von wenigen Prozent bis zur Hälfte der Stromrechnung reicht.“

Es soll im Folgenden nicht etwa darum gehen, sich mit den aus Verbrauchersicht überwiegend unverständlichen und teilweise höchst abstrusen Gesetzestexten rund um die Energieversorgung im Allgemeinen oder der Stromnetzentgeltverordnung und weiterführender Regelungen im Besonderen zu befassen.

Vielmehr soll einfach und allgemein verständlich dargelegt werden, welche Kosten für Erhalt, Investition und Bewirtschaftung den Betreibern des Stromnetzes entstehen und wie sie fairerweise von der Gesamtheit der Nutzer dieses Stromnetzes und nicht nur von den Bürgern in den neuen Bundesländern und auch nicht nur von den Verbrauchern, aufgebracht werden sollten.

Was wir unter Netzentgelt oder auch Netznutzungsentgelt zu verstehen haben, definiert die Bundesnetzagentur wie folgt:

„Das Netzentgelt

  • ist eine Gebühr, die jeder Netznutzer, der Strom oder Gas durch das Versorgungsnetz leitet, an den Netzbetreiber zahlen muss
  • ist ein Teil des Strom- bzw. Gaspreises
  • wird reguliert, denn die Höhe des Entgelts kann sich nicht im freien Wettbewerb bilden, weil Strom- und Gasnetze natürliche Monopole sind
  • muss vom Netzbetreiber im Internet veröffentlicht werden
  • ist bei Strom-Netzentgelten nicht abhängig von der Länge der genutzten Leitung (also dem Punkt der Einspeisung bis zum Ort der Entnahme)
  • wird durch gesetzliche Bestimmungen in § 20 EnWG und der Strom- bzw. Gasnetzentgeltverordnung (StromNEV, GasNEV) geregelt.“

Bereits der erste Satz in der Definition ist dreist gelogen. Die Wirklichkeit sieht ganz anders aus. Wir betrachten die Betreiber des Stromnetzes in ihrer Gesamtheit gewissermaßen als Spediteure für den Transport des Stromes von den Erzeugungseinheiten hin bis zum letzten Verbraucher. Genau wie Absender und Empfänger einer Ware gleichermaßen Nutznießer der Leistung eines Spediteurs sind, sind sowohl die Kraftwerksbetreiber als auch die Stromkunden Nutznießer der Leistungen der Netzbetreiber. Nutznießer aber können nicht nur den Nutzen genießen sondern müssen auch für die entstandenen Kosten aufkommen. Daran kann es doch eigentlich nicht die geringsten Zweifel geben. Kraftwerksbetreiber und Verbraucher sind also gleichermaßen Netznutzer und nach Definition der Bundesnetzagentur hat jeder Netznutzer das Netzentgelt zu zahlen. Seltsam nur, die Kraftwerksbetreiber zahlen für die Netznutzung nicht einen einzigen Cent!

Einen sehr wesentlichen Unterschied zum Transport von Waren gibt es beim Stromtransport allerdings. Während beim Warentransport Absender und Empfänger genau bekannt sind, die zwischen beiden liegende, vom Spediteur zu überbrückende Strecke, genau diesen beiden exakt zugeordnet und ihnen letztlich in Rechnung gestellt werden kann, sind beim Stromtransport weder Absender noch Empfänger noch die zwischen beiden zu überwindenden Entfernungen bekannt. Es ist also nicht feststellbar, ob eine im äußersten Nordosten des Landes entnommene Kilowattstunde aus dem äußersten Südwesten kommt oder aber direkt von einer 20 Meter entfernten Solaranlage.

Hinzu kommt noch, dass der Stromspediteur blitzschnell sein muss. Sobald Strom irgendwo ins Netz eingespeist wird, muss er andernorts sofort wieder verbraucht werden. Das Netz kann also nichts speichern und für Strom gibt es auch keine Haltbarkeitsdauer.

Wenn aber beide Seiten, Erzeuger wie Verbraucher, gleichermaßen Nutznießer der Leistungen der Netzbetreiber sind, müssen sie logischerweise auch gleichermaßen anteilig in dem Maße, wie sie diese Leistungen in Anspruch nehmen, für die dadurch entstehenden Kosten aufkommen und zwar unter strikter Wahrung des grundgesetzlich garantierten Gleichbehandlungsgrundsatzes. Es ist immer wieder erstaunlich, wie im Interesse einiger Weniger solche einfachen, logisch nachvollziehbaren Zusammenhänge zerredet, in aufwendigen Studien von „Experten“, ernannten und selbsternannten, solange hin und her diskutiert werden bis sie letztendlich in ihr Gegenteil verkehrt wurden. Anschließend kann man dann trefflich über die Unzulänglichkeiten und Ungerechtigkeiten dieses Gegenteils jammern und palavern, immer neuere und abwegigere Änderungen vorschlagen und auf den Weg bringen, ohne in der bereits im Ansatz verkorksten Sache auch nur das Geringste zu verändern oder zu bewirken. Es ist ja auch überhaupt nicht gewollt!

Betrachten wir die Netzentgelte einfach einmal unter der oben genannten Prämisse der anteilig gleichermaßen gerechten Verteilung der Kosten unter den Netznutzern anhand einiger weniger konkreter Zahlen als Bemessungsgrößen.

Eine erste Bemessungsgröße „Kosten“ sollte sich eigentlich aus den Gesamtkosten für Betrieb, Erhalt und Ausbau des Stromnetzes ergeben. Sie sind und bleiben bestgehütetes Geheimnis der Netzbetreiber und der Öffentlichkeit nicht zugänglich. Ersatzweise müssen wir uns mit den „genehmigten Erlösobergrenzen (EOG)“ begnügen. Die EOG sollen in Ermangelung des Wirkens marktwirtschaftlicher Gesetze in einer monopolistisch geprägten Energiewirtschaft die Obergrenze dessen sein, was Politik und Regierung für angemessen erachten und was letztlich vom Vertreter des Souveräns, den Abgeordneten des Deutschen Bundestages, genehmigt wurde. Maximal also diese GEO muss durch die Gesamtheit der Netznutzer durch die von ihnen aufzubringenden Netzentgelte beglichen werden. Wenn schon die Kosten für den Netzbetrieb geheim gehalten werden, dann sollte man meinen, dass  wenigstens die EOG als Betrag und die Methoden zur Ermittlung dieses Betrages für die Allgemeinheit transparent verfügbar sind. Leider weit gefehlt!

Die erste und auch einzige Veröffentlichung der EOG erfolgte in der Bundestagsdrucksache 18/536[2]mit Datum vom 12.02.2014 sage und schreibe für das Jahr 2009. Danach nie wieder. Wenn heute überhaupt irgendetwas veröffentlicht wird, dann sind das weitestgehend sogenannte Monitoringberichte der Bundesnetzagentur in Gestalt nichtssagender Zahlenkonvolute, aus denen man alles oder nichts ableiten kann. Tatsächlich relevante Zahlen sind aufgrund einer Entscheidung des Bundesgerichtshofs vom Dezember 2018 geschwärzt. Warum wohl? Selbst im Umfeld der ganz sicher nicht als energiewendekritisch einzuordnenden AGORA Energiewende kommt man zu der Erkenntnis, dass

„ … insgesamt der Befund, dass die Netzkosten und Netzentgelte die „Blackbox“ der Energiewende darstellen heute mehr denn je gilt.“[3]

In [2] werden die EOG für 2009 mit 17,2 Mrd. €/a angegeben. Im Umfeld von AGORA werden die EOG für 2019 auf 24,0 Mrd. €/a geschätzt. Vom Bundeswirtschaftsministerium soll dem Vernehmen nach für 2020 ein Betrag von 23,0 Mrd. €/a im Gespräch sein. Alles also geschätzt, unverbindlich, dem Vernehmen nach und das für eine Größe, die die Grundlage sämtlicher Berechnungen und Erhebungen von Netzentgelten bildet. Transparenz sah früher anders aus.

Aber selbst dann, wenn diese Angaben belastbar vorlägen, würde laut AGORA Energiewende immer noch gelten:

„Ein direkter Rückschluss auf die Höhe der Netzkosten lässt sich aufgrund der Netzentgelte nur bedingt ziehen.“[4]

Und das alles ist so gewollt und wird geduldet. Wir wollen die genannten 17,2 Mrd. €/a für 2009 einfach mal so hinnehmen, wenngleich eine Prüfung von Plausibilität und Rechtmäßigkeit dieses Betrages seitens der Öffentlichkeit praktisch unmöglich ist. Zweifelhaft erscheint dieser Betrag allein schon dadurch, dass damit immerhin allein für die Stromnetze in Deutschland jährlich mehr als die Hälfte des gesamten Verteidigungshaushaltes eines Jahres, Stand 2017, aufzuwenden wäre. Und für 2019 hätten sich dann die EOG von 17,2 Mrd. €/a auf sage und schreibe 24,0 Mrd. €/a, mithin in etwa 10 Jahren um 40%(!) erhöht. Das alles kann glauben und für richtig halten wer will!

Völlig inakzeptabel erscheint insbesondere, dass seitens Politik, Regierung und Aufsichtsgremien noch 2014 für Investitionen der Netzbetreiber in das Stromnetz eine Verzinsung des eingesetzten Eigenkapitals in Höhe von 9,29 % vor Steuern für Neuanlagen und von 7,56 % vor Steuern für Altanlagen für angemessen gehalten wird und das zu Zeiten einer aggressiven Nullzinspolitik der EZB zulasten der Spareinlagen der Bürger.

Selbst das reicht den Netzbetreibern noch nicht aus, denn tatsächlich realisieren sie eine Verzinsung von mehr als 14% p.a., nicht nachweisbar aber dem Vernehmen nach. Mancher fleißige Unternehmer mag sich verwundert darüber, was in diesem Land alles so möglich ist, die Augen reiben.

Zu erkennen ist auch nicht, ob die durch zwangsweise Abschaltung oder Abregelung von EEG- Anlagen zu zahlenden Abgeltungen in dem genannten Betrag erhalten sind oder nicht. Sie alleine machen bereits einen Betrag von etwa 3,0 Mrd. €/a. mit stetig steigender Tendenz aus, der von den Verbrauchern für sogenannten „Geisterstrom“, Strom also der wegen der vollständig fehlenden Kraftwerkseigenschaften der EEG- Anlagen und nicht etwa wegen zu geringer Netzkapazitäten weder gewonnen noch eingespeist wurde, aufzubringen ist.

Für diese erste Bemessungsgröße ist also keinerlei Transparenz gegeben. Dennoch muss und soll mit ihr hier gerechnet werden, obgleich sie mit Sicherheit deutlich zu hoch angesetzt sein wird. Ändern können wir ohnehin nichts daran.

Vielmehr interessiert uns nun, wie denn dieser völlig willkürlich festgelegte Gesamtbetrag auf die Netznutzer aufgeteilt wird oder besser aufgeteilt werden müsste und wie hoch dann die tatsächliche Belastung des einzelnen Erzeugers oder Verbrauchers ausfallen würde, wenn alle gleichermaßen adäquat zur Deckung der Netzkosten herangezogen würden.

Für den über das Stromnetz in Deutschland in 2017 abgewickelten Stromverbrauch des Landes gibt es in verschiedenen Quellen unterschiedliche Angaben. An dieser Stelle soll von rund 654,0 TWh ausgegangen werden. Diese Strommenge wurde einerseits von den Kraftwerksbetreibern als Nutzer dieses Stromnetzes eingespeist und andererseits von den Kunden als Nutzer dieses Stromnetzes wieder entnommen. Da sich beide Seiten anteilig an den Kosten zu beteiligen haben, liegt es nahe, die eingespeisten und entnommenen Strommengen als Maß für den Anteil jedes Einzelnen der beiden Seiten anzusetzen, mit dem er sich an der Deckung der Gesamtkosten zu beteiligen hat.

Damit ergibt sich eine zweite Bemessungsgröße „Energie“ für die Netznutzungsentgelte aus dem Doppelten der Strommenge, die im Netz übertragen wurde zu 2 x 654,0 TWh = 1.308,0 TWh, entsprechend 1,308 x 109kWh.

Eine dritte Bemessungsgröße „Leistung“ ergibt sich notwendigerweise daraus, dass es Anlagen gibt, die ans Netz zwar angeschlossen sind aber weder Strom einspeisen noch Strom beziehen, das Netz und seine Systemdienstleistungen aber in Anspruch nehmen um überhaupt zu funktionieren. Dazu zählen insbesondere alle Windenergie- und Solaranlagen, die grundsätzlich parasitär am Netz hängen, für das Netz nichts tun und ohne Netz funktionsuntüchtig sind. Da auch diese Anlagen das Netz dann nutzen, wenn sie selbst keine Energie einspeisen oder entnehmen, sind sie an den Netznutzungsentgelten zu beteiligen. Also ist auch die am Netz hängende Anschlussleistung aller Beteiligten in die Berechnung der Netzentgelte einzubeziehen. Auf der Einspeiseseite war in 2017 eine Leistung von 203,22 GW ans Netz angeschlossen. Auf der Verbraucherseite wurden im gleichen Jahr maximal etwa 80 GW Leistung abgenommen, weshalb wir die dritte Bemessungsgröße Leistung mit 283,22 GW annehmen können.

Aus den genannten drei Bemessungsgrößen lässt sich nun sehr einfach ein Netznutzungsentgelt berechnen, das dann anteilig von ausnahmslos allen Netznutzern gemeinsam aufzubringen wäre. Dazu nehmen wir einfach einmal willkürlich an, dass 90% des Netznutzungsentgeltes auf die Energie und 10% auf die Leistung entfallen sollen. Den Gesamtbetrag des aufzubringenden Netznutzungsentgeltes legen wir mit 17,0 Mrd. €/a fest, da es uns hier mehr um die Größenordnung, nicht so sehr um den absoluten Betrag geht, den wir ohnehin nicht genau kennen und notgedrungen schätzen müssten.

Es wären also für jede im Verlaufe eines Jahres eingespeiste oder bezogene Kilowattstunde 1 €Cent und zusätzlich ein einziges mal jährlich 35 €Cent für jedes angeschlossene Kilowatt Leistung als Netznutzungsentgelt zu entrichten.

Ein angenommener Haushalt im Nordosten des Landes mit einem Energieverbrauch von 3.000 kWh/a und einer Anschlussleistung von 10,0 kW wäre dann mit einem anteiligen Netznutzungsentgelt von

3.000 kWh x 0,01 €/kWh + 10 kW x 0,35 €/kW = 33,50 € /a belastet.

Bei heute geltender Regelung mit aktuell mehr als 10,0 €Cent/kWh muss der gleiche Haushalt 300 €/a und mehr, also etwa das 10 fache dessen, was eigentlich angemessen wäre, berappen.

Aus diesem offensichtlichen Missverhältnis zwischen angemessenem und tatsächlich abverlangtem Netznutzungsentgelt kann nur eine schreiende Ungerechtigkeit und Ungleichbehandlung zum einseitigen Nachteil der betroffenen wenig oder nicht privilegierten Verbraucher abgeleitet werden. Das aber ist offensichtlich so gewollt und wird geduldet, man könnte es durchaus auch staatlich sanktionierten Betrug nennen.

Auf der Verbraucherseite wäre mit den errechneten Beträgen bereits eine sehr deutliche Senkung des Strompreises verbunden. Es sollte übrigens auch niemand mehr auf die Idee kommen können, dass mit der ausnahmslosen Einbeziehung aller Netznutzer in die anteilige Entrichtung der Netznutzungsentgelte die stromintensiven Industriebetriebe in Deutschland überfordert und ihre internationale Wettbewerbsfähigkeit gefährdet werden könnte.

Auf der Kraftwerksseite allerdings wäre ein Netznutzungsentgelt als Kostenposition unsinnig, weil die Kraftwerksbetreiber diese Kosten selbstverständlich auf den Strompreis aufschlagen würden, womit sie zwangsweise wieder bei den Stromkunden ankommen. Solcherart Diskussion, die Stromlieferanten an den Netzentgelten beteiligen zu wollen sind absolut unsinnig und führen zu nichts.

Die einzig denkbare Art einer Einbeziehung der Stromlieferanten wäre eine Belastung durch Steuern. Dazu wäre es nicht erforderlich eine neue Steuer einzuführen sondern lediglich die bereits vorhandene Stromsteuer dafür zu benutzen und entsprechend anzupassen. Das Stromsteuergesetz wäre dazu in einigen Punkten zu ändern. Grundsätzliche Voraussetzung wäre, dass Steuerschuldner im Sinne des Stromsteuergesetzes nicht nur die Verbraucher sind sondern ausnahmslos anteilig jeder, der entweder, gleich aus welcher Primärenergiequelle, Strom wandelt und in das Netz einspeist oder aber Strom verbraucht und diesen Strom dem Netz entnimmt oder das Netz anderweitig in beliebiger Weise nutzt. Ausnahmen von dieser Steuerpflicht oder Einschränkungen in der Höhe, aus welchen erfundenen oder konstruierten Gründen auch immer, darf es im Sinne der Sicherung einer verfassungsrechtlich geforderten und in einem Rechtsstaat gesicherten Gleichbehandlung aller Beteiligten nicht geben.

Die Netzentgelte werden dann zukünftig vom Staat aus Einnahmen der Stromsteuer abgegolten, mit der auch die Stromlieferanten anteilig zu belasten sind. Auf der Seite der Stromkunden entfällt damit der bisherige Betrag für das anteilige Netznutzungsentgelt vollständig und die Stromsteuer erhöht sich um die genannten Beträge. Für diesen Betrag, der ja nun als Steuer und nicht mehr als Entgelt aufzubringen ist, sollte selbstverständlich auch die Mehrwertsteuer entfallen, wenngleich der Fiskus gegenwärtig durchaus der Auffassung ist, auf die Stromsteuer der Verbraucher auch noch Mehrwertsteuer erheben zu müssen.

Auf der Seite der Stromlieferanten ist der gleiche Betrag ebenfalls als Stromsteuer abzuführen. Steuern sind keine Kosten und können somit zumindest nicht direkt auf den Strompreis aufgeschlagen und damit an die Kunden weitergereicht werden.

Das Ziel einer beiderseits gerechten Beteiligung von Stromlieferanten und Stromkunden an den Netzkosten wäre unabhängig vom Standort bzw. Wohnort absolut diskriminierungsfrei und transparent gelöst. Der Verrechnungsmodus wäre einfach, durchschaubar und vor allem seitens des Staates jederzeit und vollständig kontrollierbar. Niemand würde zu Lasten eines anderen übervorteilt und ein ganz kleines bisschen mehr Gerechtigkeit zieht ein in den ansonsten für den Letztverbraucher im Allgemeinen undurchdringlichen Stromdschungel.

[1]         RAP (2014): Netzentgelte in Deutschland: Herausforderungen und Handlungsoptionen.
Studie im Auftrag von Agora Energiewende.

[2]        Bundestagsdrucksache 18/536

[3]        Agora Energiewende/RAP/Raue LLP (2018)

[4]        Netzentgelte 2019: Zeit für Reformen, Impuls, April 2019




SEID IHR ALLE EIN BISSCHEN GRETA?

Aber nicht einmal der nationale CO2 -Ausstoß wurde merklich reduziert, denn die Windkraft, als Wunderwaffe gegen CO2 gepriesen, hat bislang wenig Nutzen, aber erheblichen wirtschaftlichen und ökologische Schaden angerichtet. Dennoch wird dieser aussichtslose Weg weiterhin mit pathologischer Verbissenheit verfolgt.

 

Dinosaurier mit drei Flügeln

VW baut nicht nur Wagen fürs Volk. Der Bugatti Veyron, das exklusive Topmodell, ist in der Standardversion 400 km/h schnell. Falls Ihnen das nicht reicht, die Sportversion bringt’s auf 430. Dafür braucht der Wagen einen starken Motor: einen turbogeladenen 8 Liter 16 Zylinder, der 900 kW (1.200 PS) auf die Kurbelwelle bringt. Das Auto wiegt 1,9 Tonnen, davon machen Motor plus Getriebe etwa ein Viertel aus. Es ist also möglich, eine Maschine zu bauen, die 900 kW Leistung abliefert und die nur eine halbe Tonne wiegt.

Eine größere Windturbine hat eine „installierte Leistung“ von 6 Megawatt = 6.000 Kilowatt. Im Jahresdurchschnitt liefert sie 20 % davon, also 1200 kW; das ist, zugegeben, etwas mehr als der Bugatti Motor leistet, aber was wiegt sie?

Das Fundament aus 1400 Kubikmetern hochfestem Stahlbeton hat 3500 Tonnen. Der Turm besteht aus Schalen, von denen jeweils 3 einen Ring mit 50 m Umfang bilden. 35 solcher Ringe bauen den Turm auf: 130 m hoch und 2800 t schwer. Der Kasten oben drauf, genannt Maschinenhaus, ist 120 t schwer und beherbergt den Generator von 220 t, der durch einen 320 t schweren Rotor angetrieben wird. Gesamtgewicht der Anlage ist – rechnen Sie nach – rund 7.000 Tonnen. (siehe hier)

Die Röhre, auf der oben das Maschinenhaus sitzt, bedeckt am Boden eine Fläche von 200 Quadratmetern, darin hätte ein kleinerer Supermarkt Platz.

Dieser Gigant leistet im Durchschnitt nur wenig mehr, als ein Bugatti-Motor, der nur eine halbe Tonne auf die Waage bringt – nicht 7.000. Der Bugatti braucht natürlich Sprit, der Vergleich soll nur aufzuzeigen, welches Verhältnis von Leistung zu Masse technologisch möglich ist.

Maschinen, die pro abgegebene Leistung so unglaublich schwer sind, wie das beschriebene Monster, können nicht wirtschaftlich sein. Aber weil sie durch astronomische Summen gefördert werden ist eine wahre Goldgräberstimmung entstanden, und die Ungetüme werden installiert auf Teufel komm raus. Der Goldregen könnte ja versiegen.

 

Von nichts kommt nichts

Warum eigentlich müssen Windturbinen so groß sein? Kann man sie mit moderner Technik vielleicht auf die Ausmaße eines Bugatti schrumpfen? Um zu erklären, warum das nicht geht, dazu brauchen wir etwas Physik.

Die mechanische Leistung, die eine Luftströmung pro Quadratmeter anbietet, ist gleich der Dichte der Luft multipliziert mit ihrer Geschwindigkeit hoch drei. Und das Ganze halbiert.

Hier ein Beispiel:

Falls Sie bei sanfter Fahrt, sagen wir gut 50 km/h, einen Hula-Hoop-Reifen (erinnern Sie sich?) im offenen Cabrio hoch halten, und zwar so, dass der Fahrtwind durch den Ring pustet, dann rauschen da so ungefähr 2 kW durch.

Damit kann man nicht viel anfangen. Nehmen wir den oben beschriebenen Riesen, der bei einem 50 km/h Wind 6000 kW bringen soll. Der muss dem Wind eine Fläche von 3000 Quadratmeter anbieten. Jedes der drei Rotorblätter muss dann ungefähr 30 m lang sein.

Leider können die Flügel aber nicht die gesamte Windenergie ernten, ihr Wirkungsgrad ist bestenfalls 40%. Statt einer Fläche von 3000 qm brauchen wir also derer 7.500 um bei 50 km/h Wind 6000 Kilowatt Strom zu produzieren.

Dafür brauchen wir Flügel, die 50 m lang sind. Zum Vergleich: Die Flügel eines Airbus A380 Superjumbo sind nur 40 m lang. Unsere Windräder müssen leider so groß sein, weil die Luft ein so verdammt dünnes Medium ist (der schwere Airbus wird trotzdem von der dünnen Luft getragen, aber erst ab 300 km/h – und seine vier Turbinen leisten dabei übrigens 330 Megawatt, so viel wie 55 unserer Windräder bei optimalem Wind).

Diese gigantischen Ausmaße werden einmal eine Herausforderung sein, wenn die Windräder nach ihrer nützlichen Lebensdauer von 10 oder 20 Jahren beseitigt werden müssen. 7.000 Tonnen Stahl, Beton, Kunstsoff und Kohlefaser werden ein nie dagewesenes Entsorgungsproblem darstellen. Bei rund 30.000 solcher Monster – zwar nicht alle 7.000t schwer – kommen da dennoch Hunderte Millionen Tonnen Schrott zusammen; das ist mehr als sämtliche Autos Deutschlands auf die Waage bringen würden! Und hohe Anteile sind Kohlefaser und Plastik. Da müssen wir viele Plastik-Strohhalme einsparen um das wett zu machen. Wie das gehen soll ist noch nicht ganz klar. Es gibt noch kein etabliertes Verfahren, um das Zeug sauber zu recyceln. (siehe hier)

Zu viel oder zu wenig

Zurück zur Leistung der Monster. Das mit der dünnen Luft wäre halb so schlimm, wenn in unserer Formel nicht die Windgeschwindigkeit hoch drei stünde. Die gute Nachricht ist, dass wir bei doppelter Geschwindigkeit immerhin 2 hoch 3 = 8 mal so viel Leistung haben, die schlechte Nachricht ist, dass wir bei halber Geschwindigkeit nur ein Achtel bekommen.

Unser Monster bringt seine „installierte (d.h. maximale, theoretische) Leistung“ bei 50 km/h. Weht der Wind schneller, dann bringt sie auch nicht mehr, denn sie wird „abgeriegelt“, und weht es noch mehr, dann wird sie „abgeschaltet“, damit sie nicht kaputt geht. Das funktioniert leider nicht immer. (siehe hier)

Bei 15 km/h Wind aber, das ist immerhin noch flottes Radfahrerinnen-Tempo, bekämen wir nur noch 160 kW. Eine Maschine, größer als ein Super-Jumbo, bringt dann so viel oder so wenig Leistung wie der Motor eines VW Golf. Soweit jedenfalls die Theorie, in der Praxis würde das Ding vermutlich still stehen.

Falls Sie Segler sind, kennen Sie die Geschichte ja hinlänglich. Entweder dümpelt man tagelang dahin und verbringt die Zeit mit Seemannsgarn bei lauwarmem Bier, oder es kachelt dermaßen, dass man die Segel reffen muss und hoffen, dass unter Deck alle Schubladen dicht sind. Es ist nicht daran zu denken, dass man bei doppelter Windgeschwindigkeit einfach doppelt, geschweige denn achtmal so schnell wäre. Den stetigen Wind, bei dem das Schiff mit seiner Lieblingsgeschwindigkeit durchs Wasser pflügt, den hat man nur alle Jubeljahre.

Einfach ausgedrückt: „Windgeschwindigkeit hoch drei“ bedeutet für die Windgeneratoren, dass man entweder zu viel des Guten bekommt oder gar nichts. Wenn der Wind richtig weht, dann muss man den Strom zu Schleuderpreisen exportieren, manchmal sogar zu „negativen Preisen“. Oder aber es herrscht Schwachwind und man muss den ganzen Strom aus den herkömmlichen Kraftwerken im In- und Ausland beziehen.

Aus dieser Situation können wir uns auch nicht retten, wenn wir noch mehr Rotoren aufstellen. Die werden bei starkem Wind noch mehr Überschuss produzieren und bei Flaute auch nichts.

 

Die Kosten-/ Nutzen-Bilanz

Wie viel Strom beschert uns die deutsche Windkraft nun tatsächlich? Da gibt es unterschiedliche Statistiken, und bekanntlich soll man nur derjenigen Glauben schenken, die man selbst gefälscht hat. Das wird schwierig. McKinsey kommt zu folgendem Resultat:

Erneuerbare Energien bedrohen die deutsche Wirtschaft und Energieversorgung.

… Deutschland erzeugt trotz großer Hektik immer noch nur 35% seines Stroms aus erneuerbaren Energien. Und wenn die Biomasse-Verbrennung, die häufig schmutziger ist als Kohle, nicht berücksichtigt wird, entfielen 2018 nur 27% der Stromerzeugung auf Wind-, Wasser- und Solarstrom in Deutschland. (siehe hier)

Ziehen wir Solar und Wasser davon ab, dann bleiben maximal 20% aus Windkraft.

All die Anstrengungen der Energiewende wurden ja unternommen, um den CO2-Ausstoß zu reduzieren, um das „Klima zu retten“. Ist das gelungen? Keineswegs. Deutschland hat immer noch signifikant höhere pro Kopf Emissionen (11 Tonnen pro Jahr CO2) als Frankreich, England oder Italien (jeweils ca. 7 Tonnen) und liegt 3 Tonnen über dem EU Durchschnitt.

(siehe hier)

Dafür haben wir die höchsten Strompreise und bald die „Smart Meters“, welche dafür sorgen werden, dass wir den Strom nicht dann bekommen, wenn wir ihn brauchen, sondern dann, wenn es den Protagonisten der Energiewende in den Kram passt.

 

Kein Ziel vor Augen, dafür verdoppelte Anstrengung

Es ist verständlich, dass die in Wohlstand geborenen Generationen die deutsche Wirtschaft für „unkaputtbar“ halten. Die Verwundbarkeit der Natur aber wurde ihnen doch Jahrzehnte lang unmissverständlich eingetrichtert. Doch diese heiligen Kühe von damals werden jetzt herdenweise geschlachtet. Die einmalige Landschaft, der vom Tode bedrohte Wald, die Tier- und Pflanzenwelt, der Juchtenkäfer, der große Abendsegler und das braune Langohr, keiner hat mehr Anspruch auf Schutz. Sie alle sind jetzt zum Abschuss freigegeben. Sie werden dem einzigen, allerhöchsten Ziel geopfert, das es noch gibt.

Bei aller Aussichtslosigkeit wird dieser Weg beharrlich verfolgt, und die Tatsache, dass kein anderes Land in die gleiche Richtung geht, steigert nur die eigene Besessenheit. Eine Besessenheit, die keine Fragen zulässt, was der Nutzen ist, die keine Wahrnehmung hat für den Schaden, der angerichtet wird, und die dazu führt, dass man sich selbst und anderen viel Leid zufügt.

Ein einzelner Mensch mit solch einem Verhalten würde als psychologisch auffällig eingestuft. Die abnormale Intensität, mit der ein extrem enger Interessensbereich verfolgt wird und die Blindheit für die Auswirkungen auf das persönliche Wohl und das der anderen sind Merkmale einer krankhaften Entwicklungsstörung. Diese wurde 1944 erstmals von dem Wiener Kinderarzt Hans Asperger beschrieben und 2018 durch Greta Thunberg weltweit populär gemacht.

Betrachtet man die Begeisterung der mehrheitlich schwarz-rot-grünen deutschen Bevölkerung für die Energiewende, dann meine lieben Mitbürgerinnen und Mitbürger, dann drängt sich die Frage auf: seid Ihr vielleicht alle ein bisschen Greta?

Dieser Artikel erschien zuerst bei www.think-again.org und im Buch „Grün und Dumm“




Walfänger-Gräber auf Spitzbergen beweisen: Im Mittelalter waren die Temperaturen deutlich höher als heute

Viele Medien wie auch ARD und ZDF bringen fast täglich irgendwelche Meldungen zu „KLIMA“ und Energie-Themen, die meistens im Tenor wie eine „Anklage gegen den menschgemachten Klimawandel“ rüberkommen sollen. Ständig werden Begriffe wie „Wärmster Winter aller Zeiten“ (Auch im ARD-Text) faktisch „gebrüllt“ damit ja auch der letzte Bürger/Zuschauer mitbekommen soll, daß hier sozusagen das „Extremste“ überhaupt, seit der Entstehung der Erde, gerade jetzt stattfinde und dies Alles auch noch nur allein durch den „bösen Mensch gemacht“ geschähe.

In diesem Kontext gab es in der ARD (Tagesschau/Tagesthemen) am 11. März 2020 einen Beitrag zur Bergung von einzelnen alten Särgen aus allmählich auftauendem Permafrostboden auf Spitzbergen. Spitzbergen ist eine zu Norwegen gehörende, kleine Inselgruppe im Nordmeer am Polarkreis, knapp unter dem 80. Breitengrad. Sie liegt etwa so hoch nördlich, wie der Nordteil von Grönland, im Nordpolarmeer. Dort wurden vor ca. 400 Jahren und davor, verstorbene und verunglückte Menschen bestattet. Dies übrigens in völlig normalen Holzsärgen und begraben in damals ganz normaler Erde dort auf Spitzbergen. Also absolut nichts mit Eis und Permafrost zu dieser Zeit. Damals war nämlich das ganze Erdklima um Einiges wärmer als heute und das auch noch lange vor jeder Industrialisierung. Damit werden all die heutigen Schlagzeilen mit „Wärmster Winter aller Zeiten“ und so, für die jetzige Zeitepoche, zu einer wirklich offensichtlichen blamablen und simplen Lügerei. Dies bewusst an den Fakten vorbei und  alles auch noch von immensen Steuergeldern/Forschungsgeldern finanziert, sowie solche einseitigen Senungen, bei ARD+ZDF, mit den GEZ-Zwangsgebühren zu bezahlen. Doch sehen Sie sich dazu bitte erst mal den wirklich kurzen ARD-TAGESTHEMEN-Filmbeitrag ab Minute 22:34 an:

Bei Interesse zu diesem Spitzbergen-Thema, können Sie gern auch diesen interessanten und recht neutralen Bericht lesen:

https://polarkreisportal.de/klimawandel-walfaenger-graeber-auf-spitzbergen-erodieren

Die aus vielen Nationen stammenden Walfänger, die vor ca. 400 Jahren, sowie davor und danach auf Spitzbergen waren, jagten vorrangig den Grönlandwal und mussten die Wale vor der Kenntnis und Perfektionierung der „Harpunenjagd“ zunächst meist per Treiben der Tiere mit Lärm und Erschrecken, an ein Insel-Ufer zum Stranden und Sterben bringen. Auch die  „Verarbeitung“ der so gestrandeten und getöteten Wale, erfolgte daher zunächst auf Inseln, wie Spitzbergen und Jan Mayen, direkt am jeweiligen Wal-Strandungsplatz. Dies war der Gewinn von „Blubber“ was ein damals sehr begehrtes Öl in Europa war. Zu dieser Zeit, also vor ca. 400 Jahren, war man dafür also auf Inseln wie Spitzbergen angewiesen. Erst in späteren Zeiten führten dann technische Fortschitte dazu, daß die erjagten Wale auf offener See mit Harpunen gejagt, anschließend auch direkt an Bord der Walfangschiffe zerlegt und verarbeitet werden konnten. Somit das Prozedere, was in Herman Melvilles Roman „Moby Dick“ so detailliert beschrieben wird und was so in dem Roman auch erst ca. 200 Jahre später, als die Bestattungen der aktuell auftauenden Gräber, auf Spitzbergen geschah.

Wen dies näher interessiert und auch welche Schäden diese damaligen Walfänge angerichtet haben, kann dies gern hier nachlesen:

http://www.oekosystem-erde.de/html/walfang.html

Gemäß einiger Quellen, gibt es auf Spitzbergen ca. 800 historische Gräber von Walfängern, die übrigens aus so ziemlich allen europäischen Nationen mit Küsten stammten. Damals wurden ja nicht nur diese Gräber für verstorbene und verunglückte Walfänger angelegt, es fand auch ein ganz normales sommerliches Arbeiten, Leben und Treiben auf Spitzbergen, Jan Mayen und Teilen von Grönland statt. In dieser Zeit, die sich vom Mittelalter in die „Frühe Neuzeit“ hinzog, war das „Mittelalterliche Optimum“ eine sehr warme Zeitepoche, viel wärmer als all die uns heute als Horror beschriebenen 1 1/2 – 2 Grad wärmeren Prognosen in der ganzen aktuellen „Klimapolitik“ und all dies lange vor jeder Industrialisierung und damit auch ohne irgendwelche „schuldige“ CO2-Konzentrationen. Somit eine „natürliche“ Erwärmung/Warmzeit ohne auch nur den geringsten „Schuldeffekt“ des Menschen dafür., der genauso „natürlich“ mit dem Beginn und den Temperaturstürzen der „Kleinen Eiszeit“ ab etwa Mitte des Dreißigjährigen Kriegs (1618-1648) endete.

Damit es wirklich jeder versteht. Auf Inseln wie Spitzbergen, gab es vor 400 Jahren keinerlei Permafrost, sondern nur in den Wintern Frost. Somit gab es in Spitzbergen und auch nebenan in Grönland, ganz normalen kargen Boden, in dem Särge mit den damaligen normalen Werkzeugen wie Schaufel und Hacke beerdigt werden konnten. Interessanterweise gibt es sogar eine mittelalterliche Karte von 1380, die in Italien gezeichnet wurde und nachweislich echt, also keine Fälschung ist, wo man sogar die Inlandsgebirge im Innern von Grönland passend abgebildet hat. In einer MITTELALTERLICHEN KARTE wohlgemerkt!

Dies ist um so bemerkenswerter, weil der moderne Mensch, erst ab dem Jahre 1959, als Ergebnis der damaligen Internationalen Grönlandexpedition EGIG, überhaupt die Existenz und Lage der grönländischen Inlands-Gebirgsketten unter dem grönländischen Inlandseis, per geophysikalischer Messungen beweisen und lokalisieren konnte. Im heutigen allmählich auftauenden Permafrost von Spitzbergen und auch den Küstenrändern von Grönland, gab es vor 400 Jahren in den Sommermonaten, völlig frostfreie und ganz normale Böden, in denen man die nun geborgenen Särge genauso wie im Binnen-Europa, bestatten konnte. Dazu ist für Grönlands Küstengebiete auch mittelalterlicher Ackerbau durch Wikinger überliefert und das Wort Grönland steht für „GRÜNLAND“ aus dem Norwegischen. Darüber hinaus wurden in Kanada bereits auf Neufundland, bisher zwei Wikingersiedlungen entdeckt, die nach deren Überlieferungen im „Vinland“ lagen, was „Weinland“ bedeutet und lange Zeit, nur als „unbewiesene Sagen“ galt.

Wer dazu weiß, wo heute die nördlichen Grenzen des Weinbaus liegen und dann erfährt, daß es im Mittelalter/Frühe-Neuzeit auch Weinbau bis hoch ins Baltikum gab, der staunt erst mal ungläubig. Im mittelalterlichen Norwegen etwa besaß der Erzbischof von Trondheim, dort seinen eigenen bischöflichen Weingarten am Bischofssitz. Wer sich das einmal ruhig überdenkt, der ahnt zumindest, um wieviel wärmer als heute, es damals auf diesem Planeten Erde war. Dies alles ohne menschliches Zutun und ohne all die Horrorszenarien des angeblichen Weltuntergangs der heutigen Zeit, falls es „menschgemacht“ um 2 Grad oder mehr, wärmer würde.

Wenn man sich nun nochmals all dies nur mal in Ruhe durch den Kopf gehen läßt und die „Panikmeldungen“ der Jetztzeit nüchterner überdenkt, bleibt zumindest Verwunderung und Rätselraten. Es gab tatsächlich und bewiesen, schon viel wärmere Zeiten auf der Erde, wie vor 400 Jahren und trotzdem ist der Planet damals nicht „gekippt“ und es kam damals trotz noch mehr Wärme als die ominösen „2 Grad mehr“ als heute, auch nicht zu einem Tier-Massensterben, nicht zu Küstenüberflutungen und all den Horrorszenarien, mit denen man das „Paris-Abkommen“ begründet hat. Warum war das damals eigentlich alles NICHT so aber käme HEUTE gemäß IPCC/PIK&Co. garantiert weltuntergangsmäßig auf uns zu? Dies alles durch eine angeblich „menschgemachte Klimaerwärmung“ durch den „Treibhauseffekt“, die übrigens entgegen aller Meldungen und IPCC-Berichte, leider wirklich noch immer NICHT wissenschaftlich bewiesen worden sind! Dies alles trotz schon irrsinnig hoher und hierzu verbratener Forschungsgelder in Milliardenhöhe überall! Seltsam ist da nur, dass keiner der unzähligen Journalisten und Reporter solche Fragen überhaupt stellt. Ist das jetzt nur scheinreligiöser „Klimaschutzglauben“ dieses Berufsstandes oder eher nüchtern ausgedrückt, nur allein die nackte Angst, sonst womöglich seinen Job zu verlieren?

Sie glauben das nicht? OK, dann meine Frage an die Leserinnen und Leser zum Beantworten unten in den Kommentarzeilen! WER als führender Spitzenwissenschaftler, hat denn bis heute, also März 2020 den „Treibhauseffekt“ und die „Schuld des Menschen“ konkret „wissenschaftlich bewiesen“ und dies dann in welcher konkreten Forschungsarbeit, bei welchem Wissenschafts-Institut bzw. Universität getätigt und WANN (Jahr/Monat) und WO (Forschungsstätte) erstmals veröffentlicht? Dazu natürlich wann der betreffende Forscher oder die Forscherin, für diese offenbar global immens wichtige „Erkenntnis mit Beweis“ dann logischerweise auch den dafür verdienten NOBELPREIS erhalten hat? Bitte nennen Sie mir diese Angaben im Kommentar dieses Beitrags und ich werde bei tatsächlichem Erfolg und Füllen einer Wissenslücke, dann darauf sofort Abbitte leisten und meine bisherige Unwissenheit darin entschuldigen.

Googeln hat dazu nämlich bisher keinerlei brauchbares Ergebnis gebracht! Gibt man bei Google „Treibhauseffekt „+“Beweis“ ein, dann liest man eher das Gegenteil aber keinen im Sinne des IPCC wirklich brauchbaren Funds. Dieser Artikel wird zu einem späteren Zeitpunkt hier, noch ein paar locker folgende eigene Ergänzungsartikel erhalten, in denen Sie lesen werden, dass bestimmte mittelalterliche Handels- und Pilgerwege über die Alpen, in der „Kleinen Eiszeit“ gemäß gefundener Aufzeichnungen von damals, ab ca. 1720 zunehmend vereisten („Kleine Eiszeit“) und damit nach Jahrhunderten der steten Nutzung durch die Menschen, dann völlig umpassierbar wurden.

Daß damals alpine Hochalmen vereisten und höchste Siedlungen aufgegeben werden mussten, was damit kurioserweise bereits damals sinngemäße „Klimaflüchtlinge“ ergab (also ab ca. 1720 !). Dies sind alles Dinge die die enorme Warmzeit des Mittelalters, zusätzlich zu den Särgen auf Spitzbergen unleugbar beweisen und belegen. Dazu sind es nun mal wirklich harte Tatsachen, die all die heutigen „klimapolitischen“ Aussagen, Behauptungen und Forderungen der Jetztzeit, als „Panikmache“ bloßstellen! Natur- und Umweltschutz, muss immer gern sein! Der Autor dieser Zeilen war einst selbst der zuständige Naturschutzreferent eines anerkannten Verbandes, für ein ganzes Bundesland. Das ist also das Normalste auf der Welt für verantwortungsbewusste Menschen. Doch „Klimaschutz“ ist da wie ein wohl gehütetes und ständig wiederholtes Hexenmärchen dagegen, wie eine Art „Ersatzreligion“ die das nüchterne eigene Denken der Bürger vernebelt.

Wie war das nochmal mit dem klassischen Zitat von Immanuel Kant, daß man den eigenen Verstand und das eigene Denken auch mutig nutzen solle, anstatt nur Anderen (Politik, IPCC, PIK, Wirtschaft, Verbände) das Denken und dies alles, viel zu gutgläubig zu überlassen?

 




Nicht nur Käse aus Holland: Wasserstoff

Der einzige und vermeintliche Vorteil einer solchen Technik ist, dass kein CO2beim Einsatz entsteht, was den geltenden Klimadogmen sehr entgegen kommt. CO2ist bekanntlich ein Molekül von ca. 0,1 mm Größe (Greta Thunberg kann, qualitätsjournalistisch bestätigt, CO2-Moleküle mit bloßem Auge sehen, was nach ophthalmologischen Erkenntnissen auf diese Größe schließen lässt), das bei zunehmender Konzentration in der Luft aufgrund der Zusammenstöße mit dem Kopf schwere Schädel-Hirn-Traumata auslösen kann, die sich in manischer Klimahysterie äußern.

Elementarer Wasserstoff hat allerdings den Nachteil, dass das nächste natürliche Vorkommen ca. 150 Millionen Kilometer oder 8,3 Lichtminuten entfernt ist und eine Temperatur von 5.500°C aufweist, was Gewinnung und Transport etwas problematisch machen. Wasserstoff muss folglich auf der Erde aus anderen Stoffen produziert werden.

Stand heute

Das und der technisch nicht gerade unheikle Umgang mit elementarem Wasserstoff haben seinen Einsatz bislang auf wenige industrielle Bereiche beschränkt, aber das soll ja anders werden. Man produziert ihn derzeit hauptsächlich durch thermische Formierung von Erdgas (Methan) mit Wasser oder partielle Oxidation von Erdgas, wobei Wasserstoff und CO2entstehen, alternativ auch durch Zersetzung von Methan im elektrischen Lichtbogen, wobei neben Wasserstoff elementarer Kohlenstoff anfällt. Da Erdgas bei unter 4 ct/kWh liegt, die Verluste erträglich sind und man bei den Produktionsprozessen bislang auf nichts Rücksicht nimmt, ist das ökonomisch in Ordnung. Aus klimadogmatischer Sicht müsste das CO2der ersten Verfahren abgeschieden und gelagert werden, was den Wirkungsgrad unter 50% treiben würde, und da der Kohlenstoff des letzten Verfahrens, in dem fast die Hälfte der Energie steckt, ebenfalls unbrauchbar wäre, landet man auch da bei der gleichen Wirkungsgradhausnummer. Zudem widerspricht der Einsatz von Erdgas Ressourcendogmen.

Wasserstoff aus Wind und Sonne

Dogmatisch korrekt und obendrein effizienter wäre eine komplett CO2-freie Produktion durch die Elektrolyse von Wasser, bei der immerhin ca. 85% der eingesetzten Energie im Wasserstoff landen würde. Dazu braucht man Strom. Den könnte man aus AKWs beziehen, Kosten z.Z. ca. 4 ct/kWh, langfristige Tendenz: abnehmend. Würde man das machen, wären bei einem Grundpreis von knapp 5 ct/kWh nachfolgende Verluste je nach Anwendung vermutlich kein großes Problem.

Will man aber nicht (Kein-AKW-Dogma). Es muss alles mit Windkraft oder Fotovoltaik gemacht werden, Kosten ca. 12 ct/kWh, Tendenz langfristig eher zunehmend. Da in Summe ohnehin nicht genügend Wind und Sonne zur Verfügung steht, zeitweise aber manchmal zu viel, will man diesen zeitweisen Überschuss für die Wasserstoffproduktion nutzen. So weit die offizielle Version, die bereits daran hapert, dass es nicht genügend Wind- und Sonnenstrom für alle Anwendungsgebiete gibt und geben wird. Aber das verschweigt man besser.

Die Niederländer wollen nun im Groninger Land einen neuen riesigen Windpark bauen. Der sollte zunächst soundsoviel Wohnungen versorgen können, falls der Wind weht, und ansonsten Wasserstoff produzieren. Inzwischen haben die Niederländer nachgerechnet: das mit den Wohnungen lohnt irgendwie nicht, also planen sie jetzt, nur Wasserstoff aus dem Windstrom zu produzieren. So um die 800.000 to/a sind geplant und irgendwie soll der Wasserstoff dann auch zu den Industrien an Rhein und Ruhr und zu Verbrauchern anderswo kommen. Die Niederländer meinen, das lohnt sich (für sie). Schauen wir uns das mal genauer an.

Ein paar Eckdaten

Im weiteren schauen wir auf ein paar Zahlen. Manche sind problemlos in Tabellenwerken zu finden, bei anderen ist das weniger einfach. Doch zunächst einmal zu den einfachen Sachen: Wasserstoff ist ja fürchterlich energiereich. Pro Kilogramm liegt er im Vergleich mit anderen Energieträgern deutlich an der Spitze, wobei wir hier die Verbrennungsenthalpie bei vollständiger Verbrennung betrachten.

Energieinhalt Wasserstoff Methan Butan Kohle
kJ/kg 286.000 50.125 49.620 32.750

Diese Werte werden gerne verkauft, um dem Betrachter den Wasserstoff schmackhaft zu machen. Für den Transport ist aber das Volumen interessanter als das Gewicht, und da sieht die Bilanz für den Wasserstoff weniger brillant aus:

Energieinhalt Wasserstoff Methan Butan Kohle
kJ/m³ (Gas) 25.535 35.803 128.500 (~82*10⁶)
kJ/m³ (F) 20,2*10⁶ 21*10⁶ 28*10⁶ ~82*10⁶

Egal wie man es betrachtet, Steinkohle liegt volumenmäßig an der Spitze. Aufgelistet ist der Energieinhalt bei Normaldruck/Temperatur als Gas und sowie als Flüssiggas. Wenn man Gas komprimiert, liegt man irgendwo dazwischen. NPT-Wert * Druck in bar = Energieinhalt. Auch als Flüssiggas bringt Wasserstoff gerade einmal 70 kg/m³ auf die Waage und hat dann eine Temperatur von -252°C, die Alkane wiegen immerhin schon um die 500 kg/m³ (bei -160°C und 0°C), Kohle bei ca. 2,5 to. Solche Daten, die für den Transporteur interessanter sind, muss man allerdings selbst ausrechnen.

Die Frage wäre dann: Gas oder Flüssiggas? Die Russen liefern ihr Erdgas durch Röhren zu uns, die US-Amerikaner verflüssigen es und liefern es per Tanker. Ziemlich leicht lässt sich ermitteln, womit man bei Flüssiggas zu rechnen hat:

Verluste Wasserstoff Erdgas
Verflüssigung ≥35% ~12%
Lagerung pro Tag ~3% ~0,1%

Verflüssigung kostet recht viel Energie, was einer der Gründe ist, weshalb das US-Gas auch teurer ist als das russische, aber das nur nebenbei. Bei Erdgas (Siedepunkt -161°C) hält sich das trotzdem noch in Grenzen, Wasserstoff mit einem um fast 100°C niedrigeren Siedepunkt ist aber ein echtes Problem: In Houston eingeschifft wäre in Rotterdam weniger als die Hälfte übrig. Was für die Niederländer auch gelten würde, wie wir gleich sehen werden.

Die Logistik der Niederländer

Für die niederländische Wasserstoffproduktion kommt ein anderes Problem hinzu, das sie praktisch auf einen Stand mit Wasserstoff aus Houston setzen würde, würden sie auf Flüssigwasserstoff setzen: mit einem Atomkraftwerk könnte man den Wasserstoff „just-in-time“ in der Menge produzieren, in der er benötigt wird, die Niederländer müssen aber so produzieren, wie der Wind weht. Nimmt man Stromleistungen aus Wind und Leistungsbedarf der Kunden als Vorbild für eine Wasserstoffwirtschaft, bedeutet das über den Daumen gepeilt, dass von den 800.000 to/Jahr über den Daumen gepeilt ein Drittel bis zur Hälfte längere Zeit gelagert werden müsste. Nach Elektrolyse, Verflüssigung, Transport und Lagerung kämen noch bestenfalls 35% der Energie an, was mit allem Drumherum bereits zu einem Preis von knapp 50 ct/kWh ab Tank führen würde.

Das Mittel der Wahl ist somit der Transport von Wasserstoff als Gas durch Pipelines, weil die üblichen Druckgasflaschen mit 50 l Inhalt,  300 bar Fülldruck und 50 kg Gewicht wohl kaum  lukrativ sind. Auch in Pipelines muss das Gas allerdings komprimiert werden. Bei AKW-Wasserstoff käme man vermutlich mit den üblichen 16 bar aus. Bei den großen Mengen, die bei Windkraftproduktion zwischengespeichert werden müssten, müsste man aber auch Gaskavernen, in denen das Erdgas zwischengespeichert wird, einsetzen und bei höheren Drücken arbeiten. Wenn man Gas komprimiert, muss Volumenarbeit geleistet werden, außerdem erhitzt sich Gas bei Kompression. Da weder die Temperatur in den Leitungen/Speichern gehalten werden kann noch an der Verbraucherseite die mechanische Energie bei der Entspannung genutzt wird, handelt es sich um reine, bei größer werdendem Druck steigende Verluste. Die sind zwar nicht so spannend wie bei der Verflüssigung, aber bei ca. 80 bar bleiben ohne Berücksichtigung anderer Verluste wie beispielsweise Erzeugen und Halten des Kissendrucks in den Kavernen oder Druckerhöhungen in längeren Leitungen vom Windstrom noch ca. 60% übrig. Beim Verbraucher dürften also auch hier nur knapp über 50% ankommen.

Solche Zahlen sind übrigens schon nicht mehr ganz einfach zu ermitteln. Zum einen redet man ungern über Verluste, zum anderen werden alle möglichen Schönrechnungsfaktoren eingerechnet. Wir kommen später noch darauf zurück. Solche Transportverluste entstehen zwar auch beim Erdgas, aber beim Wind-Wasserstoff müssen wir mindestens vom 5-fachen des Grundpreises von Erdgas ausgehen und dieser Faktor findet sich in allen Zahlen wieder. Zudem spielen auch noch weitere individuelle Randbedingungen mit. Als Kunde ahnt man vermutlich so ganz langsam, wohin sich die Abrechnung für die Heizung bewegt, wenn statt Erdgas niederländischer Wasserstoff eingesetzt wird.

Power-2-Gas

Die Pipeline-Version hat allerdings die Nebenbedingung, dass man auch Pipelines zur Verfügung hat. Wenn genügend vorhanden sind, kann man Erdgaspipelines außer Betrieb nehmen und umwidmen, ansonsten müsste man neue bauen. Das Gleiche gilt für Speicherkavernen. Als Alternative zum Wasserstofftransport bietet sich Power-2-Gas an, wobei man den Wasserstoff gar nicht erst transportiert, sondern mit CO2zu Methan umwandelt. Da die Reaktion zwischen Wasserstoff und CO2in der Gesamtbilanz exotherm ist, sieht das gar nicht so schlecht aus, wenn man die Abwärme nutzen kann.

Hier dreht allerdings die Schönfärberei voll auf. Realistisch betrachtet kommen von der Windkraft vermutlich ca. 60% im Methan an, das dann dem normalen Erdgas untergemischt werden kann. Spezialisten rechnen das unter Hinzuziehen aller möglichen Nebenbedingungen und theoretischer Optionen auf Werte nahe 100% hoch, also Wind=Gas. Eine der Mogelpackungen, die drinstecken: Wo bekommt man das CO2her? Richtig, aus CO2-Abscheidung aus anderen Prozessen. Das kostet ebenfalls wieder Energie, die bezahlt werden muss, was letztlich auch den Preis für das künstliche Erdgas weiter aufbläht. Die Kreuz- und Querrechnung ist ohne viel Aufwand kaum zu durchschauen und ob wirklich alle theoretischen Effekte auch in der Praxis genutzt werden können, ist fraglich. Man liegt sicher nicht weit daneben, wenn man unterstellt, dass bei P2G in der Gesamtbilanz ungefähr 40% des primären Windstroms ankommen. Mit entsprechenden Auswirkungen auf die Preise.

Wasserstoffträger

Besonders im Zusammenhang mit dem immer mehr platzenden E-Mobilitätstraum werden dem Publikum gerne flüssige organische Wasserstoffträger verkauft (dass Wasserstoffgas an Tankstellen eine dumme Idee sein könnte, scheint selbst Grünen ohne Knallgasreaktion einzuleuchten). Der Wasserstoff wird hierbei bei erhöhten Temperaturen chemisch in ein Molekül eingebaut und aus diesem bei noch höheren Temperaturen wieder freigesetzt. Handelsüblich sind etwa 150°C und höherer für Schritt 1 sowie 300°C für Schritt 2, jeweils in Gegenwart bestimmter Katalysatoren. Schritt 1 ist exotherm, wobei man versuchen kann, die Verluste durch Nutzen der Abwärme zu minimieren, Schritt 2 endotherm, d.h. es muss auf jeden Fall Energie zugeführt werden. Es ist etwas schwierig, an Daten zu gelangen, aber Wirkungsgrade bis zu 70% scheinen halbwegs realistisch zu sein. Die Datenlage ist deshalb schwierig, weil die den Wasserstoff nutzenden Brennstoffzellen einen höheren Wirkungsgrad als Benzinmotoren aufweisen, was sich propagandistisch besser macht als die Einzelwerte. Vermutlich sieht die Gesamtbilanz ohne alles Schönen kaum anders aus als bei Benzin.

Wieviel Wasserstoff kommt dabei zusammen? Nehmen wir als Rechenbeispiel einmal Toluol (verwendet werden andere verwandte Verbindungen, aber Toluol, ein Benzolabkömmling, war mal ein Kandidat), das bei einer Molmasse von 92 g/mol insgesamt 3 mol = 6 g Wasserstoff reversibel binden kann. Pro Kubikmeter kann Toluol bei einer Dichte von 0,87 g/cm³ umgerechnet ca. 14 kg Wasserstoff speichern, was einem Energieinhalt von 4*10⁶ kJ entspricht. Das ist gerade einmal 1/5 dessen, was ein LNG-Erdgasfahrzeug im gleichen Volumen mit sich führt. Nicht gerade der Renner. Bei der Untersuchung anderer Möglichkeiten, Wasserstoff an irgendetwas zu binden, findet man kein wirklichen Unterschiede zu diesen Werten.

Zum Transport von Wasserstoff eignen sich organische Wasserstoffträger somit eher nicht, und auch für die Mobilität kommen neben dem relativ geringen Energieinhalt und der damit notwendigen Tankstellendichte andere Probleme hinzu. An der Tankstelle muss man erst die alte Flüssigkeit ablaufen lassen, bevor man den Tank neu füllen kann, und auch der Tankwagen fährt voll wieder zurück und nicht leer. Auch mit AKW-Wasserstoff stellt sich die Frage, ob das wirklich die Technik der Zukunft ist, mit dem Preisgefüge, das sich aus Windkraft-Wasserstoff ergibt, braucht man diese Frage allerdings gar nicht erst zu stellen.

Strom-Speicher

Die Gastechniken werden auch als Energiepuffer für windschwache Zeiten gehandelt, d.h. man macht aus dem Gas in einem Kraftwerk wieder Strom, wenn kein Wind weht. Wäre genügend Strom vorhanden, wären Gasspeicher als solche vermutlich im Gegensatz zu allen anderen Ideen tatsächlich skalierbar, d.h. man könnte möglicherweise genügend Kavernen als Puffer bauen. Dummerweise landen wir bei P-2-G-2-P bei Wirkungsgraden um die 30%, d.h. in Überschusszeiten muss der Wind 3 kWh Überschussstrom produzieren, um in Mangelzeiten 1 kWh wieder zurück gewinnen zu können. Wir können uns die weiter Diskussion vermutlich sparen.

Außer Spesen nichts gewesen

Wie schon erwähnt, war es teilweise nicht ganz einfach, realistische Zahlen aus dem üblichen Mogelwerk heraus zuziehen und ich erhebe keinen Anspruch, wirklich die letzten technischen Details berücksichtigt zu haben. Wer in den Zahlen einen Rechenfehler findet, darf ihn auch gerne behalten. Aber auch Korrekturen dürften die Bilanzen nur unwesentlich ändern. Technisch ist alles machbar, großenteils auch vom Standpunkt eines Ingenieurs hochinteressant, aber bezüglich der Dogmenbefriedigung, unter der alles firmiert, skaliert mal wieder nichts. Da die große Stromwende einschließlich der Elektromobilität aus einer ganzen Reihe von Gründen nicht funktioniert und das selbst dem grünen Ideologieapparat auffällt, verkauft man dem Volk nun die nächste Technik ausgerechnet auf Basis des Nichtfunktionierenden nach dem Motto „wenn etwas nicht funktioniert und obendrein zu teuer ist, propagiere ich eben etwas, was überhaupt nicht funktioniert und noch teurer ist“. Und keiner lacht.

 

Über den Autor
Prof. Dr. Gilbert Brands hatte eine Professur an der FH Emden im FB Elektrotechnik + Informatik, Lehr- und Arbeitsgebiete Kryptologie, IT-Sicherheit, Programmierung, Mathematik, Quanteninformatik und anderes Hardcorezeug aus der Informatik. Davor selbständig, angefangen 1982 mit der Entwicklung eines Systems zur zeitgleichen Leistungserfassung für die RAG. Vom Studium her ist er Physikochemiker.

 

 




Liste der Wissenschaftler, die menschengemachten Klimawandel für Humbug halten

Der ein oder andere wird es mitbekommen haben: Wikipedia, dieses Mal en.wikipedia hat die Liste der Wissenschaftler, die dem “wissenschaflichen Konsens über globale Erwärmung” (List of scientists who disagree with the Scientific consensus on global warming) widersprechen, gelöscht. Die Klima-Mafia macht nicht einmal mehr den Versuch, die Zensur, das Umschreiben der Geschichte und das Fälschen von Daten zu kaschieren. Es wird alles ganz offen betrieben.

Das ist eine normale Entwicklung, denn Mitglieder von Kulten verlieren immer mehr Beziehung zur Realität, werden ihrer Sache, weil niemand widerspricht, immer sicherer und halten sich für unangreifbar. Douglas Pratt hat dieses Stadium als den Übergang vom passiven zum aktiven Fundamentalismus (und Terrorismus) beschrieben. Die schon zuvor vorhandene Unfähigkeit, von der eigenen Ansicht abweichende Meinungen auch nur zu akzeptieren, bricht sich nun als offen aggressives Verhalten Bahn, an dessen Endpunkt, je nach dem Widerstand, der für Fanatiker dieser Art natürlich vollkommen unerwartet kommt, oftmals Terrorismus steht. Zur Durchsetzung des eigenen Glaubens gegen rationale, kritische Zweifler ist jedes Mittel recht.

Die Hintergründe und der Werdegang des endgültigen Abschieds von Wikipedia aus dem Kreis der ernstzunehmenden Seiten, ist auf Elektroverse gut beschrieben. Wir wollen mit diesem Post dafür sorgen, dass die Liste der Wissenschaftler, die Rückgrat genug haben, um sich gegen Klima-Mafia und Irrationalität zu stellen, nicht in Vergessenheit gerät, und es der Klima-Mafia am Ende nicht noch gelingt, ihre Lüge vom angeblichen Konsens unter Wissenschaftlern über den Klimawandel durchzusetzen, weil es unmöglich geworden ist, im Internet und an sonstigen Stellen noch Spuren von denen, die diesen Wahnsinn mit rationalen Argumenten bekämpft haben, zu finden.

Wir haben daher die Liste, für die Wikipedia keine Verwendung mehr hat, gesichert. Es gibt sie hier als PDF.Wikipedia-List-of-Scientists

Ladet die Liste herunter, verbreitet die Liste, damit niemand sagen kann, er hätte noch nie davon gehört, dass Wissenschaftler dem Irrsinn des menschengemachten Klimawandels widersprochen hätten. Denn darin besteht offenkundig das Ziel der Klima-Mafia: Die falsche Behauptung vom angeblichen Konsens der Wissenschaftler zur religiösen Wahrheit aufzubauen, um ein perfektes Vehikel zu haben, Bürger zu erpressen und ihnen unter dem Vorwand “Klimaschutz” so viel abzupressen (Geld und Freiheit natürlich) wie möglich.

Die Benennung der Liste als “List of scientists who disagree with the Scientific consensus on global warming” zeigt übrigens schon, wie denkbehindert manche bei Wikipedia sind. Dass man kaum von einem “Konsensus” sprechen kann, wenn man eine Liste zusammenstellt, deren bloße Existenz gerade zeigt, dass es KEINEN Konsens gibt, sollte jedem, mit normalen Verstand Begabten eigentlich auffallen, ihm einsichtig sein. Dass es bei Wikipedia wohl niemandem aufgefallen ist, sagt eigentlich schon alles über die geistige Klarheit der dort versammelten.

Der Beitrag erschien zuerst bei ScienceFiles hier




Stromversorgung 2030

Lager B beruft sich dabei auf die Physik und wird angeführt von professionellen Leuten wie Hanns-Werner Sinn, dem ehemaligen Chef des IfO-Instituts, der seit 2012 bei jeder neuen Idee aufgrund durchaus mit normaler Schulbildung nachvollziehbaren Rechenmethoden vorrechnet, dass auch das nicht klappt.

Dazwischen steht die Gruppe der Politiker, Regierungen und Behörden mit der Behauptung „Wir haben alles durch gerechnet und es funktioniert!“, wobei sie allerdings auf genaueres Nachfragen keine Antwort geben oder sich notfalls auch für nicht zuständig erklären. Gruppe B bringt das in der Meinung, man müsse nur korrekte und prüfbare Informationen verbreiten und die Irrtümer aufklären, mehr oder weniger zur Verzweiflung, denn die von ihr gelieferten Fakten werden schlicht als Minderheitsmeinung abgetan. Grotesk: während eine Greta Thunberg auf einer Pressekonferenz der EU-Kommission herumtönt, „mit der Physik kann man nicht diskutieren“, wird hier genau das getan.

Aber ist die Politik wirklich einfach nur borniert und unbelehrbar? Treibt sie die Gesellschaft mit geschlossenen Augen trotz aller Warnungen in die Katastrophe eines totalen Blackouts, der selbst nach Gutachten des Bundestages das Ende der zivilisierten Gesellschaft bedeuten könnte? Oder stecken andere, noch perfidere Gedanken dahinter, die selbst Gruppe B nicht berücksichtigt? Schauen wir mal.

DIE WELT sprach mit dem Chef der Kohle-Sparte von E.on, Andreas Schierenbeck. Der sagt: „Der von der Bundesregierung beschlossene Kernkraft- und Kohleausstieg wird eine erhebliche Stromlücke zur Folge haben…Im Ergebnis schalten Sie große Kraftwerkskapazitäten ab, obwohl in Deutschland eine Stromlücke droht, wie Sie sagen…Einen Blackout kann sich bei uns in Deutschland keiner mehr vorstellen. Ich habe lange genug in den USA gelebt und weiß, was zwei Wochen Blackout bedeuten. / Link zum Fundstück

Das 65%-EE-Ziel 2030

Der EE-Ausbau ist am Limit. Immer mehr Bürger wehren sich gegen die weiteren Ausbau, weil sich allmählich auf dem Land die Einsicht breit macht, dass die Anlagen alles andere als umweltfreundlich und gesundheitsneutral sind. Wie weit die Politiker von der Realität entfernt sind, verrät ein Kommentar der Grünenpolitikerin Katharina Schulze, die auf einem Foto Windräder hinter einem Dorf für ein Fotomontage hält. Die Branche kriselt. In Sachsen wurden beispielsweise 2019 nur 12 neue Anlagen gebaut.

Das passt nicht in das politische Bild. Stellvertretend für andere Medien berichtet die Leipziger Volkszeitung am 27.2.2020, das nach Ansicht mehrerer Bundesminister die gerade eingeführte 1000m-Abstandsregel für Windkraftanlagen von Wohnsiedlungen in eine unverbindliche Empfehlung umgewandelt werden muss, da ansonsten das Ziel einer 65%-igen Versorgung aus EE im Jahr 2030 nicht umsetzbar ist. Am 7.3.2020 legt Sachsens Ministerpräsident Kretschmer (CDU) eben dort noch mal nach und fordert, die Instrumente, mit denen sich die Bürger heute erfolgreich gegen weitere Anlagen wehren (z.B. Umweltschutz, Verbandsklage), abzuschaffen, um nicht ständig durch Leute aufgehalten zu werden, die „damit eigentlich nichts zu schaffen haben“.

65% bedeutet aber mehr oder weniger eine Verdopplung der heutigen Anlagenzahl bis 2030, zumal zunehmend mehr windschwache Gebiete erschlossen werden müssen. Was ist an den 65% so bedeutend, dass den Betroffenen und ihren Vertretern die Rechte an der Mitwirkung entzogen werden sollen?

Der Energie-Monitoringbericht 2019

Eine Antwort erhält man aus dem Energie-Monitoring-Bericht 2019 des Bundeswirtschaftsministeriums, der die Versorgungssicherheit mit Strom bis zum Jahr 2030 behandelt. Erstaunlicherweise ist EE kein zentrales Thema, sondern wird nur am Rande erwähnt und mit einer bestimmten Versorgungskapazität als vorhanden vorausgesetzt.

Ein genanntes Ziel des Netzausbaus bis 2030 ist die Beseitigung der derzeitigen Stromüberproduktion und der damit verbundenen Stromexporte, die teilweise zu Negativpreisen stattfindet. Dass die Überproduktion ein Resultat der Unvereinbarkeit der volatilen EE mit den Großkraftwerken ist, die aus verschiedenen Gründen den Schwankungen der EE-Produktion nicht folgen können, wird nicht erwähnt. Es wird schlicht an der beschlossenen sukzessiven Abschaltung der Kraftwerke festgehalten, womit das Ziel erreicht wird.

Die durch die Abschaltungen entstehende Versorgungslücke soll durch den priorisierten Bau kleinerer Gaskraftwerke von 20 MW bis 250 MW abgefangen werden. Im Zusammenhang mit diesem Kraftwerksbau soll eine Dezentralisierung und Segmentierung der Netzstruktur erfolgen. Kleinkraftwerke dieser Größenordnung sind in der Lage, mit der Volatilität der EE Schritt zu halten, womit das Erreichen des No-Exportziels garantiert wäre.

Den Autoren ist allerdings klar, dass diese Umrüstung auf Kleinkraftwerke die bisherige 100%-Versorgung bei Dunkelflauten nicht übernehmen kann. Im Monitoringbericht wird die Stromversorgung 2030 daher als eine gesamteuropäische Aufgabe definiert. Länder mit einem temporärem Versorgungsengpass müssen aus anderen EU-Ländern mit dortigen temporären Überschüssen versorgt werden. Um 2030 eine 100%-Bedarfsdeckung erreichen zu können, wird eine Erhöhung der Kapazität der Übergabeleitungen zu anderen EU-Ländern auf 55% des Gesamtbedarfs vorgesehen. Anders ausgedrückt liegt die Eigenversorgungskapazität im Fall einer Dunkelflaute nur noch bei 45%. Und hier haben wir den Grund für die Wichtigkeit des Erreichens des 65%-Ziels bei den EE zu sehen: werden diese nicht erreicht, Erzeugung und Netz aber in der beschriebenen Weise umgebaut, kommt es zu einer mehr oder weniger permanenten Unterversorgung.

Die gesamteuropäische Lösung ist allerdings eine Mogelpackung. Der Bericht weist ausdrücklich darauf hin, dass jedes EU-Land einen solchen Monitoringbericht ohne zentrale Koordination oder Abgleich mit den Nachbarn für sich selbst erstellt. Nach den EU-Vorgaben marschieren die anderen EU-Länder aber in die gleiche Richtung und bauen ihre klassischen Kapazitäten ab. Hanns-Werner Sinn u.a. haben nachgewiesen, dass Dunkelflauten über mehrere Länder hinweg keineswegs eine Seltenheit sind, d.h. die Nachbarn können mit hoher Wahrscheinlichkeit bei einem Strommangel nicht liefern. Im Monitoringbericht wird darauf nicht eingegangen, aber die Möglichkeit angesprochen, dass Strom über sehr weite Strecken transportiert werden muss. Eine Betrachtung der Verluste, wenn nach diesem Modell Strom aus Spanien hier Lücken schließen soll, wird allerdings wieder ausdrücklich ausgeschlossen, ebenfalls der Fall, dass Frankreich den Strom ebenfalls benötigt und hier nichts ankommt.

Trotz dieser Verschleierungstaktik ist den Autoren anscheinend klar, dass eine zumindest zeitweise Unterversorgung nicht zu umgehen ist. Der Bericht sagt im Klartext, dass der heutige Anspruch auf eine (weitestgehend) störungsfreie Versorgung auf Dauer nicht aufrecht zu erhalten ist, d.h. es ist mit Stromausfällen zu rechnen. Wie diese aussehen werden, wird durch die technische Maßnahmen indirekt beschrieben: die Netzstruktur soll dezentralisiert und segmentiert werden, zudem soll durch technische Maßnahmen die Regelabweichung von der Netzfrequenz so erweitert werden, so dass Frequenzverluste, die heute zur Notabschaltung führen, noch problemlos verkraftet werden können. Für den Nichttechniker sieht das harmlos aus, für den Techniker ist allerdings klar: ein Blackout soll 2030 nicht mehr total sein, wie er es heute wäre, sondern sich technisch lokalisieren lassen.

Das ist ein zentraler Punkt der Mangelplanung, weshalb er genauer erläutert zu werden verdient: bisher schaltet sich bei einer Überlast im Netz meist ein Kraftwerk ab, das die Netzfrequenz nicht halten kann, was in einer Kaskade dazu führt, dass weitere Kraftwerke bei dem Versuch, die zusätzlich Last aufzufangen, ebenfalls abschalten mussten. Da Teilnetze meist nicht separat abgeschaltet werden können, sind Notabschaltungen infolge von Überlast daher oft sehr weiträumig, aber infolge der stabilen Netze auch äußerst selten (Ausfälle infolge von Leitungsstörungen sind oft begrenzter, aber ein anderes Problem; hier geht es um grundsätzliche Unterversorgung).

Die technische Beschreibung im Monitoringbericht ist zwar allgemein gehalten, legt aber den Schluss nahe, dass zukünftig ein versorgtes Netzsegment bei Bedarf abgeschaltet werden kann, bevor die Kraftwerke selbst abschalten müssen. Etwas salopp gesprochen fällt nicht in ganz NRW der Strom mitsamt den Kraftwerken aus, sondern gezielt nur in Köln, während der Rest weiter versorgt wird. Bleibt die Unterversorgung längere Zeit bestehen, besteht technisch die Möglichkeit, nach einigen Stunden Düsseldorf vom Netz zu trennen und dafür Köln wieder aufzuschalten. D.h. man versucht nicht, einen Blackout zu vermeiden, sondern ihn zu beherrschen.

Im Falle einer Dunkelflaute ohne Importmöglichkeiten wäre theoretisch so die Hälfte der Republik ohne Strom, aber ein allgemeiner Blackout würde vermieden werden können. Konkret: bei einer 4-Tage-Dunkelflaute wie im Januar 2020 müsste sich die Bevölkerung darauf einrichten, über diesen Zeitraum hinweg statistisch nur jeweils einen halben Tag mit Strom versorgt zu werden.

Ist das so geplant? Eine kontrollierte Unterversorgung? Zumindest gibt die technische Beschreibung im Monitoringbericht, auch wenn sie oft nur in Nebensätzen gehalten wird, diese Möglichkeit her. Dazu passt auch ein „Notfallkochbuch“, das ausgerechnet jetzt vom Bundesamt für Katastrophenschutz heraus gegeben wird und nur Sinn macht, wenn es tatsächlich zu häufigeren und längeren Stromausfällen kommt. Und es würde auch die Unbelehrbarkeit der Politik durch Gruppe B erklären.

Berichtslücken

War schon die fehlenden Abstimmung der EU-Länder bei der Erstellung ihrer Monitoringberichte eine gravierende Lücke, so gibt es im Bericht weitere, teilweise in dem sie erwähnt werden, teilweise indem sie eben nicht erwähnt werden.

So prognostiziert der Bericht einen Rückgang des Strombedarfs bis 2030 um satte 8%. Mit keinem Wort erwähnt wird die E-Mobilität, die alleine, würde sie bis 2030 in dem Maßstab greifen, den die Politik vorsieht, einen Mehrbedarf von ca. 20% bedeuten würde. Ist die E-Mobilität klammheimlich bereits abgeschrieben? Auch die derzeit hippe Wasserstofftechnologie, die ebenfalls einen größeren Bedarf an elektrischem Strom besitzt, taucht mit keinen Wort auf. Stromspeichertechniken, bislang in aller Politiker Munde, werden nirgendwo erwähnt. Erwähnt werden lediglich so genannte Sektorkopplungen, also Verknüpfungen mit anderen Technikbereichen, allerdings meist in allgemeiner Form als Einsparpotentiale. Das Problem daran ist allerdings, dass die meisten Sektorkopplungsprojekte nach deren speziellen Berichten darin bestehen, anstelle anderer Energieformen Strom einzusetzen. Also auch hier eher Mehr- als Minderbedarf.

Auf die Kosten wird ebenfalls nicht eingegangen. Die Stilllegung der funktionierenden Großkraftwerke, der Gaskraftwerksbau und der Netzumbau dürften zusammen mit dem weiteren Ausbau der EE dafür sorgen, dass sich die Strompreise bis 2030 nach heutiger Kaufkraft nahezu verdoppeln. Dass eine Wirtschaft bei derartigen Preisen und notorischer Unterversorgung nicht funktionieren kann, dürfte jedem klar sein. Ob damit hinter dem Monitoringbericht tatsächlich eine Vorstellung von einer funktionierenden Gesellschaft im Jahr 2030 steht, darf wohl bezweifelt werden. Mehr Licht auf diesen Aspekt wirft ein weiterer Bericht.

Die Digitalisierung

Der Digitalisierungsreport ist ein weiteres Papier aus dem BMWi. Durch Digitalisierung des Versorgungsnetzes sollen zukünftige Versorgungsprobleme gelöst werden – auch das ein Versprechen verschiedener Politiker.

Die bereits jetzt anlaufende Digitalisierung besteht für den Stromkunden in einer Umrüstung der vorhandenen Stromzähler durch elektronische Zähler. Diese sollen es ermöglichen, dass der Stromkunde dann seine Geräte einschaltet, wenn der Strom preislich günstig ist, womit im Grund ein schon älteres Prinzip aufgegriffen wird: per Impuls wurde früher vom teuren Tagstrom auf den billigeren Nachtstrom umgeschaltet und damit elektrische Nachtspeicheröfen aufgeheizt, die tagsüber die Wohnungen warm hielten. Elektronische Zähler können das natürlich viel feiner auflösen.

Wer genauer darüber nachdenkt, wird unschwer ein paar Pferdefüße finden. Einen Geschirrspüler mag man noch so programmieren können, dass er nachts um 3 Uhr sein Programm abspult, aber bei anderen Großverbrauchern wie Waschmaschinen wird das schon schwieriger, Gefriergeräte besitzen ohnehin keine Automatik, die einen (energetisch obendrein ungünstigen) Betrieb zwischen -30°C und -18° erlauben und beim Küchenherd hört es endgültig auf, sich an günstige Tarife halten zu wollen. Was steckt wirklich dahinter?

Eine Antwort liefert ein Blick auf die Kosten: die Umrüstung eines Hausanschlusses kostet nach Angaben der Verbraucherschutzorganisationen mehrere tausend Euro Umrüstungskosten, was nur zu rechtfertigen ist, wenn das neue Gerät nicht nur zählen, sondern gezielt auch Stromkreise im Haushalt ein- und ausschalten können soll. Im Klartext: nicht nur der Wohnungsinhaber kann nach Bedarf Geräte gezielt ein- und ausschalten, auch der Stromversorger kann das und bei einer Unterversorgung gezielt Stromkreise abkoppeln. Dazu muss aber der Sicherungskasten komplett neu verdrahtet werden und daher auch die Kosten.

Der Digitalisierungreport bleibt aber hier nicht stehen. Die Digitalisierung soll total sein und alle Lebensbereiche umfassen, in denen messbare Daten anfallen. Konkret in Bezug auf die Stromversorgung ist beispielsweise ein automatischer Abgleich mit der Zahlungsfähigkeit des Kunden denkbar. Diese Feinsteuerungsmöglichkeit über die Netzsegmente des Monitoringberichtes hinaus machen durchaus Sinn, kann doch im Endausbau der Versorger individuell entscheiden, wer noch Strom bekommt und wer nicht.

Fazit

Ist das der Plan? Ich kann das nur aus der Sicht des Ingenieurs beantworten, indem ich analysiere, was technisch und logisch einen Sinn ergibt. Das dabei irgendwelche wichtigen Informationen übersehen werden, ist eher unwahrscheinlich, da zu oft danach gefragt worden und keine Antwort gegeben worden ist. Auch aus den Formulierungen der Ingenieure, die solche Berichte schreiben, geht diese innere Logik hervor. Also ja, das ist der Plan.

Wird der so hart durchgezogen? Dazu kann ich natürlich wenig sagen. Die Entwicklungen sind möglich, aber die Leute dahinter werden sicher abwägen, was umsetzbar ist und was zumindest aufgeschoben werden muss.

Was ist der Master-Plan und wer steckt dahinter? Dazu weiß ich nichts zu sagen, da gibt es sicher andere Leute, die Netzwerke besser erkennen können. Sicher nicht alle, die heute vollmundig herumtönen, denn nicht wenige Politiker weisen den notwendigen intellektuellen Hintergrund nicht auf.

Im Gegensatz zur Befürchtung der Gruppe B hinsichtlich einer Unbelehrbarkeit wissen die entscheidenden Personen in der Politik sehr wohl, in welche Richtung der Zug fährt, zumindest was die Stromversorgung angeht. Und das ist einerseits nicht die Richtung, die Gruppe A vorgegaukelt wird, und andererseits zu bösartig, als dass Gruppe B so etwas in die Überlegungen einbeziehen möchte. Hier wird eine Kontrolle der Gesellschaft durch Beschneidung des Zugangs zu Energie geplant bis hin zu individuellen Maßnahmen. Die Implikationen müssen wohl kaum erläutert werden.

Über den Autor
Prof. Dr. Gilbert Brands hatte eine Professur an der FH Emden im FB Elektrotechnik + Informatik, Lehr- und Arbeitsgebiete Kryptologie, IT-Sicherheit, Programmierung, Mathematik, Quanteninformatik und anderes Hardcorezeug aus der Informatik. Davor selbständig, angefangen 1982 mit der Entwicklung eines Systems zur zeitgleichen Leistungserfassung für die RAG. Vom Studium her ist er Physikochemiker.




“Forschen in der Klimaküche” – Die ARD in intellektueller Eiszeit arktischen Ausmaßes

Seit dem 17. Dezember treibt das Schiff durch die Arktis. 672 Kilometer hat die Polarstern bis zum 27. Februar mehr oder minder Huckepack auf einer Eisscholle zurückgelegt, im Zick-Zack, so dass es in gerader Strecke nur 406 Kilometer sind. Es ist derzeit arschkalt in der Arktis: -38,2 Grad Celsius, nicht wirklich angenehme Arbeitstemperaturen. In all der Zeit ist die Polarstern dem Nordpol auf 156 Kilometer Entfernung nahe gekommen. Die Ingenieure, die sich an Bord befinden, haben auf dem Eis eine 900 Meter lange Landebahn angelegt. Warum: Es ist nicht nur saukalt, das Eis ist auch sehr dick. Um 10 Zentimeter pro Woche wird es dicker. Seit Dezember hat sich die Dicke des Eises nahezu verdoppelt: 1.60 Meter Eis sind es im Durchschnitt. Das hat die Kapitan Dranitsyn zu spüren bekommen. Der Eisbrecher hat die neue Crew zur Polarstern gebracht und Vorräte, dafür aber so lange ge- und so viel Treibstoff verbraucht, dass ein zweiter Eisbrecher der Kapitan Dranitsyn entgegen kommen muss, weil das Schiff nicht mehr genug Treibstoff für den Rückweg hat. Es ist eben richtig kalt in der Arktis.

Wie kalt es genau ist, das ist so eine Frage. Denn eines der interessantesten Ergebnisse, das die Forscher bislang gefunden haben: Man kann der Temperaturmessung nicht trauen. Über dem Eis ist es deutlich kälter als in 20 Metern Höhe, auf dem Schiff werden andere Temperaturen gemessen als mit einem Wetterballon. Der Unterschied zwischen den Messungen ist mit vier Grad Celsius nicht gerade gering, schon gar nicht, wenn man bedenkt, dass die derzeitige Temperaturanomalie, die angeblich eine Erderwärmung, die durch Menschen verursacht sein soll, darstellt, nicht einmal ein Grad Celsius ausmacht. Es könnte sich dabei um einen Messfehler handeln. Das jedenfalls legen die Ergebnisse von der Polarstern nahe. Die Forscher haben auch bereits einen Nachtspaziergang gemacht und kleine Uboote haben das Leben unter dem Eis erkundet. Eisbären und Polarfüchse finden sich in der Nachbarschaft und Robben unter dem Eis …

Ja, man hätte wirklich eine schöne und interessante Geschichte über die 70 Millionen Euro Steuergelder, die gerade in der Arktis ausgegeben werden, machen können. Keine der Informationen, die wir oben über das, was die Forscher der Polarstern so im Eis der Arktis treiben, zusammengestellt haben, stammt übrigens von der ARD-Tagesschau. Die meisten Informationen kommen vom “Maritime Executive“. Dort wird niemand von Gebührenzahlern ausgehalten, weshalb die Texte Informationen enthalten und unterhaltsam sein müssen, damit sie gelesen werden.

Der Text, den Kilian Pfeffer aus dem ARD-Hauptstadtstudio über die MOSAIC-Expedition der Polarstern zusammengepinselt hat, enthält keine einzige Information zum Forschungsaufenthalt. Der Text ist wie ein Räucherstäbchen, angezündet, um sich mit einem Geruchsschleier, der kurzzeitig das Interesse umstehender Nasen weckt, zu umgeben. Er verbreitet viel Rauch, enthält aber keinerlei Feuer.

Schon der Titel “Forschen in der Klimaküche” wirkt gequält, ist aber wohl dem politischen Auftraggeber des Textes geschuldet.

Gleich im ersten Satz des Textes gibt es das erste wissenschaftliche Ergebnis, vielleicht auch nicht: “Die Dunkelheit, das war die größte Herausforderung”. Ja. Im arktischen Winter ist es dunkel, weil so weit im Norden die Sonne nicht scheint und, es halt dunkel ist. Denn es gibt in der “Polarnacht kein natürliches Licht”. Gut, dass wir das nun wissen. “Dynamisch, fordernd und wunderschön”, so beschreibt “Julia Regnery vom Alfred-Wegner InstitutE ihren Aufenthalt in der Arktis. Ja. Man hätte auch progressiv, anstrengend und klasse sagen können. Der Gehalt wäre derselbe gewesen. Leerformeln, hinter denen sich alles und nichts verbergen kann. Erkenntnis aus der Arktis. Noch eine Erkenntnis: “wenn es unter minus dreißig Grad kalt ist”, dann dauert es bis zu 20 Minuten ehe der Schlitten oder das Schneemobil bereit ist. Kilian Pfeffer verwöhnt seine Leser wirklich mit umfänglichen wissenschaftlichen Erkenntnissen. In der Arktis ist es saukalt und deshalb muss man mehr anziehen, was mehr Zeit einnimmt, als weniger anzuziehen. Und deshalb dauert das. Was hätten wir nur ohne diese Arktisexpedition über die Schwierigkeiten der Vorbereitung bei Minustemperaturen gewusst. Nichts!

Und dann kommt das Unvermeidliche: Pfeffer muss sich mit der Wissenschaft am Aufenthaltsort abgeben. “Gewaltige Mengen Daten”, so verrät er seinen staunenden Leser, seien bereits gesammelt worden. Wozu? Welche Daten? Worüber? Pfeffer gibt dem dummen Leservolk keine Information. Es sind gewaltige Mengen, das muss für die Dummen reichen. So wie der Hinweis, dass die “gewaltigen Mengen”, von denen “Expeditionsleiter Rex” sagt, dass er keine Ahnung hat, ob sich der Aufwand mit den gewaltigen Mengen Daten lohnt, natürlich sagt er das nicht so, sondern in ein Gleichnis vom Uhrwerk verpackt, reichen muss, um die Hoffnung zu legitimieren, dass man ein “besseres, stabileres Klimamodell” entwickeln wolle.

Das derzeitige Klimamodell ist also nicht gut und nicht stabil – interessant.

Damit muss es sein Bewenden haben. Mehr verrät der Kilian Pfeffer den Lesern der Tagesschau nicht. Es reicht, wenn sie wissen, dass 70 Millionen Euro dafür ausgegeben werden, Licht in die arktische Dunkelheit zu bringen. Aber halt, die Mitte des Beitrags ist für den offenkundigen Auftraggeber des Beitrags ohne relevanten Inhalt reserviert. Dort findet sich Folgendes:


Quelle: Bjørn Christian Tørrissen

“Eine Summe von 70 Millionen Euro fließt aus dem Bundesforschungsministerium in dieses Projekt. Das ist es wert, meint Ministerin Anja Karliczek. “Wir wissen, dass der Einfluss der Eismassen in der Arktis auf das weltweite Klima gigantisch ist. Wir sagen immer so schön: Das ist die Klimaküche dort oben – und dass die Arktis sich erwärmt, und zwar doppelt so schnell wie der Rest der Erde. Das zeigt schon, wie groß die Dramatik ist und dass die Geschwindigkeit beispiellos ist.”

Falls Sie bislang noch nicht an der geistigen Klarheit deutscher Politdarsteller zweifeln, beginnen Sie umgehend damit. Die Arktis ist also die Klimaküche, die sich “doppelt so schnell wie der Rest der Erde erwärmt”, was zeigt, wie groß die Dramatik ist und dass die Geschwindigkeit beispiellos ist, die Geschwindigkeit der Dramatik oder die Geschwindigkeit der Eisschollen oder die der Köche in der Klimaküche. Niemand weiß worauf sich das Wortgestammel, das belegen soll, dass 70 Millionen Steuereuro nicht in den Sand gesetzt sind, beziehen soll, aber wir wissen nun, dass Ministerdarsteller Karliczek seine Informationen aus dem Spiegel bezieht.

Dort darf Anders Levermann schon 2017 ungestraft behaupten: “Die Arktis erwärmt sich doppelt so schnell wie der Rest des Planeten”, sagt Anders Levermann vom Potsdam-Institut für Klimafolgenforschung”. Das Potsdam-Institut für Klimafolgenforschung (PIK) lebt bekanntermaßen davon, einen menschengemachten Klimawandel herbeizureden und die Vertreter des Instituts reagieren neuerdings sehr empfindlich auf Kritik, die natürlich ungehörig ist, angesichts der Überzeugung der PIK-er, dass sie das Klima kontrollieren.

Die Belege dafür, dass die Arktis sich “doppelt so schnell wie der Rest des Planeten” erwärmt, bestehen im Wesentlichen darin, dass die mit Eis bedeckte Meeresfläche zurückgegangen sei und das Eis immer dünner werde und dunkles Wasser, das absorbiere Sonnenenergie und erwärme sich im Gegensatz zu Eis, das weiß sei und Sonne reflektiere, vor allem im arktischen Winter … ladiladilada.

Derzeit findet selbst der Ableger von NOAA, das National Snow and Ice Data Center an der University of Colarodo in Boulder in der Arktis so viel Eis, wie schon lange nicht mehr. Die folgende Abbildung stammt vom heutigen Tag und zeigt, dass derzeit mehr Meereseis in der Arktis zu finden ist, als in den Jahren 2018, 2016, 2014 usw. Die Ausdehnung des Meereseises ist größer als im Durchschnitt der Jahre 2001 bis 2010 und liegt ziemlich genau im Range des Durchschnittes für die Jahre 2011 bis 2019. Kurz: Falls sich die Arktis wirklich doppelt so schnell erwärmt wie der Rest des Planeten, dann führt diese Erwärmung dazu, dass es mehr Meereseis gibt.

Nicht nur das, die Erwärmung hat auch zum Ergebnis, dass die Dicke des Meereseises, wie oben auf Grundlage der nagelneuen Forschungsergebnisse von den Wissenschaftlern der Polarstern beschrieben wurde, pro Woche um 10 Zentimeter steigt, und darüber hinaus hat die doppelt so schnelle Erwärmung zum Ergebnis, dass die Eisdicke, wie sie Cryosat misst, seit Jahren weitgehend unverändert ist und in den letzten Jahren eher zunimmt als abnimmt.

Es ist dies die ulkigste Erwärmung, die uns je untergekommen ist. Aber in einem Zeitalter, in dem Irre zu Rechtsextremisten umetikettiert werden, oben unten und eins und eins Acht ergibt, ist das vermutlich nur ein neuer Kollateralschaden, der der Vernunft zugefügt wird, von Politdarstellern und ihren Medienkaspern die alle eines gemeinsam haben: Keine Ahnung.

Übrigens haben öffentlich-rechtliche Sender einen Bildungsauftrag. Das nur, damit es nicht vollständig in Vergessenheit gerät.

Der Beitrag erschien zuerst bei ScienceFiles hier




Der Sonntagsfahrer:  Streetscooter – die nackte Kanone der Post

Vor allem aber sind Sie, liebe Leser, in guter Gesellschaft, denn der Herrgott liest Achgut.com. So schrieb ich in dieser Kolumne ziemlich genau vor einem Jahr:

Ich habe mich entschlossen, den Herrgott auf meine Seite zu ziehen. Zu diesem Zweck werde ich mich in das kleine Kirchlein mit dem Zwiebelturm begeben, das direkt gegenüber meiner Wohnstatt in den bayrischblauen Himmel ragt. Dort werde ich auf einer harten Bank Platz nehmen, hinauf in das barocke Gewölbe zu den Engeln blicken und Fürbitte für die wirklich Beladenen und Verdammten leisten.

Es folgten fünf Fürbitten von denen die vierte lautete:

„Oh Herr, stehe den Zustellern der Post bei, die einem elektrischen Streetscooter ausgeliefert sind.“

Im Alltag, so begründete ich meine Bitte bei der letzten Instanz, blieben Streetscooter mitten in der Pampa auf der Strecke liegen. Zusteller müssten mehr auf den Ladestand der Batterie achten als auf ihre Arbeit, aus Sorge darum, ob sie es noch bis nach Hause schaffen. An manchen Tagen sei es fürchterlich kalt in den Dingern, weil der Heizungsventilator nicht angestellt werden könne, wenn man nicht liegenbleiben wolle.

Und nun, hallelulj, Luja, sog i, hat der Herr meine Fürbitte erhört. Die Medien vermeldeten Anfang der Woche:

„Die Deutsche Post wird die Produktion ihrer Streetscooter-Elektrotransporter im Laufe des Jahres einstellen“.

Damit hat Posthäuptling Frank Appel den Streetscooter  in die letzten Ladegründe geschickt, wo er zusammen mit ähnlichen Projekten in Frieden ruht.

Er sagte, dass die kleinen Elektrofahrzeuge im Jahr 2019 rund 100 Millionen Euro Verlust erwirtschaftet hätten. Das Aus für die Produktion sei daher „die logische Konsequenz“. Das Erstaunliche an dieser logischen Konsequenz ist lediglich, dass sie dem Postchef erst jetzt dämmerte. Frank Appel liest ganz offenbar nicht achgut.com, sondern hat sich entschlossen, im tiefen Tal der Ahnungslosen zu verharren. Also beispielsweise den Spiegel zu lesen. Dort wurden noch im Oktober wunderbare Durchhalteparolen formuliert: „Mit dem Elektrolaster Street Scooter hat die Deutsche Post die Autobranche vorgeführt.“

Auf die Ladeanzeige starren, wie das Kaninchen auf die Schlange

Die selektive Wahrnehmung im Führer-Tipi von Häuptling gelbe Post ist nachvollziehbar, der Schamane hat in solchen Sachen immer die Deutungshoheit. Bei der Lektüre des Sonntagsfahrers hätte sich Appel hingegen schon im Herbst vergangenen Jahres in stiller Verzweiflung vom Dache seines Streetscooters stürzen müssen. Seherisch wurden diese güldenen Worte formuliert:

„Die Post glaubte, mehr vom Auto zu verstehen als mental so beschränkte Firmen wie Daimler oder Volkswagen. Also wurde man 2010 Hersteller des Streetscooter, das ist  ein elektrischer Transporter für das kleine Paket zwischendurch. Die Medien überschlugen sich vor Begeisterung [Siehe Chronik unten] über die gelben Visionäre, die Postboten aber bekamen mit der Reichweiten-Angst zu tun. Sie starrten auf die Ladeanzeige, wie das Kaninchen auf die Schlange, und bekamen kalte Füße, weil die Heizung zu viel Strom verbrauchte. Inzwischen dämmert es, dass der Streetscooter zwar kein Benzin verbrennt, dafür aber Geld. Für 2019 ist von einem signifikanten zweistelligen Millionenbetrag die Rede, der umweltfreundlich in Rauch aufgeht.„Mindestens in den nächsten beiden Jahren setzen wir das fort“, sagt Postchef Frank Appel, das Ganze sei eine sehr gute Story.

Und dann erfuhren die Leser von Achgut.com auch vorab das absehbare Ende dieser Dienstfahrt:

„So etwas nennt man neue deutsche Unternehmensführung. Man kann sie mit dem sozialistischen Motto „Vorwärts immer, rückwärts nimmer“ beschreiben oder auch mit einem jüdischen Witz: Moische sitzt im falschen Zug und ein Mitreisender fragt: ‚Warum steigst Du nicht aus und kehrst um?‘. Darauf Moische: ‚Ich sitze im falschen Zug und mit jeder Station wird die Rückreise länger.‘ “

Nun ist Frank Appel aus dem falschen Zug ausgestiegen und steht ohne Heizung und mit kalten Füssen in der Provinz, ähnlich einem Streetscooter mit leergefahrener Batterie. Die „sehr gute Story“ ist jetzt nicht mehr ganz so sehr gut, hat aber einen erhöhten Unterhaltungswert. Dafür sorgt der Mitbegründer des Elektrotransporter-Herstellers, Professor Günther Schuh, der ist nämlich traurig. Und er hat auch eine ganz einfache Erklärung für das Laster-Desaster: „Hier waren Erfinder und total begeisterte 500 Leute am Werk. Die wollten die Welt retten. Sie sind einfach an den falschen Partner gekommen“.

So komische Leute, die rechnen können

Die Rettung der Welt ist in der Tat erstrebenswert, man sollte es aber vielleicht mit einem Ford Transit versuchen, da kommt man weiter. Besonders, wenn man in der realen Welt unterwegs ist, mit Physik und Kunden und so. Das sind so komische Leute, die rechnen können. Ein Streetscooter ist nämlich ungefähr doppelt so teuer wie zum Beispiel ein Ford Transit. Der hat zudem eine niedrige Ladekante, eine funktionierende Heizung, fährt autobahntaugliche 160 km/h und hat eine Reichweite von weit über 500 Kilometern.

Eine Leserbriefschreiberin, die offenbar vom  Fach stammt, führt unter diesem Beitrag in Die WELT noch ein paar weitere bei der Rettung des Planeten hinderliche Details an: „Wenn sich bei dem Scooter der Spareffekt über die Lebensdauer einstellt, sollte man bedenken, dass Nutzfahrzeuge zum überwiegenden Teil über drei Jahre geleast und dann gegen ein neues Fahrzeug getauscht werden. Der Anreiz für Firmen, auf Elektro umzusteigen, dürfte somit gegen Null tendieren“.

Also da liegt kein Segen drauf: Für die Streetscooter-Erfinder ist die Post der falsche Partner. Für die Kunden ist der Streetscooter der falsche Partner. Für die Weltrettung ist totale Begeisterung der falsche Partner. „Quel bordel“ würde der Franzose sagen.

So liefert das wahre Leben immer wieder wunderschöne Methaphern für den Segensreichtum von Geschäftsideen, die letztlich durch staatliche Interventionen zustande kommen. Ein Kamel ist ein Pferd, das von einem Ausschuß unter Leitung von Peter Altmaier entworfen wurde und der Streetscooter ist ein Formel 1 für den großen Preis von Hobbitland.  „Wir schaffen das Unmögliche nicht, weil wir es erst gar nicht versuchen“, sagt Streetscooter Mitbegründer Günther Schuh und fährt damit in der musikalischen Spur von Richard Wagner: „Deutsch sein heißt, eine Sache um ihrer selbst willen zu tun“. Ich fürchte da hilft nur Elvis Presley weiter, der die Sache schon 1952 richtig stellte: „Return to sender, adress unknown“.

Die Geschichte des Streetscooters hat eine Menge Pointen und es wäre eine Schande, wenn diese verloren gingen. Achgut.com-Leser R.R. hat deshalb eine wunderbare Chronik der Berichterstattung in den deutschen Medien zusammengestellt, die ich unseren Lesern nicht vorenthalten möchte. Sie zeigt exemplarisch die mediale Erregungskurve solcher Projekte. Sie haben meistens englische Namen als Ausweis globaler Visionitis, etwa Cargo-Lifter, Desertec, Solarvalley oder Solarworld und wollen stets das Unmögliche möglich machen, ein Versuch dem allerdings nur sehr vorübergehend Erfolg beschieden ist.

Es beginnt mit hoffnungsstarkem Größenwahn und Deutschlands Vorreiterrolle. Beim Streetscooter wurde – Vorsicht Todeskuss – sogar verlautet, dass die Kanzlerin ein Fan des Projektes sei. Das ganze sei „mehr als ein gutes Geschäft“ und man prüfe die „globale Expansion„. In dieser Phase befindet sich derzeit beispielsweise das Projekt einer Tesla-Fabrik in Brandenburg. Später nähert man sich allmählich den Mühen der Ebene, und die Durchhalteparolen häufen sich. Das war bei Streetscooter gut zu beobachten. „Winterprobleme beim Elektro-Transporter Streetscooter“ heißt es schon mal. Oder ganz schlicht: „E-Laster schreibt rote Zahlen“ Dies ist übrigens die Phase, die – Gottsseibeiuns –, derzeit auch die Energiewende erreicht hat, die voller Begeisterung das Unmögliche möglich machen soll.  Schließlich brennt es lichterloh, und die Visionäre entweichen durch die kalte Küche. Die Suche nach Schuldigen fördert die üblichen Verdächtigen und Feinde zutage: den Kapitalismus, die Skeptiker und – wie im Sozialismus – die vier Jahreszeiten, besonders den Winter.

Streetscooter chronologisch:

22.07.2015

Handelsblatt

ELEKTROAUTO STREETSCOOTER

Deutsche Post auf Teslas Spuren

Die Deutsche Post produziert seit Jahresbeginn hunderte Elektrofahrzeuge in Eigenregie. Warum die gelben Kastenwagen sich mehr und mehr als gutes Geschäft entpuppen – und sogar die Kanzlerin ein Fan ist.

Von Bert Fröndhoff, Christoph Schlautmann

04.04.2016

Start für Elektroauto StreetScooter: Deutsche Post geht unter die Autobauer

Konkurrenz für Tesla und Co.? Eher weniger. Aber ein großer Schritt für die umweltfreundliche Zustellung von Paketen und Briefen. Die Deutsche Post will ihr Elektroauto StreetScooter schon bald in größeren Stückzahlen produzieren.

26.04.2016

Welt

Mit diesem Elektroauto geht die Post ab

Von Heiko Zwirner

12.04.2017

Streetscooter: Deutsche Post verkauft ihr Elektroauto jetzt an alle

Die Deutsche Post will ihren Elektrotransporter Streetscooter jetzt an alle verkaufen. Die Produktionskapazitäten sollen bis Jahresende verdoppelt werden, eine globale Expansion wird geprüft.

15.04.2017

Handelsblatt

KLEINWAGEN E.GO LIFE

Der zweite Streich der Streetscooter-Erfinder

Der Streetscooter der Post schickt sich an, der erfolgreichste Elektrolieferwagen des Landes zu werden. Seine Erfinder planen den nächsten Coup: einen elektrischen Kleinwagen, der selbst manchen Porsche stehen lässt.

Von Lukas Bay

29.05.2017

Manager Magazin

Wird Aachen Elektroauto-Mekka – oder doch „Silizium-Sachsen“?

Von Wilfried Eckl-Dorna

09.08.2017

StreetScooter: Deutsche Post will 100.000 Elektro-Transporter pro Jahr bauen

10. 08.2017

Süddeutsche Zeitung

Elektromobilität: Paketboten fahren Elektroauto – und sind glücklich damit

Von Steve Przybilla

17.08.2017

Focus

Streetscooter für DHLStille Post mit weniger Abgasen: Deutsche Post baut mit Ford neue E-Transporter

27.09.2017

Frankfurter Allgemeine

ELEKTROAUTOS: Post baut zweite Street-Scooter-Fabrik in NRW

27.11.2017

Frankfurter Allgemeine

EIN PROFESSOR MACHT ES VOR: So einfach geht Elektroauto

VON ANNA STEINER

20.12.2017

heise online

Elektroautos: Streetscooter der Deutschen Post bekommen Feinstaubpartikelfilter

Auch Elektroautos emittieren Feinstaub. Die Deutsche Post will dennoch erreichen, dass ihre Elektrolieferwagen emissionsneutral fahren.

Von Andreas Wilkens

Die Elektro-Lieferwagen der Deutschen Post DHL sollen künftig möglicherweise „völlig emissionsfrei“ fahren. Dafür sollen die Streetscooter genannten Fahrzeuge mit einem Feinstaubpartikelfilter von Mann+Hummel ausgerüstet werden.

02.01.2018

Elektroauto-News

Winterprobleme beim Elektro-Transporter Streetscooter

04.01.2018

E-MOBILITÄT

Die StreetScooter der Deutschen Post werden umgebaut

Rund 200 Kilogramm leichter als ein Nissan e-NV200, eine Reichweite von maximal 80 Kilometern und ein eiserner Wille, die gesteckten Klimaziele realisieren zu wollen. Erfahren Sie hier, wie die Deutsche Post ihre Screetscooter erneuert.

Von LUKAS KLAMERT

09.04.2018

heise online

Elektroautos: Ford-Händler bieten StreetScooter an

Die Elektrolieferwagen der Modelle Work und Work L der Post-Tochter StreetScooter sind nun auch bei deutschen Ford-Händlern erhältlich. Die übernehmen neben dem Vertrieb auch den Service.

28.05.2018

Handelsblatt

Post liefert 200 Streetscooter an britische Milchmänner

Milk & More versorgt jede Woche mehr als 500.000 Haushalte in Großbritannien. Bald kommt dabei auch der Streetscooter der Post zum Einsatz.

Von Christoph Schlautmann

30.05.2018

heise online

Elektroautos: StreetScooter eröffnet zweiten Produktionsstandort

Mit dem neuen Produktionsstandort in Düren verdoppelt die Post-Tochter ihre Kapazität auf jährlich 20.000 Fahrzeuge.

Von Andreas Wilkens

02.10.2018

Deutsche Post jetzt mit über 8000 Elektroauto-Transportern von StreetScooter

10. 12.2018

ELEKTROAUTO:

Die Post darf den Streetscooter in Großserie bauen

05.02.2019

Post-Tochter Streetscooter soll 2019 deutlich wachsen

07.03.2019

Deutsche Post will in diesem Jahr 6000 neue StreetScooter einflotten

21.03.2019

Manager Magazin

Nach Brand rund 460 Streetscooter zurückgerufen

Deutsche Post überprüft Streetscooter – Lieferung verbrannt

Zwei Elektro-Lieferwagen vom Typ Streetscooter gerieten in Brand. Um Schlimmeres zu verhindern, zog die Post daraufhin zeitweise rund 460 der selbstproduzierten E-Fahrzeuge aus dem Verkehr. Auslöser der Brände seien offenbar fehlerhafte Verschweißungen im Bereich der Batterien gewesen…

28.03.2019

500 Elektro-Transporter: StreetScooter erhält Großauftrag aus Japan

30.08.2019

Focus

Elektro-Transporter

Post feiert 10.000. Streetscooter – doch der E-Transporter ist kein Erfolg

Die Deutsche Post DHL kommt bei der Elektrifizierung ihrer Transporterflotte schrittweise voran. Doch Experten bezweifeln, dass der spartanische E-Transporter ohne Subventionen überlebensfähig wäre.

20 Prozent der Flotte elektrifiziert

Post-Vorstand Tobias Meyer sagte, sein Unternehmen sei „klarer Marktführer in der grünen Logistik“ – man meine es ernst „mit unserem ambitionierten Null-Emissionen-Ziel bis 2050“. Die Post hat derzeit nach eigenen Angaben 13.500 Elektro-Ladesäulen und damit das größte private Ladesäulennetz hierzulande. Lobende Töne gab es auch aus der Politik: NRW-Wirtschaftsminister Andreas Pinkwart (FDP) sagte bei dem Termin in Köln, der Streetscooter sei „eine einzigartige Erfolgsgeschichte für die Elektromobilität in Nordrhein-Westfalen“.

Ohne Subventionen wohl nicht überlebensfähig

Unter Experten gibt es Zweifel, dass der Streetscooter ohne interne Subventionen am Markt bestehen könnte. Das Fahrzeug sei technisch sehr simpel gehalten, sagt Autoexperte Ferdinand Dudenhöffer von der Universität Duisburg-Essen. „Die Reichweite ist überschaubar, und die Herstellung in der Manufakturarbeit dürfte sehr teuer sein.“ Der Professor verwies auf die aus seiner Sicht insgesamt niedrigen Zulassungszahlen des Kraftfahrt-Bundesamtes (KBA). „Das ist nach meiner Einschätzung alles andere als eine Erfolgsgeschichte für die Post.“

10.10.2019

Spiegel

E-Laster schreibt rote Zahlen

Post motzt StreetScooter auf – um ihn endlich loszuwerden

Mit dem Elektrolaster StreetScooter hat die Deutsche Post die Autobranche vorgeführt. Trotzdem würde der Konzern die Tochterfirma lieber heute als morgen loswerden. Der Grund sind die Geschäftszahlen.

Als er auf den Markt kam, war der StreetScooter eine Sensation: Weil die Deutsche Post – bislang nur bedingt für mutige Innovationen bekannt – keinen Autohersteller fand, der ihr neue Elektrolieferwagen hätte bauen wollen, entwickelte sie einfach selbst einen (Lesen Sie hier die Erlebnisse der Gründer mit der Autobranche: „Die hielten mich für jemanden von Jugend forscht“)

Inzwischen gehören die gelben E-Laster bereits in vielen Großstädten zum Stadtbild. Der StreetScooter hat auch andere Abnehmer als die Post gefunden, Kleinunternehmer und Handwerker zum Beispiel. Die Post hat angekündigt, eine Fertigung in China aufbauen zu wollen, auch die USA sind im Gespräch. Bis 2021 soll die Serienproduktion bis zu 100.000 Fahrzeuge pro Jahr erreichen.

23.12.2019

Mdr AKTUELL

BRANDGEFAHR DURCH BATTERIEN

Brände bei Elektroautos sind Problem für Feuerwehren

Anfang 2019 sorgten brennende Elektro-Transporter der Deutschen Post für Schlagzeilen. Viel Kritik kam damals von Feuerwehrverbänden, die sich für solche Fälle nicht gerüstet sahen. Was hat sich inzwischen getan?

Von Danny Voigtländer

31.12.2019

Forschungsprojekt erprobt mit E-Transportern intelligente Netzintegration von E-Mobilität

9.01.2020

mdr AKTUELL

ELEKTROFAHRZEUG

Dritter Streetscooter der Post in Brand geraten

Erneut ist ein Streetscooter der Deutschen Post in Brand geraten. Anders als bei zwei Fällen im Herbst 2018 schließt das Unternehmen als Hersteller und Betreiber der E-Fahrzeuge diesmal den Akku als Ursache aus.

Herausforderung für Feuerwehren

Grundsätzlich gilt, dass jede Antriebsart die Feuerwehr bei einem Brand vor eigene Herausforderungen stellt. Bei Elektrofahrzeugen bereitet vor allem die Stromquelle Probleme. „Wenn der Akku einmal brennt, ist der Kräfte-Mittel-Aufwand mindestens vier- bis fünfmal höher als bei einem normalen Pkw-Brand“, sagt Marco Föhlisch von der Feuerwehr Teuchern. Ein zweiter Punkt sind die Substanzen, die aus den Akkus austreten, zum Beispiel die aggressive Flusssäure. Höher ist auch die Wahrscheinlichkeit einer Wiederentzündung. Da aber immer mehr E-Fahrzeuge auf die Straße kommen, müssen sich Einsatzkräfte verstärkt auf neue Brandszenarien einstellen.

von Friedemann Zweyner

10.01.2020

Focus

Elektroauto brennt bei der Post: Es war bereits der dritte Zwischenfall

In Herne im Ruhrgebiet brannte ein E-Transporter der Post völlig aus. Es gab bereits mehrere Zwischenfälle dieser Art, Ursache waren Produktionsfehler bei der Batterie. Zum Brandrisiko bei E-Autos machen die meisten Experten eine klare Aussage.

Auf dem Gelände der Hauptpost in Herne brannte Anfang Januar ein Lieferfahrzeug mit Elektromotor ab. Verletzt wurde dabei niemand, wie die Polizei in Bochum mitteilte. Da das Fahrzeug nah einem Gebäude stand, zerbarsten durch die starke Hitzeentwicklung auch die Fensterscheiben des Hauses.

Post baut Mitarbeitern eigenes Auto, doch die haben Angst einzusteigen.

Streetscooter will mit Chinesen kooperieren

Im September 2019 wurde dann bekannt, dass es eine Kooperation mit China geben soll. Zusammen mit dem dortigen Automobilhersteller Chery plant die Post einen angepassten Elektrolieferwagen speziell für China und möglicherweise weitere Länder. Laut der Absichtserklärung ist ab 2021 in China eine Serienproduktion von bis zu 100.000 E-Fahrzeugen pro Jahr geplant.

11.02.2020

StreetScooter hat scheinbar größere Probleme als bisher geahnt

StreetScooter im täglichen Verkehr nicht einsatzfähig

12.02.2020

Mindener Tageblatt

Wo laufen sie denn?

Gelbe StreetScooter stehen häufig still

Derzeit haben offensichtlich alle StreetScooter der Deutschen Post in Minden einen Boxenstopp an der Ringstraße/Ecke Rodenbecker Straße nötig

Von Jürgen Langenkämper

28.02.2020

Verkauf geplatzt: Post will StreetScooter-Fertigung einstellen

Die Deutsche Post will die Produktion der Elektro-Lieferwagen bei ihrer Tochter StreetScooter noch in diesem Jahr einstellen. Wie der Konzern nun mitteilte, wird nicht mehr nach einem Käufer für die Elektroauto-Sparte gesucht. Dabei stand ein Verkauf an den chinesischen OEM Chery offenbar kurz vor dem Abschluss.

Gegenüber der Deutschen Presse-Agentur DPA sagte ein Postsprecher: „Neubestellungen wird es keine mehr geben.“ Die bestellten Fahrzeuge würden noch produziert, die Auslieferungen würden sich voraussichtlich noch bis ins nächste Jahr ziehen, so der Sprecher.

28.02.2020

Nicht ganz überraschend: Deutsche Post stellt 2020 den Streetscooter ein

Noch dieses Jahr wird die Deutsche Post die Produktion der Elektrofahrzeug-Marke Streetscooter einstellen. Ganz überraschend kommt diese Unternehmensentscheidung allerdings nicht.

„Neubestellungen wird es keine mehr geben“, sagte ein Sprecher der Post am Freitag der Deutschen Presse-Agentur. Die Auslieferung von Fahrzeugen werde sich voraussichtlich noch bis ins nächste Jahr hinziehen. Man wolle die Sondierungen für einen Käufer nicht mehr weiterverfolgen, teilte der Konzern außerdem mit. Über Monate hinweg hatte die Post versucht, potenzielle Interessenten zu finden.

Streetscooter hatte viele Probleme

Der Elektro-Transporter der Post war ein guter Werbeträger für ein Unternehmen, das mit seiner riesigen Zahl von Dieseltransportern zur Abgas-Belastung und Verstauung in deutschen Städten beiträgt. Der Streetscooter ermöglicht einen zumindest lokal emissionsfreien Verteiler-Verkehr. Doch das an der Universität Aachen entwickelte Fahrzeug wurde für die Post eher zur Last: Geringe Praxisreichweiten, Probleme im Betrieb und sogar Akku-Brände verhagelten die Erfolgsstory

02.03.20

Post hat „Vorwand“ gesucht Scharfe Kritik wegen Aus für Elektro-Streetscooter

– Düsseldorf –

Nach dem Aus für den Streetscooter hat der Mitbegründer des Elektrotransporter-Herstellers, Günther Schuh, die Deutsche Post scharf kritisiert. Man habe „Amateure eingesetzt, jegliche Verbesserung verboten und auf eine Gelegenheit gewartet, das Geschäft unter einem Vorwand einzustellen“, schreibt der Aachener Professor in einem Gastbeitrag für das „Handelsblatt“ vom Montag. „Streetscooter wurde weder eine ausreichende Finanzierung noch ein realistischer Zugang zum Kapitalmarkt gewährt“, kritisiert Schuh. Das Ende des E-Autos sei ein Armutszeugnis für die Post und für Deutschland.

2010 hatte Schuh den Elektrotransporter mit seinen Studenten der RWTH Aachen erfunden und gemeinsam mit Achim Kampker Streetscooter gegründet. 2014 wurde das Start-up von der Deutschen Post-Tochter DHL übernommen.

04.03.2020

WDR

Streetscooter – 800 Arbeitsplätze im Raum Aachen in Gefahr

Die Nachricht traf die Betroffenen in der Region Aachen völlig unvorbereitet: Letzte Woche Freitag (28.2.2020) hat die Deutsche Post das Aus für den Streetscooter bekannt gegeben. Nur noch bis Jahresende soll der Elektro-Lieferwagen gebaut werden. Ein Verkauf des Tochter-Unternehmens wurde ausgeschlossen.

Der Beitrag erschien zuerst bei ACHGUT hier