1

Beeinflusst die Sonnen­aktivität unsere Witterung – viele Indizien sprechen dafür

Die folgende Arbeit kann nur einen kleinen Beitrag zur Klärung des solaren Einflusses auf unser Klima leisten. Sie zeigt schwerpunktmäßig Zusammenhänge zwischen Sonnenaktivität und den Häufigkeitsverhältnissen bestimmter Großwetterlagen in Mitteleuropa auf. Wo es möglich war, wurden die Bewölkungs-, Niederschlags-, Temperatur- und Sonnenscheinverhältnisse, aerologische Daten sowie die AMO in die Betrachtungen einbezogen.

Sonnenaktivität und Kosmische Strahlung

Für langfristige Betrachtungen (die Häufigkeitsverhältnisse der Großwetterlagen, Niederschlags- und Temperaturmittel reichen in Deutschland bis immerhin 1881 zurück) stehen nur die Sonnenfleckenzahlen zur Verfügung; sie bilden leider die solare Aktivität nur sehr grob ab. Ein besserer Indikator ist die leider erst seit etwa 1960 aufgezeichnete Intensität der so genannten Kosmischen Strahlung – keine Strahlung im physikalischen Sinne, sondern ein hochenergetischer Teilchenstrom, der von der Sonne, der Milchstraße und fernen Galaxien kommt. Sie besteht vorwiegend aus Protonen, daneben aus Elektronen und vollständig ionisierten Atomen. Näheres dazu unter anderem beim Stichwort „SVENSMARK-EFFEKT“. Ihre Intensität verhält sich in etwa spiegelbildlich zur Sonnenaktivität; die Sonnenaktivität schirmt entsprechend ihrer wechselnden Stärke den Einfluss der galaktischen Strahlung von der Erde mehr oder weniger ab.

Abbildung 1: Verlauf der Intensität der Kosmischen Strahlung (GCR = Galactic Cosmic Ray) und der Sonnenaktivität (Sonnenfleckenzahlen) in monatlicher Auflösung zwischen Januar 1962 und April 2020. Man erkennt ein spiegelbildliches Verhalten – leicht zeitlich verschoben. Mit der aktuell sehr geringen Sonnenaktivität erreicht die Kosmische Strahlung sehr hohe Werte; außerdem war sie, bedingt durch die zwischen den späten 1970ern und den frühen 2000er Jahren sehr aktive Sonne, in der Mitte des Zeitraumes insgesamt geringer. Wegen der sehr unterschiedlichen Größen mussten beide Größen in Indexwerte umgerechnet werden, um sie gemeinsam in einer Grafik darstellen zu können.

Fast identische Ergebnisse zeigen sich bei der Analyse der GCR-Reihe aus Oulu/Finnland. Weil diese aber nur bis 1964 zurückreicht, wird im Folgenden die Beobachtungsreihe der Kosmischen Strahlung aus Moskau verwendet.

Beeinflusst die Kosmische Strahlung die Bewölkungs- und Niederschlagsverhältnisse?

Grobe Zusammenhänge konnten nur für den Zeitraum Herbst und Winter gefunden werden; wobei die Datenlage hinsichtlich der Bewölkung aber sehr mangelhaft ist, denn ein DWD-Flächenmittel fehlt, und auch für Potsdam liegt nur das Gesamtmittel in Achteln vor; trotzdem zeigt sich ein signifikanter Zusammenhang:

Abbildung 2: Tendenziell und leicht zeitverzögert mehr Bewölkung im Herbst/Winter (Sep. bis Feb.) in und kurz nach Phasen mit erhöhter Kosmischer Strahlung. Das Bewölkungsmittel musste in Indexwerte umgerechnet werden, um es mit der GCR in einer Grafik veranschaulichen zu können.

Beim Niederschlag wird im selben Betrachtungszeitraum keine Signifikanz erreicht, doch deuten sich in Phasen erhöhter Kosmischer Strahlung etwas geringere Herbst- und Winterniederschläge über Deutschland an:

Abbildung 3: Tendenziell etwas weniger Herbst- und Winterniederschläge in Phasen erhöhter Kosmischer Strahlung (Zusammenhang nicht signifikant). Das Niederschlagsmittel musste in Indexwerte umgerechnet werden, um es mit der GCR in einer Grafik veranschaulichen zu können.

Auf den ersten Blick erscheint es merkwürdig – mehr Bewölkung, aber weniger Niederschlag in Phasen mit erhöhter Kosmischer Strahlung? Man kann vermuten, dass bei erhöhter Kosmischer Strahlung besonders mehr tiefe Bewölkung (Hochnebel) entsteht, aus der aber kein oder nur unbedeutender Niederschlag (Sprühregen, Schneegriesel) fällt – entscheidend für das Niederschlagsaufkommen ist aber die Art und Menge der Mittelhohen Bewölkung in etwa 2.000 bis 4.000 Metern Höhe. Und warum fehlen merkliche Zusammenhänge im Frühling und Sommer? Da könnten Austrocknungseffekte durch geänderte Landnutzung und die Luftreinhaltemaßnahmen, welche die Sonnenscheindauer stark erhöhten, mögliche Zusammenhänge verwischt haben. Ohnehin dominieren im Sommerhalbjahr konvektive Prozesse, deren chaotisches Verhalten bei der Wolken- und Niederschlagsentwicklung jedem selbst noch so erfahrenen Wetter-Prognostiker immer wieder ein Schnippchen schlägt – mögliche Zusammenhänge werden da quasi vom Zufall „weggewischt“.

Kosmische Strahlung und Großwetterlagenhäufigkeiten

Wie schon bei der Abbildung 1, werden im Folgenden monatsweise Analysen verendet, weil diese detailliertere Untersuchungen erlauben; außerdem musste dabei stets in Anomalien umgerechnet werden, weil sonst viele Größen, man denke nur an die Lufttemperaturen, sonst nicht vergleichbar sind. In den vergangenen Jahren häuften sich immer wieder so genannte Meridionale Lagen, welche zu Extremwetter neigen, weil bei ihnen, abweichend zur vorherrschenden Westdrift, die Luftmassen entlang der Längenkreise entweder aus nördlichen oder südlichen Regionen oder aus dem kontinental geprägten Osteuropa/Westasien („Ostwetterlagen“) nach Deutschland strömen. Schon ein Blick auf dieses freilich sehr große Wetterlagen-Cluster mit 18 Großwetterlagen zeigt einen groben Zusammenhang zur Kosmischen Strahlung – je höher deren Intensität (wie auch momentan), desto häufiger treten diese Lagen tendenziell auf:

Abbildung 4: Tendenziell häufiger Meridionale Lagen bei erhöhter Kosmischer Strahlung. Zur Orientierung ist hier die Entwicklung der Sonnenfleckenzahlen nochmals mit dargestellt. Die sehr unterschiedlichen Größen mussten, um sie in einer Grafik darstellen zu können, in Indexwerte umgerechnet werden.

Ein noch deutlicherer, signifikanter Zusammenhang ergibt sich bei Betrachtung nur bestimmter Wetterlagen aus dieser Gruppe, und zwar der Lagen mit Hohem Luftdruck über dem Nordmeer, den beiden Troglagen sowie den zyklonalen Nordost-, Hoch Nordmeer/Fennoskandien- und Südostlagen:

Abbildung 5: Die Variabilität der Häufigkeit bestimmter Großwetterlagen aus der Meridionalen Gruppe wird zu 40% von der Intensität der Kosmischen Strahlung bestimmt. Es handelt sich dabei um solche mit einem hohen Luftdruck über dem Nordmeer, der manchmal bis nach Skandinavien reicht, um die Troglagen über Mittel- und Westeuropa sowie die zyklonalen Nordost- und Südostlagen. Die Entwicklung der Lufttemperatur-Anomalien (DWD-Deutschlandmittel) wurde mit dargestellt; weil diese Wetterlagen in den einzelnen Jahreszeiten sehr unterschiedliche Temperaturanomalien erzeugen, ist kein eindeutiger Zusammenhang erkennbar; außerdem „steckt“ in ihnen der in Deutschland wachsende Wärmeinsel-Effekt. Die sehr unterschiedlichen Größen mussten, um sie in einer Grafik darstellen zu können, in Indexwerte umgerechnet werden.

Da es sich bei den beeinflussten Wetterlagen um solche handelt, die in negativen NAO-Phasen auftreten, bietet sich ein Blick auf den Zusammenhang zwischen NAO und Kosmischer Strahlung geradezu an. Er ist nicht signifikant negativ, aber trotzdem erkennbar:

Abbildung 6: Tendenziell niedrigere NAO-Werte in Phasen erhöhter Kosmischer Strahlung (Zusammenhang nicht signifikant). Die NAO-Werte mussten in Indexwerte umgerechnet werden, um sie mit der GCR in einer Grafik veranschaulichen zu können.

Für die langfristige Temperaturentwicklung in Deutschland ist die Höhenlage der 500-hPa-Fläche von Bedeutung – je höher sie liegt, desto wärmer ist es tendenziell, von wenigen Inversionswetterlagen abgesehen, in bodennahen Luftschichten. Die Höhenlage der 500-hPa-Fläche stieg in den letzten Jahrzehnten stark an, was den Temperaturanstieg in Deutschland erklärt, doch scheint der Anstieg in Phasen mit erhöhter Kosmischer Strahlung gebremst zu werden:

Abbildung 7: Enge „Verzahnung“ zwischen der Höhenlage der 500-hPa-Fläche über Deutschland und der Temperaturentwicklung in Deutschland seit 1962, doch gebremster Anstieg in Phasen mit erhöhter Kosmischer Strahlung. Die sehr unterschiedlichen Größen mussten, um sie in einer Grafik darstellen zu können, in Indexwerte umgerechnet werden.

Doch was könnte nun verantwortlich für die massive Anhebung der 500-hPa-Fläche und der damit steigenden Lufttemperaturen in Deutschland sein? Eine mögliche Ursache ist die AMO; sie beeinflusst besonders im April und von Juni bis November die deutschen Temperaturverhältnisse und auch die Häufigkeitsverhältnisse bestimmter Großwetterlagen:

Abbildung 8: In AMO-Warmphasen scheint die 500-hPa-Fläche über Deutschland höher zu liegen; außerdem häufen sich dann Trog- und Südwestlagen. Werte der 500-hPa-Fläche ab 1948 verfügbar. Die sehr unterschiedlichen Größen mussten, um sie in einer Grafik darstellen zu können, in Indexwerte umgerechnet werden.

Als weitere Ursache kommt die seit Jahrzehnten steigende Sonnenscheindauer ernsthaft in Betracht – doch auch sie könnte zumindest teilweise von der AMO beeinflusst werden; ein Zusammenhang zur Kosmischen Strahlung ist hingegen nicht eindeutig erkennbar, aber auch nicht auszuschließen:

Abbildung 9: Mit der steigenden Sonnenscheindauer stiegen die Lufttemperaturen in Deutschland – eine Beeinflussung durch die Intensität der Kosmischen Strahlung ist nur minimal erkennbar. Die sehr unterschiedlichen Größen mussten, um sie in einer Grafik darstellen zu können, in Indexwerte umgerechnet werden.

Weil die Daten des DWD-Flächenmittels der Sonnenscheindauer immerhin bis 1951 zurückreichen, bot sich die Errechnung eines zentralen Gleitmittels zusammen mit Temperatur- und AMO-Anomalie und der Häufigkeitsanomalie der insgesamt leicht kühlend wirkenden Nord- und Ostwetterlagen an:

Abbildung 10: Aus den Monatsdaten 1951 bis April 2020 berechnete zentrale, 72-monatige Gleitmittel für die Anomalien der Lufttemperatur (DWD-Flächenmittel), der Häufigkeit der Nord- und Ostlagen, der Sonnenscheindauer und der AMO. Diese wurden, um keine weitere Zeit zu verlieren, nochmals polynomisch geglättet. Man erkennt zwei markante Erwärmungsphasen um 1990 und in den 2010er Jahren, welche mit einer merklichen Zunahme der Besonnung einhergingen; in der ersten erreichte außerdem die Häufigkeit der Nord- und Ostlagen ihr Minimum. Vor allem die Sonnenscheindauer, grob auch die Temperaturanomalien, folgen, teils leicht verzögert, der AMO – AMO-Warmphasen sind in Deutschland tendenziell sonniger und wärmer. Die sehr unterschiedlichen Größen mussten, um sie in einer Grafik darstellen zu können, in Indexwerte umgerechnet werden.

Die Sonnenscheindauer wird auch von anderen Faktoren beeinflusst; ihr Minimum fällt mit dem Höhepunkt der Luftverschmutzung in den späten 1960er bis frühen 1980er Jahren zusammen; weitergehende Informationen zur Sonnenscheindauer hier https://eike.institute/2020/05/02/immer-mehr-aprilsonne-ueber-deutschland-fakten-und-hintergruende/

Langfristige Betrachtungen bis ins 19. Jahrhundert zurück

Zwar sind langfristig nur die Sonnenfleckenzahlen verfügbar, doch zeigen sich auch hier merkliche Einflüsse auf die Häufigkeitsverhältnisse bestimmter Großwetterlagen, die teilweise in den Signifikanzbereich reichen. Die zwei auffälligsten seien im Folgenden dargestellt:

Abbildung11: Tendenziell mehr Südwest-, Hochdruckbrücken-, Skandinavienhoch-, zyklonale Süd- und Tief Britische Inseln-Lagen in Zeiten mit hoher Sonnenaktivität (viele Sonnenflecken). Die meisten dieser Lagen wirken außerdem erwärmend; nur die skandinavischen Hochdrucklagen sind winterkalt. Die sehr unterschiedlichen Größen mussten, um sie in einer Grafik darstellen zu können, in Indexwerte umgerechnet werden.

Abbildung12: Tendenziell weniger antizyklonale Nordwest-, Hoch Nordmeer-, zyklonale Nordost- und Tief Mitteleuropa-Lagen in Zeiten mit hoher Sonnenaktivität (viele Sonnenflecken). Alle diese Lagen wirken außerdem insgesamt mehr oder weniger kühlend. Die sehr unterschiedlichen Größen mussten, um sie in einer Grafik darstellen zu können, in Indexwerte umgerechnet werden.

Auch ein gewisser Einfluss der Sonnenaktivität auf die Niederschlagsmenge ist grob erkennbar; Zeiten mit inaktiver Sonne fallen tendenziell trockener aus:

Abbildung 13: Insgesamt mehr Niederschläge bei höherer Sonnenaktivität. Die AMO ist zur Orientierung mit abgebildet. Die sehr unterschiedlichen Größen mussten, um sie in einer Grafik darstellen zu können, in Indexwerte umgerechnet werden.

Abschließend werfen wir noch einen Blick auf eine wegen ihrer Häufigkeitsentwicklung und ihrer starken Erwärmungswirkung besonders auffällige Wetterlagengruppe – die Südwestlagen und den Trog über Westeuropa. Diese seit der Mitte des 20. Jahrhunderts massiv häufiger werdenden drei Wetterlagen sind neben einer deutlich zunehmenden Sonnenscheindauer und den wachsenden Wärmeinseleffekten eine wesentliche Ursache der Erwärmung in Deutschland:

Abbildung 14: Mehr Südwest- und Trog über Westeuropa-Lagen seit der Mitte des 20. Jahrhunderts. Besonders am Ende der AMO-Warmphasen scheinen diese gehäuft aufzutreten. Die sehr unterschiedlichen Größen mussten, um sie in einer Grafik darstellen zu können, in Indexwerte umgerechnet werden.

Mehr Extremwetter im 21. Jahrhundert?

Alle Untersuchungsergebnisse deuten in die gleiche Richtung: In Phasen geringerer Sonnenaktivität häufen sich Extremwetterlagen, Niederschläge fallen unregelmäßiger, es gibt abruptere Schwankungen zwischen sehr warmen und sehr kalten Phasen – alles Phänomene, die wir schon ab den frühen 2000er, besonders aber ab den 2010er Jahren, gehäuft erlebt haben. Entscheidend ist nun die weitere, freilich nur schwer abschätzbare Entwicklung der solaren Aktivität. Die meisten Prognosen gehen von einem ähnlich schwachen oder noch schwächeren 25. Sonnenfleckenzyklus im Vergleich zum aktuell endenden 24. Zyklus aus:

Abbildung 15: Dem aktuell endenden, sehr schwachen Sonnenfleckenzyklus 24 könnte ein ähnlich schwacher 25. Zyklus folgen, der momentan schon begonnen hat – doch sind solche Prognosen stets mit Vorsicht zu betrachten. Bildquelle

Ähnliches sieht auch der amerikanische Wetterdienst NOAA vorher – kein neues Maunder-Minimum, aber einen relativ schwachen 25. Sonnenfleckenzyklus.

Abbildung 16: Gemeinsame Vorhersage für den Sonnenfleckenzyklus 25 von NOAA und NASA vom 9. Dezember 2019. Ähnliche Ergebnisse wie in Abb. 15. Bildquelle

Die gute Nachricht wäre das Ausbleiben eines neuen „Maunder-Minimums“ mit all seinen negativen Konsequenzen. Trotzdem dürften auch die 2020er Jahre eher zu Extremwetter neigen. Welche Rolle dabei Coronale Löcher auf der Sonne spielen, welche (mit hoher Wahrscheinlichkeit) die überlangen Schönwetterperioden der vergangenen Jahre mit verursacht haben, bedarf noch einer Klärung. Und was nach 2030 passiert, steht buchstäblich in den Sternen.




Der Brüller des Monats: Bundesregierung plant Perpetuum Mobile bei Energiepreisen.

Der Autor dieses Beitrags ist sich selbstverständlich darüber im Klaren, dass Hinweise auf physikalische Naturgesetze oder gar auf die elementare Logik bei der Energiepolitik der Bundesregierung sowie bei den von ihr so gerne eingesetzten Expertenkommissionen wirkungslos bleiben. Das Prinzip der Expertenauswahl ist nämlich einfach: Man nehme die hohe Geistlichkeit sowie stramme Rot-Grün-Ideologen, vermeide aber um jeden Preis unabhängige Fachleute, von denen auch noch bekannt ist, dass sie mit Ihrer Expertise nicht hinter dem Berg halten. Dann schafft man es natürlich locker, sogar die sicherste und effizienteste Form der Stromerzeugung – Kernkraftwerke und moderne Kohlekraftwerke – zu beseitigen, ihre letzten Reste zu sprengen und auch noch nebenbei Hunderte Milliarden Steuergeld der arbeitenden Bevölkerung zu vernichten. Und alles unter dem Beifall einer weitgehend gleichgeschalteten Presse.

Und dann klappt es natürlich auch mit dem Perpetuum Mobile, hier mit Wertschöpfung durch komplette Zerstörung, kurz mit grüner Logik. Es handelt sich um nichts anderes als Orwellschen Neusprech. Sie kennen es vermutlich: „Krieg ist Frieden“, „Freiheit ist Sklaverei“, „Unwissenheit ist Stärke“ und nun auch noch „Energiewende ist preisgünstig und versorgungssicher“. Das glauben nur noch vollgrüne Geistesriesen, die Kobalt von Kobold nicht unterscheiden können.

Jahrzehntelanges Abschleifen der lange zurückliegenden Qualität unseres Bildungssystems in Technik, Naturwissenschaft und Mathematik sowie eine stetig zunehmende Diffamierung von Sachkritik haben es bewirkt, dass es kaum noch jemand wagt sich gegen den deutschen Energie-Irrsinn offen zu positionieren. Denn so etwas ist heute bereits zur falsche Haltung, rechten Gesinnung, wenn nicht gar Hetze oder Nähe zum National-Sozialismus geworden. Auch hier also wieder die Orwellsche Umdeutung von Sachkritik. Da man, falls noch in Arbeit, seinen Arbeitsplatz nicht gefährden will, hält man besser die Klappe. Aus diesem Grund können wir noch lange auf das mutige und kluge Kind in Christian Andersens Märchen vom Kaiser ohne Kleider warten. Stattdessen haben wir nur ein fremdgesteuertes krankes Kind namens Greta mit mentalen Defekten und dem begleitenden unerträglichen Popanz erdulden müssen.

In diesem Sinne darf der ZDF-Teletext vom 16.06.2020 genossen werden, welcher den Orwellschen Irrsinn bestens belegt und als Brüller des Monats gelten darf:

Energiepreise in Deutschland: Expertenkommission für Reform. Eine von der Bundesregierung eingesetzte Expertenkommission empfiehlt eine umfassende Reform der Energiepreise in Deutschland. Um die Klimaziele erreichen zu können, sei der schnellstmögliche Wegfall von Umlagen und Steuern auf Elektrizität, sowie ein ambitionierter Preis für den C02-Ausstoß erforderlich, betonte die Kommission zum Monitoring-Prozess „Energie der Zukunft“. Eine Energiepreisreform und Maßnahmen zum klimaneutralen Umbau der Industrie würden auch die Konjunktur stützen.

Nun zum Mitschreiben, liebe Mitglieder der Orwell-Kommission: Kein Klima unseres Planeten – von polar bis tropisch – kann durch menschliches Zutun verändert werden und schon gar nicht durch CO2-Bepreisung. Vielleicht hilft ja Voodoo-Zauber. CO2-Bepreisung heißt im Endeffekt Bevorzugung von sog. erneuerbaren Energien, die sich durch extrem geringe Leistungsdichten und technisch äußerst schädliche Volatilität (Energiemais hier ausgenommen) auszeichnen – die Wasserkraft ist zwar ausreichend leistungsstark aber bereits ausgereizt. Stromerzeugung mit derart leistungsschwachen Methoden wie Wind, Sonne und Energiemais ist nun einmal naturgesetzlich teuer, weil sich ihr Kosten- und Materialaufwand umgekehrt proportional zu ihren Leistungsdichten verhalten.

Dies führt zwangsweise zu naturzerstörenden Abmessungen bei Windturbinen. Und dass solch ein Unsinn von der Kommission auch noch als Energie der Zukunft“ bezeichnet wird, welche die Konjunktur stützen soll, ist nicht mehr zu überbieten und lässt völlig an dem Verstand der Kommissionsmitglieder zweifeln oder umgekehrt den Verdacht entstehen, dass hier bestellte Speichellecker der Regierungslinie ihr Werk verrichten.

Die Vorschläge der Kommissionen durchsetzen zu wollen bedeutet zu versuchen Naturgesetze außer Kraft zu setzen – man darf viel Erfolg dazu wünschen! Kürzer und populärer: Ohne völlig Abschaffung des EEG, Wiedereinsetzung der Kernenergie und moderner Kohlekraftwerke bleibt der grüne Irrsinn der Energiewende ein extrem naturzerstörendes und unvermeidbar stetig teureres Unterfangen, welches bei Weiterverfolgung unseren Wohlstand ebenso zerstört wie es nur noch ein veritabler Krieg auf deutschem Boden vermag. Wer es detaillierter will, möge die technischen Einzelheiten hier nachlesen oder hier als Video ansehen..

Niemand, der die deutsche Geschichte kennt, kann sich der Erkenntnis verschliessen, dass die deutsche Intelligenz zum wiederholten Male keine rühmliche Rolle spielt. Sie schaute ohne Gegenwehr zu, wie kalt kalkulierende Ökoideologen mit jahrelanger, geschickt gesteuerter Propaganda von „Klimakatastrophen“ und „Kernkraftgefahren“ die Meinungshoheit übernommen haben. Diese ist inzwischen in allen öffentlichen Bildungseinrichtungen, vom Kindergarten bis zur Hochschule, durch Mithilfe der Medien etabliert. Der Weg in die Deindustrialisierung Deutschlands und seine Umgestaltung in einen ökologisch gesteuerten Überwachungs- und Zuteilungsstaat ist längst beschritten.

Die Gleichschaltung aller maßgebenden Parteien (die AfD ausgenommen), die dem Bürger keine Alternative an der Wahlurne mehr lässt, ist heute traurige Realität. Die Bevölkerungsmehrheit einer der grössten Industrienationen ist in Angstpsychose vor der Kernenergie und einer fiktiven Klimakatastrophe erstarrt und erzeugt damit ungläubiges Kopfschütteln in aufstrebenden Ländern wie China und Indien, aber auch bei unseren östlichen Nachbarn Tschechien, Polen und Ungarn.




Klimaille will den Shutdown verewigen

Der leitende Politikberater bei CFACT Paul Driessen erklärt:

Den ehemaligen Wissenschaftsberater von Präsident Obama John Holdren nachplappernd wollen sie, dass sich die USA und andere moderne Gesellschaften rückentwickeln und deindustrialisieren, und dass sich die Menschen eine Lebensweise mit geringem Verbrauch angewöhnen, um eine „gerechtere Verteilung von Wohlstand“ sicherzustellen und armen Ländern nahe zu bringen, welche „ökologisch machbare“ Entwicklung ihnen gestattet wird.

Marc Morano von CFACT zitiert auf seiner Website Climate Depot diese königliche Perle der Weisheit von Prince Charles, der vor dem Weltwirtschaftsgipfel ausführte:

Wir haben ein einzigartiges, aber immer kleiner werdendes Fenster der Gelegenheit, Lektionen zu lernen und uns selbst auf einen nachhaltigeren Weg zu begeben … Wir haben eine goldene Gelegenheit, aus dieser Krise etwas Gutes herauszuziehen. Deren beispiellose Schockwellen können durchaus die Menschen empfänglicher machen für große Visionen der Änderung“.

Erinnert sich noch irgendjemand an Yvo die Boer?

CFACT erinnert sich.

CFACT war in enger Tuchfühlung mit dem Klimawandel-Verfahren der UN seit dessen Amtseinführung. Yvo leitete es, bis er zurücktrat, um gutes Geld als professioneller Kohlenstoff-Händler zu verdienen.

„Die einzige Möglichkeit, dass ein Abkommen im Jahre 2015 ein 2-Grad-Ziel erreichen kann, besteht darin, die gesamte globale Ökonomie zu schließen“. Das sagte er im Jahre 2013.

Sowohl der Terror, der zum COVID-19-Lockdown führte als auch die ängstigenden Klimaszenarien, welche Interessengruppen in nur allzu willfährigen Medien lostreten, wurzeln nicht in der Realität, sondern in extremen Szenarien in Computermodellen. Sie sind noch niemals auch nur ansatzweise in die Nähe der Realität gerückt.

CFACT erklärte schon ganz zu Anfang, als der Shutdown noch in den Kinderschuhen steckte: jeder ausgegebene Dollar, egal für was, hat einen ökonomischen Verstärkungseffekt. In einer freien Marktwirtschaft ist diese Macht ungeheuer. Wenn wir uns aus dem Markt zurückziehen, kommt es zum umgekehrten Verstärkungseffekt, nämlich einem strangulierenden Griff.

Freiheit ist das Recht eines jeden einzelnen Menschen auf der Erde. Wie die Gründungsväter Amerikas halten wir bei CFACT dieses Recht hoch.

Freiheit ernährt die Welt. Sozialismus und Kontrolle lässt sie hungern.

Vor welcher Herausforderung auch immer wir stehen, es ist die ökonomische Freiheit, welche die Mittel bereitstellt, dieser Herausforderung zu begegnen.

Autor: Craig Rucker is a co-founder of CFACT and currently serves as its president.

Link: https://www.cfact.org/2020/06/09/climate-campaigners-want-to-make-the-shutdown-permanent/

Übersetzt von Chris Frey EIKE




COVID-Zensur bei ResearchGate: Wurden Fakten verschleiert?

Falls es noch nicht allgemein bekannt ist: ResearchGate ist eine Website, auf der ein professionell aufgezogenes Netzwerk für Wissenschaftler und Forscher eingerichtet worden ist (mit über 17 Millionen Mitgliedern aus der ganzen Welt), welche damit ihre Veröffentlichungen bekannt machen können nebst Diskussionen über die Ergebnisse derselben. Seiner Selbstverpflichtung zufolge ist es die Mission von ResearchGate, die Welt der Wissenschaft zu verbinden und Forschungen für alle zugänglich zu machen (hier).

Die erste Frage

Ist eine unangebrachte Zensur ausgeübt worden?

Am 3. Juni 2020 hat man bei ResearchGate einen Artikel des Physikers Denis Rancourt entfernt, welcher überschrieben war mit [übersetzt] „Masken funktionieren nicht: Eine Übersicht über die Wissenschaft, die relevant ist für die Sozialpolitik bzgl. COVID-19

Denis Rancourt hat einen PhD in Physik (1984), ist ein ehemals fest angestellter Professor an der University of Ottawa und hat über 100 Artikel in führenden Wissenschaftsjournalen veröffentlicht (Google findet ihn).

In der Mitteilung von ResearchGate hinsichtlich der Entfernung von Rancourts Artikel heißt es: … unsere Statuten verbieten es, nicht-wissenschaftliche Inhalte auf dieser Website zu platzieren.

Rancourts eigenes vollständiges Exposé dieser Maßnahme des Herausgebers steht hier.

Weil Rancourts Artikel von seiner ursprünglichen Stelle entfernt worden ist, musste ich ein wenig wühlen, um eine Ausgabe zu finden, waren doch alle Links zu jener Stelle zu einer allgemeinen Seite umgelenkt worden, auf welcher sich ResearchGate selbst anpreist, Forschungen für alle zugänglich zu machen.

Um der Leserschaft die Mühe einer eigenen Suche zu ersparen, habe ich eine Ausgabe in meine DropBox geladen, und zwar hier.

Ich habe Rancourts Exposé gelesen, ebenso wie seinen Originalbeitrag, der entfernt worden war, und ich habe das mit dem Impressum verglichen, auf das jene verwiesen hatten, die für die Entfernung des Beitrags verantwortlich waren. Auf der Grundlage all dessen habe ich mir ein eigenes Urteil über die Vorgänge im Zuge dieses Falles gebildet, und das führt mich zu …

der zweiten Frage

Genügt eine Organisation, die von sich behauptet, Forschungen für jedermann zugänglich zu machen, diesem Anspruch, wenn sie Inhalte eines renommierten Wissenschaftlers entfernt, der seine Ausführungen sorgfältig mit Fakten unterlegt und klar Referenzen nennt? – eine Organisation, deren Arbeitsbedingungen keine formelle Begutachtung durch Fachkollegen vorschreiben? – eine Organisation, die ihre redaktionelle Macht scheinbar ausschließlich auf der Grundlage der Art und Weise ausübt, wie die Dinge getan werden, und nicht auf der wissenschaftlichen Grundlage dieser Art und Weise, die die eigentliche Grundlage ihres Leitbildes ist?
Auch diese Frage lasse ich die Leser selbst beurteilen und beantworten.

Link: https://wattsupwiththat.com/2020/06/13/covid-censorship-at-researchgate-facts-about-face-coverings-covered-up/

Übersetzt von Chris Frey EIKE




So allmählich hält die Realität Einzug in Grüne Energie

Falls man pflichtschuldigst unsere Mainstream-Medien liest, hat man unzweifelhaft den Eindruck, dass sich „saubere“ und „grüne“ Energie rasch immer weiter ausbreitet und demnächst fossile Treibstoffe zur Energieversorgung unserer Wirtschaft verdrängen wird. Schließlich haben einige große US-Staaten, darunter Kalifornien und New York, bis zum Jahr 2050 „Null“-Emissionen [Net Zero] in irgendeiner Art und Weise vorgeschrieben, in einigen Fällen sogar noch eher. Das ist schon in 30 Jahren. Und allenthalben gibt es Berichte des Inhalts, dass Investitionen in „Erneuerbare“, vor allem Wind- und Solarenergie, angeblich stark weiter zunehmen. So haben laut Reuters im Januar „Investitionen in saubere Energie in den USA einen neuen Rekord erreicht, trotz der Ansichten der Trump-Regierung“ (hier). In der New York Times vom 13. Mai liest man, dass „erneuerbare Energie drauf und dran ist, Kohle in den USA zu überflügeln“ (hier). Folglich muss also der Endsieg von Wind und Solar über die bösen fossilen Treibstoffe bereits um die Ecke schmulen.

In Wirklichkeit ist all das ein Mythos. Die inhärent hohen Kosten sowie die Unzuverlässigkeit von Wind- und Solarenergie bedeuten, dass es höchst unwahrscheinlich ist, dass sie jemals mehr als nur ein Nischendasein fristen im Gesamt-Energieportfolio. Politiker nehmen progressive Tugenden für sich in Anspruch, indem sie riesige Windparks und mit Solarpaneelen überzogene Flächen in Auftrag geben – auf Kosten der Steuerzahler, wobei niemand jemals herauszufinden versucht – oder dies angesprochen – hat, wie das in einem voll funktionsfähigen Netz gehen soll ohne vollständiges Backup fossiler Treibstoffe. Und das Stromnetz ist noch der leichtere Teil. Was ist mit Flugzeugen? Was ist mit Stahlwerken? Ich bin immer noch auf der Suche nach jemandem, der zeigen kann, dass dieses „Net Zero“ mehr ist als eine lächerliche Phantasterei, aber bisher habe ich niemanden gefunden.

Um der Wirklichkeit verhaftet zu bleiben gibt es keinen besseren Weg als die mehrmals pro Woche verschickten E-Mails der GWPF (hier kann man diese abrufen). Typischerweise zeigen diese E-Mails Suchergebnisse nach Hintergründen und spezialisierten Quellen, die zeigen, wie grüne Energie unweigerlich gegen die Wand fahren wird – ohne irgendwelche Kenntnisse, wie sie daran vorbeikommen soll. (Vollständige Offenlegung: Ich bin im Vorstand der amerikanischen Tochtergesellschaft der GWPF).

Schauen wir zuerst auf den Grünenergie-Champion Deutschland. Bloomberg berichtet am 5. Juni, dass „die Finanzierung grüner Energie in Deutschland unbezahlbar wird“ (hier). Daraus ein Auszug:

Das deutsche Programm, das die Umstellung der Nation auf Ökostrom vorangetrieben hat, ist unter dem Gewicht der steigenden Kosten ins Wanken geraten und muss dringend korrigiert werden. Das ist die Einschätzung eines der Chefkonstrukteure des Programms, Hans Josef Fell. … Doch die steigenden Kosten des Systems sind während der Coronavirus-Pandemie unübersehbar geworden, sagte der altgediente Gesetzgeber der Grünen. Hohe und garantierte Zahlungen an Investoren in saubere Kraftwerke seien das Problem, sagte Fell in einem Interview.

Deutschland hat für den Bau seiner Wind- und Solaranlagen garantierte Zahlungen an die Erzeuger eingeführt, um die Lücken aufzufüllen, welche die viel niedrigeren Marktpreise für Strom reißen. Die garantierten Zahlungen werden aufgeteilt und auf die Stromrechnungen der Verbraucher aufgeschlagen. In diesem Jahr, in dem die Preise für alternative fossile Brennstoffe drastisch sinken, werden die garantierten Zahlungen voraussichtlich rund 26 Milliarden Euro betragen – das sind rund 100 Dollar pro Monat für jeden deutschen Haushalt, zusätzlich zu den Strompreisen, die bereits etwa dreimal so hoch liegen wie der US-Durchschnitt. Natürlich schlägt Bundeskanzlerin Merkel einen „Deckel“ vor, d.h. eine Rettungsaktion der Regierung als Teil eines angeblichen Coronavirus-Hilfspakets. Das könnte für eine Weile funktionieren. Aber was dann?

Ebenfalls aus Deutschland wartete die Financial Times mit der Schlagzeile auf [übersetzt]: „Umweltextremisten auf den Barrikaden bei der Eröffnung von Deutschlands neuestem Kohlekraftwerk“ (hier). Was?? Ein neues Kohlekraftwerk wird eröffnet mitten im Übergang weg von fossilen Treibstoffen?? tatsächlich schließt man dort [in D] alle Kernkraftwerke, und man braucht etwas, dass die ganze Zeit über funktioniert – anders als Wind und Solar. Erst im Januar hat Deutschland eine Gesetzgebung erlassen, wonach die Stromerzeugung mittels Kohle bis zum jahr 2038 auslaufen soll – um dann im Mai nichts Besseres zu tun als das neue Kohlekraftwerk Datteln 4 in Betrieb zu nehmen. Im Artikel der Financial Times wird die Greenpeace-Aktivistin Lisa Göldner mit den Worten zitiert, dass das neue Kohlekraftwerk ein „Klima-Verbrechen“ ist. Inzwischen werden die Besatzungsmitglieder eines großen Lastkahns, welcher das Kraftwerk mit Kohle beliefern soll, als „keuchend und pfeifend im Spott“ beschrieben werden – gegen Umwelt-Protestierer, die die Öffnung des Kraftwerkes zu verhindern trachten.

Tatsache ist, dass es in Deutschland einfach keine Landflächen mehr gibt, wo man noch mehr Windmühlen errichten oder Solarpaneele installieren kann. Wenn der Wind an einem sonnigen Tag weht, hat man dort bereits Strom im Überfluss, und man ist gezwungen, diesen Überschuss-Strom an Polen zu verhökern (und die Polen sogar dafür zu bezahlen, dass sie diesen Strom abnehmen). In einer windstillen Nacht, egal wie viele Windmühlen und Solarpaneele aufgestellt sind, wird gar nichts erzeugt. Ohne Kohlekraftwerk gehen die Lichter dann einfach aus. Sie palavern endlos über Klima-Tugenden, aber bisher hat noch niemand auch nur ansatzweise an einer Lösung gearbeitet, um diese Hürde zu überwinden.

Und das bringt mich zum wichtigsten Beitrag in der GWPF-E-Mail, und zwar von Prof. Michael Kelly bei Cambridge, der sich am 8. Juni in irgendetwas mit der Bezeichnung CapX zu Wort meldete mit der Schlagzeile [übersetzt] „Bis wir einen angemessenen Fahrplan haben, ist Null Emission ein Ziel ohne einen Plan“ (hier). Kelly spricht etwas für mich Offensichtliches an, aber irgendwie ist das an der New York Times und den anderen Mainstream-Medien vorbei gegangen. Sein Punkt: Falls Wind- und Solarenergioe jemals aus ihrem Nischendasein herauskommen sollen, muss ein gigantisches ingenieurtechnisches Problem gelöst werden. Jemand muss ein elektrisches System erfinden, dass auf der Grundlage der intermittenten Quellen 24 Stunden an 7 Tagen der Woche und 365 Tagen im Jahr funktioniert. Tatsächlich aber – obwohl sogar große Staaten und Länder in religiöser Verzückung ihrer Verpflichtung zu „Net Zero“-Energie Ausdruck verliehen haben – hat noch niemand dieses Ingenieurs-Projekt auch nur angedacht. Und sobald man anfängt, über diese Frage nachzudenken, wird man rasch erkennen, dass das gesamte Unterfangen fast mit Sicherheit ein Ding der Unmöglichkeit ist. Als Beispiel führt Kelly Batterien an:

Nehmen Sie Batterien. Es wird geschätzt, dass die Fertigungskapazitäten für Batterien größenordnungsmäßig 500-700 Mal größer sein müssen als heute, um ein rein elektrisches globales Transportsystem zu unterstützen. Die Materialien, die benötigt werden, um Großbritannien den Übergang zu einem rein elektrischen Verkehrssystem zu ermöglichen, umfassen Materialmengen, die 200% der jährlichen weltweiten Produktion von Kobalt, 75% des Lithiumkarbonats, 100% des Neodym und 50% des Kupfers entsprechen. Eine Skalierung um den Faktor 50 für den weltweiten Transport, und Sie sehen, was jetzt ein Showstopper ist. Der Materialbedarf allein für Batterien übersteigt die bekannten Reserven. Wäre man bereit, den Meeresboden für einen Teil des Materials in sehr großem Maßstab auszubaggern? Sollte die Sicherung der Reserven nicht oberste Priorität haben?

Und das ist nur ein einziger Aspekt.

Der ganze Beitrag steht hier.

Link: https://www.thegwpf.com/reality-is-gradually-catching-up-to-green-energy/

Übersetzt von Chris Frey EIKE




Das anthropogene CO2-Emissions-Experiment

Professor Stefan Rahmstorf zeigt, wie CO2 in der Atmosphäre durch Corona abgenommen hat

Dazu postete er eine CO2-Konzentrationsgrafik, deren zum Schluss rote und blaue Verlaufslinien, sowie Regressionsgeraden eine deutliche, „Corona“-bedingte Reduktion ausweisen.

Bild 1 Grafik von S. Rahmstorf (PIK) zum aktuellen Coronaverlauf

Dieser Verlauf ist wichtig. Wäre er nicht wie von Herrn Rahmstorf gezeigt, könnte – beziehungsweise müsste – man an dem IPCC-Postulat vom hohen Anteil des anthropogenen CO2 an der globalen Konzentrationserhöhung zweifeln. Anscheinend hat S. Rahmstorf mit seinem Post diesen Zweifel gelöst und für nichtig erklärt.

Wie immer beim Klimawandel, gibt es auch hier zum gleichen Ereignis gegensätzliche Aussagen. Eine davon wurde kürzlich auf EIKE publiziert: [1] EIKE 06. Juni 2020: CO2 und Korona

Anbei nun ein Versuch, von den verschiedenen Aussagen die wahrscheinlichere herauszufinden.

Die Emissionsreduktion

Jüngst wurde eine Studie veröffentlicht [2], welche die „Corona“-bedingte Reduktion des anthropogenen CO2-Eintrags abschätzte und quantifizierte. Das Ergebnis ist in der Studie als Grafik (Bild 2.1) und tabelliert zusammengefasst:

Bild 2.1 Verlauf der anthropogenen CO2-Emission bis Ende Mai 2020. [2] Fig. 3 | Global daily fossil CO2 emissions (MtCO2 d−1). a, Annual mean daily emissions in the period 1970–2019 (black line), updated from the Global Carbon Project1,3 (Methods), with uncertainty of ±5% ( ±1σ; grey shading). The red line shows the daily emissions up to end of April 2020 estimated here. b, Daily CO2 emissions in 2020 (red line, as in a) based on the CI and corresponding change in activity for each CI level (Fig. 2) and the uncertainty (red shading; Table 2). Daily emissions in 2020 are smoothed with a 7-d box filter to account for the transition between confinement levels. Hilfslinien und Prozentangaben vom Autor ergänzt
Bild 2.2 [2] (Supplement). Datentabelle
Bild 2.3 [2] (Supplement). Datentabelle
Dank dieser Reduktionsermittlung könnte es möglich sein, die „Antwort“ der globalen CO2-Konzentration abzuschätzen, wie es in [1] auch gemacht wurde.

Leider legt auch diese Studie – wie fast immer, wenn es um den Klimawandel geht – keinerlei Wert darauf, ihre Daten für weitere Auswertungen oder vertiefter Nachkontrolle durch andere ausreichend zu detaillieren.
Wie es die IPCC-Autoren (angeblich) schaffen, ca. 40.000 Klimastudien für einen Bericht zu „analysieren“, ist zumindest dem Autor mehr als ein absolutes Rätsel, beziehungsweise positiv betrachtet, muss es ein Beleg für geradezu „erleuchtetes“ Wissen und Können der daran im Auftrag des IPCC Mitwirkenden sein.
Auch zur Darstellung von Prof. Rahmstorf hat der Autor nur Achtung übrig (könnte auch ironisch gemeint sein, hängt vom Typus des Lesers ab). Das PIK verfügt einfach über die alles richtig (voraus-)sagende Glaskugel (Simulationen), welche zu jeder noch so verflixtesten Klimafrage spontan Aussagen erlaubt.

Die alles entscheidende Frage: Wie viel Reduktion misst die globale Referenzstation von „Mauna Lea“

Im EIKE-Artikel [1] wurde die Frage wie folgt beantwortet: Die Welt-Referenz-CO2-Messstation auf der Insel „Mauna Lea“ misst keine „Corona“-bedingte Reduktion.
[1] In den letzten Monaten gab es keine Anzeichen für eine Reaktion des atmosphärischen CO2. Die Trendzahlen für 2020 liegen sogar über der Regressionslinie. Das verspricht etwas, wenn wir in den Niederlanden die CO2-Emissionen “ für das Klima “ um einen wahnsinnigen Betrag von vielen, vielen Milliarden Euro reduzieren. Und nicht zu vergessen die 1000 Milliarden Frans Timmermans.

Ganz so einfach wie im Artikel dargestellt, erscheint dem Autor die Antwort nicht. Deshalb hier der Versuch einer vertiefenden Sachstandsdarstellung.

Die aktuelle Grafik der „Mauna Loa“ CO2-Konzentration(1) (Bild 3)lässt keine Konzentrationsverringerung erkennen.

Bild 3 Mauna Loa Monthly Averages bis 06. Juni 2020. Quelle: [3]
Zur Verdeutlichung dazu der Verlauf aus der Studie [3] (Bild 2.1) und der Original-Verlaufsgrafik (Bild 3) übereinander kopiert (Bild 4).

Das Ergebnis: Weiterhin kein Corona-Einfluss erkennbar.

Bild 4 CO2-Konzentrationsverläufe aus der Studie [3] und der Originalgrafik (Bild 3) vom Autor übereinander kopiert
Nun ist eine Monatsauflösung sicher zu grob, um die wenigen Monate des „Corona“-Einflusses richtig darzustellen. Deshalb ergänzend die Wochendaten (Bild 5). Auch darin ist von der von Prof. Rahmstorf gezeigten Reduktion nichts zu sehen.

Bild 5 Mauna Loa CO2-Konzentration bis 06. Juni 2020 in Wochenauflösung. Quelle: Viewer [3]. Bild vom Autor ergänzt
Zur Veranschaulichung die zwei wichtigen Verläufe wieder übereinander kopiert (Bild 6). So wirklich will die Grafik von Herrn Rahmstorf nicht mit dem aktuellen, wahren Wochenverlauf übereinstimmen (Kreis B).

Ein Verdacht drängt sich auf: Der „Coronateil“ seiner Kurve wurde von Prof. Rahmstorf nicht anhand von Messwerten, sondern durch „Zeichnen“ erstellt.

Bild 6 Der Verlauf nach Prof. Rahmstorf (Bild 1) und der Messdatenverlauf in Wochenauflösung (Bild 5) vom Autor übereinander kopiert und ergänzt

Nun können solche Verläufe – so augenscheinlich sie auch sein mögen – täuschen.
Also muss man noch tiefer in die Daten „eindringen“. Und vielleicht liefern die Regressionsgeraden ein deutlicheres Ergebnis.

Für Bild 7 hat der Autor die Originaldaten in Wochenauflösung der Jahre 2018, 2019, 2020 vom 1.1. bis Ende Mai in ein Excelsheet kopiert (ist wirklich mühsam, weil die Daten ohne Zeilenvorschub einfach hintereinander erscheinen und damit die Zeilenbildung händisch – oder über ein Script – erzeugt werden muss. Leider eine häufige Erscheinung, wohl um Privatpersonen Auswertungen aus Datenhinterlegungen extra zu erschweren) und auf den gleichen Startwert der Regressionsgeraden normiert.

In der Grafik von Prof. Rahmstorf ist die für das Jahr 2020 rot gezeigte „2020 forecast seasonal-cycle“-Regressionslinie eine lineare Weiterführung der Regression ab Juni 2018. Die „Covid“-reduzierte, blaue Linie „Covid-19 emissions reduction“ zeigt dagegen eindeutig eine Abschwächung.

Nur: Die aus den wahren Messwerten ermittelten Regressionsgeraden zeigen ein umgekehrtes Bild:
Entgegen Rahmstorfs blauer „Corona“-Minderung hat die wahre „Corona“-Regressionsgerade (rot) sogar eine noch höhere Steigung. Vor allem ist sie steiler als die des Boomjahres 2019 (schwarz gestrichelt).

Bild 7 Mauna Loa CO2-Konzentration vom 1.1. bis 31.05.. Regressionsgeraden auf den gleichen Startwert additiv verschoben. Quelle: NOAA Global Monitoring Laboratory. Grafik vom Autor anhand der Daten erstellt

Die aktuelle Verlaufsgrafik dazu zeigt das folgende Bild:

Bild 8 Mauna Loa CO2-Konzentrationen vom 1.1. bis 31.05.. Quelle: NOAA Global Monitoring Laboratory. Grafik vom Autor anhand der Daten erstellt

Mit einem solchen Bild kann man die Verläufe jedoch schlecht miteinander vergleichen. Deshalb auch die Konzentrationsverläufe normiert auf den 1. Januar.
Nun ist erkennbar, dass am üblichen, saisonalen Umkehrzeitpunkt (vertikale Linie, 13. Mai) das aktuelle „Coronajahr“ eine leichte Delle hat, diesen saisonalen Umkehrpunkt aber ignoriert und leicht steigend weiterläuft. Weder im längerfristigen-, noch am kurzfristigen Tagesverlauf (Bilder 10; 11) ist eine „Coronadelle“ erkennbar.

Bild 9 Mauna Loa CO2-Konzentration vom 1.1. bis 31.05.. Normiert auf gleichen Startwert am 1.1.. Gestrichelte Linie: 13. Mai. Quelle: NOAA Global Monitoring Laboratory. Grafik vom Autor anhand der Daten erstellt

Bild 10 Mauna Loa CO2-Konzentration in Tagesauflösung mit Messwerten vom 06. bis Mai bis 06. Juni. Quelle: [3]
Bild 11 Mauna Loa CO2-Konzentration in Tagesauflösung vom 06. bis Mai bis 06. Juni. Quelle: [3]
Der berechnete, summerte Unterschied an CO2-Emission seit Anfang des Jahres zwischen dem Jahr 2020 und 2019 beträgt -0,05 % in diesem Jahr.

Der Wirtschaftszyklus

Bisher wurde noch nicht betrachtet, wie die CO2-Emission verlaufen wäre, wenn es kein „Corona“ gegeben hätte. Prof. Rahmstorf hat das natürlich gemacht, weshalb es der Autor ebenfalls nicht ignorieren kann, bedeutet, man muss noch tiefer in die Daten „einsteigen“ und den „Forecast“ herausrechnen.
Während die Klimawissenschaft dazu massiv forscht und es darin (angeblich) bereits zur wahren Meisterschaft gebracht hat, fällt es dem Autor schwer. Doch einen Versuch sollte es notgedrungen wert sein.

Rahmstorf hat in seiner Grafik einen „2020 forecast“ eingezeichnet. Bei ihm ist dieser (rote Linie im Bild 1) die lineare Weiterführung der Regressionslinie vom Jahr 2018.

Um solchen „Forecast“ zu bewerten, muss man nachsehen, was die Weltwirtschaft (ohne Coronaeinfluss) emittiert hat und hätte. Unsere Wirtschaftsweisen schrieben dazu:
[4] Sachverständigenrat – Jahresgutachten 2019/20: DAS WICHTIGSTE IN KÜRZE Das Wachstum der Weltwirtschaft hat sich merklich verlangsamt. Dazu trägt insbesondere die Schwäche der Industrie bei. Gleichzeitig kam es zu einem Rückgang des Welthandelsvolumens. Die gestiegene Unsicherheit, nicht zuletzt durch die Handelskonflikte ausgelöst, dämpft das Investitionswachstum. Im Prognosezeitraum dürfte die konjunkturelle Dynamik weiter verhalten bleiben.

… Vor allem der Welthandel entwickelt sich nämlich sehr schwach. ABBILDUNG 1 OBEN RECHTS Das globale Handelsvolumen ging drei Quartale hintereinander spürbar zurück. Die regionale Aufteilung zeigt dabei, dass insbesondere China sowie die sonstigen asiatischen Schwellenländer zum Rückgang des Importvolumens beitrugen. Im zweiten Quartal 2019 kam ein deutlicher Rückgang in den sonstigen fortgeschrittenen Volkswirtschaften, darunter das Vereinigte Königreich, hinzu. Gleichzeitig kam jedoch das Wachstum in den übrigen Regionen ebenfalls weitgehend zum Erliegen. Es ist eine Entkopplung der Entwicklung von Welt-BIP und Welthandel zu beobachten. Dies steht im Einklang damit, dass die schwache konjunkturelle Entwicklung bislang vor allem aus einer länderübergreifenden Industrieschwäche resultiert.

Bild 12 [4]
Nach diesen „Weisen“ war die Veränderung des Weltwachstums in den ersten beiden Quartalen 2019 mindestens so hoch wie es in den ersten beiden Quartalen des Jahres 2020 geschätzt wird (Bild 12). Die fortgeschriebene Erhöhung in der Grafik von Herrn Rahmstorf lässt sich darin nicht ableiten. Eher dürfen für die aktuellen, ersten beiden Quartale gleiche Werte angenommen werden.

Unter dieser Prämisse sind die CO2-Daten nun mit einem eingeschränkten Zeitraum ab dem die Corona-bedingte Reduktion des Welthandels sicher begonnen hatte, heraus-“gezeichnet“ (Bild 12).

Nun sind die Steigungen praktisch identisch. Der Summenunterschied an CO2-Emission ab Anfang März bis zum 31.05. zwischen dem Jahr 2020 und 2019 beträgt +0,61% mehr Emission im Jahr 2020.

Bild 13 Mauna Loa CO2-Konzentration vom 01.03. bis 31.05., Regressionsgeraden auf den gleichen Startwert additiv verschoben. Quelle: NOAA Global Monitoring Laboratory. Grafik vom Autor anhand der Daten erstellt

In der Studie steht allerdings noch, dass der „Coronaeintrag“ dem Jahr 2006 entsprechen würde:
[5] Die täglichen Gesamtemissionen in diesem Zeitraum entsprachen in etwa denen von 2006

Vergleicht man den wichtigen „Coronazeitraum“ auch mit diesem Jahr (Bild 14), würde man die Aussage eindeutig lesen:
-Im Jahr 2006 gab es genau wie im Jahr 2020 die „Emissionsdelle“ zum „Umkehrzeitpunkt“,

-doch war die Steigung der Regressionsgeraden weit geringer und die Abflachung nach dem „Umkehrzeitpunkt“ erheblich stärker.

Bild 14 Mauna Loa CO2-Konzentration vom 01.03. bis 31.05., Regressionsgeraden auf den gleichen Startwert additiv verschoben. Quelle: NOAA Global Monitoring Laboratory. Grafik vom Autor anhand der Daten erstellt

Wer hat nun recht(er)?

Aufgrund der nicht ausreichend genau quantifizierbaren – und damit auch nicht herausrechenbaren – Randbedingungen, sowie des in Wirklichkeit extrem geringen „Corona“-Einflusses auf den absoluten Atmosphärenanteil ist es wohl nicht eindeutig zu beweisen. Damit bleiben die folgenden Aussagen:
-Herr Rahmstorf sagt, dass der Einfluss gesichert und deutlich erkennbar sei
-Der Autor würde anhand seiner „Auswertung“ (viel) eher die Wahrscheinlichkeit des Gegenteils vermuten, allerhöchstens eine Patt-Situation.

Vielleicht gibt es dazu irgendwann noch eine Studie, welche das Kunststück einer genaueren Aussage „schafft“ und nicht nur ein gefordertes „Auftragsergebnis“ ermittelt.
Wie es aktuell zu sehen ist, mag bis dahin jeder Leser für sich entscheiden. Klimaaktivisten wird es sowieso nicht interessieren.

Was „lehrt“ die Studie trotzdem sicher?

„Corona“ hat trotz seiner teils extremen Auswirkungen auf die Weltwirtschaft (und Steueraufkommens-Reduktionen und erforderlicher Sozialleistungen) die globale CO2-Konzentration mit den bisher (laut Studie) reduzierten 1.048 MtCO2 den aktuellen Absolutwert von 417 ppm lediglich um ca. 0,13 ppm verringert.
Die Studienautoren schreiben dazu: [5]Eine neue Untersuchung zeigt, wie der Corona-Lockdown die globalen CO2-Emissionen beeinflusst hat – und macht deutlich: Die Stabilisierung des globalen Klimasystems wird Veränderungen von außergewöhnlichem Ausmaß erfordern … Die Welt emittiert heute unter „Lockdown”-Bedingungen genauso viel CO2 wie vor 14 Jahren unter normalen Bedingungen … Daher wird die Stabilisierung des globalen Klimasystems Veränderungen in unserem Energie- und Wirtschaftssystem von außergewöhnlichem Ausmaß erfordern …
… Lassen Sie uns noch einmal die zusätzlichen Menschen betrachten, die jetzt zu Fuß gehen und Fahrrad fahren. Was wäre, wenn die Regierungen jetzt die Chance ergreifen würden, solch aktives, emissionsarmes Reisen zu unterstützen und es dauerhaft zu machen? … Ermutigende Beispiele sind die Pop-up-Fahrradwege in den Berliner Stadtteilen Kreuzberg und Charlottenburg. Sie machen die gesunde und klimaschonende Mobilität sicherer, und machen sie auch für Kinder und weniger sportliche Radfahrer zugänglich. Wichtig ist aber auch die Anbindung der Vororte – hier sind Fahrradschnellstraßen nach Kopenhagener und Pariser Vorbild eine Möglichkeit.

… Dass jedem vor unserer politischen „Führung“ und den mit der Transformation Beauftragten Angst und Bange werden sollte

Dem Globus brachte „Corona“ eine (kurzzeitige) globale Temperatur-Verringerung von 0,00135 Grad beim IPCC-Forcing von 3 K/Verdopplung, mit dem realistischen Forcing von ca.1 K/Verdopplung noch von 0,00045 Grad.

Die Welt – oder wohl eher die wild-gewordene EU, ganz vorne dran Deutschland – möchten mindestens 0,5 … 1 Grad erreichen. Grob wäre das alleine für die ersten 0,5 Grad 1111 … 3.333 Mal „Corona“.
Bis zum Jahr 2100, zu dem es erreicht sein soll, nun jedes Jahr also zwischen 14 … 42 mal „Corona“, wobei der Wunsch von Deutschlands Vorreiterrolle zu mehr Reduktion und damit zu jährlich 28 … 84 mal „Corona“ tendiert.

Jetzt versteht wohl jeder, warum vorher die „Transformation“ (vollständige Entmündigung der nationalen Bürger und „Übergabe“ der politischen Entscheidungshoheit an eine Räte-Weltregierung) durchgeführt sein muss. Denn das werden sich auch die typischen GRÜN-Wähler nicht mehr so klaglos bieten lassen.
Bis diese es bemerken, wird allerdings ein erheblicher Einwohneranteil Deutschlands – vor allem aus dem Mittelstand – konsequent „geplant“ verarmen.

Das „sehen“ auch die Autoren der Studie. Sie betrachten es aber nicht als Problem, sondern als Herausforderung.
Sieht man in die Autorenliste der Studie, erkennt man sofort, dass es sich dabei im Wesentlichen um „Profiteure“ des Klimahypes handelt. Beispiel:
Felix Creutzig leitet eine Arbeitsgruppe am MCC Berlin und ist Professor für nachhaltige Stadtökonomie an der TU Berlin. Für den Weltklimarat ko-koordiniert er ein Kapitel zu Nachfrage, Dienstleistungen und sozialen Aspekten des Klimaschutzes.

Solche mag das Szenario der vorgesehenen Dekarbonisierung nicht schrecken, schließlich hängt ihr Arbeitsplatz eher davon ab.

Wer sich jedoch unabhängig von staatlichen Fördermitteln und Alimentierung seinen Lebensunterhalt verdienen muss, dem kann dabei nur noch Angst und Bange werden.
Ob das die Eltern der „Freitagshüpfer“ erkennen und ihren Hüpfkindern auch so sagen, dürfte zu bezweifeln sein. „Parents for Future“ und deren Ableger bei den etablierten Kirchen arbeitet schon daran, dass solches Wissen nicht überhand nimmt. Schließlich zeigt der Staat, dass man mit Kurzarbeitergeld ganz ohne zu arbeiten, endlich dem Wunsch nach „Entschleunigung“ nachgehen kann …

(1)Alle Daten dieses Beitrags wurden am 07.06.2020 abgerufen.

Quellen

[1] EIKE 06. Juni 2020: CO2 und Korona

[2] Corinne Le Quéré at al.: Temporary reduction in daily global CO2 emissions during the COVID-19 forced confinement

[3] NOAA Global Monitoring Laboratory Earth System Research Laboratories

[4] Sachverständigenrat – Jahresgutachten 2019/20

[5] MAKRONOM.de 20. Mai 2020: Wie 2020 zum Wendepunkt im Kampf gegen den Klimawandel werden könnte




Coronapanik: Antwort auf kleine Anfrage – Bundesregierung räumt Schnellschuss bei Lockdown ein

46 Abgeordnete sind der Bitte gefolgt, und die Anfrage wurde am 11.05. als Bundestagsdrucksache 19/19081 veröffentlicht.  (hier) Inzwischen liegt auch die Antwort der Regierung vor, die als Bundestagsdrucksache 19/19428 vom 04.06.20 veröffentlicht wurde. (hier). Der Inhalt hat die 5 Professoren enttäuscht. Die Regierung hat sich bemüht, mit einer ausreichenden Anzahl von Worten möglichst nichts auszusagen. Trotzdem erkennen sie interessante Neuigkeiten.

Auf die erste Frage

„Welche konkreten Szenarien lagen am 13.03.20 vor, und aus welchen Grund hat sich die Regierung für Kontaktbeschränkungen und gegen die Herstellung der Herdenimmunität entschieden?“

wurde geantwortet, dass es nur die täglichen Situationsberichte des Robert-Koch-Instituts gab, die im Internet veröffentlicht sind. Damit bestätigt sie die Aussage von Stephan Kohn aus dem Innenministerium (siehe), dass es keine professionelle Entscheidungsvorbereitung gab. Ohne Folgenabschätzungen für verschiedene Handlungsalternativen in mehreren Szenarien war der Lockdown also nach dieser Antwort ein panischer Schnellschuss!

Auf die dritte Frage,

„Mit welchen Gründen rechtfertigt die Regierung die hohen wirtschaftlichen Schäden und die zusätzlichen Sterbefälle, die aus ihren Maßnahmen resultieren, vor allem unter Berücksichtigung der geringen geretteten Lebenszeit.“

Kam die kurze Antwort:

„Der Bundesregierung liegen keine Informationen zu einer geringen geretteten Lebenszeit in Bezug auf die Auswirkungen der Coronavirus-Pandemie vor …“

das sollten sie aber! Die Regierung räumt also ein, dass sie keine Ahnung hat!

Bei einer Konkurrenz verschiedener Grundrechte verlangt das Bundesverfassungsgericht, dass das geschützte Grundrecht das beeinträchtigte wesentlich überwiegt, dass die Beschränkung ein geeignetes Mittel ist und dass die Beschränkungen nicht übermäßig belastend sind. Ein größerer Nutzen kann einen größeren Schaden rechtfertigen. Die erste Bedingung wird von niemandem bestritten. Bei der zweiten Bedingung sieht die Regierung im Lockdown den Grund für den insgesamt glimpflichen Verlauf der Pandemie in Deutschland, sie kann aber nicht erklären, warum schärfere Maßnahmen in Spanien, Italien und Frankreich zu einem ungünstigeren Verlauf geführt haben, wo es nach der Regierungslogik doch eigentlich andersherum sein müsste. Im Mittelalter wurden gegen Epidemien Gottesdienste abgehalten, und sie wurden auch für den Grund gehalten, warum die Krankheiten am Ende überstanden wurden. Die 5 Professoren glauben eher an die Wirkung von Antikörpern, die sich nach einer überstandenen Infektion bilden, sie können aber nicht widerlegen, dass Kontaktbeschränkungen und Gebete auch eine Wirkung haben.

Entscheidend ist aber die dritte Bedingung. Für sie wäre aber eine professionelle Entscheidungsvorbereitung mit einer Folgenabschätzung jeweils mit und ohne die geplanten Maßnahmen unverzichtbar gewesen. Die hat es nach der Antwort auf die Frage 1 nicht gegeben. Dafür hätte nicht nur der wirtschaftliche Schaden vor dem Lockdown beziffert werden müssen, man hätte auch eine Berechnung der zu rettenden Lebenszeit als Ausdruck für den Nutzen der Maßnahmen vornehmen müssen. Die Aussage von Boris Palmer, man rette Menschen, die in einem halben Jahr sowieso tot wären, beschreibt diesen Konflikt zutreffend. Ein enormer Schaden könnte nur mit einem gigantischen Nutzen gerechtfertigt werden. Wenn die Regierung – wie sie in der Antwort auf die kleine Anfrage eingeräumt hat – hierzu keine Informationen hatte, hätte sie die grundrechtsbeschränkenden Maßnahmen nicht beschließen dürfen. Der Lockdown war also verfassungswidrig! 

gez. Prof. Dr. Werner Müller
als Koordinator der Gruppe der 5 Lockdown-kritischen Professoren

Keine Antwort ist auch eine Antwort!

Mit der Antwort der Regierung auf die Kleine Anfrage hat sie sich bemüht, mit einer ausreichenden Anzahl von Worten möglichst nichts auszusagen. Deshalb ist vornehmlich zu analysieren, vor welchen Antworten sich die Regierung herumgedrückt hat. Man kann folgende Antworten herauslesen:

zu Frage 1:
Die Regierung hatte nur die vom Robert-Koch-Institut veröffentlichten Situationsberichte und sie bestätigt damit die Aussage von Stephan Kohn aus dem Innenministerium, dass es keine professionelle Entscheidungsvorbereitung gab. Der Lockdown war also ein panischer Schnellschuss!

zu Frage 2:
Die Regierung weicht aus und verweist auf die Übersterblichkeit in Europa, sie hat aber lt. Antwort auf die Frage 3 keine Informationen über die statistische Lebenserwartung von 82jährigen in Deutschland. Es gibt also keine Rechtfertigung!

zu Frage 3:
Antwort: „Der Bundesregierung liegen keine Informationen … vor…“ – sollten sie aber! Die Regierung räumt also ein, dass sie keine Ahnung hat!

zu Frage 4:
Gefragt wurde nach Lernmotivation und Sozialverhalten und die Bundesregierung antwortet zu Übertragungswahrscheinlichkeiten und Krankheitsverläufen. Aus dieser Antwort folgt, dass ihr die wirklichen Probleme der Kinder und Jugendlichen egal sind!

Hier wird die am 04.06.2020 als Bundestagsdrucksache 19/19428 veröffentlichte Antwort der Bundesregierung (http://dipbt.bundestag.de/doc/btd/19/194/1919428.pdf) mit meinen Kommentaren wiedergegeben:

….

Vorbemerkung der Bundesregierung
Bei der aktuellen Pandemie des neuartigen Coronavirus (SARS-CoV-2) handelt es sich – von Beginn an – um ein sehr dynamisches Geschehen, in Deutschland wie auch weltweit. Alle Entscheidungen der Bundesregierung wurden abhängig vom jeweiligen Infektionsgeschehen auf nationaler und internationaler Ebene sowie in Abwägung der verfügbaren fachlich-wissenschaftlichen Erkenntnissen in diesem Zusammenhang getroffen. Die Bewertung des Infektionsgeschehens erfolgt kontinuierlich u. a. durch das Robert Koch-Institut und kann tagesaktuell auf dessen Internetseite abgerufen werden. Dies beinhaltet auch umfangreiche Informationen zum verfügbaren wissenschaftlichen Erkenntnisstand.

Kommentar:

Die Regierung hatte also keine eigenen Erkenntnisse! Das Handelsblatt vom 26.03.20 schrieb:

„In den ersten Monaten der Coronakrise waren die Politiker das größte Problem, weil sie keine Ahnung von Virologie hatten. Jetzt, da die Seuchenexperten übernommen haben, zeigt sich eine andere Schwäche: Virologen haben im Gegenzug wenig Ahnung von Politik oder gar Wirtschaft.“ (hier)

Transparency International kritisierte während der Schweinegrippe 2009, dass 13 der 16 Mitglieder der Ständigen Impfkommission des Robert-Koch-Instituts von der Pharmaindustrie bezahlt wurden. Diese Branche ist keine Wohltätigkeitsorganisation, sie will Umsatz machen. Warum haben die großen Pharmaunternehmen mit Ausnahme von Fresenius Vertriebskostenanteile von 30 %, obwohl der Vertrieb von Großhandel und Apotheken organisiert wird und für verschreibungspflichtige Medikamente nicht geworben werden darf? Sind die Masse der hier verbuchten Kosten Provisionen? Wer gut schmiert, der gut fährt! Und die Pharmaindustrie fährt derzeit recht gut. Pharmaaktien sind die Gewinner der Corona-Krise (hier) Aber wer diesen Zusammenhang aufzeigt wird als Verschwörungstheoretiker abgestempelt.

Die Regierung hat die Macht Virologen überlassen, die von der Pharmaindustrie gesponsert werden, und für die eine Problemlösung ohne Medikamente keine Option ist. Sie gefährden lieber die wirtschaftliche Grundlage unseres Landes, als die Gewinne ihrer Sponsoren. Sie hat den Bock zum Gärtner gemacht!                                                                                      [Ende des Kommentars]

 

Vorrangiges Ziel der jeweils eingeleiteten Maßnahmen war und ist es, die Ausbreitung des neuartigen Coronavirus (SARS-CoV-2) in Deutschland einzudämmen bzw. zu verlangsamen, um Menschen vor Infektionen zu schützen und eine Überforderung des Gesundheitssystems zu vermeiden.

Kommentar:

Die Befürchtung einer Überforderung des Gesundheitssystems wurde in der Antwort der Bundesregierung auf die Kleine Anfrage nicht mit Zahlen belegt. Es wurde den 5 Professoren aber schon früher von einem CDU-Abgeordneten mitgeteilt, dass ohne Lockdown von 75.000 Infektionen täglich ausgegangen wurde. Bei einer in der Heinsberg-Studie ermittelten Dunkelziffer von 90 % wäre das 7.500 täglich gemeldete Fälle gewesen. Von den aktuell gemeldeten Fällen mussten durchschnittlich 19 % [21.028 von 178.570, bei 7.500 täglich gemeldeten Fällen wäre es täglich 1.425 gewesen – das RKI-Szenario (Dr. Matthias an der Heiden / Dr. Udo Buchholz / Robert Koch-Institut, Abteilung für Infektionsepidemiologie, Modellierung von Beispielszenarien der SARS-CoV-2-Epidemie 2020 in Deutschland, S. 4 – diese Studie wurde zwar erst am 20.03.20 veröffentlicht, die Eckdaten dürften im RKI aber schon eine Woche früher vorgelegen haben) rechnete mit 4,5 %, also 45 % der gemeldeten Fälle]  für 14 Tage im Krankenhaus, was lt. Szenario 21.000 Patienten über mehrere Wochen ergab. Mit Lockdown lag der Spitzenwert bei 5.705. Aus dem Dunkelfeld ist dagegen niemand ins Krankenhaus gegangen, denn dann wären diese Fälle ja gemeldet worden. Die Krankenhäuser haben aber 125.000 Betten für Corona-Patienten freigemacht. Nach dem RKI-Szenario wurde mit einem 25-%-Anteil auf Intensivstationen gerechnet, also 5.125 Patienten. Mit Lockdown lag der Spitzenwert bei 2.908 (21.04.) und es waren ständig etwa 12.000 Intensivbetten frei. Nach den Zahlen vom 25.05. wurden zwar 61,5 % statt 25 % der hospitalisierten Patienten auf die Intensivstation verlegt; im Ergebnis war das Szenario des RKI in diesem Punkt aber ziemlich genau (19 %  61,5 % = 11,71 %; 45 %  25 % = 11,25 %). Bei 75.000 Neuinfektionen täglich wäre also mit etwa 5.336 Patienten auf den Intensivstationen zu rechnen gewesen, was einer Auslastung von 43 % entsprochen hätte.

Es hat sich also niemand die Mühe gemacht, die Zahlen des RKI durchzurechnen. Stattdessen wurden die Empfehlungen des RKI umgehend umgesetzt. Das RKI wiederum wird von der Pharmaindustrie beeinflusst. Man hat sich für die Kontaktbeschränkungen entschieden, weil die Herdenimmunität schlecht für das Geschäft ist.

Auch ohne Lockdown wäre selbst die Hightech-Medizin nicht an ihre Kapazitätsgrenze gekommen, und das Gesundheitssystem insgesamt wäre auf keinen Fall zusammengebrochen. Es sollte auch Pläne für den Katastrophenschutz geben, wie man auch Millionen von Kranken oder Verletzten noch mindestens notdürftig versorgen kann; Hightech-Medizin geht dann natürlich nicht. Das Gesundheitssystem würde aber auch dann nicht zusammenbrechen. Nach dem Papier aus dem BMI ist diese Planung aber wohl sehr lückenhaft.

Es gab also keine Szenarien, sondern nur Horrormeldungen aus der Pharmaindustrie, die der Regierung vom Robert-Koch-Institut (13 von 16 Mitglieder der Ständigen Impfkommission des RKI wurden von der Pharmaindustrie bezahlt) vorgelegt wurden.

Nach der Feststellung, dass es keinen Impfstoff und keine Medikamente gibt, hätte man sich mit dieser Situation arrangieren und die Wehklagen beenden müssen. Das vorrangige Ziel der Verhinderung von Infektionen war in dieser Situation falsch. Es hätte vielmehr eine Ausbreitung in den Nichtrisikogruppen gefördert werden müssen, um eine natürliche Immunisierung zu erreichen. Die Schutzmaßnahmen hätten dann nur auf Risikogruppen bezogen werden dürfen. Dann wären die Kinder und Jugendlichen und insbesondere die Wirtschaft wesentlich geringer Belastet worden. Lediglich die Pharmaindustrie hätte das Risiko gehabt, dass man einen Impfstoff, wenn er dann irgendwann entwickelt würde, dann nicht mehr brauche würde.

[Ende des Kommentars]

Durch die eingeführten Beschränkungen wurde die Ausbreitung des neuartigen Coronavirus in Deutschland erfolgreich verlangsamt. Diese Erfolge gilt es in den nächsten Wochen zu sichern und gleichzeitig Beschränkungen des öffentlichen Lebens unter Berücksichtigung der epidemischen Lage gegebenenfalls nach und nach zu lockern. Dabei erfolgt eine kontinuierliche Kontrolle des Infektionsgeschehens, der Auslastung des Gesundheitswesens und der Leistungsfähigkeit des öffentlichen Gesundheitsdienstes als Grundlage für weitere Maßnahmen oder Lockerungen. Zuständig für den Erlass von Schutzmaßnahmen zur Bekämpfung ansteckender Krankheiten sind die Bundesländer und Kommunen. Diese entscheiden auch über Beschränkungs- oder Öffnungsmaßnahmen im Bereich der Schulen unter Einhaltung infektionshygienischer Maßnahmen.

Kommentar:

Der Erfolg hat viele Väter! Dass die Maßnahmen der Regierung für die Abnahme der Fallzahlen verantwortlich sei, wird in Fachkreisen teilweise bestritten. Weil bei einer Dunkelziffer von 90 % die gemeldeten Fallzahlen mehr von den durchgeführten Tests als vom wirklichen Infektionsgeschehen abhängen, sind die Statistiken, auf die sich die Regierung mit dieser Aussage stützt, nicht sehr belastbar. Zudem wird der Zeitverzug zwischen der wirklichen Infektion und Meldedatum nicht angemessen berücksichtigt. Täte man dies, dann müssten die Maßnahmen der Regierung gewirkt haben, bevor sie überhaupt umgesetzt wurden. Die als Verschwörungstheoretiker diffamierten Kritiker glauben eher an die Wirkung von Antikörpern als an Politiker.

Der Fraktionsvorsitzende der FDP im Bundestag hat der Regierung am 23.04.20 vorgeworfen, das Virus mit den Methoden des Mittelalters zu bekämpfen. Wenn man diesen Gedanken fortsetzt, dann wurden Epidemien damals mit Gebeten und Prozessionen bekämpft; heute glaubt man an den Lockdown und Impfstoffe, die es aber noch nicht gibt. Früher wurden Opfer gebracht; heute auch! Früher hat niemand das Haus ohne Kruzifix verlassen, heute ist es der Mund-und-Nasen-Schutz. Wenn im Mittelalter die Welle vorüber war, haben früher die Gebete geholfen, heute sind es die Kontaktbeschränkungen. Und will eine christlich geführte Bundesregierung behaupten, die vielen Gebete gläubiger Menschen, die es auch in dieser Zeit gegeben hat, wären nur fauler Zauber und wirkungslos?

Wer früher die Macht der Kirche angezweifelt hat, wurde als Ketzer auf dem Scheiterhaufen verbrannt. Wer heute in einem Interview erwähnt, dass ein Drittel der Verstorbenen Bewohner von Alten- und Pflegeheimen sind, die dort im Durchschnitt 11 Monate nach ihrem Einzug versterben (Zitat: Wir retten Menschen, die möglicherweise sowieso bald sterben) wird danach von seiner   eigenen Partei in den Medien öffentlich hingerichtet – Methoden des Mittelalters!

[Ende des Kommentars]

 

Zu den Fragen:

1.Welche konkreten Szenarien lagen am 13. März 2020 vor, und aus welchem Grund hat sich die Bundesregierung für Kontaktbeschränkungen und gegen die Herstellung der Herdenimmunität entschieden (siehe Vorbemerkung der Fragesteller)?

Informationen zur epidemiologischen Lage am 13. März 2020 in Deutschland, in Europa und weltweit sind in den Situationsberichten des RKI dokumentiert und unter folgendem Link abrufbar: www.rki.de/DE/Content/InfAZ/N/Neuartiges_Coronavirus/Situationsberichte/Archiv.html. Ferner wird auf die Vorbemerkung der Bundesregierung verwiesen.

Kommentar:

Nach den Erkenntnissen aus dem Papier von Stephan Kohn aus dem BMI mit dem Titel „Analyse des Krisenmanagements“, hat es keine professionelle Risikobewertung durch die Regierung gegeben, und es kann dann auch keine normale Entscheidungsvorbereitung gegeben haben. Die Antwort der Bundesregierung bestätigt diese Aussage. In ihr wird erklärt, dass der Regierung am 13.03. nur der Situationsbericht des RKI vom 13.03.20 vorgelegen habe. Darin ist kein Szenario zu Handlungsalternativen (mit und ohne Lockdown, Lockdown nur für Risikogruppen) enthalten, schon gar nicht mit Best-Cases- und Worst-Cases-Variation. Im Ergebnis wird in der Antwort der Bundesregierung eingeräumt, dass die Regierung im Blindflug entschieden hat.

Es ist erschreckend, wie leichtfertig aus einem Bauchgefühl heraus Maßnahmen beschlossen wurden, die Schäden in Billionenhöhe verursachen; sowohl für die Steuerzahler als auch für die Bürger direkt, die nicht alle Einbußen aus der Staatskasse ersetzt bekommen. Bei nur 1 Bio. € kämen auf eine vierköpfige Familie Belastungen von 50.000 € zu. Diese Kosten wurden nach der Antwort der Regierung wie auch nach den Aussagen von Stefan Kohn ohne jede professionelle Entscheidungsvorbereitung verursacht. Es wurde billigend in Kauf genommen, dass sich die Maßnahmen ggf. auch als wirkungslos herausstellen könnten.                   [Ende des Kommentars]

 

2. Was waren die Gründe, wegen der die Bundesregierung in der Covid-19-Pandemie eine Bedrohung für die Bevölkerung sieht, obwohl sich die Sterblichkeit nicht wesentlich von den alltäglichen Todesfällen unterscheidet und sie sogar wesentlich niedriger ist als im Januar/Februar 2017, März/April 2018 und Juli/August 2018, als die Bundesregierung keinerlei Aktivität gezeigt hat (siehe Vorbemerkung der Fragesteller)?

Bei dem Coronavirus handelt es sich um ein neuartiges Virus, gegenüber dem in der Bevölkerung kein natürlicher Immunschutz besteht. Hinzu kommt, dass aktuell kein Impfstoff und keine wirksame Therapie zum Schutz vor SARS-CoV-2 zur Verfügung stehen. Vor diesem Hintergrund wurden anti-epidemische Maßnahmen eingeführt, die die Ausbreitung des neuartigen Coronavirus in Deutschland erfolgreich verlangsamt und Infektionen und Todesfälle erfolgreich verhindert haben.
Bei den oben aufgeführten zusätzlichen Todesfällen handelt es sich um sogenannte Übersterblichkeitsschätzungen (Exczess-Mortalität) während vergleichsweise schwerer Grippewellen (Saison 2016/17, Saison 2017/18) bzw. um Übersterblichkeitsschätzungen während einer extremen Hitzephase im Sommer 2018. Bei Influenza steht eine Impfung zur Verfügung, und auch bei einer Hitzewelle sind vorbeugende Maßnahmen möglich.
Erste europäische Übersterblichkeitsschätzungen zeigen, dass seit Beginn der erhöhten SARS-CoV-2-Zirkulation in den Monaten März und April Ausmaße erreicht wurden, die weder in den Grippesaisons 2016/17 oder 2017/18 noch im Sommer 2018 verzeichnet wurden, obwohl praktisch alle Länder in Europa massive Maßnahmen zur Kontaktreduzierung ergriffen hatten (www.euromo-mo.eu/).

Kommentar:

Es ist interessant, wie gut die Bundesregierung über die Übersterblichkeit in Europa informiert ist, aber lt. Antwort auf die Frage 3 keine Informationen über die statistische Lebenserwartung von 82jährigen in Deutschland hat.

In Deutschland kam es erst ab dem 25.03. zu einer Übersterblichkeit gegenüber dem Dreijahresdurchschnitt der Vorjahre, vorher gab es aber eine erhebliche Untersterblichkeit. Für die aktuell verfügbaren Zahlen bis zum 10.05. gab es 2020 354.427 Sterbefälle (der 29.02. wurde wegen der Vergleichbarkeit herausgerechnet) um im Dreijahresdurchschnitt 366.469. Mit Corona sind also bisher in 2020 12.042 Menschen weniger gestorben als ohne Corona!

Sterblichkeit bis zum 10.05.2020

Wenn man die Daten nach Jahren (statt 3-Jahres-Durchschnitt) und Altersgruppen (< 60, 60-79, ab 80) trennt und für 2017-19 das ganze Jahr betrachtet, sieht man folgende Details:

Quelle: eigene Berechnung aus Daten des Statistischen Bundesamtes

Nur in wenigen Ländern, wie zum Beispiel in Italien und Spanien oder in spezifischen Gegenden bestimmter Länder, lagen die Spitzen für kurze Zeit über der Kapazität des Gesundheitssystems. In den meisten Ländern erwies sich auch bei hohen Belastungen das Gesundheitssystem flexibler als erwartet worden war. Gemäß dem EuroMOMO Bulletin, das die Sterblichkeitsraten in Europa registriert, war in der Mehrzahl der Länder in der Wintersaison 2019/2020 keine Übersterblichkeit zu verzeichnen, und die Spitzen blieben unter beziehungsweise innerhalb des Bereiches der früheren Phasen von Grippeausbrüchen. In den Ländern, in denen der Höchststand im Jahr 2020 die früheren Sterblichkeitsraten überstieg, waren die Spitzenwerte höher, dabei aber die Basis kleiner, was bedeutet, dass auch in diesen Ländern die Gesamtzahl der saisonalen Todesfälle nicht gestiegen ist.

Die Anzahl der gemeldeten Todesfälle für alle Altersgruppen in Europa zeigt, dass es 2020 zwar einen höheren Höchststand gab als in den Vorjahren, da aber die Basis im Jahr 2020 kleiner war als in den Jahren zuvor, war die Gesamtzahl der Todesfälle nicht signifikant höher.

Für Norditalien sehen Forscher der Universität von Siena einen Zusammenhang mit der Luftverschmutzung, was als Aufsatz unter dem Titel Can atmospheric pollution be considered a co-factor in extremely high level of SARS-CoV-2 lethality in Northern Italy? (Kann die Luftverschmutzung als Co-Faktor für die extrem hohe SARS-CoV-2-Letalität in Norditalien angesehen werden?) auf  https://www.sciencedirect.com/science/article/pii/S0269749120320601 publiziert wurde.

Zusammenfassung (deutsche Übersetzung)

„In diesem Artikel wird die Korrelation zwischen der hohen Letalität des CoronaVirus 2 (SARS-CoV-2) mit schwerem akutem respiratorischen Syndrom und der Luftverschmutzung in Norditalien untersucht. In der Tat sind die Lombardei und die Emilia Romagna italienische Regionen mit der weltweit höchsten Virusletalität und einem der am stärksten verschmutzten Gebiete Europas. Basierend auf dieser Korrelation analysiert dieser Artikel den möglichen Zusammenhang zwischen Umweltverschmutzung und der Entwicklung eines akuten Atemnotsyndroms und schließlich des Todes. Wir liefern Belege dafür, dass Menschen, die in einem Gebiet mit hohem Schadstoffgehalt leben, anfälliger für chronische Atemwegserkrankungen sind und für jeden Infektionserreger geeignet sind. Darüber hinaus führt eine längere Exposition gegenüber Luftverschmutzung auch bei jungen und gesunden Probanden zu einem chronischen Entzündungsreiz. Wir kommen zu dem Schluss, dass die hohe Verschmutzung in Norditalien als zusätzlicher Faktor für die in diesem Gebiet festgestellte hohe Letalität angesehen werden sollte.“

Daraus ergibt sich die Frage, ob die niedrigeren Todesraten in Deutschland auch mit einer besseren Luftqualität zusammenhängen können.                                             [Ende des Kommentars]

 

3. Mit welchen Gründen rechtfertigt die Bundesregierung die hohen wirtschaftlichen Schäden und die zusätzlichen Sterbefälle, die aus ihren Maßnahmen resultieren, vor allem unter Berücksichtigung der geringen geretteten Lebenszeit (siehe Vorbemerkung der Fragesteller)?

 

Der Bundesregierung liegen keine Informationen zu einer geringen geretteten Lebenszeit in Bezug auf die Auswirkungen der Coronavirus-Pandemie vor; im Übrigen wird auf die Vorbemerkung der Bundesregierung verwiesen.

Kommentar:
Die Aussage der Regierung, dass sie keine Informationen hat, ist absolut glaubwürdig. Sie hat nicht nur keine Information, sie hat auch keine Ahnung! Sie hat sich auch in der ganzen Entscheidungsfindung nie bemüht, Informationen zu bekommen. Die sind z.B. in den Veröffentlichungen des Statistischen Bundesamtes verfügbar. Daten, die Bürger daraus recherchiert haben, werden von der Regierung als Verschwörungstheorie abgetan.

Auf die zentrale Frage der Verhältnismäßigkeit ist die Regierung mit ihrer Antwort nicht eingegangen. Weil sie keine Folgenabwägung getroffen hat, kann sie nicht nachweisen, dass die Maßnahmen angemessen sind. Damit sind sie verfassungswidrig!

Das Bundesverfassungsgericht verlangt bei der Konkurrenz von Grundrechten, dass die Einschränkungen geeignet sind und dass das geschützte Rechtsgut das beeinträchtigte wesentlich überwiegt.

Aus der Antwort zu Frage 2 geht hervor, dass die Regierung die Kontaktbeschränkungen für ein wirksames Mittel hält, wie man im Mittelalter auf Gottesdienste gesetzt hat. Obwohl die 5 Professoren die Bildung von Antikörpern nach einer überstandenen Infektion für wirksame halten, kann weder die Wirksamkeit der Gebete, noch der Kontaktsperre widerlegt werden.

Die Frage „… wesentlich überwiegt …“ kann ohne eine überschlägige Berechnung der geretteten Lebenszeit nicht beantwortet werden. Anders als beim Luftsicherheitsgesetz geht es nicht darum, dass der Staat bedrohtes Leben aktiv opfern würde. Es stellt sich die Frage, ob bedrohtes Leben mit sehr hohem Aufwand und mit extremen Kollateralschäden gerettet werden muss. Hierzu hatte die Regierung nach eigener Aussage keine Information, und sie hat sich trotzdem für die Kollateralschäden entschieden. Ohne Folgenabschätzung (siehe Frage 1) und ohne eine Vorstellung zum Umfang der zu rettenden Lebenszeit konnte die verfassungsrechtlich für die Einschränkung von Grundrechten gebotene Güterabwägung nicht vorgenommen werden. Die Antwort der Regierung zur Frage 3 bestärkt die 5 Professoren in der Einschätzung, dass die Maßnahmen der Regierung übermäßig belastend und damit verfassungswidrig waren.

Unsere Gesellschaft wird immer älter. Die Gruppe der über 80jährigen hat sich in den letzten 30 Jahren etwa verdoppelt. Jedes Jahr kommen 700-750.000 Menschen hinzu – Tendenz steigend – und jedes Jahr stirbt etwa 10 % der Altersgruppe. Die Todesfälle machen aber nur etwa 70 % des Zugangs aus. Dadurch wächst die Altersgruppe jedes Jahr um etwa 210.000 Menschen an. Aktuell sind es ca. 5.750.000. Diese Altersgruppe stellt etwa 64 % der Corona-Toten, während ihr Anteil an den bisherigen Sterbefällen in den letzten Jahren nur 55-60 % betrug; Tendenz steigend. Hierbei ist aber auch zu berücksichtigen, dass jüngere Menschen häufiger an Unfällen sterben als die Alten. Die Bezeichnung als Risikogruppe ist deshalb zu hinterfragen. Das besondere Risiko einer Covid-19-Infektion geht mindestens nicht erheblich über das allgemein hohe Todesrisiko dieser Bevölkerungsgruppe hinaus. Die bisherigen Corona-Todesfälle in dieser sog. Risikogruppe machen nur etwa 1 % der üblichen Todesfälle aus, und das bei einer immer älter und damit auch immer gebrechlicher werdenden Altersgruppe. Jede Grippewelle im Winter oder Hitzewelle im Sommer macht sich in der Todesfallstatistik in dieser Altersgruppe viel stärker bemerkbar als Codiv-19. Selbst die 20fachen Todesfälle würden nicht dazu führen, dass die Altersgruppe schrumpfen würde.

Die Bundesregierung unterstellt offensichtlich, dass die bisherige Bevölkerungsentwicklung ewig so weitergeht. Aber in der Natur wachsen die Bäume nicht in den Himmel! Die Fragen um Alter, Krankheit und Tod haben aber mehr mit der Natur zu tun als mit politischen Entscheidungen. Es ist unvermeidbar, dass die Lebenserwartung nicht immer weiter steigen kann. Irgendwann hat der Körper keine Kraft mehr. Natürlich gibt es auch Beispiele von gesunden und aktiven 90jährigen, die Mehrheit dieser Altersgruppe hat aber eine sehr eingeschränkte Lebensqualität. Diese Menschen wissen, dass sie keine Zukunft mehr haben, sie leiden mindestens psychisch darunter und die Mehrheit von Ihnen wünscht sich, dass sie nicht mehr lange leiden müssen.

Es ist also keine Naturkatastrophe, wenn jetzt ein Prozess einsetzt, der angesichts der Bevölkerungsentwicklung der letzten Jahrzehnte unausweichlich ist. Die Natur verlangt nach ihrem Recht und es wird am Ende nur eine unnatürliche Entwicklung der Vergangenheit leicht korrigiert.

Die 5 Professoren haben vorgerechnet, dass jetzt Geretteten durchschnittlich noch etwa 1.000 Tage (= 2,74 Jahre) leben werden. Die Zahl der Menschen, die wegen einer schweren Krankheit in den nächsten 2 Monaten mit ihrem Tod rechnen müssen, kann (bei 950.000 Todesfällen jährlich, davon etwa 10 % plötzlich) auf etwa 140.000 geschätzt werden. Die Geretteten sind überwiegend dieser Gruppe zuzurechnen! Lt. RKI vom 25.05. sind 3.138 Bewohner von Alten- und Pflegeheimen gestorben, die dort im Mittel 11 Monate bis zu ihrem Tod leben. Bei 8.257 Todesfällen insgesamt sind das 38 %, und weil sie nicht sofort nach ihrem Einzug infiziert wurden haben die vermiedenen Todesfälle also noch im Mittel etwa 150 Tage mit eingeschränkter Lebensqualität gelebt. Es gab auch die 30jährigen, die nichts von ihrer Krebserkrankung wussten, ohne Corona nicht zum Arzt gegangen wären und ohne Corona noch 2 Jahre gelebt hätten.

Die Regierung verweigert jeden nüchternen Blick auf die Todesfallstatistik des Statistischen Bundesamtes und sie ist nicht bereit, sich den nötigen Überblick über ein unangenehmes Thema zu verschaffen. Nur aus diesem Grund hat die Bundesregierung keine Informationen über die zu erwartende Restlebenszeit der Geretteten.                                                       [Ende des Kommentars]

 

4. Was sind die Gründe für die Schließung von Kindertagesstätten, Kindergärten, Schulen und Hochschulen, wenn die Erkrankung doch an jungen Menschen spurlos vorbeigeht und eine natürliche Immunität möglichst vieler Menschen eher hilfreich im Kampf gegen noch wenig bekannte Erreger ist (siehe Vorbemerkung der Fragesteller)?

 

Untersuchungen zur Rolle von Kindern bezüglich Empfänglichkeit für eine Infektion, die Übertragungswahrscheinlichkeit auf andere Personen und das Risiko für schwere Krankheitsverläufe dauern an. Verschiedene Studien zu Kindern beziehen sich auf Situationen mit geschlossenen Kindertagesstätten und Schulen, die nicht auf den normalen Alltag übertragbar sind. Selbst die Dauer und Stärke einer Immunität sowie der Schutz durch diese mögliche Immunität gegen schwere Erkrankungen nach durchgemachter Infektion ist noch ungeklärt. Studien des RKI und anderer Institutionen dazu sind angelaufen oder befinden sich zur Zeit in Vorbereitung.

Kommentar:
Nach der Antwort der Bundesregierung sind alle Fragen im Zusammenhang mit Kindern ungeklärt. Die Regierung hat also nach der Maxime gehandelt: „Erst schießen – dann fragen!“

Es ist geklärt, dass nur 3 von 8.257 mit Corona-Infektion gestorbenen Menschen unter 20 waren, und dass auch sie schwere Vorerkrankungen hatten. In diese Altersgruppe mit ca. 15 Mio. Menschen wurden 11.395 Infektionen festgestellt; die Todesrate lag also bei 0,26 Promille. Jedes Jahr sterben 50-60 Kinder unter 15 im Straßenverkehr und etwa 40 an Leukämie. Kinder und Jugendliche sind also nicht betroffen, tragen aber wegen der Schließung der Schulen und Kitas neben den Selbständigen die Hauptlast des von der Bundesregierung zu vertretenden Kollateralschadens.

Besonders bei Grundschulkinder wird erst durch gruppendynamische Prozesse eine gewisse Lernmotivation erzeugt, die jetzt wegfällt. Mit eigenverantwortlichem Lernen sind diese Kinder überfordert, und die Eltern sind mit den Anforderungen an das homeschooling restlos überfordert. Weil die Grundschulen vor den Sommerferien nur symbolisch öffnen, werden im Ergebnis 5 Monate Unterricht wegfallen, in denen die Grundschulkinder auch viel wieder vergessen. Im Ergebnis wir ein volles Schuljahr zerstört. Die Bundesregierung antwortet aber nur zu Übertragungswahrscheinlichkeiten und Krankheitsverläufen. Aus dieser Antwort folgt, dass ihr wirklichen Probleme der Kinder egal sind!

Böse Zungen mögen behaupten, dass Kinder keine Wähler sind und die treuesten Wähler von CDU und SPD sind die alten Leute. Sollen nur möglichst viele von ihnen mit aller Gewalt bis zur Bundestagswahl an Leben gehalten werden, koste es was es wolle?
[Ende des Kommentars]

Die gesamte Information finden Sie hier

 




DUBIOSE  MODELLE

Ein ganz süßes Video

Sicherlich haben Sie schon einmal, liebe Leserin, ein ganz süßes Video wie dieses https://www.youtube.com/watch?v=HjzjSvY0vlU mit ein paar Freundinnen geteilt, und Sie lieber Leser haben den Clip eines attraktiven Models an Ihre Kumpels verschickt. Da kann man dann fragen, wie sich solche kleinen Geschenke über die Menschheit ausbreiten, wenn jeder der Bescherten genau so weitermacht.

Dazu treffen wir ein paar Annahmen über die Wirklichkeit. Wir gehen davon aus, dass jeder den Clip mit 10 Freund/innen teilt, und dass der Empfänger es dann ebenso macht; und so weiter. Wie viele haben den Clip nach 10 Tagen? Nach dem ersten Tag sind es Sie plus 10 Freunde, macht 11. Nach dem zweiten Tag sind es Sie, Ihre 10 Freunde plus deren jeweils 10 Freunde, also 1 plus 10 plus 100, macht 111.

Nach 10 Tagen wird daraus eine Zahl aus elf Einsen; das sind im Klartext 11 Milliarden.

 

Modelle sind eigenwillig

Wir haben also versucht, die Wirklichkeit durch Mathematik abzubilden. Dazu haben wir angenommen, dass der Zuwachs an neuen Betrachtern des Videos proportional ist zur Zahl der existierenden. So etwas wird durch eine „Exponentialfunktion“ beschrieben, weil man den Zuwachs als 10 hoch n schreiben könnte, wobei n, die Anzahl der Tage, als „Exponent“ bezeichnet wird.

Dieses simple Computermodell zeigt uns etwas Interessantes:

Es gibt da Annahmen, die das Endresultat extrem beeinflussen: Wir gehen davon aus, dass unsere Freunde und Freundesfreunde täglich teilen. Würden sie aber nur am Wochenende teilen, dann hätten wir nach 10 Tagen nur gut hundert Bescherte, nicht elf Milliarden! Das ist ein Unterschied.

Wir haben behauptet, dass jeder 10-mal teilt. Bei 5 „Shares“, so wie es uns WhatsApp maximal zugesteht, wären wir bei rund 10 Millionen gelandet. Auch noch eine große Zahl, aber immerhin nur ein Tausendstel der vorherigen.

Die Zeitspanne – täglich oder nur am Sonntag – und die Zahl der Shares sind die „Parameter“ unseres Modells, und wenn wir die nicht ganz genau kennen, dann wird das Resultat nicht nur falsch, es kann grotesk unsinnig werden.

 

Die innere Logik

Aber nicht nur die Parameter des Modells müssen stimmen, auch die innere Logik des Vorgangs muss durch die Mathematik richtig abgebildet sein. Wir müssen bedenken, dass über kurz oder lang die einen oder anderen antworten: „Ja, super Clip, kannt´ ich aber schon.“ Die dürfen wir dann nicht mehr zählen.

In unserem Modell hatten wir das nicht berücksichtigt. Es waren also die Parameter unsicher und die Logik falsch. Als Folge davon war das Resultat unbrauchbar.

Sie sagen, das sei trivial? Dann sagen Sie das bitte auch Herrn Neil Ferguson, Professor am Imperial College London, und seinen deutschen Kollegen, die mit ihren fürchterlichen mathematischen Modellen in Sachen Corona berühmt und berüchtigt wurden. Vermutlich lagen auch deren Annahmen zur intrinsischen Logik der Epidemie daneben, oder die Parameter waren ungenau, oder beides. Vielleicht haben auch sie „täglich“ angenommen, wenn „wöchentlich“ richtig gewesen wäre. Und heraus kam ein abstruses Ergebnis.

Globales Energie Budget mit den wichtigsten Einflussgrößen und Abhängkeiten, Grafik Willy Soon

Eine Maschine voller Schräubchen

Keine Sorge, wir werden jetzt nicht das einzig richtige Computermodell zur Ausbreitung einer Pandemie entwickeln, wir wollten nur aufzeigen, wie leicht so ein Modell uns total in die Irre führen kann.

Noch komplizierter ist vermutlich der Mechanismus unseres Klimas. Da gibt es neben CO2 so viele andere Einflussfaktoren, welche alle in unserem Modell auftauchen müssen und deren relativer Einfluss durch die jeweiligen „Parameter“ abgebildet wird. Da sind das stratosphärische Ozon, der Wasserdampf durch CH4, der Albedo-Effekt durch Wolken, die langlebigen Kondensstreifen und noch einige andere Kandidaten, die alle in die Energiebilanz des Planeten eingreifen (hier nachzulesen https://think-again.org/product/grun-und-dumm/).

Ein mathematisches Modell dafür wird eine recht komplizierte Maschine, an der viele Schrauben sind – die Parameter –, an denen wir so lange drehen, bis die Maschine das tut, was wir möchten.

 

Wunschdenken

Hört sich alles logisch an, wir werden aber sehen, dass das Drehen an den Schräubchen, welche die Wirklichkeit abbilden, vertrackt ist. Drehen wir die eine vor, dann muss die andere zurückgedreht werden, etc. Und je mehr Schräubchen an der Maschine, desto willkürlicher kann man sie einstellen, um ein gewünschtes Ergebnis zu bekommen.

In der Wissenschaft unterscheidet man experimentelle und theoretische Physik. Erstere beschäftigt sich damit, im Labor gemessene Daten den Gleichungen gegenüberzustellen, die von Theoretikern ersonnenen wurden. Mathematische Modelle sind hier das alltägliche Werkzeug. Man malt eine Kurve mit den Messwerten und vergleicht sie mit der Kurve der theoretischen Berechnungen. Dann „schraubt“ man an den Parametern, bis die beiden Kurven möglichst gleich sind.

 

Ein Elefant mit vier Schrauben

Enrico Fermi, der vermutlich größte Experimentalphysiker aller Zeiten, erklärte seinen Studenten, dass Modelle nur ganz wenige Stellschrauben haben dürfen. Er verbildlichte das mit den Worten: „Gib mir ein Modell mit drei Schrauben, und ich zeichne dir eine Kurve, die aussieht wie ein Elefant; und mit vier Schrauben wedelt der mit dem Schwanz.“

Willkommen in der Welt der Klimaforscher, die mit mega-komplexen Modellen und riesigen Computern so lange an den Schräubchen drehen, bis das rauskommt, was Politik und Geldgeber wünschen. Da wedelt der Elefant dann nicht nur mit dem Schwanz, sondern der Schwanz mit dem Elefanten, falls das gewünscht wird.

Das ganze Modellieren funktioniert also nur, wenn der Wissenschaftler unvoreingenommen ist, denn Wissenschaft ist eine Funktion der absichtslosen Wahrheit. Diese Neutralität aber ist dank der Einmischung von Politik in die Wissenschaft verloren gegangen; Corona und Klima sind nur die zwei auffallendsten Beispiele dafür.

 

Computermodell der Macht

Und nun zu einem Phänomen, zu dem wir mehr als genug Erfahrung haben, um ein zuverlässiges Computermodell zu bauen: Es ist das Phänomen der Macht. Hier sind Parameter und intrinsische Logik gut bekannt, und die Dynamik wird präzise durch die eingangs erwähnte Exponentialfunktion beschrieben.

Die Geschichte zeigt, dass je mächtiger eine Person ist, desto größer wird ihr Verlangen nach noch mehr Macht. Und da Macht nicht vergeben wird, sondern genommen, so hat der Mächtige eine sehr gute Position: Er kann sich ja nehmen, was er will.

Betrachten Sie herausragende historische Figuren und Sie werden sehen, wie sich deren Macht alle drei oder fünf Jahre „verdoppelt“ hat. Dieses grenzenlose Wachstum konnte dann nur durch eine Katastrophe gestoppt werden – wie etwa Waterloo.

Deshalb muss das exponentielle Wachstum der Macht, wenn schon unvermeidlich, so doch zeitlich begrenzt werden; etwa auf zwei Amtsperioden. Diese Randbedingung, ein wesentlicher Bestandteil der Verfassung der USA, hat dafür gesorgt, dass es dort seit 1776 nie zu einem „Meltdown“ der Demokratie kam. Niemals konnte ein machtbesessener Präsident so willkürlich in das Schicksal von Millionen eingreifen, wie das im Europa der vergangenen 250 Jahre die Regel war.

 

Ein Gedankenexperiment

Aber nicht nur in der Geschichte, auch in der Gegenwart gibt es Fälle von grenzenloser Macht. Erdogan, Putin, Zuckerberg sind Namen, die uns da sofort einfallen; ja, und in Deutschland regiert die „mächtigsten Frau der Welt“. In 15 Jahren hat ihre Macht exponentiell zugenommen und im Februar 2020, mit dem Absetzen des gewählten Thüringer Ministerpräsidenten, eine Höchstmarke erreicht.

Lassen Sie uns, in einem Gedankenexperiment – Gedanken sind bekanntlich frei – ein mathematisches Modell für die politische Zukunft Deutschlands entwerfen. Die Exponentialfunktion lässt ja ein noch stärkeres Anwachsen von Merkels Macht für die nächsten Jahre erwarten. Was wird geschehen?

Sie wird keine Welle der Beliebtheit verstreichen lassen, ohne daraus Kapital zu schlagen. Ihr aktuelles „Corona High“ wird sie nutzen, indem sie vor Ende 2020 Neuwahlen organisiert – mit ihr selbst als einziger Kandidatin. Eine schwarz/rot/rote oder schwarz/rot/grüne Koalition bringt es dann auf eine 2/3-Mehrheit.

 

Eine neue Fahne

Es wird neue Ministerien geben, reichlich besetzt mit Expertinnen sozialistischer Prägung: Eines für Faktensicherung, ein anderes für Demokratie, mit angehängten „NGOs“. Regierungskritischen Zeitungen und Blogs wird das Leben durch bürokratische Schikanen unmöglich gemacht. Der Bundestag bleibt zwar noch bestehen, zur Arbeitsplatzbeschaffung für hilfreiche Persönlichkeiten, hat aber keine Funktion mehr.

Ohne parlamentarische Opposition, ohne kritische Medien kann endlich praktiziert werden, was lange angestrebt war: Es wird durchregiert. Die Verfassung wird nur respektiert, falls sie der großen Transformation nicht im Wege steht, ansonsten wird sie angepasst. Die Demokratie in Deutschland hat damit den „Tipping Point“ überwunden und es geht vorwärts – und abwärts – in die sozialistische Vergangenheit. Die neuen strategischen Partner werden Türkei, Iran und Russland sein; Polen, England und USA bleiben Feindstaaten. Und die verhasste schwarz-rot-goldene Fahne wird endlich ersetzt durch ein Banner mit sozialistisch-ökologischen Symbolen.

Soweit also ein mathematisches Gedankenexperiment in Sachen Exponentialfunktion. Es hat keinen Bezug zur Realität, denn Frau Merkel hat ihr Ausscheiden aus der Politik bereits angekündigt, und nur ein Schelm würde an ihren Worten zweifeln.

 

Dieser Artikel erschien zuerst bei www.think-again.org und im Buch „Grün und Dumm“ https://think-again.org/product/grun-und-dumm/

 




Kann Wasserstoff das Energieproblem lösen?

Wie ist der Einsatz des Wasserstoffs anstelle bisheriger fossiler Energiequellen zu bewerten? Sind die wissenschaftlichen, technischen und strukturellen Voraussetzungen dafür gegeben? Wie steht es um die ökonomischen Gegebenheiten? Die Meinungen dazu gehen weit auseinander.

 

Politische Pläne

Auf Einladung der Bundesminister für Wirtschaft, Verkehr und Entwicklung wurde auf einem Kongress Ende 2019 die zukünftige Rolle von Wasserstoff in der Energiewende und für den Klimaschutz auf breiter Basis diskutiert [0]. Bundeswirtschaftsminister, Peter Altmaier, sieht „in den gasförmigen Energieträgern, vor allem in Wasserstoff einen Schlüsselrohstoff für eine langfristig erfolgreiche Energiewende“.

Die Bundesrepublik Deutschland, Nordrhein-Westfalen und die Niederlande haben am 29.1.2020 eine Machbarkeitsstudie über die Schaffung einer transnationalen Wertschöpfungskette für „grünen“ Wasserstoff von der Nordsee bis hin zu industriellen Clustern im Grenzgebiet der Niederlande und Nordrhein-Westfalen in Auftrag gegeben[1]. „Grüner“ Wasserstoff ist Wasserstoff, der mittels regenerativer Energie gewonnen wurde.

„Ziel des Projekts ist es, die Durchführbarkeit von transnationalen Business Cases mit grünem Wasserstoff im Gebiet der Niederlande und Nordrhein-Westfalen zu untersuchen. Dabei liegt der Schwerpunkt auf der Erschließung des Potenzials für eine Verringerung der Treibhausgasemissionen und der Steigerung des Einsatzes erneuerbarer Energien im Industriesektor durch die Produktion, den Transport und den industriellen Einsatz von grünem Wasserstoff.“ Aus Sicht der Bundesregierung sei „nur CO2-freier, also grüner Wasserstoff auf Dauer nachhaltig“.

Überdies will Bundeswirtschaftsminister Peter Altmaier die „Wasserstoff-Technik für den Einsatz in vielen Sektoren fördern und dafür 1,4 Milliarden Euro für Forschung und Entwicklung bis 2026 im Rahmen des Nationalen Innovationsprogrammes Wasserstoff- und Brennstoffzellentechnologie (NIP) vergeben.“

Angaben zum Wasserstoff (H)

Wasserstoff ist auf der Erde hauptsächlich in Form chemischer Verbindungen (Wasser, Säuren, Kohlenwasserstoffen und anderen organischen Verbindungen) in nahezu unbegrenzten Mengen vorhanden. In Reinform tritt Wasserstoff auf der Erde nur in molekularer Form als H2 auf. Das farb- und geruchslose Gas hat ein spezifisches Gewicht von 0,0899 g/l. Wasserstoff ist nicht toxisch und verursacht bei Verbrennung keine Umweltschäden, ist insofern umweltneutral. Seine Energiedichte ist vergleichsweise gering: Wasserstoff hat bei 26 0C und 1 bar einen Energiegehalt von 3 kWh/m3, im Vergleich dazu Benzin 9,2 x 103 kWh/m3.

Die Wasserstoff-Herstellung ist zwar aufwendig, somit kostenintensiv aber technisch gut erprobt. Die am weitesten entwickelten Verfahren sind das Reformierungsverfahren [2] und die Wasser-Elektrolyse. Zu beachten: Zur Herstellung von einem Kilogramm Wasserstoff durch Elektrolyse werden 9 kg Wasser sowie (einschließlich Verflüssigung, Transport, Lagerung und Verteilung) etwa 100 kWh Strom benötigt [7].

Eine wesentliche Eigenschaft des Wasserstoffs ist aufgrund seiner geringen atomaren Größe seine Diffusion durch Festkörper, mit anderen Worten, Wasserstoff lässt sich nur unter ständigem Verlust einsperren. Der physikalische Vorgang der Diffusion wird in [6] erläutert.

Wasserstoff hat ohne Frage bereits einen breiten Anwendungsbereich. Er dient als bedeutender Ausgangsstoff zur Herstellung von Ammoniak (Haber-Bosch-Verfahren), von Salzsäure, Methanol, Anilin, um nur einige Beispiele zu nennen. Wasserstoff wird als Schweißgas eingesetzt und in der Metallurgie benötigt man ihn als Reduktionsmittel zur Gewinnung von Metallen. Infolge seiner hohen Wärmekapazität wird er auch als Kühlmittel verwendet.

Wasserstoff ist in begrenztem Maße bei Antriebsmotoren und bei Brennstoffzellen im Einsatz. Beide Anwendungsgebiete befinden sich mehr oder weniger noch in der Erprobungsphase.

Was sagen die Wasserstoff-Befürworter?

Eine faszinierende Idee: Beim Einsatz von Wasserstoff zum Beispiel in Antriebsmotoren entsteht aus Wasserstoff und Luft ohne Ausstoß von Treibhausgasen nur sauberer Wasserdampf. Eine brillante ökologische Bilanz.

Der Bundesrat [3] sieht in einem „umfassenden Aufbau einer Wasserstoff-Wirtschaft auf der Basis erneuerbarer Energien den grünen Wasserstoff als Wegbereiter für die Umsetzung der Klimaziele. Aus erneuerbaren Energien erzeugter Wasserstoff bietet die Möglichkeit, die Defossilierung (Anm.: Vermeidung von Kohle, Öl, Erdgas) umzusetzen, die einer direkten Elektrifizierung aus technischen oder ökonomischen Gründen nur schwer zugänglich sind. „Grüner“ Wasserstoff kann dafür direkt oder weiterverarbeitet in Form von synthetischem Gas (zum Beispiel Methan) oder synthetischem flüssigen Kraftstoff (zum Beispiel Methanol) genutzt werden. Als Bindeglied zwischen Strom- und Gassektor bietet „grüner“ Wasserstoff zudem die Möglichkeit, künftig zwei Wege zum Transport von erneuerbaren Energien zu nutzen. Auf diese Weise kann das erhebliche volkswirtschaftliche Kapital der Gastransport- und Gasspeicherinfrastruktur effizient in den Wandel der Energieerzeugung eingebunden werden.“

Auf Anfrage erläuterte die Bundesregierung: „Die Auswertung bisheriger Förderprojekte zum Wasserstoff-Verbrennungsmotor zeigt, dass dieser mit den konventionellen Antrieben konkurrenzfähig sein kann. Hinsichtlich der Energieeffizienz und einer potenziellen Effizienzsteigerung zeigte der Wasserstoff-Verbrennungsmotor im Vergleich zur Brennstoffzellen- Technologie schlechtere Eigenschaften. Deshalb liegt der Fokus des Bundesministeriums für Verkehr und digitale Infrastruktur (BMVI) bei der Förderung im Nationalen Innovationsprogramm Wasserstoff- und Brennstoffzellentechnologie (NIP) auf Brennstoffzellenanwendungen mit dem Ziel, hier Kostenreduktionen und Leistungsverbesserungen zu erzielen“ [4].

In einer ausführlichen Studie informiert Shell in Zusammenarbeit mit dem Wuppertaler Institut über den Stand der Wasserstoff-Gewinnung und über Anwendungstechnologien sowie über das Potenzial und Perspektiven des Wasserstoffs als Energieträger [5]. Neben stofflichen und nicht-automobilen Anwendungen stehen der Einsatz von Wasserstoff im Straßenverkehr und hier speziell in Brennstoffzellen im Fokus. Ein klares Bekenntnis zum Wasserstoff im Sinne der Lösung des Energieproblems wird vermieden, vielmehr wird gesagt, dass „Wasserstoff als Energieträger und Brennstoffzelle als Energiewandler einen wichtigen Beitrag zur Energiewende und damit zur Erreichung des globalen 2 0C-Klimaziel leisten können.“ Trotz „signifikanter“ Fortschritte in der Anwendungstechnologie seien für einen „breiten kommerziellen Einsatz im globalen Energiesystem“ allerdings weitere Förderung seitens des Staates notwendig.

Kostenberechnungen der Wasserstofferzeugung werden nicht angestellt. Hierzu wird auf spezielle Publikationen verwiesen (Abb. 1). In der Abbildung wird zwischen zentraler und dezentraler Erzeugung und drei Erzeugungsarten unterschieden.  Die geringeren Kosten der

Abb. 1: Erzeugungskosten von Wasserstoff [5]

Wasserstoff-Erzeugung fallen bei der zentralen Erdgasreformierung an (Mittelwert hier 1,4 €/kg). Deutlich höher liegen mit 6 bis 8 €/kg die Kosten bei elektrolytischer Erzeugung.

Was sagen die Wasserstoff-Skeptiker?

Die relativ günstige Gewinnung von Wasserstoff aus Erdgas (siehe obige Abbildung) ist kein nachhaltiger Weg, denn nach Versiegen der Erdgasquellen wird Wasserstoff nur noch durch die kostenintensive elektrolytische Spaltung von Wasser zu erzeugen sein. Dafür wird Gleichstrom benötigt und zwar weitaus mehr, als selbst mit fortschrittlichster Technik jemals aus dem erzeugten Brenngas zurückgewonnen werden kann. Bei der Elektrolyse wird elektrische Energie in chemische Energie umgewandelt. Wasserstoff ist also keine Energiequelle, sondern lediglich ein Sekundärenergieträger, vergleichbar mit dem Wasser in einer Zentralheizung [7].

Jede Stufe der Energiekette, von der Erzeugung des Wasserstoffs bis zu seiner Nutzung, ist mit Energieverlusten und Energieaufwand verbunden, argumentiert Bossel [7], der den Wasserstoff-Einsatz in seiner Substitutionsfunktion sehr kritisch unter die Lupe nimmt.  Bei Wasserstoff seien die Energieverluste jedoch so groß, dass dem Wasserstoffverbraucher hinter einer effizienten Brennstoffzelle nur noch ein Viertel der elektrischen Primärenergie zur Verfügung steht. Nur ein Viertel des erneuerbaren Stroms wird genutzt, während drei Viertel ungenutzt verloren gehen. Diese Verluste sind physikalisch bedingt und können auch durch zusätzliche Forschungen nicht wesentlich verringert werden (vergleiche Abb. 2).

Abb. 2: Die Wirkungsgradverluste bei der Wasserstoffwirtschaft (Bossel et.al., 2003) [7]

Zum Vergleich: Zwischen Ölquelle und Tankstelle werden 8 bis 12 % der flüssigen Energie für Förderung, Raffinierung und Transport benötigt. Allein die Kompression des Wasserstoffs auf 200 bar verschlingt etwa 9 % des Energieinhaltes.

Da lediglich 50 % des für die Elektrolyse benötigten Strom beim Verbraucher als nutzbarer Wasserstoff ankommt, dürfte die im Wasserstoffgas enthaltene Energie mindestens doppelt so teuer sein wie der Strom aus der Steckdose.

Im gegenwärtigen Wettbewerb mit Erdgas und Benzin kann Wasserstoff nicht mithalten. Bei 200 bar beträgt der Energieinhalt in einem Liter Wasserstoff 0,722 kWh, in gleicher Menge Erdgas 2,22 kWh und einem Liter Benzin 9,39 kWh.

„Die Tankreichweite in einem Brennstoffzellen-Auto spricht gegen Wasserstoff als Energieträger“, schreibt Peters [8]. So könne beispielsweise der Wasserstoff-Toyot Mirai mit einem Tankvolumen von riesigen 240 Litern bei 700 bar gerade mal 5 kg Wasserstoff speichern. Dieser Energiegehalt entspricht etwa 20 Liter Dieselkraftstoff, was für etwa 300 km Reichweite ausreicht.

„Grüner“ Wasserstoff soll, so ist zu hören, mit „überschüssigem“ Strom aus Solar- und Windenergieanlagen erzeugt werden. Da es ein Zuviel an Wind- und Solarstrom nur an wenigen Stunden verteilt über das Jahr gibt, müssten die Elektrolyseanlagen für den Betrieb an diesen wenigen Stunden ausgelegt sein. Mit Sicherheit wäre deren Betrieb nicht wirtschaftlich. Oder, und das wäre geradezu grotesk, müssten, um einen wirtschaftlichen Betrieb zu ermöglichen, eigens dafür Ökoanlagen bereitgestellt werden, wobei deren preiswerter Strom für die Erzeugung teuren Wasserstoffs verwendet wird.

Sicherheit

Eine charakteristische Eigenschaft des Wasserstoffs ist seine hervorragende Brennbarkeit und zusammen mit Sauerstoff die Bildung des explosiven Knallgases. Die maximale Flammengeschwindigkeit von Wasserstoff ist zirka acht Mal größer als die der kohlenwasserstoff-basierten Gase. Dies erklärt die Tendenz zu hohen Brenngeschwindigkeiten und auch die möglichen Umschläge in Detonationen. Aufgrund dieser Eigenschaften erfordert der Umgang mit Wasserstoff größte Sorgfalt.

Fazit

Die künftige Bedeutung des Wasserstoffs im Zuge der Energiewende wird von Bossel [7] nachvollziehbar beschrieben.„Der Übergang von der heutigen, vom Erdöl dominierten Energiewirtschaft zu einer nachhaltigen, von regenerativ erzeugtem Strom geprägten, basiert also nicht auf einer einfachen Substitution fossiler Energieträger durch synthetischen Wasserstoff. Komplexe Veränderungen müssen in allen Bereichen der Energietechnik bedacht werden: Erzeugung, Verteilung, Speicherung und Nutzung sind in jedem Fall zu berücksichtigen. Die Energiewirtschaft wird quasi auf den Kopf gestellt. Während chemische Energieträger heute die Ausgangsbasis bilden, wird es in Zukunft Strom aus erneuerbaren Quellen sein. Heute ist Elektrizität die sekundäre Energieform, morgen ist es der künstliche erzeugte Energieträger Wasserstoff. Während heute Erdgas und Erdöl preisbestimmend sind, wird es in Zukunft Strom aus regenerativen Quellen sein. Strom wird zur Leitwährung im Energiemarkt. Der aus Strom gewonnene Wasserstoff wird deshalb immer teurer sein als die regenerativ erzeugte Elektrizität. Daran lässt sich nicht rütteln, weder mit politischen Entscheidungen noch mit aufwändigen Entwicklungsprogrammen.“

Die Nachvollziehbarkeit dieses Weges gilt unter der Voraussetzung eines dauerhaften Verzichts auf die Nutzung der Kernenergie. Der zurzeit in der Entwicklung befindliche „Small Modular Reactor“ (SMR) stößt weltweit auf großes Interesse. Dieser Reaktortyp von vergleichsweise kleiner Leistung und mit inhärenter Sicherheitstechnik könnte als Strom- und Wärmelieferant vollkommen neue Anwendungsgebiete aufzeigen, dem sich auch Deutschland zur Sicherung seiner wirtschaftlichen und industriellen Leistungsfähigkeit auf Dauer nicht entziehen kann.

Abschließend nur ein dem Artikel von Bossel [7] entnommenes Beispiel dafür, was uns erwartet, wenn Wasserstoff durch Elektrolyse erzeugt wird:

„Am Frankfurter Flughafen werden täglich 50 Jumbo-Jets mit je 130 Tonnen (160 m3) Flugbenzin befüllt. Die gleiche Energiemenge steckt in 50 Tonnen (715 m3) flüssigem Wasserstoff. Zur Betankung aller Jumbos mit Wasserstoff müssten täglich 2.500 Tonnen Flüssigwasserstoff bereitgestellt werden, für dessen Herstellung man 22.500 m3 sauberes Wasser und die elektrische Leistung von acht Kraftwerken von je 1 GW benötigt (zum Vergleich: Das AKW Biblis hat eine Leistung von 1,3 GW). Für die Versorgung aller Flugzeuge des Flughafens mit Wasserstoff müsste man den Wasserverbrauch der Stadt Frankfurt und die Energie von mindestens 25 Großkraftwerken einsetzen.“

 

[0] https://www.bmwi.de/Redaktion/DE/Downloads/J-L/kurzpapier-wasserstoff.pdf?__blob=publicationFile&v=4

 

[1] https://www.bmwi.de/Redaktion/DE/Pressemitteilungen/2020/20200129-auftakt-des-hy3-projekts.html

 

[2] https://de.wikipedia.org/wiki/Wasserstoffherstellung#Dampfreformierung

 

[3] Bundesrat Drucksache 450/19 (Beschluss), 08.11.2019

 

[4] Deutscher Bundestag Drucksache 19/12582, 22.08.2019

 

[5] shell-wasserstoff-studie-2017, „Energie der Zukunft?“, Nachhaltige Mobilität durch Brennstoffzelle und H2

 

[6] https://mediatum.ub.tum.de/doc/958296/958296.pdf

 

[7] http://leibniz-institut.de/archiv/bossel_16_12_10.pdf

 

[8] https://peterscoll.de/?page_id=54, Björn Peters, Die Energiefrage #68, 15.11.2019

 

 

26.2.2020

 

 

 

 




Kombi-Panikmache mit Klima und Seuchen: Milzbrand im Permafrostboden?

Angeblich ist der aktuelle Mai der „wärmste seit Beginn der Aufzeichnungen“, also wie immer. Eigentlich bibbern wir ja jetzt noch, obwohl es schon Juno ist. Aber keine Sorge, die Klimakatastrophe findet halt woanders statt: In Sibirien ist es ein bißchen wärmer als sonst um die Zeit, weswegen der Frostboden dort etwas früher taut.

Die Medien nutzen den Fakt, um wieder etwas von der Klima-Apokalypse zu fantasieren; und da das mit der Viruspanikmache gerade so schön geklappt hat, wird zusätzlich noch auf Milzbrandbakterien im Boden hingewiesen, die den Frost zum Teil überstehen und nun angeblich auf uns alle lauern.

Bacillus anthracis im Boden (nach dem 11.9.2001 gab es Anschläge mit Anthrax – das sind die Biester als Biowaffe) ist nichts Ungewöhnliches; schon der große Mikrobiologe Louis Pasteur hat im 19. Jahrhundert damit zu kämpfen gehabt. Schafe und andere Nutztiere, die auf einer Weide grasten, auf der zuvor andere Tiere von der Seuche hingerafft wurden, wurden wieder krank und starben.

Seit damals ist aber viel Wasser die Saale herunter geflossen und der Milzbrand im Griff. Eigentlich nicht schlimm genug für zu verunsichernde deutschsprachige Leser. Daher packen die JournAktivisten zusätzlich noch die Spanische Grippe aus dem Ersten Weltkrieg aus, die angeblich im Nicht-mehr-Ewigen Eis lauere.

Wie das? fragt der mitdenkende EIKE-Leser. Ganz einfach: Opfer der Kentucky-Grippe (das Virus kam eigentlich aus den USA, nicht aus Spanien) wurden auch in kalten Gegenden begraben und dort à la Eiszeit-Mammut konserviert. Und könnte da nicht ein Weltkriegsvirus nun….?

Zum Glück sagt im Artikel, der in etlichen Medien wie der Wiener Zeitung verbreitet wird, ein Forscher, daß solch alte Viren auch im Eis schnell ihre Gefährlichkeit verlieren. Aber irgend etwas bleibt hängen, so funktioniert das Framing nun mal. Schauen Sie nur, wie oft der Artikel kopiert wurde.

 

 




Angst: Das beste Mittel für alle Herrschenden

Indem sie sich selbst praktisch unangreifbar machen, zumindest ursprünglich, haben Politiker die Pandemie begrüßt, ebenso wie die damit einher gehenden Ängste der Öffentlichkeit bzgl. deren Gesundheit. Im Namen der Erhaltung derselben haben sie sich selbst nahezu diktatorische Vollmachten erteilt. Unverhüllt und ungehindert haben die Maßnahmen einiger Politiker den anschaulichen Terminus geprägt [übersetzt] „die herrschende Klasse“. Im Kultfilm aus dem Jahr 1992 gleichen Titels wurde der Standpunkt des gestörten Lebensstils eines fiktiven britischen Adligen dargestellt, dessen Absichten ziemlich nobel und durchzogen mit einem Sinn für gottgleiche Macht durchzogen waren – nicht unähnlich einigen unserer heutigen Gouverneure und Bürgermeister.

Eine weniger phantastische und mehr auf Philosophie beruhende Beobachtung beschrieb H.L. Menken in den 1930er Jahren: „Das gesamte Ziel praktischer Politik besteht darin, die Bevölkerung in Alarmstimmung zu halten (und sie auf diese Weise empfänglich dafür zu machen, in Sicherheit gebracht zu werden), indem sie mit einer endlosen Reihe von Kobolden geängstigt werden – die allesamt imaginär sind“. Keine Frage, dass das Coronavirus sehr real und keineswegs imaginär ist, aber Menken stellt scharfsinnig den grundlegenden Drang in den Politiker fest, Angst als Werkzeug der Kontrolle des Volkes zu beschwören.

In seiner ersten Antrittsrede als Präsident sagte Roosevelt am 4. März 1933: „Das Einzige was wir fürchten müssen, ist die Furcht selbst“.

Das aus neuerer Zeit, nämlich aus dem Jahr 2010 stammende Buch von A. Codevilla träg ebenfalls den Titel [übersetzt] „Die Herrschende Klasse“. Darin wird der überdimensionale Einfluss einer Clique von Intellektuellen auf die amerikanische Gesellschaft beschrieben, deren Mitglieder breit verteilt in den Führungsetagen der Industrie, den Medien, politischer Parteien und von Bildungseinrichtungen zu finden sind. Verfassungsmäßige Rechte werden verunglimpft, ebenso wie die traditionelle Rolle der Religion im Alltagsleben der Amerikaner. Diese Herrschaften wissen, dass sie es besser wissen als Sie und ich.

Mit einer Mischung aus Enthusiasmus für Umweltschutz und verschwommenem Denken hatten Aktivisten keine Mühen gescheut, um die imaginären Auswirkungen des Klimawandels mit den imaginären Auswirkungen der Coronavirus-Pandemie in Verbindung zu bringen. Von der herrschenden Klasse verordnete wirtschaftliche Härten und soziale Einschnitte sollen gut für den Planeten sein, wie sie sagen, und dass der notwendige Preis, den Planeten zu retten, kulturelle und wissenschaftliche Einschränkungen sind.

Ein Autor, dessen fiktionales Narrativ sehr weitsichtig zu sein scheint in diesem gegenwärtigen Gemenge ist Michael Crichton. Sein Film aus dem Jahre 2004 mit dem Titel „State of Fear“ ist ein fiktiver Thriller, dessen umweltlicher und philosophischer Hintergrund von ihm gut dokumentiert wird und dessen Richtigkeit den Test mit der heutigen Zeit weitgehend bestanden hat. Al Gores unermüdliche Prophezeiungen globaler Umweltkatastrophen als Folge vom Menschen verursachten Kohlendioxids haben sich während der letzten Jahrzehnte nicht materialisiert.

In einer Art Sokrates’scher Manier entwickelt Crichton das Konzept der Angst als ein Werkzeug zur Kontrolle der Öffentlichkeit. Einen seiner Charaktere lässt er sagen: „Ich bin führend auf dem Weg zur sozialen Kontrolle … zur Forderung jedes souveränen Staates, Kontrolle über das Verhalten seiner Bürger auszuüben, sie ruhig und in angemessener Weise gefügig zu halten … sie zum Zahlen ihrer Steuern anzuhalten … und – natürlich wissen wir, dass soziale Kontrolle am Besten mittels Angst ausgeübt werden kann“.

Er fährt fort:

„… in Wirklichkeit standen wir während der letzten 15 Jahre unter der Kontrolle eines völlig neuen Komplexes – weitaus mächtiger und allgegenwärtiger als alles bisher. Ich nenne es den Political-Legal-Media-Komplex PLM. Und dieser Komplex ist dazu ausersehen, Angst in der Bevölkerung zu verbreiten – unter dem Deckmantel der Förderung der Sicherheit“.

Er identifiziert die Rolle von Experten und Universitäten in der Verankerung von Angst als politisches Werkzeug:

„Weil diese eine neue Rolle spielen mussten. Sie wurden zu den Erzeugern neuer Ängste für den PLM. Universitäten sind heutzutage Fabriken der Angst. Sie erfinden all die neuen Schrecken und neuen sozialen Ängste … sie erzeugen einen stetigen Fluss neuer Ängste, Gefahren und sozialem Terror, was von Politikern, Rechtsanwälten und Reportern angewendet wird“.

Die Ängste vor dem Klimawandel passen perfekt zu diesem Narrativ, trotz des fortgesetzten Scheiterns der Computer-Modellierung des globalen Klimas, um zukünftige Änderungen genau zu prognostizieren.

Mit dem Auftauchen der Coronavirus-Pandemie öffnete sich die Büchse der Pandora, und weltweit brach Chaos aus, da die Angst vor dem Unbekannten anfänglich sowohl soziale als auch wissenschaftliche Reaktionen beherrschte. Führer verabscheuen es, einer verängstigten Öffentlichkeit zu verkünden, dass sie nicht wissen, wie man einem neuen Krankheitserreger begegnen soll. Eine angemessene Reaktion würde eine Lernkurve erfordern, um die klinischen Auswirkungen auf die Öffentlichkeit vollständig zu verstehen, aber niemand will das unglückliche Versuchskaninchen sein, das auf das zufällige Todesurteil der Natur wartet.

Experten für Epidemiologie und Infektionskrankheiten wurden um Ratschläge angegangen, und diese wiederum wandten sich Computermodellen zu, um Antworten geben zu können. Jahre der gescheiterten Klimawandel-Prophezeiungen auf Computerbasis sind kein Grund, die Fähigkeit der Modellierung des Virus‘ zu bezweifeln hinsichtlich dessen weltweiter Auswirkungen. Bis Mitte März hatte der Computer gesprochen, und der britische Wissenschaftler Neil Ferguson berichtete, dass viele Millionen Menschen sterben würden. „Abflachen der Kurve“ [flattening the curve] fand Eingang in die Lexika der Medien, und nur Wenige bemerkten, dass die Fläche unter der abgeflachten Kurve wahrscheinlich genauso groß war wie unter der initialen Spitzenkurve. Das ist nichts Geringes, denn falls das wirklich so ist, würde die Anzahl der Todesfälle die Gleiche bleiben; sie würde sich lediglich über ein längeres Zeitintervall erstrecken. Folgerichtig erwiesen sich die aus Computerrechnungen abgeleiteten Prophezeiungen von Millionen Toten als erheblich übertrieben.

Virologen und Epidemiologen leben in einer anderen mentalen Welt als Ökonomen, Soziologen und Physiker, und ihre verordneten Arzneien mögen das Virus bis zu einem bestimmten Ausmaß töten, aber auch der Patient könnte durch die Medikation getötet werden.

Letzteres hat sich schmerzhaft während der letzten paar Monate abgespielt, ist doch der Kollateralschaden für eine ganzheitliche, voneinander abhängige und komplexe moderne Gesellschaft gewaltig, resultierend aus der epidemiologischen Medikation mittels Isolation, aufgedrückt von der herrschenden Klasse, nur zu offensichtlich geworden.

„Bleibt zu Hause“ und Vermeidung sozialer Kontakte sind ein grob vereinfachender Rückgriff, um eine Epidemie im 21. Jahrhundert zu stoppen. Es mag vielleicht die einzige Antwort in Gestalt ummauerter Städte im Mittelalter gewesen sein; es könnte funktionieren, falls es gelingt, die erste infizierte Person zu isolieren und sie/ihn daran zu hindern, den Erreger weiterzugeben. Allerdings ist es bei der gegenwärtigen Pandemie so, dass der Geist (die Medikation) schon lange aus der Flasche entwichen war, bevor es als eine neue pathologische Möglichkeit erkannt worden ist. Dieses Virus kann seine klinische Gestalt ändern, was ein genaues und zeitliches Verfolgen desselben schwierig macht. Die Pandemie kann angefangen haben, sich abzuschwächen – oder auch nicht. Das wird nur die Zeit zeigen. Allerdings ist es ganz und gar nicht schwierig, die globale Zerstörung menschlichen Lebens zu sehen bis hin zu einem ökonomischen Beinahe-Kollaps.

Was ebenfalls erkennbar war, war der latente Enthusiasmus, mit welchem die politische/herrschende Klasse die moralische Überlegenheit für sich in Anspruch genommen hat, als sie ein Edikt nach dem anderen im Namen des Nutzens für die Öffentlichkeit erlassen hatte. „Bleibt-zu-Hause“-Vorschriften dauern Wochen bis Monate, ohne eine solide wissenschaftliche Rechtfertigung für eine spezielle Zeitspanne, aber mit einem politischen/legalen Imperativ. Das Tragen von Masken in der allgemeinen Öffentlichkeit ist zu einer schizophrenen politischen Angelegenheit geworden. Zahlreiche Studien ergaben, dass diese Masken keinen Schutz vor dem Coronavirus bieten, vor allem nicht die zu Hause selbst gefertigten Tücher. … Auch hierbei betrachten Politiker ohne jedes Zögern die Missachtung grundlegender Verfassungsrechte auf der Grundlage persönlicher Launen und der selektiven Nutzung diverser wissenschaftlicher Daten.

Angst ist eine wichtige, grundlegende menschliche Emotion des Instinktes der Selbsterhaltung. Allerdings hat die derzeitige Coronavirus-Pandemie gezeigt, dass Mitglieder der herrschenden Klasse geschickt unsere grundlegenden, verfassungsmäßigen Rechte beschneiden – im Namen uns vor uns selbst zu schützen.

This article originally appeared at American Thinker

Autor: Dr Charles Battig is a retired physician and electrical engineer. In the 1960s he served as “principal scientist in bio-medical monitoring systems” at North American Aviation Los Angeles in support of the Apollo Moon Mission. Later he served in the U.S. Public Health Service at NIH, Bethesda MD, in the biomedical engineering branch. Following teaching appointments in anesthesiology at UCLA and Mt. Sinai, NYC, he entered the private practice of anesthesiology until retirement. Dr. Battig is a policy advisor to the Heartland Institute and a member of the CO2 Coalition. He has long been a friend of CFACT. His website is http://www.climateis.com

Link: https://www.cfact.org/2020/06/07/fear-the-best-tool-of-the-ruling-class/

Übersetzt von Chris Frey EIKE




Durchgesickerte E-Mails zeigen, dass die Forderung der Absetzung von Michael Moores neuem Film einzig und allein Zensur ungeliebter Meinungen geschuldet ist

In einem jetzt gelöschten Tweet nannte der für die Abschaltung verantwortliche Urheberrechtsinhaber Toby Smith den Film eine „unbegründete, beschissene Dokumentation, die auf Bullshit basiert“.

Smith gab später zu, dass er den Urheberrechtsanspruch eingereicht hatte, weil er der Botschaft des Films nicht zustimmte.

Smith reichte die Beschwerde am 23. Mai bei YouTube ein, nachdem er entdeckt hatte, dass Planet of the Humans mehrere Sekunden Filmmaterial aus seinem Projekt Rare Earthenware verwendet hatte, was die Reise von Seltenerdmineralien aus der Inneren Mongolei beschreibt.

… Smith, der zuvor an Energie- und Umweltfragen gearbeitet hat, sagte, er wolle seine Arbeit nicht mit etwas in Verbindung bringen, mit dem er nicht einverstanden sei. „Ich bin direkt zu YouTube gegangen, anstatt mich an die Filmemacher zu wenden, weil ich nicht an Verhandlungen interessiert war. Ich unterstütze den Dokumentarfilm nicht, stimme seiner Botschaft nicht zu und mag die irreführende Verwendung von Fakten in seiner Erzählung nicht. “

Am 22. April schickte Josh Fox E – Mails an Kollegen und PR – Profis mit seiner Meinung zum Film und um die Absetzung des Films von /auf den verschiedenen Plattformen zu fordern. .

Von: Josh Fox
Datum: Mi, 22. April 2020 um 12:41 Uhr

Liebe Freunde-

Es tut mir so leid, hier der Bote sein zu müssen.

Aber.

Dieser neue Michael Moore-Film ist, um es höflich auszudrücken, A GIGANTIC CROCK OF SHIT.

Es ist ein widerlicher, unaktueller, unwissenschaftlicher Gräuel.

Sie müssen es so schnell wie möglich entfernen.

Ich meine es sehr ernst.

Es ist absolut widerlich schrecklich. Darüber hinaus ist es schrecklich gemacht, amateurhaft und unfähig. Es hat absolut keine sachliche Grundlage. Es fördert das grundloseste Denken. Es geht auch um Helden in unserer Bewegung in Gotcha-Type-Interviews ohne absoluten Grund. [Gotcha ~ jetzt hab ich dich]

Es ist eine schreckliche Berichterstattung. Cherry picking, ignorant. Es ist nicht nur unwahr, in keiner Weise sachlich, es täuscht unglaublich.

Ich kann das nicht genug betonen. Dieser Film ist so unwahr und betrügerisch wie alles, was Donald Trump jemals getan hat.

Es muss sofort von Ihren Webseiten herunter genommen werden.

Bitte rufen Sie mich so schnell wie möglich an. Das ist furchtbar ärgerlich. Es ist mir egal, zu welcher Tages- oder Nachtzeit es ist, diese abscheuliche Fehlinformation muss sofort zurückgewiesen und abgelehnt werden.

UNVERZÜGLICH.

Er klingt super ernst, nicht wahr? Hier ist eine E-Mail, nur wenig später an die PR-Profis.

Von: Josh Fox
Datum: Mi, 22. April 2020 um 1:05 Uhr

Liebe Aktivistenfreunde und Klimahelden-

Ich habe schlechte Neuigkeiten. Es gibt einen neuen von MICHAEL MOORE produzierten Film, der gerade online gegangen ist und einen Affront gegen alle unsere Arbeiten darstellt.

Der Film ist ein schlecht gemachtes, nicht-faktisches Geschmiere, der die Grundpfeiler des Umweltschutzes angreift.

Der Film greift erneuerbare Energien und Klimaführer an, die die Entwicklung erneuerbarer Energien auf sehr unfaire Weise fördern würden.

Es ist ein unwissenschaftliches, unansehnliches sensationelles Stück der Regenbogenpresse. Michael war gerade bei Stephen Colbert [Talkshow] zu sehen, der es bewarb. Ich denke, Michael Moore muss völlig den Verstand verloren haben, um so etwas zu machen.

Es heißt PLANET OF THE HUMANS und Moore hat eine schicke Website eingerichtet, um dafür zu werben.

Der Film muss entschieden missbilligt werden. Er ist gefährlich und nicht-faktisch.

Bitte schauen Sie, sehen Sie, was ich meine und setzen Sie sich so schnell wie möglich mit mir in Verbindung. Eine Reihe seriöser Websites hosten diesen Gräuel und ich brauche Ihre Unterstützung, damit sie ihn beseitigen. Siehe unten.

Thanks
Josh

LINK TO THE FILM: https://www.filmsforaction.org/watch/michael-moore-presents-planet-of-the-humans/

Der hier besprochene Artikel gibt noch mehr Details zu Debatten und Machenschaften hinter den Kulissen, bemerkt aber auch diese ziemlich müde Taktik des Erwachens.

… Films for Action wird in Fox’s online Petition auch fälschlicherweise mit “ Planet of the Humans“ in Verbindung gebracht. Fox beschuldigt den Film, „unwahr“, „unfair“ und „unwissenschaftlich“ zu sein. Hjersted sagt, er sei von der Petition enttäuscht gewesen.

Ich hatte erwartet, dass [Fox] bestimmte Beispiele mit Dokumentation anführt, um Punkt-für-Punkt darüber zu sprechen, was genau die Fehlinformationen waren, aber er tat es nicht.

Tatsächlich wurde die einzige wissenschaftliche Studie, die in Fox ‚Petition zur Untermauerung seiner Behauptungen angeboten wurde, bereits vor einigen Jahren wissenschaftlich entlarvt. Eine Peer-Review-Studie aus dem Jahr 2017, von Forschern aus U.C. Berkeley, die Carnegie Mellon University und die Stanford University stellte fest, dass die 2012 von Fox referenzierten Studien „ungültige Modellierungswerkzeuge verwendeten, Modellierungsfehler enthielten und unplausible und unzureichend unterstützte Annahmen machten“. Somit werden die Ergebnisse „nicht durch eine angemessene und realistische Analyse gestützt“.

Vorwürfe des Antisemitismus und des Ökofaschismus

“Planet of the Humans” diskutiert das Problem des ständig wachsenden Bevölkerungswachstums. Es gibt jedoch absolut keine Erwähnung oder Andeutungzu  einer Bevölkerungskontrolle im Film. Stattdessen besteht die Lösung des Films darin, den Verbrauch und nicht die Bevölkerung zu reduzieren. Trotzdem beschuldigt Fox die Filmemacher des Films, den „Ökofaschismus“ voranzutreiben.

Lesen Sie hier den vollständigen Artikel.

https://wattsupwiththat.com/2020/06/09/leaked-emails-call-for-censorship-of-michael-moores-new-film/

 

Zur Erinnerung, Josh Fox hat „https://filmsfortheearth.org/de/filme/gasland“ gedreht, ein Anti-Fracking Film,  in dem aus einem Wasserhahn brennfähiges Gas ausströmt. Das Ganze wurde später dann als Fake entlarvt.

Übersetzt durch Andreas Demmig




Woher kommt der Strom? Das Energiewende-Paradoxon

Die Analyse der 22. Woche wird ergänzt durch die Tabelle mit den Werten der Energie-Charts und dem daraus generierten Chart. Auch diese Woche wieder der Chart des Im-/Export für das aufgelaufene Jahr und die aktuelle Analysewoche. Hier die Werte der Energy-Charts: Der Anteil der Erneuerbaren Energieträger an der Stromerzeugung in Deutschland betrug in der 22. Woche 56,9 Prozent im Durchschnitt (Zu Sinn und Unsinn von Durchschnittsangaben in Sachen Strom: Hier klicken). Der Wert entspricht damit ziemlich genau dem bisherigen Jahresdurchschnitt von 56,7 Prozent.

Die Tagesanalysen

Sonntag, 24.5.2020: Anteil erneuerbare Energieträger an der Gesamtstromerzeugung 74,38 Prozent, davon Windstrom 42,98 Prozent, Sonnenstrom 16,53 Prozent, Strom Biomasse/Wasserkraft 14,88 Prozent. Die Agora-Chartmatrix: Hier klicken.

Sagenhafte 88,43 Prozent betrug der Anteil des mittels erneuerbarer Energieträger erzeugten Strom um 12:00 Uhr am Sonntag unserer 22. Analysewoche. Hört sich gut an, ist auch ganz sicher bemerkenswert. Die erneuerbaren Energieträger erreichen immer öfter – wenn auch nur stundenweise und bei verhältnismäßig geringem Bedarf – Stromerzeugungswerte im Bereich der 90 Prozent. Was, weil zwecks Stabilisierung des Stromnetzes auch immer in großen Kraftwerken mit großen rotierenden Massen hergestellter konventioneller Strom hinzu erzeugt werden muss, zu einem Überangebot führt, welches immer wieder zu negativen Strompreisen führt. An diesem Sonntag war es besonders heftig: Bis 18:00 Uhr wurde regelmäßig Geld zum verschenkten Strom mitgegeben. Relative Höchstpreise wurden erst aufgerufen, als Deutschland am Abend selber etwas Strom per Saldo importieren musste. Aus Frankreich, Dänemark und der Schweiz. Nachbarn, denen über Tag der Strom geschenkt und zusätzlich Unmengen Geld hinterhergeworfen wurde. Der deutsche Stromkunde hingegen zahlt den vollen Preis. Es ist das Energiewende-Paradoxon, das hier greift und von Prof. Claudia Kemfert so eindrücklich, so erhellend aber auch in der Konsequenz erschreckend formuliert wird.

Montag, 25.5.2020: Anteil erneuerbare Energieträger an der Gesamtstromerzeugung 61,90 Prozent, davon Windstrom 33,33 Prozent, Sonnenstrom 13,49 Prozent, Strom Biomasse/Wasserkraft 15,08 Prozent. Die Agora-Chartmatrix: Hier klicken.

Heute war der Bedarf größer, es setzte ein Rückgang der Windstromerzeugung ein. Mit relativ wenig Sonnenstrom führte dies zu einer Stromunterdeckung ab 5:00 Uhr. Was generell dazu führte, dass der Strompreis-Negativbereich verlassen wurde. Dennoch:  Deutschland exportiert sein Zuviel an Strom zu Tagestiefstpreisen. Ab 6:00 Uhr, Deutschland importiert per Saldo Strom, ziehen die Preise an und liegen in der Spitze am Abend um 20:00 Uhr bei 38,32 €/MWh.

Dienstag, 26.5.2020: Anteil erneuerbare Energieträger an der Gesamtstromerzeugung 42,61 Prozentdavon Windstrom 4,35 Prozent, Sonnenstrom 21,74 Prozent, Strom Biomasse/Wasserkraft 16,52 Prozent. Die Agora-Chartmatrix: Hier klicken.

Der heutige Dienstag zeichnet sich durch eine Windstromerzeugung aus, die fast gegen Null (Sehr wenig Strom onshore; Null Strom offshore) geht. Glücklicherweise bringt eine zufriedenstellende Sonnenstromerzeugung über Tag einen gewissen Ausgleich. Scheint die Sonne hingegen nicht, wird die regenerative Stromerzeugung praktisch nur von den Energieträgern Biomasse und Wasserkraft „gerettet“. Die Strompreise ziehen an. Deutschland importiert den ganzen Tag Strom von seinen Nachbarn, obwohl die konventionelle Stromerzeugung im Vergleich zu vorgestern richtig kräftig bollert.

Mittwoch, 27.5.2020: Anteil erneuerbare Energieträger an der Gesamtstromerzeugung 52,25 Prozent, davon Windstrom 11,71 Prozent, Sonnenstrom 25,23 Prozent, Strom Biomasse/Wasserkraft 15,32 Prozent. Die Agora-Chartmatrix: Hier klicken.

Ab Mittag zieht die Windstromerzeugung an. Aufatmen bei den Freunden der erneuerbaren Energieträger Wind- und Sonnenkraft. Die Sonne scheint heute kräftig auf die Solaranlagen. Es kommt zu keiner längeren Flaute, schon gar nicht zu einer über Tage anhaltenden Dunkelflaute. Die ist nur in der Nacht von Dienstag auf Mittwoch präsent. Die Strompreise bewegen sich zwischen knapp 20 und gut 30 €/MWh. Vor allem Frankreich und die Schweiz liefern Strom. Aber Dänemark und vor allem auch die Niederlande sind dabei. Deutschlands Norden benötigt Strom. Da können 100.000 Windkraftwerke in der Landschaft stehen: kein Wind = kein Strom!

Donnerstag, 28.5.2020: Anteil erneuerbare Energieträger an der Gesamtstromerzeugung 57,85 Prozent, davon Windstrom 21,49 Prozent, Sonnenstrom 23,31 Prozent, Strom Biomasse/Wasserkraft 14,05 Prozent. Die Agora-Chartmatrix: Hier klicken.

Eine kräftig scheinende Sonne plus konsolidierte Windstromerzeugung auf für die Jahreszeit zufriedenstellendem Niveau bewirken, dass über die Mittagsspitze der in Deutschland erzeugte Strom ausreicht, um den Bedarf zu decken. Selbstverständlich nur inkl. konventionell erzeugtem Strom (12:00 Uhr = 27,067 GW). Neben Frankreich und der Schweiz sind es heute wieder die Niederlande, die Strom liefern.

Freitag, den 29.5.2020: Anteil erneuerbare Energieträger an der Gesamtstromerzeugung 54,55 Prozent, davon Windstrom 13,64 Prozent, Sonnenstrom 24,55 Prozent, Strom Biomasse/Wasserkraft 13,36 Prozent. Die Agora-Chartmatrix: Hier klicken.

Am heutigen Freitag lässt die Windstromerzeugung über Tag nach. Viel Sonnenstrom gleicht dies aus. Insgesamt aber herrscht Stromunterdeckung. Deutschland muss/will praktisch den ganzen Tag Strom importieren. Es lohnt sich wohl nicht, die konventionelle Stromerzeugung weiter hochzufahren.

Samstag, 30.5.2020: Anteil Erneuerbare an der Gesamtstromerzeugung 70,48 Prozent, davon Windstrom 41,90 Prozent, Sonnenstrom 11,43 Prozent, Strom Biomasse/Wasserkraft 17,14 Prozent. Die Agora-Chartmatrix: Hier klicken.

Nach einer kleinen Windstromdelle am Vormittag zieht die Windstromerzeugung wieder an. Obwohl die Sonnenstromerzeugung nicht die stärkste ist, kommt es in der Mittagsspitze auch wegen des Einstiegs in das Wochenende geringeren Bedarfs zu einem Stromüberangebot, welche die Preise, die Deutschland erzielt, in den Keller rauschen lässt. Keller? Nein, Parterre! Die negativen (Keller-)Strompreise werden erst wieder – Achtung: Spoiler-Alarm – am Sonntag aufgerufen werden. Wie der Teufel es will: Der geringe Bedarf am Sonntag plus verhältnismäßig viel Wind- und Sonnenstrom lässt die Strompreise in den Negativbereich purzeln.

Der weltweite Lockdown reduzierte die CO2-Emissionen nur um 17 Prozent

Die deutsche Energiewende, das Abschalten der Kernkraftwerke in Deutschland ist da ein gewisser Widerspruch, dient in erster Linie dazu, den CO2-Ausstoß in Deutschland zu reduzieren, dass die Klimaerwärmung so weit reduziert wird, dass die Erde nicht verbrennt. Ob ein solches Unterfangen unilateral sinnvoll ist oder nicht, soll hier und heute nicht diskutiert werden. Immerhin erzeugt Deutschland nur gut zwei Prozent des weltweiten CO2-Austoßes.

Im weltweiten Maßstab haben die vor allem in der westlichen Welt durchgeführten Corona-Lockdown-Maßnahmen zu erheblichen Einbrüchen vor allem in diversen Bereichen der Wirtschaft geführt. Mit entsprechendem Rückgang der CO2-Emissionen. Statista hat die Analyse des Global Carbon Projekt übersichtlich zusammengefasst (Abbildung, bitte unbedingt anklicken. Es werden alle Abbildungen mit wichtigen Erläuterungen und Mehr geöffnet).

Auf dem Höhepunkt des fast kompletten wirtschaftlichen Stillstands lag der CO2-Minderausstoß weltweit – faktisch nur westliche Welt plus einige Zweitweltländer/Tigerstaaten – bei 18 Millionen Tonnen CO2 pro Tag. Angenommen, dieser Minderausstoß würde das ganze Jahr und nicht nur für ein paar Tag im April erreicht, entspräche dies der Deindustrialisierung, der Minderung des fossilen Verkehrs, dem quasi Wegfall des Flugvolumens und vielem mehr, was sich die Retter der Welt, unsere Klimaschützer, so engagiert wünschen.

Kurz: Hochgerechnet auf ein ganzes Jahr würde ein Dauerlockdown auf seiner tiefsten Phase 365 x 18 Millionen Tonnen CO2 einsparen. Das wären 6,57 Milliarden Tonnen. Wie hoch ist der CO2-Ausstoß weltweit insgesamt? 2018 lag der von Menschen verursachte CO2-Ausstoß bei weltweit 37,9 Milliarden Tonnen (Abbildung 1). Es steht zu befürchten, dass Klimaschützer und Weltenretter blass werden, wenn sie die Konsequenzen dieses Sachverhaltes verstehen.

Der scharfe Lockdown, welcher die Wirtschaft in die größte Wirtschaftskrise nach dem 2. Weltkrieg gerissen hat, dieser Lockdown auf ein Jahr hochgerechnet, reduziert den CO2-Ausstoß weltweit gerade mal um ein Sechstel, gerade mal gut 17 Prozent. Ob diese so teuer erkaufte Reduktion des CO2 das Klima retten würde? Man darf es bezweifeln. Vor allem auch deshalb, weil aufstrebende, bevölkerungsreiche Staaten diese Minus an CO2 sehr schnell wieder aufholen werden. Diese Länder wollen noch einen Mindestwohlstand erreichen. Ob sich der Westen wegen eines angeblich Menschen – durch CO2 – verursachten Klimawandels wirtschaftlich ruiniert oder nicht, ist diesen Staaten erst mal egal.

Ordnen Sie Deutschlands CO2-Ausstoß in den Weltmaßstab ein. Zum interaktiven CO2-Rechner: Hier klicken. Noch Fragen?

Ergänzungen? Fehler entdeckt? Bitte Leserpost schreiben! Oder direkt an mich persönlich: stromwoher@mediagnose.de. Alle Berechnungen und Schätzungen durch Rüdiger Stobbe nach bestem Wissen und Gewissen, aber ohne Gewähr. Die bisherigen Artikel der Kolumne Woher kommt der Strom? mit jeweils einer kurzen Inhaltserläuterung finden Sie hier.

Zuerst erschienen bei der Achse des Guten; mit freundlicher Genehmigung.

Rüdiger Stobbe betreibt seit vier Jahren den Politikblog  www.mediagnose.de

 




Der globale Kohlenstoff-Haushalt: schöne Zahlen, vorge­täuschtes Vertrauen, aber höchst fragwürdig (Teil 3)

Wenn wir jedoch eine Veränderung des saisonalen CO2-Zyklus‘ feststellen können, könnte dies interessante Informationen darüber liefern, wie die Vegetation langfristig durch den Klimawandel und die CO2-Erhöhung beeinflusst wird. Bevor ich darauf näher eingehe, könnte eine kurze Erklärung des Ursprungs dieses Zyklus‘ und seiner Unterschiede je nach Breitengrad für den Leser von Interesse sein

Der Zyklus, der uns fast immer präsentiert wird, ist der der Messstation auf dem Vulkan Mauna Loa auf Hawaii. Sie hat die längste Messreihe von allen Stationen und gilt als repräsentativ für den durchschnittlichen CO2-Gehalt auf der Erde. Bevor ich mich mit diesem Thema befasste, dachte ich immer, dass die so genannte Keelingkurve mit ihrem typischen Sägezahnmuster repräsentativ für die globale CO2-Konzentration sei. Das ist jedoch bei weitem nicht der Fall. Das atmosphärische CO2 ist nicht homogen über die Erde verteilt. Offenbar sind große Zirkulationen, Wind und Turbulenzen nicht in der Lage, das CO2-Gas gleichmäßig über den ganzen Planeten zu verteilen.

Zum Beispiel messen Stationen in hohen Breitengraden der nördlichen Hemisphäre eine viel größere jahreszeitliche Amplitude als wir es vom Mauna Loa zu sehen gewohnt sind. Im Gegensatz dazu zeigen Messstationen in hohen Breiten in der südlichen Hemisphäre kaum ein Sägezahnmuster. In Abbildung 1 habe ich die Daten (dank NOAA) von drei Stationen, Alaska, Hawaii und Tasmanien, in einer Grafik zusammengefasst:

Aufgrund der ausgedehnten Wälder in hohen Breitengraden der nördlichen Hemisphäre sehen wir dort einen viel stärkeren jahreszeitlichen Einfluss als in vergleichbaren Breitengraden der südlichen Hemisphäre, wo es kaum Vegetation gibt. Die Zyklusamplitude in Alaska beträgt fast 20 ppm, während sie auf Hawaii nur 7 ppm und in Tasmanien 1 ppm beträgt. Interessant ist auch die Phasenverschiebung von 180 Grad: ein Tief in Tasmanien entspricht einem Hoch in Alaska; nicht überraschend, da auch die Jahreszeiten um 6 Monate verschoben sind. Auch die durchschnittliche Konzentration in der südlichen Hemisphäre ist fast 5 ppm niedriger als in der nördlichen Hemisphäre. Es findet also nur eine begrenzte Vermischung zwischen den beiden Hemisphären statt. Zudem liegt die erste etwa zweieinhalb Jahre hinter der zweiten zurück, ein weiterer Hinweis auf diese langsame Vermischung.

Ein weiterer interessanter Aspekt des Sägezahns ist, dass der Zeitraum, in dem die Photosynthese eine Nettoabnahme von CO2 bewirkt, nur 4,5 Monate lang ist. Die Periode des CO2-Anstiegs beträgt also 7,5 Monate. Dieses Verhältnis war jedoch vor 50 Jahren anders: 5 und 7 Monate. Mehr dazu weiter unten.

Wenn der Mauna Loa den Durchschnitt darstellt, würde dies bedeuten, dass die Atmosphäre zu dieser Jahreszeit einen Rekord von 888 GtC (= 417 ppm) erreicht hat, da der Sägezahn um Mitte Mai sein jährliches Maximum erreicht. Der tiefste Punkt in diesem Jahr wird um den 25. September mit einem Niveau von etwa 410 ppm (= 873 GtC) erreicht werden. Daraus könnte gefolgert werden, dass die Photosynthese während der Sommersaison im Durchschnitt nur 7 ppm (= 15 GtC) absorbiert. Wie lässt sich das mit den 120 GtC in Einklang bringen, die im Kohlenstoffhaushalt immer erwähnt werden? Die Erklärung liegt in der Tatsache, dass diese 15 GtC das Netto-Endergebnis von zwei gegenläufigen Prozessen sind: der Photosynthese und der Boden- und Pflanzenatmung. Im Sommer siegt die Photosynthese über die Boden- und Pflanzenatmung, was zu einer Nettoabnahme von 15 GtC zwischen Mai und September führt.

Die Tatsache, dass die Sägezahngraphik insgesamt einen Aufwärtstrend von 2 ppm/Jahr zeigt, bedeutet auch, dass jedes Jahr mehr CO2 in die Atmosphäre gelangt als aus ihr entfernt wird. Aber was ist mit der von Satelliten beobachteten Begrünung durch CO2-Düngung (Abbildung 2 und Ref. 1)? Die CO2-Zunahme verursacht zwar eine Begrünung, aber sie reicht nicht aus, um sowohl die menschlichen Emissionen als auch die erhöhte natürliche Atmung zu absorbieren (siehe Teil 1). Eine logische Frage, die man sich stellen kann: wirkt sich diese Begrünung auch auf das Sägezahnmuster aus? Ich habe das untersucht und bin zu einigen interessanten Schlussfolgerungen gekommen.

Um zu wissen, ob sich das Sägezahnmuster im Laufe der Zeit verändert hat, habe ich die letzten 50 Jahre in zehn 5-Jahres-Perioden unterteilt und – nach Trendbereinigung – den Durchschnitt jeder Periode ermittelt. Abbildung 3 vergleicht die durchschnittlichen Zyklen des ersten und des letzten Jahrzehnts dieser 50-Jahres-Periode.

Zwei Dinge fallen auf. Erstens: Der Tiefpunkt des Zyklus hat sich von Oktober auf September verschoben. Nach einem sorgfältigen Vergleich anhand der täglichen Messungen (die Monatsdurchschnitte zeigten zu wenig Details) wurde festgestellt, dass der Tiefpunkt des Zyklus‘ um fast 3 Wochen vorgerückt ist, während der Höhepunkt um Mitte Mai unverändert geblieben ist. Offenbar – im Kampf zwischen Photosynthese einerseits und Boden- und Pflanzenatmung andererseits – überwiegt der Abbau von organischem Material (Bodenatmung ) früher als vor 50 Jahren. Zweitens hat die Amplitude des Zyklus um 1,4 ppm zugenommen: von 5,65 ppm auf 7,07 ppm, was einer Zunahme von 25% entspricht (Abbildung 4).

5

Es ist nicht überraschend, dass die Amplitude um 25% gestiegen ist, da auch der CO2-Gehalt in der Atmosphäre zugenommen hat, von 325 ppm im Jahr 1969 auf 410 ppm im Jahr 2019, was einer Zunahme von 26% entspricht. Es kann davon ausgegangen werden, dass diese Amplitudenzunahme ein Maß für die Zunahme der Photosynthese und damit auch der Begrünung ist. Wenn die jährliche Gesamtaufnahme von CO2 durch die Photosynthese derzeit auf 120 GtC geschätzt wird, würde dies bedeuten, dass vor 50 Jahren die jährliche Aufnahmekapazität etwa 95 GtC betrug, 25 GtC weniger als heute.

Die Zunahme der Photosynthesekapazität von 25 GtC/Jahr übersteigt die Zunahme der menschlichen Emissionen. Diese lag 1969 bei etwa 5 GtC/Jahr und 2019 bei etwa 10 GtC/Jahr, eine Zunahme von „nur“ 5 GtC gegenüber den 25 GtC aufgrund der Begrünung. Wenn die Photosynthese so viel mehr absorbieren kann als die menschlichen Emissionen, widerspricht dies eindeutig der Hypothese, dass die menschlichen Emissionen die Hauptursache für den atmosphärischen CO2-Anstieg sind.

Die Erklärung für diesen scheinbaren Widerspruch liegt darin, dass es eine andere CO2-Quelle geben muss, die noch dominanter ist und die Speicherkapazität der Photosynthese übersteigt. Nun schließt sich der Kreis und wir kehren zu dem Thema zurück, das ich in Teil 1 angesprochen habe, nämlich die „Bodenatmung“. Die Bodentemperatur ist in den letzten 50 Jahren um 1,5 Grad Celsius gestiegen, und dieser Anstieg hat der Bodenatmung einen enormen Auftrieb gegeben (siehe auch Ref. 2). Auf der Grundlage von in der Literatur beschriebenen Experimenten und Beobachtungen habe ich berechnet, dass die jährliche Bodenatmung in den letzten 50 Jahren um 25% zugenommen hat, was zusätzliche 12 GtC (oder vielleicht noch viel mehr) auf der Quellenseite des jährlichen Kohlenstoffhaushalts bedeutet. Die andere natürliche Quelle ist die Pflanzenatmung, die proportional (50%) mit der Zunahme der Photosynthese zunimmt. Daher sind 50% von 25 GtC/Jahr 12,5 GtC/Jahr.

Der IPCC schätzt, dass der Ozean soviel absorbiert wie er emittiert (90 GtC/Jahr), mit Ausnahme einer kleinen zusätzlichen Aufnahme von 1,25 GtC/Jahr (im Vergleich zu 1969) aufgrund des erhöhten CO2-Partialdrucks. Die möglichen Emissionen durch Ausgasung als Folge der Erwärmung des Ozeans werden auf 16 ppm pro Grad C Erwärmung geschätzt. Es ist jedoch zu beachten, dass diese Schätzung von einer Gleichgewichtssituation an der Grenzfläche zwischen Luft und Meer ausgeht, was nicht unbedingt auf die Tiefsee zutrifft, wo Strömungen und das Aufsteigen von kaltem CO2-reichem Wasser die Arbeit erschweren können. Die globale Erwärmung seit 1969 beträgt laut HADCRUT4 0,85 Grad C, was einer Ausgasung von 13,6 ppm (29 GtC) oder 0,6 GtC/Jahr entspricht.

Von allen oben zitierten Zahlen sind nur zwei das Ergebnis tatsächlicher harter Datenerhebung: a) CO2-Konzentration in der Atmosphäre und b) CO2-Emissionen des Menschen. Alle anderen Zahlen sind Gegenstand von Schätzungen, die sich auf das Verständnis/die Interpretation komplexer biologischer, chemischer und physikalischer Prozesse stützen.

Nehmen wir für einen Moment an, dass die zusätzlichen 25 GtC bei der jährlichen Photosynthese kohlenstoffneutral sind (Aufnahme entspricht den Respirationsprozessen). Der jährliche zusätzliche CO2-Ausstoß des Menschen beträgt 5 GtC, eine der beiden harten Zahlen. Die zusätzliche Bodenatmung beträgt 12 GtC aufgrund der steigenden Bodentemperatur. Die zusätzliche Ausgasung aufgrund des Anstiegs der Wassertemperatur in den Ozeanen wird auf 0,6 GtC geschätzt, das ist eine jährliche Gesamtzunahme von 17,6 GtC im Vergleich zu 1969.

Auf der Empfängerseite haben wir drei Reservoirs: Ozean, Land und Atmosphäre.

Die Menge, die die Atmosphäre jährlich zusätzlich erhält, ist die andere unbestrittene harte Zahl: 2,4 ppm (= 5 GtC), das sind 1,6 ppm (= 3,4 GtC) mehr als die 0,8 ppm im Jahr 1969. Ozean und Land sind also für den Erhalt des Saldos von 14,2 GtC verantwortlich.

Aus der Literatur lässt sich ableiten, dass 3 GtC vermutlich vom Land in Form von neuer Biomasse aufgenommen werden (die Photosynthese ist schließlich nicht kohlenstoffneutral) und weitere 3 GtC über Diffusion vom Ozean. Es wird auch angenommen, dass diese Zahlen 1969 halb so groß waren; 1,5 und 1,5 GtC. Es bleiben also etwa 11,2 GTC unberücksichtigt.

Daraus lässt sich folgern, dass die zusätzliche CO2-Quelle, die durch die Erwärmung aus der Bodenatmung (der alten Biomasse) stammt, einerseits durch eine erhöhte Photosynthese und andererseits durch eine stärkere Diffusion in die Ozeane durch neue Biomasse absorbiert werden muss. In Anbetracht der großen Unsicherheiten bei all diesen Prozessen ist die nur auf menschliche Emissionen bezogene Kohlenstoffhaushaltsgrafik – die in der Literatur regelmäßig dargestellt wird (siehe mein Teil 1) – eine irreführende Vereinfachung der CO2-Flüsse.

Ref. 1. Carbon Dioxide Fertilization Greening Earth. https://www.nasa.gov/feature/goddard/2016/carbon-dioxide-fertilization-greening-earth

Ref. 2. Yadugiri V Tiruvaimozhi, et al. 2019. Soil respiration in a tropical montane grassland ecosystem is largely heterotroph-driven and increases under simulated warming. https://www.biorxiv.org/content/10.1101/501155v2.full

Übersetzt von Chris Frey EIKE




Die neue Wasserstoffstrategie – Nicht nur Käse aus Holland

Der einzige und vermeintliche Vorteil einer solchen Technik ist, dass kein CO2beim Einsatz entsteht, was den geltenden Klimadogmen sehr entgegen kommt. CO2ist bekanntlich ein Molekül von ca. 0,1 mm Größe (Greta Thunberg kann, qualitätsjournalistisch bestätigt, CO2-Moleküle mit bloßem Auge sehen, was nach ophthalmologischen Erkenntnissen auf diese Größe schließen lässt), das bei zunehmender Konzentration in der Luft aufgrund der Zusammenstöße mit dem Kopf schwere Schädel-Hirn-Traumata auslösen kann, die sich in manischer Klimahysterie äußern.

Elementarer Wasserstoff hat allerdings den Nachteil, dass das nächste natürliche Vorkommen ca. 150 Millionen Kilometer oder 8,3 Lichtminuten entfernt ist und eine Temperatur von 5.500°C aufweist, was Gewinnung und Transport etwas problematisch machen. Wasserstoff muss folglich auf der Erde aus anderen Stoffen produziert werden.

Bundeswirtschaftsminister Peter Altmeier mit Vorstellung der „Wasserstoffstrategie“. Bild Screenshot Video des Bundesministerium für Wirtschaft und Energie

Stand heute

Das und der technisch nicht gerade unheikle Umgang mit elementarem Wasserstoff haben seinen Einsatz bislang auf wenige industrielle Bereiche beschränkt, aber das soll ja anders werden. Man produziert ihn derzeit hauptsächlich durch thermische Formierung von Erdgas (Methan) mit Wasser oder partielle Oxidation von Erdgas, wobei Wasserstoff und CO2entstehen, alternativ auch durch Zersetzung von Methan im elektrischen Lichtbogen, wobei neben Wasserstoff elementarer Kohlenstoff anfällt. Da Erdgas bei unter 4 ct/kWh liegt, die Verluste erträglich sind und man bei den Produktionsprozessen bislang auf nichts Rücksicht nimmt, ist das ökonomisch in Ordnung. Aus klimadogmatischer Sicht müsste das CO2der ersten Verfahren abgeschieden und gelagert werden, was den Wirkungsgrad unter 50% treiben würde, und da der Kohlenstoff des letzten Verfahrens, in dem fast die Hälfte der Energie steckt, ebenfalls unbrauchbar wäre, landet man auch da bei der gleichen Wirkungsgradhausnummer. Zudem widerspricht der Einsatz von Erdgas Ressourcendogmen.

Wasserstoff aus Wind und Sonne

Dogmatisch korrekt und obendrein effizienter wäre eine komplett CO2-freie Produktion durch die Elektrolyse von Wasser, bei der immerhin ca. 85% der eingesetzten Energie im Wasserstoff landen würde. Dazu braucht man Strom. Den könnte man aus AKWs beziehen, Kosten z.Z. ca. 4 ct/kWh, langfristige Tendenz: abnehmend. Würde man das machen, wären bei einem Grundpreis von knapp 5 ct/kWh nachfolgende Verluste je nach Anwendung vermutlich kein großes Problem.

Will man aber nicht (Kein-AKW-Dogma). Es muss alles mit Windkraft oder Fotovoltaik gemacht werden, Kosten ca. 12 ct/kWh, Tendenz langfristig eher zunehmend. Da in Summe ohnehin nicht genügend Wind und Sonne zur Verfügung steht, zeitweise aber manchmal zu viel, will man diesen zeitweisen Überschuss für die Wasserstoffproduktion nutzen. So weit die offizielle Version, die bereits daran hapert, dass es nicht genügend Wind- und Sonnenstrom für alle Anwendungsgebiete gibt und geben wird. Aber das verschweigt man besser.

Die Niederländer wollen nun im Groninger Land einen neuen riesigen Windpark bauen. Der sollte zunächst soundsoviel Wohnungen versorgen können, falls der Wind weht, und ansonsten Wasserstoff produzieren. Inzwischen haben die Niederländer nachgerechnet: das mit den Wohnungen lohnt irgendwie nicht, also planen sie jetzt, nur Wasserstoff aus dem Windstrom zu produzieren. So um die 800.000 to/a sind geplant und irgendwie soll der Wasserstoff dann auch zu den Industrien an Rhein und Ruhr und zu Verbrauchern anderswo kommen. Die Niederländer meinen, das lohnt sich (für sie). Schauen wir uns das mal genauer an.

Ein paar Eckdaten

Im weiteren schauen wir auf ein paar Zahlen. Manche sind problemlos in Tabellenwerken zu finden, bei anderen ist das weniger einfach. Doch zunächst einmal zu den einfachen Sachen: Wasserstoff ist ja fürchterlich energiereich. Pro Kilogramm liegt er im Vergleich mit anderen Energieträgern deutlich an der Spitze, wobei wir hier die Verbrennungsenthalpie bei vollständiger Verbrennung betrachten.

Energieinhalt Wasserstoff Methan Butan Kohle
kJ/kg 286.000 50.125 49.620 32.750

Diese Werte werden gerne verkauft, um dem Betrachter den Wasserstoff schmackhaft zu machen. Für den Transport ist aber das Volumen interessanter als das Gewicht, und da sieht die Bilanz für den Wasserstoff weniger brillant aus:

Energieinhalt Wasserstoff Methan Butan Kohle
kJ/m³ (Gas) 25.535 35.803 128.500 (~82*10⁶)
kJ/m³ (F) 20,2*10⁶ 21*10⁶ 28*10⁶ ~82*10⁶

Egal wie man es betrachtet, Steinkohle liegt volumenmäßig an der Spitze. Aufgelistet ist der Energieinhalt bei Normaldruck/Temperatur als Gas und sowie als Flüssiggas. Wenn man Gas komprimiert, liegt man irgendwo dazwischen. NPT-Wert * Druck in bar = Energieinhalt. Auch als Flüssiggas bringt Wasserstoff gerade einmal 70 kg/m³ auf die Waage und hat dann eine Temperatur von -252°C, die Alkane wiegen immerhin schon um die 500 kg/m³ (bei -160°C und 0°C), Kohle bei ca. 2,5 to. Solche Daten, die für den Transporteur interessanter sind, muss man allerdings selbst ausrechnen.

Die Frage wäre dann: Gas oder Flüssiggas? Die Russen liefern ihr Erdgas durch Röhren zu uns, die US-Amerikaner verflüssigen es und liefern es per Tanker. Ziemlich leicht lässt sich ermitteln, womit man bei Flüssiggas zu rechnen hat:

Verluste Wasserstoff Erdgas
Verflüssigung ≥35% ~12%
Lagerung pro Tag ~3% ~0,1%

Verflüssigung kostet recht viel Energie, was einer der Gründe ist, weshalb das US-Gas auch teurer ist als das russische, aber das nur nebenbei. Bei Erdgas (Siedepunkt -161°C) hält sich das trotzdem noch in Grenzen, Wasserstoff mit einem um fast 100°C niedrigeren Siedepunkt ist aber ein echtes Problem: In Houston eingeschifft wäre in Rotterdam weniger als die Hälfte übrig. Was für die Niederländer auch gelten würde, wie wir gleich sehen werden.

Die Logistik der Niederländer

Für die niederländische Wasserstoffproduktion kommt ein anderes Problem hinzu, das sie praktisch auf einen Stand mit Wasserstoff aus Houston setzen würde, würden sie auf Flüssigwasserstoff setzen: mit einem Atomkraftwerk könnte man den Wasserstoff „just-in-time“ in der Menge produzieren, in der er benötigt wird, die Niederländer müssen aber so produzieren, wie der Wind weht. Nimmt man Stromleistungen aus Wind und Leistungsbedarf der Kunden als Vorbild für eine Wasserstoffwirtschaft, bedeutet das über den Daumen gepeilt, dass von den 800.000 to/Jahr über den Daumen gepeilt ein Drittel bis zur Hälfte längere Zeit gelagert werden müsste. Nach Elektrolyse, Verflüssigung, Transport und Lagerung kämen noch bestenfalls 35% der Energie an, was mit allem Drumherum bereits zu einem Preis von knapp 50 ct/kWh ab Tank führen würde.

Das Mittel der Wahl ist somit der Transport von Wasserstoff als Gas durch Pipelines, weil die üblichen Druckgasflaschen mit 50 l Inhalt,  300 bar Fülldruck und 50 kg Gewicht wohl kaum  lukrativ sind. Auch in Pipelines muss das Gas allerdings komprimiert werden. Bei AKW-Wasserstoff käme man vermutlich mit den üblichen 16 bar aus. Bei den großen Mengen, die bei Windkraftproduktion zwischengespeichert werden müssten, müsste man aber auch Gaskavernen, in denen das Erdgas zwischengespeichert wird, einsetzen und bei höheren Drücken arbeiten. Wenn man Gas komprimiert, muss Volumenarbeit geleistet werden, außerdem erhitzt sich Gas bei Kompression. Da weder die Temperatur in den Leitungen/Speichern gehalten werden kann noch an der Verbraucherseite die mechanische Energie bei der Entspannung genutzt wird, handelt es sich um reine, bei größer werdendem Druck steigende Verluste. Die sind zwar nicht so spannend wie bei der Verflüssigung, aber bei ca. 80 bar bleiben ohne Berücksichtigung anderer Verluste wie beispielsweise Erzeugen und Halten des Kissendrucks in den Kavernen oder Druckerhöhungen in längeren Leitungen vom Windstrom noch ca. 60% übrig. Beim Verbraucher dürften also auch hier nur knapp über 50% ankommen.

Solche Zahlen sind übrigens schon nicht mehr ganz einfach zu ermitteln. Zum einen redet man ungern über Verluste, zum anderen werden alle möglichen Schönrechnungsfaktoren eingerechnet. Wir kommen später noch darauf zurück. Solche Transportverluste entstehen zwar auch beim Erdgas, aber beim Wind-Wasserstoff müssen wir mindestens vom 5-fachen des Grundpreises von Erdgas ausgehen und dieser Faktor findet sich in allen Zahlen wieder. Zudem spielen auch noch weitere individuelle Randbedingungen mit. Als Kunde ahnt man vermutlich so ganz langsam, wohin sich die Abrechnung für die Heizung bewegt, wenn statt Erdgas niederländischer Wasserstoff eingesetzt wird.

Power-2-Gas

Die Pipeline-Version hat allerdings die Nebenbedingung, dass man auch Pipelines zur Verfügung hat. Wenn genügend vorhanden sind, kann man Erdgaspipelines außer Betrieb nehmen und umwidmen, ansonsten müsste man neue bauen. Das Gleiche gilt für Speicherkavernen. Als Alternative zum Wasserstofftransport bietet sich Power-2-Gas an, wobei man den Wasserstoff gar nicht erst transportiert, sondern mit CO2zu Methan umwandelt. Da die Reaktion zwischen Wasserstoff und CO2in der Gesamtbilanz exotherm ist, sieht das gar nicht so schlecht aus, wenn man die Abwärme nutzen kann.

Hier dreht allerdings die Schönfärberei voll auf. Realistisch betrachtet kommen von der Windkraft vermutlich ca. 60% im Methan an, das dann dem normalen Erdgas untergemischt werden kann. Spezialisten rechnen das unter Hinzuziehen aller möglichen Nebenbedingungen und theoretischer Optionen auf Werte nahe 100% hoch, also Wind=Gas. Eine der Mogelpackungen, die drinstecken: Wo bekommt man das CO2her? Richtig, aus CO2-Abscheidung aus anderen Prozessen. Das kostet ebenfalls wieder Energie, die bezahlt werden muss, was letztlich auch den Preis für das künstliche Erdgas weiter aufbläht. Die Kreuz- und Querrechnung ist ohne viel Aufwand kaum zu durchschauen und ob wirklich alle theoretischen Effekte auch in der Praxis genutzt werden können, ist fraglich. Man liegt sicher nicht weit daneben, wenn man unterstellt, dass bei P2G in der Gesamtbilanz ungefähr 40% des primären Windstroms ankommen. Mit entsprechenden Auswirkungen auf die Preise.

Wasserstoffträger

Besonders im Zusammenhang mit dem immer mehr platzenden E-Mobilitätstraum werden dem Publikum gerne flüssige organische Wasserstoffträger verkauft (dass Wasserstoffgas an Tankstellen eine dumme Idee sein könnte, scheint selbst Grünen ohne Knallgasreaktion einzuleuchten). Der Wasserstoff wird hierbei bei erhöhten Temperaturen chemisch in ein Molekül eingebaut und aus diesem bei noch höheren Temperaturen wieder freigesetzt. Handelsüblich sind etwa 150°C und höherer für Schritt 1 sowie 300°C für Schritt 2, jeweils in Gegenwart bestimmter Katalysatoren. Schritt 1 ist exotherm, wobei man versuchen kann, die Verluste durch Nutzen der Abwärme zu minimieren, Schritt 2 endotherm, d.h. es muss auf jeden Fall Energie zugeführt werden. Es ist etwas schwierig, an Daten zu gelangen, aber Wirkungsgrade bis zu 70% scheinen halbwegs realistisch zu sein. Die Datenlage ist deshalb schwierig, weil die den Wasserstoff nutzenden Brennstoffzellen einen höheren Wirkungsgrad als Benzinmotoren aufweisen, was sich propagandistisch besser macht als die Einzelwerte. Vermutlich sieht die Gesamtbilanz ohne alles Schönen kaum anders aus als bei Benzin.

Wieviel Wasserstoff kommt dabei zusammen? Nehmen wir als Rechenbeispiel einmal Toluol (verwendet werden andere verwandte Verbindungen, aber Toluol, ein Benzolabkömmling, war mal ein Kandidat), das bei einer Molmasse von 92 g/mol insgesamt 3 mol = 6 g Wasserstoff reversibel binden kann. Pro Kubikmeter kann Toluol bei einer Dichte von 0,87 g/cm³ umgerechnet ca. 14 kg Wasserstoff speichern, was einem Energieinhalt von 4*10⁶ kJ entspricht. Das ist gerade einmal 1/5 dessen, was ein LNG-Erdgasfahrzeug im gleichen Volumen mit sich führt. Nicht gerade der Renner. Bei der Untersuchung anderer Möglichkeiten, Wasserstoff an irgendetwas zu binden, findet man kein wirklichen Unterschiede zu diesen Werten.

Zum Transport von Wasserstoff eignen sich organische Wasserstoffträger somit eher nicht, und auch für die Mobilität kommen neben dem relativ geringen Energieinhalt und der damit notwendigen Tankstellendichte andere Probleme hinzu. An der Tankstelle muss man erst die alte Flüssigkeit ablaufen lassen, bevor man den Tank neu füllen kann, und auch der Tankwagen fährt voll wieder zurück und nicht leer. Auch mit AKW-Wasserstoff stellt sich die Frage, ob das wirklich die Technik der Zukunft ist, mit dem Preisgefüge, das sich aus Windkraft-Wasserstoff ergibt, braucht man diese Frage allerdings gar nicht erst zu stellen.

Strom-Speicher

Die Gastechniken werden auch als Energiepuffer für windschwache Zeiten gehandelt, d.h. man macht aus dem Gas in einem Kraftwerk wieder Strom, wenn kein Wind weht. Wäre genügend Strom vorhanden, wären Gasspeicher als solche vermutlich im Gegensatz zu allen anderen Ideen tatsächlich skalierbar, d.h. man könnte möglicherweise genügend Kavernen als Puffer bauen. Dummerweise landen wir bei P-2-G-2-P bei Wirkungsgraden um die 30%, d.h. in Überschusszeiten muss der Wind 3 kWh Überschussstrom produzieren, um in Mangelzeiten 1 kWh wieder zurück gewinnen zu können. Wir können uns die weiter Diskussion vermutlich sparen.

Außer Spesen nichts gewesen

Wie schon erwähnt, war es teilweise nicht ganz einfach, realistische Zahlen aus dem üblichen Mogelwerk heraus zuziehen und ich erhebe keinen Anspruch, wirklich die letzten technischen Details berücksichtigt zu haben. Wer in den Zahlen einen Rechenfehler findet, darf ihn auch gerne behalten. Aber auch Korrekturen dürften die Bilanzen nur unwesentlich ändern. Technisch ist alles machbar, großenteils auch vom Standpunkt eines Ingenieurs hochinteressant, aber bezüglich der Dogmenbefriedigung, unter der alles firmiert, skaliert mal wieder nichts. Da die große Stromwende einschließlich der Elektromobilität aus einer ganzen Reihe von Gründen nicht funktioniert und das selbst dem grünen Ideologieapparat auffällt, verkauft man dem Volk nun die nächste Technik ausgerechnet auf Basis des Nichtfunktionierenden nach dem Motto „wenn etwas nicht funktioniert und obendrein zu teuer ist, propagiere ich eben etwas, was überhaupt nicht funktioniert und noch teurer ist“. Und keiner lacht.

 

Über den Autor
Prof. Dr. Gilbert Brands hatte eine Professur an der FH Emden im FB Elektrotechnik + Informatik, Lehr- und Arbeitsgebiete Kryptologie, IT-Sicherheit, Programmierung, Mathematik, Quanteninformatik und anderes Hardcorezeug aus der Informatik. Davor selbständig, angefangen 1982 mit der Entwicklung eines Systems zur zeitgleichen Leistungserfassung für die RAG. Vom Studium her ist er Physikochemiker.

 

Der Beitrag erschien zuerst am 20.3.20 hier bei EIKE