1

COVID-19: die „zweite Welle“ in Europa

Das hier übersetzte Original mit den Zusatzinformationen nimmt in WORD mehr als 40 Seiten ein. Also habe ich hier einen Auszug der langen Übersetzung auf den Server geladen. Mehr Details finden Sie in dem „hochgeladenen“ und übersetzten PDF. – Einleitung durch den Übersetzer

Die Langversion meiner Übersetzung finden Sie als PDF

COVID – Langversion

Die oben angesprochene Studie finden Sie hier in englischer Sprache

https://www.bsg.ox.ac.uk/sites/default/files/2020-11/BSG-WP-2020-032-v9.pdf.

In der Studie der Hinweis auf aktuelle updates: https://covidtracker.bsg.ox.ac.uk/

Original Bericht Neil Lock auf

https://wattsupwiththat.com/2020/12/06/covid-19-the-second-wave-in-europe/

Die von Neil Lock angesprochene Definition der Original Studie, Kap. 4 finden Sie als PDF in Deutsch

Variation in goverment response to covid-16

Vor einem Monat habe ich die Geschichte der COVID-19-Epidemie in vierzehn westeuropäischen Ländern verglichen. Zu diesem Zeitpunkt wurde die „zweite Welle“ des Virus, die sich seit drei oder vier Monaten in der gesamten Region gebildet hatte, von den Regierungen als Entschuldigung genommen, wieder mit der Einführung von Sperren zu beginnen. Also dachte ich mir, dass ich die Situation in ungefähr einem Monat überprüfen würde. Dieser Monat ist nun abgelaufen. Hier ist der Rückblick. Vielleicht, nur vielleicht, habe ich jetzt genug Daten, um eine Vorstellung davon zu bekommen, welche Sperrmaßnahmen wirksam waren und welche nicht.

Hier die Liste der betrachteten Länder:

  1. Österreich
  2. Belgien
  3. Dänemark
  4. Frankreich
  5. Deutschland
  6. Irland
  7. Italien
  8. Luxemburg
  9. Niederlande
  10. Portugal
  11. Spanien
  12. Schweden
  13. Schweiz
  14. Vereinigtes Königreich

Die Datenquellen sind dieselben wie zuvor: Our World in Data und die Blavatnik School of Government, beide an der Universität Oxford. Die Daten, die ich verwende, wurden am 3. Dezember veröffentlicht und sie enthalten Zahlen bis einschließlich 2. Dezember.

In der letzten Woche hat sich die Sammlung auf „Unsere Welt in Daten“ erheblich geändert. Die meisten Daten vor der dritten Januarwoche wurden gelöscht. Einige Länder – zumindest Frankreich, Deutschland und Schweden – haben die Gelegenheit genutzt, viele ihrer Daten zu löschen und neu zu schreiben, einige davon bis zum Beginn der Epidemie. Und die Daten für britische Abhängigkeiten (Jersey, Guernsey, Isle of Man, Gibraltar) und dänische Abhängigkeiten (Färöer, Grönland) sind vollständig verschwunden. Ich hätte erwartet, dass diese Daten im Mutterland konsolidiert wurden. Aber zumindest für Großbritannien sehe ich keine Beweise dafür.

Außerdem haben die Schweden im November ihre Daten zur Stringenz der Sperrung komplett neu geschrieben und nun sieht es so aus, als ob ihr Lockdown seit Monaten nicht annähernd so leicht war, wie wir angenommen hatten. Nach all dem werde ich wiederholen, was ich schon oft gesagt habe: Es sind die besten Daten, die ich habe, also werde ich sie verwenden.

Fälle

Hier ist die Grafik der täglichen Fälle pro Million zum Monatsende:

Um dies ins rechte Licht zu rücken: Derzeit liegen nur Spanien, Irland und Frankreich unter den 200 neuen Fällen pro Million Einwohner pro Tag, bei denen die WHO das Virus als endemisch ansieht und keine Aufhebung des Lockdown in Betracht gezogen werden sollte. Vier weitere Länder, darunter Großbritannien, liegen jedoch nur geringfügig darüber.

Hier sind die Rt-Werte aufgeführt, die jedes Land im Verlauf der Epidemie geliefert hat. Mit Ausnahme von Schweden sind die Rt-Sätze im November gesunken:

Großbritannien ist eines von nur vier Ländern mit einer RT-Rate unter 1 zum Ende November.

Tests

Die Anzahl der gefundenen [Inzidenz-] Fälle, hängt zumindest teilweise von der verfügbaren Testkapazität ab. Hier sind die kumulativen Tests, die pro 100.000 Einwohner in jedem Land durchgeführt wurden (mit Ausnahme von Schweden und Frankreich, in denen keine kumulativen Testzahlen angegeben sind):

Luxemburg und Dänemark liegen mit der Anzahl der Tests, bezogen auf je 100.000 Einwohner weit vor den anderen. Tatsächlich ist die Anzahl der seit Beginn der Epidemie in Luxemburg durchgeführten Tests mehr als doppelt so hoch wie die Anzahl der Bevölkerung!

Todesfälle

und ich habe ein Histogramm der Todesfälle pro Million angehängt, Daten zum 30. November. Sie können hier sehen, welche Länder begonnen haben, die zweite Welle zu „erobern“, und welche nicht.

….

Die vierte und letzte Grafik zeigt die kumulierten Todesfälle pro Fall über den gesamten Verlauf der Epidemie.

Großbritannien (rosa Linie) schneidet bei den Todesfällen je Fall nicht gut ab. Es hat nach Italien das zweitgrößte Anzahl Todesopfer pro Tag. Und Großbritannien steht jetzt mit rund 3,6% an der Spitze der Liste der Todesfälle pro Fall über die gesamte Epidemie gesehen. Todesfälle pro Fall sind meines Erachtens ein fairer Indikator für mangelnde Qualität im Gesundheitssystem eines Landes. Aufgrund mangelnder Testkapazität und einer weniger wirksamen Behandlung derjenigen, die einen Krankenhausaufenthalt benötigen, wird dies tendenziell zu einer Erhöhung beider Dinge führen.

Im Original kommen hier Betrachtungen zu den einzelnen Ländern.

Deutschland

Die wahrscheinlichsten Ursachen für diese jüngste Stabilisierung scheint der 15. Oktober zu sein „Bleiben Sie zu Hause: Empfohlen“ und „Travel. Empfohlen nicht zu reisen“ Die Deutschen tun normalerweise das, was ihnen gesagt wird! Der 2. November:  Beschränkung Gruppengröße, und die Schließung von einigen Arbeitsplätzen haben Rt reduziert, aber sie scheinen nicht so weit auf das Wachstum der Inzidenz Fälle  viel Wirkung gehabt zu haben. Und für einen Großteil des Novembers lag Rt weit über 100%, aber die Anzahl der neuen Fälle wuchs nicht konstant.

Einige vorläufige Schlussfolgerungen

In vielen Fällen ist es schwierig, eine starke Korrelation zwischen dem Erfolg gegen das Virus und einer bestimmten Sperrmaßnahme herzustellen. Ein Grund dafür ist, dass Regierungen gerne viele verschiedene Vorschriften erlassen, die alle am selben Datum beginnen. Daher ist es schwierig festzustellen, welche funktionierten und welche nicht. Die folgenden Schlussfolgerungen können daher nur vorläufig sein.

Obwohl Schulen als Brutstätte für das Virus bekannt sind, konnte ich keine Beweise dafür finden, dass Schulschließungen, entweder empfohlen oder vorgeschrieben, allein während der zweiten Welle zu einem signifikanten Rückgang des Fallwachstums geführt haben.

Arbeitsplatzschließungen scheinen in Belgien oder den Niederlanden nicht vorteilhaft gewesen zu sein, und ihre Wirksamkeit in Deutschland ist zweifelhaft. Es gibt jedoch Hinweise darauf, dass sie in Italien einen Unterschied gemacht haben, und vielleicht auch in Portugal und der Schweiz.

In den meisten Ländern wurden (und werden) Großveranstaltungen abgesagt. Wenn ein Land diese Maßnahme gelockert hat, scheint sich eine erneute Einführung häufig positiv auf die Anzahl neuer Fälle ausgewirkt zu haben. Zumindest in Irland, Luxemburg, den Niederlanden und Spanien. Es scheint jedoch keinen klaren Vorteil zu geben, diese Maßnahme in Belgien erneut durchzusetzen.

Die Reduzierung der maximalen Versammlungsgröße auf 10 oder weniger scheint in Österreich, Belgien, Italien, Spanien und Großbritannien wirksam gewesen zu sein. Das einzige Land, in dem es keinen großen Unterschied gemacht zu haben scheint, sind die Niederlande.

Die Einstellung öffentlicher Verkehrsmittel, scheint während der zweiten Epidemiewelle kein wesentlicher Faktor gewesen zu sein.

Die Anforderungen für den Aufenthalt zu Hause scheinen einen signifikanten Effekt gehabt zu haben. Allein die Empfehlung, zu Hause zu bleiben, hat in Österreich, Deutschland und Großbritannien Auswirkungen. In Belgien, Spanien und vielleicht auch in Luxemburg scheint es einen Unterschied gemacht zu haben, zu Hause zu bleiben.

Auch Reisebeschränkungen machen einen Unterschied. Selbst eine Empfehlung, nicht zu reisen, hat sich in Deutschland und den Niederlanden positiv ausgewirkt. Obligatorische Reisebeschränkungen waren in Irland und wohl auch in Spanien wirksam. Und eine Mischung aus beiden hat wahrscheinlich in Großbritannien Wirkung gezeigt.

Die einzigen Länder, die ihre internationalen Reiseregeln im Oktober oder November geändert haben, sind Deutschland, die Schweiz und Italien. Ich würde erwarten, dass die Auswirkungen dieser Änderungen vernachlässigbar waren, da internationale Reiseverbote und Quarantänen in Zeiten, in denen das Virus in einem Land auf einem niedrigen Niveau ist, weitaus größere Auswirkungen haben würden, als wenn es – wie jetzt – höher ist als im Rest der Welt.

Aus Belgien, Frankreich, Spanien und dem Vereinigten Königreich geht hervor, dass Masken für die breite Öffentlichkeit keine positiven Auswirkungen haben. In der Tat ist es angesichts der Daten nicht von der Hand zu weisen, dass das Tragen von Gesichtsbedeckungen in der Öffentlichkeit tatsächlich noch zur Verbreitung des Virus beiträgt.

https://wattsupwiththat.com/2020/12/06/covid-19-the-second-wave-in-europe/

Übersetzt durch Andreas Demmig

 

Fundstücke zum Thema

Review report Corman-Drosten et al. Eurosurveillance 2020

Die externe Begutachtung des RTPCR-Tests zum Nachweis von SARS-CoV-2 durch Fachkollegen zeigt 10 wichtige wissenschaftliche Mängel auf molekularer und methodischer Ebene: Konsequenzen für falsch positive Ergebnisse.

https://cormandrostenreview.com/report/

….

Das blieb natürlich nicht unwidersprochen, hier auf Focus online

Internationale Forscher stecken hinter Papier

Schmidt-Chanasit zerlegt Anti-Drosten-Gutachten: „Desinformationskampagne“

… Mit der Corona-Pandemie erleben auch Verschwörungstheorien einen Aufschwung. Nun kursiert ein seltsames Papier in den sozialen Medien, in dem behauptet wird, Christian Drostens PCR-Test funktioniere nicht. Was es mit der These auf sich hat, erklärt Virologe Jonas Schmidt-Chanasit in einem aktuellen Interview.

https://www.focus.de/gesundheit/news/internationale-forscher-stecken-hinter-papier-virologe-schmidt-chanasit-haerte-kann-man-nicht-einfach-mit-wirksamkeit-gleichsetzen_id_12752954.html

Da darf der universelle Unheilsprophet nicht fehlen

Harald Lesch rechnet mit Corona-Egoisten ab: „Zeigt, dass Ethik-Unterricht versagt hat“

https://www.focus.de/gesundheit/coronavirus/bei-ttt-harald-lesch-rechnet-mit-corona-egoisten-ab-zeigt-dass-ethik-unterricht-versagt-hat_id_12742344.html

 

Und hier mein derzeitiges liebstes Fundstück:

Botschafter warnen Simbabwe vor Freiheitseinschränkungen wegen Corona

Düsseldorf, 28.08.2020

Wie handelsblatt.com berichtet, haben die Botschafter Deutschlands, Kanadas, Norwegens, der USA, der Niederlande, Polen und Großbritannien, die Regierung von Simbabwe ermahnt, die Rechte der Bürgerinnen und Bürger nicht im Namen der Corona-Krise einzuschränken.

https://www.transparency.de/aktuelles/detail/article/botschafter-warnen-simbabwe-vor-freiheitseinschraenkungen-wegen-corona/




Die Wissenschaft ist marode, nicht das Great Barrier Reef

Die International Union for Conservation of Nature hat ihren neuesten Bericht über den Zustand des Great Barrier Reefs veröffentlicht. Sie hat die Lautstärke um eine Stufe erhöht und behauptet, dass die Bedrohung des Riffs von „erheblicher Sorge“ auf „kritisch“ gestiegen ist. Der Bericht macht den Klimawandel, die Verschmutzung durch die Landwirtschaft, die Entwicklung der Küsten, die Industrie, den Bergbau, die Schifffahrt, die Überfischung, Krankheiten, problematische einheimische Arten, Kohlestaub und was weiß noch alles dafür verantwortlich – egal was es ist, es tötet das Riff.

Aber der Bericht ist nur ein Aufguss alter, meist falscher oder irreführender Informationen, die von generell nicht vertrauenswürdigen wissenschaftlichen Institutionen mit einer aktivistischen Agenda und ohne Verpflichtung zur Qualitätssicherung zusammen geschustert worden sind.

Ein Teil des Problems ist, dass nur sehr wenige Menschen das Riff besuchen, da es unter Wasser und weit von der Küste entfernt ist. Die Wahrheit liegt im Verborgenen. Diejenigen von uns in Nord-Queensland, die in der Nähe des Riffs leben, und Touristen von anderswo, können berichten, dass das Wasser schillernd klar blau und absolut sauber ist. Die Fische und Korallen sind in fabelhaftem Zustand.

Das Riff erweckt gelegentlich den Eindruck, dass es stirbt. Ein Korallengebiet von der Größe Belgiens kann durch tropische Wirbelstürme, einheimische Seestern-Plagen oder Bleichen geschädigt werden. All diese Ereignisse sind völlig natürlich und gehören zum Leben am Riff. Tatsächlich ist jedes der 3000 einzelnen Riffe entlang dessen gesamter Länge von 2000 km ein 50 bis 100 m hohes Plateau aus abgestorbenem Korallenschutt, der sich über Jahrtausende aufgebaut hat. Die lebenden Korallen gedeihen auf der Oberfläche dieses Haufens toter Vorfahren.

Vor sechzig Jahren, als diese Zyklen von Tod und Zerstörung zum ersten Mal von Wissenschaftlern entdeckt wurden, war es legitim, sich darüber Gedanken zu machen, ob sie unnatürlich sind. Aber jetzt gibt es reichlich Beweise, die von der International Union for Conservation of Nature (IUCN) fast vollständig ignoriert werden, dass es dem Riff gut geht. Die Korallen erholen sich nach großen Sterbeereignissen immer kräftig. Auf allen 3000 Riffen bleiben Korallen im Überfluss vorhanden. Die Menge der Korallen schwankt zwar von Jahr zu Jahr dramatisch, ist aber heute ungefähr so groß wie zu Beginn der Aufzeichnungen in den 1980er Jahren. Die Wachstumsraten der Korallen haben nicht abgenommen – wenn überhaupt, dann haben sie zugenommen, wie man es aufgrund des leichten Temperaturanstiegs im letzten Jahrhundert erwarten würde. Korallen mögen es warm und wachsen in wärmerem Wasser schneller.

Das Ignorieren von Belegen für den offensichtlich guten Zustand des Riffs ist nicht das geringste Problem mit diesem IUCN-Bericht. Er verwendet auch Beweise, die offenkundig falsch sind. Zum Beispiel behauptet der Bericht, dass Kohlenstaub, der von Schiffsverladeanlagen aufgewirbelt wird, eine Gefahr für das Riff darstellt, obwohl es 100 bis 1000 km von den Häfen entfernt ist. Diese lächerliche Behauptung basiert auf einem Bericht, der von unbestrittenen Experten auf diesem Gebiet, Dr. Simon Apte und anderen Wissenschaftlern von der CSIRO, widerlegt wurde. Diese konnten nachweisen, dass die Ergebnisse um 3000 Prozent falsch waren. Es ist auch höchst zweifelhaft, dass die ursprünglichen Wissenschaftler tatsächlich Kohlenstaub gemessen haben. Sie haben polyaromatische Kohlenwasserstoffe gemessen, die gewöhnliche, natürlich vorkommende Moleküle und nicht spezifisch für Kohle sind.

Es ist nicht überraschend, dass der IUCN-Bericht den Fehler machte, diesen diskreditierten Kohlenstaub-Report zu verwenden. Andere wichtige australische Berichte über das Riff zitieren ihn ebenfalls. Es ist bemerkenswert, dass die wissenschaftliche Zeitschrift und das Australian Institute of Marine Science, das für die Kohlenstaubdaten verantwortlich war, sich weigerten, den Fehler zu korrigieren, als Dr. Apte sie darauf aufmerksam machte. Die wissenschaftlichen Institutionen sind unzuverlässig geworden.

Dr. Peter Ridd am Quoin Island Turtle Rehabilitation Centre. Bild: Rodney Stevens

Die IUCN macht noch andere, ebenso skandalöse Fehler. Sie behauptet, dass die Verschmutzung durch die Landwirtschaft ein Problem sei, obwohl alle Messungen zeigen, dass die Konzentrationen von Pestiziden so gering sind, dass sie im Allgemeinen mit den empfindlichsten wissenschaftlichen Geräten nicht nachweisbar sind. Der Effekt von Schlamm, der von Farmen ausgewaschen wird, ist ebenso vernachlässigbar.

Das grundsätzliche Problem mit dem IUCN-Bericht ist, dass er auf wissenschaftlichen Erkenntnissen beruht, deren Qualität schlecht gesichert ist. Die wissenschaftlichen Grundlagen sind marode, und keine der Wissenschaftsorganisationen will das Problem beheben – zum Teil, weil die Wissenschaftsorganisationen und die IUCN schon vor langer Zeit aufgehört haben, wissenschaftlich zu sein. Sie haben ihre politische Macht erkannt, und wir müssen erkennen, dass sie politisch geworden sind.

Solange keine echten Qualitätssicherungsmaßnahmen bei den Riff-Wissenschaftsinstitutionen eingeführt werden können, wird das Problem der nicht vertrauenswürdigen wissenschaftlichen Erkenntnisse, die bis zum Überdruss berichtet und wiederholt werden, weiter bestehen. Die einzige gute Nachricht ist, dass der nächste IUCN-Bericht über das Riff im Jahr 2023 nicht schlechter als „kritisch“ sein dürfte, denn das scheint die schlechteste Kategorie zu sein, die sie haben.

Der ganze Beitrag steht hier.

Link: https://www.thegwpf.com/peter-ridd-its-the-science-thats-rotten-not-the-great-barrier-reef/

Übersetzt von Chris Frey EIKE




Im Sumpf von Moorburg – Tragikomödie um ein Kraftwerk

Doch zuerst mal müssen wir uns fragen, was man mit 3.000 Millionen Euro so alles machen könnte. Man könnte zum Beispiel den 5,7 Millionen Mitarbeitern im Gesundheitswesen eine Corona-Prämie von 500 Euro zahlen. Oder man könnte 8.000 zusätzlichen Altenpflegern 10 Jahre lang 3.000 Euro pro Monat zahlen. Oder man könnte tausende Schulen renovieren oder hunderte Brücken sanieren.

Aber was soll die Frage nach den drei Milliarden hier? Wer nur den Prolog liest, wird das nie erfahren.

1. Akt: Expositon – Hamburg braucht ein Kraftwerk       

Seit 1974 produzierte in Hamburg Moorburg ein Gaskraftwerk von 2 × 500 MW Leistung Strom für die Region. Der Eigentümer HEW legte dieses Kraftwerk 2001 wegen Unwirtschaftlichkeit durch die hohen Gaspreise still und es wurde ab 2004 abgerissen. Als Ersatz entstand ab 2007 eine Doppelblockanlage mit rund 2 × 800 MW, das Kohlekraftwerk Moorburg. Eigentümer ist der schwedische Staatskonzern Vattenfall.  Es ging 2015 in Betrieb, kostete rund 3 Milliarden Euro. Moorburg gilt als eines der modernsten und sichersten Kraftwerke Europas, das ganz Hamburg einschließlich der dazugehörigen Industrie mit Strom versorgt. Die Anlage verursacht bei voller Leistung rund ein Viertel weniger CO2-Emissionen im Vergleich zu älteren Steinkohlekraftwerken.

Die Entscheidung, ein Kohlekraftwerk zu bauen, wurde hauptsächlich dadurch bestimmt, dass die Brennstoffkosten im Vergleich zu Gas in etwa nur die Hälfte betragen würden. Als Ausgleich wurde das Kraftwerk mit modernster Abgasreinigungstechnologie ausgerüstet, die alle Grenzwerte erheblich unterbieten könnte. Das Kraftwerk erreichte den sensationellen Wirkungsgrad von 46,5 Prozent und war konstruktiv aufwändig so gebaut, dass es schnelle Lastwechsel zum Ausgleich der schwankenden Windenergieeinspeisung durchführen konnte. Diese Versprechen hielten die Ingenieure ein.

2. Akt: Steigende Handlung – Darf es ein Blöckchen mehr sein?

Vattenfall hatte ursprünglich eine Ein-Block-Anlage von 865 Megawatt geplant. Der Hamburger CDU-Senat unter Ole van Beust regte an, dass das moderne Kohlekraftwerk Moorburg auch Hamburgs Fernwärmeversorgung übernehmen sollte, die bisher durch das alte, 1965 in Betrieb genommenen Heizkraftwerk Wedel gewährleistet wurde, das ebenfalls Vattenfall gehört.

Betört von blumigen Versprechungen der Politik plante und baute Vattenfall also noch einen zweiten Block von 865 MW hinzu und rüstete beide Blöcke für hunderte von Millionen mit einer Anlage zur Wärmeauskopplung aus.

3. Akt: SchwarzRotGrüne Wolken ziehen am Horizont auf

Die politischen Begleitumstände um das Steinkohlekraftwerk im Hamburger Süden sind typisch für die Deutsche Industriepolitik. Kraftwerke sind ungeliebte, ja gehasste Kinder. Kraftwerke sind aber das Rückgrat einer Industrienation. Sie sind teure Langzeitinvestitionen. Zwischen Bau und Stilllegung vergehen oft 40 Jahre und mehr. Deshalb benötigt ein Investor in die Stromproduktion vor allem eins – politische und ökonomische Stabilität. Davon kann in Deutschland längst keine Rede mehr sein. Wenn die Kanzlerin zum Telefon greift, kann es aus sein, mit der Investition.

2008 verlor die Hamburger CDU nach acht Jahren Amtszeit von Ole von Beust die absolute Mehrheit und bildete eine Koalitionsregierung mit der Grün-Alternativen-Liste. Die Grünen zogen mit dem Slogan „Kohle von Beust“ in den Wahlkampf. Die Verwaltung begann, das mit einer Verzögerungstaktik. Um das Genehmigungsverfahren musste Vattenfall gegen die Bundesrepublik wegen der Verschleppung durch die Behörden klagen, wodurch die Inbetriebnahme um mehr als ein Jahr verzögert wurde – und am Ende musste eine Umweltsenatorin der Grünen, Anja Hajduk, das Kraftwerk Moorburg doch genehmigen, weil sie keine rechtliche Handhabe mehr dagegen sah.

Mitten in der Bauphase des Kraftwerks, im Juli 2010, trat Ole von Beust zurück. Christoph Ahlhaus wurde Erster Bürgermeister. Hamburgs Schwarz-Grüne Koalition zerbrach im Februar 2011, und bei Neuwahlen errang die SPD die absolute Mehrheit, auch nicht gerade enthusiastische Freunde von Großkraftwerksbauten. Olaf Scholz wurde erster Bürgermeister der Hansestadt.

2015 verlor die SPD wieder die Mehrheit und trat in eine Rot-Grüne Koalition ein. Für Moorburg zogen noch dunklere Wolken am Hamburger Himmel auf.

4. Akt: Mit einer gewonnenen Schlacht „zu Tode gesiegt“

Doch die Grünen wären nicht die Grünen, wenn sie die Niederlage von 2008 vergessen hätten. Behördenwillkür, Schikane und Prozesshanselei begleitete die gesamte Bauphase. Mitten im Bauprozess wurden die Umweltauflagen massiv verschärft. Die Vattenfall-Ingenieure hatten nämlich alle Werte des Bundesimmissionschutzgesetzes unterboten. Die Behörde senkte einfach die Grenzwerte der immisionschutzrechtlichen Genehmigung unter die beantragten Werte.

Es ist altbewährter Teil grüner Verteuerungsstrategie, durch immer weitere Senkung von Grenzwerten enorme Umplanungen und Baukosten zu erzwingen. Vattenfall klagte wegen der Verschleppung der Genehmigung auf Schadenersatz in Höhe von 1,4 Milliarden Euro vor dem internationalen Schiedsgericht zur Beilegung von Investitionsstreitigkeiten. Das Verfahren endete mit einem Vergleich ohne Schadensersatz. Und trotzdem schafften es die Ingenieure, unter enormem Aufwand auch die verschärften Werte zu erreichen.

Der BUND brachte eine Klage bei der EU-Kommission wegen möglicher Fischbeeinträchtigungen von Lachsen, Fluss- und Meerneunaugen ein. Der Europäische Gerichtshof entschied, dass die Behörde die Genehmigung fehlerhaft erteilt hatte. Vattenfall durfte daraufhin kein Kühlwasser mehr aus der Elbe entnehmen und musste einen zwangsbelüfteten Kühlturm bauen. Dieser verbraucht für seine Gebläse die elektrische Leistung einer Kleinstadt. An heißen Tagen reicht er trotzdem nicht aus und die Stromproduktion muss gedrosselt werden. Beides erhöhte die Stromgestehungskosten nicht unerheblich.

Um die Fernwärmeauskopplung zu nutzen, musste natürlich das Kraftwerk an das Fernwärmenetz von Hamburg angeschlossen werden. Die dafür nötige Fernwärmeleitung wurde auf Druck von Bürgerinitiativen und BUND nicht genehmigt. Es hätten nämlich 400 Bäume gefällt werden müssen. Ohne die Fernwärmeleitung blieb der Energienutzungsgrad des Kraftwerks niedriger, außerdem waren die Investitionen in die Anlagen zur Fernwärme-Auskopplung vergeblich getätigt worden. 300 Millionen futsch, sprichwörtlich durch den Schornstein gejagt.

Als wäre das alles noch nicht genug, mussten Teile der Anlage – 36.000 Quadratmeter mit speziellem Muster für 15 Millionen Euro – von außen verklinkert werden. „Damit sie sich ins Stadtbild von Moorburg einfügen“, so Oberbaudirektor Jörn Walter. Bezahlen musste es natürlich Vattenfall.

Am 18. November 2015 weihte Olaf Scholz, das supermoderne Kraftwerk Moorburg ein. Es sollte jetzt mindestens 25 Jahre bis 2040 laufen, um dann modernisiert zu werden. Der Betreiber Vattenfall hatte den Hamburger Politikern einen Sieg abgetrotzt. König Pyrrhus grüßte schon aus der Ferne.

5. Akt: Retardation – Aussteigen im Nirgendwo. Verhindern, verteuern, verbieten

Der Umgang der Hamburger Politik mit Moorburg war gekennzeichnet durch grobe Fahrlässigkeit. Weder verfolgte der Senat jemals eine nachvollziehbare Energiepolitik, noch hatte die Stadt irgendeine ökologisch vernünftige Alternative zu Moorburg. Die Möglichkeit, Moorburg in einer optimierten Weise in den Strukturwandel des deutschen Energiesystems einzubeziehen, wurde von den Grünen von vorn herein kategorisch verhindert, verteuert und verboten.

Wie sollen Investoren unter solchen Bedingungen Entscheidungen fällen, die Milliarden kosten? Welches Vertrauen sollen Investoren zu Politikern haben, die erst eine Verdoppelung der Investitionskosten propagieren, um dann, wenn sich der Wind dreht, die Nutzung des Assets nach Kräften behindern, verteuern oder gar verbieten. Und das ist nicht nur bei großen Investitionen der Fall. Dieselben Politiker, die vor 10 Jahren für die Bürger den Kauf eines Dieselautos propagierten, verbieten diesem heute das Einfahren in die Städte. Heute entscheiden nicht mehr Ingenieure über technische Lösungen, sondern Richter.

Die kostentreibenden Betriebsbehinderungen zeigten ihre Wirkung. Auch die Vorrangeinspeisung von Wind- und Sonnenstrom führten dazu, dass Moorburg im ersten Halbjahr 2020 über 800 Millionen Euro Verluste schrieb. Dazu kam die Aussicht auf weitere Zusatzkosten durch die neue CO2-Steuer ab 2021.

6. Akt: Lösung des Konflikts – Nur komplett Irre machen so etwas

Also zogen die Manager von Vattenfall die Reißleine. Die Rotgrünen hatten Vattenfall jahrelang derartig schikaniert und ruiniert, dass das Unternehmen offenbar keinen anderen Ausweg als die Stilllegung mehr sah.

Vattenfall nahm mit Moorburg am Ausschreibungsverfahren zur Reduzierung der Verstromung von Steinkohleanlagen und Braunkohle-Kleinanlagen zum Gebotstermin 1. September 2020 teil. Am 1. Dezember 2020 wurde das Ergebnis des Verfahrens gemäß § 24 Abs.1 Kohleverstromungsbeendigungsgesetz (KVBG) von der Bundesnetzagentur öffentlich bekannt gegeben. Beide Moorburg-Blöcke erhielten neben neun weiteren Kohleblöcken einen Zuschlag, wodurch das Vermarktungsverbot am 1. Januar 2021 und das Kohleverstromungsverbot für diese Blöcke im Juli 2021 in Kraft tritt. Einen Zuschlag für zwei Verbote, wenn das nicht ein Euphemismus ist?

Anna Borg, Präsidentin und CEO von Vattenfall, äußerte sich trotzdem politisch korrekt: „Wir begrüßen diese Entscheidung. Sie ermöglicht es uns, das Kraftwerk Moorburg früher als bisher geplant vom Netz zu nehmen. Obwohl das Kraftwerk, das 2015 in Betrieb genommen wurde, eines der modernsten in Deutschland ist, entspricht die frühzeitige Stilllegung sowohl den Plänen der deutschen Bundesregierung, die Emissionen aus der Kohleverstromung zu reduzieren, als auch der Strategie von Vattenfall, innerhalb einer Generation ein Leben ohne fossile Brennstoffe zu ermöglichen“. Sie denkt dabei wohl an etwa 200 Millionen Euro Steuergeld, die Vattenfall die Abrisskosten versüßen sollen. Die Abrissbirne kommt bald, es sei denn, die Netzbetreiber stufen Moorburg als „Systemkraftwerk“ ein und der Steuerzahler muss das künftige Stand-by teuer bezahlen.

Es ist völlig ungeklärt, wo bei Flaute und Dunkelheit der Ersatzstrom des Kraftwerkes Moorburg herkommen soll. Hamburgs grüner Umweltsenator Jens Kerstan bejubelt trotzdem die Stilllegung. „Das Kraftwerk Moorburg war von Anfang an überdimensioniert, unwirtschaftlich und aus der Zeit gefallen. Es ist für den Klimaschutz eine gute Nachricht, wenn es jetzt deutlich früher vom Netz geht als ursprünglich geplant. Mit der Stilllegung Moorburgs werde der Kohleausstieg in Hamburg nun nicht nur in der Wärme deutlich früher vollzogen, als im Rest der Republik. Wir schaffen so auch den gesamten Kohleausstieg in Hamburg bis spätestens 2030.“ Am Standort Moorburg soll nun die „Energieversorgung der Zukunft“ beginnen. Neben der Produktion von grünem Wasserstoff in großem Stil könne dort auch ein innovativer Hochtemperatur-Stahlspeicher entstehen, vielleicht sogar mit einer Kapazität von 500 Megawattstunden. Jens Kersten ist Volkswirt. Mir ist nicht bekannt, ob ihm klar ist, dass sein innovativer Speicher das Kraftwerk für eine knappe halbe Stunde ersetzen kann. „Es wird hier keine Blackouts geben„, sagte er trotzdem mutig. Wie denn, mit der „Energieversorgung der Zukunft“? Muss man nicht erstmal die stillgelegte Anlage abreißen? Das können ja die 200 hochqualifizierten Mitarbeiter des Kraftwerkes übernehmen, die stehen nämlich vor dem Jobverlust.

Epilog

Es wurden gerade erfolgreich drei Milliarden Euro vernichtet. Na und, werden Sie fragen? Ist doch das Geld des bösen Energieriesen Vattenfall. Das kostet nichts, das bezahlen die Schweden? Na ja, das ist auf den ersten Blick so. Nur muss der fehlende Strom ja nach der Abschaltung von Moorburg irgendwo erzeugt werden. Glaubt jemand, das die Schweden nach dieser Pleite ein entsprechendes Gaskraftwerk errichten?

Doch dieses Gaskraftwerk muss irgendwie und irgendwo gebaut werden. Aber auf Steuerzahlerkosten, denn kein Investor, der bei Trost ist, wird das Risiko eingehen. Die Abschalter haben jedes Maß verloren. In einem Jahr geht das Kernkraftwerk Brokdorf mit seinen 1.500 MW vom Netz. Dann fehlen schon 3.100 Megawatt im Nordnetz und weitere zwei Milliarden Euro sind vernichtet. Und in Niedersachsen gehen die Kernkraftwerke Grohnde mit 1.500 MW und Emsland mit 1.500 MW vom Netz. Dazu kommen im Süden die KKW Isar und Gundremmingen mit zusammen weiteren 2.900 MW. Dann fehlen 9.000 Megawatt Erzeugungsleistung für Grundlast im deutschen Netz. Und weitere acht Milliarden Wert werden, grob geschätzt, vernichtet.

Noch eines ist zu bedenken: auch steuergeldbezahlte Gaskraftwerke lassen sich nicht in einem Jahr aus dem Boden stampfen. Es wird also auch nach der Abschaltung der genannten Anlagen bis 2022 noch keine neuen Ersatzgaskraftwerke geben. Die Frage ist daher nicht, ob es Stromabschaltungen geben wird, die Frage ist nur: wann. Denn nur mit Stromrationierung (Brown-Outs) lässt sich bei dieser Politik ein Blackout vermeiden.

Deutschlands De-Industrialisierung schreitet munter weiter voran. Deutschland hat bereits die höchsten Strompreise der Welt und es wird noch teurer werden, noch viel teurer. Das Netz muss umfangreich ausgebaut werden, Gaskraftwerke gebaut, und eine Verdoppelung der Windräder und Solaranlagen ist vorgesehen.

Um Umweltpolitik geht es dabei schon lange nicht mehr. Angesichts des noch bis 2025 geplanten Weiterbetriebs des 50 Jahre alten Kohleheizkraftwerks in Wedel bezeichnete der Vorsitzende des Hamburger Steuerzahlerbundes, Lorenz Palte, die geplante Stilllegung von Moorburg „des saubersten Kohlekraftwerks der Republik“ als „ökologischen Irrsinn und Steuerverschwendung„. Dem ist nichts hinzuzufügen.

 

Manfred Haferburg ist Autor des Romans “Wohn-Haft“ (4,9 von 5 bei 122 Bewertungen), der mehr und mehr von einem DDR-Roman zu einem Buch wird, das die Zukunft beschreibt.

Der Beitrag erschien zuerst bei ACHGUT hier




Das Paris-Abkommen dem US-Senat vorlegen!

Die Entwicklungsländer hätten keine solchen Verpflichtungen. Am unglaublichsten ist, dass das wirtschaftliche, militärische und technologische Machtzentrum China zu den Entwicklungsländern gezählt wird und somit keine derartigen Verpflichtungen hat.

Kurz gesagt, das Pariser Abkommen würde die Vereinigten Staaten zu einer massiven, schmerzhaften Umgestaltung ihrer gesamten Wirtschaft – Stromerzeugung, Transport, Produktion, Landwirtschaft und vieles mehr – unter der Ägide der Vereinten Nationen und der UNO sowie unter der Ägide von Aktivisten, Politikern und Bürokraten aus anderen Ländern zwingen.

[Hervorhebung vom Übersetzer]

Abgesehen von der Beendigung großer Kriege ist das, was in Paris ausgeheckt wurde, wahrscheinlich das weitreichendste und folgenschwerste Abkommen, das dieses Land je unterzeichnen sollte. Es verkörpert genau das, was unsere Gründerväter im Sinn hatten, als sie in der Verfassung das Verfahren festschrieben, welches eine Debatte im Senat, Beratung und Zustimmung zu allen Verträgen erfordert.

Präsident Obama dekretierte jedoch einseitig, dass das Paris-Abkommen kein „Vertrag“ sei, sondern lediglich eine Vereinbarung, ein Abkommen – ein geringeres Dokument, das er persönlich unterzeichnen könne, in dem er die USA dazu verpflichte, einen Bogen um unseren verfassungsmäßigen und demokratischen Prozess zu machen und dem Kongress und Amerika keine Gelegenheit gebe, diesen aufdringlichen, destruktiven Vertrag zu prüfen, zu diskutieren und ihm zuzustimmen oder ihn abzulehnen. Auf diese Weise schuf Obama die Voraussetzungen für koordinierte Bemühungen liberaler Politiker, Aktivisten, Bürokraten, Generalstaatsanwälte, Richter und Unternehmenschefs, um die Pariser Verlautbarungen für jeden Amerikaner verbindlich zu machen.

Präsident Trump erkannte, wie unfair und katastrophal der Pariser Klimavertrag sein würde. Im Jahr 2017 kündigte er den Rückzug der Vereinigten Staaten an; der Rückzug wurde am 4. November 2020 wirksam.

Joe Biden hat deutlich gemacht, dass er unsere Nation wieder an den Pariser Nicht-Vertrag binden wird, möglicherweise innerhalb von Stunden nach seiner Vereidigung als Präsident, wenn die noch offenen Abstimmungsfragen zu seinen Gunsten gelöst werden. Glücklicherweise kann Präsident Trump diese Katastrophe leicht verhindern, indem er dem Vorschlag von Experten des Pariser Vertrags folgt.

Mr. Trump könnte und sollte den Vertrag dem Senat zur Beratung und Zustimmung vorlegen – und der Mehrheitsführer im Senat Mitch McConnell sollte schnell eine Debatte und Abstimmung anberaumen. Jeder Senator wird die Gelegenheit haben, seine Meinung zu Protokoll zu geben: für oder gegen einen Vertrag, der die Vereinigten Staaten und jeden einzelnen Staat und jede einzelne Familie zu Untertanen nicht gewählter, nicht rechenschaftspflichtiger UNO- und ausländischer Mächte machen würde.

[Kursiv im Original, Fettdruck vom Übersetzer hinzugefügt]

Präsident Trump sollte dies schnellstmöglich tun – und damit eine weitere einseitige Aktion der Exekutive ebenso zu verhindern wie das, was der Anwalt für Rechenschaftspflicht und Aufsicht der Regierung Chris Horner als einen gut koordinierten „Klimaprozessindustrie“-Plan beschrieben hat, nämlich unsere Gerichte mit einer endlosen Reihe von Klagen zu überziehen, um jede Bestimmung des Pariser Klimavertrags für jeden US-Bundesstaat, jede Industrie, jedes Unternehmen und jede Familie rechtsverbindlich zu machen.

Zum Beispiel versprach Maura Healey von der Massachusetts AG dem State Energy & Environmental Impact Center von Michael Bloomberg, dass sie, wenn man ihr Büro mit privat angestellten Anwälten ausstatten würde, die sie als „Special Assistant Attorneys General“ einsetzen könnte, diese damit beauftragen würde „sicherzustellen, dass Massachusetts und die Nachbarstaaten die langfristigen Verpflichtungen erfüllen, die … in der Pariser Vereinbarung festgelegt sind“ – was auch immer diese sein mögen oder kreativ interpretiert werden könnten. Sie tut es bereits.

Ein anderes Schema beinhaltet die Wiederbelebung der in der Obama-Ära geschmähten Praxis der „Sue-and-settle“-Klagen, bei denen Umweltschutzgruppen Regierungsbehörden verklagen, um Regeln durchzusetzen, die sowohl die Prozessführer als auch die Regulierungsbehörden wollen, die aber nicht eindeutig vom Gesetz unterstützt werden oder auf starken öffentlichen Widerstand stoßen würden, wenn sie einen normalen Prozess der Gesetzgebung durchlaufen würden. Die Parteien wählen ein in der Regel kooperatives Gericht, und statt den Prozess zu bekämpfen, gibt die Regierungsbehörde nach, erklärt sich bereit, den Fall beizulegen, und willigt in alle Forderungen ein, die von dem handverlesenen Pseudoanwalt der Behörde gestellt wurden. Die Bürger und Parteien, die von den neuen Regeln betroffen sind, dürfen sich niemals vor Gericht äußern und erfahren selten etwas über die Regelungen, bis sie ihnen auferlegt werden.

Die Pläne sind dreist, ungeheuerlich, ein Missbrauch von Gesetz und Autorität und nach Ansicht von Vielen verräterisch. Aktivisten werden sie und den Pariser Klimavertrag als Massenvernichtungswaffen gegen Amerikas Energie, Wirtschaft, Lebensstandard und Freiheiten einsetzen.

Horner weist auch darauf hin, dass ein erneuter Beitritt zum Pariser Vertrag Amerikas Energie- und Wirtschaftspolitik einer UN-Klima-„Schlichtungskommission“ unterwerfen würde, die es „antagonistischen“ Nationen und Parteien ermöglichen könnte, Beschwerden über die angebliche Nichteinhaltung des Pariser Vertrags durch die USA einzureichen, die Entwicklung der Infrastruktur zu blockieren und Kohlenstoffsteuern zu erheben. Des Weiteren weisen er und Marlo Lewis, leitendes Mitglied des Competitive Enterprise Institute, noch auf Folgendes hin:

Den „Klimaputsch“ Obamas zuzulassen würde künftigen Präsidenten erlauben, alle Verträge, die sie und ausländische Eliten wollen, ohne Überprüfung und Ratifizierung durch den Senat zu verabschieden, indem sie sie einfach als „kein Vertrag“ betrachten.

Der Pariser Vertrag würde die amerikanische Selbstverwaltung gefährden – indem er die Verwaltungen ermächtigt, langfristige Verpflichtungen ohne Genehmigung des Kongresses einzugehen, und indem er die Energie- und Wirtschaftspolitik der USA den Forderungen ausländischer Führer, UN-Bürokraten und internationaler Interessengruppen unterwirft.

[Hervorhebung vom Übersetzer].

Wenn Wir, der Souverän, das Volk, letztendlich entscheiden, dass wir unser Energie- und Wirtschaftssystem umgestalten, unseren Lebensstandard senken, unsere Freiheiten einschränken und uns der internationalen Kontrolle unterwerfen wollen, können wir dies durch angemessene landesweite Debatten und Gesetzgebungsverfahren erreichen. Wir sollten uns diese Entscheidungen nicht durch Absprachen, Korruption, Schikanen und verfassungswidrige Machtübernahmen aufzwingen lassen.

Zu viele unserer herrschenden Eliten verachten die Wirtschaft, die Industrie und die Arbeiterklasse; sie verrichten selten, wenn überhaupt, ernsthafte körperliche Arbeit und gehören meistens einer Demokratischen Partei an, die einst für die Arbeiter eintrat, sich jetzt aber von den arbeitenden Männern und Frauen abgewandt hat. Diese Eliten würden dazu beitragen, dass dieselben Familien, die am härtesten und längsten von den Covid-Sperren betroffen wurden, durch die Erlasse des Pariser Klimavertrags auf ewig bestraft werden.

All die roten Zahlen auf den Landkreis-für-Landkreis-Wahlkarten für das Jahr 2020 sind die Stellen, an denen Arbeitsplätze, Wirtschaft und Lebensstandard am härtesten unter Druck geraten werden. Viele dieser Landkreise bieten Arbeitsplätze in der verarbeitenden Industrie … Ackerland, Wälder, landschaftlich reizvolle und offene Flächen, Lebensräume, in denen Vögel, Fledermäuse und Wildtiere gedeihen … und die besten Wind- und Sonnenstandorte.

Hier wird das Land mit Millionen von Windturbinen, Sonnenkollektoren, Batteriekomplexen und Übertragungsleitungen übersät, um Milliarden von Megawattstunden zuverlässiger Elektrizität durch intermittierenden Strom zu „ersetzen“ – und damit viele seltene, bedrohte, gefährdete und einfach großartige Arten zu dezimieren.

Dort werden neue Dust Bowls* entstehen, da die Biokraftstoffpflanzen die heutigen Graslandschaften ersetzen werden. Fabriken werden schließen, weil der Pariser Vertrag die Elektrizität intermittierend und teuer machen wird und petrochemische Rohstoffe zu teuer oder einfach nicht verfügbar sein werden.

[Der Begriff ist dem Terminus „dust bowl years“ entnommen. Damit werden die 1930er Jahre in den USA bezeichnet, in denen es zu einer lang anhaltenden Hitze und Dürre gekommen war. Anm. d. Übers.]

Werden Präsident Trump und Senator McConnell zulassen, dass eine Biden-Harris-Regierung – in Komplizenschaft mit Trupps amerikafeindlicher Politiker und Deep State-Aktivisten – unserem Land das antut?

Oder werden sie die Verfassung, die Trump-Energie, die Wirtschaft, die Beschäftigung und das militärische Vermächtnis bewahren – die Lebensgrundlagen, den Lebensstandard und die Freiheiten, nicht nur der Trump-Wähler, sondern aller Amerikaner?

Dies könnte ihre letzte Gelegenheit sein, dies zu tun. Deshalb fordere ich sie auf – und ich bin sicher, dass sich mir Zehner-Millionen meiner amerikanischen Landsleute anschließen, wenn ich den Präsidenten und den Mehrheitsführer im Senat dränge –:

Legen Sie dem Senat diesen fehlerhaften, zerstörerischen Pariser Klimavertrag vor! Lassen Sie die versammelten Senatoren darüber debattieren, darüber abstimmen – und ihn in den Mülleimer der Geschichte expedieren, wo er hingehört.

[Hervorhebung im Original]

Autor: Paul Driessen is senior policy advisor for CFACT and author of Cracking Big Green and Eco-Imperialism: Green Power – Black Death.

Link: https://www.cfact.org/2020/12/08/send-the-paris-climate-treaty-to-the-senate/

Übersetzt von Chris Frey EIKE




Woher kommt der Strom? für Windmüller vielversprechend

Was im weiteren Verlauf der Woche in Sachen Stromerzeugung mittels erneuerbarer Energieträger vor sich geht, ist der ultimative Beleg dafür, dass die Energiewende nicht nur auf tönernen Füßen, nein, auf Moor steht. Mit jedem weiteren Abschalten oder vom Netz nehmen verlässlicher konventioneller Kraftwerke versinkt die Energiewende in diesem Moor. Da ist es mehr als ein Omen, dass mit dem Steinkohlekraftwerk Moorburg bei Hamburg eines der weltweit modernsten, effizientesten und im Rahmen der bestehenden Möglichkeiten saubersten fossilen Kraftwerke abgeschaltet wird.

Zurück zum weiteren Wochenverlauf. Die erste Abbildung – bitte unbedingt anklicken, es öffnen sich alle Abbildungen und mehr – zeigt den Sonntag mit der recht hohen Windstromerzeugung. Sonnenstrom spielt im Herbst-/Winterhalbjahr nur eine untergeordnete Rolle. Dann nimmt die Windstromerzeugung kontinuierlich ab. Bis zum Tiefpunkt der Woche am Freitag um 7:00 Uhr. Da lag die Windstromerzeugung an Land (0,616 GW), auf See (0,13 GW), dann lag die Windstromerzeugung komplett am Boden. Die Sonnenstromerzeugung lag bei 0,026 GW. Nur Wasserkraft und Biomasse trugen mit knapp 7 GW um 7:00 Uhr nennenswert zur regenerativen Stromerzeugung (7,742 GW gesamt) bei (Abbildung 1). Der Bedarf lag um diese frühe Morgenzeit bei bereits über 72 GW. 64 GW (Abbildung 2) mussten konventionell hinzuerzeugt werden, um den Bedarf zu decken. Über Tag zog die Windstromerzeugung wieder etwas an, die Sonnenstromerzeugung wuchs ebenfalls. Dennoch, die konventionelle Stromerzeugung bullerte, was das Zeug hielt. Die Strompreise entwickelten sich im Verlauf der Woche tendenziell nach oben. Mit der Folge, dass Deutschland den höchsten Strompreis der Woche zahlen musste.

Man mag es tragisch nennen, dass dieser ausgerechnet zu dem Zeitpunkt aufgerufen wird, als Deutschland per Saldo Strom importieren muss. Hinzu kommt, dass das diese Woche nur zweimal für einen kurzen Zeitraum der Fall ist. Nein, liebe Leser, es ist nicht tragisch, es ein weiterer Beleg für die Unsinnigkeit einer Energiewende unter halbmarkwirtschaftlichen Vorzeichen. Je mehr regenerativer Strom im Markt ist, desto billiger wird er. Bis hin zum Verschenken des Stroms plus Bonusscheck. Wenn regenerativer plus konventionell erzeugter Strom allerdings nicht ausreichen, um den Bedarf in Deutschland zu retten, dann muss zu Höchstpreisen importiert werden. Dieser Sachverhalt wird in der 48. Woche kompakt verdeutlicht. Wenn dank konventioneller Stromerzeugung bei zurückgehender regenerativer Stromerzeugung ein Überschuss erzeugt wird, steigen die Strompreise tendenziell an, sodass die Preise, die Deutschland erzielt, mit und mit Richtung „auskömmlich“ gehen. Das ist daran zu erkennen, dass der Preis um die 40 €/MWh schwankt (Abbildung 3).

Die Tabelle mit den Werten der Energie-Charts und den daraus generierten Chart finden Sie unter Abbildung 4Abbildung 5 zeigt die aufgelaufenen Jahreswerte Im- und Export sowie die Werte der 48. Woche.

Der Chart mit der angenommenen Verdoppelung Stromerzeugung mittels Wind- und Sonnenkraft liegt unter Abbildung 6. Man erkennt sehr schön, welche Strommengen trotzdem hinzu erzeugt werden müssen, damit die Versorgung gesichert ist. Weil ganz wenig plus ganz wenig zwar zweimal ganz wenig ist. Aber es bleibt doch wenig. Das ist für unsere Freunde der Energiewende denn vielleicht doch zu hoch. Deshalb beharren sie auf dem nachgewiesenen Unfug. Oder wollen sie lediglich eine Menge Geld verdienen und am Ende einen Stromsozialismus einführen, bei dem die Leute Strom bekommen, wenn vorhanden? Oder, wie in der 48. Woche, tagelang nichts? Ich befürchte es.

Abbildung 7 bringt ein Simulations-Tool, welches ein Leser entwickelt hat, um die Auswirkungen des Abschaltens konventioneller Stromerzeugung und die Vervielfältigung von Wind- und Solarkraftwerken aufzuzeigen. Es ist wesentlich komplexer als mein Verdoppelungschart und eignet sich hervorragend, um alle möglichen Szenarien durchzuspielen.

Die Tagesanalysen

Sonntag, 22.11.2020: Anteil erneuerbare Energieträger an der Gesamtstromerzeugung 55,94 Prozent, davon Windstrom 41,96 Prozent, Sonnenstrom 3,50 Prozent, Strom Biomasse/Wasserkraft 10,49 Prozent. Die Agora-Chartmatrix: Hier klicken.

Der Sonntag bringt den meisten Windstrom der Woche. Der Bedarf ist, wie immer, geringer als an Werktagen. Zum Abend nimmt die Windstromerzeugung ab. Es ist der Beginn eines beispiellosen Abstiegs der Windstromerzeugung in dieser Woche. Ist es ein Mentekel für den weiteren Verlauf der Energiewende? Ich befürchte, dass dem nicht so ist. Die Verfechter dieses im Weltmaßstab und als Vorbild werden „durchhalten“. Ein vollkommen verblendeter Staat wird weiter unterstützen. Kurz: Der Steuerzahler bezahlt den Weg in eine sozialistische Stromwirtschaft, in der dann Strom geliefert wird, wenn vorhanden. Wenn keiner oder nicht genug vorhanden ist, gibt es eben keinen. Weshalb im Weltmaßstab vollkommen unsinnig? Deutschland produziert etwa 2% des gesamten CO2. Fiele das weg: So what? China, Indien usw. holen das kurzfristig auf. Am deutschen CO2-Wesen wird die Welt nicht genesen. Und eingedenk der horrenden Preise der Energiewende bei gleichzeitig kaum Nutzen für das Weltklima ist der Vorbildcharakter allerhöchstens für ideologisch komplett kontaminierte Hirne oder schlicht-ahnungslose Dummköpfe „Realität“. Faktisch lacht sich praktisch die ganze Energiewelt einen Ast ab, ob der Blödheit der deutschen Energiewendefreunde. Aber nein, die verdienen ja gut an dem Unfug. Der deutsche Michel aber schauet stumm auf dem bald leeren Tisch herum.

Die konventionelle Stromerzeugung beginnt am Sonntag ihren Lauf, ihren Lauf zu immer größeren Erzeugungsmengen. Diese Nachbarn nehmen Deutschland den überschüssigen Strom zu diesen Preisen ab. Man erkennt bereits heute, dass der Exportpreis je höher ist, desto weniger regenerativ erzeugter Strom im Markt ist. Spitzenpreise werden immer in den Vorabendstunden aufgerufen. Da braucht Europa Strom.

Montag, 23.11.2020: Anteil erneuerbare Energieträger an der Gesamtstromerzeugung 40,00 Prozent, davon Windstrom 27,65 Prozent, Sonnenstrom 2,94 Prozent, Strom Biomasse/Wasserkraft 9,41 Prozent. Die Agora-Chartmatrix: Hier klicken.

Kaum Sonnenstrom, weiter sinkende Windstromerzeugung. Vom frühen Morgen abgesehen, sind die Exportpreise insgesamt im grünen Bereich. Weil der grüne Bereich der regenerativen Stromerzeugung immer weniger wird. Die Konventionellen bullern bereits kräftig. Da kommt mir der Gedanke, was wohl ohne Kernkraftstrom ab 2023 geschehen wird. Klar, dann bullern die Fossilen halt mehr. Der CO2-Ausstoß steigt. Das ist mit ein Grund, weshalb die Energiewelt sich schräg lacht. Diese Nachbarn kaufen den überschüssigen Strom. Der Preis ist unter dem Strich etwas höher als gestern.

Dienstag, 24.11.2020: Anteil erneuerbare Energieträger an der Gesamtstromerzeugung 35,93 Prozentdavon Windstrom 23,95 Prozent, Sonnenstrom 2,40 Prozent, Strom Biomasse/Wasserkraft 9,58 Prozent. Die Agora-Chartmatrix: Hier klicken.

Mit der erneuerbaren Stromerzeugung mittels Wind- und Sonnenkraft geht es weiter bergab. Langsam, aber sicher. Die Konventionellen legen noch ein Schippchen drauf. Die Preise sind entsprechend noch ein wenig höher als am Montag. So wird es bis Freitag jeden Tag gehen. Mehr konventioneller Strom, weil immer weniger regenerativ erzeugter Strom gleich immer höhere Exportpreise bedeutet. Diese Nachbarn zahlen.

Mittwoch, 25.11.2020: Anteil erneuerbare Energieträger an der Gesamtstromerzeugung 30,54 Prozentdavon Windstrom 17,96 Prozent, Sonnenstrom 2,99 Prozent, Strom Biomasse/Wasserkraft 9,58 Prozent. Die Agora-Chartmatrix: Hier klicken.

Der Niedergang der Wind-/Sonnenstromerzeugung wird offensichtlich. Die konventionelle Stromerzeugung übersteigt die 60 GW fast den ganzen Tag. So sieht sie en Detail aus. Deutschland ab 2030 ohne Kernkraft-, ohne Kohleverstromung: Ja nee, is‘ klaa! Diese Nachbarn zahlen die heute noch etwas höheren Preise.

Donnerstag, 26.11.2020: Anteil erneuerbare Energieträger an der Gesamtstromerzeugung 22,98 Prozent, davon Windstrom 11,18 Prozent, Sonnenstrom 1,86 Prozent, Strom Biomasse/Wasserkraft 9,94 Prozent. Die Agora-Chartmatrix: Hier klicken.

Wacker geht es Richtung ganz wenig Wind- und Sonnenstrom. Dafür erzeugen die Konventionellen weiter ganz viel. Über Tag liegt der Exportpreis bereits sehr oft über 60 €/MWh. Deutschland kassiert. Von diesen Nachbarn. In diesem Zusammenhang möchte ich auf eine Differenz zwischen der Wochenansicht und der Tagesansicht hinweisen. Deshalb gilt meine Ausführung oben nur unter Vorbehalt. Vergleichen Sie bitte.

Freitag, 27.11.2020: Anteil erneuerbare Energieträger an der Gesamtstromerzeugung 17,11 Prozent, davon Windstrom 3,95 Prozent, Sonnenstrom 2,63 Prozent, Strom Biomasse/Wasserkraft 10,53 Prozent. Die Agora-Chartmatrix: Hier klicken.

Der Tiefpunkt „WIND“ ist da. Um 11:00 Uhr müssen konventionell über 66 GW erzeugt werden. Nur deswegen so „wenig“, weil der Sonnenstrom kurz vor Mittag gut 7 GW liefert. Sonst wären es über 73 GW. Die Exportpreise sind richtig hoch. Diese Nachbarn kaufen trotzdem.

Samstag, 28.11.2020: Anteil Erneuerbare an der Gesamtstromerzeugung 25,35 Prozent, davon Windstrom 11,97 Prozent, Sonnenstrom 2,11 Prozent, Strom Biomasse/Wasserkraft 11,27 Prozent. Die Agora-ChartmatrixHier klicken.

Samstag, der Einstieg ins Wochenende bringt etwas mehr Windstrom bei sinkendem Bedarf. Die konventionelle Stromerzeugung kann um die 20% heruntergefahren werden. Deutschland exportiert weiterhin den ganzen Tag Strom. Zu nunmehr im Vergleich zum Vortag wieder geringeren Preisen. Diese Nachbarn kaufen den Strom.

In der vergangenen Woche habe ich die Leser gebeten, mögliche Erklärungen für das Drehen von Windrädern bei Windstille zu geben. Leser Matthias Römer meint dazu:

Vor ein paar Jahren konnte ich so ein Windrad genauer kennenlernen. Es war eine ältere 500kW-Anlage und ein windiger, aber nicht stürmischer Tag. Man konnte an einem Messgerät im Schaltschrank die genaue aktuelle Einspeiseleistung beobachten. Es waren an diesem Tag etwa 100kW. Gleichzeitig konnte man sehen, wie stark und schnell doch diese Einspeiseleistung schwankt. Für mich war das auch die Bestätigung, dass im Durchschnitt so eine Windmühle etwa nur 20% (onshore) bis 37% (offshore) der maximal möglichen Leistung (Nennleistung) einspeist. Der Betreiber zeigte uns auch, wie die Windmühle ab- und wieder angeschaltet wird. Beim Einschalten mussten die Rotoren erst auf eine gewisse Drehzahl kommen, bis dann der erzeugte Strom mit dem Netz synchronisiert und anschließend zugeschaltet wurde. Der Schaltschrank und damit die Steuerung wird übrigens vom Netz versorgt. Ohne Netz kann man nach meiner Meinung die Windmühle nicht einschalten. Trotz vorhandenem Wind ist die Anlage also nicht schwarzstartfähig, es fehlt ja auch die Netzfrequenz zum Synchronisieren.  Zusammengefasst würde ich auf die Frage antworten, es ist auf der Höhe der Rotoren nicht ganz windstill und diese drehen sich einfach leer mit. Es muss nur die Reibung überwunden werden. Erst bei mehr Wind werden sie „eingekuppelt“ und können dann Energie ins Stromnetz einspeisen.

Hat vielleicht noch der eine oder andere Leser Erfahrungen und/oder Wissen über diesen Bereich? Es geht zum Beispiel auch das Gerücht, dass mit Diesel betriebene Generatoren Windkraftanlagen „anwerfen“.

Noch Fragen? Ergänzungen? Fehler entdeckt? Bitte Leserpost schreiben! Oder direkt an mich persönlich: stromwoher@mediagnose.de Aber bitte immer höflich. Ist klar, nicht wahr? Alle Berechnungen und Schätzungen durch Rüdiger Stobbe nach bestem Wissen und Gewissen, aber ohne Gewähr.

Die bisherigen Artikel der Kolumne Woher kommt der Strom? mit jeweils einer kurzen Inhaltserläuterung finden Sie hier.

Rüdiger Stobbe betreibt fast fünf Jahre den Politikblog  www.mediagnose.de

Ordnen Sie Deutschlands CO2-Ausstoß in den Weltmaßstab ein. Zum interaktiven CO2-Rechner: Hier klicken. Noch Fragen? Ergänzungen? Fehler entdeckt? Bitte Leserpost schreiben! Oder direkt an mich persönlich: stromwoher@mediagnose.de. Alle Berechnungen und Schätzungen durch Rüdiger Stobbe nach bestem Wissen und Gewissen, aber ohne Gewähr.

Die bisherigen Artikel der Kolumne Woher kommt der Strom? mit jeweils einer kurzen Inhaltserläuterung finden Sie hier.




CO2-Koalition: „Anomalien der globalen mittleren Temperatur: wie man sie berechnet und warum sie irreführend sind“

Hier die Executive Summary dieser Studie:

Anomalien der globalen mittleren Temperatur: wie man sie berechnet und warum sie irreführend sind

Richard S. Lindzen und John R. Christy

Es ist eine Ehre für die CO2-Koalition, diese Studie zum Thema „Climate Issues in Depth“ von zwei der angesehensten und profiliertesten Atmosphärenphysiker Amerikas vorzustellen, dem emeritierten MIT-Professor Richard Lindzen, seit vielen Jahren Mitglied der Koalition ist, und Prof. John Christy von der University of Alabama in Huntsville.

Professor Lindzen hat in seiner fünf Jahrzehnte währenden Karriere über 200 wissenschaftliche Artikel und Bücher veröffentlicht. Er hatte Professuren an der University of Chicago, der Harvard University und dem MIT inne. Er ist Mitglied und Preisträger der American Meteorological Society und der American Geophysical Union. Er ist auch Mitglied der National Academy of Science und war einer der Hauptautoren des 3. IPCC-Zustandsberichtes. Seine Forschung hat die wissenschaftlichen Unsicherheiten über die Auswirkungen von Kohlendioxidemissionen auf Temperatur und Klima im Allgemeinen aufgezeigt.

Professor Christy, der Direktor des Earth System Science Center an der University of Alabama in Huntsville, begann 1987 mit der Untersuchung globaler Klimafragen. Seit 2000 ist er Staatsklimatologe von Alabama und seit 2002 Mitglied der American Meteorological Society. Zusammen mit dem Mitglied der CO2-Koalition Dr. Roy W. Spencer entwickelte und pflegt er einen der wichtigsten globalen Temperaturdatensätze, auf den sich Wissenschaftler und Regierungsstellen stützen, wobei er Mikrowellendaten verwendet, die seit 1979 von Satelliten in der Troposphäre beobachtet wurden. Für diese Leistung wurde ihnen die Medal for Exceptional Scientific Achievement der NASA verliehen.

In diesem Beitrag soll erläutert werden, wie der Datensatz, der von politischen Entscheidungsträgern und den Medien als globale Aufzeichnung der Oberflächentemperatur bezeichnet wird, tatsächlich erstellt wird und wo er sich in das mit dem Klimaalarm verbundene populäre Narrativ einfügt.

Executive Summary

Im Mittelpunkt der meisten Diskussionen über die globale Erwärmung steht die Aufzeichnung der Anomalie der globalen mittleren Oberflächentemperatur – oft etwas irreführend als Aufzeichnung der globalen Mitteltemperatur bezeichnet. Dieses Papier befasst sich mit zwei Aspekten dieser Aufzeichnung. Erstens stellen wir fest, dass diese Aufzeichnung nur ein Glied in einer ziemlich langen Kette von Folgerungen ist, die zu der behaupteten Notwendigkeit einer weltweiten Reduzierung der CO2-Emissionen führt. Zweitens untersuchen wir die Auswirkungen der Art und Weise, wie die Aufzeichnung konstruiert und präsentiert wird, und wir zeigen, warum die Aufzeichnung irreführend ist.

Dies liegt daran, dass die Aufzeichnung oft als eine Art einzelne, direkte instrumentelle Messung behandelt wird. Wie jedoch der verstorbene Stan Grotch vom Laurence Livermore Laboratory vor 30 Jahren feststellte, handelt es sich in Wirklichkeit um den Mittelwert weit verstreuter Stationsdaten, bei denen die tatsächlichen Datenpunkte fast gleichmäßig zwischen hohen positiven und negativen Werten verteilt sind.

Der Mittelwert ist einfach die kleine Differenz dieser positiven und negativen Ausschläge, mit dem üblichen Problem, das mit kleinen Unterschieden großer Zahlen verbunden ist: Zumindest bis jetzt wird der Anstieg des globalen Mittelwertes um ein Grad Celsius seit 1900 durch die normalen Schwankungen an einzelnen Stationen überlagert und hat daher wenig Bezug zu dem, was an einer bestimmten Station tatsächlich vor sich geht.

Die Veränderungen an den Stationen verteilen sich um den globalen durchschnittlichen Temperaturanstieg von einem Grad. Selbst wenn eine einzelne Station diesen Anstieg selbst registriert hätte, würde dies dort eine typische Jahrestemperaturspanne von z.B. -10 bis 40 Grad im Jahr 1900 annehmen und sie durch eine Spanne von heute -9 bis 41 Grad ersetzen. Für Menschen, Pflanzen und Wetter an dieser Station wäre es schwierig, diesen Unterschied zu erkennen.

Auf den Diagrammen, die in fast allen Präsentationen verwendet werden, sieht der Anstieg jedoch signifikant aus, da sie den Bereich der ursprünglichen Datenpunkte auslassen und den Maßstab erweitern, um die mittlere Veränderung groß erscheinen zu lassen.

Die Aufzeichnung zeigt zwar gewisse beständige Trends, aber sie weist auch starkes Rauschen auf, und Schwankungen von einem oder zwei Zehntelgraden sind wahrscheinlich nicht signifikant. Im öffentlichen Diskurs wird den Größenordnungen wenig Aufmerksamkeit geschenkt; der Schwerpunkt liegt vielmehr darauf, ob diese Anomalie zu- oder abnimmt. Angesichts des Rauschens und der Abtastfehler ist es recht einfach, eine solche Mittelwertbildung zu „adjustieren“ und sogar das Vorzeichen eines Trends von positiv auf negativ zu ändern.

Die üblichen Präsentationen unterdrücken das Rauschen oft durch die Verwendung von laufenden Durchschnittswerten über Zeiträume von 5 bis 11 Jahren. Eine solche Verarbeitung kann jedoch auch sinnvolle Merkmale unterdrücken, wie z.B. die großen Schwankungen, die bei den einzelnen Stationen immer wieder auftreten. Schließlich zeigen wir die großen natürlichen Temperaturschwankungen, mit denen die Amerikaner in 14 Großstädten jedes Jahr zurechtkommen müssen. So reicht beispielsweise der durchschnittliche Unterschied zwischen dem kältesten und dem wärmsten Moment eines jeden Jahres von etwa 25 Grad Celsius in Miami bis zu 55 Grad in Denver. Dem steht der leicht zu bewältigende Anstieg der globalen Mitteltemperaturanomalie um 1,2 Grad Celsius in den letzten 120 Jahren gegenüber, der in den Medien und in politischen Kreisen für so viel Beunruhigung gesorgt hat.

CO2-coalition

Die ganze Studie steht hier (PDF).

Hier noch ein Auszug aus den concluding remarks:

Tatsächlich entspricht die in Abbildung 7 als alarmierend dargestellte globale Temperaturänderung von 1,2 Grad Celsius in den letzten 120 Jahren nur der Dicke der „mittleren“ Linie in Abbildung 9. Wie die Abbildung zeigt, reicht der Unterschied der Durchschnittstemperatur von Januar bis Juli in diesen Großstädten von knapp zehn Grad in Los Angeles bis fast 30 Grad in Chicago. Und der durchschnittliche Unterschied zwischen den kältesten und wärmsten Zeitpunkten im Jahr reicht von etwa 25 Grad in Miami bis zu 55 Grad in Denver.

Hier diese Abbildung 7:

Und hier Abbildung 9:

Ich denke, ein noch besserer Weg, die Aufzeichnung der Anomalie der globalen mittleren Oberflächentemperatur in den richtigen Kontext zu stellen, besteht darin, sie im gleichen Maßstab wie ein gewöhnliches Haushaltsthermometer darzustellen:

Anomalie im Vergleich zum Thermometer. Oh, wo, oh, wo ist mein kleiner HadCRUT4 hin?

In der Darstellung über 0 °C auf HadCRUT4 ist bei 15 °C auf dem Thermometer die ungefähre mittlere Oberflächentemperatur auf der Erde aufgetragen. Beide Thermometer haben einen Schwankungsbereich von 80 °C.

Link: https://wattsupwiththat.com/2020/12/08/co2-coalition-the-global-mean-temperature-anomaly-record-how-it-works-and-why-it-is-misleading/

Übersetzt von Chris Frey EIKE




Corona-Daten zum 07.12.2020. Nirgends ist die berichtete, besonders hohe „Übersterb­lichkeit“ zu finden

Aktuelle Corona-Berichterstattung

Wenn man der Berichterstattung und unseren Politikern glauben möchte, „rast“ Deutschland auf eine Covid-Katastrophe zu. Vor allem steigen die Sterbezahlen immer schlimmer. Bereits aktuell gilt die Sterberate als „unzumutbar“:

Bild 1 Screenshot vom 03.12.2020

Handelsblatt online, 06.12.2020: „Es braucht jetzt konsequentes Vorgehen“, sagte Söder der „Bild am Sonntag“. „Wir können die hohen Todeszahlen in Deutschland nicht hinnehmen. Die Ansteckungszahlen sind weiterhin zu hoch.

Der Spiegel 06.12.2020: Corona: Bayern ruft erneut Katastrophenfall aus

Bild 2 Screenshot

Die statistischen Zahlen zum 07.12.2020

Seit wann hat Deutschland wirklich so etwas wie eine „Übersterblichkeit?

Interessant ist dazu eine Sterbezahlengrafik des Statistischen Bundesamtes mit den Sterbewerten seit 1950. Danach steigen die Sterbezahlen seit 2005 kontinierlich an (Anmerkung: Die Grafik ist nicht Einwohnerzahl-bereinigt).
Von 2005 bis 2019 hat die Anzahl jährlich Vertorbener insgesamt um ca. 130.000 Fälle zugenommen, bei fast gleich gebliebener Einwohnerzahl (2005: 82,5 Mio.; 2019: 83 Mio.). Das sind zusätzlich 356 Fälle/Tag oder 2.493/Woche.

Bild 3 Deutschland, Verlauf jährliche Sterbefälle-seit 1950. Quelle: Statistisches Bundesamt

Dazu die Sterbefälle zusätzlich mit den Relativwerten, um die Bevölkerungszahl zu berücksichtigen:

Bild 4 Deutschland, Sterbefälle-Verlauf seit 1950. Grafik vom Autor erstellt. Datenquelle: Statistisches Bundesamt

Laut RKI sind im Jahr 2020 bisher 19.434 Personen an, oder eher mit Corona verstorben. Zum Jahresende hochgerechnet können es noch zwischen 20 …. 21.000 Personen werden.

Bild 5 Corona. Stand 07.12.2020

Damit beträgt die diesjährige „Corona“-Sterbezahl ca. 15 % der seit dem Jahr 2005 erhöhten, jährlichen Gesamt-Sterberate. Wobei beachtet werden muss, dass es im Jahr 2020 keine deklarierten Influenza-Fälle gibt, so als wäre die in vergangenen Jahren (zuletzt 2017/2018) hoch-tödliche Grippe mit 25.000 Verstorbenen (Angabe RKI) plötzlich verschwunden.

„Dröselt“ man die Sterbefälle weiter auf, sieht man, dass aufgrund der sich stetig verändernden Alterspyramide vor allem die Sterblichkeit ab 70 jährlich zunimmt. Bei der Altersgruppe ab 70 Jahren sind dies jährlich ca. +200.000 Personen.
Geht man davon aus, dass vom Corona-Versterben vorwiegend diese Altersgruppe betroffen ist, beträgt deren Corona-„Überversterben“ gerade einmal 10 % der typischen, jährlichen, durch die Alterspyramide bedingten Mortalitätssteigerung:

Bild 6 Deutschland Sterbezahlen. Vom Autor erstellt. Datenquelle: Statistisches Bundesamt

Übersterblichkeit

Eine deklarierte Sterblichkeit, welche zu extremen, zusätzlichen Maßnahmen Anlass gibt, sollte man annehmen, ist erst gegeben, wenn die Sterberate die der gängigen – und bisher nie zu Sondermaßnahmen führenden – Grippewellen erheblich überschreitet. Und das muss sich in der Gesamt-Sterberate – und nicht nur in Zuweisungen von Sterbezahlen auf eine bestimmte Krankheit – auch zeigen.
Allerdings ist das nicht Konsens, denn das Statistische Bundesamt behauptet, eine Übersterblichkeit wäre bereits gegeben, wenn der Mittelwert der vorhergehenden, letzten vier Jahre (bereits geringfügig) überschritten ist. Wie es auf diese Definition kommt (und damit noch schlimmere Grippejahre davor ausblendet) wird nicht erklärt.
Die sich daraus (bewusst) ergebenden, unterschiedlichen Aussagen zeigen die folgenden Grafiken.

Zuerst das Bild des Sterbeverlaufs, wie ihn das Statistische Bundesamt auf ihrer Homepage darstellt

Bild 7 Verlauf Sterbezahlen auf der Homepage. Quelle: Statistisches Bundesamt

Diese Darstellung ist ganz bewusst angelegt. Warum zeigt sich in den folgenden, anhand der gleichen Daten erstellten Grafiken:

Bild 8 Verlauf Sterbezahlen von Bild 7 mit den Einzeljahren. Grafik vom Autor erstellt. Datenquelle: Statistisches Bundesamt

Kopiert man die 5 Jahre nicht parallel in eine Jahresscheibe, sondern stellt den gesamten Zeitverlauf in einer Linie dar, relativiert sich das schlimme Corona-Pandemiejahr auf das, was es ist: Vollkommen unspektakulär.

Bild 9 Verlauf absolute Sterbezahlen von Bild 8 in der jährlichen Reihenfolge (den fehlenden Dez. 2020 in Rot weitergeführt). Grafik vom Autor erstellt

Das bleibt auch so wenn man die Jahre vergleichend aufsummiert:

Bild 10 Verlauf Sterbezahlen von Bild 7 als jährliche Summierung. Grafik vom Autor erstellt.

Nach diesen Grafiken gewinnt man den Eindruck, dass viele „Corona-Verstorbene“ auch ohne Corona verstorben wären. Denn sonst müssten sie ja in den Grafiken als zusätzliche Mengen deutlich erkennbar werden. Zumindest der Autor kann dies aber nicht feststellen.

Zur Erinnerung nochmals ein Vergleich „üblicher“ Sterbezahlen von „Pandemien“ die damals als „normal“ empfunden wurden und zu keinerlei politischen Maßnahmen führten (Anmerkung: Doch, es wurde ein Pandemie-Strategieplan erstellt, der als er gebraucht wurde sofort versagte):
Corona 10.12.2020 20.460 (an oder mit) Corona Verstorbene.
Spiegel, 20.04.2020: Historische Pandemien Als die Grippe in Nachkriegsdeutschland wütete
Bis zu 50.000 Westdeutsche sowie einige Tausend Ostdeutsche fielen der sogenannten Hongkong-Grippe zwischen 1968 und 1970 zum Opfer 
(Zufügung: Auf die heutige Einwohnerzahl hochgerechnet: ca. 67.000) … Die andere – die sogenannte Asiatische Grippe – hatte rund zehn Jahre zuvor 30.000 Menschen (Zufügung: Auf die heutige Einwohnerzahl hochgerechnet: ca. 39.000) in Bundesrepublik und DDR dahingerafft …
Lungenärzte im NetzWährend der letzten großen Grippe-Epidemie von 1995/96 mit etwa 8,5 Millionen Erkrankungsfällen starben allein in Deutschland ca. 30.000 Menschen an den Folgen der Influenza ...
Ärzteblatt.de, 30. September 2019
Berlin – Die außergewöhnlich starke Grippewelle 2017/18 hat nach Schätzungen rund 25.100 Menschen in Deutschland das Leben gekostet.

Fallzahlen im Corona-Hotspot, Stadt Fürth

Dieses beschauliche Städtchen ist inzwischen ein Corona-Hoch-Risikogebiet. Warum, weiß niemand, denn lange passierte dort fast nichts. Aber Nichtwissen ist bei Corona immer noch Standard.
Corona in Zahlen: Die rechnerische Letalitäts- oder Todesrate (gemessen in Todesfällen durch Infektionen) ist derzeit am höchsten in den folgenden Landkreisen:
Tirschenreuth mit 7,63%
Odenwaldkreis mit 5,41%
Straubing mit 5,35%
Wolfsburg mit 5,34%
Fürth mit 4,43%

Nun eine Betrachtung zur Corona-Mortalität in einem solchen Hochrisiko-Hotspot:

Bild 11 Stadt Fürth. Verlauf der Corona-Fallzahlen. Beachten: „aktuell Erkrankte Fälle“ sind Tageswerte. „Todesfälle“(Orange)/“Wieder Gesund“ sind kumulierte Werte. Quelle kosy

03. Juni: Summe Todesfälle: 37
29. Okt: Summe Todesfälle: 38
08. Dez.: Summe Todesfälle: 55

Dazu die Tabelle der aktuellen Fallzahlen:

Bild 12 Stadt Fürth. Corona-verstorben gesamt 55 Personen, davon 53 ab 70 Jahre alt. Abfrage 08.12.2020. Quelle: kosy

Nun der Vergleich Infektionen (Fallzahl) und Mortalität. Deutlich erkennbar verläuft die „zweite Welle“ gegenüber der ersten im Mortalitätsgeschehen mehr als wesentlich „glimpflicher“.

Bild 13 Stadt Fürth, Verlauf Corona-Infektionen und –Todesfälle. Grafik vom Autor durch übereinander kopieren erstellt. Quelle: Corona-in-Zahlen.de

Dazu der statistische Vergleich mit „Standard-“ Mortalität:
Deutschland
Jahr 2018: Einwohnerzahl: 82,8 Mio. Einschl. KW 49 verstorben: 897.408 Personen.
Davon waren über 70 Jahre alt: 765.980 Personen (anteilig 85,4 % der Verstorbenen)
Fürth
Einwohnerzahl: 128.500. Davon statistisch im Jahr 2018 bis einschl. KW 49 verstorben: 1.392 Personen, über 70 Jahre alt: 1.188 Personen .
2020 einschl. KW 49 an Corona verstorben: 55 Personen (davon 53 ab70 Jahren).
Der Corona-Anteil beträgt somit bisher ca. 4,63 % der statistischen Gesamt-Sterbezahl der über 70-Jährigen.

Intelligente Lösungen

Die unfehlbare Merkel ist unter dem üblichen Jubel der Medien wieder damit durchgekommen, rein emotionale Brachialmaßnahmen durchzusetzen, deren Wirkung – die Fallzahlen steigen trotzdem – außer den schlimmen Folgen kaum erkennbar bleibt. Der nur noch nachäffende Landesvater Söder hat sie (weil sie ja kein Ergebnis zeigen), sofort nochmals verschärft, da ihm die „Erziehung“ seiner Untertanen besonders am Herzen liegt. Fachlich beraten lässt er sich dabei von einem Corona-Ethikrat, dem eine ehemalige Regional-Bischöfin vorsteht.

Dabei zeigt der im Gegensatz zur GRÜNEN Führungsriege oft mit intelligenten Ansätzen aneckende – und deshalb immer wieder kurz vor dem Parteirauswurf stehende – Bürgermeister von Thüringen schon seit längerem, wie Lösungen aussehen können:

Tagesspiegel 09.12.2020: Boris Palmer über Tübingens Corona-Sonderweg: „Wir haben zuletzt bei den über 75-Jährigen keine Fälle mehr“

In Tübingens Klinik gibt es kaum Corona-Patienten. OB Palmer erklärt, mit welchen Maßnahmen die Älteren in der Pandemiegeschützt werden. Ein Interview.

Wir haben uns zum Ziel gesetzt, die Älteren besonders zu schützen, weil für sie die Gefahr durch Corona mit Abstand am höchsten ist. Deswegen haben wir im September damit begonnen, das Personal in den Altenheimen regelmäßig zu testen.

Im Oktober haben wirSchnelltestsgekauft, seither werden Besucher und Bewohner regelmäßig getestet.

So ist es uns gelungen, das Eindringen des Virus in die Alten- und Pflegeheime in unserer Stadt bisher vollständig zu verhindern. Wir haben insgesamt eine niedrige Sieben-Tage-Inzidenz, die letzten drei Wochen lag die um die 100 Fälle pro 100.000 Einwohner. Bei den über 75-Jährigen haben wir zuletzt überhaupt keine Fälle mehr gehabt. Deshalb hat auch unsereUni-Klinik nur sehr wenige Corona-Patienten.

Sie sagen, es gebe bei den über 75-Jährigen keine Fälle. Gilt das nur für die Altersheime oder auch für Alte, die noch zu Hause wohnen?

Bei den Menschen in den Heimen hatten wir gar keine Fälle. Aber auch die Mitarbeiter der mobilen Pflegedienste werden regelmäßig getestet, so dass wir das Einschleppen des Virus in die Privatwohnungen der Alten verhindern konnten.

Artikel, die einem ganz aktuell erscheinen, aber schon Jahre alt sind

Der mediale „Beschuss“ mit Pandemie-Fallzahlen und immer neuen, schlimmeren Darstellungen lässt meinen, so etwas wäre wohl einzigartig – deshalb die erforderlichen, extremen Maßnahmen – und früher noch nie vorgekommen.

Die folgenden Artikel sind schon alt und älter, erschienen aber in „schöner“ Regelmäßigkeit. Man fragt sich, warum unsere Politik damals keine Notstände ausgerufen hat.
Der Tagesspiegel 09.01.2000:
Krankenhäuser überfüllt – Patienten liegen auf Pritschen in den Gängen
Nach Großbritannien und Deutschland hat die Grippewelle jetzt auch Italien erreicht. Die Krankenhäuser in Mailand, Florenz und Venedig sind nach Presseberichten vom Sonntag derart überfüllt, dass praktisch keine Betten mehr frei sind. In vielen Hospitälern müssten die Kranken auf Pritschen auf den Gängen liegen. In Mailand war es über Stunden nicht möglich, einen Krankenwagen zu rufen: Patienten, die im Krankenhaus keine Aufnahme fanden, blockierten die Einsätze. Die Zeitung „La Repubblica“ meldete, allein in Turin seien zehn ältere Menschen an den Folgen der Virusgrippe gestorben. Derzeit würden 250 000 Fälle pro Woche registriert. Dabei sei der Höhepunkt der Grippewelle erst Ende Januar zu erwarten. Man rechne mit bis zu acht Millionen Kranken … In Deutschland nimmt die Zahl der Fälle ebenfalls zu. Vor allem Baden-Württemberg, Bayern und Thüringen sind betroffen …
Welt 19.02.2013: Grippewelle hat Köln fest im Griff
In Köln werden nicht nur die Betten auf den Intensivstationen knapp – auch die Blutkonserven werden weniger. Grund dafür ist die grassierende Grippe.
Bettenknappheit in Kölner Krankenhäusern. Aufgrund der vielen Grippekranken sind die Intensivstationen komplett überfüllt. Zeitweise sind die Krankenhäuser sogar so überlastet, dass sie keine neuen Patienten mehr aufnehmen können. Operationen müssen aufgrund der angespannten Lage verschoben werden.
Gegenüber der „Kölnischen Rundschau“ sagte der Chef der Anästhesie und Intensivstation in Hohenlind, dass zeitweise elf von 14 Intensivbetten mit Infektionspatienten belegt waren. Grund dafür ist nicht nur das Influenza-Virus, sondern auch ein aggressives Virus, das Atemwegserkrankungen bis hin zum Lungenversagen verursacht. Infolge dessen müssen die – meist älteren – Betroffenen zum Teil beamtet werden.
… Grippewellen seien nichts Ungewöhnliches, sagt Anne Bunte gegenüber Welt online. Saisonal würden sie immer wieder auftreten.
SZ
13. Februar 2015:Vor dem Kollaps
Alarmstimmung in Bayerns Kliniken: Der Patientenansturm ist so groß, dass die Notaufnahmen an vielen Häusern aktuell völlig überlastet sind. „Momentan ist die Situation – auch durch die Grippewelle – extrem angespannt, wir stehen mit dem Rücken zur Wand“, sagt Günter Niklewski, der Ärztliche Direktor des Klinikums Nürnberg. „Voll, voll, alles voll“, sagt er bei seiner Rückkehr aus der Notaufnahme, „wir kommen derzeit an die Kante von dem, was noch geht.“ Niklewski steht mit diesem Problem nicht alleine, selbst in der Landeshauptstadt München, die über mehr Versorgungsangebote verfügt, geraten immer mehr Häuser an ihre Kapazitätsgrenze und melden sich in der Rettungsdienstleitstelle ab – Botschaft: „Wir haben kein Notfallbett mehr.“
Ärzteblatt 7. Februar 2017: Grippewelle sorgt für überlastete Kliniken
Nachdem die Grippewelle in Frankreich bereits für eine Überlastung der Krankenhäuser und zu verschobenen Operationen geführt hat, scheint die Grippewelle nun auch die ersten Kliniken in Deutschland zu treffen. Bereits gestern hatte das Städtische Krankenhaus in Görlitz Patienten vorerst abweisen müssen. Nun klagen die Notaufnahmen mehrerer Kliniken in Nürnberg und München über Überlastung
„Es ist extrem schwierig im Moment. Uns ist keine vergleichbare Situation in dem Ausmaß aus den vergangenen Jahren bekannt.“ Der Bayerische Rundfunk hatte zuerst über die Engpässe berichtet.
Immer wieder müssten Kliniken in Nürnberg ihre Notaufnahmen zeitweise schließen, sagte Reißmann. Teils müssten Patienten auf Krankenhäuser in Erlangen und im Nürnberger Land verteilt werden. „Die Rettungswagen sind derzeit lange unterwegs, bis sie die Patienten unterbringen.“
nordbayern.de 22.02.2018: Grippe-Welle grassiert: Krankenhäuser sind überlastet Zahl der Influenzafälle in der Region steigt immer weiter an
NÜRNBERG – Die diesjährige Grippewelle hat die Region jetzt mit voller Kraft erfasst. Etliche Krankenhäuser können schon keine Influenza-Patienten mehr aufnehmen. Viele Kliniken haben sich wegen voller Betten bereits von der Rettungsleitstelle abgemeldet …

Es bleibt nur die Schlussfolgerung übrig: Damals gab es keine Bilder aus Bergamo mit medienwirksam, auf einem langen Militär-Lastwagenkorso abtransportierten Särgen. Meldungsarten, auf die unsere Kanzlerin (und deren höfische Umgebung) grundsätzlich mit panischen Entscheidungen reagiert.
Es ist also angebracht, weiterhin daran zu zweifeln, dass in Berlin (und leider auch in Bayern) von Vernunft getrieben entschieden wird.

Der GRÜNE Bürgermeister von Tübingen hat es gerade treffend beschrieben: Tagesspiegel, 08.12.2020: … Die Berlinerinnen und Berliner sind einer aktuellen Umfrage zufolge ziemlich unzufrieden mit dem Krisenmanagement des Berliner Senats. Können Sie das verstehen?
Da steht mir kein Urteil zu, aber ich habe ja schon mal gesagt, was ich als Privatmensch denke, wenn ich nach Berlin komme: Vorsicht, Sie verlassen jetzt den funktionierenden Teil Deutschlands …

 




Einige interessante Fakten zu Covid in Schweden

Eine Tabelle von besonderem Interesse in diesen Pandemiezeiten ist die wöchentliche Sterblichkeitsrate, und noch interessanter ist sie, wenn wir sie mit den Statistiken des Worldometer Covid vergleichen.

Ich stütze die Statistiken auf Berichte vom 5. Dezember, mache aber am 15. November einen Cutoff, um Fehler wegen spät gemeldeter Todesfälle zu vermeiden. Den Informationen des SCB zufolge treten bei Daten, die älter als zwei bis drei Wochen sind, keine wesentlichen Änderungen auf. Wir können daher die Daten bis zum 15. November als vertrauenswürdig betrachten.

Abbildung 1: Worldometer vom 5. Dezember mit Aufzeichnungsende am 15. November

Abbildung 2: Gesamtzahl der Todesfälle pro Tag in Schweden bis zum 15. November. Die Zahlen für 2020 sind violett, die grüne Linie zeigt die Durchschnittszahlen von 2015 bis 2019 und die rote Linie die Zahlen für 2020, wenn die gemeldeten Covid-Todesfälle subtrahiert werden.

Laut Worldometer, siehe Abbildung 1, hatte Schweden bis zum 15. November 6405 Corona-Todesfälle. Das sind etwa 600 Todesfälle pro Million Bürger, womit Schweden zu den am stärksten betroffenen Ländern wie Großbritannien, Frankreich und den USA zählt.

Wie wir in Abbildung 2 sehen, sind die überzähligen Todesfälle durch Covid von Mitte März bis Juni deutlich sichtbar, und wir sehen auch den Beginn einer zweiten Welle ab Mitte Oktober.

Hier kommt jedoch der interessante Teil, die überhöhte Sterbeziffer für 2020 im Vergleich zum Durchschnitt der Jahre 2015 bis 2019 beträgt nur 3570. Das sind nur 56% der Covid-Todesfälle, die von Worldometer im gleichen Zeitraum gemeldet wurden.

Der Grund dafür ist, dass die Sterbeziffer für 2020 sowohl vor der ersten Welle als auch in der Zeit zwischen den beiden Covid-Wellen unter dem Durchschnitt liegt. Die tatsächlichen Zahlen von SCB vor, während und nach der ersten Covid-Welle sind in der folgenden Tabelle dargestellt:

Die Tabelle basiert auf Zahlen des SCB. Wir sehen, dass 2020 sowohl vor als auch nach der ersten Covid-Welle eine niedrigere Sterblichkeitsrate aufweist als der Durchschnitt der Jahre 2015 bis 2019.

Teile dieser Anomalie können rein zufällig sein. Zum Beispiel war die Grippesaison 2019-2020 in Schweden besonders leicht.

Man kann darüber spekulieren, ob die beunruhigenden Pandemieberichte Anfang dieses Jahres genügend Menschen dazu veranlasst haben könnten, besonders vorsichtig mit Infektionen umzugehen, und damit auch eine geringere Ausbreitung der Grippe verursacht haben, aber das kann weit hergeholt sein.

Schwedens Chefepidemiologe Anders Tegnell wies darauf hin, dass die milde Grippesaison mitverantwortlich für die relativ hohe Covid-Todesrate zu Beginn der Pandemie sei. Mehr der am stärksten gefährdeten Personen überlebten die schwache Grippesaison, was bedeutet, dass Schweden mit einer höheren Anzahl gefährdeter Personen als normal in die Covid-Pandemie eintrat.

Er mag zwar Recht haben, aber dennoch werden die überzähligen Todesfälle im Jahr 2020 voraussichtlich groß genug sein, um die Lebenserwartung im ganzen Land um 0,3 Jahre zu senken. In der Region Stockholm wird die Lebenserwartung um schätzungsweise 1,2 Jahre zurückgehen, von 83,7 Jahren auf 82,5 Jahre.

Irreführende Worldometer-Statistiken

Ein weiterer interessanter Aspekt ist, dass die Worldometer-Statistik für Schweden in den letzten Tagen immer einen Einbruch zeigt. Der Grund dafür ist, dass es eine Verzögerung bei der Berichterstattung gibt, so dass die gemeldeten Zahlen für die letzten Tage viel zu niedrig sind. Dies wird in den beiden folgenden Abbildungen veranschaulicht.

Die Worldometer-Grafiken vom 21. November zeigen einen Rückgang nach dem 9. November. Dieser Rückgang ist künstlich und durch die späte Berichterstattung verursacht.

Das Worldometer vom 5. Dezember zeigt, dass die Todesrate nach dem 9. November weiter gestiegen ist.

Es ist noch zu früh, um zu sagen, ob die Rate nach dem 24. November ebenfalls weiter gestiegen ist.

Diese beiden Diagramme veranschaulichen, wie leicht wir uns von Statistiken täuschen lassen können, und das kann gefährlich sein, denn wir sind auf gute Statistiken angewiesen, um die richtigen Entscheidungen zu treffen.

Beispielsweise verwenden die Behörden die Zahlen für die Zahl der Neuinfizierten als Instrument, um die Beschränkungen, die die Reproduktionsrate R senken, entweder zu verschärfen oder zu lockern. Ziel ist es, R unter 1,0 zu halten. Ich bin ziemlich sicher, dass die Entscheidungsträger in der Regierung über diese Verzögerung Bescheid wissen, aber die Öffentlichkeit vielleicht nicht, und das beeinflusst, wie ernst wir die Situation nehmen.

Worldometer ist eine universell genutzte Website, und viele Laien suchen sie für ihre Länder auf. Wenn die Statistik für die letzten Tage einen Rückgang zeigt, werden viele denken: „Gott sei Dank, es ist vorbei, jetzt können wir nachlassen“.

Das ist vielleicht nicht der Fall.

References:

SCB: https://www.scb.se/hitta-statistik/sverige-i-siffror/manniskorna-i-sverige/doda-i-sverige/

Worldometer: https://www.worldometers.info/coronavirus/country/sweden/

Link: https://wattsupwiththat.com/2020/12/07/some-interesting-facts-about-covid-in-sweden/

Übersetzt von Chris Frey EIKE




Wie Politik Forschungsfreiheit versteht

Politische Ereignisse, Verkündungen und Maßnahmen prasseln nieder auf uns Bürger in vielfältiger Weise. Um sie alle gebührend wahrzunehmen, zu verfolgen und zu beurteilen, ist die dafür nötige Zeit häufig nicht sofort verfügbar. So geht es mir unter anderem mit der „Bonner Erklärung zur Forschungsfreiheit“. Sie verdient es, nachträglich noch einmal aufgegriffen zu werden. Unterzeichnet haben die Erklärung (s.u.) Bundesforschungsministerin Anja Karliczek und einige ihrer EU-Amtskollegen am 20. Oktober 2020 in Bonn. Sie verpflichten sich darin, die Freiheit der Wissenschaft und den kritischen Diskurs vor staatlichen Eingriffen zu schützen.  Weitere Staaten sollen sich der Erklärung anschließen oder haben es schon getan. Sie kommt daher mit wohlklingendem Inhalt. Die Forschungsfreiheit wird politisch vollmundig beschworen. Doch lässt sie unerwähnt, wo das Gegenteil geschieht, zumal in Deutschland, und Politik die Forschungsfreiheit massiv verletzt. Die Verlogenheit ist unübersehbar. Wie Politik Forschungsfreiheit versteht und verletzt, zeigt Dietmar Ufer**) in einem Gastbeitrag mit Beispielen auf. Von mir schließt sich eine Ergänzung an. Die Zwischenüberschriften in Ufers Beitrag  eingefügt habe ich.

Gedanken zur „Bonner Erklärung zur Forschungsfreiheit“

Von Dietmar Ufer

Nachfolgende Gedanken sind zwar von allgemeiner Bedeutung, werden jedoch aus dem Gesichtswinkel eines ehemals auf dem Gebiet der Energiewirtschaft tätigen Forschers und seinen langjährigen Erfahrungen formuliert. Bei der „Bonner Erklärung zur Forschungsfreiheit“ handelt sich um ein Papier mit grundsätzlich richtigen und notwendigen Forderungen, die eigentlich für die Europäische Union oder Deutschland als selbstverständlich anzusehen sind und daher keiner weiteren Hervorhebung durch ein offizielles, von Ministern unterschriebenes, Dokument bedürften.

Verletzte Forschungsfreiheit in der Kernreaktortechnik und Klimatologie

Jedoch weiß jeder in der Forschung Tätige, dass die Forschungsfreiheit tatsächlich immer wieder verletzt wird. Beispielsweise wird sie eingeschränkt durch Verteilung von staatlichen Fördermitteln, deren Vergabe vorab in Abhängigkeit von politischen Zielstellungen entschieden wird. So wird die Entwicklung der Kernreaktortechnik in Deutschland staatlich verhindert oder Forschungen in der Klimatologie werden nur dann gestützt, wenn sie der Bestätigung eines anthropogenen Klimawandels und dem Ziel der „Dekarbonisierung“ dienen. Wissenschaftler mit kritischer Haltung zu einem staatlich vorgegebenen Meinungsbild werden von Politikern und Medien öffentlich diskriminiert.

Unerwünschte Forschung als Desinformation dargestellt

Im Papier fehlt eine gründliche selbstkritische Analyse des tatsächlichen Standes der Forschungsfreiheit (wenigstens in Deutschland). Stattdessen wird allgemein auf ihre Verletzungen „weltweit und auch in Europa“ verwiesen. Zweimal wird gefordert, der „verzerrten Darstellung von Fakten und Desinformationskampagnen entgegenzuwirken“. Dabei wollen die Wissenschaftsminister als Unterzeichner der Erklärung „unsere Wissenschaftsorganisationen“ (die zumeist von der öffentlichen Hand leben) dabei „unterstützen“. Letztlich entscheiden also Regierungen darüber, was „verzerrte Fakten“ und „Desinformationskampagnen“ sind, nicht etwa die Forscher selbst mit ihren „fundierten wissenschaftlichen Erkenntnissen und Ansichten“, die „transparent ermittelt werden und widerlegbar sind“.

Von der Regierungsansicht abweichende Forschung wird gebrandmarkt als „Fake“

Besonders deutlich wird das in der Klimaforschung, in der jede von der Regierungssicht abweichende Meinung als „Fake“ gebrandmarkt wird. Einige „Wissenschaftsorganisationen“, die sich auf diesem Gebiet betätigen, tragen entscheidend dazu bei, die Forschungsfreiheit zu behindern – de facto gibt es sie in Deutschland auf diesem Gebiet nur noch eingeschränkt im privaten Rahmen. Bundesforschungsministerin Karliczek selbst demonstrierte ihre Sicht auf die Forschungsfreiheit, indem sie erklärte: „Wir sind auf die Wissenschaft angewiesen, wenn wir zum Beispiel den Klimawandel begrenzen wollen…“. Entgegen wissenschaftlich begründeter Forschungsergebnisse vertritt sie hier – ausgerechnet im Zusammenhang mit der „Forschungsfreiheit“ – die Meinung, dass nach Milliarden Jahren Klimawandel der Mensch ihn beenden könne!

Der Zusammenhang zwischen Forschungsfreiheit und Demokratie

Wiederholt wird in dem Papier auf den Zusammenhang zwischen Forschungsfreiheit und Demokratie hingewiesen. Es wird erklärt, dass ein „ein kritischer Diskurs keine Illoyalität bedeutet, sondern einen wesentlichen Bestandteil einer demokratischen Gesellschaft darstellt.“ – Wenn aber die Demokratie nicht nur ein Aushängeschild in der wissenschaftlichen Meinungsbildung sein soll, dann muss der demokratischen Öffentlichkeit auch die Möglichkeit gegeben werden, sich über bestimmte Forschungserkenntnisse zu informieren, und zwar objektiv, nicht ausschließlich aus einer einzigen Sicht.

Abweichende Meinungen werden ignoriert, deren Vertreter diskriminiert

Das ist – wenigstens in Deutschland – nicht der Fall! Nicht nur auf den Gebieten Klimatologie und Energetik werden in allen Massenmedien ausschließlich regierungsamtliche Auffassungen vertreten – abgesehen von gelegentlichen kritischen Leserbriefen. Davon abweichende Meinungen werden ignoriert und deren Vertreter diskriminiert. Vom „Mainstream“ abweichende Forschungsergebnisse können nur ausnahmsweise in privat finanzierten Schriften oder im Internet veröffentlicht werden. Ein offener Meinungsaustausch – sowohl auf der Ebene der Forschung als auch in der interessierten Öffentlichkeit – findet nicht statt.

Forscher, die von politischen Dogmen abweichen, finden kein Gehör

Seit Jahren wird in den Massenmedien immer wieder verkündet: „Der Mensch ist für den Klimawandel verantwortlich“, „Die Emission von Kohlendioxid ist schädlich und muss möglichst komplett eingestellt werden“ oder „Die Energieversorgung kann komplett mit sog. erneuerbaren Energien erfolgen“. Kein Forscher findet Gehör, der von diesen Dogmen abweichende Meinungen vertritt – er erhält keine staatlichen Fördermittel und wird von keinem TV-Sender oder einer großen Zeitung eingeladen, seine Meinung darzustellen und zu beweisen.

Was die Forschungsminister bedenken sollten

Man kann sich der „Bonner Erklärung“ nur anschließen, wenn sie erklärt: „Wir verurteilen alle Verletzungen der Forschungsfreiheit aufs Schärfste und setzen uns mit Nachdruck dafür ein, diese zu verhindern.“ Vielleicht müssten die Forschungsminister den Inhalt ihrer „Bonner Erklärung“ einmal selbstkritisch beleuchten. Dabei sollten sie bedenken, dass „ein kritischer Diskurs … einen wesentlichen Bestandteil einer demokratischen Gesellschaft darstellt“. Die Forscher jedenfalls hierzulande würden einen solchen ministeriellen Lernprozess mit Interesse verfolgen.

Politiker, die sich Forscher wie Schoßhündchen halten wollen

Soweit der Beitrag von Dietmar Ufer.

Den Wortlaut der Bonner Erklärung finden Sie hier. Zu dieser Erklärung hat Bundesforschungsministerin Anja Karliczek eine Pressemitteilung ihres Hauses verfassen lassen (hier). Bezeichnend dafür, wie diese Politikerin Forschungsfreiheit versteht, ist darin dieser Satz: „Wir verurteilen alle Versuche, Forschungsfreiheit einzuschränken. Das gilt auch für Angriffe gegen Wissenschaftler aus einigen Teilen der Gesellschaft, wie dies leider auch in der Corona-Pandemie verstärkt zu beobachten ist.“ Forscher also, die zu anderen, aber politisch nicht genehmen Aussagen kommen, beschränken die Freiheit jener Forscher, die Politiker sich wie Schoßhündchen halten wollen. Absolut irre.

Missliebige Forschungsergebnisse werden niedergemacht als „verzerrt“ und „populistisch“

In der Bonner Erklärung selbst lautet ein ebenso entlarvender Satz: „Zur Verteidigung der Wissenschaftsfreiheit gehört es auch, populistisch motivierter Faktenverzerrung den Boden zu entziehen.“ Im Klartext: Forschung, die der Bundesregierung und den Regierungen anderer EU-Staaten nicht genehm ist, wird als „populistisch“ hingestellt und als nicht erlaubt – oder verharmlosend in Merkel-Sprache: als nicht hilfreich. Und das Darstellen von Fakten, die politisch missliebig sind, wird abwertend niedergemacht als „verzerrt“.

Wie Ministerin Karliczek Wissenschaftsfreiheit politisch verdreht

Der Deutschlandfunk hat am 22. Oktober 2020 (hier) berichtet: „Laut Karliczek ist die Wissenschaftsfreiheit weltweit, aber auch in Europa gefährdet. Forscherinnen und Forscher würden ‚auf das Übelste beschimpft, denunziert und bedroht‘, sagte die CDU-Politikerin. Dadurch sollten sie ‚mundtot‘ gemacht werden, ‚weil ihre Aussagen dem Meinungsbild derer, die sie angreifen, widersprechen‘. Die Gesellschaft sei aber auf die Wissenschaft angewiesen – zum Beispiel beim Klimaschutz oder um die Corona-Pandemie in den Griff zu bekommen. Staaten müssten die Forschungsfreiheit respektieren, Gesellschaften Forscherinnen und Forscher verteidigen.“ So wird Wissenschaftsfreiheit politisch verdreht.

Forschungsfreiheit politisch gedrosselt, nicht geschützt

Oder anders übersetzt: Forschungsfreiheit sollen nur jene genießen, die in ihrer Forschung dem allgemeinem Meinungsbild (sprich: dem von Politik und Medien bestimmten Mainstream) folgen. Wer forschend dem nicht entspricht und zu anderen Forschungsergebnissen kommt, dem wird die Forschungsfreiheit nicht zugestanden. Die Forschungsfreiheit wird politisch also gedrosselt, nicht geschützt. Gefährdet, da hat Ministerin Karliczek recht ist die Forschungs- und Wissenschaftsfreit in der Tat, aber nicht durch jene unbotmäßigen Forscher, sondern durch die Politik und Politiker wie Karliczek selbst. Sie agieren wie der Dieb, der „Haltet-den-Dieb“ in die Menge ruft, um von sich und ihrem Vergehen auf andere abzulenken..

____________________________________________________________

*) Dr. rer. oec. Ing. Dietmar Ufer  ist Energiewirtschaftler und Gründungsmitglied des Europäischen Instituts für Klima und Energie (EIKE). Von 1970 bis 1998 hat er im Institut für Energetik in Leipzig als stellvertretender Direktor und Bereichsleiter für Energie und Ökologie gearbeitet. Sein  Beitrag stammt vom 23. Oktober 2020. Sein  Beitrag stammt vom 23. Oktober 2020.

„Bonner Erklärung“

Pressemitteilung von Anja Karliczek

Der Beitrag erschien zuerst auf dem Blog des Autors hier




Wie und warum NASA und NOAA Klimadaten manipulieren

Dieselben Klima-Alarmisten behaupten auch, dass Realisten „von Interessen fossiler Brennstoffe finanziert werden“ und daher verdächtige Motive haben. Nach Ansicht der Alarmisten sind Realisten nicht daran interessiert, Fakten und objektive Wahrheiten zu verbreiten, da ihre eigentliche Absicht darauf ausgerichtet sein muss, irgendeine Art von Vermögensinteresse zu schützen.

Sind diese beiden Argumente wirklich fundiert? Wenn ja, sollten sie dann nicht auch auf Alarmisten angewandt werden?

Was würde mit der Stichhaltigkeit der Argumente der Alarmisten geschehen, wenn sie tatsächlich diejenigen sind, die es versäumen, „der Wissenschaft zu folgen“? Was wäre, wenn ihre Motive weniger in der „Rettung des Planeten“ als vielmehr in der Arbeitsplatzsicherheit liegen würden? Was ist, wenn die Hüter der „Wissenschaft“ – die National Aeronautics and Space Administration (NASA) und die National Oceanic and Atmospheric Administration (NOAA) – die Klimadaten fälschen, und was ist, wenn die Quelle ihrer Finanzierung dieses Verhalten in einzigartiger Weise fördert?

Tony Heller hat über seine Website RealClimateScience.com schlüssig nachgewiesen, dass sowohl die NOAA als auch die NASA zumindest in den letzten 30 Jahren ihre Daten verändert und verfälscht haben, um das Narrativ zu untermauern, dass das vom Menschen verursachte CO2 die Temperatur der Erde beeinflusst. (Siehe Heller, „Wie die US-Temperaturaufzeichnungen verändert werden, Teil 1-3“).

Heller hat zum Beispiel überzeugend gezeigt, wie die NASA ihre ursprünglichen Temperaturdaten so verändert hat, dass die Temperatur für die Jahre 1905 bis 1940 gesenkt und die Daten für die Jahre 1940 bis 2010 angehoben wurden, wodurch künstlich ein klarer Aufwärtstrend der Temperatur über den gesamten Zeitraum erzeugt worden ist, während die ursprünglichen, unveränderten Daten tatsächlich einen Abkühlungstrend zeigen.

Heller wies auch nach, wie die „Wissenschaftler“ der NOAA ebenfalls zu der gleichen Schlussfolgerung des Erwärmungstrends gekommen sind. Doch während die NASA die vorhandenen Daten einfach angepasst hat, hat die NOAA sie noch einfacher erfunden.

In einem bestimmten Zeitraum gibt es eine Reihe von Wetterstationen, die keine Daten melden. Für diese Stationen, die keine Daten melden, „schätzt“ die NOAA die Daten mit Hilfe eines geheimen, selbst erstellten Algorithmus. Im Jahr 1950 „schätzte“ die NOAA nur 5% der fehlenden Stationen. Bis 2015 war die Zahl der geschätzten Stationen auf 48% gestiegen! Es ist für die NOAA nicht schwierig, eine Trendlinie zur Untermauerung ihrer Theorie zu zeichnen, wenn die Hälfte des Datensatzes selbst hergestellt wurde.

[Hervorhebung vom Übersetzer].

Weder die NOAA noch die NASA haben die Kritik von Tony Heller abgestritten, weil sie es nicht können. Die Zahlen sprechen für sich selbst. Stattdessen sind die NOAA und die NASA mit beiden Beinen auf den menschengemachten politischen Zug der globalen Erwärmung gesprungen – zur Hölle mit den Fakten.

Dann stellen sich also zwei offensichtliche Fragen: Warum sollten die NOAA und die NASA dies tun, und wie tun sie es? Lassen Sie uns zunächst untersuchen, warum.

Als US-Regierungsbehörden werden sowohl die NOAA als auch die NASA vollständig über den jährlichen Haushalts der [US-]Bundesregierung finanziert. Meine erste Begegnung mit diesem Verfahren fand statt, als ich von Präsident George W. Bush zum Administrator (CEO) der St. Lawrence Seaway Development Corporation – einer Bundesbehörde – ernannt worden war. Da ich mein ganzes Leben in der Privatwirtschaft verbracht hatte, war ich mit den Messgrößen vertraut, mit denen sie die Leistung und den Erfolg von Organisationen misst: Bilanz, Gewinn- und Verlustrechnung, Gewinn und Verlust, Börsenkurs, Verschuldungsgrad und so weiter.

Als es darum ging, die Leistung einer Bundesbehörde zu messen, erwartete mich eine Überraschung. Keine dieser Kennzahlen für den privaten Sektor war hier anwendbar. Keine davon wurde auch nur als relevant betrachtet. Es gab nur eine Kennzahl, die Erfolg oder Misserfolg misst. Das heißt, erhielt die Agentur die jährlichen Mittel, die sie von den Finanzausschüssen des Repräsentantenhauses und des Senats beantragt hatte?

Das war alles. Es gab keine Bilanz, Gewinn- und Verlustrechnung oder irgendeine andere gebräuchliche finanzielle Messgröße. Es zählte nur ein Maßstab: was für ein Stück des vom Steuerzahler finanzierten Kuchens erhielt die Agentur jährlich vom Kongress.

Ich habe schnell gelernt, dass hierbei hart – zeitweise sogar rücksichtslos – gekämpft wurde. Um erfolgreich öffentliche [Steuer-]Gelder zu erlangen, würden die Agenturen alles tun, alles sein und alles sagen, um dem Kongress politisch attraktiv zu erscheinen.

Das bedeutet, dass jede Bundesbehörde ständig ihr Fähnchen anch dem politischen Wind ausrichtet. Jede erfolgreiche Agentur ist in der Lage, die geringste Veränderung des politischen Windes zu erkennen. Dabei spielt es keine Rolle, ob die Behörde schlampig geführt wird, antiquiert ist oder sich stümperhaft und stolpernd ihren Weg durch den Bürokratie-Wald bahnt. Wenn es ihr gelingt, den Kongress von ihrem politischen Nutzen zu überzeugen, dann wird ihrem Haushaltsantrag stattgegeben, und das Überleben der Agentur ist gesichert.

Dies führt zu der unverrückbaren Tatsache, dass das Arbeitsergebnis jeder Bundesbehörde, einschließlich derer, die für die Erhebung von Klimadaten zuständig sind, hochgradig politisiert ist. Jede. Einzelne. Eine. Das unveränderliche Gesetz des bürokratischen Überlebens verlangt es.

NASA- und NOAA-„Wissenschaftler“ sind keine ideologisch neutralen Forscher, die in einem Vakuum leben. Sie existieren nicht in einem Elfenbeinturm der Datenreinheit. Sie sind Bürokraten, die bürokratische Interpretationen von Klimadaten vornehmen, und ihre Meinungen werden durch den institutionellen Imperativ des Gehorsams gegenüber politischen Notwendigkeiten eingerahmt. Jeder NOAA- oder NASA-Mitarbeiter, der es wagt, die vorherrschende Parteilinie in Frage zu stellen, würde seine Karriere beenden und Selbstmord begehen.

Dies erklärt, warum NOAA und NASA Klimadaten fälschen. Wie sie das tun, lässt sich an der Behandlung der täglichen Temperaturdaten durch die NOAA ablesen.

Das Ablesen von Temperaturaufzeichnungen scheint ein ziemlich unkomplizierter Prozess zu sein, nicht wahr? Falsch.

Zuerst müssen die Wetterstationen ausgewählt werden, deren die Daten man aufzeichnen will. Die „Ausreißer“ werden verworfen – ebenso die „Duplikate“. Dann müssen wie schon erwähnt die Daten der nicht meldenden Stationen „geschätzt“ werden. Aber das ist noch nicht alles. Als nächstes kommt die Anpassung der „Tageszeit“. Es scheint einen Unterschied zu machen, ob die Ablesung am Morgen oder am Nachmittag vorgenommen wurde.

Dann gibt es Anpassungen für den städtischen Wärmeinseleffekt – die Tatsache, dass das Gelände um viele der älteren Stationen bebaut, gepflastert oder anderweitig verändert wurde, so dass künstlich Wärme erzeugt wird, was die Temperaturmessungen verzerrt. Dann gibt es Anpassungen für verschiedene „Typen“ von Temperaturdaten. Um NOAA zu zitieren, „einige sind 175 Jahre alt und einige sind nur 1 Stunde alt“. Und: „Die Daten müssen „homogenisiert“ und „synthetisiert“ werden.

Vielleicht erfasst diese Aussage der NOAA am besten die außerordentliche Menge beurteilender Entscheidungen, welche die Sammlung von Temperaturdaten umgibt: „Diese Daten werden einer Qualitätskontrolle unterzogen und sind möglicherweise nicht mit den ursprünglichen Beobachtungen identisch“.

Das ist es. Qualitätskontrolle. Der geheime Brei der NOAA, der üppig auf alle ihre Temperaturbeobachtungen angewandt wird. Die Geschichte, warum und wie die NOAA und die NASA Daten manipulieren, läuft darauf hinaus: „Diese Daten sind qualitätskontrolliert und möglicherweise nicht mit den ursprünglichen Beobachtungen identisch. Die Klimaverlautbarungen und -bestimmungen der NOAA und der NASA sind keine „Wissenschaft“ – eine objektive Wahrheit. Sie sind geheim-bürokratische Interpretationen von Dutzenden von Klimadatenpunkten, die dazu dienen, eine Schlussfolgerung zu stützen, die den Finanzierungsimperativen der Agentur förderlich ist.

Und das ist die Wahrheit.

Autor: Collister Johnson has spent the last four decades working in the public and private sectors in Virginia, primarily in the fields of project finance and maritime transportation. He began his career in public service as Chairman of the Board of the Virginia Port Authority. He was appointed by President George W. Bush, and confirmed by the Senate, as a member of the Overseas Private Investment Corporation, and most recently, as Administrator of the St. Lawrence Seaway Development Corporation. In that capacity, he became knowledgeable in the field of climate and its impact on the Great Lakes. He currently serves on CFACT’s Board of Advisors. Johnson holds a B.A. degree from Yale University, and a J.D. from the University of Virginia.

Link: https://www.cfact.org/2020/12/02/why-and-how-nasa-and-noaa-manipulate-climate-data/

Übersetzt von Chris Frey EIKE




Klimapolitik: Die Selbstgefälligkeit der Klimaschützer

Sie erzählen, die Armen hätten am meisten zu leiden unter dem Klimawandel. Und sie glauben das auch, weil sie der Überzeugung sind, dass die Armen in 50 oder 100 Jahren immer noch genauso arm sein werden wie heute und nicht wie wir ein von allem Unbill des Wetters geschütztes Leben führen können. Und sie sind deshalb davon überzeugt, weil sie sich nichts Schlimmeres vorstellen können, als dass all die Chinesen und Afrikaner unser Wohlstandsniveau erreichten. Weil dadurch doch ganz bestimmt der Planet ruiniert würde.

Fehlinformation über die Waldbrände

Nicht Klimawandel, sondern „Klimaschutz“ führt schon heute zu regionalen Katastrophen. Maßnahmen zum Küstenschutz oder zur Brandprävention werden unterlassen, da man ja hinterher bequem den Klimawandel dafür verantwortlich machen kann. Ein gutes Beispiel sind die Brände, die 2019 ein großes Thema waren. Alexander Held, Forstwissenschaftler vom European Forest Institute mit Schwerpunkt Waldbrandmanagement, sieht die Ursache klar bei Defiziten im Brandmanagement.

Er verweist darauf, dass es seit den 1980er Jahren deutliche Hinweise und Warnungen aus den australischen Forstbehörden gegeben hat, weil die verfügbare Vegetation als Brennmaterial für einen Waldbrand oder einen Vegetationsbrand Ausmaße angenommen hätten, die, „wenn sie denn brennen, Klimawandel hin oder her, so viel Energie freisetzen, dass sie nicht zu bekämpfen sind. Diese Feuer“, so Held, „die wir jetzt sehen, haben vor 20 Jahren begonnen zu brennen, im übertragenen Sinne, weil man zu wenig investiert hat in die Prävention und in das Landmanagement und in die Forstwirtschaft, um die Brandlast so weit zu verringern, dass auch unter extremen Wetterbedingungen die Feuer nicht so intensiv werden können.“

Die Australier wissen genau, wie man durch kontrolliertes Abbrennen dafür sorgt, dass keine großen Feuer entstehen können, und haben das früher auch so praktiziert. Dass man es nicht mehr tut, hat offenbar vor allem (umwelt)politische Gründe. Das Gleiche gilt grundsätzlich für die Brände in Kalifornien, wo die Hollywood-Stars natürlich nur eine Ursache kennen: die Klimakatastrophe. Wer angesichts der Brände in Sibirien, Kalifornien, Brasilien oder Australien laut nach mehr Klimaschutz (durch CO2-Reduktion) ruft, ist mit schuld daran, dass wegen Missachtung der wahren Ursachen auch in Zukunft große Brandkatastrophen passieren werden. (1)

„Klimaschutz“ führt schon heute zu regionalen Katastrophen“

„Schon heute sind mehr als 800 Millionen Menschen unterernährt“, lesen wir in der Zeit in einem Artikel, der uns unter der Überschrift „Kinder, macht Euch auf was gefasst“ auf die vielfältigen Schrecken des Klimawandels hinweisen möchte. Was soll das bedeuten? Dass die Temperatur erst um ein Grad gestiegen ist und schon hungern 800 Millionen Menschen? Tatsächlich ist die Zahl der hungernden Menschen in den letzten Jahrzehnten massiv gesunken. 1970 waren rund 35 Prozent der Menschen in Entwicklungsländern unterernährt, heute sind es noch knapp 13 Prozent.

Und die, die unterernährt sind, sind dies nicht wegen des Klimawandels und noch nicht einmal wegen eines Mangels an Nahrungsmitteln, sondern weil sie zu arm sind, sich diese zu kaufen. Das ist ein Missstand, den das marktschreierische Warnen vor dem Klimawandel verschleiert und letztlich befördert, weil im Namen des Klimas Wachstum in armen Ländern gebremst wird und damit Armut und Hunger erhalten werden. Über fünf Millionen Kinder unter fünf Jahren sterben jedes Jahr. Sehr wenige davon an den Folgen des Klimawandels. Aber rund 800.000 an Lungenentzündung, über 500.000 an Durchfallerkrankungen, 350.000 an Malaria (siehe hier).

Klimawandel wird inzwischen für alle Probleme dieser Welt verantwortlich gemacht. Im Umkehrschluss wird suggeriert, alle Probleme dieser Welt könnten durch „Klimaschutz“ gelöst werden. Das ist leider überhaupt nicht der Fall. Die Konzentration auf den „Klimaschutz“ verhindert Fortschritte in vielen, sehr viel relevanteren Bereichen: Armut, Seuchen, ja sogar Überflutungen, Waldbrände und so weiter.

Eine Frage der Wissenschaft?

Die neue Klimabewegung frappiert mit der beständig wiederholten Aussage, dass sie selbst nichts zum Thema beizutragen habe und nur eines fordere, nämlich, der Wissenschaft zu folgen:

„Unite behind the Science!“

DIE Wissenschaft produziert aber jährlich viele tausende Arbeiten zu den verschiedensten Aspekten rund ums Klima. Die IPCC-Datenbank umfasst 31 Klimamodelle mit 1.184 Szenarien. Wenn alles geklärt ist, wozu dann diese emsig betriebene, ständig wachsende Forschung? Von all der Forschung nehmen die Aktivisten nur einen verschwindend geringen Ausschnitt zur Kenntnis. Und was sie zur Kenntnis nehmen, stammt vorwiegend von Wissenschaftlern, die sich selbst als Aktivisten betrachten. Das Gleiche gilt für die Medien.

Einer der wenigen, der diese Zustände in der öffentlichen Meinungsbildung kritisiert, ist der Geologe Axel Bojanowski, seit Kurzem Chefredakteur von „Bild der Wissenschaft“ und „Natur“, davor lange Jahre beim Spiegel. Als im November 2019 11.000 Wissenschaftler vor einem „Klimanotstand“ warnten, bezeichnete er dies als „wissenschaftlichen Tiefpunkt“ und konstatierte in Hinblick auf die unkritische bis begeisterte Verbreitung der Warnung durch den Großteil der Medien:

„Dass es viele Umweltwissenschaftler derzeit zu Appellen drängt, mag angesichts des Klimawandels verständlich erscheinen. Uneigennützigkeit braucht dennoch nicht unterstellt werden: Wahrnehmung ist auch in der Forschung die wichtigste Währung – und Politisierung des eigenen Wissens hilft, relevant zu werden. Diese Versuchung ist menschlich, dass ihr aber sogenannte Qualitätsmedien unkritisch nachgeben wie bei der Warnung der 11.000, spottet ihrer Kontrollfunktion.“

An anderer Stelle beklagt er zu recht:

„Bei komplexen Themen (zum Beispiel auch Naher Osten, Finanzkrise und so weiter) konsultieren Journalisten bewährte Experten/Quellen – in Deutschland werden zum Thema Klima meist dieselben vier Experten befragt, tausende andere ignoriert – die meisten Facetten des Themas bleiben außen vor.“

Und weiter:

„Die überwältigende Mehrheit der Professoren, rund 96 Prozent, erhält so gut wie keine Medienaufmerksamkeit. Ihre Abwesenheit sorgt für Verzerrung, denn in die Öffentlichkeit drängen nicht unbedingt jene Gelehrten mit ausgleichendem Gemüt. Vielmehr sind es oft Forscher mit Sendungsbewusstsein oder Karriereinstinkt, die mit starken Thesen den Opportunismus der Journalisten füttern. Diese ‚Media Scientists‘, man könnte sie auch ‚Spin-Doktoren‘ nennen, sind die heimlichen Herrscher der Klimadebatte. Ihre Autorität ziehen sie aus ihrem Status als Wissenschaftler, der ihren Thesen Glaubwürdigkeit sichert. Weil auch Wissenschaftler aber weder interessenlos noch fehlerlos sind, gelangt über die Media Scientists nicht selten ein Spin in die Massenmedien, der den Stand der Wissenschaft verzerrt.“

Ideal der wissenschaftlichen Neutralität nimmt ab

Die Situation in den Redaktionen sehe so aus:

„Journalisten geraten unter Druck – in Deutschland, der Schweiz und Österreich vor allem von einer Seite: Wer den Verdacht auslöst, Risiken des Klimawandels relativieren zu wollen, zieht Kritik auf sich; mancher findet sich gar als namentlich genannter Klimawandelskeptiker in einer Broschüre des Bundesumweltministeriums wieder. Wer hingegen Unsicherheiten der Forschungsergebnisse ignoriert, hat nichts zu befürchten, Protestpost in dieser Hinsicht gilt in Redaktionen meist als reputationsfördernd. Kritische Journalisten hingegen müssen Internetpranger, Online-Petitionen für ihre Entlassung und Beschwerden bei Chefredaktionen über sich ergehen lassen. Einige haben sich deshalb vom Klimathema abgewandt, anderen wurde von Redaktionen das Vertrauen entzogen, sodass sich die Berichterstattung übers Klima zunehmend homogenisiert.“

Zur Dominanz der Media Scientists kommt hinzu, dass insbesondere jüngere Forscher sich immer weniger am Ideal der wissenschaftlichen Neutralität orientieren. In einer Umfrage wurden junge Klimawissenschaftler beziehungsweise Umweltforscher an zwei europäischen und einer chinesischen Einrichtung befragt, was sie für die Hauptaufgabe der Klimawissenschaft halten. Die Europäer sahen diese mehrheitlich in „motivating people to act on climate change“, also der Mobilisierung der Öffentlichkeit. An der chinesischen Universität wurde prioritär der Aspekt „defining the climate problems and attributing causes of climate change“ benannt.

Die Klimaforscherin Judith Curry weist darauf hin, dass die Forschung von Anfang an von der Politik getrieben wurde. Sie schreibt:

„Der Klimavertrag von 1992 wurde von 190 Ländern unterzeichnet, bevor das Gros der wissenschaftlichen Erkenntnisse darauf hindeutete, dass überhaupt ein erkennbarer menschlicher Einfluss auf das globale Klima zu beobachten war. Das Kyoto-Protokoll von 1997 wurde umgesetzt, bevor wir einigermaßen sicher sagen konnten, dass der Großteil der jüngsten Erwärmung durch den Menschen verursacht wurde. Der politische Druck auf die Wissenschaftler, Ergebnisse vorzulegen, die diese Verträge stützen, ist enorm. Das hat zu einem Bestreben geführt, einen wissenschaftlichen Konsens über die Gefahren des menschgemachten Klimawandels zu fabrizieren.“

Null-Toleranz-Politik gegenüber „Klimaleugnern und Skeptikern“

Ein extremes Beispiel des Kampfes für Konformität bietet die hauptsächlich von Universitäten finanzierte Online-Plattform „The Conversation“, auf der Wissenschaftler in kurzen Artikeln allgemeinverständlich über ihre Forschung berichten. Am 17.09.2019 hat der Chefredakteur und Geschäftsführer der Seite mitgeteilt, dass ab sofort auch in den Kommentarspalten keine Beiträge von „Klimaleugnern“ mehr toleriert werden. Er schreibt:

„Die Leugner des Klimawandels und diejenigen, die schamlos Pseudowissenschaft und Fehlinformationen verbreiten, tragen zum Fortbestehen von Ideen bei, die letztendlich den Planeten zerstören werden.“

Deshalb werde man eine Null-Toleranz-Politik gegenüber „Klimaleugnern und Skeptikern“ einführen, Kommentare löschen und die Zugänge der Autoren sperren. Alle Leser werden aufgerufen, zu helfen. Wer eine Fehlinformation entdecke, solle nicht darauf antworten, sondern sie sofort melden.

Trotz aller Bekundungen, die Wissenschaft sei sich einig, und trotz aller hysterischer Abwehr jeder Kritik an den Katastrophenszenarien, können wir heute nur sagen, dass zwar hohe Einigkeit herrscht, dass wir das Klima erwärmen, dass aber keineswegs Einigkeit herrscht, wie schnell dies geschieht, wie schlimm das ist und was man am besten dagegen tun sollte. Die größten Fehlwahrnehmungen dabei, sind die Idee, wir würden bald an Klimawandel sterben („I’m part of Extinction Rebellion because the generation before me will die of old age but my generation will die of climate change“ (2)), die Idee, man könne die Welt auf Basis von Wind- und Sonnenenergie betreiben, die Idee, Lebensstiländerungen könnten auf die Klimaentwicklung einen nichtvernachlässigbaren Einfluss haben, und der Glaube, der Mensch könnte oder sollte nicht die Fähigkeit entwickeln, das Klima gezielt zu beeinflussen.

Den Wandel gestalten

Es ist nicht unwahrscheinlich, dass die Welt bis zum Ende des Jahrhunderts einen weiteren Anstieg des Meeresspiegels um einen halben Meter und der Temperatur um ein bis zwei Grad Celsius oder mehr erlebt. Statt weiter den Weltuntergang zu beschwören, der auch diesmal nicht kommen wird, sollten wir in den nächsten Jahrzehnten die notwendigen Technologien zur CO2-freien Erzeugung beliebiger Mengen von Energie, für eine hoch effiziente und anpassungsfähige Landwirtschaft und zur gezielten Beeinflussung des Klimas weiterentwickeln. Generell sollten wir die Technologien zur Naturbeherrschung so weit entwickeln, dass wir mit jeder Situation umgehen können. Es geht nicht nur um die Abwehr der Erwärmung. Es geht auch darum, größtmögliche Gestaltungsmöglichkeiten für das Klima zu entwickeln.

Die aktuellen Klimarettungsinszenierungen präsentieren sich als Kombination aus Katastrophenbeschwörung und utopischer Hoffnung auf Erlösung durch die sanften Gewalten von Wind, Sonne, Elektroautos und Veggie-Burger. Wir müssen weg von solchen Inszenierungen und dem sie begleitenden Virtue Signalling, hin zu einer von ernsthaftem Wollen und Forschen getragenen Gestaltung der Welt. Unser Ziel sollte es sein, zehn Milliarden Menschen ein Leben in dem Wohlstand zu ermöglichen, wie ihn heute die westliche Mittelschicht genießt. Dafür wird der Energieverbrauch trotz weiterer Effizienzgewinne zweifellos noch deutlich steigen müssen.

Die aktuelle Klimaschutzbewegung scheint durch zwei Gefühle charakterisiert: das durch Scheinheiligkeit erkaufte wohlige Gefühl der moralischen Überlegenheit eines Prince Harry oder Leonardo di Caprio und die ruhmvolle Verzweiflung einer Greta Thunberg. Beide Phänomene sind in vielen Schattierungen weit verbreitet, aber nicht befriedigend. Beschäftigt man sich rational mit der Herausforderung Klimawandel, kann ein drittes Gefühl die Oberhand gewinnen: Zuversicht. Der Kolumnist Harald Martenstein hat es in einfache Worte gefasst:

„Wir haben es geschafft, zum Mond zu fliegen und die Pest zu besiegen, wir schaffen auch den Sieg über das Kohlendioxid, auf die gleiche Weise.“

Dies ist ein Auzug aus dem Buch: „Schluss mit der Klimakrise: Problemlösung statt Katastrophenbeschwörung“ von Thilo Spahl (Hrsg.), 2020, Edition Novo: Frankfurt/Main, hier bestellbar.

Zuerst erschienen bei Novo Argumente und der Achse des Guten.

(Teil 1 finden Sie hier. Teil 2 finden Sie hier. Teil 3 finden Sie hier.)

Weitere Quellen

(1) Weltweit haben Feuer flächenmäßig übrigens von 1998 bis 2015 um 24 Prozent abgenommen. Siehe: „Researchers Detect a Global Drop in Fires“, NASA Earth Observatory online, 30.06.2017.

(2) Video-Clip, zit. n. Paul Dawson, Twitter, 17.11.2019.




Wasserstoff und Kernenergie

 Heute werden über 95% aus fossilen Energieträgern – hauptsächlich aus Erdgas durch Dampfreformierung – und knapp 5% über Elektrolyse als Nebenprodukt z. B. bei der Chlor-Elektrolyse gewonnen. Nachdem sich nun auch bei „Energiewendern“ die Erkenntnis rumspricht, daß man für die Stromproduktion durch Windmühlen Wind benötigt und bei der Photovoltaik zumindest Tageslicht, kommt man auf die Schnapsidee Wasserstoff als Energieträger im großen Maßstab einzusetzen. Die neuen Zauberwörter der Schlangenölverkäufer sind „Wasserstoffwirtschaft“ und „Sektorenkopplung“: Man will nicht nur elektrische Energie während der Dunkelflauten aus Wasserstoff herstellen, sondern ihn auch als Kraftstoff, zur Gebäudeheizung und für alle möglichen industriellen Anwendungen einsetzen. Auf solch eine Kopfgeburt kann nur einer kommen, für den Thermodynamik lediglich ein Wort mir 13 Buchstaben ist.

Hans im Glück

Wasserstoff kommt in der Natur praktisch nur in chemischen Verbindungen (Wasser H2 O, Erdgas CH4 usw.) vor. Diese müssen erstmal geknackt werden um Wasserstoff zu gewinnen. Dazu ist viel Energie nötig. Will man Wasser mittels Elektrolyse zerlegen, benötigt man etwa 4,4 kWh pro Normkubikmeter Wasserstoffgas. Verbrennt man diesen einen Normkubikmeter wieder, kann man nur 3,0 kWh (unterer Heizwert) zurückgewinnen. Geschieht dies in einem modernen Kombikraftwerk (Wirkungsgrad 60%) werden daraus nur 1,8 kWh elektrische Energie zurückgewonnen. Wohlgemerkt, hier wurde noch kein einziger Kubikmeter transportiert oder gespeichert. Beides ist – ob verdichtet oder verflüssigt – nur mit beträchtlichem Energieaufwand möglich. Wie man es auch dreht und wendet, in der Praxis bekommt man nur rund 1/3 zurück – oder anders ausgedrückt haben sich die Stromkosten (ohne jede Investition für die Elektrolyse) schon allein wegen der Umwandlungsverluste verdreifacht.

Man hat uns ja inzwischen beigebracht, daß der Wind – wie schon vorher die Sonne – keine Rechnung schickt. Gleichwohl sind gewaltige Investitionen in die Errichtung von Windparks notwendig. Hinzu kommen noch Betriebs- und Wartungskosten, die ebenfalls nicht gering sind, wie man heute gelernt hat. Alle Kosten müssen jedenfalls durch die Stromerlöse und Subventionen wieder eingebracht werden. Unter Grundlast in einem Netz versteht man die kleinste Leistung die immer anliegt – 24 Stunden am Tag, 7 Tage die Woche. Will man die Grundlast durch Windmühlen abdecken, braucht man dafür etwa die 8–9 fache installierte Leistung. Der Grund ist trivial: Wenn kein Wind weht, wird auch kein Strom produziert, egal wie viele Windmühlen man gebaut hat! Will man in schwachen Zeiten zu füttern, muß man die erforderliche Menge elektrischer Energie vorher produziert haben. In 2019 betrug die Arbeitsausnutzung der Windmühlen in Deutschland 28% (installierte Leistung 53,912 GW, Stromproduktion 131,8 TWh). Leider muß man die hierfür produzierte Energie speichern und bekommt über den Weg Wasserstoff nur etwa 1/3 zurück (siehe oben). Hinzu kommen selbstverständlich noch die Investitionen für die Elektrolyse, die Speicher und das Backup-Kraftwerk. Man könnte es auch anders formulieren: Wer den Menschen vorgaukelt, es wäre eine (wirtschaftliche) Stromversorgung nur mit Wind und Sonne möglich, der lügt. Es ist deshalb kein Zufall, daß alle einschlägigen „Energiewender*Innen“ immer von Zwangsabschaltungen – sprachlich getarnt als „Smart-Meter“ – und Konsum- und Wohlstandsverzicht – sprachlich getarnt als „Energieeffizienz“ – schwadronieren.

Transport und Speicherung

Wasserstoff ist ein Gas mit extrem geringer Dichte: Ein ganzer Kubikmeter wiegt noch nicht einmal 90 Gramm. Es muß deshalb verdichtet oder verflüssigt werden um es überhaupt transportieren und lagern zu können. Wenn man es auf 700 bar verdichtet (Industriestandard für PKW) hat es gerade mal einen Energiegehalt von 1,32 kWh/Liter. Selbst wenn man es durch Abkühlung auf -253°C verflüssigt, beträgt sein Energiegehalt gerade mal 2,34 kWh/Liter. Zum Vergleich: Benzin hat einen Energiegehalt von rund 8,7 kWh/Liter.

Selbst für den Transport in Rohrleitungen oder der Speicherung in Kavernen muß es verdichtet werden. Jede Verdichtung erfordert eine Menge elektrische Energie und ist immer mit erheblichen Verlusten verbunden. Wenn es in Pipelines strömt, entstehen ebenfalls Verluste durch Reibung. Man bevorzugt deshalb für sehr lange Strecken eine Verflüssigung und Tankschiffe. Allerdings werden für die Verflüssigung von Wasserstoff allein rund 35% seiner Energie benötigt. Spätestens hier sollte der geneigte Leser verstehen, warum wir uns in einer Welt von Mineralölen und Erdgas bewegen. Oder anders ausgedrückt, welche brutalen Konsequenzen drohen, wenn wir alle Fahrzeuge auf Wasserstoff umstellen wollen. Das Gerede von „Sektorkopplung“ (Strom aus Wind und Sonne wird benutzt um Kraftstoffe und andere Energieträger herzustellen) ist nur ein weiteres Neusprechwort für „Mobilitätsverzicht“. Ganz davon zu schweigen, daß Deutschland viel zu klein ist, um es mit der erforderlichen Anzahl von Windmühlen zupflastern zu können. Bahnt sich hier schon wieder das „Volk ohne Raum“ an?

Wasserstoff durch Kernenergie

Hat man erst einmal die Konsequenzen des „Grünen Wasserstoffs“ verstanden, ist die Produktion durch vorhandene Druckwasserreaktoren nicht mehr so abwegig. Immer unter der Voraussetzung, man lehnt die Produktion aus fossilen Energieträgern ab. Das erste Argument liefert die Arbeitsausnutzung (Kernkraftwerk 90%, Windmühlen in Deutschland 28%) oder mit anderen Worten, wie viel Wasserstoff man mit einer gegebenen Anlage produzieren kann. Das zweite Argument sind die Energiekosten. Wärmeenergie ist immer billiger als elektrische Energie. Dies ist der Grund, warum heute rund 95% des Wasserstoffs aus Erdgas hergestellt werden. Aber auch bei der Elektrolyse kann man durch erhöhte Temperaturen elektrische Energie einsparen. Bei einem Kraftwerk ist die Auskopplung von Wärme kein Problem. Der Anbau an konventionelle Kernkraftwerke ist hier nur der erste Schritt. Kommen (später) Reaktoren mit höheren Betriebstemperaturen zum Einsatz, wird der Vorteil noch gravierender. In fernerer Zukunft könnten Hochtemperaturreaktoren sogar den Weg über chemische Verfahren (z. B. Jod-Schwefelsäure) gehen.

Das U.S. Department of Energy (DOE) fördert eine Dampf-Elektrolyse-Anlage an einem Kernkraftwerk (wahrscheinlich Prairie Island Nuclear Generating Station von Xcel Energy) in USA mit $13,8 Millionen. Xcel Energy verfügt über einen hohen Anteil von Windenergie mit dem entsprechend stark schwankenden Angebot. Eine Fragestellung soll deshalb sein, ob man Energie aus dem Reaktor auskoppeln kann, ohne diesen bei Windspitzen abregeln zu müssen. Dies wäre damit die erste unmittelbare Kopplung von Wind- und Kernenergie bei einem Versorger. Böse Zungen könnten auch sagen: Eine den Markt verzerrende Subvention der Windenergie soll durch Subventionen bei einem vorhandenen Kernkraftwerk geheilt werden.

Ein zweites Förderprogramm des DOE über $12,5 Millionen unterstützt die Kooperation von FuelCell Energy of Danbury mit dem Idaho National Laboratory. Ziel ist die Entwicklung von Festkörper-Elektrolyse-Zellen mit hohem Wirkungsgrad und geringen Kosten als 200 bis 500 MW Module zur Nachrüstung bei Kernkraftwerken. Es soll der Wechsel zwischen Wasserstoffherstellung und Stromproduktion demonstriert werden, um Kernkraftwerken ein zweites wirtschaftliches Standbein zu erschließen.

Ausblick

Im Jahr 2019 wurden weltweit 69 Millionen to Wasserstoff in Raffinerien und Düngemittelfabriken verbraucht. Der Markt ist also vorhanden. Allerdings wird nur sehr wenig Wasserstoff über größere Entfernungen transportiert. Wegen der bekannten Transportschwierigkeiten wird er unmittelbar in der Nähe der Verbraucher erzeugt. Es gibt allerdings bedeutende regionale Pipeline-Systeme z. B. in den USA an der Golfküste, die verschiedene Chemiezentren untereinander verbinden. In dieser Region ist ein bedeutender Ausbau für „Blauen Wasserstoff“ geplant. Dabei wird der aus den reichlich vorhandenen Erdgasvorkommen über Dampfreformierung gewonnen. Das dabei anfallende CO2 ist beileibe kein Abfall, sondern kann an die Ölproduzenten in dieser Region verkauft werden. Ein doppeltes Geschäft wird möglich: Einsparung von CO2 – Abgaben und zusätzliche Ölförderung aus bereits erschöpften Quellen. Damit ist auch klar, warum die Erdgasindustrie immer ein Förderer der „Alternativ-Energien“ war und ist. Man weiß sehr genau über die Dunkel-Flauten bescheid. Erdgas ist der Energieträger, der mit den geringsten Investitionen Backup-Kraftwerke erlaubt – jede Windmühle und jeder Sonnenkollektor bedeutet also zusätzlichen Absatz. Es gibt momentan auch kein Henne-Ei-Problem: Man kann den Absatz an Wasserstoff schnell durch Beimischung zum Erdgas steigern. Es laufen bereits Verhandlungen über neue Spezifikationen. Es scheint möglich, bis zu 20% Wasserstoff ohne große Modifikationen an den Pipelines und Verbrauchern unter mischen zu können. Auch hier wird klar, wer größtes Interesse an der Einführung von CO2 – Abgaben hat.

Der Beitrag erschien zuerst auf dem Blog des Autors hier



KLIMANOT­STAND? NEIN DANKE!

Einleitung und Problemstellung

Der Begriff „Klimanotstand“ wird einerseits als Zustandsbeschreibung verwendet: Der anthropogene Klimawandel wäre mittlerweile so weit fortgeschritten und so bedrohlich, dass dadurch auch einschneidende Gegenmaßnahmen mit höchster Priorität gerechtfertigt wären. Es gäbe eben einen Notstand. Andererseits wird unter der „Erklärung des Klimanotstandes“ (oder „Ausrufung des Klimanotstandes“) ein offizieller Beschluss einer Verwaltung (Exekutive) oder eines Parlamentes (Legislative) verstanden, der a) diesen Zustand als gegeben feststellt und b) Regierungen und Verwaltungen beauftragt, Maßnahmen zur Reduzierung der anthropogenen CO2-Freisetzungen auszuarbeiten, die wesentlich über die bisher beschlossenen Maßnahmen hinausgehen.

Die erste deutsche Kommune, die offiziell den „Klimanotstand“ erklärt hat, war Konstanz im Mai 2019. Seither sind viele andere Städte und Gemeinden und auch einige Bundesländer diesem Beispiel gefolgt. Auf europäischer Ebene haben mehrere Staaten und auch das EU-Parlament den Klimanotstand ausgerufen. Die Bewegung „Fridays for Future“ fordert, den „Klimanotstand“ überall auszurufen.

Im Buch „Probleme beim Klimaproblem – Ein Mythos zerbricht“, /1/, hat der Autor dieses Beitrages gezeigt, dass es dafür keine wissenschaftlich gesicherte Basis gibt. Entgegen der weit verbreiteten Meinung gibt es beim „Klimaproblem“ gerade keinen wissenschaftlichen Konsens. Von der Zielsetzung, welches Klima wir überhaupt anstreben sollen, über das Ausmaß und die Geschwindigkeit der anthropogenen Klimaänderungen, über den Einfluss anderer Verursacher, bis hin zu den Erfolgsaussichten der vorgeschlagenen Abhilfemaßnahmen, überall gibt es noch viele und wichtige offene Fragen. Solange die nicht geklärt sind, ist ein „Klimanotstand“ prinzipiell nicht gerechtfertigt. Abklären, welcher Weg der richtige ist, sollte wichtiger sein, als mit Scheuklappen unbeirrt auf einem möglicherweise falschen Weg voranzuschreiten.

Vielleicht noch wichtiger ist die Basis-Frage: Woher kommt denn überhaupt das viele CO2 in der Atmosphäre? Hat das tatsächlich der Mensch verursacht? Dieser Problembereich ist die eigentliche Grundlage aller Klimadiskussionen. Nur wenn die Einschätzung „menschengemacht“ stimmt, nur dann kann die anthropogene CO2-Freisetzung das Klima verändern, vielleicht sogar katastrophal verändern, was allerdings umstritten ist, siehe gerade. Wenn die Einschätzung „menschengemacht“ aber nicht stimmt, dann gibt es nur noch zwei Möglichkeiten:

  1. Entweder ist CO2 tatsächlich klimabestimmend. Dann bestimmt überwiegend nicht anthropogen freigesetztes CO2 unser Klima! Eine Reduktion der anthropogenen Freisetzungen hat dann keinen nennenswerten Einfluss.
  2. Oder irgendetwas Anderes und nicht das CO2 bestimmt das Klima. Dann sind die anthropogenen CO2-Freisetzungen erst recht nicht schuld am Klimawandel!

Welche der beiden Möglichkeiten auch immer zutrifft, wenn der Mensch nicht schuld an der CO2-Zunahme ist, dann ist er auch nicht schuld an der Erwärmung und dann entfällt auch jede Berechtigung für den Klimanotstand. Also sollte eine Klärung der Herkunft des vielen CO2 in der Atmosphäre höchste Priorität haben.

In der Wissenschaft wird diese Frage allerdings nur selten thematisiert. Zu klar scheint die Antwort zu sein: Wenn wir Menschen sogar doppelt so viel CO2 freisetzen, als sich in der Atmosphäre ansammelt, dann ist dieser Anstieg „selbstverständlich“ menschengemacht. Aber so einfach ist das nicht. Im Buch „Abgesagt! Dem Klimanotstand bricht die Basis weg“, /2/, untersucht der Autor dieses Beitrages genau diese Frage sorgfältig, mit einem klaren Ergebnis: Es ist nicht der Mensch! Die Untersuchungen und Ergebnisse werden hier in verkürzter Form zusammengefasst und zur Diskussion gestellt. Für nähere Details sie auf /2/ verwiesen.

Zusammenfassung

Weitgehend unbestritten ist, dass vor dem Eingriff durch den Menschen etwa 280 ppm CO2 in der Atmosphäre vorhanden waren und jährlich etwa ein Viertel davon umgewälzt wurde, was eine mittlere Verweilzeit der CO2-Moleküle von etwa 4 Jahren ergibt. Unbestritten ist auch, dass die Konzentration heute etwa 410 ppm beträgt und jährlich um ca. 2 ppm weiterwächst, während gleichzeitig ca. 4 ppm/a anthropogen freigesetzt werden.

Umstritten ist dagegen die zusätzliche Annahme von IPCC, dass das vorindustrielle Gleichgewicht prinzipiell unverändert weiterbesteht und nur durch die hinzugekommenen anthropogenen Freisetzungen als einzige Änderung überlagert wird, wobei etwa die Hälfte dieser Freisetzungen langfristig in der Atmosphäre verbleibt, im Gegensatz zum natürlich freigesetzten CO2, das komplett sehr schnell wieder ausgeschieden wird. Auf Basis dieser Annahme aber schließt IPCC, dass die Störungszeit, die den Abbau von zu vielem CO2 in der Atmosphäre beschreibt, mehrere Jahrhunderte lang ist und der gesamte Anstieg der CO2-Konzentration in der Atmosphäre seit 1750 anthropogen ist. Daraus wiederum leitet IPCC die Forderung ab, die anthropogenen Freisetzungen schnellstmöglich vollständig einzustellen. Anderenfalls wären schwerwiegende Klimakatastrophen unvermeidbar. Die Ausrufung des Klimanotstandes soll dieser Forderung Nachdruck verleihen.

In dieser Arbeit hier wird gezeigt, dass dieser grundsätzliche Ansatz von IPCC mit der Physik nur schwer zu vereinbaren ist und zu falschen Schlüssen führt. Die wichtigsten Argumente sind:

  • Weil alle CO2-Moleküle gleich sind und weil die Atmosphäre gut durchmischt ist, müssen alle Moleküle sich auch gleich verhalten. Insbesondere auch zeitlich: Es kann nicht eine Gruppe länger in der Atmosphäre verbleiben als eine andere Gruppe!
  • Die Entnahme von CO2 aus der Atmosphäre (die Entnahme insgesamt, nicht die Netto-Entnahme unter Gegenrechnung der Freisetzungen, die ist im Gleichgewicht definitionsgemäß null) richtet sich immer nach der Konzentration in der Atmosphäre. Sie muss heute also um rund 50 % höher sein als vor Beginn der industriellen Revolution. Sie muss daher insgesamt um ungefähr 40 ppm/a gewachsen sein. Woher die erhöhte Konzentration kommt, ist dafür belanglos.
  • Wenn die Konzentration heute um 2 ppm/a zunimmt, dann muss die Freisetzung sogar um 2 ppm/a stärker gewachsen sein als die Entnahme (jeweils Summe aller Beiträge). Die 4 ppm/a der anthropogenen Freisetzungen langen bei weitem nicht, es muss eine (erhebliche!) weitere Quelle geben! Welche das ist, kann so nicht ausgesagt werden. Aber die allgemeine Erwärmung war auf jeden Fall daran beteiligt, was auch immer sie ausgelöst hat.
  • Weil die Entnahme von CO2 aus der Atmosphäre von der Konzentration in dieser und nicht von der Freisetzung abhängt, gibt es kein festes CO2-Budget, das nicht überschritten werden darf, wenn eine bestimmte Erwärmungsgrenze eingehalten werden soll.
  • Weil die Atmosphäre gut durchmischt ist, muss die CO2-Zusammensetzung in ihr immer der relativen Stärke der Quellen entsprechen. Da die anthropogenen Freisetzungen nur ca. 5 % der natürlichen Freisetzungen betragen, können auch nur ca. 5 % der CO2-Moleküle in der Atmosphäre anthropogen freigesetzte Moleküle sein. Was darüber hinaus geht, muss natürlichen Ursprungs sein.
  • Derselbe Effekt, der die Umwälzung zwischen Atmosphäre und Ozean+ Biomasse bewirkt, führt unvermeidbar auch dazu, dass die Umwälzung bei einer Erhöhung der CO2-Konzentration in der Atmosphäre unausgeglichen wird. Und zwar umso stärker unausgeglichen, je höher die Umwälzung im Gleichgewicht ist. Es ist diese Unausgeglichenheit der Umwälzung, die netto CO2 der Atmosphäre entnimmt. Sie führt zwangsweise auch dazu, dass die Störungszeit für den Abbau von CO2 nur kurz ist.
  • Bei seiner verfeinerten Modellversion, dem Bern Carbon Cycle Model, verwendet IPCC eine Formel, die den radioaktiven Zerfall eines Gemisches instabiler Atome richtig beschreibt, bei der Entnahme von CO2 aus der Atmosphäre aber zu grob falschen Ergebnissen führt.

Es gibt noch mehr Argumente mit gleichem Ergebnis. Die Konsequenzen sind gravierend: Wenn der Mensch die CO2-Konzentration nicht (wesentlich) erhöht hat, dann hat er auch nicht (wesentlich) zur Klimaerwärmung beigetragen! Eine Einstellung der anthropogenen Freisetzungen ist daher nicht erforderlich. Dem Klimanotstand bricht die Basis weg!

Literaturverzeichnis

/1/ Eike Roth: „Probleme beim Klimaproblem – Ein Mythos zerbricht“, BoD-Verlag Norderstedt 2019, ISBN 978-3-7481-8275-7.

/2/ Eike Roth: „Abgesagt! Dem Klimanotstand bricht die Basis weg“, BoD-Verlag Norderstedt 2020, ISBN 978-3-7526-4764-8.

/3/ IPCC AR 5: “Climate Change 2013: The Physical Science Basis”. Contribution of Working Group I to the Fifth Assessment Report of the Intergovernmental Panel on Climate Change [Stocker, T.F., D. Qin, G.-K. Plattner, M. Tignor, S.K. Allen, J. Boschung, A. Nauels, Y. Xia, V. Bex and P.M. Midgley (eds.)]. Cambridge University Press, Cambridge, United Kingdom and New York, NY, USA, 1535 pp.

Hinweis: Dies sind Ausschnitte aus einem längeren Beitrag, der hier als PDF beigefügt ist:

KLIMANOTSTAND NEIN DANKE




Versuchter Totschlag im Dannenröder Forst: „Aktivist“ gegen Polizisten und Bauarbeiter

Die Gewalt von angeblichen Umweltschützern und Klimarettern im Dannenröder Forst zwischen Kassel und Gießen eskaliert: Ein Demonstrations-Tourist, wahrscheinlich aus Osteuropa, löste am Montag ein Halteseil von Baumstämmen, die gegen die Kabine eines Baggers knallten. Der Fahrer im Innern hätte dabei getötet oder schwer verletzt werden können. Die Polizei Mittelhessen fahndet nun nach dem mutmaßlichen Täter.

Die Staatsanwaltschaft Gießen und die Polizei bitten darum, sachdienliche Hinweise zum Sachverhalt bzw. zur tatverdächtigen Person an den Führungs- und Lagedienst des PP Mittelhessen, Tel.: 0641/7006-3310 oder jede andere Polizeidienststelle zu übermitteln.




Krieg gegen die Wälder: Deutschland wird mit Windkraftanlagen im dystopischen „grünen“ Albtraum überrannt

Hier beschreibt Pierre Gosselin, wie Ihre windgetriebene Zukunft aussehen könnte,.

Deutschlands Umweltdystopie: Windparks, die ländliche Regionen katastrophal zerstören
No Tricks Zone, Pierre Gosselin
1. Dezember 2020

Deutschlands Vision eines sauberen, umweltfreundlichen Energieversorgungssystems, das sich diskret in eine idyllische Landschaft einfügt, verwandelt sich in Wirklichkeit in eine Umweltdystopie* von katastrophalen Ausmaßen.

[* Dystopie: das Gegenteil von positiv besetzter Utopie; eine Geschichte, … die sich zum Negativen entwickelt hat]

Quelle: Vernunftkraft.de

Die deutsche Windenergie-Protestgruppe Vernunftkraft.de hat ein Youtube-Video gepostet, das zeigt, wie außer Kontrolle die Windenergie in einigen Regionen Deutschlands geraten ist.

Das obige Video zeigt zum Beispiel die Region Uckermark um  Prenzlau herum.

Der Text auf Youtube lautet: „Allein um Prenzlau (bis 15 km ) stehen ca. 300 Windkraftanlagen.  In der gesamten Uckermark sind es fast 800 Windkraftanlagen (2020), Tendenz steigend.“

Keine Vogelwelt kann dies überleben.

 

Die Landbevölkerung wird von Big Wind überrollt

Was bleibt übrig? Eine ganze Region, deren Landschaft mit lauten Industrietürmen völlig verdorben und für die meisten Menschen unwirtlich ist. Vorbei sind die Ruhe und die idyllische Schönheit, die die Gegend einst genossen hat. Das Problem ist, dass diese Region arm und ländlich ist und daher keine Chance gegen große Windprojektentwickler und die dahinter stehenden Kumpanen in der Politik, die über alle Vorbehalte oder Widerstände rollen, die die Bewohner vor Ort möglicherweise aufbringen.

Wie bei den  alten Kommunisten ist dies ein weiteres Beispiel dafür, was passiert, wenn Planung und Entscheidungsfindung inkompetenten und korrupten politischen Entscheidungsträgern überlassen werden, die sich mit gierigen Crony-Kapitalisten zusammengetan haben, um schnell Geld zu verdienen. Einige gewinnen dabei viel, während die Massen alles verlieren.

In 30 Jahren wird ein Großteil davon in Trümmern liegen bleiben, ein Denkmal für eine der größten industriellen Betrügereien aller Zeiten.

No Tricks Zone

https://stopthesethings.com/2020/12/06/war-of-the-walds-germanys-forests-overrun-with-wind-turbines-in-dystopian-green-nightmare/

Zum Thema

Rückbau von Windkraftanlagen

Das Baugesetz schreibt: … komplett zu entfernen.  Einige Gemeinden genügt es, das Fundament bis auf einen Meter unter dem Boden abzutragen.

Bereits die ersten Worte der Ansagerin machen den Irrsinn deutlich – …..

 

Übersetzt durch Andreas Demmig