1

Antwort – Teil 1-  auf den Artikel von Justus Lex „Dürfen die das ?“

Hier der 1. Teil: Die juristische Antithese von Frau Beate Bahner, Heidelberg

In den Kommentaren zu „Dürfen die das?“ fragt Martin Müller heute (9.4.):

„Welcher der inzwischen 80 Kommentare setzt sich auch nur mit einem einzigen Argument von Herrn Lex auseinander?“

Die Antwort kommt postwendend 3 Minuten später von Klaus Degenhard mit dem Link zu Frau Rechtsanwältin Bahner, die den Shutdown als „verfassungswidrig“ und als den „größten Rechtsskandal, den die BRD je erlebt hat „ bezeichnet.

http://beatebahner.de/lib.medien/Beate%20Bahner%20Eilantrag%20Bundesverfassungsgericht.pdf

Da der Link gesperrt ist und die Staatsanwaltschaft gegen Frau Bahner vorgeht, am Ende die gespeicherte Datei:.beate-bahner-shutdown-verfassungwidrig.pdf

Für all die, die die 19 Seiten von Frau Bahner aus zeitlichen Gründen nicht lesen können, hier eine kurze Zusammenfassung.

Wer ist diese Frau Bahner : Frau Bahner ist Juristin und Fachanwältin für  Medizinrecht. Sie kommt – kurz gesagt und nicht überraschend – zu einer völlig anderen juristischen Sichtweise als Herr Lex:

Auch Frau Bahner stellt sich die Frage „dürfen die das ?“

Die persönlichen Einschränkungen bezogen auf die freiheitliche Grundordnung, in der wir so gerne leben, wurden von den Bundesländern und der Bundesregierung veranlasst. 11 Millionen Menschen in Baden-Württemberg und 83 Millionen in der BRD werden fast aller Grund- und Freiheitsrechte beraubt. Zu weiteren Zahlen-Vergleiche aus wissenschaftlicher Sicht werde ich im Teil 2 genau Stellung nehmen.

Frau Bahner betrachtet als erstes über ihr Bundesland Baden-Württemberg (BW). Sie durchleuchtet die Begründung für den Erlass der Corona-Verordnung, die auf die Regelungen des § 28 Abs. 1 S.1 und 2 sowie den §§ 31 und 32 des Infektionsschutzgesetzes (IfSG) verweist. Sie kritisiert den Innenminister von BW, Herrn Strobel (CDU), der zur Denunziation der Unwilligen aufgerufen hat, obwohl 11 Millionen Menschen in B-W und 83 Millionen Menschen in der BRD gesund seien. Seit über 2 Wochen tragen wir alle diese Einschränkungen bis hin zu den Kontakt-Verboten mit unseren kranken und gesunden Alten. Wir Deutschen sind eben diszpliniert und nicht zu Revolutionen fähig. Dazu fällt mir nur der dem Kaiser Napoleon Bonaparte zugeschrieben Spruch über die Deutschen ein:

Dann fragt Frau Bahner sich, ob wir denn wirklich verpflichtet sind, diese „unglaublichen Verbote“ hinzunehmen? Sie kommt zu dem Ergebnis, dass sie die Verordnungen nicht nur für „eklatant verfassungswidrig“ einstuft, sondern sie sieht die Gefahr, dass unsere Grundrechte und unser Grundgesetz und unsere freiheitliche demokratische Grundordnung in nur wenigen Wochen „profund und endgültig vernichtet werden“.

Sie ist nicht die Erste, die zu diesem Ergebnis kommt. (Anmerkung der Redaktion: Inzwischen sind lt. Süddeutsche Zeitung fast 80 Klagen gegen diese Einschränkungen anhängig)

Beschränkung fast aller Grund- und Freiheitsrechte der Bürger

In vielem Gesprächen in meinem beruflich bedingten Bekanntenkreis muss ich immer wieder feststellen, dass das Grundgesetz (GG) im Volke inhaltlich weitestgehend unbekannt ist. Es lohnt sich m.E. diesen Anlass zu nutzen, und sich mal mit dem GG zu beschäftigen. In den Art. 1 – 20 sind unsere Grundrechte verankert, die nur unter ganz genau definierten Bedingungen durch Gesetze eingeschränkt werden dürfen, wobei insbesondere das Zitiergebot Art. 19 beachtet werden muss.

Dies ist wird schon länger in der BRD nicht immer eingehalten.

Eingeschränkt werden nach Frau Bahner die Art 1, 2, 4, 8, 9, 12 GG. Das ist eine ganze Menge. Da das Infektionsschutzgesetz (IfSG) in seiner Neufassung vom 27.3.2020 keine Landesregierung berechtige, solche fundamentalen Beschränkungen auszusprechen, sind alle Corona-Verordnungen außer Kraft zu setzen. Das IfSG stamme aus dem Jahre 2000 und habe sich bewährt. Zu einer Änderung gebe es keine Veranlassung. Die Grippe-Saison 2017/2018 hatte mit ca. 25.000 Toten eine viel höhere Todesanzahl, als die, die Experten mit Corona diesmal erwarten (heutiger Stand nach JHU ): Ca. 113.300 Infizierte (nicht Kranke) und ca. 2.349 Tote. Da haben wir also noch 22.751 „gut“. Das sind kumuliert 0,136 % Infizierte und 0,0028 % vermutete Corona-Tote. Die Änderungen im IfSG sind zeitnah verfassungsrechtlich zu überprüfen. Die Frage hier ist nur, ob das BVerfG solche Klagen annimmt. Dazu ist es nicht verpflichtet und Sachen, die die Regierung in die Bredouille bringen könnte oder gar das BVerfG, werden einfach nicht zugelassen. So einfach ist dies in unserer Demokratie.

Zitat zum Sinn und Zweck des IfSG:

„Zweck des Infektionsschutzgesetzes ist es, übertragbaren Krankheiten beim Menschen vorzubeugen, Infektionen frühzeitig zu erkennen und ihre Weiterverbreitung zu verhindern,    § 1 Abs. 1 IfSG. Hierfür müssen Behörden des Bundes, der Länder und der Kommunen, Ärzte, Tierärzte, Krankenhäuser, wissenschaftliche Einrichtungen sowie sonstige Beteiligte entsprechend dem jeweiligen Stand der medizinischen und epidemiologischen Wissenschaft zusammenarbeiten, § 1 Abs. 2 IfSG.

Das Robert Koch-Institut (RKI) ist die hierfür zuständige nationale Behörde. Sie ist zuständig für die Vorbeugung übertragbarer Krankheiten und für die frühzeitige Erkennung und Verhinderung der Weiterverbreitung von Infektionen. Das RKI ist hierbei zur Entwicklung und Durchführung epidemiologischer und laborgestützter Analysen sowie zur Forschung zu Ursache, Diagnostik und Prävention übertragbarer Krankheiten verpflichtet, § 4 Abs. 1 IfSG. Das RKI arbeitet hierfür mit den jeweils zuständigen Bundesbehörden, den zuständigen Landesbehörden, den nationalen Referenzzentren, weiteren wissenschaftlichen Einrichtungen und Fachgesellschaften zusammen, § 4 Abs. 1 S. 2 IfSG. „

Nach Frau Bahner findet sich trotz der kürzlichen Änderungen das Corona-Virus SARS-CoV-2 nicht im IfSG.Merkwürdig.

Weiter:

Das Infektionsschutzgesetz berechtigt nach einer entsprechenden Feststellung der Gesundheitsämter sodann zu folgenden Schutzmaßnahmen:

Anordnung von Ausgeh- und Betretungsverboten, § 28 Abs. 1 IfSG

– Anordnung einer Beobachtung, § 29 IfSG

– Anordnung von Quarantäne – allerdings nur bei Verdacht auf Lungenpest oder hämorrhagischem Fieber, § 30 Abs. 1 IfSG.

– Anordnung von beruflichen Tätigkeitsverboten, § 31 IfSG.  

Zu den Anordnungen: 

Der ganz entscheidende Aspekt des Infektionsschutzgesetzes ist, dass  diese Schutzmaßnahmen nur gegenüber Kranken, Krankheitsverdächtigen, Ansteckungs-verdächtigen oder Ausscheidern ergehen dürfen, § 28 Abs. 1 S. 1 IfSG. Sie dürfen ferner nur ergehen, solange es zur Verhinderung der Verbreitung übertragbarer Krankheiten erforderlich ist, § 28 Abs. 1 S. 1 IfSG.

Maßnahmen gegen Gesunde dürfen nur ausnahmsweise angeordnet werden.

Sehr interessant ist, dass die Ausgeh- und Betretungsverbote des Landes BW nicht nur gegen das IfSG verstoßen, sondern auch gegen die Masernentscheidungen des Bundesverwaltungsgerichtes (BVerwG 3 C 16.11), nach dem ein Schulbetretungsverbot gegenüber gesunden gegen Masern ungeeimpften Schülern rechtswidrig ist.

Frau Bahner hält die landesweite Schließung von Einrichtungen und Geschäften für rechtswidrig, da hier , wie beim Einkaufen in Lebensmittelgeschäften keine Ansteckung gegeben sei. Dafür gebe es keine Rechtsnorm. „Tätigkeitsverbote sind nur gegenüber Kranken, Krankheitsverdächtigen, Ansteckungsverdächtigen oder Ausscheidern zulässig.“ Hier vermute ich einfach, dass die Regierung jeden, der nicht getestet ist, in diesen Kreis einordnet. Frau Bahner dazu : „Zulässig ist diese sehr gravierende Maßnahme jedoch grundsätzlich nur gegenüber Personen, die als Kranke, Krankheitsverdächtige, Ansteckungsdächtige oder Ausscheider konkret festgestellt wurden, §§ 28 Abs. 1, 31 und § 34 IfSG. Sind Ladeninhaber also nachweislich nicht infiziert oder gefährdet, dann darf ihnen gegenüber auch kein Tätigkeitsverbot ausgesprochen werden.“

Bliebe juristisch zu klären, ob man alle, die nicht getestet wurden, verdächtig sind. Hier greift dann die Unzuverlässigkeit des nicht validierten Tests, den Herr Drosten in 3 Tagen entwickelt hat und sich von der WHO hat genehmigen lassen. Ca. 50 % falsch positive Ergebnisse machen eine begründete Entscheidung schwierig.

Unter 3.5 stellt dann Frau Bahner fest, dass die Schließung aller Einzelhandelsgeschäfte ein schwerer Eingriff in die Berufsfreiheit darstelle (Art 12 GG).

Interessant ist dann die Feststellung, dass das IfSG den Staat und die zuständigen Behörden gerade bei Epidemien ausdrücklich dazu verpflichtet, die Eigenverantwortung des Einzelnen zu verdeutlichen und zu fördern, § 1 Abs. 2 IfSG.

Die Übertragung der Viren erfolgt nach RKI über Tröpfchen z.B. beim Nießen direkt auf die Schleimhäute des Gegenüber. Prof. Streeck konnte in der bisher einzigartigen Untersuchung in Heinsberg eine Kontamination durch kontaminierte Oberflächen nicht feststellen. Abstandhalten und Händewaschen reiche nach Ansicht der Experten zum Schutz aus.

Unter Punkt 4.3 greift dann Frau Bahner die Frage der Herdenimmunisierung auf, die zum Schutz der Bevölkerung notwendig ist. Diese Entscheidung liege beim Bürger und nicht bei der Regierung.

Niemals zuvor in der Weltgeschichte seien zur Bekämpfung von Seuchen 99,9 % der gesunden Bevölkerung mit Ausgeh- und Betretungsverboten belegt und (fast) sämtliche Geschäfte geschlossen worden. Die Frage müsse erlaubt sein, warum die Regierung  zu existenzvernichtenden Maßnahmen greift..

Mit diesen Maßnahmen, deren Auswirkungen vermutlich keiner von uns überblicken kann, verstoßen die Regierungen (Bund und Länder) gegen das Grundgesetz und damit gegen die verfassungsmäßige Ordnung der BRD. Für Gesunde können die ganzen Verbote nicht gelten.

Frau Bahner stellt dann noch diverse Straftatbestände bei Regierung und Polizei fest, da man Gesunde nicht bestrafen könne: Verfolgung Unschuldiger, Nötigung etc. Die Frage hier ist dann allerdings, muss ich beweisen, dass ich gesund bin, oder muss die Polizei beweisen, dass ich krank bin? Und das Ganze auf der Basis eines nicht validierten Tests. Die Chancen ohne Bestrafung durchzukommen sind dann 50:50. Bei solch eine mangelnden Güte sind wir dann beim Niveau des Aidstests angekommen, man testet solange, bis der Test mehr oder weniger zufällig positiv ist? Oder mit bestimmten Symptomen übereinstimmt? Nur dumm, dass die Mehrzahl der Symptome auch von einem grippalen Infekt stammen können. Der PCR-Test von Drosten findet dann u.U einen Abschnitt eines anderen Corona-Virus? Dann steh ich blöd da. Damit kommen wir dann zu Fragen, mit denen ich mich im Teil 2 beschäftigen will, der m.E. eine wichtige Grundlage für juristische und wirtschaftliche Folgerungen sein müsste.

Ergebnis: Die juristische Betrachtung der Fachanwältin für Medizinrecht, Frau Bahner, beantwortet eine Reihe von Fragen zu den Einschränkungen unserer Grundrechte und unserer Freiheit anders als die Bundes- und Länderregierungen. Sie sieht eklatante Verstöße gegen das Grundgesetz, die als Basisnorm gelten sollte. Das Vorgehen von Frau Bahner verdient m.E. größten Respekt, da sie mutig – ohne Zukunftsängste – aus Ihrer Sicht die rechtliche Lage ehrlich beurteilt. Anmerkungen in den Kommentaren von Juristen-Kollegen, ob die Dame das Staatsexamen im Lotto gewonnen habe, halte ich für nicht für angemessen. Ich befürchte allerdings, dass auch der Mainstream über sie herfallen wird, wie über Herrn H.G. Maaßen. Allein dieser Fall zeigt, dass Art. 5 GG in der BRD nicht geachtet wird. Man wird sehen, was man mit Frau Bahner anstellen wird.

Einfach sind alle diese Fragen nicht zu beantworten und eine Verhältnismäßigkeit der Anordnungen wird man wohl nur feststellen können, wenn man die Faktenlage der Virus-Forschung überblickt. Seit den verordneten Einschränkungen hat sich die Faktenlage m.E. nur wenig, in manchen Punkten aber doch entscheidend  verändert. Mein Eindruck ist, wir stochern noch ganz schön im Nebel herum.

Bedauerlich ist mal wieder die Rolle der Mainstream-Medien, die Angst- und Panikmache verbreiten und damit sicher viel Unheil anrichten. Die öffentlich rechtlichen Sender nähern sich immer mehr der DDR-Propaganda an, allerdings viel subtiler. Sie stützen damit die Interessen der Regierung, wie ein Geheimpapier des Innenministeriums (Anmerkung der Redaktion: Inzwischen stark als von zweifelhafter Herkunft angezweifelt). Darüber durfte in der Bundes-Pressekonferenz nicht gesprochen werden, weil es sich um eine  Verschlusssache handelt. Man kann dem Souverän eben nicht alles zumuten, sondern muss ihn gängeln.

Über den Autor:

Dr. Uwe Erfurth schrieb  1974 und 1976 seine Diplomarbeit und seine Doktorarbeit an dem Vorläuferinstitut des heutigen Helmholtz-Zentrums für Infektionsforschung in Stöckheim/Braunschweig  im Bereich Molekularbiologie. Damals hieß das erst GMBF Gesellschaft für Molekular-biologische Forschung  danach GBF Gesellschaft für biotechnologische Forschung..
Anfang März d.J. suchte er zum Institut Kontakt und hat etwas andere Infos erhalten, als Prof. Wieler sie verbreitet.
Von der Ausbildung her ist er Biochemiker und Molekularbiologe, auch wenn er dann beruflich anderes gemacht hat.

 

 

 

 

 




Betrug mit Kohlenstoff-Zertifikaten offenbart: Kohlenstoff-Märkte scheitern mit sinkendem CO2-Gehalt

Es stellt sich heraus, dass falls das Niveau der Kohlendioxid-Emissionen auf ein extrem tiefes Niveau sinkt, wie es derzeit der Fall ist, die emittierenden Unternehmen keinerlei Zertifikate mehr kaufen müssen als Ausgleich für jene Emissionen. Und falls niemand Kohlenstoff-Zertifikate kauft, dann stirbt der so genannte „Markt“ für Kohlestoff eben.

Moment mal! Geht es nicht bei dem gesamten Gedanken dieser Kohlenstoff-Zertifikate darum, CO2-Emissionen zu reduzieren, welche die Klima-Campaigner als schreckliche Verschmutzung brandmarken?

Und wie kann es dann dazu kommen, dass falls das ultimative Ziel der Nahe-Null-CO2-Emissionen erreicht wird, der so heiß begehrte Markt von Kohlenstoff-Zertifikaten zusammenbricht?

Einfache Antwort: Weil die Existenz dieser Märkte einen perversen Anreiz schafft.

Für den durchschnittlichen Klima-Campaigner besteht das Ziel eines solchen „Marktes“ darin, CO2-Emissionen so dicht wie möglich an Null heranzubringen. Aber für jene Unternehmen, die mit den Kohlenstoff-Zertifikaten das große Geld machen gilt, dass deren Profite in gleichem Ausmaß sinken wie die so genannte „Verschmutzung“. Sie haben nicht auf dem Schirm, diesen Geldzufluss demnächst aufzugeben.

Bis vor Kurzem waren Klima-Aktivisten sehr erfolgreich damit, Unternehmen und Regierungen davon zu überzeugen, dem Schema der „Kohlenstoff-Zertifikate“ zu folgen. Dies bedeutet im Wesentlichen, dass je mehr CO2 man erzeugt, man desto mehr Zertifikate kaufen muss. Die Kosten dafür sollen dann vermeintlich in Projekte erneuerbarer Energie usw. investiert werden.

Aber das wirkliche Ziel ist in keiner Weise die Reduktion von CO2-Emissionen. Das wirkliche Ziel ist Geld verdienen.

Welche guten, wenngleich fehlgeleiteten Absichten auch immer hinter der Klimapolitik nebst deren Maßnahmen standen – sie sind vollständig gekapert worden durch jene, welche nach immer neuen Möglichkeiten suchen, sich Geldquellen zu erschließen. Und das nicht auf dem Wege, Innovationen auf dem Kapitalismus freier Märkte zu fördern, sondern durch die Schaffung von Programmen wie dem Markt für Kohlenstoff-Zertifikate, welche die Einnahmen legitimer Geschäftszweige abschöpft und sie zu Unternehmen und Individuen umleitet mit den richtigen Verbindungen zur Regierung.

Man kann nicht geltend machen, Lösungen freier Märkte zu haben für etwas, das ein künstlicher Pseudo-Markt ist, der nur durch Vorschriften und Gesetze seitens der Regierung entstehen kann.

Und Kohlenstoff-Zertifikate, Kohlenstoff-Steuern, Kohlenstoff-Bepreisung, Kohlenstoff-Transfers – wie auch immer man das nennt, alles, auf das ess hinausläuft, sind Pseudo-Märkte.

Autor: CFACT, founded in 1985 by Craig Rucker and the late (truly great) David Rothbard, examines the relationship between human freedom, and issues of energy, environment, climate, economics, civil rights and more.

Link: https://www.cfact.org/2020/04/02/carbon-credit-scam-exposed-carbon-markets-fail-as-co%e2%82%82-declines/

Übersetzt von Chris Frey EIKE




Fridays for Hamstern: Die Vertagung der Ideale

Interview ; Buch „Technik.Kapital.Medium“

Dies ist ein Gedanke, der, meines Erachtens, recht schlüssig erscheint, und ich würde ihn so interpretieren: In normalen Zeiten, in denen Vermehrung und Wachstum, Innovationen und Optimierungen das gesellschaftliche und wirtschaftliche Leben bestimmen, bilden sich idealistische Konstrukte heraus, politische Ordnungen, die aber eben an diese Voraussetzungen des Geschehens in diesen normalen Zeiten gebunden sind.

Tritt die Krise ein, dann stehen die wirtschaftlichen und politischen Ordnungen ohne ihre idealistischen Konstrukte da und sind somit höchst fragil. Diejenigen, die von der Krise als Chance sprechen, wissen das ganz genau. Mitunter führt das so weit, dass Gesellschaftskonstrukteure scheinbare Krisen heraufbeschwören, um ihre großen Transformationsvorstellungen leichter umsetzen zu können. Stichwort: Klimakrise. Die ist aber keine reale, sondern eine konstruierte, ein idealistisches Konstrukt, um damit das reale Leben umzugestalten.

Geschulte Linksintellektuelle werden nun auch an Antonio Gramsci denken und seine Theorie vom Interregnum: „… Der ‚Tod der alten Ideologien‘, so fügt er [Gramsci] hinzu, eröffnet zugleich günstige Bedingungen für die ‚unerhörte Ausbreitung des historischen Materialismus‘“. Neue oder andere Ideologien haben nun die Chance, als Weg aus der Krise angesehen zu werden. Überhaupt, ohne diese aus linksintellektuellen und linksradikalen Ideologien diffundierten Vorstellungen, von der Krise als Hilfsmittel zur Umgestaltung und Transformierung von Gesellschaften, ist beispielsweise diese ganze Klimaschutzbewegung nicht zu verstehen. Da hat sie ihre Wurzeln, von da bezieht sie ihre Kraft.

Idealistische Konstrukte aus Optimierungszeiten

Nun haben wir aber durch das Coronavirus eine reale Krise, keine imaginierte, die in der Regel nur Verbildlichungen von intellektuellen Unzufriedenheiten sind, sondern eine echte Bedrohung. Kein Wunder, dass nun vereinzelt Kriegsrhetorik zu vernehmen ist. Und doch unterscheidet sich eine Pandemie in ihrem Charakter ganz wesentlich von anderen Bedrohungsszenarien wie Krieg oder Naturkatastrophen, bei der die Suche nach Verbündeten im Vordergrund steht, um die eigene Gruppe zu stärken und zum Sieg zu führen oder wenigstens das Überleben dieser zu sichern. Hier geht es nur noch um das Individuum, um den eigenen Leib, um Hunger und Durst, alles reduziert sich auf das Überleben, auf den Kampf um die letzten Ressourcen. Gerüchte gehen um, irgendwo wären Atemschutzmasken gestohlen worden, das Hamstern von Toilettenpapier darf in diesem Zusammenhang nicht fehlen.

Anhand dieser beiden Beispiele wird deutlich, von einer Existenzbedrohung im apokalyptischen Stil sind wir noch weit entfernt, dennoch zeigen sie an, was sich verändert. Die idealistischsten Konstrukte der Vermehrungs- und Optimierungszeiten werden unwichtig, genauso wie das Klimakrisengeschwafel der intellektuell Unzufriedenen oder jedes andere ideologische Konstrukt. Ernste Krisen – Corona gehört da noch nicht dazu – sind keine Chance, wie es sich all diese Gesellschaftstransformierer oder sonstige Welterklärer vorstellen, sie sind lediglich so was wie ein Reset des Programms, in dem wir leben, und das heißt eben: Überleben! Es geht ums Überleben des Subjekts, das leben will, das Hunger und Durst empfindet, das empfinden kann, sprich, ums Individuum. Konstrukte können nicht empfinden, sie fühlen weder Schmerz noch Leid, Glück auch nicht.

Dieser Beitrag ist auch auf Quentin Quenchers Blog „Glitzerwasser“ erschienen, und auf der Achse des Guten. Mit freundlicher Genehmigung.

 




Es gibt Statistik ..und es gibt Corona-Statistik – Statistik-Kunde wider den Horror

1. Gerettete Menschenleben. Die dürfen in keiner Politiker-Stellungnahme fehlen. In Wahrheit hat keine Anti-Corona-Maßnahme jemals ein Menschenleben gerettet. Es wird immer nur der Tod hinausgeschoben. Und bei dem durchschnittlichen Sterbealter von über 80 Jahren der bisher in Deutschland an Corona Verstorbenen noch nicht einmal besonders viel. Die letztendliche Sterblichkeitsrate bleibt auch unter Bundeskanzlerin Merkel weiter exakt 100 Prozent. Im Jahr 2020 werden mit oder ohne Corona wieder wie letztes Jahr und das Jahr davor und das Jahr nochmals davor rund 900.000 Bundesbürger sterben. Das ist etwas mehr als einer von hundert, entsprechend in etwa der Mortalitätsrate der Corona-Pandemie (mehr dazu weiter unten).

2. Todesfälle durch Corona. Ist jemand, der vom Bus überfahren wird und den Coronavirus in sich trägt, ein Corona-Toter? Die Panikmacher meinen ja. Zum Glück setzt sich inzwischen aber die allgemeine Erkenntnis durch, dass es Menschen gibt, die mit, und andere, die an Corona sterben. Sollte man unbedingt auseinanderhalten. In Italien etwa sollen weit über 90 Prozent aller offiziellen Corona-Toten multiple und teils schwerste Vorerkrankungen gehabt haben. Umgekehrt in Russland, hier stirbt man nicht an Corona, sondern an Lungenentzündung.

Dann ist zu unterscheiden die Zahl der Menschen, die bisher insgesamt, und die in der aktuellen Woche oder am aktuellen Tag gestorben sind.

3. Coronainfizierte. Das ist die zentrale Zahl überhaupt. Leider kennt sie nur der Liebe Gott allein. Uns Menschen bekannt ist nur die Zahl der als infiziert gemeldeten. Und selbst diese Zahl ist falsch. Denn auch der beste Test erkennt zuweilen zu Unrecht einen nicht Infizierten als infiziert (im Fachjargon: falsch positiv). Auch bei den besten Tests liegt diese Falschpositiv-Rate (alias 1 weniger die Spezifizität) bei 10 Prozent. Würde man also alle 80 Millionen Bundesbürger auf Corona testen, hätte man auf einmal 8 Millionen offizielle Coronakranke, die den Virus überhaupt nicht in sich tragen.

Inzwischen gibt es Versuche, den wahren, aber bisher völlig unbekannten Infiziertenanteil durch eine repräsentative Stichprobe zu schätzen. Sehr gut. Warum ist man nicht früher auf diese Idee gekommen? Bei Wahlprognosen funktioniert das seit Jahrzehnten.

Selbst wenn man alle diese Probleme vernachlässigt, gibt es immer noch die Auswahl zwischen (1) Der Gesamtzahl aller bisher Infizierten (das ist meistens gemeint, wenn man von Verdopplungszeiten spricht, siehe weiter unten) oder (i2) der  Gesamtzahl aller aktuell Infizierten, d.h. die Gesamtzahl aller bisher Infizierten minus die wieder Genesenen minus die Verstorbenen. Das wäre die gesundheitspolitisch relevante Zahl, aber die wird in der Regel nicht benutzt. Ist auch viel kleiner, und das passt vielen Panikmachern nicht.

4. Todesraten. Jetzt wird es kompliziert. Bisher ging es immer nur um eine Zahl. Jetzt braucht man auf einmal zwei. Und dann wird auch noch eine davon durch die andere dividiert, also eine Rechenoperation, mit der viele Bundesbürger so ihre Schwierigkeiten haben (sagt der Bundesverband Legasthenie und Dyskalkulie e.V.).

Der Zähler macht uns das Leben noch recht einfach, hier gibt es nur die vier Kandidaten aus 2. Im Nenner dagegen haben wir die freie Auswahl, und die wird auch weidlich ausgenutzt. So kommt etwa das ZDF in Italien auf 8 Prozent Verstorbene. Hätte man, statt die Zahl der insgesamt Verstorben durch die Zahl der aktuell als Infiziert gemeldeten zu teilen, genauso unsinnig etwa durch die Zahl der am aktuellen Tag neu hinzugekommenen Infizierten geteilt, wären sogar Todesraten von 120 Prozent nicht ausgeschlossen.

In Wahrheit sind alle Kandidaten für den Nenner aus 3. falsch. Die Zahl der in einem bestimmten Zeitraum Verstorbenen müsste geteilt werden durch die Zahl der derjenigen, die sich mit diesen zusammen infiziert hatten. Und wenn man diese Zahl nicht kennt, sind alle Todesraten kaum mehr als Kaffeesatzleserei.

In einem Fall aber hat man diese Zahl: Das war das Kreuzfahrtschiff Diamond Princess; da haben sich 700 Passagiere und Besatzungsmitglieder angesteckt, 7 davon sind gestorben, das sind genau 1 Prozent. Allerdings waren die Passgiere ungewöhnlich alt.  Wenn man die Sterberate der Diamond Princessauf die Altersstruktur der US-Bevölkerung überträgt, ergäbe sich eine Todesrate von  0,125%, erheblich weniger als üblicherweise bei Grippewellen anzutreffen ist.

Einschub der Redaktion

Die Ergebnisse von Gangelt entsprechen in etwa denen der Diamond Princess
aus der t-online Meldung:

„Bisher wurden im Kreis Heinsberg mehr als 1.000 Menschen in über 400 Haushalten untersucht, etwa die Hälfte der getesteten Haushalte und die Tests von 509 Personen wurden bereits ausgewertet. Das entspricht laut Professor Streeck einer repräsentativen Stichprobe. Dabei stellten die Wissenschaftler fest, dass in der Gemeinde Gangelt eine Immunität von 15 Prozent der Bevölkerung nachgewiesen werden konnte. 

Die Wahrscheinlichkeit, an der Krankheit zu sterben liege dort, bezogen auf die Gesamtzahl der Infizierten, bei 0,37 Prozent. Bezogen auf die Gesamtbevölkerung würden 0,06 Prozent der Menschen an Covid-19 sterben. Die in Deutschland derzeit von der amerikanischen Johns Hopkins University berechnete entsprechende Rate verstorbener Infizierter betrage 1,98 Prozent und liege damit um das Fünffache höher, sagte der Virologe. In Gangelt seien auch Menschen positiv auf das Coronavirus getestet worden, die keine oder nur milde Symptome hatten.“

Nun ist 700 keine riesige Stichprobe; rechnet man die Stichprobenunsicherheit mit ein, kommt man auf eine geschätzte Todesrate zwischen 0,1 und 0,6 Prozent.

5. Reproduktionsrate

Damit ist die Zahl der Menschen gemeint, die ein Corona-Infizierter im Mittel selber ansteckt. Die liegt bisher zwischen geschätzten 2 und 3. Zum Vergleich: bei Masern beträgt diese Zahl 5, bei Keuchhusten 15 (Harding Zentrum für Risikokompetenz).

Diese Reproduktionsraten sind Mittelwerte; sie variieren über Raum und Zeit. Aus epidemiologischer Sicht ist es nicht ganz das gleiche, ob bei einer Reproduktionsrate von 2 neunundneunzig Infizierte niemanden anstecken, dafür der hunderste, so wie der notorische Bargastbespaßer aus Ischgl in Tirol, gleich 200 auf einmal. Diese Feinheiten sind aber nur für Experten interessant. Von weit größerer Bedeutung ist die Variation über die Zeit. Hier geht es darum, eine Reproduktionsrate von unter 1 zu erreichen. Dann ist die Pandemie vorbei, und darauf bewegen wir uns mit großen Schritten zu.

6. Wachstumsraten und Verdopplungszeiten

Mit der Reproduktionsrate eng verbunden sind Wachstumsraten und Verdopplungszeiten. Vor allem von letzteren ist in den letzten Tagen viel die Rede. Da ist zunächst die Frage, wer oder was wachsen bzw. sich verdoppeln soll. Üblicherweise meinen die Medien damit die insgesamt bisher Infizierten. Das ist aber wenig zielführend, denn da sind auch die Verstorbenen (Minderheit) und die wieder Genesenen (Mehrheit) mit dabei. Korrekt wäre die Zahl der aktuell Infizierten.

Unabhängig ob aktuell oder insgesamt ergeben sich diese Verdopplungsraten aus der Annahme, dass die aktuelle tägliche Wachstumsrate so bleibt wie sie ist. Gestern 100.000 und heute 107.200 ergibt eine Wachstumsrate von 7,2 %; damit verdoppelt sich die Zahl der Infizierten alle zehn Tage. Wer das nicht glaubt: mit dem Taschenrechner die Zahl 1,072 zehnmal mit sich selbst malnehmen. Am Schluss kommt 2 heraus (bis auf kleine Rundungsfehler).

Was aber, wenn die Wachstumsrate sich verändert? Und das tut sie so sicher wie das Amen in der Kirche. Einige Medien versuchen, kurzfristige Zufallsschwankungen durch das Mitteln der letzten täglichen Wachstumsraten auszugleichen. Das hilft aber auch nicht weiter; es kommt auf die künftigenWachstumsraten an.

Ganz schlimm wird es, wie in den Medien regelmäßig getan, wenn man die Wachstumsrate der als infiziert gemeldeten mit der Wachstumsrate der tatsächlich Infizierten gleichsetzt. Die beiden haben miteinander kaum etwas zu tun. Denn die Wachstumsrate der als infiziert gemeldeten hängt entscheidend von der Intensität des Testens ab. Die hat in den vergangenen Wochen dramatisch zugenommen. Damit können die gemeldeten Fälle zunehmen, aber die tatsächlichen Fälle abnehmen, konstant bleiben oder ebenfalls zunehmen – man weiß es nicht.

7. Einbruch der Wirtschaftsleistung

Das ist einer der vielen Kollateralschäden der Corona-Hysterie. Als kleiner Trost am Schluss: Dieser Einbruch ist zwar beträchtlich und könnte sogar die minus 5% des Jahres 2009 übertreffen, aber dann doch nicht ganz so dramatisch, wie der Einbruch des Sozialproduktes suggeriert. Wer sich im Fachhandel für 2000 Euro einen Wohnzimmerschrank kauft, verbrieft damit einen Anstieg des Sozialprodukts um exakt diese Summe. Wer den (fast) gleichen Schrank für 1000 Euro in Einzelteilen bei IKEA kauft und zu Hause selbst zusammenbaut, reduziert den persönlichen Schrankbeitrag zum Sozialprodukt um 50 Prozent. Denn alle im Haushalt ohne Rechnung produzierten Güter und Dienstleistung werden im Sozialprodukt nicht mitgezählt. Und in dem Umfang, wie diese Haushaltproduktion mit zunehmender Heim- und Kurzarbeit ebenfalls zunimmt, ist der erwartete Rückgang des Sozialprodukts nicht ganz so schlimm.

Ebenfalls betroffen, aber weniger im Gerede, ist die Verteilung des Sozialprodukts. Das Bruttosozialprodukt minus Abschreibungen minus indirekte Steuern plus Subventionen entspricht exakt dem Volkeinkommen, und dessen Verteilung verändert sich in eine Richtung, die nur wenigen gefallen dürfte: Der reichste Mann der Welt, Jeff Bezos von Amazon, wird nochmals mehrere Milliarden Euro reicher, und auch die reichsten Deutschen, die Aldi-Erben und der Lidl-Gründer Dieter Schwarz, werden weitere Milliarden scheffeln. Merkel sei Dank.

Der Beitrag erschien zuerst bei ACHGUT hier




Wie kann Jimmy Kater die Insel­gruppe Kiribati vor dem Untergang schützen? Alternativ: Auch während Corona in Klima-Agitation nicht nachlassen

Trotzdem beeilen sich Medien, „Svenjas“ Wusch unterstützend nachzukommen.

Kinder lernen, dass Kiribati untergeht …

Nachdem die Schulen geschlossen sind, haben viele Schulkinder etwas mehr Zeit als bisher. Deshalb befleißigt sich die Lokalzeitung des Autors, auf einer speziellen „Deine Kinderseite“ auch Lesestoff zu empfehlen. Aktualität und Zeitgeschehen gehören natürlich auch dazu. Und so war jüngst eine Empfehlung für die Kleineren unter der Überschrift „Findet Samuel eine Lösung“ ein gerade neu herausgekommenes Kinderbuch:

Susanne Weber (Studium der Germanistik, Romanistik und Angewandten Literaturwissenschaft), Buch:
Land unter bei Samuel

Bild 1 Buchcover

In diesem Buch erzählt – und vor allem suggeriert – die Autorin den Kindern, dass ein kleiner Junge ganz viel über den Klimawandel weiß, weil sein Vater Klimawandelforscher ist. Und natürlich erzählt der Junge auch sein Wissen, speziell zur Atollgruppe von Kiribatti:

Zitat aus einer Rezension zum Buch: Wie kann man Kiribati retten?
… Denn Samuels Vater ist Klimaforscher und arbeitet an einem Projekt, in dem es um die Inselgruppe Kiribati geht. Diese ist aufgrund des Schmelzens der Polkappen und dem dadurch steigenden Meeresspiegel davon bedroht, in absehbarer Zukunft unterzugehen.

In einer anderen Rezension des Buches steht, dass dies im Jahr 2060 sein würde. Ob dies auch im Buch so steht, ist dem Autor nicht bekannt, da er das Buch für die kleine Rezension nicht extra gekauft hat, sondern sich auf das was in den Vorschauen und Rezensionen zu lesen ist beschränkt:
Andere Rezension: … Habt ihr schon mal von Kiribati gehört? Dies ist ein Inselstaat im Pazifik, der in einem ganz besonderen Maße vom Klimawandel bedroht ist. Schätzungen zufolge werden die Inseln um 2060 herum aufgrund des steigenden Meeresspiegels untergehen und mittlerweile sind Gespräche im Gange, um die Bewohner umzusiedeln. In „Land unter… bei Samuel“ von Susanne Weber und Susanne Göhlich ist das Schicksal von Kiribati das Herzensthema eines Viertklässlers.

Dabei ist Fakt: Kiribati kann wirtschaftlich und politisch untergehen, aber die Atolle auf lange Zeit bestimmt nicht wegen des ominösen Klimawandels

Dabei finden sich auch zu Kiribati viele Fakten. Und jede belegt, dass der angebliche Untergang des Landes eine rein politisch motivierte – und trotzdem nie widersprochene – Aussage ist, um an Geldmittel aus den Klimaschaden-Töpfen der reichen Länder mit Klimaschuldgefühlen zu gelangen (wozu vor allem Deutschland zählt).
Oder sieht man im wirklichen, ganz aktuellen Tidenpegelverlauf einen drohenden – und teilweise angeblich schon erfolgten – klimawandelbedingten Untergang?

Bild 2 Verlauf des mittleren Tidenpegels von Kiribatti seit 1991 bis März 2020. Quelle: Australien Government: Pacific Sea Level and Geodetic Monitoring Project, Monthly Sea Level and Meteorological Statistics

Das sieht sogar die eigene Opposition auf Kiribati so:
Stellungnahme der Opposition: [2] Tongs Amtsvorgänger Teburoro Tito … Er hält den Landkauf für unsinnig. “Die Forscher sagen, unsere Korallenriffe sind gesund und können mit dem Meeresspiegelanstieg Schritt halten. Deshalb gibt es keine Notwendigkeit, Land auf den Fidschi-Inseln oder sonst irgendwo zu kaufen”, sagt Tito … Auch Paul Kench, ein Geomorphologe an der University of Auckland, findet die Sorgen überzogen. “Wir wissen, dass die gesamte Riffstruktur um zehn bis 15 Millimeter im Jahr wachsen kann – schneller als der erwartete Meeresanstieg”, sagt der Atoll-Experte. “Solange das so ist und der Nachschub an Sand gesichert bleibt, brauchen wir keine Angst zu haben.”

Auch im „Weltatlas des Klimawandels“ als untergegangen gemeldete Inseln existieren in Wirklichkeit immer noch, wie zum Beispiel die Insel „Bikemann“ [2]. Wobei erwähnt werden muss, dass es dieser „Weltatlas“ mit seinen Darstellungen sowieso nicht genau nimmt (sofern es dem Klimaalarm dienlich ist).
Was nicht sein darf, darf aber konsequent ignoriert werden. Denn Fakten würden auf Klimagipfeln massive Störungen hervorrufen. Zudem, bei der Härte und Umfang des Klimakampfes haben selbst die regelmäßigen 30 … 40-tausend teilnehmenden „Fachpersonen“ schlichtweg keine Zeit, mal kurz übers WEB wahre Tidenpegel einzusehen und Referenten, welche auf den Podien vom Untergang erzählen zu fragen, womit sie diesen eigentlich begründen (wollen).

Unser Umweltbundesamt BMUB agitiert und „informiert“ darüber. Allerdings weitgehend faktenfrei. Und übersieht dabei schon mal, dass in empfohlenem Anschauungsmaterial das Gegenteil vom Gesagten zu sehen ist.
[4] Film Bedrohte Paradiese: Malediven – Ein Paradies geht unter:
In diesem zur Anschauung empfohlenen Film wird fast eine halbe Stunde lang durchgängig gezeigt, wie die Atolle direkt durch Menschen zerstört werden – und nicht über den Klimawandel:
Der Klimawandel selbst erscheint nur in einem Satz, in dem der Fachmann erwähnt, dass der Meerespegel steigen könnte, und selbst dies sofort mit der Information relativiert: Eine gesunde Atollinsel wächst ausreichend schnell mit einem steigen Pegel mit und hätte durch Klimawandel-bedingten Pegelanstieg keinerlei Gefahr. Gerade auf den Malediven wird die Lebensgrundlage der Korallen jedoch durch ungehemmte Bau, Abfall – und Tourismusmaßnahmen so massiv zerstört, dass diese Fähigkeit akut gefährdet ist.
Um die „Information“ perfekt zu machen, hat die Regierung von Kiribatti einen eigenen „Klima-Untergangs-Propagandafilm“ gedreht: [4] Video: A call to the world
Bei diesem handelt es sich um einen Vulnerabilitäts-Propagandafilm der Regierung von Kiribati. Im Video selbst werden überhaupt keine Daten, sondern (nicht relativierte und oft nicht zuordenbare), „aktuelle Auswirkungen“ gezeigt sowie schlimme Zukunftsszenarien vorhergesagt. An wirklicher Information bietet er nichts, sofern man von einer unverbindlichen Bestätigung für Klimagläubige absieht.

All das lässt sich in mehreren Recherchen mit vielen Fakten detailliert nachlesen:
EIKE 15.04.2017: [4] Im Klimawandel-Unterricht bitte üben, wie man unsere Regierung zum Bezahlen von Schutzgeldern auffordert
EIKE 24. April 2019: Kiribati versinkt wieder, das ist professionell recherchiert
EIKE 12.06.2017: Fake News: Zuerst der SWR, nun der BR: Ein Südseeparadies versinkt im Meer. Öffentlich-Rechtliche Klimawandel-Agitation in Endlosschleife
[2] EIKE 14.12.2015: Gehen die Südseeinseln wirklich wegen des Klimawandels unter, Teil 3 Die Marshall-Inselgruppe – (kein) Beispiel für einen Untergang

Woher die Aussage, Kiribati würde so um die Jahre 2060 untergehen stammt, kann man ahnen: Es wird irgendeine der berüchtigten „Grafiken des puren (Klima)Wahnsinns“ vom PIK dahinter stecken. Wozu die in ihre Simulationen verliebten (Pseudo-)Forscher des PIK dabei fähig sind anbei.
Bis vor einiger Zeit waren die PIK-Simulationsergebnisse noch fast „banal“. Anstelle realistischer Pegel zum Jahr 2100 von irgendwo zwischen +10 … 30 cm (oder des IPCC von 30 … 60 cm) simulierten sie „nur“ erhöhte +1,4 … 2 m.

Der gemessene Tidenpegel zeigt zwar keinerlei Tendenz zum Anstieg und mit zwischen 1.5 … 2 mm/pa nicht die Spur eines Alarms:

Bild 3 Meerespegel-Simulationsvarianten. Vom Autor anhand verschiedener Publikationen erstellt

Doch Computer und Simulationsprogramme denken nicht mit. Sitzt jemand davor, der es ebenfalls nicht macht, berechnen sie stur, was eingegeben wird. So auch, wie der Meerespegel im Jahr 2100 aussehen könnte.
Es wäre kein Problem, wenn die Person vor dem Computer das Ergebnis „erkennen“ und in einer Datensenke verschwinden ließe. Leider werden solche Simulationsergebnisse heutzutage von solchen Personen mit stolz geschwellter Brust veröffentlicht (und auf GRÜNEN Parteitagen mit Begeisterung aufgenommen [3]):

Bild 4 Meerespegel-Simulationsvariante aus einer Studie unter Teilnahme des PIK. Beachten: Das kleine, blaue Rechteck ist in etwa maßstabsgetreu die Grafik von Bild 3.

Kinder lernen, dass Gemüseanbau etwas daran retten kann

Die Autorin zieht alle Register um die Kinder in ihrem Sinn zu beeinflussen. Kinder wollen immer helfen, also erzählt man ihnen, wie es geht: Der Schulgarten wird reaktiviert damit er das böse CO2 speichert.
Dass durch das Ernten und Essen alles gespeicherte CO2 wieder frei wird, muss man Kindern ja nicht erzählen, das wissen ja viele Erwachsene auch nicht …

Warum das Pflanzen von Bäumen (was auch von vielen NGOs massiv propagiert wird) dem über CO2-Reduktion dem Klima nützen soll, wissen wohl auch nur wirkliche „Klimafachpersonen“. Einmal ist wie fast immer beim sich stetig wandelnden Klima nichts wirklich sicher (bekannt): [5] Springer Verlag: Geowissenschaften & Geographie Hilft Bäume pflanzen gegen den Klimawandel?
Es ist nie zu spät, einen Baum zu pflanzen – oder doch? Forscher haben jetzt untersucht, ob das Pflanzen zusätzlicher Bäume gegen den Klimawandel helfen könnte. Ihr Ergebnis: Ja und nein. Denn es kommt darauf an, wo aufgeforstet wird. In den hohen Breiten könnte zusätzlicher Waldbestand das Klima sogar weiter anheizen, statt die Treibhausgas-Konzentration zu senken, in gemäßigten Regionen ist das Anpflanzen von Bäumen klimatisch wirkungslos.
Und dort, wo Wald dem Klima helfen soll, bleibt eine Tatsache trotzdem bestehen: Mit dem durch nichts verhinderbarem Absterben jedes Baumes setzt dieser sein CO2 wieder frei. Hat man das „erkannt“ und bezieht es in die Bilanzberechnungen mit ein, können sich CO2-Minderungserfolge plötzlich ins Gegenteil wenden, langfristig fällt die Minderung damit physikalisch bedingt sowieso grundsätzlich aus und führt nur zu einer zeitlichen Verschiebung (ausgerechnet in die Zeit, wo es mit der Erderwärmung besonders schlimm geworden sein soll, also als pure Problemverschärfung für kommende Generationen. Fällt nur nicht auf, da es bei der offiziell Bilanzierung nicht berücksichtigt werden muss:
ARD Tagesschau 16.02.2019: Klimabilanz schön gerechnet Kanadas Wald – eine CO2-Schleuder
… Allein 2016 hat Kanadas Wald theoretisch 152 Megatonnen CO2 gespeichert. Enorme Waldbrände in dem Jahr und ein massiver Käferbefall, der Bäume absterben ließ, hat aus dem Wald als CO2-Speicher in dem Jahr aber tatsächlich in der Bilanz einen Treibhausgasproduzenten von 92 Megatonnen CO2 gemacht. Die sind in der Atmosphäre, aber nirgendwo auf dem Papier …
… Da aber zumindest seit 15 Jahren der bewirtschaftete Wald Kanadas – eine gigantische Fläche von 226 Millionen Hektar – Jahr für Jahr mehr CO2 produziert, als er aufnimmt, haben sie beschlossen, in ihre Statistik nur noch die Emissionen einzurechnen, auf die der Mensch auch Einfluss habe ..,

Aber nicht nur Grimms Märchen liefern für Kinder erbaulich-lehrreichen (und teils extrem grausamen) Lesestoff (diese Märchen waren ursprünglich zur „Belehrung“ für Erwachsene gedacht).

Bild 5 Screenshot aus einer Vorschau zum Buch

Fazit

Das Buch täuscht Wissen vor, bringt dann aber ganz subtil nur gängige, aber eben falsche Fakten. Die vielen Rezensionen finden das aber überwiegend ganz toll und höchst empfehlenswert.

Quellen

[1] AFP 02.04.2020: Schulze warnt vor Abstrichen bei Klimaschutz wegen Corona-Krise

[2] EIKE 14.12.2015: Gehen die Südseeinseln wirklich wegen des Klimawandels unter, Teil 3 Die Marshall-Inselgruppe – (kein) Beispiel für einen Untergang

[3] EIKE 25.05.2018: Zu jedem Parteitag eine Freifahrt in der Klima-Geisterbahn

[4] EIKE 15.04.2017: Im Klimawandel-Unterricht bitte üben, wie man unsere Regierung zum Bezahlen von Schutzgeldern auffordert
[5] Springer Verlag: Geowissenschaften & Geographie Hilft Bäume pflanzen gegen den Klimawandel?




Woher kommt der Strom? 1. April in der ARD

(Abbildung). Grundlage ist eine Pressemitteilung des BDEW (Abbildung 1)

Was aber im Prinzip nur eine marginale Rolle spielt. Natürlich müsse an der Energiewende weitergearbeitet werden. Insbesondere der Windkraftausbau stocke, der Deckel (52 GW) des Ausbauvolumens für Photovoltaikanlagen sei fast erreicht und müsse aufgehoben werden.

Sonst würde das nichts mit den 65 Prozent Strom, erzeugt mittels erneuerbarer Energieträger bis zum Jahr 2030. Wobei unsere Energiewender davon ausgehen, dass der Stromverbrauch bis dahin kaum steige. Man geht immer davon aus, dass das Mehr an Strombedarf wegen Verkehrs- und Gebäudewende (E-Mobilität und Heizen mittels Wärmepumpen) anderswo eingespart wird. Das „Einsparpotenzial“ ist im Übrigen die Komponente, die regelmäßig dann herangezogen wird, damit eine Energiewende-Rechnung aufgeht. Dem Bürger wird weder vom BDEW noch vom ZDF erzählt, dass – Rekord hin, Rekord her – zum Beispiel vom 22.1. bis 26.1.2020 kaum Strom mittels Wind- und Sonnenkraftwerken erzeugt wurde (Abbildung 2). Das mussten die konventionellen Stromerzeuger richtig zubuttern. Sonst wären die Lichter ausgegangen. Apropos zubuttern: Das müssen die konventionellen Stromerzeuger jeden Tag. Wind- und Sonnenstrom plus Biomasse/Wasserkraft haben noch nicht einen Tag, nicht eine Stunde ausgereicht, um den Strombedarf Deutschlands zu decken (Abbildung 3)

Auch nicht in der 13. Woche unserer Analyse. Diese war dennoch ein Paradebeispiel für regenerative Stromerzeugung. Der Wind wehte bei sonnigem Wetter insgesamt kräftig. So wurden in dieser Woche nicht nur die 49% des Durchschnitts erstes Quartal 2020 erreicht. Es waren sogar 64,20%. Das waren fast die 65%, die für 2030 anvisiert werden. Die Tabelle mit den Detailzahlen der Energy-Charts und der daraus generierte Chart zeigen, wie viel konventioneller Strom trotz dieser fast idealen Stromerzeugung mittels regenerativer Energieträger hinzu erzeugt werden muss. Wenn man nun noch mal an den obigen Zeitraum mit kaum Stromerzeugung aus Wind- und Sonnenkraftwerken denkt, dann weiß man, dass es ganz schwierig wird, ganz schwierig mit Deutschlands Energiewende

Die Tagesanalysen

Sonntag, 22.3.2020: Anteil erneuerbare Energieträger an der Gesamtstromerzeugung 74,81%, davon Windstrom 44,44%, Sonnenstrom 17,04%, Strom Biomasse/Wasserkraft 13,33%. Die Agora-Chartmatrix: Hier klicken

Es ist Sonntag. Es ist für einen Sonntag viel zu viel Strom im Markt. Und das, obwohl die konventionellen Stromerzeuger ihre Produktion schon stark gedrosselt haben. Die Preise liegen zwischen 0,02 € und 22,93 €/MWh, wenn sie nicht negativ sind. Das ist vom 9:00 bis 16:00 Uhr der Fall. Um 13:00 Uhr werden für die Abnahme des Stroms aus Deutschland 55,05 €/MWh mitgegeben. Das freut vor allem Dänemark, das ab 18:00 Uhr Strom an Deutschland verkauft. Zu den Höchstpreisen des Tages. Obwohl die Pumpspeicherstromerzeugung hochgefahren wird, reicht es nicht, den kompletten Strombedarf mit selber erzeugtem Strom zu decken. Deshalb muss der über Tag mit Bonus verschenkten Strom am Abend zum Teil zurückgekauft werden. (Für unsere ganz genauen Leser: Es ist natürlich anderer, zum jeweiligen Zeitpunkt erzeugter Strom, den Dänemark liefert!)

Montag, 23.3.2020: Anteil erneuerbare Energieträger an der Gesamtstromerzeugung 65,96%, davon Windstrom 36,46%, Sonnenstrom 17,73%, Strom Biomasse/Wasserkraft 12,77%. Die Agora-Chartmatrix: Hier klicken.

Der Strombedarf steigt. Obwohl die erneuerbaren Energieträger wieder „super“ Strom produzieren, fällt der Preis heute nicht unter die Null-Linie. Gleichwohl ist das Preisniveau zumindest über Tag recht niedrig. Denn Deutschland exportiert Strom. Die meiste Zeit bewegt sich der Preis zwischen 10 und 20 €/MWh. Bis 16:00 Uhr. Dann kommt die „berühmte“ Abendstromlücke. Die Sonne geht unter; Windstrom steht nicht in ausreichendem Maß zur Verfügung, um den in diesem Zeitraum steigenden Bedarf abzudecken. Obwohl die Konventionellen anziehen und Pumpspeicherkraftwerke aktiviert werden: Es reicht nicht. Was ein Hochschnellen des Strompreises zu Folge hat. In der Spitze liegt er bei 33,14 €/MWh. Was nicht viel scheint. Wenn aber zum Beispiel an Frankreich, die Schweiz und Österreich über Tag der Strom für um die 10 € verkauft wurde, dann ist der Bezug von Strom aus eben diesen Ländern ein paar Stunden später für Preise bis zu 33,14 €/MWh kein gutes Geschäft. Zumindest nicht für Deutschland.

Dienstag, 24.3.2020: Anteil erneuerbare Energieträger an der Gesamtstromerzeugung 61,27%, davon Windstrom 30,99%, Sonnenstrom 17,61%, Strom Biomasse/Wasserkraft 12,68%. Die Agora-Chartmatrix: Hier klicken.

Heute tun sich zwei Stromlücken auf. Am Morgen und am Abend. Das Preisniveau ist insgesamt moderat. Es liegt zwischen 13 und 33 €/MWh. Wobei die Preisverteilung ähnlich ist wie an den beiden Vortagen. Das benachbarte Ausland kauft günstig ein und verkauft verhältnismäßig teuer.

Mittwoch, 25.3.2020: Anteil erneuerbare Energieträger an der Gesamtstromerzeugung 60,27%, davon Windstrom 30,82%, Sonnenstrom 17,12%, Strom Biomasse/Wasserkraft 12,33%. Die Agora-Chartmatrix: Hier klicken.

Insgesamt das gleiche Bild wie gestern. Die Stromlücken sind kleiner. Die Pumpspeicher schaffen fast den Ausgleich. Das Preisniveau ist moderat. Deutschland verkauft seinen hoch subventionierten Wind- und Sonnenstrom mit Verlust. Wie immer. Denn das, was den Windmüllern, den Sonnenstrom-Erntern dank 20 Jahre EEG gezahlt wird, zahlen nicht die Akteure an der Börse. Das zahlt der Stromkunde in Deutschland.

Donnerstag, 26.3.2020: Anteil erneuerbare Energieträger an der Gesamtstromerzeugung 60,99%, davon Windstrom 33,33%, Sonnenstrom 14,89%, Strom Biomasse/Wasserkraft 12,77%. Die Agora-Chartmatrix: Hier klicken

Ein kleine Stromlücke zum Abend, die relativ teuer gedeckt wird. Die Schweiz und Frankreich profitieren.

Freitag, 27.3.2020: Anteil erneuerbare Energieträger an der Gesamtstromerzeugung 59,42%, davon Windstrom 29,71%, Sonnenstrom 16,67%, Strom Biomasse/Wasserkraft 13,04%. Die Agora-Chartmatrix: Hier klicken.

Heute keine Stromlücke. Der zum Morgen und zum Abend erzeugte Strom aus den Pumpspeichern (= konventionelle Kraftwerke, weil mit fossilem und Atomstrom betrieben), reicht aus. Für Preise zwischen 15 und 30 €/MWh wird der Strom per Saldo exportiert. Vor allem die Schweiz und Frankreich machen gute Geschäfte. Österreich füllt seine Speicher in den Alpen zu günstigen Preisen mit Strom aus Deutschland.

Samstag, 28.3.2020: Anteil Erneuerbare an der Gesamtstromerzeugung 66,67%, davon Windstrom 32,50% Sonnenstrom 19,17%, Strom Biomasse/Wasserkraft 15,00%. Die Agora-Chartmatrix: Hier klicken.

Der Strompreis schwankt heute zwischen -0,72 und etwas über 20 €/MWh. Die Stromversorgung ist heute auf Kante genäht. Die starke Sonnenstromerzeugung führt wie praktisch jeden Tag zu einem Einbruch der Preise, was heute – wie zu Wochenbeginn – zu einem negativen Strompreis führt, der allerdings bei weitem nicht so hoch ausfällt wie am Sonntag.

Eine starke Woche der erneuerbaren Energieträger mit fast 65% Stromerzeugung, bezogen auf die Gesamtstromerzeugung, belegt auch diesmal, dass dieser Sachverhalt mit Wirtschaftlichkeit verbunden ist. Wenn man bedenkt, dass diese Woche eine Ausnahmewoche war, kommen einem sofort die Kosten in den Sinn, die aufzuwenden sind, um insbesondere die Windkraft so auszubauen, dass die 65% zumindest im Durchschnitt regelmäßig erreicht werden. Sonnenstrom, der lediglich mit Faktor 8 (8 GW installierte Leistung = 1 GW Strom) geerntet wird, spielt – auch wegen der Deckelung – kaum noch eine Rolle. Windstromanlagen sind mittlerweile auch in der Gunst der Betroffenen stark gefallen. Es sieht düster aus für Deutschlands Energiewende.

Ordnen Sie Deutschlands CO2-Ausstoß in den Weltmaßstab ein. Zum interaktiven CO2-Rechner: Hier klicken. Noch Fragen?

Ergänzungen? Fehler entdeckt? Bitte Leserpost schreiben! Oder direkt an mich persönlich: stromwoher@mediagnose.de. Alle Berechnungen und Schätzungen durch Rüdiger Stobbe nach bestem Wissen und Gewissen, aber ohne Gewähr. Die bisherigen Artikel der Kolumne Woher kommt der Strom? mit jeweils einer kurzen Inhaltserläuterung finden Sie hier.

Zuerst erschienen bei der Achse des Guten; mit freundlicher Genehmigung.

Rüdiger Stobbe betreibt seit vier Jahren den Politikblog  www.mediagnose.de




Bundesparlamen­tarische Anfragen der AfD über optimale Tempe­raturen

Fragen und Antworten

Der folgende Beitrag stützt sich auf eine kleine parlamentarische Anfrage im deutschen Bundestag zum Thema „Klimaschutz“ und versucht den Hintergründen von Anfrage und Antwort der Bundesregierung (BR) nachzugehen. Weil „Klimaschutz“ – was immer man auch unter diesem fragwürdigen Begriff verstehen mag – von allen im Bundestag vertretenen Parteien befürwortet wird, allein die AfD ausgenommen, handelt es sich logischerweise um eine Anfrage dieser Partei. Dem Autor sind keine „klimakritischen“ Anfragen anderer Parteien bekannt. Falls sich dies zukünftig ändern sollte – infolge der zu erwartenden wirtschaftlichen Katastrophe nach der Corona-Krise ist dies nicht auszuschließen – wird EIKE darüber berichten.

Im hier besprochenen Fall handelt es sich um die jüngste aller bisherigen parlamentarischen Anfragen der AfD zum Klimathema, bei der die Frage gestellt wurde, welche globale Mitteltemperatur die BR denn nun als optimal ansehe – Titel der Anfrage „Die optimale globale Mitteltemperatur“ (hier). Bereits am 26. November 2018 hatte die AfD bereits eine thematisch ähnliche Anfrage gestellt und zwar über die „genaue Bezugstemperatur des Pariser 2-Grad-Ziels und Rolle des CO2“ (hier). Bevor es nun weiter geht, ist vielleicht eine  Zusammenstellung_Anfragen der AfD im Bundesparlament zum Thema „Klimaschutz“ und „Energiewende“ von Interesse. Viele Leser werden vielleicht von der hohen Frequenz der Anfragen überrascht sein.

Natürlich sind nicht nur die Fragen sondern insbesondere die Antworten der BR bemerkenswert. Zur ersten der beiden erwähnten Anfragen, also zur Frage über die genaue Bezugstemperatur des Pariser 2-Grad-Ziels und Rolle des CO2 lässt sich die Antwort der BR verkürzt aber zutreffend als gar keine Antwort zusammenfassen. Um Missverständnisse zu vermeiden: natürlich hat die BR nicht nur formal korrekt, sondern auch wortreich geantwortet. Es geht hier aber um die relevanten Sachinhalte in der Antwort, und die dürfen als „gleich Null“ gelten.

Tatsächlich lässt sich die BR in ihrer ersten Antwort ausführlich über reale Bestimmungsprobleme von Bezugstemperaturen aus, und betont ihren Glauben, man könne sie zumindest auf eine Stelle genau hinter dem Komma angeben. Nach dieser für die Fragesteller offenbar unbefriedigenden und zudem noch sachlich falschen Antwort wurde die jüngste Frage am 27.02.2020 in ähnlicher Art gestellt, diesmal nach der optimalen globalen Mitteltemperatur (Bundesdrucksache 19/17421), welche die Bundesregierung mit ihrer „Klimaschutzpolitik“ anzustreben gedenkt.

Die Antwort auf diese Anfrage ist ebenfalls bereits gegeben, aber noch nicht als Bundesdrucksache erschienen. (Nachtrag 9.4.20: Inzwischen erschienen hier)Sie ist aber öffentlich und wurde uns deshalb von der AfD-Fraktion zur Verfügung gestellt, wobei die erste Seite mit persönlicher Unterschrift der parlamentarischen Staatssekretärin, Frau Rita Schwarzelühr-Sutter, aus Datenschutzgründen entfernt ist (Antwort BR). Man darf davon ausgehen, dass diese Antwort nicht von den zuständigen Parlamentsmitgliedern oder der vorgenannten Staatsekretärin inhaltlich verstanden und verfasst wurde. Die wahren Autoren sind uns unbekannt – man kann höchstens Vermutungen anstellen, wir überlassen diese den Lesern.

Wir empfehlen, den Text dieser jüngsten kleinen Anfrage und die Antwort der BR zumindest zu überfliegen. Allein schon deswegen, um ganz allgemein eine bessere Vorstellung von Antwortmethoden zu erhalten, welche – auf die alten Griechen zurückgehend – als Sophismus bezeichnet werden.  In dieser Diskussion zwischen den Fragestellern und der BR – die im Grunde gar keine Diskussion ist, weil die Antworten der Bundesregierung ausweichen und den Kern der angefragten Probleme grundsätzlich niemals berühren – schimmert dennoch bereits der vermiedene Problemkern hervor. Bevor auf diesen eingegangen wird, seien zum besseren Verständnis ganz knapp die betreffenden Standpunkte noch einmal zusammenfasst:

Standpunkt der Anfrageseite

Das Pariser Klima-Abkommen verlangt das Verbot einer Überschreitung von 2 °C – vorzugsweise 1,5 °C – globaler Erwärmung durch Reduzierung von CO2-Emissionen.  Der Anfrageseite sind die Unsicherheiten der Bestimmung  dieser Temperaturgrenzen bekannt, ebenso die praktische Unmöglichkeit, überhaupt eine ideale „globale Mitteltemperatur“ anzugeben. Sie verlangt daher von der Bundesregierung, eine am Stand der Wissenschaft orientierte nachvollziehbare Begründung der verwendten Referenztemperatur zu liefern, die für entschiedene Zustimmung zur Pariser Klima-Übereinkunft maßgebend sei.

Standpunkt der Bundesregierung

Sie hätte volles Vertrauen in die Aussagen des IPCC, wonach der Bezugszeitraum über 1,5 °C globale Erwärmung 1850-1900 als klimatologisch vorindustriell definiert sei. Eine Überprüfung dieses offensichtlichen Unsinns (noch nie etwas von der mittelalterlichen oder der römischen Warmzeit gehört?) seitens neutraler Stellen (Peer-Review) wird von der BR erst gar nicht in Betracht gezogen. Die BR zieht demnach in einer wissenschaftlichen Fragestellung eine politische Organisation (IPCC) der wissenschaftlichen Fachliteratur vor. Ferner bestätigt die BR, überhaupt keine Referenztemperatur zu verwenden. Sie verwende ausschließlich Temperaturveränderungen zur Beurteilung der Maßnahmen der Pariser Klimaübereinkunft.

Fazit:

Man redet aneinander vorbei. Die Bundesregierung schreibt viel Text in ihre Antworten hinein, weicht aus, kommt aber ihrer Antwortpflicht formal korrekt nach. Dieses Vorgehen wurde hier bereits als sophistisch kritisiert.

 

Wie geht es nun weiter?

Der Autor dieses Beitrags hält es angesichts der geschilderten Situation für nutzlos, detailliert auf die Frage nach einer bodennahen globalen Mitteltemperatur näher einzugehen. Man kann diesen Wert zwar mit mathematischen Verfahren bestimmen, er ist aber physikalisch sinnlos. Die Mittelung von Temperaturen weit voneinander entfernter Messstationen, wie sie zur Konstruktion einer globalen Mitteltemperatur erforderlich wird, ist problematisch.

Zur Veranschaulichung füge man eine 100 °C heiße Eisenplatte mit einer Holzplatte identischer Abmessungen zusammen, wobei letztere aber nur 0 °C warm ist. Volumenbezogen beträgt der Temperaturmittelwert dieser Verbindung von Eisen und Holz 50 °C, real stellt sich wegen der größeren Wärmekapazität des Eisens aber ein weit höherer Wert ein. Etwa 70 % der Erdoberfläche sind Ozeane, die eine höhere Wärmekapazität als Landmassen aufweisen, und die weit überwiegende Anzahl von Messstationen befindet sich auf Land. Im Grunde lassen sich zuverlässigere Aussagen für Mittelungen von Temperaturreihen nur über nicht zu große Entfernungen gewinnen. Die extrem ungleichmäßige Abdeckung von Messstationen auf der Erde, die Unterschiede von Landklima zu maritimem Klima, die riesige Spannweite der auf der Erde vorkommenden Temperaturen (Rekordwerte von -89 °C bis hin zu +56 °C) sowie zahlreiche weiteren Störgrößen machen die Berechnungen von orts- und zeitgemittelten Globaltemperaturen so gut wie wertlos.

Aus diesem Grunde wird ein anderer Blick auf die Auseinandersetzung zwischen den parlamentarischen Anfragenden und BR gerichtet, der zur Frage nach dem eigentlichen Kern der Problematik führt. Diese Frage nach dem eigentlichen Problemkern, deren Beantwortung die BR bzw. die ihr zuarbeitenden pseudowissenschaftlichen Institutionen konsequent verweigern, soll nachfolgend beantwortet werden.

 

Das eigentliche Kernproblem

Die Bundesregierung (BR) hat, wie schon erwähnt, die kleine Anfrage der AfD (Bundesdrucksache 19/17421) ausführlich und ausweichend, aber formal korrekt beantwortet. Ihre Antwort belegt freilich, dass weder von einem Verständnis der hier behandelten Fragestellung, noch von dem Willen, dazu die Rede sein kann. Die BR lehnt es in ihrer Antwort ab, einen absoluten Referenzwert für die globale Mitteltemperatur von 1850 zur Beurteilung des rezenten Temperaturanstiegs anzugeben, weil von ihr absolute Temperaturen von 1850 – und insbesondere vor 1850 – als unerheblich beurteilt werden.

Nun beginnt die Klimageschichte aber keineswegs erst mit dem Jahr 1850. Insbesondere die absoluten Temperaturen vor 1850 sind für die Beurteilung unverzichtbar, ob die rezente Warmperiode als ungewöhnlich oder gar gefährlich anzusehen ist. Die allein maßgebende Fachliteratur – das IPCC ist eine politische Organisation und daher hier allenfalls nur zum Teil maßgebend – belegt, dass im Holozän (nacheiszeitliche Periode) wesentlich höhere Temperaturen herrschten als heute. So zeigen z. B. die Forscher Lecavalier et al. [1], dass Grönland vor 8000 Jahren etwa um 3 °C wärmer war als heute (s. Fig. 6 in [1]). Analoge Aussagen macht insbesondere auch die  Gletscherforschung der Alpen, die ein besonders umfangreiches Datenmaterial aufweisen kann [2], [3], [4].

Durch maßgebend höhere Temperaturen verursachte Klimaschäden vor 1850, wie sie gegenwärtig völlig ubegründet durch unsere klimahistorisch milde Erwärmung befürchtet werden, sind nicht bekannt. Dies bestätigen insbesondere weitere Temperaturmaxima des Holozän vor 4500 und vor 6500 Jahren [5], [6], [7]. Die Warmzeit vor 4500 Jahren begünstigte das Entstehen der ersten Zivilisationen an Euphrat und Nil. Das Rad, der Bogen, die Schrift, der Pflug, die Sonnenuhr und die systematisch Verwaltung wurden in dieser Epoche erfunden, in welcher die Temperaturen deutlich über den heutigen Werten lagen. Die römische und mittelalterliche Warmzeit als globalweite Ereignisse [12], [13] sind dem Publikum noch besser bekannt.

Generell bestätigt die Menschheitsgeschichte, dass kaltes Klima stets Missernten, Seuchen und Völkerwanderungen nach sich zog, warmes Klima dagegen mit kulturellen Höhepunkten gleichzusetzen ist. Dies sollte bereits Grund für die BR sein, den Nutzen des für uns extrem kostspieligen Pariser Klimaabkommens in Frage zu stellen. Ihr o.g. volles Vertrauen in die Aussagen des IPCC, wonach der Bezugszeitraum über 1,5 °C globale Erwärmung 1850-1900 als klimatologisch vorindustriell definiert sei, wurde von der BR nicht an Hand der oben genannten Klimafakten überprüft. Wer auch immer den unglaublichen sachlichen Unsinn in der Antwort BR verantwortet, hat entweder von der Klimageschichte keine Ahnung oder verschweigt bewusst wissenschaftlich gesicherte Erkenntnisse.

Nun zu den Temperaur-Differenzen! Die Antwort der BR auf die hier behandelte kleine Anfrage stützt sich schließlich, wie schon erwähnt, ausschließlich auf Temperaturdifferenzen ab 1850 bis heute. Es ist im Folgenden überflüssig, auf die sicher interessanten Fehler und Unsicherheiten in den von der BR zitierten Quellen näher einzugehen. Entscheidend ist die nicht akzeptable Weigerung der BR, auch bei den von ihr bevorzugten Temperaturdifferenzen die Zeit vor 1850 überhaupt zur Kenntnis zu nehmen!

Untersucht man Temperaturproxies [8], die weiter als 1850 zurückreichen wie z. B. Eisbohrkerne, Baumringe, Tropfsteine und Sedimente, so zeigt sich, dass praktisch beliebig oft stärkere Temperaturänderungen über z. B. 50 oder auch 100 Jahre Dauer aufzufinden sind – sowohl in Richtung Erwärmung als auch Abkühlung [9]. Bereits die sehr zuverlässige, weil direkt gemessene, mittelenglische Thermometer-Temperatur-Reihe CET von 1659 bis heute [10], [11] bietet hierzu Einschlägiges! Sie weist den stärksten Temperaturanstieg über 50 Jahre von 1,87 °C im Zeitraum 1687-1737 aus. In jüngerer Zeit zeigt die CET dagegen nur maximal 1,32 °C Temperaturerwärmung von 1961–2011 (Werte aus linearer Regression).

Zusammenfassung

Die BR hat die hier besprochenen kleinen Anfragen der AfD ausführlich, ausweichend, sophistisch aber formal korrekt beantwortet. Ihre Antworten belegen freilich, dass weder von einem Verständnis der hier behandelten Fragestellungen und ihrer Hintergründe noch von dem Willen zu einem Verständnis und damit dem Willen nach sachlicher, nicht ideologisch geprägter Politik die Rede sein kann.

Eine rationale Überprüfung des Pariser Klimaabkommens auf realen Nutzen fehlt bei so viel Sophismus ebenfalls. Und dennoch wird die BR nicht müde seine strikte Befolgung zu betonen. Rational ist dies nicht mehr nachvollziehbar, allenfalls überbordende Grünideologie oder schlichte Dummheit sind als Gründe noch denkbar. Die gut bekannten Klimadaten vor 1850 und ihre Auswertungen in der Fachliteratur, welche für die Beantwortung der Frage nach der Schädlichkeit oder gar dem Nutzen der rezenten globalen Erwärmung unverzichtbar sind, werden von der BR konsequent ignoriert. Es bleibt daher nur zu konstatieren:

Das Ausblenden der Klimavergangenheit vor 1850 macht jegliche sachgerechte Klimapolitik unmöglich und ist wissenschaftlich nicht haltbar.

 

Quellen

[1] Lecavalier, B. S., Milne, G. A., Vinther, B. M., Fisher, D. A., Dyke, A. S., Simpson, M. J., 2013. Revised estimates of Greenland ice sheet thinning histories based on ice-core records. Quaternary Science Reviews, 63, 73-82.

[2] Patzelt, G., 2019. Gletscher: Klimazeugen von der Eiszeit bis zur Gegenwart. Berlin: Hatje Cantz.

[3] Holzhauser, H., 1982. Neuzeitliche Gletscherschwankungen. Geographica Helvetica, 37(2), 115-126. Sowie: Holzhauser, H., 2009. Auf dem Holzweg zur Gletschergeschichte. Mitteilungen der Naturforschenden Gesellschaft in Bern, 66, 173-208.

[4] Nicolussi, K., 2009. Klimaentwicklung in den Alpen während der letzten 7000 Jahre. In: K. Oeggland, M. Prast (Hrsg.). Die Geschichte des Bergbaus in Tirol und seinen angrenzenden Gebieten, S. 109–124. Innsbruck: University Press.

[5] Eine Höhle in der Sahara enthält enthält über 4000 Jahre alte Höhlenmalereien von schwimmenden Figuren – Wikipedia. https://de.wikipedia.org/wiki/Höhle_der_Schwimmer

[6] Die Grüne Vergangenheit der Sahara. Vortrag von Prof. Stefan Kröpelin, Universität Köln, am 24.11.2018 – Youtube. https://www.youtube.com/watch?v=JcsSHPjdsOo.

[7] H. Kehl, TU-Berlin. Zur Zeit noch gültiger Link der TU Berlin, der sich voraussichtlich in Kürze ändert: http://lv-twk.oekosys.tu-berlin.de/project/lv-twk/002-holozaene-optima-und-pessima.htm. Die Temperaturkurve wird bereits gezeigt in Schönwiese, C., Klima im Wandel – Von Treibhauseffekt, Ozonloch und Naturkatastrophen. 1994, rororo 9555.

[8] NOAA, National Centers for environmental information, https://www.ncdc.noaa.gov/data-access/paleoclimatology-data

[9] Kemp, D. B., Eichenseer, K., Kiessling, W., 2015. Maximum rates of climate change are systematically underestimated in the geological record. Nature communications, 6, 8890.

[10] CET, Met Office Hadley centre observations datasets, https://www.metoffice.gov.uk/hadobs/hadcet/

[11] Smith, A. D., 2017, An Analysis of Climate Forcings from the Central England Temperature (CET) Record, British Journal of Environment and Climate Change, 7(2), 113-118.

[12] Lüning, S., Gałka, M., Vahrenholt, F., 2017. Warming and cooling: the medieval climate anomaly in Africa and Arabia. Paleoceanography, 32(11), 1219-1235. Weitere Studien zur globalen mittelalterlichen Warmzeit in Google Scholar mit dem Suchbegriff “Lüning, medieval warming”.

[13] PROJEKT: Die Mittelalterliche Wärmeperiode. Kalte Sonne, 07.12.2015. https://kaltesonne.de/die-mittelalterliche-warmeperiode/




Wir trauern um Dr. S.Fred Singer

Fred Singer als Redner anlässlich der 1. EIKE Klimakonferenz am 30.Mai 2007

Dr. Singer war Hauptredner auf unserer allerersten Klimakonferenz in Berlin im Jahre 2007 in den Räumen des Instituts für Unternehmerische Freiheit (IUF) am 30.5.2007 unmittelbar nach unserer Gründung. Und hielt uns auch in allen Folgejahren die Treue, auch wenn in den letzten Jahren, seine körperliche Beschaffenheit weite Reisen von seinem Wohnsitz in Virginia USA zunehmend beschwerlicher machten. Doch sein unbändiger Willen, die Wissenschaft nicht zu einem Wasserträger der Politik verkommen zu lassen, was sich besonders in der zunehmenden Vereinnahmung der Umweltwissenschaften durch diese zeigte, erlaubte ihm seinem Körper alles abzuverlangen. Zu unser aller Glück machte der das auch fast 1 ½ Jahrzehnte lang mit. Denn keiner wäre mehr prädestiniert gewesen als er, genau diese Vereinnahmung zu sehen, denn er kam direkt aus der Wissenschaft und wirkte dort immer an herausragender Stelle, wie ein kurzer und auch nur auszugsweiser Blick auf seine außerordentliche Vita zeigt:

Fred Singer war zunächst – nach seiner Promotion 1947 in Princeton-  in der US-Botschaft in London als wissenschaftlicher Verbindungsbeamter (1950-53) tätig und dann eines von 12 Mitgliedern der American Astronautical Society der 300 besten Wissenschaftler des Landes (1954-56). Danach wurde er Direktor des Centre for Atmosphere- and Spacephysic der University of Maryland (1953–62); dann erster Direktor des Nationalen Wettersatellitendienstes (1962–64); dann Gründungsdekan der School of Environmental and Planetary Sciences der University of Miami (1964–67); stellvertretender Sekretär für Wasserqualität und Forschung im US-Innenministerium (1967–70); stellvertretender Administrator für Politik, US-Umweltschutzbehörde (1970–71); stellvertretender Vorsitzender des Nationalen Beratenden Ausschusses für Ozeane und Atmosphäre (NACOA) (1981–86); und Chefwissenschaftler am US-Verkehrsministerium (1987–89).

Seine wissenschaftlichen Arbeiten wurden außerdem über 200 Mal in führenden wissenschaftlichen Fachzeitschriften veröffentlicht. 1954 erhielt er von Präsident Eisenhower für seine Arbeit sogar einen Sonderpreis des Weißen Hauses.

Ohne jede Übertreibung kann angemerkt werden, dass man S.Fred Singer als Vater der US-Wettersatelliten bezeichnen darf. Atmosphärenphysik war seine Domäne.

Weil er sah, dass die aufkommende Umweltbewegung besonders mit der Politik eine für die Demokratie höchst gefährliche Symbiose anstrebte, gründete er bereits 1990 das  Science and Environmental Policy Project (SEPP) und 2008 in Wien das Nongovernmental International Panel on Climate Change (NIPCC). Beide Institutionen waren aktiv in der Gewinnung und Verbreitung wissenschaftlicher Fakten, gegen die zunehmende Ideologisierung der Umweltidee – und der aufkommenden Panikmache wg. des vermeintlich menschgemachten Klimawandels. Eine Fülle von wissenschaftlichen Büchern (Climate Change Reconsidered, oder Unstoppable Global Warming, Every 1,500 Years, zusammen mit Dennis Avery) und viele Arbeiten, die in dieser fruchtbaren Zeit, vielfach mit Unterstützung von Heartland und Cfact entstanden, legen davon ein beredtes Zeugnis ab.

Fred Singer bei der 5. IKEK in München 2012

Unser Freund, mein guter Freund S. Fred Singer, war außerdem ein lebendes Beispiel für die unsägliche Zerrissenheit und Grausamkeit unseres Kontinents im vorigen Jahrhundert. 1924 in Wien als Kind einer jüdischen Familie geboren, verließ er nach der Annexion Österreichs 1938 durch Nazideutschland im zarten Alter von 14 Jahren seine Heimat, floh zunächst in die Niederlande, wo er bei einem Optiker in die Lehre ging, um von dort weiter über England in die USA zu emigrieren. Nach seinem Dienst in der US Navy studierte er schließlich in Princeton Physik und promovierte 1947. Später studierte er auch noch Elektrotechnik an der Ohio State University und schloss dort mit einem Diplom ab. Fred sprach außer Englisch auch Deutsch, Schwedisch und Niederländisch.

Doch weder seine Vita noch seine außerordentlichen wissenschaftlichen Meriten hielten seine wachsende Gegnerschaft aus dem grün-linken Lager davon ab ihn, statt mit Argumenten, mit unsäglichen Diffamierungen und Lügen anzugreifen und mundtot machen zu wollen. Eine besonders schlimme Auswahl bietet dafür die deutsche WIKIPEDIA Ausgabe (hier) ihren Lesern. Immer wiederholt wird dabei u.a. die Lüge, dass Singer sich von der Tabaklobby hätte kaufen lassen, weil er – selber sein Leben lang Nichtraucher und Vorsitzender einer Nichtrauchervereinigung- wahrheitsgemäß festgestellt hatte, dass die Krebs erzeugende Wirkung des Passivrauchens wissenschaftlich nicht hätte nachgewiesen werden können.

Mein letzter Mailkontakt mit ihm datiert auf den 8. Oktober 2019, bei dem wir, der Vorstand von EIKE, ihm zu seinem 95. Geburtstag gratulierten. Eine Antwort darauf erhielten wir schon nicht mehr, sein Geist war wie wir wissen noch wach, aber der Körper wollte schon nicht mehr.

Leb wohl, guter alter Freund, ruhe in Frieden. Du hast soviel für diese Gesellschaft geleistet. Ich bin sehr stolz Dich zum Freund gehabt zu haben.




Corona-Hysterie: höherer Strom­verbrauch durch Quarantäne­maßnahmen führt zu höheren Preisen

Obwohl der Strompreis an den Börsen sank, erhöhen einige Anbieter die Preise für den Verbraucher. Mehr Nachfrage, höhere Kosten? Da das Volk zu Hause eingesperrt ist, werde mehr Strom verbraucht.

„Trotz der jetzigen Senkungen halten Stromanbieter an den Preiserhöhungen weiter fest“, betonte Meyer. „Und das obwohl zahlreiche Preiserhöhungen erst noch zum 1. Mai erfolgen und Anbieter somit die gefallenen Stromkosten noch berücksichtigen könnten“,

vermeldet die Junge Freiheit. Kommunale Stadtwerke könnten wegen Umsatzeinbußen zu Personalabbau gezwungen sein.

 




Frau Professor Dr. Kemfert verrechnet sich mal eben um einige hundert Milliarden €!

Professor Joachim Weimann, Ökonom, setzt sich in zwei Youtube Videos mit den Thesen von Professorin Claudia Kemfert auseinander. In diesem Blog wurde der Artikel von Kemfert aus der Zeitschrift Capital und auch die Reaktionen darauf bereits thematisiert.

 

Professor Weimann untersucht in diesem Video „Mythbuster bei Capital: Hat Claudia Kemfert recht?“ einige der Thesen der Energiewendeaktivistin aus dem Capital-Artikel, betont sachlich.

Kurzfassung: Der Faktencheck von Frau Kemfert hält keinem Faktencheck stand. Sie vergisst in ihrem Artikel einfach Posten und rechnet daher falsch, leider um mehrere Hundert Milliarden Euro. Am schönsten aber ist der Vergleich von Weimann zur Kemfert-These „Es sind keine Kosten, es sind Investitionen“. Hier sagt Weimann, man könne auch an einem zugefrorenen See stehen und behaupten, das wäre kein Eis sondern gefrorenes Wasser. Auch der Pizza-Vergleich (Man bezahlt doch auch die Pizza im Restaurant, auch wenn man sie nicht ganz isst) von Frau Kemfert kommt nicht gut weg in dem Video.Über den dubiosen Spiegel-Artikel, der Frau Kemfert zur Seite springen wollte, haben wir hier schon mal berichtet. Auch hier geht Professor Weimann in einem weiteren kritischen Youtube-Video sehr sachlich vor, obwohl er in diesem Artikel sehr persönlich angegriffen wird. Am meisten stören den Ökonomen die ad hominem Vorwürfe und die Verschwörungstheorien, die benutzt werden, um Personen zu verunglimpfen. Es geht nicht um die Sache und die Argumente, sondern um gut und böse. Kritiker der Energiewende, jedenfalls so wie Deutschland sie vollführt, sind böse. Das kann man so machen, aber dann wird kein vernünftiger Diskurs daraus an dessen Ende die Argumente den Ausschlag geben sollten. Beide Videos sind relativ kurz, aber sie sind absolut empfehlenswert.

 


+++
Der tägliche Quaschning. Jetzt geht es um Tausende Jobs, die verloren gehen (könnten).

Noch einmal zur Einordnung: Die Solarbranche hat in Deutschland einen Anteil von 0,05% der Gesamtbeschäftigten. Man könnte auch sagen, diese Branche ist unwichtig im Hinblick auf Arbeitsplätze. Laut Statista kommt die Windkraftbranche auf ca. 135.000 Arbeitsplätze. Das ist zweifelsfrei mehr als der Solarbereich. Zum Vergleich: die Lebensmittelindustrie kommt auf 5,8 Millionen Beschäftigte, der Maschinenbau in Deutschland auf etwa 1,1 Millionen, die chemische Industrie kommt auf 450.000 Beschäftigte. Die Aussagen des selbsternannten Experten Quaschning erinnern an den Jack Arnold Film-Klassiker aus dem Jahre 1959 mit den jungen aber bereits großartigen Peter Sellers, die Maus, die brüllte.

Der Beitrag erschien zuerst bei Die kalte Sonne hier




Kaltes Wasser auf heiße Klimamodelle

Mein vorheriger Artikel mit dem Titel „CLINTEL Manifesto blasts climate scaremongering“ enthält unter Anderem die höchst bedeutende Graphik, welche eine dramatische Divergenz der IPCC-Klimamodell-Prophezeiungen von den Temperaturmessungen via Satellit zeigen. Die Modelle laufen heißer als die Wirklichkeit. Siehe hier.

Es gibt jedoch ein wesentliches Modell, mit welchem die Satellitenmessungen übereinstimmen, und zwar das russische Modell. Der Grund dafür ist einfach, wenngleich fundiert. Der Präsident von CLINTEL Guus Berkhout erklärt es so: „Ich habe das russische Klimamodell INM untersucht. Anders als die IPCC-Modelle passen die Prognosen des russischen INM-Modells bemerkenswert gut zu den Messungen. Eine plausible Erklärung dafür ist, dass eine negative Wolken-Rückkopplung darin eingeht: -0,13 W/m² pro Grad Celsius,während die IPCC-Modelle von einer großen positiven Wolken-Rückkopplung ausgehen: bis zu 0,80 W/m² pro Grad Celsius. Diese große positive Wolken-Rückkopplung ist verantwortlich für die Katastrophen-Prophezeiungen des IPCC“.

Die Physik hinter dieser Erklärung ist ziemlich einfach. Erwärmung führt zu mehr Wasserdampf in der Luft, was zu verstärkter Wolkenbildung führt. Wolken können die Erwärmung entweder zunehmen (positive Rückkopplung) oder abnehmen lassen (negative Rückkopplung). Die wissenschaftliche Frage lautet: was gilt? Die Russen finden, dass die Rückkopplung negativ ist. Die Messungen stützen diesen Befund.

CLINTEL ist ein internationaler Klima-Ratgeber, weshalb es sinnvoll ist, dass man dort diese Ergebnisse genau unter die Lupe nimmt. Die CLINTEL-Vision lautet: „Fortschritt erfordert Redefreiheit und die Freiheit wissenschaftlicher Forschungen“. Tatsächlich ist Prof. Berkhout offiziell von der russischen Akademie der Wissenschaften eingeladen worden, um mehr über das INM-Modell zu erfahren und die Klima-Version von CLINTEL zu teilen.

Anders als die Modellierer in den USA und in Europa wurden die russischen Modellierer nicht von den Alarmisten vereinnahmt. Dies hat ihnen die Freiheit gegeben, die Option der negativen Rückkopplung zu erkunden, was die Alarmisten strikt abgelehnt haben – bisher zumindest.

Aber selbst innerhalb der Alarmisten-Gemeinschaft ist eine vielversprechende Entwicklung erkennbar, ist doch dort ein großer Kampf ausgebrochen bzgl. der Wolken-Rückkopplungen. Beim IPCC ist man derzeit am Abfassen des jüngsten großen Klima-Zustandsberichtes AR 6. Die meisten der alarmistischen Klimamodelle laufen, um in diesen Bericht einzugehen.

Dieses Mal erleben wir, dass im AR 6 etwa die Hälfte dieser Modelle noch heißer läuft als es im AR 5 der Fall war. Obwohl der Begutachtungsprozess noch nicht beendet ist, scheint es so, als ob die AR 6-Modellierer die positive Wolken-Rückkopplung noch aufgemotzt haben. Wir können keinerlei neue Wissenschaft erkennen, welche diese Übertreibung stützen würde. Hat man es gemacht, um den politischen Schub hin zu einer radikalen Null-Kohlenstoff-Gesetzgebung zu unterstützen? Je heißer das Modell umso schlimmer die prophezeite Katastrophe ob des Verbrauchs fossiler Treibstoffe, damit ein noch höheres Niveau der Panik gerechtfertigt werden kann.

Viele Leute innerhalb der Klima-Gemeinschaft hinterfragen diese gesteigerte globale Erwärmung in den Modellergebnissen des AR 6. Einmal zeigt dies, dass mindestens die Hälfte aller dieser Modelle falsch ist – entweder die Hälfte, die nicht heißer gelaufen ist (und das gleiche Panik-Niveau wie im AR 5 prophezeit) oder die Hälfte der Modelle, die heißer gelaufen ist (und damit ein noch höheres Panik-Niveau wie im AR679 prophezeit hat).

Eine höhere positive Wolken-Rückkopplung mag nicht alle Inkonsistenzen lösen, aber wir können sicher feststellen, dass es eine höchst unwahrscheinliche Hypothese auf Modelliererseite ist. Keine Wissenschaft erzwingt diese Wahl, und Messungen deuten stark gegen diese Hypothese. Dies öffnet die Tür für die empirisch bestätigten russischen Ergebnisse, welche das gesamte Katastrophen-Narrativ des AR 5 und noch mehr dasjenige des AR 6 in Frage stellen.

Prof. Berkhout drückt es prägnant so aus: „Falls die Russen recht haben, ist das Kohlenstoff-Budget sehr, sehr groß – also die Menge Kohlenstoff, welche die Menschheit emittieren kann, bevor das Limit der Erwärmung um 1,5°C bzw. 2°C erreicht wird. Mit anderen Worten, es gibt kein Problem mit fortgesetzten CO2-Emissionen, bis wir eine technologisch zuverlässige und ökonomisch sich rechnende Alternative haben. Das Anstreben von Null-Emissionen bis zum Jahre 2050 ist total töricht. Hinsichtlich des gegenwärtigen Gesundheits-Notstandes ist es ein Verbrechen gegen die Menschheit“.

Es ist eine Ironie, dass die „blauer Himmel“-Phantasie des Klima-Alarmismus‘ durch Wolken zurück zum Boden gebracht werden könnte. Negative Rückkopplung ist eine wahrhaft positive Meldung.

Es wird spannend sein zu sehen, wie sich dieses Drama entfaltet.

Autor: David Wojick, Ph.D. is an independent analyst working at the intersection of science, technology and policy. For origins see http://www.stemed.info/engineer_tackles_confusion.html For over 100 prior articles for CFACT see http://www.cfact.org/author/david-wojick-ph-d/ Available for confidential research and consulting

Link: https://www.cfact.org/2020/04/03/throwing-cold-water-on-hot-climate-models/

Übersetzt von Chris Frey EIKE




Markante Zirkulations­anomalien: 2018, 2019 – und nun auch 2020?

Der Witterungsverlauf seit Herbst 2019

Über den Verlauf seit Beginn der markanten Zirkulationsanomalien von Februar 2018 bis zum Sommer 2019 wurde beim EIKE schon hier und hier ausführlich berichtet. Der September 2019 brachte den typischen Mix aus Altweibersommerwetter und wechselhaften Phasen, allerdings um den 19. schon vereinzelte Bodenfröste, während im Oktober nach kühlen ersten Tagen mit Bodenfrösten feucht-mildes Herbstwetter überwog. Ersten Nachtfrösten um das Monatsende folgte ein wechselhafter, durchschnittlicher, regenreicher November, der zur sehr milden Westwind-Witterung des Dezembers überleitete. Im Januar 2020 bestimmte sehr hoher Luftdruck über Nordwest-, Mittel- und Südosteuropa mit langen, niederschlagsfreien Phasen das Geschehen, was besonders nordöstlich der Elbe durch einfließende Nordseeluft extrem mildes Wetter zur Folge hatte; in Süddeutschland kühlte sich die Luft bei Windstille hingegen zeitweise stark ab; es traten mäßige, vereinzelt strenge Nachtfröste auf. Der zweitwärmste Februar seit 1881 wurde praktisch vollständig von mildem, stürmischem, regenreichem Westwetter dominiert, welches sich noch bis Mitte März fortsetzte; pünktlich zum kalendarischen Frühlingsbeginn setzte eine massive Kaltluftzufuhr, erst aus Nordost, dann aus Nord, ein. Dabei entstand am letzten Märzwochenende ein rekordverdächtig starkes Hochdruckgebiet auf dem Ostatlantik:

Abbildung 1: Wetterkartenausschnitt vom 29. März 2020 mittags. Man erkennt südlich von Island ein extrem starkes Atlantik-Hoch mit einem Kerndruck von 1055 hPa, das an seiner Ostflanke arktische Kaltluft nach Deutschland lenkt. Ob das ein neuer Luftdruck-Rekord ist, konnte wegen fehlender Unterlagen nicht eindeutig geklärt werden. Bildquelle Archiv wetter3.de, leicht verändert und ergänzt.

Erst mit Aprilbeginn setzte eine allmähliche Erwärmung ein.

Werden die ausgleichend wirkenden Westwetterlagen seltener?

Westwetterlagen (auch zonale Lagen genannt) haben im Jahresmittel kaum Einfluss auf die Deutschland-Temperaturen, denn ihr stark wärmender Einfluss im Winter wird durch ihren kühlenden Einfluss im Sommer fast ausgeglichen; außerdem sind sie unsere „Regenbringer“ und aufgrund ihrer Häufigkeit sozusagen das „normale“ Wetter – aber wie wir gleich noch sehen werden, können Zirkulationsanomalien mitunter auch bei Westlagen auftreten, dann nämlich, wenn sie mit Sturm und Starkregen über die Stränge schlagen wiez. B. im Februar 2020. Ihre Gegenspieler sind die so genannten meridionalen oder meridianen Wetterlagen, das sind alle Nord-, Ost- und Südlagen, von denen die Ostlagen wegen ihrer Winterkälte und Sommerhitze gefürchtet sind, während nördliche Lagen besonders im Frühling und Herbst markant zu kalt, Südlagen außer im Winter fast stets markant zu warm ausfallen. Die Behauptung, es gebe neuerdings mehr Extremwetter, lässt sich anhand der langfristigen Häufigkeitsentwicklung dieser beiden Gegenspieler aber nicht belegen:

Abbildung 2: Deutliche Häufigkeitsabnahme der (zonalen) West- und nicht signifikante Zunahme der meridionalen Großwetterlagen in Mitteleuropa. Lineare Trends (fette Linien) und 21ig-jährige Gleitmittelwerte, endbetont (halbfette Linien).

Aber wenn die zu Extremwetter neigenden Lagen den Häufigkeitsschwund der Westlagen nicht ausgleichen konnten, welche waren es dann? Es sind, wie in früheren Arbeiten des Verfassers schon öfters erwähnt, die zur gemischten Zirkulation zählenden, im Jahresmittel stark erwärmend wirkenden Südwestlagen; diese haben einen westlichen und einen südlichen Strömungsanteil und zählen daher zur gemischten Zirkulation:

Abbildung 3: Seit 1881, dem Beginn der Erstellung halbwegs verlässlicher Wetterkarten, hat sich die Häufigkeit der in Deutschland stark erwärmend wirkenden Südwestlagen merklich erhöht. Außerdem erwärmte sich der Nordatlantik, wobei es eine schwächere Warmphase um 1900, eine stärkere um 1945 und eine aktuelle, sehr starke, gibt. Die Kurvenverläufe der gleitenden Mittelwerte (fette Kurven) ähneln sich, wobei die AMO etwa 20% der Häufigkeitsvariabilität der SW-Lagen erklärt. Fast alle Jahre ganz ohne SW-Lagen traten vor 1950 auf; danach war nur 1991 frei von SW-Lagen; 2019 hatten wir 44 Tage.

Südwestlagen können, besonders in ihrer antizyklonalen Form, zwischen Mai und Oktober mitunter auch Hitzewellen auslösen. Und eine mögliche Ursache ihrer Häufigkeitszunahme haben wir nun gleich mit kennengelernt – die AMO (AMO = Atlantische Mehrzehnjährige Oszillation, ein Index für die gemittelten Meeresoberflächentemperaturen im zentralen Nordatlantik). Ob und wann jedoch das Ende der aktuellen AMO-Warmphase und damit auch der häufigen SW-Lagen schon begonnen hat, kann nicht mit Sicherheit gesagt werden. Hingegen lässt sich die Häufigkeitsabnahme der Westwetterlagen im Jahresmittel nicht zweifelsfrei erklären; möglicherweise kommt hierfür die seit 1990 stark nachlassende Sonnenaktivität in Betracht. Bliebe außerdem zu erwähnen, dass die Häufigkeit der Westwetterlagen nur von Frühling bis Herbst, besonders im Sommer, nicht aber im Winter, abnahm, was einer gesonderten Erklärung bedarf.

Viele, sehr intensive Westwetterlagen im Winter 2019/20 – warum?

Freuer (2020) hat in seiner Arbeit „Über einen möglichen Zusammenhang zwischen winterlichem Polarwirbel und Winterkälte in Mittleren Breiten“ hier bei EIKE dargelegt, was ein Polarwirbel ist, und wie er die Winterwitterung in Mitteleuropa beeinflussen könnte. Da es an einem lange zurückreichenden Archiv von Stratosphärenkarten mangelt, erweist es sich als praktisch, die beim USA-Wetterdienst NOAA seit 1948 verfügbaren Angaben zu den Temperaturen in der Stratosphäre über der Arktis zu nutzen; für die folgenden Untersuchungen wurden die 50hPa-Stratosphärentemperaturen über dem Nordpol verwendet. Die Sachlage stellt sich folgendermaßen dar: Je kälter es dort im Winter ist, desto kräftiger ist tendenziell der die Zirkulation beeinflussende Polarwirbel. Setzt man diese Nordpol-Stratosphärentemperatur nun in Relation zu den Wintertemperaturen in Deutschland, so zeigt sich tatsächlich ein, wenn auch schwacher, negativer Zusammenhang – tendenziell hat ein kalter Polarwirbel einen Mildwinter in Deutschland zur Folge! So auch 2019/20, als über dem Nordpol im Wintermittel minus 77,7°C gemessen wurden – deutlich kälter als der Mittelwert 1948/49 bis 2018/19 mit minus 69,4°C. Ähnliche Verhältnisse herrschten in den Mildwintern 1973/74, 1975/76, 1982/83, 1989/90, 1992/93, 1999/2000, 2006/07, 2013/14 und 2015/16; doch kann die polare Stratosphärenkälte nicht jeden Mildwinter erklären; in seltenen Fällen (1985/86 und besonders 1995/96) hatte sie auch Kaltwinter zur Folge. Es stellt sich aber die spannende Frage, ob engere Beziehungen zu den Häufigkeiten der Westwetterlagen und zu den Index-Werten der NAO bestehen. Der NAO-Index (Nordatl. Oszillation) ist ein Maß für das Luftdruckgefälle zwischen den Azoren und Island; bei hohen, positiven Werten stehen sich ein jeweils kräftiges Azoren-Hoch und Island-Tief gegenüber, was Westlagen begünstigt; bei sehr negativen Werten tauschen Hoch und Tief die Plätze (Island-Hoch und ein Tief über SW-Europa; es kommt dann oft, aber nicht zwangsläufig, zu Kälteeinbrüchen aus Nord oder Nordost in Mitteleuropa). Tatsächlich findet sich für den Winter ein freilich nur mäßiger Zusammenhang zwischen der Stratosphärentemperatur am Nordpol und den NAO-Werten:

Abb. 4: Obwohl der statistische Zusammenhang zwischen der winterlichen Stratosphären-Temperatur über dem Nordpol und dem winterlichen NAO-Index nur mäßig ist, deutet er darauf hin, dass ein intensiver, kalter Polarwirbel die winterliche Westwind-Zirkulation beschleunigt und damit Mildwinter in Deutschland begünstigt.

Leider liegen die genauen NAO-Daten für den Mildwinter 2019/20 noch nicht vor, doch verdeutlicht die folgende Abbildung das markante Vorherrschen positiver NAO-Werte und deren jähen Absturz ins Negative nach Mitte März, was dann die für den Frühling so typische Umstellung der Zirkulation auf Nord bis Ost mit später Kälte und beginnender Dürre auslöste:

Abbildung 5: Täglicher Verlauf der NAO seit Mitte Dez. 2019. Bildquelle NOAA.gov, ergänzt.

Damit ist klar: Mildwinter in Deutschland werden zumindest durch unterdurchschnittliche Stratosphären-Temperaturen begünstigt – je niedriger diese sind, desto eher dominieren positive NAO-Werte, was die Intensität und die Häufigkeit milder Westwetterlagen erhöht; freilich ist hier noch viel Forschungsarbeit zu leisten. Im Winter 2019/20 kamen außerdem noch sehr hohe AMO-Indexwerte, besonders im Februar, hinzu. Ob die Kombination hoher AMO-Werte und sehr niedriger Stratosphärentemperaturen über der Arktis die Wahrscheinlichkeit sehr milder Winter weiter erhöht, bedarf noch einer Klärung.

Beeinflusst die Sonnenaktivität die arktischen Stratosphärentemperaturen?

Mit der winterlichen Abkühlung alleine lässt sich die Lage des Polarwirbels über der Arktis nicht erklären, denn viel weiter südöstlich, im Inneren Sibiriens, herrschen deutlich tiefere Wintertemperaturen. Eine wesentliche Rolle spielt vielmehr das winterliche Fehlen der Sonne über der Arktis; damit fehlt das für die stratosphärische Ozonbildung erforderliche kurzwellige UV-Licht. Bei den komplizierten Prozessen des Ozonumsatzes wird jedoch Wärme frei – dies ist auch der Grund dafür, warum es in Teilen der Stratosphäre wärmer sein kann, als in der oberen Troposphäre. Wenn im Spätwinter die Sonne über der Arktis aufgeht, beginnt die Ozonbildung und leitet den Zerfall des Polarwirbels ein; erst im Herbst entsteht er neu. Nun strahlt aber die Sonne in Zeiten höherer Aktivität etwas mehr kurzwelliges UV ab, was zu mehr Ozonbildung in der Stratosphäre führen könnte und damit diese von Frühling bis Herbst stärker erwärmt. Momentan lässt die Sonnenaktivität stark nach, was zwar im Winter keine Rolle spielt, weil sie da nicht scheint, aber in den anderen Jahreszeiten zu sinkenden arktischen Stratosphärentemperaturen führen müsste, was dann einen zeitigeren und tendenziell kälteren winterlichen Polarwirbel entstehen lässt. Tatsächlich deutet sich ein derartiger Trend an:

Abbildung 6: Langfristige Abnahme der herbstlichen Stratosphärentemperatur (50hPa) über dem Nordpol. Bislang noch kein negativer Langfristtrend im Winter; doch nach dem Jahr 2000 deutet sich auch hier ein leichter Rückgang an.

Diese Zusammenhänge könnten auch erklären, warum der Winter die einzige Jahreszeit ist, in welcher die Westlagen nicht seltener wurden. Aber warum gab es dann während der „Kleinen Eiszeit“ mit ihrer sehr inaktiven Sonne so viele bitterkalte Winter in Europa, welche momentan fehlen? Damals dauerte die Ruhephase der Sonne sehr lange, nämlich über ein halbes Jahrhundert. Möglicherweise wurde damals der winterliche Polarwirbel immer kälter und größer, bis er irgendwann auch in die mittleren Breitengrade reichte. Damit verlief aber das Westwindband immer weiter südlich, bis schließlich Mitteleuropa auf seine kalte Seite gelangte; das entspräche der Großwetterlage „Südliche Westlage“, welche auch den in Norddeutschland extrem kalten Winter 1978/79 einleitete; momentan ist diese Wetterlage selten. Hier besteht noch viel Forschungsbedarf; doch sollte die aktuelle inaktive Sonnenphase noch lange anhalten, kann mein eine starke Klima-Abkühlung nicht ausschließen.

Zirkulationsstörungen 2020 und Vegetationsentwicklung

Die Bauern-Regeln „April dürre, macht die Hoffnungen irre“ oder „Mai trocken, macht alles Wachstum stocken“ sind uns von den vergangenen Jahren mit ihren im Frühling sehr ausgeprägten Zirkulationsstörungen in unguter Erinnerung; und nach dem Witterungsumschwung ab dem 20.März drohen weitere Zirkulationsanomalien. Auch im Frühling deuten sich nämlich Zusammenhänge zwischen den stratosphärischen Temperaturen über der Arktis und den Zirkulationsverhältnissen an; unter anderem werden die gefürchteten Ostlagen durch positive Anomalien der Stratosphärentemperaturen am Nordpol gefördert. Die Stratosphären-Vorhersagen lassen da zumindest für die nächsten Wochen nichts Gutes erahnen:

Abbildung 7: Vorhersage der Stratosphären-Temperaturen über der Nordhalbkugel für den 21.April 2020 (10 hPa-Niveau) . Der winterliche Polarwirbel ist längst verschwunden – es herrschen nun gegensätzliche Verhältnisse. Über dem Nordpol liegt Warmluft (gelb); über den mittleren Breiten ein Band kälterer Höhenluft (blau). Quelle meteociel.fr

Hinzu kommen die hohen AMO-Werte; diese hatten besonders im April tendenziell erhöhte Lufttemperaturen in Deutschland zur Folge:

Abbildung 8: In AMO-Warmphasen fällt der April in Deutschland eher wärmer aus. Der Zusammenhang ist nur schwach, aber trotzdem spürbar.

April-Wärme fördert aber die Verdunstung – schon um den 5.April bildeten sich Trockenrisse in den Böden.

Abbildung 9: Die wegen der März-Kälte wochenlang blühenden Osterglocken kämpfen nun mit der beginnenden Dürre – ähnlich, wie 2018. Foto: Stefan Kämpfe

Und welche Schäden die Spätfröste Ende März anrichteten, ist noch gar nicht voll absehbar. Ihre enorme Stärke könnte in selbst noch geschlossenen Blütenknospen die Narbe und den Fruchtknoten geschädigt haben, doch Genaueres wird sich erst in den kommenden Wochen zeigen.

Abbildung 10: Frühtemperaturen bei der antizyklonalen Ostlage am 23.03.2020. In Südostdeutschland wurden minus 4 bis unter minus 10 Grad gemessen, und die Wetterstationen stehen nicht in den Kältelöchern. Bildquelle wetterzentrale.de

Wie dramatisch sind die aktuellen Zirkulationsanomalien?

So unangenehm die momentanen Witterungsanomalien auch sein mögen, sie sind harmlos im Vergleich zu historischen Ereignissen. Ein Blick auf die beiden wohl dramatischsten Naturkatastrophen Mitteleuropas während der letzten 1.000 Jahre reicht schon aus. Das erste Ereignis war das so genannte Magdalenen-Hochwasser vom Juli 1342. Bei diesem Ereignis wurden an vielen Flüssen die höchsten jemals registrierten Wasserstände erreicht. Möglicherweise handelte es sich um das schlimmste Hochwasser des gesamten 2. Jahrtausends im mitteleuropäischen Binnenland; fast die gesamte Ernte wurde zerstört; es entstanden bis zu 14 Meter tiefe Erosionsschluchten; und die Zahl der Todesopfer ging vermutlich in die Zehntausende. Bei dem anderen Ereignis, der „zweiten Marcellus-Flut“ im Januar 1362, ertranken im Nordseeraum mehrere hunderttausend Menschen, etwa 100.000 Hektar bestes Ackerland gingen verloren, und die Nordseeinsel Rungholt, auch „Atlantis des Nordens“ genannt und damals der größte nordische Handelsplatz, versank bei dieser schweren Sturmflut. Gegen diese Beispiele sind die Hochwasser von 2002 und 2013 oder die Stürme „Lothar“ und „Kyrill“ unbedeutend. Wenn unsere Gesellschaft schon durch ein mäßig-infektiöses Virus an den Rand des gesellschaftlichen und wirtschaftlichen Ruins gerät – was würde wohl passieren, träfe sie eine solche Naturkatastrophe wie im 14. Jahrhundert (kurz nach diesen beiden Katastrophen zog 1347 die Pest ein und tötete etwa ein Drittel der deutschen Bevölkerung – mit Panik-Medien wie ARD und ZDF hätten sich vermutlich die zwei Drittel der Überlebenden auch noch zu Tode gestürzt).




Energiewende am Himmel: Wann kommt das E – Flugzeug?

Dennoch bleibt es nicht aus, dass man nun auch im Himmel, so wie auf Erden, den E-Antrieb fordert. Politiker und brave Journalisten lassen sich mit E-Planes ablichten und künden ein neues Zeitalter für den Luftverkehr an.

Zuhauf finden wir Überschriften wie diese:

Why the age of electric flight is finally upon us

By Tim Bowler

BBC News, Le Bourget, Paris, 3.7.2019

Ich schlage vor, wir schauen uns das mal an.

Der Preis des Auftriebs

Wenn Sie als Kind den Arm aus dem Autofenster gestreckt haben, dann spürten Sie den Druck des Fahrtwinds. Das funktioniert übrigens auch bei Erwachsenen, die jung geblieben sind. Je nachdem wie die Hand gedreht wird wirkt da eine Kraft nach oben oder nach unten, auf jeden Fall aber nach hinten.  Die nach oben, auch „Lift“ genannt, ist nützlich für die Fliegerei, damit können wir Maschinen fliegen lassen, die schwerer sind als Luft. Die Kraft nach hinten stört uns, weil sie das Flugzeug abbremst. Sie heißt „Drag“.

Die Tragflächen an einem Flieger will man nun so gestalten, dass sie möglichst viel Lift bei wenig Drag produzieren, mit anderen Worten man will das Verhältnis Lift / Drag (L:D) so groß wie möglich machen. Darüber haben die Ingenieure viel nachgedacht und herausgefunden,  dass dieses L:D umso besser wird, je länger man den Flügel macht und je kürzer das Maß von Vorder- zur Hinterkante der Tragfläche ist, genannt „Sehne“.

Bei Segelflugzeugen finden wir extrem lange Tragflächen mit ganz kurzen Sehnen. Das gibt ein optimales L:D, bis zu Zahlen von 40 oder 50. So ein Segelflieger sinkt bei ruhiger Luft gerade mal einen Meter und kommt dabei 50m voran. Aus guten Gründen haben Motorflugzeuge nicht so schlanke Flügel, aber man kommt dennoch auf ein L:D zwischen 10 und 20. Dabei wird der Drag natürlich nicht nur von den Tragflächen geliefert, sondern auch von Rumpf und Zubehör. Letzteres kann durch glatte, aerodynamische Formen stark gemindert werden, so wie bei Ihrem Sportwagen.

Ein Helikopter, dessen Tragflächen sich nicht geradeaus bewegen sondern im Kreis, hat ein L:D von 4-5; in dieser Kategorie liegen auch die Drohnen. Und der König der Lüfte und Schrecken der Fische, der Albatros, bringt es bei einer Spannweite von 3,5m auf ein rekordverdächtiges L:D von 20.

Egal wie der Flieger angetrieben wird, durch Muskelkraft, elektrischen Strom oder Benzin, und egal wie wir ihn „streamlinen“, der Drag der Tragflächen wird immer bleiben. Das ist der Preis, den wir für den Lift bezahlen müssen. Das ist der große Unterschied zum Auto – das braucht keinen Auftrieb. Deswegen ist Leichtbau beim Flugzeug oberstes Gebot. Deswegen sind Flieger aus Aluminium und Autos aus Stahl.

Unterwegs in der Boeing 737

Eine volle Boeing 737 wiegt 70 Tonnen und hat ein L:D von 14. Der Luftwiderstand in Flugrichtung entspricht also 70:14 Tonnen = 5 Tonnen. Das sind, als Kraft ausgedrückt, 50.000 Newton. (Die Zahlen die Sie hier lesen – außer die 737 – sind übrigens nicht auf das Hundertstel genau, aber das tut der ganzen Betrachtung keinen Abbruch. Denken Sie sich vor jeder Zahl immer ein gedrucktes „etwa“. Lieber ungenau und richtig als genau und falsch.)

Jetzt kommt noch etwas mehr Physik: um einen Gegenstand mit bestimmter Kraft und Geschwindigkeit zu bewegen brauchen wir eine bestimmte Leistung = Kraft x Geschwindigkeit. Die Kraft bei unserer B737 wissen wir schon, das sind die 50.000 Newton. Ihre Geschwindigkeit ist 250 m/sec. Multipliziert ergibt das eine Leistung von 12.500 Kilowatt  (Das gilt im Reiseflug. Die Triebwerke der B737 müssen bei Bedarf wesentlich mehr leisten, als die oben geforderten 50.000 Newton, etwa bei Start und Steigflug.)

Dafür wollen die Triebwerke gefüttert werden. Auf einen Flug von sechs Stunden nimmt man, einschließlich Reserve, Treibstoff für acht Stunden mit. Dann berechnet sich der an Bord notwendige Energievorrat– sei es Kerosin oder elektrischer Strom – folgendermaßen: 12.500 Kilowatt mal acht Stunden, das sind genau 100.000 Kilowattstunden. (Tatsächlich braucht man mehr, weil die eingespeiste Energie nicht zu 100% in Antrieb umgesetzt wird, aber so genau wollen wir das jetzt nicht wissen.)

Batterien

Normalerweise ist das Futter für die Motoren in Form von Kerosin an Bord, aber wir wollen ja jetzt elektrisch fliegen. Bauen wir also Elektromotoren an den Flieger und packen Batterien an Bord. Wie viele?

Eine typische Autobatterie hat 12 Volt Spannung und die Kapazität von 80 Amperestunden. Damit hat sie ziemlich genau eine Kilowattstunde gespeichert. Davon bräuchten wir jetzt nur 100.000 in den Flieger zu stellen und los geht’s. Als verantwortungsvolle Piloten checken wir vor Abflug gerade noch das Gewicht, das wir uns da einladen. Eine Batterie hat so etwa 20 kg, wir packen uns also 100.000 x 20 kg = 2000 Tonnen Batterien ein. Das passt mit den 70 Tonnen Maximalgewicht unserer 737 nicht so recht zusammen!

Zurecht weisen Sie mich jetzt darauf hin, dass diese schweren Bleibatterien von vorgestern seien, und  dass Elon Musk für seinen Tesla eine wesentlich leichtere Lösung gefunden hat. Einverstanden, die bringen aber immer noch 6 Kg pro kWh auf die Waage, also 600 Tonnen für den Betrieb unserer Boeing. Und auch die bringen wir in besagten 70 Tonnen nicht unter.

Sie wenden ein, dass es in der Vergangenheit schon immer unerwartete technische Durchbrüche gab, welche die geheiligten Thesen von gestern Lügen straften. Mag sein, aber hier wäre es nicht unerwartet, sondern herbeigesehnt. Und da kann man sich die Wartezeit nur damit vertreiben, dass man an inkrementellem Fortschritt arbeitet. Wir müssten aber eine Gewichtsminderung der Batterien um den Faktor 20 erreichen, um mit Kerosin gleichzuziehen. Das hört sich verdammt schwierig an und ist auch so.

Erinnern Sie sich an Boeings Schwierigkeiten mit dem nagelneuen B787 Dreamliner vor sieben Jahren? Da gab es “elektrische Feuer“ an Bord, verursacht durch die Batterien des Flugzeugs.

In unserem Auto startet die Batterie bekanntlich den Motor und versorgt das Radio, wenn wir auf jemanden warten müssen. Ähnlich ist es im Airliner; der hat zwei davon. Eine dient zum Anlassen der APU (Auxiliary Power Unit), eines Hilfsaggregats, welches dann seinerseits die großen Triebwerke startet. Die andere betreibt Funk und Elektronik, wenn alle Motoren noch schlafen.

Typischerweise sind das Nickel-Cadmium-Batterien und nicht viel größer als die im Auto. Um ein paar Kilo abzuspecken wurde im Dreamliner nun die modernere Lithium-Ionen-Variante eingesetzt. Und da gab es dann häßliche Überraschungen, die zum Grounding der 787 führten. Das war eine sehr teure Innovation, nur um das Gewicht von ein paar Touristenkoffern einzusparen. Und jetzt wollen wir den ganzen Flieger mit Lithium vollpacken?

In diesem Sinne ist kaum anzunehmen, dass unsere lieb gewonnenen Dinosaurier, die Kerosin verbrennen und Kondensstreifen hinterlassen, in den nächsten Jahrzehnten aussterben werden.

Ein elektrischer Biber

Jetzt aber halten Sie mir den ultimativen Trumpf vor die Nase, einen Zeitungsausschnitt von The Guardian vom Januar 2020. Da steht es schwarz auf weiß:

… Das E-Flugzeug – ein 62 Jahre alte DHC-2 de Havilland Beaver mit sechs Passagieren, die mit einem 750 PS starken Elektromotor nachgerüstet war – wurde von Greg McDougall, Gründer und Geschäftsführer von Harbour Air, pilotiert. „Für mich war dieser Flug wie das Fliegen einer Beaver, aber es war eine Beaver voller elektrischer Steroids. Ich musste tatsächlich die Leistung zurückdrehen “, sagte er nach der Landung. McDougall hatte das Flugzeug kurz nach Sonnenaufgang auf eine kurze Reise entlang des Fraser River in der Nähe des internationalen Flughafens von Vancouver genommen, vor rund 100 Zuschauern. Laut AFP-Journalisten vor Ort dauerte der Flug weniger als 15 Minuten.

Ein interessanter Artikel. Aber haben Sie auch den letzten Satz gelesen?

Wie funktioniert das? Der Motor leistet 750PS, das sind ca. 560 kW. Die brauchte er aber nur zum Start, dann wurde Leistung zurückgenommen – hat er selber gesagt – auf 60%. Dann hat er also eine viertel Stunde lang 60% von 560 kW = 336 kW verbraten, macht ca. 84 kWh. Und dann ist er gelandet.

Woher hat er die 84 kWh gehabt? Vielleicht von Freund Musk. Eine Standard Tesla-Batterie wiegt 540 kg und lieferte 85 kWh – dann ist sie leer. Eine halbe Tonne Sprit für 15 Minuten Flug! Hatten wir nicht gesagt, dass Flieger leicht sein müssen?

Reality Check

War das ein guter „Reality Check“ in Sachen E-Flugzeug?

Ich selbst bin zwar nie eine Beaver geflogen, dafür die Beech Bonanza. Sie ist etwas schlanker und hübscher als die Beaver, und schneller. Die sechssitzige A36 hat einen 220 kW 6-Zylinder Boxermotor, den man auf Strecke mit 60% Leistung fliegt und dabei pro Stunde 50 Liter Flugbenzin verbrennt. Das sind 0,3 Kilogramm Sprit pro Kilowattstunde im Vergleich zu 6kg bei der Tesla Batterie.  Anders ausgedrückt, mit den 540kg der Tesla-Batterie als Sprit an Bord  könnte man über 10 Stunden unterwegs sein, im Vergleich zu 15 Minuten im E-Beaver – am Fraser River entlang.

Und noch etwas: mit jeder Stunde Flug wird der Tank der Bonanza um 40 kg leichter. Die Batterien aber bleiben immer so saumäßig schwer, auch wenn sie ganz leer sind.

Elektrisches Fliegen ist ein attraktives Thema für Start-Ups, die mit guter PR Investoren ausfindig machen. Das ist eine realistische Zielsetzung. Die Physik aber lässt sich auch von bester PR nicht beeindrucken. „You cannot fool nature“.

Dieser Artikel erschien zuerst bei www.think-again.org und im Buch Grün und Dumm




Plausible Szenarien des Klimawandels: 2020 – 2050

[Hinweis: Die Übersetzung wird bei ausführlich dargestellten Details der Berechnung gekürzt, jeweils gekennzeichnet durch …]

Mitten in all der Angst* um 1,5°C oder 2,0°C Erwärmung verglichen mit irgendeiner mythischen Zeit, als das Klima vermeintlich ,stabil‘ und (relativ) unbeeinflusst vom Menschen war, verlieren wir die Tatsache aus dem Auge, dass wir eine bessere Grundlage haben – jetzt. Ein Vorteil, ,jetzt‘ als Grundlinie zukünftiger Klimaänderungen zu nehmen ist, dass wir über gute Beobachtungen verfügen, um das Klima von ,jetzt‘ zu beschreiben.

Während sich die meisten Klima-Projektionen auf das Jahr 2100 beziehen, ist der Zeitraum 2020 bis 2050 aus verschiedenen Gründen bedeutsam:

[*Das Wort „angst“ steht so im Original! An. d. Übers.]

1. Es ist der Zeitraum, in welchem die Vorgaben des UNFCCC bzgl. Emissions-Reduktionen erfüllt werden müssen.

2. Viele finanzielle und infrastrukturelle Entscheidungen werden in dieser zeitlichen Größenordnung getroffen.

3. Die tatsächliche Klimaentwicklung über diesen Zeitraum wird die Punkte 1. und 2. beeinflussen; ,Überraschungen‘ können gegenteilige Auswirkungen haben als nach den Punkten 1. und 2. beabsichtigt.

Globale Klimamodelle haben wenig zu bieten, wenn es um zeitliche Größenordnungen von Jahrzehnten geht. Für diesen Zweck berechnen die CMIP5- und CMIP6-Modelle initialisierte Simulationen bis zu 35 Jahren im Voraus. Dekaden-Ergebnisse von CMIP6 liegen mir noch nicht vor, aber der Punkt ist, dass sie die Atlantische Multidekadische Oszillation AMO für 8 bis 10 Jahre im Voraus halbwegs abbilden können, sonst jedoch nichts weiter.

Ich habe zuvor die Interpretation der CMIP5-Simulationen kritisiert als tatsächlich Klimawandel-Szenarien – stattdessen zeigen diese Simulationen die Empfindlichkeit des Klimas auf verschiedene Emissions-Szenarien. Sie lassen Szenarien der solaren Variabilität und von Vulkanausbrüchen außen vor, und sie korrigieren Phase und Amplitude der multidekadischen Variabilität mit ozeanischen Zirkulationen. Begründet wird die Nichtberücksichtigung dieser Faktoren damit, dass deren Antrieb geringer ist als der Emissions-Antrieb. In multidekadischer Größenordnung muss das aber nicht unbedingt stimmen.

Und in er CMIP6-Ära haben wir jetzt ausreichende Informationen, mit welchen wir plausible Szenarien des Antriebs durch Vulkane und Sonne im 21 Jahrhundert erzeugen können, ebenso wie für die AMO.

Ich habe ein semi-empirisches Verfahren entwickelt, um Klimawandel-Szenarien des 21. Jahrhunderts zu beschreiben, welche sich nur indirekt auf Klimamodelle stützen. Multiple Szenarien werden entwickelt für jeden Treiber in der Vorhersage (natürlich und anthropogen), mit der Betonung auf plausiblen Szenarien (anstatt auf Extrem-Szenarien, die nicht völlig ausgeschlossen werden können).

Anmerkung: Im Folgenden werden viele Referenzen genannt. Mir fehlt die Zeit, eine vollständige Bibliographie zusammenzustellen, aber die Wichtigsten sind mit Hyperlinks hinterlegt.

Vom Menschen verursachte globale Erwärmung

Beim hier angewendeten Verfahren werden so weit wie möglich die neuen Informationen berücksichtigt, wie sie in das CMIP6 eingehen: neue Emissions-Szenarien und neue Überlegungen hinsichtlich der Sensitivität der Klimamodelle auf CO2.

Ähnlich wie im jüngsten SR1.5-Report des IPCC wird nicht versucht, Ergebnisse des CMIP6 Earth System Model heranzuziehen. Folgt man dem SR1.5-Report, werden Szenarien der globalen Erwärmung angetrieben von Szenarien sich kumulierender Emissionen. Die individuellen kumulativen Emissions-Szenarien zwischen 2020 und 2050 werden dann übertragen in eine globale Temperaturzunahme mittels einer Palette von Werten der Transient Climate Response auf Cumulative Carbon Emissions (TCRE). Zur Verdeutlichung betrachte man die folgende Graphik:

Abbildung 1: CO2-induzierte Erwärmung als Funktion kumulativer Emissionen und TCRE. Nach Millar et al.

Emissions-Szenarien

Für den demnächst erscheinenden AR 6 des IPCC wurde ein neuer Satz von Emissions-Szenarien (SSP) erstellt.

Der World Energy Outlook Report der IEA stellt die kurzfristigen SSP-Projektionen bis 2040 in Frage. Man untersuchte drei Szenarien: ein derzeitiges Politik-Szenario (CPS), bei welchem von den Ländern keine neuen Klima- und Energie-politische Maßnahmen ergriffen werden, ein erklärtes Politikszenario (STPS), bei dem die Verpflichtungen aus dem Pariser Abkommen erfüllt werden, und ein Szenario für nachhaltige Entwicklung (SDS), bei dem die rasche Eindämmung die Erwärmung am Ende des 21. September auf deutlich unter 2°C begrenzt. Sowohl das IEA CPS- als auch das STPS-Szenario können als Business-as-usual-Szenario betrachtet werden, bei dem entweder die derzeitige Politik oder die derzeitigen Verpflichtungen weitergeführt, aber danach keine weiteren klimapolitischen Maßnahmen ergriffen werden.

In Abbildung 2 werden die Projektionen der IEA bzgl. Emissionen durch fossile Treibstoffe verglichen mit im AR 6 des IPCC angeführten Szenarien. Die Graphik zeigt, dass die IEA-Projektionen zwischen dem SSP2-RCP4.5-Szenario und dem SSP4-RCP6.0-Szenario liegen, während das STPS-Szenario der IEA etwas unter SSP2-RCP4.5 liegt:

Abbildung 2: Jährliche CO2-Emissionen aus Industrie und durch fossile Treibstoffe bei den Szenarien CPS und STPS im Vergleich zur Bandbreite zugrunde liegender Szenarien zusammen mit einem Abschnitt der Grundlinie und Abschwächungs-Szenarien, die im demnächst erscheinenden AR 6 des IPCC gewählt worden sind. Ritchie and Hausfather (2019) https://thebreakthrough.org/issues/energy/3c-world

TCRE

Die Umrechnung von Emissions-Szenarien in einen globalen Temperaturanstieg werden normalerweise mit Simulationen von globalen Klimamodellen durchgeführt. Die CMIP6-Simulationen jedoch, in welche die neuen SSP-Szenarien nebst deren Analyse eingehen, sind derzeit im Gange. Im jüngsten SR1.5-Report des IPCC wurden Werte der kurzzeitigen Reaktion des Klimas [Transient Climate Response TCR] auf kumulative Kohlenstoff-Emissionen TCRE gewählt und zur globalen Temperaturänderung auf kumulative Emissionen bei den SSP-Szenarien in Relation gestellt.

Wie stark sich die Welt laut Projektion durch die Emissionen erwärmt, ist in etwa linear proportional zu kumulativen Kohlenstoff-Emissionen (Matthews et al. 2018). Diese Relation zwischen Temperatur und kumulativen Emissionen wird allgemein als TCRE bezeichnet [transient climate response to cumulative carbon emissions]

Für einen gegebenen TCRE-Wert können wir die über eine zukünftige Periode zu erwartende Erwärmung berechnen als Reaktion auf kumulative Kohlenstoff-Emissionen.

Projektionen der natürlichen Klima-Variabilität

Szenarien der Variationen/Änderungen im Zeitraum 2030 bis 2050 sind Folgende:

● Solare Variationen

● Vulkanausbrüche

● Variabilität von Ozean-Zirkulationen im Zeitmaßstab von Jahrzehnten

Hinsichtlich der Solar-Szenarien im 21. Jahrhundert gibt es zwei Komplexe:

● Wie stark wird sich die gesamt-solare Einstrahlung (TSI) ändern und

● Wie viel Erwärmung bringt ein spezifischer TSI-Wert.

Dem AR 5 des IPCC zufolge ist der Einfluss der Sonne auf unser Klima seit vorindustriellen Zeiten hinsichtlich des Strahlungsantriebs sehr gering im Vergleich zur Variation des Strahlungsantriebs durch zusätzliche anthropogene Treibhausgase: 0,05 W/m² vs. 2,29 W/m². Die Botschaft des AR 5 lautet also, dass Änderungen der Sonnenaktivität praktisch vernachlässigbar sind im Vergleich zum anthropogenen Antrieb.

Diese Interpretation wird jedoch immer mehr in Frage gestellt:

Es gibt substantiell keine Übereinstimmung bzgl. der Trends der Sonnenaktivität, nicht einmal während der Satelliten-Ära. In vielen Studien aus dem vergangenen Jahrzehnt wurde behauptet, dass die Sonnenaktivität in der zweiten Hälfte des 20. Jahrhunderts höher war als zu jeder anderen Zeit während der letzten 10.000 Jahre. In einigen Studien wird behauptet, dass die Sonne mindestens zu 50% zu der globalen Erwärmung nach 1850 beigetragen hat.

Im AR 5 des IPCC wurden nur die direkten solaren Auswirkungen auf die globalen Temperaturen berücksichtigt. Es stellte sich heraus, dass die Energie-Änderung des 11-jährigen Sonnenzyklus‘ größenordnungsmäßig 1,0 bis 1,5 W/m² beträgt. Das ist um fast eine Größenordnung mehr als man von der solaren Einstrahlung allein erwarten kann, und es zeigt, dass der Einfluss der Sonnenaktivität durch atmosphärische Prozesse verstärkt wird. Zu Letzteren zählen: Änderungen der solaren UV-Strahlung; Eindringen energetischer Partikel, Auswirkungen des atmosphärisch-elektrischen Feldes auf die Wolkenbildung, Änderungen der Bewölkung durch solar beeinflusste kosmische Strahlung, große relative Änderungen in deren magnetischem Feld, Stärke des Sonnenwindes.

Relationen zwischen solaren Variationen und dem Erdklima gibt es viele, und sie sind kompliziert. Die meisten davon wirken im lokalen und regionalen Maßstab, und viele sind nicht linear. Starke solare Einflüsse wurden im Pazifik und dem Indischen Ozean und auch in der Arktis gefunden, neben anderen Regionen.

Wie von Svensmark (2019) zusammengefasst zeigen Satellitendaten, dass die TSI um bis zu 0,05% bis 0,07% im Verlauf eines Zyklus‘ variiert. An der Obergrenze der Atmosphäre bringt diese Variation etwa 1 W/m² von einer Solarkonstanten um 1361 W/m². An der Oberfläche macht das nur 0,2 W/m² aus nach Berücksichtigung der Geometrie und der Albedo. Modellsimulationen und Beobachtungen haben eine Reaktion der globalen Temperatur auf TSI-Änderungen über den 11-jährigen Sonnenzyklus von etwa 0,1°C gezeigt (Matthes et al. 2017).

Der gegenwärtige Zyklus 24 ist der schwächste Sonnenfleckenzyklus seit 100 Jahren und der dritte, der einem Trend abnehmender solarer Zyklen zeigt. Gelangt die Sonne gegenwärtig in ein neues Grand Minimum oder lediglich in einer Periode geringer Sonnenaktivität? Viele Solarphysiker gehen davon aus, dass im 21. Jahrhundert eher Ersteres der Fall ist: ein Minimum im Jahrhundert-Niveau. Viele nehmen ein Minimum an, welches vergleichbar ist mit dem Dalton- oder sogar dem Maunder-Minimum.

In den CMIP5-Modellen gehen die Klima-Projektionen von einem stationären Sonnen-Szenario aus, indem einfach der Sonnenzyklus 23 wiederholt wird. Dieser erstreckte sich von April 1996 bis Juni 2008 und war der drittstärkste Sonnenzyklus seit 1850. Eindeutig ist ein solches stationäres Szenario nicht repräsentativ für die wahre Sonnenaktivität, welche von Zyklus zu Zyklus Variationen und Trends aufzeigt. Daher werden in den CMIP6-Modellen realistischere Szenarien der zukünftigen Sonnenaktivität entwickelt, welche Variabilität in allen zeitlichen Größenordnungen aufweisen (Matthes et al. 2017). Matthes et al. präsentieren die folgenden beiden Szenarien (Abbildung 3): Ein Referenz-Szenario und ein Szenario des Maunder-Minimums in der zweiten Hälfte des 21. Jahrhunderts:

Abbildung 3: CMIP6-Szenarien des solaren Antriebs (TSI): Referenz-Szenario (oben); Szenario eines Maunder-Minimums (unten). Von Matthes et al. (2017)

Falls es zu einem Minimum von der Größenordnung des Maunder-Minimums im 21. Jahrhundert kommt, wie viel Abkühlung würde dies bewirken? Wie von Svensmark zusammengefasst zeigen sich in der Mehrheit aller Rekonstruktionen nur geringe Änderungen des Signals der Solarstrahlung: seit dem Maunder-Minimum soll die TSI um etwa 1 bis 2 W/m² zugenommen haben, was mit 0,18 W/m² an der Erdoberfläche korrespondiert. Das ist von gleicher Größenordnung wie die Amplitude des 11-jährigen Sonnenzyklus‘. Jones et al. (2012) verwendeten ein einfaches Klimamodell, mit welchem sie schätzten, dass die wahrscheinliche Minderung der Erwärmung bis zum Jahr 2100 durch ein Ereignis von der Größenordnung eines Maunder-Minimums zwischen 0,06°C und 0,1°C betragen dürfte. Fuelner und Rahmstorf (2010) schätzten, dass ein derartiges weiteres solares Minimum äquivalent zum Dalton und zum Maunder-Minimum eine Abkühlung von jeweils 0,09°C bzw. 0,26°C auslösen würde. Meehl et al. (2013) gingen von einer Abkühlung eines Maunder-Minimums von 0,3°C aus.

Bei diesen Berechnungen werde jedwede indirekte solare Auswirkungen ignoriert, welche diese Zahlen um einen Faktor 3 bis 7 größer machen würden. Shaviv (2008) zog die Ozeane als Kalorimeter heran, um die Variationen des Strahlungsantriebs in Zusammenhang mit dem Sonnenzyklus zu messen. Er fand heraus, dass die in die Ozeane einfallende Energie über einen Sonnenzyklus 5 bis 7 mal größer ist als die TSI-Änderung von 0,1%, was die notwendige Existenz eines Verstärkungs-Mechanismus‘ impliziert. Scafetta (2013) zeigte, dass die seit dem Mittelalter beobachtete große klimatische Variabilität nur dann korrekt interpretiert werden kann, wenn die klimatischen Auswirkungen der Sonnenvariabilität auf das Klima von den Klimamodellen stark unterschätzt worden ist, und zwar um einen Faktor von 3 bis 6. Svensmark (2019) argumentierte nach der Untersuchung von Bohrloch-Temperaturen seit der Mittelalterlichen Warmzeit ähnlich und fand einen Verstärkungs-Faktor von 5 bis 7 bei der Erwärmung, die durch einen Abfall der TSI erwartet werden kann. Falls man einen Verstärkungsfaktor dieser Größenordnungen einbringt, kann man bei einem Maunder-Minimum eine Abkühlung bis zu 1°C (oder sogar noch mehr) erwarten.

Drei Szenarien der solaren Variabilität werden hier betrachtet:

Gar keine Variabilität (CMIP5)

Ein CMIP6-Referenz-Szenario mit einem Verstärkungsfaktor 2 durch indirekte solare Auswirkungen.

Szenario eines Maunder-Minimums (CMIP6) mit einem Verstärkungsfaktor 4 durch indirekte solare Auswirkungen.

Tabelle 3: Szenarien einer solaren Abkühlung relativ zum Sonnenzyklus des CMIP5:

Vulkane

Die CMIP5-Klimamodell-Simulationen enthielten für das 21. Jahrhundert keinerlei Strahlungsantrieb durch zukünftige Vulkanausbrüche. Während diese nicht vorhersagbar sind, ist die Annahme eines Vulkan-Strahlungsantriebs von Null im 21. Jahrhundert ein schlechter Ausgangspunkt. Auch die Annahme, dass der Vulkan-Strahlungsantrieb aus dem 20. Jahrhundert sich einfach wiederholt, ist keine gute Annahme.

Im vorigen Jahrzehnt wurden zwei grundlegende paläoklimatische Rekonstruktionen von Vulkanausbrüchen während der letzten Jahrtausende vorgelegt. Gao et al. (2008) untersuchten Eisbohrkerne und erstellten eine Rekonstruktion des Sulfat-Ausstoßes durch diese Ausbrüche. Eine Rekonstruktion aus jüngerer Zeit von Sigl et al. (2015) folgt hier, dargestellt in Termen eines Strahlungsantriebs durch globale vulkanische Aerosole. Diese Rekonstruktionen stellten sie vor dem Hintergrund der relativ geringen Vulkanaktivität seit Mitte des 19. Jahrhunderts ins Verhältnis:

Abbildung 4: Rekonstruktion des globalen Strahlungsantriebs durch vulkanische Aerosole der letzten 2500 Jahre. Aus: Sigl et al. (2015).

Weil Vulkanausbrüche unvorhersagbare Ereignisse sind, wurden sie allgemein aus den Klima-Projektionen für das 21. Jahrhundert ausgeklammert. Die jüngsten Projektionen spezifizieren den zukünftigen vulkanischen Antrieb als Null oder als konstanten Hintergrundwert. Bethke et al. (2017) erkundeten, wie sechzig vulkanische zukünftige Szenarien [volcanic futures] in Konsistenz mit den Eisbohrkernen die Projektionen der Klima-Variabilität unter dem RCP4.5-Szenario des Norwegian Earth System Model (NorESM; ECS=3.2C) beeinflussen. Ein gehäuftes Auftreten starker Ausbrüche in den Tropen hat zu nachhaltigen Kaltperioden wie der Kleinen Eiszeit beigetragen, während längerfristige Auswirkungen auf das Klima durch Anomalien des ozeanischen Wärmegehaltes sowie Änderungen der Ozean-Zirkulationen moderiert werden. Extreme vulkanische Aktivität kann potentiell ausgedehnte Kaltphasen auslösen.

Abbildung 5: Jährlicher GMST-Mittelwert*. Ensemble-Mittelwert (durchgezogen) von VOLC (stochastischer vulkanischer Antrieb; blau), VOLC-CONST (Mittel des vulkanischen Antriebs von 1850 bis 2000; violett) und NO-VOLC (rot/orange) mit der 5% bis 95%-Bandbreite (schattiert) sowie Minima/Maxima des Ensembles (Punkte) für VOLC und NO-VOLC; Entwicklung des extremsten Members (schwarz). Nach Bethke et al. (2017).

[*GMST = Global Mean Surface Temperature]

Auf der Grundlage der Ergebnisse von Bethke et al. (2017) werden drei vulkanische Szenarien für Abkühlung betrachtet, bezogen auf die in Abbildung 5 gezeigten Dekadenwerte:

Kein Antrieb

50. Perzentilwert: mittlerer Antrieb

95. Perzentilwert: starker Antrieb

Abbildung 6: Dekadische GMST-Mittelwerte relativ zur präindustriellen Zeit. Ensemble-Mittel (durchgezogen) mit Bandbreite 5% bis 95% (schattiert) bei VOLC (blau) und NO-VOLC (rot).

Tabelle 4 zeigt die dekadischen Szenarien vulkanischer Abkühlung, konsistent mit Abbildung 6.

Interne Variabilität

Variationen der globalen mittleren Temperatur sind auch verknüpft mit der multidekadischen internen Variabilität der großräumigen Ozean-Zirkulationen. Allerdings ist die Trennung der internen Variabilität von der erzwungenen Variabilität nicht immer einfach infolge Unsicherheiten bei den externen Antrieben.

Es wurde geschätzt, dass die multidekadische interne Variabilität (Größenordnung 50 bis 80 Jahre) von Höhepunkt zu Höhepunkt eine Amplitude bis zu 0,3°C bis 0,4°C aufweisen kann (Tung und Zhou 2012), was etwa die Hälfte der Erwärmung bis zum Ende des 20. Jahrhunderts ausgelöst hat.

Aus den meisten Analysen war hervorgegangen, dass die Atlantische Multidekadische Variabilität die Temperaturen global und auf der Nordhemisphäre hauptsächlich beeinflusst. Die Identifizierung der ENSO als Treiber von Variationen der globalen mittleren Temperatur oder ein Signal der Reaktion darauf bleiben umstritten, mit sich widersprechenden Ergebnissen.

Berücksichtigt man die multidekadische Variabilität nicht bei Prognosen der zukünftigen Erwärmung unter verschiedenen Antriebs-Szenarien, besteht das Risiko der Überschätzung der Erwärmung im Verlauf der nächsten zwei bis drei Jahrzehnte, wenn die Atlantische Multidekadische Oszillation (AMO) wahrscheinlich ihre Kaltphase durchläuft.

Die Analyse historischer und paläoklimatischer Aufzeichnungen legt nahe, dass ein Übergang in die kalte Phase der AMO vor 2050 zu erwarten ist. Enfield und Cid-Serrano (2006) verwendeten paläoklimatische Rekonstruktionen der AMO, um eine probabilistische Projektion der nächsten AMO-Verschiebung zu entwickeln. Abbildung 7 zeigt die Wahrscheinlichkeit einer AMO-Verschiebung im Verhältnis zur Anzahl der Jahre seit dem letzten Phasenwechsel. Der letzte Phasenwechsel fand 1995 statt; daher sind im Jahr 2020 seit dem letzten Phasenwechsel 24 Jahre vergangen. Abbildung 7 zeigt, dass eine Verschiebung in die kalte Phase innerhalb der nächsten 15 Jahre erwartet wird, wobei die Wahrscheinlichkeit, dass die Verschiebung im Verlauf der nächsten 6 Jahren stattfindet, 50% beträgt.

Abbildung 7: Wahrscheinlichkeiten eines Phasenwechsels der AMO relativ zur Anzahl der Jahre nach dem letzten Phasenwechsel. Nach Enfield und Cid-Serrano (2006)

Der Zeitpunkt eines Wechsels der AMO in die Kaltphase ist nicht vorhersagbar. Er hängt bis zu einem gewissen Ausmaß von der unvorhersagbaren Variabilität des Wetters ab (Johnstone 2020). Seine Analyse zeigt, dass Änderungen niedriger Frequenz der Wassertemperatur (SST) im Nordatlantik seit dem Jahr 1880 objektiv definiert werden können als eine Reihe alternierender Phasenwechsel mit abrupten (~1 Jahr) Übergängen während der Jahre 1902, 1926, 1971 und 1995 (Abbildung 8). Diese abrupten Änderungen (seit 1880) betonen längere quasi-stabile Perioden von 24 Jahren (1902bis 1925), 45 Jahren (1926 bis 1970) und 24 Jahren (1971 bis 1994). Die jüngste und wärmste Phase seit Beginn der Reihe dauerte nunmehr von 1995 bis 2019 (25 Jahre). Voran gegangene Wechsel in die Kaltphase in den Jahren 1902 und 1971 wiesen ähnliche Amplituden (-0,2°C) auf, welche längeren Perioden relativer Wärme folgten (1880 bis 1901, 1926 bis 1970). Eine Verschiebung in die Kaltphase innerhalb kürzerer Zeit (~5 Jahre) könnte vorläufig aus einem starken Rückgang der SST im subpolaren Nordatlantik gefolgert werden, ein Verhalten, welches ein Vorzeichen einer breiteren Abkühlung des Nordatlantiks sein kann auf der Grundlage eines frühen subpolaren Auftauchens des jüngsten Wechsels in die Kaltphase im Jahre 1971.

Abbildung 8: Jährliche SST-Anomalien im subpolaren (blau) und tropischen (rot) Nordatlantik. Eine starke subpolare Abkühlung im Jahre 2015 ist klar erkennbar (Johnstone 2020).

Auf der Grundlage obiger Analysen lassen sich die in Tabelle 5 gezeigten drei Szenarien einer globalen Temperaturänderung in Verbindung mit der AMO ableiten.

Tabelle 5: Dekadische Szenarien einer Temperaturänderung im Zuge der internen Variabilität (°C) bei einem Übergang der AMO in die Kaltphase:

Integrale Szenarien der Temperaturänderung: 2050

Die finale integrale Temperaturänderung ist die Summe der Temperaturänderungen, die angetrieben werden durch

Emissionen (4 Szenarien)

Vulkane (3 Szenarien)

Solar (3 Szenarien)

AMO (3 Szenarien)

Es gibt 108 mögliche Kombinationen dieser Szenarien. Tabelle 6 zeigt die Szenarien jeweils mit extrem hoher und niedriger Erwärmung plus das Szenario bei Heranziehen der Mittelwerte.

Tabelle 6: Integrale Szenarien der einer Änderung der globalen Mitteltemperatur von 2020 bis 2050:

Alle Komponenten der natürlichen Variabilität deuten auf Abkühlung im Zeitraum 2020 bis 2050. Individuell ist nicht zu erwarten, dass diese Terme bei den moderaten Szenarien groß sind. Wenn man jedoch deren Amplituden summiert, nähert man sich der Amplitude der Erwärmung in Verbindung mit der Erwärmung, die verbunden ist mit moderaten Werten der TCRE -1,35°C und 1,65°C. Falls die natürliche Abkühlung über den erwarteten Wert hinausgeht oder der TCRE am unteren Ende liegt (1,0°C bis 1,35°C), dann dürfte es insgesamt zu Abkühlung kommen.

Conclusions

Drei grundlegende Folgerungen gibt es:

Wir fangen an, die Unsicherheit bei der Stärke der Erwärmung durch Emissionen einzuengen, welche wir bis zum Jahr 2050 erwarten können.

Alle drei Zustände der natürlichen Variabilität – Solar, Vulkane, interne Variabilität – neigen während der nächsten 3 Jahrzehnte zu Abkühlung

Abhängig von den relativen Magnituden der von Emissionen angetriebenen Erwärmung im Vergleich zur natürlichen Variabilität sind Jahrzehnte ohne Erwärmung oder sogar mit Abkühlung mehr oder weniger plausibel.

Aber was ist mit der 2. Hälfte des 21. Jahrhunderts bis 2100? Unsicherheiten hinsichtlich Emissionen sind dann sehr viel größer. Die Solar-Szenarien des CMIP6 (Referenz und Maunder) zeigen stärkere Abkühlung während der 2. Hälfte des 21. Jahrhunderts. Vulkanausbrüche könnten dann stärker sein (oder auch nicht). Nach der projizierten Kaltphase der AMO kann man eine Rückkehr zur Warmphase erwarten, aber es gibt kein Vertrauen bei der Projektion entweder einer warmen oder einer kalten AMO-Phase im Jahre 2100.

Unabhängig von der Größenordnung von Vulkanausbrüchen besteht die große Unsicherheit in indirekten Auswirkungen der Sonne. Auf der Grundlage der von mir gesichteten Literatur scheinen UV-Effekte auf das Klima mindestens so stark zu sein wie TSI-Effekte. Ein Faktor von 2 bis 4 mal TSI scheint mir vollkommen plausibel, und es gibt auch ernsthafte Argumente für sogar noch höhere Werte. Ich möchte hier auch noch einmal betonen, dass fast alle Schätzungen von ECS/TCR auf der Grundlage von Beobachtungen keinerlei Berücksichtigung von Unsicherheiten der indirekten Auswirkungen der Sonne finden. Scafetta (2013) hat derartige Effekte bei einer Schätzung der ECS berücksichtigt und kam auf einen ECS-Wert von 1,35°C.

Weder die Auswirkungen der AMO noch indirekte solare Effekte sind bei der Analyse der Ursachen der Erwärmung seit 1950 berücksichtigt worden.

Link: https://wattsupwiththat.com/2020/02/16/plausible-scenarios-for-climate-change-2020-2050/

Übersetzt von Chris Frey EIKE




Ökoenergieanlagen: Betreiber kassieren auch in der Krise – EEG Umlage festgemauert

Selten wurde in einer Bundestagssitzung wie der am 24. März so viel Dank ausgesprochen. Das ist berechtigt und nicht zu kritisieren, auch wenn nicht alle genannt wurden, die derzeit den noch funktionierenden Teil der Gesellschaft aufrechterhalten. Die Strom-, Wärme- und Gasversorger zum Beispiel, deren Absatz schrumpft und die auf den Kosten für die Organisation der Arbeit unter Pandemiebedingungen natürlich sitzenbleiben. Abschottung der Leitwarten, Einrichtung von Übernachtungsplätzen für das eventuelle Arbeiten unter Bedingungen der Quarantäne und so weiter. Wie immer ist es uns selbstverständlich, dass Energie rund um die Uhr verfügbar ist, in jetzigen Zeiten wichtiger denn je.
Natürlich ist jede Krise schlecht, aber nicht so schlecht, dass es nicht noch schlimmer hätte kommen können. Der gegenwärtige Zustand in eiskalte dunkle Winterzeit mit viel Schnee verschoben hätte alle gegenwärtigen Sorgen deutlich verschärft.

Zumindest die sonst aufgeregten ökokorrekten Diskussionen sind etwas abgeflacht. Niemanden stört jetzt, dass tausende Menschen für viele Stunden des Tages Plastik im Gesicht tragen, dass Diesel-LKWs auch sonntags die Feinstaubzonen befahren und Pendler ihren Auto-Individualverkehr bevorzugen anstelle der ÖPNV-Virenmultiplikatoren. Sehnsüchtig wartet man auf ein passendes Medikament, das dann von ach so bösen Pharmakonzernen produziert werden wird.

Das Klimathema ist weitgehend abgetaucht. Seitdem jeder Werktag schulfrei ist, lohnt der Aufstand der juvenilen Untergangspropheten von fff nicht mehr. Vereinzelt herrscht Freude über derzeit geringe Treibhausgas-Emissionen, verbunden mit der vorsichtig ausgesprochenen Hoffnung, sie mögen doch so niedrig bleiben. Professor Schellnhuber verbreitet im Interview mit klimareporter.de die Einsicht, dass weder Viren noch der Klimawandel an Grenzen halt machen. Prinzipiell muss man ihm Recht geben, dennoch hinkt es hier. Virenträger kann man durch Grenzkontrollen reduzieren, wie inzwischen selbst an deutschen Binnengrenzen praktiziert und wo es schon zu gewaltsamen Grenzdurchbrüchen kommt. Noch wird nicht geschossen.

Nationale Maßnahmen wie Grenzkontrollen helfen hingegen bei Emissionen nicht. Bilanzen für einzelne Länder oder Regionen kann man erstellen, sie sind aber nur Theorie, wenn die Emissionen nur verschoben werden, zum Beispiel durch zunehmenden Stromimport über Ländergrenzen. Klimanationalismus hilft nicht, globale Probleme zu lösen. In dieser Frage ist die deutsche Sicht allerdings eine besondere, der Weltrettungsanspruch tief verwurzelt. Während wir unseren Nachbarn unser hässliches Gesicht zeigen, bleibt die politische Anmaßung eigener Fähigkeiten auf hohem Niveau. Das unterscheidet uns von den Nachbarländern, die pragmatisch die Probleme zu lösen versuchen. Die Holländer bauen die Deiche höher, Deutschland senkt den Meeresspiegel.

Mit dem schrumpfenden Stromabsatz fallen die Preise an der Börse, auch etwas die der CO2-Zertifikate. Den Haushaltskunden nutzt das nichts, 53 Prozent Staatsanteil am Strompreis bleiben und auch die EEG-Umlage steht festgemauert in deutscher Erden. Zurücklehnen können sich die Betreiber der Ökoenergieanlagen, deren Strom unabhängig vom Bedarf zum Festpreis abgenommen wird. Sie bekommen das Geld vom EEG-Umlagekonto, das über die Netzbetreiber gefüllt wird. Fallen Einzahler am Anfang der Kette aus, zum Beispiel weil Mieter die Stromrechnung nicht mehr zahlen können, haben die Netzbetreiber das Inkassoproblem, nicht die Windmüllerin oder der Biogasmann.

Der Streichelzoo der Erneuerbaren ist krisenfest, egal, wie das Virus heißt. Dafür sollten sich die Profiteure dann doch auch mal bedanken.

Der Beitrag erschien zuerst bei TE hier