1

Der Lockdown zeigt uns das Elend, das Null Kohlenstoff uns aufzwingen würde

Der evangelikalisch grüne Umweltanalyst bei der BBC Roger Harrabin schrieb kürzlich Folgendes auf seiner Website:

Ich hatte soeben eine Erleuchtung. Der lebhafte kleine Zaunkönig, der laut im verfilzten Efeu vor meiner Hintertür zwitschert, sagt uns etwas Bedeutsames über den globalen Klimawandel. Das liegt daran, dass ich in Verbindung mit den melodiösen Noten eines Rotkehlchens, sein Lied tatsächlich deutlich hören kann. Normalerweise sind beide Vögel durch den Verkehrslärm gedämpft, aber der Lärm ist in der Ruhe des Lockdowns so gut wie erloschen.

Ah ja, die Ruhe des Lockdowns. Sie ist für uns Glückliche sehr real. Es ist zwei Monate her, dass ich das letzte Mal meine ländliche Heimat verlassen habe. Niemals zuvor habe ich es hier so ruhig gehabt und hellere Sterne gesehen. Es ist wunderbar, den Geräuschen der Natur zu lauschen. Genau wie Harrabin liebe ich es, mehr Zaunkönige und Rotkehlchen und weniger Verkehr zu hören, und von mir aus kann das so bleiben.

Was alles könnte dabei involviert sein? Die Glühlampe über Harrabins Kopf – natürlich mit grüner Energie betrieben – sagt ihm, dass wir nach Öko-Neusprech „besser zurückbauen“ müssen [Build Back Better]. Regierungen sollten in ihren Paketen für die Erholung aus COVID nur Unternehmen und Projekte unterstützen, welche „ökonomisches Wachstum von Treibhausgas-Emissionen abkoppeln“. Anderenfalls werden wir Net Zero nicht erreichen. Ich zitiere aus einem Arbeitspapier der Oxford Smith School of Enterprise and the Environment mit dem schmissigen Titel „Will Covid-19 fiscal recovery accelerate or retard progress on climate change?“ [etwa: Wird die finanzielle Erholung aus COVID-19 Fortschritte bzgl. Klimawandel beschleunigen oder verzögern?]. Unter den Autoren sind Granden wie Joseph Stiglitz und Lord Stern.

Im Eingangsabschnitt liest man: „Die COVID-19-Krise könnte einen Wendepunkt markieren hinsichtlich Fortschritten bzgl. Klimawandel. In diesem Jahr werden die globalen Treibhausgas-Emissionen stärker zurückgehen als in jedem Jahr zuvor. Die prozentuale Abnahmen jedoch müsste sich wiederholen, Jahr für Jahr, um bis zum Jahr 2050 Null Emissionen zu erreichen. Stattdessen werden die Emissionen wieder steigen, wenn die Restriktionen erst einmal aufgehoben sind und die Wirtschaft sich erholt – es sei denn, die Regierungen intervenieren“.

Die Autoren befinden sich in einer Zwickmühle. Sie erkennen halbherzig, dass COVID-19 nicht nur medizinisch, sondern auch ökonomisch eine Katastrophe ist, aus der herauszukommen sich die Gesellschaften dringend wünschen. Aber dennoch haben sie das bekommen, was sie haben wollten. Die Emissionen sind beispiellos gesunken infolge der extremen ökonomischen Kontraktion. Die Betonung liegt auf ihrem Punkt, dass ein derartiger Rückgang „sich wiederholen muss, Jahr für Jahr“, um den Planeten zu retten. Sie wollen den COVID-Effekt verewigen (natürlich ohne die Krankheit).

Mit dem Effekt sind zwei Dinge verbunden. Erstens bedeutet er eine gewaltige Zunahme regierungsamtlicher Kontrolle. Um die Krankheit zu bekämpfen, mussten wir erzwungenermaßen große Teile unserer Freiheit zu arbeiten, zu handeln, zu reisen, Gottesdienste zu besuchen usw. aufgeben – darunter sogar Wahlen (wurde doch die Neuwahl lokaler Regierungen verschoben) und in vielen Fällen sogar unser Familienleben.

Der zweite Effekt ist die gesteigerte Armut. Dies bringt die vorübergehende Einschränkung so vieler Wirtschaftszweige mit sich mit der Konsequenz von Insolvenzen, Lohnkürzungen und Verlusten von Arbeitsplätzen. Die Armut ist durch Maßnahmen der Regierung abgeschwächt und verzögert worden. Das wird Harrabin oder mich nicht direkt schädigen, können wir uns doch weiterhin bei voller Bezahlung am Gezwitscher von Zaunkönigen und Rotkehlchen erfreuen (abgesehen davon, dass wir es später bei unseren Steuerabgaben merken werden). Aber es war schockierend unerwartet und wird schockierend real. Außerdem sind Milliarden verängstigt, einsam und deprimiert.

Stiglitz, Stern und Co. haben natürlich recht, wenn sie schreiben, dass „die Emissionen wieder zunehmen, wenn die Restriktionen erst einmal aufgehoben sind und die Wirtschaft sich erholt – es sei denn, die Regierungen intervenieren“, aber sie scheinen nicht zu verstehen, was sie da sagen. Warum werden die Emissionen wieder steigen? Weil die Menschen mehr reisen werden – vor allem mit dem Auto (die hinsichtlich des Virus‘ viel sicherer sind als öffentliche Verkehrsmittel). Und warum werden sich die Ökonomien erholen? Weil Wachstum eine Funktion der Aktivität ist, und Aktivität wird ermöglicht durch Energie, und der globale Energiebedarf wird bis auf Weiteres zu etwa 85% von fossilen Treibstoffen gedeckt.

(Dies gilt übrigens sogar für Öko-Aktivitäten. Zu dem gesegneten Frieden des Lockdowns gehörte nämlich auch das Fehlen jedweder Straßenproteste seitens Extinction Rebellion, welche ohne moderne Transportmittel nicht organisiert werden können. Gleiches gilt auch für die den Planeten rettenden Konferenzen, zu welchen reiche und mächtige Herrschaften aus der ganzen Welt fliegen. Dieses Jahr ist COP26, geplant in Glasgow, wegen COVID-19 verschoben worden. Dort sollten 196 Länder wieder einmal darüber schwadronieren, die Erwärmung auf 1,5°C zu begrenzen).

Lord Lilley, ehemaliger Minister im Kabinett, drückte es in einem Webinar der GWPF diese Woche so aus: „Die kommende COVID-Rezession ist verursacht durch Unterdrückung der Versorgung, nicht durch eine geringere Nachfrage“. Mit anderen Worten, dies alles ist nicht das, was die Menschen wollten. Es wurde ihnen aufgedrückt. In einer Demokratie stimmen die Leute selten für etwas, das sie nicht wollen. Nach dem COVID-Lockdown werden die Wähler sich wünschen, ungehindert zurück an die Arbeit zu gehen und die Vorteile des Kollaps‘ der Ölpreise in Anspruch zu nehmen in Gestalt von sinkenden Kosten für Transporte und Heizung. Sie dürften kaum in der Stimmung sein, freiwillig immer höhere Stromrechnungen zu zahlen, um den Erneuerbaren Rechnung zu tragen.

Selbst im Musterkind Deutschland dämmert den Politikern diese Einsicht. Diese Woche musste Angela Merkel den Abgeordneten ihrer eigenen Partei nachgeben, welche vehement gefordert hatten, dass Deutschland seinen Anteil am europäischen „Green Deal“ nicht zahlen sollte – was kurz bevor das Virus zuschlug beschlossen worden war – um noch schnellere Klima-Restriktionen umzusetzen, solange nicht alle anderen EU-Länder Gleiches tun. Es ist ein unlösbares Problem für grüne Politik, dass sie nur bei denjenigen Wählern Erfolg haben, die sich schuldig fühlen, weil sie reich sind. Der Grünismus ist vom Konsumismus abhängig, den die Grünen wegen seiner bloßen Existenz so sehr hassen. Die meisten Wähler werden erbost darüber sein, ärmer zu werden, und sich nicht schuldig fühlen, weil sie reich sind.

Aber wie kann grüne Politik unter diesen Umständen überleben? Der Schlüssel liegt in der Phrase „es sei denn, Regierungen intervenieren“. Nur Regierungen können die ökonomischen Ambitionen ihres Volkes unterdrücken. Und die einzige Art und Weise, mit der sie das tun können, besteht darin, einen Notfall auszuschlachten.

Darum ist die COVID-19-Erfahrung so attraktiv für den Net Zero-Gedanken. Sogar noch bevor die Krankheit auftauchte, wurde der Terminus „Klima-Notstand“ bewusst ausgeschlachtet von Aktivisten und von Abgeordneten im Parlament akzeptiert. Der Terminus wurde erfunden, um es der Regierung zu ermöglichen, die öffentliche Meinung in eine ganz bestimmte Richtung zu lenken. Das Rezept ist „unter Führung der Wissenschaft“, welche vermeintlich „settled“ ist. Die Botschaft an die Menschen lautet: „Verliert eure Rechte oder verliert euren Planeten“.

Die COVID-Erfahrung hätte uns eigentlich den Unterschied aufzeigen können zwischen einem realen Notfall – eine in der Welt um sich greifende Plage – und einem spekulativen Notfall. Selbst im Zuge der COVID-Krise gibt es heftige Debatten darum, ob die Maßnahmen notwendig waren oder nicht. Und diese Zweifel sollten in Verbindung mit Net Zero unendlich stärker sein. Dieses gesamte Gebäude basiert auf Modellrechungen – und wir sehen immer wieder, wie irreführend Modellergebnisse sein können –, welche Worst Case-Szenarien in ferner Zukunft an die Wand malen. Problem: vielleicht; Notfall: nein.

Wir sollten viel mehr Vertrauen haben, dass unsere sich weiter entwickelnde Technologie weiterhin alles sauberer und ruhiger zu machen.Sicher können es die Ressourcen der Zivilisation es leichter machen für Harrabin und mich, dem Vogelgezwitscher zu lauschen ohne dabei die Menschheit zu beschneiden. „Unser Haus brennt!“ schrie Greta Thunberg im vorigen Jahr. Das tut es nicht, aber es wurde geschlossen. Einmal ist genug.

Ganzer Beitrag hier (Zahlschranke)

Link: https://www.thegwpf.com/charles-moore-lockdown-is-showing-us-the-misery-that-net-zero-will-demand/

Übersetzt von Chris Frey EIKE




YouTube verteidigt die Entfernung eines Videos von einem Epide­miologen zum Corona­virus über ,Herden-Immunität‘

Das Video stellte Dr. Knut Wittkowski vor, den ehemaligen Leiter von Biostatistik, Epidemiologie und Forschungsdesign an der Rockefeller University. Darin äußerte er sich kritisch zum Lockdown und zum social distancing mit dem Argument, dass diese Maßnahmen kontraproduktiv sind, um gegenüber dem Virus „Herden-Immunität“ zu erreichen. Das Video wurde wegen angeblicher „Falschinformation“ abgesetzt, nachdem es über 1,3 Millionen mal angeklickt worden war.

„Wie bei allen Erkrankungen der Atemwege ist das Einzige, was diese Krankheit stoppen kann, Herden-Immunität“, sagt Wittkowski in dem Video. Die New York Post hatte darüber erstmals berichtet. „Etwa 80% der Menschen müssen in Kontakt mit dem Virus kommen, und die Mehrheit davon würde nicht einmal bemerken, dass sie infiziert worden sind“.

In einer Antwort auf eine entsprechende Anfrage des Daily Caller nach einem Kommentar von YouTube schrieb dessen Sprecher Ivy Choi:

Wir entfernen schnell gekennzeichnete Inhalte, welche unsere Leitlinien verletzen, einschließlich von Inhalten, die explizit die Wirksamkeit der globalen oder lokalen Gesundheitsbehörden bzgl. social distancing in Frage stellen, was Andere dazu verleiten könnte, gegen die Maßnahmen der Behörden vorzugehen. Wir sind zu zeitnaher und helfender Information zu dieser kritischen Zeit verpflichtet.

YouTube wurde im April vom Nachrichten-Moderator bei Fox News Tucker Carlson und Anderen schwer kritisiert, nachdem das Unternehmen ein Video von Dr. Dan Erickson und Dr. Artin Massihi entfernt hatte, in welchem die beiden Wissenschaftler die Lockdown-Maßnahmen von Kalifornien kritisiert hatten. Auf das Video wurde bis dahin 5 Millionen mal zugegriffen. (Ein Beitrag zum gleichen Thema steht hier).

„Wenn all das einmal vorbei ist, werden wir wahrscheinlich auf diesen Moment des Verhaltens von YouTube zurückblicken als einen Wendepunkt der Art und Weise, wie wir in diesem Land leben, ein scharfer Bruch mit 250 Jahren Gesetz und Ordnung“, sagte Carlson, ein Mitbegründer des Daily Caller. „Das Video der Doktoren wurde von einem lokalen Fernsehsender produziert. Es war tatsächlich eine Story der Mainstream-News. Die einzige Rechtfertigung für die Zensur war, dass die Physiker in dem Video zu anderen Ergebnissen gekommen waren als die gegenwärtig herrschende Klasse“.

Link: https://wattsupwiththat.com/2020/05/20/youtube-defends-removing-epidemiologists-video-on-coronavirus-herd-immunity/

Übersetzt von Chris Frey EIKE




Woher kommt der Strom? gewollte Stromunterdeckung

19. Woche

Tabelle mit den Werten der Energy-Charts und dem daraus generierten Chart

Lediglich am Dienstag und Mittwoch wurde unter dem Strich etwas mehr ex- denn importiert. Die Strategie der Stromunterdeckung hat für Deutschland den Vorteil, dass in jedem Fall weniger CO2 ausgestoßen wird. Alle Emissionen werden dem Land angerechnet, welches den Strom herstellt. Auch wenn er anschließend verkauft wird. Bei der Kernkraft kommt ein ähnlicher Effekt zum Tragen. Importiert Deutschland (Jahreswerte: Hier klicken) unter anderem Strom aus Frankreich, enthält der Strommix ca. 70 Prozent Kernenergiestrom. Strom aus der Schweiz enthält um die 30 Prozent Kernenergiestrom (Abbildung, bitte unbedingt anklicken, es öffnen sich alle Abbildungen und Mehr). Das ist jeweils mehr als der Anteil der Kernenergie am deutschen Strommix.

Dennoch kann von sogenannten Atomgegner-Klimaschützern gesagt werden, dass Deutschlands Strommix demnächst, genau in 2 Jahren, frei von Atomstrom ist. Weil Deutschland den Atomstrom nunmehr importiert. Lieber Sankt Atomian, verschon mein Land, verseuch die Schweizer und das Frankreichland. Wie zynisch die Sache mit dem deutschen Atomausstieg ist, belegt der Ausschnitt aus den ZDF-Heute-Nachrichten (Abbildung 1). Das Umspannwerk, das für lockere 30 Millionen Euro auf dem Gelände des Kernkraftwerks Philippsburg gebaut wird, dient dazu, Kohlegleichstrom aus NRW in Wechselstrom für Baden-Württemberg umzuwandeln. Die Kosten (Abbildung 2) für den Netzknoten Philippsburg liegen insgesamt bei einer Milliarde Euro. Kohlestrom ist gleich CO2-Strom.

Das ist genauso bigott wie die Stromleitung aus dem rheinischen Braunkohlerevier nach Belgien (Abbildung 3). Da soll Braunkohlestrom den Atomstrom aus Tihange ersetzen. Die beiden Beispiele belegen, dass die Ideologie „Atomkraft: Nein danke!“ weit vor der Weltenrettungsideolgie CO2 muss weg, sonst verbrennt die Welt steht. Der Gipfel dabei ist: Der wegfallende Atomstrom wird durch Atomstrom aus dem Ausland ersetzt. Eine feine Leistung der Volksverdummung und Entlarvung auf dem Weg zur Deindustrialisierung Deutschlands.

Tagesanalysen

Sonntag, 3.5.2020: Anteil erneuerbare Energieträger an der Gesamtstromerzeugung 57,61 Prozent, davon Windstrom 16,30 Prozent, Sonnenstrom 21,74 Prozent, Strom Biomasse/Wasserkraft 19,57 Prozent. Die Agora-Chartmatrix: Hier klicken.

Der Strombedarf Deutschlands ist gering. Der Wind weht schwach und schwächer. Der Strompreis ist im Keller. Der Lediglich zum Abend zieht er etwas an. Da benötigt Deutschland besonders viel Strom zusätzlich. Die Schweiz, Dänemark und Frankreich liefern. Wie den ganzen Tag über. Tschechien und Österreich machen Strompreis-Differenzgeschäfte.

Montag, 27.4.2020: Anteil erneuerbare Energieträger an der Gesamtstromerzeugung 46,85 Prozent, davon Windstrom 16,22 Prozent, Sonnenstrom 14,41 Prozent, Strom Biomasse/Wasserkraft 16,22 Prozent. Die Agora-Chartmatrix: Hier klicken.

Um 8:00 Uhr zahlt Deutschland eine Spitzenpreis für etwa 9 GW. Den ganzen Tag importiert Deutschland Strom. Auch wenn die Windstromerzeugung über Tag anzieht: Es reicht nicht. Nach Sonnenuntergang steigt der Preis etwas, liegt aber – vom Morgen abgesehen – im Niedrigbereich. Diesmal liefern die Niederlande neben Frankreich und der Schweiz den fehlenden Strom.

Dienstag, 5.5.2020: Anteil erneuerbare Energieträger an der Gesamtstromerzeugung 54,17 Prozentdavon Windstrom 20,83 Prozent, Sonnenstrom 18,33 Prozent, Strom Biomasse/Wasserkraft 15,00 Prozent. Die Agora-Chartmatrix: Hier klicken.

Heute insgesamt etwas mehr Windstrom. Frankreich, die Schweiz und die Niederlande liefern den fehlenden Strom. Zu insgesamt moderaten Preisen.

Mittwoch, 6.5.2020: Anteil erneuerbare Energieträger an der Gesamtstromerzeugung 57,26 Prozent, davon Windstrom 19,35 Prozent, Sonnenstrom 23,39 Prozent, Strom Biomasse/Wasserkraft 14,52 Prozent. Die Agora-Chartmatrix: Hier klicken.

Heute exportiert Deutschland über die Mittagsspitze Strom. Selbstverständlich zu Billigpreisen. Höre ich da ein: „Aber wenigstens muss nicht noch Geld mitgegeben werden“? Ja richtig, das ist ein Trost. Der bittere Beigeschmack: Der Wind- und Sonnenstrom muss den Erzeugern gemäß EEG voll vergütet werden.

Donnerstag, 7.5.2020: Anteil erneuerbare Energieträger an der Gesamtstromerzeugung 51,28 Prozent, davon Windstrom 11,97 Prozent, Sonnenstrom 23,93 Prozent, Strom Biomasse/Wasserkraft 15,38 Prozent. Die Agora-Chartmatrix: Hier klicken.

Am Morgen ist der Importstrom vergleichsweise günstig. Am Abend kostet er richtig Geld. Frankreich, die Schweiz und andere liefern. Frankreich macht – wie Tschechien und Österreich – rentable Preisdifferenzgeschäfte.

Freitag, den 8.5.2020: Anteil erneuerbare Energieträger an der Gesamtstromerzeugung 48,18 Prozent, davon Windstrom 6,36 Prozent, Sonnenstrom 25,45 Prozent, Strom Biomasse/Wasserkraft 16,36 Prozent. Die Agora-Chartmatrix: Hier klicken.

Heute gibt es fast keinen Windstrom. Dafür erzeugen die Photovoltaikanlagen Strom, als gäbe es kein Morgen. In der Spitze fast 35 GW. Das ist schon was. Hier zeigt sich schön, dass mit mehr regenerativ erzeugtem Strom der Preis fällt. Leider profitiert Deutschland kaum davon. In dem Moment allerdings, als Deutschland Strom benötigt sprich importiert, liegt der Preis relativ höher.

Samstag, 9.5.2020: Anteil Erneuerbare an der Gesamtstromerzeugung 62,17 Prozent, davon Windstrom 7,61 Prozent, Sonnenstrom 25,00 Prozent, Strom Biomasse/Wasserkraft 19,57 Prozent. Die Agora-Chartmatrix: Hier klicken.

Die Windstromerzeugung geht heute wieder gegen Null. Auch und vor allem auf See. Deutschland importiert den fehlenden Strom insgesamt günstig. Lediglich am frühen Abend kostet es über 35 €/MWh. Die üblichen Verdächtigen – Frankreich, Schweiz, die Niederlande – liefern. Österreich und Tschechien greifen ein paar hunderttausend € ab. Die Stromunterdeckungssaison hat in Deutschland begonnen. Wie vergangenes Jahr (Abbildung 4). So kann man seine Klimaziele erreichen. So kann man den Atomausstieg organisieren. Dabei ist es nur Augenwischerei und Vernichtung von Vermögen (Abschalten der KKW in Deutschland).

Null Wind, null Sonne ergibt null Strom

Zum Schluss noch eine kurze Antwort auf die Frage, wer denn eigentlich in welchem Umfang vom oben beschriebenen Stromhandel in den jeweiligen Ländern und in Deutschland im Einzelnen profitiert beziehungsweise Verluste macht. Diese Analyse kann und will ich nicht leisten. Eines aber ist gewiss. Der deutsche Stromkunde ist der große Verlierer der Energiewende, welche faktisch eine Stromerzeugungswende ist. Er zahlt immer drauf. Egal, ob der Strom an der Börse günstig oder teuer gehandelt wird.

Da gibt es den einen oder anderen Zeitgenossen, der immer wieder und gerne sehr erfreut darauf hinweist, dass doch 60, 70 oder noch mehr Prozent des benötigten Stroms mittels regenerativer Energieträger erzeugt wurden. Das mag schön und richtig sein. Entscheidend sind gleichwohl nicht die hohen Werte, sondern die niedrigen. Da muss der Strom in entsprechend hohem Umfang konventionell hinzu erzeugt werden. Die entsprechende installierte Leistung konventionell muss kostspielig bevorratet werden. Lediglich Brennstoff wird eingespart. Hinzu kommt, dass die verlässliche Stromerzeugung mittels Biomasse und Wasserkraft naturgemäß begrenzt ist. Wind- und Sonnenkraft hingegen sind Energieträger, die im ungünstigsten Fall Null Strom erzeugen. Was ein paarmal pro Jahr der Fall war, ist und auch in Zukunft immer sein wird.

Das ist der Preis der gemäßigten Klimazone, in der Deutschland liegt: Da können noch so viele Wind- und Sonnenkraftanlagen installiert sein. Null Wind, null Sonne ergibt Null Strom. Sie können einen Fuhrpark mit 150 ganz fabelhaften Sportwagen besitzen. Wenn kein Kraftstoff zur Verfügung steht, bewegt sich keines dieser Fahrzeuge. Kraftstoff kann man heranschaffen. Wind und Sonne hingegen nicht. Deshalb wird das mit der Energiewende nichts. Außer einem: Teuer. Ist doch irgendwie ganz einfach, oder?

Ordnen Sie Deutschlands CO2-Ausstoß in den Weltmaßstab ein. Zum interaktiven CO2-Rechner: Hier klicken. Noch Fragen?

Ergänzungen? Fehler entdeckt? Bitte Leserpost schreiben! Oder direkt an mich persönlich: stromwoher@mediagnose.de. Alle Berechnungen und Schätzungen durch Rüdiger Stobbe nach bestem Wissen und Gewissen, aber ohne Gewähr. Die bisherigen Artikel der Kolumne Woher kommt der Strom? mit jeweils einer kurzen Inhaltserläuterung finden Sie hier.

Zuerst erschienen bei der Achse des Guten; mit freundlicher Genehmigung.

Rüdiger Stobbe betreibt seit vier Jahren den Politikblog www.mediagnose.de

Titelbild:

Hongkonger Forscher haben an Hamstern nachgewiesen, dass sich durch OP-Masken die kontaktlose Übertragung des Coronavirus deutlich verringern lässt. Die Übertragungsrate wurde durch den Einsatz der Masken um mehr als 60 Prozent reduziert, wie aus einer am Sonntag vorgestellten Studie der Universität Hongkong hervorgeht. Ohne chirurgische Maske infizierten sich zwei Drittel der Hamster binnen einer Woche.

 




Energiedefizit: Die hoffnungslose Intermittenz der Windkraft sollte die Deutschen nach einer zuverlässigen Erzeugung suchen lassen

Egal wie viel Windkraftkapazität und wie viele Sonnenkollektoren die Deutschen installieren, wenn die Sonne untergeht und Zephyr [griechische Gottheit des Windes] keine Brise mitbringt, bleibt all diese Kapazität im Leerlauf. Es folgt eine Täuschung, denn mit Zertifikaten aus Norwegen (Wasserkraft] kann aus zuverlässigem Kohlestrom grüner Strom gemacht werden.

Im Laufe der Zeit ist die zuverlässige und abgreifbare Energiekapazität immer weniger vorhanden. Mit noch mehr Abschaltungen, wird die Zukunft katastrophal werden. Wie Paul Homewood berichtet. Einleitung durch den Übersetzer, in Anlehnung an stopthesethings

 

Zwei Fallstudien zur Intermittenz der Erneuerbaren

Not a Lot of People Know That, Paul Homewood, 30. März 2020

Eine interessante Analyse von Timera Energy zum traurigen Mangel an Backup-Kapazitäten in Europa, basierend auf der Leistung der deutschen erneuerbaren Energien:

Zwei Fallstudien zur Intermittenz der Erneuerbaren

Europa ist weltweit führend in der Dekarbonisierung der Strommärkte mit erneuerbaren Energiequellen. Die Dekarbonisierung scheint eine schwierige, aber erreichbare Herausforderung zu sein, Wind- und Solarkapazität ist ausgesucht, die Hauptlast der Energieerzeugung zu liefern.

In den nächsten 10 Jahren sollen in ganz Westeuropa mehr als 350 GW neuer Wind- und Sonnenenergie online gehen. Gleichzeitig sollen große Mengen an zuverlässig abrufbarer Kern-, Kohle- und Braunkohlekapazität geschlossen werden, mindestens 40 GW bis 2023 und 80 GW bis 2030.

In einem kürzlich erschienenen Artikel haben wir die Herausforderungen eines sich schnell ändernden europäischen Kapazitätsmixes dargelegt. Dies hat gezeigt, das unserer Ansicht nach ein erheblicher Mangel an flexiblen Kapazitätsinvestitionen besteht, um das wachsende Wind- und Solarleistungsvolumenabzusichern.

In diesem Artikel den Sie gerade lesen, zeigen wir Ihnen zwei Fallstudien, um die Flexibilität zu veranschaulichen, die erforderlich ist, die Schwankungen der tatsächlich abgegebenen Strommengen der Erneuerbaren im Jahr 2020 im Vergleich zu 2030 auszugleichen, schließlich brauchen fast alle Verbraucher sicher kontinuierlich fließenden Strom in jeder benötigten Menge. Wir betrachten auch die Behauptung, dass diese Schwankungen allein durch Stromspeicher (z. B. Batterien) ausgelichen werden können.

Den vollständigen Beitrag finden Sie auf Timera Energy.

Beginnen wir mit dem wichtigsten Fall. Denken Sie daran, dass es sich nur um Deutschland [und Durchschnittswerte] handelt:

Fallstudie 1: Tag mit geringem Output der erneuerbaren Energien
Unsere beiden Fallstudien basieren auf den kürzlich in Deutschland tatsächlich beobachteten Last-, Wind- und Solardaten (2019). Anschließend skalieren wir die Wind- und Solarleistung auf der Grundlage des prognostizierten Kapazitätswachstums, das erforderlich ist, um die neuesten deutschen Ziele für erneuerbare Energien bis 2030 zu erreichen. In Abbildung 3 ist unsere Fallstudie für geringen Output der erneuerbare Energien dargestellt.

ENTSOE, Timera Energy

Grafik 2: Durchschnittliche, minimale und maximale deutsche Wind- und Sonnenleistung im Jahr 2019

ENTSOE, Timera Energy

Grafik 3: Tag der niedrigen erneuerbaren Energien in Deutschland 2020 v 2030

Der dunkelblau schattierte Bereich am unteren Rand des Diagramms zeigt die projezierte Wind- und Sonnenleistung 2020 bzw.  2030 im Durchschnitt über einen Zeitraum von 24 Stunden. Die durchgezogene blaue Linie zeigt den Strombedarf. Die obere blaue gestrichelte Linie in der Tabelle zeigt die installierte abrufbare Kapazität zuverlässiger Kraftwerke als „Flex“ (Back-up) im Jahr 2020 (knapp 75 GW). Mit anderen Worten, es gibt ein komfortables Volumen an abrufbarer Kapazität, um Tage mit geringer Wind- und Sonnenleistung im Jahr 2020 abzudecken.

Betrachten wir nun die Schätzung für 2030. Der hellblau schattierte Bereich am unteren Rand des Diagramms zeigt den geringen Anstieg der tatsächlichen Wind- und Solarleistung im Jahr 2030. Trotz des starken Anstiegs der nominalen Anschlussleistung der Erneuerbaren, gibt es nur einen relativ geringen Anstieg der tatsächlich abgebbaren Leistung bei schwachem Wind & Sonnentag.

Im Gegensatz dazu verringert sich die abrufbare flexible Back-up Kapazität bis 2030 um mehr als 30 GW. Durch Abschaltungen von Kernkraftwerken, Kohle und Braunkohle wird die blaue gestrichelte Linie auf ein Niveau gesenkt, das über den Tag hinweg einen Energieengpass von ca. 500 GWh hinterlässt. (Alle gelieferte und abrufbare Energie zusammen liegen unterhalb des Bedarfs). Dies entspricht 250 GW einer durchschnittlichen Speicherdauer von 2 Stunden (wenn der Speicher vorher voll ist).

In der Praxis kann nur ein Teil dieser Energielücke durch Speicherung geschlossen werden. Grenzüberschreitende Energie wird ebenfalls eine Rolle spielen, obwohl eine relativ hohe Korrelation der Windmuster in Nordwesteuropa bedeutet, dass sich die deutschen Nachbarmärkte möglicherweise in einer ähnlichen Position befinden. Es besteht jedoch ein erheblicher Bedarf an Investitionen in neue reale Kapazitäten, z. B. in Form von Batterien, Gas-Spitzenkraftwerke und Bedarfssteuerung (Abschaltungen!).

Wie ich schon öfters betont habe, sind Speicher und Demand Supply Response (DSR – Bedarfssteuerung) für die Deckung der volatilen erneuerbarer Energien von geringem Nutzen.

Selbst wenn Angebot und Nachfrage täglich innerhalb von 24 Stunden perfekt ausgeglichen werden könnten, müsste Deutschland die fehlenden 500 GWh, was einer Kapazität von 21 GW entspricht, noch nachrüsten. [Obige Überlegungen sind mit Durchschnittswerten gerechnet, dieses kann durchaus Strommangel im Stundenbereich einschließen, wenn gerade keine Wind weht und die Sonnen nicht scheint.  Irgendwann muss auch Überschuss da sein, um die immer angedachten Speicher zusätzlich und rechtzeitig(!) zur Bedarf zu füllen, physikalische Verluste eingerechnet].

 

Fallstudie 2: Tag mit über dem Bedarf liegendem Output der erneuerbaren Energien

ENTSOE, Timera Energy

Die Wind- und Sonnenleistung im Jahr 2020 (der dunkelblau schattierte Bereich) bleibt trotzdem unterhalb der Nachfrage (blaue Linie). An einem Tag mit viel Wind und Sonne im Jahr 2030 steigt die zufällig höhere Ausgangsleistung der Erneuerbaren jedoch deutlich über die Systemnachfrage.

Dies führt zu einem großen Energieüberschuss (200 GWh / d), der entweder eingeschränkt oder über grenzüberschreitend in benachbarte Märkte gedrängt werden muss. Dies könnte über einen längeren Windzeitraum über mehrere Tage hinweg zu einem Energieüberschuss von über 1,5 TWh führen.

Die Mengen an überschüssiger Energie sind zu groß, um sie zu speichern, wenn keine wichtige neue Quelle für flexiblen Bedarf vorhanden ist (z. B. Wasserstoffelektrolyse in großem Maßstab, die robust gegen Unterbrechungen sein müsste). Der Export großer Mengen über Verbindungsleitungen ist auch eine Herausforderung, wenn es in benachbarten Märkten korellierte Wind- und Solarmuster gibt.

 

Timera fasst zusammen:

Wir wollen die Rolle der Stromspeicherung, insbesondere von Batterien, nicht herunterspielen. Die Speicherung wird eine Schlüsselrolle bei der Absorption von überschüssiger Energie, der Spitzenabbau und der Bereitstellung eines sehr schnellen Ausgleichs spielen. Die Speicherung ist jedoch ein Nettokonsument (kein Produzent) von Energie, und die derzeitige Technologie (z. B. Batterien mit einer Speicherkapazität für die Dauer von 1 bis 2 Stunden) hat eine begrenzte praktische Anwendung für die Ver-Lagerung großer Energiemengen.

Die Versprechen auf alleinige oder wesentliche Versorgung mit Erneuerbare, enthält auch immer den Hinweis, auf mehr Flexibilität der Nachfrageseite. [Waschmaschinen, Kochherde und industrielle Bearbeitungscenter mit beliebiger und sofortiger Unterbrechungs-Resistenz!?]. Die Flex-Eigenschaften der nachfrageseitigen Reaktion sind jedoch typischerweise ähnlich wie bei der Speicherung, dh. geringer und bestenfalls netto energieneutral.

Grenzüberschreitender Stromausgleich könnte dabei helfen, Energie von Standorten mit niedrigeren zu höherwertigen Standorten [mit zuverlässigen Kraftwerken] zu verlagern. Durch den raschen Einsatz erneuerbarer Energien in ganz Europa werden die Nachbarländer jedoch zunehmend mit korrelierten mangelnden oder überschießenden Energiekapazitäten [Strommengen] konfrontiert sein.

Die derzeitige politische Unterstützung in ganz Europa ist völlig unzureichend, um die erforderlichen Flex-Mengen aus kohlenstoffarmen Quellen zu unterstützen. Selbst heldenhafte Annahmen zu Speicher, Nachfrageantwort und Bereitstellung von grenzüberschreitendem Ausgleich schließen das Flexibilitätsdefizit in Märkten wie Deutschland [und den anderen Ländern] nicht.

Damit bleibt allein die konventionelle gasbefeuerte Erzeugung bis weit in die 2030er Jahre hinein übrig, um struktureller Flexibilität [back-up], wenn auch bei stetig sinkenden Lastfaktoren. Und das ist kein Ergebnis, das im Widerspruch zu den Netto-Null-Emissionszielen für 2050 steht. Die Energieerzeugung aus Gas verschafft effektiv Zeit für die Kommerzialisierung und den Ausbau von CO2-armen Kapazitäten wie Wasserstoff und längerer Speicherung.

In Wirklichkeit bleiben Wasserstoff und Speicher mit größerer Kapazität eine Hoffnung im grünen Himmel und sind sicherlich keine Optionen, mit der Sie eine tragfähige Energiepolitik aufbauen könnten.

Das bringt uns zurück zu Gas [und Kernkraft]

Not a Lot of People Know That

https://stopthesethings.com/2020/04/16/power-deficit-wind-powers-hopeless-intermittency-leaves-germans-scrambling-for-reliable-generation/

Übersetzt durch Andreas Demmig




Schockierende neue Klimastudie: Die antiken Imperien Ägypten, Griechenland, Rom haben niemals existiert

[Hinweis: Alle im Original in Grad Fahrenheit angegebenen Temperaturen werden hier gleich in Grad Celsius umgerechnet genannt. Umgerechnet wird unter diesem Link. Anm. d. Übers.]

Die Zeitung USA Today fasst die „Ergebnisse“ der Studie in den „Proceedings of the National Academy of Sciences“ (PNAS) zusammen:

Falls die globale Erwärmung ungebremst weitergeht, wird die später in diesem Jahrhundert auftretende Hitze einige Teile der Welt „praktisch unbewohnbar“ machen, und zwar für bis zu 3 Milliarden Menschen.

Die Autoren prophezeien, dass ein großer Teil der Weltbevölkerung bis zum Jahr 2070 unter Klimabedingungen leben muss, die „wärmer sind als für das Fortbestehen menschlichen Lebens möglich“.

Die Studie warnte, dass die mittleren jährlichen Temperaturen über die Klima-„Nische“ steigen werden, in welcher die Menschheit sich seit 6000 Jahren entwickelt hat – es sei denn, die Emissionen von Treibhausgasen werden nachhaltig reduziert.

Jene „Nische“ ist äquivalent zu mittleren jährlichen Temperaturen von 11°C bis 15°C. Die Forscher kamen zu dem Ergebnis, dass Menschen trotz aller Arten von Innovationen und Völkerwanderungen in diesem Klimabedingungen viele tausend Jahre gelebt haben.

Schon auf den ersten Blick fallen krasse Fehler sofort auf. Wissenschaftler schätzen die gegenwärtige mittlere Temperatur der Erde auf 15°C. Wissenschaftler, darunter diejenigen Wissenschaftler, welche den allerersten IPCC-Bericht veröffentlicht hatten, haben schon lange gewusst, dass es die meiste Zeit der letzten 6000 Jahre wärmer war als heute (siehe die folgende Graphik, gefunden hier auf S. 202). Folglich sollten der neuen Studie zufolge alle Städte, welche heute unter Temperaturen über 15°C leben, ähnlich „fast unbewohnbar“ sein in früheren Zeiten. Tatsächlich würden derartige Städte in früheren Zeiten noch weniger bewohnbar gewesen sein.

In Rom beträgt die mittlere jährliche Temperatur derzeit 15,2°C. Der neuen Studie zufolge müsste die Stadt also „fast unbewohnbar“ und „wärmer als für die menschliche Entwicklung geeignet“ sein. Man erzähle das den Menschen in Rom und mehr noch allen Menschen, die dorthin in den Urlaub fahren – teilweise infolge des dortigen idealen Klimas. Falls Rom wirklich immer fast unbewohnbar gewesen wäre, wie konnte Rom sich bilden, wachsen, aufblühen und schließlich ein ganzes Weltreich führen?

In Athen beträgt die mittlere jährliche Temperatur 17,6°C. Das liegt deutlich über der Obergrenze der Temperaturspanne, von der die neue Studie behauptet, dass sie erträglich und dem menschlichen Leben zuträglich ist. Falls Athen wirklich immer fast unbewohnbar gewesen wäre, wie konnte die Stadt sich bilden, wachsen, aufblühen und schließlich ein ganzes Weltreich führen?

In Kairo liegt die mittlere jährliche Temperatur derzeit bei 21,8°C. Das liegt um etwa 7°C über der in der Studie angegebenen Obergrenze für menschliches Leben – und doch entwickelte sich um die Stadt ein ganzes Imperium. Noch höher liegt die mittlere jährliche Temperatur in Bagdad nahe der antiken Stadt Babylon mit 22,9°C. Auch hier: Wenn das fast unbewohnbar gewesen sein soll, wie konnten die Babylonier ein ganzes Weltreich aufbauen?

Hier zum Vergleich die gegenwärtigen mittleren Temperaturen einiger amerikanischer Städte:

San Francisco, Kalifornien: 14,1°C

Los Angeles, Kalifornien: 18,6°C

San Diego, Kalifornien: 18,7°C

Hilton Head Island, South Carolina: 18,9°C

In allen diesen Städten herrscht nach allgemeiner Ansicht ein höchst wünschenswertes Klima. In allen Städten außer in San Francisco liegt die Temperatur deutlich über 15°C. Sogar das notorisch kühle San Francisco liegt sehr nahe der Grenze zu „fast unbewohnbar“, wie es die Studie kolportiert. Offensichtlich ziehen die meisten Menschen ganz und gar nicht in Betracht, dass sie in einer Stadt an der Grenze zur Unbewohnbarkeit leben.

Gehen wir an dieser Stelle noch einen Schritt weiter. Fühlen die Millionen Menschen, die sich die Stadt Phoenix in Arizona zum Wohnen aussuchen – viele davon genau wegen des gewünschten Klimas, das dort herrscht – bei einer durchschnittlichen Temperatur von 24°C, dass es um 9 K wärmer ist als das, was gerade noch „bewohnbar“ betrachtet wird?

Was ist mit der Stadt Ft. Lauderdale in Florida, wohin im Ruhestand zurückzuziehen sich viele Amerikaner erträumen? Ist die durchschnittliche Temperatur von 24,7°C lebenswert?

Die Temperaturen in Städten, von denen einst antike Weltreiche erschaffen wurden, und die Temperaturen von Städten, deren Klima heute als ideal angesehen wird zeigen, dass die neue PNAS-Studie vollständig in die Tonne getreten gehört. Medienportale, die eine solche Müll-Studie atemlos und absolut unkritisch auf den Schild heben – darunter USA Today, die Washington Post, BBC News usw. – sind vollkommen nutzlos.

Die antiken Weltreiche haben existiert und blühten auf bei viel höheren Temperaturen als sie heutzutage herrschen.

Autor: James Taylor is Director of the Arthur B. Robinson Center for Climate and Environmental Policy at The Heartland Institute. Taylor is the former managing editor (2001-2014) of Environment & Climate News, a national monthly publication devoted to sound science and free-market environmentalism.

Link: https://climaterealism.com/2020/05/shocking-new-climate-study-egyptian-greek-roman-empires-never-existed/

Übersetzt von Chris Frey EIKE




Spekulationen vom Statistischen Bundesamt

Das Statistische Bundesamt konstruiert auch in der aktuellen Pressemitteilungzur neuesten Sonderauswertung vom 08.05.2020 für den Zeitraum 01. Januar 2016 bis 19. April 2020 einen angeblich naheliegenden Zusammenhang zwischen leicht erhöhten Sterbefallzahlen seit Ende März 2020 und Corona. Es bleibt damit seiner unseriösen, manipulativen Linie treu. Denn ein solcher Zusammenhang liegt nicht zwingendnahe.

Wie schon an dieser Stelledargelegt, lässt sich die leichte Übersterblichkeit auch ohne Corona mit den unterdurchschnittlichen Sterbefallzahlen bis Ende März 2020 und demographischen Erwägungen erklären. Diesen naheliegenden Erklärungsansatz verschweigt das Bundesamt – genauso wie den sehr bedeutsamen Fakt, dass die leichte Übersterblichkeit nur die Altersgruppe ab 80 Jahre betrifft. Man merkt die Absicht und ist verstimmt.

Hier zunächst die vom Statistischen Bundesamt verlautbarten Fallzahlen gemäß Sonderauswertungvom 15.05.2020 zu den Sterbefällen vom 01. Januar 2016 bis 19. April 2020:

Rumpf-Jahr 01.01.-12.04.:

2016: 290.641   (Altersgruppe ab 80 J.: 157.273)

2017: 315.576   (Altersgruppe ab 80 J.: 180.498)

2018: 330.152   (Altersgruppe ab 80 J.: 189.109)

2019: 301.558   (Altersgruppe ab 80 J.: 172.709)

2020: 304.354   (Altersgruppe ab 80 J.: 178.073)

nur Zeitraum 30.03.-19.04. 

2016: 53.987  (Altersgruppe ab 80 J.: 29.031)

2017: 51.050  (Altersgruppe ab 80 J.: 27.884)

2018: 58.095  (Altersgruppe ab 80 J.: 32.843)

2019: 54.579  (Altersgruppe ab 80 J.: 30.986)

2020: 59.024  (Altersgruppe ab 80 J.: 34.991)

Keine Übersterblichkeit bisher im Jahr 2020

Demnach ist im Zeitraum 01.01. bis 19.04.2020 keine erhöhte Sterblichkeit zu erkennen – weder bei der Gesamtbevölkerung noch bei den über 80jährigen. Erst recht nicht, wenn man berücksichtigt, dass das Jahr 2020 einen Tag mehr hatte als die Jahre 2017-2019.

In dem 3-Wochen-Zeitraum vom 30.03. bis 19.04.2020 ist zwar eine über dem Durchschnitt liegende Sterblichkeit zu verzeichnen. Sie betrifft aber nur die Altersgruppe ab 80 Jahre. Die Altersgruppen bis 80 Jahre sind nicht betroffen, nicht einmal die Altersgruppe 75-80 Jahre.

Wenn Menschen aus der Altersgruppe ab 80 Jahre sterben, dann naturgemäß häufig an Krankheiten.  Auch an COVID-19 selbstverständlich. Aber eine – besorgniserregende –Übersterblichkeit ergibt sich daraus nicht. Ohnehin gibt es einige andere Gründe, die die erhöhten Sterbefallzahlen bei über 80jährigen seit Ende März 2020 erklären können.

Erklärungen für leichte Übersterblichkeit bei der Altersgruppe 80plus

Einer der Gründe ist der Nachholeffekt. Vom 01.01. bis 29.03.2020 starben nämlich bei den über 80jährigen erheblich weniger Personen (143.082) als im Durchschnitt desselben Zeitraums der Jahre 2017 bis 2019 (150.201), obgleich das Jahr 2020 sogar einen Tag mehr hat. Das gleicht sich jetzt augenscheinlich an.

Ein anderer Grund ist die starke Zunahme der Anzahl der Personen in der Altersgruppe über 80 Jahre. Mehr sehr alte Menschen bedeuten zwangsläufig mehr Tote in dieser Altersgruppe. Das ist der natürliche Lauf der Dinge. Laut dieser Auswertungdes Statistischen Bundesamts ist die Zahl der über 80-jährigen wie folgt gestiegen:

31.12.2012:  4.348.282

31.12.2015:  4.766.190

31.12.2018:  5.396.249

31.12.2019:  noch nicht veröffentlicht

Da sich die Lebenserwartung kaum noch erhöht, wäre eine signifikante Zunahme der Sterbefälle bei den über 80jährigen gegenüber dem Durchschnittswert der Vorjahre nicht einmal ungewöhnlich, sondern im Gegenteil statistisch sogar erwartbar, und rechtfertigt daher weder gegenwärtig noch zukünftig blinden Aktionismus.

Sogar die Corona-Gegenmaßnahmen selbst könnten eventuell ein Grund für eine Übersterblichkeit sein. Wie dem Corona-Papiereines Referenten des Bundesinnenministeriums aus dem Referat Kritische Infrastrukturen zu entnehmen ist, gibt es Schätzungen über mehrere tausend mögliche zusätzliche Sterbefälle (insbesondere unter Pflegebedürftigen), weil zur Freihaltung von Kapazitäten für COVID-19-Fälle zahlreiche Operationen und Behandlungen verschoben wurden oder unterblieben sind.

Fazit

1. Es ist unseriös und spekulativ, einen Zusammenhang zwischen leicht erhöhten Sterbefallzahlen seit Ende März 2020 und COVID-19 herzustellen, wie es das Statistische Bundesamt tut. Das gibt die Statistik schlicht nicht her.

2. Es versteht sich von selbst, dass auch umgekehrt aus der Sterbefallzahlen-Statistik nicht ableitbar ist, dass Corona ungefährlich sei. Allerdings lässt sich das Regierungs-Narrativ von einem Killervirus, das ohne Rücksicht auf Verluste zu bekämpfen ist, nicht aufrechterhalten.

Auch wenn naturgemäß nicht feststellbar, wie sich die Sterbefallzahlen ohne die Corona-bedingten notstandsähnlichen Maßnahmen entwickelt hätten: Eine außerordentlich hohe Gefährlichkeit des Virus müsste sich trotz aller getroffenen Maßnahmen auch statistisch irgendwie bemerkbar machen (auch bei den Jüngeren). Denn die getroffenen Maßnahmen reduzieren weder die sozialen Kontakte vollständig noch werden sie von allen Bürgern beachtet.

Insofern lassen sich mit den Sterbefallzahlen per 19.04.2020 keine (weiteren) Grundrechtseinschränkungen wegen Corona begründen. Zumal die Beweislast für die Aufrechterhaltung von freiheitseinschränkenden Maßnahmen bei denen liegt, die sie getroffen haben.

3. Die bei isolierter Betrachtung seit Ende März 2020 bestehende leicht überdurchschnittliche Sterblichkeit betrifft nur die Altersgruppe ab 80 Jahre. Hierauf nicht deutlich hinzuweisen, ist ein schweres Versäumnis des Statistischen Bundesamts. Denn daran haben sich die Überlegungen zu orientieren, welche Altersgruppen besonders zu schützen sind und welche Maßnahmen dazu sinnvoll und erforderlich sind.

4. Auch die neuen Zahlen wurden erst mit fast vier Wochen Verzögerung veröffentlicht. Während Unternehmer in vielen Branchen neue Mitarbeiter sofort am Tag der Arbeitsaufnahme melden müssen, lassen sich die Behörden bei Sterbefällen offenkundig ganz viel Zeit. Es ist als multiples Organisationsversagen der Bundesregierungen (mit ihren Bundesinnenministern als obersten Dienstherren des Statistischen Bundesamtes) sowie der Landesregierungen zu bewerten, trotz regelmäßiger Warnungen vor möglichen Pandemien kein solches Meldewesen für Sterbefälle installiert zu haben, das den politischen Entscheidungsträgern eine zeitnahe Datengrundlage bietet.

 

Der Beitrag erschien zuerst bei ACHGUT hier




Klima und Schein­wissenschaft, Teil 3

  1. Irreführende Durchschnitts-Temperatur

Eigentlich ist die Temperatur eine so genannte «intensive» Größe, die sich auf einen bestimmen Ort und Zeitpunkt bezieht und daneben oder am gleichen Ort etwas später einen ganz anderen Wert haben kann. Die mit seriöser Physik formulierten Gesetze, in der die Temperatur vorkommt, beziehen sich deshalb immer auf einen solchen Punkt.

Da es nicht möglich ist, dem CO2 irgendeine Wirkung auf die Temperatur nachzuweisen, beziehen sich die Matadore der herrschenden Klima-Ideologie auf den ganzen Planeten und dessen Durchschnittstemperatur, auf die «Welt-Durchschnittstemperatur», berechnet über das ganze Jahr, rund um den Planeten, aus einer Spanne von allenfalls -50°C oder noch weniger am Südpol und den höchsten Temperaturen von etwa 60°C im Death Valley, alles auf ein halbes Grad C genau! Dieser Durchschnitts-Wert wird zum Maß für das «Klima»; eine für die Ansprüche seriöser Physik etwas groteske Definition, und die Physik wäre eigentlich für das Thema zuständig.

Wie irreführend die Durchschnittstemperatur immer wieder ist, sogar auf lokalem engen Raum, sei an einem einfachen Beispiel demonstriert: 2 Becken sind mit Wasser gefüllt, das linke mit einer Mischung von Eis von 0°C und Wasser von ebenfalls 0°C, im rechten Becken Wasser von 60°C. Die numerisch ermittelte «Durchschnitts-Temperatur» beträgt für ein Fußbad angenehme 30°C – in Wirklichkeit mit den 2 verschiedenen, für den menschlichen Körper extremen Temperaturen natürlich eine ungemütliche Situation!

Somit mischen wir die beiden Becken zusammen in ein großes, damit wir mit dem Fußbad endlich beginnen können. Die numerisch berechnete «Durchschnittstemperatur» beträgt 30°C – ideal für ein Fußbad.

Das Resultat jedoch, au weia – eiskalt. Die Durchschnittstemperatur beträgt immer noch 0°C. Durch die vom warmen Becken gelieferte Energie wurde ein Teil des Eises geschmolzen, aber nicht alles, sodass die Durchschnitts-Temperatur 0°C beträgt. Die physikalisch wesentliche Größe ist die Energie, nicht die Temperatur!

Wenn wir beim Thema Eis sind, weshalb schmelzen Gletscher? Nein, nicht weil die Luft zu warm ist, sondern weil zu wenig Niederschläge fallen. Gletscher an Land sind durch Niederschläge entstanden, wachsen dank dieser und gehen zurück, wenn zu wenig Schnee fällt. Draußen im Weltall würde ein Gletscher bei -270° C verdunsten! Eine Kuriosität dieser Art sind die Trockentäler ohne Eis und Schnee in der Antarktis, nahe beim Südpol, trockener als die Sahara bei Temperaturen zwischen -40° C und –10° C.

Auf dem Meer entsteht die erste Schicht eines Gletschers, wenn die Oberfläche des kalten Wassers gefriert. Der Gletscher kann danach von oben ebenfalls durch Schnee genährt werden oder durch mehr kaltes Wasser von unten, und er schmilzt, wenn er in eine wärmere Strömung gerät, wie typischer Weise Eisberge, die Richtung Äquator schwimmen.

Der Mensch hat mit 2 Arten von Temperatur andauernd zu tun, mit der über die Sinne auf der Haut wahrgenommene Temperatur seiner unmittelbaren Umgebung sowie mit der seines Körpers, die man meistens nur im Zusammenhang mit einer Erkrankung durch Messungen zur Kenntnis nimmt, typischerweise ab und zu bei einem als Fieber bezeichneten zu hohen Wert.

Bild-Quelle: de.wikipedia.org/wiki/Fieberthermometer#/media/Datei:Quecksilber-Fieberthermometer.jpg

https://de.wikipedia.org/wiki/Gemeinfreiheit?uselang=de

Der Organismus eines Warmblüters reguliert seine Temperatur mit aufwendigen Prozessen. Aber auf ein halbes Grad genau kommt es sogar da nicht an. Die Temperatur des gesunden Körpers beträgt etwa 36,6° C. Sie sinkt nachts unter normalen Umständen etwa um ein halbes Grad. 1°C mehr als die normale Temperatur ist noch kein Fieber. Bei einem gesunden Menschen nimmt die Körpertemperatur bei höherer Leistung zu, und er schwitzt dann, um den Körper zu kühlen.

Die Körpertemperatur wird an einer Öffnung des Körpers gemessen. Im Innern kann sie vom gemessenen Wert ein wenig abweichen. Der Vergleich demonstriert, wie grotesk es ist, sich über die Durchschnittstemperatur der Erdoberfläche große Sorgen zu machen, die man sowieso nicht beeinflussen kann.

Die Meteorologen messen die Temperatur der Luft an einem schattigen Ort in 2 Meter Höhe. Das ist für die Zwecke der Wettervorhersage eine gute Möglichkeit, während man bei einer seriösen Betrachtung des Klimas eher an der lokal gespeicherten Energie interessiert wäre, die man durch Messungen der Bodentemperatur feststellen kann. Die Durchschnittstemperatur über die ganze Erde ist an sich bereits eine unsinnige Größe, und obendrein auf ein halbes Grad genau ist sie grotesk.

Naive irreführende Interpretationen von Durchschnittswerten sind quasi ein «running gag» der elementaren mathematischen Statistik. Daneben wird diese Größe auch immer wieder für Tricks verwendet, ein ahnungsloses Publikum zu täuschen und manchmal auch sich selbst.

  1. Die grosse Geste: Globales Energie-Budget

Mit der mühseligen, aber einzig seriösen Kleinarbeit, indem man den Zustand und allfällige Entwicklungen der Klimavariablen in vielen Regionen untersucht und vergleicht, könnten die Adepten alarmistischer Botschaften ihr gewünschtes Resultat nicht finden, eine angeblich durch die Menschheit verursachte Erwärmung des «globalen Klimas». Statt dessen hantieren sie mit einer Übersicht über das globale Energie-Budget der Erde gegenüber dem Weltall.

Die Energiebilanz der Erde gegenüber dem Weltall mit Zu- und Abflüssen wird durch die bekannte, im Auftrag des IPCC von Trenberth et al. erarbeitete Graphik dargestellt:

Die an der Erdoberfläche und in der Atmosphäre vorhandene Energie wird durch die Sonnenstrahlung geliefert, davon aber auch quasi alles wieder ins Weltall zurück gestrahlt, teilweise umgehend an Wolken, Schnee und Gewässern reflektiert oder verzögert, nachdem die von der Sonne gelieferte Energie zunächst bei Tag erreichte Flächen der Erde erwärmt, die danach als Infrarot abgestrahlt wird, auch nachts.

Fast alle Energie wird auf dieser Darstellung in Form elektromagnetischer Strahlung transportiert und legitimerweise als «Energie-Fluss» bezeichnet, ausgedrückt in Watt pro Quadratmeter Erdoberfläche; allerdings wohl verstanden, Watt gemittelt über den Jahres-Durchschnitt, über Tag und Nacht, Sommer und Winter, ermittelt über die ganze Erdoberfläche, vom Äquator bis zu den Polen. Wenn man sich diese Darstellung als ungefähre Schätzung vorstellt, ist sie durchaus berechtigt. Aber sie enthält noch ein verstecktes Pferdefüßchen. Von den im Durchschnitt pro Quadratmeter Erdoberfläche eingestrahlten 341 Watt fließen per Saldo nach Rückstrahlung ins Welt-All 0.9 Watt zusätzlich ins System Erde-Atmosphäre und erwärmen somit dieses System ein kleines bisschen, «net absorbed» 0,9 W pro Quadratmeter, die wir dem «Treibhaus-Effekt» zu verdanken hätten.

Bei diesem gewaltigen auf und ab der Temperatur und einem Brutto-Zufluss von 341 W pro Quadratmeter will man einen winzigen Netto-Zufluss von milde aufgerundeten 2,64 Promille heraus rechnen, einmal mehr, genau wie bei der «Durchschnitts-Temperatur», eine völlig überzogene Scheingenauigkeit.

Die angegebenen Werte wurden natürlich nicht im Detail ermittelt, sondern mit spekulativen Methoden aus einzelnen Messungen zusammen gerechnet. Und wer dieses Ergebnis nicht glaubt, zahlt dennoch einen Taler, nämlich Abgaben auf das durch seine Aktivität produzierten CO2, wobei das Ausatmen, die erste Quelle für das vom Menschen verursachte CO2 einstweilen noch großzügig von solchen Abgaben verschont wird!

Für die angeblich garantierte globale Erwärmung gibt es auch eine von den Autoren Schneider und Mas ausgetüftelte mathematische Formel:

Keine der in dieser Formel enthaltenen Variablen betreffen echte Physik oder Meteorologie. Es handelt es sich um spekulativ konstruierte Phantasiegrößen, die man nicht empirisch nachweisen kann. Die «Temperatur» Ts ist die in diesem Zusammenhang bereits erwähnte berüchtigte weltweite Durchschnittstemperatur. Der phantasievoll konstruierte so genannte «Strahlungsantrieb» postuliert ein ideales Gleichgewicht der globalen Strahlung, das durch Treibhausgase gestört werde.

Den seriösesten, ehrlichsten Beitrag zu dieser Art Klima-Wissenschaft lieferte der Mitautor der obigen Formel, Schneider, mit seinem berühmten unverblümten Geständnis, «also müssen wir ängstigende Szenarien liefern, einfache, dramatische Äußerungen machen, und Zweifel, die wir vielleicht haben, wenig erwähnen».

  1. «Klima-Ziele»

Auf jedem Gebiet ist der Durchschnitts-Wert aus einer Gesamtheit eine heikle, oft nichts sagende Größe, die immer wieder zu irreführenden Schlüssen führt, in der Agitation zum Klima wurde sie gezielt, allerdings auch plump zur Täuschung des Publikums verwendet.

Bitte sehr, die Frage ist zwar ein bisschen unsinnig. Aber wenn ihr schon fragt, wie hoch ist sie denn, diese «Welt-Durchschnitts-Temperatur»? Man vernimmt da je nachdem Werte um 15°C, ermittelt aus einem unvermeidlich dünnen Netz von Messstationen rund um den Globus mit beliebig großer Fehler-Abweichung. Aber so genau wollen es die Alarmisten ohnehin nicht wissen. Gemäß den im Klima-Abkommen von Paris im Jahre 2015 festgelegten «Klima-Zielen» soll eine mögliche «Erderwärmung» begrenzt werden – um einen sehr präzisen Betrag, Zitat:

  • ein langfristiges Ziel, den Anstieg der weltweiten Durchschnitts-Temperatur auf deutlich unter 2 °C gegenüber vorindustriellen Werten zu begrenzen;

  • das Ziel, den Anstieg auf 1,5 °C zu begrenzen, da dies die Risiken und Folgen des Klimawandels deutlich vermindern würde…

Bis zum Jahr 2100 darf diese Erwärmung somit höchstens 2° C betragen, eigentlich lieber 1,5°C. Ok, 2° C wärmer als was bitte? Nun 2° C wärmer als die vorindustriellen Werte! Das ist doch mal eine klare Ansage! Vor Beginn der Industrialisierung hatte die Menschheit ja noch Muße, die Welt-Durchschnitts-Temperatur bis auf ein halbes Grad genau zu ermitteln!?

Vor Beginn der Industrialisierung gab es – mindestens in Europa – die bereits erwähnten extrem kalten Winter. Ja es gab noch Schlimmeres – Eiszeiten. Gemäß den üblichen Theorien zur Erdgeschichte leben wir gegenwärtig im Holozän, einer Zwischeneiszeit, die allenfalls bald zu Ende gehen könnte, so dass sich die Menschheit dann um die 2°C Erwärmung wirklich keine Sorgen mehr machen muss. Umgekehrt kann man vermuten, während der mittelalterlichen Warmzeit sei es in Europa noch wärmer gewesen als heute.

Die «Klima-Ziele» sind eigentlich derart grotesk, dass man sich manchmal fragt, ob sie von heimlichen Saboteuren formuliert wurden, quasi als versteckte Botschaft an die Menschheit, wenn ihr den hier formulierten Unsinn nicht erkennt, ist euch eh nicht zu helfen!

  1. Wirtschaftliche Interessen

Die Agitation für «Klima-Schutz» ziert sich mit einer prächtig grün-linken Fassade, aufgebaut von idealistischen Gutmenschen. Aber hinter dieser Fassade haben sich vielerlei handfeste wirtschaftliche Interessen versammelt. Sogar die «schweizerische Erdölvereinigung» bekannte sich opportunistisch zum «Klimaschutz», statt unverblümt zu bekennen, «hört mal, wir glauben nicht an diesen Klima-Blödsinn». Für ihre Scheinheiligkeit wurde die Erdölvereinigung allerdings abgestraft. Die Organisation SwissCleantech legte Beschwerde ein bei der Schweizerischen Lauterkeitskommission, die Erdölvereinigung gehöre nicht zur Vereinigung der Edlen und Reinen. Dabei hat die Erdölvereinigung ein nahe liegendes Motiv, scheinheilig mit den Wölfen zu heulen. Hohe Preise für Erdöl? Aber bitte sehr, wir sind für «Klimaschutz» und sind dann halt nebenbei auch noch zu höheren Gewinnen gezwungen!

SwissCleantech versammelt einen bunten Haufen von Unternehmen, die «alternative Energie» produzieren. Darunter mögen durchaus interessante Technologien vertreten sein. Allerdings könnte man mit diesen niemals den ganzen Energiebedarf decken, und ohne massive staatliche Hilfe wäre vieles davon auf dem Markt nicht konkurrenzfähig. Einige der neuen Technologien sind sogar äußerst bedenklich, etwa Autos mit elektrischem Antrieb als Ersatz für die bisherigen Verbrennungsmotoren. Bei den Elektroautos kommt der Strom zwar bequem aus der Steckdose. Aber von wo und wie gelangt er dort hin? Sollte die Anzahl Elektroautos zunehmen, würden enorme Probleme entstehen, die unter dem Schutz staatlicher Maßnahmen einstweilen nicht ernst genommen werden.

Das große Geschäft ist der «Klima-Schutz» auch für die Riege jener Politiker, die ohne das konstruierte Schreckgespenst nichts zu bieten hätten und wo möglich gezwungen wären, ihren Lebensunterhalt durch Arbeit zu verdienen, wie Kenner wissen, eine manchmal mühsame Sache.

Ein wesentlicher Teil des «Klima-Schutzes» ist direkt oder indirekt nichts weiter als eine Steuer auf den Konsum und damit degressiv, eigentlich ein bisschen unsozial. Aber das stört die etablierten Aktivisten des begüterten grün-roten Establishments gewiss nicht.

Unmittelbar persönliche wirtschaftliche Interessen vertreten die Hohepriester der Klima-Ideologie, die aus ihren üppig entlohnten Positionen in Akademia, an Universitäten und Institutionen zur «Forschung» die herrschende Lehre verkünden und nebenbei den Niedergang jeder seriösen intellektuellen Kultur repräsentieren, in der Widerspruch oder gar Diskussionen unterbunden werden. In einem solchen Schonklima gedeiht entsprechend allerhand Fake Science. Der prominente französische Geophysiker Vincent Courtillot hat schon vor Jahren gewarnt, die Wissenschaft werde für solchen Opportunismus, für die Kollaboration mit den Adepten einer lukrativen Scheinwissenschaft, ihren Preis zahlen müssen.

Wissenschaft hat in vielfältiger Weise maßgeblich zum Fortschritt der Menschheit beigetragen. Gegen Allüren einer quasi religiösen Unfehlbarkeit muss sich die freie Gesellschaft hingegen energisch wehren.




Der alte Code und das neue Virus

Das Urteil der IT-Fachleute ist verheerend: Es handele sich womöglich um den zerstörerischten Softwarefehler aller Zeiten, was die wirtschaftlichen Kosten und die Zahl der verlorenen Leben anbetreffe. Beachten Sie bitte den Nachtrag/ die Aktualisierung am Ende des Textes-

Erinnern Sie sich noch an die Modellrechnung des britischen Wissenschaftlers des Imperial College in London, Neil Ferguson, der die Regierung in Sachen Corona beriet und die wissenschaftliche Grundlage für die strengen Ausgangsbeschränkungen in Großbritannien lieferte? Er prognostizierte 2,2 Millionen Coronatote für die USA und 500.000 für Großbritannien. Auf diesem Modell beruhte letztlich die Corona-Strategie der Abflachung der Kurve „flattening the curve“ durch Social Distancing und Lockdown.

Heute erweist sich dieses Modell als hysterische Überschätzung. Selbst die vielen Coronatoten in Großbritannien (ich möchte stets anfügen, dass diese Coronatoten auch die sehr wahrscheinlich hohe Zahl an Verstorbenen beinhalten, die unnötig intubiert wurden), werden bei weitem nicht die vorderen Ränge der jährlichen Todesursachenstatistik einnehmen, mit oder ohne Lockdown.

Gescheiterte Venus-Raumsonde

David Richards und Konstantin Boudnik, Gründer, CEO sowie Sotfwareleiter von  WANdisco bezeichnen diese Modellrechnung nun als den womöglich zerstörerischsten Softwarefehler aller Zeiten

„Die Modellierung nicht-pharmazeutischer Interventionen für Covid-19 durch das Imperial College, die dazu beitrug, Großbritannien und andere Länder zu drakonischen Lockdowns zu bewegen, wird die gescheiterte Venus-Raumsonde ablösen, die als der verheerendste Softwarefehler aller Zeiten in die Geschichte eingehen könnte, was die wirtschaftlichen Kosten und die Zahl der verlorenen Leben betrifft.“

Original auf Englisch heißt es:

„Imperial College’s modelling of non-pharmaceutical interventions for Covid-19 which helped persuade the UK and other countries to bring in draconian lockdowns will supersede the failed Venus space probe could go down in history as the most devastating software mistake of all time, in terms of economic costs and lives lost.”

Im britischen Telegraph fragen die beiden anerkannten Programmier-Spezialisten, warum die Regierung keine zweite Meinung eingeholt hat, bevor sie das Covid-Computer-Modell des Imperial College akzeptiert hat. Weiter schreiben Sie:

„Seit der Veröffentlichung des Mikrosimulationsmodells von Imperial haben diejenigen von uns, die ein berufliches und persönliches Interesse an der Softwareentwicklung haben, den Code studiert, auf dem die politischen Entscheidungsträger ihre schicksalhafte Entscheidung basierten, unsere mehrere Billionen Pfund schwere Wirtschaft einzumotten und Millionen von Menschen in Armut und Not zu stürzen. Und wir waren zutiefst beunruhigt über das, was wir entdeckt haben. Das Modell scheint völlig unzuverlässig zu sein, und Sie würden nicht Ihr Leben darauf verwetten.“

Schon vor 20 Jahren Schnee von gestern

Das Modell von Imperial scheine auf einer Programmiersprache namens Fortran zu basieren, die schon vor 20 Jahren Schnee von gestern gewesen sei. Ihr Code sei auch für die gescheiterte Raumsonden-Mission verwendet worden, wie für die Raumsonde Mariner 1. Und sie sagen: „In unserer kommerziellen Realität würden wir jeden für die Entwicklung eines solchen Codes feuern, und jedes Unternehmen, das sich bei der Herstellung von Software zum Verkauf darauf verlässt, würde wahrscheinlich pleite gehen“.

Weiter schreiben Sie: Die Modelle müssten in der Lage sein, den grundlegenden wissenschaftlichen Test zu bestehen, um bei gleichen Ausgangsparametern die gleichen Ergebnisse zu erzielen. Andernfalls gibt es einfach keine Möglichkeit, zu wissen, ob sie zuverlässig sein werden.

Das Resumee der beiden Kritiker: „Tatsächlich verwenden viele globale Industrien erfolgreich deterministische Modelle, die den Zufallsfaktor berücksichtigen. Kein Chirurg würde einen Herzschrittmacher bei einem Herzpatienten einsetzen, wenn er wüsste, dass er auf einem wohl unvorhersehbaren Ansatz beruht, aus Angst, den hippokratischen Eid zu gefährden. Warum um alles in der Welt würde die Regierung ihr Vertrauen darauf setzen, wenn das gesamte Wohlergehen unserer Nation auf dem Spiel steht?“

 

Nachtrag vom 20.Mai 2020

Mein letzter Beitrag wurde  in den Leserbriefen zur Recht kritisiert, weil ich mich eben fachfremd bin bzgl. Computer Modellen. Leser Daniel Hirsch hat das ganze Problem mit dem Imperial Model viel besser und treffender erklärt. Imperial Model, Computersprache und Schuster bleib bei deinen Leisten. Beim letzten Beitrag, habe ich mein Fachgebiet verlassen, und einige Leser erweiterten daraufhin meinen Horizont. Zu Recht, denn ich werfe es beispielsweise Prof. Christian Drosten vor, dass er sich ausserhalb seiner Fachkompetenz  z.B. zur Epidemiologie äussert und genau deswegen scheitert. Ein Virologe muss vor den Gefahren warnen, aber Epidemiologie bedeutet gerade eben nicht, stets vom worst case auszugehen, sondern sich um echte Daten zu kümmern und diese im Sinne von Wahrscheinlichkeiten zu deuten. Daniel Hirsch ist Computerfachmann und kann die Problematik des Imperial Models deshalb viel treffender beschreiben. Ich möchte Ihnen mit seiner Erlaubnis seine Zuschrift an mich nicht vorenthalten:

 

Als Mathematiker mit der Spezialisierung numerische Mathematik habe ich während meines Studiums an der Uni Heidelberg zahlreiche Supercomputer entworfen, betrieben und eigene Modelle entwickelt (mit Schwerpunkt in der nichtlinearen Optimierung und im Bereich unstetige Galerkin-Verfahren). Deshalb möchte ich gern die Gelegenheit nutzen und ein bisschen von meiner Expertise beitragen.

1. Programmiersprache

Die Programmiersprache ist letztlich nur eine Form um Maschinensprache (die sprichwörtlichen „bits and bytes“) für den Menschen lesbar bzw. menschliches strukturiertes Denken für den Computer ausführbar zu machen. Die Programmiersprachen sind dabei in ihren Grundfunktionen gleich. In jeder Sprache finden sich einfache Strukturen, wie Schleifen (Zählschleife: „mache irgendwas n mal“; vorprüfende Schleife: „so lange eine Bedingung erfüllt ist, mache irgendwas“; nachprüfende Schleife: „wenn irgendeine Bedingung richtig ist, mache das, was Du vorher gemacht hast nochmal“), Bedingungen („wenn irgendwas richtig ist, mache folgendes, anderenfalls was anderes“), Zugriffe auf Dateisysteme oder auf den Monitor/Tastatur. Zudem gibt es inzwischen in vielen Programmiersprachen auch die Möglichkeit komplexere Strukturen, wie z.B. vererbbare Objekte, Templates, etc. zu bauen. Das im Detail auszuleuchten sprengt den Rahmen.

Fortran ist in der Tat eine recht alte Programmiersprache (von 1957), die ihre Vor- und Nachteile hat. Das zu diskutieren löst in aller Regel – wie so oft in der IT – einen Glaubenskampf aus. Die Unterschiede in den Programmiersprachen liegen neben der offensichtlichen anderen Syntax in der Regel eine Ebene tiefer, also wie performant ein Compiler ist, wie performant das erzeugte binary ist, wie gut der Code auf andere Plattformen übertragen werden kann, etc. Es spielt aber auch eine Rolle, wie stark die Kommerzialisierung einer Programmiersprache ist. Programmiersprachen, die für kommerzielle Software verwendet werden, sind oft stärker unterstützt und entwickeln sich schneller als weniger populäre Sprachen. Die wesentlichen Vorteile von Fortran aus meiner persönlichen Sicht sind, dass die Lernkurve um Fortran programmieren zu können, recht flach und kurz ist und sehr viel frei verfügbarer Code existiert. Es gibt Literatur, wonach gute Fortran Compiler bei Array-basierten Anwendungen schnelleren Code als flexiblere Sprachen wie z.B. C++ produzieren können sollen. Das läßt sich in der Regel aber mit „besserem“ Code kompensieren. Richtig ist in jedem Fall, dass gerade im universitären Bereich Fortran weite Verbreitung hat und es eine lebendige Community gibt, die die vorhandenen Compiler und den Standard (zuletzt 2018) weiterentwickelt. Es ist daher nicht ungewöhnlich Programme in Fortran in diesem Umfeld zu finden.

2. Universitäre Softwareentwicklung

In Mathematik und Physik ist es weit verbreitet Software für verschiedene Zwecke zu entwickeln. Oft wird die Software für eine bestimmte Klasse Großrechner (z.B. Parallelrechner) oder gar nur für einen ganz bestimmten Rechner entwickelt. Im Vordergrund steht dabei immer die Mathematik oder die Physik und weniger die informatische Qualität der Implementierung. Da es ein recht großer Aufwand ist, jedes Einzelproblem, welches man lösen möchte, dediziert zu programmieren, verwendet man den Code in sogenannten Bibliotheken immer wieder. Darin sind mathematische Formen, wie Vektoren, Tensoren, Gitter, etc. ebenso wie die mathematischen Modelle und Algorithmen, die mit diesen Strukturen umgehen müssen, bereits implementiert. Diese Bibliotheken werden dann – meist kostenlos – allen anderen Wissenschaftlern zur Verfügung gestellt. Die Entwicklungsteams sind klein und es wird nicht nach kommerziellen Standards entwickelt. Man kann nicht erwarten, dass die Software einem IT-Qualitätsassessment standhalten wird. Daraus zu folgern, dass die Software falsch rechnet, ist jedoch voreilig.

3. Mathematische Modellierung

Wenn ein Modell aufgestellt wird, bedient man sich für gewöhnlich zunächst der Mathematik und zwar ganz klassisch mit Tafel und Kreide. Die Implementierung erfolgt danach mit Hilfe der vorhandenen Bibliotheken. Wenn das Modell implementiert ist, verwendet man üblicherweise Testdaten und -probleme um zu zeigen, dass die Software funktioniert. Oft werden die Ergebnisse auch publiziert, da neue Modelle / Algorithmen in der Regel nur dann implementiert werden, wenn sie aus wissenschaftlicher Sicht neu sind oder wenn die Implementierung aus irgendeinem Grund besser ist als bisherige Implementierungen (z.B. schnellere Konvergenz, geringerer notwendiger Speicherplatz, höhere Genauigkeit, etc.). Andernfalls macht sich keiner die Mühe vorhandene Modelle nochmal zu implementieren – außer vielleicht im Rahmen einer Übung zu einer Vorlesung. Hier liegt auch der Unterschied zur Venus-Sonde. Die Software für die Venussonde war für eine einmalige Anwendung gedacht (nämlich genau diese Sonde auf dieser Mission) und konnte unter Echtbedingungen nie getestet werden. Die Modelle von Neil Ferguson sind mehrfach getestet und mit anderen Modellen gegen gerechnet worden. Das schließt Programmierfehler freilich nicht aus, aber bisher gibt es keinen Hinweis auf einen solchen. Wahrscheinlicher sind Fehler in den Ausgangsdaten.

4. Numerischer Fehler

Das größte Problem bei mathematischen Modellen ist der sogenannte numerische Fehler. Die meisten Strukturen in der alltäglichen Mathematik basieren auf den reellen Zahlen. Ohne die reellen Zahlen funktioniert unsere Welt nicht mehr. Bestes Beispiel: Der Umfang eines Kreises. Ohne die Zahl pi, ist der Umfang nicht exakt zu errechnen. Dummerweise hat pi unendlich viele Nachkommastellen (die wir logischerweise auch nicht alle kennen). Daher kann man eine solche Zahl nicht auf einem Computer abbilden, der ja nur über endlich viel Speicher verfügt, selbst wenn wir alle Nachkommastellen kennen würden. Man behilft sich durch Runden der Zahl (typischerweise auf 16 Stellen) . Für alltägliche Probleme reicht die Rundungslogik auf normalen Rechnern völlig aus. Allerdings gibt es noch ein weiteres Problem: Ein mathematisches Modell besteht aus sehr vielen Einzeloperationen. Die Rechenoperationen reagieren dabei unterschiedlich gut auf die Eingangsdaten und die Einzelfehler jeder Operation können sich im gesamten Modell aufschaukeln. Es ist daher sehr wichtig, die Stabilität/Zuverlässigkeit des Algorithmus gegen derartige Effekte zu kennen.

5. Eingangsfehler

Bei allen Algorithmen gilt das „shit-in-shit-out“-Prinzip. Arbeitet man mit Daten, die einen großen Fehler beinhalten, dann kommt am Ende ein noch viel größerer Fehler raus (wie viel schlimmer sagt uns die Stabilität eines Modells). Die Programmiersprache ist nicht entscheidend, denn es kommt überhaupt nicht darauf an, ob ein mathematisches Modell in Fortran, C++, Basic oder von mir aus auf Lochkarten implementiert wird. Genauso wenig wie es darauf ankommen sollte, ob man eine Addition mit dem Rechenschieber, dem Abakus, einem Taschenrechner oder im Kopf durchführt. Ich bin davon überzeugt, dass das Problem des Modells von Neil Ferguson in den Eingangsdaten liegt. Das von ihm verwendete Modell basiert im Wesentlichen auf folgenden Daten:

  • Todesrate (CFR) in Hubei – hierzu hat sich Neil Ferguson 39 Todesfälle von diversen Webseiten zusammen gesucht und davon 26 verwendet (leider ohne zu sagen, welche 26)
  • CFR auf den Evakuierungsflügen von China nach z.B. Deutschland, Japan und Malaysia (insgesamt 290 Fälle)
  • Aufwuchsrate der Epidemie, also der tägliche Zuwachs an neuen Fällen – diese Aufwuchsrate wurde auf Basis der offiziellen Meldungen abgeleitet
  • Zeitraum zwischen Infektion und Tod / Erholung

 

Damit gibt es folgende Probleme:

  • Zunächst ist die CFR nicht zuverlässig. Sie hatten das so schön formuliert – „viele Patienten sterben nicht an COVID-19 sondern mit COVID-19“. Diese Erkenntnis, die ja auch im Wesentlichen auf der Arbeit von Prof. Schirmacher und seinen Kollegen beruht, hatte man zu diesem Zeitpunkt (Anfang Februar) noch nicht, sondern hat platt angenommen, wer positiv auf COVID getestet wurde und starb, ist an COVID-19 gestorben. Die Todesfälle in Hubei betreffen allesamt ältere Menschen (nur sechs Opfer sind unter 60 Jahre, der Jüngste ist 36, wobei nicht klar ist, welche 26 Personen aus dem Datensatz mit 39 Opfern in die Analyse eingeflossen sind). Bereits an diesen frühen Daten war absehbar, dass ältere Menschen deutlich stärker betroffen sind als jüngere. Das Modell lässt das vollkommen unberücksichtigt. Prof. Ioannidis hat bereits früh auf die mangelnde statistische Güte der vorhandenen Daten hingewiesen.
  • Es fehlten überall Testkapazitäten, daher wurde nicht repräsentativ getestet, sondern in der Regel nur beim Vorliegen von (teils schweren) Symptomen und auch erstmal nur in Wuhan, also mit sehr hoher Wahrscheinlichkeit Menschen mit Vorerkrankungen und mit sehr geringer Wahrscheinlichkeit junge, gesunde Menschen ohne Symptome, deren CFR weit geringer ist. Menschen ohne oder mit nur milden Symptomen sind in der Stichprobe aus Hubei vollkommen unterrepräsentiert.
  • Umgekehrt wurden die ausgewählten Heimkehrerflüge größtenteils vollständig getestet. Deshalb überwiegen in diesem Datenset die Patienten ohne Symptome (Gesamt 10 Fälle, davon 7 asymptomatisch). Die Daten sind daher keineswegs vergleichbar.
  • Bei den Heimkehrerflügen war in 50% der Fälle kein Infektionsdatum bekannt. Neil Ferguson hat daher einfach das Datum des ersten Kontakts mit den Gesundheitsbehörden angenommen. Dazu schreibt er wörtlich: „We note this is the latest possbile onset date and may therefore increase our estimates of CFR”.
  • Zudem wurde mit Ausbreitung der Pandemie auch die Testkapazität erhöht, so dass sich die Wahrscheinlichkeit, dass eine bestimmte Bevölkerungsgruppe in der Gruppe aller getesteten repräsentiert ist, sich mit der Zeit – quasi täglich – verändert hat. Die Hypothese, die täglich publizierte Zahl der Infizierten, würde jeden Tag im gleichen linearen Verhältnis zur tatsächlichen Zahl der Infizierten stehen, ist nicht richtig. Neil Ferguson hat das zwar in der Studie erwähnt und auch richtigerweise auf die unterschiedlichen Testkapazitäten, -qualität und -praxis in verschiedenen Ländern hingewiesen, aber die Relation zwischen Testaufwuchs und gemessenen Infektionen konnte niemand zu diesem Zeitpunkt richtig abschätzen.
  • Die Aufwuchsrate der Epidemie wurde deutlich überschätzt, denn es wurden ja nicht jeden Tag gleich viele Menschen getestet, sondern jeden Tag mehr, so dass man auch immer mehr Infizierte fand. Der Aufwuchs setzt sich zusammen aus dem Aufwuchs der Testkapazitäten und dem Aufwuchs der tatsächlichen Infektion, ersteres wurde aber zu gering geschätzt.
  • Für die Wahrscheinlichkeitsverteilung für den Verlauf zwischen Infektion und Tod / Genesung wurde die Wahrscheinlichkeitsverteilung der SARS-Epidemie von 2003 in Hong Kong herangezogen und verallgemeinert, so dass der Zeitraum mit 22 Tagen analog zur damaligen SARS-Epidemie angenommen wurde. Auf den ersten Blick erscheint das fragwürdig, denn zum Zeitpunkt der Studie lagen noch keine gesicherten Erkenntnisse vor, dass der Verlauf von COVID-19 dem von SARS entspricht.

Mit dieser recht wackeligen Datenlage und noch wackligeren Annahmen wurde dann mit Hilfe von verschiedenen statistischen Methoden (Bayes Statistik, Maximum-Likelihood, Kaplin-Meier) die CFR berechnet.

Die hohe Unsicherheit beschreibt Neil Ferguson selbst, denn die ermittelte CFR schwankt in den Gruppen Hubei und den Rückflügen zwischen 1,2% und 18%. Am Ende werden eigentlich nicht zusammen passende Daten miteinander vermischt und eine CFR von ca. 1% mit einem Unsicherheitsintervall von 0,5% bis 4% geschätzt. Zieht man die unbeachteten Fehler (Überschätzung der Aufwuchsrate, Dunkelziffer bei den Infektionen, Differenzierung bei der Todesursache, etc.) in die Kalkulation mit ein, reduziert sich das weiter.

Aus handwerklicher Sicht hätte das eigentlich niemals publiziert werden dürfen. Die Schwankungen in den Ergebnissen gehen über eine ganze Größenordnung und die Unsicherheit in den Eingangsdaten ist offensichtlich. Es zeigt aber sehr schön, das Dilemma. Die Wissenschaft konnte im Februar keine klaren Ergebnisse liefern. Es wäre möglich, dass die CFR bei 18% lag. Genauso konnte sie bei 0,8% oder darunter oder bei jedem anderen Wert liegen. Die Entscheidung war daher eine rein politische. Die Politik wiederrum hat einfach die „aus der Hüfte geschossene“ Todesrate von 1% genommen und durchmultipliziert. Dabei kamen ebenso logisch wie falsch Millionen Tote heraus.

Man kann an diesem Beispiel wunderbar erkennen, wie gefährlich die mathematische Modellierung sein kann, wenn man die Annahmen nicht gründlich betrachtet. Ein ehemaliger Chef von mir (alter Controller) hat mal zu mir gesagt: „Businesscases schaue ich mir nie an. Ich glaube schon, dass die Leute richtig rechnen können. Ich schaue mir immer die Annahmen an. Da lügen sich alle in die Tasche.“ Um in solchen schwerwiegenden und unklaren Situationen eine gute Entscheidung zu treffen, reicht es nicht auf oft fragwürdige Zahlen zu schauen. Es braucht vor allem Führungsqualitäten, wozu auch ein Bauchgefühl und Risikobewusstsein gehören.

Der Beitrag erschien zuerst bei ACHGUT hier




Goldbach: Die Eisheiligen im Vergleich zur Stadt Potsdam

Als Eisheilige bezeichnet man die fünf Tage vom 11.bis zum 15. Mai. Der Ausdruck Eisheilige ist altdeutsch und meint eigentlich Frost, bzw. Nachtfröste. Diese 5 Tage sollen über längere Zeiträume kälter sein als der Gesamtmai, behauptet die Bauernregel. Überprüfen wir das zunächst am fast WI-freien Standort Goldbach über die letzten 25 Jahre.

Zunächst die Grafik des Monates Mai in Goldbach seit 1996. (2020 fehlt noch)

Grafik 1: Die Mai-Trendlinie ist in den letzten 25 Jahren leicht fallend. Der Mai wurde in Goldbach seit 1996 unwesentlich kälter. Die Durchschnittstemperatur der 24 Maimonate beträgt 13,8°C. Der Schnitt von Deutschland beträgt laut DWD-Offenbach für denselben Maizeitraum: 13,3°C. Damit war der Mai in dem 320 m hohen Goldbach um ein halbes Grad wärmer als der Schnitt aller Deutschlandstationen des DWD. Der kälteste Maimonat 2019 betrug 11,1°C und der wärmste Mai war 2018 mit 16,1°C. Die Differenz beträgt 5 Kelvin.

Betrachten wir nun die fünf Tage vom 11. bis zum 15. Mai, die laut Bauernregeln die Eisheiligen genannt werden im Vergleich zu den Gesamtmonaten. 2020 ist bereits dabei.

Grafik 2: Die beiden Grafiken ähneln sich, doch zeigen sich auch große Unterschiede. Die wärmsten Eisheiligen waren 1997 mit 16,6 C und die kältesten fünf Eisheiligentage waren 2019 mit 8°C, nur geringfügig wärmer ist 2020. Zwischen dem wärmsten Eisheiligenjahr und dem kältesten sind die Differenzen größer als in Grafik 1 bei den Monatstemperaturen, was natürlich zu erwarten war. Der Mittelwert der Eisheiligen beträgt: 12,8 C. In Grafik 1 betrug der Schnitt 13,8°C

Erg 1: Die fünf Eisheiligentage sind in Goldbach im Zeitraum von 1996 bis heute um 1 Grad kälter als der Schnitt der Gesamtmonate im gleichen Zeitraum. Die Eisheiligen sind tatsächlich eine Ansammlung kälterer Tage in der Monatsmitte.

Andererseits ist die Temperaturdifferenz moderat, so dass man diese fünf Tage aus heutiger Sicht nicht mit Eisheiligen benennen müsste. Der Gründe sind historischer Art. Der altdeutsche Begriff „Eistemperaturen“ steht für Minustemperaturen, und solche traten in den letzten beiden Maijahren allerdings gehäuft auf. Ganztägige Minustage gibt es keine in den Temperaturaufzeichnungen der Station. Kurzeitige nächtliche Minustemperaturen in Bodennähe sind real, sie müssten sich seit 2009 sogar angehäuft haben. Man erkennt aus Grafik 2 auch, dass die Eisheiligen nicht jedes Jahr aufgetreten sind.

Ein anderer Punkt ist bemerkenswert:

Auffallend ist, dass die Trendlinie viel stärker fällt als bei Grafik 1. Das bedeutet, dass die fünf Eisheiligentage in Goldbach viel kälter wurden im Vergleichszeitraum als der Gesamtmonat Mai. Man könnte auch vermuten, es waren nur diese fünf kälter werdenden Tage, die den fallenden Maidurchschnitt der letzten fünf Jahre in Grafik 1 bewirkt haben. Jedenfalls herrschte während der diesjährigen Eisheiligen keinerlei Badewetter, sondern die Heizungen wurden überall in Deutschland wieder angeworfen.

Erg. 2: Die Eisheiligen sind in der Gegenwart in dem kleinen wärmeinselarmen Ort Goldbach im Osten Sachsens deutlich kälter geworden

Vergleich der ländlichen Station Goldbach mit der Wärme-Insel Potsdam.

Es handelt sich um die Wetterstation des Potsdamer Institutes für Klimafolgenforschung (PIK-Potdsam)

Grafik 3: Wie zu erwarten sind die Eisheiligen in Potsdam wärmer. Der Schnitt aller 25 Jahre liegt bei 13,3°C und damit um 0,5 K höher als in Goldbach. Das ist jedoch kein gravierender Unterschied. Ansonsten zeigen beide Grafiken einen ähnlichen Verlauf, obwohl die beiden Vergleichsorte nahezu 200 km auseinander liegen. Die Trendlinie von Goldbach ist stärker fallend. Immerhin: das waren die kältesten Eisheiligen der letzten 25 Jahre in Potsdam

Ergebnis 3: Auch in Potsdam, dem deutschen Zentrum für Klimafolgenforschung wurden die Eisheiligen der letzten 25 Jahre deutlich kälter

Eisheiligen und die CO2-Konzentration der Atmosphäre

Da die Station Potsdam schon länger existiert als Goldbach wäre interessant, ob es 1) noch kältere Eisheiligenjahre gegeben hat und 2) wie sich die fünf Eisheiligentage seit 1958 entwickelt haben. 1958 deshalb, weil seitdem die CO2-Konzentration der Luft am Mouna Loa zentral für die irdische Atmosphäre erfasst wird.

Behauptet wird von den CO2-Treishausvertretern, dass eine Konzentrationszunahme dieses unsichtbaren und ungiftigen Gases in der Luft automatisch zu Temperaturanstiegen führen muss. Versuchsbeweise haben sie natürlich keine. Der besseren Übersicht und Überprüfung wegen haben wir für den Leser die CO2-Anstiegskurve gleich in die Eisheiligengrafik mit Betrachtungsbeginn 1958 eingefügt, siehe nächste Grafik:

Grafik 4: Seit 1958 sind die CO2-Konzentrationen der Erde stark angestiegen. Demgegenüber sind die Eisheiligen im gleichen Betrachtungszeitraum kälter geworden. Es gab auch schon kältere Eisheiligenjahre als 2020.

Erg. 4: Der rasante Anstieg der irdischen CO2-Konzentrationen seit 1958 hatte keine Wirkung auf die fünf Eisheiligentage in Potsdam. Es besteht überhaupt kein Zusammenhang. Die CO2-Treishauslehre ist deshalb eine Irrlehre.

Diese Irrlehre haben wir im Artikel bewiesen anhand der Temperaturdaten des Potsdamer Institutes für Klimafolgenforschung (PIK), dem Zentrum der deutschen Klimamärchen. Auch für die Leute vom PIK-Potsdam gilt: Wissenschaft ist immer nur der aktuelle Stand des Irrtums.

Besonders zeigt sich diese Feststellung an der langen 120 jährigen Eisheiligenreihe der Wetterstation Potsdam bei der nächsten Grafik. Bitte beachten, in der Grafik sind auch die einzelnen Tage aufgelistet. Zu einem bestimmten Jahr gehören immer 5 Tage.

Grafik 5: Laut DWD-Tabelle gibt es zwar erhebliche Unterschiede bei den einzelnen Jahren bzw. Eisheiligentagen, aber insgesamt hat sich über 120 Jahre nichts verändert. Die Eisheiligen sind tatsächlich eine Folge kalter Tage in der Monatsmitte. Es gab in Potsdam keinen einzigen ganztägigen Eisheiligentag mit Minusgraden. Eisheiligentage mit Nachtfrösten gab es hingegen haufenweise.

Ursprünglicher Artikel der Pressestelle des Deutschen Wetterdienstes über die Eisheiligen

Auf der homepage des Deutschen Wetterdienstes (DWD) fand sich vor einigen Jahren noch eine ganz andere Einschätzung der Eisheiligen, siehe hier. Die Seite wurde nach unseren letztjährigen Artikeln gelöscht, wir haben jedoch einen Teil des Textes gerettet. Wir zitieren: „… Wahrscheinlichkeit des Auftretens nimmt weiter ab …“

„…In den letzten Jahren sind die Eisheiligen oft ganz ausgeblieben. Manchmal kam es zu Kaltlufteinbrüchen bereits Anfang Mai oder Ende Mai. Fröste traten jedoch auch dann immer seltener auf. Gelegentlich wurden die Eisheiligen bei Tageshöchstwerten von über 25 Grad Celsius sogar zu „Schweißheiligen“. Neuere Untersuchungen des Deutschen Wetterdienstes zeigen, dass die Häufigkeit von Kaltlufteinbrüchen Mitte Mai vor allem im süddeutschen Raum deutlich unter 50 Prozent liegt. Insofern ist die Frage berechtigt, ob man eigentlich noch von einer echten Singularität sprechen kann. Viele Experten führen die Veränderungen u. a. auch auf den Klimawandel zurück, denn mit der stetigen Erwärmung der globalen Atmosphäre fallen auch Kaltlufteinbrüche im Mai immer weniger frostig aus…“

Im nicht mehr auffindbaren Artikel des DWD wurde behauptet, dass die Wahrscheinlichkeit der frostigen Nächte vor allem in Süddeutschland deutlich unter 50 % liegen würde. Wer im Süden wohnt und die heurigen Tage bzw. Nächte in Erinnerung hat wird nun zu Recht schmunzeln. Denn die Grafik der Wetterstation Nürnberg-Netzstall zeigt das, was alle empfunden haben. Es sei aber angemerkt, dass die Station vor 12 Jahren einen Standortwechsel hatte. Die Daten sind die Originaldaten des Deutschen Wetterdienstes.

Grafik 6: Die Süddeutsche Wetterstation beim Aussiedlerhof Netzstall, Nähe Nürnberg zeigt ebenfalls seit 25 Jahren ein deutliches Kälter werden der Eisheiligen. Anstatt Netzstall hätte man auch die Grafik von Bad-Kreuznach nehmen können, die Trendlinie hat eine negative Steigung von: y = – 0,14 x in den letzten 25 Jahren

Immerhin hat der DWD seinen Artikel über die Eisheiligen zurückgezogen. Es wird somit Zeit, dass auch die Leute vom PIK-Potsdam die Konsequenzen ziehen und ihre falschen Behauptungen über das angebliche Erwärmungsgas Kohlendioxid „einstampfen“.

Zusammenfassung:

Die Eisheiligen sind kälter geworden, insbesondere in den letzten 25 Jahren.

Der Mai wird leicht kälter, aber die Eisheiligen noch stärker.

Die Kohlendioxidkonzentrationen sind seit 1958 stetig angestiegen.

Die CO2-Treibhauslehre ist eine Irrlehre.

Es wird Zeit, dass endlich Natur- und Umweltschutz in den Mittelpunkt aller politischen Entscheidungen gestellt werden.

Josef Kowatsch, Naturbeobachter und unabhängiger Klimawissenschaftler. Unabhängig, weil von niemandem bezahlt und bereits in Rente.




Das Ende der Menschheit ist in 30 Jahren

Wissenschaftler prognostizieren Ende der Menschheit

Dank den msn-Nachrichten kann man auf dem PC nun täglich so niveauvolle Information lesen, wie man sie früher ganz selten notgedrungen, bei schlimmster Langeweile wegen langer Wartezeit, verschämt im Wartezimmer durch „Bunte“, „Bild der Frau“, „Frau mit Herz“ erfuhr.

Und so erschien am 14. Mai die erschreckende Meldung, dass das Ende der Menschheit nun im Jahr 2050 erscheint. Um die Überlassung einer veredelten und gereinigten Erde an seine Enkel braucht man sich damit endgültig keine Sorgen mehr zu machen, da sie zu dem Datum völlig unbewohnbar geworden ist, die Enkel dann also eher die Sorge nach einem geeigneten Platz unter, als über der Erde haben.

Und diesmal weiß die Meldung, dass es ganz, ganz sicher geworden ist, denn „die Entwicklung lässt sich nicht mehr aufhalten“, wie es zwei besonders kompetente Wissenschaftler am anderen Ende der Welt ermittelt und publiziert haben.
msn-Nachrichten: [1] Wissenschaftler prognostizieren Ende der Menschheit
Schlechte Nachrichten ist die Menschheit ja schon gewohnt, besonders, wenn es um das Klima geht. Aber jetzt wird es heftig die Einschläge kommen so gesehen nicht nur näher, sie sind da!
Das Ende der Menschheit zu unseren Lebzeiten
Was da
australische Forscher an Daten gesammelt, ausgewertet und daraus dann resümiert haben, ist absolut erschreckend. Es geht um nicht weniger als den Zusammenbruch der Zivilisation und das Ende der Menschheit in 30 Jahren.
Das „Breakthrough National Centre for Climate Restoration“ hatte bei australischen Universitäten einen Bericht zum Klimawandel angefordert und die Forscher haben jeden diesbezüglich denkbaren Ablauf durchgespielt
Worst-Case-Szenario löscht die Menschheit aus
… Denn die
Entwicklung lässt sich nicht mehr aufhalten, selbst wenn der Mensch noch panisch versuchen sollte, all das umzusetzen, was vor Jahrzehnten hätte spätestens begonnen werden müssen

Lange hat man auf diese Präzisierung des künftigen Klimas warten müssen. Nachdem sich die Weltuntergänge zwar bisher schon häuften, dabei aber auch immer neu verschoben wurden; vom Ende des letzten Jahrtausend bis etwa zum Jahr 2100 (eine Listung findet sich bei [6]) ist es trotz des schlimmen Inhalts also fast eine Wohltat, dass die Wissenschaft nun herausfand, es wird mit Sicherheit in der Mitte dieser Zeitspanne geschehen.

Mancher mag Zweifel an dieser Aussage hegen. Leider hat ein bedeutender Klimaforscher diese zunichte gemacht. Mit seinen fachmännischen Augen hat er diesen Bericht gelesen, durchdacht und musste es leider bestätigen:
msn-Nachrichten: [1]Wie hoch ist die Wahrscheinlichkeit?
… Und wie wahrscheinlich ist es, dass sich die Dinge exakt so entwickeln werden? Klimaforscher Prof. Dr. Mojib Latif vom Geomar Helmholtz-Zentrum für Ozeanforschung in Kiel sagt dazu:
„Die Studie behandelt sogenannte ‚Low ProbabilityHigh Impact‘-Events, also Ereignisse, die mit einer geringen Wahrscheinlichkeit eintreten werden, aber ein enormes Schadenspotenzial haben.“
Mit anderen Worten: Es muss nicht so kommen, aber man kann es auch nicht ausschließen.
Damit gab M. Latif diesem Bericht sein wissenschaftliches „Gewicht“. Allerdings schloss er seine Bewertung (laut Artikel) mit den kryptischen, wissenschaftlichen Worten, welche inzwischen wohl jeden Politiker zur Verzweiflung treiben:
msn-Nachrichten: [1] Ob dieser Befund möglicherweise ein Weckruf an die Verantwortlichen ist, bleibt abzuwarten.

Der Klima-Untergangs-Report

Auf der folgenden Homepage findet sich eine Beschreibung und man kann den Report laden:
[2] Climate Code RED: Can we think in new ways about the existential human security risks driven by the climate crisis?
Die Vorlage für die msn-Nachrichten findet sich unter:
[4] abc Action News Jun 11, 2019: Climate change could pose ‚existential threat‘ by 2050, report says
Der Report selbst heißt: [3] Report: Existential climate-related security risk: A scenario approach, May 2019
und beschreibt auf sieben inhaltsschweren Seiten, warum die Welt im Jahr 2050 untergeht.

Schon daran lässt sich die hohe, wissenschaftliche Kunst der Autoren erkennen. Während das IPCC für seinen AR5-Langbericht 1552 Seiten benötigt, weshalb immer ein politisches Gremium notgedrungen einen eigenen, vom Inhalt des Langberichtes streckenweise losgelösten Kurzbericht fabuliert, schaffen es diese Fachpersonen mit sieben Inhaltsseiten, das Wichtige und Notwendige darzustellen und zu belegen.

Als Autoren werden genannt:

Bild 1 Autor des Reports [3]
Bild 2 Autor des Reports [3]

Deshalb wurde er verfasst

Gleich als Einleitung findet sich ein prominenter Ausspruch des berühmten Klimawissenschaftlers, Dr. Gavin Schmidt (Leiter des Goddard Institute for Space Studies der NASA und ausgewiesener Klimaaktivist), der in dieser Wissenschaft auch konsequent angewandt wird:

Bild 3 Einleitungsstatement des Reports [3]
Übersetzung: „Das wahre Worst-Case-Szenario könnte es sein, wenn wir uns nicht trauen, den sicheren Hafen des Bekannten zu verlassen und das tückische Unbekannte erforschen“.
Praxisnäher übersetzt: Auch das Unwahrscheinliche kann wahr werden und ist deshalb als Möglichkeit zu erforschen (beim Klimawandel bedeutet dies: zu simulieren). Die (schrecklichen) Ergebnisse sind – so unwahrscheinlich sie auch eintreten –, als ob sie doch kommen würden und damit eine große Gefahr bedeuten, zu publizieren ...
Weiterführung des Autors: … Es gibt nämlich immer Bevölkerungskreise, welche jede noch so unwahrscheinliche Apokalypse für bare Münze nehmen und bedingungslosen Schutz davor fordern. (Nicht nur) die Freitagshüpfer sind ein beredtes Beispiel.

Fachinhalte

Das erste Kapitel lautet: SCIENTIFIC RETICENCE und erläutert zum Beispiel Szenarien des Meeresspiegels und der Temperatur:[3] … In one example, the IPCC’s Fifth Assessment Report in 2014 projected a sea-level rise of 0.55-0.82 metre by2100, but said “levels above the likely range cannot bereliably evaluated”. By way of comparison, the higher of two US Department of Defence scenarios is a two-metre rise by 2100, and the “extreme” scenariodeveloped by a number of US government agencies is 2.5 metres by 2100
„SCIENTIFIC RETICENCE“ lässt sich in diesem Zusammenhang gut wie folgt beschreiben:
[5] Wissenschaftliche Zurückhaltung ist eine ernsthafte Bedrohung für den Klimawandel
Profis müssen sich über drohende Gefahren äußern, auch wenn sie etwas falsch machen …
Wenn es um den Klimawandel geht, manifestiert sich das Bedürfnis nach übermäßiger Vorsicht und absoluter Sicherheit der Ergebnisse leider als Schweigen der Mainstream-Wissenschaft über die schlimmsten, aber wahrscheinlichen Folgen und die schlimmsten Szenarien, die immer wahrscheinlicher werden …

Die große Gefahr

Im Report geht es (nur) darum, auch unwahrscheinlich(st)e Szenarien als eine große Gefahr dazustellen.

Beispielhaft an Gefahren sind gelistet (Auszug):
Report [3]: Scientists warn that warming of 4°C is incompatible with an organised global community, is devastating to the majority of ecosystems, and has a high probability of not being stable. The World Bank says it may be “beyond adaptation”.
But an existential threat may also exist for many peoples and regions at a significantly lower level of warming. In 2017, 3°C of warming was categorised as “catastrophic” with a warning that, on a path of unchecked emissions, low-probability, high-impact warming could be catastrophic by 2050
Grob verbesserte Deepl-Übersetzung: Wissenschaftler warnen davor, dass eine Erwärmung um 4°C unsere globale Staatenorganisation ins Wanken bringt, sich auf die Mehrheit der Ökosysteme verheerend auswirkt und mit hoher Wahrscheinlichkeit nicht stabil sein wird (Anm.: Ob damit das Klima, oder die Staatsordnungen gemeint sind, erschließ sich aus dem Text nicht eindeutig, es werden aber wohl die 4 Grad gemeint sein). Die Weltbank sagt, es könnte dann „jenseits der Anpassungsmöglichkeit“ (der Ökosysteme) liegen.
Aber eine existenzielle Bedrohung könnte für viele Völker und Regionen auch
(schon) bei einer deutlich geringeren Erwärmung bestehen. Im Jahr 2017 wurden 3°C Erwärmung als „katastrophal“ eingestuft, mit der Warnung, dass auf einem Pfad (wenig wahrscheinlicher) unkontrollierter Emissionen bereits diese Temperaturerhöhung im Jahr 2050 katastrophal sein könnte.

Bestätigung finden die Autoren zum Beispiel in Aussagen von Herrn Schellnhuber (ehemaliger PIK-Leiter):
Report [3]: The Emeritus Director of the Potsdam Institute, Prof. Hans Joachim Schellnhuber, warns that “climate change is now reaching the end-game, where very soon humanity must choose between taking unprecedented action, or accepting that it has been left too late and bear the consequences.” He says that if we continue down the present path “there is a very big risk that we will just end our civilisation. The human species will survive somehow but we will destroy almost everything we have built up over the last two thousand years.”

Grob verbesserte Deepl-Übersetzung: (Schellnhuber) warnt davor, dass „der Klimawandel nun den Zeitpunkt erreicht, wo sich die Menschheit sehr bald entscheiden muss, entweder beispiellose Maßnahmen zu ergreifen oder zu akzeptieren, dass sie den Lösungszeitpunkt verpasst hat und die Folgen tragen muss“. Er sagt, wenn wir den gegenwärtigen Weg (der CO2-Emission) weitergehen, „besteht die sehr große Gefahr, dass wir unsere Zivilisation (damit) einfach beenden. Die menschliche Spezies wird irgendwie überleben, aber wir werden fast alles zerstören, was wir in den letzten zweitausend Jahren aufgebaut haben“.

Man erkennt den „Beleghintergrund“ der später kommenden, extremen, aber auch sehr unwahrscheinlichen Klima-Schreckensszenarien: Es geht um die Klima-Kipppunkte, welche als Folge überproportionale Steigerungen erzeugen und (nur) so unwahrscheinliche Extremwerte „wahrscheinlich“ werden lassen.

Report [3]: This is a particular concern with potential climate tipping-points — passing critical thresholds which result in step changes in the climate system that will be irreversible on human timescales — such as the polar ice sheets (and hence sea levels), permafrost and other carbon stores, where the impacts of global warming are non-linear and difficult to model with current scientific knowledge.
… Recently, attention has been given to a “hothouse Earth” scenario, in which system feedbacks and their mutual interaction could drive the Earth System climate to a point of no return, whereby further warming would become self-sustaining. This “hothouse Earth” planetary threshold could exist at a temperature rise as low as 2°C, possibly even lower ….

Grobe Deepl-Übersetzung: Dies ist besonders besorgniserregend im Hinblick auf potenzielle Klimakipp-Punkte – das Überschreiten kritischer Schwellenwerte, die zu schrittweisen Veränderungen des Klimasystems führen, die auf menschlichen Zeitskalen irreversibel sind – wie die polaren Eisschilde (und damit der Meeresspiegel), Permafrostböden und andere Kohlenstoffspeicher, wo die Auswirkungen der globalen Erwärmung nichtlinear und mit den derzeitigen wissenschaftlichen Erkenntnissen schwer zu modellieren sind.
… Kürzlich wurde die Aufmerksamkeit auf ein „Treibhaus Erde“-Szenario gelenkt, in dem Systemrückkopplungen und ihre gegenseitige Wechselwirkung das Klima im Erdsystem bis zu einem Punkt ohne Wiederkehr treiben könnten, an dem sich eine weitere Erwärmung selbst trägt. Dieser „Treibhaus Erde“-Schwellenwert könnte bei einem Temperaturanstieg von nur 2°C, möglicherweise sogar bei niedrigeren liegen …
.

Im Kern ist damit die „Belegführung“ des Reports abgehandelt. Nicht ein eigener – gar neuer – Gedanke ist im Report zu finden. Es reicht den Autoren, was vor allem Herr Schellnhuber „gesagt“ hat. Zwar sind noch (für Klimapublizierungen geradezu extrem wenige) Fundstellen gelistet. Deren „Belegqualität“ teilweise aber auf dem folgenden Niveau:
Fundstelle: 11 Breeze, N. 2018. “It’s non-linearity, stupid”, The Ecologist, 3 January 2019, accessed 18 March 2019
Hinter dieser Fundstelle steckt dann nichts anderes, als ein Interview mit Herrn Schellnhuber:
ECOLOGIST 3rd January 2019: ‚It’s nonlinearity – stupid!‘
Nick Breeze interviews professor John Schellnhuber, who set up the Potsdam Institute for Climate Impact Research in 1991 to study climate.

Sehr seltene Ereignisse sind viel wahrscheinlicher als bisher angenommen …

Alle IPCC-Reports „handeln“ und bewerten mit Wahrscheinlichkeiten. Bleibt man bei den Wahrscheinlichen, kommen allerdings keine wirklichen Schreckensszenarien zustande (bleibt man bei den Messwerten, dann nicht einmal mehr das).

Um ihn trotzdem zu „erzeugen“, bleibt also nur die Wahl, den statistischen „Vertrauensbereich“ extrem auszuweiten, im Klartext: auch unwahrscheinlich(st)e Simulationsergebnisse in den Überdeckungsbereich des „Vertrauens“ mit einzubeziehen. Mit Statistik nicht so „Bewanderte“ meinen dazu, solche Ergebnisse hätten dann besonders viel „Vertrauen“.

Ein paar Grafiken zu Erläuterung:
Das folgende Bild zeigt die Simulations-Pegelverläufe aus dem IPCC AR5 Sachstandsbericht. Mit dem als wahrscheinlichst geltendem Scenario RCP 2.6, beträgt die Pegelerhöhung zum Jahr 2100 zwischen 18 … 59 cm. Die lineare Fortschreibung des Tidenpegelverlaufs ergibt +15 … 20 cm (Anm.: Der Pegelforscher Prof. Mörner geht von -+10 cm aus).
Dies sind zum Jahr 2100 die wahrscheinlichsten Werte. Entsprechen (mit einem zusätzlichen Risikopuffer) werden Küsten-Schutzmaßnahmen in Ländern, deren Politiker auf den Schutz ihrer Bevölkerung (und nicht nur des eigenen) Wert legen (und es bezahlen können) ausgeführt.

Bild 4 Pegel-Verlaufssimulationen nach verschiedenen CO2-Szenarien. Quelle: IPCC AR5

Die Autoren des Berichtes behaupten nun, dass dies falsch ist. Es könnte ja sein, dass auch ein extrem selten wahrscheinlicher Fall doch eintritt und wenn er kommt, ist man nicht gewappnet.

Das folgende Pegel-Simulationsbild zeigt eine solche Simulation eines mit sehr hoher Wahrscheinlichkeit (da auch physikalisch unmöglich) nicht eintreffenden Pegel-Szenarios:

Bild 5 Pegel-Verlaufssimulationen unter Mitarbeit des PIK. Daten [8]. Grafik vom Autor erstellt
Mit diesem Vorgehen ist natürlich wirklich jeder Alarm erzeugbar. Auch der, dass die Erde im Jahr 2050 wegen des Klimas fast nicht mehr bewohnbar ist. Auch, die „Unrettbarkeit“, da die Kosten einer „Rettung“ von keiner Ökonomie der Welt bezahlt werden könnte.

Report [3]: Analysis of climate-related security threats in an era of existential risk must have a clear focus on the extremely serious outcomes that fall outside the human experience of the last thousand years. These “fat-tail” outcomes have probabilities that are far higher than is generally understood.

Grobe Deepl-Übersetzung: Die Analyse der klimabedingten Sicherheitsbedrohungen in einer Ära existentieller Risiken muss einen klaren Fokus auf die äußerst schwerwiegenden Folgen haben, die außerhalb der menschlichen Erfahrung der letzten tausend Jahre liegen. Diese „Fat Tail“-Ergebnisse haben Wahrscheinlichkeiten, die weit höher sind, als allgemein verstanden wird.

Um dieses Vorgehen zu rechtfertigen, wird wiederholend Herr Schellnhuber bemüht:
Report [3]: In Prof. Schellnhuber’s words: “We must never forget that we are in a unique situation with no precise historic analogue. The level of greenhouse gases in the atmosphere is now greater, and the Earth warmer, than human beings have ever experienced …

Grobe Deepl-Übersetzung: (Schellnhuber) „Wir dürfen nie vergessen, dass wir uns in einer einzigartigen Situation befinden, in der es keine genaue historische Entsprechung gibt. Das Niveau der Treibhausgase in der Atmosphäre ist heute höher und die Erde wärmer, als es die Menschen je erlebt haben …

Dass alleine die Aussage: (Schellnhuber) „ … die Erde wärmer, als es die Menschen je erlebt haben … „ mit Sicherheit nicht stimmt, tut der „Belegführung“ in den Augen der Berichtsautoren keinen Abbruch.
Und so wird auch nach Schellnhubers „Anleitung“ vorgegangen:
Report [3]: In this spirit, we sketch a 2050 scenario

Welche Erde trifft man im Jahr 2050 an?

Report [3]: By 2050, there is broad scientific acceptance that system tipping-points for the West Antarctic Ice Sheet and a sea-ice-free Arctic summer were passed well before 1.5°C of warming, for the Greenland Ice Sheet well before 2°C, and for widespread permafrost loss and large-scale Amazon drought and dieback by 2.5°C. The “hothouse Earth” scenario has been realised, and Earth is headed for another degree or more of warming, especially since human greenhouse emissions are still significant.
… While sea levels have risen 0.5 metres by 2050, the increase may be 2–3 metres by 2100, and it is understood from historical analogues that seas may eventually rise by more than 25 metres
Grob verbesserte Deepl-Übersetzung: Zum Jahr 2050 gibt es eine breite wissenschaftliche Akzeptanz, dass die System-Kipp-Punkte für den westantarktischen Eisschild und einen meereisfreien arktischen Sommer bereits weit unterhalb einer Erwärmung um 1,5°C überschritten sind, für den grönländischen Eisschild weit unterhalb 2°C und für einen großflächigen Permafrostverlust und großflächige Dürre und Absterben im Amazonasgebiet mit 2,5°C.
Das „Gewächshaus Erde“-Szenario ist dann eingetroffen, und die Erde steuert auf eine weitere oder noch stärkere Erwärmung zu, zumal die Treibhausgasemissionen des Menschen immer noch beträchtlich sind.
… Während der Meeresspiegel bis 2050 um 0,5 Meter angestiegen ist, könnte der Anstieg bis 2100 2-3 Meter betragen, und aus historischen Analogien geht hervor, dass die Meere schließlich um mehr als 25 Meter ansteigen könnten …

Was dazu im Bericht fehlt, ist die physikalische Tatsache, dass dazu ein ganz großes Schmelzen der Antarktis erforderlich ist und dieses dazu mehrere Tausend Jahre benötigen würde.

Nach diesen nicht nur vollkommen kritiklos, sondern bedingungslos zustimmend, vorwiegend vom PIK übernommen Listungen extremster Simulations-Szenarien sollte man annehmen, es würden nun etwas konkreter Details und neue Gesichtspunkte dazu erscheinen. Doch davon kommt: nichts. Stattdessen warnende Beschreibungen und mit Sicherheit der einzige, wichtige Absatz des Reports für dessen Auftraggeber:
Report [3]: To reduce such risks and to sustain human civilisation, it is essential to build a zeroemissions industrial system very quickly. This requires the global mobilisation of resources on an emergency basis, akin to a wartime level of response.

Grobe Deepl-Übersetzung: Um solche Risiken zu verringern und die menschliche Zivilisation aufrechtzuerhalten, ist es unerlässlich, sehr schnell ein Null-Emissions-Ökosystem aufzubauen. Dies erfordert die globale Mobilisierung von Ressourcen auf Notfallbasis, ähnlich der Reaktion in Kriegszeiten …

Warum hat sich M. Latif das angetan?

Dieser „Bericht“ fällt (rein persönliche Meinung des Autors als Klimalaien) ohne zu zögern in die Kategorie „Auftragsleistung, die nicht einmal im Ansatz Wert darauf legt, einen Anflug von Seriosität zu verbreiten und ihren Fachinhalt weder neutral-, noch im Ansatz wissenschaftlich prüft“.

Immer wieder erschreckend zu sehen, welch unterirdisches Niveau zum Klimawandel veröffentlicht und von Medien gepriesen wird.

Dass allerdings einer wie M. Latif dazu noch einen (im Ansatz positiven) Kommentar beisteuert, muss man wohl als einen Akt eigener Verzweiflung betrachten. In solchen Seelenzuständen hat man sich einfach nicht mehr ausreichend im Griff:
Badische Neueste Nachrichten, 25. September 2019: Klimaforscher Mojib Latif in Karlsruhe: „Ich bin gescheitert

Wenn man nun noch weiß, dass dieser Bericht bereits letztes Jahr um fast die gleiche Zeit erschien und schon damals mit der gleichen Reaktion „besprochen“ wurde:

Bild 6 [9] Bild-Zeitung, 6.6.2019
[9] Bild-Zeitung: „Schon 2050 könnte die Menschheit am Ende sein, weil die Erde nicht mehr bewohnbar sein könnte. Das prognostizieren jetzt australische Forscher in einem Klimareport.“
… laut einem Bericht aus Australien könnte diese Erfolgsgeschichte schon bald zu einem katastrophalen Finale kommen.
und dann wieder am 10.09.2019 im FOCUS, erkennt man die perfide Beeinflussungsstrategie unserer Medien, durch regelmäßiges Wiederholen der gleichen Information, so als ob sie gestern neu verfasst worden wäre.

Doch nun eine Entschuldigung für M. Latif. Auch andere „Klimaforscher“ sind sich für nichts zu schade:
[9] Bild-Zeitung: Zu Einordnung der Studie erklärte Klimaforscher Dr. Martin Stendel vom dänischen Meteorologischen Institut (DMI) gegenüber BILD: „Die australischen Forscher folgen dem Ansatz: Können wir sicher ausschließen, dass es wesentlich extremere Entwicklungen gibt? Nein, das können wir nicht. Solchen extremen Entwicklungen können wir zwar keine Wahrscheinlichkeiten zuordnen, aber sie sind möglich.“

Aber die Bild-Zeitung achtet immer auch auf (etwas) Ausgewogenheit:
[9] Es gibt jedoch auch Kritik an dem Bericht. Der Klimaforscher Prof. Dr. Hans von Storch gegenüber BILD: „Das ist ein schönes Stück interessengeleitetes Verschrecken von Menschen. Medial sicher zur erschreckender Unterhaltung geeignet, aber in der Sache ein weiterer Versuch, den Versuch lächerlich zu machen, den Klimawandel ernst zu nehmen.“ ...

Quellen

[1] msn Nachrichten 14.05.2020: Das Ende der Menschheit in 30 Jahren

[2] Climate Code RED: Can we think in new ways about the existential human security risks driven by the climate crisis?

[3] Report: Existential climate-related security risk:A scenario approach May 2019

[4] abc Action News Jun 11, 2019: Climate change could pose ‚existential threat‘ by 2050, report says

[5] DownToEarth: Wissenschaftliche Zurückhaltung ist eine ernsthafte Bedrohung für den Klimawandel

[6] Salonkolumnisten, 15. Juli 2019: Wir sind noch einmal davongekommen

[7] EIKE 22.02.2020: Greta weiß genau Bescheid … Der Meeresspiegel könnte um 0,04 … 10 m steigen… ist die etwas umformulierte Botschaft, welche ein Video mittels Aussagen des PIK vermittelt

[8] Climate Central, November 2015: MAPPING CHOICES CARBON, CLIMATE, AND RISING SEAS OUR GLOBAL LEGACY

[9] Bild-Zeitung, 06.06.2019: Australische Forscher warnen vor Nichts-Tun Schock-Prognose zur Klimakatastrophe




Klima und Schein­wissenschaft, Teil 2

  1. CO2, ein Spurengas

Heute gibt es sehr wenig CO2 in der Atmosphäre, aber die Pflanzen sind genügsam und benötigen noch weniger. In grauer Vorzeit gab es mehr CO2 und auch viel mehr Pflanzen, von denen ein Teil im Laufe der Zeit beim Verrotten nicht mehr in CO2 umgewandelt wurde, sondern sich als reiner Kohlenstoff ansammelte, ein Gut, das nun der Zivilisation als fossiler Kohlenstoff zur Verfügung steht. Davon wird ein großer Teil genutzt, um Energie zu erzeugen.

In analoger Weise lieferte abgestorbenes Plankton im Meer den Kohlenstoff für Erdöl und Erdgas. Jedes Atom aus fossilem Kohlenstoff war per definitionem einmal Teil eines Lebewesens gewesen.

Nur ein sehr kleiner Teil in der Atmosphäre besteht aus CO2, wie die nachfolgende Tabelle zeigt:

Selbst wenn es den «Treibhaus-Effekt» gäbe, wäre es schwer zu verstehen, wie das wenige CO2, das zusätzlich in die Atmosphäre gelangt, das Klima durch einander bringen sollte.

Vielleicht hilft ein Vergleich, was ein Anteil des CO2 in der Luft von knapp 0.4 Promille bedeutet, falls man sich unter einem so kleinen Wert nichts vorstellen kann. Um uns diese Größenverhältnisse graphisch zu veranschaulichen, stellen wir uns ein Rohr von 1 km Länge vor, das mit atmosphärischer Luft gefüllt sei. Jedes der verschiedenen Gase belegt einen so langen Abschnitt, wie er seinem Anteil an der Atmosphäre entspricht.

780 Meter wären Stickstoff, 210 Meter Sauerstoff. Der Anteil des CO2, wie erwähnt, die Nahrung der Pflanzen, würde weniger als 40 cm Länge beanspruchen im Vergleich zum Kilometer der ganzen Atmosphäre! Die übrigen Gase lassen wir in diesem Zusammenhang weg. Die Hälfte des neu entstehenden CO2 wird von den Ozeanen absorbiert.

Dieses Rohr wächst nun jedes Jahr durch den von der Technik produzierten Überschuss an CO2 um sagenhafte 1,6 mm! Dass eine so geringe Menge CO2 einen Weltenbrand entfacht, ist wenig plausibel, abgesehen von dem gelinde gesagt umstrittenen angeblichen physikalischen Prozess, der diese Erwärmung antreiben soll.

Im Gegenteil, wenn man begriffen hat, dass CO2 die eigentlich rare Nahrung der Pflanzen ist, wird klar, wie zynisch-obszön gewisse Maßnahmen sind, zwecks «Klimaschutz» CO2 für immer in irgendwelchen geologischen Formationen zu «entsorgen»! Statt dessen hat man experimentell nachgewiesen, dass vielerlei Nutzpflanzen durch Düngung mit CO2 bessere Erträge geben.

  1. Vorhersage des Wetters und des Klimas

Das Wetter ist ein System in der lokalen Atmosphäre, das sich durch Variablen der Physik quantitativ beschreiben und mit viel Rechenaufwand und etwas Glück für ein paar Tage voraus berechnen lässt. Wir erwähnen im vorliegenden Zusammenhang insbesondere die folgenden Variablen:

Lufttemperatur

Luftfeuchtigkeit (Taupunkt)

Luftdruck – Unterschiede des Luftdrucks

Windgeschwindigkeit

Niederschlagsmenge

Bewölkung / Sonnenschein

Wir erkennen mit unseren Sinnen den aktuellen Wert einiger dieser Variablen, wie Wind, Wolken und Niederschläge oder Sonnenschein, die neben der Temperatur das Wetter bestimmen. Eine zusätzliche wichtige Größe, die wir mit unseren Sinnen nicht erkennen, ist der Luftdruck, und besonders wichtig sind regionale Unterschiede des Luftdrucks, in gelehrten Worten der Gradient des Luftdrucks, Motor der Winde. Diese Unterschiede des Luftdrucks bewegen die Luft über je nachdem weite Strecken und transportieren dabei warme oder kalte, vielleicht trockene Luftmassen oder die für Niederschläge notwendige feuchte Luft vom Atlantik, oder trockene Luft aus der Sahara usw., d.h. Wetter, das anderswo entstanden ist.

Nur in ein paar besonderen Regionen sind einige der erwähnten Größen über eine gewisse Zeit stabil, die Temperatur im Wechsel von Tag und Nacht höchstens ein paar Stunden lang. Je nach Ort kann man einige dieser Größen über eine gewisse Dauer halbwegs präzise schätzen und damit die Entwicklung des Wetters. Eine spezielle Disziplin der Meteorologie beschäftigt sich damit, durch die Lösung eines komplizierten Systems von partiellen Differenzial-Gleichungen die Entwicklung des Wetters voraus zu berechnen, aber einigermaßen zuverlässig höchstens auf ein paar Tage.

Daneben ist die pragmatische, traditionelle Methode weiterhin legitim, bei der Kenner intuitiv und nach Erfahrung regionale Messwerte interpretieren und dabei die Entwicklung des Wetters für den kommenden Tag schätzen. Ihr Erfolg hängt je nachdem davon ab, wo sie diese prophetische Kunst üben, in der Sahara im Sommer allenfalls für eine paar Wochen. An anderen Orten, insbesondere in gewissen Gegenden am Meer, wechseln heftiger Regen und strahlender Sonnen-Schein jede halbe Stunde.

Das Gas CO2, das angeblich unseren Planeten in eine gefährliche Erwärmung treibt, kommt unter den Faktoren, die das Wetter bestimmen, mit triftigem Grund nicht vor. Es hat auch in seriösen Betrachtungen zum Klima nichts zu suchen, obschon die Menschheit für das von ihr produzierte CO2 sogar besteuert wird.

  1. Umstrittener «Treibhaus-Effekt»

Um die dubiose Physik zu beschreiben, gemäß der CO2 angeblich «das Klima erwärmt», muss man ein bisschen ausholen.

Normales Licht erscheint für unser Auge weiß. Es gibt jedoch Experimente, durch die weißes Licht auf verschiedene Farben aufgeteilt wird. Das klassische Experiment dazu funktioniert über ein Prisma, wie nachstehend gezeigt:

https://commons.wikimedia.org/wiki/File:Dispersive_Prism_Illustration_by_Spigget.jpghttps://creativecommons.org/licenses/by-sa/3.0/deed.en modifiziert durch den Autor

Das Prisma aus Glas zerlegt weißes Licht in seine «Spektralfarben» blau, gelb, rot, sichtbar je nachdem immer noch in gemischten Nuancen. Die gleiche Erscheinung kennt man vom Regenbogen, wenn die Sonne bei geeignetem Winkel durch von Regen durchflutete Luft scheint. Die Physiker Newton und Huygens hatten dieses Phänomen bereits im 17. Jahrhundert durch Theorien erklärt – gegensätzliche Theorien, die die Wissenschaft über die nachfolgenden Jahrhunderte beschäftigte.

Beide Gelehrten erklärten übereinstimmend, weißes Licht sei eine Synthese aus den Spektren des farbigen Lichts. Goethe ärgerte sich über diese These und entwickelte eine eigene Farbenlehre, die als Idee über das subjektive Erkennen von Farben ihre Berechtigung hat, aber die Physik nicht widerlegt.

Huygens stellte die These auf, Licht sei eine Welle, nach späterem Verständnis eine so genannt «elektromagnetische», wobei jede Farbe durch ihre Wellenlänge bestimmt ist, blaues Licht durch kurze Wellen, rotes Licht durch lange.

Später hat man entdeckt, dass es neben dem sichtbaren Licht weitere nicht sichtbare elektromagnetische Wellen gibt, solche mit noch kürzerer Wellenlänge als blaues und solche mit noch längerer, als rotes Licht. Diese letzteren werden Infrarot genannt. Sie wurden für spekulative physikalische Theorien und eine gigantische politische Agitation instrumentalisiert.

Wie gesagt, infrarote Strahlung kann der Mensch nicht sehen, sondern allenfalls ab einer gewissen Intensität spüren, etwa wenn man eine Hand über eine heiße Herdplatte hält – in gebührendem Abstand natürlich. Infrarote Strahlung geht auch nicht durch das Glas-Prisma, kann aber mit anderen Techniken nachgewiesen und gemessen werden.

  1. Der «Treibhaus-Effekt» im Glashaus

Mit Hilfe von Glashäusern speichern die Gärtner einen Teil der einfallenden Sonnenenergie und verlängern so dank der höheren Temperatur innerhalb solcher Räume die Zeit, während der die Pflanzen gedeihen, vor allem im Frühling.

Ein großer Teil des von der Sonne eingestrahlten, kurzwelligen und sichtbaren Lichts dringt durch das Glas des Treibhauses, erwärmt dessen Boden und dieser danach durch Wärme-Leitung und Konvektion die darüber liegende Luft, die im Glas-Gebäude gefangen bleibt. Drinnen ist es wärmer als draußen. Wir kennen diese Art «Treibhaus»-Effekt auch von einem geschlossenen Auto, nachdem es in der Sonne gestanden hat. Mit dem in der Klimatologie unsinniger Weise gleich genannten Phänomen hat diese in der eingeschlossenen Luft gespeicherte Wärme jedoch nichts zu tun! Die Hitze im «Treibhaus» – eingesperrte warme Luft, die wegen der Hülle eines abgeschlossenen Raumes nicht entweicht – könnte man auch in einer von der prallen Sonne beschienenen Blechhütte erleben, durch deren undurchsichtige Schale kein Licht ins Innere fällt.

Im Treibhaus wirkt zusätzlich ein quantitativ viel weniger bedeutendes physikalisches Gesetz. Der durch kurzwelliges Licht erwärmte Boden strahlt einen Teil der eingefangenen Energie über unsichtbares, langwelliges, infrarotes Licht wieder ab – Infrarot, das nicht mehr durch das Glas dringt, sondern von diesem wieder zurück gestrahlt oder vom Glas absorbiert wird. Gemäß einer umstrittenen Ansicht wird das vom Boden abgestrahlte und zurück reflektierte Infrarot den Boden erwärmen.

Auch der so genannte «Treibhaus»-Effekt in der Atmosphäre würde analog mit dem vom Boden abgestrahlten und zurück reflektierten lang-welligen Licht funktionieren. Bei wolkenlosem Himmel dringt das kurz-wellige Sonnenlicht ziemlich ungehindert durch die Luft der Atmosphäre auf die Erdoberfläche. Der nicht reflektierte Teil des eingestrahlten Lichts wird dort in Wärme umgewandelt, im Boden gespeichert und nach und nach in Form von Infrarot ins Weltall zurück gestrahlt.

Einige Photonen dieses zurückgestrahlten Infrarot werden auf ihrem Weg zurück ins Weltall von den Molekülen bestimmter Gase in der Atmosphäre absorbiert und von diesen nachher wieder in eine beliebige Richtung ab gegeben, gleichsam «gestreut», unter anderem auch zurück Richtung Erde, ähnlich wie vom Glasdach des Treibhauses. Wegen dieser Analogie könnte man sie «Treibhaus»-Gase nennen, eine jedoch missverständliche Bezeichnung, wie in der nachfolgenden Skizze dargestellt.

Der «Treibhaus-Effekt» in der Atmosphäre bezieht sich nicht auf eine richtige Analogie zum Werkzeug der Gärtner, sondern ist eine metaphorische, bzw. eigentlich propagandistische Bezeichnung. Die um das Treibhaus des Gärtners gebaute Glashülle verhindert, dass die erwärmte Luft durch Konvektion aufsteigt. Die eingesperrte Energie ist auf kleinem Raum konzentriert, die Menschen dort drin spüren sie intensiv.

Infrarot, das sowohl durch das Glasdach reflektiert als auch durch wenige spezielle Moleküle in der freien Atmosphäre gestreut wird, begründet die vage Analogie, mit der berüchtigten Floskel «Treibhaus-Effekt». Es geht dabei um mehr als ein semantisches Problem. Das falsche Wort inspiriert zu dubiosen wissenschaftlich fragwürdigen Analogien. Glas ist ein Festkörper, «kondensierte Materie». Die dort gültigen, einfacher verständlichen physikalischen Gesetze über Absorption und Abstrahlung von Infrarot lassen sich nicht beliebig auf einen allenfalls analogen Prozess bei Luftmolekülen übertragen.

Die Absorption und die darauf folgende Re-Emission und damit Streuung von infrarotem Licht durch «Treibhaus-Gase» erklären die Physiker mit Quantenmechanik, insbesondere auch, welches Infrarot mit welchen Wellenlängen absorbiert wird. Die Wirkung der Infrarot absorbierenden Moleküle lässt sich mit einem teilweise transparenten Spiegel vergleichen, der das typische, in diesem physikalischen Prozess wirksame infrarote Licht zurück strahlt – «reflektiert», anderes Licht jedoch durchlässt. Wir nennen diesen Prozess daher partielle, diffuse Reflektion von infrarotem Licht oder gemäß einer in der Physik bekannten Bezeichnung als «Streuung» durch die dafür geeigneten «diffus reflektierenden», bzw. «streuenden» Luftmoleküle anstatt «Treibhaus»-Gase, wie die nachfolgende Skizze noch einmal zusammenfassen soll:

Im Unterschied zur Reflektion an einer Spiegel-Fläche strahlt das durch Moleküle in der Atmosphäre gestreute Infrarot nicht in einem präzisen Winkel zum einfallenden Licht ab, sondern diffus in alle Richtungen – einen Teil davon weiter ins Welt-All, einen anderen zurück auf die Erde, wo es erneut absorbiert wird oder gemäß anderen Meinungen eben nicht, je nachdem welche Meinung in diesem Gelehrten-Streit die betreffende Person vertritt.

Die wieder absorbierte Energie würde so zu sagen «rezykliert», in einer unpräzisen Redensart unseren Planeten «erwärmen», oder genauer dessen durch Abstrahlung verursachte Abkühlung verzögern. Die Infrarot streuenden Luftmoleküle würden quasi wie eine Wärmedämmung wirken. Das zurückgestrahlte Infrarot wird manchmal in missverständlicher Weise als «Gegenstrahlung» bezeichnet. Die Energie des absorbierten Photons wird im Molekül als innere Energie in Form von Schwingungen zwischen gespeichert bis sie wieder als Photon aus dem Molekül re-emittiert wird.

CO2 streut nur einen bescheidenen Bereich des Infrarot-Spektrums. Der außerhalb von Wüstengebieten fast immer vorhandene Wasserdampf, das heißt verdunstetes Wasser, streut ein wesentlich breiteres Lichtspektrum, und das allerdings weniger verbreitete Methan ist pro Molekül 25 mal so wirksam, wie das viel zitierte CO2 und N2O gar 300 mal. Man kann den Wasserdampf mit einem schwarzen Vorhang vergleichen, der bereits alles Licht absorbiert. Mit noch mehr Vorhang wird es nicht dunkler im Zimmer.

Eine Schule von Physikern bestreitet überhaupt, das auf die Erde zurück gestreute Infrarot wirke sich auf die Temperatur der Atmosphäre aus, ein Streit unter Gelehrten, dessen zentrales Problem wir mit einem blauen Kreis in der obigen Skizze angedeutet haben. Diese Frage ist auch unter Kritikern der herrschenden Lehre zum Klima umstritten.

Insbesondere die Physiker Prof. Gerlich und Dr. Tscheuschner vom Institut für mathematische Physik der Universität Braunschweig bestreiten, dass von der Erde abgestrahltes und wieder auf diese zurück reflektiertes Infrarot dort absorbiert, statt umgehend wieder Richtung Welt-All zurück reflektiert wird. (Gerlich, Tscheuschner, «Falsification Of The Atmospheric CO2 Greenhouse Effects Within The Frame Of Physics», Version 4.0 2009).

Abgesehen von dieser «Falsifikation» des angeblichen «Treibhaus-Effektes» mit Überlegungen der theoretischen Physik hätte man als Realist nicht die Aufgabe, dubiose Klima-Theorien zu widerlegen, sondern deren Anhänger wären gemäß den Regeln der Wissenschaftslogik verpflichtet, ihre Ansicht zu beweisen, insbesondere mit einem Experiment. Von wegen! Es gibt kein physikalisches Experiment, mit dem sich der angebliche Treibhauseffekt beweisen lässt. Das wäre quasi das zentrale Element jeder Diskussion. Aha, Treibhauseffekt. Kennt Ihr ein physikalisches Experiment, diesen zu beweisen? Nein, es gibt kein solches Experiment!

Wohl verstanden, selbst wenn man einen Treibhauseffekt nachgewiesen hätte, wäre das noch lange kein Beweis, dass dieser eine erkennbare Wirkung auf das «Klima» hätte, geschweige denn eine gefährliche.

Dass CO2 infrarotes Licht streut, ist eigentlich unbestritten, hat aber eine paradoxe Konsequenz, von der kaum je die Rede ist. Infrarot ist auch ein Teil im Spektrum des Sonnenlichts und wird entsprechend von den «Treibhaus-Gasen» gestreut, d.h. die Hälfte davon zurück ins Weltall ohne dass es je die Erde erwärmt hat. Dem entsprechend gibt es auch den Slogan «CO2 kühlt». Präziser formuliert wäre, CO2 behindert ein bisschen die Einstrahlung des Sonnenlichts.




Afrika soll die deutsche Energiewende retten

Warum hat sich Ministerin Karliczek nun ausgerechnet mit ihrem Kollegen aus dem westafrikanischen Niger getroffen? Weil der aktuell Vorsitzender des Ministerrats des  „Kompetenzzentrums für Klimawandel und angepasste LandnutzungWASCAL ist. Das BMBF ist alleiniger Sponsor dieses „Leuchtturmprojektes“, das verschiedene Master- und Doktorandenstudiengänge anbietet und die wissenschaftliche Expertise zum Thema Klimawandel von elf westafrikanischen Ländern und Deutschland zusammenführt. Hört sich gut an, der wissenschaftliche Output  fällt allerdings ausgesprochen übersichtlich aus: Ganze zwei Arbeiten haben es seit 2011 geschafft, in einer begutachteten (peer reviewed) wissenschaftlichen Zeitschrift veröffentlicht zu werden. Dafür fällt das durchschnittliche Ranking der elf westafrikanischen Mitgliedsländer auf dem aktuellen Korruptionsindex mit Platz 96 umso höher aus. Zum Vergleich: Dänemark auf Platz 1, Deutschland auf 11 und Somalia am Ende auf 180.

Da stellt sich bereits vorab die Frage, ob es tatsächlich ernst gemeint sein kann, sich bei einem so wichtigen Bereich wie der Energieversorgung abhängig zu machen von korrupten, teils hochkorrupten Ländern. Hinzu kommen die sprichwörtliche afrikanische Unpünktlichkeit und ungenügende Termintreue. Und vielleicht noch gravierender: solche Probleme in Zeiten politscher Korrektheit nicht beim Namen nennen zu dürfen. Aber die Energiewende – mit den beschlossenen Ausstiegen aus Atomkraft und Kohle – rauscht mittlerweile rasant auf den Abgrund zu, der offensichtlich so langsam auch ins Gesichtsfeld der Verantwortlichen gerät: „Deutschland hat nicht genügend Erneuerbare Energien, um den eigenen Bedarf zu decken“, stellt die Ministerin durchaus zutreffend, wenngleich etwas unpräzise fest – denn Deutschland wird auch künftig nicht genügend davon haben. Es scheint sich auch herumgesprochen zu haben, dass eine inländische H2-Poduktion in industriellem Maßstab niemals auch nur halbwegs rentabel zu betreiben sein wird, wenn die teuren Elektrolysefabriken immer wieder stillstehen müssen, wenn gar kein oder zumindest kein „überschüssiger“ Wind- oder Solarstrom verfügbar ist.

Kurz gesagt: Die Ministerin ist Feuer und Flamme für das grüne H2 und will sich für den Aufbau einer „Wasserstoff-Taskforce“ einsetzen, um die rasche Umsetzung der unter Federführung des Bundesministeriums für Wirtschaft und Energie (BMWE) noch zu erstellenden Nationalen Wasserstoffstrategie zu gewährleisten. Bis dahin will das BMBF zusammen mit WASCAL einen „Potentialatlas“ erstellen, „an welchen Standorten wir den grünen Wasserstoff am besten produzieren können.“

Chancen immer, Risiken nimmer

Egal, um welche ministerielle Einlassung es bei diesem Thema geht – es gilt das Motto: Chancen immer, Risiken nimmer. Ein Beispiel: Während das BMWE völlig offen lässt, wie das H2 gelagert und transportiert werden soll, vermittelt die Ministerin den Eindruck, schon bald werde den deutschen Endkunden das in Afrika produzierte H2 problemlos per Tankwagen ans Werkstor geliefert. Um welche Mengen von H2 geht es überhaupt? Nach der Import-Prognose, auf die sich die Ministerin bezieht, soll Deutschland im Jahr 2050 stolze 43 und im Jahr 2030 bereits zwölf Millionen Tonnen H2 aus Afrika einführen. Schließlich gelte es, „Deutschlands größte Treibhausgas-Verursacher klimafreundlich umzugestalten“.

Wenn schon die Ministerin nicht auf die Risiken hinweist, bleibt es des Chronisten Pflicht, sich ein paar Gedanken zu dem Plan zu machen, weite Teile der deutschen Schwerindustrie, des Verkehrs- und Wärmesektors von afrikanischem H2 abhängig zu machen. Beginnen wir mit der erforderlichen Solarstrommenge: Zur Produktion von einem kg H2 mittels Elektrolyse werden etwa 55 kWh benötigt, für 43 Mill. Tonnen also knapp 2.400 TWh, was fast dem Fünffachen des derzeitigen Gesamtstromverbrauchs Deutschlands entspricht. Ein möglicher Strom-Zusatzbedarf durch die Solarkraftwerke selbst und die Weiterverarbeitung des H2 sind dabei nicht berücksichtigt. In Anlehnung an den Flächenbedarf des kürzlich in allen Medien bejubelten Solarkraftwerkskomplexes in Marokko dürften für die o. g. Strommenge etwa 40.000 km2 erforderlich sein – Sicherheitserwägungen sowie Flächen für die Elektrolysefabriken und H2-Lagerung sind darin nicht berücksichtigt, aber natürlich auch nicht eine mögliche Reduktion des Strombedarfs durch den technischen Fortschritt bei der Elektrolyse.

H2 ist entflammbar und hat eine Tendenz zu hohen Brenngeschwindigkeiten und Detonationen. Es ist damit ein Top-Ziel für Erpressungen und Anschläge. In Verbindung mit den im Vergleich zu Europa – um es zurückhaltend zu formulieren – sehr viel instabileren politischen Verhältnisse birgt das jede Menge sicherheitspolitische Risiken. Die reichen von Drohungen, bestehende Verträge nicht mehr anzuerkennen oder gleich die ganzen Anlagen zu enteignen, bis hin zu Gefährdungen durch islamistische Terroristen, Bürgerkriege, gewalttätige Auseinandersetzungen zwischen Nachbarstaaten oder auch Entführungen durch Kriminelle, wie man es aus Nigeria kennt. Ein Land, das in einer solchen Region wie Westafrika – früher auch bekannt als das Grab des weißen Mannes – nicht nur zig Milliarden investiert, sondern sich auch in existentielle Abhängigkeiten begibt, ist gut beraten, im Notfall seine Interessen auch mit militärischen Mitteln wahren oder damit zumindest glaubhaft drohen zu können. Mit der heutigen Bundeswehr dürfte das etwas schwierig werden.

Es gibt aber noch weitere sicherheitsrelevante Schwachstellen. Die Elektrolyse – je nach Typ auch das Solarkraftwerk selbst – benötigt Wasser: 9.000 Liter pro Tonne H2, die ja wohl nur aus ebenfalls noch zu bauenden Meerwasserentsalzungsanlagen sprudeln würden. Wenn in Nigeria selbst Benzinpipelines von der einheimischen Bevölkerung unter Lebensgefahr angezapft werden, gilt das doch wohl erst recht für harmlose Wasserpipelines in Regionen mit chronischem Wassermangel.

Jede Menge Logistik-Probleme

Um den erzeugten Solarstrom nicht über noch zu bauende Leitungen samt den damit einhergehenden Problemen – Sicherheit, Kosten, Stromschwund – zu den Elektrolysefabriken transportieren zu müssen, sollen diese wahrscheinlich auf dem Gelände der „Solarparks“ gebaut werden. Bleibt die Frage, wie das H2 gelagert, zum Hafen transportiert und nach Deutschland verschifft werden soll. Grundsätzlich ist es möglich, H2 bei extrem niedrigen Temperaturen oder unter sehr hohem Druck auf vertretbarem Raum zu lagern und mit – allerdings noch zu bauenden(!) – Spezialtankern nach Deutschland zu transportieren, wenngleich damit ganz erhebliche H2-Verluste durch Verdampfung verbunden sind.

Auch die Frage, wie der H2-Transport in Deutschland erfolgen soll, ist in Ermangelung einer Transport-Infrastruktur alles andere als ein Selbstgänger. Technisch einfacher wäre die Anwendung des Power-to-X-Konzepts, in diesem Fall die Umwandlung des H2 mittels CO2 in Methan, welches dann mit den üblichen Flüssiggastankern nach Europa transportiert und dort ins Erdgasnetz eingespeist werden könnte. Von Nachteil sind allerdings die mit jedem Umwandlungsschritt verbundenen erheblichen Energieverluste. Frau Karliczek wird wahrscheinlich auf ein – auch durch ihr Ministerium gefördertes –  gänzlich neues Verfahren für Lagerung und Transport von H2 verweisen, bei dem allerdings unklar ist, ob es überhaupt zur Marktreife gelangen würde.

Klar dagegen ist, dass ein Energieträger wie grünes H2, außer vielleicht in Nischenanwendungen, sich nie und nimmer in einer freien Marktwirtschaft gegen die fossile Konkurrenz durchsetzen könnte. Trotz der bereits erfolgten und künftigen planwirtschaftlichen Eingriffe wird sich ein privatwirtschaftliches Unternehmen auf eine H2-Abenteuerreise nach Westafrika nur einlassen, wenn ihm nahezu sämtliche Risiken vom deutschen Staat bzw. Steuerzahler abgenommen werden. Dazu gehört auch eine großzügig bemessene Apanage für das jeweilige westafrikanische Land und seine Machtelite, vorzugsweise in Form von irgendwelchen Steuern und Abgaben, aber auch Stromlieferungen und Zusagen für eine Mindestanzahl von einzustellenden Einheimischen.

Angesichts der hier aufgelisteten Probleme und der ja auch nicht unbegrenzten finanziellen Mittel Deutschlands erscheint es äußerst unwahrscheinlich, dass die Produktion von grünem H2 in Afrika in den nächsten zwanzig Jahren über ein oder zwei kleine Pilotanlagen hinauskommen wird. Das ganze Buhei um dieses Thema eignet sich aber prima dazu, dem Volke und vielleicht auch sich selbst vorzugaukeln, dass der Erfolg der Energiewende praktisch gewiß ist. Und falls die ganze Sache doch in die Hose geht, stehen zumindest mit Frau Karliczek und ihren potentiellen Nachfolgern schon mal die Hauptschuldigen fest: Das BMBF verfügte doch über die Wunderwaffe, aber hat es trotzdem vergeigt.

Der Beitrag erschien zuerst bei ACHGUT hier




In USA stemmen sich die Republikaner gegen Ausgrenzung der fossilen Industrie von Corona Hilfsmassnahmen

Bei einer Zustimmung von 99% nimmt Barclays die Klimaresolution zur karbonfreien Strategie an

Frau Hope William-Smith, Professional Pensions, 11. Mai 2020

Insgesamt 99% der Teilnehmer in der Hauptversammlung von Barclays, die am 7. Mai 2020 in London stattfand, haben auf Grund des anhaltenden Drucks von Aktionären und Industrie, die Investitionen in fossile Brennstoffe zu senken, für einen Beschluss, Barclays bis 2050 auf Null-CO2 zu setzen gestimmt.

In einer  Erklärung gegenüber den Aktionären sagte der Vorsitzende Nigel Higgins, Barclays sollte

„… eine führende Rolle bei der Bekämpfung des Klimawandels und der Erhaltung unserer äußeren Umwelt spielen. Diese Resolution verpflichtet die Gruppe zu einer Strategie mit Zielen für die Ausrichtung ihres gesamten Finanzierungsportfolios an den Zielen des Pariser Abkommens…

[blah, blah, blah]

***

[Aufmacherbild

Ein ähnliches Foto wie das obige Aufmacherbild begleitete den Artikel auf Professional Pensions, dieses habe ich wegen fehlendem copyright nicht übernommen.

Dafür habe ich auf Pixelio was ähnliches gefunden. Der / die josupewo / pixelio.de nennt seine Aufnahme des Braunkohle-Grundlastkraftwerks in Bergheim-Niederaußem: Dreckschleuder – Ozonkiller.

Ob Frau Hope William-Smith und der Photograph „josupewo“  der Ansicht sind, dass ihr Bild die Kohlenstoffemissionen zeigen? Schließlich kann angeblich nur Greta CO2 sehen – der Übersetzer.

]]

Was heißt das nun? Der Artikel sagt nicht, dass die Aktionäre von Barclay für eine dauerhafte COVID-19-Wirtschaft gestimmt haben… Nun ja, eigentlich haben sie auch dafür gestimmt, dass sie im Winter im Dunkeln frieren.

Die COVID-19-Wirtschaft und ein Vorgeschmack auf ‚Net Zero‘

Von ANDREW STUTTAFORD, National Review, 7. Mai 2020

Aus einem BBC-Bericht über die Auswirkungen der COVID-19-Sperren auf die CO2  -Emissionen :

Um die Welt auf Kurs zu halten und in diesem Jahrhundert unter 1,5 ° C zu bleiben, braucht die Welt auf absehbare Zeit ähnliche Wirtschaftssperren, um dieses Ziel im Auge zu behalten.

„Wenn Covid-19 im Jahr 2020 zu einem Rückgang der Emissionen um rund 5% führt, ist dies die Art von Reduzierung, die wir jedes Jahr benötigen, bis die Netto-Null-Emissionen um 2050 erreicht sind“, sagte Glen Peters… von Cicero.

[Cicero  ist das Zentrum für internationale Klima- und Umweltforschung]

1.5C ist das Ziel, das aus dem Pariser Übereinkommen zum Klimawandel hervorgegangen ist.

[…]

Wenn etwas der COVID-19-Wirtschaft über Jahrzehnten hinweg ähnelt, kann das ein Weg sein, „Netto-Null“ bis 2050 zu erreichen

[…]

Die Welt wird mit fossilen Brennstoffen betrieben. BP Statistical Review of World Energy, 2018

In verwandten Nachrichten:  … US-Banken, die Unternehmen für fossile Brennstoffe diskriminieren, werden möglicherweise von der Teilnahme an „im CARES Act festgelegten staatlich garantierten Darlehensprogrammen wie dem Paycheck Protection Program oder den Billionen-Dollar-Kreditprogrammen der Federal Reserve ausgeschlossen. ”

 

Die Republikaner fordern Trump auf, die Banken davon abzuhalten, Kredite für die fossile Brennstoffindustrie zu verweigern

Valerie Volcovici, Reuters, 8. Mai 2020

WASHINGTON (Reuters) – Eine Gruppe republikanischer Gesetzgeber aus Energieerzeugungsstaaten forderte am Freitag Präsident Donald Trump auf, zu verhindern, dass Banken Kredite und Investitionen bei Unternehmen einstellen, die Öl und andere fossile Brennstoffe fördern, während sie während des COVID- 19 Pandemie Zugang zu Hilfsprogrammen des Bundes haben.

 „Die großen Banken der Wall Street… sollten nicht in der Lage sein, die Vorteile an staatlich garantierten Kreditprogrammen, die im CARES-Gesetz festgelegt sind, wie dem Paycheck Protection Program oder den Kreditprogrammen der Federal Reserve für Billionen Dollar, zu nutzen und gleichzeitig amerikanische Energieunternehmen und den dort beschäftigten Kredite zu verweigern“, schrieben die Abgeordneten in einem Brief an Trump.

[…]

Die republikanischen Abgeordneten, angeführt von den Senatoren Kevin Cramer aus North Dakota und Dan Sullivan aus Alaska sowie den Vertretern Don Young aus Alaska und Liz Cheney aus Wyoming, beschuldigten einige große US-Finanzinstitute, Investitionen in fossile Brennstoffe eingestellt zu haben, um „die Umwelt versöhnlich zu stimmen“. Sie zitierten ausdrücklich BlackRock Inc, den weltweit größten Vermögensverwalter, der als Treuhänder der Federal Reserve Bank von New York eine zentrale Rolle bei der Wiederherstellung des COVID-19-Unternehmens erhalten hat.

[…]

„Angesichts der zentralen Rolle von BlackRock als Treuhänder der Federal Reserve für die Verteilung von Kreditfazilitäten nach dem CARES Act ist seine Feindseligkeit gegenüber dem amerikanischen Energiesektor inakzeptabel und sollte genau unter die Lupe genommen werden“.

[…]

 

Gesetzgeber fordern Bestrafung für Banken, die Bohrarbeiter [Öl, Gas, Kohle] nicht unterstützen
Jennifer A Dlouhy, Bloomberg, 8. Mai 2020

Drei Dutzend Abgeordnete drängen die Trump-Regierung, gegen Banken und Vermögensverwalter vorzugehen, die die Finanzierung von Ölbohrungen und Kohlebergbau einschränken, und argumentieren, sie „diskriminieren den amerikanischen Energiesektor“ und „müssen konfrontiert werden“.

In einem am Freitag veröffentlichten Brief teilte die Gesetzgeber Präsident Donald Trump mit, dass er diese Kreditgeber bestrafen sollte, indem er sie daran hindert, an staatlich garantierten Kreditprogrammen teilzunehmen, die als Reaktion auf das Coronavirus erstellt wurden, einschließlich des Gehaltsschutzprogramms.

[…]

Die Federal Reserve Bank of New York schon sagte in einer Antwort auf „häufig gestellten Fragen“, dass die Zentralbank Anlagerichtlinien für Corona- initiierte Kreditfazilitäten herausgibt, anstatt zuzulassen , dass Investmentmanager ihre eigenen, internen Richtlinien anzuwenden.

Die Gesetzgeber stellten auch anderen Geschäftsführern von Kreditgeber Kopien ihrer Schreiben zur Verteilung zu, darunter die Citigroup Inc. , Goldman Sachs Group Inc.,  JP Morgan Chase & Co .,  Wells Fargo & Co ., Und die Bank of America Corp .

 

https://wattsupwiththat.com/2020/05/13/99-of-barclays-shareholders-vote-for-permanent-covid-19-economy/

Übersetzt durch Andreas Demmig




Greta Thunberg nun auch bei CNN in der Talk-show Runde über Corona vorgesehen

Der frühere amtierende CDC*-Direktor Richard Besser, die ehemalige Gesundheitsministerin Kathleen Sebelius und die Aktivistin Greta Thunberg treffen sich mit @AndersonCooper & @DrSanjayGupta zu einer Live-Sendung #CNNTownHall  Coronavirus – Fakten und Ängste, Donnerstag um 20 Uhr ET

*[Centers for Disease Control and Prevention (CDC), ~ ähnlich dem Robert-Koch-Institut]

 

Hier der Link zum Interview Anderson Cooper – Greta Thunberg:

https://twitter.com/i/status/1261122735805251584

“ … die Menschen erkennen, dass wir …. auf Wissenschaftler und Experten hören sollten…“

 

Schlagzeilen auf der New York Post

Greta Thunberg wurde zu CNNs Experten-Coronavirus-Panel hinzugefügt, Twitter Kommentar-Sturm brach los

In einer bevorstehenden CNN-„ Thursday night’s town hall“  Talk-show über die Coronavirus-Pandemie wird die 17-jährige Greta Thunberg zusammen mit einer Gruppe medizinischer Experten anwesend sein.

[Am Anfang dieses Berichts finden Sie auch das im Aufmacherbild gezeigte Video]

https://nypost.com/2020/05/13/greta-thunberg-added-to-cnn-expert-covid-19-panel-twitter-erupts/

 

Die Ankündigung löste sofort eine Runde ätzender Witze und Kritik aus, die in Frage stellten, warum CNN Greta Thunberg – der es an medizinischen oder gesundheitlichen Qualifikationen mangelt – in die Show bringen würde.
(RELATED: Local Pastor Of Swedish Church Claims Jesus Christ Appointed Great Thunberg As His ‘Successor’) (Zum Thema: Der örtliche Pastor einer schwedischen Kirche in Malmö behauptet, Jesus Christus habe die große Thunberg zu seinem „Nachfolger“ ernannt)

Twitter-CNN-Greg Locke

Original auf Twitter Pastor Locke

Sie wollen mich wohl veralbern. Also ist Greta jetzt eine Covid-Spezialistin? Die Sendung sollte nicht als Fakten und Ängste bezeichnet werden. Es sollte Lügner und Wahnsinnige genannt werden.

 

Anderson Cooper verteidigte CNN am Donnerstagabend, weil die 17-jährige Greta Thunberg zusammen mit einer Reihe von Coronavirus-Experten in einem Netzwerk-Rathaus aufgetreten war.

Cooper rationalisierte Thunbergs Auftritt in einem langen Monolog nach der Sendung und zielte auf die „falsche Online-Empörungsmaschine“ ab, die die falsche Erzählung hervorbrachte, dass Thunberg selbst als Expertin für öffentliche Gesundheit in der Sendung auftreten sollte.

„Anscheinend hat jemand auf Twitter die erste Ankündigung gesehen“, sagte Cooper und bezog sich auf eine Anzeige, die für die Sendung „Thursday night’s town hall“ am Donnerstagabend wirbt. Er war empört und behauptete, wir hätten Greta Thunberg als Expertin für ein Coronavirus-Panel mit anderen gebucht.“

Aber Cooper bemerkte einen späten Neuzugang in der Aufstellung am Donnerstag, den Kommissar der Major League Baseball, Rob Manfred, der insbesondere auch kein Experte für medizinische Gesundheit ist.

https://nypost.com/2020/05/15/anderson-cooper-defends-greta-thunbergs-town-hall-appearance/

 

Auch die Obamas sind stolz auf Greta

Original auf Twitter

Herzlichen Glückwunsch zur HBCU-Klasse 2020! [Football am College]. Michelle und ich sind so stolz auf dich. Wenn Du die Welt verändern willst, werden wir der Wind in Deinem Rücken sein. Ich kann es kaum erwarten zu sehen, was Du erreichst. (Im Original auf Obamas Antwort klicken, das ist der Link zur Video Ansprache an Greta)

 

Thunbergs Name erreichte am Mittwochnachmittag den Top-Trend auf Twitter, berichtete die New York Post, als Fans und Gegner über die Weisheit stritten, die stets provokative Aktivistin in die Talkshow aufzunehmen.

Thunberg, die 2019 zur Person des Jahres von TIME ernannt wurde, hat die Fracas* bis Donnerstagmorgen nicht kommentiert.

[FRACAS – eigentlich “Failure reporting, analysis, and corrective action system” = „System zur Meldung, Analyse und Korrektur von Fehlern“, Management Tool in Prozessen und Projekten.

Hier als Wortspiel wohl eher mit „ buntem sprachlichen Treiben, Missverständnissen im Milieu und totalem Chaos“ anzudenken, auf Linguee.de, der Übersetzer]

Die schwedische Schülerin machte sich bei einigen beliebt und entfremdete andere, als sie in ihrer Rede den Vereinten Nationen im vergangenen Jahr einen strengen Verweis erteilte: „Meine Botschaft ist, dass wir Sie beobachten werden“, warnte Thunberg den Saal voller Weltführer. „Ihr alle kommt zu uns jungen Leuten, der Hoffnung wegen, wie könnt ihr es wagen? Du hast meine Träume und meine Kindheit mit deinen leeren Worten gestohlen und doch bin ich einer der Glücklichen… “

Präsident Donald Trump hat vorgeschlagen, das Greta Thunberg psychologische Hilfe zur Bewältigung ihrer Wutanfälle bekommt.

https://dailycaller.com/2020/05/14/teenage-climate-change-activist-greta-thunberg-expert-cnn-covid-19-coronavirus-town-hall/

 

Nachsatz:

Greta Thunberg sagt, es sei „äußerst wahrscheinlich“, dass sie an Coronavirus leidet

Greta Thunberg sagte am Dienstag, es sei „äußerst wahrscheinlich“, dass sie sich kürzlich bei einem Ausflug nach Europa mit COVID-19 infiziert habe – aber „im Grunde genommen erholt hat“.

Die 17-jährige schwedische Klimaaktivistin sagte, sowohl sie als auch ihr Vater, der sie auf der Brüsseler Etappe ihrer Reise begleitete, hätten Symptome im Zusammenhang mit Coronavirus erfahren.

„Ich fühlte mich müde, hatte Schauer, Halsschmerzen und hustete. Mein Vater hatte die gleichen Symptome, aber viel intensiver und mit Fieber “, schrieb sie auf Instagram.

….

https://nypost.com/2020/03/24/greta-thunberg-says-its-extremely-likely-she-has-coronavirus/

 

Übersetzung und Zusammenstellung Andreas Demmig




Klima und Schein­wissenschaft, Teil 1

Im ersten Teil der vorliegenden Abhandlung erinnern wir an die Grundbegriffe «Wetter» und «Klima», sowie an die fundamentale Funktion, die das als angebliches Klimagift verleumdete Gas CO2 in der belebten Natur spielt.

  1. Einleitung

Nicht die Tatsachen beunruhigen die Menschen, sondern das, was sie über die Tatsachen meinen.

Epiktet

Frage aus dem Weltall an den Planeten Erde: Welches Wetter habt ihr bei euch? Antwort: «Strahlender Sonnenschein und über 30° Celsius warm». Da kommt noch eine Antwort: «Erzähl doch keinen Unsinn. Es ist kalt und schneit, und obendrein ist es Nacht».

Offensichtlich könnten beide recht haben. Es gibt kein universales Welt-Wetter. Genau so wenig gibt es ein universales Welt-Klima. Ja, es gibt überhaupt kein Klima an sich, sondern mehr oder weniger vernünftige Möglichkeiten, ein solches zu definieren und wenn, dann unvermeidlich bezogen auf geeignet gewählte Regionen und zwingend mit Begriffen der mathematischen Statistik.

Inspiriert durch dubiose Wissenschaft hat die UNO das internationale Gremium IPCC geschaffen, das «International Panel on Climate Change», auf deutsch den «Weltklimarat», der sich mit angeblichen Problemen bei der ziemlich fiktiven Größe «Weltklima» beschäftigt und den nationalen Regierungen Empfehlungen abgibt, wie sie das «Klima schützen» können.

Für die Politik ist das Klima durch die Durchschnitts-Temperatur bestimmt, die aus weltweit gesammelten Messwerten berechnet wird – auf ein halbes Grad C genau! Dabei ist eine solche Definition und Methode ungeachtet aller politischen Prominenz gelinde gesagt, ein bisschen eigenartig.

Gemäß einem in der Politik gültigen Dogma erwärmt sich das Klima der Erde in einem gefährlichen Ausmaß, verursacht durch das friedliche Gas CO2, und gewissen Kreisen ist es gelungen, mit dieser naturwissenschaftlich wenig fundierten Behauptung die Menschheit zu tyrannisieren. Dabei verdienen einige Matadoren der Klima-Agitation exzellent mit dem CO2-Dogma, das eigentlich auf pseudowissenschaftlichen Theorien beruht, ein krasser Fall von «fake science».

  1. Wetter und Klima

Definieren wir zunächst den Begriff «Klima» in einer Weise, in der die üblichen seriösen Definitionen mit enthalten sind:

«Mit dem Begriff Klima bezeichnet man meteorologische Daten, die über geeignet gewählte zeitliche Abschnitte und über geeignet gewählte Regionen gesammelt und statistisch ausgewertet wurden».

Als zeitliche Abschnitte wählt man naheliegender Weise solche des bürgerlichen Kalenders – Monate und Jahre, als Regionen solche, in denen das Wettergeschehen gleich oder jedenfalls ähnlich ist.

Wichtige Wetter-Daten sind insbesondere die Niederschläge und die Temperatur. Elementare Verfahren, der statistischen Auswertung sind die Berechnung von Durchschnittswerten, sowie Intervalle zwischen Höchst- und Tiefst-Werten. Was damit gemeint ist, wollen wir am Beispiel der beiden Städte Zürich und Chicago illustrieren:

https://de.wikipedia.org/wiki/Zürich#Klimahttps://de.wikipedia.org/wiki/Chicago#Klima

Die roten Balken zeigen die Differenz zwischen den über 30 Jahre ermittelten durchschnittlichen Höchstwerten und den durchschnittlichen Tiefstwerten für den betreffenden Monat.

Im Sommer ist es im typischen Fall in Chicago heißer als in Zürich. Zugleich sind die Winter im nördlichen Nord-Amerika markant kälter, als in West-Europa mit seinem dank des Golf-Stromes mitteleuropäisch gemäßigten Klima. Beide Extreme des nordamerikanischen Klimas sind nicht angenehm. Im einzelnen Fall kann es jedoch umgekehrt sein und natürlich der Durchschnitt der Extremwerte übertroffen oder unterboten werden, wobei es in Chicago im Juli sogar kälter als 17°C oder wärmer als 29°C sein kann.

Die Durchschnittstemperatur? Dafür interessiert sich nun wirklich niemand, auch wenn diese zunehmen sollte – im Winter? Bitte sehr. Subjektiv unangenehm ist im Sommer v.a. die Luftfeuchtigkeit, und falls es den Treibhauseffekt geben sollte, dann würde dieser voll umfänglich von dieser Luftfeuchtigkeit besorgt, da eben Wasserdampf ein viel breiteres Spektrum der infraroten Strahlung streut. CO2 hätte neben diesem Wasserdampf nichts zu melden.

Der Begriff «Klima» bezieht sich, wie das Wetter, zunächst auf einen Ort, die Messstation und auf die 12 Monate des bürgerlichen Kalenders. Bereits innerhalb einer Stadt könnte man an verschiedenen Orten ein leicht unterschiedliches Klima errechnen. Nicht einmal pro Monat macht es Sinn, einen einzelnen Durchschnitts-Wert der Temperatur zu verwenden, sondern besser Temperatur-Intervalle.

Graphiken von der gezeigten Art findet man in Wikipedia zu jeder größeren Stadt. Sie werden von der lokal zuständigen meteorologischen Anstalten nach einem weltweit für alle Städte gültigen Schema erstellt. (Wer im speziellen Fall der Schweizer Städte die Quelle «Meteo Schweiz» anklickt, erlebt nebenbei eine amüsante Panne, nämlich die Mitteilung «Seite nicht gefunden», und wer beim Bundesamt für Meteorologie nachfragt, bringt zwar ein paar Abteilungen auf Trab, bekommt aber keine Antwort, wer Urheber dieser Seite sei!)

Statt mit der erwähnten Differenz zwischen den über 30 Jahre ermittelten Durchschnittswerten würde man mit einem etwas profunderen Ansatz der mathematischen Statistik, d.h. der Disziplin mit absoluter Deutungshoheit auf diesem Gebiet (und auf vielen anderen!) das Klima mit statistischen Verteilungen der verschiedenen Variablen beschreiben. Aber das übliche pragmatische Verfahren, das sich einfach anwenden und verstehen lässt, gibt eine gute Idee vom Begriff Klima.

Die Dauer von 30 Jahren, aus denen man die Wetterdaten verwendet, um daraus die Werte des Klimas zu berechnen, sind keine natürliche Größe, sondern eine organisatorische, dank der sich die verschiedenen regionalen Klimata vergleichen lassen. Daneben kann man wiederum mit Methoden der mathematischen Statistik prüfen, ob echte periodische Schwankungen vorkommen.

Eine weitere maßgebende Größe des lokalen Klimas neben den Temperatur-Intervallen sind die kumulierten monatlichen Niederschläge, zusätzlich zur Temperatur die Essenz sowohl des Wetters, wie auch des Klimas. Niederschläge, und bereits deren Voraussetzung – Wolken – sind ein Element, das erst recht eine simple, auf die Temperatur reduzierte Darstellung des Klimas als unsinnig entlarvt. Damit Wolken entstehen, muss zuerst Wasser verdunsten, v.a. über dem Meer, ein Prozess, der enorm viel Energie benötigt und dadurch das Meer kühlt. Die Wolken behindern danach massiv die Einstrahlung durch die Sonne, und Regen kühlt den Boden – im typischen Fall – oder erwärmt ihn unter speziellen Umständen.

Interessant ist auch, die Niederschläge der beiden Städte Manchester in GB und Beirut zu vergleichen, im Jahres-Durchschnitt fast gleich. Nur regnet es in Manchester ziemlich regelmäßig über das ganze Jahr, in Beirut hingegen an wenigen Tagen gewaltige Mengen.

Mit einer noch einfacheren, jedoch praktischen Definition des Begriffs Klima könnte man sich auf die Verteilung der Niederschläge beschränken, ergänzt durch die Angabe, ob die Temperatur unter 0° C, d.h. unter den Gefrierpunkt fallen kann, sodass dort nur Pflanzen vorkommen, die das aushalten. Auch diese einfache Version des Begriffs «Klima» würde sich auf geeignete Regionen beziehen.

Nicht etwas höhere Temperaturen wären eine Gefahr, sondern Kälte und Trockenheit. Man schaue sich mal die Bilder von Landschaften mit extrem kalten Wintern an, wie sie z.B. von alten holländischen Meistern im 17. und auch noch im 19. Jahrhundert gemalt wurden, von Breughel, Avercamp und vielen anderen, beeindruckend anzusehen, aber ohne Schaden für die Menschheit und im Moment nicht mehr aktuell.

https://commons.wikimedia.org/wiki/File:Circle_of_Pieter_Bruegel_the_Elder_-_Winter_Landscape_with_a_Bird_Trap.jpg Circle of Pieter Bruegel the Elder / Public domain

Kalte Winter dieser Art werden von einigen Gelehrten als Wirkung des «Maunder-Minimums» erklärt, d.h. einer etwas geringeren Einstrahlung durch die Sonne. Es bleibt jedoch offen, ob nicht auch damals ein anhaltender Zufluss kalter Luft aus der Polarregion so kaltes Wetter mit oder sogar maßgeblich verursacht hat.

Der Jahrtausend-Winter von 1708/1709 führte zu großer Hungersnot. Ältere Personen mögen sich noch an den Winter 1962/63 erinnern. Auf gefrorenen Seen und Flüssen herum zu laufen war für jüngere Leute eine unterhaltende Abwechslung, die Sterblichkeit, v.a. unter älteren war dafür höher. Damals befürchtete man allgemein eine neue Eiszeit. Kein CO2 hätte etwas dagegen ausrichten können. Item, wenn schon, lieber «Klima-Erwärmung» als eine solche Kalamität.

Der Begriff «Klima» ist in der hier vorgestellten Art als stabile Größe definiert. Dabei gibt es durchaus ein legitimes Bedürfnis, mögliche Änderungen zu erfassen – die «Klima-Veränderung», von der alle reden und nur wenige eine seriöse Idee davon haben, wie man eine solche beschreiben könnte. Änderungen des Klimas könnte man mit dem hier vorgestellten Verfahren erkennen, indem man die Daten, statt für 30 Jahre, für jedes einzelne Jahr jeweils über die Monate aggregiert.

Aber Achtung, selbst wenn unterschiedliche numerische Werte für die aus einem Jahr ermittelten lokalen Klima-Daten ausgewiesen werden im Vergleich zu den aus 30 Jahren ermittelten, heißt das nicht zwingend, dass diese unterschiedlichen Werte einen signifikanten Unterschied und somit eine echte Änderung des Klimas beweisen.

Der Begriff «signifikanter Unterschied» zwischen 2 oder mehr Serien gemessener Werte ist zentral in der mathematischen Statistik, z.B. über ein erstes und ein zweites Geschehen (oder allgemein zwischen zwei unterschiedlichen Serien von Messwerten). Ein postulierter signifikanter Unterschied wird nicht als absolute Gewissheit formuliert, sondern mit einer Wahrscheinlichkeit, quasi als mehr oder weniger plausible Vermutung.

Die nachfolgende Graphik zeigt einen zwar konstruierten, aber möglichen Verlauf zweier Zeit-Reihen der Temperatur über einen bestimmten Zeit-Abschnitt, z.B. die monatliche Durchschnitts-Temperatur über 7 Monate, rot markiert im ersten, blau markiert im zweiten Jahr.

Die im ersten Jahr mit roten Punkten markierte Temperatur war im ersten Zeit-Abschnitt niedriger als im Jahr danach, im zweiten und dritten Zeit-Abschnitt war es umgekehrt usw. Bei einem solchen Verlauf wird die Durchschnittstemperatur in einem der beiden Jahre zufällig höher sein als im anderen, aber sicher nicht signifikant. (Ein solcher, hier ohnehin nur zur Demonstration skizzierter Temperaturverlauf ohne markante saisonale Schwankungen ist z.B. für die Tropen denkbar).

Es ist naheliegend, dass in Agglomerationen wegen des zunehmenden Energie-Verbrauchs und der daraus folgenden Abwärme höhere Werte für die Temperatur zu erwarten sind. Dieser Teil ist durch die Zivilisation verursacht. Schädlich ist daran nichts, problematisch nur, dass Vorräte wertvoller Energie in danach nicht mehr brauchbare Abwärme niedriger Temperatur umgewandelt werden.

Wie erwähnt, stammen die für ein Klimadiagramm gesammelten Daten von einer bestimmten Wetterstation. In der nahen Umgebung würde man «ähnliche» Werte finden, ja sogar über ausgedehnten Gebiete, je nachdem, wie robust man den Begriff «ähnlich» anwendet. Über die ganze Welt verteilt wurden auf diese Weise die nachfolgend abgebildeten Klima-Zonen ermittelt:

https://de.wikipedia.org/wiki/Effektive_Klimaklassifikation#Klimaklassifikation_nach_Köppen_und_Geigerhttps://creativecommons.org/licenses/by/4.0/deed.en

Die Klima-Zonen sind maßgeblich durch die Niederschläge bestimmt und in zweiter Linie, wie erwähnt dadurch, ob die Temperatur unter den Gefrierpunkt fallen kann, was die Physiologie einer Pflanze herausfordert. Die Vegetation bietet denn auch eine exzellente Möglichkeit, Klimazonen zu definieren.

Auffällig auf der Karte sind die rot gefärbten Gebiete – trockene Wüsten; trocken nicht weil es dort zu heiß ist, sondern weil es selten regnet, das typische Merkmal einer Wüste. Soll man dieses Klima «schützen», wie von einem die Politik beherrschenden Dogma gefordert wird? Skorpione und ein paar andere exotische Kreaturen wären bestimmt glücklich. Eine sinnvolle Aufgabe für die Menschheit ist das nicht, aber zum Glück auch gar nicht möglich.

Bei all diesen erwähnten seriösen Beschreibungen des Klimas ist nie von der «Durchschnittstemperatur» die Rede. Die Durchschnittstemperatur in Zürich Affoltern? Man könnte sie ausrechnen. Aber das wäre kein interessanter Wert, wie übrigens immer wieder in allen möglichen Zusammenhängen. Der Durchschnittswert aus einer Gesamtheit ist oft nichtssagend oder irreführend.

Vermutlich ist es in den letzten Jahren in West-Europa insgesamt ein wenig wärmer geworden, wie man aus den Ergebnissen verschiedener Wetter-Stationen schließen kann, aber nicht zum ersten Mal in der jüngeren Geschichte unseres Kontinents. Eine außerordentliche lokale Erwärmung wird im typischen Fall kompensiert durch kühlere Luft in anderen Gebieten, denn oft entsteht das Wetter nicht durch Prozesse in der lokalen Atmosphäre, sondern wird durch Winde heran transportiert, z.B. feuchte Luft vom Ozean, heiße aus Afrika, kalte Luft aus der Polarregion; advehiert jeweils nicht auf geradem Weg, sondern in einer zirkulären Bewegung um ein Hoch- oder Tiefdruckgebiet herum, wie man jeweils aus den Wetterkarten ersieht. Welches Wetter gerade auf dem Programm ist, lässt sich allenfalls für 2 oder 3 Tage voraus sagen, als Entwicklung des Klimas manchmal mit kritischem Vorbehalt vermuten. Wiederholen sich solche Entwicklungen des Wetters, werden sie allenfalls zu einer Basis des Klimas.

  1. CO2, Nahrung der Pflanzen

CO2 hat nichts mit dem Wetter und auch nichts mit dem Klima zu tun. Aber bei den Ruf schädigenden Machenschaften durch die Politik muss man wohl die Aufgabe dieses Gases, die Grundlage von allem Leben, ein bisschen erklären. CO2 entsteht durch Verbrennung von Kohlenstoff. Das gelehrte Wort statt Verbrennung heißt «Oxydation», ein Prozess, der auch bei niedrigeren Temperaturen stattfinden kann, insbesondere im Körper von Mensch und Tier, deren Nahrung aus Kohlenstoff-Verbindungen besteht und die aus dem Oxydations-Prozess ihre Energie beziehen.

Die Tiere atmen das in ihrem Körper produzierte CO2 aus, das danach wieder den Pflanzen als Grundnahrung dient. Sie beziehen dieses Gas aus der Atmosphäre, Bäume z.B. über die Blätter, und wandeln dort das CO2 in die Kohlenstoff-Verbindungen um, die die Pflanzen für ihr Wachstum benötigen. Diese bestehen im Wesentlichen aus umgewandeltem CO2 und Wasser. Der Prozess, durch den die Pflanzen das CO2 in Kohlenstoff-Verbindungen umwandeln, wird als «Photosynthese» bezeichnetet. Diese nutzt Energie des Sonnenlichts. Pflanzen sind Nahrung für Mensch und Tier.

Die nachstehende Graphik stellt diesen Austausch des Kohlenstoffs zwischen Pflanzen und Tieren dar – ein «Kreislauf».

Den erdgeschichtlich wohl ältesten Prozess haben wir mit dem grauen Feld rechts unten angedeutet. Die wichtigste Form von Kalkstein, entsteht, indem im Meer gelöstes CO2 und Kalzium sich zu CaCO3 verbinden, d.h. der Erde und dem Meer für die restliche Dauer des Planeten CO2 entziehen, von dem es somit früher sehr viel mehr gab. Ausgedehnte Kalk-Gebirge entstanden in Gebieten, wo einst Meer gewesen war.

Ebenfalls aus alter Zeit stammen die fossilen Ablagerungen von Kohlenstoff in Form von Kohle, Erdöl und Erdgas. Die übrigen dargestellten Prozesse laufen auch in unserer Zeit weiter.

Gemäß überwiegender Ansicht ist die größte Reserve an ungebundenem CO2 im Meer gelöst, je kälter das Wasser, desto mehr. Wo sich das Wasser erwärmt, gibt das Meer CO2 an die Atmosphäre ab oder nimmt solches auf, wenn sich das Wasser ab kühlt.

Pflanzen an Land absorbieren in der Atmosphäre vorhandenes CO2 über die Blätter, spalten die CO2-Moleküle mit Hilfe des Sonnenlichts in deren Atome auf, behalten den Kohlenstoff als Bau-Substanz und geben den Sauerstoff O2 an die Atmosphäre zurück.

Pflanzen dienen den Tieren, insbesondere auch den Menschen als Nahrung. Sie verbrennen die aus der Nahrung gewonnenen Kohlenstoff-Verbindungen in ihren Zellen und verwenden die gewonnene Energie, um ihre Körpertemperatur aufrecht zu erhalten oder über die Muskeln ihre Glieder zu bewegen oder vielerlei biochemische Prozesse abzuwickeln. Das Abfallprodukt ist CO2, das die Tiere über ihre Atmung an die Atmosphäre zurück geben. Der Verbrennungsmotor in einem Auto macht das gleiche, nur in primitiver Form. Zudem benötigt er große Mengen an fossilem Kohlenstoff.

Die quantitativ bedeutendsten «Tiere» sind Mikro-Organismen, die dafür sorgen, dass abgestorbene Pflanzen «verrotten», so dass aus ihnen wieder CO2 entsteht.

Der Kreislauf ist nicht geschlossen. Die Pflanzen benötigen eine winzige Dosis der täglich nachfließenden Energie der Sonne für die Photosynthese. Die mit dieser von den Pflanzen akkumulierte Energie wird später über den Metabolismus der Tiere und Mikroorganismen in Form von Wärme niedriger Temperatur an die Atmosphäre zurück gegeben.

Wasser nehmen die Pflanzen über die Wurzeln auf und ebenso die übrigen benötigten Stoffe, insbesondere Stickstoff, die aber im vorliegenden Zusammenhang keine Rolle spielen.

Es gibt gewisse, je nachdem bereits durchgeführte oder mindestens geplante Maßnahmen, CO2 in irgendwelchen geologischen Formationen unwiderruflich der Atmosphäre zu entziehen, zwecks angeblichem «Klima-Schutz». Wenn man sich daran erinnert, dass CO2 Grundnahrung der Pflanzen und damit direkt oder indirekt aller Lebewesen ist, kann man solche Maßnahmen nur als bösartigen Zynismus verurteilen.

Über den Autor: Werner Furrer hat an der Universität Basel Mathematik und Physik studiert und, 1969 mit dem Diplom abgeschlossen. In späteren Jahren hat er zusätzlich ausgewählte Themen in Ökonomie und Jurisprudenz studiert. Der Autor hat in verschiedenen Unternehmen der Privatwirtschaft und staatlicher Verwaltung als Informatiker gearbeitet und später im Bereich mathematische Statistik, Operations Research, sowie in der Versicherungs-Wirtschaft. Dazwischen hat er als Sachbuch-Autor Bücher und Zeitungs-Artikel verfasst. Er unterhält verschiedene Webseiten, u.a. www.system-denken.ch sowie www.klima-schwindel.com.