1

La Niña und das Bundesverfassungsgericht – von Fritz Vahrenholt

Globale Temperaturkurve im kalten April 2021
Die Abweichung der globalen Mitteltemperatur der satellitengestützten Messungen vom Durchschnitt der Jahre 1991 – 2020 ging im April 2021 weiter auf – 0,05 Grad Celsius zurück. Noch wirkt sich die kühle La Niña-Situation der letzten Monate aus. Laut der US- amerikanischen Wetter- und Ozeanografie­behörde NOAA wird La Niña mit 80%iger Wahrscheinlichkeit von Mai bis Juli beendet sein. Allerdings erwartet die Behörde im Herbst den Wiederbeginn einer neuen La Niña.

Der Durchschnitt der Temperaturerhöhung beträgt 0,14 Grad Celsius pro Jahrzehnt. Die Modellrechnungen, auf denen die Empfehlungen des IPCC beruhen, kommen auf einen doppelt so hohen Temperaturanstieg für den gleichen Zeitraum. (siehe nächste Grafik, Quelle: R.Spencer 2021). Diese eklatante Abweichung von der realen Temperaturentwicklung ist politisch bedeutsam, weil die Prognosen der Modelle zur Grundlage von weitreichenden Entscheidungen, wie z.B. Verfassungsgerichtsurteilen, gemacht werden.

Ein Verfassungsgerichtsurteil, das sich auf fragwürdige Quellen stützt

Mit Beschluss vom 24.März hat das Bundesverfassungsgericht auf Klage einiger Einzelpersonen wie dem Schauspieler Hannes Jänicke, Luisa Neubauer (Fridays for future), Prof. Volker Quaschning, Josef Göppel (CSU und Energiebeauftragter des Bundesministeriums für wirtschaftliche Zusammenarbeit) entschieden, dass das Klimaschutzgesetz vom 12. Dezember 2019, verfassungswidrig ist, weil „hinreichende Maßgaben für die weitere Emissionsreduktion ab dem Jahre 2031 fehlen“.

Wie kommt das Gericht zu diesem Ergebnis?

In der Beschreibung der „tatsächlichen Grundlagen des Klimawandels“ (Ziff.16-29) und den „tatsächlichen Grundlagen des Klimaschutzes“ (Ziff.31-37) bezieht das Gericht sich im Wesentlichen auf vier Quellen: den IPCC, das Buch Rahmstorf/Schellnhuber „Der Klimawandel“, das Umweltbundesamt und den Sachverständigenrat für Umweltfragen SRU.
Das Gericht stellt zu den Grundlagen des Klimawandels fest:

zwischen der Gesamtmenge an emittierten klimawirksamen Treibhausgasen und dem Anstieg der mittleren Oberflächentemperatur besteht eine annähernd lineare Beziehung“ (Ziff.19). „Ohne zusätzliche Maßnahmen zur Bekämpfung des Klimawandels gilt derzeit ein globaler Temperaturanstieg um mehr als 3 °C bis zum Jahr 2100 als wahrscheinlich„.

Hier ignoriert das Gericht die erheblichen Unsicherheiten über Rückkopplungseffekte, wie etwa der Wolken, die das IPCC selbst dazu führt, eine Spannbreite von 1,5 bis 4,5 Grad Celsius bei Verdoppelung der CO2-Konzentrationen von 285 ppm (1.860)  auf 570 ppm 2.100 anzugeben.
In Ziffer 20 greift das Gericht die unter Klimaforschern umstrittene Annahme Stefan Rahmstorfs auf, wonach es Hinweise gibt,

daß infolge des Abschmelzens des Grönländischen Eisschildes und anderer Frischwassereinträge in den Nordatlantik die thermohaline Zirkulation des Nordatlantiks (atlantische Umwälzbewegung) an Stärke verliert. Eine starke Abschwächung hätte unter anderem große Auswirkungen auf die Wettersysteme in Europa und Nordamerika. Der Nordatlantikraum würde sich rasch um mehrere Grad abkühlen.“

Hier beruft sich das Gericht auf eine umstrittene Außenseitermeinung. Hätte es auf die Web-Seite des Max-Planck-Instituts für Meteorologie in Hamburg geschaut, hätte es auf die Frage “ kann die globale Erwärmung zum Abriss des Golfstroms führen?“ die Antwort gelesen „Die kurze Antwort ist: Nein.

Auch die Schellnhuberschen Kipppunkte haben es dem Gericht angetan.

Als eine besondere Gefahr für die ökologische Stabilität werden sogenannte Kipppunktprozesse im Klimasystem angesehen, weil diese weitreichende Umweltauswirkungen haben können. Kippelemente sind Teile des Erdsystems, die eine besondere Bedeutung für das globale Klima haben und die sich bei zunehmender Belastung abrupt und oft irreversibel verändern. Beispiele sind die Permafrostböden in Sibirien und Nordamerika, die Eismassen in den polaren Zonen, der Amazonasregenwald und bedeutende Luft- und Meeresströmungssysteme.„(Ziffer 21)

Wahrscheinlich hatten die Richter das Interview mit Jochem Marotzke, Doyen der deutschen Klimaforscher vom Hamburger Max-Planck-Institut für Meteorologie mit der FAZ nicht gelesen:

FAZ: Welcher Kippunkt macht Ihnen am meisten Sorgen?

Marotzke:  Keiner

Auch bei den Extremereignissen entspricht das Gericht kaum den aktuellen Erkenntnissen. Selbst der Deutsche Wetterdienst hatte 2018 erklärt – wie der IPCC noch 2013 – dass es schwierig sei, eine Zunahme von Extremwetterereignissen in Deutschland statistisch nachzuweisen. Und dies gilt auch – nach wie vor – weltweit für Dürren, Starkregenereignisse, Hurrikane, Tornados. Im Kapitel IV-Extremwetter  unseres Buches „Unerwünschte Wahrheiten“ haben wir 488 Literaturstellen zitiert, die die weitverbreitete Meinung, Extremwetter hätten zugenommen, widerlegen.

Als Widerlegung der Aussage des Gerichts (Ziffer 27):

Als eine besondere Herausforderung gilt die in Deutschland beobachtete Zunahme von Trockenheit und Dürre. Die hiermit einhergehende Austrocknung der Böden hat vor allem für die Landwirtschaft Bedeutung“, sei die Grafik der Sommerniederschläge gezeigt:

Aber nicht nur die Sommerdaten widerlegen diese Aussage des Gerichts, die Winterdaten ebenso.

Hier gibt es sogar einen Anstieg der Niederschläge. Quelle : hier

Es gibt auch keinen Dürreanstieg  europaweit und sogar weltweit („Unerwünschte Wahrheiten“, S. 168). In Ziffer 28 des Beschlusses heißt es :

Der Klimawandel ist zudem bedeutende Ursache von Flucht und Migration. Menschen verlassen ihre Heimat auch in Folge von Naturkatastrophen und aufgrund langfristiger Umweltveränderungen wie etwa vermehrter Dürren und des Anstiegs des Meeresspiegels.“(Quellenangabe Rahmstorf/Schellnhuber)

Benjamin Schraven vom Deutschen Institut für Entwicklungspolitik schreibt zu diesem Sachverhalt :

„Vieles deutet daraufhin, dass die immer noch weit verbreitete Annahme eines Automatismus zwischen Klimawandel und Migration stark angezweifelt werden muss. Ein solch genereller Ökodeterminismus ist empirisch nicht haltbar.“

Das folgende unzureichende Verständnis von Quellen und Senken des CO2 in Ziffer 32 hat riesige Konsequenzen für den Urteilsspruch:

„Es wird angenommen, dass ein annähernd linearer Zusammenhang zwischen der Gesamtmenge der über alle Zeiten hinweg kumulierten anthropogenen CO2-Emissionen und der globalen Temperaturerhöhung besteht. Nur kleine Teile der anthropogenen Emissionen werden von den Meeren und der terrestrischen Biosphäre aufgenommen„.

Das ist nun objektiv falsch. Aber wer hat das dem Gericht aufgeschrieben, denn es geht so weiter?

Der große Rest anthropogener CO2-Emissionen verbleibt aber langfristig in der Atmosphäre, summiert sich, trägt dort zur Erhöhung der CO2-Konzentration bei und entfaltet so Wirkung auf die Temperatur der Erde. Im Gegensatz zu anderen Treibhausgasen verlässt CO2 die Erdatmosphäre in einem für die Menschheit relevanten Zeitraum nicht mehr auf natürliche Weise. Jede weitere in die Erdatmosphäre gelangende und dieser nicht künstlich wieder entnommene (unten Rn. 33) CO2-Menge erhöht also bleibend die CO2-Konzentration und führt entsprechend zu einem weiteren Temperaturanstieg. Dieser Temperaturanstieg bleibt bestehen, auch wenn sich die Treibhausgaskonzentration nicht weiter erhöht.„(Ziffer 32)

Selbst das IPCC würde dem widersprechen, denn es werden zur Zeit etwa 4,7 ppm jährlich durch anthropogene CO2-Emissionen der Atmosphäre hinzugefügt, aber etwas mehr als die Hälfte des Zuwachses wird durch Ozeane und Pflanzen aufgenommen. (Das Gericht s.o.: „nur kleine Teile“!) Da die Aufnahme von Pflanzen und Ozeanen proportional der CO2-Konzentration in der Atmosphäre erfolgt, hätte eine deutliche Emissionsreduktion – wie etwa eine Halbierung –  in der Zukunft sehr wohl  eine Konzentrationsminderung in der Atmosphäre zur Folge, denn die durch Pflanzen und Ozeane aufgenommenen etwa 2,6 ppm bleiben vorerst unverändert, auch wenn die CO2– Emission auf 2,35 ppm sinkt.

Aber mit dieser Feststellung hat das Gericht die Voraussetzung für den CO2-Budgetansatz geschaffen:

Daher lässt sich in Annäherung bestimmen, welche weitere Menge an CO2 noch höchstens dauerhaft in die Erdatmosphäre gelangen darf, damit diese angestrebte Erdtemperatur nicht überschritten wird…Diese Menge wird in der klimapolitischen und klimawissenschaftlichen Diskussion als „CO2-Budget“ bezeichnet„.(Ziffer 36).

Und nun fängt das Gericht an zu rechnen und folgt dem Gutachten des sechsköpfigen Sachverständigenrats für Umweltfragen SRU (stellv. Vorsitzende Prof. Claudia Kemfert). Der SRU hatte in seinem 2020-Gutachten auf  Seite 46 das Budget des IPCC von 2018 zur Einhaltung eines Ziels von 1,75 °C mit 800 Gigatonnen CO2 übernommen. Diese Größe teilt der SRU durch die anteilige Bevölkerung und kommt zu 6,7 Gigatonnen CO2, die Deutschland noch ausstoßen darf. Dass die genannten 800 Gigatonnen selbst nach Ansicht des IPCC mit großer Unsicherheit versehen ist, erwähnt das Gericht, rechnet aber weiter mit den 6,7 Gigatonnen. Der Hamburger Klimaforscher Prof. Jochem Marotzke überraschte kurz nach Erscheinen des IPCC-Berichts von 2018 mit der Aussage, dass die zulässige Emission an CO2 sich auf 1.000 Gigatonnen erhöht hätte. Ursache hierfür war die Erkenntnis, dass die Pflanzen der grüner werdenden Erde unvorhergesehenerweise mehr CO2 aufnehmen können als bislang vermutet. Aber das Gericht folgt lieber den Rechnereien des Sachverständigenrats für Umweltfragen.

Legt man als ab 2020 verbleibendes konkretes nationales CO2-Restbudget 6,7 Gigatonnen zugrunde, wie es der Sachverständigenrat für das Ziel ermittelt hat, den Anstieg der mittleren Erdtemperatur mit einer Wahrscheinlichkeit von 67 % auf 1,75 °C zu begrenzen, würde dieses Restbudget durch die in § 4 Abs. 1 Satz 3 Klimaschutzgesetz in Verbindung mit Anlage 2 zugelassenen CO2-Mengen bis 2030 bereits weitgehend aufgezehrt“. (Ziffer 231).

In der Tat legt das Klimaschutzgesetz eine Minderung der CO2 -Emissionen von 0,813 GT in 2020 auf 0,543 GT in 2030 für alle Sektoren Deutschlands von Energie über Industrie, Gebäude, Verkehr und Landwirtschaft fest. Das Gericht summiert die begrenzten Emissionen und kommt zum Ergebnis:

Nach 2030 verbliebe danach von dem vom Sachverständigenrat ermittelten CO2-Restbudget von 6,7 Gigatonnen weniger als 1 Gigatonne. (Ziffer 233) Zur Wahrung der Budgetgrenzen müsste demzufolge nach 2030 alsbald Klimaneutralität realisiert werden.Dass dies gelingen könnte, ist aber nicht wahrscheinlich“. (Ziffer 234)

Und somit kommt das Gericht zum Ergebnis:

Nach der Berechnung des Sachverständigenrats bleibt bei Verfolgung einer Temperaturschwelle von 1,75 °C bei 67%iger Zielerreichungswahrscheinlichkeit nach 2030 allenfalls noch ein minimaler Rest an Emissionsmöglichkeiten, der angesichts des für 2031 noch zu erwartenden Emissionsniveaus kaum für ein weiteres Jahr genügte (oben Rn. 231 ff.). Zur strikten Wahrung des durch Art. 20a GG vorgegebenen Emissionsrahmens wären danach Reduktionsanstrengungen aus heutiger Sicht unzumutbaren Ausmaßes erforderlich, zumal die allgemeine Lebensweise auch im Jahr 2031 noch von hoher CO2-Intensität geprägt sein dürfte und die jährliche Emissionsmenge im Vergleich zu 1990 erst um 55 % reduziert sein wird (vgl. § 3 Abs 1 Satz 2 KSG). … das verfassungsrechtliche Klimaschutzgebot …(würde) die Hinnahme erheblicher Freiheitseinschränkungen fordern, die aus heutiger Sicht kaum zumutbar wären.“ (Ziffer 246)

Der Schlusssatz des Gerichts lautet :

„Der Gesetzgeber muss daher die Fortschreibung der Minderungsziele für Zeiträume nach 2030 jedoch bis zum 31. Dezember 2022 unter Beachtung der Maßgaben dieses Beschlusses näher regeln.“

Wie die Politik, die nach Ansicht des Gerichts 2030 noch vorhandene 1 Gigatonne CO2 auf alle Sektoren und den Zeitraum 2030 bis 2050 verteilt, ist eine unlösbare Aufgabe. Es sei denn, man macht ab 2035 alles dicht.

Damit nähert sich das Gericht der Auffassung eines Klägers, Herrn Prof. Quaschning, der eine Null-CO2-Emission für 2035 gefordert hatte. Um den Ausgangspunkt des Gerichts – Restbudget von 6,7 GT bis 2050 für Deutschland in ein Verhältnis zu setzen: das entspricht etwa einem halbem Jahr CO2-Emissionen der VR China in 2030. Bis zu diesem Zeitpunkt beabsichtigt das Land nach seiner freiwilligen Erklärung zum Pariser Abkommen die Emissionen von 9,5 auf 12,5 GT zu steigern- pro Jahr wohlgemerkt. Das Gericht sieht aber für Deutschland für 2030 bis 2050 ein Restbudget von durchschnittlich 0,05 GT pro Jahr vor, soviel wie allein die Baustoffindustrie emittiert, die naturgesetzlich durch die Zementherstellung CO2 (Kalziumkarbonat-Verarbeitung zu Kalziumoxid) ausstößt.

War schon das Klimaschutzgesetz dazu angetan, erhebliche Wohlstands- und Arbeitsplatzverluste bis 2030 zu bewirken, werden die jetzt zu erwartenden Verschärfungen zu tiefsten Verwerfungen führen. Spät, sehr spät wird man erkennen, dass die Elektrifizierung der Sektoren Wärme, Verkehr und Industrie ohne Gas, ohne die in Deutschland verbotene CO2-Abscheidung, ohne die in Deutschland verbotene Kernenergie nicht zu bewerkstelligen ist. Wind und Solar werden die nötige Energie jedenfalls nicht liefern. Denn es geht praktisch um die Stillegung der Gas-und Ölheizungen, das Verbot von Benzin- und Dieselautos, die Stilllegung des LKW-Verkehrs, des Flugverkehrs, der Raffinerien, der Grundstoffindustrie und die Durchleitung des in Nordstream 1 und 2 ankommenden Erdgases (etwa 0,2 GT CO2 pro Jahr) an unsere Nachbarn , die es dann verbrennen dürfen – das volle grüne Programm also.  Das wird grandios scheitern.

Das Gericht hat einen momentanen, mit hohen Unsicherheiten behafteten Diskussionsstand der Klimadebatte zum Anlaß genommen, den CO2-Knopf in Deutschland für 2030 bis 2050 auf Null zu stellen.

Wir bräuchten dringend eine Abkühlung. Nicht nur in der CO2-Debatte. Sondern auch des Klimas selbst. Nur wenn die von vielen Wissenschaftlern erwartete Abkühlung in diesem Jahrzehnt eintritt, ist der deutsche soziale Rechtsstaat noch zu retten.

Hinsichtlich dieser Abkühlung gegenüber den Modellprognosen bin ich zuversichtlich.

 




Rekordkälte im April und Mai? „Reiner Zufall“ – die Statistik von „Quarks“

Quelle: Facebook, Quarks

„Traue keiner Statistik, die Du nicht selbst manipuliert hast“, soll Churchill gesagt haben. Man kann als richtiger Wissenschaftler Statistiken sehr wohl so darstellen, daß keine intentionale Tendenz darin enthalten ist. In naturwissenschaftlichen Publikationen wird in der Regel auch genau darauf geachtet.

Sobald aber Politik im Spiel ist und es um Geld und Macht geht, oder nur psychologisch um die „richtige“ Weltsicht, wird geschummelt, was das Zeug hält.

Die obenstehende Grafik von Quarks, der Wissenschaftsshow vom WDR, erklärt, warum die aktuelle Rekordkälte nichts mit Klima zu tun habe. Hauptargument: reiner Zufall. Man sieht, daß es in den 1960ern und 70ern häufiger sehr kalt war im April; seit den 80ern aber kaum noch. Die tiefen Temperaturen 2021 seien also nur ein statistischer Ausreißer.

Möglich wäre es; deutlich wahrscheinlicher ist aber, daß die April-Maikälte ein Vorgeschmack auf die kommende Kaltphase ist, die durch den Haupttreiber des Klimas, die solaren Zyklen, verursacht wird.

In den Medien werden interessanterweise zwei Rekord-Bezüge verbreitet: Nach der einen Quelle ist es so kalt wie seit 90 Jahren nicht; nach der anderen wie seit 40 Jahren (s.0.). Der Grund für den Unterschied ist der lokale Bezugsrahmen, zum Beispiel ein Bundesland, ganz Deutschland, Europa, die Nordhalbkugel oder auch die ganze Welt. Da unter der Quarks-Grafik DWD steht, sind hier wohl die deutschen Mittelwerte gezeigt; leider hat man in der Überschrift vergessen zu erwähnen, auf welchen Ort sich die Daten beziehen.

Auch der zeitliche Bezugsrahmen wirft Fragen auf – warum zeigt man nicht die Daten aus dem Kaiserreich und der Weimarer Republik von vor über 90 Jahren?

Was die Wissenschaftlichkeit bzw. die politische Einseitigkeit von Quarks und Moderatorin Mai-Thi Leiendecker angeht, reicht als Hinweis dieses häufig zitierte Video von 2019:




Die Klimaschau von Sebastian Lüning: Peter Ridd – gefeuert, weil er seine wissenschaftliche Meinung gesagt hat




Nach 100 Tagen spricht Joe Biden die Wahrheit aus: Reduzierung der US-Emissionen wird keine Rolle spielen

*Eine gemeinsame Sitzung des Kongresses der Vereinigten Staaten ist eine Versammlung von Mitgliedern der beiden Kammern des Zweikammer-Gesetzgebers der Bundesregierung der Vereinigten Staaten: des Senats und des Repräsentantenhauses.

Im Fox Artikel wird festgestellt:

Laut einer Niederschrift der New York Times äußerte der Präsident:„ Die Vereinigten Staaten verursachen, wie Sie alle wissen, weniger als 15 Prozent der Kohlenstoffemissionen. Der Rest der Welt macht 85 Prozent aus. Deshalb habe ich mich verpflichtet, dem Pariser Abkommen wieder beizutreten, denn wenn wir alles perfekt machen, wird  es keine Rolle spielen. ”

https://www.nytimes.com/2021/04/29/us/politics/joe-biden-speech-transcript.html

Etwa nach zwei-Drittel, hier das Original:

Look, the climate crisis is not our fight alone. It’s a global fight. The United States accounts, as all of you know, for less than 15 percent of carbon emissions. The rest of the world accounts for 85 percent. That’s why I kept my commitment to rejoin the Paris Accord, because if we do everything perfectly, it’s not going to matter. I kept my commitment to convene a climate summit right here in America with all the major economies of the world: China, Russia, India, European Union. I said I would do it in my first hundred days.

Auch das folgt noch:

… Und wir werden nicht ignorieren, was unsere Geheimdienstagenten heute als die tödlichste terroristische Bedrohung für unser Heimatland eingestuft haben: Weiße Vorherrschaft ist Terrorismus….

„Das war ein Knüller, der am Mittwochabend unerwähnt blieb. Mit nur wenigen schlecht gewählten Worten hat Biden jede Rechtfertigung für den Green New Deal, der eine zentrale Rolle in seinem amerikanischen Beschäftigungsplan in Höhe von 2,3 Billionen US-Dollar spielt und zweifellos unsere Wirtschaft gefährdet, völlig gestürzt. “

„Und vielleicht nur einmal in seinem Leben hatte Joe Biden vollkommen recht. Selbst wenn das Weiße Haus mit Biden unsere Wirtschaft in Mitleidenschaft zieht, jeden letzten Bergmann und Ölbohrarbeiter arbeitslos macht und die Produktion und den Verbrauch fossiler Brennstoffe in den USA senkt, wird es die Kurve der steigenden globalen Emissionen kaum beeinflussen. “

„Es ist der Rest der Welt, um den wir uns Sorgen machen müssen. Die EIA geht davon aus, dass die Emissionen aus Nicht-OECD-Ländern zwischen 2018 und 2050 um je 1% pro Jahr steigen werden. China macht heute 28% der weltweiten Kohlenstoffproduktion aus; Indien produziert 7%. Die USA tragen, wie Biden korrekt feststellte, nur 15% bei. “

China ist führend bei den Entwicklungsländern der Welt, die 65% der gesamten globalen Emissionen ausmachen (siehe unten, mit etwa 22 Milliarden Tonnen CO2), wobei diese Länder kein Interesse und keinen Wunsch haben, den von den Industrieländern der Welt durchgeführten wirtschaftlichen Selbstmordprogrammen zur Emissionsreduzierung zu folgen.

https://www.bp.com/content/dam/bp/business-sites/en/global/corporate/pdfs/energy-economics/statistical-review/bp-stats-review-2020-co2-emissions.pdf

Quelle WUWT aus BP.com, Anteilige CO2 Emissionen ausgewählter Länder

Unabhängig davon, was die USA und die EU vorschlagen
(die Demokraten der USA wollen bis 2030 die CO2 Emissionen um 50% ggü. dem Niveau von 2005 senken, die EU will Reduzierung um 55% bis 2030 gegenüber dem Stand von 1990),
wird der Anstieg der globalen Emissionen unvermindert fortgesetzt. Es ist anzumerken, dass Deutschland, das mit Abstand größte Emissionsunternehmen der EU, sein Emissionsminderungsziel für das Jahr 2020 um mehr als den Faktor zwei nicht erreicht hat.

Die gegenwärtigen weltweiten Gesamtemissionen (nachstehend mit rund 34 Milliarden Tonnen CO2 angegeben) werden bis zum Jahr 2030 um weitere Milliarden Tonnen zunehmen, selbst wenn die USA und die EU viele Milliarden Dollar und Euro für wirtschaftlich zerstörerische Anstrengungen ausgeben und dabei so tun, als ob sie die Welt vom „Klimawandel“ retten könnten.

Quelle WUWT aus BP.com, Anstieg der weltweiten CO2 Emissionen

Im Zeitraum von 2007 bis 2019 haben die USA die Emissionen um über 900 Millionen Tonnen CO2 reduziert, hauptsächlich durch die Verwendung von mehr Erdgas als Ersatz für Kohlebrennstoff, wodurch die Energiekosten gesenkt und die Energieeffizienz erhöht wurden. Die EU hat in diesem Zeitraum auch die Emissionen um rund 900 Millionen Tonnen CO2 gesenkt, vor allem durch den vorgeschriebenen Einsatz teurerer erneuerbarer Energien, die ihre Stromtarife zu den höchsten der Welt getrieben haben.

Es war angemessen für Biden, seiner Rede eine „Wahrheit“ zu verleihen, indem er die völlige Sinnlosigkeit seines Programms anerkannte, das die USA aufforderte, kostspielige und ineffektive Anstrengungen in Bezug auf seinen lächerlichen Vorschlag zur Emissionsreduzierung für das Jahr 2030 zu unternehmen.

https://wattsupwiththat.com/2021/05/01/huge-change-in-bidens-april-28-speech-u-s-emission-reductions-dont-matter/

Übersetzt durch Andreas Demmig




Der sich abzeichnende Thermostat

Abstract

Das aktuelle Paradigma der Klimawissenschaft besagt, dass die langfristige Änderung der globalen Temperatur durch eine Konstante namens „Klimasensitivität“ multipliziert mit der Änderung der abwärts gerichteten Strahlung, genannt „Strahlungsantrieb“, gegeben ist. Trotz über vierzigjähriger Untersuchungen hat sich die Unsicherheit des Wertes der Klimasensitivität jedoch nur vergrößert.1 Dieser Mangel an jeglichem Fortschritt bei der Bestimmung des zentralsten Wertes im aktuellen Paradigma deutet stark darauf hin, dass das Paradigma selbst falsch ist, dass es keine genaue Beschreibung der Realität darstellt. Hier schlage ich ein anderes Klimaparadigma vor, das besagt, dass eine Vielzahl von auftretenden Klimaphänomenen zusammenwirken, um die Oberflächentemperatur in engen Grenzen zu halten. Dies erklärt die ungewöhnliche thermische Stabilität des Klimasystems.

Übersicht

Mehrere Autoren haben das Klimasystem als eine Wärmekraftmaschine analysiert. Hier ist die Beschreibung von Reis und Bejan:

Die Erde mit ihrem solaren Wärmeeintrag, ihrer Wärmeabstrahlung und den Schwingungen der atmosphärischen und ozeanischen Zirkulation ist eine Wärmekraftmaschine ohne Welle: ihre maximierte (aber nicht ideale) mechanische Leistung kann nicht an ein extraterrestrisches System abgegeben werden. Stattdessen ist der Erdmotor dazu bestimmt, die gesamte von ihm erzeugte mechanische Leistung durch Luft- und Wasserreibung und andere Irreversibilitäten (z. B. Wärmelecks über endliches ∆T) zu zerstreuen. Er tut dies, indem er sich so schnell wie möglich „in seiner Bremse dreht“ (daher die Winde und Meeresströmungen, die auf einfachsten Wegen verlaufen).2

Einer der ungewöhnlichsten und im Allgemeinen nicht beachteten Aspekte bei der Betrachtung der Wärmekraftmaschine ist ihre verblüffende Stabilität. Im Laufe des 20. Jahrhunderts schwankte die globale durchschnittliche Oberflächentemperatur um weniger als ein Kelvin. Das ist eine Schwankung von ± 0,2 %. In Anbetracht der Tatsache, dass das System eine variable Menge an einfallender Energie zurückweist, wobei die Schwankungen größtenteils durch nichts Handfesteres als Wolken gesteuert werden, ist dies ein höchst überraschender Grad an Stabilität.

Dies wiederum spricht stark für einen globalen Thermo-Regulations-Mechanismus. Die Stabilität kann nicht auf einfacher thermischer Trägheit beruhen, da die hemisphärischen Landtemperaturen im Laufe des Jahres um ~ 20 K und die hemisphärischen Meerestemperaturen um ~ 5 K variieren.

Emergenz*
[*Es lässt sich keine befriedigende Übersetzung für diesen Terminus finden. Er wird daher im Folgenden beibehalten. Der Vergleich des Titels im Original und in dieser Übersetzung macht klar, was gemeint ist. – A. d. Übers.]

Es gibt keine allgemein akzeptierte Definition von Emergenz. Im Jahr 1874 schlug Lewes die folgende Definition vor: „Emergenz: Theorie, nach der die Kombination von Entitäten einer bestimmten Ebene eine Entität einer höheren Ebene hervorbringt, deren Eigenschaften völlig neu sind“.3
Für die Zwecke dieses Artikels werde ich emergente Klimaphänomene funktional und anhand eines Beispiels definieren.

Emergente Klimaphänomene entstehen spontan, oft beim Überschreiten einer thermischen oder anderen Schwelle. Man Betrachte die tägliche Entwicklung des tropischen Kumuluswolkenfeldes.

Beim Überschreiten einer Temperaturschwelle können aus einem klaren Himmel in kurzer Zeit Hunderte von einzelnen Kumuluswolken entstehen.

Sie haben eine Entstehungszeit und eine begrenzte Lebensdauer. Staubteufel bilden sich spontan zu einem bestimmten Zeitpunkt, bestehen eine Zeit lang und lösen sich dann auf und verschwinden.
Sie bilden ein separates Ganzes, das sich von der Umgebung unterscheidet. Tropische Gewitter sind von klarer Luft umgeben.

Sie sind oft beweglich und bewegen sich auf unvorhersehbare Weise. Infolgedessen haben tropische Wirbelstürme „Vorhersagekegel“ dafür, wohin sie möglicherweise als nächstes ziehen werden, anstatt genau vorhersehbar zu sein.

Sie sind oft mit Phasenänderungen in den entsprechenden Flüssigkeiten verbunden. Konvektive Wolkenentstehung beinhaltet eine Phasenänderung von Wasser.

Einmal vorhanden, können sie unterhalb der für ihre Entstehung notwendigen Schwelle bestehen bleiben. Die Rayleigh-Benard-Zirkulation erfordert eine bestimmte Temperaturdifferenz, um zu entstehen, aber wenn sie einmal existiert, kann die Zirkulation bei einer kleineren Temperaturdifferenz bestehen bleiben.

Es handelt sich um Strömungssysteme, die weit vom Gleichgewicht entfernt sind. Als solche müssen sie sich gemäß dem Konstruktionsgesetz4 weiterentwickeln und mutieren, um zu überleben.

Sie sind nicht einfach vorhersehbar, da sie ganz andere Eigenschaften haben als das Medium, aus dem sie hervorgehen. Wenn Sie irgendwo leben würden, wo es nie Wolken gibt, würden Sie wahrscheinlich nicht vorhersagen, dass plötzlich ein riesiges weißes Objekt Hunderte von Metern über Ihrem Kopf auftauchen könnte.

Beispiele für natürliche emergente Phänomene, mit denen wir vertraut sind, sind das Verhalten von Vogelschwärmen, Wirbel aller Art, Termitenhügel, Bewusstsein und sogar das Leben selbst. Bekannte emergente Klimaphänomene sind Gewitter, Tornados, die Rayleigh-Bénard-Zirkulation der Atmosphäre und des Ozeans, Wolken, Zyklone, El Ninos und Staubteufelchen.

Ein einfaches Beispiel

Um zu erklären, wie emergente Phänomene die Temperatur der Erdoberfläche thermoregulieren, betrachten wir das kleine „Staubteufelchen“. Wenn die Sonne im Sommer ein Feld aufheizt, ist die Temperaturänderung eine ziemlich lineare Funktion des Antriebs, hier der abwärts gerichteten Sonnenstrahlung. Dies steht im Einklang mit dem aktuellen Paradigma. Aber wenn der heißeste Teil des Feldes eine bestimmte Temperatur in Bezug auf die darüber liegende atmosphärische Temperatur erreicht, taucht aus klarem Himmel ein Staubteufelchen auf. Dieser kühlt die Oberfläche auf mehrere Arten ab. Erstens bewegt er warme Oberflächenluft nach oben in die untere Troposphäre. Zweitens erhöht er die fühlbare Wärmeübertragung, die eine ungefähr lineare Funktion der Windgeschwindigkeit über der Oberfläche ist. Drittens erhöht sie die Verdunstung, was wiederum eine ungefähr lineare Funktion der Windgeschwindigkeit über der Oberfläche ist.

An diesem Punkt bricht das derzeitige Paradigma, dass die Temperaturänderung eine lineare Funktion der Änderung des Antriebs ist, vollständig zusammen. Wenn die Sonne die Oberfläche weiter bestrahlt, erhalten wir statt einer höheren Temperatur mehr Staubteufel. Dies setzt eine Obergrenze für die Oberflächentemperatur. Man beachte, dass diese Obergrenze nicht eine Funktion des Antriebs ist. Der Schwellenwert ist Temperatur-basiert, nicht Antriebs-basiert. Folglich wird sie nicht von Dingen wie einer veränderten Sonneneinstrahlung oder Variationen der Treibhausgase beeinflusst.

Ein vollständiges Beispiel

Die Schwerstarbeit des thermo-regulatorischen Systems wird jedoch nicht von Staubteufeln geleistet. Sie wird durch Variationen des Zeitpunkts und der Stärke des täglichen Auftretens tropischer Kumulusfelder und der darauf folgenden tropischen Gewitter, insbesondere über dem Ozean, erreicht. Dabei handelt es sich um das Zusammenspiel mehrerer verschiedener emergenter Phänomene.

Hier kommt der Ablauf von Tag und Nacht im tropischen Ozean ins Spiel. Der tropische Ozean ist der Ort, an dem der Großteil der Sonnenenergie in die riesige Wärmemaschine, die wir Klima nennen, eintritt. Infolgedessen befinden sich dort auch die wichtigsten thermostatischen Mechanismen.

Abbildung 1: Tägliche emergente Phänomene der tropischen Ozeane

Wie im Paneel „Early Morning“ zu sehen, weist die Atmosphäre in der Morgendämmerung mehrere Schichten auf, wobei die kühlste Luft der Oberfläche am nächsten ist. Die nächtliche, emergente Rayleigh-Bénard-Umwälzung des Ozeans geht zu Ende. Die Sonne ist frei, um den Ozean zu erwärmen. Die Luft nahe der Oberfläche wirbelt willkürlich.

Während die Sonne den Ozean weiter aufheizt, entsteht gegen zehn oder elf Uhr morgens ein neues Zirkulationsmuster, welches die zufällige atmosphärische Verwirbelung ersetzt. Sobald eine kritische Temperaturschwelle überschritten wird, bilden sich überall lokale Zirkulationszellen vom Rayleigh-Bénard-Typ. Dies ist der erste emergente Übergang von der zufälligen Zirkulation zur Rayleigh-Bénard-Zirkulation. Diese Zellen transportieren sowohl Wärme als auch Wasserdampf nach oben.

Am späten Vormittag ist die Rayleigh-Bénard-Zirkulation typischerweise stark genug, um den Wasserdampf bis zum lokalen Lifting Condensation Level (LCL) anzuheben. In dieser Höhe kondensiert der Wasserdampf zu Wolken, wie im Paneel „Late Morning“ gezeigt.

Diese flächendeckende Verschiebung zu einem organisierten Zirkulationsmuster ist weder eine Änderung der Rückkopplung, noch steht sie in Zusammenhang mit einem Antrieb. Es handelt sich um ein selbstorganisiertes, emergentes Phänomen. Es ist schwellenbasiert, was bedeutet, dass es spontan auftritt, wenn eine bestimmte Schwelle überschritten wird. In den feuchten Tropen gibt es viel Wasserdampf, so dass die Hauptvariable für den Schwellenwert die Temperatur ist. Außerdem ist zu beachten, dass es in Tafel 2 zwei verschiedene Phänomene gibt – die Rayleigh-Bénard-Zirkulation, die vor der Cumulusbildung entsteht, und die durch die völlig getrennte Entstehung der Wolken verstärkt wird. Wir haben es nun auch mit zwei Zustandsänderungen zu tun, mit der Verdunstung an der Oberfläche und der Kondensation und Wiederverdunstung in der Höhe.

Unter diesem neuen Regime der Cumulus-Zirkulation am späten Vormittag findet viel weniger Oberflächenerwärmung statt. Ein Teil des Sonnenlichts wird zurück in den Weltraum reflektiert, so dass zunächst weniger Energie in das System gelangt. Dann erhöht der zunehmende Oberflächenwind aufgrund des Cumulus-basierten Zirkulationsmusters die Verdunstung, wodurch die Oberflächenerwärmung noch weiter reduziert wird, indem die latente Wärme nach oben in die aufsteigende Kondensationsebene transportiert wird.

Entscheidend sind hier der Zeitpunkt und die Stärke des Auftretens. Wenn der Ozean etwas wärmer ist, setzt das neue Zirkulationsregime früher am Morgen ein und verringert die gesamte Tageserwärmung. Ist der Ozean hingegen kühler als üblich, hält der klare Morgenhimmel bis spät in den Tag hinein an und ermöglicht eine verstärkte Erwärmung. Die Systemtemperatur wird also sowohl vor Überhitzung als auch vor übermäßiger Abkühlung durch den Zeitpunkt des Einsetzens des Regimewechsels reguliert.

Man betrachte das Phänomen „Klimasensitivität“ in diesem System, die die Empfindlichkeit der Oberflächentemperatur auf den Antrieb ist. Der solare Antrieb nimmt ständig zu, wenn die Sonne höher am Himmel steht. Morgens vor dem Einsetzen der Kumuluszirkulation kommt die Sonne durch die klare Atmosphäre und erwärmt die Oberfläche schnell. Daher ist die thermische Reaktion groß und die Klimasensitivität hoch.

Nach dem Einsetzen der Cumulus-Zirkulation wird jedoch ein Großteil des Sonnenlichts zurück in den Weltraum reflektiert. Es bleibt weniger Sonnenlicht übrig, um den Ozean zu erwärmen. Zusätzlich zur reduzierten Sonneneinstrahlung kommt es zu einer verstärkten Verdunstungs-Abkühlung. Im Vergleich zum Morgen ist die Klimasensitivität deutlich geringer.

Wir haben hier also zwei Situationen mit sehr unterschiedlichen Klimasensitivitäten. Am frühen Morgen ist die Klimasensitivität hoch, und die Temperatur steigt mit der zunehmenden Sonneneinstrahlung schnell an. Am späten Vormittag kommt es zu einem Regimewechsel hin zu einer Situation mit viel geringerer Klimaempfindlichkeit. Das Hinzufügen von zusätzlicher Sonnenenergie erhöht die Temperatur nicht mehr annähernd so schnell wie zuvor.

Irgendwann am Nachmittag besteht eine gute Chance, dass das Cumulus-Zirkulationsmuster nicht ausreicht, um den weiteren Anstieg der Oberflächentemperatur zu stoppen. Wenn die Temperatur einen bestimmten höheren Schwellenwert überschreitet, wie im Paneel „Late Afternoon“ gezeigt, findet ein weiterer vollständiger Regimewechsel statt. Dieser beinhaltet die spontane Entstehung von unabhängig voneinander beweglichen Wärmekraftmaschinen, die Gewitter genannt werden.

Gewitter sind Wärmekraftmaschinen mit zwei Brennstoffen. Sie werden mit Luft niedriger Dichte betrieben. Diese Luft steigt auf und kondensiert die Feuchtigkeit aus. Die Kondensation setzt Wärme frei, die die Luft wieder erwärmt, die bis weit nach oben in die Troposphäre aufsteigt.

Es gibt zwei Möglichkeiten, wie die Gewitter die Luft mit niedriger Dichte erhalten. Einer ist die Erwärmung der Luft. So entsteht ein Gewitter als ein von der Sonne angetriebenes Phänomen, das aus mächtigen Kumuluswolken entsteht. Die Sonne und die Treibhausgasstrahlung erwärmen zusammen die Oberfläche, die dann die Luft erwärmt. Die Luft mit geringer Dichte steigt nach oben. Wenn diese Zirkulation stark genug wird, bilden sich Gewitter. Sobald das Gewitter begonnen hat, wird der zweite Treibstoff hinzugefügt – Wasserdampf. Je mehr Wasserdampf sich in der Luft befindet, desto leichter wird sie. Das Gewitter erzeugt starke Winde um seine Basis. Die Verdunstung ist proportional zur Windgeschwindigkeit, so dass die lokale Verdunstung stark zunimmt. Dadurch wird die Luft leichter und steigt schneller auf, wodurch das Gewitter stärker wird, was wiederum die Windgeschwindigkeit um die Gewitterbasis erhöht. Ein Gewitter ist ein regeneratives System, ähnlich wie ein Feuer, bei dem ein Teil der Energie verwendet wird, um einen Blasebalg anzutreiben, damit das Feuer noch heißer brennt. Ist es einmal entfacht, ist es viel schwieriger zu stoppen. Dies verleiht Gewittern eine einzigartige Fähigkeit, die in keinem der Klimamodelle dargestellt ist. Ein Gewitter ist in der Lage, die Oberflächentemperatur weit unter die Auslösetemperatur zu drücken, die nötig war, um das Gewitter in Gang zu setzen. Das Gewitter kann bis in den Abend hinein laufen, oft sogar bis weit in die Nacht hinein, dank der Kombination aus thermischen und Verdunstungs-Energiequellen.

Gewitter fungieren als Wärmeleitbahnen, die warme Luft schnell von der Oberfläche zum Kondensationsniveau transportieren, wo sich die Feuchtigkeit in Wolken und Regen verwandelt, und von dort in die obere Atmosphäre, ohne mit den dazwischenliegenden Treibhausgasen zu interagieren. Die Luft und die in ihr enthaltene Energie werden im Inneren des aufsteigenden Gewitterturms versteckt in die obere Troposphäre transportiert, ohne auf dem Weg dorthin von Treibhausgasen absorbiert oder behindert zu werden. Gewitter kühlen die Oberfläche auch auf eine Vielzahl anderer Arten, indem sie eine Kombination aus einem Standard-Kältekreislauf mit Wasser als Arbeitsmedium plus von oben zurückfließendem kaltem Wasser, klarer Umgebungsluft, die eine größere aufsteigende Oberflächenstrahlung ermöglicht, windgetriebener Verdunstung, Sprühnebel, der die Verdunstungsfläche vergrößert, Albedo-Änderungen und kalter, nach unten gerichteter, mitgerissener Luft nutzen.

Wie beim Einsetzen der Cumulus-Zirkulation tritt das Einsetzen von Gewittern früher an Tagen auf, an denen es wärmer ist, und es tritt später (und manchmal gar nicht) an Tagen auf, die kühler sind als üblich. Auch hier gibt es keine Möglichkeit, eine durchschnittliche Klimasensitivität zuzuordnen. Je wärmer es wird, desto weniger erwärmt jedes zusätzliche Watt pro Meter die Oberfläche.

Sobald die Sonne untergeht, zerfallen zuerst die Kumuluswolken und dann die Gewitter und lösen sich auf. In Paneel 4 zeigt sich ein letztes und wiederum anderes Regime. Das Hauptmerkmal dieses Regimes ist, dass der Ozean während dieser Zeit die allgemeine Menge an Energie abstrahlt, die während aller anderen Teile des Tages absorbiert wurde.

Während der Nacht empfängt die Oberfläche immer noch Energie von den Treibhausgasen [?]. Dies hat den Effekt, dass das Einsetzen der ozeanischen Umwälzung verzögert und die Abkühlungsrate verringert wird. Man beachte, dass die ozeanische Umwälzung wieder die entstehende Rayleigh-Bénard-Zirkulation ist. Da es weniger Wolken gibt, kann der Ozean freier in den Weltraum abstrahlen. Darüber hinaus bringt die Umwälzung des Ozeans ständig neues Wasser an die Oberfläche, das abstrahlt und abkühlt. Dies erhöht den Wärmeübergang über die Grenzfläche. Wie bei den vorherigen Schwellenwerten ist der Zeitpunkt dieses endgültigen Übergangs temperaturabhängig. Sobald ein kritischer Schwellenwert überschritten ist, setzt die ozeanische Umwälzung ein. Die Schichtung wird durch Zirkulation ersetzt, die neues Wasser zum Abstrahlen, Abkühlen und Absinken bringt. Auf diese Weise wird Wärme abgeführt, nicht nur von der Oberfläche wie tagsüber, sondern vom gesamten Körper der oberen Schicht des Ozeans.

Prognosen

Eine Theorie ist nur so gut wie ihre Prognosen. Aus den obigen theoretischen Überlegungen können wir Folgendes vorhersagen:

Prognose 1: In warmen Gebieten des Ozeans wirken Wolken kühlend auf die Oberfläche, in kalten Gebieten wirken sie wärmend auf die Oberfläche. Dies wird oberhalb einer Temperaturschwelle bei den wärmsten Temperaturen am stärksten ausgeprägt sein.

Beweise, die die erste Prognose bestätigen:

Abbildung 2. Streudiagramm, Meeresoberflächentemperatur (SST) versus Strahlungseffekt der Oberflächenwolke. Je negativer die Daten sind, desto stärker ist die Abkühlung.

Wie prognostiziert, erwärmen die Wolken die Oberfläche, wenn sie kalt ist, und kühlen sie, wenn sie warm ist, wobei der Effekt oberhalb von etwa 26°C – 27°C sehr ausgeprägt ist.

Prognose 2: Im tropischen Ozean, wiederum oberhalb einer bestimmten Temperaturschwelle, werden Gewitter mit steigender Temperatur sehr schnell zunehmen.

Beweise, die die zweite Prognose bestätigen:

Da es immer viel Wasser über dem tropischen Ozean gibt und viel Sonnenschein, um sie anzutreiben, werden thermisch angetriebene tropische Gewitter eine Funktion von wenig mehr als der Temperatur sein.

Abbildung 3. Höhe der Wolkenobergrenze als Indikator für hoch reichende konvektive Gewitter im Vergleich zur Temperatur der Meeresoberfläche.

Wie bei Wolken im Allgemeinen gibt es eine klare Temperaturschwelle bei etwa 26°C – 27°C, mit einem fast vertikalen Anstieg der Gewitter oberhalb dieser Schwelle. Dies setzt dem Temperaturanstieg eine sehr starke Grenze.

Prognose 3:. Vorübergehende Abnahmen des solaren Antriebs, wie z.B. durch Eruptionen, werden durch eine erhöhte Sonneneinstrahlung infolge einer verspäteten und selteneren Bildung tropischer Gewitter kompensiert. Das bedeutet, dass nach einer anfänglichen Abnahme die eingehende Sonneneinstrahlung über den Ausgangswert vor der Eruption steigt, bis der Status quo ante wiederhergestellt ist.

Belege zur Validierung der dritten Prognose

Was die dritte Prognose betrifft, so löst meine Theorie das folgende Pinatubo-Rätsel von Soden et al.5:

Ab 1994 werden zusätzliche Anomalien in den Satellitenbeobachtungen der von der Atmosphäre absorbierten Sonnenstrahlung deutlich, die nichts mit dem Ausbruch des Mount Pinatubo zu tun haben und daher in den Modellsimulationen nicht reproduziert werden. Es wird angenommen, dass diese Anomalien von dekadischen Veränderungen in der tropischen Zirkulation Mitte bis Ende der 1990er Jahre herrühren [siehe J. Chenet al., Science 295, 838 (2002); und B.A. Wielicki et al., Science 295, 841 (2002)], aber ihr Wahrheitsgehalt bleibt Gegenstand von Debatten. Wenn sie real sind, impliziert ihr Fehlen in den Modellsimulationen, dass Diskrepanzen zwischen den beobachteten und den modellsimulierten Temperaturanomalien, die durch die thermische Trägheit des Klimasystems um 1 bis 2 Jahre verzögert werden, bis Mitte der 1990er Jahre auftreten könnten.“

Abbildung 4: Abbildung 1 aus Soden mit Original-Inschrift

Dies ist jedoch ein vorhersehbares Ergebnis der emergenten Thermostat-Theorie. Hier ist die Änderung der unteren atmosphärischen Temperatur zusammen mit den ERBS-Daten von Soden:

Abbildung 5. ERBE absorbierte Sonnenenergie (oberes Feld in Abbildung 4) und UAH untere troposphärische Temperatur (TLT). Beide Datensätze enthalten eine Lowess-Glättung.

Wie von der Theorie vorhergesagt, steigt die absorbierte Sonnenenergie über die Basislinie, bis die Temperatur der unteren Troposphäre zu ihrem Wert vor dem Ausbruch zurückkehrt. An diesem Punkt hört die erhöhte Aufnahme von Sonnenenergie auf und das System befindet sich wieder in seinem stationären Zustand.

Prognose 4: Die „Klimasensitivität“ ist bei weitem keine Konstante, sondern wird sich als eine Funktion der Temperatur herausstellen.

Beweise, die die vierte Prognose bestätigen.

Die folgende Abbildung 6 zeigt die Beziehung zwischen der Nettoabwärtsstrahlung an der Oberfläche und der Oberflächentemperatur in einem Raster von 1° Breitengrad und 1° Längengrad für jede Zelle:

Abbildung 6. Streudiagramm, CERES-Nettoabstrahlung der Oberfläche (kurzwellig plus langwellig) im Vergleich zur globalen Oberflächentemperatur von Berkeley Earth. Die Steigung der Lowess-Glättung an jedem Punkt ist die „Klimasensitivität“ bei dieser Temperatur, in °C pro W/m².

Die enge Korrelation zwischen der Oberflächentemperatur und der abwärts gerichteten Strahlung bestätigt, dass es sich um eine gültige Langzeitbeziehung handelt. Dies gilt insbesondere, wenn man bedenkt, dass die beiden betrachteten Variablen aus völlig unterschiedlichen und nicht miteinander verbundenen Datensätzen stammen.

Man beachte, dass die „Klimasensitivität“ tatsächlich eine Funktion der Temperatur ist, und dass die Klimasensitivität bei den höchsten Temperaturen negativ wird. Es ist auch erwähnenswert, dass fast nirgendwo auf dem Planeten die langfristige Durchschnittstemperatur über 30°C liegt. Dies ist ein weiterer Beweis für die Existenz starker thermo-regulatorischer Mechanismen, die die durchschnittliche Erwärmung der Oberfläche effektiv begrenzen.

Prognose 5: In einigen Gebieten wird die Temperatur nicht durch die abwärts gerichtete Oberflächenstrahlung gesteuert, sondern die Oberflächenstrahlung wird durch die Temperatur gesteuert.

Beweise zur Bestätigung der fünften Prognose

Abbildung 7 unten zeigt die Korrelation zwischen der abwärts gerichteten Oberflächenstrahlung (kurzwellige plus langwellige Strahlung) und der Oberflächentemperatur. Wie erwartet, ist die Korrelation über den meisten Landmassen positiv – wenn die Einstrahlung zunimmt, steigt auch die Oberflächentemperatur.

Abbildung 7. Korrelation zwischen den monatlichen Oberflächentemperaturen und der monatlichen abwärts gerichteten Oberflächenstrahlung. Saisonale Schwankungen wurden aus beiden Datensätzen entfernt.

Über weite Bereiche des tropischen Ozeans sind die Temperatur und die Einstrahlung jedoch negativ korreliert. Da eine abnehmende Einstrahlung die Oberflächentemperatur nicht erhöhen kann, ist die einzig mögliche Schlussfolgerung, dass in diesen Gebieten die steigende Temperatur die Anzahl und Art der darüber liegenden Wolken so verändert, dass die Einstrahlung abnimmt.

CONCLUSIONS

1) Das derzeitige Klimaparadigma, das besagt, dass Änderungen der globalen Oberflächentemperatur langfristig eine einfache lineare Funktion von Änderungen des Antriebs (Einstrahlung) sind, ist falsch. Dies zeigt sich an der Unfähigkeit der Forscher, die Unsicherheit des zentralen Wertes des Paradigmas, also der „Klimasensitivität“, einzugrenzen, trotz vierzigjähriger Untersuchungen, Millionen von Dollar, Milliarden von Computerzyklen und Millionen von Arbeitsstunden, die bzgl. dieses Problems aufgewendet worden waren. Es wird auch durch die obigen Grafiken demonstriert, die zeigen, dass die „Klimasensitivität“ keineswegs eine Konstante ist, sondern eine Funktion der Temperatur.

2) Ein höchst merkwürdiger Aspekt des Klimasystems ist seine erstaunliche Stabilität. Trotz der Unterstützung einer Temperatur, die um Dutzende Grad über der des Mondes liegt, durch nichts stabiler als evaneszenten Wolken, trotz Vulkanausbrüchen, trotz Änderungen in CO2 und anderer GHG-Antriebe, trotz großer Schwankungen in Aerosolen und schwarzen Kohlenstoff variierte die Temperatur über das 20. Jahrhundert um nur ±0,2%.

3) Diese erstaunliche Stabilität impliziert und erfordert in der Tat die Existenz eines sehr starken Thermo-Regulationssystems.

4) Meine Theorie ist, dass die Thermoregulation durch eine Vielzahl von interagierenden emergenten Phänomenen bereitgestellt wird. Dazu gehören die Rayleigh-Benard-Zirkulation des Ozeans und der Atmosphäre, Staubteufelchen, tropische, thermisch angetriebene Kumuluswolkenfelder, Gewitter, Sturmböen, Wirbelstürme, Tornados, die La-Nina-Pumpe, die tropisches warmes Wasser zu den Polen bewegt und kühles darunter liegendes Wasser freilegt, und die großen Veränderungen in der Ozeanzirkulation, die mit der pazifischen dekadischen Oszillation, der nordatlantischen Oszillation und anderen ozeanischen Zyklen einhergehen.

5) Dies impliziert, dass es unwahrscheinlich ist, dass die Temperaturen aufgrund von CO2-Variationen, Vulkanen oder anderen sich ändernden Einflüssen stark von ihrem derzeitigen Zustand abweichen. Die Schwellenwerte für die verschiedenen Phänomene sind temperaturbasiert, nicht antriebsbasiert. Daher werden Variationen des Forcings sie nicht stark beeinflussen. Es stellt sich jedoch auch eine neue Frage: Was verursacht eine langsame thermische Drift in thermoregulierten Systemen?

REFERENCES

1 Knutti, R., Rugenstein, M. & Hegerl, G. Beyond equilibrium climate sensitivity. Nature Geosci 10, 727–736 (2017). https://doi.org/10.1038/ngeo3017

2 Lewes, G. H. (1874) in Emergence, Dictionnaire de la langue philosophique, Foulquié.

3 Reis, A. H., Bejan, A, Constructal theory of global circulation and climate, International Journal of Heat and Mass Transfer, Volume 49, Issues 11–12, 2006, Pages 1857-1875, https://doi.org/10.1016

4 Bejan, A, Reis, A. Heitor, Thermodynamic optimization of global circulation and climate, International Journal of Energy Research, Vol. 29, Is. 4, https://doi.org/10.1002/er.1058

5 Brian J. Soden et al., Global Cooling After the Eruption of Mount Pinatubo: A Test of Climate Feedback by Water Vapor,Science 26 Apr 2002, Vol. 296, Issue 5568, pp. 727-730, DOI: 10.1126/science.296.5568.727

Anyhow, that’s what I have to date. There are few references, because AFAIK nobody else is considering the idea that emergent phenomena act as a global thermostat. Anyone who knows of other references that might be relevant, please mention them.

Finally, any suggestions as to which journal might be willing to publish such a heretical view of climate science would be much appreciated.

Link: https://wattsupwiththat.com/2021/04/28/a-request-for-real-peer-review/

Übersetzt von Chris Frey EIKE

 




Wieder einmal: Gescheiterte Klima-Prophezeiungen

Es gibt jetzt eine Menge neuerer aktiver Kommentatoren hier, ein gutes Zeichen für Anthony und Charles. Sie haben vielleicht nicht tief in den umfangreichen WUWT-Archiven gegraben. Eine Möglichkeit, ihren Dialog über das große Bild zu gestalten, ist, sich einige der grundlegendsten gescheiterten Vorhersagen der Klima-Alarmisten anzusehen und warum sie gescheitert sind. Hier sind neun von meinen eigenen GROSSEN, gruppiert nach drei Ursprüngen.

Modelle

● Es gibt einen modellierten tropischen Troposphären-Hotspot. ABER, wie John Christy vor dem Kongress im Jahr 2016 aufzeigte, ist dieser in der Realität nicht existent. Die Klimamodelle überbewerten die Erwärmung der tropischen Troposphäre um etwa das Dreifache. Der plausibelste Grund ist Eschenbachs Hypothese der aufkommenden Phänomene, insbesondere Gewitter. Diese waschen Feuchtigkeit aus, können aber nicht modelliert, sondern nur parametrisiert werden. (Details in einem lange zurückliegenden Beitrag, ‚The trouble with climate models‚ [in deutscher Übersetzung beim EIKE hier]). Aus Beobachtungen heraus modellierte CMIP5 etwa die Hälfte der tropischen Niederschläge, die ARGO beobachtet, durch Änderungen des Salzgehalts der Thermokline. Es stimmt also.

● Modelle passen Anomalien ausreichend an, um mit Beobachtungen übereinzustimmen. Eigentlich ist das nur halb wahr, denn die erforderlichen Modellparameter werden so lange abgestimmt, bis sie stimmen. Die Täuschung liegt in der Verwendung von Modellanomalien. In Wirklichkeit wichen die CMIP5-Modelle in Bezug auf die absolute Temperatur im Jahr 2000 (früh in ihrer Abstimmungsperiode) um ~4C vom beobachteten globalen Durchschnitt von ~15,5C ab.

Fast keine waren nahe an der beobachteten Realität – fast alle waren viel zu warm. Anomalien verbergen diesen grundlegenden Vorhersagefehler des Klimamodells.

● Modelle sagen zuverlässig eine ‚Gleichgewichts-Klimaempfindlichkeit‘ (ECS) von etwa 3C voraus. Wiederum halb wahr. Sie tun es alle, aber nicht „zuverlässig“. Beobachtete ECS unter Verwendung von Energiebudget- (und anderen) Methoden zeigen konsistent etwa 1,6-1,7C, etwa die Hälfte der modellierten. Das ist eine große Sache, da die ganze alarmistische Untergangsstimmung von einem hohen ECS (oder seinem nahen Verwandten TCR) abhängt. Bei 1,6 gibt es überhaupt kein Klimaproblem. Bei 3 gibt es vielleicht eines, vielleicht auch nicht. Die Diskrepanz zwischen Modell und Beobachtung ist so groß, dass der AR5 es abgelehnt hat, eine zentrale Schätzung des ECS zu erstellen, eine peinliche Unterlassung.

Fortsetzung

Der Meeresspiegelanstieg wird sich beschleunigen. Aber das ist nicht der Fall, basierend auf langen Aufzeichnungen differentieller GPS-korrigierter Gezeitenpegel, von denen es jetzt etwa 70 gibt. Der Grund dafür ist, dass wir ähnliche Bedingungen wie im letzten Eem-Interglazial erleben (das Holozän ist jetzt laut Paläoproxy- und Eiskernaufzeichnungen etwa 1 °C kälter), währenddessen die geologischen Beweise auf einen maximalen Eem-Meeresspiegelanstieg (SLR) von etwa 2,2 mm/Jahr hindeuten – genau das, was wir jetzt beobachten, mit Abschluss, von den langen Aufzeichnungen der Gezeitenpegel im letzten Jahrhundert. Es gibt keine SLR-Beschleunigung.

● Die Ernteerträge werden ausfallen und die Menschen werden verhungern. Dies war das Thema meines ersten Beitrags hier vor langer Zeit. Die schreckliche NRDC-Vorhersage an den Kongress basierte auf zwei Unwahrheiten. Erstens stellten sie die „schlechteste“ Vorhersage als die Norm dar. Zweitens war das „schlimmste“ Papier, auf das sie sich für Mais stützten, selbst grundlegend fehlerhaft (ob absichtlich oder aus Inkompetenz, darüber kann man streiten). Es handelte sich um eine umfangreiche statistische Analyse der US-Maiserträge im Laufe der Zeit, und zwar auf der Ebene der einzelnen US-Bezirke für alle wichtigen Mais produzierenden Staaten. Sie behauptete zu zeigen, dass vorübergehende Temperaturen über x die Maiserträge dauerhaft um y reduzierten. AUSSER, ihre multivariate Regressionsanalyse ließ einen wichtigen kovarianten Term aus, Temperatur x Wasser. Die Logik der Auslassung war, dass Temperatur und Wasser meteorologisch nicht korreliert sind. Richtig. Der Fehler in ihrer Argumentation war, dass Mais WIRKLICH wichtig ist, und ihre y-Variable war der Maisertrag. Der ausgelassene Term verfälscht ihre Analyse, wie (nachdem die Autoren unter Alarmisten berühmt wurden und dann dummerweise ihre nun berühmten Maisdaten in grafischer Form veröffentlichten) durch einfache visuelle Inspektion und ein wenig Logik leicht ersichtlich wurde. Keine fortgeschrittene Statistik erforderlich. Schlussfolgerung: BOGUS.

Eisbären werden aussterben, weil das arktische Sommereis irgendwann verschwinden wird (die Vorhersage, wann das sein wird, variiert, aber Wadkins war ein führender Alarmist, der bereits dreimal bewiesen hat, dass er falsch liegt). Wie Dr. Susan Crawford schon mehrfach betont hat, ist die gesamte wissenschaftliche Aussterbeprämisse falsch. Eisbären nehmen etwa 80% ihrer jährlichen Kalorienzufuhr während der Robbenfangsaison im Frühjahr auf. In der Tat ist zu dickes Eis im Frühjahr, nicht zu dünnes, ein Problem für Robben und dann für Bären. Sie sind zur Nahrungsaufnahme überhaupt nicht auf das Sommereis angewiesen. Sie kommen an Land und ernähren sich dann im Sommer wie ihre nahen Verwandten, die Braunbären (Grizzlybären), opportunistisch von Eiern aus Vogelnestern, Beeren, Aas wie angeschwemmten toten Walen und Walrossen, vielleicht sogar von einem gelegentlichen unglücklichen Karibu-Kitz.

Lösungen

● „Erneuerbare“ Energien und der Green New Deal (GND). AOC und Konsorten haben offensichtlich keine Ahnung von Elektrotechnik. Das Netz soll zuverlässig sein. Erstens sind „erneuerbare“ Energien (Wind, Sonne) intermittierend. Daher brauchen sie bei jeder signifikanten Verbreitung ein Backup, ein großer Kostenfaktor, der von den stets subventionierten (weil unwirtschaftlichen) „erneuerbaren“ Energien nicht getragen wird. Zweitens erfordert das Netz Frequenzstabilität, auch bekannt als Netzträgheit. „Erneuerbare“ Energien sind asynchron, liefern also keine. Große rotierende konventionelle Generatoren, die mit Kohle, Erdgas oder Kernkraft betrieben werden, liefern automatisch Trägheit. Es gibt eine Lösung, die als Synchronkondensator bezeichnet wird (im Wesentlichen eine große, sich drehende, aber nicht angetriebene Generatormasse), aber auch für diese leisten die „erneuerbaren“ Energien keinen Beitrag, also werden keine hinzugefügt.

EVs werden das „Kohlenstoff“-Problem der Benzin-/Diesel-Emissionen lösen. Sie benötigen große Mengen an Kobalt und Lithium (Hydroxid oder Karbonat). Von beidem haben wir nicht genug, und die Aussichten, die Situation in den nächsten Jahrzehnten durch neue Minen zu verbessern, sind bei der vom GND gewünschten Verbreitung von Elektrofahrzeugen gleich null. Lithium ist das 33. am häufigsten vorkommende Element der Erde, Kobalt das 31. Die Aussichten sind auf lange Sicht NICHT gut. Im Vergleich zur Häufigkeit in der Erdkruste (allein) liegt Aluminium auf Platz 3, Eisen auf Platz 4 und Kohlenstoff auf Platz 17. Übersetzung: Cola-Dosen und Flugzeuge, Stahl was auch immer, und „Kohlenstoff“-Treibstoffe haben wir. EV-Batterien, nicht so sehr. Ignoriert man die Dominanz Chinas bzgl. der Seltenen Erden kommt die Umweltvergiftung ist Spiel, nicht der Überfluss. Die USA haben ein sehr großes Vorkommen an der Grenze zwischen Kalifornien und Nevada in der Mountain-Pass-Mine, die jetzt im Besitz von China ist. Das Kostenproblem ist nicht das Erz, sondern die Folgen der Umweltaufbereitung. China kümmert das nicht. Uns schon. Vorteil China.

EVs werden eine große Investition in das Stromnetz erfordern. T&D plus Erzeugung. Eine grobe Schätzung ist das Doppelte, um Benzin und Diesel zu verdrängen. Das ist weder im Zeitrahmen von Biden/.GND möglich, noch auch nur annähernd wirtschaftlich. Das Versprechen von Unmöglichem mag sich gut anhören, endet aber in der Realität immer schlecht

Link: https://wattsupwiththat.com/2021/04/26/failed-climate-predictions/

Übersetzt von Chris Frey EIKE

 




Papierfabrik Zanders in Bergisch-Gladbach: Am Tag der Arbeit war Schluss mit der Arbeit

Schock in Bergisch-Gladbach. Am 1. Mai, am Tag der Arbeit, war Schluss mit der Arbeit. Die Mitarbeiter der Papierfabrik Zanders brauchen ab heute, Montag, nicht mehr an ihrem Arbeitsplatz zu erscheinen. Ihre Fabrik hat am 30. April den Betrieb eingestellt! Am Freitagabend kam das Aus für die letzten 360 Beschäftigten.

Zanders hat sich einen Namen als Hersteller qualitätsvoller Papiere gemacht, produzierte in einem hart umkämpften und schwierigen Markt unter anderem edle Papiere mit dem »Gohrsmühle« Wasserzeichen. Doch die Produktion wurde aufgrund steigender Kosten immer unrentabler.

Den letzten Ausschlag gaben jene grotesken CO2-Steuern, die seit diesem Jahr auf Benzin, Diesel, Heizöl und Kohle erhoben werden und nicht nur Produktion, Kochen und Heizung verteuern, sondern auch Transportkosten drastisch heraufsetzen.
Zanders hätte jetzt für sieben Millionen Euro neue CO2-Zertifikate kaufen müssen, ansonsten hätten nach Angaben des Kölner Stadtanzeigers ein Bußgeld in Höhe von drei Millionen Euro gedroht. Gelder, die die Papierfabrik für sogenannte »Verschmutzungsrechte« hätte bezahlen müssen.

Dabei hat sie nichts anderes getan, als Hitze und Dampf zu erzeugen, eine Pulpe aus Fasern und viel Wasser auf eine Siebbahn aufzuspritzen und die entstehende Papierbahn in vielen Stufen mit Wärmeeinsatz zu trocknen, bis sich dann am Ende die Fasern zu einer Papierschicht verbunden haben. Ein sehr alter, kunstvoller Prozess, bei Zanders mit modernen Maschinen, mit eigenem Kraftwerk sowie Wasserversorgung und -aufbereitung und moderner Logistik so effektiv wie heute möglich umgesetzt.

Die Papierfabrik durchlebte in den vergangenen Jahren eine wechselvolle Geschichte und war mehrfach in Schieflage geraten. Im Juni 2018 beantragte das Unternehmen bereits ein Insolvenzverfahren, schließlich stieg zuletzt eine skandinavische Investorengruppe mit einem Fokus in der Papierproduktion ein. Bei Zanders wurden teuer sehr hohe Umweltstandards erfüllt, eine effektive Logistik aufgebaut und mit modernen Papiermaschinen gearbeitet. Viel mehr ist kaum möglich. Wenn eine solche moderne Fabrik keine Chance mehr hat, dann ist sehr viel verloren.

1829 wurde die Papierfabrik J.W. Zanders gegründet und stellte seitdem hervorragende haderhaltige Qualitätspapiere her. Papierherstellung ist aufwendig, erfordert viel Wasser und Energie sowie teure Maschinen.

‚Mit Bestürzung‘ hat sich Bergisch Gladbachs neuer Bürgermeister Frank Stein zum Aus von Zanders geäußert. »Das ist ein schwarzer Tag für Bergisch Gladbach«, ließ er sich in einem offiziellen Statement zitieren. »Es ist unstrittig, dass die Stadt sich ohne diese bedeutende Firma niemals in der Form entwickelt hätte, wie es sie heute gibt.«

Kein Wort von ihm jedoch zu den Gründen in einer vollkommen durchgedrehten Energie- und Umweltpolitik. Kunststück, der Mann ist in der SPD und der gemeinsame Kandidat von SPD, Grünen und FDP. Ein neues »Ampelbündnis« will die Stadt in die »Klimaneutralität« führen. Jetzt ohne Geld, und ohne Papierfabrik. Aber das stört niemanden weiter.

Die arbeitslosen hochqualifizierten Papiermacher können sich jetzt auf den »Weg in die Klimaneutralität« machen, wozu Theresia Meinhardt und Maik Außendorf (Vorsitzende der Bündnis 90/die Grünen-Fraktion Bergisch Gladbach) alle Bürgerinnen und Bürger Bergisch Gladbachs einladen: »Unsere Stadt wird mit Frank Stein endlich den Weg in die Klimaneutralität einschlagen und den Transformationsprozess in der Mobilität, im Bauen und im alltäglichen Konsum hin zu einem nachhaltigeren Leben aktiv gestalten. Gemeinsam möchten wir uns auf den Weg machen, dass wir auch im Lokalen globale Verantwortung übernehmen.«

Dem FDP-Chef Christian Lindner, zu dessen Wahlkreis Bergisch-Gladbach mit der Papierfabrik gehört, fällt nichts anderes ein als: »Der Strukturwandel ist jetzt auch in Bergisch Gladbach angekommen – das ist keine einfache Situation, aber unaufhaltsam.« Papierherstellung findet künftig eben vorwiegend in Skandinavien statt mit langen Transportwegen nach Deutschland. SPD, Linke und fast alle anderen machen den skandinavischen Investor verantwortlich, der allerdings keinen wirtschaftlichen Sinn mehr erkennt, eine in Deutschland immer teurer werdende Produktion zu bezahlen.

Der Untergang von Zanders darf als ein weiterer »Erfolg« der »Decarbonisierung« Deutschlands betrachtet werden, in dem sich eine energieintensive Produktion nicht mehr rechnet. Das musste auch der norwegische Alukonzern Norsk Hydro erkennen, der praktisch nicht mehr in die Aluhütte Neuss investiert, sondern Ungarn als aufstrebenden Standort forciert.

Was Generationen überdauerte, schaffen klimaneutralitätsstrunkene Linke und Grüne, in wenigen Jahren zu zerstören. Während die Unternehmerfamilien von Zanders früher viel auch für die Stadt geleistet haben, können sich jetzt die Bürger die hohlen Sprüche von der lokalen Verantwortung fürs Globale anhören. Die klingen in den Ohren der Beschäftigen und ihrer Angehörigen wie Hohn. Sie – sowie die Geschäfte in Bergisch-Gladbach – wissen hoffentlich, wem sie ihr Aus zu verdanken haben.

Der Beitrag erschien zuerst bei TE hier




Teures Stromnetz ohne doppelten Boden

Der Bericht der Bundesnetzagentur zur Netz- und Systemsicherheit 2020 zeigt weiter steigende Kosten. Es ist höchst unwahrscheinlich, dass diese Dynamik beherrschbar sein wird.

Der von der Bundesnetzagentur (BNA) ausgegebene Jahresbericht 2020 lässt ahnen, was bezüglich der steigenden Kosten für das Stromsystem noch auf uns zukommen wird. Diese werden im Bericht abgebildet in den Maßnahmen zum Einspeisemanagement (EinsMan), Redispatch-Maßnahmen und den Vorhaltekosten für die Netzreservekraftwerke. Nicht erwähnt sind die Kosten für den Netzausbau, Netzbooster (Großbatterien) und „besondere netztechnische Betriebsmittel“. Ebenso diejenigen der Anlagen zur Blindleistungsregelung zum Kostenpunkt von mehreren hundert Millionen Euro, die bisher von konventionellen Kraftwerken zum Nulltarif erledigt wurde.

Insgesamt schlagen für 2020 für die im Bericht erwähnten Kategorien 1,4 Milliarden Euro zu Buche, davon 761 Millionen „Entschädigung“ für die Anlagenbetreiber für nicht abgenommenen Strom. Dies ist Ergebnis des krassen Fehlmanagements des Bundeswirtschaftsministers, der die Genehmigung immer weiterer Anlagen zulässt, obwohl der Netzausbau nicht hinterherkommt. Die meisten Abschaltungen gab es in Schleswig-Holstein, wo ein ehemaliger „Energiewendeminister“ Habeck die Wünsche der Windlobby exakt umsetzte. Die verdient auch, wenn die Anlagen abgeschaltet werden müssen. Zahlen müssen alle Stromkunden.194,8 Millionen Euro mussten für die Vorhaltekosten der Netzreservekraftwerke berappt werden, also ihre Bereitschaftsstellung. Pro Megawatt Reserveleistung sind das etwa 26.500 Euro. Dem steht aber keine Produktion oder Wertschöpfung gegenüber, es ist die Bezahlung einer Energie-Feuerwehr, international wohl einmalig. Alle genannten Kategorien gab es in der alten Energiewelt nicht. Sie sind heute notwendig, weil riesige Ökostrommengen am Bedarf vorbei produziert werden und die Netzbetreiber öfter und stärker eingreifen müssen, um die stabile Netzfrequenz von 50 Hertz zu erhalten. Aus einem früher planmäßigen Netzbetrieb ist ein operativer, noch beherrschbarer, aber eben sehr teurer geworden.

Ursache dieser Entwicklung ist das von der EE-Lobby erfolgreich gesetzte Narrativ, dem Klimawandel sei nur durch exzessiven Ausbau volatiler Stromeinspeiser zu begegnen. Treu längsdenkende Politiker und Medien arbeiten in diesem Sinne ohne Rücksicht auf die Stromkunden. Die über die EEG-Umlage gewälzte Geldmenge von derzeit 24,6 Milliarden Euro (2020, den Börsenwert des Stroms bereits gegengerechnet) würde ausreichen, den Schweizern zwei Gotthard-Basistunnel zu schenken. Jährlich.Diesem aus dem Ruder laufenden Posten (2021: 8,6 Cent pro Kilowattstunde – netto) konnte nur noch durch einen Staatseingriff begegnet werden. Zunächst erfolgte die Deckelung auf 6,5 Ct/kWh und für 2022 auf 6,0. Nach den Vorstellungen der auslaufenden Regierungskoalition, deren Beschlüsse ohnehin bald nur noch Makulatur sein werden, soll die Umlage in homöopathischen Dosen schrittweise weiter auf unter 5 Cent abgesenkt werden. Der Fehlbetrag wird mit anderem Bürgergeld, nämlich Steuergeld, aufgefüllt. Ob die Quelle dann eher eine Reichensteuer für den Mittelstand, ein Klima-Soli oder eine erhöhte Mehrwertsteuer sein wird, ist noch offen. Ohne eine Anhebung der Steuern wird es nicht gehen, auch wenn die jährlich steigende CO2-Steuer aus dem Brennstoffemissionshandelsgesetz (BEHG) für mehr Einnahmen sorgen wird.

Ursache für die kaum beherrschbare Kostenprogression ist der Ansatz, ein Energiesystem auf Basis von Zufallsenergie installieren zu wollen. Wenn es das Thema Versorgungsicherheit überhaupt in die Diskussion schafft, lautet die Antwort regelmäßig, man müsse halt mehr regenerative Erzeuger zubauen, also mehr vom selben und mehr von für die Versorgung untauglichen Technologien.

Wie unberechenbar der Wettergott ist, zeigen die Produktionszahlen des Wind- und Sonnenstroms in den Monaten Januar und Februar 2021 im Vergleich zu den Vorjahresmonaten:

Am 20. April um 11 Uhr speisten alle Windkraftanlagen in Deutschland ganze 430 Megawatt Strom ins Netz. Das sind 0,7 Prozent der installierten Leistung. Das hindert eine regierende Physikerin (!) nicht daran, von der Windenergie als der „Säule“ der Energieversorgung zu sprechen.

Auf diese hin und wieder arbeitsscheuen „Erneuerbaren“ haben die Energiewender eine Antwort: Es gäbe auch Zeiten der Überproduktion und dann müsse man eben speichern. Fragt man nach den Speichern, zeigt der grüne Finger heute nur noch in Richtung Wasserstoff. Immerhin hat sich die Erkenntnis durchgesetzt, dass weder Pumpspeicherwerke noch Großbatterien das Problem auch nur annähernd lösen könnten.

Bis zu 9 Milliarden Euro will sich die Bundesregierung die Wasserstoffstrategie kosten lassen. Dabei soll bis 2030 eine Elektrolyse-Leistung von 5 Gigawatt auf der Basis von Ökostrom entstehen. Wollte man diese elektrische Leistung über Windkraft bereitstellen und setzt großzügig 3.000 Volllaststunden im Jahr an, bräuchte man dazu knapp 3.000 große Anlagen der 5-Megawatt-Klasse. Diese würden dann ausschließlich für die Stromspeicherung arbeiten und keinen aktuellen Bedarf decken, also Strom aus Kohle- oder Kernkraft nicht direkt ersetzen. Über 24 Stunden ließe sich so eine Strommenge von 120 Gigawattstunden (GWh) erzeugen, die in die Elektrolyse geht. Die Rückverstromung an einem anderen Tag unterliegt der Wirkungsgradkette Power-to-Gas-to-Power von höchstens 25 Prozent. Es könnten dann also 30 GWh ins Netz gespeist werden.

Der Tagesbedarf Deutschlands beträgt etwa 1.600 GWh und die eben überschlägig geführte Rechnung bezieht sich auf das Jahr 2030. Wie das Problem absehbarer Unterdeckung im Netz ab 2023 gelöst werden soll, ist unklar. Die Kosten für die Netzstabilisierung werden weiter steigen. Wir leisten uns zwei Systeme für eine Versorgungsaufgabe, auch dies ist in der Welt einmalig.

Vielleicht ist ein stabiles Netz aber auch rückwärtsgewandtes Denken. Allen sollte klar sein, dass bei einem „engagierten Klimaschutz“ kein Stein auf dem anderen bleiben wird. Der Spruch des Bundesverfassungsgerichts zum angeblich unzureichenden Klimaschutzgesetz wird dessen Verschärfung nach sich ziehen. Bemerkenswert, welchen Wert das Gericht den Freiheitsrechten ab 2030 zugesteht, mit den aktuellen Einschränkungen der Freiheitsrechte aber offenbar kein Problem hat. Vielleicht bleiben die Freiheitsrechte gleich reduziert, damit sie ab 2030 nicht erst eingeschränkt werden müssen.

Da man weder die Gebäudedämmung schnell erzwingen, noch den Verkehrssektor zügig dekarbonisieren kann, bleibt wie bisher die angeordnete Stilllegung von Kohle-, vielleicht sogar von Gaskraftwerken der einfachste Weg. Und eine künftige Grün-irgendwie-bunte-Koalition wird nicht zimperlich sein.

Der praktische Effekt der deutschen CO2-Minderung wird im globalen Maßstab ohne Wirkung bleiben. Dies ist den handelnden Personen durchaus bewusst. Professor Mojib Latif als einer der medial führenden Klimawissenschaftler des Landes sagte am 30. Juli 2018 im rbb-Inforadio:

„Natürlich kann Deutschland das Klima nicht retten, aber wir müssen natürlich Vorbild sein.“

Eine breite gesellschaftliche Diskussion darüber, was uns diese Vorbildrolle, der übrigens keiner folgt, eigentlich wert ist, wäre nötig. Sie wird nicht stattfinden, weil eine einflussreiche Schicht enormes Geld am deutschnationalen Weg der Energiewende verdient. Die uns schon länger Regierenden, erst recht die uns in Kürze Regierenden, werden der Spur des Geldes folgen. Dagegen werden die Kosten der Deutschen Einheit Peanuts sein.

Der Beitrag erschien zuerst bei TE hier




NASA und NOAA „PASSEN“ Temperaturdaten an: Die Rohdaten zeigen, dass die USA sich ggü. den 30er Jahren abgekühlt haben

Das (im Original GIF animierte) Diagramm zeigt klar die historischen US Klimatologie Netzwerk -Stationen  mit Rohdaten und danach mit offiziellen Anpassungen durch NASA und NOAA .

Hier sehen Sie die offiziell „adjusted“  maximalen Temperaturdaten über die Jahre 1920  – 2020, die einen Erwärmungstrend zeigen.

Und hier sind es die tatsächlichen „gemessenen“ Daten, die einen unverkennbaren Abkühlungstrend aufzeigen.

Unten sehen Sie eine vergrößerte Ansicht der US-Thermometerdaten, bevor die NASA / NOAA ihre schmuddeligen „adjustments“ vornahm.

Durchschnittliches Temperaturmaximum 1901 – 2019 ,  Rote Linie gleitendes 5 Jahres Mittel

Die Grafik zeigt, dass die Temperaturen von 1920 bis 1960 tatsächlich wärmer waren als heute. Es war angenehm wärmer,  oft mit 2 bis 3 Grad Fahrenheit. (~ 1,5 bis 2 °C)

Der gleiche Trend ist in der vorstehenden Grafik zu erkennen, in der der Prozentsatz der Tage über 32,2 ° C (90 ° F) in den Jahren zwischen 1901 und 2019 erneut an allen Stationen des US-amerikanischen Netzwerks für historische Klimatologie angegeben ist (beachten Sie auch, dass die Grafik bis 2019 läuft und daher die Rekordkälte der letzten anderthalb Jahre ausschließt) Quelle: [Climate Science Special Report]

Die Daten zur Nationalen Klimabewertung stützen den Trend weiter und zeigen, dass die Sommer in den Vereinigten Staaten von 1910 bis 1960 viel heißer waren.

Darüber hinaus zeigen die jüngsten Beobachtungen [Observations] der Meeresoberflächentemperatur – selbst die von den Erwärmungsaktivisten kontrollierten – deutlich, dass sich die Projektionen katastrophaler Klimaentwicklungen als weit von der Realität entfernt erweisen:

Mehr zum Thema finden Sie HIER.

Wenn Sie sich noch nicht darauf eingelassen haben, dass Regierungen ihre Bevölkerung routinemäßig anlügen, sollten Ihnen die obigen Diagramme einen Einblick dazu bieten. Die globale Erwärmung ist kaum „global“, wenn die Vereinigten Staaten – das viertgrößte Land der Erde – sich abkühlen seit dem Ende von „the dust bowl“ [Katastrophenfilm von 2012, über die schlimmen Auswirkungen von Sandstürmen, durch Klimawandel und natürlich Menschen verursacht]. Und ich denke, es ist auch vernünftig anzunehmen, dass nicht nur die USA seit Mitte der 1930er Jahre einen Abkühlungstrend erleben. Der nordamerikanische Kontinent ist geografisch nicht einzigartig – und diese Beobachtungen stimmen gut mit der beobachteten Sonnenaktivität überein,  nachdem die zwischen 1930 und 1960 zunehmende Aktivität allmählich nachgelassen hat:

Sonnenzyklen und Sonnenflecken

Die Daten können leicht manipuliert werden und manipulierte Statistiken werden verwendet, um die Aussagen der Politik zu beweisen und Richtlinien zu erlassen. Und heute scheinen Regierungsbehörden – gespielt von den unsichtbaren Strippenziehern über ihnen – ein glänzendes und mächtiges neues Werkzeug gefunden zu haben, um ihr Angst- und Kontrollarsenal durchzusetzen: „den Klimanotfall “.

Ein letzter Hinweis zu diesem Thema:

Die durch „Feuerbrünste“ betroffene Landfläche war von 1910 bis 1960 viel höher als heute, was nicht verwunderlich ist, da Hitzewellen normalerweise mit Dürre verbunden sind, betont Tony Heller. Es besteht eine enge Korrelation zwischen Hitzewellen und Brandfläche, wie in der obigen Tabelle dargestellt, die die offiziellen Daten von Hitzewellen (rote Linie) mit denen der Verbrennungsfläche (blaue und grüne Linien) überlappt.

Die Klimaaktivisten möchten, dass Sie glauben, dass Waldbrände eine direkte Folge steigender Temperaturen sind, aber wie Tony Heller gezeigt hat: Die Temperaturen steigen nicht und die Brandflächen nehmen auch nicht zu.

Die tatsächlichen Daten zerstören die Einpeitschungen eines „Klimanotfalls“  und so hat die Biden-Regierung kürzlich die Branddaten vor 1983 gelöscht, mit der glanzlose Begründung, dass „es nicht offiziell war“ ( hier verlinkt ).

Total Wildland Fires and Acres (1983-2020)

Vor 1983 verfolgten die föderalen Waldbrandbehörden die offiziellen Waldbranddaten nicht unter Verwendung der aktuellen Meldeverfahren. Infolgedessen werden auf dieser Website keine offiziellen Daten von vor 1983 veröffentlicht.

Wenn man etwas tiefer gräbt,  wird einem der wahre Grund klar, warum sie die Daten vor 1983 gelöscht haben. Das Jahr 1983 registrierte die geringste Brandfläche. Ab 1983 konnten sie es so aussehen lassen, als würde die Brandfläche zunehmen.

In der Realität besteht keine Korrelation zwischen steigendem CO2 und der verbrannten Fläche. Die Brandfläche in den USA ist tatsächlich um 90 Prozent gesunken, als der CO2 Anteil noch auf vorindustriellem Niveau lag – aber die Behörde hat kürzlich auch dieses Dokument gelöscht:

Übersetzung des rot markierten Textteiles:

In den heutigem Gebieten der USA brannten in der vorindustriellen Zeit (1500 – 1800) durchschnittlich 145 Millionen Acres pro Jahr [~ 586.000 km², zum Vergleich Deutschland: 357,386 km²]. Heute werden jährlich nur 14 Millionen Acres  (Bundes- und Nicht-Bundesland) verbrannt

 

Fallen Sie nicht auf die täglichen Lügen herein, die von machtgierigen Politikern, willfährigen Wissenschaftlern und fremdfinanzierten Aktivisten verbreitet werden .

Die Beobachtungen zeigen, dass die KALTEN ZEITEN zurückkehren, dass die mittleren Breiten sich ABKÜHLEN,  im Einklang mit  der großen Konjunktion , der historisch geringen Sonnenaktivität , den  wolkenkeimbildenden kosmischen Strahlen und einem  meridionalen Jetstream-Fluss (neben anderen Einflüssen).

Sowohl NOAA als auch NASA scheinen sich jedoch einig zu sein – wenn Sie zwischen den Zeilen lesen. NOAA sagt, dass wir  Ende der 2020er Jahre ein  „ausgewachsenes“ Grand Solar Minimum erreichen  und die NASA sieht diesen bevorstehenden Sonnenzyklus  (25)  als “ das schwächste der letzten 200 Jahre “.

NASA veröffentlichte früher Artikel mit Überschriften wie:

Niedrige Temperaturen während des Maunder-Minimums

…. Von 1650 bis 1710 sanken die Temperaturen in weiten Teilen der nördlichen Hemisphäre, als die Sonne in eine ruhige Phase eintrat, die jetzt als Maunder-Minimum bezeichnet wird. Während dieser Zeit traten nur sehr wenige Sonnenflecken auf der Sonnenoberfläche auf, und die Gesamthelligkeit der Sonne nahm leicht ab. Bereits mitten in einer überdurchschnittlich kälteren Zeit, der kleinen Eiszeit, gerieten Europa und Nordamerika in einen Tiefkühlzustand: Alpengletscher erstreckten sich über Ackerland bis ins Tal; Meereis kroch südlich von der Arktis; und die berühmten Kanäle in den Niederlanden froren regelmäßig ein – ein Ereignis, das heute selten ist.

… Der Einfluss des Sonnenminimums ist in diesem Bild deutlich zu sehen, das den Temperaturunterschied zwischen 1680, einem Jahr im Zentrum des Maunder-Minimums, und 1780, einem Jahr normaler Sonnenaktivität. Tiefes Blau in Ost- und Mittel-Nordamerika sowie in Nord-Eurasien zeigt, wo der Temperaturabfall am größten war. Fast alle anderen Landflächen waren 1680 ebenfalls kühler, was durch die unterschiedlichen Blautöne angezeigt wird. Die wenigen Regionen, die 1680 wärmer zu sein scheinen, sind Alaska und der östliche Pazifik (links), der Nordatlantik südlich von Grönland (links von der Mitte) und nördlich von Island (oben in der Mitte).

Darüber hinaus können wir die Vielzahl neuer wissenschaftlicher Arbeiten nicht ignorieren, in denen die immensen Auswirkungen  des Beaufort Gyre  auf den Golfstrom und damit auf das Klima insgesamt dargelegt werden.

https://electroverse.net/u-s-has-been-cooling-since-the-1930s/

Übersetzt durch Andreas Demmig

Nachsatz:

Über „Manipulation“ berichteten wir auf Eike schon häufig. Nutzen Sie die Suchfunktion um die Beiträge zu finden.

 

 




Abkühlung oder Erwärmung – aber immer das gleiche Rezept dagegen

Leonard Nimoy (Spock) präsentierte diese Story in Videos wie diesem:

Während ich an der Universität von Wisconsin an meinem BS und MS mit meiner Masterarbeit zum Thema „Explosive Redevelopment In East Coast Cyclones“ arbeitete, gaben die Wissenschaftler der Verbrennung fossiler Brennstoffe und dem vom Menschen eingeführten Feinstaub die Schuld an der Abkühlung, der wie ein „menschlicher Vulkan“ wirkte und genau wie diese die Sonnenstrahlen reflektierten und Abkühlung bringen würde, was die natürlichen Kräfte verstärkte.

Die Lösung sah man in der Beseitigung der Schadstoffe und schon damals in der Suche nach Alternativen zu fossilen Brennstoffen. Der zweite Zielfokus während des arabischen Ölembargos von 1973 führte zu Engpässen und Preissteigerungen, aber erneuerbare Energien waren damals noch nicht reif für die Grundlast und, wie das Texas-Debakel zeigte, sind auch heute noch nicht zuverlässig für die Bereitstellung der Grundlast und werden zu steigenden Energiepreisen und lebensbedrohlichen Stromausfällen führen.

Dann änderte sich die Phase des Pazifiks

Aber nach der großen pazifischen Klimaverschiebung Ende der 1970er Jahre kam es zu einer Erwärmung, da stärkere, länger anhaltende El Ninos, die eine globale Erwärmung hervorrufen, plötzlich gegenüber den La Ninas bevorzugt wurden, deren Dominanz zuvor zu der Abkühlung geführt hatte.

Ab 1988 reifte in so Manchem der Gedanke, dass diese neue Phase die goldene Gelegenheit sein könnte, die Kontrolle über unsere Energiepolitik zu übernehmen und die Medienberichterstattung umzulenken.

Showtime

1988 orchestrierten die Demokraten eine Anhörung, die vom damaligen Senator Al Gore inszeniert wurde und bei der der Senator Tim Wirth (später Leiter der UN-Stiftung – siehe Chris Horners Red Hot Lies) den NASA-Wissenschaftler James Hansen vorstellte, der seinen Eiszeit-Hut gegen einen eintauschte, der für die von Menschen verursachte globale Erwärmung warb.

Die NYT berichtete:

Senator Timothy E. Wirth, der Demokrat aus Colorado, der heute die Anhörung leitete, sagte:

So wie ich es lese, sind die wissenschaftlichen Beweise zwingend: Das globale Klima verändert sich, während die Erdatmosphäre wärmer wird. Jetzt muss der Kongress damit beginnen, darüber nachzudenken, wie wir diesen Erwärmungstrend verlangsamen oder aufhalten können und wie wir mit den Veränderungen, die vielleicht schon unvermeidlich sind, umgehen können.“

New York Times 1988

Wie der inszenierte Link zeigt, hatte Tim noch andere Gründe, diesen Weg zu gehen:

„Wir müssen das Problem der globalen Erwärmung angehen. Selbst wenn die Theorie der globalen Erwärmung falsch ist, werden wir das Richtige tun, in Bezug auf die Wirtschafts- und Umweltpolitik.“

Timothy Wirth zitiert in Science Under Siege von Michael Fumento, 1993

Die Politiker und Medien begannen bei diesem Treffen ihren 30 Jahre andauernden Angriff auf fossile Brennstoffe und unsere Lebensweise. Genährt durch eine plötzliche Flut von Fördergeldern, sprangen viele Leute aus den verschiedensten Disziplinen als selbsternannte Klimatologen, Umweltwissenschaftler und Modellierer an Bord.

An beiden Enden des Warm- und Kaltzyklus war der Feind also derselbe – Menschen und fossile Brennstoffe.

[Hervorhebung vom Übersetzer]


Beachten Sie die Abflachung seit den späten 1990er Jahren. Ich vermute, wenn eine Abkühlung eintritt, weil sich die Ozeane in der zweiten Schwächephase der Sonne nacheinander abkühlen, werden die Führer und Medien einen Weg finden, die Leichtgläubigen davon zu überzeugen, dass es ihre eigene Schuld war.

Siehe hier eine von mehreren Studien zum Thema neues Grand Solar Minimum, das gerade begonnen haben könnte.

Link: http://icecap.us/index.php/go/new-and-cool/man_attribution_to_natural_change_but_always_the_same_remedy/

Übersetzt von Chris Frey EIKE

 




Tesla-Lastkraftwagen „Semi“ in Australien nicht zugelassen

Wir berichteten kürzlich vom Wasserstoff-LKW der Firma Nikola. Ingenieure und andere Fachleute zweifeln an dem Konzept, weil das extrem flüchtige Gas eine erheblich kompliziertere Technik und eine völlig neue Infrastruktur erfordert, die es noch nicht einmal im Ansatz gibt. Was das für die Transportkosten bedeutet, kann man sich leicht ausrechnen.

Ähnlich unterhaltsame Konzepte wie Solardächer oder Starkstrom-Oberleitungen über Autobahnen hatten wir auch schon beleuchtet. Es geht aber noch besser: Zwar ist seit langem bekannt, daß man elektrische Energie am besten für Licht und EDV nutzt, aber nicht für Rad-Traktion und Heizen, weil die Effizienz herunter- und die Kosten heraufgehen (deswegen hat die EU zum Beispiel starke Heim-Staubsauger abgeschafft). Dennoch stellt Elon Musk mit seiner Firma Tesla nicht nur Luxus-Autos her, sondern nun auch Lastkraftwagen, genannt Semi Truck (englisch für LKW). Das nicht gerade formschöne Modell hat vermutlich wegen seiner gigantischen Batterien recht üppige Ausmaße, weswegen die australische Verkehrsbehörde ihm nun die Zulassung verweigerte. Die theoretischen Leistungsdaten lassen auf einen großen Akku schließen: 480 bis 800 km Reichweite.

Der Semi ist etwas breiter als die maximal erlaubten 2,50m. Statt sich anzupassen, verlangte Tesla eine Änderung der australischen Regeln:

„Die Kommission wird sich darüber im Klaren sein, dass angesichts der geringen Größe Australiens im Vergleich zu den Weltmärkten solche Inkonsistenzen zwischen australischen Vorschriften und größeren Märkten die Ankunft von Fahrzeugen auf den lokalen Märkten verzögern oder ausschließen werden. Derzeit wird Australien wahrscheinlich die erste Generation von elektrischen Schwerfahrzeugen wie dem Tesla Semi verpassen „

Also Druck mit dem Wirtschaftsargument? Der Semi soll angeblich um 20% geringere Betriebskosten haben als ein vergleichbarer Diesel – eine Angabe, die wenig vertrauenswürdig ist, solange man keine üppigen Subventionen mit einrechnet. Und emissionsfrei ist er auch nicht, da der Strom ja von Kohlewerken kommt (und sicher nicht von den zahlreichen australischen Solar- und Windkraftanlegen).

Nebenbei:

  • Auch in Deutschland hatte die Firma schon auf Änderung der Gesetze hingewirkt. Das Sonn- und Feiertagsverbot sollte gekippt werden.
  • Ab 2023 will Tesla jährlich 100.000 LKW produzieren. Seltsam – das entspricht in etwa der jährlichen Menge an PKW bisher.



Wie mittels Coronapanik & „Klimaschutz“ das Grundgesetz beerdigt wurde.

Haben Sie eigentlich auch Blumen oder einen Kranz zur Beerdigung geschickt? Sie wissen nicht, von welcher Beerdigung ich spreche? Ich rede von der Beerdigung des Grundgesetzes. Denn das Grundgesetz, das bislang in Deutschland galt und das ich als Jura-Student gründlich gelernt habe, wurde zu Grabe getragen. Es war kein lauter Militär-Putsch mit Toten und Verletzten, sondern ein ganz leiser, stiller und sich „normal“ gerierender Abschied, in etwa so wie der Abschied von Prinz Philip in Großbritannien. Dieser Abschied, eigentlich ein Staatsstreich, wurde betrieben und durchgeführt von den eigenen Institutionen des Staates. Wie komme ich zu dieser Behauptung?

Es sind zwei Dinge, mit denen faktisch die Geltung der Grundrechte, wie sie im Grundgesetz stehen, und die Freiheit, wie sie im Grundgesetz definiert ist, auf die Müllhalde der Geschichte verabschiedet wurden. Bei diesen zwei Dingen, die das Ende einer freiheitlich-demokratischen Grundordnung eingeläutet haben, handelt es sich um die sogenannte Notbremse im Infektionsschutzgesetz und um den Beschluss des Bundesverfassungsgerichts vom 24.03.2021 zu Verfassungsbeschwerden gegen das Bundes-Klimaschutzgesetz.

Zunächst ist hier die von den Regierenden herbeigeführte „Notbremse“, also § 28b Infektionsschutzgesetz, zu erörtern. Diese Vorschrift klingt erst einmal recht harmlos und ist doch angeblich „für einen guten Zweck“. Bereits an dieser Stelle sollte man hellhörig werden. Denn das Ermächtigungsgesetz von 1933 klang in den Ohren der meisten damaligen Zeitgenossen auch recht harmlos – man hatte schon mehrere Notverordnungen und Notstandsgesetze in der Weimarer Republik erlebt – und es sollte doch auch nur einem guten Zweck dienen. Was ist also an § 28b Infektionsschutzgesetz so schlimm?

An diesem Gesetz ist so schlimm, dass damit auf dem Gebiet des Infektionsschutzgesetzes der Föderalismus abgeschafft wurde. Von nun an wird zentralistisch von Berlin aus bis in den letzten Kreis und das letzte Dorf in Deutschland durchregiert. Aber das ist ja nach Meinung der Herrschenden auch gut so. Denn ein zentralistisches Durchregieren ist doch viel effektiver als der blöde Föderalismus. Wir haben außerdem mit dem Zentralismus in Deutschland immer gute Erfahrungen gemacht, das war von 1933 bis 1945 in ganz Deutschland so und von 1945 bis 1989 in Ostdeutschland. Also wofür noch diesen blöden Föderalismus?

An § 28b Infektionsschutzgesetz ist über seinen Inhalt hinaus schlimm, wie dieser Paragraph formal zustande kam und Gesetz wurde. Nach dem Modell des Grundgesetzes steht die gesamte staatliche Macht grundsätzlich den Ländern zu und nur in genau bezeichneten Ausnahmen dem Bund (Art. 30 GG). Bei den Gesprächsrunden mit Kanzlerin Merkel hätten also eigentlich die Ministerpräsidenten den Ton angeben müssen und hätte Merkel lediglich moderieren und vermitteln dürfen. In der Realität sah es genau andersherum aus. Merkel machte die Ansagen und die Ministerpräsidenten kuschten wie eine Schulklasse von Pennälern.

Die Ministerpräsidenten haben sich aber auch von ihrem eigenen Amt verabschiedet

Von den mächtigen Landesfürsten war so gut wie nichts zu hören. Hierzu ein konkretes Beispiel: Selbst in der Situation, als deutsche Urlauber über Ostern nach Mallorca fliegen und dort in Hotels wohnen konnten, aber die Hotels an der deutschen Nord- und Ostseeküste geschlossen blieben (trotz guter Hygiene-Konzepte), kam von den Ministerpräsidenten der Meeres-Anrainer-Bundesländer (Schleswig-Holstein, Niedersachen, Mecklenburg-Vorpommern) keine Reaktion. Wenn die Ministerpräsidenten dieser drei Bundesländer so etwas ähnliches wie ein Rückgrat gehabt hätten, wären sie aufgestanden und hätten die Besprechung mit Merkel verlassen. Aber tatsächlich passierte nichts. Überhaupt nichts. Die Ministerpräsidenten – alle Ministerpräsidenten – haben sich zwar als angeblich selbstbewusste Landesfürsten präsentiert, insbesondere unser Super-Ministerpräsident Söder, tatsächlich aber als stromlinienförmige, rückgratlose Würmer herausgestellt.

Das i-Tüpfelchen war dann die faktische Zustimmung der Bundesländer zum § 28b Infektionsschutzgesetz im Bundesrat. Zumindest an dieser Stelle hätten die Ministerpräsidenten die Zustimmung zum Gesetz verweigern und den Vermittlungs-Ausschuss anrufen können. So sähe es eigentlich das Grundgesetz bei einer streitigen Gesetzesvorlage für ein Bundesgesetz vor. Es wurde doch sonst in jeder Sonntagsrede von den Ministerpräsidenten der Föderalismus und seine Sinnhaftigkeit so hoch gelobt. Aber als es jetzt ernst wurde, unterschrieben sie ihr eigenes Abdankungs-Urteil. Die Bundesländer ließen § 28b Infektionsschutzgesetz im Bundesrat ohne jeglichen Widerstand passieren.

Mit diesem Gesetz haben sich alle Beteiligten – die Kanzlerin, die Ministerpräsidenten und die Abgeordneten des Bundestages, die für das Gesetz gestimmt haben – vom Föderalismus-Modell des Grundgesetzes endgültig verabschiedet. Die Ministerpräsidenten haben sich aber auch von ihrem eigenen Amt verabschiedet.

Denn solches Personal wie die jetzigen Ministerpräsidenten braucht wirklich niemand mehr. Wofür benötigen wir beispielsweise noch 16 verschiedene Landesbauordnungen oder 16 verschiedene Landesschulgesetze? Wenn dann doch allein Berlin festlegt, wann Schulen geschlossen werden müssen. Und wofür brauchen wir dann noch 16 Landesparlamente und 16 Landesregierungen mit Ministerpräsidenten, Ministern und Staatssekretären, wenn letztlich allein das Bundeskanzleramt den Durchblick bei den inneren Angelegenheiten hat und der Bundestag dem mehrheitlich zustimmt?

Absichtlich den Rechtsschutz für die Bürger abgeschnitten

Der schlimmste Aspekt von § 28b Infektionsschutzgesetz ist aber, dass damit in diesem Bereich absichtlich der Rechtsschutz für die Bürger abgeschnitten werden sollte und abgeschnitten wurde.

Als Jura-Student habe ich vor vielen Jahren gelernt, dass nach Art. 19 Abs. 4 S. 1 GG jeder Bürger einen Anspruch auf effektiven Rechtsschutz gegen Maßnahmen der öffentlichen Gewalt hat. Das war über 70 Jahre lang die gemeinsame Überzeugung aller Juristen in Deutschland und die ständige Rechtsprechung des Bundesverfassungsgerichts. Aber davon ist nichts mehr übriggeblieben. Der Bundestag hat mit Zustimmung des Bundesrates genau das Gegenteil gemacht: Er hat einen bestehenden Rechtsschutz abgeschafft.

Bislang waren die Corona-Maßnahmen in Rechtsverordnungen der Länder geregelt, gegen die der einzelne Bürger ein ordentliches Rechtsmittel hatte, nämlich den Normenkontrollantrag nach § 47 VwGO. Der Normenkontrollantrag nach § 47 VwGO ist aber nur gegen Rechtsverordnungen der Länder möglich, nicht gegen Gesetze oder Rechtsverordnungen des Bundes. Bei § 28b Infektionsschutzgesetz handelt es sich aber um ein Bundesgesetz. Also ist kein ordentliches Rechtsmittel mehr dagegen gegeben. Es ist ein Schelm, der Böses dabei denkt. Angela Merkel hat es unlängst selbst ausgesprochen, dass das der Sinn der Übung war, nämlich die lästigen Klagen bei den Oberverwaltungsgerichten zu beenden.

Theoretisch kann zwar der einzelne Bürger noch Verfassungsbeschwerde zum Bundesverfassungsgericht erheben. Bei der Verfassungsbeschwerde handelt es sich aber um kein ordentliches Rechtsmittel, sondern um einen außerordentlichen Rechtsbehelf. Außerdem bedarf die Verfassungsbeschwerde der Annahme durch das Bundesverfassungsgericht. Wenn die Damen und Herren in Karlsruhe also keine Lust haben, lehnen sie einfach die Annahme der Verfassungsbeschwerde ab, ohne sich überhaupt inhaltlich mit dem Vorgebrachten zu beschäftigen. Wenn man ehrlich ist, ähnelt die Verfassungsbeschwerde oftmals mehr einem Gnadenakt als überhaupt noch einem Rechtsmittel.

Infektionsschutzgesetz nur die Generalprobe

Es muss also nochmals deutlich für alle Nichtjuristen herausgestellt werden: Durch § 28b Infektionsschutzgesetz wurde ein bestehender Rechtsschutz abgeschafft. Art. 19 Abs. 4 S. 1 GG wurde mit Füßen getreten. Und fast alle haben mitgemacht: unsere Bundeskanzlerin (der Gesetzentwurf stammte aus dem Kabinett), die Abgeordneten des Bundestages, die für das Gesetz gestimmt haben, und die Ministerpräsidenten der Länder, die im Bundesrat dem Gesetz nicht entgegengetreten sind.

Wenn es sich bei dem Vorgehen der Herrschenden (Abschaffung des Föderalismus nach Art. 30 GG im Infektionsschutz-Bereich, Abschaffung eines effektiven Rechtsschutzes nach Art. 19 Abs. 4 GG in diesem Bereich) nur um einen einmaligen Ausrutscher handeln würde, könnte man darüber großzügig hinweggehen. Aber das Gegenteil ist leider der Fall. Denn es steht zu befürchten, dass § 28b Infektionsschutzgesetz nur die Generalprobe war und dass wir in Zukunft regelmäßig mit Grundrechtseinschränkungen aus politischen Motiven „beglückt“ werden.

  • 28b Infektionsschutzgesetz ist eine perfekte Blaupause für zukünftige Einschränkungen und Beschneidungen von Grundrechten, beispielsweise zum angeblichen Klimaschutz (als ob der Mensch oder ein so kleiner und unbedeutender Teil der Menschheit wie Deutschland ernsthaft in der Lage wäre, das Weltklima zu verändern oder zu „retten“. Welche eine Anmaßung). Man kann dann sogar teilweise den jetzigen Gesetzes-Text gleich weiterverwenden und muss nur noch Kleinigkeiten ändern. Das ist doch sehr praktisch. Statt eines bestimmten Inzidenzwertes (aktuell 100 nach dem Gesetz) kann man dann ja regeln, dass ab einem bestimmten – ebenso willkürlichen – CO2-Wert oder ab einem bestimmten NOx-Wert oder ab einem bestimmen Temperatur-Wert das Autofahren verboten wird, Flugreisen verboten werden, Ausgangssperren verhängt werden, Schulen, Theater und Kinos geschlossen werden und dergleichen.

Das alles ist keine bloße Fantasie. Vielmehr haben schon verschiedene Politiker, insbesondere unser Ober-Experte für Corona, Karl Lauterbach, ganz offen darüber gesprochen, dass man Grundrechtseinschränkungen wie für Corona auch für den Klimaschutz einsetzen müsste.

Keinen Schutz mehr gegen Grundrechtseinschränkungen

An diesem Punkt komme ich dann zum Bundesverfassungsgericht und seiner jüngsten Entscheidung zum Klimaschutzgesetz. Das Traurige ist nämlich, dass nicht nur einige durchgedrehte Politiker solche Grundrechtseinschränkungen herbeireden, sondern dass das Bundesverfassungsgericht genau solche zukünftigen Grundrechtseinschränkungen für den Klimaschutz „abgesegnet“ hat. Es ist mit dieser Entscheidung völlig klar, dass es in Zukunft vom Bundesverfassungsgericht keinen Schutz mehr gegen Grundrechtseinschränkungen, welcher Art auch immer, gegen Maßnahmen zum Klimaschutz geben wird. In seinem Beschluss zum Klimaschutzgesetz heißt es wörtlich:

„Zwar können selbst gravierende Freiheitseinbußen künftig zum Schutz des Klimas verhältnismäßig und gerechtfertigt sein; gerade aus dieser zukünftigen Rechtfertigbarkeit droht ja die Gefahr, erhebliche Freiheitseinbußen hinnehmen zu müssen. Weil die Weichen für künftige Freiheitsbelastungen aber bereits durch die aktuelle Regelung zulässiger Emissionsmengen gestellt werden, muss deren Auswirkung auf künftige Freiheit aus heutiger Sicht und zum jetzigen Zeitpunkt – in dem die Weichen noch umgestellt werden können – verhältnismäßig sein“ (Randnummer 192 der Entscheidung).

Das ist ein „Hammer“. In der Sache hat sich das Bundesverfassungsgericht damit nämlich vom Grundgesetz verabschiedet. Denn es macht völlig klar, dass selbst „gravierende“ Freiheitseinbußen zum Schutz des Klimas möglich sind und es dagegen nicht einschreiten wird.

Bislang waren Einschränkungen von Grundrechten nur nach den besonderen Voraussetzungen der Artikel 1 bis 20 Grundgesetz möglich. Dabei war die Einschränkungsmöglichkeit von Grundrechten im Grundgesetz selbst geregelt, nämlich im Rahmen eines einfachen Gesetzesvorbehaltes, eines qualifizierten Gesetzesvorbehaltes oder – mangels ausdrücklicher Einschränkbarkeit eines Grundrechtes – durch andere Grundrechte im Rahmen einer praktischen Konkordanz.

Von dieser klaren Systematik hat sich das Bundesverfassungsgericht verabschiedet, wenn es nebulös davon spricht, dass Maßnahmen zum Klimaschutz zukünftig auch gravierende Freiheitseinbußen rechtfertigen können. Aus einem bloßen Staatsziel in Art. 20a GG – und mehr war das bislang nicht nach ganz überwiegender verfassungsrechtlicher Ansicht – macht das Bundesverfassungsgericht plötzlich eine eigenständige Rechtfertigung für alle möglichen Eingriffe in alle möglichen Grundrechte. Das war es dann mit den Grundrechten.

Verbote von Autofahrten und Flugreisen

Denn es liegt auf der Hand, dass wirklich alle Grundrechtseinschränkungen, die wir seit dem Beginn der Corona-Krise erlebt haben, auch mit dem Schutz des Klimas formal begründet werden können. Beispielsweise Verbote von Autofahrten und Flugreisen sind danach gut, weil weniger CO2 ausgestoßen wird. Das rechtfertigt also einen Eingriff in die allgemeine Handlungsfreiheit und in die Berufsfreiheit (auf Menschen, die gerne einmal Auto fahren oder die beruflich bedingt mit einem Auto fahren müssen, wird dann mit Sicherheit keine Rücksicht mehr genommen werden).

Auch nächtliche Ausgangssperren ließen sich damit begründen, weil durch weniger Verkehr zur Nachtzeit, durch weniger Treffen von Menschen und durch weniger Partys natürlich auch weniger CO2 ausgestoßen würde.

Auch die Schließung von Theatern und Kinos lässt sich leicht mit dem Klimaschutz rechtfertigen. Denn die meisten Besucher von Theatern und Kinos gelangen mit Autos oder öffentlichen Verkehrsmitteln dort hin und wieder zurück. Auch dabei wird „völlig unnötig“ CO2 ausgestoßen. Es ist daher viel einfacher, eigentlich geradezu erforderlich, wie zu Corona-Zeiten die Menschen ab 22.00 Uhr wieder in ihren Wohnungen und Häusern einzusperren, um unnötigen Verkehr und unnötigen CO2-Ausstoß zu vermeiden.

Ich könnte diese Beispiele noch endlos fortsetzen. Das erspare ich aber Ihnen und mir. Wenn Sie das Szenario noch näher betrachten wollen, lesen Sie sich das Wahlprogramm der Grünen durch, unter anderm das Verbot zum Bau von Einfamilienhäusern, den Veggie-Day und das angestrebte Verbot von Autos mit Verbrennungsmotoren.

Das Erschütternde ist, dass sich das Bundesverfassungsgericht auf einer – noch immer – unsicheren Tatsachengrundlage so weit aus dem Fenster gelehnt hat und ernsthaft meint, zweifelsfrei und ohne jeden Fehler in die Zukunft schauen zu können.

Die Überheblichkeit des Ansatzes

Wie schreibt das Gericht so schön an anderer Stelle wörtlich: „Ein unbegrenztes Fortschreiben von Erderwärmung und Klimawandel stünde aber nicht im Einklang mit dem Grundgesetz“ (Randnummer 120 der Entscheidung). Solche Sätze, von denen die Entscheidung strotzt, sind an Beschränktheit und Arroganz eigentlich kaum mehr zu überbieten.

Hierzu nur wenige Punkte: Bereits das Wort „Klimawandel“ ist völliger Unsinn, weil sich das Klima immer und ständig gewandelt hat in den letzten 100.000 Jahren. Die Vorstellung, wir hätten ein seit langem bestehendes konstantes Klima, welches allein durch den menschgemachten CO2-Ausstoß gewandelt würde, ist schlicht grotesk. Wenn die Damen und Herren aus Karlsruhe im Schulunterricht aufgepasst hätten, müssten sie wissen, dass Skandinavien und die Ostsee in der letzten Eiszeit von einem riesigen Gletscher überzogen war, der komplett abschmolz, ohne dass menschgemachtes CO2 eine Rolle gespielt hätte. Es gibt keinen wirklich gesicherten Beweis (sondern nur Modelle), dass die jetzige Erwärmung auf das menschgemachte CO2 zurückzuführen wäre. Aber solche Feinheiten interessieren die Richter in Karlsruhe anscheinend nicht mehr.

Ein weiterer Punkt ist die Überheblichkeit dieses Ansatzes. Glauben die Verfassungsrichter ernsthaft, dass die völlige Einsparung von CO2 in Deutschland, die jedes Jahr allein schon durch den weiteren und erhöhten CO2-Ausstoß von Russland, China und Indien mehr als kompensiert wird, irgendetwas am Weltklima ändern könnte?

Keine Ahnung von der Normenhierarchie des Grundgesetzes

Ein dritter Punkt schließlich lässt an den grundlegenden juristischen Fähigkeiten Verfassungsrichter zweifeln. Unter Randnummer 120 heißt es u.a., dass nach Art. 20a GG ein Klimaschutzgebot bestünde (das hat bisher eine überwiegende Zahl von Verfassungsrechtlern nicht so gesehen), welches die Gesetzgebung – verfassungsrechtlich maßgeblich – durch das Ziel konkretisiert habe, die Erwärmung der Erde (das wird alles von Deutschland aus geregelt…) auf deutlich unter 2 Grad Celsius und möglichst auf 1,5 Grad Celsius gegenüber dem vorindustriellen Niveau zu begrenzen.

Hier wird also nicht das Regelwerk des Grundgesetzes angewendet, wonach die Verfassung über jedem Gesetz und über jeder Regierung steht. Nein, es wird das Gegenteil praktiziert. Die Gesetzgebung – also die jeweilige Mehrheit im Bundestag, die sich bekanntlich ändern kann – steht plötzlich auf gleicher Höhe mit dem Grundgesetz und ist „verfassungsrechtlich maßgeblich“. Eine solche Aussage würde ich jedem Referendar, der zur Ausbildung bei mir wäre, um die Ohren hauen. Denn er hätte dadurch gezeigt, dass er keine Ahnung von der Normenhierarchie des Grundgesetzes hat.

Außerdem halten es die Bundesverfassungsrichter offensichtlich für ausgeschlossen, dass eines Tages ein anderer Gesetzgeber, also eine andere Mehrheit im Bundestag entstehen könnte. Und dieser Ausschluss ist seinerseits verfassungswidrig. Es ist immerhin denkbar – und daran hätten auch die Karlsruher Richter denken müssen, ehe sie sich so großspurig und arrogant aus dem Fenster lehnen – dass eines Tages eine Mehrheit im Bundestag eine Regierung stützt, die aus dem Pariser Klima-Abkommen aussteigt, die sich vom 1,5 Grad-Ziel verabschiedet und die eine gänzlich andere Politik verfolgt.

Immerhin hat es das in der größten Nation des Westens, in den USA, unter Trump gegeben. Wäre eine solche Regierung oder Bundestagsmehrheit dann allein deshalb verfassungswidrig? Selbstverständlich nicht. Aber eine solche Möglichkeit haben die Richter offenbar überhaupt nicht in Rechnung gestellt, sondern die gerade aktuelle Politik der gerade aktuellen Regierung zum Verfassungsmaßstab erklärt. Das ist juristisch nur noch eins: mangelhaft.

Das Gericht hat sich von seiner Aufgabe verabschiedet

Nach dieser Entscheidung des Bundesverfassungsgerichts unter seinem Präsidenten Stephan Harbarth ist völlig klar, wohin die Reise geht: Das Gericht wird alle zukünftigen Grundrechtseinschränkungen zum angeblichen Klimaschutz akzeptieren und nicht aufheben. Das Gericht hat sich von seiner Aufgabe, die ihm nach dem Grundgesetz obliegt, nämlich den Gesetzgeber zu überwachen und in seine Schranken zu weisen, verabschiedet.

Wer jetzt noch ernsthaft glaubt, dass das Gericht unter einem Präsidenten wie Harbarth in Zukunft auch nur eine einzige Regelung des Klimaschutzes noch für verfassungswidrig erklären könnte, ist grenzenlos naiv. Gerade unter einem solchen Präsidenten, der ein stromlinienförmiger Parteisoldat war, ein treuer Merkel-Untertan (sonst wäre er überhaupt nicht Richter oder Präsident des Bundesverfassungsgerichts geworden) und ein karriere-bewusster Anpasser, ist nicht mehr mit eigenständigen und richterlich unabhängigen Entscheidungen durch den 1. Senat des Gerichts zu rechnen. Ganz im Gegenteil hat er mit dieser Entscheidung deutlich gemacht, dass der 1. Senat des Gerichts ein zuverlässiger Handlanger und Erfüllungsgehilfe der Merkel-Regierung oder einer zukünftigen Grünen-Regierung unter Annalena Baerbock sein wird.

Der Weg zu einer grünen Öko-Diktatur ist damit dank Stephan Harbarth und Komplizen geebnet. Einen echten Grundrechts- und Freiheitsschutz der Bürger, der nach dem Grundgesetz dem Bundesverfassungsgericht obliegt, wird es nicht mehr geben. Also liebe Leser, spenden Sie Blumen oder schicken Sie einen Kranz. Das alte Grundgesetz, was wir einst hatten, war die beste Verfassung, die Deutschland jemals gehabt hat. Faktisch wird sie in Zukunft kaum noch eine Rolle spielen.

 

Der Autor ist Richter an einem deutschen Gericht und schreibt hier unter Pseudonym.

Der Beitrag erschien zuerst bei ACHGUT hier




„Deutschlands Gletscher werden wohl binnen zehn Jahren völlig verschwinden“

Life-Panorama-Kamera der Bergstation Zugspitze, 2.960m

Die Nordhalbkugel erlebte gerade einen heftigen Wintereinbruch: Im Dezember türmten sich in Bayern, der Schweiz und Österreich die Schneeberge; Madrid versank unter solchen, und im Februar waren die deutschen Mittelgebirge mit Jahrhundert-Rekorden dran.

Trotzdem ist sich das Bayerische Staatsministerium für Umwelt und Verbraucherschutz StMuV nicht zu schade, im Rahmen des Bayerischen Gletscherberichtes zu behaupten, daß es in zehn Jahren wahrscheinlich keine deutschen Gletscher mehr geben werde, die alle im Herrschaftsgebiet des grün-weißblauen Ministerpräsidenten Markus Söder liegen. Der Minister, Thorsten Glauber, ist übrigens gar nicht von der CSU, sondern von den Freien Wählern.

Es gibt in Bayern überhaupt nur fünf Gletscher: die beiden Schneeferner, den Höllentalferner, den Blaueis und den Watzmanngletscher. Die sind seit etwa 1850 deutlich abgeschmolzen, beziehungsweise seit 1980, da die natürliche Warmperiode, die vor 120 Jahren begann, immer wieder Zwischentiefs wie in den 1970ern hat. Von 1980 bis etwa 1998 wurde es durchgehend wärmer; seitdem haben wir aber einen Hiatus, der gern verschwiegen wird. Fazit: In Warmperioden schmelzen Gletscher, das ist normal und kein Problem; im Gegenteil, wie unsere Referenten Christian Schlüchter und Gernot Patzelt anhand von Baumresten in heutigen Gletscher-Moränen zeigen konnten.

Da, wie wir wahrscheinlich jetzt schon erleben müssen, das Klima der nächsten 100 Jahre sonnenbedingt deutlich kühler werden wird, ist mit einem Verschwinden unserer Gletscher nicht zu rechnen. Und selbst wenn: na und? Wen interessiert es, ob fünf Eiszungen irgendwo auf Bergen weg sind? Die Touristen auf der Zugspitze vielleicht wegen der Aussicht, aber das ist jetzt nicht wirklich relevant.

Es ist reine Panikmache mit Symbolen; ähnlich den kalbenden Eisbergen der Arktis oder den Eisbären, die Bürger in Europa gar nicht interessieren, wenn Medien sie nicht für Kampagnen nutzen.

Die unwissenschaftliche Meldung des Ministeriums hat aber noch eine andere Dimension: Die Eisstürme des Winters 20/21 haben ja Mojib Latif, die Kollegen vom PIK und viele andere „Forscher“ aufs heftigste blamiert. Zuvor mußten Gletscher-Apokalyptiker in den USA bereits klammheimlich Hinweisschilder verschwinden lassen, weil die Eispanzer eines Nationalparks wieder wachsen, statt abzutauen. Das wird dem Umweltministerium in zehn Jahren spätestens auch drohen. Ist es ihnen egal? Wahrscheinlich; da die Erfahrung lehrt, daß nichts älter ist als die Schlagzeile von gestern, und die meisten Bürger sich nicht an den Weltuntergangs-Quatsch der Politiker von vor Jahren erinnern.

Deswegen traute sich der Bayerische Grünfunk auch einen Tag vor der deutschen Gletschermeldung zu verbreiten, daß in den „letzten 20 Jahren Gigatonnen Eis“ geschmolzen seien, und dies in Europa, Asien und Südamerika weiterhin geschehe. Seltsam: Den genannten Gletscher-Nationalpark im Norden der USA hat man ganz vergessen. Auch den größten Gletscher in Grönland, den wachsenden Jakobshavn, erwähnte man nicht. Und die gezeigten Fotos im verlinkten Beitrag mit schneefreien nackten Felswänden- sind die eigentlich wochenaktuell? Nein, das sind wahrscheinlich Archivaufnahmen vom Sommer 2018, von Chrisoph Mayer, Bayerische Akademie der Wissenschaften. Die sekundenaktuelle Kamera zeigt ein ganz anders Bild vom Schneeferner und der Zugspitze: Da ist der Gletscher unter seiner dichten Schneedecke gar nicht zu sehen.

Man erwähnt zwar alibimäßig noch ein paar nicht schmelzende Gletscher im Karakorum; aber das seien nur „Anomalien“.




Wolken und globale Erwärmung

Willis schrieb den Beitrag als Antwort auf eine Studie von Paulo Ceppi und Kollegen über Wolkenrückkopplung in globalen Klimamodellen (Ceppi, Brient, Zelinka, & Hartmann, 2017). Wir werden diese Studie als Ceppi17 bezeichnen. Ich habe mir in den letzten Tagen die Zeit genommen, Willis‘ Beitrag und Ceppis Studie zu verstehen und Folgendes herausgefunden; lassen Sie mich in den Kommentaren wissen, was Sie denken.

In Ceppi17, N = F + λΔT. N ist das Ungleichgewicht des Energieflusses an der Oberseite der Atmosphäre, F ist ein Forcing in W/m² aufgrund eines plötzlichen Anstiegs der Treibhausgase. Die hypothetische Situation, die in dem Papier verwendet wurde, war eine sofortige Vervierfachung des CO2, bezogen auf vorindustrielle Bedingungen. Dann berechneten sie ein hypothetisches F. „λ“ ist die Wolkenrückkopplung und ΔT ist die gesamte globale Temperaturänderung, die erforderlich ist, um das Gleichgewicht wiederherzustellen, oder ein N von Null. Ihre Rückkopplungszahlen können aufgrund des unplausiblen Szenarios nicht mit Daten dupliziert werden. Hier sind zwei weitere Versionen der Gleichung als Referenz.

ΔT = (N-F)/ λ or λ = (N-F)/ ΔT

Was ist N? N ist ein Kräfteungleichgewicht zwischen eingehender (oder abwärts gerichteter) Strahlung und ausgehender Strahlung an der Obergrenze der Atmosphäre, die wir mit den CERES-Satelliten definieren werden. N ist positiv, wenn die abwärts gerichtete Kraft größer ist (Erwärmung) und negativ, wenn die abgehende Strahlung größer ist (Abkühlung). Die Erde befindet sich im Gleichgewicht, wenn die Rückkopplung, N und F gleich Null sind. Eine positive Rückkopplung (λ) führt zur Erwärmung und zu einem größeren Ungleichgewicht (N). Je höher die Rückkopplung ist, desto größer ist die Erwärmung. Ist die Rückkopplung negativ, kommt es zu einer Abkühlung oder langsameren Erwärmung.

„CRE“ ist der Wolken-Strahlungseffekt oder die Differenz zwischen dem Strahlungsfluss bei klarem Himmel und dem gesamten Himmel am Satelliten (TOA). Wolken reflektieren die eintreffende kurzwellige Sonnenstrahlung (SW), so dass bei Vorhandensein von Wolken mehr SW zum Satelliten aufsteigt, im Durchschnitt beträgt der Anstieg etwa -45 W/m². Dies ist eine negative Zahl, weil es bedeutet, dass mehr Strahlung die Erde verlässt, ein kühlender Effekt. Wolken blockieren auch einen Teil der von der Erdoberfläche ausgehenden langwelligen Infrarotstrahlung (LW), im Durchschnitt etwa 27 W/m², eine positive Zahl, da es sich um Energie handelt, die von der Erde zurückgehalten wird oder weniger Energie, die den Satelliten erreicht, ein wärmender Einfluss. Die Differenz beträgt -18 W/m², was bedeutet, dass die Wolken insgesamt die Erde kühlen.

Man würde denken, dass sich die Erde umso schneller abkühlt, je mehr Wolken vorhanden sind, aber so einfach ist es nicht. Einige Wolken, insbesondere niedrige Wolken und Kumuluswolken, neigen dazu, tagsüber mehr Energie zu reflektieren als sie nachts einfangen. Hoch liegende Wolken, wie Zirruswolken, neigen dazu, solare SW-Energie durchzulassen und fangen viel aufsteigende LW-Energie ein, daher haben sie einen wärmenden Effekt. Der Wolkentyp spielt also eine Rolle.

Abbildung 1. CRE in W/m². Negative Werte (schwarz, grau und blau) bedeuten Abkühlung. Daten von https://ceres.larc.nasa.gov/data/

Abbildung 1 ist eine Karte des durchschnittlichen TOA (Obergrenze der Atmosphäre) Wolken-Strahlungs-Ungleichgewichts (CRE) bei den CERES-Satelliten. Die blauen Farben bedeuten ein negatives Energie-Ungleichgewicht oder eine Abkühlung der CRE. Die Karte ist ein Durchschnitt der monatlichen CERES-Daten von 2001 bis 2019. Die abgebildete CERES-Variable ist „toa_cre_net_mon“ oder der „Top of The Atmosphere Cloud Radiative Effects Net Flux“. Der Effekt ist überall negativ (oder kühlend), außer über Wüsten und den polaren Landregionen. Dies sind Gebiete, in denen die Wolken dazu neigen, die Infrarotstrahlung der Oberfläche und der unteren Atmosphäre einzufangen und gleichzeitig die kurzwellige Sonnenstrahlung zur Oberfläche durchzulassen.

Der Punkt, an dem sich die wärmenden und kühlenden Effekte der Wolken in der Farbskala von Abbildung 1 treffen, ist dort, wo das hellste Blau auf das hellste Gelb trifft. Genau bei Null ist der Punkt, an dem die eingehende Energie gleich der ausgehenden Energie ist, in Bezug auf die Wolken. Mit Ausnahme der Sahara, des Nahen Ostens, Westchinas, Teilen Südostasiens, Indonesiens, Nordaustraliens, des Südwestens der USA und Mexikos kühlen die Wolken also die Erde ab. Die dunkleren Gebiete in Abbildung 1 haben mehr anhaltende Wolken.

Abbildung 2 hat hellere Farben für Wolken und dunklere Farben für klaren Himmel. So ist der hellere Streifen in der Nähe des Äquators, sowohl im Pazifik als auch im Atlantik, in Abbildung 2 weiß, im Gegensatz zu Abbildung 1. Dies ist die intertropische Konvergenzzone (ITCZ), in der die Passatwinde der nördlichen und südlichen Hemisphäre zusammenlaufen. Hier ist die Verdunstung von Meerwasser am größten. Da Wasserdampf eine geringere Dichte als trockene Luft hat, handelt es sich um eine Zone mit schnell aufsteigender feuchter Luft und häufigem Regen und Gewitter. Sie ist fast immer bewölkt. Die ITCZ folgt dem Zenitpunkt der Sonne und die kühlende Wirkung der Wolken in dieser Zone ist sehr hoch.

Die maximale Wolkenabkühlung bzw. die negativsten CRE-Werte befinden sich in den kleinen weißen Flecken in der Mitte der schwarzen Flecken vor dem südlichen Peru und im südöstlichen China, nördlich von Vietnam. Diese CRE-Werte sind sehr negativ (extrem kühlend) und liegen außerhalb der Skala. Abbildung 1 korreliert einigermaßen gut mit dem Wolkenanteil in Abbildung 2 bzw. den helleren Farben in Abbildung 3, mit Ausnahme der Polkappen.

Abbildung 2. CERES-Wolkenanteil in Prozent. Dunklere Farben bedeuten weniger Bewölkung, hellere Farben bedeuten mehr Wolken.

Abbildung 3 ist die blaue NASA-Murmel mit Eis und Wolken in einer Mercator-Projektion dargestellt. Beachten Sie die Ähnlichkeit mit Abbildung 2, außer an den Polen.

Abbildung 3. Darstellung der NASA mit Eis und Wolken.

Abbildung 4 zeigt die gleichen Daten, die CERES EBAF 4.1-Variable „toa_cre_net_mon“, als jährliche globale Mittelwerte. EBAF bedeutet „energy balanced and filled“. Wie Norman Loeb und Kollegen (NASA Langley Research Center) erklären, ist das Energie-Ungleichgewicht der Erde so winzig, zwischen 0,5 und 1 W/m², dass es nur 0,15% der gesamten ein- und ausgehenden Strahlung ausmacht. Die Zahl, nach der wir suchen, ist also die Differenz zwischen zwei großen Zahlen und liegt kaum über der Unsicherheit der Satellitenmessungen.

Die Kalibrierungsunsicherheit bei der CERES SW-Messung beträgt 1 % und 0,75 % für die LW. Somit ist die ausgehende LW nur auf ±2 W/m² bekannt. Es gibt viele andere Fehlerquellen, und wie Loeb, et al. erklären, beträgt das Netto-Ungleichgewicht aus den Standard-CERES-Datenprodukten nur ~4,3 W/m², nicht viel größer als der erwartete Fehler. Aufgrund der groben Auflösung des CERES-Instruments gibt es viele fehlende Gitterzellen in dem Eins-zu-Eins-Gitter für Breiten- und Längengrade, das zur Erstellung der Karten in den Abbildungen 1 und 2 verwendet wird. Um diese Probleme zu umgehen, verwenden Loeb und Kollegen einen komplexen Algorithmus, um fehlende Werte aufzufüllen und die SW- und LW-TOA-Flüsse innerhalb ihrer Unsicherheitsbereiche anzupassen, um Inkonsistenzen zwischen dem globalen Netto-TOA-Energiefluss und der Wärmespeicherung im System Erde-Atmosphäre zu beseitigen (Loeb, et al., 2018).

Abbildung 4. Der flächengewichtete durchschnittliche monatliche TOA CRE (Cloud-Radiative Effect) des CERES von 2001 bis 2019. Daten von der NASA.

Der CRE- oder der Wolkenstrahlungs-Ungleichgewichtswert variiert stark von Jahr zu Jahr, der Durchschnittswert über die 19 Jahre beträgt -19,1 W/m², das liegt sehr nahe am Wert von Ceppi et al. von -18 W/m² (Ceppi, Brient, Zelinka, & Hartmann, 2017). Dies deutet darauf hin, dass die Gesamtwolkenbedeckung der Hauptfaktor ist, sie ist unten in Abbildung 5 dargestellt. Wie zu erwarten, nimmt der Kühleffekt ab, wenn der Wolkenanteil sinkt, und die CRE wird weniger negativ. Wenn der Wolkenanteil steigt, nimmt der Kühleffekt zu.

Abbildung 5. CERES Durchschnittlicher monatlicher Wolkenanteil, Variable cldarea_total_daynight_mon.

In Ceppi17 impliziert ein positiverer Rückkopplungsparameter (λ) eine Erwärmung. Da sie mit Modellen arbeiten, können sie λ berechnen, indem sie den berechneten Antrieb, der erforderlich ist, um das ursprüngliche erzwungene Energieungleichgewicht aufgrund von Wolken auszugleichen, durch die resultierende Temperaturänderung (ΔT) teilen. Abbildung 6 zeigt die globale Rückkopplung von Ceppi17 aufgrund von Wolken.

Abbildung 6. Der globale Wolken-Rückkopplungs-Parameter von Ceppi17, die Einheiten sind W/m²/K.

Die Einheiten sind W/m²/K, wobei K (Kelvin) Grad C der Erwärmung oder Abkühlung aufgrund von Wolken über die Zeit, die zum Erreichen des Gleichgewichts benötigt wird, ist. Abbildung 6 ist die Wolkenrückkopplung und nicht das Gleiche wie CRE, aber laut Ceppi17 ist die Wolkenrückkopplung tendenziell positiv und es deutet darauf hin, dass die Wolken langfristig die Erde erwärmen und nicht abkühlen. Dies brachte Willis dazu, das ganze Papier in Frage zu stellen. Er weist darauf hin, dass Abbildung 6 eine Darstellung der Modellausgabe ist und Abbildung 1 Daten sind. Die Daten in Abbildung 1 sind massiert und sie sind nahe am Rande der Unsicherheit, aber es sind Daten.

Ceppi17 hat Glück, dass wir ihre Rückkopplungsparameter nicht aus realen Daten ableiten können, denn wenn wir das könnten, würde die Karte vermutlich ganz anders aussehen als in Abbildung 6. Einer der Orte, an dem die Wolken die Oberfläche am meisten abkühlen, liegt zum Beispiel vor der Küste Perus, wie wird daraus ein Gebiet mit einer positiven Rückkopplung? Der andere ist der Südosten Chinas, OK, dort wird es ein wenig blau, aber nichts von dem, was uns die tatsächlichen Daten zeigen. Die sehr bewölkte ITCZ ist ein sehr heißes Gebiet in Abbildung 6, wie machen sie das?

Ich stimme mit Willis überein, diese ganze Idee, dass Wolken eine positive (wärmende) Rückkopplung sind, macht keinen Sinn. Das Schlimmste daran ist, dass fast jedes Modell eine positive Wolkenrückkopplung verwendet. Die Wolkenrückkopplung ist die größte Komponente der modellberechneten ECS (die Temperatursensitivität aufgrund einer Verdopplung der CO2-Konzentration), welche das IPCC bevorzugt. Wie wir wissen, können Wolken nicht modelliert werden, sondern müssen parametrisiert werden (der schicke Modellierungsbegriff für „angenommen“). Wie Steve Koonin in seinem demnächst erscheinenden Buch „Unsettled“ berichtet, haben Wissenschaftler des Max-Planck-Instituts ihr Klimamodell durch Anpassung der Wolkenrückkopplungen auf einen ECS von etwa 3°C eingestellt. Er fügt hinzu: „Talk about cooking the books.“ (Koonin, 2021, S. 93). [Etwa: Sprecht über das Frisieren der Bücher!]

Ceppi17 berichtet, dass die Wolkenrückkopplung „bei weitem die größte Quelle für die Streuung zwischen den Modellen bei der Gleichgewichts-Klimasensitivität (ECS) ist.“ Sie weisen auch darauf hin, dass die Wolkenrückkopplung stark mit der aus den Modellen abgeleiteten ECS korreliert ist und liefern uns die Daten, die in Abbildung 7 dargestellt sind.

Abbildung 7. Modellierte Wolkenrückkopplung (λ) aufgetragen gegen modellgeleitetes ECS. Daten aus (Ceppi, Brient, Zelinka, & Hartmann, 2017).

Oops! Wolken können nicht modelliert werden, Modelle gehen davon aus, dass ihre Wolken einen Erwärmungseffekt haben, CERES sagt, dass Wolken einen Nettokühleffekt haben, einen großen Nettokühleffekt von -18 W/m². Die Modelle sagen, dass der gesamte menschliche Einfluss auf das Klima seit Beginn des Industriezeitalters 2,3 (1,1 bis 3,3) W/m² beträgt (IPCC, 2013, S. 661), was den Wolkeneinfluss von -18 W/m² relativiert. Beachten Sie, dass die Variabilität in Abbildung 4 größer ist als 2,3 W/m². Wie viel der ECS von Modellen ist auf ihre Annahme zurückzuführen, dass Wolken eine Nettoerwärmung sind? Wie viel ist auf ihre Annahme zurückzuführen, dass ECS 3 W/m² beträgt? So viele Fragen.

Willis Eschenbach kindly reviewed this post for me and provided valuable input.

References

Ceppi, P., Brient, F., Zelinka, M., & Hartmann, D. (2017, July). Cloud feedback mechanisms and their representation in global climate models. WIRES Climate Change, 8(4). Retrieved from https://onlinelibrary.wiley.com/doi/full/10.1002/wcc.465

IPCC. (2013). In T. Stocker, D. Qin, G.-K. Plattner, M. Tignor, S. Allen, J. Boschung, . . . P. Midgley, Climate Change 2013: The Physical Science Basis. Contribution of Working Group I to the Fifth Assessment Report of the Intergovernmental Panel on Climate Change. Cambridge: Cambridge University Press. Retrieved from https://www.ipcc.ch/pdf/assessment-report/ar5/wg1/WG1AR5_SPM_FINAL.pdf

Koonin, S. E. (2021). Unsettled: What Climate Science Tells us, What it doesn’t, and why it matters. Dallas, Texas, USA: BenBella. Retrieved from https://www.amazon.com/dp/B08JQKQGD5/ref=dp-kindle-redirect?_encoding=UTF8&btkr=1

Loeb, N. G., Doelling, D., Wang, H., Su, W., Nguyen, C., Corbett, J., & Liang, L. (2018). Clouds and the Earth’s Radiant Energy System (CERES) Energy Balanced and Filled (EBAF) Top-of-Atmosphere (TOA) Edition-4.0 Data Product. Journal of Climate, 31(2). Retrieved from https://journals.ametsoc.org/view/journals/clim/31/2/jcli-d-17-0208.1.xml

Link: https://andymaypetrophysicist.com/2021/04/28/clouds-and-global-warming/

Übersetzt von Chris Frey EIKE

 




Kältereport Nr. 6

Historische Frost- und Schnee-Ereignisse im Mittleren Westen und dem Osten der USA

27. April: Auf den tödlichen Februar-Frost in Nordamerika folgte Ende April ein brutaler arktischer Sturm. Das Ergebnis waren Schäden in Millionenhöhe in den wichtigsten Anbauregionen der USA, nicht zuletzt in den Weinbergen des Landes.

Link: https://electroverse.net/midwest-and-eastern-vineyards-hit-by-historic-snow-and-freeze-events/

——————————

Eisiger polarer Griff in Neuseeland – Eisausdehnung um die Antarktis nach wie vor über dem Mittel der Jahre 1979 bis 1990

28. April: Der Winter hält früh Einzug in Neuseeland, vor allem auf der Südinsel, wo die Temperaturen weit unter dem Durchschnitt liegen und sogar ein wenig Schnee außerhalb der Saison gefallen ist.

Ein mitternächtlicher Schneesturm bescherte dem Porters Alpine Resort in der Nähe von Castle Hill am Dienstagmorgen eine ordentliche Portion Schnee, während Teile des Landesinneren von Canterbury und Otago bei Temperaturen um den Gefrierpunkt erwachten, die bis auf -3,2 Grad sanken.

Am Mittwochmorgen sank die Temperatur noch weiter, da eine antarktische Luftmasse das Regiment übernahm.

Link: https://electroverse.net/polar-chill-grips-new-zealand-antarctic-sea-ice-extent-average/

——————————

Historischer Frühjahrs-Frost schädigt die Getreide-Ernte in der EU und den USA

29. April: Das sich verschärfende Große Sonnenminimum bereitet Sorgen um die Versorgung mit Getreide und treibt die aktuelle Preisspirale an. An den globalen Getreidemärkten wurden beträchtliche Preissteigerungen verzeichnet: Die Maispreise in Chicago stiegen in der vergangenen Woche um 18 Prozent und diejenigen für britischen Futterweizen legten in den letzten 12 Tagen um 17 Prozent zu.

Link: https://electroverse.net/historic-spring-freeze-impacts-eu-and-us-grain-crops/

——————————

Rekord-Frühjahrsschneefälle im zentralen Russland – außerordentlich kalter April auf der Krim

30.April: Nach einem historisch kalten und rekordverdächtig schneereichen Winter haben Teile Russlands – namentlich Sibirien – endlich ein wenig Frühlingswärme erlebt; oder besser gesagt, sie hatten es, bevor in dieser Woche die Arktis zurückkehrte.

„Nach den letzten warmen Tagen gab es einen Hauch von Kälte“, wie hmn.ru es ausdrückt – das erscheint aber untertrieben, da die Übersetzung durcheinandergeraten zu sein scheint. Die letzte Aprilwoche in und um die Region Moskau war nicht nur kühl, sondern es herrschten Bedingungen wie im tiefsten Winter, mit den dazu passenden beträchtlichen Schneemengen.

Schnee in den Regionen Moskau und Tula, Russland: gestern fiel bis zu 20 cm Schnee (Plavsk 20 cm, Kasira 17 cm) und bis zu 5 cm Schnee südlich von Moskau (Flughafen Domodevo)

Extrem kalter April auf der Halbinsel Krim

Auch auf der nahe gelegenen Halbinsel Krim herrschte sehr kaltes Wetter

30.April: Während des gesamten Monats April hat die Temperatur in Simferopol nie die 20°C-Marke überschritten – ein historischer Vorgang. Und das vergangene Jahr war „sehr ähnlich“, heißt es in einem anderen hmn.ru-Artikel. Auch 2020 lagen die Thermometerwerte häufiger unter als über der Klimanorm – ein weiteres Beispiel für die „Verlängerung des Winters“, wie es in Zeiten geringer Sonnenaktivität zu erwarten ist.

Link: https://electroverse.net/central-russia-sees-record-spring-snow-as-crimea-suffers-exceptionally-cold-april/

——————————

Teile des südlichen Afrikas von frühem Schneefall betroffen, mit starkem Schneegestöber auf dem Weg nach SA

1. Mai: Wie vorhergesagt, war die abgeschottete südafrikanische Nation Lesotho am Freitag, den 30. April, von „riesigen Flächen“ mit Schnee bedeckt, nachdem das Bergkönigreich „so etwas wie einen Schneesturm“ erlebt hatte, heißt es auf thesouthafrican.com.

AfriSki mountain resort in Lesotho begrüßte seinen ersten größeren Schneefall für den Winter“, berichtet The South African in einem aktuellen YouTube-Video (hier verlinkt); allerdings ist dies eine etwas ungenaue Aussage, da der „Winter“ in S. Hanf offiziell erst am 21. Juni beginnt. Darüber hinaus sind diese „Zentimeter“ auch einige der frühesten in den Aufzeichnungen, die im April gefallen sind – eine Tatsache, die in dem Bericht nicht erwähnt wird.

Link: https://electroverse.net/southern-africa-hit-by-early-season-snow/ [mit vielen Bildern und Videos!]

——————————

Unzeitgemäßer Schneefall“ in den Bergen Süd-Koreas – sogar die NOAA-Daten enthüllen signifikante Abkühlung

2.Mai: Ungewöhnliche Schneefälle bedeckten die Bergregionen der Gangwon-Provinz östlich von Seoul am letzten Tag des Aprils, einer Zeit, die bei den Südkoreanern normalerweise für ihre sommerliche Wärme bekannt ist, berichtet yna.co.kr.

Am späten Donnerstag, den 29. April, verwandelte sich starker Regen in schweren Schnee in den Gangwon-Bergen, die bis zu 1.300 m über den Meeresspiegel ansteigen, und am frühen Freitagmorgen hatten sich mehr als 15 cm der globalen Erwärmung auf und um den Gipfel des Mount Seorak angesammelt, so die Beamten des dortigen Nationalparks.

Link: https://electroverse.net/snowy-south-korea-as-noaa-reveal-cooling/

——————————

wird fortgesetzt …

Zusammengestellt und übersetzt von Chris Frey EIKE