1

Klima-Reflexionen

Steven Koonins neues Buch „Uncertainty“* (das ich gerade zu Ende gelesen habe und das ursprünglich diesen Gastbeitrag inspiriert hat) trägt viel dazu bei, eine nuanciertere Perspektive voranzutreiben, indem es die faktische Klima-“Ungenauigkeit“ (auch bekannt als falsches Zeug) und die damit verbundene „Ungewissheit“ (Unwissenheit) in der Klimadebatte hervorhebt. Aber seinem ‚wissenschaftlichen‘ Ansatz fehlt teilweise der Gegenpol zu der hier angesprochenen zusätzlichen ‚religiösen Klimagläubigen, die gegen die Wissenschaft immun sind‘-Dimension, auch wenn Koonin sie in seinen Schlusskapiteln kurz anschneidet. Dieser Beitrag bleibt absichtlich nicht so an der Oberfläche.

[*Beim EIKE auf Deutsch hier vorgestellt]

Als einleitendes Beispiel ignorieren die „Klimagläubigen“ die Unterbrechungen und die fehlende Netzträgheit, die ihre Lösungen für erneuerbare Energien (Green New Deal, GND) automatisch mit sich bringen. Dies mag nur aus physikalischer Unkenntnis der komplexen Mathematik der Wechselstromelektrizität (a+bi, mit der Quadratwurzel aus minus 1, was physikalisch eine Phasenverschiebung anzeigt) [?] sein. Aber nach vielen Blog-Interaktionen denke ich jetzt, dass es wahrscheinlicher auf absichtlicher, vorsätzlicher Ignoranz beruht, die im US-Recht als „kriminelle grobe Fahrlässigkeit“ definiert ist… „wusste, oder hätte wissen müssen“.

Es gibt viele andere Beispiele für „kriminelle grobe Fahrlässigkeit“ der Klimawissenschaft.

Zum Beispiel hat Dr. Susan Crockford die „Eisbärenexperten“ entlarvt, die behaupten, Eisbären seien durch (modelliert) vermindertes arktisches Meereis im Sommer gefährdet, wenn in Wahrheit etwa 80% ihrer jährlichen Nahrungsaufnahme von der Wurfsaison der Robben im Frühjahr abhängt – wenn das arktische Eis jahreszeitlich bedingt immer abnimmt.

Zum Beispiel hängt der behauptete GAST-Temperaturanstieg von einem „vernachlässigbaren“ (pro BEST) UHI plus unzureichenden landgestützten Messstationen ab, die für eine globale Abdeckung eingefügt wurden. Ein klassisches Beispiel für letzteres ist die BEST-Station 166900, also die Amundsen-Scott-Station am Südpol, die wohl teuerste und am besten gewartete Wetterstation auf dem Planeten. Der „automatische Anpassungs-Algorithmus“ von BEST verglich sie mit McMurdo, 1300 km entfernt an der Küste und 2700 Meter tiefer gelegen. Der BEST-Qualitätskontroll-Algorithmus kam zu dem Schluss, dass die Amundsen-Scott-Messungen für 26 extrem kalte Monate auf der Grundlage von McMurdo und NICHT auf derjenigen von BEST berücksichtigt werden müssen. BEST hat Amundsen Scott automatisch, aber fälschlich künstlich erwärmt.

Zum Beispiel behauptete Fabricius (NCC, 2011), dass die Korallen in der Milne Bay durch die Versauerung der Ozeane (OA) abnehmen würden. Ihre SI zeigte, dass ihre eine karge (7,8 pH) See wegen H2S giftig war, so giftig für Meeresorganismen, wie Zyanid für uns ist – und aus den gleichen Gründen.

Es gibt viele weitere ähnliche nachfolgende Gastbeiträge hier und bei Climate Etc.
Also, wie kann diese Klima-Perversion der wahren Wissenschaft über mehrere Jahrzehnte weitergehen? Was motiviert die offensichtliche absichtliche „kriminelle grobe Fahrlässigkeit“?
Es gibt mindestens drei Antworten auf diese Frage.

Die erste Antwort ist das Geld in Form von Festanstellungen und staatlichen Zuschüssen. Mitmachen, um mitzukommen. Manns gefälschter Paläo-Hockeystick von 1999 ist nur ein berühmtes Beispiel. Er wurde reich und erhielt eine Festanstellung für eine SEHR schlechte Arbeit, die inzwischen gründlich diskreditiert ist. Sein Bankkonto kümmert das nicht.

Das zweite ist die akademische Akzeptanz; Gruppenzwang, wenn man so will. Das ist es, was Dr. Judith Curry vom Lehrstuhl für Geowissenschaften an der Georgia Tech vertrieben hat, nach ihrer eigenen Erklärung. Junge Klimawissenschaftler, die aufsteigen wollen, können keine Abtrünnigen sein, und sie konnte ihnen nicht guten Gewissens einen anderen Rat geben.

Drittens ist ‚cool sein‘. Es gibt keine andere Erklärung für John Kerry als Bidens ‚Klima-Zar‘. Es ist dumm und letztlich selbstzerstörerisch, aber definitiv ein großes Plus auf jeder gegenwärtigen MA-Cocktailparty. AOC und ihr GND ist ein kleineres Beispiel für das gleiche ‚coole‘ soziale Phänomen aus Brooklyn im Kongress.

Also, was zu tun?

Es mag einige wirksame Gegenmaßnahmen jenseits der „Wissenschaft“ geben, gegen die wahre Klima-Gläubige offenbar immun sind. Die folgenden drei Vorschläge sind alle aus Alinskys „Regeln für Radikale“ entlehnt, die seit langem gegen als Leugner bezeichnete Skeptiker eingesetzt werden. Mein Vorschlag lautet, zum Gegenangriff überzugehen, und zwar nicht nach den Regeln des Marquis von Queensbury, die Skeptiker gewöhnlich anwenden, sondern nach den Regeln von Alinsky.

Zuerst muss man den Feind lahmlegen und ihn dann lächerlich machen. Mark Steyn tat dies sehr effektiv gegen Mann mit seinem Buch „A Disgrace to the Profession (volume 1)“. Unanfechtbar, da Mann bis heute nicht darauf reagiert hat und die implizite „Band 2“-Drohung schon seit Jahren im Raum steht.

Der zweite Punkt ist, den Feind dazu zu bringen, sich an seine eigenen Regeln über die Klimawissenschaft zu halten. Das war Koonins zentraler Punkt, den er in seinem neuen Buch wiederholt betont.

Drittens geht es darum, die Expertise des Gegners zu verlassen. Erneuerbare Intermittenz und fehlende Netzträgheit sind Beispiele für Fachwissen, die hier bereits diskutiert wurden und die die Grünen ignorieren oder gar nicht erst begreifen, weil sie außerhalb ihrer Expertise liegen.

Abschließende Überlegungen

Viele hier bei WUWT mögen wie ich zuvor auch gedacht haben, dass eine „wissenschaftliche“ Widerlegung gegen Warmisten ausreicht. Das tut es aber nicht. Sie haben ein sozio-religiöses Glaubenssystem (Greta Thunberg ist ein Beispiel) erschaffen, das stärkere Gegenmaßnahmen erfordert.

Link: https://wattsupwiththat.com/2021/05/12/climate-reflections/

Übersetzt von Chris Frey EIKE

 




Das ZDF zwischen Anspruch und Wirklichkeit – Teil 1: Wissen­schaftliche Analyse des realen Wetter-/Temperatur­geschehens

Abb.2 zeigt die tatsächliche Temperaturentwicklung im Vergleich zu den IPCC-Klimavorhersagen. Eine immer größere Abweichung ist zu erkennen, was nichts anderes bedeutet, als das sämtliche IPCC-Temperaturprognosen wertlos/Nonsens sind und mit ihnen, sämtliche Gesetze/Verordnungen, die sich darauf beziehen/aufbauen. Quelle im Original: Lewis, M., Satellites and global warming: Dr Christy sets the record straight, 5. Februar 2016; globalwarming.org (aus der Aussage von Dr .John Christy’s in der Anhörung des House Science Committee der USA zum Pariser Klimaabkommen)

Besonders Herr Terli, der für seine tendenziösen Wetterberichte bekannt ist (hier) hebt sich dabei hervor. So trat er auch Ende Februar mit folgender Präsentation vor ein staunendes Publikum:

Abb.3, Quelle ZDF Wetter vom 20.02.2021. Das Chart von Herrn Terli hat nicht ansatzweise einen wissenschaftlichen und damit wertigen Inhalt, da ein einziger Fixpunkt gewählt wurde und Daten in dessen Nähe, z.B. 19,x°C-Werte, die wir ebenso empfinden wie 20,0°C-Werte, von vorneherein ausgeklammert werden und damit den manipulierenden Charakter des Charts zeigen.

Nein, Herr Terli ist jetzt nicht etwa vor das Publikum getreten und hat dargelegt, dass der April 2021 rekordverdächtig in der Anzahl der Frosttage war und die Anzahl aufgelistet (wie oben), sondern er ist seiner grün-tendenziösen Berichterstattung treu geblieben, Abb.4.

Abb.4, ZDF-„Wetterfrosch“ Herr Terli bei seiner Wettervorhersage am Freitag, den 07.05.2021, mit der er zeigen will, dass eine weltweite Erwärmung, trotz extrem kaltem April, in vollem Gange ist, Quelle: ZDF-Heute vom 07.05.2021. Was dies mit dem Wetterbericht für unser Land zu tun hat, weiß wohl nur Herr Terli. Den Grund seiner Darstellung haben Sie natürlich erkannt. Bereits die gewählte Farbe Rot für eine vermeintliche Erwärmung, aus der nicht hervorgeht, ob diese 0,001°C oder 0,1°C ist, zeigt die tendenziöse Absicht des Bildes. Siehe hierzu auch den jüngsten EIKE-Artikel hier. Eine seriöse Berichterstattung sieht anders aus, wie Abb.5 zeigt. Zu den Beweggründen Herrn Terli im Teil 2 mehr.

Abb.5, Quelle: climate4you.com, zeigt die gemessenen globalen Temperaturabweichungen von 1979 – heute (letzte Aktualisierung: 07.05.2021). Auch hier ist, wie in Abb.4 von Herrn Terli, der Bezugszeitraum 1991-2020. Wie zu sehen, verzichtet eine wissenschaftliche, seriöse Arbeit auf Signaltöne wie rot. Von Dramaturgie ist nichts zu sehen. Erst recht nicht, werden die Temperaturen über einen noch längeren Zeitraum betrachtet.

Abb.6, Quelle wie Abb.5, zeigt die Temperaturabweichungen der letzten gut 10.000 Jahre bis heute, gewonnen aus Eisbohrkerndaten (siehe Chart) und dazu den atmosphärischen CO2-Pegel. Wie unschwer erkennbar, sind die heutigen Temperaturen nicht wärmer, sondern kälter als früher und wer einen Zusammenhang der Temperaturentwicklung und dem sog. Treibhausgas CO2 sieht, der sieht auch einen Zusammenhang aus dem Kaffeesatz zur Temperaturentwicklung.

Da der GISP 2-Datensatz der Temperaturrekonstruktion in Abb.6 im Jahr 1854 endet, zeigt Abb.7 die Ergänzung mit den gemessenen Temperaturen bis heute.

Abb.7, Quellen siehe Chart, zeigt die Temperaturen der letzten 10.000 Jahre bis zur Gegenwart. Dazu haben die Forscher die Warmperioden und kleinere Kaltzeiten gekennzeichnet. Die gegenwärtige Warmperiode ist also als vglw. kühl einzustufen.

[Zu dieser Abbildung: Die aktuellen Daten haben eine viel feinere Auflösung als die stark geglätteten Daten aus den Eisbohrkernen. Das bedeutet, dass kurzfristige Spitzen und Täler, wie wir sie heute bestimmen können, in früheren Daten ebenso vorhanden sein könnten, aber dank der geringen Auflösung und der Tendenz der Proxys, kurzfristige Variationen auszubügeln, nicht erkennbar sind. Gggf. vergleicht man mittels Spleißung Äpfel mit Birnen. Der allgemeine Tatbestamd ist aber unbestreitbar.]

Die Abb.6 und 7 zeigen bereits eindringlich, dass das Temperaturgeschehen rein gar nichts mit sog. Treibhausgasen zu tun hat und schon gar nicht rekordverdächtig, sondern zyklischer Natur ist, wie Abb.8 unterstreicht.

Abb.8, Quelle, zeigt das zyklische und damit natürliche Temperaturverhalten der letzten knapp 500.000 Jahre. Die heutigen Temperaturen sind als vglw. kühl einzustufen. Die Wissenschaft spricht bei den Temperaturen über der gestrichelten Linie von Zwischeneiszeiten.

Dass der April 2021 so kalt war und wir derzeit ein vglw. zyklisches Wettergeschehen haben, liegt vorrangig am Jetstream, exakt am Polarfrontjet (PFJ) und ist als normal einzustufen.

Jetstream

Der Jetstream bildet sich aufgrund von Druckunterschieden zwischen hohen und niedrigen Breiten. Angetrieben wird er durch die Sonne. In den Regionen der stärksten Luftdruckgegensätze, in 8 – 16 km-Höhe bilden sich starke Winde aus, die durch die Corioliskraft (Erddrehung) auf der Nordhalbkugel nach rechts und auf der Südhalbkugel nach links abgelenkt werden (ist dem Drehimpulserhaltungssatz geschuldet). Bei weiter ansteigenden Druckunterschieden beginnt der Jetstream zu mäandrieren, was durch die unterschiedliche Reibung an der Erdoberfläche verstärkt wird. Er hat eine typische Breite von 100 km – 200 km und eine Dicke von 1 – 5 km.

Der Jetstream bekam seinen Namen aufgrund seiner konstant hohen Windgeschwindigkeiten von 200 – 300 km/h. Vereinzelt wurden Windspitzen von bis zu 550 km/h gemessen. Das sich um den gesamten Globus ziehende geschlossene Wellenband weist, wie oben schon angedeutet, mehr oder weniger starke Mäander auf, die man als planetarische Wellen oder Rossby-Wellen bezeichnet (Abb.9). Diese Wellen sorgen für den Ausgleich zwischen Kaltluft und Warmluft dergestalt, dass in den Trögen (Wellentälern) Kaltluft in wärmere und in den Keilen (Wellenberge) Warmluft in kältere Gebiete strömt. Beim Aufeinandertreffen von Kalt- und Warmluft wird letztere gehoben, was zu Wolken- und Niederschlagsbildung führt. Wegen des viel höheren Druck- und Temperaturgegensatzes im Winter ist der Jetstream in dieser Jahreszeit am stärksten ausgeprägt.

Abb.9 zeigt die um den Globus verlaufende Welle des PFJ, Quelle

Abb.9 zeigt die um den Globus verlaufende Welle des PFJ, Quelle

Für unser Wetter in unseren Breiten spielt der Polarfrontjet eine entscheidende Rolle. So verlaufen die Zugbahnen der Orkane entlang seiner Ausbildung. Er hält also je nach Lage, die kalte Polarluft von uns fern. Der PFJ verläuft mit seiner Wellenform um den ganzen Globus. Wie beschrieben, bildet er die barokline Übergangszone zwischen Warm- und Kaltluft. Die Luftmassen können nicht einfach quer über diesen Jetstream hinweg strömen. Da Wind nichts anders als von Molekülen übertragene Energie ist, kann eine Energie minderer Intensität, keine Energie höherer Intensität von sich aus überwinden. Die Kaltluft bleibt bildhaft gesehen, sozusagen nördlich seines Verlaufs „gefangen“.

Der PFJ steuert die “planetarische Frontalzone“ (hier treffen tropische und polare Luftmassen aufeinander, was sich in einem unruhigen Wettergeschehen, wie wir es kennen, widerspiegelt. Er steuert primär die Hoch- und Tiefdruckgebiete (Abb.10), die sich entlang seines Verlaufs ausbilden. Er ist demnach für unser Wetter maßgeblich. Seine Lage ist abhängig vom Energieinhalt der Atmosphäre, die durch den Sonnenstand, also die Jahreszeiten gesteuert wird und schwankt zwischen 30° und 70° N bzw. Süd (für die südliche Halbkugel). Je nach Grundstrom und Wellenzahl mäandriert er stark (in Abhängigkeit von positiver bzw. negativer AO) und verläuft geschlossen um den Globus.

Abb.10, Quelle, zeigt den Verlauf der Hoch- und Tiefdruckgebiete am PFJ.

Die Mäander oder Wellen des PFJ bewegen sich von West nach Ost, und zwar umso schneller, je mehr Wellen in dem globalen Band vorhanden sind (d. h. je kürzer die Wellenlänge). Ist der Anteil der kurzen Wellen gering, dominieren die langen Wellen, was dazu führt, dass eine bestimmte Wellenkonfiguration auch mal längere Zeit konstant gehalten wird. Je nach Zustand der Atmosphäre, haben wir dann länger andauernde Trockenphasen, länger anhaltender Regen oder Kälte.

Und je nachdem, welche Lage sein Trog über Deutschland gerade einnimmt, lenkt er einmal Warmluft aus südlichen Breiten in unsere Zonen und einmal Kaltluft (Abb.11). Durch seine Bewegung von West nach Ost wechselt sich warmes und kälteres Wetter über Deutschland ab, wobei die Temperaturunterschiede deutlich ausfallen können, da sich heiße Mittelmeerluft (oder gar aus der Sahara), mit kühler Luft aus nördlichen Breiten abwechselt. Bekanntlich endet der Winter in Nordskandinavien erst Anfang Mai.

Abb.11 zeigt eine Momentaufnahme des PFJ und der Verteilung von Kalt und Warmluft, sowie die jeweiligen Windrichtungen, Quelle: John Mason.

An der Grenzschicht findet keine Luftvermischung statt, so dass die kalte Luft über dem PFJ sozusagen „gefangen“ bleibt. Die Wärmeenergie – nicht zu verwechselt mit Luft, also Materie – südlich des PFJ kann zwar gemäß dem 2. Hauptsatz der Thermodynamik nach Norden gelangen, ist jedoch nicht in der Lage, die immer wieder aufs Neue einströmenden kalten Luftmassen aus dem Norden spürbar zu erwärmen, so dass es in der Sonne (hoher Sonnenstand, wie Anfang August) zwar warm ist, die Luft aber kalt bleibt.

Soweit ein kleiner Ausschnitt, in ein komplexes meteorologisches Thema. Dass wir so unterschiedliche Wetter mit rapiden Wechseln zwischen warm und kalt haben, hat also nichts mit Geisterbeschwörung zu tun, die man heute menschengemachter Klimawandel nennt und deren „Teufelsaustreiber“ sich so wohlklingende Namen wie „Fridays for Future“ zulegen, die sich bei näherer Betrachtung oftmals jedoch nur den Realitäten der Pisa-Studie entziehen wollen, sondern mit physikalischen Gegebenheiten und speziell dem Polarfront-Jet, kurz PFJ, zu tun, der daraus entsteht.

Teil 2 folgt demnächst

 

 




Gab es vielleicht „nur“ zehntausend „echte“ Corona-Tote im vorigen Jahr ?

In dem folgenden Tortendiagramm versteckt sich die Prozentzahl 1,1 % links oben unter der Bezeichnung „an Corona“ ( zu ergänzen: „gestorben“ ).

Die Bezeichnung „an“ Corona unterscheidet sich von dem offiziösen Sprachgebrauch „an und mit“ Corona (gestorben ), wie wir ihn aus den täglichen Nachrichten und vom RKI gewohnt sind. Eine andere dieser offiziösen Bezeichnungen lautet reichlich gekünstelt „im Zusammenhang mit“ Corona ( gestorben ). Die offiziösen Bezeichnungen erlauben eine Aufblähung der Corona-Sterbezahlen insofern, als jeder Verstorbene mit einer positiven Testung als Corona-Toter erfasst wird, unabhängig davon, wie  bedeutend  der Covit-Anteil  am Tod ist.

Der typische Corona-Tote ist weiterhin  über 70 Jahre alt und durch eine, häufig  mehrere schwere Vorerkrankungen wie Bluthochdruck, Diabetes, Krebs, Adipositas oder Herzerkrankungen gekennzeichnet. „Aus vielen … Untersuchungen wissen wir, dass SARS-COV-2 fast ausschließlich der Tropfen ist, der ein bis zum Rand gefülltes Glas zum Überlaufen bringt“ ( Reiss, Bhakdi 2020, 36 ). Dieses anschauliche Bild macht deutlich, dass das Virus zwar in einem strengen kausaltheoretischen Sinn ursächlich ist für den Tod, aber nicht die eigentliche Ursache darstellt. Die eigentliche Ursache ist das bereits randvolle Glas. In diesem Fall ist der Tote nicht „an“ Corona gestorben. Reiss, Bhakdi zitieren den Gesundheitsberater der italienischen Regierung Prof. Ricciardi, der davon ausgeht, dass 88 % der angegebenen „Corona-Toten“ nicht eigentlich an dem Virus gestorben sind ( ebd., 40 ). Oder anders herum: nur 12 % sind eigentlich am Virus gestorben.

Die Wissenschaftler der „Corona Initiative Deutscher Mittelstand“ nennen nun für 2020 als neue Zahl für die „an“ Corona Verstorbenen 1, 1 %  aller in diesem Jahr Verstorbenen und berufen sich auf „Obduktionsergebnisse“ ( vgl. unter dem  Schaubild die Quellenangabe unten rechts ). Das kann man glauben oder nicht. Ich habe Vertrauen in die Kompetenz und Seriosität der Initiative, die enge Beziehungen zur Mittelstands- und Wirtschaftsunion der CDU / CSU und ihrem Vorsitzenden Carsten Linnemann hat. Trotz dieser politischen Nähe zur Union hat sie sich eine sehr kritische Distanz zur Merkel-Politik bewahrt und betreibt Wissenschaft im besten Sinn als Suche nach Wahrheit. Im Grunde sind die Erkenntnisse der Initiative, wie ich u. a. in meinem letzten Artikel herausgestellt habe ( Nahamowitz 2021 ), hervorragend geeignet, die gesamte staatliche Corona-Schutzpolitik als unverhältnismäßig zu demontieren.

In Deutschland sind im vorigen Jahr insgesamt 982.489 Menschen gestorben. 1,1 % von ihnen sind 10. 807 Tote, womit dann auch die Zahl der „echten“, d.h. „an“ Corona Verstorbenen genannt ist. Diese Zahl beträgt nur etwas mehr als  ein Viertel der offiziell vom RKI gezählten 39.201 Corona-Toten ( vgl die Pressemitteilung  von Destatis Nr. 044 vom 29. Januar 2021 ). Angesichts des vielfach bewiesenen Alarmismus des RKI, welches die Corona-Zahlen verwaltet. erscheint mir dieses Ergebnis sehr plausibel.

Nur gut 10.000 echte Corona-Tote im Jahr 2020, welches nahezu  ausschließlich im Zeichen des Virus  und des staatlichen Kampfes gegen ihn stand, sind ein weiterer Beleg für die manifeste Unverhältnismäßigkeit der staatlichen Krisenpolitik, vor allem der Lockdown-Politik. Im Grippejahr 2018 betrug die Zahl der Grippetoten nach Schätzung des RKI 25.000 – an denen kein Mensch Anstoß genommen hat.

Sogar wenn man die offiziell gezählten rund 40.000 Corona-Toten zugrunde legt, sind m. E. die Zweifel an der Verhältnismäßigkeit der staatlichen Corona-Abwehr im vorigen Jahr zwingend. Oder soll das Plus von gerade mal 15.000 Toten im Vergleich zu den 25.000 Grippe-Toten des Jahres 2018 den Unterschied ausmachen zwischen vollständigem politischen Desinteresse und höchstem Alarmismus.?

Auch der geringe Unterschied bei den allgemeinen Sterbefallzahlen zum Vorjahr 2019 spricht dagegen, dem Jahr 2020 eine krisenhafte Ausnahmestellung einzuräumen. Nominal betrug die Übersterblichkeit im Jahr 2020 gegenüber 2019  laut Destatis zwar 5 %. Das Statistikamt relativiert diese aber sogleich durch den Verweis auf zwei Sonderfaktoren  Einmal war 2020 ein Schaltjahr, „sodass sich durch den zusätzlichen Tag ein Anstieg  um etwa 3.000 Fälle gegenüber dem Vorjahr ergibt. Wenn man außerdem den bisherigen Trend zu einer steigenden Lebenserwartung und die absehbaren Verschiebungen in der Altersstruktur der Bevölkerung berücksichtigt, wäre ohne Sonderentwicklungen ein Anstieg um etwa 1 – 2 % für das Jahr zu erwarten gewesen“ ( Destatis, ebd. ).

Ein Anstieg von nur 1 – 2 % bei der Sterblichkeit gegenüber 2019, und 2020 soll das Jahr  einer „Jahrhundertpandemie“ ( Angela Merkel ) gewesen sein? Fassungslos kann man nur den Kopf schütteln und sich zum wiederholten Mal fragen, wie konnte es nur zu dieser staatlichen Überreaktion in Form mehrerer Lockdowns und sonstiger grundrechtseinschränkender „Maßnahmen“ kommen?

Die Beweggründe der Politik, zum Mittel der Lockdowns zu greifen, dürften vielgestaltig sein. Aus zwei Indikatoren kann man wissen, dass bereits im Vorfeld bewusst eine dahin gehende Entscheidung getroffen worden war. Die CIDM hat berichtet, dass sie kurz nach Ausbruch der Epidemie der Politik einen Vorschlag gemacht hatte, wie ohne schwerwiegende  Interventionen die Krise bewältigt werden könnte, Der Initiative wurde aber bedeutet, dass die Würfel für eine andere Lösung schon gefallen seien.

Der zweite Indikator ergibt sich aus dem Verhalten des NRW-MP und jetzigem CDU-Kanzlerkandidaten Armin Laschet im Vorfeld der Lockdownverlängerung am 15. April 2020. Der Bonner Virologe Hendrik Streeck hatte mit Kollegen die inzwischen berühmte Heinsberg-Studie mit etwa 1000 Probanden als repräsentative Studie nach den methodischen Grundsätzen der WHO in der Gemeinde Gangelt durchgeführt, in der es im Anschluss an eine Karnevalssitzung zu einem Massenausbruch von Corona gekommen war. Streeck zog mit seinem Team von Haus zu Haus, um die maßgeblichen Daten zu erheben. Unter ihnen war die Letalitätsrate  von 0,37 %, die bedeutet, dass  auf  zehntausend Infizierte 37 Tote kommen – keine Zahl, welche dem Corona-Alarmismus dienlich war. Die Rate konnte objektiv bestimmt werden, weil alle Infizierten erfasst waren, es also keine Dunkelziffer gab. Da die Studie eine für die deutsche  Bevölkerung repräsentative Grundgesamtheit der Einwohner Gangelts erfasste, war das Ergebnis einer Letalitätsrate von 0, 37 %  auch verallgemeinerungsfähig auf ganz Deutschland.

Das Ergebnis brachte Streeck viel Kritik und Häme bis hin zu Morddrohungen ein, von den kritischen Beobachtern der offiziellen Corona-Politik dagegen viel Lob. Sein Kollege Christian Drosten, dessen Nachfolger Streeck in Bonn  ist, blieb hingegen cool. In einem Interview nannte er die Ergebnisse von Streeck „nichtssagend“. Diese nicht nachvollziehbare Beurteilung zeigt die dogmatische Grundhaltung eines der Wortführer der orthodoxen Virologenfraktion, der lange Zeit Hauptberater der Kanzlerin in Coronasachen war.

Bei der Pressekonferenz, auf der Streeck seine Ergebnisse verkündete, war Armin Laschelt anwesend und hielt auch eine Rede. In der Folgezeit war er Vertreter einer moderaten Corona-Linie, ohne in seinen zahlreichen TV-Auftritten sich aber jemals auf die 0,37 % zu berufen. Offensichtlich konnte mit dieser niedrigen Sterberate kein alarmistischer Staat gemacht werden.

Zusammenfassend kann man sagen, dass der Entschluss der politischen Entscheider zu einer harten Lockdown-Politik nicht aus einer Panikreaktion herrührte, sondern wohl kalkuliert war. Die beteiligten Politiker wussten ( oder ahnten es intuitiv), dass ganz im Sinne einer klassischen staatsrechtlichen bzw. politikwissenschaftlichen Erkenntnis der Notstand die Stunde der Exekutive ist, welche zahlreiche Regulierungs- und Profilierungschancen für die politischen Entscheider bereit hält. Auf der tiefenpsychologischen Ebene aktiviert sich bei den Akteuren in einer solchen Ausnahmesituation eine psychische Konstellation, welche Hans-Joachim Maaz das   narzistische „Größenselbst“ nennt, ein unbewusstes neurotisches Syndrom, welches  eine Selbstüberschätzung der Persönlichkeit bewirkt ( Maaz 2016 ).

Die geschilderte Notstands- und Ausnahmesituation war attraktiv für die politischen Entscheider europa- und sogar weltweit.Nur wenige Länder vermochten sich dem Konformitätsdruck zu entziehen, in Europa ist Schweden, welches ohne Lockdown ausgekommen ist, zu nennen. Seit dem Jahreswechsel erntet Schweden die Früchte seiner Standhaftigkeit: Laut Worldometer bewegen sich seit Wochen seine Todeszahlen im „seven days moving average“ im einstelligen Bereich, Zum Vergleich: Das bezogen auf die Bevölkerung 8 mal größere Deutschland verzeichnet eine 70 mal höhere Todeszahl und bewegt sich mit ihr im dreistelligen Bereich ( etwa am 6. Mai: in Deutschland 210, in Schweden 3 Todesfälle ).

In Deutschland wurde auf der wissenschaftlichen Ebene die alarmistische Corona-Politik durch die orthodoxe Fraktion der Virologen gestützt, zu der u.a. die Prof. Drosten, Lauterbach, Stürmer, Meyer-Hermann und Wieler, der zugleich Präsident des RKI ist, gehören. Diese Gruppe fordert nahezu reflexhaft bei steigenden Fallzahlen einen „ganz harten“ Lockdown, bis der Inzidenzwert zumindest unter 35, am besten unter 20, etwa bis 12 fällt.

Diese orthodoxe Virologenfraktion, die ihren organisatorischen Bezugspunkt nicht zuletzt in der Nationalen Akademie der Wissenschaften Leopoldina hat, fällt durch eine bemerkenswerte Fehleinschätzung  epidemiologischer Prozesse auf. Diese zeigte sich im Grunde bereits  bei der Einschätzung der Streekschen Forschungsergebnisse durch Drosten als „nichtssagend“. Ein weiteres Beispiel lieferte Wieler auf einer Pressekonferenz Ende April als er die beiden ersten Tage deutlich sinkender Fallzahlen mit der Bemerkung kommentierte, da habe die Bevölkerung sich auf einmal stärker an die Corona-Regeln gehalten. Dass das Sinken der Fallzahlen mit dem Eintritt in den Monat Mai zu tun haben könnte, kam ihm offensichtlich nicht in den Sinn.

Auch Karl Lauterbach ist die traditionelle Saisonalität der Corona-Viren nicht bekannt. Bei Maybrit Illner am 6. Mai zählte er fünf Gründe für das Zurückgehen der Fallzahlen auf, die Saisonalität der Corona-Viren war nicht darunter. Derart unkundige Wissenschaftler gehören zum engsten Beraterkreis der Bundesregierung.! Ganz anders Hendrik Streeck einen Tag zuvor bei Maischberger. Er kam sofort auf die Saisonalität der Corona-Viren zu sprechen. Streeck gehört zwar zum Beraterkreis Armin Laschets, aber nicht der Bundesregierung.

Drosten und das RKI hatten schon bei der Schweinegrippe 2009. welche sich im Ergebnis als vollkommen harmlos herausstellte, gegen die vehemente Opposition von Prof. Bhakdi und Dr. Wodarg die großen Warner gegeben. Das Ende der Geschichte war, dass die millionenfach eingekauften Impfdosen im Magdeburger Müllheizkraftwerk entsorgt werden mussten ( näher dazu Reiss, Bhakdi 2020, 120 ff ).

Als Corona kam, wählte die Kanzlerin nicht etwa Bhakdi und / oder Wodarg als Berater aus, sondern den falschen Warner Drosten. In der Folge werden Bhakdi und Wodarg massiv öffentlich diskreditiert und z. B. vom öffentlich-rechtlichen TV in einer offensichtlich konzertierten Aktion nie eingeladen. Augenscheinlich wurden im Kanzleramt  schon früh und entschlossen die Weichen auf Lockdown gestellt.

 

Quellen:

Maaz, Hans-Joachim 2016 : Die narzistische Gesellschaft, München ( 5. Aufl. ).

Nahamowitz Peter 2021 : Ist  die Pandemie nur eine „Laborpandemie ?“, EIKE-Publikation vom 25. April.

Reiss, Karina, Bhakdi, Sucharit 2020: Corona Fehlalarm?, Berlin.

 

Zum Autor :

Peter Nahamowitz war Prof. für öffentliches Wirtschafts- und Finanzrecht sowie Politikwissenschaft am Fachbereich Rechtswissenschaften der Leibniz Universität Hannover. Er ist seit 2007 im Ruhestand.




Kältereport Nr. 8

Irgendwie wird es mir unheimlich, dass so viele dieser Einzel-Wetterereignisse zusammentreffen, zumal ich nirgendwo in den MSM eine entsprechende Häufung von Warm-Ereignissen finden kann, über welche diese doch bestimmt groß berichtet hätten. Und: Eigentlich war ich davon ausgegangen, dass das mit Kalt-Ereignissen zumindest auf der Nordhalbkugel nachlässt oder aufhört, aber…

Erstaunliche“ Schneemengen in UK sind dabei, den bisherigen Mai-Rekord bzgl. Schnee im Jahre 1979 einzuholen

5. Mai: Zentimeter um Zentimeter SCHNEE waren in den letzten Mai-Morgen in Großbritannien gefallen – unglaublich ungewöhnliches Winterwetter für diese Jahreszeit. In der Tat scheint der diesjährige Mai mit dem schneereichsten Mai aller Zeiten zu konkurrieren: dem von 1979, der direkt nach dem schwachen Sonnenzyklus und dem anschließenden Minimum des Zyklus‘ 20 aufgetreten war.

Eine Schneedecke hat sich auch im schottischen Hochland gebildet, da der hartnäckig anhaltende meridionale Jetstream weiterhin Luft aus der Arktis in die mittleren Breiten zieht. Und während Schottland das Schlimmste abbekommen hat, gab es auch in Nordirland, Wales und sogar England erhebliche Schneemengen.

Link: https://electroverse.net/astounding-snow-in-the-uk-set-to-rival-1979s-snowiest-may-on-record/

———————————-

Schneefall in den Niederlanden

Eine Rarität in unseren westlichen Nachbarländern: In den Niederlanden hat es am frühen Morgen geschneit. Hier und da bildete sich eine dünne Schneedecke.

Die dicken Schneeflocken zogen manch einen in den Bann und viele hielten die spätwinterliche Überraschung mit der Kamera fest.

Link mit vielen Bildern: https://www.wetteronline.de/wetterticker/ce0d4714-b82e-411d-a682-204ab4aa17b3

———————————-

Schneemasse auf der Nordhemisphäre um historusísche 700 Gigatonnen über dem Mittel

5.Mai: Interessant, wie das während einer Periode der „globalen Erwärmung“ passieren kann, nicht wahr? Sie nehmen doch nicht an, dass wir verarscht werden, oder?

Die Schneemasse der nördlichen Hemisphäre liegt historisch gesehen 700 Gigatonnen über dem Durchschnitt. (Eine Gigatonne ist eine Milliarde Tonnen, also sind es historisch 700 Milliarden Tonnen über dem Durchschnitt.)

https://i2.wp.com/electroverse.net/wp-content/uploads/2021/04/fmi_swe_tracker-38.jpg?ssl=1

Link: https://www.iceagenow.info/northern-hemisphere-snow-mass-an-historic-700-gigatons-above-average/#more-35454

———————————-

Rekord-Schneefall in Rochester, New York State

6.Mai: „Wir haben am 21. April einen Schneerekord aufgestellt, da der Flughafen an diesem Tag 2,8 Inches des weißen Zeugs aufnahm und damit den bisherigen Rekord von 1,5 Inches aus dem Jahr 1978 übertraf“, heißt es in diesem Artikel auf Spektrum Local News.

Link: https://www.iceagenow.info/record-snowfall-in-rochester-new-york/#more-35459

———————————-

Niedrigste Temperatur im schottischen Hochland seit 1922 – Skilaufen im Mai

Meldungen vom 6. Mai

Schnee im Mai: Skifahrer im Lake District „verwirrt“ in unzeitgemäßem Wetter

Skifahrer im Lake District haben den untypischen Schneefall genutzt, um zum ersten Mal seit Monaten auf die Pisten zu gehen.

Schneefall im Mai bringt Behinderungen in den Highlands

Der Schneefall im Mai hat in Teilen von Schottland zu Behinderungen geführt, wobei die Highlands unter einer dicken Schneedecke lagen.

Nordirland – Außergewöhnlicher Kälteeinbruch für Anfang Mai

Schnee lag am frühen Mittwoch auf dem Glenshane Pass und war auf den Hügeln um Londonderry deutlich sichtbar.

Die heftigsten Schauer könnten im Laufe des Mittwochs in den höchsten Lagen der Sperrin-Berge oder der Antrim-Hügel als Graupel oder Schnee fallen. Das wird besonders dann der Fall sein, wenn die Temperaturen weiter sinken bis in den Frostbereich in der Nacht zum Mittwoch.

Link: https://www.iceagenow.info/coldest-lows-in-scottish-highlands-since-1922-skiing-in-may/#more-35462

———————————-

Teile Irlands melden den kältesten April seit Beginn der Aufzeichnungen (1943), während Island die niedrigste Mai-Temperatur aller Zeiten registriert

6. Mai: Laut dem Monatsbericht des irischen Wetterdienstes (Ausgabe vom 5. Mai 2021) hat Irland gerade einen historisch kalten April erlebt.

Dominierende Hochdrucksysteme bauten sich westlich oder nordwestlich von Irland auf, heißt es in dem Bericht, was brutale polare Luftmassen über das Land brachte, was zu unterdurchschnittlichen Temperaturen führte.

Die Kälte war intensiv.

[Link siehe nach der nächsten Meldung]

———————————-

Island: Niedrigste Mai-Temperatur jemals

Nach vorläufigen Daten wurde ein neuer isländischer Tiefsttemperaturrekord für den Monat Mai aufgestellt.

Am Dienstag, den 4. Mai, wurden am Dyngjujökull-Gletscher, der sich auf einer Höhe von 1.689 m über dem Meeresspiegel im Zentrum der Insel befindet, Atem beraubende -24,5 °C gemessen.

Der Dyngjujökull ist ein Auslassgletscher und Teil des größeren Gletschersystems Vatnajökull.
Im Jahr 2018 fanden Forscher der University of Iceland heraus, dass ALLE isländischen Gletscher wachsen – das erste Mal seit einem Vierteljahrhundert, dass die Gletscher nicht von Jahr zu Jahr geschrumpft sind. Die Forscher waren schockiert von der Entdeckung, dass sich alle isländischen Gletscher, einschließlich des Vatnajökull, in den letzten zwölf Monaten von Herbst zu Herbst vergrößert hatten, wobei viele von ihnen in diesem Jahr einen wirklich „signifikanten Zuwachs an Eis zeigten.“

Dies ist ungewöhnlich in den letzten 25 Jahren“, sagte Projektleiter Finnur Pálsson damals.

Es ist eine Tatsache, dass es in den letzten Jahren kälter war. Und es gab im August mehr Schneefall auf dem oberen Teil des Langjökull, was sehr ungewöhnlich ist“, fügte Pálsson hinzu, der zu dem Schluss kam, dass all dies kein Grund sei, an der globalen Erwärmung zu zweifeln – aber das musste er wohl einstreuen.

[Hervorhebung im Original]

Link: https://electroverse.net/ireland-coldest-april-on-records-iceland-lowest-may-temp/

———————————-

Graupelschauer in den Niederlanden; Mai-Schneefall in deutschen Städten zum ersten Mal seit einem halben Jahrhundert

8. Mai: Der Sommer steht vor der Tür, und trotzdem schneit es in ganz Europa.

Gestern, am 7. Mai, schneite es in der niederländischen Provinz Brabant.

Es wurde sogar starker Gewitterschnee gemeldet: „Eine einzigartige Kombination im Mai“, heißt es in einem aktuellen Artikel von weer.nl.

Die Kältewelle in Holland, die nun schon fast zwei Monate anhält, ist heftig.

Link: https://electroverse.net/dutch-report-thundersnow-german-cities-record-first-may-snow/

———————————-

Rekordbrecher Muttertag: Seltene Kälte und Schnee in Teilen der USA

10. Mai: Der April in den USA war kälter als normal (trotz der Aussagen der NOAA), was den starken Abkühlungstrend der Nation in den letzten fünf Jahren verlängert hat. Und jetzt, in der zweiten Maiwoche, weigert sich die Arktis immer noch, sich zu beruhigen, während sie vielen Staaten Rekordtiefsttemperaturen und Rekordschnee in der Mitte des Frühlings liefert.

Link: https://electroverse.net/mothers-day-was-a-record-breaker/ mit interessanten weiteren Informationen in einem längeren Beitrag

———————————-

Starker Schneefall im Mai trifft Portugal, Warnungen werden ausgegeben, während Ungarn gerade seinen kältesten April in diesem Jahrhundert verzeichnet

11. Mai: Während Mitteleuropa seine 2 Tage Frühling genoss, wurde Portugal von einem Strom eiskalter Polarluft erfasst. Infolgedessen leidet das Land unter Temperaturabweichungen, die etwa 12°C unter dem saisonalen Durchschnitt liegen, und Mai-Schneestürme haben eingesetzt.

Der portugiesische Schnee war auch schwer – ein unglaublich seltenes Ereignis für den Monat Mai.
In den höheren Lagen Portugals wurden beträchtliche Schneemengen gemeldet, vor allem in der Sierra da Estrela, wo Winterwetterwarnungen ausgegeben wurden.

Link: https://electroverse.net/heavy-may-snowfall-hits-portugal-hungary-coldest-april/

———————————-

Schneefall in Wyoming – im Mai!

11.Mai: Webcam des Dept of Transportation in Wyoming (zwischen Cheyenne und Vedauwoo).

Links zu vielen weiteren Webcams in Wyoming sind hier.

Link: https://www.iceagenow.info/snowing-in-wyoming/#more-35493

———————————-

Tausende von Rentieren verhungern auf der gefrorenen Yamal-Halbinsel, Russland

11.Mai: Ein Massensterben von Rentieren wurde auf der Yamal-Halbinsel in Russland gemeldet. Das Futter der Tiere war in diesem Jahr unter ungewöhnlich dickem Eis eingeschlossen. Mitglieder einer wissenschaftlichen Expedition haben dringend neue Ideen zur Rettung der Herden in der Region aufgrund einer Zunahme der periodischen Vereisung gefordert.

Link: https://electroverse.net/thousands-of-reindeer-freeze-to-death-in-russia/

wird fortgesetzt …

Zusammengestellt und übersetzt von Chris Frey EIKE

Anmerkung: Der Vollständigkeit halber soll hier aber auch erwähnt werden, dass in Nordosteuropa traumhaftes Frühsommerwetter herrscht. Es ist dort schon länger sonnig und warm bis sehr warm, aber nicht heiß. Das wird auch vorerst dort so bleiben.

 




Wilde Übertrei­bungen und ungeheuer­liche Lügen

Ihr grundlegendes Dokument, das CCNow Climate Emergency Statement, behauptet unter anderem: „… um einen lebenswerten Planeten zu erhalten, muss die Menschheit sofort handeln. Wenn es nicht gelingt, die Menge an Kohlendioxid in der Atmosphäre zu reduzieren, werden die außergewöhnliche Hitze, die Stürme, die Waldbrände und die Eisschmelze im Jahr 2020 zur Routine werden und könnten einen bedeutenden Teil der Erde unbewohnbar machen…“. Um ihre Ziele zu erreichen, stellt CCNow seinen Partnern wiederveröffentlichbare Geschichten von anderen Partnern (.pdf), redaktionelle Anleitungen, Ideen für das Schreiben von Geschichten und eine Liste von Gesprächsthemen mit dem Titel Climate Science 101 von Katharine Hayhoe zur Verfügung.

CCNow liefert auch NPR’s Climate Guide mit Falsch- und Desinformationen über das Klima und ihr eigenes „Faktenblatt“ [ sic ] „Who says it’s a climate emergency?“ zusätzlich zu ihrer Liste von zehn „Best Practices für Klimapropagandisten.

Wenn Sie zum ersten Mal von CCNow hören, lesen Sie bitte meine früheren Essays hier bei WUWT, zuletzt The Climate Propaganda Cabal und Turning Opinion into Science Fact.  Es gibt auch einige frühere Essays – hier und hier.

Letzte Woche, am 27. April 2021, veröffentlichte die CCNow-Webseite eine Liste mit „Nine Pieces We Loved. Einer der vorgestellten Beiträge war:

How Warming Oceans Are Accelerating the Climate Crisis – Humans have locked in at least 20 feet of sea level rise-can we still fix it?“ von Harold R. Wanless

Positiv ist, dass der Artikel in The Nation deutlich und prominent gekennzeichnet ist:

Dieser Artikel wurde von einem Artikel für das Projekt des Florida Climate Reporting Network „The Invading Sea“ adaptiert und wird als Teil von Covering Climate Now veröffentlicht, einer globalen journalistischen Zusammenarbeit zur Stärkung der Berichterstattung über das Klima.

Meine schnelle Überprüfung der Web-Suchergebnisse zeigt, dass dieser Artikel, der jetzt eine Woche alt ist, 16 Mal neu gepostet oder verlinkt wurde, bevor ich aufgehört habe zu zählen.

Dieser Artikel repräsentiert den „Big Lie“-Aspekt der professionellen Propaganda. Big Lies verkaufen sich besser, überzeugen die Leute besser als kleine, pingelige Lügen.

Die Quintessenz der großen Lüge aus diesem CCNow-Propagandastück lautet:

Der Klimanotstand ist größer, als viele Experten, gewählte Vertreter und Aktivisten erkennen. Die Treibhausgasemissionen der Menschheit haben die Erdatmosphäre überhitzt, was zu verheerenden Hitzewellen, Hurrikans und anderen Wetterextremen geführt hat – so viel ist allgemein bekannt. Das größere Problem ist, dass die überhitzte Atmosphäre wiederum die Ozeane überhitzt hat, was einen katastrophalen Anstieg des Meeresspiegels in der Zukunft sicherstellt.

Wenn sich die Ozeane aufheizen, steigt das Wasser an – zum Teil, weil sich warmes Wasser ausdehnt, aber auch, weil das wärmere Wasser eine große Schmelze der polaren Eisschilde ausgelöst hat. Das Ergebnis ist, dass der durchschnittliche Meeresspiegel auf der ganzen Welt mit ziemlicher Sicherheit um mindestens 20 bis 30 Fuß [6 bis 9 m] ansteigen wird. Das ist genug, um große Teile vieler Küstenstädte, in denen Hunderte von Millionen Menschen leben, unter Wasser zu setzen.

Lassen Sie mich darauf hinweisen, unnötigerweise für viele Leser, dass keine einzige Phrase oder Satz im ersten Absatz wahr ist. Der zweite Absatz schneidet kaum besser ab.  Aber nur, weil „warmes Wasser steigt“ – nur nicht auf die seltsame Weise, wie Wanless sagt.  (Technisch gesehen bewirkt die Erwärmung des Wassers im Ozean eine Ausdehnung des Wassers im Ozean – die Tatsache, dass „wärmeres Wasser steigt“, hat damit nichts zu tun – es ist die Ausdehnung, die zu einem steigenden Meeresspiegel führen kann.]  Nichts anderes im zweiten Absatz ist wahr.

[Hervorhebungen im Original]

Ich hasse es, zu übertreiben, denn das ist es, was ich CCNow und Wanless vorwerfe, also lassen Sie uns genau hinschauen:

Der Klimanotstand ist größer, als viele Experten, gewählte Beamte und Aktivisten erkennen.“ Es gibt keinen wirklichen physischen Klimanotstand – es gibt nur eine gemeinsame Meinung, dass es einen Klimanotstand gibt. Der Satz ist bestenfalls eine nicht belegte Meinung (die hier als Tatsache dargestellt wird).  Die reale Klimasituation könnte kaum größer (schlimmer) sein als einige der bizarreren Aktivisten und Politiker von sich geben („wir haben noch neun Jahre“ – John Kerry).

„Die Treibhausgasemissionen der Menschheit haben die Erdatmosphäre überhitzt, was zu verheerenden Hitzewellen, Hurrikans und anderen Wetterextremen geführt hat – so viel ist allgemein bekannt.“  Es gibt keinen wissenschaftlichen Konsens, dass die Erdatmosphäre „überhitzt“ ist.   Es wird angenommen, dass die steigende CO2-Konzentration in der Atmosphäre eine geringe Erwärmung verursacht hat – aber erst seit Mitte der 1900er Jahre.  Viele glauben, dass diese geringe Erwärmung und das CO2, das sie verursacht haben könnte, von Vorteil sind, darunter auch einige der klügsten Köpfe in Amerika.  Die realen Daten über globale Hitzewellen, Wirbelstürme und extremes Wetter stützen nicht die Behauptung, dass die geringe Erwärmung, die wir erfahren haben, „strafende Hitzewellen, Wirbelstürme und andere Extremwetter-Ereignisse entfesselt hat“ – das ist das bevorzugte Denkmuster der Klimaaktivisten, keine Tatsache. Mehr zu den Fakten finden Sie auf den Spezialseiten auf dieser Website und hier. Da dieser Punkt von Experten für Waldbrände, Hitzewellen, Wirbelstürme und extremes Wetter weitgehend bestritten wird, kann man nicht sagen, dass er „allgemein bekannt“ ist.

Das größere Problem ist, dass die überhitzte Atmosphäre wiederum die Ozeane überhitzt hat, was einen katastrophalen Anstieg des Meeresspiegels in der Zukunft sicherstellt.“ Die Ozeane haben sich nicht überhitzt – das stimmt einfach nicht – es ist schwierig, auch nur wissenschaftlich zu untermauern, dass sich die Ozeane überhaupt in irgendeiner wesentlichen, klimatisch wichtigen Weise erwärmt haben. Die Messung der Wassertemperatur der Ozeane ist ein laufendes Projekt, und wir haben eine sehr kurze Zeitreihe von auch nur einigermaßen zuverlässigen Daten. Es ist Wahnsinn zu behaupten, dass die winzige Erwärmung (wenn überhaupt) des Ozeanwassers „ein katastrophales Ausmaß des zukünftigen Meeresspiegelanstiegs sichergestellt hat.“

Den Rest des zweiten Absatzes zu analysieren, überlasse ich den Lesern.  Aber lassen Sie uns einen weiteren Blick auf die Vorstellung werfen, dass der Meeresspiegel mit Sicherheit „6 bis 9 m“ steigen wird.

Wanless erklärt: „Aber wenn der Meeresspiegel in den nächsten 100 bis 200 Jahren um einen Meter oder mehr ansteigt – und das ist unser derzeitiger Trend – sind die Aussichten düster. In diesem Szenario könnte der Meeresspiegel bis 2040 um einen Meter ansteigen, bis 2050 um einen Meter, und es wird noch viel schlimmer kommen.“

Der Link dort führt zum „NOAA Technical Report NOS CO-OPS 083 – GLOBAL AND REGIONAL SEA LEVEL RISE SCENARIOS FOR THE UNITED STATES“ [ .pdf ], in dem – welche Überraschung! – nichts dergleichen steht. Das NOAA-Dokument sagt nicht, dass das extremste (RCP8.5) Szenario überhaupt unser aktueller Trend ist. Und es sagt unter keinem der Szenarien einen Anstieg des Meeresspiegels um einen Meter bis 2040 oder um einen Meter bis 2050 voraus, nicht einmal unter RCP8.5 (ein Szenario, das jetzt weithin als höchst unwahrscheinlich bis unmöglich angesehen wird).

Selbst unter den unmöglichen RCP8.5-Bedingungen sagt NOAA nur 40 cm (2040) und 63 cm (2050) voraus [gelb hervorgehoben] – aber in der realen Welt sahen wir nur die für 2010 bis 2020 vorhergesagten 0,03 m (30 mm) für das allerunterste Szenario [blau hervorgehoben]. Wanless bekommt offenbar sein behauptetes Ausmaß um 6 bis 9 m von der unteren rechten Ecke, rot hervorgehoben, RCP8.5 bei 2200.

Um der Phantasterei noch eins draufzusetzen behauptet Wanless in seinem Artikel weiter: „Heute steigen die Ozeane sechs Millimeter pro Jahr, und dieses Tempo wird sich weiter dramatisch beschleunigen.“ Das Einzige, was an diesem Satz stimmt, ist, dass 60 mm über zwei Zoll sind. Wanless‘ Link zu einer CSIRO-Seite ist kaputt, aber der aktuelle Anstieg des Meeresspiegels, laut NOAA:

Nicht 6 mm/Jahr, sondern 3,3 mm/Jahr, und das auf dem Niveau der letzten zwei oder drei Jahre. [Quelle: https://climate.nasa.gov/. Für diese Graphik klicke man auf Meeresspiegel im rechten unteren Bereich der Grafik oben auf der Seite aus].

Sie fragen vielleicht: „Wie kann ein Artikel mit so vielen offensichtlichen, ungeheuerlichen Fehlern – wilden Übertreibungen, Ungenauigkeiten und Unwahrheiten – in The Nation veröffentlicht werden?“  Das könnte die falsche Frage sein.  Besser wäre es zu fragen: „Wie konnte er von der AGU in EOS in der Rubrik Wissenschaftsnachrichten veröffentlicht werden?“

Die Antwort ist: The Nation, AGU und EOS sind alle Partner von CCNow.

# # # # #

Kommentar des Autors:

Die American Geophysical Union (AGU) und das zugehörige Online-Magazin EOS haben sogar das Ptrinzip der Wissenschaft aufgegeben und sich dafür entschieden, sich mit der anerkannten Propaganda-Maschine Covering Climate Now zu verbünden, mit ihrem alles-geht-Vorstoß, um die Welt davon zu überzeugen, dass es einen Klima-Notstand gibt, damit sie bereitwillig fossile Brennstoffe aufgeben. Das heutige Beispiel zeigt, dass sich diese Bemühungen auf die Veröffentlichung wilder Übertreibungen und ungeheuerlicher Lügen erstrecken, um die Botschaft zu verbreiten – die Big Lie der Propaganda.

Ich weiß ehrlich gesagt nicht, wie es dazu kommen konnte, und bin gleichzeitig traurig und empört.

Das geht jetzt weit, weit über das gegenseitige Schulterklopfen der Klima-Alarmisten bei AGU-Treffen in den 1990er Jahren hinaus. Wo sind die echten Wissenschaftler, die Mitglieder der AGU sind?  Wie können sie schweigen, wenn EOS solche Artikel ohne auch nur einen Disclaimer veröffentlicht.  Eine Schande.

Link: https://wattsupwiththat.com/2021/05/06/wild-exaggeration-and-egregious-lies/

Übersetzt von Chris Frey EIKE

 




Warum Modelle keine Temperatur prognosti­zieren können: Ein Kaleidoskop des Scheiterns

Allerdings hatte er sich dabei auf – wie sich herausstellte – fehlerhafte Mondspektraldaten verlassen. Als er dies erkannte, rechnete er zehn Jahre später nach und veröffentlichte 1906 eine zweite Arbeit, in der er das tat, was sich Klima-„Wissenschaftler“ heute zu tun strikt weigern: Er widerrief seine erste Arbeit und veröffentlichte eine revidierte Schätzung, diesmal in deutscher Sprache, die von wahrhaft gläubigen Thermageddonisten nur selten zitiert wird:


Seine korrigierte Berechnung, die in dem damals neu gegründeten Journal of the Royal Nobel Institute veröffentlicht wurde, schlug 1,6 C° ECS vor, einschließlich der Wasserdampf-Rückkopplung.

Guy Stewart Callendar, ein britischer Dampfingenieur, veröffentlichte 1938 seine eigene Berechnung und präsentierte sein Ergebnis vor der Royal Society (die anschließende Diskussion in der Gesellschaft ist sehr lesenswert). Auch er sagte 1,6 C° ECS voraus, wie die gestrichelten Linien zeigen, die ich seiner Grafik hinzugefügt habe:

Dann gab es einen plötzlichen Sprung in der vorhergesagten ECS. Plass (1956) sagte 3,6 C° ECS voraus. Möller (1963) sagte eine direkte oder Referenz-CO2-Verdoppelungssensitivität (RCS) von 1,5 C° voraus, die auf bis zu 9,6 C° anstieg, wenn sich die relative Feuchte nicht veränderte. Er fügte einen wichtigen Zusatz hinzu: „…die Veränderung des Strahlungsbudgets durch eine veränderte CO2-Konzentration kann vollständig ohne Veränderung der Oberflächentemperatur kompensiert werden, wenn die Bewölkung um +0,006 erhöht wird.“ Es überrascht nicht, dass er zu dem Schluss kam, dass „die Theorie, dass klimatische Variationen durch Variationen des CO2-Gehalts bewirkt werden, sehr fragwürdig wird.

[Hervorhebung im Original]

Manabe & Wetherald (1975), die ein frühes radiativ-konvektives Modell verwendeten, sagten 2,3°C ECS voraus. Hansen (1981) gab eine mittlere Schätzung von 2,8°C° ECS an. Im Jahr 1984 kehrte er zu dem Thema zurück und führte zum ersten Mal die Rückkopplungsformel aus der Regelungstheorie ein, dem Studium der Rückkopplungsprozesse in dynamischen Systemen (Systeme, die ihren Zustand über die Zeit verändern). Er sagte 1,2°C RCS und 4°C ECS voraus, was einen Rückkopplungsanteil von 0,7 impliziert.

Im Jahr 1988 sagte er in seiner inzwischen berüchtigten Aussage vor dem US-Senat in einem Juni, der so heiß war, wie es in Washington DC seither nicht mehr der Fall war, 3,2°C pro Jahrhundert voraus (was in etwa dem ECS entspricht), bei einem Business-as-usual-Szenario (und es ist das Business-as-usual-Szenario, das seither eingetreten ist), aber die tatsächliche Erwärmung beträgt kaum mehr als ein Drittel der von ihm vorhergesagten Business-as-usual-Rate:

Im Jahr 1988 kehrte der verstorbene Michael Schlesinger zum Thema Temperaturrückkopplung zurück und fand heraus, dass in einem typischen allgemeinen Zirkulationsmodell der Rückkopplungsanteil – d. h. der Anteil der Gleichgewichtsempfindlichkeit, der durch die Rückkopplungsreaktion beigetragen wird – ein absurd hoher Wert von 0,71 war, was einen Systemgewinnfaktor (das Verhältnis der Gleichgewichtsempfindlichkeit nach der Rückkopplung zur Referenzempfindlichkeit davor) von 3,5 und somit, unter der Annahme von 1,05 RCS, einen ECS von 3,6 C° bedeutet.

Gregory et al. (2002) stellten eine vereinfachte Methode zur Ableitung der ECS unter Verwendung einer Energiebilanzmethode vor. Energiebilanzmethoden gab es schon seit einiger Zeit, aber erst in den frühen 2000er Jahren wurden die Satelliten- und Ozeandaten zuverlässig und umfassend genug, um diese einfache Methode anzuwenden. Gregory generierte eine Wahrscheinlichkeitsverteilung, die stark rechts-verschoben ist (aus einem Grund, der später deutlich wird), mit einer mittleren Schätzung von 2 C° ECS:

Auf Gregorys Ergebnis folgten viele weitere Arbeiten, die die Energiebilanzmethode verwendeten. Die meisten von ihnen finden, dass ECS 1,5-2 C° beträgt, ein Drittel bis die Hälfte des mittleren Bereichs von 3,7-4 C°, den die aktuellen allgemeinen Zirkulationsmodelle vorhersagen.

Im Jahr 2010 schrieben Lacis et al. in Anlehnung an die Methode der GCMs:

Für den verdoppelten CO2-Einstrahlungsantrieb, … für den die direkte, nicht rückgekoppelte Antwort der globalen Oberflächentemperatur 1,2 C° beträgt …, impliziert die ~4 C° Oberflächenerwärmung [einen] … [Systemverstärkungsfaktor] von 3,3. …“

Lacis et al. fuhren fort zu erklären, warum sie dachten, dass es einen so großen Systemverstärkungsfaktor geben würde, der einen Rückkopplungsanteil von 0,7 impliziert:

Nicht kondensierende Treibhausgase, die 25 % des gesamten terrestrischen Treibhauseffekts ausmachen, … sorgen für die stabile Temperaturstruktur, die das derzeitige Niveau des atmosphärischen Wasserdampfs und der Wolken über Rückkopplungsprozesse aufrechterhält, die die restlichen 75 % des Treibhauseffekts ausmachen.

Leider wird in der obigen Passage explizit ein außerordentlicher, in der gesamten Klimatologie universeller Fehler begangen, der der Grund dafür ist, dass die Modellierer eine weitaus größere Erwärmung erwarten – was daher auch ihre Modelle simulieren – als es die direkte und einfache Energiebilanzmethode nahelegen würde. Das einfache Blockdiagramm unten demonstriert den Fehler, indem es die fehlerhaften (rot) mit den korrigierten (grün) Werten in der gesamten Schleife vergleicht:

Werfen wir einen Blick auf die Rückkopplungsschleife für das vorindustrielle Zeitalter. Wir untersuchen die vorindustrielle Ära, denn als die Modellierer zum ersten Mal versuchten, den Einfluss des Wasserdampfs und anderer Rückkopplungen abzuschätzen, von denen keine direkt und zuverlässig durch Messung oder Beobachtung quantifiziert werden kann, begannen sie mit der vorindustriellen Ära.

Zum Beispiel sagt Hansen (1984):

… diese Voraussetzung der Energiebilanz ergibt eine [Emissionstemperatur] von etwa 255 K. … die Oberflächentemperatur ist etwa 288 K, 33 K wärmer als die Emissionstemperatur. … Die gleichgewichtige globale mittlere Erwärmung der Oberflächenluft beträgt etwa 4°C … Dies entspricht einem [Systemgewinnfaktor] von 3-4, da die zur Wiederherstellung des Strahlungsgleichgewichts mit dem Weltraum erforderliche rückkopplungsfreie Temperaturänderung 1,2-1,3°C beträgt.“

Lassen Sie uns zunächst den Kreislauf der Klimatologie durchlaufen. Die direkte Erwärmung durch vorindustrielle, nicht kondensierende Treibhausgase (das kondensierende Gas Wasserdampf wird als Rückkopplung behandelt) beträgt etwa 8 K, aber der gesamte natürliche Treibhauseffekt, die Differenz zwischen der 255 K hohen Emissionstemperatur und der 287 K hohen mittleren globalen Oberflächentemperatur im Jahr 1850, beträgt 32 K. Daher ist der Systemgewinnfaktor der Klimatologie 32 / 8 oder 4, so dass ihr imaginärer Rückkopplungsanteil 1 – 1/4 oder 0,75 beträgt – wiederum absurd hoch. Somit würde aus 1 K RCS 4 K ECS werden.

Gehen wir nun den Weg der Regelkreistheorie, der zuerst von Black (1934) in den Bell Labs in New York bewiesen und in der Praxis lange und schlüssig verifiziert wurde. Man muss nicht nur die vorindustrielle Referenzsensitivität gegenüber nicht kondensierenden Treibhausgasen über den summativen Ein-/Ausgangsknoten am Scheitelpunkt der Schleife in die Schleife eingeben: man muss auch die 255 K Emissionstemperatur (gelb) eingeben, die als Eingangssignal bekannt ist (der Hinweis steckt im Namen).

Es ist die Sonne, Dummkopf!

Dann ist der Ausgang des Kreislaufs nicht mehr nur der natürliche Treibhauseffekt von 32 K: Es ist die globale mittlere Oberflächentemperatur im Gleichgewicht von 287 K im Jahr 1850. Der Systemgewinnfaktor ist dann 287 / (255 + 32), oder 1,09, weniger als ein Drittel der Schätzung der Klimatologie. Der Rückkopplungsanteil ist 1 – 1 / 1,09, oder 0,08, also um eine Größenordnung kleiner als die Schätzung der Klimatologie.

Daher gibt es im Gegensatz zu dem, was Hansen, Schlesinger, Lacis und viele andere sich vorstellen, keinen guten Grund in den vorindustriellen Daten zu erwarten, dass die Rückkopplung auf der Erde in ihrer Größenordnung einzigartig im Sonnensystem ist, oder dass ECS so etwas wie das imaginäre Drei- oder Vierfache von RCS sein wird.

Wie aus dem Zitat von Lacis et al. ersichtlich ist, geht die Klimatologie in der Tat davon aus, dass der System-Gain-Faktor im Industriezeitalter etwa gleich groß sein wird wie der für das vorindustrielle Zeitalter. Daher ist das übliche Argument gegen die korrigierte vorindustrielle Berechnung – dass sie keine Inkonstanz der Rückkopplungsantwort der Einheit mit der Temperatur berücksichtigt – nicht relevant.

Darüber hinaus kommt eine einfache Energiebilanzberechnung des ECS unter Verwendung aktueller Mainstream-Daten aus der Industriezeit in einem Verfahren, das sich völlig von der vorindustriellen Analyse unterscheidet und in keiner Weise von ihr abhängig ist, zu demselben Ergebnis kommt wie das korrigierte vorindustrielle Verfahren: ein vernachlässigbarer Beitrag der Rückkopplungsreaktion. Demnach ist die Rückkopplungsreaktion der Einheit annähernd konstant mit der Temperatur, und ECS ist kaum mehr als die 1,05 K RCS.

Warum also liegen die Modelle mit ihren Vorhersagen so falsch? Mittelfristig (oben im Diagramm unten) betrug die mittelfristig projizierte anthropogene Erwärmung pro Jahrhundertäquivalent 3,4 K, wie vom IPCC 1990 vorhergesagt, aber die beobachtete Erwärmung betrug nur 1,65 K, wovon nur 70% (Wu et al. 2019) oder 1,15 K anthropogen waren. Die Vorhersage des IPCC war also etwa dreimal so hoch wie die nachträgliche Beobachtung, was mit dem Fehler, aber nicht mit der Realität übereinstimmt.

Da der gegenwärtig geschätzte verdoppelte CO2-Strahlungsantrieb in etwa dem vorhergesagten Strahlungsantrieb aus allen anthropogenen Quellen für das 21. Jahrhundert entspricht, kann man in der neuesten Generation von Modellen die gleiche dreifache Übertreibung im Vergleich zu den 1,1 K ECS beobachten, die sich aus den aktuellen Klimadaten (untere Hälfte des obigen Diagramms) ableiten lassen, einschließlich der realen Erwärmung und des Strahlungsungleichgewichts, und zwar über die Energiebilanzmethode.

Der Fehler, die große Rückkopplungsreaktion auf die Emissionstemperatur zu vernachlässigen und sie somit effektiv zu der eigentlich winzigen Rückkopplungsreaktion auf die direkte Treibhausgas-Erwärmung zu addieren und falsch zu zählen, ist elementar und schwerwiegend. Dennoch scheint es in der gesamten Klimatologie universell zu sein. Hier sind nur ein paar Aussagen davon:

[Es folgen diese Statements, auf deren Übersetzung hier verzichtet wird. Sie gehen alle in die gleiche Richtung und untermauern Moncktons Vorwurf. A. d. Übers.]

Die Auswirkung des Fehlers ist in der Tat drastisch. Der Systemgewinnfaktor und damit der ECS wird um das Drei- bis Vierfache überschätzt; der Rückkopplungsanteil wird um das Zehnfache überschätzt; und die Einheitsrückkopplung (d.h. die Rückkopplungsantwort pro Grad direkter Erwärmung vor Berücksichtigung der Rückkopplung) wird im mittleren Bereich um das 30-fache und am oberen Rand der Modellvorhersagen um das 100-fache überschätzt.

[Hervorhebungen im Original]

Der Fehler kann sehr einfach verstanden werden, wenn man sich anschaut, wie die Klimatologie und die Regelungstheorie den Systemverstärkungsfaktor auf der Grundlage vorindustrieller Daten berechnen würden:

Da RCS kaum mehr als 1 K beträgt, ist ECS, nachdem die Sonnenscheintemperatur von 255 K zur Glättung von Zähler und Nenner der Klimatologie hinzugefügt wurde, kaum mehr als der Systemgewinnfaktor. Und das ist das Ende des „Klimanotstands“. Es war alles ein Irrtum.

Natürlich wird die Rückkopplungsformel in den Modellen nicht direkt berücksichtigt. Rückkopplungen werden ex post facto aus ihren Outputs diagnostiziert. Kürzlich sagte ein angesehener skeptischer Klimatologe mit Blick auf unser Ergebnis, dass wir aus der Diskrepanz zwischen den ECS-Schätzungen der Modelle und unseren eigenen hätten erkennen müssen, dass wir falsch liegen müssen, weil die Modelle das Klima perfekt abbilden.

Es erweist sich sicherlich als nicht weniger schwierig, den Skeptikern den Fehler der Regelungstheorie zu erklären als der totalitären Fraktion, die von diesem Fehler so mächtig profitiert. Hier ist also, wie unser angesehener Co-Autor, ein führender Professor für Regelungstheorie, es ausdrückt:

Natürliche Größen sind, was sie sind. Eine Größe als die Summe aus einem Basissignal und dessen Störung zu definieren, ist ein vom Beobachter geschaffenes Modell. Wenn das Basissignal – analog zum Eingangssignal in einer elektronischen Schaltung – willkürlich gewählt wird, hört die Störung (die Differenz zwischen der willkürlich gewählten Basislinie und der Größe, die die Summe aus Basislinie und Störung ist) auf, eine reale, physikalische Größe zu sein: Sie ist lediglich ein Artefakt eines Konstrukts, das eine physikalische Größe willkürlich in mehrere Komponenten aufteilt. Das reale System kümmert sich jedoch nicht um die Modelle, die von seinem Beobachter erstellt werden. Dies lässt sich leicht an der wichtigsten Rückkopplungsschleife von allen demonstrieren, der Wasserdampf-Rückkopplung, bei der die Erwärmung dazu führt, dass Wasser verdunstet und der entstehende Wasserdampf, ein Treibhausgas, eine zusätzliche Erwärmung erzwingt.

Die Klimatologie definiert die Rückkopplung so, dass nur die Störung – nicht aber auch das Basissignal, die Emissionstemperatur – die Rückkopplung auslöst. Die Implikation ist, dass in der Sicht der Klimatologen die Sonne kein Wasser verdunstet. In ihren Modellen verdunstet die gesamte Sonneneinstrahlung von 1363,5 W/m² kein einziges Wassermolekül, während die Erwärmung, die durch nur 25 W/m² des vorindustriellen Antriebs durch nicht kondensierende Treibhausgase verursacht wird, allein für die gesamte natürlich vorkommende Verdunstung von Wasser auf der Erde verantwortlich ist. Dies ist offensichtlicher Unsinn. Wasser kümmert sich weder um die Quelle der Wärme, die es verdunstet, noch um die fehlerhaften Definitionen der Klimatologie für Rückkopplungen. Im Modell der Klimatologie würde die Wasserdampf-Rückkopplung aufhören zu funktionieren, wenn alle Treibhausgase aus der Atmosphäre entfernt würden. Die Sonne würde durch ihre Emissionstemperatur kein einziges Wassermolekül verdampfen, denn nach der Definition der Klimatologen verdampft Sonnenschein kein Wasser.

Wärme ist immer die gleiche physikalische Größe, unabhängig von der Quelle der Wärme. Der Zustand eines Systems kann durch die darin enthaltene Wärmeenergie beschrieben werden, unabhängig von der Quelle der Wärme. Temperatur-induzierte Rückkopplungen werden durch verschiedene Wärmequellen ausgelöst. Die Sonne ist die größte dieser Quellen. Die Wärme aus der Sonneneinstrahlung folgt genau den gleichen Naturgesetzen wie die Wärme aus dem Treibhauseffekt. Alles, was bei der Analyse des Verhaltens eines physikalischen Systems zählt, ist der Gesamtwärmeinhalt, nicht seine ursprüngliche Quelle oder Quellen.

Die Modelle der Klimatologie spiegeln diese Tatsache nicht wider. Ein Modell eines natürlichen Systems muss die inneren Abläufe dieses Systems widerspiegeln, die nicht durch irgendeinen „Konsens“ wegdefiniert werden dürfen. Der Maßstab für ein gutes Modell eines realen Systems ist nicht „Konsens“, sondern die objektive Realität. Die Funktionsweise eines Rückkopplungs-Verstärkers in einem dynamischen System wie dem Klima (ein dynamisches System ist ein System, das seinen Zustand im Laufe der Zeit ändert) ist seit langem theoretisch bewiesen und wurde wiederholt in realen Anwendungen demonstriert, wie z. B. in den Steuerungssystemen für Kraftwerke, Space Shuttles, den Fliegen auf den Saphirwellen von Kirchturmuhren, den Reglern von Dampfmaschinen und der erhöhten spezifischen Luftfeuchtigkeit bei wärmerem Wetter im Klima und den Systemen, die uns zum Mond gebracht haben.

Jeder Regelungstheoretiker, dem wir unsere Ergebnisse gezeigt haben, hat die Sache sofort kapiert. Jeder Klimatologe – ob Skeptiker oder Thermagedonist – hat sich unangenehm verrenkt. Denn die Regelungstheorie liegt genau außerhalb der Kompetenz und Komfortzone der Klimatologie.

Lassen Sie uns also mit einer Untersuchung darüber enden, warum die „perfekten“ Modelle in Wirklichkeit und formal völlig unfähig sind, uns irgendetwas Nützliches darüber zu sagen, wie viel globale Erwärmung unsere Industrien und Unternehmen verursachen könnten.

Die Modelle versuchen, die Navier-Stokes-Gleichungen mithilfe der numerischen Strömungsmechanik für Zellen von typischerweise 100 km x 100 km x 1 km in einer Reihe von Zeitschritten zu lösen. In Anbetracht der Erdoberfläche und der Tiefe der Troposphäre müssen die Gleichungen immer und immer wieder, Zeitschritt für Zeitschritt, für jede von etwa einer halben Million solcher Zellen gelöst werden – in denen viele der relevanten Prozesse, wie z. B. die Bildung von Kondensationskernen nach der Svensmark-Theorie, auf der Sub-Grid-Skala stattfinden und von den Modellen überhaupt nicht erfasst werden.

Nun sind die Navier-Stokes-Gleichungen notorisch widerspenstige partielle Differentialgleichungen: tatsächlich so widerspenstig, dass noch keine Lösungen in geschlossener Form gefunden wurden. Sie können nur numerisch gelöst werden, und gerade weil es keine Lösungen in geschlossener Form gibt, kann man nicht sicher sein, dass die numerischen Lösungen keine Fehler enthalten.

Es gibt eine weitere große Schwierigkeit mit Modellen, die in einer Reihe von Zeitschritten ablaufen. Wie Pat Frank vor zwei Jahren in einem bahnbrechenden Papier von großer Genialität und Auffassungsgabe zum ersten Mal dargelegt hat – ein Papier übrigens, das bisher noch keine von Fachleuten begutachtete Widerlegung erfahren hat – macht die Ausbreitung der Unsicherheit durch die Zeitschritte der Modelle sie formal unfähig, uns irgendetwas darüber zu sagen, wie viel oder wie wenig globale Erwärmung wir verursachen könnten. Was auch immer die Modelle sonst noch für einen Nutzen haben mögen, ihre Vorhersagen zur globalen Erwärmung sind reine Vermutungen und völlig wertlos.

Ein Problem ist, dass die Unsicherheiten in den Schlüsselvariablen so viel größer sind als das winzige mittlere anthropogene Signal von weniger als 0,04 Watt pro Quadratmeter und Jahr. Zum Beispiel unterliegt der wolkenarme Anteil einer jährlichen Unsicherheit von 4 Watt pro Quadratmeter (abgeleitet durch Mittelwertbildung über 20 Jahre). Da die Ausbreitung von Unsicherheiten in Quadratur erfolgt, breitet sich diese eine Unsicherheit so aus, dass sie für sich allein eine Unsicherheits-Bandbreite von ±15 bis ±20 °C über ein Jahrhundert ergibt. Und es gibt viele, viele solcher Unsicherheiten.

Daher ist jede Vorhersage auf der Hundertjahresskala, die in diesen Bereich der Unsicherheit fällt, nichts weiter als eine aus der Luft gegriffene Vermutung. Hier sieht man, wie die Unsicherheitsausbreitung dieser einen Variable in nur einem Modell aussieht. Das gesamte Intervall der CMIP6 ECS-Projektionen liegt deutlich innerhalb der Unsicherheits-Bandbreite und sagt uns daher nichts – gar nichts – darüber, wie viel Erwärmung wir verursachen könnten.

Pat hatte die gleichen Schwierigkeiten wie wir, Skeptiker und Thermageddonisten gleichermaßen von seiner Richtigkeit zu überzeugen. Als ich ihn das erste Mal sah, wie er einen erstklassigen Vortrag zu diesem Thema hielt, auf dem Treffen der World Federation of Scientists in Erice auf Sizilien im Jahr 2016, wurde er von Wissenschaftlern auf beiden Seiten in einer skandalös bösartigen und ignoranten Art und Weise niedergebrüllt, die an die grobe Misshandlung von Henrik Svensmark durch die profitgierigen Rohlinge der einst so angesehenen Royal Society vor einigen Jahren erinnert.

Hier sind nur einige der unsinnigen Antworten, mit denen Pat Frank in den letzten paar Jahren seit der Veröffentlichung zu tun hatte, und davor von Gutachtern bei mehreren Zeitschriften, die einfach nicht bereit waren, ein so bahnbrechendes Ergebnis zu veröffentlichen:

Fast alle Gutachter von Dr. Franks Arbeit a) kannten den Unterschied zwischen Genauigkeit und Präzision nicht; b) verstanden nicht, dass eine Temperaturunsicherheit kein physikalisches Temperaturintervall ist; c) erkannten nicht, dass die Ableitung einer Unsicherheit zur Bedingung einer projizierten Temperatur nicht impliziert, dass das Modell selbst zwischen Eishaus- und Treibhaus-Klimavorhersagen oszilliert [ein tatsächlicher Einwand eines Gutachters]; d) behandelte die Fortpflanzung der Unsicherheit, eine statistische Standardmethode, als ein fremdes Konzept; e) verstand nicht den Zweck oder die Bedeutung eines Kalibrierungsexperiments; f) verstand nicht das Konzept der instrumentellen oder Modellauflösung oder deren empirische Grenzen; g) verstand überhaupt nicht die physikalische Unsicherheitsanalyse; h) erkannte nicht einmal, dass ±n nicht dasselbe ist wie +n; i) erkannte nicht, dass die Unsicherheit von ± 4 W/m² im Wolkenantrieb ein jährlicher Mittelwert war, der aus den Daten von 20 Jahren abgeleitet wurde; j) verstand nicht den Unterschied zwischen dem Basiszustandsfehler, dem räumlichen Effektivwertfehler und dem globalen Netto-Mittelwertfehler; k) erkannte nicht, dass die Bildung des Mittelwerts der Unsicherheiten die Vorzeichen der Fehler aufhebt und das wahre Ausmaß der Unsicherheit verbirgt; l) erkannte nicht, dass die Gewohnheit der Klimamodellierer, Differenzen gegenüber einem Basiszustand zu bilden, die Unsicherheit nicht abzieht; m) stellte sich vor, dass ein Simulationsfehler im troposphärischen Wärmeinhalt keine falsche Lufttemperatur erzeugen würde; verstand nicht, dass die Unsicherheit des geringen Wolkenanteils, auf der die Analyse basierte, weder eine Basiszustandsunsicherheit, noch ein konstanter Fehler, noch ein zeitinvarianter Fehler war; n) stellte sich vor, dass die angeblich korrekte Temperaturprojektion von Hansen (1988) für 1988-2020 die Analyse ungültig machte.

Pah! Wir haben dieselbe Art von Unsinn ertragen müssen, und zwar aus demselben Grund: Die Klimatologen sind mit den relevanten Bereichen der Mathematik, Physik und Wirtschaft außerhalb ihres eigenen engen und allzu oft stumpfsinnig engstirnigen Spezialgebiets nur unzureichend vertraut, und sie sind höchst unwillig zu lernen.

Die Quintessenz ist, dass die Klimatologie einfach falsch liegt, was das Ausmaß der zukünftigen globalen Erwärmung angeht. Keine Regierung sollte dem, was sie sagt, auch nur die geringste Aufmerksamkeit schenken.

[Hervorhebung vom Übersetzer]

Link: https://wattsupwiththat.com/2021/05/09/why-models-cant-predict-temperature-a-history-of-failure/

Übersetzt von Chris Frey EIKE

 




Die Klimaschau von Sebastian Lüning: Sonnenaktivität steuert Temperaturmuster im Pazifik, Sonne macht Klima




Hier stinkt etwas: Betrugs-Vorwürfe bei der Forschung zur Ozean-Versauerung

Kip Hansen hat darüber vorigen Woche schon etwas geschrieben, aber es bedarf eines weiteren Beitrags, weil Mitglieder der Wissenschafts-Presse davon Notiz nehmen. Im Science Magazine findet man einen Beitrag mit dem Titel:

Does ocean acidification alter fish behavior? Fraud allegations create a sea of doubt [etwa: Verändert die Ozean-Versauerung das Verhalten von Fischen? Betrugs-Vorwürfe erzeugen ein Meer von Zweifeln]

Summary

Eine Gruppe von Whistleblowern hat drei Finanzagenturen aufgefordert, Untersuchungen einzuleiten hinsichtlich des Missbrauchs der Gelder für 22 Studien. In vielen derselben geht es um die Auswirkungen der Ozean-Versauerung auf das Verhalten von Fischen und die Ökologie. Die Aufforderung, der sich ein Reporter von Science anschloss, beruht auf etwas, das sie als Belege für Manipulationen ansehen von öffentlich verfügbaren Datensätzen für zwei Studien. Eine war in Science, die andere in Nature Climate Change veröffentlicht worden, und zwar in Kombination mit bemerkenswert großen und „statistisch unmöglichen“ Verhaltensauswirkungen durch Kohlendioxid, wie es in vielen der anderen Studien zu lesen war. Die beiden Leitautoren der Studien bestreiten vehement, Daten frisiert zu haben, und die James Cook University in Townsville, Australien, hat die Manipulations-Vorwürfe gegen eine der Studien nach einer oberflächlichen Betrachtung verworfen. Aber viele unabhängige Wissenschaftler und Daten-Fachleute, welche das Ganze begutachtet hatten, sprachen von ernsten Problemen in den beiden Datensätzen, ebenso wie in zwei weiteren Studien, welche von einem der angeklagten Wissenschaftler durchgeführt worden waren. Es beleuchtet Themen in den Bereichen Soziologie, Psychologie und Wissenschafts-Politik – einschließlich des Drucks auf Forscher, wie ihre Studien auszusehen haben, wenn sie in Top-Journalen veröffentlicht werden sollen, des Hungers von Journalisten nach alarmierenden und ins Auge springenden Ergebnissen sowie der Risiken des whistleblowings.

Mitglieder der Clark-Gruppe sagen, dass sie die angeblichen Datenprobleme bald auf PubPeer, einer Website zur Diskussion veröffentlichter Arbeiten, öffentlich machen werden. Und sie sagen, dass sie lange darüber nachgedacht haben, ob sie ihre Bedenken mit einem Reporter besprechen sollten, während die Ermittlungen möglicherweise noch laufen. „Meiner Erfahrung nach werden Whistleblower, sowohl ich als auch andere, beschimpft, wenn sie mit den Medien sprechen, bevor eine Untersuchung ein Fehlverhalten festgestellt hat“, sagt Josefin Sundin von der Schwedischen Universität für Agrarwissenschaften, die letzte Autorin der Nature-Replikationsarbeit. „Aber warum ist das so? Wenn eine Untersuchung überhaupt stattfindet, kann sie sich sehr lange hinziehen. Wenn man weiß, dass Daten gefälscht wurden, warum wird es dann als richtig angesehen, monatelang oder sogar jahrelang darüber zu schweigen?“

Irgendetwas stinkt hier mit Sicherheit.

Der ganze Beitrag steht hier.

Link: https://wattsupwiththat.com/2021/05/10/something-smells-fishy-allegations-of-fraud-in-ocean-acidification-research/

Übersetzt von Chris Frey EIKE

 




Der Abkühlungs-Aspekt von Treibhausgasen

Chinook: Das Gegenstück zum Föhn bei uns in Kanada östlich der Rocky Mountains. Das indianische Wort bedeutet „Schneefresser“

Diskussionen über Temperaturinversionen haben jedoch gelegentlich eine respektvollere Debatte mit kritischen Denkern ausgelöst. Die meisten Menschen haben in „Frostlöchern“ Ventilatoren bemerkt, die in Obstplantagen und Weinbergen aufgestellt wurden, und sind daher daran interessiert, warum sie funktionieren. Ventilatoren vermischen gefrierende Luftschichten an der Oberfläche, die sich nachts im Frühjahr bilden können und Blüten und Früchte schädigen, mit wärmeren Luftschichten weiter oben. Sie ziehen einfach die wärmeren Luftschichten von oben nach unten an die Oberfläche und erhöhen so die Tiefsttemperaturen. Aber warum gibt es diese wärmere Luftschicht?

Während des Tages absorbiert die Erdoberfläche sowohl die Sonnenstrahlung als auch die von den Treibhausgasen nach unten abgegebene Infrarotwärme. Da sie diese Energie schneller absorbiert, als sie Infrarotwärme zurück in den Weltraum abstrahlen kann, erwärmt sich die Oberfläche. Allerdings erwärmt das Sonnenlicht die untere Atmosphäre (auch Troposphäre genannt) nicht direkt. Stickstoff, Sauerstoff und Argon machen ~ 99% unserer Atmosphäre aus und sind für die einfallende Sonnenenergie transparent. Darüber hinaus absorbieren diese Gase im Gegensatz zu den Treibhausgasen weder Infrarotenergie noch geben sie diese ab. Die Troposphäre erwärmt sich in erster Linie, indem sie durch Zusammenstöße mit der erwärmten Erdoberfläche Energie gewinnt. Während des Tages liegt die wärmste Luftschicht am nächsten an der erwärmten Oberfläche. Aufsteigende warme Luft verursacht turbulente Vermischung und Kollisionen mit kühlerer Luft darüber, die die Lufttemperaturen dort anhebt. Da sich die Luft jedoch beim Aufsteigen aufgrund des abnehmenden Luftdrucks abkühlt, ist die Erwärmung begrenzt.

Ohne solare Erwärmung kühlt die Erdoberfläche ab, indem sie mehr Infrarotwärme abgibt, als sie von der recycelten Wärme der Treibhausgase absorbiert, da die Treibhausgase nicht die gesamte abgegebene Wärme abfangen. „Atmosphärische Fenster“ lassen etwa 23 % der Oberflächenwärme direkt in den Weltraum entweichen, ohne recycelt zu werden. Die Luftschicht, die der Oberfläche am nächsten ist, kühlt dann ab, indem sie Wärme an die kältere Oberfläche abgibt. Höhere Luftschichten können jedoch nicht absinken und wieder mit der Oberfläche zusammenstoßen, es sei denn, sie verlieren ihre Wärme. Stickstoff, Sauerstoff und Argon können diese Energie jedoch nur abgeben, indem sie mit kühleren Treibhausgasen kollidieren, die ihre Energie absorbieren und die Hälfte wieder in Richtung Weltraum abgeben.

Da der Großteil unserer Atmosphäre nur durch die Abgabe von Wärme an Treibhausgase kühlt, bildet ein kleiner Prozentsatz an Treibhausgasen einen „Kühlungsstau“. Folglich kühlt die Atmosphäre langsamer ab als die feste Erde, die über atmosphärische Fenster schneller Energie verliert. Dieser Unterschied in den Abkühlungsraten erzeugt eine wärmere Luftschicht über der kühleren Oberflächenluft und wird als Temperaturinversion bezeichnet. Stellen Sie sich nun eine Welt ohne Treibhausgase vor. Ohne Treibhausgase können Stickstoff, Sauerstoff und Argon nicht genug Wärme zurück in den Weltraum verlieren und die Atmosphäre würde sich weiter erwärmen.

Außerhalb der Tropen bilden sich Inversionsschichten eher im Winter und Frühjahr. Während der reduzierten Sonneneinstrahlung im Winter speichert die Erdoberfläche weniger Wärme. Wo Menschen Kamine benutzen, um sich warm zu halten, werden Inversionsschichten durch aufsteigenden Rauch sichtbar, der plötzlich flach wird, wenn er auf die wärmere Luft darüber trifft. Ventilatoren funktionieren, indem sie wärmere Luftschichten nach unten ziehen, um sich mit kühleren Oberflächenschichten zu vermischen und so die Pflanzen vor dem Einfrieren zu schützen. In ähnlicher Weise kühlt die monatelange „Polarnacht“ die Oberflächen im Inneren der Antarktis auf bis zu -89,2 °C ab und erzeugt eine kontinentweite Inversionsschicht. Wenn periodisch überdurchschnittliche Oberflächentemperaturen gemeldet werden, ist dies oft das Ergebnis starker Winde, die wie ein Ventilator die Inversionsschicht der Antarktis abschwächen oder ganz beseitigen.

Oberhalb der Inversionsschicht. Foto: © Chris Frey

In den 1990er Jahren stellten Klimawissenschaftler fest, dass urbane Wärmeeffekte die Minimaltemperaturen um einige Grad anheben, nicht aber die Maximaltemperaturen. Solche Gebiete erwärmten sich nicht, sondern wurden weniger kalt. Das deutet darauf hin, dass die Verstädterung die lokalen Inversionsschichten unterbrochen hat. Die zunehmende Bedeckung des Landes mit wärmespeicherndem Asphalt und Beton verringert die Oberflächenkühlung. Die Beseitigung von Vegetation oder Nässe führt zu heißeren Oberflächen, die mehr Wärme speichern. Verkehr, hohe Gebäude oder Frostfächer stören die Oberflächenwinde, die wärmere Luft an die Oberfläche bringen. All diese Dynamiken erhöhen die Mindesttemperaturen und damit die Durchschnittstemperatur. Verschiedene lokale Störungen der Inversionsschichten können besser erklären, warum einige US-Wetterstationen Erwärmungstrends zeigen, während 36 % eine langfristige Abkühlung aufweisen.

Foto: © Chris Frey

Unsere Atmosphäre hat auch eine globale Inversionsschicht. Über der Troposphäre befindet sich die wärmere Stratosphäre, in der die Temperaturen aufgrund der Absorption der solaren UV-Strahlung mit der Höhe zunehmen. Da CO2 in einer wärmeren Stratosphäre schneller Infrarotstrahlung abgibt, als es diese aus der Troposphäre absorbiert, kühlt mehr CO2 die Stratosphäre ab. (Aus ähnlichen Gründen hat CO2 auch eine kühlende Wirkung in der Antarktis.) Außerdem bringen Gewitterwolken die enormen Wärmemengen, die im Wasserdampf gespeichert sind, an die Tropopause (= die Grenzschicht zwischen Troposphäre und Stratosphäre). Auch hier können wir sehen, wo die Wärmeinversion beginnt, wenn die Wolken nicht mehr aufsteigen und eine Ambossform an dieser Grenzschicht entwickeln. Da dort oben kaum noch Wasserdampf vorhanden ist, gehen die Wellenlängen der Infrarotwärme, die bei der Kondensation von Wasserdampf zu Flüssigkeit und Eis freigesetzt werden, größtenteils ungehindert in den Weltraum, ohne dass sie zur Erde zurückgeführt werden.

Würden diese Dynamiken besser verstanden, würden die Menschen eher über Klimakatastrophen-Narrative lachen, als der Paranoia zu erliegen.

Link: https://wattsupwiththat.com/2021/05/06/the-cooling-side-of-greenhouse-gases/

Übersetzt von Chris Frey EIKE

Anmerkung des Übersetzers: Die Erklärung der Entstehung von Inversionen ist fachlich nicht ganz gelungen. Weil hier aber ein künstlicher Erwärmungseffekt neben dem UHI beschrieben wird, ist der Beitrag hier übersetzt.

 




Öko-Angst

Die verheerenden Auswirkungen der Erzeugung von Öko-Angst bei Kindern: Climate.Etc als Antidot: Vor ein paar Tagen erhielt ich folgenden Brief via E-Mail:

An die geschätzte Dr. Judith Curry

Sie kennen mich nicht, aber ich bin ein häufiger Leser Ihrer Artikel und finde sie sowohl faszinierend als auch Augen öffnend. Ich bin mir nicht sicher, ob es überhaupt erwünscht ist, Ihnen einige Worte der Ermutigung anzubieten, aber zuerst möchte ich im Detail erklären, warum ich mich entschlossen habe, Sie per E-Mail mit dieser eher seltsamen Methode zu kontaktieren, eine Nachricht anzubieten. Es ist, weil Sie meine Meinung über die globale Erwärmung und den Klimawandel völlig verändert haben. Seien Sie versichert, dass ich nicht der Einzige bin, der beginnt, die Dinge in einem anderen, wissenschaftlicheren Licht zu sehen.

Ich bin in der „Ära“ der 90er Jahre aufgewachsen: „Saurer Regen wird uns alle umbringen! ‚Alle Bäume werden gefällt werden!‘ ‚Die Menschen schaden der Umwelt mehr als sie ihr nützen!“ Jede Art von beängstigender Vorhersage, die Sie sich vorstellen können und die Sie sofort benennen können, war ich ausgesetzt, und das in einem Alter, in dem ich die Bedeutung von ‚hinterfrage, was du hörst‘ noch nicht ganz verstanden hatte. Ich glaubte voll und ganz – buchstäblich bis zu diesem Jahr – dass die Erde in Flammen untergehen würde, dass die Ozeane mit Öl bedeckt sein würden, dass die Regenwälder alle verschwinden würden und dass die Erde jedem Kreis der Hölle in Dantes Inferno sehr ähneln würde. Es war auch nicht gerade hilfreich, dass ich bei einer Tante und einem Onkel aufgewachsen bin, die Zeugen Jehovas waren und die mir immer wieder sagten, dass die Welt untergehen würde! Wenn man dann noch die häufigen Nachrichtenberichte hinzufügt (ich war nicht in der Lage, sie zu ignorieren – meine verstorbene Mutter schmetterte sie durch das Haus), hat man einen ziemlich großen Klumpen Angst. Nein, im Ernst, während meiner Mittelschulzeit wurde bei mir GAD zusammen mit Depressionen diagnostiziert.

Ich zucke jetzt zusammen, wenn ich all die jüngeren Leute sehe (ich bin Anfang dreißig), die genau so handeln wie ich – mit der Mentalität, dass Menschen eine Plage sind und dass sie ALLES Gute ruinieren. Das war der erste Stich, der mir sagte, dass etwas nicht stimmt. Wir leben in dem am wenigsten verschmutzten Land von allen, unsere Luftqualität hat sich drastisch verbessert, die Wälder sind größtenteils intakt, es gibt MEHR Grün, und bedrohte Arten feiern ein Comeback, das ich mir in meinen jungen Jahren nie hätte vorstellen können. Warum werden wir dann ständig mit „der Mensch ist die Krankheit“-Botschaften bombardiert? Das ständige Sirenengeheul von „TUN SIE ETWAS!“ hat mich so fertig gemacht, dass ich nach einer Art Beruhigung gesucht habe – nicht die beste Art, mit einem Problem umzugehen, aber es war meine Methode – und ich bin auf Ihre Seite gestoßen. Meine „Seite“ hat sich oft über Wissenschaftler lustig gemacht, die entweder versuchen, die bildlichen Flammen, die durch ihre Panik entstanden sind, zu löschen oder besser noch, die Ausbreitung der Feuer zu verhindern. Warum sollte jemand nicht hören wollen: „Gute Nachrichten! Der Planet ist NICHT dem Untergang geweiht!“?

Ich habe so viel über diese „Klimaleugner“ gehört und fühlte mich beklommen, als ich auf Ihre Seite kam, als ob ich tatsächlich die verbotene Frucht aus der Ferne betrachten würde und dachte, dass ich jeden Moment von einem Racheengel für meinen Ungehorsam niedergestreckt werden würde. (Nochmals, ich bin in einem einigermaßen christlichen Haushalt aufgewachsen, das hat die Sache nicht gerade erleichtert…) Nichts dergleichen ist passiert. Ich spottete zuerst und dachte: „Diese Person liegt völlig falsch. Das Klima ist schlecht, Menschen werden sterben, irgendwo auf dem Ozean gibt es Überschwemmungen –“ Doch dann erinnerte ich mich daran, dass ich einmal über zwanzig Jahre meines Lebens in der Nähe einer Stadt am Meer gelebt habe. Nichts dergleichen geschah auch nur ansatzweise! In der Tat ist der Meeresspiegel in der Nähe meiner alten Heimatstadt nicht viel gestiegen. Wir hatten in zwei Jahrzehnten nur eine Handvoll Hurrikane.

Wenn die Klima-„Leugner“ so geistesgestört wären und so sehr darauf aus wären, dem „Großkapital“ zu helfen, warum sind ihre Seiten dann ausschließlich von Spenden abhängig, und warum sind ihre Argumente so klar und deutlich? Sie klingen überhaupt nicht geistesgestört, da Sie Wissenschaftler sind (jemand, der aktiv die WISSENSCHAFTLICHE METHODE ZUM BEOBACHTEN BENUTZT! Ja, ich weiß, so viele Hütchen, aber ich wünschte, es gäbe Personen im Hintergrund, die das hören können!), also warum ist es das Ziel, die Leute zu erniedrigen, die aktiv die Auswirkungen des Klimas und das Klima selbst studieren? Das machte keinen Sinn. Dann ging ich zu „Watt’s Up With That?“, „Not A Lot of People Know That“, „CFACT“, „Farm Babe“, die Liste geht weiter und weiter, und ich wollte meine eigenen Ansichten hinterfragen (als ob es meine eigenen Ansichten wären… das waren sie nicht, es waren Eindrücke, die mir im zarten Alter von zehn Jahren eingetrichtert wurden…) und ich fand eine Fülle von Punkten, die fundierter und weniger theatralisch waren als, sagen wir, das Geschrei, die Welt stehe in Flammen. Wie traurig ist es für die eigentliche Wissenschaft, dass ihre wahren Praktiker zugunsten von Junk-Science in die Ecke gedrängt werden. („Weil es feststeht und weil wir es sagen, deswegen ist es so!“)

Inzwischen sind die tatsächlichen gestörten „Wissenschaftler“ Leute wie Bill Nye (es tut mir weh, das zu schreiben, weil ich ihn als Kind eigentlich sehr mochte – seine Show war ziemlich unterhaltsam und informativ), die darauf bestehen, dass die Menschen sterben müssen, damit der Planet überlebt. Ich kann mit Sicherheit sagen, dass ich es viel lieber vermeiden würde, mit ihnen zu reden, als mit jemandem, der sagt: „Fossile Brennstoffe, die von Menschen verbrannt werden, verändern den Planeten nicht und hier ist der Grund dafür.“ Wenigstens will der ‚Leugner‘ mich nicht tot sehen, nur weil ich atme.

Bitte, bitte, BITTE… machen Sie weiter mit dem, was Sie tun, und ich hoffe, dass es Ihnen und Ihren Kollegen gelingt, noch viele Köpfe zu ändern, bevor dieser Wahnsinn zum Tragen kommt!  Sie wissen das nicht, aber Sie bringen den Menschen Hoffnung statt Verzweiflung, Sie und Michael Schellenberger, Roger Pielke Jr., Paul Homewood und viele andere, von denen ich sicher bin, dass ich sie aufgrund fehlerhafter Erinnerung ausgelassen habe (oder mangelnder Recherche, wenn Sie mich auf viele andere hinweisen könnten, die ich vielleicht übersehen habe, lassen Sie es mich bitte wissen, wenn Sie so geneigt sind.

Kommentar von Judith Curry dazu

Die Strategie, „den Kindern Angst einzujagen“, ist absolut verwerflich. Ich wuchs in den späten 1950er-1960er Jahren auf. Die Kinder-Angst-Taktik dieser Zeit waren die Russen – sie waren bereit, die USA zu übernehmen, wir würden bombardiert werden (erinnern Sie sich an die Luftschutzbunker dieser Ära?), wir würden unsere Freiheiten verlieren, Ihre Nachbarn könnten russische Spione sein (hat jemand die TV-Show The Americans gesehen? Sie ist großartig). Diese Angst wurde mir von einer katholischen Nonne vermittelt, die auf dem Schulhof noch verstärkt wurde. Im reifen Alter von 8 Jahren endete ich mit einem Magengeschwür, weil ich mir Sorgen machte. Mein Arzt sagte mir, ich solle mir keine Sorgen machen, das sei alles nur dumme Politik, und ich solle einfach meine Kindheit genießen. Ich sagte ‚Ok‘ und war mit all dem so gut wie fertig. Aber die expliziten, von der Regierung sanktionierten und akademischen Bemühungen in der ‚cli-sci Kommunikation‘ (Klima-‚Krise‘, ‚Notfall‘, ‚Aussterben‘), um Kinder über den Klimawandel für politische Zwecke zu erschrecken, ist absolut verwerflich.

Solche Panikmache wird nach hinten losgehen, wenn die Kinder aufwachsen und sehen, dass die beängstigenden Prophezeiungen unerfüllt bleiben. Wir züchten Generationen von Menschen heran, die lernen, Wissenschaftlern zu misstrauen. Den Kindern wird mit gruseligen Klimageschichten mehr Schaden zugefügt als mit allen Folgen des Klimawandels in ihrem Leben.

In der Zwischenzeit fungieren Climate Etc. und andere Blogs als wichtiges Gegenmittel gegen solche ungerechtfertigte, verwerfliche und schädliche Rhetorik.

Link: https://judithcurry.com/2021/05/06/eco-anxiety/

Übersetzt von Chris Frey EIKE

 




Das Bundesverfassungs­gericht – ein Fall für den Verfassungsschutz ?

Es geht um das Klima, was ja in der Tat eine von den Göttern gesteuerte Umwelterscheinung ist, gegen die Erdlinge sich angeblich versündigen.
Jan Grossarth hat darüber in der WELT vom 5. Mai 2021 einen exzellentem Artikel mit dem Titel „Die Apokalyptiker von Karlsruhe“ geschrieben. Er prüft alle vom Bundesverfassungsgericht vorgetragenen Argumente – und zwar juristisch – und sein Fazit ist ein vernichtendes Urteil über die erschreckende  Zielsetzung: Die Umerziehung der Bevölkerung zu einem angeblich klimagerechten Lebensstil – und die dazu erforderlichen Zwangsmaßnahmen. Dazu kommt noch auch die Erziehung der jeweiligen Bundesregierung zu folgsamem Verhalten und Handeln, was schon jetzt erfolgreich exekutiert wird, wie man an dem beflissenen Gehorsam der Altparteien erlebt.
Auch die juristische Qualität der Urteilsbegründungen erhält gleichfalls  von dem Frevler Gossarth  unterirdische Zensuren, was schon eine Blasphemie ist.

Aber es braucht noch eine Ergänzung: Das Bundesverfassungsgericht hat als Grundlage für seine „Weisung“ an Regierung und Parlament für eine Verlängerung ihrer CO2-Einsparungsverpflichtungen eine Stellungnahme des deutschen Sachverständigen-Rats für Umweltfragen (SRU) herangezogen. Sonst nichts. Die seit der Präsentation der Klimakatastrophen-Hypothese vor Jahrzehnten erfolgte intensive und absolut streitige  wissenschaftliche Diskussion über die Richtigkeit oder die Unrichtigkeit dieser – bis heute unbewiesenen – Theorie kann durch einige der zahlreichen Petitionen überdeutlich beschrieben werden:
Die „Welt Klimadeklaration“  von 700 Wissenschaftlern und Fachleuten „Es gibt keinen Klimanotstand“ vom 18.10.2019. Die „Petition zur Globalen Anthropogenen Erwärmung“ von über 90 italienischen Wissenschaftlern vom 19.7.2019. Die Petition von Prof. Richard Lindzen und 300 bedeutenden Personen vom 27.2.2017 an Präsident Trump, die zur Kündigung des Pariser Klimaabkommens führte. Das Klimamanifest von Heiligenroth vom 15.9.2007 mit 342 Unterschriften. Die Petition von Wissenschaftlern aus aller Welt“ an die EU-Administration – von 300 unabhängigen Klimawissenschaftlern und Professionals. Das Schreiben von 200 Wissenschaftlern vom 8.12.2009 an UN-Generalsekretär Ban-Ki-Moon.

Das Bundesverfassungsgericht selbst kritisierte versehentlich seine eigene Ignoranz gegenüber der wohlbekannten massiven wissenschaftlichen Kritik an der CO2-Theorie mit seinem Satz im Urteil „Besteht wissenschaftliche Ungewissheit über umweltrelevante Ursachenzusammenhänge, so erlegt der Grundgesetz-Artikel 20a dem Gesetzgeber eine besondere Sorgfaltspflicht auf.“  Dieses Gericht braucht diese Sorgfalt offenbar nicht zu beachten.
Der unübersehbare Beweis für die weiterhin bestehende massive Kritik an der Untergangstheorie stellt klar: Es gibt in dieser Frage keinen Konsens – nur harte Konfrontation.  Und selbst ein Konsens würde nicht genügen: Es fehlt dann immer noch der Beweis – und zwar durch das von Dritten wiederholbare Experiment.
Diese sehr streitige Debatte – in der Wissenschaft notwendig und üblich – ist in ihrer inzwischen recht langen Geschichte und ihrer Härte dermaßen unübersehbar, dass eigentlich niemand den Ahnungslosen spielen kann.
Das Gericht hat aber alle kritischen Stellungnahmen aus der internationalen Wissenschaft ignoriert und allein die Bewertungen des SRU zur Grundlage seines Urteils gewählt. Ein unbegreifliches, aber auch sehr bezeichnendes Versäumnis. Es handelt sich um ein zweifellos bewusst gefälltes Fehlurteil, das geeignet ist, immensen Schaden für das Land und gerade auch für die angesprochenen künftigen Generationen anzurichten.
Jetzt müsste sich eigentlich der Verfassungsschutz um das Bundesverfassungsgericht kümmern.

Was nun notwendig wäre, ist die Entlassung aller Gerichtsmitglieder. Am besten mit der gesichtswahrenden japanischen Methode,  Versager in höheren Positionen dadurch loszuwerden, dass man sie – bei weiterhin gutem Gehalt – zu Frühstücksdirektoren in nachgeordneten Behörden ernennt.

Sie sollten auf keinen Fall ihre schicken roten Roben entsorgen, denn diese könnten eine lustige neue und nachhaltige Verwendung erhalten: Als eindrucksvolle Bekleidung ihrer Warmup-Vorgruppe „Die jecken Richter“ bei Karlsruher Faschings-Prunksitzungen.
Am besten am „Schmutzigen Donnerstag“ im Februar.

Günter Keil
Dr.-Ing.

Sankt Augustin

 




Der Infrastrukturplan der Biden Regierung enthält verschwenderische Ausgaben für die grüne Agenda

Hochrangige Verwaltungsbeamte gaben an, dass er hauptsächlich durch eine Anhebung der Körperschaftsteuer, auf den Stand vor den Steuersenkungen der Trump-Regierung 2017, finanziert werden würde.

Stephen Moore, ein Wirtschaftswissenschaftler, der in der Reagan-Administration tätig war, äußerte Bedenken hinsichtlich der Staatsausgaben unter der Biden-Administration. Der Präsident hat Anfang März ein Hilfspaket für COVID-19 in Höhe von 1,9 Billionen US-Dollar unterzeichnet. Laut Axios hat er eine weitere geschätzte Ausgabenflut für Infrastruktur von 5 Billionen US-Dollar und andere Wahlversprechen im Auge.

„Das sind 6 bis 7 Billionen US-Dollar an Ausgaben und Schulden, fast doppelt so viel, wie die US-Regierung für die Finanzierung des Unabhängigkeitskrieges, des Bürgerkriegs, des Ersten Weltkriegs, des Zweiten Weltkriegs und des Kalten Krieges zusammen ausgegeben hat – inflationsbereinigt“, sagte Moore dem Daily Caller in einer Erklärung.

Während das Infrastrukturpaket, genannt American Jobs Plan, mindestens 2 Billionen US-Dollar an Bundesausgaben vorsieht, fließen nach  dem  Fact Sheet: The American Jobs Plan des Weißen Hauses, nur 621 Milliarden US-Dollar in die „Verkehrsinfrastruktur und Ausfallsicherheit“. Darunter sind Projekte gemeint für: Autobahnen, Brücken und Straßen sowie öffentliche Verkehrsmittel und Investitionen in die Personen- und Güterbahn, Flughäfen, Wassertransporte und Häfen.

Es gibt aber auch eine Reihe von Ausgabenposten, die nicht in direktem Zusammenhang mit der Infrastruktur stehen. Zum Beispiel Projekte zur „Förderung der Rassengerechtigkeit und Umweltgerechtigkeit“, Investition in öffentliche Schulen, einschließlich der Finanzierung von Schulessen, um „umweltfreundlich zu werden, indem die Verwendung von Papptellern und anderen Einwegmaterialien reduziert oder beseitigt wird“.

Das COVID-19-Hilfspaket, das Biden Anfang März unterzeichnet hatte, hatte bereits 128,5 Milliarden US-Dollar für öffentliche Schulen bereitgestellt .Der größte Ausgabenposten ist eine Investition von 174 Milliarden US-Dollar in Elektrofahrzeuge, Forschung sowie die landesweite Einrichtung von Ladestationen.

Progressive Demokraten haben argumentiert, dass Bidens Pläne nicht weit genug gehen. Der Senator von Massachusetts, Ed Markey, hat Anfang dieser Woche Gesetze vorgestellt, die 10 Billionen US-Dollar für den Klimawandel bedeuten würden.

Eine nähere Betrachtung der geplanten Ausgaben, deutet eher darauf hin, dass Bidens Ausgabenpaket, das als Infrastrukturplan benannt wird, in Wirklichkeit der grünen Energieindustrie mehr Geld zur Verfügung stellt, als für den Ausbau oder die Reparatur von Infrastruktur vorgesehen sind.

„Es gibt keinen Grund, weitere zig Milliarden Dollar für Geschenke an die bereits stark subventionierte Industrie für erneuerbare Energien aufzunehmen.“  sagte James Taylor, Präsident des Heartland Institute.

„Die Vorschlag der Regierungsbeamten zielt darauf ab, bis zu einer Billion Dollar auf eine grüne Agenda zu setzen und sie als“ Infrastruktur „zu tarnen„, sagte Gregory Wrightstone, Executive Director der CO2-Koalition. „Diese verschwenderischen Ausgaben sind eine Lösung auf der Suche nach einem Problem.“

„Während unsere lebenswichtige Infrastruktur sicherlich repariert und verbessert werden muss, sind noch mehr  Ausgaben für grüne Projekte eine völlige Verschwendung und bringen der Gesellschaft keinerlei Vorteile“, sagte Steve Milloy, ein ehemaliges Mitglied des Übergangsteams der Trump-Administration.

 

Auch für das Finanzministerium hat der Kampf gegen den Klimawandel oberste Priorität

Die durch Biden frisch ernannte Finanzministerin Janet Yellen macht den Klimawandel zu einer obersten Priorität für ihre Abteilung und plant Berichten zufolge die Schaffung der neuen Position einer Klimabeauftragten im Finanzministerium. Während ihrer Anhörung zur Bestätigung am 19. Januar erklärte Yellen gegenüber den Senatoren, ihr Ziel sei es, sicherzustellen, dass die Finanzaufsichtsbehörden „ernsthaft über die Bewertung des Risikos des Klimawandels für das Finanzsystem nachdenken“.

„Sowohl die Auswirkungen des Klimawandels selbst als auch Maßnahmen zu seiner Bewältigung könnten erhebliche Auswirkungen haben, “ verlorene Vermögenswerte“ schaffen, große Veränderungen der Vermögenspreise, Kreditrisiken usw. hervorrufen, die sich auf das Finanzsystem auswirken könnten, das sind sehr reale Risiken.“

Das Finanzministerium reguliert Banken oder Finanzmärkte nicht direkt, verfügt jedoch über umfassende Befugnisse, um eine klimafokussierte Regulierungsagenda umzusetzen und Klimarisiken für das Finanzsystem zu überwachen, so das Wall Street Journal

Biden unterzeichnete an seinem ersten Tag im Amt eine Dekret, in der die Bundesbehörden aufgefordert wurden, zu bewerten, wie sich ihre Geschäftstätigkeit auf die Umwelt auswirkt.

Die Federal Reserve, in der Yellen von 2014 bis 2018 als Vorsitzende fungierte, hat eine eigene Klimaschutzagenda. Während einer Rede am 18. Februar forderte Frau  Lael Brainard, Vorstandsmitglied der US-Notenbank, die Finanzinstitute auf, eine größere Rolle bei der Bekämpfung des Klimawandels zu spielen, auch durch Finanzregulierung.

Seit März 2020 hat die Federal Reserve Banken und Unternehmen eine scheinbar unbegrenzte Menge an Liquidität zur Verfügung gestellt, während der Kongress Billionen Dollar für die Bekämpfung von Pandemien ausgegeben hat

Gregory Zerzan, der zuvor im Finanzministerium und im Innenministerium tätig war, argumentierte in einem Leitartikel des Wall Street Journal vom 25. Februar, dass die Zulassung der Finanzaufsichtsbehörden zur Bekämpfung des Klimawandels fast keine Auswirkungen auf die Umwelt haben würde.

Zerzan vermutet ferner, dass Finanzvorschriften gegen den Klimawandel, es der Bundesregierung und Corporate America erleichtern würden, zu entscheiden, wer Zugang zu Kapital erhält und die Aufsichtsbehörden für mehr Korruption und Bevorzugung öffnen würden.

Kapitalanforderungen sind eines der wichtigsten Instrumente, mit denen Finanzaufsichtsbehörden Risiken steuern. Wenn beispielsweise die Kreditvergabe als zu riskant eingestuft wird, halten die Banken mehr Kapitalreserven und werden häufig davon abgehalten, Kredite an Kreditnehmer zu vergeben, die von den Aufsichtsbehörden nicht bevorzugt werden. Unternehmen, die es sich nach diesen Regeln leisten können, umweltfreundlich zu werden, würden auf Kosten ihrer Wettbewerber Zugang zu Kapital erhalten.

Zusammengestellt und übersetzt durch Andreas Demmig

 

https://dailycaller.com/2021/04/01/biden-infrastructure-plan-climate-change-green-agenda-subsidies-electric-vehicles/

https://dailycaller.com/2021/03/11/financial-regulators-treasury-federal-reserve-climate-change-banks-wall-street-corruption/

 




EIKE im Landtag: Lüdecke und Lüning als Sachverständige in Düsseldorf

Leider gibt es noch kein Video vom Landtag; und der Life-Stream ist nur für angemeldete Bürger sichtbar.

Daher hier der Text der Stellungnahmen.

Prof. Horst Lüdecke:

Gutachterliche Stellungnahme zum Gesetzentwurf der Landesregierung Klimaanpassungsgesetz
Nordrhein-Westfalen (KIAnG)
Zusammenfassung und Stellungnahme
Der Gesetzentwurf des Klimaanpassungesetzes (im Folgenden KlAnG) bezieht sich auf die stets notwendige und vernünftige Aktivität der zivilisierten Menschheit, sich vor schädlichen Folgen des Klimawandels (es gibt genauso viele positive Folgen) durch möglichst frühzeitig durchgeführte Maßnahmen zu schützen.

Diese Bestrebungen gibt es vermutlich, seit die Menschheit existiert. Heute sind sie infolge
der immer größeren Verwundbarkeit moderner Zivilisationen gegen Wetter- und Klima-Unbilden
dringender denn je geworden. Musterbeispiel dafür sind die Holländer mit ihren Deichsystemen, die
seit jeher gemäß der sich ändernden Überschwemmungsbedrohung verstärkt und angepasst wurden.
Daher wird diesem Gesetzentwurf hier prinzipiell zugestimmt. Aus Platzgründen wird auf das Eingehen
auf Einzelheiten verzichtet, weil fast unzählige Aktionsfelder beteiligt sind, stellvertretend seien nur
die landwirtschaftliche Wasserversorgung und der Hochwasserschutz in von Fluss-Überschwemmungen
gefährdeten Wohngebieten genannt.

Leider enthält der KIAnG aber sachliche Fehler, die seine Absicht und Wirkung zwar nicht maßgebend
berühren, aber dennoch korrigiert werden sollten. Der KlAnG enthält zudem auch einen gefährlichen
Mangel, auf den hier hingewiesen wird und der in einer Korrektur des Entwurfs zu berücksichtigen ist.
Zum Zweck der Platzersparnis wird in den folgenden Anmerkungen neben weiteren Quellen auch die
ausführliche Stellungnahme des Autors zur Neufassung des Klimaschutzgesetz referenziert, am Vormittag des 10.05.2021 in einer Expertenbefragung der NWR-Landesregierung behandelt. Diese Stellungnahme ist nachfolgend als NeuKL abgekürzt.

Sachliche Fehler des KlAnG:
KIAnG, Seite 2, I, 13.2:
Dort heißt es „Klimaschutz und Klimaanpassung vor Ort stärken“. Klimaschutz ist aber ein völlig sinnloser
Begriff (s. NeuKL), denn Klima – ein statistisches Mittel über mindestens 30 Jahre – kann man
nicht schützen. Zudem hat „Klimaschutz“ nicht das Geringste mit „Anpassung an Klimawandel“ zu tun
und gehört daher nicht in den Gesetzentwurf.

KIAnG, Seite 5, §1:
Hier steht „…Damit sollen die negativen Auswirkungen des Klimawandels begrenzt…“. Das ist in dieser
Formulierung falsch, denn Klimawandel hat oft genug auch ebenso viele positive Auswirkungen gehabt,
s. Grönland = Grünland, die mittelalterliche Warmzeit usw. Auch der jüngste Klimawandel hat
natürlich auch positive Auswirkungen, so sind durch die Erwärmung früher nicht geeignete Gebiete im
höheren Norden (Sibirien) jetzt zu landwirtschaftlichen Nutzflächen geworden. Es muss daher an Stelle
von „die negativen Auswirkungen“ korrekt „negative Auswirkungen“ heißen. Die gleiche Korrektur ist
auf Seite 5, §3, (1), Seite 6, §4 (5) und allen weiteren Stellen mit der Formulierung „die negativen Auswirkungen“ vorzunehmen.

KIAnG, Seite 9, Begründung, A Allgemeiner Teil, erster Satz:
Wieder heißt es „Schutz des Klimas“, der folgende Satz ist aber noch größerer sachlicher Unsinn. Es ist
leider nicht ausgemacht, dass auf Jahrhunderte bis Jahrtausende die günstige heutige Erwärmung bestehen bleibt wie im Text behauptet. Mit den Erkenntnissen der Klimawissenschaft sind die entsprechenden Aussagen vom IPCC(?) – dem Autor unbekannt, selbst das IPCC schreibt seines Wissens solch einen Unsinn nicht – jedenfalls nicht vereinbar. Jeder Klimaforscher bestätigt, dass eine neue Eiszeit vor der Tür steht, sie ist angesichts der großen Länge des warmen Holozän (ca. 9000 Jahre) bereits überfällig. Wenn die Menschheit noch ein paar 100 Jahre oder gar 1000 Jahre von der nächsten Eiszeit
verschont bleibt, wäre dies ein ausgesprochener Glücksfall. Alle weiteren Phantastereien im Text, bei
denen man sich insbesondere bei fragwürdigen Aussagen des Potsdamer Institut für Klimafolgenforschung
(PIK) bedient hat, mögen Unterhaltungswert aufweisen, als Begründung für das sehr sinnvolle
Klimaanpassungsgesetz wirken sie aber eher lächerlich und sollten besser gestrichen werden.

KIAnG, Seite. 9, B, Zu Absatz 2:
Zum 2-Grad Ziel (inzwischen sind es sogar 1,5 Grad geworden!) erlaubt sich der Autor ohne weiteren
Kommentar den bekannten Klimaforscher Prof. Dr. Heinz Miller, ehemaligen Direktor des Alfred-Wegener-
Instituts in Bremerhaven zu zitieren

Wer von Klimaschutz redet, weckt Illusionen. Klima lässt sich nicht schützen und auf einer Wunschtemperatur stabilisieren. Es hat sich auch ohne Einwirkungen des Menschen oft drastisch verändert. Schlagworte wie „Klimakollaps“ oder „Klimakatastrophe“ sind irreführend. Klima kann nicht kollabieren, die Natur kennt keine Katastrophen

Gefährlicher Mangel des KlAnG:
KIAnG, Seite 2, I:
In der hier vorgenommenen Aufzählung im Text fehlt der wohl wichtigste Punkt, der sogar zuerst genannt werden sollte. Dieser Punkt ist auch im folgenden Text des KIAnG nirgendwo explizit erwähnt. Klimawandel kann (muss aber nicht) bedeuten, dass Extremwetter wie Stürme, Starkregen etc. zunehmen. So zeichnete sich insbesondere die „kleine Eiszeit“ als Kälteperiode von ca. 1450 bis 1850 durch solche Extremwetterzunahmen aus. Sämtliche noch erhaltenen Hochwasserpegel an Europas Flüssen belegen dies [3]. Glücklicherweise waren Extremwetterzunahmen in unserer jüngsten Erwärmungsphase bislang nicht zu beobachten [4]. Extremwetter sind insbesondere für eine zuverlässige Stromversorgung gefährlich. Diese Zuverlässigkeit ist aber im heutigen Deutschland auf Grund des zunehmenden Windrad- und Photovoltaikausbaus mit fluktuierender und im Extremfall völlig fehlender Leistungsabgabe der Anlagen nicht mehr gegeben [5] (Photovoltaik nachts oder bei Wolkenbedeckung, Windräder bei Flaute).

Der Autor empfiehlt daher dringend, den Punkt „gegen Extremwetter resiliente Stromversorgung“ in das KIAnG explizit und betont mit aufzunehmen. Dazu gehört beispielsweise als wohl wichtigste Anpassungsmaßnahme, ausreichend viele grundlastfähige Kohlekraftwerke weiter in Betrieb zu belassen. Auf die Gefahren eines längerfristigen Blackouts wurde bereits an vielen Stellen hingewiesen, auch von der Bundesregierung [6]. Es wird zudem empfohlen, auch auf „S. 6, §4 unter 1., Sonstige Maßnahmen“ eine ertüchtigte und sichere Stromversorgung als robuste und gegen jede Wetter- und Klimaunbilden resiliente Stromversorgung explizit als Anpassungsmaßnahme zu nennen.

Zum Autor
Jahrgang 1943, Studium und Promotion in Physik, kernphysikalische Forschung, chemische Industrie (BASF), Professur an der HTW des Saarlandes (Physik, Informatik, OR), seit 2008 em. im Altersruhe-stand.
Verfasser eines Fachbuchs und drei Sachbüchern, Erstautor und Mitautor in 10 begutachteten Klima-fachpublikationen in Fachjournalen wie Climate of the Past der Europäischen Geophysikalischen Union oder Hydrology: regional studies (Elsevier) und weiteren, s. hierzu https://www.horstjoachimlue-decke.de/ unter „Publikationen“. Seit jüngerer Zeit anonymer Peer Reviewer bei zwei begutachteten Klimafachjournalen.

3 Historische Hochwassermarken, http://real-planet.eu/hochwasser.htm
4 IPCC, 2013. Climate Change 2013: The Physical Science Basis. Contribution of Working Group I to the Fifth Assessment Re-port of the Intergovernmental Panel on Climate Change. Cambridge and New York: Cambridge University Press. AR5, WG1, Technical summary, TS.6.3, S. 114.
5 H.-J. Lüdecke: Energie und Klima, Kapitel 3.4, expert Verlag 2020.
6 Deutscher Bundestag, Drucksache 17/5672. https://dip21.bundestag.de/dip21/btd/17/056/1705672.pdf


Dr. habil. Sebastian Lüning:

Stellungnahme zur Sachverständigen-Anhörung des Ausschusses für Wirtschaft, Energie und Landesplanung am 10. Mai 2021, Gesetzesentwurf der Landesregierung, Drucksachen 17/12976 und 17/12977, Landtag Nordrhein-Westfalen, Düsseldorf

Im Pariser Klimaabkommen von 2015 haben sich die Staaten der Erde darauf geeinigt, alles dafür zu tun, die Klimaerwärmung auf 2°C über dem Mittelwert von 1850-1900 zu begrenzen, und sogar eine Schwelle von 1,5°C nicht zu überschreiten. Auch Nordrhein-Westfalen muss hier seinen Beitrag leisten, was ein effektives Klimaschutzgesetz und gemeinsame Anstrengungen erfordert. Umso wichtiger ist ein robustes fachliches Fundament, auf dem die Klimaschutzmaßnahmen fußen. Leider enthält der Gesetzentwurf KlAnG und die damit verbundene Drucksache 17/12977 klimawissenschaftliche Mängel, die vor einer Verabschiedung des Gesetzes auf jeden Fall behoben werden sollten, um die Grundlage der gesellschaftlichen Bemühungen zu stärken.

Abschnitt „A Problem“ (Seite 1, Drucksache 17/12977)
Im Entwurf heißt es: „Stattdessen besteht die Notwendigkeit, den bereits heute spürbaren Symptomen wie u.a. häufigeren Dürephasen und Hitzewellen oder Extremwetterereigissen wie Starkregen stärker vorzubeugen,…“.
Aus dem Kontext ist zu verstehen, dass es sich hier um das Gebiet Deutschlands handeln muss. Während Hitzwellen in der Tat im Zuge der Klimaerwärmung der letzten 150 Jahre häufiger geworden sind, trift dies nicht auf Dürrephasen, Starkregen oder viele andere Extremwetterereignisse zu. Insofern ist die Aussage im Gesetzesentwurf klimawissenschaftlich nicht korrekt.

Dürrephasen
In Deutschland gibt es keinen statistisch gesicherten Trend in der Häufigkeitsentwicklung von Trockenperioden, stellte das Umweltbundesamt (UBA) in seinem ‚Monitoringbericht 2015 zur Deutschen Anpassungsstrategie an den Klimawandel‘ fest.(Umweltbundesamt, 2015) Allerdings seien ausgeprägte natürliche Schwankungen mit abwechselnden Phasen stärker und geringer ausgeprägter Trockenheit festzustellen (Umweltbundesamt, 2015). In Österreich sind die Sommer in den letzten 55 Jahren etwas feuchter geworden (ZAMG, 2020). Stellt man die Dürregeschichte des Alpenraums der letzten Jahrzehnte in den Kontext der letzten Jahrhunderte, so ist auch hier kein Langzeittrend zu erkennen (Haslinger et al., 2016). Zu den drei trockensten Sommern der letzten 500 Jahre zählen in den Alpen neben 2003 auch die Jahre 1921 und 1540 (Casty et al., 2005).

Zwar gab es zwischen 2013 und 2019 in Deutschland eine Häufung von Dürren. Aus der Sommer-Niederschlags-Statistik des Deutschen Wetterdienstes für die letzten 140 Jahre geht aber auch hervor, dass es bereits in der Vergangenheit immer wieder Serien von Dürresommern gegeben hat, zum Beispiel in den 1920er und 1980er Jahren (Abbildung 1). Langfristig hat sich die Regenmenge im Sommer in Deutschland leicht verringert.

Abb. 1: Sommerniederschläge in NRW während der letzten 140 Jahre. Quelle: DWD.

Eine kürzliche Studie auf Basis von Sauerstoff- und Kohlenstoff-Isotopen in Baumringen glaubte, dass die kürzlichen Dürren bereits den Bereich der natürlichen Schwankungsbreite der letzten 2000 Jahre verlassen hätte (Büntgen et al., 2021). Eine kurz darauf erschienene andere Studie eines breiter aufgestellten Datensatzes konnte dies jedoch nicht bestätigen. In der Studie des Alfred-Wegener-Instituts (AWI) kamen neben Dicke-Messungen von Baumringen auch historische Aufzeichnungen zu Wasserständen in Flüssen sowie meteorologische Messdaten zum Einsatz (Ionita et al., 2021). Laut AWI bewegten sich die Dürresommer der letzten Jahre noch vollständig innerhalb der Grenzen der natürlichen Klima-Variabilität. Ähnlich extreme Dürreperioden gab es mehrfach auch in der vorindustriellen Vergangenheit. Die ausgeprägtesten Dürren in Mitteleuropa ereigneten sich von 1400 bis 1480 sowie 1770 bis 1840 zu Zeiten einer reduzierter Sonnenaktivität.
Auch eine kürziche Studie zur Dürre-Historie Westeuropas für die vergangenen 170 Jahre anhand von Wetter-Stations-Daten konnte keinen statistisch signifikanten Langzeit-Trend bei den Dürren ausmachen, dafür aber starke Schwankungen (Vicente-Serrano et al., 2021).

Starkregen und Überschwemmungen
Seit 1951 hat sich die Häufigkeit von Starkniederschlag in Deutschland von mehr als 30 mm nur geringfügig erhöht (DWD, 2014). Die Veränderung ist aus statistischer Sicht jedoch insignifikant, so dass kein belastbarer Langzeittrend ausgemacht werden kann. Die Zeitreihe moderner Radardaten zum Starkregen ist leider noch zu kurz, um aussagekräftige Trends interpretieren zu können (DWD, 2016). Auch das Umweltbundesamt konnte in seinem Monitoringbericht 2015 zum Klimawandel keine belastbaren Trends zu Starkniederschlägen in Deutschland finden (Umweltbundesamt, 2015). Die Zahl der Tage mit einer Niederschlagssumme von 20 mm und mehr im Sommer ist seit 1951 nahezu unverändert geblieben. Im Winter ist der entsprechende Index (Flächenmittel der maximalen 5-Tagessumme der Niederschläge) zwar leicht angestiegen, wobei der Anstieg aufgrund der starken Variabilität von Jahr zu Jahr statistisch nicht signifikant ist.
Klimarekonstruktionen dokumentieren eine hohe natürliche Variabilität der Hochwasserhäufigkeit in Deutschland während der vergangenen Jahrhunderte. Studien zeigen, dass Hochwasser in Mitteleuropa in den vergangenen 500 Jahren nicht häufiger geworden ist (Der Spiegel, 2013; Schmocker-Fackel and Naef, 2010). Dasselbe gilt auch für Gesamteuropa und die letzten 50 Jahre (Blöschl et al., 2017). Auf der 7. Deutschen Klimatagung im Oktober 2006 stellten Manfred Mudelsee und Gerd Tetzlaff Studienergebnisse vor, die auch für Deutschland keine Zunahme der Hochwasserereignisse sahen (Mudelsee and Tetzlaff, 2006). Weil immer mehr Menschen an die Ufer zogen, stiegen aber die Schäden durch Hochwasser. Zieht man diesen Wertzuwachs-Effekt ab, zeigt sich Berechnungen zufolge keine ungewöhnliche Zunahme in den vergangenen Jahrzehnten (Barredo, 2009; Paprotny et al., 2018; TU Delft, 2018).

Abschnitt „§ 9 Monitoring“ (Seite 8, Drucksache 17/12977)
Ein fortlaufendes wissenschaftliches Monitoring is ausdrücklich zu begrüßen. Dies sollte auf jeden Fall auch die klimawissenschaftlichen Trends beinhalten. Neben einer gewissenhaften Auswertung der Messdaten der letzten 150 Jahren ist auch eine verstärkte Auseinandersetzung mit der vorindustriellen Klimaentwicklung Nordrhein-Westfalens für die vergangenen Jahrtausende notwendig. Denn diese vorindustriellen Klimaschwankungen der letzten zwei bis zehn Millennia bilden den eigentlichen vorindustriellen Kontext der natürlichen Klimaentwicklung, stellen also das natürliche Basisniveau („baseline“) dar, gegen das die heutigen Entwicklungen verglichen werden müssen. Der IPCC ist sich sehr wohl darüber bewusst, dass das derzeit verwendete „vorindustrielle“ Vergleichsniveau 1850-1900 am Ende der Kleinen Eiszeit im Vergleich zur Gesamtheit der letzten Jahrtausende deutlich zu kalt ist (Lüning, 2021; Lüning and Vahrenholt, 2017). In den folgenden zwei Absätzen wird die klimahistorische Entwicklung NRWs und Mitteleuropas kutz zusammengefasst, als das 1,5-Grad-Ziel bereits mehrfach auf natürliche Weise zumindest lokal überschritten wurde.

Temperaturentwicklung der letzten 1000 Jahre
Die Moderne Wärmephase ist nicht die einzige Erwärmungsperiode in der nacheiszeitlichen Klimageschichte. Bereits im Mittelalter vor 1000 Jahren ereignete sich eine Warmphase, die besonders gut aus dem nordatlantischen Raum bekannt ist, aber auch in vielen Regionen der restlichen Welt ausgeprägt war, z.B. in Afrika (Lüning et al., 2017), Antarktis (Lüning et al., 2019b), Südamerika (Lüning et al., 2019a) und Ozeanien (Lüning et al., 2020). So wurde die Mittelalterliche Wärmeperiode (MWP) bzw. Mittelalterliche Klimaanomalie (MCA) auch aus dem NRW-Nachbarland Rheinland-Pfalz (RP) beschrieben. Moschen et al. (2011) rekonstruierten die Temperaturgeschichte anhand von Kohlenstoffisotopen in einem Torfkern aus dem Dürren Maar. Dabei fanden sie eine Erwärmung von mehr als 5°C im Übergang der Kälteperiode der Völkerwanderungszeit (500-700 n. Chr.) zur MWP (Abbildung 2). In diesem Zusammenhang traten offenbar starke Erwärmungsschübe auf, bei denen die Temperaturen auf natürliche Weise innerhalb weniger Jahrzehnte um mehrere Grad nach oben schnellten. Insofern scheint weder das heutige Temperaturniveau, noch die heutige Erwärmungsrate im Raum NRW-RP im historischen Kontext beispiellos zu sein.

Abb. 2: Temperaturentwicklung des Dürren Maar (Eifel) während der letzten 2000 Jahre basierend auf einer Temperaturrekonstruktion anhand von Zellulose-Kohlenstoffisotopen eines Torfkerns. Nullpunkt der Temperatur-Anomalieskala liegt etwas über dem Temperaturdurschnitt der letzten 2000 Jahre (Kleine Eiszeit fehlt). Linke Kurve: Ungeglättete Daten. Rechte Kurve: Gleitender Mittelwert über 60 Jahre. Daten digitalisiert von Moschen et al. (2011).

Temperaturentwicklung der letzten 10.000 Jahre
Erweitert man den Referenzzeitraum auf die letzten 10.000 Jahre, so wird klar, dass es eine ganze Reihe von Warm- und Kältephasen in vorindustrieller Zeit gegeben hat. In der Wissenschaft wird hier von klimatischen Millenniumszyklen gesprochen, da sich die Änderungen im Takt von 1000-2000 Jahren ereigneten. Die Zyklen sind aus allen Erdteilen beschrieben worden (Lüning and Vahrenholt, 2016) und könnten zumindest einen Teil ihres Antrieb aus der schwankenden Sonnenaktivität beziehen (Bond et al., 2001). Andere Forscher nehmen einen klimasysteminternen Puls an.
Eine derartige Millenniumszyklik wurde auch in der sauerländischen Bunkerhöhle von Fohlmeister et al. (2012) nachgewiesen. Rhythmische Änderungen in den Sauerstoffisotopen- in Tropfsteinen zeigen über die vergangenen 11.000 Jahre einen fortlaufenden natürlichen Klimawandel, bei dem das System zwischen warm/feucht und kalt/trocken schwankte (Abb. 3). Der Wechsel zwischen der Kältephase der Völkerwanderungszeit, MWP und Moderner Wärmeperiode ist in der Höhlenrekonstruktion gut erkennbar.

Abb. 3: Natürliche Klimaschwankungen im Sauerland während der vergangenen 11.000 Jahre, rekonstruiert auf Basis von Sauerstoffisotopenschwankungen (δ18O) von Tropfsteinen der Bunkerhöhle. Einheit in Promille der Sauerstoffisotope. CWP=Moderne Wärmeperiode (Current Warm Period), MWP=Mittelalterliche Wärmeperiode, DACP=Kälteperiode der Völkerwanderungszeit (Dark Ages Cold Period), RWP=Römische Wärmeperiode. Alterskala zeigt Jahre vor 1950 (Years BP, before ‚present‘=1950). Daten von Fohlmeister et al. (2012), heruntergeladen von https://www.ncdc.noaa.gov/paleo/study/20589

Eine besonders warme Phase stellte das sogenannte Holozäne Thermische Maximum (HTM) dar, das sich in der Zeit 8000-5500 Jahre vor heute ereignete. Kühl and Moschen (2012) rekonstruierten die Temperaturen dieser Klimaepisode für das Dürre Maar anhand von Pollen. Es zeigte sich, dass die Temperaturen in der Eifel damals um mehr als ein Grad über dem heutigen Wärmeniveau lagen (1990-2017), bzw. fast zwei Grad, wenn man das kühlere Referenzintervall 1961-1990 zum Maßstab nimmt. Die Juli-Temperaturen der Eifel lagen während des HTM bei 18,0-18,5°C, wohingegen an der nächstgelegenen Wetterstation Manderscheid im DWD-Referenzintervall 1961-1990 ein Juli-Durchschnittswert von 16,3°C gemessen wurde (Kühl and Moschen, 2012).
Das Fachgebiet der Paläoklimatologie hat in den letzten 15 Jahren große Fortschritte gemacht, und es wurde in der ganzen Welt eine Vielzahl von neuen lokalen Temperaturrekonstruktionen erstellt. Die regionale und überregionale Synthese dieser Daten hinkt dabei allerdings noch etwas hinterher. So gibt es bis heute noch immer keine robuste globale Temperaturrekonstruktion für die vergangenen 10.000 Jahre, bei der sowohl Land- als auch Meerstemperasturen integriert sind. Die vielzitierte Kurve von Marcott et al. (2013) stützt sich fast ausschließlich auf Meerestemperaturen, deren Temperaturänderung jedoch aufgrund der thermischen Trägheit der Ozeane sehr viel weniger stark ausfällt als an Land. Eine globale Temperaturrekonstruktion für die letzten 2000 Jahre durch das PAGES 2k Consortium (2013) fand, dass es in der Zeit 1-600 n. Chr. offenbar bereits mehrfach mindestens genauso warm gewesen ist wie heute. Allerdings ist auch hier noch mit Änderungen zu rechnen, da die Rekonstruktion stark auf Baumringdaten setzt, die in vielen Fällen aus unveröffentlichten und nichtbegutachteten Quellen stammen. Zudem scheinen in die Mittelwerte auch andere ungeeignete Daten eingearbeitet worden zu sein (Beispiel Afrika: Lüning et al., 2017). Insofern sollte hier zunächst verstärkt auf verlässlichere lokale Temperaturserien wie die Bunkerhöhle und das Dürre Maar gesetzt werden, bis in Zukunft hoffentlich bald verbesserte globale Temperaturkurven verfügbar werden.

Problematische Klimamodelle
Die Klimaprognosen bis zum Jahr 2100 basieren auf theoretischen Klimasimulationen. Für den in Kürze erscheinenden 6. Klimazustandsbereicht (AR6) des IPCC wurden von den führenden Instituten der Welt neue Klimamodelle (CMIP 6) erstellt, die dem CO2 eine noch stärkere Erwärmungsfähigkeit zugemessen haben als zuvor. Allerdings stellte sich schnell heraus, dass der Großteil der CMIP 6-Modelle grundlegende Fehler enthielt, so dass die mit ihnen errechneten Prognosen wohl kaum belastbar sind.
Im Dezember 2019 warnte eine Gruppe um den IPCC-Autor Piers Forster von der University of Leeds explizit, dass die überhöhten Klimasensitivitäts-Werte der neuen Klimamodelle nicht in Einklang mit den Messwerten stehen und sich daher wohl letztendlich als falsch erweisen werden (Forster et al., 2020). Im Laufe des Jahres 2020 erschienen weitere Publikationen, die eine geringere Erwärmungswirkung des CO2 unterstützten (Glassmeier et al., 2021). Im Februar 2021 veröffentlichte eine Forscherguppe der Princeton University und der University of eine weitere Studie, die den überhöhten CO2-Klimasensitivitäten der CMIP6-Modelle eine Absage erteilt (Wang et al., 2021). Der für die zukünftig zu erwartende Erwärmung wichtige Wert der „CO2-Klimasensitivität“ ist noch immer nur sehr ungenau bekannt. Die vom IPCC (AR5) angegebene Spanne reicht von 1,5°C bis 4,5°C Erwärmungswirkung pro CO2-Verdopplung, also eine mit Faktor 3 behaftete Unsicherheit.
Das im Gesetzesentwurf festgeschriebene Klimamonitoring sollte auch die Entwicklungen in diesem Aspekt detailliert verfolgen, da das notwendige Tempo der Dekarbonisierung von einer hoffentlich bald genaueren Einschätzung der CO2-Klimasensitivität beeinflusst wird. Aufgrund der zu erwartenden enormen Kostensteigerungen für Energie, Zement und andere direkt oder indirekt mit der CO2-Besteuerung verbundenen Lebensbereichen, muss die Politik einen gesunden Mittelweg zwischen Klimaschutz, Innovation sowie wirtschaftlicher und sozialer Nachhaltigkeit finden. Subventionen und planwirtschaftliche Elemente sind nur für eine relativ kurze Übergangszeit finanzierbar. Politische Planer sollten den Bürgern die Gesamtkosten des Projekts „Energiewende“ transparent mitteilen und darauf hinweisen, dass Klimaschutz nicht umsonst zu haben ist. Mittlerweile hat Deutschland den höchsten Strompreis der Erde, wobei mit weiteren Preisteigerungen gerechnet wird. Eine Teilfinanzierung der EEG-Umlage aus Steuermitteln belastet letztendlich auch wieder den Stromkunden, diesmal als Steuerzahler. Unter diesem Hintergrund sollte die Geschwindikeit der Dekarbonisierung in der Tat regelmäßig auf die klimatische, wirtschaftliche und soziale Verträglichkeit hin überprüft werden, da ansonsten die Unterstützung des Projekts durch die Öffentlichkeit schnell verloren werden könnte.
Empfehlungen

• Das Thema der vorindustriellen natürlichen Klimavariabilität darf kein Tabu-Thema bleiben. Auch die Klimadiskussion kann aus der Geschichte lernen, muß klimahistorische Fakten anerkennen und einbeziehen.
• Behörden, Politiker und Forscher müssen die enorme natürliche Klimavariabilität der vorindustriellen Zeit aktiv kommunizieren. Die Klimageschichte beginnt nicht erst am Ende der Kleinen Eiszeit um 1880.
• Geignete Maßnahmen sollten ergriffen werden, um die CO2-Klimasensitivität und die damit verbundenen natürlichen und anthropogenen Anteile der Erwärmung der letzten 150 Jahre endlich enger einzugrenzen. Die aktuelle große Spannbreite stellt keine robuste Planungsgrundlage für weitreichende Änderungen der Industriestruktur dar.

Zur Person
Dr. habil. Sebastian Lüning (www.luening.info) studierte Geologie/Paläontologie an der Universität Göttingen. Seine Promotion und Habilitation in diesem Fach erhielt er an der Universität Bremen. Für Vordiplom, Doktorarbeit und Habilitation erhielt Lüning jeweils Studienpreise. Während seiner Postdoc-Zeit arbeitete er zu ökologischen Sauerstoffmangelsituationen in der Erdgeschichte. Seit 2007 ist Lüning hauptberuflich in der Energiebranche tätig, aktuell mit Schwerpunkt im Bereich der Energiewende. Die Teilnahme an dieser Anhörung und die Beschäftigung mit dem Thema Klimawandel erfolgt ausschließlich in privater Funktion, in Fortsetzung seiner langjährigen Vollzeit-Forschertätigkeit. Diese Forschung ist vollständig unabhängig und wurde weder von der Industrie beauftragt noch von ihr gefördert.

Im Jahr 2020 veröffentlichte Lüning zusammen mit Fritz Vahrenholt das Buch „Unerwünschte Wahrheiten – Was Sie über den Klimawandel wissen sollten“. Sebastian Lüning ist mit dem Institut für Hydrographie, Geoökologie und Klimawissenschaften (IFHGK) in der Schweiz assoziiert und wirkte als offizieller Gutachter an den IPCC-Sonderichten zum 1,5 Grad-Ziel und zu Ozeanen/Kryosphäre mit. Zudem war Lüning auch als Gutachter am 6. Klimazustandsbericht des IPCC beteiligt.

Literatur
Barredo, J. I., 2009, Normalised flood losses in Europe: 1970–2006: Nat. Hazards Earth Syst. Sci., v. 9, no. 1, p. 97-104.
Blöschl, G., Hall, J., Parajka, J., Perdigão, R. A. P., Merz, B., Arheimer, B., Aronica, G. T., Bilibashi, A., Bonacci, O., Borga, M., Čanjevac, I., Castellarin, A., Chirico, G. B., Claps, P., Fiala, K., Frolova, N., Gorbachova, L., Gül, A., Hannaford, J., Harrigan, S., Kireeva, M., Kiss, A., Kjeldsen, T. R., Kohnová, S., Koskela, J. J., Ledvinka, O., Macdonald, N., Mavrova-Guirguinova, M., Mediero, L., Merz, R., Molnar, P., Montanari, A., Murphy, C., Osuch, M., Ovcharuk, V., Radevski, I., Rogger, M., Salinas, J. L., Sauquet, E., Šraj, M., Szolgay, J., Viglione, A., Volpi, E., Wilson, D., Zaimi, K., and Živković, N., 2017, Changing climate shifts timing of European floods: Science, v. 357, no. 6351, p. 588-590.
Bond, G., Kromer, B., Beer, J., Muscheler, R., Evans, M. N., Showers, W., Hoffmann, S., Lotti-Bond, R., Hajdas, I., and Bonani, G., 2001, Persistent Solar Influence on North Atlantic Climate During the Holocene: Science, v. 294, p. 2130-2136.
Büntgen, U., Urban, O., Krusic, P. J., Rybníček, M., Kolář, T., Kyncl, T., Ač, A., Koňasová, E., Čáslavský, J., Esper, J., Wagner, S., Saurer, M., Tegel, W., Dobrovolný, P., Cherubini, P., Reinig, F., and Trnka, M., 2021, Recent European drought extremes beyond Common Era background variability: Nature Geoscience, v. 14, no. 4, p. 190-196.
Casty, C., Wanner, H., Luterbacher, J., Esper, J., and Böhm, R., 2005, Temperature and precipitation variability in the European Alps since 1500: International Journal of Climatology, v. 25, no. 14, p. 1855-1880.
Der Spiegel, 2013, Zehn Fakten zur Flut: 6.6.2013, https://www.spiegel.de/wissenschaft/natur/hochwasser-fakten-zur-flut-an-fluessen-elbe-rhein-donau-a-904232.html.
DWD, 2014, Deutscher Wetterdienst zum neuen Bericht des Weltklimarats (IPCC): Auch Deutschland benötigt Empfehlungen zur Anpassung an den Klimawandel: https://www.dwd.de/DE/klimaumwelt/klimawandel/_functions/aktuellemeldungen/140331_ipcc_bericht.html.
-, 2016, Starkregenrisiko in Städten kann jetzt besser eingeschätzt werden: https://www.dwd.de/DE/klimaumwelt/klimawandel/_functions/aktuellemeldungen/160308_dwd_klima_pk.html.
Fohlmeister, J., Schröder-Ritzrau, A., Scholz, D., Spötl, C., Riechelmann, D. F. C., Mudelsee, M., Wackerbarth, A., Gerdes, A., Riechelmann, S., Immenhauser, A., Richter, D. K., and Mangini, A., 2012, Bunker Cave stalagmites: an archive for central European Holocene climate variability: Climate of the Past, v. 8, p. 1751-1764.
Forster, P. M., Maycock, A. C., McKenna, C. M., and Smith, C. J., 2020, Latest climate models confirm need for urgent mitigation: Nature Climate Change, v. 10, p. 7-10.
Glassmeier, F., Hoffmann, F., Johnson, J. S., Yamaguchi, T., Carslaw, K. S., and Feingold, G., 2021, Aerosol-cloud-climate cooling overestimated by ship-track data: Science, v. 371, no. 6528, p. 485-489.
Haslinger, K., Schöner, W., and Anders, I., 2016, Future drought probabilities in the Greater Alpine Region based on COSMO-CLM experiments – spatial patterns and driving forces: Meteorologische Zeitschrift, v. 25, no. 2, p. 137-148.
Ionita, M., Dima, M., Nagavciuc, V., Scholz, P., and Lohmann, G., 2021, Past megadroughts in central Europe were longer, more severe and less warm than modern droughts: Communications Earth & Environment, v. 2, no. 1, p. 61.
Kühl, N., and Moschen, R., 2012, A combined pollen and δ18OSphagnum record of mid-Holocene climate variability from Dürres Maar (Eifel, Germany): The Holocene, v. 22, no. 10, p. 1075-1085.
Lüning, S., 2021, IPCC SROCC Bericht: Was ist aus meinen Gutachterkommentaren geworden?, https://www.youtube.com/watch?v=NhgeeqJ8KrE&t=304s: Klimaschau 23.
Lüning, S., Gałka, M., Bamonte, F. P., Rodríguez, F. G., and Vahrenholt, F., 2019a, The Medieval Climate Anomaly in South America: Quaternary International, v. 508, p. 70-87.
Lüning, S., Gałka, M., García-Rodríguez, F., and Vahrenholt, F., 2020, The Medieval Climate Anomaly in Oceania: Environmental Reviews, v. 28, no. 1, p. 45-54.
Lüning, S., Gałka, M., and Vahrenholt, F., 2017, Warming and Cooling: The Medieval Climate Anomaly in Africa and Arabia: Paleoceanography, v. 32, no. 11, p. 1219-1235.
-, 2019b, The Medieval Climate Anomaly in Antarctica: Palaeogeography, Palaeoclimatology, Palaeoecology, v. 532, p. 109251.
Lüning, S., and Vahrenholt, F., 2016, The Sun’s Role in Climate, Chapter 16 in „Evidence-Based Climate Science“ (Second Edition), Elsevier, p. 283-305.
Lüning, S., and Vahrenholt, F., 2017, Paleoclimatological Context and Reference Level of the 2°C and 1.5°C Paris Agreement Long-Term Temperature Limits: Frontiers in Earth Science, v. 5, no. 104.
Marcott, S. A., Shakun, J. D., Clark, P. U., and Mix, A. C., 2013, A Reconstruction of Regional and Global Temperature for the Past 11,300 Years: Science, v. 339, no. 6124, p. 1198-1201.
Moschen, R., Kühl, N., Peters, S., Vos, H., and Lücke, A., 2011, Temperature variability at Dürres Maar, Germany during the Migration Period and at High Medieval Times, inferred from stable carbon isotopes of Sphagnum cellulose: Clim. Past, v. 7, p. 1011-1026.
Mudelsee, M., and Tetzlaff, G., 2006, Hochwasser und Niederschlag in Deutschland: Die Notwendigkeit von Langfristbeobachtungen unter räumlicher Hochauflösung: 6. Deutsche Klimatagung, München, https://www.manfredmudelsee.com/publ/abstr-pdf/Hochwasser-Niederschlag-Deutschland-Mudelsee-Tetzlaff-2006-7DKT.pdf.
PAGES 2k Consortium, 2013, Continental-scale temperature variability during the past two millennia: Nature Geosci, v. 6, no. 5, p. 339-346.
Paprotny, D., Sebastian, A., Morales-Nápoles, O., and Jonkman, S. N., 2018, Trends in flood losses in Europe over the past 150 years: Nature Communications, v. 9, no. 1, p. 1985.
Schmocker-Fackel, P., and Naef, F., 2010, Changes in flood frequencies in Switzerland since 1500: Hydrol. Earth Syst. Sci., v. 14, no. 8, p. 1581-1594.
TU Delft, 2018, No increase in losses in Europe from floods in the past 150 years: 31.5.2018, https://www.tudelft.nl/en/2018/tu-delft/no-increase-in-losses-in-europe-from-floods-in-the-past-150-years/.
Umweltbundesamt, 2015, Monitoringbericht 2015 zur Deutschen Anpassungsstrategie an den Klimawandel, Dessau-Roßlau.
Vicente-Serrano, S. M., Domínguez-Castro, F., Murphy, C., Hannaford, J., Reig, F., Peña-Angulo, D., Tramblay, Y., Trigo, R. M., Mac Donald, N., Luna, M. Y., Mc Carthy, M., Van der Schrier, G., Turco, M., Camuffo, D., Noguera, I., García-Herrera, R.,
Becherini, F., Della Valle, A., Tomas-Burguera, M., and El Kenawy, A., 2021, Long-term variability and trends in meteorological droughts in Western Europe (1851–2018): International Journal of Climatology, v. 41, no. S1, p. E690-E717.
Wang, C., Soden, B. J., Yang, W., and Vecchi, G. A., 2021, Compensation Between Cloud Feedback and Aerosol-Cloud Interaction in CMIP6 Models: Geophysical Research Letters, v. 48, no. 4, p. e2020GL091024.
ZAMG, 2020, Klimamonitoring: https://www.zamg.ac.at/cms/de/klima/klima-aktuell/klimamonitoring/.




Kritische Betrachtung der Gegen­strahlung, ihre Messung und ihre Bedeutung in der Treibhaus­hypothese der aktuellen Klima­wissenschaft

Die Modellierung von Kiehl und Trenberth 1997 wirft aber auch zahlreiche Fragen auf. Es gibt doch deutliche Abweichungen zwischen den Satelliten Messwerten und dem vom Modell KT97 errechneten Werten. Diesen versuchten Trenberth, Fasullo und Kiehl 2009 1 entgegenzutreten. Hierbei wurde 2009 gleichzeitig der hypothetische Rechenwert der Gegenstrahlung auf 333 W/m² angehoben. Letzte Zweifel an ihrem Satellitenabgleich blieben wohl aber auch 2012 für Norman Loeb (NASA) bei seinem weltweiten Vergleich von 14 Instituten eingesetzten 22 CMIP5-/IPCC AR5 Klimamodellen bestehen. Norman Loeb schrieb: „In the present study, we do not only rely on satellite observations, but make extensive use of the information contained in radiation measurements taken from the Earth surface, to provide direct observational constraints also for the surface fluxes.” 2 Es wurde mit Pyranometer und Pyrheliometer gemessen. “…and the diffuse shortwave flux (measured with a shaded pyranometer). A pyranometer measures the total incoming solar radiation in the wavelengths between 0.3 and 2.8 µm. Datasets from both measurement methods are used in this study.” Die Gegenstrahlung der neuen CMIP5-Modellgeneration beträgt 2012 342 W/m² 4 im Gegensatz zu 324 W/m² bei KT97.

Es ist deshalb erforderlich, die Technik der Messung der Gegenstrahlung dieser Geräte genauer zu betrachten. Der nun folgende Teil entstammt Kapitel 4.24 „Die Strahlungsmessung der Gegenstrahlung“ aus, Agerius, 2021, Kritischer Analyse zur globalen Klimatheorie – Erweiterung, Vertiefung, Prognose, 2. überarbeitete Auflage, Hamburg, ISBN 978-3-347-24749-9. 16

Bevor man diese Messgeräte genauer betrachtet, die die Gegenstrahlung aus einem Algorithmus errechnen, müssen die Wellenlängen des Sonnenlichts, ihre Strahlenflussdichte und ihr Anteil an der Gesamtstrahlung hierzu betrachtet werden. Sie fließen in den Algorithmus ein.

Für einen mittleren Erdabstand von 1496 106 m und einer Solarkonstante von 1367 W/m² gilt:

Tabelle 6 Spektralverteilung der extraterrestrischen solaren Strahlung, gemäß der World Meteorological Organisation, WMO, 1986 3

Die Gegenstrahlung (Back Radiation) wird auch gelegentlich auch als thermische Wärmestrahlung bezeichnet. Sie wäre bezüglich ihrer Wellenlänge langwellig. Verschiedene Messinstrumente zur Messung von lang- und kurzwelliger Strahlung wie Pyranometer (Messung der kurzwelligen Strahlung von Sonne, Himmel und der vom Erdboden reflektierten Strahlung), Infrarot-Pyranometer (Messung von langwelliger Strahlung), Pyrheliometer, Pyrradiometer und Pyrgeometer4 wurden entwickelt. Ihre Bezeichnungen lehnen sich an den Göttinger Katalog didaktischer Modelle an.5 Diese Messinstrumente arbeiten mit folgenden physikalischen Grundlagen.

Tabelle 7 Strahlungsgrößen S0, S, H, R, G, Q und A in W/m² und weitere Parameter

Die solare Einstrahlung, Total Solar Irradiance (TSI) beträgt 1367 W/m². Die kurzwellige Strahlung der Sonne unterteilt sich in a) aus einem Anteil Sonnenstrahlung S = So sin φsonne mit φsonne, dem Winkel der Sonnenhöhe in Abhängigkeit vom Breitengrad, b) diffuse Himmelsstrahlung H aus der Streuung durch die Moleküle der Atmosphäre und c) kurzwellige Reflexstrahlung der Erdoberfläche Rkw. Hierbei ist εkw der mittlere Absorptionskoeffizient im kurzwelligen Bereich des Spektrums und a = (1-εkw) der hierzu gehörige Albedowert. S und H entstehen gemeinsam aus der Globalstrahlung G und mit Qkw, die den Saldo der kurzwelligen Strahlungsbilanz erfasst. Im Ausdruck G ist φsonne bereits berücksichtigt.

Nach KT97 im Mittel mit einer durchschnittlichen Global Mean Albedo ist a = 0.3129 und hierbei entsprechen die Pfeile analog der Richtung der Strahlung. Als Gleichgewicht an der obersten Atmosphärenschicht ergibt sich:

Übertragen für den Algorithmus der Messgeräte zur Gegenstrahlung A, aber als Gleichgewicht im Bereich des Aufstellungsortes des Messgerätes in Bodennähe: Hierbei befindet sich der Messkopf () des Messgerätes in der unteren Darstellung links in ca. 2m über der Wiese. G spezifiziert sich durch den betrachteten Wellenlängenbereich:

Darstellung 2: Algorithmus zur Ein- Ausstrahlung nach dem Göttinger Modell.

Die langwellige Strahlung „…ist vor allem eine terrestrische Strahlung, die von Emittern mit Temperaturen von unter 300K ausgeht. Es wird unterschieden zwischen: der Gegenstrahlung A […] der Ausstrahlung des Erdbodens E =εlw σTB4 …“ 6 7 Bei nichtmetallischen Leitern wird εlw zu 1. E und entspricht dann dem Begriff der Surface Radiation von KT97. Qlw ist der Saldo der langwelligen Strahlungsbilanz.

Qlw = A – σTB4 = A – E – Rlw

Qlw findet in der langwelligen Strahlung seine Analogie in der rechten Bildhälfte von FIG 7, KT97

Rlw = (1-εlw)

Rlw = 0 mit εlw = 1

„Als Strahlungsbilanz Q bezeichnet man die Summe von Qkw + Qlw.

Q = Qkw + Qlw = S + H – RkwBoden + A – E – Rlw = …8

Damit würde sich die Gegenstrahlung A ermitteln zu: A = Q + RkwBoden – G + E (d)

Beispiel 1:

Als Durchschnittswert für den Globus für den kurzwelligen Bereich nach Tabelle 6:

UV + sichtbares Licht errechnen sich zu 107.9 W/m² + 610.9 W/m² = 718.8W/m² = 719 W/m²

Man könnte danach als Messung der kurzwelligen Strahlung einen Wert von ca. 719 W/m² annehmen.

Der Albedogesamtwert sei a = 0,3129, nach KT97. Das Messergebnis für die AlbedoBoden sei für dieses Beispiel 0.135, siehe CLEAR SKY ALBEDO von ERBS als durchschnittlicher gemessener globaler Wert. T sei 14,80 °C und damit E = 390 W/m². Mit Rundung auf 0.5W/m² folgt:

G = S + H =

Rkw = AlbedoBoden (S +H) = 0.135 x 123.5W/m² = 17 W/m²

Qkw = S + H – Rkw = 123.5 W/m² – 17 W/m² = 106.5 W/m²

Qlw = A – σTB4 = A – E = 324W/m² – 390 W/m² = – 66W/m², A und E nach KT97 FiG. 7. rechte Bildhälfte

Q = Qkw + Qlw = 106.5W/m² – 66W/m² = 40.5 W/m²

A = Q + Rkw – G + E = 40.5 W/m² + 17 W/m² – 123.5W/m² + 390 W/m² = 324 W/m² = Gegenstrahlung

Beispiel 2:

Mit einem Messgerät waren auf einer Hamburger Wiese (54 Grad nördlicher Breite) nach Versuch 4, gemäß Göttinger Katalog didaktischer Modelle 9 nachfolgende Werte in W/m² ermittelt worden.

Global Strahlung S+H 104

Reflexstrahlung (Wiese) Rkw 20

kurzwellige Bilanz Qkw 84

atmosph. Gegenstrahlung A 320

langw. Emission E 357

langwellige Strahlungsbilanz Qlw -37

Gesamte Strahlungsbilanz Q 47

Temperatur T 8.50 °C

In Versuch 4 gemäß Göttinger Katalog ist für derartige Messgeräte ebenfalls ein üblicher Wertebereich für die kurzwellige Strahlung: 0.25 bis 3 µm angegeben. Da ein derartiges Gerät auch über 0.75µm misst, siehe Tabelle 6, reicht der Messbereich auch tief in den langwelligen infraroten Bereich hinein.

Betrachtet man den Albedoverlauf von 1985 -1990 an Satellitenbildern von ERBS (CEDA) über die geografische Breite, stellt man fest: Am Äquator hat die durchschnittliche Jahresalbedo, gemittelt über 12 Monate, ein Minimum (Wasser a = ca. 0.18 Land a = ca. 0.30). Zu den Wendekreisen steigt die Albedo aber deutlich an. Bei 54 Grad nördlicher und südlicher Breite erreicht die durchschnittliche Jahres Albedo einen Wert von ca. a = 0.40. Eine gemessene langwellige Emission von 357W/m² entspricht einer Temperatur von 8.50 °C (Hamburg). Dies ist auch die Jahres Durchschnittstemperatur für Hamburg aus 12 Monaten Tag- und Nachtmessung. Das Messgerät wurde gemäß Versuchsanordnung nicht auf eine Schneefläche im Winter, sondern auf einer Wiese vermutlich im Frühling, Sommer oder Herbst aufgestellt. Dies lässt bei einer Temperatur für 8.50 °C (Frühling, Sommer oder Herbst) vermuten, dass bei der Messung der Himmel bewölkt war. Die Durchschnittsalbedo (gemittelt aus sonnig und bewölkt gemittelt) müsste für eine vermutete reine Bewölkung einen etwas höheren Wert aufweisen. Ein entsprechender Albedowert für die Berücksichtigung sei nun a = 0.43.

AlbedoBoden = Rkw / (S +H) = 20 / 104 = 0.1923

RkwBoden = Albedo (S +H) = 0.1923 x 104W/m² = 20 W/m²

Qkw = S + H – RkwBoden = 104 W/m² – 20 W/m² = 84 W/m²

Qlw = A – σTB4 = A – E = 320W/m² – 357 W/m² = – 37W/m²

Q = Qkw + Qlw = 84W/m² – 37W/m² = 47 W/m²

A = Q + RkwBoden – G + E = 47 W/m² + 20W/m² – 104W/m² + 357 W/m² = 320 W/m²

Betrachtet man (d) zur Ermittlung der Gegenstrahlung, dann fällt aber auf:

Die Variablen S, H, der Ausdruck RkwBoden der Bodenalbedo und Variable E der Strahlung aus der Boden Temperatur kürzen sich weg. Die Gegenstrahlung A ist somit unabhängig von der kurzwelligen Strahlung und deren Variablen. Die Gleichung (d) ist bezüglich A beliebig. Aber A ist selbst beliebig, da A, die Gegenstrahlung, aus einer Null bei KT97 und Barkstorm entstanden war (Nachweis siehe Kap 4.10 Mathematischer Effekt in 16). Dadurch ist es möglich das Messergebnis der kurzwelligen Messung aus 1367W/m² beliebig zu multiplizieren z.B. 0.25 = ¼. Um in Beispiel 2 (Versuch 4 des Göttinger Katalogs) als Summe von Sonnenstrahlung S und diffuser Strahlung H mit 104W/m² erhalten zu können, ist vorab bereits der Treibhauseffekt durch den ¼ Strahlungsverteilungsansatz im Messgerät hinterlegt. Derartige Geräte messen aber auch den langwelligen Strahlungsbereich. Diese Messgeräte weisen die Gegenstrahlung, zuweilen auch als thermische atmosphärische Strahlung bezeichnet, dann langwellig aus.

Hierzu findet sich in der nachfolgende Herstellerangabe eines anderen Pyranometers, wörtlich: „Das CM22 Pyranometer ist mit einem Thermosensor ausgestattet. Dieser spricht auf die insgesamt aufgenommene Energie an und ist theoretisch nichtselektiv gegenüber der spektralen Verteilung der Strahlung. Dies hat zur Folge, dass der Sensor auch gegenüber langwelliger Infrarotstrahlung (Wärmestrahlung > 4000 nm) aus der Umgebung (z.B. des inneren Doms) empfindlich ist.“ 11 [Hervorhebungen hinzugefügt] Derartige Geräte unterliegen einer Normung und sind daher in sich ähnlich gebaut und vergleichbar.

Über 4000 nm bzw. 4µm würde der Präzision Pyranometer CM22 theoretisch nicht, eventuell praktisch schon selektiv, nicht nur Bereiche der von der Sonne eintreffenden Langwellen messen, sondern auch die Bereiche der Umgebungstemperatur. Wenn am Tag Teile der „langwelligen Infrarotstrahlung“ in die Messung eingehen ist dies bei einer nächtlichen Messung konsequenter Weise ebenfalls der Fall.

Welche Konsequenz hat dies im Beispiel 1?

Was wird vermutlich ein solches Gerät als Gegenstrahlung messen?

Aus 1367W/m² verbleiben für den langwelligen Anteil: 1367W/m² – 719 W/m² = 648W/m²

Gegenstrahlung A = 648 W/m² – E + Qlw = 648 W/m² – 390 W/m² + 66 W/m² = 324 W/m²

Damit entspricht der gemessene langwellige Teil genau der Gegenstrahlung!

Welche Konsequenz hat dies im Beispiel 2?

Aus 1367W/m² verbleiben für den langwelligen Anteil: 1367W/m² – 727 W/m² = 640W/m²

Was wird vermutlich das Gerät als Gegenstrahlung messen?

Gegenstrahlung A = 640 W/m² – E + Qlw = 640 W/m² – 357 W/m² + 37 W/m² = 320 W/m²

Auch hier entspreche der gemessene langwellige Teil genau der vom Messgerät ausgewiesenen Gegenstrahlung!

Woraus entsteht die langwellige Strahlung 390 W/m² in Beispiel 2?

Das Hamburger Messgerät der Gegenstrahlung aus dem in situ Versuch misst den kurzwelligen Anteil (0.25 bis 3µm) der Strahlungsflussdichte in W/m² der einfallenden Sonnenstrahlung. Welcher Teil aus dem gesamten einfallenden Sonnenspektrum verbleibt? Es ist der langwellige Bereich von 760nm – 106 nm. Er weist nach Tabelle 6 eine Strahlungsflussdichte von 648.2 W/m² auf.

In Beispiel 2 wird auch ein messbarer, langwelliger Anteil des Gerätes von (3µm bis 100µm) 12 ausgewiesen. Dieser Bereich von 3000nm – 105 nm des zum Himmel gerichteten Messgerätes erfasst aus vorhanden Spektrum von 760nm – 106 nm nur einen Teilbereich der von der Sonne eintreffenden Langwellen, bei 320 bis 324 W/m² (Gegenstrahlungsmesswerte) etwa die Hälfte der vorhandenen Strahlungsflussdichte von 648.2 W/m² Langwelle.

Hieraus folgt:

  1. Wenn der Treibhauseffekt, der durch eine angebliche, hypothetische Gegenstrahlung entsteht, bereits im Messgerät hinterlegt ist, dann kann mit diesem Messgerät der Treibhauseffekt nicht bewiesen werden. (Zirkelschluss)

  2. Die Analyse der Grundlagen der Strahlungsmessgrößen in Verbindung mit dem Treibhauseffekt von 33K, nach der Studie KT97, in Verbindung mit einer Auswertung eines in situ Versuches in Anhang 4 von 16 lassen den folgenden Schluss zu: Ein großer langwelliger Bereich der auf der Erde eintreffenden Sonnenstrahlen wird stattdessen als langwellige Gegenstrahlung im Messgerät als Gegenstrahlung ausgewiesen.

  3. Die gemessene Gegenstrahlung stammt bei Messungen am Tag offensichtlich zu 100% direkt aus der Sonne, von ihrem langwelligen Anteil mit 648.2 W/m² (Tabelle 6, WMO 1986). Bei einer nächtlichen Messung ist anzunehmen, dass Teile der Umgebungstemperatur als Gegenstrahlung mit ausgewiesen werden.

Nach Rödel 13 kämen „ungefähr 60% bis 65% der am Boden empfangenen Gegenstrahlung aus der Schicht zwischen dem Boden und etwa 100m Höhe, d.h. aus einer Schicht, die kaum kälter als die Erdoberfläche selbst ist.“ Der Temperaturabfall nach der Internationalen Höhenformel beträgt 0.65 °C auf 100m Höhe. Auch diese Aussage macht die Ausweisung von Teilen der Umgebungstemperatur als Gegenstrahlung nachvollziehbar.

Ergebnis zur Messung der Gegenstrahlung:

Für den kurzwelligen Bereich ist im Algorithmus derartiger Messgeräte der Treibhauseffekt von KT97 über die ¼ Strahlungsverteilung hinterlegt. Wenn man die langwellige Umgebungstemperatur des Messgerätes gemeinsam mit erheblichen Teilen der langwelligen Sonnenstrahlung, ab 3µm oder 4µm, herstellerabhängig, als Gegenstrahlung bezeichnet und dann als solche ausweist, stammt die Back Radiation final direkt aus der Sonne und der Wärme des Messgerätes und nicht aus IR-aktiven, infrarot absorbierenden und emittierenden Molekülen, wie CO2, H2O, CH4,.. . Sogenannte Messgeräte zur Gegenstrahlung sind deshalb nicht in der Lage, diese zu beweisen.

Ergänzung:

Auch über verschiedene Integrationen (Polarkoordinaten / kartesische Koordinaten) kann nachgewiesen werden, dass die Gegenstrahlung des Treibhauseffektes auf einer falschen Strahlungsverteilung bereits bei B. Barkstorm beruht, Nachweise siehe Kapitel 5.1.2, 5.18 sowie Anhängen 1 bis 3 in 16. Bezüglich Net-Strahlung des ERBS Satelliten und ihre Berücksichtigung in der Modellierung, ihre Bedeutung und Interpretation wird in diesem Zusammenhang auf Kapitel 5.4.2 – 5.4.5 und Anhang 6-8 in 16 ausführlich eingegangen. In Kapitel 5 wurde ein neues Modell entwickelt und der Modellierung von KT97 entgegengestellt. KT97 wird als falsche Modellierungshypothese widerlegt. Der Autor folgt einem Wissenschaftsverständnis nach Karl Popper, siehe Kap. 1.14 16. Es sei erwähnt: Die Satelliten ERBS, TERRA und AQUA zeigen so im neuen Strahlungsmodell und mit einer neu abgeleiteten Atmosphärengleichung H = S0/2 (1-α) – LH – SH – Satm – σTe4 = 0, es gibt keine Strahlungsbehinderung durch eine Gegenstrahlung A, sichtbar in FIG. 8a und FIG. 8b ebenfalls in Verbindung mit Kap. 5.18 16. Auch unter geologischen Gesichtspunkten (snowball earth hypothesis) ist ein Treibhauseffekt nicht erfoderlich, Nachweis siehe Kapitel 9.7 und seinen Unterkapiteln in 16. Mit dieser neuen Atmosphärengleichung ergibt sich ein Strahlungsverteilungsfaktor von ½. Nach diesem kurzen Exkurs erfolgt die Rückkehr zum Göttinger Modell der Gegenstrahlungsmessung.

Angewendet auf Beispiel 2 ergeben sich folgende Rechenwerte:

Rkw = Albedo (S +H) = 0.1923 x 208W/m² = 40 W/m²

Qkw = S + H – Rkw = 208 W/m² – 40 W/m² = 168 W/m²

Qlw = A – σTB4 = A – E = 0W/m² – 390 W/m² = – 390W/m²

Q = Qkw + Qlw = 168W/m² – 390W/m² = -222 W/m²

A = Q + Rkw – G + E = -222 W/m² + 40 W/m² – 208 W/m² + 390 W/m² = 0 W/m²

Würde man in derartigen Messgeräten der Gegenstrahlung den internen Algorithmus, also die hinterlegten physikalischen Gleichungen, auf der nach dem Autor richtigeren Strahlungsverteilungsfaktor ½ abändern, würde das Messgerät auch einen Gegenstrahlungswert von 0 ausweisen. Es kann gezeigt werden, dass die Divergenzen im Modell von J. Kiehl und K.E. Trenberth 1997 und J. Kiehl, J. T. Fasullo, K.E. Trenberth 2009 und den Satellitenmesswerten mit einer anderen Modellierung auf kleiner gleich 2 W/m² verschwinden, siehe Kapitel 5.1.2 folgende Kapitel 5.17 und Anhang 7 und 8 16.

Zusammenfassung:

Die Gegenstrahlung ist eine reine Modellhypothese aber Basis der aktuellen IPCC-Klimamodelle. Sie kann nicht gemessen werden, da der Treibhauseffekt durch den zugrunde gelegten Algorithmus bereits voreingestellt ist. Dies ist ein klassischer Zirkelschluss, oder anders formuliert, die Aussage ist bereits selbst Voraussetzung des Nachweises. Die Falsifizierung von KT 97 in 14 widerlegt den Treibhauseffekt und ihre Gegenstrahlungshypothese – von etwa 300 W/m² und höher – mit mathematischen, physikalischen / thermodynamischen Nachweisen und mit einem CO2– Experiment unter Sonnenlicht.

1J. Kiehl, J. T. Fasullo, K.E. Trenberth, 2009, Earth´s Global Energy Budget, Bulletin of the American Meteorological Society, March 2009, S.311-316f und Doi:10.1175/2008BAMS2634.I.

2Loeb, Dutton, Wild et altera, 2012, The global energy balance from a surface perspective, published online 13 November 2012, Clim Dyn (2013) 40:3107-3134, Springer-Verlag, Doi: 10.1007/s00382-012-1569-8.

3Prof. Möllner, Detlev, (2003), Luft, Chemie Physik Biologie Reinhaltung Recht, Walter de Gruyter, New York, ISBN 3-11-016431-0, Tab 2.3, S.126.

4Nach Wikipedia: „Ein Pyrgeometer […] dient der Messung der aus dem Halbraum eintreffenden atmosphärischen Gegenstrahlung, …“ https:/de.m.wikipedia.org/wiki/Pyrgeometer Stand vom 11.07.2020.

6http://wwwuser.gwdg.de>konzept/strahlungsmessung Versuch 4, S1.

7Der Spektralchemiker, Dr. Heinz Hug vertritt hierzu den Standpunkt: „Ob man vom Stefan-Boltzmann ausgehen darf, darüber lässt sich streiten, denn Stefan-Boltzmann setzt Homogenität voraus. Eine Wasseroberfläche hat eine andere Stefan-Boltzmann-Emission als ein Wald, Steppe, Wüste, …“ Quelle aus persönlicher Korrespondenz mit Dr. Hug vom 10 Juli 2020.

8http://wwwuser.gwdg.de>konzept/strahlungsmessung Versuch 4, S2.

9http://wwwuser.gwdg.de>konzept/strahlungsmessung Versuch 4, S1.-S.8.

11Kipp & Zonen B.V. Delft, Niederlande, Bedienungsanleitung Precision Pyranometer CM 22, Version 0803 (2003), S.1bis S. 64, Kap 1.2 Physikalische Grundlagen des Pyranometers, S.8.

12http://wwwuser.gwdg.de>konzept/strahlungsmessung Versuch 4, S1.

13Prof. W. Roedel, Prof. Th. Wagner, 2011, Physik unserer Umwelt: Die Atmosphäre, 4 Auflage, 1. korrigierter Nachdruck, Springer Verlag, ISBN 978-3-642-15728-8, Kapitel 1 Strahlung und Energie in dem System Atmosphäre/ Erdoberfläche, S.48.

14

 




Karlsruher Klimaurteil: Ohne Schlüssel Im Panikroom!

Im Inneren verbergen sich Räume für sogenannte Adventuregames. Und die funktionieren so: Eine Gruppe von (meist jüngeren) Leuten wird in einem Raum eingeschlossen und muss anhand versteckter, in allerlei Rätsel verpackter Hinweise versuchen, wieder herauszukommen. Dabei wird die Gruppe von einem Spielleiter mittels einer Kamera beobachtet. Wenn etwas schief läuft oder die Gruppe nicht weiterkommt, greift der Spielleiter ein. Solche Spiele dienen häufig dem, neudeutsch, Teambuilding und werden von manchen Firmen als, neudeutsch, Incentives, sprich Ansporn, für ihre Mitarbeiter gebucht. Oder auch mal von einer Geburtstagsgesellschaft.

Solch ein Escape-Game hat nun das Bundesverfassungsgericht für die deutsche Bevölkerung ersonnen. Mit seinem jüngsten Urteil zum Klimaschutz, einem schon heute historischen Rechtsakt, haben die Richter des Ersten Senats unter Verfassungsgerichtspräsident Stephan Harbarth, einem langjährigen, treuen Gefolgsmann der Klimakanzlerin, alle Bürgerinnen und Bürger des Landes in einen Panic-Room eingesperrt, aus dem es kein Entrinnen mehr gibt. Denn den Schlüssel, wie man aus diesem Raum entkommen könnte, hat das Gericht weggeworfen. Und von außen ist keine Hilfe zu erwarten, denn der Europäische Gerichtshof, die einzige in Frage kommende Instanz, dürfte den Kollegen aus Karlsruhe kaum in die Parade fahren, selbst wenn es denn angerufen würde, von wem auch immer.

Der Beschluss, mit dem die Verfassungsrichter der von Klimaforschern, Umwelt-NGOs und FFF-Aktivisten entfachten Klimahysterie den Stempel höchstrichterlicher Wahrheit und Weisheit aufgedrückt haben, ist nicht nur in den Mainstreammedien gefeiert worden, sondern auch von der Politik. Markus Söder hat bereits angekündigt, aufgrund des Urteils die „Klimaziele“ in seinem Bayernland deutlich zu verschärfen. Und die Bundesregierung, die in dem betreffenden Verfahren zwar nicht rechtlich, wohl aber der Sache nach die Rolle der Beklagten zukam, freute sich in Gestalt von Wirtschaftsminister Peter Altmaier und Umweltministerin Svenja Schulze ebenfalls prächtig über die grüne Klatsche aus Karlsruhe.

„Spiel über Bande“

Das abgekartete Spiel läuft prächtig: Regierungen und Parlamente verabschieden Gesetze und Verordnungen, die, wie es in einer Demokratie üblich ist, einen Kompromiss darstellen. Sie werden dann von demokratisch nicht oder nur schwach legitimierten NGOs, die zum Teil sogar von der Regierung mitfinanziert werden, als zu lasch entlarvt und und via Klage von willigen Richtern verworfen, um dann ihre endgültige, weitaus schärfere Gestalt zu erhalten mit Zielen, die auf demokratisch-parlamentarischem Weg nicht zu erreichen waren. Politisch sind Regierende und Parteien bei diesem „Spiel über Bande“ aus dem Schneider, weil sie sich immer darauf berufen können, ja nur juristischem Ratschluss gefolgt zu sein. Ähnlich funktionierte lange auch der Trick, sich hinter Gutachten von „namhaften“ Unternehmensberatungen zu verschanzen. Doch deren Dienste sind teuer. NGOs erledigen das fast zum Nulltarif.

Wenn man den 110 Seiten lange Karlsruher Beschluss vom 24. März 2021 liest, kann man sich des Eindrucks nicht erwehren, dass sich die Richter des Ersten Senats, oder besser gesagt, ihr Stab wissenschaftlicher Mitarbeiter, großzügig aus den Schriftsätzen der Kläger, darunter Luisa Neubauer (Fridays for Future), der Energiewende-Professor Volker Quaschning sowie Josef Göppel, das einstige „Öko-Gewissen der CSU“, bedient haben. Selbst die erst in jüngster Zeit in die Welt gesetzte Panikvokabel der „Klimakrise“ (statt „Klimawandel) taucht mehrfach in dem Dokument auf.

Gerne würde man mittels einer Plagiatserkennungssoftware den höchstrichterlichen Spruch und die Schriftsätze der Kläger einmal miteinander vergleichen und prüfen, ob dieser in seinem nüchtern mit „Sachbericht“ über die „Tatsächlichen Grundlagen des Klimawandels“ überschriebenen Abschnitt einfach nur die Schriftsätze und deren Quellen übernommen oder sich eigenständig unter Berücksichtigung auch anderer Stimmen mit dem Phänomen globaler klimatischer Veränderungen auseinandergesetzt hat. Viele auch unter Klimaforschern zum Teil umstrittene Theorien wie Schellnhubers „Kippunkte“-Konstrukt fanden jedenfalls kritiklos Eingang in den Beschluss. Darauf wies bereits Fritz Vahrenholt in einem Achgut.com-Beitrag hin.

Nun sagt das Gericht zwar noch im Ausgangspunkt, „ob und auf welche Höhe die CO2-Konzentration in der Erdatmosphäre und der Temperaturanstieg zu begrenzen“ seien, sei eine „klimapolitische Frage“, die „nicht durch die Naturwissenschaften zu beantworten“ sei. Wer jetzt denkt, dass es ausreiche, wenn überhaupt nur weitere CO2 Einsparungen erreicht werden, was das Gericht noch vor wenigen Jahren lediglich als verfassungsrechtlich geboten betrachtet hat, wird jedoch überrascht: „Klimaneutralität“ hat nun zu sein, was das Grundgesetz als das einzig klimapolitisch legitime Ziel anerkennt. Hier ist man erstaunt deshalb, weil es den Begriff „Klimaneutralität“ im Jahre 1994 noch gar nicht gab, als der vom Gericht für seine Forderungen bemühte Artikel 20a überhaupt erst in die Verfassung eingefügt wurde. Hätte es ihn gegeben, wäre er jedoch mit Sicherheit nicht zum Ziel der Norm statuiert worden.

Künftige Regierungen klimapolitisch entmachtet

In der Gemeinsamen Verfassungskommission bestand damals Einigkeit, dass der „Schutz der natürlichen Lebensgrundlagen“ nicht anderen Verfassungsnormen und anderen Staatszielen übergeordnet wird, sondern „in Ausgleich mit anderen Verfassungsrechtsgütern und -prinzipien zu bringen“ ist. Von einem Schutz des „Klimas“ steht in dem besagten Artikel zudem übrigens nichts, und dass es zwischen Umwelt- und Klimaschutz schon gegenwärtig zu massiven Konflikten kommt, erwähnt das Gericht in seinem – ja nicht an mangelnder Ausführlichkeit leidendem – Urteil mit keinem Wort.

Der dem Gesetzgeber zugebilligte „erhebliche“ Entscheidungsspielraum besteht nun darin, das von den Klimaaktivisten geforderte, noch schärfere 1,5 Grad-Ziel zumindest aktuell nicht verfolgen zu müssen, sondern es „derzeit“ bei dem Paris-Ziel von „deutlich unter 2 Grad möglichst 1,5 Grad“ belassen zu dürfen. Da es aber das Paris-Ziel auf jeden Fall sein muss, ist einer künftigen Bundesregierung das Recht genommen, sich auch ein anderes, weniger „ambitioniertes“ Klima-Ziel zu setzen und dafür das Paris-Abkommen zu kündigen. Genauso ist es einer anderen parlamentarischen Mehrheit verwehrt, wenn die Bundesregierung das Paris-Abkommen aus irgendeinem Grund nicht kündigen will, das Heft des Handelns selbst in die Hand zu nehmen und das Abkommen mit einem gegenläufigen Gesetz einfach zu überschreiben.

Dabei wäre dies ein Vorgehen, Amerikaner sprechen plastisch von einem „treaty override“, einem Überfahren des Vertrages, das der Zweite Senat des Bundesverfassungsgerichts – zum Entsetzen der deutschen Völkerrechtler – jüngst in einem anderen Fall ausdrücklich als verfassungsrechtlich zulässig angesehen hat: Demokratie ist Macht auf Zeit, und ein neuer Bundestag ist so nicht an völkerrechtliche Verträge gebunden, denen ein anderer Bundestag zugestimmt hat. Mit seiner Erklärung des Paris-Ziels für verfassungsrechtlich zwingend hat Erste Senat diesen Ausweg versperrt.

Noch apokalyptischere Szenarien herbeimodellieren

Aber es geht weiter. In Ziffer 212 verpflichtet das Gericht den Gesetzgeber sogar mit einer Art Ewigkeitsklausel unter Bezugnahme auf seine Rechtsprechung zum Schutz der Bevölkerung vor Gefahren, die von Atomkaftwerken des Typs „Schneller Brüter“ ausgingen, das Umweltrecht immer auf dem neuesten Stand der Wissenschaft zu halten. „Neue hinreichend gesicherte Erkenntnisse über die Entwicklung der anthropogenen Erderwärmung oder deren Folgen und ihre Beherrschbarkeit könnten (…) eine andere Zielfestlegung (…) erforderlich machen.“

Dieser Satz kann als Aufforderung an die Klimaforschergilde verstanden werden, immer noch apokalyptischere Szenarien gewissermaßen herbei zu modellieren. Legt sie in einigen Jahren neue Klima-Modelle mit einem niedrigeren „Kipp-Punkt“ vor, hätte die Politik diese dann zeitnah und gewissenhaft umzusetzen. So würde der Druck im Panic-Room noch erhöht.

Das Gericht jedenfalls würde sein Plazet für auf solchen Szenarien basierende „erhebliche Freiheitseinbußen“ nicht verweigern. Dabei gehört der Generationen übergreifende Ansatz, wonach unter dem Gebot der Verhältnismäßigkeit „nicht einer Generation zugestanden werden darf, unter vergleichsweise milder Reduktionslast große Teile des CO2-Budgets zu verbrauchen, wenn damit zugleich den nachfolgenden Generationen eine radikale Reduktionslast überlassen und deren Leben schwerwiegenden Freiheitseinbußen ausgesetzt würde“, noch zu den – in sich – plausibleren Schussfolgerungen der Richter. Zumindest dann, wenn man den aktuellen und künftigen Horroszenarios von Klimaforschern und Umweltaktivisten folgt.

In der Debatte um die richtige Corona-Politik hat sich im Laufe der Zeit indes zunehmend die Erkenntnis durchgesetzt, dass die Politik die Modelle von Epidemiologen nicht einfach nur umzusetzen, sondern eine eigenständige Abwägung des Gesundheitsschutzes mit anderen Belangen vorzunehmen hat. So setzte ein Umdenken über das Verhältnis von Wissenschaft und Politik spätestens ein, Klimawissenschaftler würden von einem „Kipp-Punkt“ sprechen, als die Leopoldina in ihrer „Ad-Hoc-Stellungnahme zur Corona Pandemie“ im März dieses Jahres einen „harten Lockdown“ für „unbedingt notwendig“ erklärte und die Politik schlicht meinte, hieran nun gebunden zu sein.

Neue Abgaben, verharmlosend als „Bepreisung“ geframt

Wenn man jetzt denkt, der deutsche Staat könnte seine Klimaziele wenigstens auch dadurch erreichen, dass er CO2-Emissionen nicht reduziert, sondern etwa durch weitflächige Aufforstungen der Erdatmosphäre entzieht, wird man auch hier enttäuscht, denn das Gericht hat dem vorsorglich gleich im Eingangsteil seines Urteils eine Abfuhr erteilt. Es subsumiert den Umbau der Wälder genauso wie die Erhöhung von Deichen und den Hochwasserschutz unter „Anpassungsmaßnahmen“, die es nicht als „Strategie zur Begrenzung des Klimawandels“ anerkennt. Der seinerzeit von Trump vorgeschlagene Plan, Billionen von Bäumen zu pflanzen, um den Klimawandel aufzuhalten, kann folglich ebenso nicht beschritten werden. Es gibt kein Entkommen.

Damit bleibt dem Bundestag nur darüber zu entscheiden, „dass und welche Produkte, Dienstleistungen, Infrastruktur-, Verwaltungs- und Kultureinrichtungen, Konsumgewohnheiten oder sonstigen heute noch CO2-relevanten Strukturen schon bald erheblich umzugestalten sind“. Neben direkten Verboten und einer zu Lasten kommender Generationen gehenden Ausweitung der Staatsverschuldung wird es hier vor allem um die Erhöhung bestehender und die Einführung neuer Abgaben gehen, von den Akteuren verharmlosend als „Bepreisung“ geframt.

So wird als erster Schritt etwa eine Anhebung des Preises von einer Tonne CO2 von 25  auf 60 Euro gefordert, was bei einem Jahresverbrauch von 8,4 Tonnen pro Einwohner eine Mehrbelastung von 280 Euro für jeden bedeutet. Damit dürften bislang als völlig normal angesehene Handlungsmöglichkeiten für einen großen Teil der Bevölkerung über eher kurz als lang unerschwinglich werden. Wenn man sich hier einmal auf das Feld der Klima-Prognostiker begeben und eine Vorhersage abgeben darf, liegt so ein ganz anderer Temperaturanstieg nahe: Da nach der Logik des Gerichts auf die Akzeptanz von Grundrechtseingriffen zugunsten des Klimaschutzes keine Rücksicht mehr genommen werden kann, dürfte in einer Gesellschaft, in der nicht mehr nur bei Luxusgütern, sondern bereits im Alltäglichen „Freiheit nach Zahlungsfähigkeit“ vergeben ist, die Temperatur merklich steigen.

Die „Grenzen der Belastbarkeit“ werden dieses Mal also auf ganz andere Weise getestet. Das Gericht hat sich mit diesem Urteil erstmals in großer Deutlichkeit als politisches Gericht geoutet, dessen Mitglieder sich weniger dem Gebot richterlicher Zurückhaltung verpflichtet fühlen und so dem politischen Prozess Luft zum Atmen zu lassen, sondern einer Agenda folgen. Damit droht die lange Zeit zu Recht hoch angesehen Institution ihren Ruf zu verspielen …

 

Dieser Text entstand in Zusammenarbeit mit einem angesehenen Staatsrechtler, der an einer deutschen Universität lehrt und forscht. 

Der Beitrag erschien zuerst bei ACHGUT hier