1

Hier stinkt etwas: Betrugs-Vorwürfe bei der Forschung zur Ozean-Versauerung

Kip Hansen hat darüber vorigen Woche schon etwas geschrieben, aber es bedarf eines weiteren Beitrags, weil Mitglieder der Wissenschafts-Presse davon Notiz nehmen. Im Science Magazine findet man einen Beitrag mit dem Titel:

Does ocean acidification alter fish behavior? Fraud allegations create a sea of doubt [etwa: Verändert die Ozean-Versauerung das Verhalten von Fischen? Betrugs-Vorwürfe erzeugen ein Meer von Zweifeln]

Summary

Eine Gruppe von Whistleblowern hat drei Finanzagenturen aufgefordert, Untersuchungen einzuleiten hinsichtlich des Missbrauchs der Gelder für 22 Studien. In vielen derselben geht es um die Auswirkungen der Ozean-Versauerung auf das Verhalten von Fischen und die Ökologie. Die Aufforderung, der sich ein Reporter von Science anschloss, beruht auf etwas, das sie als Belege für Manipulationen ansehen von öffentlich verfügbaren Datensätzen für zwei Studien. Eine war in Science, die andere in Nature Climate Change veröffentlicht worden, und zwar in Kombination mit bemerkenswert großen und „statistisch unmöglichen“ Verhaltensauswirkungen durch Kohlendioxid, wie es in vielen der anderen Studien zu lesen war. Die beiden Leitautoren der Studien bestreiten vehement, Daten frisiert zu haben, und die James Cook University in Townsville, Australien, hat die Manipulations-Vorwürfe gegen eine der Studien nach einer oberflächlichen Betrachtung verworfen. Aber viele unabhängige Wissenschaftler und Daten-Fachleute, welche das Ganze begutachtet hatten, sprachen von ernsten Problemen in den beiden Datensätzen, ebenso wie in zwei weiteren Studien, welche von einem der angeklagten Wissenschaftler durchgeführt worden waren. Es beleuchtet Themen in den Bereichen Soziologie, Psychologie und Wissenschafts-Politik – einschließlich des Drucks auf Forscher, wie ihre Studien auszusehen haben, wenn sie in Top-Journalen veröffentlicht werden sollen, des Hungers von Journalisten nach alarmierenden und ins Auge springenden Ergebnissen sowie der Risiken des whistleblowings.

Mitglieder der Clark-Gruppe sagen, dass sie die angeblichen Datenprobleme bald auf PubPeer, einer Website zur Diskussion veröffentlichter Arbeiten, öffentlich machen werden. Und sie sagen, dass sie lange darüber nachgedacht haben, ob sie ihre Bedenken mit einem Reporter besprechen sollten, während die Ermittlungen möglicherweise noch laufen. „Meiner Erfahrung nach werden Whistleblower, sowohl ich als auch andere, beschimpft, wenn sie mit den Medien sprechen, bevor eine Untersuchung ein Fehlverhalten festgestellt hat“, sagt Josefin Sundin von der Schwedischen Universität für Agrarwissenschaften, die letzte Autorin der Nature-Replikationsarbeit. „Aber warum ist das so? Wenn eine Untersuchung überhaupt stattfindet, kann sie sich sehr lange hinziehen. Wenn man weiß, dass Daten gefälscht wurden, warum wird es dann als richtig angesehen, monatelang oder sogar jahrelang darüber zu schweigen?“

Irgendetwas stinkt hier mit Sicherheit.

Der ganze Beitrag steht hier.

Link: https://wattsupwiththat.com/2021/05/10/something-smells-fishy-allegations-of-fraud-in-ocean-acidification-research/

Übersetzt von Chris Frey EIKE

 




Der Abkühlungs-Aspekt von Treibhausgasen

Chinook: Das Gegenstück zum Föhn bei uns in Kanada östlich der Rocky Mountains. Das indianische Wort bedeutet „Schneefresser“

Diskussionen über Temperaturinversionen haben jedoch gelegentlich eine respektvollere Debatte mit kritischen Denkern ausgelöst. Die meisten Menschen haben in „Frostlöchern“ Ventilatoren bemerkt, die in Obstplantagen und Weinbergen aufgestellt wurden, und sind daher daran interessiert, warum sie funktionieren. Ventilatoren vermischen gefrierende Luftschichten an der Oberfläche, die sich nachts im Frühjahr bilden können und Blüten und Früchte schädigen, mit wärmeren Luftschichten weiter oben. Sie ziehen einfach die wärmeren Luftschichten von oben nach unten an die Oberfläche und erhöhen so die Tiefsttemperaturen. Aber warum gibt es diese wärmere Luftschicht?

Während des Tages absorbiert die Erdoberfläche sowohl die Sonnenstrahlung als auch die von den Treibhausgasen nach unten abgegebene Infrarotwärme. Da sie diese Energie schneller absorbiert, als sie Infrarotwärme zurück in den Weltraum abstrahlen kann, erwärmt sich die Oberfläche. Allerdings erwärmt das Sonnenlicht die untere Atmosphäre (auch Troposphäre genannt) nicht direkt. Stickstoff, Sauerstoff und Argon machen ~ 99% unserer Atmosphäre aus und sind für die einfallende Sonnenenergie transparent. Darüber hinaus absorbieren diese Gase im Gegensatz zu den Treibhausgasen weder Infrarotenergie noch geben sie diese ab. Die Troposphäre erwärmt sich in erster Linie, indem sie durch Zusammenstöße mit der erwärmten Erdoberfläche Energie gewinnt. Während des Tages liegt die wärmste Luftschicht am nächsten an der erwärmten Oberfläche. Aufsteigende warme Luft verursacht turbulente Vermischung und Kollisionen mit kühlerer Luft darüber, die die Lufttemperaturen dort anhebt. Da sich die Luft jedoch beim Aufsteigen aufgrund des abnehmenden Luftdrucks abkühlt, ist die Erwärmung begrenzt.

Ohne solare Erwärmung kühlt die Erdoberfläche ab, indem sie mehr Infrarotwärme abgibt, als sie von der recycelten Wärme der Treibhausgase absorbiert, da die Treibhausgase nicht die gesamte abgegebene Wärme abfangen. „Atmosphärische Fenster“ lassen etwa 23 % der Oberflächenwärme direkt in den Weltraum entweichen, ohne recycelt zu werden. Die Luftschicht, die der Oberfläche am nächsten ist, kühlt dann ab, indem sie Wärme an die kältere Oberfläche abgibt. Höhere Luftschichten können jedoch nicht absinken und wieder mit der Oberfläche zusammenstoßen, es sei denn, sie verlieren ihre Wärme. Stickstoff, Sauerstoff und Argon können diese Energie jedoch nur abgeben, indem sie mit kühleren Treibhausgasen kollidieren, die ihre Energie absorbieren und die Hälfte wieder in Richtung Weltraum abgeben.

Da der Großteil unserer Atmosphäre nur durch die Abgabe von Wärme an Treibhausgase kühlt, bildet ein kleiner Prozentsatz an Treibhausgasen einen „Kühlungsstau“. Folglich kühlt die Atmosphäre langsamer ab als die feste Erde, die über atmosphärische Fenster schneller Energie verliert. Dieser Unterschied in den Abkühlungsraten erzeugt eine wärmere Luftschicht über der kühleren Oberflächenluft und wird als Temperaturinversion bezeichnet. Stellen Sie sich nun eine Welt ohne Treibhausgase vor. Ohne Treibhausgase können Stickstoff, Sauerstoff und Argon nicht genug Wärme zurück in den Weltraum verlieren und die Atmosphäre würde sich weiter erwärmen.

Außerhalb der Tropen bilden sich Inversionsschichten eher im Winter und Frühjahr. Während der reduzierten Sonneneinstrahlung im Winter speichert die Erdoberfläche weniger Wärme. Wo Menschen Kamine benutzen, um sich warm zu halten, werden Inversionsschichten durch aufsteigenden Rauch sichtbar, der plötzlich flach wird, wenn er auf die wärmere Luft darüber trifft. Ventilatoren funktionieren, indem sie wärmere Luftschichten nach unten ziehen, um sich mit kühleren Oberflächenschichten zu vermischen und so die Pflanzen vor dem Einfrieren zu schützen. In ähnlicher Weise kühlt die monatelange „Polarnacht“ die Oberflächen im Inneren der Antarktis auf bis zu -89,2 °C ab und erzeugt eine kontinentweite Inversionsschicht. Wenn periodisch überdurchschnittliche Oberflächentemperaturen gemeldet werden, ist dies oft das Ergebnis starker Winde, die wie ein Ventilator die Inversionsschicht der Antarktis abschwächen oder ganz beseitigen.

Oberhalb der Inversionsschicht. Foto: © Chris Frey

In den 1990er Jahren stellten Klimawissenschaftler fest, dass urbane Wärmeeffekte die Minimaltemperaturen um einige Grad anheben, nicht aber die Maximaltemperaturen. Solche Gebiete erwärmten sich nicht, sondern wurden weniger kalt. Das deutet darauf hin, dass die Verstädterung die lokalen Inversionsschichten unterbrochen hat. Die zunehmende Bedeckung des Landes mit wärmespeicherndem Asphalt und Beton verringert die Oberflächenkühlung. Die Beseitigung von Vegetation oder Nässe führt zu heißeren Oberflächen, die mehr Wärme speichern. Verkehr, hohe Gebäude oder Frostfächer stören die Oberflächenwinde, die wärmere Luft an die Oberfläche bringen. All diese Dynamiken erhöhen die Mindesttemperaturen und damit die Durchschnittstemperatur. Verschiedene lokale Störungen der Inversionsschichten können besser erklären, warum einige US-Wetterstationen Erwärmungstrends zeigen, während 36 % eine langfristige Abkühlung aufweisen.

Foto: © Chris Frey

Unsere Atmosphäre hat auch eine globale Inversionsschicht. Über der Troposphäre befindet sich die wärmere Stratosphäre, in der die Temperaturen aufgrund der Absorption der solaren UV-Strahlung mit der Höhe zunehmen. Da CO2 in einer wärmeren Stratosphäre schneller Infrarotstrahlung abgibt, als es diese aus der Troposphäre absorbiert, kühlt mehr CO2 die Stratosphäre ab. (Aus ähnlichen Gründen hat CO2 auch eine kühlende Wirkung in der Antarktis.) Außerdem bringen Gewitterwolken die enormen Wärmemengen, die im Wasserdampf gespeichert sind, an die Tropopause (= die Grenzschicht zwischen Troposphäre und Stratosphäre). Auch hier können wir sehen, wo die Wärmeinversion beginnt, wenn die Wolken nicht mehr aufsteigen und eine Ambossform an dieser Grenzschicht entwickeln. Da dort oben kaum noch Wasserdampf vorhanden ist, gehen die Wellenlängen der Infrarotwärme, die bei der Kondensation von Wasserdampf zu Flüssigkeit und Eis freigesetzt werden, größtenteils ungehindert in den Weltraum, ohne dass sie zur Erde zurückgeführt werden.

Würden diese Dynamiken besser verstanden, würden die Menschen eher über Klimakatastrophen-Narrative lachen, als der Paranoia zu erliegen.

Link: https://wattsupwiththat.com/2021/05/06/the-cooling-side-of-greenhouse-gases/

Übersetzt von Chris Frey EIKE

Anmerkung des Übersetzers: Die Erklärung der Entstehung von Inversionen ist fachlich nicht ganz gelungen. Weil hier aber ein künstlicher Erwärmungseffekt neben dem UHI beschrieben wird, ist der Beitrag hier übersetzt.

 




Öko-Angst

Die verheerenden Auswirkungen der Erzeugung von Öko-Angst bei Kindern: Climate.Etc als Antidot: Vor ein paar Tagen erhielt ich folgenden Brief via E-Mail:

An die geschätzte Dr. Judith Curry

Sie kennen mich nicht, aber ich bin ein häufiger Leser Ihrer Artikel und finde sie sowohl faszinierend als auch Augen öffnend. Ich bin mir nicht sicher, ob es überhaupt erwünscht ist, Ihnen einige Worte der Ermutigung anzubieten, aber zuerst möchte ich im Detail erklären, warum ich mich entschlossen habe, Sie per E-Mail mit dieser eher seltsamen Methode zu kontaktieren, eine Nachricht anzubieten. Es ist, weil Sie meine Meinung über die globale Erwärmung und den Klimawandel völlig verändert haben. Seien Sie versichert, dass ich nicht der Einzige bin, der beginnt, die Dinge in einem anderen, wissenschaftlicheren Licht zu sehen.

Ich bin in der „Ära“ der 90er Jahre aufgewachsen: „Saurer Regen wird uns alle umbringen! ‚Alle Bäume werden gefällt werden!‘ ‚Die Menschen schaden der Umwelt mehr als sie ihr nützen!“ Jede Art von beängstigender Vorhersage, die Sie sich vorstellen können und die Sie sofort benennen können, war ich ausgesetzt, und das in einem Alter, in dem ich die Bedeutung von ‚hinterfrage, was du hörst‘ noch nicht ganz verstanden hatte. Ich glaubte voll und ganz – buchstäblich bis zu diesem Jahr – dass die Erde in Flammen untergehen würde, dass die Ozeane mit Öl bedeckt sein würden, dass die Regenwälder alle verschwinden würden und dass die Erde jedem Kreis der Hölle in Dantes Inferno sehr ähneln würde. Es war auch nicht gerade hilfreich, dass ich bei einer Tante und einem Onkel aufgewachsen bin, die Zeugen Jehovas waren und die mir immer wieder sagten, dass die Welt untergehen würde! Wenn man dann noch die häufigen Nachrichtenberichte hinzufügt (ich war nicht in der Lage, sie zu ignorieren – meine verstorbene Mutter schmetterte sie durch das Haus), hat man einen ziemlich großen Klumpen Angst. Nein, im Ernst, während meiner Mittelschulzeit wurde bei mir GAD zusammen mit Depressionen diagnostiziert.

Ich zucke jetzt zusammen, wenn ich all die jüngeren Leute sehe (ich bin Anfang dreißig), die genau so handeln wie ich – mit der Mentalität, dass Menschen eine Plage sind und dass sie ALLES Gute ruinieren. Das war der erste Stich, der mir sagte, dass etwas nicht stimmt. Wir leben in dem am wenigsten verschmutzten Land von allen, unsere Luftqualität hat sich drastisch verbessert, die Wälder sind größtenteils intakt, es gibt MEHR Grün, und bedrohte Arten feiern ein Comeback, das ich mir in meinen jungen Jahren nie hätte vorstellen können. Warum werden wir dann ständig mit „der Mensch ist die Krankheit“-Botschaften bombardiert? Das ständige Sirenengeheul von „TUN SIE ETWAS!“ hat mich so fertig gemacht, dass ich nach einer Art Beruhigung gesucht habe – nicht die beste Art, mit einem Problem umzugehen, aber es war meine Methode – und ich bin auf Ihre Seite gestoßen. Meine „Seite“ hat sich oft über Wissenschaftler lustig gemacht, die entweder versuchen, die bildlichen Flammen, die durch ihre Panik entstanden sind, zu löschen oder besser noch, die Ausbreitung der Feuer zu verhindern. Warum sollte jemand nicht hören wollen: „Gute Nachrichten! Der Planet ist NICHT dem Untergang geweiht!“?

Ich habe so viel über diese „Klimaleugner“ gehört und fühlte mich beklommen, als ich auf Ihre Seite kam, als ob ich tatsächlich die verbotene Frucht aus der Ferne betrachten würde und dachte, dass ich jeden Moment von einem Racheengel für meinen Ungehorsam niedergestreckt werden würde. (Nochmals, ich bin in einem einigermaßen christlichen Haushalt aufgewachsen, das hat die Sache nicht gerade erleichtert…) Nichts dergleichen ist passiert. Ich spottete zuerst und dachte: „Diese Person liegt völlig falsch. Das Klima ist schlecht, Menschen werden sterben, irgendwo auf dem Ozean gibt es Überschwemmungen –“ Doch dann erinnerte ich mich daran, dass ich einmal über zwanzig Jahre meines Lebens in der Nähe einer Stadt am Meer gelebt habe. Nichts dergleichen geschah auch nur ansatzweise! In der Tat ist der Meeresspiegel in der Nähe meiner alten Heimatstadt nicht viel gestiegen. Wir hatten in zwei Jahrzehnten nur eine Handvoll Hurrikane.

Wenn die Klima-„Leugner“ so geistesgestört wären und so sehr darauf aus wären, dem „Großkapital“ zu helfen, warum sind ihre Seiten dann ausschließlich von Spenden abhängig, und warum sind ihre Argumente so klar und deutlich? Sie klingen überhaupt nicht geistesgestört, da Sie Wissenschaftler sind (jemand, der aktiv die WISSENSCHAFTLICHE METHODE ZUM BEOBACHTEN BENUTZT! Ja, ich weiß, so viele Hütchen, aber ich wünschte, es gäbe Personen im Hintergrund, die das hören können!), also warum ist es das Ziel, die Leute zu erniedrigen, die aktiv die Auswirkungen des Klimas und das Klima selbst studieren? Das machte keinen Sinn. Dann ging ich zu „Watt’s Up With That?“, „Not A Lot of People Know That“, „CFACT“, „Farm Babe“, die Liste geht weiter und weiter, und ich wollte meine eigenen Ansichten hinterfragen (als ob es meine eigenen Ansichten wären… das waren sie nicht, es waren Eindrücke, die mir im zarten Alter von zehn Jahren eingetrichtert wurden…) und ich fand eine Fülle von Punkten, die fundierter und weniger theatralisch waren als, sagen wir, das Geschrei, die Welt stehe in Flammen. Wie traurig ist es für die eigentliche Wissenschaft, dass ihre wahren Praktiker zugunsten von Junk-Science in die Ecke gedrängt werden. („Weil es feststeht und weil wir es sagen, deswegen ist es so!“)

Inzwischen sind die tatsächlichen gestörten „Wissenschaftler“ Leute wie Bill Nye (es tut mir weh, das zu schreiben, weil ich ihn als Kind eigentlich sehr mochte – seine Show war ziemlich unterhaltsam und informativ), die darauf bestehen, dass die Menschen sterben müssen, damit der Planet überlebt. Ich kann mit Sicherheit sagen, dass ich es viel lieber vermeiden würde, mit ihnen zu reden, als mit jemandem, der sagt: „Fossile Brennstoffe, die von Menschen verbrannt werden, verändern den Planeten nicht und hier ist der Grund dafür.“ Wenigstens will der ‚Leugner‘ mich nicht tot sehen, nur weil ich atme.

Bitte, bitte, BITTE… machen Sie weiter mit dem, was Sie tun, und ich hoffe, dass es Ihnen und Ihren Kollegen gelingt, noch viele Köpfe zu ändern, bevor dieser Wahnsinn zum Tragen kommt!  Sie wissen das nicht, aber Sie bringen den Menschen Hoffnung statt Verzweiflung, Sie und Michael Schellenberger, Roger Pielke Jr., Paul Homewood und viele andere, von denen ich sicher bin, dass ich sie aufgrund fehlerhafter Erinnerung ausgelassen habe (oder mangelnder Recherche, wenn Sie mich auf viele andere hinweisen könnten, die ich vielleicht übersehen habe, lassen Sie es mich bitte wissen, wenn Sie so geneigt sind.

Kommentar von Judith Curry dazu

Die Strategie, „den Kindern Angst einzujagen“, ist absolut verwerflich. Ich wuchs in den späten 1950er-1960er Jahren auf. Die Kinder-Angst-Taktik dieser Zeit waren die Russen – sie waren bereit, die USA zu übernehmen, wir würden bombardiert werden (erinnern Sie sich an die Luftschutzbunker dieser Ära?), wir würden unsere Freiheiten verlieren, Ihre Nachbarn könnten russische Spione sein (hat jemand die TV-Show The Americans gesehen? Sie ist großartig). Diese Angst wurde mir von einer katholischen Nonne vermittelt, die auf dem Schulhof noch verstärkt wurde. Im reifen Alter von 8 Jahren endete ich mit einem Magengeschwür, weil ich mir Sorgen machte. Mein Arzt sagte mir, ich solle mir keine Sorgen machen, das sei alles nur dumme Politik, und ich solle einfach meine Kindheit genießen. Ich sagte ‚Ok‘ und war mit all dem so gut wie fertig. Aber die expliziten, von der Regierung sanktionierten und akademischen Bemühungen in der ‚cli-sci Kommunikation‘ (Klima-‚Krise‘, ‚Notfall‘, ‚Aussterben‘), um Kinder über den Klimawandel für politische Zwecke zu erschrecken, ist absolut verwerflich.

Solche Panikmache wird nach hinten losgehen, wenn die Kinder aufwachsen und sehen, dass die beängstigenden Prophezeiungen unerfüllt bleiben. Wir züchten Generationen von Menschen heran, die lernen, Wissenschaftlern zu misstrauen. Den Kindern wird mit gruseligen Klimageschichten mehr Schaden zugefügt als mit allen Folgen des Klimawandels in ihrem Leben.

In der Zwischenzeit fungieren Climate Etc. und andere Blogs als wichtiges Gegenmittel gegen solche ungerechtfertigte, verwerfliche und schädliche Rhetorik.

Link: https://judithcurry.com/2021/05/06/eco-anxiety/

Übersetzt von Chris Frey EIKE

 




Das Bundesverfassungs­gericht – ein Fall für den Verfassungsschutz ?

Es geht um das Klima, was ja in der Tat eine von den Göttern gesteuerte Umwelterscheinung ist, gegen die Erdlinge sich angeblich versündigen.
Jan Grossarth hat darüber in der WELT vom 5. Mai 2021 einen exzellentem Artikel mit dem Titel „Die Apokalyptiker von Karlsruhe“ geschrieben. Er prüft alle vom Bundesverfassungsgericht vorgetragenen Argumente – und zwar juristisch – und sein Fazit ist ein vernichtendes Urteil über die erschreckende  Zielsetzung: Die Umerziehung der Bevölkerung zu einem angeblich klimagerechten Lebensstil – und die dazu erforderlichen Zwangsmaßnahmen. Dazu kommt noch auch die Erziehung der jeweiligen Bundesregierung zu folgsamem Verhalten und Handeln, was schon jetzt erfolgreich exekutiert wird, wie man an dem beflissenen Gehorsam der Altparteien erlebt.
Auch die juristische Qualität der Urteilsbegründungen erhält gleichfalls  von dem Frevler Gossarth  unterirdische Zensuren, was schon eine Blasphemie ist.

Aber es braucht noch eine Ergänzung: Das Bundesverfassungsgericht hat als Grundlage für seine „Weisung“ an Regierung und Parlament für eine Verlängerung ihrer CO2-Einsparungsverpflichtungen eine Stellungnahme des deutschen Sachverständigen-Rats für Umweltfragen (SRU) herangezogen. Sonst nichts. Die seit der Präsentation der Klimakatastrophen-Hypothese vor Jahrzehnten erfolgte intensive und absolut streitige  wissenschaftliche Diskussion über die Richtigkeit oder die Unrichtigkeit dieser – bis heute unbewiesenen – Theorie kann durch einige der zahlreichen Petitionen überdeutlich beschrieben werden:
Die „Welt Klimadeklaration“  von 700 Wissenschaftlern und Fachleuten „Es gibt keinen Klimanotstand“ vom 18.10.2019. Die „Petition zur Globalen Anthropogenen Erwärmung“ von über 90 italienischen Wissenschaftlern vom 19.7.2019. Die Petition von Prof. Richard Lindzen und 300 bedeutenden Personen vom 27.2.2017 an Präsident Trump, die zur Kündigung des Pariser Klimaabkommens führte. Das Klimamanifest von Heiligenroth vom 15.9.2007 mit 342 Unterschriften. Die Petition von Wissenschaftlern aus aller Welt“ an die EU-Administration – von 300 unabhängigen Klimawissenschaftlern und Professionals. Das Schreiben von 200 Wissenschaftlern vom 8.12.2009 an UN-Generalsekretär Ban-Ki-Moon.

Das Bundesverfassungsgericht selbst kritisierte versehentlich seine eigene Ignoranz gegenüber der wohlbekannten massiven wissenschaftlichen Kritik an der CO2-Theorie mit seinem Satz im Urteil „Besteht wissenschaftliche Ungewissheit über umweltrelevante Ursachenzusammenhänge, so erlegt der Grundgesetz-Artikel 20a dem Gesetzgeber eine besondere Sorgfaltspflicht auf.“  Dieses Gericht braucht diese Sorgfalt offenbar nicht zu beachten.
Der unübersehbare Beweis für die weiterhin bestehende massive Kritik an der Untergangstheorie stellt klar: Es gibt in dieser Frage keinen Konsens – nur harte Konfrontation.  Und selbst ein Konsens würde nicht genügen: Es fehlt dann immer noch der Beweis – und zwar durch das von Dritten wiederholbare Experiment.
Diese sehr streitige Debatte – in der Wissenschaft notwendig und üblich – ist in ihrer inzwischen recht langen Geschichte und ihrer Härte dermaßen unübersehbar, dass eigentlich niemand den Ahnungslosen spielen kann.
Das Gericht hat aber alle kritischen Stellungnahmen aus der internationalen Wissenschaft ignoriert und allein die Bewertungen des SRU zur Grundlage seines Urteils gewählt. Ein unbegreifliches, aber auch sehr bezeichnendes Versäumnis. Es handelt sich um ein zweifellos bewusst gefälltes Fehlurteil, das geeignet ist, immensen Schaden für das Land und gerade auch für die angesprochenen künftigen Generationen anzurichten.
Jetzt müsste sich eigentlich der Verfassungsschutz um das Bundesverfassungsgericht kümmern.

Was nun notwendig wäre, ist die Entlassung aller Gerichtsmitglieder. Am besten mit der gesichtswahrenden japanischen Methode,  Versager in höheren Positionen dadurch loszuwerden, dass man sie – bei weiterhin gutem Gehalt – zu Frühstücksdirektoren in nachgeordneten Behörden ernennt.

Sie sollten auf keinen Fall ihre schicken roten Roben entsorgen, denn diese könnten eine lustige neue und nachhaltige Verwendung erhalten: Als eindrucksvolle Bekleidung ihrer Warmup-Vorgruppe „Die jecken Richter“ bei Karlsruher Faschings-Prunksitzungen.
Am besten am „Schmutzigen Donnerstag“ im Februar.

Günter Keil
Dr.-Ing.

Sankt Augustin

 




Exzessive Subventionen für „erneuerbare“ Energie sind inzwischen ein Haupt-Hindernis für Net Zero

Es besteht weithin Einigkeit darüber, dass Strom für die Bemühungen zur Dekarbonisierung von entscheidender Bedeutung ist. Dennoch machen erneuerbare Energien und ihre Subventionen Strom extrem teuer und belasten die Stromrechnungen der Verbraucher mit über 12 Milliarden Pfund pro Jahr. Diese hohen und steigenden Kosten schrecken stark davon ab, Elektroautos oder Wärmepumpen einzuführen. Nur die Wohlhabenden werden sich diese leisten können.

Die einflussreiche PR-Firma Public First hat eine von den großen Stromversorgern unterstützte Studie erstellt, die einen Weg skizziert, einen Teil der Kosten für die Subventionierung erneuerbarer Energien aus der zentralen Besteuerung zu finanzieren und so dieses Hindernis für elektrisches Heizen zu beseitigen. Nur die Subventionen, die über die Haushaltsrechnungen erhoben werden (etwa 40 % der Gesamtsumme), würden ersetzt werden, und diese Entlastung würde durch eine neue Kohlenstoffsteuer auf Gas und Strom ausgeglichen werden.

Die GWPF veröffentlicht heute einen Kommentar zum Reformvorschlag von Public First und kommt zu dem Schluss, dass dieser zwar ein Schritt in die richtige Richtung, aber aus folgendem Grund unzureichend ist:

1. Der Vorschlag bietet keine wirkliche Entlastung für die Verbraucher, sondern verlagert lediglich die Kosten von Strom auf Gas über eine Kohlenstoffsteuer.

2. Die Einnahmen aus der vorgeschlagenen Kohlenstoffsteuer würden mit der Zeit unweigerlich sinken, was die Belastung der Steuerzahler in der Gesamtwirtschaft erhöht.

3. Die einzigen Gewinner des Vorschlags sind die Energiekonzerne, die die Arbeit von Public First finanziert haben, da sie in der Lage sind, einen schwierigen und unsicheren Einnahmestrom aus den Rechnungen der Verbraucher gegen einen gesicherten Geldfluss aus dem Finanzministerium zu tauschen. Dies ist bedauerlich.

Nichtsdestotrotz hat die Arbeit von Public First ein wohlbekanntes Problem in den Vordergrund gerückt, nämlich dass sehr hohe und steigende Subventionen für erneuerbare Energien nun ein großes Hindernis für die Net Zero-Politik der Regierung darstellen.

Das Global Warming Policy Forum schlägt daher vor, dass die Minister einen radikaleren Reformansatz in Erwägung ziehen und die Subventionskosten von allen Verbraucherrechnungen, egal ob für Privathaushalte, Industrie, Gewerbe oder den öffentlichen Sektor, abziehen und stattdessen die Kosten aus zentralen Steuern finanzieren. Dies würde die enormen und derzeit versteckten Kosten der erneuerbaren Energien einer demokratischen Prüfung unterziehen.

Die GWPF glaubt, dass die öffentliche Erkenntnis der wahren Kostenbelastung eine solche Prüfung nicht überleben würde. In der Tat wäre die Streichung der Subventionen für erneuerbare Energien und die Annahme einer kosteneffektiveren kohlenstoffarmen Politik ein großer Schritt zur Wiederbelebung der britischen Wirtschaft.

Dr. John Constable, der GWPF-Energie-Redakteur, sagte:

Es ist dringend notwendig, die Subventionen für erneuerbare Energien in Großbritannien zu kürzen. Sie aus der nationalen Stromrechnung zu entfernen und aus der allgemeinen Besteuerung zu finanzieren, so dass die Öffentlichkeit sehen kann, was derzeit heimlich ausgegeben wird, ist ein notwendiger erster Schritt. Demokratische Prüfung und Rücknahme wird der nächste Schritt sein. Das kann nicht zu schnell kommen.

Link: https://www.thegwpf.com/excessive-renewable-energy-subsidies-are-now-a-major-obstacle-to-net-zero/

Übersetzt von Chris Frey EIKE

 




Der Infrastrukturplan der Biden Regierung enthält verschwenderische Ausgaben für die grüne Agenda

Hochrangige Verwaltungsbeamte gaben an, dass er hauptsächlich durch eine Anhebung der Körperschaftsteuer, auf den Stand vor den Steuersenkungen der Trump-Regierung 2017, finanziert werden würde.

Stephen Moore, ein Wirtschaftswissenschaftler, der in der Reagan-Administration tätig war, äußerte Bedenken hinsichtlich der Staatsausgaben unter der Biden-Administration. Der Präsident hat Anfang März ein Hilfspaket für COVID-19 in Höhe von 1,9 Billionen US-Dollar unterzeichnet. Laut Axios hat er eine weitere geschätzte Ausgabenflut für Infrastruktur von 5 Billionen US-Dollar und andere Wahlversprechen im Auge.

„Das sind 6 bis 7 Billionen US-Dollar an Ausgaben und Schulden, fast doppelt so viel, wie die US-Regierung für die Finanzierung des Unabhängigkeitskrieges, des Bürgerkriegs, des Ersten Weltkriegs, des Zweiten Weltkriegs und des Kalten Krieges zusammen ausgegeben hat – inflationsbereinigt“, sagte Moore dem Daily Caller in einer Erklärung.

Während das Infrastrukturpaket, genannt American Jobs Plan, mindestens 2 Billionen US-Dollar an Bundesausgaben vorsieht, fließen nach  dem  Fact Sheet: The American Jobs Plan des Weißen Hauses, nur 621 Milliarden US-Dollar in die „Verkehrsinfrastruktur und Ausfallsicherheit“. Darunter sind Projekte gemeint für: Autobahnen, Brücken und Straßen sowie öffentliche Verkehrsmittel und Investitionen in die Personen- und Güterbahn, Flughäfen, Wassertransporte und Häfen.

Es gibt aber auch eine Reihe von Ausgabenposten, die nicht in direktem Zusammenhang mit der Infrastruktur stehen. Zum Beispiel Projekte zur „Förderung der Rassengerechtigkeit und Umweltgerechtigkeit“, Investition in öffentliche Schulen, einschließlich der Finanzierung von Schulessen, um „umweltfreundlich zu werden, indem die Verwendung von Papptellern und anderen Einwegmaterialien reduziert oder beseitigt wird“.

Das COVID-19-Hilfspaket, das Biden Anfang März unterzeichnet hatte, hatte bereits 128,5 Milliarden US-Dollar für öffentliche Schulen bereitgestellt .Der größte Ausgabenposten ist eine Investition von 174 Milliarden US-Dollar in Elektrofahrzeuge, Forschung sowie die landesweite Einrichtung von Ladestationen.

Progressive Demokraten haben argumentiert, dass Bidens Pläne nicht weit genug gehen. Der Senator von Massachusetts, Ed Markey, hat Anfang dieser Woche Gesetze vorgestellt, die 10 Billionen US-Dollar für den Klimawandel bedeuten würden.

Eine nähere Betrachtung der geplanten Ausgaben, deutet eher darauf hin, dass Bidens Ausgabenpaket, das als Infrastrukturplan benannt wird, in Wirklichkeit der grünen Energieindustrie mehr Geld zur Verfügung stellt, als für den Ausbau oder die Reparatur von Infrastruktur vorgesehen sind.

„Es gibt keinen Grund, weitere zig Milliarden Dollar für Geschenke an die bereits stark subventionierte Industrie für erneuerbare Energien aufzunehmen.“  sagte James Taylor, Präsident des Heartland Institute.

„Die Vorschlag der Regierungsbeamten zielt darauf ab, bis zu einer Billion Dollar auf eine grüne Agenda zu setzen und sie als“ Infrastruktur „zu tarnen„, sagte Gregory Wrightstone, Executive Director der CO2-Koalition. „Diese verschwenderischen Ausgaben sind eine Lösung auf der Suche nach einem Problem.“

„Während unsere lebenswichtige Infrastruktur sicherlich repariert und verbessert werden muss, sind noch mehr  Ausgaben für grüne Projekte eine völlige Verschwendung und bringen der Gesellschaft keinerlei Vorteile“, sagte Steve Milloy, ein ehemaliges Mitglied des Übergangsteams der Trump-Administration.

 

Auch für das Finanzministerium hat der Kampf gegen den Klimawandel oberste Priorität

Die durch Biden frisch ernannte Finanzministerin Janet Yellen macht den Klimawandel zu einer obersten Priorität für ihre Abteilung und plant Berichten zufolge die Schaffung der neuen Position einer Klimabeauftragten im Finanzministerium. Während ihrer Anhörung zur Bestätigung am 19. Januar erklärte Yellen gegenüber den Senatoren, ihr Ziel sei es, sicherzustellen, dass die Finanzaufsichtsbehörden „ernsthaft über die Bewertung des Risikos des Klimawandels für das Finanzsystem nachdenken“.

„Sowohl die Auswirkungen des Klimawandels selbst als auch Maßnahmen zu seiner Bewältigung könnten erhebliche Auswirkungen haben, “ verlorene Vermögenswerte“ schaffen, große Veränderungen der Vermögenspreise, Kreditrisiken usw. hervorrufen, die sich auf das Finanzsystem auswirken könnten, das sind sehr reale Risiken.“

Das Finanzministerium reguliert Banken oder Finanzmärkte nicht direkt, verfügt jedoch über umfassende Befugnisse, um eine klimafokussierte Regulierungsagenda umzusetzen und Klimarisiken für das Finanzsystem zu überwachen, so das Wall Street Journal

Biden unterzeichnete an seinem ersten Tag im Amt eine Dekret, in der die Bundesbehörden aufgefordert wurden, zu bewerten, wie sich ihre Geschäftstätigkeit auf die Umwelt auswirkt.

Die Federal Reserve, in der Yellen von 2014 bis 2018 als Vorsitzende fungierte, hat eine eigene Klimaschutzagenda. Während einer Rede am 18. Februar forderte Frau  Lael Brainard, Vorstandsmitglied der US-Notenbank, die Finanzinstitute auf, eine größere Rolle bei der Bekämpfung des Klimawandels zu spielen, auch durch Finanzregulierung.

Seit März 2020 hat die Federal Reserve Banken und Unternehmen eine scheinbar unbegrenzte Menge an Liquidität zur Verfügung gestellt, während der Kongress Billionen Dollar für die Bekämpfung von Pandemien ausgegeben hat

Gregory Zerzan, der zuvor im Finanzministerium und im Innenministerium tätig war, argumentierte in einem Leitartikel des Wall Street Journal vom 25. Februar, dass die Zulassung der Finanzaufsichtsbehörden zur Bekämpfung des Klimawandels fast keine Auswirkungen auf die Umwelt haben würde.

Zerzan vermutet ferner, dass Finanzvorschriften gegen den Klimawandel, es der Bundesregierung und Corporate America erleichtern würden, zu entscheiden, wer Zugang zu Kapital erhält und die Aufsichtsbehörden für mehr Korruption und Bevorzugung öffnen würden.

Kapitalanforderungen sind eines der wichtigsten Instrumente, mit denen Finanzaufsichtsbehörden Risiken steuern. Wenn beispielsweise die Kreditvergabe als zu riskant eingestuft wird, halten die Banken mehr Kapitalreserven und werden häufig davon abgehalten, Kredite an Kreditnehmer zu vergeben, die von den Aufsichtsbehörden nicht bevorzugt werden. Unternehmen, die es sich nach diesen Regeln leisten können, umweltfreundlich zu werden, würden auf Kosten ihrer Wettbewerber Zugang zu Kapital erhalten.

Zusammengestellt und übersetzt durch Andreas Demmig

 

https://dailycaller.com/2021/04/01/biden-infrastructure-plan-climate-change-green-agenda-subsidies-electric-vehicles/

https://dailycaller.com/2021/03/11/financial-regulators-treasury-federal-reserve-climate-change-banks-wall-street-corruption/

 




EIKE im Landtag: Lüdecke und Lüning als Sachverständige in Düsseldorf

Leider gibt es noch kein Video vom Landtag; und der Life-Stream ist nur für angemeldete Bürger sichtbar.

Daher hier der Text der Stellungnahmen.

Prof. Horst Lüdecke:

Gutachterliche Stellungnahme zum Gesetzentwurf der Landesregierung Klimaanpassungsgesetz
Nordrhein-Westfalen (KIAnG)
Zusammenfassung und Stellungnahme
Der Gesetzentwurf des Klimaanpassungesetzes (im Folgenden KlAnG) bezieht sich auf die stets notwendige und vernünftige Aktivität der zivilisierten Menschheit, sich vor schädlichen Folgen des Klimawandels (es gibt genauso viele positive Folgen) durch möglichst frühzeitig durchgeführte Maßnahmen zu schützen.

Diese Bestrebungen gibt es vermutlich, seit die Menschheit existiert. Heute sind sie infolge
der immer größeren Verwundbarkeit moderner Zivilisationen gegen Wetter- und Klima-Unbilden
dringender denn je geworden. Musterbeispiel dafür sind die Holländer mit ihren Deichsystemen, die
seit jeher gemäß der sich ändernden Überschwemmungsbedrohung verstärkt und angepasst wurden.
Daher wird diesem Gesetzentwurf hier prinzipiell zugestimmt. Aus Platzgründen wird auf das Eingehen
auf Einzelheiten verzichtet, weil fast unzählige Aktionsfelder beteiligt sind, stellvertretend seien nur
die landwirtschaftliche Wasserversorgung und der Hochwasserschutz in von Fluss-Überschwemmungen
gefährdeten Wohngebieten genannt.

Leider enthält der KIAnG aber sachliche Fehler, die seine Absicht und Wirkung zwar nicht maßgebend
berühren, aber dennoch korrigiert werden sollten. Der KlAnG enthält zudem auch einen gefährlichen
Mangel, auf den hier hingewiesen wird und der in einer Korrektur des Entwurfs zu berücksichtigen ist.
Zum Zweck der Platzersparnis wird in den folgenden Anmerkungen neben weiteren Quellen auch die
ausführliche Stellungnahme des Autors zur Neufassung des Klimaschutzgesetz referenziert, am Vormittag des 10.05.2021 in einer Expertenbefragung der NWR-Landesregierung behandelt. Diese Stellungnahme ist nachfolgend als NeuKL abgekürzt.

Sachliche Fehler des KlAnG:
KIAnG, Seite 2, I, 13.2:
Dort heißt es „Klimaschutz und Klimaanpassung vor Ort stärken“. Klimaschutz ist aber ein völlig sinnloser
Begriff (s. NeuKL), denn Klima – ein statistisches Mittel über mindestens 30 Jahre – kann man
nicht schützen. Zudem hat „Klimaschutz“ nicht das Geringste mit „Anpassung an Klimawandel“ zu tun
und gehört daher nicht in den Gesetzentwurf.

KIAnG, Seite 5, §1:
Hier steht „…Damit sollen die negativen Auswirkungen des Klimawandels begrenzt…“. Das ist in dieser
Formulierung falsch, denn Klimawandel hat oft genug auch ebenso viele positive Auswirkungen gehabt,
s. Grönland = Grünland, die mittelalterliche Warmzeit usw. Auch der jüngste Klimawandel hat
natürlich auch positive Auswirkungen, so sind durch die Erwärmung früher nicht geeignete Gebiete im
höheren Norden (Sibirien) jetzt zu landwirtschaftlichen Nutzflächen geworden. Es muss daher an Stelle
von „die negativen Auswirkungen“ korrekt „negative Auswirkungen“ heißen. Die gleiche Korrektur ist
auf Seite 5, §3, (1), Seite 6, §4 (5) und allen weiteren Stellen mit der Formulierung „die negativen Auswirkungen“ vorzunehmen.

KIAnG, Seite 9, Begründung, A Allgemeiner Teil, erster Satz:
Wieder heißt es „Schutz des Klimas“, der folgende Satz ist aber noch größerer sachlicher Unsinn. Es ist
leider nicht ausgemacht, dass auf Jahrhunderte bis Jahrtausende die günstige heutige Erwärmung bestehen bleibt wie im Text behauptet. Mit den Erkenntnissen der Klimawissenschaft sind die entsprechenden Aussagen vom IPCC(?) – dem Autor unbekannt, selbst das IPCC schreibt seines Wissens solch einen Unsinn nicht – jedenfalls nicht vereinbar. Jeder Klimaforscher bestätigt, dass eine neue Eiszeit vor der Tür steht, sie ist angesichts der großen Länge des warmen Holozän (ca. 9000 Jahre) bereits überfällig. Wenn die Menschheit noch ein paar 100 Jahre oder gar 1000 Jahre von der nächsten Eiszeit
verschont bleibt, wäre dies ein ausgesprochener Glücksfall. Alle weiteren Phantastereien im Text, bei
denen man sich insbesondere bei fragwürdigen Aussagen des Potsdamer Institut für Klimafolgenforschung
(PIK) bedient hat, mögen Unterhaltungswert aufweisen, als Begründung für das sehr sinnvolle
Klimaanpassungsgesetz wirken sie aber eher lächerlich und sollten besser gestrichen werden.

KIAnG, Seite. 9, B, Zu Absatz 2:
Zum 2-Grad Ziel (inzwischen sind es sogar 1,5 Grad geworden!) erlaubt sich der Autor ohne weiteren
Kommentar den bekannten Klimaforscher Prof. Dr. Heinz Miller, ehemaligen Direktor des Alfred-Wegener-
Instituts in Bremerhaven zu zitieren

Wer von Klimaschutz redet, weckt Illusionen. Klima lässt sich nicht schützen und auf einer Wunschtemperatur stabilisieren. Es hat sich auch ohne Einwirkungen des Menschen oft drastisch verändert. Schlagworte wie „Klimakollaps“ oder „Klimakatastrophe“ sind irreführend. Klima kann nicht kollabieren, die Natur kennt keine Katastrophen

Gefährlicher Mangel des KlAnG:
KIAnG, Seite 2, I:
In der hier vorgenommenen Aufzählung im Text fehlt der wohl wichtigste Punkt, der sogar zuerst genannt werden sollte. Dieser Punkt ist auch im folgenden Text des KIAnG nirgendwo explizit erwähnt. Klimawandel kann (muss aber nicht) bedeuten, dass Extremwetter wie Stürme, Starkregen etc. zunehmen. So zeichnete sich insbesondere die „kleine Eiszeit“ als Kälteperiode von ca. 1450 bis 1850 durch solche Extremwetterzunahmen aus. Sämtliche noch erhaltenen Hochwasserpegel an Europas Flüssen belegen dies [3]. Glücklicherweise waren Extremwetterzunahmen in unserer jüngsten Erwärmungsphase bislang nicht zu beobachten [4]. Extremwetter sind insbesondere für eine zuverlässige Stromversorgung gefährlich. Diese Zuverlässigkeit ist aber im heutigen Deutschland auf Grund des zunehmenden Windrad- und Photovoltaikausbaus mit fluktuierender und im Extremfall völlig fehlender Leistungsabgabe der Anlagen nicht mehr gegeben [5] (Photovoltaik nachts oder bei Wolkenbedeckung, Windräder bei Flaute).

Der Autor empfiehlt daher dringend, den Punkt „gegen Extremwetter resiliente Stromversorgung“ in das KIAnG explizit und betont mit aufzunehmen. Dazu gehört beispielsweise als wohl wichtigste Anpassungsmaßnahme, ausreichend viele grundlastfähige Kohlekraftwerke weiter in Betrieb zu belassen. Auf die Gefahren eines längerfristigen Blackouts wurde bereits an vielen Stellen hingewiesen, auch von der Bundesregierung [6]. Es wird zudem empfohlen, auch auf „S. 6, §4 unter 1., Sonstige Maßnahmen“ eine ertüchtigte und sichere Stromversorgung als robuste und gegen jede Wetter- und Klimaunbilden resiliente Stromversorgung explizit als Anpassungsmaßnahme zu nennen.

Zum Autor
Jahrgang 1943, Studium und Promotion in Physik, kernphysikalische Forschung, chemische Industrie (BASF), Professur an der HTW des Saarlandes (Physik, Informatik, OR), seit 2008 em. im Altersruhe-stand.
Verfasser eines Fachbuchs und drei Sachbüchern, Erstautor und Mitautor in 10 begutachteten Klima-fachpublikationen in Fachjournalen wie Climate of the Past der Europäischen Geophysikalischen Union oder Hydrology: regional studies (Elsevier) und weiteren, s. hierzu https://www.horstjoachimlue-decke.de/ unter „Publikationen“. Seit jüngerer Zeit anonymer Peer Reviewer bei zwei begutachteten Klimafachjournalen.

3 Historische Hochwassermarken, http://real-planet.eu/hochwasser.htm
4 IPCC, 2013. Climate Change 2013: The Physical Science Basis. Contribution of Working Group I to the Fifth Assessment Re-port of the Intergovernmental Panel on Climate Change. Cambridge and New York: Cambridge University Press. AR5, WG1, Technical summary, TS.6.3, S. 114.
5 H.-J. Lüdecke: Energie und Klima, Kapitel 3.4, expert Verlag 2020.
6 Deutscher Bundestag, Drucksache 17/5672. https://dip21.bundestag.de/dip21/btd/17/056/1705672.pdf


Dr. habil. Sebastian Lüning:

Stellungnahme zur Sachverständigen-Anhörung des Ausschusses für Wirtschaft, Energie und Landesplanung am 10. Mai 2021, Gesetzesentwurf der Landesregierung, Drucksachen 17/12976 und 17/12977, Landtag Nordrhein-Westfalen, Düsseldorf

Im Pariser Klimaabkommen von 2015 haben sich die Staaten der Erde darauf geeinigt, alles dafür zu tun, die Klimaerwärmung auf 2°C über dem Mittelwert von 1850-1900 zu begrenzen, und sogar eine Schwelle von 1,5°C nicht zu überschreiten. Auch Nordrhein-Westfalen muss hier seinen Beitrag leisten, was ein effektives Klimaschutzgesetz und gemeinsame Anstrengungen erfordert. Umso wichtiger ist ein robustes fachliches Fundament, auf dem die Klimaschutzmaßnahmen fußen. Leider enthält der Gesetzentwurf KlAnG und die damit verbundene Drucksache 17/12977 klimawissenschaftliche Mängel, die vor einer Verabschiedung des Gesetzes auf jeden Fall behoben werden sollten, um die Grundlage der gesellschaftlichen Bemühungen zu stärken.

Abschnitt „A Problem“ (Seite 1, Drucksache 17/12977)
Im Entwurf heißt es: „Stattdessen besteht die Notwendigkeit, den bereits heute spürbaren Symptomen wie u.a. häufigeren Dürephasen und Hitzewellen oder Extremwetterereigissen wie Starkregen stärker vorzubeugen,…“.
Aus dem Kontext ist zu verstehen, dass es sich hier um das Gebiet Deutschlands handeln muss. Während Hitzwellen in der Tat im Zuge der Klimaerwärmung der letzten 150 Jahre häufiger geworden sind, trift dies nicht auf Dürrephasen, Starkregen oder viele andere Extremwetterereignisse zu. Insofern ist die Aussage im Gesetzesentwurf klimawissenschaftlich nicht korrekt.

Dürrephasen
In Deutschland gibt es keinen statistisch gesicherten Trend in der Häufigkeitsentwicklung von Trockenperioden, stellte das Umweltbundesamt (UBA) in seinem ‚Monitoringbericht 2015 zur Deutschen Anpassungsstrategie an den Klimawandel‘ fest.(Umweltbundesamt, 2015) Allerdings seien ausgeprägte natürliche Schwankungen mit abwechselnden Phasen stärker und geringer ausgeprägter Trockenheit festzustellen (Umweltbundesamt, 2015). In Österreich sind die Sommer in den letzten 55 Jahren etwas feuchter geworden (ZAMG, 2020). Stellt man die Dürregeschichte des Alpenraums der letzten Jahrzehnte in den Kontext der letzten Jahrhunderte, so ist auch hier kein Langzeittrend zu erkennen (Haslinger et al., 2016). Zu den drei trockensten Sommern der letzten 500 Jahre zählen in den Alpen neben 2003 auch die Jahre 1921 und 1540 (Casty et al., 2005).

Zwar gab es zwischen 2013 und 2019 in Deutschland eine Häufung von Dürren. Aus der Sommer-Niederschlags-Statistik des Deutschen Wetterdienstes für die letzten 140 Jahre geht aber auch hervor, dass es bereits in der Vergangenheit immer wieder Serien von Dürresommern gegeben hat, zum Beispiel in den 1920er und 1980er Jahren (Abbildung 1). Langfristig hat sich die Regenmenge im Sommer in Deutschland leicht verringert.

Abb. 1: Sommerniederschläge in NRW während der letzten 140 Jahre. Quelle: DWD.

Eine kürzliche Studie auf Basis von Sauerstoff- und Kohlenstoff-Isotopen in Baumringen glaubte, dass die kürzlichen Dürren bereits den Bereich der natürlichen Schwankungsbreite der letzten 2000 Jahre verlassen hätte (Büntgen et al., 2021). Eine kurz darauf erschienene andere Studie eines breiter aufgestellten Datensatzes konnte dies jedoch nicht bestätigen. In der Studie des Alfred-Wegener-Instituts (AWI) kamen neben Dicke-Messungen von Baumringen auch historische Aufzeichnungen zu Wasserständen in Flüssen sowie meteorologische Messdaten zum Einsatz (Ionita et al., 2021). Laut AWI bewegten sich die Dürresommer der letzten Jahre noch vollständig innerhalb der Grenzen der natürlichen Klima-Variabilität. Ähnlich extreme Dürreperioden gab es mehrfach auch in der vorindustriellen Vergangenheit. Die ausgeprägtesten Dürren in Mitteleuropa ereigneten sich von 1400 bis 1480 sowie 1770 bis 1840 zu Zeiten einer reduzierter Sonnenaktivität.
Auch eine kürziche Studie zur Dürre-Historie Westeuropas für die vergangenen 170 Jahre anhand von Wetter-Stations-Daten konnte keinen statistisch signifikanten Langzeit-Trend bei den Dürren ausmachen, dafür aber starke Schwankungen (Vicente-Serrano et al., 2021).

Starkregen und Überschwemmungen
Seit 1951 hat sich die Häufigkeit von Starkniederschlag in Deutschland von mehr als 30 mm nur geringfügig erhöht (DWD, 2014). Die Veränderung ist aus statistischer Sicht jedoch insignifikant, so dass kein belastbarer Langzeittrend ausgemacht werden kann. Die Zeitreihe moderner Radardaten zum Starkregen ist leider noch zu kurz, um aussagekräftige Trends interpretieren zu können (DWD, 2016). Auch das Umweltbundesamt konnte in seinem Monitoringbericht 2015 zum Klimawandel keine belastbaren Trends zu Starkniederschlägen in Deutschland finden (Umweltbundesamt, 2015). Die Zahl der Tage mit einer Niederschlagssumme von 20 mm und mehr im Sommer ist seit 1951 nahezu unverändert geblieben. Im Winter ist der entsprechende Index (Flächenmittel der maximalen 5-Tagessumme der Niederschläge) zwar leicht angestiegen, wobei der Anstieg aufgrund der starken Variabilität von Jahr zu Jahr statistisch nicht signifikant ist.
Klimarekonstruktionen dokumentieren eine hohe natürliche Variabilität der Hochwasserhäufigkeit in Deutschland während der vergangenen Jahrhunderte. Studien zeigen, dass Hochwasser in Mitteleuropa in den vergangenen 500 Jahren nicht häufiger geworden ist (Der Spiegel, 2013; Schmocker-Fackel and Naef, 2010). Dasselbe gilt auch für Gesamteuropa und die letzten 50 Jahre (Blöschl et al., 2017). Auf der 7. Deutschen Klimatagung im Oktober 2006 stellten Manfred Mudelsee und Gerd Tetzlaff Studienergebnisse vor, die auch für Deutschland keine Zunahme der Hochwasserereignisse sahen (Mudelsee and Tetzlaff, 2006). Weil immer mehr Menschen an die Ufer zogen, stiegen aber die Schäden durch Hochwasser. Zieht man diesen Wertzuwachs-Effekt ab, zeigt sich Berechnungen zufolge keine ungewöhnliche Zunahme in den vergangenen Jahrzehnten (Barredo, 2009; Paprotny et al., 2018; TU Delft, 2018).

Abschnitt „§ 9 Monitoring“ (Seite 8, Drucksache 17/12977)
Ein fortlaufendes wissenschaftliches Monitoring is ausdrücklich zu begrüßen. Dies sollte auf jeden Fall auch die klimawissenschaftlichen Trends beinhalten. Neben einer gewissenhaften Auswertung der Messdaten der letzten 150 Jahren ist auch eine verstärkte Auseinandersetzung mit der vorindustriellen Klimaentwicklung Nordrhein-Westfalens für die vergangenen Jahrtausende notwendig. Denn diese vorindustriellen Klimaschwankungen der letzten zwei bis zehn Millennia bilden den eigentlichen vorindustriellen Kontext der natürlichen Klimaentwicklung, stellen also das natürliche Basisniveau („baseline“) dar, gegen das die heutigen Entwicklungen verglichen werden müssen. Der IPCC ist sich sehr wohl darüber bewusst, dass das derzeit verwendete „vorindustrielle“ Vergleichsniveau 1850-1900 am Ende der Kleinen Eiszeit im Vergleich zur Gesamtheit der letzten Jahrtausende deutlich zu kalt ist (Lüning, 2021; Lüning and Vahrenholt, 2017). In den folgenden zwei Absätzen wird die klimahistorische Entwicklung NRWs und Mitteleuropas kutz zusammengefasst, als das 1,5-Grad-Ziel bereits mehrfach auf natürliche Weise zumindest lokal überschritten wurde.

Temperaturentwicklung der letzten 1000 Jahre
Die Moderne Wärmephase ist nicht die einzige Erwärmungsperiode in der nacheiszeitlichen Klimageschichte. Bereits im Mittelalter vor 1000 Jahren ereignete sich eine Warmphase, die besonders gut aus dem nordatlantischen Raum bekannt ist, aber auch in vielen Regionen der restlichen Welt ausgeprägt war, z.B. in Afrika (Lüning et al., 2017), Antarktis (Lüning et al., 2019b), Südamerika (Lüning et al., 2019a) und Ozeanien (Lüning et al., 2020). So wurde die Mittelalterliche Wärmeperiode (MWP) bzw. Mittelalterliche Klimaanomalie (MCA) auch aus dem NRW-Nachbarland Rheinland-Pfalz (RP) beschrieben. Moschen et al. (2011) rekonstruierten die Temperaturgeschichte anhand von Kohlenstoffisotopen in einem Torfkern aus dem Dürren Maar. Dabei fanden sie eine Erwärmung von mehr als 5°C im Übergang der Kälteperiode der Völkerwanderungszeit (500-700 n. Chr.) zur MWP (Abbildung 2). In diesem Zusammenhang traten offenbar starke Erwärmungsschübe auf, bei denen die Temperaturen auf natürliche Weise innerhalb weniger Jahrzehnte um mehrere Grad nach oben schnellten. Insofern scheint weder das heutige Temperaturniveau, noch die heutige Erwärmungsrate im Raum NRW-RP im historischen Kontext beispiellos zu sein.

Abb. 2: Temperaturentwicklung des Dürren Maar (Eifel) während der letzten 2000 Jahre basierend auf einer Temperaturrekonstruktion anhand von Zellulose-Kohlenstoffisotopen eines Torfkerns. Nullpunkt der Temperatur-Anomalieskala liegt etwas über dem Temperaturdurschnitt der letzten 2000 Jahre (Kleine Eiszeit fehlt). Linke Kurve: Ungeglättete Daten. Rechte Kurve: Gleitender Mittelwert über 60 Jahre. Daten digitalisiert von Moschen et al. (2011).

Temperaturentwicklung der letzten 10.000 Jahre
Erweitert man den Referenzzeitraum auf die letzten 10.000 Jahre, so wird klar, dass es eine ganze Reihe von Warm- und Kältephasen in vorindustrieller Zeit gegeben hat. In der Wissenschaft wird hier von klimatischen Millenniumszyklen gesprochen, da sich die Änderungen im Takt von 1000-2000 Jahren ereigneten. Die Zyklen sind aus allen Erdteilen beschrieben worden (Lüning and Vahrenholt, 2016) und könnten zumindest einen Teil ihres Antrieb aus der schwankenden Sonnenaktivität beziehen (Bond et al., 2001). Andere Forscher nehmen einen klimasysteminternen Puls an.
Eine derartige Millenniumszyklik wurde auch in der sauerländischen Bunkerhöhle von Fohlmeister et al. (2012) nachgewiesen. Rhythmische Änderungen in den Sauerstoffisotopen- in Tropfsteinen zeigen über die vergangenen 11.000 Jahre einen fortlaufenden natürlichen Klimawandel, bei dem das System zwischen warm/feucht und kalt/trocken schwankte (Abb. 3). Der Wechsel zwischen der Kältephase der Völkerwanderungszeit, MWP und Moderner Wärmeperiode ist in der Höhlenrekonstruktion gut erkennbar.

Abb. 3: Natürliche Klimaschwankungen im Sauerland während der vergangenen 11.000 Jahre, rekonstruiert auf Basis von Sauerstoffisotopenschwankungen (δ18O) von Tropfsteinen der Bunkerhöhle. Einheit in Promille der Sauerstoffisotope. CWP=Moderne Wärmeperiode (Current Warm Period), MWP=Mittelalterliche Wärmeperiode, DACP=Kälteperiode der Völkerwanderungszeit (Dark Ages Cold Period), RWP=Römische Wärmeperiode. Alterskala zeigt Jahre vor 1950 (Years BP, before ‚present‘=1950). Daten von Fohlmeister et al. (2012), heruntergeladen von https://www.ncdc.noaa.gov/paleo/study/20589

Eine besonders warme Phase stellte das sogenannte Holozäne Thermische Maximum (HTM) dar, das sich in der Zeit 8000-5500 Jahre vor heute ereignete. Kühl and Moschen (2012) rekonstruierten die Temperaturen dieser Klimaepisode für das Dürre Maar anhand von Pollen. Es zeigte sich, dass die Temperaturen in der Eifel damals um mehr als ein Grad über dem heutigen Wärmeniveau lagen (1990-2017), bzw. fast zwei Grad, wenn man das kühlere Referenzintervall 1961-1990 zum Maßstab nimmt. Die Juli-Temperaturen der Eifel lagen während des HTM bei 18,0-18,5°C, wohingegen an der nächstgelegenen Wetterstation Manderscheid im DWD-Referenzintervall 1961-1990 ein Juli-Durchschnittswert von 16,3°C gemessen wurde (Kühl and Moschen, 2012).
Das Fachgebiet der Paläoklimatologie hat in den letzten 15 Jahren große Fortschritte gemacht, und es wurde in der ganzen Welt eine Vielzahl von neuen lokalen Temperaturrekonstruktionen erstellt. Die regionale und überregionale Synthese dieser Daten hinkt dabei allerdings noch etwas hinterher. So gibt es bis heute noch immer keine robuste globale Temperaturrekonstruktion für die vergangenen 10.000 Jahre, bei der sowohl Land- als auch Meerstemperasturen integriert sind. Die vielzitierte Kurve von Marcott et al. (2013) stützt sich fast ausschließlich auf Meerestemperaturen, deren Temperaturänderung jedoch aufgrund der thermischen Trägheit der Ozeane sehr viel weniger stark ausfällt als an Land. Eine globale Temperaturrekonstruktion für die letzten 2000 Jahre durch das PAGES 2k Consortium (2013) fand, dass es in der Zeit 1-600 n. Chr. offenbar bereits mehrfach mindestens genauso warm gewesen ist wie heute. Allerdings ist auch hier noch mit Änderungen zu rechnen, da die Rekonstruktion stark auf Baumringdaten setzt, die in vielen Fällen aus unveröffentlichten und nichtbegutachteten Quellen stammen. Zudem scheinen in die Mittelwerte auch andere ungeeignete Daten eingearbeitet worden zu sein (Beispiel Afrika: Lüning et al., 2017). Insofern sollte hier zunächst verstärkt auf verlässlichere lokale Temperaturserien wie die Bunkerhöhle und das Dürre Maar gesetzt werden, bis in Zukunft hoffentlich bald verbesserte globale Temperaturkurven verfügbar werden.

Problematische Klimamodelle
Die Klimaprognosen bis zum Jahr 2100 basieren auf theoretischen Klimasimulationen. Für den in Kürze erscheinenden 6. Klimazustandsbereicht (AR6) des IPCC wurden von den führenden Instituten der Welt neue Klimamodelle (CMIP 6) erstellt, die dem CO2 eine noch stärkere Erwärmungsfähigkeit zugemessen haben als zuvor. Allerdings stellte sich schnell heraus, dass der Großteil der CMIP 6-Modelle grundlegende Fehler enthielt, so dass die mit ihnen errechneten Prognosen wohl kaum belastbar sind.
Im Dezember 2019 warnte eine Gruppe um den IPCC-Autor Piers Forster von der University of Leeds explizit, dass die überhöhten Klimasensitivitäts-Werte der neuen Klimamodelle nicht in Einklang mit den Messwerten stehen und sich daher wohl letztendlich als falsch erweisen werden (Forster et al., 2020). Im Laufe des Jahres 2020 erschienen weitere Publikationen, die eine geringere Erwärmungswirkung des CO2 unterstützten (Glassmeier et al., 2021). Im Februar 2021 veröffentlichte eine Forscherguppe der Princeton University und der University of eine weitere Studie, die den überhöhten CO2-Klimasensitivitäten der CMIP6-Modelle eine Absage erteilt (Wang et al., 2021). Der für die zukünftig zu erwartende Erwärmung wichtige Wert der „CO2-Klimasensitivität“ ist noch immer nur sehr ungenau bekannt. Die vom IPCC (AR5) angegebene Spanne reicht von 1,5°C bis 4,5°C Erwärmungswirkung pro CO2-Verdopplung, also eine mit Faktor 3 behaftete Unsicherheit.
Das im Gesetzesentwurf festgeschriebene Klimamonitoring sollte auch die Entwicklungen in diesem Aspekt detailliert verfolgen, da das notwendige Tempo der Dekarbonisierung von einer hoffentlich bald genaueren Einschätzung der CO2-Klimasensitivität beeinflusst wird. Aufgrund der zu erwartenden enormen Kostensteigerungen für Energie, Zement und andere direkt oder indirekt mit der CO2-Besteuerung verbundenen Lebensbereichen, muss die Politik einen gesunden Mittelweg zwischen Klimaschutz, Innovation sowie wirtschaftlicher und sozialer Nachhaltigkeit finden. Subventionen und planwirtschaftliche Elemente sind nur für eine relativ kurze Übergangszeit finanzierbar. Politische Planer sollten den Bürgern die Gesamtkosten des Projekts „Energiewende“ transparent mitteilen und darauf hinweisen, dass Klimaschutz nicht umsonst zu haben ist. Mittlerweile hat Deutschland den höchsten Strompreis der Erde, wobei mit weiteren Preisteigerungen gerechnet wird. Eine Teilfinanzierung der EEG-Umlage aus Steuermitteln belastet letztendlich auch wieder den Stromkunden, diesmal als Steuerzahler. Unter diesem Hintergrund sollte die Geschwindikeit der Dekarbonisierung in der Tat regelmäßig auf die klimatische, wirtschaftliche und soziale Verträglichkeit hin überprüft werden, da ansonsten die Unterstützung des Projekts durch die Öffentlichkeit schnell verloren werden könnte.
Empfehlungen

• Das Thema der vorindustriellen natürlichen Klimavariabilität darf kein Tabu-Thema bleiben. Auch die Klimadiskussion kann aus der Geschichte lernen, muß klimahistorische Fakten anerkennen und einbeziehen.
• Behörden, Politiker und Forscher müssen die enorme natürliche Klimavariabilität der vorindustriellen Zeit aktiv kommunizieren. Die Klimageschichte beginnt nicht erst am Ende der Kleinen Eiszeit um 1880.
• Geignete Maßnahmen sollten ergriffen werden, um die CO2-Klimasensitivität und die damit verbundenen natürlichen und anthropogenen Anteile der Erwärmung der letzten 150 Jahre endlich enger einzugrenzen. Die aktuelle große Spannbreite stellt keine robuste Planungsgrundlage für weitreichende Änderungen der Industriestruktur dar.

Zur Person
Dr. habil. Sebastian Lüning (www.luening.info) studierte Geologie/Paläontologie an der Universität Göttingen. Seine Promotion und Habilitation in diesem Fach erhielt er an der Universität Bremen. Für Vordiplom, Doktorarbeit und Habilitation erhielt Lüning jeweils Studienpreise. Während seiner Postdoc-Zeit arbeitete er zu ökologischen Sauerstoffmangelsituationen in der Erdgeschichte. Seit 2007 ist Lüning hauptberuflich in der Energiebranche tätig, aktuell mit Schwerpunkt im Bereich der Energiewende. Die Teilnahme an dieser Anhörung und die Beschäftigung mit dem Thema Klimawandel erfolgt ausschließlich in privater Funktion, in Fortsetzung seiner langjährigen Vollzeit-Forschertätigkeit. Diese Forschung ist vollständig unabhängig und wurde weder von der Industrie beauftragt noch von ihr gefördert.

Im Jahr 2020 veröffentlichte Lüning zusammen mit Fritz Vahrenholt das Buch „Unerwünschte Wahrheiten – Was Sie über den Klimawandel wissen sollten“. Sebastian Lüning ist mit dem Institut für Hydrographie, Geoökologie und Klimawissenschaften (IFHGK) in der Schweiz assoziiert und wirkte als offizieller Gutachter an den IPCC-Sonderichten zum 1,5 Grad-Ziel und zu Ozeanen/Kryosphäre mit. Zudem war Lüning auch als Gutachter am 6. Klimazustandsbericht des IPCC beteiligt.

Literatur
Barredo, J. I., 2009, Normalised flood losses in Europe: 1970–2006: Nat. Hazards Earth Syst. Sci., v. 9, no. 1, p. 97-104.
Blöschl, G., Hall, J., Parajka, J., Perdigão, R. A. P., Merz, B., Arheimer, B., Aronica, G. T., Bilibashi, A., Bonacci, O., Borga, M., Čanjevac, I., Castellarin, A., Chirico, G. B., Claps, P., Fiala, K., Frolova, N., Gorbachova, L., Gül, A., Hannaford, J., Harrigan, S., Kireeva, M., Kiss, A., Kjeldsen, T. R., Kohnová, S., Koskela, J. J., Ledvinka, O., Macdonald, N., Mavrova-Guirguinova, M., Mediero, L., Merz, R., Molnar, P., Montanari, A., Murphy, C., Osuch, M., Ovcharuk, V., Radevski, I., Rogger, M., Salinas, J. L., Sauquet, E., Šraj, M., Szolgay, J., Viglione, A., Volpi, E., Wilson, D., Zaimi, K., and Živković, N., 2017, Changing climate shifts timing of European floods: Science, v. 357, no. 6351, p. 588-590.
Bond, G., Kromer, B., Beer, J., Muscheler, R., Evans, M. N., Showers, W., Hoffmann, S., Lotti-Bond, R., Hajdas, I., and Bonani, G., 2001, Persistent Solar Influence on North Atlantic Climate During the Holocene: Science, v. 294, p. 2130-2136.
Büntgen, U., Urban, O., Krusic, P. J., Rybníček, M., Kolář, T., Kyncl, T., Ač, A., Koňasová, E., Čáslavský, J., Esper, J., Wagner, S., Saurer, M., Tegel, W., Dobrovolný, P., Cherubini, P., Reinig, F., and Trnka, M., 2021, Recent European drought extremes beyond Common Era background variability: Nature Geoscience, v. 14, no. 4, p. 190-196.
Casty, C., Wanner, H., Luterbacher, J., Esper, J., and Böhm, R., 2005, Temperature and precipitation variability in the European Alps since 1500: International Journal of Climatology, v. 25, no. 14, p. 1855-1880.
Der Spiegel, 2013, Zehn Fakten zur Flut: 6.6.2013, https://www.spiegel.de/wissenschaft/natur/hochwasser-fakten-zur-flut-an-fluessen-elbe-rhein-donau-a-904232.html.
DWD, 2014, Deutscher Wetterdienst zum neuen Bericht des Weltklimarats (IPCC): Auch Deutschland benötigt Empfehlungen zur Anpassung an den Klimawandel: https://www.dwd.de/DE/klimaumwelt/klimawandel/_functions/aktuellemeldungen/140331_ipcc_bericht.html.
-, 2016, Starkregenrisiko in Städten kann jetzt besser eingeschätzt werden: https://www.dwd.de/DE/klimaumwelt/klimawandel/_functions/aktuellemeldungen/160308_dwd_klima_pk.html.
Fohlmeister, J., Schröder-Ritzrau, A., Scholz, D., Spötl, C., Riechelmann, D. F. C., Mudelsee, M., Wackerbarth, A., Gerdes, A., Riechelmann, S., Immenhauser, A., Richter, D. K., and Mangini, A., 2012, Bunker Cave stalagmites: an archive for central European Holocene climate variability: Climate of the Past, v. 8, p. 1751-1764.
Forster, P. M., Maycock, A. C., McKenna, C. M., and Smith, C. J., 2020, Latest climate models confirm need for urgent mitigation: Nature Climate Change, v. 10, p. 7-10.
Glassmeier, F., Hoffmann, F., Johnson, J. S., Yamaguchi, T., Carslaw, K. S., and Feingold, G., 2021, Aerosol-cloud-climate cooling overestimated by ship-track data: Science, v. 371, no. 6528, p. 485-489.
Haslinger, K., Schöner, W., and Anders, I., 2016, Future drought probabilities in the Greater Alpine Region based on COSMO-CLM experiments – spatial patterns and driving forces: Meteorologische Zeitschrift, v. 25, no. 2, p. 137-148.
Ionita, M., Dima, M., Nagavciuc, V., Scholz, P., and Lohmann, G., 2021, Past megadroughts in central Europe were longer, more severe and less warm than modern droughts: Communications Earth & Environment, v. 2, no. 1, p. 61.
Kühl, N., and Moschen, R., 2012, A combined pollen and δ18OSphagnum record of mid-Holocene climate variability from Dürres Maar (Eifel, Germany): The Holocene, v. 22, no. 10, p. 1075-1085.
Lüning, S., 2021, IPCC SROCC Bericht: Was ist aus meinen Gutachterkommentaren geworden?, https://www.youtube.com/watch?v=NhgeeqJ8KrE&t=304s: Klimaschau 23.
Lüning, S., Gałka, M., Bamonte, F. P., Rodríguez, F. G., and Vahrenholt, F., 2019a, The Medieval Climate Anomaly in South America: Quaternary International, v. 508, p. 70-87.
Lüning, S., Gałka, M., García-Rodríguez, F., and Vahrenholt, F., 2020, The Medieval Climate Anomaly in Oceania: Environmental Reviews, v. 28, no. 1, p. 45-54.
Lüning, S., Gałka, M., and Vahrenholt, F., 2017, Warming and Cooling: The Medieval Climate Anomaly in Africa and Arabia: Paleoceanography, v. 32, no. 11, p. 1219-1235.
-, 2019b, The Medieval Climate Anomaly in Antarctica: Palaeogeography, Palaeoclimatology, Palaeoecology, v. 532, p. 109251.
Lüning, S., and Vahrenholt, F., 2016, The Sun’s Role in Climate, Chapter 16 in „Evidence-Based Climate Science“ (Second Edition), Elsevier, p. 283-305.
Lüning, S., and Vahrenholt, F., 2017, Paleoclimatological Context and Reference Level of the 2°C and 1.5°C Paris Agreement Long-Term Temperature Limits: Frontiers in Earth Science, v. 5, no. 104.
Marcott, S. A., Shakun, J. D., Clark, P. U., and Mix, A. C., 2013, A Reconstruction of Regional and Global Temperature for the Past 11,300 Years: Science, v. 339, no. 6124, p. 1198-1201.
Moschen, R., Kühl, N., Peters, S., Vos, H., and Lücke, A., 2011, Temperature variability at Dürres Maar, Germany during the Migration Period and at High Medieval Times, inferred from stable carbon isotopes of Sphagnum cellulose: Clim. Past, v. 7, p. 1011-1026.
Mudelsee, M., and Tetzlaff, G., 2006, Hochwasser und Niederschlag in Deutschland: Die Notwendigkeit von Langfristbeobachtungen unter räumlicher Hochauflösung: 6. Deutsche Klimatagung, München, https://www.manfredmudelsee.com/publ/abstr-pdf/Hochwasser-Niederschlag-Deutschland-Mudelsee-Tetzlaff-2006-7DKT.pdf.
PAGES 2k Consortium, 2013, Continental-scale temperature variability during the past two millennia: Nature Geosci, v. 6, no. 5, p. 339-346.
Paprotny, D., Sebastian, A., Morales-Nápoles, O., and Jonkman, S. N., 2018, Trends in flood losses in Europe over the past 150 years: Nature Communications, v. 9, no. 1, p. 1985.
Schmocker-Fackel, P., and Naef, F., 2010, Changes in flood frequencies in Switzerland since 1500: Hydrol. Earth Syst. Sci., v. 14, no. 8, p. 1581-1594.
TU Delft, 2018, No increase in losses in Europe from floods in the past 150 years: 31.5.2018, https://www.tudelft.nl/en/2018/tu-delft/no-increase-in-losses-in-europe-from-floods-in-the-past-150-years/.
Umweltbundesamt, 2015, Monitoringbericht 2015 zur Deutschen Anpassungsstrategie an den Klimawandel, Dessau-Roßlau.
Vicente-Serrano, S. M., Domínguez-Castro, F., Murphy, C., Hannaford, J., Reig, F., Peña-Angulo, D., Tramblay, Y., Trigo, R. M., Mac Donald, N., Luna, M. Y., Mc Carthy, M., Van der Schrier, G., Turco, M., Camuffo, D., Noguera, I., García-Herrera, R.,
Becherini, F., Della Valle, A., Tomas-Burguera, M., and El Kenawy, A., 2021, Long-term variability and trends in meteorological droughts in Western Europe (1851–2018): International Journal of Climatology, v. 41, no. S1, p. E690-E717.
Wang, C., Soden, B. J., Yang, W., and Vecchi, G. A., 2021, Compensation Between Cloud Feedback and Aerosol-Cloud Interaction in CMIP6 Models: Geophysical Research Letters, v. 48, no. 4, p. e2020GL091024.
ZAMG, 2020, Klimamonitoring: https://www.zamg.ac.at/cms/de/klima/klima-aktuell/klimamonitoring/.




Ein Leuchtturm ohne Licht

Der „Prototype-Demonstrator“

Dieser Name wurde dem etwas flug-unwilligen elektrischen  Lufttaxi aus Bayern gegeben.

Man hätte diese Maschine nicht bauen müssen, um zu erkennen, dass sie nicht funktioniert.  Seit einem Jahrhundert entwickelt man Flugzeuge und Helikopter und weiß recht gut, wie Gewicht, Geschwindigkeit, Reichweite und Antrieb zusammenhängen. Man weiß auch, wie schwer Batterien sind und kann dann berechnen, wie weit so ein Lufttaxi bestenfalls fliegt. So etwas lernen Ingenieure im Studium. Die können auf Papier oder am Computer zeigen, dass so ein Insekt nicht lange in der Luft bleibt – wenn überhaupt.

Solcher Kritik wird oft mit der Formel begegnet:

„Fortschritt hat seinen Preis. Wären die Gebrüder Wright damals keine Risiken eingegangen, dann gäbe es heute keine Luftfahrt.“ Und: „Es hat schon immer völlig unverhoffte Erfindungen gegeben, die dann alle Bedenkenträger lügen straften. Vielleicht gibt es ja demnächst elektrische Speicher, die nur einen Bruchteil der heutigen Batterien wiegen.“

Mein Vorschlag: dann lasst uns mit dem Bau des Prototypen so lange warten, bis die Dinger erfunden sind.

Ein Leuchtturm auf der Ruhr

Nun zu einem Streich, wie aus Schilda, der Stadt der Schildbürger. Er zeichnet sich nicht durch seine Kosten aus, seine Unlogik aber ist rekordverdächtig. Tatsächlich hat er sich in Essen zugetragen, dort wo sich die Ruhr zwischen Schellenberger Wald und Fischlaken auf einen halben Kilometer zu einem richtigen See verbreitert, dem Baldeneysee. Wie auf jedem richtigen See gibt es auch dort eine Fähre. So weit, so gut.

Nun muss man wissen, dass die Stadt Essen am 21. Januar 2017 zu „Europe’s Green Capital“ gekürt wurde und dass besagte Fähre, wie die meisten Schiffe dieser Welt, von einem bösen Dieselmotor angetrieben wird. Der musste jetzt weg.

Man baute also einen Elektromotor ein, der seinen Strom aus Brennstoffzellen an Bord beziehen sollte. Brennstoffzellen, das sind diese Vorrichtungen, in denen bei einer chemischen Reaktion – typischerweise von Wasserstoff (H2) mit Sauerstoff (O2) – Elektrizität gewonnen wird.

Im August 2017 war das Schiff umgerüstet und wurde feierlich auf den neuen Namen MS Innogy getauft; mit viel Prominenz und Zeremoniell wurde das neue Zeitalter des Fährverkehrs eingeläutet. Die obligatorischen grünen Testbausteine durften bei den feierlichen Ansprachen nicht fehlen, darunter die Bezeichnung „Leuchtturmprojekt“.

Die Fähre erfreute sich großer Beliebtheit beim Publikum; sie verbreitete weder Rauch noch Lärm und übertraf alle Erwartungen. 2021 aber war die Fähre wieder auf den alten Diesel umgestellt, der Leuchtturm machte sein Licht aus. Dieser Akt allerdings spielte sich ohne Prominenz und Zeremoniell ab.

Was war geschehen?

Der gute alte Adam Riese

Um das zu verstehen müssen wir in die Technik einsteigen. Das wird langwierig und kompliziert, aber genau daran ist die Sache auch gescheitert. Bleiben Sie also dran.

Da war also dieser Elektromotor, der die Schraube der Fähre antreibt. Seinen Strom bekam er aus sieben Brennstoffzellen, von denen jede fünf Kilowatt lieferte. Man hatte also 7 x 5 = 35 kW um den Motor zu speisen. Der konnte dann auch nicht mehr leisten als 35 kW oder rund 50 PS.

Das Schiff hat eine Länge von 29 Metern und kann bis zu 200 Personen an Bord nehmen. Ich weiß nicht, welches Auto Sie fahren, lieber Leser, aber ich vermute, es hat mehr als 50 PS, ist aber keine 29 m lang. Irgendwie passen Leistung und Dimension bei der Fähre nicht ganz zusammen, auch wenn die nicht so flott unterwegs ist, wie Sie in Ihrem Flitzer. Eine Fähre, auf der ich kürzlich war, hatte sechs Passagiere an Bord, drei Mann Besatzung und mindestens 200 PS. Damit ging’s über den Sambesi.

Auf  der Innogy waren dann auch noch Batterien mit insgesamt 100 kWh Kapazität installiert, die mithalfen, wenn die Brennstoffzellen alleine es nicht schafften. Falls die aus Blei waren, dann brachten sie immerhin ein paar Tonnen Gewicht mit an Bord. Und weiterhin an Bord war der böse alte 250 PS Schiffsdiesel von Volvo.

Ich kann mich des Eindrucks nicht erwehren, dass die umweltfreundlichen Brennstoffzellen nur ein modisches grünes Accessoire waren, das davon ablenken sollte, dass der Antrieb tatsächlich von Batterien kam, die nachts an der Steckdose aufgeladen wurden, bzw. vom Diesel, der einsprang, wenn die Akkus leer waren.

Der Holzgeist schiebt an

Die Brennstoffzellen wurden übrigens mit Methanol betrieben. Sie fragen jetzt, was der alte „Holzgeist“, in einer Brennstoffzelle zu suchen hat, die läuft doch mit Wasser- und Sauerstoff. Ja, aber die funktioniert auch mit Methanol, das mit dem Sauerstoff der Luft reagiert, wobei Wasser und CO2 entstehen – und eben auch elektrischer Strom.

Und wieder protestieren Sie jetzt, denn wenn da CO2 entsteht, dann ist das Ganze doch nicht grün! Dann könnte man doch gleich den Diesel anwerfen. Ihr Einwand beantwortet sich, wenn wir uns die Herstellung des Methanols anschauen. Das wird in einer chemischen Reaktion zwischen Wasserstoff und CO2 erzeugt. Das besorgt eine kleine chemische Fabrik an der Anlegestelle.

Und wo soll der Wasserstoff herkommen? Der wird durch Elektrolyse gewonnen, wobei der Strom dafür aus der Steckdose kommt. Und woher kommt das CO2, das man für die Synthese des Methanols braucht? Das wird aus der Luft gewonnen. Für ein kg CO2 werden da rund 2000 kg Luft durch einen Filter gepresst. Und die Pumpen dafür? Die kriegen ihren Strom auch aus der Steckdose. Das CO2, das der Luft so entzogen wurde, kompensiert das CO2, welches später von der Brennstoffzelle ausgeschieden wird.

Kompliziert, aber Grün

Weil das Ganze so absurd ist zähle ich Ihnen noch einmal die einzelnen Schritte auf, wie der Strom in den Motor kommt:

– Das Netz beliefert die Steckdose einer kleinen Fabrik an Fluß mit mehr oder weniger grünem Strom.

– Durch Elektrolyse wird dort Wasserstoff (H2) erzeugt.

– Pumpen und Filter gewinnen das Spurengas CO2 aus der Luft, in der es mit o,o4%  vorkommt.

– Aus H2 und CO2 wird Methanol (H3COH) gemacht.

– Das Methanol geht per Kanister an Bord der Fähre.

– In den Brennstoffzellen an Bord wird aus Methanol und Luftsauerstoff der Strom für den Elektromotor erzeugt. Das CO2, das hier freigesetzt wird, wurde vorher der Luft entnommen. Dieser Trick also macht den Prozess „nachhaltig“.

Das sind viele Schritte, um aus Strom wieder Strom zu machen, und bei jedem Schritt geht etwas verloren. Wenn wir Glück haben, dann werden von einer Kilowattstunde aus der Steckdose letztlich 10% in den Motor gefüttert.

Gut gemeint ist bekanntlich das Gegenteil von gut. Die Produktion von Holzgeist hat dann nicht wie geplant hingehauen und man hat das Zeug aus Island importiert. Damit wurde aber in Essen kein CO2 mehr aus der Luft gesaugt und die ganze Rechnung stimmte nicht mehr. Man tröstete sich damit, dass sie Isländer das jetzt machten.

Damit wurde die Story aber auch für den hartgesottensten Grünen zu absurd und man warf das Handtuch. Die Fähre tuckert jetzt wieder mit dem alten Diesel und die Isländer können ihr Methanol selbst verbraten.

Das Gegenteil von gut

Nun, es wäre falsch bei einem misslungenen Projekt Schadenfreude zu zeigen. Ein gescheitertes Experiment ist prinzipiell mehr wert, als gar kein  Experiment. Immerhin wissen wir jetzt, dass es so nicht geht. Irgendwo aber hätte der gesunde Menschenverstand einsetzen müssen, und der hätte schon früh erkannt, dass das komplizierte Verfahren total unwirtschaftlich ist und keinerlei Einsparung an CO2 bringen würde.

In unserer postmodernen grünen Gesellschaft aber herrscht die Logik des Kindergartens: jeder Beitrag zählt, egal wie klein; auf die gute Absicht kommt es an, nicht auf das Ergebnis; Wirtschaftlichkeit spielt ohnehin keine Rolle.

Welches Ziel aber haben unsere Stakeholder bei diesem Leuchtturmprojekt tatsächlich verfolgt? Ich habe da eine Idee: Die einen wollten als umweltbewusste Entscheidungsträger im Rampenlicht stehen, die anderen wollten Geld aus der öffentlichen Hand. Beide haben ihr Ziel erreicht, und die Bürger, die das Spektakel finanzierten, haben dazu geklatscht.

Dieser Artikel erschien zuerst im Blog des Autors Think-Again. Sein Bestseller „Grün und Dumm“ ist bei Amazon erhältlich.




Kritische Betrachtung der Gegen­strahlung, ihre Messung und ihre Bedeutung in der Treibhaus­hypothese der aktuellen Klima­wissenschaft

Die Modellierung von Kiehl und Trenberth 1997 wirft aber auch zahlreiche Fragen auf. Es gibt doch deutliche Abweichungen zwischen den Satelliten Messwerten und dem vom Modell KT97 errechneten Werten. Diesen versuchten Trenberth, Fasullo und Kiehl 2009 1 entgegenzutreten. Hierbei wurde 2009 gleichzeitig der hypothetische Rechenwert der Gegenstrahlung auf 333 W/m² angehoben. Letzte Zweifel an ihrem Satellitenabgleich blieben wohl aber auch 2012 für Norman Loeb (NASA) bei seinem weltweiten Vergleich von 14 Instituten eingesetzten 22 CMIP5-/IPCC AR5 Klimamodellen bestehen. Norman Loeb schrieb: „In the present study, we do not only rely on satellite observations, but make extensive use of the information contained in radiation measurements taken from the Earth surface, to provide direct observational constraints also for the surface fluxes.” 2 Es wurde mit Pyranometer und Pyrheliometer gemessen. “…and the diffuse shortwave flux (measured with a shaded pyranometer). A pyranometer measures the total incoming solar radiation in the wavelengths between 0.3 and 2.8 µm. Datasets from both measurement methods are used in this study.” Die Gegenstrahlung der neuen CMIP5-Modellgeneration beträgt 2012 342 W/m² 4 im Gegensatz zu 324 W/m² bei KT97.

Es ist deshalb erforderlich, die Technik der Messung der Gegenstrahlung dieser Geräte genauer zu betrachten. Der nun folgende Teil entstammt Kapitel 4.24 „Die Strahlungsmessung der Gegenstrahlung“ aus, Agerius, 2021, Kritischer Analyse zur globalen Klimatheorie – Erweiterung, Vertiefung, Prognose, 2. überarbeitete Auflage, Hamburg, ISBN 978-3-347-24749-9. 16

Bevor man diese Messgeräte genauer betrachtet, die die Gegenstrahlung aus einem Algorithmus errechnen, müssen die Wellenlängen des Sonnenlichts, ihre Strahlenflussdichte und ihr Anteil an der Gesamtstrahlung hierzu betrachtet werden. Sie fließen in den Algorithmus ein.

Für einen mittleren Erdabstand von 1496 106 m und einer Solarkonstante von 1367 W/m² gilt:

Tabelle 6 Spektralverteilung der extraterrestrischen solaren Strahlung, gemäß der World Meteorological Organisation, WMO, 1986 3

Die Gegenstrahlung (Back Radiation) wird auch gelegentlich auch als thermische Wärmestrahlung bezeichnet. Sie wäre bezüglich ihrer Wellenlänge langwellig. Verschiedene Messinstrumente zur Messung von lang- und kurzwelliger Strahlung wie Pyranometer (Messung der kurzwelligen Strahlung von Sonne, Himmel und der vom Erdboden reflektierten Strahlung), Infrarot-Pyranometer (Messung von langwelliger Strahlung), Pyrheliometer, Pyrradiometer und Pyrgeometer4 wurden entwickelt. Ihre Bezeichnungen lehnen sich an den Göttinger Katalog didaktischer Modelle an.5 Diese Messinstrumente arbeiten mit folgenden physikalischen Grundlagen.

Tabelle 7 Strahlungsgrößen S0, S, H, R, G, Q und A in W/m² und weitere Parameter

Die solare Einstrahlung, Total Solar Irradiance (TSI) beträgt 1367 W/m². Die kurzwellige Strahlung der Sonne unterteilt sich in a) aus einem Anteil Sonnenstrahlung S = So sin φsonne mit φsonne, dem Winkel der Sonnenhöhe in Abhängigkeit vom Breitengrad, b) diffuse Himmelsstrahlung H aus der Streuung durch die Moleküle der Atmosphäre und c) kurzwellige Reflexstrahlung der Erdoberfläche Rkw. Hierbei ist εkw der mittlere Absorptionskoeffizient im kurzwelligen Bereich des Spektrums und a = (1-εkw) der hierzu gehörige Albedowert. S und H entstehen gemeinsam aus der Globalstrahlung G und mit Qkw, die den Saldo der kurzwelligen Strahlungsbilanz erfasst. Im Ausdruck G ist φsonne bereits berücksichtigt.

Nach KT97 im Mittel mit einer durchschnittlichen Global Mean Albedo ist a = 0.3129 und hierbei entsprechen die Pfeile analog der Richtung der Strahlung. Als Gleichgewicht an der obersten Atmosphärenschicht ergibt sich:

Übertragen für den Algorithmus der Messgeräte zur Gegenstrahlung A, aber als Gleichgewicht im Bereich des Aufstellungsortes des Messgerätes in Bodennähe: Hierbei befindet sich der Messkopf () des Messgerätes in der unteren Darstellung links in ca. 2m über der Wiese. G spezifiziert sich durch den betrachteten Wellenlängenbereich:

Darstellung 2: Algorithmus zur Ein- Ausstrahlung nach dem Göttinger Modell.

Die langwellige Strahlung „…ist vor allem eine terrestrische Strahlung, die von Emittern mit Temperaturen von unter 300K ausgeht. Es wird unterschieden zwischen: der Gegenstrahlung A […] der Ausstrahlung des Erdbodens E =εlw σTB4 …“ 6 7 Bei nichtmetallischen Leitern wird εlw zu 1. E und entspricht dann dem Begriff der Surface Radiation von KT97. Qlw ist der Saldo der langwelligen Strahlungsbilanz.

Qlw = A – σTB4 = A – E – Rlw

Qlw findet in der langwelligen Strahlung seine Analogie in der rechten Bildhälfte von FIG 7, KT97

Rlw = (1-εlw)

Rlw = 0 mit εlw = 1

„Als Strahlungsbilanz Q bezeichnet man die Summe von Qkw + Qlw.

Q = Qkw + Qlw = S + H – RkwBoden + A – E – Rlw = …8

Damit würde sich die Gegenstrahlung A ermitteln zu: A = Q + RkwBoden – G + E (d)

Beispiel 1:

Als Durchschnittswert für den Globus für den kurzwelligen Bereich nach Tabelle 6:

UV + sichtbares Licht errechnen sich zu 107.9 W/m² + 610.9 W/m² = 718.8W/m² = 719 W/m²

Man könnte danach als Messung der kurzwelligen Strahlung einen Wert von ca. 719 W/m² annehmen.

Der Albedogesamtwert sei a = 0,3129, nach KT97. Das Messergebnis für die AlbedoBoden sei für dieses Beispiel 0.135, siehe CLEAR SKY ALBEDO von ERBS als durchschnittlicher gemessener globaler Wert. T sei 14,80 °C und damit E = 390 W/m². Mit Rundung auf 0.5W/m² folgt:

G = S + H =

Rkw = AlbedoBoden (S +H) = 0.135 x 123.5W/m² = 17 W/m²

Qkw = S + H – Rkw = 123.5 W/m² – 17 W/m² = 106.5 W/m²

Qlw = A – σTB4 = A – E = 324W/m² – 390 W/m² = – 66W/m², A und E nach KT97 FiG. 7. rechte Bildhälfte

Q = Qkw + Qlw = 106.5W/m² – 66W/m² = 40.5 W/m²

A = Q + Rkw – G + E = 40.5 W/m² + 17 W/m² – 123.5W/m² + 390 W/m² = 324 W/m² = Gegenstrahlung

Beispiel 2:

Mit einem Messgerät waren auf einer Hamburger Wiese (54 Grad nördlicher Breite) nach Versuch 4, gemäß Göttinger Katalog didaktischer Modelle 9 nachfolgende Werte in W/m² ermittelt worden.

Global Strahlung S+H 104

Reflexstrahlung (Wiese) Rkw 20

kurzwellige Bilanz Qkw 84

atmosph. Gegenstrahlung A 320

langw. Emission E 357

langwellige Strahlungsbilanz Qlw -37

Gesamte Strahlungsbilanz Q 47

Temperatur T 8.50 °C

In Versuch 4 gemäß Göttinger Katalog ist für derartige Messgeräte ebenfalls ein üblicher Wertebereich für die kurzwellige Strahlung: 0.25 bis 3 µm angegeben. Da ein derartiges Gerät auch über 0.75µm misst, siehe Tabelle 6, reicht der Messbereich auch tief in den langwelligen infraroten Bereich hinein.

Betrachtet man den Albedoverlauf von 1985 -1990 an Satellitenbildern von ERBS (CEDA) über die geografische Breite, stellt man fest: Am Äquator hat die durchschnittliche Jahresalbedo, gemittelt über 12 Monate, ein Minimum (Wasser a = ca. 0.18 Land a = ca. 0.30). Zu den Wendekreisen steigt die Albedo aber deutlich an. Bei 54 Grad nördlicher und südlicher Breite erreicht die durchschnittliche Jahres Albedo einen Wert von ca. a = 0.40. Eine gemessene langwellige Emission von 357W/m² entspricht einer Temperatur von 8.50 °C (Hamburg). Dies ist auch die Jahres Durchschnittstemperatur für Hamburg aus 12 Monaten Tag- und Nachtmessung. Das Messgerät wurde gemäß Versuchsanordnung nicht auf eine Schneefläche im Winter, sondern auf einer Wiese vermutlich im Frühling, Sommer oder Herbst aufgestellt. Dies lässt bei einer Temperatur für 8.50 °C (Frühling, Sommer oder Herbst) vermuten, dass bei der Messung der Himmel bewölkt war. Die Durchschnittsalbedo (gemittelt aus sonnig und bewölkt gemittelt) müsste für eine vermutete reine Bewölkung einen etwas höheren Wert aufweisen. Ein entsprechender Albedowert für die Berücksichtigung sei nun a = 0.43.

AlbedoBoden = Rkw / (S +H) = 20 / 104 = 0.1923

RkwBoden = Albedo (S +H) = 0.1923 x 104W/m² = 20 W/m²

Qkw = S + H – RkwBoden = 104 W/m² – 20 W/m² = 84 W/m²

Qlw = A – σTB4 = A – E = 320W/m² – 357 W/m² = – 37W/m²

Q = Qkw + Qlw = 84W/m² – 37W/m² = 47 W/m²

A = Q + RkwBoden – G + E = 47 W/m² + 20W/m² – 104W/m² + 357 W/m² = 320 W/m²

Betrachtet man (d) zur Ermittlung der Gegenstrahlung, dann fällt aber auf:

Die Variablen S, H, der Ausdruck RkwBoden der Bodenalbedo und Variable E der Strahlung aus der Boden Temperatur kürzen sich weg. Die Gegenstrahlung A ist somit unabhängig von der kurzwelligen Strahlung und deren Variablen. Die Gleichung (d) ist bezüglich A beliebig. Aber A ist selbst beliebig, da A, die Gegenstrahlung, aus einer Null bei KT97 und Barkstorm entstanden war (Nachweis siehe Kap 4.10 Mathematischer Effekt in 16). Dadurch ist es möglich das Messergebnis der kurzwelligen Messung aus 1367W/m² beliebig zu multiplizieren z.B. 0.25 = ¼. Um in Beispiel 2 (Versuch 4 des Göttinger Katalogs) als Summe von Sonnenstrahlung S und diffuser Strahlung H mit 104W/m² erhalten zu können, ist vorab bereits der Treibhauseffekt durch den ¼ Strahlungsverteilungsansatz im Messgerät hinterlegt. Derartige Geräte messen aber auch den langwelligen Strahlungsbereich. Diese Messgeräte weisen die Gegenstrahlung, zuweilen auch als thermische atmosphärische Strahlung bezeichnet, dann langwellig aus.

Hierzu findet sich in der nachfolgende Herstellerangabe eines anderen Pyranometers, wörtlich: „Das CM22 Pyranometer ist mit einem Thermosensor ausgestattet. Dieser spricht auf die insgesamt aufgenommene Energie an und ist theoretisch nichtselektiv gegenüber der spektralen Verteilung der Strahlung. Dies hat zur Folge, dass der Sensor auch gegenüber langwelliger Infrarotstrahlung (Wärmestrahlung > 4000 nm) aus der Umgebung (z.B. des inneren Doms) empfindlich ist.“ 11 [Hervorhebungen hinzugefügt] Derartige Geräte unterliegen einer Normung und sind daher in sich ähnlich gebaut und vergleichbar.

Über 4000 nm bzw. 4µm würde der Präzision Pyranometer CM22 theoretisch nicht, eventuell praktisch schon selektiv, nicht nur Bereiche der von der Sonne eintreffenden Langwellen messen, sondern auch die Bereiche der Umgebungstemperatur. Wenn am Tag Teile der „langwelligen Infrarotstrahlung“ in die Messung eingehen ist dies bei einer nächtlichen Messung konsequenter Weise ebenfalls der Fall.

Welche Konsequenz hat dies im Beispiel 1?

Was wird vermutlich ein solches Gerät als Gegenstrahlung messen?

Aus 1367W/m² verbleiben für den langwelligen Anteil: 1367W/m² – 719 W/m² = 648W/m²

Gegenstrahlung A = 648 W/m² – E + Qlw = 648 W/m² – 390 W/m² + 66 W/m² = 324 W/m²

Damit entspricht der gemessene langwellige Teil genau der Gegenstrahlung!

Welche Konsequenz hat dies im Beispiel 2?

Aus 1367W/m² verbleiben für den langwelligen Anteil: 1367W/m² – 727 W/m² = 640W/m²

Was wird vermutlich das Gerät als Gegenstrahlung messen?

Gegenstrahlung A = 640 W/m² – E + Qlw = 640 W/m² – 357 W/m² + 37 W/m² = 320 W/m²

Auch hier entspreche der gemessene langwellige Teil genau der vom Messgerät ausgewiesenen Gegenstrahlung!

Woraus entsteht die langwellige Strahlung 390 W/m² in Beispiel 2?

Das Hamburger Messgerät der Gegenstrahlung aus dem in situ Versuch misst den kurzwelligen Anteil (0.25 bis 3µm) der Strahlungsflussdichte in W/m² der einfallenden Sonnenstrahlung. Welcher Teil aus dem gesamten einfallenden Sonnenspektrum verbleibt? Es ist der langwellige Bereich von 760nm – 106 nm. Er weist nach Tabelle 6 eine Strahlungsflussdichte von 648.2 W/m² auf.

In Beispiel 2 wird auch ein messbarer, langwelliger Anteil des Gerätes von (3µm bis 100µm) 12 ausgewiesen. Dieser Bereich von 3000nm – 105 nm des zum Himmel gerichteten Messgerätes erfasst aus vorhanden Spektrum von 760nm – 106 nm nur einen Teilbereich der von der Sonne eintreffenden Langwellen, bei 320 bis 324 W/m² (Gegenstrahlungsmesswerte) etwa die Hälfte der vorhandenen Strahlungsflussdichte von 648.2 W/m² Langwelle.

Hieraus folgt:

  1. Wenn der Treibhauseffekt, der durch eine angebliche, hypothetische Gegenstrahlung entsteht, bereits im Messgerät hinterlegt ist, dann kann mit diesem Messgerät der Treibhauseffekt nicht bewiesen werden. (Zirkelschluss)

  2. Die Analyse der Grundlagen der Strahlungsmessgrößen in Verbindung mit dem Treibhauseffekt von 33K, nach der Studie KT97, in Verbindung mit einer Auswertung eines in situ Versuches in Anhang 4 von 16 lassen den folgenden Schluss zu: Ein großer langwelliger Bereich der auf der Erde eintreffenden Sonnenstrahlen wird stattdessen als langwellige Gegenstrahlung im Messgerät als Gegenstrahlung ausgewiesen.

  3. Die gemessene Gegenstrahlung stammt bei Messungen am Tag offensichtlich zu 100% direkt aus der Sonne, von ihrem langwelligen Anteil mit 648.2 W/m² (Tabelle 6, WMO 1986). Bei einer nächtlichen Messung ist anzunehmen, dass Teile der Umgebungstemperatur als Gegenstrahlung mit ausgewiesen werden.

Nach Rödel 13 kämen „ungefähr 60% bis 65% der am Boden empfangenen Gegenstrahlung aus der Schicht zwischen dem Boden und etwa 100m Höhe, d.h. aus einer Schicht, die kaum kälter als die Erdoberfläche selbst ist.“ Der Temperaturabfall nach der Internationalen Höhenformel beträgt 0.65 °C auf 100m Höhe. Auch diese Aussage macht die Ausweisung von Teilen der Umgebungstemperatur als Gegenstrahlung nachvollziehbar.

Ergebnis zur Messung der Gegenstrahlung:

Für den kurzwelligen Bereich ist im Algorithmus derartiger Messgeräte der Treibhauseffekt von KT97 über die ¼ Strahlungsverteilung hinterlegt. Wenn man die langwellige Umgebungstemperatur des Messgerätes gemeinsam mit erheblichen Teilen der langwelligen Sonnenstrahlung, ab 3µm oder 4µm, herstellerabhängig, als Gegenstrahlung bezeichnet und dann als solche ausweist, stammt die Back Radiation final direkt aus der Sonne und der Wärme des Messgerätes und nicht aus IR-aktiven, infrarot absorbierenden und emittierenden Molekülen, wie CO2, H2O, CH4,.. . Sogenannte Messgeräte zur Gegenstrahlung sind deshalb nicht in der Lage, diese zu beweisen.

Ergänzung:

Auch über verschiedene Integrationen (Polarkoordinaten / kartesische Koordinaten) kann nachgewiesen werden, dass die Gegenstrahlung des Treibhauseffektes auf einer falschen Strahlungsverteilung bereits bei B. Barkstorm beruht, Nachweise siehe Kapitel 5.1.2, 5.18 sowie Anhängen 1 bis 3 in 16. Bezüglich Net-Strahlung des ERBS Satelliten und ihre Berücksichtigung in der Modellierung, ihre Bedeutung und Interpretation wird in diesem Zusammenhang auf Kapitel 5.4.2 – 5.4.5 und Anhang 6-8 in 16 ausführlich eingegangen. In Kapitel 5 wurde ein neues Modell entwickelt und der Modellierung von KT97 entgegengestellt. KT97 wird als falsche Modellierungshypothese widerlegt. Der Autor folgt einem Wissenschaftsverständnis nach Karl Popper, siehe Kap. 1.14 16. Es sei erwähnt: Die Satelliten ERBS, TERRA und AQUA zeigen so im neuen Strahlungsmodell und mit einer neu abgeleiteten Atmosphärengleichung H = S0/2 (1-α) – LH – SH – Satm – σTe4 = 0, es gibt keine Strahlungsbehinderung durch eine Gegenstrahlung A, sichtbar in FIG. 8a und FIG. 8b ebenfalls in Verbindung mit Kap. 5.18 16. Auch unter geologischen Gesichtspunkten (snowball earth hypothesis) ist ein Treibhauseffekt nicht erfoderlich, Nachweis siehe Kapitel 9.7 und seinen Unterkapiteln in 16. Mit dieser neuen Atmosphärengleichung ergibt sich ein Strahlungsverteilungsfaktor von ½. Nach diesem kurzen Exkurs erfolgt die Rückkehr zum Göttinger Modell der Gegenstrahlungsmessung.

Angewendet auf Beispiel 2 ergeben sich folgende Rechenwerte:

Rkw = Albedo (S +H) = 0.1923 x 208W/m² = 40 W/m²

Qkw = S + H – Rkw = 208 W/m² – 40 W/m² = 168 W/m²

Qlw = A – σTB4 = A – E = 0W/m² – 390 W/m² = – 390W/m²

Q = Qkw + Qlw = 168W/m² – 390W/m² = -222 W/m²

A = Q + Rkw – G + E = -222 W/m² + 40 W/m² – 208 W/m² + 390 W/m² = 0 W/m²

Würde man in derartigen Messgeräten der Gegenstrahlung den internen Algorithmus, also die hinterlegten physikalischen Gleichungen, auf der nach dem Autor richtigeren Strahlungsverteilungsfaktor ½ abändern, würde das Messgerät auch einen Gegenstrahlungswert von 0 ausweisen. Es kann gezeigt werden, dass die Divergenzen im Modell von J. Kiehl und K.E. Trenberth 1997 und J. Kiehl, J. T. Fasullo, K.E. Trenberth 2009 und den Satellitenmesswerten mit einer anderen Modellierung auf kleiner gleich 2 W/m² verschwinden, siehe Kapitel 5.1.2 folgende Kapitel 5.17 und Anhang 7 und 8 16.

Zusammenfassung:

Die Gegenstrahlung ist eine reine Modellhypothese aber Basis der aktuellen IPCC-Klimamodelle. Sie kann nicht gemessen werden, da der Treibhauseffekt durch den zugrunde gelegten Algorithmus bereits voreingestellt ist. Dies ist ein klassischer Zirkelschluss, oder anders formuliert, die Aussage ist bereits selbst Voraussetzung des Nachweises. Die Falsifizierung von KT 97 in 14 widerlegt den Treibhauseffekt und ihre Gegenstrahlungshypothese – von etwa 300 W/m² und höher – mit mathematischen, physikalischen / thermodynamischen Nachweisen und mit einem CO2– Experiment unter Sonnenlicht.

1J. Kiehl, J. T. Fasullo, K.E. Trenberth, 2009, Earth´s Global Energy Budget, Bulletin of the American Meteorological Society, March 2009, S.311-316f und Doi:10.1175/2008BAMS2634.I.

2Loeb, Dutton, Wild et altera, 2012, The global energy balance from a surface perspective, published online 13 November 2012, Clim Dyn (2013) 40:3107-3134, Springer-Verlag, Doi: 10.1007/s00382-012-1569-8.

3Prof. Möllner, Detlev, (2003), Luft, Chemie Physik Biologie Reinhaltung Recht, Walter de Gruyter, New York, ISBN 3-11-016431-0, Tab 2.3, S.126.

4Nach Wikipedia: „Ein Pyrgeometer […] dient der Messung der aus dem Halbraum eintreffenden atmosphärischen Gegenstrahlung, …“ https:/de.m.wikipedia.org/wiki/Pyrgeometer Stand vom 11.07.2020.

6http://wwwuser.gwdg.de>konzept/strahlungsmessung Versuch 4, S1.

7Der Spektralchemiker, Dr. Heinz Hug vertritt hierzu den Standpunkt: „Ob man vom Stefan-Boltzmann ausgehen darf, darüber lässt sich streiten, denn Stefan-Boltzmann setzt Homogenität voraus. Eine Wasseroberfläche hat eine andere Stefan-Boltzmann-Emission als ein Wald, Steppe, Wüste, …“ Quelle aus persönlicher Korrespondenz mit Dr. Hug vom 10 Juli 2020.

8http://wwwuser.gwdg.de>konzept/strahlungsmessung Versuch 4, S2.

9http://wwwuser.gwdg.de>konzept/strahlungsmessung Versuch 4, S1.-S.8.

11Kipp & Zonen B.V. Delft, Niederlande, Bedienungsanleitung Precision Pyranometer CM 22, Version 0803 (2003), S.1bis S. 64, Kap 1.2 Physikalische Grundlagen des Pyranometers, S.8.

12http://wwwuser.gwdg.de>konzept/strahlungsmessung Versuch 4, S1.

13Prof. W. Roedel, Prof. Th. Wagner, 2011, Physik unserer Umwelt: Die Atmosphäre, 4 Auflage, 1. korrigierter Nachdruck, Springer Verlag, ISBN 978-3-642-15728-8, Kapitel 1 Strahlung und Energie in dem System Atmosphäre/ Erdoberfläche, S.48.

14

 




Wetterabhängige „erneuerbare“ Energie: wie machte sie sich 2020 in DE, UK und FR?

Diese drei großen Nationen: Deutschland, das Vereinigte Königreich und Frankreich (DE UK FR), stellen mehr als die Hälfte der wetterabhängigen, erneuerbaren Energieerzeugungsanlagen in Europa. Diese Nationen bedecken eine Fläche von etwa 1,1 Millionen Quadratkilometern, etwa ein Viertel der Landfläche der EU(27). Es erstreckt sich von 43°N bis 58°N und 6°W bis 13°E.

Ein Datensatz, der ihre stündliche und tägliche Stromerzeugung vom 1.12.2019 bis zum 31.11.2020 berücksichtigt, wird verwendet, um die vergleichende Leistung der Stromerzeugung in diesen drei Nationen zu untersuchen. Der Gesamtvergleich zwischen den kombinierten Erzeugungsanlagen und der von ihnen erzielten Stromleistung ist unten dargestellt.

Bemerkenswerte Punkte aus diesen Grafiken:

Die wetterabhängigen erneuerbaren Anlagen machten im Jahr 2020 etwa 60 % aller Erzeugungskapazitäten in DE UK FR aus und trugen nominell ~24 % der DE UK FR-Stromerzeugung bei.

17 % der installierten DE UK FR-Erzeugungstechnologien produzieren immer noch erhebliche CO2-Emissionen aus Kohle, Braunkohle, Biomasse und Erdgas, und diese CO2-emittierenden Erzeugungstechnologien sind weiterhin für ~33 % der DE UK FR-Stromerzeugung verantwortlich.

Der Einsatz dieser Kombination von CO2-emittierenden Technologien erzeugt mehr als das ~2,5-fache der CO2-Emissionen, die bei der alleinigen Verbrennung von Erdgas für die gleiche Stromleistung emittiert worden wären.

Die Kernenergie in DE UK FR produziert immer noch 35% des Stroms, auch wenn die 8GW dieser Kernenergie in Deutschland Anfang dieses Jahrzehnts endgültig abgeschaltet werden sollen.

Frankreich ist die vorherrschende Atomenergie und exportiert ~6GW seiner überschüssigen Energie in andere europäische Nationen.  Diese Empfängerländer sind zur Aufrechterhaltung ihrer Netzversorgung vollständig auf diese Energiezufuhr angewiesen.  Nichtsdestotrotz beabsichtigt Frankreich anscheinend, seine Kernenergieerzeugung zu reduzieren und durch wetterabhängige erneuerbare Energien zu ersetzen.

Gegenüberstellung der Stromerzeugung in diesen drei Nationen (DE, UK, FR):

Die folgenden Graphiken zeigen das Ausmaß der installierten Erzeugungs-Technologien und deren Niveau des produktiven Ergebnisses:

Bemerkenswerte Punkte aus diesen Graphiken:

Deutschland

Im Jahre 2020 machten wetterabhängige „Erneuerbare“ (Wind und Solar) 69,8% aller Installationen zur Stromerzeugung in Deutschland aus:

● In Deutschland haben die wetterabhängigen erneuerbaren Energien als Ergebnis der Energiewende-Politik inzwischen ~70% der gesamten installierten Erzeugungskapazität erreicht, aber diese wetterabhängigen erneuerbaren Energien tragen nur ~33% des jährlichen Stroms bei:

● Onshore-Windkraftproduktivität/Kapazität durchschnittlich seit 2008 18,9%

● Offshore-Windkraft Produktivität/Kapazität im Durchschnitt seit 2008 33,6%

● Solar-Photovoltaik Produktivität/Kapazität im Durchschnitt seit 2008 10,3%

● Kombinierte wetterabhängige erneuerbare Produktivität/Kapazität durchschnittlich seit 2008 15,3%.

● Die Stromerzeugung in Deutschland wird zu ~20% von CO2-emittierenden Anlagen getragen, die Steinkohle, Braunkohle, Biomasse und Erdgas verwenden, aber diese Technologien sind für 45% des erzeugten Stroms verantwortlich.

● Die CO2-Emissionen aus dieser Brennstoffkombination hätten auf mehr als ein Drittel reduziert werden können, wenn stattdessen ausschließlich Erdgas eingesetzt worden wäre.

● Deutschland verfügt immer noch über einen beträchtlichen Bestand an Kernkraftwerken, aber aufgrund einer politischen Entscheidung nach dem Reaktorunfall in Fukushima 2011 soll die Kernkrafterzeugung in Deutschland innerhalb weniger Jahre vollständig eingestellt werden.

● Deutschland hat seine Kohle- und Braunkohleverstromung in Erwartung der Schließung dieser nicht CO2-emittierenden Kernkraftwerke erhöht.  Es hat einige stillgelegte Kohlekraftwerke wieder in Betrieb genommen, da es erkannt hat, dass die Schließung dieser Grundlaststromerzeuger die Instabilität des Stromnetzes weiter erhöhen würde.

● 5% des deutschen Stroms wird durch Wasserkraft mit begrenzter Pumpspeicherung erzeugt.

● Deutschland hat trotz seiner Energiewende-Politik“ immer noch die höchsten CO2-Emissionen/Kopf in Europa mit ~8,38 Tonnen/Kopf.

● Deutschland ist für ~4% seines Stroms auf Transfers aus Frankreich und anderen europäischen Ländern angewiesen.  Gelegentlich produzieren Deutschlands Erneuerbare Energien im Vergleich zum Bedarf zu viel und dieser überschüssige Strom muss abgenommen oder zu negativen Preisen ins Ausland verkauft werden.

● Deutschland hat neben Dänemark (das ebenfalls stark auf Windenergie setzt) die höchsten Strompreise in der entwickelten Welt.

[Eine deutsch-sprachige Website, in welcher der gesamte gefährliche Unsinn aller Aspekte bzgl. „Energiewende“ angesprochen wird, ist diese hier. Die Lektüre wird DRINGEND EMPFOHLEN! Schon Pierre Gosselin hat auf seiner Website am 13. April hier darauf hingewiesen. Titel seines Beitrags {übersetzt}: „Deutschlands Kohle-Ausstieg … dauerte nur 8 Tage“. A. d. Übers.]

UK

Im Jahr 2020 machen die wetterabhängigen erneuerbaren Energien (Wind- und Solarenergie) 58 % aller Stromerzeugungsanlagen in Großbritannien aus.

Die wetterabhängigen erneuerbaren Anlagen in Großbritannien machen jetzt ~58% der gesamten installierten Erzeugungskapazität aus, produzieren aber nur 26% des Stroms:

– Onshore-Windkraftproduktivität/Kapazität im Durchschnitt seit 2008 25,6%

– Offshore-Windkraft Produktivität/Kapazität im Durchschnitt seit 2008 32,2

– Solar-Photovoltaik Produktivität/Kapazität im Durchschnitt seit 2008 9,6%

– Kombinierte wetterabhängige erneuerbare Energien Produktivität/Kapazität im Durchschnitt seit 2008 21,9%.

● Großbritannien hat sich stark für die Offshore-Windenergie engagiert und stößt auf erheblichen lokalen Widerstand gegen weitere Onshore-Windanlagen.

● Die Stromerzeugung in Großbritannien wird zu ~46% von CO2-emittierender Erzeugung aus Erdgas und Biomasse getragen: Die britischen CO2-Emissionen aus Biomasse, hauptsächlich aus den Drax-Kraftwerken (die hauptsächlich aus Amerika importierte Holzspäne verbrennen), heben diese CO2-Emissionen effektiv alle CO2-Einsparungen aus der Nutzung aller anderen wetterabhängigen erneuerbaren Energien auf.

Die widersprüchliche Grün-Politik zur Begrenzung von CO2-Emissionen

● Großbritannien hat immer noch eine alternde Flotte von Kernkraftwerken, von denen die meisten in diesem Jahrzehnt geschlossen werden. Einige Ersatzanlagen sind in Vorbereitung, wobei Hinkley Point im Jahr 2023 in Betrieb genommen werden soll: Es gibt immer noch keine britische Verpflichtung zur Installation von lokalen kleinen modularen Reaktoren, die in Großbritannien hergestellt werden könnten.

Aufgrund der geografischen Beschränkungen in Großbritannien werden nur ~5% des britischen Stroms durch Wasserkraft erzeugt, es gibt einige begrenzte Pumpspeicher.

Als Ergebnis der früheren britischen „Dash for Gas“-Politik hat Großbritannien seine CO2-Emissionen / Kopf seit den 1990er Jahren auf unter den europäischen Durchschnitt von 5,46 Tonnen/Kopf im Jahr 2019 gesenkt.

● Großbritannien ist für ~8% seines Stroms von anderen europäischen Ländern, hauptsächlich Frankreich, abhängig.

Das Vereinigte Königreich hat praktisch keine Arbeitsspanne für die gesamte Stromerzeugung.

● Die Abhängigkeit Großbritanniens von Stromimporten sollte als existenzieller nationaler Notstand betrachtet werden.

Frankreich

Im Jahr 2020 machten die wetterabhängigen erneuerbaren Energien (Wind- und Sonnenenergie) 31,7 % aller Stromerzeugungsanlagen in Frankreich aus.  Zusammen trugen sie etwa 9,6 % der erzeugten Energie bei einem Produktivitäts-/Kapazitätsanteil von 18,3 % bei.

● die französischen wetterabhängigen erneuerbaren Anlagen machen jetzt 37% der installierten Erzeugungskapazität aus, aber sie tragen nur ~11% zur Stromerzeugung bei:

– Onshore-Windkraft Produktivität/Kapazität seit 2008 21,5%

– Produktivität/Kapazität der Solar-Photovoltaik seit 2008 12,2%

– Kombinierte wetterabhängige erneuerbare Produktivität/Kapazität seit 2008 18,2%

● Frankreich hat keine Offshore-Windkraftanlagen installiert.

● Die französische Stromerzeugung hat eine begrenzte CO2-emittierende Erzeugung aus Biomasse und Erdgas, die nur etwa 6 % der Stromerzeugung ausmacht.

● Frankreich verfügt immer noch über eine große, aber inzwischen veraltete Flotte von Kernkraftwerken, die als Reaktion auf den Ölpreisschock der 1970er Jahre nach und nach installiert wurden.

● Es gibt immer noch keine große Verpflichtung, sie zu ersetzen, aber die aktuelle Politik scheint zu sein, die erfolgreiche französische Kernkraftwerksflotte von derzeit 75%+ auf ~50% der französischen Stromerzeugung zu reduzieren.

● Diese Flottenreduzierung würde natürlich die derzeitige Fähigkeit Frankreichs einschränken, seine überschüssige Energie nach Übersee zu liefern, insbesondere nach Großbritannien und Deutschland.

● Großbritannien ist für ~8% seines Stroms von Frankreich und anderen europäischen Ländern abhängig.

Das Vereinigte Königreich hat praktisch keine Betriebsmarge für die Stromerzeugung insgesamt diese Importabhängigkeit sollte als existenzieller nationaler Notfall betrachtet werden, insbesondere seit dem Brexit.

[Hervorhebung im Original]

● Darüber hinaus stammen ~14 % des französischen Stroms aus Wasserkraft mit einigen begrenzten Pumpspeichern.

● Als Ergebnis der früheren langfristigen französischen Kernenergiepolitik hat Frankreich seit dem Ölpreisschock in den 1970er Jahren seine CO2-Emissionen / Kopf auf unter den globalen Durchschnitt von 4,26 Tonnen/Kopf gesenkt:  Frankreich hat damit die niedrigsten Emissionen/Kopf aller entwickelten Nationen.

● Frankreich hat jetzt die niedrigsten Strompreise in Europa.

DE UK FR: Wetterabhängige Erneuerbare Energien Fortschritt und Produktivität / Kapazität

Der Installations- und Leistungsfortschritt der wetterabhängigen erneuerbaren Energien in DE UK FR seit 2008 ist unten dargestellt:

Die konsequente Historie der wetterabhängigen Produktivität/Kapazität von DE UK FR ist unten dargestellt: Im Wesentlichen gab es seit 2008 nur einen marginalen Produktivitätsfortschritt und insgesamt bleibt sie in der Größenordnung von 20%, (1 Tag von 5 insgesamt).

Die gemessenen jährlichen wetterabhängigen erneuerbaren Produktivitäts-/Kapazitätsprozentsätze für die wichtigsten europäischen Befürworter von sind unten dargestellt:

Mit anderen Worten: Die wetterabhängigen erneuerbaren Energien produzieren im Laufe eines Jahres etwa ein Fünftel ihrer Nennleistung, und dieses Produktivitäts-/Kapazitätsniveau hat sich seit 2008 nur wenig verbessert.

Die konstant schlechte Leistung ist in Italien zu finden, wo es ein Übergewicht an Solar-PV-Anlagen gibt.  Spanien (wo zuvor in betrügerischer Absicht Solarstrom in der Nacht erzeugt wurde) verfügte größtenteils über Onshore-Windkraftanlagen, aber Spanien hat kürzlich ein weiteres großes Solarstrom-Engagement hinzugefügt, und dementsprechend ist die zuvor hohe Produktivität Spaniens abrupt gesunken.  Die Produktivität Großbritanniens wird durch den hohen Anteil an Offshore-Windkraft gestützt.  Der hohe Anteil an Solarenergie in Deutschland hat deren schlechte Produktivität aufrechterhalten:  Deutschland und UK sind die dunkelsten und wolkenreichsten Nationen in Europa.

Dieser Beitrag ist eine Aktualisierung der Informationen aus diesem Beitrag von 2019.

Die Leistung wetterabhängiger „Erneuerbarer“ in DE, UK, FR

Das obige Diagramm zeigt die Brutto-Variabilität auf Tagesbasis der Leistung aus wetterabhängigen erneuerbaren Energien in den DE UK FR Nationen. Es zeigt umfassend:

dass die Variabilität der kombinierten Windleistung, die durch wechselnde Wettermuster im Laufe des Jahres beeinflusst wird und von ~5 % der täglichen Erzeugung bis zu mehr als 30 % reicht.

● Obwohl die Gebiete geografisch unterschiedlich sind, gibt es das ganze Jahr über eine tägliche Koordination zwischen Onshore- und Offshore-Winderzeugung.

● In den Wintermonaten von Oktober bis März ist die Solar-PV-Produktion minimal.

● Auch in den produktiveren Sommermonaten kann es zu erheblichen Leistungsschwankungen der PV-Leistung von einem Tag auf den anderen kommen.

Es gibt eine sinnvolle Abstimmung zwischen der Windkraft mit geringerer Produktivität in den Sommermonaten und der höheren Solar-PV-Produktivität im Sommer. Dabei wird natürlich die Tatsache ignoriert, dass die PV-Produktivität in den Abendstunden zu Zeiten höherer Nachfrage schnell abfällt.

Allerdings wird das wahre Ausmaß der Intermittenz und der Variabilität der wetterabhängigen erneuerbaren Energien erst dann deutlich, wenn die Leistung auf Stundenbasis oder mikt noch größerer Auflösung bewertet wird.

Kombinierte stündliche Stromleistung Deutschland, Großbritannien und Frankreich

Der große Bereich der wetterabhängigen Leistungsabgabe ist unten deutlich zu erkennen. Darüber hinaus ist auch die sprunghafte Natur der Leistungsänderungen offensichtlich. Im Allgemeinen gibt es eine konsistente Koordination zwischen Onshore- und Offshore-Windleistung. Die rasante Änderungsgeschwindigkeit der Leistungsabgabe schafft massive Steuerungsprobleme für diejenigen, die für die Aufrechterhaltung der notwendigen gleichbleibenden Qualität des elektrischen Netzes verantwortlich sind. Europaweite Windflauten sind im Jahresverlauf in unterschiedlichem Ausmaß zu beobachten.

Man könnte meinen, dass die Kombination der Windkraftleistung in den drei Nationen DE UK FR die Variabilität der wetterabhängigen erneuerbaren Energien glättet, aber die Daten einiger ausgewählter Monate im Jahr 2020 zeigen, dass die Behauptung, dass „der Wind immer irgendwo weht“, ein Trugschluss ist. Ein statisches windarmes Hochdruckgebiet kann durchaus Großbritannien und den nahen Kontinent für längere Zeiträume zu jeder Jahreszeit umfassen.

Die folgenden Diagramme für die ausgewählten Monate Januar, April, Juli und Oktober zeigen die wetterabhängige erneuerbare Energieerzeugung als Prozentsatz der Gesamtstromerzeugung für diese Monate. Sie verdeutlichen die der Wetterabhängigkeit innewohnende Unbeständigkeit und Variabilität.

Januar 2020

In diesem Wintermonat mit der höchsten Nachfrage gab es eine schlechte Windkraftleistung, besonders vom 20. bis 25. Januar.  Die PV-Solarenergie lieferte nur sehr wenig und sehr unregelmäßig Strom, mit schlechter Solarversorgung in den Abendstunden, der Zeit des Spitzenbedarfs:

April 2020

Der Beitrag der Photovoltaik steigt zu Beginn des Monats an, aber es gab bemerkenswerte Einbrüche bei der Windkraft vom 7. bis 12. April und vom 23. bis 28. April:

Juli 2020

Der Beitrag der Photovoltaik war signifikant, wenn auch unregelmäßig, und lieferte in Spitzenzeiten mehr als 30 % der gesamten Stromerzeugung.  Zu den Spitzenlastzeiten am Abend fällt er jedoch auf Null ab.

Im Juli 2020 gab es eine lange Periode mit einem signifikanten Mangel an Windenergie vom 7. bis 24. Juli.  An 16 Tagen im Juli 2020 fiel die installierte Windkraftleistung, die 40 % der Stromerzeugung von DE UK FR ausmacht, auf unter 10 % der gesamten Stromerzeugung in der Region.

Oktober 2020

Die Abnahme der Solar-PV-Leistung ist mit dem Fortschreiten des Herbstes zu erkennen. Die Windkraft ist produktiver, aber auch hier gab es zwei kürzere Zeiträume von jeweils zwei Tagen, in denen die Leistung auf weniger als 10 % der gesamten DE UK FR-Erzeugung fiel

Die Wetterabhängigkeit führt zu Intermittenz und Variabilität

Windenergie

Bei starkem Starkwind muss die Windleistung gedrosselt werden, um die Anlagen vor Schäden zu schützen.  Das Ausmaß der sehr ausgeprägten Windschwäche in allen Gebieten von DE UK FR im Juli 2020 ist in den unten aufgezeichneten stündlichen Daten dargestellt:

Die Windkraftleistung wird häufig auch durch geringe Windgeschwindigkeiten begrenzt. Unter Verwendung der Leistungsabgabe von Windgeneratoren als Stellvertreter für die Windgeschwindigkeit und damit die wahrscheinliche Einschränkung der Leistung erneuerbarer Energien zeigt die folgende Grafik die Zeiten wahrscheinlicher Übergeschwindigkeits-Einschränkungen und Perioden geringer Produktivität aufgrund niedriger Windgeschwindigkeiten auf stündlicher Basis.

Obwohl Speicherlösungen wie z. B. Batterien in der Lage sein könnten, solche Unterbrechungen zu bekämpfen, sollte beachtet werden, dass die anscheinend massive Batteriespeicherkapazität, die in Südaustralien zu Kosten von ~US$130 Millionen installiert wurde, das südaustralische Netz für seine 1,7 Millionen Einwohner für etwa 10 Minuten aufrechterhalten kann. Eine Batteriespeicherung in einer Größenordnung, die notwendig ist, um den Stromverbraucher von DE UK FR zu unterstützen, egal zu welchen Kosten, könnte also eine Winschwäche von etwa 10 Tagen, wie sie im Juli 2020 auftrat, nicht ausgleichen.

Solarenergie

Ein direkter Solar-PV-Vergleich für einige Wintertage mit einer äquivalenten Sommer-Sechs-Tage-Leistung zeigt, dass die Solar-PV-Energie im Winter etwa 1/6 der Leistung des Sommers liefert und wie groß die Dunkelperioden im nördlichen Winter sind. Entscheidend ist auch, dass selbst im Sommer der Abfall der Solarenergie in den Abendstunden erheblich ist und dass nachts überhaupt keine Produktion stattfindet.  Außerdem kann es im Sommer um die Mittagszeit zu einer erheblichen Überproduktion kommen, die gedrosselt oder zu einem negativen Preis an die Nachbarländer verkauft wird und somit verloren geht, wenn sie den Strombedarf übersteigt.

Es scheint, dass die Befürworter und die staatlichen Auftraggeber von Subventionen für erneuerbare Energien, insbesondere für die Photovoltaik in Europa, Folgendes ignorieren:

Die jährliche Produktivität/Kapazitätsprozent von Solar-PV in Europa bleibt hartnäckig bei nur etwa 10%.

Die „Entenkurve“ der Solar-PV-Produktion bedeutet, dass die Solar-PV-Produktion normalerweise am Abend abfällt, genau zu der Zeit, in der die Nachfrage wahrscheinlich am höchsten ist.

Die Solar-PV-Energieproduktion nimmt vom Sommer zum Winter mindestens um das 6-fache ab. Der Winter ist die Zeit der höheren Nachfrage

Nordeuropa, insbesondere Großbritannien und Deutschland, sind wolkenreiche Regionen. An anderen Standorten, wie z. B. in Kalifornien, kann die Solarproduktivität um weitere 50 % gesteigert werden, um bis zu 15 % jährliche Produktivität/Kapazitätsanteil zu erreichen.

Conclusions

Ein hervorragender Weg, die westlichen Volkswirtschaften zu untergraben, ist es, ihre Energieerzeugung unzuverlässig und teuer zu machen.  Dieses Ziel des grünen Denkens wird nach und nach durch die Regierungspolitik in der gesamten westlichen Welt erreicht, allerdings ohne Auftrag der Bevölkerung.

Der Anteil der wetterabhängigen erneuerbaren Energien an der Stromerzeugungsflotte der drei Länder beträgt jetzt ~60 %, in Deutschland jedoch 70 % und in Frankreich deutlich weniger.

● Diese DE UK FR wetterabhängigen erneuerbaren Energien haben eine Gesamtproduktivität/Kapazitätsanteil von weniger als 20%.

● Mit einem so hohen Anteil an wetterabhängigen erneuerbaren Energien und der fortschreitenden Eliminierung von Grundlaststromerzeugern geraten sowohl Großbritannien als auch Deutschland in Gefahr, da ihre Stromnetze aufgrund des Mangels an Grundlaststrom zunehmend anfällig werden.

Wenn die Ziele der Verwendung von wetterabhängigen erneuerbaren Energien nicht mit möglicherweise „Rettung des Planeten“ vermengt würden und der Anteil der CO2-Emissionen (für die Stromerzeugung, weniger als 25% von 1,1%, das Vereinigte Königreich 2019 Anteil der anthropogenen globalen CO2-Emissionen), so gering wäre, würden wetterabhängige erneuerbare Energien hinsichtlich ihrer tatsächlichen Kosten, In-Effektivität und ihrer inhärente Unzuverlässigkeit immer von jeder technischen Berücksichtigung als Mittel der nationalen Maßstab Stromerzeugung ausgeschlossen werden.

Der jährliche Ausstoß von CO2-Emissionen in Großbritannien wird allein durch das jährliche Wachstum der CO2-Emissionen in China und den Entwicklungsländern weit übertroffen.  Es ist wichtig, sich die Frage zu stellen, welchen tatsächlichen Wert diese von der westlichen Regierung angeordneten Mehrausgaben für die Verbesserung der Umwelt und für die Möglichkeit haben, einen praktisch nicht nachweisbaren Temperaturanstieg bis zum Ende des Jahrhunderts zu verhindern, insbesondere in einem Kontext, in dem die Entwicklungsländer ihre CO2-Emissionen erhöhen werden, um ihren Lebensstandard in den kommenden Jahrzehnten weiter zu verbessern.

(Hier)

(Hier. Es gibt keinen Klima-Notstand)

Der Zusammenhang der Jahre 2020 – 2021

Trotz all der lauten Klimapropaganda der letzten 30 Jahre stand die Welt im Frühjahr 2020 vor einem anderen, aber sehr realen wirtschaftlichen Notfall als den Reaktionen auf die COVID-19-Viruspandemie.

Dieser Notfall, bei dem die Welt mit dem Verlust vieler Bürger sowie einem globalen wirtschaftlichen Zusammenbruch konfrontiert ist, sollte die vergeblichen, selbstschädigenden und kostspieligen, von der Regierung verordneten Versuche, das zukünftige Klima zu kontrollieren, in eine starke Perspektive rücken.  Dieser reale Notfall zeigt deutlich, wie irrelevant Sorgen über einen wahrscheinlich folgenlosen „Klimawandel“ in einer fernen Zukunft wirklich sind.

Datenquellen:

  • For the progress and scale of EU(28) installations by the end of 2019, EurObserver’ER publish their Renewable Energy “Barometers” for each type of Renewable generation annually, as yet unavailable for 2020, for an example see: www.EurObservER-Wind-Energy-Barometer-2020.pdf

Link: https://wattsupwiththat.com/2021/05/07/weather-dependent-renewable-power-performance-in-europe-de-uk-fr-2020/

Übersetzt von Chris Frey EIKE

 




Karlsruher Klimaurteil: Ohne Schlüssel Im Panikroom!

Im Inneren verbergen sich Räume für sogenannte Adventuregames. Und die funktionieren so: Eine Gruppe von (meist jüngeren) Leuten wird in einem Raum eingeschlossen und muss anhand versteckter, in allerlei Rätsel verpackter Hinweise versuchen, wieder herauszukommen. Dabei wird die Gruppe von einem Spielleiter mittels einer Kamera beobachtet. Wenn etwas schief läuft oder die Gruppe nicht weiterkommt, greift der Spielleiter ein. Solche Spiele dienen häufig dem, neudeutsch, Teambuilding und werden von manchen Firmen als, neudeutsch, Incentives, sprich Ansporn, für ihre Mitarbeiter gebucht. Oder auch mal von einer Geburtstagsgesellschaft.

Solch ein Escape-Game hat nun das Bundesverfassungsgericht für die deutsche Bevölkerung ersonnen. Mit seinem jüngsten Urteil zum Klimaschutz, einem schon heute historischen Rechtsakt, haben die Richter des Ersten Senats unter Verfassungsgerichtspräsident Stephan Harbarth, einem langjährigen, treuen Gefolgsmann der Klimakanzlerin, alle Bürgerinnen und Bürger des Landes in einen Panic-Room eingesperrt, aus dem es kein Entrinnen mehr gibt. Denn den Schlüssel, wie man aus diesem Raum entkommen könnte, hat das Gericht weggeworfen. Und von außen ist keine Hilfe zu erwarten, denn der Europäische Gerichtshof, die einzige in Frage kommende Instanz, dürfte den Kollegen aus Karlsruhe kaum in die Parade fahren, selbst wenn es denn angerufen würde, von wem auch immer.

Der Beschluss, mit dem die Verfassungsrichter der von Klimaforschern, Umwelt-NGOs und FFF-Aktivisten entfachten Klimahysterie den Stempel höchstrichterlicher Wahrheit und Weisheit aufgedrückt haben, ist nicht nur in den Mainstreammedien gefeiert worden, sondern auch von der Politik. Markus Söder hat bereits angekündigt, aufgrund des Urteils die „Klimaziele“ in seinem Bayernland deutlich zu verschärfen. Und die Bundesregierung, die in dem betreffenden Verfahren zwar nicht rechtlich, wohl aber der Sache nach die Rolle der Beklagten zukam, freute sich in Gestalt von Wirtschaftsminister Peter Altmaier und Umweltministerin Svenja Schulze ebenfalls prächtig über die grüne Klatsche aus Karlsruhe.

„Spiel über Bande“

Das abgekartete Spiel läuft prächtig: Regierungen und Parlamente verabschieden Gesetze und Verordnungen, die, wie es in einer Demokratie üblich ist, einen Kompromiss darstellen. Sie werden dann von demokratisch nicht oder nur schwach legitimierten NGOs, die zum Teil sogar von der Regierung mitfinanziert werden, als zu lasch entlarvt und und via Klage von willigen Richtern verworfen, um dann ihre endgültige, weitaus schärfere Gestalt zu erhalten mit Zielen, die auf demokratisch-parlamentarischem Weg nicht zu erreichen waren. Politisch sind Regierende und Parteien bei diesem „Spiel über Bande“ aus dem Schneider, weil sie sich immer darauf berufen können, ja nur juristischem Ratschluss gefolgt zu sein. Ähnlich funktionierte lange auch der Trick, sich hinter Gutachten von „namhaften“ Unternehmensberatungen zu verschanzen. Doch deren Dienste sind teuer. NGOs erledigen das fast zum Nulltarif.

Wenn man den 110 Seiten lange Karlsruher Beschluss vom 24. März 2021 liest, kann man sich des Eindrucks nicht erwehren, dass sich die Richter des Ersten Senats, oder besser gesagt, ihr Stab wissenschaftlicher Mitarbeiter, großzügig aus den Schriftsätzen der Kläger, darunter Luisa Neubauer (Fridays for Future), der Energiewende-Professor Volker Quaschning sowie Josef Göppel, das einstige „Öko-Gewissen der CSU“, bedient haben. Selbst die erst in jüngster Zeit in die Welt gesetzte Panikvokabel der „Klimakrise“ (statt „Klimawandel) taucht mehrfach in dem Dokument auf.

Gerne würde man mittels einer Plagiatserkennungssoftware den höchstrichterlichen Spruch und die Schriftsätze der Kläger einmal miteinander vergleichen und prüfen, ob dieser in seinem nüchtern mit „Sachbericht“ über die „Tatsächlichen Grundlagen des Klimawandels“ überschriebenen Abschnitt einfach nur die Schriftsätze und deren Quellen übernommen oder sich eigenständig unter Berücksichtigung auch anderer Stimmen mit dem Phänomen globaler klimatischer Veränderungen auseinandergesetzt hat. Viele auch unter Klimaforschern zum Teil umstrittene Theorien wie Schellnhubers „Kippunkte“-Konstrukt fanden jedenfalls kritiklos Eingang in den Beschluss. Darauf wies bereits Fritz Vahrenholt in einem Achgut.com-Beitrag hin.

Nun sagt das Gericht zwar noch im Ausgangspunkt, „ob und auf welche Höhe die CO2-Konzentration in der Erdatmosphäre und der Temperaturanstieg zu begrenzen“ seien, sei eine „klimapolitische Frage“, die „nicht durch die Naturwissenschaften zu beantworten“ sei. Wer jetzt denkt, dass es ausreiche, wenn überhaupt nur weitere CO2 Einsparungen erreicht werden, was das Gericht noch vor wenigen Jahren lediglich als verfassungsrechtlich geboten betrachtet hat, wird jedoch überrascht: „Klimaneutralität“ hat nun zu sein, was das Grundgesetz als das einzig klimapolitisch legitime Ziel anerkennt. Hier ist man erstaunt deshalb, weil es den Begriff „Klimaneutralität“ im Jahre 1994 noch gar nicht gab, als der vom Gericht für seine Forderungen bemühte Artikel 20a überhaupt erst in die Verfassung eingefügt wurde. Hätte es ihn gegeben, wäre er jedoch mit Sicherheit nicht zum Ziel der Norm statuiert worden.

Künftige Regierungen klimapolitisch entmachtet

In der Gemeinsamen Verfassungskommission bestand damals Einigkeit, dass der „Schutz der natürlichen Lebensgrundlagen“ nicht anderen Verfassungsnormen und anderen Staatszielen übergeordnet wird, sondern „in Ausgleich mit anderen Verfassungsrechtsgütern und -prinzipien zu bringen“ ist. Von einem Schutz des „Klimas“ steht in dem besagten Artikel zudem übrigens nichts, und dass es zwischen Umwelt- und Klimaschutz schon gegenwärtig zu massiven Konflikten kommt, erwähnt das Gericht in seinem – ja nicht an mangelnder Ausführlichkeit leidendem – Urteil mit keinem Wort.

Der dem Gesetzgeber zugebilligte „erhebliche“ Entscheidungsspielraum besteht nun darin, das von den Klimaaktivisten geforderte, noch schärfere 1,5 Grad-Ziel zumindest aktuell nicht verfolgen zu müssen, sondern es „derzeit“ bei dem Paris-Ziel von „deutlich unter 2 Grad möglichst 1,5 Grad“ belassen zu dürfen. Da es aber das Paris-Ziel auf jeden Fall sein muss, ist einer künftigen Bundesregierung das Recht genommen, sich auch ein anderes, weniger „ambitioniertes“ Klima-Ziel zu setzen und dafür das Paris-Abkommen zu kündigen. Genauso ist es einer anderen parlamentarischen Mehrheit verwehrt, wenn die Bundesregierung das Paris-Abkommen aus irgendeinem Grund nicht kündigen will, das Heft des Handelns selbst in die Hand zu nehmen und das Abkommen mit einem gegenläufigen Gesetz einfach zu überschreiben.

Dabei wäre dies ein Vorgehen, Amerikaner sprechen plastisch von einem „treaty override“, einem Überfahren des Vertrages, das der Zweite Senat des Bundesverfassungsgerichts – zum Entsetzen der deutschen Völkerrechtler – jüngst in einem anderen Fall ausdrücklich als verfassungsrechtlich zulässig angesehen hat: Demokratie ist Macht auf Zeit, und ein neuer Bundestag ist so nicht an völkerrechtliche Verträge gebunden, denen ein anderer Bundestag zugestimmt hat. Mit seiner Erklärung des Paris-Ziels für verfassungsrechtlich zwingend hat Erste Senat diesen Ausweg versperrt.

Noch apokalyptischere Szenarien herbeimodellieren

Aber es geht weiter. In Ziffer 212 verpflichtet das Gericht den Gesetzgeber sogar mit einer Art Ewigkeitsklausel unter Bezugnahme auf seine Rechtsprechung zum Schutz der Bevölkerung vor Gefahren, die von Atomkaftwerken des Typs „Schneller Brüter“ ausgingen, das Umweltrecht immer auf dem neuesten Stand der Wissenschaft zu halten. „Neue hinreichend gesicherte Erkenntnisse über die Entwicklung der anthropogenen Erderwärmung oder deren Folgen und ihre Beherrschbarkeit könnten (…) eine andere Zielfestlegung (…) erforderlich machen.“

Dieser Satz kann als Aufforderung an die Klimaforschergilde verstanden werden, immer noch apokalyptischere Szenarien gewissermaßen herbei zu modellieren. Legt sie in einigen Jahren neue Klima-Modelle mit einem niedrigeren „Kipp-Punkt“ vor, hätte die Politik diese dann zeitnah und gewissenhaft umzusetzen. So würde der Druck im Panic-Room noch erhöht.

Das Gericht jedenfalls würde sein Plazet für auf solchen Szenarien basierende „erhebliche Freiheitseinbußen“ nicht verweigern. Dabei gehört der Generationen übergreifende Ansatz, wonach unter dem Gebot der Verhältnismäßigkeit „nicht einer Generation zugestanden werden darf, unter vergleichsweise milder Reduktionslast große Teile des CO2-Budgets zu verbrauchen, wenn damit zugleich den nachfolgenden Generationen eine radikale Reduktionslast überlassen und deren Leben schwerwiegenden Freiheitseinbußen ausgesetzt würde“, noch zu den – in sich – plausibleren Schussfolgerungen der Richter. Zumindest dann, wenn man den aktuellen und künftigen Horroszenarios von Klimaforschern und Umweltaktivisten folgt.

In der Debatte um die richtige Corona-Politik hat sich im Laufe der Zeit indes zunehmend die Erkenntnis durchgesetzt, dass die Politik die Modelle von Epidemiologen nicht einfach nur umzusetzen, sondern eine eigenständige Abwägung des Gesundheitsschutzes mit anderen Belangen vorzunehmen hat. So setzte ein Umdenken über das Verhältnis von Wissenschaft und Politik spätestens ein, Klimawissenschaftler würden von einem „Kipp-Punkt“ sprechen, als die Leopoldina in ihrer „Ad-Hoc-Stellungnahme zur Corona Pandemie“ im März dieses Jahres einen „harten Lockdown“ für „unbedingt notwendig“ erklärte und die Politik schlicht meinte, hieran nun gebunden zu sein.

Neue Abgaben, verharmlosend als „Bepreisung“ geframt

Wenn man jetzt denkt, der deutsche Staat könnte seine Klimaziele wenigstens auch dadurch erreichen, dass er CO2-Emissionen nicht reduziert, sondern etwa durch weitflächige Aufforstungen der Erdatmosphäre entzieht, wird man auch hier enttäuscht, denn das Gericht hat dem vorsorglich gleich im Eingangsteil seines Urteils eine Abfuhr erteilt. Es subsumiert den Umbau der Wälder genauso wie die Erhöhung von Deichen und den Hochwasserschutz unter „Anpassungsmaßnahmen“, die es nicht als „Strategie zur Begrenzung des Klimawandels“ anerkennt. Der seinerzeit von Trump vorgeschlagene Plan, Billionen von Bäumen zu pflanzen, um den Klimawandel aufzuhalten, kann folglich ebenso nicht beschritten werden. Es gibt kein Entkommen.

Damit bleibt dem Bundestag nur darüber zu entscheiden, „dass und welche Produkte, Dienstleistungen, Infrastruktur-, Verwaltungs- und Kultureinrichtungen, Konsumgewohnheiten oder sonstigen heute noch CO2-relevanten Strukturen schon bald erheblich umzugestalten sind“. Neben direkten Verboten und einer zu Lasten kommender Generationen gehenden Ausweitung der Staatsverschuldung wird es hier vor allem um die Erhöhung bestehender und die Einführung neuer Abgaben gehen, von den Akteuren verharmlosend als „Bepreisung“ geframt.

So wird als erster Schritt etwa eine Anhebung des Preises von einer Tonne CO2 von 25  auf 60 Euro gefordert, was bei einem Jahresverbrauch von 8,4 Tonnen pro Einwohner eine Mehrbelastung von 280 Euro für jeden bedeutet. Damit dürften bislang als völlig normal angesehene Handlungsmöglichkeiten für einen großen Teil der Bevölkerung über eher kurz als lang unerschwinglich werden. Wenn man sich hier einmal auf das Feld der Klima-Prognostiker begeben und eine Vorhersage abgeben darf, liegt so ein ganz anderer Temperaturanstieg nahe: Da nach der Logik des Gerichts auf die Akzeptanz von Grundrechtseingriffen zugunsten des Klimaschutzes keine Rücksicht mehr genommen werden kann, dürfte in einer Gesellschaft, in der nicht mehr nur bei Luxusgütern, sondern bereits im Alltäglichen „Freiheit nach Zahlungsfähigkeit“ vergeben ist, die Temperatur merklich steigen.

Die „Grenzen der Belastbarkeit“ werden dieses Mal also auf ganz andere Weise getestet. Das Gericht hat sich mit diesem Urteil erstmals in großer Deutlichkeit als politisches Gericht geoutet, dessen Mitglieder sich weniger dem Gebot richterlicher Zurückhaltung verpflichtet fühlen und so dem politischen Prozess Luft zum Atmen zu lassen, sondern einer Agenda folgen. Damit droht die lange Zeit zu Recht hoch angesehen Institution ihren Ruf zu verspielen …

 

Dieser Text entstand in Zusammenarbeit mit einem angesehenen Staatsrechtler, der an einer deutschen Universität lehrt und forscht. 

Der Beitrag erschien zuerst bei ACHGUT hier

 

 




Die Klimaschau von Sebastian Lüning: Fluß-Hochwässer haben in den letzten 50 Jahren global abgenommen




Warum „Grüne Energie“ keine „saubere Energie“ ist – und schon gar nicht fossile Treibstoffe ersetzen kann

Aber jetzt hat Präsident Biden seine eigene Version. Er kündigte im März seinen „Energy Efficiency and Clean Electricity Standard“ an. Die Washington Post berichtete, er würde „im Turbo-Gang den Übergang des Landes weg von fossilen Treibstoffen auf den Weg bringen, mit den enormen Ressourcen der US-Bundesregierung, um in Strommärkte eingreifen. Er würde den Ausbau von Wind und Solar fördern, ebenso wie technologische Durchbrüche in saubere Energie“.

Dies wird uns angeblich vor dem bewahren, was Biden die „existenzielle Bedrohung“ des Klimawandels nennt.

Wetten Sie nicht darauf. Bereits im Januar sagte Bidens eigener „Sonderbeauftragter des Präsidenten für das Klima“, der ehemalige Senator John Kerry: „Wir könnten morgen auf Null [Kohlendioxid-Emissionen] gehen und das Problem ist nicht gelöst.“ Ende April sagte er das Gleiche – nur noch mehr: „Wenn China morgen zusammen mit den Vereinigten Staaten auf Null gehen würde, hätten wir immer noch ein Problem.“

Lassen wir einmal beiseite, ob der Klimawandel eine existenzielle Bedrohung ist. Lassen Sie uns einfach diese Frage beantworten: Ist die „saubere Energie“, die Bidens Plan fördert, wirklich sauber? Ist sie besser für Mensch und Umwelt als die Energie, die sie ersetzen soll?

Um das zu beantworten, müssen wir zunächst definieren, was in dieser Diskussion mit „sauber“ gemeint ist, und dann müssen wir fragen, wie gut „grüne Energie“ diese Definition erfüllt.

„Saubere Energie“ bedeutete früher Energie, deren Produktion unsere Luft und unser Wasser nicht mit giftigen Dämpfen, giftigen Flüssigkeiten und Ruß füllte. Vom späten 19. bis zur Mitte des 20. Jahrhunderts waren solche Emissionen, vor allem aus Kohlekraftwerken, ein ernsthaftes Problem – obwohl der Schaden, den sie der Gesundheit der Amerikaner zufügten, durch die Vorteile, die die Energie für den Rest unserer Wirtschaft brachte, mehr als ausgeglichen wurde, wie unsere stetig steigende Lebenserwartung beweist.

Seitdem haben bessere Verfahren diese Emissionen so weit reduziert, dass sie kaum noch ein Risiko für unsere Gesundheit darstellen. Man würde es aus den Medienberichten über die amerikanische Luftqualität nicht vermuten, aber sie hat sich seit über fünfzig Jahren verbessert.

Vor dreißig Jahren konnte ich in meinem Buch Prospects for Growth: A Biblical View of Population, Resources, and the Future schreiben:

„Von 1976 bis 1986 sanken die durchschnittlichen Kohlenmonoxidwerte an den Messstationen um 36 Prozent, die Ozonwerte um 20 Prozent, die Schwefeldioxidwerte um 40 Prozent, die Gesamt-Schwebstaubwerte um 24 Prozent, die Stickstoffdioxidwerte um 11 Prozent und die Bleiwerte um 80 Prozent.“

Diese Trends haben sich fortgesetzt. Die EPA berichtete letztes Jahr: „Zwischen 1970 und 2019 sind die kombinierten Emissionen von Kriterien und Vorläuferschadstoffen um 77 Prozent gesunken, während die US-Wirtschaft um 285 Prozent gewachsen ist.“

Nun, Bidens Plan konzentriert sich in erster Linie nicht auf solche traditionell verstandenen Schadstoffe, sondern auf Kohlendioxid, weil es angeblich eine katastrophale globale Erwärmung verursacht. Energiequellen, die das angeblich eindämmen, sind „sauber“. Diejenigen, die das nicht tun, sind es nicht.

Das bedeutet, Kohlendioxid als Schadstoff zu behandeln. Ist es aber nicht. Es ist ein geruchloses, farbloses Gas, ungiftig bei über 20-facher Konzentration in der Erdatmosphäre und essentiell für die Photosynthese und damit für alles Leben.

Trotzdem will Biden Energiequellen, die weniger Kohlendioxid (CO2) in die Atmosphäre abgeben, als „sauber“ bezeichnen. Für alle praktischen Zwecke sind das Windturbinen und Sonnenkollektoren. Wie „sauber“ sind diese also – nach der alten oder der neuen Definition? Und werden sie wirklich einen signifikanten Unterschied in der globalen Erwärmung machen?

Nein. Warum?

Der erste Grund ist einfach. Erinnern Sie sich daran, was Kerry sagte: Sie könnten morgen alle amerikanischen und chinesischen CO2-Emissionen eliminieren und das Problem wäre nicht gelöst. Wenn wir in Amerika fossile Brennstoffe durch Wind- und Solarenergie ersetzen würden, würde das nicht alle unsere Emissionen eliminieren.

Also wird es das Problem nicht lösen.

Aber wir sollten hier nicht aufhören. Die Herstellung von Windturbinen und Solarmodulen erfordert große Mengen an Bergbau, Transport und Verarbeitung von Mineralien und deren Verarbeitung zu Endprodukten – und fast alles davon muss mit Energie aus fossilen Brennstoffen erfolgen.

In Mines, Minerals, and „Green“ Energy: A Reality Check erklärt Mark P. Mills, warum Wind- und Solarenergie einfach nicht so „grün“ oder „sauber“ sind, wie ihre Befürworter denken.
Und warum? Dafür gibt es mehrere Gründe.

Erstens erfordert die Herstellung von Windturbinen und Solaranlagen sowie der Batterien, die benötigt werden, um den Strom für Elektrofahrzeuge zu speichern, oder wenn der Wind nicht weht und die Sonne nicht scheint, den Abbau, die Bewegung und die Veredelung riesiger Mengen an Erde – weit mehr als für die Gewinnung der gleichen Energiemenge aus Kohle, Öl und Erdgas erforderlich ist.

Mills zeigt:

„Der Bau von Windturbinen und Sonnenkollektoren zur Stromerzeugung sowie von Batterien für Elektrofahrzeuge erfordert im Durchschnitt mehr als die zehnfache Menge an Materialien im Vergleich zum Bau von Maschinen, die Kohlenwasserstoffe [fossile Brennstoffe] verwenden, um die gleiche Energiemenge an die Gesellschaft zu liefern. … eine einzige Elektroauto-Batterie mit einem Gewicht von 1.000 Pfund erfordert die Gewinnung und Verarbeitung von etwa 500.000 Pfund an Materialien.“

Das sind 5 Pfund Erde für jede Meile, die das Auto in seinem Leben zurücklegt – etwa 25 Mal so viel wie für einen Verbrennungsmotor benötigt wird.

Er weist auch darauf hin, dass „Erdöl, Erdgas und Kohle benötigt werden, um den Beton, den Stahl, die Kunststoffe und die gereinigten Mineralien herzustellen, die für den Bau grüner Maschinen verwendet werden. Das Energie-Äquivalent von 100 Barrel Öl wird in den Prozessen zur Herstellung einer einzigen Batterie verwendet, die das Äquivalent von einem Barrel Öl speichern kann.“

Hinzu kommt, dass die meisten der benötigten Geräte – die riesigen Bagger, Lastwagen und andere gigantische Maschinen – mit Diesel laufen müssen, der aus Erdöl hergestellt wird. Sie sind einfach zu groß und schwer, um effizient von Batterien angetrieben zu werden.

Zweitens wird die überwiegende Mehrheit der Seltenen Erden, die in Windturbinen und Solarpanels verwendet werden, in zwei Ländern abgebaut und veredelt: China und der Demokratischen Republik Kongo. Dort sind Frauen und Kinder, die in Sklavenarbeit arbeiten, tödlichen Gefahren ausgesetzt, und die Prozesse führen zu großen Emissionen giftiger Chemikalien, die sowohl die Umwelt als auch die umliegende Bevölkerung schädigen.

Hinzu kommt, wie Robert A. Hefner V. von Hefner.Energy erklärt, das nationale Sicherheitsrisiko, das die Vereinigten Staaten in Bezug auf immer größere Mengen an Energie vom kommunistischen China abhängig macht. Inwiefern?

1. Five of the world’s top-10 wind turbine manufacturers are Chinese-owned or operated.

2. Nine of the world’s top-10 solar panel manufacturers are Chinese-owned or operated.

3. More than two-thirds of the world’s solar panels and one-half of wind turbines are produced in China.

4. In 1954, the United States was 100% dependent on imports for eight minerals listed in the Strategic Minerals Act of 1939; today, the United States is 100% reliant for 17 strategic minerals and depends on imports for over 50% of 28 widely used minerals. China is a significant source for half of those 28 minerals.

5. China is responsible for 37% of passenger electric vehicles and 99% of e-buses sold globally since 2011.

6. China controls 90% of the battery industry’s cobalt supply chain.

Drittens ist da das Entsorgungsproblem. Ausgediente Windturbinen, Solarpaneele und Batterien enden als enorme Mengen an nicht recycelbarem Abfall, von denen viele giftig sind. „Bis 2050“, schreibt Mills, „… wird die Menge an ausgedienten Solarmodulen … die doppelte Menge des gesamten heutigen globalen Plastikmülls ausmachen, zusammen mit über 3 Millionen Tonnen nicht recycelbaren Kunststoffen aus ausgedienten Windturbinenflügeln pro Jahr. Bis 2030 werden mehr als 10 Millionen Tonnen pro Jahr an Batterien zu Müll werden.“

Es gibt ein weiteres Problem mit Wind- und Solarenergie. Da sie von vergleichsweise geringen Energiequellen ausgehen (fossile Brennstoffe enthalten hundertmal mehr Energie pro Volumen als Wind und Sonnenlicht) und unstetig sind (sie erfordern ein Backup durch fossile oder nukleare Brennstoffe, wenn der Wind nicht weht oder die Sonne nicht scheint), erhöhen sie die Kosten für Energie. Da wir für alles, was wir nutzen, Energie benötigen, erhöht dies die Lebenshaltungskosten für alle, was vor allem den Armen schadet. Als Deutschland eine intensive Politik verfolgte, um fossile Brennstoffe durch Wind- und Solarenergie zu ersetzen, haben sich seine Stromkosten mehr als verdoppelt. Diese Erfahrung ist typisch.

Das ist an sich schon schlimm genug, aber es ist nicht unser Schwerpunkt. Unser Schwerpunkt liegt darauf, ob „grüne Energie“ „saubere Energie“ ist. Aber dieser wirtschaftliche Effekt hat Auswirkungen darauf.

Inwiefern? Eine saubere, gesunde, schöne Umwelt ist ein kostspieliges Gut. Wohlhabendere Menschen können sich teurere Güter leisten als ärmere Menschen. Wenn wir die Energiepreise erhöhen, verlangsamen, stoppen oder kehren wir den Aufstieg aus der Armut für die 2 Milliarden oder mehr Menschen auf der Welt, die noch darunter leiden, um. Wir schränken auch ein, wie viel Menschen in bereits entwickelten Ländern es sich leisten können, für andere Dinge als Energie auszugeben. Zusammengenommen bedeutet dies, dass wir die Sauberkeit der Umwelt weniger erschwinglich machen – und folglich weniger verbreitet.

Ein letztes Problem mit Wind und Sonne als Hauptenergiequellen? Man kann aus ihnen keine flüssigen Transportkraftstoffe herstellen. Sie können nur Strom erzeugen. Um die gesamte Elektrizität zu ersetzen, die wir heute aus fossilen Brennstoffen beziehen, müssten wir die gesamten Vereinigten Staaten östlich des Mississippi mit Windturbinen bedecken. Wenn wir unsere Fahrzeuge mit Elektrofahrzeugen umrüsten würden, bräuchten wir so viel mehr Strom, dass Windturbinen das gesamte restliche Land vom Mississippi bis zum Pazifik abdecken müssten. Ähnlich sieht es bei der Solarenergie aus. Das wäre sowohl ökologisch als auch ökonomisch verheerend. Kurz gesagt, Wind- und Solarenergie sind weder „grün“ (gut für die Umwelt) noch „sauber“ (effektiv, um die globale Erwärmung einzudämmen – als ob das wirklich notwendig wäre – oder traditionelle Schadstoffe zu reduzieren).

Link: https://cornwallalliance.org/2021/05/why-green-energy-isnt-clean-energy-or-a-good-substitute-for-fossil-fuels/

Übersetzt von Chris Frey EIKE

 




Die Treibhaushypo­these der Klima­wissenschaft, der Strahlungs­verteilungsfaktor ½ und Speicher­wirkung vom Tag in die Nacht

Die Treibhaushypothese:

Um den Strahlungshaushalt der Erde zu erklären, entwickelte Bruce Barkstorm eine aus Satellitenmesswerten abgeleitete Modellhypothese 1 einer atmosphärischen Gegenstrahlung von 327 W/m². Diese Strahlung, auch als Backradiation bezeichnet, soll in seiner Vorstellung aus der Atmosphäre in Richtung Erdoberfläche wirken. Sie wäre damit der langwelligen Abstrahlung der Erdoberfläche entgegen gerichtet. B. Barkstorm war in den 1980ger Jahren der Chefingenieur beim Bau des Satelliten ERBS, ein Teil des NASA ERBE-Programms. Die Wissenschaftler J. K. Kiehl und K. E. Trenberth übernahmen von Barkstorm 1997 in ihrer Studie „Earth’s Annual Global Mean Energy Budget“ 2 sowohl die Strahlungsverteilung als auch die Treibhaushypothese der Gegenstrahlung. In KT97 beträgt die Gegenstrahlung 3W/m² weniger und damit 324 W/m². Im Unterschied zu Barkstorm verfeinerten Kiehl und Trenberth ihr Erklärungsmuster in der Modellierung um die Zuordnung des Treibhaus- „Effektes“ der Gegenstrahlung auf einzelne unsymmetrische, atmosphärische Gase.

In der Modellhypothese KT97 verbleiben aus der gesamten, direkten Sonnenwirkung von 1367W/m2 (TSI) im rechnerischen Mittel lediglich 66 W/m² als wärmewirksamer, langwelliger Abstrahlungsanteil (LW) für die Erde übrig. Die Summe von erwärmender Sonnenwirkung als langwellige Abstrahlung von 66 W/m² (17%) und atmosphärische Gegenstrahlung 324 W/m² (83%) sollen so gemeinsam die durchschnittliche mittlere Globaltemperatur der Erde von ca. 15 °C mit 390 W/m² (100%) bei dieser Hypothese bilden, FIG.7. rechts. 83% entsprechen einer erwärmenden Wirkung von < 1% der im Molekülaufbau unsymmetrischen, atmosphärischen Gase (Wasserdampf, Kohlendioxid, Methan, Distickstoffoxid, Ozon,..). Die solare Einstrahlung von 1367 W/m² auf die Kreisfläche (r² π) projiziert, mit r = Erdradius, entspricht dem Durchschnittswert einer Abstrahlung von rund 342 W/m² (1367 W/m² / 4) auf der gesamten Erdkugeloberfläche (4 π r²).

Die von der Erdoberfläche in FIG.7 absorbierte Strahlung im Mittel errechnet sich somit zu 168 W/m².

Von der vom Boden absorbierten Strahlung gehen in die Atmosphäre nach Abzug von Latent Heat (verborgene Wärme oder Umwandlungsenthalpie) und Sensible Heat (Konvektion) als langwellige Strahlung 66W/m² (LW).

Diese 66 W/m² sind explizit in der Studie KT97 in TABLE 1 3 erfasst. In der Zeichnung FIG. 7 sind die 66 W/m² grafisch nicht dargestellt. Sie ergeben sich gleichzeitig aus der Subtraktion der Leistungen in W/m² in FIG. 7 „Absorbed by Surface – Back Radiation“ der rechten Bildhälfte oder 390W/m² – 324 W/m² oder:

Damit entsteht der Gegenstrahlungs- „fluss“ immer aus Null, aus dem „Nichts“. Er ist für die energetische „Bilanzierung“ mathematisch „neutral“. Man kann den Rechenvorgang mit einer „Buchung“ assoziieren. Oder für (1) anders ausgedrückt, die Gegenstrahlung kann mathematisch jeden beliebigen Werten annehmen, beliebig variabel oder „fiat flux“.

Extremwert- oder Grenzwertbetrachtung: Der im Modell KT97 mathematisch zulässige Leistungswert der Gegenstrahlung nimmt einen sehr, sehr hohen, einen extremen Wert an. Seine physikalische Bedeutung bleibt.

Die mathematische Zulässigkeit der Modellierung – die Zahlenwerte der Gegenstrahlungshypothese als Leistung in W/m² dürfen beliebig groß werden – hat folgende physikalische Auswirkung: In letzter Konsequenz darf die Modelloberfläche KT97 durch Gegenstrahlung so heiß werden wie die Sonnenoberfläche mit ca. 6000 °C und gleichzeitig strahlt die Modellatmosphäre dennoch mit -19 °C in frostigem Zustand. Dies ist, wie man sofort erkennt, unmöglich, ein interner Widerspruch und deshalb ein schwerer Modellierungsfehler. Wenn die Modellierung einerseits alle Zahlen zulässt, aber für große Zahlen so eindeutig falsch ist, dann muss der gesamte Modellmechanismus KT97 aus Gründen der Logik auch für kleine Zahlen falsch sein. Der physikalische Grund für die falsch ausgeführte Modellierung liegt darin, dass die Energie, als Gegenstrahlungsleistung in W/m² mal Strahlzeit T, im Modell aus dem Nichts kommt und beliebig groß werden kann. Diese Modellierung verstößt auf das Massivste gegen den 1.Hauptsatz der Thermodynamik und ist deshalb nach Ansicht des Autors falsch. Es ist eine der Beliebigkeit unterworfene Hypothese.

Durch ihre „Bilanzneutralität“ und ihre Beliebigkeit war es möglich, die Gegenstrahlung im Nachhinein 2009 nun auf 333 W/m² abzuändern, FIG.I. Trenberth, Fassulo, Kiehl 4. Eine weitere nachträgliche Abänderung erfolgte 2012 bei Norman Loeb 5. Die Gegenstrahlung erreicht jetzt den Wert von 342 W/m². Dies entspricht dem mathematischen Rechenwert der Sonneneinstrahlung bzw. TSI von 1368 auf die Erde in der ¼ Verteilung der Modellhypothese von KT97. Oder anders formuliert die Gegenstrahlung (oder weniger als 1% des atmosphärischen Gasgemisches) strahlt exakt wie eine zweite Sonne im Modell. „Fiat lux“. Ohne „Gegenstrahlungssonne“ kann die mittlere Globaltemperatur nicht erklärt werden.6

Kann man mit die mittlere Globaltemperatur mit einem anderen Modell erklären? Dies ist nach Meinung des Autors möglich durch: 1) Genauere Betrachtung des Strahlungsverteilungsfaktors, der nach „settled theory“ mit ¼ modelliert wird.

Der Strahlungsverteilungsfaktor

Der Strahlungsverteilungsfaktor ist die maßgebliche, die zentrale Steuerungsgröße bei der Modellierung der Leistungsbilanzierung im Energiehaushalt eines Klimamodells. Er bildet die durchschnittliche Einstrahlung ab. Aus Gründen der Logik gilt allgemein: Besteht ein kontinuierlicher Betrachtungshorizont in einem physikalischen Ablauf, wie z.B. bei einem bewegten Objekt über eine Strecke oder über eine Zeitspanne, aus Σ i Intervallen, muss der Durchschnittswert über den Betrachtungshorizont – da es das mathematische Wesensmerkmal oder hervorstechende Kriterium eines Durchschnittswertes ist – in all seinen i Intervallabschnitten oder über alle i gegen unendlich gültig sein. (Trivial Kriterium).

Für ein Klimamodell folgt: Der modellierte Durchschnitt der Einstrahlung aus der Leistung der Sonne in W/m² muss nicht nur in einem Jahr, einem Monat oder an einem Tag gelten, er muss mathematisch auch für jedes T gegen Null gelten. Wir kehren zurück zur Modellierung von B. Barkstorm, Kiehl und Trenberth. Ihre Leistungsbilanz des Strahlungshaushaltes steht stellvertretend für einen Durchschnittsquadratmeter oder eine homogene Modellkugel mit Radius R. Diese hat nur die Durchschnittswerte mit der Erde gemein. Jeder Ortspunkt (Xi,Yi) auf der Modellkugeloberfläche hat identische Eigenschaften. Damit ist in KT97 die Albedo a an jeder Stelle (Xi,Yi) konstant oder a = 0.3129. Für die Stelle des Radius R wird der Erdradius gesetzt:

Die Erdoberfläche beträgt 510.1 Mio. km². Die durchschnittliche Abstrahlung als Leistungseinheit in W/m² auf ihrer gesamten Oberfläche im Betrachtungshorizont jährlich „annual global mean“, im Intervall eines Monats oder im Intervall von 24 Stunden setzt sich zusammen aus: 107 W/m2 (Reflected Solar Radiation) und 235 W/m² (Outgoing Longwave Radiation) = 342W/m², siehe FIG.7.

Die Energie E aus Durchschnittleistung in W/m² der modellierten Einstrahlung eines Jahres, Monats und eines 24 Stunden Erd-Tags wird bei Gleichsetzung der Abstrahlung mit der Einstrahlung die Energie weiterhin im Modell richtig errechnet, aber mathematisch wird die Einstrahlung über den „niedrigenDurchschnitt auf die dunkle Nachtseite mit einbezogen. Hierin liegt die Tücke dieser Modellvorstellung. In den nächsten Intervallstufen, Sekunde und in T gegen Null ist es in auf der Nacht-Hemisphäre der fiktiven, homogenen Modellkugel mathematisch taghell.

Beim Übergang des einzelnen, zeitlichen i- Intervalls von Jahr, Monat, Tag, Sekunde und weiter zu N Intervallen, der Einstrahlung im Augenblick (T gegen Null oder Zeit / N), mit einer Folge von N Intervallen und damit N gegen unendlich für einen 24 Stunden Erdtag als Betrachtungshorizont, kann aber stattdessen formuliert werden:

Für eine stets nur halbseitig beleuchtete Kugel, bezogen auf die doppelt gekrümmte Kugeloberfläche berechnet mit der Integration über Polarkoordinaten, siehe auch Kap. 5.1.2 9. Der Übergang von der nicht rotierenden zur rotierenden Kugel, siehe Anhang 19, führt wieder zu einer Einstrahlung von 684 W/m² (2). Auch diese Modellierungsvariante errechnet die Energie E richtig. Sie entspricht aber jetzt so modelliert der echten Sonneneinstrahlung in T gegen Null, also unserer Beobachtung. Deshalb beträgt die Einstrahlung auf der Hemisphäre einer stets nur halbseitig beleuchteten Kugel im rechnerischen Durchschnitt im Modell 684 W/m². Für den Strahlungsverteilungsfaktor der Einstrahlung bedeutet dies:

Für das infinitesimal kleine Stück der rotierenden Mantelflächenlinie um die Rotationsachse x gilt:

Energie E aus durchschnittlicher, flächenbezogener Leistung, die die Mantelfläche des Rotationskörpers in T(sec) erhält, mit x = 0 als Mittelpunkt. Die Energie in T errechnet sich über Integration entlang der x-Achse über Δx von x = -R bis x = 0, wenn in T stets nur eine halbe Kugel als Rotationskörper um x und Beleuchtung in x-Richtung erhält.

Mit einem Erdradius R von 6.378 Km dreht sich in jeder Sekunde die Erde um 1/86400 eines 24-h-Tages ein Stück weiter. Oder 86.400 Energieportionen einer Sekunde erhält die Erde in 24 Stunden oder:

E = 684 W/m² 2 x (6.378.124 m)² π 86400 sec = 1.51 1022 Wsec = 1.51 1022 J = 1368 W/m²π in 24 h

Die Integration über die Formulierung kartesischer Koordinaten zeigt die Parallelität der Einstrahlungsleistung L von 684 W/m² zur globalen x-Richtung und der stets nur halbseitig beleuchteten Mantelfläche der Kugel als Rotationskörper um die globale x-Richtung. Die Formulierung in Polarkoordinaten, die das identische Ergebnis liefern muss, zeigt dagegen das Wirken von 684 W/m² Einstrahlleistung auf eine stets doppelt gekrümmte Oberfläche, S.83 und S.176 -177. 9 Beide Rechenwege liefern das identische Ergebnis von 1.51 1022 J Energie aus Sonne unter stets halbseitiger Beleuchtung der in 24 h einmal rotierenden Erde liefern. Damit ist der Strahlungsverteilungsfaktor ¼ falsch und ½ richtig. Was es bedeuten kann, einen falschen Verteilungsfaktor in einer Netzmodellierung zu benutzen, siehe Kap. 5.17 9.

2) Genauere Betrachtung der Satellitenmesswerte: In der Rezeption von KT97 werden die Werte wattgenau benutzt. KT97 bezieht sich in S.199 auf die ERBE Datensätze „ …, we use the ERBE outgoing longwave flux of 235 W/m²…“ [Hervorhebungen hinzugefügt]. Es wird darauf hingewiesen, dass dieser olf für die einzelnen Satelliten ERBS, NOAA-9, NOAA-10 (ERBE) vorsichtig formuliert nicht 235 W/m² beträgt. Der Unterschied zwischen dem ERBE-Datensatz 1985-1989 z.B. (ERBS min. 242.3 – max. 243.5 W/m² nach CEDA) und der in KT97 modellierten Strahlungsgröße olf macht hier bereits 7 W/m² aus, weitere Abweichungen siehe auch Kap 4.1.1.bis 4.1.6 9. In KT97 wird auf S.206 erklärt: „The purpose of this paper is not so much to present definite values,…“. Die Qualität der Datensätze ist beim Satelliten ERBS am höchsten (Begründung: Kap. 2.3 bis 2.6 9). Mit diesen kann ein neues Modell formuliert werden (Kap 5 9). Bei den Datensätzen des ERBS Satelliten gibt es spezielle Net– Werte (siehe die weiter hinten im Text grün abgebildete Werte mit Verweis auf GLOBAL MEAN OF nach CEDA, Centre for Environmental Data Analysis, Oxford, England). Das folgende Beispiel eines Datensatzes der Quelle CEDA 7, gemeint ist die Zahlenkolonne nach Mean1987, verdeutlicht dies in a) bis c) als ein Beispiel zur Interpretation der Net– Strahlungen:

a) Net-Strahlungen unter Berücksichtigung des negativen Vorzeichens, gemäß der Datenübermittlung von ERBS:

Net Cloud Forcing -20.25 + Net Radiation 20.19 = 0 Clear-Sky Net Radiation (40.44). Es gibt keine Übereinstimmung. Alternativ ohne Berücksichtigung des Vorzeichens und damit als mathematischer Betrag:

Net Cloud Forcing |-20.25 | + Net Radiation |20.19| = 40.44 = Clear-Sky Net Radiation (40.44). Es gibt eine Übereinstimmung. Wenn man die drei Net-Strahlungen berücksichtigt, erscheint es sinnvoll, sie als mathematische Beträge von Leistungen zu interpretieren.

b) Unabhängig von einer Datenübermittlung mit Vorzeichen oder ohne Vorzeichen als Betrag ist:

Clear-Sky Net Radiation |40.44 | + Clear Sky Shortwave Radiation |52.52 | = 92.96 Shortwave Radiation 97.21. Dies ist halbwegs eine Übereinstimmung von mathematischer Summe zum Messwert und bei Betrachtung der Datensätze eher selten.

c) TSI/4 – (shortwave rad.) – (longwave rad.) = (net rad.) 20.19 oder 1368/4 – |97.21 | -|245.13 | = – 0.34

– 0.34 ungleich 20.19 (net rad.). Es gibt keine Übereinstimmung der mathematischen Differenz zum Net-Messwert. Wäre die Net-Radiation lediglich eine Strahlungsdifferenz und kein eigener Messwert, müsste der Messwert hier ebenfalls 0 sein. Das ist nicht der Fall. Damit ist diese Net-Radiation ein eigener Messwert. Wenn sie ein eigener Messwert ist, sind aus Gründen der Logik, alle drei Typen der übermittelten Net– Radiations Messwerte (weitere Beispiele und Begründungen, siehe Kap. 5.4.2 bis 5.4.5, 5.12 und S.187 -190 9 ).

Unabhängig von dieser Begründung wurden für die Modellierung trotzdem beide Varianten untersucht. Die Net- Werte wurden zu Null gesetzt und unberücksichtigt gelassen und im anderen Fall als gemessene Strahlung verstanden. In der jeweiligen Modellierung unterscheiden sich dann lediglich die Größen von SH, LH und Satm (Kap. 5.4.2 9). Die Wärme des Tages wirkt in beiden Varianten über Speichereffekte in die Nacht (Kap. 5.4.3 9). Die ERBS Messwerte zeigen für beide Fälle, es bildet sich eine mittlere Globaltemperatur mit rund 15 °C ohne Treibhaushypothese durch unsymmetrische atmosphärische Moleküle aus. Fasst man die NetWerte als Messwerte auf, lässt sich ein Modell 5 formulieren, welches alle Messreihen widerspruchsfrei abbildet. Die Modellabweichung dieses Modell ist < = 2 W/m² zu der vom Satelliten erst einzeln gemessenen, danach gemittelten Strahlung oder macht weniger als fünf Tausendstel der „top of“ gemessenen Gesamtstrahlung aus (4.8 = 2.0 W/m²/414.5 x 1.000). Exakte Ableitung des Gegenmodels (Modell 5) zu KT97 (siehe Kap. 5.3f 9 ).

Die durchschnittliche, mittlere stets halbseitige Einstrahlungsleitung des Modell 5 (siehe cloudy sky und clear sky), jährlich (annual), monatlich, in 24 h oder in T gegen Null betrug über Integration über Polarkoordinaten, wie die kartesische Berechnung 684 W/m². 684 W/m² sind auf die gekrümmte Oberfläche bezogen (siehe Kap. 5.1.2, S.83 9). 1368 sind auf den ebenen Einstrahlkreis bezogen. Messwerte des ERBS Satelliten 1985 bis 1989 im 5- jährigen Mittel nach CEDA:

Die römischen Zahlen entsprechen den horizontalen Ebenen der Atmosphäre in Bild 2 und bilden eine stehende halbseitig beleuchtete Hemisphäre ab. Für den Übergang zur rotierenden halbseitig beleuchteten Kugel (siehe Kap. 5.4.2, S.92 – 93 9).

Aus der Erdkrümmung folgt eine Strahlungsabschwächung für die Messebene des Satelliten ERBS auf knapp 600 km mittlere Höhe in Ebene I´ (siehe Anhang 7 9). Wird eine Abschwächung von 17.2% berücksichtigt, folgt:

500 W/m² x 0.828 = 414 W/m² oder = Summe der Messwerte in W/m² = Σ 101 +19 +20 +243 +31 = 414 W/m².

Ebene I´ ist die Messebene des Satelliten und Ebene VII die Ebene der Erdoberfläche mit einer durchschnittlichen Globaltemperatur aus Tag- und Nachtmittel von rund 15 °C. In Analogie zu KT 97 mit 62 % durchschnittlicher Wolkenbedeckung für die Erde (nach KT97, S.206) aber mit atmosphärischem Fenster von 87 W/m² (Begründung Kap 4.1.8 9). Es wird so sichtbar, (500 W/m²) werden vom Tag in die Nacht hinein gespeichert.

Die Atmosphärenebene I bis VII aus Tag + Nacht erfüllen in 24 h gemeinsam das horizontale Gleichgewicht der Leistungsbilanzierung. Die Einstrahlung stets in T gegen Null auf der halben Kugel und Abstrahlung auf der Vollkugel, durch | getrennt, erfüllen das vertikale Bilanzgleichgewicht. 368/1368 = 0.269 = Albedo von ERBS oder als Tag und Nachtmessung durch ERBS:

II Σ +183 +0 +185 -185 -0 -1183 + 86 +86 +2 [Tag- und Nachtmessung] x (+101 +19 +20 +243 +31) = 0 q.e.d.

Eine der Beliebigkeit unterworfene Gegenstrahlung, ein fiat flux“, kaschierte die falsche Strahlungsverteilung. Es existiert kein Treibhauseffekt von 33 K zur Bildung einer globalen mittleren Oberflächentemperatur von rund 15 °C. Die gemessenen Daten des ERBS Satelliten, mit allen Reihen beweisen dies. In der Leistungsbilanz über Ebene I´ bis VII wird sichtbar, wie die Tagestemperatur über Speicherwirkung in die Nacht hineinwirkt. Bei Kiehl- und Trenberth im Modell KT97 gibt es keine Wärmespeicherung. Von der direkten Wirkung der Sonne blieben nur 66 W/m² übrig. Deshalb musste in KT97 die Sonne mit 342 W/m² nachts rechnerisch in jedem T gegen Null die nicht beleuchtete Hemisphäre „nachheizen“.

Eine generelle Strahlungsbehinderung in der Abstrahlung durch eine hohe Gegenstrahlung von 300 W/m² existiert nicht. Die Nacht reicht aus, um die von der Sonne empfangene Wärme des 24 Stunden Tages über SH, LH, Satm, Reflektion und Strahlung ungehindert auf der Vollkugel abzustrahlen. Für den betrachteten Gleichgewichtszustand in der Leistungsbilanz Einstrahlung/Abstrahlung in W/m² stellt sich so Oberflächentemperatur von rund 15 °C ohne Treibhauseffekt ein. Durch Wolken und durch die Wärmeleiteigenschaften der Luft mag es zeitliche Verzögerungen in der Wärmeabgabe geben, ebenso durch langfristige Effekte von Änderungen in den Wärmespeichern der Erde. Man kann zeigen, dass statt der Gegenstrahlung die Änderung der Albedo in der Modulierung der Globaltemperatur eine sehr wichtige Rolle spielt Kap 5.13 9). Ein Experiment mit CO2 unter direktem Sonnenlicht, Anhang 4 9, bestätigt ebenfalls, dass es einen atmosphärischen Treibhauseffekt aus einer Gegenstrahlungshypothese nicht gibt. Für eine verstärkte Einbindung der Wolken in die Modellierung über den Messwert des Longwave Cloud Forcing wird auf Kap. 5.7 9 verwiesen.

Zusammenfassung des Artikels:

Die Gegenstrahlung ist eine reine Modellhypothese aber Basis der aktuellen Klimamodelle. Der Strahlenverteilungsfaktor ¼ ist zur Berechnung der Einstrahlung im Klimamodell falsch und stattdessen ½ richtig. Mit ¼ wird die mittlere Einstrahlung in der Modellierung viel zu gering errechnet. Diesen Fehler musste die Gegenstrahlungshypothese in der Treibhaushypothese bereits bei B. Barkstorm ausgleichen. Mit dem richtigen, über ½ errechneten Einstrahlungsdurchschnitt entfällt sofort ihre Grundlage. Bei Verwendung aller Messreihen der fünfjährigen gemittelten Datensätzen des ERBS Satelliten lässt sich in Anschluss ohne Gegenstrahlung bei stets halbseitiger Beleuchtung der Erde – die unserer Beobachtung entspricht – die Speicherwirkung der Erdoberfläche vom Tag in die Nacht hinein darstellen Die Abweichung zwischen Messwert und Rechenwert oder Modellgüte des neuen Modells beträgt dann weniger als fünf Tausendstel der „top of“ gemessenen Gesamtstrahlung oder ist kleiner gleich 2W/m².

9 A. Agerius, 2021, Kritische Analyse zur globalen Klimatheorie, Erweiterung-Vertiefung-Prognose, 2. Auflage, tredition, Hamburg

1Barkstorm, Ramanathan and Harrison, 1989, CLIMATE AND THE EARTH’S RADIATION BUDGET, in PHYSICS TODAY, American Institute of Physics.

2J. Kiehl, K.E. Trenberth, 1997, Bulletin of the American Meteorological Society, Vol. 78, No. 2, February 1997, S. 197-208. Im Folgenden wird diese Studie als KT97 bezeichnet.

3KT97, Table 1. Summary of the earth energy budget estimates…, S. 199. [Hervorhebung hinzugefügt]

4Trenberth, Fasullo and Kiehl, 2009, EARTH’s GLOBAL ENERGY BUDGET, American Meteorological Society, BAMS S. 1-13, DOI:10.1175/2008BAMS2634.I.

5Loeb, Dutton, Wild et altera, 2012, The global energy balance from a surface perspective, Clim Dyn (2013) 40:3107-3134, Springer-Verlag, Doi 10.1007/s00382-012-1569-8.

6Für die Messung einer solchen Gegenstrahlungssonne mit Messgeräten wird auf 9, Kap. 4.24, 75 f. verwiesen.

7CEDA, Oxford, England, ERBS Datensätze 1985 – 1989, mit Stand vom 19.11.2020, beispielsweise für die Messreihe mean1987: http://data.ceda.ac.uk/badc/CDs/erbe/erbedata/erbs/mean1987/ und hierin die Datei data.txt aufrufen. Der Datenaufruf im ERBS Datensatz muss für die Jahre, Strahlungstypen/Albedo, spezielle Messreihen, Durchschnitte, Darstellungen, etc. entsprechend angepasst werden.




Kältester April in Deutschland seit 1977 (Minimum des Sonnenzyklus‘ 20), und selbst NASA-Forscher räumen einen sich abkühlenden Planeten ein

Europa ist die Region, die nachweislich am stärksten unter früheren Grand Solar Minima (Dalton/Maunder) gelitten hat, was angesichts der Nähe zum Pol und der großen Bevölkerungszahl auch Sinn macht.

Der Beginn dieses nächsten GSM zeigt, dass das auch diesmal der Fall ist, selbst in diesem frühen Stadium…

Wie Anfang der Woche berichtet, hat der europäische Kontinent gerade einen historisch kalten April erlebt, der nun bis in den Mai hinein anhält.

[Einschub: Dazu passt die Meldung der auf der alarmistischen Seite stehenden Plattform wetteronline.de, wonach sich heute früh (7. Mai) in den Niederlanden (!) verbreitet kurzzeitig eine dünne Schneedecke gebildet hatte {Link}. Ende Einschub]

Mit einer Durchschnittstemperatur von nur 6C war der April 2021 in Deutschland der kälteste vierte Monat des Jahres seit 1977 (solares Minimum des Zyklus 20). Dieser Durchschnittswert liegt etwa 3C unter der klimatologischen Norm von 1991-2020 und 2,3C unter dem bisherigen 30-jährigen Mittel von 1981-2010.

Der Monat war auch etwas trockener als im Durchschnitt, berichtet der DWD Klima und Umwelt auf Twitter:

Man beachte den starken Temperaturrückgang in dieser Graphik.

Unter der Lupe sieht man den Absturz vom April 1920 auf den April 2021 noch deutlicher:

Dies ist ein Hinweis darauf, wie schnell sich das Klima abkühlen kann, wenn die Bedingungen es zulassen, Bedingungen wie geringe Sonnenaktivität und La Ninas.

Entscheidend ist hier auch, dass die Zeitspanne zwischen geringer Sonnenaktivität und terrestrischer Abkühlung nun vorbei zu sein scheint.

Der „Abkühlungstrend“, den die NASA in den letzten Jahren in der „oberen“ Atmosphäre registriert hat, ist nun endlich in die unteren Atmosphärenschichten und in die globale „untere“ Atmosphäre und damit in den Lebensraum von uns Menschen durchgedrungen.

„Hoch über der Erdoberfläche, nahe dem Rand des Weltraums, verliert unsere Atmosphäre Wärmeenergie“, sagte Martin Mlynczak von der NASA, Associate Principal Investigator für das SABER-Instrument an Bord des TIMED-Satelliten der NASA, bereits im Jahre 2018. „Wenn sich die aktuellen Trends fortsetzen, könnte es bald einen Kälterekord für das Weltraumzeitalter geben“ – was Ende 2018 der Fall war.

Der TIMED-Satellit der NASA:


Die Aufgabe von SABER ist es, die Infrarot-Emissionen von Kohlendioxid (CO2) und Stickstoffmonoxid (NO) zu überwachen – durch die Messung des Infrarot-Glühens dieser Moleküle kann SABER den thermischen Zustand des Gases ganz oben in der Atmosphäre beurteilen: eine Schicht, die die Forscher „Thermosphäre“ nennen.

„Die Thermosphäre kühlt immer während des solaren Minimums ab“, so Mlynczak weiter. „Das ist eine der wichtigsten Arten, wie der Sonnenzyklus unseren Planeten beeinflusst.“

Um zu verfolgen, was in der Thermosphäre passiert, haben Mlynczak und Kollegen kürzlich den „Thermosphären-Klima-Index“ (TCI) eingeführt – eine in Watt ausgedrückte Zahl, die angibt, wie viel Wärme die NO-Moleküle in den Weltraum abstrahlen. Während des Sonnenmaximums ist der TCI hoch („heiß“), während des Sonnenminimums ist er niedrig („kalt“).

Und obwohl SABER seit zwei Jahrzehnten im Orbit ist, konnten Mlynczak und Kollegen den TCI bis in die 1940er Jahre zurück berechnen: „SABER hat uns das gelehrt, indem es uns gezeigt hat, wie TCI von anderen Variablen wie der geomagnetischen Aktivität und der Leistung der Sonne abhängt – Dinge, die seit Jahrzehnten gemessen werden“, erklärt er.

Eine historische Aufzeichnung des Thermosphären-Klima-Index‘.

Mlynczak und Kollegen haben kürzlich eine Arbeit über den TCI veröffentlicht, die zeigt, dass der Zustand der Thermosphäre mit einer Reihe von fünf Begriffen in einfacher Sprache beschrieben werden kann: Kalt, Kühl, Neutral, Warm und Heiß.

Betrachtet man Mlynczaks obiges Diagramm – und genauer gesagt seine Darstellung der letzten 6 Sonnenzyklen, die direkt mit dem Thermosphären-Klima-Index von SABER übereinstimmen – so zeigt sich, dass diese jüngste und historische Runde niedriger Sonnenleistung erst mit dem Minimum von Zyklus 23 (wohl 2008) begann.

Und da die Auswirkungen des rekordstarken El Nino von 2016-17 nun vollständig verblasst sind und die Auswirkungen des moderaten Ereignisses von 2019-20 sich ebenfalls verflüchtigt haben (beides deutlich sichtbar in der untenstehenden Grafik), wirkt sich die kumulative Verringerung der Aktivität durch die Zyklen 23 und 24 schließlich auf unsere „globalen“ Temperaturdaten aus, und nicht nur auf die regionalen – wie oben erwähnt, hat sich die Rekordabkühlung der Thermosphäre nun bis in die Troposphäre vorgearbeitet [Hervorhebung im Original]:

[drroyspencer.com]

Um noch einmal kurz auf die regionalen Daten zurückzukommen, denn ich denke, es ist wichtig, dass wir uns der Auswirkungen vor Ort bewusst sind, damit wir uns richtig vorbereiten können: Deutschland war eine der Nationen, die während des vorangegangenen Großen Sonnenminimums, dem gemäßigteren Dalton-Minimum (1790-1830), eine schnelle und intensive terrestrische Abkühlung verzeichneten.

Die Oberlacher Wetterstation beispielsweise verzeichnete Anfang des 19. Jahrhunderts einen Temperaturrückgang von 2°C innerhalb von nur 20 Jahren – diese rapide Abkühlung zerstörte die Nahrungsmittelproduktion des Landes und trug dazu bei, dass Millionen und Abermillionen von Menschen in ganz Eurasien hungern mussten. Es räumt auch mit der Behauptung auf, dass solch starke Veränderungen des Klimas Jahrhunderte brauchen, um sich zu manifestieren – dies ist nicht wahr, historische Dokumente – ganz zu schweigen von Proxydaten – zeigen uns, dass eiszeitliche Bedingungen innerhalb von nur wenigen Jahren eintreten können.

Der starke Temperaturrückgang in Deutschland von April 2020 auf April 2021 ist ein weiterer Beleg dafür.

Link: https://electroverse.net/germanys-coldest-april-since-1977-as-even-nasa-notes-a-cooling-planet/

Übersetzt von Chris Frey EIKE