1

Die WELT warnt: „Dutzende Prozesse gegen Klimasünder sind in Vorbereitung.“

„Greenpeace, Nabu, Germanwatch: An organisierten Umwelt- und Klimaschützern herrscht in Deutschland keinMangel.

… meint Daniel Wetzel von der Welt. Man könnte auch sagen: Steuergeldumverteilungs-Vereine von Akademikern, die mit wechselnder Argumentation zu wechselnden Weltuntergängen Kasse machen. Mit dem Verbandsklagerecht hat die Bundesregierung Dutzenden dieser Vereine eine Art Lizenz zum Gelddrucken erteilt, da nun zum Beispiel die Umwelthilfe von Vielflieger Jürgen Resch sogar Strafgelder von Mobelhändlern eintreiben darf, weil auf irgendeinem ausgestellten Kühlschrank der Aufkleber mit der Energieklassifizierung fehlte.

Aber das sind nur Petitessen, jetzt geht es an die ganz großen Wirtschaftsunternehmen. In der Umweltretterszene herrscht Goldgräberstimmung, nachdem das Bundesverfassungsgericht und das Haager Gericht die Bundesregierung und Royal Dutch Shell verurteilt hatten. Um am Ende nahezu jedes größere Unternehmen verklagen und ggfls. ausnehmen zu können, das irgendwo CO2-Emissionen hat (unmöglich, gar keine zu haben), hat sich nun eine aktivistische Initiative gebildet, um die letzten Klagelücken schließen zu können. Der Verein Green Legal Impact Germany e.V. (GLI) wurde im Dezember 2019 in Berlin gegründet und „versteht sich als „katalytisch-strategischer Akteur“ im Bereich Umweltrecht in Deutschland. Der Verein will den Zugang zu Gerichten stärken, und in einer fortschreitend globalisierten Welt helfen, die Umweltauswirkungen deutscher Akteure im Ausland (staatliches und unternehmerisches Handeln) zu erkennen und globale Akteure in ihrem rechtlichen Vorgehen stärken.“

Heißt im Klartext, die Lobyyisten unterstützen Klagewütige aus südlichen Ländern, die behaupten, daß Orkane oder andere Naturkatastrophen Folge deutscher Industrietätigkeit seien. Das Schema hat die ARD mit dem Klima-Gerichtsfilm Ökozid bereits beschrieben.

Im Vorstand sitzen Anwälte wie die VerfG-Klägerin Roda Verheyen, die Geschäftstelle leiten alte Bekannte von der DUH & Co.:

Henrike Lindemann – Nach mehreren inspirierenden Jahren in der Change- und Transformations-Szene ist Henrike Lindemann seit Anfang 2021 als Geschäftsführerin von GLI zurück im Bereich Umweltrecht. Bereits von 2010 bis 2013 arbeitete sie als Juristin in der Anti-Kohle-Kampagne der Deutschen Umwelthilfe.

Tatjana Thiel ist diplomierte Ökonomin mit Schwerpunkt auf Nachhaltigkeits- und Gerechtigkeitsthemen. Sie war mehrere Jahre engagierte Umweltaktivistin bei Greenpeace und anderen NGOs.

Höchst interessant ist auch die Vita der Chefin Verheyen, laut Wikipedia:

Von 2001 bis 2006 war sie selbstständige Beraterin, u. a. für die Gesellschaft für technische Zusammenarbeit, das Bundesumweltministerium, Friends of the Earth, Foundation for International Environmental Law and Development (FIELD, London) und Germanwatch e.V. … 2002 gründete sie mit Peter Roderick das internationale Netzwerk Climate Justice Programme. 2005 wurde Verheyen mit ihrer Arbeit „Climate Change Damage in International Law“ zum Dr. jur. promoviert…. Seit 2006 ist Verheyen als Rechtsanwältin mit Schwerpunkt im Umweltrecht, Planungsrecht, Öffentlichen Baurecht und Völkerrecht sowie in der Politischen Beratung tätig. Am 5. Mai 2021 wurde Verheyen von der Hamburgischen Bürgerschaft für sechs Jahre zum Mitglied des Hamburgischen Verfassungsgerichts gewählt.

Laut Wetzel sei die im Haager Urteil betonte „ungeschriebene Sorgfaltspflicht“ der zentrale Aufhänger – in der DDR sagte man „Gummiparagraf“ – der sich GLI zufolge überall in den Verfassungen und Gesetzbüchern finden lasse.

Nun sind die Ökobewegten und Weltretter, wie man am Musterbeispiel Annalena Baerbock sieht, selten fleißige Studenten, die Volljuristen, Naturwissenschaftler oder Ingenieure werden wollen. Daher mangelte es den Klimaklägern bislang wohl an Fachpersonal, das man aber nun aggressiv anwirbt, um die die Gerichte vor allem der DACH-Staaten mit Klagen zu überschwemmen.

Geworben werden gezielt Referendare, junge Anwälte oder Verbandsvertreter oder Studenten mit prozeßrechtlichen Vorerfahrungen, wie es in einer Mail an die Mitglieder des Berliner Forums Umweltrecht heißt

.. fand die Welt heraus. Ob die meisten jungen Juristen alle klimabegeistert sind, ist fraglich; die Möglichkeiten, mit hoher Erfolgsaussicht viel Geld zu verdienen und Prozesse zu gewinnen, dürfte aber als Anreiz genügen.

Roda Verheyen plant, als nächstes vor den Europäischen Gerichtshof für Menschenrechte zu ziehen. Den Anwälten ist dabei wohl gleich, ob sie die Industrie ruinieren oder nach Rußland treiben; nach mir die Sintflut. Nicht-Profiteure sehen das anders und schlagen Alarm: so hält der Wirtschaftswissenschaftler Joachim Weimann aus Magdeburg bereits das Urteil des Bundesverfassungsgerichts für „eine Katastrophe“.

Bislang wurde von deutschen Unternehmen nur das RWE unmittelbar beklagt – von dem berühmten peruanischen Bauern, dessen Haus von einem anschwellenden Gletschersee bedroht werde. Daß ein Bauer aus den Anden weder an den menschgemachten Klimawandel glaubt, noch weiß, daß man in Alemania mit grünen Themen Geld erklagen kann, dürfte klar sein – deswegen erschließt sich, daß da eine deutsche NGO dahinter steht.

Jeder Ökonom weiß, daß mangelnde Rechtssicherheit in „shithole countries“ einer der wichtigsten Gründe ist, warum Investitionen in- und ausländischer Kapitalgeber ausbleiben – warum soll ich Millionen investieren, wenn mir irgendein Profiteur mit einer simplen Klage den Gewinn streitig machen kann?

Wetzel erinnert in diesem Zusammenhang an das neue Lieferketten-Gesetz, das deutsche Unternehmen dazu verpflichtet, Lieferanten im Ausland auf „moralische Einwandfreiheit“ abzuklopfen. Und „Moral“ heißt in der Umverteilungswirtschaft Deutschlands heute auch „Klima“. Es ist was faul im Staate Dänemark!




Nach dem zweiten Corona-Frühling: CO2-Konzen­tration steigt trotzdem überdurch­schnittlich

Die folgende Grafik veranschaulicht die Differenzen der CO2-Konzentrationen Frühling minus Frühling des Vorjahres seit 1989/90. Im Zeitraum 1990 bis 2020 stieg diese im Mittel um 1,97 ppm. Man beachte die überdurchschnittliche Zunahme in den Corona-Frühjahren 2020 mit 2,64 ppm und 2021 mit 2,44 ppm. Offenbar sind CO2-Einsparungsmaßnahmen nahezu wirkungslos. Man beachte ferner, dass die Zirkulationsverhältnisse, die Aktivität des Pflanzenwachstums, das Bodenleben, der Vulkanismus sowie die Meeresoberflächentemperaturen die CO2-Konzentrationen maßgeblich beeinflussen. Der relativ deutliche La Nina 2020/21 hat vermutlich eine noch stärkere Konzentrationszunahme verhindert.




Fact Checking the Fact Checkers

Am Earth Day diesers Jahres veröffentlichte die Washington Times ein Op-Ed von mir mit der Überschrift „There is noclimate emergency – We love CO2 and so should you .” Nicht lange nach der Veröffentlichung wurde der Facebook-Post der Zeitung zu dem Kommentar als „falsch und irreführend“ bezeichnet und ihre Anzeige dafür abgelehnt. Grundlage dafür war ein ausführlicher „Faktencheck“ mit dem Titel „Washington Times presents list of false and misleading statements about the impacts of CO2 and climate change“ von Climate Feedback (CF). Er wurde von acht Wissenschaftlern verfasst, und bei genauer Durchsicht ihres „Faktenchecks“ wurde klar, warum sie nicht als „Experten“ bezeichnet wurden.

Um diese Kritik zu widerlegen, habe ich sechs der weltweit besten Experten auf verschiedenen Gebieten, die mit dem Klimawandel zu tun haben, gebeten, die Aussagen der Gutachter von Climate Feedback auf ihre Richtigkeit und Gültigkeit zu überprüfen. Alle von mir befragten Wissenschaftler sind Mitglieder der CO2 Coalition, einer gemeinnützigen wissenschaftlichen Koalition mit Sitz in Arlington, Va. Alle sind sich einig, dass es keinen vom Menschen verursachten Klimanotstand gibt.

Da viele der Abschnitte doppelte Aussagen enthalten, die verschiedene vermeintlich „falsche“ Behauptungen und Aussagen in meinem Kommentar zu sehen behaupten, habe ich sie auf elf primäre Aussagen von vermeintlichen „Tatsachen“ destilliert, die verwendet werden, um den Op-Ed zu „entlarven“. Climate Feedback-Behauptungen und Zitate sind in rot.

In jedem Fall stellen wir fest, dass die Kritiker von Climate Feedback die Wissenschaftler sind, die verworrene, irreführende und falsche Informationen liefern.

CF Behauptung #1: Wrightstone versäumt es, Interessenkonflikte offenzulegen

CF: Der gesponserte Artikel versäumt es, Interessenkonflikte offen zu legen. Wie Kerr gegenüber Climate Feedback sagte: „Gregory Wrightstone ist ein Fachmann in der Branche der fossilen Brennstoffe. Er arbeitet an Schiefergas und -öl im Appalachen-Becken.

Antwort 1 – Gregory Wrightstone

Das ist sachlich und eklatant falsch (obwohl, wenn es wahr wäre, würde es keine Rolle spielen). Ich bin nicht im Energiesektor beschäftigt. Ich erhalte keinerlei Gelder von der Industrie für fossile Brennstoffe.  Wenn die Autoren diesen grundlegenden „Fakt“ falsch verstehen, wie können wir uns dann auf spätere Aussagen über „Fakten“ verlassen. Mehrere der Gutachter von Climate Feedback haben definitiv nicht offengelegte Interessenkonflikte, darunter Amber Kerr, die eine bezahlte Beraterin für Carbon Direct ist, eine Beratungsfirma, die Unternehmen in Bezug auf Kohlenstoffkompensationen berät. Ich bezweifle, dass sie lange in dieser Funktion beschäftigt wäre, wenn sie irgendeine Wissenschaft produzieren würde, die die „Konsens“-Meinung zum Klimawandel bestreitet.

CF-Behauptung Nr. 2: Kontinente in Äquatornähe waren in der Vergangenheit zu heiß, um Leben zu beherbergen.

Während eines Teils der alten Geschichte waren Kontinente in der Nähe des Äquators zu heiß, um Leben zu beherbergen (Amber Kerr)

Antwort 2a: Gregory Wrightstone

Dr. Kerrs Aussage, dass Kontinente in der Nähe des Äquators zu heiß waren, um zu irgendeinem undefinierten Zeitpunkt in der Erdgeschichte Leben zu beherbergen, wird durch keine Referenz oder Quelle von ihr unterstützt. Keiner unserer angesehenen Wissenschaftler bei der CO2-Coalition hat jemals von einer solchen Behauptung gehört und wir können keine unterstützenden Beweise finden, um dies zu belegen. Wenn man eine Aussage macht, die weit außerhalb des Mainstream-Denkens liegt, obliegt es dem die Behauptung Erhebenden, eine seriöse Quelle anzugeben. Darüber hinaus scheinen sie und mehrere der anderen Autoren von Climate Feedback in diesem und in späteren Abschnitten nicht zu wissen, dass die Erwärmung durch Treibhausgase hauptsächlich die höheren Breiten und die Pole betrifft, mit stark verminderten Auswirkungen in der Nähe des Äquators (Lindzen 1997).

Im Gegensatz zu ihrer Behauptung, dass extreme Hitze in der Zukunft zu Temperaturen führen könnte, die zu heiß sind, um Leben zu erhalten, befinden sich einige der bevölkerungsreichsten Städte der Welt heute in Gebieten mit den höchsten Temperaturen wie Indien, Indonesien und Afrika südlich der Sahara.

Es ist anzumerken, dass der den Äquator überspannenden Kontoinents Afrika zwei Wüstenregionen beherbergt, in denen es heute fast kein Leben mehr gibt. Beide befinden sich etwa 30 Grad nördlich (Sahara) und südlich (Kalahari und Namib) des Äquators. Beachten Sie, dass der Äquator in den äquatorialen Regenwäldern üppige und blühende Ökosysteme beherbergt, genau das Gegenteil von dem, was Frau Kerr behauptet. Das Fehlen von Leben in den Wüstengebieten und der Überfluss an Leben am Äquator werden nicht durch Veränderungen im CO2 angetrieben, sondern durch hohe Niederschläge bzw. das Fehlen derselben durch das Aufsteigen (nass) und Absinken ([1] trocken) der Hadley-Zellen.

Antwort 2b: Dr. Patrick Moore – Ph.D. in Ökologie, Mitbegründer von Greenpeace, Direktor CO2-Coalition
Dr. Kerrs Aussage ist einfach nur lächerlich und unbegründet. Einige der reichsten Artenvielfalt im Ozean, einschließlich Korallen und Fischen, findet man heute in den wärmsten ozeanischen Gewässern im indonesischen Archipel. Wärme ist besser für viele Arten von Meeresleben.

CF-Behauptung Nr. 3: Die heutigen Temperaturen sind höher als alle in den letzten 12.000 Jahren

Wrightstone behauptet, dass unsere aktuellen globalen Durchschnittstemperaturen nur dann bemerkenswert sind, „wenn man sich auf die letzten 150 Jahre oder so beschränkt.“ Das ist nicht korrekt. Das vorherrschende Verständnis in der Paläoklimatologie ist, dass unsere aktuellen globalen Durchschnittstemperaturen die höchsten seit vor der letzten Eiszeit vor mehr als 12.000 Jahren sind[9]. (Amber Kerr)

Antwort 3: Gregory Wrightstone

Dr. Kerrs Behauptung, dass „das vorherrschende Verständnis in der Paläoklimatologie“ von höheren aktuellen Temperaturen als im gesamten Holozän (12.000 Jahre) ausgeht, ist offenkundig falsch. Fast alle in der Paläoklima-Gemeinschaft auf beiden Seiten des Themas stimmen darin überein, dass es vor 6.000 bis 8.000 Jahren eine viel wärmere Periode gab, darunter auch Dr. Michael Mann, die NASA und das IPCC. Genau die von Kerr zitierte Studie unterstützt diesen Gedanken nicht und wird im nächsten Abschnitt ausführlich beschrieben. Die überwiegende Mehrheit der Paläoklimastudien stimmt darin überein, dass es während der jüngsten Wärmeperiode, bekannt als die mittelalterliche Warmzeit, wärmer war als heute, einschließlich Zusammenfassungen von mehr als 1.000 Arbeiten, die hier und hier sowie in der folgenden Abbildung 1 dokumentiert sind:

Abbildung 1 – Die Überprüfung von >1.000 Studien bestätigt mehrheitlich, dass die mittelalterliche Warmzeit wärmer war als die heutige. Modifiziert von Lüning (2020)

Zur Unterstützung ihrer Behauptung, dass die gegenwärtigen Temperaturen höher sind als alle in den letzten 12.000 Jahren, verweist Amber Kerr auf Kaufman (2020), eine globale Multi-Proxy-Paläo-Temperaturrekonstruktion. Der Teil der Studie, der sich mit dem Paläoklima befasst, ist hervorragend und zeigt die hohen Temperaturen des holozänen Optima mit tausenden von Jahren abnehmender Temperatur. In der Zusammenfassung hat Kaufman moderne Instrumentendaten mit den Paläoklimadaten zusammen gefügt, aber er hat ausdrücklich davor gewarnt, die beiden zu vergleichen, wie es Dr. Kerr hier getan hat.

In diesem Papier wird nicht behauptet, dass die Paläoklimaaufzeichnungen zeigen, dass unsere aktuellen globalen Durchschnittstemperaturen die höchsten seit der letzten Eiszeit sind. Kaufman warnt davor, seine niedrig aufgelösten Proxydaten mit hochauflösenden modernen Instrumentendaten zu vergleichen, indem er angibt, dass „die meisten Paläotemperatur-Zeitreihen zeitlich nicht ausreichend aufgelöst sind, um sie sinnvoll mit instrumentenbasierten Beobachtungen zu vergleichen“ und „2000 Jahre lange Aufzeichnungen eine Brücke zwischen den insgesamt niedriger aufgelösten Zeitreihen dieser Datenbank und den hochdetaillierten, aber relativ kurzen instrumentenbasierten Aufzeichnungen des Klimas darstellen.“ Und schließlich: „Die Auflösung der Paläoklima-Proxydaten über die letzten 12.000 Jahre beträgt etwa 150 bis 200 Jahre. Globale instrumentelle Daten messen Temperaturen stündlich und täglich, die dann für die monatliche und jährliche Darstellung gemittelt werden.  Für einen fairen Vergleich müssten die instrumentellen Aufzeichnungen über einen Zeitraum von 150-200 Jahren gemittelt werden. Mit anderen Worten, man kann nicht Äpfel mit Birnen vergleichen, was Dr. Kerr hier getan hat.

Vielleicht hat Dr. Kerr das Paper nicht oder nicht genau genug gelesen, denn die Autoren stellen fest: „Das wärmste 200 Jahre lange Intervall war ebenfalls auf 6,5 ka zentriert und war 0,7 °C wärmer als das 19. Jahrhundert.“

Kaufmans letzte frühere Studie (McKay und Kaufman 2014) wies mehrere eklatante Fehler auf, die eine vollständige Korrektur erforderten (Ahmed 2015). In der korrigierten Studie gaben die Autoren zu, dass unsere moderne Erwärmung, die sie als den Zeitraum 1971 – 2000 definierten, NICHT die wärmste 30-Jahres-Periode der letzten 2000 Jahren war, sondern die drittwärmste (Abbildung 2). Die wärmste solcher Periode trat während der römischen Warmzeit auf, die sich auf das Jahr 395 n. Chr. konzentrierte, so dass sogar der Autor, auf den sie sich bezieht, ihrer Aussage widerspricht.

Abbildung 2. Modifiziert aus Gosselin (2018). Quelldaten: Ahmed (2015)

In meiner anschließenden Kommunikation mit Dr. Kerr fügte sie eine weitere Studie hinzu, von der sie annahm, dass sie ihre Behauptung einer ungewöhnlichen und beispiellosen Erwärmung über viele Tausende von Jahren unterstützen würde, indem sie angab, dass „frühere Studien, die Proxy-Daten zur Rekonstruktion der durchschnittlichen globalen Oberflächentemperatur verwenden, wie Marcott, et al. (2013), zu ähnlichen Schlussfolgerungen gelangt sind.“ Sie ist sich offenbar nicht bewusst, dass sich auch diese Studie als fatal fehlerhaft erwiesen hat, wobei sogar der Autor zugibt, dass man sich nicht auf die modernen Daten verlassen sollte, da sie nur aus einem einzigen Datenpunkt bestehen: „Der Anteil des 20. Jahrhunderts in unserer Paläo-Temperaturreihe ist statistisch nicht belastbar und kann nicht als repräsentativ für globale Temperaturänderungen angesehen werden.“ In der Tat wurde Australiens nationale Wissenschaftsbehörde CSIRO nach Beweisen für irgendetwas noch nie Dagewesenes bzgl. Klima aufgrund von menschlichem Kohlendioxid gefragt, und trotz fast 50 Jahren Klimaforschung konnte sie nur die diskreditierte Marcott (2013)-Studie über Temperaturen und die diskreditierte Harries (2001)-Studie benennen.

Der Astrophysiker und Geowissenschaftler Professor Willie Soon war vernichtend in seiner Beurteilung der CSIRO Verwendung von Marcott (2013), indem er sagte: „Zwei Wochen nach der Veröffentlichung dieser Studie wurde diese vollständig widerlegt. Und doch versucht jemand so hoch oben wie CSIRO zu sagen, diese Studie ist legitim und kann als unterstützende wissenschaftliche Beweise verwendet werden. Das ist wissenschaftliches Fehlverhalten“.

CF-Behauptung Nr. 4: Zukünftige Temperaturen werden wahrscheinlich 12 Grad Celsius höher liegen.

Wenn sich die aktuellen Erwärmungstrends fortsetzen, werden wir Mitte des nächsten Jahrhunderts wahrscheinlich Temperaturen erreichen, die wir seit dem frühen Eozän, vor mehr als 50 Millionen Jahren, nicht mehr gesehen haben (Burke et al., 2018). (Amber Kerr)

Antwort 4a: Gregory Wrightstone (H/T to Renee Hannon for input):

Laut Amber Kerr ist es „wahrscheinlich“, dass die Temperaturen auf das Niveau steigen, das im Eozän herrschte, also mindestens 12 Grad Celsius höher als unsere heutigen Temperaturen. Die Temperatur, basierend auf HadCRUT4, ist seit 1900 um etwa 1 Grad C gestiegen. Wenn das der „aktuelle Trend“ ist und er sich fortsetzt, dann könnten wir einen Anstieg von etwa einem Grad C bis 2150 erwarten,

Der Artikel von Burke, 2018, ist den gleichen Vergleich von niedrig aufgelösten „Proxy“-Daten des Paläo-Klimas mit hochaufgelösten instrumentellen Temperaturdaten schuldig. Ihre Abbildung 1 und ergänzende Abbildung 1 ist extrem irreführend und zeigt keine Erwähnung der Datenauflösung auf der y-Temperatur-Achse und noch schlimmer, es wird eine verzerrte, nicht-einheitliche Zeit x-Achse gezeigt

Zum Beispiel haben die Marcott-Daten eine Temperaturauflösung im Durchschnitt über 300 Jahre, Dome C über 100-500 Jahre und die marinen benthischen Sauerstoffisotope wahrscheinlich 500+ Jahre. Die benthischen Sauerstoffwerte werden zunächst in Näherungswerte für die Meerestemperatur und dann in Näherungswerte für die Oberflächentemperatur umgerechnet.  Im Gegensatz dazu sind die instrumentellen Daten direkte Messungen der Temperatur, keine Proxies, die auf täglicher und monatlicher Basis vorgenommen werden.  Für eine ehrlichere Darstellung sollten die instrumentellen Temperaturdaten über 300+ Jahre gemittelt werden.  Auch wenn sie eine einheitliche Zeitskala auf der x-Achse verwenden würden, wären die instrumentellen Daten und die RCP-Projektionen nur ein Punkt.

Wichtig ist, dass Burke behauptet, die von Kerr referenzierte Abbildung sei nur eine Illustration und nicht die Grundlage für eine quantitative Analyse der Klimaähnlichkeit.  Sie ist erschreckend, unrealistisch und keine richtig skalierte Abbildung.

Antwort 4b: Dr. William HapperHapper ist emeritierter Professor der Abteilung für Physik an der Princeton University. Er ist ein Spezialist für moderne Optik, optische und Hochfrequenz-Spektroskopie von Atomen und Molekülen, Strahlungsausbreitung in der Atmosphäre und spin-polarisierte Atome und Kerne. Er hat über 200 begutachtete wissenschaftliche Arbeiten veröffentlicht und den Natriumleitstern erfunden, der in der adaptiven Optik in der Astronomie verwendet wird, um die beeinträchtigenden Effekte der atmosphärischen Turbulenz zu korrigieren. Er wurde 1976 mit dem Alexander-von-Humboldt-Preis, 1997 mit dem Broida-Preis und 1999 mit dem Davisson-Germer-Preis der Amerikanischen Physikalischen Gesellschaft sowie 2000 mit dem Thomas Alva Edison Patent Award ausgezeichnet.

Das IPCC macht eine „Gleichgewichts-Klimasensitivität“ S geltend, (der stationäre Temperaturanstieg bei Verdoppelung des CO2) von irgendwo zwischen S= 2°C und S= 4,5°C. In guter Näherung erhöht jede Verdoppelung der CO2-Konzentration die Temperatur um denselben Schritt. Die tatsächliche Sensitivität liegt wahrscheinlich unter S= 1°C, aber lassen Sie uns sehen, welche CO2-Erhöhungen erforderlich wären, um einen Temperaturanstieg von 12 C zu erreichen, wenn wir die obere Grenze des IPCC-Bereichs der Sensitivitäten nehmen. Die CO2-Konzentration müsste von N0 = 410 ppm, der heutigen ungefähren Konzentration, auf N > N0 x 2(12 C/ 4,5 C) = N0 x 6,35 = 2603 ppm steigen. Wir müssten also 2600 – 410 = 2193 ppm CO2 in die Atmosphäre einbringen. Wahrscheinlich gibt es nicht genügend wirtschaftlich nutzbare fossile Brennstoffe, um so viel CO2 bereitzustellen.

Aber nehmen wir an, der Brennstoff kann gefunden werden. In den letzten zehn Jahren ist die CO2-Konzentration um etwa 2,3 ppm/Jahr gestiegen. Bei dieser Rate würde die Zeit, die benötigt wird, um 2193 ppm in die Atmosphäre zu bringen, 2193/2,3 Jahre = 953 Jahre betragen. Für kleinere, realistischere Sensitivitäten wären viel mehr Brennstoff und viel längere Zeiten erforderlich. Es gibt keine wissenschaftlich plausible Möglichkeit, dass die Temperatur der Erde bis zur Mitte des nächsten Jahrhunderts um 12°C ansteigen könnte.

CF-Behauptung #5: Ökosysteme und die Menschheit werden durch erhöhte Temperatur und steigende CO2-Werte geschädigt

Es gibt weder wissenschaftliche Erkenntnisse noch Daten, die die Behauptung, dass Ökosysteme gedeihen oder dass die Menschheit von steigenden Temperaturen oder steigendem Kohlendioxid profitieren würde, global unterstützen. Es gibt buchstäblich Zehntausende von wissenschaftlichen Veröffentlichungen, die darauf hinweisen, dass die Ökosysteme aufgrund des Klimawandels und anderer Auswirkungen zunehmend geschädigt werden.

Antwort 6a: Dr. Patrick Michaels – Ehemaliger Präsident der American Association of State Climatologists. Forschungsprofessor für Umweltwissenschaften an der Universität von Virginia seit 30 Jahren und Senior Fellow bei der CO2-Coalition. Michaels war mitwirkender Autor und ist Gutachter des IPCC

Climate Feedback widerspricht Wrightstones Behauptungen, dass „die Ökosysteme unseres Planeten gedeihen und die Menschheit vom Anstieg des CO2 und der Temperatur profitiert“.

Tatsächlich stellen Wissenschaftler seit Jahrzehnten eine Begrünung der terrestrischen Ökosysteme fest, und zwar eine tiefgreifende, wie Zhu et al. (2016) in einer Nature Climate Change-Studie mit dem Titel „The Greening of the Earth [sic] and its Drivers“ zeigen. Im Mittelpunkt der Arbeit steht eine Karte der Veränderungen des Leaf Area Index über einen Zeitraum von fast zwei Jahrzehnten (Abbildung 3):

Abbildung 3 – Änderungen des Leaf Area Index‚ ab 1982

Beachten Sie, dass die Orte mit den größten Veränderungen violett markiert sind und den Standorten der tropischen Regenwälder der Welt entsprechen. Änderungen sind dort signifikant, wo sie gestrichelt sind.  Beachten Sie auch, dass es keine statistisch signifikanten Rückgänge des LAI gibt.

Zhu et al. (2016) führten auch eine Faktoren-Analyse durch, um die Ursachen für die planetarische Begrünung zu isolieren. Sie fanden heraus, dass 70 % durch den direkten Effekt des zunehmenden atmosphärischen Kohlendioxids verursacht wurden, 9 % durch erhöhte Stickstoffdeposition, 8 % durch den Klimawandel selbst (hauptsächlich in den hohen Breiten der nördlichen Hemisphäre) und 4 % durch Landnutzungsänderungen.

Es scheint also, dass Climate Feedback irgendwie übersehen hat, dass insgesamt 91% der globalen terrestrischen Begrünung eine Folge menschlicher Aktivitäten ist, oder dass das globale Nahrungsangebot eindeutig stetig wächst – und das schon, seit Paul Ehrlich vor über fünfzig Jahren in seinem Buch (1969: The Population Bomb) schrieb, dass die Nahrungsvorräte bald rapide abnehmen würden.

CF Behauptung Nr. 6 a) Erwärmung und CO2 spielen keine primäre Rolle bei der Steigerung der Pflanzenproduktion und b) die zukünftige Erwärmung wird einen negativen Effekt auf die Landwirtschaft haben.

Andere Pflanzen profitieren nicht von höherem CO2, und es wurde gezeigt, dass ihre Photosyntheseraten unter höherem CO2 abnehmen. Noch wichtiger ist, dass höheres CO2 nachweislich die Nährstoffqualität einiger Pflanzen, auf die wir angewiesen sind, wie z. B. Weizen, verringert (Katrin Meissner)

Die Zunahme von extremen Wetterereignissen kann starke negative Auswirkungen auf die Produktivität von Nutzpflanzen haben und wird sich voraussichtlich negativ auf die Nahrungsmittelproduktion auswirken (Sara Vicca)

Die globale Erwärmung wirkt sich bereits negativ auf die globale Nahrungsmittelproduktion aus, zumindest in einigen Regionen (Alexis Berg)

Wrightstone verwechselt Korrelation mit Kausalität, wenn er die Tatsache diskutiert, dass im letzten Jahrhundert die globale landwirtschaftliche Produktivität gestiegen ist und die wetterbedingten Todesfälle abgenommen haben. Das können wir nicht dem anthropogenen Klimawandel verdanken. Vielmehr haben eine bessere Infrastruktur und eine bessere Gesundheitsversorgung die Zahl der Menschen, die durch Umweltfaktoren wie das Wetter sterben, verringert. Fortschritte in der Pflanzenwissenschaft und -technologie (sowie ein nicht nachhaltiger Raubbau an der Biosphäre) haben einen stetigen Aufwärtstrend in der Pflanzenproduktion ermöglicht, der alle marginalen Auswirkungen von CO2 und Erwärmung aufwiegt. (Amber Kerr)

Es ist ethisch nicht vertretbar, dass Wrightstone mögliche Gewinne für die Landwirtschaft im globalen Norden feiert, während er die zahlreichen Studien ignoriert, die Schäden im globalen Süden beschreiben. (Amber Kerr)

Antwort 6a: Dr. William Happer

Alle Aussagen von Herrn Wrightstones Op-Ed basieren auf sehr solider Wissenschaft. Im Gegensatz dazu enthält der Beitrag von Climate Feedback erfundene, falsche Behauptungen und persönliche Angriffe.

Wissenschaftliche Studien zeigen eindeutig, dass CO2 in den letzten fünfzig Jahren einen wesentlichen Beitrag zu den gestiegenen Erträgen in der Land- und Forstwirtschaft geleistet hat. Die Beiträge waren besonders auffällig in trockenen Regionen, weil mehr CO2 die Dürreresistenz von Nutzpflanzen erhöht. Langfristige Satellitenmessungen der Pflanzendecke zeigen eine besonders ausgeprägte Begrünung in trockenen Regionen der Erde, viele davon in den Tropen und Subtropen.

Der zuverlässigste Beweis für die Vorteile von CO2 für Pflanzen ist die Verwendung von zusätzlichem CO2 in kommerziellen Gewächshäusern, um das Wachstum zu beschleunigen. Gewächshaus-Betreiber sind bereit, die Kosten für zusätzliches CO2 und die notwendige Ausrüstung für die CO2-Anreicherung zu akzeptieren. Der verbesserte Ertrag und die Qualität ihrer pflanzlichen Produkte, von Gemüse bis Marihuana, machen die Investition mehr als wett.

Diese Aussagen bestätigen, dass das, was Herr Wrightstone sagte, nicht unwahr, sondern wahr ist. Auf dem Feld wachsen sowohl C4- als auch C3-Pflanzen besser mit mehr CO2, weil mehr CO2 die Pflanzen trockenheitsresistenter macht.  C3-Pflanzen profitieren auch, weil mehr CO2 die Photorespiration reduziert, die etwa 25% der photosynthetischen Effizienz aufzehrt.  Alle Waldbäume und ein Großteil der landwirtschaftlichen Nutzpflanzen (Weizen, Reis, Sojabohnen, Baumwolle, etc.) nutzen den C3-Photosyntheseweg. Mit mehr atmosphärischem CO2 erhalten C3-Pflanzen einen doppelten Vorteil: mehr Trockenheitsresistenz und weniger Photorespiration.

Antwort 6b: Dr. Patrick Michaels:

Climate Feedback verkennt, dass die Überschätzung durch Klimamodellierungsfehler (die später in Abschnitt 12 diskutiert werden) fatal für die Verlässlichkeit praktisch aller Wirkungsmodelle für Ökosysteme (einschließlich der Landwirtschaft) sind. Der größte Teil der Feuchtigkeit für die Anbaugebiete der mittleren Breiten (einige der produktivsten landwirtschaftlichen Flächen der Erde), stammt aus den Tropen[2] . Große und systematische Fehler in den tropischen vertikalen Niederschlags-Simulationen für die Zukunft machen diese einfach unzuverlässig, da es das tropische vertikale Temperaturprofil ist, welches weitgehend bestimmt, wie viel ozeanische Feuchtigkeit in die höhere globale Atmosphäre übertragen wird. Tatsächlich kann das Vorzeichen von großen Niederschlagsänderungen am selben Ort je nach Modell positiv oder negativ sein.

Klima- und Erntemodelle versuchen im Allgemeinen, die Auswirkungen der jährlichen Witterungsschwankungen so zu parametrisieren, dass sie Abweichungen von gleichmäßigen technologischen Trends verursachen, die den Einsatz von Düngemitteln, Sorten und mechanische Verbesserungen usw. widerspiegeln.

Abbildung 4, berechnet aus globalen FAO-Daten für die vier Hauptkulturen, zeigt 1) auf dieser Ebene, dass das globale Nahrungsmittelsystem in hohem Maße von allgemeinen Witterungseffekten abgepuffert ist, und 2) dass es absolut keinen Hinweis darauf gibt, dass die Residuen des technologischen Trends zunehmen (d. h. die Witterungskomponente) nicht größer wird.

Abbildung 4 – Gesamtproduktion für die vier Hauptkulturen. Die einfache Anpassung zweiter Ordnung erklärt über 99 % der jährlichen Variabilität und lässt wenig Raum (etwa 1 %, global) für einen stochastischen oder systematischen Wetter- oder Klimaeffekt. Rohdaten von der FAO, Vereinte Nationen.

Antwort 6c: Gregory Wrightstone:

In einem anschließenden E-Mail-Austausch mit mir gab Dr. Kerr die enorme positive Auswirkung zu, die steigendes CO2 auf das Pflanzenwachstum hat:

In meinem eigenen Teilgebiet, den Auswirkungen des Klimawandels auf die Landwirtschaft, finde ich es ärgerlich, dass die meisten Modelle und veröffentlichten Studien den CO2-Düngungseffekt absichtlich auslassen (unter Berufung auf zu große Unsicherheiten oder unter der Annahme, dass es eine Akklimatisierung an höheres CO2 geben wird). Aber bisher deuten die Daten darauf hin, dass der CO2-Düngungseffekt ein bedeutender Segen für die Landwirtschaft in gemäßigten Regionen sein kann.“

In der begutachteten Literatur gibt es wenig Unterstützung für die häufig zitierte Vorstellung, dass tropische und subtropische Gebiete derzeit einen Rückgang der landwirtschaftlichen Produktivität erleben. Die CF-Gutachter scheinen einen prognostizierten Rückgang der landwirtschaftlichen Produktivität in den Tropen und Regionen niedriger Breitengrade auf Klimamodelle und Worst-Case-Szenarien zu stützen, die die Erwärmung deutlich zu hoch vorhersagen, wie von Dr. Happer in Abschnitt 4b und von Dr. Michaels in Abschnitt 12 diskutiert.

Entgegen der Behauptung der Gefährdung von Nutzpflanzen durch steigende Temperaturen und zunehmendes CO2 gibt es hunderte von Studien, die genau das Gegenteil belegen. Viele davon sind von Dr. Craig Idso hier erfasst: Interaktive Effekte von CO2 und Temperatur auf das Pflanzenwachstum. Diese begutachteten Arbeiten zeigen die folgenden wichtigen Überlegungen:

1) Pflanzen neigen dazu, bei höheren Temperaturen besser zu gedeihen, dank CO2, das die optimale Temperatur für die Photosynthese anhebt (oft um einen viel größeren Wert als den, der von den Modellen für die Erwärmung vorhergesagt wird),

2) CO2 hilft, temperaturbedingten Stress zu mildern.

Daten aus der realen Welt widersprechen der Vorstellung von hitzebedingten Ernteeinbußen in den heißesten Regionen der Erde. Zum Beispiel wurde in Indien erwartet, dass das Jahr 2020 zum zweiten Mal in Folge einen Rekord bei der Weizenernte brechen wird.

In den Vereinigten Staaten zeigen steigende Erträge von Mais in Scheffel pro Acre eine bemerkenswerte Korrelation zu steigenden CO2-Emissionen (Abbildung 6). Die Behauptung, dass dieser Anstieg auf die Jahr für Jahr verbesserten landwirtschaftlichen Praktiken zurückzuführen ist, ist einfach nicht glaubhaft.

Abbildung 5: Trend der Maisernte in den USA im Vergleich zu globalen Kohlenstoff-Emissionen

CF-Behauptung Nr. 7: Extreme Wetterbedingungen und damit verbundene Todesfälle nehmen zu

Leider nehmen Dürren, Waldbrände und Hitzewellen weltweit zu, und damit auch die temperaturbedingten Todesfälle. Die hier gemachten Aussagen sind vom Autor erfunden und völlig „realitätsfremd“. (Wolfgang Cramer)

Dürren und Austrocknung haben in vielen Regionen der Welt zugenommen. Zum Beispiel in Europa und Nordamerika. Waldbrände haben zugenommen und zeigen nun den Fingerabdruck der globalen Erwärmung, z.B. in Australien und der Arktis. Hitzewellen haben in Häufigkeit, Intensität und Dauer zugenommen. (Katrin Meissner)

Antwort 7a: Jim SteeleBiologe, ehemals Principal Investigator für das Neotropical Migratory Bird Monitoring of Riparian Habitats on the Tahoe National Forest (USFS) und Direktor des Sierra Nevada Field Campus der SFSU, Autor von Landscapes and Cycles: An Environmentalist’s Journey to Climate Skepticism

Trotz der korrekten Behauptung, dass Dürren, Waldbrände und Hitzewellen trotz steigender CO2-Konzentration erheblich zurückgegangen sind, weil die Erde grüner geworden ist, wird Wrightstone von dem „Faktenprüfer“ Wolfgang Cramer verleumdet, der fälschlicherweise behauptet, seine Aussagen seien „erfunden“ und „völlig realitätsfremd“. Dabei unterstützt die begutachtete Wissenschaft Wrightstone, nicht die Faktenchecker. Im Jahr 2013 veröffentlichten Klimawissenschaftler „Monitoring and Understanding Changes in Heat Waves, Cold Waves, Floods and Droughts in the United States, State of Knowledge“.1 Sie schrieben:

Instrumentelle Daten deuten darauf hin, dass die Dust Bowl der 1930er Jahre und die Dürre der 1950er Jahre die am weitesten verbreiteten Dürren des zwanzigsten Jahrhunderts in den Vereinigten Staaten waren (siehe Abb. 1), während Baumringdaten darauf hinweisen, dass die Megadürren des zwölften Jahrhunderts sowohl in ihrer räumlichen Ausdehnung als auch in ihrer Dauer alles im zwanzigsten Jahrhundert übertrafen“.

Stahl (2007)2 berichtete in ähnlicher Weise, dass im Vergleich zu den Extremen der 1930er und 1950er Jahre die mehrdekadischen Dürren während der kühleren Kleinen Eiszeit schwerwiegender und von längerer Dauer waren, „einschließlich der ‚Megadürre‘ des 16. Jahrhunderts, die möglicherweise die extremste Dürre war, die Nordamerika in den letzten 500 Jahren heimgesucht hat.“

Abbildung 6 – Dekadischer Durchschnitt von Hitzewellen und Kältewellen

Zusätzlich zu seiner sachlichen Berichterstattung über die von Satelliten beobachtete Ergrünung der Erde, die dem erhöhten CO2 (70%) und der Erwärmung (8%) zugeschrieben wird, weist die Hauptaussage von Wrightstones Artikel darauf hin, dass es eine Fülle von wissenschaftlichen Daten gibt, die zeigen, dass „Dürren, Brände und Hitzewellen“ von anderen Klimafaktoren angetrieben werden, die nichts mit dem steigenden CO2 zu tun haben. Die so genannten Faktenprüfer versäumten es anzuerkennen, wie die langfristige Klimadynamik die Häufigkeit, Intensität und Orte von Dürren, Bränden und Hitzewellen eindeutig veränderte. Um die Schuld auf die CO2-getriebene Erwärmung zu schieben, verwiesen sie auf veröffentlichte Studien, die nur die Entwicklung von Dürren, Hitzewellen und Waldbränden in den letzten 50 Jahren untersuchten – ein Zeitrahmen, der für eine aussagekräftige Klimaanalyse viel zu kurz ist.

Sinha (2017) liefert zum Beispiel Beweise dafür, dass Indiens periodische Dürren nachließen, als die Welt die Jahrhunderte der Kleinen Eiszeit hinter sich ließ. Zwischen 1350 und 1850 n. Chr., als die CO2-Konzentration sehr niedrig war, verwüsteten mindestens fünf Episoden von Mega-Dürren Südostasien. Dürren in den Jahren 1899 und 1918 betrafen etwa 70 % Indiens. Als sich die Erde weiter erwärmte, waren 1972 nur noch 53 % des Landes von Dürre betroffen, 1987 48 % und 2002 nur noch 20 %.  Solche Vorteile einer wärmeren Welt werden erst auf dieser größeren Zeitskala deutlich. Während der letzten Eiszeit war die Sahara-Wüste viel ausgedehnter als heute. Als sich die Welt vor 14.000 Jahren zu erwärmen begann, wurde der Wüstensand der Sahara mit Grasland, ausgedehnten, ganzjährig flachen Seen und einer reichen Vielfalt an Wildtieren und menschlichen Bewohnern bedeckt. Gleichzeitig brachten die zunehmenden Niederschläge in Afrika Schnee auf den Gipfel des Kilimandscharo und ließen seine Gletscher wachsen. Diese Periode ist bekannt als die Grüne Sahara oder die Afrikanische Feuchtigkeitsperiode. Als sich die Welt dann vor 5000 Jahren abzukühlen begann, kam es in Nordafrika zu schweren Dürreperioden, wobei sich Nordafrika als Folge derselben wieder in die Sahara-Wüste zurückverwandelte.

Die Veränderungen in der Sahara werden auf eine Verschiebung des globalen Bandes intensiver tropischer Regenfälle zurückgeführt, das durch die Intertropische Konvergenzzone (ITCZ) gekennzeichnet ist. Als sich die eiszeitlichen Gletscher von der nördlichen Hemisphäre zurückzogen, verschob sich die ITCZ nach Norden und sorgte für genügend Niederschlag nördlich der ITCZ, um das Grasland der Sahara zu erzeugen. Als die orbitalen Zyklen die Sonneneinstrahlung veränderten und den Norden abzukühlen begannen, bewegte sich die ITCZ wieder nach Süden, was die Niederschläge in der Sahara reduzierte. In ähnlicher Weise bewegte sich die ITCZ während der Kleinen Eiszeit nach Süden, als die Sonnenleistung während des Sonnenfleckenminimums abnahm. Felis (2018) stellte fest, dass die östliche Sahara-Arabische Wüste von ~1750-1850 trockener wurde als heute, zeitgleich mit den kältebedingten Mega-Dürren in Indien.

Die Südwärtsbewegung der ITCZ verändert auch die globale atmosphärische Zirkulation.  Die subtropischen Drucksysteme des Ozeans, die jetzt den Feuchtigkeitsfluss vom Ozean zum Land hemmen und die mediterranen Klimate schaffen, bewegten sich während der letzten Eiszeit und der LIA ebenfalls nach Süden. Dadurch konnte mehr Feuchtigkeit vom Pazifischen Ozean übertragen werden, um das westliche Nordamerika zu überschwemmen. Ein Großteil der heutigen Wüsten Amerikas wurde von Binnenseen bedeckt; der Bonneville-See bedeckte einen Großteil Utahs, während Nevada größtenteils vom Lahontan-See bedeckt war. Als die Gletscher schmolzen und sich die ITCZ und die Drucksysteme nach Norden bewegten, wurden die Regenfälle umgeleitet und der amerikanische Westen trocknete aus. Alles, was vom Bonneville-See übrig geblieben ist, ist der Große Salzsee. In ähnlicher Weise stiegen während der Kleinen Eiszeit, als sich die ITCZ für einige Jahrhunderte nach Süden bewegte, die Wasserstände im Great Salt Lake 6 auf relative Höchststände im Jahr 16007.

In Europa beseitigte die südlichere ITCZ-Lage ebenfalls die blockierenden Effekte der Nordatlantischen Oszillation, so dass mehr Niederschläge die Alpen erreichten und die größten Gletschervorstöße seit 6.000 Jahren verursachten. Vincent (2005)7 berichtete, dass die Gletscher vorrückten, als die Perioden mit höheren Winterniederschlägen 25 % höher waren als der Durchschnitt des zwanzigsten Jahrhunderts. Das Paradoxon der Kleinen Eiszeit wurde so genannt, weil sich die europäischen Gletscher trotz der niedrigen LIA-Temperaturen zurückzogen. Als sich die ITCZ jedoch nach Norden bewegte, wurden die Niederschläge blockiert, wodurch sich die Gletscher zurückzogen.

Die Faktencheckerin Katrin Meissner verunglimpfte Wrightstones Artikel als eine „Anhäufung von Falschaussagen“ mit „ein paar teilweise richtigen Aussagen, die aus dem Zusammenhang gerissen und irreführend dargestellt werden.“ Es war jedoch Professor Meissner selbst, die sich mit „irreführenden Aussagen“ beschäftigte, indem sie suggerierte, dass das steigende CO2 in vielen Regionen wie Europa und Nordamerika zu einer Zunahme von Dürren und Austrocknung führt. Sie bezog sich auf Buntgen (Abb. 4), der in der Tat von größerer Trockenheit in Europa berichtete, aber diese Forschung zeigte auch, dass der Trocknungstrend seit 2.000 Jahren anhielt und nichts mit der CO2-Konzentration zu tun hatte. Eine extreme 300-jährige Trockenperiode gipfelte in der Renaissance-Dürre in Europa, gefolgt von der feuchten Periode während der LIA mit wachsenden Gletschern und nun die Austrocknungsperiode der Neuzeit, da sich die ITCZ von ihrer LIA-Lage nach Norden bewegt.

Abbildung 7 – 2100 Jahre rekonstruierter Vergleich von Feucht- und Trockenperioden in Mitteleuropa

Meissner versäumte es auch, die Rolle der ITCZ bei der Austrocknung des westlichen Nordamerikas zu berücksichtigen, als die Kleine Eiszeit (LIA) um 1850 endete, und versäumte es, die Auswirkungen der EL Nino Southern Oscillation (ENSO) oder der damit verbundenen Pacific Decadal Oscillation zu erwähnen. Wie Pederson (2005) dokumentierte, erlebten die westlichen Vereinigten Staaten während der Kleinen Eiszeit (LIA) drei schwere Regenperioden. Ähnlich wie bei den LIA-Ereignissen in Europa trieben die begleitenden starken Regenfälle die Gletscher im Glacier National Park (GNP) in Montana auf ihre größte Ausdehnung seit mindestens 6.000 Jahren. Als die LIA endete und sich die ITCZ und das Hochdrucksystem nach Norden bewegten, erlebte der GNP eine Reihe von Dürreperioden. Zwischen 1901 und 1960 hatten die größten Gletscher des GNP 65 % ihres LIA-Eises verloren.

El Nino, La Ninas und die Pazifische Dekadische Oszillation beeinflussen auch die globalen Dürren. Einige der verheerendsten Dürren in Indien und Südostasien treten in Verbindung mit extremen El-Niño-Ereignissen auf, wenn sich der Schwerpunkt der schweren Regenfälle über den Pazifik nach Osten bewegt. El Niño bringt mehr Regen nach Peru und die südliche Hälfte des westlichen Nordamerikas. Umgekehrt bringen La Nina-Episoden mehr Regen über Südostasien, aber eine stärkere Dürre im amerikanischen Südwesten. Während der negativen Phase der Pazifischen Dekadischen Oszillation treten nicht nur häufiger La Nina-Ereignisse auf, sondern die damit verbundenen Dürren sind auch intensiver. Wenn die negative PDO-Phase mit La Nina zusammenfällt, kommt es im Südwesten und in den südlichen Rocky Mountains, einschließlich Arizona, Nevada, Utah, Colorado und Wyoming, zu größerer Trockenheit und schlimmeren Waldbränden.  Zwischen 1700 und 1975 traten 69 % der größten Brände (Schoennagel (2005) im Rocky Mountain National Park auf, als eine La Nina mit einer negativen PDO zusammenfiel, obwohl diese Phasen nur in 29 % der Zeit eintraten.12

Obwohl die Harvard-Faktenprüferin Alice Berg bestätigte, dass die durch Waldbrände verbrannte Fläche in den letzten 20 Jahren weltweit um 25 % abgenommen hat, bestanden Cramer und Meissner fälschlicherweise darauf, dass der Klimawandel die Waldbrände im Westen der USA erhöht. In Wirklichkeit erfordert die Feststellung einer Zunahme von Waldbränden die Rosinenpickerei eines Trends, der im Jahr 1970 beginnt (Westerling 2008). Feuerexperten berichteten von einem „Rückgang der Waldbrände im Südwesten, der auf den flächendeckenden Beginn der intensiven Viehweide in den späten 1800er Jahren zurückzuführen ist, gefolgt vom Beginn der organisierten Feuerunterdrückung“. In einer umfassenden Bewertung der verbrannten Fläche in den zusammenhängenden Vereinigten Staaten berichtete der US Forest Service (Keane 2002), dass „drei- bis sechsmal mehr Fläche verbrennen muss, um historische Feuerregimes wiederherzustellen“.

Abbildung 8 – Regionales Auftreten von Bränden über 300 Jahre

Berg konterte den Rückgang der beobachteten Flächen, die durch Waldbrände verbrannt wurden, mit dem Argument, dass die Erwärmung mehr Brände verursachen würde, aber die Ausdehnung der Landwirtschaft einschränke, wie viel Land brennen kann, so dass in Zukunft mehr Feuer zu erwarten sei. Doch Berg selbst ließ in irreführender Weise alle kritischen Faktoren weg, die nachweislich zu einer Zunahme von Waldbränden geführt haben. Durch die Unterdrückung von Bränden hat sich die Totholzmenge erhöht, was zu größeren Bränden führt. Da die Bevölkerung zunimmt, werden Brände zunehmend von Menschen verursacht, und Brände treten das ganze Jahr über auf, anstatt auf die Jahreszeit der natürlichen Blitze beschränkt zu sein. Laut Balch (2017)13 waren zwischen 1992 und 2012 menschliche Brandstiftungen für 84 % aller Waldbrände und 44 % der gesamten verbrannten Fläche verantwortlich. Darüber hinaus hat die Störung natürlicher Landschaften die Ausbreitung invasiver Täuschungsgräser verursacht. Diese Gräser sterben im Frühsommer ab und benötigen nur eine Stunde Wärme und Trockenheit, um leicht entflammbar zu werden. Warme, trockene Sommer kommen vor, egal ob es eine globale Erwärmung gibt oder nicht. Größeres Holz benötigt Reisig, um genügend Wärme zum Verbrennen zu erzeugen, und die Ausbreitung von invasiven Gräsern liefert das.

Das Sagebrush-Habitat dominiert den amerikanischen Westen und brannte aufgrund des Mangels an Bodenbrennstoff selten, vielleicht einmal alle 60-100 Jahre. Eingeführtes Cheat-Gras dominiert jedoch den Sagebrush-Lebensraum, der nun alle 3-5 Jahre brennt. Das Rush Fire von 2012 war das viertgrößte Feuer in Kalifornien seit 1932 und verbrannte 272.000 Hektar Sagebrush-Habitat im Nordosten Kaliforniens. Danach breitete es sich weiter aus und verbrannte weitere 43.000 Acres in Nevada. Das Carr Fire 2018 war das siebtgrößte Feuer in Kalifornien und bedrohte die Stadt Redding, Kalifornien. Es begann, als an einem gezogenen Anhänger ein Reifen platzte und die Felge den Asphalt zerkratzte. Die daraus resultierenden Funken reichten aus, um die Gräser am Straßenrand zu entzünden. Grasbrände trugen die Flammen dann in das Buschland und die Wälder, da brennende Gräser als Anzünder für die weniger brennbaren Bäume dienten.

Diejenigen, die der Idee einer CO2-verursachten Katastrophe anhängen, picken sich die Brände in Kalifornien heraus, um diese Brände der CO2-verursachten globalen Erwärmung zuzuschreiben. Zusätzlich zu den anderen Ursachen für die Brände in Kalifornien haben die lokalen Maximaltemperaturen, bei denen die Brände ausgebrochen sind, nicht die Wärme der 1930er Jahre überschritten. Man muss sich also fragen, wer die sogenannten Faktenchecker überprüft. Wie Herr Wrightstone genau berichtet hat, korrelieren die Veränderungen bei Dürren, Bränden und Hitzewellen nicht mit steigendem CO2, sondern sind eher anderen Faktoren zuzuschreiben.

Antwort 6b: Dr. Patrick Michaels

Aufgrund der umfangreichen Medienberichterstattung über extreme Wetterereignisse könnte man meinen, dass Dürren und die Aktivität tropischer Wirbelstürme zunehmen müssen.  Aber der jüngste umfassende Bericht des IPCC sagt Folgendes über Dürre:

Zusammenfassend kommt die aktuelle Bewertung zu dem Schluss, dass es derzeit nicht genug Beweise gibt, um mehr als ein geringes Vertrauen in einen auf globaler Ebene beobachteten Trend bei Dürre oder Trockenheit (Mangel an Niederschlag) seit der Mitte des 20. Jahrhunderts zu haben, und zwar aufgrund fehlender direkter Beobachtungen, geographischer Inkonsistenzen in den Trends und Abhängigkeiten der abgeleiteten Trends von der Wahl des Index‘.

Und hier ist eine Darstellung des Accumulated [tropical] Cyclone Energy Index seit Beginn der globalen Satellitenabdeckung:

Abbildung 9 – Kumulierte [tropische] Zyklonenergie.  Aus Maue, 2011 und Aktualisierungen

Es wäre einfach, aber langweilig, immer wieder auf die Klima-Rückkopplung einzugehen. Im Allgemeinen gibt es nach Bereinigung um Bevölkerung und Immobilienwerte tatsächlich einen leicht negativen Trend bei wetterbedingten Schäden. Es ist unglaubwürdig, dass eine Änderung der globalen durchschnittlichen Oberflächentemperatur um 1⁰C die Jahrhunderte lange wirtschaftliche Entwicklung, die Linderung der Armut und die steigende Lebenserwartung zunichte machen und umkehren würde, wenn man bedenkt, dass der Homo sapiens bei einer Temperaturspanne zwischen von -40⁰C bis +50⁰ angemessen geschützt lebt und gedeiht. Dieses eine Grad ist weniger als der Unterschied in der mittleren Jahrestemperatur, der erreicht wird, wenn man in den mittleren Breiten etwa 50 Meilen nach Süden zieht, und wir alle wissen, dass das tödlich ist.

CF-Behauptung Nr. 8: Korallenriffe werden durch die vom Menschen verursachte Erwärmung negativ beeinflusst

Die gegenwärtige Erwärmung hat bereits sehr spürbare negative Auswirkungen auf marine Ökosysteme (d.h. Korallenriffe) (Alexis Berg)

Hitzewellen werden in vielen Teilen der Welt immer häufiger und heftiger. Sie treten auch im Ozean auf und sind einer der Haupttreiber für den Verlust von tropischen Korallenriffen. (Wolfgang Cramer)

Antwort 11: Dr. Peter RiddPhysiker, PhD von der James Cook University, früherer Leiter der Physikabteilung an der James Cook University von 2009 bis 2016 und Leiter des Marine Geophysical Laboratory an dieser Institution für 15 Jahre.

Im Folgenden habe ich in Stichpunkten die wichtigsten Fakten zusammengefasst, die die Vorstellung von der abnehmenden Gesundheit der Korallen und Riffe widerlegen.

Diejenigen von uns in Nord-Queensland, Australien, die direkt neben dem Great Barrier Reef leben, finden es unglaublich, dass die Welt davon überzeugt ist, dass das Riff in den letzten Zügen liegt. Nichts könnte weiter von der Wahrheit entfernt sein. Es ist spektakulär und eines der unberührtesten Ökosysteme der Erde. Sobald die COVID-Beschränkungen nachlassen, kommen Sie und sehen Sie selbst.

(1) Korallen mögen es warm. Die Region mit den vielfältigsten und am schnellsten wachsenden Korallen auf der Erde, das sogenannte „Korallendreieck“, liegt um Indonesien und Papua-Neuguinea, wo sich auch die wärmste große Wassermasse der Erde befindet – der indo-pazifische Warmpool.

(2) Für jedes Grad (Celsius) Temperaturerhöhung wachsen die Korallen etwa 20% schneller. Korallen in den kältesten Teilen des australischen Great Barrier Reefs (GBR) wachsen etwa halb so schnell wie die gleichen Korallenarten im Korallendreieck. (Lough 2000)

(3) Korallen erleben Temperaturschwankungen von oft bis zu 10 Grad im Jahr, was im Vergleich zu dem bescheidenen Anstieg der Wassertemperatur im letzten Jahrhundert von höchstens einem Grad Celsius in tropischen Gewässern sehr groß ist. Es ist unplausibel, dass alle Korallen auf der Erde in Wasser leben, das so nahe an ihrem thermischen Maximum liegt, dass dieser geringe Temperaturanstieg ein massenhaftes Korallensterben verursacht, wie in den Medien berichtet wird.

(4) Korallenbleiche-Ereignisse, bei denen sich Korallen bei heißem Wetter weiß färben, über die in den Medien bis zum Überdruss berichtet wurde, sind völlig natürliche Ereignisse, die schon immer aufgetreten sind. Sie sind kein neues Phänomen, wie oft berichtet wird. Was sich geändert hat, ist die Technologie, um sie zu überwachen, und die explosionsartige Zunahme der Zahl der Wissenschaftler, die sich für Riffe interessieren. Diese gab es vor ein paar Jahrzehnten noch nicht. (Hao et al 2021, Oliver et al 2018, Yonge et al 1931)

(5) Bleichen ist kein Todesurteil; die meisten Korallen erholen sich vollständig. (Marshall 2006, Australian Inst. Of Marine Sciences)

(6) Im Gegensatz zu den meisten anderen Organismen haben Korallen eine bemerkenswerte Anpassung, die sie fähiger als andere Organismen macht, mit sich ändernden Klimabedingungen, ob natürlich oder vom Menschen verursacht, umzugehen. Im Inneren der Koralle, die ein Tier ist, lebt eine Art von Algen, die Zooxanthellen genannt werden. Die Algen geben der Koralle Energie im Gegenzug für eine gemütliche Umgebung. Es gibt viele verschiedene Algenarten, und die Koralle kann die Art auswählen, mit der sie am besten mit der erforderlichen Temperatur zurechtkommt. Tatsächlich ist die Korallenbleiche ein Teil des Prozesses, mit dem die Koralle dies tut. Wenn eine Koralle bleicht, stößt sie die Algen aus (sie wird weiß) und wird wahrscheinlich eine andere Algenart aus dem umgebenden Wasser aufnehmen.

Während die meisten Organismen viele Generationen der Evolution durchlaufen müssen, um ihr Erbgut zu verändern, um für eine andere Temperatur geeignet zu sein, können Korallen dies in wenigen Monaten tun, indem sie die Algen verändern, die in ihnen leben. Anstatt das Aushängeschild für die Auswirkungen des Klimawandels zu sein, gehören Korallen zu den am besten angepassten Organismen, um mit wechselnden Temperaturen umzugehen. Dies sollte nicht überraschend sein. Sie haben über Hunderte von Millionen von Jahren gelebt, als das Klima viel wärmer und kälter war als heute. Sie haben Klimaveränderungen überstanden, die weitaus dramatischer waren als die sanften Temperaturveränderungen, die wir im letzten Jahrhundert erlebt haben (Baker 2003, Buddemeier 1993, Marshall und Baird 2000, Guest et al 2012).

(7) Korallen brauchen diesen Mechanismus wegen der Art und Weise, wie sie sich fortpflanzen. Sie produzieren Larven, die in der Strömung treiben. Und im Gegensatz zu Samen von Bäumen, die in der Nähe des Elternteils und damit im gleichen Klima fallen, kann Korallenlaich viele hundert Kilometer weit treiben in Gebiete mit einer anderen Wassertemperatur.

(8) Korallenriffe, insbesondere das australische Great Barrier Reef, durchlaufen natürliche Zyklen der Zerstörung, bei denen gelegentlich große Mengen an Korallen absterben. Hurrikane sind bei weitem die wichtigste Ursache. Zum Beispiel tötete ein Hurrikan im Jahr 2009 die Hälfte der Korallen am südlichen Great Barrier Reef – ein Gebiet von der Größe von Maine. Aber bis 2016 hatten sich die Korallen wieder vollständig erholt. Das hat sie immer getan und tut es immer noch. Die Ereignisse sind wie Buschbrände. Sie sehen schrecklich aus. Und die Medien und einige opportunistische wissenschaftliche Organisationen können grafische Bilder von toten Korallen für schändliche Zwecke verwenden. Was fast nie berichtet wird, ist die Art und Weise, wie stark die Koralle nachwächst (De’ath et al 2012).

CF-Behauptung #9: Der Klimawandel wird einen negativen wirtschaftlichen Effekt haben

In einem IPCC-Sonderbericht heißt es weiter: „Die wirtschaftlichen Verluste durch wetter- und klimabedingte Katastrophen haben zugenommen“ (Zusammenfassung)

(D)ie gesellschaftlichen Folgen dieser Veränderungen (Wirtschaft, Gesundheit, etc.) werden für einen großen Teil der Weltbevölkerung in naher Zukunft katastrophal sein. (Wolfgang Cramer)

Antwort 11: Dr. Patrick Michaels

Climate Feedback zitiert einen aktuellen Bericht des Intergovernmental Panel on Climate Change (IPCC) der Vereinten Nationen, in dem es heißt: „Die wirtschaftlichen Verluste durch wetter- und klimabedingte Katastrophen haben zugenommen.“

Hier hat der IPCC nur trivialerweise recht. Ja, die wetterbedingten Verluste müssen steigen, weil es mehr Menschen mit mehr Sachen gibt, die das gleiche Wetter erleben. Eine klarere Analyse würde die globalen wetterbedingten Schäden als Prozent des globalen BIP betrachten, wie in Abbildung 2.
Roger Pielke, Jr. hat in einer Veröffentlichung aus dem Jahr 2018 in der Fachzeitschrift Environmental Hazards Daten der Versicherungsbranche von Munich Re und BIP-Daten der Vereinten Nationen verwendet und einen leicht negativen Trend bei den Schäden im Laufe der Zeit festgestellt.

Abbildung 10 – Globale wetterbedingte Schäden in Prozent des globalen BIP bis 2018.  Quelle: Pielke, Jr., 2018 update of 2017 paper in Environmental Research.

Bedeutet der beobachtete leichte Rückgang der relativen Schäden, dass die sozialen Kosten der Kohlendioxidemissionen negativ sein könnten (d.h. ein Nutzen)? Es gibt eine gewisse Logik.  In der entwickelten Welt hat sich die Lebenserwartung seit 1900 fast verdoppelt, und in den USA hat sich das Pro-Kopf-Nettowert mehr als verelffacht. Könnte dies ein Teil eines global positiven Effekts sein?

Dayaratna et al. (2020) untersuchten das Verhalten der „social cost of carbon“ (SCC) und passten ihre landwirtschaftlichen Begriffe an die jüngsten Forschungen zu Wachstumssteigerungen an.  Während die Erträge in den meisten dieser Modelle um bis zu 25 % gesteigert werden können, fanden Munier et al. (2018) weitaus größere Steigerungen sowohl in natürlichen als auch in landwirtschaftlichen Ökosystemen. Er unterteilte Satellitendaten über sechs verschiedene Vegetationstypen rund um den Globus.

Die häufigsten in Munier et al. (2018) werden kollektiv als Grasland bezeichnet, ein Land, das größtenteils dazu genutzt wird, stehende Pflanzen für das Vieh bereitzustellen.  Er fand heraus, dass die Blattfläche über einen Zeitraum von 17 Jahren mit bemerkenswerten 5 Prozent pro Jahr zunimmt, was einen Nettozuwachs von 85 Prozent ergibt. Dies führt zweifellos zu einem bemerkenswerten Anstieg der Menge an erntefähigem, hochwertigem tierischem Protein.

Dayaratna et al. folgten auch den Richtlinien des Office of Management and Budget aus dem Jahr 2003 für Berechnungen von Vorschriften und verwendeten Abzinsungssätze von über 3 Prozent (das OMB empfiehlt Werte von bis zu 7 Prozent).  Sie verwendeten auch Temperaturszenarien, die mit den unten beschriebenen Klimasimulationen mit geringer Empfindlichkeit übereinstimmen, die die genauesten Simulationen der beobachteten tropischen troposphärischen Temperaturen seit Beginn der globalen satellitengestützten Temperaturaufzeichnungen im Jahr 1979 liefern.

Unter diesen Annahmen und bei jedem unterschiedlichen Diskontsatz fanden Dayaratna et al. heraus, dass der SCC leicht negativ ist.  Auch dies sollte angesichts des relativen Wohlstands und der hohen Lebensqualität in den Industrieländern, die stark auf kohlenstoffbasierte Brennstoffe angewiesen sind, nicht überraschen.

CF-Behauptung Nr. 10: Die Gutachter von Climate Feedback verlassen sich auf unwahrscheinliche und Worst-Case-Klimamodelle, um zukünftige Katastrophen vorherzusagen*

[*Diese Aussage ergibt keinen Sinn. Offenbar liegt da im Original irgendein Fehler vor. A. d. Übers.]

Antwort 12: Dr. Patrick Michaels:

In der Tat ist die Oberflächentemperatur der Erde gestiegen; etwa 0,9⁰C seit 1900. Oberflächenthermometer zeigen zwei deutliche Perioden der Erwärmung, wie in der Historie von der Climate Research Unit (CRU) an der University of East Anglia, eine langjährige Aufzeichnung, die sie in der begutachteten Literatur für buchstäblich Jahrzehnte gewesen ist und die ständig verbessert wird.

Die beiden Perioden der Erwärmung, etwa 1910-45 und dann 1976-98, sind in ihren Steigungen statistisch nicht unterscheidbar, aber die erste hat wahrscheinlich nur eine sehr kleine Komponente aus erhöhtem Kohlendioxid. Es folgt eine grobe Berechnung:

Eiskerndaten aus Law Dome zeigen, dass die Oberflächenkonzentration nur etwa 298 ppm betrug, als die erste Erwärmung begann, was einen CO2-Antrieb von +0,35 W/m² über dem Hintergrund ergibt, basierend auf der Standardformel (dRF= 5,35ln(298/279)). Beachten Sie, dass dies eine sehr großzügige Berechnung ist, da die Konzentration zu Beginn der CRU-Aufzeichnung näher bei 285 ppm liegt.

Stevens (2015), der Carslaw et al. (2013) zitiert, gibt einen Sulfat-Antrieb von -0,3 W/m² an, was zu einem kombinierten Netto-Antrieb von fast Null führt. Die Modelle so abzustimmen, dass sie diese Erwärmung mit einer so kleinen Strahlungsänderung wie im Jahr 1910 irgendwie berücksichtigen, impliziert eine enorme Empfindlichkeit. Wenn das tatsächlich der Fall wäre, wären die aktuellen Temperaturen so hoch, dass es kaum eine politische Debatte gäbe.

Der Anstieg von der Mitte des 19. Jahrhunderts (wenn die Aufzeichnung beginnt) beläuft sich wiederum nur von etwa 285 Teilen pro Million (ppm) auf 298. Zum Vergleich: Jetzt sind es etwa 417 ppm.

Die von Satelliten gemessenen Temperaturen der NOAA-Mikrowellen-Sondierung (MSU) stellen eine wirklich globale Aufzeichnung dar (mit einem nur sehr kleinen weißen Fleck über jedem Pol). Leider gab es umstrittene Revisionen der Oberflächenaufzeichnungen, die eine viel diskutierte „Pause“ in der Erwärmung von etwa 1998 bis 2012 abschwächten. Aber in den MSU-Satellitendaten ist sie sehr offensichtlich:

Abbildung 11 – Die neueste Version der MSU-Temperaturen. Diese liegen ungefähr in der 850-300mb Schicht. Quelle

Beachten Sie, dass es in der Zeit nach 1998 nur eine einzige signifikante Erwärmungsperiode gibt, nämlich von 2012 bis 2016.

Die Satellitendaten unterstreichen die Tatsache, dass die meisten Klimamodelle, wie in unserer nächsten Abbildung gezeigt, dazu neigen, quasi-lineare Erwärmungen vorherzusagen, was zum Teil darauf zurückzuführen ist, dass die Temperaturreaktion auf einen bestimmten Anstieg des Kohlendioxids logarithmisch ist, während der Anstieg des CO2 ein Exponent niedriger Ordnung ist. Die Summierung der beiden kann in der Tat linear sein. Die Steigung der gesamten Satellitenaufzeichnung war sehr konstant bei etwa 0,13 bis 0,14⁰/Dekade, gemittelt über die gesamte 42-jährige Aufzeichnung, was etwas weniger als die Hälfte der Erwärmungsrate ist, die von den Modellen für die letzten Jahrzehnte vorhergesagt wurde.

Die tatsächliche Erwärmung, die auf Kohlendioxid zurückzuführen ist, wird vom IPCC in seinem letzten (2013) umfassenden Bericht mit einem vagen „mehr als die Hälfte“ der Veränderung seit 1950 angegeben. Dies würde von ungefähr 0,3 bis 0,6⁰C variieren, basierend auf der CRU-Geschichte.

Es ist wichtig anzumerken, dass alle quantitativen Projektionen der Erwärmung – einschließlich derjenigen des IPCC, der verschiedenen US-amerikanischen „National Assessments“ der Auswirkungen des Klimawandels auf das Land und sogar des „Endangerment Finding“ der EPA von 2009 (das immer noch das Dokument der Aufzeichnungen ist) – alle auf komplizierten allgemeinen Zirkulationsmodellen (GCMs) oder noch komplizierteren Erdsystemmodellen (ESMs) basieren.

Mit einer Ausnahme sagen diese Modelle eine viel zu starke Erwärmung in einer klimatisch kritischen Region der Atmosphäre, der tropischen Troposphäre, voraus.

Die folgende Abbildung ist eine detaillierte Version von Abbildung 1 in Christy und McNider (2017), die GCMs und ESMs aus der CMIP-5-Modellsammlung zeigt, die im letzten IPCC-Bericht vorgestellt wurde, im Vergleich zu tropischen Temperaturen, die von Wetterballons, Satelliten und globalen Reanalysen gemessen wurden. Das Versagen der Modelle ist, mit einer Ausnahme, krass offensichtlich, und die Ähnlichkeit der Ballon-, Satelliten- und Reanalysedaten ist ein beruhigender Hinweis darauf, dass die CMIP-5-Modelle einfach falsch lagen.

Abbildung 12: Simulation vs. Realität

Das einzige Modell, das funktioniert, ist das russische INM-CM4, das auch die geringste voraussichtliche Erwärmung von allen hat, mit einer Gleichgewichts-Klimasensitivität (ECS) von 2,05⁰C, verglichen mit dem CMIP-5-Durchschnitt von 3,4⁰C.

Wenn die National Assessments oder das IPCC der besten wissenschaftlichen Praxis folgen würden (was die operativen Meteorologen jeden Tag tun!), würden sie dieses Arbeitsmodell hervorheben und die breitere, offensichtlich falsche Gemeinschaft der anderen meiden.

Eine genauere Betrachtung der vorhergesagten und beobachteten Erwärmungstrends in der Vertikalen stammt aus Abbildung 2 in Christy und McNider (2017):

Abbildung 13 – Dicke schwarze Linie: Durchschnittliche Erwärmungstrends pro Dekade. Dünne farbige Linien: Durchschnittliche Erwärmungstrends für jedes Modell. Farbige geometrische Figuren: Beobachtungen. Die vertikale Achse ist die Höhe, gemessen am atmosphärischen Druck. Der maximale Fehler liegt bei 200mb („20000“ in der Grafik). Die durchschnittliche vorhergesagte Erwärmungsrate auf dieser Höhe ist bemerkenswerterweise sechsmal so hoch wie die beobachtete. CMIP-5-Modellfamilie.

Seit dieser Arbeit wurden wir mit der nächsten (CMIP-6) Serie von Modellen konfrontiert. Wie von McKitrick und Christy (2020) gezeigt, sind sie noch schlechter. Und das eine von zwei, das funktioniert, das russische INM-CM4.8, hat sogar noch weniger Erwärmung als sein Vorgänger, mit einem ECS von 1,8⁰C, verglichen mit dem CMIP-6-Gemeinschaftswert von etwa vier Grad.[1] (Das andere ist auch ein sehr niedriges ECS-Modell aus der gleichen Gruppe, INM-CM5).

Ich zitiere aus ihrer Schlussfolgerung:

Die Literatur, die auf eine Aufwärtsverzerrung in den Erwärmungsreaktionen der Klimamodelle in der tropischen Troposphäre hinweist, reicht nun mindestens 15 Jahre zurück (Karl et al., 2006). Anstatt gelöst zu werden, hat sich das Problem verschlimmert, da nun jedes Mitglied der CMIP6-Generation von Klimamodellen einen Aufwärtsbias in der gesamten globalen Troposphäre sowie in den Tropen aufweist.

Climate Feedback erkennt nicht, dass diese Fehler fatal für die Zuverlässigkeit praktisch aller Ökosystem-Wirkungsmodelle (einschließlich der Landwirtschaft) sind. Der größte Teil der Feuchtigkeit in den Anbaugebieten der mittleren Breiten (einige der produktivsten landwirtschaftlichen Flächen der Erde) stammt aus den Tropen. Große und systematische Fehler in den tropischen vertikalen Niederschlagsprognosen für die Zukunft machen diese einfach unzuverlässig.

CF Behauptung #11: Wrightstone verwechselt natürliche Treiber mit der vom Menschen verursachten CO2-getriebenen Erwärmung

Der Autor macht den häufigen Fehler, die natürliche Variabilität (die leichte Erwärmung nach der Kleinen Eiszeit) und die aktuelle Erwärmung, die auf den Treibhausgasantrieb zurückzuführen ist, zu vermischen. Diese Prozesse werden von Klimawissenschaftlern gut verstanden. In der Tat gibt es keine alternative Erklärung für die jüngste schnelle Erwärmung, wie sie in diesem Climate Feedback Review beschrieben wird. (Wolfgang Cramer)

Antwort 13: Gregory Wrightstone:

Wie Dr. Michaels im vorigen Abschnitt erklärte, ist die Oberflächentemperatur der Erde seit 1900 um etwa 0,9⁰ C gestiegen.  Die HadCRUT4-Thermometeraufzeichnung zeigt, dass es im 20. Jahrhundert zwei verschiedene Perioden der Erwärmung gab, ungefähr 1910-45 und dann 1976-98. Die Steigungen der beiden Perioden sind ununterscheidbar, obwohl die frühere in einer Periode mit niedrigem CO2-Gehalt von weniger als 300 ppm stattfand und jede CO2-Erwärmung vernachlässigbar wäre, während die letztere bei Werten von mehr als 400 ppm stattfand.

Die Abbildung unten zeigt beide Erwärmungsperioden und ich fordere Sie heraus zu entscheiden, welche in einer CO2-armen Umgebung und welche bei >400 ppm stattfand.

Abbildung 14 – Welcher Temperaturanstieg des 20. Jahrhunderts ist derjenige, der angeblich durch CO2-getriebene Erwärmung verursacht wurde?

Der unten dargestellte Central England Temperature Record ist die älteste verfügbare kontinuierliche Thermometeraufzeichnung und stammt aus dem Jahr 1659. Ebenfalls dargestellt sind die globalen Kohlenstoffemissionen, die eine 250-jährige Aufzeichnung der Erwärmung in einer CO2-armen Umgebung dokumentieren. In den ersten 200 Jahren der Erwärmung ist die CO2-bedingte Erwärmung nahezu null bis vernachlässigbar. Beachten Sie auch, dass die höchste Erwärmungsrate während der ersten 40 Jahre von 1695 bis 1735 auftrat, als die Erde begann, sich von den niedrigsten Temperaturen seit 12.000 Jahren (Kleine Eiszeit) zu erholen.

Abbildung 15 – Mehr als 250 Jahre Erwärmung traten auf, bevor der Mensch begann, große Mengen CO2 in die Atmosphäre einzubringen.

Autor: Gregory Wrightstone

Managing Director at the CO2 Coalition, expert reviewer of the United Nations Intergovernmental Panel on Climate Change, author of Inconvenient Facts: The science that Al Gore doesn’t want you to know. Bibliography here.

Link: https://wattsupwiththat.com/2021/06/06/fact-checking-the-fact-checkers/

Übersetzt von Chris Frey EIKE




EPA lässt schon wieder unbequeme Klimadaten verschwinden…

Indem die EPA die zuvor schon gezeigten Daten unvollständig wiedergibt, führt sie die Öffentlichkeit in die Irre, indem sie mit den Daten Schindluder treibt. Die Website Climate Realism zeigte als Erstes diesen Vorgang des Verschwindenlassens von Daten in dem Report National Fire Center Disappears ‘Inconvenient’ U.S. Wildfire Data.

Jetzt macht die EPA das Gleiche – sie löscht wichtige historische Temperaturdaten. Die EPA hat ihre frühere Webseite Climate Change Indicators: High and Low Temperature gelöscht und durch eine neue ersetzt. Zuvor zeigten sie den U.S. Heat Wave Index von 1895 bis 2015, der eindeutig die einzigartige Dürre- und Hitzeperiode der 1930er Jahre dokumentiert hatte.

Glücklicherweise vergisst das Internet nie, und erst am 1. Mai 2021 wurde die ursprüngliche EPA-Site im Internet archiviert, so wie in Abbildung 1 dargestellt:

Abbildung 1. Frühere EPA-Grafik vor der Änderung der Biden-Administration mit Daten von 1895 bis 2015.

Beachten Sie in Abbildung 1, dass es einen sehr auffälligen Temperaturanstieg in den 1930er Jahren während der sogenannten „Dust Bowl“-Periode in der Geschichte der USA gibt. Laut dem National Weather Service:

Die ‚Dust Bowl‘-Jahre von 1930-36 brachten den Vereinigten Staaten einige der heißesten Sommer, die jemals aufgezeichnet wurden, insbesondere in den Ebenen, dem oberen Mittleren Westen und den Staaten am Großen See. Im oberen Mississippi-Tal wurden in den ersten Juliwochen des Jahres 1936 die höchsten Temperaturen dieser Periode gemessen, darunter viele neue Rekordwerte.

Die Reihe von heißen, trockenen Tagen war auch tödlich. Landesweit wurden etwa 5000 Todesfälle mit der Hitzewelle in Verbindung gebracht.

Diese langjährige Hitzewellen-Index-Tabelle wurde nun durch eine neue Tabelle ersetzt, die jede Vorstellung von der großen Hitzewellen-Periode der 1930er Jahre einfach „verschwinden“ lässt. Die EPA löschte die früheren Daten und ersetzte sie durch Daten, die für ein alarmistisches Narrativ passender sind, wie Abbildung 2 unten zeigt:

Abbildung 2. Neue EPA-Karte nach dem Wechsel der Biden-Administration mit Daten von 1910 bis 2015.

Die EPA hat auch eine weitere neue Seite Climate Change Indicators: Heat Waves hinzugefügt, die nicht einmal die „Dust Bowl“ der 1930er Jahre enthält. Stattdessen beginnt die Auflistung der EPA in den 1960er Jahren, einem Hitzewellen-Minimum im 20. Jahrhundert, wie in Abbildung 3 zu sehen ist. Indem die EPA die neuen Diagramme in den 1960er Jahren beginnt, anstatt alle verfügbaren Daten bis 1895 zurück zu verwenden, stellt sie einen künstlichen positiven und ununterbrochenen Aufwärtstrend bei Hitzewellen sicher.

Abbildung 2. Neue EPA-Karte nach dem Wechsel der Biden-Administration mit Daten von 1910 bis 2015.

Positiv zu vermerken ist, dass die EPA die ursprüngliche Seite Climate Change Indicators: Drought beibehalten hat, die in Abbildung 4 zu sehen ist. Diese zeigt keinen sich verschärfenden Dürretrend in den Vereinigten Staaten. Angesichts der jüngsten Änderungen der anderen EPA-Diagramme ist dieses nicht alarmistische Dürre-Diagramm auf der EPA-Webseite wahrscheinlich nicht mehr lange zu sehen.

Abbildung 4. EPA-Seite Klimawandel-Indikatoren: Dürre

Zu Beginn der Seite Climate Change Indicators macht die EPA einige nachweislich falsche Aussagen:

Das Klima der Erde verändert sich. Die Temperaturen steigen, Schnee- und Niederschlagsmuster verschieben sich, und extremere Klimaereignisse – wie schwere Regenstürme und Rekordtemperaturen – treten bereits auf. Viele dieser beobachteten Veränderungen stehen im Zusammenhang mit dem steigenden Gehalt an Kohlendioxid und anderen Treibhausgasen in unserer Atmosphäre, verursacht durch menschliche Aktivitäten.

Die Entscheidung, die Geschichte der Wetter- und Klimadaten auszulöschen, macht deutlich, dass das Anfangsargument der EPA schwach ist und auf Rosinenpickerei von denjenigen Daten basiert, die nur mit ihrer Prämisse übereinstimmen.

Es scheint, dass wir die sowjetische Ära der „verschwindenden“ Diagramme und Daten betreten haben. Wenn die neue Klimawandel-Indikatoren-Serie der EPA ein Hinweis auf die zukünftigen Klimaberichte der Regierung ist, scheint es, dass wir jetzt in die Biden-Ära der „Säuberung unbequemer Klimadaten“ eintreten.

Anthony Watts is a senior fellow for environment and climate at The Heartland Institute. Watts has been in the weather business both in front of, and behind the camera as an on-air television meteorologist since 1978, and currently does daily radio forecasts. He has created weather graphics presentation systems for television, specialized weather instrumentation, as well as co-authored peer-reviewed papers on climate issues. He operates the most viewed website in the world on climate, the award-winning website wattsupwiththat.com.

Link: https://climaterealism.com/2021/05/epa-disappears-more-inconvenient-climate-data-including-the-1930s-u-s-dust-bowl/

Übersetzt von Chris Frey EIKE

 




EIKE Website ab kommenden Sonntag im Umbau!

Seit mehreren Monaten wird am Umbau der EIKE Website gearbeitet. Einerseits soll sie zwar einen hohen Wiedererkennungswert haben, andrerseits moderner wirken und sich besser überschauen lassen. Noch wichtiger aber ist, dass die neue Website pflegeleichter sein wird, denn die Website besteht aus dem Hauptthema und vielen, vielen sog. Plugins, welche die Arbeit im Redaktionsbereich aber auch im für Leser sichtbaren Bereich (frontend) erleichtern. Z.b. bei den Kommentaren.

All dies ließe sich rel. schnell verwirklichen, wenn man nicht auf die Vergangenheit Rücksicht nehmen müsste, heißt, alle bisherigen Artikel (mehr als 10.000) und alle Kommentare (fast als 220.000) sollen wieder aufrufbar bleiben. Nichts soll verloren gehen.

Das ist und war keine kleine Aufgabe, aber nun gibt es eine Lösung.

Wir ziehen ab 0.01 Uhr Sonntag dem 13.6.21 um. Die Webseite bleibt vermutlich bis Dienstag 15.06. 24:00 Uhr nicht erreichbar.

Wir hoffen auf gutes Gelingen und danken für Ihr Verständnis.




 „2054 – Ein Jahr im Paradies der Genügsamkeit“ – dystopischer Blick in  eine Zukunft, die durchaus die unsrige werden könnte

Nach dem Urteil des Bundesverfassungsgerichts vom 29.04.2021, in dem es heißt:

„Künftig können selbst gravierende Freiheitseinschränkungen zum Schutz des Klimas verhältnismäßig und verfassungsrechtlich gerechtfertigt sein.“

verlegte der Autor das Jahr der Handlung in seinem Buch um zehn Jahre nach vorn. Er hatte erkannt, dass diese vorauseilende höchstrichterliche Legitimation einer künftigen Ökodiktatur zu einem beschleunigten Eintreten der Zustände führen würde, die er in seinem Roman beschreibt. Dessen spannende Handlung spielt nach der „Großen Transformation“ in einer Gesellschaft, die Bedürfnislosigkeit zu einer hohen Tugend und Armut zur allgemeinverbindlichen Pflicht erklärt hat. Eine korrupte Oligarchie von Politeliten kaschiert ihren totalen Machtanspruch durch inflationären Gebrauch des Begriffes „demokratisch“. Weil in dem geschrumpften Wirtschaftssystem nur noch wenige gebildete Menschen benötigt werden, ist die allgemeine Schulpflicht auf vier Jahre reduziert worden. Die junge Mathematiklehrerin Carlotta Bernbach versucht an der Primarschule, lernunwilligen Kindern ein paar Grundkenntnisse des Rechnens beizubringen – eine Tätigkeit, die mit Raubtierdressur vergleichbar ist. Dabei hegt sie die verzweifelte Hoffnung auf Versetzung an eine weiterführende Schule. Doch die Aussicht darauf droht an ihrer Weigerung zu zerbrechen, sich eine Carbocard implantieren zu lassen.

Diese Dystopie ist außergewöhnlich, weil sie nicht nur das beklemmende Bild einer aus vielfältigen Gründen verarmten Gesellschaft im Jahr 2054 zeichnet, sondern auch überzeugend deren zwangsläufige Entwicklung aus der heutigen Situation beschreibt. Das Gesellschaftsbild in „2054“ ist detailreich und sorgfältig gemalt; der Autor hat darin sogar die für eine gendergerechte Sprache „unabdingbare neue Grammatik“ entworfen, die der  „Sprache unserer demokratischen Zukunft eine bislang ungeahnte Klarheit und linguistische Ästhetik verleihen wird“.

Das überaus lesenswerte, leider auch traurig niederschmetterndes Buch ist unter www.kaleidoscriptum-verlag.de für 16,80 € erhältlich.

Hier ein paar Leseproben daraus.

 

 

 

 




Kältestes „Sommer“-Wochenende jemals in Atlantic City

Im Südosten New Jerseys herrschten am Memorial-Day-Wochenende rekordverdächtig niedrige Temperaturen. Der Atlantic City International Airport verzeichnete sowohl am Samstag als auch am Sonntag die niedrigsten jemals gemessenen Tageshöchsttemperaturen.

Wie pressofatlanticcity.com berichtet, entsprachen die Höchsttemperaturen von 12 Grad während des „megteorologischen Sommeranfangs“ den mittleren Werten für März und waren die kältesten, die in Wetterbüchern seit 1943 aufgezeichnet worden waren.

In der S. Farley Marina in Atlantic City [einem Freizeitzentrum] wurden am Samstag und Sonntag Tageshöchstwerte von nur 13 Grad gemessen.

Am Sonntag war auch ein neuer Tiefstwert aufgetreten in einer Reihe, die in der Marina bis ins Jahr 1874 zurückreicht.

Millville brach auch einen Rekord für die niedrigste Maximaltemperatur am Sonntag – das Thermometer kletterte auf nur 11 Grad.

Nach Recherchen von The Press of Atlantic City war es das kühlste Samstag- und Sonntagswochenende während der „Sommer“-Saison – die vom Freitag vor dem frühestmöglichen Memorial Day, dem 22. Mai, bis zum spätestmöglichen Labor Day, dem 7. September, für A.C. Airport und Millville reicht.

In den Vereinigten Staaten hat das Jahr bisher insgesamt 19.510 neue tägliche KÄLTE-Rekorde im Vergleich zu nur 15.291 für HITZE-Rekorde geliefert – und das laut den Alarmisten der NOAA mit ihrer Historie der Datenmanipulation.

Außerdem sind insgesamt 921 monatliche KÄLTE-Rekorde gefallen gegenüber nur 365 für die HITZE.

Und noch bezeichnender ist, dass in diesem Jahr insgesamt 222 KÄLTE-Rekorde gefallen sind, gegenüber nur einem für WÄRME.

Die leichte Erwärmung, die in den letzten Jahrzehnten beobachtet wurde, kann auf die hohe Sonnenaktivität zurückgeführt werden.

In den letzten Jahren ist die Sonnenaktivität jedoch (relativ) stark zurückgegangen, und jetzt, nach einer Verzögerung von etwa zehn Jahren, reagieren die globalen Temperaturen darauf.

Alle offiziellen Datensätze greifen die starke Abkühlung auf, die seit 2016 beobachtet wurde, denn im Gegensatz zur AGW-Theorie ist dies keine Fantasie, und wir können getrost reale Beobachtungen verwenden, um eine Abkühlung des Planeten zu unterstützen – es sind keine peinlichen, unlogischen Erklärungen notwendig.

Trends ändern sich (sorry IPCC).

Das Klima ist zyklisch, niemals linear (such dir ein anderes Steckenpferd, Greta).

Und es wird jetzt immer schwieriger für die Regierungsbehörden, die sich verstärkende globale Abkühlung zu verbergen/zu erklären. Die NOAA und die NASA haben alle Tricks der Datenfälschung, des Ignorierens von UHI und der Rosinenpickerei angewandt, die sie haben, aber ihre globalen Temperaturdaten zeigen immer noch eine deutliche ABKÜHLUNG.

Die beiden Diagramme unten zeigen den berechneten linearen jährlichen globalen Temperaturtrend für die letzten 5, 10, 20, 30, 50, 70 oder 100 Jahre, mit freundlicher Genehmigung von climate4you.com.

Das erste Diagramm zeigt die Satelliten-Temperaturtrends für die am häufigsten zitierten UAH- und RSS-Datensätze:

Diagramm, das den jüngsten linearen jährlichen globalen Temperaturtrend über 5, 10, 20 und 30 Jahre zeigt, berechnet als Steigung der linearen Regressionslinie durch die Datenpunkte, für zwei satellitenbasierte Temperaturschätzungen (UAH MSU und RSS MSU). Letzter in die Analyse einbezogener Monat: Januar 2021.

Die zweite Grafik zeigt die Oberflächentemperaturaufzeichnung für GISS, NCDC und HadCRUT4:

Diagramm, das den letzten linearen jährlichen globalen Temperaturtrend über 5, 10, 20, 30, 50, 70 und 100 Jahre zeigt, berechnet als Steigung der linearen Regressionslinie durch die Datenpunkte, für drei oberflächenbasierte Temperaturschätzungen (HadCRUT4 und GISS + NCDC). Letzter in die Analyse einbezogener Monat: Januar 2021.

Beachten Sie den starken Abkühlungstrend, der von allen fünf Datensätzen in den letzten fünf Jahren beobachtet wurde.

Beachten Sie auch den Unterschied zwischen satelliten- und oberflächenbasierten Temperaturen, wobei die zuverlässigeren Satelliten einen größeren Temperaturrückgang anzeigen.

Das Diagramm unten zeigt den für die letzten 5 Jahre berechneten Trend:


Eindeutig ist erkennbar, dass die mittlere Temperatur der Erde während der letzten paar Monate im Sinkflug begriffen ist.

Weitere Details gibt es hier.

Link: https://electroverse.net/coldest-summer-weekend-on-record-in-atlantic-city/

Übersetzt von Chris Frey EIKE




Der „Neue Stillstand“ verlängert sich um weitere 2 Monate auf nunmehr 6 Jahre 2 Monate

HadCRUT4 hat nach einigem Hin und Her seinen monatlichen Datensatz mit drei Monaten neuer Daten aktualisiert, was uns bis März 2021 bringt. Der neue Stillstand in den HadCRUT4-Daten hat sich auf 7 Jahre und 1 Monat verlängert:

Wie haben sich nun also die Daten der realen Welt im Vergleich zu den Prophezeiungen der Modelle gemacht, wie sie vom IPCC (1990) verbreitet worden waren? Die IPCC-Prophezeiung sah so aus:

Da die Vorhersage des IPCC von 1,8 C° anthropogener Erwärmung mit der vorindustriellen Temperatur verglichen wird, muss man die HadCRUT4-Erwärmung von 0,54 C° von 1850 bis April 1991 abziehen. Die Vorhersage des IPCC belief sich also auf 1,26 C° bis 2030.  UAH zeigt jedoch nur 0,46 C° in 30 Jahren, was etwa 0,61 C° bis 2030 entspricht, wovon 70%, also nur 0,43 C°, anthropogen sind (Wu et al. 2019):

Daher hat sich die Vorhersage des IPCC aus dem Jahr 1990, auf der die Angst vor der globalen Erwärmung beruhte – die von Professor Lindzen in einem ausgezeichneten Vortrag vor kurzem zu Recht als „absurd“ bezeichnet wurde – als eine fast dreifache Übertreibung im Vergleich zur nüchternen Realität erwiesen.

Hier ist der Grund dafür. Die heutige globale mittlere Oberflächentemperatur beträgt 288,6 K, bestehend aus 255,2 K Emissionstemperatur und 33,4 K Treibhauseffekt. Die 33,4 K setzen sich zusammen aus 7,2 K direkter Erwärmung durch natürliche (6,2 K) und anthropogene (1 K) Treibhausgase und 26,2 K Rückkopplungseffekt. Von diesen 26,2 K sind 25,5 K Rückkopplungsreaktion auf die Emissionstemperatur und 0,7 K auf die direkte Erwärmung durch Treibhausgase. Von diesen 0,7 K sind 0,6 K Rückkopplungsreaktion auf natürlich vorkommende und 0,1 K auf anthropogene Treibhausgase.

Der heutige System-Gain-Faktor, das Verhältnis der Gleichgewichtstemperatur nach der Rückkopplung zur Referenztemperatur vor der Rückkopplung, beträgt also 288,6 / (255,2 + 7,2), also 1,1. Die Referenzsensitivität gegenüber verdoppeltem CO2 ist das Produkt aus dem 3,52 W/m² verdoppelten CO2-Antrieb (Zelinka et al. 2020) und dem Planck-Parameter 0,3 K/Wm²: also 1,05 K. Die Gleichgewichts-Sensitivität gegenüber verdoppeltem CO2, das Produkt aus 1,05 K und dem System-Gain-Faktor 1,1, beträgt also etwa 1,15 K – das entspricht in etwa der anthropogenen globalen Erwärmung, die wir über das gesamte 21 Jahrhundert erwarten können.

Folglich ist die mittlere mittlere Vorhersage von 3,9 K in den Modellen der neuesten Generation (CMIP6) (Zelinka et al. 2020) eine mehr als dreifache Übertreibung, die auf der Vorstellung der Klimaforscher beruht, dass es keine Rückkopplung auf die Emissionstemperatur gibt. Ihr Systemverstärkungsfaktor 26,2 / 6,2, also 4,2, übersteigt den realen Wert von 1,1 fast um das Vierfache.

Kommt schon, Leute! Wann merkt ihr endlich, dass die Sonne scheint? Es ist die Sonne, die für fast alle Rückkopplungsreaktionen im heutigen Klima verantwortlich ist. Referenz- und Gleichgewichts-Sensitivität sind ungefähr gleich, und man kann die Rückkopplungsreaktion bei der Ableitung der Gleichgewichts-Sensitivität ohne signifikanten Fehler ganz vernachlässigen. Referenzsensitivitäten sind alles, was man braucht. Und damit ist der Klimanotstand beendet.

Link: https://wattsupwiththat.com/2021/06/02/the-new-pause-lengthens-by-another-2-months-to-6-years-2-months/

Übersetzt von Chris Frey EIKE

 




Die Mai-Bundesliga-Tabelle – Vorschlag einer CO2-Freiwilligen­steuer in Deutschland

Der Hohenpeißenberg (HPB) gibt eine erste Antwort

Wenig verändert: Schon über 200 Jahre betrieben die Mönche im dortigen früher unbeheizten Kloster eine Wetterstation, die an der nördlichen Außenwand des Anbaus an der Klosterkirche in etwa 7 m Höhe neben einem Fenster angebracht war. Nach Gründung des Reichswetterdienstes mit normierten neuen Standortbedingungen wurde die Station nach 1936 an einen wärmeren und etwas tiefer gelegenen Standort verlegt, der inzwischen zu einem umfangreichen DWD-Messzentrum ausgebaut wurde. So steht die neue Wetterhütte frei auf dem DWD-Messfeld und ist der Sonne ausgesetzt. Im Mai 2021 waren es 183 Sonnenscheinstunden. Wir schätzen die menschengemachte Wärmeinselzugabe aufgrund des Standortwechsels auf etwa 0,3 bis 0,5 C ab dem Jahre 1936 ein, d.h. die seitdem gemessenen Temperaturen müsste man entsprechend nach unten korrigieren, was wir nicht getan haben, denn die Grafik 1 ist auch so eindeutig zur Verdeutlichung der Überschrift. Mai 2021: 8,2 °C, deutlich unter dem 240 jährigen Schnitt von 10°C

Grafik 1: Die Grafik zeigt deutlich, dass die warmen Maimonate, als die deutschen Maienlieder entstanden sind, vor über 200 Jahren konzentriert auftraten. Das momentane Temperaturplateau des Wonnemonates Mai befindet sich seit 1988 leicht über dem Schnitt der letzten 240 Jahre. Die kalten Jahrzehnte um 1881 sind in der Grafik gut zu erkennen.

Fazit: Die warmen Maimonate lagen in früheren Jahrhunderten.

Grafik 2: Auch bei der Wetterstation in Berlin-Tempelhof liegen die wirklich heißen Maimonate lange zurück. Wie schon beim HPB sind auch in Berlin um 1881 die Maimonate am kältesten. Mit 12,6°C lag der Mai 2021 in Berlin deutlich unter dem 265 jährigen Gesamtschnitt von 13,8°C

Im Gegensatz zum HPB ist die Wetterstation Tempelhof eine typische Wärmeinselstation. Einst lag sie einige Kilometer außerhalb von Berlin bei einem Gutshof, der tempelartig angeordnet war. Inzwischen hat die Großstadt den Gutshof geschluckt und ein neuer Stadtteil ist am selben Ort erwachsen.

Es existieren auch länger zurückliegende Deutschlanddaten, die sich aber nur auf wenige Stationen berufen können, bzw. die Daten wurden interpoliert. Wir verwenden für die nächste Grafik die Deutschlanddaten ab 1800, seit 1881 sind es die offiziellen DWD-Daten. Quelle

Die 15 wärmsten Maimonate Deutschlands in Form einer Bundesligatabelle.

Man achte auf die Jahreszahlen der warmen Maimonate. Der Mai 2019, 2020 und 2021 wären ein Absteiger aus der ersten Liga. Komisch in diesen letzten 3 Jahren waren die gemessenen CO2-Konzentrationen doch am höchsten.

Grafik 3: Unser Dichter Johann Wolfgang Goethe lebte noch zu den Zeiten des viertwärmsten Maimonats (1811) in Deutschland. Der Mai 2020 ist keineswegs an 16.ter Stelle, mit seinen 10,7°C er wurde auf dieser Grafik nur im Vergleich zu den 15 wärmsten eingezeichnet. Ein Ausreißer aus der Neuzeit, der sonnenreiche Mai 2018 führt die Deutschland-Tabelle an.

Auch diese Grafik zeigt: Das momentane Wärmeplateau des Monates Mai ist keineswegs ein hohes Niveau seit Beginn der Temperaturmessungen in Deutschland.

Vergleich der Maimonate mit den CO2-Messungen: Die Keeling Kurve

Nur 3 der 15 wärmsten Maimonate Deutschlands liegen im Zeitraum der ansteigenden CO2-Keeling-Kurve. Messbeginn am Mauna Loa: 1958

Grafik 4: Die CO2-Konzentrationen der Atmosphäre steigen vor allem nach dem Kriege stark an. Behauptet wird, dass die Ursache des CO2-Anstieges fast ausschließlich anthropogenen Ursprunges wäre. Zumindest seit der Corona-Krise darf man Zweifel anmelden, denn inzwischen ist der Wert im Mai 2020 auf 419 ppm angewachsen und keinesfalls in den letzten 15 Monaten gesunken.

Weiter wird behauptet, dass dieser CO2-Anstieg die Haupt-Ursache der Temperaturerwärmung wäre, die es aber für den Monat Mai in Mitteleuropa über einen längeren Zeitraum gar nicht gibt.

Fazit: 1) Die CO2-Konzentrationen steigen seit 1958 stetig an, sie sind auch im letzten Jahr trotz lock-down weiter gestiegen.

2) Der Monat Mai ist der Beweis, dass CO2 gar keinen oder höchstens einen minimalen Einfluss auf die Temperaturen hat.

Vorschlag: Wer weiterhin an ein Treibhausgas Kohlendioxid glaubt, für solche Menschen möge die neue Regierung eine CO2-Freiwilligensteuer einführen, damit diese Gläubige ihr Gewissen beruhigen können.




Die grosse Transformation- Corona und Klima. Der Weg in die globale Neuordnung.

Corona und Klima sind die allesbestimmenden Themen- und sie werden es bleiben. Denn sie dienen einem ‚höheren Zweck‘. Es wird Angst geschürt, um die Menschen gefügig für Änderungen zu machen.

Klima und Corona  werden durch Politik und Medien als eine viel höhere Gefahr dargestellt, als sie in Wirklichkeit sind. Der Autor weist mit Hilfe öffentlich zugänglicher Daten offizieller Stellen nach, dass wir sowohl beim Thema Klima als auch beim Thema Corona in die Irre geführt und manipuliert werden.

Corona und Klima dienen letztendlich demselben Ziel: dem Umbau des gesamten gesellschaftlichen und wirtschaftlichen Zivilisationsgefüges. Klima und Corona sind die Transmissionsriemen, um das Ziel eines »Great Reset« oder einer »Great Transformation« (Weltwirtschaftsforum) voranzutreiben.

Schon fordert man nach dem Corona-Lockdown auch einen Klima-Lockdown. Dabei werden die Freiheiten und Grundrechte dauerhaft eingeschränkt und warnende stimmen diffamiert und in eine kriminelle Ecke gestellt.

Offizielle Aussagen u.a. des Weltwirtschaftforums belegen, dass das alles keine Verschwörungstheorie ist, sondern tatsächlich so von langer Hand geplant ist. Reiche werden reicher, Arme bleiben arm und werden mehr, die Bürger werden überwacht und umerzogen.

Das Buch trägt folgende Kennungen
SBN-10: 3887931645,
ISBN-13: 978-3887931643
ist IDEA- Verlag erschienen  und kostet 19,80€



Die Scheintoten der zahlreichen Ökokatastrophen

Die UN-Berichte geben an:

Tschernobyl: Strahlentote:  47 Helfer, Erkrankungen von 4.000 Kindern in der Umgebung an  Schilddrüsenkrebs, davon 9 Todesfälle, zusätzlich 4.000 geschätzte Todesfälle durch zusätzliche Fälle verschiedener Arten Krebs.

Wer bei Tschernobyl heute schon von 8.047 Toten redet, hat momentan folgende Bilanz:

Bilanz: 56 Tote, 7.991 Scheintote, denn zum Glück leben noch 3991 Kinder mit einer Erkrankung der Schilddrüse, und die übrigen Bürger mit dem erhöhten Risiko leben sicher mehrheitlich auch noch.

Fukuschima:   Strahlentote: Noch keine. Etwa 550 indirekte Tote durch Evakuierung. Mögliche spätere Strahlenerkrankungen 15- 1300, mögliche zusätzliche Krebsfälle 24 – 2.500.

Bilanz: keine Strahlentoten, 550 kollaterale Tote, 39 – 3.800 Scheintote.

Hier wird begrifflich gern etwas durcheinander gebracht, um Aufmerksamkeit zu erzielen. Einmal gibt es den monokausalen Tod, mit eindeutiger Ursache, Beispiel Verkehrsunfall, Absturz etc., bei dem man sagen muss „ erlag seinen schweren Verletzungen durch …“. Das sind die kleineren Zahlen.

Die großen Zahlen, die wir etwas medienkritisch als Scheintote bezeichnen, könnte man als Risikogruppe bezeichnen, das würde jeder sofort richtig verstehen. Die Vorwegnahme des Todes in den Medien kommt sicher bei den Betroffenen auch nicht gut an.

Wenn es sich um eine große Gruppe handelt, die einer Anzahl von verschiedenen Belastungen durch Umwelteinflüsse wie Gefahrstoffe, Lärm, Luft, Wasser, Radioaktivität, Stress etc. ausgesetzt ist, so lassen sich die genauen kausalen Zusammenhänge bei jeder einzelnen Person nicht mehr finden. Die Belastung lässt sich eventuell schwer von der ohnehin vorhandenen natürlichen Belastung trennen. Was man dann noch machen kann, ist es, die Statistik zu bemühen. In den meisten Ländern der Erde werden alle Todesursachen, die als nicht natürlich eingestuft werden, in Kategorien registriert.

Anhand von Statistiken kann man versuchen, die Teilwirkung von einzelnen Belastungen dadurch zu erfassen, dass man den Faktor zahlenmäßig erfasst, und die Anzahl von vorzeitigen Erkrankungen in den einzelnen Kategorien notiert.  Das ist schwierig, weil man oft die Teilwirkung anderer Faktoren nicht konstant halten kann, und Wechselwirkungen nicht ausschließen kann.  Die Übertragbarkeit von solchen Statistiken ist oft nicht gegeben. Dennoch ist natürlich eine Statistik besser als nichts, wenn sie zumindest die Tendenz richtig zeigt. Mit einer solchen Statistik kann man dann rechnen, und Prognosen abgeben.

Wenn man so etwas verwendet, muss man aber die Öffentlichkeit ins Bild setzen und einen klaren begrifflichen Unterschied zwischen den monokausalen Todesfällen wahren.  Ansonsten muß man es sich gefallen lassen, daß man genannt wird als jemand, der Scheintote in die Medien gesetzt hat.

Mit einem Artikel der Forscher Corbett, Winebrake, Eyring und anderen, in Folgenden die Autoren genannt, wurde ich zum ersten Mal aufmerksam auf die Methodik der Scheintoten. Ziel war die Begründung für die weitere Regulierung von Brennstoff in der Schifffahrt, die bei der IMO auf der Tagesordnung stand. Dazu wurde ein unangreifbarer Artikel gebraucht.

Die Schiffahrt vollbringt eigentlich transporttechnische Wunder: mit nur 3-4 % des Brennstoffverbrauches aller Transportsysteme der Welt erbringt sie etwa 90% der weltweiten Transportleistung. Daraus muss man, sofern möglich, schlußfolgern, dass die Schifffahrt ein sehr energie- und damit Ressourcen-  schonendes Transportsystem darstellt. Man sollte versuchen, noch viel mehr Transporte auf Schiffe zu verlegen.

Daß all das regelmäßig in politischen Sonntagsreden erwähnt wird, aber selten wirklich passiert, zeigt die Verlogenheit der Verkehrspolitik, und besonders der deutschen. Sie war und ist nicht auf Energieeffizienz ausgerichtet, sondern auf Verkaufsmaximierung. Mehr Verkehr, mehr Autos, mehr Kraftstoff, mehr Mineralölsteuer, mehr Maut. Dort wird das Geld verdient.

Da man dieses Dilemma nicht öffentlich erkannt haben will, und es auch nicht auflösen möchte, muss man die Bemühungen in eine andere Richtung lenken. Beim Straßenverkehr kann man weitere Verminderungen der Abgasemissionen nicht mehr erzielen, weil man dort schon bei einem relativ hohen Aufwand angekommen ist. Die beste Entlastung der Luft wäre die absolute Verminderung der Abgasmenge, indem man mit dem Transportgut auf Bahn und Schiff umsteigt, aber das ist politisch nicht wirklich gewollt.

Was sich inzwischen ganz von selbst entwickelt hat, ist die Benutzung von Schweröl als Brennstoff für Schiffsdieselmotoren. In den Raffinerien, die Erdöl bekommen und durch Trennung die saubere Ware für die Tankstellen herstellen, bleibt die weniger saubere Fraktion des Erdöles als sogenanntes Schweröl übrig. Es ist dickflüssiger als Benzin und Tankstellendiesel, und enthält auch unerwünschte Beimengungen. Es kann bei entsprechender Erwärmung und Reinigung auch in Dieselmotoren eingesetzt werden. Im letzten Viertel des 20. Jahrhunderts werden nach intensiver und teurer Entwicklungsarbeit aller Hersteller die Schiffsmaschinen schweröltauglich. Dabei wird das Schweröl allerdings an Bord nochmals aufwendig gereinigt, ehe es dem Motor zugeführt wird. Einziger Begleitstoff, der bei dieser Reinigung nicht entfernt werden kann, ist der Schwefel.

Somit entsteht eine recht vernünftige Arbeitsteilung: Die Flotte der Landfahrzeuge bekommt den saubersten möglichen Brennstoff, damit ihre Katalysatoren und sonstigen Filter funktionieren, während das Schweröl mit dem Schwefel auf hoher See zum Einsatz kommt. Vor der Benutzung an Bord wird das Schweröl aufgeheizt und gereinigt. Die abgetrennten Stoffe werden an Bord gesammelt und als Brennstoffschlamm wieder zur Entsorgung an Land verbracht. Abgase von Schwerölmotoren enthalten deshalb mehr Schwefeldioxid als Abgase von normalen Dieselfahrzeugen, je nachdem, wie hoch der Schwefelgehalt im Brennstoff ist.  Allerdings ist Schwefeldioxid nicht sehr langlebig. Es wird in feuchter Umgebung schnell gebunden und kann sich daher über dem Wasser  kaum konzentrieren.

Der große Unterschied im Schwefelgehalt, der bewusst aufgebaut wurde, um die Risiken an Land zu senken, fällt nun plötzlich ins Auge. Daraus wird nun von neuen Mitspielern eine ganz neue  Argumentationskette aufgebaut: Die hohen Forderungen für den möglichst niedrigen Schadstoffgehalt von Abgasen, die man bei Straßen- und Schienenfahrzeugen in Europa schon erzielt hat, muss nun nach deren Meinung auch die Schifffahrt erzielen. Zu diesem Zweck wird nun von unseren Autoren eine breite Aufregung über das „schmutzige und giftige Schweröl“ in allen Medien losgetreten. Die Schifffahrt selber stellt sich kaum öffentlich dar, aber die neuen Mitspieler, die in den Medien die Erklärung der Schifffahrt übernommen haben,  müssen scheinbar noch einiges dazu  lernen. In deren öffentlichen negativen Darstellungen zum Schweröl fehlt immer ein wichtiges System im Schwerölbetrieb: die Aufbereitungsanlage für Brennstoff an Bord.

Sie reden über einen Stoff, mit dem Schiffsmechaniker und Ingenieure bereits Jahrzehnte oft in direktem Hautkontakt stehen und damit umgehen müssen, weil sie auch diese Reinigungsanlagen für Brennstoff betreiben müssen. In der Brennstoffaufbereitung werden mit Filtern und Zentrifugen alle Begleitstoffe, die größere Partikel oder größere Dichten als Brennstoff haben, abgetrennt. Ansonsten wäre das Schweröl für den Betrieb unbrauchbar, weil eben zu schmutzig.

Die Forderungen nach sauberen Abgasen von Schiffen führten bereits dazu, dass den Anhang VI der MARPOL-Konvention ausgearbeitet wird. Er reguliert zwei Zusammenhänge:

  1. Die Entstehung von Stickoxiden zu begrenzen wird durch konstruktive Gestaltung des Motors und eine zusätzliche Bauteildokumentation realisiert,
  2. und der Schwefelgehalt der Abgase wird limitiert, indem der Schwefelgehalt im Brennstoff limitiert wird.

Die Emissionen beider Stoffe sind nicht langzeitstabil, Stickoxide und Schwefeloxide werden in der Luft innerhalb weniger Tage natürlich abgebaut. Es lohnt sich also eigentlich nicht, bei Schiffen einen hohen Aufwand zu treiben, nur um der Natur zuvorzukommen.

Dieser Sachverhalt wird nun von den neuen Mitspielern, zu denen unsere Autoren gehören,  ausgeblendet. Die Grundidee ist, wenn man die immerhin 3-4% vom Weltbrennstoffverbrauch rechnet, die Schiffe benötigen, so kann man mit einer Abgasbehandlung zumindest auf dem Papier einige tausend Tonnen Schadstoffe einsparen. Politisch ist das gut durchsetzbar, denn die IMO hat spezielle Mechanismen, um die Konventionen nachträglich zu verschärfen, die von den Vertretern der Nationen schon unterzeichnet sind. Dieser Mechanismus heißt „MARPOL ANNEX“, in unserem Fall ist es Nummer VI.

Die Tonnenideologie muss noch wissenschaftlich abgesichert werden. Dabei muss die Ferne der Schiffe vom Menschen möglichst wegdiskutiert, und der natürliche Abbau der Stoffe als möglichst geringfügig dargestellt werden. Nur so ist es zu verstehen, wenn man zur Einstimmung auf die wissenschaftliche Gratwanderung der  Autoren 2008 plötzlich solchen neuen Unfug liest wie: „Die meisten Schifffahrtsrouten befinden sich in Landnähe (!) Das kann man wirklich nur behaupten, wenn 400 km Nähe bedeuten…“

Auch darf man auf keinen Fall Luftmesswerte benutzen, denn sie stützen die These von der Wirkung von Schiffsabgasen an Land nicht. Beispiel Deutschland, die Luftqualität im Zentrum Hamburgs ist im Vergleich immer schlechter, als an der Elbe oder in Brunsbüttel neben der Schleuse. Wenn man Messwerte zur Kenntnis nehmen würde, müsste man merken, dass seit der Entschwefelung von Abgasen in Kohlekraftwerken das Schwefeldioxid in der Luft nur eine Tendenz kennt: nach unten. Es ist auf einem solchen historischen Tiefstand,  es dass es die ganze Limitierung von Schwefel im Brennstoff eigentlich lächerlich macht.

Hier muss ein neues Erklärungsmodell her, das die Schwefelgesetze und vielleicht auch das geplante Geschäft mit Umwelttechnik retten soll. Das Erklärungsmodell heißt jetzt „Partikel“ oder Feinstaub.

In einer Versuchsreihe mit einem Dieselmotor in Hamburg  im Labor des Germanischen Lloyd wurde versucht, Klarheit über die Zusammensetzung Partikeln in Abgasen von Motoren zu bringen. Es wurden verschiedene Sorten Brennstoff benutzt, Dieselöl und Schweröl, der Schwefelgehalt wurde systematisch erhöht, während die anderen Bestandteile annähernd gleich gehalten wurden. Die Partikel im Abgas wurden mit Filtern zurückgehalten und gewogen.  Wesentliche Partikel fallen in folgenden Gruppen an:  1. Ruß, 2. Schwefeldioxid oder Sulfat, 3. Wasser, 4. Teilverbrannter Brennstoff, 5. Asche.

Das Ergebnis war einfach: bei erhöhtem Schwefelgehalt im Brennstoff fand sich mehr Schwefeldioxid im Abgas, und mehr Wasser, Alle übrigen Anteile veränderten sich kaum. Man kann kaum etwas anderes erwarten, denn was in den Motor hineingeht, muss hinten wieder herauskommen.

Von den Partikeln, die sich im Abgas befinden, sind Ruß (Black Carbon = BC) und teilverbrannter Brennstoff (Particular Organic Matters = POM) die gefährlichen Sorten, da bekannt ist, daß sie Lungenkrebs erzeugen können. Schwefeldioxid und Sulfat gehört nicht zu den Krebserzeugern, es reizt die Luftwege bei größeren Konzentrationen. Der Rest ist eher unkritisch.

Damit kommt man zu zwei wichtigen Aussagen: bei Erhöhung des Schwefelgehaltes steigt die Gesamtmenge der Partikel im Abgas an, allerdings bleiben die Mengen der krebserzeugenden Partikel konstant. Diese, Ruß und teilverbrannter Brennstoff,  könnten durch eine optimale Verbrennung im Motor reduziert werden, aber nicht durch Begrenzung des Schwefelgehaltes. Diese nicht unwesentliche Tatsache wird konsequent verschleiert. Man geht scheinbar stillschweigend davon aus, dass eine Begrenzung des Schwefels im Brennstoff die Gesundheitslage verbessern könnte, weil insgesamt weniger Partikel entstehen.

Im Artikel unserer Autoren geht man nun großflächig und ganz gewissenhaft vor: man stellt ein Emissionsinventar auf, d. h. alle Schadstoffquellen der Welt werden modelliert, und die Schifffahrt auf ihren Routen auch. Dann wird die Ausbreitung der Partikel modelliert, indem man die Modelle der allgemeinen Zirkulation benutzt. Was ist das? Die allgemeine Zirkulation bildet die Windgürtel der Erde nach, und ist somit eine gute Annäherung für die geografische Verschiebung von Luftmassen, und damit auch der Partikel.

Zur Einschätzung der Schiffsemissionen ergeben sich mit dem Modell nun die Möglichkeiten, ihre alleinige Wirkung auf die Konzentration zu sehen, indem man die übrigen Emissionen wegläßt. Dabei stellt sich heraus, daß die höchsten erzielbaren Konzentrationen von Feinstaub mit Schiffen in der Nähe von Hauptschifffahrtslinien bei zwei Mikrogramm pro Kubikmeter Luft liegen. Die Erhöhung der an Land schon vorhandenen, meistens wesentlich höheren Konzentrationen (7-14 Mikrogramm ) kann man ebenfalls nachweisen, indem man an Land einmal ohne, und einmal mit den Schiffsemissionen rechnet. Die Ergebnisse zeigen, daß die Konzentrationen von Partikeln aus Schiffsemissionen die Konzentration an Land um 0.5 bis 1.5 Mikrogramm pro Kubikmeter Luft anheben kann.

Damit ist man nun in der Lage, flächendeckend die Wirkung der Schifffahrt nachzubilden. Um die Wirkung auf die Bevölkerung zu ermitteln, ordnen die Autoren nun die Bevölkerungszahlen den Wohnorten zu, und können somit errechnen, für wieviel Menschen es welche Erhöhung der Feinstaubwerte gibt.

Anhand von statistischen  Zusammenhängen zur Konzentration von Feinstaub, und den erwähnten Fällen von Lungenkrebs fühlt man sich nun in der Lage, eine weltüberspannende Prognose zu Erkrankungen mit und noch einmal ohne die Partikelanteile der Schifffahrt zu machen.

Methodisch ist das bis dahin ganz in Ordnung, und die Zahlen mögen für interne Abschätzungen brauchbar sein. Sie wurden aber umgehend publiziert, um Beschränkungen beim Schwefelgehalt durchzusetzen. Auf dem langen Weg bis zu diesem Ergebnis mussten die Autoren aber einige Schwachstellen der Zusammenhänge in Kauf nehmen:

Nach der Emission wurde der Feinstaub nur noch als Partikel abgebildet, nicht mehr in den einzelnen Fraktionen. Damit wurde automatisch dem Schwefeloxid gleiche Lebensdauer und  Wirkung zugeschrieben wie dem Rest der Partikel, was so nicht stimmt.  Damit ging der Sachzusammenhang der Wirkungen verloren, und Wirkung wurde mit Masse gleichgesetzt.

Der Zusammenhang der Sterblichkeit der Menschen abhängig vom Feinstaubgehalt der Luft ist  aus Statistiken der USA übernommen worden, ohne die Zusammensetzung des Feinstaubes dort und des Feinstaubes von Schiffen zu vergleichen.  Aus diesen Statistiken wurden die Herzerkrankungen und Lungenkrebs gemeinsam berücksichtigt, wobei der Zusammenhang der Herzerkrankungen mit Abgasen nicht nachgewiesen ist.

Schwellenwerte wurden nicht berücksichtigt. In Deutschland gelten für PM 10 als zulässig 50 Mikrogramm pro Kubikmeter, Jahresmittel 40, die werden nur in Städten mit starkem Autoverkehr besonders bei Inversionslagen erreicht. Die Hintergrundbelastung (7-14) und die Konzentrationen aus der Schiffahrt (+1.5) sind weit darunter.

Mechanismen der Ausfällung der Partikel aus der Luft wurden nicht modelliert. Der Fakt, dass Schwefeloxid schnell Wasser an sich bindet, und damit Kondensationskeime schafft, welche für schnelleres Abregnen sorgen, wurde nicht berücksichtigt.  Der Abbau des übrigen Feinstaubes erfolgt hauptsächlich durch Regen. Niederschläge haben die  Autoren nicht nachgebildet, jedenfalls wurde es nicht erwähnt.

Besonders hohe Konzentration von Feinstaub erfolgt über Land in trockenen Inversionswetterlagen. Auch zur Berücksichtigung solcher Spitzen und ihrer Wirkung finden wir keine Hinweise.

Daras folgt, dass die Bevölkerung, die mit Partikeln aus Schiffsabgasen in Berührung kommt, wahrscheinlich systematisch kleiner ist, als von den Autoren angegeben.

Die Differenz der beiden Szenarien, mit und ohne Schiffsemissionen,  sind die Zahlen, die hier als Tote in die Öffentlichkeit gelangt sind.  Das suggeriert, daß man für jeden Todesfall eine genaue Todesursache angeben kann. In Wirklichkeit ist die Sache aber komplexer, jeder Mensch stirbt an der Summe von verschiedenen Ursachen. Gerade die Ursachen von Krebs sind vielfältig und nur teilweise bekannt. Die Ergebnisse der Studie zeigen bei all ihren Schwächen mit Sicherheit richtige Tendenzen auf,  die Ergebnisse wären sogar akzeptabel,  wenn man sie nicht in der Presse als „Tote durch Schiffsabgase“ sondern als „Risikofaktor einer Prognose“ bezeichnen würde.

Wer einen Zeitungsartikel liest, und 20.000 Tote genannt bekommt, stellt sich einen Berg mit 20.000 Leichen vor, bei denen als unmittelbare Todesursache Rauchvergiftung oder Lungenkrebs, ausgelöst  durch Schiffsabgase, auf dem Totenschein steht.  Das ist Panikmache. In Wirklichkeit gibt es diese klare Zuordnung von Ursache und Wirkung so nicht. Es sterben weltweit jährlich weit mehr Menschen an Krebs, und jeder einzelne Fall davon wird ausgelöst durch eine Summe verschiedensten Ursachen. Die Berechnungen der Autoren drücken lediglich die Stärke einer Teilwirkung aus, die als Ursache in Frage kommt.  Den genauen Auslöser festzumachen, ist nur bei wenigen Krebsarten gelungen.

Aber die gravierendsten Fehler werden jetzt bei der Interpretation der Ergebnisse gemacht.

In einer zweiten Rechenschleife werden nun verschiedenen geplante Schwefelbeschränkungen berücksichtigt, und die gesamten Partikelmengen der Schiffe um die Schwefelanteile entsprechend verringert. Niemandem erinnert sich, dass nur Ruß (BC) und teilverbrannter Brennstoff (POM) die Krebsmacher sind, und daß diese durch Schwefelbeschränkungen nicht verringert werden.

Die Tonnenideologie führt zwangsweise zum gewünschten Ergebnis. Der Schwefel wird reduziert, die Feinstaub Konzentrationen sinken um minimale Beträge, die gleichen statistischen Kurven damit multipliziert ergeben geringere Wahrscheinlichkeiten von Erkrankungen, und diese geringen Unterschied, multipliziert mit einer viel zu großen Bevölkerung, ergibt schließlich beeindruckende Zahlen.

Der Beantwortung einer Grundfrage, die zur Wahrung des Überblicks dient und an den Anfang aller Betrachtungen gehört,  wird im gesamten Beitrag konsequent ausgewichen,

Die Grundfrage lautet:

Ist der Risikofaktor für die Gesundheit von Menschen durch Feinstaub aus Abgasen der Schifffahrt überproportional im Vergleich zu Ihrem Brennstoffverbrauch, oder nicht?

Ein „JA“  würde bedeuten, dass die Maßnahmen der Schifffahrt tatsächlich unzureichend wären.

Die Antwort ist gut versteckt,  aber wir haben die Puzzleteile gefunden, und zusammengesetzt.

Alle Todesfälle durch städtischen Feinstaub werden durch Corbett mit 800.000 pro Jahr, an anderer Stelle mit 737.000 pro Jahr angegeben. Die Zahl müsste  erhöht werden, um die ländlichen Fälle zu berücksichtigen, das tun wir aber nicht. Diese Daten sind älter, so dass wir einen Vergleich mit den Berechnungen der Inventare 1a und 1b von 2001 machen könnten. Dort sind nur Ruß (BC) und Organik (POM) und SO4 berücksichtigt, was unserer Auffassung von den Verursachern am nächsten kommt.  1 c ist zu hoch, da hier alle Partikel in Betracht gezogen werden. Der Mittelwert aus der Betrachtung 1a und 1b wäre in etwa realistisch, das ist (18.920 + 38.870) /2 = 57.790/2 = 28.895  Fälle.

Im Verhältnis zu den nach eigenen Angaben der Autoren  737.000 Personen starken Risikogruppe durch Feinstaub insgesamt weltweit wären das 3,92 % durch die Teilwirkung der Emissionen der Schifffahrt. Das ist fast genau der Anteil des Brennstoffes, den die Schifffahrt vom gesamten Brennstoffverbrauch des Transportes bekommt. Eine überproportionale Gefährdung durch Schweröl und Schwefel, wie gern herbeigeredet wird, ist also nicht erkennbar.

Somit muss die Einrichtung der Schwefelemissions-Kontrollgebiete als nahezu wirkungslos angesehen werden. Wirkungslos, was die Luftqualität betrifft. Eine andere Wirkung entfalten sie täglich. Durch das Umstellen von Brennstoffen kommt es gelegentlich zu Ausfällen von  Hilfs- und Hauptmaschinen, also zum Verlust des Antriebes oder zu Ausfällen der Stromversorgung an Bord. Die Betriebssicherheit von Schiffen ist zeitweise stark vermindert, das häuft sich an den Grenzen der Schwefelkontrollgebiete. Für solche Vorkommnisse gibt es noch keine Meldepflicht, denn sie war in der Vergangenheit nicht notwendig.  Reeder und Schiffsführungen werten das heute als eigenes Versagen, wenn Motoren den Temperaturschock oder unterschiedliche Brennstoffe nicht vertragen. Wenn möglich, werden solche Ereignisse noch vertuscht.

Das alles spielt den selbsternannten Schiffahrtsfachleuten noch in die Hände. Das wird sich aber ändern, denn auch Schiffspersonale und Schiffsbetreiber werden die neuen Spielregeln begreifen. Daß das Umstellen von Kraftstoff gefährlich ist, ist längst bekannt. Daß sich aus Motorausfällen gefährliche Situationen entwickeln können, ist auch nicht neu. Wenn man ab sofort eine Meldepflicht für solche Komplikationen einführen würde, würden die Neueingänge von Fällen sofort sprudeln. Daß diesen Risiken keine Vorteile beim Umweltschutz gegenüberstehen, wird man hoffentlich bald begreifen. Wenn nicht, wird die Sache durch das Produkt aus Risiko und Zeit gelöst, indem irgendwann der unvermeidliche erste Schiffsverlust eintritt, für den man als Ursache nennen muss: „Umweltschutz“.

Joachim Illge ist Schiffsingenieur und befuhr alle Weltmeere. Auf Kiribati gab er Kurse für zukünftige Kollegen.




Droht uns durch Klima­engineering eine neue Eiszeit?

NTV hatte am 12. Januar 2019 berichtet, Zitat:

Bisher waren Forschungen zum SRM, auch solares Geoengineering genannt, auf das Labor und Computersimulationen beschränkt. Doch dieses Jahr wollen Wissenschaftler erstmals den Schritt nach draußen wagen: Forscher der Harvard-Universität planen ein Experiment, bei dem kleine Partikel in einer hohen Luftschicht ausgebracht werden, wie das Magazin „Nature“ berichtete. Untersucht werden soll so die „Stratospheric Aerosol Injection“ (SAI), eine Variante des solaren Geoengineerings, bei der ein Partikelmantel einen Teil der Sonnenstrahlen ablenkt und die Sonne so verdunkelt wird. Das Projekt mit dem Namen Stratospheric Controlled Perturbation Experiment (SCoPEx) hat mit Bill Gates einen berühmten Förderer und könnte schon in der ersten Jahreshälfte starten. Ein Ballon soll bis in die Stratosphäre aufsteigen, in rund 20 Kilometern Höhe soll er dann Wolken kleiner Partikel aus Kalziumkarbonat, also Kalk, ausstoßen. Anschließend messen Sensoren an dem Ballon, wie sich diese ausbreiten.“

Als Förderer des SCoPEx-Projekts werden angegeben:

William and Flora Hewlett Foundation; The Open Philanthropy Project; Pritzker Innovation Fund; The Alfred P. Sloan Foundation; VoLo Foundation; The Weatherhead Center for International Affairs; G. Leonard Baker, Jr.; Alan Eustace; Ross Garon; Bill Gates; John Rapaport; Michael Smith; Bill Trenchard.”

Dem EIKE-Artikel „‚Klimaschutz‘: Riskantes Spiel mit dem Wetter“ vom 7. Februar 2021 war zu entnehmen, dass ein erster Praxistest im Rahmen des SCoPEx-Experiments offenbar bereits für Juni 2021 geplant gewesen sei. Aber aus diesem SCoPEx-Test wird nun offenbar vorerst nichts werden, wie die taz am 5. April 2021 unter dem Titel „Klimamanipulation abgeblasen“ gemeldet hatte, Zitat:

Ende letzter Woche gaben Harvard und SSC [staatliche schwedische Raumfahrtgesellschaft] bekannt, dass die Pläne auf Eis gelegt würden: Es gebe in der internationalen Wissenschaft einen Bedarf nach weiterer Diskussion zu diesem Thema, denn bislang gebe es ‚keinen Konsens, inwieweit ein solcher Versuch angemessen ist‘. Die SSC-Mitteilung führt eine weitere Begründung an, die eine Beteiligung Schwedens am Test auf absehbare Zeit unmöglich machen dürfte: ‚Es fehlen heute internationale Abkommen bezüglich der Forschung im Geoengineering-Sektor.‘“

Bevor man mit dem solaren Klimaantrieb unserer Erde herumspielt kann uns ja vielleicht die Aga-Kröte mal erzählen, was bei nicht bis zu Ende gedachten menschlichen Eingriffen in natürliche Abläufe so alles passieren kann.

Schauen wir uns nachfolgend also einmal genauer an, ob ein solcher Eingriff in die terrestrische Temperaturgenese mit oder ohne ein internationales Abkommen tatsächlich angemessen wäre

Kiehl & Trenberth lassen in ihrem konventionellen IPCC-Modell KT97 die Vektor-Richtung der solaren Einstrahlung [1] mit einem Skalar-Trick verschwinden und fokussieren ihren Tag=Nacht-Faktor4-Flacherdeansatz für die Solarkonstante „So/4“ auf die radiale Abstrahlung der Erde [3]. Die gesamte Ursachen-Wirkungs-Kette für die terrestrische Temperaturgenese lautet aber,

Aussage 1:

Solare HF-Einstrahlung@PIR² [1]=> Erwärmung von Materie@2PIR² [2]=> IR-Abstrahlung@4PIR² [3]

Der EIKE-ArtikelAnthropogener Treibhauseffekt: nach wie vor zu schwach für die Klimakatastrophe!“ von Dr. Roland Ullrich enthält die bekannte KT97-Darstellung mit einer atmosphärischen Gegenstrahlung von 333W/m². Dort wurde auch eine Gleichung für die globale Verteilung der Sonneneinstrahlung aufgestellt:

GLEICHUNG 1: So + Evap + Erad + Konv + X = 0 (Dr. Roland Ullrich)

Die in einem späteren Artikel von Dr. Ullrich nachgereichte „realistische Darstellung der Energiebilanz der Erde“ verschleiert durch Prozentangaben wiederum die zugehörigen spezifischen Leistungen:

Abbildung 1: „Realistische Darstellung der Energiebilanz der Erde“ – Quelle: Sekundärzitat aus „Oberflächenbilanz und Kirchhoff’sche Knotenpunktregel“ von Dr. R. Ullrich

Durch die Prozentangaben in Abbildung 1 wird aber auch noch die Betrachtungsperspektive (PIR² oder 2PIR² oder 4PIR²) verschleiert. Allein der Term „Von Ozeanen und Land absorbiert 51%“ entspräche bezüglich der Solarkonstanten (So=1.367W/m²) einer spezifischen Strahlungsleistung von 697W/m² mit einem rechnerischen S-B-Temperaturäquivalent von 60°C. Und für die „atmosphärische Gegenstrahlung“ taucht dort lediglich der aufsteigende IR-Term „Von der Atmosphäre absorbierte Wärmestrahlung 15%“ (entsprechend 205W/m² von So) auf, der jedoch nicht auf die Erdoberfläche zurückgeführt wird. Von daher bleibt dort der fiktive atmosphärische Antrieb für den sogenannten „natürlichen atmosphärischen Treibhauseffekt“ rechnerisch völlig im Dunklen. Und damit fehlt wiederum jede Erklärung, wie die Lücke von 155W/m² in der konventionellen Faktor4-Klimatheorie zwischen einer fehlerhaft abgeleiteten „natürlichen Gleichgewichtstemperatur“ unserer Erde von (-18°C) und der sogenannten „gemessenen globalen Durchschnittstemperatur“ (NST) von ca. (15°C) geschlossen werden sollte.

Die Vektorrichtung der parallelen solaren HF-Einstrahlung kann nämlich nur über die Erwärmung von Materie in eine radiale terrestrische IR-Abstrahlungsrichtung transformiert werden. Denn Photonen wandeln sich nun mal nicht freiwillig von kurzwelliger HF-Strahlung (solar=niedrige Entropie) zu langwelliger IR-Strahlung (terrestrisch=hohe Entropie) um; dazu bedarf es vielmehr in einem Zwischenschritt der Erwärmung von Materie (Aussage1: [2]), und das ist nur auf der Tagseite der Erde möglich. Dazu passt auch die Aussage von Prof. Dr. Heinz Fortak aus seinem Buch Meteorologie von 1971, Sekundärzitat aus einer Email vom 21.05.2021 um 21:08 Uhr an einen reduzierten Skeptiker-Email-Verteiler mit Dank an Dr. Gerhard Kramm:

Der Strahlungsanteil in Hoehe von 3.52 kWh/(m2 d) (42 %), welcher das System Erde – Atmosphaere effektiv erwaermt, besteht aus der kurzwelligen Strahlungsabsorption in der Atmosphaere und am Erdboden (17 % + 47 % = 64 %) abzueglich des Energiebetrages, der zur Verdunstung des Wassers benoetigt wurde. Der „Kreislauf“ der langwelligen Strahlung zwischen Erdoberflaeche und Atmosphaere traegt nicht zur Erwaermung des Systems bei. Die effektive langwellige Ausstrahlung nach oben von 64 % dient zur Aufrechterhaltung des Strahlungsgleichgewichts an der Obergrenze der Atmosphaere.“

Damit können wir für einen (IN=OUT)-Gleichgewichtszustand feststellen,

Aussage 2:

(Solare HF-Einstrahlung [1] @2PIR² [2] = terrestrische IR-Abstrahlung @4PIR² [3]) @ NST=CONST

Und wenn wir in Ermangelung von Alternativen mit Durchschnittswerten argumentieren, führt die Gleichsetzung NST=Tphys zu

Aussage 3:

Hinweis zur Temperatur auf der Nachtseite: Die Umgebungsgleichung des S-B-Gesetzes stellt die Ausgangssituation für meine Betrachtung der Nachtseite unserer Erde dar. Dadurch werden die Temperaturverhältnisse und die daraus abzuleitenden Flussrichtungen der Energie von warm zu kalt eindeutig definiert, aber der physikalische Ausgleichsmechanismus kann und wird selbstverständlich alle Arten des Energietransportes umfassen, wie ich das in der Vergangenheit bereits mehrfach ausgeführt hatte (beispielsweise hier: Land-Seewind-System und hier: 6. ERKENNTNIS).

Kommen wir jetzt noch einmal zu dem Modell KT97 von Kiehl & Trenberth zurück. Es ist klar hervorzuheben, dass der Ausdruck „S0“ in der Wissenschaft eindeutig für die Solarkonstante von 1.367 W/m² steht; das Faktor-4-Derivat von Kiehl & Trenberth leitet sich dagegen aus (S0/4) her. Und schließlich wäre hier von den KT97-Anhängern noch zu klären, wie ein IR-Spektrum von bis zu 120°C (@ S0) auf der Tagseite unserer Erde (generell S0 (1-ALBEDO)*COS(Zenitwinkel)) mit dem ominösen „Faktor4“ gemittelt wird, um so 4x das IR-Spektrum von -18°C (@235W/m²) zu erzeugen; insbesondere, wo dabei die höheren, ausschließlich auf der Tagseite erzeugten IR-Frequenzen abbleiben sollen (hier in Abbildung 6 dargestellt). Auf der anderen Seite kann Energie nicht einfach so verschwinden. In der Gleichung 1 sind aber Kondensation („Kond“) und Advektion („Adve“) nicht enthalten, es sei denn implizit in „Evap“ und „Konv“, was diese Terme dann allerdings mit („Evap“=„Evap“-„Kond“) und („Konv“=„Konv“-„Adve“) selbst auf „0“ bringen würde. Klarer wird vielleicht eine hemisphärische Betrachtung:

Es ergibt sich daraus die nachfolgend in Tabelle 1 dargestellte Situation:

 

Der Bodenwärmefluss sowie der Term „X“ aus Gleichung 1 sind hier nicht aufgeführt. Setzen wir einmal anstelle von Term „X“ einen Albedo-Antrieb ein:

Tabelle 1: Die Temperaturgenese auf unserer Erde [1]=>[2]=>[3] wird durch die ozeanischen Wärmespeicher mit einer Mitteltemperatur von etwa 15°C gestützt.

Die orbitalen Milanković-Zyklen stellen die einzige bekannte unabhängige Zeitreihe dar, die mit ihrem Frequenzspektrum die Schwankungen der paläoklimatischen Temperaturproxys für die letzten 420.000 Jahre in etwa abbilden können. Die Albedo unserer Erde ist dagegen die einzige bekannte Variable, die über eine Beeinflussung des reflektierten Anteils der Sonnenstrahlung die dafür notwendigen Schwankungen des solaren Klimaantriebs verursachen kann. Der Antrieb „X“ kann daher als +/-DELTA ALBEDO durch ein Albedo-Forcing beschrieben werden:

Gleichung 3: (S0 – S0*ALBEDO +/- S0*DELTA ALBEDO)@PIR² = (Merw + Evap + Konv)@2PIR²

Die linke Seite der Gleichung 3 bestimmt also, welche spezifische solare Strahlungsleistung überhaupt für die terrestrische Temperaturgenese zur Verfügung steht, und zwar zwischen einer Albedo von „0“=Schwarzkörper und „1“=Diskokugel, respektive 1.367W/m² und 0W/m². Manchmal wird die Zeit (t) ebenfalls eingebunden, aber das würde insofern zu Komplikationen führen, weil die Verweildauer von Wärme in den globalen Strömungssystemen von Atmosphäre und Ozeanen sehr unterschiedlich ist. Verstehen wir die Gleichungen 2 und 3 also eher als Ergebnis einer langjährigen Durchschnittsbetrachtung. An einer Weltformel für die Temperatur hatte ich mich hier einmal versucht, und hier an einem natürlichen Klimamechanismus.

Und jetzt schauen wir einmal genauer auf unser Eiszeitalter:

Wir leben gegenwärtig in einem Interglazial der gegenwärtigen Eiszeit, also irgendwo zwischen der letzten Kaltzeit und der nächsten, wie die nachfolgende Abbildung mit den Temperaturproxys der antarktischen Vostok-Bohrung zeigt:

Abbildung 2: Isochrone Interpolation der Temperaturproxys aus den Vostok-Daten [1]
In den vergangenen 420.000 Jahren beschränkten sich die sogenannten Warmzeiten oder Interglaziale auf Zeiträume von jeweils 10.000 bis 15.000 Jahren. Unser aktuelles Interglazial besteht nun bereits seit etwa 12.000 Jahren, hat also voraussichtlich noch zwischen 0 und 3.000 Jahre Bestand. Und dann wird es wieder für etwa 100.000 Jahre lang ziemlich kalt, mit Gletschern im norddeutschen Tiefland und allem was so dazu gehört. Damit sollte uns aber auch die Frage interessieren, was genau den Wechsel von einer Warmzeit zu einer Kaltzeit hervorruft.

Köppen und Wegener machen in ihrem Werk „Die Klimate der geologischen Vorzeit“ (Bornträger 1924, Nachdruck bei Schweizerbart) die sommerliche Sonneneinstrahlung in höheren geographischen Breiten für den Wechsel von Warm- und Kaltzeiten verantwortlich.

Abbildung 3: Rekonstruktion der Sonnenstrahlung des Sommerhalbjahres in höheren Breiten im Quartär seit 650.000 Jahren, aus Köppen & Wegener (1924), Graphik von M. Milanković, gemeinfrei aus Wikipedia

Nach Köppen und Wegener kommt es bei einer Kaltzeit nämlich gar nicht darauf an, wie extrem kalt es im Winter wird, sondern wie viel Schnee und Eis über den Sommer liegen bleibt. Das gilt insbesondere für die polaren Regionen in den höheren geographischen Breiten, wo durch eine solche Erhöhung der sommerlichen Albedo dann weitere Sonneneinstrahlung reflektiert wird, sodass dadurch keine Materie mehr erwärmt werden kann und folglich die Temperaturen sinken.

Die dänischen Forschungseinrichtungen für die Arktis präsentieren auf ihrem Polar Portal die Daten über den Zustand zweier Hauptkomponenten der Arktis, der grönländischen Eisdecke und des Meereises. Die nachfolgende Abbildung von diesem Portal zeigt, wie die Oberfläche des grönländischen Eisschildes täglich an Masse gewinnt und verliert, also die Oberflächenmassenbilanz. Die Massenverluste durch Abkalben von Gletschern sind dort nicht enthalten.

Abbildung 4: Oberflächenmassenbilanz der aktuellen Saison für das Grönländische Eisschild gemessen in Gigatonnen (1 Gt entspricht 1 Milliarde Tonnen und entspricht 1 Kubikkilometer Wasser). Die dunkelgraue Kurve zeichnet den Mittelwert aus dem Zeitraum 1981-2010. Quelle: Dänisches Polar Portal

Das hellgraue Band in Abbildung 4 zeigt die jährlichen Masseunterschiede von Jahr zu Jahr für den Zeitraum 1981-2010, wobei die niedrigsten und höchsten Werte für jeden Tag weggelassen worden sind. Wir können deutlich erkennen, dass der Masseverlust des Grönländischen Eisschildes erst Anfang Juni beginnt und bereits in der 2. Augusthälfte endet, also auf etwa drei Monate im Jahr beschränkt ist und im Maximum auf den Juli fällt. Wenn sich dieser kurze Zeitraum der Schmelze in den höheren geographischen Breiten noch weiter einschränken würde, bliebe dort dann von Jahr zu Jahr etwas mehr Schnee und Eis liegen und es würde immer mehr Sonnenstrahlung reflektiert und trüge nicht mehr zur terrestrischen Temperaturgenese bei. Wir erinnern uns an den Unterschied zwischen der spezifischen Strahlungsleistung und der übertragenen Wärmemenge:

Abbildung 5: Zum Unterschied zwischen Leistung und Arbeit der solaren Einstrahlung. Links: Gemittelte 24h-tagesdurchschnittlich zurückgerechnete Strahlungsleistung der Sonne in Abhängigkeit von der Jahreszeit und der geographischen Breite über ein Jahr (Abbildung 22 b aus Kramm et al. (2017): … (b) solar radiation reaching the Earth’s surface; … as predicted for one year starting with TDB=2,455,197.5 (January 1, 2010, 00:00 UT1) – Creative Commons License CC BY 4.0)´. Rechts: Die maximale spezifische solare (Strahlungs-)LEISTUNG (~S-B-Temperaturäquivalent) und die maximale solare ARBEIT (Arbeit=Leistung x Zeit über die örtliche Tageslänge) im jeweiligen Sommerhalbjahr auf der Nord- und Südhalbkugel (nicht flächengetreu – weitere Erläuterungen sind hier zu finden)

In den höheren geographischen Breiten ist also die solare Arbeit im Sommerhalbjahr sogar noch größer als in den Tropen, die maximal mögliche S-B-Gleichgewichtstemperatur folgt allerdings immer dem höchsten Sonnenstand zwischen den beiden tropischen Wendekreisen des Krebses und des Steinbocks, wobei diese Temperatur aufgrund von Konvektion und Verdunstung nirgendwo erreicht wird. Einen möglichen Wirkmechanismus für ein natürliches Klimaforcing hatte ich hier auf KS beschrieben.

Es gibt auf unserer Erde keine Energiequelle, die den Wechsel zwischen Kalt- und Warmzeiten verursachen kann. Die orbitalen Milanković-Zyklen stellen die einzige bekannte unabhängige Zeitreihe dar, die mit ihrem Frequenzspektrum die Schwankungen der paläoklimatischen Temperaturproxys für die letzten 420.000 Jahre in etwa abbilden können. Aber selbst die Schwankung der solaren Einstrahlung innerhalb dieser Zyklen reicht vom Betrag her als Erklärung für den Wechsel von klimatischen Kalt- und Warmzeiten nicht aus. Die Albedo unserer Erde ist die einzige bekannte Variable, die über eine Beeinflussung des reflektierten Anteils der Sonnenstrahlung die dafür notwendigen Schwankungen des solaren Klimaantriebs verursachen kann, und zwar, ganz generell nach Gleichung (3) betrachtet, zwischen den Extrema einer Albedo von „0“=Schwarzkörper und „1“=Diskokugel, entsprechend einer temperaturwirksamen spezifischen solaren Strahlungsleistung von 1.367W/m² respektive 0W/m².

Die Klimasensitivität der Sonnenstrahlung

Den „Antrieb X“ aus Gleichung (1), Zitat:Man sieht in der Tabelle, dass der Antrieb X um ca. 7 Watt/m2 wächst für jeweils 1 Grad Temperaturerhöhung“, hatte ich nicht übernommen. Stattdessen hatte ich in Gleichung (3) den variablen Term (+/- S0*DELTA ALBEDO) mit der Erd-Albedo eingeführt. Wie ich hier auf KS bereits einmal ausführlich dargestellt hatte, können die Schwankungen des natürlichen Paläo-Klimaantriebs als (+/-DELTA ALBEDO) durch ein Albedo-Forcing beschrieben werden, und zwar mit 13,67 [W/m²] pro Prozent Albedo und 9 [W/m²] pro Kelvin:

Douglas und Clader [2] geben die Klimasensitivität k der Sonneneinstrahlung aus eigenen Versuchen zu

Gleichung 4: Delta T/Delta F = k = 0,11 +/- 0,02  [°Celsius / Wm2]  an.

Damit ergibt sich für die Vostok-Temperaturproxys von 5,44°C bis 18,06°C um die sogenannte globale Durchschnittstemperatur (NST) von 14,8°C eine Schwankungsbreite der spezifischen solaren Strahlungsleistung von:

Gleichung 5: DELTA FV@NST = +29,36 [W/m²] und -85,36 [W/m²]

Dieser Betrag stimmt in etwa mit den Berechnungen von Lascar et al. [3] überein, die für 65°N / 120°E eine Schwankung der Sonneneinstrahlung von bis zu +/- 50 [W/m²] über orbitale Zyklen angeben. Aus der Solarkonstanten von 1.367 [W/m²] und der Albedo von Douglas und Clader [1] mit a = 0,3016 ergibt sich eine reflektierte/refraktierte Energiemenge von 412,29 [W/m²], die nicht zur Klimaentwicklung beiträgt. Daraus wiederum lässt sich ein Beitrag von 13,67 [W/m²] pro Prozent Albedo ermitteln und, umgerechnet auf die Extremwerte der absoluten Vostok-Temperaturproxys, eine Schwankungsbreite für die Albedo der Erde von:

Gleichung 6: F@amin =  412,29  – 29,36  [W/m²]  =   382,93 [W/m²]  mit dem Albedo  amin0,2801

Gleichung 7: F@amax =  412,29  + 85,36  [W/m²]  =  497,65 [W/m²]  mit dem  Albedo  amax = 0,3640

In der nachfolgenden Abbildung sind die Vostok-Temperaturproxys in Albedoschwankungen umgerechnet worden, und zwar beginnend mit einer Albedo von 0,3016 für die aktuelle „gemessene“ globale Durchschnittstemperatur (NST) von 14,8° Celsius:

Abbildung 6: Die Varianz der Erdalbedo über die Warm- und Kaltzeiten abgeleitet aus den Vostok Temperaturproxys [1]
Übrigens: Kaltzeiten dürften jeweils in einem Zeitabschnitt beginnen, in dem die Nordsommer auf das Abhel der elliptischen Erdbahn fallen, weil dort die Sommersonne schwächer ist als im Perihel; und genau in diesem Abhel befinden wir uns gerade. Und wenn Sie jetzt die Abbildung 6 auf Sich wirken lassen, würden Sie da auf die Idee kommen, die Albedo unserer Erde künstlich zu erhöhen?

Die Menschheit hat mit der Albedo unserer Erde möglicherweise erstmals einen echten „Kipp-Punkt“ für unser globales Klima zu fassen bekommen. Und im heiligen Klimawahn sollten wir jetzt nicht wie unwissende Kinder an dieser Stellschraube herumpfuschen und das Klimaparadies unserer Warmzeit zerstören.

Aber eine Stimme aus dem Off sagte, „Beruhige Dich, denn es könnte schlimmer kommen…“

Und natürlich kommt es noch schlimmer. In einem EIKE-Artikel erklärt Professor Valentina Zharkova, wie sich aus dem zyklischen Wechsel des Solardynamos zwischen einem poloidalem und einem toroidalem Magnetfeld durch deren Interferenz eine Schwebungsfunktion ergibt. Diese Schwebung verursacht Schwankungen der Gesamtabstrahlung unserer Sonne (Total Solar Irradiance =TSI), die wiederum zu Großen Solarzyklen von 350-400 Jahren führen sollen, wie die nachstehende Abbildung zeigt:

Abbildung 7: Rekonstruierte Kurve der Sonnenaktivität für 1200-3300 n. Chr. (aus einer Zusammenfassung auf EIKE, Daten von Zharkova et al. (2020).

Und das ist immer noch nicht alles. V.M. Velasco Herrera, W. Soon und D.R. Legates haben gerade einen neuen Artikel mit dem Titel, “Does Machine Learning reconstruct missing sunspots and forecast a new solar minimum?” veröffentlicht. In der Presseerklärung heißt es dazu u.a., Google-übersetztes Zitat:

Die drei Wissenschaftler haben einem Algorithmus für maschinelles Lernen beigebracht, wie man zugrunde liegende Muster und Zyklen in den Sonnenflecken der letzten 320 Jahre erkennt. Der Algorithmus entdeckte dann eine bisher unbemerkte Wechselwirkung zwischen den 5,5-jährigen Sonnenhalbzyklen (blau) und den 120-jährigen Gleissberg-Doppelzyklen […], die es ihm ermöglichte, die früheren Vorhersagen eines ruhigen halben Jahrhunderts zu bestätigen – Vorhersagen, die jetzt von Sonnenphysikern geteilt werden.“

Die nachfolgende Abbildung zeigt eines der Ergebnisse von Velasco Herrera et al.:

Abbildung 8: “The Sun may be quiet for half a century” aus der Presseerklärung von Velasco Herrera et al. (2021)

Auch nach diesen Ergebnissen einer KI-Signalanalyse der Sonnenflecken steht uns offenbar ein solares Minimum bevor. Und sogar die NASA rechnet für die kommenden Jahre mit einem neuen solaren Minimum, Zitat aus einem EIKE-Artikel:

Die neue Untersuchung wurde von Irina Kitiashvili geleitet, einer Forscherin des Bay Area Environmental Research Institute am Ames Research Center der NASA im kalifornischen Silicon Valley. Sie kombinierte Beobachtungen von zwei NASA-Weltraummissionen – dem Solar and Heliospheric Observatory und dem Solar Dynamics Observatory – mit Daten, die seit 1976 vom bodengestützten National Solar Observatory gesammelt wurden.“

Abbildung 9: Die Vorhersage der NASA für den Sonnenzyklus 25 zeigt, dass er der schwächste der letzten 200 Jahre sein wird. (Abbildung aus einem EIKE-Artikel)

Man macht sich also grundsätzliche Gedanken über eine Verminderung der Globaltemperatur durch eine künstliche geotechnische Verringerung der solaren Einstrahlung, und zwar ausgerechnet zu einem Zeitpunkt, wo

  • das gegenwärtige Interglazial in seinem letzten Drittel steht,
  • die Nordsommer auf das Aphel der elliptischen Erdbahn mit den größten Sonnenabstand fallen
  • und für die nächsten Jahrzehnte durch mehrere unabhängige Forschungsergebnisse ein solares Minimum vorausgesagt wird.

Das Orakel von Delphi würde uns an dieser Stelle vielleicht weissagen, dass wir den befürchteten menschengemachten Hitzekollaps unserer Erde sicher vermeiden werden, wenn wir es durch Klimaengineering schaffen sollten, dass im Sommer der höheren geographischen Breiten in aufeinander folgenden Jahren zunehmend mehr und mehr Schnee und Eis liegen bleiben. Allerdings war das Orakel von Delphi auch immer so höflich, sich über die Konsequenzen eines vermeintlichen Erfolges auszuschweigen…

Referenzen

[1] Vostok ice-core data [NOAA]: Petit, J.R., et al., 2001, Vostok Ice Core Data for 420,000 Years. IGBP PAGES/World Data Center for Paleoclimatology Data Contribution Series #2001-076. NOAA/NGDC Paleoclimatology Program, Boulder CO

[2] Douglas and Clader (2002): Climate sensitivity of the Earth to solar irradiance. GEOPHYSICAL RESEARCH LETTERS, VOL. 29, NO. 16, 10.1029/2002GL015345, 2002

[3] Laskar et al.:  Orbital, precessional, and insolation from -20Myr to +10Myr. Astronomy & Astrophysics 270, 522-533 (1993) – Figure 5




Die Klimaschau von Sebastian Lüning: Wie neutral ist das Bundesverfassungsgericht? Klimaschutz-Urteil 2021




Die Klimabewegung ist eine Religion*

Sein Buch «Apocalypse Never – why environmental Alarmism hurts us all» brachte im vergangenen Sommer eine kühle Brise in die aufgeheizte Klimadebatte, kühle Vernunft. Der amerikanische Wissenschaftspublizist Michael Shellenberger zeigt in seiner Analyse, die mittlerweile in siebzehn Sprachen vorliegt, anhand Dutzender von Beispielen, warum die Weltuntergangs-Warnungen der Klima-Aktivisten falsch sind, ja schädlich für Wirtschaft, Gesellschaft und Umwelt. Im Gespräch hier räumt er auf mit den überrissenen Erwartungen an erneuerbare Energien wie Wind und Solar. Der 49-jährige Shellenberger zählt zu den renommiertesten Wissenschaftsautoren und ist auch in der Politikberatung in mehreren Ländern engagiert.

Weltwoche: Herr  Shellenberger, die USA kehren unter der Regierung Biden zurück zum Pariser Abkommen und versprechen, den Ausstoss ihrer Treibhausgase gemäss den Pariser Zielen zu reduzieren. Welchen Effekt erwarten Sie? Ist das gut für die Welt?

Michael Shellenberger: Der Effekt ist gleich null.  In den USA sind die CO2-Emissionen seit dem Jahr 2000 stärker  zurückgegangen als in jedem anderen Land der Welt. Verglichen mit 2005, beträgt der Rückgang jetzt 22 Prozent, das Pariser Ziel für die USA lag bei 17 Prozent. Es wurde also weit übertroffen. Und zwar aus Gründen, die nichts zu tun haben mit dem Pariser Abkommen.

Weltwoche: Aus welchen Gründen?

Shellenberger: Fracking und  Erdgas  sind entscheidende Stichworte. Erdgas verursacht etwa halb so viel CO2-Emissionen wie Kohle, und so bringt die seit längerem laufende Verlagerung weg von Kohle, hin zu Gas eine erhebliche Entlastung. Unter Trump erfolgte die Verlagerung ebenso schnell wie unter Obama, die Emissionen sanken sogar beschleunigt.

Weltwoche: Und was ist nun die Wirkung des Pariser Vertrags?

Shellenberger: Das Pariser Abkommen ist reine Public Relations.  Und mehr als das wird es auch nie sein, ein Beschäftigungs-Programm für Diplomaten.

Weltwoche: Dann sind die Bemühungen zur Stärkung des Pariser Prozesses auch für die ganze Welt eine reine  Zeitverschwendung?

Shellenberger: In gewisser Hinsicht ist es sogar schlimmer, weil dies der Idee Vorschub  leistet, es sei vor allem Sache der Bürokraten, über Energieangebote, -nutzung und Güterproduktion in den jeweiligen Ländern zu entscheiden.

Weltwoche: Aber der Staat hat bezüglich Umweltschutz und Energieverwendung doch bestimmte Aufgaben, oder nicht?

Shellenberger: Die weitaus wichtigste Grösse mit Blick auf die Energie ist deren Preis, denn dieser bestimmt das Wirtschaftswachstum. Umweltqualität wird verbessert durch effizientere Kraftwerke, Anlagen und Fahrzeuge, nicht durch Ankündigungen an Uno-Konferenzen.  Die Politik kann durchaus einen günstigen Einfluss ausüben. Die  US-Regierung etwa förderte die Fracking-Revolution, was zu billigem Erdgas und dadurch zu einem Ersatz der Kohleverbrennung sowie drastisch sinkenden CO2-Emissionen führte.

Weltwoche: Die Europäer sind aber nicht auf dieser Schiene.

Shellenberger: Nein, sie stehen zurzeit vor der  Frage ,  ob sie Erdgas  sowie    erneuerbare Energien  wie Solar und  Wind ausbauen oder  ob sie die Kernenergie stärken sollen.

Weltwoche: Für Kernenergie sieht es in Deutschland und der Schweiz schlecht aus.

Shellenberger: Da hat die Politik sie verbannt, aber in den Niederlanden, in Grossbritannien oder Frankreich laufen Debatten zu deren Ausbau. Ein Vergleich von Deutschland mit Frankreich ist höchst interessant: Pro Elektrizitätseinheit stösst Frankreich nur einen Zehntel der CO2-Emissionen von Deutschland aus, und der französische Strompreis ist halb so hoch. Deutschland hat zusätzlich Schwierigkeiten mit Solar und Wind. Windräder stossen auf viel lokalen Widerstand, und jüngste Meldungen über Zwangsarbeit in China weckten politischen Widerstand gegen den Import von Solarpanels.

Weltwoche: Gerade in Europa besteht aber der Eindruck, dass der ganze Uno-Apparat mit Klimaabkommen, Konferenzen, Weltklimarat und Klimaforschung doch eine Energiewende bewirkt.

Shellenberger: Er bringt PR, die den Druck erhöht, Kernkraftwerke abzuschalten, die wetterabhängigen erneuerbaren  Energieformen  auszubauen und den armen Ländern moderne Nahrungsmittelproduktion und Energiesysteme vorzuenthalten. Das sind die Auswirkungen auf die Welt.

Weltwoche: Es gibt also Gewinner und Verlierer. Wer sind die Gewinner?

Shellenberger: Gewinner sind die Chinesen, die  Solarpanels  produzieren, Schattenbanken wie Blackrock, die das finanzieren, sodann globale  Eliten, die ihr Statusbewusstsein und Überlegenheitsgefühl pflegen, und auch  junge Leute, die sich gegen Eltern, Institutionen und Vorgesetzte auflehnen.

Weltwoche: Und die Verlierer?

Shellenberger: Länder  aus Subsahara-Afrika, weil man sie daran hindert, moderne Energie- und  Ernährungssysteme zu erstellen. In geringerem Ausmass auch Südamerika und  Südasien. Die  Klimadebatte  schadet vor allem schwächeren Leuten und schwächeren Ländern.

Weltwoche: Wehren sich die Verlierer nicht?

Shellenberger: Es gibt Widerstand in unterschiedlichen Formen. Indien etwa setzt weiterhin stark auf Kohle und stellt daneben einfach ein paar Solarpanels auf, um europäische Diplomaten zufriedenzustellen und auch um der Jugend in Entwicklungsländern  das Gefühl zu geben, sie sei Teil der globalen Elite. Entwicklungsländern wäre mit Industrialisierung und verbesserter Organisation viel besser gedient, um der Armut zu entkommen und die Wälder zu schützen.

Weltwoche: Wann kam die ganze Umwelt- und Klimabewegung eigentlich in Gang? Der Erdgipfel in Rio 1992 war ein  Kick – aber woher kam dann die Dynamik?

Shellenberger: Nach meiner Einschätzung hat diese ganze apokalyptische  Klimadiskussion  so richtig an Bedeutung gewonnen, als die apokalyptische Nuklearwaffen-Diskussion auslief. Am Ende des Kalten Krieges fand eine Art Ablösung statt. Bereits die Nuklearwaffendebatte war ihrerseits ein Ersatz für frühere Apokalypsevorstellungen, damals zu Faschismus und Kommunismus. Hinzu kam, dass in den frühen neunziger Jahren auch die Angst vor  Überbevölkerung verblasste und Mainstream-Denker sich dem Klima zuwandten.

Weltwoche: Soll man denn überhaupt etwas unternehmen gegen die Erderwärmung?

Shellenberger: Ja, man muss immer versuchen, von technologisch schlechteren zu fortschrittlicheren Energieträgern zu gelangen: von Holz zu Kohle  und Wasserkraft, von da zu Erdgas  und schliesslich zu Kernenergie. Kernenergie und Erdgas haben grosse Vorteile punkto Verlässlichkeit und Umweltqualität, weit über die Klima-Aspekte hinaus.

Weltwoche: Was ist denn langfristig der erstrebenswerte Energiemix?

Shellenberger: Ich glaube, am  Schluss dieser Energietransformationen  werden wir praktisch zu hundert Prozent Kernkraft haben.  Mit jedem Schritt wird die Wirtschaft weniger Carbon-intensiv: von Kohle zu Erdgas zur Wasserstoffwirtschaft, getrieben durch Nuklearenergie.

Weltwoche: Findet die Kernenergie denn genug politische Unterstützung?

Shellenberger: Ich glaube, es wird eine Weile brauchen.  Das war auch bei Kohle der Fall. Nach der ersten Dampfmaschine  im frühen 18. Jahrhundert  dauerte es fast siebzig Jahre, bis James Watt mit seiner moderneren Dampfmaschine kam. Die Nukleartechnologie ist jetzt 75 Jahre alt, die Nutzung als Energiequelle knapp  sechzig Jahre. Kernenergie ist eine sehr anspruchsvolle Technologie, da ihr primärer Zweck ja die Waffe war.  Deshalb hat sie sich als Energiequelle vor allem über jene Länder verbreitet,  die auch die Atomwaffe besitzen. Dass Frankreich über so viel Kernkraft verfügt, hängt mit seiner Rolle als Atommacht zusammen.  Grossbritannien kann aus dem gleichen Grund ebenfalls gut mit Kernenergie umgehen. In Westeuropa sonst ist dagegen die Angst  davor grösser. Aber ich glaube, diese nimmt mit der Zeit ab.

Weltwoche: Sehen Sie auch bei den modernen Reaktortypen einen Zusammenhang zwischen Atommacht und Energienutzung?

Shellenberger: Das sehe ich so. Die verbindende Beziehung ist der Prozess der Kernspaltung, der zu beherrschen ist.

Weltwoche: Und ist diese Technologie wirklich zuverlässig genug kontrollierbar?

Shellenberger: Bis heute ist das ziemlich gut gelungen. Kernenergie breitet sich nur langsam von Land zu Land aus. Das ist gut so, denn jedes  Mal,  wenn ein neues Land dazukommt, ergeben sich Risiken, die am Anfang am grössten sind. Der gefährlichste Zeitpunkt für Nordkorea war vor einigen Jahren. In der Kernenergieproduktion gab es einzelne Unfälle wie Tschernobyl oder Fukushima, aber diese machten die Branche besser, weniger anfällig.

Weltwoche: Die Hauptkräfte der Umwelt- und Klimapolitik sehen das aber nicht als Lösung. Sie wollen eine radikale Umkehr im Energiekonsum und eine vollständige Abkehr von fossiler Energie bis 2050 oder früher, eine Art Vollbremsung. Sie sagen, die Wissenschaft zeige klar, dass man sofort handeln müsse, sonst sei es zu spät, und das Klimasystem kippe. Es herrscht eine Alarmstimmung, die selbst lokale Parlamente dazu bringt, den Klimanotstand auszurufen.

Shellenberger: Da wird vieles miteinander vermischt. Meiner Ansicht nach ist die  Wissenschaft zum Klimawandel gut fundiert. Sie  besagt,  dass die Erde wärmer wird und dass menschengemachte Emissionen Erwärmung bewirken. Ich finde es  gut,  dass es  Meinungsunterschiede zur Frage gibt, wie gross der Anteil der Menschen daran ist. Nach meiner Einschätzung ist er ziemlich  bedeutend,  die Rolle der CO2-Emissionen bezüglich Treibhauseffekt ist nicht umstritten.

Weltwoche: Also ist der Alarm angebracht?

Shellenberger: Nein. Die Klimawissenschaftler versagen anderswo, nämlich bei der Antwort auf die Frage, welche Auswirkungen die höheren Temperaturen haben können. Die alarmistischen Warnungen vor katastrophalen Entwicklungen sind völlig abwegig. Wir sehen keine Zunahme der Häufigkeit von Wirbelstürmen, die damit verbundene Anzahl Todesfälle nimmt ab, die Kosten nehmen nicht zu.  Auch bei Trockenheit und Überschwemmungen gibt es keine Steigerungen. Die besten verfügbaren Schätzungen der Entwicklung von Wirbelstürmen im nächsten halben Jahrhundert in den USA  deuten darauf hin,  dass die Frequenz um 25 Prozent abnehmen und die Intensität um 5 Prozent zulegen wird. Fehlinformation  verbreiten Klimawissenschaftler also zu den Auswirkungen der Erwärmung, nicht zur Tatsache der Erwärmung. ›››

Weltwoche: Ohne dramatische Schilderungen von Auswirkungen lassen sich wohl die wissenschaftlichen Daten schlecht verkaufen.

Shellenberger: In meinem Buch «Apocalypse Never» versuche ich, genau zwischen diesen zwei Dingen zu trennen. Die  Erderwärmung ist Tatsache und grossenteils  menschengemacht, das ist das eine. Das andere aber betrifft die Auswirkungen der Erwärmung. Da ist Alarmismus fehl am Platz.

Weltwoche: Wäre es also billiger, die Folgen des Klimawandels zu parieren, als die Erwärmung zu bekämpfen?

Shellenberger: Es hängt davon ab, was Sie mit Bekämpfung der Erwärmung meinen. Wie ich vorhin sagte, haben die USA  ihre CO2-Emissionen mehr als jedes andere Land in der Menschheitsgeschichte innerhalb der letzten zwanzig Jahre verringert. Und in dieser Zeit wurden die USA als Klimabösewicht beschimpft.  Aber jetzt kommt der Clou: Das war mit keiner wirtschaftlichen  Einbusse verbunden – im Gegenteil: Der Erdgaspreis sank, und  das ersparte den Konsumenten Kosten von hundert Milliarden Dollar pro Jahr.  Es ist also noch dramatischer, als wenn man sagt, das eine verursache weniger Kosten als das andere:  Wir reduzierten  CO2-Emissionen,  indem wir saubere Energien billiger machten, also einen Gewinn realisierten.

Weltwoche: Das tönt wie ein Geheimrezept.

Shellenberger: Die einzigen Massnahmen, die wirklich wichtig sind, sind die Übergänge von Energieform zu Energieform: von Kohle zu Erdgas zu Nuklearenergie. Das ist das Zentrale am Ganzen und gar nicht kompliziert.

Weltwoche: Ist diese Lösung nicht allzu bequem, zu billig?

Shellenberger: Es gibt viele Lügen im Zusammenhang mit dem Klima, aber die allergrösste Lüge ist, dass die Bekämpfung des  Klimawandels  ökonomische  Opfer nötig mache.  Das ist nur dann wahr, wenn wir meinen, wir müssten zurückgehen in der Zeit, zurück zu den erneuerbaren  Energieformen.  Wenn wir aber vorwärtsgehen in Richtung Erdgas und Nuklearenergie, dann sind keine Opfer nötig, im Gegenteil, dann schafft man mehr Wohlstand.

Weltwoche: Aber viele würden jetzt einwenden, erneuerbare Energien seien etwas Gutes, denn diese seien näher bei der Natur und man beute die Vorräte nicht aus.

Shellenberger: Ja, genau so ist es. Und deshalb sage ich: Es handelt sich da um eine Religion. Die Bewegungen für erneuerbare Energien und Umwelt bilden eine Religion. Es sind biblische Argumente, die da vorgebracht werden: Wir Menschen lebten seinerzeit in einem harmonischen Zustand mit der Natur, wir verletzten dann die Natur, schadeten ihr, vergewaltigten sie mit  technischem Lernen und Wissen, mit fossilen und nuklearen Brennstoffen. Wir  fielen ab von der Natur, sind Gefallene, schuldig. Wir müssen deshalb aufhören, Fleisch zu  essen. Das ist ein zentraler Punkt in vielen Religionen:  kein Fleisch, kein Vergnügen,  nicht herumreisen,  sonst wird die Welt zugrunde gehen.  Wie es im Buch der  Offenbarungen  festgehalten ist: Die Apokalypse kommt.

Weltwoche: Moment, man kann doch sagen, das Warnen vor der Apokalypse soll Massnahmen zur Abwendung derselben bewirken.

Shellenberger: Ich glaube, der Zweck des  Alarmismus  ist einfach der  Alarmismus selber. Ziel ist nicht die Verringerung der CO2-Emissionen, denn dann würde man Erdgas und Nuklearenergie anvisieren. Die Klimainteressengruppen wollen jedoch Solar- und Windenergie. Warum? Einerseits,  weil man das in Harmonie mit der Natur sieht, und  anderseits,  weil sie  finden,  man müsse Opfer bringen.

Weltwoche: Es müssen Kosten anfallen?

Shellenberger: Ja, und zudem: Die nicht verlässlichen Energieformen brauchen mehr Kontrolle und autoritäre Strukturen. Nehmen Sie die Elektrizitätsnetze. Angebot und Nachfrage lassen sich am besten in Einklang bringen in Systemen mit einer kleinen Anzahl grosser Kraftwerke. Nimmt man nun die erneuerbaren Energien dazu, muss man enorm viele Ausrüstungen, Steuerungen, Beschäftigte und  staatliche  Instanzen hinzufügen. So kann man Kosten generieren und die Leute zum Zahlen zwingen.

Weltwoche: Welche Länder werden die schnellsten sein in der Entwicklung neuer Energieversorgungskombinationen?

Shellenberger: Die reichen, entwickelten Länder befinden sich in einer gewissen Führungskrise, auch die  Biden-Administration, deren  Klimapläne  widersprüchlich sind. Deutschland hat ebenfalls grosse Probleme mit dem Übergang. Die einfachste Antwort auf die Frage ist deshalb: China. Weil dessen Wirtschaft wächst, weil es zentralisiert ist – wobei allerdings die  Interessengruppen für Solar, für Nuklear und für  Kohle einander bekämpfen und die Kommunistische Partei  den Marktkräften wenig Raum gibt.

Weltwoche: Wie sehen Sie denn langfristig die Perspektiven für die Solarenergie? Sonnenlicht ist ja gratis, warum soll man das nicht voll nutzen?

Shellenberger: Jahrelang wurde  erzählt, dass Solarpanels billiger würden, weil das Nutzen von Sonnenlicht zur Erzeugung elektrischer Energie immer effizienter werde.  Solarpanels  sind nun aus drei Gründen billiger geworden: Erstens werden sie subventioniert von China,  zweitens  lässt die chinesische Regierung zu, dass die schmutzigste Form von Kohlenergie zu deren Produktion verwendet wird, drittens ist Zwangsarbeit im Spiel. Nicht technischer Fortschritt drückte den Preis. Und der Rohstoff  Silizium wird nun teurer.  Nach meiner Einschätzung wird Solarenergie immer ein schönes Nischenprodukt bleiben, geeignet für kleinere Anwendungen.

Weltwoche: Aber viele Länder machen ja die Solarenergie zu einem Pfeiler ihrer Versorgung.

Shellenberger: Ich glaube, wenn die Solar-Blase platzen wird, dann werden die Leute aus ihrer Trance erwachen und sehen: Es gibt keinen Weg zu einer von Solarkraft angetriebenen  Wirtschaft.

Weltwoche: Sehen Sie für den Fall, dass die Klimawelle abebben sollte, eine nächste grosse Strömung, die entstehen könnte? Was für eine?

Shellenberger: Im Moment sind es eigentlich zwei Religionen, zwei säkulare Religionen, welche die Szene prägen. Die eine dreht sich, wie gesagt, um Klima und Umwelt. Daneben hat sich eine andere Religion entwickelt, die von den Themen Identität, Rasse, biologisches und soziales Geschlecht und Ähnlichem besessen ist. Die zentrale Idee  ist da, dass bestimmte Menschen eine Opferrolle einnehmen und dass Opfer heilig sind. Ich werde diese neue Religion in meinem nächsten Buch aufgreifen.

Weltwoche: Funktioniert diese Strömung denn ähnlich wie die Umweltbewegung?

Shellenberger: Sie ist etwas anders gelagert, aber  beide Religionen sind sehr stark getrieben durch Eliten, die nach der Aufweichung der früher starken nationalen Identitäten neue zu schaffen  versuchen. Es geht um neue Gruppen, neue Stämme,  neue  Politiken,  moralisch aufgeladene Debatten über Opferrollen. Passt als Schwesternreligion  gut zur Klimabewegung.

=================================================================

)*  Anmerkung der EIKE-Redaktion  :

Dieser Artikel ist zuerst erschienen in der WELTWOCHE Zürich : | Die Weltwoche, Nr. 22 (2021) | 03. Juni 2021 ;

EIKE dankt der Redaktion der WELTWOCHE und dem Autor  Beat Gygi sowie dem Interview-Gesprächspartner Michael Shellenberger(USA) für die Gestattung der ungekürzten Übernahme des Beitrages, wie schon bei früheren Beiträgen :  http://www.weltwoche.ch/ ; Hervorhebungen und Markierungen v.d. EIKE-Redaktion.

=================================================================

 




Klima-Paradigma (neue Ausgabe), ‚Great Reset‘, und das Problem von Philosophen mit Fakten und Klima

Der Autor Ernst Peter Ruewald hat die erste Auflage überarbeitet und erweitert

Wir haben sein  Buch „Das Klima-Paradigma“ bereits am 30.10.20 in erster Auflage auf hier vorgestellt.

Inzwischen ist eine verbesserte und aktualisierte Ausgabe (Paperback und gebunden erschienen; doch, damit man kein Restexemplar bekommt, muß man darauf achten, daß auf der Buchvorderseite der Haupttitel nicht-kursiv gedruckt ist).

Die Ebuch-Version ist unverändert, hat aber den Vorteil, daß die meisten der ca. 500 Quellenhinweise per Klick im Internet zugänglich sind; die zusätzlichen in der neuan Druckausgabe müssen noch per Hand eingegeben werden.

Beim Erscheinen im September 2020 konnte noch nicht auf „Unerwünschte Wahrheiten“ [1] Bezug genommen werden. Dies ist nun an vielen Stellen nachgeholt. Insbesondere ist ein kurzer Abschnitt über die „Kipppunkt-Hypothese“ (S. 45) eingefügt, wo auf die entsprechenden Kapitel zu den vermeintlichen Klima-Kippelementen in [1] verwiesen wird. Der Autor hat nämlich bei Diskussionen oft die Erfahrung gemacht, daß, nachdem in den meisten Fragen Einigkeit erreicht worden ist, schließlich der Einwand gebracht wird: „aber die gefährlichen Kipppunkte müssen doch vermieden werden!“.

Zielsetzungen des Klimaparadigma-Buchs sind nicht allein die wissenschaftstheoretischen Grundlagen, sondern auch die Ausleuchtung übergeordneter Gesichtspunkte, wie politische Hintergründe, philosophische Aspekte, Prioritätsfragen, etc. Eine Hauptthese ist, daß das Klima nicht das Weltproblem Nummer eins ist und die angebliche „Klimakatastophe“ ein virtuelles Konstrukt darstellt. Umso mehr folgt daraus, z.B. daß für den Staat die Versorgungssicherheit absoluten Vorrang vor Maßnahmen für eine fiktive, allenfalls in Jahrzehnten akut werdende „Klimakrise“ haben muß, insbesondere dann, wenn diese Maßnahmen das Risiko von Versorgungsblackouts maßgeblich erhöhen. (S. 99)

Die Prioritätensetzung hat zwei Aspekte: die der Wichtigkeit und die der zeitlichen Dringlichkeit. Diesbezüglich ist (S.17, S.100) u.a. die sehr besonnene Einschätzung von Vahrenholt/Lüning ( [1], S.12 und Kap. „Was tun?“ S. 344-347) hervorzuheben: «Wir haben ausreichend Zeit, nach technologischen Lösungen zu suchen, die fossilen Energieträger ohne Wohlstandsverlust und Naturzerstörung abzulösen.»   Allerdings bleibt offen, warum wir das tun sollten. Oder – um es mit dem Wissenschaftler und Technik-Philosophen Indur Goklany zu sagen: „Wenn die fossilen Ressourcen aus dieser Welt verschwinden, werden sie es nicht mit einem lauten Knall tun, sondern mit einem leisen Seufzer“ … und fährt sinngemäß fort: Einfach deswegen weil die Menschheit etwas Besseres gefunden hat.

Einige Kapitel wurden erweitert, z.B. (S. 74) „Konvergenz von Klima-, Migrations- und Corona-Politik“ bzw. (S. 107) „Exkurs: Staatsversagen in der Corona-Krise. Corona und Klima“.

Nach Meinung des Autors haben die „Klimakatastrophe“ bzw. die „Corona-Pandemie“ in ihrer Dramatik jeweils nur eine schwache Faktenbasis und es geht dabei nicht in erster Linie um die „Rettung“ des Klimas oder von Menschenleben, sondern um die Durchsetzung einer „Großen Transformation“ der gesamten Gesellschaft.

Besonders explizit äußert sich Klaus Schwab,  Direktor der Weltwirtschaftsforums WEF, der einerseits die relative Harmlosigkeit der Corona-Pandemie einräumt: «the least deadly pandemics the world has experienced over the last 2000 years», diese andererseits aber als einmalige Chance für einen totalen ‚Great Reset‘, d.h. Umbruch in Richtung einer „Ökodiktatur“  (die er natürlich mit humanitaristischen Wertbegriffen quasi-paradiesisch umschreibt) ansieht. (S. 109)

In Deutschland haben Parlament und Regierung das Feld gründlich beackert, unterstützt und defacto unangreifbar gemacht durch das BVerfG.

Fritz Vahrenholt hat sich zu dem BVerfG-Beschluß sehr sachlich und kritisch auf Tichys Einblick geäußert:  „Das Verfassungsgerichtsurteil zum Klimaschutz stützt sich auf fragwürdige Quellen„. Sein Fazit:

„Wir bräuchten dringend eine Abkühlung. Nicht nur in der CO2-Debatte. Sondern auch des Klimas selbst. Nur wenn die von vielen Wissenschaftlern erwartete Abkühlung in diesem Jahrzehnt eintritt, ist der deutsche soziale Rechtsstaat noch zu retten.“

 

Quellenangaben

[1] Fritz Vahrenholt/ Sebastian Lüning: „Unerwünschte Wahrheiten. Was Sie über den Klimawandel wissen sollten“, (Langen-Müller), Sep. 2020

 

[2] Christopf Lütge/ Michael Esfeld: „Und die Freiheit? Wie die Corona-Politik und der Missbrauch der Wissenschaft unsere offene Gesellschaft bedrohen“, München (Riva-Verlag), Apr. 2021.

 

[3] Gerhard Engel: „Von Fakten zu Normen“ (insbes. Kap. 3.2 „Klimaschutz“), S. 43-59 in:

Christopf Lütge/ Gerhard Vollmer (Hrsg.), „Fakten statt Normen? Zur Rolle einzelwissen-schaftlicher Argumente in der naturalistischen Ethik“, Baden-Baden (Nomos), 2004

 

[4] Gerhard Engel: »Menschengemachter Klimawandel«? Ein Symposion.
In: Aufklärung und Kritik 16 (2009), Heft 1, S. 65-93.

 

[5] Dieter Birnbacher: „Klimaethik. Nach uns die Sintflut?“, (Reclam), 2016