1

Die WELT warnt: „Dutzende Prozesse gegen Klimasünder sind in Vorbereitung.“

„Greenpeace, Nabu, Germanwatch: An organisierten Umwelt- und Klimaschützern herrscht in Deutschland keinMangel.

… meint Daniel Wetzel von der Welt. Man könnte auch sagen: Steuergeldumverteilungs-Vereine von Akademikern, die mit wechselnder Argumentation zu wechselnden Weltuntergängen Kasse machen. Mit dem Verbandsklagerecht hat die Bundesregierung Dutzenden dieser Vereine eine Art Lizenz zum Gelddrucken erteilt, da nun zum Beispiel die Umwelthilfe von Vielflieger Jürgen Resch sogar Strafgelder von Mobelhändlern eintreiben darf, weil auf irgendeinem ausgestellten Kühlschrank der Aufkleber mit der Energieklassifizierung fehlte.

Aber das sind nur Petitessen, jetzt geht es an die ganz großen Wirtschaftsunternehmen. In der Umweltretterszene herrscht Goldgräberstimmung, nachdem das Bundesverfassungsgericht und das Haager Gericht die Bundesregierung und Royal Dutch Shell verurteilt hatten. Um am Ende nahezu jedes größere Unternehmen verklagen und ggfls. ausnehmen zu können, das irgendwo CO2-Emissionen hat (unmöglich, gar keine zu haben), hat sich nun eine aktivistische Initiative gebildet, um die letzten Klagelücken schließen zu können. Der Verein Green Legal Impact Germany e.V. (GLI) wurde im Dezember 2019 in Berlin gegründet und „versteht sich als „katalytisch-strategischer Akteur“ im Bereich Umweltrecht in Deutschland. Der Verein will den Zugang zu Gerichten stärken, und in einer fortschreitend globalisierten Welt helfen, die Umweltauswirkungen deutscher Akteure im Ausland (staatliches und unternehmerisches Handeln) zu erkennen und globale Akteure in ihrem rechtlichen Vorgehen stärken.“

Heißt im Klartext, die Lobyyisten unterstützen Klagewütige aus südlichen Ländern, die behaupten, daß Orkane oder andere Naturkatastrophen Folge deutscher Industrietätigkeit seien. Das Schema hat die ARD mit dem Klima-Gerichtsfilm Ökozid bereits beschrieben.

Im Vorstand sitzen Anwälte wie die VerfG-Klägerin Roda Verheyen, die Geschäftstelle leiten alte Bekannte von der DUH & Co.:

Henrike Lindemann – Nach mehreren inspirierenden Jahren in der Change- und Transformations-Szene ist Henrike Lindemann seit Anfang 2021 als Geschäftsführerin von GLI zurück im Bereich Umweltrecht. Bereits von 2010 bis 2013 arbeitete sie als Juristin in der Anti-Kohle-Kampagne der Deutschen Umwelthilfe.

Tatjana Thiel ist diplomierte Ökonomin mit Schwerpunkt auf Nachhaltigkeits- und Gerechtigkeitsthemen. Sie war mehrere Jahre engagierte Umweltaktivistin bei Greenpeace und anderen NGOs.

Höchst interessant ist auch die Vita der Chefin Verheyen, laut Wikipedia:

Von 2001 bis 2006 war sie selbstständige Beraterin, u. a. für die Gesellschaft für technische Zusammenarbeit, das Bundesumweltministerium, Friends of the Earth, Foundation for International Environmental Law and Development (FIELD, London) und Germanwatch e.V. … 2002 gründete sie mit Peter Roderick das internationale Netzwerk Climate Justice Programme. 2005 wurde Verheyen mit ihrer Arbeit „Climate Change Damage in International Law“ zum Dr. jur. promoviert…. Seit 2006 ist Verheyen als Rechtsanwältin mit Schwerpunkt im Umweltrecht, Planungsrecht, Öffentlichen Baurecht und Völkerrecht sowie in der Politischen Beratung tätig. Am 5. Mai 2021 wurde Verheyen von der Hamburgischen Bürgerschaft für sechs Jahre zum Mitglied des Hamburgischen Verfassungsgerichts gewählt.

Laut Wetzel sei die im Haager Urteil betonte „ungeschriebene Sorgfaltspflicht“ der zentrale Aufhänger – in der DDR sagte man „Gummiparagraf“ – der sich GLI zufolge überall in den Verfassungen und Gesetzbüchern finden lasse.

Nun sind die Ökobewegten und Weltretter, wie man am Musterbeispiel Annalena Baerbock sieht, selten fleißige Studenten, die Volljuristen, Naturwissenschaftler oder Ingenieure werden wollen. Daher mangelte es den Klimaklägern bislang wohl an Fachpersonal, das man aber nun aggressiv anwirbt, um die die Gerichte vor allem der DACH-Staaten mit Klagen zu überschwemmen.

Geworben werden gezielt Referendare, junge Anwälte oder Verbandsvertreter oder Studenten mit prozeßrechtlichen Vorerfahrungen, wie es in einer Mail an die Mitglieder des Berliner Forums Umweltrecht heißt

.. fand die Welt heraus. Ob die meisten jungen Juristen alle klimabegeistert sind, ist fraglich; die Möglichkeiten, mit hoher Erfolgsaussicht viel Geld zu verdienen und Prozesse zu gewinnen, dürfte aber als Anreiz genügen.

Roda Verheyen plant, als nächstes vor den Europäischen Gerichtshof für Menschenrechte zu ziehen. Den Anwälten ist dabei wohl gleich, ob sie die Industrie ruinieren oder nach Rußland treiben; nach mir die Sintflut. Nicht-Profiteure sehen das anders und schlagen Alarm: so hält der Wirtschaftswissenschaftler Joachim Weimann aus Magdeburg bereits das Urteil des Bundesverfassungsgerichts für „eine Katastrophe“.

Bislang wurde von deutschen Unternehmen nur das RWE unmittelbar beklagt – von dem berühmten peruanischen Bauern, dessen Haus von einem anschwellenden Gletschersee bedroht werde. Daß ein Bauer aus den Anden weder an den menschgemachten Klimawandel glaubt, noch weiß, daß man in Alemania mit grünen Themen Geld erklagen kann, dürfte klar sein – deswegen erschließt sich, daß da eine deutsche NGO dahinter steht.

Jeder Ökonom weiß, daß mangelnde Rechtssicherheit in „shithole countries“ einer der wichtigsten Gründe ist, warum Investitionen in- und ausländischer Kapitalgeber ausbleiben – warum soll ich Millionen investieren, wenn mir irgendein Profiteur mit einer simplen Klage den Gewinn streitig machen kann?

Wetzel erinnert in diesem Zusammenhang an das neue Lieferketten-Gesetz, das deutsche Unternehmen dazu verpflichtet, Lieferanten im Ausland auf „moralische Einwandfreiheit“ abzuklopfen. Und „Moral“ heißt in der Umverteilungswirtschaft Deutschlands heute auch „Klima“. Es ist was faul im Staate Dänemark!




Nach dem zweiten Corona-Frühling: CO2-Konzen­tration steigt trotzdem überdurch­schnittlich

Die folgende Grafik veranschaulicht die Differenzen der CO2-Konzentrationen Frühling minus Frühling des Vorjahres seit 1989/90. Im Zeitraum 1990 bis 2020 stieg diese im Mittel um 1,97 ppm. Man beachte die überdurchschnittliche Zunahme in den Corona-Frühjahren 2020 mit 2,64 ppm und 2021 mit 2,44 ppm. Offenbar sind CO2-Einsparungsmaßnahmen nahezu wirkungslos. Man beachte ferner, dass die Zirkulationsverhältnisse, die Aktivität des Pflanzenwachstums, das Bodenleben, der Vulkanismus sowie die Meeresoberflächentemperaturen die CO2-Konzentrationen maßgeblich beeinflussen. Der relativ deutliche La Nina 2020/21 hat vermutlich eine noch stärkere Konzentrationszunahme verhindert.




Fact Checking the Fact Checkers

Am Earth Day diesers Jahres veröffentlichte die Washington Times ein Op-Ed von mir mit der Überschrift „There is noclimate emergency – We love CO2 and so should you .” Nicht lange nach der Veröffentlichung wurde der Facebook-Post der Zeitung zu dem Kommentar als „falsch und irreführend“ bezeichnet und ihre Anzeige dafür abgelehnt. Grundlage dafür war ein ausführlicher „Faktencheck“ mit dem Titel „Washington Times presents list of false and misleading statements about the impacts of CO2 and climate change“ von Climate Feedback (CF). Er wurde von acht Wissenschaftlern verfasst, und bei genauer Durchsicht ihres „Faktenchecks“ wurde klar, warum sie nicht als „Experten“ bezeichnet wurden.

Um diese Kritik zu widerlegen, habe ich sechs der weltweit besten Experten auf verschiedenen Gebieten, die mit dem Klimawandel zu tun haben, gebeten, die Aussagen der Gutachter von Climate Feedback auf ihre Richtigkeit und Gültigkeit zu überprüfen. Alle von mir befragten Wissenschaftler sind Mitglieder der CO2 Coalition, einer gemeinnützigen wissenschaftlichen Koalition mit Sitz in Arlington, Va. Alle sind sich einig, dass es keinen vom Menschen verursachten Klimanotstand gibt.

Da viele der Abschnitte doppelte Aussagen enthalten, die verschiedene vermeintlich „falsche“ Behauptungen und Aussagen in meinem Kommentar zu sehen behaupten, habe ich sie auf elf primäre Aussagen von vermeintlichen „Tatsachen“ destilliert, die verwendet werden, um den Op-Ed zu „entlarven“. Climate Feedback-Behauptungen und Zitate sind in rot.

In jedem Fall stellen wir fest, dass die Kritiker von Climate Feedback die Wissenschaftler sind, die verworrene, irreführende und falsche Informationen liefern.

CF Behauptung #1: Wrightstone versäumt es, Interessenkonflikte offenzulegen

CF: Der gesponserte Artikel versäumt es, Interessenkonflikte offen zu legen. Wie Kerr gegenüber Climate Feedback sagte: „Gregory Wrightstone ist ein Fachmann in der Branche der fossilen Brennstoffe. Er arbeitet an Schiefergas und -öl im Appalachen-Becken.

Antwort 1 – Gregory Wrightstone

Das ist sachlich und eklatant falsch (obwohl, wenn es wahr wäre, würde es keine Rolle spielen). Ich bin nicht im Energiesektor beschäftigt. Ich erhalte keinerlei Gelder von der Industrie für fossile Brennstoffe.  Wenn die Autoren diesen grundlegenden „Fakt“ falsch verstehen, wie können wir uns dann auf spätere Aussagen über „Fakten“ verlassen. Mehrere der Gutachter von Climate Feedback haben definitiv nicht offengelegte Interessenkonflikte, darunter Amber Kerr, die eine bezahlte Beraterin für Carbon Direct ist, eine Beratungsfirma, die Unternehmen in Bezug auf Kohlenstoffkompensationen berät. Ich bezweifle, dass sie lange in dieser Funktion beschäftigt wäre, wenn sie irgendeine Wissenschaft produzieren würde, die die „Konsens“-Meinung zum Klimawandel bestreitet.

CF-Behauptung Nr. 2: Kontinente in Äquatornähe waren in der Vergangenheit zu heiß, um Leben zu beherbergen.

Während eines Teils der alten Geschichte waren Kontinente in der Nähe des Äquators zu heiß, um Leben zu beherbergen (Amber Kerr)

Antwort 2a: Gregory Wrightstone

Dr. Kerrs Aussage, dass Kontinente in der Nähe des Äquators zu heiß waren, um zu irgendeinem undefinierten Zeitpunkt in der Erdgeschichte Leben zu beherbergen, wird durch keine Referenz oder Quelle von ihr unterstützt. Keiner unserer angesehenen Wissenschaftler bei der CO2-Coalition hat jemals von einer solchen Behauptung gehört und wir können keine unterstützenden Beweise finden, um dies zu belegen. Wenn man eine Aussage macht, die weit außerhalb des Mainstream-Denkens liegt, obliegt es dem die Behauptung Erhebenden, eine seriöse Quelle anzugeben. Darüber hinaus scheinen sie und mehrere der anderen Autoren von Climate Feedback in diesem und in späteren Abschnitten nicht zu wissen, dass die Erwärmung durch Treibhausgase hauptsächlich die höheren Breiten und die Pole betrifft, mit stark verminderten Auswirkungen in der Nähe des Äquators (Lindzen 1997).

Im Gegensatz zu ihrer Behauptung, dass extreme Hitze in der Zukunft zu Temperaturen führen könnte, die zu heiß sind, um Leben zu erhalten, befinden sich einige der bevölkerungsreichsten Städte der Welt heute in Gebieten mit den höchsten Temperaturen wie Indien, Indonesien und Afrika südlich der Sahara.

Es ist anzumerken, dass der den Äquator überspannenden Kontoinents Afrika zwei Wüstenregionen beherbergt, in denen es heute fast kein Leben mehr gibt. Beide befinden sich etwa 30 Grad nördlich (Sahara) und südlich (Kalahari und Namib) des Äquators. Beachten Sie, dass der Äquator in den äquatorialen Regenwäldern üppige und blühende Ökosysteme beherbergt, genau das Gegenteil von dem, was Frau Kerr behauptet. Das Fehlen von Leben in den Wüstengebieten und der Überfluss an Leben am Äquator werden nicht durch Veränderungen im CO2 angetrieben, sondern durch hohe Niederschläge bzw. das Fehlen derselben durch das Aufsteigen (nass) und Absinken ([1] trocken) der Hadley-Zellen.

Antwort 2b: Dr. Patrick Moore – Ph.D. in Ökologie, Mitbegründer von Greenpeace, Direktor CO2-Coalition
Dr. Kerrs Aussage ist einfach nur lächerlich und unbegründet. Einige der reichsten Artenvielfalt im Ozean, einschließlich Korallen und Fischen, findet man heute in den wärmsten ozeanischen Gewässern im indonesischen Archipel. Wärme ist besser für viele Arten von Meeresleben.

CF-Behauptung Nr. 3: Die heutigen Temperaturen sind höher als alle in den letzten 12.000 Jahren

Wrightstone behauptet, dass unsere aktuellen globalen Durchschnittstemperaturen nur dann bemerkenswert sind, „wenn man sich auf die letzten 150 Jahre oder so beschränkt.“ Das ist nicht korrekt. Das vorherrschende Verständnis in der Paläoklimatologie ist, dass unsere aktuellen globalen Durchschnittstemperaturen die höchsten seit vor der letzten Eiszeit vor mehr als 12.000 Jahren sind[9]. (Amber Kerr)

Antwort 3: Gregory Wrightstone

Dr. Kerrs Behauptung, dass „das vorherrschende Verständnis in der Paläoklimatologie“ von höheren aktuellen Temperaturen als im gesamten Holozän (12.000 Jahre) ausgeht, ist offenkundig falsch. Fast alle in der Paläoklima-Gemeinschaft auf beiden Seiten des Themas stimmen darin überein, dass es vor 6.000 bis 8.000 Jahren eine viel wärmere Periode gab, darunter auch Dr. Michael Mann, die NASA und das IPCC. Genau die von Kerr zitierte Studie unterstützt diesen Gedanken nicht und wird im nächsten Abschnitt ausführlich beschrieben. Die überwiegende Mehrheit der Paläoklimastudien stimmt darin überein, dass es während der jüngsten Wärmeperiode, bekannt als die mittelalterliche Warmzeit, wärmer war als heute, einschließlich Zusammenfassungen von mehr als 1.000 Arbeiten, die hier und hier sowie in der folgenden Abbildung 1 dokumentiert sind:

Abbildung 1 – Die Überprüfung von >1.000 Studien bestätigt mehrheitlich, dass die mittelalterliche Warmzeit wärmer war als die heutige. Modifiziert von Lüning (2020)

Zur Unterstützung ihrer Behauptung, dass die gegenwärtigen Temperaturen höher sind als alle in den letzten 12.000 Jahren, verweist Amber Kerr auf Kaufman (2020), eine globale Multi-Proxy-Paläo-Temperaturrekonstruktion. Der Teil der Studie, der sich mit dem Paläoklima befasst, ist hervorragend und zeigt die hohen Temperaturen des holozänen Optima mit tausenden von Jahren abnehmender Temperatur. In der Zusammenfassung hat Kaufman moderne Instrumentendaten mit den Paläoklimadaten zusammen gefügt, aber er hat ausdrücklich davor gewarnt, die beiden zu vergleichen, wie es Dr. Kerr hier getan hat.

In diesem Papier wird nicht behauptet, dass die Paläoklimaaufzeichnungen zeigen, dass unsere aktuellen globalen Durchschnittstemperaturen die höchsten seit der letzten Eiszeit sind. Kaufman warnt davor, seine niedrig aufgelösten Proxydaten mit hochauflösenden modernen Instrumentendaten zu vergleichen, indem er angibt, dass „die meisten Paläotemperatur-Zeitreihen zeitlich nicht ausreichend aufgelöst sind, um sie sinnvoll mit instrumentenbasierten Beobachtungen zu vergleichen“ und „2000 Jahre lange Aufzeichnungen eine Brücke zwischen den insgesamt niedriger aufgelösten Zeitreihen dieser Datenbank und den hochdetaillierten, aber relativ kurzen instrumentenbasierten Aufzeichnungen des Klimas darstellen.“ Und schließlich: „Die Auflösung der Paläoklima-Proxydaten über die letzten 12.000 Jahre beträgt etwa 150 bis 200 Jahre. Globale instrumentelle Daten messen Temperaturen stündlich und täglich, die dann für die monatliche und jährliche Darstellung gemittelt werden.  Für einen fairen Vergleich müssten die instrumentellen Aufzeichnungen über einen Zeitraum von 150-200 Jahren gemittelt werden. Mit anderen Worten, man kann nicht Äpfel mit Birnen vergleichen, was Dr. Kerr hier getan hat.

Vielleicht hat Dr. Kerr das Paper nicht oder nicht genau genug gelesen, denn die Autoren stellen fest: „Das wärmste 200 Jahre lange Intervall war ebenfalls auf 6,5 ka zentriert und war 0,7 °C wärmer als das 19. Jahrhundert.“

Kaufmans letzte frühere Studie (McKay und Kaufman 2014) wies mehrere eklatante Fehler auf, die eine vollständige Korrektur erforderten (Ahmed 2015). In der korrigierten Studie gaben die Autoren zu, dass unsere moderne Erwärmung, die sie als den Zeitraum 1971 – 2000 definierten, NICHT die wärmste 30-Jahres-Periode der letzten 2000 Jahren war, sondern die drittwärmste (Abbildung 2). Die wärmste solcher Periode trat während der römischen Warmzeit auf, die sich auf das Jahr 395 n. Chr. konzentrierte, so dass sogar der Autor, auf den sie sich bezieht, ihrer Aussage widerspricht.

Abbildung 2. Modifiziert aus Gosselin (2018). Quelldaten: Ahmed (2015)

In meiner anschließenden Kommunikation mit Dr. Kerr fügte sie eine weitere Studie hinzu, von der sie annahm, dass sie ihre Behauptung einer ungewöhnlichen und beispiellosen Erwärmung über viele Tausende von Jahren unterstützen würde, indem sie angab, dass „frühere Studien, die Proxy-Daten zur Rekonstruktion der durchschnittlichen globalen Oberflächentemperatur verwenden, wie Marcott, et al. (2013), zu ähnlichen Schlussfolgerungen gelangt sind.“ Sie ist sich offenbar nicht bewusst, dass sich auch diese Studie als fatal fehlerhaft erwiesen hat, wobei sogar der Autor zugibt, dass man sich nicht auf die modernen Daten verlassen sollte, da sie nur aus einem einzigen Datenpunkt bestehen: „Der Anteil des 20. Jahrhunderts in unserer Paläo-Temperaturreihe ist statistisch nicht belastbar und kann nicht als repräsentativ für globale Temperaturänderungen angesehen werden.“ In der Tat wurde Australiens nationale Wissenschaftsbehörde CSIRO nach Beweisen für irgendetwas noch nie Dagewesenes bzgl. Klima aufgrund von menschlichem Kohlendioxid gefragt, und trotz fast 50 Jahren Klimaforschung konnte sie nur die diskreditierte Marcott (2013)-Studie über Temperaturen und die diskreditierte Harries (2001)-Studie benennen.

Der Astrophysiker und Geowissenschaftler Professor Willie Soon war vernichtend in seiner Beurteilung der CSIRO Verwendung von Marcott (2013), indem er sagte: „Zwei Wochen nach der Veröffentlichung dieser Studie wurde diese vollständig widerlegt. Und doch versucht jemand so hoch oben wie CSIRO zu sagen, diese Studie ist legitim und kann als unterstützende wissenschaftliche Beweise verwendet werden. Das ist wissenschaftliches Fehlverhalten“.

CF-Behauptung Nr. 4: Zukünftige Temperaturen werden wahrscheinlich 12 Grad Celsius höher liegen.

Wenn sich die aktuellen Erwärmungstrends fortsetzen, werden wir Mitte des nächsten Jahrhunderts wahrscheinlich Temperaturen erreichen, die wir seit dem frühen Eozän, vor mehr als 50 Millionen Jahren, nicht mehr gesehen haben (Burke et al., 2018). (Amber Kerr)

Antwort 4a: Gregory Wrightstone (H/T to Renee Hannon for input):

Laut Amber Kerr ist es „wahrscheinlich“, dass die Temperaturen auf das Niveau steigen, das im Eozän herrschte, also mindestens 12 Grad Celsius höher als unsere heutigen Temperaturen. Die Temperatur, basierend auf HadCRUT4, ist seit 1900 um etwa 1 Grad C gestiegen. Wenn das der „aktuelle Trend“ ist und er sich fortsetzt, dann könnten wir einen Anstieg von etwa einem Grad C bis 2150 erwarten,

Der Artikel von Burke, 2018, ist den gleichen Vergleich von niedrig aufgelösten „Proxy“-Daten des Paläo-Klimas mit hochaufgelösten instrumentellen Temperaturdaten schuldig. Ihre Abbildung 1 und ergänzende Abbildung 1 ist extrem irreführend und zeigt keine Erwähnung der Datenauflösung auf der y-Temperatur-Achse und noch schlimmer, es wird eine verzerrte, nicht-einheitliche Zeit x-Achse gezeigt

Zum Beispiel haben die Marcott-Daten eine Temperaturauflösung im Durchschnitt über 300 Jahre, Dome C über 100-500 Jahre und die marinen benthischen Sauerstoffisotope wahrscheinlich 500+ Jahre. Die benthischen Sauerstoffwerte werden zunächst in Näherungswerte für die Meerestemperatur und dann in Näherungswerte für die Oberflächentemperatur umgerechnet.  Im Gegensatz dazu sind die instrumentellen Daten direkte Messungen der Temperatur, keine Proxies, die auf täglicher und monatlicher Basis vorgenommen werden.  Für eine ehrlichere Darstellung sollten die instrumentellen Temperaturdaten über 300+ Jahre gemittelt werden.  Auch wenn sie eine einheitliche Zeitskala auf der x-Achse verwenden würden, wären die instrumentellen Daten und die RCP-Projektionen nur ein Punkt.

Wichtig ist, dass Burke behauptet, die von Kerr referenzierte Abbildung sei nur eine Illustration und nicht die Grundlage für eine quantitative Analyse der Klimaähnlichkeit.  Sie ist erschreckend, unrealistisch und keine richtig skalierte Abbildung.

Antwort 4b: Dr. William HapperHapper ist emeritierter Professor der Abteilung für Physik an der Princeton University. Er ist ein Spezialist für moderne Optik, optische und Hochfrequenz-Spektroskopie von Atomen und Molekülen, Strahlungsausbreitung in der Atmosphäre und spin-polarisierte Atome und Kerne. Er hat über 200 begutachtete wissenschaftliche Arbeiten veröffentlicht und den Natriumleitstern erfunden, der in der adaptiven Optik in der Astronomie verwendet wird, um die beeinträchtigenden Effekte der atmosphärischen Turbulenz zu korrigieren. Er wurde 1976 mit dem Alexander-von-Humboldt-Preis, 1997 mit dem Broida-Preis und 1999 mit dem Davisson-Germer-Preis der Amerikanischen Physikalischen Gesellschaft sowie 2000 mit dem Thomas Alva Edison Patent Award ausgezeichnet.

Das IPCC macht eine „Gleichgewichts-Klimasensitivität“ S geltend, (der stationäre Temperaturanstieg bei Verdoppelung des CO2) von irgendwo zwischen S= 2°C und S= 4,5°C. In guter Näherung erhöht jede Verdoppelung der CO2-Konzentration die Temperatur um denselben Schritt. Die tatsächliche Sensitivität liegt wahrscheinlich unter S= 1°C, aber lassen Sie uns sehen, welche CO2-Erhöhungen erforderlich wären, um einen Temperaturanstieg von 12 C zu erreichen, wenn wir die obere Grenze des IPCC-Bereichs der Sensitivitäten nehmen. Die CO2-Konzentration müsste von N0 = 410 ppm, der heutigen ungefähren Konzentration, auf N > N0 x 2(12 C/ 4,5 C) = N0 x 6,35 = 2603 ppm steigen. Wir müssten also 2600 – 410 = 2193 ppm CO2 in die Atmosphäre einbringen. Wahrscheinlich gibt es nicht genügend wirtschaftlich nutzbare fossile Brennstoffe, um so viel CO2 bereitzustellen.

Aber nehmen wir an, der Brennstoff kann gefunden werden. In den letzten zehn Jahren ist die CO2-Konzentration um etwa 2,3 ppm/Jahr gestiegen. Bei dieser Rate würde die Zeit, die benötigt wird, um 2193 ppm in die Atmosphäre zu bringen, 2193/2,3 Jahre = 953 Jahre betragen. Für kleinere, realistischere Sensitivitäten wären viel mehr Brennstoff und viel längere Zeiten erforderlich. Es gibt keine wissenschaftlich plausible Möglichkeit, dass die Temperatur der Erde bis zur Mitte des nächsten Jahrhunderts um 12°C ansteigen könnte.

CF-Behauptung #5: Ökosysteme und die Menschheit werden durch erhöhte Temperatur und steigende CO2-Werte geschädigt

Es gibt weder wissenschaftliche Erkenntnisse noch Daten, die die Behauptung, dass Ökosysteme gedeihen oder dass die Menschheit von steigenden Temperaturen oder steigendem Kohlendioxid profitieren würde, global unterstützen. Es gibt buchstäblich Zehntausende von wissenschaftlichen Veröffentlichungen, die darauf hinweisen, dass die Ökosysteme aufgrund des Klimawandels und anderer Auswirkungen zunehmend geschädigt werden.

Antwort 6a: Dr. Patrick Michaels – Ehemaliger Präsident der American Association of State Climatologists. Forschungsprofessor für Umweltwissenschaften an der Universität von Virginia seit 30 Jahren und Senior Fellow bei der CO2-Coalition. Michaels war mitwirkender Autor und ist Gutachter des IPCC

Climate Feedback widerspricht Wrightstones Behauptungen, dass „die Ökosysteme unseres Planeten gedeihen und die Menschheit vom Anstieg des CO2 und der Temperatur profitiert“.

Tatsächlich stellen Wissenschaftler seit Jahrzehnten eine Begrünung der terrestrischen Ökosysteme fest, und zwar eine tiefgreifende, wie Zhu et al. (2016) in einer Nature Climate Change-Studie mit dem Titel „The Greening of the Earth [sic] and its Drivers“ zeigen. Im Mittelpunkt der Arbeit steht eine Karte der Veränderungen des Leaf Area Index über einen Zeitraum von fast zwei Jahrzehnten (Abbildung 3):

Abbildung 3 – Änderungen des Leaf Area Index‚ ab 1982

Beachten Sie, dass die Orte mit den größten Veränderungen violett markiert sind und den Standorten der tropischen Regenwälder der Welt entsprechen. Änderungen sind dort signifikant, wo sie gestrichelt sind.  Beachten Sie auch, dass es keine statistisch signifikanten Rückgänge des LAI gibt.

Zhu et al. (2016) führten auch eine Faktoren-Analyse durch, um die Ursachen für die planetarische Begrünung zu isolieren. Sie fanden heraus, dass 70 % durch den direkten Effekt des zunehmenden atmosphärischen Kohlendioxids verursacht wurden, 9 % durch erhöhte Stickstoffdeposition, 8 % durch den Klimawandel selbst (hauptsächlich in den hohen Breiten der nördlichen Hemisphäre) und 4 % durch Landnutzungsänderungen.

Es scheint also, dass Climate Feedback irgendwie übersehen hat, dass insgesamt 91% der globalen terrestrischen Begrünung eine Folge menschlicher Aktivitäten ist, oder dass das globale Nahrungsangebot eindeutig stetig wächst – und das schon, seit Paul Ehrlich vor über fünfzig Jahren in seinem Buch (1969: The Population Bomb) schrieb, dass die Nahrungsvorräte bald rapide abnehmen würden.

CF Behauptung Nr. 6 a) Erwärmung und CO2 spielen keine primäre Rolle bei der Steigerung der Pflanzenproduktion und b) die zukünftige Erwärmung wird einen negativen Effekt auf die Landwirtschaft haben.

Andere Pflanzen profitieren nicht von höherem CO2, und es wurde gezeigt, dass ihre Photosyntheseraten unter höherem CO2 abnehmen. Noch wichtiger ist, dass höheres CO2 nachweislich die Nährstoffqualität einiger Pflanzen, auf die wir angewiesen sind, wie z. B. Weizen, verringert (Katrin Meissner)

Die Zunahme von extremen Wetterereignissen kann starke negative Auswirkungen auf die Produktivität von Nutzpflanzen haben und wird sich voraussichtlich negativ auf die Nahrungsmittelproduktion auswirken (Sara Vicca)

Die globale Erwärmung wirkt sich bereits negativ auf die globale Nahrungsmittelproduktion aus, zumindest in einigen Regionen (Alexis Berg)

Wrightstone verwechselt Korrelation mit Kausalität, wenn er die Tatsache diskutiert, dass im letzten Jahrhundert die globale landwirtschaftliche Produktivität gestiegen ist und die wetterbedingten Todesfälle abgenommen haben. Das können wir nicht dem anthropogenen Klimawandel verdanken. Vielmehr haben eine bessere Infrastruktur und eine bessere Gesundheitsversorgung die Zahl der Menschen, die durch Umweltfaktoren wie das Wetter sterben, verringert. Fortschritte in der Pflanzenwissenschaft und -technologie (sowie ein nicht nachhaltiger Raubbau an der Biosphäre) haben einen stetigen Aufwärtstrend in der Pflanzenproduktion ermöglicht, der alle marginalen Auswirkungen von CO2 und Erwärmung aufwiegt. (Amber Kerr)

Es ist ethisch nicht vertretbar, dass Wrightstone mögliche Gewinne für die Landwirtschaft im globalen Norden feiert, während er die zahlreichen Studien ignoriert, die Schäden im globalen Süden beschreiben. (Amber Kerr)

Antwort 6a: Dr. William Happer

Alle Aussagen von Herrn Wrightstones Op-Ed basieren auf sehr solider Wissenschaft. Im Gegensatz dazu enthält der Beitrag von Climate Feedback erfundene, falsche Behauptungen und persönliche Angriffe.

Wissenschaftliche Studien zeigen eindeutig, dass CO2 in den letzten fünfzig Jahren einen wesentlichen Beitrag zu den gestiegenen Erträgen in der Land- und Forstwirtschaft geleistet hat. Die Beiträge waren besonders auffällig in trockenen Regionen, weil mehr CO2 die Dürreresistenz von Nutzpflanzen erhöht. Langfristige Satellitenmessungen der Pflanzendecke zeigen eine besonders ausgeprägte Begrünung in trockenen Regionen der Erde, viele davon in den Tropen und Subtropen.

Der zuverlässigste Beweis für die Vorteile von CO2 für Pflanzen ist die Verwendung von zusätzlichem CO2 in kommerziellen Gewächshäusern, um das Wachstum zu beschleunigen. Gewächshaus-Betreiber sind bereit, die Kosten für zusätzliches CO2 und die notwendige Ausrüstung für die CO2-Anreicherung zu akzeptieren. Der verbesserte Ertrag und die Qualität ihrer pflanzlichen Produkte, von Gemüse bis Marihuana, machen die Investition mehr als wett.

Diese Aussagen bestätigen, dass das, was Herr Wrightstone sagte, nicht unwahr, sondern wahr ist. Auf dem Feld wachsen sowohl C4- als auch C3-Pflanzen besser mit mehr CO2, weil mehr CO2 die Pflanzen trockenheitsresistenter macht.  C3-Pflanzen profitieren auch, weil mehr CO2 die Photorespiration reduziert, die etwa 25% der photosynthetischen Effizienz aufzehrt.  Alle Waldbäume und ein Großteil der landwirtschaftlichen Nutzpflanzen (Weizen, Reis, Sojabohnen, Baumwolle, etc.) nutzen den C3-Photosyntheseweg. Mit mehr atmosphärischem CO2 erhalten C3-Pflanzen einen doppelten Vorteil: mehr Trockenheitsresistenz und weniger Photorespiration.

Antwort 6b: Dr. Patrick Michaels:

Climate Feedback verkennt, dass die Überschätzung durch Klimamodellierungsfehler (die später in Abschnitt 12 diskutiert werden) fatal für die Verlässlichkeit praktisch aller Wirkungsmodelle für Ökosysteme (einschließlich der Landwirtschaft) sind. Der größte Teil der Feuchtigkeit für die Anbaugebiete der mittleren Breiten (einige der produktivsten landwirtschaftlichen Flächen der Erde), stammt aus den Tropen[2] . Große und systematische Fehler in den tropischen vertikalen Niederschlags-Simulationen für die Zukunft machen diese einfach unzuverlässig, da es das tropische vertikale Temperaturprofil ist, welches weitgehend bestimmt, wie viel ozeanische Feuchtigkeit in die höhere globale Atmosphäre übertragen wird. Tatsächlich kann das Vorzeichen von großen Niederschlagsänderungen am selben Ort je nach Modell positiv oder negativ sein.

Klima- und Erntemodelle versuchen im Allgemeinen, die Auswirkungen der jährlichen Witterungsschwankungen so zu parametrisieren, dass sie Abweichungen von gleichmäßigen technologischen Trends verursachen, die den Einsatz von Düngemitteln, Sorten und mechanische Verbesserungen usw. widerspiegeln.

Abbildung 4, berechnet aus globalen FAO-Daten für die vier Hauptkulturen, zeigt 1) auf dieser Ebene, dass das globale Nahrungsmittelsystem in hohem Maße von allgemeinen Witterungseffekten abgepuffert ist, und 2) dass es absolut keinen Hinweis darauf gibt, dass die Residuen des technologischen Trends zunehmen (d. h. die Witterungskomponente) nicht größer wird.

Abbildung 4 – Gesamtproduktion für die vier Hauptkulturen. Die einfache Anpassung zweiter Ordnung erklärt über 99 % der jährlichen Variabilität und lässt wenig Raum (etwa 1 %, global) für einen stochastischen oder systematischen Wetter- oder Klimaeffekt. Rohdaten von der FAO, Vereinte Nationen.

Antwort 6c: Gregory Wrightstone:

In einem anschließenden E-Mail-Austausch mit mir gab Dr. Kerr die enorme positive Auswirkung zu, die steigendes CO2 auf das Pflanzenwachstum hat:

In meinem eigenen Teilgebiet, den Auswirkungen des Klimawandels auf die Landwirtschaft, finde ich es ärgerlich, dass die meisten Modelle und veröffentlichten Studien den CO2-Düngungseffekt absichtlich auslassen (unter Berufung auf zu große Unsicherheiten oder unter der Annahme, dass es eine Akklimatisierung an höheres CO2 geben wird). Aber bisher deuten die Daten darauf hin, dass der CO2-Düngungseffekt ein bedeutender Segen für die Landwirtschaft in gemäßigten Regionen sein kann.“

In der begutachteten Literatur gibt es wenig Unterstützung für die häufig zitierte Vorstellung, dass tropische und subtropische Gebiete derzeit einen Rückgang der landwirtschaftlichen Produktivität erleben. Die CF-Gutachter scheinen einen prognostizierten Rückgang der landwirtschaftlichen Produktivität in den Tropen und Regionen niedriger Breitengrade auf Klimamodelle und Worst-Case-Szenarien zu stützen, die die Erwärmung deutlich zu hoch vorhersagen, wie von Dr. Happer in Abschnitt 4b und von Dr. Michaels in Abschnitt 12 diskutiert.

Entgegen der Behauptung der Gefährdung von Nutzpflanzen durch steigende Temperaturen und zunehmendes CO2 gibt es hunderte von Studien, die genau das Gegenteil belegen. Viele davon sind von Dr. Craig Idso hier erfasst: Interaktive Effekte von CO2 und Temperatur auf das Pflanzenwachstum. Diese begutachteten Arbeiten zeigen die folgenden wichtigen Überlegungen:

1) Pflanzen neigen dazu, bei höheren Temperaturen besser zu gedeihen, dank CO2, das die optimale Temperatur für die Photosynthese anhebt (oft um einen viel größeren Wert als den, der von den Modellen für die Erwärmung vorhergesagt wird),

2) CO2 hilft, temperaturbedingten Stress zu mildern.

Daten aus der realen Welt widersprechen der Vorstellung von hitzebedingten Ernteeinbußen in den heißesten Regionen der Erde. Zum Beispiel wurde in Indien erwartet, dass das Jahr 2020 zum zweiten Mal in Folge einen Rekord bei der Weizenernte brechen wird.

In den Vereinigten Staaten zeigen steigende Erträge von Mais in Scheffel pro Acre eine bemerkenswerte Korrelation zu steigenden CO2-Emissionen (Abbildung 6). Die Behauptung, dass dieser Anstieg auf die Jahr für Jahr verbesserten landwirtschaftlichen Praktiken zurückzuführen ist, ist einfach nicht glaubhaft.

Abbildung 5: Trend der Maisernte in den USA im Vergleich zu globalen Kohlenstoff-Emissionen

CF-Behauptung Nr. 7: Extreme Wetterbedingungen und damit verbundene Todesfälle nehmen zu

Leider nehmen Dürren, Waldbrände und Hitzewellen weltweit zu, und damit auch die temperaturbedingten Todesfälle. Die hier gemachten Aussagen sind vom Autor erfunden und völlig „realitätsfremd“. (Wolfgang Cramer)

Dürren und Austrocknung haben in vielen Regionen der Welt zugenommen. Zum Beispiel in Europa und Nordamerika. Waldbrände haben zugenommen und zeigen nun den Fingerabdruck der globalen Erwärmung, z.B. in Australien und der Arktis. Hitzewellen haben in Häufigkeit, Intensität und Dauer zugenommen. (Katrin Meissner)

Antwort 7a: Jim SteeleBiologe, ehemals Principal Investigator für das Neotropical Migratory Bird Monitoring of Riparian Habitats on the Tahoe National Forest (USFS) und Direktor des Sierra Nevada Field Campus der SFSU, Autor von Landscapes and Cycles: An Environmentalist’s Journey to Climate Skepticism

Trotz der korrekten Behauptung, dass Dürren, Waldbrände und Hitzewellen trotz steigender CO2-Konzentration erheblich zurückgegangen sind, weil die Erde grüner geworden ist, wird Wrightstone von dem „Faktenprüfer“ Wolfgang Cramer verleumdet, der fälschlicherweise behauptet, seine Aussagen seien „erfunden“ und „völlig realitätsfremd“. Dabei unterstützt die begutachtete Wissenschaft Wrightstone, nicht die Faktenchecker. Im Jahr 2013 veröffentlichten Klimawissenschaftler „Monitoring and Understanding Changes in Heat Waves, Cold Waves, Floods and Droughts in the United States, State of Knowledge“.1 Sie schrieben:

Instrumentelle Daten deuten darauf hin, dass die Dust Bowl der 1930er Jahre und die Dürre der 1950er Jahre die am weitesten verbreiteten Dürren des zwanzigsten Jahrhunderts in den Vereinigten Staaten waren (siehe Abb. 1), während Baumringdaten darauf hinweisen, dass die Megadürren des zwölften Jahrhunderts sowohl in ihrer räumlichen Ausdehnung als auch in ihrer Dauer alles im zwanzigsten Jahrhundert übertrafen“.

Stahl (2007)2 berichtete in ähnlicher Weise, dass im Vergleich zu den Extremen der 1930er und 1950er Jahre die mehrdekadischen Dürren während der kühleren Kleinen Eiszeit schwerwiegender und von längerer Dauer waren, „einschließlich der ‚Megadürre‘ des 16. Jahrhunderts, die möglicherweise die extremste Dürre war, die Nordamerika in den letzten 500 Jahren heimgesucht hat.“

Abbildung 6 – Dekadischer Durchschnitt von Hitzewellen und Kältewellen

Zusätzlich zu seiner sachlichen Berichterstattung über die von Satelliten beobachtete Ergrünung der Erde, die dem erhöhten CO2 (70%) und der Erwärmung (8%) zugeschrieben wird, weist die Hauptaussage von Wrightstones Artikel darauf hin, dass es eine Fülle von wissenschaftlichen Daten gibt, die zeigen, dass „Dürren, Brände und Hitzewellen“ von anderen Klimafaktoren angetrieben werden, die nichts mit dem steigenden CO2 zu tun haben. Die so genannten Faktenprüfer versäumten es anzuerkennen, wie die langfristige Klimadynamik die Häufigkeit, Intensität und Orte von Dürren, Bränden und Hitzewellen eindeutig veränderte. Um die Schuld auf die CO2-getriebene Erwärmung zu schieben, verwiesen sie auf veröffentlichte Studien, die nur die Entwicklung von Dürren, Hitzewellen und Waldbränden in den letzten 50 Jahren untersuchten – ein Zeitrahmen, der für eine aussagekräftige Klimaanalyse viel zu kurz ist.

Sinha (2017) liefert zum Beispiel Beweise dafür, dass Indiens periodische Dürren nachließen, als die Welt die Jahrhunderte der Kleinen Eiszeit hinter sich ließ. Zwischen 1350 und 1850 n. Chr., als die CO2-Konzentration sehr niedrig war, verwüsteten mindestens fünf Episoden von Mega-Dürren Südostasien. Dürren in den Jahren 1899 und 1918 betrafen etwa 70 % Indiens. Als sich die Erde weiter erwärmte, waren 1972 nur noch 53 % des Landes von Dürre betroffen, 1987 48 % und 2002 nur noch 20 %.  Solche Vorteile einer wärmeren Welt werden erst auf dieser größeren Zeitskala deutlich. Während der letzten Eiszeit war die Sahara-Wüste viel ausgedehnter als heute. Als sich die Welt vor 14.000 Jahren zu erwärmen begann, wurde der Wüstensand der Sahara mit Grasland, ausgedehnten, ganzjährig flachen Seen und einer reichen Vielfalt an Wildtieren und menschlichen Bewohnern bedeckt. Gleichzeitig brachten die zunehmenden Niederschläge in Afrika Schnee auf den Gipfel des Kilimandscharo und ließen seine Gletscher wachsen. Diese Periode ist bekannt als die Grüne Sahara oder die Afrikanische Feuchtigkeitsperiode. Als sich die Welt dann vor 5000 Jahren abzukühlen begann, kam es in Nordafrika zu schweren Dürreperioden, wobei sich Nordafrika als Folge derselben wieder in die Sahara-Wüste zurückverwandelte.

Die Veränderungen in der Sahara werden auf eine Verschiebung des globalen Bandes intensiver tropischer Regenfälle zurückgeführt, das durch die Intertropische Konvergenzzone (ITCZ) gekennzeichnet ist. Als sich die eiszeitlichen Gletscher von der nördlichen Hemisphäre zurückzogen, verschob sich die ITCZ nach Norden und sorgte für genügend Niederschlag nördlich der ITCZ, um das Grasland der Sahara zu erzeugen. Als die orbitalen Zyklen die Sonneneinstrahlung veränderten und den Norden abzukühlen begannen, bewegte sich die ITCZ wieder nach Süden, was die Niederschläge in der Sahara reduzierte. In ähnlicher Weise bewegte sich die ITCZ während der Kleinen Eiszeit nach Süden, als die Sonnenleistung während des Sonnenfleckenminimums abnahm. Felis (2018) stellte fest, dass die östliche Sahara-Arabische Wüste von ~1750-1850 trockener wurde als heute, zeitgleich mit den kältebedingten Mega-Dürren in Indien.

Die Südwärtsbewegung der ITCZ verändert auch die globale atmosphärische Zirkulation.  Die subtropischen Drucksysteme des Ozeans, die jetzt den Feuchtigkeitsfluss vom Ozean zum Land hemmen und die mediterranen Klimate schaffen, bewegten sich während der letzten Eiszeit und der LIA ebenfalls nach Süden. Dadurch konnte mehr Feuchtigkeit vom Pazifischen Ozean übertragen werden, um das westliche Nordamerika zu überschwemmen. Ein Großteil der heutigen Wüsten Amerikas wurde von Binnenseen bedeckt; der Bonneville-See bedeckte einen Großteil Utahs, während Nevada größtenteils vom Lahontan-See bedeckt war. Als die Gletscher schmolzen und sich die ITCZ und die Drucksysteme nach Norden bewegten, wurden die Regenfälle umgeleitet und der amerikanische Westen trocknete aus. Alles, was vom Bonneville-See übrig geblieben ist, ist der Große Salzsee. In ähnlicher Weise stiegen während der Kleinen Eiszeit, als sich die ITCZ für einige Jahrhunderte nach Süden bewegte, die Wasserstände im Great Salt Lake 6 auf relative Höchststände im Jahr 16007.

In Europa beseitigte die südlichere ITCZ-Lage ebenfalls die blockierenden Effekte der Nordatlantischen Oszillation, so dass mehr Niederschläge die Alpen erreichten und die größten Gletschervorstöße seit 6.000 Jahren verursachten. Vincent (2005)7 berichtete, dass die Gletscher vorrückten, als die Perioden mit höheren Winterniederschlägen 25 % höher waren als der Durchschnitt des zwanzigsten Jahrhunderts. Das Paradoxon der Kleinen Eiszeit wurde so genannt, weil sich die europäischen Gletscher trotz der niedrigen LIA-Temperaturen zurückzogen. Als sich die ITCZ jedoch nach Norden bewegte, wurden die Niederschläge blockiert, wodurch sich die Gletscher zurückzogen.

Die Faktencheckerin Katrin Meissner verunglimpfte Wrightstones Artikel als eine „Anhäufung von Falschaussagen“ mit „ein paar teilweise richtigen Aussagen, die aus dem Zusammenhang gerissen und irreführend dargestellt werden.“ Es war jedoch Professor Meissner selbst, die sich mit „irreführenden Aussagen“ beschäftigte, indem sie suggerierte, dass das steigende CO2 in vielen Regionen wie Europa und Nordamerika zu einer Zunahme von Dürren und Austrocknung führt. Sie bezog sich auf Buntgen (Abb. 4), der in der Tat von größerer Trockenheit in Europa berichtete, aber diese Forschung zeigte auch, dass der Trocknungstrend seit 2.000 Jahren anhielt und nichts mit der CO2-Konzentration zu tun hatte. Eine extreme 300-jährige Trockenperiode gipfelte in der Renaissance-Dürre in Europa, gefolgt von der feuchten Periode während der LIA mit wachsenden Gletschern und nun die Austrocknungsperiode der Neuzeit, da sich die ITCZ von ihrer LIA-Lage nach Norden bewegt.

Abbildung 7 – 2100 Jahre rekonstruierter Vergleich von Feucht- und Trockenperioden in Mitteleuropa

Meissner versäumte es auch, die Rolle der ITCZ bei der Austrocknung des westlichen Nordamerikas zu berücksichtigen, als die Kleine Eiszeit (LIA) um 1850 endete, und versäumte es, die Auswirkungen der EL Nino Southern Oscillation (ENSO) oder der damit verbundenen Pacific Decadal Oscillation zu erwähnen. Wie Pederson (2005) dokumentierte, erlebten die westlichen Vereinigten Staaten während der Kleinen Eiszeit (LIA) drei schwere Regenperioden. Ähnlich wie bei den LIA-Ereignissen in Europa trieben die begleitenden starken Regenfälle die Gletscher im Glacier National Park (GNP) in Montana auf ihre größte Ausdehnung seit mindestens 6.000 Jahren. Als die LIA endete und sich die ITCZ und das Hochdrucksystem nach Norden bewegten, erlebte der GNP eine Reihe von Dürreperioden. Zwischen 1901 und 1960 hatten die größten Gletscher des GNP 65 % ihres LIA-Eises verloren.

El Nino, La Ninas und die Pazifische Dekadische Oszillation beeinflussen auch die globalen Dürren. Einige der verheerendsten Dürren in Indien und Südostasien treten in Verbindung mit extremen El-Niño-Ereignissen auf, wenn sich der Schwerpunkt der schweren Regenfälle über den Pazifik nach Osten bewegt. El Niño bringt mehr Regen nach Peru und die südliche Hälfte des westlichen Nordamerikas. Umgekehrt bringen La Nina-Episoden mehr Regen über Südostasien, aber eine stärkere Dürre im amerikanischen Südwesten. Während der negativen Phase der Pazifischen Dekadischen Oszillation treten nicht nur häufiger La Nina-Ereignisse auf, sondern die damit verbundenen Dürren sind auch intensiver. Wenn die negative PDO-Phase mit La Nina zusammenfällt, kommt es im Südwesten und in den südlichen Rocky Mountains, einschließlich Arizona, Nevada, Utah, Colorado und Wyoming, zu größerer Trockenheit und schlimmeren Waldbränden.  Zwischen 1700 und 1975 traten 69 % der größten Brände (Schoennagel (2005) im Rocky Mountain National Park auf, als eine La Nina mit einer negativen PDO zusammenfiel, obwohl diese Phasen nur in 29 % der Zeit eintraten.12

Obwohl die Harvard-Faktenprüferin Alice Berg bestätigte, dass die durch Waldbrände verbrannte Fläche in den letzten 20 Jahren weltweit um 25 % abgenommen hat, bestanden Cramer und Meissner fälschlicherweise darauf, dass der Klimawandel die Waldbrände im Westen der USA erhöht. In Wirklichkeit erfordert die Feststellung einer Zunahme von Waldbränden die Rosinenpickerei eines Trends, der im Jahr 1970 beginnt (Westerling 2008). Feuerexperten berichteten von einem „Rückgang der Waldbrände im Südwesten, der auf den flächendeckenden Beginn der intensiven Viehweide in den späten 1800er Jahren zurückzuführen ist, gefolgt vom Beginn der organisierten Feuerunterdrückung“. In einer umfassenden Bewertung der verbrannten Fläche in den zusammenhängenden Vereinigten Staaten berichtete der US Forest Service (Keane 2002), dass „drei- bis sechsmal mehr Fläche verbrennen muss, um historische Feuerregimes wiederherzustellen“.

Abbildung 8 – Regionales Auftreten von Bränden über 300 Jahre

Berg konterte den Rückgang der beobachteten Flächen, die durch Waldbrände verbrannt wurden, mit dem Argument, dass die Erwärmung mehr Brände verursachen würde, aber die Ausdehnung der Landwirtschaft einschränke, wie viel Land brennen kann, so dass in Zukunft mehr Feuer zu erwarten sei. Doch Berg selbst ließ in irreführender Weise alle kritischen Faktoren weg, die nachweislich zu einer Zunahme von Waldbränden geführt haben. Durch die Unterdrückung von Bränden hat sich die Totholzmenge erhöht, was zu größeren Bränden führt. Da die Bevölkerung zunimmt, werden Brände zunehmend von Menschen verursacht, und Brände treten das ganze Jahr über auf, anstatt auf die Jahreszeit der natürlichen Blitze beschränkt zu sein. Laut Balch (2017)13 waren zwischen 1992 und 2012 menschliche Brandstiftungen für 84 % aller Waldbrände und 44 % der gesamten verbrannten Fläche verantwortlich. Darüber hinaus hat die Störung natürlicher Landschaften die Ausbreitung invasiver Täuschungsgräser verursacht. Diese Gräser sterben im Frühsommer ab und benötigen nur eine Stunde Wärme und Trockenheit, um leicht entflammbar zu werden. Warme, trockene Sommer kommen vor, egal ob es eine globale Erwärmung gibt oder nicht. Größeres Holz benötigt Reisig, um genügend Wärme zum Verbrennen zu erzeugen, und die Ausbreitung von invasiven Gräsern liefert das.

Das Sagebrush-Habitat dominiert den amerikanischen Westen und brannte aufgrund des Mangels an Bodenbrennstoff selten, vielleicht einmal alle 60-100 Jahre. Eingeführtes Cheat-Gras dominiert jedoch den Sagebrush-Lebensraum, der nun alle 3-5 Jahre brennt. Das Rush Fire von 2012 war das viertgrößte Feuer in Kalifornien seit 1932 und verbrannte 272.000 Hektar Sagebrush-Habitat im Nordosten Kaliforniens. Danach breitete es sich weiter aus und verbrannte weitere 43.000 Acres in Nevada. Das Carr Fire 2018 war das siebtgrößte Feuer in Kalifornien und bedrohte die Stadt Redding, Kalifornien. Es begann, als an einem gezogenen Anhänger ein Reifen platzte und die Felge den Asphalt zerkratzte. Die daraus resultierenden Funken reichten aus, um die Gräser am Straßenrand zu entzünden. Grasbrände trugen die Flammen dann in das Buschland und die Wälder, da brennende Gräser als Anzünder für die weniger brennbaren Bäume dienten.

Diejenigen, die der Idee einer CO2-verursachten Katastrophe anhängen, picken sich die Brände in Kalifornien heraus, um diese Brände der CO2-verursachten globalen Erwärmung zuzuschreiben. Zusätzlich zu den anderen Ursachen für die Brände in Kalifornien haben die lokalen Maximaltemperaturen, bei denen die Brände ausgebrochen sind, nicht die Wärme der 1930er Jahre überschritten. Man muss sich also fragen, wer die sogenannten Faktenchecker überprüft. Wie Herr Wrightstone genau berichtet hat, korrelieren die Veränderungen bei Dürren, Bränden und Hitzewellen nicht mit steigendem CO2, sondern sind eher anderen Faktoren zuzuschreiben.

Antwort 6b: Dr. Patrick Michaels

Aufgrund der umfangreichen Medienberichterstattung über extreme Wetterereignisse könnte man meinen, dass Dürren und die Aktivität tropischer Wirbelstürme zunehmen müssen.  Aber der jüngste umfassende Bericht des IPCC sagt Folgendes über Dürre:

Zusammenfassend kommt die aktuelle Bewertung zu dem Schluss, dass es derzeit nicht genug Beweise gibt, um mehr als ein geringes Vertrauen in einen auf globaler Ebene beobachteten Trend bei Dürre oder Trockenheit (Mangel an Niederschlag) seit der Mitte des 20. Jahrhunderts zu haben, und zwar aufgrund fehlender direkter Beobachtungen, geographischer Inkonsistenzen in den Trends und Abhängigkeiten der abgeleiteten Trends von der Wahl des Index‘.

Und hier ist eine Darstellung des Accumulated [tropical] Cyclone Energy Index seit Beginn der globalen Satellitenabdeckung:

Abbildung 9 – Kumulierte [tropische] Zyklonenergie.  Aus Maue, 2011 und Aktualisierungen

Es wäre einfach, aber langweilig, immer wieder auf die Klima-Rückkopplung einzugehen. Im Allgemeinen gibt es nach Bereinigung um Bevölkerung und Immobilienwerte tatsächlich einen leicht negativen Trend bei wetterbedingten Schäden. Es ist unglaubwürdig, dass eine Änderung der globalen durchschnittlichen Oberflächentemperatur um 1⁰C die Jahrhunderte lange wirtschaftliche Entwicklung, die Linderung der Armut und die steigende Lebenserwartung zunichte machen und umkehren würde, wenn man bedenkt, dass der Homo sapiens bei einer Temperaturspanne zwischen von -40⁰C bis +50⁰ angemessen geschützt lebt und gedeiht. Dieses eine Grad ist weniger als der Unterschied in der mittleren Jahrestemperatur, der erreicht wird, wenn man in den mittleren Breiten etwa 50 Meilen nach Süden zieht, und wir alle wissen, dass das tödlich ist.

CF-Behauptung Nr. 8: Korallenriffe werden durch die vom Menschen verursachte Erwärmung negativ beeinflusst

Die gegenwärtige Erwärmung hat bereits sehr spürbare negative Auswirkungen auf marine Ökosysteme (d.h. Korallenriffe) (Alexis Berg)

Hitzewellen werden in vielen Teilen der Welt immer häufiger und heftiger. Sie treten auch im Ozean auf und sind einer der Haupttreiber für den Verlust von tropischen Korallenriffen. (Wolfgang Cramer)

Antwort 11: Dr. Peter RiddPhysiker, PhD von der James Cook University, früherer Leiter der Physikabteilung an der James Cook University von 2009 bis 2016 und Leiter des Marine Geophysical Laboratory an dieser Institution für 15 Jahre.

Im Folgenden habe ich in Stichpunkten die wichtigsten Fakten zusammengefasst, die die Vorstellung von der abnehmenden Gesundheit der Korallen und Riffe widerlegen.

Diejenigen von uns in Nord-Queensland, Australien, die direkt neben dem Great Barrier Reef leben, finden es unglaublich, dass die Welt davon überzeugt ist, dass das Riff in den letzten Zügen liegt. Nichts könnte weiter von der Wahrheit entfernt sein. Es ist spektakulär und eines der unberührtesten Ökosysteme der Erde. Sobald die COVID-Beschränkungen nachlassen, kommen Sie und sehen Sie selbst.

(1) Korallen mögen es warm. Die Region mit den vielfältigsten und am schnellsten wachsenden Korallen auf der Erde, das sogenannte „Korallendreieck“, liegt um Indonesien und Papua-Neuguinea, wo sich auch die wärmste große Wassermasse der Erde befindet – der indo-pazifische Warmpool.

(2) Für jedes Grad (Celsius) Temperaturerhöhung wachsen die Korallen etwa 20% schneller. Korallen in den kältesten Teilen des australischen Great Barrier Reefs (GBR) wachsen etwa halb so schnell wie die gleichen Korallenarten im Korallendreieck. (Lough 2000)

(3) Korallen erleben Temperaturschwankungen von oft bis zu 10 Grad im Jahr, was im Vergleich zu dem bescheidenen Anstieg der Wassertemperatur im letzten Jahrhundert von höchstens einem Grad Celsius in tropischen Gewässern sehr groß ist. Es ist unplausibel, dass alle Korallen auf der Erde in Wasser leben, das so nahe an ihrem thermischen Maximum liegt, dass dieser geringe Temperaturanstieg ein massenhaftes Korallensterben verursacht, wie in den Medien berichtet wird.

(4) Korallenbleiche-Ereignisse, bei denen sich Korallen bei heißem Wetter weiß färben, über die in den Medien bis zum Überdruss berichtet wurde, sind völlig natürliche Ereignisse, die schon immer aufgetreten sind. Sie sind kein neues Phänomen, wie oft berichtet wird. Was sich geändert hat, ist die Technologie, um sie zu überwachen, und die explosionsartige Zunahme der Zahl der Wissenschaftler, die sich für Riffe interessieren. Diese gab es vor ein paar Jahrzehnten noch nicht. (Hao et al 2021, Oliver et al 2018, Yonge et al 1931)

(5) Bleichen ist kein Todesurteil; die meisten Korallen erholen sich vollständig. (Marshall 2006, Australian Inst. Of Marine Sciences)

(6) Im Gegensatz zu den meisten anderen Organismen haben Korallen eine bemerkenswerte Anpassung, die sie fähiger als andere Organismen macht, mit sich ändernden Klimabedingungen, ob natürlich oder vom Menschen verursacht, umzugehen. Im Inneren der Koralle, die ein Tier ist, lebt eine Art von Algen, die Zooxanthellen genannt werden. Die Algen geben der Koralle Energie im Gegenzug für eine gemütliche Umgebung. Es gibt viele verschiedene Algenarten, und die Koralle kann die Art auswählen, mit der sie am besten mit der erforderlichen Temperatur zurechtkommt. Tatsächlich ist die Korallenbleiche ein Teil des Prozesses, mit dem die Koralle dies tut. Wenn eine Koralle bleicht, stößt sie die Algen aus (sie wird weiß) und wird wahrscheinlich eine andere Algenart aus dem umgebenden Wasser aufnehmen.

Während die meisten Organismen viele Generationen der Evolution durchlaufen müssen, um ihr Erbgut zu verändern, um für eine andere Temperatur geeignet zu sein, können Korallen dies in wenigen Monaten tun, indem sie die Algen verändern, die in ihnen leben. Anstatt das Aushängeschild für die Auswirkungen des Klimawandels zu sein, gehören Korallen zu den am besten angepassten Organismen, um mit wechselnden Temperaturen umzugehen. Dies sollte nicht überraschend sein. Sie haben über Hunderte von Millionen von Jahren gelebt, als das Klima viel wärmer und kälter war als heute. Sie haben Klimaveränderungen überstanden, die weitaus dramatischer waren als die sanften Temperaturveränderungen, die wir im letzten Jahrhundert erlebt haben (Baker 2003, Buddemeier 1993, Marshall und Baird 2000, Guest et al 2012).

(7) Korallen brauchen diesen Mechanismus wegen der Art und Weise, wie sie sich fortpflanzen. Sie produzieren Larven, die in der Strömung treiben. Und im Gegensatz zu Samen von Bäumen, die in der Nähe des Elternteils und damit im gleichen Klima fallen, kann Korallenlaich viele hundert Kilometer weit treiben in Gebiete mit einer anderen Wassertemperatur.

(8) Korallenriffe, insbesondere das australische Great Barrier Reef, durchlaufen natürliche Zyklen der Zerstörung, bei denen gelegentlich große Mengen an Korallen absterben. Hurrikane sind bei weitem die wichtigste Ursache. Zum Beispiel tötete ein Hurrikan im Jahr 2009 die Hälfte der Korallen am südlichen Great Barrier Reef – ein Gebiet von der Größe von Maine. Aber bis 2016 hatten sich die Korallen wieder vollständig erholt. Das hat sie immer getan und tut es immer noch. Die Ereignisse sind wie Buschbrände. Sie sehen schrecklich aus. Und die Medien und einige opportunistische wissenschaftliche Organisationen können grafische Bilder von toten Korallen für schändliche Zwecke verwenden. Was fast nie berichtet wird, ist die Art und Weise, wie stark die Koralle nachwächst (De’ath et al 2012).

CF-Behauptung #9: Der Klimawandel wird einen negativen wirtschaftlichen Effekt haben

In einem IPCC-Sonderbericht heißt es weiter: „Die wirtschaftlichen Verluste durch wetter- und klimabedingte Katastrophen haben zugenommen“ (Zusammenfassung)

(D)ie gesellschaftlichen Folgen dieser Veränderungen (Wirtschaft, Gesundheit, etc.) werden für einen großen Teil der Weltbevölkerung in naher Zukunft katastrophal sein. (Wolfgang Cramer)

Antwort 11: Dr. Patrick Michaels

Climate Feedback zitiert einen aktuellen Bericht des Intergovernmental Panel on Climate Change (IPCC) der Vereinten Nationen, in dem es heißt: „Die wirtschaftlichen Verluste durch wetter- und klimabedingte Katastrophen haben zugenommen.“

Hier hat der IPCC nur trivialerweise recht. Ja, die wetterbedingten Verluste müssen steigen, weil es mehr Menschen mit mehr Sachen gibt, die das gleiche Wetter erleben. Eine klarere Analyse würde die globalen wetterbedingten Schäden als Prozent des globalen BIP betrachten, wie in Abbildung 2.
Roger Pielke, Jr. hat in einer Veröffentlichung aus dem Jahr 2018 in der Fachzeitschrift Environmental Hazards Daten der Versicherungsbranche von Munich Re und BIP-Daten der Vereinten Nationen verwendet und einen leicht negativen Trend bei den Schäden im Laufe der Zeit festgestellt.

Abbildung 10 – Globale wetterbedingte Schäden in Prozent des globalen BIP bis 2018.  Quelle: Pielke, Jr., 2018 update of 2017 paper in Environmental Research.

Bedeutet der beobachtete leichte Rückgang der relativen Schäden, dass die sozialen Kosten der Kohlendioxidemissionen negativ sein könnten (d.h. ein Nutzen)? Es gibt eine gewisse Logik.  In der entwickelten Welt hat sich die Lebenserwartung seit 1900 fast verdoppelt, und in den USA hat sich das Pro-Kopf-Nettowert mehr als verelffacht. Könnte dies ein Teil eines global positiven Effekts sein?

Dayaratna et al. (2020) untersuchten das Verhalten der „social cost of carbon“ (SCC) und passten ihre landwirtschaftlichen Begriffe an die jüngsten Forschungen zu Wachstumssteigerungen an.  Während die Erträge in den meisten dieser Modelle um bis zu 25 % gesteigert werden können, fanden Munier et al. (2018) weitaus größere Steigerungen sowohl in natürlichen als auch in landwirtschaftlichen Ökosystemen. Er unterteilte Satellitendaten über sechs verschiedene Vegetationstypen rund um den Globus.

Die häufigsten in Munier et al. (2018) werden kollektiv als Grasland bezeichnet, ein Land, das größtenteils dazu genutzt wird, stehende Pflanzen für das Vieh bereitzustellen.  Er fand heraus, dass die Blattfläche über einen Zeitraum von 17 Jahren mit bemerkenswerten 5 Prozent pro Jahr zunimmt, was einen Nettozuwachs von 85 Prozent ergibt. Dies führt zweifellos zu einem bemerkenswerten Anstieg der Menge an erntefähigem, hochwertigem tierischem Protein.

Dayaratna et al. folgten auch den Richtlinien des Office of Management and Budget aus dem Jahr 2003 für Berechnungen von Vorschriften und verwendeten Abzinsungssätze von über 3 Prozent (das OMB empfiehlt Werte von bis zu 7 Prozent).  Sie verwendeten auch Temperaturszenarien, die mit den unten beschriebenen Klimasimulationen mit geringer Empfindlichkeit übereinstimmen, die die genauesten Simulationen der beobachteten tropischen troposphärischen Temperaturen seit Beginn der globalen satellitengestützten Temperaturaufzeichnungen im Jahr 1979 liefern.

Unter diesen Annahmen und bei jedem unterschiedlichen Diskontsatz fanden Dayaratna et al. heraus, dass der SCC leicht negativ ist.  Auch dies sollte angesichts des relativen Wohlstands und der hohen Lebensqualität in den Industrieländern, die stark auf kohlenstoffbasierte Brennstoffe angewiesen sind, nicht überraschen.

CF-Behauptung Nr. 10: Die Gutachter von Climate Feedback verlassen sich auf unwahrscheinliche und Worst-Case-Klimamodelle, um zukünftige Katastrophen vorherzusagen*

[*Diese Aussage ergibt keinen Sinn. Offenbar liegt da im Original irgendein Fehler vor. A. d. Übers.]

Antwort 12: Dr. Patrick Michaels:

In der Tat ist die Oberflächentemperatur der Erde gestiegen; etwa 0,9⁰C seit 1900. Oberflächenthermometer zeigen zwei deutliche Perioden der Erwärmung, wie in der Historie von der Climate Research Unit (CRU) an der University of East Anglia, eine langjährige Aufzeichnung, die sie in der begutachteten Literatur für buchstäblich Jahrzehnte gewesen ist und die ständig verbessert wird.

Die beiden Perioden der Erwärmung, etwa 1910-45 und dann 1976-98, sind in ihren Steigungen statistisch nicht unterscheidbar, aber die erste hat wahrscheinlich nur eine sehr kleine Komponente aus erhöhtem Kohlendioxid. Es folgt eine grobe Berechnung:

Eiskerndaten aus Law Dome zeigen, dass die Oberflächenkonzentration nur etwa 298 ppm betrug, als die erste Erwärmung begann, was einen CO2-Antrieb von +0,35 W/m² über dem Hintergrund ergibt, basierend auf der Standardformel (dRF= 5,35ln(298/279)). Beachten Sie, dass dies eine sehr großzügige Berechnung ist, da die Konzentration zu Beginn der CRU-Aufzeichnung näher bei 285 ppm liegt.

Stevens (2015), der Carslaw et al. (2013) zitiert, gibt einen Sulfat-Antrieb von -0,3 W/m² an, was zu einem kombinierten Netto-Antrieb von fast Null führt. Die Modelle so abzustimmen, dass sie diese Erwärmung mit einer so kleinen Strahlungsänderung wie im Jahr 1910 irgendwie berücksichtigen, impliziert eine enorme Empfindlichkeit. Wenn das tatsächlich der Fall wäre, wären die aktuellen Temperaturen so hoch, dass es kaum eine politische Debatte gäbe.

Der Anstieg von der Mitte des 19. Jahrhunderts (wenn die Aufzeichnung beginnt) beläuft sich wiederum nur von etwa 285 Teilen pro Million (ppm) auf 298. Zum Vergleich: Jetzt sind es etwa 417 ppm.

Die von Satelliten gemessenen Temperaturen der NOAA-Mikrowellen-Sondierung (MSU) stellen eine wirklich globale Aufzeichnung dar (mit einem nur sehr kleinen weißen Fleck über jedem Pol). Leider gab es umstrittene Revisionen der Oberflächenaufzeichnungen, die eine viel diskutierte „Pause“ in der Erwärmung von etwa 1998 bis 2012 abschwächten. Aber in den MSU-Satellitendaten ist sie sehr offensichtlich:

Abbildung 11 – Die neueste Version der MSU-Temperaturen. Diese liegen ungefähr in der 850-300mb Schicht. Quelle

Beachten Sie, dass es in der Zeit nach 1998 nur eine einzige signifikante Erwärmungsperiode gibt, nämlich von 2012 bis 2016.

Die Satellitendaten unterstreichen die Tatsache, dass die meisten Klimamodelle, wie in unserer nächsten Abbildung gezeigt, dazu neigen, quasi-lineare Erwärmungen vorherzusagen, was zum Teil darauf zurückzuführen ist, dass die Temperaturreaktion auf einen bestimmten Anstieg des Kohlendioxids logarithmisch ist, während der Anstieg des CO2 ein Exponent niedriger Ordnung ist. Die Summierung der beiden kann in der Tat linear sein. Die Steigung der gesamten Satellitenaufzeichnung war sehr konstant bei etwa 0,13 bis 0,14⁰/Dekade, gemittelt über die gesamte 42-jährige Aufzeichnung, was etwas weniger als die Hälfte der Erwärmungsrate ist, die von den Modellen für die letzten Jahrzehnte vorhergesagt wurde.

Die tatsächliche Erwärmung, die auf Kohlendioxid zurückzuführen ist, wird vom IPCC in seinem letzten (2013) umfassenden Bericht mit einem vagen „mehr als die Hälfte“ der Veränderung seit 1950 angegeben. Dies würde von ungefähr 0,3 bis 0,6⁰C variieren, basierend auf der CRU-Geschichte.

Es ist wichtig anzumerken, dass alle quantitativen Projektionen der Erwärmung – einschließlich derjenigen des IPCC, der verschiedenen US-amerikanischen „National Assessments“ der Auswirkungen des Klimawandels auf das Land und sogar des „Endangerment Finding“ der EPA von 2009 (das immer noch das Dokument der Aufzeichnungen ist) – alle auf komplizierten allgemeinen Zirkulationsmodellen (GCMs) oder noch komplizierteren Erdsystemmodellen (ESMs) basieren.

Mit einer Ausnahme sagen diese Modelle eine viel zu starke Erwärmung in einer klimatisch kritischen Region der Atmosphäre, der tropischen Troposphäre, voraus.

Die folgende Abbildung ist eine detaillierte Version von Abbildung 1 in Christy und McNider (2017), die GCMs und ESMs aus der CMIP-5-Modellsammlung zeigt, die im letzten IPCC-Bericht vorgestellt wurde, im Vergleich zu tropischen Temperaturen, die von Wetterballons, Satelliten und globalen Reanalysen gemessen wurden. Das Versagen der Modelle ist, mit einer Ausnahme, krass offensichtlich, und die Ähnlichkeit der Ballon-, Satelliten- und Reanalysedaten ist ein beruhigender Hinweis darauf, dass die CMIP-5-Modelle einfach falsch lagen.

Abbildung 12: Simulation vs. Realität

Das einzige Modell, das funktioniert, ist das russische INM-CM4, das auch die geringste voraussichtliche Erwärmung von allen hat, mit einer Gleichgewichts-Klimasensitivität (ECS) von 2,05⁰C, verglichen mit dem CMIP-5-Durchschnitt von 3,4⁰C.

Wenn die National Assessments oder das IPCC der besten wissenschaftlichen Praxis folgen würden (was die operativen Meteorologen jeden Tag tun!), würden sie dieses Arbeitsmodell hervorheben und die breitere, offensichtlich falsche Gemeinschaft der anderen meiden.

Eine genauere Betrachtung der vorhergesagten und beobachteten Erwärmungstrends in der Vertikalen stammt aus Abbildung 2 in Christy und McNider (2017):

Abbildung 13 – Dicke schwarze Linie: Durchschnittliche Erwärmungstrends pro Dekade. Dünne farbige Linien: Durchschnittliche Erwärmungstrends für jedes Modell. Farbige geometrische Figuren: Beobachtungen. Die vertikale Achse ist die Höhe, gemessen am atmosphärischen Druck. Der maximale Fehler liegt bei 200mb („20000“ in der Grafik). Die durchschnittliche vorhergesagte Erwärmungsrate auf dieser Höhe ist bemerkenswerterweise sechsmal so hoch wie die beobachtete. CMIP-5-Modellfamilie.

Seit dieser Arbeit wurden wir mit der nächsten (CMIP-6) Serie von Modellen konfrontiert. Wie von McKitrick und Christy (2020) gezeigt, sind sie noch schlechter. Und das eine von zwei, das funktioniert, das russische INM-CM4.8, hat sogar noch weniger Erwärmung als sein Vorgänger, mit einem ECS von 1,8⁰C, verglichen mit dem CMIP-6-Gemeinschaftswert von etwa vier Grad.[1] (Das andere ist auch ein sehr niedriges ECS-Modell aus der gleichen Gruppe, INM-CM5).

Ich zitiere aus ihrer Schlussfolgerung:

Die Literatur, die auf eine Aufwärtsverzerrung in den Erwärmungsreaktionen der Klimamodelle in der tropischen Troposphäre hinweist, reicht nun mindestens 15 Jahre zurück (Karl et al., 2006). Anstatt gelöst zu werden, hat sich das Problem verschlimmert, da nun jedes Mitglied der CMIP6-Generation von Klimamodellen einen Aufwärtsbias in der gesamten globalen Troposphäre sowie in den Tropen aufweist.

Climate Feedback erkennt nicht, dass diese Fehler fatal für die Zuverlässigkeit praktisch aller Ökosystem-Wirkungsmodelle (einschließlich der Landwirtschaft) sind. Der größte Teil der Feuchtigkeit in den Anbaugebieten der mittleren Breiten (einige der produktivsten landwirtschaftlichen Flächen der Erde) stammt aus den Tropen. Große und systematische Fehler in den tropischen vertikalen Niederschlagsprognosen für die Zukunft machen diese einfach unzuverlässig.

CF Behauptung #11: Wrightstone verwechselt natürliche Treiber mit der vom Menschen verursachten CO2-getriebenen Erwärmung

Der Autor macht den häufigen Fehler, die natürliche Variabilität (die leichte Erwärmung nach der Kleinen Eiszeit) und die aktuelle Erwärmung, die auf den Treibhausgasantrieb zurückzuführen ist, zu vermischen. Diese Prozesse werden von Klimawissenschaftlern gut verstanden. In der Tat gibt es keine alternative Erklärung für die jüngste schnelle Erwärmung, wie sie in diesem Climate Feedback Review beschrieben wird. (Wolfgang Cramer)

Antwort 13: Gregory Wrightstone:

Wie Dr. Michaels im vorigen Abschnitt erklärte, ist die Oberflächentemperatur der Erde seit 1900 um etwa 0,9⁰ C gestiegen.  Die HadCRUT4-Thermometeraufzeichnung zeigt, dass es im 20. Jahrhundert zwei verschiedene Perioden der Erwärmung gab, ungefähr 1910-45 und dann 1976-98. Die Steigungen der beiden Perioden sind ununterscheidbar, obwohl die frühere in einer Periode mit niedrigem CO2-Gehalt von weniger als 300 ppm stattfand und jede CO2-Erwärmung vernachlässigbar wäre, während die letztere bei Werten von mehr als 400 ppm stattfand.

Die Abbildung unten zeigt beide Erwärmungsperioden und ich fordere Sie heraus zu entscheiden, welche in einer CO2-armen Umgebung und welche bei >400 ppm stattfand.

Abbildung 14 – Welcher Temperaturanstieg des 20. Jahrhunderts ist derjenige, der angeblich durch CO2-getriebene Erwärmung verursacht wurde?

Der unten dargestellte Central England Temperature Record ist die älteste verfügbare kontinuierliche Thermometeraufzeichnung und stammt aus dem Jahr 1659. Ebenfalls dargestellt sind die globalen Kohlenstoffemissionen, die eine 250-jährige Aufzeichnung der Erwärmung in einer CO2-armen Umgebung dokumentieren. In den ersten 200 Jahren der Erwärmung ist die CO2-bedingte Erwärmung nahezu null bis vernachlässigbar. Beachten Sie auch, dass die höchste Erwärmungsrate während der ersten 40 Jahre von 1695 bis 1735 auftrat, als die Erde begann, sich von den niedrigsten Temperaturen seit 12.000 Jahren (Kleine Eiszeit) zu erholen.

Abbildung 15 – Mehr als 250 Jahre Erwärmung traten auf, bevor der Mensch begann, große Mengen CO2 in die Atmosphäre einzubringen.

Autor: Gregory Wrightstone

Managing Director at the CO2 Coalition, expert reviewer of the United Nations Intergovernmental Panel on Climate Change, author of Inconvenient Facts: The science that Al Gore doesn’t want you to know. Bibliography here.

Link: https://wattsupwiththat.com/2021/06/06/fact-checking-the-fact-checkers/

Übersetzt von Chris Frey EIKE




Ist die Abschaltung der Kohlekraftwerke überhaupt möglich?

Eine Kohle-Kommission aus Politikern, Klimaforschern und anderen religiösen Autoritäten empfahl 2019 einen sukzessiven Ausstieg aus der Kohlekraft bis 2038, die 2020 zu einem Gesetz führte.

Daß ein Ausstieg in der Praxis wahrscheinlich gar nicht möglich ist, und die bestehenden Kohlemeiler nicht wie die abgeschalteten Kernkraftwerke publikumswirksam gesprengt, sondern mehr oder minder heimlich in Bereitschaft gehalten werden, zeigt ein Fall aus Westfalen.

Der E.on-Ableger Uniper, mittlerweile eigenständig, wirbt zwar offiziell mit grünem Image, betreibt tatsächlich aber Lücken-Sicherheits-Kraftwerke für die schöne neue Solarwindkraft-Welt der Zukunft. Eigentlich will man die Notfallversorgung bei Dunkelflaute nur mit Erdgas und später Wasserstoff sicherstellen; Anfang 2021 brauchte man dazu aber den eigentlich schon abgeschalteten Kohlemeiler Heyden in Westfalen. Pikant: Uniper hatte Heyden fünf Jahre früher als geplant stillgelegt und dafür Bundesmittel erhalten. Dennoch wurde das Werk seit Jahresbeginn allein bis März sechs mal wieder hochgefahren, um eine Dunkelflaute auszugleichen. Die Manager hatten das wohl geahnt und die Werksingenieure und -Techniker nicht abgezogen, um den Ofen und die Turbinen bei Bedarf sofort anfachen zu können.

Heyden ist nicht alleine: Der regionale Netzbetreiber Amprion beantragte, die „stillgelegten“ Kraftwerke Walsum 9 (Steag) und Westfalen E (RWE) als systemrelevant einzustufen, damit die Konzerne sie betriebsbereit halten dürfen/ müssen.

Was wird uns also erwarten? Die nächsten 17 Jahre werden alle halbwegs modernen Kohlekraftwerke in Deutschland nach und nach „abgeschaltet“, aber keineswegs eingemottet oder gar abgerissen. Einen kleinen Teil alter ineffizienter Anlagen wird es wohl erwischen, damit man der besserverdienenden Ökoklientel schöne Abrißfotos in den jeweiligen Presseorganen und der Tagesschau präsentieren kann. Die meisten Kraftwerke werden aber, wie jetzt Heyden, nur vom Netz getrennt und während der Zwangspause gepflegt, damit sie im Fall einer Dunkelflaute, vor allem im Winter-Vierteljahr, sofort wieder Kohle verbrennen und ans Netz können.

Und 2038? Wenn Uniper und die Konkurrenten es bis dahin nicht schaffen, genügend Methan- und Wasserstoffkraftwerke zu errichten, die die Kohlemeiler vollständig ersetzen, wird wohl auch das Gesetz nicht verhindern, daß die alten Kraftwerke „notfallmäßig“ am Netz bleiben. Daß solch ein „Notfall“ Dauerzustand werden kann, wissen die gelernten Westberliner noch aus der Zeit vor der Wende: Da hieß der Personalausweis der Frontstadtbewohner “ vorläufiger behelfsmäßiger Ausweis“ (wenn man ihn verloren hatte) – jahrzehntelang.

Sicher ist nur eines beim Kohleausstieg: Die doppelte Infrastruktur mit >>30.000 Windspargeln und zusätzlichen Ersatzkraftwerken, die Methan oder gar Elektrolyse-Wasserstoff verbrennen wird für den Kunden richtig teuer – und für Aktionäre und Anteilseigner der Infrastruktur ausgesprochen lohnend.




Präsident Biden hilft, die ‚Selten Erden‘ Mineralien der Welt für den räuberischen Green New Deal auszubeuten

Die Profiteure können ihr Glück mit der Politik von Joe Biden und seinen Hintermännern kaum fassen.  Sicher, der tattrige Präsident hat Mühe, einen kompletten Satz ohne Teleprompter zu meistern ( und oft auch mit einem ). Aber der Wunsch seines Stabs, Amerika mit einem Meer von Sonnenkollektoren und Windrädern zu belegen, ist kristallklar; Die Gewinnaussichten der Wind- und Solarindustrie waren noch nie so rosig.

Wie Mark Mills berichtet, wird Bidens Goldgrube für erneuerbare Energien bald jeden Winkel der Welt ausrauben und verschlingen, um seinen unmöglichen „grünen“ Traum zu verwirklichen.

 

Bidens nicht so saubere Energiewende
Übersetzt und wg. Copyright zum Teil in eigenen Worten wiedergegeben

Original im Wall Street Journal, von Mark P Mills, 11. Mai 2021

 

Die Internationale Energieagentur, ist die weltweit führende Quelle der Regierungen über Energie und die Abschätzung der zukünftigen Entwicklung.

Die von den Demokraten in USA favorisierte Energiewende kostet Billionen und hat das Ziel, viel mehr „saubere Energie“ und viel weniger Kohlenwasserstoffe zu verwenden – Öl, Erdgas und Kohle, die heute 84 % des weltweiten Energiebedarfs decken. Der 287-seitige Bericht der IEA, der diesen Monat veröffentlicht wurde,

The Role of Critical Minerals in Clean Energy Transitions “.pdf

ist für diese Ambitionen verheerend. Ein besserer Titel wäre gewesen: „Energiewende ins Ungewisse: Nicht bald, nicht einfach und nicht sauber“.

[für Kurzleser durchaus korrekt: Report extract, Executive summary viele Grafiken]

In dem Bericht der IEA wird ein bislang weitgehend ignorierter Aspekt angesprochen – die Rohstoffe für die Wunder der Energiewende. Es gibt weder genügend Bergbauindustrien noch die dafür notwendige Infrastruktur. Wind-, Solar- und Batterietechnologien benötigen eine Reihe von „Energiewendemineralien“,  hier kurz EWM genannt, die abgebaut und verarbeitet werden müssen.   [und das mit zuverlässiger Energie!].  Präsident Biden und seine Förderer denken global, es wird erwartet, das die Nachfrage nach Lithium, Graphit, Nickel und Seltenerdmetallen explodieren und die Preise um 4.200 %, 2.500 %, 1.900 % bzw. 700 % steigen würden , bis 2040.

[zu empfehlen: die Grafiken auf den pdf-Seiten 8 bis 11]

Die Kapazitäten, eine solche Nachfrage zu befriedigen gibt es nicht und es gibt auch keine Pläne, die notwendigen Minen und Raffinerien zu finanzieren und zu bauen. Um die Ziele der Energiewende zu erreichen, müssen gewaltige ökologische, wirtschaftliche und soziale Herausforderungen sowie geopolitische Risiken gestemmt werden.

Es grenzt fast an Satire, wenn die IEA im Vorfeld feststellt, dass die „Grüne Energieindustrie“ weitaus kritischere Mineralien als konventionelle Energieerzeugung benötigt.

„Ein typisches Elektroauto benötigt sechsmal so viel Mineralstoffe wie ein konventionelles Auto und eine Windkraftanlage an Land benötigt neunmal mehr Bodenschätze als ein Gaskraftwerk“, heißt es in dem Bericht. „Seit 2010 ist die durchschnittliche Menge an Mineralien, die für eine neue Einheit der Stromerzeugungskapazität benötigt wird, um 50 % gestiegen, da der Anteil der erneuerbaren Energien gestiegen ist.“

[Bitte im Original .pdf der IEA schauen, warum das nur unscharf kommt, weiß ich nicht, der Übersetzer]

Und das brachte Wind und Sonne gerade mal auf einen Anteil von 10 % des weltweiten Stroms. Damit bedeutet der Wechsel zu einer materialintensiven Energieerzeugung großflächige Landzerstörung, bereits für die Minen und weiter für den energieintensiven Transport von massiven Gesteinsmengen und anderen festen Materialien und die anschließende chemische Verarbeitung und Veredelung.

Die Produktion hochzufahren geschieht nicht über Nacht. Jeder Bergmann weiß: „Im Durchschnitt dauert es mindestens 16 Jahre, um Minen von der Entdeckung bis zur ersten Produktion zu bringen.“ Starten Sie morgen und die neue ETM-Produktion wird erst nach 2035 beginnen. Nun denken Sie mal nach, ob es realistisch sein kann, dass die Biden-Regierung, bis 2035 auf 100 % CO2-freie Umwandlung von Wind und Sonnenenergie in Strom erreicht.

Auch die IEA hat nun erkannt, dass lange Vorlaufzeiten ein Knackpunkt für den Einsatz grüner Energieerzeugung ist. [Damit kommt die Frage hoch: Wer bekommt die raren Rohstoffe als erster, so wie wir es zurzeit in Deutschland sogar mit Bauholz erleben müssen?]

„Bergbau und Mineralverarbeitung benötigen große Wassermengen“ – ein ernstes Problem, wenn etwa die Hälfte der weltweiten Lithium- und Kupferproduktion in Gebieten mit hohem Wasserstress stattfindet – und „durch saure Minenentwässerung, Abwassereinleitung und die Entsorgung von Abraum ein Kontaminationsrisiko darstellen“.

Die IEA greift auf die übliche Ermahnung zurück, dass die Eindämmung dieser Risiken eine „Verstärkung der internationalen Zusammenarbeit“ für alles von der Umweltverschmutzung bis hin zu Arbeitspraktiken erfordert. Nur, die IEA-Daten zeigen, dass ein erweitertes EWM-Mining hauptsächlich in Ländern mit „niedrigen Governance-Werten“ stattfinden wird, in denen „Korruption und Bestechung ein großes Haftungsrisiko darstellen“.

Damit könnte die IEA könnte die erste große Agentur sein, die die geopolitischen Risiken der Energiewende, wiederum mit umfangreichen Daten, aufzeigt. Der Öl- und Gasmarkt ist heute von Angebotsvielfalt geprägt. Die drei größten Produzenten, darunter die USA, machen weniger als die Hälfte des weltweiten Angebots aus. Die drei führenden Hersteller für drei wichtige EWMs kontrollieren jedoch mehr als 80 % des weltweiten Angebots, dominiert von China, während die USA nicht einmal selbst ein Akteur ist.

Gut versteckt in dem Bericht ist eine Warnung vor den „hohen Emissionsintensitäten“ von EWMs. Der Energieverbrauch pro abgebautem Kilogramm ist sogar im Steigen begriffen. Damit wird das zum entscheidenden Faktor, der bestimmt, ob letztendlich der Kohlendioxidausstoß im Netto reduziert oder nicht. Die IEA-Daten zeigen, dass die Emissionen aus der Beschaffung von EWMs je nach Standort und Art zukünftiger Minen die meisten der durch das Fahren von Elektroautos eingesparten Emissionen übertreffen könnten.

Schlimmer noch, ein radikaler Nachfrageanstieg wird die Rohstoffpreise anheben, die sich auf die gesamte Weltwirtschaft auswirken. Was Batterien betrifft, so stellt die IEA fest, dass dies die erwarteten Senkungen der Herstellungskosten, die von den „Lerneffekten“ einer erhöhten Produktion erwartet werden, „auffressen“ könnten. Dies ist ein Ergebnis, das der Erzählung von im Laufe der Zeit zwangsläufig billiger werdenden Ökostrommaschinen widerspricht.

Wenn ein solcher Bericht von einer pro-fossilen Brennstoff Gruppe stammte, würde diese entlassen, wenn sie nicht gar ganz aufgelöst werden. Verdanken Sie der IEA, dass sie mutig recherchiert haben, was nur wenige politische Entscheidungsträger zuvor angefordert haben. Selbst Präsident Obama hatte sagen können, wir müssen uns mit diesem Problem beschäftigen.

Übersetzt und wg. Copyright zum Teil in eigenen Worten wiedergegeben

Andreas Demmig

Original: Wall Street Journal

https://secret-wiki.de/wiki/Datei:SRSG_visits_coltan_mine_in_Rubaya_(13406579753).jpg

Stopthesethings

Biden’s Rapacious ‘Green’ Dream: Green New Deal Devouring World’s Rare Earth Minerals

 




Woher kommt der Strom? Windstromerzeugung kräftig, PV-Stromerzeugung schwach

Abbildung

An den letzten drei Tagen der Woche war es umgekehrt. Die konventionelle Stromerzeugung (Abbildung 1) folgte der regenerativen. An den letzten drei Tagen jedoch nur so weit, dass erhebliche Stromlücken und eine gleichzeitig zu hohe Stromübererzeugung per Photovoltaik über Mittag vermieden wurde. Dennoch musste am Sonntag Strom mit Bonus (Abbildung 2) verschenkt werden. Es lässt sich gut erkennen, dass der Strompreis den Im- und Exportgeschehen folgt. Wird Strom exportiert, geschieht dies zu günstigen bis sehr günstigen Preisen. Beim Import ist es umgekehrt. Das belegt auch der Blick auf die Durchschnittswerte der 21. Woche. 61,60€/MWh mussten für den Stromimport von 406,1 GWh gezahlt werden. Für eine MWh Stromexport wurden lediglich 37,31 € erzielt. Das allerdings für 857,2 GWh. Rechnet man den Durchschnitt aus Im- und Export aus, erzielte Deutschland für die per Saldo exportierten 451,1 GWh Strom 34,45€/MWh. Die Betrachtung von Abbildung 3 zeigt die Struktur der 21. Woche unter dem Aspekt der handelnden Akteure. Am Samstag und Sonntag wird sichtbar, wie unsere Nachbarn die Preisdifferenzen nutzen, um gute Geschäfte zu machen. Österreich und Polen seien als Beispiele genannt.

Die Tabelle mit den Werten der Energie-Charts und die daraus generierte Tabelle liegen unter Abbildung 4 ab. Es handelt sich um Werte der Nettostromerzeugung, der „Strom, der aus der Steckdose“ kommt, wie auf der Webseite der Energie-Charts ganz unten ausführlich erläutert wird.

Die Charts mit dem Jahres- und Wochenexportzahlen liegen unter Abbildung 5 ab. Abbildung 6 ermöglicht, dass Sie ihr eigener Energiewender werden. Abbildung 7 beinhaltet die Charts, welche eine angenommene Verdoppelung und Verdreifachung der Wind- und Solarstromversorgung visualisieren.

China rationiert Strom im Sommer

Eine besonders bemerkenswerte Mitteilung einer Elektronikfirma aus China (Im Sommer gibt es in China Stromzuteilung & Stromrationierung!) an ihre Partner in Deutschland wird unter Abbildung 8 veröffentlicht. Der Name der Firma in China und der deutsche Partner sind mir bekannt. Es ist garantiert keine Fälschung.

CO2-Tool ist in Arbeit

Demnächst wird stromdaten.info um ein CO2-Tool ergänzt werden. Das Tool erlaubt eine Sicht auf den CO2-Ausstoß, der Deutschland mit importiertem Strom zwar nicht angerechnet wird, der dennoch – im Ausland – in die Atmosphäre geblasen wird. Dies ist vor allem deshalb wichtig, weil Deutschland in den vergangenen Jahren immer mehr Strom importiert hat.

Beachten Sie bitte unbedingt den Stromdateninfo Tagesvergleich ab 2016 in den Tagesanalysen. Der Vergleich beinhaltet einen Schatz an Erkenntnismöglichkeiten. Überhaupt ist das Analysetool stromdaten.info mittlerweile ein sehr mächtiges Instrument der Stromdatenanalyse geworden.

Die Tagesanalysen

Montag, 24.5.2021: Anteil erneuerbare Energieträger an der Gesamtstromerzeugung 69,25 Prozent, davon Windstrom 35,57 Prozent, Solarstrom 18,61 Prozent, Strom Biomasse/Wasserkraft 15,07 Prozent. Stromdateninfo Tagesvergleich ab 2016. Die Agora-Chartmatrix: Hier klicken.

Montagmittag: 6o GW Bedarf, 53 GW (12:00 Uhr) regenerative Stromerzeugung, der Strompreis geht in den Keller. Bis zum späten Nachmittag produzieren die Konventionellen das Minimum (20GW). Dann reicht es gerade so aus, um die Vor- und Abendstromlücke auf ein Minimum zu reduzieren. Eine feine Leistung.

Dienstag, 25.5.2021: Anteil erneuerbare Energieträger an der Gesamtstromerzeugung 63,27 Prozentdavon Windstrom 35,70 Prozent, Solarstrom 14,43 Prozent, Strom Biomasse/Wasserkraft 13,14 Prozent. Stromdateninfo Tagesvergleich ab 2016. Die Agora-Chartmatrix: Hier klicken.

Heute exportiert Deutschland per Saldo den ganzen Tag Strom. Unter dem Strich werden 57,08€/MWh eingenommen. Die Konventionellen halten sich weitgehend bedeckt. Die PV-Stromerzeugung ist nicht so stark wie gestern. Dennoch ist die regenerative Stromerzeugung stark. Der Handelstag. Heute sieht man sehr schön, wie die Schweiz Preisdifferenzgeschäfte macht.

Mittwoch, 26.5.2021: Anteil erneuerbare Energieträger an der Gesamtstromerzeugung 61,22 Prozentdavon Windstrom 37,18 Prozent, Solarstrom 11,13 Prozent, Strom Biomasse/Wasserkraft 12,92 Prozent. Stromdateninfo Tagesvergleich ab 2016. Die Agora-Chartmatrix: Hier klicken.

Auch der Mittwoch ist ein kompletter Exporttag. Die Konventionellen produzieren etwas mehr als gestern. Aber auf niedrigem Niveau. Der Preis unterliegt den meist üblichen Schwankungen. Morgens und abends hoch, mittags und früh am Morgen tief. Allerdings auf hohem Niveau. Insgesamt werden per Saldo 64,43€/MWh für 70,19 GWh erzielt. Der Handelstag.

Donnerstag, 27.5.2021: Anteil erneuerbare Energieträger an der Gesamtstromerzeugung 54,49 Prozentdavon Windstrom 30,92Prozent, Solarstrom 11,04 Prozent, Strom Biomasse/Wasserkraft 12,52Prozent. Stromdateninfo Tagesvergleich ab 2016. Die Agora-Chartmatrix: Hier klicken.

Die Windstromerzeugung lässt über Tag kontinuierlich nach. Die Solarstromerzeugung ist ebenfalls nicht stark. Die konventionelle Stromerzeugung liegt bei knapp 40 GW.  Zu Abend entsteht eine große Stromlücke, die hochpreisig geschlossen werden muß. Per Saldo bleiben dennoch über 66€/MWh Ertrag für den Exportstrom. Der Handelstag.

Freitag, 28.5.2021: Anteil erneuerbare Energieträger an der Gesamtstromerzeugung 44,44 Prozent, davon Windstrom 11,69 Prozent, Solarstrom 18,55 Prozent, Strom Biomasse/Wasserkraft 14,20 Prozent. Stromdateninfo Tagesvergleich ab 2016. Die Agora-Chartmatrix: Hier klicken.

Der Freitag mit schwacher Wind- und recht ordentlicher  Solarstromerzeugung bringt zwei Stromlücken, die beide hochpreisig geschlossen werden müssen. Die Konventionellen schließen die Lücken nicht. Deutschland importiert mehr Strom als es exportiert. Über 109 €/MWh Importstrom musste Deutschland, der Stromkunde in Deutschland per Saldo bezahlen. Der Handelstag. Schauen Sie mal nach, welche Nachbarn besonders gute Preisdifferenzgeschäfte machen.

Samstag, 29.5.2021: Anteil Erneuerbare an der Gesamtstromerzeugung 52,41 Prozent, davon Windstrom 11,76 Prozent, Solarstrom 24,40 Prozent, Strom Biomasse/Wasserkraft 16,25 Prozent. Stromdateninfo Tagesvergleich ab 2016. Die Agora-ChartmatrixHier klicken.

Der Sonnabend gestaltet sich ähnlich wie der Freitag. Zwei Stromlücken, die hochpreisig geschlossen werden. Über Mittag fällt der Preis, der Exportpreis in den Keller. Bleibt aber wenigsten über Null. Weil die Konventionellen ihre Produktion absenken. Unter dem Strich exportiert Deutschland 24,24 GWh Strom. Für schlappe 15,67€/MWh. Der Handelstag. Österreich schießt heute den Preisdifferenzvogel ab. Deutschland gibt für 6,438 GWh Exportstrom für Österreich noch 14,27 €/MWh mit.

Sonntag, 30.5.2021: Anteil erneuerbare Energieträger an der Gesamtstromerzeugung 59,71 Prozent, davon Windstrom 11,75 Prozent, Solarstrom 31,78 Prozent, Strom Biomasse/Wasserkraft 16,19Prozent. Stromdateninfo Tagesvergleich ab 2016. Die Agora-Chartmatrix: Hier klicken.

Wenig Bedarf, viel Solarstrom, das sieht nicht gut aus. Selbstverständlich zwei gewaltige Stromlücken. Die Konventionellen halten sich bedeckt. Das Mittagsdesaster soll nicht noch vergrößert werden. Die Preise fallen auch so in den negativen Bereich. Schauen Sie hier wie die Preise insgesamt aussehen. Für den Sonntag. Für die komplette Analysewoche.

Noch Fragen? Ergänzungen? Fehler entdeckt? Bitte Leserpost schreiben! Oder direkt an mich persönlich: stromwoher@mediagnose.de. Alle Berechnungen und Schätzungen durch Rüdiger Stobbe nach bestem Wissen und Gewissen, aber ohne Gewähr.

Die bisherigen Artikel der Kolumne Woher kommt der Strom? mit jeweils einer kurzen Inhaltserläuterung finden Sie hier.

Rüdiger Stobbe betreibt seit über fünf Jahren den Politikblog www.mediagnose.de.




EPA lässt schon wieder unbequeme Klimadaten verschwinden…

Indem die EPA die zuvor schon gezeigten Daten unvollständig wiedergibt, führt sie die Öffentlichkeit in die Irre, indem sie mit den Daten Schindluder treibt. Die Website Climate Realism zeigte als Erstes diesen Vorgang des Verschwindenlassens von Daten in dem Report National Fire Center Disappears ‘Inconvenient’ U.S. Wildfire Data.

Jetzt macht die EPA das Gleiche – sie löscht wichtige historische Temperaturdaten. Die EPA hat ihre frühere Webseite Climate Change Indicators: High and Low Temperature gelöscht und durch eine neue ersetzt. Zuvor zeigten sie den U.S. Heat Wave Index von 1895 bis 2015, der eindeutig die einzigartige Dürre- und Hitzeperiode der 1930er Jahre dokumentiert hatte.

Glücklicherweise vergisst das Internet nie, und erst am 1. Mai 2021 wurde die ursprüngliche EPA-Site im Internet archiviert, so wie in Abbildung 1 dargestellt:

Abbildung 1. Frühere EPA-Grafik vor der Änderung der Biden-Administration mit Daten von 1895 bis 2015.

Beachten Sie in Abbildung 1, dass es einen sehr auffälligen Temperaturanstieg in den 1930er Jahren während der sogenannten „Dust Bowl“-Periode in der Geschichte der USA gibt. Laut dem National Weather Service:

Die ‚Dust Bowl‘-Jahre von 1930-36 brachten den Vereinigten Staaten einige der heißesten Sommer, die jemals aufgezeichnet wurden, insbesondere in den Ebenen, dem oberen Mittleren Westen und den Staaten am Großen See. Im oberen Mississippi-Tal wurden in den ersten Juliwochen des Jahres 1936 die höchsten Temperaturen dieser Periode gemessen, darunter viele neue Rekordwerte.

Die Reihe von heißen, trockenen Tagen war auch tödlich. Landesweit wurden etwa 5000 Todesfälle mit der Hitzewelle in Verbindung gebracht.

Diese langjährige Hitzewellen-Index-Tabelle wurde nun durch eine neue Tabelle ersetzt, die jede Vorstellung von der großen Hitzewellen-Periode der 1930er Jahre einfach „verschwinden“ lässt. Die EPA löschte die früheren Daten und ersetzte sie durch Daten, die für ein alarmistisches Narrativ passender sind, wie Abbildung 2 unten zeigt:

Abbildung 2. Neue EPA-Karte nach dem Wechsel der Biden-Administration mit Daten von 1910 bis 2015.

Die EPA hat auch eine weitere neue Seite Climate Change Indicators: Heat Waves hinzugefügt, die nicht einmal die „Dust Bowl“ der 1930er Jahre enthält. Stattdessen beginnt die Auflistung der EPA in den 1960er Jahren, einem Hitzewellen-Minimum im 20. Jahrhundert, wie in Abbildung 3 zu sehen ist. Indem die EPA die neuen Diagramme in den 1960er Jahren beginnt, anstatt alle verfügbaren Daten bis 1895 zurück zu verwenden, stellt sie einen künstlichen positiven und ununterbrochenen Aufwärtstrend bei Hitzewellen sicher.

Abbildung 2. Neue EPA-Karte nach dem Wechsel der Biden-Administration mit Daten von 1910 bis 2015.

Positiv zu vermerken ist, dass die EPA die ursprüngliche Seite Climate Change Indicators: Drought beibehalten hat, die in Abbildung 4 zu sehen ist. Diese zeigt keinen sich verschärfenden Dürretrend in den Vereinigten Staaten. Angesichts der jüngsten Änderungen der anderen EPA-Diagramme ist dieses nicht alarmistische Dürre-Diagramm auf der EPA-Webseite wahrscheinlich nicht mehr lange zu sehen.

Abbildung 4. EPA-Seite Klimawandel-Indikatoren: Dürre

Zu Beginn der Seite Climate Change Indicators macht die EPA einige nachweislich falsche Aussagen:

Das Klima der Erde verändert sich. Die Temperaturen steigen, Schnee- und Niederschlagsmuster verschieben sich, und extremere Klimaereignisse – wie schwere Regenstürme und Rekordtemperaturen – treten bereits auf. Viele dieser beobachteten Veränderungen stehen im Zusammenhang mit dem steigenden Gehalt an Kohlendioxid und anderen Treibhausgasen in unserer Atmosphäre, verursacht durch menschliche Aktivitäten.

Die Entscheidung, die Geschichte der Wetter- und Klimadaten auszulöschen, macht deutlich, dass das Anfangsargument der EPA schwach ist und auf Rosinenpickerei von denjenigen Daten basiert, die nur mit ihrer Prämisse übereinstimmen.

Es scheint, dass wir die sowjetische Ära der „verschwindenden“ Diagramme und Daten betreten haben. Wenn die neue Klimawandel-Indikatoren-Serie der EPA ein Hinweis auf die zukünftigen Klimaberichte der Regierung ist, scheint es, dass wir jetzt in die Biden-Ära der „Säuberung unbequemer Klimadaten“ eintreten.

Anthony Watts is a senior fellow for environment and climate at The Heartland Institute. Watts has been in the weather business both in front of, and behind the camera as an on-air television meteorologist since 1978, and currently does daily radio forecasts. He has created weather graphics presentation systems for television, specialized weather instrumentation, as well as co-authored peer-reviewed papers on climate issues. He operates the most viewed website in the world on climate, the award-winning website wattsupwiththat.com.

Link: https://climaterealism.com/2021/05/epa-disappears-more-inconvenient-climate-data-including-the-1930s-u-s-dust-bowl/

Übersetzt von Chris Frey EIKE

 




Vehicle-to-Grid – ein super Konzept?

Die Pumpspeicherkraftwerke (PSKW) sind bewährte Technik und haben einen vergleichsweise guten Wirkungsgrad. Es ist aber auch bekannt, dass deren Speicherkapazität für ein Stromversorgungssystem mit viel erneuerbaren Energien (EE), besonders mit den volatilen EE (VEE), also aus Wind und Sonne, bei weitem nicht reicht. Das ist schnell überschlagen: allein bei einem heutigen Verbrauch von 1.600 GWh pro Tag und einer Speicherkapazität der PSKW von 40 GWh dauert die Überbrückungszeit bei VEE-Mangel kaum mehr als 30 Minuten. Mangelsituationen können aber viele Tage dauern.

Daher benötigt man einen Langzeitspeicher der einen wetterlagebedingten und saisonalen Ausgleich schafft. Man muss Elektroenergie in einen Energieträger wandeln und diesen lange speichern können. Hierzu bietet sich Gas an (entweder Wasserstoff oder Methan). Mit der Rückverstromung kann dann die Versorgungslücke geschlossen werden. Das nennt man dann Power-to-Gas-to Power (P2G2P). Auf die großtechnische Verfügbarkeit, den Wirkungsgrad oder die Kosten wollen wir hier nicht eingehen, schließlich soll die Energiewende umgesetzt werden, koste es was es wolle. Fast verzweifelt werden die verrücktesten Ideen in den Raum gestellt, Speicher zu realisieren [2]. Zu den Speichervorschlägen gehört auch V2G (vehicle to grid). Soweit die Einleitung.

Daher stellt sich die Frage: Wie sinnvoll und nutzbringend ist die Integration von Batteriespeichern der E-PKWs in das Smart Grid? Auf der Basis eines vorhandenen Modells eines Stromversorgungssystems [3] werden zwei Szenarien modelliert, wobei eines ohne und eines mit V2G ausgestattet wurde [4].

V2G bedeutet in einer fiktiven Zukunft, dass sich viele E-PKW-Eigentümer bereiterklären einen Teil ihrer Autobatterie für die Stabilisierung der Stromversorgung abzutreten. Immer dann, wenn das Fahrzeug steht und eine Ladestation (mit steuerbarer Ein- und Rückspeisefunktion) verfügbar ist, soll es angeschlossen sein, also zu Hause, am Arbeitsplatz, am Supermarkt usw. Unterstellen wir dazu eine künftige Infrastruktur, die aus etwa so vielen Ladestationen besteht, wie es E-PKW gibt, denn nur so könnte bei fast jedem Parken ein Anschluss hergestellt werden. Diese Infrastruktur wird nicht billig. Die Anzahl der Ladestationen könnte deutlich geringer ausfallen, wenn es kein V2G gibt. Hier haben wir es daher mit Mehrkosten zu tun, die dem V2G-Konzept zuzurechnen sind, aber in meiner Modellierung fehlen.

Nehmen wir großzügig an,

  • • dass die V2G-PKW durchschnittlich zu 70% der Tageszeit am Netz (Smart Grid) angeschlossen sind, 
  • • dass es 30 Mill. E-PKW gibt, bei denen 50% der Eigentümer jeweils 10 kWh ihrer Batteriekapazität mit einem V2G-Vertrag zu netzdienlichen Zwecken abtreten. 

10 kWh ist durchaus denkbar, wenn man in fernerer Zukunft 80 kWh und mehr pro PKW unterstellt. Mit dieser Annahme kommt man dann auf 30∙106 ∙ 0,5 ∙ 0,7 ∙ 10 kWh ≈ 100 GWh.

Damit können diese E-PKW als ein Summenspeicher am Stromversorgungssystem mit 100 GWh Kapazität und ±100 GW Leistungsfluss angesehen und modelliert werden. Gemessen an den heute existierenden stationären Batteriespeichern ist das ein beträchtlicher Wert. Warum also nicht Batterien in PKWs in das Netz integrieren, die zukünftig vorhanden sind? 

Natürlich macht das kein PKW-Eigentümer umsonst, schließlich hat er ja viel Geld für seine Batterie bezahlt. Daher muss der V2G-Vertrag finanziell attraktiv sein. Alternativ könnte man aber auch einen Batteriespeicher von 100 GWh als Summe von vielen stationären Batteriespeichern realisieren. Auch könnten diese gezielt an geeigneten Stellen im Netz stehen. Diese Batterien sind pro kWh sicher günstiger zu bauen und zu betreiben als die in PKWs. Daher wurde hier ein Kostenaufschlag von 20% für einen gedachten V2G-Speicher angenommen.

Es wird ein Referenzsystem definiert, das 

  • • ca. 1.000 TWh/a nachfrageorientiert erzeugt und damit auch Wärmepumpen für Hausheizungen und 30 Mill. E-PKW versorgt. 
  • • Es werden keine Gas-Kraftwerke eingesetzt, da es eine Stromversorgung sein soll, die keine fossilen Energieträger verbrennt. 
  • • Zur Sicherstellung der Nachfrage werden die enthaltenen Speicher (PSKW, P2G2P ohne V2G) verwendet. 

Unter dieser Maßgabe wird über das Modell ermittelt, wie stark die VEE auszubauen ist und welche Kapazität der Langzeitspeicher (P2G2P) benötigt (Details in [4]).

Das gleiche Stromversorgungssystem wird dann mit V2G modelliert. Die Frage lautet nun, was sich an der Kapazität des P2G2P-Speichers und am nötigen VEE-Ausbau ändert. Wichtig ist auch die Frage nach den veränderten volkswirtschaftlichen Kosten. 

Die Ergebnisse sind naheliegend, aber auch aufschlussreich:

Da eine zusätzliche Speicherkapazität in das System eingefügt wird, kann rechnerisch die Kapazität des Langzeitspeicher etwas kleiner ausfallen. Der zusätzliche Batteriespeicher hat einen mehr als dreifach höheren Wirkungsgrad und verursacht damit weniger Energieverluste im Speicher. Diese Verluste müssen nicht durch VEE ausgeglichen werden, so dass sich auch der VEE-Ausbau reduziert. Wohl auf breiter Front ein Gewinn? Qualitativ ja, aber quantitativ marginal und über alles gesehen kein Gewinn, was wir noch sehen werden.

Die Kapazität des Langzeitspeichers wird rechnerisch lediglich um <0,3% kleiner. Da dieser Speicher sowieso großzügig bemessen werden muss, bedeutet das kein Gewinn. Der V2G-Speicher wird bei der Modellierung als erster Speicher zur Stabilisierung eingesetzt, bis er leer oder voll ist. Erst dann kommen andere Speicher (PSKW, P2L2P) zum Einsatz. Der Batteriespeicher liefert zeitlich selten Energie oder nimmt welche auf. Es sind nur ca. 19 % der 8.760 Jahresstunden. In der übrigen Zeit steht er entweder auf voll oder leer. Tatsächlich wird aber über das ganze Jahr Speicher für den Ausgleich zwischen Erzeugung und Verbrauch benötigt. In den 81% der Jahreszeit müssen das daher die anderen Speicher im System erbringen. 

Der erforderliche Ausbau der VEE fällt um 3,5 %. Aufgrund schwankender VEE-Ertragssituationen der Jahre, ist der VEE-Ausbau mit Sicherheiten zu versehen, also höher auszubauen, als es im Durchschnitt reichen würde. Dieser Zuschlag ist mit mehr als 50% zu veranschlagen [5]. Angesichts dessen sind die 3,5 % Ausbaueinsparung von keiner Bedeutung. Die Gesamtverluste, die sich aus den Verlusten in den Speichern und den Abregelungsverlusten zusammensetzen, reduzieren sich von 499 auf 451 TWh/a. Das sind immerhin 9 %. Diese Energie muss nicht unter Kostenaufwand mit VEE-Anlagen erzeugt werden. Also wenigstens hier ein spürbarer Vorteil?

Letztlich sind die Kosten das entscheidende Optimierungskriterium über alle Für und Wider. Dazu sehen wir uns den Vergleich durch die beiden Stromgestehungskosten an, die alle Kostenanteile enthalten:

Ohne V2G kommt die Modellierung zu 27,7 Ct/kWh und mit V2G auf 29,9 Ct/kWh. Der Unterschied von 2,2 Ct ist nicht gerade viel, aber bei 1.033 TWh/a sind das immerhin 22,7 Mrd.€/a. Hinzu kommen die Mehrkosten für die Ladeinfrastruktur mit grob geschätzten 4 Mrd.€/a [6]. Es entstehen also jährliche V2G-Mehrkosten von etwa 26 Mrd.€.

V2G ist unter Einbeziehung aller Kostenkomponenten zu teuer und technisch wird es komplizierter. Ich komme daher zum Fazit:

Es gibt weder volkswirtschaftliche noch technische Vorteile,
die für das Vehicle-to-Grid-Konzept sprechen.

Verweise:

[1] Sachbuch „Die Abrechnung mit der Energiewende“, Klaus Maier, Hardcover: ISBN 978-3-347-06790-5, Paperback: ISBN 978-3-347-06789-9

[2] Buch [1], Seite 306 ff

[3] Buch [1], Seite 396 ff

[4] Papier „Vor- und Nachteile des Vehicle-to-Grid-Konzepts – Wie sinnvoll ist die Integration von Batteriespeichern der E-PKWs in das Smart Grid“, Download: https://www.magentacloud.de/lnk/LtCIlfb8 

[5] Buch [1], Seite 336 ff

[6] Nimmt man eine öffentliche Ladestation inkl. Netzanschluss mit 4.000 € an und unterstellt, dass V2G ca. 10 Mio. mehr Ladestationen braucht, um die Wirksamkeit zu entfalten, entstehen etwa 40 Mrd.€ zusätzliche Investitionskosten. Bei 10% Betriebskosten wären das rund 4 Mrd.€/a.




EIKE Website ab kommenden Sonntag im Umbau!

Seit mehreren Monaten wird am Umbau der EIKE Website gearbeitet. Einerseits soll sie zwar einen hohen Wiedererkennungswert haben, andrerseits moderner wirken und sich besser überschauen lassen. Noch wichtiger aber ist, dass die neue Website pflegeleichter sein wird, denn die Website besteht aus dem Hauptthema und vielen, vielen sog. Plugins, welche die Arbeit im Redaktionsbereich aber auch im für Leser sichtbaren Bereich (frontend) erleichtern. Z.b. bei den Kommentaren.

All dies ließe sich rel. schnell verwirklichen, wenn man nicht auf die Vergangenheit Rücksicht nehmen müsste, heißt, alle bisherigen Artikel (mehr als 10.000) und alle Kommentare (fast als 220.000) sollen wieder aufrufbar bleiben. Nichts soll verloren gehen.

Das ist und war keine kleine Aufgabe, aber nun gibt es eine Lösung.

Wir ziehen ab 0.01 Uhr Sonntag dem 13.6.21 um. Die Webseite bleibt vermutlich bis Dienstag 15.06. 24:00 Uhr nicht erreichbar.

Wir hoffen auf gutes Gelingen und danken für Ihr Verständnis.




Solarparks: Ein giftiger Fleck in der Landschaft

Jeden Monat werden etwa 1.000 Hektar Agrarland für „Photovoltaik“-Paneele und die dazugehörigen kilometerlangen Verkabelungen vorgesehen.

Die Regierung gibt zu, dass mehr als ein Fünftel unseres Ackerlandes letztendlich für „grüne“ Initiativen wie diese verloren gehen wird.

Letzte Woche zählte die Mail on Sunday 270 Solarfarmen, die im ganzen Land im Bau sind oder auf eine Baugenehmigung warten.

Umweltlobbyisten argumentieren, dass Solarenergie ein entscheidender Teil einer nachhaltigen Zukunft ist, aber sie sprechen weniger über die wachsenden Zweifel, die von Wissenschaftlern und wütenden Gruppen von Anwohnern erhoben werden.

Denn abgesehen davon, dass sie die Landschaft ruinieren, sind Solarmodule auch noch erbärmlich ineffizient bei ihrer einzigen Aufgabe – nämlich Strom inmitten der Wolken und des Regens in Nordwesteuropa zu erzeugen.

Und dann ist da noch die Frage der Entsorgung.

Die Materialien, aus denen die Paneele hergestellt werden, haben eine Lebenserwartung von weniger als 50 Jahren und sind schwierig und teuer zu recyceln, was die Aussicht auf Berge von ausrangierten Paneelen erhöht, aus denen gefährliche Schwermetalle austreten.

Und da die Mehrheit der Paneele mittlerweile in China hergestellt wird, gibt es Befürchtungen – die nur allzu plausibel sind – dass einige in Zwangsarbeitslagern produziert wurden, einschließlich solcher, in denen Mitglieder der unterdrückten uigurischen Minderheit inhaftiert sind.

„Eine Stromversorgung, die immer sowohl unvorhersehbar und als auch intermittierend ist, ist nicht sinnvoll“, sagt Christopher Darwin.

In ein paar Jahren, wenn die Stromausfälle im Winter wie erwartet zunehmen, werden sich die Leute fragen, warum Solaranlagen auf dem Lande nur als teures Spielzeug betrachtet wurden.

Den Demonstranten hat sich der Schauspieler und Anwohner John Nettles angeschlossen, der in der Nähe ein kleines Grundstück besitzt.

Nettles, der durch seine Rollen in „Bergerac“ und „Midsomer Murders“ bekannt wurde, ist heute in einem Video zu sehen, in dem er die Ausbreitung von Solarfarmen und insbesondere die geplante Mega-Entwicklung in der Nähe des Dorfes Pyworthy anprangert.

„Genug ist genug“, sagt er. Die Menschen müssen das enorme Ausmaß und die visuellen Auswirkungen verstehen.

Das gigantische neue Projekt bei Derril Water würde die pastorale Landschaft in diesem Teil von Devon entweihen und in eine Industrielandschaft mit Solarzellen und Sicherheitszäunen verwandeln.

Es würde 164 Hektar Weideland für mindestens 40 Jahre ruinieren. Die Entscheidungsträger … haben es versäumt, den Kohlenstoff-Fußabdruck der Herstellung von 76.000 Solarpaneelen auf der anderen Seite der Welt zu berücksichtigen, die hierher transportiert und installiert werden.

„Sie sind einfach nicht Low Carbon“.

Das britische Wetter ist so ungeeignet, dass laut Berechnungen die meisten britischen Solarfarmen im Laufe eines Jahres nie mehr als 12 Prozent ihrer tatsächlichen Erzeugungskapazität erreichen werden.

Die Solarenergie trug im letzten Monat mickrige sieben Prozent zur Stromversorgung des National Grid bei, obwohl der April ungewöhnlich sonnig und trocken war. Im Dezember betrug der Beitrag der Solarenergie erbärmliche 0,67 Prozent der Gesamtmenge.

Dr. Benny Peiser, Direktor des Think-Tanks Global Warming Policy Foundation (GWPF), sagt, dass Solarenergie in diesem Land keinen Sinn macht und die vielen Meilen an Landschafts-Verschandelung wahrscheinlich mehr Schaden als Nutzen bringen.

„Es gibt einfach nicht genug Sonne! Vielleicht ist es in der Sahara, wo niemand lebt, sinnvoll, diese riesigen, kilometerlangen Solarpaneele zu haben. Aber in Großbritannien mache ich mir Sorgen über die unbeabsichtigten Folgen. Man müsste etwa fünf Prozent der gesamten Fläche Großbritanniens mit Solarzellen bedecken, um genug Energie zu erzeugen, um alles am Laufen zu halten – und das nur tagsüber. In der Nacht funktionieren sie natürlich nicht. Sie hinterlassen einen riesigen ökologischen Fußabdruck. Ein einziges Atomkraftwerk steht auf einem Quadratkilometer Land. Für Solarmodule, die die gleiche Energie erzeugen, bräuchte man 10.000 Mal mehr Platz – vielleicht sogar noch mehr.“ […]

Direkte staatliche Subventionen für Solarparks wurden 2019 eingestellt (obwohl frühere lukrative Vereinbarungen noch in Kraft sind).

Aber die Pachten von Solarparks übertreffen bei weitem die prekären Gewinne aus der konventionellen Landwirtschaft. Berichten zufolge verdienen Landbesitzer in Devon jedes Jahr bis zu 2.000 £ pro Acre mit Solaranlagen.

Einige Schafzüchter in der Grafschaft verdienen angeblich nur 6 Pfund pro Hektar.
Laut Dr. John Constable, Direktor der Renewable Energy Foundation, wird diese Kluft dank der Regierungsinitiative „Net Zero By 2050“ nur noch größer werden.

Bedrängte Landwirte haben erkannt, dass und wie sie einen Gewinn erzielen können – und beeilen sich, diesen Vorteil zu nutzen.

„Der Netto-Null-Trieb ist so unempfindlich gegenüber Kosten und Umweltschäden, dass eine Menge sehr seltsamer Dinge passieren“, sagt Dr. Constable.

Die Bremsen sind komplett gelöst. Es ist ein ungehemmter Bereich der Wirtschaft. Wir bereiten uns darauf vor, einen großen Teil des britischen Ackerlandes an ein zweitklassiges Stromsystem zu verlieren.

Wir haben eine wachsende Bevölkerung, so dass wir in ein paar Jahrzehnten zu 50 Prozent von importierten Lebensmitteln abhängig sein werden.

Ist das eine vernünftige Art, eine endliche Ressource zu nutzen, besonders nach dem Brexit? Es ist eine sehr merkwürdige Sache, das zu tun.

Und es könnte noch schlimmer kommen.

Dank eines Schlupflochs im Planungssystem glaubt Dr. Constable, dass Solarparks eine gute Möglichkeit für Entwickler sind, minderwertiges Ackerland in eine „Brachfläche“ zu verwandeln, die in Zukunft möglicherweise überbaut werden kann.

„Einige Landeigentümer betrachten dies als Nussknacker-Programm“, sagt Dr. Constable.

Ackerland ist meist vor Bebauung geschützt – außer für Solaranlagen.

Wenn Sie mehrere Tausend Hektar Land besitzen und gerne ein Gewerbegebiet hätten, ist Solar eine gute Möglichkeit, die Planungsnuss zu knacken.

Der ganze Beitrag steht hier.

Full story

Link: https://www.thegwpf.com/a-toxic-blot-on-the-landscape-solar-farms-are-ruining-views-and-causing-misery-for-residents/

Übersetzt von Chris Frey EIKE

 




 „2054 – Ein Jahr im Paradies der Genügsamkeit“ – dystopischer Blick in  eine Zukunft, die durchaus die unsrige werden könnte

Nach dem Urteil des Bundesverfassungsgerichts vom 29.04.2021, in dem es heißt:

„Künftig können selbst gravierende Freiheitseinschränkungen zum Schutz des Klimas verhältnismäßig und verfassungsrechtlich gerechtfertigt sein.“

verlegte der Autor das Jahr der Handlung in seinem Buch um zehn Jahre nach vorn. Er hatte erkannt, dass diese vorauseilende höchstrichterliche Legitimation einer künftigen Ökodiktatur zu einem beschleunigten Eintreten der Zustände führen würde, die er in seinem Roman beschreibt. Dessen spannende Handlung spielt nach der „Großen Transformation“ in einer Gesellschaft, die Bedürfnislosigkeit zu einer hohen Tugend und Armut zur allgemeinverbindlichen Pflicht erklärt hat. Eine korrupte Oligarchie von Politeliten kaschiert ihren totalen Machtanspruch durch inflationären Gebrauch des Begriffes „demokratisch“. Weil in dem geschrumpften Wirtschaftssystem nur noch wenige gebildete Menschen benötigt werden, ist die allgemeine Schulpflicht auf vier Jahre reduziert worden. Die junge Mathematiklehrerin Carlotta Bernbach versucht an der Primarschule, lernunwilligen Kindern ein paar Grundkenntnisse des Rechnens beizubringen – eine Tätigkeit, die mit Raubtierdressur vergleichbar ist. Dabei hegt sie die verzweifelte Hoffnung auf Versetzung an eine weiterführende Schule. Doch die Aussicht darauf droht an ihrer Weigerung zu zerbrechen, sich eine Carbocard implantieren zu lassen.

Diese Dystopie ist außergewöhnlich, weil sie nicht nur das beklemmende Bild einer aus vielfältigen Gründen verarmten Gesellschaft im Jahr 2054 zeichnet, sondern auch überzeugend deren zwangsläufige Entwicklung aus der heutigen Situation beschreibt. Das Gesellschaftsbild in „2054“ ist detailreich und sorgfältig gemalt; der Autor hat darin sogar die für eine gendergerechte Sprache „unabdingbare neue Grammatik“ entworfen, die der  „Sprache unserer demokratischen Zukunft eine bislang ungeahnte Klarheit und linguistische Ästhetik verleihen wird“.

Das überaus lesenswerte, leider auch traurig niederschmetterndes Buch ist unter www.kaleidoscriptum-verlag.de für 16,80 € erhältlich.

Hier ein paar Leseproben daraus.

 

 

 

 




Eine realisierbare Alternative zur chinesischen Mineralien-Hegemonie

(Ganz zu schweigen davon, dass sie für unsere Verteidigungs- und Luft- und Raumfahrttechnologien von entscheidender Bedeutung sind … und das alles auf der Grundlage dessen, was ich als hochgradig orchestrierte, betrügerische, gefälschte Angstmacherei vor der globalen Erwärmung betrachte. – D. F.).

„Aber das ist eindeutig nicht der Fall. Amerika ist immer noch abhängig von China und anderen oft weniger-als-freundliche Quellen für etwa 80% dieser wesentlichen Rohstoffe – und diese unhaltbare Situation wird immer schlimmer  – vor allem, weil diese Beamten und ihre verbündeten Umweltschützer energisch Exploration und Bergbau in den USA  unterdrücken wollen. Das trifft auch für die benötigten Materialien zu, die ihre ‚erneuerbare‘ Energie-Utopie überhaupt möglich machen würden.

In diesem Artikel stellt Duggan Flanakin die nackte Realität in einer Weise dar, die zum Handeln anspornen sollte. Ob er das tun wird, bleibt abzuwarten.“

Soweit Paul Driessen

Der lange und verschlungene Weg zum Aufbau einer Lieferkette Seltener Erden in der Freien Welt

Ausgelöst durch einen weltweiten Mangel an Chips, der sich bereits auf die Automobilproduktion auswirkt, unterzeichnete Präsident Biden im Februar eine Exekutivanordnung, die eine 100-tägige umfassende Überprüfung der Lieferketten für kritische Materialien für Halbleiter und Batterien mit hoher Kapazität, einschließlich der Seltenen Erden, anordnet. Sie baut auf Analysen, Berichten und Verordnungen auf, die vor einigen Jahren von der Trump-Regierung initiiert worden waren.

Die nackte Wahrheit, die dieser Rückblick hervorheben soll ist, dass die USA und ihre westlichen Verbündeten in einem Wettlauf, den nur China erkannt zu haben scheint, am Start zurückgelassen wurden.

Die Chinesen haben schon vor Jahrzehnten mit dem Aufbau ihrer heute dominierenden Lieferkette begonnen. Die USA waren zu 100 % auf Nettoimporte von Seltenen Erden angewiesen, wobei 80 % dieser Importe aus China stammten.

Der Berater für Technologiemetalle Jack Lipton hat fünf Schritte in einer vollständigen Lieferkette für Seltene Erden beschrieben. An erster Stelle steht der Bergbau, gefolgt von der Extraktion der Seltenen Erden aus den Bergbaukonzentraten und der Herstellung von sauberen, gemischten Seltenen-Erden-Produkten vor der PLS (pregnant leach solution). (Tatsächlich gibt es noch einen weiteren Schritt, der dem Abbau vorausgeht, zumindest in den westlichen Ländern – die Einholung der Abbaugenehmigung – und das ist oft der schwierigste und zeitaufwendigste Schritt von allen).

Bergbauunternehmen führen typischerweise diese beiden Schritte durch, und manchmal auch den dritten – die Trennung der gemischten Seltenen Erden in einzelne Oxide und Mischungen. Spezialisierte kleinere Unternehmen übernehmen typischerweise Schritt 4, die Herstellung von chemischen Produkten (wie Phosphor und Katalysatoren) und einzelnen Metallen und Legierungen, sowie Schritt 5, die Herstellung von Seltene-Erden-Dauermagneten aus Seltene-Erden-Legierungen.

China kontrolliert heute etwa 80 % der weltweiten Seltene-Erden-Produktionskapazitäten, 43 % der Exporte und fast 90 % der Raffinierung. Keine andere Nation verfügt heute über eine funktionierende komplette Seltene-Erden-Lieferkette. Das bedeutet, dass die USA und ihre westlichen Verbündeten einen großen Nachholbedarf haben; die westlichen Nationen haben es auch versäumt, strategische Strategien für Seltene Erden zu entwickeln und umzusetzen.

Ein Grund für diese strategischen Versäumnisse ist die starke Opposition gegen den Bergbau und insbesondere gegen das Wort „radioaktiv“ (für Seltene-Erden-Vorkommen, die mit Thorium und Uran in Monazit-Erzen verbunden sind) seitens der Wählerschaft, die gegen umweltschädliche Bergbaupraktiken ist.

Der Energieberater David Blackmon behauptete kürzlich: „Es wird keine erfolgreiche ‚Energiewende‘ oder ‚Green New Deal‘-Umsetzung in den Vereinigten Staaten geben“, wenn es den Unternehmen nicht erlaubt wird, auf die reichhaltigen Vorräte des Landes an Kupfer, Nickel, Kobalt und Seltenen Erden zuzugreifen. Dennoch, so beklagt er, sind die schärfsten Befürworter von Dekarbonisierung und erneuerbaren Energien oft die schärfsten Gegner des heimischen Abbaus dieser kritischen Mineralien.

[Hervorhebung vom Übersetzer]

Die ablehnende Haltung gegenüber dem Bergbau ist nach wie vor erheblich, vor allem bei Umweltgruppen und Fachleuten in den Aufsichtsbehörden. In einem kürzlich erschienenen Artikel wurde zum Beispiel darauf hingewiesen, dass Offshore-Windturbinen, die für Präsident Bidens Forderung nach 30.000 Megawatt Strom aus Offshore-Wind bis 2030 unerlässlich sind, 63.000 Pfund Kupfer pro Turbine benötigen – 8 Tonnen Kupfer pro Megawatt Energieertrag.

Die Weltkupferpreise stiegen im Mai auf ein Allzeithoch von 10.440 $ pro Tonne, eine Zahl, die vielleicht durch die Entscheidung der Biden-Administration begünstigt wurde, die Genehmigung für zwei große US-Kupferminen – das Rio Tinto/BHP Group Resolution Copper Joint Venture in Arizona und die PolyMet NorthMet Kupfer-Nickel-Edelmetall-Mine in Minnesota – auszusetzen. Bemerkenswert ist, dass PolyMet seine Suche nach Genehmigungen vor 17 Jahren begann, nachdem es im Jahr 2000 die Mineralrechte für die NorthMet-Lagerstätte gepachtet hatte.

Dieser träge Ansatz in der Energie- und Materialpolitik kann nicht Bestand haben, wenn die USA zuverlässige, erschwingliche Lieferketten für kritische Materialien aufbauen wollen. Brian Menell, Vorsitzender und CEO von TechMet, erklärte kürzlich: „Um im Energie- und Automobilbereich führend zu bleiben, müssen die USA eine ausreichende Versorgung mit den Metallen sicherstellen, die für die industrielle Revolution des 21. Jahrhunderts notwendig sind.“

Menells Firma „baut Projekte, die ‚Technologiemetalle‘ produzieren, verarbeiten und recyceln, die für Elektrofahrzeuge, erneuerbare Energiesysteme und Energiespeicher entscheidend sind.“ Er forderte die [US-]Bundesregierung auf, mit dem privaten Sektor zusammenzuarbeiten, um die Lieferketten zwischen Partnern und Verbündeten zu verbessern. Er forderte eine „massive Finanzierung“, um die US-Industrie für kritische Metalle umzugestalten und die globale Produktion hochzufahren, um den geometrisch wachsenden Bedarf zu decken.

Es gibt ein Gefühl der Dringlichkeit in Menells Kommentaren, das von Andrew Miller, Produktdirektor bei Benchmark Mineral Intelligence, bestätigt wird. Miller sagte gegenüber NPR’s Marketplace, dass man zwar „eine neue Fabrik für Elektrofahrzeuge in ein paar Jahren bauen kann“, aber „um die Verarbeitung einer neuen Rohstoffanlage zu finanzieren, zu starten und zu verfeinern, braucht man fünf bis sieben Jahre“. Und das auch nur bei einem beschleunigten Genehmigungsverfahren, das den Widerstand von Bürgern und Bürgerinitiativen aushebelt.

In einer vierteiligen Serie über die chinesische Dominanz in der Seltene-Erden-Industrie erklärten Jamil Hijazi und James Kennedy, dass China seine Seltene-Erden-Industrie als Teil einer sorgfältig ausgearbeiteten nationalistischen Strategie zur Weltherrschaft aufgebaut hat, die nicht durch das Streben nach privaten Profiten motiviert ist.

[Hervorhebung vom Übersetzer]

Jetzt, mit ihrer Marktanteilsdominanz, „nutzt China undurchsichtige Subventionen, um jegliches Gewinnpotenzial für Wettbewerber auszuschalten. Kein Gewinnpotenzial, keine Wettbewerber, Chinas metallurgisches Monopol bleibt sicher und unangefochten.“ Noch entmutigender ist, dass der Mangel an nicht-chinesischen Verarbeitungs-, Raffinierungs- und Metallurgiekapazitäten bedeutet, dass die Welt China ihr geringwertiges Erz-Konzentrat verkauft und China viel höherwertige Endprodukte zurück verkauft.

Menell weist darauf hin, dass Chinas Dominanz bei Seltenen Erden „das Ergebnis jahrzehntelanger erfolgreicher zentraler Planung ist, um die Mineralien zu sichern, die für die Entwicklung von Technologien in strategischen Sektoren wie Energie, Auto und Verteidigung benötigt werden.“

Präsident Bidens Executive Order, die das Konzept belastbarer, vielfältiger und sicherer Lieferketten unterstützt, ist sicherlich bewundernswert. Dennoch, so Menell, müssen die Vereinigten Staaten die Versorgung mit kritischen Mineralien zu einem zentralen Bestandteil sowohl der Innen- als auch der Außenpolitik machen.

Menell merkt an, dass die Biden-Administration auch die amerikanische Öffentlichkeit darüber aufklären muss, dass der Abbau und die Verarbeitung von kritischen Materialien von amerikanischen Firmen mit viel geringeren Umweltauswirkungen durchgeführt werden kann als von chinesischen Firmen und dass Amerikas wirtschaftliches Wohlergehen stark von einer integrierten Wertschöpfungskette für Seltene Erden abhängt.

„Die Vereinigten Staaten können es sich nicht leisten, bei der bedeutendsten Transformation der globalen industriellen und technologischen Landschaft seit der Erfindung der Dampfmaschine ein Zuschauer zu sein“, betonte Menell.

Wenn die USA – und andere westliche Nationen – nicht mutig und kontinuierlich handeln, werden sie dazu verdammt sein, sich Chinas eisernem Griff auf die Technologie des 21.
Jahrhunderts zu unterwerfen.

Unangefochten könnte China sein Imperium nach Süden und Osten ausdehnen, während westliche Stimmen durch ihre völlige Abhängigkeit von der chinesischen „Großzügigkeit“ bei der Lieferung von Materialien für Smartphones, Windturbinen, Elektrofahrzeuge, Verteidigungs- und Raumfahrttechnologien mehr und mehr verstummen. China könnte auch weiterhin US-amerikanische und andere westliche Unternehmen dazu zwingen, ihre wertvollsten Unternehmens- und nationalen Sicherheitsgeheimnisse und sogar ihre Gewinne mit ihren chinesischen „Wohltätern“ zu „teilen“.

Duggan Flanakin is director of policy research at the Committee For A Constructive Tomorrow (www.CFACT.org). He began his career as chief editor for scientific research at the U.S. Bureau of Mines.

Link: https://www.iceagenow.info/35616-2/

Übersetzt von Chris Frey EIKE

 




Kältestes „Sommer“-Wochenende jemals in Atlantic City

Im Südosten New Jerseys herrschten am Memorial-Day-Wochenende rekordverdächtig niedrige Temperaturen. Der Atlantic City International Airport verzeichnete sowohl am Samstag als auch am Sonntag die niedrigsten jemals gemessenen Tageshöchsttemperaturen.

Wie pressofatlanticcity.com berichtet, entsprachen die Höchsttemperaturen von 12 Grad während des „megteorologischen Sommeranfangs“ den mittleren Werten für März und waren die kältesten, die in Wetterbüchern seit 1943 aufgezeichnet worden waren.

In der S. Farley Marina in Atlantic City [einem Freizeitzentrum] wurden am Samstag und Sonntag Tageshöchstwerte von nur 13 Grad gemessen.

Am Sonntag war auch ein neuer Tiefstwert aufgetreten in einer Reihe, die in der Marina bis ins Jahr 1874 zurückreicht.

Millville brach auch einen Rekord für die niedrigste Maximaltemperatur am Sonntag – das Thermometer kletterte auf nur 11 Grad.

Nach Recherchen von The Press of Atlantic City war es das kühlste Samstag- und Sonntagswochenende während der „Sommer“-Saison – die vom Freitag vor dem frühestmöglichen Memorial Day, dem 22. Mai, bis zum spätestmöglichen Labor Day, dem 7. September, für A.C. Airport und Millville reicht.

In den Vereinigten Staaten hat das Jahr bisher insgesamt 19.510 neue tägliche KÄLTE-Rekorde im Vergleich zu nur 15.291 für HITZE-Rekorde geliefert – und das laut den Alarmisten der NOAA mit ihrer Historie der Datenmanipulation.

Außerdem sind insgesamt 921 monatliche KÄLTE-Rekorde gefallen gegenüber nur 365 für die HITZE.

Und noch bezeichnender ist, dass in diesem Jahr insgesamt 222 KÄLTE-Rekorde gefallen sind, gegenüber nur einem für WÄRME.

Die leichte Erwärmung, die in den letzten Jahrzehnten beobachtet wurde, kann auf die hohe Sonnenaktivität zurückgeführt werden.

In den letzten Jahren ist die Sonnenaktivität jedoch (relativ) stark zurückgegangen, und jetzt, nach einer Verzögerung von etwa zehn Jahren, reagieren die globalen Temperaturen darauf.

Alle offiziellen Datensätze greifen die starke Abkühlung auf, die seit 2016 beobachtet wurde, denn im Gegensatz zur AGW-Theorie ist dies keine Fantasie, und wir können getrost reale Beobachtungen verwenden, um eine Abkühlung des Planeten zu unterstützen – es sind keine peinlichen, unlogischen Erklärungen notwendig.

Trends ändern sich (sorry IPCC).

Das Klima ist zyklisch, niemals linear (such dir ein anderes Steckenpferd, Greta).

Und es wird jetzt immer schwieriger für die Regierungsbehörden, die sich verstärkende globale Abkühlung zu verbergen/zu erklären. Die NOAA und die NASA haben alle Tricks der Datenfälschung, des Ignorierens von UHI und der Rosinenpickerei angewandt, die sie haben, aber ihre globalen Temperaturdaten zeigen immer noch eine deutliche ABKÜHLUNG.

Die beiden Diagramme unten zeigen den berechneten linearen jährlichen globalen Temperaturtrend für die letzten 5, 10, 20, 30, 50, 70 oder 100 Jahre, mit freundlicher Genehmigung von climate4you.com.

Das erste Diagramm zeigt die Satelliten-Temperaturtrends für die am häufigsten zitierten UAH- und RSS-Datensätze:

Diagramm, das den jüngsten linearen jährlichen globalen Temperaturtrend über 5, 10, 20 und 30 Jahre zeigt, berechnet als Steigung der linearen Regressionslinie durch die Datenpunkte, für zwei satellitenbasierte Temperaturschätzungen (UAH MSU und RSS MSU). Letzter in die Analyse einbezogener Monat: Januar 2021.

Die zweite Grafik zeigt die Oberflächentemperaturaufzeichnung für GISS, NCDC und HadCRUT4:

Diagramm, das den letzten linearen jährlichen globalen Temperaturtrend über 5, 10, 20, 30, 50, 70 und 100 Jahre zeigt, berechnet als Steigung der linearen Regressionslinie durch die Datenpunkte, für drei oberflächenbasierte Temperaturschätzungen (HadCRUT4 und GISS + NCDC). Letzter in die Analyse einbezogener Monat: Januar 2021.

Beachten Sie den starken Abkühlungstrend, der von allen fünf Datensätzen in den letzten fünf Jahren beobachtet wurde.

Beachten Sie auch den Unterschied zwischen satelliten- und oberflächenbasierten Temperaturen, wobei die zuverlässigeren Satelliten einen größeren Temperaturrückgang anzeigen.

Das Diagramm unten zeigt den für die letzten 5 Jahre berechneten Trend:


Eindeutig ist erkennbar, dass die mittlere Temperatur der Erde während der letzten paar Monate im Sinkflug begriffen ist.

Weitere Details gibt es hier.

Link: https://electroverse.net/coldest-summer-weekend-on-record-in-atlantic-city/

Übersetzt von Chris Frey EIKE




Der „Neue Stillstand“ verlängert sich um weitere 2 Monate auf nunmehr 6 Jahre 2 Monate

HadCRUT4 hat nach einigem Hin und Her seinen monatlichen Datensatz mit drei Monaten neuer Daten aktualisiert, was uns bis März 2021 bringt. Der neue Stillstand in den HadCRUT4-Daten hat sich auf 7 Jahre und 1 Monat verlängert:

Wie haben sich nun also die Daten der realen Welt im Vergleich zu den Prophezeiungen der Modelle gemacht, wie sie vom IPCC (1990) verbreitet worden waren? Die IPCC-Prophezeiung sah so aus:

Da die Vorhersage des IPCC von 1,8 C° anthropogener Erwärmung mit der vorindustriellen Temperatur verglichen wird, muss man die HadCRUT4-Erwärmung von 0,54 C° von 1850 bis April 1991 abziehen. Die Vorhersage des IPCC belief sich also auf 1,26 C° bis 2030.  UAH zeigt jedoch nur 0,46 C° in 30 Jahren, was etwa 0,61 C° bis 2030 entspricht, wovon 70%, also nur 0,43 C°, anthropogen sind (Wu et al. 2019):

Daher hat sich die Vorhersage des IPCC aus dem Jahr 1990, auf der die Angst vor der globalen Erwärmung beruhte – die von Professor Lindzen in einem ausgezeichneten Vortrag vor kurzem zu Recht als „absurd“ bezeichnet wurde – als eine fast dreifache Übertreibung im Vergleich zur nüchternen Realität erwiesen.

Hier ist der Grund dafür. Die heutige globale mittlere Oberflächentemperatur beträgt 288,6 K, bestehend aus 255,2 K Emissionstemperatur und 33,4 K Treibhauseffekt. Die 33,4 K setzen sich zusammen aus 7,2 K direkter Erwärmung durch natürliche (6,2 K) und anthropogene (1 K) Treibhausgase und 26,2 K Rückkopplungseffekt. Von diesen 26,2 K sind 25,5 K Rückkopplungsreaktion auf die Emissionstemperatur und 0,7 K auf die direkte Erwärmung durch Treibhausgase. Von diesen 0,7 K sind 0,6 K Rückkopplungsreaktion auf natürlich vorkommende und 0,1 K auf anthropogene Treibhausgase.

Der heutige System-Gain-Faktor, das Verhältnis der Gleichgewichtstemperatur nach der Rückkopplung zur Referenztemperatur vor der Rückkopplung, beträgt also 288,6 / (255,2 + 7,2), also 1,1. Die Referenzsensitivität gegenüber verdoppeltem CO2 ist das Produkt aus dem 3,52 W/m² verdoppelten CO2-Antrieb (Zelinka et al. 2020) und dem Planck-Parameter 0,3 K/Wm²: also 1,05 K. Die Gleichgewichts-Sensitivität gegenüber verdoppeltem CO2, das Produkt aus 1,05 K und dem System-Gain-Faktor 1,1, beträgt also etwa 1,15 K – das entspricht in etwa der anthropogenen globalen Erwärmung, die wir über das gesamte 21 Jahrhundert erwarten können.

Folglich ist die mittlere mittlere Vorhersage von 3,9 K in den Modellen der neuesten Generation (CMIP6) (Zelinka et al. 2020) eine mehr als dreifache Übertreibung, die auf der Vorstellung der Klimaforscher beruht, dass es keine Rückkopplung auf die Emissionstemperatur gibt. Ihr Systemverstärkungsfaktor 26,2 / 6,2, also 4,2, übersteigt den realen Wert von 1,1 fast um das Vierfache.

Kommt schon, Leute! Wann merkt ihr endlich, dass die Sonne scheint? Es ist die Sonne, die für fast alle Rückkopplungsreaktionen im heutigen Klima verantwortlich ist. Referenz- und Gleichgewichts-Sensitivität sind ungefähr gleich, und man kann die Rückkopplungsreaktion bei der Ableitung der Gleichgewichts-Sensitivität ohne signifikanten Fehler ganz vernachlässigen. Referenzsensitivitäten sind alles, was man braucht. Und damit ist der Klimanotstand beendet.

Link: https://wattsupwiththat.com/2021/06/02/the-new-pause-lengthens-by-another-2-months-to-6-years-2-months/

Übersetzt von Chris Frey EIKE

 




Schon wieder: Elektrobusse und Hybridfahrzeuge der ÜSTRA in Hannover brennen lichterloh

Wie die Faus aufs Auge: Fast am selben Tag unseres E-Brand-Artikel überschlugen sich in unserem Kommentarbereich die Nachrichten über den Großbrand in Hannover. Das Busdepot der ÜSTRA (Überlandwerke und Straßenbahnen Hannover AG), in einem Wohngebiet mit Kleingärten gelegen, stand in Flammen, weil sich vermutlich in der Ladestation befindliche nagelneue Elektrobusse entzündeten. Fünf E-Busse, zwei Hybriden und zwei Verbrenner sind zerstört; außerdem die Halle und die Ladestation. Der Schaden geht in die Millionen.

Die Verwaltung von Hannover will im Innenstadtbereich bis 2023 nur noch E-Busse fahren lassen und dafür 50 neue Fahrzeuge anschaffen. Das ist eigentlich sinnvoll, weil so die Luftverschmutzung in der engen Altstadt teilweise ausbleibt. Eigentlich, denn die ersten fünf angeschafften Exemplare sind nun verbrannt. Was mag den nächsten 45 Fahrzeugen passieren?

Wie ich schon schrieb: Niemals E-Busse eng nebeneinander parken! Aber geht das in einem Depot? Man will die Fahrzeuge ja überdachen und schnell nacheinander an die Ladestation heranfahren. Das kann man sich aus Sicherheitsgründen nun wohl abschminken; was mehr Platzbedarf und Arbeit bedeutet. Vor allem: Lädt der Bus an der Station, sollte in Zukunft immer ein Stadtwerker (in E-Isolierung) mit Kühltechnik und Wasserspritze daneben stehen. Alternativ könnte die Feuerwehr einen Löschzug dauerhaft im Depot parken……

Aktualisierung: Leser Klaus Öllerer weist auf eine Quelle hin:

Wie eine Nachfrage bei der ÜSTRA ergab bleiben derzeit alle Elektrobusse vom Linienverkehr ausgeschlossen. Da die Ursache für den Großbrand (05.06.2021) im Busdepot noch nicht ermittelt ist, müssen Akkus als mögliche Auslöser einbezogen werden.

Damit ist ein heikles Thema in den Fokus der Ermittlungen gerückt. Die Akkus von Elektrofahrzeugen gelten als mögliche, gefährliche Brandquelle. Ein Feuerausbruch ist unvorhersehbar, erscheint gar wie zufällig. Ein diesbezüglicher Fortschritt gegenüber Benzin- und Dieseltanks ist nicht erkennbar.