1

Nach dem zweiten Corona-Frühling: CO2-Konzen­tration steigt trotzdem überdurch­schnittlich

Die folgende Grafik veranschaulicht die Differenzen der CO2-Konzentrationen Frühling minus Frühling des Vorjahres seit 1989/90. Im Zeitraum 1990 bis 2020 stieg diese im Mittel um 1,97 ppm. Man beachte die überdurchschnittliche Zunahme in den Corona-Frühjahren 2020 mit 2,64 ppm und 2021 mit 2,44 ppm. Offenbar sind CO2-Einsparungsmaßnahmen nahezu wirkungslos. Man beachte ferner, dass die Zirkulationsverhältnisse, die Aktivität des Pflanzenwachstums, das Bodenleben, der Vulkanismus sowie die Meeresoberflächentemperaturen die CO2-Konzentrationen maßgeblich beeinflussen. Der relativ deutliche La Nina 2020/21 hat vermutlich eine noch stärkere Konzentrationszunahme verhindert.




Fact Checking the Fact Checkers

Am Earth Day diesers Jahres veröffentlichte die Washington Times ein Op-Ed von mir mit der Überschrift „There is noclimate emergency – We love CO2 and so should you .” Nicht lange nach der Veröffentlichung wurde der Facebook-Post der Zeitung zu dem Kommentar als „falsch und irreführend“ bezeichnet und ihre Anzeige dafür abgelehnt. Grundlage dafür war ein ausführlicher „Faktencheck“ mit dem Titel „Washington Times presents list of false and misleading statements about the impacts of CO2 and climate change“ von Climate Feedback (CF). Er wurde von acht Wissenschaftlern verfasst, und bei genauer Durchsicht ihres „Faktenchecks“ wurde klar, warum sie nicht als „Experten“ bezeichnet wurden.

Um diese Kritik zu widerlegen, habe ich sechs der weltweit besten Experten auf verschiedenen Gebieten, die mit dem Klimawandel zu tun haben, gebeten, die Aussagen der Gutachter von Climate Feedback auf ihre Richtigkeit und Gültigkeit zu überprüfen. Alle von mir befragten Wissenschaftler sind Mitglieder der CO2 Coalition, einer gemeinnützigen wissenschaftlichen Koalition mit Sitz in Arlington, Va. Alle sind sich einig, dass es keinen vom Menschen verursachten Klimanotstand gibt.

Da viele der Abschnitte doppelte Aussagen enthalten, die verschiedene vermeintlich „falsche“ Behauptungen und Aussagen in meinem Kommentar zu sehen behaupten, habe ich sie auf elf primäre Aussagen von vermeintlichen „Tatsachen“ destilliert, die verwendet werden, um den Op-Ed zu „entlarven“. Climate Feedback-Behauptungen und Zitate sind in rot.

In jedem Fall stellen wir fest, dass die Kritiker von Climate Feedback die Wissenschaftler sind, die verworrene, irreführende und falsche Informationen liefern.

CF Behauptung #1: Wrightstone versäumt es, Interessenkonflikte offenzulegen

CF: Der gesponserte Artikel versäumt es, Interessenkonflikte offen zu legen. Wie Kerr gegenüber Climate Feedback sagte: „Gregory Wrightstone ist ein Fachmann in der Branche der fossilen Brennstoffe. Er arbeitet an Schiefergas und -öl im Appalachen-Becken.

Antwort 1 – Gregory Wrightstone

Das ist sachlich und eklatant falsch (obwohl, wenn es wahr wäre, würde es keine Rolle spielen). Ich bin nicht im Energiesektor beschäftigt. Ich erhalte keinerlei Gelder von der Industrie für fossile Brennstoffe.  Wenn die Autoren diesen grundlegenden „Fakt“ falsch verstehen, wie können wir uns dann auf spätere Aussagen über „Fakten“ verlassen. Mehrere der Gutachter von Climate Feedback haben definitiv nicht offengelegte Interessenkonflikte, darunter Amber Kerr, die eine bezahlte Beraterin für Carbon Direct ist, eine Beratungsfirma, die Unternehmen in Bezug auf Kohlenstoffkompensationen berät. Ich bezweifle, dass sie lange in dieser Funktion beschäftigt wäre, wenn sie irgendeine Wissenschaft produzieren würde, die die „Konsens“-Meinung zum Klimawandel bestreitet.

CF-Behauptung Nr. 2: Kontinente in Äquatornähe waren in der Vergangenheit zu heiß, um Leben zu beherbergen.

Während eines Teils der alten Geschichte waren Kontinente in der Nähe des Äquators zu heiß, um Leben zu beherbergen (Amber Kerr)

Antwort 2a: Gregory Wrightstone

Dr. Kerrs Aussage, dass Kontinente in der Nähe des Äquators zu heiß waren, um zu irgendeinem undefinierten Zeitpunkt in der Erdgeschichte Leben zu beherbergen, wird durch keine Referenz oder Quelle von ihr unterstützt. Keiner unserer angesehenen Wissenschaftler bei der CO2-Coalition hat jemals von einer solchen Behauptung gehört und wir können keine unterstützenden Beweise finden, um dies zu belegen. Wenn man eine Aussage macht, die weit außerhalb des Mainstream-Denkens liegt, obliegt es dem die Behauptung Erhebenden, eine seriöse Quelle anzugeben. Darüber hinaus scheinen sie und mehrere der anderen Autoren von Climate Feedback in diesem und in späteren Abschnitten nicht zu wissen, dass die Erwärmung durch Treibhausgase hauptsächlich die höheren Breiten und die Pole betrifft, mit stark verminderten Auswirkungen in der Nähe des Äquators (Lindzen 1997).

Im Gegensatz zu ihrer Behauptung, dass extreme Hitze in der Zukunft zu Temperaturen führen könnte, die zu heiß sind, um Leben zu erhalten, befinden sich einige der bevölkerungsreichsten Städte der Welt heute in Gebieten mit den höchsten Temperaturen wie Indien, Indonesien und Afrika südlich der Sahara.

Es ist anzumerken, dass der den Äquator überspannenden Kontoinents Afrika zwei Wüstenregionen beherbergt, in denen es heute fast kein Leben mehr gibt. Beide befinden sich etwa 30 Grad nördlich (Sahara) und südlich (Kalahari und Namib) des Äquators. Beachten Sie, dass der Äquator in den äquatorialen Regenwäldern üppige und blühende Ökosysteme beherbergt, genau das Gegenteil von dem, was Frau Kerr behauptet. Das Fehlen von Leben in den Wüstengebieten und der Überfluss an Leben am Äquator werden nicht durch Veränderungen im CO2 angetrieben, sondern durch hohe Niederschläge bzw. das Fehlen derselben durch das Aufsteigen (nass) und Absinken ([1] trocken) der Hadley-Zellen.

Antwort 2b: Dr. Patrick Moore – Ph.D. in Ökologie, Mitbegründer von Greenpeace, Direktor CO2-Coalition
Dr. Kerrs Aussage ist einfach nur lächerlich und unbegründet. Einige der reichsten Artenvielfalt im Ozean, einschließlich Korallen und Fischen, findet man heute in den wärmsten ozeanischen Gewässern im indonesischen Archipel. Wärme ist besser für viele Arten von Meeresleben.

CF-Behauptung Nr. 3: Die heutigen Temperaturen sind höher als alle in den letzten 12.000 Jahren

Wrightstone behauptet, dass unsere aktuellen globalen Durchschnittstemperaturen nur dann bemerkenswert sind, „wenn man sich auf die letzten 150 Jahre oder so beschränkt.“ Das ist nicht korrekt. Das vorherrschende Verständnis in der Paläoklimatologie ist, dass unsere aktuellen globalen Durchschnittstemperaturen die höchsten seit vor der letzten Eiszeit vor mehr als 12.000 Jahren sind[9]. (Amber Kerr)

Antwort 3: Gregory Wrightstone

Dr. Kerrs Behauptung, dass „das vorherrschende Verständnis in der Paläoklimatologie“ von höheren aktuellen Temperaturen als im gesamten Holozän (12.000 Jahre) ausgeht, ist offenkundig falsch. Fast alle in der Paläoklima-Gemeinschaft auf beiden Seiten des Themas stimmen darin überein, dass es vor 6.000 bis 8.000 Jahren eine viel wärmere Periode gab, darunter auch Dr. Michael Mann, die NASA und das IPCC. Genau die von Kerr zitierte Studie unterstützt diesen Gedanken nicht und wird im nächsten Abschnitt ausführlich beschrieben. Die überwiegende Mehrheit der Paläoklimastudien stimmt darin überein, dass es während der jüngsten Wärmeperiode, bekannt als die mittelalterliche Warmzeit, wärmer war als heute, einschließlich Zusammenfassungen von mehr als 1.000 Arbeiten, die hier und hier sowie in der folgenden Abbildung 1 dokumentiert sind:

Abbildung 1 – Die Überprüfung von >1.000 Studien bestätigt mehrheitlich, dass die mittelalterliche Warmzeit wärmer war als die heutige. Modifiziert von Lüning (2020)

Zur Unterstützung ihrer Behauptung, dass die gegenwärtigen Temperaturen höher sind als alle in den letzten 12.000 Jahren, verweist Amber Kerr auf Kaufman (2020), eine globale Multi-Proxy-Paläo-Temperaturrekonstruktion. Der Teil der Studie, der sich mit dem Paläoklima befasst, ist hervorragend und zeigt die hohen Temperaturen des holozänen Optima mit tausenden von Jahren abnehmender Temperatur. In der Zusammenfassung hat Kaufman moderne Instrumentendaten mit den Paläoklimadaten zusammen gefügt, aber er hat ausdrücklich davor gewarnt, die beiden zu vergleichen, wie es Dr. Kerr hier getan hat.

In diesem Papier wird nicht behauptet, dass die Paläoklimaaufzeichnungen zeigen, dass unsere aktuellen globalen Durchschnittstemperaturen die höchsten seit der letzten Eiszeit sind. Kaufman warnt davor, seine niedrig aufgelösten Proxydaten mit hochauflösenden modernen Instrumentendaten zu vergleichen, indem er angibt, dass „die meisten Paläotemperatur-Zeitreihen zeitlich nicht ausreichend aufgelöst sind, um sie sinnvoll mit instrumentenbasierten Beobachtungen zu vergleichen“ und „2000 Jahre lange Aufzeichnungen eine Brücke zwischen den insgesamt niedriger aufgelösten Zeitreihen dieser Datenbank und den hochdetaillierten, aber relativ kurzen instrumentenbasierten Aufzeichnungen des Klimas darstellen.“ Und schließlich: „Die Auflösung der Paläoklima-Proxydaten über die letzten 12.000 Jahre beträgt etwa 150 bis 200 Jahre. Globale instrumentelle Daten messen Temperaturen stündlich und täglich, die dann für die monatliche und jährliche Darstellung gemittelt werden.  Für einen fairen Vergleich müssten die instrumentellen Aufzeichnungen über einen Zeitraum von 150-200 Jahren gemittelt werden. Mit anderen Worten, man kann nicht Äpfel mit Birnen vergleichen, was Dr. Kerr hier getan hat.

Vielleicht hat Dr. Kerr das Paper nicht oder nicht genau genug gelesen, denn die Autoren stellen fest: „Das wärmste 200 Jahre lange Intervall war ebenfalls auf 6,5 ka zentriert und war 0,7 °C wärmer als das 19. Jahrhundert.“

Kaufmans letzte frühere Studie (McKay und Kaufman 2014) wies mehrere eklatante Fehler auf, die eine vollständige Korrektur erforderten (Ahmed 2015). In der korrigierten Studie gaben die Autoren zu, dass unsere moderne Erwärmung, die sie als den Zeitraum 1971 – 2000 definierten, NICHT die wärmste 30-Jahres-Periode der letzten 2000 Jahren war, sondern die drittwärmste (Abbildung 2). Die wärmste solcher Periode trat während der römischen Warmzeit auf, die sich auf das Jahr 395 n. Chr. konzentrierte, so dass sogar der Autor, auf den sie sich bezieht, ihrer Aussage widerspricht.

Abbildung 2. Modifiziert aus Gosselin (2018). Quelldaten: Ahmed (2015)

In meiner anschließenden Kommunikation mit Dr. Kerr fügte sie eine weitere Studie hinzu, von der sie annahm, dass sie ihre Behauptung einer ungewöhnlichen und beispiellosen Erwärmung über viele Tausende von Jahren unterstützen würde, indem sie angab, dass „frühere Studien, die Proxy-Daten zur Rekonstruktion der durchschnittlichen globalen Oberflächentemperatur verwenden, wie Marcott, et al. (2013), zu ähnlichen Schlussfolgerungen gelangt sind.“ Sie ist sich offenbar nicht bewusst, dass sich auch diese Studie als fatal fehlerhaft erwiesen hat, wobei sogar der Autor zugibt, dass man sich nicht auf die modernen Daten verlassen sollte, da sie nur aus einem einzigen Datenpunkt bestehen: „Der Anteil des 20. Jahrhunderts in unserer Paläo-Temperaturreihe ist statistisch nicht belastbar und kann nicht als repräsentativ für globale Temperaturänderungen angesehen werden.“ In der Tat wurde Australiens nationale Wissenschaftsbehörde CSIRO nach Beweisen für irgendetwas noch nie Dagewesenes bzgl. Klima aufgrund von menschlichem Kohlendioxid gefragt, und trotz fast 50 Jahren Klimaforschung konnte sie nur die diskreditierte Marcott (2013)-Studie über Temperaturen und die diskreditierte Harries (2001)-Studie benennen.

Der Astrophysiker und Geowissenschaftler Professor Willie Soon war vernichtend in seiner Beurteilung der CSIRO Verwendung von Marcott (2013), indem er sagte: „Zwei Wochen nach der Veröffentlichung dieser Studie wurde diese vollständig widerlegt. Und doch versucht jemand so hoch oben wie CSIRO zu sagen, diese Studie ist legitim und kann als unterstützende wissenschaftliche Beweise verwendet werden. Das ist wissenschaftliches Fehlverhalten“.

CF-Behauptung Nr. 4: Zukünftige Temperaturen werden wahrscheinlich 12 Grad Celsius höher liegen.

Wenn sich die aktuellen Erwärmungstrends fortsetzen, werden wir Mitte des nächsten Jahrhunderts wahrscheinlich Temperaturen erreichen, die wir seit dem frühen Eozän, vor mehr als 50 Millionen Jahren, nicht mehr gesehen haben (Burke et al., 2018). (Amber Kerr)

Antwort 4a: Gregory Wrightstone (H/T to Renee Hannon for input):

Laut Amber Kerr ist es „wahrscheinlich“, dass die Temperaturen auf das Niveau steigen, das im Eozän herrschte, also mindestens 12 Grad Celsius höher als unsere heutigen Temperaturen. Die Temperatur, basierend auf HadCRUT4, ist seit 1900 um etwa 1 Grad C gestiegen. Wenn das der „aktuelle Trend“ ist und er sich fortsetzt, dann könnten wir einen Anstieg von etwa einem Grad C bis 2150 erwarten,

Der Artikel von Burke, 2018, ist den gleichen Vergleich von niedrig aufgelösten „Proxy“-Daten des Paläo-Klimas mit hochaufgelösten instrumentellen Temperaturdaten schuldig. Ihre Abbildung 1 und ergänzende Abbildung 1 ist extrem irreführend und zeigt keine Erwähnung der Datenauflösung auf der y-Temperatur-Achse und noch schlimmer, es wird eine verzerrte, nicht-einheitliche Zeit x-Achse gezeigt

Zum Beispiel haben die Marcott-Daten eine Temperaturauflösung im Durchschnitt über 300 Jahre, Dome C über 100-500 Jahre und die marinen benthischen Sauerstoffisotope wahrscheinlich 500+ Jahre. Die benthischen Sauerstoffwerte werden zunächst in Näherungswerte für die Meerestemperatur und dann in Näherungswerte für die Oberflächentemperatur umgerechnet.  Im Gegensatz dazu sind die instrumentellen Daten direkte Messungen der Temperatur, keine Proxies, die auf täglicher und monatlicher Basis vorgenommen werden.  Für eine ehrlichere Darstellung sollten die instrumentellen Temperaturdaten über 300+ Jahre gemittelt werden.  Auch wenn sie eine einheitliche Zeitskala auf der x-Achse verwenden würden, wären die instrumentellen Daten und die RCP-Projektionen nur ein Punkt.

Wichtig ist, dass Burke behauptet, die von Kerr referenzierte Abbildung sei nur eine Illustration und nicht die Grundlage für eine quantitative Analyse der Klimaähnlichkeit.  Sie ist erschreckend, unrealistisch und keine richtig skalierte Abbildung.

Antwort 4b: Dr. William HapperHapper ist emeritierter Professor der Abteilung für Physik an der Princeton University. Er ist ein Spezialist für moderne Optik, optische und Hochfrequenz-Spektroskopie von Atomen und Molekülen, Strahlungsausbreitung in der Atmosphäre und spin-polarisierte Atome und Kerne. Er hat über 200 begutachtete wissenschaftliche Arbeiten veröffentlicht und den Natriumleitstern erfunden, der in der adaptiven Optik in der Astronomie verwendet wird, um die beeinträchtigenden Effekte der atmosphärischen Turbulenz zu korrigieren. Er wurde 1976 mit dem Alexander-von-Humboldt-Preis, 1997 mit dem Broida-Preis und 1999 mit dem Davisson-Germer-Preis der Amerikanischen Physikalischen Gesellschaft sowie 2000 mit dem Thomas Alva Edison Patent Award ausgezeichnet.

Das IPCC macht eine „Gleichgewichts-Klimasensitivität“ S geltend, (der stationäre Temperaturanstieg bei Verdoppelung des CO2) von irgendwo zwischen S= 2°C und S= 4,5°C. In guter Näherung erhöht jede Verdoppelung der CO2-Konzentration die Temperatur um denselben Schritt. Die tatsächliche Sensitivität liegt wahrscheinlich unter S= 1°C, aber lassen Sie uns sehen, welche CO2-Erhöhungen erforderlich wären, um einen Temperaturanstieg von 12 C zu erreichen, wenn wir die obere Grenze des IPCC-Bereichs der Sensitivitäten nehmen. Die CO2-Konzentration müsste von N0 = 410 ppm, der heutigen ungefähren Konzentration, auf N > N0 x 2(12 C/ 4,5 C) = N0 x 6,35 = 2603 ppm steigen. Wir müssten also 2600 – 410 = 2193 ppm CO2 in die Atmosphäre einbringen. Wahrscheinlich gibt es nicht genügend wirtschaftlich nutzbare fossile Brennstoffe, um so viel CO2 bereitzustellen.

Aber nehmen wir an, der Brennstoff kann gefunden werden. In den letzten zehn Jahren ist die CO2-Konzentration um etwa 2,3 ppm/Jahr gestiegen. Bei dieser Rate würde die Zeit, die benötigt wird, um 2193 ppm in die Atmosphäre zu bringen, 2193/2,3 Jahre = 953 Jahre betragen. Für kleinere, realistischere Sensitivitäten wären viel mehr Brennstoff und viel längere Zeiten erforderlich. Es gibt keine wissenschaftlich plausible Möglichkeit, dass die Temperatur der Erde bis zur Mitte des nächsten Jahrhunderts um 12°C ansteigen könnte.

CF-Behauptung #5: Ökosysteme und die Menschheit werden durch erhöhte Temperatur und steigende CO2-Werte geschädigt

Es gibt weder wissenschaftliche Erkenntnisse noch Daten, die die Behauptung, dass Ökosysteme gedeihen oder dass die Menschheit von steigenden Temperaturen oder steigendem Kohlendioxid profitieren würde, global unterstützen. Es gibt buchstäblich Zehntausende von wissenschaftlichen Veröffentlichungen, die darauf hinweisen, dass die Ökosysteme aufgrund des Klimawandels und anderer Auswirkungen zunehmend geschädigt werden.

Antwort 6a: Dr. Patrick Michaels – Ehemaliger Präsident der American Association of State Climatologists. Forschungsprofessor für Umweltwissenschaften an der Universität von Virginia seit 30 Jahren und Senior Fellow bei der CO2-Coalition. Michaels war mitwirkender Autor und ist Gutachter des IPCC

Climate Feedback widerspricht Wrightstones Behauptungen, dass „die Ökosysteme unseres Planeten gedeihen und die Menschheit vom Anstieg des CO2 und der Temperatur profitiert“.

Tatsächlich stellen Wissenschaftler seit Jahrzehnten eine Begrünung der terrestrischen Ökosysteme fest, und zwar eine tiefgreifende, wie Zhu et al. (2016) in einer Nature Climate Change-Studie mit dem Titel „The Greening of the Earth [sic] and its Drivers“ zeigen. Im Mittelpunkt der Arbeit steht eine Karte der Veränderungen des Leaf Area Index über einen Zeitraum von fast zwei Jahrzehnten (Abbildung 3):

Abbildung 3 – Änderungen des Leaf Area Index‚ ab 1982

Beachten Sie, dass die Orte mit den größten Veränderungen violett markiert sind und den Standorten der tropischen Regenwälder der Welt entsprechen. Änderungen sind dort signifikant, wo sie gestrichelt sind.  Beachten Sie auch, dass es keine statistisch signifikanten Rückgänge des LAI gibt.

Zhu et al. (2016) führten auch eine Faktoren-Analyse durch, um die Ursachen für die planetarische Begrünung zu isolieren. Sie fanden heraus, dass 70 % durch den direkten Effekt des zunehmenden atmosphärischen Kohlendioxids verursacht wurden, 9 % durch erhöhte Stickstoffdeposition, 8 % durch den Klimawandel selbst (hauptsächlich in den hohen Breiten der nördlichen Hemisphäre) und 4 % durch Landnutzungsänderungen.

Es scheint also, dass Climate Feedback irgendwie übersehen hat, dass insgesamt 91% der globalen terrestrischen Begrünung eine Folge menschlicher Aktivitäten ist, oder dass das globale Nahrungsangebot eindeutig stetig wächst – und das schon, seit Paul Ehrlich vor über fünfzig Jahren in seinem Buch (1969: The Population Bomb) schrieb, dass die Nahrungsvorräte bald rapide abnehmen würden.

CF Behauptung Nr. 6 a) Erwärmung und CO2 spielen keine primäre Rolle bei der Steigerung der Pflanzenproduktion und b) die zukünftige Erwärmung wird einen negativen Effekt auf die Landwirtschaft haben.

Andere Pflanzen profitieren nicht von höherem CO2, und es wurde gezeigt, dass ihre Photosyntheseraten unter höherem CO2 abnehmen. Noch wichtiger ist, dass höheres CO2 nachweislich die Nährstoffqualität einiger Pflanzen, auf die wir angewiesen sind, wie z. B. Weizen, verringert (Katrin Meissner)

Die Zunahme von extremen Wetterereignissen kann starke negative Auswirkungen auf die Produktivität von Nutzpflanzen haben und wird sich voraussichtlich negativ auf die Nahrungsmittelproduktion auswirken (Sara Vicca)

Die globale Erwärmung wirkt sich bereits negativ auf die globale Nahrungsmittelproduktion aus, zumindest in einigen Regionen (Alexis Berg)

Wrightstone verwechselt Korrelation mit Kausalität, wenn er die Tatsache diskutiert, dass im letzten Jahrhundert die globale landwirtschaftliche Produktivität gestiegen ist und die wetterbedingten Todesfälle abgenommen haben. Das können wir nicht dem anthropogenen Klimawandel verdanken. Vielmehr haben eine bessere Infrastruktur und eine bessere Gesundheitsversorgung die Zahl der Menschen, die durch Umweltfaktoren wie das Wetter sterben, verringert. Fortschritte in der Pflanzenwissenschaft und -technologie (sowie ein nicht nachhaltiger Raubbau an der Biosphäre) haben einen stetigen Aufwärtstrend in der Pflanzenproduktion ermöglicht, der alle marginalen Auswirkungen von CO2 und Erwärmung aufwiegt. (Amber Kerr)

Es ist ethisch nicht vertretbar, dass Wrightstone mögliche Gewinne für die Landwirtschaft im globalen Norden feiert, während er die zahlreichen Studien ignoriert, die Schäden im globalen Süden beschreiben. (Amber Kerr)

Antwort 6a: Dr. William Happer

Alle Aussagen von Herrn Wrightstones Op-Ed basieren auf sehr solider Wissenschaft. Im Gegensatz dazu enthält der Beitrag von Climate Feedback erfundene, falsche Behauptungen und persönliche Angriffe.

Wissenschaftliche Studien zeigen eindeutig, dass CO2 in den letzten fünfzig Jahren einen wesentlichen Beitrag zu den gestiegenen Erträgen in der Land- und Forstwirtschaft geleistet hat. Die Beiträge waren besonders auffällig in trockenen Regionen, weil mehr CO2 die Dürreresistenz von Nutzpflanzen erhöht. Langfristige Satellitenmessungen der Pflanzendecke zeigen eine besonders ausgeprägte Begrünung in trockenen Regionen der Erde, viele davon in den Tropen und Subtropen.

Der zuverlässigste Beweis für die Vorteile von CO2 für Pflanzen ist die Verwendung von zusätzlichem CO2 in kommerziellen Gewächshäusern, um das Wachstum zu beschleunigen. Gewächshaus-Betreiber sind bereit, die Kosten für zusätzliches CO2 und die notwendige Ausrüstung für die CO2-Anreicherung zu akzeptieren. Der verbesserte Ertrag und die Qualität ihrer pflanzlichen Produkte, von Gemüse bis Marihuana, machen die Investition mehr als wett.

Diese Aussagen bestätigen, dass das, was Herr Wrightstone sagte, nicht unwahr, sondern wahr ist. Auf dem Feld wachsen sowohl C4- als auch C3-Pflanzen besser mit mehr CO2, weil mehr CO2 die Pflanzen trockenheitsresistenter macht.  C3-Pflanzen profitieren auch, weil mehr CO2 die Photorespiration reduziert, die etwa 25% der photosynthetischen Effizienz aufzehrt.  Alle Waldbäume und ein Großteil der landwirtschaftlichen Nutzpflanzen (Weizen, Reis, Sojabohnen, Baumwolle, etc.) nutzen den C3-Photosyntheseweg. Mit mehr atmosphärischem CO2 erhalten C3-Pflanzen einen doppelten Vorteil: mehr Trockenheitsresistenz und weniger Photorespiration.

Antwort 6b: Dr. Patrick Michaels:

Climate Feedback verkennt, dass die Überschätzung durch Klimamodellierungsfehler (die später in Abschnitt 12 diskutiert werden) fatal für die Verlässlichkeit praktisch aller Wirkungsmodelle für Ökosysteme (einschließlich der Landwirtschaft) sind. Der größte Teil der Feuchtigkeit für die Anbaugebiete der mittleren Breiten (einige der produktivsten landwirtschaftlichen Flächen der Erde), stammt aus den Tropen[2] . Große und systematische Fehler in den tropischen vertikalen Niederschlags-Simulationen für die Zukunft machen diese einfach unzuverlässig, da es das tropische vertikale Temperaturprofil ist, welches weitgehend bestimmt, wie viel ozeanische Feuchtigkeit in die höhere globale Atmosphäre übertragen wird. Tatsächlich kann das Vorzeichen von großen Niederschlagsänderungen am selben Ort je nach Modell positiv oder negativ sein.

Klima- und Erntemodelle versuchen im Allgemeinen, die Auswirkungen der jährlichen Witterungsschwankungen so zu parametrisieren, dass sie Abweichungen von gleichmäßigen technologischen Trends verursachen, die den Einsatz von Düngemitteln, Sorten und mechanische Verbesserungen usw. widerspiegeln.

Abbildung 4, berechnet aus globalen FAO-Daten für die vier Hauptkulturen, zeigt 1) auf dieser Ebene, dass das globale Nahrungsmittelsystem in hohem Maße von allgemeinen Witterungseffekten abgepuffert ist, und 2) dass es absolut keinen Hinweis darauf gibt, dass die Residuen des technologischen Trends zunehmen (d. h. die Witterungskomponente) nicht größer wird.

Abbildung 4 – Gesamtproduktion für die vier Hauptkulturen. Die einfache Anpassung zweiter Ordnung erklärt über 99 % der jährlichen Variabilität und lässt wenig Raum (etwa 1 %, global) für einen stochastischen oder systematischen Wetter- oder Klimaeffekt. Rohdaten von der FAO, Vereinte Nationen.

Antwort 6c: Gregory Wrightstone:

In einem anschließenden E-Mail-Austausch mit mir gab Dr. Kerr die enorme positive Auswirkung zu, die steigendes CO2 auf das Pflanzenwachstum hat:

In meinem eigenen Teilgebiet, den Auswirkungen des Klimawandels auf die Landwirtschaft, finde ich es ärgerlich, dass die meisten Modelle und veröffentlichten Studien den CO2-Düngungseffekt absichtlich auslassen (unter Berufung auf zu große Unsicherheiten oder unter der Annahme, dass es eine Akklimatisierung an höheres CO2 geben wird). Aber bisher deuten die Daten darauf hin, dass der CO2-Düngungseffekt ein bedeutender Segen für die Landwirtschaft in gemäßigten Regionen sein kann.“

In der begutachteten Literatur gibt es wenig Unterstützung für die häufig zitierte Vorstellung, dass tropische und subtropische Gebiete derzeit einen Rückgang der landwirtschaftlichen Produktivität erleben. Die CF-Gutachter scheinen einen prognostizierten Rückgang der landwirtschaftlichen Produktivität in den Tropen und Regionen niedriger Breitengrade auf Klimamodelle und Worst-Case-Szenarien zu stützen, die die Erwärmung deutlich zu hoch vorhersagen, wie von Dr. Happer in Abschnitt 4b und von Dr. Michaels in Abschnitt 12 diskutiert.

Entgegen der Behauptung der Gefährdung von Nutzpflanzen durch steigende Temperaturen und zunehmendes CO2 gibt es hunderte von Studien, die genau das Gegenteil belegen. Viele davon sind von Dr. Craig Idso hier erfasst: Interaktive Effekte von CO2 und Temperatur auf das Pflanzenwachstum. Diese begutachteten Arbeiten zeigen die folgenden wichtigen Überlegungen:

1) Pflanzen neigen dazu, bei höheren Temperaturen besser zu gedeihen, dank CO2, das die optimale Temperatur für die Photosynthese anhebt (oft um einen viel größeren Wert als den, der von den Modellen für die Erwärmung vorhergesagt wird),

2) CO2 hilft, temperaturbedingten Stress zu mildern.

Daten aus der realen Welt widersprechen der Vorstellung von hitzebedingten Ernteeinbußen in den heißesten Regionen der Erde. Zum Beispiel wurde in Indien erwartet, dass das Jahr 2020 zum zweiten Mal in Folge einen Rekord bei der Weizenernte brechen wird.

In den Vereinigten Staaten zeigen steigende Erträge von Mais in Scheffel pro Acre eine bemerkenswerte Korrelation zu steigenden CO2-Emissionen (Abbildung 6). Die Behauptung, dass dieser Anstieg auf die Jahr für Jahr verbesserten landwirtschaftlichen Praktiken zurückzuführen ist, ist einfach nicht glaubhaft.

Abbildung 5: Trend der Maisernte in den USA im Vergleich zu globalen Kohlenstoff-Emissionen

CF-Behauptung Nr. 7: Extreme Wetterbedingungen und damit verbundene Todesfälle nehmen zu

Leider nehmen Dürren, Waldbrände und Hitzewellen weltweit zu, und damit auch die temperaturbedingten Todesfälle. Die hier gemachten Aussagen sind vom Autor erfunden und völlig „realitätsfremd“. (Wolfgang Cramer)

Dürren und Austrocknung haben in vielen Regionen der Welt zugenommen. Zum Beispiel in Europa und Nordamerika. Waldbrände haben zugenommen und zeigen nun den Fingerabdruck der globalen Erwärmung, z.B. in Australien und der Arktis. Hitzewellen haben in Häufigkeit, Intensität und Dauer zugenommen. (Katrin Meissner)

Antwort 7a: Jim SteeleBiologe, ehemals Principal Investigator für das Neotropical Migratory Bird Monitoring of Riparian Habitats on the Tahoe National Forest (USFS) und Direktor des Sierra Nevada Field Campus der SFSU, Autor von Landscapes and Cycles: An Environmentalist’s Journey to Climate Skepticism

Trotz der korrekten Behauptung, dass Dürren, Waldbrände und Hitzewellen trotz steigender CO2-Konzentration erheblich zurückgegangen sind, weil die Erde grüner geworden ist, wird Wrightstone von dem „Faktenprüfer“ Wolfgang Cramer verleumdet, der fälschlicherweise behauptet, seine Aussagen seien „erfunden“ und „völlig realitätsfremd“. Dabei unterstützt die begutachtete Wissenschaft Wrightstone, nicht die Faktenchecker. Im Jahr 2013 veröffentlichten Klimawissenschaftler „Monitoring and Understanding Changes in Heat Waves, Cold Waves, Floods and Droughts in the United States, State of Knowledge“.1 Sie schrieben:

Instrumentelle Daten deuten darauf hin, dass die Dust Bowl der 1930er Jahre und die Dürre der 1950er Jahre die am weitesten verbreiteten Dürren des zwanzigsten Jahrhunderts in den Vereinigten Staaten waren (siehe Abb. 1), während Baumringdaten darauf hinweisen, dass die Megadürren des zwölften Jahrhunderts sowohl in ihrer räumlichen Ausdehnung als auch in ihrer Dauer alles im zwanzigsten Jahrhundert übertrafen“.

Stahl (2007)2 berichtete in ähnlicher Weise, dass im Vergleich zu den Extremen der 1930er und 1950er Jahre die mehrdekadischen Dürren während der kühleren Kleinen Eiszeit schwerwiegender und von längerer Dauer waren, „einschließlich der ‚Megadürre‘ des 16. Jahrhunderts, die möglicherweise die extremste Dürre war, die Nordamerika in den letzten 500 Jahren heimgesucht hat.“

Abbildung 6 – Dekadischer Durchschnitt von Hitzewellen und Kältewellen

Zusätzlich zu seiner sachlichen Berichterstattung über die von Satelliten beobachtete Ergrünung der Erde, die dem erhöhten CO2 (70%) und der Erwärmung (8%) zugeschrieben wird, weist die Hauptaussage von Wrightstones Artikel darauf hin, dass es eine Fülle von wissenschaftlichen Daten gibt, die zeigen, dass „Dürren, Brände und Hitzewellen“ von anderen Klimafaktoren angetrieben werden, die nichts mit dem steigenden CO2 zu tun haben. Die so genannten Faktenprüfer versäumten es anzuerkennen, wie die langfristige Klimadynamik die Häufigkeit, Intensität und Orte von Dürren, Bränden und Hitzewellen eindeutig veränderte. Um die Schuld auf die CO2-getriebene Erwärmung zu schieben, verwiesen sie auf veröffentlichte Studien, die nur die Entwicklung von Dürren, Hitzewellen und Waldbränden in den letzten 50 Jahren untersuchten – ein Zeitrahmen, der für eine aussagekräftige Klimaanalyse viel zu kurz ist.

Sinha (2017) liefert zum Beispiel Beweise dafür, dass Indiens periodische Dürren nachließen, als die Welt die Jahrhunderte der Kleinen Eiszeit hinter sich ließ. Zwischen 1350 und 1850 n. Chr., als die CO2-Konzentration sehr niedrig war, verwüsteten mindestens fünf Episoden von Mega-Dürren Südostasien. Dürren in den Jahren 1899 und 1918 betrafen etwa 70 % Indiens. Als sich die Erde weiter erwärmte, waren 1972 nur noch 53 % des Landes von Dürre betroffen, 1987 48 % und 2002 nur noch 20 %.  Solche Vorteile einer wärmeren Welt werden erst auf dieser größeren Zeitskala deutlich. Während der letzten Eiszeit war die Sahara-Wüste viel ausgedehnter als heute. Als sich die Welt vor 14.000 Jahren zu erwärmen begann, wurde der Wüstensand der Sahara mit Grasland, ausgedehnten, ganzjährig flachen Seen und einer reichen Vielfalt an Wildtieren und menschlichen Bewohnern bedeckt. Gleichzeitig brachten die zunehmenden Niederschläge in Afrika Schnee auf den Gipfel des Kilimandscharo und ließen seine Gletscher wachsen. Diese Periode ist bekannt als die Grüne Sahara oder die Afrikanische Feuchtigkeitsperiode. Als sich die Welt dann vor 5000 Jahren abzukühlen begann, kam es in Nordafrika zu schweren Dürreperioden, wobei sich Nordafrika als Folge derselben wieder in die Sahara-Wüste zurückverwandelte.

Die Veränderungen in der Sahara werden auf eine Verschiebung des globalen Bandes intensiver tropischer Regenfälle zurückgeführt, das durch die Intertropische Konvergenzzone (ITCZ) gekennzeichnet ist. Als sich die eiszeitlichen Gletscher von der nördlichen Hemisphäre zurückzogen, verschob sich die ITCZ nach Norden und sorgte für genügend Niederschlag nördlich der ITCZ, um das Grasland der Sahara zu erzeugen. Als die orbitalen Zyklen die Sonneneinstrahlung veränderten und den Norden abzukühlen begannen, bewegte sich die ITCZ wieder nach Süden, was die Niederschläge in der Sahara reduzierte. In ähnlicher Weise bewegte sich die ITCZ während der Kleinen Eiszeit nach Süden, als die Sonnenleistung während des Sonnenfleckenminimums abnahm. Felis (2018) stellte fest, dass die östliche Sahara-Arabische Wüste von ~1750-1850 trockener wurde als heute, zeitgleich mit den kältebedingten Mega-Dürren in Indien.

Die Südwärtsbewegung der ITCZ verändert auch die globale atmosphärische Zirkulation.  Die subtropischen Drucksysteme des Ozeans, die jetzt den Feuchtigkeitsfluss vom Ozean zum Land hemmen und die mediterranen Klimate schaffen, bewegten sich während der letzten Eiszeit und der LIA ebenfalls nach Süden. Dadurch konnte mehr Feuchtigkeit vom Pazifischen Ozean übertragen werden, um das westliche Nordamerika zu überschwemmen. Ein Großteil der heutigen Wüsten Amerikas wurde von Binnenseen bedeckt; der Bonneville-See bedeckte einen Großteil Utahs, während Nevada größtenteils vom Lahontan-See bedeckt war. Als die Gletscher schmolzen und sich die ITCZ und die Drucksysteme nach Norden bewegten, wurden die Regenfälle umgeleitet und der amerikanische Westen trocknete aus. Alles, was vom Bonneville-See übrig geblieben ist, ist der Große Salzsee. In ähnlicher Weise stiegen während der Kleinen Eiszeit, als sich die ITCZ für einige Jahrhunderte nach Süden bewegte, die Wasserstände im Great Salt Lake 6 auf relative Höchststände im Jahr 16007.

In Europa beseitigte die südlichere ITCZ-Lage ebenfalls die blockierenden Effekte der Nordatlantischen Oszillation, so dass mehr Niederschläge die Alpen erreichten und die größten Gletschervorstöße seit 6.000 Jahren verursachten. Vincent (2005)7 berichtete, dass die Gletscher vorrückten, als die Perioden mit höheren Winterniederschlägen 25 % höher waren als der Durchschnitt des zwanzigsten Jahrhunderts. Das Paradoxon der Kleinen Eiszeit wurde so genannt, weil sich die europäischen Gletscher trotz der niedrigen LIA-Temperaturen zurückzogen. Als sich die ITCZ jedoch nach Norden bewegte, wurden die Niederschläge blockiert, wodurch sich die Gletscher zurückzogen.

Die Faktencheckerin Katrin Meissner verunglimpfte Wrightstones Artikel als eine „Anhäufung von Falschaussagen“ mit „ein paar teilweise richtigen Aussagen, die aus dem Zusammenhang gerissen und irreführend dargestellt werden.“ Es war jedoch Professor Meissner selbst, die sich mit „irreführenden Aussagen“ beschäftigte, indem sie suggerierte, dass das steigende CO2 in vielen Regionen wie Europa und Nordamerika zu einer Zunahme von Dürren und Austrocknung führt. Sie bezog sich auf Buntgen (Abb. 4), der in der Tat von größerer Trockenheit in Europa berichtete, aber diese Forschung zeigte auch, dass der Trocknungstrend seit 2.000 Jahren anhielt und nichts mit der CO2-Konzentration zu tun hatte. Eine extreme 300-jährige Trockenperiode gipfelte in der Renaissance-Dürre in Europa, gefolgt von der feuchten Periode während der LIA mit wachsenden Gletschern und nun die Austrocknungsperiode der Neuzeit, da sich die ITCZ von ihrer LIA-Lage nach Norden bewegt.

Abbildung 7 – 2100 Jahre rekonstruierter Vergleich von Feucht- und Trockenperioden in Mitteleuropa

Meissner versäumte es auch, die Rolle der ITCZ bei der Austrocknung des westlichen Nordamerikas zu berücksichtigen, als die Kleine Eiszeit (LIA) um 1850 endete, und versäumte es, die Auswirkungen der EL Nino Southern Oscillation (ENSO) oder der damit verbundenen Pacific Decadal Oscillation zu erwähnen. Wie Pederson (2005) dokumentierte, erlebten die westlichen Vereinigten Staaten während der Kleinen Eiszeit (LIA) drei schwere Regenperioden. Ähnlich wie bei den LIA-Ereignissen in Europa trieben die begleitenden starken Regenfälle die Gletscher im Glacier National Park (GNP) in Montana auf ihre größte Ausdehnung seit mindestens 6.000 Jahren. Als die LIA endete und sich die ITCZ und das Hochdrucksystem nach Norden bewegten, erlebte der GNP eine Reihe von Dürreperioden. Zwischen 1901 und 1960 hatten die größten Gletscher des GNP 65 % ihres LIA-Eises verloren.

El Nino, La Ninas und die Pazifische Dekadische Oszillation beeinflussen auch die globalen Dürren. Einige der verheerendsten Dürren in Indien und Südostasien treten in Verbindung mit extremen El-Niño-Ereignissen auf, wenn sich der Schwerpunkt der schweren Regenfälle über den Pazifik nach Osten bewegt. El Niño bringt mehr Regen nach Peru und die südliche Hälfte des westlichen Nordamerikas. Umgekehrt bringen La Nina-Episoden mehr Regen über Südostasien, aber eine stärkere Dürre im amerikanischen Südwesten. Während der negativen Phase der Pazifischen Dekadischen Oszillation treten nicht nur häufiger La Nina-Ereignisse auf, sondern die damit verbundenen Dürren sind auch intensiver. Wenn die negative PDO-Phase mit La Nina zusammenfällt, kommt es im Südwesten und in den südlichen Rocky Mountains, einschließlich Arizona, Nevada, Utah, Colorado und Wyoming, zu größerer Trockenheit und schlimmeren Waldbränden.  Zwischen 1700 und 1975 traten 69 % der größten Brände (Schoennagel (2005) im Rocky Mountain National Park auf, als eine La Nina mit einer negativen PDO zusammenfiel, obwohl diese Phasen nur in 29 % der Zeit eintraten.12

Obwohl die Harvard-Faktenprüferin Alice Berg bestätigte, dass die durch Waldbrände verbrannte Fläche in den letzten 20 Jahren weltweit um 25 % abgenommen hat, bestanden Cramer und Meissner fälschlicherweise darauf, dass der Klimawandel die Waldbrände im Westen der USA erhöht. In Wirklichkeit erfordert die Feststellung einer Zunahme von Waldbränden die Rosinenpickerei eines Trends, der im Jahr 1970 beginnt (Westerling 2008). Feuerexperten berichteten von einem „Rückgang der Waldbrände im Südwesten, der auf den flächendeckenden Beginn der intensiven Viehweide in den späten 1800er Jahren zurückzuführen ist, gefolgt vom Beginn der organisierten Feuerunterdrückung“. In einer umfassenden Bewertung der verbrannten Fläche in den zusammenhängenden Vereinigten Staaten berichtete der US Forest Service (Keane 2002), dass „drei- bis sechsmal mehr Fläche verbrennen muss, um historische Feuerregimes wiederherzustellen“.

Abbildung 8 – Regionales Auftreten von Bränden über 300 Jahre

Berg konterte den Rückgang der beobachteten Flächen, die durch Waldbrände verbrannt wurden, mit dem Argument, dass die Erwärmung mehr Brände verursachen würde, aber die Ausdehnung der Landwirtschaft einschränke, wie viel Land brennen kann, so dass in Zukunft mehr Feuer zu erwarten sei. Doch Berg selbst ließ in irreführender Weise alle kritischen Faktoren weg, die nachweislich zu einer Zunahme von Waldbränden geführt haben. Durch die Unterdrückung von Bränden hat sich die Totholzmenge erhöht, was zu größeren Bränden führt. Da die Bevölkerung zunimmt, werden Brände zunehmend von Menschen verursacht, und Brände treten das ganze Jahr über auf, anstatt auf die Jahreszeit der natürlichen Blitze beschränkt zu sein. Laut Balch (2017)13 waren zwischen 1992 und 2012 menschliche Brandstiftungen für 84 % aller Waldbrände und 44 % der gesamten verbrannten Fläche verantwortlich. Darüber hinaus hat die Störung natürlicher Landschaften die Ausbreitung invasiver Täuschungsgräser verursacht. Diese Gräser sterben im Frühsommer ab und benötigen nur eine Stunde Wärme und Trockenheit, um leicht entflammbar zu werden. Warme, trockene Sommer kommen vor, egal ob es eine globale Erwärmung gibt oder nicht. Größeres Holz benötigt Reisig, um genügend Wärme zum Verbrennen zu erzeugen, und die Ausbreitung von invasiven Gräsern liefert das.

Das Sagebrush-Habitat dominiert den amerikanischen Westen und brannte aufgrund des Mangels an Bodenbrennstoff selten, vielleicht einmal alle 60-100 Jahre. Eingeführtes Cheat-Gras dominiert jedoch den Sagebrush-Lebensraum, der nun alle 3-5 Jahre brennt. Das Rush Fire von 2012 war das viertgrößte Feuer in Kalifornien seit 1932 und verbrannte 272.000 Hektar Sagebrush-Habitat im Nordosten Kaliforniens. Danach breitete es sich weiter aus und verbrannte weitere 43.000 Acres in Nevada. Das Carr Fire 2018 war das siebtgrößte Feuer in Kalifornien und bedrohte die Stadt Redding, Kalifornien. Es begann, als an einem gezogenen Anhänger ein Reifen platzte und die Felge den Asphalt zerkratzte. Die daraus resultierenden Funken reichten aus, um die Gräser am Straßenrand zu entzünden. Grasbrände trugen die Flammen dann in das Buschland und die Wälder, da brennende Gräser als Anzünder für die weniger brennbaren Bäume dienten.

Diejenigen, die der Idee einer CO2-verursachten Katastrophe anhängen, picken sich die Brände in Kalifornien heraus, um diese Brände der CO2-verursachten globalen Erwärmung zuzuschreiben. Zusätzlich zu den anderen Ursachen für die Brände in Kalifornien haben die lokalen Maximaltemperaturen, bei denen die Brände ausgebrochen sind, nicht die Wärme der 1930er Jahre überschritten. Man muss sich also fragen, wer die sogenannten Faktenchecker überprüft. Wie Herr Wrightstone genau berichtet hat, korrelieren die Veränderungen bei Dürren, Bränden und Hitzewellen nicht mit steigendem CO2, sondern sind eher anderen Faktoren zuzuschreiben.

Antwort 6b: Dr. Patrick Michaels

Aufgrund der umfangreichen Medienberichterstattung über extreme Wetterereignisse könnte man meinen, dass Dürren und die Aktivität tropischer Wirbelstürme zunehmen müssen.  Aber der jüngste umfassende Bericht des IPCC sagt Folgendes über Dürre:

Zusammenfassend kommt die aktuelle Bewertung zu dem Schluss, dass es derzeit nicht genug Beweise gibt, um mehr als ein geringes Vertrauen in einen auf globaler Ebene beobachteten Trend bei Dürre oder Trockenheit (Mangel an Niederschlag) seit der Mitte des 20. Jahrhunderts zu haben, und zwar aufgrund fehlender direkter Beobachtungen, geographischer Inkonsistenzen in den Trends und Abhängigkeiten der abgeleiteten Trends von der Wahl des Index‘.

Und hier ist eine Darstellung des Accumulated [tropical] Cyclone Energy Index seit Beginn der globalen Satellitenabdeckung:

Abbildung 9 – Kumulierte [tropische] Zyklonenergie.  Aus Maue, 2011 und Aktualisierungen

Es wäre einfach, aber langweilig, immer wieder auf die Klima-Rückkopplung einzugehen. Im Allgemeinen gibt es nach Bereinigung um Bevölkerung und Immobilienwerte tatsächlich einen leicht negativen Trend bei wetterbedingten Schäden. Es ist unglaubwürdig, dass eine Änderung der globalen durchschnittlichen Oberflächentemperatur um 1⁰C die Jahrhunderte lange wirtschaftliche Entwicklung, die Linderung der Armut und die steigende Lebenserwartung zunichte machen und umkehren würde, wenn man bedenkt, dass der Homo sapiens bei einer Temperaturspanne zwischen von -40⁰C bis +50⁰ angemessen geschützt lebt und gedeiht. Dieses eine Grad ist weniger als der Unterschied in der mittleren Jahrestemperatur, der erreicht wird, wenn man in den mittleren Breiten etwa 50 Meilen nach Süden zieht, und wir alle wissen, dass das tödlich ist.

CF-Behauptung Nr. 8: Korallenriffe werden durch die vom Menschen verursachte Erwärmung negativ beeinflusst

Die gegenwärtige Erwärmung hat bereits sehr spürbare negative Auswirkungen auf marine Ökosysteme (d.h. Korallenriffe) (Alexis Berg)

Hitzewellen werden in vielen Teilen der Welt immer häufiger und heftiger. Sie treten auch im Ozean auf und sind einer der Haupttreiber für den Verlust von tropischen Korallenriffen. (Wolfgang Cramer)

Antwort 11: Dr. Peter RiddPhysiker, PhD von der James Cook University, früherer Leiter der Physikabteilung an der James Cook University von 2009 bis 2016 und Leiter des Marine Geophysical Laboratory an dieser Institution für 15 Jahre.

Im Folgenden habe ich in Stichpunkten die wichtigsten Fakten zusammengefasst, die die Vorstellung von der abnehmenden Gesundheit der Korallen und Riffe widerlegen.

Diejenigen von uns in Nord-Queensland, Australien, die direkt neben dem Great Barrier Reef leben, finden es unglaublich, dass die Welt davon überzeugt ist, dass das Riff in den letzten Zügen liegt. Nichts könnte weiter von der Wahrheit entfernt sein. Es ist spektakulär und eines der unberührtesten Ökosysteme der Erde. Sobald die COVID-Beschränkungen nachlassen, kommen Sie und sehen Sie selbst.

(1) Korallen mögen es warm. Die Region mit den vielfältigsten und am schnellsten wachsenden Korallen auf der Erde, das sogenannte „Korallendreieck“, liegt um Indonesien und Papua-Neuguinea, wo sich auch die wärmste große Wassermasse der Erde befindet – der indo-pazifische Warmpool.

(2) Für jedes Grad (Celsius) Temperaturerhöhung wachsen die Korallen etwa 20% schneller. Korallen in den kältesten Teilen des australischen Great Barrier Reefs (GBR) wachsen etwa halb so schnell wie die gleichen Korallenarten im Korallendreieck. (Lough 2000)

(3) Korallen erleben Temperaturschwankungen von oft bis zu 10 Grad im Jahr, was im Vergleich zu dem bescheidenen Anstieg der Wassertemperatur im letzten Jahrhundert von höchstens einem Grad Celsius in tropischen Gewässern sehr groß ist. Es ist unplausibel, dass alle Korallen auf der Erde in Wasser leben, das so nahe an ihrem thermischen Maximum liegt, dass dieser geringe Temperaturanstieg ein massenhaftes Korallensterben verursacht, wie in den Medien berichtet wird.

(4) Korallenbleiche-Ereignisse, bei denen sich Korallen bei heißem Wetter weiß färben, über die in den Medien bis zum Überdruss berichtet wurde, sind völlig natürliche Ereignisse, die schon immer aufgetreten sind. Sie sind kein neues Phänomen, wie oft berichtet wird. Was sich geändert hat, ist die Technologie, um sie zu überwachen, und die explosionsartige Zunahme der Zahl der Wissenschaftler, die sich für Riffe interessieren. Diese gab es vor ein paar Jahrzehnten noch nicht. (Hao et al 2021, Oliver et al 2018, Yonge et al 1931)

(5) Bleichen ist kein Todesurteil; die meisten Korallen erholen sich vollständig. (Marshall 2006, Australian Inst. Of Marine Sciences)

(6) Im Gegensatz zu den meisten anderen Organismen haben Korallen eine bemerkenswerte Anpassung, die sie fähiger als andere Organismen macht, mit sich ändernden Klimabedingungen, ob natürlich oder vom Menschen verursacht, umzugehen. Im Inneren der Koralle, die ein Tier ist, lebt eine Art von Algen, die Zooxanthellen genannt werden. Die Algen geben der Koralle Energie im Gegenzug für eine gemütliche Umgebung. Es gibt viele verschiedene Algenarten, und die Koralle kann die Art auswählen, mit der sie am besten mit der erforderlichen Temperatur zurechtkommt. Tatsächlich ist die Korallenbleiche ein Teil des Prozesses, mit dem die Koralle dies tut. Wenn eine Koralle bleicht, stößt sie die Algen aus (sie wird weiß) und wird wahrscheinlich eine andere Algenart aus dem umgebenden Wasser aufnehmen.

Während die meisten Organismen viele Generationen der Evolution durchlaufen müssen, um ihr Erbgut zu verändern, um für eine andere Temperatur geeignet zu sein, können Korallen dies in wenigen Monaten tun, indem sie die Algen verändern, die in ihnen leben. Anstatt das Aushängeschild für die Auswirkungen des Klimawandels zu sein, gehören Korallen zu den am besten angepassten Organismen, um mit wechselnden Temperaturen umzugehen. Dies sollte nicht überraschend sein. Sie haben über Hunderte von Millionen von Jahren gelebt, als das Klima viel wärmer und kälter war als heute. Sie haben Klimaveränderungen überstanden, die weitaus dramatischer waren als die sanften Temperaturveränderungen, die wir im letzten Jahrhundert erlebt haben (Baker 2003, Buddemeier 1993, Marshall und Baird 2000, Guest et al 2012).

(7) Korallen brauchen diesen Mechanismus wegen der Art und Weise, wie sie sich fortpflanzen. Sie produzieren Larven, die in der Strömung treiben. Und im Gegensatz zu Samen von Bäumen, die in der Nähe des Elternteils und damit im gleichen Klima fallen, kann Korallenlaich viele hundert Kilometer weit treiben in Gebiete mit einer anderen Wassertemperatur.

(8) Korallenriffe, insbesondere das australische Great Barrier Reef, durchlaufen natürliche Zyklen der Zerstörung, bei denen gelegentlich große Mengen an Korallen absterben. Hurrikane sind bei weitem die wichtigste Ursache. Zum Beispiel tötete ein Hurrikan im Jahr 2009 die Hälfte der Korallen am südlichen Great Barrier Reef – ein Gebiet von der Größe von Maine. Aber bis 2016 hatten sich die Korallen wieder vollständig erholt. Das hat sie immer getan und tut es immer noch. Die Ereignisse sind wie Buschbrände. Sie sehen schrecklich aus. Und die Medien und einige opportunistische wissenschaftliche Organisationen können grafische Bilder von toten Korallen für schändliche Zwecke verwenden. Was fast nie berichtet wird, ist die Art und Weise, wie stark die Koralle nachwächst (De’ath et al 2012).

CF-Behauptung #9: Der Klimawandel wird einen negativen wirtschaftlichen Effekt haben

In einem IPCC-Sonderbericht heißt es weiter: „Die wirtschaftlichen Verluste durch wetter- und klimabedingte Katastrophen haben zugenommen“ (Zusammenfassung)

(D)ie gesellschaftlichen Folgen dieser Veränderungen (Wirtschaft, Gesundheit, etc.) werden für einen großen Teil der Weltbevölkerung in naher Zukunft katastrophal sein. (Wolfgang Cramer)

Antwort 11: Dr. Patrick Michaels

Climate Feedback zitiert einen aktuellen Bericht des Intergovernmental Panel on Climate Change (IPCC) der Vereinten Nationen, in dem es heißt: „Die wirtschaftlichen Verluste durch wetter- und klimabedingte Katastrophen haben zugenommen.“

Hier hat der IPCC nur trivialerweise recht. Ja, die wetterbedingten Verluste müssen steigen, weil es mehr Menschen mit mehr Sachen gibt, die das gleiche Wetter erleben. Eine klarere Analyse würde die globalen wetterbedingten Schäden als Prozent des globalen BIP betrachten, wie in Abbildung 2.
Roger Pielke, Jr. hat in einer Veröffentlichung aus dem Jahr 2018 in der Fachzeitschrift Environmental Hazards Daten der Versicherungsbranche von Munich Re und BIP-Daten der Vereinten Nationen verwendet und einen leicht negativen Trend bei den Schäden im Laufe der Zeit festgestellt.

Abbildung 10 – Globale wetterbedingte Schäden in Prozent des globalen BIP bis 2018.  Quelle: Pielke, Jr., 2018 update of 2017 paper in Environmental Research.

Bedeutet der beobachtete leichte Rückgang der relativen Schäden, dass die sozialen Kosten der Kohlendioxidemissionen negativ sein könnten (d.h. ein Nutzen)? Es gibt eine gewisse Logik.  In der entwickelten Welt hat sich die Lebenserwartung seit 1900 fast verdoppelt, und in den USA hat sich das Pro-Kopf-Nettowert mehr als verelffacht. Könnte dies ein Teil eines global positiven Effekts sein?

Dayaratna et al. (2020) untersuchten das Verhalten der „social cost of carbon“ (SCC) und passten ihre landwirtschaftlichen Begriffe an die jüngsten Forschungen zu Wachstumssteigerungen an.  Während die Erträge in den meisten dieser Modelle um bis zu 25 % gesteigert werden können, fanden Munier et al. (2018) weitaus größere Steigerungen sowohl in natürlichen als auch in landwirtschaftlichen Ökosystemen. Er unterteilte Satellitendaten über sechs verschiedene Vegetationstypen rund um den Globus.

Die häufigsten in Munier et al. (2018) werden kollektiv als Grasland bezeichnet, ein Land, das größtenteils dazu genutzt wird, stehende Pflanzen für das Vieh bereitzustellen.  Er fand heraus, dass die Blattfläche über einen Zeitraum von 17 Jahren mit bemerkenswerten 5 Prozent pro Jahr zunimmt, was einen Nettozuwachs von 85 Prozent ergibt. Dies führt zweifellos zu einem bemerkenswerten Anstieg der Menge an erntefähigem, hochwertigem tierischem Protein.

Dayaratna et al. folgten auch den Richtlinien des Office of Management and Budget aus dem Jahr 2003 für Berechnungen von Vorschriften und verwendeten Abzinsungssätze von über 3 Prozent (das OMB empfiehlt Werte von bis zu 7 Prozent).  Sie verwendeten auch Temperaturszenarien, die mit den unten beschriebenen Klimasimulationen mit geringer Empfindlichkeit übereinstimmen, die die genauesten Simulationen der beobachteten tropischen troposphärischen Temperaturen seit Beginn der globalen satellitengestützten Temperaturaufzeichnungen im Jahr 1979 liefern.

Unter diesen Annahmen und bei jedem unterschiedlichen Diskontsatz fanden Dayaratna et al. heraus, dass der SCC leicht negativ ist.  Auch dies sollte angesichts des relativen Wohlstands und der hohen Lebensqualität in den Industrieländern, die stark auf kohlenstoffbasierte Brennstoffe angewiesen sind, nicht überraschen.

CF-Behauptung Nr. 10: Die Gutachter von Climate Feedback verlassen sich auf unwahrscheinliche und Worst-Case-Klimamodelle, um zukünftige Katastrophen vorherzusagen*

[*Diese Aussage ergibt keinen Sinn. Offenbar liegt da im Original irgendein Fehler vor. A. d. Übers.]

Antwort 12: Dr. Patrick Michaels:

In der Tat ist die Oberflächentemperatur der Erde gestiegen; etwa 0,9⁰C seit 1900. Oberflächenthermometer zeigen zwei deutliche Perioden der Erwärmung, wie in der Historie von der Climate Research Unit (CRU) an der University of East Anglia, eine langjährige Aufzeichnung, die sie in der begutachteten Literatur für buchstäblich Jahrzehnte gewesen ist und die ständig verbessert wird.

Die beiden Perioden der Erwärmung, etwa 1910-45 und dann 1976-98, sind in ihren Steigungen statistisch nicht unterscheidbar, aber die erste hat wahrscheinlich nur eine sehr kleine Komponente aus erhöhtem Kohlendioxid. Es folgt eine grobe Berechnung:

Eiskerndaten aus Law Dome zeigen, dass die Oberflächenkonzentration nur etwa 298 ppm betrug, als die erste Erwärmung begann, was einen CO2-Antrieb von +0,35 W/m² über dem Hintergrund ergibt, basierend auf der Standardformel (dRF= 5,35ln(298/279)). Beachten Sie, dass dies eine sehr großzügige Berechnung ist, da die Konzentration zu Beginn der CRU-Aufzeichnung näher bei 285 ppm liegt.

Stevens (2015), der Carslaw et al. (2013) zitiert, gibt einen Sulfat-Antrieb von -0,3 W/m² an, was zu einem kombinierten Netto-Antrieb von fast Null führt. Die Modelle so abzustimmen, dass sie diese Erwärmung mit einer so kleinen Strahlungsänderung wie im Jahr 1910 irgendwie berücksichtigen, impliziert eine enorme Empfindlichkeit. Wenn das tatsächlich der Fall wäre, wären die aktuellen Temperaturen so hoch, dass es kaum eine politische Debatte gäbe.

Der Anstieg von der Mitte des 19. Jahrhunderts (wenn die Aufzeichnung beginnt) beläuft sich wiederum nur von etwa 285 Teilen pro Million (ppm) auf 298. Zum Vergleich: Jetzt sind es etwa 417 ppm.

Die von Satelliten gemessenen Temperaturen der NOAA-Mikrowellen-Sondierung (MSU) stellen eine wirklich globale Aufzeichnung dar (mit einem nur sehr kleinen weißen Fleck über jedem Pol). Leider gab es umstrittene Revisionen der Oberflächenaufzeichnungen, die eine viel diskutierte „Pause“ in der Erwärmung von etwa 1998 bis 2012 abschwächten. Aber in den MSU-Satellitendaten ist sie sehr offensichtlich:

Abbildung 11 – Die neueste Version der MSU-Temperaturen. Diese liegen ungefähr in der 850-300mb Schicht. Quelle

Beachten Sie, dass es in der Zeit nach 1998 nur eine einzige signifikante Erwärmungsperiode gibt, nämlich von 2012 bis 2016.

Die Satellitendaten unterstreichen die Tatsache, dass die meisten Klimamodelle, wie in unserer nächsten Abbildung gezeigt, dazu neigen, quasi-lineare Erwärmungen vorherzusagen, was zum Teil darauf zurückzuführen ist, dass die Temperaturreaktion auf einen bestimmten Anstieg des Kohlendioxids logarithmisch ist, während der Anstieg des CO2 ein Exponent niedriger Ordnung ist. Die Summierung der beiden kann in der Tat linear sein. Die Steigung der gesamten Satellitenaufzeichnung war sehr konstant bei etwa 0,13 bis 0,14⁰/Dekade, gemittelt über die gesamte 42-jährige Aufzeichnung, was etwas weniger als die Hälfte der Erwärmungsrate ist, die von den Modellen für die letzten Jahrzehnte vorhergesagt wurde.

Die tatsächliche Erwärmung, die auf Kohlendioxid zurückzuführen ist, wird vom IPCC in seinem letzten (2013) umfassenden Bericht mit einem vagen „mehr als die Hälfte“ der Veränderung seit 1950 angegeben. Dies würde von ungefähr 0,3 bis 0,6⁰C variieren, basierend auf der CRU-Geschichte.

Es ist wichtig anzumerken, dass alle quantitativen Projektionen der Erwärmung – einschließlich derjenigen des IPCC, der verschiedenen US-amerikanischen „National Assessments“ der Auswirkungen des Klimawandels auf das Land und sogar des „Endangerment Finding“ der EPA von 2009 (das immer noch das Dokument der Aufzeichnungen ist) – alle auf komplizierten allgemeinen Zirkulationsmodellen (GCMs) oder noch komplizierteren Erdsystemmodellen (ESMs) basieren.

Mit einer Ausnahme sagen diese Modelle eine viel zu starke Erwärmung in einer klimatisch kritischen Region der Atmosphäre, der tropischen Troposphäre, voraus.

Die folgende Abbildung ist eine detaillierte Version von Abbildung 1 in Christy und McNider (2017), die GCMs und ESMs aus der CMIP-5-Modellsammlung zeigt, die im letzten IPCC-Bericht vorgestellt wurde, im Vergleich zu tropischen Temperaturen, die von Wetterballons, Satelliten und globalen Reanalysen gemessen wurden. Das Versagen der Modelle ist, mit einer Ausnahme, krass offensichtlich, und die Ähnlichkeit der Ballon-, Satelliten- und Reanalysedaten ist ein beruhigender Hinweis darauf, dass die CMIP-5-Modelle einfach falsch lagen.

Abbildung 12: Simulation vs. Realität

Das einzige Modell, das funktioniert, ist das russische INM-CM4, das auch die geringste voraussichtliche Erwärmung von allen hat, mit einer Gleichgewichts-Klimasensitivität (ECS) von 2,05⁰C, verglichen mit dem CMIP-5-Durchschnitt von 3,4⁰C.

Wenn die National Assessments oder das IPCC der besten wissenschaftlichen Praxis folgen würden (was die operativen Meteorologen jeden Tag tun!), würden sie dieses Arbeitsmodell hervorheben und die breitere, offensichtlich falsche Gemeinschaft der anderen meiden.

Eine genauere Betrachtung der vorhergesagten und beobachteten Erwärmungstrends in der Vertikalen stammt aus Abbildung 2 in Christy und McNider (2017):

Abbildung 13 – Dicke schwarze Linie: Durchschnittliche Erwärmungstrends pro Dekade. Dünne farbige Linien: Durchschnittliche Erwärmungstrends für jedes Modell. Farbige geometrische Figuren: Beobachtungen. Die vertikale Achse ist die Höhe, gemessen am atmosphärischen Druck. Der maximale Fehler liegt bei 200mb („20000“ in der Grafik). Die durchschnittliche vorhergesagte Erwärmungsrate auf dieser Höhe ist bemerkenswerterweise sechsmal so hoch wie die beobachtete. CMIP-5-Modellfamilie.

Seit dieser Arbeit wurden wir mit der nächsten (CMIP-6) Serie von Modellen konfrontiert. Wie von McKitrick und Christy (2020) gezeigt, sind sie noch schlechter. Und das eine von zwei, das funktioniert, das russische INM-CM4.8, hat sogar noch weniger Erwärmung als sein Vorgänger, mit einem ECS von 1,8⁰C, verglichen mit dem CMIP-6-Gemeinschaftswert von etwa vier Grad.[1] (Das andere ist auch ein sehr niedriges ECS-Modell aus der gleichen Gruppe, INM-CM5).

Ich zitiere aus ihrer Schlussfolgerung:

Die Literatur, die auf eine Aufwärtsverzerrung in den Erwärmungsreaktionen der Klimamodelle in der tropischen Troposphäre hinweist, reicht nun mindestens 15 Jahre zurück (Karl et al., 2006). Anstatt gelöst zu werden, hat sich das Problem verschlimmert, da nun jedes Mitglied der CMIP6-Generation von Klimamodellen einen Aufwärtsbias in der gesamten globalen Troposphäre sowie in den Tropen aufweist.

Climate Feedback erkennt nicht, dass diese Fehler fatal für die Zuverlässigkeit praktisch aller Ökosystem-Wirkungsmodelle (einschließlich der Landwirtschaft) sind. Der größte Teil der Feuchtigkeit in den Anbaugebieten der mittleren Breiten (einige der produktivsten landwirtschaftlichen Flächen der Erde) stammt aus den Tropen. Große und systematische Fehler in den tropischen vertikalen Niederschlagsprognosen für die Zukunft machen diese einfach unzuverlässig.

CF Behauptung #11: Wrightstone verwechselt natürliche Treiber mit der vom Menschen verursachten CO2-getriebenen Erwärmung

Der Autor macht den häufigen Fehler, die natürliche Variabilität (die leichte Erwärmung nach der Kleinen Eiszeit) und die aktuelle Erwärmung, die auf den Treibhausgasantrieb zurückzuführen ist, zu vermischen. Diese Prozesse werden von Klimawissenschaftlern gut verstanden. In der Tat gibt es keine alternative Erklärung für die jüngste schnelle Erwärmung, wie sie in diesem Climate Feedback Review beschrieben wird. (Wolfgang Cramer)

Antwort 13: Gregory Wrightstone:

Wie Dr. Michaels im vorigen Abschnitt erklärte, ist die Oberflächentemperatur der Erde seit 1900 um etwa 0,9⁰ C gestiegen.  Die HadCRUT4-Thermometeraufzeichnung zeigt, dass es im 20. Jahrhundert zwei verschiedene Perioden der Erwärmung gab, ungefähr 1910-45 und dann 1976-98. Die Steigungen der beiden Perioden sind ununterscheidbar, obwohl die frühere in einer Periode mit niedrigem CO2-Gehalt von weniger als 300 ppm stattfand und jede CO2-Erwärmung vernachlässigbar wäre, während die letztere bei Werten von mehr als 400 ppm stattfand.

Die Abbildung unten zeigt beide Erwärmungsperioden und ich fordere Sie heraus zu entscheiden, welche in einer CO2-armen Umgebung und welche bei >400 ppm stattfand.

Abbildung 14 – Welcher Temperaturanstieg des 20. Jahrhunderts ist derjenige, der angeblich durch CO2-getriebene Erwärmung verursacht wurde?

Der unten dargestellte Central England Temperature Record ist die älteste verfügbare kontinuierliche Thermometeraufzeichnung und stammt aus dem Jahr 1659. Ebenfalls dargestellt sind die globalen Kohlenstoffemissionen, die eine 250-jährige Aufzeichnung der Erwärmung in einer CO2-armen Umgebung dokumentieren. In den ersten 200 Jahren der Erwärmung ist die CO2-bedingte Erwärmung nahezu null bis vernachlässigbar. Beachten Sie auch, dass die höchste Erwärmungsrate während der ersten 40 Jahre von 1695 bis 1735 auftrat, als die Erde begann, sich von den niedrigsten Temperaturen seit 12.000 Jahren (Kleine Eiszeit) zu erholen.

Abbildung 15 – Mehr als 250 Jahre Erwärmung traten auf, bevor der Mensch begann, große Mengen CO2 in die Atmosphäre einzubringen.

Autor: Gregory Wrightstone

Managing Director at the CO2 Coalition, expert reviewer of the United Nations Intergovernmental Panel on Climate Change, author of Inconvenient Facts: The science that Al Gore doesn’t want you to know. Bibliography here.

Link: https://wattsupwiththat.com/2021/06/06/fact-checking-the-fact-checkers/

Übersetzt von Chris Frey EIKE




EPA lässt schon wieder unbequeme Klimadaten verschwinden…

Indem die EPA die zuvor schon gezeigten Daten unvollständig wiedergibt, führt sie die Öffentlichkeit in die Irre, indem sie mit den Daten Schindluder treibt. Die Website Climate Realism zeigte als Erstes diesen Vorgang des Verschwindenlassens von Daten in dem Report National Fire Center Disappears ‘Inconvenient’ U.S. Wildfire Data.

Jetzt macht die EPA das Gleiche – sie löscht wichtige historische Temperaturdaten. Die EPA hat ihre frühere Webseite Climate Change Indicators: High and Low Temperature gelöscht und durch eine neue ersetzt. Zuvor zeigten sie den U.S. Heat Wave Index von 1895 bis 2015, der eindeutig die einzigartige Dürre- und Hitzeperiode der 1930er Jahre dokumentiert hatte.

Glücklicherweise vergisst das Internet nie, und erst am 1. Mai 2021 wurde die ursprüngliche EPA-Site im Internet archiviert, so wie in Abbildung 1 dargestellt:

Abbildung 1. Frühere EPA-Grafik vor der Änderung der Biden-Administration mit Daten von 1895 bis 2015.

Beachten Sie in Abbildung 1, dass es einen sehr auffälligen Temperaturanstieg in den 1930er Jahren während der sogenannten „Dust Bowl“-Periode in der Geschichte der USA gibt. Laut dem National Weather Service:

Die ‚Dust Bowl‘-Jahre von 1930-36 brachten den Vereinigten Staaten einige der heißesten Sommer, die jemals aufgezeichnet wurden, insbesondere in den Ebenen, dem oberen Mittleren Westen und den Staaten am Großen See. Im oberen Mississippi-Tal wurden in den ersten Juliwochen des Jahres 1936 die höchsten Temperaturen dieser Periode gemessen, darunter viele neue Rekordwerte.

Die Reihe von heißen, trockenen Tagen war auch tödlich. Landesweit wurden etwa 5000 Todesfälle mit der Hitzewelle in Verbindung gebracht.

Diese langjährige Hitzewellen-Index-Tabelle wurde nun durch eine neue Tabelle ersetzt, die jede Vorstellung von der großen Hitzewellen-Periode der 1930er Jahre einfach „verschwinden“ lässt. Die EPA löschte die früheren Daten und ersetzte sie durch Daten, die für ein alarmistisches Narrativ passender sind, wie Abbildung 2 unten zeigt:

Abbildung 2. Neue EPA-Karte nach dem Wechsel der Biden-Administration mit Daten von 1910 bis 2015.

Die EPA hat auch eine weitere neue Seite Climate Change Indicators: Heat Waves hinzugefügt, die nicht einmal die „Dust Bowl“ der 1930er Jahre enthält. Stattdessen beginnt die Auflistung der EPA in den 1960er Jahren, einem Hitzewellen-Minimum im 20. Jahrhundert, wie in Abbildung 3 zu sehen ist. Indem die EPA die neuen Diagramme in den 1960er Jahren beginnt, anstatt alle verfügbaren Daten bis 1895 zurück zu verwenden, stellt sie einen künstlichen positiven und ununterbrochenen Aufwärtstrend bei Hitzewellen sicher.

Abbildung 2. Neue EPA-Karte nach dem Wechsel der Biden-Administration mit Daten von 1910 bis 2015.

Positiv zu vermerken ist, dass die EPA die ursprüngliche Seite Climate Change Indicators: Drought beibehalten hat, die in Abbildung 4 zu sehen ist. Diese zeigt keinen sich verschärfenden Dürretrend in den Vereinigten Staaten. Angesichts der jüngsten Änderungen der anderen EPA-Diagramme ist dieses nicht alarmistische Dürre-Diagramm auf der EPA-Webseite wahrscheinlich nicht mehr lange zu sehen.

Abbildung 4. EPA-Seite Klimawandel-Indikatoren: Dürre

Zu Beginn der Seite Climate Change Indicators macht die EPA einige nachweislich falsche Aussagen:

Das Klima der Erde verändert sich. Die Temperaturen steigen, Schnee- und Niederschlagsmuster verschieben sich, und extremere Klimaereignisse – wie schwere Regenstürme und Rekordtemperaturen – treten bereits auf. Viele dieser beobachteten Veränderungen stehen im Zusammenhang mit dem steigenden Gehalt an Kohlendioxid und anderen Treibhausgasen in unserer Atmosphäre, verursacht durch menschliche Aktivitäten.

Die Entscheidung, die Geschichte der Wetter- und Klimadaten auszulöschen, macht deutlich, dass das Anfangsargument der EPA schwach ist und auf Rosinenpickerei von denjenigen Daten basiert, die nur mit ihrer Prämisse übereinstimmen.

Es scheint, dass wir die sowjetische Ära der „verschwindenden“ Diagramme und Daten betreten haben. Wenn die neue Klimawandel-Indikatoren-Serie der EPA ein Hinweis auf die zukünftigen Klimaberichte der Regierung ist, scheint es, dass wir jetzt in die Biden-Ära der „Säuberung unbequemer Klimadaten“ eintreten.

Anthony Watts is a senior fellow for environment and climate at The Heartland Institute. Watts has been in the weather business both in front of, and behind the camera as an on-air television meteorologist since 1978, and currently does daily radio forecasts. He has created weather graphics presentation systems for television, specialized weather instrumentation, as well as co-authored peer-reviewed papers on climate issues. He operates the most viewed website in the world on climate, the award-winning website wattsupwiththat.com.

Link: https://climaterealism.com/2021/05/epa-disappears-more-inconvenient-climate-data-including-the-1930s-u-s-dust-bowl/

Übersetzt von Chris Frey EIKE

 




Solarparks: Ein giftiger Fleck in der Landschaft

Jeden Monat werden etwa 1.000 Hektar Agrarland für „Photovoltaik“-Paneele und die dazugehörigen kilometerlangen Verkabelungen vorgesehen.

Die Regierung gibt zu, dass mehr als ein Fünftel unseres Ackerlandes letztendlich für „grüne“ Initiativen wie diese verloren gehen wird.

Letzte Woche zählte die Mail on Sunday 270 Solarfarmen, die im ganzen Land im Bau sind oder auf eine Baugenehmigung warten.

Umweltlobbyisten argumentieren, dass Solarenergie ein entscheidender Teil einer nachhaltigen Zukunft ist, aber sie sprechen weniger über die wachsenden Zweifel, die von Wissenschaftlern und wütenden Gruppen von Anwohnern erhoben werden.

Denn abgesehen davon, dass sie die Landschaft ruinieren, sind Solarmodule auch noch erbärmlich ineffizient bei ihrer einzigen Aufgabe – nämlich Strom inmitten der Wolken und des Regens in Nordwesteuropa zu erzeugen.

Und dann ist da noch die Frage der Entsorgung.

Die Materialien, aus denen die Paneele hergestellt werden, haben eine Lebenserwartung von weniger als 50 Jahren und sind schwierig und teuer zu recyceln, was die Aussicht auf Berge von ausrangierten Paneelen erhöht, aus denen gefährliche Schwermetalle austreten.

Und da die Mehrheit der Paneele mittlerweile in China hergestellt wird, gibt es Befürchtungen – die nur allzu plausibel sind – dass einige in Zwangsarbeitslagern produziert wurden, einschließlich solcher, in denen Mitglieder der unterdrückten uigurischen Minderheit inhaftiert sind.

„Eine Stromversorgung, die immer sowohl unvorhersehbar und als auch intermittierend ist, ist nicht sinnvoll“, sagt Christopher Darwin.

In ein paar Jahren, wenn die Stromausfälle im Winter wie erwartet zunehmen, werden sich die Leute fragen, warum Solaranlagen auf dem Lande nur als teures Spielzeug betrachtet wurden.

Den Demonstranten hat sich der Schauspieler und Anwohner John Nettles angeschlossen, der in der Nähe ein kleines Grundstück besitzt.

Nettles, der durch seine Rollen in „Bergerac“ und „Midsomer Murders“ bekannt wurde, ist heute in einem Video zu sehen, in dem er die Ausbreitung von Solarfarmen und insbesondere die geplante Mega-Entwicklung in der Nähe des Dorfes Pyworthy anprangert.

„Genug ist genug“, sagt er. Die Menschen müssen das enorme Ausmaß und die visuellen Auswirkungen verstehen.

Das gigantische neue Projekt bei Derril Water würde die pastorale Landschaft in diesem Teil von Devon entweihen und in eine Industrielandschaft mit Solarzellen und Sicherheitszäunen verwandeln.

Es würde 164 Hektar Weideland für mindestens 40 Jahre ruinieren. Die Entscheidungsträger … haben es versäumt, den Kohlenstoff-Fußabdruck der Herstellung von 76.000 Solarpaneelen auf der anderen Seite der Welt zu berücksichtigen, die hierher transportiert und installiert werden.

„Sie sind einfach nicht Low Carbon“.

Das britische Wetter ist so ungeeignet, dass laut Berechnungen die meisten britischen Solarfarmen im Laufe eines Jahres nie mehr als 12 Prozent ihrer tatsächlichen Erzeugungskapazität erreichen werden.

Die Solarenergie trug im letzten Monat mickrige sieben Prozent zur Stromversorgung des National Grid bei, obwohl der April ungewöhnlich sonnig und trocken war. Im Dezember betrug der Beitrag der Solarenergie erbärmliche 0,67 Prozent der Gesamtmenge.

Dr. Benny Peiser, Direktor des Think-Tanks Global Warming Policy Foundation (GWPF), sagt, dass Solarenergie in diesem Land keinen Sinn macht und die vielen Meilen an Landschafts-Verschandelung wahrscheinlich mehr Schaden als Nutzen bringen.

„Es gibt einfach nicht genug Sonne! Vielleicht ist es in der Sahara, wo niemand lebt, sinnvoll, diese riesigen, kilometerlangen Solarpaneele zu haben. Aber in Großbritannien mache ich mir Sorgen über die unbeabsichtigten Folgen. Man müsste etwa fünf Prozent der gesamten Fläche Großbritanniens mit Solarzellen bedecken, um genug Energie zu erzeugen, um alles am Laufen zu halten – und das nur tagsüber. In der Nacht funktionieren sie natürlich nicht. Sie hinterlassen einen riesigen ökologischen Fußabdruck. Ein einziges Atomkraftwerk steht auf einem Quadratkilometer Land. Für Solarmodule, die die gleiche Energie erzeugen, bräuchte man 10.000 Mal mehr Platz – vielleicht sogar noch mehr.“ […]

Direkte staatliche Subventionen für Solarparks wurden 2019 eingestellt (obwohl frühere lukrative Vereinbarungen noch in Kraft sind).

Aber die Pachten von Solarparks übertreffen bei weitem die prekären Gewinne aus der konventionellen Landwirtschaft. Berichten zufolge verdienen Landbesitzer in Devon jedes Jahr bis zu 2.000 £ pro Acre mit Solaranlagen.

Einige Schafzüchter in der Grafschaft verdienen angeblich nur 6 Pfund pro Hektar.
Laut Dr. John Constable, Direktor der Renewable Energy Foundation, wird diese Kluft dank der Regierungsinitiative „Net Zero By 2050“ nur noch größer werden.

Bedrängte Landwirte haben erkannt, dass und wie sie einen Gewinn erzielen können – und beeilen sich, diesen Vorteil zu nutzen.

„Der Netto-Null-Trieb ist so unempfindlich gegenüber Kosten und Umweltschäden, dass eine Menge sehr seltsamer Dinge passieren“, sagt Dr. Constable.

Die Bremsen sind komplett gelöst. Es ist ein ungehemmter Bereich der Wirtschaft. Wir bereiten uns darauf vor, einen großen Teil des britischen Ackerlandes an ein zweitklassiges Stromsystem zu verlieren.

Wir haben eine wachsende Bevölkerung, so dass wir in ein paar Jahrzehnten zu 50 Prozent von importierten Lebensmitteln abhängig sein werden.

Ist das eine vernünftige Art, eine endliche Ressource zu nutzen, besonders nach dem Brexit? Es ist eine sehr merkwürdige Sache, das zu tun.

Und es könnte noch schlimmer kommen.

Dank eines Schlupflochs im Planungssystem glaubt Dr. Constable, dass Solarparks eine gute Möglichkeit für Entwickler sind, minderwertiges Ackerland in eine „Brachfläche“ zu verwandeln, die in Zukunft möglicherweise überbaut werden kann.

„Einige Landeigentümer betrachten dies als Nussknacker-Programm“, sagt Dr. Constable.

Ackerland ist meist vor Bebauung geschützt – außer für Solaranlagen.

Wenn Sie mehrere Tausend Hektar Land besitzen und gerne ein Gewerbegebiet hätten, ist Solar eine gute Möglichkeit, die Planungsnuss zu knacken.

Der ganze Beitrag steht hier.

Full story

Link: https://www.thegwpf.com/a-toxic-blot-on-the-landscape-solar-farms-are-ruining-views-and-causing-misery-for-residents/

Übersetzt von Chris Frey EIKE

 




Eine realisierbare Alternative zur chinesischen Mineralien-Hegemonie

(Ganz zu schweigen davon, dass sie für unsere Verteidigungs- und Luft- und Raumfahrttechnologien von entscheidender Bedeutung sind … und das alles auf der Grundlage dessen, was ich als hochgradig orchestrierte, betrügerische, gefälschte Angstmacherei vor der globalen Erwärmung betrachte. – D. F.).

„Aber das ist eindeutig nicht der Fall. Amerika ist immer noch abhängig von China und anderen oft weniger-als-freundliche Quellen für etwa 80% dieser wesentlichen Rohstoffe – und diese unhaltbare Situation wird immer schlimmer  – vor allem, weil diese Beamten und ihre verbündeten Umweltschützer energisch Exploration und Bergbau in den USA  unterdrücken wollen. Das trifft auch für die benötigten Materialien zu, die ihre ‚erneuerbare‘ Energie-Utopie überhaupt möglich machen würden.

In diesem Artikel stellt Duggan Flanakin die nackte Realität in einer Weise dar, die zum Handeln anspornen sollte. Ob er das tun wird, bleibt abzuwarten.“

Soweit Paul Driessen

Der lange und verschlungene Weg zum Aufbau einer Lieferkette Seltener Erden in der Freien Welt

Ausgelöst durch einen weltweiten Mangel an Chips, der sich bereits auf die Automobilproduktion auswirkt, unterzeichnete Präsident Biden im Februar eine Exekutivanordnung, die eine 100-tägige umfassende Überprüfung der Lieferketten für kritische Materialien für Halbleiter und Batterien mit hoher Kapazität, einschließlich der Seltenen Erden, anordnet. Sie baut auf Analysen, Berichten und Verordnungen auf, die vor einigen Jahren von der Trump-Regierung initiiert worden waren.

Die nackte Wahrheit, die dieser Rückblick hervorheben soll ist, dass die USA und ihre westlichen Verbündeten in einem Wettlauf, den nur China erkannt zu haben scheint, am Start zurückgelassen wurden.

Die Chinesen haben schon vor Jahrzehnten mit dem Aufbau ihrer heute dominierenden Lieferkette begonnen. Die USA waren zu 100 % auf Nettoimporte von Seltenen Erden angewiesen, wobei 80 % dieser Importe aus China stammten.

Der Berater für Technologiemetalle Jack Lipton hat fünf Schritte in einer vollständigen Lieferkette für Seltene Erden beschrieben. An erster Stelle steht der Bergbau, gefolgt von der Extraktion der Seltenen Erden aus den Bergbaukonzentraten und der Herstellung von sauberen, gemischten Seltenen-Erden-Produkten vor der PLS (pregnant leach solution). (Tatsächlich gibt es noch einen weiteren Schritt, der dem Abbau vorausgeht, zumindest in den westlichen Ländern – die Einholung der Abbaugenehmigung – und das ist oft der schwierigste und zeitaufwendigste Schritt von allen).

Bergbauunternehmen führen typischerweise diese beiden Schritte durch, und manchmal auch den dritten – die Trennung der gemischten Seltenen Erden in einzelne Oxide und Mischungen. Spezialisierte kleinere Unternehmen übernehmen typischerweise Schritt 4, die Herstellung von chemischen Produkten (wie Phosphor und Katalysatoren) und einzelnen Metallen und Legierungen, sowie Schritt 5, die Herstellung von Seltene-Erden-Dauermagneten aus Seltene-Erden-Legierungen.

China kontrolliert heute etwa 80 % der weltweiten Seltene-Erden-Produktionskapazitäten, 43 % der Exporte und fast 90 % der Raffinierung. Keine andere Nation verfügt heute über eine funktionierende komplette Seltene-Erden-Lieferkette. Das bedeutet, dass die USA und ihre westlichen Verbündeten einen großen Nachholbedarf haben; die westlichen Nationen haben es auch versäumt, strategische Strategien für Seltene Erden zu entwickeln und umzusetzen.

Ein Grund für diese strategischen Versäumnisse ist die starke Opposition gegen den Bergbau und insbesondere gegen das Wort „radioaktiv“ (für Seltene-Erden-Vorkommen, die mit Thorium und Uran in Monazit-Erzen verbunden sind) seitens der Wählerschaft, die gegen umweltschädliche Bergbaupraktiken ist.

Der Energieberater David Blackmon behauptete kürzlich: „Es wird keine erfolgreiche ‚Energiewende‘ oder ‚Green New Deal‘-Umsetzung in den Vereinigten Staaten geben“, wenn es den Unternehmen nicht erlaubt wird, auf die reichhaltigen Vorräte des Landes an Kupfer, Nickel, Kobalt und Seltenen Erden zuzugreifen. Dennoch, so beklagt er, sind die schärfsten Befürworter von Dekarbonisierung und erneuerbaren Energien oft die schärfsten Gegner des heimischen Abbaus dieser kritischen Mineralien.

[Hervorhebung vom Übersetzer]

Die ablehnende Haltung gegenüber dem Bergbau ist nach wie vor erheblich, vor allem bei Umweltgruppen und Fachleuten in den Aufsichtsbehörden. In einem kürzlich erschienenen Artikel wurde zum Beispiel darauf hingewiesen, dass Offshore-Windturbinen, die für Präsident Bidens Forderung nach 30.000 Megawatt Strom aus Offshore-Wind bis 2030 unerlässlich sind, 63.000 Pfund Kupfer pro Turbine benötigen – 8 Tonnen Kupfer pro Megawatt Energieertrag.

Die Weltkupferpreise stiegen im Mai auf ein Allzeithoch von 10.440 $ pro Tonne, eine Zahl, die vielleicht durch die Entscheidung der Biden-Administration begünstigt wurde, die Genehmigung für zwei große US-Kupferminen – das Rio Tinto/BHP Group Resolution Copper Joint Venture in Arizona und die PolyMet NorthMet Kupfer-Nickel-Edelmetall-Mine in Minnesota – auszusetzen. Bemerkenswert ist, dass PolyMet seine Suche nach Genehmigungen vor 17 Jahren begann, nachdem es im Jahr 2000 die Mineralrechte für die NorthMet-Lagerstätte gepachtet hatte.

Dieser träge Ansatz in der Energie- und Materialpolitik kann nicht Bestand haben, wenn die USA zuverlässige, erschwingliche Lieferketten für kritische Materialien aufbauen wollen. Brian Menell, Vorsitzender und CEO von TechMet, erklärte kürzlich: „Um im Energie- und Automobilbereich führend zu bleiben, müssen die USA eine ausreichende Versorgung mit den Metallen sicherstellen, die für die industrielle Revolution des 21. Jahrhunderts notwendig sind.“

Menells Firma „baut Projekte, die ‚Technologiemetalle‘ produzieren, verarbeiten und recyceln, die für Elektrofahrzeuge, erneuerbare Energiesysteme und Energiespeicher entscheidend sind.“ Er forderte die [US-]Bundesregierung auf, mit dem privaten Sektor zusammenzuarbeiten, um die Lieferketten zwischen Partnern und Verbündeten zu verbessern. Er forderte eine „massive Finanzierung“, um die US-Industrie für kritische Metalle umzugestalten und die globale Produktion hochzufahren, um den geometrisch wachsenden Bedarf zu decken.

Es gibt ein Gefühl der Dringlichkeit in Menells Kommentaren, das von Andrew Miller, Produktdirektor bei Benchmark Mineral Intelligence, bestätigt wird. Miller sagte gegenüber NPR’s Marketplace, dass man zwar „eine neue Fabrik für Elektrofahrzeuge in ein paar Jahren bauen kann“, aber „um die Verarbeitung einer neuen Rohstoffanlage zu finanzieren, zu starten und zu verfeinern, braucht man fünf bis sieben Jahre“. Und das auch nur bei einem beschleunigten Genehmigungsverfahren, das den Widerstand von Bürgern und Bürgerinitiativen aushebelt.

In einer vierteiligen Serie über die chinesische Dominanz in der Seltene-Erden-Industrie erklärten Jamil Hijazi und James Kennedy, dass China seine Seltene-Erden-Industrie als Teil einer sorgfältig ausgearbeiteten nationalistischen Strategie zur Weltherrschaft aufgebaut hat, die nicht durch das Streben nach privaten Profiten motiviert ist.

[Hervorhebung vom Übersetzer]

Jetzt, mit ihrer Marktanteilsdominanz, „nutzt China undurchsichtige Subventionen, um jegliches Gewinnpotenzial für Wettbewerber auszuschalten. Kein Gewinnpotenzial, keine Wettbewerber, Chinas metallurgisches Monopol bleibt sicher und unangefochten.“ Noch entmutigender ist, dass der Mangel an nicht-chinesischen Verarbeitungs-, Raffinierungs- und Metallurgiekapazitäten bedeutet, dass die Welt China ihr geringwertiges Erz-Konzentrat verkauft und China viel höherwertige Endprodukte zurück verkauft.

Menell weist darauf hin, dass Chinas Dominanz bei Seltenen Erden „das Ergebnis jahrzehntelanger erfolgreicher zentraler Planung ist, um die Mineralien zu sichern, die für die Entwicklung von Technologien in strategischen Sektoren wie Energie, Auto und Verteidigung benötigt werden.“

Präsident Bidens Executive Order, die das Konzept belastbarer, vielfältiger und sicherer Lieferketten unterstützt, ist sicherlich bewundernswert. Dennoch, so Menell, müssen die Vereinigten Staaten die Versorgung mit kritischen Mineralien zu einem zentralen Bestandteil sowohl der Innen- als auch der Außenpolitik machen.

Menell merkt an, dass die Biden-Administration auch die amerikanische Öffentlichkeit darüber aufklären muss, dass der Abbau und die Verarbeitung von kritischen Materialien von amerikanischen Firmen mit viel geringeren Umweltauswirkungen durchgeführt werden kann als von chinesischen Firmen und dass Amerikas wirtschaftliches Wohlergehen stark von einer integrierten Wertschöpfungskette für Seltene Erden abhängt.

„Die Vereinigten Staaten können es sich nicht leisten, bei der bedeutendsten Transformation der globalen industriellen und technologischen Landschaft seit der Erfindung der Dampfmaschine ein Zuschauer zu sein“, betonte Menell.

Wenn die USA – und andere westliche Nationen – nicht mutig und kontinuierlich handeln, werden sie dazu verdammt sein, sich Chinas eisernem Griff auf die Technologie des 21.
Jahrhunderts zu unterwerfen.

Unangefochten könnte China sein Imperium nach Süden und Osten ausdehnen, während westliche Stimmen durch ihre völlige Abhängigkeit von der chinesischen „Großzügigkeit“ bei der Lieferung von Materialien für Smartphones, Windturbinen, Elektrofahrzeuge, Verteidigungs- und Raumfahrttechnologien mehr und mehr verstummen. China könnte auch weiterhin US-amerikanische und andere westliche Unternehmen dazu zwingen, ihre wertvollsten Unternehmens- und nationalen Sicherheitsgeheimnisse und sogar ihre Gewinne mit ihren chinesischen „Wohltätern“ zu „teilen“.

Duggan Flanakin is director of policy research at the Committee For A Constructive Tomorrow (www.CFACT.org). He began his career as chief editor for scientific research at the U.S. Bureau of Mines.

Link: https://www.iceagenow.info/35616-2/

Übersetzt von Chris Frey EIKE

 




Kältestes „Sommer“-Wochenende jemals in Atlantic City

Im Südosten New Jerseys herrschten am Memorial-Day-Wochenende rekordverdächtig niedrige Temperaturen. Der Atlantic City International Airport verzeichnete sowohl am Samstag als auch am Sonntag die niedrigsten jemals gemessenen Tageshöchsttemperaturen.

Wie pressofatlanticcity.com berichtet, entsprachen die Höchsttemperaturen von 12 Grad während des „megteorologischen Sommeranfangs“ den mittleren Werten für März und waren die kältesten, die in Wetterbüchern seit 1943 aufgezeichnet worden waren.

In der S. Farley Marina in Atlantic City [einem Freizeitzentrum] wurden am Samstag und Sonntag Tageshöchstwerte von nur 13 Grad gemessen.

Am Sonntag war auch ein neuer Tiefstwert aufgetreten in einer Reihe, die in der Marina bis ins Jahr 1874 zurückreicht.

Millville brach auch einen Rekord für die niedrigste Maximaltemperatur am Sonntag – das Thermometer kletterte auf nur 11 Grad.

Nach Recherchen von The Press of Atlantic City war es das kühlste Samstag- und Sonntagswochenende während der „Sommer“-Saison – die vom Freitag vor dem frühestmöglichen Memorial Day, dem 22. Mai, bis zum spätestmöglichen Labor Day, dem 7. September, für A.C. Airport und Millville reicht.

In den Vereinigten Staaten hat das Jahr bisher insgesamt 19.510 neue tägliche KÄLTE-Rekorde im Vergleich zu nur 15.291 für HITZE-Rekorde geliefert – und das laut den Alarmisten der NOAA mit ihrer Historie der Datenmanipulation.

Außerdem sind insgesamt 921 monatliche KÄLTE-Rekorde gefallen gegenüber nur 365 für die HITZE.

Und noch bezeichnender ist, dass in diesem Jahr insgesamt 222 KÄLTE-Rekorde gefallen sind, gegenüber nur einem für WÄRME.

Die leichte Erwärmung, die in den letzten Jahrzehnten beobachtet wurde, kann auf die hohe Sonnenaktivität zurückgeführt werden.

In den letzten Jahren ist die Sonnenaktivität jedoch (relativ) stark zurückgegangen, und jetzt, nach einer Verzögerung von etwa zehn Jahren, reagieren die globalen Temperaturen darauf.

Alle offiziellen Datensätze greifen die starke Abkühlung auf, die seit 2016 beobachtet wurde, denn im Gegensatz zur AGW-Theorie ist dies keine Fantasie, und wir können getrost reale Beobachtungen verwenden, um eine Abkühlung des Planeten zu unterstützen – es sind keine peinlichen, unlogischen Erklärungen notwendig.

Trends ändern sich (sorry IPCC).

Das Klima ist zyklisch, niemals linear (such dir ein anderes Steckenpferd, Greta).

Und es wird jetzt immer schwieriger für die Regierungsbehörden, die sich verstärkende globale Abkühlung zu verbergen/zu erklären. Die NOAA und die NASA haben alle Tricks der Datenfälschung, des Ignorierens von UHI und der Rosinenpickerei angewandt, die sie haben, aber ihre globalen Temperaturdaten zeigen immer noch eine deutliche ABKÜHLUNG.

Die beiden Diagramme unten zeigen den berechneten linearen jährlichen globalen Temperaturtrend für die letzten 5, 10, 20, 30, 50, 70 oder 100 Jahre, mit freundlicher Genehmigung von climate4you.com.

Das erste Diagramm zeigt die Satelliten-Temperaturtrends für die am häufigsten zitierten UAH- und RSS-Datensätze:

Diagramm, das den jüngsten linearen jährlichen globalen Temperaturtrend über 5, 10, 20 und 30 Jahre zeigt, berechnet als Steigung der linearen Regressionslinie durch die Datenpunkte, für zwei satellitenbasierte Temperaturschätzungen (UAH MSU und RSS MSU). Letzter in die Analyse einbezogener Monat: Januar 2021.

Die zweite Grafik zeigt die Oberflächentemperaturaufzeichnung für GISS, NCDC und HadCRUT4:

Diagramm, das den letzten linearen jährlichen globalen Temperaturtrend über 5, 10, 20, 30, 50, 70 und 100 Jahre zeigt, berechnet als Steigung der linearen Regressionslinie durch die Datenpunkte, für drei oberflächenbasierte Temperaturschätzungen (HadCRUT4 und GISS + NCDC). Letzter in die Analyse einbezogener Monat: Januar 2021.

Beachten Sie den starken Abkühlungstrend, der von allen fünf Datensätzen in den letzten fünf Jahren beobachtet wurde.

Beachten Sie auch den Unterschied zwischen satelliten- und oberflächenbasierten Temperaturen, wobei die zuverlässigeren Satelliten einen größeren Temperaturrückgang anzeigen.

Das Diagramm unten zeigt den für die letzten 5 Jahre berechneten Trend:


Eindeutig ist erkennbar, dass die mittlere Temperatur der Erde während der letzten paar Monate im Sinkflug begriffen ist.

Weitere Details gibt es hier.

Link: https://electroverse.net/coldest-summer-weekend-on-record-in-atlantic-city/

Übersetzt von Chris Frey EIKE




Der „Neue Stillstand“ verlängert sich um weitere 2 Monate auf nunmehr 6 Jahre 2 Monate

HadCRUT4 hat nach einigem Hin und Her seinen monatlichen Datensatz mit drei Monaten neuer Daten aktualisiert, was uns bis März 2021 bringt. Der neue Stillstand in den HadCRUT4-Daten hat sich auf 7 Jahre und 1 Monat verlängert:

Wie haben sich nun also die Daten der realen Welt im Vergleich zu den Prophezeiungen der Modelle gemacht, wie sie vom IPCC (1990) verbreitet worden waren? Die IPCC-Prophezeiung sah so aus:

Da die Vorhersage des IPCC von 1,8 C° anthropogener Erwärmung mit der vorindustriellen Temperatur verglichen wird, muss man die HadCRUT4-Erwärmung von 0,54 C° von 1850 bis April 1991 abziehen. Die Vorhersage des IPCC belief sich also auf 1,26 C° bis 2030.  UAH zeigt jedoch nur 0,46 C° in 30 Jahren, was etwa 0,61 C° bis 2030 entspricht, wovon 70%, also nur 0,43 C°, anthropogen sind (Wu et al. 2019):

Daher hat sich die Vorhersage des IPCC aus dem Jahr 1990, auf der die Angst vor der globalen Erwärmung beruhte – die von Professor Lindzen in einem ausgezeichneten Vortrag vor kurzem zu Recht als „absurd“ bezeichnet wurde – als eine fast dreifache Übertreibung im Vergleich zur nüchternen Realität erwiesen.

Hier ist der Grund dafür. Die heutige globale mittlere Oberflächentemperatur beträgt 288,6 K, bestehend aus 255,2 K Emissionstemperatur und 33,4 K Treibhauseffekt. Die 33,4 K setzen sich zusammen aus 7,2 K direkter Erwärmung durch natürliche (6,2 K) und anthropogene (1 K) Treibhausgase und 26,2 K Rückkopplungseffekt. Von diesen 26,2 K sind 25,5 K Rückkopplungsreaktion auf die Emissionstemperatur und 0,7 K auf die direkte Erwärmung durch Treibhausgase. Von diesen 0,7 K sind 0,6 K Rückkopplungsreaktion auf natürlich vorkommende und 0,1 K auf anthropogene Treibhausgase.

Der heutige System-Gain-Faktor, das Verhältnis der Gleichgewichtstemperatur nach der Rückkopplung zur Referenztemperatur vor der Rückkopplung, beträgt also 288,6 / (255,2 + 7,2), also 1,1. Die Referenzsensitivität gegenüber verdoppeltem CO2 ist das Produkt aus dem 3,52 W/m² verdoppelten CO2-Antrieb (Zelinka et al. 2020) und dem Planck-Parameter 0,3 K/Wm²: also 1,05 K. Die Gleichgewichts-Sensitivität gegenüber verdoppeltem CO2, das Produkt aus 1,05 K und dem System-Gain-Faktor 1,1, beträgt also etwa 1,15 K – das entspricht in etwa der anthropogenen globalen Erwärmung, die wir über das gesamte 21 Jahrhundert erwarten können.

Folglich ist die mittlere mittlere Vorhersage von 3,9 K in den Modellen der neuesten Generation (CMIP6) (Zelinka et al. 2020) eine mehr als dreifache Übertreibung, die auf der Vorstellung der Klimaforscher beruht, dass es keine Rückkopplung auf die Emissionstemperatur gibt. Ihr Systemverstärkungsfaktor 26,2 / 6,2, also 4,2, übersteigt den realen Wert von 1,1 fast um das Vierfache.

Kommt schon, Leute! Wann merkt ihr endlich, dass die Sonne scheint? Es ist die Sonne, die für fast alle Rückkopplungsreaktionen im heutigen Klima verantwortlich ist. Referenz- und Gleichgewichts-Sensitivität sind ungefähr gleich, und man kann die Rückkopplungsreaktion bei der Ableitung der Gleichgewichts-Sensitivität ohne signifikanten Fehler ganz vernachlässigen. Referenzsensitivitäten sind alles, was man braucht. Und damit ist der Klimanotstand beendet.

Link: https://wattsupwiththat.com/2021/06/02/the-new-pause-lengthens-by-another-2-months-to-6-years-2-months/

Übersetzt von Chris Frey EIKE

 




Die Mai-Bundesliga-Tabelle – Vorschlag einer CO2-Freiwilligen­steuer in Deutschland

Der Hohenpeißenberg (HPB) gibt eine erste Antwort

Wenig verändert: Schon über 200 Jahre betrieben die Mönche im dortigen früher unbeheizten Kloster eine Wetterstation, die an der nördlichen Außenwand des Anbaus an der Klosterkirche in etwa 7 m Höhe neben einem Fenster angebracht war. Nach Gründung des Reichswetterdienstes mit normierten neuen Standortbedingungen wurde die Station nach 1936 an einen wärmeren und etwas tiefer gelegenen Standort verlegt, der inzwischen zu einem umfangreichen DWD-Messzentrum ausgebaut wurde. So steht die neue Wetterhütte frei auf dem DWD-Messfeld und ist der Sonne ausgesetzt. Im Mai 2021 waren es 183 Sonnenscheinstunden. Wir schätzen die menschengemachte Wärmeinselzugabe aufgrund des Standortwechsels auf etwa 0,3 bis 0,5 C ab dem Jahre 1936 ein, d.h. die seitdem gemessenen Temperaturen müsste man entsprechend nach unten korrigieren, was wir nicht getan haben, denn die Grafik 1 ist auch so eindeutig zur Verdeutlichung der Überschrift. Mai 2021: 8,2 °C, deutlich unter dem 240 jährigen Schnitt von 10°C

Grafik 1: Die Grafik zeigt deutlich, dass die warmen Maimonate, als die deutschen Maienlieder entstanden sind, vor über 200 Jahren konzentriert auftraten. Das momentane Temperaturplateau des Wonnemonates Mai befindet sich seit 1988 leicht über dem Schnitt der letzten 240 Jahre. Die kalten Jahrzehnte um 1881 sind in der Grafik gut zu erkennen.

Fazit: Die warmen Maimonate lagen in früheren Jahrhunderten.

Grafik 2: Auch bei der Wetterstation in Berlin-Tempelhof liegen die wirklich heißen Maimonate lange zurück. Wie schon beim HPB sind auch in Berlin um 1881 die Maimonate am kältesten. Mit 12,6°C lag der Mai 2021 in Berlin deutlich unter dem 265 jährigen Gesamtschnitt von 13,8°C

Im Gegensatz zum HPB ist die Wetterstation Tempelhof eine typische Wärmeinselstation. Einst lag sie einige Kilometer außerhalb von Berlin bei einem Gutshof, der tempelartig angeordnet war. Inzwischen hat die Großstadt den Gutshof geschluckt und ein neuer Stadtteil ist am selben Ort erwachsen.

Es existieren auch länger zurückliegende Deutschlanddaten, die sich aber nur auf wenige Stationen berufen können, bzw. die Daten wurden interpoliert. Wir verwenden für die nächste Grafik die Deutschlanddaten ab 1800, seit 1881 sind es die offiziellen DWD-Daten. Quelle

Die 15 wärmsten Maimonate Deutschlands in Form einer Bundesligatabelle.

Man achte auf die Jahreszahlen der warmen Maimonate. Der Mai 2019, 2020 und 2021 wären ein Absteiger aus der ersten Liga. Komisch in diesen letzten 3 Jahren waren die gemessenen CO2-Konzentrationen doch am höchsten.

Grafik 3: Unser Dichter Johann Wolfgang Goethe lebte noch zu den Zeiten des viertwärmsten Maimonats (1811) in Deutschland. Der Mai 2020 ist keineswegs an 16.ter Stelle, mit seinen 10,7°C er wurde auf dieser Grafik nur im Vergleich zu den 15 wärmsten eingezeichnet. Ein Ausreißer aus der Neuzeit, der sonnenreiche Mai 2018 führt die Deutschland-Tabelle an.

Auch diese Grafik zeigt: Das momentane Wärmeplateau des Monates Mai ist keineswegs ein hohes Niveau seit Beginn der Temperaturmessungen in Deutschland.

Vergleich der Maimonate mit den CO2-Messungen: Die Keeling Kurve

Nur 3 der 15 wärmsten Maimonate Deutschlands liegen im Zeitraum der ansteigenden CO2-Keeling-Kurve. Messbeginn am Mauna Loa: 1958

Grafik 4: Die CO2-Konzentrationen der Atmosphäre steigen vor allem nach dem Kriege stark an. Behauptet wird, dass die Ursache des CO2-Anstieges fast ausschließlich anthropogenen Ursprunges wäre. Zumindest seit der Corona-Krise darf man Zweifel anmelden, denn inzwischen ist der Wert im Mai 2020 auf 419 ppm angewachsen und keinesfalls in den letzten 15 Monaten gesunken.

Weiter wird behauptet, dass dieser CO2-Anstieg die Haupt-Ursache der Temperaturerwärmung wäre, die es aber für den Monat Mai in Mitteleuropa über einen längeren Zeitraum gar nicht gibt.

Fazit: 1) Die CO2-Konzentrationen steigen seit 1958 stetig an, sie sind auch im letzten Jahr trotz lock-down weiter gestiegen.

2) Der Monat Mai ist der Beweis, dass CO2 gar keinen oder höchstens einen minimalen Einfluss auf die Temperaturen hat.

Vorschlag: Wer weiterhin an ein Treibhausgas Kohlendioxid glaubt, für solche Menschen möge die neue Regierung eine CO2-Freiwilligensteuer einführen, damit diese Gläubige ihr Gewissen beruhigen können.




Verheerende Folgen „grüner“ Energiepolitik II: Das gigantische Abfall-Problem „grüner“ Energie

Riesige Mengen an Erde müssen abgebaut werden, um die spärlich vorhandenen Mineralien und Elemente zu gewinnen, die für die Herstellung der Akkupacks benötigt werden, die Elektroautos antreiben und die zusätzliche Energie liefern sollen, wenn der Wind nicht weht oder die Sonne nicht scheint. Bei der Raffinierung dieser Mineralien entsteht giftiger Schlamm, der die angrenzende und nachgelagerte Umwelt und die Menschen vergiftet. Ein noch Energie-intensiverer Abbau und eine noch Energie-intensivere Fertigung sind notwendig, um die Verbundwerkstoffe herzustellen, aus denen die Rotorblätter und Türme der Windkraftanlagen gefertigt werden. Für die Herstellung und den Transport der zehntausende Tonnen Kohlendioxid-intensiven Betons, der zur Verankerung jeder Windturbine benötigt wird, werden enorme Energiemengen verbraucht. Riesige Landflächen, meist erstklassige Aussichtspunkte, Lebensraum für Wildtiere und Wanderkorridore, werden in Energie erzeugende Industrieparks verwandelt, wenn Wind-„Farmen“ und riesige Solaranlagen errichtet werden.

Hinzu kommen die riesigen Abfallmengen, die entstehen, wenn Batterien, Windturbinen und Solarpaneele vorzeitig ausfallen oder am Ende ihrer Lebensdauer einfach nicht mehr funktionieren, und die sich nur schwer verarbeiten, recyceln oder entsorgen lassen.

Forscher beginnen, sich mit der letzteren Schwierigkeit zu befassen, die sich am Horizont abzeichnet: der Umgang mit der riesigen Menge an Abfall, die durch die enorme Expansion der grünen Energietechnologien entstehen wird. Das Magazin Science zum Beispiel schrieb kürzlich:

Das Batteriepaket eines Tesla Model S ist ein Meisterwerk der Ingenieurskunst. Tausende von zylindrischen Zellen mit Komponenten aus aller Welt wandeln Lithium und Elektronen in genügend Energie um, um das Auto hunderte von Kilometern anzutreiben, wieder und wieder, ohne Auspuffemissionen. Doch wenn die Batterie das Ende ihrer Lebensdauer erreicht hat, verblassen ihre grünen Vorteile. Wenn sie auf einer Mülldeponie landet, können ihre Zellen problematische Giftstoffe freisetzen, darunter Schwermetalle. Und das Recycling der Batterie kann eine gefährliche Angelegenheit sein, warnt die Materialwissenschaftlerin Dana Thompson von der University of Leicester. Schneidet man zu tief oder an der falschen Stelle in eine Tesla-Zelle, kann es zu einem Kurzschluss kommen, brennen und giftige Dämpfe freigesetzt werden.

Das ist nur eines der vielen Probleme, mit denen Forscher wie Thompson konfrontiert sind, die versuchen, ein neu auftretendes Problem anzugehen: wie man die Millionen von Batterien für Elektrofahrzeuge (EV) recyceln kann, die die Hersteller in den nächsten Jahrzehnten voraussichtlich produzieren werden. Die aktuellen Batterien für Elektrofahrzeuge „sind wirklich nicht für das Recycling ausgelegt“, sagt Thompson, ein Forschungsstipendiat an der Faraday Institution, einem Forschungszentrum in Großbritannien, das sich mit Batteriefragen beschäftigt.

Wie „Science“ weiter berichtet, entwickeln Regierungen Regeln, die ein gewisses Recycling von Batterien vorschreiben. Dies wird jedoch ein schwieriges und kostspieliges Unterfangen sein, das die ohnehin schon hohen Kosten für grüne Energie weiter in die Höhe treiben wird, denn:

Batterien unterscheiden sich stark in ihrer Chemie und Konstruktion, was es schwierig macht, effiziente Recyclingsysteme zu schaffen. Und die Zellen werden oft mit zähen Klebstoffen zusammengehalten, die es schwierig machen, sie auseinander zu nehmen. Das hat zu einem wirtschaftlichen Hindernis beigetragen: Für Batteriehersteller ist es oft billiger, frisch abgebaute Metalle zu kaufen als recycelte Materialien zu verwenden.

Das oben beschriebene Problem berührt noch nicht einmal die Frage, wie die Welt mit den Millionen von Batterien umgehen wird, die in riesigen Lagerhäusern platziert werden, um Backup- oder Ersatzstrom für die riesige Wind- und Solarenergie-Expansion der Biden-Harris-Regierung bereitzustellen.

Schon bevor Biden seinen großen Vorstoß zur Ausweitung des Einsatzes von Elektrofahrzeugen und industriellen Wind- und Solarenergieanlagen begann, kämpften Städte, Bundesstaaten und Regionen bereits damit, mit dem zunehmenden Abfall von stillgelegten Windturbinen und Solarmodulen fertig zu werden, der aus den vergangenen zwei Jahrzehnten des Ausbaus von Wind- und Solarenergie resultierte – gefördert und angetrieben durch verschiedene Arten von Bundes- und Staatssubventionen und andere Formen der Unterstützung.

In der April-Ausgabe 2017 von Waste Management wurde konservativ geschätzt, dass die Entwickler von Windenergieanlagen bis 2050 weltweit 43 Millionen Tonnen Abfall von Windturbinenblättern entsorgen müssen. Obwohl theoretisch etwa 90 Prozent der Kleinteile einer Turbine recycelt oder verkauft werden können, gilt dies nicht für die Rotorblätter, die aus einem Verbundstoff aus Harz, Glasfaser und anderen Materialien bestehen.

Diese Rotorblätter sind teuer in der Stilllegung und im Transport. Sie sind bis 100 m lang, so dass die Betreiber sie vor Ort in kleinere Stücke schneiden müssen, bevor sie mit spezieller Ausrüstung zu einer Deponie transportiert werden – wenn denn eine gefunden werden kann, die für die Annahme zertifiziert ist und dies noch tut.

Gemeinden, die zertifizierte Deponien betreiben, lehnen Windradflügel zunehmend ab, selbst wenn sie für die Annahme den doppelten Betrag pro Tonne verlangen können, benötigen diese doch enorm viel Platz, müssen mit erheblichem Aufwand zerkleinert werden, benötigen Hunderte von Jahren zum Abbau und geben dabei oft Methan und flüchtige organische Verbindungen in die Umwelt ab.

Wenn Präsident Biden das nächste Mal auf der Bühne steht und einen weiteren Durchbruch in der grünen Energietechnologie anpreist, sollten die Menschen ihn – und die Hersteller und andere Regierungsvertreter, die diese Technologie vorantreiben – fragen, wie die Materialien entsorgt werden und zu welchen Kosten.

Solange die Regierung diese und andere Fragen dazu nicht beantworten kann, sollte sie aufhören, diese ineffizienten und wirtschaftlich und ökologisch kostspieligen Technologien vorzuschreiben und zu subventionieren.

[Hervorhebung vom Übersetzer]

QUELLEN: Science (behind paywall); Science; National Geographic; Environment & Climate News; Environment & Climate News; Committee for a Constructive Tomorrow; The Heartland Institute; The Heartland Institute

Link: https://www.heartland.org/news-opinion/news/green-energy-policies-are-built-on-slavery-child-labor

Übersetzt von Chris Frey EIKE

 




Droht uns durch Klima­engineering eine neue Eiszeit?

NTV hatte am 12. Januar 2019 berichtet, Zitat:

Bisher waren Forschungen zum SRM, auch solares Geoengineering genannt, auf das Labor und Computersimulationen beschränkt. Doch dieses Jahr wollen Wissenschaftler erstmals den Schritt nach draußen wagen: Forscher der Harvard-Universität planen ein Experiment, bei dem kleine Partikel in einer hohen Luftschicht ausgebracht werden, wie das Magazin „Nature“ berichtete. Untersucht werden soll so die „Stratospheric Aerosol Injection“ (SAI), eine Variante des solaren Geoengineerings, bei der ein Partikelmantel einen Teil der Sonnenstrahlen ablenkt und die Sonne so verdunkelt wird. Das Projekt mit dem Namen Stratospheric Controlled Perturbation Experiment (SCoPEx) hat mit Bill Gates einen berühmten Förderer und könnte schon in der ersten Jahreshälfte starten. Ein Ballon soll bis in die Stratosphäre aufsteigen, in rund 20 Kilometern Höhe soll er dann Wolken kleiner Partikel aus Kalziumkarbonat, also Kalk, ausstoßen. Anschließend messen Sensoren an dem Ballon, wie sich diese ausbreiten.“

Als Förderer des SCoPEx-Projekts werden angegeben:

William and Flora Hewlett Foundation; The Open Philanthropy Project; Pritzker Innovation Fund; The Alfred P. Sloan Foundation; VoLo Foundation; The Weatherhead Center for International Affairs; G. Leonard Baker, Jr.; Alan Eustace; Ross Garon; Bill Gates; John Rapaport; Michael Smith; Bill Trenchard.”

Dem EIKE-Artikel „‚Klimaschutz‘: Riskantes Spiel mit dem Wetter“ vom 7. Februar 2021 war zu entnehmen, dass ein erster Praxistest im Rahmen des SCoPEx-Experiments offenbar bereits für Juni 2021 geplant gewesen sei. Aber aus diesem SCoPEx-Test wird nun offenbar vorerst nichts werden, wie die taz am 5. April 2021 unter dem Titel „Klimamanipulation abgeblasen“ gemeldet hatte, Zitat:

Ende letzter Woche gaben Harvard und SSC [staatliche schwedische Raumfahrtgesellschaft] bekannt, dass die Pläne auf Eis gelegt würden: Es gebe in der internationalen Wissenschaft einen Bedarf nach weiterer Diskussion zu diesem Thema, denn bislang gebe es ‚keinen Konsens, inwieweit ein solcher Versuch angemessen ist‘. Die SSC-Mitteilung führt eine weitere Begründung an, die eine Beteiligung Schwedens am Test auf absehbare Zeit unmöglich machen dürfte: ‚Es fehlen heute internationale Abkommen bezüglich der Forschung im Geoengineering-Sektor.‘“

Bevor man mit dem solaren Klimaantrieb unserer Erde herumspielt kann uns ja vielleicht die Aga-Kröte mal erzählen, was bei nicht bis zu Ende gedachten menschlichen Eingriffen in natürliche Abläufe so alles passieren kann.

Schauen wir uns nachfolgend also einmal genauer an, ob ein solcher Eingriff in die terrestrische Temperaturgenese mit oder ohne ein internationales Abkommen tatsächlich angemessen wäre

Kiehl & Trenberth lassen in ihrem konventionellen IPCC-Modell KT97 die Vektor-Richtung der solaren Einstrahlung [1] mit einem Skalar-Trick verschwinden und fokussieren ihren Tag=Nacht-Faktor4-Flacherdeansatz für die Solarkonstante „So/4“ auf die radiale Abstrahlung der Erde [3]. Die gesamte Ursachen-Wirkungs-Kette für die terrestrische Temperaturgenese lautet aber,

Aussage 1:

Solare HF-Einstrahlung@PIR² [1]=> Erwärmung von Materie@2PIR² [2]=> IR-Abstrahlung@4PIR² [3]

Der EIKE-ArtikelAnthropogener Treibhauseffekt: nach wie vor zu schwach für die Klimakatastrophe!“ von Dr. Roland Ullrich enthält die bekannte KT97-Darstellung mit einer atmosphärischen Gegenstrahlung von 333W/m². Dort wurde auch eine Gleichung für die globale Verteilung der Sonneneinstrahlung aufgestellt:

GLEICHUNG 1: So + Evap + Erad + Konv + X = 0 (Dr. Roland Ullrich)

Die in einem späteren Artikel von Dr. Ullrich nachgereichte „realistische Darstellung der Energiebilanz der Erde“ verschleiert durch Prozentangaben wiederum die zugehörigen spezifischen Leistungen:

Abbildung 1: „Realistische Darstellung der Energiebilanz der Erde“ – Quelle: Sekundärzitat aus „Oberflächenbilanz und Kirchhoff’sche Knotenpunktregel“ von Dr. R. Ullrich

Durch die Prozentangaben in Abbildung 1 wird aber auch noch die Betrachtungsperspektive (PIR² oder 2PIR² oder 4PIR²) verschleiert. Allein der Term „Von Ozeanen und Land absorbiert 51%“ entspräche bezüglich der Solarkonstanten (So=1.367W/m²) einer spezifischen Strahlungsleistung von 697W/m² mit einem rechnerischen S-B-Temperaturäquivalent von 60°C. Und für die „atmosphärische Gegenstrahlung“ taucht dort lediglich der aufsteigende IR-Term „Von der Atmosphäre absorbierte Wärmestrahlung 15%“ (entsprechend 205W/m² von So) auf, der jedoch nicht auf die Erdoberfläche zurückgeführt wird. Von daher bleibt dort der fiktive atmosphärische Antrieb für den sogenannten „natürlichen atmosphärischen Treibhauseffekt“ rechnerisch völlig im Dunklen. Und damit fehlt wiederum jede Erklärung, wie die Lücke von 155W/m² in der konventionellen Faktor4-Klimatheorie zwischen einer fehlerhaft abgeleiteten „natürlichen Gleichgewichtstemperatur“ unserer Erde von (-18°C) und der sogenannten „gemessenen globalen Durchschnittstemperatur“ (NST) von ca. (15°C) geschlossen werden sollte.

Die Vektorrichtung der parallelen solaren HF-Einstrahlung kann nämlich nur über die Erwärmung von Materie in eine radiale terrestrische IR-Abstrahlungsrichtung transformiert werden. Denn Photonen wandeln sich nun mal nicht freiwillig von kurzwelliger HF-Strahlung (solar=niedrige Entropie) zu langwelliger IR-Strahlung (terrestrisch=hohe Entropie) um; dazu bedarf es vielmehr in einem Zwischenschritt der Erwärmung von Materie (Aussage1: [2]), und das ist nur auf der Tagseite der Erde möglich. Dazu passt auch die Aussage von Prof. Dr. Heinz Fortak aus seinem Buch Meteorologie von 1971, Sekundärzitat aus einer Email vom 21.05.2021 um 21:08 Uhr an einen reduzierten Skeptiker-Email-Verteiler mit Dank an Dr. Gerhard Kramm:

Der Strahlungsanteil in Hoehe von 3.52 kWh/(m2 d) (42 %), welcher das System Erde – Atmosphaere effektiv erwaermt, besteht aus der kurzwelligen Strahlungsabsorption in der Atmosphaere und am Erdboden (17 % + 47 % = 64 %) abzueglich des Energiebetrages, der zur Verdunstung des Wassers benoetigt wurde. Der „Kreislauf“ der langwelligen Strahlung zwischen Erdoberflaeche und Atmosphaere traegt nicht zur Erwaermung des Systems bei. Die effektive langwellige Ausstrahlung nach oben von 64 % dient zur Aufrechterhaltung des Strahlungsgleichgewichts an der Obergrenze der Atmosphaere.“

Damit können wir für einen (IN=OUT)-Gleichgewichtszustand feststellen,

Aussage 2:

(Solare HF-Einstrahlung [1] @2PIR² [2] = terrestrische IR-Abstrahlung @4PIR² [3]) @ NST=CONST

Und wenn wir in Ermangelung von Alternativen mit Durchschnittswerten argumentieren, führt die Gleichsetzung NST=Tphys zu

Aussage 3:

Hinweis zur Temperatur auf der Nachtseite: Die Umgebungsgleichung des S-B-Gesetzes stellt die Ausgangssituation für meine Betrachtung der Nachtseite unserer Erde dar. Dadurch werden die Temperaturverhältnisse und die daraus abzuleitenden Flussrichtungen der Energie von warm zu kalt eindeutig definiert, aber der physikalische Ausgleichsmechanismus kann und wird selbstverständlich alle Arten des Energietransportes umfassen, wie ich das in der Vergangenheit bereits mehrfach ausgeführt hatte (beispielsweise hier: Land-Seewind-System und hier: 6. ERKENNTNIS).

Kommen wir jetzt noch einmal zu dem Modell KT97 von Kiehl & Trenberth zurück. Es ist klar hervorzuheben, dass der Ausdruck „S0“ in der Wissenschaft eindeutig für die Solarkonstante von 1.367 W/m² steht; das Faktor-4-Derivat von Kiehl & Trenberth leitet sich dagegen aus (S0/4) her. Und schließlich wäre hier von den KT97-Anhängern noch zu klären, wie ein IR-Spektrum von bis zu 120°C (@ S0) auf der Tagseite unserer Erde (generell S0 (1-ALBEDO)*COS(Zenitwinkel)) mit dem ominösen „Faktor4“ gemittelt wird, um so 4x das IR-Spektrum von -18°C (@235W/m²) zu erzeugen; insbesondere, wo dabei die höheren, ausschließlich auf der Tagseite erzeugten IR-Frequenzen abbleiben sollen (hier in Abbildung 6 dargestellt). Auf der anderen Seite kann Energie nicht einfach so verschwinden. In der Gleichung 1 sind aber Kondensation („Kond“) und Advektion („Adve“) nicht enthalten, es sei denn implizit in „Evap“ und „Konv“, was diese Terme dann allerdings mit („Evap“=„Evap“-„Kond“) und („Konv“=„Konv“-„Adve“) selbst auf „0“ bringen würde. Klarer wird vielleicht eine hemisphärische Betrachtung:

Es ergibt sich daraus die nachfolgend in Tabelle 1 dargestellte Situation:

 

Der Bodenwärmefluss sowie der Term „X“ aus Gleichung 1 sind hier nicht aufgeführt. Setzen wir einmal anstelle von Term „X“ einen Albedo-Antrieb ein:

Tabelle 1: Die Temperaturgenese auf unserer Erde [1]=>[2]=>[3] wird durch die ozeanischen Wärmespeicher mit einer Mitteltemperatur von etwa 15°C gestützt.

Die orbitalen Milanković-Zyklen stellen die einzige bekannte unabhängige Zeitreihe dar, die mit ihrem Frequenzspektrum die Schwankungen der paläoklimatischen Temperaturproxys für die letzten 420.000 Jahre in etwa abbilden können. Die Albedo unserer Erde ist dagegen die einzige bekannte Variable, die über eine Beeinflussung des reflektierten Anteils der Sonnenstrahlung die dafür notwendigen Schwankungen des solaren Klimaantriebs verursachen kann. Der Antrieb „X“ kann daher als +/-DELTA ALBEDO durch ein Albedo-Forcing beschrieben werden:

Gleichung 3: (S0 – S0*ALBEDO +/- S0*DELTA ALBEDO)@PIR² = (Merw + Evap + Konv)@2PIR²

Die linke Seite der Gleichung 3 bestimmt also, welche spezifische solare Strahlungsleistung überhaupt für die terrestrische Temperaturgenese zur Verfügung steht, und zwar zwischen einer Albedo von „0“=Schwarzkörper und „1“=Diskokugel, respektive 1.367W/m² und 0W/m². Manchmal wird die Zeit (t) ebenfalls eingebunden, aber das würde insofern zu Komplikationen führen, weil die Verweildauer von Wärme in den globalen Strömungssystemen von Atmosphäre und Ozeanen sehr unterschiedlich ist. Verstehen wir die Gleichungen 2 und 3 also eher als Ergebnis einer langjährigen Durchschnittsbetrachtung. An einer Weltformel für die Temperatur hatte ich mich hier einmal versucht, und hier an einem natürlichen Klimamechanismus.

Und jetzt schauen wir einmal genauer auf unser Eiszeitalter:

Wir leben gegenwärtig in einem Interglazial der gegenwärtigen Eiszeit, also irgendwo zwischen der letzten Kaltzeit und der nächsten, wie die nachfolgende Abbildung mit den Temperaturproxys der antarktischen Vostok-Bohrung zeigt:

Abbildung 2: Isochrone Interpolation der Temperaturproxys aus den Vostok-Daten [1]
In den vergangenen 420.000 Jahren beschränkten sich die sogenannten Warmzeiten oder Interglaziale auf Zeiträume von jeweils 10.000 bis 15.000 Jahren. Unser aktuelles Interglazial besteht nun bereits seit etwa 12.000 Jahren, hat also voraussichtlich noch zwischen 0 und 3.000 Jahre Bestand. Und dann wird es wieder für etwa 100.000 Jahre lang ziemlich kalt, mit Gletschern im norddeutschen Tiefland und allem was so dazu gehört. Damit sollte uns aber auch die Frage interessieren, was genau den Wechsel von einer Warmzeit zu einer Kaltzeit hervorruft.

Köppen und Wegener machen in ihrem Werk „Die Klimate der geologischen Vorzeit“ (Bornträger 1924, Nachdruck bei Schweizerbart) die sommerliche Sonneneinstrahlung in höheren geographischen Breiten für den Wechsel von Warm- und Kaltzeiten verantwortlich.

Abbildung 3: Rekonstruktion der Sonnenstrahlung des Sommerhalbjahres in höheren Breiten im Quartär seit 650.000 Jahren, aus Köppen & Wegener (1924), Graphik von M. Milanković, gemeinfrei aus Wikipedia

Nach Köppen und Wegener kommt es bei einer Kaltzeit nämlich gar nicht darauf an, wie extrem kalt es im Winter wird, sondern wie viel Schnee und Eis über den Sommer liegen bleibt. Das gilt insbesondere für die polaren Regionen in den höheren geographischen Breiten, wo durch eine solche Erhöhung der sommerlichen Albedo dann weitere Sonneneinstrahlung reflektiert wird, sodass dadurch keine Materie mehr erwärmt werden kann und folglich die Temperaturen sinken.

Die dänischen Forschungseinrichtungen für die Arktis präsentieren auf ihrem Polar Portal die Daten über den Zustand zweier Hauptkomponenten der Arktis, der grönländischen Eisdecke und des Meereises. Die nachfolgende Abbildung von diesem Portal zeigt, wie die Oberfläche des grönländischen Eisschildes täglich an Masse gewinnt und verliert, also die Oberflächenmassenbilanz. Die Massenverluste durch Abkalben von Gletschern sind dort nicht enthalten.

Abbildung 4: Oberflächenmassenbilanz der aktuellen Saison für das Grönländische Eisschild gemessen in Gigatonnen (1 Gt entspricht 1 Milliarde Tonnen und entspricht 1 Kubikkilometer Wasser). Die dunkelgraue Kurve zeichnet den Mittelwert aus dem Zeitraum 1981-2010. Quelle: Dänisches Polar Portal

Das hellgraue Band in Abbildung 4 zeigt die jährlichen Masseunterschiede von Jahr zu Jahr für den Zeitraum 1981-2010, wobei die niedrigsten und höchsten Werte für jeden Tag weggelassen worden sind. Wir können deutlich erkennen, dass der Masseverlust des Grönländischen Eisschildes erst Anfang Juni beginnt und bereits in der 2. Augusthälfte endet, also auf etwa drei Monate im Jahr beschränkt ist und im Maximum auf den Juli fällt. Wenn sich dieser kurze Zeitraum der Schmelze in den höheren geographischen Breiten noch weiter einschränken würde, bliebe dort dann von Jahr zu Jahr etwas mehr Schnee und Eis liegen und es würde immer mehr Sonnenstrahlung reflektiert und trüge nicht mehr zur terrestrischen Temperaturgenese bei. Wir erinnern uns an den Unterschied zwischen der spezifischen Strahlungsleistung und der übertragenen Wärmemenge:

Abbildung 5: Zum Unterschied zwischen Leistung und Arbeit der solaren Einstrahlung. Links: Gemittelte 24h-tagesdurchschnittlich zurückgerechnete Strahlungsleistung der Sonne in Abhängigkeit von der Jahreszeit und der geographischen Breite über ein Jahr (Abbildung 22 b aus Kramm et al. (2017): … (b) solar radiation reaching the Earth’s surface; … as predicted for one year starting with TDB=2,455,197.5 (January 1, 2010, 00:00 UT1) – Creative Commons License CC BY 4.0)´. Rechts: Die maximale spezifische solare (Strahlungs-)LEISTUNG (~S-B-Temperaturäquivalent) und die maximale solare ARBEIT (Arbeit=Leistung x Zeit über die örtliche Tageslänge) im jeweiligen Sommerhalbjahr auf der Nord- und Südhalbkugel (nicht flächengetreu – weitere Erläuterungen sind hier zu finden)

In den höheren geographischen Breiten ist also die solare Arbeit im Sommerhalbjahr sogar noch größer als in den Tropen, die maximal mögliche S-B-Gleichgewichtstemperatur folgt allerdings immer dem höchsten Sonnenstand zwischen den beiden tropischen Wendekreisen des Krebses und des Steinbocks, wobei diese Temperatur aufgrund von Konvektion und Verdunstung nirgendwo erreicht wird. Einen möglichen Wirkmechanismus für ein natürliches Klimaforcing hatte ich hier auf KS beschrieben.

Es gibt auf unserer Erde keine Energiequelle, die den Wechsel zwischen Kalt- und Warmzeiten verursachen kann. Die orbitalen Milanković-Zyklen stellen die einzige bekannte unabhängige Zeitreihe dar, die mit ihrem Frequenzspektrum die Schwankungen der paläoklimatischen Temperaturproxys für die letzten 420.000 Jahre in etwa abbilden können. Aber selbst die Schwankung der solaren Einstrahlung innerhalb dieser Zyklen reicht vom Betrag her als Erklärung für den Wechsel von klimatischen Kalt- und Warmzeiten nicht aus. Die Albedo unserer Erde ist die einzige bekannte Variable, die über eine Beeinflussung des reflektierten Anteils der Sonnenstrahlung die dafür notwendigen Schwankungen des solaren Klimaantriebs verursachen kann, und zwar, ganz generell nach Gleichung (3) betrachtet, zwischen den Extrema einer Albedo von „0“=Schwarzkörper und „1“=Diskokugel, entsprechend einer temperaturwirksamen spezifischen solaren Strahlungsleistung von 1.367W/m² respektive 0W/m².

Die Klimasensitivität der Sonnenstrahlung

Den „Antrieb X“ aus Gleichung (1), Zitat:Man sieht in der Tabelle, dass der Antrieb X um ca. 7 Watt/m2 wächst für jeweils 1 Grad Temperaturerhöhung“, hatte ich nicht übernommen. Stattdessen hatte ich in Gleichung (3) den variablen Term (+/- S0*DELTA ALBEDO) mit der Erd-Albedo eingeführt. Wie ich hier auf KS bereits einmal ausführlich dargestellt hatte, können die Schwankungen des natürlichen Paläo-Klimaantriebs als (+/-DELTA ALBEDO) durch ein Albedo-Forcing beschrieben werden, und zwar mit 13,67 [W/m²] pro Prozent Albedo und 9 [W/m²] pro Kelvin:

Douglas und Clader [2] geben die Klimasensitivität k der Sonneneinstrahlung aus eigenen Versuchen zu

Gleichung 4: Delta T/Delta F = k = 0,11 +/- 0,02  [°Celsius / Wm2]  an.

Damit ergibt sich für die Vostok-Temperaturproxys von 5,44°C bis 18,06°C um die sogenannte globale Durchschnittstemperatur (NST) von 14,8°C eine Schwankungsbreite der spezifischen solaren Strahlungsleistung von:

Gleichung 5: DELTA FV@NST = +29,36 [W/m²] und -85,36 [W/m²]

Dieser Betrag stimmt in etwa mit den Berechnungen von Lascar et al. [3] überein, die für 65°N / 120°E eine Schwankung der Sonneneinstrahlung von bis zu +/- 50 [W/m²] über orbitale Zyklen angeben. Aus der Solarkonstanten von 1.367 [W/m²] und der Albedo von Douglas und Clader [1] mit a = 0,3016 ergibt sich eine reflektierte/refraktierte Energiemenge von 412,29 [W/m²], die nicht zur Klimaentwicklung beiträgt. Daraus wiederum lässt sich ein Beitrag von 13,67 [W/m²] pro Prozent Albedo ermitteln und, umgerechnet auf die Extremwerte der absoluten Vostok-Temperaturproxys, eine Schwankungsbreite für die Albedo der Erde von:

Gleichung 6: F@amin =  412,29  – 29,36  [W/m²]  =   382,93 [W/m²]  mit dem Albedo  amin0,2801

Gleichung 7: F@amax =  412,29  + 85,36  [W/m²]  =  497,65 [W/m²]  mit dem  Albedo  amax = 0,3640

In der nachfolgenden Abbildung sind die Vostok-Temperaturproxys in Albedoschwankungen umgerechnet worden, und zwar beginnend mit einer Albedo von 0,3016 für die aktuelle „gemessene“ globale Durchschnittstemperatur (NST) von 14,8° Celsius:

Abbildung 6: Die Varianz der Erdalbedo über die Warm- und Kaltzeiten abgeleitet aus den Vostok Temperaturproxys [1]
Übrigens: Kaltzeiten dürften jeweils in einem Zeitabschnitt beginnen, in dem die Nordsommer auf das Abhel der elliptischen Erdbahn fallen, weil dort die Sommersonne schwächer ist als im Perihel; und genau in diesem Abhel befinden wir uns gerade. Und wenn Sie jetzt die Abbildung 6 auf Sich wirken lassen, würden Sie da auf die Idee kommen, die Albedo unserer Erde künstlich zu erhöhen?

Die Menschheit hat mit der Albedo unserer Erde möglicherweise erstmals einen echten „Kipp-Punkt“ für unser globales Klima zu fassen bekommen. Und im heiligen Klimawahn sollten wir jetzt nicht wie unwissende Kinder an dieser Stellschraube herumpfuschen und das Klimaparadies unserer Warmzeit zerstören.

Aber eine Stimme aus dem Off sagte, „Beruhige Dich, denn es könnte schlimmer kommen…“

Und natürlich kommt es noch schlimmer. In einem EIKE-Artikel erklärt Professor Valentina Zharkova, wie sich aus dem zyklischen Wechsel des Solardynamos zwischen einem poloidalem und einem toroidalem Magnetfeld durch deren Interferenz eine Schwebungsfunktion ergibt. Diese Schwebung verursacht Schwankungen der Gesamtabstrahlung unserer Sonne (Total Solar Irradiance =TSI), die wiederum zu Großen Solarzyklen von 350-400 Jahren führen sollen, wie die nachstehende Abbildung zeigt:

Abbildung 7: Rekonstruierte Kurve der Sonnenaktivität für 1200-3300 n. Chr. (aus einer Zusammenfassung auf EIKE, Daten von Zharkova et al. (2020).

Und das ist immer noch nicht alles. V.M. Velasco Herrera, W. Soon und D.R. Legates haben gerade einen neuen Artikel mit dem Titel, “Does Machine Learning reconstruct missing sunspots and forecast a new solar minimum?” veröffentlicht. In der Presseerklärung heißt es dazu u.a., Google-übersetztes Zitat:

Die drei Wissenschaftler haben einem Algorithmus für maschinelles Lernen beigebracht, wie man zugrunde liegende Muster und Zyklen in den Sonnenflecken der letzten 320 Jahre erkennt. Der Algorithmus entdeckte dann eine bisher unbemerkte Wechselwirkung zwischen den 5,5-jährigen Sonnenhalbzyklen (blau) und den 120-jährigen Gleissberg-Doppelzyklen […], die es ihm ermöglichte, die früheren Vorhersagen eines ruhigen halben Jahrhunderts zu bestätigen – Vorhersagen, die jetzt von Sonnenphysikern geteilt werden.“

Die nachfolgende Abbildung zeigt eines der Ergebnisse von Velasco Herrera et al.:

Abbildung 8: “The Sun may be quiet for half a century” aus der Presseerklärung von Velasco Herrera et al. (2021)

Auch nach diesen Ergebnissen einer KI-Signalanalyse der Sonnenflecken steht uns offenbar ein solares Minimum bevor. Und sogar die NASA rechnet für die kommenden Jahre mit einem neuen solaren Minimum, Zitat aus einem EIKE-Artikel:

Die neue Untersuchung wurde von Irina Kitiashvili geleitet, einer Forscherin des Bay Area Environmental Research Institute am Ames Research Center der NASA im kalifornischen Silicon Valley. Sie kombinierte Beobachtungen von zwei NASA-Weltraummissionen – dem Solar and Heliospheric Observatory und dem Solar Dynamics Observatory – mit Daten, die seit 1976 vom bodengestützten National Solar Observatory gesammelt wurden.“

Abbildung 9: Die Vorhersage der NASA für den Sonnenzyklus 25 zeigt, dass er der schwächste der letzten 200 Jahre sein wird. (Abbildung aus einem EIKE-Artikel)

Man macht sich also grundsätzliche Gedanken über eine Verminderung der Globaltemperatur durch eine künstliche geotechnische Verringerung der solaren Einstrahlung, und zwar ausgerechnet zu einem Zeitpunkt, wo

  • das gegenwärtige Interglazial in seinem letzten Drittel steht,
  • die Nordsommer auf das Aphel der elliptischen Erdbahn mit den größten Sonnenabstand fallen
  • und für die nächsten Jahrzehnte durch mehrere unabhängige Forschungsergebnisse ein solares Minimum vorausgesagt wird.

Das Orakel von Delphi würde uns an dieser Stelle vielleicht weissagen, dass wir den befürchteten menschengemachten Hitzekollaps unserer Erde sicher vermeiden werden, wenn wir es durch Klimaengineering schaffen sollten, dass im Sommer der höheren geographischen Breiten in aufeinander folgenden Jahren zunehmend mehr und mehr Schnee und Eis liegen bleiben. Allerdings war das Orakel von Delphi auch immer so höflich, sich über die Konsequenzen eines vermeintlichen Erfolges auszuschweigen…

Referenzen

[1] Vostok ice-core data [NOAA]: Petit, J.R., et al., 2001, Vostok Ice Core Data for 420,000 Years. IGBP PAGES/World Data Center for Paleoclimatology Data Contribution Series #2001-076. NOAA/NGDC Paleoclimatology Program, Boulder CO

[2] Douglas and Clader (2002): Climate sensitivity of the Earth to solar irradiance. GEOPHYSICAL RESEARCH LETTERS, VOL. 29, NO. 16, 10.1029/2002GL015345, 2002

[3] Laskar et al.:  Orbital, precessional, and insolation from -20Myr to +10Myr. Astronomy & Astrophysics 270, 522-533 (1993) – Figure 5




Verheerende Folgen „grüner“ Energiepolitik I: Sie fußt auf Sklaven- und Kinderarbeit

Asiaten und Afrikaner, viele von ihnen Kinder, werden versklavt und sterben in Minen, Raffinerien und Fabriken, um die Mineralien und Metalle zu gewinnen, die für die von den Demokraten vorgeschriebenen grünen Energietechnologien benötigt werden. Den Politikern und ihren Anhängern scheint das egal zu sein. Die traditionellen Forderungen der Demokraten nach der Anerkennung der universellen Menschenrechte bleiben auf der Strecke, so scheint es, angesichts der angeblichen „existenziellen Krise“ des Klimawandels, die von ihnen verlangen könnte, mehr für die Flutversicherung für ihre teuren Häuser am Strand zu zahlen.

Es ist nicht nur ich, der das sagt. Amnesty International und zahlreiche Medien haben in den letzten Wochen recherchiert und berichtet, dass der größte Teil des für die Batterien benötigten Kobalts, die für Präsident Joe Bidens großen Elektrofahrzeug-Vorstoß erforderlich sind, aus kleinen Minen in der Demokratischen Republik Kongo (DRC) stammt. Kobalt ist ein notwendiges Metall in den wiederaufladbaren Batterien, die heute fast jedes elektronische Gerät auf der Welt antreiben, einschließlich Handys, Laptops, Tablets und ja, auch Elektrofahrzeuge und die Magneten, die in Windturbinen verwendet werden.

Die DRC produziert mehr als die Hälfte des heute verwendeten Kobalts – mehr als alle anderen Länder der Welt zusammen.

Die Regierung der DRC hat eine schreckliche Bilanz von Menschenrechtsverletzungen, und viele der Arbeiter in den Kobaltminen des Landes sind versklavte oder praktisch versklavte Kinder. Deseret News berichtet, dass eine Frau, deren eigenes Kind nebst einem jungen Cousin bei der Arbeit in einer Kobaltmine in der DRC ums Leben gekommen waren, sagte: „Unsere Kinder sterben wie Hunde.“

Dies ist keine neue Nachricht. Mit den jüngsten Schlagzeilen wie „Without Dirty Mining, You Can’t Make Clean Cars“ (Ohne schmutzigen Bergbau kann man keine sauberen Autos bauen), die endlich anerkennen, dass grüne Energietechnologien auf vorzeitigen Todesfällen, Sklaverei und Kinderarbeit in weniger entwickelten Ländern aufbauen, ist dies schon seit einiger Zeit bekannt.

Amnesty International berichtet, dass mehr als 40.000 Kinder in Kobaltminen in der Demokratischen Republik Kongo arbeiten, wo jedes Jahr Hunderte, wenn nicht Tausende, bei Höhleneinstürzen und anderen Minenunfällen sowie durch bergbaubedingte Krankheiten sterben.

Das meiste Kobalt wird für chinesische Konzerne, die in der Demokratischen Republik Kongo operieren, produziert oder von ihnen gekauft, die das Metall nach China verschiffen, wo es raffiniert und in alle möglichen elektronischen Geräte von Mobiltelefonen bis hin zu Displaysystemen für Kampfjets eingebaut wird.

Berichte über Kinder- und Sklavenarbeit kursieren seit Jahren, und den radikalen Umweltschützern im Westen, die jetzt die Politik der Demokratischen Partei dominieren, ist das egal. Tatsächlich sind sie die ersten, die argumentieren, dass es zu viele Menschen auf der Welt gibt.

Kinder- und Sklavenarbeit wird nicht nur für Batterien und Magnete ausgebeutet, die Bestandteil von Elektrofahrzeugen, Windturbinen, Batterielagern, die als Notstromversorgung für industrielle Solaranlagen dienen, und anderen grünen Energietechnologien sind. Eine Studie der Sheffield Hallam University in Großbritannien berichtet, dass eine einzige Provinz in China 45 Prozent des Polysiliziums produziert, aus dem Solarmodule bestehen, die größtenteils in China montiert werden. Das Polysilizium und die Solarmodule werden von uigurischen Muslimen in chinesischen Sklavenarbeitslagern hergestellt.

„Solarpaneele sind wegen des Klimawandels sehr gefragt“, berichtet die BBC. „Die weltweite Produktion von Solarpaneelen nutzt Zwangsarbeit von Chinas uigurischen Muslimen in der Provinz Xinjiang aus. Polysilizium … wird unter massivem Zwang gewonnen, eine Behauptung, die von den chinesischen Behörden bestritten wird.“

Kobalt und Polysilizium sind nur zwei der unzähligen Mineralien, Metalle und Verbundstoffe, die der gesamten modernen Elektronik zugrunde liegen und für die die Welt von China und anderen unterdrückerischen Regimen abhängig ist, indem sie sowohl rohe und veredelte Materialien als auch zusammengesetzte Produkte kaufen. Wenn die Biden-Harris-Regierung, andere Führer der Demokratischen Partei der USA und die Führer anderer Industrieländer ihren Kurs nicht ändern, wird Kinder- und Sklavenarbeit noch weiter zunehmen, denn jede einzelne grüne Energietechnologie, die sie vorantreiben, hängt von diesen Mineralien und Elementen ab.

Der kurzsichtige Fokus des Westens auf die Bekämpfung des Klimawandels tötet und versklavt Menschen, während die Regierungen unmittelbarere, dringlichere und allzu oft tödliche Übel ignorieren, die den ärmsten Menschen schaden. Milliarden von Dollar und Euro in verschiedenen „grünen Entwicklungsfonds“ bezahlen die Diktatoren der Entwicklungsländer und ermutigen sie, wegzuschauen, während Kinder sterben. Wenig, wenn überhaupt etwas von diesem Geld erreicht die Menschen, die in den Minen leiden, noch wird das wenige Geld, das sie bekommen, sie für den Verlust von geliebten Menschen entschädigen, die in Mineneinstürzen oder in versteckten Gräbern in Sklavenarbeitslagern begraben wurden.

Es muss nicht so sein. Die Vereinigten Staaten und Europa haben Optionen, wenn wir bereit sind, einige Opfer zu bringen. Wir könnten Sanktionen gegen China, die Demokratische Republik Kongo und andere Länder verhängen, die Sklaven- und Kinderarbeit einsetzen. Russland ist der zweitgrößte Kobaltproduzent der Welt, und die Philippinen und Kuba sind die viert- und fünftgrößten Produzenten. Das ist die imperialistische Lösung: anderen Ländern vorzuschreiben, welche Arbeitsstandards sie haben sollen. Wir spielen bereits die Rolle von Öko-Imperialisten, indem wir den Entwicklungsländern den Zugang zur Finanzierung von Kraftwerken für fossile Brennstoffe verweigern, die ihnen helfen könnten, sich aus der Armut zu befreien – was ist da ein weiteres grün-kolonialistisches Machtspiel?

Ein solches Vorgehen würde kurz- und mittelfristig zu einer Verknappung dieser Technologien oder Elemente führen. Es würde mit ziemlicher Sicherheit auch dazu führen, dass diese Länder eine Reihe von Gegensanktionen und Zöllen auf Waren verhängen, die sie von den Vereinigten Staaten und Europa beziehen.

In der besten aller möglichen Welten könnten China, die Demokratische Republik Kongo und andere Länder auf unsere Sanktionen reagieren, indem sie Arbeitsstandards wie in den Industrieländern einführen, einschließlich unserer Lohnskalen und Gesundheits- und Sicherheitsstandards. In diesem Fall würden die Preise für diese Technologien steil ansteigen. Und wenn China, die Demokratische Republik Kongo und andere die gleichen Umweltstandards wie die Vereinigten Staaten und Europa einführen würden, würde der Strom dieser gefragten „grünen“ Energietechnologien völlig versiegen, weil, wie in den Vereinigten Staaten heute, fast niemand mehr in der Lage wäre, irgendetwas abzubauen oder zu veredeln, egal wo.

Eine andere Option, die wohl die beste für die Arbeiter in den Vereinigten Staaten und für die wirtschaftliche und nationale Sicherheit Amerikas ist, wäre es, den Abbau kritischer Mineralien in den Vereinigten Staaten zu erlauben. Jegliche Umweltschäden, die durch den Abbau entstehen, würden den Menschen in den Vereinigten Staaten auferlegt, die die grünen Technologien fordern. Das wäre fair.

Das ist es, was Präsident Trump versucht hat, indem er Zölle auf chinesische Solarpaneele erhob und versuchte, die Genehmigung von Minen für kritische Mineralien zu erhalten. Aber ohne sich ob ihrer Heuchelei zu schämen haben Biden und Vizepräsidentin Kamala Harris vor kurzem angedeutet, dass der Abbau kritischer Mineralien in den Vereinigten Staaten keine Option ist. Während sie zugeben, dass wir kritische Elemente wie Kobalt für grüne Energietechnologien und Elektroautos benötigen, haben mehrere Quellen innerhalb der Biden-Regierung die Entscheidung des Präsidenten verlauten lassen, dass die Vereinigten Staaten sich weiterhin auf andere Länder für die Metalle und Mineralien verlassen werden, die für den Bau von Elektrofahrzeugen und anderen grünen Energietechnologien notwendig sind, um „Umweltschützer zu beschwichtigen“, berichtet Reuters. Und weiter:

„Die Pläne werden ein Schlag für die US-Bergleute sein, die gehofft hatten, dass Biden in erster Linie auf Metalle aus dem Inland setzen würde, wie es seine Kampagne im letzten Herbst signalisiert hatte, um seine Ambitionen für eine weniger Kohlenstoff-intensive Wirtschaft zu erfüllen“.

Biden hofft offenbar, dass befreundete Länder wie Australien, Brasilien und Kanada den Bedarf an kritischen Mineralien decken, damit wir unsere Abhängigkeit von China verringern können, ohne dass in den Vereinigten Staaten neuer Bergbau betrieben wird. Australien und Kanada haben jedoch Umwelt- und Arbeitsstandards wie wir, was höhere Preise für diese Güter bedeutet. Eine Steigerung der Produktion in Brasilien wird wahrscheinlich bedeuten, dass mehr Ureinwohner des Amazonas vertrieben werden, werden doch immer größere Gebiete des Regenwaldes gerodet, um die kritischen Mineralien abzubauen.

Kinder- und Sklavenarbeit ist das wahre Erbe des Biden-Harris-Vorstoßes für grüne Energie. Wenn wir die für diese Technologien kritischen Elemente nicht hier produzieren, werden sie im Ausland von den billigsten Anbietern bezogen, selbst wenn sie durch mehrere Zwischenländer gehen müssen, um ihre schmutzige und tödliche Herkunft zu verschleiern. Für Biden und andere westliche Klimaalarmisten müssen die Menschen und die Umwelt in anderen Ländern geopfert werden, um die Welt vor dem Klimawandel zu „schützen“ und gleichzeitig die Annehmlichkeiten des Westens so weit wie möglich zu erhalten.

Die Ausbeutung der am meisten gefährdeten Menschen und Umgebungen der Welt heute in der vergeblichen Hoffnung, einen winzigen Anstieg des Meeresspiegels und etwas wärmere Temperaturen in der Welt in 100 Jahren zu verhindern, ist dumm und moralisch bankrott.

QUELLEN: Amnesty International; Deseret News; BBC; CNN; Forbes; American Spectator; Reuters

Link: https://www.heartland.org/news-opinion/news/green-energy-policies-are-built-on-slavery-child-labor

Übersetzt von Chris Frey EIKE

 




Globale Erwärmung ursächlich für 37% aller Todesfälle aufgrund von Hitze seit 1991 … gähn!

Studie macht Klimawandel für 37 Prozent der Hitzetoten weltweit verantwortlich
„Das sind hitzebedingte Todesfälle, die eigentlich verhindert werden können. Es ist etwas, das wir direkt verursachen“, sagte ein Epidemiologe.

Mehr als ein Drittel der weltweiten Hitzetoten jedes Jahr sind direkt auf die globale Erwärmung zurückzuführen, so die neueste Studie, die die menschlichen Kosten des Klimawandels berechnet.

Aber die Wissenschaftler sagen, dass dies nur ein Bruchteil der Gesamtkosten des Klimawandels ist – noch mehr Menschen sterben durch andere extreme Wetterereignisse, die durch die globale Erwärmung verstärkt werden, wie Stürme, Überschwemmungen und Dürren – und die Zahl der Hitzetoten wird mit steigenden Temperaturen exponentiell wachsen.

Dutzende von Forschern, die die Hitzetoten in 732 Städten rund um den Globus von 1991 bis 2018 untersuchten, berechneten, dass 37 Prozent durch höhere Temperaturen aufgrund der vom Menschen verursachten Erwärmung verursacht wurden, so eine Studie, die am Montag in der Zeitschrift Nature Climate Change veröffentlicht wurde.

[…]

Etwa 35 Prozent der Hitzetoten in den Vereinigten Staaten können auf den Klimawandel zurückgeführt werden, so die Studie. Das sind insgesamt mehr als 1.100 Todesfälle pro Jahr in etwa 200 US-Städten, die von 141 in New York getoppt werden. Honolulu hatte mit 82 Prozent den höchsten Anteil an Hitzetoten, die auf den Klimawandel zurückzuführen sind.
[…]
NBC News

Die Studie von „Dutzenden von Forschern“ befindet sich hinter einer Zahlschranke.

Die Anzahl von Hitzetoten wird mit steigenden Temperaturen exponentiell zunehmen“

Warum nimmt sie nicht schon jetzt exponentiell zu?

Abbildung 1. Hitzebedingte Todesfälle in den USA, 1979-2018. „Zwischen 1998 und 1999 hat die Weltgesundheitsorganisation die internationalen Codes zur Klassifizierung von Todesursachen überarbeitet. <b>Daher können Daten von vor 1999 nicht ohne weiteres mit Daten von 1999 und später verglichen werden</b>.“ US EPA

Mehr als ein Drittel der jährlichen Hitzetoten auf der Welt sind direkt auf die globale Erwärmung zurückzuführen“

Also… müssen wir weniger kältebedingte Todesfälle haben… oder?

Abbildung 2. Kältebedingte Sterberate in den USA, 1979-2016. Seit 1999 ist die kältebedingte Sterberate etwa doppelt so hoch wie die hitzebedingte Sterberate. US EPA

Honolulu hatte den höchsten Anteil an hitzebedingten Todesfällen, der auf den Klimawandel zurückzuführen ist, nämlich 82 Prozent.“

Laut CDC gab es von 1999-2016 so wenige hitzebedingte Todesfälle in Honolulu County, dass eine zuverlässige Todesrate nicht berechnet werden kann. Das ist die gesamte Insel Oʻahu. Aufgrund von Beschränkungen der Verwendung von Daten werde ich die tatsächliche Zahl oder sogar den Link zum Datensatz nicht veröffentlichen. Wenn Sie jedoch „CDC WONDER“ googeln (oder Duck Duck Go), können Sie Stunden damit verbringen, durch mehr Todesursachen zu waten, als ich jemals dachte.

Aber es wird noch komischer …

Abbildung 3: Honolulu HI, Klimawandel seit <i>The Ice Age Cometh</i> GISS

Und jetzt zu etwas ganz Anderem …“

Dieses „Problem“ wurde vor über 20 Jahren gelöst…

Abstract

Hitze ist die wichtigste wetterbedingte Todesursache in den Vereinigten Staaten. Zunehmende Hitze und Feuchtigkeit, die zumindest teilweise mit dem anthropogenen Klimawandel zusammenhängen, lassen vermuten, dass es zu einem langfristigen Anstieg der hitzebedingten Sterblichkeit kommen könnte. Wir berechneten die jährliche Übersterblichkeit an Tagen, an denen die scheinbare Temperatur – ein Index, der Lufttemperatur und Luftfeuchtigkeit kombiniert – einen Schwellenwert für 28 große Ballungsräume in den Vereinigten Staaten von 1964 bis 1998 überstieg. Die hitzebedingte Sterblichkeitsrate ging im Laufe der Zeit in 19 der 28 Städte deutlich zurück. Für den 28-Städte-Durchschnitt gab es 41,0 +/- 4,8 (Mittelwert +/- SE) hitzebedingte Todesfälle pro Jahr (pro Standardmillion) in den 1960er und 1970er Jahren, 17,3 +/- 2,7 in den 1980er Jahren und 10,5 +/- 2,0 in den 1990er Jahren. In den 1960er und 1970er Jahren wiesen fast alle Studienstädte eine deutlich über dem Normalwert liegende Sterblichkeit an Tagen mit hohen scheinbaren Temperaturen auf. In den 1980er Jahren gab es in vielen Städten, insbesondere im typisch heißen und feuchten Süden der USA, keine erhöhte Sterblichkeit. In den 1990er Jahren breitete sich dieser Effekt nordwärts über die Städte im Landesinneren aus. Diese systematische Desensibilisierung der Großstadtbevölkerung gegenüber hoher Hitze und Luftfeuchtigkeit im Laufe der Zeit kann auf eine Reihe von technologischen, infrastrukturellen und biophysikalischen Anpassungen zurückgeführt werden, einschließlich der zunehmenden Verfügbarkeit von Klimaanlagen.

Davis, Knappenberger, Michaels, and Novicoff, 2003

The answer is blowing in the…” window

Reference

Davis, R. E. , Knappenberger, P. C. , Michaels, P. J. , & Novicoff, W. M. (2003). Changing heat‐related mortality in the United States. Environmental Health Perspectives, 111(14), 1712–1718. 10.1289/ehp.6336 [PMC free article] [PubMed] [CrossRef] [Google Scholar]

Link: https://wattsupwiththat.com/2021/06/01/global-warming-caused-37-of-heat-related-deaths-since-1991-yawn/

Übersetzt von Chris Frey EIKE

 




Kältereport Nr. 12

Adelaide zittert sich durch den kältesten Mai-Morgen seit fast 100 Jahren

31. Mai: Aus irgendeinem Grund titelte die adelaide.com, dass es der kälteste Mai-Morgen in Melbourne seit 70 Jahren war. Man muss fast bis zum Ende des Artikels lesen, bevor man feststellt, dass es der kälteste Maimorgen in Adelaide seit 1927 war.

Von adelaiade.com:

Es war ein frostiger Morgen in ganz Südost-Australien, mit vielen Orten im Landesinneren, die weit unter den Nullpunkt fielen und Adelaide, das auf 3,5°C fiel – der gleich kälteste Mai-Morgen seit 1927.

Währenddessen zitterte Melbourne durch den kältesten Maimorgen seit mehr als 70 Jahren, wie das Bureau of Meteorology am Sonntag mitteilte.

Die Temperatur fiel auf 1.7°C, das ist der niedrigste Wert für die Stadt seit Mitte des letzten Jahrhunderts.

Es war der kälteste Mai-Morgen seit 1949. Aber der kälteste in den Aufzeichnungen war der 29. Mai 1916, als die Temperatur auf -1,1°C fiel.

Und nicht vergessen: dies gilt nicht nur für das Datum galt, sondern für den gesamten Monat.

https://www.adelaidenow.com.au/technology/environment/melbourne-shivers-through-coldest-may-morning-in-70-years/news-story/d74d6354dc227c1d6b713f08d22440f0

Link: https://www.iceagenow.info/adelaide-shivers-through-coldest-may-morning-in-almost-100-years/

———————————-

Nordosten der USA: So kalt sie seit dem 19. Jahrhundert nicht mehr

31. Mai: Dutzende – wahrscheinlich eher Hunderte – Kälterekorde wurden am Samstag gebrochen.

Viele Orte brachen Kalt-Tagesrekorde, während andere Rekorde für die niedrigste Tageshöchsttemperatur brachen.

Einige dieser Rekorde für die niedrigste Tageshöchsttemperatur reichen bis in die 1800er Jahre zurück.

Aus irgendeinem mir unerfindlichen Grund zwingt AccuWeather uns, sich durch mehrere weitschweifige, unwichtige Absätze zu quälen, bevor man zum Kern dieser Geschichte kommt, der da lautet:

Rekordkälte über einem riesigen Gebiet der nördlichen Staaten.

Mehr als zwei Dutzend Großstädte von Ohio und Kentucky ostwärts bis ins südliche Neuengland haben am 29. Mai entweder einen neuen Tagesrekord für die niedrigste Temperatur aufgestellt oder einen neuen Rekord aufgestellt. Ein paar bemerkenswerte Städte in dieser Liste sind New York City und Baltimore.

Und wer weiß, wie viele Kälterekorde in den kleineren Städten und Ortschaften gebrochen wurden?

Darüber hinaus wurden in Teilen der Großen Seen, im Nordosten und in anderen Gebieten im Norden des Landes neue Tiefsttemperaturrekorde aufgestellt oder gebrochen.

Link: https://www.iceagenow.info/record-cold-across-northeast-dating-back-to-the-1800s/

———————————-

Intensive Kälte hat Südost-Australien fest im Griff – viele neue monatliche Kälterekorde

31. Mai: Intensive Kälte sucht derzeit Südost-Australien heim, da polare Luft auf einer durch geringe Sonnenaktivität verursachten meridionalen Jetstream-Strömung ungewöhnlich weit nach Norden strömt.

Am Wochenende wurden eine Vielzahl neuer Tiefsttemperaturrekorde für den Monat Mai aufgestellt, vor allem auf Flinders Island, am Lake Victoria und in Marrawah.

Die extreme Herbstkälte erweist sich auch als hartnäckig, mit Tiefstwerten, die heute Morgen, Montag, 31. Mai, in Loxton (-3,5°C) und Lameroo (-1,1°C) registriert wurden.

Zusätzlich fiel Melbourne auf einen Tiefstwert von 1.7C, das ist der niedrigste Maiwert in der Hauptstadt seit 1949.

Link: https://electroverse.net/intense-cold-grips-australia/

———————————-

Außerordentlich starke Schneefälle – die stärksten seit über zwei Jahrzehnten – in Patagonien

1. Juni: Ushuaia ist eine Stadt in Argentinien. Sie liegt auf der Inselgruppe Feuerland, der südlichsten Spitze Südamerikas, die den Spitznamen „Ende der Welt“ trägt – seit einer ganzen Woche versinkt die Stadt in historischen Schneemengen.

Der (andauernde) Schneesturm brachte allein am Wochenende mehr als 50 cm in Ushuaia und hat seit Beginn des Sturms vor etwa einer Woche mehr als einen Meter abgeladen.

„Wir haben seit mehr als zwei Jahrzehnten keinen so starken Schneefall mehr erlebt“, sagte Cristian Elías, der Koordinator des Zivilschutzes der Region, wie ambito.com berichtet.

Link: https://electroverse.net/exceptional-snowfall-pummels-patagonia/

———————————-

702 Texaner starben während des rekordverdächtigen Frostes im Februar, weit mehr als die offizielle Zahl der Todesopfer im Staat von 151

1. Juni: (Facebook hat mir den Zugriff auf mein altes Konto dauerhaft gesperrt. Wenn Sie die Plattform verwenden, klicken Sie bitte hier, um meine neu erstellte Seite zu mögen/folgen und helfen, die Wahrheit zu verbreiten)

Eine aktuelle Datenanalyse von BuzzFeed News durchgeführt schätzt, dass es 702 Todesfälle von Wintersturm Uri in Texas im Februar, fast fünfmal höher als der Staat die offizielle Todesrate.

Anhand von Daten der Centers for Disease Control (CDC) über die Sterblichkeitsrate konnten Forscher feststellen, dass 702 Menschen an Ursachen starben, die wahrscheinlich mit dem großen Frost zusammenhingen, so eine Analyse von Buzzfeed News.

Die endgültige offizielle Zahl des Staates liegt bei 151.

Von den Stromausfällen, die mit der historischen Kälte einhergingen, waren satte 69 Prozent der Texaner betroffen.

Link: https://electroverse.net/702-texans-died-in-februarys-record-breaking-freeze-far-higher-than-the-states-official-death-toll-of-151/

———————————-

Warnung vor seltenem „Level 5“-Schneefall in Südafrika: „das kann lebensgefährlich werden“

2. Juni: TheSouthAfrican.com beschreibt eine Schneewarnung der Stufe 5 als „so etwas wie ein Sammlerstück in Südafrika“ – dennoch sind nun einige Bezirke für den 2. Juni in „hoher Alarmbereitschaft“.

Eine mächtige antarktische Front hat sich im zentralen Inneren des südlichen Afrikas eingenistet, mit außergewöhnlich kalten Bedingungen auf dem Weg nach Südafrika.

Bis Mittwoch, 2. Juni, gilt für mehrere Regionen eine äußerst seltene „Schneewarnung der Stufe 5“.

Der südafrikanische Wetterdienst (SAWS) machte die Ankündigung auf seinen Social-Media-Seiten am Dienstagnachmittag und fügte hinzu, dass eine „sehr kalte“ Nacht auf viele zukommen würde.

Link: https://electroverse.net/rare-level-5-snowfall-warning-issued-in-south-africa/

———————————-

Kältestes „Sommer“-Wochenende in Atlantic City jemals

2. Juni: Im Südosten New Jerseys herrschten am Memorial-Day-Wochenende rekordverdächtig niedrige Temperaturen. Der Atlantic City International Airport verzeichnete sowohl am Samstag als auch am Sonntag die niedrigsten jemals gemessenen Tageshöchsttemperaturen.

Wie pressofatlanticcity.com berichtet, entsprachen die Höchsttemperaturen von 12 Grad während des „megteorologischen Sommeranfangs“ den mittleren Werten für März und waren die kältesten, die in Wetterbüchern seit 1943 aufgezeichnet worden waren.

In der S. Farley Marina in Atlantic City [einem Freizeitzentrum] wurden am Samstag und Sonntag Tageshöchstwerte von nur 13 Grad gemessen.

Am Sonntag war auch ein neuer Tiefstwert aufgetreten in einer Reihe, die in der Marina bis ins Jahr 1874 zurückreicht.

[Dieser Beitrag enthält viele Hintergrund-Informationen, weshalb er demnächst in vollständiger Übersetzung auf dieser Website erscheine n wird. A. d. Übers.]

Link: https://electroverse.net/coldest-summer-weekend-on-record-in-atlantic-city/

———————————-

5 Meter Vorsaison-Schnee begräbt den Mt. Hutt in Neuseeland

3. Juni: Erst letzte Woche litt Neuseeland unter rekordverdächtiger Mai-Kälte* – und jetzt kämpft die Insel mit rekordverdächtigen Mengen an frühem Saison-Schnee.

[*siehe den vorigen Kältereport]

Der Juni mag den Beginn des meteorologischen Winters in Neuseeland markieren, aber der Schnee, den die höheren Lagen der Südinsel erhalten haben, war etwas anderes und wurde von Einheimischen als „phänomenal“ und „episch“ beschrieben.

Der Mount Hutt erhebt sich im Westen der Canterbury Plains auf der Südinsel Neuseelands, über dem verzweigten Oberlauf des Rakaia River und 80 Kilometer westlich von Christchurch. Sein Gipfel liegt 2190 Meter über dem Meeresspiegel.

Link: https://electroverse.net/16-4-feet-5-meters-of-early-season-snow-buries-mt-hutt-new-zealand/

———————————-

Doppelt so viele Lawinen-Tote als normal in Europa durch „überreichlichen Schnee“

3. Juni: Die Schneedecke nimmt überall auf dem Planeten zu, da die geringe Sonnenaktivität weiterhin das Klima der Erde beeinflusst.

Und wie es bei „politisch nicht korrekten“ realen Beobachtungen immer der Fall ist, sie erfordern keine MSM-Berichterstattung, keine Aufmerksamkeit, keine Propaganda.

Link: https://electroverse.net/double-the-average-avalanche-deaths-in-europe-blamed-on-abundant-snow/

———————————-

Und noch einmal Australien:

Vorsaison-Kälte in Sydney

4. Juni: Sydney, Australien, verzeichnete gerade den kältesten Tag seit fünf Jahren – ein Vorgeschmack auf die mächtige antarktische Kältewelle, der derzeit aufzieht und bis zum 9. Juni den Großteil des australischen Kontinents treffen soll.

Sydney verzeichnete den niedrigsten Tageshöchstwert seit fünf Jahren, da bewölktes und nasses Wetter die Temperaturen am Donnerstag, den 3. Juni, auf dem Observatory Hill in Sydneys Stadtzentrum bei nur 13,4°C hielt.

Link: https://electroverse.net/early-season-cold-blasts-sydney-australia-failed-winter-predictions/

———————————-

Ein weiterer Beitrag mit Hintergrund-Informationen der jüngsten Kälte auf der gesamten Nordhemisphäre steht hier.

Unter diesem Link findet sich eine überaus treffende Bemerkung zu all diesen Ereignissen: Jeder wichtige Datenpunkt deutet jetzt auf eine Abkühlung des Planeten hin.

Wie lange wird es dauern, bis der IPCC und seine MSM-Schoßhündchen über die Fakten berichten?

Wie lange wird es dauern, bis die Massen aus ihrer künstlich herbeigeführten Psychose erwachen und ihnen offenbar wird, dass alles, was ihnen jemals gesagt wurde, auf Lügen und Agenden basierte?

AGW kann niemals eine Abkühlung des Planeten erklären – das geht einfach nicht – die Leute sollten sich auf ein brutales Erwachen einstellen.

wird fortgesetzt …

Zusammengestellt und übersetzt von Chris Frey EIKE

 




Die Bedeutung von hitze­bedingter Sterblich­keit, die auf schlechte Modellierung zurückzu­führen ist

Die Studie behauptet, dass hitzebedingte Todesfälle an 732 Standorten in 43 erfassten Ländern um durchschnittlich 37,0 % zugenommen haben. 37,0 % Anstieg zwischen 1991 und 2018.

Um eine solche Behauptung aufzustellen, müsste man Folgendes nachweisen:

1. Die Extremtemperaturen haben an den Studienorten tatsächlich zugenommen

2. Der Temperaturanstieg während des Studienzeitraums ist nicht auf andere Faktoren wie den städtischen Wärmeinseleffekt zurückzuführen

3. Die Todesfälle haben während der Hitzeperioden tatsächlich zugenommen

4. Der Anstieg der Todesfälle ist nicht auf die Zunahme der Bevölkerung zurückzuführen

5. Der Anstieg der Sterbefälle ist nicht auf ein höheres Durchschnittsalter der Bevölkerung zurückzuführen

6. Keine anderen Faktoren haben einen Einfluss auf die Todesfälle, wie z.B. Naturkatastrophen

Überprüfen wir einmal, wie diese Studie diese Fragen abdeckt, um ihre Argumente zu belegen. Lassen Sie uns mit der Temperatur beginnen.

In der Studie angewandte Verfahren

Die Studie analysiert die Daten in zwei Schritten. Zunächst wird ein Assoziationsmodell zwischen Todesfällen und Tagestemperatur erstellt:

Wie in den Erläuterungen zu den Verfahren ausführlich beschrieben, schätzt ein Modell der ersten Stufe Assoziationen für jeden Standort, die dann in einer Meta-Analyse gepoolt werden (die zweite Stufe). Die beobachteten Temperatur- und Mortalitätsdaten wurden durch das Multi-Country Multi-City (MCC) Collaborative Research Network, dem bisher größten Wetter- und Gesundheitsdaten-Konsortium, erhoben (https://mccstudy.lshtm.ac.uk).

Sie stellen nicht den vollständigen Datensatz als Teil der ergänzenden Daten zur Verfügung, aber sie stellen R-Code und Beispieldatensatz zur Verfügung. Aus dem Beispieldatensatz können wir die folgenden Quelldaten für jeden Standort sehen:

Beispieldaten aus dem Ergänzungsmaterial

Datum, Todesfälle und Temperatur. Die Grundannahme scheint zu sein, dass eine hohe Temperatur einen direkten Einfluss auf die Sterberate hat. Aber halt! Wo sind die Bevölkerungsdaten oder Daten zur Altersverteilung? Solche Details scheinen als triviale Informationen betrachtet zu werden, die für eine State-of-the-Art-Analyse nicht benötigt werden.

In vielen Ländern dürfte die Bevölkerung innerhalb des Untersuchungsortes bereits in den letzten 10 Jahren erheblich zugenommen haben. Das Gleiche gilt für den Anteil der Senioren, der an vielen Studienorten mit der Sterblichkeitsrate steigt.

Der zweite Schritt, den sie machen, ist, den Wert für „Klimawandel“-bedingte Todesfälle zu ermitteln:

Im zweiten Schritt haben wir die geschätzten Expositions-Wirkungsfunktionen, um die hitzebedingte Sterblichkeitslast zwischen1991 und 2018 für jeden Ort unter zwei Szenarien zu berechnen: ein faktisches Szenario, das aus Simulationen des historischen Klimas (alle Klimaantriebe) und ein kontrafaktisches Szenario, bei dem die Klimasimulationen nur durch natürliche Einflüsse getrieben werden, was dem Klima entspricht das in einer Welt ohne den vom Menschen verursachten oder anthropogenen Klimawandel.

Wirklich simpel: Einfach die Beziehung zwischen Temperatur und Sterblichkeitsrate ermitteln und dann mit Hilfe von Klimamodellen betrachten, um wie viel die Temperatur gestiegen ist. Das Endergebnis ist der Prozentsatz der Todesfälle, die durch den Klimawandel verursacht wurden.

Unkompliziert und völlig falsch. Anstatt alle zuvor aufgeführten Faktoren (1 bis 7) zu bewerten, berücksichtigen sie keinen einzigen davon. Um diesen Punkt zu beweisen, lassen Sie uns ein paar Orte genauer analysieren.

Abbildung 5 aus der Studie: Hitzebedingte Sterblichkeitsrate, die auf den vom Menschen verursachten Klimawandel 1991-2018 zurückzuführen ist.

Die obige Abbildung wird als Teil der Studie zur Verfügung gestellt. Die Analyse aller 732 Standorte würde einen erheblichen Aufwand für die Datenerfassung erfordern, daher konzentrieren wir uns auf zwei Länder, die mit einer hohen „hitzebedingten Sterblichkeitsrate, die auf den Klimawandel zurückzuführen ist“ hervorgehoben werden.

Beginnen wir mit Finnland:

Hitzebedingte Sterblichkeit in Finnland

Laut einer Studie weisen das nordeuropäische Land Finnland und die Hauptstadt Helsinki eine hohe hitzebedingte Sterblichkeitsrate auf. Wirklich? Finnland? Mein Heimatland ist nicht gerade für hohe Temperaturen oder lange Hitzewellen bekannt. Die meisten Finnen warten auf anständige Sommertemperaturen, was als über 25 Celsius gilt. Es gibt sogar ein finnisches Wort „helle“ für dieses sonnige Sommerwetter, und wenn die „Helle“ eintrifft, ist das für die Mehrheit der Finnen jeden Sommer eine gute Nachricht.

Um die gestiegenen Temperaturen zu begründen, müssen wir zunächst feststellen, ob diese „Hitzewellen“ in Finnland zugenommen haben. Für die Hauptstadt Finnlands liegen uns Temperaturdaten zwischen 1844-2021 vor. Zählen wir für jedes Jahr die Tage mit einem Temperaturmaximum von über 25 Celsius:

Anzahl der Tage im Jahr mit einer Höchsttemperatur bei 25°C. Datenquelle: Finnisches Meteorologisches Institut, frei zugängliche Daten

Was wir sehen können, ist keine signifikante Zunahme von 25°C-Tagen in den Daten von Helsinki Kaisaniemi. Ein leichter Anstieg am Ende unterscheidet sich nicht signifikant von den 1940er Jahren. Berücksichtigen Sie auch den erhöhten Urban Heat Island-Effekt: Die Bevölkerung von Helsinki ist jetzt viel höher als in den 1940er Jahren.

Wenn man die Studie nur auf die Jahre 1991-2018 beschränkt, könnte man die Zunahme der warmen Tage (fälschlicherweise) auf den Klimawandel zurückführen.

Für Helsinki ist also der Punkt 1: „Die Extremtemperaturen haben an den Studienorten tatsächlich zugenommen“ nur teilweise richtig.

Wie sieht es mit den Sterbefällen aus?

Um die Sterblichkeit zu untersuchen, habe ich die folgenden Daten aus den offenen Daten von Statistics Finland für die Jahre 1945-2020 heruntergeladen:

Gesamtbevölkerung

Todesfälle in den Monaten Juni, Juli und August

Todesfälle in anderen Monaten

Bevölkerungsdaten der Altersgruppe über 85 Jahre

Todesfälle der Altersgruppe über 85 Jahre

Ich habe einen Trend der Todesfälle in den Sommermonaten (Juni, Juli und August) im Vergleich zu allen Todesfällen im selben Jahr berechnet. Der Prozentsatz ist extrem stabil und sogar leicht abnehmend im Zeitraum der Nature-Studie, also von 1991 bis 2018, wenn man bedenkt, dass die Bevölkerung in der Altersgruppe 85 Jahre oder älter zwischen 1945-2019 um das 10-fache gestiegen ist. Ältere Menschen neigen dazu, anfälliger für hohe Temperaturen zu sein, aber das hat keinen Einfluss auf die Sterblichkeit.

Wenn man also die oben genannten Punkte berücksichtigt:

● Die Sterblichkeit während der Sommermonate hat in Finnland nicht zugenommen – überhaupt nicht

Zusammenfassend: Die Daten belegen keinerlei Anstieg der Sterblichkeit während der Sommermonate.

Hitzebedingte Sterblichkeit in Spanien

Spanien ist in der Nature-Studie sogar noch dunkelroter, da es sehr anfällig für hitzebedingten Anstieg der Sterblichkeit ist.

Zum Glück gibt es für Spanien eine weitere Studie:

Achebak H, Devolder D, Ballester J (2018) Heat-related mortality trends under recent climate warming in Spain: A 36-year observational study. PLoS Med 15(7): e1002617. https://doi.org/10.1371/journal.pmed.1002617

Diese Studie umfasst 47 Großstädte aus Spanien für die Sommermonate zwischen 1980 und 2015. Diese Studie verwendet reale Sterblichkeitsdaten und Temperaturen für diesen Zeitraum – nicht nur Modelle, wie es die Nature-Studie tut.

Haben sie eine steigende Sterblichkeit gefunden? Nein, haben sie nicht.

Achebak H, Devolder D, Ballester J (2018), Abbildung 5

Sie fanden zwar steigende Temperaturen mit dem Anstieg von 0,32 Celsius pro Jahrzehnt. Aber die Gesamtsterblichkeit nimmt ab – stark.

Das zeitliche Muster der einzelnen Todesursachen war bei Männern und Frauen ähnlich (S2 Abb.), mit einem Rückgang der Zahl der Todesfälle durch Kreislauferkrankungen und einem Anstieg der Zahl der Todesfälle durch Atemwegserkrankungen. Allerdings nahm die Sterblichkeit bei Frauen bei den Kreislauferkrankungen langsamer ab, wodurch der Unterschied zwischen Frauen und Männern größer wurde. Darüber hinaus stieg die Sterblichkeit bei Atemwegserkrankungen bei Frauen schneller an, wodurch sich das Ausmaß des Unterschieds zwischen Frauen und Männern verringerte.

Achebak H, Devolder D, Ballester J (2018)

Die blaue und die rote Linie in der Abbildung stellen zeitlich variierende jährliche RR-Kurven dar, basierend auf dem Sommer 1984 (kühlster Sommer des Zeitraums) und die rote Linie basiert auf dem Jahr 2003 (heißester Sommer des Zeitraums). Die Sterblichkeitsrate für ähnliche Temperaturen ist insgesamt für den Untersuchungszeitraum rückläufig.

Die Studie wies auf einen starken Rückgang der Ursachen-spezifischen und Ursachen-geschlechtsspezifischen Sterblichkeit RR in Verbindung mit Sommertemperaturen für die letzten dreieinhalb Jahrzehnte hin und – mit Ausnahme von Atemwegserkrankungen (für Männer und Frauen zusammen und nur für Frauen) – auf einen Abwärtstrend der hitzebedingten Todesfälle. Diese Ergebnisse unterstützen nachdrücklich die Hypothese, dass der beobachtete Erwärmungstrend bei den Sommertemperaturen in Spanien nicht mit einem allgemeinen Anstieg des auf Hitze zurückzuführenden Anteils der Sterblichkeit einherging, was auf einen erheblichen Rückgang der Anfälligkeit der Bevölkerung für hohe Temperaturen zurückzuführen ist.

Der Abwärtstrend ist trotz des Anteils der über 64-Jährigen im Laufe der Jahre deutlich gestiegen. Aber warum? Auch darauf gibt die Studie eine Antwort:

Der allgemeine Abwärtstrend bei den Mortalitätsrisiken wurde von einigen Forschern auf die sozioökonomische Entwicklung und strukturelle Veränderungen, wie z. B. Verbesserungen im Wohnungsbau und in der Gesundheitsversorgung, oder sogar auf spezifische Interventionen im Bereich der öffentlichen Gesundheit zurückgeführt. Die großen sozioökonomischen Fortschritte, die in Spanien in den letzten Jahrzehnten stattgefunden haben, könnten ebenfalls zu dieser Reaktion beigetragen haben und somit die Auswirkungen der Mortalitätsrisiken im Laufe der Zeit verringern. So sind beispielsweise das Bruttoinlandsprodukt (von 8.798 € pro Kopf im Jahr 1991 auf 22.813 € im Jahr 2009), die Lebenserwartung bei der Geburt (von 77,08 Jahren auf 81,58), die Ausgaben für das Gesundheitswesen (von 605 € pro Kopf auf 2.182 €) und den Sozialschutz (von 1.845 € pro Kopf auf 5.746 €) sowie die Anzahl der Ärzte (von 3.930 pro Million Einwohner auf 4.760 pro Million Einwohner) in Spanien stark gestiegen. Darüber hinaus hat die Nutzung von Klimaanlagen, die in den USA als ein Hauptfaktor für die Verringerung der hitzebedingten Sterblichkeit postuliert wird, in spanischen Haushalten im analysierten Zeitraum ebenfalls stark zugenommen (von 5,3 % auf 35,5 %).

Zusammengefasst: Anpassung. Die spanische Bevölkerung hat erhebliche Investitionen in Klimaanlagen getätigt – weil sie es kann. Das steigende Einkommen bietet bessere Möglichkeiten, mit der überschüssigen Wärme umzugehen.

Die gleiche Anpassung ist auch in der Nature-Studie sichtbar: Die Sterblichkeitskurve beginnt bei höherer Temperatur an Orten zu steigen, an denen die Überhitzung die Norm ist: Kuwait-Stadt, Bangkok usw. Es ist schwer zu argumentieren, warum sich diese Anpassung nicht fortsetzen sollte – und das trotz eines möglichen Klimawandels.

Conclusion

Die in A. M. Vicedo-Cabrera et all 2021 verwendeten Verfahren sind ernsthaft fehlerhaft, was dazu führt, dass die Ergebnisse und Schlussfolgerungen ungültig sind.

Diese Widerlegung bezog sich nur auf zwei Länder (Finnland und Spanien), aber schon das beweist:

● Es gibt keine erhöhte hitzebedingte Sterblichkeit aus irgendeinem Grund, und wenn es insgesamt keinen Anstieg der Sterblichkeit gibt, ist es unmöglich, dass der Klimawandel irgendeinen Effekt hat

● Alle Erhöhungen sind auf fehlerhafte Verfahren zurückzuführen, die sich auf Klimamodelle statt auf reale Sterblichkeitsdaten stützen

● Selbst dann versäumt es die Studie, andere Faktoren zu erwähnen, die die Sterblichkeit beeinflussen, wie z.B. die Alterung und Zunahme der Bevölkerung

● Die Anpassung an die Überhitzung erfolgt überall automatisch, wenn das steigende Einkommen dies zulässt

References

Link: https://wattsupwiththat.com/2021/06/03/the-burden-of-heat-related-mortality-attributable-to-poor-modeling/

Übersetzt von Chris Frey EIKE

 




Gleichzeitiges Aufblühen von Umwelt, Natur und Wirtschaft: Ein Beispiel aus Indien

Trotz üppiger Wälder und angenehmer Umgebung gab es ständigen Stress für die lokalen Gemeinden, die Armut zu bekämpfen und finanzielle Stabilität zu erreichen. Dies war die Geschichte Indiens in den 1990er Jahren.

Zwei Jahrzehnte später ist Indien nicht nur wirtschaftlich stärker geworden, sondern hat es auch geschafft, viele seiner Arten durch effektive, datengesteuerte Schutzprogramme zu retten – und findet weiterhin Wege, um gefährdete Arten zu retten.

Naturschutz mitten im rapiden ökonomischen Wachstum

Vor dem Jahr 2000 war Indien noch ein junges Entwicklungsland. Im Jahr 1993 lebten 45 % der Bevölkerung in Armut. Im Jahr 2011 (der letzten Volkszählung) lebten nur noch 21 % der Bevölkerung in Armut. Dennoch leben schätzungsweise immer noch rund 218 Millionen Menschen in Indien in „extremer“ Armut (weniger als 1,90 US-Dollar pro Tag).

Allein zwischen 2011 und 2015 konnten mehr als 90 Millionen Menschen aus der extremen Armut befreit werden. Indiens BIP lag im Jahr 2000 bei rund 468 Mrd. US-Dollar. Im Jahr 2019 wurde das BIP auf 2,8 Billionen US-Dollar geschätzt. Das ist eine phänomenale Leistung.

Da liegt der Gedanke nahe, dass eine solch rasante wirtschaftliche Entwicklung und die Ausdehnung menschlicher Siedlungen einen negativen Einfluss auf Indiens Tierwelt gehabt hätte.

Das war jedoch keineswegs der Fall. In diesen Jahren ist es Indien gelungen, strenge Schutzmaßnahmen zu ergreifen, die auch kurzfristig einen immensen Nutzen bringen.
Laut einer kürzlich durchgeführten Waldzählung ist die Waldfläche im ganzen Land gewachsen. Zu den vielen Erfolgsgeschichten des Wildtierschutzes gehört auch die Zunahme der Tigerpopulation.

Im Jahr 2006 gab es nur 1.411 Tiger. Diese Zahl hat sich in den nächsten 12 Jahren mehr als verdoppelt, und im Jahr 2018 gab es 2.967 Tiger.

Die südindischen Tropenwälder des Western Ghat Gebirges beherbergen einen bedeutenden Teil dieser Tiger, einschließlich derer im Mudumalai Tiger Reserve. Das Mudumalai-Tiger-Reservat ist Teil der Nilgiris-Region, die auch eine Reihe von Bergstädten beherbergt, die als Handelsknotenpunkte für die Produkte der Region fungieren.

Das Tiger-Schutzgebiet Mudumalai und die Nilgiris-Ökonomie

Ich war ein häufiger Besucher des Reservats. Es ist die Heimat von Elefanten, Tigern, Leoparden, schwarzen Panthern, Faultieren, indischen Fleckenhirschen, Sambhar-Hirschen, Schakalen, indischen Wildhunden, indischen Bisons (Gaur), Rhesusaffen, grauen Languren, Nilgiri-Languren, schlanken Loris und einer Vogelfauna wie Pfauen, Malabarsittichen, dem großen indischen Nashornvogel, dem grauen Malabar-Hornvogel, Pfeifdrosseln, Laubsängern, etc.

Vor einem Monat konnten wir auf dem National Highway, der durch das Reservat führt, eine große Elefantenherde beobachten. Mudumalai hat ein einzigartiges Elefanten-Trainings- und Rehabilitationscamp, in dem gefangene Elefanten trainiert werden, um Abtrünnige (die immer wieder Menschen töten) zu fangen. Oft werden vier dieser trainierten Elefanten benötigt, um einen abtrünnigen Elefanten zu bändigen und zu transportieren, ein häufiger Anblick in den Dörfern der Nilgiris. Das Zentrum rehabilitiert verletzte wilde Elefanten und pflegt verwaiste wilde Elefantenkälber.

Das Reservat plant auch die Einrichtung eines Geier-Rettungs-, Rehabilitations- und Zuchtzentrums in der landschaftlich reizvollen Region des Sigur-Plateaus. Die Hochebene ist einer der letzten verbleibenden Lebensräume für drei stark bedrohte Geierarten – den Weißbürzelgeier, den Rotkopf- oder asiatischen Königsgeier und den Langschnabelgeier. Außerdem wird das Plateau auch von Schmutzgeier, Mönchsgeier und Himalaya-Gänsegeier besucht.

All diese Schutzaktivitäten und die damit verbundenen Erfolge gingen gleichzeitig einher mit einem Wachstum der Wirtschaft in der Region während der letzten zwei Jahrzehnte. Der Wildtier-Tourismus ist hier eine der größten Einnahmequellen. Die Region liegt nicht weit von Indiens Siliziumzentrum Bangalore entfernt und zieht das ganze Jahr über Touristen an.

Die menschlichen Siedlungen in den umliegenden Hügelregionen befinden sich in einer idealen Höhenlage für den Anbau von Karotten, Rüben, Kartoffeln, Kohl, Salat, Erdbeeren, Tee und anderen Früchten, die einen hohen Gewinn abwerfen. Das Gemüse aus den Regionen ist im ganzen Land sehr gefragt.

Der Fall Mudumalai ist nur ein Beispiel. Es gibt andere Schutzgebiete, in denen die Wildtierbehörden phänomenale Arbeit geleistet haben. Das Sahyadri-Tiger-Reservat (Bundesstaat Maharashtra) ist ein weiteres Beispiel, in dem der Konflikt zwischen Mensch und Wildtier reduziert wurde, während sowohl die Dorfbevölkerung als auch die Tierpopulation gedeihen konnten. Ich habe es während meiner Arbeit als Wildtierökologe in diesen Wäldern von Maharashtra, dem Bundesstaat mit dem höchsten BIP (400 Milliarden US-Dollar) des Landes, aus erster Hand erlebt. Das Mudumalai-Tigerreservat liegt ebenfalls in einem Bundesstaat mit dem zweithöchsten BIP Indiens (270 Mrd. US$).

Es handelt sich also nicht um Wildtierreservate in der Mitte von Nirgendwo. Sie befinden sich in unmittelbarer Nähe zu schnell wachsenden Wirtschaftszentren und schaffen es dennoch, wichtige Arten erfolgreich zu erhalten. In der Tat kann man argumentieren, dass das BIP-Wachstum diese Volkswirtschaften in die Lage versetzt hat, die Wälder besser zu schützen und übermäßige Abholzung zu vermeiden.

Zusammenfassend lässt sich sagen, dass Indien in der Lage war, Entwicklung und Schutz in Einklang zu bringen. Indien ist ein leuchtendes Beispiel dafür, wie wirtschaftliches Wachstum und Naturschutzbemühungen gleichzeitig stattfinden können, wobei ersteres bei der Umsetzung von letzterem hilft.

Wir müssen uns von dem weit verbreiteten Irrglauben verabschieden, dass Entwicklung Wildtiere zerstört, und nach Beispielen wie Mudumalai und anderen Reservaten in Indien suchen, die in Wäldern anderswo auf der Welt nachgeahmt werden können.

Autor: Vijay Raj Jayaraj (M.Sc., Environmental Science, University of East Anglia, England), is an Environmental Researcher based in New Delhi, India. He served as a Graduate Research Assistant at the University of British Columbia, Canada and has worked in the fields of Conservation, Climate change and Energy.“

Link: https://www.cfact.org/2021/05/12/when-wildlife-and-the-economy-flourish-together-a-case-from-india/

Übersetzt von Chris Frey EIKE