1

Die bevorstehenden Energie-Schrecken unter einer Biden-Regierung in den USA

Zwar deutet sich an, dass Joe Biden (höchstwahrscheinlich) die US-Präsidentschaftswahlen gewonnen hat, ein gewisses Maß an Pragmatismus vorherrschen wird, da die exzessiven Wahlkampfversprechen der Demokraten dem kalten Licht der Welt entgegentreten und die tatsächlichen Kosten politischer Entscheidungen offensichtlich werden. Darüber hinaus müsste man feststellen, dass es Grenzen dafür gibt, was selbst eine US-Präsidentschaft – das mächtigste Exekutivamt der Welt – innerhalb der verfassungsmäßigen Grenzen tun kann. Es besteht die Wahrscheinlichkeit, dass der US-Senat republikanisch bleibt und somit die extremeren Zusagen bremsen wird, die im Namen von „Netto-Null“-Emissionen im Energiesektor bis 2035 und in der gesamten Wirtschaft bis 2050 gemacht wurden. Möglicherweise unterscheidet sich das Energie-Programm von Biden gar nicht so sehr von demjenigen von Trump.

Energiepolitische Diskontinuitäten

Aber man lasse sich nicht von beruhigenden Gedanken an politische Kontinuität unter einer Biden-Harris-Regierung einlullen. Der Kontrast in den republikanischen und demokratischen Weltanschauungen über fossile Brennstoffe und globale Energie-Geopolitik könnte nicht stärker sein. Und nirgendwo sind die Kosten so extravagant wie in den Versprechungen, die in Bezug auf den Grünen New Deal gemacht wurden. Die negativen Auswirkungen auf die inneren Angelegenheiten der USA werden so tiefgreifend sein wie auf der globalen Bühne. Die politische Diskontinuität, die im Öl- und Gassektor unter einer Biden-Administration erwartet wird, ist etwa so radikal, wie man sich das in den USA und auf der Weltbühne vorstellen kann.

Der Biden-Plan für eine „100% saubere Energiewirtschaft, die bis spätestens 2050 Netto-Null-Emissionen erreicht“ wird von seiner Regierung verlangen, „eine Reihe neuer Exekutivverordnungen mit beispielloser Reichweite zu unterzeichnen, die weit über die Plattform der Obama-Biden-Regierung hinausgehen und uns auf den richtigen Weg bringen“. Der auf vier Jahre angelegte, 1,7 Billionen Dollar schwere Biden-Plan – der einen noch aggressiveren Aktionsplan der Demokraten des Repräsentantenhauses zur „Klimakrise“ widerspiegelt – beinhaltet das Verbot des Fracking in Bundesländern und -gewässern, die Verweigerung von Bundesgenehmigungen für neue Infrastrukturprojekte bzgl. fossiler Brennstoffe und die Gewährleistung von 100% sauberer erneuerbarer Energien bis 2035 bei der Stromerzeugung, in Gebäuden und im Verkehrswesen.

Joe Biden eierte während des Wahlkampfprozesses über sein vorgeschlagenes Fracking-Verbot herum, je nachdem, ob sich sein Publikum in einem Öl und Gas produzierenden Staat wie Pennsylvania oder im umweltbesessenen Kalifornien befand. Aber als Präsident, „wo die Verantwortung aufhört“, wird Biden beispielsweise mit der Situation in New Mexico umgehen müssen, wo die demokratische Abgeordnete Xochitl Torres Small wiederholt versucht hat, den Wählern ihre Unterstützung für die Öl- und Gasindustrie als wichtigste Stütze des Bundesstaates zu versichern.

Wird ein von den Demokraten regiertes New Mexico – das in hohem Maße von der Öl- und Gasförderung auf bundeseigenem Land abhängig ist – irgendwie von dem Fracking-Verbot einer Biden-Regierung „ausgenommen“ sein? Oder werden die Öl- und Gasarbeiter in diesem Bundesstaat zu Opferlämmern für die Sache des globalen Klimas? Eine Analyse der oil and gas association des Bundesstaates geht davon aus, dass New Mexico zu den Staaten gehören wird, die von einer Biden-Präsidentschaft potenziell am härtesten getroffen werden, da es bis 2022 über 62.000 Arbeitsplätze verlieren wird.

In Anlehnung an das vorangegangene Buch von Obama-Biden würde eine politisierte Umweltschutzbehörde unter Biden Öl- und Gaspipelines und andere fossile Brennstoff-Infrastrukturen blockieren, indem sie Aktivisten in die Lage versetzt, endlose Gerichtsverfahren wie im Fall der Dakota Access Pipeline einzuleiten. Eine Biden-Administration würde wahrscheinlich auch die „sue and settle“-Praktiken der Obama-Umweltschutzvereinbarung wieder aufleben lassen – Vereinbarungen, durch die radikale Umweltgruppen Klagen gegen Bundesbehörden einreichen, so dass gerichtlich angeordnete „Zustimmungsverfügungen“ auf der Grundlage einer im Voraus vereinbarten Vergleichsvereinbarung erlassen werden, die von gleichgesinnten Klimaanwälten gemeinsam im Voraus hinter verschlossenen Türen ausgearbeitet wurde.

Wiedereintritt in das Paris-Abkommen

Auf internationaler Ebene hat sich Biden verpflichtet, dem Pariser Abkommen sofort wieder beizutreten, falls er zum Präsidenten gewählt wird. Mit einem Schlag wird eine Biden-Harris-Regierung wichtige globale Energieakteure begünstigen, die durch Präsident Trumps „Energiedominanz“ und „America First“-Agenda auf eine harte Probe gestellt wurden. Eine Biden-Präsidentschaft, die die Rolle der USA als weltweit führender Öl- und Gasproduzent aufgeben würde, würde zweifellos von Russland und den Öl- und Gasexporteuren der OPEC begrüßt werden, haben diese doch mit niedrigen Energiepreisen zu kämpfen. Für Öl- und Gasunternehmen wie die russische Gazprom und Rosneft oder die saudi-arabische Aramco wäre die Aussicht auf eine von der US-Regierung herbeigeführte Degradierung der produktiven Öl- und Gasförderung aus Schiefergestein im eigenen Land im Rahmen einer Klimaschutzverpflichtung wie Musik in den Ohren.

Eine Biden-Harris-Regierung, welche die US-amerikanischen Öl- und Gasförderung einschränkt und auf die Prioritäten erneuerbare Energien und Klimawandel setzt, würde mit einem Schlag dafür sorgen, dass Russland, Saudi-Arabien und andere OPEC-Öl- und Gasproduzenten die lang gesuchten und gemeinsamen Ziele erreichen. Sie würde Ergebnisse erzielen, an denen die saudische Politik seit 2014 konsequent gescheitert ist, indem sie sich auf einen umfassenden Preiskampf gegen einen widerstandsfähigen und wiederauflebenden Öl- und Gassektor der USA eingelassen hat.

Der Nahe Osten: Vorsicht vor einer Biden-Präsidentschaft

Aber Biden ist kein ungetrübter Segen für den Nahen Osten. Während sie Russland, Saudi-Arabien und den Rest der OPEC+-Gruppe unterstützt, indem sie die Öl- und Gasförderung der USA behindert, wird eine Biden-Administration auch eine Lockerung der „Maximaldruck“-Sanktionen von Präsident Trump gegen den Iran in Erwägung ziehen. Bidens Loyalität gegenüber Präsident Obamas Vermächtnisprojekt zur Rehabilitierung des Iran ist allgemein bekannt, und er hat erklärt, dass er zum Nuklearabkommen von 2015 zurückkehren werde, wenn Teheran „die Einhaltung der Vorschriften wiederherstellt“. Eine mögliche Wiederaufnahme der iranischen Exporte von mehr als 2,5 Millionen Barrel pro Tag (dem Höchststand der Exporte im Jahr 2018 vor der Verhängung der Ölsanktionen von Präsident Trump) würde es der OPEC+-Gruppe unmöglich machen, Angebot und Nachfrage auszugleichen. Die Kürzungsvereinbarung der OPEC+ von 9,7 Millionen b/d droht in diesem Falle zusammen mit den Ölpreisen von ihrem bereits niedrigen Niveau unter 40 $/Barrel zusammenzubrechen.

Einem Newswire-Bericht zufolge sind wichtige Mitglieder der OPEC „skeptisch, dass Spannungen in der OPEC+-Allianz mit Joe Biden als US-Präsident wieder auftauchen könnten“ und „würden Präsident Donald Trump vermissen, der von der Kritik an der Gruppe zu einer rekordverdächtigen Kürzung der Ölfördermenge beigetragen hat“. Während Präsident Trump ein Abkommen zwischen Russland und Saudi-Arabien vermittelte, das zu einer Rekord-Kürzung der Ölförderung durch die OPEC+-Gruppe führte, würde ein zukünftiger Präsident Biden wahrscheinlich die Beziehungen der USA zu Saudi-Arabien (von Biden als „Paria“-Staat bezeichnet) und Russland (das er als die ernsthafteste Sicherheitsbedrohung für die US-Interessen betrachtet) neu bewerten.

Der Anstieg der amerikanischen Öl- und Gasexporte, der sich im letzten Jahrzehnt beschleunigte, ermöglichte es Präsident Trump, eine Agenda der „Energiedominanz“ zu verfolgen, die die USA weniger anfällig für politische und soziale Umwälzungen im Nahen Osten machte. Er vergrößerte seinen außenpolitischen Einfluss bei der Erreichung strategischer Ziele und gab seiner Regierung größeren Spielraum, um Verbündete zu unterstützen und Rivalen zu sanktionieren. Sie erleichterte es Präsident Trump, Exportsanktionen gegen Öl produzierende Gegner wie Venezuela und den Iran zu verhängen, ohne einen daraus resultierenden Anstieg der weltweiten Ölpreise befürchten zu müssen.

Eine Biden-Präsidentschaft, die sich der radikalen Dekarbonisierungsagenda verpflichtet fühlt, würde diese Errungenschaften untergraben und die USA und den Rest der Welt damit weitaus anfälliger für die Wechselfälle volatiler Energiemärkte und politischer Instabilität im Nahen Osten machen. Unabhängig davon, ob der Energieschock von der Dämmerung der USA als weltweit führender Öl- und Gasproduzent ausgeht (was zu hohen Öl- und Gaspreisen führt) oder vom Zusammenbruch des OPEC+-Produktionskürzungs-Abkommens, das durch das Wiederaufleben uneingeschränkter iranischer Exporte ausgelöst wurde (was zu sehr niedrigen Öl- und Gaspreisen führt) – eine Biden-Präsidentschaft birgt einige gefährliche Szenarien in globalen Energiefragen.

Link: https://wattsupwiththat.com/2020/11/12/the-coming-energy-shocks-under-a-biden-administration/

Übersetzt von Chris Frey EIKE




Hitzewellen, so tödlich wie Grippe oder gar Corona?

Hitzewellen, das „Corona“ des Klimawandels?

Mehr oder weniger regelmäßig werden von irgendwelchen, oft üppig finanzierten Organisationen und Ministerien Berichte oder Meldungen über die schlimmen Auswirkungen des Klimawandels herausgegeben. Oft haben diese ein Leitthema, wie letztes Jahr, als „man“ sich der schlimmen und in Simulationen immer schlimmer werdenden Hitzewellen annahm.

Erklärungen dazu gab es von „Fachpersonen“ und solchen die ihre (politischen) Ämter unter der unfehlbaren Merkel wohl nur bekommen haben, weil sie es nicht sind:
„Die Zahl der Ereignisse durch extreme Temperaturen ist dramatisch gestiegen“, sagte die Professorin Debarati Guha-Sapir vom Katastrophenforschungszentrum (CRED) der Universität Löwen in Belgien, wo die Datenbank geführt wird. 91 Prozent der Todesopfer durch extreme Temperaturen seien zwischen 2000 und 2019 durch Hitzewellen umgekommen, insgesamt 165.000 Menschen. Alle Länder müssten sich deutlich besser auf Hitzewellen vorbereiten, mahnte die Wissenschaftlerin.
SZ 26. November 2019: Klima: Tausende Tote durch Hitzewellen in Deutschland seit 2003
… „Das ist die größte Naturkatastrophe, die wir in Deutschland in den letzten 50 Jahren hatten“, sagt Maria Krautzberger, Chefin des Umweltbundesamtes.

Wenn Schlimmes zum Klima berichtet werden muss, ist unsere Umweltministerin immer mit ganz vorne dran, es ihren besorgten Bürgern mitzuteilen (und die inzwischen immer extremere Geldverschleuderung zur sinnlosen CO2-Reduktion zu rechtfertigen):
Merkur 26.11.2019: „Alarmierend“ Immer mehr „heiße Tage“: Ministerin mit drastischem Urteil über Klima-Folgen für Deutschland
… Der Klimawandel hinterlässt in Deutschland immer heftigere Spuren. Laut einem neuen Bericht der Bundesregierung kam es wegen der Hitze sogar zu mehr Todesfällen.
… Die Folgen des Klimawandels lassen sich immer besser erkennen. Bundesumweltministerin Svenja Schulze spricht über „alarmierende“ Befunde …
Dabei bezog sie sich auf den Klimabericht 2019, wahrscheinlich ohne ihn gelesen zu haben (rein persönliche Meinung des Autors die nicht belegt ist).
[1] EIKE 19.12.2019: Klimabericht 2019: Absolute Unkenntnis und/oder bewusste Falschinformation kennzeichnen unsere „Eliten“. Beispiel Hitzetote durch den „Klimawandel“ T2(2)

Hat unsere Umweltministerin den Bericht gelesen, dann ist ihre Aussage dazu nur noch dumm; hat sie ihn nicht gelesen, ist sie nur an Wissen zum Klima und seinen segensreichen Auswirkungen dumm geblieben …

Hitzewellen, Winterkälte und Grippe im Vergleich

Beim Lesen der vorhergehenden Meldungen wird man überzeugt, dass Grippe etwas „Normales“ ist, bei deren Mortalität sich Zusatzmaßnahmen nicht „lohnen“, während aufgrund der seit dem schlimmen Klimawandel zu meldenden Hitzeopfern dringender Handlungsbedarf besteht, wie es dank unserer sich immer fürsorglicher um das Wohl der Bürger besorgten Politik und Gremien ja mit der Billarden schweren CO2-Vermeidungsstrategie begonnen wurde.

Zuerst die Aussagen des Deutschen Klima-Monitoringberichtes 2019 [4] zu Hitzewellen und –Toten, die an Inhaltsschwere und Präzision kaum überboten werden kann: Hitzebedingte Todesfälle: „In Jahren mit einer überdurchschnittlich hohen Anzahl von Hitzetagen treten mehr Todesfälle auf

Bild 1 Grafik zur Hitzemortalität [4]
Der Klimabericht meldet dazu seit 2001 als besonders schlimme Hitze-Mortalitätsjahre:
– 2003: ca. 7.500 Personen,
– 2006 und 2015: ca. 6000 Personen

Zum Vergleich: 2003 waren es bei der Grippe: Frankfurter Allgemeine 25.04.2003: 15.000 Grippe-Tote in der diesjährigen Influenza-Saison
Die diesjährige schwere Grippewelle hat deutlich mehr Opfer gekostet als in durchschnittlichen Jahren an der Krankheit sterben. Das Deutsche Grüne Kreuz schätzt rund 15.000 Opfer …
Und regelmäßig sollen es sein:
Informationssystem der Gesundheitsberichterstattung des Bundes, Gesundheit in Deutschland, 2006: 1.2.8.3 Influenza
Nach Schätzungen der Arbeitsgemeinschaft Influenza ( http://influenza.rki.de ) kommt es jedes Jahr in der Folge der vor allem in den Wintermonaten auftretenden Grippewelle zu zwei bis drei Millionen zusätzlichen Arztbesuchen. Für eine
gewöhnlich starke Influenzasaison wird mit einer Zahl von etwa 7.000 bis 13.000 Grippetodesfällen gerechnet. Diese Zahlen werden aber bei einer sehr starken Epidemie deutlich überschritten

Dazu eine Grafik mit der Grippemortalität im vergleichbaren Betrachtungszeitraum des Klimaberichtes 2019:

Bild 2 Todesfälle durch Influenza. Grafik vom Autor erstellt. Datenquelle [3], Tab. 3: Geschätzte Influenza-bedingte Todesfälle (Exzess-Mortalität während der Influenzawellen)
Und nun beide Grafiken im gleichen Maßstab übereinander kopiert:

Bild 3 Grafiken Bild 1 und 2 im gleichen Maßstab übereinander kopiert. Anm.: In der Hitzegrafik enden die Daten 2015/16

Würde ein normaler Bürger daraus wie unsere Umweltministerin ableiten: … Die Folgen des Klimawandels lassen sich immer besser erkennen. Bundesumweltministerin Svenja Schulze spricht über „alarmierende“ Befunde …
Oder eher in der Grippe ein zunehmendes Problem erkennen? Nur, dass gegen Grippe noch niemand auf die Idee kam, CO2 zu verhindern und deshalb damit auch keine zusätzlichen (CO2-Steuer-) Einnahmen für den immer gieriger werdenden Behördenapparat und immer extremer werdende Subventionen für GRÜNes Klientel zu gewinnen sind.

Nun kann es sein, dass der Zeitraum ab 2001 für eine seriöse Betrachtung zu kurz ist (dem Klimabericht hat er allerdings ausgereicht). Deshalb eine Wiederholung mit einer längeren Datenreihe:

Bild 4 Grippemortalität seit 1984. Quelle [2]
Und wieder zum Vergleich die schlimme Hitzemortalität durch den Klimawandel hineinkopiert. Man wird den Verdacht nicht los, dass es sinnvoller sein könnte, von den Billiarden EURos zur CO2-Minderung lieber etwas in eine „Grippestrategie“ umzuleiten:
WELT, 21.04.2916:
Irritierende Konkurrenz zwischen Hitze- und Kältetod

Gut, wenn Behörden so etwas machen, wird es als die ganz große und sichere Vorbeugemaßnahme publiziert, versagt in aller Regel jedoch, sobald es angewendet wird. Gegen eine Pandemie wie Corona gab es ja auch einen gut ausgearbeiteten Plan … und dann noch eine App … und nun gibt es nur noch Chaos …

Bild 5 Grippemortalität seit 1984 [2] und Bild 1 vom Autor übereinander kopiert
Nun noch ein paar Darstellungen als Liniendiagramme, bei denen man den zeitlichen Detailverlauf besser betrachten kann und vor allem auch den generellen, zusätzlichen mortalen Einfluss des Winterhalbjahres sieht. Denn auch ganz ohne Grippe versterben im Winter viel mehr Personen, als wenn es im Sommer warm ist:

Bild 6 Mortalitätsverlauf Deutschland von 1990 – 2020 in Monatsauflösung. Kennzeichnung: Januar blau; Juli rot. Die im Klimabericht 2019 besonders hervorgehobenen Hitzewellen sind gekennzeichnet. Grafik vom Autor erstellt

Bild 7 Mortalitätsverlauf von 2002 – 2013. Die im Klimabericht hervorgehobenen, schlimmen Hitzesommer 2003 und 2006 rot gekennzeichnet. Quelle [2]
Eine vergleichbare Grafik vom Bundesland Hessen:

Bild 8 Abb. 43 (Teilbild): Gesamtzahl von Todesfällen aller Altersgruppen in Hessen, wöchentlich von der 1. KW 2015 bis zur 20. KW 2019. Die schwarzen senkrechten Linien markieren die Jahreswechsel. Quelle: [3]

Bild 9 Eine vergleichbare Grafik aus der Schweiz einschließlich der ersten „Corona-Welle“

Zur Abrundung Grafiken vom Statistischen Bundesamt für dieses Jahr mit Corona:

Bild 10 Mortalitätsverläufe 2020. Quelle: Statistisches Bundesamt. Bilder und Text vom Autor ergänzt

Ob Zufall oder bewusste Methode. Mehr als auffallend ist, dass vor allem in den amtlichen Berichten über den schlimmen Einfluss des Klimawandels die weiter zurückliegende Vergangenheit nicht dargestellt, schon gar nicht ausgewertet wird. Dabei geschah auch früher beim Klima und Wetter schon – oder viel mehr – Außergewöhnliches. Dazu eine Grafik der Hitze in den USA (mit dem „Dusted Bowl“ der 30er Jahre) und der Temperaturverlauf seit damals ununterbrochen messender, ländlicher Stationen ohne Wärmeinseleffekt.

Bild 11 Verlauf von Hitzewellen in den USA seit ca. 1895

Bild 12 Temperaturverlauf 1895 – 2019 Mittlere Maximaltemperaturen aller historischen US-Messstationen

Nun noch eine Grafik, welche den insgesamt segensreichen Einfluss des „immer schlimmer werdenden Klimawandels“ auf die Lebenserwartung seit 1876 zeigt. In den letzten 140 Jahren, also ungefähr seit dem Beginn des AGW-Klimawandels, hat sich die Lebenserwartung in Deutschland verdoppelt.

Bild 13 Deutschland, Lebenserwartung bei Geburt seit 1876

Woran stirbt der Bürger

Auf keinen Fall signifikant am „schlimmen KLimawandel“:

Bild 14 Verteilung der häufigsten Todesursachen in Deutschland im Jahr 2017. Quelle: © Statista 2019, Statistisches Bundesamt. Bild vom Autor ergänzt

Ist Hitzemortalität unvermeidbar?

In vielen Ländern ist das, was bei uns von politischen Sprechpuppen als „Das ist die größte Naturkatastrophe, die wir in Deutschland in den letzten 50 Jahren hatten“ deklariert wird, eine „Normaltemperatur“. Danach müssten dort ungeheure Mortalitätswerte herrschen.

Vorab eine Darstellung von Opferzahlen durch Naturkatastrophen. Die für Deutschland angeblich „Größte“ kommt auch weltweit im Verhältnis nicht vor (es sind Tsunamis und Erdbeben).

Bild 15 Todesopfer durch Naturkatastrophen 1900 – 2015 (Link)

Nachschau der weltweiten Mortalitätszahlen zeigt, dass Hitze keinen signifikanten Einfluss auf die Mortalität haben kann, sonst wäre die Lebenserwartung nicht gleichzeitig in heißen und kühleren Ländern höher als im High-Tech-Land Deutschland.
Zudem: Gilt nicht der nördliche Mittelmeerraum mit seiner konstanten „Sommerhitze“ (wie auch Florida in den USA) als Traumziel der Betagten, obwohl dort die angebliche „Klima-Todeszone“ bereits herrscht, welche bei uns noch kommen soll?

Bild 16 Lebenserwartungen, Rangfolge weltweit (Auszug, nur mit den vor Deutschland liegenden Ländern). Quelle: Laenderdaten.info

Es zeigt, dass sich der Mensch an die Temperatur gewöhnt und anpasst.

Zudem soll es einfach und wirkungsvoll möglich sein, die gesundheitlichen Auswirkungen gerade bei älteren Personen alleine durch vermehrtes Trinken und mittels Klimaanlagen einzudämmen. Wenn alles Geld zur CO2-Vermeidung hinausgeworfen wird, bleibt dafür allerdings nichts mehr übrig.

Mittels CO2-Vermeidung „schaffen“ wir vielleicht in 100 + xxx Jahren eine Temperaturverringerung um 0 … 0,5 Grad

In unseren Städten haben wir aktuell bereits Temperaturerhöhungen (Wärmeinseln) zwischen +4 … +8 Grad.

Bild 17 Wärmeinseleffekte deutscher Städte

Damit sind die Innenbereiche unserer Städte dem Klima der nicht so urbanen Umgebung bereits um 100 …. 1000 + xxx Jahre „voraus“. Eine Reduzierung des Weltklimas um 0 … 0,5 Grad bis zum Jahr 2100 mit Billionen von Euros Aufwand wird darin nicht im Entferntesten bemerkt. Zudem bestände die Abwägung, ob eine pauschale Temperaturreduzierung nicht mehr „Wintertote“ als reduzierte „Hitzewellen-Verstorbene“ generiert. Wesentlich billigere Maßnahmen vor Ort würde man mit Sicherheit bemerken.

Quellen

[1] EIKE 19.12.2019: Klimabericht 2019: Absolute Unkenntnis und/oder bewusste Falschinformation kennzeichnen unsere „Eliten“. Beispiel Hitzetote durch den „Klimawandel“ T2(2)

[2] RKI, Epidemiologisches Bulletin 19. Januar 2015 / Nr. 3

[3] RKI, Bericht zur Epidemiologie der Influenza in Deutschland Saison 2018/19

[4] KLiVO, Monitoringbericht 2019 zur Deutschen Anpassungsstrategie an den Klimawandel. Bericht der Interministeriellen Arbeitsgruppe Anpassungsstrategie der Bundesregierung

[5] WELT, 21.04.2916: Irritierende Konkurrenz zwischen Hitze- und Kältetod




(Nicht nur) Minister Altmaier wieder ohne jegliche Ahnung worüber er spricht

Ein herrliches Beispiel, was daraus folgt, „erlebte“ kürzlich (wieder) das Bundestags-Parlament.

Deutschland erzeugt 1000 Mal mehr Energie als die Messdaten anzeigen

Jeder kann sich mal versprechen. Bei den GRÜNEN ist das geradezu ein „Qualitäts-Standard“ in der Führungsmannschaft. Allerdings nicht, wenn man vom Blatt abliest und für das Thema auch noch zuständig ist.

In der Bundestagsdebatte am 30.10.2020 las Wirtschaftsminister Altmaier vom Blatt ab und berichtete freudig, dass Deutschland an dem Tag um 10 Uhr 71.760 Gigawatt Strom aus Erneuerbaren und 31.526 GW aus Konventionellen erzeugt hätte .
Anbei der Protokollauszug seiner Rede:

Bild 1 [1] Bundestagsprotokoll der Sitzung vom 30.10.2020 (Auszug)
Leider sind Altmaiers im Bundestag so freudig-ernst vorgetragenen „Erfolgszahlen“ 1.000 Mal mehr, als im Netz wirklich gemessen wurde.

Erschütternd ist, dass mit Sicherheit hochbezahlte „Fachpersonen“ in einem Ministerium (denn nur solche dürfen solche Reden vor-schreiben) solchen Unsinn ihrem Minister vorlegen. Erschütternd ist, dass es einem Wirtschafsminister bei seiner Vorbereitung zu dieser Fachveranstaltung nicht auffällt (oder ist es ein Zeichen, dass er sich gar nicht vorbereitet hat?). Doch sollte man meinen, ein solch hochgradiger Irrsinn an Falschaussage würde dann zumindest den Abgeordneten auffallen.

Leider weit gefehlt: Ein Abgeordneter (Politologe, war schon energiepolitischer Sprecher und hatte einen Job beim Vorstand der SMA Solar Technology AG, aktuell ordentliches Mitglied im Ausschuss für Wirtschaft und Energie) klatscht dazu noch Beifall.

Bild 2 Altmaier bei seiner Bundestagsrede am 30.10.2020. Bearbeitetes Bild aus dem NAEB-Strom-Newsletter 2020/11. (Link zum Redebeitrags-Auszug mit Untertiteln: NAEB)

Niemandem der (wenigen) anwesenden Abgeordneten schien das aufzufallen. In keinem der vielen und umfangreichen Redebeiträge hörte man eine Erwähnung dazu. Bis auf die AfD kamen lediglich „Beweihräucherungen“ der EEG-„Erfolge“ und Forderungen, mehr davon und es noch schneller weiter zu machen.

Rosinenpickerei verschleiert das wirkliche Desaster

Dass man im Parlament nicht mehr bemerkt, wenn ein Minister absolute Schwachsinnszahlen erzählt, ist das Eine, dass die Rede bewusst Probleme verschleiert und auch das niemand bemwerken will, das Andere.

Die Agoradaten am 30.10.2020, 10 h:
Verbrauch: 75,906 GW
– Erzeugung gesamt: 81,199 GW, davon
– Konventionelle Erzeugung: 37,771 GW
– GRÜNE Erzeugung: 43,428 GW

Dazu der Verlauf am 30.10.2020:

Bild 2a Leistungs/Angebotsverlauf im Deutschen Stromnetz am 30.10.2020. Quelle: Agora-Viewer

Was 58 % aus Erneuerbaren für einen Energiemangel bedeuten, zeigt die folgende Grafik mit Bedarf und Ökoenergie-Angebot:

Bild 3 Daten von Bild 2 ohne konventionelles Energieangebot am 30.10.2020. Quelle: Agora-Viewer

Und welche Rosinenpickerei Herr Altmaier in seinem Vortrag den Abgeordneten zumutete, zeigt das folgende Bild. Den gesamten Monat herrscht Ökoenergie-Mangel, zeitweise wird fast überhaupt keine geliefert. Wären die Konventionellen bereits abgeschaltet, gingen für Tage schon jetzt die Lichter aus. Obwohl es dafür noch nicht einmal im Ansatz eine Lösung (nur Hoffnungen) gibt, ging kein Redner der Abgeordnetenseite auf dieses Problem ein.

Bild 4 Leistungs-Angebotsverlauf im Deutschen Stromnetz im Oktober 2020. der 30.10., ca. 10 h gekennzeichnet. Quelle: Agora-Viewer

Redeschnipsel“

Anbei noch aus dem Protokoll [1] ein paar Redeauszüge:

Altmaier:

Bild 5, „Redeschnipsel“ aus dem Redeprotokoll

Altmaier:

Bild 6, „Redeschnipsel“ aus dem Redeprotokoll

Dr. Julia Verlinden (BÜNDNIS 90/DIE GRÜNEN):

Bild 7, „Redeschnipsel“ aus dem Redeprotokoll

Für Frau Dr. Verlinden steht bei WIKIPEDIA: Julia Maria Kornelia Verlinden ist eine deutsche Umweltwissenschaftlerin und Abgeordnete im Deutschen Bundestag.
Ihre Dissertation lautet: Energieeffizienzpolitik als Beitrag zum Klimaschutz Analyse der Umsetzung der EU-Gebäude-Richtlinie in Deutschland (Bereich Wohngebäude)
Der Fakultät Kulturwissenschaften der Leuphana Universität Lüneburg zur Erlangung des Grades Doktorin der Philosophie – Dr. phil.
Es stellt sich die Frage, wie (nicht nur) „WIKIPEDIA“ darauf kommt, dass diese Dissertation einen Anspruch als Umweltwissenschaftlerin begründet. Die Dissertation ist eine reine Fleißarbeit folgsamer Umsetzungsbeschreibungen der von verschiedenen Seiten angeordneten CO2-Reduzierungen. Irgendeine Umwelt-, gar Klima-Einflussabschätzung und/oder Wirkungs-/Nutzenabschätzung findet sich darin nicht.
Die gesamte Dissertation argumentiert rein juristisch: Was ist vorgegeben, wie kann es umgesetzt werden. Fragen nach einem Sinn werden nicht gestellt.
Wohl deshalb wurde auch im Fachbereich Kulturwissenschaft zur Doktorin der Philosophie promoviert.
Anmerkung des Autors: Beim Nachsehen von Promotionen unserer Politiker und auch sonstiger „Fachpersonen“ fällt auf, dass in solchen Fakultäten Dissertationen zu anspruchsvollen, aber fremden Fachgebieten möglich scheinen, wenn das Niveau für eine Durchführung im eigentlich zuständigen Fachbereich wohl nicht ausgereich hätte (rein persönliche Vermutung des Autors, die nicht belegt ist).

Ergänzend:
Johann Saathoff (SPD, Diplom-Verwaltungswirt (FH)) wusste die gesamte Litanei des schauerlichen Klimas zu berichten. Nur vergaß er zu erwähnen, dass es diese Probleme seit vielen Tausend Jahren gibt und wir aktuell vergleichsweise eher wenige davon haben. Aber vielen Abgeordneten hat es gefallen. Schließlich weiß jeder Abgeordnete der Altparteien, wie schlimm es um unser Klima steht, kann man ja täglich in der Zeitung lesen … :

Bild 8, „Redeschnipsel“ aus dem Redeprotokoll

Hinweis: Information und Anregung zu diesem Artikel kamen von: NAEB-Strom-Newsletter 2020/11

Fazit

Damit ist offensichtlich, dass sich die Koalitionsparteien endgültig auf das Niveau der GRÜNEN „erniedrigt“ haben, wie es die unfehlbare Merkel fordert und Herr Altmaier wohl schon vorbeugend gehorsam im Parlament „übt“. In einer künftigen Koalition wäre es auch mehr als hinderlich, über das was man verbietet Ahnung zu haben.

Und so reiht sich Herrn Altmaiers Aussage vorbildlich zu der führender, GRÜNER Politiker*innen:
– jeder Deutsche emittiert „pro Kopf 9 Gigatonnen CO2“,
– Stromnetze sind Speicher,
– Kobolde benötigt man für Akkus,
– das EEG produziert Gigabyte an Strom,

– der Atomunfall in Fukushima … haben gezeigt, dass man den Klimawandel nicht mehr leugnen kann,
– (Merkels Zitteranfälle) „Bei der Bundeskanzlerin wird deutlich, dass dieser Klimasommer gesundheitliche Auswirkungen hat“

Mama, fängt jedes Märchen mit: ‚Es war einmal…‘ an?“. „Nein, viele fangen an mit: ‚Wenn die Grünen gewählt werden…’“

Quelle: Die Grünen Witz

Quellen

[1] Plenarprotokoll 19/187 Deutscher Bundestag Stenografischer Bericht 187. Sitzung Berlin, Freitag, den 30. Oktober 2020




Luftmassen und Klima­erwärmung – eine Bestands­aufnahme

Teil 1 – Was zeichnet die Luftmassen Europas aus, wie erkennt man sie?

FREUER hat in seinem Beitrag „Luftmassen – was heißt das?“ (hier) schon die wesentlichen Grundlagen der Luftmassenbestimmung, deren Definition und Eigenschaften genannt; es ist sehr empfehlenswert, diesen vor den folgenden, vertiefenden Ausführungen zu lesen. Die Herkunft einer Luftmasse wird unter anderem mit Trajektorien bestimmt. Als Trajektorie (Luftbahn) bezeichnet man die Bahn, die ein einzeln betrachtetes Luftpartikel in einem gewissen Zeitraum durchläuft. Das bedeutet, dass die Trajektorie alle Orte verbindet, die ein Teilchen während seiner Bewegung einmal berührt hat. Durch die Berechnung von Trajektorien lässt sich u.a. die Herkunft und die weitere Verfrachtung von Luftverunreinigungen bestimmen. Schematisch sei das an zwei Grafiken für die typischen Wege warmer und kalter Luftmassen nach Mitteleuropa gezeigt:

Abbildungen 1a und 1b: In der oberen Abbildung (1a) erkennt man die Herkunftsgebiete der in Europa vorkommenden warmen Luftmassen sowie deren typische Wege und Umwandlungen im Herbst. In 1b (unten) Selbiges für kalte Luftmassen im Winter. Die Nomenklatur der Luftmassen wird an späterer Stelle in einer Tabelle erläutert. Es können nur typische Fälle gezeigt werden; Einzelfälle verlaufen mitunter anders. So kann mP auch aus Nordosten über die Ostsee nach Deutschland gelangen, und cS kann bei starkem Föhn auch am Alpennordrand oder bei sehr starkem Absinken in einem Hochdruckgebiet mitunter sogar über Norddeutschland entstehen. Bildquelle beider Abbildungen (1)

Wesentliche Luftmasseneigenschaften sind Temperatur, Wasserdampfgehalt, Verunreinigungen (Staub, Pollen, Salzkristalle, Schwefel- und Stickoxide), Durchsichtigkeit, Wolkenbild, Intensität des Himmelsblaus, Niederschlagsverhalten und vertikale Schichtung. In der Bioklimatologie ist die Schwüle, eine Kombination aus hoher Lufttemperatur und hohem Wasserdampfgehalt, ein gängiger Begriff:

Abbildung 2: Als ein Grenzwert, ab dem Schwüle beginnt, wird ein Taupunkt von 16 °C angenommen, was unter Normalbedingungen einer absoluten Luftfeuchtigkeit von 13,5 g Wasserdampf pro Kubikmeter Luft entspricht. Bedeutsam ist die Schwüle in unseren Breiten etwa von April bis Oktober. Bildquelle hr-Fernsehen.de, Sendung vom 20.07.2020

Zur Klassifikation der Luftmassen nach ihrer Temperatur und ihrer pseudopotentiellen Temperatur wurden vom Meteorologischen Institut der FU Berlin Tabellen entwickelt; hier sei das für das 850 hPa-Niveau im Winterhalbjahr gezeigt (entspricht in etwa 1500 Metern Höhe):

Abbildung 3: Tabelle zur Luftmassenbestimmung im 850-hPa-Niveau (Radiosonde) für das Winterhalbjahr. Schwarz Lufttemperatur in dieser Höhe, darunter blau die pseudopotentielle Temperatur. Fett markiert sind die Mittelwerte des Intervalls für die jeweilige Luftmasse. Je südlicher die Herkunft der Luftmasse, desto höher sind die Werte. Bildquelle (1)

Auch der Staubgehalt variiert je nach Luftmasse stark:

Abbildung 4: Staubgehalte einiger Luftmassen in Mikrogramm je Kubikmeter Luft. 1 Mikrogramm (μg) = 1 Millionstel Gramm = 10−6 g. Nach PELZ, Bildquelle (2)

Seit den 1980er Jahren nahm die Staubbelastung der Luft stark ab, was mit einer zunehmenden Sichtweite einherging:

Abbildungen 5a und 5b: Nach dem Höhepunkt der Staubbelastung um 1970 nahm diese in Berlin-Dahlem stark ab; Jahresmittel in Mikrogramm je m³ Luft (oben, 5a). Nach 1970 stieg am selben Ort die Sichtweite in Km (Jahresmittel) stark an; besonders ab dem Ende der 1980er Jahre (unten, 5b). Leider enden diese Beobachtungen in den 1990er Jahren; doch dürften seitdem der Staubgehalt noch weiter ab- und die Sichtweite weiter zugenommen haben. Bildquellen (3)

Das Ganze erinnert an den „Klimasprung“ Ende der 1980er/Anfang der 1990er Jahre mit mehr und intensiverer Besonnung; worauf im Teil 2 noch näher eingegangen wird. Luftmassen können labil oder stabil geschichtet sein. Ersteres begünstigt die Durchmischung der Luft (Thermik) und kann bei genügend Wasserdampfgehalt zu Schauern und Gewittern führen; Letzteres geht oft mit einer Temperaturzunahme nach oben und Flaute am Boden einher; was sich nicht selten an Dunst, Nebel und Hochnebel erkennen lässt. Im Winter kann diese stabile Schichtung in Bodennähe eine ganz andere Luftmasse vortäuschen, als reell vorhanden; das ist bei der Luftmassenbestimmung unbedingt zu beachten:

Abbildung 6: Am Spätwintermorgen des 27. Februars 1948 herrschten in Thüringen enorme, höhenbedingte Temperaturunterschiede durch Inversion. Mit „+“ sind alle Gebiete über minus 6, mit „–„ solche unter minus 12°C gekennzeichnet. Während auf dem Rennsteig (Oberhof) nur etwa minus 4°C gemessen wurden, waren es in der Senke bei Arnstadt unter minus 20°C – das ist eine Temperaturdifferenz von mehr als 16 Kelvin auf kaum mehr als 600 Meter Höhendifferenz; räumlich sind beide Orte kaum 20 Km Luftlinie voneinander entfernt. Das Temperaturminimum von unter minus 20°C würde der Luftmasse cA entsprechen – aber es entstand nur durch nächtliche Ausstrahlung bei klarem Himmel in einer kontinentalen Subpolarluft und wurde bald von der Vorfrühlingssonne weggeheizt – nachmittags herrschte in Arnstadt leichtes Tauwetter. Bildquelle (4), ergänzt.

Dieses Einzelbeispiel verdeutlicht die Schwierigkeit, jeder Luftmasse in der Grundschicht, in welcher wir ja nun mal leben und auch die DWD-Temperaturen für die „normalen“ Wetterberichte gemessen werden, einen Temperaturbereich zuzuweisen. Denn Sonnenscheindauer, Exposition, Hanglage, Oberflächenbeschaffenheit, Bewuchs oder Bebauung beeinflussen die bodennahen Temperaturverhältnisse stark. Hinzu kommen die Jahreszeiten; manche Luftmassen zeigen im Winter ein gänzlich anderes Temperaturverhalten, als im Sommer. Außerdem verfälschen Stau und Föhn die Luftmasseneigenschaften oft stark; Näheres unter (6) und (7).

Abbildungen 7a und b: Temperaturintervalle der Luftassen in den beiden Hauptjahreszeiten Winter (7a, oben) und Sommer (7b, unten) nach den Erfahrungen des Autors. Die großen Variationen resultieren im Winter vor allem aus den unterschiedlichen nächtlichen Bewölkungsverhältnissen (je klarer, desto kälter!) und den unterschiedlichen Wegen der Luftmassen nach Mitteleuropa; im Sommer kommt noch die Sonnenscheindauer hinzu (je sonniger, desto wärmer!). Auf die noch viel komplizierteren Übergangsjahreszeiten kann hier nicht eingegangen werden.

So kann die Luftmasse mP an einem windigen, trüben, regnerischen Sommertag nur Temperaturmaxima von 10 bis kaum 15°C (Flachland) erreichen; während bei voller Sonne und schwachem Wind angenehme 20 bis 23°C, ganz selten sogar fast 25°C, möglich sind. Und in klaren, windstillen Winternächten kann sich cP über einer Schneedecke auf unter minus 20°C abkühlen, während in trüben, windigen Nächten nur Werte um oder etwas unter minus 5°C möglich sind. Die folgende Tabelle zeigt weitere, wesentliche Luftmassen-Merkmale:

Abschließend sollen noch einige Fotos zur visuellen Veranschaulichung der Luftmasseneigenschaften gezeigt werden. Besonders alle Gläubigen der CO2-Klimaerwärmung sollten diese genau betrachten. Denn sie zeigen die WAHREN Beeinflusser unseres Klimas – Wolken und feste Luftbeimengungen.

Arktische Meeresluft (mA) mit kräftiger Quellbewölkung, guter Fernsicht und Graupelschauer, der als Fallstreifen sichtbar wird. Foto: Stefan Kämpfe

Arktikluft (xA) verursacht mitunter noch spät im Frühjahr kräftige Schneeschauer. Foto: Stefan Kämpfe

Kontinentale Subpolarluft (cP) unter Hochdruckeinfluss. Nach gefrierendem Nebel mäßiges Himmelsblau und mäßige Fernsicht. Foto: Stefan Kämpfe

Maritime Subpolarluft (mP) bei leichtem Hochdruckeinfluss. Foto: Stefan Kämpfe

Subpolarluft (xP) unter Hochdruckeinfluss. Meist gute Fernsicht bei ganz schwachem Dunst und mäßiger Quellbewölkung. Foto: Stefan Kämpfe

Kontinental gealterte Subpolarluft (cPs) unter Hochdruckeinfluss. In dieser im Hochsommer extrem trockenen Luftmasse entwickeln sich bei kräftigem Himmelsblau trotz guter Thermik oft nur spärliche Quellwolken, meist sehr gute Fernsicht. Foto: Stefan Kämpfe

Gealterte Subpolarluft (xPs) unter Hochdruckeinfluss. Diese oft aus mP über Mitteleuropa entstehende Luftmasse ist häufig etwas dunstig und weist fast stets Quellbewölkung auf, hier Cumulus fractus. Nicht selten wirkt die Lichtstimmung etwas kraftlos und bleiern; Fernaufnahmen gelingen nur selten; doch kann xPs mitunter auch sehr klar und mit intensivem Himmelsblau auftreten. Foto: Stefan Kämpfe

Erwärmte maritime Subpolarluft (mPs) unter Zwischenhocheinfluss. Mehr oder weniger kräftige Schichthaufenwolken bei oft guter Fernsicht und kräftigem Himmelsblau sind typisch. Da die Erwärmung dieser Luftmasse von unten erfolgt, weist sie in der Regel sehr starke vertikale Temperaturgradienten auf, was zu jeder Jahreszeit zu häufigen Schauern und Gewittern in dieser Luftmasse führt. Foto: Stefan Kämpfe

Kontinental gealterte Warmluft (cSp) im Herbst unter Hochdruckeinfluss. Morgendliche, meist flache Dunst- und Nebelfelder verschwinden auch in der kälteren Jahreszeit abseits der Flusstäler stets tagsüber; dann kann in dieser trockenen, fast immer sonnigen Luftmasse eine mitunter gute Fernsicht herrschen. Foto: Stefan Kämpfe

Warmluft (xSp) in einem Warmsektor mit Lenticularis-Wolken bei leichtem Föhn. Foto: Stefan Kämpfe

Kontinentale Subtropikluft (cS) unter Hochdruckeinfluss bei schwachem Föhn. Relativ gute Fernsicht und mäßiges Himmelsblau; diese Luftmasse kann öfters völlig wolkenlos sein. Foto: Stefan Kämpfe

Subtropikluft (xS) in einem Warmsektor. Mehr oder weniger dichte Cirrus-Felder, oft durch den Luftverkehr verstärkt, dazu Altocumuli bei deutlichem Ferndunst. Foto: Stefan Kämpfe

Subtropische Meeresluft (mS) unter schwachem Hochdruckeinfluss. Die meist tiefen Schicht- und Schichthaufenwolken lockern selten einmal auf; aber gerade im Winterhalbjahr herrscht eine gute Fernsicht. Foto: Stefan Kämpfe

Quellennachweis und weiterführende Literatur (nicht im Internet verfügbar)

  1. Geb, M.: Klimatologische Grundlagen der Luftmassenbestimmung in Mitteleuropa. Beilage SO 7/81 zur Berliner Wetterkarte des Instituts für Meteorologie der Freien Universität Berlin, 1981
  2. Pelz, J.: Luftmassen und Luftbeimengungen in Berlin-Dahlem. Beilage SO 7/94 zur Berliner Wetterkarte des Instituts für Meteorologie der Freien Universität Berlin, 1994
  3. Pelz, J.: Das Zeitverhalten des Schwebstaubes und der Niederschlagsbeimengungen in Berlin-Dahlem. Beilage SO 4/93 zur Berliner Wetterkarte des Instituts für Meteorologie der Freien Universität Berlin, 1993
  4. Koch, H. G.: Wetterheimatkunde von Thüringen. Jena 1953, Gustav-Fischer-Verlag
  5. Kämpfe, S.: Die Horizontalsichtweite – Anmerkungen zu einer interessanten meteorologischen Größe. Beilage Nr. 53/1999 zur Wetterkarte des Deutschen Wetterdienstes (Amtsblatt)
  6. Kämpfe, S.: Stau und Föhn in Thüringen. Beilage Nr. 25/1998 zur Wetterkarte des Deutschen Wetterdienstes (Amtsblatt)
  7. Kämpfe, S.: Nebel in Thüringen. Beilage Nr. 179/1997 zur Wetterkarte des Deutschen Wetterdienstes (Amtsblatt)



Wirkte Kohlendioxid 47 Jahre lang abkühlend?

Inzwischen existiert der selbst ernannten Weltklimarat und das PIK Potsdam, die praktisch per Satzung festgeschrieben haben, dass CO2 der alleinige Hauptverursacher einer fortdauernden menschengemachten Erwärmung wäre. Und dass die Zunahme ausschließlich vom Menschen erzeugt ist. Den Kohlendioxidanstieg der Atmosphäre bestreitet niemand. Die Messung am Mauna Loa, nach der eigentlich alle anderen CO2-Messstationen der Welt geeicht sind, zeigt die erste Abbildung.

Abb. 1: Seit 1958, dem Messbeginn nimmt der CO2-Gehalt in der Atmosphäre zu. Derzeit um etwa 2 ppm pro Jahr. Derzeitiger Stand 2020: 417 ppm

Zu dieser Gruppe an Klimawissenschaftlern, die sich selbst Klimafolgenwissenschaftler nennen, gehört auch, dass sie die CO2-Klimasensitiviät von 1,5°C bis 4,5°C aufgrund von Computersimulationen und Szenarien taxieren.

Diese Gruppe vor allem bei uns PIK Potsdam tritt radikal und Angst verbreitend auf und beherrscht die Medien. Radikal, weil sie wie eine Glaubensgruppe keine andere Meinung dulden. Inzwischen sind die Medien selbst zu deren Angsttreibern und Handlagern avanciert. Selbst Wissenschaftler, die eine geringere Sensitivität angeben, werden als Klimaleugner verunglimpft.

Ihr größter Trumpf ist dabei der Anstieg der Temperaturen, also die Wiedererwärmung nach der kleine Eiszeit, die auch in Mitteleuropa auf dem Boden des einstigen Kaiserreiches stattgefunden hat. Die DWD-Temperaturreihe seit 1881 sieht so aus

Abb. 2: Seit 1881 sind die Temperaturen im damaligen Kaiserreich, gemessen bei den damaligen Wetterstationen im Vergleich zur heutigen BRD bei den nun ganz anderen Stationen, deutlich gestiegen.

Dass somit ein großer Anteil des Anstieges vom Menschen erzeugten Wärmeinseleffekt bei den Stationen verursacht wird, soll hier zunächst außer Acht gelassen werden, genauso die Frage nach der Höhe des WI-Anteils. Wir tun so, als wären die Temperaturen vergleichbar und die Erhöhung würde ausschließlich durch Menschen verursachtes CO2 erzeugt. Dann wäre die Erwärmung beachtlich und hätte bereits 2 Grad seit 1881 überschritten.

Betrachten wir nun einzelne Zeitabschnitte bei den DWD-Deutschlandtemperaturen.

  1. Von 1881 bis 1940: Gleichmäßiger Anstieg der Jahrestemperaturen:

Abb. 3: Von 1881 bis 1940 zeigen die Temperaturen einen gleichmäßigen Anstieg, wobei 1940 ein ausgesprochenes Kaltjahr war. Ein Zeichen für einen Temperaturwechsel

  1. 1941 bis 1987: gleichmäßige Abkühlung in Deutschland.

Abb. 4: Im Zeitraum 1941 bis 1987, also 47 Jahre erlebte Mitteleuropa eine Abkühlungsphase. Wo bleibt die CO<sub>2</sub>– Treibhauswirkung?

Abb. 4: Im Zeitraum 1941 bis 1987, also 47 Jahre erlebte Mitteleuropa eine Abkühlungsphase. Wo bleibt die CO2– Treibhauswirkung?

  1. Seit 1988: Fortsetzung der Erwärmung

Abb. 5: In der dritten Phase der Temperaturbetrachtung setzt sich die bei Abschnitt 1 nach der kleinen Eiszeit begonnene Erwärmung fort.

Zusammenfassung:

Behauptet wird vom Mainstream, eine gut bezahlte Gruppe an Klimafolgenwissenschaftlern samt Medien, dass die Erwärmung seit der Industrialisierung ausschließlich durch den ebenfalls vom Menschen erzeugten CO2-Anstieg verursacht würde.

Im Zeitraum 1940 bis 1987, also 47 Jahre lang kühlte Mitteleuropa ab. Ein Zeitraum, in welchem diverse Klimawissenschaftler eine neue kleine Eiszeit vorhersagten.

Dieser 47-jährige Abkühlungszeitraum zeigt bereits, dass CO2 nichts mit der Temperaturentwicklung zu tun haben kann.

Unsere Frage war: Wirkte Kohlendioxid 47 Jahre lang abkühlend?

Antwort: Nein, CO2 hat entweder gar keine oder eine nur sehr untergeordnete Wirkung auf die Temperaturen.

Eine seriöse Klimawissenschaft sucht wertneutral nach den tatsächlichen Ursachen der ständigen Klimaschwankungen. Wann die nächste Abkühlungsphase oder der nächste Temperaturstillstand bevorsteht wissen wir nicht. Spannend sind allerdings die Vorhersagen.

Zum Wärmeinseleffekt: In allen drei Phasen der Betrachtung ist dieser bei den Wetterstationen gestiegen. Dadurch ist die Trendlinie in Phase 1 etwas weniger steil, in Phase 2 etwas stärker fallend und in Phase 3 wieder weniger steil ausgefallen als …

ja, als wenn sich Deutschland überhaupt nicht seit 1881 verändert hätte.

Fazit: Will man den menschengemachten Anteil an der Erwärmung bekämpfen, dann müsste man die weitere Bebauung, Technisierung und Trockenlegung der Landschaft einstellen. Eine CO2-Einsparung bewirkt nichts, das zeigt die Graphik 4 im Vergleich zum CO2-Anstieg




Gibt es einen Treibhaus­effekt?

1. Einleitung

Der Begriff Treibhauseffekt verleitet zur Annahme, dass man diesen Effekt mit dem Modell eines bestrahlten Gewächshauses, mit und ohne CO2, demonstrieren kann. Bereits 1909 hatte Robert Wood jedoch herausgefunden, dass sich ein Gewächshaus nur deshalb erwärmt, weil es das Aufsteigen und Entweichen erwärmter Luft verhindert. In der Folgezeit wurde Wood‘s Experiment mehrfach wiederholt und seine These bestätigt (Nasif S. Nahle, 2011 [1]; Jan-Eric Solheim, 2017 [2]).

Einen besonders hohen Temperatur-Anstieg konnte Hoimar von Ditfurth 1978 [3] bei einem spektakulären Selbst-Versuch erzielen. Eine Überprüfung des Ditfurth-Experimentes ergab, dass der beobachtete Temperatur-Anstieg einem Schichtungseffekt geschuldet ist, der ähnlich wie eine Mehrfachverglasung von Fenstern eine sehr gute Wärmeisolierung verursacht (M. Schnell, 2020) [4]). Eine solche Schichtung tritt auf, wenn reines CO2 von unten in eine Vorrichtung eingebracht wird. Ist das CO2, wie in der Atmosphäre, gleichmäßig mit der Innenluft vermischt, gibt es bei einem Treibhaus-Modell nur eine minimale oder gar keine Luft-Erwärmung. Mit diesen Treibhaus-Experimenten kann der Treibhauseffekt grundsätzlich nicht nachgewiesen werden, was einen neuen Denkansatz erforderlich macht.

Es ist unbestritten, dass CO2 ein infrarot (IR) aktives Gas ist und Wärmestrahlung absorbieren und auch wieder emittieren kann, was durch eine Vielzahl von IR-Spektren nachgewiesen ist. Diese Daten sind in der HITRAN-Datenbank [5] auch für die Öffentlichkeit zugänglich. Strittig ist, ob und in welchem Umfang die Temperatur der Erde durch CO2 beeinflusst wird (H. Harde, 2014 [6]; H. Harde, 2017 [7]). Der erste Teil dieser Fragen, ob auch kältere Treibhausgase zu einem Temperatur-Anstieg eines wärmeren, beheizten Körpers beitragen können, soll durch eine neue experimentelle Untersuchung geklärt werden.

Zunächst muss man sich bewusst machen, dass Energie in ganz verschiedenen Formen auftreten kann und in der Atmosphäre durch eine Reihe unterschiedlicher Mechanismen transportiert wird. Dazu gehören vertikale und horizontale Luftströmungen, Verdampfung, Kondensation und Gefrieren von Wasser, Wärmeleitung der Luft aber auch Wärmestrahlung (IR-Strahlung). Der Treibhauseffekt betrifft nur den letzten Fall, den Austausch von Wärmestrahlung der Erdoberfläche mit verschiedenen Schichten der Atmosphäre und den dort vorhandenen IR-aktiven Bestandteilen. Diese IR-aktiven Komponenten der Atmosphäre können Treibhausgase, Aerosole oder Wolken sein.

2. Versuchsaufbau

Man benötigt also einen Versuchsaufbau, der einen Strahlungstransport von A nach B realisiert, was in dem vorgestellten Experiment durch eine 30 °C warme und eine -1,8 °C kalte Fläche ermöglicht wurde, die einen Abstand von 1,11 m voneinander besitzen. Im Gegensatz zu den o.g. Treibhaus-Experimenten wird hier keine Bestrahlung mit einer Lichtquelle vom sichtbaren bis zum mittleren infraroten Spektralbereich verwendet, sondern Wärmestrahlung untersucht, die auch bei der Erde und der Atmosphäre in dieser Form auftritt. Wärmeströme, die nicht zum Strahlungsaustausch gehören, müssen durch entsprechende Maßnahmen verhindert oder minimiert werden.

Abb. 1 zeigt den schematischen Aufbau der Apparatur und die wichtigsten Bauteile. Ihre senkrechte Aufstellung, mit der warmen Fläche in oberster Position, erzeugt eine stabile Luftschichtung, die per se eine vertikale Luftbewegung (Wärmestrom durch Konvektion) verhindert (kalte Luft steigt nicht auf).
Ein möglicher Energietransport mittels Wasserdampf (latente Wärme) kann ausgeschlossen werden, da entweder getrocknete Luft oder Argon als Gasfüllung eingesetzt wird (siehe Anhang).

Wärmeleitung, sowohl durch die Gefäßwand oder längs der Gasphase, lässt sich nicht verhindern, wohl aber minimieren. So befindet sich die warme Fläche (Erd-Platte) in einem halbkugelförmigen Raum (Dom) (Abb. 1), der von außen mit einem Vinylschlauch umwickelt ist. Durch diesen Schlauch fließt Wasser mit einer konstanten Temperatur von 29,6 °C. Wegen der geringen Temperatur-Differenz von 0,4 K zwischen Dom und Erd-Platte gibt es in diesem Bereich auch nur eine geringe Wärmeleitung.

Die konstante Dom-Temperatur ist essentiell für diese Untersuchung und wird durch eine konstante elektrische Heizung des Wassers für die Dom-Heizung erreicht.

Die hohe Temperatur des Domes garantiert eine gute thermische Isolierung der Erd-Platte, aber ist auch gleichzeitig eine Orientierungshilfe für die Auswertung der Versuche. Der Dom hat eine polierte Edelstahloberfläche, wodurch sie weitgehend unempfindlich für Wärmestrahlung ist. Eine mögliche Erwärmung der schwarzen Erd-Platte nach Zugabe von Treibhausgasen lässt sich dann visuell am zunehmenden Abstand zur Dom-Temperatur erkennen (Abb. 2 und folgende).

Die Erd-Platte hat von vornherein die höchste Temperatur im Versuchsaufbau (0,4 K höher als der Dom und wesentlich höher als alle anderen Teile der Apparatur und auch höher als die Probengase). Dadurch ergibt sich ein kleiner, unvermeidbarer Wärmestrom von der Erd-Platte hauptsächlich zum Dom aber auch zur Gefäßwand und zur kalten unteren Platte. Erwärmt sich die Erd-Platte, nimmt dieser Wärmeverlust noch zu. Ohne diese Störung wäre ein noch höherer Temperatur-Anstieg möglich, als er hier beobachtet wurde. Der Wärmestrom zum Dom lässt sich verringern, indem man die Dom-Temperatur während eines Versuches parallel zur Erd-Temperatur erhöht. Das soll bei der vorliegenden Untersuchung jedoch nicht geschehen, um jeden Verdacht einer Manipulation kategorisch auszuschließen.

Die Wärmeleitung der Gase, zwischen warmer und kalter Platte, ist von Natur aus sehr gering, da Gase schlechte Wärmeleiter sind. Trotzdem könnte hier ein Einfluss der unterschiedlichen Wärmeleitfähigkeiten von Luft und den Probengasen vermutet werden. Das ist ein ernstzunehmendes Argument, das durch Kontroll-Experimente mit Edelgasen entkräftet werden kann.

Die Methodik der Versuche orientiert sich an der erfolgreichen Untersuchung zum „Ditfurth-Experiment“, das sich durch eine hohe Transparenz auszeichnet (M. Schnell, 2020 [4]). Es geht nicht um eine einzige Temperatur-Angabe, nach dem Motto „Friss oder Stirb“, sondern um eine lange Beobachtungsphase mit mehr als siebzig Temperatur-Daten, die in den Diagrammen auf einer Zeitachse von links nach rechts verfolgt werden können.

Die ersten 90 Minuten, vor Zugabe eines Probegases, sollen zeigen, dass sich die Erd-Platte im thermischen Gleichgewicht befindet. Die elektrische Heizung der Erd-Platte entspricht dem Wärmeverlust durch Wärmestrahlung und Wärmeleitung (Input = Output). Die Erd-Platte hat dabei eine konstante Temperatur von 30,0 °C. Die Anzeige-Genauigkeit beträgt ±0,13 K, d.h. um diesen Wert verändert sich die digitalisierte Temperaturanzeige der Erd-Platte bei Erwärmung. Eine Temperatur-Änderung von ±0,13 K wird deshalb als LOD (limit of detection) gewertet. Der Treibhauseffekt gilt als nachgewiesen, wenn bei einem Experiment ein deutlicher Temperatur-Anstieg ∆TpE >> LOD registriert wird, also ein Mehrfaches des LOD-Wertes.

Nach Ablauf der 90-minütigen Messungen mit der luftbefüllten Apparatur werden die Probengase mit einer Geschwindigkeit von 1 l/min von unten in die Apparatur eingeleitet. Danach wird für kurze Zeit mit einer Aquarien-Pumpe die Innenluft aus dem oberen Gasrohr abgesaugt und in das untere Gasrohr (in den Totraum unterhalb der kalten Platte) wieder eingeleitet (Abb. 1). Durch dieses Umpumpen werden die Probengase aus dem Totraum verdrängt und eindeutig zwischen warmer und kalter Platte positioniert. Die Zugabe der Probengase und das Umpumpen sind die einzigen äußeren Eingriffe während eines Experimentes. Von nun an wird nur noch beobachtet, wie sich die Messwerte verändern.

3. Wirkung der Probengase bei konstanter Heizung der Erd-Platte

3.1 Das CO2-Experiment

Eine Messung mit CO2 als Probengas bei einer Konzentration von 15,4 Vol.-% in trockener Luft ist in Abb. 2a wiedergegeben.
Zum Vergleich: bei dieser Konzentration und einem Abstand der Platten von 1,1 m entspricht dies etwa der Absorption und Emission, wie dies von 100 ppm CO2 (ohne andere Treibhausgase) in der Atmosphäre zu erwarten wäre.

Unmittelbar nach dem Einleiten und Umpumpen, befindet sich das CO2 im Bereich des Tp4-Sensors bei rund 12 °C, also 18 K kälter als die Erd-Platte (siehe Abb. 2b). Trotzdem reagiert die weit entfernte Erd-Platte nur wenige Minuten nach Beginn der CO2-Einleitung mit einem deutlichen Temperatur-Anstieg. Diese CO2-Schicht dehnt sich langsam durch Diffusion in der gesamten Apparatur aus, wobei immer wärmere Regionen erreicht werden. Die Erd-Platte reagiert hierauf mit einem kontinuierlichen Temperatur-Anstieg, der bei 290 Minuten ein Maximum von ∆TpE = 0,9 K erreicht. Auch ein weiteres 10-minütiges finales Umpumpen verändert diesen Wert nicht mehr.

An dieser Stelle soll erinnert werden, dass bei der Überprüfung des Ditfurth-Experimentes ein finales Umpumpen ein „KO“-Kriterium war. Der ursprüngliche Temperatur-Anstieg verschwand beim Umpumpen, dem Homogenisieren der Gasmischung, und das Ditfurth-Experiment konnte als fake entlarvt werden (M. Schnell, 2020 [4]).

Offensichtlich ist das neue experimentelle Konzept nicht mit den vielen „Treibhaus-Experimenten“ in der Art von Ditfurth & Co. vergleichbar. Auch bei den Temperaturen des Gasraumes zwischen warmer und kalter Platte gibt es gravierende Unterschiede. Über die gesamte Messzeit zeigen die Sensoren eine konstante Temperatur und einen stabilen Gradienten von 27,3 °C bei Tp1 bis 12,6 °C bei Tp4. Die Zugabe von CO2 führt zu keiner signifikanten Temperatur-Änderung an diesen Messpunkten (Abb. 2b).

Die konstanten Temperaturen der Gasphase sollten aber nicht überbewertet werden, da die Dom-Temperatur absichtlich konstant gehalten wurde, um Manipulationsvorwürfe zu vermeiden.

Würde man die Dom-Temperatur im gleichen Abstand zur Temperatur der Erd-Platte erhöhen, würden auch die Temperaturen der benachbarten Luftschichten leicht ansteigen. Das ist allerdings eine andere Geschichte und Gegenstand der laufenden experimentellen Untersuchung zur Klimasensitivität von CO2.

Reaktion der Thermoelemente

Gemäß dem Seebeck-Effekt entsteht in einem Stromkreis aus zwei verschiedenen elektrischen Leitern eine elektrische Spannung, die u.a. von der Temperaturdifferenz zwischen den Kontaktstellen abhängig ist. Auf die kalte Platte wurden fünf Thermoelemente geklebt, die auf ihrer Unterseite von der Temperatur der kalten Platte und auf ihrer Oberseite von den Wärmeströmungen in der Röhre beeinflusst werden. Diese Elemente sind in Reihe geschaltet, und ihre Klemmspannung wird von einem empfindlichen Voltmeter registriert.

Beim CO2-Einleiten entsteht in den ersten Minuten ein „CO2-See“ oberhalb der kalten Platte, der wegen eines Schichtungs-Effektes und einer geringeren Wärmeleitfähigkeit von CO2 zu einem Wärmestau führt (M. Schnell, 2020 [4]). Das hat zur Folge, dass der kalten Platte weniger Wärme von der wärmeren Röhre (im Bereich von Tp4) zufließt. Die Oberseite der Thermoelemente kühlt sich ab und die ursprüngliche Spannung von Th = 74,6 mV geht um ∆Th = -16,8 mV zurück. Beim Umpumpen wird die CO2-Schicht etwas angehoben und wärmere Luft umströmt die Thermoelemente, wodurch die Spannung kurzzeitig bis auf Th = 76 mV wieder ansteigt. Nach Beendigung des Pumpens bildet sich erneut ein leichter Wärmestau aus, und die Spannung sinkt auf Th = 70,7 mV. Im Verlauf der Diffusion kommt es dann zu einer gleichmäßigen Vermischung von CO2 und der Innenluft, wodurch der Schichtungs-Effekt beseitigt wird und sich die Spannung der Thermoelemente Th langsam dem Ausgangswert von Th = 74,6 mV annähert (Abb. 2c). Die finale Differenz von ∆Th = -1,6 mV ist der geringeren Wärmeleitung einer 15%igen CO2-Luft-Mischung geschuldet.

Die Reaktion der Thermoelemente zeigt, dass man die Einleitung schwerer Gase und ihre anschließende Diffusion sehr gut verfolgen und somit auch dokumentieren kann. Diese Eigenschaft wird sich später beim Argon-Versuch bezahlt machen.

3.2 Das Propan-Experiment

Propan ist ein wesentlich stärkeres Treibhausgas als CO2. Man erreicht mit nur 13 % der CO2-Menge (4,5 g Propan vs. 35,3 g CO2 bzw. 2 Vol.-% Propan vs. 15,4 Vol.-% CO2) einen ungefähr gleichen Temperatur-Anstieg von ∆TpE = 0,8 K wie beim CO2 (Abb. 3a).

Der Versuch wurde in Argon durchgeführt, um den Einfluss der Wärmeleitung auf die Reaktion der Thermoelemente zu untersuchen. Argon hat eine kleinere Wärmeleitfähigkeit als Luft (0,018 vs. 0,026 W/(m∙K)) aber eine etwas größere als Propan (0,015 W/(m∙K)). Demzufolge verursacht die Einleitung von Propan auch nur einen geringen Rückgang der Spannung der Thermoelemente ∆Th = 4,6 mV, der schon beim Umpumpen wieder den Ausgangswert erreicht, was zu beweisen war.

Während der Diffusion des Propans steigt die Spannung der Thermoelemente Th jedoch weiter an und ist am Ende sogar 4,3 mV höher als der Anfangswert, obwohl mit Propan die Wärmeleitung zwischen Wand und kalter Platte weiter leicht reduziert wird und eher eine niedrigere Spannung zu erwarten wäre. Dieser Anstieg von Th ist nur durch die Emission von IR-Strahlung durch Propan in Richtung der kalten Platte zu erklären, da ein Treibhausgas nicht nur Wärmestrahlung absorbiert, sondern in gleichem Maße aufgrund seiner Eigentemperatur auch wieder emittieren kann. Gleichzeitig kühlt sich dabei das Gasgemisch leicht ab (siehe Abb. 3b).

Um einem Missverständnis vorzubeugen, diese zusätzliche Ausstrahlung und die Abkühlung der Gasphase ist ein Phänomen der Labor-Experimente. Dies wird durch die Konstruktion der Apparatur verursacht und soll nur als ein weiterer Beweis des Treibhauseffektes verstanden werden. Dieser Effekt wird durch die geringe Größe der Erd-Platte im Vergleich zum Dom und Röhren-Durchmesser verursacht. Die anderen (verspiegelten) Flächen senden nur eine geringe Wärmestrahlung aus, die in diesem Fall vom Propan übertroffen wird.

In der Atmosphäre gibt es solche Energieströme nicht. Die Temperaturen der Troposphäre werden hauptsächlich durch den Druckgradienten der Atmosphäre (adiabatische Temperaturänderung von Luftpaketen) und Wetterphänomenen bestimmt. Ob und in welchem Umfang Treibhausgase einen Einfluss auf die Temperatur der Troposphäre haben, ist umstritten und kann nicht durch einfache Labor-Experimente entschieden werden.

3.3 Das Freon-Experiment

Das Freon-Experiment (Abb. 4a u. 4b) zeigt sowohl bei den Thermoelementen als auch bei den Temperaturen ähnliche Ergebnisse wie das Propan-Experiment. Bemerkenswert ist die sehr kleine Menge an Freon 134a, die mit 0,13 Vol.-% bereits einen Temperatur-Anstieg von knapp 1,2 K verursacht. Die Wärmeleitung von Gasmischungen geringer Konzentration errechnet sich in guter Näherung über den Molenbruch. Eine relevante Veränderung der mechanischen Wärmeflüsse ist angesichts der kleinen Freon-Konzentration bei vollständiger Durchmischung nicht zu erwarten.

3.4 Das Argon-Kontrollexperiment

Die Zugabe von Argon als Probengas in die mit trockener Luft befüllte Apparatur hat keinen messbaren Einfluss auf die Temperaturen der Erd-Platte und der Luft. Dass überhaupt Argon eingeleitet wurde, wird am vorübergehenden Rückgang der Spannung der Thermoelemente ∆Th = -11,5 mV erkennbar (Abb. 5a). Beim Einleiten bildet sich eine Argon-Schicht, die die Wärmeleitung im Bereich der Thermoelemente durch einen Schichtungseffekt erheblich verringert. Umpumpen und Diffusion beseitigt die Schichtung, und die Spannung der Thermoelemente Th erreicht wieder annähernd den Ausgangswert (siehe Abb. 5b) wie bereits beim CO2 beobachtet (Abb. 2c). Damit wird nachgewiesen, dass der Spannungsrückgang ∆Th durch einen Schichtungs-Effekt beim Einleiten schwerer Gase verursacht wird.

3.5 Das Helium-Kontrollexperiment

Da Helium leichter als Luft ist, wird es von oben unterhalb der Erd-Platte eingeleitet. Ein Umpumpen ist hier nicht erforderlich, da es bei der Erd-Platte keinen Totraum gibt.
Helium hat eine wesentlich höhere Wärmeleitfähigkeit als Luft (0,157 vs. 0,026 W/(m∙K)), trotzdem hat die Temperatur der Erd-Platte auch nach 350 Minuten immer noch den Anfangswert (Abb. 6). Ein deutliches Zeichen, dass die Wärmeleitung der Gase keine Rolle spielt. Damit lässt sich Wärmeleitung als mögliche Erklärung der oben geschilderten Temperatur-Anstiege in Gegenwart von Treibhausgasen endgültig ausschließen.

Nur direkt beim Einleiten von Helium kommt es zu einem leichten Temperatur-Rückgang von TpE, da das kalte Helium an der Erd-Platte vorbeiströmt.

Bemerkenswert sind die Thermoelemente, die bei diesem Versuch, keine Reaktion zeigen. Da das Helium von oben, weit von den Thermoelementen entfernt, eingeleitet wird, kommen diese Sensoren erst nach vollständiger Diffusion in Kontakt mit dem Edelgas. Es gibt somit keinen Schichtungs-Effekt und selbst die 13 %-ige Helium-Luft-Mischung am Ende des Versuches macht sich bei den Thermoelementen nicht bemerkbar.

4. Wirkung von Freon 134a bei konstanter Temperatur der Erd-Platte

Bis zur 235. Minute sieht der Versuch Freon Nr. 15 wie eine Wiederholung des Freon-Experimentes Nr. 13 aus (siehe Abb. 7a bis 7c). Aber es gibt einen Unterschied: Die kalte Platte ist rund 10 K kälter als beim vorherigen Experiment. Trotz der geringeren Temperatur der kalten Platte (TpK = -11.4 ° vs. TpK = -1,8 °C) ist der Temperatur-Anstieg ∆TpE der Erd-Platte um 0,55 K größer als beim Experiment 13 (∆TpE = 1,69 vs. ∆TpE = 1,17 K).
Schon früher wurde auf diesen scheinbar paradoxen Zusammenhang hingewiesen (M. Schnell, [8]). Die Temperatur der kalten Platte spielt beim Treibhauseffekt eine wichtige Rolle. Bei einem geringeren Temperatur-Unterschied zwischen den Treibhausgasen und dieser Platte wird die Strahlung der Moleküle stärker durch die Hintergrundstrahlung der kalten Platte überlagert (ähnlich der Hintergrundstrahlung, die durch Wolken in der Atmosphäre verursacht wird, siehe auch H. Harde [7]). Bei identischen Temperaturen gibt es keine Erwärmung der Erdplatte durch das IR aktive Gase. Ein Phänomen, das weiterer experimenteller Untersuchungen bedarf, aber für die aktuelle Fragestellung, bei der es um den prinzipiellen Nachweis des Treibhauseffekts geht, keine Rolle spielt.

Nach Feststellung der maximalen Temperatur-Erhöhung ∆TpE(max) wird die Heizung schrittweise solange reduziert, bis die Erd-Platte wieder die Anfangs-Temperatur von 30 °C hat. Dabei zeichnet sich Freon durch eine besonders gute „Wärmeisolierung“ aus. Die geringe Konzentration von 0,13 Vol.-% Freon (0,15 l) bewirkt, dass die Heizung der Erd-Platte um rund 11 % von 169,9 W/m2 auf 151,2 W/m2 gesenkt werden muss. Dieser Isolations-Effekt wird jedoch nicht durch Wärmeleitung, sondern durch einen veränderten Strahlungsaustausch verursacht (siehe Kap. 5). Erinnert sei hier an das Argon-Kontrollexperiment (Kap. 3.4), das trotz einer 10-fachen Menge an Argon (15 l) keinen Isolations-Effekt zeigte.

Damit weist dieses Experiment überzeugend nach, dass die von Freon ausgehende Wärmestrahlung von der Erd-Platte als sogenannte Gegenstrahlung aufgenommen wird und dies unter den gegebenen experimentellen Bedingungen (Konzentration des Gases, Temperatur, „eingesehener“ Raumwinkel) zu einer entsprechend geringeren Heizleistung von rund 19 W/m2 führt.

5. Die Heizung der Erd-Platte

Bei diesem Versuch geht es vordergründig um die Frage: „Wie verändert sich die Temperatur der Erd-Platte, wenn ihre Heizung verzögert eingeschaltet wird?“

Das Experiment beginnt mit den gleichen Vorbereitungen wie in Kap. 2 angegeben, jedoch ohne Heizung der Erd-Platte. Die ersten 86 Minuten zeigen, dass die Erd-Platte im thermischen Gleichgewicht eine Temperatur von 19,2 °C annimmt, wenn ihre Heizung ausgeschaltet ist (Abb. 8a). Sie ist jetzt 10,4 K kälter als ihre unmittelbare Umgebung, dem Dom, der dank seiner Wasser-Heizung 29,6 °C warm ist. Das ist vergleichbar mit der Abkühlung von Körpern, die einem kalten Himmel ausgesetzt sind, was in unseren Breiten z.B. als Strahlungsfrost bekannt ist.

Das Experiment, das man als einen weiteren Test bezeichnen kann, soll nachweisen, dass die Temperatur der Erd-Platte hauptsächlich durch Strahlungsaustausch I mit der 1,11 m entfernten kalten Platte bestimmt wird.

Der Strahlungsaustausch I beschreibt den Wärmeverlust eines warmen Körpers in einer kalten Umgebung. Es ist ein Wärmeverlust, der ausschließlich durch einen gegenseitigen Austausch von Wärmestrahlung verursacht wird. Beim Einschalten der Heizung steigt die Temperatur der Erd-Platte und damit erhöht sich auch ihre Wärmestrahlung. Die Thermoelemente reagieren auf diese zusätzliche Wärmestrahlung mit einem Anstieg der Spannung ∆Th um 15,1 mV, synchron zur Temperatur der Erd-Platte.

Aus dieser Beobachtung lässt sich die Reaktion der Thermoelemente wie folgt erklären:

  • Ein Anstieg der Spannung Th zeigt die von oben kommende Wärmestrahlung.
  • Ein Absinken von Th zeigt vor allem die geringe Wärmeleitung schwerer Gase bzw. einen Schichtungs-Effekt.

Die Temperatur der ungeheizten Erd-Platte von 19,2 °C ergibt sich aus dem Wärmeverlust durch Strahlungsaustausch I (hauptsächlich mit der kalten Platte) und Zufuhr von Wärme Q aus seiner wärmeren Umgebung (Dom).
Beim Einschalten der Heizung verändern sich die Temperatur-Differenzen zwischen Erd-Platte, Dom und kalter Platte, wodurch der Wärmestrom Q abnimmt und der Strahlungsaustausch I zunimmt. Es stellt sich ein neues Gleichgewicht bei der Erd-Platten-Temperatur von 30 °C ein.
Unter der Annahme, dass bei nahezu gleichen Temperaturen von Dom und Erd-Platte der Wärmestrom Q vernachlässigt werden kann, lässt sich der Strahlungsaustausch I mit der Stefan-Gleichung berechnen (Wikipedia [8]).

Für E=1 (Emissionsaustauschgrad), TE = 303,15 K (30 °C) und TK = 271,35 K (1,8 °C) errechnet sich eine Intensität I für den Strahlungsaustausch mit B als Boltzmann-Konstante:

Tatsächlich wird für die Temperatur der Erd-Platte von 30 °C aber nur eine elektrische Heizleistung von 143 W/m2 benötigt, also nur 83 % des theoretischen Strahlungsaustausches I. Dieses bestätigt sich auch weitgehend, wenn die kalte Platte auf -11,4 °C gekühlt wird. In diesem Fall beträgt wurde eine Heizleistung von 169,9 W/m2 benötigt, entsprechend 80% des theoretischen Wertes. Diese so ermittelten Leistungen sind ein Qualitätsmerkmal der Apparatur und zeigen, wie die Apparatur auf die Wärmestrahlung der kalten Platte reagiert.

Die Abweichung vom theoretischen Wert entsteht durch einen zweiten Strahlungsaustausch I‘ der Erd-Platte mit der Röhre. Die Röhre hat eine höhere Temperatur als die kalte Platte, wodurch die Erd-Platte weniger Wärme in dieser Richtung verliert.

Die Messungen der Lufttemperatur zeigen, dass sich beim Einschalten der Heizung hauptsächlich die Luft in der Nähe der Erd-Platte, im Bereich der Messstelle Tp1, erwärmt (Abb. 8b).

6. Fazit

Der Versuchsaufbau des Experimentes kann als ein Modell bezeichnet werden, das den Strahlungsaustausch der Erdoberfläche unter einer Wolkenschicht abbildet. Die gewählten Temperaturen einschließlich eines Temperatur-Gradienten zwischen Erd- und kalter Platte können auch auf der Erde und in der Atmosphäre gefunden werden.
Andere Parameter wie die Sonnenstrahlung, der Einfluss von Wasserdampf, ein Druckgradient, vertikale und horizontale Luftströmungen, Wärmetransport durch latente Wärme und viele Wetter-Phänomene werden von dem Versuchsaufbau nicht berücksichtigt. Es lassen sich somit auch keine Global-Temperaturen der Erde ableiten oder gar vorhersagen.

Alle ermittelten Temperaturen sind nur Demonstrationen, die zeigen, dass Treibhausgase grundsätzlich zur Erwärmung der Erde beitragen können, dass der Treibhauseffekt physikalisch möglich ist.
Die gezeigten Diagramme sind nur eine kleine Auswahl von rund 50 durchgeführten Experimenten. In allen Fällen, ohne Ausnahme, verursachte die Zugabe eines IR-aktiven Gases eine Temperatur-Erhöhung der Erd-Platte, trotz konstanter Heizung dieser Platte und konstanter Temperatur ihrer unmittelbaren Umgebung.

Bisher vorgebrachte Einwendungen gegen einen Treibhauseffekt wurden bei den Untersuchungen weitgehend berücksichtigt. So konnte eindeutig gezeigt werden, dass ein beheizter Körper, hier die Erd-Platte, sich auch in Gegenwart deutlich kälterer Treibhausgase erwärmt. Es wurde demonstriert, dass der Erwärmungs-Effekt sowohl von der Gas-Temperatur als auch von der Art des Gases abhängt. Auch eine sehr kleine Menge eines IR-aktiven Gases spricht nicht gegen den Treibhauseffekt, der aufgrund der langen Ausbreitungswege von Strahlung in der Atmosphäre auch dann noch einen deutlichen Einfluss verursachen kann.
Die Gastemperaturen sind kleiner als die der Erd-Platte und verändern sich während eines Versuches nicht oder sinken sogar leicht. Die Erwärmung der Erd-Platte kann somit nicht durch einen Wärmestrom aus ihrer Umgebung erklärt werden.

Kontrollexperimente mit den Edelgasen Argon und Helium, zeigen, dass die unterschiedliche Wärmeleitfähigkeit dieser Probengase im Vergleich zu Luft keinen Einfluss auf die Temperatur der Erd-Platte haben.

Die Ursache für die Erwärmung der Erd-Platte ist die Fähigkeit der Treibhausgase, nicht nur IR-Strahlung zu absorbieren, sondern aufgrund ihrer Eigentemperatur auch Strahlung auf den gleichen Wellenlängen wieder zu emittieren. Hierdurch wird die bereits vorhandene Gegenstrahlung der kalten Platte weiter verstärkt. Entsprechend der Stefan-Gleichung wird dadurch bei konstanter Temperatur der Erdplatte der Transport von Energie von der Erd-Platte zur kalten Platte verringert. Das hat allerdings ein Ungleichgewicht von Input und Output zur Folge. Wegen der Energieerhaltung muss sich die Erd-Platte erwärmen, um bei einer höheren Temperatur das Gleichgewicht von Input und Output wieder herzustellen.
Vereinfacht ausgedrückt handelt es sich beim Treibhauseffekt im Grunde um eine Art „Isolations-Effekt“, der beim Austausch von Wärmestrahlung wirksam wird (wie unsere Bettdecke, die uns nachts schön warm hält, nur dass wir hier eine Gasschicht haben und von Wärmestrahlung sprechen).

In einigen weiteren Experimenten konnte diese Wärmestrahlung auch für Propan und Freon 134a nachgewiesen und quantifiziert werden.

Eine Klimasensitivität kann aus den Versuchen nicht abgeleitet werden, da die Temperatur des Doms, die unmittelbare Umgebung der Erd-Platte, konstant gehalten wurde. Der gefundene Temperatur-Anstieg von 0,9 K bei einer recht hohen CO2 Menge lässt jedoch jetzt schon ahnen, dass die IPCC-Angaben bezüglich der CO2-Wirkung wohl deutlich zu hoch gegriffen sind. Der Streit um die CO2-Klima-Katastrophe wird also weitergehen. Danach lautet die strittige Frage nicht ob, sondern wie hoch der CO2-Treibhauseffekt ist. Das ist jedoch eine andere Geschichte und Gegenstand einer weiteren experimentellen Untersuchung.

Danksagung:

Herrn Ing. Ulrich Tengler danken wir an dieser Stelle für seine Unterstützung und die kostenlose Überlassung des Kryostaten Isotemp 1016S.

Anhang

Versuchsablauf: Am Tag vor einem Experiment wird eine Natronlauge-Kassette zwischen Pumpe und Sauerstoffsensor geschalten und für 4 Stunden die Innenluft mit 1,5 l/min im Kreis gepumpt, wodurch Wasserdampf und CO2 entfernt werden (Siehe Abb. 1). Im Falle von Argon als Gasfüllung, werden 300 Liter Argon von unten in die oben offene Apparatur geleitet, wodurch die Luft verdrängt wird.

Nachts, um 1:30 Uhr werden mit einer Schaltuhr Kühlaggregat, Domheizung und Raum-Thermostatisierung in Betrieb genommen und nach einer gewissen Verzögerung die Heizung der warmen Platte eingeschaltet.
Für die elektrische Heizung der Erd-Platte wird ein digitales Labornetzgerät (KA3005D) im Konstant-Spannungsbetrieb mit einer Auflösung von 0,01 V verwendet. Die erforderliche Heizleistung für die 219 cm2 große Erd-Platte wird mit dem Faktor 45,654 multipliziert, um auf die Heizung einer Fläche von 1 m2 umzurechnen.
Gegen 7:30 Uhr beginnt die computergestützte Aufzeichnung der Messwerte für TpE, TpK und Dom Temperatur im Minutentakt. Alle 6 Minuten wird ein Durchschnittswert der letzten 6 Minuten errechnet und für eine Excel-Tabelle gespeichert. Alle anderen Daten werden manuell in gewissen Zeitabständen abgelesen.
Mit den ersten 90 Minuten wird die Konstanz aller Messwerte innerhalb eines Schwankungsbereiches von ± 0,13 K demonstriert. Gegen 9:00 Uhr wird das Probegas von unten in die Apparatur eingeleitet und danach für kurze Zeit mit einer Aquarium-Pumpe die Luft aus dem Dom abgesaugt und in den unteren Totraum wieder eingeleitet (Umpumpen). Im Falle von CO2 und Propan wird die Menge der Probengase durch Wägung der Gasflaschen ermittelt. Das Volumen von Argon und Helium wird mit Hilfe eines Rotameters ermittelt. Für das Freon 134a wird eine verschließbare Gasmaus mit dem Volumen von 0,15 l verwendet, die zwischen Luftpumpe und Feuchtesensor geschaltet wird.

Interessenten an weiteren Diagrammen oder technischen Details können bei EIKE um einen Kontakt nachfragen.

Referenzen

  1. N. S. Nahle: Repeatability of Professor Robert W. Wood’s 1909 experiment on the Theory of the Greenhouse,. Biology Cabinet Online-Academic Resources and Principia Scientific International. Monterrey, N. L. , July 5, 2011
    http://www.biocab.org/experiment_on_greenhouses__effect.pdf
  2. J.-E. Solheim: Start des zweitägigen „Al Gore-Experiments“, 10. Internationale Klima- und Energie-Konferenz (10. IKEK), EIKE, Berlin, 12. November 2016
    https://eike.institute/2017/02/04/10-ikek-prof-em-jan-erik-solheim-start-des-zweitaegigen-al-gore-experiments/
  3. H. v. Ditfurth 1977: https://www.youtube.com/watch?v=lORAR1nvfjs
  4. M. Schnell, 2020: Die falschen Klimaexperimente,
    https://eike.institute/2020/11/06/die-falschen-klima-experimente/
  5. HITRAN-Datenbank: https://www.cfa.harvard.edu/hitran/welcometop.html
  6. H. Harde, Advanced Two-Layer Climate Model for the Assessment of Global Warming by CO2, Open Journal of Climate Change, Vol. 1, No. 3, Nov. 2014
    http://citeseerx.ist.psu.edu/viewdoc/download?doi=10.1.1.909.4771&rep=rep1&type=pdf
  7. H. Harde, Radiation Transfer Calculations and Assessment of Global Warming by CO2 , International Journal of Atmospheric Sciences, Volume 2017, Article ID 9251034, pp. 1-30 (2017), https://www.hindawi.com/journals/ijas/2017/9251034/ https://doi.org/10.1155/2017/9251034
  8. M. Schnell, 2020, Die Hintergrundstrahlung der Wolken und Aerosole
    https://eike.institute/2018/06/03/experimentelle-verifikation-des-treibhauseffektes/
  9. Wikipedia, Strahlungsaustausch: https://de.wikipedia.org/wiki/Strahlungsaustausch

 

Die englische Version dieses Beitrags ist hier:

Is there a greenhouse effect?




Aktualisierung: Fakten und Theorien

Manchmal fragt man Klimaskeptiker, ob sie an die Evolution oder die Schwerkraft glauben. Sie wollen unseren Skeptizismus lächerlich machen, indem sie den vom Menschen verursachten, alias anthropogenen Klimawandel mit Evolution oder Schwerkraft gleichsetzen. Evolution und Schwerkraft sind Fakten, der anthropogene Klimawandel dagegen ist eine Hypothese. Die Gleichsetzung von „Klimawandel“ mit der Schwerkraft oder der Evolution ist hingegen in Ordnung, da alle drei Tatsachen sind. Das Klima ändert sich, die Schwerkraft hält uns an die Erdoberfläche und die Arten entwickeln sich weiter.

Der berühmte Philosoph Karl Popper würde sagen, dass diese beobachteten Phänomene keine wissenschaftlichen Hypothesen oder Theorien sind, weil sie nicht falsifizierbar sind (Popper, 1962). Wie kann man beweisen oder widerlegen, dass sich das Klima verändert?

Es gibt andere Vorstellungen, die Popper als Pseudowissenschaft bezeichnet. Diesen Vorstellungen zufolge ist es völlig egal, was man beobachtet, die Beobachtung wird immer als Bestätigung der Vorstellung gesehen. Popper bietet die Geschichtstheorie von Marx als Beispiel an und stellt fest, „dass ein Marxist keine Zeitung aufschlagen könnte, ohne auf jeder Seite einen bestätigenden Beweis“ für diese Theorie zu finden. Freuds Theorien waren die gleichen, jeder klinische Fall war eine Bestätigung der Freudschen Theorien. Es war genau diese Tatsache, dass die Beweise immer zu diesen Gedanken passten, die ihre Schwäche ausmachten. Eine Theorie, die durch kein denkbares Ereignis widerlegt werden kann, ist nicht wissenschaftlich (Popper, 1962, S. 35-36). Die Astrologie ist ein weiteres Beispiel.

Popper fragte sich 1919, wie sich Marxismus, Freud und Astrologie von wirklich wissenschaftlichen Vorstellungen wie Newtons Gravitationsgesetz oder Einsteins Relativitätstheorie unterscheiden. Er erkannte, dass letztere getestet und als falsch nachgewiesen werden konnten. Er war inspiriert von Frank Dyson, Andrew Crommelin und Arthur Eddingtons Bestätigung von Einsteins Relativitätstheorie während der Sonnenfinsternis vom 29. Mai 1919. Einsteins Theorie sagte voraus, dass sich das Sternenlicht aufgrund der Schwerkraft um die Sonne krümmen würde. Das Newtonsche Gravitationsgesetz sagt ebenfalls eine Ablenkung voraus, aber Einsteins Theorie sagte eine doppelt so große Ablenkung voraus. Die Beobachtungen während der Sonnenfinsternis zeigten, dass dies genau so geschah, wie Einstein es vorhergesagt hatte (Coles, 2019).

Dies war die erste wirkliche Bestätigung der Einsteinschen Theorie, und sie beruhte auf einer riskanten Vorhersage. Eine Bestätigung einer Theorie muss eine riskante Vorhersage von Dingen beinhalten, die nicht geschehen können oder geschehen werden, wenn die Theorie zutrifft. Theorien sollten Dinge erfolgreich vorhersagen, und es sollte nichts auftreten, das im Widerspruch zu der Theorie steht. Je mehr das der Fall ist, desto besser. Bestätigungen beweisen eine Theorie nicht, aber sie erlauben es ihr, zu überleben.

Popper zieht eine klare Grenze zwischen Wissenschaft und Pseudowissenschaft. Wissenschaftliche Hypothesen und Theorien sagen voraus, was geschehen wird und was nicht geschehen wird, wenn die Theorie wahr ist. Die Pseudowissenschaft zieht keine solche Grenze.

Mit anderen Worten: Wenn ein Krieg stattfindet und jemand durch ihn reich geworden ist, bestätigt das nicht Marx‘ Sicht der Geschichte. Marx hätte vorhersagen müssen, dass der Mann reich werden würde, und er hätte zugeben müssen, dass er Unrecht hatte, wenn der Mann arm blieb. Wir müssen uns vorstellen können, wie die Theorie widerlegt werden kann.

Schwerkraft und Evolution agieren wie es allgemein anerkannte Theorien vorgeben. Einstein entwickelte unsere heutige wissenschaftliche Theorie der Schwerkraft. Newton lieferte uns sein beschreibendes „Gesetz der Gravitation“. Das Newtonsche Gesetz sagt uns, was die Schwerkraft bewirkt, und es ist nützlich, aber es sagt uns nichts darüber, wie sie funktioniert. Dafür brauchen wir Einsteins Relativitätstheorie.

In der wissenschaftlichen Gemeinschaft werden sowohl ein Gesetz als auch eine Theorie durch ein einziges widersprüchliches Experiment oder eine einzige Beobachtung widerlegt. Entweder Einstein oder Popper sollen es einmal so ausgedrückt haben:

„Keine noch so große Menge an Experimenten kann je beweisen, dass ich Recht habe; aber ein einziges Experiment reicht aus, um zu beweisen, dass ich Unrecht habe“. (Autor unbekannt)

Beide sagten ähnliche Dinge, beide glaubten, dass keine wissenschaftliche Theorie jemals bewiesen, sondern nur widerlegt werden kann. Lassen Sie uns also unsere Themen in diesem Licht betrachten. Gibt es Ausnahmen von Newtons beschreibendem Gravitationsgesetz, das auf Masse und Entfernung basiert? Nur in Größenordnungen wie der des Sonnensystems, in der Nähe von Schwarzen Löchern und im atomaren Bereich. Im täglichen Leben auf der Erde funktioniert das Newtonsche Gesetz gut. Wie steht es mit Einsteins Gravitationstheorie (Relativitätstheorie), gibt es Ausnahmen? Keine, die wir in irgendeiner Größenordnung kennen.

Wie steht es mit der Evolution? Arten entwickeln sich, das können wir in den geologischen Aufzeichnungen sehen (Jepson, Mayr, & Simpson, 1949). Wir können dies auch bei einigen sich schnell reproduzierenden Arten beobachten (Wilcox, 2011; Soltis & Soltis, 1989). So könnten wir die Evolution als eine Tatsache beschreiben. Sie erfolgt, aber wir können ohne weitere Arbeit nicht beschreiben wie. Zu den frühen Theorien des Evolutionsprozesses gehören Charles Darwins Theorie der natürlichen Auslese (Darwin, 1859) und Jean-Baptiste Lamarcks Theorie der vererbbaren Anpassung von Arten aufgrund von äußeren Umweltbelastungen. Lamarck hat den Gedanken der vererbbaren Anpassung nicht erfunden; sie wurde allgemein schon lange vor seiner Geburt angenommen. Aber er hat sie in seine Ideen zur Evolution neuer Arten aufgenommen.

Die aktuelle epigenetische Forschung (Nature, 2020) zeigt, dass Darwin und Lamarck beide Recht hatten und dass die Evolution beide Prozesse einschließt. Eine Zusammenfassung der jüngsten Forschung über die epigenetische Komponente der Evolution findet sich in diesem Artikel aus dem Oxford Journal (Mendizabal, Keller, Zeng, & Yi, 2014). Die natürliche Auslese spielt eine wichtige Rolle beim Aussterben, da Arten, die sich nicht an eine neue Umgebung anpassen können, aussterben. Die vererbbare Anpassung des Lamarck’schen Typs spielt eine entscheidende Rolle bei der Entwicklung neuer, robusterer Sorten und Arten.

Lamarck stellte seine neue Theorie, dass sich die verschiedenen Arten auf der Erde allmählich von den einfachsten zu den komplexesten entwickelten, erstmals in zwei Vorträgen am 17. Mai 1802 im Pariser Museum für Naturgeschichte vor. Die erste Vorlesung richtete sich an seine Studenten, die zweite an seine Professorenkollegen. Die zweite Vorlesung wurde von einem Bericht begleitet (Lamarck, 1802). Wie der Historiker an der University of Illinois Richard Burkhardt beschreibt, waren Lamarcks Ideen bahnbrechend und revolutionierten die Biologie, aber dies wurde damals nicht anerkannt (Burkhardt, 2013).

Die moderne DNA-Forschung beschreibt, wie Anpassungen vererbt werden können. John Smythies von der Universität von Kalifornien und seine Kollegen erklären, dass Umweltstress normalerweise die DNA eines Lebewesens unverändert lässt, aber Spermien tragen nicht nur DNA zur Eizelle, sondern auch eine Vielzahl von RNA-Molekülen, die die Expression und das Timing der verschiedenen Teile der DNA regulieren. Stress wirkt sich auf diese RNA-Moleküle aus, und sie beeinflussen die Entwicklung und die Eigenschaften der Nachkommenschaft (Smythies, Edelstein, & Ramachandran, 2014).

Mit dem Fortschritt der Wissenschaft ändern sich etablierte Fakten und wissenschaftliche Gesetze selten, aber Theorien entwickeln sich weiter. Fakten und Gesetze werden leicht abgetan, wenn widersprüchliche Daten gesammelt werden, und manchmal werden sie, wenn wir mehr erfahren, wieder eingesetzt. Die moderne Evolutionstheorie ist ein gutes Beispiel dafür, wo konkurrierende Theorien zu einer einzigen verschmelzen und eine verworfene Theorie wieder aufgenommen werden kann.

Die meisten wissenschaftlichen Theorien beginnen als Hypothesen. Eine Hypothese lässt sich am besten als eine Vorstellung davon beschreiben, was die Ursache für das Eintreten eines bestimmten Ereignisses sein könnte. Wie oben diskutiert, müssen sowohl Hypothesen als auch Theorien falsifizierbar sein. Der „Klimawandel“ ist nicht falsifizierbar, er ist weder eine wissenschaftliche Hypothese noch eine Theorie. Popper würde „Klimawandel“ als Pseudowissenschaft bezeichnen, da jedes Wetterereignis als Unterstützung der Idee interpretiert werden kann und oft auch so interpretiert wird, ähnlich wie der Marxist mit seiner Zeitung.

Der vom Menschen verursachte oder anthropogene Klimawandel ist eine richtige wissenschaftliche Hypothese, da er falsifizierbar ist. Wissenschaft ist meistens Skepsis. Wir suchen nach dem, was nicht passt, wir stöbern in etablierten Fakten und Gesetzen, in Theorien und Hypothesen. Wir versuchen, Fehler zu finden; wir überprüfen die Zahlen. Schlimmer noch: Wenn Wissenschaft richtig gemacht wird, bedeutet das, dass wir mehr Zeit damit verbringen, zu beweisen, dass wir uns selbst und andere im Unrecht sind, als zu beweisen, dass wir Recht haben. Das Leben ist manchmal hart, und Wissenschaftler gewinnen nur selten Popularitätswettbewerbe.

Tabelle 1 unten enthält Phrasen. Jede wird als Fakt, Theorie, Gesetz, Hypothese oder einfach als Idee identifiziert. Wir sehen, dass der anthropogene Klimawandel und die Möglichkeit einer anthropogenen Klimakatastrophe nicht mit den Relativitäts- und Evolutionstheorien vergleichbar sind. Der anthropogene Klimawandel ist mehr als eine Idee, er beruht auf einigen Beobachtungen und vernünftigen Modellen des Prozesses. Aber keines der Klimamodelle hat die globale Erwärmung erfolgreich und genau vorhergesagt. Die Relativitäts- und Evolutionstheorien dagegen haben jeweils erfolgreiche Vorhersagen mit großer Genauigkeit und Präzision gemacht.

Wie Popper sagte, müssen die Befürworter des anthropogenen Klimawandels riskante Vorhersagen machen, die eintreten, um zu behaupten, dass ihre Hypothese eine gültige Theorie ist. Der anthropogene Klimawandel ist nach wie vor eine noch nicht abgeschlossene Arbeit und keine wissenschaftliche Theorie. Er ist mit Sicherheit keine Tatsache.

Nur validierte und reproduzierbare Modelle und Experimente können ausnahmslos zur Unterstützung einer wissenschaftlichen Theorie verwendet werden. Die Meinungen von Wissenschaftlern und Politikern sind nicht relevant. Damit soll nicht gesagt werden, dass der anthropogene Klimawandel oder die Möglichkeit einer anthropogenen Klimakatastrophe widerlegt sind, es soll nur gesagt werden, dass es keine gültigen Beweise gibt, um diese Hypothesen zu stützen.

Die Vorstellung, dass der vom Menschen verursachte Klimawandel eine Katastrophe in der Größenordnung des islamischen Terrorismus oder von Massenvernichtungswaffen auslösen könnte, wie John Kerry 2014 behauptete (Almasy, 2014), ist reine Spekulation. Die Modelle, die zur Berechnung des menschlichen Einflusses auf die globale durchschnittliche Oberflächentemperatur verwendet werden, stimmen nicht mit den Beobachtungen überein. Dies ist leicht in Abbildung 1 zu erkennen, die John Kerrys Diagramm der IPCC-Klimamodellvorhersagen im Vergleich zu Beobachtungen von Satelliten und Wetterballons darstellt (Christy, 2016). Satelliten- und Wetterballonmessungen sind unabhängig voneinander und sie sind unabhängig von den verschiedenen Oberflächentemperatur-Datensätzen, wie HadCRUT4 in Abbildung 2 zeigt. Alle Kurven auf dem Diagramm wurden mit gleitenden Fünfjahresdurchschnitten geglättet. Die Fünfjahresdurchschnitte sollen kurzfristige Wetterereignisse, wie El Niños und La Niñas (NOAA, 2020), herausfiltern. Klima wird normalerweise definiert als Veränderungen über 30 Jahre oder länger.

Abbildung 1: Ein Vergleich von IPCC-CMIP5-Klimamodell-Prognosen mit drei Datensätzen von Satellitenbeobachtungen und 4 Datensätzen von Ballon-Messungen. Die Graphik präsentierte John Christy im Jahre 2016 dem Committee on Science, Space and Technology des Weißen Hauses (Christy 2016)

Die Linie, die durch die Beobachtungen verläuft, ist das russische Modell „INM-CM4“ (Volodin, Dianskii, & Gusev, 2010). Es ist das einzige Modell, das den Beobachtungen nahe kommt. INM-CM4 schneidet über längere Zeiträume sehr gut bei hintereinander beobachteten Temperaturen ab. Ron Clutz ist ein Blogger und kanadischer Unternehmensberater mit einem Abschluss in Chemie aus Stanford. Clutz hat INM-CM4 untersucht und geschrieben, dass es eine CO2-Zwangsreaktion (ECS) verwendet, die 37% niedriger ist als bei den anderen Modellen, etwa 2°C pro CO2-Verdoppelung. Er verwendet auch eine viel höhere Wärmekapazität der tiefen Ozeane (Trägheit des Klimasystems), und er entspricht genau dem niedrigeren Wassergehalt der Troposphäre und ist darüber hinaus niedrig verzerrt. Die anderen Modelle sind hoch verzerrt (Clutz, 2015). Das russische Modell sagt zukünftige Temperaturanstiege mit einer Rate von etwa 1°C/Jahrhundert voraus, was keineswegs alarmierend ist und viel niedriger als die Vorhersagen der anderen Modelle. Der Durchschnitt der anderen Modelle sagt eine Erwärmung von 2,15°C/Jahrhundert voraus. Der beobachtete lineare Erwärmungstrend für den Globus liegt laut dem Satellitenrekord der UAH (University of Alabama in Huntsville) seit 1979 zum Zeitpunkt der Erstellung dieses Artikels (4. April 2020) bei 1,3°C pro Jahrhundert (Spencer, 2020). Abbildung 2 zeigt, dass die Erwärmung nach Angaben des Met Hadley Center/Climatic Research Unit im letzten Jahrhundert etwa 0,8⁰C betrug.

Abbildung 2. Die Rekonstruktion der globalen Durchschnittstemperatur des Met Office Hadley Center und der Climatic Research Unit an der University of East Anglia seit 1850. Sie wird in Erwärmungs- und Abkühlungsperioden unterteilt. Insgesamt zeigt sie eine Erwärmung von ~0,8°C im 20. Jahrhundert.

Man kann jedes in Abbildung 1 dargestellte Klimamodell als ein digitales Experiment betrachten. Der Bereich der vorhergesagten Erwärmung aus diesen digitalen Experimenten beträgt von 1979 bis 2025 über ein Grad. Dies übertrifft die von CMIP5 (Coupled Model Intercomparison Project 5) vorhergesagte durchschnittliche Erwärmung um ein Grad seit 1979. Vergleichen Sie die CMIP5-Vorhersage mit dem tatsächlichen Erwärmungstrend von 0,5°C, der von UAH gemessen und von Roy Spencer berichtet wurde (Spencer, 2020). Die Bandbreite der Modellergebnisse und der Vergleich mit den tatsächlichen Messungen gibt uns kein Vertrauen in die Genauigkeit der Modelle. Dennoch verwendet der IPCC die Differenz zwischen den mittleren Modell-Temperaturvorhersagen mit und ohne berechneten menschlichen Einfluss seit 1950, um den menschlichen Einfluss auf das Klima zu bestimmen (Bindoff & Stott, 2013, S. 879). In Abbildung 3, nach Bindoff und Stott, ihrer Abbildung 10.1, Seite 879, ist das CMIP3 (AR4)-Modell als schwache hellblaue Linien, das CMIP5 (AR5)-Modell als schwache gelbe Linien, die Mittelwerte des Modells als stärkere blaue (CMIP3-AR4) und rote (CMIP5-AR5) Linien dargestellt. Überlagert wird die Darstellung durch Oberflächentemperaturmessungen als dicke schwarze Linie.

In Abbildung 3, Schaubild (a), verwenden die Modelle ein Szenario, das nach Ansicht des IPCC sowohl die natürlichen als auch die menschlichen Klimaeinflüsse widerspiegelt. In Schaubild (b) verwenden sie ein Modellszenario, von dem sie glauben, dass es nur natürliche (d.h. nicht-menschliche) Klimaeinflüsse repräsentiert.

Abbildung 3. IPCC AR5 Abbildung 10.1, Seite 879. Die Grafiken veranschaulichen, wie das IPCC den menschlichen Einfluss auf das Klima berechnet. Die rote und die blaue Linie sind Modellergebnisse ohne menschlichen Antrieb (b) und mit menschlichem Antrieb (a). Die schwarzen Linien kennzeichnen beobachtete Temperaturen.

Die Diagramme sind recht klein und decken über 150 Jahre ab, aber dennoch sind Abweichungen der beobachteten Temperaturen vom Mittelwert des Modells von 1910 bis 1940 und von 2000 bis 2010 deutlich erkennbar. Außerdem ist die Bandbreite der Modellergebnisse ärgerlich groß. Das Diagramm in Abbildung 3(b) zeigt einen flachen natürlichen Klimatrend, und der gesamte beobachtete Temperaturanstieg von 1950 bis heute wird dem menschlichen Einfluss zugeschrieben. Dieses Ergebnis hat viel Kritik von Willie Soon, Ronan Connolly und Michael Connolly (Soon, Connolly, & Connolly, 2015), sowie Judith Curry, Marcia Wyatt (Wyatt & Curry, 2014) und anderen hervorgerufen. Soon, Connolly und Connolly (SCC15) sind der Meinung, dass der IPCC ein ungeeignetes Modell der Variation der Sonnenleistung (TSI oder Gesamtsonneneinstrahlung) gewählt hat.

In der begutachteten Literatur gibt es viele Modelle der Sonnenvariation, und die Frage, welches davon richtig ist, wird heftig diskutiert. Acht neuere Modelle sind in Abbildung 8 von SCC15 dargestellt (siehe unsere Abbildung 4). Nur Modelle mit geringer Sonnenvariabilität (rechts in Abbildung 4) werden vom IPCC verwendet, um den Einfluss des Menschen auf das Klima zu berechnen, obwohl für die Modelle mit höherer Variabilität auf der linken Seite ebenso viele Beweise vorliegen. Die in den Diagrammen verwendeten Skalen sind alle gleich, aber die oberen und unteren Werte variieren. Der IPCC hätte mindestens zwei Fälle durchlaufen müssen, einen für hohe Variabilität und einen für geringe Variabilität. SCC15 zeigt deutlich, dass das verwendete Modell bei der Berechnung des menschlichen Einflusses auf das Klima einen großen Unterschied macht.

Abbildung 4. Verschiedene begutachtete Modelle der Sonnenvariabilität der letzten 200 Jahre. Das IPCC verwendet Sonnenmodelle mit geringer Variabilität wie die rechts abgebildeten, um die natürliche Variabilität zu berechnen, damit sie den menschlichen Einfluss ableiten können, wie in Abbildung 3 dargestellt. Quelle: (Bald, Connolly, & Connolly, 2015).

Marcia Wyatt und Judith Curry (Wyatt & Curry, 2014) oder WC14 glauben, dass die natürliche Temperaturschwankung aufgrund langfristiger natürlicher Zyklen in Abbildung 3(b) nicht korrekt dargestellt ist. Ihre „Zustands-Welle“ (Wyatt, 2014) deutet darauf hin, dass in den 1980er und 1990er Jahren eine beträchtliche natürliche Erwärmung stattgefunden hat. Würde man die in WC14 beschriebenen langfristigen (etwa 30-jährigen Halbzyklus) Schwingungen in Abbildung 3(b) einbeziehen, wäre das Ausmaß der dem Menschen zugeschriebenen Erwärmung viel geringer. Marcia Wyatt hält eine Schwankung der gesamt-solaren Einstrahlung für eine mögliche Ursache.

Jedes Computer-Klimamodell muss eine Erfolgsbilanz erstellen, bevor sein Ergebnis in Berechnungen verwendet wird. Der Planet Erde ist einfach zu komplex, und die natürlichen Klimaschwankungen werden nur unzureichend verstanden. Wenn sich Eigenschwingungen nicht vorhersagen lassen, können sie nicht von Beobachtungen abgezogen werden, um den menschlichen Einfluss auf das Klima zu berechnen. Die Debatte dreht sich nicht darum, ob der Mensch das Klima beeinflusst, die Debatte geht darum, wie viel wir beitragen und ob die zusätzliche Erwärmung gefährlich ist. Die Jury ist noch immer nicht einig. Sicherlich wurde nicht für eine drohende Katastrophe plädiert, da dies zwei spekulative Sprünge erfordert. Erstens müssen wir davon ausgehen, dass der Mensch den Klimawandel vorantreibt, zweitens müssen wir davon ausgehen, dass dies zu einer Katastrophe führen wird. Man kann eine mögliche Katastrophe vorhersagen, wenn die extremsten Modellvorhersagen richtig sind, aber Beobachtungen zeigen, dass sie es nicht sind. Nur INM-CM4 stimmt mit den Beobachtungen einigermaßen gut überein, und INM-CM4 sagt nichts voraus, was auch nur annähernd einer Katastrophe gleichkommt.

Bei der Untersuchung des Evolutionsprozesses ist das Problem dasselbe. Einige glauben, dass der vorherrschende Prozess die natürliche Auslese und die epigenetische Veränderung gering ist. Andere glauben das Gegenteil. Jeder glaubt, dass beides eine Rolle spielt. Wie in der Klimawissenschaft ist es schwierig, herauszufinden, welcher Prozess vorherrschend ist.

Die jüngste Klimageschichte (der „Stillstand“ in der Erwärmung und die jüngste langsame Erwärmung) legt nahe, dass wir viel Zeit haben, dieses Problem in den Griff zu bekommen, bevor wir etwas Drastisches tun wie die Zerstörung der fossilen Brennstoffindustrie und die Verarmung von Milliarden von Menschen aufgrund des Mangels an erschwinglicher Energie. Wir schulden den billigen fossilen Brennstoffen heute viel. Darauf haben Roger Revelle [in deutscher Übersetzung beim EIKE hier] und seine Kollegen bereits im Jahre 1988 hingewiesen, und das gilt auch heute noch. Wenn die Projektionen in WC14 richtig sind, kann die „Pause“ noch eine ganze Weile andauern und uns viel mehr Zeit geben.

Zusammenfassend lässt sich sagen, dass die Wissenschaft ein Prozess der Widerlegung von Hypothesen ist, die vorgeben zu zeigen, wie und warum Naturereignisse stattfinden. Wissenschaft kann nicht dazu benutzt werden, etwas zu beweisen. Wissenschaftliche Gedanken und Hypothesen können vorgestellt werden, aber sie müssen falsifizierbar sein. Wenn niemand eine Hypothese widerlegen kann, überlebt sie. Wenn sie über einen längeren Zeitraum lebensfähig bleibt, wird sie zu einer Theorie.

Somit haben Klimawissenschaftler nicht bewiesen, dass der Mensch das Klima mit atmosphärischen Emissionen kontrolliert, und sie könnten es auch niemals tun. Sie haben auch nicht widerlegt, dass die Natur das Klima kontrolliert. Dies ist ihre Aufgabe, etwas, das sie tun müssen, wenn sie erwarten, dass sie jemals zeigen können, dass der Mensch das Klima kontrolliert. Es gibt reichlich Beweise dafür, dass die Natur und die Sonnenvariation eine große Rolle beim Klimawandel spielen. Es gibt auch ziemlich viele Beweise dafür, dass Treibhausgase eine kleine Rolle bei der Beeinflussung der globalen Erwärmung spielen, wie Lindzen und Choi (Lindzen & Choi, 2011), Lewis und Curry (Lewis & Curry, 2018) und (Lewis & Curry, 2015) zeigen. Der von Lewis und Curry berechnete Medianwert und die beste Schätzung liegt bei 1,5°C pro CO2-Verdoppelung (Lewis & Curry, 2018). Dies ist etwas weniger als die Sensitivität (~2°C), die aus dem russischen INM-CM4-Klimamodell berechnet wurde (Clutz, 2015). Ihr Wert ist viel geringer als die Sensitivität, die aus dem Durchschnitt der anderen Klimamodelle berechnet wurde (~3,1°C). Lindzen und Choi berechnen einen noch kleineren Wert, etwa 0,44°C pro CO2-Verdoppelung (ECS).*

[*Zu einer ordentlichen wissenschaftlichen Diskussion hätten hier auch die Arbeiten von Dr. Gerhard Stehlik erwähnt werden müssen, die dem Autor offenbar unbekannt waren. Auch die o. g. genannten Berechnungen der Klima-Realisten sind also nicht die eindeutige Wahrheit. Anm. d. Übers.]

Man kann nicht sagen, dass diese Papiere und andere Arbeiten von Klimaskeptikern die Hypothese widerlegen, dass der Mensch mehr Kontrolle über das Erdklima hat als die Natur und die Sonne, aber sie werfen erhebliche Zweifel an der Hypothese auf. Es gibt keine Daten, die die Hypothese einer drohenden Klimakatastrophe irgendeiner Art unterstützen. Es gibt Möglichkeiten, ein Klimamodell zu erstellen, das eine problematische Erwärmung in der fernen Zukunft zeigt, aber ein Modell kann so konstruiert werden, dass es alles heraus bekommt, was man will.

Wir haben versucht zu zeigen, wie Wissenschaft funktioniert, und zwar aus der Sicht eines Wissenschaftlers. Dann haben wir diese Methodik verwendet, um den Stand der Klimawissenschaft im Jahr 2020 aufzuzeigen. Klimawissenschaftler debattieren heftig über die Ursachen des Klimawandels heute und in Zukunft. Alarmisten haben Modelle verwendet, um eine drohende Klimakatastrophe zu prophezeien. Die Skeptiker haben anhand von Beobachtungen einen viel geringeren Einfluss von CO2 auf das Klima empirisch berechnet. Traditionell und praktisch herrschen Beobachtungen. Es scheint unwahrscheinlich, dass die Verbrennung fossiler Brennstoffe gefährlich ist.

Nichts ist klar, nichts ist bewiesen und nichts ist widerlegt. Dies ist ein stetig sich weiter entwickelnder Prozess.

Link: https://wattsupwiththat.com/2020/11/10/facts-and-theories-updated/

Übersetzt von Chris Frey EIKE

 




Welche Auswirkungen würde ein Leben ohne fossile Treibstoffe auf die Gesellschaft haben?

Der größte Teil der Weltbevölkerung lebt bereits ohne die Produkte und Treibstoffe aus Erdöl, während die gesünderen und wohlhabenderen Länder ihre Anstrengungen auf die Reduzierung ihrer Emissionen aus der Nutzung fossiler Brennstoffe wie Erdgas und Kohle konzentrieren und mittels umfangreicher Subventionen die intermittierende Stromerzeugung aus Wind- und Sonnenenergie in ihren Ländern beschleunigen. Bevor sie zu schnell in die sprichwörtliche Schlangengrube der „grünen“ religiösen Bewegung springen, sollten sich die Grünen Zeit nehmen, um zu antworten: Wie können wir unseren Lebensstil und unsere Wirtschaft aufrechterhalten, ohne wieder zu dem zurückzukehren, wie die Welt vor dem Jahr 1900 aussah?

Es ist fast unmöglich zu verstehen, dass fast die Hälfte der Welt – über drei Milliarden Menschen – von weniger als 2,50 Dollar pro Tag lebt. Heute gibt es in ganz Südasien, Teilen Europas sowie Teilen Afrikas und Australiens Familien, die sich abmühen, von praktisch nichts zu leben.

Ein komplexer Kompromiss im Zusammenhang mit politischen Entscheidungen, zu schnell in den GND einzusteigen, besteht darin, dass der Verzicht auf fossile Brennstoffe den 6 Milliarden Menschen auf dieser Welt, die von weniger als 10 Dollar pro Tag leben, den Zugang zu den 6.000 Produkten weiter erschwert und/oder verzögert, die wir in den wohlhabenden und gesunden Ländern genießen und die alle aus Ölderivaten hergestellt werden, von denen die meisten vor 1900 in den entwickelten Ländern noch nicht einmal existierten.

Zur Anschauung gibt es ein Diagramm von Leben ohne Öl und ein kurzes YouTube-Video von Leben ohne Öl, d.h. es ist nicht so einfach, wie man vielleicht denkt. Es ist vielleicht an der Zeit, an die unbestreitbare Wissenschaft zu glauben. Erneuerbare Energien können nur Strom erzeugen, und auch das allenfalls nur intermittierend. Absolutes Faktum ist, dass erneuerbare Energien KEINE der Ölderivate herstellen können, welche die Grundlage für Tausende von Produkten sind, auf deren Basis heute Gesellschaften und Volkswirtschaften auf der ganzen Welt leben.

Wenn man fossile Brennstoffe zu schnell eliminiert, führt das dazu, dass jedes Jahr 11 Millionen Kinder auf der Welt an vermeidbaren Ursachen wie Durchfall, Malaria, Neugeborenen-Infektionen, Lungenentzündung, Frühgeburt oder Sauerstoffmangel bei der Geburt sterben. Diesen Kindern in armen Ländern mangelt es noch immer an sauberem Trinkwasser, Abwasserentsorgung, angemessener Ernährung, zuverlässiger Elektrizität (wenn überhaupt), angemessener Gesundheitsversorgung und den Infrastrukturen und Produkten, die wir als selbstverständlich erachten und die alle auf Mineralien und Brennstoffen aus den Tiefen der Erde basieren. Übrigens leben die Erwachsenen in diesen armen Ländern kaum länger als 40 Jahre.

Man sollte sich darauf konzentrieren, all jene Produkte, für die wir seit fast 200 Jahren noch keine Klone oder Generika entdeckt haben, mit den unterentwickelten Ländern zu teilen, damit sie einen ähnlichen Lebensstil wie die wohlhabenden und gesunden Länder genießen können. Die wohlhabenderen entwickelten Länder haben auch Zugang zu Heizung, Klimaanlagen und Isolierung, wodurch wetterbedingte Todesfälle praktisch ausgeschlossen werden konnten.

Die gegenwärtige Leidenschaft, sich eine Welt mit intermittierender Elektrizität zu erschaffen, ist sich der unbeabsichtigten Folgen einer Welt ohne fossile Brennstoffe nicht bewusst. Die Unterzeichner der grünen Bewegung haben es versäumt, sich vorzustellen, wie das Leben ohne jene Industrie sein könnte, also vor dem Jahr 1900: KEINE Medikamente und medizinische Geräte, KEINE Impfstoffe, KEINE Wasserfiltersysteme, KEINE Abwassersysteme, KEINE Düngemittel, die Milliarden von Menschen ernähren könnten, KEINE Pestizide zur Bekämpfung von Heuschrecken und anderen Schädlingen, KEINE Kommunikationssysteme, einschließlich Handys, Computer und I-Pads, KEINE Fahrzeuge, KEINE Fluggesellschaften, die jetzt 4 Milliarden Menschen um die Welt befördern, KEINE Handelsschiffe, die jetzt monatlich Produkte im Wert von Milliarden Dollar um die Welt transportieren, KEINE Reifen für Fahrzeuge und KEIN Asphalt für Straßen und KEIN Weltraumprogramm. Wenn wir nur auf ein paar kurze Jahrhunderte zurückblicken, haben wir seit den Pioniertagen einen langen Weg zurückgelegt. Der Klimawandel mag ein wichtiges Thema sein, aber die wirtschaftliche Überlebensfähigkeit ist es auch.

Falls nicht mehr erinnerlich, wir hatten vor 1900 auch praktisch keine militärischen Flugzeugträger, Zerstörer, U-Boote, Flugzeuge und Panzer auf der ganzen Welt. Ein Hauptgrund dafür, dass sowohl der Erste als auch der Zweite Weltkrieg von den Alliierten gewonnen wurden war, dass sie über mehr Öl, Petroleum und Kohle verfügten als die Achsenmächte Deutschland, Italien und Japan, um ihre militärische Ausrüstung an Flugzeugträgern, Schlachtschiffen, Zerstörern, U-Booten, Flugzeugen, Panzern und Panzerungen, Lastwagen, Truppentransportern und Waffen zu betreiben.

Außerdem hatte die Welt vor 1900 nur sehr wenig Handel, und ohne Transport gibt es keinen Handel. Die beiden Zugpferde, die mehr für die Sache der Globalisierung getan haben als alle anderen sind der Dieselmotor und die Düsenturbine. Beide beziehen ihre Energie aus Öl. Straßen- und Flugverkehr dominieren heute das Leben der meisten Menschen.

Nach 1900 verfügen wir heute über Medikamente, Elektronik, Kosmetika, Kunststoffe, Düngemittel, Verkehrsinfrastrukturen und Tausende von Produkten, die aus den Derivaten des Rohöls gewonnen werden, darunter alle Teile* von Sonnenkollektoren und Windturbinen sowie die verschiedenen Brennstoffe, mit denen Flugzeuge, Lastwagen, Baumaschinen, Handelsschiffe, Kreuzfahrtschiffe und Autos weltweit betrieben werden.

[*Dieser Beitrag stammt zwar schon aus dem Jahr 2016, doch sollte man den darin beschriebenen Umstand lauthals immer wieder verkünden: Ohne fossile Treibstoffe gibt es keinerlei Solarpaneele und Windmühlen! Anm. d. Übers.]

Die Fragen, für deren Beantwortung sich Demonstranten gegen fossile Brennstoffe sowohl von der Demokratischen als auch von der Republikanischen Partei Zeit nehmen sollten, sind zweifacher Art: 1) Wie können wir zulassen, dass jedes Jahr 11 Millionen Kinder auf der Welt in den Entwicklungsländern an vermeidbaren Ursachen sterben? und 2) Wie werden wir uns an Lebensstile anpassen, wie sie vor dem Jahr 1900 gang und gäbe waren – also ohne Zugang zu den Tausenden von Produkten, die heute aus Erdölderivaten hergestellt werden, und zu den Brennstoffen, die von Fluggesellschaften, Handelsschiffen, Verkehrsinfrastrukturen und dem Militär benötigt werden und die es vor 1900 noch nicht gab?

[Hervorhebung vom Übersetzer]

Autor: Ronald Stein, P.E. is the co-author of the newly released book, “Just GREEN Electricity,” an internationally published columnist, and a policy advisor for The Heartland Institute.

Full Bio

Link: https://www.heartland.org/news-opinion/news/how-would-life-without-fossil-fuels-impact-society

Übersetzt von Chris Frey EIKE




Moderne Klimawandel-Wissenschaft

Sie liefern auch einen wahrscheinlichen Wert von 2,4°C auf Seite 9, obwohl sie auf Seite 2 einen Wert „nahe 3,0“ angeben. Der Wert auf Seite 9 ist nicht weit entfernt von der empirischen Schätzung von 2°C von Guy Callendar aus dem Jahr 1938, aber deutlich höher als der von Nic Lewis und Judith Curry (Lewis & Curry, 2018) angegebene Wert von 1,2°C bis 1,95°C (Bereich von 17% bis 83%, best estmate 1,5°C).

Das IPCC schätzt in seinem AR5-Bericht (Bindoff & Stott, 2013) die ECS auf einen Temperaturbereich zwischen 1,5°C und 4,5°C und liefert kein best estimate. Diese Spanne entspricht genau der des Charney-Berichts vor 34 Jahren. Während sich die empirischen, auf Beobachtungen basierenden Schätzungen deutlich verringert haben, hat sich die theoretische Bandbreite nicht verändert, obwohl Tausende von staatlich finanzierten Wissenschaftlern Milliarden von Dollar dafür ausgegeben haben. Die Daten sind heute sehr ähnlich, und es scheint keine Rolle zu spielen, dass sie mit leistungsfähigeren Computern und Milliarden von Dollar schneller ausgegeben werden. Mit Dung funktioniert es auf dieselbe Weise.

[Hervorhebung vom Übersetzer]

Wenn wir den AR5 genau unter die Lupe nehmen, wie es Monckton et al. in MSLB15 taten, einem Aufsatz mit dem Titel „Why Models run hot: results from a irreducially simple climate model“ (Monckton, Soon, Legates, & Briggs, 2015), sehen wir, dass die Elemente der theoretischen AR5-Berechnungen darauf hindeuten, dass sich der Bereich nach unten verengt. Angesichts des politischen Umfelds beim IPCC kann man leicht vermuten, dass die Politiker nicht zugeben wollen, dass die theoretischen Risiken des CO2-bedingten Klimawandels abnehmen. Je mehr empirische Schätzungen des CO2-Effekts erscheinen und je mehr theoretische Arbeit geleistet wird, desto mehr fragt man sich, wie lange die Politiker die deutlich überhöhte Spanne von 1,5°C bis 4,5°C noch unterstützen können.

Die Schätzungen der ECS sind seit langem rückläufig, wie Nicola Scafetta und Kollegen 2017 gezeigt haben. Abbildung 1 stammt aus ihrer Studie:

Abbildung 1: Der Rückgang der Schätzungen der ECS von 2000 bis 2015. Quelle: Scafetta, Mirandola und Bianchini, 2017.

In den 1980er Jahren wurde die Idee der katastrophalen, vom Menschen verursachten (oder anthropogenen) globalen Erwärmung (CAGW) entwickelt. Seitdem schlagen die Alarmisten Jahr für Jahr die Trommel. In den Vereinigten Staaten fand am 23. Juni 1988 im Dirksen-Senatsbürogebäude in Washington, DC eine Senatsausschusssitzung zum Thema CAGW statt, die von Senator Tim Wirth ausgerichtet wurde. Es war ein heißer und feuchter Tag im sumpfigen Washington, DC. Das Treffen war ein Wendepunkt, was nicht zuletzt Dr. James Hansen von der NASA zu verdanken war. In seiner Präsentation vor dem Kongressausschuss sagte er:

1988 ist es wärmer als jemals zuvor in der Geschichte der instrumentellen Messungen.

Alles in allem sind die Beweise dafür, dass sich die Erde um einen Betrag erwärmt, der zu groß ist, um eine zufällige Fluktuation zu sein, und die Ähnlichkeit der Erwärmung mit der durch den Treibhauseffekt zu erwartenden, ein sehr starker Fall. Meiner Meinung nach … ist der Treibhauseffekt entdeckt worden, und er verändert jetzt unser Klima.

Die gegenwärtig beobachtete globale Erwärmung liegt nahe 0,4 Grad C, relativ zur ‚Klimatologie‘, die als Mittelwert der dreißig Jahre (1951 – 1980) definiert ist. … können wir mit etwa 99-prozentiger Sicherheit feststellen, dass die gegenwärtigen Temperaturen eher einen echten Erwärmungstrend als eine zufällige Schwankung über den Zeitraum von 30 Jahren darstellen“. (Hansen, 1988)

ExxonMobil glaubte, dass die natürliche Variabilität ±0,5°C betrug. Man war der Meinung, dass eine Veränderung größer als diese sein musste, um signifikant zu sein. Offensichtlich schränkte Hansen diesen natürlichen Bereich irgendwie ein. Die Welt kühlte sich von 1944 bis 1977 global ab und begann sich dann 1978 zu erwärmen. Ein Anstieg von 0,4°C ist nicht viel, so dass die Verwendung dieses Wertes, um festzustellen, dass der „Treibhauseffekt“ nach einer langen Abkühlungsperiode festgestellt wurde, hätte Stirnrunzeln und Fragen hervorrufen müssen. Man beachte, dass Hansen „Treibhauseffekt“ sagt, wenn er den „vom Menschen verursachten Treibhauseffekt“ oder „verstärkter Treibhauseffekt“ meint. Es gibt einen natürlichen Treibhauseffekt, der durch natürliches CO2 und andere Treibhausgase, insbesondere Wasserdampf, verursacht wird. Dies ist der Beginn einer Täuschungstaktik, die von den Alarmisten häufig angewendet wird. Um die natürlichen Ursachen des Klimawandels zu ignorieren, setzen sie den „Treibhauseffekt“ mit dem „vom Menschen verursachten Treibhauseffekt“ gleich. Außerdem verwenden sie „globale Erwärmung“ als Synonym für „vom Menschen verursachte globale Erwärmung“, und „Klimawandel“ ist gleichbedeutend mit „vom Menschen verursachter Klimaänderung“. Diese Art von trügerischer und manipulativer Sprache wird auch heute noch verwendet.

Die IPCC-Berichte

Der erste IPCC-Bericht (FAR) unter dem Vorsitz von Bert Bolin stellte fest, dass die globale Erwärmung bis 1992, als der Bericht veröffentlicht wurde, in den Bereich der „natürlichen Klimavariabilität“ fiel und nicht unbedingt auf menschliche Aktivitäten zurückzuführen war (IPCC, 1990, S. XII). Sie hielten den eindeutigen Nachweis eines menschlichen Einflusses „für ein Jahrzehnt oder länger für unwahrscheinlich“. Bert Bolin war der Meinung, dass James Hansens Aussage im Kongress 1988 die Bedeutung der jüngsten globalen Erwärmung übertrieben habe.

Der zweite, 1996 veröffentlichte Bericht SAR kam zu dem Ergebnis, dass „die Abwägung der Beweise auf einen erkennbaren menschlichen Einfluss auf das globale Klima hindeutet“. (IPCC, 1996, S. 4). Dies basierte jedoch auf unveröffentlichten und nicht überprüften Arbeiten von Benjamin Santer und Kollegen. Seine Studie legte nahe, dass die Vorhersagen der Klimamodelle über die Erwärmung in der Troposphäre und die Abkühlung in der Stratosphäre dem entsprachen, was sich abspielte. Er nannte dies einen „Fingerabdruck“ des menschlichen Einflusses auf das Klima (Santer, et al., 1996a). Nach der Veröffentlichung der Studie stellte sich heraus, dass Santer bzgl. dieses Fingerabdrucks „Rosinenpickerei“ betrieben hatte (Michaels & Knappenberger, 1996). Die Studie wurde zurückgewiesen, und der IPCC wurde gedemütigt. Diese Demütigung wurde noch dadurch verstärkt, dass die für den IPCC verantwortlichen Politiker dabei erwischt wurden, wie sie die wissenschaftlichen Berichte innerhalb der SAR veränderten, um sie ihrer Summary for Policymakers anzupassen (Seitz, 1996).

Der 2001 veröffentlichte dritte Bericht TAR stellte fest, dass „der Großteil der in den letzten 50 Jahren beobachteten Erwärmung wahrscheinlich auf den Anstieg der Treibhausgaskonzentrationen zurückzuführen ist“. (IPCC, 2001, S. 10). Sie stützten diese Entscheidung auf den „Hockeyschläger“, der sich später als fehlerhaft erwies. Bis zur Veröffentlichung des vierten Berichts (AR4) im Jahr 2007 zeigten zahlreiche Untersuchungen des Hockeyschlägers, dass er fehlerhaft war und zu wenig Variabilität aufwies. Dies wurde im vierten Bericht, AR4, von Keith Briffa eingeräumt, der, etwas beschönigend, schrieb, dass der Hockeyschläger zu empfindlich auf bestimmte Proxies (Baumringe) und die statistischen Verfahren (Hauptkomponenten) reagierte, welche zu seiner Konstruktion verwendet worden waren (IPCC, 2007b, S. 436). Willie Soon und Sallie Baliunas zeigten, dass der Hockeyschläger nicht die Daten widerspiegelte, die zu seiner Konstruktion verwendet wurden (Soon & Baliunas, 2003). Der Hockeyschläger entpuppte sich als eine ausgeklügelte Fiktion, die einzig und allein aus einem fehlerhaften statistischen Verfahren und einem schlecht ausgewählten Satz von Temperaturproxies entstand (National Research Council, 2006, S. 112-116) und (Wegman, Scott, & Said, 2010, S. 4-5, 48-50).

Als AR4 im Jahr 2007 veröffentlicht wurde, hatte die Führung des IPCC aufgegeben, direkte Beweise dafür zu finden, dass der Mensch den Klimawandel beherrscht. Sie hatten es mit dem „Fingerabdruck“ von Santer und dem „Hockeyschläger“ von Michael Mann versucht und konnten die Öffentlichkeit mit beidem nicht überzeugen. So versuchten sie im AR4, die Öffentlichkeit mit Klimamodellen zu überzeugen, dass „der größte Teil des beobachteten Anstiegs der globalen Durchschnittstemperaturen seit Mitte des 20. (IPCC, 2007b, S. 10) sehr wahrscheinlich der beobachteten Zunahme von Treibhausgasen in der Atmosphäre geschuldet ist“. Sie präsentieren keine Beobachtungen, sondern lediglich Modellergebnisse. Der fünfte Bericht, AR5, war lediglich eine Wiederholung von AR4. Dieselben zwei Modelle, dasselbe Ergebnis. Wie bereits erwähnt, zeigte MSLB15 (Monckton, Soon, Legates, & Briggs, 2015), dass die neueren Ergebnisse des AR5-Modells darauf hindeuteten, dass die Schlagzeilen des IPCC die Empfindlichkeit des Klimas gegenüber CO2 überbewerten, aber dieses Ergebnis wurde im Bericht weder erklärt noch eingeräumt.

Während also die empirischen Berechnungen der Klimasensitivität gegenüber CO2 nun eine ECS zwischen 1,1°C und 2,45°C zeigen (siehe Tabelle 1), blieben die theoretischen Schätzungen bei 1,5 bis 4,5 – mit Ausnahme von AR4, als diese auf 2,0 bis 4,5 geändert wurde. Die Bereiche in Tabelle 1 sind allesamt 5% bis 95% Bereiche, soweit ich das beurteilen kann.

Tabelle 1. Verschiedene Schätzungen der ECS. Alle sind theoretische Berechnungen mit Ausnahme von Lewis und Curry, deren Schätzung auf Beobachtungen beruht:

Tausende von Wissenschaftlern und Milliarden von Dollar später haben wir also immer noch die gleiche theoretische Unsicherheit über die Auswirkungen von CO2 auf das Klima. Die einzige empirische Schätzung der ECS, die gezeigt wird, liegt bei etwa 1,5°C. Die meisten dieser empirischen Schätzungen liegen unter 2°C und gruppieren sich um 1,5°C bis 1,6°C (Lewis & Curry, 2018). Die empirische Schätzung von Guy Callendar lag bei 2°C (Callendar, 1938) und die theoretische Schätzung von Arrhenius (Arrhenius, 1908) bei 4°C. Man kann also sagen, dass die gesamte Arbeit und das Geld, das seit 1938 aufgewendet wurde, um den Klimawandel dem Menschen zuzuschreiben, verschwendet wurde.

[Hervorhebung vom Übersetzer]

Wird es nun besser? Wie steht es mit der neuesten Generation theoretischer Modelle, CMIP6? Erste Anzeichen deuten darauf hin, dass die Ergebnisse nicht besser, sondern schlechter werden, wie Ron Clutz und John Christy berichten. Während die meisten der neuen Modelle absurd überhöhte Werte für die ECS zeigen, ist es interessant, dass die neueste Version des russischen Modells, INM-CM4, auf das ich in meinem vorherigen Beitrag Bezug genommen habe, jetzt eine ECS von 1,83 vorhersagt. Mit Ausnahme des INM-CM4 haben wir also seit 1938 keine Fortschritte gesehen. Wie meine verstorbene Großmutter Marie McCartney sagen würde, „ist das jetzt nicht einfach großartig?“.

This is a condensed excerpt, with minor modifications, from my new book, Politics and Climate Change: A History.

To download the bibliography, click here.

Link: https://wattsupwiththat.com/2020/11/12/modern-climate-change-science/

Übersetzt von Chris Frey EIKE




Saisonale Viren-Todesfälle in Deutschland in 2020 sind erheblich niedriger als in 2017 und 2018.

Datenbasis

Wie im vorhergehenden Beitrag wird die Zahl der pro Zeiteinheit Verstorbenen zugrunde gelegt als der mit Abstand ‘härteste‘ Endpunkt eines ‘Gesundheits-‘ bzw. Krankheitsindikators. Fehler sind hier nur noch bei der zeitlichen Einordnung des Todesfalls möglich – wenn man absichtliche Unterschlagung oder Erfindung von Todesfällen bei den Meldeämtern sowie bei der datentechnischen Weiterverarbeitung ausschließt. Die Zahl der möglichen Fehler bei der ärztlichen Zuordnung von Todesursachen geht demgegenüber in die Myriaden. Sie können beruhen auf ‘ehrlichem‘ Irrtum, unzureichender Sorgfalt bzw. auch Fähigkeit – persönlich bedingt oder mangels Ausrüstung und Kapazität – bis hin zu tendenziöser bis bewusst falscher Diagnose. Wie viele der gemeldeten Influenza Opfer hauptursächlich an Influenza und nicht nur mit Influenza verstorben sind, das wird und kann in der Regel nie mit vertretbarem Aufwand diagnostiziert werden. Gleiches wie bei Influenza gilt für „an“ bzw. „mit“ Covid-19 Verstorbene. Somit bleibt die Gesamtzahl der Sterbefälle allen anderen Zahlen haushoch an Qualität überlegen.

Sterblichkeit insgesamt, Deutschland 2016 bis 2020

Im vorhergehenden Beitrag (hier) wurden die von DeStatis veröffentlichten Sterbefälle (hier) mit logarithmischer Skalierung der Y-Achsen präsentiert, weil nur so die Aufteilung der Sterblichkeit auf die verschiedenen Altersklassen optisch überhaupt erst sichtbar gemacht werden kann. Dem einen oder anderen Leser sowie Kommentator war die Interpretation dieser Kurven möglicherweise nicht geläufig. Abbildung 1 präsentiert jetzt die wöchentlichen Todesfälle der Jahre 2016 bis 2020 (2020 bis erste Oktoberwoche), und zwar diesmal nur die Todesfälle insgesamt in linearer Skalierung der Y-Achse. Die gestrichelten Geraden sind grobe Schätzungen des Verlaufs, den man erwarten würde, wenn die Sterblichkeit nur dem kalenderjährlichen Trend ohne die typischen winterlichen (meist) Virus bedingten Todesfälle verliefen und wie er auch während des Anstiegs in der zweiten Jahreshälfte in Erscheinung tritt.

Abbildung 1: Pro Kalenderwoche gemeldete Todesfälle insgesamt in Deutschland der Jahre 2016 bis 2020 (bis KW 41 in 2020). Gestrichelte Linien schätzen den Verlauf der Sterblichkeitbei Abwesenheit einer ‘Grippe‘ Welle. (eigene Graphik)

Überschuss-Sterblichkeit

Die gelbe Linie in Abb. 2 zeigt einen solchen jahreszeitlich typischen Verlauf der Sterblichkeit in den U.S.A. für die Jahre 2017 bis 2020. Um eine signifikante Zahl für die Überschuss Sterblichkeit schätzen zu können, ist dem tatsächlichen Verlauf noch die statistische Schwankungsbreite zu addieren. Nur das, was diese statistische Schwankung übersteigt, kann statistisch gesichert als Überschuss Sterblichkeit interpretiert werden. In Abb. 2 wurden entsprechende Wochen mit Überschuss Sterblichkeit vom US Center of Disease Control mit roten „+“-Zeichen markiert. Im Januar 2017 und 2018 wurden diese zusätzlichen Todesopfer durch Influenza Epidemien verursacht. In 2020 sind sehr markant die (mutmaßlichen) Opfer der Corona-CoV-2 Epidemie in den U.S.A. zu erkennen. Die Ende 2017/Anfang 2018 erkennbare Überschuss-Sterblichkeit war auch in Deutschland mit einem erheblichen Anstieg der Sterblichkeit zu registrieren.

Abbildung 2: Wöchentliche Gesamtsterblichkeit in den U.S.A der Jahre 2017 bis 2020. Die gelbe Linie stellt die Basis dar für die Schätzung der Exzeß Sterblichkeit in den mit roten „+“-Zeichen markierten Epidemien. Der markante Überschuß in 2020 wird der Covid-19 Epidemie zugeordnet. (Graphik modifiziert aus dieser Quelle [8. 11. 2020])

Überschuß Sterblichkeit Deutschland

Der in Abb. 2 realistische, gekrümmte Verlauf der gelben Linie wurde in Abb. 1 wie auch in Abb. 3 durch gerade Verbindungslinien zwischen den Fußpunkten der Peaks vergröbernd approximiert. Durch diesen geraden Verkauf sowie durch die Vernachlässigung der Schwankungsbreite werden die daraus ermittelten Überschuß Todesfälle überschätzt. Neben den Winter/Frühjahrs Toten unterbrachen in Deutschland im Hochsommer 2017, 2019 und 2020 weitere Sterblichkeitsgipfel den ansonsten mit der Erwärmung abnehmenden Trend der Sterblichkeit wie er in Abb. 2 erscheint. Diese Sterblichkeitsgipfel wurden mutmaßlich durch extreme Hitzeperioden mitverursacht.

Abbildung 3: Überschuss-Sterblichkeit in der jeweiligen ‘Grippe-Saison‘ der Jahre 2016 bis 2020. Für das Jahr 2018 demonstriert die logarithmische Darstellung die für Grippe Wellen typische Altersabhängigkeit der Sterblichkeit. Die Unsicherheit der grob geschätzten Zahlen in den Feldern unten links könnte bei einigen Hundert liegen. (eigene Graphik)

Die in den Feldern der Abb. 3 unten links gezeigten Zahlen geben die Summe der dort mit senkrechten gestrichelten Linien gezeigten Differenzen zwischen den Zahlen der gemeldeten Toten und den gemäß der gestrichelten Geraden zu erwartenden Zahlen der Toten bei ‘normalem‘, ungestörtem Verlauf der Sterblichkeit wieder. Mit anderen Worten, es ist eine Schätzung der durch diese ‘Grippe-‘ Wellen verursachten Überschuß Sterblichkeit. Die ‘Welle‘ Anfang 2017 begannt schon im Dezember 2016, weswegen die gestrichelte Linie nicht den Beginn trifft.

Die 15.361 für das Frühjahr 2020 geschätzten überschießenden Toten übersteigt noch deutlich die am 12.11.2020 in der Presse (z.B. hier) für das ganze Jahr 2020 bisher vermeldeten 11.618 Corona Todesfälle. Von einem Anstieg der Todesfälle ist im übrigen in den DeStatis Daten Anfang Oktober immer noch nichts zu erkennen. Im Gegenteil, die am 06.11. zuletzt veröffentlichten Zahlen zeigen für KW41 zunächst einen weiteren Abfall von 17.241 auf 16.925 Todesfälle insgesamt pro Woche. Die Altersabhängigkeit der Sterblichkeit, die ja charakteristisch für Viren Epidemien ist, wird für 2018 zusätzlich für die Altersklassen ab 50 bis über 95 Jahre gezeigt (Abb. 3, unten Mitte, wieder mit logarithmischer Y-Achse). Sie zeigt den für Viren Epidemien typischen Anstieg der Sterblichkeit mit dem Lebensalter während der ‘Grippe Welle‘. Unter 50 Jahren ist ein solcher Trend nicht erkennbar, weswegen er ausgeblendet wurde.

Rangordnung der Überschuss-Sterblichkeit der Jahre 2016 bis 2020

Abbildung 4: Überschuss-Sterblichkeit der während der winterlichen ‘Grippe‘ Wellen der letzten 5 Jahre verstorbenen Virenopfer. (eigene Graphik)

Ungeachtet der erheblichen Fehlerbreite dieser Schätzung lässt sich eine klare Rangfolge der Jahre anhand Zahl der Todesopfer aufstellen, die in den vergangenen fünf winterlichen ‘Grippe-Wellen‘ einem Virus zum Opfer fielen. Vor 2020 waren das keine SARS-CoV-2 Viren! Daß ausgerechnet in 2020 Influenza Viren völlig unbeteiligt gewesen sein sollen, das ist im übrigen sehr fraglich. Insofern sind unter den 15.361 Toten in Frühjahr 2020 sicher einige (wenige) Tausend der üblichen Influenza Opfer zu vermuten. Die Zahl dieser bisherigen Todesopfer des Jahres 2020 entspricht – gemessen an den Jahren 2019, 2018 und 2017 – nicht nur die Anzahl eines absolut (stink-) normalen oder durchschnittlichen Jahres. Die Zahl der Nicht-Covid-19 Toten der anderen drei Jahre übertraf sie deutlich um Faktoren, um bis zu beinahe einem Faktor 3.

Fragen ohne Antworten

Angesichts dieser Zahlen drängen sich einige Fragen auf: Warum haben in den Vorjahren die verantwortlichen, vorgeblichen Lebensschützer keinen Lockdown zur Vermeidung dieser insgesamt über 100.000 Todesopfer verordnet? Ein Lockdown hätte – ihrer eigenen gegenwärtigen Logik zufolge – in 2017, 2018 und 2019 weitaus mehr Menschen das Leben retten können, als bisher in 2020 an (oder auch nur mit) Corona verstorben sind. Wer zieht die Verantwortlichen für diese Vernachlässigung ihrer Sorgfalts- und Schutzpflicht für das Leben ihrer Untertanen in diesen vorhergehenden ‘Katastrophen-‘Jahren zur Verantwortung? Was motiviert 2020 bei bisher weitaus weniger Viren-Opfern die Verantwortlichen zu ‘Schutzmaßahmen‘, deren negative Nebenwirkung die Schutzwirkung sehr wahrscheinlich deutlich übertreffen wird?

Was führte zum Ausfall der Kontrollfunktion der für das Handeln oder Unterlassen der Regierungen verantwortlichen Parlamentariern? Der gleichen Parlamentarier, die die aktuellen Maßnahmen zur Strangulierung des öffentlichen und wirtschaftlichen Lebens mit ihren noch gar nicht absehbaren Spätfolgeschäden frag- und kritiklos so abnickten, wie sie ihnen von den Regierungen als alternativlos vorgesetzt wurden – inzwischen gewohnheitsmäßig wie in den letzten Jahren eingeübt. In der gleichen kritiklosen Manier, in der sie die alternativlosen Rettungsmaßnahmen des Klimas, des Euros (der Großbanken), Europas … abgenickt hatten. Was bewegt die Volksvertreter, dem an die Notverordnung unseligen Angedenkens erinnernden Abbau des Rechtsstaates und der Grundrechte zuzustimmen? Es scheint Zeitverschwendung zu sein, danach zu fragen.

Vollends Zeitverschwendung wäre es, nach der Kontrollfunktion der vierten Gewalt, der Verlautbarungsmedien zu fragen. Folglich wird auch kein Wähler danach fragen, so daß das ungehemmt weiter gehen wird – bis zum unvermeidlichen bitteren katastrophalen Ende. Mit Sicherheit wird es keine Klima-Katastrophe sein.




Junge – Mädchen

Zusätzlich zu meiner zugrunde liegenden Ketzerei betrachte ich die verschiedenen Klimaphänomene in einer Art und Weise, die manche Leute für rückständig oder unangemessen halten. Ich interessiere mich nicht so sehr dafür, wie diese Phänomene zusammenspielen. Stattdessen interessiert mich viel mehr, was sie tun, wenn sie eben das tun. Mir wurde gesagt, dass dies eine „funktionale“ Analyse einer Lage genannt wird, was sinnvoll ist – ich will die Auswirkungen eines Phänomens sehen.

Wenn ich einen funktionalen Analysestil anwende, kann ich beispielsweise feststellen, dass Gewitter nach genau demselben Prinzip funktionieren wie Ihr Haushaltskühlschrank. Und es führt auch zu meiner ketzerischen Sicht auf ein anderes aufkommendes, die Temperatur beeinflussendes Phänomen, das gemeinhin als „El Nino“ bezeichnet wird.

Schauen wir uns in aller Ruhe die Wechselwirkungen von El Nino/La Nina an und betrachten die auftauchenden Phänomene.

Lassen Sie mich zunächst die Erscheinung und die Klasse der Phänomene, die als „emergent“ bezeichnet werden, erörtern. Hier sind die bestimmenden Merkmale der verschiedenen Phänomene.

Auftauchende Phänomene erscheinen, oft sehr schnell, aus einem, wie man es nennen könnte, „eigenschaftslosen Hintergrund“ heraus. Zum Beispiel dämmert ein Tag in den tropischen Ozeanen typischerweise mit klarem Himmel an. Das bleibt so bis zum späten Vormittag, wenn sich plötzlich und ohne Vorwarnung aus dem nichtssagenden blauen Himmelshintergrund bauschige weiße Kumuluswolken bilden und den halben Himmel bedecken. Diese Kumuluswolken sind ein emergentes Phänomen.

Im Allgemeinen sind emergente Phänomene nicht das, was man als offensichtlich vorhersehbar bezeichnen könnte, bevor sie entstehen. Nehmen wir zum Beispiel an, man hätte sein ganzes Leben unter tropisch klarem, blauem Morgenhimmel gelebt, ohne jemals Wolken gesehen zu haben oder etwas über Wolken zu wissen. Auf keinen Fall würde man aufblicken und sagen: „Wissen Sie was? Ich glaube, ein ganzer Haufen riesiger weißer, bauchiger Massen könnte plötzlich weit oben am Himmel erscheinen!“ Die Leute würden einen als verrückt bezeichnen.

● Zweitens sind auftauchende Phänomene im Allgemeinen nicht von Dauer. Beispielsweise lösen sich die tropischen Kumuluswolken typischerweise vor Sonnenaufgang auf. Emergente Phänomene haben in der Regel eine Emergenzzeit, eine Lebensdauer und eine Dissipationszeit.

● Emergente Phänomene sind oft, aber bei weitem nicht immer, mit einem Phasenwechsel verbunden. Zum Beispiel sind die oben erwähnten Wolken mit Kondensation verbunden, d.h. einem Phasenübergang von Wasserdampf in der Luft zu winzigen Flüssigkeitströpfchen in den Wolken.

● Auftauchende Phänomene sind oft mobil und wandern durch die Landschaft. Ein hervorragendes Beispiel für diese Art emergenter Phänomene sind die bekannten „Staubteufel“, die sich häufig über trocken-heiße Landschaften bilden.

● Emergente Phänomene betreffen Strömungssysteme, die weit entfernt vom Gleichgewicht sind.

● Emergente Phänomene entstehen, wie der Name schon sagt, spontan unter bestimmten Bedingungen.

Die Bedingungen für diese Entstehung sind oft von Schwellenwerten abhängig. Sobald die Schwelle überschritten ist, können schnell viele Einzelbeispiele des Phänomens auftreten. Dies gilt zum Beispiel für die oben diskutierten tropischen Kumuluswolken. Wenn der Morgen warm genug und eine lokale Temperaturschwelle überschritten wird, bildet sich schnell aus dem Nichts ein Himmel voller Kumuluswolken.

Auftauchende Phänomene sind im Allgemeinen nicht zyklisch. Sie wiederholen sich nicht und bewegen sich auch nicht in vorhersehbarer Weise. Aus diesem Grund haben die Vorhersagen z. B. von tropischen Wirbelstürmen hinsichtlich ihrer Zugbahn immer eine Bandbreite.

Von den kleinsten bis zu den größten, die auftauchenden Phänomene, die meiner Meinung nach zusammenwirken, um die globale Temperatur zu regulieren, umfassen:

● Staubteufel

● Rayleigh-Benard Zirkulation der Atmosphäre und des Ozeans

● Tägliche Cumulus-Wolkenfelder

● Tropische (konvektive) Gewitter

● Sturmlinien und andere Gewitteransammlungen

● Tropische Wirbelstürme

● Der El Nino/La Nina-Umbau, diskutiert in diesem Beitrag

● Ozeanweite Schwingungen wie die Pacific Decadal Oscillation (PDO), Atlantic Multidecal Oscillation (AMO) und ähnliches.

All dies sind die Temperatur regelnde Phänomene. Wenn die lokale Temperatur ein bestimmtes Niveau überschreitet, treten sie auf und kühlen die Oberfläche auf verschiedenste Weise ab.

Mit dieser Diskussion über auftauchende Phänomene als Prolog wollen wir uns ansehen, was im Pazifik geschieht. Hier ist ein Film über die monatlichen Meeresoberflächentemperaturen (SSTs). Man achte besonders auf die Zunge kühleren Wassers, die sich in unterschiedlicher Entfernung von Südamerika entlang des Äquators erstreckt.

Abbildung 1. Monat für Monat Temperaturschwankungen, Reynolds optimal interpolierter Meeresoberflächentemperatur-Datensatz. Das blaue Kästchen zeigt den Bereich „NINO34“, von 5°N bis 5°S und von 170°W bis 120°W

[Hinweis: Das ist eine Animation. Falls diese hier nicht dargestellt wird, bitte im Original schauen. Anm. d. Übers.]

Wo in all dieser endlosen Bewegung sind also die El Nino und die La Nina? Hier ist eine Zeichnung der NOAA, die die normalen Bedingungen im Pazifik zeigt:

Abbildung 2: Die Karte (obere Fläche) zeigt den Pazifischen Ozean von Amerika (braune Fläche, rechter Rand) bis Australien (braune Fläche, linker Rand). Die Grafik zeigt die Meeresoberflächentemperatur (Farben von blau bis rot für kalt bis heiß), die atmosphärische Zirkulation (schwarze Pfeile), die Meeresströmung (weiße Pfeile) und die „Sprungschicht“ (blaues Untergrundblatt). Die Sprungschicht ist der Boden der gemischten Schicht – oberhalb der Sprungschicht vermischt sich der Ozean regelmäßig, und unterhalb der Sprungschicht findet nur eine geringe Vermischung statt. Infolgedessen ist das Wasser oberhalb der Sprungschicht wärmer, oft viel wärmer, als das Wasser unterhalb der Sprungschicht.

Zuweilen staut sich die Wärme jedoch im östlichen Pazifik in der Nähe von Amerika. In diesem Fall ändert sich sowohl die atmosphärische als auch die ozeanische Zirkulation, wie in Abbildung 3 dargestellt. Die Sprungschicht vertieft sich mit wärmerem Wasser nahe der Küste Amerikas:

Abbildung 3: El Niño-Bedingungen. Die Oberfläche in der Nähe von Amerika ist wärmer. Die Sprungschicht vor der Küste Amerikas ist tiefer.

Um von der Theorie zur Messung überzugehen, folgt hier ist die Meeresoberflächentemperatur (Abbildung 4) sowie die Anomalie derselben (jahreszeitliche Schwankungen heraus gerechnet, Abbildung 5) während eines El Niño:

Abbildung 4: Meeresoberflächentemperatur während des Höhepunktes (November) des großen El Nino von 1997-1998. Man beachte die hohe Wassertemperatur in dem blauen Rechteck, welches das NINO34-Gebiet umreißt. Die Temperatur in diesem Gebiet ist eine Diagnose des Zustands der Veränderung von El Nino/La Nina.

Abbildung 5: Anomalie der Meeresoberflächentemperatur (jahreszeitliche Schwankungen beseitigt) während des Höhepunktes (November) des großen El Nino von 1997-1998. Dies zeigt den großen Hitzestau entlang des Äquators im östlichen Pazifik in der Nähe des amerikanischen Kontinents.

Nachdem ein El Nino-Zustand seinen Höhepunkt erreicht hat, beginnt starker Passatwind in Richtung Asien zu wehen. Dieser bläst das warme Oberflächenwasser in Richtung Asien bis zu dem Punkt, an dem die Sprungschicht vor der Küste Amerikas ganz an die Oberfläche kommt. Wenn das warme Wasser auf die Küste Asiens trifft, spaltet es sich in zwei Hälften. Ein Teil geht in Richtung Arktis und der andere Teil geht in Richtung Antarktis. Hier ist die NOAA-Grafik, die die La Nina-Bedingungen zeigt:

Abbildung 6: Schematische Darstellung der La Nina-Bedingungen

Und wie oben gezeigt, ist unten ein tatsächlicher La Nina-Zustand dargestellt. Dies ist der La Nina-Höhepunkt desselben Nino/Nina-Zyklus in Abbildung 5, der 12 Monate zuvor, im November 1997, begonnen hatte.

Abbildung 7: Optimal interpolierte Wassertemperatur nach Reynolds im November 1988.

Und hier die Temperatur-Anomalie jener Zeit:

Abbildung 8: Abbildung 8. SST-Anomalie (saisonale Schwankungen entfernt) während eines La Nina-Höchepunktes.

Man beachte in Abbildung 8 oben, wie die Passatwinde die kühleren unterirdischen Gewässer über den gesamten äquatorialen Pazifik hinweg freigelegt haben. Sie wurden freigelegt, weil das warme Wasser nach Westen gedrückt wurde. Man erkennt, wie das warme Wasser, wenn es auf Asien/Australien trifft, meist in zwei Teile gespalten wird und sich in Richtung der Pole bewegt.

Nun sagte ich oben, dass ich eine Funktionsanalyse mache. Ich schaue nicht auf die Ursachen von El Ninos oder La Ninas. Ich versuche nicht, die Prozesse zu verstehen. Stattdessen schaue ich darauf, was sie bewirken.

Dabei sehe ich, dass es falsch ist, von El Nino und La Nina als getrennte Phänomene zu sprechen. Sie funktionieren zusammen als die größte Pumpe der Welt. Sie pumpen Billionen von Tonnen warmen äquatorialen Pazifikwassers polwärts. Es wird so viel Wasser gepumpt, dass die Höhe der äquatorialen Pazifikoberfläche sinkt, und der Effekt ist an den lokalen Pegeln sichtbar.

Abbildung 9: Die Nino/Nina-Unterschiede, wie sie durch die TAU/TRITON vertäuten Bojen entlang des Äquators gezeigt werden. Sie blicken nach Westen, über den Äquator im Pazifik, von einem Aussichtspunkt irgendwo in den Anden in Südamerika. Die farbigen Flächen zeigen die Meerestemperaturen von TAO/TRITON. Die obere Fläche ist die Meeresoberfläche, von 8°N bis 8°S und von 137°E bis 95°W. Die Form der Meeresoberfläche wird durch TAO/TRITON Dynamic Height-Daten bestimmt. Die breite vertikale Oberfläche liegt bei 8°S und erstreckt sich bis in 500 Meter Tiefe. Die schmalere vertikale Oberfläche befindet sich bei 95°W. Alle diese Daten stammen von der TAO/TRITON-Anordnung vertäuter Ozeanbojen im äquatorialen Pazifik.

Also … was passiert, wenn warmes Ozeanwasser zu den Polen transportiert wird? Es geht mehr Wärme an den Weltraum verloren. Abbildung 10 zeigt, wie viel aufsteigende Oberflächenstrahlung in den Weltraum gelangt, aufgeschlüsselt nach Breitengraden:

Abbildung 10: Abbildung 10. Menge der aufsteigenden Oberflächenstrahlung, die es in den Weltraum schafft, in einem Breitenband von 1°. Dies sind Monatsdurchschnitte über den gesamten Aufzeichnungszeitraum.

In Abbildung 10 oben liegt der tiefste Punkt bei etwa 7°N die Lage der ITCZ, der intertropischen Konvergenzzone. Wenn man beginnt, sich auf einen der beiden Pole zuzubewegen, gibt es eine sofortige und kontinuierliche Zunahme des Prozentsatzes der Wärmestrahlung an der Oberfläche, die in den Weltraum entweicht.

Angesichts der funktionalen Natur meiner Analyse nehme ich nun eine andere Identifizierung von „El Nino“ und „La Nina“ vor als die, die normalerweise angegeben wird.

Es gibt mehrere Indizes, die zur Bewertung der El Nino/La Nina-Bedingungen verwendet werden. Ein Beispiel für einen Index ist, dass „El Nino-Bedingungen“ Zeiten sind, in denen die Anomalie der Meeresoberflächentemperatur (SST) in der NINO34-Region (blauer Kasten) mehr als eine bestimmte Temperatur (oft um 1°C) wärmer ist als normal. Und „La Nina-Bedingungen“ sind Zeiten, in denen sie in der NINO34-Region (blue box) mehr als ein Grad kühler als normal sind. (Es gibt noch andere Identifikationen, aber sie alle identifizieren die Nino- und Nina-Bedingungen getrennt, und sie alle legen eine Temperaturschwelle für die Nino- und Nina-Bedingungen fest. Ich tue keines von beiden).

Ich betrachte sie nicht separat und habe auch keine festgelegten Temperaturen. Das liegt daran, dass ich sie nicht als separate Phänomene betrachte.

Im Gegensatz zu den Standarddefinitionen identifiziere ich das Nino/Nina-Phänomen als zusammenarbeitende Pumpe. Bei dieser Pumpe ist die El Nino die Spitze des Ansaughubs, und die La Nina ist die Spitze des Ausstoßhubs. Wir können diese Aktivität in einem Diagramm der Temperatur in der NINO34-Region sehen (blaues Rechteck in den obigen Diagrammen).

Abbildung 11. Meeresoberflächentemperatur im NINO34-Gebiet. Blaue Abschnitte zeigen die Zeiten, zu denen der Pumpvorgang stattfindet. Rote Punkte zeigen die Spitzenwerte der El Nino-Bedingungen und blaue Punkte die Spitzenwerte der La Nina-Bedingungen. Gepunktete vertikale weiße Linien zeigen den November eines jeden Jahres.

Ich habe die Zeiten des Pumpvorgangs blau hervorgehoben. Was mir zuerst an ihnen auffiel, ist das, was die Peruaner an ihnen bemerkt haben. Das ist, dass sie alle innerhalb eines Monats oder so im November beginnen und daher oft in der Nähe von Weihnachten stark sind … daher der Name „El Nino“ für den Baby Boy.

Mir ist noch eine andere Merkwürdigkeit aufgefallen. In allen hervorgehobenen Fällen beträgt die Dauer des Pumpvorgangs vom roten Punkt oben (Spitze „El Nino“) bis zum blauen Punkt unten (Spitze „La Nina“) ein Jahr plus oder minus einen Monat oder so. Auf diese Weise können wir die Pumpaktion von Nino/Nina von den normalen Temperaturschwankungen unterscheiden, die überall in der Natur vorkommen.

Die regelmäßige Länge des Entladungszyklus‘ von etwa 12 Monaten zeigt auch, dass die beiden (El Nino und La Nina) nicht als unabhängige Einheiten existieren. Stattdessen sind sie in einem einzigen größeren, einjährigen Phänomen eng miteinander verbunden.

Erinnern Sie sich nun daran, dass die Frage in der Funktionsanalyse lautet: Was bewirkt dieses einzelne größere kombinierte Nino/Nina-Phänomen?

Ich sage, dass die El Nino/La Nina-Pumpe ein emergentes Phänomen mit einer Lebensdauer von 12 Monaten ist. Es tritt auf, wenn im östlichen äquatorialen Pazifik genügend Wärme aufgebaut wird. Sie kühlt den äquatorialen Pazifik, und damit den gesamten Planeten, um

1) das warme äquatoriale Oberflächenwasser polwärts zu exportieren, wo die Wärme schneller in den Weltraum verloren geht, und durch

2) die kühlere Schicht unter der Ozeanoberfläche freizulegen, welche die Atmosphäre kühlt.

Die Funktion der El Nino/La Nina-Alteration besteht also darin, die Erde durch einen periodischen Pumpzyklus zu kühlen.

Wie viele andere sich abzeichnende Klimaphänomene ist es das, was ich als „Selbstverriegelung“ bezeichne. Damit meine ich, dass die Nino/Nina-Pumpe, sobald sie anspringt, Bedingungen schafft, unter denen sie sich selbst verstärkt und somit dazu neigt, sich zu halten.

Und so funktioniert das: Die Stärke der Passatwinde im äquatorialen Pazifik wird durch den Ost-West-Temperaturunterschied bestimmt. Jetzt, wo der Pumpvorgang im Gange ist, wird der Osten kühler, und das warme Wasser staut sich im Westen. Dadurch erhöht sich die Ost-West-Temperaturdifferenz, was wiederum die Ost->West-Windstärke erhöht, was wiederum die Temperaturdifferenz erhöht, was …

Dadurch wird es selbsthemmend, und dieses positive Feedback ist für die lange Dauer des Phänomens verantwortlich, sobald es einmal ausgelöst wurde. Sobald das Nino/Nina-Phänomen einsetzt, erzeugt es seinen eigenen Wind. Dadurch kann es weiterlaufen, bis das kalte Wasser entlang des gesamten Äquators offen ist, wie in Abbildung 8 oben erkennen.

Prognosen und Schlussfolgerungen

Nun, jede Theorie wie meine ist nur so gut wie ihre Vorhersagen. Wie kann ich also feststellen, ob die Nino/Nina tatsächlich ein aufkommendes Phänomen ist, das den Pazifik abkühlt, wenn sich überschüssige Wärme aufbaut?

Nun … wir könnten mit der Beobachtung beginnen, dass der Auslöser für den Pumpvorgang der Hitzestau im östlichen Pazifik ist. Die Form des Phänomens ist also offensichtlich temperaturbegrenzend (abkühlend) und thermisch schwellenwertbasiert (passiert eher, wenn es wärmer ist).

Was ich bis zu dieser Analyse nie herausgefunden hatte, war, wie man feststellen kann, ob das Nino/Nina-Pumpen-Phänomen insgesamt in wärmeren Zeiten häufiger oder stärker oder beides war als in kühleren Zeiten. Das Problem ist, dass wir bereits wissen, dass es durch überschüssige Wärme ausgelöst wird … aber nimmt es zu, wenn die überschüssige Wärme zunimmt? Und wie würde man diese Zunahme messen?

Ich habe erkannt habe, dass, wenn der Pumpvorgang in wärmeren Zeiten zunimmt, wie der aktuelle Reynolds SST-Rekord nach 1981, der eine allmähliche leichte Erwärmung der gesamten Ozeanoberfläche nachweist, wir unterschiedliche Erwärmungstrends im Pazifik sehen sollten.

Und wie das Muster von größeren und kleineren Trends aussehen sollte, ist das, wie es nach einem vollständigen Pumpzyklus aussieht – die Gebiete auf dem Weg zum Pol sollten wärmere Trends aufweisen, und der östliche Pazifik sollte kühler sein. Wenn die Anzahl der Nino/Nina-Zyklen zunimmt, wird sich die Energieübertragung im Trend zeigen. Der Trend sollte in dem Gebiet entlang des Äquators, wo die Pumpe kühleres Wasser freilegt, kleiner sein, und der Trend sollte dort größer sein, wo die Pumpe das warme Wasser bewegt, also westwärts und in Richtung der Pole.

So hat sich das am Ende des großen Nino/Nina-Zyklus 1997-1998 abgespielt. Zum Vergleich hier noch einmal Abbildung 8:

Und hier sind die Trends an der Meeresoberfläche während eines Zeitraums von 36 Jahren, als es, wie die Abbildung unten zeigt, eine leichte Erwärmung des SST gab (0,10°C pro Jahrzehnt):

Abbildung 12: Dekadische Trends der Meeresoberflächentemperatur.

Meine Schlussfolgerung aus der ausgeprägten Ähnlichkeit der beiden letzten Diagramme lautet, dass die Vorhersage meiner Theorie richtig ist – die Nino/Nina-Pumpe ist in der Tat ein die Temperatur regulierendes emergentes Phänomen, das einem Anstieg der Gesamttemperatur im tropischen Pazifik entgegensteht.

Link: https://wattsupwiththat.com/2020/11/08/boy-child-girl-child/

Übersetzt von Chris Frey EIKE




Zuverlässiger Strom? Ach was, Humbug!

Jetzt haben sie offenbar auch beschlossen, dass wir das intermittierende Fasten zu unserer Energiediät hinzufügen müssen, weil die Elektrizität in entwickelten Ländern wie den Vereinigten Staaten einfach zu zuverlässig ist, als dass es zu unserem eigenen Wohl wäre! Das Licht muss ab und zu ausgehen, oder, nun ja, der Planet ist dem Untergang geweiht.

Laut Hughes „könnte für diejenigen, die ernsthaft über den Klimawandel besorgt sind, der Umkehrschluss – die Forderung nach elektrischer Kontinuität – das eigentliche Problem sein“. Ja, Sie haben das richtig gelesen, der Wunsch, rund um die Uhr Strom zur Verfügung zu haben, ist die Ursache unserer globalen Klimakatastrophe, und wir müssen lernen, mit intermittierender Energie zu leben wie die glücklichen Camper in Simbabwe und Puerto Rico, die „Modelle für das liefern, was wir als Elektrizität voller Unterbrechungen bezeichnen könnten“.

Und wer ist der Erste auf der neuen Stromdiät? Warum Sie, Sie Einfamilienhaus-Umweltketzer? Hughes erklärt, dass „…jeder Haushalt, der kontinuierlich Strom nachfragt, die Klimakrise geringfügig verschärft. Vielleicht ist es dann entscheidend, dass wir keine Energie für diese Häuser speichern. Zumindest sollten wir dies nicht in einer Weise tun, die den Übergang von fossilen Brennstoffen behindert. Wir sollten erwägen, einige Jahre auf die Speicherung zu warten, die weit mehr als sechs Stunden Ausfallzeit pro Jahr ausmacht – um den Übergang weg von fossilen Brennstoffen zu beschleunigen“.

Sicherlich können Sie „ein paar Jahre“ mit zeitweiligen Stromausfällen und Stromausfällen umgehen, nicht wahr, Vorstädter?

Diese Energie-Rationierungsagenda wurde bisher durch eine Vielzahl von Scheinversprechungen verdeckt, die den Umstieg auf erneuerbare Energien erleichtern würden. Die Batterien, so wurde uns gesagt, werden sich so schnell anpassen, dass wir einfach Wind- und Solarenergie ausbauen können, während wir konventionelle Kraftwerke verkümmern und sterben lassen, und jeder wird seinen Kuchen haben und ihn auch essen! Leider ist die Realität der Einschränkungen bei der Batteriespeicherung für Menschen, die Tag für Tag die Realität der Batterien sehen, einfach zu offensichtlich: Sie werden mit der Zeit nicht mehr so viel stärker. Mark Mills vom Manhattan Institute weist auf Folgendes hin (und es empfiehlt sich, alles zu lesen!):

 Etwa 60 Pfund Batterien werden benötigt, um das Energieäquivalent von einem Pfund Kohlenwasserstoff zu speichern.

 Für jedes hergestellte Pfund Batterie werden mindestens 100 Pfund Material abgebaut, bewegt und verarbeitet.

 Für die Speicherung des Energieäquivalents von einem Barrel Öl, das 300 Pfund wiegt, werden 20.000 Pfund Tesla-Batterien (im Wert von 200.000 Dollar) benötigt.

Die Beförderung des Energieäquivalents des Flugbenzins eines Flugzeugs, das nach Asien fliegt, würde Batterien vom Typ Tesla im Wert von 60 Millionen Dollar erfordern, die fünfmal schwerer sind als dieses Flugzeug.

Und selbst Hughes gibt jetzt zu, dass die Herstellung von Batterien umweltschädlich ist, und Umweltschützer wollen nicht, dass Sie das tun, selbst wenn Sie es können. Schließlich sind Batterien einfach nicht umweltfreundlich:

Lithium-Ionen-Batterien sind auf dem besten Weg, diese Beschränkung zu überwinden, aber sie schaffen eigene Probleme. Wie bei den meisten Formen des Bergbaus entstehen auch bei der Lithiumgewinnung Giftstoffe, die in diesem Fall bei den einheimischen Abwicklern in Chile anfallen. Wie der Bergbau konzentriert auch der Lithiumhandel Macht und Reichtum in den Händen weniger Konzerne. Dieser Prozess, der manchmal als „Engpass“ bezeichnet wird, verwandelt eine Ressource, die zu reichhaltig für Profit ist – wie Sonnenlicht – in ein knappes und lukratives Gut. Nicht einmal der Umweltretter Elon Musk ist vor Missbrauch sicher, denn, so scheint es, Tesla „scheint auf dem Weg zu sein, einen kontrollierenden Anteil an jedem intelligenten Stromnetz zu erlangen, das an Elektrofahrzeuge angeschlossen ist; seine Powerwall-Batterie ist den weniger giftigen Technologien überlegen, und sie könnte sich schließlich mit einer Software verzahnen, die als ‚Reaktion auf die Nachfrage‘ bekannt ist“.

Oh, mein Gott! Sie meinen, Elon Musk ist ein Geschäftsmann? Nicht doch!

Die Moral dieser Geschichte ist, wenn die Typen „grüne“ Energie, „grüne Wirtschaft“, „Green New Deal“ sagen, dann drücken sie damit nur aus, dass Sie weniger haben sollen. Weniger Menge, weniger Zuverlässigkeit, weniger Erschwinglichkeit und weniger Flexibilität für die Verbraucher. Und das können Sie an die Wahlurne bringen.

Autor: Kenneth Green has studied energy and environmental policy at free-market think tanks in North America for over 20 years. He holds a Doctoral degree in Environmental Science and Engineering from UCLA, and has over 850 publications to his credit.

Link: https://www.cfact.org/2020/11/01/reliable-electricity-bah-humbug-kpg/

Übersetzt von Chris Frey EIKE




„Globale Abkühlung wird uns alle umbringen“

Versuche des berüchtigten William Connolley, der in einem vergeblichen Versuch, die Geschichte mit der willkürlichen Veränderung von 5428 Wikipedia-Einträgen zu verändern und den „Global Cooling Scare“ aus dem Internet zu löschen, scheiterten. Wie James Delingpole in The Telegraph erklärt, verwandelte Connolley Wikipedia systematisch in eine Maschine, welche die vom Menschen verursachte globale Erwärmung vor sich her peitschte (Delingpole, 2009). Er schrieb Artikel zur globalen Erwärmung, zum Treibhauseffekt, zu Klimamodellen und zur globalen Abkühlung um. Dabei versuchte er, die mittelalterliche Warmzeit und die kleine Eiszeit auszulöschen. Auf den Seiten von Wikipedia machte er berühmte Klimawissenschaftler, die der vom Menschen verursachten globalen Erwärmung skeptisch gegenüberstanden, wie Richard Lindzen, Fred Singer, Willie Soon und Sallie Baliunas, nieder. Außerdem hinderte er die Menschen daran, seine Lügen zu korrigieren.

William Connolley ist mit Michael Mann und seinem Hockeyteam befreundet, zu welchem auch Phil Jones und Raymond Bradley gehören. Er ist auch Mitbegründer der alarmistischen Website Realclimate.org. Offensichtlich sorgte Connolley dafür, dass Mann und Bradley bei Wikipedia glühendes Lob erhielten, bis er 2009 gefeuert und als Wikipedia-Administrator abgesetzt wurde (Delingpole, 2009).

Es überrascht uns nicht, dass Connolley als Koautor der von Fachkollegen begutachteten Studie „The Myth of the 1970s Global Cooling Scientific Consensus“ in BAMS [= Bulletin of the American Meteorological Society] auftaucht, das von Thomas Peterson, William Connolley und John Fleck verfasst wurde (Peterson, Connolley, & Fleck, 2008). Das Papier ist Unsinn und macht keinen Unterschied, weil Fakten stur sind. Dass die Studie die Begutachtung bestanden hat, zeigt, wie korrupt die Klimawissenschaft geworden ist. Die Einleitung darin liest sich so:

In den 1970er Jahren gab es keinen wissenschaftlichen Konsens darüber, dass die Erde auf eine bevorstehende Eiszeit zusteuerte. Tatsächlich dominierte die Möglichkeit einer anthropogenen Erwärmung schon damals die von Experten begutachtete Literatur“. (Peterson, Connolley, & Fleck, 2008)

Abbildung 1. Rekonstruktion der globalen Durchschnittstemperatur seit 1850 seitens U.K. Met Office Hadley Centre und der Climatic Research Unit (CRU) an der University of East Anglia. Sie zeigt, wie auch andere Rekonstruktionen, eine globale Abkühlung um etwa 0,09°C (0,16°F) von 1944 bis 1977.

Die globale Abkühlungsangst der 1960er und 1970er Jahre war vorhanden: Sowohl Klimawissenschaftler als auch die Öffentlichkeit befürchteten, dass sich der globale Abkühlungstrend, der in den 1940er Jahren begann (siehe Abbildung 1), fortsetzen und die Welt sehr kalt werden, vielleicht sogar zu einer Gletscherperiode zurückkehren würde, wie sie vor etwa 11.700 Jahren zu Beginn des Holozäns endete.

Die Studie von Peterson, et al. sucht sich ebenso sorgfältig wie willkürlich 71 Studien heraus und behauptet, dass nur sieben davon zwischen 1965 und 1979 der „Konsens“-Position widersprachen, der zufolge die globale Erwärmung in der Zukunft stattfinden würde. Sie fanden 20, die eine neutrale Position vertraten und 44, die mit dem Konsens über die globale Erwärmung übereinstimmten. Aber die Welt kühlte sich damals ab und zwar seit 1944. Kenneth Richard untersuchte dies und erweiterte den Zeitrahmen auf 1960 bis 1989. Richard fand 285 Studien, die nicht mit der „Konsens“-Position übereinstimmten, dass die globale Erwärmung in der Zukunft stattfinden würde (Richard, 2016).

Von diesen 285 Beiträgen diskutierten 156 die Abkühlung seit 1940 und sagten eine zukünftige Abkühlung voraus. Sieben versuchten zu zeigen, dass CO2 die Abkühlung verursachen könnte. Eine vollständige Liste der Beiträge kann von Kenneth Richards Beitrag heruntergeladen werden. Die Panikmacher fälschten die Zahlen, um einen 97%igen Konsens darüber zu zeigen, dass der Mensch die globale Erwärmung verursacht hat, dann fälschten sie auf die gleiche Weise den Konsens über die globale Kühlung.

Angus McFarlane nahm die von Kenneth Richard und Peterson u.a. erstellten Datenbanken, führte sie zusammen (es gab 16 Duplikate) und führte dann eine eigene unabhängige Suche durch. Er fand zwei weitere relevante Studien, die nicht bereits in einer der beiden Datenbanken enthalten waren. Dann eliminierte er die Studien, die außerhalb des ursprünglichen Zeitraums von 1965-1979 von Peterson et al. lagen.

McFarlanes Datenbank ist kleiner als die von Richard und enthält nur 190 relevante Arbeiten, aber das sind 119 mehr als die von Peterson u.a. gefundenen, und sie decken den gleichen Zeitraum ab. McFarlanes Durchsicht der Arbeiten ergab, dass 86 eine künftige Abkühlung, 58 eine neutrale und 46 eine Erwärmung vorhersagten. Von den 86 Abkühlungs-Studien sagten 30 eine mögliche neue „Eiszeit“ voraus. Streng genommen befinden wir uns nun aber in einer Eiszeit, was bedeutet, dass eine neue Eiszeit gemeint ist, in der sich das Eis zu einem neuen großen neuen Maximum ausdehnt wie vor 19.000 Jahren im letzten großen Gletschermaximum. Die 86 Abkühlungs-Studien machen 45% der Gesamtzahl aus. Wenn wir die neutralen Papiere ignorieren, wie es John Cook, et al. (Cook, et al., 2013) in seiner 97%-Konsensstudie taten, dann machen die Abkühlungspapiere 65% der Papiere aus, die eine Stellungnahme abgegeben haben. Wenn wir Cooks Regeln verwenden, können wir bequemerweise behaupten, dass es 1979 einen globalen Konsens bzgl. Abkühlung gab.

Als sich jedoch der Abkühlungstrend Mitte des zwanzigsten Jahrhunderts umkehrte und zu einem Erwärmungstrend wurde, dauerte es nicht lange, bis sich auch der „Konsens“ umkehrte. Der globale Oberflächentemperatur-Trend änderte sich um 1977 in Erwärmung (etwa 0,017°C/Jahr, wie in der Grafik dargestellt), und die von Experten begutachteten Klimastudien von 1977-1979 änderten sich in ein Verhältnis von 52% pro Erwärmung zu 48% pro Abkühlung, eine knappe Mehrheit der Erwärmungs-Studien, wobei die neutralen Studien ignoriert wurden. In den 1980er Jahren änderten sich der Trend in den Studien schnell auf Pro-Erwärmung.

[Hervorhebung vom Übersetzer]

Mitte der siebziger Jahre berichtete die Presse, dass ein Konsens von Klimawissenschaftlern glaubte, die Welt kühle sich ab und die Abkühlung werde sich fortsetzen (Struck, 2014). Artikel über den Abkühlungskonsens erschienen in Newsweek, Time, der New York Times und National Geographic. Eine bahnbrechende Geschichte von Peter Gwynne in Newsweek vom 28. April 1975 war typisch (Gwynne, 1975). Sie trug den Titel „The Cooling World“. Im überhitzten Stil der Newsweek beginnt der Artikel: „Es gibt unheilvolle Anzeichen dafür, dass sich die Wettermuster der Erde dramatisch zu verändern begonnen haben“. Später in dem Artikel erklärt Gwynne atemlos: „… das Klima der Erde scheint sich abzukühlen … und die daraus resultierenden Hungersnöte könnten katastrophal sein“. Zu Gwynne’s zitierten Quellen gehören die National Academy of Sciences, Murray Mitchell (NOAA), George Kukla (Columbia University), James McQuigg (NOAA’s Center for Climatic and Environmental Assessment) (Gwynne, 1975).

Anders als viele seiner Kollegen änderte George Kukla von der Columbia University und dem Lamont-Doherty Earth Observatory seine Ansicht über einen langfristigen globalen Abkühlungstrend nicht. Als er am 31. Mai 2014 traurigerweise verstarb, glaubte er immer noch, dass in der Zukunft, vielleicht in 5.000 Jahren, eine neue massive Eiszeit beginnen würde. Javier Vinós sagt in seinem Blogbeitrag über „The next glaciation“ (Vinós, 2018) voraus, dass die nächste große Eiszeit in 1500 bis 2500 Jahren beginnen würde. Es ist ein Glück, dass beide Vorhersagen weit in der Zukunft liegen.

Wenn die nächste globale Abkühlungsperiode beginnt, was unvermeidlich der Fall sein wird – werden Klimawissenschaftler dann mehr Studien bzgl. globaler Abkühlung schreiben? Warum sollten wir Klimawissenschaftlern glauben, die sagen, dass sich die Welt jetzt gefährlich erwärmt, während sie noch vor 50 oder 60 Jahren sagten, dass sie sich gefährlich abkühlt? Eine vernünftige Frage. Welche direkten Beweise sind aufgetaucht, die sie überzeugt haben, den Kurs umzukehren? Wir hatten einen Konsens für die Abkühlung, als sich die Welt abkühlte, jetzt haben wir einen Konsens für die Erwärmung, und die Welt erwärmt sich. Ist das alles, was es dazu zu sagen gibt? Beides sind Hypothesen – was lässt sie zu Fakten oder Theorien werden?

Hypothesen sind spekulative Ideen. Ein echter Wissenschaftler fragt: „Ist das so? Sagen Sie mir, warum Sie das denken!“ Mit einem strengen wissenschaftlichen Verfahren muss nachgewiesen werden, warum beobachtete Ereignisse wie die globale Erwärmung oder Abkühlung eintreten. Zu zeigen, dass sie potenziell gefährlich sind, erfordert sogar noch mehr Arbeit.

Konsens ist eine politische Sache. Die Öffentlichkeit bildet eine Konsensmeinung, stimmt dann ab und erlässt Gesetze oder Regeln, die diese Meinung reflektieren. In der Wissenschaft entwickeln wir zunächst eine Hypothese oder einen Gedanken, der ein beobachtetes Naturphänomen, wie z.B. eine Erwärmung oder Abkühlung, erklärt. Der nächste Schritt ist der Versuch, dies zu widerlegen. Wenn das nicht gelingt, überlebt die Hypothese. Wir veröffentlichen, was wir getan haben, und andere versuchen, die Hypothese zu widerlegen; wenn auch sie das nicht schaffen, überlebt sie. Wenn dies lange genug so weitergeht, wird der Gedanke zu einer Theorie. Eine wissenschaftliche Theorie überlebt einfach, sie wird nie bewiesen, sie muss immer einer Prüfung unterzogen werden.

Wir haben bereits erwähnt, dass sieben der von Angus McFarlane und Kenneth Richard untersuchten Papiere darauf hinwiesen, dass CO2 eine globale Abkühlung verursachen könnte. Ein gutes Beispiel ist Sherwood Idsos Beitrag von 1984 im Journal of Climatology. Das Papier trägt den Titel [übersetzt] „Was ist, wenn ein Anstieg des atmosphärischen CO2 einen umgekehrten Treibhauseffekt hat?“ (Sherwood Idso, 1984). Idso spekuliert, dass zusätzliches CO2 die Pflanzen dazu veranlassen wird, in trockenere Gebiete zu ziehen, weil zusätzliches CO2 bewirkt, dass die Pflanzen weniger Wasser für ihr Wachstum verbrauchen. Idso glaubt, dass dies die Albedo (Reflexionsvermögen) der Erde so verändern könnte, dass die Temperaturen sinken. In ähnlicher Weise spekulierten Richard Lindzen und Yong-Sang Choi, dass zusätzliches CO2 die Luftfeuchtigkeit in den Tropen und damit die Bewölkung erhöhen würde (Lindzen & Choi, 2011). Extrem kleine Veränderungen der durchschnittlichen Bewölkung können tagsüber einen großen kühlenden Effekt haben.

Peter Webster präsentiert eine interessante Diskussion über Sherwood Idsos Arbeit in seiner Klimawandel-Studie „The Carbon Dioxide/Climate Controversy: Some Personal Comments on Two Recent Publications“ (Webster, 1984). Neben einer interessanten Diskussion über die Emotionen, die mit der Debatte über den vom Menschen verursachten Klimawandel verbunden sind, können wir aus Websters Diskussion und Idsos Papier ersehen, wie wenig wir wirklich über die Auswirkungen von zusätzlichem CO2 in der realen Welt wissen. Winzige Veränderungen in der Albedo der Erde, sei es durch Bewölkung oder durch die Verteilung von Pflanzen, können einen großen Unterschied machen.

Empirische Schätzungen der ECS (die Veränderung der Lufttemperatur aufgrund der Verdoppelung der CO2-Konzentration) haben nie mit theoretischen Berechnungen aus Klimamodellen übereingestimmt. Die empirischen Werte (wie die von Idso oder die von Lindzen und Choi) sind normalerweise nur etwa halb so groß wie die Modellschätzungen und können wie die von Idso sogar negativ sein. Dies ist wahrscheinlich, weil den Modellen etwas fehlt – u. A. vielleicht mögliche zukünftige Veränderungen der Albedo durch wechselnde Bewölkungsverhältnisse und die Verbreitung von Pflanzen.

This post is condensed and modified from my new book, Politics and Climate Change: A History.

To download the post bibliography click here

Link: https://wattsupwiththat.com/2020/11/05/global-cooling-will-kill-us-all/

Übersetzt von Chris Frey EIKE




Fabrikation von Irrefüh­rungen bzgl. Klima­wandel

Obwohl wir eindeutig keine Verschwörungstheoretiker sind, war die vom Menschen verursachte globale Erwärmung oder der Klimawandel (man suche sich etwas aus) ein Mechanismus, der in der ganzen Welt genutzt wurde, um Regierungen dazu zu bringen, zu einer Eine-Welt-Regierung zu konvergieren und den Kapitalismus zugunsten des Weltsozialismus zu zerschlagen. Das Mittel der Wahl ist die Verwendung gut gewählter Fakten, wobei Fakten, die nicht als nützlich erachtet werden, beiseite geschoben werden, um zu täuschen. In der Wissenschaft nennt man das „Cherry Picking. Da es an Ethik mangelt, wählt man nur die Fakten aus, die seine Überzeugungen unterstützen, während man diejenigen ignoriert, die das nicht tun.

Im ersten Teil dieser zweiteiligen Serie verwendeten wir Material direkt aus Regierungsberichten, in denen auf die fehlenden Informationen hingewiesen wurde, um der Öffentlichkeit eine unehrliche Darstellung der Informationen zu liefern. Das tun wir auch hier.

Mit diesem Artikel können wir veranschaulichen, wie NASA/NOAA und das IPCC die Täuschung fördern, indem sie durch absichtliche Auslassungen ein falsches Verständnis bei unbedarften Lesern erzeugen. In diesem Aufsatz konzentrieren wir uns auf die letzte Hälfte des Artikels, in der die NASA in ihren Bemühungen, den Leser davon zu überzeugen, dass die Menschheit den Thermostat der Erde kontrolliert, die Kommentare der NASA zu Mars, Venus und unserer Sonne wiedergibt.

Der Artikel ist von der National Aeronautics and Space Agency (NASA), die am 16. September 2020 erschien, wird ohne Änderungen außer der Formatierung zum bequemen Lesen wiedergegeben. Das Original finden Sie, wenn Sie hier klicken. Vielleicht möchten Sie zuerst das Original lesen.

Kursiv gesetzt kommentieren wir im Anschluss an jedes letzte Segment des NASA-Artikels die von der NASA erzeugten Täuschungen. Ohne Kenntnis aller Fakten wird der Gelegenheitsleser zu dem vom Autor gewünschten falschen Eindruc k gelangen. Ein Beispiel dafür, wie unvollständige Informationen einen falschen Eindruck erwecken, ist in Abbildung 1 dargestellt:

Hier betrachten wir alle verfügbaren Daten über die Beziehung zwischen A und B, bei denen es sich um abhängige Variablen handeln könnte, z.B. wie A (Sonnenstrahlung) und B (atmosphärische Temperatur) miteinander variieren. Betrachtet man alle Daten, so ist die als Trend 1 dargestellte Beziehung eindeutig richtig. Wenn wir uns jedoch dafür entscheiden, nur eine kleine Auswahl von Daten zu verwenden, können wir zu jedem gewünschten Trend gelangen. Dies ist die Technik, die viele Regierungsbehörden anwenden, um falsche Eindrücke zu erwecken.

Nicht genug Treibhaus-Effekt: [11] Der Planet Mars hat eine sehr dünne Atmosphäre, die fast ausschließlich aus Kohlendioxid besteht. Wegen des niedrigen atmosphärischen Drucks und mit wenig bis gar keinem Methan oder Wasserdampf, die den schwachen Treibhauseffekt verstärken, hat der Mars eine weitgehend gefrorene Oberfläche, die keine Anzeichen von Leben zeigt.

[11] Eine wahrheitsgemäße Aussage impliziert eine glatte Täuschung. Der Mars ist aus vielen Gründen ein toter Planet, von denen keiner etwas mit CO2 oder menschlichen Aktivitäten zu tun hat.

Zu viel Treibhauseffekt: [12] Die Atmosphäre der Venus besteht, wie die des Mars, fast ausschließlich aus Kohlendioxid. Aber auf der Venus befindet sich etwa 154.000 Mal so viel Kohlendioxid in der Atmosphäre wie auf der Erde (und etwa 19.000 Mal so viel wie auf dem Mars), was einen unkontrollierbaren Treibhauseffekt und eine Oberflächentemperatur erzeugt, die heiß genug ist, um Blei zu schmelzen.

[12] Die NASA führt uns erneut durch Unterlassung in die Irre. Die Venus ist viel näher an der Sonne und heißer. Ihre Atmosphäre ist 90-mal dichter als die der Erde, und ihr barometrischer Druck würde einen Menschen zu einem Pfannkuchen zerdrücken. Die Venus ist eine wahre Hölle und aus vielen anderen Gründen als CO2 lebensfeindlich.

Auf der Erde verändern menschliche Aktivitäten [13] das natürliche Treibhaus. Im letzten Jahrhundert hat die Verbrennung fossiler Brennstoffe wie Kohle und Öl die Konzentration des atmosphärischen Kohlendioxids (CO2) erhöht. Dies ist darauf zurückzuführen, dass bei der Verbrennung von Kohle oder Öl Kohlenstoff mit Luftsauerstoff zu CO2 gebunden wird. In geringerem Maße hat die Rodung von Land für Landwirtschaft, Industrie und andere menschliche Aktivitäten die Konzentration von Treibhausgasen erhöht.

[13] Die NASA macht mehrere sachliche Aussagen, aber sehen wir, was sie uns nicht sagt. Verschwiegen werden die proportionalen Werte und der vergleichende Kontext. Zum Beispiel: (1) Ja, wir haben einen Anstieg des gesamten CO2 verursacht, aber es wird nicht erwähnt, dass der vom Menschen verursachte Anstieg vielleicht nur ein paar Prozent des gesamten CO2 ausmacht. (2) Die NASA versäumt es, uns zu sagen, welche und wie viel Prozent der Folgen auf den Menschen zurückzuführen sind. Eine detaillierte Erklärung aller Variablen und ihrer vergleichenden Beiträge finden Sie in dem Buch „A HITCHHIKER’S JOURNEY THROUGH CLIMATE CHANGE“.

[14] Die Folgen der Veränderung des natürlichen atmosphärischen Treibhauses sind schwer vorherzusagen, aber bestimmte Effekte scheinen wahrscheinlich:

[14] Beachten Sie bei den folgenden vier Punkten die wiederholte Verwendung der Worte „wahrscheinlich“, „könnte“, „möglicherweise“. Unter dem Strich weiß die NASA nicht, was erhöhte oder verminderte CO2-Konzentrationen in der Atmosphäre bewirken. Dies gilt insbesondere für Wolken in den Phasenumwandlungen von Wasserdampf in flüssig oder fest. Und auch die klassischen skeptischen Wissenschaftler wissen es nicht. Die Wissenschaft ist einfach zu schwierig, nicht gut verstanden und unmöglich genau zu modellieren.

● Im Durchschnitt wird die Erde wärmer werden. Einige Regionen mögen wärmere Temperaturen willkommen heißen, andere hingegen nicht.

● Wärmere Bedingungen werden wahrscheinlich insgesamt zu mehr Verdunstung und Niederschlag führen, aber die einzelnen Regionen werden unterschiedlich sein, einige werden feuchter und andere trockener.

● Ein stärkerer Treibhauseffekt wird die Ozeane erwärmen und Gletscher und anderes Eis teilweise schmelzen lassen, wodurch der Meeresspiegel ansteigt. Das Ozeanwasser wird sich auch ausdehnen, wenn es sich erwärmt, was zu einem weiteren Anstieg des Meeresspiegels beitragen wird.

● In der Zwischenzeit könnten einige Nutzpflanzen und andere Pflanzen positiv auf das erhöhte atmosphärische CO2 reagieren, kräftiger wachsen und Wasser effizienter nutzen. Gleichzeitig können höhere Temperaturen und sich verändernde Klimamuster die Gebiete, in denen Nutzpflanzen am besten wachsen, verändern und die Zusammensetzung natürlicher Pflanzengemeinschaften beeinflussen.

Die Rolle menschlicher Aktivitäten

In seinem Fünften Zustandsbericht kam das IPCC, eine Gruppe von 1.300 unabhängigen wissenschaftlichen Experten aus Ländern der ganzen Welt unter der Schirmherrschaft der Vereinten Nationen, zu dem Ergebnis, dass die Wahrscheinlichkeit, dass menschliche Aktivitäten in den letzten 50 Jahren unseren Planeten erwärmt haben, mehr als 95 Prozent beträgt.

Sonneneinstrahlung

Die Grafik [15] vergleicht globale Temperaturänderungen (rote Linie) und die Energie der Sonne, die die Erde empfängt (gelbe Linie), in Watt (Energieeinheiten) pro Quadratmeter seit 1880. Die leichteren/dünneren Linien zeigen die jährlichen Niveaus, während die schwereren/dickeren Linien die durchschnittlichen Trends über 11 Jahre zeigen. Elfjährige Durchschnittswerte werden verwendet, um den natürlichen Lärm in den Daten von Jahr zu Jahr zu reduzieren, wodurch die zugrunde liegenden Trends deutlicher werden.

[15] Die NASA verwendet zur Messung der globalen Temperatur nur „Oberflächentemperaturen“, weil diese leicht zu manipulieren sind und manipuliert wurden. Diese Manipulationen wurden im Jahre 2009 durch den „ClimateGate“-Skandal aufgedeckt. Würde man sie durch Satellitentemperaturen ersetzen, hätte die rote Linie den gleichen Trend wie die gelbe Linie.

Die Menge an Sonnenenergie, die die Erde empfängt, folgt dem natürlichen 11-Jahres-Zyklus der Sonne mit kleinen Höhen und Tiefen ohne Gesamtzuwachs seit den 1950er Jahren. Im gleichen Zeitraum ist die globale Temperatur deutlich gestiegen. Es ist daher äußerst unwahrscheinlich [16], dass die Sonne den beobachteten globalen Temperaturtrend des letzten halben Jahrhunderts verursacht hat. Quellenangabe: NASA/JPL-Caltech.

[16] Dies ist von einem Anwalt der NASA geschrieben, der einen dazu bringen soll, so zu denken, wie es von uns erwartet wird. Ich würde zustimmen, wenn es „unwahrscheinlich“ heißen würde, aber wichtiger ist, was sie nicht zu möglichen anderen Ursachen für die Erwärmung sagen, wie oben diskutiert, insbesondere zu galaktischer kosmischer Strahlung und vulkanischen Aktivitäten.

Es ist davon auszugehen, dass Veränderungen in der Energieausbeute der Sonne das Klima verändern würden, da die Sonne die grundlegende Energiequelle ist, die unser Klimasystem antreibt.
[17] Klassische Wissenschaftler kennen die Rolle der TSI beim Klimawandel nicht; vielleicht ist es kaum mehr als ein Thermostat, der dem Ofen sagt, was er tun soll. Siehe unsere obigen Diskussionen über die Ursachen des Klimawandels.

[18] Tatsächlich zeigen Studien, dass die Sonnenvariabilität bei früheren Klimaveränderungen eine Rolle gespielt hat. Beispielsweise wird angenommen, dass eine Abnahme der Sonnenaktivität in Verbindung mit einer Zunahme der vulkanischen Aktivität dazu beigetragen hat, die Kleine Eiszeit zwischen etwa 1650 und 1850 auszulösen, als Grönland von 1410 bis 1720 abkühlte und die Gletscher in den Alpen vorrückten.

[18] Eine wahrheitsgetreue Aussage, um die daraus resultierende Täuschung loszutreten, aber man sagt uns nicht, wann, warum oder wie TSI aufhörte, ein Faktor zu sein.

[19] Aber mehrere Beweislinien zeigen, dass die gegenwärtige globale Erwärmung nicht durch Veränderungen der Energie der Sonne erklärt werden kann:

[19] Hätte die NASA die Satellitentemperaturen anstelle der manipulierten Oberflächentemperaturen verwendet, könnte sie diese Aussage nicht machen.

Seit 1750 ist die durchschnittliche Energiemenge, die von der Sonne kommt, entweder konstant geblieben oder leicht gestiegen.

[20] Wenn die Erwärmung durch eine aktivere Sonne verursacht würde, dann würden die Wissenschaftler wärmere Temperaturen in allen Schichten der Atmosphäre erwarten. Stattdessen haben sie eine Abkühlung in der oberen Atmosphäre und eine Erwärmung an der Oberfläche und in den unteren Teilen der Atmosphäre beobachtet. Das liegt daran, dass Treibhausgase Wärme in der unteren Atmosphäre einfangen.

[20] Satellitendaten zeigen, dass die globale Erwärmung vor etwa 20 Jahren zu Ende ging, was dem Rückgang der TSI entspricht. Es ist nur die gefälschte NASA-Oberflächentemperatur, die weiter ansteigt, weil sie den Anstieg künstlich erzeugt hat.

[21] Klimamodelle, die Änderungen der Sonneneinstrahlung einbeziehen, können den beobachteten Temperaturtrend des vergangenen Jahrhunderts oder darüber hinaus nicht reproduzieren, ohne einen Anstieg der Treibhausgase einzubeziehen.

[21] Klimamodelle können überhaupt nichts mit irgendeiner Genauigkeit genau reproduzieren. Klimamodelle waren und sind weiterhin notorisch ungenau und zeigen Zunahmen von 2 – 3 Grad C mehr als die tatsächlichen Satelliten- und Ballondaten.

Wir alle zahlen einen beträchtlichen Preis für die irreführenden und unverantwortlichen Beiträge der NASA.

– Die Zeitungen/Medien greifen sie schnell auf und benutzen sie, um bedrohliche Schlagzeilen zu fabrizieren, um sich selbst und ihre politischen Ziele, den Sozialismus und eine Eine-Welt-Regierung zu verkaufen.

– Politiker nutzen die Schlagzeilen, um die Unterstützung eines uninformierten öffentlichen Lehrers zu gewinnen, der die Schüler mit der Angst vor einer Zukunft vergiftet, die nicht eintreten wird.

– Wir vertrauen darauf, dass dieses zweiteilige Tutorial dem Leser helfen wird, die Vorhänge besser zu verstehen, die zu viele Regierungsbehörden benutzen, um der Öffentlichkeit die Augen zu verschließen.

Autoren: CFACT Senior Science Analyst Dr. Jay Lehr has authored more than 1,000 magazine and journal articles and 36 books. Jay’s new book A Hitchhikers Journey Through Climate Change written with Teri Ciccone is now available on Kindle and Amazon.

Terigi Ciccone Engineer, Science Enthusiast and Artist. Loves reading and travel, Naturalist, Author of the new book “A Hitchhiker’s Journey Through Climate Change.”

Link: https://www.cfact.org/2020/11/02/manufacturing-climate-change-deceptions-part-two/

Übersetzt von Chris Frey EIKE




Für den „Great Reset“ müssten Wind und Sonne erst einmal grundlastfähig werden

Die sogenannte Corona-Pandemie hatte zunächst auch den allgegenwärtigen Klimaalarm überrollt. Aber die in Aussicht gestellten Wiederaufbau-Milliarden nach dem ersten Lockdown haben dann sehr schnell Begehrlichkeiten geweckt, diese Mittel für den Klimaschutz zu requirieren. Denn nach der in Paris (2015) vereinbarten Dekarbonisierung der Welt bis 2100, oder der Deutschlands bis 2050, wird jetzt aus Angst vor einem vorgeblich „menschengemachten“ Anteil am „natürlichen atmosphärischen Treibhauseffekt“ sogar gefordert, unser Land bereits bis 2035 „klimaneutral“ umzugestalten. Und dieser Klima-Aktionismus beruht allein auf einer Fehlanwendung (1895) des Stefan-Boltzmann-Gesetzes (1884). Denn „Tag“ ist nun mal weder im Sprachgebrauch noch in der Realität gleich „Nacht“, und daher ist die ganze Klimahysterie völlig unnötig. Als vieljährige Durchschnittsbetrachtung unserer realen Erde kann mein hemisphärisches S-B-Modell vielmehr alle drei räumlichen Dimensionen und die Tages-/Jahreszeit bei der Temperaturgenese auf unserer Erde ohne einen solchen „natürlichen atmosphärischen Treibhauseffekt“ abbilden, beispielsweise:

Abbildung 1: Räumliche und zeitliche Derivate aus meinem hemisphärischen Stefan-Boltzmann-Modell (nicht flächengetreu). Links: Jahresverlauf der maximalen solaren Strahlungsleistung mit den Beleuchtungsklimazonen. Rechts: Das maximale S-B-Temperaturäquivalent (~spez. Leistung W/m²) und die maximale örtliche Tageslänge (~Arbeit=Leistung x Zeit) im jeweiligen Sommerhalbjahr auf der Nord- und Südhalbkugel.

Anmerkungen: Overlays in der linken Abbildung: Die maximale temperaturwirksame spezifische Strahlungsleistung der Sonne MAX Si (rot=940W/m², schwarz=0W/m²) in Abhängigkeit von der geographischen Breite und der Jahreszeit. Für den Nordwinter (linke Seite) und den Nordsommer (rechte Seite) wurden darüber jeweils die Beleuchtungsklimazonen der Erde projiziert (von oben/unten zur Mitte: Polarzonen, Mittelbreiten, Tropenzone – Quelle: Wikipedia, Autor: Fährtenleser, Lizenz: GNU Free Documentation License)

Das hemisphärische S-B-Modell lässt also qualitative räumliche und zeitliche Aussagen über die tatsächliche Temperaturgenese auf unserer realen Erde zu, ohne einen „natürlichen atmosphärischen Treibhauseffekt“ als Erklärung für die ominöse Differenz von (33°C / 155W/m²) zwischen einer fehlerhaften S-B-Berechnung und der „gemessenen“ Realität zu benötigen.

Es gibt gar keinen „natürlichen atmosphärischen Treibhauseffekt“ von (33°C / 155W/m²)

Das gängige 24h-Tag=Nacht-THE-Flacherdemodell mit seinem vorgeblich „natürlichen atmosphärischen Treibhauseffekt“ von (33°C/155W/m²) ist dagegen streng eindimensional und kennt keinerlei Unterschiede zwischen Tag und Nacht, Pol und Äquator oder Sommer und Winter. Bei ihrer Berechnung überspringen die Anhänger eines THE einfach die primäre Temperaturgenese auf der Tagseite unserer Erde durch eine S-B-Inversion (Strahlung=>Temperatur) und fokussieren ihre Betrachtung mit dem S-B-Gesetz (Temperatur=>Strahlung) auf die sekundäre Abstrahlung über die gesamte Erdoberfläche. Dabei geht man allerdings nicht physikalisch-systematisch vor, indem man die Abstrahlungsleistung aus der tatsächlich „gemessenen“ globalen Durchschnittstemperatur von ca. 15°C ermittelt (=S-B-Gesetz), sondern man viertelt einfach die Einstrahlungsleistung der Sonne (=S-B-Inversion). Die Grundlage einer solchen Betrachtung ist dann eine ominöse Faktor4-„Erde ohne Atmosphäre“ mit einer „natürlichen“ Temperatur von (-18°C), die im Arrhenius-Paradoxon von 33°C hängen bleibt. Aus dieser Differenz wird dann wiederum das Postulat für einen bisher immer noch unbewiesenen „natürlichen atmosphärischen Treibhauseffekt“ abgeleitet, der entgegen dem 2. HS der Thermodynamik aus einer „atmosphärischen Gegenstrahlung“ gespeist werden soll. Die zugrundeliegende fehlerhafte Faktor4-Inversion des Stefan-Boltzmann-Gesetzes erfolgt also durch eine Gleichsetzung von Tag und Nacht unter Einbeziehung unbestrahlter Flächen – und ignoriert zudem noch die Wärmespeicher unserer Erde.

Der sogenannte „natürliche atmosphärische Treibhauseffekt“ ist unser Ticket in eine noch teurere und noch bessere Welt

Dank fossiler Energien leben wir heute in der besten aller historischen Welten. Und der sogenannte „natürliche atmosphärische Treibhauseffekt“ ist nun unser Ticket in eine noch teurere und noch bessere Welt. Denn was einstmals Kometen waren, bei deren Erscheinen man unseren Vorfahren den Weltuntergang geweissagt hatte, das sind heute „dünntelligente“ Supercomputer-Spekulationen der alimentierten Wissenschaften, die uns aufgrund unseres anthropogenen CO2-Ausstoßes zwingen wollen, unsere „Beste aller Welten“ eigenhändig zu zerstören.

Zwischenfrage: Wäre es eigentlich statthaft, Benutzer des Ausdrucks „Klimaleugner“ mit der Endung „-lunken“ zu bezeichnen, beispielsweise als „Klimalunken“, „Politolunken“ oder „Journalunken“?

Der Glaube unserer Zeit ist die Angst vor freihändig extrapolierten Hochrechnungen à la Club of Rome, die für jede willkürliche politischen Maßnahme als Begründung herhalten müssen, geradeso, als hätte es einen Herrn Gompertz niemals gegeben. Am anfälligsten für solche Computerspekulationen ist offenbar eine universitär ausgebildete Mittelschicht, die gelernt hat, Aussagen aus dem eigenen Ausbildungsumfeld blind zu vertrauen, während man aus Handwerk und Gewerbe oft sehr schöne Beispiele von angewandter Intelligenz zu hören bekommt, was gemeinhin auch als „gesunder Menschenverstand“ bezeichnet wird. Und KI-erleuchtete Politiker*innen träumen sogar davon, mittels einer „erneuerbaren Planwirtschaft“, also auf Grundlage der gescheiterten sozialistischen Planwirtschaft bei gleichzeitiger Nutzung von „erneuerbaren Energien“, eine noch teurere und noch bessere Welt zu errichten.

Um „klimaneutral“ zu werden, sollen die „erneuerbaren Energien“ massiv ausgebaut werden

Die Anhänger eines „natürlichen atmosphärischen Treibhauseffektes“ zeigen üblicherweise eine „natürliche“ physikalische Schwäche bei der Unterscheidung von „Leistung“ [Watt] und „Energie“ [Joule=Watt*Sekunden]. Denn die installierte Leistung der sogenannten „erneuerbaren Energien“ liegt mit mehr als 100 Gigawatt bereits heute deutlich über unserem Bedarf von bis zu 80 Gigawatt, wie die nachfolgende Abbildung beweist:

Abbildung 2 (SMARD): Installierte Erzeugungsleistung, linke Skala „Erneuerbare“ 0 (grün) – 120GW (gelb)

Eigentlich wären wir also schon längst „klimaneutral“, wenn die Zeit hier nicht physikalisch brutal zuschlagen würde. Denn Leistung [Watt] ist nicht gleich Arbeit [Joule=WattSekunden, in diesem Fall WattStunden], und die volatilen EEG-Zufallsstromerzeuger sind nun mal von Sonne und Wind abhängig, wenn sie Arbeit verrichten sollen; im Zweifel schau‘n Sie sich einfach noch mal den „Autobahneffekt“ von Herrn Ordowski an. Die nachfolgende Abbildung stellt die Realität dar und ist ein schönes Beispiel für die immer noch existierende deutsche Ingenieurskunst:

Abbildung 3 (SMARD): Realisierte Erzeugungsleistung und tatsächlicher Stromverbrauch im Zeitraum 14.-25. September 2020

Wenn tagsüber die Sonne scheint und nachts Wind weht, haben wir schon heute ein Problem, weil dann über den 24h-Tag bereits zu viel EEG-Strom produziert wird. Die mit kräftiger Hilfe der EEG-Zufallserzeuger realisierte Erzeugungsleistung verlief zwischen dem 14. und 25. September 2020 meist deutlich über dem tatsächlichen Stromverbrauch. An ganz wenigen Tagen stimmten die Minima oder Maxima der Kurven von realisierter Erzeugungsleistung und tatsächlichem Stromverbrauch auch nur annähernd überein.

Die konventionellen Grundlastkraftwerke können die tageszeitlichen EEG-Erzeugungsschwankungen und die tageszeitlichen Verbrauchsschwankungen also schon heute nicht mehr komplett ausgleichen, es bleibt lediglich eine gewisse Parallelität im Anstieg und Abfall beider Kurven. Daher mussten in diesem Zeitraum sowohl im Maximum (Solar) wie im Minimum (Wind) erhebliche Strommengen, wahrscheinlich meist kostenpflichtig, ins Ausland „verklappt“ werden. Die geniale Ingenieursleistung besteht nun darin, dass der große Blackout bisher trotzdem ausgeblieben ist, und wir uns vorläufig noch auf das MINT-ferne Narrativ, „der Strom kommt aus der Steckdose“, verlassen können. Aber an der Zerstörung dieses Narrativs von einer sicheren Stromversorgung wird weiterhin ganz kräftig gearbeitet, Zitat:

Europa muss seine Offshore-Windleistung 10x ausbauen, um die europäischen Klimaziele für 2050 zu erreichen.“

Vergleichen wir also mal die installierte EEG-Erzeugungsleistung direkt mit dem Verbrauch und dem tatsächlichen Strommix:

Abbildung 4 (SMARD) für den Zeitraum 14.-25. September 2020. Oben: Installierte Erzeugungsleistung „Erneuerbare“ 0 (grün) – 120GW (gelb) Unten: Realisierte Erzeugungsleistung und tatsächlicher Stromverbrauch

Es fragt sich, mit welcher Transfer-Funktion die realisierte EEG-Erzeugungsleistung und der tatsächliche Stromverbrauch jemals in Übereinstimmung gebracht werden sollen, ein Faktor 10 bei der Offshore-Windkraft wird es jedenfalls ganz sicher nicht sein. Selbst die verbliebene deutsche Ingenieurskunst wäre bei einem solchen Faktor 10 heillos damit überfordert, Strom-Erzeugung und Strom-Verbrauch weiterhin versorgungssicher und ohne regelmäßige Blackouts in Übereinstimmung zu bringen. Und wenn eines Tages alle Atom- und Kohlekraftwerke in unserem Lande abgeschaltet werden, während die EEG-Strom-Erzeugung noch weiter ausgebaut worden ist, dann ist es auch mit unserer Versorgungssicherheit vorbei, wovor abseits des medialen Mainstreams schon seit vielen Jahren eindringlich gewarnt wird, beispielsweise hier, hier und hier. Das einzig sichere am EEG bleibt vielmehr der weitere kontinuierliche Anstieg unserer Strompreise. Die öffentliche Sicherheit in Gestalt einer zuverlässigen Stromversorgung wird dagegen durch den weiteren Ausbau und den gesetzlichen Einspeisevorrang der volatilen EEG-Strom-Erzeugung in immer stärkerem Maße gefährdet. Nur MINT-fernste Gestalten könnten daher auf die Idee kommen, dem EEG-Zufallsstrom als Zerstörer unserer elektrischen Versorgungsicherheit müsse jetzt gesetzlich auch noch ein „Öffentliches Interesse“ für seinen weiteren Ausbau eingeräumt werden.

Insanity is doing the same thing over and over again and expecting different results“ (Einstein)

Und während wir dem „natürlichen atmosphärischen Treibhauseffekt“ zunehmend unsere Zukunft und unsere natürliche Umwelt opfern, behaupten erinnerungsferne Jugendliche sogar, es wäre in unserem Lande bisher noch gar nichts für die Umwelt getan worden und fordern eine ganz „andere“ Wirtschaftsordnung. Dabei wissen jene Jugendlichen nicht einmal, dass noch in den 1990-er Jahren kein Mensch freiwillig in eine plansozialistisch verseuchte Elbe gesprungen wäre. Als alter weißer Mann erlaubt sich der Autor hinzuzufügen, dass die Dystopie eines „Demokratiemoratoriums“ zwecks „Weltklimarettung“ die Lebensdauer von Herrn Kaisers Schaumweinsteuer locker übertreffen dürfte.

Und auf diesem intellektuellen Niveau will man uns jetzt auch noch vor unseren Bürgerrechten schützen. Denn die Corona-Krise bietet postnationalen Globalisten eine einmalige Gelegenheit für den Einstieg in die schon lange geforderte Große Transformation zu einer CO2-freien Welt – und das befürchtet man nicht nur hier bei uns. Auch dazu liefert die alimentierte Mainstream-Wissenschaft wieder entscheidende Beiträge, und eine solchermaßen beratene Bundesregierung versucht dann offenbar im Ermächtigungsmodus, 75% aller Kontakte zu unterbinden, anstatt 75% der Infektionsschwerpunkte auszuschalten. Der bekannte Rechtsanwalt Gerhard Strate führt im Hamburger Abendblatt (Paywall) aus, die Schließung der Gaststätten sei offensichtlich willkürlich; nach den vom RKI veröffentlichten Studien würden sich die meisten Infektionen im Umfeld von privaten Haushalten, Alten- und Pflegeheimen, Flüchtlings- und Asylbewerberheimen sowie Krankenhäusern ereignen. Die Forderungen nach Wohnungskontrollen, Denunziation und bewaffneten Coronawarten von Seiten demokratisch gewählter „Würdenträger“ lassen bereits Befürchtungen aufkommen. Und der eben noch konkret angekündigte Shutdown-II-Zeitraum wurde bereits am zweiten Tag aufgeweicht und relativiert. Die Gegner solcher angeordneten Zwangsmaßnahmen werden dann gerne in die Nähe von „antidemokratischen“ Verschwörungstheoretikern gerückt, wobei alle Spuren solcher Verschwörungstheorien schließlich in New York oder Davos enden.

Die mittelalterliche Landbevölkerung frönte der Verschwörungstheorie, eine Rückkehr der Wölfe würde vom Zerfall der staatlichen Ordnung künden

Vielleicht wird die Geschichte diese selbstzerstörerische Klimahysterie rückblickend einmal mit den Ereignissen des Jahres 999 vergleichen, als das Christliche Abendland zum ersten Jahrtausendwechsel Sein Jüngstes Gericht erwartet hatte; denn auch die Kirche liefert heute einen entsprechenden Beitrag zum aktuellen Tagesgeschehen. Zwecks Erhalt unserer gegenwärtigen Lebensqualität sollten wir daher sehr sorgsam mit unseren Freiheitsrechten und sehr nachhaltig mit unserer natürlichen Umwelt umgehen. Wir sollten also Erstere nicht aufgeben, nur um dann Letztere willkürlich mit wind- und tageslichtabhängigen Zufallsstromerzeugern zupflastern zu lassen, die lediglich in der Lage sind, diese natürliche Umwelt und deren Artenvielfalt zum Preis einer Vervielfachung unseres Strompreises zu zerstören. Denn politisch gewollte MINT-ferne Scheinlösungen können die hoch entwickelten technischen Anwendungen in unserer fossil betriebenen Industriegesellschaft gar nicht ersetzen. Und mittelalterliche Hans-im-Glück-Technologien zur Nutzung von Wind und Sonne können nun einmal systembedingt keinerlei verlässliche elektrische Grundlast liefern, sondern erfordern zwingend eine parallele „Zweitstromerzeugung“ durch fossile „Schattenkraftwerke“. Und wenn solche Kraftwerke dann irgendwann nur noch bei unseren Nachbarn stehen, dann wäre das eine Carte Blanche für den Zukauf von Atom- und Kohlestrom um jeden Preis – und das Ende des Industriestandortes Deutschland.

Im Angesicht des „Großen Neustarts“ im Dienste einer globalen Moral, von globaler Gerechtigkeit und des global-gesellschaftlichen Fortschritts passt die Erfahrung der mittelalterlichen Landbevölkerung, eine Rückkehr der Wölfe würde vom Zerfall der staatlichen Ordnung künden, wohl auch auf unsere demokratische Ordnung. Lassen Sie Sich also in dieser seltsamen Zeit nicht unterkriegen oder gar am selbständigen Denken hindern – und vor allem: Bleiben Sie gesund!