1

Zur Fragwür­digkeit der Gründe für den angeb­lichen anthropo­genen CO2-Anstieg in der Atmosphäre und seinen möglichen Einfluss auf das Klima

Die Temperaturerhöhungen nach 1900 der Atmosphäre wie der Meere – verursacht durch eine erhöhte Intensität der Sonneneinstrahlung – und die damit verknüpften CO2-Anstiege in der Atmosphäre überlagern den anthropogenen Einfluss deutlich.
Schon alleine aus diesem Grunde – von den fundamentalen Fehlern der Klimamodelle abgesehen – ist der Einfluss der Verbrennung der fossilen Energieträger auf das Klima vernachlässigbar und damit alle Maßnahmen zur Absenkung des anthropogenen CO2-Ausstoßes obsolet.

Fazit
Die Atmosphäre enthält z. Z. etwa 0,041% CO
2 oder 410 ppm. Das entspricht einer Kohlenstoffmenge in der Atmosphäre von 870 Giga Tonnen Kohlenstoff (GtC).
Es gibt CO
2-Naturkreisläufe, die permanent in den Verlauf der CO2-Konzentrationen eingreifen:
Atmung Meere (90 GtC/a), Atmung Pflanzen (55 GtC/a), Atmung Pflanzen und Bodenorganismen (55 GtC/a) von insgesamt 200 GtC/a.
Additiv dazu liegt der weltweite wachsende Anteil aus der Verbrennung fossiler Brennstoffe bei z. Z. etwa 10 GtC/a bzw. 0,000 47%/a in der Atmosphäre oder 4,7 ppm/a.
Der anthropogene Anteil Deutschlands beträgt z. Z. 2% von 4,7 ppm/a oder 0,09 ppm/a oder 0,000 009%/a in der Atmosphäre, eine in Deutschland mit mehreren Billionen belastete CO
2-Spur, mit deren Abbau Deutschland zur Vermeidung des Verglühens der Erde beitragen will.
Die CO
2-Gehalte in der Atmosphäre werden an mehreren Orten auf der Erde gemessen, am bekanntesten ist auf Mauna Loa auf Hawaii die Keeling-Kurve. Der wiederkehrende jährliche Verlauf lässt auf eine intensive Durchmischung des CO2 mit der Atmosphäre schließen.
Der jährliche mittlere Anstieg der CO
2-Konzentrationen liegt bei allen Messstellen bei etwa 2 ppm/a bzw. 4,3 GtC/a , was etwa die Hälfte des anthropogenen Anteiles von 10 GtC/a ausmacht. Daraus wird abgeleitet, dass die 2.Hälfte des jährlich eingetragenen C-Anteiles von der Biosphäre absorbiert wird. Dabei wird die Betrachtung des Temperaturanstieges in der Atmosphäre und in den Meeren mit seiner Wirkung auf die CO2-Gehalte der Atmosphäre außer Acht gelassen.
Von den Eiszeiten ist aufgrund der starken Temperatur-abhängigen CO
2-Löslichkeit in Wasser eine enge Beziehung zwischen der Temperatur und den CO2-Gehalten in der Atmosphäre bekannt, mit einer Zeitverzögerung für den CO2-Anstieg nach der Temperaturerhöhung von etwa 800 Jahren.
Neuere Untersuchungen haben jedoch gezeigt, dass bei Temperaturerhöhungen nach einem Jahr bereits der CO
2-Gehalt in der Atmosphäre ansteigt, stärker jedoch nach etwa 50 Jahren. So konnten nach dem 19. Jahrhundert Temperaturerhöhungen in den Meeren zwischen etwa 0,5/1,0°C gemessen werden, was zu einem freiwerdenden CO2-Potential in dem oberen Meter der Meere von 1385/ 2770 ppm führt bei CO2-Gehalten in der Atmosphäre von 410 ppm.
Ursache für die Temperaturanstiege von den Eiszeiten bis heute sind nachweislich starke Änderungen der Intensität der Sonneneinstrahlung.
Die durch die Sonneneinstrahlung ansteigenden Temperaturen insbesondere der Meere führen zu derartigen CO
2-Zunahmen in der Atmosphäre, dass die aus dem anthropogenen C-Eintrag von 10 GtC/a in die Atmosphäre gelangenden CO2-Mengen von 4,7 ppm/a völlig überlagert werden.
So konnten erwartungsgemäß auch die in der Corona-Zeit abnehmenden C-Einträge in die Atmosphäre von bis zu minus 17% bei den CO
2-Messungen auf Mauna Loa auf Hawaii nicht nachgewiesen werden.
Die wichtigsten Akteure für den sog. „Treibhauseffekt“ sind Wasser und Wolken und nicht die vom IPCC propagierten „CO
2-Klimasensitivitäten“ mit ihrer willkürlichen Einbeziehung des Gesamt-CO2-Gehaltes der Atmosphäre in die Modelle, die weder die Vergangenheit nachvollziehen, geschweige denn die Zukunft voraussagen können.
Um dem anthropogenen CO
2-Gehalt der Atmosphäre von
z. Z. etwa 4,7 ppm CO2/a (0,000 47 %/a)
gerecht zu werden, müssten diese niedrigen CO
2-Gehalt mit den Modellen diskutiert werden, die zudem von den durch die Temperaturanstiege frei werdenden CO2-Gehalte der Atmosphäre völlig überlagert werden.
Ungeachtet all dieser fundamentalen Fehler in den Modellen des IPCC folgt vor allem Deutschland wie die Lemminge dem Ruf des teuersten Klimamissverständnisses aller Zeiten.
Wie schrieb noch das „Wall Street Journal“: „Die dümmste Energiewende der Welt“.

————————–

  1. Aktuelle CO2-Messungen in der Atmosphäre

Das Maß aller Dinge für die Diskussion der CO2-Gehalte in der Atmosphäre sind die seit 1958 durchgeführten CO2-Messungen auf dem Vulkan Maunda Loa auf Hawaii, die sog. Keeling-Kurve.
Bild 1 zeigt die gemessenen CO2-Gehalte von 1958 bis 2020. (NOAA) (1):

Bild 1: CO2-Messungen Mauna Loa seit 1958

Die Hypothese lautet, dass der CO2-Anstieg in der Atmosphäre seit der Industrialisierung zu 100% auf den Menschen zurückzuführen sei. (2)
Ferner wird angenommen, dass der Austausch von CO
2 zwischen Atmosphäre, Ozean und Biosphäre vor der Industrialisierung zu einem quasi stabilen Klimazustand geführt hätte, der erst durch die anthropogenen Quellen aus der Kontrolle geraten sei. (3)
Die schwarze Linie in
Bild 1 zeigt den Trend, die rote Linie die Messwerte. Die Sägezähne verdeutlichen den Einfluss der Biosphäre (Photosynthese etc.) auf die jährlichen Schwankungen der CO2-Gehalte der Atmosphäre mit einem Maximum jeweils im Mai und einem Minimum im September (vgl. auch später).
Der durchschnittliche CO
2-Anstieg lässt sich zwischen 1970 und 2000 zu etwa 1,5 ppm/a und zwischen 2000 und 2020 zu etwa 2,1 ppm/a abgreifen.
Die kurzzeitigen Schwankungen weisen auf eine unmittelbare schnelle Durchmischung des CO
2-Gases mit der Atmosphäre hin.
Die Erdatmosphäre enthält z.Z. etwa 410 ppm CO
2 (0,041%). Über das Gewicht der Atmosphäre errechnet sich über die „CO2-Bilanz der Atmosphäre“ eine C-Menge von 870 Giga Tonnen Kohlenstoff (GtC) in der Atmosphäre. 1 ppm entspricht also bei vollkommener Durchmischung von CO2 in der Atmosphäre (vgl. später) bilanzmäßig 2,12 GtC.
Die jährlichen CO
2-Kreisläufe von insgesamt etwa 210 GtC setzen sich etwa wie folgt zusammen:

Tafel 1

Zu diesen Quellen und Senken kommt additiv die CO2-Menge aus der Verbrennung fossiler Brennstoffe hinzu, die z.Z. um 10 GtC/a liegt. Von diesen CO2-Kreisläufen kann nur der anthropogene Anteil gemessen werden.
Der anthropogene CO2-Anteil d) errechnet sich über die „CO2-Bilanz der Atmosphäre“ zu 4,7 ppm CO2/a oder 0,000 47%/a in der Atmosphäre.
Im Übrigen liegt der Anteil Deutschlands an der weltweiten Verbrennung fossiler Brennstoffe bei 2% von 4,7 ppm CO2/a. Das entspricht 0,09 ppm CO2/a oder 0,000 009%/a in der Atmosphäre – eine mit mehreren Billionen € belastete CO2-Spur, mit deren Abbau Deutschland helfen will, die Erde vor dem Verglühen zu retten.

Bild 2: Temperatur- und CO2-Entwicklung Erde

Bild 3: CO2-Messugen Alaska, Mauna Loa (Hawai) und Tasmanien

Eine historische Betrachtung des Verlaufes des CO2-Gehaltes in der Atmosphäre und der Temperatur in den letzten 600 Mio. Jahren gibt eigentlich keine Veranlassung, sich mit derartigen Spuren von CO2 zu beschäftigen (Bild 2), zumal die CO2-Gehalte in der Atmosphäre Spitzenwerte bis 7 000 ppm erreichten bei lebenswerten Temperaturen. Die CO2-Gehalte lagen noch nie so niedrig wie heute und dennoch soll bei ihrem Anstieg die Erde verglühen. (vgl. auch später)
Ein Zusammenhang zwischen dem CO
2-Gehalt in der Atmosphäre und der Temperatur gibt es nicht.
Im Übrigen kann in Anbetracht von
Bild 2 ein Gleichgewicht bzw. ein stabiler Klimazustand eher als fiktive Annahme bezeichnet werden. Die Diskussion eines CO2-Gleichgewichtspartialdruckes zwischen Atmosphäre und Meere ist also wenig hilfreich und kann es nur begrenzt geben (vgl. später).
(Wird der weltweite C-Anfall aus der Verbrennung fossiler Brennstoffe auf die Summe der CO
2-Kreisläufe von 210 GtC/a bezogen, errechnet sich ein Anteil von 4,7%. Der Anteil der natürlichen Prozesse a) bis c) beträgt dann etwa 95%.)
Abgesehen von dem messbaren menschlichen Einfluss über die fossile Verbrennung sind die physikalischen, chemischen und biologischen Prozesse, die den gigantischen CO
2-Kreislauf steuern, äußerst komplex.
Daher ist es schwer zu bestimmen, was mit den anthropologischen Emissionen geschieht. Hinzu kommt ein Anstieg der Temperatur auf der Nordhalbkugel vom Ende des 19. Jahrhunderts bis heute von rd. 1,5 °C, ebenso ist die Wassertemperatur gestiegen (vgl. später).
Daher muss die stark Temperatur-abhängige CO
2-Löslichkeit in Wasser in die Betrachtungen des CO2-Anstieges in der Atmosphäre einbezogen werden.
Andere Einflussgrößen auf die CO
2-Gehalte in der Atmosphäre wie vulkanische Ausgasungen, Temperatur-Phänomene wie El Nino, La Nina, etc. werden hier nicht in die Betrachtung einbezogen.
Nun hat sich herausgestellt, dass die Keeling-Kurve nicht repräsentativ ist für die jährlichen globalen CO
2-Schwankungen (Bild 3). (4)
So zeigen Messstationen in hohen Breitengraden der nördlichen Hemisphäre eine viel größere Amplitude (Alaska) als Mauna Loa auf Hawaii.
Im Gegensatz dazu zeigen Messstationen in hohen Breiten der südlichen Hemisphäre (Tasmanien) kaum Sägezahnmuster. So ist im Norden der Nordhalbkugel durch die ausgedehnten Wälder ein stärkerer jahreszeitlicher Einfluss als in vergleichbaren Breitengraden der südlichen Hemisphäre erkennbar, wo es kaum Vegetation gibt.
Die Zyklusbreite in Alaska beträgt fast 20 ppm, die auf Hawaii 7 ppm und die in Tasmanien 1 ppm, letzteres allerdings mit einer Phasenverschiebung durch die Verschiebung der Jahreszeiten um 6 Monate. (4)
Das bedeutet, dass die jährlichen CO
2-Schwankungen auf den beiden Hemisphären Nord- und Südhalbkugel unterschiedlich verlaufen, wenn auch die jährlichen CO2-Anstiege gleich sind.
Fakt ist der jährliche Anstieg des CO
2-Gehaltes der Atmosphäre von etwa 2 ppm/a bzw. 4,3 GtC/a auf der Nord- wie auf der Südhalbkugel, also etwa halb so hoch wie der CO2-Anteil aus der Verbrennung der fossilen Brennstoffe von 10 GtC/a.
Daher wird davon ausgegangen, dass von den 10 GtC/a etwa die Hälfte in der Atmosphäre verbleibt bei einer Verweilzeit von etwa 4 Jahren, die restliche Hälfte wiederum hälftig vom Meer aufgenommen wird und hälftig über die Biosphäre (Photosynthese, Atmung und Zersetzung Bodenorganismen) absorbiert wird, was zu einer Begrünung der Erde führt. (5)

Diese bilanzmäßige Betrachtung der CO2-Verteilung zieht nicht in Erwägung, dass durch die Erwärmung einschließlich der Meere eine gewaltige CO2-Menge freigesetzt werden kann.
Daher wird im Folgenden die Frage der Wirkung des Temperatur-Anstieges einschließlich der Meere auf den CO2-Anstieg in der Atmosphäre abgeschätzt.

  1. Abhängigkeit der CO2-Löslichkeit in Wasser von der Temperatur

Die Löslichkeit von CO2 in Wasser hängt nicht nur von den Temperaturen sondern auch vom CO2-Partialdruck in der Atmosphäre ab. Ist z.B. der Partialdruck des CO2 in der Atmosphäre höher als der des Wassers, löst sich CO2 in Wasser und umgekehrt, wenn auch eine ständige Gleichgewichtseinstellung der CO2-Partialdruckes nicht zu erwarten ist (vgl. später).

CO2-Löslichkeit in Wasser:

Daraus errechnet sich im Temperaturbereich von 15-20 °C eine Löslichkeitsveränderung von 0,06 g CO2/kg H20/bar je Grad C.
Wird die Wasseroberfläche der Erde mit 360 570 000 km2 angenommen und eine Temperaturerhöhung für den oberen Meter der gesamten Wasseroberfläche von 15 auf 15,5/16 °C (durchschnittliche Wassertemperatur in der oberen Schicht: 16,3°C – vgl. später), so würde im Gleichgewichtszustand eine CO2-Menge von

frei. Die Erdatmosphäre enthält bei 410 ppm bzw. 870 GtC.
Das ist ein gewaltiges, möglicherweise freiwerdendes CO2-Potential. Auf die Wirkung von Hydrogencarbonationen im Meer und deren Wirkung auf die Löslichkeit von CO2 im Meer soll hier nicht näher eingegangen werden.
Natürlich wird sich die Wassertemperatur an den Polen um 0 °C bewegen, am Äquator deutlich höher liegen (vgl. später).

  1. Messungen der CO2-Gehalte in der Atmosphäre vom Eiszeitalter bis in die Gegenwart

Vor etwa 2 Mio. Jahren begann die Eiszeit.
Von Untersuchungen an Eisbohrkernen ist bekannt, dass die CO2-Gehalte in der Atmosphäre aufgrund des Temperatur-abhängigen CO2-Lösungsverhaltens in Wasser dem Temperaturverlauf folgen, jedoch mit einer Verzögerung von etwa 800 Jahre (Bild 4).

Bild 4: Temperatur- und CO2-Messungen an einem Eisbohrkern aus der Antarktis

Der Übergang von CO2 vom Meer in die Atmosphäre beruht einerseits auf der Langsamkeit der Temperaturveränderung des Meeres über einen langen Zeitraum (etwa 800 Jahre), andererseits ist davon auszugehen, dass die Meere in diesem langen Zeitraum bis in große Tiefen erwärmt wurden, was zu hohen Veränderungen der CO2-Gehalte in der Atmosphäre in den Kaltzeiten von etwa 180 ppm auf etwa 280 ppm in den Warmzeiten führte. Dabei wird davon ausgegangen, dass die in den Warmzeiten gemessenen CO2-Gehalte durch Gasverluste bei der Beprobung und der Analyse in Wirklichkeit höher lagen.
Eisbohrkerne können schnelle An- und Abstiege der CO
2-Konzentration in der Atmosphäre innerhalb von 100-500 Jahren nicht auflösen. (6)
Es stellt sich die Frage, wie der z.B. auf Mauna Loa gemessene Anstieg der CO
2-Gehalte zu erklären ist – ob anteilmäßig über einen anthropogenen Anteil oder über einen Temperaturanstieg – , schließlich können die gemessenen CO2-Anstiege in den Eisbohrkernen nicht als Maß für eine kurzzeitige Veränderung der Temperatur mit ihrem Einfluss auf die CO2-Gehalte in der Atmosphäre herangezogen werden.

Dazu wurden jüngere Untersuchungen zur Beantwortung dieser Frage ausgewertet. So zeigen Messungen einen deutlichen Zusammenhang zwischen einem Temperaturanstieg vom Ende des 19. Jahrhunderts bis 1990 und der zugehörigen CO2-Entwicklung (Bild 5). (7)

Ursache für den Temperaturanstieg ist die Zunahme der Intensität der Solaren Einstrahlung, worauf in einem der folgenden Kapitel näher eingegangen wird.
In Bild 5 sind die Längen der Sonnenzyklen, die atmosphärischen CO2-Konzentrationen sowie die globalen Temperatur- Anomalien von 1860 – dem Ende der Kleinen Eiszeit – bis 1990 dargestellt.
Von 1890 bis 1945 nahm die Intensität der Sonnenzyklen zu, begleitet von einer Zunahme der globalen Temperaturen um etwa 0,4°C.
Von 1945 bis etwa 1970 wurde es plötzlich kälter, begleitet von einer geringeren Sonnenaktivität. Wissenschaftler beschworen damals sofort den Beginn der neuen Eiszeit, was von allen Medien übernommen wurde mit einem prognostizierten Temperaturabfall bis 2021 von 6°C und Eisbergen bis Portugal.
Aber die Sonne verstärkte von 1975 bis 1995 wieder ihre Zyklen, verbunden mit einem Anstieg der Temperaturen um etwa 0,3°C und einer parallelen Zunahme der CO2-Gehalte in der Atmosphäre.

Bild 5: Einfluss einer Temperaturänderung auf den CO2-Anstieg in der Atmosphäre

Diese Darstellung beweist, dass nach Änderung der Temperatur bereits unmittelbar ein leichter CO2-Anstieg feststellbar ist (Oberflächenwasser), intensiv aber nach knapp 50 Jahren.
Es lohnt sich auch einen Blick auf die ab 1979 mit Satelliten gemessenen Temperaturen der globalen unteren Atmosphäre (Bild 6).

Bild 6: Satellitenmessungen der Temperaturen der unteren globalen Atmosphäre

Zunächst ist durch die zahlreichen El Nino-Temperaturspitzen ein Temperaturanstieg von 1979 bis 2020 nur schwer abzugreifen. Vertretbar wäre aber ein Anstieg um 0,75 °C, der im Übrigen der Aussage von HADCRUT4 mit 0,85°C für die Zeit von 1969 bis 2020 gut entspräche.
Aus diesen beiden diskutierten Zeiträumen (Bild 5 und 6) ergäbe sich dann ein Gesamttemperaturanstieg von Ende des 19. Jahrhunderts bis heute von etwa
0,5 + 0,85 = 1,35 °C.
Dieser Temperaturanstieg kann nicht gleichgesetzt werden mit den Temperaturen der Meere.
In den Ozeanen existiert eine durch Wind und Wellen gut durchmischte und warme Deckschicht von rd. 75 m. (8) Diese Deckschicht hatte im 20.Jahrhundert eine Durchschnittstemperatur von 16,3 °C (im Gegensatz zur Landtemperatur von 11,1 °C). Nach Angaben der NOAA hat sich die Temperatur der Ozeane oberflächlich in den letzten 150 Jahren um 0,7 °C erwärmt.
Die Durchwärmung der Oberflächenschicht des Meeres kommt vermutlich durch die Durchdringung des Sonnenlichtes bis zu einer Tiefe von 200 m zustande.(9) Der Austausch mit dem tiefen Ozean, der rd. 50 mal mehr Kohlenstoff gespeichert hat, erfordert Zeiträume von etwa 800 Jahren.
Interessant ist, dass in der Luft über den Warmwasserzonen über 50 ppmv höhere CO2– Konzentrationen und über den kalten Zonen über 50 ppmv niedrigere Werte gemessen wurden, was einen ständigen Austausch dieser Konzentrationen zur Folge hat. (10)
Das Klimasystem kann sich daher niemals im Gleichgewicht befinden. Für die ständige Unberechenbarkeit des Klimas sorgt schon die Variabilität des Wasserdampfes während des Tages und die Bildung von Wolken etc.
Gezielte Messungen der Meerestemperaturen gibt es erst seit 2005 (ARGO Flotte).
Auch die Messungen auf See zeigen eine Erwärmung der Ozeane um im Mittel etwa 0,5°C mit fallender Tendenz am Ende des Hiatus (Bild 7).

Bild 7: Messungen der Meerestemperaturen 2015 bis 2018

Dabei weist die Nordhalbkugel mit Erwärmungsspitzen bis über 1 °C höhere Temperaturen aus als die Südhalbkugel.
Andere Untersuchungen zeigen eine noch kürzere Ansprechzeit zwischen Temperaturerhöhung und CO2-Anstieg in der Atmosphäre. Die Auftragung des CO2-Anstieges auf der Basis der Messungen auf Mauna Loa (grün), der Temperaturmessungen an der Meeresoberfläche (HaDSST3) (blau) und der Lufttemperatur (HadCRUT4) (rot) zeigen bereits Ansprechzeiten für CO2-Anstiege in der Atmosphäre von nur etwa 12 Monaten nach Temperaturveränderungen (Bild 8). (11)
Alle Werte beruhen jeweils auf Monatsmittelwerten und zeigen die Differenz zwischen den Mittelwerten der letzten 12 Monaten und den Mittelwerten der vorherigen 12 Monate.

Bild 8: Messungen der CO2-Konzentrationen der Atmosphäre Mauna Loa (grün), der Temperaturen der globalen Meeresoberfläche (blau) und der globalen Lufttemperaturen (rot)

Auch von anderen Untersuchungen sind Ansprechverhalten von wenigen Monaten bekannt. (12)
Es stellt sich also die Frage, ob der Austausch von CO
2 zwischen Atmosphäre, Ozean und Biosphäre vor der Industrialisierung zu einem quasi stabilen Klimazustand führen konnte, der erst durch die anthropogenen Quellen aus der Kontrolle geraten ist und ob die Hälfte des anthropogenen C-Eintrages von 10 GtC/a zu einem Anstieg des CO2-Gehaltes in der Atmosphäre führen kann.

  1. Minderung der CO2-Emissionen durch die Corona-Krise und mögliche Auswirkung auf die CO2-Gehalte in der Atmosphäre

Forscher schätzen den Rückgang der CO2-Emissionen in der Corona-Krise bis auf – 17% gegenüber 2019 auf der Basis von Auswertungen von 70 Ländern. (1)
Wie erwähnt lautet die Hypothese, dass von den 10 GtC/a etwa die Hälfte in der Atmosphäre verbleibt (rd. 5 GtC oder 2 ppm), die andere Hälfte hälftig von der Biosphäre und den Ozeanen aufgenommen wird.
Im Folgenden wird der Frage nachgegangen, ob die verminderten CO
2-Emissionen durch Corona bei den Messungen in Mauna Loa sichtbar werden können.
In
Bild 9 sind die in der Corona-Zeit angefallenen täglichen, wöchentlichen und monatlichen CO2-Messdaten von 2019 -Juni 2020 aufgetragen. (1)

Bild 9: CO2-Messungen Mauna Loa Mai 2019 bis Juni 2020

Auch hier werden die jährlichen, durch die Biosphäre ausgelösten CO2-Schwankungen sichtbar.
CO2 ist ein gut durchmischtes Gas und ist gleichmäßig in der Atmosphäre verteilt, wenn auch in ihren Konzentrationen unterschiedlich in verschiedenen Breiten (Bild 3).
Die NOAA, die für die CO2-Messungen verantwortlich zeichnet, schätzt die Zeitverzögerung zwischen CO2-Emissionen und der Messung auf Mauna Loa auf wenige Wochen.
Die Messungen auf Mauna Loa zeigen nun, dass eine Verminderung der CO2-Gehalte durch Corona in den Messergebnissen bis Juni 2020 nicht sichtbar wird.
Der leichte Rückgang in Februar /März 2020 ist jedes Jahr sichtbar (Bild 10). (13)

Bild 10: CO2-Messungen Mauna Loa von Juni 2019 bis April 2020

Wäre denn eine Abnahme der gemessenen CO2-Gehalte auf Mauna Loa überhaupt zu erwarten gewesen?
Wie bereits ausgeführt, liegt der jährliche anthropogene C-Eintrag über fossile Brennstoffe in die Atmosphäre bei 10 GtC, bei einer Gesamt-Kohlenstoff-Menge von 870 GtC oder 410 ppm CO
2.
Wenn nun 10 GtC der Atmosphäre entnommen würden, entspräche dies bilanzmäßig einer Minderung von 4,7 ppm (vgl. Kapitel 1).
Eine Verminderung des C-Eintrages bis 17% durch Corona entspräche dann einem Abbau von
0,17 x 4,7 ppm = 0,8 ppm,
der wohl gerade hätte sichtbar sein müssen
(Bild 9).
Dies ist aber nicht der Fall, die CO
2-Gehalte steigen in den in Betracht kommenden Monaten sogar stärker an als in 2019.
Im Mai 2019 liegen nach
Bild 9 die CO2-Gehalte noch um 415 ppm, bereits im Juni 2019 abfallend, während im Mai 2020 die CO2-Gehalte im Mittel auf etwa 417 ppm ansteigen mit sogar Ausreißern von über 418 ppm, wobei eine Abnahme der CO2-Gehalte im Juni 2020 im Gegensatz zu 2019 nicht zu erkennen ist.
Dies ist ein Hinweis darauf, dass der Anstieg der CO
2-Gehalte in der Atmosphäre nicht auf den anthropogenen CO2-Eintrag zurückzuführen ist sondern andere Einflussgrößen wie ein Temperaturanstieg der Meere für den CO2-Anstieg verantwortlich zeichnen.
Ein kurzer Abriss zum Einfluss der solaren Einstrahlung auf die Temperaturentwicklung auf der Erde

Da die Temperaturentwicklung auf der Erde mit der Betrachtung der CO2-Gehalte in der Atmosphäre eng verknüpft ist, wird im Folgenden der überragende Einfluss der Sonneneinstrahlung auf die Erdtemperatur näher betrachtet werden.
Die Veränderung in der Erdbahngeometrie wird durch wechselseitige Gravitationskräfte im System Sonne-Erde-Mond hervorgerufen. Sie ändern die Form der elliptischen Erdbahn (Exzentrizität) um die Sonne mit einer Periode von 100 000 Jahren (Abbildung der Eiszeiten:
Bild 4), die Neigung der Erdachse zur Umlaufbahn (21,8 bis 24,5°) mit einer Periode von etwa 41 000 Jahren (Schiefe der Ekliptik), während die Tag- und- Nacht- Gleiche auf der elliptischen Umlaufbahn etwa nach 19 000-23 000 Jahren wieder dieselbe Position auf der Ellipse einnimmt (Präzession).
Durch diese geometrischen Veränderungen wird die Stärke der Sonneneinstrahlung auf die Erde massiv verändert.
Neben der Veränderung der Erdbahngeometrie ändert auch die Sonne die Intensität ihrer ausgehenden Strahlung durch Strömungsvorgänge im Inneren der Sonne (Magnetfeld).
Die Änderungen der ausgehenden Sonnenstrahlung unterliegen mehreren kürzeren und längeren Zyklen:

Wie bereits dargelegt wurde (Bild 5), ist die Sonnenaktivität auch für kurzzeitige Veränderungen des Erdklimas verantwortlich.
So zeigt Bild 11 (14) die Entwicklung der Schwabe-Zyklen seit etwa 1600 (dem Beginn der Aufzeichnungen) mit deutliche Schwankungen in der Sonnenaktivität.

Bild 11: Entwicklung der Schwabezyklen nach 1600

Es gab im Laufe der Jahrhunderte deutliche Einbrüche im 17. Jahrhundert – das Maunder-Minimum –, um 1800 – das Dalton-Minimum – wie auch am Ende des 19.Jahrhunderts – die sog. „Kleine Eiszeit“ (vgl. auch später Bild 13).
Diese Einbrüche der Sonnenaktivität führten zu starken Abfällen der Erdtemperaturen, Der von der NASA prognostizierte niedrige 25. Solare Zyklus deutet in die gleiche Richtung. Der zu erwartende 25. Zyklus wird als der schwächste der letzten 200 Jahren angesehen.
Auch die in Bild 5 ausgewiesenen Längen der Sonnenzyklen zwischen 1850 und 1900 ebenso wie der Anstieg bis 1945, der kurze Abfall zwischen 1945 und 1970 und der erneute Anstieg nach 1970 sind in Bild 11 zu erkennen.
Schließlich zeigt Bild 12 (15) den Gleichlauf von Sonneneinstrahlung in W/m2 und dem Temperaturverlauf auch über das Jahr 2000 hinaus.

Bild 12: Solare Sonneneinstrahlung und Temperaturverlauf

Bild 13 schließlich zeigt den Temperaturverlauf nach der letzten Eiszeit.

Bild 13: Warmphasen nach der letzten Eiszeit

Die „Little Ice Age“ spiegelt nach dem Mittelalter den Einbruch der Solaren Zyklen nach Bild 11 wider. Außerdem zeigt Bild 13 nach der letzten Eiszeit einen ständigen Wechsel von wärmeren und kälteren Phasen. Die jetzige Warmphase ist die kälteste der sechs Warmphasen nach der letzten Eiszeit.
Ausgerechnet in dieser jetzigen Warmphase bezeichnet das IPCC den Temperaturanstieg als ein apokalyptisches Ereignis durch einen vom Menschen verursachten CO
2-Anstieg, obwohl alle Warmphasen davor ohne menschliches Zutun wärmer waren als die jetzige – was an Absurdität nicht zu überbieten ist.

  1. Einordnung der Wirkung des menschlich verursachten CO2-Ausstosses in die bekannten, den CO2-Gehalt bestimmenden Größen

Die CO2-Gehalte in der Atmosphäre und ihre CO2-Kreisläufe setzen sich etwa wie folgt zusammen (vgl. Kapitel 1):

Tafel 2

In 1970 lag der anthropogene Anteil über die C-Verbrennung noch bei etwa 5 GtC/a (Bild 5), in 2020 bei 10 GtC/a. Das entspricht nach der „CO2-Bilanz der Atmosphäre“ (vgl. Kapitel 1: 1 ppm entspricht 2,12 GtC) einer Zunahme von 2,3 ppm CO2/a in 1970 auf 4,7 ppm CO2/a (0,000 47%/a) in 2020, in 50 Jahren also ein Zuwachs von 0,05 ppm CO2/a (0, 000 005%/a in der Atmosphäre).
Nun soll ausgerechnet der kleinste Teilnehmer dieses CO
2-Kreislaufes, der anthropogene Anteil von z.Z. 4,7 ppm/a mit einer jährlichen Zunahme von 0,05 ppm CO2/a in einem Umfeld von nicht messbaren Teilnehmern a) bis c) das Maß aller Dinge für die Veränderung des CO2-Gehaltes in der Atmosphäre darstellen, obwohl die Temperaturen einschließlich der Meere massiv angestiegen sind mit einem möglichen freiwerdenden CO2-Potential aufgrund der mit steigender Temperatur abnehmenden CO2-Löslichkeit von 1385/2770 ppm CO2 bei einer Temperaturerhöhung von 0,5/1°C im Bereich 15-16°C (vgl. Kapitel 2).
Hervorzuheben ist auch, dass nach den CO
2-Messungen in der Atmosphäre auf Mauna Loa der CO2-Gehalt von 1970 bis 2020 um 87 ppm entsprechend 1,74/a angestiegen ist (2000 bis 2020 um 2,1 ppm/a) (vgl. Kapitel 1). Damit steigt der gemessene CO2-Gehalt der Atmosphäre deutlich stärker an als der aus der „CO2-Bilanz der Atmosphäre“ errechnete Wert von 0,05 ppm/a. Dies ist ein weiterer deutlicher Hinweis auf den die CO2-Gehalte der Atmosphäre bestimmenden Einfluss der Temperatur.
Von allen möglichen Einflussgrößen auf den CO
2-Anstieg in der Atmosphäre unterliegen nur folgende Größen tatsächlichen Messungen:

a) CO2-Konzentrationen in der Atmosphäre
b) CO
2-Mengen aus Verbrennung
c) Messungen der Temperaturveränderungen von Atmosphäre und Meere mit der Folge von beträchtlichen CO
2-Freisetzungen
d) Messung der solaren Einstrahlung und ihre Wirkung auf die Temperatur der Atmosphäre und der Meere

Wenn davon ausgegangen wird, dass der Austausch von CO2 zwischen Atmosphäre, Ozean und Biosphäre vor der Industrialisierung zu einem stabilen Klimazustand geführt hat, der erst durch die zusätzlichen menschlichen Quellen aus der Kontrolle geraten sei, so ist das durch nichts zu begründen.
Aufgrund der gegebenen Messmöglichkeiten können nun folgende Aussagen getroffen werden:
1. ein durch die Corona- Krise zu erwartender leichter Einbruch der auf Mauna Loa gemessenen CO2-Gehalte kann nicht gefunden werden, was auf einen ausschließlichen CO2-Anstieg durch die Temperaturerhöhung der Atmosphäre wie der Meere hindeutet
2. es werden nach dem Ende des 19.Jahrhunderts bis heute deutliche Temperaturanstiege sowohl der Atmosphäre als auch der Meere durch die Veränderung der Sonneneinstrahlung gemessen mit einem erheblichen Anstieg der in der Atmosphäre gemessenen CO2-Gehalte.
3. eine Aussage zum Anstieg der CO2-Gehalte in der Atmosphäre durch anthropogene Maßnahmen können ohne Berücksichtigung der Temperatur- und CO2-Anstiege nicht gemacht werden

  1. Zur angeblichen Wirkung von CO2 auf das Klima und die Haltung Deutschlands

Die wichtigsten Akteure für den sog. „Treibhauseffekt“ sind Wasser und Wolken, nicht das vom IPCC anhand von zwischen etwa 0 und 5,8 °C gemessenen „CO2-Klimasensitivitäten“ (Ausmaß der Erwärmung bei CO2-Verdoppelung) – dem „Heiligen Gral“ der Klimawissenschaft – mit einer willkürlichen Einbeziehung von z.Z. 3°C als „best guess“ in die Modelle, die die Vergangenheit nicht nachvollziehen können, wohl aber unter Beschwörung des Weltunterganges bei steigenden CO2-Gehalten die Zukunft voraussagen wollen. (vgl. auch (16,17))
Schließlich wird auch noch der Gesamt-CO
2-Gehalt der Atmosphäre in die Modelle eingebaut und nicht der anthropogene Anteil von weltweit
z.Z. etwa 4,7 ppm CO
2/a (0,000 47%/a),
um dessen Anstieg und Einfluss auf das Klima es doch letztlich geht, der aber von den genannten Einflussgrößen auf die Temperaturentwicklung der Atmosphäre wie der Meere und damit von der stark temperaturabhängigen CO
2-Löslichkeit in Wasser völlig überlagert wird.
Schließlich darf auch nicht unerwähnt bleiben, dass die Wirkung von CO
2 in der Atmosphäre auf den sog. Treibhauseffekt nie gemessen werden konnte, geschweige denn den Einfluss des weltweiten anthropogenen Anteiles von 4,7 ppm/a, da es auch einen Treibhauseffekt aus thermodynamischen Gründen (2. Hauptsatz der Thermodynamik: Wärme fließt nur von warm nach kalt) nicht geben kann. Außerdem würden 410 ppm (0,041%) CO2 in der Atmosphäre mengenmäßig nicht ausreichen, um eine Wärmemenge von 342 W/m2 zur Erde zurückzustrahlen (IPCC), geschweige denn von 4,7 ppm (0,000 47%) CO2/a.
Ungeachtet dieser fundamentalen Fehler folgt Deutschland unterstützt von all den Nutznießern dieser mit den CO
2-Gehalten verknüpften Energiewende einschließlich einer Reihe von profitierenden Klimaforschern wie die Lemminge dem Ruf des teuersten Klimamissverständnisses aller Zeiten. Schließlich basiert die Angst vor dem Weltuntergang ausschließlich auf diesen untauglichen Modellergebnissen und hat inzwischen ungeahnte emotionale Höhen erreicht, selbst die Kirchen sprechen vom Höllenfeuer.
Zudem werden in Deutschland wie in der EU ständig neue Restriktionen zur Verminderung des CO
2-Ausstosses erfunden bei einer Verantwortlichkeit Deutschlands für
0,09 ppm CO
2/a (0,000 009%/a),
obwohl bei den gemessenen Temperaturerhöhungen der Meere von z.B. je 0,5/1 °C 1385/2770 ppm CO
2 (15-16°C) frei werden.
Für diese lächerliche Verantwortlichkeit gibt Deutschland freiwillig 6-8 Billionen € aus (18),
die Welt lacht.
Dennoch strebt Bundeswirtschaftsminister Altmaier zu ständig schärferen Klimamaßnahmen in seiner jüngsten „Charta Klimaneutralität und Wirtschaft“: mindestens 65% alternativen Energien in 2030, Klimaneutralität in 2050, d.h. auch für alle Sektoren.
Dabei entgeht ihm, dass durch die E-Mobilität oder die kürzlich propagierte „Wasserstofftechnologie“ der Strombedarf von heute im Mittel etwa 69 GW um 39 GW auf 108 GW (19) bzw. von 69 GW um 75 GW auf 144 GW (20) angehoben werden müsste.
Aber das würde immer noch nicht reichen, schließlich müssen auch noch die anderen Sektoren wie Verkehr, Industrie, etc. auf alternative Energien umgestellt werden, denn die Stromerzeugung bestimmt nur zu knapp 40% den CO
2-Austoß Deutschlands.
Auch die EU ist dabei, in ihrer Zielsetzung kräftig nachzusteuern: bis 2030 soll der CO
2-Ausstoss nun nicht mehr nur um 40% verglichen mit 1990 vermindert werden sondern um mindestens 55%, mit Klimaneutralität in 2050. Dafür sollen von dem 750 Milliarden € umfassenden Wiederaufbaufond 37% oder 278 Milliarden € in den „Green Deal“ fließen.
Auch die Autohersteller sollen die Emission ihrer Neuwagen nicht mehr nur um 37,5% verglichen mit 2021 verringern, die Kommission erwägt eine Anhebung sogar auf 50%.

Deutschland – wie die EU – sind dabei, sich von jeglicher Diskussion auf der Basis von Fakten zu verabschieden und erstarren in einer Emotionalität im Stile einer Friday-for-Future-Bewegung.
Für das tragische Ende Deutschlands wird am Ende die nicht funktionierende Energiewende stehen, denn wo soll nach Stillsetzung der Kern- und Kohlekraftwerke nachts bei Windstille der Strom herkommen (von 14-tägigen Dunkelflauten abgesehen) – ausreichende Stromspeicher kann es nicht geben.
Stromstillstände wie in Australien und wie jetzt in Kalifornien (21) sind vorhersehbar, die deutsche Industrie hat dann keine Chancen mehr, leider auch nicht die deutsche Gesellschaft.
Hier fällt einem nur noch die Aussage des „Wall Street Journal“ ein: „Die dümmste Energiewende der Welt“.
Es gibt dennoch auch Erfreuliches zu berichten: die Niederlande ist zu der Erkenntnis gelangt, dass für die Garantie der Stromversorgungssicherheit ab 2030 Kernreaktoren erforderlich sind („Die Welt“, 26.10.2020).
Quellen
1. De Vos, Rob: „CO
2 und Corona“; EIKE, 29.07.2020
2. IPCC Synthesis Report 2014
3.
Schönwiese “Klimatologie”, 3.Auflage Ulmer Verlag 2008
4. Schönfeld, Ch.: „Der globale Kohlenstoff- Haushalt: schöne Zahlen, vorgetäuschtes Vertrauen, aber höchst fragwürdig“, Teil 3; EIKE 13.06 2020
5. Lüdecke, H-J: „Was Sie schon immer über CO
2 wissen wollten; Teil 3 – der globale CO2-Kreislauf“; EIKE, 12.08 2019
6. Van Hoof et al.: Tellus 57 B, 2005, S. 351-355
7. Döhler, K.D.: „Sonnenzyklen, globale Temperatur und atmosphärische CO
2-Konzentrationen seit Beginn der Industrialisierung“; EIKE, 04.09.2020
8. Roedel „Die Atmosphäre“, 2.Auflage 1992, Springer, Seite 346
9. Vögele, P.: „Der C-Kreislauf – ein umfassender Ansatz“; EIKE, 21.08.2017
10.
Scripps Institute, Seawater CO2 Data, published by C.D. Keeling, 1957-1963
11.
Macrae, A.; J.D`Aleo: „Die wirkliche Klimakrise ist nicht die globale Erwärmung, sondern die globale Abkühlung und vermutlich hat sie bereits begonnen“; EIKE,05.03.2020
12. Schönfeld, CH.: „Der globale Kohlenstoffhaushalt: schöne Zahlen, vorgetäuschtes Vertrauen, aber höchst fragwürdig“; EIKE, 12.06.2020
13. Köhler, M,: „Ergebnisse der CO
2-Messung am Mauna Loa (Hawai), Update: 07.07.2020
14. Allon, C.: „Einsetzendes Grand Solar Minimum“, EIKE, 30.08.2020
15. Bastardi, J.: „Einige Gründe, hinsichtlich Klimaalarm skeptisch zu sein“; EIKE, 17.06.2019
16. McKitrick, R.: „All jene Prophezeiungen bzgl. eines sich erwärmenden Klimas haben plötzlich ein großes Problem“; EIKE, 16.09 2020
17. Zuiderwijk, E.: „Das Wirrwarr der Klimamodelle“; EIKE, 04.07.2020
18. Beppler, E.: „Der industrielle Niedergang Deutschlands wird nun durch den Beschluss des Bundestages zum Kohleausstieg besiegelt, obwohl die Wirkung von CO
2 auf den sog. Treibhauseffekt marginal ist“, EIKE, 26.03.2020
19. Beppler, E.: „Der Kohleausstieg ist im Sinne einer Absenkung des CO
2-Ausstosses ein Flop – und nun wird auch noch der Hype um die E-Mobilität zum Flop – quo vadis Industrieland Deutschland“; EIKE 06.05.2019
20. Beppler, E.: „Der Stoff hat das Zeug zu einem Hollywoodstreifen (BWMi, Juni 2020)“; EIKE, März 2020
21. Lehr, J.: „Die Stromausfälle kommen“; EIKE, 13.09.2020




Corona, ein Alptraum

Schlimmer geht nimmer …

Corona hat die „zweite Welle“ gestartet und um diese einzudämmen, sind alle bisherigen Maßnahmen nicht mehr ausreichend. Viel mehr muss getan werden, wie unsere unfehlbare Kanzlerin und der ihr darin nacheifernde Söder wissen. In solchen Fällen muss man jegliche Kritik abwehren und seine Meinung notfalls gegen Gesetze an allen Zauderern vorbei durchsetzen:

Der Tagesspiegel, 15.10.2020: Weil die Landesfürsten zaudern: Angela Merkel versucht das Corona-Bündnis direkt mit den Bürgern
Aus ihrer Unzufriedenheit über den Corona-Gipfel machte die Bundeskanzlerin kein Geheimnis. Am Tag danach geben ihr die Wissenschaft und aktuelle Zahlen recht.
… Angela Merkel erinnert an Udo Lindenberg, genauer gesagt an sein Lied „Mein Ding“, darin heißt es: „Ich mach mein Ding, Egal was die anderen sagen. Ich geh meinen Weg, Ob gerade ob schräg, das ist egal. Ich mach mein Ding.“Es gab bei den fast achtstündigen Beratungen im Kanzleramt nicht den einen großen Gegenspieler unter den Ministerpräsidenten, aber die Summe der Einzelbedenken und der Schlupflöcher-Suchenden führten am Ende gegen 21 Uhr zu ihrem schonungslosen Fazit, als das Gesamtpaket weitgehend stand: „Die Ansagen von uns sind nicht hart genug, um das Unheil von uns abzuwenden. Es reicht einfach nicht, was wir hier machen.“ Und der Tag danach gibt Merkel Recht.
Sie wusste natürlich, dass das sofort nach draußen dringt, so wie die Warnung im CDU-Präsidium vor „Öffnungsdiskussionsorgien“ in der ersten Welle oder ihre Rechnung mit täglich 19.200 Neuinfektionen bis Weihnachten. Die Kanzlerin hat in der Endphase der Kanzlerschaft nichts mehr zu verlieren, und macht gar nicht mehr den Versuch, Ärger und Frust zu kaschieren – in der Hoffnung, dass einige aufwachen.
Am Donnerstag springt ihr auch die Nationale Akademie der Wissenschaften Leopoldina bei, das Beschlossene sei nicht ausreichend: „In den kommenden Tagen und Wochen kann die Eindämmung der Pandemie nur noch dann gelingen, wenn die Bundesländer verpflichtende und einheitliche Schutzmaßnahmen vereinbaren und durchsetzen“, sagt Präsident Gerald Haug.

Ein Fachmann für Immunologie trug der Runde die schlimmen – möglichen – Auswirkungen und rigorose Maßnahmen vor. Die Politiker „können“ das aber nicht umsetzen, weil es der AfD nützen könnte. Das diese Argumentation eine Karikatur von Politik darstellt, kommt in Deutschland weder Politikern, noch einer Zeitungsredaktion in den Sinn.
Der Tagesspiegel: … Es sei nicht fünf vor zwölf, sondern schon zwölf, sagte er. Und empfahl eine Halbierung der Kontakte und sogar Ausreisesperren aus Risikogebieten. „So ein Fest für die AfD will aber keiner haben“, heißt es dazu aus einer Staatskanzlei …

Die Tageszeitung des Autors, die „Frankenprawda“, stieß ins gleiche Horn. Ihre Redaktion kann sich Politik, in welcher nicht die unfehlbare Merkel als Alleinherrscherin vorgibt und alle es gegen alle Gesetze klaglos hinnehmen müssen nicht mehr vorstellen, So kommentierte ein Redakteur am 15.10.: „ … auch das ist eine der Erkenntnis aus der Coronakrise, der Förderalismus hat sich während der Pandemie nicht bewährt, Im Gegenteil: Er hat zu dem vielfach beklagten Flickenteppich an Maßnahmen entschieden beigetragen. Jetzt gilt es wieder zu einem einheitlichen Webmuster im Umgang mit der Seuche wiederzufinden. Es ist schlimm, dass sich in Europa keine einheitliche Linie hat finden lassen. Zumindest in Deutschland sollte dieser Fehler vermieden werden“.

Die Datenlage

Wer meint, nach weit über einem halben Jahr Corona und Kaputtdirigieren der Wirtschaft und des öffentlichen Lebens fühlte sich irgend jemand genötigt, aussagekräftige und wenigstens nach grober Sichtung plausible Daten für die geschundenen Bürger zu hinterlegen irrt. Anscheinend ist solches „Wissen“ Politikern vorenthalten, die es dann allerhöchstens in ihren Memoiren preisgeben dürfen.
Trotzdem hat der Autor versucht, aus dem was an Daten zu finden ist eine Übersicht zusammenzustellen, mit dem Hintergrund die aktuelle „Bedrohungslage“ zu plausibilisieren.

Die erste Grafik mit den Daten des Statistischen Bundesamtes zeigt aktuell keinen Alarm, der zum „Eingreifen“ von Frau Merkel berechtigen würde oder gar Herrn Söders Aussage eines exponentiellen Anstiegs entspricht.

Bild 1 Sterbezahlen in Deutschland Mittelwert2016 … 2019; 2020 und Covid-19 Todesfälle 2020. Quelle: Statistisches Bundesamt. Abruf: 15.10.

Worauf sich die aktuelle Alarmstimmung bezieht, zeigt die folgende Grafik:

Bild 2 Anzahl täglicher Corona-Meldefälle vom 20.03. … 14.10.2020. Grafik vom Autor erstellt. Datenquelle: DIVI-Intensivregister

Nur, was nutzen die Fälle positiver Testungen, die automatisch größer werden müssen, je umfassender getestet wird und bei einem Hotspot eben kurzfristig auch „explodieren“? Im Kern möchte man doch eher die Auswirkungen auf die Gesundheit und Mortalität wissen. Die folgende Grafik zeigt diese.
Trotz steigender Fallzahlen bleiben die Auswirkungen gegenüber dem zum Pandemieanfang moderat, genauer: Sie sind kaum erkennbar:

Bild 3 Daten von Bild 2, ergänzt um die Anzahl gemeldeter intensivmedizinisch behandelter COVID-19-Fälle und Anzahl neuer Todesfälle. Grafik vom Autor erstellt. Datenquelle: DIVI-Intensivregister

Eine Detaillierung zeigt es noch deutlicher:

Bild 4 Daten von Bild 2 Anzahl täglicher Corona-Meldefälle vom 20.03. … 14.10.2020, Anzahl gemeldeter , intensivmedizinisch behandelter COVID-19-Fälle, dafür gilt die rechte Y-Achse. Grafik vom Autor erstellt. Datenquelle: DIVI-Intensivregister

Das wird auch klar, wenn man die Anzahl und Belegung der Intensivbetten betrachtet:

Bild 5 Anzahl gemeldeter intensivmedizinisch behandelter COVID-19-Fälle an Anzahl belegter Intensivbetten. Quelle: DIVI-Intensivregister

Das statistische Bundesamt zeigt in seiner Grafik (bewusst zur Verschleierung der alleine in den letzten 5 Jahren aufgetretenen, zwei Grippewellen) als Vergleich den Mittelwert der vorhergehenden vier Jahre (Bild 1). Nimmt man ein Jahr mit einer etwas höheren Gripperate – hier 2018 -, sieht man überhaupt keine durchschnittliche Erhöhung der Sterberate durch Corona. Die alleine in den letzten fünf Jahren zwei Mal aufgetretenen Grippe-Opfer mit weit höheren Mortalitäs-Fallzahlen als Corona haben die Politik nie interessiert, obwohl damals die Krankenhäuser wirklich überlastet waren.
Das ist wie bei den 600.000 Betroffenen und 22.199 direkt getöteten, bzw. vermissten „Fukushimaopfern“ aufgrund des damaligen Tsunamis. Niemanden im „Westen“ haben diese interessiert. Medial „gesucht und geehrt“ wurden ausschließlich die (nur in Erzählungen zu findenden) „Strahlenopfer“ da sich ausschließlich mit diesen Politik machen ließ.

Bild 6 Sterbezahlen in Deutschland 2018 und 2020 und Covid-19 Todesfälle 2020. Quelle: Statistisches Bundesamt. Abruf: 15.10.

Im Artikel: EIKE 11. Okt. 2020: Traue keiner Statistik, die du nicht selber gefälscht kommentiert hast
ist ein Kommentarauszug des Chefredakteurs der „Frankenprawda“ zu den Coronamaßnahmen von Trump und der unfehlbaren Merkel zu finden:
Damaliger Leitkommentar der Zeitung: „ … während Frauen an der Macht wie Angela Merkel … viel erfolgreicher sind …
Doch wer „erfolgreicher“ ist, zeigen zeigt leider ein Vergleich der Mortalitätszahlen:

Bild 7 Letalitätsrate beim Coronavirus (COVID-19) in den am stärksten betroffenen Ländern(Stand: 1. Oktober 2020).Quelle: Johns Hopkins University

Ergänzend Daten aus Schweden, wo angeblich die Einwohner „geopfert werden“, um seine Wirtschaft nicht (wie bei uns) in den Ruin zu treiben:

Bild 8 Vergleichs-Sterberaten Schweden. Grafik vom Autor erstellt. Quelle: SCB (abgerufen am 15.10.). Der Verlauf der roten Linie ist so im Original-Datensatz und dürfte fehlerhaft sein.

Testungen mit positivem Ergebnis

Laut dem RKI ist die „Positiv-Sensitivität“ der in Deutschland verwendeten Tests besser 99,99 %. Damit ist die folgende Grafik der Test-Positivquote „fehlerfrei“. Allerdings sagt ein positives Testergebnis nur eine „Berührung“ mit einem Virus aus und nicht, dass diese zur Krankheit führt oder bereits eine vorliegt.

Bild 9 Anzahl Testungen (blau, linke Achse und positive Ergebnisse, braun, rechte Achse in %). Grafik vom Autor erstellt. Datenquelle: 07.10.2020 Täglicher Lagebericht des RKI, Tabelle 4

Eine Auswertung der Tabellen des RKI ergibt für den Zeitraum KW10 – KW 40:
Anzahl Testungen: 18.129.900; davon positiv getestet: 346.865 (1,92 %);
von den positiv getesteten kamen in intensivmedizinische Behandlung: 166.093 (sind davon 48 %, von den positiv getesteten somit 0,92 %).
Im Zeitraum beträgt die Summe an Corona-Verstorbenen: 9.458 Fälle (RKI, Tabelle: Coronavirus SARS-CoV-2Todesfälle nach Sterbedatum 15.10.2020; Hinweis: in dieser Tabelle fehlen die letzten zwei Kalenderwochen, wurden vom Autor ergänzt)

Damit beträge die Summe Verstorbener bei/nach intensivmedizinischer Behandlung lediglich 5,7 %,
die Gesamt-Sterbezahl der positiv getesteten beträgt lediglich 9.459 Sterbefälle bei 346.865 positiv getesteten
und damit die Anzahl nach positivem Befund Corona-Verstorbener 0,28 %

Wie waren die Zahlen bei der letzten Grippewelle?
aerzteblatt.de, Montag, 30. September 2019: Grippewelle war tödlichste in 30 Jahren
… Die außergewöhnlich starke Grippewelle 2017/18 hat nach Schätzungen rund 25.100 Menschen in Deutschland das Leben gekostet. Das sei die höchste Zahl an Todesfällen in den vergangenen 30 Jahren, wie der Präsident des Robert-Koch-Instituts (RKI), Lothar Wieler, heute mit Blick auf eine eigene aktuelle Auswertungen erklärte.
… Die Experten gehen von 3,8 Millionen Arztbesuchen wegen Grippe in der vergangenen Saison aus. Das ist weniger als halb so viel wie 2017/18. Insgesamt registrierte das Institut von Oktober bis Mitte Mai 182.000 labordiagnostisch bestätigte Grippefälle.

Daraus ergeben sich zwei Mortalitätswerte

Bild 10 Mortalitätswerte bei der letzten Grippewelle laut Ärzteblatt

Kann sich jemand daran erinnern, dass irgendein Politiker sich damals dafür interessierte und deshalb alle Grundrechte außer Kraft gesetzt und die Wirtschaft kaputt gemacht hat?
Stimmt nicht ganz, der Gesundheitsminister hat sich vehement eingesetzt:
aerzteblatt.de: … Bundesgesundheitsminister Jens Spahn (CDU) mahnte, die Zahlen sollten allen Impfgegnern zu Denken geben. „Impfen hilft, Krankheiten zu vermeiden“, erklärte der Minister. Grippe könne aber auch tödlich sein …

Zur Datenqualität

dpa 15.10.2020: Steigende Infektionszahlen: Verschärfte Corona-Maßnahmen
… INTENSIVBETTEN – Nach den jüngsten Zahlen des Sozialministeriums (Stichtag 13. Oktober, 11.00 Uhr) liegen 399 Covid-19 Patientinnen und -Patienten in hessischen Krankenhäusern. Davon sind 67 Personen beatmungs- und intensivüberwachungspflichtig. Am Stichtag seien 6188 stationäre Betten inklusive der Beatmungs- und Intensiv-Überwachungsbetten frei gewesen. Das seien 23 Betten mehr als noch eine Woche zuvor …

Eine „offizielle“ Statistik weist für Hessen am 15.Oktober – also zwei Tage später – folgende Werte aus:

Bild 11 CORONA-Behandlungsdaten (Auszug). Quelle: DIVI-Intensivregister

Solche undefinierten Datenangaben machen jede Vergleichsmöglichkeit zunichte.
Man erkennt, dass selbst nach solch langer Berichtszeit und einer angeblichen „Jahrhundert-Herausforderung“ (Aussage unserer unfehlbaren Merkel) weder die Wortwahl noch die Zahlen vergleichbar sind. Eigentlich wäre genau dies das Erste, was man in einem solchen Fall erwarten könnte.

Unsere Politiker benötigen (oder wollen) das anscheinend nicht. Mit richtigen und vergleichbaren Zahlen könnte man wohl die Maßnahmen-Verschärfungshysterie, nie und nimmer begründen. Und was bliebe dann noch von der „Kompetenz“ einer Merkel und dem ihr nacheifernden Söder übrig?

Aus den Zahlen lässt sich lediglich grob vergleichen mit dem Ergebnis:
Die Anzahl intensiv-beatmeter Patienten beträgt grob die Hälfte der Intensivpatienten. Damit wären die DIVI-Fälle „aktuell in Behandlung“ mit 49 Fällen ganz grob mit den dpa-Fällen „beatmungs- und überwachungspflichtig“ vergleichbar. Und wahrscheinlich sind zusätzlich ca. 350 Fälle in Krankenhäusern zur „Beobachtung“ oder einfachen Behandlung in normalen Bettenbereichen.

Bild 12 Vergleich der Angaben dpa mit DIVI

Nun nochmals das Bild 5, diesmal mit zugefügter Notfallreserve. Angeblich wurde die erste Pandemie ausgerufen, um die Intensivstationen nicht zu überlasten. Nun wurde die zweite Welle ausgerufen. Nur eine Begründung, wie eine Überlastung der Krankenhäuser mit „Coronaopfern“ ist nicht erkennbar. Zumindest der Autor findet sie nicht.

Bild 13 Anzahl gemeldeter intensivmedizinisch behandelter COVID-19-Fälle mit Anzahl Betten und Notfallreserve. Bild vom Autor zusammengesetzt. Quelle: DIVI-Intensivregister

Macht aber nichts. Profilierungssüchtige Landesfürsten erklären einfach den Notstand und unterscheiden sie sich im Vorgehen nicht mehr von dem verhassten, angeblich alles falsch machenden Trump:
Der Spiegel am 15.10.2020: Corona: Bayern verschärft Maskenpflicht und Kontaktbeschränkungen
Stundenlang haben Bund und Länder über strengere Corona-Maßnahmen verhandelt. Bayerns Ministerpräsident Söder gehen die Ergebnisse nicht weit genug. In seinem Bundesland sollen strengere Regeln gelten … „Die Lage ist leider ernst, und sie wird jeden Tag ernster“, sagte er nach der Kabinettssitzung. Corona sei immer dramatischer in ganz Europa aktiv. Auch wenn es keinen Grund zur Panik gebe, sei die Situation sogar deutlich komplexer als im vergangenen Frühjahr. Denn jetzt stehe der Winter vor der Tür, und zugleich „explodieren die Zahlen in ganz Europa“.

Und über seine Pressekonferenz auf den MSN-Nachrichten:
Pressekonferenz mit Markus Söder im Live-Ticker:
Söder erklärt: „Wenn die Krankenhäuser voll sind, ist es zu spät“ (14.50 Uhr)
„Könnte sich selbst überflüssig machen“ (14.40 Uhr)
Europas Wohlstand steht auf dem Spiel“ (14.36 Uhr)
„Es wird dieselben medizinischen Folgen wie in der ersten Welle geben“ (14.30 Uhr)
„Wir setzen den Rahmen, aber jeder Einzelne von Ihnen muss mitmachen“ (14.15 Uhr)
Söder verschärft die Regeln: So sehen Sie aus (14.07 Uhr)
„Gipfel war kein Ruck, aber ein wichtiger Schritt“ (14.06 Uhr)
„Wir rücken dem Lockdown jeden Tag ein Stückchen näher“ (14.02 Uhr)

Vergleicht man die relativen Meldezahlen von Deutschland und Bayern, fällt auf, dass Bayern einen geringeren Meldeanstieg als Deutschland gesamt ausweist. Geführt hat es dazu, dass Herr Söder für Coronaverstöße seiner Untertanen die höchsten Bußgelder in Deutschland angeordnet hat.

Bild 14 Anzahl gemeldeter COVID-19-Fälle Deutschland und Bayern. Der Verlauf Bayern ist auf den Verlauf Deutschland gezoomt, also nur relativ zu betrachten. Bild vom Autor zusammengesetzt. Bildquelle: DIVI-Intensivregister

Mortalitätschaos

Wie alle Grafiken zeigen, führt nur die alleinige Darstellung der Fallzahlen zur Hysterie und wird auch entsprechend genutzt.

Viel wichtiger wäre aber der Vergleich mit den darauf wirklich folgenden Krankheits- und Todesfälle. Und genau daran hat unsere Politik und die fachlich Verantwortlichen scheinbar kein Interesse. Zumindest finden sich für den Bürger keine plausiblen Angaben. Und der Autor vermutet dass die Politiker sie ebenfalls nicht haben. Wer überhaupt etwas (plausibles) darüber erfahren möchte, ist auf Sekundärquellen (vorwiegend von sogenannten, rääääächten, da kritischen Plattformen) angewiesen.

EIKE 6. August 2020: Letalitätsrate und Mortalität in Deutschland und ausgewählten europäischen Ländern
Corona-Letalität Sterbefälle
… Von den ca 1500 positiv auf Corona Getesteten des Schlachtbetriebs Tönnies in NRW mussten 9 auf die Intensivstation, 2 wurden beatmet, ein Todesfall ist nicht eingetreten. Die 9 Intensivkranken stellen eine sehr niedrige Rate von weit unter 1 % dar, die in Verbindung mit der Letalitätsrate von 0 % ebenfalls bestätigt, dass SARS-CoV-2 ein zwar ernst zu nehmendes, aber insgesamt doch eher harmloses Virus ist.
italienischen Rechnung zu zweifeln, nach der 88 % der „Coronatoten“, nicht „an“, sondern nur „mit“ Corona  verstorben sind

Global hatte sich „Achgut“ des Themas angenommen und zeigt neben dem, dass wohl nur in den USA bei der Erfassug zwischen „mit Corona“ und „an Corona“ Verstorbenen unterschieden wird, auch internationale Vergleichswerte:
Achgut 13.10.2020 (Auszug): Wollt Ihr die totale Gesundheit? – Der Elch im Raum (2)
Der „Corona-Tod“ und die Übersterblichkeit
Wenn seitens des RKI bezogen auf Deutschland von 15.000 bis 30.000 Toten während schwerer Grippewellen die Rede ist, dann sind dies Übersterblichkeitstote, d.h. solche, die in dem Sinne „an“ Influenza gestorben sind, als sie das betreffende Jahr ohne Infektion überlebt hätten. Anders ausgedrückt, wer im Jahr der Epidemie statistisch erwartet ohnehin gestorben wäre, ist aus der Zählung herausgerechnet, auch dann, wenn Influenza bei ihm nachweisbar gewesen wäre. Zweifelsfrei an Corona ist in diesem Sinne gestorben, für den sich andere Todesursachen ausschließen lassen. Nach
US-amerikanischer CDC war dies laut Patientenakten bei 6 Prozent aller dort amtlich ausgewiesener „Corona-Toten“ der Fall (Italien: 3,8 Prozent). Bei 94 Prozent lagen durchschnittlich 2,6 Komorbiditäten (Italien: 3 Komorbiditäten im Median) vor – und zwar stets Erkrankungen, die in Europa wie USA zu den Top-10-Todesursachen des Jahres gehören. Nur bei 45 Prozent dieser multimorbid Verstorbenen wurde der kritische Corona-Verlauf einer Lungenentzündung („excluding influenza“) festgestellt. Für weniger als die Hälfte aller „Corona-Toten“ ist dementsprechend Covid-19 als „Underlying Cause of Death“ in den Totenscheinen aller Bundestaaten und Regionen vermerkt. (Von den übrigen multimorbiden 55 Prozent aller US-amerikanischen „Corona-Toten“ war – Stand 5. Oktober – bei 75 Prozent „influenza & pneumonia“ eine der Nebenerkrankungen.) Patientenakten sind überdies ungenauer als Obduktionen. In Deutschland stellte Rechtsmediziner Püschel bei der Sezierung aller Hamburger „Corona-Toten“ immer wieder fest, dass kein Einziger ohne Vorerkrankungen war, und ausnahmslos alle „in absehbarer Zeit“ auch ohne Corona-Infektion gestorben wären.

Würde stimmen, was in Deutschland über die Mortalität berichtet wird, müssten sich die deutschen Krankenhäuser fragen lassen, ob sie zur Coronabehandlung überhaupt geeignet sind.

AOK Bundesverband 29.07.20: Etwa ein Fünftel der stationär behandelten Covid-19-Patienten ist verstorben
Erst in einer Grafik erfährt man, dass sich dies auf den Behandlungszeitraum 26. Feb. – 19.April bezieht, als man noch nicht wusste, wie Covid-Patienten optimal zu behandeln sind.

Bild 15 Quelle: AOK

Und dann wird doch noch auf ein „Nebenthema“ hingewiesen:
AOK: Beatmete Patienten haben häufiger Begleiterkrankungen
Stationär behandelte Covid-19-Patienten weisen häufig eine Reihe von Begleiterkrankungen auf. Der Anteil der Patienten mit Begleiterkrankungen liegt bei den Patienten mit Beatmung deutlich höher als bei den Patienten ohne Beatmung. So hatten beispielsweise 24 Prozent der Patienten ohne Beatmung Herzrhythmusstörungen; bei den Patienten mit Beatmung waren es 43 Prozent. Eine Diabetes-Erkrankung lag bei 26 Prozent der Patienten ohne Beatmung und bei 39 Prozent der Patienten mit Beatmung vor.

Am 13. Oktober 2020 wurde dies als aktuelle Analyse des Wissenschaftlichen Instituts der AOK nochmals publiziert:
CASH.ONLINE 13. Oktober 2020: AOK-Studie zu Covid-19 : “Die hohe Sterberate ist durchaus besorgniserregend”
“Die Daten zeigen, dass in der ersten Infektionswelle im Frühjahr 2020 nur verhältnismäßig wenige arbeitsunfähige Erwerbstätige aufgrund einer Covid-19-Erkrankung im Krankenhaus behandelt werden mussten. War jedoch ein Krankenhausaufenthalt notwendig, ergaben sich auch weitere schwere gesundheitliche Beeinträchtigungen, die über die akute Erkrankung hinausgingen”, sagt Helmut Schröder, stellvertretender Geschäftsführer des WIdO.
“Die hohe Sterberate ist durchaus besorgniserregend”
… Die gravierenden Auswirkungen der Erkrankung zeigen sich auch in der hohen Sterblichkeitsrate der stationär behandelten Beschäftigten, die im Beobachtungszeitraum bei 3,3 Prozent lag. “Angesichts der Tatsache, dass hier AOK-versicherte Erwerbstätige mit einem durchschnittlichen Lebensalter von 47 Jahren betroffen sind, ist die hohe Sterberate durchaus besorgniserregend”, so Schröder.

Wer nun meint, diese Daten wären direkt vor Ort erhoben worden irrt. Sie wurden aus Abrechnungsdaten generiert:
aerzteblatt,de: Beatmete Patienten: Ursachen der COVID-19-Mortalität
… Wissenschaftler aus mehreren deutschen Kliniken werteten dafür Abrechnungsdaten der AOK aus. Besonders hoch war die Sterblichkeit bei schwer kranken COVID-19-Patienten, die beatmet werden mussten: Von ihnen starben 52,5 %, jedoch „nur“ 16 % der nicht beatmeten Patienten. Es ist die erste große und gut dokumentierte Studie dieser Art in Deutschland – „Das gab es bisher noch nicht“, so die Einschätzung von Prof. Dr. med. Michael Pfeifer, Präsident der Deutschen Gesellschaft für Pneumologie und Beatmungsmedizin (DGP) …

Mortalitätszahlen: Das Chaos ist noch schlimmer

Bild 16 Fallzahlen (Auszug) Deutschland, Stand 16.10.2020. Quelle: RKI

Nach dem Achgut-Artikel seien die Zahlen:
USA: von 100 mit Corona gestorbenen sind lediglich 6 % alleine durch Corona verursachte Sterbefälle
Italien: dort seien es lediglich 3,8 %
Deutschland:
Pathologe Puschel: kein Corona-Verstorbener war ohne erhebliche Vorerkrankung
Aus anderen Quellen:
AOK: ca. 20 % der stationär behandelten sind verstorben.
Jetzt muss man selber nachrechnen: Aktuell ist der Anteil stationär behandelter zu Gemeldeten:

Versuch einer Abschätzung für das Bundesland Hessen (man beachte, dass man sich solch wichtige Information aus verschiedenen – voneinander abweichenden und unvollständigen – Datensätzen selbst zusammensuchen muss und sich wegen der unterschiedlichen Meldetage und Begriffe teils drastische Abweichungen ergeben):

Hessen:
Anzahl Meldefälle: 24.151
Anzahl Todesfälle: 1.920
Anteil Todesfälle: 8 % der Meldefälle

Anzahl stationär behandelter Fälle:
Laut der dpa-Meldung vom 15.10.2020 entweder 399 Fälle („liegen in Krankenhäusern“), oder 67 Intensivfälle („beatmungs- und intensivüberwachungspflichtig“),
oder nach Bild 9 („aktuell in Behandlung“) 49 Fälle

Entsprechend ergeben sich:
Laut AOK sind 20 % der stationär behandelten verstorben. Nun kann man wählen, auf welcher Basis das gemeint ist:
AOK: „Bei fast jedem siebten AOK-versicherten Beschäftigten, der vom Arzt wegen einer Covid-19-Erkrankung als arbeitsunfähig erklärt wurde, machte ein besonders schwerer Verlauf der SARS-CoV-2-Infektion einen Krankenhausaufenthalt notwendig (13,6 Prozent)“ ... 3,3 Prozent der Erwerbstätigen, die wegen einer besonders schweren Covid-19-Erkrankung stationär behandelt werden mussten“.

Eine Rückrechnung ergibt:
67 zu 400: 16,75 %
3,3 zu 13,6 %: 24 %
Demnach könnten in der AOK-Studie doch die Intensivfälle (und nicht alle Stationärfälle) gemeint sein. Wahlweise ergeben sich daraus folgende Mortalitätszahlen:
Bezogen auf die 399 Behandlungsfälle: 20 % davon sind 80 Gestorbene, damit 4,16 % der Meldefälle, oder
bezogen auf die 49 Intensivfälle; 20 % davon sind grob 10 Gestorbene, damit 0,52 % der Meldefälle

Wer nun meint, damit hätte man mit vielleicht 0,57 % den „richtigen“ Wert, wird eines Besseren belehrt:
Augsburger Allgemeine 14.10.2020: Forschung: Wie hoch ist die Sterblichkeit bei Covid-19?
… Das Team um den Epidemiologen Gideon Meyerowitz-Katz von der australischen University of Wollongong beziffert die Infektionssterblichkeit für die USA mit 0,8 Prozent …
… In Deutschland lag die Fallsterblichkeit nach einer registrierten Sars-CoV-Infektion dem Robert Koch-Institut (RKI) zufolge Anfang Oktober bei 3,2 Prozent.

Der niedergelassene Arzt: Coronavirus: Warum die Sterblichkeit so verschieden ist
Studie des Exzellenzclusters ECONtribute
… Der Anteil der Verstorbenen ist in Italien deutlich höher als hierzulande. In Deutschland liegt der Anteil der Patienten mit tödlichem Krankheitsverlauf noch immer bei unter 0,3 Prozent, in Italien hingegen bei rund sechs Prozent (Stand 15. März). Das bedeutet, dass in Italien pro 1.000 Erkrankten im Schnitt 60 Menschen sterben, in Deutschland hingegen drei.
Das wären 0,3 %, bezogen auf die Anzahl Erkrankten (sind das alle Gemeldeten, oder die daraus mit Krankheitssymptomen?) und damit nicht einmal ein Zehntel des vom RKI gemeldeten Wertes.

Natürlich gibt es auch nochmals andere Angaben:
Ärztezeitung: Modellrechnung Corona-PandemieMortalität bei COVID-19 niedriger als angenommen?
… Laut neuer Modellrechnungen sterben im Durchschnitt 1,4 Prozent der symptomatischen Patienten mit COVID-19. Das Sterberisiko wäre demnach geringer als vermutet …
Was man auf der Homepage der Ärztezeitung allerdings nicht sieht: Diese Meldung stammt vom 23.03.2020.

SciencORF.at, 12. Mai 2020: Coronavirus Sterblichkeitsrate von 0,75 Prozent
Wie tödlich das Coronavirus wirklich ist, gehört zu den umstrittensten Fragen der Krankheit. Eine neue Metastudie kommt nun auf eine durchschnittliche Sterblichkeitsrate von 0,75 Prozent – hat aber eine große Schwankungsbreite.
… Die meisten der 13 Studien stammten aus China und Italien und unterschieden sich in Umfang und Methode. Die Spannbreite ihrer Resultate war ebenfalls sehr groß: Die Studie mit der geringsten Infektionssterblichkeit kam auf einen Wert von 0,2 Prozent, jene mit der größten auf 1,6 Prozent … Der statistische Durchschnittswert liege bei 0,75 Prozent …

Fazit

Auf diese auch nach so langer Zeit weiterhin nur chaotisch – und vor allem auch veraltet – zu nennende Datenlage veranlassen unsere Politiker Maßnahmen, welche das öffentliche Leben und einen erheblichen Teil der Wirtschaft in den Ruin treiben.
Hatte Herr Spahn einstmals noch einen kurzen Augenblick von Erkenntnis:
hr Info 02.09.20: Kommentar: Spahn zu Corona-Lockdown
Wenn Gesundheitsminister Jens Spahn sagt, mit dem Wissen von heute hätte man den Einzelhandel und etwa Frisörgeschäfte nicht schließen müssen, dann ist dabei ganz wesentlich der Zusatz: „Mit dem Wissen von heute.
so ist diese einsame Stimme im Politikbetrieb längst wieder untergegangen und dem sattsam bekanntem Alarmismus gewichen – was von Redakteuren in Leitkommentaren auch noch begrüßt wird: Leitkommentar der „Frankenprawda“ über Frau Merkels „Lenkung“ der Corona-Maßnahmen im Vergleich zu Trump: „ … während Frauen an der Macht wie Angela Merkel … viel erfolgreicher sind …

Corona-Hotspot Nürnberg

Nürnberg ist gerade ein Corona-Hotspot Bayerns geworden. Am 17.10. kam mit dieser Lokalmeldung einer Tageszeitung eine weitere Information: Herzbeschwerden nicht verdrängen
„Durch die verzögerte Behandlung seien schon mehr Menschen gestorben als an COVID 19, warnt das St. Theresien-Krankenhaus“ … schon zu Beginn der Pandemie habe St. Theresien die Zahl der Intensivbetten von zehn auf 14 erhöht … „60 % der Kapazitäten sind frei“. Derzeit wird lediglich ein einziger Covid-19-Patient intensivmedizinisch behandelt …
Ergänzung: Stadt Nürnberg (abgefragt am 17.10.): In allen Nürnberger Krankenhäusern werden derzeit 6 Coronafälle intensiv beatmet.
Auf Weisung von Herrn Söder zieht Nürnberg nun „die Zügel“ für seine Untertanen ganz massiv an, um die Stadt vor der Pandemie zu retten …

Wie freut man sich, wenn wirkliche Fachpersonen sich dazu einschalten und ihre weisen Ratschläge geben:
DER SPIEGEL 16.10.2020: Peter Maffay: „Leute, die Corona leugnen, schaden der Gesellschaft“

Die Parallelen zum Kampf gegen den Klimawandel sind unübersehbar.

 




Überraschende Wissenschaft: So etwas wie saubere Energie gibt es nicht

Die Sorge um den Klimawandel hat zu massiven Investitionen in neue politische Maßnahmen bzgl.„grüner Energie“ geführt, die darauf abzielen, den Ausstoß von Treibhausgasen (THG) und andere Umweltauswirkungen der fossilen Brennstoffindustrie zu reduzieren. Die Welt gab von 2011 bis 2018 insgesamt 3660 Milliarden US-Dollar für Klimaschutzprojekte aus. Insgesamt 55% dieser Summe wurden für Sonnen- und Windenergie ausgegeben, während nur 5% für die Anpassung an die Auswirkungen extremer Wetterereignisse aufgewendet worden waren.

Überraschende Auswirkungen auf die Umwelt

Die Forscher entdeckten, dass erneuerbare Energiequellen manchmal zu Problemen beitragen, für deren Lösung sie konzipiert wurden. So hat beispielsweise eine Reihe internationaler Studien festgestellt, dass sowohl Wind- als auch Solarparks selbst lokale Klimaveränderungen verursachen. Windparks erhöhen die Temperatur des Bodens unter ihnen, und diese Erwärmung führt dazu, dass die Bodenmikroben mehr Kohlendioxid freisetzen. Es ist also eine Ironie, dass die Windenergie zwar die menschlichen „Kohlenstoffemissionen“ teilweise reduziert, aber gleichzeitig die „Kohlenstoffemissionen“ aus natürlichen Quellen erhöht.

Abbildungen: Die Fotografien zeigen zwei verschiedene Arten des „Sog-Effekts“ bei Offshore-Windparks vor der dänischen Küste. (a) Die Fotografie von Christian Steiness zeigt den Kielwassereffekt von kalter, feuchter Luft, die über eine wärmere Meeresoberfläche strömt, in Anlehnung an Abbildung 2 von Hasager et al. (2013), reproduziert unter der Creative-Commons-Urheberrechtslizenz CC BY 3.0. (b) Fotografie von Bel Air Aviation Denmark – Helicopter Services zeigt den Nachlaufeffekt von warmer, feuchter Luft, die über eine kühlere Meeresoberfläche strömt, nach Abbildung 2 von Hasager et al. (2017).  Reproduziert unter der Creative-Commons-Urheberrechtslizenz CC BY 4.0.

Grüne Energietechnologien erfordern im Vergleich zu Strom aus fossilen Brennstoffen eine 10-fache Steigerung der Gewinnung von Mineralien. In ähnlicher Weise würde der Ersatz von nur 50 Millionen der weltweit geschätzten 1,3 Milliarden Autos durch Elektrofahrzeuge mehr als eine Verdoppelung der weltweiten Jahresproduktion von Kobalt, Neodym und Lithium erfordern und mehr als die Hälfte der derzeitigen jährlichen Kupferproduktion der Welt in Anspruch nehmen.

Solar- und Windparks benötigen zudem die 100-fache Fläche der mit fossilen Brennstoffen erzeugten Elektrizität, und diese daraus resultierenden Landnutzungsänderungen können sich verheerend auf die biologische Vielfalt auswirken. Die Auswirkungen der Bioenergie auf die biologische Vielfalt sind noch schlimmer, und die verstärkte Nutzung von Nutzpflanzen wie Palmöl für Biokraftstoffe trägt schon jetzt zur Zerstörung von Regenwäldern und anderen natürlichen Lebensräumen bei.

Verwirrende finanzielle Auswirkungen

Überraschenderweise wurde mehr als die Hälfte (55%) aller weltweiten Klimaausgaben in den Jahren 2011 bis 2018 für Sonnen- und Windenergie ausgegeben – insgesamt 2 Billionen [2000 Milliarden] US-Dollar. Trotzdem produzierten Wind- und Solarenergie auch im Jahr 2018 nur 3% des Weltenergieverbrauchs, während die fossilen Brennstoffe (Öl, Kohle und Gas) zusammen 85% erzeugten. Dies wirft die drängende Frage auf, was es kosten würde, den Übergang zu 100% erneuerbaren Energien zu vollziehen, wie es einige Forscher vorschlagen.

Der Leittautor Coilín ÓhAiseadha sagt: „Es kostete die Welt 2 Billionen Dollar, den Anteil der durch Sonne und Wind erzeugten Energie von einem halben Prozent auf drei Prozent zu erhöhen, und es dauerte acht Jahre, um dies zu erreichen. Was würde es kosten, diesen Anteil auf 100% zu erhöhen? Und wie lange würde dies dann dauern?“

Welt-Energieverbrauch nach Energiearten, 2018. Daten von BP (2019)Welt-Energieverbrauch nach Energiearten, 2018. Daten von BP (2019)

Ungeheure technische Herausforderungen

Ingenieure wussten schon immer, dass große Solar- und Windparks vor dem so genannten „Intermittenz-Problem“ stehen. Im Gegensatz zu konventionellen Stromerzeugungsquellen, die kontinuierlich und zuverlässig rund um die Uhr auf Abruf Energie liefern, erzeugen Wind- und Solarparks nur dann Strom, wenn Wind oder Sonnenlicht vorhanden sind.

„Der Durchschnittshaushalt erwartet, dass seine Kühl- und Gefrierschränke ununterbrochen laufen und das Licht bei Bedarf ein- und ausgeschaltet werden kann. Wind- und Solar-Befürworter müssen anfangen zuzugeben, dass sie nicht in der Lage sind, diese Art von kontinuierlicher und bedarfsgerechter Stromversorgung auf nationaler Ebene, wie sie moderne Gesellschaften gewohnt sind, bereitzustellen“, sagt Dr. Ronan Connolly, Mitautor des neuen Berichts.

Das Problem lässt sich nicht so leicht durch großflächige Batteriespeicherung lösen, da dafür riesige Batterien erforderlich wären, die viele Hektar Land bedecken würden. Tesla hat eine große Batterie gebaut, um das Netz in Südaustralien zu stabilisieren. Sie hat eine Kapazität von 100 MW/129 MWh und bedeckt einen Hektar Land. In einem der in dieser neuen Studie überprüften Papiere wurde geschätzt, dass der kanadische Bundesstaat Alberta im Falle einer Umstellung von Kohle auf erneuerbare Energien mit Erdgas und Batteriespeicherung als Backup 100 dieser großen Batterien benötigen würde, um den Spitzenbedarf zu decken.

Einige Forscher haben vorgeschlagen, dass die Schwankungen in der Energieproduktion durch den Bau kontinentaler Stromübertragungsnetze ausgeglichen werden können, z.B. durch ein Netz, das Windparks in Nordwesteuropa mit Solarparks im Südosten verbindet, aber dies erfordert massive Investitionen. Es wird wahrscheinlich Engpässe schaffen, wenn die Kapazität der Verbindungsleitungen nicht ausreicht, und es beseitigt nicht die grundsätzliche Anfälligkeit für Flauten von Sonne und Wind, die tagelang anhalten können.

Schädigung der Ärmsten

Eine Reihe von Studien aus Europa, den USA und China zeigt, dass Kohlenstoffsteuern tendenziell die ärmsten Haushalte und Landbewohner am stärksten belasten.

Obwohl die Hauptmotivation für grüne Energiepolitik der Sorge um den Klimawandel geschuldet ist, wurden nur 5% der Klimaausgaben für die Anpassung an den Klimawandel aufgewendet. Zur Klimaanpassung gehört die Unterstützung von Entwicklungsländern bei der besseren Reaktion auf extreme Wetterereignisse wie Wirbelstürme. Die Notwendigkeit, eine Infrastruktur für die Klimaanpassung und Notfallsysteme aufzubauen, kann mit der Notwendigkeit, die Treibhausgasemissionen zu reduzieren, in Konflikt geraten, da fossile Brennstoffe im Allgemeinen die am leichtesten verfügbare Quelle billiger Energie für die Entwicklung sind.

In Bezug auf die indigenen Völker hebt der Report die Tatsache hervor, dass alle Energietechnologien schwerwiegende Auswirkungen auf lokale Gemeinschaften haben können, insbesondere wenn sie nicht ordnungsgemäß angewendet werden. Der Kobaltbergbau, der für die Herstellung von Batterien für E-Fahrzeuge erforderlich ist, hat schwerwiegende Auswirkungen auf die Gesundheit von Frauen und Kindern in Bergbaugemeinden, wo der Abbau oft in unregulierten, kleinen, „handwerklichen“ Bergwerken erfolgt. Die Lithiumgewinnung, ebenfalls für die Herstellung von Batterien für E-Fahrzeuge erforderlich, erfordert große Mengen an Wasser und kann zu Umweltverschmutzung und Süßwasserknappheit in den örtlichen Gemeinden führen.

Leitautor Coilín ÓhAiseadha drückt es so aus: „Über den Konflikt zwischen dem Stamm der Standing Rock-Sioux und der Dakota Access-Pipeline wurde weltweit berichtet, aber wie steht es um die Auswirkungen des Kobaltabbaus auf die indigenen Völker in der Demokratischen Republik Kongo, und wie steht es um die Auswirkungen der Lithiumgewinnung auf die Völker der Atacama-Wüste? Erinnern Sie sich an den Slogan, den sie in Standing Rock skandierten? Mni Wiconi! Wasser ist Leben! Nun, das gilt unabhängig davon, ob Sie sich um die Standing Rock Sioux Sorgen machen, dass eine Ölpest den Fluss verschmutzt, oder ob Sie sich in der Atacama-Wüste Sorgen machen, dass der Lithiumabbau Ihr Grundwasser verschmutzt“.

Überblick der Studie

Die Rezension, am 16. September in einer Sonderausgabe der Zeitschrift Energies veröffentlicht, umfasst 39 Seiten mit 14 farbigen Abbildungen und zwei Tabellen, in denen die Aufschlüsselung der Ausgaben für den Klimawandel sowie die Vor- und Nachteile der verschiedenen Energieformen – Wind, Sonne, Wasser, Kernenergie, fossile Brennstoffe, Bioenergie, Gezeiten und Geothermie – detailliert dargestellt werden. Für die Überprüfung durchsuchten die Forscher akribisch Hunderte von Forschungspapieren, die in der gesamten englischsprachigen Welt veröffentlicht wurden, und zwar in einer Vielzahl von Bereichen, darunter Technik, Umwelt, Energie und Klimapolitik. Der Schlussbericht enthält Verweise auf 255 Forschungsarbeiten, die alle diese Bereiche abdecken, und er schließt mit einer Tabelle, in der die Vor- und Nachteile der verschiedenen Energietechnologien zusammengefasst sind. Die Mitglieder des Forschungsteams stammen aus der Republik Irland sowie aus Nordirland und den Vereinigten Staaten.

The review was published as an open-access peer-review paper and can be downloaded for free from the following URL: https://www.mdpi.com/1996-1073/13/18/4839 .

The full citation is as follows: ÓhAiseadha, C.; Quinn, G.; Connolly, R.; Connolly, M.; Soon, W. Energy and Climate Policy—An Evaluation of Global Climate Change Expenditure 2011–2018. Energies 2020, 13, 4839.

Funding: C.Ó., G.Q., and M.C. received no external funding for works on this paper. R.C. and W.S. received financial support from the Center for Environmental Research and Earth Sciences (CERES), while carrying out the research for this paper. The aim of CERES is to promote open-minded and independent scientific inquiry. For this reason, donors to CERES are strictly required not to attempt to influence either the research directions or the findings of CERES. Readers interested in supporting CERES can find details at  Link.

Link: https://www.ceres-science.com/content/Renewables.html

Übersetzt von Chris Frey EIKE




Die Wahl zwischen Kohlenstoff und Silikon

Die Präsidentschafts- und Abwärtswahlen 2020, sollten die Demokraten als Sieger hervorgehen, werden diesen Ansturm auf eine vollelektrische Gesellschaft mit wenigen Ausnahmen zweifellos beschleunigen. Während einige eine rosige Zukunft vorhersagen, sind andere nicht so sicher. So werden sich die Amerikaner in wenigen Tagen entscheiden, ob sie ihre komfortable, auf Kkohlenstoff basierende Welt aufgeben und ihre Zukunft der bevorzugten Wind- und Solarzukunft des Silicon Valley anvertrauen wollen.

Auf einer breiteren Ebene besteht der Gegensatz nicht zwischen „alter, schmutziger“ bzw. „neuer, sauberer“ Energie. Die hochtechnologischen Herren der Sonne und des Windes sehen die Menschheit ganz anders als die Generationen, welche die feudalen Aristokratien stürzten und eine industrielle Revolution hervorbrachten. Diese Gesellschaft erweckte das Interesse an der Befreiung des Menschen von unterdrückenden Monarchen, die sich selbst bereicherten. Sie verfasste eine Menschenrechts-Erklärung [Bill of Rights] in einer Form, dass keine Regierung es wagt, dagegen zu verstoßen.

Die neuen Technologielords haben (selbst in Zeiten einer Pandemie) ein seltsames Vermögen angehäuft und praktisch ein Vetorecht über alle Vorstellungen oder Entwicklungen, die nicht ihren Interessen dienen. Sollten sich ihre Kandidaten im November durchsetzen, werden die USA – und die ganze Welt – all ihre Freiheiten eingebüßt haben und am Ende dessen angelangt sein, was Friedrich Hayek „Der Weg zur Leibeigenschaft“ nannte.

Wahlen haben Konsequenzen“

Wie Travis Hoium im Jahre 2017 berichtete, treibt das Silicon Valley die Revolution der erneuerbaren Energien und damit den Vorstoß zur „Dekarbonisierung“ voran. Ihr Bannerträger ist, wie Nish Acharya in Forbes berichtete, nicht das Relikt Joe Biden aus dem 20. Jahrhundert, sondern die Vize-Präsidentschaftskandidatin (die schnell aufsteigen könnte) Kamala Harris.

Acharya, ein leitendes Mitglied des Center for American Progress, sagt, dass Harris „die Bay Area und das Silicon Valley auf eine Weise versteht, wie es nur wenige nationale Politiker könnten…. Sie versteht [und billigt, wie wir glauben,] ihre außerordentliche Macht, transformative Technologien zu schaffen, und ihre gefühllose Missachtung der Art und Weise, wie diese Technologien die Gesellschaft und die menschliche Existenz beeinflussen“.

[Hervorhebung im Original]

Diese gefühllose Missachtung wurde von der Kandidatin der Demokratischen Partei im Jahre 2016, welche die 60 Millionen, die gegen sie stimmten, als „hoffnungslos bedauernswert“ bezeichnete, gut zum Ausdruck gebracht. Diese Ansicht wurde anscheinend von Vielen im offiziellen Washington geteilt. Der Internal Revenue Service erlangte vor einem Jahrzehnt Berühmtheit dafür, dass er konservative gemeinnützige Organisationen ins Visier nahm, um ihren Status als gemeinnützige Organisationen zu verzögern oder sogar zu leugnen.

Generalstaatsanwalt Jeff Sessions räumte ein, es sei „klar“, dass die Obama-Steuerbehörde „unangemessene Kriterien für die Prüfung von Anträgen konservativer Gruppen auf Steuerbefreiung anwendet“. Doch trotz mehrfacher Untersuchungen und Klagen erhob die Trump-Regierung niemals Strafanzeige gegen abtrünnige IRS-Beamte.

Tote reden nicht“

Vielleicht ermutigt durch diese Unfähigkeit, begannen die Social-Media-Giganten, zusammen mit dem fast monopolistischen Suchmaschinengiganten Alphabet, Inc. (dem Google und YouTube gehören), Data Mining einzusetzen, um Profile zu erstellen und zu manipulieren, was die Nutzer zu sehen bekommen. Sie begannen auch, Gedanken, Einzelpersonen, Unternehmen, gemeinnützige Organisationen und andere zu zensieren, deren Ansichten ihre „Faktenprüfer“ für anstößig hielten – durch sich ständig ändernde, unveröffentlichte Standards.

Summit News berichtete im Juli, dass Google Search zahlreiche große konservative Websites – darunter Breitbart, The Daily Caller, Infowars, Human Events, Red State und viele andere – auf eine schwarze Liste gesetzt hatte, indem sie sie aus den Ergebnissen einer anscheinend umfangreichen neuen Zensurbereinigung entfernt hatte.

YouTube hat seit mehreren Jahren Videos des jüdischen Kommentators Dennis Prager wegen verschiedener Verstöße gegen seine „Standards“ gesperrt. Unter Amerikas verworrenem Rechtsrahmen ist die Plattform trotz der Prahlerei, dass „jeder eine Stimme verdient“, ein privates Forum und „kein staatlicher Akteur“, der dem Ersten Verfassungszusatz unterliegt. Die Amerikaner haben erst vor kurzem erfahren, dass das, was sie für ein „freies“ Internet hielten, sowie „öffentliche“ Foren weder frei noch öffentlich sind.

Diese selbsternannten absolut Unfehlbaren haben bei der Zensur von Informationen über das COVID-19-Virus durchgedreht. Das Wall Street Journal erhob Widerspruch gegen die abrupte Entscheidung von YouTube, ein 50-minütiges Video mit dem Neuroradiologen Dr. Scott Atlas von der Hoover Institution zu entfernen, das stichhaltige Beweise dafür enthielt, dass strenge Coronavirus-Sperren soziale Schäden verursachen – ohne etwas zu erreichen.*

[*Während nur fünf Tagen unterzeichneten über 14.000 Wissenschaftler und Mediziner und über 100.000 Einzelpersonen eine Petition gegen die Sperrmaßnahmen von COVID 19 … und erklärten, dass diese „irreparable Schäden“ verursachen.]

Twitter und Facebook haben sogar den Präsidenten zensiert!

Auch Social-Media-Websites, Netzwerknachrichten und linke Politiker haben Klima-Realisten zensiert. James Hansen von der NASA, dessen üppiges Gehalt von den Steuerzahlern bezahlt wird, forderte die strafrechtliche Verfolgung von Klimaskeptikern wegen „schwerer Verbrechen gegen die Menschlichkeit“. Robert F. Kennedy jr. sagte, die Unfehlbarkeit des IPCC anzuzweifeln, sei „Hochverrat, und wir müssen anfangen, diese Leute als Verräter zu behandeln“.

Auch CFACT war ein Ziel der Zensur. Seine beiden Climate Hustle-Filme wurden von YouTube und Amazon Prime Video indiziert. Twitter hat sogar das Konto von CFACT deaktiviert. Marc Morano von Climate Depot warnt [falls sich die Silicon Lords durchsetzen sollten] vor einem kommenden „Climate Lockdown“, bei dem „unser Leben von namenlosen, gesichtslosen Bürokraten regiert werden wird … für ‚unsere Sicherheit und zum Wohle des Planeten’“.

Diese erste Silizium-gegen-Kohlenstoff-Wahl ist auch in finanzieller Hinsicht rekordverdächtig. Einige Schätzungen gehen davon aus, dass die Ausgaben für die verschiedenen Kampagnen im Jahr 2020 bei ELF MILLIARDEN DOLLAR liegen werden. Die Einsätze sind hoch. Die Zukunft Amerikas – und des Planeten – steht zur Wahl. Die Medien sind zu einem Sirenenchor geworden, der ein einziges Ergebnis fordert: Schaffen Sie den Orange Monkey* (und auch all die unrettbaren Bedauernswerten) weg, die sich in unsere Pläne einmischen.

[*Der Suchbegriff Orange Monkey liefert als Antwort eine Musik-Band. Wie dieser Terminus in diesem Zusammenhang hier zu lesen ist, konnte nicht herausgefunden werden. Anm. d. Übers.]

Packt nicht alle Eier in nur einen Korb!“

Gerüchten zufolge hat es Don Quijote zuerst gesagt. Das Free Dictionary definiert diese Redewendung so: „seine gesamte Energie oder Ressourcen in ein einziges Unternehmen, eine einzige Gelegenheit oder ein einziges Ziel zu investieren, zu widmen oder einzusetzen, in der Regel auf die Gefahr hin, alles zu verlieren, falls diese Sache scheitert oder nicht zum Erfolg führt“.

Cervantes‘ Komödien-Charakter (der gegen Windmühlen kämpft) illustriert sehr gut den reinen Wind- und Sonnen-Trottel, der rasend durch die westliche Gesellschaft fegt (aber nicht Indien, China, Russland oder dem in vielen Gebieten stromfreien Afrika). Die Technologie-Milliardäre haben Kamala Harris als ihre moderne Heilige Georgina gewählt, um endlich den feuerspeienden Kohlenstoff-Drachen zu töten.

Aber selbst angesichts der Macht – können sie Erfolg haben? Kalifornien und Hawaii haben beide den Weg zu 100 Prozent erneuerbarer Energie bis 2045 eingeschlagen, während 80 britische Städte und Gemeinden sich rühmen, bis 2050 kohlenstofffrei zu sein. Harris-Biden verspricht die kohlenstofffreie Welt des Green New Deal nach kalifornischem Vorbild. Können Wind und Sonne in 25 Jahren ALLE konventionellen Energien der Welt ersetzen?

Oder ist das nicht ihre eigentliche Absicht? Ihre Maschinen und ihre Roboter könnten für die Schönen Menschen ausreichen – nur nicht für eine weitaus größere Gruppe von „hoffnungslos Bedauernswerten“.

Die dunklen Lords von Silicon Valley spucken rücksichts- und gefühllos auf die Presse-, Rede-, Versammlungs- und Religionsfreiheit, auf das Recht, Waffen zu tragen, und jeden anderen Grundsatz der Bill of Rights. Was lässt jemanden glauben, dass sie menschliches Leben überhaupt schätzen?

Noch gestern spielten Kinder im Freien, lernten die Natur kennen und hofften auf ihre Zukunft. Heute sind sogar ihre Schulen glorifizierte X-Box-Bildschirme, und sie zucken zusammen, wenn maskierte „Eindringlinge“ in ihre „heiligen Räume“ eindringen. Die virtuelle Realität wird schnell schwarz, wenn der Strom ausfällt.

Und das wird sie auch.

Wenn sie gewinnen.

Autor: Duggan Flanakin is the Director of Policy Research at the Committee For A Constructive Tomorrow. A former Senior Fellow with the Texas Public Policy Foundation, Mr. Flanakin authored definitive works on the creation of the Texas Commission on Environmental Quality and on environmental education in Texas. A brief history of his multifaceted career appears in his book, „Infinite Galaxies: Poems from the Dugout.

Link: https://www.cfact.org/2020/10/10/the-carbon-vs-silicon-election/

Übersetzt von Chris Frey EIKE.

[Wem jetzt auch bei uns immer noch kein Licht aufgeht, dem ist nicht zu helfen. Nur leider steht zu befürchten, dass … Anm. d. Übers.]




Der Westen beabsichtigt Energie-Selbstmord: Wird das Erfolg haben?

Der Indizienbeweis für gesellschaftlichen Selbstmord

Das erste Beweisstück ist ein erstaunlicher Artikel, der letzte Woche in der Boston Review von einem Professor für Anthropologie an der Rutgers University veröffentlicht wurde. Der gute Professor meinte, dass Simbabwe und Puerto Rico „Modelle für das liefern, was wir als ‚Stillstands‘-Elektrizität [pauseful electricity] bezeichnen könnten“. Der Westen, so fuhr er fort, habe eine riesige Infrastruktur für die Erzeugung und den Verbrauch von Elektrizität rund um die Uhr und an 365 Tagen im Jahr geschaffen. Da diese auf „den Planeten zerstörenden fossilen Brennstoffen und Atomkraft“ beruht, müssen wir den oben genannten armen Ländern nacheifern und das Klima retten, indem wir die Nachfrage nach der konstanten Versorgung mit Elektrizität aufgeben.

Fairerweise muss man aber auch den Professor mit den Worten zitieren, dass die Simbabwer und Puerto-Ricaner die Stromrationierung nicht akzeptiert haben, sondern durch die grobe Fahrlässigkeit und Korruption ihrer Regierungen aufgezwungen wurden. Der Professor kann nicht leichtfertig entlassen werden, und die Boston Review teilt ihren Sitz mit dem MIT und der Harvard-Universität, den Tempeln der Weisheit in der modernen westlichen Zivilisation. Und die Zeitschrift hat ihren Anteil an Anerkennung, zumindest für diejenigen, die einer bestimmten Überzeugung angehören: „Wenn es darum geht, neue und generative Ideen zu veröffentlichen, ist der Boston Review enmalig“, so Robin D. G. Kelley, Professor für Amerikanische Geschichte an der Universität von Kalifornien, Los Angeles. Und Naomi Klein, Aktivistin und Bestsellerautorin der New York Times, meint: „Der Boston Review ist im Moment so gut.“

Kommen wir nun zu unserem zweiten Beweisstück, diesmal von der anderen Seite des Komplexes „Klima-Notstand“. Professor Fritz Vahrenholt ist ein Gigant in der Umweltszene von Deutschland. (Das Land ist bekanntlich der weltweit führende nationale Vorkämpfer für alles, was mit Umwelt zu tun hat und dafür, dass Europa sich für „Netto-Null-Emissionen bis 2050“ einsetzt). Prof. Vahrenholt ist promovierter Chemiker und begann seine berufliche Laufbahn im Umweltbundesamt in Berlin (zuständig für die chemische Industrie), bevor er ins hessische Umweltministerium wechselte. Von 1984 bis 1990 war er Staatssekretär für Umwelt, von 1991 bis 1997 Minister für Energie und Umwelt des Landes Hamburg.

Einen Tag vor der Veröffentlichung des Artikels im Boston Review am 5. Oktober erklärte Prof. Vahrenholt in einem deutschen Fernsehinterview klipp und klar, dass die Klimawissenschaft „politisiert“, „übertrieben“ und voller „Phantasie“ und „Märchen“ sei. Er verkündete: „Das [Pariser] Abkommen ist bereits tot. Putin sagt, es sei Unsinn. […] Die Amerikaner sind draußen. Die Chinesen müssen gar nichts tun. Es ist alles auf eine Handvoll europäischer Länder konzentriert. Die Europäische Kommission steckt massiv mit drin. Und ich sage voraus, dass sie die Ziele nur erreichen wird, wenn die europäischen Industrien zerstört werden“. Er beschimpfte Deutschland als ein Land, „das die breitere globale Debatte über die Klimawissenschaft verleugnet“. Weiter charakterisierte er Europas jüngsten Vorstoß für noch strengere Emissions-Reduktionsziele als Wahnsinn, der mit der sowjetischen Planwirtschaft vergleichbar sei, die zum spektakulären Scheitern verurteilt sei.

Das materielle Beweismaterial

In diesem Stadium könnte der Verteidiger gegen den Vorwurf des gesellschaftlichen Selbstmordes durchaus vor den vorsitzenden Richter springen und sagen: „Genug, Euer Ehren, das sind nur Indizienbeweise! Zeigen Sie dem Gericht den Beweis!“ Die Geschworenen könnten nämlich durchaus der Vermutung zustimmen, dass es sich trotz der gewichtigen Referenzen der beiden Professoren immer noch um bloße Personen handelt, die naturgemäß zu Übertreibungen oder Überspitzung neigen könnten. Wo sind die Beweise dafür, dass die Gesellschaft von der sprichwörtlichen Brücke springt?

An dieser Wende im Gerichtsverfahren könnte die Anklage, möglicherweise mit stillschweigendem Vertrauen in ihren Fall von gesellschaftlichem Selbstmord, sagen: „Lassen Sie uns nun über die Indizien hinausgehen und in den Bereich der substantiellen Beweise gehen, Euer Ehren… Lassen Sie mich nun zum Beispiel Deutschland selbst kommen“. In einer Analyse von 126 Ländern, die kaufkraftbereinigte Daten verwendet hat, rangiert Deutschland im internationalen Ranking (dem höchsten in Europa) bei den Strompreisen für Haushalte auf Platz 16. Bei den meisten Ländern mit noch höheren Preisen handelt es sich um krisengeschüttelte Entwicklungsländer wie Ruanda, Sierra Leone und Burkina Faso, in denen sich manche Menschen Strom überhaupt nicht leisten können, oder um isolierte Inselstaaten wie Vanuatu, die Cook-Inseln und Tonga. Den Daten für März 2020 zufolge lag der Strompreis für Haushalte in Deutschland bei 0,38 Dollar pro Kilowattstunde (kWh), verglichen mit 0,15 Dollar für US-Haushalte, 0,17 Dollar für Schweden, 0,21 Dollar für Frankreich und 0,26 Dollar im Vereinigten Königreich.

Deutschland hat tausende Hektar seiner alten germanischen Wälder gefällt und opfert seine gefährdeten Vogel- und Fledermausarten auf dem Altar des Grünen Gottes, indem es tausende von Windmühlen-Kruzifixen mit Armen aus erdölbasierten glasfaserverstärkten Epoxid- oder Polyesterharzen weiht, die in erdgasbetriebenen Öfen hergestellt werden. Seine Motoren benötigen seltene Erden wie Dysprosium, Neodym und Praseodym, die mit fossilen Brennstoffen gewonnen werden. Windmühlen werden auf Tausenden von Tonnen von Stahlbetontürmen mit Zement und Stahl gebaut, die in intensiv mit fossilen Brennstoffen betriebenen Fabriken hergestellt werden. Am beunruhigendsten ist die Feststellung des führenden deutschen Nachrichtenmagazins Der Spiegel, dass im Jahr 2014 17% aller deutschen Haushalte aufgrund einer „Energiekosten-Explosion“ in Armut leben. Seitdem sind die durchschnittlichen Strompreise für einen Drei-Personen-Haushalt in den letzten 15 Jahren um fast 68% gestiegen, weil die Grünen die Atomreaktoren, Erdgas- und Kohlekraftwerke des Landes in aller Eile abgeschaltet haben [oder abschalten wollen].

Wenden wir uns einem weiteren führenden Beispiel für gesellschaftlichen Selbstmord zu. Es handelt sich um Kalifornien – von überbesteuerten und belagerten Kleinunternehmen manchmal ausgesprochen humorlos als „Volksrepublik Kalifornien“ bezeichnet – das jahrzehntelang ausschließlich von der Demokratischen Partei geführt wurde. Laut dem Ingenieur Ronald Stein „erhöhen Kaliforniens grüner Kreuzzug und seine Maßnahmen die Kosten für Strom und Brennstoffe, was das Wachstum der Obdachlosigkeit, von Armut und Sozialhilfe garantiert und die Krise der Erschwinglichkeit von Wohnraum weiter anheizt“.

Kalifornien, die fünftgrößte Volkswirtschaft der Welt, importiert heute den größten Teil seines Rohöls aus Übersee (da die Förderung seiner reichlich vorhandenen lokalen Ölressourcen praktisch verboten ist), und es importiert fast ein Drittel seines Stroms aus den Nachbarstaaten (da Atom- und erdgasbetriebene Kraftwerke nach und nach per Gesetz abgeschaltet werden). Zwischen 2011 und 2017 stiegen die kalifornischen Strompreise fünfmal schneller als in den übrigen USA, und heute zahlen die Kalifornier im Durchschnitt 60 Prozent mehr für Strom für Haushalte, Gewerbe und Industrie als der Rest des Landes. Mit wiederholten Stromausfällen hat sich Kalifornien selbst einen Status der Dritten Welt zuerkannt. In der Tat scheint der Staat den Rat des bekannten Anthropologieprofessors der Rutgers University vorweggenommen zu haben.

In einem bemerkenswerten Moment der Offenheit sagte Gouverneur Gavin Newsom Mitte August, dass die Abkehr des Bundesstaates von fossilen Brennstoffen ein Faktor ist, der zu den Stromausfällen im Bundesstaat beiträgt. Die Abschaffung von Produkten aus fossilen Brennstoffen und die Umstellung auf Sonnenenergie, Windmühlen und andere Formen grüner Energie hat zu dem geführt, was Newsom als „Lücken“ in der Zuverlässigkeit des Energienetzes bezeichnete. Zu allem Überfluss unterzeichnete der Gouverneur am 23. September eine Durchführungsverordnung, die den Verkauf neuer benzinbetriebener Fahrzeuge innerhalb von 15 Jahren verbietet, um die Luftverschmutzung zu verringern und die Ziele des Bundesstaates zur Reduzierung der Treibhausgasemissionen zu erreichen. Die Umweltschutzbehörde (EPA) übermittelte dem grünen Gouverneur dieses auf gesundem Menschenverstand beruhende Urteil: „Kaliforniens Rekord an Stromausfällen – in Größe und Umfang beispiellos – in Verbindung mit den jüngsten Stromnachfragen an die Nachbarstaaten wirft die Frage auf, wie Sie eine Elektroautoflotte betreiben wollen, die mit einem erheblichen Anstieg des Strombedarfs einhergeht, wenn Sie heute nicht einmal die Lichter eingeschaltet lassen können.“

Aber es geht um die Rettung des Planeten!

Zu diesem Zeitpunkt würde der Verteidiger an den obersten moralischen Schiedsrichter aller energiepolitischen Debatten appellieren: „Wir müssen den Planeten retten!“. Dies, so wird die Verteidigung abschließend feststellen, ist alles, was es zu diesem überlangen Gerichtsstreit zu sagen gibt. „Wir begehen keinen Selbstmord, Euer Ehren, aber wir tun unser Bestes, um diesen überstürzten Ansturm auf genau den Selbstmord zu vermeiden, den der Staatsanwalt so drastisch missversteht“. Und mit einem Paukenschlag legt die unerschrockene Verteidigung ihren Fall mit der Enthüllung der Hockeyschläger-Graphik der drohenden globalen Katastrophe für maximale Wirkung auf die Geschworenen zu den Akten.

Aber die Anklage hat noch einen Pfeil in ihrem Köcher. Die Anklägerin zieht die Arbeiten des Nobelpreisträgers William Nordhaus zu Rate – dessen bahnbrechende Arbeit über die Ökonomie des Klimawandels ihm die Auszeichnung einbrachte – und stellt fest, dass die beste aktuelle Forschung zeigt, dass die Kosten des Klimawandels bis zum Ende des Jahrhunderts, wenn wir nichts unternehmen, weniger als 4% des globalen BIP betragen werden. Das bedeutet, wie der Bestsellerautor der New York Times, der „umweltskeptische“ Autor Björn Lomborg es ausdrückt, „dass die Einkommen, anstatt bis 2100 auf 450% zu steigen, vielleicht ’nur‘ auf 434% steigen werden.“ Aber „wie können wir dieser Behauptung trauen“, könnte ein Geschworener oder der Richter selbst fragen. „Nun, so sehr wie man dem Hockeyschläger-Diagramm trauen kann“, kommt die unvermeidliche Antwort. Aber wie kann man einem langfristige Prophezeiungen zeigenden globalen Temperaturdiagramm vertrauen, das auf wundersame Weise die gut dokumentierten historischen römischen und mittelalterlichen Warmzeiten mit Temperaturen, die so hoch wie (oder höher als) heute sind, auf wunderbare Weise einfach eliminiert hat?

Ultimative Resolution: Das Volk wird handeln

In diesem Stadium könnte ein Zuschauer dieses Gerichtsdramas durchaus verärgert die Hand heben und sagen, dass eine unfähige Jury unvermeidlich ist. Aber während dies in unserem theoretischen Gerichtssaal der Fall sein könnte, wird es im wirklichen Leben zwangsläufig eine Lösung geben. Es ist nichts Theoretisches daran, dass die unaufhaltsame Kraft des Klima-Alarmismus auf das unbewegliche Objekt der Bindung der Menschen an ihren gewohnten materiellen Lebensstandard trifft. Und solche Entschließungen finden in verschiedenen Teilen der Welt in Echtzeit statt und könnten durchaus die Frühindikatoren dafür sein, ob Europa und vielleicht auch die USA nach Trump voraussichtlich gesellschaftlich Selbstmord zu begehen.

Vielleicht eines der markanteren Beispiele für eine Lösung zeigte sich bei den nationalen Wahlen 2019 in Australien, wo der von den Mitte-Rechts-Liberalen geführte Premierminister Scott Morrison trotz aller Meinungsumfragen, die einen leichten Sieg der Labour-Partei vorhersagten, an der Macht blieb. Die Wahlstrategie der oppositionellen Labour-Partei, Klima-Alarmismus und Anti-Kohle-Gesetzgebung zur Schlüsselfrage zu machen, schlug bei dem von vielen als „Klimawahlen“ bezeichneten Urnengang fehl. Ein australischer Kommentator bemerkte dazu: „Wie man die unverlierbare Wahl verliert: Anti-Kohle sein“. Der US-Wahlumsturz von 2016 weist ebenfalls einige Parallelen auf. Die gescheiterte Präsidentschaftskandidatin Hillary Clinton behauptete, dass sie es am meisten bedauere, dass sie den „Krieg gegen die Kohle“ von Ex-Präsident Obama verdoppelt habe, und erklärte in ihrem Wahlkampf, dass „wir viele Bergarbeiter und Kohleunternehmen aus dem Geschäft bringen werden“.

Die Jury ist sich einig: Das moderne Wirtschaftswachstum hat in keinem einzigen Fall gezeigt, dass sich ein Land erfolgreich ohne den gleichzeitigen Einsatz fossiler Brennstoffe entwickelt, und die einfachen Menschen auf der ganzen Welt sind sich dessen voll bewusst.

Link: https://wattsupwiththat.com/2020/10/11/the-west-intends-energy-suicide-will-it-succeed/

Übersetzt von Chris Frey EIKE




Unser Leben unter dem Green New Deal

„Joe Biden will uns nicht sagen, ob er für die Verstaatlichung der Gesundheitsversorgung für Einzelzahler, für die Besetzung des Obersten Gerichtshofs oder für die Abschaffung der Verschleppungstaktik des Senats ist. Er hat sich jedoch offen und konsequent für den Green New Deal ausgesprochen, der Amerikas fossile Brennstoffe bis 2035 vollständig durch ’sauberen, grünen‘ Strom und Biokraftstoff-Energie ersetzen würde.

Er und andere GND-Befürworter wollen uns glauben machen, dass dies schnell, einfach, erschwinglich, ökologisch, nachhaltig und schmerzlos möglich ist. Mein folgender Beitrag hier präsentiert die Fakten darüber, was diese „totale Energie- und Wirtschaftstransformation“ tatsächlich bewirken würde. Es ist alles Schmerz für keinen Gewinn*.

[Kaum übersetzbares Wortspiel: „It’s all pain for no gain“]

——————————

Während der zänkischen „Präsidentschaftsdebatte“ vom 29. September verkündete der Kandidat Joe Biden: „Ich bin die Demokratische Partei“. Er hat das Sagen – darauf bestand er – und seine Ansichten werden die Politik der Demokraten sein. Andere sind sich nicht so sicher – über seine tatsächlichen Ansichten oder darüber, wie weit nach links er von Kamala Harris, AOC, Bernie Sanders, Nancy Pelosi, Chuck Schumer, Antifa-Mobs und den Eliten der Küsten- und Demokraten-Regierungen, der akademischen und technologischen Elite gedrängt, getrieben und unter Druck gesetzt werden würde.

Mr. Biden hat versprochen, die Trump-Steuersenkungen abzuschaffen, hat sich aber geweigert zu sagen, ob er die verstaatlichte Gesundheitsversorgung für Einzelzahler, die Selbstverteidigung des Zweiten Verfassungszusatzes, die Besetzung des Obersten Gerichtshofs, die Abschaffung des Verzögerungsgesetzes im Senat oder das Hinzufügen von Puerto Rico, Guam und Washington DC als neue (demokratische) Bundesstaaten unterstützt.

Wie Nancy Pelosi zu ObamaCare möchte er, dass wir für ihn stimmen, damit wir herausfinden können, wie seine Positionen sind.

Wenn er in Kalifornien oder Manhattan ist, sagt er, dass er das Fracking verbieten wird – was er zu unterstützen behauptet, wenn er in Ohio und Pennsylvania ist, wo er Wähler auf dem Land und Arbeiter braucht, die diese erstaunliche Technologie unterstützen und stark von ihr profitieren. Mr. Biden sagt auch, dass er die Kontrolle des Erdklimas in den Mittelpunkt der US-Außenpolitik stellen wird. Deshalb unterstützt er nachdrücklich den Green New Deal, der bis 2035 fossile Brennstoffe vollständig durch „sauberen, grünen“ Strom und Biokraftstoff-Energie ersetzen würde.

Die Befürworter des GND wollen uns glauben machen, dass dies schnell, einfach, erschwinglich, ökologisch, nachhaltig und schmerzlos geschehen kann – fast mit dem Schwingen eines Zauberstabs. Keine Chance. Die Machthaber würden zweifellos ihren privilegierten Status schützen. Aber der GND würde die Arbeitsplätze, das Leben, den Lebensstandard, die Ersparnisse, die persönlichen Entscheidungen und das ökologische Erbe der ländlichen, armen, Minderheits-, älteren und arbeitenden Klassen kontrollieren und vernichten.

Zuverlässige Kohle- und Erdgaskraftwerke werden durch intermittierende, wetterabhängige Wind- und Solarenergie ersetzt; Benzinfahrzeuge werden durch elektrische Modelle ersetzt. Das ist offensichtlich.

Aber die im Überfluss vorhandenen Kohle-, Öl-, Erdgas- und Erdölflüssigkeiten unserer Nation liefern über 80% der Energie, die Amerikas Arbeitsplätze, Leben und Lebensstandard ermöglicht. Sie im Boden zu belassen hätte weit reichende Auswirkungen, die weit weniger offensichtlich sind, und die (absichtlich?) wenig Aufmerksamkeit in den Medien gefunden haben.

Im Jahr 2018 erzeugten Amerikas fossile Brennstoffe etwa 2,7 Milliarden Megawattstunden (MWh) Strom. Aber fast zwei Drittel des nicht exportierten Erdgases diente der Versorgung von Industrie, Gewerbe und Privathaushalten – darunter Fabriken, Notstromsysteme in Krankenhäusern sowie Öfen, Herde, Öfen und Warmwasserbereiter in Restaurants und zig Millionen US-Haushalten. Das entspricht weiteren 2,7 Milliarden MWh.

Die 65 Millionen PKWs, LKWs, Busse, Sattelschlepper, Wohnmobile, Traktoren, Bagger und andere Fahrzeuge des Landes verbrauchten das Benzin- und Dieseläquivalent von weiteren 2 Milliarden MWh.

Insgesamt sind das fast 7,5 Milliarden MWh, die der Green New Deal bis 2035 ersetzen müsste!

Selbst unter der Annahme, dass die Vereinigten Staaten und die Welt genügend Metalle und Mineralien abbauen, verarbeiten und transportieren könnten – und alle Komponenten und fertigen Ausrüstungen herstellen und transportieren könnten, um dies zu ermöglichen – würde diese tapfere neue vollelektrische Nation Millionen von Onshore-Windturbinen, Zehntausende von Offshore-Turbinen, Milliarden Sonnenkollektoren, Milliarden Fahrzeugbatterien, Milliarden Backup-Speicherbatterien, Tausende Kilometer neuer Hochspannungsleitungen und Milliarden Tonnen Beton benötigen!

Das GND würde unsere Midlands – was die Eliten als Flyover-Country verunglimpfen – in riesige Energiekolonien verwandeln. Millionen Hektar Ackerland, Lebensraum für Wildtiere und landschaftlich reizvolle Gebiete würden von industriellen Wind-, Solar- und Batterieanlagen sowie Stromleitungen zu stromhungrigen Städten und Gemeinden überzogen werden. Küsten-Ansichten und Seewege würden von hoch aufragenden Turbinen geplagt werden. Vögel, Fledermäuse und andere Wildtiere würden verschwinden.

Da der Bergbau in den USA immer noch unter Beschuss steht, würden die Metalle, Mineralien, Komponenten und Ausrüstungen größtenteils aus China oder von chinesischen Unternehmen in Afrika kommen, die riesige Mengen fossiler Brennstoffe unter minimalen bis nicht existenten Umwelt-, Arbeitssicherheits-, Lohn- und Kinderarbeitsgesetzen verwenden. Das riecht nach Sklaverei und Rassismus – was uns zu Mittätern macht und es für die Vereinigten Staaten immer schwieriger macht, China wegen der Menschenrechte, Umweltverschmutzung, militärischer Aggression oder territorialer Expansion zu kritisieren oder anzuprangern.

Der GND würde auch bedeuten, dass man die derzeit genutzten Erdgasgeräte herausreißen und wegwerfen und sie durch elektrische Modelle und Schnellladesysteme für Ihre Autos ersetzen müsste. Das würde bedeuten, dass die elektrischen Systeme im Haushalt, in der Nachbarschaft und im Land aufgerüstet werden müssten, um die zusätzlichen Lasten zu bewältigen.

Erdöl und Erdgas sind auch Ausgangsmaterial für Pharmazeutika, Kosmetika, Farben, synthetische Fasern, Düngemittel … und Kunststoffe für Computer, Windturbinenblätter, Sonnenkollektor-Folien sowie unzählige andere Produkte. Im Rahmen des GND müssten wir diese in den USA ansässigen Industrien stilllegen, Rohstoffe für sie importieren oder Hunderte von Millionen Hektar in Biotreibstoffplantagen umwandeln.

Bis zu 10 Millionen hoch bezahlte Arbeitsplätze in der Erdöl- und Petrochemie sowie in der verarbeitenden Industrie würden verloren gehen – wobei viele davon durch gering bezahlte, befristete oder kurzfristige Arbeitsplätze ersetzt würden, bei denen Windturbinen, Sonnenkollektoren [in deutscher Übersetzung beim EIKE hier] und Batterien transportiert, installiert, gewartet, demontiert und deponiert werden. Der GND würde Dutzende Billionen Dollar kosten!

GND-Rädelsführer Kalifornien will, dass das ganze Land seiner Politik nacheifert. Seine Familien und Unternehmen zahlen bereits jetzt die höchsten Strompreise im kontinentalen Teil der USA – und werden immer wieder von Stromausfällen heimgesucht. Jetzt hat der Staat Elektroautos, Kochen und Heizen vorgeschrieben. Kein Erdgas mehr. Wie der Gesetzgeber all den zusätzlichen Strom erzeugen und weitere Stromausfälle vermeiden will, weiß niemand.

Familien, Fabriken, Krankenhäuser, Schulen und Unternehmen waren es gewohnt, 7, 9 oder 11 Cent pro Kilowattstunde für eine störungsfreie Stromversorgung zu zahlen. Sie sollten sich jetzt besser auf grobe Schocks einstellen. Im Rahmen des GND zahlen Sie 14, 18, 22 Cent pro kWh, wie sie es in den grünen US-Bundesstaaten tun – oder sogar 35 Cent pro kWh, wie man in Deutschland zu zahlen hat. Außerdem werden Sie doppelt so viel Strom verbrauchen und wahrscheinlich wiederholt Stromunterbrechungen erleben.

Gewöhnen Sie sich daran, Strom nur dann zu haben, wenn er verfügbar ist, und nicht dann, wenn Sie ihn brauchen, wie „unabdingbar“ Ihre geschäftlichen oder familiären Bedürfnisse auch sein mögen. Wie Sie überleben werden, ob Ihr Arbeitsplatz verschwinden wird, ob Sie zu denjenigen gehören werden, die sich zwischen Heizen und Essen entscheiden müssen, kann jeder erraten.

Eine Woche mit bewölktem Wetter wird den Solarertrag wirklich verringern – und Windturbinen erzeugen an den heißesten und kältesten Tagen ungefähr null Strom. Seien Sie vorsichtig, wo Sie wohnen oder Ihre EV aufladen müssen.

Was all diese Elektrofahrzeuge anbelangt, so hat eine einfache 39.000-Dollar-Modell-3-Tesla-Limousine ein Batteriemodul, das etwa 1.200 Pfund wiegt und mit einer Ladung etwa 250 Meilen zurücklegt. Benutzen Sie einfach weder Heizung noch Klimaanlage, machen Sie keine langen Familienausflüge, und geraten Sie nicht in einen Schneesturm oder einen Stau, wenn Sie versuchen, einem tosenden Waldbrand zu entkommen.

Wie viele Tonnen Batterien ein Bus, ein Sattelschlepper oder ein Bergbau-Bagger benötigt, wo Sie sie einsetzen und wie viele Stunden pro Tag Sie mit dem Aufladen verschwenden würden, sind weitere wichtige Überlegungen. Vielleicht haben Mr. Biden oder Mrs. Alexandria Ocasio-Cortez [AOC] die Antworten.

Die Obama-Regierung schickte ein schwer bewaffnetes SWAT-Team in die Büros von Gibson Guitar wegen eines angeblichen Verstoßes gegen das Gesetz über gefährdete Arten. Die Demokraten weigern sich, Gewalt, Brandstiftung und Plünderungen der BLM und des Antifa-Mobs zu verurteilen. Wie ein Biden-Harris-AOC-Staat und seine Verbündeten auf organisierten oder sogar spontanen Widerstand gegen die Diktate und Auswirkungen des Green New Deal reagieren könnten, ist ziemlich leicht vorstellbar. Genauso wie ihre Reaktion auf Städte, Landkreise und Staaten, die sich selbst zu „Zufluchtsorten“ des GND oder Waffenkontrolldekreten erklären.

Man sollte immer daran denken: Diese gesamte „Transformation“ mittels des GND in den Bereichen Energie, Wirtschaft und Lebensstandard wird mit der Behauptung gerechtfertigt, wir stünden vor einem „Klima-Notstand“ und „anhaltenden Verwüstungen durch den Klimawandel“.

Das Ganze ist ein gigantischer „Climate Hustle“. Es gibt keinen Klima-Notstand. Die Menschen können das Klima und das Wetter auf der Erde nicht kontrollieren. Die Emissionen fossiler Brennstoffe haben vernachlässigbare Auswirkungen. Kohlendioxid ist kein Schadstoff; es ist das Wundermolekül, das pflanzliches, menschliches und tierisches Leben möglich macht. Klimawandel und Wetterextreme waren im Laufe der Geschichte „real“. Was wir heute erleben, ist in keiner Weise beispiellos.

Autor: Paul Driessen is senior policy advisor for CFACT and author of Cracking Big Green and Eco-Imperialism: Green Power – Black Death.

Link: https://www.iceagenow.info/your-life-under-the-green-new-deal/#more-33062

Übersetzt von Chris Frey EIKE




Windenergie-Skandal in UK

Großbritannien von einem Windpark-Skandal erschüttert, der die Verbraucher mit 1,4 Milliarden Pfund zu stehen kommen wird

Sam Greenhill

Eine Windparkfarce, die 1,4 Milliarden Pfund IHRES Geldes vernichtete! Während Boris Johnson seine Vision propagiert, jedes Haus mit Turbinen zu versorgen, enthüllen wir den verpfuschten Plan, der die Rechnungen für 20 JAHRE aufblähen wird.

Boris Johnson hat erklärt, dass die Windkraft die Zukunft der britischen Energie ist

Aber eine Untersuchung hat ergeben, dass die Turbinenbesitzer über die Maßen bezahlt werden

Beamte setzen Subventionssatz so hoch an, dass er als „Lizenz zum Gelddrucken“ gebrandmarkt wurde

Ein verpfuschtes grünes Programm zahlt den Besitzern von Windturbinen das Siebenfache des Wertes des von ihnen erzeugten Stroms – und es wird die britischen Verbraucher schätzungsweise 1,4 Milliarden Pfund kosten.

Ein Subventionssatz für Windturbinenbesitzer könnte dazu führen, dass sie bis zu sieben Mal mehr als die von ihnen produzierte Strommenge einstecken, was als „Lizenz zum Gelddrucken“ bezeichnet wird.

Die Daily Mail kann das Augenfälligkeitsfiasko der Woche enthüllen. Boris Johnson erklärte, dass die Windkraft die Zukunft für die Energieerzeugung der Nation sei. Das Programm wurde ins Leben gerufen, um Hausbesitzer zu ermutigen, eine kleine Windmühle zu installieren, um ihren Bedarf zu decken und in das Stromnetz einzuspeisen.

Den Eigentümern wird für 20 Jahre eine Goldgrube an Bargeld garantiert, und das System ist so lukrativ, dass es einen Goldrausch unter den Investoren, darunter führende Pensionsfonds, ausgelöst hat.

Die Farce dieser grünen Initiative wurde in Nordirland ins Leben gerufen, aber die atemberaubenden Kosten werden dank höherer „grüner Abgaben“ auf die Rechnungen von privaten und geschäftlichen Versorgungsunternehmen in jeder Ecke des Vereinigten Königreichs zu spüren sein. Sie stellt die 500 Millionen Pfund in den Schatten, die durch einen früheren verpfuschten Skandal um grüne Energie in der Provinz verschwendet wurden, der als „Cash for Ash“ [etwa: Geld für Asche] bezeichnet wird und vor drei Jahren zum Sturz der Regierung Stormont führte.

Eine Untersuchung der Mail hat ergeben:

* Eine Turbine erntet etwa 375.000 Pfund pro Jahr, produziert jedoch Strom im Wert von nur 51.000 Pfund; 

* Die Subvention ist nur in Ulster verfügbar, erhöht aber die Energierechnungen in ganz Großbritannien um 71 Millionen Pfund pro Jahr;

* Da die Subvention für 20 Jahre garantiert ist, werden sich die Gesamtkosten für die britischen Verbraucher auf schätzungsweise 1,4 Milliarden Pfund belaufen;

* Unfähige Beamte versuchten, das Programm 2016 zu schließen – aber Schlupflöcher ließen es bis März 2019 laufen;

* In einem Ansturm auf die Errichtung von Turbinen vor der Frist wurden Hunderte errichtet, viele davon im Besitz von Risikokapitalgebern und sogar des Pensionsfonds der Royal Bank of Scotland.

Am Dienstag gab der Premierminister das dramatische Versprechen ab, bis 2030 jedes Haus mit Windstrom zu versorgen. Mr. Johnson sagte der Konferenz der Konservativen, er werde mit „Sturmangriffsgeschwindigkeit“ arbeiten, um seine „grüne industrielle Revolution“ einzuleiten.

Aber die Untersuchung der Mail deckt auf, wie ein bestehendes Windprogramm den Verbrauchern enorme Kosten aufbürdet. Es sollte Landbesitzern Anreize für die Errichtung kleiner Windturbinen bieten. Sie würden Gebühren für „sauberen“ Strom erhalten, der in das Stromnetz eingespeist würde. Sogar David Cameron errichtete eine in seinem Garten.

Die Minister nannten es eine „Belohnung für saubere Energie“. Um sie zu finanzieren, führten sie eine „grüne Abgabe“ ein. Diese so genannte „Erneuerbare-Energien-Pflichtabgabe“ erhöht die Stromrechnung eines typischen Haushalts um etwa 73 Pfund pro Jahr. Nach 2009 wurden diese Anreize als zu großzügig eingestuft und in England, Wales und Schottland drastisch gekürzt.

Doch nordirische Beamte hielten den Zinssatz unerklärlicherweise in dieser Höhe stabil – was bei wohlhabenden Investoren einen Ansturm auf die Installation klappriger Turbinen auslöste und ihnen praktisch risikofreie Einkommen bescherte. Gestern Abend sagte der Ökoenergie-Experte Dr. John Constable: „Jemand hat einen Fehler gemacht: so einfach ist das. Kluge Geschäftsleute sehen diese Fehler. Es gab einen totalen Ansturm. Einige Leute müssen sagenhaft reich geworden sein. Ich sah mir die Rede des Premierministers an und dachte: Geht das schon wieder los“.

Die Daten, auf denen die Berechnungen basieren, sind auf der Website der Energiebehörde Ofcom verfügbar. Auf einer trostlosen Bergkuppe südlich von Londonderry fand unsere Zeitung, dass die Windkraftanlage wahrscheinlich die größte ihrer Art in Großbritannien ist. Unter dem Namen „SP2045“ drehten sich ihre Flügel in der lebhaften Brise von Ulster im vergangenen Jahr genug, um Strom für etwa 51.000 Pfund zu erzeugen.

Aber diese spezielle Maschine ist weitere 324.000 Pfund mehr an grünen Subventionen wert. Insgesamt brachte SP2045 im Jahr 2019 £375.000 ein – mehr als das Siebenfache des Marktwertes des tatsächlich erzeugten Stroms.

Öffentliche Unterlagen zeigen, dass SP2045 einer Firma namens Simple Power No1 Ltd. gehört. Anhand von Akten des Unternehmens konnten wir es bis zum Pensionsfonds der Royal Bank of Scotland zurückverfolgen. Tatsächlich gibt es in den sanften Hügeln Nordirlands Hunderte von gebrauchten Turbinen, die sich im Besitz von Blue-Chip-Firmen befinden.

Die städtischen Finanzies, so scheint es, haben das Potenzial für üppige Renditen erkannt – und das vor allem, nachdem die Beamten den Subventionssatz für kleine Windparks auf einen verblüffend großzügigen Satz festgelegt hatten. Aus fadenscheinigen Gründen haben die Besitzer kleiner Windturbinen – definiert als solche mit einer Spitzenleistung von 250 Kilowatt – in Nordirland Anspruch auf eine Zahlung im Wert von etwa 220 Pfund für jedes Megawatt Strom, das sie pro Stunde erzeugen.

In anderen Teilen Großbritanniens ändert sich die Zahl jedes Jahr, im letzten Jahr betrug sie jedoch 16 Pfund. Und das zusätzlich zum Verkauf des tatsächlichen Stroms zum Marktpreis. Der Großhandelspreis für Strom schwankt, lag aber im vergangenen Jahr im Durchschnitt bei etwa 35 Pfund pro Megawattstunde. Der Eigentümer erhält also £35 für den Strom plus £220 an Subventionen, insgesamt £255 – mehr als das Siebenfache des Marktwertes des Stroms selbst.

Gleiches gilt nicht für Windmühlenbesitzer an anderen Orten im Vereinigten Königreich. Es gilt auch nicht für größere Turbinen.

Da die Subvention für 20 Jahre garantiert ist, werden sich die Gesamtkosten für die britischen Verbraucher auf schätzungsweise 1,4 Milliarden Pfund belaufen.

Dr. Constable, Direktor der Stiftung für Erneuerbare Energien dazu:

Der Fehler im öffentlichen Dienst führte zu einer Lizenz zum Gelddrucken. Diese kleinen 250kW-Turbinen sind seit Jahren veraltet, und niemand hätte sie damals gebaut, es sei denn als loophole Cash Cow [?] Sie rufe schrecklich hohe Subventionen ab, sind aber eine absolute Goldgrube für Investoren.

Der ganze Beitrag steht hier.
——————————

Neuer Windpark-Skandal dreimal schlimmer als „ Cash for Ash

Daily Mail
Die Enthüllungen der Mail werfen beunruhigende Fragen für Premierministerin Arlene Foster auf, die zu der Zeit, als 2009 der Goldgruben-Subventionssatz festgelegt wurde, Energieministerin der nordirischen Regierung war.

Mrs. Foster hatte auch den Vorsitz im ähnlichen „Cash for Ash“-Skandal, der ihre Regierung 2017 zu Fall brachte.

2017: Ein Grüne-Energie-Skandal bringt die Regierung von Nordirland zu Fall (hier)

Dieses fehlerhafte grüne System, bezeichnet als Renewable Heat Incentive [etwa: Erneuerbare-Wärme-Anreiz], zahlte den Kunden mehr für die Nutzung erneuerbarer Energie als die tatsächlichen Kosten des Brennstoffs. Einige Familien ließen ihre Heizkessel rund um die Uhr laufen, und unverantwortliche Bauern heizten leere Scheunen. Für jedes Pfund, den sie für die Heizung ausgaben, erhielten sie 1,60 Pfund an Subventionen zurück.

Eine vernichtende öffentliche Untersuchung kam Anfang des Jahres zu dem Ergebnis, dass das Schema niemals hätte angenommen werden dürfen. Der Vorsitzende Sir Patrick Coghlin äußerte sich kritisch über die Erste Ministerin, führte aber zu ihrer Entlastung an, dass sie von ihren Beamten falsche Informationen erhalten habe. Er warnte auch davor, dass sich eine solch katastrophale Situation wiederholen könnte, indem er sagte: „Es gibt keine Garantie dafür, dass die bei der Untersuchung aufgedeckten Schwächen in der Regierungsführung, der Personalausstattung und der Führung nicht noch einmal miteinander kombiniert werden können“. Die Kosten von „Cash for Ash“ für die Steuerzahler belaufen sich auf bis zu 500 Millionen Pfund.

Das neue Fiasko – das durchaus als „Son of Cash for Ash bezeichnet werden kann – ist möglicherweise dreimal so teuer.

Der ganze Beitrag steht hier.

——————————

Boris Johnson kündigt einen Anstieg der Strompreise um 200% an

GWPF
Der Premierminister ignoriert klare Beweise dafür, dass die den erneuerbaren Energien zugrunde liegende Wirtschaftlichkeit katastrophal ist, und hat Großbritannien heute zu einem weiteren Ausbau der Offshore-Windenergie bis 2030 verpflichtet, mit beängstigenden Auswirkungen auf die Strompreise, die sich verdreifachen müssten, um die tatsächlichen Kosten zu decken.

Dies ist nicht nur ökonomisch töricht, sondern auch inkohärente Klimapolitik, da die heutige Entscheidung dafür sorgen wird, dass andere Ziele für niedrige Emissionen, wie die Elektrifizierung von Fahrzeugen und die Heizung von Haushalten, für die meisten Briten unerschwinglich werden.

Die Offshore-Windenergie bleibt trotz Schall und Rauch der Windindustrie eine extrem teure Art der Stromerzeugung. Sollte der Premierminister sein Ziel erreichen, werden die laufenden Kosten sogar noch weiter steigen, da die Turbinen in tieferem Wasser gebaut werden müssen und die Betriebskosten viel höher sind.

Darüber hinaus erhöhen die versteckten Kosten für die Integration eines hohen Maßes an intermittierender Windenergieerzeugung in das Elektrizitätssystem die direkten Kosten der Windflotte um mindestens 50%.

Dieses übereilte und falsch konzipierte Versprechen gefährdet jede Aussicht auf eine Erholung nach Covid und nach Brexit in höchstem Maße. Angesichts der Gefahr wesentlich höherer Strompreise wird kein vernünftiger Investor Geld in britische Fertigungsbetriebe oder damit verbundene Unternehmen mit überdurchschnittlichem Stromverbrauch investieren.

Die Auswirkungen auf die Nettobeschäftigung sind ebenfalls verheerend. Subventionen können einige wacklige britische Arbeitsplätze in der Windindustrie und viele weitere in China und im Nahen Osten schaffen, wo Windturbinen hergestellt werden, aber sie werden den Verlust realer britischer Arbeitsplätze in anderen Unternehmen, die wegen hoher Energiekosten nicht mehr lebensfähig sind, nicht ausgleichen. Der Nettoeffekt für das Vereinigte Königreich wird stark negativ sein.

Dr. Benny Peiser, der Direktor der GWPF, sagte:

Die Zusage des Premierministers ist ein Geschenk an die grüne Lobby und ein Schlag ins Gesicht für gewöhnliche Familien und Unternehmen, die einen hohen Preis zu zahlen haben werden“.

Link: https://www.thegwpf.com/boris-johnson-announces-200-rise-in-electricity-prices/

Übersetzt von Chris Frey EIKE




Niemand hat die Absicht, eine Öko­diktatur zu errichten

Unter dem Mäntelchen einer vorgeblich vom Menschen verursachten Klimakatastrophe träumt man in diesen Kreisen von der „Großen Transformation“ zu einer ökologischen Weltgemeinschaft bis zum Jahre 2100. Die Gleichsetzung einer solchen vollsubventionierten Zwangstransformation mit der kulturellen Entwicklung des Ackerbaus und der technischen Industrialisierung als epochalen Umbrüchen in der Menschheitsgeschichte verkennt aber in ihrer Hybris, dass sich beide im freien Wettbewerb alternativer Möglichkeiten erfolgreich durchgesetzt hatten. Alle planwirtschaftlich gesteuerten Revolutionen hatten dagegen in Unfreiheit, wirtschaftlicher Not und gesellschaftlichem Chaos bis hin zum Massenmord geendet.

Die mediale Klimahysterie ist inzwischen im Vollpanik-Modus, und besonnene Stimmen werden nur noch als verzichtbare Störgrößen wahrgenommen. Klimaalarm ist alles und alles ist Klimaalarm. Ein schönes Beispiel lieferte der STERN auf dem Titelblatt seiner Ausgabe 40 vom 24. September 2020, Zitat, „#kein Grad weiter – Die Klimakrise ist längst da. Was wir jetzt tun müssen, um uns zu retten“.

Ja, da ist es schon wieder, dieses politisch-alternativlose „WIR“. Wer ist dieses ominöse „WIR“ eigentlich, und warum meint dieses „WIR“, uns alle zwangsweise vor einer „menschengemachten“ Klimakatastrophe retten zu müssen?

Schauen wir also mal auf die wissenschaftlichen Grundlagen dieses allgegenwärtigen Klimaalarms.

Der sogenannte „natürliche atmosphärische Treibhauseffekt“ (THE) löst das Arrhenius-Problem, nämlich die Diskrepanz von 33°C zwischen einer „theoretischen“ und einer „gemessenen“ globalen Durchschnittstemperatur. Und das anthropogen erzeugte CO2 soll nun diesen THE noch weiter verstärken. Sehen wir uns also zunächst einmal die vorgeblichen Eckwerte dieses THE an:

Abbildung: Der natürliche Treibhauseffekt vom Hamburger Bildungsserver Werte nach Wild et al. (2017): The Global Energy Balance Archive (GEBA) version 2017: a database for worldwide measured surface energy fluxes, Earth Syst. Sci. Data, 9, 601–613, Lizenz: Creative Commons Lizenz Namensnennung-NichtKommerziell-Weitergabe unter gleichen Bedingungen 2.0 Deutschland

Und jetzt mal ein Blick auf die dortigen Zahlen:

In=Out: 342W/m² gehen ‘rein und (107+235=342)W/m² gehen wieder ‘raus

Bleiben also: 168W/m², 350W/m², 324W/m², „latente Wärme“ und „fühlbare Wärme“, aus denen am Ende 235W/m² herauskommen müssen

Man kann es drehen und wenden wie man will, nach der obigen Abbildung lautet die Gleichung für den „natürlichen atmosphärischen Treibhauseffekt“:

168W/m² +/- 350W/m² +/- 324W/m² +/- „latente Wärme“ +/- „fühlbare Wärme“ = 235W/m²

Es bleibt zunächst also völlig schleierhaft, welche physikalischen Verknüpfungen und welche mathematischen Zahlenwerte auf der linken Seite schließlich zu dem eindeutigen Ergebnis „235W/m²“ führen sollen. Jedenfalls beschreibt dieser THE von vorgeblich 33°C aus dem herkömmlichen 24h=Faktor4-THE-Ansatz die Differenz zwischen einer „theoretischen Globaltemperatur“ von (-18°C) und einer angeblich „gemessenen“ globalen Durchschnittstemperatur von (14,8°C) mit einem S-B-Strahlungsäquivalent von 155W/m². Es gibt beim THE offensichtlich keine Abhängigkeit von der Tageszeit und von der geographischen Breite, der THE ist also streng eindimensional.

Dieser THE soll zum kleineren Teil (etwa 9–26%) durch Kohlenstoffdioxid (CO2) verursacht werden und der zusätzliche anthropogene Ausstoß von CO2 seit Beginn der Industrialisierung soll diesen THE nun kontinuierlich weiter verstärken. Da das CO2 lateral einigermaßen gleichmäßig in der Atmosphäre verteilt ist und die IR-Abstrahlung der Erde über eine sogenannte „atmosphärische Gegenstrahlung“ als Antrieb für diesen atmosphärischen THE angenommen wird, muss man von der folgenden Wirkungskette ausgehen:

Primär: Die spezifische solare Strahlungsleistung auf der Tageshemisphäre erzeugt die Temperatur unserer Erde.

Sekundär: Die Infrarotabstrahlung der aufgeheizten Erde erfolgt über die gesamte Erdoberfläche.

Tertiär: Eine sogenannte „atmosphärische Gegenstrahlung“, die im Widerspruch zum 2.HS der Thermodynamik steht, soll dann wiederum einen „natürlichen atmosphärischen Treibhauseffekt“ antreiben.

In der deutschen Zusammenfassung des IPCC-Berichtes „1,5 °C GLOBALE ERWÄRMUNG“ für politische Entscheidungsträger findet man auf Seite 11 unter Punkt B.1.2 folgende Aussage zum geweissagten „menschengemachten“ Klimawandel, Zitat: Extrem heiße Tage werden in den mittleren Breiten bei 1,5 °C globaler Erwärmung um bis zu etwa 3 °C wärmer und bei 2 °C bis zu etwa 4 °C wärmer, während extrem kalte Nächte in den hohen Breiten bei 1,5 °C bis zu etwa 4,5 °C und bei 2 °C bis zu etwa 6 °C wärmer werden (hohes Vertrauen).“

Beim sogenannten „menschengemachten“ Klimawandel fällt nun auf, dass nach Aussage des IPCC-Berichtes „1,5 °C GLOBALE ERWÄRMUNG“ eine Temperaturkomponente zum THE hinzutritt, denn seine Wirkung in extrem kalten Nächten soll angeblich größer sein, als an extrem heißen Tagen.

WIDERSPRUCH 1: Die vorgebliche Temperaturkomponente beim IPCC beruht auf der physikalischen T4-Beziehung des S-B-Gesetzes, nach der eine definierte spezifische Strahlungsleistung in W/m² bei niedrigerer Temperatur einen höheren Zuwachs in Kelvin ergibt, wie die obige Abbildung beweist. Diese IPCC-Aussage würde aber nur dann Sinn ergeben, wenn das CO2-Molekül aus sich selbst heraus und entgegen dem 2. HS der Thermodynamik bei beliebiger Außentemperatur eine konstante Strahlungsleistung abgeben würde. Wenn aber CO2 aus sich selbst heraus stahlen könnte, dann hätten wir alle schon längst eine betriebskostenfreie CO2-Heizung. Da nun einmal die solare Einstrahlung als Primärquelle für IR-Abstrahlung unserer Erde anzusehen ist, die wiederum eine „atmosphärische Gegenstrahlung“ als THE-Antrieb speisen soll, ist eine maximale Temperaturwirkung eines „menschengemachten Treibhauseffektes“ an extrem kalten Tagen völlig widersinnig.

Denn eine anthropogen verursachte Temperaturanomalie müsste im jeweiligen sommerlichen Strahlungsmaximum der Sonne und/oder aufgrund der Tageslängen im jeweiligen Polarsommer am deutlichsten hervortreten. Und andererseits dürfte ein „menschengemachter“ Treibhauseffekt in der Polarnacht nur rudimentär vorhanden sein, weil dort zu dieser Zeit die entsprechende primäre solare Strahlungsleistung fehlt, wie das beides in der nachfolgenden Abbildung dargestellt wird:

Abbildung: Tentative räumliche und zeitliche Auswirkungen auf einen „natürlichen atmosphärischen Treibhauseffekt“ mit Ableitungen aus meinem hemisphärischen Stefan-Boltzmann-Modell (nicht flächengetreu) Links: Jahresverlauf der maximalen solaren Strahlungsleistung mit den Beleuchtungsklimazonen Rechts: Die maximale spezifische solare (Strahlungs-) LEISTUNG (~S-B-Temperaturäquivalent) und die maximale solare ARBEIT (Arbeit=Leistung x Zeit über die örtliche Tageslänge) im jeweiligen Sommerhalbjahr auf der Nord- und Südhalbkugel

Anmerkungen zu den Overlays in der linken Abbildung: Die maximale temperaturwirksame spezifische Strahlungsleistung der Sonne MAX Si (rot=940W/m², schwarz=0W/m²) in Abhängigkeit von der geographischen Breite und der Jahreszeit. Für den Nordwinter (linke Seite) und den Nordsommer (rechte Seite) wurden darüber jeweils die Beleuchtungsklimazonen der Erde projiziert (von oben/unten zur Mitte: Polarzonen, Mittelbreiten, Tropenzone – Quelle: Wikipedia, Autor: Fährtenleser, Lizenz: GNU Free Documentation License)

Die maximale temperaturwirksame spezifische Strahlungsleistung der Sonne von 940W/m² erhält immer derjenige Breitenkreis zwischen den Wendekreisen, an dem die Sonne mittags lotrecht steht. Dieses Maximum ist nicht zu verwechseln mit dem Maximum der 24h-durchschnittlichen Strahlungsleistung, das aufgrund der Länge des Polartages um die jeweilige Sommersonnenwende auf den Sommerpol fällt. Es lässt sich aus einem solchen 24h-Durchschnitt (=(Leistung @ 24h)/24h) allerdings kein entsprechendes S-B-Temperaturäquivalent ableiten, obwohl es immer wieder versucht wird. Halten wir also fest, dass am jeweiligen Sommerpol die tägliche solare ARBEIT (=Leistung*Zeit) am größten ist, während die tägliche solare MAXIMAL-LEISTUNG (die das S-B-Temperaturäquivalent bestimmt) auf den Bereich zwischen Äquator und dem sommerlichen Wendekreis beschränkt bleibt. Der sogenannte THE und seine „menschengemachte“ CO2-Verstärkung müssten sich also insbesondere auf der jeweiligen jahreszeitlichen Frühlings- und Sommerhemisphäre ganz deutlich herausbilden.

Ein 1:1-Experiment mit vorgeblich gemessenen IPCC-Temperaturdifferenzen

Betrachten wir also einmal ein 1:1-Experiment, nämlich die vorgeblich gemessene Realität auf unserer Erde. Im Framing and Context Supplementary Material zum IPCC Spezialbericht “Global Warming of 1.5°C” (SR1.5) von Oktober 2018 findet sich eine Abbildung zum sogenannten „menschengemachten Temperaturanstieg“. Dort wird in „Figure 1.SM.1“ die Jahreszeit der größten menschengemachten Erwärmung für den Zeitraum 2006-2015 gegenüber dem Zeitraum 1850-1900 dargestellt, also genau dieser vorgeblich vom Menschen verursachte Temperaturanstieg seit Beginn der Industrialisierung:

Abbildung: Die IPCC-„Figure 1.SM.1“ aus dem Framing and Context Supplementary Material des IPCC Spezialberichts “Global Warming of 1.5°C” (SR1.5) mit der Jahreszeit der größten menschen-induzierten Erwärmung für den Zeitraum 2006-2015 gegenüber 1850-1900

Die erratische Verteilung der jahreszeitlichen Temperaturanomalien in „Figure 1.SM.1“ stützt die konventionelle Treibhausthese nicht. Es hebt sich in dieser Abbildung weder das jahreszeitliche Strahlungsmaximum zwischen den beiden Wendekreisen noch die Tageslänge im jeweiligen Polarsommer optisch eindeutig hervor. Speziell die mittleren und höheren geographischen Breiten der jeweiligen Sommerhemisphäre, also Nordfrühling und Nordsommer (MAM und JJA) sowie Südfrühling und Südsommer (SON und DJF), zeigen in „Figure 1.SM.1“ nach qualitativer Farbgebung gar keine exklusiven jahreszeitlichen Temperaturanomalien. Vielmehr können wir in der „Figure 1.SM.1“ des IPCC die größte Veränderung in der Arktis ausgerechnet im Nordwinter (=Südsommer DJF-ockerfarben), also in der ausklingenden Polarnacht zwischen Wintersonnenwende und Frühlingsäquinoktium beobachten.

Die „menschengemachten“ IPCC-Temperaturdifferenzen bilden das chaotische globale Wettergeschehen ab

Die beiden Steuergrößen „ursächlicher solarer Primärantrieb im solaren Strahlungsmaximum“ und die über „örtliche Tageslängen“ induzierte Gesamtwärmemenge lassen sich unter „jahreszeitlich maximale örtliche IR-Abstrahlung der Erde“ subsummieren. Der nachfolgende graphische Vergleich zeigt, dass die erforderliche Übereinstimmung zwischen den IPCC-Temperaturdifferenzen und der maximalen örtlichen IR-Abstrahlung unserer Erde in der Farbgebung der IPCC-„Figure 1.SM.1“ jahreszeitlich nicht prägnant hervortritt:

Abbildung: Vergleich der IPCC-„Figure 1.SM.1“ (links) mit den tentativen jahreszeitlichen Auswirkungen von maximaler spezifischer solarer Strahlungsleistung und/oder maximaler örtlicher Tageslänge auf den sogenannten THE (rechts)

Anmerkung: Die jeweils zweistufige Farbskala für die Sommerhemisphäre in der Abb. links (Beispiel MAM und JJA für den Nordsommer) wurde im rechten Bild willkürlich in zwei einstufige Skalen für LEISTUNG (~JJA) und ARBEIT (~MAM) auf der jeweiligen Sommerhemisphäre aufgespalten und (nicht flächentreu) der jeweiligen geographischen Lage zugeordnet. Deshalb können Farbsignaturen für Leistung/Arbeit (~JJA/MAM) in der jeweiligen geographischen Lage auch in umgekehrter Signatur (~MAM/JJA) auftreten; beispielsweise blau für LEISTUNG zwischen Äquator und mittleren Breiten.

Eigentlich müsste sich in der IPCC-Abbildung „Jahreszeit der größten menschen-induzierten Erwärmung für den Zeitraum 2006-2015“ der zusätzliche THE-Anteil aus dem „menschengemachten“ CO2 aufgrund seiner vorgeblichen IR-Abhängigkeit als Temperaturanomalie proportional zur jahreszeitlich maximalen örtlichen IR-Abstrahlung unserer Erde abbilden. Das ist aber ganz offensichtlich nicht der Fall, denn insgesamt finden wir in „Figure 1.SM.1“ lediglich eine globale und unspezifische jahreszeitliche Durchmischung und sogar jahreszeitlich stark gegenläufige Anomalien. Der vorstehende Vergleich von „Figure 1.SM.1“ (links) mit den tentativen Auswirkungen der jahreszeitlich maximalen örtlichen IR-Abstrahlung (rechts) verdeutlicht vielmehr, dass sich die erratisch verteilten Temperaturanomalien nicht mit den jahreszeitlichen Schwankungen erklären lassen, sondern viel eher mit deren zeitlicher Veränderung (also der 1. Ableitung), wobei das Maximum dieser Veränderung um die Äquinoktien liegt und jeweils beide jahreszeitlichen Hemisphären betrifft.

WIDERSPRUCH 2: Ein proportionaler Zusammenhang zwischen einem „menschengemachten Temperaturanstieg“ über eine zusätzliche CO2-Verstärkung des „natürlichen atmosphärischen Treibhauseffektes“ und der jahreszeitlich maximalen örtlichen IR-Rückstrahlung unserer Erde bildet sich in den veröffentlichten IPCC-Daten (Figure 1.SM.1) nicht einmal ansatzweise ab.

Eine schnelle Erwärmung / Abkühlung in mittleren und höheren geographischen Breiten aufgrund der sich dort jahreszeitlich um die Äquinoktien herum schnell verändernden solaren Strahlungsleistung / örtlichen Tageslänge bildet mit seinen atmosphärischen Ausgleichsströmungen vielmehr das chaotische globale Wettergeschehen ab. Während also der herkömmliche 24h=Faktor4-THE-Flacherdeansatz im Arrhenius-Paradoxon eines unbewiesen konstruierten „natürlichen atmosphärischen Treibhauseffektes“ und einem Widerspruch zum 2. HS der Thermodynamik stecken bleibt, erlaubt mein hemisphärisches S-B-Modell ganz konkrete qualitative Aussagen zu Temperatur- und Klimadaten auf unserer realen Erde.

Mit Hinweis auf ein vorindustrielles klimatisches Paradies soll unsere Kohlenstoff-basierte Industriegesellschaft in ein globalisiertes Öko-Mittelalter zurück entwickelt werden

Mit dem Hinweis auf eine solch fragwürdige IPCC-Datengrundlage werden heute unter ganz harmlosen Begriffen wie „Große Transformation“ und „New Green Deal“ gesellschaftspolitische Bestrebungen als ein sich selbst finanzierender cargoistischer Potlatch inszeniert, um unsere Kohlenstoff-basierte Industriegesellschaft auf ein vorindustrielles Niveau zurück zu entwickeln. Eine abgehobene und sich allwissend gerierende politisch-mediale Klasse geht also in ihrer Hybris soweit, das „Weltklima“ vor dem Menschen retten, sogenannten „Atommüll“ für eine Million Jahre sicher wegschließen und einen Neuen Menschen erschaffen zu wollen, den ‚Die Tagespost‘ als „Homo climaticus“ beschreibt, Zitat:

Der Homo climaticus macht sein Dasein vom Kampf gegen das CO2 abhängig, ohne in der Regel viel über das angebliche Treibhausgas zu wissen. Zur inhaltlichen Gestaltung dieser Daseinsform boomt eine ganze Ratgeberliteratur, die empfiehlt: klimaneutral leben, essen, bauen, urlauben, ja sogar Ökosex und vieles mehr wird derzeit entdeckt. Schon seit einiger Zeit werden klimaneutrale Speisepläne entworfen. Butter gilt als noch klimaschädlicher denn Fleisch. Der Klimawandel darf sich nicht beschleunigen. Dafür wird alles auf den Prüfstand gestellt. Als wichtiges Ergebnis des Klimapakets fallen vor allem finanzielle Belastungen für die Bevölkerung auf, die aus sozialen Gründen wiederum kompensiert werden müssen.“

Bevor man aber nun den klimagerechten Rattenfängern folgt, sollte man sich vielleicht fragen, wo denn im Zeitraum 1850-1900 weltweit überhaupt flächenhafte Temperaturdaten über längere Zeiträume erhoben worden sein sollen, auf denen sich ja angeblich die IPCC-Abbildung 1.SM.1 zum „menschengemachten“ Klimawandel gründet. Allein die Entdeckungsgeschichte der Kontinente unserer Erde lässt größere Datenlücken vermuten, was eine NOAA-Darstellung derjenigen Gebiete bestätigt, in denen zwischen 1861 und 1890 mehr als 10 Jahre kontinuierlich Temperaturdaten erhoben worden waren:

Abbildung: IPCC Figure 1.SM.1 mit der Jahreszeit der größten menschen-induzierten Erwärmung für den Zeitraum 2006-2015 gegenüber 1850-1900 (links) NOAA Global Historical Climatology Network: Gebiete mit mehr als 10 Jahren kontinuierlicher Temperaturaufzeichnung im Zeitraum 1861-1890 (rechts, grau unterlegt)

Im Zeitraum zwischen 1861 und 1890 gab es auf den Weltmeeren und Polkalotten, sowie in Südamerika, Afrika und Asien (ohne Sri Lanka) laut NOAA-Graphik demnach kein einziges überwachtes Gebiet mit einer Aufzeichnungsdauer größer 10 Jahre. Die damaligen Temperatur-Meßstationen konzentrieren sich vielmehr auf Nordamerika, Europa und den Osten Australiens.

Dagegen zeigt die „Figure 1.SM.9“ aus dem “Framing and Context Supplementary Material” zum IPCC Report “Global Warming of 1.5°C (als diejenige von 3 gleichartigen Abbildungen mit den größten Temperaturanomalien) die regionale Veränderung der Dekade (2006-2015) relativ zur vorindustriellen Zeit:

Abbildung: “Figure 1.SM.9” aus dem “Framing and Context Supplementary Material” zum IPCC Report “Global Warming of 1.5°C für den GISTEMP-Datensatz. Die beiden anderen gleichartigen Abbildungen beziehen sich auf die Tempertaturdatensätze „NOAA“ (Figure 1.SM.8) und „HadCRUT4“ (Figure 1.SM.10).

Der zugehörige Abbildungstext von „Figure 1.SM.9“ verweist auf die mittlere Veränderung des externen Klimaforcings im Zeitraum 2006-2015 gegenüber dem vorindustriellen Zeitraum 1850-1900, die aus dem „GISTEMP“-Datensatz ermittelt worden sei. Erstaunlicherweise ist aber auch hier keinerlei systematische Verändertung der globalen Temperaturanomalien durch das jahreszeitlich variable örtliche Klimaforcing feststellbar, wie die nachstehende Abbildung belegt:

Abbildung: “Figure 1.SM.9” mit der Temperaturanomalie (2006-2015 gegenüber 1850-1900) aus dem “Framing and Context Supplementary Material” zum IPCC Report Global Warming of 1.5°C (links) vs. Tentative jahreszeitliche Auswirkungen von maximaler spezifischer solarer Strahlungsleistung und/oder maximaler örtlicher Tageslänge auf den sogenannten THE (rechts)

Nach der IPCC-“Figure 1.SM.9” ergeben sich erstaunlicherweise die größten Temperaturanomalien auf der Polkalotte der jeweiligen Winterhemisphäre, und daraus widerum ergibt sich ein diametraler Widerspruch zum THE-Postulat für eine durch die IR-Rückstrahlung der Erde verursachte tertiäre „atmosphärischen Gegenstrahlung“, die wiederum einen „natürlichen atmosphärischen Treibhauseffekt“ antreiben soll.

WIDERSPRUCH 3: Nach „Figure 1.SM.9“ wäre der anthrtopogen verursachte Leistungsanstieg einer „atmosphärischen Gegenstrahlung“ (=Antrieb eines THE) umgekehrt proportional zur IR-Strahlungsleistung der Erdoberfläche (=Antrieb der „Gegenstrahlung“).

Es ist hier also festzustellen, dass das IPCC eigentlich melden müsste, „April, April – die Erde brennt gar nicht“. Selbst wenn wir den IPCC-Fauxpas mit dem 2. HS der Thermodynamik einmal hintenanstellen, so ist in den veröffentlichten IPCC-Daten selbst weder ein konkreter „THE-Fingerabdruck“ bei den vorgeblich „menschengemachten“ Temperaturresiduen nachweisbar, noch wird eine „atmosphärische Gegenstrahlung“ proportional zur IR-Abstrahlung der Erde erkennbar. Vielmehr bildet sich bei den Temperaturresiduen insbesondere das chaotische Wettergeschehen um die Äquinoktien ab, wie es sich in der raschen jahreszeitlichen Veränderung der maximalen spezifischen Strahlungsleistung der Sonne und/oder der örtlichen Tageslänge mit meinem hemisphärischen S-B-Ansatz leicht nachvollziehen lässt.

Das IPCC verkauft in seinem Bericht “Global Warming of 1.5°C” (SR1.5) also einen auf höchst fragwürdigen Vergleichsdaten (1850-1900) basierenden interpolierten 10-Jahre-Wettertrend als menschengemachte Klimaveränderung, denn die stärkste „menschengemachte“ Erwärmung hat ausgerechnet dort stattgefunden, wo der ursächliche Zusammenhang mit einem „natürlichen atmosphärischen Treibhauseffekt“ am geringsten wäre.

Die Weltklimarettung durch ein höheres „WIR“ ist weder alternativlos noch notwendig

Die hier vorgestellten Ergebnisse beweisen also insbesondere die Diskrepanz zwischen Anspruch und Wirklichkeit derjenigen IPCC-Grundlagendaten, mit denen die gesellschaftspolitischen Ziele zum Umbau unserer Industriegesellschaft in eine globalisierte Öko-Dystopie medial begründet und politisch vorangetrieben werden. Und irgendwie spiegelt sich dieser Wille zum „Systemwechsel“ auch in der Beibehaltung und Verschärfung der ursprünglichen Klimaziele bei absteigender Intensität der beschreibenden Begrifflichkeiten wider – von Klimakatastrophe über Klimaerwärmung und Klimawandel bis hin zu einer Klimakrise – wie sie, vom Temperaturanstieg zwischen 1975 bis 1995 bis hinein in die nachfolgende Erwärmungspause, fortlaufend an die tatsächlichen Gegebenheiten angepasst worden waren.
Das bevorstehende solare Minimum war zum Zeitpunkt des Klimaabkommens von Paris (2015) noch gar nicht in der Öffentlichkeit angekommen. Mit dem Begriff „Klimakrise“ könnte die staatsreligiöse Klimahysterie nun auch eine beginnende Kälteperiode für sich vereinnahmen. Vielleicht findet man dann ja abseits der seriösen Klimaforschung sogar ein paar willige Wissenschaftskurtisanen, die ganz zufällig die bestehende Lehrmeinung über die sogenannten „Klimagase“ in ihr aktuelles Gegenteil verkehren. So etwas ließe sich beispielsweise vordergründig durch die sogenannte Erwärmungspause bei steigenden atmosphärischen CO2-Werten begründen und dann in geeigneter Weise medial weiterverarbeiten; denn ohne eine strikte CO2-Vermeidung wäre ja schließlich die schönste globale Dekarbonisierung nichts wert…

Um in das gelobte ökologische Mittelalter zu gelangen, müssen wir also lediglich unsere technisch-naturwissenschaftlichen Erkenntnisse, unsere zuverlässige Energieversorgung und unsere wertschöpfende fossile Marktwirtschaft vernichten. Gleichzeitig bleiben die neu zu schaffenden „erneuerbaren“ Arbeitsplätze völlig unproduktiv und ihre subventionierten Schattenwelten werden am Ende der fossilen Wertschöpfung ganz von selbst zusammenbrechen, wenn es nichts mehr umzuverteilen gibt. Die Weltklimarettung durch ein „ÜBER-WIR“ ist also weder alternativlos noch wünschenswert. Vielmehr sollten WIR SELBST in EIGENER Verantwortung entscheiden, vor WAS wir uns von WEM retten lassen wollen und vor allem: WARUM SOLLTEN WIR EIGENTLICH?

 




Luftmassen – was heißt das?

Was ist eine Luftmasse?

„Offizielle“ Definitionen: Wetterlexikon bei Wetter.de: Über einem größeren Bereich lagernde oder zirkulierende Luftmenge mit einheitlichen Eigenschaften

Synoptische Meteorologie.de: Luftmassen sind riesige Luftkörper ähnlicher Temperatur, Luftfeuchtigkeit und Schichtung. Ihre horizontale Ausdehnung erreicht nicht selten mehrere Tausend Kilometer. Diese auch vertikal hochreichenden Luftkörper bilden sich meist in antizyklonalen und damit windschwachen Regionen. In diesen sogenannten Quellgebieten verbleiben sie tagelang quasistationär, sodass sie die thermischen und humiden Eigenschaften des Quellgebietes annehmen können. Erst im Zusammenhang mit Winden verlagern sich Luftmassen in andere Regionen und prägen dort das Wetter. Im Extremfall kommt es zu Hitze- und Kältewellen. Im Übergangsbereich zu anderen Luftmassen, an den sogenannten Luftmassengrenzen, entwickeln sich häufig markante Wettererscheinungen wie Starkregen, Gewitter oder Sturm.

Kurze Historie der Klassifikation

Die erste sinnvolle Klassifikation von Luftmassen führte der damalige Leiter des Meteorologischen Instituts der Freien Universität Berlin Prof. Dr. Richard Scherhag während der 1950er Jahre durch. Er unterschied zunächst vier Hauptluftmassen:

  • Arktische Luftmassen (A)

  • Polare Luftmassen (P)

  • Tropische Luftmassen (T)

  • Äquatoriale Luftmasse (E)

Hinzugefügt wurden dann noch die vorangestellten Indizes „m“ für maritime und „c“ für kontinentale Luftmassen.

Es zeigte sich aber mit der Zeit, dass diese Einteilung zu grob und zur Beschreibung für die Witterung in Mitteleuropa unzureichend war. So wurde eine auf das Festland strömende Meeresluft nicht nach einer bestimmten Zeit zu Festlandsluft ohne jeden Übergang. Zum Anderen wurde eine Luftmasse, die direkt aus der Arktis über das Nordmeer und die Nordsee hinweg nach Mitteleuropa strömte, genauso als „Meeresluft polaren Ursprungs“ bezeichnet wie eine Kaltluftmasse, die erst über dem Atlantik nach Süden strömt, etwa bis zu den Azoren, und dann von dort ihren Weg nach Mitteleuropa findet. Beides sind labil geschichtete, das heißt höhenkalte Luftmassen, die zu Schauern und Gewittern neigen. Der Temperaturverlauf ist jedoch gänzlich anders, vor allem im Winter. Zwar bringt die direkt aus Norden einströmende Meeresluft zumindest im Flachland auch kein richtiges Winterwetter, sondern eher der Jahreszeit entsprechende Temperaturwerte mit Naßschnee oder Schneeregen. Die von den Azoren einströmende Meeresluft – obgleich ebenfalls „polaren Ursprungs“ – bringt jedoch im Januar extrem mildes Wetter. Um diesem Umstand Rechnung zu tragen, wurde dann noch ein kleiner Index beigefügt, so dass beispielsweise die letztgenannte Luftmasse zu „mPt“ wurde.

Außerdem wurde zwar zwischen arktischer und subarktischer (subpolarer) Luft unterschieden, nicht jedoch nach tropischer und subtropischer Luft. So strömen tatsächlich nur sehr selten echte tropische, sondern bei entsprechenden Wetterlagen subtropische Luftmassen nach Mitteleuropa. Scherhag unterschied zwischen „tropischer“ und „äquatorialer“ Luft, doch sind diese beiden Begriffe klimatologisch gesehen ein und dasselbe.

Aus diesem Grunde machte sich der Scherhag-Schüler und spätere Geschäftsführende Direktor des Instituts Prof. Dr. Manfred Geb daran, dieses Konzept grundlegend zu überarbeiten und zu erweitern. So führte er zusätzlich zu den Indizes „m“ und „c“ die Bezeichnung „x“ ein. Damit trug er dem Umstand Rechnung, dass eine auf das Festland strömende und dort zur Ruhe kommende Meeresluft nicht sozusagen „ruckartig“ zu Festlandsluft wird, sondern erst einmal den Charakter einer „gemischt maritim und kontinental geprägten“ Luftmasse annahm. Eine Kaltluftmasse, die sich vor dem Eintreffen in Mitteleuropa stark erwärmt hatte, erhielt nun den nachgestellten Index „s“ und umgekehrt eine ehemalige Warmluftmasse, die große kältere Gebiete vor ihrem Eintreffen in Mitteleuropa überströmt hatte, den nachgestellten Index „p“. Damit ergab sich nach Geb die folgende Einteilung:

Tabelle: Luftmassenbezeichnungen nach Manfred Geb. Diese Klassifikation lässt sich grundsätzlich auch weltweit anwenden; lediglich der geografische Ursprung ist dann anders zu bezeichnen.

Anwendung dieser Klassifikation für die Vorhersage der Temperatur

Als der Autor zu Beginn der 1980er Jahre, aber auch schon als Student, nach seiner Diplom-Prüfung die Arbeit im Wettervorhersage- und Wirtschaftswetterdienst am Institut für Meteorologie der Freien Universität Berlin aufgenommen hatte, gab es natürlich noch nicht die zahlreichen numerischen Produkte von heute. Es gab zwar rudimentär bald erste numerisch gerechnete Vorhersagen, doch erwiesen sich diese für den praktischen Gebrauch als unzureichend. Erschwerend kam hinzu, dass das Institut mit seinem Wirtschaftswetterdienst nur für die Stadt Berlin (West) zuständig war, also für einen Punkt. Die Angabe einer Differenz bei der Vorhersage von Höchst- oder Tiefsttemperatur, wie sie in Flächenländern wie Bayern üblich und sinnvoll war, (und womit man Fehlvorhersagen ganz gut kaschieren konnte!) verbot sich also. Zwar gab und gibt es auch innerhalb des Stadtgebietes von Berlin mitunter beachtliche gleichzeitige Temperaturunterschiede wegen des WI-Effektes, doch war das Temperaturniveau abgesehen von diesen Einzelfällen etwa gleichmäßig.

So wurden nun am Institut Temperatur-Statistiken nach Luftmasse sowie nach Jahreszeit und Wetter erstellt über einen Zeitraum von 10 Jahren, nämlich von 1969 bis 1978. Es wurden vier „Wettertypen“ definiert von 1 (wolkenlos) bis 4 (trübe und regnerisch). Ggf. wurde noch eine fünfte Kategorie benutzt für anhaltenden Dauerniederschlag.

Nun ist das Auftreten verschiedener Luftmassen in Mitteleuropa räumlich und zeitlich sehr unterschiedlich verteilt. Im Winter und im Hochsommer dominieren bei den häufigen Westlagen vor allem die Luftmassen mP und mPs, im Frühling ist hingegen der Anteil kontinentaler und arktischer Luftmassen höher; im Herbst beherrschen mPs, alle Sp-Massen und/oder mS oft das Wettergeschehen. Die Luftmasse cA tritt im Sommer gar nicht, die Luftmasse cP nur sehr selten auf; Tropische Luftmassen (T) sind in allen Jahreszeiten extrem selten. Auch dazu haben Kämpfe et al. viele Beiträge geschrieben. Für die Erstellung einer Statistik ist nun aber ein möglichst häufiges Vorkommen von Datenpunkten erwünscht. Eine der am häufigsten in Mitteleuropa auftretenden Luftmassen ist die subpolare Meeresluft mP, und zwar zu allen Jahreszeiten. Als Beispiel für eine Luftmassen-Temperatur-Statistik sei hier der statistische Temperaturverlauf dieser Luftmasse unterschieden nach den vier Wettertypen gezeigt:

Abb. 1: Temperaturverlauf in Abhängigkeit von Jahreszeit und Wettertyp bei subpolarer Meeresluft mP. Der Verlauf gilt für den Punkt Berlin für 2 Meter Messhöhe über Grund, wo die Streuung durch verschiedenste Einflüsse wie den Wärmeinsel-Effekt hoch ist; eindeutiger und weniger abhängig von den Witterungstypen ist die Klassifikation für das 850-hPa-Niveau. Grafik: Autor

Bei dieser Klassifikation im 850-hPa-Niveau spielt ein anderer Parameter eine entscheidende Rolle. Die pseudoäquivalentpotentielle Temperatur oder abgekürzt pseudopotentielle Temperatur δps ist die Temperatur, die ein Wolkenluftpaket annähme, wenn es kondensierend unter ständigem Verlust an Flüssigwasser gehoben werden würde, bis der gesamte Wasserdampf kondensiert und ausgefallen wäre (vertikaler Temperaturgradient bei Kondensation 0,6°C pro 100 m) und es anschließend wieder trockenadiabatisch auf 1000 hPa absänke vertikaler Temperaturgradient 1°C pro 100 m). Damit ist die pseudopotentielle Temperatur ein Maß für den Energieinhalt einer Luftmasse. Sie beträgt nach GEB im Hochsommer für die Luftmasse mP, bezogen auf Mitteleuropa und das 850-hPa-Niveau, im Mittel 33°C; für die Luftmasse mS aber 50°C, während sich die Lufttemperatur, bezogen auf dieselbe Druckfläche und Jahreszeit, mit 5°C (mP) und 13°C (mS) weitaus weniger unterscheidet. Einfacher ausgedrückt: eine pseudopotentielle Temperatur (die man nicht messen, sondern nur aus „fühlbarer“ Temperatur und dem Feuchtegehalt rechnerisch ermitteln kann) von 50°C (mS) bedeutet eine Temperatur von 50°C bei einer Relativen Feuchtigkeit von 0 (Null) Prozent! Das werden wir hier nie erleben (nebenbei: Daran sieht man, welche Rolle Wasserdampf bzgl. der Lufttemperatur spielt).

Arktische und subpolare (subarktische) Luftmassen zeichnen sich tendenziell durch hohe Sichtweiten und ein tiefes Himmelsblau aus; tagsüber entstehen oft prächtige Haufenwolken bis hin zu kleinräumigen Schauern (Abb. 2a). Festlandsluft erkennt man besonders im Sommerhalbjahr an ihrer Wolkenarmut bei geringer relativer Luftfeuchte und hoher Temperaturamplitude zwischen Tag und Nacht. Subtropische Luftmassen sind gekennzeichnet durch Schwüle mit der Folge punktueller schwerer Gewitter (Abb. 2b) und die geringe nächtliche Abkühlung.

Abb. 2a und 2b: Gleicher Wolkentyp: Cumulonimbus capillatus, auf deutsch: Schauer/Gewitter. Abb. 2a(oben) zeigt eine solche Wolke in einer (sub-)arktischen Luftmasse – kleinräumig und überschaubar. Abb. 2b (unten) zeigt eine massive Unwetterwolke, wie sie für die Luftmasse xS typisch ist. Diese weht im Sommer von Südwesten nach Mitteleuropa, was erklärt, warum die von Kämpfe gefundene Häufung von Südwestlagen während der letzten Jahre auch recht häufig von schweren Unwettern in Deutschland begleitet war. Beide Fotos: Autor

Beispielhaft sei hier zur Verdeutlichung folgender Fall angenommen: Ein Vorstoß subpolarer Meeresluft (mP) bringt im Sommer Temperaturwerte unter dem Durchschnitt. Sollte diese Luftmasse aber über dem Festland zur Ruhe kommen, wird sie sich erwärmen und gleichzeitig Eigenschaften des Festlandes aufnehmen. Die resultierende Luftmasse wäre eine erwärmte, gemischt maritim und kontinental geprägte subpolare Luft (xPs). Im Winter bringt diese Luftmasse eher über dem Durchschnitt liegende Temperaturwerte. Kommt sie über dem Festland zur Ruhe, wird sie sich abkühlen und zu „subpolarer Luft“ (xP) werden. Was dabei auch noch zu beachten ist: Je höher die Meereskaltluft reicht (etwa im Bereich eines 500-hPa-Troges), umso länger dauert diese Umwandlung.

Nach eingehender Abschätzung von Luftmasse und Wettertyp lag hier also jetzt eine objektive Grundlage für die Temperaturvorhersage vor, bevor numerische Produkte diese Art der Vorhersage ersetzten. Dies zog sich jedoch bis in die 1990er Jahre hin.

Luftmassen in Mittleren Breiten

Ursprungsgebiete von Luftmassen sind naturgemäß die Breiten, in denen der Polar-Jet keine oder nur eine sehr untergeordnete Rolle spielt, also die Tropen/Subtropen und die Polargebiete. In den Polargebieten ist vor allem im Winter eine mehr oder wenige gleichmäßige Oberfläche vorhanden (ob der Schnee auf dem Festland oder auf Meereis liegt, spielt nun wirklich keine Rolle). In den Tropen jedoch gibt es markante Unterschiede zwischen tropischen Meeresgebieten und dem Festland. Die Passatwinde der Subtropen sorgen dafür, dass auch diese Luftmassen ausgetauscht werden. Bei bestimmten, zirkulationsarmen Wetterlagen, welche in den letzten Jahrzehnten häufiger wurden, gewinnt jedoch auch Zentral-Europa im weitesten Sinne als Entstehungsort von Luftmassen an Bedeutung. Wegen seiner geografischen Besonderheiten (Mitteleuropa ist strenggenommen nur eine extrem reich gegliederte Halbinsel zwischen Atlantik im Westen, Nord-und Ostsee im Norden und dem Mittelmeer im Süden) entstehen hier bevorzugt x-Massen; im Sommerhalbjahr meist die gemäßigte, europäische Warmluft xSp, seltener cSp, im Winter xP, xPs,, seltener cPs oder cP. Sprichwörtlich war am Institut in Berlin die „Bayerische Polarluft“, wenn nämlich im Winter nach dem Einströmen einer Meeresluftmasse von Westen her die Strömung im Bereich einer windschwachen Hochdruckzone auf Süd oder Südost drehte. Bodennah war dieser Vorgang mit einer markanten Abkühlung verbunden, während sich oberhalb der Reibungsschicht (ca. 1000 m) in dieser Hinsicht gar nichts tat.

In diesem Beitrag soll es aber hauptsächlich um den Wechsel von Luftmassen in mittleren Breiten, sprich in Mitteleuropa gehen. Der ständige Wechsel zwischen Luftmassen tropischen/subtropischen Ursprungs und solchen arktischen/subarktischen (subpolaren) Ursprungs ist bei uns ganzjährig die Regel und macht unser wechselhaftes Wetter aus. Ist eine Luftmasse am Rande des möglichen Spektrums (kalt bzw. warm) längere Zeit vorherrschend, wird es eine entsprechende Abweichung der Mitteltemperatur geben – wobei es hier noch egal ist, welchen Bezugszeitraum man zugrunde legt.

Dies gilt sowohl im kurzfristigen Maßstab als auch mittelfristig! Wenn Kämpfe et al. nachgewiesen haben, dass es über die letzten Jahre eine Häufung von Südwestlagen gegeben hatte, dann gab es naturgemäß auch eine Häufung des Zustromes milder/warmer Luftmassen. Denn auch zu kältesten Zeiten irgendeiner Eiszeit kann mit einer großräumigen Südwestströmung keine winterkalte Luft herangeströmt sein!

Luftmassenwechsel gibt es natürlich von Tag zu Tag (Wetter!). Aber auch im Abstand von einigen Wochen kann die Vorherrschaft einer bestimmten Luftmasse durch die Vorherrschaft einer anderen Luftmasse abgelöst werden (Witterung! Für diesen Begriff gibt es im Englischen keine Entsprechung!). Das hängt natürlich von den planetarischen Wellen der Westwindzone ab. Tröge sind allgemein mit Kalt-, Hochkeile mit Warmluftmassen angefüllt. Ob die Häufigkeitsverteilung warmer bzw. kalter Luftmassen durch irgendetwas moderiert wird, steht auf einem anderen Blatt und ist hier nicht das Thema.

Eigenschaften von Luftmassen in Mitteleuropa

Generell wird der Charakter von Luftmassen in Mitteleuropa von drei grundlegenden Faktoren bestimmt:

1) Das Ursprungsgebiet, aus welchem die jeweilige Luftmasse stammt,

2) den Weg, den sie bis zum Eintreffen in Mitteleuropa zurückgelegt hat, und

3) wie lange das gedauert hat.

Dazu kommen untergeordnete Fragen wie etwa: war/ist es in den Ursprungsgebieten gegenwärtig besonders warm/kalt? Sind die überströmten Land-/Meeresgebiete besonders warm/kalt? Eine Änderung der ozeanischen Wassertemperatur drückt einer diese Meeresgebiete überströmenden Luftmasse einen gewaltigen Stempel auf! Erleben durften das die Bewohner in Südaustralien und Südamerika im gerade zu Ende gegangenen Südwinter. Offenbar haben sich Luftmassen mit Ursprung in der Antarktis auf ihrem Weg über die eisfreien Meeresgebiete nach Australien deutlich weniger stark erwärmt als sonst (was immer hier „als sonst“ heißen soll). Die Folge waren sowohl in Südaustralien als auch in Südamerika „ungewöhnliche“ Schneefälle. Man darf aber wohl davon ausgehen, dass derartige Ereignisse dort vielleicht nicht in jedem Jahr, aber doch immer wieder vorkommen, vermutlich aufgrund irgendwelcher Oszillationen. (Nebenbei: Aus der völligen Ignoranz dieser Vorgänge seitens der hiesigen Medien folgert der Autor, dass es sich dabei vermutlich doch um ein recht seltenes Kalt-Ereignis handelte!).

Nach Mitteleuropa strömende Meeresluftmassen (aus Südwesten bis Nordwesten) werden natürlich entscheidend von der Wassertemperatur im Nordatlantik geprägt. Ob diese aufgrund bestimmter mächtiger Kräfte (z. B. der Atlantischen Multidekadischen Oszillation AMO) höher oder niedriger liegt (als was eigentlich?), ist von entscheidender Bedeutung für das Temperaturniveau der hier wetterbestimmenden Luftmasse. Die AMO ist die Bezeichnung für eine zyklisch auftretende Zirkulationsschwankung der Ozeanströmungen im Nordatlantik. Sie bringt eine Veränderung der Meeresoberflächentemperaturen des gesamten nordatlantischen Beckens mit sich, wodurch Einfluss auf die Atmosphäre ausgeübt wird. Die AMO hat eine Periodendauer von 50 bis 70 Jahren und besitzt „warme“ und „kalte“ Phasen. Von 1900 bis 1925 sowie von etwa 1965 bis 1995 befand sie sich in einer kalten Phase, von etwa 1925 bis 1965 und seit etwa Mitte der 1990er Jahre in einer warmen Phase. Ob aufgrund dieser Oszillationen bestimmte Strömungsmuster bevorzugt werden (wie eben in letzter Zeit die Häufung von Südwestlagen), ist ebenfalls nicht Thema dieses Beitrags, auch wenn es Indizien gibt, dass dies tatsächlich der Fall ist. Siehe hierzu den Beitrag von Kämpfe hier. Daraus die folgende Abbildung:

Abbildung 3: Seit 1881, dem Beginn der Erstellung halbwegs verlässlicher Wetterkarten, hat sich die Häufigkeit der in Deutschland stark erwärmend wirkenden Südwestlagen merklich erhöht. Außerdem erwärmte sich der Nordatlantik, wobei es eine schwächere Warmphase um 1900, eine stärkere um 1945 und eine aktuelle, sehr starke, gibt. Die Kurvenverläufe der gleitenden Mittelwerte (fette Kurven) ähneln sich, wobei die AMO etwa 20% der Häufigkeitsvariabilität der SW-Lagen erklärt. Fast alle Jahre ganz ohne SW-Lagen traten vor 1950 auf; danach war nur 1991 frei von SW-Lagen; 2019 hatten wir 44 Tage.

Sollte das tatsächlich der Fall sein, dann kann man wohl mit einiger Sicherheit davon ausgehen, dass irgendwann (demnächst vielleicht?) auch wieder andere Strömungsmuster vorherrschend sind, z. B. winterliche Nordostlagen. Dem Autor scheint das ausschließlich eine Frage der Zeit zu sein – nicht ob, sondern wann es dazu kommt.

Die Kleine Eiszeit war vermutlich in Mitteleuropa nur deswegen so kalt, weil es bevorzugt zu Nordostlagen und/oder südlichen Westlagen (WS) gekommen war, bei denen der Jet-Stream südlich an Deutschland vorbei über das Mittelmeer hinweg verlief – aus welchen Gründen auch immer. Wenn in den Niederlanden die Grachten zufrieren, kann das nur eine von Osten auf direktem Weg heranströmende Festlandskaltluft bewirken – und auch das nicht über Nacht, sondern über einen längeren Zeitraum.

Und was hat das alles mit Klima zu tun?

Kurz gesagt: fast gar nichts!

Aus der Vorherrschaft bestimmter Luftmassen in Mitteleuropa (einem für das globale Wetter kleinen und unbedeutendem Punkt) gleich auf das Wetter des gesamten Globus‘ zu schließen, ist – gelinde gesagt – Humbug. Was aber einige Klima-Obergurus nebst willfährigen Kriech-Medien nicht daran hindert, genau das seit Jahrzehnten zu tun. Was auch immer die Ursache der von Kämpfe et al. beschriebenen Häufung von Südwestlagen in Mitteleuropa ist – das winzige bisschen Kohlendioxid in der Luft ist dafür mit Sicherheit nicht verantwortlich. Und wenn sich ein zum Klimagott hoch stilisierter Mann mit indischen Wurzeln hinstellt und sagt, dass „es bei uns keine Winter mehr wie noch vor zwanzig Jahren geben werde“, dann sagt er damit, dass es bei uns im Winter nie mehr den Zustrom von Luftmassen aus Nordosten geben wird. Das ist natürlich absoluter Unsinn. Aber es ist eben ein Gott, und Götter sind ja bekanntlich unfehlbar. Und wenn sich die Fakten nicht nach diesen göttlichen Geboten richten, dann sind diese Fakten eben leugnerisch und rechtsradikal.

Fazit: Das Temperaturniveau von Tagen, Monaten und Jahren wird bei uns durch das Vorherrschen bestimmter Luftmassen festgelegt, modifiziert durch die 4 bis 5 Wettertypen und das Temperaturprofil sowie das Geopotential der Troposphäre, wobei in den letzten Jahrzehnten die starke Häufigkeitszunahme der wolkenarmen, sonnigen Wettertypen und eine höhere Lage des 500hPa-Niveaus auffällig waren – und durch fast nichts sonst!

Nachtrag: Der Autor hat in den 1980er Jahren mal versucht zu ergründen, ob sich das Temperaturniveau ein und derselben Luftmasse in Mitteleuropa ändert, und zwar am Beispiel der subpolaren Meeresluft mP, der mit am häufigsten in Mitteleuropa wetterbestimmenden Luftmasse. Der Einfluss der o. g. Faktoren ist jedoch so vielfältig, dass der Versuch bald wieder aufgegeben wurde. Siehe auch hierzu die zahlreichen Arbeiten von Kämpfe & Kowatsch, zuletzt hier.

————————

Der Autor bedankt sich bei Herrn Stefan Kämpfe für die ausführliche Begutachtung dieses Beitrags sowie für ein paar Ergänzungen dazu.




Klimastreik: Angst erzeugen und ein wissenschaftliches Vakuum schaffen

Die Demonstranten in Toronto blockierten eine Kreuzung, während die Demonstranten in Moskau in ihren maßgefertigten grünen Hemden tanzten. In Indien protestierten Kinder vor dem Umweltministerium und hielten Plakate mit zweifelhaften Behauptungen in der Hand.

Selbst in Beirut, wo die vermeintliche Klimagefahr weitaus geringer ist als andere lebensbedrohliche Faktoren, kam es zu Streiks.

Begeistert über den Erfolg des organisierten Streiks twitterte die Aktivistin Thunberg: „Was für ein riesiger Erfolg! Maskiert und sozial distanziert kehrten Hunderttausende in über 3200 Orten auf allen Kontinenten, einschließlich der Antarktis, auf die Straße zurück und forderten Klimaaktionen! Der Kampf für eine Zukunft endet hier nicht. Dies ist erst der Anfang“.

Bravo! Es ist in der Tat ein großer Erfolg für diejenigen, die eine globale Massenveranstaltung organisiert haben. Der Streik war jedoch ein kolossaler Misserfolg, wenn das angestrebte Ziel darin bestand, ein Bewusstsein für den Klimawandel zu schaffen.

Der Grund dafür ist einfach: Die Schulstreikbewegung und ihre Milliarden Klimastreiks sprechen kaum über Klimawissenschaft. Stattdessen posaunen die Demonstranten lediglich ihre Überzeugung hinaus, dass die Klimakatastrophe unmittelbar bevorsteht. Ihre Aufmerksamkeit richtet sich auf die Angstmacherei und Verunglimpfung konventioneller fossiler Brennstoffressourcen.

Offensichtlich ist die Bewegung nicht wissenschaftlich. Oft stehen die Behauptungen der Demonstranten nicht im Einklang mit den harten Wahrheiten über das Klima und seine Veränderungen. Tatsächlich stehen die Behauptungen der Demonstranten oft in krassem Gegensatz zum tatsächlichen Klima.

Fake-Behauptungen und knallige Schlagzeilen



Klima-Alarmisten sind bekannt für ihre alarmierenden Phrasen, die mit der Realität äußerst unvereinbar sind. Thunberg sagt zum Beispiel: „Ich möchte, dass Sie so tun, als würde unser Haus brennen. Denn es brennt.“ Die Wahrheit ist, dass unser Haus, d.h. die Erde, nicht brennt.

Die globale Durchschnittstemperatur – eine grobe Schätzung dessen, was Wissenschaftler als Indikator für das Gesamtklima auf unserem Planeten ansehen – hat in den letzten zwei Jahrzehnten keinerlei Anzeichen für einen gefährlichen Anstieg gezeigt.

Im Jahr 2014 räumten Wissenschaftler des IPCC ein, dass ihre Prognosen bzgl. dieser globalen Durchschnittstemperatur falsch waren und dass es zwischen 2000 und 2014 zu einer unerwarteten Verlangsamung der Erwärmungsrate gekommen war.

Das hält diese Klima-Alarmisten und Demonstranten jedoch nicht davon ab, ihre Angstkampagne fortzusetzen. Klimaprotestierer konzentrieren sich auf Klimaprophezeiungen, nicht auf die harten Beobachtungsdaten der Vergangenheit.

Berühmtheiten wie Harrison Ford und Politiker wie Al Gore behaupten, dass „die Zeit für den Klimawandel knapp wird“. Nun, vielleicht ist es so – aber nicht in dem Sinne, den sie sich vorstellen. Die Zeit läuft den katastrophalen Behauptungen wirklich davon, da die globale Durchschnittstemperatur sich weiterhin beharrlich weigert, den Prophezeiungen der Panikmacher zu entsprechen.

CNN erklärte, dass die andauernde Pandemie die letzte Chance für uns ist, den Planeten vor dem Klimauntergang zu retten.

Sich am Klimastreik beteiligende Kinder sagen, die Zukunft gehöre ihnen, und die Erwachsenen von heute zerstören sie, indem sie gegenüber dem Klimawandel unsensibel sind. Sie sagen, eine Katastrophe sei sicher, weil „die Wissenschaftler“ dies sagen. Und wie genau sind die Prophezeiungen „der Wissenschaftler“, dass die Klimakatastrophe kommen wird? Indem sie Computerklimamodelle verwenden, von denen sie behaupten, sie seien vertrauenswürdig.

Allerdings deuten die Temperaturmessungen von Satelliten darauf hin, dass ein Großteil der aktuellen Rhetorik über eine beispiellose Erwärmung übertrieben ist, um ein falsches Gefühl von Alarmismus zu vermitteln.

Eine umfassende Analyse von Computer-Klimamodellen ergab, dass deren Vorhersagen die Veränderungen der realen Temperaturen nicht widerspiegelten und eine übertriebene Erwärmung zeigten. Diese Tatsache wurde im Jahre 2017 vor dem Ausschuss für Wissenschaft, Raumfahrt und Technologie des US-Hauses bezeugt.

Die Modelle haben sich seitdem nicht verbessert. Während die vorherige Generation von Modellen die Erwärmung stark übertrieben hat, schneidet die neue Generation, die sie ersetzt, noch schlechter ab und erzeugt 50 % mehr Oberflächenerwärmung als seit 1979 beobachtet. Sie sind in der Tat unzuverlässig und zeigen im Vergleich zu den tatsächlichen Beobachtungen ungewöhnlich hohe Temperaturniveaus.

Diese Modelle konnten nicht einmal die Veränderungen zwischen 2000 und 2019 erfassen. Es ist extrem fahrlässig, dass sich die gesamte alarmierende Bewegung auf fehlerhafte Modelle und deren ungenaue Vorhersagen stützt.

Wir leben in einer Welt mit einem hervorragenden Klima für die menschliche Zivilisation. Aber unsere politische und kulturelle Bühne ist von alarmierenden, sich auf fehlerhafte Computermodelle stützenden Theorien gekapert worden.

Die Alarmisten-Theorie wurde von den Mainstream-Medien der Bevölkerung so erfolgreich eingehämmert, dass ein großer Teil der breiten Öffentlichkeit getäuscht wurde, so dass die Behauptung der Medien als selbstverständlich hingenommen wurde.

Das letzte Tüpfelchen auf dem i ist die Indoktrination von Kindern im Schulalter, die glauben, dass sie aufgrund einer nirgendwo zu sehenden Klimakatastrophe keine Zukunft haben.

Je mehr man sich die Klima-Streik-Bewegung ansieht, desto mehr wird einem die wissenschaftliche Leere in ihr bewusst. Es ist eine kulturelle Bewegung mit starken finanziellen und politischen Elementen. Je früher sie endet, desto besser für die Millionen von Kindern, die dieser Lüge zum Opfer gefallen sind.

[Hervorhebungen vom Übersetzer]

This article was originally published on The Patriot Post.

Link: https://cornwallalliance.org/2020/10/climate-strike-instilling-fear-and-creating-a-scientific-void/

Übersetzt von Chris Frey EIKE




Traue keiner Statistik, die du nicht selber gefälscht kommen­tiert hast

Trump ist der größte Verbreiter von „Fake News“ über Corona … „

… schrieb der Chefredakteur einer nordbayerischen Tageszeitung im Leitartikel, verbunden mit dem penetrant üblichem, fast täglichem Trump-Bashing und Merkel „in den Hintern kriechen“:
Lokalausgabe der Nordbayerischen Nachrichten, 05. Oktober 2020, Leitkommentar des Redaktionsleiters, Zitat:
… Erst kurz zuvor fand eine Studie der Cornell Universitiy heraus heraus: Trump ist der größte Verbreiter von „Fake News“ über Corona. Die Uni wertete 38 Millionen Artikel im englischsprachigen Raum aus. Ergebnis: 38 % der Falschinformationen sind auf Trump zurückzuführen. Und: Der Präsident spielte die Gefährlichkeit des Virus wissentlich herunter, das war das Ergebnis der Recherchen der Reporterlegende Bob Woodward … und es ist etwas dran an den Internet-Parolen, wonach alle drei Männer (Anmerkung: Trump, Jair Bolsonaro, Boris Johnson) zwar starke Sprüche klopfen , aber versagen im Kampf gegen das Virus, während Frauen an der Macht wie Angela Merkel … viel erfolgreicher sind.

Diese Aussage hat der Chefredakteur natürlich nicht selbst erfunden. Sie wurde von der AFP etwas abweichend verbreitet:
[4] AFP 1. Oktober 2020: Studie: Trump größter Antreiber von Corona-Falschinformationen
und erwartungsgemäß von vielen deutschen Medien kopiert und leicht abgeändert publiziert [3].

Wer liest, dass jemand weltweit 38 Millionen Artikel „auswertete“, weiß, dass das unmöglich ist. Eine solche Studie muss deshalb ziemlich wertlos sein und man vermutet sofort, dass sie nur erstellt wurde, um eine gewünschte Aussage zu erhalten.
Ob es in diesem Fall zutrifft, hat der Autor nachgesehen und an die Redaktion eine geharnischte Rückantwort verfasst.
Die Sichtung daraus könnte manche EIKE-Leser interessieren, deshalb diese anbei.

Die Studie

Studie: [2] The Cornell Alliance for Science,Department of Global Development, Cornell University, Ithaca, NY, Cision GlobalI insights, Ann Arbor MI, Sarah Evanega et al.: Coronavirus misinformation: quantifying sources and themes in the COVID-19‘ infodemic

Zuerst fällt auf, dass diese „Studie“ (inclusive Fundstellen 14 Seiten lang) gar nicht von der genannten Universität verfasst wurde. Ein NGO – hauptsächlich finanziert unter anderem von „Our primary source of support is a grant from the Bill & Melinda Gates Foundation“ – …
(Anmerkung: Die Erwähnung von „Bill Gates“ und „Bill & Melinda Gates Foundation“ gehört zu den erklärten „Misinformationen“ der Studie).

Bild 1 [2] (Auszug) Table 2: The 11most prevalent misinformation/conspiracy sub-topics in terms of frequency of appearance in traditional media coverage
… beauftragte sie bei einer Agentur für Medienanalysen. Der NGO selbst hat lediglich eine Kooperation mit der Universität New York Times, 30. Sept. 2020: Study Finds ‘Single Largest Driver’ of Coronavirus Misinformation: Trump
The Cornell Alliance for Science, which spearheaded the study, is a nonprofit devoted to using science to enhance food security and improve environmental sustainability. One of its aims is to promote science-based decision-making. Dr. Evanega and a Cornell colleague, Mark Lynas, partnered with media researchers at Cision, a company that performs media analysis, to conduct the study. Dr. Evanega said the study was being peer reviewed by an academic journal, but the process was lengthy and the authors withdrew it because they felt they had compelling public health information to share.

Analyseverfahren

Arbeitszeit ist teuer. Zum Glück hilft da „künstliche Intelligenz“. Wie sonst würde man es schaffen, 30 Millionen Publizierungen genau zu analysieren.
Und so wurden die Publizierungen per Suchfunktion nach „guten“ und „falschen“ Begriffen durchkämmt und die Anzahl der Funde gezählt. Soziologen – hier Medienanalysten – wissen dann ganz genau, was in den Publizierungen steht:
Studie: [2]: … This database was queried using an English-language search string for misinformation topics in the context of COVID-19.The search string included variations on common thematic keywords (“COVID-19”,“coronavirus”, “2019-nCoV”, etc.) and used Boolean operators such as AND,OR, NOT, and proximity terms to sift for relevant content ...

Studie: [2]: … There is obviously a distinction to be made between misinformation per se (defined as information that is likely to mislead the audience) and information that discusses misinformation topics or the phenomenon of the infodemic with the explicit objective of debunking or correcting factual inaccuracies. We explicitly isolate this fact-checking coverage within the broader misinformation sample by identifying common terms used to identify misinformation as false, such as “fact-check” and “false claim”, as well as the use of terms like “misinformation“ and „conspiracy theory“ which inherently imply that the narratives they reference are untrue.

In der Studie selbst stehen die folgenden Aussagen

Studie: [2] From January 1 to May 26, 2020, English-language traditional media outlets published over 1.1 million individual articles (total 1,116,952) mentioning COVID-19 misinformation. This represented just under 3% of the overall COVID-19 conversation (total 38,713,161 articles) during the same timeframe.

Bild 2 Tabelle: Screenshot der Zusammenfassung in der Studie [2]
Zusammenfassung

Gesichtet wurden weltweit38.713.161 englischsprachige Publikationen zu Covid-19.
Davon enthielten angeblich 1,1 Millionen (weniger als 3 %) Falschinformation zu Covid-19.

Von diesen 1,1 Mio. Publikationen mit „Falschinformation“ bezogen sich:
46,6 % allgemein auf „Missinformation“
37,9 % auf Publikationen, in denen neben anderen auch Trump (zu Covid-19) erwähnt wurde
10,3 % auf Publikationen, in denen (zu Covid-19) nur Trump vorkam

Folgerung

Sofern jemand der festen Überzeugung ist, dass alles, was Trump zu Covid-19 sagt(e), automatisch eine Falschinformation sei, wäre die Aussage der Studie:
Weltweit publizierten englischsprachige Medien zu Covid-19:
– zu über 97 % nur Wahres
– In Summe weniger als 3 % publizierten Unwahrheiten
– ca. 1,14 % (bzw. 37,9 % der 3 %) publizierten neben anderem auch die als Unwahrheiten deklarierten Aussagen von Trump
– und 0,3 % (bzw. 10,3 % der 3 %) publizierten nur „unwahre“ Aussagen von Trump

Es wurde demnach lediglich “herausgefunden“, dass 1,44 % (1,114 % + 0,3 %) aller englischsprachigen Medien weltweit – sofern sie zu Covid-19 publizierten -, auch (Covid-19) Äußerungen von Trump verbreiteten.

Zusätzlich wurde „herausgefunden“, dass 16,4 % der zu Covid-19 „Falschinformation“ publizierenden Medien dies „ohne journalistischen Faktencheck“ publizieren würden:
[3] Das Forscherteam der Universität Cornell fand heraus, dass nur in 16,4 Prozent der Fälle von verbreiteten Desinformationen ein journalistischer Faktencheck stattgefunden habe. Die Mehrheit der Falschbehauptungen sei somit ohne Hinterfragung oder Korrektur verbreitet worden. Die Medien spielen daher eine „übergroße Rolle“ bei der Verbreitung von Desinformation. „Durch unkritische Berichterstattung über Aussagen und Bemerkungen durch einflussreiche Persönlichkeiten, ohne diese notwendigerweise zu verifizieren oder die Korrektheit der Behauptungen zu prüfen, riskieren Medien ungewollt zur Verbreitung von Desinformation beizutragen“, heißt es in der Schlussfolgerung der Studie.

Nun sind 16,4 % der Fälle von „Desinformation“ immer noch 190.468 Publizierungen. Wie das Rechercheteam herausfand, dass genau diese (von den „gesichteten“ 38.713.161 Publizierungen) „ohne Faktencheck“ durchgeführt wurden, wird wohl für ewig ihr Geheimnis bleiben.

Wie sich das Studienergebnis auf dem Kommunikationsweg ins Gegenteil verdrehte

Aber solch eine „Studie“ wurde ja nicht grundlos beauftragt. Also muss eine dem Auftragswunsch entsprechende Auslegung her.

Im Summary der Studie steht:
We found that media mentions of US President Donald Trump within the context of COVID-19 misinformation made up by far the largest share of the infodemic.
Grobe Übersetzung: Wir fanden heraus, dass Medienerwähnungen von US-Präsident Donald Trump im Rahmen von COVID-19-Fehlinformationen den mit Abstand größten Anteil an der Information ausmachen.
Damit sagt die Zusammenfassung im Summary eindeutig, dass die Medienerwähnungen und nicht Trump selbst den Anteil ausmachen.

Lediglich bei der „37,9 %“ Kommentierung wird Trump als „wahrscheinlich größter Treiber“ von Missinformation bezeichnet.
… Trump mentions comprised 37.9% of the overall “infodemic.” • However, a substantial proportion of other topics was also driven by the president’s comments, so some overlap can be expected. This strengthens the conclusion that the President of the United States was likely the largest driver of the COVID-19 misinformation “infodemic.”

Grobe Übersetzung: dass der Präsident der Vereinigten Staaten wahrscheinlich der größte Treiber der „infodemischen“ COVID-19-Fehlinformation war …

In einer Kurzfassung der Studie auf der Homepage der Cornell Alliance for Science steht ebenfalls, dass die Ursache die Erwähnung (durch die Medien) von Trump ist:
CORONAVIRUS MISINFORMATION: Quantifying sources and themes in the COVID-19 ‘infodemic’
Key takeaways from the results It is apparent from the data that
mentions of President Trump within the context of COVID-19 misinformation comprise by far the largest single component of the “infodemic.
Grobe Übersetzung: Die Erwähnung von Präsident Trump im Zusammenhang mit der Fehlinformation von COVID-19 stellt bei weitem die größte Einzelkomponente der „Infodemie“ dar.

In den Medien wird daraus:
Beim DW eine Aussage, die sich ohne Hintergrundwissen zur Studie nicht interpretieren lässt:
[3] DW 02.10.2020: DESINFORMATION Wie Donald Trump zum größten Antreiber von Corona-Fake-News wurde
In vielen jedoch die falsch Darstellung, Trump würde die „Fake News“ verbreiten:
t-online 02.10.2020: Studie: Trump verbreitet die meisten Corona-„Fake News“
Der Redakteur setzte in seinem Leitkommentar noch ein i-Tüpfelchen dazu und dichtete: Trump ist der größte Verbreiter von „Fake News“ über Corona
Dass Trump die Aussagen verbreiten würde, ist eindeutig eine Falschaussage, da Umkehrung der Studienaussage, welche den (dummen) Medien die Schuld für deren Verbreitung gibt.

Die Studie fand lediglich heraus, dass Medien auch Aussagen von Trump publizieren

Die Studie stellt lediglich eine Banalität fest: Trump sagt oder twittert auch zu Covid-19, was man einem Regierungsverantwortlichen wohl kaum ankreiden kann. Das verbreiten einige Medien, weltweit allerdings verblüffend wenige, nämlich ca. 1,44 %.
In den Augen eines Chefredakteurs einer deutschen Zeitung, welche alle Aussagen der unfehlbaren Merkel postwendend ungeprüft publiziert (rein persönliche, durch nichts belegbare Meinung des Autors), ist das natürlich etwas ganz, ganz Schlimmes. Auf die Idee, dass die Studie zeigt, wie viel besser ausländische Medien sind, indem nur ein ganz geringer Anteil ungeprüft publiziert (falls die Studienanalyse zu diesem Punkt stimmen würde), kam er nicht.

Wenn eine Studie mit der genau gleichen Argumentation und „wissenschaftlichen Fundierung“ festlegt, dass Aussagen der unfehlbaren Frau Merkel zu Covid-19 ebenfalls bedenklich wären, käme nach dieser Methodik zwangsweise heraus, dass Frau Merkel „die Verbreiterin von 100 % der Fake News“ (in Deutschland) wäre, denn ihre Aussagen werden von unseren Medien ungeprüft zu fast 100 % publiziert.

Was fällt auf?

Genau nach dieser abstrusen Methodik sind auch alle „Konsensstudien“ zum Klimawandel ausgeführt:
[Link] EIKE 20.09.2020: Minister Altmaier zum Klimawandel: …
„Diese Erkenntnis ist gesichert, sie wird von der übergroßen Mehrheit von Wissenschaftlern und Verantwortlichen weltweit geteilt und kann mit rationalen Argumenten nicht bestritten werden“
Die „Konsensstudien“ sind demnach keine Ausrutscher, sondern diese Art der bewusst dem Ergebniswunsch angepassten Methodik ist inzwischen „Standard“.

Unsere unfehlbare Kanzlerin Merkel würde es demgegenüber richtig machen, trotz höherer Mortalität

Wenn Trump „niedergemacht“ wird, muss eine Medienperson natürlich den Gegenpol, unsere unfehlbare Kanzlerin, mit der Deutschland glücklicherweise gesegnet ist, hervorheben:
Leitkommentar der Zeitung: „ … während Frauen an der Macht wie Angela Merkel … viel erfolgreicher sind … “.

Auf einem Blog gibt es eine Gegenüberstellung der Corona-Maßnahmen von Trump und denen im deutschen Merkelland:
sciencefiles 3. Oktober 2020: Gottesurteil in den Tagesthemen – Gebührenprofiteurin verbreitet bizarren Naturkult

Hinweis: Die Covid Maßnahmen von Trump und Deutschland finden sich am Ende des Artikels.
Das Ergebnis beider Maßnahmen zeigt eine Grafik:

Bild 3 Letalitätsrate beim Coronavirus (COVID-19) in den am stärksten betroffenen Ländern(Stand: 1. Oktober 2020).Quelle: Johns Hopkins University

Bild 3 Letalitätsrate beim Coronavirus (COVID-19) in den am stärksten betroffenen Ländern(Stand: 1. Oktober 2020).Quelle: Johns Hopkins University

Sofern diese Grafik stimmt, ist Trump bezüglich der Covid-19-Bekämpfung erfolgreicher als unsere vom Redakteur so hochgelobte Kanzlerin, denn in seinem Land ist die Mortalität immerhin um ca. 12 % geringer und liegt immerhin knapp unter dem weltweiten Durchschnitt, während die von Deutschland darüber liegt

Diese Grafik zeigt exemplarisch das abgrundtiefe Niveau, auf dem das gängige Trump-Bashing ausgeführt wird.

Dazu eine ganz typische Sendung zum deutschen Corona-Desaster und Verhalten unserer Medien:
30. Januar 2020: Bayerischer Rundfunk kritisiert Corona-Paranoia – Video
BR-Moderator Quer: … Wer behauptet, das Coronavirus sei so gefährlich, dass Grenzen geschlossen, der Verkehr eingeschränkt und manche Berufe eingestellt werden müssen, sei ein rechter Verschwörungstheoretiker in Paranoiaproduktion mit Endzeitpsychose …

Dazu das aktuelle „Wissensniveau“ in unseren Fernsehanstalten:

Bild 4 Tweet

Quellen

[2] Studie: The Cornell Alliance for Science,Department of Global Development, Cornell University, Ithaca, NY, Cision GlobalI insights, Ann Arbor MI, Sarah Evanega et al.: Coronavirus misinformation: quantifying sources and themes in the COVID-19‘ infodemic

[3] DW 02.10.2020: DESINFORMATION Wie Donald Trump zum größten Antreiber von Corona-Fake-News wurde

[4] AFP 1. Oktober 2020: Studie: Trump größter Antreiber von Corona-Falschinformationen




Subtrahieren fossiler Treibstoffe + hinzufügen von Elektro-Fahrzeugen = Katastrophe!

Man erinnere sich, dass die Reaktionen der Versorgungsunternehmen auf die Vorschrift des Bundesstaates, wonach bis 2030 60% und bis 2045 100% des Stromes aus erneuerbaren Energien stammen sollen, kürzlich Millionen schwitzender Kalifornier während einer zermürbenden Hitzewelle im Stich gelassen haben.

Jetzt stelle man sich vor, dass mehrere Zehntausend Elektrofahrzeuge (EVs) hinzukommen, um die ohnehin schon schwindenden Vorräte an zuverlässiger Energie noch weiter zu verknappen. Es wird nicht erklärt, wie man all diese Stromfresser in windstillen Nächten wieder aufladen kann.

Um die Realität zu überprüfen, sollten wir zunächst einmal anerkennen, dass etwa 80 Prozent der gesamten US-Energie (immer gemessen in BTUs) aus fossilen Quellen stammt, weitere 8,6 Prozent stammen aus der Kernenergie. Von dieser Gesamtenergiemenge in den USA tragen Sonne und Wind zusammen derzeit kaum mehr als drei Prozent bei, wobei die Sonne weniger als 0,1 Prozent beiträgt.

Selbst die besten Windkraft- und Sonnenlichtsysteme produzieren im Jahresdurchschnitt nur in 25 bis 30 Prozent der Zeit oder noch weniger Energie. Im Vergleich dazu haben konventionelle Erdgasanlagen eine sehr hohe Verfügbarkeit im Bereich von 80%-95%, oft sogar darüber.

Wind- und Solarenergie-Intervalle erfordern eine gleiche Menge an „Spinning-Reserve“-Leistung, die in der Regel meine Erdgas-Gasturbinen liefern, die ineffizient wie ein Auto im Stop-and-Go-Verkehr auf und ab gedrosselt werden müssen, um die Strommenge im Netz an den aktuellen Verbrauch anzupassen.

Jegliche überschüssige Energie, die produziert wird, muss entweder abgeworfen oder für Zeiten gespeichert werden, in denen sie nützlich ist – wie zum Beispiel nachts, wenn eine große Anzahl von EV-Eigentümern gleichzeitig ihre großen stromfressenden Batterien wieder aufladen möchte.

Es gibt noch ein weiteres großes Problem bei der Herstellung dieser Batterien.

China kontrolliert etwa 70% des weltweiten, für Batterien benötigten Lithiumvorrats und 83% der Anoden zu deren Herstellung. Und ein Lithiumprojekt, das um die Genehmigung für den Abbau des Materials in einer Wüste Nevadas nachsucht, wird seit mehr als einem Jahrzehnt von Umweltgruppen wie dem Center for Biological Diversity daran gehindert.

Abgesehen von den begrenzten Kapazitäten und Unzuverlässigkeitsproblemen (und das sind große Probleme) – sollte diese „grüne Energie“ nicht trotzdem umweltfreundlich sein?

Sicherlich nicht, wenn man bedenkt, was in die Entwicklung dieser Systeme einfließt.

Wie mein Freund Mark Mills vom Manhattan Institute berichtete, wird für den Bau von Windturbinen und Solarpaneelen zur Stromerzeugung sowie von Batterien für Elektrofahrzeuge durchschnittlich mehr als die zehnfache Menge an Materialien benötigt, verglichen mit dem Bau gleichwertiger, mit Kohlenwasserstoffen arbeitende Systeme, um die gleiche Energiemenge zu liefern.

Man bedenke den massiven erforderlichen Materialbedarf, um eine einzelne 100-MW-Gasturbine von der Größe eines typischen Wohnhauses durch mindestens 20 Windturbinen zu ersetzen, von denen jede etwa so groß ist wie das Washington Monument und etwa 10 Quadratmeilen Land bedeckt.

Wind- und Solarenergie erfordern auch einen riesige Landverbrauch sowie ausgedehnte Übertragungsleitungen, um Strom von abgelegenen Standorten zu den Großstadtzentren mit hohem Strombedarf zu liefern. Diese Energietransfers über große Entfernungen führen auch noch zu erheblichen Übertragungsverlusten.

Die Windalternative würde etwa 30.000 Tonnen Eisenerz und 50.000 Tonnen Beton sowie 900 Tonnen nicht wiederverwertbarer Kunststoffe für die riesigen Rotorblätter verbrauchen.

Eine Solaranlage mit der gleichen Leistung – genug Strom, um etwa 75.000 Haushalte zu versorgen – würde noch einmal die Hälfte mehr Tonnage an Zement, Stahl und Glas benötigen.

Jetzt stelle man sich zusätzlich vor, ein Batteriespeichersystem im Versorgungsmaßstab für denselben 100-MW-Windpark, der mindestens 10.000 Tonnen Batterien der Tesla-Klasse umfasst, regelmäßig zu ersetzen.

Für ihre Herstellung sind jeweils mehr als 500.000 Pfund Material mit fossil betriebenen Geräten abzubauen, zu bewegen und zu verarbeiten. Das ist etwa 20 Mal mehr als die 25.000 Pfund Erdöl, die ein Verbrennungsmotor während der Lebensdauer eines Autos verbraucht.

Wenn man sich vorstellt, dass jede Meile, die ein Elektrofahrzeug fährt, etwa fünf Pfund Erde „verbraucht“, die durch fossil betriebene Geräte bewegt wird, während ein vergleichbares, mit Erdöl angetriebenes Fahrzeug nur etwa 0,2 Pfund Flüssigkeit pro Meile verbraucht, wenn es für den Transport eingesetzt wird und im Durchschnitt eine Lebensdauer von 1.000 Pfund hat, kann man die Größenordnung dieses Wahnsinns ermessen.0

Auch hier ist für den Vergleich mit Kohlenwasserstoffen das Energie-Äquivalent von etwa 100 Barrel Öl erforderlich, um eine Menge von Speicherbatterien herzustellen, die ein einziges Barrel Öl-äquivalenter Energie speichern kann. Anders ausgedrückt, es werden etwa 60 Pfund Batterien benötigt, um die Energie zu speichern, die derjenigen in einem Pfund Kohlenwasserstoff entspricht.

Mark Mills erinnert uns daran, dass nach den derzeitigen Plänen bis 2050 die Menge an verbrauchten, nicht wiederverwertbaren Sonnenkollektoren die Tonnage aller heutigen globalen Kunststoffabfälle verdoppeln wird, zusammen mit über 3 Millionen Tonnen pro Jahr an nicht wiederverwertbaren Kunststoffen aus ihre Lebensdauer überschritten habenden Rotorblättern von Windturbinen.

Bis 2030 werden mehr als 10 Millionen Tonnen Batterien pro Jahr, einschließlich der darin enthaltenen Seltenerdelemente wie Dysprosium, zu Deponiemüll werden.

Eine Studie der Weltbank aus dem Jahr 2017 kommt zu dem Ergebnis: „Technologien, von denen angenommen wird, dass sie den Wandel zu sauberer Energie bewirken … sind in ihrer Zusammensetzung tatsächlich wesentlich materialintensiver als die derzeitigen traditionellen, auf fossilen Brennstoffen basierenden Energieversorgungssysteme“.

Darüber hinaus wird das Verbot von Benzinfahrzeugen Kalifornien viel Geld kosten, das für Straßen und öffentliche Arbeiten benötigt wird, einschließlich des Hochgeschwindigkeitszuges des Bundesstaates ins Nichts. Der Bundesstaat kassiert derzeit jährlich etwa 8 Milliarden Dollar an Kraftstoffsteuern und 3 Milliarden Dollar an Einnahmen aus dem Handel.

Um bis zum Jahr 2035 zu 100% elektrisch zu fahren, wird massiv mehr Geld für Subventionen zur Bezahlung dieser Autos und ein enormes Fahrzeug-Ladungsnetz benötigt, um die nur 6,2% des Automarktes, der letztes Jahr durch EV-Verkäufe repräsentiert wurde, zu vergrößern.

Was schließlich Wind-, Solar- und Elektroautos betrifft, die entweder die „Kohlenstoff-Verschmutzung“ oder den Klimawandel beseitigen sollen, so darf man das nicht einen Augenblick lang glauben. Das einzige „Grüne“ an ihnen wird aus den Taschen der Steuerzahler-Subventionen und der gestiegenen Energiekosten der Verbraucher kommen.

This article originally appeared at Newsmax

Autor: CFACT Advisor Larry Bell heads the graduate program in space architecture at the University of Houston. He founded and directs the Sasakawa International Center for Space Architecture. He is also the author of „Climate of Corruption: Politics and Power Behind the Global Warming Hoax.“

Link: https://www.cfact.org/2020/10/04/subtracting-fossil-fuels-plus-adding-electric-cars-equals-disaster/

Übersetzt von Chris Frey EIKE




Aus dem Jahr 2014: „Uns bleiben 500 Tage, um Klima-Chaos zu vermeiden!“

In den 1960er- und 1970er-Jahren drangen Warnungen vor dem Ozonabbau, dem mörderischen sauren Regen, Dürreperioden mit der Folge vorzeitiger Ernte und sogar vor einer bevorstehenden Eiszeit in die damaligen Zeitungen ein – Drohungen, die absichtlich gemacht wurden, um die Schafe ängstlich und gefügig zu halten. Bis in die 1980er Jahre waren diese Warnungen dann verfeinert worden; sie wurden akribisch und böswillig zu der vielleicht größten Kontrollmaßnahme geformt, die jemals entwickelt wurde. Und in den späten 80er Jahren waren die Eliten bereit, sie auf die Massen loszulassen. Sie erkannten, dass die Schuldzuweisung an das Volk für jede drohende Katastrophe der Furcht zusätzliche ausnutzbare Facetten hinzufügte: Facetten der Schuld, des Machtkampfes und der Spaltung und der Besteuerung – der Grund der Kontrollmaßnahme lautete natürlich Catastrophic Anthropogenic Global Warming (CAGW).

Die Aussage von James Hansen von der NASA im Kongress im Jahr 1988 brachte den Stein ins Rollen oder kann zumindest als ursächlich angesehen werden, dass er die Politiker auf die „Maßgabe“ aufmerksam gemacht hat. Hansen verknüpfte den menschlichen CO2-Ausstoß mit steigenden globalen Temperaturen und projizierte drei „Erwärmungsszenarien“, die sich in die Zukunft bewegen (klicken Sie hier, um zu erfahren, wie gut er das gemacht hat – Spoiler: er hat nicht sehr gut abgeschnitten).

Link: https://electroverse.net/nasa-climate-prophet-james-hansen-said-the-arctic-would-be-free-of-summer-ice-by-2018/

Die UNO und ihre korrumpierten MSM-Schoßhündchen vergeudeten keine Zeit mit der Einführung von Project Fear. Sie folgten Hansens Aussage und begannen schnell, ihre eigenen wissenschaftlich haltlosen Weltuntergangsszenarien zu verbreiten. Eine AP-Schlagzeile aus dem Jahr 1989 lautete: „UN-Funktionäre: Steigende Meere könnten Nationen auslöschen.“ Der Artikel enthielt eine offizielle UN-Umweltwarnung, der zufolge ganze Nationen von der Landkarte verschwinden würden, wenn es der Welt nicht gelingt, die Erwärmung bis zum Jahr 2000 umzukehren – eine Vorhersage, die sich – sofern sie nicht unerklärlicherweise an mir vorbeiging – nie erfüllt hat.

Das Magazin Science hat uns gesagt, dass die Arktis 2009, 2013, 2015, 2016, 2018 und jetzt … 2050 … völlig frei von Sommereis sein wird …? wobei die gängigen Publikationen den wachsenden Haufen GESCHEITERTER Prophezeiungen nie in Frage stellen. Al Gore ist der König der Dummschwätzer, aber auch die Mehrheit der modernen Politiker hat die List akzeptiert – sie mussten es tun, um Stimmen zu erhalten – doch einige treiben es weiter als andere und unterwerfen ihr zukünftiges Selbst blindlings der Lächerlichkeit und dem erzwungenen Rückzug, wenn sich ihre Vorhersagen unweigerlich als falsch erweisen.

Bereits im Mai 2014 behauptete der französische Außenminister Laurent Fabius bei einem gemeinsamen Auftritt mit dem damaligen US-Außenminister John Kerry: „Wir haben 500 Tage, um ein Klimachaos zu vermeiden“. Fabius‘ lächerliche Äußerungen wurden während des frühen Entwurfs des Pariser Klimaabkommens gemacht, das 195 Unterzeichner hatte und schließlich im November 2016 in Kraft trat – rund 60 Tage NACH Ablauf der vom französischen Außenminister gesetzten Frist für die Katastrophe.

Aber Fabius ist sicher nicht allein. Die jüngste Geschichte ist übersät mit Beispielen für abgelaufene Weltuntergangs-Ultimaten. Es gibt lange Listen, die auf Blogeinträgen im Internet zusammengestellt werden; es gibt Kataloge, die Tausende und Abertausende von fehlgeschlagenen Klimavorhersagen von Politikern, Wissenschaftlern und Journalisten gleichermaßen dokumentieren, aber diese Realität wird von den gekauften und völlig korrumpierten MSM nie enthüllt. Die Wissenschaft ist im Grunde erledigt, und die Tatsache, dass jede katastrophale Klimaprognose der letzten 30+ Jahre falsch war, ist scheinbar völlig irrelevant.

Wir Menschen sind eben doch eine Schafherde.

Wir können ganz einfach von den Leithammeln in den Untergang geführt werden.

Die wenigen Gegner des Project Fear unter uns haben eine immer härtere Arbeit, weil moderne Wege der Revolte verschlossen werden. So genannte „FactChecker“ filtern die Sprache über das Internet: Sie und nur sie entscheiden, was wahr ist und was nicht, und haben so die vollständige Kontrolle über das Narrativ (zu allen Themen, von AGW über COVID bis hin zu BLM). Kein Wunder, dass die heutigen Protestierer zunehmend zu den altmodischen Methoden der Füße auf der Straße und der Megaphone zurückkehren. Vielleicht ist es an der Zeit, offline zu gehen und sich ihnen anzuschließen.

Link: https://electroverse.net/we-have-500-days-to-avoid-climate-chaos/

Übersetzt von Chris Frey EIKE




Wiederher­stellung einer wissen­schaft­lichen Debatte zum Thema Klima

Im Jahre 2017 drängte Dr. Steve Koonin, ein Physiker, der als Obamas Unterstaatssekretär für Wissenschaft im US-Energieministerium tätig war, in seinem Artikel A ‚Red Team‘ Exercise Would Strengthen Climate Science (etwa: Eine Aktivität des ,roten Teams‘ würde die Klimawissenschaft stärken) darauf, Debatten des roten Teams mit dem blauen Team für die Klimawissenschaft einzuberufen. „Die nationale Sicherheitsgemeinschaft leistete mit der Methodik des ,Roten Teams‘ Pionierarbeit, um Annahmen und Analysen zu testen, Risiken zu identifizieren und Unsicherheiten zu verringern – oder zumindest zu verstehen. Das Verfahren gilt heute als bewährte Praxis in Situationen mit hoher Konsequenz“.

Leider wurde die öffentliche klimawissenschaftliche Debatte als „Leugner“ versus „Alarmisten“ oder „ehrliche heilige Wissenschaftler“ versus „korrupte Betrüger“ degradiert. Die Medien posaunen übertriebene Krisenbehauptungen hinaus, während einige Wissenschaftler ihre Hypothesen mit der Behauptung, die „Wissenschaft sei settled“, irreführend zur alleinigen Wahrheit erheben. Aber die Wissenschaft ist ein Prozess und niemals settled. Alle Seiten sind sich jedoch einig, dass Kohlendioxid ein Treibhausgas ist und dass die Konzentrationen zugenommen haben. Alle Seiten sind sich einig, dass sich das Klima verändert. Diese Wissenschaft ist in der Tat settled. Aber die komplexe Klimadynamik wird nicht allein vom CO2 angetrieben, und viele Fragen sind noch ungeklärt. Wissenschaftler debattieren immer noch, ob das Klima eine höhere oder geringere Empfindlichkeit gegenüber dem steigenden CO2 hat. Die Beantwortung dieser Frage hängt davon ab, ob die Wissenschaft konkurrierende Beiträge von natürlicher Variabilität und Landschaftsveränderungen betrachtet. Und da steigender CO2-Gehalt und Wärme der Photosynthese von Pflanzen zugute kommen, diskutieren die Wissenschaftler die positiven Beiträge des steigenden CO2-Gehaltes.

Klimamodelle konnten die jüngste Erwärmung nicht reproduzieren, wenn nur der natürliche Klimawandel berücksichtigt wurde. Aber die Modelle könnten die jüngste Erwärmung seit den 1970er Jahren nach Zugabe von CO2 simulieren. Das war der einzige Beweis, der die Annahme unterstützte, dass die Zunahme von CO2 eine beobachtete Erwärmung verursachte. Es gibt jedoch einen Fehler in dieser Argumentation. Modelle, die sich nur auf die natürliche Klimadynamik beschränkten, konnten die jüngsten Veränderungen nicht erklären, einfach weil unser Verständnis noch unvollständig ist. So wurde zum Beispiel die Pazifische Dekadische Oszillation, eine Haupttriebkraft des natürlichen Klimawandels, erst 1997 erkannt, aber es hat sich gezeigt, dass sie für 100 Jahre des Klimawandels an den Küsten des nordöstlichen Pazifiks verantwortlich ist.

Zahlreiche von Fachkollegen begutachtete Forschungsarbeiten zeigen, dass Veränderungen in Landschaften die Erwärmung dämpfen oder verstärken. Regionale Modellstudien ergaben, dass Landschaftsveränderungen extreme Temperaturen ähnlich einer Verdoppelung der CO2-Konzentration erzeugen könnten. Städtische Wärmeinseln und Entwaldung verstärken unbestreitbar Temperaturänderungen und verändern das regionale Klima. Solche Landschaftseffekte erklären am besten, warum 38% der US-Wetterstationen Abkühlungstendenzen aufweisen und warum die beste Wissenschaft bzgl. Baumringe vermuten lässt, dass die Temperaturen nicht über den warmen Spitzenwert der 1930er und 1940er Jahre hinausgegangen sind. Die irreführende Verharmlosung solch wichtiger Landschaftsveränderungen in Klimamodellen führte zum Rücktritt von Klimawissenschaftlern vom IPCC.

Profil des Stadtwärme-Effektes von den Lawrence Berkeley Labs

Da der Klimawissenschaftler Tom Wigley nicht in der Lage war, die Erwärmungsspitze der 1940er Jahre zu modellieren, schlug er seinen Kollegen per E-Mail vor: „Es wäre gut, zumindest einen Teil der Erwärmungsspitze der 1940er Jahre zu entfernen“. In der Folge wurde der „40er Jahre Warm Blip“ aus vielen Datensätzen entfernt, was zu weit verbreitetem Misstrauen führte. Öffentliche Debatten zwischen dem roten und dem blauen Team, in denen solche Datenanpassungen untersucht wurden, könnten die Gründe für diese Anpassungen klären.

Im Jahr 2016 war der Klimawissenschaftler Michael Mann Mitverfasser einer Studie mit dem Titel [übersetzt] „Wissenschaft und Öffentlichkeit: Debatte, Verleugnung und Skepsis“, in dem er richtig argumentiert: „Wissenschaft ist Debatte“ und „Öffentliche Debatte und Skepsis sind wesentlich für eine funktionierende Demokratie“. Schizophrenerweise wandte sich Mann jedoch gegen Debatten im roten Team und im blauen Team und bezeichnete sie als „Desinformationskampagne, die darauf abzielt, die Öffentlichkeit und die politischen Entscheidungsträger zu verwirren“.

Das Misstrauen gegenüber Michael Mann und seinen Kollegen in der Denkschule der „hohen CO2-Sensitivität und des katastrophalen Klimawandels“ wuchs, als sie sich dafür einsetzten, Skeptiker als „Leugner“ oder „Abweichler“ zu verunglimpfen, die nicht in peer-reviewed Journalen veröffentlichen dürfen. Gleichzeitig arbeitete Mann aber auch daran, skeptische Veröffentlichungen zu unterdrücken. Zwei Harvard-Astrophysiker, Dr. Soon und Dr. Baliunas, publizierten eine von Fachkollegen begutachtete Arbeit, in der sie 240 wissenschaftliche Arbeiten zusammenfassten, und zeigten, dass die Temperaturen in jüngster Zeit denen der mittelalterlichen Wärmeperiode ähnlich seien. Da er seine Hypothesen durch solche Forschungen bedroht sah, wetterte Mann: „Der Peer-Review-Prozess bei Climate Research [der Zeitschrift] ist von einigen Skeptikern übernommen worden“.

Beim Versuch, skeptische wissenschaftliche Veröffentlichungen zu unterdrücken, schrieb er per E-Mail an seine Kollegen: „Ich denke, wir müssen aufhören, die Klimaforschung als legitime, von Fachkollegen begutachtete Wissenschaft zu betrachten. Vielleicht sollten wir unsere Kollegen in der Klimaforschungsgemeinschaft ermutigen, ihre Arbeiten nicht mehr bei diesen Zeitschriften einzureichen oder Beiträge darin zu zitieren“. Sie diskutierten dann, wie man alle Redakteure, die skeptischen Argumenten aufgeschlossen gegenüber stehen, drangsalieren könnte, um weitere skeptische Veröffentlichungen zu verhindern.

Es ist unbestreitbar, dass einige Klimawissenschaftler ehrliche, skeptische Wissenschaftler klammheimlich an den Rand gedrängt haben. Vertrauen Sie der Wissenschaft, aber nur, wenn sie mit ihren Hypothesen übereinstimmt. Sie haben argumentiert, man solle nicht mit Skeptikern debattieren, weil „eine Debatte den alternativen Ansichten tatsächlich Glaubwürdigkeit verleiht“. Aber der wissenschaftliche Prozess verlangt eine gründliche Prüfung alternativer Erklärungen. Es ist die rigorose Prüfung durch Kontrahenten, die Wissenschaft vertrauenswürdig macht, aber ein solch voreingenommenes Gatekeeping untergräbt das Vertrauen der Öffentlichkeit. Es bleibt zu hoffen, dass die Entwicklung transparenter öffentlicher Debatten zwischen dem roten und dem blauen Team unser Vertrauen wiederherstellen und die öffentliche Politik genauer lenken kann.

Jim Steele is Director emeritus of San Francisco State’s Sierra Nevada Field Campus and authored Landscapes and Cycles: An Environmentalist’s Journey to Climate Skepticism

Veröffentlicht in Pacifica Tribune am 30. September 2020

Link: https://wattsupwiththat.com/2020/10/03/restoring-scientific-debate-on-climate/

Übersetzt von Chris Frey EIKE




Behörden in Pennsylvanien weisen Aktionen des Gouverneurs bzgl. Klimawandel zurück

Der Senat des Bundesstaates verabschiedete am Mittwoch ein Gesetz, das es Gouverneur Tom Wolf (Demokraten) verbietet, sich der regionalen Treibhausgas-Initiative anzuschließen und Kohlenstoffsteuern ohne die Zustimmung der Generalversammlung von Pennsylvania einzuführen.

Ein Senatsausschuss des Staates stimmte letzte Woche dafür, zwei Gesetzesvorlagen in das Plenum zu bringen, die die Autorität der Generalversammlung über die Steuerpolitik bekräftigen und gleichzeitig bekräftigen, dass Wolfs Umweltschutzministerium nicht einseitig handeln kann, „um Kohlendioxidemissionen zu verringern, zu kontrollieren oder zu begrenzen, indem es eine Einnahmen erzeugende Steuer oder Gebühr auf Kohlendioxidemissionen erhebt“.

Der Senat verabschiedete die Version des Gesetzes am Mittwoch mit 33-17 Stimmen, eine Stimme zu wenig für eine vetosichere Mehrheit.

„Ich glaube nicht, dass der Gouverneur die rechtliche Befugnis hat, so zu verfahren, wie er ist“, sagte Senator Joe Pittman, ein den 41. Distrikt vertretender Republikaner, der sich über die Bezirke Armstrong, Butler, Indiana und Westmoreland erstreckt.

„Letztendlich sind wir kein Anhängsel des Gouverneursamtes, sondern ein gleichberechtigter Zweig der Regierung“, sagte Pittman in einem Telefoninterview mit The Daily Signal, „und wenn Sie dem Volk eine jährliche Stromsteuer von 300 Millionen Dollar auferlegen wollen, dann müssen die gewählten Volksvertreter in diesem Prozess eine Stimme haben!“

Die Zahl von 300 Millionen Dollar, die in einem Dokument der Umweltschutzbehörde des Bundesstaates genannt worden war, stammt aus Schätzungen der Kosten für die Teilnahme Pennsylvanias an der Initiative im Jahr 2022.

Das Haus verabschiedete den HB 2025, den sieben von Wolfs Mit-Demokraten mitgetragen haben, im Juli mit 130-71 Stimmen.

Der Senatsausschuss für Umweltressourcen und Energie stimmt für diesen Gesetzentwurf [des Widerstands gegen Gouverneur Wolf], und der begleitende Gesetzentwurf SB 950 erhielt ebenfalls parteiübergreifend Unterstützung. Senator Andy Dinniman von Pennsylvanien, ein Demokrat aus Chester County, der den 19. Distrikt vertritt, schloss sich mit 8-3 Stimmen den Republikanern an, um die beiden den Gouverneur herausfordernden Gesetzesvorlagen voranzutreiben.

Nachdem der Senat den Gesetzentwurf im Repräsentantenhaus eingebracht hatte, sagte ein Mitarbeiter des Senatsausschusses gegenüber The Daily Signal, Wolf werde 10 Tage Zeit haben, um zu entscheiden, ob er unterschreibt oder sein Veto einlegt.

„Die Senatsvorlage 950 muss noch vom Bewilligungsausschuss des Senats geprüft werden“, sagte der Mitarbeiter. „Diese Gesetzesvorlage könnte bereits in der Woche vom 21. September vom gesamten Senat geprüft werden“.

Druck aufrecht erhalten“

Pittman, Hauptsponsor von SB 950 und stellvertretender Vorsitzender des Umwelt- und Energieausschusses, sagte, er sei ermutigt durch die Unterstützung, welche die Version seines Gesetzentwurfs im Repräsentantenhaus gefunden habe, und er sehe eine „ähnliche Dynamik“ im Senat am Werk:

Bei der Abstimmung im Repräsentantenhaus gab es einen sehr großen Anteil des demokratischen Ausschusses des Repräsentantenhauses, der die Besorgnis der arbeitenden Frauen und Männer und vieler Industriearbeiter über die möglichen Auswirkungen einer Kohlenstoffsteuer auf ihren Lebensunterhalt voll anerkennt. Ich hoffe, dass es im Senat zu einem ähnlichen Ergebnis kommen wird. Wir müssen dies weiter vorantreiben, damit wir den Gouverneur zu echten Gesprächen darüber bewegen können, wie die Gemeinden betroffen und schwerwiegend beeinträchtigt werden, wenn sie dieser Vereinbarung beitreten.

Die Regionale Treibhausgas-Initiative RGGI ist ein Zusammenschluss von Neuengland-Staaten und mittelatlantischen Staaten, zu denen derzeit Connecticut, Delaware, Maine, Maryland, Massachusetts, New Hampshire, New York, Rhode Island, Vermont und New Jersey gehören. Der Beitritt Virginias ist für 2021 geplant.

Wolf erließ im Oktober 2019 eine Verfügung, mit der das Umweltministerium des Bundesstaates angewiesen wurde, mit der Formulierung von Vorschriften zu beginnen, die es Pennsylvania ermöglichen würden, dem Klimaschutzabkommen beizutreten.

Ursprünglich hatte der Gouverneur eine Frist bis zum 31. Juli gesetzt, bis zu der die Abteilung dem Environmental Quality Board des Bundesstaates einen Regulierungsplan vorlegen musste, aber er verlängerte diese Frist bis zum 15. September.

Wenn der Senat des Bundesstaates dem Haus bei der Verabschiedung von Gesetzen folgt, die es der Wolf-Regierung verbieten, Anti-Emissionsvorschriften ohne die Zustimmung der Generalversammlung umzusetzen, könnte es zu einem konstitutionellen Showdown kommen.

Wolf sollte den Rat seiner eigenen beratenden Ausschüsse beherzigen, die davon abrieten, das Pennsylvania dem Klimaabkommen beitritt, sagte Senator Gene Yaw, ein Republikaner, der den 23. Bezirk vertritt (zu dem die Bezirke Bradford, Lycoming, Sullivan, Susquehanna und Union gehören), in einem Interview.

Drei Gremien, die die Umweltagentur beraten, haben gegen Wolfs Vorschlag, RGGI beizutreten, gestimmt: das Small Business Compliance Advisory Committee, der Citizens Advisory Council und das Air Quality Technical Advisory Committee. Zu den Gremien gehören einige Mitglieder, die vom Gouverneur und anderen ernannt werden.

„Wozu gibt es beratende Ausschüsse, wenn man ihnen keine Aufmerksamkeit schenken will?“ sagte Yaw. „Sie hatten drei Treffer und sollten eigentlich angehört werden*, aber der Gouverneur macht weiter, obwohl er keine Unterstützung von seinen eigenen Leuten im Ausschuss bekommen kann. Diese wurden aufgrund ihres Fachwissens in bestimmten Bereichen ausgewählt und weil sie einer vernünftigen, rationalen Herangehensweise an bestimmte Fragen folgen würden, und dem haben sie auch Rechnung getragen.

[*Original: „ They’ve had three strikes and they should be out“. Ein Vergleich mit den Regeln im Baseball, die zu erläutern hier zu weit führen würde. Anm. d. Übers.]

Wir sollten zu Rate gezogen werden!“

Als Vorsitzender des Senatsausschusses für Umweltressourcen und Energie hielt Yaw zwei Anhörungen ab, bei denen die potentielle Auswirkung von RGGI auf Pennsylvania untersucht wurde, wobei Vertreter der Industrie, Umweltgruppen und Beamte der Verwaltung von Gouverneur Wolf angehört worden sind.

Yaw sagte gegenüber The Daily Signal, dass seine Besorgnis über die von Wolf vorgeschlagenen Regelungen „noch über die Fragen hinausgehen“, die er und andere Gesetzgeber ob des Umstandes aufgeworfen hatten, dass der Gouverneur seine Befugnisse zu überschreiten scheint.

Aus politischer Sicht, so Yaw, sei er nicht davon überzeugt, dass RGGI greifbare Vorteile für die Umwelt bringen würde, aber er erwarte, dass die daraus resultierenden Vorschriften die Energiekosten erhöhen würden:

Ich denke, was der Gouverneur tut, ist eine sehr engstirnige, kurzsichtige Sichtweise der Umweltbelange, die es da draußen gibt. Ich habe die unmittelbare Sorge, was das mit den Strompreisen in Pennsylvania machen wird, und diese Strompreise werden sich auf die Gesundheit, das Wohlergehen, die Arbeitsplätze und alles andere auswirken. Dies sind politische Entscheidungen, die über eine einzelne Person hinausgehen, und ich denke, dass die Legislative hieran beteiligt werden muss und dass wir konsultiert werden sollten“.

Der Schlüssel zu RGGI ist ein Budgethandelsprogramm für Kohlendioxid, das sowohl die CO2-Emissionen von Elektrizitätskraftwerken begrenzt als auch „Zertifikate“ für die Emissionen ausgibt.

Mit anderen Worten: RGGI ermächtigt Regierungsbeamte zur Durchführung von „Cap and Trade“-Maßnahmen, bei denen die Regulierungsbehörden eine Obergrenze oder „Deckelung“ für die Kohlendioxidmenge in Kraftwerken festlegen. Die Regulierer stellen auch „Zertifikate“ innerhalb zwischenstaatlicher Auktionen aus, die zwischen Unternehmen, die der Kohlendioxid-Obergrenze unterliegen, hin und her gehandelt werden können, so dass einige eine Obergrenze überschreiten dürfen, solange andere darunter bleiben.

Wolf hat argumentiert, dass Pennsylvania Anti-Kohlenstoff-Regelungen einführen müsse, um das zu bekämpfen, was er als „globale Klimakrise“ bezeichnet, und dass dies in Partnerschaft mit anderen Staaten geschehen sollte.

„Selbst wenn wir weiterhin daran arbeiten, die Ausbreitung von COVID-19 einzudämmen, können wir unsere Verantwortung und unsere Bemühungen zur Bekämpfung des Klimawandels nicht vernachlässigen“, sagte Wolf in einer Presseerklärung vom 22. Juni.

Portfolio diverser Energiequellen“

Die Website des Umweltministeriums des Bundesstaates, die dem RGGI gewidmet ist, hebt die Vorteile für Umwelt, Gesundheit und Wirtschaft hervor, die die Wolf-Administration für die Bürger von Pennsylvanien erwartet, wenn der Bundesstaat dem Klimaabkommen beitritt.

Doch bevor er alternative Energieformen vorantreibt, sagte Yaw, würde er es begrüßen, wenn die politischen Entscheidungsträger den ökologischen Fußabdruck so genannter „sauberer Energiequellen“ wie Wind und Sonne genauer unter die Lupe nähmen und auch prüfen würden, was in den Bau von Kernkraftwerken fließt.

Ökologische und wirtschaftliche Vorteile ergeben sich auch aus den riesigen Erdgaslieferungen Pennsylvanias, sagte Yaw:

Ich glaube, wir sollten ein vielfältiges Energieportfolio haben. Im Moment sind wir ein Energieexporteur und wir haben all dieses neue Erdgas, und das war enorm vorteilhaft. Ich habe auch Zahlen gesehen, die besagen, dass die Treibhausgasemissionen in ganz Pennsylvania in den letzten 15 Jahren um etwa 30% gesunken sind. Das ist eine Menge, und das kann darauf zurückgeführt werden, dass ein größerer Teil unserer Elektrizität durch Erdgas erzeugt wird“.

Die U.S. Energy Information Administration EIA berichtet, dass Pennsylvania bei der Erdöl- und Erdgasförderung nach Texas an zweiter Stelle steht. In einem Artikel in Forbes vor vier Jahren wurde ausführlich beschrieben, wie der Staat durch Erdgas den Kohlendioxidausstoß um 30% senken konnte.

„Meiner Meinung nach betrachtet RGGI viel zu oberflächlich, wie hoch die tatsächlichen Energiekosten sind“, sagte Yaw. „Nehmen wir nur das Beispiel Sonnenkollektoren. Für die Herstellung von Sonnenkollektoren werden Mineralien seltener Erden benötigt, und wir haben nicht genug dieser seltenen Erden in den USA.

Wir werden sie also importieren müssen, und wie werden diese Mineralien produziert? Nun, sie werden durch Bergbau gewonnen. In der Republik Kongo, wo Kobalt abgebaut wird, werden dafür kleine Kinder eingesetzt. Ich glaube nicht, dass wir in Pennsylvania dafür bekannt sein wollen, dass wir Kinder für diese Arbeit einsetzen“.

Yaw sprach auch die potenziellen Umweltschäden durch Sonnen- und Windenergie an.

„Wir müssen einen Weg finden, Sonnenkollektoren am Ende ihrer Nutzungsdauer zu recyceln oder zu entsorgen, und dasselbe sollte auch für Windmühlen gelten“, sagte er. „Wir müssen uns fragen, wie hoch die tatsächlichen Energiekosten sind und was bedeutet es, wenn man sagt, dies sei saubere Energie“.

Ein Vorteil“

RGGI gilt typischerweise für mit fossilen Brennstoffen befeuerte Stromgeneratoren mit einer Leistung von 25 Megawatt oder mehr. Sollte Pennsylvania dem Abkommen beitreten, wären alle fünf verbleibenden Kohlekraftwerke des Bundesstaates in Keystone, Conemaugh, Homer City, Cheswick und Montour sowie alle Erdgaskraftwerke betroffen.

Da Pennsylvania sich an die Regeln und Bestimmungen von RGGI anpassen müsse, so Yaw, habe er Angst, dass der Staat seine Stellung als Energielieferant und -exporteur verlieren könnte.

„Wir sind ein Stromerzeuger“, sagte er. „Die anderen Staaten [in RGGI] erzeugen keinen Strom, sondern sie importieren ihn nur, und sie werden uns sagen, dass wir als Erzeuger ihre Emissionsstandards einhalten müssen. Das bedeutet, dass Pennsylvania Schaden nehmen wird.“

Pittman, der die Gesetzesvorlage des Senats unterstützte, sagte, er habe ähnliche Bedenken, dass die RGGI die Import-Export-Bilanz beeinflussen würde. Pennsylvania agiere nicht in einer „Blase“, sagte er gegenüber The Daily Signal, und die Aktionen anderer Staaten müssten berücksichtigt werden.

„Wir sind Teil eines Mehrstaaten-Stromnetzes und exportieren derzeit Strom in andere Staaten“, sagte er und fügte hinzu:

Wenn wir uns dafür entscheiden, voranzuschreiten und unsere Stromerzeugung einzustellen, werden wir diese Produktion im Wesentlichen auf andere Staaten verlagern, und diese anderen Staaten werden bei der Erzeugung unseres Stroms Kohlenstoff freisetzen. Für mich geht es nicht darum, die Produktion in andere Staaten verlagern zu müssen, sondern den Marktkräften zu erlauben, weiterhin das zu tun, was sie getan haben.

Im Moment haben wir ein sehr vielfältiges Stromnetz, das in der Lage ist, Schwankungen und Rohstoffpreise auszugleichen und wirklich alle Sektoren so wettbewerbsfähig wie möglich zu halten. Und ich denke, das ist ein Vorteil, den wir nicht aufgeben sollten, insbesondere wenn man die Reduzierung der Kohlendioxidemissionen betrachtet. Wir haben allein in den letzten 10 oder 15 Jahren erhebliche Fortschritte gemacht, und zwar ohne die starke Hand der Regierung. Es ist durch die Marktkräfte geschehen“.

Kevin Mooney ist ein investigativer Reporter für The Daily Signal.

Dieser Artikel erschien erstmals in The Daily Signal.

Link: https://heartlanddailynews.com/2020/09/pennsylvania-lawmakers-resist-governors-executive-actions-on-climate-change/

Übersetzt von Chris Frey EIKE