1

Unsichtbare Katastrophen und Untergangs-Prophezeiungen

Patrick Moore, einer der Gründer von Greenpeace, verließ die Organisation, als sie aufhörte, sich um die Umwelt zu kümmern und nur noch eine weitere profitorientierte, hart-linke Frontgruppe wurde – in seinen Worten „ein Schläger, der mit Junk-Wissenschaft hausieren geht“. Jetzt hat er das beste Buch über den Klimawandel geschrieben, das ich gelesen habe – und ich habe viele gelesen.

Der Titel „Fake invisible catastrophes and threats of doom“ [siehe oben] ist holprig. Aber das Buch selbst ist in Patricks charakteristischem, sanften, leichtfüßigen Stil geschrieben, so dass der nicht-wissenschaftliche Leser es leicht verstehen kann. Das Buch ist bereits vor der Veröffentlichung auf Amazon erhältlich, und Patrick bekommt schon jetzt begeisterte Kritiken von Lesern. Hier ist eine:

Ich habe gerade eine Kindle-Version gekauft. Ich kann es nicht glauben. Ich bin schon im 3. Kapitel. Es klärt selbst für Nicht-Wissenschaftler wie mich in einem so feinen Detail auf. Ich habe meinen Tennispartner angerufen und das Spiel abgesagt. Ich werde mit dem Buch sitzen, bis es fertig ist, und dann werde ich es noch einmal lesen.“

Die zentrale These desselben ist Folgende:

Vor einiger Zeit dämmerte mir, dass die große Mehrheit der Schauergeschichten über den gegenwärtigen und zukünftigen Zustand des Planeten und der Menschheit als Ganzes auf Themen basieren, die entweder unsichtbar, extrem weit entfernt oder beides sind. Daher hat die große Mehrheit der Menschen keine Möglichkeit, den Wahrheitsgehalt dieser Behauptungen, die diese angeblichen Katastrophen und verheerenden Bedrohungen vorhersagen, selbst zu beobachten und zu überprüfen. Stattdessen müssen sie sich auf die Aktivisten, die Medien, die Politiker und die Wissenschaftler verlassen – die allesamt ein sehr großes finanzielles und/oder politisches Interesse an dem Thema haben – um ihnen die Wahrheit zu sagen. Dies lädt geradezu dazu ein, einfach Narrative zu erfinden, wie zum Beispiel die Behauptung, dass „CO2-Emissionen aus der Verbrennung fossiler Brennstoffe einen Klimanotstand verursachen.“

Niemand kann tatsächlich sehen oder in irgendeiner Weise spüren, was CO2 tatsächlich tun könnte, denn es ist unsichtbar, geruchlos, geschmacklos, geräuschlos und kann nicht ertastet werden. Daher ist es schwierig, solche Behauptungen zu widerlegen, weil es nichts gibt, worauf man zeigen und die Falschheit dieser Behauptungen greifbar machen könnte. Man kann nicht einfach auf sichtbares CO2 zeigen und sagen: „Schaut mal, was für schreckliche Dinge das CO2 dort anrichtet.“ CO2 als schädliche, weltvernichtende Emission ist also ein nahezu perfektes Thema, um eine Weltuntergangsgeschichte zu erfinden und zu propagieren, und diese Tatsache ist denjenigen nicht entgangen, die mit unbelegten Behauptungen hausieren gehen. CO2 ist zum Sündenbock für eine ganzen Katalog negativer Effekte geworden, deren Aufzeichnung und tabellarische Auflistung 118 Bücher erfordern würde. Tatsächlich listet die Website www.goodreads.com 118 Bücher zum Thema Klimawandel, und das beschränkt sich auf Bücher aus dem angelsächsischen Sprachraum.

Wenn man diese „Narrative“ über unsichtbare und weit entlegene Umstände studiert, kommt man nicht umhin zu bemerken, dass sich die Verfechter oft dazu herablassen, sich lächerlich zu machen und zu beschämen und auch keine Bereitschaft zeigen, die Behauptungen in einer zivilisierten Weise zu diskutieren. Es ist praktisch unmöglich, sich auf eine Debatte einzulassen, da sie diejenigen, die ihr Narrativ in Frage stellen, gewöhnlich als Skeptiker, Lügner, Leugner oder als unter einer Decke mit „Big Oil“ steckend abtun. Und falls der angebliche Skeptiker eine Anstellung hat, werden diese Erzähler heimtückisch daran arbeiten, diesen von seinem Lebensunterhalt oder seiner Position entfernen zu lassen. Zusammenfassend lässt sich sagen, dass diese Befürworter globaler Umweltkatastrophen definitiv ein skurriler und unehrlicher Haufen sind. Ein gesunder Skeptizismus ist das Herzstück wissenschaftlicher Forschung, und er hat eine wesentliche Rolle bei der Ermittlung der faktischen, wissenschaftlichen Wahrheit gespielt. Es ist die Pflicht der Wissenschaftler, allen neuen Behauptungen gegenüber skeptisch zu sein, besonders wenn es sich um Vorhersagen von Katastrophen handelt, die noch nicht eingetreten sind.

[Hervorhebung vom Übersetzer]

Fake Invisible Catastrophes spricht in einem einzelnen Absatz zahlreiche dieser Pseudo-Katastrophen an: „Afrikas älteste Affenbrotbäume sterben in einem noch nie dagewesenen Tempo, und der Klimawandel könnte daran schuld sein“ [USA Today], „93% des Great Barrier Reefs sind praktisch tot“ [Huffpost], „Das Great Barrier Reef ist jetzt im Endstadium“ [National Geographic], Eisbären in der Arktis, eine Million Arten, die angeblich vom Aussterben bedroht sind, Müll im Pazifik, gentechnisch veränderte Lebensmittel, Angst vor atomarer Strahlung, Waldbrände, Massensterben von Walrossen und die „Versauerung“ der Ozeane – all das bezeichnegt Patrick als „eine komplette Erfindung“.

Die harte Wissenschaft beschränkt sich auf ein einziges, massives Kapitel, Klima der Angst und der Schuld, das Patrick an dritter Stelle im Buch platziert hat, damit die Leser nicht gleich zu Beginn davon abgeschreckt werden. Dennoch ist es ein klares, überzeugendes Kapitel, das sich mit den zahlreichen wissenschaftlichen Fiktionen beschäftigt, mit denen die Profiteure des Untergangs hausieren gehen. Das Kapitel listet einige der tausenden von angeblichen Schäden durch unsere Emissionssünden auf: Höhere Temperaturen, niedrigere Temperaturen, mehr Schnee, weniger Schnee, mehr Dürre, mehr Überschwemmungen, höherer Meeresspiegel, weniger Gletscher, kein Eis am Nordpol, massenhaftes Artensterben, mehr Stürme, stärkere Stürme, brennende Wälder, sterbende Korallenriffe, verschwindende Fische, tödliche Hitzewellen, dünnere Schweine, fettere Pferde, Missernten, Nahrungsmittelknappheit, saure Ozeane, Milliarden von Klimawandel-Flüchtlingen, mehr Krebs, mehr Herzkrankheiten, mehr Lungenkrankheiten, mehr Geisteskrankheiten, weniger französische Weine.

Patrick stellt unverblümt fest: „Tatsache ist, dass es keine stichhaltigen Beweise dafür gibt, dass irgendetwas von diesen Dingen durch vom Menschen verursachte CO2-Emissionen ausgelöst wurde oder wird. Es sind alles Mutmaßungen, die auf der Hypothese beruhen, dass Kohlendioxid die Temperatur steuert, was selbst nie als Tatsache festgestellt wurde. Noch wichtiger ist, dass die meisten dieser Behauptungen Vorhersagen über Dinge sind, die bis heute nicht eingetreten sind und vielleicht nie eintreten werden.“

Das Wissenschaftskapitel weist darauf hin, dass Wissenschaft nicht durch Konsens betrieben wird („kein gültiger wissenschaftlicher Begriff, sondern ein sozialer und politischer Begriff“), und dass viele der größten Wissenschaftler der Welt – Galileo, Mendel, Darwin und Einstein – den zuvor bestehenden Konsens umstürzten.

Einer von Patricks wissenschaftlichen Lieblingspunkten kommt im Wissenschaftskapitel gut zur Geltung: Der große Rückgang des CO2 – warum ist er passiert? „Beginnend vor etwa 150 Millionen Jahren ist Kohlendioxid kontinuierlich auf den niedrigsten bekannten Wert in der Geschichte des Lebens auf der Erde gesunken. Während des letzten glazialen Maximums, vor 20.000 Jahren, fiel der CO2-Gehalt auf etwa 180 ppm, nur 30 ppm über dem Niveau, bei dem Pflanzen beginnen, an CO2-Hunger zu sterben.“ Wären wir nicht gewesen, wäre innerhalb weniger Millionen Jahre genug CO2 aus der Atmosphäre verschwunden, um die meisten Pflanzen und Bäume verhungern zu lassen.

[Hervorhebung vom Übersetzer]

Und hier wird gezeigt, wie die Temperatur der Tiefsee seit etwa 50 Millionen Jahren sinkt:

Sogar Homer nickt. Die folgende Grafik der Temperaturen in Mittelengland im Vergleich zu den globalen CO2-Emissionen in Millionen Tonnen verwendet einen statistischen Trickbetrug der normalerweise von den Klimafanatikern begangen wird:

Die Grafik scheint zu zeigen, dass sich erstere kaum verändert haben, während letztere in die Höhe geschossen sind. Die Wahrheit ist, dass die y-Achse des CO2-Diagramms gestreckt wurde, während die des Temperaturdiagramms gestaucht wurde. Machen wir diese Manipulationen doch einmal rückgängig:

Der Trend beträgt etwas mehr als 1 Grad in 360 Jahren, oder weniger als ein Drittel Grad pro Jahrhundert. Aber fast drei Fünftel dieser Erwärmung fand in den 30 Jahren seit 1990 statt, seither hat sich unsere feuchte Insel [UK] mit einer Rate erwärmt, die 2 Grad pro Jahrhundert entspricht:

Abgesehen von ein paar Kleinigkeiten wie diesem, ist Patricks Buch eine erstklassige Lektüre. Selbst ich, der ich mich seit 15 Jahren für das Klima interessiere, fand darin vieles, was ich nicht wusste. Besonders wertvoll wird das Buch für diejenigen sein, die sich bisher damit begnügt haben, mit der Parteilinie mitzuschwimmen. Für sie wird das Buch eine Offenbarung sein: Die Entheiligung von Attenborough ist besonders befriedigend.

Heutzutage werden die Bestsellerlisten stark von den Verkäufen vor der Veröffentlichung beeinflusst. Falls Sie also jetzt bestellen, sind Sie für die Marketingkampagne von echtem Wert. Und Patrick, der mehr Schläge einstecken musste als die meisten von uns, weil er es wagte, den Profiteuren des Untergangs Fragen zu stellen, verdient unsere volle Unterstützung.

Link: https://wattsupwiththat.com/2021/01/20/fake-invisible-catastrophes-and-threats-of-doom/

Übersetzt von Chris Frey EIKE

 




Rekordkälte 2021 erinnert uns daran: Vorsicht bei Klima-Prophe­zeiungen und Energie-Prioritäten!

Ist damit die globale Erwärmung widerlegt? Sicherlich nicht! Allerdings werfen die extremen Kälteereignisse Fragen hinsichtlich der Medienpropaganda auf, der zufolge der Klimawandel mildere Winter und einen Anstieg der Temperaturen auf gefährliche Werte verursacht.

Der beunruhigendste Aspekt ist, dass diese extremen Kälteereignisse eine Erinnerung daran sind, dass wir in großer Gefahr sein könnten, falls unsere Regierungen weiterhin eine Klimapolitik verfolgen, die auf fehlerhaften Prognosen und unzuverlässigen erneuerbaren Energien basiert – und zwar aus folgenden Gründen:

Der kalte Winter 2020–2021

Mein Besuch in Delhi im Dezember des vorigen Jahres war ziemlich denkwürdig. Die Stadt befand sich in einer intensiven Kälteperiode. Die Tiefsttemperaturen der Monate Oktober, November und Dezember brachen viele Rekorde.

Mit nur 2 Grad Celsius erlebte Indiens Hauptstadt am 14. Januar einen der kältesten Wintermorgen. Srinagar in Jammu und Kaschmir verzeichnete einen Tiefstwert von minus 8,4 Grad Celsius, das ist der tiefste Wert seit 30 Jahren.

Für die Bewohner war es allerdings keine Überraschung. Der vorherige Winter (Dezember 2019) brach 100-jährige Rekorde. Intensive Kälte ist in den letzten Jahren zur Norm geworden.

[Hervorhebung vom Übersetzer]

In den USA wurden in diesem Jahr landesweit Rekordkälte und -schneeereignisse registriert. In Spanien schickten historisch niedrige Temperaturen das Quecksilber auf 20-Jahres-Tiefstwerte. In Sibirien, Russland und Japan war es nicht anders. Peking verzeichnete den kältesten 7. Januar seit den 1960er Jahren.

Diese Kälteereignisse müssen unter Berücksichtigung der vielfältigen klimatischen Faktoren analysiert werden, die sie beeinflussen können. Die Sonnenaktivität, die Erdrotation, Veränderungen der magnetischen Pole, arktische Kälteeinbrüche und viele andere Faktoren bestimmen regionale und globale Wettermuster mit.

Hoch gejubelte Klima-Untergangs-Prophezeiungen wollen einfach nicht eintreten

Während diese Rekordkälte- und Schneefallereignisse die globale Erwärmung nicht widerlegen, machen sie uns aber klar, dass sich Kälteeinbrüche und Schneefälle in der realen Welt sowohl in ihrer Intensität als auch in ihrer Häufigkeit erheblich von der klassischen Erzählung über die globale Erwärmung/Klimawandel unterscheiden.

Al Gore hat zum Beispiel behauptet, dass die Sommer in der Arktis bis 2015 eisfrei werden würden, aber das ist nicht passiert. Ebenso sagten Wissenschaftler voraus, dass Schnee eine „Sache der Vergangenheit“ sein würde und dass unsere Kinder nicht mehr wissen werden, was Schnee ist. Aber seit 2017 gab es historische Schneefallereignisse auf der ganzen Welt, einschließlich derer in New York und der jüngsten in Spanien und Japan.

Heiße und kalte Wetterphasen können jederzeit auftreten. Obwohl es seit dem 18. Jahrhundert einen allmählichen Anstieg der globalen Durchschnittstemperaturen gegeben hat, bedeutet das nicht, dass die Zukunft intensiver heißer sein wird als bisher oder dass unsere Winter milder werden. Keines der Computer-Klimamodelle war bisher in der Lage, die Temperaturschwankungen oder das Eintreten von Kälte- oder Wärmeereignissen genau vorherzusagen.

Verspielen Sie die Zukunft nicht mittels Verlass auf Erneuerbare oder die Klimamodelle

Das Auftreten dieser intensiven Kältewellen und das Scheitern der Klimaprophezeiungen sollten uns helfen, den zukünftigen Kurs des Energiesektors zu bestimmen. Wind und Sonne erzeugen bei Kälte wenig oder gar keinen Strom. Das bedeutet, dass die Volkswirtschaften immer noch zuverlässige Energie aus Kohle und Öl benötigen werden, egal wie viele Wind- und Solarfabriken wir bauen.

Dies wurde bei den jüngsten extremen Kältewellen in China und Europa deutlich, wo die Wind- und Solarnetze keinen Strom erzeugen konnten. Erschwerend kam hinzu, dass die extreme Kälte eine erhebliche Energienachfrage (zum Heizen) verursachte, so dass die Energieversorger sich beeilten, mehr Strom aus wetterfesten Kohlekraftwerken zu erzeugen.

Pekings einziges Kohlekraftwerk nahm im Dezember den Betrieb wieder auf, um den gestiegenen Energiebedarf zu decken. Peking erklärte: „Die (jüngste) historische Spitzenlast kam, als extrem kaltes Wetter die Nachfrage nach strombetriebenen Heizungsanlagen erhöhte, die 48,2 % der Gesamtlast ausmachen.“

Mit einfachen Worten: Die Länder sollten ihre Zukunft nicht auf erneuerbare Energien setzen. Selbst im Sommer sind sowohl Wind als auch Solar unzuverlässig und teuer. Abgesehen davon, dass sie die Strompreise für die Verbraucher unnötig in die Höhe treiben (wie in Deutschland und Kalifornien bewiesen), stellen sie auch eine Belastung für die Netzfunktionalität dar. Trotzdem werden Wind- und Solarenergie auf Kosten der Steuerzahler subventioniert und als die Zukunft der Welt gepriesen.

[Hervorhebung vom Übersetzer]

This article was originally published on Townhall.com.

Link: https://cornwallalliance.org/2021/02/record-cold-of-2021-reminds-us-be-wary-of-climate-predictions-and-energy-priorities/

Übersetzt von Chris Frey EIKE

 




CMIP6 und AR 6 – eine Vorschau

Abbildung 1. Das 13 Member umfassende CMIP6-Modellensemble aus dem KNMI Climate Explorer. Die globale Temperaturanomalie vom Durchschnitt 1981-2010 ist für alle Modellläufe aufgetragen. Alle 13 Modellläufe sind aus dem Ensemble aufgetragen. Man beachte, dass für drei der Modelle zwei Läufe geplottet sind.

Es gibt derzeit zwei Modell-Ensembles auf der Website, eines enthält 68 Modellläufe und das andere enthält 13. Abbildung 1 zeigt alle 13 Läufe für das kleinere Ensemble. Es gibt zwei Läufe in dem Ensemble vom Canadian Centre for Climate Modeling (CanESM5 P1 und P2). Außerdem gibt es zwei für NCAR (CESM2-1 und CESM2-2) und zwei für das Jamstec-Modell (MIROC). Abbildung 1 repräsentiert also insgesamt zehn Modelle. Die Modelle verwenden historische Antriebe vor 2014 und projizierte Antriebe danach.

Alle Kurven sind globale durchschnittliche Temperaturanomalien der Durchschnittstemperatur von 1981-2010. Man beachte, dass die Streuung der Ergebnisse im 19. Jahrhundert über ein K beträgt. Die aktuelle Streuung der Ergebnisse ist nicht viel enger und die Streuung im Jahr 2100 beträgt über zwei K. Alle diese Modellläufe verwenden das Emissionsszenario ssp245, das die CMIP6-Version des RCP 4.5 ist, soweit ich das beurteilen kann. Es ist also das mittlere Szenario.

Zwei der Läufe sind ziemlich erratisch, das hellblaue Modell, das 1960 sehr niedrig und 2100 sehr hoch ist, ist der Modelllauf des Met Office Hadley Centre, UKESM1.0-LL (2018). Der kanadische Modelllauf „CanESM5 P 1“ folgt demselben Pfad, wird aber von UKESM1.0 verdeckt. Die anderen Läufe sind in einem Ein-Grad-Getümmel zusammengefasst.

In Abbildung 2 zeigen wir drei der Modellläufe. Die beiden kanadischen Modellläufe sind in blau und orange dargestellt, zusammen mit einem der NCAR-Modelle in grau. Das Schwarze ist das „Ensemble-Mittel“ aus 13 Modellläufen, wie es vom KNMI Climate Explorer berechnet wurde. Ich habe ein Ensemble auf der Website ausgewählt, welches ich nicht selbst erstellt habe. Ebenso wurde der Ensemble-Mittelwert vom KNMI Climate Explorer bereitgestellt, ich habe ihn nicht berechnet.

Abbildung 2. Drei einzelne Modellläufe werden mit dem 13 Member Ensemble-Mittelwert verglichen. Die vertikale Achse ist die Anomalie vom Mittel 1981-2010 in Grad C.

Es werden historische Antriebe vor 2014 und projizierte Werte danach verwendet. Die blauen und orangen Kurven stammen von zwei Läufen eines einzelnen kanadischen Modells. Die beiden Läufe unterscheiden sich in den Jahren 2010 und 2011 um mehr als 0,2°C, in einigen Monaten sogar um mehr als 0,5°C. Es gibt mehrere Perioden, in denen die Modellläufe über mehrere Jahre hinweg eindeutig phasenverschoben sind, Beispiele sind 2001-2003 und 2014 bis 2017. Der Zeitraum von 2015 bis 2019 ist ein einziges Durcheinander.

Abbildung 3 vergleicht das in Abbildung 2 gezeigte Ensemble-Mittel mit drei Wetter-Reanalyse-Datensätzen, die ebenfalls vom KNMI Climate Explorer heruntergeladen wurden. Diese sind in den schwächeren Linien dargestellt.

Abbildung 3. Drei Wetter-Reanalyse-Datensätze werden mit dem Modell-Ensemblemittel aus Abbildung 2 verglichen.

Die Wetter-Reanalyse wird durchgeführt, nachdem die Wetterdaten aufgezeichnet wurden, aber unter Verwendung eines Wetter-Computermodells. Die Reanalyse hat viele Tausende von Beobachtungen, die sie einbeziehen kann, so dass die Ausgabe im Allgemeinen recht zuverlässig ist, zumindest meiner Meinung nach. Man beac hte, dass alle drei Wetter-Reanalysedatensätze, NOAA, NCEP und EZMW (Europäisches Zentrum für mittelfristige Wettervorhersagen) in Phase sind und sich gegenseitig folgen. Über Zeiträume von bis zu drei Jahren ist der Ensemble-Modell-Mittelwert hoffnungslos phasenverschoben zur Reanalyse. Dies tritt auf, wenn das Modell historische Daten hatte (vor 2014) und danach.

Conclusions

Ich bin unbeeindruckt von den CMIP6-Modellen. Die Gesamterwärmung seit 1900 beträgt weniger als ein Grad, aber die Streuung der Modellergebnisse in Abbildung 1 ist nie weniger als ein Grad. Sie ist oft mehr als das, besonders in den 1960er Jahren. Die Modelle reproduzieren offensichtlich nicht die natürlichen Klimazyklen oder Oszillationen, wie die AMO, PDO und ENSO. Wie in Abbildung 2 zu sehen ist, sind sie oft über Jahre hinweg völlig phasenverschoben, selbst wenn es sich nur um zwei Läufe desselben Modells handelt. Ich habe das kanadische Modell als Beispiel verwendet, aber die beiden NCAR-Modellläufe (CESM2) sind nicht besser. Tatsächlich sind sie im Zeitraum 2010-2011 und im Zeitraum 2015-2019 schlechter, wie man in Abbildung 4 erkennt:

Abbildung 4. Vergleich der beiden Läufe des NCAR CESM2-Modells mit dem Ensemble-Mittelwert und einem kanadischen Modelllauf.

Der AR5-Bericht war eine teure Neuauflage des AR4. Beide gaben jeden Versuch auf, solide Beweise für den menschlichen Einfluss auf das Klima zu finden, und versuchten, Klimamodelle zu verwenden, um zu zeigen, dass der Mensch das Klima irgendwie mit unseren Treibhausgasemissionen kontrolliert. Sie versuchten, solide Beweise in SAR, dem zweiten Bericht, und TAR, dem dritten Bericht, zu verwenden, aber es wurde gezeigt, dass sie in beiden Versuchen falsch lagen. Deren SAR-Demütigung kann man hier nachlasen und über die TAR-„Hockeyschläger“-Demütigung hier.

Vierzig Jahre Arbeit und Milliarden von Dollar ausgegeben und immer noch kein Beweis, dass der Mensch das Klima kontrolliert. Modelle sind alles, was sie haben, und diese Diagramme erwecken kein Vertrauen in die Modelle. Wie wir in unserem vorherigen Beitrag besprochen haben, macht die Mittelwertbildung von Modellen die Ergebnisse nicht besser. Ensembles sind nicht besser als ihre einzelnen Modellläufe und können sogar schlechter sein. Falls die einzelnen Läufe phasenverschoben sind, was bei diesen mit Sicherheit der Fall ist, zerstört man die Daten und die natürlichen Zyklen, wenn man sie mittelt. Siehe die Beweise, die von Wyatt und Curry und Javier präsentiert wurden, hier und hier. Falls sie diesen Beobachter überzeugen wollen, müssen sie es viel besser machen als so. Und ein Wort an die Steuerzahler: Warum zahlen wir diese riesigen Geldsummen, um einfach immer wieder dasselbe zu tun? Unterm Strich, wird der AR6 anders sein als der AR4 oder AR5? Ist irgendeines dieser Dokumente das Papier und die Tinte wert?

[Hervorhebung vom Übersetzer]

Link: https://wattsupwiththat.com/2021/02/11/cmip6-and-ar6-a-preview/

Übersetzt von Chris Frey EIKE

 




Kivalina: Eine Fallstudie darüber, wie Medien & Politik objektive Wissenschaft manipulieren

Ähnlich schrieb die Huffington Post im Jahre 2017: „Es verschwindet. Schnell. Als eines der offensichtlichsten und schockierendsten Beispiele für die Küstenerosion könnte Kivalina bis 2025 unbewohnbar sein, alles dank des Klimawandels.“ The Guardian und Mother Jones schrieben: „31 Gemeinden in Alaska stehen vor einer ‚unmittelbaren‘ existenziellen Bedrohung durch Küstenerosion, Überschwemmungen und andere Folgen der Temperaturen, die in diesem Bundesstaat doppelt so schnell steigen wie im globalen Durchschnitt.“ Traurigerweise ignorierten Medien und Politiker die objektive Wissenschaft, aber deren Wahrheit ist immer noch da draußen.

Das wirkliche Problem für Alaskas Ureinwohner-Gemeinschaften sind die fehlgeleiteten Versuche der vergangenen Regierungen, „Beständigkeit“ in einer sich ständig verändernden Landschaft zu erzwingen. Die „Siedlungen, denen die Zerstörung droht“, sind keine Orte, die die Ureinwohner aus freien Stücken gewählt haben, um sich niederzulassen. Da ihr Überleben auf dem Spiel stand, waren sich die Ureinwohner Alaskas der sich ständig verändernden Umwelt sehr bewusst, lange bevor die Theorie der CO2-induzierten Klimaveränderung aufgestellt wurde. Und so entschieden sie sich, halbnomadisch zu leben. Kivalina war ein gutes saisonales Jagdlager, beherbergte aber nie eine permanente Siedlung. Nichtsdestotrotz machte das Bureau of Indian Affairs (BIA) des US-Innenministeriums den Ort im Jahre 1905 zu einer dauerhaften Siedlung.

REVEAL berichtet, „verbrachten die Inuit den Sommer in Zelten am Strand von Kivalina. Zum Wintereinbruch zogen sie ins Landesinnere, um Karibus zu jagen. Sie waren halbnomadisch, aber 1905 baute die Bundesregierung eine Schule auf der Insel. Den Eltern drohten Gefängnisstrafen oder der Verlust ihrer Kinder, falls sie sie nicht zur Schule schickten.“ Nur 6 Jahre nach der Gründung warnte Kivalinas Lehrer Clinton Replogle 1911 vor Überschwemmungen durch Meeresstürme und empfahl, dass Kivalina umgesiedelt werden sollte.

Man führe sich die Art und Weise vor Augen, wie die meisten Barriereinseln gebildet werden. Die Insel Kivalina entstand aus einer locker verfestigten Sandbank und wurde durch reichlich Sedimente erhalten, die von den lokalen Flüssen geliefert wurden. Ozeanwellen schieben erodierten Sand und Kies zurück zur Küste, wo er sich in flachen Gewässern zu einer Sandbank ansammelt. Auf der landwärtigen Seite der Sandbank erodieren Flussströmungen den Sand, wodurch eine Lagune und die geringe Breite der Inseln erhalten bleiben. Inseln entstehen dann dort, wo kilometerlange Sandbänke von Küstenflüssen zerschnitten werden, die einen Abfluss zum Ozean suchen. Der Singauk-Eingang (siehe unten), wo der Wulik-Fluss an Kivalina vorbei in die Tschuktschen-See fließt, ist ein Beispiel für die instabile Dynamik der Insel. In manchen Jahren ist der Singauk-Eingang durch von Winterstürmen aufgeschütteten Sand blockiert, wird aber später durch Flusserosion wieder geöffnet. Wie Stammesverwalterin Millie Hawley kürzlich sagte, erodierte Kivalina immer. „Wir befinden uns auf einer kleinen Landzunge, die sich im Laufe des letzten Jahrhunderts verkleinert hat.“

Die Bildung von Barriereinseln erfordert auch einen flach abfallenden Meeresboden, der den unwiederbringlichen Verlust von Sand minimiert, der in den tieferen Ozean gespült werden könnte. Allerdings verstärken solche flachen Meeresböden auch die Wellenhöhen von herannahenden Stürmen. Die endgültige Höhe einer Barriereinsel wird durch die Menge an Sedimenten bestimmt, die von den überlaufenden Wellen eines Sturms abgetragen werden. Der höchste Punkt von Kivalina ist nur ca. 4 Meter hoch, und vor Jahrzehnten kam die Hochwassermarke bis auf 0,3 bis 0,6 m an die Stadt heran. Aber die Stürme des Spätsommers und des eisfreien Herbstes können Wellen von 3 Meter oder höher bringen. Kein Wunder, dass Clinton Replogle die Gefahr einer Sturmflut so klar war. Tatsächlich haben geologische Untersuchungen jetzt ergeben, dass es zwischen 1905 und 1990 mindestens zweimal zu Überschwemmungen durch Wellen kam, die Kivalina überflutet hatten.

Der Sand der Insel kann kein Süßwasser aufnehmen. Daher muss der Wassertank der Stadt von einem 3 Meilen langen Feuerwehrschlauch gespeist werden, der vom Wulik River kommt. Das Abwassersystem von Kivalina besteht aus einzelnen „Honigeimern“, die von jedem Bewohner in zwei festgelegte „Bunker“ entleert werden. Schlechte sanitäre Verhältnisse und Überbevölkerung waren schon immer ein Problem, was zu einer extrem hohen Inzidenz von übertragbaren Krankheiten in der Stadt Kivalina geführt hat. Im Jahr 2021 kam es zu einem großen Ausbruch von COVID.

Da die negativen Aspekte überwiegen und die jährliche Gefahr der Zerstörung durch Sturmfluten überwiegt, initiierten die Bewohner der Inupiaq 1994 eine Studie zur Umsiedlung, obwohl es in diesem Jahrzehnt nur wenige große Stürme gab. Anhand von Fotografien, die bis ins Jahr 1952 zurückreichen, fand die Studie überraschenderweise keine schlüssigen Beweise für eine Erosion auf der Meeresseite der Insel. Allerdings zeigte die Studie eine erhebliche Erosion auf der Lagunenseite von Kivalina durch die Flüsse Wulik und Kivalina. Dennoch warnten die Forscher: „Obwohl es nur sehr begrenzte Informationen gibt, sind wir der Meinung, dass es nur eine Frage der Zeit ist, bis die richtige Kombination von Naturereignissen eintritt, die zu einer Überflutung der Stadt führen wird. Wenn dies geschieht, wird die Wellenbewegung zu Schäden an den Strukturen führen, und falls Eis mit der Sturmflut einhergeht, könnten die Folgen katastrophal sein.“

Dennoch wuchs Kivalinas Bevölkerung seit 1970 von 188 auf über 400. Obwohl die Bewohner in den letzten drei Jahrzehnten fünfmal für eine Umsiedlung in die Sicherheit stimmten, blieben eine Flugzeuglandebahn, die benötigte Güter bringt, und eine medizinische Klinik, die von der gemeinnützigen Maniilaq Association betrieben wird, eine Attraktion. Außerdem waren die finanziellen Mittel für die Umsiedlung knapp, da die Wirtschaft hauptsächlich auf der Subsistenzernte von Robben, Walrossen, Walen, Lachsen und Karibus basiert. Außerdem boten die Landes- und Bundesregierungen wenig Unterstützung an. Als Regierungsberichte begannen, die globale Erwärmung dafür verantwortlich zu machen, entschieden sich die Bewohner im Jahr 2011, die großen Ölgesellschaften zu verklagen mit dem Argument, dass „Kivalina aufgrund der globalen Erwärmung umgesiedelt werden muss“, und forderten Gelder, um die geschätzten Kosten von 95 bis 400 Millionen Dollar zu decken. Obwohl ihre Klage scheiterte, wurde Kivalinas „David gegen Goliath“-Klage von Befürwortern des katastrophalen Klimawandels sowie von Gegnern von Big Oil unterstützt und rückte das zuvor wenig beachtete Kivalina als Symbol der „Klimakrise“ ins Rampenlicht.

Ignoriert wurde der Zwang der Inupiaq zu einer dauerhaften Ansiedlung auf einer sich dynamisch verändernden Barriereinsel. Das war das eigentliche Problem. In ähnlicher Weise machte das Bureau of Indian Affairs die saisonal wandernden Yupik zu Bewohnern einer permanenten Gemeinschaft. Schlimmer noch, das BIA wählte einen Standort am Ninglick River im Yukon-Delta, um ihre Schule zu bauen und das permanente Dorf Newtok zu gründen. Aber Flussdeltas sind notorisch instabil (wie New Orleans während seiner 300-jährigen Existenz immer wieder schmerzlich feststellen musste). Die Schule von Newtok wurde 1958 gebaut, aber die Ignoranz der BIA gegenüber der Umwelt wurde schnell wieder aufgedeckt. In den 1980er Jahren gab das US Army Corp of Engineers über eine Million Dollar aus, um zu verhindern, dass die natürliche Erosion des Flusses die Ortschaft Newtok zerstörte. Nur 26 Jahre nach seiner Gründung gaben die Bewohner von Newtok die erste Studie für eine Umsiedlung in Auftrag. Die Kosten für die laufende Umsiedlung von Newtok werden 100 Millionen Dollar übersteigen. Trotzdem bleibt es einfacher, die Schuld auf den Klimawandel zu schieben, ob natürlich oder vom Menschen verursacht, um die schlecht konzipierte „erzwungene Permanenz“ der Regierung zu verschleiern.

Im Jahre 2005 posaunte der Guardian die skandalöse, gescheiterte Vorhersage der Vereinten Nationen, dass es „50 Millionen Umweltflüchtlinge bis zum Ende des Jahrzehnts“ geben würde, und die Notlage von Kivalina war eine Gelegenheit, diesen imaginären „Klimaflüchtlingen“ ein Gesicht zu geben. Falls man eine große Lüge oft genug erzählt, werden die Naiven sie unkritisch glauben. Also gründeten gleichgesinnte Medien „Climate Desk“, um mehr Alarmismus zu verbreiten (Mitgliedsorganisationen sind unten abgebildet). Im Jahr 2019 verstärkte der Guardian erneut den Klimahype und wies seine Journalisten an, Wetterereignisse nicht mehr als globale Erwärmung oder Klimawandel zu bezeichnen. Stattdessen sollten sie raues Wetter als „Klimakrise“ oder „Klimanotstand“ anpreisen. Jetzt wiederholt eine unheilige Allianz (zwischen „if it bleeds it leads“-Medien, Wissenschaftlern aus der „chicken little school of thought“ und Politikern, die jede Krise nutzen, um politische Kontrolle zu erlangen) täglich, dass wir alle von einer „existenziellen Klimakrise“ bedroht sind. Aber für diejenigen von uns, die die tatsächliche Wissenschaft studieren, gibt es eine ganze Armee von objektiven Klimawissenschaftlern, die Beweise liefern, um solche Klima-Angstmacherei ad absurdum zu führen.

Die großen Teilhaber an Climate Desk

Im Jahre 2013 schrieb der Weather Channel von Climate Desk: „Das Meer verschluckt allmählich Städte in Alaska“ und stellte fest: „Die Folgen des Klimawandels werden für die Städte an der Küste Alaskas zur schmerzhaften Realität, da der steigende Meeresspiegel Hektar um Hektar von einst trockenem Land einnimmt. Die Bedrohung scheint in Kivalina unmittelbar zu sein.“ Aber objektive Wissenschaft zeigt etwas anderes. Wie in der von Experten begutachteten Arbeit Arctic Ocean Sea Level Record from the Complete Radar Altimetry Era: 1991-2018 festgestellt wurde, variiert der Meeresspiegel in der Arktis, weil Winde Wasser aus einer Region abtransportieren und in einer anderen auftürmen. Entlang der sibirisch-russischen Küsten und der südlichen Tschuktschensee, die an Kivalina grenzt (grüne Fläche), ist der Meeresspiegel nicht angestiegen, obwohl der Meeresspiegel entlang der Beaufortsee (rot) stark ansteigt.

Aus Rose (2019) Arctic Ocean Sea Level Record from the Complete Radar Altimetry Era: 1991–2018

In einem Dokument der Regierung zur Umsiedlung Kivalinas kolportierte eine Klimakrise und schrieb: „Die Temperaturen in der Arktis steigen mehr als doppelt so schnell wie der globale Durchschnitt, was zu heftigen Meeresstürmen, Überschwemmungen und Erosion unter den Häusern von Kivalina führt – Auswirkungen, die für die Inupiaq-Gemeinschaft der Barriereinsel in Alaska traumatisch sind.“ Aber sie informierten die Öffentlichkeit nicht über die ganze Wissenschaft, die damit verbunden ist. Zum Beispiel sanken viele permanente Häuser, die auf Permafrost gebaut waren, in den Boden ein, weil das Heizen ihrer Häuser auch den darunter liegenden Permafrost auftaute.

Außerdem sind es die Sommerwinde, die wärmeres Pazifikwasser durch die Beringstraße schieben und die Meereisschmelze und die Erwärmung in der gefrorenen Tschuktschensee einleiten. In den letzten Jahrzehnten hat sich die Menge des durch die Beringstraße einströmenden warmen Pazifikwassers fast verdoppelt, wodurch mehr Meereis schmilzt und sich die offenen Gewässer ausweiten. Fast die Hälfte dieser eindringenden Ozeanwärme wird an die Atmosphäre abgegeben und erhöht die Lufttemperatur. Obwohl offenere Gewässer auch die Photosynthese verbessert und das arktische maritime Nahrungsnetz um 30 % vergrößert haben, wird der damit verbundene Temperaturanstieg seltsamerweise als Krise gebrandmarkt. Es ist wahr, dass sich ausdehnende offene Gewässer mehr Sonnenlicht absorbieren und diese Rückkopplung die Temperaturen noch weiter ansteigen lässt, was als „Arktische Verstärkung“ bezeichnet wird. In der Tat sind die Lufttemperaturen in der Arktis doppelt so schnell gestiegen wie in den zusammen hängenden 48 US-Staaten. Aber dieser Anstieg erhöht nicht die globale Durchschnittstemperatur und wurde fälschlicherweise dem CO2 angelastet. Aber die meisten Klimamodelle sind sich jetzt einig, dass es das eindringende warme Pazifikwasser ist, das durch die Beringstraße drängt und die arktische Verstärkung erzwingt.

Studien zeigen, dass der größte Meereisverlust in der Tschuktschen-See mit den drei Hauptwegen des eindringenden warmen Wassers verbunden ist. Der wärmste Weg führt an der Küste Westalaskas entlang und betrifft Kivalina, wie unten von Itoh (2015) dargestellt. Wichtig ist, dass das Volumen des Beringstraßen-Durchflusses das Ausmaß der jährlichen offenen Gewässer bestimmt, und dieses Durchflussvolumen wird durch natürliche Variationen der atmosphärischen Zirkulation moduliert. Mithilfe des allgemeinen Zirkulationsmodells des Massachusetts Institute of Technology MIT stellten die Forscher fest, dass der Zustrom von warmem Wasser durch die Beringstraße in erster Linie durch Winddruck gesteuert wird, wobei wechselnde Winde 90 % oder mehr der Veränderungen erklären. Andere Faktoren (Niederschlag, Strahlungsflüsse [Sonne oder Treibhaus], Wasserdampf und Lufttemperatur) hatten einen vernachlässigbaren Einfluss. Leider hat die zunehmende Ausdünnung und der Verlust des Meereises die Saison der Inupiaq für die Jagd auf Robben und Wale verkürzt und sie gezwungen, woanders zu jagen und zu fischen.

Die drei Hauptpfade und Temperaturen des wärmeren Pazifikwassers, das durch die Beringstraße in die Arktis fließt. Aus Itoh 2015

Die wissenschaftliche Studie „Mechanisms Driving the Interannual Variability of the Bering Strait Throughflow aus dem Jahr 2020 beschreibt detailliert die Ursachen für diese wechselnden Winde. Auf der Seite des Arktischen Ozeans der Beringstraße, wenn das Beaufort-Hochdrucksystem stärker ist, transportieren die Winde Ozeanwasser ablandig und senken den Meeresspiegel entlang der Küste, was einen größeren Durchfluss durch die Beringstraße ermöglicht. Auf der pazifischen Seite der Meerenge, wenn sich das semi-permanente Aleuten-Tiefdrucksystem über dem Aleutenbecken befindet, türmen die Winde das Wasser entlang des östlichen Beringmeer-Schelfs auf. Der daraus resultierende höhere Meeresspiegel drückt mehr warmes Wasser durch die Beringstraße. Umgekehrt, wenn sich das Aleuten-Tief südwärts über den Golf von Alaska verlagert, herrschen nordöstliche Winde vor, die den Meeresspiegel senken und den Durchfluss durch die Beringstraße abschwächen. Bezeichnenderweise wird das Aleutentief von natürlichen El-Nino-Ereignissen und der Pazifischen Dekadischen Oszillation (PDO) beeinflusst. Mehrere Studien haben gezeigt, dass ein Wechsel in die negative PDO-Phase auch das Aleuten-Tief veranlasst, mehr warme Luft aus dem Süden nach Alaska zu pumpen.

Wechselnde Winde und Warmwasserzuflüsse erhöhen die offene Wasserfläche in der Tschuktschen-See auch während kälterer Klimaphasen. Meeresgeologen, die Sedimente aus der Tschuktschensee untersuchen, haben festgestellt, dass in den vergangenen Jahrtausenden eine eisfreie Tschuktschensee unabhängig vom globalen Klima vorkam, wobei eisfreie Bedingungen sogar während der jüngsten Kleinen Eiszeit auftraten. Nach dem heutigen Stand der Wissenschaft lassen sich die wechselnden Bedingungen in der Arktis am besten durch natürlich schwankende Winde und Meeresströmungen erklären.

Im Jahre 2015 schickte die Obama/Biden-Regierung die US-Innenministerin Sally Jewell nach Kivalina, die versprach – ohne sich für die Zwangsansiedlung in Kivalina zu entschuldigen – an Lösungen für das vom Klima bedrohte Dorf zu arbeiten. Mit der Wiederholung des Climate Desk-Märchens bzgl. „Klimaflüchtling“ stellte Jewell ihr Mitgefühl zur Schau: „Hunderte von Dorfbewohnern in Kivalina stehen vor der schrecklichen Aussicht, ihr Land und ihre Häuser durch den steigenden Meeresspiegel und die Küstenerosion zu verlieren, was ihre persönliche Sicherheit bedroht und sie dem Risiko aussetzt, innerhalb eines Jahrzehnts zu Klimaflüchtlingen zu werden“. Aber es war wenig mehr als politisches Getue.

Kivalina und Newtok sind keine Beispiele für Klimakrisen. Vielmehr stehen sie als ikonische Beispiele dafür, wie die Medien und Regierungen die Ungerechtigkeiten, die die Ureinwohner erlitten hatten, ignoriert haben und ihre Probleme nur dann nutzen, wenn es ihre Krisenagenda fördert. Kivalina und Newtok sind klare Beispiele für die Unangemessenheit der Regierung, die einer indigenen Kultur, die an eine sich ständig verändernde natürliche Umgebung angepasst ist, „Beständigkeit“ aufzwingt; in einer Umgebung, in der sich das regionale Klima ständig verändert. Ich schlage vor, der BIA ihre Finanzierung zu entziehen und das dadurch frei werdende 1,9-Milliarden-Dollar-Jahresbudget zu verwenden, um die Menschen von Kivalina, Newtok und anderen sicher an einen Ort ihrer Wahl umzusiedeln.

Jim Steele is Director emeritus of San Francisco State University’s Sierra Nevada Field Campus, authored Landscapes and Cycles: An Environmentalist’s Journey to Climate Skepticism, and a member of the CO2 Coalition

Link: https://wattsupwiththat.com/2021/02/09/kivalina-a-case-study-of-how-media-politics-mangle-objective-climate-science/

Übersetzt von Chris Frey EIKE

 




Erstmals seit 60 Jahren hat sich auf der Themse wieder Eis gebildet!

Ursache hierfür war das Sinken der Temperaturen unter 0°C in Teilen von England. In Ravensworth, North Yorkshire, sanken die Temperaturen in der vergangenen Nacht auf -15,3°C, während sich Großbritannien heute auf bis zu fünf Zentimeter Schnee und Stürme mit 80 Kilometer pro Stunde gefasst machen muss. In Newcastle wachten Familien auf, als die Stadt von Schnee bedeckt war. Das winterliche Wetter traf auch Teile von Nordost-Schottland und die Küstenregionen im Nordosten Englands.

Das Met Office hat mehrere Warnungen für Schneeschauer in ganz Schottland herausgegeben, wobei in Angus und Aberdeenshire bis zu 3 cm Schnee vorhergesagt werden.

Für Enten reicht das Eis allemal. Das Foto im Original mit Möwen auf dem Themse-Eis kann hier aus Gründen des Copyrights nicht gezeigt werden. Bild: Bubi / pixelio.de

In der Wetterwarnung hieß es: „Weitere Schneeschauer, am häufigsten in der Nacht zum Freitag in Angus und Aberdeenshire. Am Samstag schwächen sie sich wieder ab. Neuschnee von 1 bis 3 cm wird erwartet, aber lokal sind 5 bis 10 cm in höheren Lagen im Nordosten von Schottland möglich. Darüber hinaus wird sich streckenweise Eisglätte bilden, wenn teilweise geschmolzener Schnee wieder gefriert, besonders in tieferen Lagen.“

Das eisige Wetter kommt, nachdem 15 Wetterstationen in Großbritannien in der Nacht zum Mittwoch ihre niedrigsten Temperaturen für den Februar gemessen haben.

Ausschnitt aus einem Video im Original. Ein Link zu demselben lässt sich nicht angeben.

Der ganze Beitrag nebst Video und vielen Fotos steht hier.

Link: https://wattsupwiththat.com/2021/02/13/uk-cold-weather-river-thames-freezes-over-for-first-time-in-60-years-pictured/

Übersetzt von Chris Frey EIKE

Anmerkung: Der Beitrag datiert vom 13. Februar. Die genannten Daten beziehen sich also auf die Woche vom 8. bis zum 14. Februar. Inzwischen hat in UK massiv Milderung von Westen eingesetzt, die spätestens zur Wochenmitte auch bei uns in Deutschland erwartet wird.

 




Zwei Optionen: „Erneuerbare“ vs. Kernkraft

Mit der Wiedergeburt staatlicher Macht als Stütze feuerte das Team Biden-Harris hohe Funktionäre der NLRB [NLRB = National Labor Relations Board, {amerikanische Schlichtungsstelle}], brachte Amerika wieder unter die Fuchtel des Paris-Abkommens und erließ eine Anordnung nach der anderen, um die Keystone-Pipeline sowie Öl- und Gas-Leasing zu blockieren, ebenso wie Bohren, Fracking und Erzeugung billiger Energie (neben vielen anderen). Tausende von hochbezahlten Arbeitsplätzen werden fast sofort weg sein, Hunderttausende, dann Millionen mehr in den nächsten Jahren – zusammen mit Zehnmilliarden von Dollar in Löhnen sowie Lizenzgebühren und Steuereinnahmen.

Biden mag vielleicht „das vielfältigste Kabinett der Geschichte“ nominieren – nach Rasse, Geschlecht und sexueller Präferenz. Aber es wird keine Vielfalt in Gedanken oder Sprache sein. Jeder Nominierte ist ein wahrer Gläubiger an das „Klima-Chaos“ und unsere vermeintliche Fähigkeit, das Klima der Erde zu kontrollieren, indem wir Amerika auf „saubere, erneuerbare“ Energie „umstellen“:

Gina McCarthy als Nationale Klimaberaterin, John Kerry als präsidialer Klimabeauftragter, Michael Regan als Leiter der EPA, Jennifer Granholm für Energie, Pete Buttigieg für Transport, Debra Haaland als Leiterin des Innenministeriums, und viele mehr, sogar im Verteidigungsministerium und USAID [Das US-Gegenstück zum Roten Kreuz. A. d. Übers.]. Das Klima wird die Energie- und Wirtschaftspolitik bestimmen, während Big Media und Big Tech die Biden-Agenda fördern und Klimachaos-Skeptiker, Republikaner und andere konservative Stimmen in den USA und darüber hinaus zensieren und zum Schweigen bringen. So viel zu Demokratie und Einigkeit.

Wahrscheinlich werden sie die „sue-and-settle“-Prozesse wieder aufleben lassen, bei denen Umweltschützer Regierungsbehörden verklagen, um Regeln durchzusetzen, die sowohl die Kläger als auch die Behörden wollen, aber nicht durch den Prozess der Gesetzgebung bekommen können. Die Parteien finden willfährige Gerichte, und die Regierungsbehörde stimmt zu, die Fälle zu vorher vereinbarten Bedingungen beizulegen. Das Pariser Abkommen wird der Klimaprozess-Industrie unzählige Möglichkeiten bieten.

Ihr Ziel ist es, den Verbrauch fossiler Treibstoffe durch sofortige Vorschriften so gut wie möglich zu unterbinden, dann den Verkauf von Fahrzeugen mit Verbrennungsmotor bis 2035 zu verbieten und die Nutzung von Erdöl, Erdgas und Kohle in den USA bis 2050 zu unterbinden. Das sind 80% der Energie, die Amerikas Industrien, Arbeitsplätze, Häuser, Krankenhäuser und Lebensstandard antreibt. Vorbei.

Covid Lockdowns werden ein Testlauf unserer Unterwürfigkeit zu ihren Forderungen zu werden – und von ihrer Fähigkeit, zu diktieren, wie viel und welche Art von Energie, Häuser, Autos, Arbeitsplätze, Lebensmittel und Freiheiten wir haben „dürfen“. Familien, die von den Lockdowns betroffen sind, werden noch härter und länger geknechtet werden.

Der Kongress bereitet sich auch darauf vor, voll auf Kernkraft zu setzen. Die Sprecherin des Repräsentantenhauses Nancy Pelosi bereitet ihren eigenen Kraftakt vor, während Senator Chuck Schumer geschworen hat, dass er „sich nicht die Mühe macht, Mehrheitsführer zu werden, um sehr wenig oder gar nichts zu tun.“ Die Abschaffung des Filibusters könnte der Vorbote eines Green New Deal sein, den viele Demokraten als eine „Wie-veränderst-du-die-gesamte-Wirtschaft-Sache“ ansehen.

Unter Berufung auf Computermodelle und Studien, die oft Daten verbergen und die planetarische Realität falsch darstellen, bestehen sie darauf, dass wir vor einer Klimakrise stehen, die radikale Maßnahmen rechtfertigt. Wie der Klimatologe Dr. Roy Spencer jedoch betont, produzieren und prognostizieren die Klimamodelle jetzt „mindestens doppelt so viel Erwärmung“ wie tatsächlich beobachtet. Es gibt einfach keinen Klimanotstand: nicht hinsichtlich der Temperaturen und nicht bei Hurrikanen, Tornados, Überschwemmungen, Dürren, Flächenbränden oder anderen vermeintlich CO2-bedingten Ereignissen. Die Klimakatastrophen sind frei erfunden.

Unsere werte Obrigkeit besteht auch darauf, dass der Rest der Welt „unserem Beispiel folgen wird“. In der realen Welt bauen China, Indien und andere Länder Tausende von Kohle- und Gaskraftwerken und bringen Millionen von nicht-elektrischen Autos auf ihre Straßen. Diese Länder wollen Strom, Arbeitsplätze, Mobilität und moderne Lebensstandards. Sie sind nicht an die Emissionsgrenzwerte oder Zeitpläne von Paris gebunden und haben auch nicht die Absicht, sich daran zu halten. Sie wissen, dass fossile Brennstoffe der Schlüssel zu einem besseren Leben sind, während Wind und Solar Armut, Elend und häufige Stromausfälle verewigen würden.

[Hervorhebung vom Übersetzer]

Am erstaunlichsten ist vielleicht, dass sie sich selbst eingeredet haben, dass wir die fossilen Brennstoffe in den USA (und weltweit) schnell, einfach, erschwinglich und ökologisch durch Wind-, Solar-, Batterie- und Biokraftstoffenergie ersetzen können. Sie haben keine Vorstellung davon, wie monumental diese Aufgabe sein würde. Allein in den USA müssten wir 7,5 Milliarden Megawattstunden pro Jahr an Strom und stromäquivalenter Kohle, Öl und Erdgas in den heutigen Fahrzeugen, Fabriken, beim Heizen, Kochen und zahlreichen anderen Anwendungen ersetzen. Dabei sind noch nicht einmal die petrochemischen Ausgangsstoffe für Farben, Kunststoffe, Pharmazeutika, synthetische Fasern und andere Produkte berücksichtigt.

Wir würden bezahlbare Dauer-Zuverlässigkeit gegen teure, subventionierte, wetterabhängige Energie eintauschen. Sie reden, als ob es eine leicht überschaubare, kaum wahrnehmbare Anzahl von Windturbinen, Sonnenkollektoren, Backup-Batterien, Übertragungsleitungen und Mais- und Sojafarmen erfordern würde. Man rechne selbst – und berücksichtige dabei die Notwendigkeit, viele Turbinen, Paneele und Biokraftstoff-Farmen in suboptimalen Gebieten zu installieren. Wir haben es hier mit industriellen Energieanlagen, Bergbau und Fabriken zu tun, wie es sie in der Geschichte der Menschheit noch nie gegeben hat. Die Auswirkungen auf die Landschaft, die Lebensräume, die Tierwelt sowie die Luft- und Wasserqualität in den USA und weltweit wären verheerend.

Zum Glück gibt es eine zweite, nukleare Option. Falls das Team Biden-Harris entschlossen ist, fossile Brennstoffe zu eliminieren, könnte es mehr für die Förderung der Kernkraft tun. Das könnte auch Afrika tun – und Europa, Asien und der Rest der Welt. Die Nukleartechnologie macht rasante Fortschritte, und moderne Kernkraftwerkskonzepte sind allen bisher gebauten weit überlegen (und kostengünstiger).

Kraftwerke der 3. und 4. Generation haben eingebaute passive Sicherheitsmerkmale, die eine Kernschmelze verhindern. Kleine modulare Reaktoren (Small Modular Reactors, SMRs) können so klein wie 100 MW sein. Ein Reaktor kann eine Stadt mit Strom versorgen, weitere können hinzugefügt werden, wenn der Strombedarf steigt, und mehrere können zusammengeschaltet werden, um eine große Metropole zu versorgen. Pebble Bed Modular Reactors verwenden Uran in Form von Pellets in der Größe von Zuckerkörnern, von denen jedes einzelne speziell beschichtet und dann in Graphitkugeln von der Größe von Cricket- oder Lacrosse-Bällen eingebunden ist. Auch andere Technologien sind in Arbeit.

In der Vergangenheit bauten die USA riesige, einmalige Anlagen, wie die Palo Verde Anlage außerhalb von Phoenix, AZ: drei 1.270-MW-Reaktoren, die jährlich 32 Millionen MWh erzeugen. Deren Bau dauerte in der Regel Jahre, nach einem Jahrzehnt von Prüfungen, Änderungen, Genehmigungen und Rechtsstreitigkeiten. Heute könnten wir einen „Flottenansatz“ verwenden, um die gleichen bewährten, sicheren Designs immer wieder zu bauen, oft von den gleichen erfahrenen, spezialisierten Crews.

Mehrere fortschrittliche Reaktorkonzepte amerikanischer Unternehmen befinden sich bereits in verschiedenen Entwicklungsstadien. Holtec International versucht, die Forschungs- und Entwicklungsarbeiten an einem modernen SMR-160 der nächsten Generation abzuschließen, der in Lacey Township, NJ, gebaut werden könnte, wo früher das 636-MW-Siedewasser-Kernkraftwerk Oyster Creek betrieben worden war. Es würde etwa 160.000 Haushalte mit Strom versorgen und benötigt keine Pumpen oder Ventile; alle wichtigen Komponenten, einschließlich des Kühlwassers, sind in Containment-Anlagen versiegelt.

Die Nuclear Regulatory Commission genehmigte den Entwurf von NuScale Power für einen Leichtwasserreaktor und den von Oklo Power für eines der ersten Kernkraftwerke, das kein Wasser als Kühlmittel verwendet. (Es ist gasgekühlt.) Oklo, NuGen und andere Unternehmen bauen auch 1,5 bis 20-MW-„Mikroreaktoren“, die im Weltraum und in abgelegenen, netzfernen Gemeinden, im Bergbau, in Industrieanlagen und auf Militärstützpunkten eingesetzt werden könnten. Das US-Energieministerium hat kürzlich einen Zuschuss für ein Demonstrationsprogramm für Nicht-Leichtwasserreaktoren bewilligt, die schon bald einsatzbereit sein könnten. Auch Schmelzsalz- und Thoriumreaktoren sind im Kommen.

Das sind bedeutende Perspektiven – seien sie nun durch die „Klimakrise“ oder andere Gründe angetrieben. Und während einige weiterhin behaupten, Kernkraft sei „eine Bedrohung für Gesundheit und Sicherheit“, kommen das Team Biden-Harris, der Kongress, echte Umweltschützer und nachdenkliche Bürger nicht an einer zentralen Realität vorbei: Es ist relativ einfach, fossile Brennstoffe abzusperren und abzuschalten, ohne triftigen Grund. Sie zu ersetzen ist kostspielig und schwierig.

Die alte Kernkraft hat sicherlich ihre Akzeptanz- und Sicherheitsprobleme, obwohl selbst bei den am meisten publizierten Unfällen in Tschernobyl und Fukushima nur sehr wenige Menschen starben, wenn überhaupt welche. Moderne Kernkraftwerke werden weitaus bessere, sicherere, kostengünstigere und zuverlässigere Quellen für reichlich vorhandenen, bezahlbaren (CO2-freien) Strom sein.

Darüber hinaus bringt die pseudo-erneuerbare Energie ihre eigenen Probleme mit sich: Millionen von Turbinen, die weit höher sind als das Washington Monument; Milliarden von Paneelen, die sich über Dutzende oder Hunderte von Quadratkilometern ausbreiten; Tausende von 1200-Pfund-Batteriemodulen in Lagerhäusern, die nur darauf warten, monströse Feuer zu entfachen; Minen in China und der Dritten Welt, voll von Landzerstörung, Verschmutzung, Vergiftung und Menschenrechtsverletzungen. Es gibt nichts umsonst.

[Originally posted on Townhall]

Link: https://www.heartland.org/news-opinion/news/two-nuclear-options

Übersetzt von Chris Frey EIKE




Man bereite sich auf Energie-Verknappung, Kostenex­plosionen und Rationierung vor!

Warum sollte man mir glauben?

Ganz einfach, weil Amerikas jüngst herrschende politische Partei bereits ein Schnellzug-Zewrschlagungs-Programm initiiert hat, um 80 % der reichlich vorhandenen und zuverlässigen Kohlenwasserstoff-Energie abzuschalten und durch den Ausbau der 5 % zu ersetzen, die derzeit von anämischem, intermittierendem Wind- und Solarstrom bereitgestellt werden.

Darüber hinaus wird der Plan die Stromnachfrage und -kosten durch die Abschaffung der meisten mit Erdöl betriebenen Fahrzeuge zugunsten von stark vom Steuerzahler und Verbraucher subventionierten Plug-in-Modellen enorm erhöhen.

Wenn es zu den unvermeidlichen Stromengpässen kommt, wird es mit Sicherheit zu Rationierungen kommen.

Und man kann seine letzte Glühbirne darauf verwetten, dass es sehr ernst gemeint ist.

An seinem ersten Tag im Oval Office kappte Präsident Biden die Keystone XL-Pipeline an der kanadischen Grenze zusammen mit etwa 11.000 Arbeitsplätzen und 830.000 Barrel Öl pro Tag, die sie geliefert hätte, die nun durch den viel teureren Transport via Eisenbahn und LKWs ersetzt werden müssen.

Als Teil seiner 2 Billionen Dollar schweren „Equitable Clean Energy Future“-Agenda hat Präsident Biden versprochen, Amerika erneut auf das Pariser Klimaabkommen von 2015 zu verpflichten: die Beseitigung von Kohlenstoffemissionen aus der Elektrizität bis 2035 und die Umstellung von Öl, Erdgas und Kohle, um bis 2050 „Netto-Null-Kohlenstoff“-Emissionen zu erreichen.

Kurz gesagt, die Biden-Agenda wird eine Energieressource beenden, die über 200 Milliarden Dollar an Investitionen in neue Fabriken stimuliert, Millionen von Arbeitsplätzen geschaffen, lebenswichtige Bundes- und Staatseinnahmen erzeugt, das Handelsdefizit um mehrere hundert Milliarden Dollar reduziert und Amerikas politische Flexibilität und Einfluss gegenüber ausländischen Gegnern und Verbündeten gleichermaßen erweitert hat.

Dies geschieht, während China und Indien, die 80% der Emissionssteigerungen ausmachten und nicht an den Pakt gebunden sind, die Entwicklung von Kohle und Öl dramatisch vorantreiben.

In der Zwischenzeit werden andere Exekutivmaßnahmen die US-Öl- und Gasproduktion einschränken, die unser Land kürzlich energieunabhängig gemacht haben, indem neue Öl- und Gaspachtverträge auf öffentlichem Land und in öffentlichen Gewässern gestrichen werden.

Joe Biden wird seine Kabinettsernennungen mit radikalen Klimaaktivisten vorladen, die ermächtigt sind, großen regulatorischen Einfluss auf jeden wichtigen Sektor des amerikanischen Wirtschafts- und Soziallebens auszuüben.

Der ehemalige Außenminister John Kerry, der die Biden-[Bernie]Sanders „Unity Task Force on Combatting the Climate Crisis and Pursuing Environmental Justice“ [etwa: Sondereinheit zum Bekämpfen der Klimakrise und der Schaffung von Umwelt-Gerechtigkeit] mit geleitet hat, wird in eine neu geschaffene Kabinettsposition als „Klimabeauftragter“ für internationale Diplomatie berufen werden.

Der ehemalige Bürgermeister von South Bend, Indiana, und demokratische Präsidentschaftskandidat Pete Buttigieg wurde nominiert, Bidens Transportminister zu werden. Auf Buttigieg’s Kampagnen-Website verkündete er, dass er würde bis 2035 „Null-Emissionen für alle neuen Fahrzeuge vorschreiben werde.“

Nicht erklärt wird, wie man all diese zusätzlichen Plug-ins nachts auflädt, wenn die Sonne nicht scheint und der Wind nicht weht.

Die ehemalige Gouverneurin von Michigan, Jennifer Granholm, Joe Bidens Wahl zur Energieministerin, wird mit der Verantwortung betraut, sein Wahlversprechen einzulösen, 550.000 Ladestationen für Elektrofahrzeuge zu bauen, als Teil seines Plans zur „Bekämpfung des Klimawandels“ – obwohl dieser im Gange ist, seit unser Planet erstmals eine Atmosphäre hatte.

Per Anordnung vom 27. Januar wird offiziell ein Büro für Klimapolitik im Weißen Haus eingerichtet, das von der „Klimazarin“ Gina McCarthy geleitet wird, die zuvor die EPA der Obama-Biden-Regierung leitete. Neu erschafft wird auch ein White House Environmental Justice Interagency Council und ein White House Environmental Justice Advisory Council [etwa: Beratungsgremien für Umwelt-Gerechtigkeit].

Was genau umfasst also „Umweltgerechtigkeit“?

Eine weitreichende Direktive des Präsidenten fordert stärkere Maßnahmen zum Schutz der öffentlichen Gesundheit und der Umwelt und zieht die Verschmutzer zur Verantwortung, einschließlich derer, die „unverhältnismäßig viele farbige und einkommensschwache Gemeinden schädigen“.

Und wer kann dem wirklich widersprechen? Niemand will Luft-, Land- oder Wasser-„Verschmutzung“, die eigentlich nichts mit einem verantwortungsvollen, sauberen Umgang mit Kohlenwasserstoff-Brennstoffen oder der Produktion von atmosphärischem CO2, der natürlichen Pflanzennahrung zu tun hat.

Weniger als 24 Stunden nach seiner Amtseinführung begrüßte Biden auch die Professorin für Recht und Rassengerechtigkeit Shalanda Baker in seiner Regierung als stellvertretende Direktorin für „Energiegerechtigkeit“ im Energieministerium.

Laut der gemeinnützigen Initiative für Energie-Gerechtigkeit bezieht sich Energie-Gerechtigkeit, ähnlich wie Umwelt-Gerechtigkeit, auf „das Ziel, Gerechtigkeit bei der sozialen und wirtschaftlichen Teilhabe am Energiesystem zu erreichen und gleichzeitig die sozialen, wirtschaftlichen und gesundheitlichen Belastungen derjenigen zu beseitigen, die durch das Energiesystem unverhältnismäßig stark geschädigt werden.“

Noch einmal: Wer würde irgendjemandem Energiegerechtigkeit verweigern wollen, ganz besonders den unverhältnismäßig benachteiligten Bevölkerungsgruppen mit niedrigem Einkommen aller Rassen? Ich hätte gedacht, dass der größten Gerechtigkeit dadurch gedient ist, dass die Energiekosten gesenkt und der Wohlstand für alle erhöht wird … also das direkte Gegenteil von dem, was die Agenda von Biden vorgibt.

Einen Vorgeschmack der kommenden Ereignisse konnte man erleben, als während einer Hitzewelle im Jahr 2020 Stromausfälle in kalifornischen Städten und Gemeinden auftraten, weil nukleare und fossile Kraftwerke vom Netz genommen worden waren.

Kalifornien führt bereits die Nation an mit dem unzuverlässigsten Stromsystem und der größten Anzahl an jährlichen Stromausfällen an … 4.297 von solchen wurden zwischen 2008 und 2017 verzeichnet. Und alles sich nur noch weiter verschlechtern, da der Staat nun vorschreibt, dass alle neuen Häuser fast vollständig elektrisch sein müssen. Mehr als 30 Städte, darunter auch San Francisco, haben bereits Verbote für neue Gasgeräteanschlüsse erlassen. Kalifornien plant, Benzin- und Dieselautos endgültig zu verbieten.

Es gibt keinen Grund für irgendjemanden im energiereichen Amerika, von erschwinglicher Energie ausgeschlossen zu werden, um den Planeten „vor einem unmerklichen Anstieg der Erwärmung um 0,06° Celsius zu retten, basierend auf hypothetischen Computermodellen des IPCC, die eine um das Zwei- bis Dreifache zu starke Erwärmung als beobachtet prophezeien.

Auch sind weder Solar- noch Windenergie ökologisch „sauberer“ als Kohlenwasserstoffe, wenn man den Abbau und die giftigen seltenen Erden, die zu ihrer Herstellung benötigt werden, berücksichtigt.

Künstliche Energieknappheit unter der Prämisse der Umwelt- und Energiegerechtigkeit wird nur zu Rechtfertigungen für Rationierungen führen, um die Energiearmut gerechter zu verteilen.

Autor: CFACT Advisor Larry Bell heads the graduate program in space architecture at the University of Houston. He founded and directs the Sasakawa International Center for Space Architecture. He is also the author of „Climate of Corruption: Politics and Power Behind the Global Warming Hoax.“

Link: https://www.cfact.org/2021/02/03/prepare-for-energy-shortages-cost-hikes-and-rationing/

Übersetzt von Chris Frey EIKE

 




Die Armen opfern

Vorbemerkung der Redaktion

 

Sehen und hören Sie hier mit Datum vom 10.2.21, wie die amtierende Ministerin für Umwelt Frau Svenja Schulze von den Sozialdemokraten die diesbezüglichen Fragen des Abgeordneten K. Hilse (AfD) beantwortet.

Lassen Sie mich mit ein paar der gefühllosesten und herzlosesten Zitate beginnen, die ich kenne. Hier das erste davon aus Politico:

Der Energieminister von Präsident Barack Obama [Steven Chu] schuf im September 2008 unwissentlich ein dauerhaftes GOP-Gesprächsargument, als er mit dem Wall Street Journal über die Vorteile eines Anstiegs der Benzinpreise über 15 Jahre sprach, um die Energieeffizienz zu fördern.

Irgendwie“, sagte Chu, „müssen wir herausfinden, wie wir den Benzinpreis auf das Niveau in Europa anheben können.“

Und hier ist das zweite Zitat, von Präsident Obama:

Unter meinem Plan eines Cap-and-Trade-Systems würden die Strompreise zwangsläufig in die Höhe schießen, unabhängig davon, was ich darüber sage, ob Kohle gut oder schlecht ist, weil ich die Treibhausgase deckeln werde.“

Als Ergebnis der europäischen Politik sieht die aktuelle Energiepreissituation wie folgt aus:

Kein schönes Bild …

Man bedenke jetzt die Auswirkungen hiervon auf die Armen. Zunächst ist klar, dass die Armen einen viel größeren Teil ihres Einkommens für Energie ausgeben als die Reichen.

Nun, die Energiepreise in Europa sind mehr als doppelt so hoch wie in den USA. Falls sich also die USA verdoppeln würden, um den Fantasien von Minister Chu und Präsident Obama zu entsprechen, würde das reichste Fünftel der Nation nur noch 10% seines Einkommens für Energie bezahlen … aber das ärmste Fünftel der Nation würde fast die Hälfte seines Einkommens für Energie bezahlen. In meinem Beitrag über die Ärmsten „We Have Met The 1% And He Is Us“ habe ich dargelegt:

Diese Leute haben keinen Spielraum. Sie haben keinen zusätzlichen Spielraum in ihren Budgets. Sie haben keine Möglichkeit, Erhöhungen ihrer Lebenshaltungskosten aufzufangen, insbesondere ihrer Energieausgaben. Sie haben keine Kreditkarten, keinen Kredit und fast kein Vermögen. Sie haben keine Krankenversicherung. Sie sind nicht auf Notfälle vorbereitet. Sie haben kein Geld auf der Bank. Sie haben keine Reserve, kein Polster, keine zusätzliche Kleidung, keine gelagerten Lebensmittel im Keller, keinen Keller für diese Angelegenheit, kein Fett um die Taille, keine Backups, keine Extras jeglicher Art. Sie sind nicht bereit für eine Erhöhung der Preise für Energie oder irgendetwas anderes.

Das Ergebnis all dieser Faktoren ist das, was man „Energiearmut“ nennt. Das bedeutet, nicht genug Energie haben, um das Haus warm zu halten. Oder wenn eine alleinerziehende Mutter mit drei Kindern sind und ihr altes Auto, das sie für den Weg zur Arbeit braucht, schneller Benzin säuft als Ihr Ex-Mann Whiskey getrunken hat … wenn sich also die Benzinpreise verdoppeln, werden ihre Kinder auf etwas Wichtiges verzichten müssen. Das ist der Punkt, an dem Familien in Kälte und Dunkelheit sitzen und zittern, weil sie Ihre Energierechnungen nicht bezahlen können.

Und da sagt eine Studie des Jacque Delors Instituts (Hervorhebung von mir):

In diesem Winter 2020-2021 sind Hunderte von Millionen Europäern gezwungen, zu Hause zu bleiben, weil Abriegelungen und Ausgangssperren verhängt wurden, um die Ausbreitung von COVID19 einzudämmen. Für Millionen von ihnen bedeutet dies, dass sie in schlecht beheizten Häusern bleiben müssen, was sowohl unbehaglich ist als auch eine Bedrohung für ihre eigene Gesundheit darstellt.

Dieses Strategiepapier gibt einen Überblick über den Stand der Energiearmut in der Europäischen Union (EU) und die Art und Weise, wie dieses Problem derzeit von den Mitgliedsstaaten und der EU angegangen wird. Auch wenn es den Anschein hat, dass die Energiearmut in den letzten Jahren generell zurückgegangen ist, gab es 2019 immer noch über 30 Millionen Europäer, die angaben, ihre Wohnung im Winter nicht angemessen heizen zu können.

Dreißig Millionen Europäer, viele von ihnen Rentner, viele von ihnen Kinder, alle von ihnen arm, sitzen in ungeheizten Häusern … das ist ungefähr die Bevölkerung von Kalifornien. Oder für die Leute auf der anderen Seite des großen Teichs: Das ist ungefähr die Bevölkerung von Ungarn, Österreich und der Tschechischen Republik zusammen. Laut dem Bericht sind Bulgarien, Litauen, Griechenland, Portugal und Zypern die Länder mit dem höchsten Anteil der Bevölkerung, die ihre Häuser nicht heizen können.

Nun, es gibt ein altes Sprichwort: „Ohne Fleiß kein Preis.“ Ich denke, das ist verrückt, denn ich habe schon problemlos viele Gewinne erzielt. Aber falls es schwierig ist, sollte es zumindest einen Gewinn geben, der damit einhergeht. Also … wollen wir uns den vermeintlichen Gewinn in der Frage der CO2-Emissionen ansehen?

Ich meine, all diese Länder haben sich dem Pariser Klimaabkommen angeschlossen, sie alle sind den Theorien von Präsident Obama und Minister Chu gefolgt und haben ihre Energiepreise durch die Decke getrieben, um die Treibhausgase zu reduzieren, also muss es am Ende des Tages doch einen echten Gewinn bei den Pro-Kopf-CO2-Emissionen geben, oder?

Na dann schauen wir mal:

Dreißig Millionen Europäer frieren im Winter, können ihre Häuser nicht heizen, und wofür?

Für nichts. Null. Nix. Diddley-squat. Nichtssagend. Null. Nada. Rien. Nichts. Nicht eine Sache.

Obwohl Europa weit verbreitete Energiearmut schafft, obwohl die USA nicht im Pariser Abkommen sind, haben die USA die Emissionen mehr reduziert als jedes der oben genannten Länder. Europa verurteilt alte Menschen und Kinder dazu, im Dunkeln und in der Kälte zu zittern, und das für absolut keinen einzigen Gewinn.

Sehen Sie, ich glaube nicht, dass CO2 der geheime Knopf ist, der das Klima steuert. Ich denke, das ist eine vereinfachende wissenschaftliche Falschdarstellung eines sehr komplexen Systems. Infolgedessen denke ich, dass der „Krieg gegen CO2“ ein destruktives, kostspieliges und sinnloses Unterfangen ist.

[Hervorhebung vom Übersetzer]

Aber vielleicht glauben Sie ja, dass das Klima, eines der komplexesten Systeme, die wir je zu analysieren versucht haben, nur von einem der Hunderte von verschiedenen Faktoren beherrscht wird, die das System beeinflussen. Falls ja, nehme ich an, dass Sie die europäischen Maßnahmen für gerechtfertigt halten, weil Sie glauben, dass Sie den armen Menschen im Jahr 2050 oder 2100 helfen werden.

Also … falls das Ihre Motive sind, bitte ich Sie, ich flehe Sie an, ich beschwöre Sie, führen Sie Ihren Krieg gegen CO2 nicht, indem Sie die Armen von heute unter die Erde bringen!

Denn ich kann Ihnen versichern, dass es ein Verbrechen gegen die Menschlichkeit ist, den Armen von heute zu schaden und damit vermeintlich den Armen von morgen zu helfen, eines, das Sie auf keinen Fall auf dem Gewissen haben wollen.

Link: https://wattsupwiththat.com/2021/02/05/shafting-the-poor/

Übersetzt von Chris Frey EIKE

 




Neue Analyse: Bevölkerungsdichte korrumpiert die US-Temperatur-Aufzeichnungen

Die Veröffentlichung dieser Studie löste einen Sturm der Kritik aus, wie schlecht der „offizielle“ Temperaturrekord ist, weil ich herausfand, dass etwa 90% der Wetterstationen in den USA durch städtische Einflüsse beeinträchtigt sind, die ihre Messungen beeinflussen. Im Dezember 2015 demonstrierte ich auf dem Kongress der American Geophysical Union, dass die langfristigen Temperaturtrends dieser kompromittierten Stationen deutlich höher* waren als die von Stationen, die ordnungsgemäß gewartet wurden, und dies wurde durch ein NOAA-Experiment und eine Studie unterstützt, die 2019 veröffentlicht wurde und zeigte, dass schlechte Wetterstationsstandorte zu einer künstlichen langfristigen Erwärmung führen.

[*In deutscher Übersetzung beim EIKE hier]

Jetzt sind weitere, diese Prämisse unterstützende Beweise aufgetaucht. In einem Artikel auf seiner Website veröffentlicht, schlägt Klimaforscher Dr. Roy Spencer U.S. Erwärmung Trends könnte weitgehend künstlich sein.

In seiner Analyse untersuchte Dr. Spencer einen anderen Datensatz, der von der National Oceanic and Atmospheric Administration (NOAA) verwaltet wird, und fand heraus, dass Wetterstationen, die zur Messung von Klimatrends verwendet werden, niedrigere langfristige Temperaturtrends melden, wenn sie um die Bevölkerungsdichte bereinigt werden:

… die Stationen mit der höchsten Bevölkerungsdichte hatten einen Erwärmungstrend von ~0,25 C/Dekade, wobei der Erwärmungstrend mit abnehmender Bevölkerungsdichte abnahm…“

Er fügt hinzu:

Bezeichnenderweise würde die Extrapolation auf eine Bevölkerungsdichte von Null im Wesentlichen keine Erwärmung in den Vereinigten Staaten während 1973-2011 ergeben. Wie wir sehen werden (unten), sagen offizielle Temperaturdaten, dass dieser Zeitraum einen erheblichen Erwärmungstrend aufwies, der mit der Erwärmung in den Orten mit der höchsten Bevölkerungsdichte übereinstimmt.

Wie kann man dieses Ergebnis anders erklären, als dass zumindest für den Zeitraum 1973-2011 (1) eine falsche Erwärmung an den Stationen mit höherer Bevölkerungsdichte auftrat und (2) die Beweise im Wesentlichen keine Erwärmung unterstützen, falls es keine Menschen (null Bevölkerungsdichte) gegeben hätte, um das Mikroklima um die Thermometerstandorte zu verändern?

Ich behaupte nicht, dass es keine globale Erwärmung gegeben hat (aus welchen Gründen auch immer). Ich behaupte, dass es Beweise für eine falsche Erwärmung in den Thermometerdaten gibt, die entfernt werden müssen.“

Diese Korrelation zwischen der Bevölkerungsdichte und dem Temperaturtrend wurde bereits 1996 von James Goodridge festgestellt, der genau den gleichen Effekt in Kalifornien fand, indem er die Bevölkerungszahl eines Bezirks im Vergleich zu den Temperaturtrends der Wetterstationen untersuchte. Goodridge veröffentlichte eine von Experten begutachtete Arbeit zu diesem Thema im Bulletin of the American Meteorological Society. Seine Grafik verdeutlicht den Punkt:

Quelle: James D. Goodridge: Comments on Regional Simulations of Greenhouse Warming Including Natural Variability , 1996, Bulletin of the American Meteorological Society.

Es ist klar, dass eine höhere Bevölkerungsdichte die langfristigen Temperaturtrends beeinflusst. Dieser „Urban Heat Island“-Effekt (UHI) wurde immer wieder festgestellt und bewiesen, doch die offiziellen staatlichen Temperaturaufzeichner wollen das Problem nicht anerkennen oder richtig angehen. Diese jüngste Analyse von Dr. Spencer legt nahe, dass die staatlichen Aufzeichner das Problem nicht richtig angehen und wahrscheinlich den Fehler durch eine Reihe von schlecht durchdachten statistischen Manipulationen noch vergrößern.

Da sich die Beweise häufen, dass korrumpierte Daten ein falsches Erwärmungssignal liefern, ist es an der Zeit, dass die NOAA, die NASA und andere staatliche Wissenschaftsagenturen ihre schlechten Daten bereinigen und genauere, nicht wärmeverzerrte Temperaturaufzeichnungen präsentieren.

[Hervorhebung vom Übersetzer]

Anthony Watts is a senior fellow for environment and climate at The Heartland Institute. Watts has been in the weather business both in front of, and behind the camera as an on-air television eteorologist since 1978, and currently does daily radio forecasts. He has created weather graphics presentation systems for television, specialized weather instrumentation, as well as co-authored peer-reviewed papers on climate issues. He operates the most viewed website in the world on climate, the award-winning website wattsupwiththat.com

Link: https://climaterealism.com/2021/02/new-analysis-shows-population-density-is-corrupting-u-s-temperature-record/

Übersetzt von Chris Frey EIKE

 




Ein erschreckender Gedanke

Wahrscheinlich dachte er nur, ich sei naiv, denn im Laufe der Jahre sah ich, wie Drohungen gegen mich auftauchten. Da merkte ich immer mehr, dass er sicherlich recht hatte.

Für mich ist das unwirklich. Ich spreche nicht von den Wissenschaftlern auf der anderen Seite, die anderer Meinung sind als ich. Die meisten von ihnen wissen es nicht, aber ich lese ihre Forschung, sehe, woher sie kommen, glaube aber, dass sie die Rolle von CO2 überbewerten. Dafür gibt es Gründe, einer davon ist, dass sie keine Vorhersagen machen, bei denen man das Gesamtbild der Atmosphäre richtig einschätzen kann. Sie sind auf ihr Thema fokussiert und befinden sich in einer Position, in der sie sich nicht zurückziehen können. Das ist der Grund, warum Michael Schellenbergers Buch „Apocalypse Never“ so bemerkenswert ist. Er war mittendrin, und während er wie die meisten von uns glaubte, dass CO2 ein Faktor für das Klima ist (aber in sehr unterschiedlicher Größenordnung), kam er dazu, das zu sagen, was die meisten von uns darüber sagen, wie schädlich das ist. Berücksichtigt man jetzt, dass es keine Gnade von dieser Seite gibt, falls man ausschert, und keine Toleranz von Dissens, dann kann man ermessen, dass es eine Menge Mut dafür braucht.

Es sind also nicht die Wissenschaftler. Es sind die Menschen, die beschlossen haben, dass wir zum Einen unsere Lebensweise ändern müssen. Oder deren Thema es ist, den Planeten retten zu müssen. Ich konkurriere in der Arena der Ideen zum Beispiel mit Leuten, die im College an der Bar gesessen haben (nicht, dass daran etwas falsch wäre), während ich Stunden im Kartenraum der Penn State University verbracht habe, um die Karten über Stürme aus den 30er, 40er und 50er Jahren zu erforschen. Und wenn sie sprechen, offenbaren sie ihre völlige Unkenntnis darüber, wie schlimm das Wetter war und sein kann. Jetzt haben sie die Kontrolle über die Politik und wollen Leute zum Schweigen bringen, die tatsächlich wissen, was los war. Wie es so weit kommen konnte, ist mir unbegreiflich. Wie kann man im Angesicht von COVID oder von hungernden Menschen oder Menschen, die versuchen, ihren Job zu behalten, sagen, dass in 12 Jahren wegen des Klimawandels die Welt untergeht und dass dies das größte Problem ist, das wir haben. Es ist fast unbegreiflich, dass wir uns heute an diesem Punkt befinden.

Ich bitte mich nicht falsch zu verstehen. Die Leute können sagen, was sie wollen, selbst falls es aus Unwissenheit und Arroganz geschieht. Aber dann versuchen, die Leute zum Schweigen zu bringen? Und falls das nicht klappt, drohen sie mit Maßnahmen, die eindeutig gegen unsere Verfassung verstoßen? Wie kann das selbst für den glühendsten Liberalen akzeptabel sein? Vielleicht liegt es daran, dass liberal heute eine falsche Bezeichnung ist, denn liberal bedeutet, dass man ein Freidenker ist, nicht jemand, der den freien Austausch von Ideen einschränken will. Und es ist offensichtlich, dass wir auf einem Weg sind, Dissens zum Schweigen zu bringen, und zwar mit allen Mitteln.

Aber dass es so weit gekommen ist zeigt, wie tief wir als Nation in Bezug auf wahre Freiheit bei der Suche nach der richtigen Antwort in jeder Angelegenheit gefallen sind. Aber es kann und wird wahrscheinlich noch schlimmer werden. Kürzlich hat mich ein anderer Meteorologe darauf angesprochen, dass man in diesem politischen Klima versuchen könnte, mich zum Schweigen zu bringen, unter dem Vorwand, ich würde mit meinen Prognosen Unruhe verbreiten. Wenn es nicht von der Regierung kommt, dann soll man es nicht beachten.

Vielleicht bin ich paranoid, oder doch nicht?

Ich möchte, dass Sie sich diese von uns herausgegebene Prognose der Auswirkungen der Hurrikan-Saison im letzten April ansehen.

Dabei nicht vergessen: Dies ist nicht nur eine Auflistung von Zahlen, sondern es sagt den Leuten, wo wir glaubten, dass die Hurrikane hinziehen würden.

[Hervorhebung im Original]

Dies ging also im April heraus:

Und Folgendes war tatsächlich geschehen:

Denken Sie daran, dass es eine Sache ist, Zahlen oder einen ACE-Index [Accumulated Cyclone Energy = Wirbelsturm-Index] zu prognostizieren (was wir auch tun). Eine ganz andere, den Leuten vor der Saison zu sagen, WO sie hinziehen werden!

Niemand in den Medien hat sich dazu geäußert. Aber angesichts des politischen Klimas – was könnte passieren, falls dies das tatsächliche Ergebnis wäre, eine Nicht-Saison wie 1982?

Würde man mich verklagen, weil meine Tätigkeit von der Regierung nicht geduldet wird, weil ich angeblich Panik verbreite und Unruhe schüre? Immerhin wurde meine Graphik veröffentlicht. Sie impliziert, dass die Menschen, die auf diese Prognose bauen, sich danach richten (und meine Kunden unter den Unternehmen tun das auch, um ihre Planungen abzusichern. Falls sich das für sie rechnet, haben sie einen Vorteil. Falls nicht und es öfter vorkommt, wird man mir kündigen). Ich mache alles öffentlich, damit jeder den Erfolg sieht und ich vielleicht noch mehr Kunden gewinne. Aber der Punkt ist: Falls die Saison so nicht stattfand, ist es jetzt so, dass alle, die meine Haltung bzgl. Klima nicht mögen, darauf aus sind, mich zum Schweigen zu bringen – oder Schlimmeres.

Zum Beispiel warnen wir unsere Kunden schon dieses Jahr vor einer großen Tornado-Saison und einem sehr heißen, trockenen Sommer, ähnlich wie in den Jahren 2010, 2011 und 2012. Das ist eine ziemlich gewagte Aussage.

Aber falls es nicht eintritt, würde man mir dann vorwerfen, Panik zu schüren und Unruhe zu stiften?

Oder nehmen wir den derzeitigen Schneesturm [der zu diesem Zeitpunkt {4. 2. 2021} die Ostküste der USA heimsucht, A. d. Übers.]. Jeder, der meine Arbeit verfolgt, bei Twitter oder anderswo weiß, dass wir diesen Schneesturm schon vor über einer Woche avisiert hatten. Bereits vor zwei Wochen hatten wir Schneeräumungs- und Energie-Versorgungsunternehmen auf dieses Ereignis hingewiesen! Am Donnerstag prognostizierte ich 30 bis 40 cm Neuschnee für den Großraum New York City am Montag und Dienstag. Wenn man jetzt weiß, wie viele Menschen die entsprechende Sendung verfolgen und dann anderen Menschen davon berichten, dann habe ich im Grunde 10 bis 20 Millionen Menschen gesagt, dass es zu einem verheerenden Schneesturm kommen werde. Wie es aussieht, haben alle das mit der Zeit verinnerlicht, und der Sturm hielt ja dann auch das, was er versprach. Aber was wäre, wenn das nicht der Fall gewesen wäre? Könnte man mich dann beschuldigen, öffentlichen Unfrieden zu verbreiten? Oder Unruhe zu stiften?

Es ist unglaublich, dass ein Meteorologe oder irgendein anderer Prognostiker Angst haben muss, zum Schweigen gebracht zu werden, falls seine Prognose nicht eintrifft. Das werden die Marktkräfte besorgen, falls man häufig falsch liegt – und falls man an einen freien Markt glaubt. Es ist schwer genug, Vorhersagen zu erstellen, für welche die Leute bezahlen, wenn man bedenkt, dass wir einen großen nationalen Wetterdienst haben, sowie Medien und 1700 private Wetterdienste, die alle miteinander konkurrieren. Aber genau das ist ja Freiheit. Angst macht uns lediglich der Gedanke, dass jemand in einer vom Steuerzahler finanzierten Behörde versucht, andere Meinungen gewaltsam zu unterdrücken – sei es nun bzgl. Wetter, Klima oder was auch immer.

Ist das Paranoia? Bei meinem Freund, dem Ringer im Jahre 2006 hätte ich das gedacht, aber er hat Recht behalten. Und dass ein anderer Meteorologe das anspricht aufgrund dessen, was er da draußen sieht, hat mich zum Nachdenken gebracht. Ich kann nicht glauben, dass es so weit gekommen ist, vor allem bei Wetter und Klima.

Es läuft also darauf hinaus: Ich kann einfach nie falsch liegen. Was eine gute Sache ist, falls Sie mein Kunde sind.

Ich finde Trost in diesem Bibelvers: „…. Vielleicht bist du für eine solche Zeit wie diese gemacht“

Ich vermute, dass das auch auf einige von Ihnen zutrifft, die dies lesen.

Autor: Joe Bastardi is a pioneer in extreme weather and long-range forecasting. He is the author of “The Climate Chronicles: Inconvenient Revelations You Won’t Hear From Al Gore — and Others” which you can purchase at the CFACT bookstore. His new book The Weaponization of Weather in the Phony Climate war can be found here. phonyclimatewar.com

Link: https://www.cfact.org/2021/02/01/a-chilling-thought/

Übersetzt von Chris Frey EIKE

 




Unerwartetes Eis

Paul Holland, ein Klimamodellierer des British Antarctic Survey, hat die letzten zehn Jahre damit verbracht, das Meereis der Antarktis und das Südpolarmeer zu untersuchen. In letzter Zeit hat er die Jahreszeiten der Antarktis unter die Lupe genommen und untersucht, wie schnell das Eis kommt und geht. Holland glaubt, dass diese Jahreszeiten ein Schlüssel zu einem Rätsel sein könnten: Falls die Temperaturen auf der Erde steigen und das Meereis in der Arktis schnell schrumpft, warum nimmt dann das Meereis in der Antarktis langsam zu?

Gegensätzliches an den Polen

Meereis ist einfach gefrorenes Meerwasser. Obwohl es nur in der Arktis und der Antarktis vorkommt, beeinflusst es das Klima der Erde iumr n großem Maße. Seine helle Oberfläche reflektiert das Sonnenlicht zurück ins All. Eisige Gebiete absorbieren weniger Sonnenenergie und bleiben relativ kühl. Wenn die Temperaturen mit der Zeit steigen und mehr Meereis schmilzt, reflektieren weniger helle Oberflächen das Sonnenlicht zurück ins All. Das Eis und das freiliegende Meerwasser absorbieren mehr Sonnenenergie und dies führt zu mehr Schmelzen und mehr Erwärmung.

Diese Szene zeigt eine Mischung von Meereisarten, die im Südlichen Ozean häufig vorkommen. Die unterschiedlichen Stärken des Meereises bilden ein Spektrum von Farben und Formen, das von dunklem, schwarzem, offenem Wasser über eine dünne, fettartige Bedeckung, genannt Fetteis, bis hin zu dickerem, grauem Eis reicht. Älteres Meereis hat eine leuchtend weiße Schneedecke und viele chaotische Deformationsmerkmale, die als Bergrücken und Geröllfelder sichtbar sind und durch die ständige Bewegung des Packeises verursacht werden. (Mit freundlicher Genehmigung von M. Studinger/NASA)

Wissenschaftler haben diese Rückkopplungsschleife von Erwärmung und Schmelzen in der Arktis beobachtet. Für sie ist das arktische Meereis ein zuverlässiger Indikator für ein sich veränderndes globales Klima. Am meisten Aufmerksamkeit schenken sie im September, wenn das arktische Meereis auf seine geringste Ausdehnung pro Jahr schrumpft. Diese minimale Ausdehnung, die seit 1979 von Satelliten gemessen wird, hat bis zu 13,7 Prozent pro Jahrzehnt abgenommen. Das antarktische Meereis hingegen wurde bisher nicht als Indikator für den Klimawandel angesehen. Während das arktische Meereis meist mitten im landumschlossenen Ozean liegt – und damit empfindlicher auf Sonnenlicht und sich erwärmende Luft reagiert – umgibt das antarktische Meereis das Land und ist ständig starkem Wind und Wellengang ausgesetzt.

Laut Klimamodellen sollten steigende globale Temperaturen das Meereis in beiden Regionen schrumpfen lassen. Doch Beobachtungen zeigen, dass die Eisausdehnung in der Arktis schneller geschrumpft ist als von den Modellen vorhergesagt, und in der Antarktis hat sie leicht zugenommen. Die Forscher schauen sich die Antarktis viel genauer an und fragen: „Moment mal, was geht da unten vor?“ Holland ist einer von denen, die fasziniert sind.

„Der Fall Antarktis ist genauso interessant wie der Fall Arktis“, sagte Holland. „Man kann das eine nicht verstehen, ohne das andere zu verstehen.“

Der Umgang mit den Modellen

Für Holland stellt die Diskrepanz Teile der Klimamodelle in Frage. Modellierungsgruppen aus der ganzen Welt arbeiten am Coupled Model Intercomparison Project Phase 5 (CMIP5) zusammen, welches [vermeintlich] das Klima der Erde simuliert und vorhersagt, wie es sich in naher Zukunft verändern wird. Weltpolitiker und Entscheidungsträger verlassen sich darauf, um zu entscheiden, wie stark die Länder den Kohlenstoffausstoß begrenzen sollten, von dem bekannt ist, dass er einige Aspekte des Klimawandels verursacht.

„Fast alle CMIP5-Modelle simulieren eine Abnahme des antarktischen Meereises“, sagte Holland. „Es gibt ein Problem in dem Teil, der die letzten 30 Jahre der Meereis-Variabilität reproduziert.“ Holland war auf der Suche nach Daten, um seine eigene Modellierung der Trends im antarktischen Eis zu verbessern und zu verifizieren, als er bemerkte, dass andere Forscher feststellten, dass die Trends in den verschiedenen Jahreszeiten unterschiedlich stark ausfallen.

Die meisten Studien über Trends im antarktischen Meereis konzentrieren sich auf Veränderungen der Eisausdehnung. Für Holland war es wichtiger, zu untersuchen, wie schnell das Eis von Saison zu Saison wächst oder schrumpft. „Änderungen der Klimaerwärmung wirken sich direkt auf die Geschwindigkeit des Eiswachstums aus“, sagte er, „nicht auf die Menge des Eises.“ Eine Abkühlung von Jahr zu Jahr im Herbst kann zum Beispiel ein schnelleres Eiswachstum im Herbst verursachen, aber nicht unbedingt eine Zunahme der Eismenge im Herbst.

Auf dem Meereis nahe der Scott Base in der Antarktis bildet sich eine Barriere. Dazu kommt es, wenn einzelne Eisschollen zusammenstoßen und sich aufeinander türmen. Oben sind Lenticularis-Wolken zu sehen [sie entstehen häufig im Lee von Gebirgen. A. d. Übers.]. (Mit freundlicher Genehmigung von M. Studinger/NASA)
Frühjahrs-Überraschung

Holland verwendete Daten des National Snow and Ice Data Center Distributed Active Archive Center (NSIDC DAAC) der NASA, um die Wachstumsrate der Eiskonzentration für jeden einzelnen Tag zu berechnen, die er als Intensivierung bezeichnete, und die Wachstumsrate der gesamten Eisfläche, die er als Expansion bezeichnete. „Ich habe das für alle dreißig Jahre an Daten gemacht und die Trends aufgezeichnet“, sagte er. Hollands Diagramme zeigten, dass die verschiedenen Regionen im Südlichen Ozean zum Gesamtanstieg beitrugen, aber sie hatten sehr unterschiedliche Trends im Meereiswachstum. Das deutet darauf hin, dass die Geografie und unterschiedliche Windmuster eine Rolle spielen. Um weitere Erkenntnisse zu gewinnen, untersuchte Holland daher die saisonalen Windtrends für die verschiedenen Regionen.

Holland fand heraus, dass die Winde das Meereis in einigen Regionen ausbreiten und in anderen komprimieren oder intakt halten, und dass diese Effekte im Frühjahr begannen. Dies widersprach einer früheren Studie, in der Holland und Ron Kwok vom Jet Propulsion Laboratory (JPL) der NASA anhand von Daten zur Eisdrift feststellten, dass zunehmende Nordwinde im Herbst die Schwankungen verursachten.

„Ich dachte immer – und soweit ich weiß, dachten das auch alle anderen – dass die größten Veränderungen im Herbst stattfinden müssen“, sagte Holland. „Aber interessant für mich ist jetzt, dass wir uns den Frühling ansehen müssen. Der Trend ist im Herbst größer, aber es scheint, dass er im Frühling entsteht.“

„Paul hat zwei weitere Meereis-Maßzahlen erstellt, mit denen wir beurteilen können, wie das antarktische Meereis reagiert“, sagte die Forscherin Sharon Stammerjohn und bezog sich dabei auf die Maße der Intensivierung und Ausdehnung. Die neuen Maßzahlen helfen dabei zu beurteilen, wie das System reagiert, im Gegensatz zur einfachen Überwachung des Zustands des Systems. „Sagen wir, Ihre Temperatur liegt bei 37,3°C“, sagte Stammerjohn. „Sie haben keinen Einblick in diese Temperatur, es sei denn, Sie messen sie eine Stunde später erneut und sehen, dass sie sich auf 38,3°C verändert hat. Dann können Sie sagen, okay, mein System reagiert auf etwas.“

Die Tafeln oben zeigen saisonale Schwankungen der Meereismengen für jede Region und den gesamten Südlichen Ozean. Die mittlere monatliche Gesamteisausdehnung (b) erreicht ihren Höhepunkt im Herbst, und die mittlere monatliche Gesamteisfläche (a) erreicht ihren Höhepunkt im Winter. Trends von Jahr zu Jahr in der monatlichen Gesamteisfläche (c) zeigen, dass das antarktische Meereis in den letzten dreißig Jahren dazu tendiert, sich im Herbst auszudehnen. Zwischenjährliche Trends in der monatlichen Gesamteisausdehnung (d) zeigen, dass Veränderungen im Eiswachstum im Frühjahr die Veränderung des Eises im darauffolgenden Sommer und Herbst bewirkten. (Mit freundlicher Genehmigung von P. R. Holland)

Partielle Erklärungen

Holland untersucht weiterhin den antarktischen Frühling, um besser zu verstehen, warum sich das antarktische Meereis verändert. Während Hollands Arbeit den Forschern hilft, das Problem im Detail zu sehen, entwickeln Wissenschaftler weiterhin Ideen darüber, warum sich das Eis ausdehnt.

Eine Studie legt paradoxerweise nahe, dass die Erwärmung der Ozeane und das verstärkte Abschmelzen des antarktischen Eisschildes die kleine, aber statistisch signifikante Meereisausdehnung in der Region verursacht. Eine andere Studie deutet darauf hin, dass Regen, der durch ein wärmeres Klima verursacht wird, einen Zustrom von Süßwasser in den Südlichen Ozean verursacht hat, wodurch dieser weniger dicht wird und die ozeanische Wärme daran gehindert wird, das Meereis in der Antarktis zu erreichen. Bis heute gibt es keinen Konsens über den Grund für die Ausdehnung.

„Es wurden teilweise Erklärungen angeboten, aber wir haben kein vollständiges Bild“, sagte Ted Scambos, ein Wissenschaftler am NSIDC DAAC. „Dies könnte einfach ein Fall von ‚wir wissen es noch nicht‘ sein.“

Kaiserpinguine ruhen in der Nähe der Küste in der Antarktis und jagen im nahen Meereis nach Nahrung. (Mit freundlicher Genehmigung von K. Watson)

References

Bintanja, R., G. J. Van Oldenborgh, S. S. Drijfhout, B. Wouters, and C. A. Katsman. 2013. Important role for ocean warming and increased ice-shelf melt in Antarctic sea-ice expansion. Nature Geoscience 6: 376–379, doi:10.1038/ngeo1767.

Cavalieri, D. J., C. L. Parkinson, P. Gloersen, and H. Zwally. 1996, updated yearly. Sea Ice Concentrations from Nimbus-7 SMMR and DMSP SSM/I-SSMIS Passive Microwave Data. Southern Hemisphere. Boulder, Colorado USA: NASA National Snow and Ice Data Center (NSIDC) DAAC.

Holland, P. R. 2014. The seasonality of Antarctic sea ice trends. Geophysical Research Letters 41, doi:10.1002/2014GL060172.

Holland, P. R. and Kwok, R. 2012. Wind driven trends in Antarctic sea-ice drift. Nature Geoscience 5: 872–875, doi:10.1038/ngeo1627.

Holland, P. R., N Bruneau, C. Enright, M. Losch, N. T. Kurtz, R. Kwok. 2014. Modeled trends in Antarctic sea ice thickness. Journal of Climate 27: 3,784–3,801, doi:10.1175/JCLI-D-13-00301.1.

Kirkman, C. H., C. M. Bitz. 2011. The effect of the sea ice freshwater flux on Southern Ocean temperatures in CCSM3: Deep-ocean warming and delayed surface warming. Journal of Climate 24: 2,224–2,237, doi:10.1175/2010JCLI3625.1.

Scambos, T. A., R. Ross, T. Haran, R. Bauer, and D.G. Ainley. 2013. A camera and multisensor automated station design for polar physical and biological systems monitoring: AMIGOS. Journal of Glaciology 59(214): 303–314, doi:10.3189/2013JoG12J170.

Stammerjohn, S., R. Massom, D. Rind, and D. Martinson. 2012. Regions of rapid sea ice change: An interhemispheric seasonal comparison. Geophysical Research Letters 39, L06501, doi:10.1029/2012GL050874.

Weitere Informationen

NASA National Snow and Ice Data Center Distributed Active Archive Center (NSIDC DAAC)

Link: https://wattsupwiththat.com/2021/02/01/unexpected-ice/

Übersetzt von Chris Frey EIKE




Wie viel globale Erwärmung sollte der nächste IPCC-Report prophezeien?

Wie Monckton von Brenchley et al. (2015) in einer Studie für die Chinesische Akademie der Wissenschaften im Jahr 2015 betonten, braucht man kein komplexes, milliardenschweres Computermodell, das bei jedem Einschalten den Stromverbrauch einer Kleinstadt verschlingt und ein Dutzend Eisbären umfallen lässt, falls man nur die ECS berechnen will. ECS ist ein nützlicher Standardmaßstab, weil der verdoppelte CO2-Antrieb ungefähr dem gesamten anthropogenen Antrieb entspricht, den wir in diesem Jahrhundert bei einem Business-as-usual-Szenario erwarten könnten. Diese Studie wurde übrigens von der Website der Zeitschrift der Chinesischen Akademie häufiger heruntergeladen als jedes andere in ihrer 60-jährigen Geschichte, und zwar um eine ganze Größenordnung.

Hier ist ein praktischer ECS-Rechner zum Selbermachen, der auf den neuesten Daten basiert:

Das IPCC (1990) hatte eine mittelfristige anthropogene Erwärmung von 0,34 K pro Dekade simuliert. In der Realität jedoch beträgt der Least-Squares-Trend über die 30 Jahre 1991-2020 der mittleren Anomalien in zwei monatlichen Temperaturdatensätzen für die Oberfläche (GISS und HadCRUT) und zwei für die untere Troposphäre (RSS und UAH) 0,2 K pro Dekade, wovon 70 % (Wu et al. 2019), also 0,14 K, auf uns zurückzuführen sind.

Daher hat sich die ursprüngliche mittelfristige Erwärmung der unteren Atmosphäre des IPCC als 2,4-fach überbewertet erwiesen. John Christy (2021) hat kürzlich in einem faszinierenden Online-Vortrag gezeigt (Abb. 1), dass die CMIP6-Modelle die mittelfristige Erwärmung der mittleren Troposphäre ebenfalls um das 2,4-fache überbewertet haben:

Abb. 1: Die 2,4-fache Übertreibung der mittleren Erwärmung der mittleren Troposphäre in den CMIP6-Modellen.

Man kann eine erste grobe Schätzung der mittleren ECS erhalten, indem man die mittlere CMIP6 ECS-Vorhersage von 3,7 K (Meehl et al. 2020) nimmt und durch 2,4 dividiert. Antwort: 1,5 K: nicht genug, um sich Sorgen zu machen.

Um ECS ΔE2 genauer abzuleiten, indem man die Ideen der Studie von der Chinese Academy weiter entwickelt, braucht man nur sieben leicht zugängliche und vernünftig eingeschränkte mittlere Parameter aus dem Mainstream:

1: Der Planck-Sensitivitätsparameter P ist die erste Ableitung der Stefan-Boltzmann-Gleichung: d.h. das Verhältnis der Oberflächentemperatur zum 4-fachen der Albedo-angepassten einfallenden Strahlungsflussdichte über der Atmosphäre (Schlesinger 1988). Somit ist P= 288 / (4 x 241), oder 0,3 K/Wm². Dieser unumstrittene Wert variiert mit der Oberflächentemperatur: aber von 1850 bis zur Verdoppelung des CO2 im Vergleich zur heutigen Temperatur ist er nahe genug an 0,3 und macht damit keinen wesentlichen Unterschied.

2: Der Verdopplungs-CO2-Strahlungsantrieb ΔQ2 wurde in Andrews (2012) mit 3,45 W/m² angegeben, dem Mittelwert von 15 CMIP5-Modellen. Für CMIP6 geben Zelinka et al. (2020) 3,52 W/m² an. Da wir die neuesten Mainstream-Daten verwenden, ziehen wir Letzteren heran.

3: Der exponentielle Wachstumsfaktor H pro Rückkopplungs-Einheit mit der Referenzsensitivität wird hier vorsichtshalber mit dem Wert von 1,07 pro K gleichgesetzt, der in Wentz (2007) als Clausius-Clapeyron-Zunahme der spezifischen Feuchtigkeit bei Erwärmung angegeben wird. Auch diese Größe variiert mit der Temperatur, kann aber über das hier relevante enge Temperaturintervall sicher als konstant angenommen werden. In der Realität wird das exponentielle Wachstum der spezifischen Luftfeuchtigkeit durch die logarithmische Temperaturreaktion auf dieses Wachstum ausgeglichen, und das IPCC (2013) schätzt, dass im mittleren Bereich alle anderen Rückkopplungen sich selbst aufheben. In der Realität gibt es wahrscheinlich nur ein geringes oder gar kein Wachstum der Einheitsrückkopplung unter den heutigen Bedingungen. Doch selbst falls man H = 1,2 annehmen würde, was deutlich über der Realität liegt, würde sich ECS kaum ändern.

4: Der anthropogene Antrieb ΔQ1 von 1850-2020 betrug 2,9 W/m², die Summe des 3,2 W/m² akkumulierten Treibhausgasantriebs und der 0,4 W/m² Ozon-, -0,8 W/m² Aerosol- und 0,1 W/m² Black-Carbon-Antriebe (NOAA AGGI; Gaudel+ 2020; Dittus+ 2020; IPCC 2001, S. 351).

5: Der anthropogene Anteil M der Erwärmung und des Strahlungsungleichgewichts von 1850-2020 betrug 0,7 (Wu et al., 2019; Scafetta 2021). Die Arbeit von Wu hat Gerald Meehl als Co-Autor.

6: Die vorübergehende Erwärmung T1 von 1850-2020 betrug 1,07 K (HadCRUT5: Morice et al. 2020). Basierend auf Wu et al. waren nur 70% davon, also 0,75 K, anthropogen bedingt.

7: Das Energieungleichgewicht ΔN1 der Erde von 1850-2020 berücksichtigt die Verzögerung des Einsetzens der Erwärmung nach einem Forcing. Schuckmann et al. (2020) geben die aktuelle Mainstream-Mittelwertschätzung 0,87 W/m².

Abb. 2: Die sieben Größen für die ECS-Gleichung

Mit diesen sieben Größen (Abb. 2), alle im mittleren Bereich, alle aktuell, alle aus klimatologischen Mainstream-Quellen, kann man nicht nur eine verlässliche mittlere Schätzung des beobachteten ECS direkt ableiten, ohne auf überkomplexe, unzureichend falsifizierbare und fehleranfällige Computermodelle zurückgreifen zu müssen, sondern auch die Vertretbarkeit des derzeit projizierten ECS-Intervalls 3,7 [2,0, 5,7] K (mittlerer Bereich Meehl et al., 2020; Grenzen Sherwood et al., 2020) falsifizieren. Die Berechnungen sind in Abb. 3 dargestellt. Diese einfache Tabelle bedeutet den Untergang für die Profiteure des Untergangs.

Abb. 3. ECS einfach gemacht. Die sieben Eingangsgrößen sind in grün dargestellt.

Wie es funktioniert: Seit 1850 haben wir nun angeblich 170 Jahre lang das Klima beeinflusst. Davor war unser Einfluss vernachlässigbar. Aus den sieben Größen in Abb. 2 lässt sich eine entscheidende Größe ableiten – die Einheitsrückkopplungs-Reaktion, die zusätzliche Erwärmung durch Rückkopplung pro Grad Referenzsensitivität. Damit lässt sich diese Reaktion für den Zeitraum von jetzt bis zur CO2-Verdoppelung mit Hilfe des Exponentialwachstumsfaktors H finden, woraus sich ECS ΔR1 ableiten lässt.

1850-2020: Die Periodeneinheit der Rückkopplungsreaktion U1 ist 1 kleiner als das Verhältnis der Gleichgewichtssensitivität ΔE1 zur Referenzsensitivität ΔR1: d. h. 1 kleiner als das Verhältnis der Periodenerwärmung einschließlich Rückkopplungsreaktion zur Periodenerwärmung ohne Rückkopplungsreaktion).

Die Perioden-Referenzsensitivität ΔR1, die direkte Erwärmung vor Hinzurechnung der Rückkopplung, beträgt 0,865 K, das Produkt aus dem Planck-Parameter 0,3 K W-1 m2 und dem anthropogenen Perioden-Antrieb ΔQ1 von 2,9 W/m².

Die Perioden-Gleichgewichts-Sensitivität ΔE1, die eventuelle Erwärmung, nachdem alle kurzzeitigen Rückkopplungen gewirkt haben und sich das Klima wieder im Gleichgewicht befindet, ist etwas komplizierter. Sie ist das Produkt aus zwei Ausdrücken: dem anthropogenen Anteil M ΔT1 der beobachteten vorübergehenden Erwärmung ΔT1 und dem Energie-Gleichgewichts-Verhältnis.

Das Energie-Ungleichgewichts-Verhältnis ist der periodische anthropogene Antrieb ΔQ1 geteilt durch die Differenz zwischen ΔQ1 und dem anthropogenen Anteil M ΔN1 des periodischen Energie-Ungleichgewichts der Erde ΔN1. Im Gleichgewicht gäbe es kein Energieungleichgewicht: der Divisor und der Dividend wären beide gleich ΔQ1. In diesem Fall wäre ΔE1 gleich M ΔT1. Besteht jedoch (wie derzeit) ein Energieungleichgewicht, wird es auch ohne weiteren Strahlungsantrieb nach 2020 zu einer weiteren Erwärmung kommen, so dass ΔE1 das Produkt aus M ΔT1 und dem Energieungleichgewichtsverhältnis ist: also 0,975 K.

Die Einheits-Rückkopplungs-Reaktion U1, die Rückkopplungs-Reaktion pro Grad der Perioden-Referenzempfindlichkeit, ist 1 kleiner als der Systemverstärkungsfaktor ΔE1 / ΔR1. Er beträgt nur 0,127. Vergleichen Sie diesen einfachen, aus Beobachtungen abgeleiteten Mittelwert mit dem Wert von 3,0, der in der folgenden Passage aus Lacis et al. (2010) impliziert ist, die die fehlerhafte offizielle Position zusammenfasst:

Nicht-kondensierende Treibhausgase, die 25 % des gesamten terrestrischen Treibhauseffekts ausmachen, … sorgen für die stabile Temperaturstruktur, die die gegenwärtigen Niveaus des atmosphärischen Wasserdampfs und der Wolken über Rückkopplungsprozesse aufrechterhält, die die restlichen 75 % des Treibhauseffekts ausmachen“ (Lacis et al., 2010).

2020 auf verdoppeltes CO2:  Wie bei 1850-2020, so bei verdoppelter CO2-Konzentration im Vergleich zu den 415 ppmv im Jahr 2020, beginnen Sie mit der Periode die Referenzsensitivität ΔR2, die direkte Erwärmung vor der Addition jeglicher Rückkopplung. ΔR2 ist 1,054 K. Es ist das Produkt aus dem 0,3 K/Wm² (Planck-Parameter) und den 3,52 W/m² anthropogenen Periodenantrieb ΔQ2.

Als nächstes wird die Rückkopplung berücksichtigt, um ECS ΔE2 zu erhalten. Die Methode besteht darin, die Rückkopplungsreaktion U1 der Einheit 1850-2020 entsprechend dem Exponential-Wachstumsfaktor H zu erhöhen.

Das Einheits-Rückkopplungsverhältnis X ist gleich exp(P ΔQ2 ln H), d. h. exp(ΔR2 ln H), oder, einfacher, aber für Mathematik-Puristen anstößig, HΔR2, was 1,074 ist.

Die Einheitsrückkopplung U2 ist das Produkt aus U1 und X, d. h. 1,136.

ECS ΔE2 ist das Produkt aus der Referenzsensitivität ΔE2 auf verdoppeltes CO2 und dem Systemverstärkungsfaktor U2 + 1, d. h. 1,2 K. Nicht 3,7 K (CMIP6: Meehl et al. 2020). Nicht 3,9 K (CMIP6: Zelinka et al. 2020). Nur 1,2 K mittlere anthropogene globale Erwärmung als Reaktion auf verdoppeltes CO2, oder auf alle anthropogenen Antriebe über das gesamte 21. Jahrhundert. Kein großer „Klimanotstand“ also, oder?

Falsifizierung von ECS-Vorhersagen über das Rückkopplungsverhältnis X: Mit dem Wissen, dass die aus Beobachtungen abgeleitete Einheits-Rückkopplungs-Reaktion U1 für 1850-2020 0,127 betrug, ist es möglich, den Wert von XP abzuleiten, der in jeder ECS-Vorhersage ΔE2P impliziert ist: XP = (XP / ΔR2 – 1). Zum Beispiel impliziert der von Meehl et al. (2020) und Sherwood et al. (2020) vorhergesagte ECS von 3,7 [2,0, 5,7] K impliziert XP auf 20 [7, 35]. Selbst die untere Grenze X = 7 würde unhaltbar suggerieren, dass die Rückkopplungsreaktion pro Grad direkter Erwärmung nach 2020 das absurde Siebenfache der Rückkopplungsreaktion pro Grad vor 2020 beträgt. Der in mehreren extremen Arbeiten vorhergesagte High-End-ECS von 10 K ist noch unmöglicher und impliziert X = 67.

Die Unsicherheiten sind gering, da sich die Klimatologie inzwischen auf die Werte der sieben Schlüsselparameter geeinigt hat, die für die Ermittlung des ECS ausreichen. Würde man die 40 Jahre der etwas schnelleren Erwärmung von 1980-2020 als Berechnungsgrundlage nehmen, statt 1850-2020, würde der mittlere ECS auf nur 1,4 K steigen. Selbst falls die gesamte Erwärmung der Industriezeit anthropogen wäre, würde der ECS nur 2 K betragen, aber es wäre nicht mehr der mittlere ECS auf der Basis der aktuellen Mainstream-Daten.

Was sie falsch verstanden haben: Wie haben sich die Klimawissenschaftler dann jemals vorstellen können, dass die globale Erwärmung etwa dreimal so hoch sein würde, wie es die realen Beobachtungen, die sich in ihren neuesten Midrange-Daten widerspiegeln, einen unvoreingenommenen Untersucher erwarten lassen würden?

Klimamodelle verkörpern den Feedback-Formalismus nicht direkt. Ihre ECS-Vorhersagen spiegeln jedoch den Fehler wider, indem sie eine 2,4-mal höhere mittelfristige, anthropogene Erwärmung zeigen als während der letzten 30 Jahre beobachtet, und sie prophezeien das Dreifache der realistischen mittelfristigen ECS.

Im Jahr 2006, in Vorbereitung auf meinen ersten Artikel über die globale Erwärmung, schrieb ich an den verstorbenen Sir John Houghton, damals Vorsitzender der wissenschaftlichen Arbeitsgruppe des IPCC, um zu fragen, warum man dachte, dass die eventuelle globale Erwärmung etwa das Dreifache der direkten Erwärmung betragen würde. Er antwortete, dass der natürliche Treibhauseffekt – die Differenz zwischen der 255 K Emissions-Temperatur ohne Treibhausgase und der 287 K gemessenen Temperatur im Jahr 1850 – 8 K Referenzsensitivität auf Treibhausgase und 24 K Rückkopplungsreaktion darauf umfasste.

Es war diese Erwartung von 3 K Rückkopplung auf jeweils 1 K direkte Erwärmung, also insgesamt 4 K Erwärmung, die die Modellierer dazu brachte, 3 oder 4 K ECS im mittleren Bereich zu erwarten.

Die Klimatologen hatten vergessen, dass die Sonne scheint (Abb. 4). Was sie übersehen hatten, als sie Mitte der 1980er Jahre die Rückkopplungsformel aus der Regelungstheorie entlehnten war, dass die 24 K vorindustrielle Rückkopplungs-Reaktion nicht nur eine Antwort auf die 8 K direkte Erwärmung durch Treibhausgase war. Ein großer Teil dieser 24 K war eine Reaktion auf die 255 K Emissionstemperatur, die sich auf der Erde auch ohne Treibhausgase eingestellt hätte.

Abb. 4. Wie die Klimaforscher vergaßen, dass die Sonne scheint.

In Wirklichkeit war die vorindustrielle Referenztemperatur die Summe der 255-K-Emissionstemperatur und der 8-K-Referenzsensitivität für vorindustrielle Treibhausgase: also irgendwo in der Gegend von 263 K. Da die 255-K-Emissionstemperatur das 32-fache der 8-K-Referenzsensitivität für Treibhausgase ist, war ein erheblicher Teil der gesamten vorindustriellen Rückkopplungsreaktion von 24 K auf die erstere zurückzuführen, was den Anteil der letzteren entsprechend reduzierte.

Rückkopplung ist eine allgemein gültige Eigenschaft dynamischer Systeme (Systeme, die ihren Zustand mit der Zeit ändern), von elektronischen Schaltkreisen bis zum Klima. Falls und nur falls die gesamte vorindustrielle Referenztemperatur 8 K betrug und es überhaupt keine Rückkopplungsreaktion auf die Emissionstemperatur gab, wäre es zulässig, sich vorzustellen, dass die Rückkopplungsreaktion der Einheit so groß wie 3 war. Selbst dann würde nicht automatisch folgen, dass die Rückkopplungsreaktion der Einheit heute auch nur annähernd so groß wie 3 sein könnte.

Das IPCC wiederholte den Fehler in seinem Fünften Sachstandsbericht von 2013 (AR 5) und wird ihn in seinem bevorstehenden Sechsten Sachstandsbericht (AR 6) erneut begehen. Man definiert „Klima-Rückkopplung“ als Reaktion nur auf Störungen (fünfmal in der Definition erwähnt), schweigt aber über die weitaus größere Rückkopplungsreaktion auf die Emissionstemperatur selbst. Sie sollte ihre mehrtausendseitigen Berichte durch die einzige Monstergleichung (Abb. 5) ersetzen, die die schrittweisen Berechnungen in Abb. 3 zusammenfasst:

Abb. 5: Die Monster-ECS-Gleichung: einfacher, billiger, smarter als jedes Giganten-Klimamodell

Wären Sie bereit, Ihren Namen unter einen Bericht an das IPCC zu setzen, unter dessen Fehlerprotokoll, und es darüber zu informieren, dass ECS grob überbewertet wurde und um Korrektur bitten? Falls ja, kontaktieren Sie mich über das erste Wort meines Nachnamens [at] mail [dot] com und lassen Sie es mich wissen. Denn die neuesten Mainstream-Mitteldaten, auf die sich das IPCC zwangsläufig stützen muss, schließen die schnelle, gefährliche Erwärmung aus, die es so lange, so zuversichtlich, so gewinnbringend, aber so fehlgeleitet vorhergesagt hat.

Link: https://wattsupwiththat.com/2021/02/01/how-much-global-warming-should-ipccs-next-report-predict/

Übersetzt von Chris Frey EIKE

Anmerkungen des Übersetzers hierzu: Auch mit diesem Beitrag zeigt sich, dass Lord Monckton von einer Erwärmungswirkung durch CO2 aujsgeht – wenn gleich auch viel geringer als vom IPCC prophezeit. Nun mehren sich die Zweifel an einer solchen Wirkung immer mehr, was heißt, dass auch Lord Monckton irgendwo einem Trugschluss unterliegen muss. Vielleicht kann ein versierter Kommentator dazu etwas sagen?

 




Genaue Berichterstattung fällt wie Blätter im Herbst

Das gilt besonders dann, wenn die Geschichte mit Hilfe einer Pressemitteilung fabuliert wird, die von Journalisten wortwörtlich übernommen wurde. Vielleicht ist das einer der Gründe, warum so viele Kommentatoren über Klimafragen wie in einem Pamphlet schreiben. Sie verzerren, indem sie viel zu viel vereinfachen, und dann verstärken sie das, was übrig bleibt, über seine wahre Bedeutung hinaus und rechtfertigen es, weil sie eine Schlagzeile gesehen haben.

Natürlich habe ich ein aktuelles Beispiel dafür, und natürlich wird es durch den Guardian gut illustriert. Ihre jüngste Schlagzeile lautete „Climate Change: Crisis making autumn leaves fall earlier, study finds.“ Anderswo tauchte das auch auf, denn die Geschichte stammte aus einer Pressemitteilung, darunter „Inside Climate News“ (Pulitzer-Preis-gekrönte, überparteiliche Berichterstattung über die größte Krise unseres Planeten, heißt es darin ohne einen Hauch von Ironie).

Aus dem Guardian: „Die globale Erwärmung scheint die Bäume dazu zu bringen, ihre Blätter früher abzuwerfen, so eine neue Studie.“ Aus Inside Climate News: „Neue Forschungen zeigen, dass mit der Erwärmung des Planeten die Laubbäume in den gemäßigten europäischen Wäldern ihre Blätter früher abwerfen.“

Scheint einfach zu sein … bis man sich die Original-Forschung ansieht.

Hier ist der relevante Satz bezüglich des Herbstbeginns:

…Vorhersagen von einer zuvor erwarteten 2- bis 3-wöchigen Verzögerung für den Rest des Jahrhunderts reduzierten sich auf eine solche von 3 bis 6 Tagen.

Nun sehe man mir nach, wenn ich ein wenig pedantisch bin, wie es Wissenschaftler und Journalisten sein sollten, aber ein Vorrücken des Herbstes um 3-6 Tage in den nächsten 80 Jahren scheint mir etwas zu sein, das in den saisonalen Schwankungen ziemlich untergehen würde. Nehmen wir die untere Grenze von 3 Tagen Herbstvorlauf in 80 Jahren. Das ist etwa ein Tag alle 27 Jahre. Also wirklich! Können wir feststellen, ob der Herbst nach mehr als einem Vierteljahrhundert einen Tag früher beginnt? Könnten wir sagen, falls er zwei oder drei Tage früher beginnt?

Das ist so ziemlich alles, was es zu sagen gibt. Die Pointe passt nicht zu den Details. Die Schlagzeile „Study finds autumn leaves fall earlier“ gibt eine Nachricht wieder, während die Forschungsarbeit eine Zahl von Tagen bis zum Ende dieses Jahrhunderts angibt. Letzteres ist nicht messbar, ersteres ist irreführend.

Link: https://www.thegwpf.com/accurate-reporting-falls-like-leaves-in-autumn/

Übersetzt von Chris Frey EIKE

 




Enorme Luftmassen­gegensätze und Februar-Kälte 2021 in Teilen Deutschlands – wie unge­wöhnlich ist das?

Der Februar – ein Monats-Extremist?

Mit einer Standard-Abweichung seiner Monatswerte von 2,79 (DWD-Flächenmittel Deutschland 1881 bis 2020) weist der Februar die höchste Variabilität aller Monate des Jahres auf. Auch der seit 1881 wärmste (1990 mit +5,7°C) und die kältesten (1929/1956 mit etwa minus 9°C) fallen in den Februar, müssen sich den „Rekord“ aber mit dem Januar 1940 teilen. Grimmige Februar-Kälte kam immer mal wieder vor:

1929 froren die südliche Ostsee, das Wattenmeer und alle größeren Flüsse zu. Fischerei und Hafenwirtschaft kamen zum Erliegen, es gab ein Massensterben in der Tierwelt; und es wurde gebietsweise „Polarschnee“ beobachtet, welcher nur bei extremsten Minusgraden fällt. In den meisten Teilen Deutschlands herrschte an allen Februar-Tagen Dauerfrost – ein in unseren wechselhaften Wintern sehr seltenes Ereignis. Näheres hier. Ein (leider sehr schlechter) Wetterkarten-Abdruck von 1929 zeigt, warum es damals so kalt war – ein Skandinavien-Hoch hatte sich etabliert:

Abbildung 1: Bodenwetterkarte vom 12.02.1929. Zur Orientierung: Links oben Island, links unten Spanien, rechts unten das Schwarze Meer und das Hoch-Zentrum über Mittelskandinavien. In Deutschland verbreitet Frühtemperaturen von minus 20 bis unter minus 35 Grad. Bildquelle: Beilage 20/1998 zur Wetterkarte (Amtsblatt) des Deutschen Wetterdienstes.

In den 1940ern gab es drei sehr kalte Februare, letztmalig im Hungerwinter 1947.

1956 ähnelte – nach milder Vorwitterung, dem 1929er Februar, man versuchte verzweifelt, mit Dynamit die Eisdecke des Rheins zu sprengen.

1963 fror das einzige Mal im 20. Jahrhundert der Bodensee so zu, dass er gefahrlos betreten und teils gar befahren werden konnte („Seegfrörne“). Selbst in der klirrend kalten „Kleinen Eiszeit“ kam das nur gelegentlich vor.

1986 letztmalig extrem kalter Februar; danach waren die von 1991, 1996, 2003 und 2012 noch mäßig kalt.

Wissenswertes über Luftmassengrenzen

Was eine Luftmasse ist, wird hier und hier erläutert. Bewegt sich eine Luftmasse mehr oder weniger aktiv gegen eine andere, so spricht man von einer Front. Der etwas martialische Begriff entstand unter dem Eindruck des gerade beendeten 1. Weltkrieges sozusagen als „Nebenprodukt“ der in den 1920er Jahren veröffentlichten Polarfront-Theorie des genialen Mathematikers, Physikers und Pioniers der modernen Meteorologie, VILHELM BJERKNES. Es gibt Warm-, Kalt- und Mischfronten („Okklusionen“); alle bewegen sich meist mehr oder weniger zügig in eine Richtung; ein ortsfester Beobachter erlebt ihre diversen Wettererscheinungen (Winddrehung, Wolken, oft auch Niederschläge und mehr oder minder deutliche tageszeitunabhängige Temperaturänderung) meist nur für kaum eine bis wenige Stunden. Doch mitunter treffen zwei annähernd gleich starke Strömungen aufeinander; dann kann jede beliebige Wetterfront über einen Zeitraum von etwa einem bis zu Tagen oder gar Wochen, mehr oder weniger ortsfest werden – eine Luftmassengrenze ist entstanden. In den Tropen mit ihrer Passat- und Monsunzirkulation sind solche stabilen „Wettergrenzen“ sogar klimatisch relevant – bestes Beispiel ist die Innertropische Konvergenzzone, welche, je nach Sonnenstand, stets langsam um den Äquator pendelt; sie spielt auch eine wesentliche Rolle bei den dortigen Regenzeiten („Sommermonsun“). In unseren gemäßigten Breiten mit ihrem wechselhaften „Westwetter“ kommen Luftmassengrenzen eher selten, aber in allen Jahreszeiten vor; am Rande der Polargebiete, wo der Westwind der gemäßigten Breiten und der polare Ostwind aufeinander treffen, sind sie wieder häufiger zu beobachten.

Winterliche Luftmassengrenzen – besonders extrem?

Während im Sommer zwischen Tropen und Polarregion nur ein Temperaturgefälle von etwa 25°C herrscht, sind es im Winter etwa 50 Grad und mehr. Außerdem erwärmt die Sommersonne Kaltluftmassen in der bodennahen Schicht rasch, was den Temperaturunterschied zu subtropischer Warmluft oft stark verkleinert. Nur im Winter können, gerade in den gemäßigten Breiten und am extremsten in Nordamerika, enorme Temperaturunterschiede von manchmal weit mehr als 30°C auf weniger als 500 Km Distanz, entstehen („Blizzard-Lagen“). In Mitteleuropa mindern die relativ warmen Randmeere Ost- und Nordsee sowie die „Riegelstellung“ der Alpen und des Skandinavischen Gebirges zwar die Kontraste, doch sind auch hier schon Temperaturkontraste von um die 30°C auf kaum 500 Km Distanz beobachtet worden, was aber nur unter besonderen Umständen, welche gleich noch erklärt werden, möglich ist.

Luftmassengrenzen und Niederschläge

Ob und in welcher Intensität oder Form Niederschläge an Luftmassengrenzen fallen, hängt neben der Schärfe des Temperaturkontrastes vor allem auch von der Aktivität der Warmluft und der Lage der Luftmassengrenze zum nächsten Höhentrog ab. Liegt sie in der Nähe einer Trog-Vorderseite, so herrscht dort positive Vorticity (aufsteigende Luftbewegung) – die wichtigste Voraussetzung für Niederschläge. Diese Konstellation ist auch der Grund, warum bei den in den letzten Jahrzehnten so häufigen Großwetterlagen Tief Britische Inseln und Trog über Westeuropa Ostdeutschland niederschlagsmäßig benachteiligt war – es lag schon zu weit östlich der Trog-Vorderseite, die aufziehenden Wetterfronten liefen sich, ähnlich wie Wellen am Strand, mit zunehmender Entfernung zum Trog regelrecht tot. Luftmassengrenzen rückseitig eines Troges oder gar unter Hochdruckeinfluss erzeugen meist nur etwas Sprühregen oder Schneegriesel; häufig entsteht an diesen jedoch Nebel und Hochnebel. An einer „idealen“ Luftmassengrenze wie der zu Silvester 1978 konnten (von Süd nach Nord) alle Niederschlagsformen Regen, Gefrierender Regen, Eisregen (Eiskörner) und Schnee, beobachtet werden. Der Gefrierende Regen und der Eisregen setzen aber auf der Südseite eine sehr milde Luftmasse (mS oder wenigstens mPs) voraus, welche beim bodennahen Vordringen der Kaltluft noch eine Weile in mittleren Luftschichten verbleibt. Da besonders die Subtropikluft (meist mS) mehr oder weniger schnell durch Okklusion „verbraucht“ und durch mPs oder gar mP ersetzt wird, fallen die Niederschläge meist im Laufe der Zeit überall als Schnee und nehmen gegen Ende, wenn sich die Kaltluft südwärts durchsetzt, meist auch an Intensität stark ab. Erwähnenswert ist aber noch die orographische Verstärkung der Niederschläge an den Nordostseiten der Berge; außerdem sind im Ost-und Nordseeraum extreme Schneemengen nicht durch die Hebungsvorgänge an der Luftmassengrenze selbst, sondern durch Labilisierung der über das relativ warme Wasser wehenden Kaltluft möglich. Im Gebiet der Großen Seen wird dieses dort häufige Phänomen der schauerartig verstärkten Schneefälle als „Lake Effect Snow“ bezeichnet. In den letzten gut 40 Jahren, also seit dem Extremwinter 1978/79, zeigt sich auch keine auffällige Zunahme der Niederschläge bei Grenzwetterlagen. Gerade die sehr trockenen Regionen Ostdeutschlands sind auf diese Grenzlagen mit ihren oft reichen Niederschlägen dringend angewiesen.

Abbildung 2: Boden- und Höhenkarte vom 14.02.1979, Mittag. Man erkennt den zur südwestlichen Nordsee gerichteten Höhentrog, an dessen Vorderseite (Norddeutschland) Hebung und damit starke Niederschläge begünstigt wurden – die zweite Schneekatastrophe des Winters 1878/79. Bildquelle: wetterzentrale.de, ergänzt.

Extreme Luftmassengrenzen – nur mit bestimmten Zutaten und bei genügend Entwicklungszeit?

Eine Luftmassengrenze über Deutschland kann auch entstehen, wenn die Strömungen eines jeweiligen Hochs über West- und Nordosteuropa in Deutschland aufeinander treffen; aber sie wird dann nie extrem sein. Das westliche Hoch lenkt eher gemäßigte Luft (mP, mSp) heran, das östliche zwar mitunter kalte Festlandsluft (cP), aber der extrem eisigen Nordluft (cA oder xA) ist wegen der dort herrschenden Ost- bis Südostströmung der kürzeste Weg nach Deutschland versperrt:

Abbildung 3 : Wetterlage vom 21. Januar 2006. Das über Norddeutschland liegende Tief trennte mäßig milde Luft (meist mP) im Westen von sehr kalter kontinentaler Subpolarluft im Osten und ging mit nur leichten Schnee- und Regenfällen einher. Diese Lage hatte schon am 17./18. Januar begonnen; und erst am 22. Januar setzte sich überall die Kaltluft durch. Bildquelle: wetterzentrale.de

Das folgende Beispiel der Februar-Situation 2021 zeigt die erforderliche Konstellation für eine scharfe Luftmassengrenze:

Abbildung 4: Vorhersagekarte des GFS für den 6. Februar 2021, 12 Uhr (entspricht der dann eingetretenen Realität weitgehend). Am Rande einer kräftigen, von der Arktis und Grönland nach Südskandinavien reichenden Hochs strömt Arktikluft (cA und xA) direkt in den Ostseeraum. Gleichzeitig gelangte Warmluft aus dem Mittelmeerraum nach Südwestdeutschland; dort setzte sich die Kaltluft zuletzt durch. Entlang der Luftmassengrenze schneite es über der Mitte Deutschlands stark. Bildquelle wetterzentrale.de; ergänzt.

Eine Sichtung der seit 1979 verfügbaren Wetterkarten ergab für fast alle markanten Luftmassengrenzen ein ähnliches Schema wie in Abbildung 4, nämlich als Ausgangspunkt eine oft südliche Westlage bei gleichzeitigem Aufbau eines Hochs über dem Nordmeerraum. Die südliche Westlage ermöglicht es, dass sich nicht zu starke Teiltiefs vom Atlantiktief lösen und Richtung Deutschland ziehen. Sie „liefern“ auf ihrer Südseite die Warmluft und saugen gleichzeitig auf ihrer Nordseite die an der Ostflanke des Hochs zur Ostsee gelangte Arktikluft an. Aber nur, wenn sich dieser Prozess mittels mehrerer Tiefs einige Male über Tage oder gar Wochen wiederholt, entsteht der enorme Temperaturkontrast, denn es braucht Zeit zur Entwicklung des nordöstlichen Kältereservoirs und zur wenigsten leichten Abkühlung der Randmeere. Besonders anhand der Grenzwetterlage 1978/79 und der aktuellen vom Januar/Februar 2021 lässt sich diese Tatsache gut belegen – leichte Variationen inbegriffen.

Die Silvester-Lage von 1978/79 und deren „Schwestern“

In Internet und Literatur finden sich haufenweise Berichte über den „Silvester-Blizzard“ des Jahreswechsels 1978/79. Doch weniger bekannt ist: Es gab knappe 14 Tage eher einen schwachen „Vorläufer“, welcher das Hauptereignis quasi ankündigte und vorbereitete, und mit dem Blizzard Mitte Februar 1979 einen folgenschweren Nachfolger (erneutes Schnee-Chaos über Norddeutschland). Im Folgenden einige Wetterkarten dazu:

Abbildungen 5a bis d: Von oben: 5a: Bodenkarte vom 16.12.1978, 13 Uhr, „Vorläufer“ des Silvester-Blizzards im Advent. Luftmassengrenze (langsam südwärts ziehende Kaltokklusion) über Mitteldeutschland, südlich davon in mPs 4 bis 9 Plusgrade, nördlich xP, bei Schneefall um 0°C. Ganz im Nordosten eine weitere Kaltfront, dahinter xA. 5b: Einen Tag vor Silvester hatte sich die Luftmassengrenze des „Großen Blizzards“ schon voll entwickelt – cA im Norden trifft direkt auf mPs im Süden; Temperaturkontraste über Deutschland fast 30°C. Man achte auf die „Zutaten“: Großes Hoch im Nordmeer-Raum und die kleinen Tiefdruckgebiete etwa entlang des 50. Breitengrades. 5c: Bodenkarte des Februar-Blizzards von 1979. Ganz ähnliche Struktur wie Abb. 5a, aber viel schärfere Temperaturkontraste. 5d: Europa-Höhenwetterkarte zum Februar-Blizzard; man achte wieder auf Nordmeer-Hoch und die Kette der Tiefs im Süden. Bildquellen: Berliner Wetterkarten vom 16. und 30.12.1978 sowie vom 14.02.1979, ergänzt.

Chronik einiger Grenzwetterlagen nach 1979

Hier können – da sonst zu umfänglich – nicht alle Ereignisse erwähnt werden. Es wird auf das Wetterkartenarchiv bei wetterzentrale.de verwiesen.

Anfang Februar 1980 schwächere Grenzlage mit intensiven Schneefällen über Norddeutschland; letztendlich setzte sich die Warmluft durch.

Im schneereichen Dezember 1981 mehrere Ereignisse zur Monatsmitte und an Weihnachten.

Zum Jahresauftakt 1987 markante Grenzwetterlage; sie leitete einen sehr kalten Januar ein.

Anfang Dezember 1988 Grenzwetterlage mit ergiebigem Schnee und Eisregen; es folgte Tauwetter und ein sehr milder Winter.

1994 beendete eine Grenzwetterlage mit Schneefällen um den 24.02. eine kurze Kälteperiode.

Anfang Januar 2003 leitet eine Grenzwetterlage eine kürzere Kälteperiode ein.

Kürzere Grenzwetterlage um den 10. März 2006; sie leitete die letzte Phase des „Märzwinters“ in diesem Kälte-März ein.

Zum Jahreswechsel 2009/10 markante Luftmassengrenze mit Schnee und Eisregen; es folgt der kalte, schneereiche Januar 2010.

Im Winter 2012/13 teils schneereiche Grenzwetterlagen im Dezember und März.

Um den 20. Januar 2014 schwächere Grenzwetterlage im ansonsten sehr milden Winter.

Erste Januar-Dekade 2016 schwächeres Ereignis mit gebietsweisem Eisregen.

Ende Januar/Anfang Februar 2021 markantestes Grenzwetter-Ereignis seit 1979, bei „pendelnder“ Luftmassengrenze über eine Woche anhaltend, bauten sich, beginnend mit dem 28. Januar, starke Temperaturkontraste zwischen dem kalten Nordosten und dem teils extrem milden Südwestdeutschland, auf, welche zeitweilig gut 15°C erreichten; teils ergiebige Schnee-, Regen- und vereinzelt Eisregenfälle. Der in Weimar am 6./7. Februar gefallene Schnee hatte einen leicht gelb-grauen Farbton – er enthielt Sahara-Staub, ein eindeutiger Beleg für die Beteiligung einer subtropischen Luftmasse an diesen Niederschlagsprozessen.

Ursachen der Grenzwetterlagen und der strengen Winterkälte 2021

Sie sollen hier nur kurz erwähnt werden. Wie die vorangehende Aufzeichnung belegt, können Grenzwetterlagen auch in sonst milden, Westlagen-dominierten Wintern auftreten, wahrscheinlicher sind sie aber in solchen mit gestörten Zirkulationsverhältnissen. Neben Störungen in der Stratosphäre (Polarwirbel geschwächt, gesplittet oder gar massive, winterliche Stratosphären-Erwärmung) richtet sich der Blick stets auf die NAO, eine „Luftdruckschaukel“ zwischen Azoren-Hoch und Islandtief (positive NAO-Werte bedeuten oft eine Begünstigung, negative oft eine Schwächung oder gar eine Blockierung der Westlagen – ein Hoch nimmt dann den „Platz“ des Island-Tiefs ein) – wie wir sahen, eine der wichtigsten Voraussetzungen für intensive Luftmassengrenzen. Der Polarwirbel, im Dezember 2020 noch intakt und kräftig, war im Januar 2021 deutlich gestört. Und die NAO bewegte sich im Dezember leicht, im Januar deutlich im negativen Bereich:

Abbildung 6: Überwiegend negative NAO-Werte zwischen Dezember 2020 und Anfang Februar 2021. Im Dezember hatte das, wegen der häufigen Südlagen, keine negativen Temperaturauswirkungen; ab Januar stellte sich dann zunehmende Kälte ein.

Als Ursache dieser markanten Zirkulationsstörungen kommt unter anderem die momentan sehr geringe Sonnenaktivität in Betracht. Der im Vorjahr begonnene 25. SCHWABE-Zyklus schien im Spätherbst 2020 mit einer deutlichen Zunahme der Sonnenflecken-Zahlen an Dynamik zu gewinnen; doch im Laufe der folgenden Monate waren kaum noch Sonnenflecken zu beobachten.

Stefan Kämpfe, Diplom-Agraringenieur, unabhängiger Natur- und Klimaforscher

Redaktionsschluss für diesen Beitrag: 7. Februar 2021




Das Scheitern der Klimamodelle

Abbildung 1: Ergebnisse der CMIP5-Klimamodelle im Vergleich mit Messungen von Wetterballonen (grün). Einzelheiten dazu, warum die Modelle statistisch so falsch sind, können in einer Studie von McKitrick und Chroisty (2018) nachgelesen werden.

In der nächsten Graphik werden die Ergebnisse der neueren CMIP6-Modelle sowohl mit den Ballondaten (hellgrün) als auch mit den Daten der Wetter-Reanalyse (dunkelgrün) verglichen:

Abbildung 2: Modellergebnisse der CMIP6-Modelle im Vergleich zu den Mess-/Beobachtungsdaten.

Die Differenz zwischen den Modell-Simulationen und den Beobachtungen ist statistisch signifikant und zeigt, dass die Modelle unsinnig sind. Ebenso signifikant ist, dass diese Differenz bei den CMIP6-Modellen noch größer ist als bei CMIP5. Folglich zeigen die neueren Modelle noch weniger Übereinstimmung mit der Realität als sein Vorgänger. „Houston, wir haben ein Problem!“

Link: https://wattsupwiththat.com/2021/02/02/climate-model-failure/

Übersetzt von Chris Frey EIKE