1

Beseitigung der AMO

Seine Studie trägt den Titel „Multidecadal climate oscilliations during the past millennium driven by volcanic forcing. Daraus das

Abstract

Frühere Forschungen sprechen für eine interne multidekadische (40- bis 60-jährige) Oszillation, die sich vom Klimarauschen unterscheidet. Neuere Studien haben behauptet, dass diese so genannte Atlantische Multidekadische Oszillation stattdessen eine Manifestation konkurrierender zeitvariabler Effekte von anthropogenen Treibhausgasen und Sulfataerosolen ist. Diese Schlussfolgerung wird durch das Fehlen von robusten multidekadischen Klimaschwingungen in den Kontrollsimulationen der aktuellen Modellgeneration gestützt. Paläoklimadaten zeigen jedoch ein multidekadisches Oszillationsverhalten während der vorindustriellen Ära. Durch den Vergleich von Kontroll- und forcierten „Last Millennium“-Simulationen zeigen wir, dass diese scheinbaren multidekadischen Oszillationen ein Artefakt von Impulsen vulkanischer Aktivität während der vorindustriellen Ära sind, die sich deutlich auf das multidekadische (50- bis 70-jährige) Frequenzband projizieren. Wir kommen zu dem Schluss, dass es keine überzeugenden Beweise für interne multidekadische Oszillationen im Klimasystem gibt.

Mann hat einen Blog-Beitrag über das Papier bei RealClimate

Wow! Auf einen Schlag sind die lästigen Probleme des „Grand Hiatus“ Mitte des 20. Jahrhunderts, die Debatten über die Zuordnung der Erwärmung des 20. Jahrhunderts und die Rolle der multidekadischen internen Variabilität sowie die Schwierigkeit, die jüngste Zunahme der atlantischen Hurrikanaktivität dem AGW zuzuschreiben, alle verschwunden. Brillant! Fast so „brillant“ wie der Hockeystick.

Zufälligerweise habe ich den Entwurf eines Kapitels aus einem Bericht, den ich gerade schreibe, in der Tasche. Ich habe den relevanten Text unten auszugsweise wiedergegeben (ich bitte zu entschuldigen, dass ich keine Links zu den Referenzen habe):

9.Multidekadische Variabilität des Atlantiks

Der Atlantische Ozean ist für die globale Ozeanzirkulation besonders wichtig, da sich im nördlichen Nordatlantik das Nordatlantische Tiefenwasser (NADW) bildet, eine wichtige Komponente der Atlantic Meridional Overturning Circulation (AMOC). Die AMOC umfasst die nordwärts gerichtete Strömung des warmen, salzigen Wassers im oberen Atlantik und die südwärts gerichtete Strömung des umgewandelten, kalten, frischen NADW im tiefen Atlantik, die ein wesentlicher Treiber des beträchtlichen nordwärts gerichteten atlantischen Wärmetransports über den Äquator ist.

Hinsichtlich der Wassertemperatur im Atlantik (SST) wurden multidekadische Schwankungen in räumlicher Größenordnung der Ozeanbecken beobachtet. Die im Atlantik beobachtete großräumige multidekadische Variabilität wird als Atlantic Multidecadal Oscillation (AMO) bezeichnet. Der multidekadische Charakter der AMO unterscheidet sich von der interannualen Ozeanvariabilität, die durch den führenden Modus der atmosphärischen Zirkulations-Variabilität über dem Nordatlantik, die Nordatlantische Oszillation (NAO), verursacht wird. Der Begriff Atlantische Multidekadische Variabilität (AMV) wird oft verwendet, weil die beobachteten multidekadischen Schwankungen im Atlantik möglicherweise keine Oszillation mit einer einzigen Frequenz sind, sondern aus einem breiteren Band niederfrequenter Signale bestehen.

9.1 Index-Definition und Klimatologie

Die Atlantische Multidekadische Oszillation (AMO) ist mit beckenweiten Schwankungen der SST und des Meeresspiegeldrucks (SLP) verbunden. Für die positive AMO-Phase wird dies manchmal als eine fast gleichmäßige Erwärmung des Nordatlantiks dargestellt. Der traditionelle AMO-Index assoziiert die positive AMO-Phase mit einem Muster hufeisenförmiger SST-Anomalien im Nordatlantik mit ausgeprägter Erwärmung im tropischen und Teilen des östlichen subtropischen Nordatlantiks, einem anomal kühlen Gebiet vor der US-Ostküste und warmen Anomalien um die Südspitze Grönlands.

Abbildung 9.1: Index der Atlantischen Multidekadischen Oszillation von 1880 bis 2018

Die letzten 100 bis 150 Jahre der atlantischen SSTs sind durch einen Jahrhunderte langen Nettoanstieg und Perioden multidekadischer Erwärmung und Abkühlung gekennzeichnet. Die Begründung für die Trennung „Trend+AMO“ wird jedoch durch die fehlende Linearität des globalen Erwärmungstrends konterkariert, so dass die Trendbereinigung den AMO-Index verfremdet. Die Nichtlinearität ist besonders ausgeprägt während des Zeitraums 1945-1975, als die globalen SSTs einen leichten Abkühlungstrend zeigten.

Um die mit der Trendbereinigung verbundenen Unklarheiten bei der Formulierung des AMO-Index zu beseitigen, hat Johnstone (2017) einen atlantischen „Arc“-Index formuliert, der auf der führenden Hauptkomponente der nordatlantischen SST-Variabilität (60°N bis 0°, 70°W-0°W) basiert. Der atlantische „Arc“-SST-Index spiegelt die kohärente Variabilität innerhalb eines bogenförmigen Musters auf Beckenebene wider (manchmal als „Hufeisen“ bezeichnet), eine Signatur der AMO, die den tropischen Nordatlantik, die östliche Grenze der mittleren Breiten und einen Großteil des subpolaren Nordens umfasst (Abb. 9.2).

Abbildung 9.2: Das Bogenmuster wird durch die fette schwarze Linie abgegrenzt, die den tropischen Nordatlantik, die östliche Grenze der mittleren Breiten und einen Großteil des subpolaren Nordatlantiks umfasst.  Von Johnstone.

Das Arc-Muster wird als räumliche Signatur der AMO erkannt, die mit der gekoppelten Ozean-Atmosphären-Variabilität identifiziert wird, und ist eng mit einem „Tripol“-Muster der SST-Reaktion auf die NAO verbunden. Der Arc-Index zeigt eine Nettoerwärmung zusätzlich zu der multidekadischen Periode, die als kühle Phase der AMO anerkannt ist (Abbildung 9.3). Da der Arc-Index sowohl die AMO-Variabilität als auch den allgemeinen Erwärmungstrend kombiniert, ist es sinnvoller, ihn als Definition multidekadischer Regime und Verschiebungen zu interpretieren (siehe Abschnitt 9.4).

Der Arc Index (Abbildung 9.3) zeigt abrupte Verschiebungen in die warme Phase in den Jahren 1926 und 1995, die mit der konventionellen AMO-Analyse in Abbildung 9.1 übereinstimmen. Die Analyse von Johnstone zeigt eine Verschiebung in die kalte Phase im Jahr 1971, was sich von der Analyse in Abbildung 9.1 unterscheidet, die die Verschiebung in die kalte Phase im Jahr 1964 anzeigt. Der AMO-Index von Klotzbach und Gray (2008) zeigt ebenfalls eine Verschiebung in die kalte Phase im Jahr 1970 an.

Abbildung 9.3: Zeitreihe des atlantischen Arc-Index‘ von 1880 bis Anfang 2018. Nach Johnstone

9.2 Paläoklima-Rekonstruktionen

Die Kürze der verfügbaren instrumentellen Daten begrenzt unser Verständnis der Atlantischen Multidekadischen Variabilität (AMV). Paläoklima-Proxy-Rekonstruktionen von AMV-bezogenen Signalen, die über die instrumentelle Ära hinausreichen, bieten eine wichtige Grundlage für das Verständnis der Natur und der zeitlichen Stationarität der AMV.

Die jüngste AMV-Rekonstruktion von Wang et al. (2017) unter Verwendung von terrestrischen Proxy-Aufzeichnungen (Baumringe, Eisbohrkerne usw.) über die letzten 1.200 Jahre hat sowohl eine breite räumliche Abdeckung als auch eine hohe zeitliche (jährliche) Auflösung. Wang et al. (2017) fanden heraus, dass große Vulkanausbrüche und solare Einstrahlungsminima kühle Phasen der atlantischen multidekadischen Variabilität induzieren und zusammen etwa 30% der Varianz in der Rekonstruktion auf Zeitskalen größer als 30 Jahre erklären. Sie isolierten die intern erzeugte Komponente der atlantischen multidekadischen Variabilität, die sie als AMO definieren. Sie fanden heraus, dass die AMO den größten Beitrag zur atlantischen multidekadischen Variabilität in den letzten 1.200 Jahren leistet.

[Es folgen drei längere Abschnitte der Beschreibung von Rekonstruktionen von anderen Autoren. Auf deren Übersetzung wird hier der Länge wegen verzichtet. Alle Autoren kommen im Prinzip zu ähnlichen Ergebnissen. A. d. Übers.]

9.3 Klima-Dynamik

Trotz anhaltender Debatten über die Klimadynamik der AMV wird allgemein akzeptiert, dass die AMV eine komplexe Verschmelzung von natürlicher interner Variabilität der atlantischen meridionalen Umwälzzirkulation (AMOC), natürlichem stochastischem Rot-Rauschen des Ozeans durch die Atmosphäre (hauptsächlich die NAO) und externem Antrieb durch vulkanische Ereignisse, Aerosolpartikel und Treibhausgase darstellt.

9.3.1 Die AMO

Die Atlantische Multidekadische Oszillation (AMO) ist der prominenteste Modus der multidekadischen atlantischen Variabilität; die physikalischen Ursprünge der AMO bleiben jedoch ein Thema anhaltender Debatten. Die beobachteten SST-Änderungen der AMO werden seit langem auf langsame Variationen des nordwärts gerichteten Wärmetransports im oberen Ozean durch die AMOC zurückgeführt. Ozeanische Prozesse bieten einen plausiblen Mechanismus für große multidekadische Klimaschwankungen; solche Schlussfolgerungen basieren aufgrund der kurzen Aufzeichnung der AMOC-Zirkulation, die erst 2004 beginnt, weitgehend auf Klimamodell-Simulationen.

Es wurden mehrere zusätzliche Hypothesen für AMV-Prozesse vorgeschlagen. Es wurde angenommen, dass anthropogene Aerosole eine Hauptursache für die beobachtete AMV sind. Das Argument ist, dass ein Anstieg des linear verzögerten AMV-SST-Indexes durch den erhöhten abwärts gerichteten kurzwelligen Strahlungswärmefluss erzwungen wird, der durch die abnehmenden anthropogenen Aerosole durch ihre Wechselwirkung mit Wolken induziert wird. Der beobachtete Rückgang des subpolaren AMV-SST-Signals in der letzten Dekade steht jedoch im Widerspruch zu der kürzlich beobachteten Veränderung (eine leichte Abnahme) der anthropogenen Aerosole über der nordatlantischen Region. Wie von Zhang et al. (2019) zusammengefasst, widerspricht die Hypothese, dass Änderungen des externen Strahlungsantriebs ein Haupttreiber der AMV sind, vielen beobachteten Schlüsselelementen der AMV.

[Diese Problematik wird naturgemäß ebenfalls von mehreren anderen Autoren untersucht. Deren Zusammenfassungen werden hier der Ähnlichkeit der Ergebnisse wegen nicht mit übersetzt. A. d. Übers.]

Alles in allem ist die kombinierte Wirkung von NAO und EAP [= East Atlantic Pattern] für einen unregelmäßigen und gedämpften Modus der Variabilität der AMOC/AMV verantwortlich, der etwa 35-40 Jahre zum Aufbau und etwa 15-20 Jahre zum Abbau benötigt. Zusätzlich zur direkten NAO-/EAP-Wirkung wird die Beendigung von AMOC/AMV-Ereignissen auch durch die Advektion von anomalem Süßwasser aus dem subtropischen nordatlantischen Becken entlang der mittleren westlichen Grenzozeanzirkulation und auch aus der Arktis aufgrund des beträchtlichen Eisvolumenverlusts in Verbindung mit den insgesamt wärmeren atmosphärischen Bedingungen bei erhöhter AMOC induziert.

Abbildung 9.8:Schematisches Diagramm für ein Positiv-Ereignis von AMOC/AMV. Nach RuprichRobert und Cassou (2014)

Aktualisierung: Eine ausgezeichnete neue Publikation der American Meteorological Society bestätigt im Wesentlichen meine Ergebnisse.

9.4 Verschiebungen in jüngerer Zeit

Wie von Robson et al. (2012) zusammengefasst, erfuhr der subpolare Wirbel des Nordatlantiks Mitte der 1990er Jahre eine bemerkenswert schnelle Erwärmung, wobei die Wassertemperatur in nur 2 Jahren um etwa 1,8°C gestiegen war. Diese schnelle Erwärmung folgte auf eine lang anhaltende positive Phase der Nordatlantischen Oszillation (NAO), fiel aber auch mit einem ungewöhnlich negativen NAO-Index im Winter 1995/96 zusammen. Durch den Vergleich von Ozeananalysen und sorgfältig entworfenen Modellexperimenten zeigten sie, dass diese schnelle Erwärmung als eine verzögerte Reaktion auf die verlängerte positive Phase der NAO verstanden werden kann und nicht einfach als eine sofortige Reaktion auf den negativen NAO-Index von 1995/96. Außerdem folgerten sie, dass die Erwärmung teilweise durch einen Anstieg und anschließenden Rückgang der meridionalen Umwälzzirkulation und des nordwärts gerichteten Wärmetransports des Atlantiks verursacht wurde.

Robson et al. (2016) zeigten, dass sich seit 2005 ein großes Volumen des subpolaren Nordatlantiks deutlich abgekühlt hat und damit der vorherige Erwärmungstrend umgekehrt wurde. Durch die Analyse von Beobachtungen und einem hochmodernen Klimamodell zeigten sie, dass diese Abkühlung mit einer Abnahme der Stärke der Ozeanzirkulation und des Wärmetransports konsistent ist, die mit rekordverdächtig niedrigen Dichten in der tiefen Labradorsee verbunden ist. Die geringe Dichte in der tiefen Labradorsee ist in erster Linie auf die Erwärmung des tiefen Ozeans seit 1995 zurückzuführen, aber auch eine langfristige Auffrischung spielte eine Rolle. Sie schlossen daraus, dass die beobachtete Abkühlung einer großen Region des oberen Nordatlantiks seit 2005 nicht als direkte Reaktion auf Veränderungen der atmosphärischen Zirkulation im gleichen Zeitraum erklärt werden kann.

Johnstone (2017) beschreibt ein „coupled shift model“ des niederfrequenten nordatlantischen Klimawandels, das auf abrupten Übergängen zwischen quasi-stabilen Wassertemperaturen und gekoppelten atmosphärischen Zirkulationen basiert. Diese Hypothese beschreibt wiederkehrende stufenförmige Änderungen der nordatlantischen SST, wobei SST-Störungen mit großer Amplitude gelegentlich als anomale multidekadische Klimazustände durch positive Atmosphäre-Ozean-Rückkopplungen aufrechterhalten werden. Es wird der statistische Nachweis erbracht, dass niederfrequente SST-Änderungen keine graduellen Prozesse waren, wie sie üblicherweise beschrieben werden, sondern durch eine Reihe von kurzen, diskreten Ereignissen, gekennzeichnet durch abrupte ~1-Jahres-stufenartige Verschiebungen, die längere multidekadische Perioden mit relativ geringen Veränderungen trennen.

Die starke Erwärmung des Atlantiks Mitte der 1990er Jahre (Abbildung 9.1), die von gefilterten AMO-Indizes als ein allmählicher Prozess dargestellt wird, der sich über ein Jahrzehnt oder länger hinzieht, lässt sich auf einen abrupten und bemerkenswert kontinuierlichen Anstieg der SST auf der Beckenskala zurückführen, der im Oktober/November 1994 begann und im Wesentlichen als +0,8°C SST-Änderung über den größten Teil des Nordatlantiks bis Juli 1995 vollzogen wurde (Abbildung 9.3). Die abrupte Erwärmung von 1994-95 wurde in den folgenden Monaten, in den nächsten Jahren und in den darauffolgenden zwei Jahrzehnten bis zur Gegenwart nicht gebremst und führte schnell zu einem neuen wärmeren Klimazustand*. Die beckenweite Ausdehnung der Verschiebung von 1995 ist an der abrupten Verschiebung der monatlichen SST-Anomalien sowohl über dem subpolaren Nordatlantik (50-60oN) als auch über den subtropischen Rändern von NW-Afrika zu erkennen, die sich fast gleichzeitig erwärmten (Arc Index, Abbildung 9.2).

[*Siehe hierzu auch die Arbeiten von Kämpfe & Kowatsch zum „Temperatursprung“ in Mitteleuropa. A. d. Übers.]

Verschiebungen erscheinen in der jährlichen Arc-SST-Aufzeichnung (Abb. 9.3) als ausgeprägte Jahr-zu-Jahr-Sprünge in den Jahren 1925-26 (+0,5°C), 1970-71 (-0,3°) und 1994-95 (+0,6°), denen eine multidekadische Persistenz ähnlicher Anomalien in Bezug auf die Vorjahre folgte (1926-1970: +0,5°C, 1971-1994: -0,2°C und 1995-2014: +0,5°). In jedem dieser Intervalle fehlt ein signifikanter linearer Arc-SST-Trend, was darauf hindeutet, dass auf große vorübergehende Klimaänderungen eine Restabilisierung der Wärmebilanz des Oberozeans und die Persistenz neuer anomaler Bedingungen über Jahre bis zu mehreren Jahrzehnten folgte. Arc-SST-Änderungen 1926, 1971 und 1995 traten mit moderaten gleichgerichteten Anomalien der Winter (Oktober-März) Niño 3.4 SST auf, was auf eine systematische Rolle von ENSO bei der Erzeugung von niederfrequenten Klimaänderungen im Nordatlantik hindeutet.

Ein spezifischerer regionaler Indikator zeigt sich in der Korrespondenz der SST-Verschiebungen des Bogens mit hochamplitudigen SST-Änderungen vor Nordwestafrika, die im September 1925, August 1970 und November 1994 ihren Höhepunkt erreichten. Westafrikanische SSTs sind eine prominente Komponente des Atlantischen Multidekadischen Modus (AMM), der als Brücke über Zeitskalen hinweg dienen kann, indem er SST-Störungen als anhaltende Klimaanomalien aufrechterhält.

Eine physikalische Implikation des Verschiebungsmodells ist, dass niederfrequente Klimaveränderungen durch gelegentliche Impulse der Wärmeaufnahme und -abgabe des oberen Ozeans auftreten, und nicht durch allmähliche oder kumulative Prozesse.

Die Atmosphäre-Ozean-Bedingungen, die zur Erwärmung von 1994-95 führten, weisen bemerkenswerte Ähnlichkeiten mit der Erwärmung von 1925-26 und (entgegengesetzt) mit der Abkühlung von 1970-1971 auf, was auf die Vorhersagbarkeit größerer Klimaverschiebungen im Nordatlantik hindeutet. Allen drei Ereignissen gingen in den vorangegangenen 2-3 Jahren einzigartig starke Anomalien des Meeresspiegeldrucks (SLP) mit entgegengesetztem Vorzeichen um die Norwegische See innerhalb eines breiteren NAO-ähnlichen Musters voraus. In jedem Fall wies der Übergangswinter moderate ENSO-Bedingungen auf, die die sich entwickelnde Temperaturveränderung begünstigten, und jede Verschiebung zeichnete sich durch extreme lokale SST-Veränderungen vor NW-Afrika aus.

Historisch gesehen waren atlantische Verschiebungen durch extreme kurzfristige SST-Änderungen vor NW-Afrika gekennzeichnet: ein Verhalten, das derzeit nicht zu beobachten ist, da die subtropischen und tropischen Gebiete des Bogens in einem warmen Zustand verbleiben, der 1995 begann. 
Es ist jedoch bemerkenswert, dass die subpolaren SSTs von 50-60N Anzeichen einer abrupten Abkühlung seit 2015 zeigen (Abb. 9.10), ein Verhalten, das auf eine „partielle“ Verschiebung hindeutet, die bald den breiteren Nordatlantik, einschließlich der Tropen, betreffen könnte. Die aktuelle Divergenz zwischen subpolarer und tropischer nordatlantischer SST ist möglicherweise analog zu dem Verhalten, das in den späten 1960er- und frühen 1970er-Jahren zu beobachten war, als die schnelle subpolare Abkühlung 1969-70 dem starken Rückgang der tropischen SST 1971 etwas vorausging. Basierend auf historischen Mustern könnte ein abrupter Wechsel zu kühleren Bedingungen unmittelbar bevorstehen, obwohl die ungewöhnlich lange Zeitspanne von 1926 bis 1970 darauf hindeutet, dass auch eine erhebliche Verzögerung von bis zu 10-20 Jahren plausibel sein könnte.

Abbildung 9.10: Jährliche SST-Anomalien für den subpolaren und tropischen Nordatlantik. Die subpolare SST (blau, 60°-50°N) zeigt einen starken Abfall und anhaltend kühle Bedingungen seit 2015 (20°N- 0°, rot). Eine ähnliche Divergenz um 1970 könnte ein früher Hinweis auf eine Abkühlung des tropischen und breiteren Nordatlantiks in den nächsten Jahren sein.

Inwieweit war die AMO-Verschiebung von 1995 durch Klimamodelle vorhersagbar? Msadek et al. (2014) fassen die dekadischen Vorhersageexperimente zusammen, die mit dem GFDL-Klimamodell durchgeführt wurden. Die Initialisierung des Modells erzeugt eine hohe Kompetenz in der rückwirkenden Vorhersage der Erwärmung Mitte der 1990er Jahre, die von den nicht initialisierten Vorhersagen nicht erfasst wird. Alle Hindcasts, die in den frühen 1990er Jahren initialisiert wurden, zeigen eine Erwärmung des SPG (subpolarer Wirbel); allerdings sind nur die 1995 und 1996 initialisierten Hindcasts im Ensemble-Mittel in der Lage, die beobachtete abrupte Erwärmung und die damit verbundene Abnahme und Kontraktion des SPG zu reproduzieren. Die verbesserte dekadische Vorhersagefähigkeit des Atlantiks wird in erster Linie durch die Initialisierung der AMOC-Anomalien erreicht, anstatt die AMOC-Anomalien in den hohen nördlichen Breiten vorherzusagen.

Bei der Betrachtung einer möglichen zukünftigen Verschiebung in die kalte Phase der AMO ist es lehrreich, die vorherige Verschiebung in die kalte Phase zu betrachten, die in den 1960er und frühen 1970er Jahren stattfand, als sich die Meeresoberflächentemperaturen im Nordatlantik schnell abkühlten. Hodson et al. (2014) wiesen nach, dass die Abkühlung in mehreren unterschiedlichen Phasen verlief:

1964-68: Die anfängliche Abkühlung ist größtenteils auf die nordischen Meere und die Golfstromverlängerung beschränkt. In diesem Zeitraum gibt es keine nennenswerten atmosphärischen Zirkulationsanomalien, abgesehen von einer kleinen niedrigen MSLP-Anomalie über der Arktis im Oktober-Juni.

1968-72: Mit dem Fortschreiten der Abkühlung dehnen sich kühle Anomalien auf einen Großteil des subpolaren Wirbels (SPG) und der nördlichen mittleren Breiten aus. Es gibt einen Hinweis auf niedrige SLP-Anomalien über Nordafrika, aber der auffälligste Hinweis auf Zirkulationsanomalien ist eine antizyklonale Anomalie im Juli-September, die sich über Nordeuropa und nach Asien erstreckt.

1972-76: Die kühlen Anomalien erreichen in dieser Periode ihre maximale Größe und räumliche Ausdehnung. Der westliche Teil des subtropischen Nordatlantiks zeigt keine signifikante Abkühlung, was zu einem Tripol- (oder Hufeisen-) Muster führt. Das Muster der SLP-Anomalien projiziert sich auf die positive Phase der NAO.

9.5 Klimamodell-Simulationen

Viele gekoppelte Klimamodelle simulieren die Atlantische Dekadische Variabilität, die in mancher Hinsicht mit den verfügbaren Beobachtungen übereinstimmt. Die Mechanismen unterscheiden sich jedoch stark von Modell zu Modell, und die unzureichende Beobachtungsdatenbank erlaubt keine Unterscheidung zwischen „realistischen“ und „unrealistischen“ Simulationen (Latif und Keenlyside, 2011). Ruiz-Barradas et al. (2013) untersuchten historische Simulationen der AMO in CMIP3- und CMIP5-Modellen. Die Variabilität der AMO in den Bereichen 10-20/70-80 Jahre wird in den Modellen überschätzt/unterschätzt.

Cheng et al. (2013; 2015) untersuchten die Atlantische Meridionale Umwälzzirkulation (AMOC), die von 10 Modellen aus CMIP5 für das historische und zukünftige Klima simuliert wurde. Das Multimodel-Ensemblemittel der AMOC zeigt eine multidekadische Variabilität mit einer 60-jährigen Periode; alle Einzelmodelle projizieren sich konsistent auf diesen multidekadischen Modus.

Wie die NCA (2017) zusammenfasst, variiert die simulierte AMOC-AMV-Verknüpfung zwischen den gekoppelten globalen Klimamodellen beträchtlich, was wahrscheinlich aus der Streuung der Modellverzerrungen im Mittelwert im Nordatlantik resultiert. Die AMOC-AMV-Verknüpfung hängt von den Amplituden der niederfrequenten AMOC-Variabilität ab, die in Klimamodellen viel schwächer ist als in der realen Welt aufgrund der unterschätzten niederfrequenten AMOC-Variabilität, die die relative Rolle des externen Strahlungsantriebs oder des stochastischen atmosphärischen Antriebs in der AMV verstärkt.

Der Zeitpunkt einer Verschiebung in die AMO-Kaltphase ist nicht vorhersehbar; er hängt bis zu einem gewissen Grad von unvorhersehbaren Wettervariabilitäten ab. Die Analyse historischer und paläoklimatischer Aufzeichnungen legt jedoch nahe, dass ein Übergang in die kalte Phase vor 2050 zu erwarten ist. Enfield und Cid-Serrano (2006) verwendeten paläoklimatische Rekonstruktionen der AMO, um eine probabilistische Projektion der nächsten AMO-Verschiebung zu entwickeln. Die Analyse von Enfield und Cid-Serrano deutet darauf hin, dass eine Verschiebung in die kalte Phase innerhalb der nächsten 13 Jahre stattfinden sollte, mit einer Wahrscheinlichkeit von 50 %, dass die Verschiebung in den nächsten 6 Jahren stattfindet.

Evaluierung der Studie von Mann et al.:

Mit diesem Kontext können Sie sehen, warum ich die Aerosol-Erklärung (Verschmutzung und/oder Vulkane) als Erklärung für die Ursachen der AMO nicht akzeptiere.  Es gibt erhebliche Diskussionen und Meinungsverschiedenheiten in der Klimadynamik-Gemeinschaft zu diesem Thema, was angesichts der offensichtlichen komplexen Wechselwirkungen zwischen den Ozeanzirkulationen und der AMOC, dem Wetter und der interannuellen Klimavariabilität sowie dem externen Antrieb durch die Sonne und Vulkane nicht überraschend ist.

Was genau ist also falsch an Manns Analyse? Er verlässt sich auf globale Klimamodelle, die bei der Simulation der AMO unzureichend sind.  Dies wurde zuletzt von Kravtsov et al. (2018) hervorgehoben, die zu dem Schluss kamen, dass:

„Während die Klimamodelle verschiedene Niveaus der dekadischen Klimavariabilität und einige regionale Ähnlichkeiten mit den Beobachtungen aufweisen, stimmt keine der betrachteten Modellsimulationen mit dem beobachteten Signal in Bezug auf seine Größe, räumliche Muster und ihre zeitliche Entwicklung überein. Diese Ergebnisse unterstreichen ein erhebliches Maß an Unsicherheit in unserer Interpretation des beobachteten Klimawandels unter Verwendung der aktuellen Generation von Klimamodellen.“

Sich auf globale Klimamodelle zu verlassen, die die multidekadische interne Variabilität nicht adäquat simulieren, um zu „beweisen“, dass eine solche multidekadische interne Variabilität nicht existiert, ist ein Zirkelschluss (bestenfalls). Wie kann so etwas in einer Zeitschrift wie Science veröffentlicht werden?  Peer-Review ist sooooo kaputt.

Was Mann in den Klimamodell-Simulationen sieht, ist die kurzperiodische tropische Ausprägung der AMO, die auf den Nordatlantik beschränkt ist – nicht die multidekadische Variabilität, die mit der globalen Oszillation verbunden ist.  Diese tropische Ausprägung kann sehr wohl bis zu einem gewissen Grad durch tropische Vulkanausbrüche erzwungen werden, sagt aber wenig über die globale multi-dekadische Variabilität aus, die von größtem Interesse ist.

Die tatsächliche multidekadische Klimavariabilität wird größtenteils intern generiert, obwohl solare Variationen helfen können, das Tempo zu bestimmen, und große Vulkanausbrüche können die Variationen maskieren oder helfen, eine Verschiebung auszulösen.

Warum ist das wichtig?  Die verschiedenen Phasen der AMO sind verbunden mit: Die Aktivität der atlantischen Hurrikane, die Massenbilanz Grönlands und Witterung, die Nordamerika und Europa beeinflussen (insbesondere Dürren); ganz zu schweigen von der globalen Temperaturänderung.

Aus der Pressemitteilung der Penn State University geht hervor, dass ein Hauptmotiv für die Annullierung der AMO darin besteht, dass Mann die Zunahme der atlantischen Hurrikan-Aktivität seit 1995 dem AGW zuschreiben kann.  Die Annullierung der AMO wird hier nicht viel helfen.  Wie in meinem letzten Beitrag über den AIR-Versicherungssektor-Bericht diskutiert, war die Anzahl der großen Hurrikane (Cat 3+) im Atlantik während der 1950er und 1960er Jahre (frühere warme Phase der AMO) mindestens so groß wie in den letzten beiden Jahrzehnten bei deutlich niedrigeren SSTs.

Ein weiteres zentrales Problem mit der AMO ist, dass die gesamte Beschleunigung des Meeresspiegelanstiegs in den letzten Jahrzehnten von der Grönlandschmelze herrührt, die stark von der AMO beeinflusst wird.

Unter der Annahme, dass sich die Natur weiterhin so verhält, wie sie es in den letzten 8 Jahrtausenden getan hat, werden wir irgendwann (möglicherweise im nächsten Jahrzehnt) eine Verschiebung in die kalte Phase der AMO sehen, mit einer Abschwächung der atlantischen Hurrikanaktivität und des grönländischen Massenverlustes.

Abschließend sei gesagt, dass Manns Bestreben, die mittelalterliche Warmzeit und jetzt die AMO zu annullieren, um zu zeigen, dass die jüngste Erwärmung zu 100% anthropogen ist, für Wissenschaftler, die etwas von Klimadynamik und globalen Klimamodellen verstehen, überhaupt nicht überzeugend ist.

Link: https://judithcurry.com/2021/03/06/canceling-the-amo/

Übersetzt von Chris Frey EIKE

 




Subventionen für Elektro-Fahrzeuge und andere Phantastereien

Manche Menschen verfügen über ein hohes Einkommen und fahren überwiegend lokal. Für sie mag der Kauf eines E-Fahrzeugs eine sinnvolle Wahl sein.

Warum braucht der Rest von uns Vorschriften und Subventionen, um uns zum Kauf von E-Fahrzeugen anstelle von Fahrzeugen mit Verbrennungsmotor (ICE) zu „überreden“? Wer bekommt eigentlich die Subventionen – und wer bezahlt sie? Welche anderen Kosten und unbeabsichtigten Konsequenzen werden ausgeblendet?

Präsident Biden möchte, dass alle neuen leichten und mittelschweren Fahrzeuge, die bis 2035 (oder früher) verkauft werden, EVs sein müssen. Vizepräsident Harris möchte, dass bis 2045 nur noch ZEVs (Zero-Emission-Vehicles) auf Amerikas Straßen fahren. Verschiedene Bundesstaaten haben bereits ähnliche Gesetze verabschiedet oder ziehen sie in Erwägung. Einige würden den Verkauf von neuen Benzin- und Dieselfahrzeugen bis 2030 verbieten.

Ein Tesla Model S Long Range aus dem Jahr 2021 kann nach mehrstündigem Laden ca. 660 km zurücklegen; sein Kaufpreis liegt bei 80.000 $. Ein Model 3 kostet rund 42.000 $, das Model Y mit Allradantrieb 58.000 $. Ähnliche Schockpreise gelten für andere Elektroauto-Marken und -Modelle, die für die meisten Familien unerschwinglich sind. Modelle mit „großer Reichweite“ erreichen diesen Status, indem sie mit teuren, schweren Batterien und langen Ladezeiten ausgestattet sind. Die meisten Elektrofahrzeuge haben eine viel geringere Reichweite.

Um die Auswirkungen auf die Budgets und Freiheiten abzumildern, will Senator Chuck Schumer (Demokraten) 454 Milliarden Dollar ausgeben, um 500.000 neue Ladestationen für Elektroautos zu bauen, Fahrzeuge der US-Regierung durch Elektroautos zu ersetzen und „Abwrackprämien“ zu finanzieren, um zumindest einigen Familien zu helfen, diesen Wandel im Transportwesen zu bewältigen.

Die Politiker werden unter Druck gesetzt, um die Steuergutschrift von 7.500 Dollar pro Auto auf Bundesebene (und die saftigen Steuernachlässe der Bundesstaaten) beizubehalten, die nun auslaufen soll, sobald die kumulierten Fahrzeugverkäufe eines Herstellers seit 2009 200.000 erreichen. EV-Fahrer wollen auch andere Anreize beibehalten: kostenlose Ladestationen, Zugang zu HOV-Spuren* für Plug-Ins mit nur dem Fahrer, und keine Benzinsteuern zahlen zu müssen, die den Bau, die Wartung und die Reparatur von Autobahnen finanzieren, auf denen sie fahren.

[*HOV = High-Occupancy Vehicle. In den USA darf die ganz linke Spur auf Autobahnen nur von diesen Fahrzeugen benutzt werden, d. h. es müssen mindestens zwei oder mehr Insassen darin sitzen. A. d. Übers.]

Es überrascht nicht, dass eine Studie aus dem Jahr 2015 ergab, dass die reichsten 20 Prozent der Amerikaner 90 Prozent dieser großzügigen EV-Subventionen erhalten. Lobbyisten sind für EV-Hersteller und Fahrer eindeutig wertvoller als Ingenieure.

[Hervorhebung vom Übersetzer]

Unter diesem „Robin-Hood-in-Reverse“-System werden die Subventionen von den Steuerzahlern und Generationen ihrer Nachkommen finanziert – darunter auch Millionen von Arbeiter- und Minderheitenfamilien, von denen sich die meisten niemals ein EV werden leisten können.

Jedes Abwrackprämien-Programm wird das Problem noch verschärfen. Indem es ausreichend wohlhabenden Familien ermöglicht, Autos mit fossilen Brennstoffen gegen E-Fahrzeuge einzutauschen, wird es dazu führen, dass Millionen von perfekt fahrbaren Autos und Lastwagen, die auf dem Gebrauchtwagenmarkt gelandet wären, stattdessen geschreddert und verschrottet werden.

Die durchschnittlichen Kosten für ICE-Fahrzeuge werden um Tausende von Dollars steigen, so dass sie selbst für Millionen von Familien mit niedrigem Einkommen unerschwinglich werden, die gezwungen sein werden, Schrott zu kaufen oder mit Bussen und U-Bahnen zu fahren, die mit Menschen überfüllt sind, von denen sie hoffen, dass sie nicht die nächste Generation von COVID mit sich führen.

Die Vereinigten Staaten werden anfangen, wie Kuba auszusehen, das immer noch Legionen klassischer Autos aus den 1960er und 70er Jahren besitzt, die liebevoll gepflegt und mit Motoren, Bremsen und anderen Teilen, die aus Wracks und sogar sowjetischen Autos stammen, auf der Straße gehalten werden. Aber sobald die Staaten und die Bundesregierung den Verkauf von Benzin verbieten, wird auch das ein Ende haben.

Vielleicht noch ironischer und perverser ist, dass sich der Begriff „Null-Emissions-Fahrzeug“ nur auf Emissionen in den USA bezieht – und auch nur dann, wenn der Strom, der zum Laden und Betreiben der ZEVs benötigt wird, aus nicht-fossilen Kraftwerken stammt. Die Texaner wissen jetzt, wie gut Windturbinen und Solarpaneele funktionieren, wenn sich die „runaway-globale Erwärmung“ in Rekordkälte und Schnee verwandelt.

Da viele Politiker und Umweltschützer gleichermaßen von Kern- und Wasserkraft abgestoßen sind, könnte es bald zu einer wiederkehrenden Herausforderung werden, irgendeine Stromquelle zu haben.

Null-Emissions-Phantasien ignorieren auch die wesentliche Rolle der fossilen Brennstoffe bei der Herstellung von ZEVs. Vom Abbau und der Verarbeitung der unzähligen Metalle und Mineralien für die Batteriemodule, die Verkabelung, den Antriebsstrang und die Karosserie bis hin zur eigentlichen Herstellung der Komponenten und der fertigen Fahrzeuge erfordert jeder Schritt Öl, Erdgas oder Kohle.

Nicht in Kalifornien oder Amerika vielleicht, sondern anderswo auf dem Planeten Erde, meist mit chinesischen Unternehmen in führenden Rollen.

Von alltäglichem Eisen, Kupfer, Aluminium und erdölbasierten Kunststoffen bis hin zu Exoten wie Lithium, Kobalt und mehreren Seltenen Erden – diese Materialien werden ausgegraben und in „tugendhafte“ Elektroautos, Windturbinen und Solarpaneele verwandelt, ohne Rücksicht auf Kinderarbeit, faire Löhne, Sicherheit am Arbeitsplatz, Luft- und Wasserverschmutzung, giftige und radioaktive Abfälle, gefährdete Arten oder die Renaturierung von mit Bergbau übersätem Land.

[Hervorhebung vom Übersetzer]

Wie lange können wir es noch zulassen, dass unsere Umwelt, unsere Arbeitsbedingungen, unser Wohlstand und unsere Bedürfnisse nach effizientem Reisen der EV-Mythologie untergeordnet werden?

A version of this article appeared at Inside Sources.

Autor: Craig Rucker is a co-founder of CFACT and currently serves as its president.

Link: https://www.cfact.org/2021/03/03/electric-vehicle-subsidies-and-other-fantasies/

Übersetzt von Chris Frey EIKE




Großbritanniens Kohlekraftwerke erhalten das Leben, während die „große Ruhe“ bei den Erneuerbaren herrscht.

Der bittere Winter auf der Nordhalbkugel, der gerade vorbei ist, hat Wind- und Sonnenstrom als das gezeigt, was sie sind: sinnlose und teure Eitelkeitsprojekte, die nur [grüne] Verrückte fördern und die Wahnvorstellungen akzeptieren können.

Das kalte Wetter, das die USA am 16. und 17. Februar traf, machte das texanische Kernland energielos , als die Solar- und Windkraftleistung sank. Die Anhänger des Wind- und Sonnenkult haben dann versucht, die Schuld auf alles zu schieben – nur das Offensichtliche nicht zugeben.

Gleiches gilt für Ereignisse in ganz Deutschland im Januar, als die Deutschen bei absolut ruhigem, eiskaltem Wetter  verzweifelt nach Kohlestrom suchten und gezwungen waren, über ihre Besessenheit von „grüner“ Energie nachzudenken [das wäre schön, aber ich kann es nicht glauben; der Übersetzer] [übersetzt auf Eike]

Die Berichte auf STT über die riesigen Probleme in Bezug auf erneuerbare Energien in Deutschland, haben unsere Webseite wochenlang zum Zusammenbruch gebracht. Ein Horror, den die Mainstream-Presse pflegt.

In den letzten Monaten haben Anleger für erneuerbare Energien und ihr MSM-Propaganda-Flügel Überstunden geleistet, um Websites wie STT zu hintertreiben und zu verhindern, dass die Wahrheit herauskommt. Sie betreiben eine eigene Marke für kontrafaktische „Eingriffe“ – auch bekannt als „Fake News“.

Denken Sie daran, dass diese Typen das sprichwörtliche Haus darauf gewettet haben. Mit jedem Black-out und jeder Stromrationierung vergrößert sich die Gefahr, dass selbst die einfältigsten Gläubiger des grünen Kults erkennen könn(t)en, dass subventionierter Wind- und Sonnenstrom den größten Wirtschafts- und Umweltbetrug aller Zeiten darstellen.

Es steht so viel auf dem Spiel, dass Facebook auf Wunsch eines in Amerika ansässigen PR-Teams für erneuerbare Energien damit begann, unsere Inhalte von unserer Facebook-Seite zu entfernen.

[[Wie weit SST durch vorstehende Einschätzung gezielt betroffen ist / war, kann ich nicht beurteilen. In Deutschland gab es Berichte über den Streit von Facebook mit den Australiern – der Übersetzer

https://www.zeit.de/news/2021-02/18/facebook-blockiert-medieninhalte-in-australien

https://t3n.de/news/facebook-sperrt-australien-news-selbst-ngo-feuerwehr-bann-sperre-1356326/

Die Morgenpost berichtet über die Aufhebung der Blockade
https://www.morgenpost.de/politik/ausland/article231595887/Facebook-blockiert-Medieninhalte-in-Australien.html

]]

Lassen Sie uns vor diesem Hintergrund unsere Aufmerksamkeit auf Ereignisse in Großbritannien richten, bei denen Überraschung, Überraschung, ein weiträumiger Ausbruch von kaltem, ruhigem Wetter zu einem völligen Zusammenbruch der Windkraftleistung führte und die britischen Netzmanager verzweifelt danach suchten, jedes Watt zuverlässigen Stroms zu erbetteln, das sie konnten finden.

Und entgegengesetzt der Propaganda, die von der Anti-Fossil-Brennstoff-Truppe in Großbritannien betrieben wird, nie wieder Kohle zu verwenden, wurde Großbritannien nur durch das energiedichte schwarze Zeug am Leben erhalten.

Lesen sie, was Terry McCrann vom The Australian über Einzelheiten von einem weiteren kolossalen Ausfall der Windkraft berichtet.

 

Ein schockierender Blick auf die Zukunft mit erneuerbaren Energien
The Australian, Terry McCrann, 5. März 2021

Ich habe die Zukunft gesehen und – kann dem verstorbenen und alles andere als großen amerikanischen Journalisten und kommunistischen Betrüger Lincoln Steffens nicht zuzustimmen – „es“ funktioniert definitiv nicht.

„Es“ ist diese Zukunft – verzeihen Sie mein Lachen – die mit sogenannten erneuerbaren Energien, Wind und Sonne „angetrieben“ werden soll, selbst „Batterien eingeschlossen“ versagen und noch nachdrücklicher ohne letzteres.

Erinnern Sie sich an das letzte Jahr, als ich Ihnen erzählte, wie unser Duo aus zwitschernden ehemaligen Premierministern, Malcolm the Turncoat [hier ~ Wendehals – eigentlich heißt der Turnbull] und Kevin Rudd, dem Helden von Kopenhagen [beim Klimagipfel], in den – bitte verzeihen Sie mir mein Lachen noch einmal – „Nachrichten“ der BBC und the Guardian behaupteten, dass Großbritanniens Zukunft ohne fossile Energie stattfindet?

Kevin Rudd, wie es sich für seinen Jungen gehört – oder sollte ich sagen, kindisch zu sein, ist nicht geschlechtsspezifisch? – schwärmte voller Begeisterung: „… für alle, die glauben, dass dies nicht möglich ist: Großbritannien hat in den letzten zwei Monaten – der längsten Zeit seit der industriellen Revolution – keinen Strom aus Kohle erzeugt.“ –  Lassen Sie das sinken.

Nun, was damals im Juni fast sofort in die Gedanken der Zuhörer sank und sank, war die Erwartung eines Sprechers des britischen National Grid [Netzbetreibers], dass NG nicht plant, ein Kohlekraftwerk „irgendwann“ [nochmal] einzuschalten.

Wie das Leben so spielt, wurde innerhalb einer Woche wurde wieder Kohlestrom erzeugt und abgenommen.  In Großbritannien wird seitdem immer wieder Kohlestrom benötigt, obendrein sogar viele davon und auch viel Gas, und fröhlich wird täglich viel pflanzliches Essen in den Biokraftwerken umgewandelt.

Dann kommen wir zu dieser Woche. An zwei aufeinanderfolgenden Tagen bis Mittwochmorgen erhielt Großbritannien nicht nur etwas Strom aus Kohle, sondern davon zwei- bis dreimal so viel aus Kohle wie aus all seinen Windkraftanlagen.

Während der meisten dieser zwei Tage lieferten all diese kuriosen Windräder, die über Großbritannien und die Küste verstreut sind, nur 2 bis 4 Prozent des Strombedarfs.

Wenn Großbritannien sein ruhmreiches Ziel bereits erreicht hätte, zu 100 Prozent erneuerbar zu sein, hätte es buchstäblich nicht nur die gesamte Heizung für Haushalte und die Stromversorgung für Fabriken ausschalten müssen, sondern auch die Lichter in jedem Haus.

An zwei aufeinanderfolgenden Tagen produzierten die britischen Windräder, die – wenn der Wind ordentlich weht, bis zu 13.000 MW produzieren können – durchschnittlich zwischen 500 MW und 800 MW. Das heißt, in einem Land, in die Kunden den größten Teil des Tages 40.000 MW [Grundlast] verlangen, praktisch null und nahezu nutzlos.

Während dieser zwei Tage bekam Großbritannien zwei- bis viermal so viel von Kohlegeneratoren wie vom Wind, wobei die Kohleproduktion in den 48 Stunden durchschnittlich zwischen 1600 MW und 1850 MW lag. Das heißt, ein geschlossenes Hazelwood Kraftwerk oder ein kurz vor der Schließung stehendes Liddell Kraftwerk.

Es ist wichtig hinzuzufügen, dass Großbritannien in diesen zwei Tagen weitere 2700 MW von der niedlichen, allseits als gefühlvoll benannten Biomasse erhielt.

Wie ich bereits erklärt habe, ist die so genannte Biomasse eine Rückkehr zu einer Zukunft vor der Kohleverbrennung, bei der Holz verbrannt wird: in Fall Großbritanniens werden Holzhackschnitzeln verbrannt, die –  was gerne verdrängt wird, meist mit ölbefeuerten Schiffen von den Wäldern auf anderen Seite des Atlantiks kommend, zum ehemaligen Kohlekraftwerk Drax transportiert werden.

Dabei wird noch mehr CO2 {auch aus der Kohle) in die Atmosphäre gepumpt als vorher – aber auch das will keiner wissen.

In diesen Tagen erhielt Großbritannien ungefähr 500 MW-700 MW vom Wind und sechs- bis neunmal mehr, 4300 MW-4600 MW von Kohle und was ich in akkurater Weise  als „schmutziger als Kohle – Hackschnitzel“ bezeichnen würde.

Großbritannien hat bis zu 24.000 MW aus Gas gewonnen – Hust…Hust, ein fossiler Brennstoff – und ungefähr 4000 MW aus CO2 freier Atomkraft.

Betrachten Sie einen normalen Tag der Energieversorgung in Großbritannien: Rund 72 Prozent des Stroms stammen aus der Verbrennung Gas, Kohle und Holz –  mit den Emissionen des bösen CO2; und weitere 11 Prozent von Atomkraftwerken, die nicht so böse sind.

Der Wind lieferte den ganzen Tag über nur 1,5%. Oh ja, und dann 1 Prozent an zurückgegebener Energie aus Pumpspeicher – und weitere 1 Prozent aus Wasserkraft.

Zählen Sie das alles zusammen und Sie erhalten nur rund 87 Prozent. Gott sei Dank für die Verlängerungskabel unter dem Kanal. Großbritannien erhielt einen ganzen Tag lang mehr als 13 Prozent Strom aus Frankreich (Atomkraft), den Niederlanden (Kohle und Gas) und Belgien (Gas und Atom).

Auf Wiedersehen Vergangenheit, an wen werden wir in unserer Zukunft mit erneuerbaren Energien unsere Verlängerungskabel anschließen?

Für Großbritannien, das sich zu 100 Prozent für Strom aus sogenannten erneuerbaren Energien einsetzt, wurden mehr als 95 Prozent seines Stroms aus der Verbrennung von Material incl. dem Emittieren von CO2 (77 Prozent) und Atomkraft (18 Prozent) gewonnen.

Sie könnten die Anzahl der Windräder verdoppeln, die Großbritannien bereits hat – was es in seinem kollektiven grün-nationalen Wahnsinn und geradliniger Dummheit angeblich tatsächlich beabsichtigt – und Sie würden genau das gleiche Ergebnis erzielen, wenn der Wind nicht weht: nahe Null Leistung. OK, vielleicht 1000 MW (von 40.000 MW benötigt) anstatt nur 500 MW.

Es gibt keine Möglichkeit, selbst bei Erneuerbarem Wahnsinn, genügend Batterien zu bauen, um den Unterschied auszugleichen und das für mindestens 24 Stunden – selten weniger nötig, oft gar für 48 Stunden oder sogar 72 Stunden oder vielleicht ein ganze Woche? – und das nicht nur für Minuten  oder wenige Stunden.

Ganz zu schweigen von den massiven Umweltschäden, einschließlich des Emittierens von angeblich so bösem CO2, um die verdammten Dinger überhaupt bauen zu können. Das fängt schon mit dem Fördern von Lithium an und geht weiter, wenn sie diese Batterien bauen. Und was ist mit der Entsorgung, wenn das Ende der Lebensdauer erreicht ist? Verbuddeln Sie die gleich mit den entsorgten Flügeln der Windräder, die manchmal nur 15 Jahre lang halten?.

Wenn erneuerbare Energien die Zukunft sind, ist es eine buchstäblich energielose Zukunft.

Ich habe immer noch einen Traum. Eines Tages werden wir aus diesem wahnsinnigen Albtraum aufwachen und den Kaisers ohne Kleidung sehen und wir fangen an, die Nutzlosen Monster niederzureißen, aufhören die Vögel zu Schreddern und ihre ebenso nutzlosen Geschwister, die die Sonne zum Vögel braten nehmen, ebenfalls zerschmettern.

Wenn wir Elektrizität brauchen, wie es Großbritannien in der letzten Woche so nachdrücklich gezeigt hat, kann es nur aus Kohle, aus Gas und aus Kernkraft kommen.

Alles andere ist kindisch, destruktiv – Rudd-Turnbull-Stil – Fantasie

The Australian

Link nicht mehr verfügbar:

Google-Suche am 7.03.21 zeigt es noch

HTTPS://WWW.THEAUSTRALIAN.COM.AU/BUSINESS/MINING-ENERGY/A-SHOCKING-GLIMPSE-OF-RENEWABLES-POWER-FUTURE

Suchergebnis auf The Australian

Auch in der Übersicht des Nachrichtenmediums ist obiger Beitrag vom 05. März nicht mehr enthalten

https://www.theaustralian.com.au/search-results?q=Energy

– ???

https://stopthesethings.com/2021/03/07/wind-power-fail-britains-coal-fired-power-plants-keep-the-lights-on-during-big-calm/

Übersetzt durch Andreas Demmig

 

Zum Thema

Der Wind weht überhaupt nicht immer irgendwo: Ein Nachtrag zum Märchen von der Wind-Grundlast­fähigkeit




Klimaschau 20 – die Tagesschau von Sebastian Lüning




Versucht Mutter Natur, uns etwas zu sagen?

1. WAS verursachte die mittelalterliche Warmzeit um 1000 n. Chr., als die Wikinger in der Lage waren, viel, viel mehr von Grönland zu bewirtschaften als heute? Es war nicht DER MENSCH, der diese „globale Erwärmung“ verursacht hat, oder?

2. WAS verursachte die Erwärmung während der Römerzeit in Britannien, (erstes Jahrhundert n. Chr.) als Trauben bis nach York (in Yorkshire, Nordengland) angebaut wurden. Heute können dort oben keine Trauben mehr angebaut werden. Es war nicht DER MENSCH!

3. WAS verursachte die „Kleine Eiszeit“ zur Zeit von Charles Dickens, als die Themse durch London jeden Winter so stark gefror, dass man EISMESSEN auf dem Eis des Flusses abhalten konnte? Die Themse friert heute nicht mehr zu* … und DER MENSCH hat das im 19. Jahrhundert nicht verursacht! Vulkanische Aktivität könnte die natürlichen Sonnenzyklen unterstützt haben.

[*Das ist etwas überholt. Vor ein paar Wochen war zu lesen, dass sich auf der Themse erstmals seit 60 Jahren erneut Eis gebildet hatte – natürlich nicht genug, um Eismessen darauf zu veranstalten. A. d. Übers.]

4) Am 10. Dezember 2020 verkündete das UK Meteorological Office, dass Schnee im britischen Tiefland, südlich von Schottland, bald der Vergangenheit angehören wird.

In der Zwischenzeit, im Jahr 2021, hatten wir weit verbreiteten Schnee und den kältesten Januar seit 10 Jahren … und die niedrigste Temperatur in Großbritannien seit 25 JAHREN: MINUS 23 Celsius,! Das wurde in Braemar in Schottland im Februar aufgezeichnet.

Versucht uns Mutter Natur etwas zu sagen?

Windturbinen brauchen 25 km/h Wind, um irgendetwas Nützliches zu erzeugen. Sie haben ihre optimale Leistung bei 55 bis 70 km/h. Wenn der Wind mit etwa 90 km/h böig ist, können sie sich abschalten, um Schäden zu vermeiden.

In Großbritannien erzeugen landgestützte Windturbinen mit einer installierten Leistung von 2 Megawatt [MW] im Durchschnitt nur 25 Prozent oder 0,5 MW!

Besuchen Sie www.Gridwatch.co.uk, um die Windenergieleistung in Großbritannien rund um die Uhr zu sehen. Im Jahr 2020 lag die britische Windenergie INSGESAMT an einem Tag im letzten Sommer bei nur 95MW.

Wie um alles in der Welt können diese unzuverlässigen, nur zeitweise funktionierenden Maschinen UK MIT STROM VERSORGEN … UND ALLE AUTOS?

Greenies….und Politiker…wollen den Strom aus fossilen Brennstoffen abschaffen und alles in Großbritannien aus erneuerbaren Energien betreiben! Wie ist das möglich?

Noch verrückter … sie wollen die Herstellung von Autos mit Diesel- und Benzinmotoren in Großbritannien bis 2030 abschaffen und NUR noch Elektroautos produzieren! Auch das ist unmöglich, denn es gibt 40 Millionen Fahrzeuge in UK. 40 Millionen EVs, die mit 5kW aufgeladen werden, bräuchten 200.000.000 kWh über 8 Stunden Ladezeit, um 150 Meilen pro Tag zu fahren (basierend auf Nissan Leaf).

Wenn sie also im Durchschnitt nur ein VIERTEL dieser Kilometerleistung, also 37,5 Meilen pro Tag, zurücklegen würden, bräuchten die 40 Millionen EVs immer noch 200.000 Megawatt für 2 Stunden Laden bei einer Rate von 5 kW, oder? Außerdem würden die meisten Leute in den 6 Stunden von 18 Uhr bis Mitternacht laden wollen. Sie würden das nationale Stromnetz ZERSTÖREN!

Doch das britische Stromnetz hat im Durchschnitt nur 6000 MW aus Windenergie zu jeder Zeit… Wenn wir also die Kraftwerke für fossile Brennstoffe abschalten, wie kann dann der WIND all unsere Autos, Häuser, Büros, Fabriken, Krankenhäuser, Hotels und Restaurants in Großbritannien mit Strom versorgen, wenn die Windenergie in Großbritannien im Durchschnitt 6000 MW pro Tag beträgt?

WIE SOLL DAS GEHEN?! Kann das bitte mal jemand erklären?!

Link: https://www.iceagenow.info/is-mother-nature-trying-to-tell-us-something/

Übersetzt von Chris Frey EIKE

 




Weitere grüne Stromausfälle sind zu erwarten!

Die Regulierungsbehörden warnen seit Jahren davor, dass das Stromnetz immer mehr ins Wanken gerät, da billiges Erdgas und stark subventionierte erneuerbare Energien die konstante Grundlast aus Kohle und Kernkraft ersetzen. Die North American Electric Reliability Corporation (NERC) warnte bereits im Jahre 2011: „Das Stromnetz der Nation wird in einer noch nie dagewesenen Weise beansprucht werden“, und zwar aufgrund einer „beispiellosen Veränderung des Ressourcen-Mix“.

Sie fügte hinzu: „Es hat sich gezeigt, dass Umweltauflagen das größte Risiko für die Zuverlässigkeit in den nächsten ein bis fünf Jahren darstellen.“ Aber die Obama Federal Energy Regulatory Commission (FERC) weigerte sich zu berücksichtigen, wie sich die Klimapolitik auf die Zuverlässigkeit auswirken würde. Seit 2011 wurden etwa 90 Gigawatt (GW) an Kohlekapazitäten abgeschaltet und durch etwa 120 GW an Wind- und Solarkapazitäten und 60 GW an Gaskapazitäten ersetzt.

[Hervorhebung vom Übersetzer]

Aber erneuerbare Energien erzeugen nicht rund um die Uhr Strom, wie es Gas, Kernkraft und Kohle tun. Gaskraftwerke sind von Just-in-time-Brennstofflieferungen abhängig, die bei extremem Wetter nicht zuverlässig sind. Von der Regierung verursachte Pipeline-Engpässe erschweren die Lieferungen im Nordosten. Die Linken sagen auch, dass Texas den arktischen Einbruch besser hätte überstehen können, wenn sein Stromnetz nicht fast ausschließlich auf Strom aus dem eigenen Land angewiesen gewesen wäre.

Aber auch im Southwest Power Pool, nördlich von Texas, und im Stromnetz des Mittleren Westens, die beide stark auf Windkraft und Gas angewiesen sind, kam es in der vergangenen Woche zu Stromausfällen aufgrund von steigender Nachfrage, Winderzeugung und Mangel an Gas. Kalifornien verlässt sich auf Gas und Importe, um seine Solarenergie zu unterstützen. Doch im letzten Sommer konnte Kalifornien während einer Hitzewelle, die das gesamte westliche Stromnetz belastete, nicht genug Strom von seinen Nachbarn bekommen. Wasserkraft aus dem Nordwesten und Kohle aus Utah konnten Stromausfälle nicht verhindern.

Die Windlobby sagt, Texas hätte verlangen sollen, dass thermische Anlagen (Kernkraft, Gas, Kohle) wetterfest gemacht werden, damit sie einstelligen Temperaturen standhalten. Vielleicht, aber Wind hat während des Blackouts trotzdem am schlechtesten abgeschnitten. Laut einer Datenanalyse des Center of the American Experiment erzeugte er nur 12 % seiner Kapazität, verglichen mit 76 % für Kernkraft, 39 % für Kohle und 38 % für Gas.

Die eiskalte Realität ist, dass die Netzregulierer in den gesamten USA darum kämpfen, den Strom bei extremen Wetterbedingungen am Laufen zu halten. Sie konnten weitere Stromausfälle vermeiden, indem sie Energieeinsparungen anordneten. Aber Texas zeigt, dass Energiesparen nicht genug ist, da staatliche Auflagen Amerika immer abhängiger von elektrischer Energie für alles von der Heizung bis zum Auto machen.

Die meisten Texaner verwenden Strom zum Heizen. Viele Gaskompressoren in den Pipelines sind aufgrund der bundesstaatlichen Emissionsvorschriften elektrifiziert, sodass die Stromausfälle die Gaslieferungen an Kraftwerke einschränkten. Sie legten auch Wasserpumpen und Aufbereitungszentren still.

Doch die Progressiven wollen die Amerikaner noch abhängiger vom Stromnetz machen, indem sie Gasanschlüsse in Häusern verbieten und Elektroautos vorschreiben. Dies ist ein Rezept für landesweite Stromausfälle, wenn Kohle- und Atomkraftwerke in den Ruhestand gehen, weil sie nicht mit den subventionierten erneuerbaren Energien konkurrieren können. Der Netzbetreiber von Neuengland sagte 2018 in den meisten von ihm analysierten Fällen Stromausfälle im Winter 2024-2025 voraus.

Das gesamte Editorial steht hier ($)

Link: https://www.thegwpf.com/more-green-blackouts-ahead/

Übersetzt von Chris Frey EIKE

 




Die Bürokratie hat keine Hemmungen mehr: „ Man muss ihren Willen brechen – weniger Heizen und Autofahren, Co2 Steuer für die Rettung des Planeten“

Anscheinend reichte die Bestrafung mit Preiserhöhungen durch erneuerbare Energien nicht aus, um den egoistischen Mut der „normalen Menschen“ zu brechen.

Der Gouverneur von Massachusetts, Charlie Baker, ist ein Kreditkarten tragendes Mitglied des Klimakultes, ebenso wie sein treuer Kumpel David Ismay, Staatssekretär im Klimaministerium.

In einem Moment der Offenheit ließ Ismay alle Täuschungen fallen, als er einer Gruppe von Mitreisenden, die an einer Videokonferenz teilnahmen, mitteilte, was – um das emissionsfreie Ziel von Massachusetts zu erreichen – das eigentliche Ziel des Staates ist:

„Sie, die Person auf der anderen Straßenseite, der Senior mit festem Einkommen, richtig… es gibt keine weiteren Bösen mehr, zumindest nicht in Massachusetts, auf den man mit dem Finger zeigen, die Daumenschrauben andrehen und den Willen brechen kann , damit sie aufhören [Co2] zu emittieren. Sie sind das. Wir wollen Ihren Willen brechen. Richtig, das kann ich öffentlich nicht einmal sagen “

So, da haben Sie es nun. Es geht nicht darum, den Planeten zu retten. es geht um Sie, darum ihren Widerstandsgeist zu brechen; darum Ihren Willen zu brechen, damit Sie sich ihrem Willen, ihrem großen Plan unterwerfen.

Wenn Sie sich trauen, dann lesen Sie weiter, um die schrecklichen Einzelheiten zu erfahren, die hinter dem Klimakult lauern.

 

Hochrangiger Beamter redet deutlich über die Absicht, den “Willen der Steuerzahler” zu brechen

Boston Herald,  Joe Dwinell, 5. Februar 2021

Der für Klimawandel zuständige Staatssekretär mit einem Salär von 130.000 US-Dollar pro Jahr, wird von einem Fiskal-Wachhund gerügt, weil er sagte, die Regierung müsse den Willen der Steuerzahler brechen, wenn es darum geht, für das Heizen der Wohnungen und das Autofahren [CO2] Steuern zu zahlen.

Das Video zeigt David Ismay, den [o.g.] Staatssekretär für Klimawandel (der Landesregierung von Gouverneur Charlie Baker, Bundesstaat Massachusetts), wie er den Advokaten des Klimawandels in Vermont erklärt,  dass es Zeit ist, sich Hausbesitzer und Autofahrer vorzunehmen, um zur Emissionsreduzierung beizutragen.

Am Ende des Clips fügt er hinzu: „Ich kann das nicht einmal öffentlich sagen.“

Ismay antwortete nicht auf eine Anfrage des Herald auf Kommentar.

Als Gouverneur Baker während einer Pressekonferenz nach dem Video gefragt wurde, sagte er, dass er und die Vizegouverneurin  Karyn Polito das Video früher am Morgen gesehen hätten. Er fügte hinzu, dass auch Klimaministerin Kathleen Theoharides, Ismays Chefin, davon Kenntnis hat.

„Erstens sollte niemand, der in unserer Verwaltung arbeitet, jemals so etwas sagen oder denken – niemals“, sagte der Gouverneur. „Zweitens wird Sekretär Theoharides ein Gespräch mit ihm darüber führen.“

Baker fuhr fort: „Und der dritte – und einer der Hauptgründe, warum wir die Klimagesetz nicht unterschrieben haben, als es auf unseren Schreibtisch kam, war, dass wir uns besonders Sorgen über die Auswirkungen über viele Bestimmungen darin machten, die sie auf die Zahlungsfähigkeit der Menschen haben werden. Was jedoch bedeutet, dass es auch Position der Verwaltungspolitik darstellt. “

In dem von der MassFiscal Alliance geposteten Video sagt Ismay, der Staat müsse „ihren Willen brechen und die Schrauben anziehen“, um die einfachen Leute zu  Änderungen in ihrem Verbrauch von Heizkraftstoffen und Benzin zu zwingen. Ismay beschrieb die einfachen Leute als die „Person auf der anderen Straßenseite“ und den „Senior mit festem Einkommen“.

In dem Clip sagt er zunächst, dass es in Massachusetts „keinen Bösen mehr gibt“ und dass 60% der Emissionen aus „Wohnraumheizung und Personenkraftwagen“ stammen.

Dies alles kommt daher, dass umfassende klimapolitische Gesetze vorangetrieben werden, die bis 2050 eine Netto-Null-CO2-Emission erzwingen sollen und vorläufige Emissionsminderungsziele festlegen, Energieeffizienzstandards für Geräte festlegen und zusätzliche Anschaffungen von Offshore-Windenergie genehmigen würden. Gov. Baker hat bis Sonntag Zeit, dieses Gesetz zu unterzeichnen, abzulehnen oder zu ändern.

Teil der Debatte, ist auch die von Baker verfochtene Initiative zum Individualverkehr, die darauf abzielt, die Emissionen durch Kraftfahrzeuge um mindestens 26% zu reduzieren und [durch CO2 Steuern] bis 2032 in Massachusetts über 1,8 Milliarden US-Dollar zu generieren. Dies geht aus einem mit Massachusetts Island, Connecticut und Washington, DC, unterzeichneten Vertrag hervor. Nach staatlichen Schätzungen wird der Benzinpreis um 5 bis 7 Cent pro Gallone steigen. Acht weitere Staaten denken noch drüber nach.

Paul Diego Craney, Sprecher von MassFiscal [~ Bund der Steuerzahler], sagte, der Videoclip biete mit Ismays harter Rhetorik einen „Einblick in die Absichten der Verwaltungsbehörden“.

Ismays deutliche Aussage lautet: „Lassen Sie mich noch einmal betonen, dass 60% unserer Emissionen, die reduziert werden müssen, von Ihnen stammen, der Person auf der anderen Straßenseite, dem Senior mit festem Einkommen, richtig… zumindest ist kein Bösewicht mehr übrig in Massachusetts, um mit dem Finger darauf auf ihn zeigen, die Schrauben anzuziehen und um ihren Willen zu brechen, damit sie aufhören zu emittieren. Jetzt sind Sie das. Wir müssen Ihren Willen brechen. Richtig, das kann ich nicht einmal öffentlich sagen. “

Die Bemerkungen wurden am 25. Januar auf der Sitzung des Vermont Climate Council gemacht.

Craney fügte hinzu, es sei „beängstigend zu erkennen, dass ein Beamter, der so hoch in der Baker-Administration steht, gegenüber einer außerstaatlichen Gruppe mit dem wirtschaftlichen Schmerz prahlt, den er genau den Menschen zufügen will, für die er arbeiten soll [und von denen er bezahlt wird].“

Boston Herald

Mass. gov. Klimaministerin Kathleen A. Theoharides

[Auch dort, stellen Frauen die Minister (innen) für den Klimawandel, Kathleen Theoharides, Ismays Chefin, kann bereits auf lange Erfahrungen im „Umweltschutz“ zurückblicken.]

https://stopthesethings.com/2021/02/27/net-zero-hero-climate-bureaucrat-busted-for-revealing-states-kill-the-poor-energy-policy/

Übersetzt durch Andreas Demmig




Dezember und Januar verhalten sich seit 10 Jahren unter­schiedlich in Deutschland – ein Wider­spruch zum CO2-Treibhaus­effekt.

Wir nehmen das Startjahr der Betrachtung 1988 aus zwei Gründen: Zum einen trat der selbst ernannte Weltklimarat mit seinen Erwärmungs-Verheißungen zum ersten Male an die Öffentlichkeit, außerdem erfolgte in Mitteleuropa in den Jahren 1986 bis 1990 ein plötzlicher Temperatursprung auf ein höheres Temperaturniveau, auf dem wir uns noch heute befinden. Somit wollen wir auch wissen, wie sich der Temperaturverlauf auf diesem höheren Niveau verhält. Beginnen wir mit dem Dezember, der DWD-Durchschnitt aus den fast 2000 Wetterstationen in Deutschland ab 1988 bis 2020 sieht so aus:

Abb. 1: Der Dezember wurde in Deutschland im Betrachtungszeitraum der letzten 33 Jahre immer wärmer, etwa um 0,5 C/Jahrzehnt. Vor allem seit 2011 war der Monat relativ mild und die letzten Schneeweihnachten waren im Flachland 2010.

Feststellung: Der Dezember wurde im letzten Jahrzehnt immer mehr zu einem verlängerten November.

Der Monat Januar dazu im Vergleich (Deutschlanddaten)

Abb. 2: Der Monat Januar wurde in Deutschland seit 1988 leicht kälter.

Die wichtige Erkenntnis wäre: Der Monat Dezember und der Monat Januar verhalten sich seit 1988 genau gegensätzlich.

Wann begann das Auseinanderdriften?

Aufschluss soll die nächste Grafik geben. Beim Vergleich der beiden Graphen bitte beachten: Auf den Dezember 1988 (braun) folgt der Januar 1989 (violett). Zur besseren Vergleichbarkeit sind 88/89 zu einer Zeitachse zusammengefasst

Abb. 4: Die Grafik zeigt den Verlaufsvergleich von Dezember (braun) und den darauffolgenden Januar (violett). Dezember 1988 im Vergleich zu Januar 1989 sind auf demselben Punkt der Zeitlinie, ebenso Dez. 2020 und der Jan. 2021

Ab 2011 wird der Dezember deutlich wärmer in Deutschland, während der Januar seinen unbedeutenden Abwärtstrend beibehält.

Ergebnis: Der Dezember hatte vor 10 Jahren einen Temperatursprung auf ein höheres Niveau und ist seitdem deutlich wärmer als der Januar. Wegen der Kürze des Zeitintervalls redet man jedoch besser von einem warmen Dezember-Jahrzehnt.

Wie verhielt sich der Dezember vor 2011?

Die Kleine Eiszeit ging eigentlich erst ab 1900 zu Ende, das Startjahr des DWD, nämlich 1881 lag noch in einer Kältedelle. Deshalb beginnt die folgende Dezembergrafik Deutschlands zwar zu Zeiten des Kaiserreiches, aber erst ab 1900.

Abb. 5: 110 Jahre lang war der Dezember in Deutschland ausgewogen, er zeigte keinen Trend, trotz einiger wärmerer oder kälterer Jahrzehnte. Der leichte Anstieg der Trendkurve ist eine Folge des ständig zunehmenden Wärmeinseleffektes der deutschen Wetterstationen.

Das plötzlich wärmere Dezember- Jahrzehnt seit 2011: Erklärung durch den angeblichen CO2-Treibhauseffekt: nicht möglich

Ein möglicher CO2-Treibhauseffekt kann dieses unterschiedliche Temperaturverhalten der beiden Wintermonate Dezember und Januar im letzten Jahrzehnt keinesfalls bewirken und damit auch nicht erklären. Sonst müssten wir festhalten: Die Zunahme des Treibhausgases CO2 wirkt im Dezember erwärmend und im Januar leicht abkühlend. So eine Eigenschaft eines Gases gibt es aber nicht. Die starke CO2-Zunahme CO2 der Atmosphäre ist jedoch in der Fachwelt unbestritten. Derzeitiger Stand: 417 ppm.

Quelle: Wikipedia

Die Grafiken Dezember und Januar sind allein Beweis genug, dass CO2 wenig oder gar nicht klimasensitiv ist. Der Begriff „Treibhausgas“ ist somit ein Fantasiebegriff: Kohlendioxid kann im Dezember nicht erwärmend wirken und im darauffolgenden Januar einige Tage später hört die Wirkung plötzlich auf. Solche monatsbedingten Gaseigenschaften gibt es nicht. Weder in Deutschland noch sonstwo auf der Welt.

Wir müssen deswegen nach anderen Erklärungsmustern suchen.

Wärmeinseleffekt: Auch der ständig zunehmende Wärmeinseleffekt seit 1988 bei den DWD- Stationen spielt hierbei eine untergeordnete Rolle. Die Betrachtung bei WI-armen Stationen wie Amtsberg ergibt lediglich für den Januar eine etwas negativere Trendlinie.

Abb. 6: Bei einer WI-armen Station zeigt der Dezember im Jahre 2011 denselben Temperatursprung, wegen des fehlenden WI-effektes kühlt der Januar jedoch stärker ab, so dass die Schere weiter auseinandergeht. Die kalten Januarnächte werden bei WI-armen Stationen nicht heraus geheizt, weil keine Häuserheizung da ist. Dadurch ist die Trendlinie fallender.

Nebenbei sei noch bemerkt, dass der WI-Effekt im Winter eh weniger ausgeprägt ist als im Sommer. Wir können nur festhalten: Der CO2-Anstieg und der WI-effekt können das unterschiedliche Temperaturverhalten der beiden Monate seit einem Jahrzehnt nicht erklären.

Richtige Erklärung?

Rein statistisch haben die Westwetterlagen im Dezember leicht zugenommen und im Januar seit 1988 eher abgenommen. Doch weshalb das so ist? Und wie die beiden Monate sich weiter entwickeln werden, darüber können seriöse Klimawissenschaftler nur spekulieren oder Hypothesen zur weiteren Erkenntnisgewinnung aufstellen.

Fazit:

Der Dezember wurde in den letzten 33 Jahren in Deutschland wärmer, der Januar und (Februar) kälter. Das ist ein einfacher Beweis, dass es den CO2-Treibhauseffekt nicht gibt oder dass er kaum Wirkung hat. Aus diesem Grunde gibt es auch keine CO2 verursachte Klimakatastrophe, denn laut Einstein reicht ein Gegenbeweis. Dieser Artikel mit den Grafiken sind der Gegenbeweis.

Eine teure CO2-Einsparung wie sie die Politik in Deutschland anstrebt, ist somit völlig wirkungslos auf das Temperaturverhalten der beiden Monate

Das unterschiedliche Temperaturverhalten der beiden Wintermonate kann man nur mittels natürlicher Klimavariationen erklären. Wir haben nur eine ausführlicher genannt, er gibt sicherlich mehrere.

Es wird Zeit, dass endlich Natur- und Umweltschutz in den Mittelpunkt menschlichen Handelns gestellt werden. Die Erhaltung der natürlichen Vielfalt von Pflanzen und Tieren sollte ein vorrangiges Ziel sein und nicht diese unseriöse Panikmache von Medien im Verbund mit gut verdienenden Klima-Schwätzern und Märchenerzählern.

 




Bergung von Atommüll aus Asse kostet 3 Milliarden Euro

So viel Fürsorge für die Leute in den Dörfern um die Asse, ist das gerechtfertigt? Wie kritisch sieht das die Zeitung? Gar nicht. Sie hält sich an den „Mainstream“ und berichtet im Rahmen des verordneten „politisch korrekten“ Weltbildes. Nicht nur auf dem Gebiet der Radioaktivität machen alle mit, die irgendwie abhängig sind: Politiker, Medien, Kirchen, Schulen.

Nach diesem Weltbild wurde Radioaktivität nur durch gewissenlose Menschen in die Welt gebracht, es war ein Verbrechen, das nie hätte geschehen dürfen. So stellte das z. B. im Jahr 2014 auf einer Tagung der Evangelischen Akademie Loccum ein Dr. Wilk dar. Die von der Kernindustrie erzeugten Abfälle wären ein ganz schlimmes Problem, sagte dort auch der evangelische Landesbischof Meister (2012): „Allerdings können wir Aussagen machen zu einer hochgiftigen Strahlung, die noch über viele hunderttausend Jahre so giftig sein wird, dass sie das Menschenleben und das Leben auf dieser Erde in ihrer Existenz bedroht.“

Ähnlich Frau Sylvia Kotting-Uhl. Sie hat mal Kunstgeschichte studiert und ist heute atompolitische Sprecherin der Grünen und Vorsitzende des Bundestags-Ausschusses für Umwelt, Naturschutz und nukleare Sicherheit. Sie sagte: „Er (der Atommüll) ist da und stellt für die heutige und zukünftige Gesellschaften eine existenzielle Bedrohung dar….. Dass wir als Grüne uns immer gegen den atomaren Irrsinn gewandt haben, enthebt uns nicht der Verantwortung, einen Weg zu finden, um die von dem Atommüll ausgehenden Gefahren möglichst gering zu halten.“

Was den „Irrsinn“ betrifft: Die übrige Welt wird eher Frau Kotting-Uhl für irrsinnig halten. Im Jahr 2020 haben 5 neue Kernkraftwerke mit der Stromerzeugung begonnen, 3 in China, eins in Weißrussland und eins in den Vereinigten Arabischen Emiraten. 52 Kernkraftwerke werden in verschiedenen Ländern zurzeit gebaut.

Auch in den Schulen wird ein zumindest unvollständiges Bild unserer Welt vermittelt. In Schulbüchern zur Geografie wird der Aufbau der Erde mit ihrem heißen Inneren dargestellt. Alles ist dort geschmolzen und dadurch entstehen Vulkane. Aber woher kommt die Hitze? Zur Hälfte durch die natürliche Radioaktivität der Erde. Das ist aber ein Tabuthema, so etwas darf ein Schulbuch nie schreiben. „Diese radioaktive Hölle im Erdinneren soll aber möglichst unerwähnt bleiben, damit die Einmaligkeit der Gefahr durch Atomkraft nicht geschmälert wird.“ (H. Hoffmann-Reinecke, Der ewige Meltdown).

Aus immer noch frei zugänglichen Quellen kann man sich aber informieren, welche geringe Bedeutung der Abfall der Kerntechnik wirklich hat. Anfang unseres Jahrtausends waren es etwa 2,8∙1022 Becquerel (Bq). Das wird mehr, aber man darf neuen Abfall nicht einfach dazu addieren. In 1.000 Jahren hat der derzeitige Abfall nur noch ein Hundertstel der heutigen Aktivität. 1022 Bq ist eine abstrakte Zahl (1 und 22 Nullen), das heißt, so viele radioaktive Umwandlungen mit Strahlung pro Sekunde. Wie verträgt sich das mit der Erde, wenn es in Endlager bis in 1 km Tiefe kommt? „Wir vergiften die Erde“, sagte einmal ein Grüner. Jedoch enthält alles Land bis in 1 km Tiefe natürliche Radioaktivität von etwa 4,4 ∙1023 Bq, also ungefähr 16mal so viel. Diese natürliche Radioaktivität ist ungleichmäßig verteilt, an manchen Orten ist man einer mehr als fünfmal höheren natürlichen Umgebungsstrahlung ausgesetzt als im Durchschnitt. Niemanden stört das, niemand zieht deshalb um. Zusätzliche Krankheiten werden dort nicht gefunden. Im Gegenteil, viele neuere wissenschaftliche Arbeiten zeigen, dass geringfügig erhöhte Strahlendosen eher gut für die Gesundheit sind. Sieht man die Erde als ein Ganzes, kann man den radioaktiven Abfall nicht als bedrohlich ansehen.

Noch klarer zeigt das die Unfallstatistik. Überall steht der hochradioaktive Abfall noch an der Erdoberfläche, was doch viel bedenklicher sein müsste als eine Unterbringung in großer Tiefe. Gefährlichkeit wird anhand von Todesfällen beurteilt, nicht anhand des Gefährdungspotentials. Ein Tiger oder Löwe kann jeden Tag einen Menschen töten, aber wie gefährlich sind diese Tiere im Zoo? Für das Personal besteht eine gewisse Gefahr, für das Publikum ist das Risiko Null.

Diesen Unterschied zwischen Risikopotential und tatsächlichem Risiko sollte man auch bei Radioaktivität machen. Nicht was könnte, sondern was ist wirklich passiert? Im Internet findet man eine Liste von Todesfällen durch Radioaktivität, nachgewiesene Fälle und vermutete mit dem Zusatz „Disputed“. Wie groß ist nun weltweit die Zahl der Opfer durch hochaktiven Abfall? Null. Aber erzeugen nicht geringste Strahlendosen Krebs, sogar nicht messbare? Das ist das Arbeitsgebiet von Scharlatanen. Wirkungen ohne ausreichende Ursachen gehören in das Gebiet des Aberglaubens. Dieser geht so weit, dass z. B. ein Herr Dr. Hagen Scherb behauptet, die bloße Anwesenheit von kerntechnischen Anlagen, ohne erhöhte Strahlung in ihrer Umgebung, bewirke bereits, dass Mädchen gar nicht erst geboren werden. In Deutschland und der Schweiz wäre der Verlust von 10.000 bis 20.000 Lebendgeburten bei Mädchen nachweisbar.

 

Bleibt man bei Tatsachen, muss festgestellt werden: Das Risiko der hochaktiven Abfälle ist Null.

 

Wie sieht es nun bei mittel- und schwachaktivem Abfall aus, wie er in der Asse liegt? Nicht so günstig. Da gab es Todesfälle in Estland, es starben ein Mensch und ein Hund. Mit dem Menschen braucht man nicht allzu viel Mitleid zu haben. Es war ein Metalldieb, der in ein ganz schlecht gesichertes Abfalllager einbrach, einen Maschendrahtzaun zerschnitt, Schlösser knackte und Warnschilder ignorierte. Aber das Schicksal des Hundes ist schon tragisch. Er musste wochenlang leiden, ehe er starb. So etwas darf nicht noch einmal vorkommen! Denken Sie immer an den Hund, wenn Sie von der Endlagerproblematik hören oder lesen!

 

Schwachaktive Abfälle, das sind hauptsächlich Filtermaterialien aus Kernkraftwerken. Radioaktivität gelangt ins Waser und in die Luft und muss da herausgefiltert werden. Gegenüber den hochaktiven Abfällen, hauptsächlich abgebrannten Brennelementen, ist die weltweit angefallene Aktivität gering: Aus Kernkraftwerken etwa 2∙1018 Bq, das ist nur ein winziger Bruchteil der Aktivität des hochaktiven Abfalls. In der Asse betrug die Aktivität 7,8∙1015 Bq im Jahr 1987, langlebig sind davon 2,5∙1013 Bq. Vergleicht man das mit der natürlichen Radioaktivität von normalem Gestein von 3∙1015 Bq/km³, dann heißt das: In der Asse liegt an radioaktiven Abfällen, bezogen auf die Aktivität, weniger als in einem Bereich von 1 x 1 km und 1 km Tiefe.

 

Die Rückholung „entlastet“ den Asse-Berg also nur ganz unwesentlich von seiner Radioaktivität. Aber das schreckliche, in der Natur nicht vorkommende Plutonium? Es ist sehr schwer in Wasser löslich. Verschluckt man es doch, ist es nicht gefährlicher als Radium, ein Bestandteil vieler Heilwässer. Nur Plutoniumstaub sollte man nicht einatmen, in Staubform ist Plutonium tatsächlich recht gefährlich. Aber wie soll man das machen?

 

Wie begründet man nun die 100 Millionen, welche die Asse jährlich kostet, und die geplanten 3 Milliarden für die Rückholung? Dazu schreiben T. Lautsch, B. Kallenbach-Herbert und S. Voigt, die Zuständigen in der BGE (Bundesgesellschaft für Endlagerung), in englischer Sprache, damit auch die übrige Welt diesen Unsinn erfährt:

Since the long-term safety required by nuclear law for the stored waste cannot be proven with the existing knowledge and uncertainties about the hydrogeological situation oft the Asse, it was decided in 2009 to recover the waste.

 

Nach den Planungen des früheren Betreibers (Helmholtz-Zentrum) wäre der sichere Abschluss der Asse längst erfolgt. Kein Hund käme jemals zu Schaden.

 

Hannover, den 07.03.2021




Wir alle wurden wie Vieh in den Stall mit der Aufschrift „globale Erwärmung“ getrieben

Unsere heutige Warmzeit begann vor etwa 14k-12k Jahren, und in dieser kurzen Zeit entwickelte sich die Zivilisation, wie wir sie heute kennen.

Ernteausfälle und Hungersnöte werden zweifellos eine neu anbrechende Eiszeit begleiten, und das bedeutet Ungemach für den Großteil der Weltbevölkerung. Zusammen mit Hungersnöten kommen Krankheiten, und das bedeutet leider noch mehr Ärger.

Sogar die NASA hat vor der Möglichkeit einer zurückkehrenden Eiszeit gewarnt, und doch wurde ihre Warnung von den Befürwortern der globalen Erwärmung übertönt. Das kann leider zu unserem eigenen Untergang führen.

Einige meiner Verwandten leben in Texas, und sie alle haben Schlimmes hinsichtlich der Kältewelle der vorigen Woche erzählt. Viele waren schlecht darauf vorbereitet, was Wasser, Lebensmittel usw. angeht. Sie dachten nicht, dass es so schlimm und lang anhaltend sein würde, wie es war. Andere hatten die ganze Zeit über Strom und jetzt haben sie ihre Stromrechnungen, die in die Tausende von Dollar für einen Monat gehen. Erstaunlich!

Was mich an diesem Thema am meisten stört ist, dass wir nicht auf eine kommende Abkühlung vorbereitet wurden. Stattdessen wurden wir alle wie Vieh in den Stall der globalen Erwärmung getrieben…..wohl viele, aber nicht alle. Ich finde das überhaupt nicht überraschend, denn die Menschen neigen dazu, eher eine Lüge zu glauben, die sie beruhigt, als die Wahrheit, die ihnen schon beim bloßen Gedanken daran eine Heidenangst einjagt. Und wir Menschen haben eine Art Herdenmentalität, auch wenn das bedeutet, mit dem Rudelführer über die Klippe zu gehen, leider.

Ich denke, der Tag wird bald kommen, an dem wir uns wünschen werden, mehr Kern- und Kohlekraftwerke zu haben, aber dann wird es ZU SPÄT sein.

Vielleicht werden die, die nach uns kommen, wenn die nächste Warmzeit anbricht, Führer haben, die sich mehr um MENSCHEN kümmern als um ihre eigene Gier. Vielleicht.

Link: https://www.iceagenow.info/we-have-all-been-herded-like-cattle-into-the-global-warming-pen/

Übersetzt von Chris Frey EIKE

 




ENTHÜLLT: Die vom Finanzminister als „realistischer“ eingeschätzten Kosten von 1,3 Billionen Pfund werden von der Regierung unterdrückt

Die neu enthüllte Modellierung schätzte die Nettokosten von Net Zero bis 2050 auf 1.275 Mrd. £, wobei die jährlichen Kosten im Jahr 2050 um 40 % höher liegen würden als die Schätzung des Committee of Climate Change (CCC), zu der die Regierungsbeamten gedrängt wurden. Das Finanzministerium räumte ein, dass „die Kosten des Übergangs (zu Net Zero) höchst unsicher sind“, während sie und das CCC weiterhin Details zur Methodik zurückhalten.

Aktivisten haben mehr Transparenz gefordert, da der Premierminister darauf besteht, dass Net Zero nicht zu neuen Steuern führen wird.

Das Finanzministerium hat endlich den Inhalt einer E-Mail offengelegt, die an den damaligen Schatzkanzler Philip Hammond geschickt wurde und in der es um die hohen Kosten des Netto-Null-Emissionsziels ging – nach einem langwierigen Streit um die Informationsfreiheit, der fast zwei Jahre dauerte.

In der E-Mail schrieb das Finanzministerium: „Der CCC schätzt, dass das Erreichen des Netto-Null-Ziels im Jahr 2050 jährlich 50 Mrd. £ kosten wird. BEIS [das Ministerium für Wirtschaft, Energie und Industriestrategie] schätzt die Zahl auf 70 Milliarden Pfund pro Jahr. Wir halten die BEIS-Zahl für realistischer.“

Die „realistischere“ BEIS-Zahl ist diejenige, die die Regierung vor einer Entscheidung des Informationskommissars Anfang dieses Jahres vor der Veröffentlichung zurückhalten wollte.

Sie beschrieben auch, dass No10 [der Regierungssitz des Premierministers] und BEIS „sich von der £1 Billion-Zahl distanziert haben“ und sagten, dass sie „den öffentlichen Linien gefolgt sind“, einschließlich „Das Komitee für Klimawandel sagt, dass dies £50 Milliarden jährlich im Jahr 2050 kosten wird.“

In einer Rede am Montag bestand der Premierminister darauf, dass seine „Net Zero“-Agenda nicht zu neuen Kohlenstoffsteuern für die Verbraucher führen würde. Er sagte der Sun, er plane „eine Agenda für einen wirtschaftlichen Aufschwung…“.

Die Existenz interner Regierungsschätzungen zu den Kosten von Net Zero war erstmals in einem durchgesickerten Brief bestätigt worden, der im Juni 2019 in der Financial Times erschien.

Wir wissen nun, dass die Modellierung des BEIS schätzte, dass sich die Kosten für Net Zero bis 2050 auf 1.275 Mrd. £ belaufen würden. Die jährlichen Kosten wurden modelliert, um von derzeit 15 Mrd. £ pro Jahr auf etwa 70 Mrd. £ im Jahr 2050 zu steigen. Dies wird durch eine Grafik des Finanzministeriums veranschaulicht, die eine zunehmende Divergenz mit den CCC-Berechnungen zeigt:

 

Die dargestellten Zahlen sind Nettokosten und werden teilweise durch Kosteneinsparungen in bestimmten Bereichen ausgeglichen. Die gesamten Bruttokosten sind also noch höher. Das Energy Technologies Institute hat gesagt, dass die Kosten für die Nachrüstung allein des britischen Wohnungsbestands über 2 Billionen Pfund betragen könnten, und ein GWPF-Bericht schätzt die Gesamtkosten auf über 3 Billionen Pfund.

Die Enthüllungen haben zu Forderungen nach mehr Transparenz geführt. Victoria Hewson, Leiterin von Regulatory Affairs am Institute of Economic Affairs, sagte:

„Um neue Umweltvorschriften richtig zu prüfen, brauchen das Parlament und die Öffentlichkeit Zugang zu allen relevanten Informationen. Es ist enttäuschend, dass die Regierung sich entschieden hat, diese entscheidende Kostenbewertung so lange zurückzuhalten, und dass die Ansicht des Finanzministeriums auf solch vagen Projektionen zu beruhen scheint. Transparenz und rigorose Kosten-Nutzen-Analysen sind im Interesse aller, sowohl um die Kosten zu minimieren als auch um sicherzustellen, dass die besten politischen Alternativen gewählt werden.“

Im Dezember veröffentlichte das Institute for Government einen Bericht mit der Argumentation: „Die Regierung muss die Art und Weise, wie sie Beweise sammelt, um die Netto-Null-Politik zu informieren, von Grund auf reformieren und ein breiteres Spektrum von Interessenvertretern konsultieren, wenn sie kostspielige politische Fehlschläge vermeiden will.“

Die Einschätzung der Beamten widerspricht den offiziellen Beratern der Regierung zum Klimawandel, dem Committee on Climate Change (CCC). Das CCC wird von Lord Deben geleitet, der zugegeben hat, Hunderttausende Pfund von „grünen“ Unternehmen zu erhalten. Es hatte eine niedrigere Schätzung von 50 Milliarden Pfund pro Jahr bis 2050 vorgelegt, aber das Finanzministerium sagte, die BEIS-Zahlen seien „realistischer“.

[Hervorhebung vom Übersetzer]

Andrew Montford, stellvertretender Direktor der GWPF, sagte:

„Nachdem ich fast zwei Jahre lang meinen Antrag auf Informationsfreiheit angefochten habe, bin ich froh, dass das Finanzministerium endlich zugestimmt hat, diese Informationen freizugeben. Es zeigt, dass Minister und Beamte der Regierung, obwohl sie von einer glaubwürdigeren höheren Schätzung für die Kosten von Net Zero wussten, entschieden haben, wichtige Informationen zu verbergen. Wir müssen jetzt die Methodik hinter diesen Schätzungen erkennen, damit das Parlament die Kosten der Dekarbonisierungspolitik richtig hinterfragen kann.“

Read the full FoI disclosure here

Link: https://www.thegwpf.com/revealed-the-1-3-trillion-net-zero-cost-estimate-called-more-realistic-by-treasury-suppressed-by-government/

——————————–

Im Britischen Boulevard-Blatt (vergleichbar mit der BILD-Zeitung bei uns) gab es dazu gleich einen Artikel. So sehr BILD manchmal „Bildungsbremse“ genannt wird – hier könnte sie wirklich mal der Bildung Vorschub leisten. Einschub des Übersetzers

Briten wurden hinsichtlich der Kosten von Net Zero in die Irre geführt

Natasha Clark, The Sun

Die Briten wurden über die Kosten des Netto-Null-Emissionsziels der Regierung bis 2050 getäuscht, nachdem Whitehall-Beamte den geschätzten jährlichen Schaden von 70 Milliarden Pfund heruntergespielt hatten.

In brisanten E-Mails, die nach einer zweijährigen FOI-Schlacht veröffentlicht wurden, gaben Beamte des Finanzministeriums gegenüber dem damaligen Kanzler Philip Hammond zu, dass die Kosten für die Umstellung auf grüne Technologien wahrscheinlich 20 Milliarden Pfund pro Jahr höher sein würden als die 50 Milliarden Pfund, für die sie öffentlich werben sollten.

Die Briten wurden über die Kosten von Theresa Mays Klimaneutralitätsziel getäuscht. Quelle: PA:Press Association

E-Mails zwischen Philip Hammond und seinen Erfüllungsgehilfen enthüllten, dass die Zahl 20 Milliarden Pfund höher war als erwartet. Quelle: Darren Fletcher – The Sun

Ex-PM Theresa May hat das Vereinigte Königreich rechtlich dazu verpflichtet, bis 2050 „Net Zero“ zu erreichen, bevor Boris Johnson 2019 das Amt übernahm – was bedeutet, dass alle schädlichen Gase und Emissionen ausgeglichen werden müssen.

Interne Regierungsmodelle des Wirtschaftsministeriums zeigten, dass die Kosten um 40 Prozent höher sein würden – und bis 2050 1,275 Billionen Pfund erreichen würden.

Damals spielte No10 die geschätzten Gesamtkosten von einer Billion Pfund für die Umstellung auf eine völlig Kohlenstoff-neutrale Wirtschaft bis 2050 herunter und wies die Berichte zurück, dass dies bedeuten könnte, dass die öffentlichen Ausgaben in anderen Bereichen gekürzt werden müssten.

Andrew Montford, stellvertretender Direktor der Global Warming Policy Foundation, die auf die FOIs drängte, sagte gestern Abend: „Nachdem ich fast zwei Jahre lang meinen Antrag auf Informationsfreiheit angefochten habe, bin ich froh, dass das Finanzministerium endlich zugestimmt hat, diese Informationen freizugeben. Es zeigt, dass Minister und Beamte der Regierung, obwohl sie von einer glaubwürdigeren höheren Schätzung für die Kosten von Net Zero wussten, entschieden haben, wichtige Informationen zu verbergen. Wir müssen jetzt die Methodik hinter diesen Schätzungen erkennen, damit das Parlament die Kosten der Dekarbonisierungspolitik richtig hinterfragen kann.“

Horrende Kosten

Klimaforscher argumentieren, dass die wahren Kosten des Klimawandels auf lange Sicht sogar noch MEHR kosten werden, wenn jetzt nichts unternommen wird.

Die damalige Premierministerin Theresa May war sehr daran interessiert, die Verpflichtung zu Netto-Null zu überstürzen, bevor sie 2019 das Amt verlässt.

Aber Hammond war besorgt über die langfristigen Kosten für die Wirtschaft und wollte gegenüber der Öffentlichkeit ehrlich hinsichtlich der horrenden Kosten sein.

Der ganze Beitrag steht hier.

Übersetzt von Chris Frey EIKE

 




Klimaschau 19 von Sebastian Lüning: Rahmstorf fällt auf natürliche Polarwirbel-Variabilität herein




Treibhauseffekt oder nur „bodennahe Gasstrahlung“?

  1. Es gibt keinen Treibhauseffekt, der aus größerer Höhe wirkend den Erdboden zusätzlich zur Solareinstrahlung erwärmt. Das, was als Treibhauseffekt bezeichnet wird, ist eine bodennahe Wärmestrahlung bzw. IR-Strahlung infrarotaktiver Spurengase wie CO2, N2O, CH4, Wasserdampf und andere.
  2. Die von Nimbus 4 aufgenommenen Satellitenspektren (Hanel et al.) repräsentieren nicht den aus großer Höhe auf den Erdkörper treffenden Treibhauseffekt. Dies gilt auch für Messungen mit einem zenital ausgerichteten Pyrgeometer.
  3. Anders als angeregte Atome strahlen „Treibhausgase“ nicht bei einer bestimmten Wellenlänge (z. B. Linienspektrum des Natriums bei 369 nm = Nanometer), vielmehr emittieren sie in breiten Bandenspektren. Die Breite der Bandenspektren hängt von der sogenannten Rotationsquantenzahl J Bsp.: CO2–Bande bei 15 µm (Mikrometer) hat breite „Seitenbanden“ (IR-Banden), die theoretisch bis unendlich gehen. In der Praxis begnügt man sich mit dem Bereich 15 µm ± 3,5 µm. Die zentrale Bande bei 15 µm ist sehr stark. Sie wird zum gleichen Zeitraum von der überwiegenden Zahl der Moleküle emittiert. Je schwächer die Seitenbande, desto weniger Moleküle emittieren diese. Beispielsweise kommen auf 1000 bei 15,00 µm strahlende CO-Moleküle ganze 0,6 Moleküle, die bei 16,74 µm emittieren.
  4. Genau so wenig wie die Schildbürger Licht (elektromagnetische Strahlung)in Säcken in ihr fensterloses Rathaus tragen konnten, kann Wärmestrahlung nicht einfach als solche in der Atmosphäre vorkommen. Sie ist immer an Materie gebunden, die eine bestimmte Temperatur hat. Deshalb stammen schwache „Wärmestrahlungsbereiche“ (schwache IR-Banden) zur gleichen Zeit immer nur von wenigen Molekülen.
  5. Für die bei einer bestimmten Wellenlänge emittierte Strahlung gilt das Planck’sche Strahlungsgesetz. Die sogenannte Stefan-Boltzmann-Gleichung erfasst das gesamte Spektrum eines homogenen Körpers und nicht eine bestimmten Spektralbereich. Wasser, Wald, Wiese, Savanne und Wüstensand emittieren Wärmestrahlung in verschiedenen Spektralbereichen. Deshalb ist es eine unzulässige Vereinfachung, die Stefan-Boltzmann-Gleichung mit einer variabel angepassten Albedo auf den gesamten Erdkörper anzuwenden und zu behaupten, ohne „Treibhausgase“ hätte dieser eine Mitteltemperatur von minus 18 °C. Dies ist eine reine Phantasiezahl, die auf unzulässigen Vereinfachungen beruht.
  6. Sogenannte „Treibhausgase“ absorbieren und emittieren IR-Strahlung. Die Emission erfolgt entweder spontan oder wird vom Strahlungsfeld induziert. Sie ist abhängig von der Temperatur und nicht von Reflektionen („Treibhausgase“ sind kein Spiegel!). Was von den Radiometern der Satelliten registriert wird, sind die von den optisch aktiven Gasen auf Grund der herrschenden Temperaturverteilung in der Atmosphäre emittierten Strahldichten.
  7. Energie (genauer: Gibbs-Energie bzw. freie Energie) fließt immer von einem höheren Niveau zu einem niedrigeren. Deshalb kann kälteres CO2 in beispielsweise 1000 m Höhe nicht durch Strahlung den wärmeren Erdboden erwärmen. Das wäre ein Perpetuum mobile 2. Art. Dies ist genauso unmöglich, wie ein Ozeandampfer seine Antriebsenergie unter Abkühlung des Wassers aus dem Meer gewinnen kann.
  8. Auch die sogenannte Strahlungstransportgleichung kehrt den Energiefluss nicht um. Vielmehr gilt auch hier, dass die Strahlung netto immer von einem wärmeren Körper zu einen kälteren fließt.

Der ganze ausführliche Beitrag kann hier ( Bodennahe Gasstrahlung oder Treibhauseffekt ) als pdf herunter geladen werden. Ein Vorgänger Artikel kann hier gelesen werden.

 




Unbequemes Wissen

[*It is a tour de force. Diesen Terminus kann man auch mit „Kraftprobe“ oder anderen Bedeutungen übersetzen. A. d. Übers.]

Von Donald Rumsfeld stammt eine berühmte Aussage über die Probleme der Entscheidungsfindung angesichts von „known knowns“, „known unknowns“ und „unknown unknowns“. Zu diesen drei Kategorien fügte Rayner eine vierte hinzu, „unknown knowns“ – die Dinge, die wir tatsächlich wissen, aber vorgeben, nicht zu wissen. Er nannte dies „unbequemes Wissen“ und bezog sich damit auf all das, was politische Entscheidungsträger und Institutionen vergessen, um zu regieren.

Bis zu einem gewissen Grad sei es unvermeidlich, unbequemes Wissen aus dem Bild zu verbannen, argumentierte Rayner. Angesichts einer Welt von irreduzibler Komplexität müssen Menschen vereinfachte Versionen der Realität konstruieren, um handeln zu können. Aber wenn Institutionen nicht in der Lage sind, unbequemes Wissen in die Politikgestaltung zu integrieren, können die Folgen gravierend sein. Dies gilt nicht nur im Hinblick auf kurzfristige politische Ergebnisse, sondern auch für die langfristige Glaubwürdigkeit der Institutionen.

[Hervorhebung vom Übersetzer]

Ein Jahr später hat uns die Covid-19-Pandemie nachdrücklich gezeigt, wie das geht. Von Anfang an machten Wissenschaftler, Experten, Experten und Provokateure eine kühne Ankündigung nach der anderen. Politische Entscheidungsträger kündigten Beschränkungen an, die angeblich auf den besten verfügbaren wissenschaftlichen Erkenntnissen beruhten, und ließen sie dann innerhalb weniger Tage wieder fallen.

Wie so oft sind die Fakten unseren Interpretationen ihrer Bedeutung unterworfen. Der Erfolg bei der Eindämmung des Virus in Vietnam, Taiwan, Korea und Japan zählt nicht, weil es asiatische Länder sind. Neuseeland schon, weil sie wie „wir“ sind. Die hohen Fallzahlen in den Vereinigten Staaten und Großbritannien sind auf die Inkompetenz global unpopulärer Führer zurückzuführen. In Italien, Spanien und Frankreich sind sie auf die Überalterung der Bevölkerung und die höhere Bevölkerungsdichte zurückzuführen.

Eines scheint jedoch sicher zu sein. Mit jeder neuen Wendung, mit jedem neuen Scharmützel zwischen den sich duellierenden Experten, mit jeder Runde von Schuldzuweisungen, wenn die Dinge nicht so laufen, wie sie versprochen wurden, verlieren unsere sozialen und politischen Institutionen ein wenig mehr an Glaubwürdigkeit.

1.

Wie mit der Pandemie, so mit der Welt. Diese Ausgabe des Breakthrough Journal trägt den Titel „Uncomfortable Knowledge“ [Unbequemes Wissen], eine Hommage an Steve Rayner, dessen Arbeit so vieles, was wir im Laufe der Jahre veröffentlicht haben, informiert, vorweggenommen und inspiriert hat. Es enthält Rayners letzten Aufsatz, „Policy Making in the Post-Truth World“ [etwa: Politische Entscheidungen in einer Welt jenseits der Nachrichten], der posthum mit Daniel Sarewitz veröffentlicht wurde. In dem Aufsatz bieten Rayner und Sarewitz eine Abschiedsrede auf Rayners Denken über die Anforderungen und Perversitäten der „postnormalen“ Wissenschaft, wie normative Ansichten über die Natur die Wissenschaft in Bezug auf Risiko, Technologie und Umwelt informieren und die Art und Weise, in der so viel von dem, was wir heute Wissenschaft nennen, nicht wirklich die Natur beschreibt, sondern eher künstliche Nachbildungen der natürlichen Welt, die zunehmend von allem entfernt sind, was wir beobachten oder testen können.

Das daraus resultierende Sammelsurium von normativen Behauptungen, Confirmation Biases, oberflächlicher Empirie, nicht falsifizierbaren Vorhersagen, Kontrafaktizitäten und Kontrakontrafaktizitäten hat – wenig überraschend – zu einem schwindenden Vertrauen in die Wissenschaften, Experten und Institutionen geführt, die sich anmaßen, uns in diesen Angelegenheiten zu leiten. Als Reaktion darauf kommen viele Beobachter zu dem Schluss, dass wir in eine „Post-Wahrheits“-Ära eingetreten sind, in der Rechtspopulisten, Verschwörungstheoretiker und alternative Heiler einen Krieg gegen die Wissenschaft führen, mit potenziell verheerenden Folgen für die menschlichen Gesellschaften und den Planeten.

Aber Rayner und Sarewitz argumentieren, dass dies nicht so ist. Das Problem ist nicht, dass Scharlatane die Öffentlichkeit mit Pseudowissenschaft und Fehlinformationen getäuscht haben, sondern dass die Expertenklasse und die Institutionen, in die sie eingebettet sind, es versäumt haben, sich um die Vielzahl der öffentlichen Werte zu kümmern, die unvermeidlich in die Konstruktion von politisch relevanter Wissenschaft involviert sind. Die Lösung, so argumentieren sie, ist nicht mehr Forschung, bessere Wissenschaftskommunikation oder lautere Verurteilungen von Wissenschaftsleugnung. Stattdessen ist es ein größerer kognitiver Pluralismus – sowohl in der Art und Weise, wie wir Probleme definieren, als auch in der Art und Weise, wie wir Lösungen gestalten – so dass beide besser in der Lage sind, eine breitere Palette von normativen Haltungen gegenüber Risiken anzusprechen.

[Hervorhebung des gesamten Absatzes im Original]

Ein Großteil der Diskussion über den „Krieg gegen die Wissenschaft“ und unseren „Post-Truth“-Zustand bezieht sich natürlich nicht auf einen allgemeinen Zustand, sondern auf eine spezifische Kontroverse, nämlich das Versagen der politischen Entscheidungsträger, die Empfehlungen der Klimawissenschaftler zu beherzigen, wobei viele Klimabefürworter [climate advocates] behaupten, dass das Versagen das Ergebnis einer anhaltenden Desinformationskampagne der Medien ist, die von den Interessen der fossilen Brennstoffe unterstützt wird.

Aber in „Unbalanced: How Liberal Elites Have Cued Climate Polarization“ [etwa: „Unausgewogen: Wie liberale Eliten die Klima-Polarisierung herbeigeführt haben“] argumentieren die Politikwissenschaftler Eric Merkley und Dominik Stecula, dass es wenig Beweise gibt, die diese Behauptung unterstützen. Auf der Grundlage einer umfassenden Studie über drei Jahrzehnte Nachrichtenberichterstattung zu diesem Thema stellen Merkley und Stecula fest, dass die Mainstream-Medien, einschließlich konservativer Medien wie dem Wall Street Journal und Fox News, den Klimaskeptikern nie eine große Plattform geboten haben.

Das ist aber noch nicht das Ende der Geschichte. Die Medien haben eine Rolle bei der Polarisierung der Einstellungen zu diesem Thema gespielt, nur nicht die Rolle, die sich viele vorgestellt haben. „Das Problem mit der konventionellen Umweltgeschichte über die Klimaleugnung ist, dass sie die kritische und polarisierende Wirkung von Hinweisen ignoriert, die republikanische Wähler von demokratischen und liberalen Eliten erhalten haben.“, schreiben Merkley und Stecula.

In den letzten zwei Jahrzehnten sind die Republikaner skeptischer gegenüber dem Klimawandel geworden. Das liegt nicht daran, dass sie ihre Hinweise von Wissenschaftsleugnern in den Medien erhielten, sondern daran, dass sie negativ auf hochkarätige liberale und umweltpolitische Klimabefürworter reagierten, die die Medienberichterstattung dominiert haben.

[Hervorhebung im Original]

Das ist in der Tat eine unangenehme Erkenntnis für diejenigen, die bei diesem Thema in der Medienberichterstattung überwältigend vertreten waren und das breitere Narrativ geprägt haben. Und so erfanden Partisanen und Umweltschützer eine Verschwörung, um ihr Scheitern zu erklären, die Öffentlichkeit für sich zu gewinnen, anstatt die Möglichkeit in Betracht zu ziehen, dass zwei Jahrzehnte der Gestaltung des Themas in einer Weise, die parteipolitischen und ideologischen Zielen diente, das Thema vorhersehbar entlang parteipolitischer und ideologischer Linien polarisierte.

[Hervorhebung vom Übersetzer]

In „What Would Hayek Do About Climate Change“ nimmt Sagoff neoklassische Ökonomen aufs Korn, die argumentieren, das Problem sei das Ergebnis eines „Marktversagens“, das durch die Bepreisung von Kohlenstoff gelöst werden könne. Diese Behauptung missversteht, was Märkte und Preise eigentlich tun. „Märkte sind für die Entdeckung da, nicht für den Nutzen“, argumentiert Sagoff. Preise vermitteln Informationen, keinen Wert.

„Wenn es nach der American Economic Association (AEA) ginge, würde sie die Preise nach ihrer Berechnung der sozialen Kosten von Kohlenstoff festlegen“, schreibt Sagoff. „Unternehmer würden dann nicht um die Marktpreise herum planen, sondern um die AEA-‚Preise‘, die in dem doktrinären und politischen Wind schweben. Das macht Investitionen zu Spekulationen – Wetten darauf, was die nächste Regierung oder das Zentralkomitee tun wird.“

Hayek, so spekuliert Sagoff, hätte den Klimawandel nicht als ein Problem des Marktversagens verstanden, sondern als eines der Information, der Entdeckung und der Innovation. Er hätte nichts dagegen gehabt, dass die Regierung als Investor und Risikokapitalgeber auftritt oder sogar mehr für aufkommende saubere Energietechnologien zahlt. Aber er hätte sich dagegen gewandt, dass die Regierung versucht, die Märkte durch die Festlegung von Preisen zu regulieren.

[Hervorhebung im Original]

„Indem sie ein rituelles ‚Marktversagen‘-Abracadabra über soziale Probleme singen“, so argumentiert Sagoff, „würden Ökonomen eine freie Marktwirtschaft durch eine Kosten-Nutzen-Analyse ersetzen, um ein Hirngespinst ihrer mathematischen Vorstellungskraft zu erreichen, d.h. Wohlfahrt, Besserstellung oder Nutzen, für dessen Messung sie bezahlt werden wollen.“

2.

In seiner langen und abwechslungsreichen Karriere interessierte sich der studierte Anthropologe Rayner weniger dafür, was die Wissenschaft abstrakt tut oder welchen Wert sie an sich hat, sondern wofür sie da ist. Wie nutzen wir sie? Warum vertrauen wir ihr? Wie helfen uns die Wissenschaften und die Menschen, die sie für politische Entscheidungsträger und Laien interpretieren, dabei, die Welt besser zu verstehen, die gewünschten Ergebnisse zu erzielen und bessere Entscheidungen zu treffen?

In dieser Hinsicht war Rayner ebenso besorgt über den Missbrauch von Wissenschaft und wissenschaftlicher Autorität wie über das, was die Wissenschaft leisten kann. Ob es Klimawissenschaftler sind, die immer mehr Medienberichterstattung über ihre Wissenschaft fordern, Umweltschützer, die darauf bestehen, dass ihre politische Agenda einfach das Gesetz der Thermodynamik ist, das in der Sozialpolitik klein geschrieben wird, oder Ökonomen, die sich einbilden, dass sie die Kosten des Klimawandels am Ende des Jahrhunderts zuverlässig abschätzen können, um heute angemessene Kohlenstoffsteuerhöhen zu berechnen – alle Aufsätze in dieser Ausgabe sprechen auf die eine oder andere Weise diese Frage an.

Die Vorstellung, dass die öffentliche Wissenschaft die Kosten und den Nutzen des Klimawandels über ein Jahrhundert oder das Verhalten eines Atommülllagers über Jahrtausende hinweg oder sogar die globalen Folgen einer sich schnell ausbreitenden Pandemie über Hunderte von Regionen mit unterschiedlichen Bevölkerungen, Kulturen und institutionellen Traditionen und Kapazitäten hinweg vernünftig charakterisieren könnte, verlangt etwas von der Wissenschaft und den Institutionen, in denen sie lebt, dem sie niemals gerecht werden könnte.

„Niemand macht sich Sorgen darüber“, stellen Rayner und Sarewitz fest, „ob Laien Astrophysikern vertrauen, die den Ursprung der Sterne erforschen, oder Biologen, die anaerobe Bakterien studieren, die sich um Tiefsee-Schlote scharen.“ Ebenso wenig misstrauen die meisten von uns Chirurgen oder Flugzeugpiloten. Es ist eher eine bestimmte Art von Wissenschaft, „die Ansprüche darauf erhebt, wie wir leben und wie wir regiert werden“, der so viele von uns nicht mehr vertrauen.

Diese Art von Wissenschaft ist in den ersten Jahrzehnten des 21. Jahrhunderts so heftig umstritten, weil die Wissenschaft, die mit der komplexen Schnittstelle von menschlichen Gesellschaften, öffentlicher Gesundheit, der natürlichen Welt und der Technologie verbunden ist, so viel Unsicherheit über so viele Wertigkeiten menschlicher Entscheidungen und Werte mit sich bringt. Laien misstrauen zu Recht starken Behauptungen, ob sie nun von Wissenschaftlern, politischen Entscheidungsträgern oder Befürwortern derselben stammen, die auf dieser Art von Wissenschaft basieren.

[Hervorhebung im Original]

Aus diesem Grund kümmerte sich Rayner viel mehr um zivilgesellschaftliche Institutionen als um das Wissen, das sie verkörpern; er glaubte, dass gute Institutionen, die in der Lage sind, konkurrierende Interessen und Weltanschauungen zu steuern, wichtiger sind als eine idealisierte Vorstellung von „guter Wissenschaft“. Diese Perspektive hat sich als immer vorausschauender und wertvoller erwiesen, da ein Großteil der öffentlichen Wissenschaft sich zunehmend von Behauptungen gelöst hat, die tatsächlich beobachtbar oder überprüfbar sind, da unsere Expertenklasse für ihre vielen konkurrierenden und übermütigen Behauptungen und Vorhersagen immer weniger rechenschaftspflichtig geworden ist und da unsere politische Klasse nicht mehr bereit ist, Verantwortung für ihre Handlungen und Entscheidungen zu übernehmen. Das Problem ist nicht so sehr die Wissenschaft, die für gesellschaftliche Kontroversen über Risiko, Technologie und Umwelt relevant ist, sondern die Eliten und Institutionen, die sie produzieren.

Da wir beobachtet haben, wie so viele unserer Institutionen versagt haben und so viel von unserer politischen Kultur zerfallen ist, wird es nur noch deutlicher, dass unsere Fähigkeit zur Selbstverwaltung in fortgeschrittenen, entwickelten Volkswirtschaften davon abhängt, eine gesunde Schnittstelle zwischen Wissenschaft, öffentlichen Institutionen und der Öffentlichkeit, der sie dienen, wiederherzustellen. Leider weilt Steve Rayner nicht mehr hienieden, um uns bei der Bewältigung dieser Herausforderungen zu helfen. Aber seine Arbeit und sein Vermächtnis haben uns eine tiefe Reserve hinterlassen, aus der wir schöpfen können, wenn wir uns auf das zubewegen, was Rayner immer als „unbeholfene Lösungen“ [clumsy solutions] erkannte.

Link: https://judithcurry.com/2021/03/03/uncomfortable-knowledge/

Übersetzt von Chris Frey EIKE

 




Klima-Fasten: Luisa Neubauers seltsame Predigt

Die Evangelische Kirche Deutschlands EKD gilt seit Jahrzehnten als religiöser Arm von Bündnis 90/Die Grünen, was ein wichtiger Grund für die stark zunehmende Zahl der Austritte sein dürfte; und für die Abwanderung zu den politikfernen kleinen evangelischen Freikirchen. Den Superintendenten und Bischöfen kann es gleich sein, da das Geld mittlerweile vermehrt von der allgemeinen Steuer, und nicht mehr von der Kirchensteuer kommt; und störende evangelikale Christen weg sind.

Der Empörung der noch verbliebenen Gläubigen (und Zahler) wurde am 28. Februar neue Nahrung gegeben, als ausgerechnet die langjährige Vielfliegerin und Höhere Tochter Luisa Neubauer eine Rede im Rahmen der Fastenpredigtreihe halten darf. (ab Min. 0:33)

Am Anfang des Videos sieht man, daß die Sitzreihen des Doms erstaunlich leer sind – die wenigen Zuhörer sitzen alle maskiert mit großem Abstand in den Bänken. Die gespenstische Szenerie erinnert frappierend an Greta Thunbergs ersten „großen“ PR-Auftritt in Kattowitz Ende 2018 bei der UN-Konferenz. Die Rede der Klimapredigerin Luisa stößt vermutlich also gar nicht auf so großes Interesse und nervt selbst die Hauptstadtgläubigen – Corona-Bestimmungen hin oder her. Den PR-Experten in Medien, NGOs einschließlich Kirchen, und der Politik ist die Klima-PR aber so wichtig, daß sie via Zeitung und Internet künstlich hochgepuscht wird.

Die Rede in Kurzform:

Neubauer läßt es sich nicht nehmen, zu behaupten, daß die Corona-Infektionswelle dem Klimawandel durch menschliches Handeln geschuldet sei, wobei sie andeutet, daß es die westlichen Industriestaaten seien, die auf Kosten der anderen wirtschafteten.

„Wir haben einen Risikoplaneten geschaffen“

Das krasse Gegenteil ist natürlich der Fall: Die Natur ist unbarmherzig, und erst durch unsere technische Zivilisation ist es überhaupt möglich, rund acht Milliarden Menschen zu ernähren. In puncto Viren hat Luisa allerdings recht, beziehungsweise hätte, wenn sie den Mut und die Freiheit aufbrächte, darauf hinzuweisen, daß das Corona-Sars2-Virus wahrscheinlich von der Gewinnmutations-Forschung im Institut in Wuhan geschaffen wurde. Aber diese Information widerspricht dem Narrativ der Mächtigen und wird daher tabuisiert. Luisa will schließlich Politikerin werden.

Ansonsten macht sie nur Werbung für Windräder und streut einige Bibelzitate mit ein, der Form halber. Auch einige Grußadressen an die akademischen Genderer („Kommiliton_*innen“) und die Antifa („Hanau-Gedenk-Demo in Berlin“) dürfen nicht fehlen. Die zweite Hälfte ihrer Rede ist gespickt mit theologischen Versatzstücken und Begriffen, wie wir sie z.B. von Merchandising-Produkten der ehemaligen EKD-Chefin Margot Käßmann kennen („Gerechtkeit“, „Sorge“, „Fürsorge“, „miteinander“,…).

So weit, so erwartbar. Interessanter als Neubauers Politpredigt sind die Reaktionen von Kritikern auf die PR-Aktion der Evangelischen Kirche. Der kirchenpolitische Sprecher der AfD-Fraktion im Landtag in Stuttgart, Daniel Rottmann, kritisierte die Promovierung „der grüne(n) Ersatzreligion der Klimarettung“ durch die Kirche. Ex-ZDF-Moderator Peter Hahne spricht von „Irrsinn“ und der EKD als „rot-rot-grüne(r) NGO“. Und

„Früher fasteten wir für Gott, heute für Greta“.